Vous êtes sur la page 1sur 263

Teora del Riesgo

Introducci on
La actividad aseguradora est a difundida en el mundo entero, son de uso corriente los seguros
de autom oviles, incendios, robos, vida, etc. Esta actividad responde a la incertidumbre que
sienten los individuos ante ciertas situaciones que pueden provocar distintos da nos, tanto
materiales como personales. El miedo a la posibilidad de que ocurran dichos acontecimien-
tos se intenta eliminar mediante la compra de un seguro que compensar a al asegurado en
el caso de producirse alg un da no. La base de esta actividad radica en la existencia de un
equilibrio entre la prestacion que hara la compa na de seguros y la contraprestacion que ella
recibe del asegurado.
Algunos antecedentes hist oricos
En sus inicios, el seguro era una forma de solidaridad entre los miembros de una comunidad.
Consista en un fondo o bolsa en la que todas las personas depositaban parte de su dinero.
Con el capital que acumulaban entre todos, se pagaban los da nos que sufran algunos de
ellos. Por ejemplo: Antiguamente exista en algunos puertos la costumbre de que todos los
armadores de barcos que hacan una determinada lnea, aportaban a un fondo com un una
cantidad de dinero en funci on del n umero de navos que posean. Aquellos armadores cuyos
barcos se hundan o eran saqueados por piratas, reciban una compensaci on econ omica proce-
dente del fondo com un para poder adquirir otro barco para continuar su actividad laboral.
La Ciencia Actuarial tal como hoy se concibe comienza en el siglo XVII. Durante este periodo
las necesidades comerciales dieron lugar a operaciones que acarreaban un interes compuesto;
los seguros martimos eran algo habitual y el c alculo de las rentas vitalicias comenzaba a
aparecer. Este tipo de operaciones requera algo mas que el juicio intuitivo y comercial de
los primeros aseguradores. Uno de los pilares de la Ciencia Actuarial fue la Teora de Prob-
abilidades, las bases del analisis estadstico en el seguro fueron establecidas por Pascal en
1654 en colaboraci on con el tambien matematico Pierre de Fermat.
Otro de los pilares es el concepto de tablas de vida, basadas en las investigaciones sobre la
mortalidad. Las primeras tablas son debidas a John Graunt (1662). En 1693 Edmund Hal-
1
ley, matem atico ingles, public o un famoso documento describiendo la construccion de tablas
de vida completas a partir de la hip otesis de estacionariedad de la poblaci on, as como el
metodo de valoraci on de las rentas vitalicias, que es, en esencia, el mismo que se utiliza hoy
en da. Las tablas de Halley se utilizaron por la mayora de las compa nas de seguros inglesas
creadas durante el siglo XVIII.
Es en el presente siglo, la Ciencia Actuarial se enriquece con las aportaciones de las matematicas
de los seguros no vida, la teora estadstico-matematica de la estabilidad y la moderna teora
de la decisi on.
Algunos terminos del seguro
La actividad aseguradora, como cualquier otra que supone una especialidad, tiene su propia
forma de expresarse (jerga). Vamos a ver una serie de terminos de uso frecuente:
Seguro: Entendido como contrato, es el convenio entre dos partes, la compa na o entidad
aseguradora por una parte y el contratante por otra, mediante la cual la primera se compro-
mete a cubrir econ omicamente la perdida o da no que el asegurado puede sufrir durante la
vigencia del contrato. La obligacion del asegurado es pagar, a la rma del contrato, el precio
del seguro total o parcialmente.
Riesgo: Es la posibilidad de perdida o da no. El hombre desde que nace vive con la constante
amenaza de enfermedad, accidente, muerte, etc. De la misma forma sus propiedades pueden
sufrir incendios, robos, etc.
Siniestro: Es la concreci on del riesgo. Por ejemplo, un incendio que destruye una fabrica, el
robo de mercancas, muerte en un accidente, etc.
Asegurador: Es la persona jurdica que suscribe el compromiso de ofrecer la protecci on in-
demnizatoria cuando se produce el siniestro. Un asegurador es una sociedad an onima, una
mutua de seguros, cooperativa, etc. Para que una empresa pueda ejercer legalmente como
aseguradora debe tener una autorizaci on que concede la autoridad correspondiente.
Asegurado: Es la persona titular del interes asegurado. Es quien sufre el perjuicio economico
en sus bienes, en caso de que ocurra el siniestro, o la persona cuya vida o integridad fsica se
asegura y, por lo tanto, quien percibir a la indemnizacion en caso de que un siniestro afectase
al objeto asegurado (excepto en el caso de seguros de vida, en que recibe la indemnizaci on
2
en caso de muerte el beneciario).
Beneciario: Cuando se asegura la vida o la integridad fsica de una persona puede desig-
narse a otra persona para que reciba las indemnizaciones, que es el beneciario.
Poliza: Es el documento en que se plasma el contrato de seguro. Tiene dos caractersticas
que la hacen especialmente importante:
Es la prueba de que el contrato existe; y
Es la normativa que regula las relaciones entre los contratantes.
Consta basicamente de tres partes:
Condiciones generales: son una serie de cl ausulas iguales para todos los contratos de la
misma modalidad. Incluyen deberes y derechos, forma de atencion del siniestro, riesgos cu-
biertos, etc.
Condiciones particulares: son las que individualizan cada contrato de seguro. Incluyen
datos personales del asegurado, caractersticas del riesgo que se asegura (incendio, acci-
dente, robo...), importe de la prima, etc.
Condiciones especiales: aparecen en algunas polizas y suponen una adaptaci on para deter-
minados casos especiales. Por ejemplo, hay unas condiciones generales para todos los seguros
de robo, pero dadas las caractersticas que pueden tener el seguro de robo a joyeras, se crean
para este tipo de establecimientos unas condiciones especiales.
Prima: Es el precio del seguro. Es la cantidad de dinero que el asegurado paga para que,
a cambio, el asegurador pague en caso de siniestro. La prima es por lo general para una
vigencia anual del seguro, aunque excepcionalmente puede pagarse por una sola vez, para la
cobertura de varios a nos (prima unica en seguros de vida) y tambien por una vigencia menor
de un a no (prima a corto plazo, como en el caso de un viaje, transporte de mercancas, etc.)
Clases de primas:
Prima de riesgo: llamada tambien prima pura, natural, matem atica o estadstica, es la
cantidad necesaria y suciente que el asegurador debe percibir para cubrir el riesgo. Nace
del concepto de esperanza matematica como precio justo de una eventualidad.
3
Prima de tarifa: tambien llamada prima comercial, es la prima de riesgo mas los recargos.
Estos recargos son de varios tipos:
-Gastos de administracion: sueldos, alquileres de locales, etc.
-Gastos de adquisici on: formado b asicamente por la comision que se le paga al corredor o
intermediario.
-Margen de benecio: son los recargos asignados a la utilidad razonable del asegurador.
Prima de facturaci on: es la prima de tarifa m as los recargos de ley, como son los impuestos
sobre la prima, los derechos de emision y otros agregados y ordenados por disposiciones
legales, as como los intereses de nanciacion en el caso de que el asegurador otorgue facili-
dades de pago fraccionado de la prima anual.
Clasicacion de los seguros
Los seguros se pueden clasicar en dos grandes grupos: seguros de vida y seguros de no vida.
Un seguro de vida es aquel en el que una entidad aseguradora se compromete mediante el
cobro de una prima unica o periodica a pagar la prestaci on convenida en el caso de que se
cumpla la circunstancia prevista en el contrato: que la persona o personas fallezcan o sobre-
vivan a un periodo de tiempo determinado. Existen distintas modalidades de seguros de vida:
Seguros de vida en caso de muerte.
Seguros de vida en caso de vida.
Seguros de vida mixtos.
Los seguros de no vida van dirigidos a cubrir da nos materiales que ocasionan perdidas
econ omicas. Los mas frecuentes son los de autom oviles, incendios, robos, etc. En este
caso, las prestaciones o indemnizaciones estan en funcion de la cuanta del da no.
Objetivos de las Matematicas Actuariales
El objetivo de las Matematicas Actuariales lo constituye el estudio cuantitativo de las op-
eraciones de seguro (y nancieras en general) a n de optimizar las decisiones sobre las mag-
4
nitudes que intervienen en ellas, teniendo en cuanta que las citadas operaciones las realiza
un ente asegurador (o nanciero) que desarrolla su actividad en un entorno economico-social.
Forma parte del objetivo de la Matematica Actuarial:
El calculo de primas, reservas, valores garantizados, etc., en las operaciones de seguros de
vida.
El an alisis cuantitativo de los sistemas actuariales en los seguros colectivos, sociales y
planes de pensiones.
El estudio de los problemas de tarifaci on y reservas tecnicas en los seguros no vida.
La determinaci on de las magnitudes de estabilidad del ente asegurador y el an alisis de su
solvencia.
Riesgo
Denicion: Se entiende por riesgo, en la literatura actuarial, no s olo al objeto asegurado,
sino tambien, a la posibilidad de producirse, por azar, un acontecimiento que origine una
perdida econ omica o patrimonial.
Un individuo puede adoptar distintas conductas a la hora de enfrentarse al riesgo, una par-
ticularmente asociada al seguro, es la de prevenci on y previsi on, que conlleva a actitudes de
ahorro y de aseguramiento (como mecanismo para reducir la incertidumbre del asegurado a
traves del pago de la prima). Este ultimo constituye la forma mas adecuada y tecnicamente
ecaz para cubrir riesgos.
Caractersticas del riesgo
Las caractersticas esenciales del riesgo, para ser objeto del seguro, son las siguientes:
Incierto y aleatorio: debe haber una relativa incertidumbre, pues el conocimiento de su
existencia real hara desaparecer la aleatoriedad, principio basico del seguro. En algunos
casos, se conoce con certeza que ocurrir a, pero se ignora cu ando, como en la cobertura de
los seguros de vida.
Factibilidad: Debe existir posibilidad de que riesgo se consume. Tal posibilidad tiene
5
dos situaciones extremas: Por un lado, la frecuencia y del otro la imposibilidad. La excesiva
ocurrencia del riesgo y su materializaci on en siniestro atenta contra la aleatoriedad del suceso
cubierto, as, una gran frecuencia de riesgos, por ejemplo, en la cobertura autom oviles, aparte
de resultar muy costoso para la empresa aseguradora, exigira que las primas de seguros nece-
sariamente se incrementen. Del mismo modo, la imposibilidad de que el riesgo se manieste
en siniestro, situara a la empresa aseguradora en una posicion de presentar una cobertura
absurda que hara inviable la comercializacion del producto, como ofrecer una cobertura de
da nos por nevadas, en un pas tropical.
Fortuito: El riesgo debe provenir de un acto o acontecimiento ajeno a la voluntad hu-
mana de producirlo. No obstante, es suceptible de indemnizacion el siniestro producido a
consecuencia de actos realizados por un tercero, ajeno al vnculo contractual que une a la
aseguradora con el asegurado. Aunque en tal caso, la entidad aseguradora se reserva el
derecho de ejercitar las acciones pertinentes contra el responsable del da no (principio de
subrogaci on), como tambien es posible indemnizar el siniestro causado intencionadamente
por el asegurado, siempre que los da nos se hayan producido por una sutuacion de fuerza
mayor o para evitar otros m as graves.
Monto economico: La realizaci on del riesgo debe producir una necesidad traducible a un
valor econ omico, que se satisface con la indemnizaci on correspondiente.
6
EL PROCESO DE MODELACI

ON DEL RIESGO
Recordemos que un modelo matematico, estadstico, actuarial, o de cualquier naturaleza, es
una representacion simplicada de alg un fen omeno real. En un contexto actuarial especco,
proponer un modelo para describir una situacion, se basa en la experiencia y conocimiento
que el Actuario tenga del fen omeno bajo estudio, as como de la informacion hist orica que
posea sobre el. El modelo debe proveer un balance entre simplicidad (parsimonia) y con-
formidad (ajuste) con la informaci on disponible para elaborarlo.
El proceso de modelado
Sin pretender ser exhaustivos, podemos reconocer ciertos pasos a seguir para modelar una
situaci on actuarial. Es importante remarcar que, aunque los pasos se enumeren ordenada-
mente, la din amica del proceso permite regresar a algunos puntos anteriores, para su mejor
especicaci on. Finalmente, hay que recordar que modelar tiene algo de tecnica y mucho de
arte.
PASOS
1.- Uno o m as modelos pueden seleccionarse de acuerdo al conocimiento inicial y experiencia
que posea el analista, ademas de la naturaleza de la informaci on disponible.
2.- Ajustar el modelo con la informaci on disponible.
3.- Realizar pruebas de diagn ostico del modelo, para determinar si su ajuste es adecuado
para los datos utilizados.
4.- Considerar, a partir del paso anterior, la posibilidad de utilizar otros modelos.
5.- Si existen varios modelos que pueden ser adecuados, entonces, es necesario compararlos
con la nalidad de decidir por alguno de ellos.
6.- Finalmente, el modelo seleccionado puede adaptarse para aplicarlo en el futuro. Esto
puede involucrar alg un ajuste de los par ametros, previendo cambios por alguna caracterstica
ex ogena, como inaci on, cambios del mercado asegurado o cualquiera otra.
7
Distribuciones asociadas al monto de una perdida
Cuando se maniesta un riesgo, la Ca aseguradora tiene la obligaci on de cubrir el monto
de la reclamaci on que genera tal evento. Dadas las caractersticas del riesgo, este monto es
claramente aleatorio, por lo que es suceptible de modelarse a traves de una variable aleatoria,
X. Dado que el monto del siniestro es una cantidad no negativa, los modelos probabilsticos
asociados deben contemplar esta y otras caractersticas. Concretamente
La variable asociada al monto de reclamacion es mayor o igual que cero (no negativa)
X : [0, ) [0, )
La distribucion de esta variable es generalmente sesgada a la derecha
0 2 4 6 8 10
0
.
0
0
.
1
0
.
2
0
.
3
0
.
4
0
.
5
0
.
6
Forma comn de la distribucin del monto de prdida
x
y
=
f
(
x
)
La distribucion puede ser de colas pesadas lo que podra implicar el uso de distribuciones
para valores extremos en su modelaci on.
Entonces, dadas estas caractersticas de los montos asociados a un riesgo, es necesario iden-
ticar las familias de modelos (densidades y/o distribuciones) mas adecuados para su mod-
8
elaci on, recordando que deben ser modelos con soporte en los reales no negativos.
Denicion 1. Una familia de distribuciones parametrica es un conjunto de distribuciones
en donde cada miembro est a determinado por uno o varios valores jos y nitos, llamados
parametros (de ah el nombre parametrica).
Principales familias parametricas para modelar el monto
de riesgo
Familia de distribuciones exponencial
La distribucion exponencial es un modelo apropiado para los montos, ya que cumple con los
requicitos para su modelaci on; no obstante, esta distribuci on tiene colas ligeras por lo que
no resultara adecuada si el seguro genera una gran proporcion de reclamaciones con montos
muy grandes. Las caractersticas de esta v.a. son
f(x; ) = e
x
, > 0, x 0
E(X) =
1

; V(X) =
1

2
; M
X
(t) =
_

t
_
, que existe si t < .
es un parametro de escala.
9
0 1 2 3 4 5
0
.
1
0
.
2
0
.
3
0
.
4
0
.
5
Diversas formas de la distribucin Exponencial
x
E
x
p
o
n
e
n
c
i
a
l
theta= 0.5
theta= 0.3
theta= 0.2
theta= 0.1
Familia de distribuciones Gamma
La distribuci on Gamma es una de las distribuciones mas populares para modelar variables
aleatorias con soporte no negativo. Ya que esta distribucion tiene colas ligeras, puede usarse
para modelar datos en los que no ocurran muchas reclamaciones con valores grandes. Se
dice que X v.a. tiene distribucion Gamma si su funci on de densidad es
f(x; , ) =

x
1
e
x
()
, x 0, 0, 0
con () la funci on Gamma denida como
(z) =
_

0
e
t
t
z1
dt
Las caractersticas de la distribuci on Gamma son
E(X) =

; V(X) =

2
; M
X
(t) =
_

t
_

, t <
10
E(X
r
) =
( + r)

r
(r)
es un parametro de forma y es de escala.
La distribucion exponencial es un caso particular de la Gamma. En concreto, es una
Gamma(1, ).
0 10 20 30 40 50
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
0
.
2
5
Diversas formas de la distribucin Gamma
x
G
a
m
m
a
alpha= 10 , beta= 0.5
alpha= 20 , beta= 0.5
alpha= 30 , beta= 0.5
alpha= 40 , beta= 0.5
alpha= 50 , beta= 0.5
alpha= 60 , beta= 0.5
0 5 10 15 20 25
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
1
.
0
1
.
2
Diversas formas de la distribucin Gamma
x
G
a
m
m
a
alpha= 10 , beta= 0.1
alpha= 10 , beta= 0.2
alpha= 10 , beta= 0.3
alpha= 10 , beta= 0.4
alpha= 10 , beta= 0.5
alpha= 10 , beta= 0.6
Familia de distribuciones Log-Normal
Uno de los modelo mas usados para ajustar datos del monto de reclamacion de un siniestro,
es la distribucion log normal(,
2
). Esta distribuci on es asimetrica con cola derecha pe-
sada (m as pesada que la exponencial y Gamma, pero no de las m as pesadas), lo que permite
acumular una mayor densidad de probabilidad en esta cola. Por lo tanto, puede utilizarse
para modelar siniestros que generen grandes montos de reclamaci on con una proporci on rel-
ativamente alta.
Esta distribuci on guarda una estrecha relaci on con la Normal. De hecho, una variable aleato-
ria se distribuye Log-normal, si el logaritmo natural de ella, se distribuye Normal, es decir
11
X log normal(,
2
), si Ln(X) N(,
2
)
La funcion de densidad de esta variable aleatoria es
f(x; ,
2
) =
1

2
2
x
e

1
2
2
(ln(x))
2
, x > 0, R,
2
R
+
Algunas caractersticas de esta distribucion son
E(X) = e
+

2
2
; V(X) = e
2+
2
_
e

2
1
_
; E(X
r
) = e
r+
r
2

2
2
(momentos de orden r=1,2,...)
Pese a su relacion con la normal, ninguno de los par ametros es de localizacion ni de escala.
0 2 4 6 8 10
0
.
0
0
.
1
0
.
2
0
.
3
0
.
4
0
.
5
0
.
6
Diversas formas de la distribucin lognormal
x
l
o
g

n
o
r
m
a
l
mu= 0 , sigma= 1
mu= 0.5 , sigma= 1
mu= 0.7 , sigma= 1
mu= 1 , sigma= 1
mu= 1.5 , sigma= 1
mu= 2 , sigma= 1
0 2 4 6 8 10
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
Diversas formas de la distribucin lognormal
x
l
o
g

n
o
r
m
a
l
m= 0 , sigma= 1
m= 0 , sigma= 0.9
m= 0 , sigma= 0.8
m= 0 , sigma= 0.7
m= 0 , sigma= 0.6
m= 0 , sigma= 0.5
Familia de distribuciones Weibull
La distribuci on Weibull puede considerarse como una generalizaci on de la exponencial. En
este caso, se incorpora un parametro de forma, lo que permite mayor exibilidad sobre la
forma que posea la distribuci on de los datos, y se conserva el par ametro de escala de la
12
exponencial. En general, es una distribuci on con colas mas pesadas que la Gamma y la
log-normal, pero a un no de las m as pesadas, por lo que puede ser un modelo adecuado para
los montos de reclamaci on que ocurren con una moderadamente alta probabilidad.
Se dice que X v.a. tiene una distribuci on Weibull(, ), si tiene una funci on de densidad
dada por
f(x) =

_
x

_
1
exp
_

_
x

_
, x > 0, > 0, > 0
con par ametro de forma y par ametro de escala. Observese que si = 1 la Weibull se
convierte en una Exponencial().
Sus caractersticas son
E(X) =
_
1 +
1

_
; V(X) =
2
_

_
2 +
2

2
_
1 +
1

__
; M
X
(t) =
t

_
1 +
t

_
0.0 0.5 1.0 1.5 2.0
0
.
0
0
.
5
1
.
0
1
.
5
2
.
0
2
.
5
3
.
0
Diversas formas de la distribucin Weibull
x
W
e
i
b
u
l
l
k= 0.5 , lambda= 1
k= 1 , lambda= 1
k= 1.5 , lambda= 1
k= 3 , lambda= 1
k= 5 , lambda= 1
k= 7 , lambda= 1
0.0 0.5 1.0 1.5 2.0
0
2
4
6
8
Distribucin Weibull con diferentes parmetros de escala
x
W
e
i
b
u
l
l
k= 2 , lambda= 1
k= 2 , lambda= 0.8
k= 2 , lambda= 0.6
k= 2 , lambda= 0.4
k= 2 , lambda= 0.2
k= 2 , lambda= 0.1
13
Familia de distribuciones Pareto
La distribuci on Pareto es una distribuci on con cola derecha a un mas pesada que la Log-
normal y la Weibull, por lo que resultara de gran utilidad para modelar siniestros que generen
reclamaciones muy grandes con altas frecuencias. Esta distribucion surge al considerar que
la probabilidad de que una v.a., X, tome un valor superior a un valor determinado, x, tiene
la forma funcional
P(X > x) =
_

x
_

, x , > 0
entonces, la funcion de distribucion de la Pareto es
F(x) = 1 P(X > x) = 1
_

x
_

con funcion de densidad dada por


f(x; , ) = F

(x) =

x
+1
, x , > 0, > 0
Algunas de sus caractersticas son
E(X) =

( 1)
; V(X) =

2
( 2)( 1)
2
; E(X
r
) =

r
( r)
, > r, r = 1, 2, ...
es un par ametro de forma y de escala.
14
0 2 4 6 8 10
0
.
0
0
.
1
0
.
2
0
.
3
0
.
4
0
.
5
0
.
6
Diversas formas de la distribucin Pareto
x
P
a
r
e
t
o
alpha= 1 , theta= 5
alpha= 2 , theta= 5
alpha= 3 , theta= 5
alpha= 4 , theta= 5
alpha= 5 , theta= 5
alpha= 6 , theta= 5
0 2 4 6 8 10
0
.
0
0
.
5
1
.
0
1
.
5
2
.
0
Diversas formas de la distribucin Pareto
x
P
a
r
e
t
o
alpha= 3 , theta= 100
alpha= 3 , theta= 120
alpha= 3 , theta= 140
alpha= 3 , theta= 160
alpha= 3 , theta= 180
alpha= 3 , theta= 200
Familia de distribuciones Pareto de segundo tipo
La distribucion Pareto de segundo tipo es simplemente la distribuci on Pareto de primer tipo
trasladada al origen. Concretamente, si X tiene distribuci on Pareto de primer tipo, entonces
Y = X tiene distribucion Pareto de segundo tipo. Con funcion de densidad
f(x; , ) =

(x + )
+1
, x 0, > 0, > 0
Caractersticas de esta distribucion
E(X) =

( 1)
; Var (X) =

2
( 2) ( 1)
2
; E(X
r
) =

r
(r + 1) ( r)
()
, 1 < r <
E(X
r
) =

r
r!
( 1) ( 2) ( r)
si r es entero
con () la funci on Gamma, ya denida anteriormente.
15
Familia de distribuciones Pareto de tercer tipo
La distribuci on de Pareto de tercer tipo, es una generalizacion de las anteriores, en la que
adem as de la traslaci on se produce un cambio en la estructura de varianza. Se dene como
distribuci on de Pareto de tercer tipo a la distribucion de la v.a. X, cuya funcion de dis-
tribuci on es:
F (x) = 1
_

+ x
_

x
, x > 0, > 0, > 0, 0
con funcion de densidad
f(x) =
1

_

+ x
_

x
_

x

+ 1
+
_
Ninguna de las caractersticas de esta distribucion tienen una expresion analtica cerrada.
Familia de distribuciones Burr
La experiencia en el pago de montos reclamaci on de seguros, ha mostrado que la Pareto
es apropiada para modelarlos, particularmente, cuando ocurren reclamaciones de montos
excepcionalmente grandes. No obstante, algunas veces es necesario tener distribuciones para
colas pesadas, que sean m as exibles que la Pareto, por ejemplo, que consideren una funci on
de densidad no monotona. Tal exibilidad la proporciona la distribucion Burr que tiene un
par ametro de forma, , adicional. En concreto, si X es una v.a. con distribuci on Pareto de
segundo tipo, entonces
X
1/
Burr (, , )
cuya funci on de densidad esta dada por
f(x) =

x
1
(x

+ )
+1
x 0 , > 0, > 0, > 0
El momento de orden r de esta distribuci on es
16
E(x
r
) =

r/
( r/) (r/ + 1)
()
, que existe si r <
y son parametros de forma y de escala.
0 10 20 30 40 50
0
.
0
0
.
1
0
.
2
0
.
3
0
.
4
Diversas formas de la distribucin Burr
x
B
u
r
r
alpha= 10 , beta= 5 , theta= 0.1
alpha= 20 , beta= 5 , theta= 0.1
alpha= 30 , beta= 5 , theta= 0.1
alpha= 40 , beta= 5 , theta= 0.1
alpha= 50 , beta= 5 , theta= 0.1
alpha= 60 , beta= 5 , theta= 0.1
0 10 20 30 40 50
0
.
0
0
0
.
0
1
0
.
0
2
0
.
0
3
0
.
0
4
Diversas formas de la distribucin Burr
x
B
u
r
r
alpha= 10 , beta= 5 , theta= 0.01
alpha= 20 , beta= 5 , theta= 0.01
alpha= 30 , beta= 5 , theta= 0.01
alpha= 40 , beta= 5 , theta= 0.01
alpha= 50 , beta= 5 , theta= 0.01
alpha= 60 , beta= 5 , theta= 0.01
Estas son algunas distribuciones de uso com un para modelar los montos que genera la real-
izaci on de un riesgo. Por supuesto, no estan contemplados todos los modelos, son solamente
los mas utilizados para este objetivo. Por ejemplo, no hemos introducido distribuciones
como: Loglogstica, Paralogstica, Pareto generalizada, Gamma inversa, Weibull inversa,
Beta, Beta generalizada, Exponencial inversa, etc. Ninguno de estos modelos corresponde a
los tpicos de valores extremos como la Gumbel o la Frechet, por ejemplo. Dada esta lista
(no exhaustiva) de posibles modelos, es claro que la eleccion del mismo para modelar una
situaci on particular, no sera tarea facil, en general.
17
Distribuciones para valores extremos
Teora de valores extremos
La Teora de Valores Extremos (Extreme value theory) consiste en el empleo de una serie de
tecnicas estadsticas para la identicaci on y modelado de observaciones extremas o outliers.
Su objeto es determinar que tan extrema puede ser la mayor o menor observaci on registrada
de un fenomeno aleatorio, es decir, estudia el comportamiento del valor maximo o mnimo
de una variable aleatoria.
El comportamiento inusual de una variable aleatoria merece una consideraci on especial,
ya que puede tener un gran impacto para las decisiones que se desprendan del an alisis de la
informaci on a la que pertenece.
Para explicar este tipo de sucesos que ocurren, generalmente, con muy baja frecuencia
pero que tienen una inuencia muy signicativa sobre todo un modelo, la Teora de Valores
Extremos emplea metodos matematicos basados en comportamientos asint oticos, distribu-
ciones, procesos estoc asticos y leyes lmite.
Diferentes investigaciones provenientes de m ultiples disciplinas cientcas, han desarrollado
metodos para cuanticar eventos extremos y sus consecuencias de un modo estadsticamente
optimo, dando lugar a unas distribuciones de probabilidad que permiten la modelaci on de
los valores maximos o mnimos de una variable aleatoria.
De forma simplicada, nuestro problema es el siguiente:
Dada una muestra independiente X
1
, X
2
, ..., X
n
de una distribuci on desconocida, F, quere-
mos estimar la cola de F.
Los problemas m as importantes son:
Las observaciones en la cola de la distribuci on son escasas.
Por lo general, queremos estimar valores por encima del valor m aximo de la muestra.
18
Las tecnicas usuales de estimacion de densidades ajustan bien en las zonas donde los datos
tienen mayor densidad, pero pueden ser inadecuadas para estimar las colas.
Los modelos correspondientes a esta teora de valores extremos, tienen aplicaciones en
muchas areas, una de las principales es las ciencias ambientales, donde se estudian valores
extremos, por ejemplo, en: Nivel de una presa, velocidad del viento, nivel de un ro, concen-
traci on de contaminantes, niveles de precipitaci on pluvial, etc.
No obstante, nosotros nos enfocaremos en aplicarla dentro del marco del seguro. En esta
area, el analisis de la siniestralidad extrema es de gran interes, puesto que constituye un
riesgo que pone en peligro la estabilidad y solvencia de entidades aseguradoras.
Distribuci on del maximo
Denamos
M
n
= max X
1
, ..., X
n

Entonces, la distribucion de este m aximo es


Pr (M
n
x) = Pr (X
1
x, ..., X
n
x) =
n

i=1
Pr (X
i
x) = F
n
(x)
Si conocemos F, conocemos la distribuci on del m aximo, pero las expresiones analticas para
F
n
pueden ser complicadas. Frecuentemente F es desconocida.
Entonces, dada la posible complejidad de encontrar esta distribucion, intentaremos buscar
una distribucion lmite que sirva para aproximar la distribuci on de M
n
, de la misma manera
como la distribucion normal sirve para aproximar la suma de una gran variedad de variables
aleatorias independientes.
Recordar que el resultado que se tiene con las sumas de variables i.i.d. y el Teorema Central
del Lmite: Por la Ley Fuerte de Grandes N umeros, si = E(X
i
), entonces
X
n
=
1
n
n

i=1
X
i

19
y si estandarizamos (realizamos una transformacion lineal), tenemos
X
n

n
N(0, 1)
con
n
= y
n
= /

n.
Entonces, hay que buscar un resultado del tipo
Pr
_
M
n
b
n
a
n
x
_
= F
n
(a
n
X + b
n
) G(x)
Entonces, nos preguntamos
Cu ales son las distribuciones lmite posibles?
Cu ales son las constantes a
n
y b
n
? Son unicas?
Que condiciones debe satisfacer F para que se cumpla un resultado as?
Si hay varias G posibles, conociendo F, c omo sabemos, cu al de ellas es el lmite? Es
unico?
Cu ales son las distribuciones lmite posibles?
Gumbel : G(x)=exp
_
e
x
_
x R
Fr echet : G(x,) =
_
0 x < 0
exp (x

) x 0, > 0
Weibull : G(x,) =
_
exp
_
(x)

_
x < 0, > 0
1 x 0
Estas tres distribuciones reciben el nombre de distribuciones de valores extremos (DV E).
20
Ejemplo
Supongamos que F es la distribuci on exponencial con par ametro uno. Es decir
F(x) = 1 e
x
=F
n
(x) =
_
1 e
x
_
n
y
F(x + log n) =
_
1 e
xlog n
_
n
=
_
1
1
n
e
x
_
n
exp
_
e
x
_
por lo tanto, las constantes de normalizaci on a
n
= 1 y b
n
= log n, conducen a que M
n
tenga
como lmite una distribucion Gumbel.
3 2 1 0 1 2 3 4
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
1
.
0
n=10
x
D
e
n
s
i
d
a
d
3 2 1 0 1 2 3 4
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
1
.
0
n=15
x
D
e
n
s
i
d
a
d
3 2 1 0 1 2 3 4
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
1
.
0
n=20
x
D
e
n
s
i
d
a
d
3 2 1 0 1 2 3 4
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
1
.
0
n=25
x
D
e
n
s
i
d
a
d
La distribucion Cauchy
Consideremos ahora la distribuci on Cauchy, cuya funci on de densidad de probabilidad es
f(x) =
1
(1 + x
2
)
, x R
21
Se dene la funcion de Supervivencia de una variable aleatoria, como: S(x) = 1 F(x). Y
observemos que S

(x) = f(x). Entonces


Lim
x
S(x)
(x)
1
=
L

H ospital
Lim
x
f(x)

1
x
2
= Lim
x
x
2
(1 + x
2
)
= 1
entonces
S(x) = 1 F(x) (x)
1
De donde tenemos que, para x > 0
S
_
nx

_
= 1 F
_
nx

_
(nx)
1
y por lo tanto
Pr
_
M
n

nx

_
=
_
1 F
_
nx

__
n
=
_
1
1
n
_
1
x
+ o(1)
__
n
exp
_
x
1
_
Fr echet = 1
Las familias correspondientes a estas distribuciones del valor extremo.
Si introducimos par ametros de localizaci on y escala a las distribuciones del valor extremo
anteriores, obtenemos una familia de distribuciones para cada una de ellas. A saber
Gumbel(x; , ) = exp
_
e
(x)/
_
x R
Fr echet(x; , , ) =
_
0 x <
exp
_

_
x-

_
x , > 0
Weibull =
_
exp
_

(x-)

_
0 x < , > 0
1 x 0
22
Observamos que es el extremo izquierdo para la distribuci on de Frechet y el extremo
derecho para la distribuci on Weibul.
Estos tres tipos de distribuciones se pueden combinar en una sola distribuci on (hiper modelo),
que se conoce como: La distribucion generalizada de valores extremos (GVE). Que tiene la
forma
G(x; , , ) = exp
_

_
1 +
_
x

__
1/
+
_
con y
+
= max y, 0 . Para > 0 se tiene la distribuci on Frechet con = 1/. Para < 0,
la distribuci on Weibull con = 1/, y la distribuci on Gumbel se obtiene como el lmite
cuando 0. Al parametro se le conoce como parametro de forma.
Excesos sobre un umbral
En coberturas de riesgo de un seguro, resultan de particular interes aquellos montos de recla-
maci on que exceden cierto umbral. Es claro que el estudio de estos valores que exceden el
umbral, es de vital importancia para la solvencia de la compa na. Por tal razon, puede ser
m as conveniente utilizar modelos con umbrales para estudiar estos valores extremos, que
utilizar una distribucion GVE.
23
0 20 40 60 80 100
9
7
9
8
9
9
1
0
0
1
0
1
1
0
2
1
0
3
1
0
4
x
y
Umbral
Exceso
Entonces, estamos interesados en la distribuci on de
F
u
(x) = Pr (X u < x[X > u) =
F (x + u) F(u)
1 F(u)
A F
u
() se le conoce como la distribucion de vida residual, del exceso de vida o del exceso
de perdida, esta ultima denici on es la que tiene sentido para el area aseguradora.
Distribucion Pareto Generalizada
Si la funcion de distribuci on del maximo de una variable aleatoria es un elemento de GVE,
entonces, para u sucientemente grande, la distribucion F
u
(), puede aproximarse a traves
de la distribuci on Pareto generalizada, cuya funcion de distribucion es
H (x; , ) = 1
_
x

_
1/
+
, x > 0
24
con = + (u ), , , los par ametros correspondientes al elemento de GVE, u el valor
del umbral.
Propiedad importante de la distribuci on Pareto Generalizada
Para R , F es un elemento de la familia GVE, si y s olo si
lim
uw
F
sup
0<x<w
F
u

F
u
(x) H
,(u)
(x)

= 0
para alguna funcion positiva y w
F
el extremo nal de F. Esta propiedad dice que la
funci on Pareto generalizada es una buena aproximaci on de los excesos de una distribucion
de la familia GVE, para un umbral, u, grande. Este resultado se puede reformular como:
1 F
u
(x) = Pr (X u > x[X > u) 1 H
,(u)
(x), x > 0
Es necesario que u sea lo sucientemente grande.
Si X tiene funci on de distribuci on Pareto Generalizada con par ametros < 1 y , Entonces,
para u < w
F
e(x) = E(X u[X > u) =
+ u
1
, + u > 0
Estos dos resultados proporcionan una tecnica graca para elegir un umbral, u, suciente-
mente grande para justicar que F
u
se aproxime por una Pareto Generalizada, a partir de
la version muestral, e
n
, de esta funci on y su linealidad para una distribuci on GVE.
Estrategias de modelacion
Ajuste de Maximos Anuales o Metodo de Bloques
Una forma de analizar datos con valores extemos es realizando las estimaciones de los
par ametros de la siguiente manera. Consideramos una colecci on de datos que agrupamos en
bloques disjuntos de datos consecutivos y de igual longitud. Si el par ametro es el tiempo
(recordar que esta metodologa se ha utilizado, sobre todo, en cuestiones ambientales), cada
25
conjunto contiene la informaci on correspondiente a un periodo jo de tiempo, digamos un
a no. En cada caso se escoge el periodo para compensar las variaciones internas. Es decir,
tenemos
X
(1)
=
_
X
(1)
1
, X
(1)
2
, ..., X
(1)
s
_
X
(2)
=
_
X
(2)
1
, X
(2)
2
, ..., X
(2)
s
_
.
.
.
X
(n)
=
_
X
(n)
1
, X
(n)
2
, ..., X
(n)
s
_
Se asume que cada uno de estos vectores son i.i.d, aunque sus componentes pueden no serlo.
Se elige el intervalo de tiempo s de tal manera que se cumpla este supuesto. Entonces,
haremos estimacion e inferencias sobre la muestra i.i.d. para un modelo G

con los datos:


M
i
= max
_
X
(i)
1
, X
(i)
2
, ..., X
(i)
s
_
, i = 1, 2, ..., n
Mostraremos c omo ajustar un modelo a datos reales mediante esta estrategia, utilizando la
librera extRemes de R.
El metodo de estimacion por bloques no hace el mejor uso de la informaci on disponible,
pues de cada bloque solo utilizamos un dato: el valor m aximo. Sin embargo, otros valores
con registros altos en el mismo bloque pueden tener informacion util sobre la cola de la dis-
tribuci on de la muestra, que deberamos considerar para el an alisis. Si tenemos informaci on
sobre la serie completa de datos, una alternativa es dejar de lado el procedimiento de bloques
y estudiar todos los valores altos de la muestra.
El segundo enfoque que utilizaremos para modelar datos extremos ser a el que considera
los valores por encima de un umbral. Entonces, la idea es seleccionar un umbral alto y
considerar los valores de la muestra que est an por encima de este umbral, para ajustar un
modelo Pareto Generalizado.
Ejemplicaremos este ajuste a traves de varias libreras de R.
26
MEDIDAS DE RIESGO
Los modelos probabilsticos (en nuestro caso, las densidades o distribuciones mencionadas
anteriormente) nos proporcionan una descripci on de la exposicion al riesgo, no obstante,
necesitamos describir esta exposicion con alg un valor numerico o con unos pocos valores
numericos. Estos valores son funciones del modelo y se conocen como indicadores clave de
riesgo. Entonces, estos indicadores son res umenes numericos sobre el comportamiento de
nuestro riesgo, parecidos a los que utilizamos para describir una variable aleatoria. Estos
indicadores informan a los actuarios y a los administradores de riesgo, sobre el grado en que
la compa na esta sujeta a un particular aspecto del riesgo.
Una medida de riesgo esta en correspondencia con la perdida asociada a este riesgo
Una medida de riesgo proporciona un solo n umero que intenta cuanticar la exposici on a
este riesgo.
Esta medida se denota como (x). Es conveniente pensar a (x) como la cantidad de
activos requeridos para protegerse de las consecuencias adversas del riesgo, X.
Coherencia de una medida de riesgo
Wang, Young y Panjer (1997) introducen ciertos axiomas, que representan propiedades de-
seables de una medida de riesgo. Artzner et al. (1997) introduce el concepto de coherencia
y se considera el parteaguas en medicion de riesgo.
Una medida de riesgo coherente, es una medida de riesgo (x) con las cuatro propiedades
siguientes. Para cualesquiera dos variables aleatorias de perdida X y Y :
1.- Subaditividad: (X + Y ) (X) + (Y )
2.- Monotona: Si X Y para todas las posibles consecuencias, entonces (X) (Y )
3.- Homogeneidad positiva: Para cualquier constante positiva c, (cX) = c(X)
4.- Invarianza a translaciones: Para cualquier constante positiva c, (X + c) = (X) + c
Subaditividad signica que la medida de riesgo (y, por lo tanto, el capital requerido para
27
darle soporte) de dos riesgos combinados, no sera mayor que los riesgos considerados por
separado. Subaditividad reeja el hecho que diversicar el riesgo puede ser beneco para
una empresa.
Valor en Riesgo (VaR)
El V aR se ha vuelto la medida est andar para medir exposicion a riesgo. En terminos gen-
erales, V aR es el capital requerido para asegurar, con alto grado de certeza, que la empresa
no sera tecnicamente insolvente. El grado de certeza se elige de manera arbitraria. En la
pr actica se pueden elegir valores grandes como 99.95% para toda la empresa, o 95% para una
sola clase de riesgo. Entonces, el V aR mide la perdida que se podra sufrir, en condiciones
normales del mercado, en un intervalo de tiempo y con un determinado nivel de probabilidad
o conanza.
Por ejemplo, un inversionista que tiene un portafolios de activos por un valor de 10 millones
de pesos, podra establecer que el V aR diario de su portafolios es 250, 000 con un nivel de
conanza de 95%. En otras palabras, solamente uno de cada 20 das de operaci on del mer-
cado (1/20 = 5%), en condiciones normales, la perdida que ocurrir a puede ser mayor o igual
a 250, 000.
Denici on tecnica del VaR
Sea X una v. a. con funcion de distribuci on, F(x), que denota perdida. El Valor en
Riesgo (VaR) de X al 100%p nivel de conanza, denotado por V aR
p
(X) o
p
, es el p-
esimo percentil de la distribuci on de X.
P(X >
p
) = 1 p
Pese a la popularidad de esta medida, conviene aclarar que V aR no es subaditiva, lo que la
convierte en una medida incoherente de riesgo, y no reeja el efecto por la diversicacion de
los riesgos.
Ejemplos
Calculemos el V aR de algunas de las distribuciones de uso com un como modelos de perdida
28
Distribuci on Normal(,
2
). Aunque esta distribuci on puede ser cuestionable como modelo
de perdida, suele considerarse por su gran uso en estadstica. Para encontrar su V aR, ten-
emos
P[X > V aR
p
(x)] = 1 p Pr [X V aR
p
(x)] = p
P
_
X


V aR
p
(x)

_
= p
P
_
z
V aR
p
(x)

_
= p
V aR
p
(x)

=
1
(p) V aR
p
(x) = +
1
(p)
Exponencial()
Recordar que su funci on de distribuci on es 1 e
x/
. Entonces
P[X V aR
p
(x)] = p 1 e
V aRp(x)/
= p V aR
p
(x) = log(1 p)
Log-normal(,
2
) y Pareto(, ) se dejan como ejercicio al lector.
TailVaR (TVaR)
Denici on tecnica del TVaR
Sea X v. a. con funcion de distribucion F(X), que denota perdida. El TVaR de X al 100%p
nivel de seguridad, denotado por TV aR
p
(X), es la perdida esperada dado que esta excede
el p-esimo percentil de la distribuci on de X.
TV aR
p
(X) = E(X[X >
p
) =
_

p
xf(x)dx
1 F(
p
)
Una forma alternativa mas interesante de escribir esta cantidad, es:
TV aR
p
(X) = E(X[X >
p
) =
_
1
p
V aR
u
(X)du
1 p
Esta expresion del TV aR implica que puede verse como un promedio de todos los valores
V aR por encima del valor de seguridad p. Lo que signica que proporciona mucho m as in-
formaci on sobre la cola de la distribucion que la que da el V aR. TV aR recibe otros nombres
29
en el campo de los seguros: Conditional Tail Expectation(CTE), Tail Conditional Expecta-
tion (TCE) y Expected Shortfall (ES). Finalmente, podemos decir que el TV aR es el valor
esperado de las perdidas en aquellos casos en que se excede el nivel de seguridad previa-
mente jado. TV aR reeja con mayor delidad los eventos extremos que pueden amenazar
la posicion nanciera de la entidad. Otra forma com un de escribir el TV aR es
TV aR
p
(X) = E(X[X >
p
) =
p
+
_

p
(x
p
)f(x)dx
1 p
= V aR
p
(X) + e(
p
)
A e(
p
) se le conoce como la funcion media de exceso de perdida. Entonces, TV aR es mayor
que su correspondiente V aR por el promedio de exceso de todas las perdidas que exceden al
V aR.
Contrario al V aR, TV aR es una medida de riesgo coherente, por lo que reeja el efecto de
la diversicaci on de riesgos.
Dado un umbral de seguridad o conanza, en datos reales, el TV aR es una medida m as
difcil de calcular que el V aR, ya que ambas se calculan con los datos (generalmente escasos)
acumulados en la cola de la distribuci on (mayor error de estimaci on).
Ejemplos
Exponencial()
V aR
p
(X) = log(1 p), y podemos mostrar que, e(x) =
_

p
S(x)dx
S(
p
)
. Con S() la funcion
de supervivencia de la variable aleatoria. Utilizando este resultados tenemos
e(x) =
_

p
e
x/
dx
1 p
=
e
x/
[

p
1 p
=
e
p/
1 p
=
(1 p)
(1 p)
=
Por lo tanto, TV aR
p
(X) = V aR
p
(X) + e(x) = log(1 p) + .
Pareto(, )
30
Esta distribucion tiene
V aR
p
=
_
(1 p)
1/
1

y S(x) =
_

+ x
_

Calculemos e(x) =
_

p
S(x)dx
S(
p
)
e(x) =
_

p
_

+ x
_

dx
1 p
=

( +
p
)
1
1
=

( +
p
)
_
1
+p
_

( 1)(1 p)
si remplazamos
p
, por su valor y realizamos las operaciones algebraicas, obtenemos
e(x) =
+
p
1
Por lo que nalmente tenemos
TV aR
p
(X) = V aR
p
(X) +
+
p
1
= V aR
p
(X) +
V aR
p
(X) +
1
Casos Normal y Log-normal se dejan como ejercicio al lector.
31
Ajuste de una distribucion Pareto Generalizada a la base de datos de
reclamaciones grandes, de la sociedad de actuarios
Como vimos, nuestra segunda opci on importante en los modelos de teora del valor extremo,
es la Pareto Generalizada, que surge a partir del metodo conocido como P.O.T. (Peaks over
threshold method), que consiste en modelar los valores extremos que exceden a un cierto
umbral, u, ya sea que modelemos todos los datos, X
i
, i = 1, 2, ..., n, o los valores que exce-
den a este umbral Y
i
= X
i
u, i = 1, 2, ...n. Al intentar aplicar este metodo surgen algunas
cuestiones que debemos resolver
La primera consiste en determina o elegir el umbral, u. Esta elecci on esta sujeta a un
problema conocido como el problema de la varianza y el sesgo. Porque, cuanto menor
sea el umbral mayor es el n umero de observaciones que utilizaremos para ajustar el
modelo, lo que, generalmente, puede disminuir la varianza de los estimadores, pero
puede incrementarse el sesgo si se utilizan observaciones que no pertenecen a la cola de
la distribucion. Por otro lado, si se reduce el n umero de observaciones (con un umbral
m as grande), se reduce el sesgo, porque podemos suponer que todas las observaciones
s pertenecen a la cola de la distribuci on, pero, al utilizar pocos datos en nuestra esti-
maci on, incrementamos la varianza de los estimadores y, en consecuencia, de nuestro
modelo.
La segunda cuestion es determinar que funcion de distribuci on ajusta a esos datos
que exceden el umbral jado en el paso anterior. Por supuesto, se trata de encontrar
una distribuci on condicional al hecho de que los valores extremos hayan superado el
umbral, u. Como ya dijimos, esta distribucion es la distribucion Pareto Generaliza.
Este resultado esta garantizado por el teorema de Pickands-Balkema-de Haan (Balkema
y de Haan (1974); Pickands (1975)) que muestra que bajo condiciones de maximos
dominios de atracci on
1
la distribucion generalizada de Pareto es la distribucion lmite
1
Sea X
n
, n 1 una sucesion de v.a.i.i.d. con funcion de distribucion com un F. Sea,
M
n
= maxX
i
, i = 1, 2, ..., n
Decimos que la funcion de distribucion, F, esta en el dominio de atraccion de la distribucion de valores
extremos H (notacion: F D(H)) si existen constantes a
n
> 0, b
n
R, tales que
F
n
(a
n
X + b
n
) = P(M
n
a
n
X + b
n
) H(x)
32
para los excesos sobre un umbral u cuando este es grande.
Eleccion del umbral
El teorema de Pickands-Balkema-de Haan, enuncia que la distribuci on generalizada de Pareto
ajusta aquellos valores que exceden un determinado umbral cuando este umbral, u, es su-
cientemente grande. La dicultad radica en determinar ese umbral a partir del cual es
posible ajustar la distribucion de Pareto Generalizada.
Uso de la funcion media de exceso
La funcion media de exceso te orica de la distribucion de Pareto Generalizada es:
e(x) = E(X u[X > u) =
+ u
1
=

1
+

1
, + u > 0
que es una funci on lineal de u, con pendiente

1
, una vez que se ha denido un umbral
adecuadamente grande.
Dada una muestra ordenada de forma descendente: (X
1:n
, X
2:n
, ..., X
n:n
), la funci on emprica
de exceso medio se estima con la siguiente expresion :
e
x
(x) =
n

i=1
(X
i:n
u)
+
n

i=1
1
(X
i:n
>u)
En el numerador se encuentra la suma de los excesos sobre el umbral, u, y en el denominador
el n umero de valores que cumplen la condici on de ser superiores a este umbral, es decir, se
estima a traves de la media aritmetica de los valores que exceden a u.
En la practica, es com un tomar como umbrales los propios datos de la muestra, esto es,
u = X
k+1
, y esta expresi on reduce a:
33
e
n
(X
k
) =
k

i=1
X
i
k
X
k+1
La graca de la funci on media de excesos es una gr aca de los puntos
(X
k:n
, e
n
(X
k:n
)) , k = 1, ..., n 1
Entonces, para encontrar el umbral, u, para el cual es razonable pensar que el ajuste a traves
de la distribucion generalizada de Pareto es adecuado, se debe elegir el umbral, tomando el
valor a partir del cual la graca toma una forma lineal ascendente, ya que la graca de ex-
ceso medio para la distribucion Pareto generalizada es lineal y tiende a innito con pendiente
positiva.
34
Distribuciones discretas
Adem as de modelar el monto de reclamaci on, tambien es de interes modelar la frecuencia
con las que estas perdidas ocurren. Como es de suponer, los modelos para caracterizar esta
frecuencia de perdidas, corresponden a distribuciones para variables aleatorias discretas. Es
importante se nalar que este tipo de distribuciones tambien pueden utilizarse cuando los mon-
tos de perdida se agrupan en una tabla de frecuencias, situaci on muy com un en el quehacer
de las compa nas aseguradoras.
Antes de iniciar la presentaci on de los modelos para v.a. discretas y sus caractersticas, es
conveniente recordar una importante funcion asociada a estas variables.
La funcion generadora de probabilidades
Sea N una v.a. discreta, con funci on de probabilidad denotada como p
k
= P(N = k); k =
0, 1, 2... que representa, en nuestro caso, la probabilidad de que exactamente k reclamaciones
ocurran. La funci on generadora de probabilidades (f.g.p.) para esta v.a. es
P
N
(z) = E
_
z
N
_
=

k=1
p
k
z
k
que recibe este nombre porque
1
k!
d
k
dz
k
P
N
(0) = Pr (N = k)
La familia de distribuciones Binomial(n,q)
Esta distribuci on caracteriza el n umero de exitos o fracasos, seg un sea el caso, en n ensayos
Bernoulli independientes. Su funcion de densidad de probabilidad es
p
k
= P(N = k) =
_
n
x
_
q
k
(1 q)
nk
, x = 0, 1, ..., n, 0 < q < 1
35
Cuyas caractersticas son
E(N) = nq; V(N) = nq(1 q); P(N) = (1 + q(z 1))
n
; M
N
(t) = [(1 q) + qe
t
]
n
Distribucin Binomial(50,0.2)
x
p
(
x
)
0
.
0
0
0
.
0
2
0
.
0
4
0
.
0
6
0
.
0
8
0
.
1
0
0
.
1
2
Distribucin Binomial(50,0.5)
x
p
(
x
)
0
.
0
0
0
.
0
2
0
.
0
4
0
.
0
6
0
.
0
8
0
.
1
0
Distribucin Binomial(50,0.9)
x
p
(
x
)
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
La familia de distribuciones Geometrica()
La distribuci on geometrica caracteriza el n umero, X, de ensayos Bernoulli necesarios para
obtener un exito; x = 1, 2, 3, ..., o tambien es...
La distribucion de probabilidad del n umero Y=X-1 de fallas antes de obtener el primer exito;
y = 0, 1, 2, 3, ....
Entonces, si p =

1 +
es la probabilidad de un exito, la funci on de densidad de probabilidad
de esta variable aleatoria es
P(N = k) =
_

1 +
_
k1
1
1 +
; k = 1, 2, ... o bien
36
P(N = k) =
_

1 +
_
k
1
1 +
; k = 0, 1, 2, ...
Con caractersticas
E(N) = ; V(N) = (1 + ); P(N) = (1 (z 1))
1
; M
N
(t) = [1 + (1 e
t
)]
1
Distribucin Geomtrica(50,1)
x
p
(
x
)
0
.
0
0
.
1
0
.
2
0
.
3
0
.
4
0
.
5
Distribucin Geomtrica(50,1/3)
x
p
(
x
)
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
0
.
2
5
0
.
3
0
Distribucin Geomtrica(50,1/4)
x
p
(
x
)
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
La familia de distribuciones Poisson()
Esta es, probablemente, la m as importante de las distribuciones discretas para modelar la
frecuencia de reclamaciones. La distribucion Poisson puede contemplarse como el caso lmite
de la distribuci on Binomial(n, p), donde n es muy grande y la probabilidad de ocurrencia p
es constante y muy peque na. En este caso, N sigue una distribuci on Poisson con parametro
= np. Decimos que N Poisson(), si N tiene funci on de densidad de probabilidad dada
por
P(N = k) =

k
e

k!
; k = 0, 1, 2, ... > 0
37
Con caractersticas
E(N) = ; V(N) = ; P(N) = e
(z1)
; M
N
(t) = e
(e
t
1)
El hecho de que la Poisson tenga media y varianza igual, proporciona un fuerte evidencia
emprica para determinar si un conjunto particular de frecuencias de reclamaciones sigue
esta distribuci on. Bastara calcular la media y varianza de los datos y ver si estas cantidades
son similares.
Distribucin Poisson(1)
x
p
(
x
)
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
0
.
2
5
0
.
3
0
0
.
3
5
Distribucin Poisson(3)
x
p
(
x
)
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
Distribucin Poisson(10)
x
p
(
x
)
0
.
0
0
0
.
0
2
0
.
0
4
0
.
0
6
0
.
0
8
0
.
1
0
0
.
1
2
Familia de distribuciones Binomial Negativa (, k)
Una distribuci on que puede usarse como alternativa a una Poisson es la Binomial Negativa.
Existen al menos dos razones para considerar esta distribucion en lugar de la Poisson.
Dado que esta distribucion tiene dos par ametros, es m as exible, en el sentido de que
puede tener formas m as diversas, que la Poisson que unicamente tiene un par ametro.
Dado que su varianza es m as grande que su media, constituye tambien una alternativa
para modelar datos de conteo sobredispersos, que son muy comunes en aplicaciones
38
reales.
Una forma est andar de concebir esta distribucion es en una situaci on de muestreo por cuota.
Este esquema de muestreo es tpico de investigaciones de mercado, en las que se pide a un
individuo entrevistar a un n umero no denido de sujetos (n) hasta que una parte de ellos (m:
cuota jo) haya contestado armativamente a alguna pregunta o haya preferido un producto
bajo investigacion para su comercializacion. Por supuesto, asumimos que la probabilidad,
p, de que obtengamos una respuesta armativa, es la misma para cualquier sujeto. Este
esquema es similar al que se modelara con una Binomial, pero, mientras en la Binomial el
n umero de exitos, m, es aleatorio y el n umero de ensayos, n, es jo, en este caso sucede
exactamente al reves: el n umero de exitos, m, es jo (no aleatorio) y el n umero de ensayos
(n: total de entrevistados necesarios para tener m exitos) es aleatorio.
Para deducir la funcion de masa de probabilidad, consideremos el n umero de fracasos que
han ocurrido hasta obtener m exitos. Si suponemos que han ocurrido k fracasos antes de
obtener estos m exitos, es claro que n=m+k y que en los primeros m+k-1 ensayos debieron
de haber ocurrido m-1 exitos, ya que en el siguiente ensayo debio ocurrir el ultimo exito que
completa la cuota requerida. Entonces, dado que hemos jado la condici on de m-1 exitos
en los primeros m+k-1 ensayos, este hecho puede modelarse a traves de una v.a. Binomial
(m+k-1, p), y como requerimos que en el ultimo ensayo, que es independiente de los primeros
m+k-1, ocurra necesariamente un exito, entonces la funci on de densidad de esta v.a. es
P(N = k) =
_
m + k 1
m1
__

1 +
_
m1
_
1
1 +
_
k


1 +
, entonces
P(N = k) =
_
m + k 1
k
__

1 +
_
m
_
1
1 +
_
k
k=0,1,2,...
ya que
_
m + k 1
m1
_
=
_
m + k 1
k
_
Observese que si k = 1, la Binomial Negativa se convierte en la Geometrica. Al igual que en
nuestra denici on de la densidad geometrica, aqu p =

1 +
39
Caractersticas de esta v.a.
E(N) = k; V(N) = k(1 + ); P
N
(t) = [1 (z 1)]
k
; M
N
(t) =
_
1
1 + (1 e
t
)
_
k
Ya que > 0, entonces la varianza de la binomial negativa es mayor que su media,
raz on por la que suele usarse como alternativa a la Poisson cuando esta es sobre dispersa
(V ar > media).
Distribucin Binomial negativa(2,1/2)
x
p
(
x
)
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
0
.
2
5
Distribucin Binomial negativa(2,0.3)
x
p
(
x
)
0
.
0
0
0
.
0
2
0
.
0
4
0
.
0
6
0
.
0
8
0
.
1
0
0
.
1
2
Distribucin Binomial negativa(2,0.7)
x
p
(
x
)
0
.
0
0
.
1
0
.
2
0
.
3
0
.
4
Distribuciones de la clase (a,b,0)
Ahora vamos a denir una clase general de distribuciones discretas, que ser a de mucha util-
idad para la modelaci on de frecuencias de reclamaciones.
La clase (a,b,0)
Denicion 2 Una distribuci on de frecuencias p
k
es un miembro de la clase (a, b, 0) si exis-
ten constantes a y b tales que
40
p
k
p
k1
= a +
b
k
, k = 1, 2, 3, ...
donde a y b son constantes propias de cada distribucion. En la siguiente tabla se muestran
los miembros de esta clase, con cada uno de sus valores de estas constantes, as como el valor
de la funci on de probabilidad en cero, p
0
.
Distribuciones de la clase (a,b,0)
Distribucion a b p
0
Binomial(n,q)
q
1 q
(n + 1)
q
1 q
(1 + q)
n
Poisson() 0 e

BN(,k)

1 +
(k 1)

1 +
(1 + )
k
Geometrica()

1 +
0 (1 + )
1
En conclusi on, La clase(a, b, 0) es una hiper familia de distribuciones discretas, que tiene
como miembros distinguidos a las distribuciones mencionadas.
Esta clase provee una forma de encontrar las probabilidades de las distribuciones discretas, a
traves de esta formula recursiva, y resulta bastante practica al momento de querer ajustarlas
a nuestros datos. Ademas, podemos reescribir la formula de tal manera que quede como una
funci on lineal. Es decir
kp
k
p
k1
= ak + b, k = 1, 2, 3, ...
Con esta forma lineal es posible identicar, por medio de su pendiente, la distribuci on de
probabilidad. Esto es, si la pendiente es igual a cero, entonces se trata de una distribuci on
Poisson; si es negativa, entonces ser a Binomial y si es positiva es una distribuci on Binomial
Negativa.
Concretamente tenemos
41
Binomial(n, p)
kp
k
p
k1
= (n + 1)
q
1 q

q
1 q
k que es una lnea recta con pendiente
negativa
Poisson()
kp
k
p
k1
= + 0k que es una lnea recta con pendiente cero
BN(, r)
kp
k
p
k1
= (r 1)

1 +
+

1 +
k que es una lnea recta con pendiente positiva.
2 4 6 8 10
4
.
9
6
4
.
9
8
5
.
0
0
5
.
0
2
5
.
0
4
Distribucin Poisson
k
k
p
k
p
k

1
42
2 4 6 8 10
0
.
0
0
.
5
1
.
0
1
.
5
2
.
0
2
.
5
3
.
0
3
.
5
Distribucin Binomial
k
k
p
k
p
k

1
43
2 4 6 8 10
1
2
3
4
5
Distribucin Binomial Negativa
k
k
p
k
p
k

1
Distribuciones de clase (a, b, 1)
Algunas veces las distribuciones de frecuencia anteriores no describen adecuadamente el com-
portamiento de un conjunto de datos real. Por ejemplo, porque la distribuci on elegida no
ajusta adecuadamente a la cola de los datos, o porque el miembro elegido de la clase (a, b, 0)
no captura, en alguna parte, la forma de la distribucion de los datos. Un problema adicional
ocurre con la cola izquierda de la distribucion, en particular con la probabilidad en cero.
Para datos de seguros, la probabilidad en cero denota la probabilidad de que no ocurran
reclamaciones en un determinado periodo de tiempo. En situaciones donde la ocurrencia
de perdidas es baja, la probabilidad en cero toma un valor grande. Por lo que hay que
prestar especial atenci on sobre el ajuste en este punto. En contraste, existen situaciones en
las que la probabilidad de no sufrir perdidas en un periodo determinado, es pr acticamente
cero, como sucede, por ejemplo, para un seguro de autos para una gran ota de vehculos,
o en un seguro de enfermedades. Es f acil hacer un ajuste a la probabilidad en cero de los
modelos que componen la clase (a, b, 0), para considerar estas situaciones.
La clase (a, b, 1) es la familia de distribuciones que satisfacen la formula recursiva
44
p
k
p
k1
= a +
b
k
k = 2, 3, ... o
kp
k
p
k1
= ak + b (forma lineal)
La unica diferencia con la anterior es que esta inicia en p
1
y no en p
0
. Identicamos dos
tipos de estas distribuciones
Truncada en cero (zero-truncated): cuando p
0
= 0.
Modicada en cero (zero-modied): cuando p
0
> 0.
Es claro que lo que estamos haciendo es modicar a nuestra voluntad, el valor asignado a las
probabilidades para el valor nulo de la variable aleatoria en cuestion. Estas modicaciones
deben responder al problema particular que estemos modelando.
Una distribuci on de la clase (a, b, 1) tiene la misma forma que su correspondiente en la clase
(a, b, 0), en el sentido que sus probabilidades son las mismas salvo una constante de propor-
cionalidad.
Relacion entre estas clases
Sea P(z) =

k=0
p
k
z
k
la fgp de un miembro de la clase (a, b, 0) y P
M
(z) =

k=0
p
M
k
z
k
la fgp del
miembro correspondiente de la clase (a, b, 1). Como dijimos, se tiene que
p
M
k
= cp
k
, k = 1, 2, 3, ...
con p
M
0
un n umero arbitrario. Entonces
P
M
(z) = p
M
0
+

k=1
p
M
k
z
k
= p
M
0
+ c

k=1
p
k
z
k
= p
M
0
+ c [P(z) p
0
]
ya que P
M
(1) = P(1) = 1, entonces
45
1 = p
M
0
+ c(1 p
0
)
de donde obtenemos
c =
1 p
M
0
1 p
0
, o p
M
0
= 1 c(1 p
0
)
Si remplazamos este valor en la expresion para P
M
(z), obtenemos
_
1
1 p
M
0
1 p
0
_
+
1 p
M
0
1 p
0
P(z)
que es un promedio ponderado de las fgps de una distribuci on degenerada y la del miembro
correspondiente de la clase (a, b, 0). Adem as tenemos
p
M
k
=
1 p
M
0
1 p
0
p
k
, k = 1, 2, ...
Si ahora denotamos P
T
(z) a la fgp de una distribucion truncada en cero, correspondiente
a la fgp de un miembro de la clase (a, b, 0), P(z). Remplazando p
M
0
= 0 en las expresiones
anteriores, tenemos
P
T
(z) =
P(z) p
0
1 p
0
,
p
T
k
=
p
k
1 p
0
, k = 1, 2, ...,
p
M
k
= (1 p
M
0
)p
T
k
, k = 1, 2, ... y
P
M
(z) = p
M
0
+ (1 p
M
0
)P
T
(z)
tambien un promedio ponderado entre una distribuci on degenerada y el correspondiente
miembro de la clase (a, b, 0), truncada en cero.
46
Ejercicio urgente pa aclarar esto
Consideremos una binomial negativa ( = 0.5, r = 2.5). Determinemos los primeros cuatro
valores de sus probabilidades para los casos cero-truncado y cero-modicado, con p
M
0
= 0.6.
Primero, observemos que BN pertenece a la clase (a, b, 0). En este caso
a =
0.5
1.5
=
1
3
, b =
(2.5 1) 0.5
1.5
=
1
2
, y
p
0
= (1 + 0.5)
2.5
= 0.362887
Si no tuvieramos ninguna modicacion, entonces calcularamos los otros tres valores a traves
de la f ormula recursiva correspondiente, como
p
k
= p
k1
_
a +
b
k
_
= p
k1
_
a + b
1
k
_
Dado que ya calculamos las constantes a y b, y la primer probabilidad, p
0
, las probabilidades
restantes son
p
1
= 0.362887
_
1
3
+
1
2
1
1
_
= 0.302406
p
2
= 0.302406
_
1
3
+
1
2
1
2
_
= 0.176404
p
3
= 0.176404
_
1
3
+
1
2
1
3
_
= 0.088202
pero estas modicaciones cambiar an las probabilidades del modelo original. En el caso
cero-truncado forzamos el modelo a tomar p
T
0
= 0. Ya que el modelo original asigna una
probabilidad positiva al valor cero, tendremos que incrementar las probabilidades originales
en este modelo truncado en cero. Entonces, el primer valor de esta distribucion truncada
es p
T
1
= 0.302406/(1 0.362887) = 0.474651. A partir de este valor iniciamos el proceso
recursivo para obtener los dos restantes
p
T
2
= 0.474651
_
1
3
+
1
2
1
2
_
= 0.276880
47
p
T
3
= 0.276880
_
1
3
+
1
2
1
3
_
= 0.138440
Por otro lado, en el caso de cero-modicado observamos que se asigna una probabilidad
mayor en cero, p
M
0
= 0.6, de la que se tiene con el modelo original, por lo tanto, habr a que
decrementar las probabilidades originales. Dado este valor inicial, calculamos
p
M
1
= (1 0.6)(0.302406)/(1 0.362887) = 0.189860. De aqu tenemos
p
M
2
= 0.189860
_
1
3
+
1
2
1
2
_
= 0.110752
p
M
3
= 0.110752
_
1
3
+
1
2
1
3
_
= 0.055376
48
Variables y Modicaciones de cobertura
En esta seccion vamos a denir conceptos necesarios para el desarrollo de la teora proba-
bilistica y estadstica que abarcan los seguros. Primero, es claro que existen distintos tipos de
acuerdos entre las compa nas aseguradoras y el asegurado, bajo los cuales se buscan satisfacer
las necesidades de ambos, a traves de las distintas coberturas que se ofrecen en las polizas
de seguros. Entonces, para desarrollar los modelos que contemplen estas modicaciones de
cobertura, es indispensable denir las nuevas variables que generalmente se observan en los
diversos tipos de cobertura, y por medio de las cuales desarrollaremos la teora posterior.
Hasta ahora, hemos supuesto que la cantidad de perdida, X, es tambien la cantidad a pagar
por las reclamaciones. Sin embargo, hay modicaciones a las p olizas por las que el asegu-
rador puede ser responsable unicamente de un porcentaje o proporcion de esta perdida, que
constituye propiamente la severidad de la misma. Por ejemplo cuando la p oliza tiene:
Deducibles
Lmites de p oliza
Coaseguro
Antes de representar estas modicaciones al pago de las perdidas mediante variables aleato-
rias y las funciones que las describen, es conveniente distinguir entre dos asociadas a esta
situaci on. Una v.a. relacionada al pago de la perdida, en la que el valor cero es posible, y
ocurre cuando hay una perdida sin pago. La segunda corresponde a la que mide el pago del
pago, que queda indenida si no hay pago.
Denici on Deducible: Cantidad o porcentaje establecido en una poliza cuyo importe debe
superarse para que se pague una reclamaci on.
En teminos tecnicos: Las polizas de seguro se venden con un deducible, d, por pago de la
perdida. Cuando la perdida, x, es menor que d, la compa na aseguradora no paga nada.
Cuando la perdida es superior a d, la compa na paga xd. Entonces, denimos las variables
aleatorias asociadas:
La siguiente variable que denota el pago del pago
49
Y
P
=
_

_
no definida, si X d
X d, si X > d
.
Esta variable tiene dos caractersticas importantes, la primera de ellas, es que esta truncada
por la izquierda, ya que que aquellas observaciones por debajo del valor del deducible, d ,
son omitidas y esta trasladada debido a que los valores que toma la v.a. empiezan a partir
de d.
Mientras que la que est a asociada al pago por la perdida es:
Y
L
= (Y d)
+
=
_
_
_
0, si X d
X d, si X > d
Y
L
es una v.a. mixta con una masa de probabilidad en cero, y posiblemente continua para
valores mayores a este. Notemos que Y
P
= Y
L
[Y
L
> 0 = Y
L
[X > d. Dadas las deniciones
anteriores, se tiene que:
f
Y
P =
f
X
(y + d)
S
X
(d)
, y > 0
S
Y
P =
S
X
(y + d)
S
X
(d)
F
Y
P =
F
X
(y + d) F
X
(d)
1 F
X
(d)
h
Y
P =
f
X
(y + d)
S
X
(y + d)
= h
X
(y + d)
f
Y
L = f
X
(y + d), y > 0
S
Y
L = S
X
(y + d), y 0
F
Y
L = F
X
(y + d), y 0
Donde S() y h() son las correspondientes funciones de supervivencia y riesgo, respectiva-
mente. Es importante remarcar que si se cambia el deducible, se modica la frecuencia con
50
la que se hacen los pagos; sin embargo, la frecuencia de perdidas permanece inalterada.
Ejemplo: Supongamos que nuestra variable individual de perdida se distribuye Pareto con
= 3 y = 2000, y tenemos un deducible de 500. Utilizando las formulas anteriores, tenemos
f
Y
P (y) =
3(2000)
3
(2000 + y + 500)
4
(2000)
3
(2000 + 500)
3
=
3(2500)
3
(2500 + y)
4
S
Y
P (y) =
_
2500
2500 + y
_
3
F
Y
P (y) = 1
_
2500
2500 + y
_
3
h
Y
P (y) =
3
2500 + y
que es una distribuci on Pareto(3, 2500). Para nuestra variable de perdida, tenemos:
f
Y
L(y) =
_

_
0.488, si y = 0
3(2000)
3
(2500 + y)
4
, si y > 0
S
Y
L(y) =
_

_
0.512, si y = 0
(2000)
3
(2500 + y)
4
, si y > 0
F
Y
L(y) =
_

_
0.488, si y = 0
1
3(2000)
3
(2500 + y)
4
, si y > 0
h
Y
L(y) =
_

_
no definida, si y = 0
3
2500 + y
, si y > 0
51
0 20 40 60 80 100
0
.
0
0
0
.
0
2
0
.
0
4
0
.
0
6
0
.
0
8
0
.
1
0
Pareto(4,30)
x
f
.
d
.
p
.
X
Y^P
0 20 40 60 80 100
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
Pareto(4,30)
x
f
.
d
.
p
.
G
X
Y^L
Valores esperados
El k-esimo momento de estas variables se denen como:
E
_
(X d)
k
[X > d

=
_

d
(x d)
k
f(x)dx
1 F(d)
para Y
P
, y como:
E
_
(X d)
k
+

=
_

d
(x d)
k
f(x)dx
para Y
L
. Denimos min(X, d) = (X d). Entonces, observese que
X = (X d)
+
+ (X d)
de donde se desprende que, en una p oliza con un deducible ordinario, el costo esperado por
perdida es:
52
E[(X d)
+
] = E(X) E(X d)
y el costo esperado por pago es:
E(X) E(X d)
1 F(d)
y, c omo se calcula E(X d)?. En general, el k-esimo momento es:
E
_
(X d)
k

=
_
d

x
k
f(x)dx + d
k
[1 F(d)]
Tres resultados que seran de gran utilidad en el desarrollo de varias formulas y de calculos,
son:
E(X) =
_

0
[1 F(x)] dx =
_

0
S(x)dx
E[(X d)] =
_
d
0
[1 F(x)] dx
E[(X d)
+
] =
_

d
[1 F(x)] dx
Calculemos estas esperanzas en el caso de la Pareto(3, 2000), con deducible de 500.
F(500) = 1
2000
(2000 + 500)
3
= 0.488,
E(X 500) =
2000
2
_
1
_
2000
2000 + 500
_
2
_
= 360
Recordemos que la Pareto(, ) tiene esperanza /( 1). Entonces, nuestra variable que
denota esta perdida tiene E(X) = 2000/2 = 1000. Por lo tanto, el costo esperado por perdida
es 1000 360 = 640 y el costo esperado por pago es 640/(1 0.488) = 1250.
La tasa de eliminaci on de perdidas y el efecto de inacion en deducibles ordinarios
Una cantidad que puede ser importante para evaluar el impacto de un deducible, es la tasa
de eliminacion de perdida.
53
Denici on: La tasa de eliminacion de perdida es el cociente de decremento en el pago es-
perado con un deducible ordinario, respecto al pago sin este deducible. Sin el deducible, el
pago esperado es E(X). Con el deducible, este pago esperado es E(X) E(X d). Por lo
tanto, la tasa de eliminaci on de perdida es:
E(X) [E(X) E(X d)]
E(X)
=
E(X d)
E(X)
siempre que E(X) exista.
Siguiendo con nuestro ejemplo de la Pareto(3,2000), con un deducible ordinario de 500. La
tasa de eliminaci on de perdida es 360/1000 = 0.36. Entonces, el 36% de la perdida puede
ser eliminada al introducir un deducible ordinario de 500.
El efecto de la inacion
Es obvio que la inaci on incrementa los costos, pero cuando existe un deducible, el efecto de
la inacion se magnica:
Algunos eventos que formalmente producan perdidas por debajo del deducible, ahora
requerir an de pago de la perdida, por efecto de la inacion. Es decir, ahora hay mas recla-
maciones que exceden el deducible.
El efecto relativo de la inaci on se magnica, ya que el deducible se sustrae posterior a
la inaci on. El deducible no incrementa con la inaci on, pero los reclamos que exceden el
deducible crecer an m as que la tasa de inaci on. Por ejemplo, suponga que un evento produce
una perdida de 600 sin efecto de inaci on, y tiene un deducible de 500, entonces, el pago es
de 100. Si la inaci on es del 10%, la perdida incrementar a a 660, y el pago a 160, lo que
equivale a un incremento del 60% sobre el pago sin inacion, y este costo extra debe ser
absorvido por la aseguradora.
Pago esperado por reclamo, considerando la tasa de inacion
Consideremos un deducible, d, y una tasa de inacion constante, r, a lo largo del periodo.
El pago esperado por perdida sera
54
E[(1 + r)X] E [(1 + r)X d]
que puede reescribirse como
(1 + r)
_
E(X) E
_
X
d
1 + r
__
Veamos esto ultimo
E
_
((1 + r)X d)
+
_
= (1 + r)E
__
X
d
1 + r
_
+
_
= (1 + r)
_
E(X) E
_
X
d
1 + r
__
Y el pago esperado considerando esta tasa de inaci on, es:
(1 + r)
_
E(X) E
_
X
d
1 + r
__
1 F (d/(1 + r))
Seguimos con nuestro ejemplo. Supongamos una tasa de inaci on r = 10%. Recordemos que
el costo esperado por la perdida es 640 y el pago esperado 1250. Con un 10% de inacion
tenemos:
E
_
X
500
1.1
_
= E(X 454.55) =
2000
2
_
1
_
2000
2000 + 454.55
_
2
_
= 336.08
y el costo esperado por perdida despues del efecto de inaci on es 1.1(1000336.08) = 730.32,
que incrementa un 14.11% ((730.32 640)/640), el pago sin inacion que era de 640. Para
calcular el costo por el pago, primero debemos calcular
F(454.55) = 1
_
2000
2000 + 454.55
_
3
= 0.459
55
de donde obtenemos que este costo es 730.32/(1 0.459) = 1350, que aumenta un 8% con
respecto al de 1250 sin inaci on.
Lmite de p oliza
Lo opuesto al deducible es un lmite de p oliza. Un lmite de p oliza tpico es un contrato
donde, para las perdidas menores a un umbral, u, la aseguradora paga la perdida total, pero
para aquellas mayores a u, la aseguradora s olo paga u.
La v. a. asociada a esta reclamaci on es Y = min(X, u), que puede escribirse como:
Y = (X u) =
_
_
_
X, si X u
u, si X > u
Con funciones de densidad y distribucion dadas por:
f
Y
(y) =
_
_
_
f
X
(y), y < u
1 F
X
(u), y = u
F
Y
(y) =
_
_
_
F
X
(y), y < u
1, y u
Observese que los resultados que hemos establecido para un deducible d, pueden adaptarse
directamente cuando se trata de un lmite de p oliza, simplemente cambiando d por u.
Ahora desarrollemos nuestro ejemplo con un lmite en la poliza de 3000 y una tasa de in-
aci on del 10%. El costo esperado en este caso es:
E(X 3000) =
2000
2
_
1
_
2000
2000 + 3000
_
2
_
= 840
y la proporci on de reduccion es (1000 840)/1000 = 0.16. Despues de aplicar la tasa de
inaci on, el costo esperado es:
56
1.1 E(X 3000/1.1) = 1.1
2000
2
_
1
_
2000
2000 + 3000/1.1
_
2
_
= 903.11
con una proporci on de reduccion de (1100 903.11)/1100 = 0.179. El porcentaje de crec-
imiento entre estos costos es de 7.5% = 1 (903.11/840), que es menor que la tasa de
inaci on. El efecto es opuesto al del deducible.
Coaseguro
En polizas con coaseguro, la cantidad de reclamo es proporcional a la cantidad de perdida
por un factor de coaseguro. Este factor de coaseguro , 0 < < 1, es la proporci on de
pago que le corresponde a la compa na aseguradora, mientras el poseedor de la poliza paga
la fraccion restante. La v.a. para este pago es:
Y = X
cuya densidad puede expresarse como:
f
Y
(y) =
1

f
X
_
y

_
y tiene valor esperado E(Y ) = E(X).
Coaseguro, deducibles y lmites
Por supuesto, pueden aplicarse todas las modicaciones de una p oliza que hemos visto: de-
ducible ordinario, lmite de poliza, coaseguro e inacion para generar una p oliza mas general.
En este caso la variable aleatoria asociada es:
Y = (1 + r)
__
X
u
1 + r
_

_
X
d
1 + r
__
que podemos reescribir
Y =
_

_
0, X <
d
1 + r
[(1 + r)X d] ,
d
1 + r
X <
u
1 + r
(u d), X
u
1 + r
57
con un pago esperado por perdida
E(Y
L
) = (1 + r)
_
E
_
X
u
1 + r
_
E
_
X
d
1 + r
__
y valor esperado por pago
E(Y
P
) =
E(Y
L
)
1 F
X
_
d
1+r
_
Observese que podemos calcular todas las expresiones involucradas en esta ultimas formulas,
conociendo el modelo asociado a nuestra v.a. de perdida.
Ejemplo: Una compa na de seguros ofrece dos tipos de p olizas: Tipo I y Tipo II. La de Tipo I
no tiene deducible, pero tiene un lmite de 3000. Por el contrario, la de Tipo II no tiene lmite,
pero tiene un deducible d. Las perdidas siguien una distribuci on Pareto( = 3, = 2000).
Encontrar d de tal manera que las dos polizas tengan la misma cantidad de perdida esperada.
E(T
I
) = E(X 3000) =
2000
2
_
1
_
2000
2000 + 3000
_
2
_
= 840
E(T
II
) = E[(x d)
+
] =
_

d
_
2000
x + 2000
_
3
dx =
2000
2
_
_
2000
2000 + d
_
2
_
ya que E(T
I
) = E(T
II
), despejamos d, y tenemos que el deducible debe ser d = 182.18.
Ostro: Una compa na de mantenimiento de un hospital, paga cotidianamente el costo total
por uso de la sala de emergencia de sus clientes. Esta empresa ha visto que el costo sigue una
distribuci on exponencial con media 1000. La ca. est a evaluando la posibilidad de imponer
un deducible de 200 a sus clientes, por el uso de esta sala.
Calcule la tasa de eliminacion de perdida debido al deducible de 200. Interprete esta tasa.
Suponga que la ca. decide imponer este deducible de 200 por el uso de la sala, ademas de
un lmite de 5000 y con un factor de coaseguro del 80%. Calcule la cantidad de reclamacion
esperada por el evento de perdida y la cantidad esperada por pago, que debe realizar la
58
empresa.
Suponga una inaci on uniforme del 8%. Calcule los pagos del inciso anterior aplicando
esta tasa.
Primero, observamos que la parametrizacion de la exponencial que tiene sentido, de acuerdo
a la informaci on es:
f(x) =
1
1000
e
x/1000
que tiene E(X) = 1000. Para nuestro primer punto, tenemos que calcular
E(X 200)
E(X)
=
_
200
0
e
x/1000
1000
=
1000 (1 e
0.2
)
1000
= 18.12%
El 18.12% de la perdida puede ser eliminada imponiendo un deducible de 200. Para nuestro
segundo punto, tenemos: d = 200, u = 5000 y = 80%, y debemos calcular
E(Y ) = [E(X u) E(X d)]
Observemos que el segundo termino de la expresion entre corchetes cuadrados, es parte del
desarrollo que realizamos en el inciso anterior, y vale 181.2. Para el primer elemento de este
corchete, tenemos
E(X u) = E(X 5000) =
_
5000
0
e
x/1000
= 1000
_
1 e
5
_
= 993.262
de estas dos cantidades tenemos que
E(Y ) = 0.8 [E(X 5000) E(X 200)] = 0.8 (993.262 181.2) = 649.649
que es la cantidad de reclamacion esperada por uso de la sala. Cuyo pago esperado es de:
E(Y )
1 F
X
(d)
=
E(Y )
e
200/1000
=
649.649
0.8187
= 793.4831
59
El punto nal se deja como ejercicio al lector. (El resultado es: 709.5099).
El impacto del deducible en la frecuencia de los reclamos
Un componente importante para analizar el efecto en las modicaciones de las polizas,
concierne al cambio en la distribuci on de frecuencias de los pagos cuando se impone un de-
ducible o cuando se modica. Cuando se impone o se incrementa el deducible, esperaramos
pocos pagos por periodo, mientras que si se reduce, entonces esperaramos realizar mas pagos.
Podemos cuanticar este proceso, asumiendo que la imposici on de modicaciones de cober-
tura no afecta el proceso que produce las perdidas individuales que ser an pagadas por la
aseguradora. Por ejemplo, en aquellos individuos con una poliza con deducible de 250 por
da no en automovil, puede ser menos posible que se vean involucrados en un accidente que
aquellos con cobertura total.
Para iniciar nuestra discusion, supongamos que X
j
representa la j-esima perdida y que no
tiene modicaciones de cobertura en la p oliza. Sea N
L
el n umero de perdidas. Ahora, consid-
eremos una modicaci on en la cobertura tal que es la probabilidad de que las perdidas resul-
ten en pago. Por ejemplo, si hay un deducible d, entonces = Pr(X > d). Dena la variable
indicadora I
j
como I
j
= 1 si la j-esima perdida resulta en pago e I
j
= 0 de otra forma. En-
tonces, I
j
tiene distribuci on Bernoulli con p arametro y fgp P
I
j
(z) = 1+z = 1+(z1).
Entonces, N
P
= I
1
+ +I
N
L representa el n umero de pagos. Si I
1
, I
2
, , son mutuamente
independientes e independientes de N
L
, entonces N
P
tiene una distribucion compuesta con
N
L
como la distribucion primaria y una Bernoulli como distribucion secundaria. Entonces
P
N
P = P
N
L
_
P
I
j
(z)

= P
N
L [1 + (z 1)]
En el caso especial en que la distribucion de N
L
depende de un par ametro , tenemos:
P
N
L(z) = P
N
L(z; ) = B[(z 1)]
con B(z) una funcional independiente de . Entonces
P
N
P (z) = B[ ([1 + (z 1)] 1)]
= B[(z 1)]
= P
N
L(z; )
60
Este resultado implica que N
L
y N
P
pertenecen a la misma familia parametrica y solo el
par ametro debe cambiar.
Ejemplo
Supongamos que la distribuci on para la frecuencia de perdidas es BN( = 3, r = 2), y
para las perdidas es Pareto( = 3, = 1000). Queremos ver el efecto que tiene sobre la
distribuci on de frecuencias, imponer un deducible de 250.
Recordemos que la BN tiene fgp dada por P
N
(z) = [1 (z 1)]
r
. En este caso toma
el rol de y B(z) = (1 z)
r
. Entonces, N
P
debe tener tambien una distribuci on BN con
par ametros r

= r y

= . Dados los valores particulares de este ejemplo


= 1 F(250) =
_
1000
1000 + 250
_
3
= 0.512,
r

= 2 y

= 3(0.512) = 1.536 P
N
L(z; ) = BN(2, 1.536)
0 5 10 15
0
.
0
2
0
.
0
4
0
.
0
6
0
.
0
8
0
.
1
0
Impacto del deducible en la frecuencia de reclamaciones
x
0 5 10 15
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
x
BN(3,2)
BN(1.536,2)
61
En general, los parametros de las distribuciones de frecuencia se habran modicado por v
siempre que haya pago, de la siguiente manera:
Distribuci on Par ametros modicados
Poisson

= v
Poisson Modicada en cero
p

0
=
p
M
0
e

+ e
v
p
M
0
e
v
1 e

= v
Binomial q

= vq
Binomial Modicada en cero p

0
=
p
M
0
(1 q)
m
+ (1 vq)
m
p
M
0
(1 vq)
m
1 (1 q)
m
; q

= vq
Binomial Negativa

= v
BinNeg Modicada en cero p

0
=
p
M
0
(1 + )
r
+ (1 + v)
r
p
M
0
(1 + v)
r
1 (1 + )
r
;

= v
62
Modelo de perdidas agregadas
En el ejemplo anterior mencionamos (sin gran detalle) que las variables involucradas tenan
una distribucion compuesta. Ahora introduciremos uno de los modelos mas importantes
en la teora del riesgo, que requiere de una distribucion compuesta de las variables que lo
determinan.
Introduccion
Las perdidas que tiene una compa na aseguradora pueden surgir de manera individual o
colectiva, dependiendo del tipo de seguro que se contrate; por este motivo, hay que poner es-
pecial atenci on al rol que desempe nan las caractersticas de cada uno de ellos, en las perdidas
que contraiga la empresa. Los modelos que determinan el monto total que devenga una Ca
por la acumulacion de los riesgos individuales de su portafolio de asegurados, son:
Modelo de riesgo Individual, y
Modelo de riesgo Colectivo.
63
Modelo Individual
Supongamos que tenemos un portafolio de n p olizas individuales de seguros vigentes por,
digamos, un a no. Denamos como q
j
la probabilidad de que el j-esimo asegurado efect ue exac-
tamente una reclamacion en el periodo; lo que implica que se cumple la igualdad, p
j
+q
j
= 1,
que signica que no puede haber m as de una reclamacion por cada asegurado.
Un ejemplo de esta situacion es el que se presenta a traves de contratos para grupos de vida,
en donde se cubre a cierto n umero de personas n , y cada una posee diferentes coberturas
de acuerdo a las categoras que se establecen para su grupo. Esta situacion produce que las
personas tengan distintas probabilidades de perdidas, sujetas a sus caractersticas personales
o cualquier otra condici on que exista y se determine en el contrato.
Para jar ideas, supongamos un portafolio con n p olizas, una poliza por individuo y con
vigencia a lo largo de un periodo de tiempo establecido. Entonces q
j
es la probabilidad
de que el j-esimo asegurado efect ue exactamente una reclamaci on durante este periodo, y
(p
j
= 1 q
j
) que no haga ninguna reclamacion. Esta variable aleatoria es evidentemente
Bernoulli que asigna valores de 1 y 0 a estos eventos, respectivamente, denotemosla como
R
j
. Ahora bien, una vez que la j-esima p oliza efect ue una reclamaci on, el impacto de la
misma se ver a reejado en el monto que la compa na aseguradora deber a asumir. Denimos
entonces la variable aleatoria B
j
> 0, (R
j
B
j
), como el monto de reclamaci on de la j-esima
p oliza. Por lo tanto, el monto de la j-esima p oliza queda denido por:
X
j
=
_
B
j
si R
j
= 1 y ocurre con probabilidad q
j
0 si R
j
= 0 y ocurre con probabilidad 1 q
j
Entonces, el monto total por reclamaciones o monto agragado que debe asumir la compa na
aseguradora por el concepto de la reclamaciones de sus asegurados, en el modelo individual,
est a dado por la variable aleatoria
S =
n

j=1
X
j
=
n

j=1
B
j
R
j
Este modelo se conoce tambien como el modelo de perdidas agregadas.
64
El nombre de modelo individual se debe a que supone conocer las probabilidades de recla-
maci on y posible monto de reclamaci on de todos y cada uno de los asegurados de manera
individual. Una posible desventaja es que presupone que el n umero de asegurados en la
cartera se mantiene constante (no es aleatorio) durante todo el tiempo de vigencia del seguro.
Entonces, nuestro objetivo es conocer las caractersticas estadsticas de esta variable S, tales
como: funcion de densidad, distribuci on, media, varianza, funcion generadora de momentos,
etc.
Supongamos que cada variable aleatoria, X
j
, tiene asociada una funcion de distribuci on
F
X
j
(x) , entonces la funcion de distibucion de S queda en terminos de convoluciones como:
F
S
(x) = (F
X
1
F
Xn
) (x)
No obstante el c alculo de convoluciones no es, en general, una tarea f acil, por lo que requer-
imos de maneras alternativas para estudiar esta variable aleatoria. Denotemos por G
B
j
a la
funci on de distribucion de B
j
. Entonces, algunas caractersticas de esta variable se enuncian
en la siguiente proposici on
Proposicion
1. E(S) =
n

j=1
q
j
E(B
j
)
2. V(S) =
_
q
j
V(B
j
) + q
j
p
j
E
2
(B
j
)

3. F
X
j
(x) =
_
(1 q
j
) + q
j
G
B
j
(x), x 0
0 , x < 0
4. M
X
j
(t) = (1 q
j
) + q
j
M
B
j
(t)
5. M
S
(t) =
n

j=1
_
(1 q
j
) + q
j
M
B
j
(t)

Dem
65
1.- E(S) =
n

j=1
E(X
j
) =
n

j=1
E(B
j
R
j
) =
..
por independencia
n

j=1
E(B
j
) E(R
j
) =
n

j=1
q
j
E(B
j
)
2.- Observemos que
V(B
j
R
j
) = E
_
B
2
j
R
2
j
_
E
2
(B
j
R
j
)
= q
j
E
_
B
2
j
_
q
2
j
E
2
(B
j
)
= q
j
_
V(B
j
) +E
2
(B
j
)

q
2
j
E
2
(B
j
)
= q
j
V(B
j
) +
_
q
j
q
2
j
_
E
2
(B
j
)
= q
j
V(B
j
) + p
j
q
j
E
2
(B
j
)
Por lo que
V(S) =
n

j=1
V(B
j
R
j
) =
..
idependencia
n

j=1
_
q
j
V(B
j
) + p
j
q
j
E
2
(B
j
)

3.- x 0,
F
X
j
(x) = P(X
j
x) = P(B
j
R
j
x)
= P(B
j
R
j
x[R
j
= 0) P(R
j
= 0) +P(B
j
R
j
x[R
j
= 1) P(R
j
= 1)
= P(0 x[R
j
= 0) p
j
+P(B
j
x[R
j
= 1) q
j
= 1 p
j
+ q
j
G
X
j
(x)
4.-
M
X
j
(t) = E
_
e
tX
j
_
= E
_
e
tB
j
R
j
_
= E
_
e
tB
j
R
j
[R
j
= 0
_
P(R
j
= 0) +P
_
e
tB
j
R
j
[R
j
= 1
_
P(R
j
= 1)
= p
j
+ q
j
M
B
j
(t)
5.- M
S
(t) = E
_
e
t

n
j=1
X
j
_
= E
_
e
t

n
j=1
B
j
R
j
_
=
..
independencia
n

j=1
_
p
j
+ q
j
M
B
j
(t)

66
Encontrar la distribuci on de S, por lo general, es complicada, por tal motivo no se utilizan
las convoluciones como una alternativa para obtenerla. Para lidiar con esta situaci on, se
han desarrollado metodos, esencialmente de aproximacion numerica, que proporcionan esta
distribuci on de las perdidas agregadas en un modelo individual.
El modelo colectivo de riesgo
Este modelo presenta las perdidas agregadas como una suma aleatoria de variables aleato-
rias, donde N es la variable aleatoria del n umero de reclamaciones realizadas y X
1
, X
2
, ..., X
N
son las variables aleatorias independientes e identicamente distribuidas, que representan los
montos de cada reclamaci on. La especicacion formal del modelo es la siguiente
Sea X
j
la reclamaci on de pago realizada por el j-esimo asegurado, y sea N el n umero aleato-
rio de reclamaciones. Al total o (agregado) de reclamaciones:
S = X
1
+ X
2
+ + X
N
=
N

j=1
X
j
, con S = 0 cuando N = 0
se le conoce como modelo agregado de reclamaciones . Otros nombres que recibe en la lit-
eratura actuarial son modelo colectivo de riesgos y el modelo compuesto de frecuencias. Los
supuestos del modelo son:
Condicional a N = n, las variables aleatorias X
1
, X
2
, ..., X
N
son i.i.d.
Condicional a N = n, la distribuci on com un de X
1
, X
2
, ..., X
N
no depende de n
La distribucion de N no depende de ninguna manera de los valores de X
1
, X
2
, ..., X
N
.
Tenemos, N: frecuencia de reclamaciones y X: severidad de las reclamaciones, por lo tanto S
tiene una distribuci on compuesta. Entonces, la cuesti on central es encontrar la distribuci on
de S.
Ya que el objetivo es encontrar la distribucion que mejor ajuste a S, lo haremos a partir de la
distribuci on que ajustemos para N y de la distribucion de las X

j
s. Por lo que la frecuencia
y severidad se modelaran de forma separada pues representa muchas ventajas, entre las que
est an las siguientes:
67
Debido a que el n umero esperado de reclamaciones se ve afectado por el n umero de polizas
que se vayan asegurando, y se ir a actualizando basado en datos anteriores, el hecho de tener
por separado la frecuencia es m as practico para ir modicando nuestros datos.
El efecto de factores economicos como la inaci on se ven reejados en las perdidas de
la compa na, por lo que identicar estos factores en los montos agregados se puede volver
complicado, y si analizamos la frecuencia y severidad por separado esto resulta m as sencillo.
El impacto de deducibles, coaseguros y lmites de polizas, se estudia de manera mas sencilla,
tanto en las distribuciones de severidad, como en las de frecuencia.
Debido a que la forma de la distribuci on de S depende de las distribuciones de X y N, el
conocer cada una de ellas servira para ajustar mejores distribuciones para S. Por ejemplo,
si la cola de la distribucion de X es mas pesada en comparaci on con la de N, la forma de
la cola que tendr an las perdidas agregadas sera determinada por la severidad y ser a mas
insensible a la frecuencia.
Entonces, los pasos a seguir para hallar la distribucion m as adecuada para el modelo prop-
uesto de S son:
1. Desarrollar un modelo de la distribucion para la frecuencia N basada en datos.
2. Desarrollar un modelo para la distribuci on com un de las perdidas X

j
s bas andonos en
los datos.
3. Usando estos dos modelos, llevar a cabo los calculos necesarios para encontrar la dis-
tribuci on de S.
Funciones de distribucion y densidad de S
La funcion de distribucion de S est a dada por
F
S
(x) = Pr(S x) =

n=0
p
n
Pr(S x[N = n) =

n=0
p
n
F
n
X
(x)
Con F
X
(x) = Pr(X x) la funci on de distribucion com un de las X
j
s y p
n
= Pr(N = n).
F
n
X
(x), es la convolucion de las n v.
s
a.
s
, y se puede calcular de forma recusiva como
68
F
0
X
(x) =
_

_
0 x < 0
1, x 0
y
F
k
X
(x) =
_

F
(k1)
X
(x y)dF
X
(y) para k = 1, 2, ...
Las colas de esta distribucion, que son de interes, se pueden calcular como
1 F
S
(x) =

n=1
p
n
[1 F
n
X
(x)]
Su funcion de densidad est a dada por:
f
S
(x) = Pr(S = x) =

n=0
p
n
f
n
X
(x), x = 0, 1, ...
cuyo c alculo recursivo es
f
k
X
(x) =
_

f
(k1)
X
(x y)f
X
(y)dy para k = 1, 2, ...
Si X es discreta, con probabilidades en 0, 1, 2, ... las respectivas convoluciones se pueden
calcular sustituyendo la integral por una suma sobre los valores que toma X.
La fgp de S es
P
S
(z) = E(z
S
) =

n=0
E(z
X
1
+X
2
++X
N
[N = n)Pr(N = n)
=

n=0
E
_
n

j=1
z
X
j
_
Pr(N = n)
=

n=0
[P
X
(z)]
n
Pr(N = n)
= E
_
P
X
(z)
N

= P
N
[P
X
(z)]
69
Siguiendo las mismas consideraciones, la f.g.m de S se obtiene, por
M
S
(t) = E
_
e
tS
_
= E
_
E
_
e
tS
[ N

= E
_
E
_
e
t(X
1
++X
N
)
[ N

n=0
E
_
e
t(X
1
++X
N
)
[ N = n

P(N = n)
=

n=0
E
_
e
t(X
1
++Xn)
[ N = n

P(N = n) =

n=0
E
_
e
t(X
1
++Xn)

P(N = n)
=

n=0
E
_
n

j=1
e
tX
j
_
P(N = n) =

n=0
_
n

j=1
E
_
e
tX
j

_
P(N = n)
=

n=0
_
E
_
e
tX
_
n
P(N = n) =

n=0
(M
X
(t))
n
P(N = n) = E
_
(M
X
(t))
N
_
= E
_
e
log((M
X
(t))
N
)
_
= E
_
e
N log((M
X
(t)))

= M
N
(log(M
X
(t))
Por lo tanto, obtenemos
M
S
(t) = M
N
(log(M
X
(t))
y dejandola en terminos de la f.g.p.
M
S
(t) = P
N
(M
X
(t))
Momentos de S
Ahora desarrollaremos algunos momentos de esta variable aleatoria, que ser an de utilidad
posteriormente.
E(S) = E[E[S [ N]] = E
_
E
_
N

j=1
X
j
[N
__
70
=

n=0
E[X
1
+ X
2
+ + X
N
[ N = n] P(N = n)
=

n=0
E[X
1
+ X
2
+ + X
n
[ N = n] P(N = n)
ya que las X

j
s son v.a.i.i.d. su esperanza es la misma, digamos, E[X], entonces:

n=0
E[X
1
+ X
2
+ + X
n
[ N = n] P(N = n) =

n=0
nE[X] P(N = n) = E[X] E[N]
E(S) = E[X] E[N]
La varianza de S se puede calcular por medio de la formula de varianza iterada donde
V(S) = E[V(S [ N)] +V[E(S [ N)] = E[NV(X)] +V[NE(X)]
= E(N) V(X) +V(N)E
2
(X)
=V(S) = E(N) V(X) +V(N)E
2
(X)
Y nalmente su tercer momento alrededor de la media, es:
E
_
(S E(S))
3

= E(N) E
_
(X E(X))
3

+3V(N) E(X) V(X)+E


_
(N E(N))
3

E(X)
3
Hallar explcitamente la distribuci on de S no es trivial, por lo que se utilizan diversas aproxi-
maciones a su distribuci on o soluciones n umericas; no obstante, existen algunas elecciones de
los modelos para N y X que permiten tener resultados analiticos para ciertas caractersticas
de esta distribuci on.
Algunos modelos compuestos
Modelo Binomial Compuesto
Si la variable de frecuencia de reclamaciones, N se distribuye Binomial (n, p), y los montos
de reclamacion, X, tienen una distribucion con soporte en los reales positivos, entonces, S
tiene una distribucion binomial compuesta. Sus caractersticas numericas son:
71
E(S) = npE(X)
V ar (S) = np
_
E(X
2
) pE(X)
2
_
M
S
(t) = (1 p + pM
X
(t))
n
Modelo Binomial Negativo Compuesto
Cuando el n umero de reclamaciones tiene una distribuci on Binomial Negativa entonces el
riesgo S se distribuye Binomial Negativa Compuesta y se tiene:
E(S) = rE(X)
V ar (S) = r
_
E(X
2
) + E(X)
2
_
M
S
(t) =
_
1
1 + (1 M
X
(t))
_
r
Modelo Poisson Compuesto
Bajo los mismos supuestos que en los modelos anteriores, si N se distribuye Poisson(),
entonces S tiene una distribucion Poisson compuesta. Con
E(S) = E(X)
V ar (S) = E(X
2
)
M
S
(t) = e
(M
X
(t)1)
Supongamos que N Poisson() y que X
j
Bernoulli(q), aplicando lo anterior para la
distribuci on de S, tenemos que
M
S
(t) = e
(M
X
(t)1)
; donde M
N
(t) = e
(e
t
1)
y en particular para
M
X
1
(t) = (1 q) + qe
t
por lo que M
S
(t) = e
((1q)+qe
t
1)
= e
(qe
t
q)
= e
q(e
t
1)
S Poisson(q)
Observacion importante: Aunque estos modelos tienen una forma analtica en estas car-
actersticas numericas, ninguna de ellas, salvo el ultimo caso, corresponde a la densidad o
distribuci on de S. Es decir, el problema de encontrar la distribucion de las perdidas agre-
gadas, persiste.
72
Distribucion de la convolucion de Poisson compuestas
Una caracterstica muy util para nuestros nes es que la Poisson compuesta es cerrada bajo
convolucion. Especcamente
Sup ongase que S
j
tiene una distribuci on Poisson compuesta con par ametros
j
y funci on
de distribucion para severidades F
j
(x) para j = 1, 2, ..., n. Adem as, que S
1
, S
2
, ..., S
n
son
independientes. Entonces S = S
1
+S
2
+ +S
n
tiene una distribucion Poisson compuesta
con parametro =
n

j=1

j
y funcion de distribucion de severidad F (x) =
n

j=1

F
j
(x) .
Dem:
Sea M
j
(t) la f.g.m. de F
j
(x) para j = 1, 2, ..., n. Entonces S
j
tiene f.g.m. dada por:
M
S
j
(t) = E
_
e
tS
j
_
= e

j
(M
j
(t)1)
y por la independencia de las S

j
s, S tiene f.g.m.
M
S
(t) =
n

j=1
M
S
j
(t) =
n

j=1
exp (
j
[M
j
(t) 1]) = exp
__
n

j=1

j
M
j
(t)
n

j=1

j
__
= exp
__
n

j=1

j
M
j
(t)
_

_
= exp
_

__
n

j=1

M
j
(t)
_
1
__
Debido a que
n

j=1

M
j
(t) es la f.g.m. de F (x) =
n

j=1

F
j
(x) , entonces M
S
(t) tiene la
forma de la f.g.m. de una distribuci on Poisson compuesta.
Ejemplo
S
1
y S
2
son distribuciones Poisson compuestas con par ametros
1
= 3 y
2
= 2, y funcion
de severidad individual
x f
1
(x) f
2
(x)
1 0.25 0.10
2 0.75 0.40
3 0.00 0.40
4 0.00 0.10
73
determine la media y varianza de S.
S = S
1
+ S
2
tiene una distribuci on Poisson compuesta con media = 3 + 2 = 5, y con
funci on de severidad
x Pr(S = s)
1 (3/5)*(0.25)+(2/5)*(0.10)=0.19
2 (3/5)*(0.75)+(2/5)*(0.40)=0.61
3 0+(2/5)*(0.40)=0.16
4 0+(2/5)*(0.10)=0.04
de donde obtenemos
E(S) = 0.19 + 2 0.61 + 3 0.16 + 4 0.04 = 2.05 y V ar(S) = E [(S 2.05)
2
] = 0.5075
Modicaciones en los modelos agregados
Una vez denidos estos dos modelos para perdidas agregadas, corresponde ahora incluir
las modicaciones que ellos sufren a traves de las modicaciones que sufren las polizas que
los componen. Es decir, debemos encontrar las variables por perdida y por pago para S,
similares a las que hemos denido para las variables individuales, ya que la distribuci on
de S tambien se vera afectada una vez que apliquemos modicaciones en la cobertura de
contratos.
Supongamos un panorama simple bajo el cual el portafolio de perdidas se modique debido
a la aplicaci on de un deducible , d. Como la variable aleatoria S depende de N y de las
X

j
s , entonces se tendremos que considerar dos posibilidades
Supongamos que N
L
es la variable aleatoria por perdida que modela la frecuencia de las
perdidas agregadas, mientras que las X

j
s determinan la severidad de las mismas. En este
escenario a traves de la variable por perdida Y
L
modicaremos las X

j
s que representan los
montos, pues recordemos que:
Y
L
= (X d)
+
=
_
0 X d
X d X > d
74
as que la severidad de las reclamaciones se ver a afectada. En este caso Y
L
j
representa el
pago por la j-esima perdida, mientras que la frecuencia seguir a distribuyendose de la misma
forma puesto que, como su nombre lo indica, estamos considerando las perdidas totales que
sufre la compa na sin importar aquellas que realmente se pagan.
Entonces, el modelo colectivo queda
S = Y
L
1
+ Y
L
2
+ + Y
L
N
L
donde S = 0 si N
L
= 0
La segunda opcion es considerar a Y
P
, la variable de pago, que reejar a los montos pagados
por la compa na aseguradora una vez que han excedido el valor del deducible, d, pero ademas
de ello, en este caso, la variable que modela la frecuencia de las reclamaciones N
P
tambien se
modicar a, y se vera reejado en el n umero de pagos efectuados. Entonces, los par ametros
para N
P
cambiar an conforme a lo que se reviso en las modicaciones de cobertura para
modelos de frecuencia, donde se considera a la constante como la probabilidad de pago
por parte de la aseguradora. Entonces el modelo sera
S = Y
P
1
+ Y
P
2
+ + Y
P
N
P
donde S = 0 si N
P
= 0 y Y
P
j
es la variable de pago que representa el monto de la j-esima
perdida tal como se deni o Y
P
anteriormente.
Es importante considerar las modicaciones de los contratos de seguros en los modelos colec-
tivos, debido a que, bajo circunstancias apegadas a la realidad, generalmente esta informaci on
es la que se manejara.
Ya sabemos que existe una relacion entre las variables de perdida y de pago: Y
P
= Y
L
[Y
L
>
0. Luego, retomando el concepto de como la probabilidad de pago, las funciones de dis-
tribuci on de estas variables, guardan la siguiente relaci on:
F
Y
L = (1 v) + vF
Y
P (y) ; y 0
75
porque 1 = P
_
Y
L
= 0

= F
Y
L (0) .
Con una relaci on equivalente para sus f.g.m.
M
Y
L (t) = (1 ) + M
Y
P (t)
ya que
E
_
e
tY
L
_
= E
_
e
tY
L
[Y
L
= 0
_
P
_
Y
L
= 0

+E
_
e
tY
L
[Y
L
> 0
_
P
_
Y
L
> 0

= E
_
1[Y
L
= 0

(1 ) +E
_
e
tY
L
[Y
L
> 0
_

= (1 ) + M
Y
P (t)
Adem as, para el n umero de perdidas N
L
y el n umero de pagos N
P
se tiene esta relaci on con
sus f.g.p.
P
N
P (z) = P
N
L (1 v + vz)
donde P
N
P (z) = E
_
z
N
P
_
y P
N
L (z) = E
_
z
N
L
_
.
Finalmente con los resultados del Modelo Colectivo, las f.g.m. de S en terminos de las
variables por perdida y por pago son:
M
S
(t) = E
_
e
tS
_
= P
N
L (M
Y
L (t))
y
M
S
(t) = E
_
e
tS
_
= P
N
P (M
Y
P (t))
que guardan la siguiente relaci on:
P
N
L [M
Y
L (t)] = P
N
L [1 v + vM
Y
P (t)] = P
N
P [M
Y
P (t)]
76
Ejemplo
En una cobertura de seguros, se sabe que el n umero de perdidas en el Modelo de Riesgo
Colectivo se distribuyen BinNeg( = 1.5, r = 12) y que los montos de las perdidas (X

j
s)
tienen distribuci on Pareto( = 3, = 150). Adem as de esta informaci on, se determina que
la inacion ser a del 3% y se aplicar an las siguientes modicaciones de cobertura.
Deducible d = 40
Lmite de p oliza = 250
Coaseguro = 85%
Determinar la esperanza y la varianza de las perdidas agregadas, considerando que el monto
de las perdidas se ve modicado por la variable aleatoria de perdida y por la variable aleatoria
de perdida en exceso (o variable de pago).
Primero encontremos E(S) y V(S), cuando las X

j
s se modican por Y
L
. Entonces, el
orden en el que consideramos las modicaciones son: primero la inaci on, posteriormente el
deducible, el lmite de p oliza y nalmente el coaseguro.
Considerando estas modicaciones para cada X
j
, la variable aleatoria de perdida queda:
Y
L
=
_

_
0 X <
40
1.03
0.85 [(1.03) X 40]
40
1.03
X <
250
1.03
0.85(250 40) X
250
1.03
=
E
_
Y
L

= (1 + r)
_
E
_
X
u
1 + r
_
E
_
X
d
1 + r
__
= 0.85 (1.03)
_
E
_
X
250
1.03
_
E
_
X
40
1.03
__
Para la Pareto(3, 150)
77
E
_
X
250
1.03
_
=
150
2
_
1
_
150
250 + 150
_
2
_
= 64.058
E
_
X
40
1.03
_
=
150
2
_
1
_
150
250 + 150
_
2
_
= 27.676
= E
_
Y
L

= 0.85(1.03) [64.058 27.676] = 31.852


Luego para N
L
sabemos que se distribuye BinNeg(1.5, 12) pero esta variable, que representa
el n umero de reclamaciones del modelo colectivo, no se modica por ser variable de pedida
y no de pago.
=E
_
N
L
_
= r = 12 1.5 = 18
Por los resultados anteriores
E(S) = E(Y
L
)E
_
N
L
_
= 31.85244 18 = 573.3439
Aparte de esta situaci on, como el n umero de reclamaciones se distribuye Binomial Negativa,
el modelo se reduce a un Modelo Binomial Negativo Compuesto, raz on por la cual, como se
mostr o en la seccion anterior, la varianza de S es :
V(S) = r
_
E
_
_
Y
L
_
2
_
+ E
_
Y
L
_
2
_
.
Entonces, hay que obtener el segundo momento en terminos de Y
L
, i.e., E[
_
Y
L
_
2
], que, de
manera general, se calcula como
E
_
_
Y
L
_
2
_
=
2
(1 + r)
2
_
E
_
(X u

)
2

E
_
(X d

)
2

2d

E(X u

) + 2d

E(X d

)
_
con u

=
u
1 + r
y d

=
d
1 + r
.
Por lo que en nuestro caso este c alculo es
E
_
_
Y
L
_
2
_
=
(0.85)
2
(1.03)
2
_
E
_
_
X
250
1.03
_
2
_
E
_
_
X
40
1.03
_
2
_
2
_
40
1.03
_
E
_
X
250
1.03
_
+ 2
_
40
1.03
_
E
_
X
40
1.03
_
_
78
que observamos es bastante laborioso. Haciendo estos calculos en R, tenemos que
E
_
_
Y
L
_
2
_
= 4217.442
Finalmente
V ar(S) = r
_
E
_
_
Y
L
_
2
_
+ E
_
Y
L
_
2
_
= 18
_
4217.442 + 1.5 (31.85244)
2

= 103307.6
Como segundo punto tambien debemos calcular la E(S) y V(S) considerando a las Y
P

j
s y
a N
P
como la frecuencia.
La funci on para Y
P
, a diferencia de Y
L
, es solo tomar en cuenta que los valores para X <
40
1.03
no estan denidos, as que para la E
_
Y
P

basta dividir E
_
Y
L

entre S
X
_
d
1+r
_
=S
X
_
40
1.03
_
= S
X
(38.83495) =
_
150
38.83495 + 150
_
3
= 0.501217
De ah E
_
Y
P

=
E
_
Y
L

S
X
_
d
1+r
_ =
31.85244
0.501218
= 63.55007
Para N
P
debemos obtener E
_
N
P

, entonces, como es la frecuencia correspondiente al pago


que realiza la aseguradora, se modica respecto al valor de , donde :
= P
_
X >
d
1 + r
_
= 1 F
X
_
40
1.03
_
esto porque recordemos que es la probabilidad de pago una vez que se ha aplicado inaci on
y deducible en el n umero de reclamaciones, entonces
= S
X
_
40
1.03
_
= 0.501217971983
Por lo tanto, la distribuci on es una Binomial Negativa pero con parametros modicados:
r = r

= 12 y

= v = 0.751826958
79
= E
_
N
P

= r

= 9.021923496.
De esta forma E(S) = E
_
Y
P

E
_
N
P

= 627.6041864
La V(S) = r

_
E
_
_
Y
P
_
2
_
+

E
_
Y
P
_
2
_
=E
_
_
Y
P
_
2
_
=
E[
_
Y
L
_
2
]
1 F
X
_
40
1.03
_ =
4963.722677
0.501217
= 9903.321418
=V(S) = 9.021923496
_
9903.321418 + 0.751826958 (69.56434365)
2

= 122170.9259
Bajo el analisis de las variables por pago y por perdida en este modelo de riesgo colectivo,
la E(S) y V(S) son muy similares entre s.
80
Metodos para encontrar la distribuci on de S
Aproximaciones
Una vez que hemos presentado y analizado los modelos de riesgo individual y colectivo, junto
con algunas de sus caractersticas, observamos que, en general, no obtuvimos resultados que
nos permitieran encontrar la distribucion de S. Una manera de salvar esta dicultad es a
traves de aproximaciones a esta distribucion, que se utilizan tanto para el modelo individual
como para el modelo colectivo. Presentamos a continuaci on las siguientes:
Normal
Lognormal
Gamma Trasladada
Poisson Compuesta
Aproximaci on Normal
A traves del Teorema Central del Lmite se puede aproximar la distribucion de S por medio
de una distribuci on normal.
Generalmente, este metodo de aproximaci on es de mayor utilidad cuando el n umero de
reclamaciones N de nuestro riesgo S es muy grande, y por consecuencia, la E[N] tambien
resulta ser grande.
Proposicion. Para cualquier s > 0
F
S
(s) = P[S s]
_
s E(S)
_
V(S)
_
Ahora bien, suponiendo que tanto la Severidad como la Frecuencia de los datos son discretas,
entonces la distribuci on de las perdidas agregadas ser a discreta; por lo cual, si se desea utilizar
este metodo de aproximaci on, ser a necesario aplicar antes una Correccion de Continuidad.
Es decir, sup ongase que se quiere conocer P[n S m] , para utilizar la aproximaci on nor-
mal, lo unico que se hace es extender el intervalo de [n, m] al intervalo
_
n
1
2
, m +
1
2

, por lo
cual la probabilidad bajo la correccion de continuidad ser a P
_
n
1
2
S m +
1
2

. Una vez
81
realizada esta correcci on, se hace el mismo procedimiento de aproximaci on, considerando la
E(S) y V(S) originales del riesgo S.
Ejemplo
Una compa na aseguradora tiene una cartera con p olizas de seguro de vida con las carac-
tersticas que se muestran en la tabla. Utilizando el modelo de riesgo individual, realizar
la aproximacion normal de tal manera que podamos encontrar el valor de s bajo el cual
P[S s] = 0.95, i.e., deseamos encontrar el VaR de la distribuci on de S.
i # de p olizas Probabilidad de reclamacion Monto de Reclamacion
1 1000 0.05 10
2 2000 0.10 5
3 500 0.02 20
Primero veamos lo que sucede con E(B
i
) y V(B
i
) para i = 1, 2, 3. Primeramente, tenemos
que
para i=1, P(B
1
= 10) = 1, P(B
1
= x) = 0 si x ,= 10
para i=2, P(B
2
= 5) = 1, P(B
2
= x) = 0 si x ,= 5
para i=3, P(B
3
= 20) = 1, P(B
3
= x) = 0 si x ,= 20
Entonces
E(B
1
) = 1 10 + 0 x = 10 y V ar(B
1
) = 10
2
1 10
2
= 0
E(B
2
) = 5 y V ar(B
2
) = 0
E(B
3
) = 20 y V ar(B
3
) = 0
Entonces E(S
1
) =
1000

j=1
0.05 10 = 500, E(S
2
) =
2000

j=1
0.10 5 = 1000,
E(S
3
) =
500

j=1
0.02 20 = 200
=E(S) = 500 + 1000 + 200 = 1700
82
Luego V(S
1
) =
1000

j=1
_
0.05 0 + 0.05 0.95 10
2
_
= 4750
V(S
2
) =
2000

j=1
_
0.1 0 + 0.1 0.9 5
2
_
= 4500
V(S
3
) =
500

j=1
_
0.02 0 + 0.02 0.98 20
2
_
= 3920
Entonces
V(S) = 4750 + 4500 + 3920 = 13170
Se quiere P[S s] = 0.95, entonces P
_
S E(S)
_
V(S)

s E(S)
_
V(S)
_
= 0.95 el cuantil del 95%
para una N (0, 1) es 1.644854
Por lo tanto s =
_
V(S) 1.644854 +E(S) =

13170 1.644854 + 1700


= 1888.764
83
0 500 1000 1500 2000 2500 3000
0
.
0
0
0
0
0
.
0
0
0
5
0
.
0
0
1
0
0
.
0
0
1
5
0
.
0
0
2
0
0
.
0
0
2
5
0
.
0
0
3
0
0
.
0
0
3
5
Aproximacin Normal
s
f
S
(
s
)
84
Aproximaci on Lognormal
Cuando la E(N) no es lo sucientemente grande, y por lo mismo, la distribucion de S posee
una cola pesada, la distribucion normal deja de ser apropiada para aproximar la distribuci on
del riesgo. Es por esta situaci on que se sugiere usar la aproximacion Lognormal aunque no
exista la teora suciente para sustentar que dicha aproximaci on sea buena.
Proposicion
Para cualquier s > 0
F
S
(s) = P[S s]
_
ln (s)

_
Recordando que para la distribuci on Lognormal se tiene la siguiente esperanza y segundo
momento que son indispensables para obtener lo valores de y
2
:
E(S) = e
+

2
2
y E(S
2
) = e
2+2
2
Ejemplo
Suponiendo un modelo de riesgo colectivo para las perdidas agregadas de una compa na
aseguradora y, en especco, un modelo Poisson compuesto donde N Poisson( = 0.7),
mientras que los montos de reclamaci on se distribuyen Gamma con = 2, = 150. Utilizar
la aproximacion normal y lognormal para determinar las perdidas agregadas por arriba de
300.
Sabemos que E(S) = E(X) y V(S) = E(X
2
)
Ya que X es gamma(, ). Entonces E(X) = y V(X) =
2
. Por lo que
=E(X) = = 300 y E(X
2
) = V(X) +E(X)
2
= 45000 + 300
2
= 135000
=E(S) = 0.7 300 = 210 y V(S) = 0.7 135000 = 94500
Para la aproximaci on normal F
S
(300) = P[S 300] =
_
300 210

94500
_
85
= (0.292770022) = 0.615151
Las perdidas agregadas por arriba de 300 tienen una probabilidad de 0.384849 para la aprox-
imaci on normal
Para la aproximaci on lognormal E(S) = e
+

2
2
= 300 y E(S
2
) = e
2+2
2
= 135000
Entonces
ln (300) = +

2
2
y ln(135000) = 2 + 2
2
, =
2
= 0.4054 y = 5.50108
Finalmente F
S
(300) = P[S 300] =
_
ln (300) 5.50108

0.4054
_
= (0.318364182) = 0.6249019
Mientras que con la aproximaci on lognormal las perdidas agregadas que rebasan 300 acumu-
lan una probabilidad de 0.375098
0 500 1000 1500 2000
0
.
0
0
0
0
0
.
0
0
0
2
0
.
0
0
0
4
0
.
0
0
0
6
0
.
0
0
0
8
0
.
0
0
1
0
0
.
0
0
1
2
Aproximacin Normal
s
f
S
(
s
)
0 500 1000 1500 2000
0
.
0
0
0
0
0
.
0
0
0
5
0
.
0
0
1
0
0
.
0
0
1
5
0
.
0
0
2
0
0
.
0
0
2
5
0
.
0
0
3
0
Aproximacin LogNormal
s
f
S
(
s
)
A continuacion se muestra gracamente la comparaci on de ambas aproximaciones con re-
specto a sus funciones de densidad resultantes, en donde se puede observar que para valores
86
muy grandes la cola de la distribucion lognormal se encuentra por encima de la funcion de
densidad normal, situaci on que caracteriza este tipo de distribucion. Ademas, algo que se
puede destacar es que, aunque las esperanzas de las dos distribuciones no estan tan alejadas,
la varianza de la distribuci on normal es mayor, por poco mas del doble que la varianza de la
distribuci on lognormal. Y aunque para valores entre 150 y 300 las funciones de distribuci on
acumulen probabilidades similares, en realidad para valores peque nos la distribuci on normal
acumula probabilidades mayores a la lognormal y vicerversa, para valores grandes se va acu-
mulando mayor probabilidad en la distribuci on lognormal contra la normal.
0 500 1000 1500 2000
0
.
0
0
0
0
0
.
0
0
0
5
0
.
0
0
1
0
0
.
0
0
1
5
0
.
0
0
2
0
0
.
0
0
2
5
0
.
0
0
3
0
Comparaciones aproximaciones Normal vs. LogNormal
s
f
S
(
s
)
Aproximacin Normal
Aproximacin LogNormal
87
0 500 1000 1500 2000
0
.
4
0
.
6
0
.
8
1
.
0
Comparaciones aproximaciones Normal vs. LogNormal
s
F
S
(
s
)
Aproximacin Normal
Aproximacin LogNormal
88
Aproximaci on Gamma trasladada
Como su nombre lo expresa, bajo esta aproximacion supondremos que el riesgo S asume
una distribucion Gamma, pero para conocer exactamente los parametros que ajustan a
esta distribucion, se debe igualar las caractersticas numericas de la distibuci on de S a las
caractersticas numericas de una nueva variable aleatoria que es:
k + Z
donde k es una constante y Z es la variable aleatoria que se distribuye Gamma(, ) y tiene
f.d.p.
f
Z
(z) =
z
1
e

()
, z > 0
Entonces, primero se suponen conocidos o estimados los valores de E(S) = , V ar (S) =
2
y
el coeciente de sesgo
E
_
(S E(S))
3

[V ar (S)]
3/2
= , > 0; estos se igualar an a sus correspondientes
de la v.a. k + Z que son:
E(k + Z) = k +
V ar (k + Z) =
2

E
_
(k + Z E(k + Z))
3

[V ar (k + Z)]
3/2
=
2

De forma que
= k +
2
=
2
=
2

Resolviendo el sistema de ecuaciones para determinar los valores k, y .

=
2

= =
4

2
, luego de
2
=
2
sustituyendo se tiene
89

2
=
2
4

2
=
2
=

2

2
4
= =

2
y nalmente de = k + se obtiene k
k = =
4

2
=
2

.
As, por medio de la aproximaci on gamma trasladada, el riesgo S tiene una distribuci on
aproximada
S
2

+ Gamma
_
4

2
,

2
_
Habr a ocasiones en las cuales el par ametro puede ser reemplazado por
1

y basta invertir
las igualdades para construir la distribucion Gamma de S.
Esta aproximaci on generalmente se sugiere realizarla cuando la distribuci on de S se muestra
sesgada hacia la derecha, raz on por la cual > 0; y porque la forma que toma dicha
distribuci on es aproximadamente la de una densidad Gamma con parametros y ; sin
embargo, adem as de considerar esto, se le suma la constante k para obtener menos errores
en el ajuste.
Finalmente se llega a la siguiente proposici on.
Proposicion
Para cualquier s > 0.
F
S
(s) = P[S s] Gamma (s k; , )
Ejemplo
Supongamos que, bajo el modelo Poisson compuesto, el n umero de reclamaciones tiene dis-
tribuci on Poisson( = 10) y el monto de las reclamaciones X
i

2
(4)
. Determinar F
S
(8)
por medio de la aproximaci on gamma trasladada.
90
En general
2
(k)
es una distribuci on Gamma
_
k
2
, 2
_
= Para cada X
i
se tiene que f
X
(x) =
x
21
e

2
2
(2)
donde X
i
Gamma(2, 2)
Lo primero es encontrar los tres primeros momentos de S, para lo cual utilizaremos las
propiedades de la f.g.m. de las X
i
y de ah obtener los valores de ,
2
y para S.
=M
X
(t) = (1 t)

= (1 2t)
2
M
X
(t) = 2(1 2t)
3
(2) = 4(1 2t)
3
[
t=0
= 4, E(X) = 4
M
X
(t) = 12(1 2t)
4
(2) = 24(1 2t)
4
[
t=0
= 24, E(X
2
) = 24
M
X
(t) = 96(1 2t)
5
(2) = 192(1 2t)
5
[
t=0
= 192, E(X
3
) = 192
De aqu podemos obtener
= E(X) = 10 4 = 40

2
= E(X
2
) = 10 24 = 240
=
E(X
3
)
_
(E(X
2
))
3
=
10 192
_
(10(24))
3
=
8

240
Por lo que =
4

2
=
4
8
2
240
= 15,
=

2
=

240
8

240
2
= 4 y k =
2

= 20
=S Gamma(s + 20, 15, 4)
Por lo tanto F
S
(8) Gamma (28, 15, 4)) = (15, 7)
Para el ejemplo S Gamma(28, = 15, = 4), evaluando directamente en R, y recordando
que a parametrizacion que usa este paquete es
1

, obtenemos
F
S
(28, 15, 1/4) = 0.005717202
91
La siguiente graca muestra las funciones de densidad y distribuci on asociadas
0 50 100 150
0
.
0
0
0
0
.
0
0
5
0
.
0
1
0
0
.
0
1
5
0
.
0
2
0
0
.
0
2
5
Aproximacin Gamma transladada
s
f
S
(
s
)
0 50 100 150
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
1
.
0
Aproximacin Gamma transladada
s
F
S
(
s
)
Aproximaci on Poisson Compuesta
La Aproximacion Poisson Compuesta es otro metodo util, bajo el que se pretende aproximar
el modelo de riesgo individual al modelo de riesgo colectivo, tal situacion se realiza porque
existen m as metodos para el c alculo de la distribuci on de S en el modelo colectivo; incluso
es indispensable saber que los siguientes metodos a desarrollar se basan en la construccion
del modelo colectivo.
En el modelo individual S =
n

i=1
X
i
donde X
i
i = 1, 2, ..., n son v.a.s independientes,
X
i
= R
i
B
i
y B
i
es el monto de la reclamaci on de la poliza i. Adem as, la v.a. Bernoulli (R
i
)
del modelo individual asigna el valor de 1 cuando se efect ua un reclamaci on con probabilidad
q
i
y 0 con probabilidad (1 q
i
) de manera que su f.g.p. es:
P
R
i
= (1 + q
i
(z 1))
92
Bajo este metodo la Aproximaci on Poisson Compuesta asume que la v.a. R
i
se distribuira
Poisson (
i
) , para ello se proponen 3 metodos que asignan diferentes valores al par ametro

i
de esta distribuci on Poisson
1. El primero iguala las esperanzas de la v.a. Bernoulli(q
i
) con la de una v.a. Poisson(
i
) ,
entonces:
i = q
i
; i = 1, 2, ..., n
Esta opcion es buena para valores de q
i
cercanos a cero.
2. El segundo iguala la probabilidad en cero de ambas variables aleatorias, es decir
1 q
i
= e

i
=
ln (1 q
i
) =
i

i
= ln (1 q
i
) ; i = 1, 2, ...n y ln (1 q
i
) > q
i
3. El ultimo metodo fue propuesto por Kornya y usa el siguiente valor para cada
i

i
=
q
i
1 q
i
; i = 1, 2, ..., n
A su vez, el n umero esperado de perdidas de este metodo es m as grande que la esperanza
del segundo.
Para el caso del Modelo individual la f.g.m. de S asociada es
M
S
(t) =
n

i=1
P
R
i
[M
B
i
(t)]
considerando que R
i
ahora se distribuye Poisson, entonces
93
M
S
(t) =
n

i=1
exp (
i
[M
B
i
(t) 1])
por el resultado sobre la suma de distribuciones poisson compuesta, tenemos
=
n

i=1

i
, M
X
(t) =
n

i=1

M
B
i
(t) y f
X
(x) =
n

i=1

f
B
i
(x)
Ejemplo
Considerando los datos de la compa na aseguradora en donde se cubren 3 diferentes grupos
de asegurados, utilizar la Aproximaci on Poisson Compuesta para el modelo individual y pos-
teriormente con la aproximaci on normal encontrar F
S
(1900) para los 3 valores que puede
tomar .
La tabla correspondiente a este seguro es
i # de p olizas Probabilidad de reclamacion Monto de Reclamacion
1 1000 0.05 10
2 2000 0.10 5
3 500 0.02 20
Primeramente, con
i
= q
i
=
3

i=1
n
i

i
= (1000 0.05) + (2000 0.10) + (500 0.02) = 260
=
f
X
(10) =
1000 0.05 1
260
+
2000 0.10 0
260
+
500 0.02 0
260
= 0.192307692
f
X
(5) =
1000 0.05 0
260
+
2000 0.10 1
260
+
500 0.02 0
260
= 0.769230769
94
f
X
(20) =
1000 0.05 0
260
+
2000 0.10 0
260
+
500 0.02 1
260
= 0.038461538
Por ser Poisson compuesto
E(S) = E(X) = 260 [(10 0.192307692) + (5 0.769230769) + (20 0.038461538)]
= 260 6.538461525 = 1699.999
V ar (S) = E(X
2
) = 260 53.84615363 = 13999.99994
=
F
S
(1900) = P
_
S 1699.999

13999.99994

1900 1699.999

13999.99994
_
= P[z 1.690317021]
= (1.690317021) = 0.9545155
Con
i
= ln (1 q
i
)
=
3

i=1

i
= (1000 (ln(0.95))) + (2000 (ln (0.9))) + (500 (ln (0.98)))
= 272.1156794
=
f
X
(10) =
1000 (ln(0.95)) 1
272.1156794
= 0.188498121
f
X
(5) =
2000 (ln (0.9)) 1
272.1156794
= 0.774380336
f
X
(20) =
500 (ln (0.98)) 1
272.1156794
= 0.037121542
E(S) = 272.1156794 6.49931373 = 1768.565171
V ar (S) = 272.1156794 53.0579373 = 14437.89666
F
S
(1900) = P
_
z
1900 1768.565171

14437.89666
_
= P[z 1.093851836]
= (1.093851836) = 0.86299
95
Para
i
=
q
i
1 q
i
=
3

i=1

i
=
_
1000
_
0.05
0.95
__
+
_
2000
_
0.10
0.9
__
+
_
500
_
0.02
0.98
__
= 285.0578828
=
f
X
(10) =
1000 (0.05/0.95) 1
285.0578828
= 0.184634708
f
X
(5) =
2000 (0.1/0.9) 1
285.0578828
= 0.779568767
f
X
(20) =
500 (0.02/0.98) 1
285.0578828
= 0.035796525
E(S) = 285.0578828 6.460121415 = 1841.508533
V ar (S) = 285.0578828 52.27129998 = 14900.3461
F
S
(1900) = P
_
z
1900 1841.508533

14900.3461
_
= P[z 0.479175203]
= (0.479175203) = 0.684093
El siguiente gr aco es el comparativo de las funciones de densidad de S que surgen de la
Aproximacion Poisson con cada uno de los metodos realizados
96
0 500 1000 1500 2000 2500 3000
0
.
0
0
0
0
.
0
0
1
0
.
0
0
2
0
.
0
0
3
0
.
0
0
4
Comparacin aproximacin Poisson
s
f
S
(
s
)
Mtodo 1
Mtodo 2
Mtodo 3
Mediante las aproximaciones podemos conocer la distribuci on para S, sin embargo, es factible
que los resultados no se acerquen tanto a la realidad puesto que no se poseen muchas bases
para justicar que las distintas aproximaciones (normal, lognormal o gamma) se ajusten a
la distribucion de los datos; y simplemente se pueden tomar estas decisiones por el aparente
comportamiento del n umero de reclamaciones y de las colas que tengan. Por ejemplo, si
tuvieramos el caso en que existe un lmite de poliza para las perdidas, sera muy probable que
la severidad de nuestros datos tuviera una masa de probabilidad en este punto, debido a que
todas las reclamaciones que hayan excedido el monto u s olo recibiran a lo mas esta cantidad
y eso determinara dicha probabilidad; por lo cual, esta situaci on generara irregularidades
en la forma de la distribucion, y por tal situacion, utilizar un metodo de aproximaci on no
sera la mejor manera de conocer la distribucion del riesgo. Por tal motivo, a continuaci on
se desarrollar an otras propuestas de metodos que sirven para determinar la distribuci on del
riesgo S.
97
Calculo de la distribucion de S a traves de convoluciones
Vimos en el desarrollo de la distribucion del monto agregado de reclamaciones, S, que esta
se especica por medio de convoluciones de la variable asociada a la severidad, mediante un
c alculo recursivo. Concretamente
F
k
X
(x) =
_

F
(k1)
X
(x y)dF
X
(y) para k = 1, 2, ...
y su densidad
f
k
X
(x) =
_

f
(k1)
X
(x y)f
X
(y)dy para k = 1, 2, ...

Unicamente para mostrar lo complejo que puede ser este calculo, presentaremos un ejemplo
muy sencillo que ilustra c omo se realiza.
Ejemplo
Sea P(N = j 1) = j/10 para j = 1, 2, 3, 4, la funci on de densidad discreta, y sea X una dis-
tribuci on de perdida que toma s olo dos valores, con probabilidades f(1) = 0.4 y f(2) = 0.6.
Encontrar las correspondientes funciones de densidad y distribuci on de S, calculando la con-
voluci on. En este caso, las distribuciones de N y X son discretas, as que debemos utilizar
las formulas recursivas
F
k
X
(x) =
x

y=0
F
(k1)
X
(x y)f
X
(y) y
f
k
X
(x) =
x

y=0
f
(k1)
X
(x y)f
X
(y) para x=0,1,2,..., k=1,2,...
Observemos primero que:
f
0
X
(0) = 1 y f
0
X
(x) = 0 x ,= 0 y para k = 1, f
1
X
(x) = f
X
(x) y para k = 2,
f
2
X
= Pr(X
1
+ X
2
= x), etc.
Realizando lo calculos obtenemos la siguiente tabla
98
x f
0
(x) f
1
(x) f
2
(x) f
3
(x) f
S
(x) F
S
(x)
0 1 0 0 0 0.1000 0.1000
1 0 0.4 0 0 0.0800 0.1800
2 0 0.6 0.16 0 0.1680 0.3480
3 0 0 0.48 0.064 0.1696 0.5176
4 0 0 0.36 0.288 0.2232 0.7408
5 0 0 0 0.432 0.1728 0.9136
6 0 0 0 0.216 0.0864 1
P(N = n) 0.1 0.2 0.3 0.4
Ahora veamos como se generan estos valores. Tenemos cuatro valores para N; n = 0, 1, 2, 3,
con probabilidades asociadas p
0
= 0.1, p
1
= 0.2, p
2
= 0.3, p
3
= 0.4. Por lo tanto, la funci on
de densidad de S se puede escribir como
f
S
(x) =
3

n=0
p
n
f
n
X
(x)
Para simplicar la notacion, omitiremos el subndice X. Ya vimos que f
0
(0) = 1, y es
el unico valor distinto de cero para la segunda columna de nuestra tabla. Adem as de esta
funci on, ya tenemos denada f
1
, que, como se puede calcular a traves del proceso recursivo,
la construiremos s olo con nes ilustrativos. Entonces, c omo calculamos f
1
?
Primero
f
1
(x) =
x

y=0
f
0
(x y)f(y), x = 0, 1, 2, ...
Antes de iniciar el calculo de las convoluciones involucradas, reexionemos un poco.
Sabemos que f
0
(x) ,= 0 x = 0. Por lo tanto, los unicos casos relevantes para evaluar
esta funcion son cuando x = y.
f(x) o en la f ormula f(y) solo est a denida para valores de y = 1 y y = 2, por lo que
f(y) = 0 y ,= 1, 2. Ahora s, iniciemos los c alculos.
99
Entonces tenemos lo siguiente
x = 0, y = 0 f
1
(0) = f
0
(0)f(0) = 0
x = 1, y = 0 f
1
(1) = f
0
(1)f(0) = 0
x = 1, y = 1 f
1
(1) = f
0
(0)f(1) = 1 0.4 = 0.4
x = 2, y = 0 f
1
(2) = f
0
(2)f(2) = 0
x = 2, y = 1 f
1
(2) = f
0
(1)f(1) = 0
x = 2, y = 2 f
1
(2) = f
0
(0)f(2) = 1 0.6 = 0.6. Observese que ya no hay m as valores
distintos de cero (f(y) se dene como cero para y > 2), para valores que puede tomar x, y los
valores distintos de cero corresponden a la funcion original de densidad. Analicemos ahora
c omo construir f
2
= Pr(X
1
+ X
2
= x). Primero tenemos que
f
2
(x) =
x

y=0
f
1
(x y)f(y), x = 0, 1, 2, ...
Dado que f(y) solo es distinta de cero para y = 1 y y = 2, entonces, esta evaluacion
unicamente tiene sentido para estos valores en y, y cualesquiera otros en x. Por completez,
calcularemos algunos no incluidos en esta restricci on, para vericar que son cero.
Entonces
x = 0, y = 0 f
2
(0) = f
1
(0)f(0) = 0
x = 1, y = 0 f
2
(1) = f
1
(1)f(0) = 0
x = 1, y = 1 f
2
(1) = f
1
(0)f(1) = 0
x = 2, y = 0 f
2
(2) = f
1
(2)f(0) = 0
x = 2, y = 1 f
2
(2) = f
1
(1)f(1) = 0.4 0.4 = 0.16
x = 2, y = 2 f
2
(2) = f
1
(0)f(2) = 0
100
x = 3, y = 0 f
2
(3) = f
1
(3)f(0) = 0
x = 3, y = 1 f
2
(3) = f
1
(2)f(1) = 0.6 0.4 = 0.24
x = 3, y = 2 f
2
(3) = f
1
(1)f(2) = 0.4 0.6 = 0.24
Aqu continuaran los c alculos con y = 3, pero, en este caso y los restantes, f(y) = 0. Por lo
tanto, no existen m as casos para los que f
2
sea distinta de cero. Por lo que tenemos que,
f
2
(3) = 0.24 + 0.24 = 0.48.
As se puede continuar con el c alculo de los demas elementos de la tabla.
Para ilustrar como construir f
S
(x) y F
S
(x). De la denici on de la primera
f
S
(x) =
3

n=0
p
n
f
n
(x). Solo nos resta multiplicar los valores que hemos encontrado por las
correspondientes probabilidades de N. Por ejemplo, para x = 2, tenemos
f
S
(2) = p
0
f
0
(2)+p
1
f
1
(2)+p
2
f
2
(2)+p
3
f
3
(2) = 0.10+0.20.6+0.30.16+0.40 =
0.168.
La funcion de distribucion es simplemente el acumulado de la de densidad.
Este sencillo ejemplo muestra lo complicado que es encontrar la distribuci on de S, sobre todo
por lo laborioso del c alculo de la convolucion.
El codigo en R para este ejemplo, es
#convolucion
fr < c(0.1, 0.2, 0.3, 0.4)
fs < c(0, 0.4, 0.6, 0)#Se ampla el vector para tener la misma dimension que el de severidad
Fs < aggregateDist(convolution, model.freq = fr, model.sev = fs)
quantile(Fs)
CDFs < Fs(c(0, 1, 2, 3, 4, 5, 6))
101
dfs < diff(c(0, CDFs))
Las gracas de las funciones de distribucion y densidad de S, son
0 2 4 6 8 10
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
1
.
0
Distribucin de S: Mtodo convolucin
s
F
S
(
x
)
G
G
G
G
G
G
G G G G
Densidad de S: Mtodo convolucin
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
Ejemplo con datos reales
Hagamos un modelo agregado utilizando convoluciones, con las dos tablas de datos dadas en
el libro de Loss Models from data to decision (Klugman), sobre un seguro dental para grupo.
Las tablas son las siguientes
102
Monto: X
x f
X
(x)
1 0.150
2 0.200
3 0.250
4 0.125
5 0.075
6 0.050
7 0.050
8 0.050
9 0.025
10 0.25
dado en unidades de 25 d olares.
Frecuencia: N
n p(N =n)
0 0.05
1 0.10
2 0.15
3 0.20
4 0.25
5 0.15
6 0.06
7 0.03
8 0.01
que representa la distribuci on del n umero de personas por cada certicado de seguro (i.e.,
por cada empleado) que recibieron cuidados dentales en el a no que cubre el seguro. La
soluci on la haremos totalmente en R
103
Metodos Recursivos
F ormula Recursiva de Panjer
La distribuci on del riesgo S la mayora de las ocasiones no es sencilla de obtener y a pesar
de que se puede obtener con el calculo directo de la convolucion
F
S
(s) =

n=0
p
n
F
n
X
(x)
no suele ser una cuestion trivial. Primero porque las convoluciones de F
n
X
(x) no siempre
tienen forma de alguna distribuci on conocida; pero m as importante a un, este calculo se
vuelve complejo a medida que aumenta el n umero de elementos en la convoluci on, inclusive
con las computadoras muy potentes, porque el n umero de operaciones que se deben llevar a
cabo, es muy elevado.
Es por esta raz on que a traves de la Formula Recursiva de Panjer los c alculos pueden ser
minimizados. Para ello, debemos retomar los conceptos que manejamos en los modelos
compuestos de frecuencia, donde consider abamos el modelo de riesgo colectivo tomando la
distribuci on de frecuencia y la de severidad como distribuciones discretas. Entonces, la
distribuci on compuesta de S
S = X
1
+ X
2
+ + X
N
se obtena mediante g
k
=

n=0
p
n
f
n
k
;
donde g
n
= P[S = n] , p
n
= P[N = n] ; f
n
= P[X = n], y f
n
k
, k = 0, 1, ... es la n-esima
convolucion de f
k
.
Para determinar g
k
del riesgo S, lo primero que requerimos es pedir que la distribuci on
asociada a la frecuencia, sea miembro de las clase (a,b,0) o (a,b,1). Esto porque las f ormulas
desarrolladas por Panjer quedan expresadas con base en estas distribuciones.
Si la distribuci on primaria es miembro de la clase (a,b,0), se tiene la formula recursiva:
104
g
k
=
1
1 af
0
k

j=1
_
a +
bj
k
_
f
j
g
kj
; k = 1, 2, 3, ...
Para el valor de g
0
,
g
0
=
_
p
0
= P[N = 0] si f
0
= P[X = 0] = 0
P
N
(f
0
) o M
N
(log f
0
) si f
0
= P[X = 0] > 0
Teorema
Para cualquier distribuci on compuesta, g
0
= P
N
(f
0
), donde P
N
(z) es la f.g.p. de la dis-
tribuci on primaria y f
0
es la probabilidad de la distribuci on secundaria cuando toma el valor
de cero.
Adem as necesitamos los siguientes resultados previos a la demostracion de la F ormula re-
cursiva de Panjer:
E
_
a +
bX
1
k
[ S = k
_
= a +E
_
bX
1
k
[ S = k
_
= a +
b
k
E[X
1
[ S = k]
= a +
b
nk
n

j=1
E
_
X
j
[
n

i=1
X
i
= k
_
= a +
b
nk
E
_
n

j=1
X
j
[
n

i=1
X
i
= k
_
= a +
bk
nk
= a +
b
n
y se puede escribir como
E
_
a +
bX
1
k
[ S = k
_
=
k

j=0
_
a +
bj
k
_
P[X
1
= j[ S = k]
=
k

j=0
_
a +
bj
k
_
P[X
1
= j] P[S X
1
= k j]
P[S = k]
Dem. (F ormula Recursiva de Panjer):
105
g
k
=

n=1
p
n
f
n
k
=

n=1
p
n
P[X
1
+ X
2
+ + X
n
= k] =

n=1
p
n
P[S = k]
adem as los miembros de la clase (a,b,0) satifacen que p
n
=
_
a +
b
n
_
p
n1
; n = 1, 2, 3, ...
= g
k
=

n=1
_
a +
b
n
_
p
n1
P[S = k] luego por los resultados previos
=

n=1
p
n1
k

j=0
_
a +
bj
k
_
P[X
1
= j] P[S X
1
= k j]
=
k

j=0
_
a +
bj
k
_
P[X
1
= j]

n=1
p
n1
P[S X
1
= k j]
con la notacion de g
n
= P[S = n] , p
n
= P[N = n] y f
n
= P[X = n] y notando que la ultima
suma vuelve a quedar en terminos de g, nalmente
g
k
=
k

j=0
_
a +
bj
k
_
f
j
g
kj
= af
0
g
k
+
k

j=1
_
a +
bj
k
_
f
j
g
kj
g
k
(1 af
0
) =
k

j=1
_
a +
bj
k
_
f
j
g
kj
por lo tanto
g
k
=
1
(1 af
0
)
k

j=1
_
a +
bj
k
_
f
j
g
kj
An alogamente
Si la distribuci on primaria es miembro de la clase (a,b,1), la formula recursiva es:
g
k
=
[p
1
(a + b)p
0
] f
k
+
k

j=1
_
a +
bj
k
_
f
j
g
kj
1 af
0
; k = 1, 2, 3, ...
106
Estos resultados se pueden considerar de manera particular y tomando en cuenta la notaci on
asociada con f
S
(x) =

n=0
p
n
f
n
X
(x), es decir, supongamos que la distribuci on de severidad
f
X
(x) est a denida para los valores de 0, 1, 2, ..., m, porque en efecto los montos de recla-
maci on que recibe una compa na aseguradora generalmente tienen un tope de pago, y que
la frecuencia de las reclamaciones es p
k
, entonces:
Para p
k
de la clase (a,b,1)
f
S
(x) =
[p
1
(a + b)p
0
] f
X
(x) +
xm

y=1
_
a +
by
x
_
f
X
(y) f
S
(x y)
1 af
X
(0)
donde x m representa el min(x, m).
Para p
k
de la clase (a,b,0)
f
S
(x) =
xm

y=1
_
a +
by
x
_
f
X
(y) f
S
(x y)
1 af
X
(0)
Cuando la distribucion es Poisson, sabemos que a = 0, b = . Entonces la formula se reduce
a:
f
S
(x) =

x
xm

y=1
yf
X
(y) f
S
(x y) ; x = 1, 2, 3, ..
Adem as, de igual forma que en la f ormulas recursivas anteriores, el valor inicial para deter-
minar la densidad de S es f
S
(0) = P
N
[f
X
(0)]
Ejemplo
Utilizando el metodo recursivo encontrar la probabilidad de que haya mas de tres recla-
maciones agregadas, cosiderando que el modelo de riesgo colectivo se distribuye Poisson-
Binomial Negativa. Donde la distribucion primaria es Poisson con = 2, y la distribucion
107
secundaria es Binomial Negativa con = 1.5 y r = 5
Deseamos 1 F
S
(3) . Entonces para la distribuci on Binomial Negativa, recordando c omo se
escriben los modelos de la clase (a,b,0), tenemos
a =

1 +
= 0.6 y b = (r 1)

1 +
= 2.4, con
f
X
(0) = (1 +)
r
= (1 + 1.5)
5
= 0.01024
Utilizando la forma recursiva de esta distribuci on, calculamos el resto de valores necesarios
para encontrar la probabilidad que nos piden, como
f
X
(1) = (0.6 + 2.4) 0.01024 = 0.03072
f
X
(2) =
_
0.6 +
2.4
2
_
0.03072 = 0.055296
f
X
(3) =
_
0.6 +
2.4
3
_
0.055296 = 0.0774144
El primer valor del modelo agregado o de la funcion de densidad de S es
f
S
(0) = P
N
(f
X
(0)) = e
2(f
X
(0)1)
= e
2(0.010241)
= 0.138135526
Para el resto de valores, recordar que nuestra distribuci on Poisson escrita como un elemento
de la clase (a,b,0), tiene a = 0 y b = = 2. Entonces
f
S
(x) =
2
x
x

y=1
yf
X
(y) f
S
(x y)
f
S
(1) =
_
2
1
0.03072 0.138135526
_
= 0.008487047
f
S
(2) =
_
2
2
0.03072 0.008487047
_
+
_
2
2
2 0.055296 0.138135526
_
108
= 0.015537406
f
S
(3) =
_
2
3
0.03072 0.015537406
_
+
_
2
3
2 0.055296 0.008487047
_
+
_
2
3
3 0.0774144 0.138135526
_
= 0.022331297
=1 F
S
(3) = 1 (0.138135526 + 0.008487047 + 0.015537406 + 0.022331297)
= 0.815508724
La probabilidad de que existan mas de tres reclamaciones bajo el modelo agregado es
0.815508724. A continuacion se muestran los valores de las funciones de densidad y la
distribuci on de S que se generaron por medio de R y para los primeros 6 valores.
x f
S
(x) F
S
(x)
0 1.381355e 01 0.1381355
1 8.487047e 03 0.1466226
2 1.553741e 02 0.1621600
3 2.233130e 02 0.1844913
4 2.785252e 02 0.2123438
5 3.175299e 02 0.2440968
6 3.414236e 02 0.2782392
109
0 20 40 60 80 100 120
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
1
.
0
Distribucin de Reclamaciones Agregadas
Aproximacin Mtodo Recursivo (Panjer)
s
F
S
(
s
)
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
GGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGG
Aproximacin Mtodo Recursivo (Panjer)
Densidad de Reclamaciones Agregadas
Aproximacin Mtodo Recursivo (Panjer)
s
f
S
(
s
)
0
.
0
0
0
.
0
2
0
.
0
4
0
.
0
6
0
.
0
8
0
.
1
0
0
.
1
2
110
Datos reales
Nuevamente seguro dental del libro de Klungman
X : Monto N : Frecuencia
x f
X
(x) n p(N =n)
1 0.150 0 0.05
2 0.200 1 0.10
3 0.250 2 0.15
4 0.125 3 0.20
5 0.075 4 0.25
6 0.050 5 0.15
7 0.050 6 0.06
8 0.050 7 0.03
9 0.025 8 0.01
10 0.25
Con solucion completa en R.
De esta forma es como se implementa la F ormula Recursiva de Panjer simpre que las
distribuciones de frecuencia en las reclamaciones agregadas no sean a su vez distribuciones
compuestas, puesto que cuando esta situaci on se presenta, para poder llevar a cabo el calculo
de f
S
(x) se debe aplicar dicha f ormula por partida doble; esto es, consideremos la f.g.p. para
N :
P
N
(z) = P
1
[P
2
(z)]
donde P
1
es la f.g.p. de la distribucion primaria de frecuencias y P
2
la secundaria.
De tal manera que para las reclamaciones agregadas
P
S
(z) = P
N
[P
X
(z)] = P
1
[P
2
(P
X
(z))] que podemos reescribir como
P
S
(z) = P
1
[P
S
1
(z)] ; claramente P
S
1
= P
2
[P
X
(z)] .
Esta distribuci on de S
1
deber a ser la primera que se calcule mediante la f ormula de Panjer,
dando como resultado f
S
1
(x) ; x = 0, 1, 2, ... que funcionar a como la nueva distribucion de
severidad para encontrar f
S
(x); es decir, nuevamente se aplicar a la f ormula recursiva,
comenzando por f
S
(0) = P
S
(0) = P
1
[f
S
1
(0)] y posteriormente utilizando los valores de
111
f
S
1
(x) como las probabilidades de la distribuci on de severidad mientras que p
n
en esta
segunda vuelta ser a determinada por la distribucion primaria de frecuencias.
Se ha utilizado el supuesto de que la severidad posee una distribuci on discreta para poder
aplicar el metodo recursivo; sin embargo, el an alogo para este metodo, considerando que la
severidad es continua, queda expresado por medio de una ecuaci on integral.
Teorema
Para distribuciones de frecuencia de la clase (a,b,1) y cualquier distribuci on de severidad
continua con soporte en los reales positivos, se tiene la siguiente ecuacion integral que deter-
mina la densidad del riesgo S :
f
S
(x) = p
1
f
X
(x) +
_
x
0
_
a +
by
x
_
f
X
(y) f
S
(x y) dy
Las ecuaciones integrales de esta forma corresponden a ecuaciones integrales de Volterra de
segundo orden, y la demostracion de este teorema queda fuera de los alcances de este curso.
Existen soluciones numericas para estas ecuaciones que pueden ser consultadas en el libro
de Baker [13]. Sin embargo, en este estudio se utilizar an aproximaciones discretas para dis-
tribuciones continuas que modelen la severidad en las reclamaciones por medio del metodo
de redondeo, con el prop osito de implementar el Metodo Recursivo de Panjer.
112
Metodo de Redondeo
Mencionamos y ademas vimos en los ejemplos, que el metodo de Panjer no funciona cuando
la densidad de la severidad es continua, por lo que debemos recurrir a discretizar esta funcion
para poder aplicar Panjer. El metodo de redondeo es una buena herramienta pa este n. Este
metodo se utiliza para construir distribuciones discretas a partir de distribuciones de severi-
dad que sean continuas. Para ello se deben asignar probabilidades discretas en m ultiplos de
alguna unidad de medida establecida h, que recibe el nombre de span; dicha distribuci on
se conoce como aritmetica puesto que se dene para enteros positivos.
El metodo de redondeo concentra la probabilidad de la mitad del span h, dividiendo la
probabilidad entre (j +1)h y jh, de manera que asigna dicha mitad al punto j +1 y la otra
al punto j. Es decir, si f
j
es la probabilidad comprendida en jh; j = 0, 1, 2, ...
f
0
= P
_
X <
h
2
_
= F
X
_
h
2
_
f
j
= P
_
jh
h
2
X < jh +
h
2
_
= F
X
_
jh +
h
2
_
F
X
_
jh
h
2
_
Cuando la distribucion a discretizar no est a acotada, lo m as apropiado es limitar los valores
que toma en alg un punto m, que asegure una acumulaci on de probabilidades lo mas cercana
a uno que se pueda, entonces f
m
= 1F
X
[(m0.5)h] . De tal manera que las probabilidades
nunca sean negativas y la suma de ellas sea 1, para asegurar que realmente es una funci on
de densidad de probabilidades.
Ejemplo
Sup ongase que la severidad de las perdidas agregadas sigue una distribuci on Pareto con
= 4 y = 50. Obtener su distribuci on discreta mediante el metodo de redondeo con un
span de 0.9.
X Pareto(4, 50) y h = 0.9. Entonces
f
0
= F
X
_
0.9
2
_
= 1
_
50
0.45 + 50
_
4
= 0.035204354
f
j
= F
X
(0.9j + 0.45) F
X
(0.9j 0.45)
113
=
_
50
(0.9j 0.45) + 50
_
4

_
50
(0.9j + 0.45) + 50
_
4
En terminos generales la funcion de densidad discreta queda expresada con f
j
. Evaluemos
la funcion para j = 0, 1, ..., 10 con el n de mostrar sus valores en la siguiente tabla.
j f
j
0 0.035204354
1 0.065881478
2 0.060352825
3 0.055371689
4 0.050875844
5 0.046811014
6 0.043129753
7 0.039790489
8 0.036756722
9 0.033996337
10 0.031481019
Finalmente, la siguiente gr aca muestra el ajuste de la distribuci on continua a la distribuci on
discreta
114
0 10 20 30 40
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
Comparacin: Pareto (4,50) continua vs. discretizada
x
F
X
(
x
)
Real
Discretizacin
0
.
0
0
0
.
0
1
0
.
0
2
0
.
0
3
0
.
0
4
0
.
0
5
0
.
0
6
Real
Discretizacin
Una vez que se tiene esta discretizaci on de la funci on de severidad, se puede proceder a
aplicar el metodo de Panjer, para una distribucion discreta de las familias (a,b,0) o (a,b,1).
115
Metodos de Inversion
Hasta el momento hemos desarrollado diversos metodos para poder encontrar la distribuci on
de las perdidas agregadas correspondientes a los modelos que se pueden presentar en los datos
de una aseguradora, entre ellos se utilizaron convoluciones, aproximaciones asint oticas y la
f omula recursiva de Panjer. Adem as, en la seccion anterior, tambien conocimos el metodo de
redondeo que se implementa para discretizar funciones continuas, de tal forma que posterior
a este proceso se pueda aplicar el metodo recursivo y nalmente conocer la distribucion del
riesgo acumulado.
Otros metodos para encontrar la distribuci on de S se conocen como los de inversi on. Estos
metodos numericos se basan en el hecho de la correspondencia unica entre las distribuciones
de las variables aleatorias con su funcion caracterstica (f.c.), su funci on generadora de mo-
mentos (f.g.m.) y su funci on generadora de probabilidades (f.g.p.).
La raz on por la cual se involucra a la funcion caracterstica en los metodos de inversi on, es
porque, adem as de ser unica, siempre existe. Por lo tanto, para una funcion caracterstica
dada, siempre tendremos su unica y correspondiente funci on de distribuci on que nalmente
es la que nos interesa hallar.
Dicha correspondencia tambien se respeta al tratarse de distribuciones compuestas, debido
a que su funci on caracterstica queda expresada como una composicion de funciones que
cumplen lo anterior.
Por lo tanto, la funci on caracterstica asociada a la distribucion de perdidas agregadas es:

S
(z) = E
_
e
iSz

= P
N
[
X
(z)]
donde P
N
es la f.g.p. de la frecuencia y
X
(z) la f.c. de la severidad.
Transformada Rapida de Fourier (FFT)
Este algoritmo lo utilizaremos para obtener la funcion de densidad de variables aleatorias
discretas con base en la transformacion de sus funciones caractersticas. Entonces, la sigu-
iente denici on muestra la Transformada de Fourier adaptada para una f.d.p.
116
Denicion Para cualquier funcion de densidad de probabilidades continua f (x), la Trans-
formada de Fourier (funcion caracterstica) asociada es:

f (z) =
_

f (x) e
izx
dx
La f.d.p. que se obtiene a partir de la Transformada de Fourier es:
f (x) =
1
2
_

f (z) e
izx
dz
Para el caso, f (x) es una funci on denida en los reales y

f (z) en los n umeros complejos.
Mientras que la versi on discreta de esta transformada es la siguiente
Denicion Sea f
x
una funci on denida en todos los valores enteros de x. Para el vector
(f
0
, f
1
, ..., f
n1
) la Transformada de Fourier discreta que tiene el vector
_

f
0
,

f
1
, ...,

f
n1
_
se
dene por medio de

f
k
=
n1

j=0
f
j
exp
_
2i
n
jk
_
; k = 0, 1, ...
Este mapeo es biyectivo puesto que se transforman n puntos en n puntos.
La Transformada de Fourier Inversa es:
f
j
=
1
n
n1

k=0

f
k
exp
_

2i
n
kj
_
; j = 0, 1, ...
Cabe se nalar que la Transformada R apida de Fourier (FFT) es un algoritmo empleado para
conocer la Transformada de Fourier, sin embargo no se estudiara el desarrollo del algoritmo,
aunque es importante mencionar que reduce el n umero de c alculos realizados a un orden de
(nlog n) mientras que la evaluaci on directa de la transformada lo hara en n
2
operaciones;
que se vuelve mas importante a medida que el valor de n es mas grande. Ademas, el unico
requerimiento que debemos considerar para aplicar este metodo es que el valor de n sea
potencia de 2.
117
Entonces, el proceso a seguir para hacer uso de la FFT y con ello conocer la distribucion de
S es:
Discretizar la funcion de severidad de las perdidas agregadas por el metodo de redondeo
y obtener el siguiente vector de probabilidades
f
X
(0) , f
X
(1) , ..., f
X
(n 1)
con n = 2
r
, r entero y n se dene respecto a f
S
(s) que se desea obtener.
Aplicar el algoritmo FFT al vector anterior para obtener la funci on caracterstica de
los montos de reclamaci on, en este caso
X
(s) que igual es un vector de n entradas.
Una vez conocida la funcion caracterstica de la severidad y con la funcion generadora
de probabilidades del n umero de reclamaciones, se hace la composici on de estas dos
para determinar la Transformadad de Fourier discreta (funci on caracterstica) de las
perdidas agregadas.
Finalmente, se implementa el algoritmo de la Transformada rapida de Fourier en orden
Inverso (IFFT) que proporcionar a la f.d.p. del riesgo S.
118
Ejemplo
Encontrar a traves del metodo de la Transformada rapida de Fourier la funci on de densidad
de S, considerando n = 2
7
, que la distribucion de severidad es Exponencial (1/4), el n umero
de reclamaciones se distribuye Binomial Negativa ( = 0.25, r = 10) y que se tienen las
siguientes modicaciones de la cobertura del seguro:
Deducible: d = 5
Lmite de p oliza: (u d) = 40
Coaseguro: = 80%
Utilizar un span de 0.4 para el metodo de redondeo y considerar que son perdidas agregadas
de pago.
La resolucion de este ejemplo se hara mediante el uso de codigos en R. Esta situacion se debe
a que los c alculos de la FFT s olo son posibles con el uso de un programa computacional.
La distribucion de Y
P
asociada y que se debe discretizar es
F
Y
P =
_

_
0 y = 0
F
X
_
y
0.8
+ 5
_
F
X
(5)
1 F
X
(5)
0 < y < 40
1 y 40
En este caso que X Exp(1/) para F
Y
P cuando 0 < y < (u d)
F
Y
p (y) =
_
1 e

(
y

+d)
_

_
1 e

_
e

=
e

(
y

+d)
e

=
e

_
1 e

_
e

= 1 e

Y
P
Exp(1/), en el ejemplo Y
P
Exp(0.3125)
119
C odigo en R
a < 0.8
d < 5
l < 40
u < (l/a) + d
h < 0.4
n < 2
7
fy < discretize(pexp(x, rate = 0.3125), method = rounding, from = 0, to = n h, step = h)
#Este vector resultante es la versi on discreta y aproximada de la distribucion de severidad
con las modicaciones de cobertura del seguro.
fcy < fft(fy, inverse = FALSE) #Funcion caracterstica de los montos de reclamacion.
Como el n umero de reclamaciones tambien se modica por las coberturas, si N BinNeg(, r),
entonces
N
P
BinNeg(

= v, r) y v = 1 F
X
(5)
v < (1 pexp(d, 1/4))
r < 10 ; b < 0.25
beta < (v b)
La f.g.p. de N
P
es P
N
P (z) = [1

(z 1)]
r
Entonces, la funcion caracterstica de S, es

S
(s) = [1

(
Y
P (s) 1)]
r
fcS < (1 beta (fcy 1))
r
120
Por ultimo, se realiza la IFFT (Transformada r apida de Fourier Inversa) agregando la division
entre n que no calcula la funci on de R pero que es parte de la f ormula para obtener la funcion
de densidad de S de acuerdo a su dencion.
fS < Re(fft(fcS, inverse = TRUE))/n
Esta es la tabla resumen de valores para
Y
P (s) ,
S
(s) y f
S
(s) con n = 128.
s
Y
P (s)
S
(s) f
S
(s)
0 0.999999880 0.9999999 5.214224e 01
1 0.866304586 0.8802309 3.862681e 02
2 0.618238579 0.7162362 3.566183e 02
3 0.418398588 0.6236285 3.290695e 02
4 0.287939540 0.5768385 3.034938e 02
5 0.205446738 0.5516760 2.797684e 02
6 0.152087109 0.5369782 2.577756e 02
7 0.116303997 0.5277549 2.374033e 02
8 0.091418485 0.5216224 2.185448e 02
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
GGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGGG
0 20 40 60 80 100 120
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
1
.
0
Distribucin de prdidas agregadas: Mtodo de Inversin
s
F
S
(
s
)
121
Metodo de simulacion
El ultimo metodo que consideraremos para encontrar la distribuci on de S en el modelo colec-
tivo, es el metodo de simulaci on que contiene el paquete actuar. Para implementarlo debemos
conocer de manera analtica tanto el modelo de frecuencias como el modelo de severidad.
Esto quiere decir que conocemos tanto los modelos subyacentes a la frecuencia y la severidad
de nuestros datos, as como los parametros de ellos. Una vez conocidos estos modelos la
funci on aggregateDist en su opcion simulacion: simulation, simulara los datos del modelo de
perdidas agregadas que generan estos dos modelos para, posteriormente, construir la funci on
de distribucion acumulada del modelo agregado.
Metodo de De Pril
Para el Modelo de riesgo Individual tambien se desarroll o una f ormula recursiva que pro-
porciona la distribuci on de S. Este resultado fue desarrollado por Nelson De Pril en 1986 y
considera un portafolio de n asegurados.
En este modelo se denota al n umero de asegurados por n
ij
, donde con j se representa la
probabilidad de reclamaci on q
j
; j = 1, 2, ..., m y con i, el monto de la reclamaci on realizada;
i = 1, 2, ..., r. De forma que
n =
r

i=1
m

j=1
n
ij
Es indispensable que los montos de reclamacion sigan una progresi on aritmetica, de manera
que los valores que corren sobre i puedan representar la progresi on que tiene la severidad; es
decir, para valores de i = 1, 2, 3, 4 se pueden considerar, por ejemplo, los montos de benecio
de los asegurados por las cantidades de 3000, 6000, 9000, 12000.
Probabilidad de reclamacion (j)
Monto de reclamacion (i)
q
1
q
2
q
m
1 n
11
n
12
n
1m
2 n
21
n
22
n
2m

r n
r1
n
r2
n
rm
La funcion de densidad para S queda expresada por la siguiente formula recursiva
122
f
S
(x) =
1
x
xr

i=1
x/i

k=1
f
S
(x ik) h(i, k) ; x 1
f
S
(0) =
r

i=1
m

j=1
(1 q
j
)
n
ij
donde
h(i, k) = i(1)
k1
m

j=1
n
ij
_
q
j
1 q
j
_
k
Dem:
Considerando la f.g.p. de X
ij
para este caso que involucra la probabilidad de reclamacion q
j
y al monto i, entonces con esta nueva notaci on
P
X
ij
(z) =
_
1 q
j
+ q
j
z
i
_
Luego la f.g.p. de S por la independencia de las X
ij
s ser a
P
S
(z) =
r

i=1
m

j=1
_
1 q
j
+ q
j
z
i
_
n
ij
tomando logaritmo y derivando respecto a z
ln [P
S
(z)] =
r

i=1
m

j=1
n
ij
ln
_
1 q
j
+ q
j
z
i
_
d
dz
ln [P
S
(z)] =
P
S
(z)
P
S
(z)
=
r

i=1
m

j=1
n
ij
_
iq
j
z
i1
1 q
j
+ q
j
z
i
_
Entonces,
P
S
(z) = P
S
(z)
_
r

i=1
m

j=1
n
ij
_
iq
j
z
i1
1 q
j
+ q
j
z
i
_
_
zP
S
(z) = P
S
(z)
_
r

i=1
m

j=1
n
ij
_
iq
j
z
i
1 q
j
+ q
j
z
i
_
_
123
= P
S
(z)
_
r

i=1
m

j=1
n
ij
iq
j
z
i
1 q
j
+ q
j
z
i
1 q
j
1 q
j
_
= P
S
(z)
_
r

i=1
m

j=1
n
ij
iq
j
z
i
1 q
j
_
1 +
q
j
z
i
1 q
j
_
1
_
Si utilizamos el hecho de que
1
1 + x
, se puede expandir como

k=0
(1)
k
x
k
para [x[ < 1.
Entonces tenemos
= P
S
(z)
_
r

i=1
m

j=1
n
ij
i
q
j
z
i
1 q
j

k=1
(1)
k1
_
q
j
z
i
1 q
j
_
k1
_
= P
S
(z)
_
r

i=1
m

j=1
n
ij
i

k=1
(1)
k1
_
q
j
1 q
j
_
k
z
ik
_
Ahora denimos h(i, k) = i (1)
k1
m

j=1
n
ij
_
q
j
1 q
j
_
k
Debido a que las sumas sobre k y j son absolutamente convergentes en cualquiera de los
dos ordenes que se realicen, entonces es v alido intercambiarlas, por lo tanto, regresando al
desarrollo anterior, tenemos que
zP
S
(z) = P
S
(z)
_
r

i=1

k=1
h(i, k) z
ik
_
como P
S
(z) = E
_
z
S

x=0
z
x
P[S = x] =

x=0
z
x
f
S
(x) y
P
S
(z) =

x=0
xz
x1
f
S
(x) =

x=1
xz
x1
f
S
(x)
Entonces,
zP

S
(z) = z

x=1
xz
x1
f
S
(x) =

x=0
xz
x
f
S
(x)
124
Por lo tanto

x=1
xz
x
f
S
(x) =

x=0
z
x
f
S
(x)
r

i=1

k=1
h(i, k) z
ik
El coeciente para x 1 de la parte izquierda de la igualdad de z
x
es xf
S
(x) y para valores
de i y k tales que 1 ik x. Mientras que el coeciente para z
x
del otro lado de la
igualdad, es la suma de los terminos f
S
(x ik) h(i, k). Se pueden primero establecer los
posibles valores para i de la siguiente forma i = 1, ..., x r, y por lo tanto los valores para
k son k = 1, ..., x/i|, donde x r es el valor mnimo entre x y r, y x/i| es la parte entera
del cociente x/i. Igualando estos coecientes se tiene que
xf
S
(x) =
xr

i=1
x/i

k=1
f
S
(x ik) h(i, k)
para x 1 f
S
(x) =
1
x
xr

i=1
x/i

k=1
f
S
(x ik) h(i, k)
y para S = 0 que es cuando no se efect ua ninguna reclamacion, entonces x = 0 y de ah
f
S
(0) =
r

i=1
m

j=1
(1 q
j
)
n
ij

De manera explcita, los primeros terminos de esta formula son


f
S
(0) =
r

i=1
m

j=1
(1 q
j
)
n
ij
f
S
(1) = f
S
(0) h(1, 1)
f
S
(2) =
1
2
f
S
(0) [h(1, 2) + h(2, 1)] + f
S
(1) h(1, 1)
f
S
(3) =
1
3
f
S
(0) [h(1, 3) + h(3, 1)] + f
S
(1) [h(1, 2) + h(2, 1)] + f
S
(2) h(1, 1)
.
.
.
125
Ejemplo
Una aseguradora posee una cartera de 66 p olizas para un seguro de vida. La siguiente tabla
muestra las probabilidades de reclamacion y los montos de reclamaci on por grupo de asegura-
dos. Obtener la funci on de densidad de las perdidas agregadas para valores de x = 0, 1, ..., 30
mediante la formula recursiva de De Pril
# polizas Probabilidad de reclamacion Monto de reclamacion
20 0.02 5000
14 0.012 10000
8 0.05 15000
24 0.013 20000
Reescribiendo la tabla conforme a la F ormula de De Pril:
Probabilidad de reclamacion (q
j
)
Monto de reclamacion (i)
0.02 0.012 0.05 0.013
1 20 0 0 0
2 0 14 0 0
3 0 0 8 0
4 0 0 0 24
La implementaci on de este metodo se realizo en R. A continuaci on se muestra una tabla
resumen de los primeros valores de la funci on de densidad y distribuci on de S, y su graca
para x = 0, 1, ..., 30.
x f
S
(x) F
S
(x)
0 0.2732243 0.2732243
1 1.115201e 01 0.3847444
2 6.808043e 02 0.4528248
3 1.366522e 01 0.5894770
4 1.408985e 01 0.7303755
5 6.588025e 02 0.7962558
126
G
G
G
G
G
G
G
G
G
G
G
G
G G G G G G G G G G G G G G G G G G G
0 5 10 15 20 25 30
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
1
.
0
Distribucin de Reclamaciones Agregadas
Mtodo de De Pril
s
F
S
(
s
)
Densidad de Reclamaciones Agregadas
Mtodo de De Pril
s
f
S
(
s
)
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
0
.
2
5
0
.
3
0
127
MEZCLAS DE DISTRIBUCIONES
INTRODUCCI

ON
No siempre es posible modelar datos reales unicamente a traves de una densidad, general-
mente, estos datos presentan formas que no se ajustan adecuadamente a las densidades mas
conocidas en estadstica. Una manera de lidiar con este problema, es considerar la posibil-
idad de que estos datos con formas no convencionales, puedan modelarse a traves de una
mezcla de densidades o de distribuciones. Dada la exibilidad que tienen los modelos de
mezclas, es posible lograr un mejor ajuste a estos datos. Una de las formas comunes en
que aparecen este tipo de datos en la teora del riesgo es, por ejemplo, cuando los montos
de reclamaci on de un seguro presentan una mayor variabilidad de la que puede considerar
cualquiera de los modelos estadsticos utilizados para su ajuste. Por ejemplo, en un seguro
de gastos medicos, si no existe un control de las edades de los asegurados, es muy probable
que se tenga diferente exposici on al riego entre ellos debido a esta diferencia de edades. De
hecho, esta falta de control propicia que la poblaci on asegurada sea heterogenea y, como
sabemos, las densidades asumen, generalmente, poblaciones homogeneas.
Una mezcla de distribuciones con k componentes tiene la forma
f (x; ) =
1
f
1
(x;
1
) +
2
f
2
(x;
2
) + +
k
f
k
(x;
k
) , o
f (x; ) =
k

i=1

i
f
i
(x;
i
) , con
k

i=1

i
= 1
donde cada componente de la mezcla es una funci on de probabilidad (Poisson, Binomial, etc.)
o una funci on de densidad (Normal, Exponencial, Gamma, etc.), e incluso de distribuciones
multivariadas, y y
i
, i = 1, 2, ..., k pueden ser vectores de parametros. En este caso,
tenemos una mezcla parametrica, puesto que los componentes de la misma son funciones
parametricas. Si los componentes de la mezcla se especican de forma no parametrica,
entonces el modelo de mezcla sera tambien no parametrico.
128
Estimaci on parametrica del modelo de mezclas
La manera usual de estimar los par ametros y las proporciones (
i
) es a traves del algoritmo
EM.
Algoritmo EM (Dempster, Laird,and Rubin (1977))
El algoritmo EM (Expectation-Maximization) es un metodo general para encontrar el es-
timador de m axima verosimilitud de los parametros de una distribucion de probabilidad,
especialmente util cuando parte de la informaci on es desconocida o incompleta.
Situaciones de Datos Incompletos:
Explcitas
Datos Faltantes
Datos truncados y/o censurados
Datos agrupados
Implcitas
Efectos Aleatorios
Mezclas
Clases Latentes
Estructuras de Variables Latentes
129
El algoritmo EM para mezclas de distribuciones
En el caso de mezclas de distribuciones, lo que desconocemos es la pertenecia o membresa
de cada dato a alguno de los elementos de la mezcla.
Para jar ideas, supongamos que la mezcla consta de dos distribuciones: f
1
(x;
1
) y f
2
(x;
2
) .
En este caso, los parametros a estimar son
1
,
2
,
1
,
2
= 1
1
. La manera estandar de
plantear esta situaci on es con Y = (U, V), donde U representa los datos observados y V
representa la membresa o pertenencia. Concretamente, V = 1 si la observaci on es de la
primera distribuci on, f
1
(x;
1
) , y V = 0 si es de la segunda distribuci on, f
2
(x;
2
) . La esper-
anza no condicional E(V ) es la probabilidad de que una observacion provenga de la primera
distribuci on, que es
1
. La informaci on completa pero desconocida de esta muestra es: U,
u
1
, ..., u
n
, que representan los datos observados y V, v
1
, ..., v
n
son los datos desconocidos.
Entonces, los datos completos son parejas de la forma (u
1
, v
1
) , (u
2
, v
2
) , ..., (u
n
, v
n
) con
v
i
= 1 o v
i
= 0.
El algoritmo realiza un proceso iterativo entre
Paso 1. Calcular la esperanza condicional de las cantidades desconocidas dadas las canti-
dades conocidas (Paso E)
Paso 2. Maximizar esta esperanza respecto a los parametros por estimar (Paso M)
Paso 3. Continuar el proceso iterativo hasta lograr convergencia.
Mezcla de distribuciones normales
Uno de los modelos de mezclas m as populares es sin duda el de distribuciones normales. En
un contexto actuarial, el uso de la normal como modelo para ajustar datos, es cuestionable
debido a que su suporte es R, y no R
+
que es el soporte natural de los datos de monto
de reclamaci on. No obstante, si la media de los modelos subyacentes a la mezcla esta muy
alejada del origen y la varianza no es muy grande, es posible utilizar este modelo de mezclas
para ajustar datos tpicos de aplicaciones actuariales. El modelo para dos distribuciones
normales en la mezcla tiene la forma
130
f
_
x;
1
,
2
,
2
1
,
2
2
,
1
_
=
1
f
1
_
x;
1
,
2
1
_
+ (1
1
) f
2
_
x;
2
,
2
2
_
con
f
i
(x,
i
,
2
i
) =
1
_

2
i
exp
_

1
2
2
i
(x
i
)
2
_
, i = 1, 2
4 2 0 2 4 6 8
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
mezcla de densidades normales
x
D
e
n
s
i
d
a
d
Supongamos que tenemos n observaciones de X, x
1
, ..., x
n
, que representan los datos incom-
pletos. Los datos completos son de la forma (x
1
, v
1
), ..., (x
n
, v
n
), con v
i
= 1 o v
i
= 0.
La verosimilitud completa quedara como
L
c
(; X, V) =
n

i=1
_
N
1
(
1
,
2
1
)

v
i
_
N
2
(
2
,
2
2
)

1v
i
Con correspondiente log-verosimilitud
131

Lc
(; X, V) =
n

i=1
v
i
log
_
N
1
(
1
,
2
1
)

+ (1 v
i
)log
_
N
2
(
2
,
2
2
)

Entonces, en el paso-E del algoritmo, dado un valor provisional de , debemos calcular el


grado de membresa de cada uno de los datos a cualquiera de los dos grupos. Utilizando el
teorema de Bayes, de manera general tenemos que
p(j[x
i
) =
f(x
i
[j)p(j)
f(x)
=
f(x
i
[j)p(j)

j
f(x
i
[j)p(j)
En el caso de este ejemplo con dos mezclas normales y dado un valor provisional de =
(k)
,
tenemos
E(V [x
i
,
(k)
) =
(k+1)
ij
=

k
1
N
1
(
(k)
1
,
2
(k)
1
)
2

j=1

k
j
N
j
(
(k)
j
,
2
(k)
j
)
con
(k)
2
= 1
(k)
1
= 1
(k)
En cada paso-M, calcularemos los estimadores provisionales de los par ametros utilizado el
grado de membresa calculado en paso-E, previo. Estos grados de membresa son pon-
deraciones para los estimadores m aximo verosmilies. Que en este caso de mezcla de dos
distribuciones normales, adoptan las formas simples.
La expresiones para actualizar cada uno de los parametros involucrados son:
El Paso M : Probabilidad de pertenecer al primer elemento de la mezcla, es
E
_
V[x,
k
_
=

(k)
1
N
1
_
x;
(k)
1
,
2
(k)
1
_

(k)
1
N
1
_
x;
(k)
1
,
2
(k)
1
_
+ (1
(k)
1
)N
2
_
x;
(k)
2
,
2
(k)
2
_
de donde se desprende

(k+1)
1
=
1
n
n

i=1
E
_
V[x
i
,
k
_
132
Que es la proporci on de datos que pertenecen al primer elemento de la mezcla. La demas
actualizaciones son

(k+1)
1
=

n
i=1

(k+1)
1
x
i

n
i=1

(k+1)
1

(k+1)
2
=

n
i=1
_
1
(k+1)
1
_
x
i

n
i=1
_
1
(k+1)
1
_

2
(k+1)
1
=

n
i=1

(k+1)
1
_
x
i

(k+1)
1
_
2

n
i=1

(k+1)
1

2
(k+1)
2
=

n
i=1
_
1
(k+1)
1
__
x
i

(k+1)
1
_
2

n
i=1
_
1
(k+1)
1
_
Modelos de mezclas mas apropiados para datos actuariales
Es claro que la naturaleza de la informaci on que se utiliza en las aplicaciones actuariales,
hace cuestionable que una mezcla de normales pudiera ser un modelo plausible. No obstante,
se puede recurrir a mezclas de modelos que sean de uso com un para modelar datos de esta
area. Por ejemplo, una mezcla de modelos Weibul. Las densidades Weibull con dos o tres
par ametros est an dadas por las expresiones
f(x; , ) =

_
x

_
1
exp
_

_
x

_
, x 0
f(x; , , ) =

_
x

_
1
exp
_

_
x

_
, 0 < x <
con , y par ametros de forma, escala y localizacion, respectivamente. El modelo de
mezclas con dos densidades es
f (x;
1
,
2
,
1
,
2
,
1
) =
1
f
1
(x;
1
,
1
) + (1
1
) f
2
(x;
2
,
2
) , o
f (x;
1
,
2
,
1
,
2
,
1
,
2
,
1
) =
1
f
1
(x;
1
,
1
,
1
) + (1
1
) f
2
(x;
2
,
2
,
2
)
133
2 4 6 8
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
0
.
2
5
0
.
3
0
0
.
3
5
mezcla de densidades Weibull
x
D
e
n
s
i
d
a
d
Mezcla de densidades exponencial
Otra mezcla que puede ser adecuada para datos actuariales es la de distribuciones exponen-
ciales
f(x; ) =
1

, x 0
con modelo para dos mezclas
f (x;
1
,
2
,
1
) =
1
f
1
(x;
1
) + (1
1
) f
2
(x;
2
)
134
0.0 0.5 1.0 1.5 2.0
0
1
2
3
mezcla de densidades Exponencial
x
D
e
n
s
i
d
a
d
Mezcla de densidades gamma
Otro de los modelos univariados de gran utilidad en aplicaciones actuariales es la distribucion
Gamma. Por lo que podemos utilizar alg un modelo de mezclas con estas densidades
f(x; , ) =
x
1
e

()
, x 0
con mezcla para dos densidades
f (x;
1
,
2
,
1
,
2
,
1
) =
1
f
1
(x;
1
,
1
) + (1
1
) f
2
(x;
2
,
2
)
135
0 200 400 600 800 1000
0
.
0
0
0
0
0
.
0
0
0
5
0
.
0
0
1
0
0
.
0
0
1
5
0
.
0
0
2
0
mezcla de densidades gamma
x
D
e
n
s
i
d
a
d
De hecho, cualquier modelo de uso com un para ajustar este tipo de datos, puede utilizarse
dentro de una mezcla para lograr un mejor ajuste a la informacion. Realizaremos algunos
ajustes a datos simulados y reales utilizando algunos paquetes, como mixtools, de R.
136
Teora de la credibilidad
Consideremos un riesgo determinado que proveniente de un conjunto de asegurados vigentes
por un periodo determinado. Si este grupo de asegurados es homogeneo en el sentido de que
todos sus miembros tienen la misma probabilidad de realizar una reclamacion, entonces es
razonable aplicar una misma prima a todos ellos. Sin embargo, cuando el grupo no es ho-
mogeneo, o bien, al paso del tiempo aparecen factores de heterogeneidad dentro del mismo,
habr a subgrupos de bajo riesgo y otros de alto riesgo. Cobrar una misma prima a todos
resultara injusto, y no sera conveniente para la aseguradora pues, eventualmente, los ase-
gurados de bajo riesgo buscaran un mejor trato con otra aseguradora. La idea fundamental
es aplicar primas menores a los asegurados de bajo riesgo y primas mayores a los de alto
riesgo, con base en el historial de reclamaciones que cada uno de los asegurados o subgrupos
hayan realizado durante los periodos anteriores. En la teora de la credibilidad se estudian
metodos para el c alculo de primas a traves de la combinaci on de la experiencia individual
(historial de reclamaciones, datos propios) y la experiencia de grupo (datos del mercado,
contratos similares, experiencia propia acumulada, datos colaterales).
Este escenario plantea entonces que, cada caracterstica a estimarse en la poblaci on, depende
de dos fuentes de informacion (o tiene dos fuentes de datos): Los datos propios o datos indi-
viduales y la informacion colateral, dada por los datos del mercado o la experiencia propia
acumulada. Si basamos esta estimaci on solo en los datos propios y estos son escasos, en-
tonces su estimacion sera poco conable (escencialmente podra tener una varianza muy
grande). Por otro lado, si esta estimaci on se realizara unicamente con la informacion co-
lateral, que, tal vez, sea basta, podra ser que no todos estos datos estuvieran totalmente
relacionados con el mismo riesgo, este podra haber sufrido modicaciones, por ejemplo, a
traves del tiempo. Entonces, la mejor alternativa para estimar estas caractersticas, debiera
ser una combinaci on de las dos fuentes de informaci on. En concreto, si deamos estimar la
caracterstica de la poblaci on, nuestro estimador debiera ser
Z
i
+ (1 Z)
C
Con
i
el estimador dado por la informaci on individual y
C
el estimador dado por la
informaci on colateral. Con Z [0, 1] conocido como factor de credibilidad, generalmente
determinado por los datos individuales y colaterales. Si la informaci on generada por la expe-
riencia propia es abundante, este factor debera ser cercano a uno, y cercano a cero cuando
137
esta informacion sea muy escasa.
Para asignar el valor de Z en condiciones reales, se toman en cuenta
El volumen de los datos individuales o propios respecto a los datos colaterales, y
Diferencias entre datos individuales y colaterales.
Credibilidad total o completa
Supongamos que S representa el riesgo para una aseguradora correspondiente a un asegurado
o un conjunto de asegurados con ciertas caractersticas particulares, con covertura por un pe-
riodo jo determinado, por ejemplo, un a no. Sean S
1
, ..., S
m
los montos de las reclamaciones
efectuadas por este asegurado o grupo de asegurados durante m periodos consecutivos, y
sea

S = (S
1
, ..., S
m
) /m el promedio de las reclamaciones. Nos interesa estudiar el compor-
tamiento de

S a lo largo del tiempo para un conjunto de asegurados en particular, pues
deseamos determinar si la prima que se les cobra a cada uno de ellos es la adecuada. Si las
variables S
1
, ..., S
m
son independientes, e identicamente distribuidas y con esperanza nita,
entonces la ley de los grandes n umeros garantiza que la media muestral

S converge a E(S),
conforme el n umero de sumandos crece a innito.
138
Convergencia de S
m
S
E(S)
Denicion. Sea k (0, 1) y p (0, 1) dos valores jos. Se dice que

S tiene credibilidad total
o completa (k, p), si
P
_

S E(S)

kE(S)
_
p
Esta denici on enuncia que

S tiene credibilidad completa si dista de E(S), en menos de
kE(S) con probabilidad mayor o igual a p. Observese que la denicion tiene sentido cuando
E(S) distinta de cero. En la pr actica, obviamente se toman valores de k cercanos a cero y
valores de p cercanos a uno, tpicamente k = 0.05 y p = 0.9.
Regresando al esquema de la estimaci on a traves de las dos fuentes de informaci on: datos
individuales e informacion colateral, nuestra estimacion de

S, queda como
Z

S + (1 Z)E(S)
Notemos que estamos utilizando la esperanza de S como la informaci on colateral. Entonces,
una pregunta que surge de manera natural es: de que tama no debe ser la experiencia propia
139
para que la aseguradora pueda eliminar la informacion colateral?. En otras palabras, cu al
es el n umero de periodos, m, necesarios para que se cumpla el enunciado de la denicion
anterior?
Credibilidad completa bajo normalidad asintotica
Determinemos una condicion sobre este n umero de periodos, m, para obtener credibilidad
completa asumiendo que, bajo el teorema central del lmite,

S tiene una distribucion aprox-
imadamente normal. Recordemos que
E
_

S
_
= E(S) y V
_

S
_
=
V(S)
m
Entonces
P
_

S E(S)

kE(S)
_
= P
_


S E(S)

_
V(S)/m

kE(S)
_
V(S)/m
_
P
_
[Z[
kE(S)
_
V(S)/m
_
= P
_

kE(S)
_
V(S)/m
Z
kE(S)
_
V(S)/m
_
=
_
kE(S)
_
V(S)/m
_

kE(S)
_
V(S)/m
_
=
_
kE(S)
_
V(S)/m
_

_
1
kE(S)
_
V(S)/m
_
= 2
_
k

mE(S)
_
V(S)
_
1
Como esta probabilidad debe ser mayor o igual a p seg un la denici on, tenemos que
2
_
k

mE(S)
_
V(S)
_

1 + p
2
140
Lo que queremos es encontrar el valor de m m as peque no que cumpla esta desigualdad, que
es aquel que cumple con la igualdad en esta ecuaci on. Denotemos por z
q
al cuantil de orden
q de la normal est andar, i.e., (z
q
) = q. Entonces, el valor mnimo de m para garantizar
credibilidad total o completa es tal que
k

mE(S)
_
V(S)
z
(1+p)/2
y despejando m obtenemos
m
z
2
(1+p)/2
V(S)
k
2
E
2
(S)
Las cantidades E(S) y V(S) pueden estimarse por medio de la media y varianza muestral,
respectivamente, usando la informaci on que se tenga a disposici on al momento de hacer el
an alisis. Substituyendo estos valores en la formula se puede conocer una aproximacion del
n umero de periodos m de historial para que

S tenga credibilidad completa. Observese que
cuando p crece, es decir, cuando se desea tener una mayor conanza en la estimaci on de

S,
entonces el n umero de periodos de observacion m tambien crece. Si ademas queremos que
el parametro k decrezca tambien, es decir, si se pide que la distancia entre

S y E(S) tenga
menor amplitud, entonces m crece. En resumen, si requerimos condiciones muy exigentes a
estos par ametros, el precio que hay que pagar es un mayor n umero de periodos del historial,
de lo contrario, necesitaremos menos periodos.
Ejemplo
Supongamos que N denota la v.a. que representa el n umero de recamaciones de un portafo-
lio de seguros, durante determinado periodo. Asumamos como es costumbre que N
Poisson(). Supongamos ademas que la variable de monto de reclamaci on X
i
, sigue una
distribuci on Weibull(, ).
Recordemos que, dado que N es Poisson, entonces el modelo para S es Poisson compuesto.
Con
141
E(S) = E(N)E(X
i
) =
_
1 +
1

_
y
V(S) =
2

_
1 +
2

_
Encontrar el valor mnimo de m, para tener credibilidad total, si p = 0.9 y k = 0.05. Real-
izando un c alculo simple obtenemos
m
1.96
2

_
1 +
2

_
(0.05)
2

2
_
1 +
1

_
m 1536.64

_
1 +
2

2
_
1 +
1

_
Observemos que m representa el total de reclamaciones promedio durante m periodos.
Ejemplo 2
La siguiente tabla corresponde a una muestra de 100 reclamaciones sobre un seguro. Supong-
amos que la tasa media de reclamaci on es de 0.015. Calcular el n umero mnimo de reclama-
ciones esperadas, as como el tama no aproximado que debera tener el portafolio de experi-
encia para asignarle credibilidad total con k = 0.05 y p = 0.9
Tabla
Monto de reclamacion N umero de reclamaciones
0 400 2
400 800 24
800 1200 32
1200 1600 21
1600 2000 10
2000 2400 6
2400 2800 3
2800 3200 1
3200 3600 1
Entonces, recordemos que, en general
E(S) = E(N) E(X) y V(S) = E(N) V(X) +V(N) E
2
(X)
142
En este caso, utilizaremos las verisiones empricas

E(N) =

N = 11.11111;

V(N) = 135.1111

E(X) =

X = 1216;

E
2
(X) = 1841600
Entonces

E(S) = 11.11111 1216 = 13511.11 y

V(S) = 11.11111 (1841600 1216


2
) + 135.1111 1841600 = 252853312
m 1536.64
252853312
13511.11
2
= 2128.427
143
Credibilidad parcial
En muchas ocaciones reales, la experiencia acumulada no es tan grande como para otorgarle
credibilidad total o completa, solamente creibilidad parcial, (Z < 1). Entonces, necesitamos
determinar que valor habra que asignarle a Z, para que nuestro estimador

S cumpla las
mismas condiciones anteriores. Por lo que, en la combinacion lineal convexa que determi-
namos para estimar

S, Z

S + (1 Z). Procediendo de manera semejante al desarrollo para
creibilidad total, tenemos que
P
_

Z
_

S E(S)
_
kE(S)

_
p
que podemos reescribir como
P
_

S E(S)
_

k
Z
E(S)

_
p
condici on similar a la de credibilidad completa, cambiando k, por k/Z. Es decir, la credibili-
dad parcial (k, p), para Z

S +(1Z)E(S), es equivalente a la credibilidad completa (p, k/Z),
para

S.
Credibilidad parcial bajo normalidad asintotica
De manera totalmente analoga al desarrollo para credibilidad completa, bajo la hip otesis de
normalidad asint otica para

S y para los valores de k y p mencionados anteriormente, se tiene
la aproximaci on
m
Z
2
z
2
(1+p)/2
V(S)
k
2
E
2
(S)
de donde obtenemos
Z =
kE(S)

m
z
(1+p)/2
_
V(S)
Este valor de Z excede el valor de uno para valores sucientemente grandes de m, por lo
tanto se dene el factor de credibilidad como
144
Z = min
_
kE(S)

m
z
(1+p)/2
_
V(S)
, 1
_
Ejemplo. Retomemando nuestro primer ejemplo
Donde N Poisson() y X
i
, sigue una distribuci on Weibull(, ), con k=0.05 y p=0.9.
Calculemos la condicion de crdibilidad parcial para Z

S +(1Z)E(S). En este caso tenemos
que
m 1536.64

_
1 +
2

2
_
1 +
1

_Z
2
Si tomamos la igualda y despejamos Z, obtenemos
Z =

m
_
1 +
1

_
39.2
_

_
1 +
2

_
Entonces, la combinaci on lineal queda como

m
_
1 +
1

_
39.2
_

_
1 +
2

_

S +
_
_
1

m
_
1 +
1

_
39.2
_

_
1 +
2

_
_
_
E(S)
con E(S) es el valor esperado teorico de S y

S es la experiencia observada.
145
Creibilidad Bayesiana
La estadstica Bayesiana consituye una manera natural de incorporar el historial de reclama-
ciones (informaci on) de un grupo de asegurados en el c alculo de las primas. Una aseguradora
que ha tenido mucha experiencia realizando este c alculo, tendr a una estimacion mas precisa
de estas primas; no obstante, solo ser a una estimacion que deber a actualizar tan pronto
tenga mas informaci on a mano. Por el contrario, una nueva aseguradora en el mercado,
tendr a poca o nula informacion propia en la que basar sus estimaciones, por lo que dicha
estimaci on sera muy incierta y, tal vez, este basada en la informacion del mercado o de juicios
subjetivos de especialistas del area, por lo que le resultar a de suma importancia actualizarla
en cuanto empiece a acumular informaci on propia.
Enfoque Bayesiano
En la estadstica tradicional, enfoque clasico, uno de los problemas inferenciales m as im-
portantes es la estimacion del parametro, , de una distribuci on de probabilidad, f(x; ).
Para realizar dicha estimacion seleccionamos una muestra aleatoria de esta distribucion y se
tienen distintos metodos para estimar , considerando siempre que este parametro tiene un
valor desconocido y jo. En el enfoque Bayesiano, , se trata como una variable aleatoria
para la que se supone una distribucion de probabilidad, p(), llamada distribucion inicial o
distribucion apriori. Esta distribuci on reeja la informaci on subjetiva o cuantitativa que el
observador pueda tener sobre este par ametro, , antes de observar la muestra.
Actualizaci on de la informacion a traves del teorema de Bayes
La forma en la que se actualiza la informacion inicial sobre nuestro par ametros de interes,
, mediante la informacion contenida en la muestra, p(x[) = L(; X) (la verosimilitud), es
a traves del teorema de Bayes.
Teorema de Bayes
Dados dos eventos A y B tales que P(B) > 0, la probabilidad condicional de A dado B,
P(A[B), se dene como
P(A[B) =
P(B A)
P(B)
=
P(B[A)P(A)
P(B)
146
Teorema de Bayes
Si A
i
: i = 1, 2, ..., M es un conjunto exhaustivo de eventos mutuamente excluyentes, en-
tonces
P(A
i
[B) =
P(B[A
i
)P(A
i
)
M

j=1
P(B[A
j
)P(A
j
)
La forma esquem atica de actualizar esta informaci on a traves del teorema de Bayes es la
siguiente
debe tener una distribucion de probabilidad, p(), que reeje nuestro conocimiento inicial
acerca de su valor.
La informaci on sobre que contiene la muestra aleatoria seleccionada, est a resumida en la
verosimilitud: p(x[) = L(; X)
Por lo tanto, nuestro conocimiento acerca del valor de queda descrito a traves de su dis-
tribucion nal
p([X)
El Teorema de Bayes nos dice c omo encontrarla:
p([X) =
p(x[)p()
_
p(x[)p()d
Este proceso se conoce como el proceso de actualizacion de la informacion sobre , y es la
manera de combinar las dos fuentes de informaci on que tenemos: La inicial, dada a traves
de p(), y la de la muestra, dada por medio de la verosimilitud: p(x[), para obtener la
distribuci on nal: p([X), que contiene la suma de estas dos fuentes de informacion.
Observese que el denominador, p(x) =
_
p(x[)p()d, no depende de , por lo que es com un
escribir esta distribucion nal como
147
p([x) p(x[)p()
En la pr actica, el calculo de la distribuci on nal puede ser un asunto complicado, especial-
mente si la dimensi on del par ametro es grande.
Sin embargo, para ciertas combinaciones de distribuciones iniciales y verosimilitudes es posi-
ble simplicar el an alisis.
En otros casos se requieren aproximaciones analticas y/o tecnicas computacionales relativa-
mente sosticadas.
Familias conjugadas
Comentamos en uno de los puntos anteriores, que existen ciertas combinaciones de distribu-
ciones iniciales y verosimilitudes, que simplican el an alisis Bayesiano, esencialmente, porque
el modelo de la distribucion nal de , pertenece a la misma familia que el de la inicial.
Denici on. Sea P = p(x[) : una familia parametrica. Una clase (o colecci on) de
distribuciones de probabilidad F es una familia conjugada para P si para toda p(x[) P
y p() F se tiene que p([x) F
Algunos modelos parametricos univariados con sus respectivas familias conjugadas:
Familia parametrica Familia Conjugada
Bernoulli(x[) Beta([, )
Poisson(x[) Gamma([, )
Geometrica(x[) Beta([, )
Exponencial(x[) Gamma([, )
Uniforme(x[0, ) Pareto([, )
Normal(x[) Normal([
0
,
0
)
Normal(x[) Gamma([, )
Normal(x[, ) Normal Gamma(, [
0
,
0
, , )
148
Ejemplo. Consideremos la familia parametrica P = Poisson(x[) : R
+
. Si utilizamos
como distribucion inicial p() F = Gamma([, ) : , R
+
. Entonces, si se tiene
una muestra aleatoria x = (x
1
, ..., x
n
), la distribuci on nal es
p([X) = Gamma([ + r, n + )
con r =
n

i=1
x
i
.
Dem. S olo demostraremos que el kernel de la distribuci on nal, pertenece a la distribucion
Gamma([ + r, n + ).
Sabemos, por Bayes, que
p([X) =
p(x[)p()
_
p(x[)p()d
con
p(x[) =
n

i=1

x
i
e

x
i
!

n
i=1
x
i
e
n
y
p() =

1
e

()
, por lo que
p([X)

n
i=1
x
i
e
n

1
e

=
+

n
i=1
x
i
1
e
(+n)
Gamma
_
+
n

i=1
x
i
, + n
_
Aplicacion a la teora de credibilidad
Por lo general, la tasa de frecuencia de reclamaci on, , de un seguro presenta incertidumbre,
por lo que se puede suponer que sus valores est an dados mediante una distribucion de prob-
abilidades. El rango de denici on de esta tasa es (0, ), por lo que una distribucion
adecuada para ella puede ser la Gamma(, ). Consideremos tambien que el n umero de
reclamaciones sigue una distribuci on Poisson() y tenemos m p olizas o periodos de obser-
vaci on independientes. Entonces la distribucion nal de la tasa de frecuencia de reclamaci on
es una Gamma con las caractersticas anteriores. Esta distribucion nal tiene media
149
+

m
i=1
x
i
+ m
=
+ m

S
+ m
=
m
+ m

S +

+ m

= Z

S + (1 Z)

con Z =
m
m +
el factor de credibilidad. Este factor crece de forma mon otona a uno cuando
m tiende a innito, dando, como es l ogico, cada vez m as credibilidad a la media muestral

S,
es decir, a la informaci on individual o de la Ca., y menor credibilidad a la media te orica o
poblacional, que representa la informaci on colateral. Adem as si m tiende a innito la media
de la distribuci on nal o aposteriori converge a la media muestral lmite dada por el historial
de reclamaciones; y la varianza de esta tasa, , que es
+ m

S
(m + )
2
converge a cero, lo cual indica que la distribucion nal se concentra cada vez mas alrededor
de su media.
Ejemplo: Estimacion del fraude en un tipo de poliza
Un actuario desea estimar la proporci on, , de fraude en un determinado tipo de poliza.
Para esto, se realizan inspecciones aleatorias a las reclamaciones realizadas. Se sabe que el
fraude en el sector es del 4% con una desviaci on estandard del 2%. Se inspeccionan un total
de 240 p olizas, y se determina que 22 de ellas son fraudulentas. El actuario quiere combinar
estas dos fuentes de informaci on (Sector y Ca.) para actualizar esta proporci on de freude.
Sea X v.a. que representa el n umero de polizas fraudulentas en un total de n inspecciones.
Es claro que X tiene una distribuci on Binomial(n, ).
f (x[) =
_
n
x
_

x
(1 )
nx
, x = 0, 1, ..., n; (0, 1)
150
Bajo el enfoque Bayesiano, debemos asignar una distribucion inicial a . El hecho de que
su espacio parametral sea (0, 1), nos obliga a buscar una distribuci on que tenga exibili-
dad (distintas formas posibles) en este intervalo; una elecci on que parece conveniente, es la
distribuci on beta.
0.0 0.5 1.0 1.5 2.0
0
2
4
6
8
1
0
Diversas formas de la distribucin Beta
x
B
e
t
a
a1= 0.5 , a2= 3
a1= 1 , a2= 3
a1= 1.5 , a2= 3
a1= 3 , a2= 3
a1= 5 , a2= 3
a1= 7 , a2= 3
0.0 0.5 1.0 1.5 2.0
0
2
4
6
8
Diversas formas de la distribucin Beta
x
B
e
t
a
a1= 3 , a2= 1
a1= 3 , a2= 0.8
a1= 3 , a2= 0.6
a1= 3 , a2= 0.4
a1= 3 , a2= 0.2
a1= 3 , a2= 0.1
cuya funci on de densidad es
p(; , ) =

1
(1 )
1
Beta(, )
; (0, 1), > 0, > 0
con y par ametros de la distribuci on inicial, conocidos como hiperparametros, que se
pueden estimar a partir de la informaci on inicial sobre , cuya distribuci on inicial supusimos
Beta(, ), de la siguiente forma
E() =

+
= 0.04, y
V() =

( + + 1)( + )
2
= 0.02
2
151
cuya soluci on es: = 0.02386583 y = 0.000009779513.
Para encontrar la distribuci on nal de dados los datos observados, utilizaremos el teorema
de Bayes para distribuciones. Sabemos que, en este caso, la distribuci on nal tambien debe
ser una Beta, porque es conjugada para la Bernoulli. Por lo que solo resta ver como se
actualizan los parametros de la Beta inicial (Modelo Beta-Binomial). Entonces
p([X) =
f(x[)Beta([, )
_
1
0
f(x[)Beta([, )d
=
_
n
x
_

x
(1 )
nx

1
(1 )
1
Beta (, )
_
1
0
_
n
x
_

x
(1 )
nx

1
(1 )
1
Beta (, )
d
=

x+1
(1 )
nx+1
Beta(x + , n x + )
Por lo tanto
p([x) = Beta(x + , n x + )
Con x el valor observado de la Binomial. Entonces, la media de la distribuci on nal, que es
la proporcion de fraude actualizada, es
E([x) =
+ x
+ + n
=
n
+ + n
x
n
+
+
+ + n

+
=
n
+ + n

+
+
+ + n
E()
que representa la formula de credibilidad, donde se combinan la experiencia del sector (colec-
tivo) y la informaci on de la Ca. (individual). Con el factor de credibilidad dado por
152
Z =
n
+ + n
Finalmente, la proporcion de fraude actualizada es 0.09175698 y factor de credibilidad
Z = 0.9999005. Para construir un intervalo de probabilidad sobre esta proporcion. Debemos
encontrar los lmites (l, u), sobre la distribuci on nal de , tal que
P(l [x u) = 1 q
con 0 < q < 1, la probabilidad de cobertura deseada.
Calculo Bayesiano de primas de seguros
El uso de las distribuciones iniciales que tienen un car acter evidentemente subjetivo, resulta
de utilidad en el mercado de seguros, sobre todo si se tiene en cuenta que cuando se quiere
tarifar un riesgo nuevo no se dispone de informacion para ello.
La visi on Bayesiana se incorporo rapidamente a la disciplina actuarial, demostrando que
algunas primas que se obtienen a traves de la metodologa Bayesiana pueden escribirse como
f ormulas de credibilidad.
En estos terminos actuariales, la cuesti on basica de credibilidad es determinar una prima
establecida como una combinaci on lineal convexa entre la experiencia particular de un ase-
gurado y la experiencia del colectivo, esto es, toda la cartera. Es decir
P
j
= Z

P + (1 Z) P
0
Con
P
j
prima a aplicar a los asegurados por el riesgo j.
P
0
prima a aplicar a un colectivo al que pertenece el asegurado j.


P Prima calculada con base en la experiencia del asegurado j.
Z Factor de credibilidad. Que debe vericar las condiciones: lim
m
Z = 1, con m el
n umero de sujetos expuestos al riesgo j o el periodo de observacion de la poliza j. Entonces,
si Z = 1 la experiencia del asegurador recibe credibilidad total o del 100%, mientras que si
153
Z = 0, P
j
= P
0
y la prima del asegurado j coincide con la del colectivo a la que pertenece
dicha p oliza, o la experiencia del colectivo recibe credibilidad total o del 100%.
Entonces, desde el punto de vista Bayesiano, esta f ormula de credibilidad puede interpretarse
como: Podemos considerar P
0
como la informaci on inicial o a priori. A

P como la nueva
informaci on que se obtiene mediante la observaci on de la siniestralidad del riesgo j (los datos
recabados; la informaci on recabada) y P
j
la actualizaci on del c alculo de la p oliza (prima a
posteriori), resultado de combinar la informaci on inicial con la informacion recabada. Por lo
tanto
Prima(a posteriori) = (1 Z) Prima a priori + Z Experiencia dada por los datos
De esta manera, la teora de la credibilidad Bayesiana, sigue un esquema donde la infor-
maci on a priori sobre el c alculo de las primas, se actualiza con la informacion dada por
la observacion del siniestro (muestra), dando como resultado la actualizaci on de la prima,
mediante el calculo de la prima a posteriori.
154
Procesos estocasticos
En este apartado haremos una presentaci on breve de diversos aspectos relacionados a los
procesos estocasticos. Se deniran algunos conceptos y propiedades de ellos, adem as de pro-
porcionar ejemplos particulares de procesos estocasticos. Estas herramientas ser an de gran
utilidad para el estudio de la teora de la ruina y de reservas, que son nuestros objetivos
nales del curso.
Proceso estocastico
Def. Un proceso estocastico es una colecci on X
t

tT
de variables aleatorias indexadas por
un conjunto, T, y denidas en alg un espacio de probabilidad (, F, P). Consideramos al
conjunto de ndices, T, como un par ametro temporal, por ejemplo: 0, 1, ..., n, N, [0, t]
o [0, ). Interpretamos un proceso estocastico como la evoluci on en el tiempo de alg un
fen omeno cuyo comportamiento lo rige el azar (es aleatorio). Un ejemplo dentro del area
actuarial est a determinado por la evolucion en el tiempo, de la reserva de una compa na de
seguros. En nanzas, por ejemplo, X
t
puede representar el precio de una accion burs atil
al tiempo, t. En un contexto m as trivial, la cantidad de soles ( aguilas) acumuladas en
una sucesi on de lanzamientos de una moneda (volados) tambien constituye un proceso
estocastico.
En el segundo ejemplo, se puede indexar al proceso por alg un intervalo de n umeros naturales,
en cuyo caso hablaremos de un proceso estocastico a tiempo discreto. Ademas, dicho proceso
toma valores en los naturales, por lo que tambien se trata de un proceso con espacio de esta-
dos discreto. En el primer caso, se puede pensar en un modelo indexado por un subintervalo
de [0, ) y hablaremos de un proceso estocastico a tiempo continuo. Adem as, en principio,
el valor de la reserva podra ser cualquier real no-negativo y por lo tanto hablamos de un
proceso con espacio de estados continuo.
Ejemplos
Caminatas aleatorias y el problema de la ruina. Modelemos la siguiente situacion: Tenemos
un capital de 50 pesos al tiempo cero y cada instante de tiempo apostamos un peso en un
volado, gan ando si cae aguila. Como podemos modelar y estudiar la evoluci on de nuestro
capital a traves del tiempo?. Un particular interes es la variable aleatoria que nos indica el
155
instante en que nos arruinemos por primera vez, misma que a priori podra ser innita si
jam as nos ocurre este evento (s, como no).
Entonces, nuestro modelo se construye de la siguiente manera. Sean U
1
, U
2
, ... variables
aleatorias uniformes en (0, 1), independientes. Sea 1
U
i
1/2
, la variable aleatoria indicadora
que denota si el resultado del i-esimo lanzamiento fue aguila (U
i
= 1) y, por tanto, la variable
aleatoria 21
U
i
1/2
1, toma los valores 1 si cae la moneda aguila y -1 si cae la moneda sol.
Con estas consideraciones, podemos denir nuestro modelo como
X
0
= 50, y X
n+1
= X
n
+ 21
U
n+1
1/2
1
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
0 500 1000 1500 2000
0
2
0
4
0
6
0
8
0
Trayectoria del proceso de ruina del jugador
t
X
n
Ejemplo 2 Queriendo arruinarse pronto. Modiquemos el proceso anterior de la siguiente
manera. Capital inicial $50. A cada instante de tiempo apostamos en un volado o la
mitad de nuestro capital si tenemos m as de 10 pesos o 2 pesos si este es menor o igual a 10,
ganando si cae aguila. En este caso nuestro modelo es
156
X
0
= 50, y X
n+1
= X
n
+
_
21
U
n+1
1/2
1
_
_

_
_
X
n
2
_
si X
n
> 10
2 si X
n
10
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
0 5 10 15 20 25 30
0
1
0
2
0
3
0
4
0
5
0
Trayectoria del proceso modificado de ruina del jugador
t
X
n
Ejemplo 3. Tiempos de espera. En este caso lo que deseamos modelar es el proceso que
generan los clientes que van llegando en tiempos aleatorios, por ejemplo, a una la unica del
banco, que requieren un servicio cuyo tiempo de atenci on tambien es una variable aleatoria.
Lo que deseamos es al caracterizar este proceso es determinar cu anto tiempo debe esperar
un cliente que llega al momento t, para salir del banco?.
El modelo usual para esta situacion asume que los tiempos sucesivos entre los arribos de los
clientes, son variables aleatorias exponenciales con parametro
i
. Adem as, se puede suponer
que los tiempos de servicio son variables aleatorias independientes con distribucion com un
exponencial, de tasa
s
. Se supone que todas las variables involucradas son independientes.
Entonces, la construccion del modelo es como sigue
Sean S
1
, S
2
, ... variables exponenciales independientes de parametro
i
y
1
,
2
, ... variables
157
exponenciales independientes de par ametro
s
. Con
T
0
, T
n+1
= T
n
+ S
n+1
, N
t
=

n=1
1
Tnt
, R
0
, R
n+1
= R
n
+
n+1
Denimos los procesos
X
t
= R
Nt
t y Q
t
= X
t
min
st
X
s
Por lo tanto, Q
t
representa el tiempo de servicio necesario para atender a los clientes que se
encuentran presentes en el banco al tiempo, t, que es nuestro proceso a estudiar.
G
G
G
G
G
GG
G
G
G
G
G
G
GGG
G
GGG
G
G
G
G
G
G
GGGGGGG
G
G
G
G
G
G
G
G
G
G
G
G
G
GG
G
G
GG
GGG
G
GGGGG
G
G
G
GG
G
G
GG
GG
G
G
GGG
G
G
G
G
G
G
G
GG
G
G
G
GG
GG
G
G
G
G
G
G
G
GG
G
GG
G
G
G
GG
G
GG
G
G
GG
GGG
GG
G
G
GG
GG
G
G
GG
G
G
G
GGG
G
GG
G
G
G
GG
G
GGG
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
G
GG
G
G
G
G
GG
G
GG
G
G
G
G
G
GG
GGGG
G
G
G
G
G
G
G
GG
G
G
G
G
G
G
GGGG
GG
GGG
G
G
G
GG
G
G
G
G
G
G
G
GG
G
G
G
G
GG
G
G
G
G
GGG
G
G
G
G
G
GGG
GG
G
GGG
G
GGGG
GG
GG
G
G
G
G
GG
G
G
GGG
G
G
GG
G
G
G
G
G
G
G
G
GG
G
G
G
G
GG
G
G
G
G
G
G
G
GGG
G
G
G
GG
GG
G
G
G
G
G
G
G
G
G
G
G
G
G
GG
G
G
G
G
G
G
G
G
G
G
G
G
GG
G
G
GG
G
G
G
G
G
GG
G
G
GG
G
GG
G
G
G
G
G
G
G
G
G
GG
GG
G
G
G
GG
G
G
G
GG
G
GG
G
G
GG
G
G
G
G
G
G
G
G
G
G
G
G
GG
G
G
G
G
GG
G
G
G
GG
G
G
G
G
GG
G
GG
G
GG
G
G
G
G
GGG
G
G
G
GGG
GG
GGGG
GG
G
G
G
GG
GG
GG
G
G
G
G
G
G
G
G
G
G
G
G
G
GG
G
GG
G
G
G
G
GG
G
G
G
G
G
G
G
G
G
G
G
G
G
G
GG
G
G
G
G
G
GG
GG
G
G
G
GG
G
G
0 100 200 300 400
0
1
0
2
0
3
0
4
0
5
0
Trayectoria del proceso de tiempos de espera con tasas iguales de llegada y servicio
t
Q
(
t
)
158
Cadenas de Markov a tiempo discreto
Def. Una cadena de Markov con matriz de transicion P y distribuci on inicial , es un pro-
ceso estoc astico X
n

nN
con valores en el espacio de estados, E, tal que si x
0
, x
1
, ..., x
n
E,
entonces
P(X
0
= x
0
, ..., X
n
= x
n
) =
x
0
P
x
0
,x
1
P
x
n1
,xn
Propiedad de Markov. Sea Xuna cadena de Markov con matriz de transici on P y distribucion
inicia . Si P(X
0
= x
0
, ..., X
n
= x
n
) > 0, entonces
P(X
n+1
= x
n+1
[X
0
= x
0
, ..., X
n
= x
n
) = P(X
n+1
= x
n+1
[X
n
= x
n
)
Que enuncia que la evoluci on futura de la cadena s olo depende de su pasado a traves del
presente. Enunciado de otra forma
Propiedad de Markov. Un proceso estocastico a tiempo discreto y con espacio de estados
discreto es Markoviano si y solo si, la probabilidad condicional de estar en el estado X
t+1
dados los estados anteriores X
0
, X
1
, ..., X
n
, solo depende del estado mas reciente X
n
.
P(X
n+1
[X
0
, X
1
, ..., X
n
) = P(X
n+1
[X
n
)
Ejemplo 1: Caminata aleatoria simple. La caminata aleatoria simple es una cadena de
Markov cuyo espacio de estados es Z y es tal que P
n,n+1
= 1 P
n,n1
con p (0, 1). Este
ejemplo ya lo vimos anteriormente. La graca de una trayectoria del proceso obtenidad a
traves de simulaci on es
159
0 20 40 60 80 100
0
5
1
0
1
5
Caminata aleatoria simple
t
X
t
Algunas caractersticas relevantes de una cadena de Markov.
Si es posible ir a cualquier estado de la cadena de Markov en uno o m as pasos, entonces la
cadena es irreducible.
Si estando en alg un estado, se regresa a el solo en intervalos regulares, la cadena se llama
periodica, de lo contrario se denomina aperiodica.
Supongamos que podemos encontrar un vector de probabilidades w tal que wP = w,
entonces se dice que w es la distribucion estacionaria de la cadena.
Equivalentemente, una cadena es estacionaria si existe una funcion de distribuci on de
probabilidad f tal que si X
t
f, entonces, X
t+1
f. Por lo tanto, formalmente, el kernel
y la funci on de distribuci on estacionaria cumplen la ecuaci on
_
K(x, y)f(x) = f(y)
Si una cadena de Markov es irreducible y aperiodica, entonces tiene una unica distribucion
160
estacionaria.
En el caso de que la cadena sea adem as recurrente, la distribucion estacionaria es tambien
la distribucion lmite, en el sentido de que la distribuci on lmite de X
t
es f casi para cualquier
valor inicial X
0
. Esta propiedad tambien es conocida como ergodicidad, y obviamente tiene
una gran consecuencia desde el punto de vista de la simulacion, ya que si un kernel dado,
K, produce una cadena de Markov erg odica con distribucion estacionaria f, generando una
cadena de valores de este kernel, eventualmente produciremos simulaciones de f. En partic-
ular, para funciones integrables h, el promedio
1
T
T

t=1
h(X
t
) E
f
[h(X)]
lo signica que la ley de los grandes n umeros v alida para los metodos Monte Carlo, puede
aplicarse en el contexto de MCMC. (Teorema ergodico).
Ejemplo: Un da de trabajo.
Veamos un ejemplo simple que genera una cadena de Markov a partir de una matriz de
transici on.
Cada da me levanto e intento hacer la mayor cantidad de mi trabajo pendiente.
Enciendo la computadora y me pongo a trabajar.
Es bastante facil que me distraiga del trabajo. Despues de cada minuto de trabajo, tengo
s olo una probabilidad de 0.4 de continuar trabajando al minuto siguiente. Con probabilidad
0.6 inicio una navegacion por INTERNET.
Navegar en la red es bastante adictivo. Despues de navegar un minuto, mi probabilidad
de regresar a trabajar es tan s olo de 0.1. Con probabilidad 0.6, sigo navegando en la red.
Con probabilidad 0.3 reviso mi correo electr onico.
Con probabilidad 0.5 regreso a mi trabajo. Con la misma probabilidad, contin uo revisando
mi correo electr onico.
161
Mi matriz de transicion
_
_
_
_
_
_
trabajo internet e mail
trabajo 0.4 0.6 0
internet 0.1 0.6 0.3
e mail 0.5 0 0.5
_
_
_
_
_
_
Es una matriz de transici on de una Cadena de Markov. Todas sus entradas son no negati-
vas y sus renglones suman uno, y cumplira todas las condiciones de aperiodica, irreducible,
recurrente, etc.?
162
El proceso Poisson
Dada la dependencia del modelo de Camer-Lundberg (que enunciaremos posteriormente) del
proceso Poisson, lo deniremos en seguida.
Def. 1: Un proceso estoc astico, X(t), t 0, a tiempo continuo, se dice que es de incre-
mentos independientes si para cada t
0
< t
1
< < t
n
, con t
0
, t
1
, ..., t
n
T se tiene que
X(t
1
) X(t
0
), X(t
2
) X(t
1
), ..., X(t
n
) X(t
n1
)
son variables aleatorias independientes.
Def. 2: Un proceso estocastico, X(t), t 0, a tiempo continuo, es de incrementos esta-
cionarios si la distribuci on, dado t T, de
X(t + s) X(t)
es la misma s T.
En un proceso con incrementos estacionarios, cambios en el proceso de igual tama no son
iguales en distribucion.
Def. 3: Un proceso estoc astico a tiempo continuo, N(t), t 0, se dice puntual o de con-
teo, si N(t) representa el n umero de veces que ocurre un suceso hasta el instante de tiempo, t.
En particular
N(t) N, t T
N(s) N(t), si s < t (Los incrementos son no negativos)
Por lo tanto, un proceso de conteo es de incrementos independientes si el n umero de sucesos
en intervalos de tiempo que no se traslapan son variables aleatorias independientes.
Y es de incrementos estacionarios, si el n umero de sucesos en un intervalo de tiempo es el
mismo en intervalos de igual longitud.
163
Un uso muy frecuente de la distribuci on de Poisson surge en situaciones en las que los
eventos ocurren a lo largo del tiempo, por ejemplo: ocurrencia de terremotos, personas que
ingresan a un banco, llegadas a un servidor, emisiones de partculas por una fuente radiac-
tiva, etc.
Def. 4: Un proceso de conteo N(t), t 0, se dice de Poisson (homogeneo), con tasa de
intesidad, , si
N(0) = 0
Es de incrementos independientes

P(N(t + s) N(s) = n) =
(t)
n
e
t
n!
, n N, s, t > 0
De la denici on es claro que el proceso es de incrementos estacionarios, y los incremen-
tos siguen una distribucion Poisson de par ametro t para intervalos de tiempo de longitud, t.
El n umero promedio de eventos hasta el instante, t, es
E[N(t)] = E[N(t + 0) N(0)] = t
V[N(t)] = t
Para cualquier intervalo de longitud, t, se tiene
E[N(s + t) N(s)] = E[N(t)] = t
164
G
G G G
G
G
G
G
G
G G G G G G
G G G
G
G
G
G G
G
G G
G G
G G
G
G
G
G
G
G
G
G
G G G G
G
G
G
G
G
G
G G
G
G
G
G G
G G
G G G
G
G
G G G
G
G
G G G
G
G G G G
G
G
G
G G
G G G
G G
G
G
G
G
G G
G G
G
0 20 40 60 80
0
5
1
0
1
5
2
0
2
5
3
0
Trayectoria: Proceso Poisson
t
N
(
t
)
165
Proceso de Poisson no homogeneo (o no estacionario). En muchas situaciones es mas realista
suponer que hay m as incidencias a ciertas horas (o en ciertos intervalos) que a otras. Para
modelar esta situaci on, es conveniente la siguiente generalizaci on del Proceso Poisson.
Def. 5: Decimos que N(t), t 0, es un Proceso Poisson no homogeneo, con tasa de in-
tesidad, t, si
N(0) = 0
Es de incrementos independientes

P(N(t + s) N(s) = n) =
_
t+s
s
(x)dx, s 0, t > 0
En otras palabras, para cada s 0 y t > 0 se tiene que N(t + s) N(s) es una variable
aleatoria Poisson con media
m(t + s) m(t) =
_
t+s
s
(x)dx
N(t) tiene distribuci on Poisson con esperanza
m(t) =
_
t
0
(x)dx
Si t = (constante), entonces N(t + s) N(s) es una variable aleatoria Poisson con
media t.
166
Esperanza Condicional
Antes de dar una denicion formal sobre la esperanza condicional, hagamos una introduccion
simple de este concepto.
Supongamos que X es una v.a. que denota el resultado de un experimento aleatorio.
Si no tenemos informaci on sobre el resultado del experimento, entonces, nuestra mejor
conjetura (apuesta) sobre el valor de X ser a, E(X), la esperanza o valor esperado de X.
Si conocemos el resultado del experimento, entonces conocemos el valor exacto de X.
Frecuentemente conocemos el valor de otra variable aleatoria Y que esta relacionada con
X. En este caso, la mejor predicci on del valor de X ser a la esperanza condicional E[X[Y ].
La esperanza condicional, E[X[Y ], es una nueva variable aleatoria de la forma, g(Y ), que
aproxima X, usando la informaci on sobre v.a. Y.
Ejemplo
Consideremos el experimento de lanzar un dado dos veces. Sean Y y Z los puntajes que
aparecen en el primero y segundo lanzamiento, respectivamente. Sabemos que
E[Y ] =
6

y=1
xP[Y = y] = 3.5, y E[Z] =
6

z=1
zP[Z = z] = 3.5
y, por independencia entre Y y Z,
E[Z[Y ] = E[Z] = 3.5
En este caso, la funci on g es constante como funci on de y, lo que implica que conocer Y no
sirve para predecir Z o no aporta informaci on sobre Z).
Ahora, consideremos la v.a. X = Y + Z . Es claro que X y Y son, ahora, variables
aleatorias dependientes. Entonces,
E[X[Y ] = E[Y + Z[Y ] = E[Y [Y ] +E[Z[Y ] = Y +E[Z] = Y + 3.5
167
Entonces, E[X[Y ] = Y + 3.5 = g(Y ), que es una v.a.
Ostro
Ahora supongamos que lanzamos un dado hasta obtener un seis. Sea Y el n umero total de
lanzamientos del dado, y X el n umero de unos observado. Calcular E[Y [X].
El evento Y = y 1 signica que se realizaron y 1 lanzamientos en los que no se observo
un seis, y que el seis se observ o en el lanzamiento y. Entonces, dado este evento, X tiene
una distribucion Binomial(y 1,
1
5
). Entonces
E[X[Y ] = np =
1
5
(y 1)
que es una funci on de Y .
168
Las siguientes deniciones y resultados requieren de un espacio de probabilidad. Entonces
Sea (, A, P) un espacio de probabilidad
Denici on 1 Sea X una variable aleatoria con esperanza
2
nita, y sea F una sub -
algebra de A. La esperanza condicional de X dado F , E[X[F] , es una variable aleatoria
que cumple:
Es F-medible
Tiene Esperanza nita

_
B
XdP =
_
B
E[X[F]dP B F
Usando el teorema de Radon-Nykodim puede desmostrarse que E[X[F] existe y es unica
casi seguramente.
Proposicion 1 Sean X y Y variables aleatorias con esperanza nita, F una -algebra y c
una constante, entonces
1. E[X[F] = E[X] si X es independiente a F
2. Si X 0 E[X[F] 0
3. E[cX + Y [F] = cE[X[F] +E[Y [F]
4. Si X Y E[X[F] E[Y [F]
5. E[E[X[F]] = E[X]
6. Si X es F-medible E[X[F] = X c.s.
7. Si XY es integrable
3
y X es F-medible E[XY [F] = XE[Y [F]
8. Si F
1
F
2
E[E(X[F
2
)[F
1
] = E[X[F
1
]
2
E[X] :=
_

XdP
3
Una v.a. X es integrable si E[[X[] <
169
Y c omo denimos la esperanza condicional dada una variable aleatoria, como las de la in-
troducci on, es decir, E[X[Y ]?
Denici on 2 Sea (, A, P) un espacio de probabilidad, X (, A, P), integrable, y sea
Y (, A, P) otra variable aleatoria. Se dene la esperanza condicional de X dado Y, como
E[X[ (Y )]
Mas ejemplos: Jaula con tres puertas
Un prisionero est a encarcelado en una jaula que tiene tres puertas.
La puerta 1 lo lleva inmediatamente a la libertad.
La puerta 2 lo conduce a un tunel que lo regresa a la misma jaula despues de un da de
trayecto.
La puerta 3 lo lleva, tambien, a un tunel que lo regresa a la misma jaula despues de tres
das de trayecto.
La probabilidad de escoger cualquiera de las puerta es la misma: p =
1
3
.
Suponemos que si regresa a la jaula, inicia el mismo proceso de nuevo como si hubiera
olvidado sus experiencias pasadas con la elecci on de las puertas. Entonces
Cual es el valor esperado del tiempo que tardara el prisionero, hasta que este
en libertad?
Sol.
Sea X la v.a. que determina el tiempo hasta que el prisionero consiga la libertad, y Y la
v.a. que determina el n umero de la puerta elegida inicialmente. Observamos que
E[X[Y = 1] = 0
E[X[Y = 2] = 1 +E[X]
E[X[Y = 3] = 3 +E[X]
170
Ahora, utilizando la propiedad 5 de la esperanza condicional, tenemos
E[X] = E[E[X[Y ]]
=
1
3
E[X[Y = 1] +
1
3
E[X[Y = 3] +
1
3
E[X[Y = 3]
=
1
3
(0 + 1 +E[X] + 3 +E[X])
=
1
3
(4 + 2E[X])
Por lo tanto: E[X] = 4 das
Ejemplo 2
Sean X
1
, X
2
, ..., X
n
variables aleatorias i.i.d. con esperanza com un . Denimos la v.a.
S
n
= X
1
+ X
2
+ + X
n
Para m < n tenemos
E[S
n
[X
1
+ X
2
+ + X
m
] = E[X
1
+ X
2
+ + X
m
[X
1
+ X
2
+ + X
m
] +
E[X
1
+ X
2
+ + X
m
[X
m+1
+ X
m+2
+ + X
n
]
= X
1
+ X
2
+ + X
m
+E[X
m+1
+ X
m+2
+ + X
n
]
= S
m
+ (n m)
Denici on 3 Una ltracion es una coleccion de -algebras F
n

n1
tal que F
m
F
n

m n
En particular, la ltraci on natural o can onica de un proceso X
n
es aquella sucesi on de
- algebras denidas por F
n
= X
1
, X
2
, ..., X
n

F
n
contiene la informacion del proceso X
i

i1
hasta el tiempo n
Denici on 4 Se dice que un proceso X
n
es adaptado a la ltracion F
n
si X
n
es F
n
-
medible
171
Denici on 5 Una variable aleatoria con valores en N es un tiempo de paro con
respecto a la ltracion F
n

n1
si n F
n
n N
Equivalentemente = n F
n
Que se interpreta como: La ocurrencia del evento paramos el proceso al tiempo = n,
puede determinarse conociendo solo los valores de X
0
, X
1
, ..., X
n
, i.e., no se requiere conocer
los valores X
n+1
, X
n+2
, ....
Ejemplo
Supongamos que X
n
es una cadena de Markov que representa nuestro capital en dolares,
despues de haber jugado n veces. Podemos pensar en ganar apostando en un casino, y parar
de apostar (jugar) cuando alcancemos una suma deseada, digamos, m d olares.
El tiempo aleatorio, , en el que por primera vez acumulamos m d olares es un tiempo de paro:
= n = X
0
,= m, X
1
,= m, ..., X
n1
,= m, X
n
= m
172
Martingalas
Denici on 6 Un proceso estocastico X
n
es una F
n
-martingala si
1. X
n
es integrable n 1
2. X
n
esta adaptado a F
n

3. E[X
n+1
[F
n
] = X
n
n 1
Implicaciones:
1. E[X
m
[F
n
] = X
n
m n
2. E[E(X
m
[F
n
)[, ] = E[X
m
[, ] = E[X
m
]
E[X
n
] = E[X
m
] m n
Denicion 7 Un proceso estocastico X
n
es una F
n
-submartingala si
1. X
n
es integrable n 1
2. X
n
esta adaptado a F
n

3. E[X
n+1
[F
n
] X
n
n 1
Denici on 8 Un proceso estocastico X
n
es una F
n
-supermartingala si
1. X
n
es integrable n 1
2. X
n
esta adaptado a F
n

3. E[X
n+1
[F
n
] X
n
n 1
La idea de un proceso martingala es la de aquel proceso que tiende estabilizarse en cierto
punto, a saber, su valor esperado, es decir, en promedio no crece ni decrece; en cambio una
submartingala muestra una tendencia de crecimiento; por su parte, una supermartingala
tiende a decrecer.
Ejemplos
Sean X
0
, X
1
, X
2
, ... variables aleatorias i.i.d. con esperanza com un , y
173
M
n
=
n

i=0
X
i
, una caminata aleatoria
ya que
E[M
n+1
[M
0
, M
1
, ..., M
n
] = E[M
n
+ X
n+1
[M
0
, M
1
, ..., M
n
]
= E[M
n
[M
0
, M
1
, ..., M
n
] +E[X
n+1
[M
0
, M
1
, ..., M
n
]
= M
n
+E[X
n+1
]
Entonces, M
n
, n 0 es una Martingala si E[X
i
] = 0; es una Supermartingala si E[X
i
] < 0
y es una Submartingala si E[X
i
] > 0.
Ejemplo 2
Sean X
0
, X
1
, X
2
, ... variables aleatorias i.i.d. con esperanza com un , y
M
n
=
n

i=0
X
i
ya que
E[M
n+1
[M
0
, M
1
, ..., M
n
] = E[M
n
X
n+1
[M
0
, M
1
, ..., M
n
]
= M
n
E[X
n+1
[M
0
, M
1
, ..., M
n
]
= M
n
E[X
n+1
]
Entonces, M
n
, n 0 es una Martingala si E[X
i
] = 1; es una Supermartingala si E[X
i
] < 1
y es una Submartingala si E[X
i
] > 1.
Ejemplo 3
Sean X
0
, X
1
, X
2
, ... variables aleatorias i.i.d. con esperanza com un , y
M
n
=
1

n
n

i=0
X
i
=
1

X
n
M
n1
174
Entonces, M
n
, n 0 es una martingala.
Dado que
E[M
n+1
[M
0
, M
1
, ..., M
n
] = E
_
M
n

X
n+1

[M
0
, M
1
, ..., M
n
_
=
M
n

E[X
n+1
[M
0
, M
1
, ..., M
n
]
=
M
n

E[X
n+1
]
=
M
n

= M
n
Ejemplo 4 (Cocientes de verosimilitudes)
Suponga que X
1
, X
2
, ..., X
n
son variables aleatorias iid con funci on de densidad com un, f,
que es cualquiera de dos diferentes densidades posibles, f
0
o f
1
. Desde el punto de vista es-
tadstico, deseamos elegir entre estas dos densidades aquella que gener o los datos observados
x
1
, x
2
, ..., x
n
. Por lo tanto, planteamos el problema de contraste de hip otesis
H
0
: f = f
0
vs. H
a
: f = f
1
La decision estadstica se basa, com unmente, en el cociente de verosimilitudes

n
=
n

i=1
f
1
(x
i
)
f
0
(x
i
)
Si
n
es grande, entonces los datos dan soporte a favor de la hipotesis alternativa, y contra
la hip otesis nula, por lo que la decision es rechazar esta ultima, y concluimos que la densidad
que genero los datos observados es f
1
. Supangamos ahora que la hipotesis nula es cierta, i.e.,
que los datos observados fueron generados por f
0
. Entonces
175
E
f
0
[
n+1
[
1
, ...,
n
] = E
f
0
_
f
1
(x
n+1
)
f
0
(x
n+1
)

n
[
1
, ...,
n
_
=
n
E
f
0
_
f
1
(x
n+1
)
f
0
(x
n+1
)
[
1
, ...,
n
_
=
n
E
f
0
_
f
1
(x
n+1
)
f
0
(x
n+1
)
_
(por que?)
=
n
_
R
f
1
(x)
f
0
(x)
f
0
(x)dx
=
n
1 =
n
Por lo que la sucesion de cocientes de verosimilitudes es una martingala bajo la hip otesis
nula (en este caso, si la verdadera f que genero los datos es f
0
).
Proposicion 2 Un proceso estocastico X
n
es una martingala si X
n
es submartingala
y supermartingala
176
Teoremas de paro
Entre las razones por las cuales las martingalas son importantes, se encuentran los teoremas
de convergencia de martingalas, que bajo ciertas condiciones de acotamiento nos permiten
concluir la convergencia casi segura (o de otro tipo) de una martingala. Para abordar este
resultado, es importante extender la igualdad E(X
n
) = E(X
0
) para abarcar no solo a tiempos
deterministas como n, sino tambien a ciertos tiempos aleatorios. Entonces, nuestro objetivo
es observar a la martingala a un tiempo que a su vez es una variable aleatoria. En realidad,
trabajaremos con una clase m as reducida de tiempos aleatorios, a saber, los tiempos de paro.
Recuperemos nuestra denicion de tiempo de paro.
Denici on 9 Una variable aleatoria con valores en N es un tiempo de paro con
respecto a la ltracion F
n

n1
si n F
n
n N
Equivalentemente = n F
n
Que mencionamos se interpreta como: La ocurrencia del evento paramos el proceso al
tiempo = n, puede determinarse conociendo solo los valores de X
0
, X
1
, ..., X
n
, i.e., no se
requiere conocer los valores X
n+1
, X
n+2
, ....
Teorema 1 Teorema de Paro Opcional (TPO)
Sea X
n
una F
n
-martingala y un F
n
-tiempo de paro acotado
E[X

] = E[X
n
] n 1
177
Demostracion. Como es acotado entonces n
0
N tal que n
0
por lo que
E[X

] = E
_
n
0

n=1
1
{=n}
X
n
_
=
n
0

n=1
E
_
1
{=n}
X
n

=
n
0

n=1
E
_
E(X
n
0
[F
n
)1
{=n}

ya que X
n
es martingala
=
n
0

n=1
E
_
E(1
{=n}
X
n
0
[F
n
)

pues 1
{=n}
es F
n
medible
=
n
0

n=1
E
_
X
n
0
1
{=n}

= E[X
n
0
]

Teorema 2 Teorema de Paro Opcional (TPO1)


Sea X
n
una martingala y un tiempo de paro nito casi seguramente tal que
1. E[[X

[] <
2. lim
n
E
_
X
n
1
{>n}

= 0
E[X

] = E[X
n
] n 1
Demostracion. Denamos
n
= min, n n tiempo de paro, entonces por el TPO
tenemos
E[X
n
] = E[X
1
]
E[X
1
] = lim
n
E[X
n
]
= lim
n
(E[X
n
1
{n}
] +E[X
n
1
{>n}
])
pero X
n
= X

+ (X
n
X

)1
{>n}
, entonces
E[X
1
] = lim
n
(E[X

1
{n}
] +E[X
n
1
{>n}
])
= lim
n
E[X

1
{n}
]
178
Ahora, notese que [X

1
{n}
[ [X

[ n E[[X

1
{n}
[] E[[X

[] <
adem as, por ser < casi seguramente, se tiene que lim
n
X

1
{n}
= X

, entonces por
el teo. de convergencia dominada lim
n
E[X

1
{n}
] = E[X

]
E[X

] = E[X
n
] n 1

Teorema 3 Teorema de Paro Opcional (TPO2).


Sea X
n
una martingala y un tiempo de paro tales que
1. E[] <
2. E[[X
n+1
X
n
[[F
n
] c para alguna c R
E[X

] = E[X
n
] n 1
Demostracion. Denamos Z
1
= [X
1
[ , Z
n+1
= [X
n+1
X
n
[ n 1
N otese que X

= X
1
+ (X
2
X
1
) + (X
3
X
2
) + ... + (X

X
1
)
[X

[ W :=

k=1
Z
k
=

k=1
Z
k
1
{k}
Adem as,
E[W] = E[[X
1
[] +

k=2
E[Z
k
1
{k}
]
= E[[X
1
[] +

k=2
E[E(Z
k
1
{k}
[F
k1
)]
Observe que si A F 1
A
es F-medible
179
Como k 1 F
k1
> k 1 = k F
k1
, entonces
E[W] = E[[X
1
[] +

k=2
E[1
{k}
E(Z
k
[F
k1
)]
E[[X
1
[] +

k=2
cP( k)
E[[X
1
[] + c

k=0
P( k) 2c
= E[[X
1
[] + c
_

k=0
P( = k) +P( > k)
_
2c
= E[[X
1
[] + c(1 +E[]) 2c <
E[[X

[] E[W] < ...()


Ahora para k N jo tenemos
E[X
k
1
{>k}
] [E[X
k
1
{>k}
][
E[[X
k
[1
{>k}
] por la desigualdad de Jensen
E[[X
k
[1
{k}
]
E[W1
{k}
] 0 cuando k ...()
As, () y () permiten utilizar el TPO1, y nalmente E[X

] = E[X
n
] n

Teorema 4 Teorema de Wald.


Consideremos la caminata aletoria S
n

nN
, S
n
=

n
k=1
X
K
, donde X
k
son variables
aleatorias independientes e identicamente distribuidas tales que E[[X
k
[] < k. Sea F
n
=
X
1
, ..., X
n
. Si es un F
n
-tiempo de paro tal que E[] <
E[S

] = E[]E[X]
Demostracion. Considere el proceso Y
n

nN
dado por Y
n
= S
n
nE[X].
Se puede demostrar f acilmente que Y
n
es una F
n
-martingala.
180
Observese que
E[ [Y
n+1
Y
n
[ [F
n
] = E[ [X
n+1
E[X][ [F
n
]
E[ [X
n+1
[ [F
n
] +E[E[ [X[] [F
n
]
E[ [X[ ] +E[ [X[ ]
= 2E[ [X[ ] <
Entonces por el TPO2 tenemos que
E[Y

] = E[Y
1
] = E[ S
1
E[X] ] = E[X] E[X] = 0
Por otro lado,
E[Y

] = E[ S

E[X] ] = E[S

] E[]E[X]
E[S

] = E[]E[X]
181
Procesos asociados a la teora de ruina
Hasta aqu hemos visto al modelo de perdidas agregadas
S =
N

i=1
X
i
durante un periodo jo de tiempo, e.g., un a no.
Ahora haremos la extensi on para tratarlo como dependiente del tiempo. Es decir
S(t) =
N(t)

i=1
X
i
donde N(t) denota el n umero de reclamaciones que ocurren antes del tiempo, t.
Utilizaremos este modelo dependiente del tiempo para describir el ujo de dinero de una
aseguradora, y determinar caractersticas de la probabilidad de ruina, tanto a corto como a
largo plazo.
Notacion
Denotaremos por
N(t): El n umero aleatorio de reclamaciones generadas por un portafolio en el intervalo de
tiempo [0, t], t 0.
X
i
: el momto de la i-esima reclamaci on, i=1,2,3,....
S(t): El monto de las reclamaciones agregadas en el intervalo [0, t], t 0.
Entonces
X
i

i=1
es una sucesi on de variables aleatorias.
N(t)
t0
es un proceso estocastico
182
S(t)
t0
es un proceso estocastico
Es obvio que
S(t) =
N(t)

i=1
X
i
con S(t) = 0 si N(t) = 0.
Al proceso estoc astico S(t)
t0
denido anteriormente, se le conoce como el proceso de
perdidas agregadas generadas por el riesgo cubierto.
La aseguradora recibe de sus asegurados, el pago de primas correspondientes a la covertura
del portafolio.
Supondremos que estos pagos se reciben a una tasa constante de forma continua. Sea c > 0
esta tasa de pagos por unidad de tiempo. Ya que el total de primas se recibe en el intervalo
de tiempo [0, t], entonces, este total es ct.
Supongamos que al tiempo, t = 0, la aseguradora tiene un capital inicial respecto al
portafolio. Este cantidad inicial de dinero es el capital inicial y lo denotaremos como U.
Asumiremos que U 0.
La aseguradora necesita este capital inicial, porque el ingreso futuro por primas, podra no
ser suciente para cubrir las reclamaciones futuras.
El capital de la aseguradora a cualquier tiempo, t > 0, es una variable aleatoria, ya que
su valor depende de las reclamaciones que se realicen hasta este tiempo. Denotaremos este
capital por U(t)
Entonces, podemos escribir
U(t) = U + ct
N(t)

i=1
X
i
, o
U(t) = U + ct S(t)
183
con U(0) = U.
N otese que el capital inicial y el monto total de las primas, no son variables aleatorias, ya
que se determinan antes de que el proceso de riesgo inicie.
Para un valor dado de t, U(t) es una variable aleatoria, ya que S(t) lo es.
El proceso estoc astico
U(t)
t0
se conoce como el proceso de ujo de dinero o proceso de capital.
La probabilidad de ruina a tiempo continuo
De manera vaga, cuando el capital es negativo, la aseguradora ha perdido todo su dinero
y se dice que esta en ruina o arruinada.
Nuevamente de forma vaga, la ruina puede ocurrir cuando la aseguradora se declara insol-
vente, no obstante, determinar si una compa na de seguros es insolvente es, en la pr actica,
una cuestion muy compleja.
Otra manera de ver esta probabilidad de ruina, es pensarla como la posibilidad de que,
en alg un tiempo futuro, la compa na aseguradora requiera prover m as capital para nanciar
este particular portafolio.
Probabilidades de ruina
Denimos las siguientes dos probabilidades
(U) = P[U(t) < 0, 0 < t < ] y
(U, t) = P[U() < 0, 0 < < t]
(U) se le conoce como la probabilidad de ruina eventual (horizonte innito), dado el
capital inicial, U. Se denota como funci on de U, para hacer enfasis de que dicha probabilidad
depende, entre otros par ametros, del capital inicial del que se disponga.
184
(U, t) es la probabilidad de ruina antes del tiempo, t (horizonte nito), dado el capital
inicial, U.
Algunas relaciones simples y logicas
Enunciamos algunas importantes relaciones logicas entre estas dos probabilidades. Sean
0 < t
1
< t
2
< y U
1
< U
2
, entonces
1. (U
2
, t) (U
1
, t)
(U
2
) (U
1
)
Es decir, a un capital inicial mayor, es menos creible que la ruina ocurra ya sea en
horizonte nito o innito.
2. (U, t
1
) (U, t
2
) (U)
Dado un capital inicial, al prolongar el periodo de tiempo para observar la ruina, es
m as creible que esta ocurra.
3. lim
t
(U, t) = (U)
La probabilidad de ruina a horizonte innito, puede ser aproximada (es similar) a la
probabilidad de ruina a horizonte nito, si t es sucientemente grande.
4. lim
U
(U, t) = 0
Cuando el capital inicial crece, la ruina es cada vez menos creible.
Probabilidades de ruina en tiempo discreto
Las probabilidades de ruina anteriores, son probabilidades de ruina a tiempo continuo, lla-
madas as porque hay un seguimiento continuo de la posibilidad de ruina de la aseguradora.
En la pr actica puede ser posible, y aun deseable, hacer el seguimiento de ruina solo a
intervalos discretos de tiempo.
185
Supongamos que los intervalos son de longitud h. Entonces, denimos las siguientes prob-
abilidades de ruina a tiempo discreto

h
(U) = P[U(t) < 0, t = h, 2h, 3h, ...], y

h
(U, t) = P[U() < 0, = h, 2h, 3h, ..., t h, t]
N otese que se supone, por conveniencia en la denicion de
h
(U, t), que t es un entero
m ultiplo de h.
186
El modelo clasico de Camer-Lundberg
El modelo de Cramer-Lundberg, tiene sus orgenes en la tesis doctoral de Filip Lundberg
que defendi o en el a no de 1903. En este trabajo, Lundberg analiza el reaseguro de riesgos
colectivos y presenta el proceso de Poisson compuesto. Lundberg utiliz o terminos un tanto
distintos a los actuales pues en aquellos a nos a un no se haba formalizado la teora de los
procesos estoc asticos como la entendemos actualmente. En 1930, Harald Cramer retoma
las ideas originales de Lundberg, y las pone en el contexto de los procesos estocasticos, en
ese entonces, de reciente creacion. El modelo se ha estudiado de manera extensa, y se han
propuesto varias formas de generalizarlo y analizado.
Este modelo cl asico de riesgo para la actividad de una compa na de seguros, es el proceso
estocastico a tiempo continuo U(t), t 0, denido por
U(t) = U + ct
N(t)

t=1
X
i
, t 0
con U el capital inicial de la compa na aseguradora, ct es el ingreso por primas hasta
el tiempo, t, con c una constante positiva; X
i
es el monto de la i-esima reclamaci on, y
N(t), t 0 un proceso Poisson de parametro, .
La variable U(t) representa el balance m as simple de ingresos menos egresos de una compa na
aseguradora. Al proceso, U(t), t 0, se le llama proceso de riesgo (risk process), o pro-
ceso de super avit (surplus process), y tiene trayectorias como se muestra en la siguiente gura
187
2 4 6 8 10

2
0
0
2
0
4
0
6
0
Trayectoria del proceso de ruina
tiempo
U
(
t
)

Algunas caractersticas del proceso de riesgo


Las trayectorias del proceso empiezan siempre en U el capital inicial.
Las variables aleatorias X
i
, i = 1, 2, ... son i.i.d., con funci on generadora de momentos
M
X
(t), E(X) =
1
= y E(X
2
) =
2
E[U(t)], es
E[U(t)] = E
_
_
U + ct
N(t)

t=1
X
i
_
_
= U + ct E[N(t)] E(X
i
)
=
..

U + ct t = U + (c ) t
* ya que
N(t)

t=1
X
i
es un Poisson compuesto, con intensidad t.
188
V[U(t)] =
2
t Por el mismo argumento anterior.
La trayectoria promedio de este proceso de riesgo es la lnea recta que inicia en U > 0 y
tiene pendiente c , que es positiva por la condici on o hip otesis de ganancia neta (enun-
ciada posteriormente). La variable aleatoria U(t) puede interpretarse como el capital de
la compa na aseguradora al tiempo, t, y por razones naturales y legales es importante que
U(t) este por arriba de cierto nivel mnimo. Supongamos que tal nivel mnimo es a, con
0 < a < U. Ajustando el capital inicial, U, esto es, suponiendo un nuevo capital inicial de
magnitud U a, se puede suponer, sin perdida de generalidad, que este nivel mnimo es cero,
y as lo haremos en nuestro an alisis. De esta forma cuando U(t) 0 para alg un t > 0 se dice
que hay ruina. La ruina casi nunca sucede en la practica, es solamente un termino tecnico
que produce alguna toma de decision. Por ejemplo, si el capital de una compa na aseguradora
asignado a una cartera decrece en forma signicativa, autom aticamente la aseguradora puede
tomar ciertas medidas para subsanar esta situacion y no se trata de un evento insalvable.
Por otro lado es natural suponer que la compa na aseguradora posea varios portafolios de
modo que ruina en uno de ellos no signica necesariamente bancarrota que el termino ruina
podra sugerir.
La condicion de ganancia neta
Sean T
0
, T
1
, T
2
, ... los tiempos aleatorios en donde la aseguradora recibe las reclamaciones.
Supondremos T
0
= 0. Para cada entero k 1 denamos la variable aleatoria Y
k
=
c (T
k
T
k1
) X
k
, que pueden interpretarse como el balance de la compa na aseguradora
entre dos siniestros sucesivos. La esperanza de esta variable es
E(Y
k
) = cE(T
k
T
k1
) E(X
k
) = c
_
1

Se puede demostrar que la ruina ocurre casi seguramente si, y solo si, E(Y
k
) 0. Como no
deseamos que la ruina ocurra, debemos suponer que E(Y
k
) > 0, es decir, supondremos que
se tiene la condicion de ganancia neta
c >
Que interpretamos de la siguiente forma: en promedio, la entrada por primas por unidad de
189
tiempo, c, es mayor que el total de reclamaciones por unidad de tiempo, .
190
Probabilidades de ruina con el modelo Carmer-Lundberg
Nos interesa calcular o estimar la probabilidad de una eventual ruina (horizonte innito) en
el modelo de Cramer-Lundberg.
Denamos el tiempo de ruina, , como el primer momento en que la ruina se presenta, es deir
= inf t > 0 : U(t) 0
y se dene inf = . Por lo que es una variable aleatoria que toma valores en el intervalo
(0, ]. Recordemos que, dado un valor, t > 0 jo, habamos denido la probabilidad de
ruina en el intervalo (0, t], llamada probabilidad de ruina a horizonte nito, como
(U, t) = P( t[U(0) = U)
Y esta misma probabilidad de ruina a horizonte innito, como
(U) = P( < [U(0) = U)
Probabilidad de ruina a horizonte innito
Ahora presentaremos tres resultados generales sobre la probabilidad de ruina con horizonte
innito. Denotaremos como F(y) a la funci on de distribuci on de cualquiera de las reclama-
ciones, Y, y funcion de supervivencia como

F(y) = 1 F(y). La correspondiente funci on de
densidad sera denotada por f(y), siempre que exista.
Proposicion. Sea

(U) = 1 (U). Supongamos que la distribiuci on de cualquier recla-
maci on en el modelo de Cramer-Lundberg es absolutamente continua, con funcion de densi-
dad f(y). Entonces
1.-
d
dU

(U) =

c
_

(U)
_
U
0

(U y) f(y)dy
_
2.- (0) =

c
191
3.- (U) =

c
__

U

F(y) +
_
U
0
(U y)

F(y)dy
_
Dem.
Demostracion. Para hacer la demostraci on del punto 1, condicionaremos al monto de la
primera reclamaci on Y
1
y el momento T
1
en el que ella ocurre. Usaremos adem as el hecho
de que T
1
tiene distribuci on exp(), ya que es el tiempo que ocurre antes de la primer recla-
maci on, que, en este modelo de Cramer-Lundberg, tiene distribucion Poisson. Entonces

(U) = P(No ruina en (0, )[U(0) = U)


=
_

0
_

0
P(No ruina en (0, )[U(0) = U, Y
1
= y, T
1
= t) f(y)f
T
1
(t)dydt
=
..

_

0
_
U+ct
0
P(No ruina en (0, )[U(0) = U, Y
1
= y, T
1
= t) f(y)f
T
1
(t)dydt
=
_

0
e
t
_
U+ct
0
P(No ruina en (0, )[U(0) = U, Y
1
= y, T
1
= t) f(y)dydt
=
..

_

0
e
t
_
U+ct
0

(U + ct y) f(y)dydt
* Ya que si no hay ruina para Y = Y
1
, entonces (U) 0 U +ct Y
1
0 Y
1
U +ct
** Ya que, por el punto * este es un valor de U para el que la ruina no se presenta, por lo
tanto, lo que se presenta es el complemento de (U), es decir,

(U). Si hacemos el cambio
de variable: s = U + ct, que implica t = (s U) /c y ds = cdt, tenemos que

(U) =

c
e
U/c
_

U
e
s/c
_
s
0

(s y) f(y)dyds
Derivando esta expresi on respecto a U, utilizando el teorema fundamental del calculo, obten-
emos la relaci on deseada.
192
Para derivar el segundo inciso, integramos en el intervalo [0, U], la expresion en 1. Y obten-
emos
_
U
0
d
ds

(s) =

(U)

(0) =

c
__
U
0

(x)
_
U
0
_
x
0

(x y) dF(y)dx
_
=

c
__
U
0

(x)
_
U
0
_
U
y

(x y) dxdF(y)
_
(x y > 0 x > y)
=
..

c
__
U
0

(x)
_
U
0
_
Uy
0

(x) dxdF(y)
_
=

c
__
U
0

(x)
_
U
0
_
Ux
0

(x) dF(y)dx
_
=

c
__
U
0

(x)
_
U
0

(x) F(y)

Ux
0
dx
=

c
_
U
0

(x) [1 F (U x)] dx
=

c
_
U
0

(x)

F(U x)dx
=

c
_
U
0

(U x)

F(x)dx (1)
=

c
_
U
0

(U x)

F(x)1
[0,U]
(x)dx
* Ya que si x=y, entonces, el lmite inferior de la integral es cero y si x=U, el lmite superior
es u-y.
Ahora, solo resta tomar lmite cuando U . En el lado derecho de la igualdad tenemos
lim
U
_

(U)

(0)
_
= 1

(0) (Ya que si U entonces la ruina ocurre con probabili-
dad uno). En el lado izquierdo ocurre que

(U x) es una funci on mon otona creciente que
converge a uno, entonces, esta integral converge a la integral
_

0

F(x)dx =
_

0
[1 F(x)] dx
193
Y recordando que
E(X) =
_

0

F(x)dx =
_

0
[1 F(x)] dx =
Finalmente tenemos que
1

(0) =

c
por lo que
(0) = 1

(0) =

c
(2)
Para probar el ultimo inciso, usaremos los resultados (1) y (2), de la siguiente forma
Primero tenemos que

c
_
U
0

(U x)

F(x)dx =
..
1

(U)

(0)
= 1 (U)

(0)
=
..
2

c
(U)
Entonces
194
(U) =

c
_

_
U
0

(U x)

F(x)dx
_
=

c
_

_
U
0
(1 (U x))

F(x)dx
_
=

c
_

_
U
0

F(x)dx +
_
U
0
(U x)

F(x)dx
_
=

c
__

0

F(x)dx
_
U
0

F(x)dx +
_
U
0
(U x)

F(x)dx
_
=

c
__

U

F(x)dx +
_
U
0
(U x)

F(x)dx
_
Observese que la ultima expresion corresponde a una forma recursiva para encontrar la
probabilidad de ruina. En general no es f acil resolver este tipo de ecuaciones, de modo que
unicamente nos limitaremos a encontrar algunas estimaciones de las mismas. Sin embargo,
cuando las reclamaciones tienen distribucion exponencial el sistema es soluble como se mues-
tra a continuacion.
Ejercicio. Encontraremos la probabilidad de ruina, en el modelo de Camer-Lundberg, cuando
las reclamaciones son exponenciales ().
En este caso, sabemos que E(X) =
1

. Entonces, la probabilidad de no ruina es

(u) =

c
_

(u) e
u
_
u
0

(y)e
y
dy
_
Entonces, derivando esta expresion obtenemos la ecuacion diferencial

(u) =
_

c

_

(u)
cuya soluci on es
(u) = a + be
(/c)u
195
Utilizando las condiciones iniciales (0) =

c
(observemos aqu que la media de la expo-
nencial es
1

, no como la habamos denotado antes) y () = 0 (recordar que si el capital


inicial U es innito, la ruina jam as se presenta). Estas dos condiciones iniciales generan el
sistema de ecuaciones

c
= a + b
0 = a
que tiene la soluci on: a = 0 y b =

c
. Por lo que la solucion queda como
(u) =

c
e
(/c)u
cuya gr aca se encuentra en la siguiente gura. Observe que debido a la condici on de ganan-
cia neta, el exponente
_


c
_
es negativo, y por lo tanto la probabilidad de ruina decae
a cero exponencialmente cuando el capital inicial, U, crece a innito.
196
0.0 0.2 0.4 0.6 0.8 1.0
0
2
4
6
8
1
0
Grfica probabilidad de ruina exponencial
u
c
(u)
197
Coeciente de ajuste
Una aproximaci on para la probabilidad de ruina bajo el estudio de un horizonte innito, es
la que proporciona el coeciente de ajuste de Lundberg. Se trata de un instrumento util para
conseguir lmites para la probabilidad de ruina. Para eso es preciso denir previamente el
Coeciente de Ajuste. Denamos primero la funcion
(r) = (M
Y
(r) 1) cr
con M
Y
(r) la funci on generadora de momentos de Y . Por supuesto, esta funci on est a denida
para los valores de r en donde M
Y
(r) existe. Entonces, suponiendo que esta funcion es difer-
enciable, tenemos que

(r) = M

Y
(r) c

(r) = M

Y
(r) = E
_
Y
2
e
rY
_
> 0
Por lo tanto, es una funcion estrictamente convexa, con (0) = 0. Y por la condici on de
ganancia neta, (c > ), se tiene que

(0) = M
Y
(0) c = c < 0. Entonces, es posible que exista un valor R > 0 tal que
(R) = 0. Observese la siguiente gura
198
0.0 0.5 1.0 1.5 2.0 2.5 3.0

2
0
2
4
6
Grfica coeficiente de ajuste
r

(
r
)
199
Def. A la posible soluci on, R > 0, de la siguiente ecuacion se le llama coeciente de ajuste,
o exponente de Lundberg.
(R) = (M
Y
(R) 1) cr = 0
Observese que la existencia del coeciente de ajuste depende totalmente de la distribuci on
de las reclamaciones. Aquellas distribuciones para las que el coeciente de ajuste existe se
les llama distribuciones con colas ligeras, y la raz on de ello es que la funci on de densidad
decae a cero exponencialmente, asignando probabilidades peque nas a reclamaciones grandes.
Este hecho signica que la distribuci on tiene momentos nitos, y M
Y
existe. Por ejemplo,
demostraremos a continuaci on que en el caso de reclamaciones exponenciales (distribuci on
con colas ligeras), el coeciente de ajuste existe y es f acil calcularlo.
Ejemplo. Montos de reclamacion con distribucion exponencial. Supongamos que
Y
i
Exp (), con funci on generadora de momentos dada por M
Y
(r) =

r
, r < . En-
tonces
(r) = (M
Y
(r) 1) cr
=
_

r
1
_
cr
=
_
r
r
_
cr
=
_

r
c
_
r
Por lo que (r) = 0 r = 0, o

r
c = 0. Esta segunda ecuacion implica
R = r =

c
M as a un, recordando el resultado que obtuvimos al calcular la probabilidad de ruina cuando
los montos de reclamaci on eran exponenciales, esta probabilidad de ruina puede escribirse
de la siguiente forma
200
(u) =

c
e
(/c)u
=

c
e
Ru
e
Ru
La desigualdad es consecuencia de la condici on de ganancia neta.
c > , en este caso c >
1

c > y

c
< 1
Este tipo de cota superior para la probabilidad de ruina (llamada desigualdad de Lundberg)
la demostremos m as adelante, para cualquier distribuci on de las reclamaciones para la que
el coeciente de ajuste exista.
Ostro ejemplo (Reclamaciones con distribucion gamma). Supongamos que las reclama-
ciones se distribuyen gamma(, ) con = 2. Con funci on generadora de momentos
M
Y
(r) =
_

r
_

, r <
Por lo que
(r) =
__

r
_

1
_
cr
El requerimiento (r) = 0, genera la ecuacion cuadr atica
cr
2
+ r ( 2c) + (c
2
2) = 0
cuyas races, son
r =
2c

2
+ 4c
2c
El caso con raz cuadrada positiva no es valido pues resulta r > . En efecto, utilizando la
condici on de ganancia neta, c >
2

, tenemos
201
2c +

2
+ 4c
2c

2c +

2
+ 8
2
2c
= +

c
>
por lo que la raz con el signo negativo es el coeciente de ajuste.
Ejemplo (Reclamaciones con distribucion gamma) En el ejemplo anterior, el hecho de asig-
narle al par ametro de la distribuci on gamma, el valor dos, fue premeditado para obtener
una ecuaci on de segundo grado, si asignamos el valor de = 3, obtenemos la ecuacion c ubica
f(r) =
_

3
( r)
3
_
cr ( r)
3
= 0
La raz, r, que buscamos es tal que por condiciones de existencia de la funcion generadora
de momentos debe satisfacer 0 < r < . Para ilustrar el c alculo con R de la solucion de esta
ecuaci on, tomaremos = 3, = 1 y c=2. Estos valores aseguran que se cumple la condici on
de ganancia neta: c >
3

.
202
0 1 2 3 4 5

2
0
0
2
0
4
0
6
0
8
0
1
0
0
Grfica coeficiente de ajuste gamma
r

(
r
)
R
f < function(x)(9 (3 x)
3
) 2 x (3 x)
3
uniroot(f, c(0, 10))
root [1]1.737766
f.root [1] 0.000450224
iter [1]10
estim.prec [1]6.103516e 05
El siguiente resultado proporciona una forma equivalente de denir el coeciente de ajuste,
permite, adem as, comprobar su existencia a traves de la determinaci on del car acter nito de
una integral, y posibilita dar una interpretaci on de aquellas distribuciones de probabilidad
para las cuales el coeciente de ajuste existe.
Proposicion. La ecuacion (r) = (M
X
(r) 1) cr = 0 tiene una posible solucion r > 0 si,
y solo si, se cumple la identidad
203
_

0
e
rx

F(x)dx =
c

con

F = 1 F(x), y F(x), la funci on de distribuci on de los montos de reclamacion.
Dem
Recordemos que la funci on generadora de momentos de una v.a. X, se dene como
M
X
(r) =
_

0
e
rx
f(x)dx =
_

0
e
rx
dF(x)dx =
_

0
e
rx
d

F(x)dx
Integrando por partes la ultima expresi on en la funci on generadora de momentos
Sea u = e
rx
du = re
rx
dx y dv = d

F(x) V =

F(x). Por lo que
_

0
e
rx
dF(x)dx =
_
e
rx

F(x)

_

0
re
rx

F(x)dx
_
Ya que por hipotesis la funci on generadora de momentos existe, entonces e
rx

F(x)

= 0 y
e
rx

F(x)

0
= 1 (esto implica que el decaimiento en las colas de la distribucion de F(x), es
mayor al crecimiento de e
rx
). Entonces
_

0
e
rx
dF(x)dx =
_
1
_

0
re
rx

F(x)dx
_
Por lo tanto
_

0
e
rx
dF(x)dx = 1 +
_

0
re
rx

F(x)dx
Ahora, ya que
204
0 = (r)
= (M
X
(r) 1) cr
=
__

0
e
rx
dF(x)dx 1
_
cr
= r
_

0
e
rx
d

F(x)dx cr (despejando del resultado anterior)
Entonces, despejando esta ultima igualdad, tenemos
_

0
e
rx
d

F(x)dx =
c

Ejemplo Usaremos este criterio para demostrar que para la distribucion Weibull existe el
coeciente de ajuste, si el par ametro de forma, 1. En este caso tenemos que
f(x, , ) = (t)
1
e
(t)


F = e
(t)

Entonces
_

0
e
rx
d

F(x)dx =
_

0
e
rx
e
(x)

dx
=
_

0
e
rx(x)

dx
Esta integral existe si rx (x)

0 rx (x)

x x

1.
Ejemplo 2. Veamos que pasa con la distribucion Burr y este coeciente. Esta variable tiene
funci on de distribuci on dada por
F(x) = 1
_
k
k + x

, x 0, > 0, > 0
205
Por lo que

F(x) =
_
k
k + x

. Entonces
_

0
e
rx
d

F(x)dx =
_

0
e
rx
_
k
k + x

dx

_

0
e
rx
x

dx =
Por lo tanto la distribuci on Burr es una distribucion con colas pesadas.
Comentamos en el desarrollo de este coeciente de ajuste que, para que exista, la cola de la
distribuci on, F, debe decaer a cero lo sucientemente r apido para anular el comportamiento
creciente del termino, e
rx
dentro de la integral. En el ejemplo de la distribucion Burr, la cola
decae a cero en la forma, x

que resulta insuciente para hacer que la integral sea nita.


Una distribuci on con cola ligera asigna probabilidades muy peque nas a los valores grandes de
la variable aleatoria. Esto puede representar un inconveniente para modelar algunos riesgos
que pudieran registrar grandes montos en las reclamaciones.
Desigualdad de Lundberg
Vamos a demostrar ahora que para aquellas distribuciones para las cuales el coeciente de
ajuste, R, existe, se cumple la desigualdad (u) < e
Ru
. Para demostrar este resultado
haremos uso de la teora de martingalas.
Proposicion. Sea U(t) el proceso de riesgo, y sea (r) = (M
X
(r) 1) cr. Entonces, el
proceso
_
e
rU(t)(r)t
: t 0
_
es una martingala.
Utilizaremos la denicion, equivalente a la que dimos antes, de martingala siguiente
Def. Un proceso M
t
: t 0 que es adaptado e integrable es una martingala si para
0 s t, se cumple que
E(M
t
[F
s
) = M
s
con F
s
una ltracion.
206
Dem. Que el proceso es adaptable es claro pues, implcitamente, estamos usando la ltraci on
natural, F
t
= X
s
: 0 s t.
Para demostrar que es integrable, consideremos los siguientes c alculos
E
_
e
rU(t)(r)t
_
= e
(r)t
E
_
e
r

u+ct

N(t)
j=1
Y
j

_
= e
(r)tr(u+ct)
E
_
e
r

N(t)
j=1
Y
j
_
= e
(r)tr(u+ct)
M
S(t)
(r)
= e
(r)tr(u+ct)
e
t(M
Y
(r)1)
<
..

* Ya que (r)t = t (M
Y
(r) 1) +crt. Entonces, el exponente de la funci on exponencial
es
t (M
Y
(r) 1) + crt ru crt + t (M
Y
(r) 1) = ru
Y para demostrar que se cumple la propiedad de martingala: E(M
t
[F
s
) = M
s
. Para 0
s < t
E
_
e
rU(t)(r)t
[F
s
_
= e
(r)t
E
_
e
rU(t)
[F
s
_
= e
(r)t
E
_
e
r(U(t)U(s))rU(s)
[F
s
_
= e
(r)trU(s)
E
_
e
r(U(t)U(s))
[F
s
_
= e
(r)trU(s)
E
_
e
r(c(ts)

N(t)
j=N(s)+1
Y
j
)
[F
s
_
= e
(r)trU(s)rc(ts)
E
_
e
r

N(t)
j=N(s)+1
Y
j
[F
s
_
= e
(r)trU(s)rc(ts)
E
_
e
r

N(ts)
j=1
Y
j
[F
s
_
= e
(r)trU(s)rc(ts)
e
(ts)(M
Y
(r)1)
= e
rU(s)(r)s
= M
s
207
En particular, si el coeciente de ajuste existe, es decir, si (R) = 0, entonces el proceso,
_
e
RU(t)
_
es una martingala. Este es el resultado clave para demostrar la siguiente cota
superior para la probabilidad de ruina.
Desigualdad de Lundberg. Suponga que el coeciente de ajuste R existe. Entonces
(u) e
Ru
Dem. Sea el tiempo de paro correspondiente al tiempo (momento) de ruina. Como el
proceso
_
e
RU(t)
_
es una martingala, se tiene que el proceso
_
e
RU(t)
_
tambien es una
martingala, que inicia en e
Ru
, ya que U(t) = u + ct
N(t)

j=1
Y
j
U(0) = u entonces el
proceso,
_
e
RU(t)
_
, inicia en e
Ru
. Por lo tanto
e
Ru
= e
RU(0)
= E
_
e
RU(t)
_ _
Porque e
RU(t)
, es matingala
_
= E
_
e
RU(t)
[ t
_
P( t)
+E
_
e
RU(t)
[ > t
_
P( > t)
E
_
e
RU(t)
[ t
_
P( t)
= E
_
e
RU()
[ t
_
P( t)
=
__
e
RU()
1
t
dP
_
P( t)
Si hacemos que t , entonces, el evento ( t) tiende de manera mon otona al evento
( < ). Utilizando el teorema de convergencia mon otona se obtiene entonces que
208
e
Ru
E
_
e
RU()
[ <
_
P( < )
> E(1[ < ) P( < )
= P( < )
= (u)
por lo tanto, se tiene la desigualdad de Lundberg
(u) e
Ru
0 2 4 6 8 10
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
1
.
0
Desigualdad de Liundberg
u

(
u
)
e
Ru
Ejemplo Supongamos que la distribuci on de las reclamaciones es Exp(1) y que el tiempo
entre dos eventos Poisson se distribuye como Exp(2); adem as, la tasa constante de pago de
primas es c = 2.4 miles de pesos. Calcular el coeciente de ajuste para este caso.
Lo primero que hay que hacer es calcular R. Recordemos que para este caso
R =

c
= 1
2
2.4
= 0.1666667
209
Por lo que la desigualdad de Lundber es
(u) e
0.1666667u
El calculo con R es
adjCoef(mgf.claim = mgfexp(x), mgf.wait = mgfexp(x, 2), premium.rate = 2.4, upper =
1)
[1]0.1666667
Uno mas complicado
adjCoef(mgf.claim = mgfgamma(x, 3, 3), mgf.wait = mgfexp(x, 1), premium.rate =
2, upper = 1)
[1]0.8404738
210
Cotas para el coeciente de ajuste
Como hemos visto, el coeciente de ajuste no siempre existe, y a un cuando conozcamos su
existencia no siempre es facil calcularlo. El siguiente resultado proporciona algunas cotas
para el valor de este coeciente, suponiendo su existencia.
Proposicion Si el coeciente de ajuste, R, existe, entonces
1
M
ln
_
c

_
< R <
2 (c )

2
Demostracion para la cota superior. Consideremos nuevamente la funcion (r) = (M
X
(r) 1)
cr, para r 0. Sabemos que (0) = 0. Derivando dos veces esta funcion tenemos

(r) = M

Y
(r) c

(r) = E
_
Y
2
e
rY
_
> E(Y
2
) =
2
De donde tenemos que

(0) = c. Ademas, utilizando el teorema fundamental del


c alculo, tenemos que
_
r
0

(s)ds =

(r)

(0)

(r) =

(0) +
_
r
0

(s)ds > c +
_
r
0

2
dr = c +
2
r
Integrando ambos lados de la desigualdad, tenemos
(r) = (0) +
_
t
0

(s)ds > ( c) t +
2
r
2
2
Evaluando esta desigualdad en la raz, R, obtenemos
0 > ( c) R +
2
R
2
2
=
_
( c) +
2
R
2
_
R
211
Ya que R > 0, entonces, para que la expresi on en la derecha de la desigualdad sea negativa,
debe suceder que
( c) +
2
R
2
< 0 R <
2 (c )

2
Para la cota inferior tenemos
Supongamos Y M c.s. y denamos la funci on
h(x) =
x
M
_
e
RM
1
_

_
e
Rx
1
_
Entonces, tenemos que h

(x) = R
2
e
Rx
< 0. Por lo tanto, h, es concava, con h(0) = h(M) =
0, que implica que h(x) > 0 para x (0, M). Es decir
x
M
_
e
RM
1
_

_
e
Rx
1
_
> 0
equivalentemente
_
e
Rx
1
_
<
x
M
_
e
RM
1
_
(1)
Ahora, consideremos la funcion g(x) = xe
x
e
x
+1. Entonces tenemos que g

(x) = xe
x
> 0.
Por lo tanto, g(x) es creciente, y g(x) > g(0) = 0. Es decir g(x) = xe
x
e
x
+1 > 0, si x > 0.
Si evaluamos esta funci on en x = RM > 0, tenemos g(x) = RMe
RM
e
RM
+1 > 0. Por lo que
e
RM
1
RM
< e
RM
Por otro lado, y utilizando (1), tenemos
212
M
Y
(R) 1 =
_
M
0
_
e
Rx
1
_
dF(x)

..
(1)
_
M
0
x
M
_
e
RM
1
_
dF(x)
=
1
M
_
e
RM
1
_
_
M
0
xdF(x)
=

M
_
e
RM
1
_
(2)
Ahora, utilizando (2) y despues (1), obtenemos
0 = (M
Y
(R) 1) cR

..
(2)

M
_
e
RM
1
_
cR
<
..
(1)
Re
RM
cR
=
_
e
RM
c
_
R
de donde tenemos que e
RM
c > 0. Y nalmente
1
M
ln
_
c

_
< R
Observese que la cota superior no requiere de hip otesis adicionales, de modo que cuando el co-
eciente de ajuste, R, existe, este se encuentra siempre dentro del intervalo
_
0,
2 (c )

2
_
.
Observe tambien que cuando las reclamaciones est an acotadas superiormente por una con-
stante positiva, M, puede encontrarse una cota superior para la probabilidad de ruina sin
conocer, necesariamente, el coeciente de ajuste pues
(u) < e
Ru
<
..

u
M
ln(
c

)
= e
ln(

c
)
u
M
=
_

c
_ u
M
213
*Multiplicando la cota superior por -u.
214
Aproximaciones al modelo de Carmer-Lundberg
Aproximacion de De Vylder
Consideremos nuevamente el modelo de Cramer-Lundberg
U(t) = U + ct
N(t)

j=1
Y
j
donde las reclamaciones Y
j
tienen una distribucion desconocida. La aproximacion propuesta
por De Vylder consiste en aprovechar el hecho de que, para este modelo, el problema de
encontrar la probabilidad de ruina es completamente soluble cuando las reclamaciones son
exponenciales. De Vylder propone la siguiente reformulacion del modelo

U(t) = u +ct

N(t)

j=1

Y
j
c una nueva tasa de ingreso por primas,
_

N(t) : t 0
_
, un proceso Poisson de par ametro

, y

Y
j
variables aleatorias con distribucion exp( ). La idea es aproximar la probabilidad
de ruina del modelo original de riesgo, por medio de este modelo reformulado. Para ello se
deben encontrar los valores de los par ametros, c,

y , en terminos de los parametros del
riesgo original, como lo mostramos en seguida.
Proposicion. La probabilidad de ruina del riesgo en el modelo de Carmer-Lundberg, puede
aproximarse por la f ormula
(u)

c
e

c
u

, con
=
3
2

3
,

=
9
2

3
2

2
3
, c = c +
3
2

2
2

3
Dem. El metodo consiste en igualar los tres primeros momentos de los procesos U(t) y

U(t),
asumiendo que estos existen.
215
Igualaci on de las esperanzas. Es decir, hay que encontrar las condiciones bajo las que
E[U(t)] = E
_

U(t)
_
. Entonces, tenemos que
E[U(t)] = U + ct t = U +ct

1

t = E
_

U(t)
_
c = c +

1

Igualaci on de varianzas (Igualaci on de los segundos momentos). El siguiente paso es igualar
las varianzas. Recordemos que la varianza de un riesgo, S, que sigue un modelo de perdidas
agregadas Poisson(), est a dada por V(S) =
2
. Entonces, igualando las varianzas de
estos dos procesos, tenemos
V[U(t)] =
2
=

2

2
= V
_

U(t)
_
Igualadad entre los terceros momentos. Finalmente, recordemos que el tercer momento cen-
tral de un riesgo, S, que sigue un modelo colectivo Poisson(), esta dado por E
_
(S E(S))
3

.
En este caso del modelo de perdidas, tenemos
E
_
(U(t) E(U(t)))
3

=
3
=

6

3
= E
_
_

U(t) E(

U(t))
_
3
_
S olo resta igualar convenientemente estas ecuaciones para encontrar los parametros de in-
teres. De las igualdades de la varianza y tercer momento, se desprende que
1
2

2

2
=
1
6

3

3
=
3
2

3
Ahora, sustituyendo este valor en la ecuacion generada al igualar las varianzas, tenemos

=
9
2

3
2

2
3
216
Finalmente, sustituyendo estos dos valores en la igualdad entre las esperanzas, tenemos
c = c +
3
2

2
2

3
Entonces, hemos encontrado los valores de los parametros del modelo reformulado:

, , c,
en terminos de los del modelo original , c y de los momentos de la distribuci on de las
reclamaciones, Y.
Formula de Pollaczec-Khinchin
La formula de Pollaczek-Khinchin es una expresi on general que permite escribir a la proba-
bilidad de ruina en terminos de una serie innita de convoluciones.
Proposicion (F ormula de Pollaczec-Khinchin). La probabilidad de ruina en el modelo de
Cramer-Lundberg est a dada por
(u) = (1 p)

n=1
p
n

H
(n)
(u)
con p =

c
, y H(x) =
1

_
x
0

F(y)dy, x 0
Con la esperanza de la distribuci on asociada al monto de reclacion. Claramente es muy
difcil de utilizar esta serie para calcular la probabilidad exacta de ruina, debido a su caracter
innto. No obstante, se usa ampliamente para calcular aproximaciones de probabilidades de
ruina.
Dem
Primero veamos que la variable aleatoria 1 (u) corresponde a la distribuci on de una
variable geometrica compuesta con par ametros
_
1 p = 1

c
, H

_
(Recordemos que la
probabilidad de exito se toma como q=1-p). Efectivamente, sea
N Geo
_
1

c
_
, y
217
X =
n

i=1
Y
i
tales que Y
1
, Y
2
, ..., Y
n
son variables aleatorias independientes con distribuci on H(y). En-
tonces
(x) = P(X x) =

n=0
P(X x[N = n) (1 p)p
n
=

n=0
(1 p)p
n
H
(n)
Entonces
1 (u) = =

n=0
(1 p)p
n
_
1 H
(n)
_
=

n=0
(1 p)p
n

H
(n)
= (1 p)

n=1
p
n

H
(n)
(u)
=
_
1

c
_

n=1
_

c
_
n

H
(n)
(u)
Para utilizar esta f ormula y obtener aproximaciones de las probabilidades de ruina, la com-
binaremos con el algoritmo de Panjer. En general no es facil calcular las convoluciones de la
funci on de distribuci on, H(u), ni tampoco calcular la suma innita en esta formula. No ob-
stante, pueden llevarse a cabo simulaciones de esta variable aleatoria, calcular la magnitud de
las colas y conocer de manera aproximada la probabilidad de ruina cuando las reclamaciones
tienen una distribucion continua arbitraria. Mostremos esta f ormula de Pollaczek-Khinchin
para reclamaciones exponenciales, y comparemosla con la f ormula exacta ya conocida para
218
este caso.
Entonces, supongamos que las reclamaciones tiene distribuci on exponencial de parametro .
Primero veamos que H(u) es nuevamente la funci on de distribuci on de una exponencial ().
H(u) =
1

_
u
0

F(y)dy =
1
1

_
u
0
e
y
dy
=
_
y
e
y

u
0
=
_

e
u

+
1

_
= 1 e
u
Por lo tanto, H
(n)
(u) se distribuye gamma(n, ), y su distribuci on es
H
(n)
(u) =

k=n
e
u
(u)
k
k!
cuya funci on de supervivencia es
H
(n))
(u) =
n1

k=0
e
u
(u)
k
k!
Entonces tenemos que
219

n=1
p
n
H
(n)
(u) =

n=1
n1

k=0
p
n
e
u
(u)
k
k!
=

k=0

n=k+1
p
n
e
u
(u)
k
k!
=

k=0
e
u
(u)
k
k!

n=k+1
p
n
=

k=0
e
u
(u)
k
k!
p
k+1

n=0
p
n
=
p
1 p

k=0
e
u
(pu)
k
k!
=
p
1 p
e
u
e
pu
=
p
1 p
e
(1p)u
continuando con este desarrollo, tenemos entonces que de acuedo a esta formula de Pollaczek-
Khinchin
(u) = (1 p)

n=1
p
n
H
(n)
(u)
= (1 p)
p
1 p
e
(1p)u
= pe
(1p)u
=

c
e
(

c
)u
que es el modelo de Cremer-Lundgber ya conocido para esta distribuci on.
Ejemplo. Utilizaremos R para aproximar las probabilidades de ruina de algunos modelos.
Supongamos que las reclamaciones siguen una distribuci on Pareto (5,4), la tasa de intensidad
Poisson es = 1 y tasa de primas por unidad de tiempo, c = 30. Ya que los momentos de
220
esta distribucion son de la forma
E
_
X
k
_
=

k
k
en este caso, se pueden implementar las dos aproximaciones que presentamos, ya que esta
distribuci on tiene los tres primeros momentos nitos.
Aproximacion de De Vylder
Entonces, el primero, segundo y tercer momento de esta distribuci on son
= E(X) =

1
;
2
= E
_
X
2
_
=
2
2
( 2)
y
3
= E
_
X
3
_
=
6
3
( 3)
Por lo que los valores para nuestra aproximaci on son
=
3
2

3
=
3 2
2
( 2)
6
3
( 3)
=
( 3)
( 2)

=
9
2

3
2

2
3
=
9
2
8
6
( 2)
3
36
6
( 3)
3
=
( 3)
3
( 2)
3
c = c +
3
2

2
2

3
= c

( 1)
+
( 3)
( 2)
2
Utilizando los valores particulares de este ejemplo, que son: = 5, = 4, = 2 y c = 12,
tenemos
= 0.16666667;

= 0.5925926 y c = 11.7777778
y la aproximacion a la probabilidad de ruina queda como
(u)
0.5925926
0.1666667 11.7777778
e
0.1163522u
= 0.3018867e
0.1163522u
221
0 20 40 60 80 100
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
0
.
2
5
0
.
3
0
Aproximacin de De Vylder
u

(
u
)
Utilizando la aproximaci on que se desprende de la formula de Pollaczec-Khinchin. Tenemos
F(x) = 1
_
4
4 + x
_
5
H(x) =
1

_
x
0
1
_
1
_
4
4 + z
_
5
_
dz
= 1
_
x
0
_
4
4 + z
_
5
dz
= 1
_
4
4 + x
_
4
Es decir, H Pareto (4, 4). Adem as, tenemos que la probabilidad de exito de la geometrica
asociada es
1

c
= 1
21
12
=
5
6
222
Entonces, cocluiremos este ejemplo utilizando R, para construir el modelo agregado subya-
cente.
0 20 40 60 80 100
0
.
0
8
0
.
1
0
0
.
1
2
0
.
1
4
0
.
1
6
Aprox. PollaczecKhinchin
x

(
u
)
223
Reservas
Las reservas para las compa nas de seguros han tenido un desarrollo muy considerablemente
en los a nos recientes, ocasionado por el crecimiento del mercado de seguros, con procesos
de suscripci on de riesgos (coberturas) cada vez m as complejos. Se han desarrollado nuevos
productos de seguros que se adaptan a las necesidades mas especcas de la poliza. Ademas,
tambien han surgido reclamaciones latentes que ponen mayores presiones sobre los recur-
sos de la empresa. Los desastres recientes, como las inundaciones en Europa y los ataques
terroristas del 11 de septiembre a los EE.UU., han contribuido a la necesidad de formas
complejas de analisis de la siniestralidad, motivando la revisi on de los modelos utilizados en
las reservas de siniestros, para garantizar resultados acordes a estos nuevos esquemas.
El pago de las reclamaciones es el primer objetivo de una ca. de seguros. El asegurado
realiza el pago de la prima para que, a efecto de este pago, la ca. de seguros acepte la re-
sponsabilidad de hacer un pago en dinero a los asegurados sobre la ocurrencia de un evento
especco, dentro del periodo de tiempo estipulado.
En teora, la responsabilidad de la aseguradora de pagar una reclamaci on cristaliza en el
instante de ocurrencia de la contingencia asegurada. Sin embargo, hay muchos factores
que pueden conducir a retrasos considerables entre la ocurrencia del siniestro y su pago. En
primer lugar, la contingencia asegurada, es posible que no ocurra en un solo instante y puede,
incluso, no reconocerse como un evento exigible de pago, sino hasta muchos a nos despues de
haber iniciado. En segundo lugar, la responsabilidad legal de la aseguradora no siempre es
clara, y puede haber retrasos considerables antes de que la compa na de seguros (o tribunal)
decida que existe tal responsabilidad. En tercer lugar, podra ser imposible determinar el
monto de los da nos hasta que haya transcurrido un periodo de tiempo desde ocurrencia del
evento. En cuarto lugar, estan los retrazos ocurridos dentro de la ocina de la compa na de
seguros, en el registro de las reclamaciones, en el procesamiento del archivo de reclamaciones,
la autorizacion, envo y cobro del pago de la reclamacion, etc.
La prediccion de los montos de reclamacion no pagados es creciente en seguros de no vida
con corto plazo ya que, por su propia naturaleza, son altamente especulativos. Los detalles
especcos sobre el metodo para hacer estas predicciones est an contenidas en un estudio
exhaustivo y muy detallado realizado por Taylor (1986). Una caracterstica com un a to-
224
dos estos metodos es el uso de los registros de reclamaciones actuales y pasadas, dispuestas
en un triangulo de desarrollo de reclamaciones (run-o triangle) para calibrar el modelo de
predicci on propuesto antes de usarlo. Kremer (1982) mostr o c omo el metodo cl asico de chain
ladder para la estimacion de las reclamaciones pendientes de pago en seguros generales, esta
fuertemente relacionada con el analisis de varianza de dos vas. El desarrollo de este captulo,
esta basado en el tratamiento estadstico de las reservas de reclamaciones realizado por Mack
(1991), que se percat o de la relacion entre los metodos de estimaci on de siniestros ocurrido
pero no declarados (debengados) (IBNR) y los metodos de taricacion de autom oviles. Este
modelo parametrico se implementa actualmente a traves de un modelo lineal generalizado
(GLM) y se aplica a los datos de reclamacion. Nuestro objetivo es explorar a fondo las
caractersticas de los motodos chain ladder y tecnicas relacionadas.
Calculo de reservas
Introducci on
Denici on de reserva: Monto de recursos necesarios para hacer frente a las obligaciones
asumidas por la compa na de seguros, reconociendo el efecto de interes e inaci on, as como
los gastos de administracion derivados de la cartera, considerando la participaci on de rease-
guro.
Objetivo de la reserva: Dotar a la compa na de los recursos necesarios para realizar el pago
de las obligaciones que le son reclamadas y los gastos en que incurre por la administracion
de su cartera.
Principales Reservas Tecnicas a Constituir
De Riesgos en Curso (RRC)
De Obligaciones Pendientes de Cumplir (OPC), o de Siniestros Pendientes
De Siniestros Ocurridos No Reportados (SONR) (IBNR)
Reservas Tecnicas Especiales (Catastr ocas)
Metodos de Calculo
225
Chain Ladder
Bornhuetter-Ferguson
Siniestralidad Esperada
Metodos Estoc asticos
Chain Ladder estoc astico
Bootstrap
Mack
Fundamentos tecnicos
Se debe registrar ante la C.N.S.F. a traves de una Nota Tecnica que exponga el metodo
actuarial con el cual se realizara la valuaci on y que contenga:
F ormulas y procedimientos.
Hip otesis: Demogracas, nancieras y cualquier otra que se pretenda utilizar.
Informaci on estadstica (datos).
Opini on del auditor externo actuarial.
Firma del actuario certicado responsable de la elaboracion y valuaci on.
226
Reservas de Riesgos en Curso (RRC)
Porci on de las primas equivalente a la fracci on no devengada de las mismas a la fecha de
valuacion, despues de descontar el costo de adquisicion (VP de las obligaciones y costos
futuros (administraci on), incluyendo sus margenes).
Se divide en dos grandes grupos:
Seguros a Corto Plazo (EPA No.2
4
), y
Seguros de Largo Plazo (EPA No.4
5
)
a) RRC a Corto Plazo, elementos para el c alculo:
Sobre la cartera en vigor por el tiempo que le falta por transcurrir (no devengada) incluyendo
la tasa tecnica de interes, considerar los costos futuros de: Siniestralidad y otras obligaciones
contractuales, margen para desviaciones, Costos de Administraci on, Adquisicion y el margen
de Utilidad.
Basarse en informaci on suciente y conable, sobre la cartera de riesgos en curso y las vari-
ables que se utilizaron para determinar la prima de tarifa suciente.
Reconocer la participaci on del Reaseguro
Generalmente se supone uniformidad del riesgo a lo largo de la vigencia, por lo que el riesgo,
en un momento dado, es proporcional al tiempo que falta para concluir la vigencia.
Efecto de Reaseguro
Para considerar el efecto de la existencia de contratos proporcionales de reaseguro, en la
f ormula de c alculo se tendran que sustituir los conceptos de Prima de Riesgo y Prima Emi-
tida No Devengada, por Prima de Riesgo No Devengada de Retenci on y Prima Emitida No
Devengada de Retenci on, respectivamente. En el caso en que las obligaciones del reasegu-
rador no sean paralelas a las de la cedente (seguros proporcionales con porcentajes distintos
de participacion dependiendo del nivel de siniestralidad, recorte de colas, etc.). Se deberan
valuar las obligaciones atendiendo lo dispuesto en los ocios circulares OS-10-06, OS-13-06
4
EPA= Estandares de Practica Actuarial Adoptados por el CONAC, anexo 7.7.1 de la Circular

Unica
5
EPA= Estandares de Practica Actuarial Adoptados por el CONAC, anexo 7.7.1 de la Circular

Unica
227
(Autom oviles), OS-12-06 (Terremoto) y a la tecnica actuarial aplicable al caso.
Reservas de Obligaciones Pendientes de Cumplir (OPC), o de Siniestros Pen-
dientes
Equivale al saldo de siniestros en tramite, Estimaci on Inicial () Ajustes-Pagos
Siniestros
En Tr amite
En Litigio
Siniestros Ocurridos pero no reportados
Siniestros Pendientes de Valuaci on
Gastos de ajuste asignados al siniestro
Dividendos
Experiencia en Siniestralidad
Experiencia propia
Participaci on en Rendimientos Financieros
Denicion
La Reserva de Siniestros Pendientes en Tr amite se constituye como un medio para hacer
frente a las obligaciones economicas derivadas de la ocurrencia de un siniestro noticado a
la compa na que, a la fecha de valuacion, todava no ha sido pagado o totalmente pagado.
Se asume que la reclamacion se registra en tiempo y forma, as como con la mejor estimaci on
posible del costo del siniestro.
Mecanica de Operacion
Esta reserva se constituye en el momento en el que la Aseguradora tiene conocimiento de la
ocurrencia de un siniestro y se reserva una estimaci on inicial del monto del da no de acuerdo
228
a los bienes y coberturas amparadas en la p oliza.
Se realizan ajustes a esta reserva cuando se tiene una estimacion m as detallada de los da nos
o se determinan perdidas como consecuencia directa del siniestro. (Ajustes de mas cuando
el monto de las obligaciones aumenta y ajustes de menos cuando disminuye).
Normalmente el proceso de ajuste se realiza a traves de especialistas llamados ajustadores,
cuya funcion es emitir un juicio sobre la situacion de los bienes da nados y traducir el nivel del
da no a montos de efectivo. En el caso de ramos como autom oviles, el ajustador se auxilia con
herramientas de c omputo como Valua Data que permite, mediante sosticados sistemas
de costeo, determinar un monto mas objetivo para el siniestro.
Por ultimo, esta reserva se elimina cuando se pagan los montos reservados o se declara el
siniestro como improcedente.
Algunas veces el asegurado y la compa na no llegan a un acuerdo sobre la indemnizaci on de
un siniestro en cuyo caso el asegurado recurre a la Comision Nacional para la Protecci on
y Defensa de los Usuarios de Servicios Financieros, y esta ultima ordena a la compa na la
constituci on de una reserva, con sus respectivos intereses por mora, en lo que se determina
la situacion judicial de las partes. (ver Art. 135 Bis, 136 LGISMS).
Siniestros Ocurridos No-reportados (IBNR / SONR)
Estimaci on de siniestros que ya ocurrieron a la fecha de valuacion, pero que no han sido
reportados por distintas razones, o que el costo estimado inicialmente resulte menor al real,
o que a un no han sido valuados (se usa metodo estadstico actuarial basado en la experiencia
particular de la compa na para su estimacion).
Los siniestros ocurridos pero no reportados, son aquellos eventos que se producen en un
intervalo de tiempo, durante la vigencia de la poliza, pero que se conocen con posterioridad
a la fecha de cierre o de valuaci on de un periodo contable. El objeto de la reserva por sinie-
stros ocurridos y no reportados es crear provisiones para cubrir los siniestros que no han sido
reportados a una fecha determinada, pero que ya ocurrieron.
La reserva por Siniestros Ocurridos pero no Reportados, tiene como objeto hacer una pro-
visi on de recursos que sirvan para enfentrar el pago de aquellas reclamaciones que, habiendo
229
ocurrido en determinado a no, sean reportadas en a nos futuros. El pago retrazado de los
siniestros puede producir perdidas en ejercicios donde no corresponde, distorsionando los
resultados de ese a no. Asimismo, el efecto de retrazo en las reclamaciones produce una
distorsi on en los estados nancieros de una instituci on, ya que puede reejar una aparente
utilidad anual, que puede deberse al efecto del pago retrazado de reclamaciones. El pro-
ceso de las reclamaciones atrazadas que provienen de un determinado a no de origen, se
distribuyen en un periodo al que se le llama periodo de desarrollo.
Objetivos
Permite constituir los recursos para que estos esten disponibles al momento en que esos
siniestros sean reclamados
Evita reconocer una utilidad no ganada.
Los siniestros ocurridos y no reportados, se constituyen por:
Siniestros ocurridos pero a un no reportados (Incurred but not yet reported IBNYR), los
cuales se caracterizan porque el acaecimiento del siniestro no ha sido reportado a un, debido
a retrasos de tipo administrativo o de la clase de contingencia cubierta (IBNR Puro).
Siniestros ocurridos pero no reportados completamente (Incurred but not enough reported
IBNER), son aquellos ya ocurridos y reportados, pero cuyo costo est a incompleto o no ha
sido determinado con precisi on (SPV).
Pueden valuarse en conjunto o por separado.
Metodos de Calculo
Chain Ladder
Bornhuetter-Ferguson
Siniestralidad Esperada
Metodos Estoc asticos
Chain Ladder estoc astico
230
Bootstrap
Mack
231
Estructura general de la informacion para el calculo de la provision para siniestros pendientes
Calculo de Triangulos de Desarrollo
El an alisis del comportamiento de los siniestros ocurridos no reportados, puede hacerse or-
denando los siniestros en un arreglo matricial que consiste en asignar a cada renglon, el a no
de origen y a cada columna, el a no de desarrollo, de manera que cualquier siniestro puede
ser clasicado en este arreglo matricial de acuerdo al a no de origen del cual proviene y al
a no de desarrollo en el que fue reclamado. A este arreglo de clasicaci on de siniestros se le
conoce como triangulo de desarrollo de siniestros.
Ti angulo de desarrollo de siniestros
A no Desarrollo por a no
1 2 j n-1 n
1 C
11
C
12
C
1j
C
1,n1
C
1n
2 C
21
C
22
C
2j
C
2,n1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
i C
i1
C
i2
C
i,n+1i
n-1 C
n1,1
C
n1,2
n C
n1
Las C
ij
representan monto de reclamacion o n umero de reclamaciones, registrado durante
el periodo i (periodo de ocurrencia) y reportado en el momento de desarrollo j (periodo de
reclamo).
Marco estructural del problema de las reservas para siniestros
Supongamos que tenemos N reclamaciones dentro de un periodo de tiempo jo con fechas
de reporte T
1
, ..., T
N
(Supongamos que estan ordenadas, T
i
T
i+1
i). Consideremos la
i-esima reclamaci on. Entonces, T
i
= T
i,0
, T
i,1
, ..., T
i,N
i
denota la secuencia de fechas en las
que alguna situacion ocurre con esta reclamaci on, por ejemplo, al tiempo T
ij
se realiza un
pago, se estima un ajuste de esta reclamaci on o se recaba nueva informacion sobre ella. T
i,N
i
denota a liquidaci on denitiva de la reclamacion. Suponga que T
i,N
i
+k
= para k 1.
Especicaremos los eventos que ocurren al tiempo T
i,j
como
232
X
i,j
=
_
Pago al tiempo T
i,j
para la reclamacion i
0, Si no hay pago al tiempo T
i,j
I
i,j
=
_
Nueva informaci on disponible sobre la reclamacion i, al tiempo T
i,j
, Si no hay nueva informacion al tiempo T
i,j
Denimos X
i,j
= 0, y I
i,j
= 0 si T
i,j
= .
Con esta estructura se puede denir varios procesos interesantes; adem as, el problema de
reserva para reclamaciones, se puede dividir en varios sub problemas.
Proceso de pago de la i-esima reclamacion. (T
i,j
, X
i,j
)
j0
dene el siguiente proceso de
pagos acumulados para la reclamaci on i
C
i
(t) =

j:T
i,j
t
X
i,j
con C
i
(t) = 0 para t < T
i
. La cantidad maxima demandada por la reclamaci on i es
C
i
() = C
i
(T
i,N
i
) =

j0
X
i,j
La reserva total de reclamaci on para la reclamacion i en el momento t para los pasivos fu-
turos (pendientes de reclamaci on al tiempo t), esta dada por
R
i
(t) = C
i
() C
i
(t) =

j:T
i,j
>t
X
i,j
El proceso de informacion de la reclamacion i est a dado por (T
i,j
, I
i,j
)
j0
El proceso de liquidacion denitiva de la reclamacion i est a dado por (T
i,j
, I
i,j
, X
i,j
)
j0
Denotaremos los procesos agregados para todas las reclamaciones por
233
C(t) =
N

i=1
C
i
(t)
R(t) =
N

i=1
R
i
(t)
C(t) denota todos los pagos hasta el tiempo t para todas las N reclamaciones, y R(t) denota
los pagos de siniestros pendientes (reservas) al tiempo t para estas N reclamaciones.
Consideremos ahora el problema de reservas como un problema de prediccion. Sea
F
N
t
=
_
(T
i,j
, I
i,j
, X
i,j
)
i0,j0
[T
i,j
t
_
la informaci on disponible al tiempo t. Esta sigma- algebra se obtiene a partir de la infor-
maci on disponible en el momento t del proceso de liquidaci on de siniestros.
A menudo se dispone de informaci on ex ogena adicional,
t
al tiempo t (cambio de la pr actica
jurdica, inaci on, informaci on del mercado, etc.) Por lo tanto se dene la informacion que
la compa na de seguros tiene en el tiempo t por
F =
_
F
N
t

t
_
Hay que estimar las distribuciones condicionales

t
= P(C () [F
t
)
Con los primeros dos momentos
M
t
= E[C () [F
t
]
V
t
= V[C () [F
t
]
234
Propiedades fundamentales del proceso de reservas
Ya que
C () = C(t) + R(t)
tenemos que
M
t
= E[C () [F
t
]
= E[C(t) + R(t)[F
t
]
= E[C(t)[F
t
] +E[R(t)[F
t
]
= C(t) +E[R(t)[F
t
]
adem as
V
t
= V[C () [F
t
]
= V[C(t) + R(t)[F
t
]
= V[R(t)[F
t
]
Lema 1 M
t
es una F
t
martingala. Esto es, para t > s se tiene que
E[M
t
[F
t
] = M
s
, c.s.
Dem. Trivial.
Lema 2 El proceso de varianza V
t
es una F
t
supermartingala. Esto es, para t > s se tiene
que
E[V
t
[F
t
] V
s
, c.s.
Dem.
235
E[V
t
[F
t
] = E[V(C()[F
t
) [F
s
]
= E
_
E
_
C
2
() [F
t

[F
s

E
_
E[C () [F
t
]
2
[F
s

E
_
C
2
() [F
s
] E[E[C () [F
t
] [F
s
]
2
(Desigualdad de Jensen : E[g (X)] g (E[X]))
= V(C () [F
s
) = V
s
Consideremos u > t dos tiempos del proceso. Denimos el incremento de t a u como
M(t, u) = M
u
M
t
Entonces tenemos c.s. que
E[M(u, t)M(u, )[F
t
] = E[M(u, t)E[M(u, )[F
u
] [F
t
]
= E[M(u, t) (E[C()[F
u
] M
u
) [F
t
] = 0
que implica que M(t, u) y M(u, ) no est an correlacionadas, que es la propiedad bien cono-
cida de las martingalas de incrementos no correlacionados.
Esta primera aproximacion al problema de reservas de reclamaciones utiliza la representaci on
integral de martingalas, que conduce al proceso de inovaci on que determina M
t
al actu-
alizar F
t
.
Esta teora es bien conocida.
Se tiene poca idea sobre el proceso de actualizaci on.
No se tienen sucientes datos desde el punto de vista estadstico.
Segunda aproximacion al problema de reservas. Para t < u tenemos que F
t
F
u
. Ya que
M
t
es una F
t
martingala, se tiene que
E[M(t, u)[F
t
] = 0 c.s
Denamos el incremento de pagos entre t y u como
236
X(t, u) = C(u) C(t)
Por lo tanto tenemos que
M(t, u) = M
u
M
t
= E[C()[F
u
] E[C()[F
t
]
= C(u) +E[R(u)[F
u
] (C(t) +E[R(t)[F
t
])
= X(t, u) +E[R(u)[F
u
] E[C(u) C(t) + R(u)[F
t
]
= X(t, u) E[X(t, u)[F
t
] +E[R(u)[F
u
] E[R(u)[F
t
]
que esta compuesta por los siguientes dos terminos
1.- Error de predicci on para los pagos en el plazo (t, t + 1], (u = t + 1)
X(t, t + 1) E[X(t, t + 1)[F
t
]
2.- Error de predicci on de las reservas de R(t + 1) cuando se ha actualizado la informaci on
E[R(t + 1)[F
t+1
] E[R(t + 1)[F
t
]
Reclamaciones conocidas y desconocidas
Denido el concepto de reclamaciones IBNyR (ocurridas pero a un no reportados). El pro-
ceso siguiente cuenta el n umero de siniestros reportados
N
t
=

i1
1
{T
i
t}
Podemos dividir la demanda total y las reservas en el momento t, respecto a la situacion de
si se tiene una reclamacion reportada o una catalogada como IBNyR por
R(t) =

i
R
i
(t) 1
{T
i
t}
+

i
R
i
(t) 1
{T
i
>t}
con
237

i
R
i
(t) 1
{T
i
t}
reservas para las reclamaciones reportadas al tiempo t

i
R
i
(t) 1
{T
i
>t}
reservas al tiempo t, para reclamaciones IBNyR
Y denimos
R
rep
t
= E
_

i
R
i
(t) 1
{T
i
t}

F
t
_
= E
_
Nt

i=1
R
i
(t)

F
t
_
,
R
IBNyR
t
= E
_

i
R
i
(t) 1
{T
i
>t}

F
t
_
= E
_
N

i=Nt+1
R
i
(t)

F
t
_
con N el total aleatorio de reclamaciones. Es facil ver que
R
rep
t
=

iNt
E
_
R
i
(t)

F
t
_
R
IBNyR
t
= E
_
N

i=Nt+1
R
i
(t)

F
t
_
R
rep
t
denota los pagos futuros esperados al tiempo t, de los siniestros reportados. Conocido
como el mejor estimador de las reservas tiempo t, para siniestros reportados. R
IBNyR
t
son
los pagos futuros esperados al tiempo t, para reclamaciones IBNyR (o el mejor estimador
de reservas al tiempo t, para reclamaciones IBNyR).
En conclusi on, estas dos expresiones muestran que las reservas para siniestros reportados y
la reservas para siniestros IBNyR son de muy diferente naturaleza:
i) Las reservas para siniestros reportados se deben determinar de forma individual, es decir,
con base en uno solo de los siniestros. A menudo se tiene suciente informaci on sobre reporte
de reclamaciones, para realizar una estimacion de las reclamaciones individuales.
ii) Las reservas para siniestros IBNyR no pueden desagregarse debido al hecho de que N no
se conoce al momento t. Ademas, no tenemos informaci on sobre reclamaciones individuales.
Esto muestra que las reservas IBNyR deben determinarse con base en un colectivo de recla-
maciones.
238
Desafortunadamente, la mayora de los metodos cl asicos de reservas no distinguen entre
reclamaciones reportadas y reclamaciones IBNyR, es decir, que estiman las reservas de sinie-
stros de la misma manera en ambas casos. En este contexto, tengo que decepcionarlos un
poco, porque la mayora de los metodos que presentaremos tampoco hacen esta distincion.
Terminologa y notacion el triangulo de desarrollo de siniestros
En este apartado presentamos la terminologa y notaci on cl asica de las resrevas de recla-
maciones. En la mayora de los casos la reclamaciones pendientes se estiman a traves de
llamado tri angulo de desarrollo de reclamaciones, que clasica las reclamaciones sobre dos
ejes de tiempo. Usualmente denotados como
i = a no del evento, a no de ocurrencia,
j = a no de desarrollo, periodo de desarrollo
Para nes ilustrativos se asume que X
i,j
denota todos los pagos en el periodo de desarrollo,
j, de reclamaciones que ocurrieron en el a no, i, es decir, lo que corresponde al incremento
del pago de reclamaciones ocurridas en el a no i, realizadas en el ejercicio contable i + j.
En un tri angulo de desarrollo, las reclamaciones por a no suelen estar en la lnea vertical,
mientras que los periodos de desarrollo est an en la lnea horizontal. En general las tablas
de desarrollo se dividen en dos partes; la parte superior del tri angulo / trapezoide, donde
tenemos observaciones y el triangulo inferior donde debemos estimar la los pagos pendientes.
En las diagonales siempre vemos los ejercicios contables. De ah que los datos de las recla-
maciones tienen la siguiente estructura:
239
Ti angulo de desarrollo de siniestros
A no evento Desarrollo por a no
0 1 j J-1 J
0
1
.
.
. Datos observados de las v.a. C
i,j
X
i,j
i Predicciones C
i,j
, X
i,j
I-1
I
Los datos se pueden mostrar en forma acumulativa o en forma no acumulativa (incremental).
Los datos incrementales se denotan por X
i,j
y datos acumulados dados por
C
i,j
=
j

k=0
X
i,k
Los datos incrementales, X
i,j
, puede denotar los pagos incrementales en la celda (i, j), el
n umero de siniestros reportados con retraso de reporte j y a no de ocurrencia i, o el cambio
en la cantidad de reclamaciones reportado en la celda (i, j). Para los datos acumulados C
i,j
,
generalmente se utiliza el termino de pagos acumulados, o el n umero total de reclamaciones
reportadas o reclamaciones incurridas (para siniestros declarados acumulativos). C
i,
se
conoce com unmente como monto total de la demanda o carga total de la reclamaci on i o el
n umero total de reclamaciones en el a no i.
X
i,j
: Pagos incrementales C
i,j
: Pagos acumulados
X
i,j
: N um. de reclamaciones reportadas con retrazo j C
i,j
: N um. total de reclamaciones reportadas
X
i,j
: Cambio en la cantidad de reclamaciones reportadas C
i,j
: Siniestros incurridos
Usualmente denotamos las observaciones por D
I
= X
i,j
: i + j I en la parte superior del
trapezoide, y D
c
I
= X
i,j
: i + j > I que necesitan estimarse.
Los pagos en un solo ejercicio contable est an dados por
240
X
k
=

i+j=k
X
i,j
que son los pagos en la (k+1)-esima diagonal.
Si X
i,j
denota pagos incrementales, entonces las reservas de reclamaci on para el a no i al
tiempo j est an dada por
R
i,j
=

k=j+1
X
i,k
= C
i,
C
i,j
R
i,j
se conoce tambien como la reserva para siniestros. Se trata fundamentalmente de la
cantidad que tenemos que estimar (tri angulo inferior) para que junto con los ultimos pagos,
C
i,j
, obtengamos toda la carga de las reclamaciones (monto total) para los eventos del a no i.
Teniendo en cuenta los modelos de reservas, es decir, modelos que estiman las reclamaciones
totales, existen diversas posibilidades para estas.
Para datos acumulativos o datos incrementales
Para datos de pagos de reclamaciones incurridas
Para la division de los datos en reclamaciones peque nas y grandes
N umero de reclamaciones y promedio de reclamaciones
Etc.
Por lo general, diferentes metodos y diferentes formas de agregarcion de los datos, conducen
a resultados muy diferentes. Solo un actuario con basta experiencia en reservas, es capaz
de decidir cu al es una forma adecuada de estimaci on para las obligaciones futuras en un
conjunto especco de datos.
241
Metodo Chain-Ladder (libre de distribuci on)
El modelo de Chain-Ladder es, probablemente, la tecnica para calcular reservas m as popular.
Proporcionaremos diferentes derivaciones para este metodo. Iniciaremos con la derivacion
libre de distribuci on del Chain-Ladder.
La literatura clasica actuarial, generalmente reere al metodo de Chain-Ladder como un algo-
ritmo puramente computacional para estimar las reservas de siniestros. Fue mucho mas tarde
que los actuarios empezaron a considerar modelos estoc asticos para desarrollar o generar el
algoritmo de este metodo. El primero que utiliz o un modelo completamente estocastico para
el metodo Chain-Ladder fue Mack (1993). Publicando, en 1993, uno de los artculos m as
famosos para c alculo de reservas con errores estandar en el modelo Chain-Ladder.
Entonces, este algoritmo se basa en los pagos acumulados
C
i,j
=
j

k=0
X
i,k
Esto es, sumamos los pagos incrementales, X
i,k
, k 0, para una a no de ocurrencia del sinie-
stro jo, i, y, como son reclamaciones acumuladas, en ultima instancia obtenemos C
i,J1
= S
i
,
con S
i
el total de reclamaciones que corresponden al a no de ocurrencia del siniestro, i.
La idea detras del algoritmo Chain-Ladder (CL) es que todos los a nos de ocurrencia de
siniestros se comportan de manera similar y, para reclamaciones acumuladas, se tiene que
Supuestos del modelo Chain-Ladder
Existen f
0
, f
1
, ..., f
J1
> 0 factores de desarrollo tales que para toda 0 i I y toda
0 j J se tiene que
E[C
i,j
[C
i,0
, C
i,1
, ..., C
i,j1
] = E[C
i,j
[C
i,j1
] = f
j1
C
i,j1
e independencia entre los a nos de eventos (entre los renglones del tri angulo de desarrollo).
Observaciones
242
Se supone independencia entre los a nos de ocurrencia. M as adelante veremos que este
supuesto se hace en casi todos los metodos. Esto signica que ya se han eliminado los efec-
tos del a no de contabilidad en los datos.
Adem as, podemos hacer supuestos m as fuertes sobre las sucesiones C
i,0
, C
i,1
, ... asumiendo
que forman una cadena de Markov. Por lo tanto, tenemos que
C
i,j

j1

l=0
f
1
l
forman una martingala para j 0.
Los factores f
j
reciben el nombre de factores de desarrollo o factores Chain-Ladder. Son
el objetivo de interes central en el metodo Chain-Ladder.
Lema. Sea D
I
= X
i,j
: i + j I el conjunto de observaciones (trapecio superior). Bajo el
modelo Chain-Ladder, tenemos que para toda I J + 1 i I ocurre que
E[C
i,J
[D
I
] = E[C
i,J
[C
i,Ii
] = C
i,Ii
f
Ii
f
J1
Dem. Este es un ejercicio de esperanza condicional
E[C
i,J
[C
i,Ii
] = E[C
i,J
[D
I
]
= E[E[C
i,J
[C
i,J1
] [D
I
]
= E[f
J1
C
i,J1
[D
I
]
= f
J1
E[C
i,J1
[D
I
]
Si iteramos este procedimiento hasta llegar a la diagonal i +j = I obtenemos la armacion.
Este lema proporciona un algoritmo para estimar el valor esperado de la demanda nal,
C
i,J
, dadas las observaciones D
I
, de la siguiente manera. Para cualquier a no de ocurrencia
i, elegir la ultima observaci on en la diagonal, esto es C
i,Ii
, y multiplicar sucesivamente esta
observacion por los factores de desarrollo f
Ii
, ..., f
J1
.
243
Por otro lado, para factores de desarrollo conocidos, f
j
, estimamos los siniestros esperados
pendientes de pago del a no i basado en D
I
, por
E[C
i,J
[D
I
] C
i,J1
= C
i,Ii
(f
Ii
f
J1
1)
que corresponde al mejor estimador de las reservas del a no i al tiempo I (basado en la in-
formaci on D
I
). Desafortunadamente, en la mayora de las aplicaciones practicas los factores
Chain-Ladder no se conocen y necesitan estimarse. Los factores Chain-Ladder se estiman por

f
j1
=
Ij

k=0
C
k,j
Ij

k=0
C
k,j1
=
Ij

i=1
C
i,j

Ij
n=1
C
n,j
C
i,j
C
i,j1
=
Ij

i=1
w
ij
f
ij
Entonces, la estimacion (CL) de E[C
i,j
[D
I
] esta dada por

C
CL
i,j
=

E[C
i,j
[D
I
] = C
i,I1


f
Ii


f
j1
, para i + j > I
Denamos ahora B
k
= C
i,j
: i + j I, 0 j k D
I
. Observese que B
J
= D
I
, que es
un subconjunto de todas las observaciones al tiempo I.
Lemma Bajo el supuesto para el modelo Chain-Ladder, tenemos que
a)

f
j
, dado B
j
, es un estimador insesgado de f
j
. Esto es: E
_

f
j

B
J
_
= f
j
b)

f
j
es (incondicionalmente) insesgado para f
j
. Esto es: E
_

f
j
_
= f
j
c)

f
0
, ...,

f
J1
nos estan correlacionados. Esto es: E
_

f
0
, ...,

f
J1
_
= E
_

f
0
_
E
_

f
J1
_
d

C
CL
i,J
, dado

C
i,I1
es un estimador insesgado de E[C
i,J
[D
I
] = E[C
i,J
[C
i,Ii
]. Esto es:
E
_

C
CL
i,J

C
Ii
_
= E
_
C
i,J

D
I
_
, y
e

C
CL
i,J
es (incondicionalmente) insesgado para E[C
i,J
]. Esto es: E
_

C
CL
i,J
_
= E[C
i,J
]
244
En principio, el hecho de que los factores estimados Chain-Ladder,

f
j
, no esten correlaciona-
dos, parece sorprendente, ya que dependen de los mismos datos.
Dem. lema
a) Para demostrar este primer inciso tenemos
E
_

f
j1
[B
j1
_
=
Ij

k=0
E[C
k,j
[B
j1
]
Ij

k=0
C
k,j1
=
Ij

k=0
C
k,j1
f
j1
Ij

k=0
C
k,j1
= f
j1
que inmediatamente implica la condici on de insesgamiento.
b) Se sigue inmediatamente de a).
c) Para j < k tenemos
E
_

f
j

f
k
_
= E
_
E
_

f
j

f
k
[B
k
__
= E
_

f
j
E
_

f
k
[B
k
__
= E
_

f
j
f
k
_
= f
j
f
k
d) Para demostrar este iniciso
E
_

C
CL
i,J
[C
i,Ii
_
= E
_
C
i,Ii


f
Ii


f
J1
[C
i,Ii
_
= E
_
C
i,Ii


f
Ii


f
J1
E
_

f
J1
[B
J1
_
[C
i,Ii
_
= f
J1
E
_

C
CL
i,J1
[C
i,Ii
_
iterando este procedimiento obtenemos
E
_

C
CL
i,J
[C
i,Ii
_
= C
i,Ii
f
Ii
E f
J1
= E[C
i,J
[D
I
]
e) es consecuencia inmediata de d).
Observaciones
245
Hemos demostrado que que los estimadores

f
j
no est an correlacionados, pero no son indepen-
dientes. De hecho, los cuadrados de dos estimadores sucesivos

f
j
y

f
j+1
est an correlacionados
negativamente.
Obserevese que el inciso d de este lemma, demuestra que podemos obtener estimadores ins-
esgados del mejor estimador de las reservas E[C
i,J
[D
I
].
246
El metodo de Bornhuetter-Ferguson
El metodo Bornhuetter-Ferguson es, en general, un metodo muy robusto, ya que no toma en
cuenta los valores extremos en las observaciones. El metodo se remonta a 1972 en el artculo
de Bornhuetter-Ferguson titulado el actuario e IBNR. El metodo Bornhuetter-Ferguson
se suele entender como un algoritmo puro para estimaci on de reservas (esta es tambien la
forma en que fue publicado por ellos).
Ventajas del metodo BF
Mayor estabilidad que los metodos de desarrollo
Reeja en cierta medida los datos m as recientes
Permite suavizar los resultados
El metodo de desarrollo tiende a subestimar cuando el ocurrido es bajo y a so-
breestimar si es alto
Permite incorporar los cambios en la estructura de las tarifas
Permite estimar el IBNR cuando la informaci on es escasa
Permite incorporar los cambios en la estructura de las tarifas
Desventajas
Requiere la estimacion de la siniestralidad esperada inicial
Requiere la estimacion de porcentajes de desarrollo de siniestros
Hay varios posibilidades de denir un modelo estocastico subyacente apropiado que motive
el metodo BF. Los siguientes supuestos son faciles de cumplir:
Supuestos (1) sobre el metodo Bornhuetter-Ferguson
Los diferentes a nos de ocurrencia de los eventos, son independientes.
247
Existen par ametros
0
,
1
, ...,
I
> 0 y patrones
0
,
1
, ...,
J
> 0 con
J
= 1, tales que,
para toda i 1, 2, ..., I, j 1, 2, ..., J 1 y k 1, 2, ..., J j, se tiene que
E[C
i,0
] =
i

0
,
E[C
i,j+k
] = C
i,j
+
i
(
j+k

j
)
Entonces, tenemos que E[C
i,j
] =
i

j
y E[C
i,J
] =
i

J
=
i
1 =
i
. La sucesion
j

j
denota los patrones de desarrollo de las reclamaciones. Si C
i,j
son los pagos acumulados,
entonces
j
es el patr on de ujo de caja acumulado esperado (the expected cumulative cash-
ow pattern) (tambien llamado patron de pagos). Tal patr on se utiliza a menudo, cuando
se necesita construir reservas market-consistent/discounted, donde valores de tiempo dieren
en el tiempo. Entonces, estos supuestos implican los siguientes
Supuestos (2) sobre el metodo Bornhuetter-Ferguson
Los diferentes a nos de ocurrencia de los eventos, son independientes.
Existen par ametros
0
,
1
, ...,
I
> 0 y patrones
0
,
1
, ...,
J
> 0 con
J
= 1, tales que,
para toda i 1, 2, ..., I, j 1, 2, ..., J 1, se tiene que
E[C
i,j
] =
i

j
La idea detras del metodo BF es que todos los a nos de ocurrencia de eventos i 1, ..., I
tienen un comportamiento similar, con un comportamiento de los pagos de reclamaciones
C
i,j

j

j
para cierta informacion inicial
i
y cierto patron de desarrollo
j

j=0,...,J1
normalizadas

J1
j=0

j
= 1.
El valor inicial
i
debe reejar el total esperado de del ejercicio contable i, E[C
i,J1
]. Se
supone que este valor inicial se da de manera externa, de acuerdo a la opini on de expertos
que, en teora, no debera basarse en D
I
.
248
Regularmente, estos son los supuestos (2) para generar el modelo BF, no obstante, s olo con
estos supuestos, podemos tener ciertas dicultades. Observemos que
E[C
i,J
[D
I
] = E[C
i,J
[C
i,0
, ..., C
i,I1
]
= E[C
i,J
C
i,Ii
+ C
i,Ii
[C
i,0
, ..., C
i,I1
]
= C
i,Ii
+E[C
i,J
C
i,Ii
[C
i,0
, ..., C
i,I1
]
Si no tenemos supuestos adicionales sobre la estructura de dependencia entre los incremen-
tos en las reclamaciones, no sabremos que hacer exactamente con el ultimo termino de la
expresi on anterior. Si supieramos que estos incrementos C
i,J
C
i,Ii
son independientes de
C
i,0
, ..., C
i,I1
, entonces esto implicara que
E[C
i,J
[D
I
] = E[C
i,J
[C
i,0
, ..., C
i,I1
]
= C
i,Ii
+E[C
i,J
C
i,Ii
] por independencia
= C
i,Ii
+E[C
i,J
] E[C
i,Ii
]
= C
i,Ii
+
J

Ii

i
= C
i,Ii
+ (1
Ii
)
i
que tambien se desprende de los supuestos del modelo.
Estimador del modelo BF

C
i,J
=

E[C
i,J
[D
I
] = C
i,Ii
+
_
1

Ii
_

i
I J + 1 i I. Con

Ii
un estimador de
Ii
y
i
un estimado inicial para E[C
i,J
]. Ya
que
i
es una estimacion basada en la opinion de expertos y, probablemente, independiente
de la informacion observada D
I
, lo unico que hay que estimar en este modelo son los factores
o patrones de desarrollo
j
.
Comparacion de los estimadores BF y Chain-Ladder
De acuerdo a los supuestos sobre el modelo Chain-Ladder tenemos que
249
E[C
i,j
] = E[E[C
i,j
[C
i,j1
]] = f
j1
E[C
i,j1
] = E[C
i,0
]
j1

k=0
f
k
entonces
E[C
i,J
] = E[C
i,0
]
J1

k=0
f
k
que implica
E[C
i,j
] =
j1

k=0
f
k
J1

k=0
f
1
k
E[C
i,J
]
=
J1

k=j
f
1
k
E[C
i,J
]
Si comparamos esta expresi on con la correspondiente del metodo BF, E[C
i,j
] =
i

j
, encon-
tramos que
J1

k=j
f
1
k
juega el papel de
j
ya que
J1

k=j
f
1
k
corresponde a la proporci on ya pagada de
i
= E[C
i,J
] despues de j periodos
de desarrollo en el metodo Chain-Ladder. Note que esta correspondencia entre las

j
y el
producto de los factores de desarrollo se obtiene unicamente mediante los supuestos (2) y no
con (1) ya que estos no son implicados por los supuestos Chain-Ladder ni viceversa.
Estimacion de los patrones de desarrollo
Ya comentamos que, dada la forma como se estima
i
en el modelo BF, solo debemos ocu-
parnos de la estimaci on de los patrones de desarrollo, es decir, de las
j
. En vista del metodo
de CL, se dene la siguiente los estimadores del patron de desarrollo:
250

CL
j
=
J2

k=j
1

f
CL
k
=

j1
k=0

f
CL
k

J2
k=0

f
CL
k
cociente que reeja, como ya dijimos, la proporci on ya pagada despues de los primeros j
periodos de desarrollo de acuerdo a los patrones de desarrollo del metodo Chain-Ladder.
Por lo que obtenemos los estimadores

CL
0
=
CL
0
,

CL
j
=
CL
j

CL
j1
, j = 1, 2, ..., J 2

CL
J1
= 1
CL
J2
Una vez denidos estos estimadores, entonces predecimos la ultima reclamaci on (o recla-
maci on total) C
i,J1
para i + J 1 > I en el metodo BF, por

C
BF
i,J1
= C
i,Ii
+
i
J1

j=Ii+1

CL
j
= C
i,Ii
+
i
_
1
CL
Ii
_
Las reservas al tiempo I para los a nos de ocurrencia del siniestro i > I (J 1) est an dadas
por

R
BF
i
=

C
BF
i,J1
C
i,Ii
=
i
J1

j=Ii+1

CL
j
=
i
_
1
CL
Ii
_
y agregado sobre todos los a nos de ocurrencia de los siniestros, predecimos el total de pasivos
de perdida de las ultimas reclamaciones (reserva total), por

R
BF
=

i>I(J1)

R
BF
i
Concluiremos este apartado con una comparaci on entre los valores predichos de los metodos
CL y BF. Entonces, reescribimos las predicciones realizadas mediante el metodo CL, para
i + J 1 > I, de la siguiente manera
251

C
CL
i,J1
= C
i,Ii
+ C
i,Ii
J2

j=Ii

f
CL
j
_
1
J2

j=Ii
1

f
CL
j
_
de donde obtenemos las relaciones

C
CL
i,J1
= C
i,Ii
+
_
1

CL
Ii
_

C
CL
i,J1
,

C
BF
i,J1
= C
i,Ii
+
_
1

CL
Ii
_

i
Por lo tanto, observamos que tenemos la misma estructura. La unica diferencia es que en el
metodo BF utilizamos la estimacion inicial externa,
i
, para la demanda nal y en el metodo
de la estimacion CL esta estimaci on se basa en

C
CL
i,J1
. Por lo tanto, tenemos dos posiciones
complementarias para realizar las predicciones.
252
Breve introducci on a los Modelos Lineales Generalizados (MLG)
Los modelos lineales son modelos estadsticos que sirven para cuanticar el impacto o inu-
encia que tienen las llamadas variables explicativas (caractersticas de los sujetos o entidades
que conforman el modelo) y la llamada variable de respuesta. El m as sencillo de estos mod-
elos es el de regresi on lineal simple, cuya extension natural es el modelo de regresi on lineal
m ultiple. Este es, probablemente, el modelo lineal mas conocido en la literatura estadstica.
La caracterstica esencial de este modelo es que la variable de respuesta se asume con dis-
tribuci on continua y su componente aleatorio se supone con distribucion normal, distribucion
que hereda la variable de respuesta.
En la modelacion estadstica muchas veces se tienen variables de respuesta que no son con-
tinuas, por ejemplo la condicion de enfermo y no enfermo de un paciente; la preferencia
electoral de un sujeto en un marco de tres partidos polticos en competencia; el n umero
de reclamaciones en una poliza de seguros, etc. Para este tipo de respuestas, el modelo
de regresi on lineal usual no es, de ninguna manera, una opci on adecuada, por lo que es
necesario modicar o ampliar este modelo para contemplar esta clase de respuestas. De
esta necesidad surgen los llamados Modelos lineales Generalizados(MLG) en los que existen
diversas estructuras de su compontente aleatorio, que se adecuan de mejor manera a las
caractersticas de escala de medici on de sus respuetas. Estos modelos estan caracterizados
por tres componentes
Componente aleatorio (parte aleatoria): = E(y[X) = y
Un predictor lineal (parte sistem atica): = X

Una funcion liga: g ()


El componente aleatorio tiene que ver con la distribucion que se le asocia a la respuesta
(la parte aleatoria) del modelo, misma que es sugerida por la escala de medici on de esta
respuesta. En los MLG, esta distribuci on debe ser un miembro de la familia exponencial.
El predictor lineal lo constituye la parte determinstica del modelo, es decir, los datos y los
par ametros. Finalmente, la liga es una funcion que liga o asocia una transformacion de la
variable de respuesta con el predictor lineal. La estructura de este modelo es
253
g () = X

=
0
+
1
X
1
+
2
X
2
+ +
p
X
p
o
= g
1
_
X

_
Los miembros de la familia exponencial que determinan los principales MLG son
Funci on liga g () Liga can onica para
Id entica Normal
log ln () Poisson
Potencia
p
_
Gamma (p = 1)
Gaussiana Inversa (p = 2)
Logit ln
_

1
_
Binomial
Ya que la escala de la variable de respuesta determina el modelo lineal generalizado que deba
de ajustarse, observamos que
El modelo de regresi on lineal est andar es un MLG con liga identica. Su respuesta es una
variable continua con rango en R.
Si la respuesta es una variable de conteo, entonces el MLG correspondiente es el modelo
de regresion Poisson
Si la variable de respuesta tiene solo dos categoras, el MLG correspondiente es el modelo
de regresion logstica o modelo logit. La liga de este modelo es el logaritmo del momio de
respuesta, y recibe el nombre de logit.
Si la variable de respuesta es continua y positiva, los probables MLG son la regresi on
Gamma o la regresi on Gaussiana Inversa.
La familia exponencial
La familia de densidades de probabilidad mas importante en estadstica es la llamada familia
exponencial. Cuya denicion es
254
Denicion: Familia exponencial. Sean y
1
, ..., y
n
variables aleatorias independientes con
funci on de densidad o de probabilidad, que puede escribirse como
f (y
i
;
i
, ) = exp
_
y
i

i
b (
i
)
a
i
()
+ c (y
i
, )
_
con

i
es el par ametro natural o can onico
es un par ametro de escala o dispersion
a
i
() , b () y c () funciones especcas para cada elemento de esta familia
Si es conocido, este es un modelo de la familia exponencial lineal
Si es desconocido, es un modelo de dispersion exponencial
Para algunos de los modelos que especicamos en la tabla anterior tenemos
Normal
Distribuci on N (,
2
)
E(y) =
Liga g() = (identidad)
b() =

2
2
( = )
a() = 1
Poisson()
E(y) =
Liga g() = ln ()
b() = e

( = )
a() = 1
Binomial(n,)
E(y) = n
255
Liga g() = ln
_

1
_
b() = nlog(1 + e

) ( = )
a() = 1
etc.
Estimacion y pruebas de hipotesis
La estimacion de los parametros que determinan cada modelo: el vector de par ametros
asociados a las covariables, , y el par ametro de escala o dispersi on, , se estiman por
m axima verosimilitud. Y los estimadores de sus varianzas se calculan por medio de la inversa
de la llamada Matriz de Informacion Observada de Fisher. Por esta raz on las inferencias
para este modelo son inferencias asintoticas (excepto para el modelo est andar de regresi on
lineal).
La prueba de hip otesis m as importante es sobre el modelo global
H
0
: = 0,
1
=
2
= =
p
= 0 vs. H
a
:
i
,= 0 p.a. i = 1, 2, ..., p
Si en un modelo concreto no rechazamos la hip otesis nula (H
0
), implicara que ninguna de
nuestras covariables es importante para explicar o predecir la respuesta, lo que llevara a
desechar el modelo. Si los modelos son propuestos por un sujeto que conoce su area de
aplicaci on, generalmente esta hip otesis se rechaza en favor de la hipotesis alternativa. En-
tonces, como se enuncia en esta ultima hip otesis, lo unico que sabramos es que almenos
una covariable es importante para explicar la respuesta, y; pero esta hip otesis no deter-
mina cual(es) ni cuantas. Por lo que es necesario realizar pruebas individuales sobre cada
par ametro (equivalentemente cada covariable) en el modelo. Las pruebas son del tipo
H
0
:
i
= 0 vs. H
a
:
i
,= 0 i = 1, 2, ..., p
El estadstico asociado para realizar esta prueba es una t de Student. En concreto se hace
con la estadstica
256

i
_
var
_

i
_
a
t
np
En el caso del modelo de regresi on lineal, y dada la normalidad de su componente aleatorio,
esta estadstica es

i
_
var
_

i
_
N(0, 1), o bien

2
i
var
_

i
_
2
(1)
como habamos dicho, para este modelo las inferencias son exactas.
La devianza
Una forma de determinar el ajuste del modelo construido es compar andolo contra el modelo
que produce el mejor ajuste posible. En estos modelos, el mejor ajuste se logra cuando el
modelo tiene tantos par ametros como observaciones y se le conoce como modelo saturado.
Este modelo lo que hace es reproducir los valores observados, por lo que su ajuste es perfecto.
Si denotamos por

() el valor de la log-verosimilitud del modelo saturado y por

() el
correspondiente valor del modelo propuesto, se dene la devianza (algunas veces llamada
devianza residual) a la cantidad
D =2
_

()

()
_
que puede verse como una medida de distancia entre el modelo propuesto y el saturado.
Cuando el modelo propuesto provee un buen ajuste, se espera que

() este cercana a

() . Es claro que ya que esta ultima cantidad es el supremo de todas las log-verosimiltudes
257
posibles,

() no puede ser mayor que ella. Un valor grande de esta devianza indica un
pobre ajuste del modelo propuesto.
Suponiendo que el modelo es correcto y n es grande, la distribuci on asintotica de esta
devianza es una Ji-cuadrada. En concreto
D
a

2
(np)
por lo que el valor esperado de esta devianza es n-p.
En los modelos lineales generalizados esta devianza es
D =2
_

()

()
_
Comparaci on de modelos
En la modelaci on estadstica estandar por lo general se tienen varios modelos que ajustan
de forma adecuada a nuestra informacion, por lo tanto, es necesario tener una forma para
compararlos y elegir el mejor entre ellos. Para hacer esta comparacion es necesario que los
modelos esten anidados, i.e., que uno de ellos sea un submodelo del otro.
Supongamos que tenemos dos modelos M
0
y M
1
con total de par ametros p
0
y p
1
, respec-
tivamente y p
1
> p
0
(lo que implica que M
0
est a anidado en M
1
). Entonces, la menera de
comparar estos modelos es
2[ (M
1
) (M
0
)]
a

2
(p
1
p
0
)
con (M
1
) y (M
0
) las respectivas log-verosimilitudes de los correspondientes modelos. Si
esta diferencia es estadsticamente signicativa, podemos armar que las variables que tiene
M
1
pero que no est an en M
0
sirven para mejorar el ajuste del modelo. Por el contrario,
si esta diferencia no es estadsticamente signicativa, entonces querra decir que el ajuste de
ambos modelos es similar, por lo tanto, atendiendo al principio de parsimonia, preferimos el
que tiene menos par ametros, en este caso, M
0
.
258
Modelo Poisson de reservas
Terminaremos esta secci on con el modelo de Poisson, que se utiliza principalmente para el
n umero de reclamaciones. Lo interesante en el modelo de Poisson es que conduce a las mis-
mas reservas del modelo Chain-Ladder. Fue Mack (1991), quien demostr o que las reservas
Chain-Ladder son reservas producidas por un proceso de m axima verosimilitud del modelo
de Poisson.
Supuestos modelo Poisson
Existen par ametros
0
,
1
, ...,
I
> 0 y patrones
0
,
1
, ...,
J
> 0, tales que los valores incre-
mentales X
i,j
son independientes y se distribuyen Poisson con
E[X
i,j
] =
i

j
para toda i I y j J, y

J
j=0

j
= 1.
Es claro que si X
i,j
son Poisson, entonces el n umero total de reclamaciones acumuladas ocur-
ridas en el periodo i, C
i,J
, tambien es Poisson, con
E[C
i,J
] =
i
Ya que
i
es un par ametro que representa el n umero esperado de reclamaciones ocurridas en
el a no i, mientras que j dene el patron de ujo de caja esperado en los diferentes periodos
de desarrollo j. Por otra parte tenemos que
E[X
i,j
]
E[X
i,0
]
=

j

0
que es independiente de i.
Lema. El modelo Poisson satisface los supuestos (1) del metodo Bornhuetter-Ferguson.
Dem
La independencia de los diferentes a nos de reclamaci on se sigue de la independencia de los
conteos X
i,j
. Ademas, tenemos que E[C
i,0
] = E[X
i,0
] =
i

0
con
0
=
0
, y
259
E[C
i,j+k
[C
i,0
, ..., C
i,j
] = C
i,j
+
k

=1
E[X
i,j+
[C
i,0
, ..., C
i,j
]
= C
i,j
+
i

=1

j+
= C
i,j
+
i
(
j+k

j
)
con
j
=

j
=0

. Que concluye la demostraci on.


Para estimar los par ametros (
i
)
i
, (
j
)
j
existen diferentes metodos, una posibilidad es utilizar
estimadores maximo verosmiles. La funci on de verosimilitud, obviamente con la informaci on
observada, D
I
= C
i,j
; i + j I, j J, esta dada por
L(
0
, ...,
I
,
0
, ...
j
; D
I
) =

i+jI
_
e

(
i

j
)
X
i,j
X
i,j
!
_
Como es costumbre, maximizaremos la log-verosimilitud asociada mediante el conjunto de
las ecuaciones de verosimilitud, desprendidas de igualar a cero las derivadas parciales sobre
cada uno de los, I +J +2, total de parametros desconocidos
i
y
j
. En D
I
obtenemos que
(Ii)J

j=0

i

j
=
(Ii)J

j=0
X
i,j
= C
i,(Ii)J
Ii

j=0

i

j
=
Ii

j=0
X
i,j
para toda i 0, ..., I toda j 0, ..., J bajo la restricci on de que

j
= 1. Este sistema
tiene solucion unica y proporciona los estimadores mle de
i
y
j
.
Con estos estimadores, el modelo Poisson para reservas se estima por
260

X
Poi
i,j
=

E[X
i,j
] =
i

j
,

C
Poi
i,j
=

E[C
i,J
[D
I
] = C
i,Ii
+
J

j=Ii+1

X
Poi
i,j
Observese que

C
Poi
i,j
= C
i,Ii
+
_
1
Ii

j=0

j
_

i
por lo que los estimadores Poisson tiene la misma forma que los BF. Sin embargo, aqu
debemos estimar
i
y
j
mediante los datos.
261
Modelo Poisson sobredisperso
Ya hemos comentado que en datos reales, es muy com un que el modelo Poisson resulte sobre-
disperso, i.e., que >> 1. Denamos el modelo Poisson sobredisperso para calcular reservas
a partir de un triangulo de desarrollo.
Supuestos sobre el modelo Poisson sobredisperso
Existen par ametros
0
,
1
, ...,
I
> 0, patrones
0
,
1
, ...,
J
> 0 y , tales que los valores
incrementales X
i,j
son independientes con distribuci on
X
i,j

Pois
_

_
Observe que
E[X
i,j
] = E
_
Pois
_

__
=

i

=
i

j
V[X
i,j
] = V
_
Pois
_

__
=
2

=
i

j
que hace evidente el nombre del modelo: Poisson sobredisperso.
Varianzas y errores estandar de los estimadores Chain-Ladder
En el modelo Chain-Ladder solo presentamos la estimaci on para la demanda esperada nal,
por supuesto, tambien le gustara saber, la precision que tiene este estimador. Para medir
la precision de esta estimaci on, consideramos los segundos momentos.
Supongamos que tenemos una variable aleatoria X y un conjunto de observaciones, D.
Supongamos que

X es un estimador D medible de E[X[D].
Def. Error cuadratico medio de prediccion condicional. El error cuadr atico medio de
predicci on condicional del etimador

X est a denido por
MSEP
X|D
= E
_
_

X X
_
2
[D
_
262
El MSEP condicional es una medida de distancia L
2
, que puede descomponerse en dos partes
MSEP
X|D
_

X
_
= V(X) +
_

X E[X[D]
_
2
La primera de ellas llamada proceso de varianza (error estoc astico), es decir, la varianza
inerherente al modelo estocastico (totalmente aleatorio que no puede eliminarse), y la se-
gunda conocida como el error de estimacion del parametro, que reeja la incertidumbre en
la estimacion de los par ametros y de la esperanza, respectivamente. En general, este error
de estimaci on se hace m as peque no cuanto mas observaciones tenemos. Pero hay que tener
cuidado, en muchas situaciones pr acticas este error no desaparece por completo, ya que se
tratar de predecir los valores futuros con la ayuda de la informaci on pasada, por lo que un
ligero cambio del modelo a traves del tiempo puede provocar muchos y serios problemas.
Reservas Tecnicas Especiales (Catastrocas)
Provisiones especiales determinadas y ordenadas por la S.H.C.P. para complementar y re-
forzar las reservas tradicionales o para corregir y prevenir desviaciones o insuciencias de
car acter tecnico o nanciero.
Riesgos Catastrocos
Fondo acumulativo que se integra con una parte de las primas de ciertas coberturas para
cubrir eventos catastr ocos como los terremotos.
Contingencia/Prevision (Margen de Seguridad para desviaciones adversas)
Fondo acumulativo que se integra con una parte de las primas para cubrir desviaciones en
la siniestralidad.
263

Vous aimerez peut-être aussi