Vous êtes sur la page 1sur 14

2.2.

An alisis bayesiano para datos de Poisson

73

este no es un problema sencillo de resolver pues la diferencia de Betas no es, en general, otra distribuci on Beta. Sin embargo, existe una manera adecuada de soslayar este impedimento. En efecto, si observamos las densidades a posteriori de cada una de las zonas podemos ver que cada una de ellas se parece o aproxima de manera muy buena a una campana de Gauss, es decir, a una densidad Normal; de hecho aunque no es objeto de este m odulo, puede calcularse el grado de similitud entre ambas densidades y ver que sus distancias son realmente peque nas y por tanto, podemos concluir que la aproximaci on mediante una curva normal de las densidades Betas no supone ninguna p erdida de exactitud en los c alculos necesarios. Ahora bien, si deseamos aproximar estos juicios a posteriori mediante densidades de tipo Normal, por cu al debemos hacerlo? Parece claro que si queremos aproximar estas densidades, lo l ogico es aproximar la densidad Beta para la zona A por aquella densidad Normal que tenga la misma media y varianza (par ametros que determinan una densidad Normal) que la densidad Beta obtenida anteriormente. En este caso, aproximaremos la densidad a posteriori de A por una densidad Normal, N (0,5277; 0,000345). El mismo razonamiento es v alido para la zona B y por tanto, proponemos aproximar los juicios sobre la tasa de exito para la zona B mediante una densidad Normal, N (0,414; 0,000828). Ya estamos en condiciones de obtener c omo se distribuye la diferencia entre ambos par ametros, puesto que usamos la propiedad de que la suma (o diferencia) de densidades Normales independientes es tambi en una densidad Normal con media la suma (o diferencia, seg un proceda) de las medias y la suma de las varianzas correspondientes. Para el caso que nos ocupa tendremos que A B se comporta como una densidad Normal, N (0,1137; 0,001173). Y de esta densidad podemos obtener todas las cantidades de inter es que procedan, para ello basta con que introduzcamos desde la opci on Distributions la familia Normal, con los par ametros anteriores. Para el caso que nos ocupa se tiene que: Pr{A > B } = 0,999. Luego podemos asegurar con una probabilidad del 99,9 % (ver gura 2.16) que la tasa de exitos en la zona A es mayor que en la zona B.

2.2.

An alisis bayesiano para datos de Poisson

Como ya hemos comentado en el cap tulo 6, secci on 6.5, la distribuci on de Poisson aparece de manera natural en el estudio de datos que provienen de procesos de conteo, como es el caso del n umero de siniestros, n umero de llegadas a un sistema, llegadas a una ventanilla de una ocina bancaria, llegadas a una caja de supermercado, llegadas a un sem aforo que regula el tr aco, n umero de reclamaciones que presentan unos usuarios, n umero de partes de accidentes que recibe una compa n a de seguros, etc. Estudiaremos en esta secci on el procedimiento bayesiano de inferencia para este modelo muestral.

74

Inferencia bayesiana

Figura 2.16: Densidad Normal que mejor aproxima la diferencia de tasas de exito entre ambas zonas

Supongamos, por tanto, el caso de que estamos observando el n umero de llegadas x1 , ..., xn que recibe un servicio a lo largo de n periodos. Dicha variable pertenecer a a una familia de distribuciones que mida de manera adecuada su comportamiento. Una variable discreta aleatoria X se dice que sigue una distribuci on Poisson de media > 0 cuando la probabilidad de que tome un valor particular x = 0, 1, .... se expresa mediante: Pr(X = x) = p(x|) = x exp(), x! x = 0, 1, 2, 3, ...

Esta distribuci on por tanto es adecuada para medir los procesos de llegada y/o conteo y depender a del valor de para que adopte mejores ajustes a los datos observados. Gr acamente la distribuci on de Poisson puede verse en la gura 2.2 para varios valores del par ametro . Las medidas descriptivas de inter es de la distribuci on P () que m as usualmente se utilizan son media, moda y varianza que en este caso valen:

2.2. An alisis bayesiano para datos de Poisson

75

Figura 2.17: Distribuci on P () para varios valores de

E (X ) = ,

Var(X ) = ,

Moda [X ] =

Como ya conocemos, esta distribuci on a menudo ocurre como un caso l mite de la distribuci on binomial cuando el n umero de repeticiones es grande (n ) y la probabilidad de exito es peque na ( 0). Es por tanto una distribuci on apropiada para explicar eventos raros, como por ejemplo el n umero de accidentes al a no de las carreteras espa nolas o el n umero de visitas a un determinado servicio de urgencias. As pues, tenemos un par ametro > 0 que gobierna el comportamiento de la distribuci on del n umero de llegadas. Desde el punto de vista bayesiano deseamos aprender sobre el comportamiento de , que como sabemos es el n umero medio de llegadas al sistema. Dada una muestra x = (x1 , x2 , x3 , . . . xn ), como en (9.2) la verosimilitud tiene la expresi on:
L(x|) L( x|) nx exp(n),

donde x es la media muestral de las observaciones, i.e., x =

1 n

xi .
i=1

76

Inferencia bayesiana

2.2.1.

Construcci on de una densidad a priori: an alisis conjugado

Como ya sabemos, en el an alisis bayesiano necesitamos modelizar el conocimiento a priori que sobre el par ametro posee el experto o investigador. Para el caso que nos ocupa, existe una densidad a priori que es especialmente bien comportada para la verosimilitud de Poisson. En efecto, la densidad de tipo Gamma, G (, ), que viene expresada de la siguiente forma: () = 1 exp( ) 1 exp( ) ()

Esta densidad est a por tanto determinada por los valores de y . Observemos que con respecto a la expresi on (7.84) hemos utilizado aqu , por conveniencia, la 1 reparametrizaci on = . Dichos par ametros est an relacionados con sus medidas descriptivas y por tanto resultan muy importantes para su asignaci on. La media, varianza y moda de esta densidad valen: E ( ) = , V () = , 2 Moda () = 1 (si > 1).

De manera an aloga a lo que ocurr a con las densidades Beta para el caso de proporciones, las densidades Gamma admiten tambi en una gran variedad de formas, lo que la hacen especialmente exibles para la modelizaci on de los juicios del experto sobre la media de llegadas al sistema. Tambi en merece la pena atender a las situaciones en las que deseemos dar todo el peso de la inferencia a los datos y por tanto deseemos utilizar una a priori desinformativa (al estilo cl asico). En efecto, esto es posible. Observemos el caso en que = 1 y = 0 (en rigor, debe ser un n umero positivo y deber amos decir tendiendo a cero). En tal caso la densidad Gamma resultante ser a del tipo: () 11 exp(0 ) 1 Es decir, tendr amos una a priori constante lo que viene a decirnos que consideramos igualmente plausibles cualesquiera valores de , lo que equivale a decir que no tenemos conocimiento sobre y nos mostramos desinformativos sobre dicho par ametro. Por tanto, las situaciones de desinformaci on tambi en pueden ser modelizadas mediante un caso particular de densidad Gamma. Existen otras densidades no informativas que tienen la misma interpretaci on, como la denominada de Jereys (que estudiaremos posteriormente) y que corresponder a con una densidad Gamma con = 0,5 y 0, J () 1/2 . (2.17)

2.2. An alisis bayesiano para datos de Poisson

77

2.2.2.

Actualizando nuestras opiniones

Para la actualizaci on de nuestros juicios sobre sabemos que el Teorema de Bayes nos dice c omo debemos proceder. La distribuci on a posteriori es proporcional al producto de la distribuci on a priori y los datos. Teorema 2.2 Sea x = (x1 , ..., xn ) una muestra aleatoria simples de una poblaci on P () y consideremos () G (, ) una densidad a priori para con , > 0 conocidos. Entonces, la distribuci on a posteriori de es tambi en Gamma con par ametros, G ( + nx , + n), siendo x el estad stico suciente dado por la media
n

muestral, x =
i=1

xi .

Adem as la distribuci on predictiva de una nueva observaci on y es una distribuci on Binomial Negativa. Demostraci on:
(|x ) L( x|) () nx exp(n) 1 exp() +1 nx exp((n + )),

que se corresponde con una densidad Gamma de par ametros nx + y + n. Para una nueva observaci on y podemos usar la expresi on (a priori) p(y ) = f (y |) () . Sustituyendo cada elemento por sus expresiones para el caso Poisson (|x) Gamma, tenemos 1 exp()y exp()1 y! () ( + 1)+y exp(( + 1))+y ( + y )
1

p(y ) =

de donde se deduce inmediatamente que p(y ) = ( + y ) ()(y + 1) +1

1 +1

(2.18)

que es la expresi on de una Binomial Negativa. Obviamente la distribuci on (a posteriori) predictiva es an aloga sin m as que reemplazar por + nx y por + n. Observemos que de nuevo aparece la misma propiedad que ten amos en el caso de proporciones. La distribuci on a posteriori pertenece tambi en a la familia de las distribuciones Gamma, donde el valor inicial se ha actualizado y es sustituido por + nx y el par ametro se actualiza con n + . Es decir, la familia de distribuciones a priori Gamma es conjugada para un modelo muestral de tipo Poisson.

78

Inferencia bayesiana

Algunas propiedades interesantes de la distribuci on a posteriori son inmediatas. Observemos por ejemplo la media a posteriori del par ametro , que puesto que tiene un comportamiento seg un una densidad Gamma, puede expresarse como: E (|x ) = con w = nx + = w + (1 w) x, n+

. La expresi on anterior permite interpretar la media (a posteriori) n+ como un compromiso entre la media a priori y la media de los datos. Si el tama no muestral es elevado el l mite de la expresi on anterior es la media muestral (como ya hab amos visto que tambi en ocurr a para el caso de la densidad Beta con verosimilitud Binomial). El mismo tipo de an alisis puede hacer con la varianza que en nx + este caso vale: . (n + )2 Para el caso desinformativo, Jereys propone el uso de la distribuci on () G (0,5, 0). De acuerdo al teorema 2.2, la distribuci on a posteriori por tanto ser a | x G ( n x + 0.5, n) Ejemplo 2.13 Los datos siguientes representan el n umero de llegadas (en intervalos de 2 minutos medidos 45 veces) a una caja de un supermercado: 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 5. 1. 2. Usando una a priori G (2, 1), obtener la densidad a posteriori bajo un modelo de P () para los datos. Representa la densidad a priori y a posteriori. Observa su media, desviaci on est andar y moda a posteriori. Es la a priori sensible? Cu anta informaci on a nade a los datos esta a priori?

Soluci on: Tenemos n = 45 con nx = 78, por tanto de acuerdo al teorema (2.2) con = 2 y = 1 tendremos una densidad a posteriori, G (80, 46). Adicionalmente utilizaremos FirstBayes para la resoluci on de este ejemplo. En este ejemplo utilizaremos la opci on Poisson sample del men u Analysis. En primer lugar creamos un chero en el FirstBayes con los datos del problema (gura 2.18). Una vez introducidos los datos dentro de la opci on de an alisis de Poisson, debemos editar la densidad a priori (en la parte superior derecha aparece una casilla con Time parameter con valor 1, debe dejarse en dicho valor). Pues bien, editamos la a priori G (2, 1) teniendo en cuenta que el par ametro shape corresponde con nuestro valor de y el valor de scale corresponde con el de (observemos que en la pantalla del FirstBayes aparece como Ga(1,2)). En la gura 2.19 puede verse la a priori para este problema.

2.2. An alisis bayesiano para datos de Poisson

79

Figura 2.18: Datos para el ejemplo 2.13

Estos valores producen unos valores a priori para la media, moda y desviaci on t pica como los que aparecen en la tabla 2.5. Tabla 2.5: Descriptivos a priori y posteriori para el ejemplo 2.13 Priori G (2, 1) 2 1 1.4142 Posteriori G (80, 46) 1.7391 1.7174 0.1944 Priori Jerey Posteriori G (78,5, 45) 1.7444 1.7222 0.1968

Media Moda Desv. T pica

En la gura 2.20 puede verse la densidad a posteriori obtenida. Como puede apreciarse en la gr aca triplot, la informaci on a priori no ha pesado pr acticamente nada en el an alisis a posteriori ya que la verosimilitud y la a posteriori son esencialmente coincidentes (parecen superpuestas, ver gura 2.2.2).

80

Inferencia bayesiana

Figura 2.19: Priori para el ejemplo 2.13

Ejemplo 2.14 (Continuaci on ejemplo 2.13) Realizar el an alisis anterior con una densidad no informativa tipo Jereys vista esta como caso l mite de una G (, ), con = 1/2 y 0. Soluci on: En este caso no tiene mucho sentido que hablemos de la media, moda y desviaci on t pica a priori ya que hemos asumido una situaci on no informativa y por tanto no lo hemos incluido en la tabla de resultados. El an alisis a posteriori (ver tabla 2.5) nos hace ver que la situaci on es an aloga al apartado anterior y por tanto podemos decir que la modelizaci on a priori anterior no aporta informaci on al problema y que son los datos los que producen la informaci on a posteriori. En denitiva, el Teorema 2.2 es el instrumento b asico para la estimaci on puntual bayesiana y la distribuci on predictiva, sin m as que considerar que las cantidades descriptivas a posteriori m as habituales son: E (|x ) = + nx , +n Var(|x ) = + nx ( + n)2 y Moda (|x ) = + nx 1 , +n

y la distribuci on predictiva de tipo Binomial Negativa. Para los intervalos bayesianos de credibilidad el procedimiento bayesiano en este caso es an alogo al caso de datos binarios.

2.2. An alisis bayesiano para datos de Poisson

81

Figura 2.20: Posteriori para el ejemplo 2.13

Figura 2.21: Triplot para el ejemplo 2.13

Ejemplo 2.15 (Continuaci on ejemplo 2.13) Supongamos que estamos interesados en obtener un intervalo de credibilidad al 95 % para el n umero medio de

82 llegadas a la caja del supermercado.

Inferencia bayesiana

Soluci on: Su resoluci on con FirstBayes es inmediata. Basta con ir a la pesta na correspondiente al HDI e indicar que queremos un nivel de probabilidad del 95 % (gura 2.22).

Figura 2.22: Intervalo de credibilidad al 95 % para en el ejemplo 2.13 Los resultados obtenidos Pr{1,36 2,12} = 0,95, nos permiten decir que con una probabilidad de 0, 95 el n umero medio de llegadas a la caja de dicho supermercado se sit ua entre 1,36 y 2,12. Ejemplo 2.16 (Distribuci on predictiva en el ejemplo 2.13) Supongamos que deseamos conocer el comportamiento de futuras 10 llegadas para saber si necesitamos abrir una nueva caja o no (por ejemplo). Soluci on: Para el caso por ejemplo de las pr oximas 10 medidas que se hagan, necesitaremos medir la predictiva para las nuevas 10 observaciones (o pr oximos 20 minutos) se obtienen los resultados que aparecen en la gura 2.23 A la luz de los resultados podemos decir que por t ermino medio en las pr oximas 10 medidas que hagamos esperaremos atender a 17 clientes, y que con una probabilidad del 95 % en los pr oximos 20 minutos (10 pr oximas medidas) atenderemos entre 9 y 26 clientes.

2.2. An alisis bayesiano para datos de Poisson

83

Figura 2.23: Medidas predictivas para el n umero de llegadas en el ejemplo 2.23

Ejemplo 2.17 Una compa n a aseguradora asume que el n umero de reclamaciones en un a no tiene distribuci on de Poisson de par ametro y que este n umero es independiente de un a no a otro. Supongamos que se observan n a nos de un asegurado elegido aleatoriamente de entre una cartera. Se pide: 1. Encontrar una densidad Gamma a priori para conociendo que la compa n a estima como m as frecuente 2 reclamaciones al a no y que no m as de 5 reclamaciones son asumibles en un a no. Supongamos que en los u ltimos 10 a nos el asegurado presenta el siguiente n umero de reclamaciones: 4, 0, 1, 2, 3, 0, 0, 1, 1, 0 (introducir estos datos en el FirstBayes como un chero). Obtener la densidad a posteriori y un intervalo de credibilidad a posteriori al 99 %. Suponiendo que la compa n a tiene 500 asegurados en esta cartera y que destina 10 u.m. para cada reclamaci on, obtener un intervalo al 95 % de previsi on de costes para el siguiente a no. El mismo an alisis anterior pero con densidad a priori no informativa G (1, 0).

2.

3.

4.

Soluci on: Todos los c alculos realizados se han obtenido con FirstBayes de manera an aloga a como hemos procedido en los ejemplos anteriores. Los datos a

84

Inferencia bayesiana

priori nos dicen que la moda es 2 reclamaciones y que pensamos que Pr[ < 5] es un valor alto (pr oximo a 1). Sabemos que la moda de una densidad Gamma es 1 de donde deducimos una relaci on entre y . En este caso, 1 = 2 o equivalentemente, = 2 + 1. Manteniendo esta relaci on iremos probando en el FirstBayes distintos valores de y comprobando el valor de la probabilidad de que no m as de 5 reclamaciones son esperadas. El caso (shape parameter) igual a 5 y = 2, nos da una probabilidad del orden de 0,97 que parece adecuada (otras asignaciones son igualmente v alidas). Con esta densidad a posteriori y los datos introducidos como un chero la densidad a posteriori resulta gamma, G (17, 12), cuyo intervalo de credibilidad al 99 % vale [0, 64; 2, 39]. Debemos obtener la predictiva para el pr oximo a no (1 observaci on), pinchando en su pesta na correspondiente, obtenemos que dicha distribuci on predictiva es una Binomial Negativa de par ametros 17 y 0,9231. Su intervalo al 95 % vale [0, 4] (es decir, para el pr oximo a no no se esperan m as de 4 reclamaciones con probabilidad 0,95). Pues bien, la previsi on para el pr oximo a no deber a ser de 500104 = 20000 u.m. con probabilidad 0,95. Se procede manera an aloga pero cambiando la a priori por esta nueva, s olo hay que tener en cuenta que no permite introducir como 0 y por ello le damos un valor muy peque no, como 0,0001. La densidad a posteriori obtenida gamma, G (13, 10), cuyo intervalo de credibilidad al 99 % vale [0, 51; 2, 33]. Para la previsi on de gastos, debemos obtener la predictiva para el pr oximo a no (1 observaci on), pinchando en su pesta na correspondiente, obtenemos que dicha distribuci on predictiva es una Binomial Negativa de par ametros 13 y 0,90. Su intervalo al 95 % vale [0, 4] (es decir, para el pr oximo a no no se esperan m as de 4 reclamaciones con probabilidad 0,95). Pues bien, la previsi on para el pr oximo a no deber a ser de 500 10 4 = 20000 u.m. con probabilidad 0,95. Como vemos la decisi on nal no depende de la elecci on de la a priori. El caso de los contrastes de hip otesis se realiza de manera an aloga al caso de proporciones pero teniendo ahora en cuenta que nuestras densidades son de las familias Poisson y Gamma. Ejemplo 2.18 (Continuaci on ejemplo 2.17) En una observaci on de un asegurado de n = 10 a nos se ha observado x = 1,3 y supongamos que la compa n a est a interesada en realizar el contraste H0 : = 2 vs H1 : = 1, para una situaci on a priori desinformativa. Soluci on: En general, este contraste corresponde al planteamiento: H0 : = 0 vs H1 : = 1 . El odds a posteriori vale

2.2. An alisis bayesiano para datos de Poisson

85

nx p0 exp(n0 ) 0 0 0 = = n x p1 1 1 exp(n1 ) 1

0 1

nx

exp (n(0 1 )) ,

(2.19)

y el factor Bayes valdr a B01 =


x n 0 exp(n0 ) = x n 1 exp(n1 )

0 1

nx

exp (n(0 1 )) .

(2.20)

Para el ejemplo, n = 10, x = 1,3, 0 = 1 =

tenemos que B01 = 213 exp(10) 0,37. Observemos que, en general, de la denici on del factor Bayes tenemos que el factor Bayes de H1 frente H0 puede derivarse trivialmente de la relaci on B10 = p1 /p0 = 1 /0 p0 /p1 0 /1
1 1 = B01 .

1 , 0 = 2 y 1 = 1. De (2.20) 2

(2.21)

Luego de (2.21), tenemos que en este ejemplo B10 = 0,1 37 2,7 Es decir, los datos dan casi 3 veces m as creible a H1 que a H0 . Ejemplo 2.19 (Continuaci on ejemplo 2.17) Para cada una de las a priori consideradas en este ejemplo, contrastar la hip otesis de que el n umero medio de reclamaciones que recibe la compa n a no es mayor de 3. Soluci on: Realizaremos el ejemplo para la primera a priori (para la segunda se proceder a de manera an aloga). El test de hip otesis planteado es: H0 : 3 vs H1 : > 3

Desde el punto de vista bayesiano, cada una de esas hip otesis tiene una probabilidad a priori de ser cierta que puede obtenerse sin m as que calcular mediante la a priori asignada la probabilidad de cada intervalo: 0 = Pr[H0 cierta ] = Pr[0 3] = 0, 715. Probabilidad que se obtiene en FirstBayes directamente en su ventana de probabilidades. Por tanto, la probabilidad de H1 (denotada por 1 ) ser a 0,285. Observe0 0, 715 mos que el cociente = 2, 5 viene a decirnos que, a priori, la hip otesis 1 0, 285 nula H0 es aproximadamente 2,5 veces m as creible que H1 . Ahora actualizamos estas probabilidades utilizando la muestra y obteniendo las probabilidades de cada hip otesis mediante la densidad a posteriori. El resultado es: p0 = Pr[H0 cierta | datos ] = Pr[0 3| datos ] = 1.

86

Inferencia bayesiana

En consecuencia, p1 = Pr[H1 cierta | datos ] = 0. Lo que viene a decirnos que debemos aceptar la hip otesis nula H0 . El caso de hip otesis nula simple frente alternativa compuesta se resuelve atendiendo al siguiente planteamiento. Supongamos que observada una muestra aleatoria simple de tama no n, x = (x1 , ..., xn ) de una poblaci on P () deseamos realizar el contraste H0 : = 0 vs H1 : = 0 , con una densidad a priori para la hip otesis alternativa del tipo G (, ) con , > 0 conocidos. Las cantidades necesarias para realizar este test de hip otesis son () = con 1 () G (, ). L(x|) =

0 (1 0 )1 ()

si = 0 si = 0

1
n i=1 (xi !)

exp(n)nx ,

(2.22)

p1 (x) =
0

L(x|)1 ()d =

1
n i=1 (xi !)

+ ) (nx . () (n + )+nx

(2.23)

El factor Bayes vale entonces B01 = L(x|0 ) () = exp(n0 ) p1 (x) ( + nx ) n+

(0 (n + ))

nx

(2.24)

Ejemplo 2.20 (Continuaci on ejemplo 2.17) Para el caso del ejemplo 2.17 realizar el contraste H0 : = 2 vs H1 : = 2, con una densidad a priori para la hip otesis alternativa del tipo G (2, 1). Soluci on: Utilizando las expresi on del factor Bayes dada en (2.24) obtenemos B01 = (2) exp(20)112 2213 0,81, (15)

o equivalentemente B10 1,2. Lo cual nos indica que los datos otorgan una muy ligera evidencia en favor de H1 .

Vous aimerez peut-être aussi