Vous êtes sur la page 1sur 2

Estimacin Bayesiana reciben este nombre porque son capaces de sintetizar la

informacin muestra y la llamada no muestral utilizando el Teorema de Bayes. Es


que la informacin inicial que se dispone sobre el parmetro que se quiere estimar
(en nuestro caso el parmetro p -la proporcin de una caracterstica- puede,
expresarse a travs de una cierta distribucin de probabilidad que se llama
distribucin a priori o distribucin inicial.
Puede considerarse que el parmetro puede tomar un conjunto numerable de
valores posibles o bien que puede tomar valores comprendido en un cierto
intervalo o en toda la recta real. En el primer caso la distribucin a priori ser
discreta y en el segundo continua.

Considerando la informacin disponible antes de realizar ninguna experiencia,


la estimacin del parmetro p deber realizarse a partir de la distribucin no
muestral. La manera de obtener un valor concreto para la estimacin del
parmetro es algo que debe plantearse, en general, considerado una cierta
funcin de prdida asociada al error de la estimacin .Aqu consideraremos la
funcin de prdida ms habitual: la prdida cuadrtica .La estimacin que
minimiza la prdida cuadrtica es la media de la distribucin
As pues antes de hacer ninguna experiencia consideraremos la distribucin no
muestral de p como toda la informacin disponible; y el mejor resumen de esta
informacin , y por tanto la estimacin inicial : la media de la distribucin a priori:

Esta primera estimacin de p puede mejorarse utilizando la informacin


muestral : utilizando los resultados obtenidos , en cierta experiencia consisten en
la extraccin aleatoria de algunos individuos de la poblacin.
Supongamos que realizamos una muestra de tamao n (extraemos n
individuos) y obtenemos x resultados del tipo que nos interesa. Dependiendo de lo
que valga el parmetro p el resultado obtenido ser ms o menos verosmil. Esa
verosimilitud de la muestra nos vendr dada por la probabilidad de obtener x
resultados xito en n pruebas en funcin de los posibles valores del parmetro p
desconocido: As
L(x}= P(x/p).
Para cada posible valor del parmetro p esta probabilidad podr calcularse . No
ser otra cosa que la funcin de cuanta de x en una distribucin dicotmica ,
Binomial, geomtrica ,Binomial Negativa , o Hipergeomtrica (incluso Poisson
,aunque sta sea un proceso de observacin) con parmetro p el valor de cada

una de las alternativas . Se tratar de una distribucin dicotmica , binomial , etc


segn las condiciones en las que se realice el muestreo (una o varias pruebas,
con reposicin o no, un nmero fijo de extracciones, o extracciones hasta que se
produzcan 1 u otro nmero fijo de xitos)
Para sintetizar la informacin no muestral y la informacin muestral nos
planteamos determinar las probabilidades de cada posible valor de p sabiendo que
tras muestrear n individuos se han obtenido x xitos:

que aplicando el Teorema de Bayes


ser:

A la distribucin que asigna a cada posible valor del parmetro la probabilidad


de ese el valor condicionada a que la experiencia nos ha dado x xitos en n
pruebas se la conoce como distribucin a posteriori o distribucin final.
Esta distribucin nos da toda la informacin disponible acerca del parmetro
desconocido p, tanto la inicial como la emprica. Y a partir de ella podremos
realizar una segunda estimacin mejorada del valor del parmetro que ser la
media de la distribucin a posteriori:

Vous aimerez peut-être aussi