Vous êtes sur la page 1sur 16

Estadstica

Tema 6

Curso 2006/07

Tema 6. ESTIMACIN PUNTUAL.


Objetivos Conceptos: Comprender y distinguir los siguientes conceptos: o muestra aleatoria simple o estadstico o estimador de un parmetro o estimacin de un parmetro o estimador centrado o estimador ms eficiente que otro Comprender el significado del estimador de mxima verosimilitud y del modo de obtenerlo. Saber hacer: Dada una variable aleatoria con modelo de distribucin de probabilidad conocido, que depende de uno o ms parmetros: o Hallar el estimador del parmetro por el mtodo de los momentos o Hallar el estimador del parmetro por el mtodo de mxima verosimilitud Dado un estimador de un parmetro: o Saber estudiar si es o no centrado o Saber estudiar si es ms eficiente que otro estimador del mismo parmetro o Saber hallar su error cuadrtico medio A partir de los resultados de una muestra aleatoria simple de una v.a. o Hallar una estimacin de sus parmetros por el mtodo de los momentos o Hallar una estimacin de sus parmetros por el mtodo de mxima verosimilitud Problemas de exmenes (web): SIN: Junio 2006: Problema 3 b) Septiembre 2006: Problema 2 Febrero 2005: Problema 3 b) Junio 2005: Problema 2 a)b) Febrero 2004: Problema 2 c)d) Junio 2004: Problema 2 c) Junio 2003: Problema 2 e) Septiembre 2003: Problema 3 a)b)c)

Estadstica 6.1.- Introduccin

Tema 6

Curso 2006/07

Hemos visto en prcticas cmo buscar un modelo probabilstico adecuado para un conjunto de datos. Recordemos lo visto al final del tema 4:
Ajuste de una variable estadstica a un modelo terico Objetivo: Medios: definicin de la variable: qu mide? en qu condiciones? medidas descriptivas (media, varianza, simetras, frecuencias, ...) representaciones grficas elegir un modelo encontrar los parmetros del modelo

Verificacin: Contrastes no paramtricos con Statgraphics (Distribution Fitting): p-valor > 0.3 para aceptar la hiptesis (cuanto mayor sea, con ms confianza se acepta el modelo propuesto)

y ponamos el ejemplo:
Ejemplo: X4: Nmero de llamadas diarias que se hacen por telfono mvil
Average = 1.25641

Variance = 1.51147

Diagrama de barras de frecuencias relativas

Funcin de masa P(1.25)

Barchart for Llamadas diarias


40

Poisson Distribution
0.4 Mean 1.25

percentage

20 10 0 0 1 2 3 4 5

probability

30

0.3 0.2 0.1 0 0 2 4 6 8

x
Goodness-of-Fit Tests for Llamadas diarias
Fitted Poisson distribution: mean = 1.25641 Chi-Square = 0.555238 with 2 d.f. P-Value = 0.757586

Luego aceptamos que la variable nmero de llamadas diarias, puede tener una distribucin de Poisson de parmetro =1.25. (Para otros ejemplos ver tambin las pginas 46 a 52 de la Gua Docente.)

Estadstica

Tema 6

Curso 2006/07

Este tipo de trabajo se ha hecho a partir de los datos concretos de una variable estadstica. Pero nos podemos plantear algunas cuestiones: Se puede asegurar que esos resultados son vlidos para todos los estudiantes de la EUI? En caso afirmativo, con qu confianza?; en caso contrario, en qu condiciones podran ser vlidos? En general, lo que se quiere estudiar es alguna caracterstica de una poblacin determinada y encontrar un modelo probabilstico para ella a partir de unos datos concretos. Este es el objetivo de la llamada Inferencia estadstica. Lo que veremos en este tema y los siguientes es cmo hacerlo y cmo medir la fiabilidad de los resultados obtenidos. Damos una visin general de la Inferencia estadstica: Para obtener los DATOS: Censo (toda la poblacin) Muestra (subconjunto de elementos de la poblacin) Es fundamental: cmo elegir los elementos de la muestra y el tamao de la misma1. o o Poblacin homognea (m.a.s. :muestreo aleatorio simple2) Poblacin heterognea (muestreo estratificado3)

Para obtener el MODELO PROBABILSTICO: Hiptesis sobre el modelo (por la definicin de la variable, grficas, datos, ...) Inferencia paramtrica: conocido el modelo, buscamos informacin sobre los parmetros () del mismo, mediante: o o o Estimacin puntual: = 0 Estimacin por intervalo: (a,b) con un % de confianza Contraste de hiptesis: aceptamos = 0 frente a 0 ( >0 <0), con nivel de significacin .

Inferencia no paramtrica: para verificar las hiptesis sobre el modelo o sobre independencia de variables o muestras. o o Ajuste de distribuciones: Aceptamos que XModelo() con nivel de significacin . Independencia: X e Y son independientes; los datos de la muestra son independientes.

Si el tamao de la muestra es demasiado pequeo la informacin obtenida puede no ser representativa y si es excesivamente grande podemos estar derrochando recursos sin obtener ms informacin relevante.

m.a.s.: todos los elementos de la poblacin tienen la misma probabilidad de estar en la muestra y son independientes entre ellos. Para ello, la eleccin de los elementos se debera hacer con reemplazamiento; sin embargo, cuando el tamao de la muestra es menor del 5% del tamao de la poblacin se considera vlido hacerlo sin reemplazamiento. Se suele hacer mediante enumeracin de los elementos y eleccin aleatoria de los mismos.
2

Se divide la poblacin en clases o estratos homogneos (repecto a las variables que afectan a la caracterstica estudiada) y dentro de cada uno de ellos se hace una m.a.s. El tamao de la muestra de cada estrato ha de ser proporcional al tamao del estrato dentro de la poblacin general.
3

Estadstica

Tema 6

Curso 2006/07

Ejemplo: Se quiere estudiar el nmero de llamadas diarias por el mvil que hace un estudiante de la EUI. Para obtener los DATOS: Censo (toda la poblacin) Podra hacerse pero con un coste excesivo y no imprescindible para obtener la informacin que se precisa. (S es necesario hacerlo unas elecciones, la evaluacin de una asignatura, ...) Muestra (subconjunto de elementos de la poblacin) o Poblacin homognea (m.a.s. :muestreo aleatorio simple) Entre los estudiantes de la EUI se podran elegir 100 (menos del 5%) forma aleatoria. o Poblacin heterognea (muestreo estratificado) Se podran hacer estratos por grupos de edad, nivel educativo, zona residencia, sexo, ... y en cada uno de ellos se hace una m.a.s. es en

de de

Para obtener el MODELO PROBABILSTICO: (Para el ejemplo consideramos como resultado de la muestra los datos obtenidos con n=39 en el grupo GM23) Hiptesis sobre el modelo (por la definicin de la variable, grficas, datos, ...) Por la definicin de la misma podra ajustarse a un modelo de Poisson; el diagrama de barras, y la similitud de media y varianza lo confirman. Inferencia no paramtrica: para verificar las hiptesis sobre el modelo o sobre independencia de variables o muestras. o Ajuste de distribuciones: A partir de un test (Chi-cuadrado) aceptamos que XP(1.25461) con un pvalor de 0.75 (que implica bastante confianza en dicha decisin).

Inferencia paramtrica: como suponemos que es un modelo de Poisson buscamos informacin sobre su parmetro : o Estimacin puntual: = 0 Se asigna al parmetro un valor concreto: = 1.25641 (como es la media de una Poisson, una posible estimacin es la media muestral

X = 1.25641 )
o Estimacin por intervalo: (a,b) con un % de confianza Se encuentra un intervalo en el que est incluido el parmetro con una determinada confianza:
Confidence Intervals for Llamadas diarias -----------------------------------------

95.0% confidence interval for mean: 1.25641 +/- 0.39853 [0.857878;1.65494]


Segn explica Statgraphics: In practical terms we state with 95.0% confidence that the true mean Llamadas diarias is somewhere between 0.857878 and 1.65494. o Contraste de hiptesis: aceptamos = 0 frente a 0 ( >0 <0), con nivel de significacin . Se plantean dos hiptesis y se estudia si los datos de la muestra aportan la suficiente evidencia para rechazar una de ellas frente a la otra.

Estadstica

Tema 6

Curso 2006/07

Con los datos de la muestra, y tras un anlisis adecuado con Statgraphics: Rechazamos la hiptesis de que = 1 frente a > 1, con un 85% confianza (nivel =0.15). La muestra aporta datos evidentes de que el nmero medio de llamadas (de toda la poblacin) es mayor que uno. Aunque la media de las mujeres es M = 1.5 y la de los hombres es V = 1.15, no podemos rechazar la hiptesis de que sean iguales ( M = V ). La muestra no aporta datos evidentes para poder asegurar que el nmero medio de llamadas en las mujeres es mayor que el de los varones. El tamao muestral es muy pequeo y la diferencia entre las medias muestrales puede deberse a factores aleatorios y no puede garantizarse que sean distintas.

En este tema estudiaremos cmo realizar la estimacin puntual, en concreto veremos diversas formas de obtener dichas estimaciones y qu propiedades son deseables que verifiquen.

6.2.- Estimacin puntual


Dada una v.a. X, de la que suponemos conocido el modelo de distribucin que sigue, buscamos informacin sobre los parmetros () del mismo; en el caso de la estimacin puntual, buscamos un valor concreto para . Antes, hemos de definir los conceptos matemticos y la notacin que utilizaremos. X ser la variable aleatoria de la que queremos estudiar su modelo de distribucin M() Antes de obtener los datos (n) Muestra aleatoria simple (m.a.s.): X1, ... , Xn son v.a. independientes con igual distribucin M(). Estadstico: T=T(X1, ... , Xn) es una v.a. que depende de la m.a.s. Estimador: *= *(X1, ... , Xn) Es un estadstico (por tanto, una v.a.) que se elige para encontrar un valor para el parmetro . Ejemplo : X: nmero de llamadas diarias por el mvil que hace un estudiante de la EUI. Suponemos X P(). Antes de obtener los datos (n) X1, ... , Xn son v.a. independientes con distribucin P(). Despus de obtener los datos (n=39) Resultado de la muestra: {1,0,3,2,,2} R Valor del estadstico: Despus de obtener los datos (n) Resultado de la muestra: x1, ... , xn R

Valor del estadstico: t=T(x1, ... , xn) R

Estimacin de : *(x1, ... , xn) R

X1 + ... + X n n ( X1 X ) 2 + ... + ( X n X ) 2 Varianza muestral: V = n Mximo: Mx ( X 1 ,..., X n )


Media muestral: X =

Estadsticos:

X = 1.25641 R
V = 1.47368 R Mx(Xi) = 5 R

Estadstica

Tema 6

Curso 2006/07

Estimador: Estimacin de : Como X P(), sabemos que E(X)= y que V(X)=. En este caso, los estadsticos X y V , En este caso, podemos obtener dos podran ser adecuados para obtener un valor para estimaciones para : : *=1.25641 R

*= X

= V

=1.47368 R

6.4.- Propiedades de los estimadores


En el ejemplo anterior, podemos elegir dos estimadores distintos para el parmetro de una distribucin de Poisson, y ambos con criterios razonables: la media de la Poisson es y la varianza de la Poisson tambin es . Con cul nos quedamos? Qu criterios vamos a utilizar para determinar qu estimadores son los ms adecuados? Ejemplo: El objetivo es dar en el centro de la diana, y los impactos de distintas escopetas estn sealados con diferentes seales. Cul parece ms adecuada? Qu ventajas tienen unas frentes a otras? Los tringulos-azules estn muy agrupados entre s (buena puntera), pero entorno a un punto que no es el objetivo (punto de mira algo desviado). Las estrellas-verdes tienen bien el punto de mira y una puntera moderadamente buena. Los impactos-rojos parecen tener bien el punto de mira (estn repartidos homogneamente alrededor del objetivo), pero una puntera psima. Lo deseable sera tener bien el punto de mira y una buena puntera. Si lo traducimos a los criterios que vamos a utilizar para seleccionar un estimador, buscaremos estimadores en los que el valor esperado coincida con el deseado (tener bien el punto de mira) y con la menor varianza posible (buena puntera). Definicin. Decimos que * es un estimador centrado (o insesgado) de , si E(*)= , para cualquier valor de . En caso contrario decimos que es sesgado y se define sesgo de * como b(*)=E(*) .

Estadstica
Ejemplos: o

Tema 6

Curso 2006/07

La media muestral X es un estimador centrado de E(X)(demo4). Por tanto, o o Si X P(), *= X es un estimador centrado para . Si X N( , ), *= X es un estimador centrado para ..

La varianza muestral V =

centrado para .

( X1 X ) 2 + ... + ( X n X ) 2 no es un estimador centrado para n n 1 2 V(X)=2. De hecho, E(V)= (demo5). Por tanto, si X P(), = V no es un estimador n ( X1 X ) 2 + ... + ( X n X ) 2 s es un estimador centrado para n 1

La cuasivarianza muestral S =
2

V(X)=2 (demo6). Por tanto, si X P(), S2 es un estimador centrado para . Observacin: o o No siempre es fcil estudiar si un estimador es centrado. No siempre existe un estimador centrado para cualquier parmetro.

Definicin.

es ms eficiente que cuando V ( ) < V ( ). Decimos que un estimador 1 2 1 2


Si un estimador tiene la mnima varianza posible se dice que es eficiente. Observacin: o o No siempre es fcil estudiar la varianza de un estimador, y como consecuencia, no ser fcil comparar o estudiar la eficiencia de los estimadores. No siempre existe un estimador eficiente para cualquier parmetro.

Ejemplos: o La varianza muestral V es ms eficiente que la cuasivarianza muestral S2:

n n 2 2 Como S = V V (S ) = V (V ) , por tanto V ( S ) > V (V ) . n 1 n 1


2

Si X P(), X y S2 son estimadores centrados para , cul es ms eficiente? Hallamos sus varianzas:

V (X ) =

(demo7)

V (S 2 ) =

2 2 (demo8) + n 1 n

1 1 X + ... + Xn 1 E(X ) = E 1 = ( E ( X1 ) + ... + E ( Xn ) ) = ( + ... + ) = ( n ) = n n n n


Como es ms extensa, se desarrolla al final del tema, ANEXO 1.

n n n n n 1 2 2 2 S2 = V E(S ) = E V = E (V ) = = n 1 n 1 n n 1 n 1 1 1 X + ... + Xn 1 7 V 1 = 2 (V ( X1 ) + ... + V ( Xn ) ) = 2 ( + ... + ) = 2 ( n ) = n n n n n


6 8

Se basa en la frmula general de la varianza de la varianza muestral. Los detalles en el ANEXO 2.

Estadstica

Tema 6

Curso 2006/07

Como

2 2 > 0 , se tiene que V ( X ) < V ( S 2 ) , y por tanto X es ms eficiente que S2. n 1

Una medida que recoge estas dos propiedades de los estimadores (centrado y eficiente) es la siguiente: Definicin. Si * es un estimador de , se define su error cuadrtico medio como:

ECM ( ) = E ( ( ) 2 )

(Mide la distancia esperada entre el estimador y el parmetro que queremos estimar.) Propiedades: o o o Se verifica que ECM ( ) = V

( ) + ( E (

) )

Si

es un estimador centrado, entonces ECM ( ) = V

( ) .

Si un estimador es centrado y eficiente (mnima varianza), tendr el menor ECM posible.

Ejemplos: o En una muestra aleatoria simple de tamao 3 de una variable aleatoria normal de media y desviacin tpica 1, se consideran los estimadores para :

U3 =

Estudiamos cul de ellos tiene menor error cuadrtico medio:

1 3 1 1 2 4 X1 + X 2 + X 3 ; U 4 = X1 + X 2 + X 3 . 8 8 2 9 9 9

3 1 1 3 1 1 E(U 3 ) = E X1 + X 2 + X 3 = + + = 8 2 8 8 2 8

13 3 1 1 1 3 1 V(U 3 ) = V X1 + X 2 + X 3 = 1 + 1 + 1 = 32 8 2 8 8 8 2 13 13 2 2 . Por tanto ECM (U 3 ) = V (U 3 ) + ( E (U 3 ) ) = + ( ) = 32 32


2 4 1 2 4 7 1 E ( U 4 ) = E X1 + X 2 + X 3 = + + = 9 9 9 9 9 9 9

2 4 1 7 1 2 4 V ( U 4 ) = V X1 + X 2 + X 3 = 1 + 1 + 1= 9 9 9 27 9 9 9 7 7 7 4 + = + 2 . 27 9 27 81 13 7 4 Para compararlos, resolvemos la desigualdad < + 2 , que es cierta si > 1.725 . 32 27 81 Por tanto, si sabemos que > 1.725 , el estimador U3 tiene menor ECM; si < 1.725 , el
Por tanto

ECM (U 4 ) = V (U 4 ) + ( E (U 4 ) ) =
2

estimador U4 tiene menor ECM.

Estadstica
o

Tema 6

Curso 2006/07

Cuando se trata de poblaciones normales, se verifica que ECM(V) < ECM (S2) (demo9). En general se utiliza S2 por ser centrado.

Conclusiones: En general, y teniendo en cuenta que no siempre ser posible encontrarlos, se buscarn estimadores que sean centrados y, entre ellos, se elegir el ms eficiente (menor varianza). Cmo los buscamos? Ahora veremos algunos mtodos.

6.3.- Obtencin de estimadores


Mtodo de los momentos. Es el mtodo ms intuitivo. Consiste en utilizar la relacin que tienen los parmetros con los momentos de la poblacin (esperanza, varianza,...). Por ejemplo, cuando XP(), como E(X)= , un estimador natural de ser la media muestral. Esta idea se generaliza de la siguiente forma: Definicin. Dada una v.a. X se define su momento de orden k como k= E(Xk).

1 n k xi . n i =1 1 = a1 El mtodo de los momentos consiste en resolver el sistema de ecuaciones ... . = a k k


Dada una variable estadstica X se define su momento de orden k como

ak =

En concreto: i) ii) Si se quiere estimar un parmetro, se resuelve la ecuacin 1= a1 (es decir:

E ( X ) = X ), despejando de dicha ecuacin el parmetro que queremos estimar.


Si se quiere estimar dos parmetros, se resolvera el sistema de dos ecuaciones

1 = a1 . (En la prctica se resuelve el sistema equivalente 2 = a2


Ejemplos:

E( X ) = X .) V ( X ) = V

Si X G(p), buscar un estimador de p por el mtodo de los momentos: Resolvemos el sistema

E(X ) = X

1 p = X , y despejamos p: p

p=

1 , sera el estimador de p por el mtodo de los momentos. X +1

[7] PEA, D.: "Fundamentos de Estadstica". Alianza Editorial, 2001.

Estadstica

Tema 6

Curso 2006/07

Por ejemplo, tenemos una muestra de una v.a. geomtrica: 3,0,2,0,1,5,2,5,15,1, y

X=

Una estimacin de p por el mtodo de los momentos, sera:

3 + 0 + ... + 15 + 1 = 3.4 . 10

p=
o bien la solucin del sistema:

1 p = 3.4 p = 0.23 . p

1 1 = = 0.23 , X + 1 3.4 + 1

Si X U(a,b), buscar estimadores para a y b por el mtodo de los momentos.

a+b =X E( X ) = X 2 , y despejando a Como son dos parmetros, resolvemos el sistema: = 2 V ( X ) = V (b a ) = V 12 a = X 3V y b, obtenemos: , estimadores de a y b por el mtodo de los momentos b = X + 3V
Por ejemplo, tenemos una muestra de una v.a. uniforme: 1.28,1.165, 0.465, 1.09, 1.05, 0.0045, 0.52, 0.88, 0.76, 1.37 y se tiene:

X=

1.28 + ... + 1.37 = 0.86 10

V=

(1.28 0.86)2 + ... + (1.37 0.86)2 = 0.18 10

Unas estimaciones de a y b por el mtodo de los momentos, seran:

a = X 3V a = 0.86 3 0.18 = 0.125 = b = X + 3V b = 0.86 + 3 0.18 = 1.594 a+b = 0.86 a = 0.125 2 = o bien las soluciones del sistema: . 2 (b a ) = 0.18 b = 1.594 12
Es coherente ese resultado con los datos de la muestra? Es posible que una v.a. con distribucin U(0.125, 1.594) tome el valor 0.0045?10 El mtodo de los momentos, es sencillo, en muchos casos permite obtener buenos estimadores, pero en otros tiene las limitaciones vistas anteriormente u otras. Por ello, existen otros mtodos de obtencin de estimadores. Uno de los mtodos que permite obtener estimadores con buenas propiedades es el mtodo de mxima verosimilitud. Mtodo de la mxima verosimilitud. En el ejemplo anterior, que a=0.125 hace imposible obtener el valor 0.0045 en la muestra. Si suponemos que a=5 y b=5, es posible obtener los valores obtenidos en la muestra, pero es extrao que no aparezca ningn valor negativo, por lo que es poco probable que los valores de a y b sean esos.
10

Recordad que si X~U(a,b), entonces X toma valores slo en el intervalo (a,b).

10

Estadstica

Tema 6

Curso 2006/07

Sera ms probable obtener esa muestra si a=0 y b=2, o quizs ms probable an si a=0 y b=1.5, pues los valores de la muestra estn todos en el intervalo (0, 1.5), en concreto entre 0.0045 y 1.37. El estimador de mxima verosimilitud de , nos dar el valor de que hace mxima la probabilidad de obtener un resultado concreto de una muestra, (x1, ... , xn). Para encontrarlo, necesitamos poder medir la probabilidad de obtener un resultado concreto de una muestra, (x1, ... , xn). Para ello definimos la denominada funcin de verosimilitud. Definicin Sea X una v.a. que sigue un modelo de distribucin M() y sea (x1, ... , xn) el resultado de una m.a.s. (X1, ... , Xn) de dicha v.a. i) Si X es discreta se define su funcin de verosimilitud

L( ) = P ( X1 = x1 ,..., X n = xn ) = P ( X i = xi )
i =1

ii) Si X es continua, con funcin de densidad f(x), se define su funcin de verosimilitud

L( ) = f ( xi )
i =1

El mtodo de mxima verosimilitud consiste en buscar el valor de que hace que la funcin de verosimilitud tome su valor mximo. Para hallar el mximo utilizaremos algunas tcnicas de anlisis matemtico. En concreto utilizaremos que: La funcin ln(x) es una funcin creciente, por lo que el mximo de f(x) se alcanzar en el mismo punto que el mximo de ln(f(x)). Esto permite derivar ms fcilmente, pues el ln(x) transforma los productos en sumas. (Suponemos f(x)>0, para cualquier x.) El mximo de una funcin f(x) en un intervalo [a,b] se alcanza en algn punto crtico (puntos que anulan la derivada de f(x)) o en los extremos del intervalo. El mximo de una funcin f(x,y), con x,y R, se alcanza en algn punto crtico (puntos que anulan las derivadas parciales de f(x,y):

f ( x , y ) = 0, f ( x, y ) = 0 ). x y

Por ello, para hallar el estimador de mxima verosimilitud de , seguiremos los siguientes pasos:

L( ) ii) Definir la funcin ln( L( )) iii) Hallar el mximo de ln( L( )) : d Resolver la ecuacin ln( L( )) = 0 . d
i) Definir la funcin

Si slo puede tomar valores en un intervalo, estudiar si el mximo se alcanza en los extremos de dicho intervalo.

Ejemplos: Estimador de mxima verosimilitud de p, siendo XG(p). i) Definimos

L( p) :
11

Estadstica

Tema 6

Curso 2006/07

L( p) = P ( X i = xi ) = (1 p) p = (1 p) (1 p) ...(1 p) p p ... p =(1 p) 1


xi x1 x2 xn i =1 i =1

nveces

xi

pn

ii) Definimos ln( L( p)) :

n + ln ( p n ) = xi ln ( (1 p) ) + n ln ( p ) 1 d iii) Hallamos el mximo de ln( L( p)) , resolviendo la ecuacin ln( L( p)) = 0 : dp


n n

xi xi ln( L( p)) = ln (1 p) 1 p n = ln (1 p) 1

n 1 d d n 1 ln( L( p)) = xi ln ( (1 p) ) + n ln ( p ) = xi + n = 0 dp dp 1 1 p p 1
Despejando p en la anterior ecuacin se obtiene:
dividiendo arriba y abajo por n

p=

n xi + n 1
n

1 xi 1 +1 n
n

1 . X +1

= Decimos que, si XG(p), el estimador de mxima verosimilitud de p es p

(Observad que es el mismo estimador que se obtuvo por el mtodo de los momentos.) Estimador de mxima verosimilitud de b, siendo X U(0,b) i) Definimos L(b) :
n n 1 1 1 nveces 1 L(b) = f ( xi ) = = ... b b b i =1 i =1 b

1 . X +1

1 = n , con xi ( 0, b ) b

ii) Definimos ln( L(b)) :

1 ln( L(b)) = ln n = n ln ( b ) b
iii) Hallamos el mximo de ln( L(b)) , resolviendo la ecuacin

d ln( L(b)) = 0 : db

d d 1 ln( L(b)) = n ln ( b ) ) = n = 0 ( db db b
Pero en este caso, esa ecuacin no tiene solucin para ningn valor de b. Estamos en el caso en que el parmetro slo puede tomar valores en un intervalo, por lo que hay que estudiar si el mximo se alcanza en los extremos de dicho intervalo. En este caso, como los valores de la muestra xi 0, b , se tiene que

12

Estadstica

Tema 6

Curso 2006/07

xi [ 0, b ] , xi xi b, xi max { xi } b b max { xi } , + )

Como

L(b) =

1 L(b) = n b

mayor valor en el extremo inferior del intervalo, en este caso max { xi } .

1 bn

es decreciente, tomar su

Decimos que, si

X U(0,b), el estimador de

mxima verosimilitud de b es

= max { x } . b i

Observad que no es el mismo estimador que se obtuvo por el mtodo de los momentos. Considerando ahora el ejemplo que vimos antes en el caso Uniforme, si suponemos X U(0,b) y tenemos los resultados de una muestra: 1.28, 1.165, 0.465, 1.09, 1.05, 0.0045, 0.52, 0.88, 0.76, 1.37 Ahora, si hacemos la estimacin por el mtodo de mxima verosimilitud, tenemos

b = max { xi } = max {0.0045, 0.52,...,1.28,1.37} = 1.37


Por lo que suponemos X U(0,1.37), que es coherente con los datos obtenidos en la muestra. Propiedades de los estimadores de mxima verosimilitud

es el estimador de mxima verosimilitud de para una m.a.s. de tamao n, entonces: Si n ) es estimador de mxima verosimilitud de g ( ) . g ( x ) es biyectiva, g ( n 2. Si n , E ( n ) (es asintticamente centrado) ) v , siendo v la mnima varianza posible (es asintticamente eficiente) 3. Si n , V (
1. Si
m m

n 4. Si n , N (0,1) (es asintticamente normal) ) V (


n

5. Si existe un estimador centrado y eficiente para , entonces coincide con el de mxima verosimilitud. Es decir, para valores suficientemente grandes de n (asintticamente) tienen todas las propiedades deseables de los estimadores, por lo que suelen ser los ms utilizados. Ejemplos:

13

Estadstica
1. Como

Tema 6

Curso 2006/07

X es el estimador de mxima verosimilitud para la media de una v.a. X con distribucin 1 . Entonces, el estimador de mxima verosimilitud para exponencial, y tenemos que E ( X ) =

es

1 . X

Si X N(,), el estimador de mxima verosimilitud de estimador de mxima verosimilitud de

es V. Como

= 2

, entonces, el

= V es

2. Si XG(p), el estimador de mxima verosimilitud de p es

= p

sencillo. La propiedad 2 nos asegura que, en caso de no ser centrado, s lo es asintticamente. En otros casos, s se puede calcular la esperanza y es fcil verificar esta propiedad: Si X U(0,b), el estimador de mxima verosimilitud de b es estimador centrado, pues entonces

1 ) no es , y calcular E ( p X +1

= max { x } , pero no es un b i

) = E (b

n b (demo11). Lo que s se verifica es que, si n , n +1

) b . E (b
=X

3-4-5. El ejemplo ms sencillo de las ltimas propiedades es verosimilitud de

, estimador de mxima

para una v.a. con distribucin de Poisson. V(X) = V(X ) ) = V ( X ) 0 , , por lo que siempre se verifica que V (b n n X sigue una

3. Se ha visto que cuando n .

4. Adems, por el TCL, sabemos que si n es suficientemente grande, entonces distribucin normal. 5. El estimador

X es centrado y eficiente para , y precisamente el estimador de mxima =X. verosimilitud que se obtiene para es
Comprobar estas propiedades para otros casos suele ser bastante complicado y se escapa de los objetivos de este curso.

11

Ver [1] CORONADO, J.L.; CORRAL, A.; GMEZ, J.I.; LPEZ, P.; RUIZ, B.; VILLN, J.: "Estadstica". Servicio de Publicaciones de la E.U. de Informtica, 2004. Ejemplo 8.12

14

Estadstica

Tema 6

Curso 2006/07

ANEXO 1. Esperanza del estadstico V: varianza muestral.

( X X ) 2 + ... + ( X n X ) 2 1 2 2 E (V ) = E 1 = E ( ( X1 X ) + ... + ( X n X ) ) = n n 1 2 = E ( ( X12 + X 2 2 X 1 X ) + ... + ( X n + X 2 2 X n X )) = n 1 2 = E ( ( X12 + ... + X n ) + ( X 2 + ... + X 2 ) 2 X1 X ... 2 X n X ) n 1 2 )+ E ( X 2 + ... + X 2 )+ E ( 2 X ( X 1 + ... + X n )) E ( X12 + ... + X n n (2) (1) (3)
(1) V ( X i ) = E ( X i ) E ( X i )
2
2

2
2

E ( X i2 ) = V ( X i ) + E ( X i )2 = 2 + 2
2 2 2 2 2

Por tanto, E ( X 1 + ... + X n ) = nE ( X i ) = n( + ) = n + n (2) V ( X ) = E ( X


2

) E( X ) E( X ) = V ( X ) + E( X ) =
2 2 2 2 2 2 2

2
n

+ 2

Por tanto, E ( X + ... + X ) = nE ( X ) = n (3) X =

+ 2 = 2 + n 2 n

( X1 + ... + X n ) ( X1 + ... + X n ) = nX n

Por tanto, E (2 X ( X 1 + ... + X n )) = E ( 2 X nX ) = 2nE ( X ) = 2n


2

( )

2 + 2 = 2 2 2n 2 n

Volviendo al desarrollo original, tenemos:

E (V ) =

1 n 1 2 1 2 (n 2 + n 2 )+ ( 2 + n 2 ) 2 2 2n 2 = . (n 1) = n n (3) (1) (2) n

15

Estadstica

Tema 6

Curso 2006/07

ANEXO 2. Varianza del estadstico S2 para una distribucin de Poisson.

( n 1)2 1 n3 4 4 siendo En general, la varianza de la varianza muestral es V (V ) = 2 n n n 1 4 4 = E ( X ) . (ver Teorema 8.3.3 en [1] CORONADO, J.L.; CORRAL, A.; GMEZ, J.I.; LPEZ,

P.; RUIZ, B.; VILLN, J.: "Estadstica". Servicio de Publicaciones de la E.U. de Informtica, 2004) Por tanto,
2 n n n3 4 1 n3 4 n ( n 1) 1 = = ( ) 4 = 4 . V (S2 ) = V V V V 2 n n n 1 n n 1 n 1 n 1 n 1 2 2

Si X~P(),

= y 4 =

Por tanto, en el caso de un modelo de Poisson, como

2 = , tenemos: 1 n 3 2 1 2n 2 2 2 V ( S 2 ) = 3 2 + = + = + . n n 1 n n 1 n 1 n

16

Vous aimerez peut-être aussi