Académique Documents
Professionnel Documents
Culture Documents
Tema 6
Curso 2006/07
Tema 6
Curso 2006/07
Hemos visto en prcticas cmo buscar un modelo probabilstico adecuado para un conjunto de datos. Recordemos lo visto al final del tema 4:
Ajuste de una variable estadstica a un modelo terico Objetivo: Medios: definicin de la variable: qu mide? en qu condiciones? medidas descriptivas (media, varianza, simetras, frecuencias, ...) representaciones grficas elegir un modelo encontrar los parmetros del modelo
Verificacin: Contrastes no paramtricos con Statgraphics (Distribution Fitting): p-valor > 0.3 para aceptar la hiptesis (cuanto mayor sea, con ms confianza se acepta el modelo propuesto)
y ponamos el ejemplo:
Ejemplo: X4: Nmero de llamadas diarias que se hacen por telfono mvil
Average = 1.25641
Variance = 1.51147
Poisson Distribution
0.4 Mean 1.25
percentage
20 10 0 0 1 2 3 4 5
probability
30
x
Goodness-of-Fit Tests for Llamadas diarias
Fitted Poisson distribution: mean = 1.25641 Chi-Square = 0.555238 with 2 d.f. P-Value = 0.757586
Luego aceptamos que la variable nmero de llamadas diarias, puede tener una distribucin de Poisson de parmetro =1.25. (Para otros ejemplos ver tambin las pginas 46 a 52 de la Gua Docente.)
Estadstica
Tema 6
Curso 2006/07
Este tipo de trabajo se ha hecho a partir de los datos concretos de una variable estadstica. Pero nos podemos plantear algunas cuestiones: Se puede asegurar que esos resultados son vlidos para todos los estudiantes de la EUI? En caso afirmativo, con qu confianza?; en caso contrario, en qu condiciones podran ser vlidos? En general, lo que se quiere estudiar es alguna caracterstica de una poblacin determinada y encontrar un modelo probabilstico para ella a partir de unos datos concretos. Este es el objetivo de la llamada Inferencia estadstica. Lo que veremos en este tema y los siguientes es cmo hacerlo y cmo medir la fiabilidad de los resultados obtenidos. Damos una visin general de la Inferencia estadstica: Para obtener los DATOS: Censo (toda la poblacin) Muestra (subconjunto de elementos de la poblacin) Es fundamental: cmo elegir los elementos de la muestra y el tamao de la misma1. o o Poblacin homognea (m.a.s. :muestreo aleatorio simple2) Poblacin heterognea (muestreo estratificado3)
Para obtener el MODELO PROBABILSTICO: Hiptesis sobre el modelo (por la definicin de la variable, grficas, datos, ...) Inferencia paramtrica: conocido el modelo, buscamos informacin sobre los parmetros () del mismo, mediante: o o o Estimacin puntual: = 0 Estimacin por intervalo: (a,b) con un % de confianza Contraste de hiptesis: aceptamos = 0 frente a 0 ( >0 <0), con nivel de significacin .
Inferencia no paramtrica: para verificar las hiptesis sobre el modelo o sobre independencia de variables o muestras. o o Ajuste de distribuciones: Aceptamos que XModelo() con nivel de significacin . Independencia: X e Y son independientes; los datos de la muestra son independientes.
Si el tamao de la muestra es demasiado pequeo la informacin obtenida puede no ser representativa y si es excesivamente grande podemos estar derrochando recursos sin obtener ms informacin relevante.
m.a.s.: todos los elementos de la poblacin tienen la misma probabilidad de estar en la muestra y son independientes entre ellos. Para ello, la eleccin de los elementos se debera hacer con reemplazamiento; sin embargo, cuando el tamao de la muestra es menor del 5% del tamao de la poblacin se considera vlido hacerlo sin reemplazamiento. Se suele hacer mediante enumeracin de los elementos y eleccin aleatoria de los mismos.
2
Se divide la poblacin en clases o estratos homogneos (repecto a las variables que afectan a la caracterstica estudiada) y dentro de cada uno de ellos se hace una m.a.s. El tamao de la muestra de cada estrato ha de ser proporcional al tamao del estrato dentro de la poblacin general.
3
Estadstica
Tema 6
Curso 2006/07
Ejemplo: Se quiere estudiar el nmero de llamadas diarias por el mvil que hace un estudiante de la EUI. Para obtener los DATOS: Censo (toda la poblacin) Podra hacerse pero con un coste excesivo y no imprescindible para obtener la informacin que se precisa. (S es necesario hacerlo unas elecciones, la evaluacin de una asignatura, ...) Muestra (subconjunto de elementos de la poblacin) o Poblacin homognea (m.a.s. :muestreo aleatorio simple) Entre los estudiantes de la EUI se podran elegir 100 (menos del 5%) forma aleatoria. o Poblacin heterognea (muestreo estratificado) Se podran hacer estratos por grupos de edad, nivel educativo, zona residencia, sexo, ... y en cada uno de ellos se hace una m.a.s. es en
de de
Para obtener el MODELO PROBABILSTICO: (Para el ejemplo consideramos como resultado de la muestra los datos obtenidos con n=39 en el grupo GM23) Hiptesis sobre el modelo (por la definicin de la variable, grficas, datos, ...) Por la definicin de la misma podra ajustarse a un modelo de Poisson; el diagrama de barras, y la similitud de media y varianza lo confirman. Inferencia no paramtrica: para verificar las hiptesis sobre el modelo o sobre independencia de variables o muestras. o Ajuste de distribuciones: A partir de un test (Chi-cuadrado) aceptamos que XP(1.25461) con un pvalor de 0.75 (que implica bastante confianza en dicha decisin).
Inferencia paramtrica: como suponemos que es un modelo de Poisson buscamos informacin sobre su parmetro : o Estimacin puntual: = 0 Se asigna al parmetro un valor concreto: = 1.25641 (como es la media de una Poisson, una posible estimacin es la media muestral
X = 1.25641 )
o Estimacin por intervalo: (a,b) con un % de confianza Se encuentra un intervalo en el que est incluido el parmetro con una determinada confianza:
Confidence Intervals for Llamadas diarias -----------------------------------------
Estadstica
Tema 6
Curso 2006/07
Con los datos de la muestra, y tras un anlisis adecuado con Statgraphics: Rechazamos la hiptesis de que = 1 frente a > 1, con un 85% confianza (nivel =0.15). La muestra aporta datos evidentes de que el nmero medio de llamadas (de toda la poblacin) es mayor que uno. Aunque la media de las mujeres es M = 1.5 y la de los hombres es V = 1.15, no podemos rechazar la hiptesis de que sean iguales ( M = V ). La muestra no aporta datos evidentes para poder asegurar que el nmero medio de llamadas en las mujeres es mayor que el de los varones. El tamao muestral es muy pequeo y la diferencia entre las medias muestrales puede deberse a factores aleatorios y no puede garantizarse que sean distintas.
En este tema estudiaremos cmo realizar la estimacin puntual, en concreto veremos diversas formas de obtener dichas estimaciones y qu propiedades son deseables que verifiquen.
Estadsticos:
X = 1.25641 R
V = 1.47368 R Mx(Xi) = 5 R
Estadstica
Tema 6
Curso 2006/07
Estimador: Estimacin de : Como X P(), sabemos que E(X)= y que V(X)=. En este caso, los estadsticos X y V , En este caso, podemos obtener dos podran ser adecuados para obtener un valor para estimaciones para : : *=1.25641 R
*= X
= V
=1.47368 R
Estadstica
Ejemplos: o
Tema 6
Curso 2006/07
La media muestral X es un estimador centrado de E(X)(demo4). Por tanto, o o Si X P(), *= X es un estimador centrado para . Si X N( , ), *= X es un estimador centrado para ..
La varianza muestral V =
centrado para .
( X1 X ) 2 + ... + ( X n X ) 2 no es un estimador centrado para n n 1 2 V(X)=2. De hecho, E(V)= (demo5). Por tanto, si X P(), = V no es un estimador n ( X1 X ) 2 + ... + ( X n X ) 2 s es un estimador centrado para n 1
La cuasivarianza muestral S =
2
V(X)=2 (demo6). Por tanto, si X P(), S2 es un estimador centrado para . Observacin: o o No siempre es fcil estudiar si un estimador es centrado. No siempre existe un estimador centrado para cualquier parmetro.
Definicin.
Si X P(), X y S2 son estimadores centrados para , cul es ms eficiente? Hallamos sus varianzas:
V (X ) =
(demo7)
V (S 2 ) =
2 2 (demo8) + n 1 n
Estadstica
Tema 6
Curso 2006/07
Como
Una medida que recoge estas dos propiedades de los estimadores (centrado y eficiente) es la siguiente: Definicin. Si * es un estimador de , se define su error cuadrtico medio como:
ECM ( ) = E ( ( ) 2 )
(Mide la distancia esperada entre el estimador y el parmetro que queremos estimar.) Propiedades: o o o Se verifica que ECM ( ) = V
( ) + ( E (
) )
Si
( ) .
Ejemplos: o En una muestra aleatoria simple de tamao 3 de una variable aleatoria normal de media y desviacin tpica 1, se consideran los estimadores para :
U3 =
1 3 1 1 2 4 X1 + X 2 + X 3 ; U 4 = X1 + X 2 + X 3 . 8 8 2 9 9 9
3 1 1 3 1 1 E(U 3 ) = E X1 + X 2 + X 3 = + + = 8 2 8 8 2 8
2 4 1 7 1 2 4 V ( U 4 ) = V X1 + X 2 + X 3 = 1 + 1 + 1= 9 9 9 27 9 9 9 7 7 7 4 + = + 2 . 27 9 27 81 13 7 4 Para compararlos, resolvemos la desigualdad < + 2 , que es cierta si > 1.725 . 32 27 81 Por tanto, si sabemos que > 1.725 , el estimador U3 tiene menor ECM; si < 1.725 , el
Por tanto
ECM (U 4 ) = V (U 4 ) + ( E (U 4 ) ) =
2
Estadstica
o
Tema 6
Curso 2006/07
Cuando se trata de poblaciones normales, se verifica que ECM(V) < ECM (S2) (demo9). En general se utiliza S2 por ser centrado.
Conclusiones: En general, y teniendo en cuenta que no siempre ser posible encontrarlos, se buscarn estimadores que sean centrados y, entre ellos, se elegir el ms eficiente (menor varianza). Cmo los buscamos? Ahora veremos algunos mtodos.
ak =
E( X ) = X .) V ( X ) = V
E(X ) = X
1 p = X , y despejamos p: p
p=
Estadstica
Tema 6
Curso 2006/07
X=
3 + 0 + ... + 15 + 1 = 3.4 . 10
p=
o bien la solucin del sistema:
1 p = 3.4 p = 0.23 . p
1 1 = = 0.23 , X + 1 3.4 + 1
a+b =X E( X ) = X 2 , y despejando a Como son dos parmetros, resolvemos el sistema: = 2 V ( X ) = V (b a ) = V 12 a = X 3V y b, obtenemos: , estimadores de a y b por el mtodo de los momentos b = X + 3V
Por ejemplo, tenemos una muestra de una v.a. uniforme: 1.28,1.165, 0.465, 1.09, 1.05, 0.0045, 0.52, 0.88, 0.76, 1.37 y se tiene:
X=
V=
a = X 3V a = 0.86 3 0.18 = 0.125 = b = X + 3V b = 0.86 + 3 0.18 = 1.594 a+b = 0.86 a = 0.125 2 = o bien las soluciones del sistema: . 2 (b a ) = 0.18 b = 1.594 12
Es coherente ese resultado con los datos de la muestra? Es posible que una v.a. con distribucin U(0.125, 1.594) tome el valor 0.0045?10 El mtodo de los momentos, es sencillo, en muchos casos permite obtener buenos estimadores, pero en otros tiene las limitaciones vistas anteriormente u otras. Por ello, existen otros mtodos de obtencin de estimadores. Uno de los mtodos que permite obtener estimadores con buenas propiedades es el mtodo de mxima verosimilitud. Mtodo de la mxima verosimilitud. En el ejemplo anterior, que a=0.125 hace imposible obtener el valor 0.0045 en la muestra. Si suponemos que a=5 y b=5, es posible obtener los valores obtenidos en la muestra, pero es extrao que no aparezca ningn valor negativo, por lo que es poco probable que los valores de a y b sean esos.
10
10
Estadstica
Tema 6
Curso 2006/07
Sera ms probable obtener esa muestra si a=0 y b=2, o quizs ms probable an si a=0 y b=1.5, pues los valores de la muestra estn todos en el intervalo (0, 1.5), en concreto entre 0.0045 y 1.37. El estimador de mxima verosimilitud de , nos dar el valor de que hace mxima la probabilidad de obtener un resultado concreto de una muestra, (x1, ... , xn). Para encontrarlo, necesitamos poder medir la probabilidad de obtener un resultado concreto de una muestra, (x1, ... , xn). Para ello definimos la denominada funcin de verosimilitud. Definicin Sea X una v.a. que sigue un modelo de distribucin M() y sea (x1, ... , xn) el resultado de una m.a.s. (X1, ... , Xn) de dicha v.a. i) Si X es discreta se define su funcin de verosimilitud
L( ) = P ( X1 = x1 ,..., X n = xn ) = P ( X i = xi )
i =1
L( ) = f ( xi )
i =1
El mtodo de mxima verosimilitud consiste en buscar el valor de que hace que la funcin de verosimilitud tome su valor mximo. Para hallar el mximo utilizaremos algunas tcnicas de anlisis matemtico. En concreto utilizaremos que: La funcin ln(x) es una funcin creciente, por lo que el mximo de f(x) se alcanzar en el mismo punto que el mximo de ln(f(x)). Esto permite derivar ms fcilmente, pues el ln(x) transforma los productos en sumas. (Suponemos f(x)>0, para cualquier x.) El mximo de una funcin f(x) en un intervalo [a,b] se alcanza en algn punto crtico (puntos que anulan la derivada de f(x)) o en los extremos del intervalo. El mximo de una funcin f(x,y), con x,y R, se alcanza en algn punto crtico (puntos que anulan las derivadas parciales de f(x,y):
f ( x , y ) = 0, f ( x, y ) = 0 ). x y
Por ello, para hallar el estimador de mxima verosimilitud de , seguiremos los siguientes pasos:
L( ) ii) Definir la funcin ln( L( )) iii) Hallar el mximo de ln( L( )) : d Resolver la ecuacin ln( L( )) = 0 . d
i) Definir la funcin
Si slo puede tomar valores en un intervalo, estudiar si el mximo se alcanza en los extremos de dicho intervalo.
L( p) :
11
Estadstica
Tema 6
Curso 2006/07
nveces
xi
pn
xi xi ln( L( p)) = ln (1 p) 1 p n = ln (1 p) 1
n 1 d d n 1 ln( L( p)) = xi ln ( (1 p) ) + n ln ( p ) = xi + n = 0 dp dp 1 1 p p 1
Despejando p en la anterior ecuacin se obtiene:
dividiendo arriba y abajo por n
p=
n xi + n 1
n
1 xi 1 +1 n
n
1 . X +1
(Observad que es el mismo estimador que se obtuvo por el mtodo de los momentos.) Estimador de mxima verosimilitud de b, siendo X U(0,b) i) Definimos L(b) :
n n 1 1 1 nveces 1 L(b) = f ( xi ) = = ... b b b i =1 i =1 b
1 . X +1
1 = n , con xi ( 0, b ) b
1 ln( L(b)) = ln n = n ln ( b ) b
iii) Hallamos el mximo de ln( L(b)) , resolviendo la ecuacin
d ln( L(b)) = 0 : db
d d 1 ln( L(b)) = n ln ( b ) ) = n = 0 ( db db b
Pero en este caso, esa ecuacin no tiene solucin para ningn valor de b. Estamos en el caso en que el parmetro slo puede tomar valores en un intervalo, por lo que hay que estudiar si el mximo se alcanza en los extremos de dicho intervalo. En este caso, como los valores de la muestra xi 0, b , se tiene que
12
Estadstica
Tema 6
Curso 2006/07
xi [ 0, b ] , xi xi b, xi max { xi } b b max { xi } , + )
Como
L(b) =
1 L(b) = n b
1 bn
es decreciente, tomar su
Decimos que, si
X U(0,b), el estimador de
mxima verosimilitud de b es
= max { x } . b i
Observad que no es el mismo estimador que se obtuvo por el mtodo de los momentos. Considerando ahora el ejemplo que vimos antes en el caso Uniforme, si suponemos X U(0,b) y tenemos los resultados de una muestra: 1.28, 1.165, 0.465, 1.09, 1.05, 0.0045, 0.52, 0.88, 0.76, 1.37 Ahora, si hacemos la estimacin por el mtodo de mxima verosimilitud, tenemos
es el estimador de mxima verosimilitud de para una m.a.s. de tamao n, entonces: Si n ) es estimador de mxima verosimilitud de g ( ) . g ( x ) es biyectiva, g ( n 2. Si n , E ( n ) (es asintticamente centrado) ) v , siendo v la mnima varianza posible (es asintticamente eficiente) 3. Si n , V (
1. Si
m m
5. Si existe un estimador centrado y eficiente para , entonces coincide con el de mxima verosimilitud. Es decir, para valores suficientemente grandes de n (asintticamente) tienen todas las propiedades deseables de los estimadores, por lo que suelen ser los ms utilizados. Ejemplos:
13
Estadstica
1. Como
Tema 6
Curso 2006/07
X es el estimador de mxima verosimilitud para la media de una v.a. X con distribucin 1 . Entonces, el estimador de mxima verosimilitud para exponencial, y tenemos que E ( X ) =
es
1 . X
es V. Como
= 2
, entonces, el
= V es
= p
sencillo. La propiedad 2 nos asegura que, en caso de no ser centrado, s lo es asintticamente. En otros casos, s se puede calcular la esperanza y es fcil verificar esta propiedad: Si X U(0,b), el estimador de mxima verosimilitud de b es estimador centrado, pues entonces
1 ) no es , y calcular E ( p X +1
= max { x } , pero no es un b i
) = E (b
) b . E (b
=X
, estimador de mxima
para una v.a. con distribucin de Poisson. V(X) = V(X ) ) = V ( X ) 0 , , por lo que siempre se verifica que V (b n n X sigue una
4. Adems, por el TCL, sabemos que si n es suficientemente grande, entonces distribucin normal. 5. El estimador
X es centrado y eficiente para , y precisamente el estimador de mxima =X. verosimilitud que se obtiene para es
Comprobar estas propiedades para otros casos suele ser bastante complicado y se escapa de los objetivos de este curso.
11
Ver [1] CORONADO, J.L.; CORRAL, A.; GMEZ, J.I.; LPEZ, P.; RUIZ, B.; VILLN, J.: "Estadstica". Servicio de Publicaciones de la E.U. de Informtica, 2004. Ejemplo 8.12
14
Estadstica
Tema 6
Curso 2006/07
( X X ) 2 + ... + ( X n X ) 2 1 2 2 E (V ) = E 1 = E ( ( X1 X ) + ... + ( X n X ) ) = n n 1 2 = E ( ( X12 + X 2 2 X 1 X ) + ... + ( X n + X 2 2 X n X )) = n 1 2 = E ( ( X12 + ... + X n ) + ( X 2 + ... + X 2 ) 2 X1 X ... 2 X n X ) n 1 2 )+ E ( X 2 + ... + X 2 )+ E ( 2 X ( X 1 + ... + X n )) E ( X12 + ... + X n n (2) (1) (3)
(1) V ( X i ) = E ( X i ) E ( X i )
2
2
2
2
E ( X i2 ) = V ( X i ) + E ( X i )2 = 2 + 2
2 2 2 2 2
) E( X ) E( X ) = V ( X ) + E( X ) =
2 2 2 2 2 2 2
2
n
+ 2
+ 2 = 2 + n 2 n
( X1 + ... + X n ) ( X1 + ... + X n ) = nX n
( )
2 + 2 = 2 2 2n 2 n
E (V ) =
15
Estadstica
Tema 6
Curso 2006/07
( n 1)2 1 n3 4 4 siendo En general, la varianza de la varianza muestral es V (V ) = 2 n n n 1 4 4 = E ( X ) . (ver Teorema 8.3.3 en [1] CORONADO, J.L.; CORRAL, A.; GMEZ, J.I.; LPEZ,
P.; RUIZ, B.; VILLN, J.: "Estadstica". Servicio de Publicaciones de la E.U. de Informtica, 2004) Por tanto,
2 n n n3 4 1 n3 4 n ( n 1) 1 = = ( ) 4 = 4 . V (S2 ) = V V V V 2 n n n 1 n n 1 n 1 n 1 n 1 2 2
Si X~P(),
= y 4 =
2 = , tenemos: 1 n 3 2 1 2n 2 2 2 V ( S 2 ) = 3 2 + = + = + . n n 1 n n 1 n 1 n
16