Vous êtes sur la page 1sur 72

GRADO EN INFORMTICA DE

SISTEMAS DE INFORMACIN
Curso 2010-2011
Temas 5
ESTIMACIN PUNTUAL E INTERVALO DE
CONFIANZA
UNIDAD TEMTICA III: INFERENCIA
CONFIANZA
Notas y resmenes
de clase
ESTRUCTURA DEL CAPTULO
1. Inferencia y Muestreo
2. La distribucin chi-cuadrado con r grados de libertad
3. La distribucin t de Student
4. La distribucin F de Fisher-Snedecor
5. Estimador. Propiedades de un estimador
1. Estimador insesgado
2. Eficiencia de un estimador 2. Eficiencia de un estimador
3. Error cuadrtico medio de un estimador
4. Estimador consistente
5. Estimador suficiente
6. Procedimientos de estimacin
1. El mtodo de la mxima verosimilitud
2. El mtodo de los momentos
ESTRUCTURA DEL CAPTULO
7. Concepto de intervalo de confianza
8. Intervalos de confianza para la media
8.1. Poblacin normal con varianza conocida
8.2. Poblacin normal con varianza desconocida
8.3. Poblacin distinta de la normal
9. Intervalos de confianza para la diferencia de medias
9.1. Poblacin normal con varianzas conocidas
9.2. Poblacin normal con varianzas desconocidas 9.2. Poblacin normal con varianzas desconocidas
9.3. Tamaos muestrales grandes
10. Intervalos de confianza para la varianza y cociente de
varianzas en poblaciones normales
11. Intervalo de confianza para proporciones y diferencia de
proporciones
12. Determinacin del tamao ptimo muestral para la estimacin
de los parmetros poblacionales
1. INFERENCIA Y MUESTREO
Poblacin: conjunto
completo de individuos o
elementos de inters
MUESTREO: Proceso por el cual se selecciona un nmero relativamente
reducido de elementos de una poblacin estadstica, con objeto de proceder a
su anlisis.
Muestra: Subconjunto
seleccionado de la
poblacin
INFERENCIA ESTADSTICA
Conjunto de tcnicas que permiten formular inferencias inductivas
y que proporcionan una medida del riesgo de stas
Por qu una encuesta de 1000 o 1500 personas
permite predecir bastante bien el resultado de la
eleccin con 8 millones de votantes?
Cmo se logra este resultado?
1. MUESTREO
Cmo se logra este resultado?
Cmo se mide la precisin del resultado?
La informacin aportada por la muestra
tiene una utilidad que depende de cmo
se seleccionaron sus elementos
1. MUESTREO
Tcnicas de muestreo Tcnicas de muestreo
Muestreo aleatorio
Interesantes para usar estadstica matemtica con ellos
Cada elemento poblacional tiene asociada una determinada
Com vamos a seleccionar la muestra?
Cada elemento poblacional tiene asociada una determinada
probabilidad de ser elegido, sean stas iguales entre s o no
Muestreo no aleatorio
A la vista de la relacin de todos los elementos de la poblacin, se
decide cules formaran parte de la muestra, ya sea:
por las dificultades en disear el muestreo, o
porque queremos que determinados elementos no estn
ausentes.
En principio no se pueden extrapolar los resultados a la poblacin
1. MUESTREO ALEATORIO
El muestreo aleatorio simple con repeticin
El muestreo aleatorio simple sin repeticin
El muestreo sistemtico
El muestreo estratificado
El muestreo por grupos o conglomerados
1. MUESTREO ALEATORIO
Muestreo aleatorio simple con repeticin
Se eligen individuos de la poblacin de estudio, de manera que
todos tienen la misma probabilidad de aparecer, hasta alcanzar el
tamao muestral deseado
Los elementos se seleccionan de uno en uno y con reposicin, Los elementos se seleccionan de uno en uno y con reposicin,
de manera que la poblacin permanece idntica en todas las
extracciones. Por tanto, pueden repetirse las unidades en la
muestra
Se puede realizar partiendo de listas de individuos de la
poblacin, y eligiendo individuos aleatoriamente con un ordenador
Normalmente tiene un coste bastante alto su aplicacin
1. MUESTREO ALEATORIO
Muestreo aleatorio simple sin repeticin
Se eligen individuos de la poblacin de estudio, de manera que
cada elemento de la poblacin tiene la misma probabilidad de ser
elegido elegido
Los elementos se seleccionan de uno en uno y sin reposicin,
de manera que no pueden repetirse las unidades de la muestra
La probabilidad de que salga un elemento depende de la
probabilidad con que fueron seleccionados los anteriores
1. MUESTREO ALEATORIO
Muestreo sistemtico
Se tiene una lista de los individuos de la poblacin de estudio.
Si queremos una muestra de un tamao dado, elegimos
individuos igualmente espaciados de la lista, donde el primero ha
sido elegido al azar sido elegido al azar
!!! Si en la lista existen periodicidades, obtendremos una muestra
sesgada.
Un caso real: Se eligi una de cada cinco casas para un estudio de salud
pblica en una ciudad donde las casas se distribuyen en manzanas de
cinco casas. Salieron con mucha frecuencia las de las esquinas, que
reciben ms sol, estn mejor ventiladas,
1. MUESTREO ALEATORIO
Muestreo estratificado
Se aplica cuando sabemos que hay ciertos factores (variables,
subpoblaciones o estratos) que pueden influir en el estudio y
queremos asegurarnos de tener cierta cantidad mnima de
individuos de cada tipo individuos de cada tipo
Se realiza entonces una m.a.s. de los individuos de cada uno de
los estratos
Al extrapolar los resultados a la poblacin hay que tener en
cuenta el tamao relativo del estrato con respecto al total de la
poblacin
1. MUESTREO ALEATORIO
Muestreo por grupos o conglomerados
Se aplica cuando es difcil tener una lista de todos los
individuos que forman parte de la poblacin de estudio, pero
sin embargo sabemos que se encuentran agrupados
naturalmente en grupos
Se realiza eligiendo varios de esos grupos al azar, y ya
elegidos algunos podemos estudiar a todos los individuos de
los grupos elegidos o bien seguir aplicando dentro de ellos ms
muestreos por grupos, por estratos, aleatorios simples,
Al igual que en el muestreo estratificado, al extrapolar los
resultados a la poblacin hay que tener en cuenta el tamao
relativo de unos grupos con respecto a otros.
1. MUESTREO ALEATORIO SIMPLE (m.a.s.)
En general, las tcnicas de inferencia estadstica suponen que la muestra ha
sido elegida usando m.a.s.con reposicin. Vamos a estructurar el concepto
de m.a.s. empleando los conceptos de probabilidad
Se extrae un elemento de la poblacin y se observa la variable X
1
El elemento se regresa a la poblacin y sta vuelve a mezclarse;
despus se extrae el segundo elemento X
22
... El proceso contina hasta que se han extrado n elementos para
tener una muestra de observaciones X
1
, X
2
,... X
n
de la variable X
Cada una de las observaciones X
1
, X
2
,... X
n
es una variable
aleatoria cuya distribucin de probabilidad es idntica a la de la
poblacin, puesto que en cada extraccin sta tiene su forma original.
Adems, debido al procedimiento de muestreo, son independientes,
ya que por el reemplazo, ninguna observacin se ve afectada por otra.
1. MUESTREO ALEATORIO SIMPLE (m.a.s.)
Si las variables aleatorias X
1
, X
2
,... X
n
tienen la misma
funcin de probabilidad que la de la distribucin de la
poblacin y su funcin conjunta de probabilidad es igual
al producto de las marginales, entonces:
X
1
, X
2
,... X
n
forman un conjunto de n variables aleatorias
independientes e idnticamente distribuidas que
constituyen una muestra aleatoria simple de la
poblacin.
1. MUESTREO ALEATORIO SIMPLE (m.a.s.)
ESTADSTICO
Es cualquier funcin de las variables aleatorias que se
observaron en la muestra.
Ejemplos:
x x x
x
n
i
i
n
1 2 1
=
+ + +
=
=

...
Ejemplos:
T
x x x
n n
n i
1
1 2 1
=
+ + +
=
=

...
T
x x x
n
x
n
n
i
i
n
2
2 2 2
2
1 1 2
=
+ + +
=
=

...
Es, por tanto, una variable aleatoria. Nos interesa estudiar la
distribucin de probabilidad de dicho estadstico.
1. MUESTREO ALEATORIO SIMPLE (m.a.s.)
Ejemplos:
La media muestral es un estimador del
ESTIMADOR
Es un estadstico que se emplea para estimar un parmetro
desconocido
x
x
i
i
n
=
=

1
La media muestral es un estimador del
parmetro media poblacional
( )
S
x x
n
i
i
n
=
=

2 1
2
2
1

x
n
i
=
=1

La proporcin observada en la muestra es


un estimador de la proporcin poblacional
La varianza muestral es un
estimador de la varianza poblacional
La cuasivarianza muestral es otro
estimador de la varianza poblacional
$
p
x
n
p
i
=

( )
S
x x
n
i
i
n
2 1
2
2
=

APLICACIN:
DISTRIBUCIN DE MUESTREO DE X
El teorema central del lmite establece que si se selecciona una
muestra aleatoria suficientemente grande, de n observaciones, de
una poblacin, la distribucin muestral de las medias de las
muestras se aproximar a una distribucin normal. Cuanto mayor
sea el tamao de la muestra, mejor ser dicha aproximacin. sea el tamao de la muestra, mejor ser dicha aproximacin.
nes observacio n N
n
x
n
30 ) 1 , 0 (
/

) / , (
2
n N x
!! La importancia de este teorema estriba en que este resultado
es cierto, con independencia de la familia de distribuciones de
probabilidad a la que pertenece la poblacin
APLICACIN:
DISTRIBUCIN DE MUESTREO DE X
Resumen:
Tamao de
la muestra:
X ~ N( ,
2
)
) / , (
2
n N x
) / , (
2
n N x
n <30
Otra poblacin: calculamos
su distribucin aplicando
n
x
n
t
M t M
(

= ) ( ) (
n 30
TCL
) / , ( n N x
2. LA DISTRIBUCIN CHI-CUADRADO CON r
GRADOS DE LIBERTAD (
r
2
)
La distribucin chi-cuadrado est definida para valores positivos de la variable
aleatoria. Su funcin de densidad es asimtrica. Se caracteriza por un nico
parmetro, r, al que llamaremos grados de libertad. La media y la varianza de
esta distribucin son, respectivamente, el nmero de grados de libertad y el
doble del n de grados de libertad:
E[
r
2
]= r Var[
r
2
]= 2r
Otras propiedades son:
M(t) = (1-2t)
-r/2
, t<1/2
Est tabulada para distintos valores del
parmetro r.
Para valores elevados de r, la variable
chi-cuadrado converge a la normal
r
r
Z
r
2
2

=

N(0, 1)
0
E[
r
]= r Var[
r
]= 2r
2. LA DISTRIBUCIN CHI-CUADRADO CON r
GRADOS DE LIBERTAD (
r
2
)
Notacin:

r ,
2
0
P
r r
( )
,

2 2
> =
APLICACIONES DE LA DISTRIBUCIN
Sea Z una v.a. N(0, 1)
2
1
2
Z
2
r

Si X una v.a. N(,


2
)
2
1
2

\
|
X
2. DISTRIBUCIN DE LA VARIANZA Y CUASIVARIANZA
MUESTRALES EN POBLACIONES NORMALES
Teorema
Sean X
1
,X
2
, ..., X
n
una m.a.s. de una distribucin N(,
2
)
Las variables aleatorias media y cuasivarianza muestrales
S
2
, son independientes, al igual que lo son la media y la
varianza S
2
muestrales, y
x
x
varianza S
2
muestrales, y
2
1 n


( )
nS n S
x x
i
i
n 2
2
2
2 2
1
2
1

=

=

( )
3. LA DISTRIBUCIN t DE STUDENT.
Definicin:
Si Z N (0,1) y , independientes entre s
2
n

Z
t
n
n
2

=
t de Student con n grados de libertad (t
n
)
t
n
es simtrica respecto al origen
E[t
n
]= 0 y Var[t
n
] = n/(n-2) si n>2.
Esta distribucin est tabulada, y el uso de
las tablas es muy parecido al de la N(0,1), por
ser ambas simtricas.
n
n

0
3. LA DISTRIBUCIN t DE STUDENT.
Notacin:

P t t
n n
( )
,
> =


0
t
n,
APLICACIN
Al extraer una m.a.s. de tamao n de una poblacin N(,
2
)
el cociente:
x
x


sigue una distribucin t de Student con n-1 grados de libertad
n
n S
n
x
S n
t
n

/
( )
( )
/
1
1
2
2
1
Consideremos dos m.a.s. X
1
,X
2
, ..., X
n
e Y
1
, Y
2
, ..., Y
m
extradas
de dos poblaciones independientes N(
x
,
x
2
) y N(
y
,
y
2
)
2
2
) ( ) (
y x
y x


APLICACIN
2
2
2
2
2
2
2
2
) 1 (
) 1 (
+

+
m n
y
y
x
x
y
x
t
m n
S m
S n
m n

2 2
Y X
=
Si las varianzas de ambas poblaciones son iguales:
2
) ( ) (
+


m n
y x
t
y x
APLICACIN
2
2 2
1 1
2
) 1 ( ) 1 (
+

+
+
+
m n
y x
t
m n m n
S m S n
4. LA DISTRIBUCIN F DE FISHER-SNEDECOR
Sean
n
2
y
m
2
v.a. indepndientes
F con n y m grados de libertad
m
n
F
m
n
m n
/
/
2
2
,

=
0
F
n,m
est definida slo para valores positivos
No es simtrica
Sus valores vienen tabulados
Su inversa
n m
n
m
m n
F
n
m
F
,
2
2
,
/
/
1
= =

4. LA DISTRIBUCIN F DE FISHER-SNEDECOR
Notacin:
( )

= >
, , , m n m n
F F P

, ,m n
F
Adems, se cumple que:

=
1 , ,
, ,
1
n m
m n
F
F
La Teora de la Estimacin es la parte de la Inferencia Estadstica que sirve
para determinar el valor de los parmetros poblacionales.
5. ESTIMACIN
1. Estimacin puntual
2. Estimacin por intervalo
No se trata de dos formas alternativas de estimacin, sino
complementarias. La estimacin puntual representa el primer paso para
obtener la estimacin por intervalo, que es la que siempre debemos de
obtener nosotros.
ESTIMACIN PUNTUAL
5. ESTIMACIN
Se trata de asignar al parmetro poblacional un (nico) valor; que ser un
valor aproximado y que depende de la muestra
) / ( X f X
Un estimador (puntual) para un
parmetro es una funcin de las
variables aleatorias que forman la
muestra, cuyos valores son vlidos
como valores para ese parmetro
. . . ,..., ,
) ,..., , (

2 1
2 1
s a m una X X X siendo
X X X g
n
n
=
) / ( X f X

En la prctica los estimadores habituales son (mtodo analgico):


5. INTRODUCCIN
Parmetros
poblacionales
Estimadores puntuales
Media Media muestral
x
x
n
i
i
n
= =
=

1
$

Se dice, por ejemplo, que es el estimador puntual de


Cuando se haya obtenido la muestra y calculado a partir de ella, se dice
entonces que ese valor es una estimacin de
^
^
Desviacin tpica Cuasidesviacin tpica muestral
Proporcin p Proporcin muestral
n
( )
S
x x
n
i
i
n
=
=

1
2
1
$

$
p
x
n
i
i
n
=
=

1
Propiedades de los estimadores
5. ESTIMACIN
cmo se eligen los estimadores?
Estimador insesgado
Eficiencia de un estimador Eficiencia de un estimador
Error cuadrtico medio
Estimador consistente
Estimador suficiente
Mtodo de la mxima verosimilitud
Mtodo de los momentos
Criterios para seleccionar estimadores
1. Insesgado.
Un buen estimador es aqul que es cercano al valor verdadero
E(
$
) =
5. PROPIEDADES DE UN ESTIMADOR
=
Si un estimador no es insesgado estimador sesgado
Sesgo E (
$
) (
$
) =
EJEMPLOS DE ESTIMADORES INSESGADOS:
Media Muestral: Para estimar la esperanza matemtica de una
distribucin de probabilidad, la media muestral de una m.a.s. es siempre
un estimador insesgado:
x
[ ] = x E[ ] = x E
Aplicaciones:
Normal N(;
2
)
Poisson P()
Bernoulli Be(p)
[ ] = x E
[ ] = x E
[ ] p p E =


X
Cuasivarianza Muestral: es un estimador insesgado de la varianza
poblacional
( )
S
x x
n
i
i
n
=
=

2 1
2
1
[ ]
2 2
= S E
EJEMPLOS DE ESTIMADORES INSESGADOS:
S
n
=
1
[ ] = S E
( ) ( ) ( ) [ ] ( ) ( ) ( )( ) [ ]
( ) ( ) ( ) ( ) [ ]
2 2 2
1
2 2
1
2 2
1
2 2
1
2
2
1
1
1
1
1
1
2
1
1
1
1

=
(

=
(

=
=
(

=
(

=


= =
= =
n
n
x nE x E
n
x n x E
n
x x x x E
n
x x E
n
S E
n
i
i
n
i
i
n
i
i i
n
i
i
Demostracin:
( )
S
x x
n
i
i
n
2 1
2
=

[ ]
2 2
1

n
n
S E

=
Varianza Muestral: es un estimador sesgado de la varianza poblacional.
EJEMPLOS DE ESTIMADORES INSESGADOS:
n
n
Sesgo S E S
n
n n
( ) ( )
( )
2 2 2 2 2 2
1 1
= =

=


Un estimador es asintticamente insesgadosi su posible
sesgo tiende a cero al aumentar el tamao muestral con que se calcula.
5. PROPIEDADES DE UN ESTIMADOR
2.Eficiencia
Sean
1
y
2
dos estimadores insesgados de un parmetro desconocido .
Decimos que
1
es ms eficiente que
2
si :
^ ^
^ ^
1 2
Var (
2
) > Var (
1
)
La eficiencia relativa de
1
respecto a
2
en una muestra se mide por el ratio:
Var (
2
) / Var (
1
)
^
^
^
^
^ ^
5. PROPIEDADES DE UN ESTIMADOR
Teorema . Desigualdad de Cramer-Rao
Sea X
1
X
2
,..., X
n
una m.a.s. extrada de una poblacin f (X;), y
Sea = g(X
1
,X
2
,..., X
n
) un estimador insesgado del parmetro ^
1
Var
nE
f x
(
$
)
ln ( ;

|
\

|
1
2
Un estimador insesgado de un parmetro
poblacional desconocido se dice eficiente si su
varianza es tan baja como la cota de Cramer-Rao
^
E x ( ) =

P( )
E x p
p p
( )
( )
=
1
Be(p)
E x ( ) =

2
N( ;
2
)
EJEMPLOS DE ESTIMADORES EFICIENTES:
Normal N(;
2
) x es un estimador eficiente de
Poisson P() x es un estimador eficiente de
Bernoulli Be(p) x es un estimador eficiente de p
V x
n
( ) =

V x
p p
n
( )
( )
=
1
V x
n
( ) =

2
5. PROPIEDADES DE UN ESTIMADOR
3. Error Cuadrtico Medio
( )
ECM E (
$
)
$
=
2
Insesgado
Sesgo
Teorema 9.6.
a)
( )
[ ]
ECM Var E (
$
) (
$
)
$
= +
2
b)
( )
Si E ECM Var
$
(
$
) (
$
) = =
5. PROPIEDADES DE UN ESTIMADOR
Un estimador asintticamente insesgado, cuya varianza tienda a cero al
aumentar el tamao muestral es consistente
^
Aplicaciones:
E x ( ) =
4. Consistencia
E x
V x
n
( )
( )
=
=

2
La media muestral es un
estimador consistente
de la media poblacional
Normal N(;
2
) x es un estimador consistente de
Poisson P() x es un estimador consistente de
Bernoulli Be(p) x es un estimador consistente de p
5. PROPIEDADES DE UN ESTIMADOR
4. Suficiencia
Un estimador es suficiente cuando no da lugar a prdida de informacin; es
decir, cuando la inferencia basada en es tan buena como la que hiciera uso
$

decir, cuando la inferencia basada en es tan buena como la que hiciera uso
de toda la muestra.

5. PROPIEDADES DE UN ESTIMADOR
Para identificar estadsticos suficientes se utiliza el teorema de factorizacin:
Una condicin necesaria y suficiente para que
sea suficiente para es que la densidad conjunta
de la muestra f(X
1
,X
2
,...,X
n
; ) pueda expresarse as:
$
( , ,..., ) = g X X X
n 1 2
f X X X h X X X
n n
( , ,..., ; ) (
$
; ) ( , ,..., )
1 2 1 2
=
f X f X f X
n
( ; ) . ( ; )... ( ; )
1 2

N( ;
2
)
( )
f X X X e
n
n
X
i
i
n
( , ,..., ; , )
/
1 2
2
2
2
1
2
1
2
2
2
1

=
|
\


=
EJEMPLOS DE ESTIMADORES SUFICIENTES:
Normal N(;
2
) x es un estimador suficiente de
Bernoulli Be(p) x es un estimador suficiente de p
Be(p)
f X X X p p p
n
x n x
i i
( , ,..., ; ( )
1 2
1 =


Mtodo de la mxima verosimilitud


3. PROCEDIMIENTOS DE ESTIMACIN
Funcin de verosimilitud de la muestra
Si en la funcin de densidad conjunta f(X
1
,X
2
,...,X
n
; ) de una muestra fijamos
los valores de (X
1
,X
2
,...,X
n
) en aqullos que se han presentado en una
L(/ x
1
,x
2
,..., x
n
) = P(/ X
1
=x
1
, X
2
= x
2
,..., X
n
= x
n
)
los valores de (X
1
,X
2
,...,X
n
) en aqullos que se han presentado en una
realizacin muestral, tenemos una funcin de que llamaremos funcin de
verosimilitud asociada a dicha realizacin muestral.
3. PROCEDIMIENTOS DE ESTIMACIN
Mtodo de la mxima verosimilitud
El estimador de mxima verosimilitud de EMV( ) es
el valor de
MV
que maximiza la funcin de verosimilitud
^

L x x x
n
( / , ,..., )
1 2
0 =

ln ( / , ,..., ) L x x x
n 1 2
0 =
( )
L x x x e
n
n x
i
( , / , ,... )
/

2
1 2 2
2
1
2
1
2
2
2
=
|
\


N( ;
2
)
x
i

P( )
EJEMPLOS DE ESTIMADORES MXIMO VEROSMILES
L x x x e
x x x
n
n
x
n
i
( / , ,... )
! !.. !

1 2
1 2
=

P( )
L p x x x p p
n
x n x
i i
( / , ,... ) ( )
1 2
1 =


B(p)
Normal N(;
2
) EMV( )=x y EMV(
2
)=S
2
Poisson P() EMV()=x
Bernoulli B(p) EMV(p )=x
1. Los E.M.V. no son , en general, insesgados, aunque si asintticamente
insesgados. Son, en general, consistentes
2. Si existe un estadstico suficiente, el E.M.V. es funcin nicamente de
dicho estadstico.
PROPIEDADES DE LOS ESTIMADORES MXIMO VEROSMILES
dicho estadstico.
4. Si existe un estimador eficiente del parmetro en estudio, ste es
necesariamente el E.M.V.
3. El E.M.V. es invariante:
Si es E.M.V. g( ) es E.M.V. de g( ) ^ ^
3. PROCEDIMIENTOS DE ESTIMACIN
Mtodo de los momentos
El procedimiento consiste en igualar momentos poblacionales respecto al
origen (
r
) a los correspondientes momentos muestrales (a
r
), formando as
tantas ecuaciones como parmetros poblacionales se pretenden estimar:

1 1 1
1
= = = = =
=

E X a
x
n
x
i
i
n
( )
$

2
2
2 2
2
1
= = =
=

E X a
x
n
i
i
n
( )
$

r
r
r r
r
i
n
E X a
x
n
i
= = =
=

( )
$
1
En general:
Normal N(;
2
) Parmetros a estimar: y
2
Poisson P()
= = = E X x ( )
$
p E X p x = = = ( )
$

Bernoulli B(p)
EJEMPLOS DE ESTIMADORES POR EL MTODO DE LOS
MOMENTOS
x
a
=
= +


2
2 2


=
= = +
E X ( )
2
2
2
2
2 2
Por el mtodo de los momentos, sabemos que los estimadores de y
2
son
a
1
y a
2
respectivamente:
$
$

=
= =
x
a x S
2
2
2 2
7. INTERVALOS DE CONFIANZA
Problema que presenta el uso de estimadores puntuales:
Slo dan una idea de lo que puede valer el parmetro que estimamos, sin
conocer como de buena es la aproximacin; es decir, simplemente
proporcionan un valor (de los muchos posibles) que puede proponerse
como valor del parmetro. como valor del parmetro.
No indica la precisin con la que
conseguimos estimar mediante la
media muestral.
7. INTERVALOS DE CONFIANZA
Ejemplo.:Considere la poblacin de estudiantes de la UHU. Estamos
interesados en investigar el valor del parmetro:
= gasto medio anual de los estudiantes de la UHU en libros
Para ello seleccionamos aleatoriamente dos muestras de 30
estudiantes cada una y obtenemos el valor del gasto medio en cada estudiantes cada una y obtenemos el valor del gasto medio en cada
caso.
coincidirn las dos medias muestrales? cul es mejor
como estimacin? qu error se comete al asumir como
valor de el ofrecido por una de estas medias?
Resultado: Muestra 1:
euros x 120 =
euros x 150 =
Muestra 2:
?
ESTIMACIN POR INTERVALOS DE CONFIANZA
Se trata de asignar al parmetro poblacional desconocido un rango
de valores posibles, dentro de los cuales se encuentra el verdadero
valor del parmetro con un determinado nivel de confianza fijada de
antemano y que permite precisar la incertidumbre que existe en la
estimacin.
7. INTERVALOS DE CONFIANZA
estimacin.
Si podemos encontrar dos variables aleatorias A y B, tales que:
P( A B ) = 1-
y representamos las realizaciones particulares de A y B por a y b,
entonces, el intervalo (a, b) se denomina intervalo de confianza del
100(1- )% para . La cantidad (1- ) se denomina nivel de
confianza del intervalo.
La confianza de un intervalo debe interpretarse en el sentido siguiente: Por
cada 100 intervalos que construyamos para estimar un mismo parmetro (a
partir de otras tantas muestras aleatorias y para un valor prefijado) el (1- )%
de los intervalos obtenidos recogern en su interior al verdadero valor del
7. INTERVALOS DE CONFIANZA
(a , b )
de los intervalos obtenidos recogern en su interior al verdadero valor del
parmetro, mientras que el % restante, por cosas del azar, pueden resultar
equivocados.
Si elegimos el nivel de confianza (1- )%grande, por ejemplo del 95%,
entonces nuestra esperanza al elaborar un intervalo a partir de una muestra es
que sea uno de los 95 de cada 100 intervalos acertados
8. INTERVALOS DE CONFIANZA PARA LA MEDIA
1. Poblacin Normal con varianza conocida N(,
2
)
Sea X = {X
1
,X
2
,,X
n
} una m.a.s. procedente de una poblacin N(,
2
)
con esperanza desconocida y varianza conocida.
Sabemos que la media muestral x es: Sabemos que la media muestral x es:
el estimador de mxima verosimilitud de ,
insesgado,
x ~ N( ,
2
/n)
( ) 1 , 0 ~ N
n
x


Fijada una probabilidad (1-), tendremos:
(
(
(

=
2 / 2 /
1

Z
n
x
Z P
0
1-
/2
/2
z
/2
z
/2
Donde conocemos todos los elementos que intervienen menos .
8. INTERVALOS DE CONFIANZA PARA LA MEDIA
Donde conocemos todos los elementos que intervienen menos .
Una vez que se opera oportunamente, se tiene que:


=
(

+ 1
2 / 2 /
n
Z x
n
Z x P
Intervalo de confianza al
100(1-)%para :
(

+
n
Z x
n
Z x

2 / 2 /
;
2. Poblacin Normal con varianza desconocida N(,
2
)
1
/

n
t
n S
x


=
(



1
/
2 / , 1 2 / , 1 n n
t
n S
x
t P
8. INTERVALOS DE CONFIANZA PARA LA MEDIA
S
cuasidesviacin
tpica muestral
Intervalo de confianza al
100(1-)%para :
(

+

n
S
t x
n
S
t x
n n

2 / , 1 2 / , 1
0
1-
/2
/2
2 / , 1

n
t
2 / , 1 n
t
3. Poblacin distinta a la Normal
Para cualquier poblacin, aplicando el Teorema Central del Lmite, la
media muestral se aproxima asintticamente a una distribucin normal.
( ) 1 , 0 ~ N
x


8. INTERVALOS DE CONFIANZA PARA LA MEDIA
n

Intervalo de confianza
aproximado al 100(1-)%
para :
(

+
n
S
Z x
n
S
Z x

;

2 / 2 /
Por lo tanto, para muestras grandes de cualquier poblacin (n 30), el intervalo
de confianza para la media queda como sigue, donde se sustituye por su
estimador S.
1. Poblaciones Normales con varianzas conocidas
|
|

\
|
+
m n
N y x
y
x
y x
2
2
, ~


Dadas dos m.a.s. X
1
,X
2
, ..., X
n
e
Y
1
, Y
2
, ..., Y
m
extradas de dos
poblaciones independientes
N(
x
,
x
2
) y N(
y
,
y
2
) con
varianzas conocidas
9. INTERVALOS DE CONFIANZA PARA LA DIFERENCIA DE
MEDIAS
( ) ( )
(
(
(
(
(

+

=
2 /
2
2
2 /
1


Z
m n
y x
Z P
y
x
y x
varianzas conocidas
0
1-
/2
z
/2
z
/2
/2
I.C. al 100(1-)%
para
x
-
y
( ) ( )
(
(

+ + +
m n
Z y x
m n
Z y x
y
x
y
x
2
2
2 /
2
2
2 /
;


Si las varianzas son desconocidas nos enfrentamos a un problema
ms complejo cuando las muestras son de tamao reducido.
2. Poblaciones Normales con varianzas desconocidas
Si podemos suponer que las varianzas, aun siendo desconocidas, son
iguales ( ), el problema se resuelve, incluso para tamaos
muestrales pequeos, empleando el siguiente resultado:
9. INTERVALOS DE CONFIANZA PARA LA DIFERENCIA DE
MEDIAS
2 2
y x
=
muestrales pequeos, empleando el siguiente resultado:
2
2 2
1 1
2
) 1 ( ) 1 (
) ( ) (
1 1
) ( ) (
+

+
+
+

=
+

m n
y x
y x y x
t
m n m n
S m S n
y x
m n
y x


Estimador combinado de la desviacin
tpica (s)
y x
Por lo que podemos determinar la probabilidad del intervalo:


=
(

+ + +
+ +
1
1 1
) (
1 1
) (
2 / , 2 2 / , 2
m n
s t y x
m n
s t y x P
m n y x m n
Siendo:
9. INTERVALOS DE CONFIANZA PARA LA DIFERENCIA DE
MEDIAS
2
) 1 ( ) 1 (
2 2
+
+
=
m n
S m S n
s
y x
0
1-
/2
/2
2 / , 2 +

m n
t
2 / , 2 +m n
t
I.C. al 100(1-)%
para
x
-
y
(

+ + +
+ +
m n
s t y x
m n
s t y x
m n m n
1 1
) ( ;
1 1
) (
2 / , 2 2 / , 2
3. Tamaos de muestras grandes
Si el tamao de las muestras n y m es grande (n, m 30), para
cualquier poblacin, aplicando el Teorema Central del Lmite, se
obtiene un intervalo aproximado para la diferencia de las medias dado
por la siguiente expresin:
9. INTERVALOS DE CONFIANZA PARA LA DIFERENCIA DE
MEDIAS
0
1-
/2
z
/2
z
/2
/2
I.C. al 100(1-)%
para
x
-
y
( ) ( )
(
(

+ + +
m
S
n
S
Z y x
m
S
n
S
Z y x
y
x
y
x
2
2
2 /
2
2
2 /


Por lo tanto, este intervalo se emplea
tambin para poblaciones normales
con varianzas desconocidas, siempre
que el tamao de las muestras sea
grande.
10. I.C. PARA LA VARIANZA Y PARA EL COCIENTE DE
VARIANZAS POBLACIONALES NORMALES
1. I.C. para la varianza de una poblacin normal
A partir de la cuasivarianza muestral se
puede construir la variable aleatoria:
2
1
2
2
) 1 (

n
x
S n

1-
/2
/2

n 1 1 2
2
, /

n1 2
2
, /


=
(


1
) 1 (
2
2 / , 1
2
2
2
2 / 1 , 1 n
x
n
S n
P
I.C. al 100(1-)% para
2
(
(



2
2 / 1 , 1
2
2
2 / , 1
2
) 1 (
;
) 1 (


n
x
n
x
S n S n
2. I.C. para el cociente de varianzas en poblaciones normales
10. I.C. PARA LA VARIANZA Y PARA EL COCIENTE DE
VARIANZAS POBLACIONALES NORMALES
Dadas dos m.a.s. X
1
,X
2
, ..., X
n
e Y
1
, Y
2
, ..., Y
m
extradas de dos poblaciones independientes
N(
x
,
x
2
) y N(
y
,
y
2
). Sabemos que:
2
2
2
1
2
2
) 1 (
) 1 (

y
n
x
x
S m
S n

1 , 1
2
2
2
2
2
2
2
2

1
) 1 (
1
) 1 (

=

n m
x
x
y
x
y
F
S
S
n
S n
m
S m
y
x
y

2
1
2

m
y
y

10. I.C. PARA LA VARIANZA Y PARA EL COCIENTE DE


VARIANZAS POBLACIONALES NORMALES
1-
/2
/2
1 , 1
2
2
2
2

n m
x
x
y
F
S
S
y

2 / 1 , 1 , 1 n m
F
2 / , 1 , 1 n m
F


=
(
(

2 / , 1 , 1
2
2
2
2
2 / 1 , 1 , 1 n m
x
x
y
n m
F
S
S
F P
y
I.C. al 100(1-)%
para
2
x
/
2
y
(
(


2
2
2 / , 1 , 1
2
2
2 / 1 , 1 , 1

y
x
n m
y
x
n m
S
S
F
S
S
F

11. I.C. PARA PROPORCIONES Y DIFERENCIA DE
PROPORCIONES
1. I.C. para proporciones
Para tamaos muestrales suficientemente grandes podemos utilizar la
implicacin del Teorema Central del Lmite para determinar el
intervalo de confianza para la probalidad de xito en un experimento
de Bernouilli.

p p
(
(
(


2 / 2 /
) 1 (

1

Z
n
p p
p p
Z P
( ) 1 , 0 ~
/ ) 1 (

N
n p p
p p

0
1-
/2
/2
z
/2
z
/2
n
x
p
i
=


n
p p
Z p p
n
p p
Z p P
) 1 (

) 1 (

1
2 / 2 /

Sustituyendo p por su estimador


11. I.C. PARA PROPORCIONES Y DIFERENCIA DE
PROPORCIONES
n
x
p
i
=

Es vlido cuando la muestra sea suficientemente grande


(np y nq mayor o igual a 5)
(

n
p p
Z p
n
p p
Z p
)

1 (

;
)

1 (

2 / 2 /
I.C. al 100(1-)% para p
2. I.C. para la diferencia de proporciones
Para contrastar la igualdad de proporciones de dos poblaciones
Bernoulli independientes tomaremos dos muestras de tamao n y m y
calcularemos las proporciones de xito en cada caso: .Para
tamaos muestrales grandes, aplicando el Teorema Central del Lmite,
se tiene que aproximadamente:
11. I.C. PARA PROPORCIONES Y DIFERENCIA DE
PROPORCIONES
y x
p p

,

se tiene que aproximadamente:


Dado que en la varianza hay
parmetros desconocidos,
tomamos la solucin propuesta
en el apartado anterior para
obtener el siguiente resultado.
( )
( )
|
|

\
|

+


m
p p
n
p p
p p N p p
y y
x x
y x y x
1
1
; ~

( )
( )
( )
( )
( )
( )
(
(


m
p p
n
p p
Z p p
m
p p
n
p p
Z p p
y y
x x
y x
y y
x x
y x
1
1
;
1
1

2 / 2 /
12. DETERMINACIN DEL TAMAO PTIMO
MUESTRAL
A partir de las frmulas que se utilizan para construir los
intervalos de confianza, podemos calcular el tamao muestral
necesario para obtener una precisin determinada.
Llamamos error de estimacin (E) a la mxima diferencia que
nos permitimos admitir, con un nivel de confianza 100(1-)%,
entre el parmetro desconocido y el estadstico que usamos
como estimador.
12. DETERMINACIN DEL TAMAO PTIMO
MUESTRAL
Media
Supongamos que queremos que el intervalo de


=
(

+ 1
2 / 2 /
n
Z x
n
Z x P
Supongamos que queremos que el intervalo de
confianza con nivel 1- tenga una amplitud
E x
n
z E

2 /
=
2
2 2
2 /
E
z
n

=
Cuando es desconocida, se toma
una muestra piloto de tamao
pequeo y se estima por S.
12. DETERMINACIN DEL TAMAO PTIMO
MUESTRAL
Proporcin
Para un intervalo del tipo y teniendo en
cuenta la forma de los intervalos de confianza
E p

p p
z E
) 1 (
=

1
) 1 (

) 1 (

2 / 2 /
n
p p
Z p p
n
p p
Z p P
cuenta la forma de los intervalos de confianza
n
p p
z E
) 1 (
2 /

=

2
2
2 /
4 E
z
n

=
Como p es desconocido (salvo que
se conozca un valor por estudios
anteriores), consideramos el caso
ms desfavorable: p = 0.5

Vous aimerez peut-être aussi