Vous êtes sur la page 1sur 73

UNIVERSIDAD CATLICA DE ASUNCIN

ECONOMETRA

UNIDAD I REPASO DE ESTADSTICAS

A.1 OPERADORES DE SUMATORIA Y DE PRODUCTO

Para la suma empleamos la letra mayscula griega (sigma)


n

xi = x1 + x2 + x3 + + xn

i =1

Propiedades del operador de sumatoria :


1. in= k k = nk , donde k es una constante i4=1 3 = 4 3 = 12
2. in=1 kxi = k in=1 xi , donde k es una constante
3. in=1 (a + bxi ) = na + b in=1 xi , donde a y b son constantes y donde se hace
uso de las propiedades 1 y 2 anteriores
4. in=1 ( xi + yi ) = in=1 xi + in=1 yi

A.1 OPERADORES DE SUMATORIA Y DE PRODUCTO

El operador de sumatoria puede ampliarse a sumas mltiples. El operador


de doble sumatoria se define como:
n m

i =1 j =1

i =1

xij = ( xi1 + xi 2 + xi 3 + + xim )


= ( x11 + x21 + x31 + + xn1 ) + ( x12 + x22 + x32 + + xn 2 )
+ + ( x1m + x2 m + x3m + + xnm )

Algunas de las propiedades del operador de doble sumatoria :


n m

m n

i =1 j =1

j =1i =1

n m

i =1 j =1

i =1

j =1

1. xij = xij , es decir, se puede intercambiar la suma


2. xi y j = xi y j
3.

( xij + yij ) = xij + yij


n

i =1 j =1

i =1 j =1

i =1 j =1

4. in=1 xi = in=1 xi + 2in=11nj =i +1 xi x j = in=1 xi + 2i < j xi x j


2

A.1 OPERADORES DE SUMATORIA Y DE PRODUCTO

El operador de producto es definido como:


n

xi = x1 x2 x3 xn
i =1

Por tanto,
3

xi = x1 x2 x3
i =1

A.2 ESPACIO MUESTRAL, PUNTOS MUESTRALES Y EVENTOS

Poblacin (o Espacio Muestral): Es el conjunto de todos los resultados


posibles de un experimento aleatorio, o del azar.
Punto Muestral: Cada miembro de este espacio muestral.
Por ej., al lanzar dos monedas, el espacio muestral consta de cuatro resultados
posibles: CC, CS, SC, SS. Cada uno de los eventos anteriores constituye un
espacio muestral.
Evento: Subconjunto del espacio muestral.
Si A denota la ocurrencia de una cara y un sello, entonces, de los posibles
resultados anteriores solamente dos pertenecen a A, CS y SC. En este caso
decimos que A constituye un evento.
Eventos mutuamente excluyentes: Dos eventos son m.e. si la ocurrencia
de uno impide la ocurrencia del otro. Si en el ejemplo anterior ocurre CC, la
ocurrencia del evento CS al mismo tiempo no es posible.
Eventos exhaustivos (colectivamente): Si todos los resultados posibles de
un experimento se agotan. En el ejemplo, los eventos (a) dos caras, (b) dos
sellos y (c) un sello y una cara, agotan todos los resultados posibles.

A.3 PROBABILIDAD Y VARIABLES ALEATORIAS

Probabilidad: Sea A un evento en un espacio muestral. Sea P(A) la


probabilidad del evento A, es decir, la proporcin de veces que el evento A
ocurrir en ensayos repetidos de un experimento.
En forma alterna, en un total de n posibles resultados igualmente probables de
un experimento, si m de ellos son favorables a la ocurrencia del evento A, se
define la razn m/n como la frecuencia relativa de A.
Para los valores grandes de n, esta frecuencia relativa constituir una muy
buena aproximacin de la probabilidad de A.
Propiedades de la probabilidad. P(A) es una funcin de valor real.
1. 0 P ( A) 1, A
2. Si A, B, C, constituyen un conjunto de eventos exhaustivos, entonces
P ( A + B + C ) = 1 , donde A + B + C significa A o B o C y as sucesivamente
3. Si A, B, C, son eventos mutuamente excluyentes, entonces
P ( A + B + C + ) = P ( A) + P (B ) + P (C ) +

A.3 PROBABILIDAD Y VARIABLES ALEATORIAS


EJEMPLO 1

Considrese el experimento de lanzar un dado numerado del 1 al 6. El espacio


muestral consta de los resultados 1, 2, 3, 4, 5, y 6. Por consiguiente, estos seis
eventos agotan la totalidad del espacio muestral, la probabilidad de obtener
cualquiera de estos nmeros es 1/6 puesto que son seis resultados igualmente
probables y cada uno de ellos tiene igual probabilidad de aparecer. Puesto que
1, 2, 3, 4, 5, y 6 forman un conjunto exhaustivo de eventos,
P(1 + 2 + 3 + 4 + 5 + 6 ) = 1 donde 1, 2, 3, significa la probabilidad del nmero 1 o
del nmero 2 o del nmero 3, etc. Dado que 1, 2,,6 son eventos
mutuamente excluyentes, en donde dos nmeros no pueden obtenerse
simultneamente, P(1 + 2 + 3 + 4 + 5 + 6 ) = P (1) + P(2 ) + + P (6 ) = 1

A.3 PROBABILIDAD Y VARIABLES ALEATORIAS

VARIABLES ALEATORIAS (va): Son aquellas variables cuyo valor est


determinado por el resultado de un experimento de azar.
Las va se denotan usualmente por las letras maysculas X, Y, Z y as
sucesivamente, y los valores que ellas toman estn denotadas por las letras
minsculas, x, y, z, etc.
Las va pueden ser discretas o continuas. Las va discretas son aquellas que
adquieren un nmero finito de valores. Por ej., al lanzar dos dados, cada uno
numerado del 1 al 6, si se define la va X como la suma de los nmeros que
aparecen en los dados, entonces X tomar uno de los siguientes valores: 2, 3, 4,
5, 6, 7, 8, 9, 10, 11 o 12.
Las va continuas son aquellas que pueden tomar cualquier valor dentro de un
intervalo de valores. As, la estatura de un individuo es una variable continua.
Se debe tener en cuenta que en el agregado al tomar promedios de la va, se
puede tener un valor continuo, cuando la va es discreta.

A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

FDP de una va discreta


Sea X una va discreta que toma valores diferentes x1 , x2 ,, xn . Entonces, la
funcin

P( X = xi ), i = 1,2,, n
f (x) =
x xi
0 , para

se denomina la FDP discreta de X, donde P( X = xi ) significa la probabilidad de


que la va discreta X tome el valor de xi .
EJEMPLO 2
En un lanzamiento de dos dados, la va X, o sea la suma de los nmeros que
aparecen en dos dados, puede tomar uno de los 11 valores mostrados. La FDP
de esta variable puede aparecer como sigue:
X=
f (x) =

2
1/36

3
1/18

4
1/12

5
1/9

6
5/36

7
1/6

8
5/36

9
1/9

10
1/12

11
1/18

12
1/36

Estas probabilidades pueden verificarse fcilmente. En total, hay 36 resultados


posibles, de los cuales uno es favorable al nmero 2, dos son favorables al
nmero 3 y as sucesivamente.

A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

F u n c i n d e d e n sid a d d e la v a d isc r e ta d e l eje m p lo 2


9 /5 0

4 /2 5

7 /5 0

3 /2 5

f(x)

1 /1 0

2 /2 5

3 /5 0

1 /2 5

1 /5 0

0
0

10

12

14

A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

FDP de una va continua


Sea X una va continua. Entonces, se dice que f ( x ) es la FDP de X si se
satisfacen las siguientes condiciones:
f (x ) 0

f ( x )dx = 1

b
a f ( x )dx = P(a x b )

donde f ( x )dx es conocido como el elemento probabilstico (la probabilidad


asociada con un pequeo intervalo de una va continua) y donde P (a x b )
significa la probabilidad de que X se encuentre en el intervalo a o b .
Grficamente tenemos:

P (a X b )

10

A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)


EJEMPLO 3

Considrese la siguiente funcin de densidad:


1 2
f (x) = x
0 x3
9
Puede verificarse con facilidad que f ( x ) 0 para toda x en el intervalo 0 a 3 y
2

que 01 / 9 x dx = 1. Si se desea evaluar la FDP anterior entre 0 y 1, se obtiene


3

31

= 1 / 27 x = 1 / 27 ; es decir, la probabilidad de que x se encuentre

entre 0 y 1 es 1/27.
2
1
1
/
9
x
dx
0

1. FDP conjunta
FDP conjunta discreta. Sean X y Y dos va discretas. Entonces la funcin

P ( X = x, Y = y )
f ( x, y ) =
Xy
y Yy
0 cuando
se conoce como la FDP conjunta discreta y da la probabilidad (conjunta) de que
X tome el valor de x y Y tome el valor de y.

11

A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

EJEMPLO 4
La siguiente tabla presenta la FDP conjunta de las va X y Y.

X
Y

-2
0,27
0

3
6

0
0,08
0,04

2
0,16
0,10

3
0
0,35

Esta tabla muestra que las probabilidad de que X tome el valor de -2 mientras
simultneamente Y toma el valor de 3 es de 0,27, y que la probabilidad de que X
tome el valor de 3 mientras Y toma el valor de 6 es 0,35 y as sucesivamente.
2. FDP marginal
En relacin con f ( x, y ), f ( x ), f ( y ) se denominan FDP individuales o marginales.
Estas FDP marginales se obtienen de la siguiente manera:
f ( x ) = f ( x, y )
f ( x ) = f ( x, y )
y

El primero es la FDP marginal de X y la ltima la FDP marginal de Y.


y significa la suma sobre todos los valores de Y y x significa la suma sobre
todos los valores de X.
12

A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

EJEMPLO 5
Considrese la informacin dada en el ejemplo 4. La FDP marginal de X se
obtiene de la siguiente manera:
f ( x = 2) = y f ( x, y ) = 0,27 + 0 = 0,27

f ( x = 0 ) = y f ( x, y ) = 0,08 + 0,04 = 0,12

f ( x = 2) = y f ( x, y ) = 0,16 + 0,10 = 0,26


f ( x = 3) = y f ( x, y ) = 0 + 0,35 = 0,35

Asimismo, la FDP marginal de Y se obtiene as:


f ( y = 3) = x f ( x, y ) = 0,27 + 0,08 + 0,16 + 0 = 0,51

f ( y = 6) = x f ( x, y ) = 0 + 0,04 + 0,10 + 0,35 = 0,49

Para obtener la FDP marginal de X, se suma la columna de nmeros, y para


obtener la FDP marginal de Y, se suma la fila de nmeros. Obsrvese que
x f ( x ) sobre todos los valores de X es 1, como lo es y f ( y ) sobre todos los
valores de Y.
Podemos completar la tabla del ejemplo 4 agregando una nueva columna y una
nueva fila indicando la FDP marginal de X y la FDP marginal de Y
respectivamente.

13

A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

X
Y

3
6

FDP MARG Y

-2
0,27
0
0,27

0
0,08
0,04
0,12

2
0,16
0,10
0,26

3
0
0,35
0,35

FDP MARG

0,51
0,49
1

3. FDP condicional
En el anlisis de regresin, el inters se centra, con frecuencia, en estudiar el
comportamiento de una variable condicional respecto a los valores de otra u
otras variables. Esto puede hacerse considerando la FDP condicional. La funcin
f ( x | y ) = P( X = x | Y = y )
se conoce como la FDP condicional de X; sta da la probabilidad de que X
tome el valor de x dado que Y ha asumido el valor de y. En forma similar,
f ( y | x ) = P (Y = y | X = x )
lo cual da la FDP condicional de Y.
Las FDP condicionales pueden obtenerse de la siguiente manera:
14

A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

f (x | y) =

f ( x, y )
,
f ( y)

f (y | x) =

f ( x, y )
FDP(CONJ )
, FDP(COND) =
f (x)
FDP( MARG)

Son las FDP condicionales de X y Y respectivamente.


Como lo muestran las expresiones anteriores, la FDP condicional de una
variable puede expresarse como la razn de la FDP conjunta con
respecto a la FDP marginal de otra variable (condicionalmente).
EJEMPLO 6
Continuando con los ejemplos 4 y 5, se calculan las siguientes probabilidades
condicionales, as:
f ( X = 2, Y = 3)
f ( X = 2 | Y = 3) =
= 0,27 / 0,51 = 0,53
f (Y = 3)
La probabilidad incondicional f ( x = 2 ) es 0,27, pero si Y ha asumido el valor de
3, la probabilidad de que X tome el valor de -2 es 0,53.
f ( X = 2, Y = 6 )
f ( X = 2 | Y = 6) =
= 0,10 / 0,49 = 0,20
f (Y = 6 )

15

A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

De nuevo, la probabilidad incondicional de que X tome el valor de 2 es 0,26, la


cual es diferente de 0,20, que es su valor si Y asume el valor de 6.
Completando el ejemplo 4, tenemos:
X
Y

3
6

-2
0
0,53 0,16
0,00 0,08

2
0,31
0,20

3
0,00
0,71

Independencia estadstica
Dos va X y Y son estadsticamente independientes ssi
f ( x, y ) = f ( x ) f ( y )
es decir, si la FDP conjunta puede expresarse como el producto de las FDP
marginales.
EJEMPLO 7
Una bolsa contiene tres bolas numeradas 1,2 y 3. Se seleccionan de la bolsa dos
bolas al azar, con reemplazamiento. Sea X el nmero de la primera bola sacada
y Y el nmero de la segunda. La siguiente tabla muestra la FDP conjunta de X y
Y.

16

A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)


1
1/9
1/9
1/9

1
2
3

X
2
1/9
1/9
1/9

3
1/9
1/9
1/9

f ( X = 1, Y = 1) = 1 / 9, f ( X = 1) = 1 / 3 (obtenido mediante la suma de los elementos


de la primera columna) y f (Y = 1) = 1 / 3 (obtenido mediante la suma de los
elementos de la primera fila). Puesto que f ( x, y ) = f ( x ) f ( y ), en este ejemplo, se
puede decir que las variables son estadsticamente independientes.
Puede verificarse que para cualquier otra combinacin de los valores X y Y
dados en la verificarse que para cualquier otra combinacin de los valores X y Y
dados en la
tabla anterior, las FDP conjuntas se factorizan en FDP
individuales.
En el ejemplo 4, las variables X y Y no son estadsticamente independientes
puesto que el producto de las dos FDP marginales no es igual a la FDP
conjunta.

X
-2
Y

3
6

0,14
0,13

0
0,06
0,06

2
0,13
0,13

3
0,18
0,17

17

A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

FDP conjunta continua


La FDP conjunta de f ( x, y ) de dos variables continuas X y Y es tal que:

f ( x, y ) 0

f ( x, y )dxdy = 1

f ( x, y )dxdy = P(a x b, c y d )
d b
c z

EJEMPLO 8
Considrese la siguiente FDP:
f ( x, y ) = 2 x y

1
2

1 3

( 2 x y ) dx dy = 2 y

xy
dy
y

dy
0 0
0

2
2

f ( x, y ) = 1 0

0 x 1; 0 y 1

3
y2
= y =1
2 0
2

La FDP marginal de X y de Y pueden obtenerse respectivamente como

f ( x) = f ( x, y )dy

f ( y ) = f ( x, y )dx

18

A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

EJEMPLO 9
Las dos FDP marginales de la FDP conjunta dada en el ejemplo 8 son las
siguientes:
1

f ( x ) = f ( x, y ) dy =
1

y2
3
f ( 2 x y ) dy = 2 y xy = x ; 0 x 1
2

0 2
1

f ( y ) = f ( x, y ) dx =
1

x2
3
f ( 2 x y ) dx = 2 x xy = y ; 0 y 1
2

0 2

Son estadsticamente independientes las va X y Y? Comprobmoslo


f ( x, y ) = f ( x ) f ( y )

(2 x y ) 3 x 3 y Por lo tanto, no son estadsticamente independientes.


2

19

A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

Momentos: Caracterstica de una distribucin de probabilidad


Los momentos ms conocidos son: la media o valor esperado, y la varianza.
Valor esperado
El valor esperado de una va discreta X, denotado por E ( X ) , se define de la
siguiente manera:
E ( X ) = xf ( x )
x

donde x significa la suma sobre todos los valores de X y donde f ( x ) es la


FDP (discreta) de X.
EJEMPLO 10
Considrese la distribucin de probabilidad de la suma de dos nmeros en el
lanzamiento de dos dados analizada en el ejemplo 2. Multiplicando los diversos
valores de X dados all por sus correspondientes probabilidades y sumando
sobre todas las observaciones, se obtiene:
E ( X ) = 2(1 / 36 ) + 3(2 / 36 ) + 4(3 / 36 ) + + 12(1 / 36 ) = 7
que es el valor promedio de la suma de los nmeros observada en un
lanzamiento de dos dados.
20

A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

EJEMPLO 11
Estmese E ( X ) y E (Y ) para la informacin dada en el ejemplo 4.
X
Y

3
6

FDP MARG Y

-2
0,27
0
0,27

0
0,08
0,04
0,12

2
0,16
0,10
0,26

3
0
0,35
0,35

FDP MARG

0,51
0,49
1

E ( X ) = x xf ( x ) = ( 2 )(0,27 ) + (0 )(0,12 ) + (2 )(0,26 ) + (3)(0,35) = 1,03

E (Y ) = y yf ( y ) = (3)(0,51) + (6 )(0,49) = 4,47

El valor esperado de una va continua est definido como:

E ( X ) = sf ( x )dx

La nica diferencia entre esta caso y el valor esperado de una va discreta es que
el smbolo de sumatoria se reemplaza por el smbolo de integral.

21

A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

EJEMPLO 12
El valor esperado de la FDP del ejemplo 3 puede obtenerse as:
E ( X ) = 0 x
3

4 3
1 x
dx = = 9 / 4 = 2,25
9 4
0

()
2

x
9

Propiedades del valor esperado


1. E (b ) = b , el valor de una constante es la constante misma
2. E (aX + b ) = aE ( X ) + b , si a y b son constantes
Esto se puede generalizar:
E (a1 X 1 + a 2 X 2 + + a N X N ) = a1 E ( X 1 ) + a 2 E ( X 2 ) + + a N E ( X N ) + b
3. Si X y Y son va independientes, entonces E ( XY ) = E ( X )E (Y )
4. Si X es una va con FDP f ( x ) y si g ( x ) es cualquier funcin de X, entonces

x g ( X ) f (x)
E[g ( X )] =
g ( X ) f ( x )dx
En el primer caso si X es discreta, y en el ltimo si X es continua.
22

A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

Por ejemplo, si g ( X ) = X

[ ]

x 2 f ( X )
E X = x2
x f ( X )dx
En el primer caso, X es discreta y en el ltimo es continua.
2

EJEMPLO 13
Considrese la siguiente FDP

2 1
x
2
f (x) 5 / 8 1/ 8 2 / 8
Entonces,
y

E ( X ) = ( 2 )(5 / 8) + (1)(1 / 8) + (2 )(2 / 8) = 5 / 8

( ) = (4)(5 / 8) + (1)(1 / 8) + (4)(2 / 8) = 29 / 8

EX

23

A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

Varianza
Sea X una va y sea E ( X ) = . La distribucin o dispersin de los valores de X
alrededor del valor esperado puede ser medida por la varianza.

var( X ) = x = E ( X )
2

Desviacin estndar
Es la raz cuadrada positiva x , de la varianza x .
2

Tanto la varianza como la desviacin estndar indican cuan cercanos o


dispersos estn los valores individuales de X con respecto a su valor esperado.
Clculo de la varianza
x ( x )2 f ( x )
var( X ) =
2
( X ) f ( x )dx
En el primer caso se refiere a X si es una va discreta, en el ltimo si X es una va
continua.
Tambin se puede expresar como:

24

A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

var( X ) = x = E ( X )
2

( )
= E (X ) [E ( X )]
=E X

Aplicando la frmula, puede verse que la varianza de la va dada en el ejemplo 13


es

var ( X ) = X2 = E ( X 2 ) E ( X ) = 29 / 8 ( 5 / 8 ) = 207 / 64 = 3, 23438


2

EJEMPLO 14
Para determinar la varianza de una va (continua) dada en el ejemplo 3, se
procede as:
var ( X ) = X2 = E ( X 2 ) E ( X )

( )

EX

4
5
2
1 x
3 2 x
3x
dx = 0 dx =
= 0 x
= 243 / 45 = 27 / 5
9

9
9 5

0

Del ejemplo 12, sabemos que E ( X ) = 9 / 4 = 2,25 . Entonces


var( X ) = 27 / 5 (9 / 4 )2 = 243 / 720 = 27 / 80 = 0,3375

25

A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

Propiedades de la varianza

( )

1. E ( X )2 = E X

2. var(b ) = 0 , si b es una constante


3. var(aX + b ) = a var( X ), si a y b son constantes
2

4. Si X y Y son va independientes, entonces


var( X + Y ) = var( X ) + var(Y )

var( X Y ) = var( X ) + var(Y )

5. Si X y Y son va independientes y a y b son constantes, entonces


var(aX + bY ) = a var( X ) + b var(Y )
2

Covarianza
Sean X y Y dos va con medias, x y y , respectivamente. Entonces la
covarianza entre las dos va se define como
cov( X , Y ) = E ( X x ) Y y = E ( XY ) x y

)]

La varianza de una variable es la covarianza de dicha variable con ella


misma.
26

A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

Clculo de la covarianza:
cov( X , Y ) = ( X x ) Y y f ( x, y )

y x

= XYf ( x, y ) x y
y x

si X y Y son va discretas, y:

cov( X , Y ) = ( X x ) Y y f ( x, y )dxdy

= XYf ( x, y )dxdy x y

si X y Y son va continuas.
Propiedades de la varianza
1. Si X y Y son independientes, su covarianza es cero, puesto que
cov( X , Y ) = E ( XY ) x y

= xy xy
=0
2. cov(a + bX , c + dY ) = bd cov( X , Y ) , donde a, b, c, y d son constantes

27

A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

EJEMPLO 15
Para el clculo de la covarianza entre las va discretas X y Y cuyas FDP
conjuntas son iguales a las ejemplo 4, se procede as: del ejemplo 11, sabemos
que x = E ( X ) = 1,03 y y = E (Y ) = 4,47 .

E ( XY ) = XYf ( x, y )
y x

= ( 2 )(3)(0,27 ) + (0 )(3)(0,08) + (2 )(3)(0,16) + (3)(3)(0 )

+ ( 2 )(6 )(0 ) + (0)(6 )(0,04) + (2)(6 )(0,10 ) + (3)(6 )(0,35)

= 6,84
Por consiguiente,

cov( X , Y ) = E ( XY ) x y

= 6,84 (1,03)(4,47 )
= 2,24

Coeficiente de correlacin
El coeficiente de correlacin poblacional (rho) se define como:

28

A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

cov( X , Y )
cov( X , Y )
=
; 1 1
[var( X ) var(Y )] x y

, es una medida de asociacin lineal entre dos variables y se encuentra entre


-1 y +1. +1 indica una perfecta asociacin positiva.
cov( X , Y ) = x y
EJEMPLO 16
Estmese el coeficiente de correlacin para la informacin del ejemplo 4.
De las FDP dadas en el ejemplo 11, sabemos que:
E ( X ) = x = 1,03 ; E (Y ) = y = 4,47

x
f (x)
2
x
2

x fx

2
0,27
4

2
0,26
4

3
0,35
9

(4)(0,27 ) (0)(0,12) (4)(0,26) (9)(0,35)

( )= x

EX

0
0,12
0

fx = 5,27

29

A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

EJEMPLO 16 (continuacin)
y
f ( y)
2

y
2
y f ( y)

3
0,51

6
0,49

9
(9)(0,51)

36
(6)(0,49)

( )=

EY

( )
var(Y ) = E (Y )
var( X ) = E X

2
x
2

y y f ( y ) = 22,23
2

= 5,27 (1,03)2 = 4,2091 x = 2,05

= 22,23 (4,47 )2 = 2,2491 x = 1,50

cov( X , Y )

x y

2,24
= 0,73
(2,05)(1,50 )

30

A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

Varianza de variables correlacionadas Sean X y Y dos va. Entonces:


var( X + Y ) = var( X ) + var(Y ) + 2 cov( X , Y )
= var( X ) + var(Y ) + 2 x y
var( X Y ) = var( X ) + var(Y ) 2 cov( X , Y )
= var( X ) + var(Y ) 2 x y

Si X y Y son independientes, cov( X , Y ) = 0 .


En forma general.

n n
var xi = var( X i ) + 2i < j cov X i , X j
i =1 i =1

= var( X i ) + 2i < j ij i j
n

i =1

Ejemplo para 3 variables:


var( X 1 + X 2 + X 3 ) = var X 1 + var X 2 + var X 3 + 2 cov( X 1 , X 2 )
+ 2 cov( X 1 , X 3 ) + 2 cov( X 2 , X 3 )

= var X 1 + var X 2 + var X 3 + 2 12 1 2


+ 2 13 1 3 + +2 23 2 3
31

A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

Esperanza condicional y varianza condicional


Sea f ( x, y ) la FDP conjunta de las va X y Y. La esperanza condicional de X,
dada Y, se define como

x xf ( x | Y = y )
E( X | Y = y) =
xf ( x | Y = y )dx
donde E ( X | Y = y ) significa la esperanza condicional de X dada Y=y, y donde
f ( X | Y = y ) es la FDP condicional de X. La esperanza condicional de Y,
E (Y | X = x ), est definida en forma similar.
Esperanza condicional. E ( X | Y ) es una va porque es una funcin de la variable
condicionante Y. sin embargo, E ( X | Y = y ) , donde y , un valor especfico de Y,
es una constante.
Varianza condicional. La varianza condicional de X dada Y = y est definida
como:

var( X | Y = y ) = E [ X E ( X | Y = y )] | Y = y
2

x [ X E ( X | Y = y )]2 f ( x | Y = y )
=
2
[ X E ( X | Y = y )] f ( x | Y = y )dx

32

A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

EJEMPLO 17
Calclese E (Y | X = 2 ) y var (Y | X = 2 ) para la informacin del ejemplo 4

E (Y | X = 2 ) = y yf (Y = y | X = 2 )

= 3 f (Y = 3 | X = 2 ) + 6 f (Y = 6 | X = 2 )
= (3)(0,16 ) / (0,26 ) + (6 )(0,10 ) / (0,26 )
= 4,15385

var(Y | X = 2 ) = y [Y E (Y | X = 2 )] f (Y | X = 2 )
2

= (3 4,15) (0,16 / 0,26 ) + (6 4,15) (0,10 / 0,26 )


= 2,13019
2

Propiedades de la esperanza y la varianza condicional


1. Si f ( X ) es una funcin de X, entonces E ( f ( X ) | X ) = f ( X ); es decir, la
funcin de X se comporta como una constante en el clculo de la
3
3
esperanza condicional sobre X. Por lo tanto, E X | X = E X ; esto se

) ( )
3

debe a que si se conoce X, entonces se conoce tambin X .


2. Si f ( X ) y g ( X ) son funciones de X, entonces

33

A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

E [ f ( X )Y + g ( X ) | X ] = f ( X )E (Y | X ) + g ( X )

Por ejemplo, E XY + cX | X = XE (Y | X ) + cX , donde c es una constante.


2

3. Si X y Y son independientes, E (Y | X ) = E (Y ); es decir, si X y Y son va


independientes, entonces la esperanza condicional de Y, dada X, es la
misma que la esperanza incondicional de Y.
4. Ley de las esperanzas iteradas. Observemos la relacin entre la
esperanza incondicional de una va Y, E (Y ) , y su esperanza condicional
basada en otra va X, E (Y | X ) :

E (Y ) = E x [E (Y | X )]

La ley establece que la esperanza marginal, o incondicional, de Y es igual


a la esperanza de su esperanza condicional; el smbolo E x denota que la
esperanza se calcula sobre los valores de X. Si primero se obtiene
E (Y | X ) como una funcin de X y toma su valor esperado sobre la
distribucin de los valores de X, se obtiene E (Y ) , la esperanza
incondicional de Y.
5. var(Y | X ) = var(Y ) , si X y Y son va independientes.
6. var(Y ) = E [var(Y | X )] + var[E (Y | X )]; es decir, la varianza incondicional de
Y es igual a la esperanza de la varianza condicional de Y ms la
varianza de la esperanza condicional de Y.
34

A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

Momentos superiores de las distribuciones de probabilidad


Ya vimos la media, la varianza y la covarianza, que son las medidas
resumen ms frecuentes en la descripcin de la FDP. Sin embargo,
algunas veces tenemos que tener en cuenta los momentos tercero y
cuarto de una FDP univariada f ( x ) :
Tercer momento:

E ( X )3

Asimetra (A)

Cuarto momento:

E ( X )4

Curtosis (C)

r-simo momento: E ( X )r
La importancia del tercer y el cuarto momento radica en el estudio de la
forma de una distribucin de probabilidad, en particular su Asimetra, A
(es decir, su falta de simetra) y su apuntamiento o curtosis C (es decir,
que tan alta o qu tan plana es la distribucin).

[E ( X ) ] = E( X )
S=

[E ( X ) ]
3 2

Medida de Asimetra:
Medida de Curtosis:

2 3

C=

E ( X )4

[E ( X ) ]

2 2

E ( X )4

35

A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

Platicrticas, son aquella cuyo valores de C son menores a 3 (anchas o de


colas cortas.
Leptocrticas, aquellas con valores de C mayores a 3 (delgadas o de colas
largas.
Mesocrticas, presentan una FDP de apuntamiento de 3 (por Ej., la distribucin
normal.

36

A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

El procedimiento de prueba de hiptesis, seguido en las pruebas t y F,


estn basadas en el supuesto de que la variable es normal.

37

A.6 ALGUNAS DISTRIBUCIONES DE PROBABILIDAD TERICAS IMPORTANTES

Distribucin normal
La ms conocida.
Se dice que una va X continua est normalmente distribuida si su FDP tiene la
siguiente forma:
1 ( x )2
1
, x
f (x ) =
exp
2

2
2

Propiedades
1. Simtrica alrededor de su valor medio.
2. Aproximadamente 68 por ciento del rea bajo la curva normal se encuentra
entre los valores de , alrededor de 95 por ciento del rea se encuentra
entre 2 , y alrededor del 99,7 por ciento del rea se encuentra entre un
3 , como se muestra en la figura.
3. La distribucin normal depende slo de dos parmetros, y .
2

Se pueden emplear tablas para conocer las probabilidades, pero para


2
emplearlas se convierte la variable X ~ N x , x en una variable Z normal
estandarizada mediante la siguiente transformacin:

38

A.6 ALGUNAS DISTRIBUCIONES DE PROBABILIDAD TERICAS IMPORTANTES

Z=

, Z ~ N(0,1)

Sustituyendo Z en la FDP anterior, tenemos:

1
1 2
exp Z
2
2
que es la FDP de la variable normal estandarizada.

f (Z ) =

39

A.6 ALGUNAS DISTRIBUCIONES DE PROBABILIDAD TERICAS IMPORTANTES

EJEMPLO 18
Supngase que X ~ N (8,4 ) . Cul es la probabilidad de que X tome un valor
entre X 1 = 4 y X 2 = 12 ?

X1

48
= 2
2

X 2 12 8
=
= +2
Z2 =
2

De la tabla D.1 tenemos que Pr (0 Z 2 ) = 0,4772 . Entonces, por simetra, se


tiene Pr ( 2 Z 0 ) = 0,4772 . Por consiguiente, la probabilidad requerida es
0,9544.
Z1 =

EJEMPLO 19
Cul es la probabilidad de que en el ejemplo anterior, X exceda 12?
Esta probabilidad es la misma que X exceda 2. De la tabla D.1, resulta (0,50,4772) o 0,0228.

40

A.6 ALGUNAS DISTRIBUCIONES DE PROBABILIDAD TERICAS IMPORTANTES

4. Sea X 1 ~ N 1 , 1 y X 2 ~ N 2 , 2 y supngase que son independientes.


Consideremos la combinacin lineal:
Y = aX 1 + bX 2
2

donde a y b son constantes. Entonces, puede demostrarse que

Y ~ N (a1 + b 2 ), a 1 + b 2
2

)]

Entonces, una combinacin lineal de variables normalmente distribuidas es


normalmente distribuida.
5. Teorema central del lmite. Sean X 1 , X 2 ,, X n , n va independientes, las
cuales tienen la misma FDP con media , y varianza . Sea X = X i / n .
Entonces, a medida que n aumenta indefinidamente tenemos:
2

X ~ N ,

n
n

Este resultado se cumple sin importar la forma de la FDP.


z=

X
n(X )
=
~ N(0,1)
/ n

41

A.6 ALGUNAS DISTRIBUCIONES DE PROBABILIDAD TERICAS IMPORTANTES

6. Los momentos tercero y cuarto de la distribucin normal alrededor del valor


de la media son los siguientes:
Tercer momento:
Cuarto momento:

E ( X )3 = 0
E ( X )4 = 3

Todos los momentos elevados a potencias impares alrededor del valor de la


media de una va normalmente distribuida son cero.
7. Para una FDP normal se tiene una asimetra = 0, y un apuntalamiento = 3.
Es decir, es simtrica y mesocrtica.
Prueba de Normalidad de Jarque-Bera (JB)

S 2 (C 3)2
JB = n +

6
24

La hiptesis nula es la existencia de normalidad.


JB est distribuida como un estadstico ji-cuadrada con 2 grados de libertad.
Distribucin (ji-cuadrada)
2

Sean Z1 , Z 2 ,, Z k , variables normales estandarizadas independientes, se dice


que la cantidad:
42

A.6 ALGUNAS DISTRIBUCIONES DE PROBABILIDAD TERICAS IMPORTANTES


k

Z = Zi
i =1

Sigue la distribucin ji-cuadrada con k grados de libertad ( k ).


2

Donde (g. de l.) es el nmero de cantidades independientes en la suma anterior.


Propiedades
1. Es asimtrica; y el grado de asimetra depende de los g. de l. Cuando son
pocos, la distribucin est sesgada hacia la derecha; pero, a medida que
aumenta el nmero de g. de l. la distribucin se hace ms asimtrica. Para g.
de l. por encima de 100, la variable
una variable normal estandarizada

2
2

(2k 1) puede ser tratada como

( )

43

A.6 ALGUNAS DISTRIBUCIONES DE PROBABILIDAD TERICAS IMPORTANTES

2. La media de la distribucin ji-cuadrada es k, y su varianza es 2k, donde k


son los g. de l.
3. Si Z1 y Z 2 son dos variables ji-cuadrada independientes con k1 y k 2 g. de l.,
entonces la suma Z1 + Z 2 es tambin una variable ji-cuadrada con g. de l.
igual a k1 + k 2 .
EJEMPLO 20
Cul es la probabilidad de obtener un valor de 40 o superior, dado que los g.
de l. son 20?
2

Como lo muestra la tabla D.4, la probabilidad de obtener un valor de 39,9968


o mayor (20 g. de l.) es 0,005. Por consiguiente, la probabilidad de obtener un
2
valor de 40 es menor que 0,005, probabilidad que es relativamente baja.
2

Distribucin t de Student
Si Z1 ~ N(0,1) , y otra variable Z 2 ~ (k g.de l.) y la cov(Z1 , Z 2 ) = 0 , entonces la
variable definida como
2

44

A.6 ALGUNAS DISTRIBUCIONES DE PROBABILIDAD TERICAS IMPORTANTES

t=

Z1
Z k
= 1
(Z 2 / k ) Z 2

sigue la distribucin t de Student con g. de l. ( t k ).

Propiedades
1. Es simtrica, pero es ms plana que la normal. Pero a medida que aumenta
los g. de l., la distribucin t se aproxima a la distribucin normal.
2. La media de la distribucin t es cero y su varianza es k / (k 2 ).

45

A.6 ALGUNAS DISTRIBUCIONES DE PROBABILIDAD TERICAS IMPORTANTES

EJEMPLO 23
Sea k1 = 20 y k 2 = 120 . El valor F crtico al 5% para estos g. de l. es 1,48. Por
consiguiente, k1F = (20)(1,48) = 29,6 . De la distribucin ji-cuadrada para 20 g. de
l., el valor crtico ji-cuadrada es alrededor de 31,41.
Como las distribuciones t, ji-cuadrada y F se aproximan a la distribucin
normal para un nmero grande de g. de l., stas se conocen como las
distribuciones relacionadas con la distribucin normal.

46

A.7 INFERENCIA ESTADSTICA: ESTIMACIN


Estimacin puntual
1. Sea X una va con FDP f ( x; ), donde es el parmetro de la distribucin
(sup.: existe slo un parmetro desconocido, por simplicidad).
2. Se conoce la forma funcional pero no se conoce el valor de .
Se obtiene una muestra aleatoria de tamao n para la FDP conocida y luego se
desarrolla la funcin de valores muestrales, tal que
= f ( x1 , x2 , , xn )
proporciona una estimacin del verdadero , o estadstico o estimador. El
valor numrico particular que tome el estimador se conoce como estimacin.

puede ser tratada como una va porque es una funcin de la informacin


muestral.
proporciona una regla o frmula que indica la forma de estimar el verdadero .
1
= f ( x1 , x2 , , xn ) = X
n
es la media muestral, entonces X es un estimador del verdadero valor de la
media, , el cual es un estimador puntual de .
47

A.7 INFERENCIA ESTADSTICA: ESTIMACIN


Estimacin de intervalos
Si en lugar de obtener un solo estimador puntual de , se obtienen varios
estimadores, por ejemplo, 1 = f ( x1 , x2 , , xn ) y 2 = f ( x1 , x2 , , xn ) y se dice con
cierta confianza (probabilidad) que el intervalo entre 1 y 2 incluye al verdadero
valor de , entonces se proporciona un intervalo de posibles valores dentro de
los cuales puede encontrarse el verdadero .
Detrs de esto subyace el concepto de muestreo, o de distribucin de
probabilidad, de un estimador.
Ejemplo: Si X es una va normalmente distribuida, entonces su media muestral
X ~ N , 2 n , donde n es el tamao de la muestra.

Entonces, si se construye el intervalo

X 2

n
se dice que hay una probabilidad de aprox. 95% de que intervalos como ste
incluyan la verdadera .
* El intervalo es aleatorio porque se basa en la media muestral (la cual variar de
muestra en muestra).
En la estimacin de intervalos se llega as a construir dos estimadores 1 y 2 ,
ambos funciones de los valores muestrales de X, de tal forma que
48

A.7 INFERENCIA ESTADSTICA: ESTIMACIN


Pr (1 2 ) = 1 ; 0 < < 1
Este es el intervalo de confianza de tamao 1 para , siendo 1 el
coeficiente de confianza, y el nivel de significancia, o la probabilidad de
cometer un error tipo I.
En construcciones repetidas como sta, resultantes de un muestreo repetido,
se acertar en 95 de cada 100 casos si se sostiene que el intervalo contiene
el verdadero .
EJEMPLO 24
Supngase que la distribucin de las estaturas de los hombres en una poblacin
est normalmente distribuida con media centmetros y = 6,35 centmetros.
Una muestra de 100 hombres obtenida aleatoriamente de esta poblacin tuvo
una estatura promedio de 170,18 centmetros. Establzcase un intervalo de
confianza al 95% para la estatura media para la poblacin como un todo.

Ya sabemos que X ~ N , 2 n en este


X ~ N ; 2,52 100 . De la tabla D.1, se puede ver que

caso

se

convierte

en



X 1,96

X + 1,96
n
n

49

A.7 INFERENCIA ESTADSTICA: ESTIMACIN


cubre el 95% del rea bajo la curva normal. Por consiguiente, el intervalo anterior
proporciona un intervalo de confianza al 95% para . Reemplazando los valores
dados de X , y n, se obtiene el siguiente intervalo de confianza al 95%
66,51 67,49
En repetidas mediciones como sta, los intervalos as establecidos incluirn la
verdadera con una confianza del 95%.
Aunque es posible decir que la probabilidad de que el intervalo aleatorio

X 1,96
incluya es de 95%, no se puede decir que hay una
n

probabilidad de 95% de que el intervalo particular [66,51-67,49] incluya . Una


vez fijado este intervalo, la probabilidad de que incluya es de 0 o de 1. Lo que
se puede decir es que si se construyen 100 intervalos como ste, 95 de los 100
intervalos incluirn la verdadera ; no se puede garantizar que un intervalo
particular necesariamente incluya a .
Mtodos de estimacin
Existen tres mtodos de estimacin de parmetros:
1. MC Mnimo Cuadrados
50

A.7 INFERENCIA ESTADSTICA: ESTIMACIN


2. MV Mxima Verosimilitud
3. MEM Mtodo de Momentos; y su extensin MGM Mtodo Generalizado
de Momentos
Mxima Verosimilitud
La idea detrs es la funcin de verosimilitud (FV).
Supngase que la va X tiene una FDP f ( X , ) que depende de un solo
parmetro . Se conoce la FDP pero no el valor del nico parmetro.
Supngase adems que se obtiene una muestra aleatoria de nX valores. La
FDP conjunta para estos n valores es:
g ( x1 , x2 ,, xn ; )
Como es una muestra aleatoria, se puede escribir esta FDP conjunta como el
producto de la FDP individual
g ( x1 , x2 ,, xn ; ) = f ( x1; ) f ( x 2 ; ) f ( x n ; )
La FDP conjunta tiene una doble interpretacin. Si se conoce , se interpreta
como la probabilidad conjunta de observar los valores dados de las muestras.
Por otra parte, se puede considerar como una funcin de para los valores
dados de x1 , x2 ,, xn . En esta ltima interpretacin se conoce la FDP como la FV
y se expresa como:
51

A.7 INFERENCIA ESTADSTICA: ESTIMACIN


L( ; x1 , x2 , , xn ) = f ( x1 ; ) f ( x 2 ; ) f ( x n ; )

Obsrvese el papel inverso que desempea en la funcin de densidad de


probabilidad conjunta y en la FV.
El estimador MV de es aquel valor de que maximiza la FV, L. o (log L).
EJEMPLO 25
Supngase que la va X sigue la distribucin de Poisson y tiene una media igual a
. Supngase adems que x1 , x2 , , xn son va independientes con distribucin
de Poisson y cuya media es . Supngase adems que se quiere calcular el
estimador de MV de . La FV aqu es:
e x1 e x2
L( x1 , x2 ,, xn ; ) =

x1!
x2 !

e x n
e n x1
=
xn !
x1! x2 ! xn !

La anterior es ms bien una expresin difcil de manejar, pero si se toma su


logaritmo, se convierte en:
log ( x1 , x2 , , xn ; ) = n + xi log log c
donde log c = xi !. Al diferenciar la expresin anterior respecto a , se obtiene
n + xi / . Si se iguala a cero, se tiene ml = xi / n = X , la cual es el estimador
MV del parmetro desconocido .
52

A.7 INFERENCIA ESTADSTICA: ESTIMACIN


Mtodo de momentos
Con el principio de analoga los momentos muestrales intentan duplicar las
propiedades de sus contrapartes poblacionales.
Situacin de la GMM!
Las propiedades estadsticas deseables se encuentran en dos categoras:
propiedades de muestra pequea o muestra finita y propiedades de muestra
grande o asintticas. Se supone que el estimador tiene una distribucin muestral
o de probabilidad.
Propiedades de muestra pequea
Insesgamiento
Se dice que un estimador es un estimador insesgado de si el valor esperado
de es igual al verdadero , es decir:
E( ) =
o

E( ) = 0

Si esta igualdad no se mantiene, se dice que el estimador es sesgado y el sesgo


se calcula como

53

A.7 INFERENCIA ESTADSTICA: ESTIMACIN


sesgo( ) = E( )

Si E( ) = -es decir, es un estimador insesgado- el sesgo es cero.


El insesgamiento es una propiedad de muestreo repetido, no de una muestra
dada: manteniendo fijo el tamao de la muestra, se obtienen diversas muestras y
se consigue cada vez una estimacin del parmetro desconocido. Se espera que
el valor promedio de estas estimaciones sea igual al verdadero valor si el
estimador es insesgado.
Mnima varianza
Se dice que 1 es un estimador de mnima varianza de si la varianza de 1 es
menor o igual que la varianza de 2 , que es cualquier otro estimador de .
Mejor estimador insesgado o eficiente
Si 1 y 2 son dos estimadores insesgados de y la varianza de 1 es menor o
igual que la varianza de 2 , entonces 1 es un estimador insesgado de mnima
varianza, o mejor insesgado o eficiente.
Linealidad
54

A.7 INFERENCIA ESTADSTICA: ESTIMACIN


Se dice que el estimador es un estimador lineal de si es una funcin lineal
de las observaciones muestrales. As, la medida muestral definida como
1
1
X = X i = ( x1 + x2 + + xn )
n
n
es un estimador lineal porque es una funcin lineal de los valores de X.
Mejor estimador lineal e insesgado (MELI)
Si es lineal, es insesgado y tiene mnima varianza en la clase de todos los
estimadores lineales e insesgados de , entonces ste se denomina el mejor
estimador lineal e insesgado, o MELI (BLUE; ELIO) para abreviar.
Estimador del mnimo error medio cuadrtico (EMC)
El EMC de un estimador se define como
2
EMC ( ) = E ( )

Esto hace contraste con la varianza de , la cual est definida como


var ( ) = E[ E ( )]

55

A.7 INFERENCIA ESTADSTICA: ESTIMACIN


La diferencia entre los dos es que la var( ) mide la dispersin de la distribucin
de alrededor de su media o valor esperado, mientras que EMC( ) mide la
dispersin alrededor del verdadero valor del parmetro. La relacin entre los dos
es la siguiente:
2
EMC( ) = E ( )

2
= E[ E ( ) + E ( ) ]

2
2
= E[ E ( )] + E[E ( ) ] + 2E[ E ( )][E ( ) ]

= E[ E ( )] + E[E ( ) ]
2

2
= var( ) + sesgo( )

Por supuesto, si el sesgo es cero, EMC( ) = var( ).


El criterio de mnimo EMC consiste en seleccionar un estimador cuyo EMC sea
el menor en un conjunto de estimadores comparables. Pero aun si se encontrara
tal estimador; hay un costo involucrado, es decir, para obtener varianza mnima
quiz sea necesario aceptar algn sesgo.
En la prctica el criterio de mnimo EMC se utiliza cuando el criterio de mejor
insesgado es incapaz de producir estimadores con varianzas ms pequeas.

56

A.7 INFERENCIA ESTADSTICA: ESTIMACIN


Propiedades de muestra grande
Con frecuencia un estimador no satisface una o ms de las propiedades
estadsticas deseables en muestra pequeas, pero a medida que el tamao de la
muestra aumenta indefinidamente, el estimador posee diversas propiedades
estadsticas deseables.
Insesgamiento asinttico
lim E (n ) = 0

(Xi X )
S =

( )

1
E S 2 = 2 1
n

Consistencia
Se dice que es un estimador consistente si se aproxima al verdadero valor de
a medida que el tamao de la muestra se hace ms grande.
Formalmente, se dice que un estimador es un estimador consistente de si la
probabilidad de que el valor absoluto de la diferencia entre y sea menor que
(una pequea cantidad positiva arbitraria) y se aproxima a la unidad.
lim P < = 1; > 0
n

Lo que se expresa frecuentemente como


57

A.7 INFERENCIA ESTADSTICA: ESTIMACIN


p lim =
n

Donde plm significa probabilidad en el lmite.


Las propiedades de insesgamiento y consistencia son conceptualmente
diferentes.
La propiedad de insesgamiento puede mantenerse para cualquier tamao de
muestra, mientras que la de consistencia es estrictamente una propiedad de
muestra grande.
Una condicin suficiente para la consistencia es que el sesgo y la varianza
tiendan a cero a medida que el tamao de la muestra aumenta indefinidamente.
Es decir, lim E (n ) = y lim var (n ) = 0 .
n

Dicho de otra forma, una condicin suficiente para la consistencia es que


2
2
EMC ( ) = 0 , recordando que EMC ( ) = E ( ) = var ( ) + sesgo ( ) .
n

58

A.7 INFERENCIA ESTADSTICA: ESTIMACIN


EJEMPLO 26
Sea X 1 , X 2 , , X n una muestra aleatoria de una distribucin con media y
varianza 2 . Demustrese que la media muestral X es un estimador consistente
de .

De la estadstica elemental, se sabe que X ~ N , 2 n . Puesto que X =


sin importar el tamao de la muestra, sta es insesgada. Adems, a medida
que n aumenta indefinidamente, var ( X ) tiende a cero. Por lo tanto, X es un
estimador consistente de .

Reglas sobre probabilidad en el lmite


1. Invarianza (propiedad de Slutzky). Si es un estimador consistente de
y si h( ) es cualquier funcin de , entonces
p lim h( ) = h( )
n

Esto significa que si es un estimador consistente de , entonces 1 es


tambin un estimador consistente de 1 y que log( ) es tambin un
estimador consistente de log( ) .

59

A.7 INFERENCIA ESTADSTICA: ESTIMACIN


Esta propiedad no se cumple para el operador de esperanza E; es
decir si es un estimador insesgado de [es decir, E( ) = ], no es
cierto que 1 sea un estimador insesgado de 1 ; o sea,
E (1 ) 1 E ( ) 1 .
2. p lim b = b , si b es una constante.
n

Es decir, la probabilidad en el lmite de una constante es la constante misma.


3. Si 1 y 2 son estimadores consistentes, entonces

p lim(1 + 2 ) = p lim1 + p lim2


n

p lim(12 ) = p lim1 p lim2

1 p lim1
p lim =
2 p lim2
En general, las dos ltimas propiedades no se cumplen para el operador de
esperanza E. Por lo tanto:

60

A.7 INFERENCIA ESTADSTICA: ESTIMACIN


E (12 ) E (1 )E (2 )
E (1 )
E 1
2 E (2 )

Sin embargo, si 1 y 2 son estimadores distribuidos en forma


independiente, E (12 ) = E (1 )E (2 )
Eficiencia asinttica. Sea un estimador de . La varianza de la distribucin
asinttica de se denomina varianza asinttica de . Si es consistente y su
varianza asinttica es menor que la varianza asinttica de todos los dems
estimadores consistentes de , es llamado asintticamente eficiente.
Normalidad asinttica. Un estimador est normalmente distribuido
asintticamente si su distribucin muestral tiende a aproximarse a la distribucin
normal a medida que el tamao n de la muestra aumenta de manera indefinida.
Por ejemplo, la teora estadstica muestra que si X 1 , X 2 , , X n son variables
independientes normalmente distribuidas con la misma media y la misma
varianza 2 , la media muestral X est tambin normalmente distribuida con
media y varianza 2 / n en muestras pequeas y grandes. Pero si las X i son
61

A.7 INFERENCIA ESTADSTICA: ESTIMACIN


independientes con media y varianza 2 , pero no necesariamente provienen
de la distribucin normal, entonces la media X est normalmente distribuida de
forma asinttica con media y varianza 2 / n ; es decir, a medida que el
tamao de la muestra n aumenta indefinidamente, la media muestral tiende a
estar normalmente distribuida con media y varianza 2 / n (por el teorema
central del lmite).

62

A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS


Supngase que se tiene una va X con una FDP conocida f ( x; ) , donde es el
parmetro de la distribucin.
Despus de obtener una muestra aleatoria de tamao n, se obtiene el estimador
puntual .
Puesto que el verdadero raramente se conoce, se plantea la pregunta: el
estimador es compatible con algn valor de bajo hiptesis, por ejemplo,
= *, donde * es un valor numrico especfico de ?
Puede una muestra haber provenido de FDP f ( x; ) = *?
Hiptesis nula (sostenida),

H0 : = *

Hiptesis alterna (es la que se prueba contra la nula),

H1 : *

La hiptesis nula y la alterna pueden ser simples o compuestas. Es simple si


especifica el (los) valor(es) del (los) parmetro(s) de la distribucin; compuesta,
de otra forma.

Por ejemplo, si X ~ N , 2 se plantea


H 0 : = 15 y = 2
63

A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS


es una hiptesis simple, mientras que
H 0 : = 15 y > 2
es una hiptesis compuesta porque el valor de no est especificado.
Estadstico de Prueba. Para probar la H 0 (validez), se utiliza la informacin
muestral con el fin de obtener el estadstico de prueba, que con frecuencia
resulta ser el estimador puntual del parmetro desconocido.
Se trata de averiguar la distribucin muestral o probabilstica del estadstico de
prueba y utilizar el mtodo de intervalos de confianza o de prueba de
significancia para probar la H 0 .
Del ejemplo 23 se dice que

X ~ N , 2 = N ;2,52
X = 67

n = 100

Supngase que

H 0 : = * = 69
H1 : 69

64

A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS


Puede la muestra con X = 67 , el estadstico de prueba, haber provenido de la
poblacin con el valor de la media de 69?
No puede rechazarse la H 0 si X est lo suficientemente cerca de * ; de lo
contrario, sta se puede rechazar a favor de una hiptesis alterna.
Pero, cmo se decide que X est lo suficientemente cerca de * ?
Dos mtodos: 1) Intervalo de confianza y 2) prueba de significancia, ambos
conducen a conclusiones en cualquier aplicacin especfica.
1. Mtodo del intervalo de confianza

Puesto que X i ~ N , 2 , se sabe que el estadstico de prueba X est


distribuido como

X ~ N , 2 n

Si se conoce la distribucin de probabilidad de X , por qu no establecer, por


ejemplo, un intervalo de confianza de 100(1 ) para basada en X y ver si
este intervalo incluye = * ?
Si es as, no puede rechazarse la H 0 ; si no lo es, sta se puede rechazar.

65

A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS


As, si = 0,05 , se tendr un intervalo de confianza al 95%, y si este intervalo de
confianza incluye * , no se puede rechazar la H 0 -es probable que 95 de 100
intervalos as construidos incluyan a * .

Procedimiento. Puesto que X ~ N , 2 n , se cumple que

X
~ N (0,1)
/ n
Entonces, de la tabla de distribucin normal, se sabe que
Pr ( 1,96 Z i 1,96) = 0,95
Z i=

1,96 = 0,95
Pr 1,96
/ n

Reordenando trminos tenemos

X + 1,96 = 0,95
Pr X 1,96
n
n

ste es un intervalo de confianza al 95% para .

66

A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS


Luego, la H 0 es simple. Se tiene que ver si = * se encuentra en ese intervalo.
Si se encuentra, no se puede rechazar la H 0 ; si no se encuentra, se puede
rechazar.
En el ejemplo anterior se tiene se construye el intervalo de confianza al 95%
para , que es
66,51 67,49
Como este intervalo no incluye = 69 se puede rechazar la H 0 de que el
verdadero valor de es 69 con un coeficiente de confianza del 95%.

= 69
2,5
X 1,96

10
66,51

2,5
X + 1,96

10
67,49

67

A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS


Regin de aceptacin. Es el intervalo de confianza que se ha construido.
Regin(es) crtica(s) o Regin(es) de rechazo(s). El (los) rea(s) por fuera de
la regin de aceptacin.
Valores crticos. Los lmites inferior y superior de la regin de aceptacin.
Si el valor bajo la hiptesis se encuentra dentro de la regin de aceptacin, no se
puede rechazar la hiptesis nula; de lo contrario, se puede rechazar.
Tipos de errores
Error tipo I. Se rechaza la H 0 cuando sta es, en realidad, cierta.
Error tipo II. Se puede no rechazar H 0 cuando, en realidad, es falsa.
Una prueba de hiptesis no establece el valor de la verdadera ;
simplemente proporciona un medio para decidir si se puede actuar como si
= *.

68

A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS


ERRORES TIPO I Y TIPO II Esquemticamente, se tiene
Estado de la naturaleza
Decisin

H 0 es verdadera

H 0 es falsa

Rechazar
No rechazar

Error tipo I
No hay error

No hay error
Error tipo II

La idea es maximizar los errores del tipo I y II, pero para cualquier tamao de
muestra dado, no es posible minimizar los errores de manera simultanea.
Neyman y Pearson. Suponen que es probable que un error tipo I sea ms grave
en la prctica que un error tipo II a un nivel relativamente bajo, tal como 0,01 o
0,05, y luego, tratar de minimizar al mximo la probabilidad de incurrir en un error
tipo II.
Nivel de significancia. , prob. de cometer un error tipo I.
Potencia de la prueba. 1 , prob. de no cometer un error tipo II. Es la
capacidad de una prueba para rechazar la H 0 falsa.

69

A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS


El mtodo clsico: Fijar y luego tratar de minimizar .
2. Mtodo de la prueba de significancia
Recurdese que
X
Z i=
~ N (0,1)
/ n
X y n se conocen (pueden ser estimados), pero los verdaderos y no se
conocen.

Sin embargo, si es especificado y se supone (bajo H 0 ) que = * , un valor


numrico especfico, entonces Z i puede ser directamente calculado.
Si la probabilidad es baja, se puede rechazar la H 0 -si la hiptesis fuera cierta, la
posibilidad de obtener el valor Z particular debe ser muy alta-.
Prueba Z. Se emplea el valor normal estandarizado de Z.
X *
67 69
Z i=
=
= 8
/ n 2,5 / 100
Se observa la tabla de valores, luego, la probabilidad de obtener ese valor de Z
es extremadamente baja, p=0,0001.
70

A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS


Por consiguiente, se puede rechazar la H 0 de que = 69 . As, se duda de que la
muestra hubiera venido de una poblacin con un valor medio de 69.

Cuando se dice que un estadstico de prueba es significativo, generalmente se


dice que se puede rechazar la H 0 .
El estadstico de prueba se considera como significativo si l probabilidad de
obtenerlo es igual o menor que , o sea la probabilidad de cometer el error tipo I.
En el ejemplo, la probabilidad el valor calculado de Z = -8 es estadsticamente
significativo; es decir, se rechaza la H 0 de que la verdadera * es 69.

71

A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS


Resumen de los pasos de las pruebas de hiptesis estadsticas
Paso 1. Postular la H 0 y la hiptesis alterna H1 .
Paso 2. Seleccionar el estadstico de prueba (por ejemplo, X ).
Paso 3. Determinar la distribucin de probabilidad del estadstico de prueba [por
ejemplo, X ~ N , 2 n ].

Paso 4. Seleccionar el nivel de significancia ( , la probabilidad de cometer el


error tipo I).
Paso 5. Utilizando la distribucin de probabilidad del estadstico de prueba,
construir un intervalo de confianza al 100(1 )% .
Si el valor del parmetro bajo la H 0 (por ejemplo, = * = 69 se encuentra en
esta regin de confianza (regin de aceptacin), no debe rechazarse la H 0 . Pero
si sta se encuentra por fuera de este intervalo (regin de rechazo), se debe
rechazar la H 0 .
Al no rechazar o al rechazar la H 0 , se corre el riesgo de estar equivocado
por ciento de las veces.

72