Vous êtes sur la page 1sur 118

Resumen de Estadstica

Illbele Maximiliano illbelemaxi@gmail.com


8 de julio de 2014

Indice
1. Estadstica descriptiva
1.1. Conceptos b
asicos y terminologa . . . . . . . . . . . . . .
1.2. Poblaci
on y muestra . . . . . . . . . . . . . . . . . . . . .
1.3. Tipos de datos . . . . . . . . . . . . . . . . . . . . . . . .
1.4. Tabla de distribuci
on de frecuencias . . . . . . . . . . . .
1.4.1. Histograma . . . . . . . . . . . . . . . . . . . . . .
1.5. Medidas de posici
on o tendencia central . . . . . . . . . .
1.6. Medidas de dispersion o variabilidad . . . . . . . . . . . .
1.7. Gua para la construccin de un grafico de caja o box-plot

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

4
4
4
5
6
6
10
12
13

2. Probabilidad
2.1. Propiedades de un modelo probabilstico . . . . . .
2.2. Probabilidad condicional . . . . . . . . . . . . . . .
2.2.1. Propiedades de la probabilidad condicional
2.3. Teorema de Bayes . . . . . . . . . . . . . . . . . .
2.4. Eventos independientes . . . . . . . . . . . . . . .
2.5. Variables aleatorias . . . . . . . . . . . . . . . . . .
2.5.1. Clasificaci
on de las variables aleatorias . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

19
21
23
23
24
26
27
27

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

3. Variables aleatorias discretas


28
3.1. Propiedades de una variable aleatoria discreta . . . . . . . . . . . 29
3.2. Valor esperado de una variable aleatoria discreta . . . . . . . . . 32
3.3. Varianza de una variable aleatoria discreta . . . . . . . . . . . . . 32
3.4. Propiedades de la varianza y la esperanza de una V.A. discreta . 32
3.5. Distribuci
on Binomial . . . . . . . . . . . . . . . . . . . . . . . . 37
3.5.1. Funci
on de distribucion de probabilidad de una binomial . 38
3.5.2. Esperanza de una binomial . . . . . . . . . . . . . . . . . 39
3.5.3. Acumulada de una Binomial . . . . . . . . . . . . . . . . 41
3.6. Distribuci
on de Poisson . . . . . . . . . . . . . . . . . . . . . . . 41
3.6.1. Esperanza y varianza de una Poisson . . . . . . . . . . . . 42
3.6.2. Distribuci
on de Poisson vista como una binomial . . . . . 43
3.7. Distribuci
on hiper geometrica . . . . . . . . . . . . . . . . . . . . 45
3.7.1. Propiedades de la hiper geometrica . . . . . . . . . . . . . 45
1

3.8. Distribuci
on binomial negativa . . . . . . . . . . . . . . . . . . .

47

4. Variables aleatorias continuas


4.1. Propiedades de una variable aleatoria X . . . . . . . . .
4.2. Funci
on de distribucion acumulada . . . . . . . . . . . .
4.3. Distribuci
on uniforme . . . . . . . . . . . . . . . . . . .
4.4. Esperanza y varianza de una variable aleatoria continua
4.4.1. Esperanza y varianza de una uniforme . . . . . .
4.5. Distribuci
on normal . . . . . . . . . . . . . . . . . . . .
4.5.1. Propiedades de la funcion de densidad . . . . . .
4.5.2. Estandarizacion . . . . . . . . . . . . . . . . . . .
4.6. Distribuci
on Gamma . . . . . . . . . . . . . . . . . . . .
4.7. Distribuci
on exponencial . . . . . . . . . . . . . . . . . .
4.7.1. Distribuci
on exponencial vista como una Gamma
4.7.2. Propiedades de la distribucion exponencial . . .
4.8. Distribuci
on 2 . . . . . . . . . . . . . . . . . . . . . . .
4.8.1. Propiedades de la distribucion 2 . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

48
48
50
53
54
55
57
57
61
63
67
67
67
69
69

5. Distribuci
on de probabilidad conjunta
5.1. Funciones marginales . . . . . . . . . . . .
5.2. Funci
on de densidad conjunta . . . . . . .
5.3. Interdependencia entre variables aleatorias
5.4. Covarianza . . . . . . . . . . . . . . . . .
5.4.1. Propiedades de la covarianza . . .
5.4.2. Probabilidad conjunta y covarianza
5.5. Definici
on de correlacion . . . . . . . . . .
5.5.1. Generalizacion . . . . . . . . . . .
5.6. Teorema Central del Lmite T.C.L . . . .
5.7. Aproximaci
on normal a una binomial . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

71
71
72
76
78
78
79
80
82
86
87

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

6. Estimaci
on puntual
6.1. Metodos para la estimacion de los parametros
6.1.1. Metodo de los Momentos . . . . . . .
6.1.2. Metodo de Maxima Verosimilitud . . .
6.1.3. Propiedades de los E.M.V . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

de la
. . .
. . .
. . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

91
distribucion
95
. . . . . . . . 95
. . . . . . . . 97
. . . . . . . . 101

7. Intervalos de confianza basados en una sola muestra


7.1. Metodo general para obtener un IC para . . . . . . .
7.2. IC para = con muestras suficientemente grandes .
7.3. Distribuci
on t de Student con n grados de libertad . .
7.3.1. Caractersticas de la t de Student . . . . . . . .
7.4. Intervalo de confianza para la varianza . . . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

102
102
103
107
107
109

8. Prueba de hip
otesis basada en una muestra
8.1. Componentes de una prueba de hipotesis . . . . . .
8.1.1. Tipos de hipotesis alternativas (Ha ) . . . .
8.1.2. Regi
on de rechazo de la prueba (RR) . . . .
8.1.3. Tipos de errores de una prueba de hipotesis
8.1.4. Nivel de significancia . . . . . . . . . . . . .
8.2. Pasos a seguir para hacer una prueba de hipotesis .
8.3. Prueba de hip
otesis para la media poblacional . . .
8.4. Prueba de hip
otesis para la varianza poblacional .
8.5. Prueba de hip
otesis para la proporcion poblacional
8.6. P-Valor . . . . . . . . . . . . . . . . . . . . . . . .
9. Inferencia basada en dos muestras

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

110
110
110
110
110
110
111
111
116
116
118
118

1.

Estadstica descriptiva

1.1.

Conceptos b
asicos y terminologa

La disciplina de la estadstica ense


na como razonar de manera logica y a
tomar decisiones informadas en presencia de incertidumbre y variacion.
Podemos distinguir dos ramas principales de la estadstica seg
un como trabajen con los datos generados por cualquier tipo de investigacion.
Estadstica descriptiva: se encarga de organizar los datos y de resumir la
informaci
on.
Estadsticia inferencial: se encarga de extraer conclusiones seg
un las hipotesis
planteadas.

B
usqueda de
O patrones
Analisis
exploratorio
jjj4
j
j
j
jj
jjjj
jjjj
An
alisis de datos

*
Analisis confirmatorio

/ Estadstica descriptiva

/ Estadstica inferencial

Plantea hipotesis

1.2.

Poblaci
on y muestra

Poblaci
on:
Colecci
on de elementos o sujetos de interes.
Puede ser finita o infinita.
Muestra:
Subconjunto elegido al azar de la poblacion.
Tama
no muestral n.

lM uestra
lll

l
l

ll

lll
l
l
)
ul
Inferir acerca de hipotesis
Estimar caractersticas

kk

kkk

k
k
k

kkk
)
ukkk
Poblacion

1.3.

Tipos de datos
Num
ericos
Discretos: (determinados valores) como ser el n
umero de hermanos o el
n
umero de accidentados en un choque de motos.
Continuos: (valores en un intervalo) como ser la concentracion de glucosa
en sangre, o el nivel de P H[0, 14].
Categ
oricos
Ordinal: (orden, jerarquas) como ser el estado que atravieza una enfermedad (severo, moderado, suave) o el maximo nivel educativo alcanzado
(primario, secundario, terciario, universitario).
Nominal: (sin orden) como ser el grupo sanguneo de una persona, la
religi
on o el estado civil.
Discretos
n7
nnn
n
n
nnn
nnn
/ Continuos
Numericos
mm6
m
m
mmm
mmm
m
m
m
Tipos de datos

(
/ Ordinal
Categoricos
yyy
yyy
yyy
yy'
Nominal

Dijimos que la estadstica descriptiva es la encargada de organizar y resumir


la informaci
on de los datos, esto lo hace, teniendo en cuenta el conjunto de
datos, seleccionando el metodo mas adecuado:
Tablas de distribuci
on de frecuencias.
Medidas de posici
on o tendencia central.
Medidas de dispersi
on o variabilidad.
Gr
aficos.

1.4.

Tabla de distribuci
on de frecuencias

Metodo:
1. Tomar un intervalo que contenga al conjunto de datos.
2. Dividir el intervalo en k
sub-intervalos de clase (IC), adyacentes y disjuntos. (Generalmente k = n).
3. Contar el n
umero de observaciones en cada intervalo (FA)1 .
4. Calcular las (FR)2 como el cociente entre las FA y el tama
no muestral (n)
en cada uno de los k intervalos.
5. Se puede agregar:
Marca de clase: punto medio de cada intervalo de clase.
Frecuencia absoluta acumulada. (FAA)
Frecuencia relativa acumulada. (FRA)
1.4.1.

Histograma

Gr
afico de mayor difusion, es la representacion grafica de la tabla de distribuci
on de frecuencias.
C
omo hacerlo?
En una recta horizontal marcar los k intervalos de clase (IC).
Sobre cada intervalo trazar un rectangulo cuya area sea proporcional
al n
umero de observaciones del mismo.
C
omo elegir la altura de los rectangulos?
Altura =
1 Frecuencias
2 Frecuencias

absolutas.
relativas.

FR
Long(IC)

Los intervalos no tienen porque tener la misma longitud, si los IC son de


igual longitud entonces las alturas de los rectangulos son proporcionales a
las frecuencias absolutas o a las frecuencias relativas. Luego comparar dos
IC se reduce a ver sus alturas.
Si los intervalos son de distintas longitudes, para comparar 2 IC debemos
comparar sus
areas y no sus alturas.
k

Observaciones:

F Ai = n
i=1

F Ri = 1
i=1

Ejemplo
Para decidir el n
umero de cajeras necesarias para trabajar en un supermercado, se requiere tener informacion sobre el tiempo, medido en minutos, requerido
para atender a los clientes.
Para tal fin, se tom
o una muestra al azar a 60 clientes y se midio el tiempo
que se demor
o en atenderlos.
Los datos obtenidos, ordenados de menor a mayor, fueron:
0,20
0,60
0,80
1,10
1,60
2,10

0,20
0,60
0,90
1,10
1,60
2,20

0,30
0,60
0,90
1,20
1,70
2,30

0,30
0,60
1,00
1,20
1,70
2,50

0,30
0,70
1,00
1,20
1,80
2,80

0,40
0,70
1,10
1,30
1,80
3,10

0,40
0,70
1,10
1,30
1,80
3,10

0,40
0,80
1,10
1,30
1,80
3,60

0,50
0,80
1,10
1,40
1,90
4,50

0,50
0,80
1,10
1,40
1,90
5,20

Primero: N
umero de intervalos de clase: k = 60 = 7,75 8.
Segundo: Elegir la longitud de los intervalos de clase.
Si queremos una partici
on disjunta del intervalo [0,2; 5,2] en 8 subintervalos
de igual longitud (L).

Esta
debe ser igual a: L =

5,20,2
8

= 0,625

Tabla de distribucion de frecuencias


IC
[0.2, 0.825)
[0.825, 1.45)
[1.45, 2.075)
[2.075, 2.7)
[2.7, 3.325)
[3.325, 3.95)
[3.95, 4.575)
[4.575, 5.2]

FA
21
19
10
4
3
1
1
1
n = 60

FR
21/60 = 0.35
19/60 = 0.32
10/60 = 0.17
4/60 = 0.07
3/60 = 0.05
1/60 = 0.02
1/60 = 0.02
1/60 = 0.02
=1

Figura 1: Histograma asociado

Ejemplo
Distribucin del peso (x) en Kg de una muestra de 500 alumnos varones de
una universidad.
IC
40 < x 45
45 < x 50
50 < x 55
55 < x 60
60 < x 65
65 < x 70
70 < x 75
75 < x 80
80 < x 85
85 < x 90
90 < x 95
Total

FA
1
3
12
75
103
155
101
29
11
8
2
500

FAA
1
4
16
91
194
349
450
479
490
498
500
500

FR
0.002
0.006
0.024
0.150
0.206
0.310
0.202
0.058
0.022
0.016
0.004
1.000

FRA
0.002
0.008
0.032
0.182
0.388
0.698
0.900
0.958
0.980
0.996
1.000
1.000

FAA= Frecuencias absolutas acumuladas


FRA= Frecuencias relativas acumuladas
Histogramas de las frecuencias absolutas

%
0.2
0.6
2.4
15.0
20.6
31.0
20.2
5.8
2.2
1.6
0.4
100.0

Marca de clase
42.5
47.5
52.5
57.5
62.5
67.5
72.5
77.5
82.5
87.5
92.5
-

Histogramas de las frecuencias relativas

1.5.

Medidas de posici
on o tendencia central
Media muestral o promedio muestral
Sean x1 , . . . , xn los datos obtenidos en la muestra
n

xi

La definimos como: X =

i=1

.
n

Propiedad de centro de masa:

(xi x) = 0.
i=1

Cuando n es grande aproxima al verdadero valor de la media poblacional .


La desventaja es que es muy sensible a la presencia de datos extremos
en la muestra:
Muestra 1 = 37, 40, 46, 50, 57 x1 = 46
Muestra 2 = 37, 40, 46, 57, 200 x2 = 76
La media no necesariamente tiene que estar en la muestra.

10

Mediana muestral
Es el valor que deja el 50 % de las observaciones tanto por encima
como por debajo de el.
Es el valor central o el promedio de los dos valores centrales si n es
impar o par respectivamente.
x n +x( n )+1

x=

x n+1
2

si n es par
si n es impar

Puede o no ser un valor de la muestra.


Percentil
El percentil i % es aquel valor que acumula a su izquiera el i % de los
datos.
Notaci
on: (p(i)).
Cuando i = 50 p(50) = x es la mediana.
Para saber el percentil que tiene asociado el i-esimo dato de una
muestra podemos usar la siguiente formula: p = 100(i1/2)
.
n
Cuartil Inferior (Q1 )

Mediana de las ( n2 ) observaciones + peque


nas si n es par

P (25) =

Mediana de las ( n+1


nas si n es impar
2 ) observaciones + peque
Cuartil Superior (Q3 )

Mediana de las ( n2 ) observaciones + grandes si n es par

P (75) =

Mediana de las ( n+1


2 ) observaciones + grandes si n es impar

11

1.6.

Medidas de dispersi
on o variabilidad
Rango
Es la diferencia entre el maximo valor de la muestra y el mnimo.
Es f
acil de calcular y esta en la misma medida que los datos muestrales.
Desventaja: considera solo dos datos de la muestra:
Muestra 1: 0, 5, 5, 5, 10.
Muestra 2: 0, 4, 5, 6, 10.
Conclusi
on: la segunda muestra es mas variable que la segunda
pero el rango es el mismo (10).
Rango Intercuartil
Es la diferencia entre el cuartil superior y el cuartil inferior.
RIC = Q3 Q1 .
Varianza muestral
n

S =

(xi x)2

i=1

n1
2

S 2 (Varianza poblacional).
n

Sensible a la presencia de datos extremos en la muestra ya que utiliza


la media muestral:
Muestra A: 100 valores iguales a 10.
Muestra B: 99 valores iguales a 10 y uno igual a 1010.
2
2
= 10000
= 0 y SB
10 = SA
Desviaci
on est
andar muestral
n

S=

(xi x)2

i=1

n1

Est
a en la misma medida que los datos de la muestra.
Sensible a la presencia de datos extremos en la muestra ya que utiliza
la media muestral.
Coeficiente de variaci
on
CV =

S
.100 %.
X

Permite comparar la variabilidad de caractersticas medidas en distintas escalas, luego la que tenga menor CV ser el de menor variabilidad.
El CV es adimensional.
Ejemplo: medidas de alturas

12

Personas: x = 1,70m S = 0,02m CV = 1,18 %


S = 0,1m CV = 0,50 %
Edificios: x = 20m
Luego el conjunto que tiene mayor variabilidad es de las alturas de
personas.

1.7.

Gua para la construccin de un gr


afico de caja o boxplot

En 1977, Tukey present


o un simple metodo grafico-cuantitativo que resume
varias de las caractersticas mas destacadas de un conjunto de datos.
Tal metodo se conoce con el nombre de grafico de caja o box-plot.
Las caractersticas de los datos incorporadas por este grafico son:
Centro o posici
on del valor mas representativo.
Dispersin.
Naturaleza y magnitud de cualquier desviacion de la simetra.
Identificaci
on de los puntos no usuales o atpicos, es decir puntos marcadamente alejados de la masa principal de datos.
La presencia de datos atpicos producen cambios drasticos en la media muestral (x) y la desviaci
on est
andar muestral (S), no as en otras medidas que son
m
as resistentes o robustas, como lo son la mediana muestral x y el rango intercuartil (RIC).

13

Pasos a seguir para la construccin del box plot


Paso 1: Ordenar los datos obtenidos en la muestra de menor a mayor.
Paso 2: Calcular:
La media. (X)
La mediana muestral. (X)
El cuartil inferior (Q1 ).
El cuartil superior (Q3 ).
El rango intercuartil. (RIC)
Paso 3: Sobre un eje horizontal dibujar una caja cuyo borde izquierdo sea
el cuartil inferior y el borde derecho el cuartil superior.
Paso 4: Dentro de la caja marcar con un punto la posicion del promedio
muestral y trazar un segmento perpendicular cuya posicin corresponde al
valor de la mediana.
Paso 5: Trazar segmentos desde cada extremo de la caja hasta las observaciones m
as alejadas, que no superen (1, 5.RIC) de los bordes correspondientes.
Paso 6: Si existen observaciones que superen (1, 5.RIC) entonces marcarlos con circunferencias aquellos puntos comprendidos entre (1, 5.RIC)
y (3.RIC) respecto del borde mas cercano, estos puntos se llaman puntos an
omalos suaves, y con asteriscos aquellos puntos que superen los
(3.RIC) respecto de los bordes mas cercanos, estos puntos se llaman puntos anmalos extremos.

14

Clculos necesarios para realizar el Grfico de Caja para el Ejemplo 1.


x : 1,366667
Q1 : 0,700000

x : 1,100000
Q3 : 1,800000

(RIC) = Q3 Q1 = 1,8 0,7 = 1,1


1, 5.(RIC) = 1,65
Q1 1, 5.(RIC) = 0,95
Q3 + 1, 5.(RIC) = 3,45

3.(RIC) = 3,3
Q1 3.(RIC) = 2,6
Q3 + 3.(RIC) = 5,1

Luego como el mnimo es 0.2, no hay datos atpicos en el extremo inferior.


Pero en el extremo superior hay tres observaciones que superan la distancia
(1, 5.(RIC)) respecto de Q3 , ellos son: 3.6, 4.5 y 5.2.
Siendo los dos primeros atpicos suaves y el u
ltimo atpico extremo.

Figura 2: Gr
afico de cajas del ejemplo de las cajeras

15

Ejemplo
Los siguientes valores reflejan el contenido de un metabolito en la sangre de
un paciente en 13 extracciones diferentes:
11,6
15,9

39,2
6,7

4,9
42,1

Los datos est


an informados en

7,3
14,4

50,6
5,1

9,8
48,8

11,6

mg
L .

Figura 3: Gr
afico de densidad de puntos de las extracciones de sangre

16

Ejemplo
Los datos que mostrare corresponden a una tesina de alumnas de la Escuela
de Nutricin (Facultad de Medicina, UNC).
Tema de la tesina: ingesta de lquidos en el adulto mayor (AM).
Seleccin de la muestra: la muestra fue tomada de un grupo de AM que asisten
al comedor del centro de jubilados de un barrio de la ciudad de Cordoba.
Algunos de los objetivos de este trabajo fueron:
Conocer la ingesta diaria de lquidos en AM, a partir de alimentos ricos en
agua.
Comparar la ingesta diaria de lquidos en AM por sexo.
Determinar si los AM cumplen con las recomendaciones para la ingesta
diaria de lquidos por sexo.
Las recomendaciones diarias de lquido por sexo son las siguientes: en mujeres
debe ser de por lo menos 2,7 litros y en varones de por lo menos 3,7 litros.
Dos de las variables que consideraron son la ingesta diaria total de lquido
(llamada Total litros) y el sexo del AM.
Estadstica descriptiva para la variable ingesta diaria total de lquido
n
97

x
3,0213

S
1,0920

S2
1,1925

M
n
0,7888

17

M
ax
7,3943

x
3,0495

Q1
2,3570

Q3
3,5496

Estadstica descriptiva para la variable ingesta diaria de lquido por sexo


SEXO
F
M

n
63
34

x
3,0993
2,8766

S
1,1344
1,0089

S2
1,2870
1,0179

M
n
0,7888
1,1947

Histogramas respectivos:

Gr
aficos de caja de los resultados obtenidos:

18

M
ax
7,3943
5,4458

x
3,1168
2,8861

Q1
2,3727
1,9777

Q3
3,5877
3,4463

2.

Probabilidad

Antes de poder hablar de probabilidad necesitamos definir los siguientes


conceptos:
Espacio muestral (S)
Definici
on: el espacio muestral es el conjunto de todos los valores posibles
de un experimento
Evento
Definici
on: llamaremos evento a todo subconjunto del espacio muestral,
diremos que es simple si tiene un solo elemento y compuesto si tiene mas
de un elemento.
Familia de eventos (

Debe cumplir:

a
A a A3 a

{Ai } i=1 : Ai a i N
S

Ai

i=1

La funci
on de probabilidad

a [0, 1] que satisface las siguientes condiciones:


1. 0 P (A) 1 A a

Es una funci
on P:

2. P(S) = 1

3. {Ai } i=1 : Ai

a y sean eventos disjuntos, id est: (Ai Aj = i = j)

Entonces P
i=1

3 Definimos

Ai

P (Ai ).
i=1

A como el complemento de A en S.

19

Modelo probabilstico (S, , p)


Definici
on: llamaremos modelo probabilstico a la terna compuesta por el
espacio muestral, la familia de eventos y una funcion de probabilidad.
Observaci
on: sea S un espacio muestral tal que #S = n y cada punto de S
es equiprobable entonces:
1. P (Ei ) =

1
n

para cada Ei evento simple en S.

a P (A) = #A
#S

2. Sea A

Demostraci
on
Sea (S, , p) un modelo probabilstico luego:

1. S =

Ej : Ej es un evento simple y disjunto en S.


j=1
Disj.

P (Ej ) = n.p P (Ej ) =

1 = P (S) =

j=1

1
n

= p

2. Sea A

aA=

Ej union disjunta.
jJ

Luego P (A) =

P (Ej ) =
jJ

j
n

: j = #A

Ejemplo
Dos estaciones de servicio tienen seis (6) bombas en uso, en cada estacion
para un tiempo fijo.
S = {(i, j) : i, j Z : 0 i, j 6}
#S = 7 7 = 49
= P (S)4

Ejemplo
Consideremos el siguiente experimento: examinar un conjunto de bateras
hasta encontrar a la primera que cumpla con las condiciones de calidad.
Denotamos con (E) si la batera cumple con las condiciones de calidad y con
(F) en caso contrario.
Queda definido el espacio muestral

S = E, F E, F F E, . . . , F . . . F E, . . .

Luego definimos Ej = F . . . F E : j Z0 E0 = E
j
4 P(S)

es cualquier subconjunto de S.

20

Luego S =

Ej uni
on disjunta.
j=0

Sea p la probabilidad de que una batera cumpla con la condicion de calidad


(1 p) es la probabilidad de F.
P (Ej ) = (1 p)j .p : j Z0

P (S) =
j=0

qk =

j=0

1
1q

(1 p)j = p.

P (Ej ) = p.
j=0

:0<q<1
A

aA=

Ej P (A) =
jJ

2.1.

1
=1
1 (1 p)

P (Ej )
jJ

Propiedades de un modelo probabilstico

a , p) un modelo probabilstico entonces vale que:


1. A a P (A) = 1 P (A)
2. Sean A,B a : A B P (B A) = P (B) P (A) y P (B) P (A)
3. Sean A,B a P (A B) = P (A) + P (B) P (A B)
Sea (S,

Demostraci
on
1. Sean A,B

S = A A union disjunta.
S

A
Disj

1 = P (S) = P (A A) = P (A) + P (A) P (A) = 1 P (A)


2. Podemos escribir a B como una union disjunta de la siguiente manera:
B = A (B A)

21

S
B

Disj

Luego la P (B) = P (A) + P (B A)


P (B A) = P (B) P (A) y P (B A) 0 P (B) P (A)
3. A B = A (B (A B)) union disjunta.
S
A

S
A

P (A B) = P (A (B (A B)))
= P (A) + P (B (A B))
= P (A) + P (B) P (A B)
2

(1) Como (A B) B P (B (A B)) = P (B) P (A B)


22

(1)

Ejemplo
En un lugar desconocido el 60 % de las familias compran el diario A y el
80 % de las familias compran el diario B. Por otra parte sabemos que el 50 %
est
a suscripta a ambos diarios.
Se pide calcular:
1. Cu
al es la probabilidad de tomar una familia que compre alg
un diario?
P (A B) = P (A) + P (B) P (A B)
= 0,6 + 0,8 0,5
= 0,9
2. Cu
al es la probabilidad de tomar una familia en el conjunto que compre
s
olo un diario?
P (A (A B) (B (A B))) = P (A (A B)) + P (B (A B))
= P (A) P (A B) + P (B) P (A B)
= 0,6 0,5 + 0,8 0,5
= 0,4

2.2.

Probabilidad condicional

a : P (B) > 0,

Definici
on: sea (S, , p) un modelo probabilstico, con B
entonces llamamos probabilidad de A dado B como:
Def

PB (A) = P (A|B) =
2.2.1.

P (A B)
A
P (B)

Propiedades de la probabilidad condicional

1. 0 P (A|B) 1 A

2. PB (S) = P (S|B) = 1

3. Sea {Ai } i=1 una sucesion de eventos disjuntos

PB

a entonces:

Ai
i=1

PB (Ai )
i=1

Demostraci
on:
1. Sea A

a 0 P (A|B) = P P(AB)
(B) 1

* Ya que (A B) B P (A B) P (B)

23

P (AB)
P (B)

Def P (SB)
P (B)

2. PB (S) = P (S|B) =

P (B)
P (B)

3. Quiero ver que: PB

=1

Ai

PB (Ai )

i=1

i=1

PB

Ai

Ai |B

=P

i=1

i=1

Ai B

P
i=1

P (B)

P (Ai B)
=

i=1

(2)

P (B)

PB (Ai )
i=1

(2) Por ser disjuntos.


La regla de la multiplicacion

a.

Sea (S, , p) un modelo probabilstico, y sean {Ai } i=1 eventos en


Entonces:

n1

P (A1 . . . An ) = P (A1 ).P (A2 |A1 ).P (A3 |A1 A2 ) . . . (P An |

Ai )
i=1

Ley de probabilidad total


Sean A1 , . . . , An eventos disjuntos en

Ai y sea B

a tenemos

i=1

que:
n

P (B) =

P (Ai ).P (B|Ai ) =


i=1

2.3.

a:S=

P (Ai ).
i=1

P (B Ai )
=
P (Ai )

P (B Ai )
i=1

Teorema de Bayes

Sean A1 , . . . , An eventos disjuntos en

a:S=

Ai y sea B

a entonces:

i=1

P (Ai |B) =

P (Ai B)
=
P (B)

P (Ai ).P (B|Ai )


n

P (Aj ).P (B|Aj )


j=1

24

i, j : 1 i, j n

Ejemplo
Existe un negocio que vende 3 marcas de dvds: 1, 2, 3, que son elegidos por los
clientes asiduamente con un porcentaje del 50 %, 30 %, 20 %, respectivamente,
con un a
no de garanta.
Antes de que termine la garanta los dvds de la marca 1 terminan rrompiendose
en un 50 % de los casos, los de la marca 2 en un 20 % y los de la marca 3 en un
10 %.
Definimos Ai = el cliente compra la marca i : 1 i 3
Se pide:
1. Calcular la probabilidad de que si se compra un dvd, en este negocio, deba
ser reparado antes del a
no de garanta.
3

P (R) = P (A1 R) + P (A2 R) + P (A3 R) =

P (Ai ).P (R|Ai )


i=1

= P (A1 ).P (R|A1 ) + P (A2 ).P (R|A2 ) + P (A3 ).P (R|A3 )


= 0, 5 0, 25 + 0, 3 0, 2 + 0, 2 0, 1
= 0,205
2. Dado que el dvd requiere una reparacion, cual es la probabilidad de que
haya comprado la marca i?
P (Ai |R) =

P (Ai ).P (R|Ai )


: i {1, 2, 3}
P (R)

Y se obtiene:
P (A1 |R) =

P (A1 R)
0,125
=
0,61
P (R)
0,205

P (A2 |R) =

0,060
P (A2 R)
=
0,29
P (R)
0,205

P (A3 |R) = 1 P (A1 |R) P (A2 |R) 0,10

25

2.4.

Eventos independientes

Definici
on: diremos que dos eventos son independientes si:
P (A B) = P (A).P (B)

Proposici
on: Si A y B son eventos en
equivalentes:

se tiene que las siguientes son

A y B son independientes
A y B son independientes
A y B son independientes
A y B son independientes

a.

Definici
on: Sean A1 , . . . , AN eventos en
Diremos que son mutuamente excluyentes si:
r

Ai,
i=1

P (Ai, k ) (i, k)rk=1 {1, . . . , n}

=
k=1

Ejemplo
Supongamos 4 componentes conectados de la siguiente manera:
?

/ b
bb
bb
bb


/ 2

/ 4

bb
bb
bb
b
?

El sistema funciona (F) si funcionan las componentes 1 y 2 o si funcionan


las componentes 3 y 4.
Supongamos que las componentes funcionan independientemente una de otra
y que adem
as la probabilidad de que funcione cada componente es del 90 %.
Se pide calcular la probabilidad de que funcione el sistema.
Sea Ai = funciona el componente i-esimo: i=1, 2, 3, 4.
F = (A1 A2 ) (A3 A4 )
P (F ) = P ((A1 A2 ) (A3 A4 ))
= P (A1 A2 ) + P (A3 A4 ) P ((A1 A2 ) (A3 A4 ))
= (0,9)2 + (0,9)2 (0,9)4
= 0,9639
26

2.5.

Variables aleatorias

Definici
on: dado (S, , p) un modelo probabilstico llamaremos variable
aleatoria (V.A.) a cualquier funcion:
X : S R : [X x] = {w S : X(w) x}
2.5.1.

a x R

Clasificaci
on de las variables aleatorias

Diremos que X es una variable aleatoria discreta si toma un conjunto finito


o infinito numerable de valores posibles con probabilidad positiva.
Diremos que X es una variable aleatoria Bernoulli si solo toma dos valores:
1
o 0.
Diremos que X es una variable aleatoria continua si sus valores posibles
consisten en un todo intervalo en la recta numerica.

27

3.

Variables aleatorias discretas

Sea X una variable aleatoria discreta definimos la funcion de distribucion de


probabilidad o funci
on de probabilidad de masa como la funcion:
P : R [0, 1] : P (x) = P [X = x]
Llamaremos funci
on de distribucion acumulada de X a la funcion
F : R [0, 1] dada por F (x) = P (X x) x R
Ejemplo
Si quisieramos definir la funcion de distribucion de probabilidad de X, donde
X cuenta la cantidad de caras que se obtienen al tirar 5 veces una moneda
honesta.
w

S = {(x1 , x2 , x3 , x4 , x5 ) : xi es 1(cara) o 0(cruz) : 1 i 5 : i N}

a = P (s) P (w) = 321 w S

[X x] = {w S : X(w) x}

a
Si x 5 [X x] = S a
Si x < 0 [X x] =

Si x [0, 5] [X x] = {

xi x}

(x1 , x2 , x3 , x4 , x5 ) :

i=1

Es una variable aleatoria de tipo discreta ya que toma un n


umero finito
de valores.
Si x {0, 1, 2, 3, 4, 5} P (x) = P (X = x) = P () = 0

P (0) = P (X = 0) =

1
32

P (1) = P (X = 1) = {(10000), (01000), (00100), (000010), (00001)}) =


P (2) = P (X = 2) =
P (3) = P (X = 3) =
P (4) = P (X = 4) =
P (5) = P (X = 5) =

1
32
1
32
1
32
1
32

5
2
5
3
5
4
5
5

P (x) =

=
=
=
=

10
32
10
32
5
32
1
32

1 5
5 x

si 0 x 5
en caso contrario

28

5
32

Luego si quisieramos hallar la funcion de distribucion acumulada de X:


Si x < 0 F (x) = P (X x) = P () = 0
1
32
Si x [1, 2) F (x) = P (X 1) = P ((X = 0) (X = 1))
1
6
= P (0) + P (1) = 50 + 51
=
32
32
Si x [2, 3) F (x) = P (X 2) = P ((X = 0) (X = 1) (X = 2))
16
= P (0) + P (1) + P (2) =
32
Si x [3, 4) F (x) = P (X 3)
Si x [0, 1) F (x) = P (X 0) = P (X = 0) =

= P ((X = 0) (X = 1) (X = 2) (X = 3))
26
= P (0) + P (1) + P (2) + P (3) =
32
Si x [4, 5) F (x) = P (X 4)
= P ((X = 0) (X = 1) (X = 2) (X = 3) (X = 4))
31
= P (0) + P (1) + P (2) + P (3) + P (4) =
32
Si x 5 F (x) = P (X 5) = 1

3.1.

Propiedades de una variable aleatoria discreta


P (x) = 1
X

La funci
on es mon
otona creciente, id est si x1 < x2 F (x1 ) < F (x2 )
La gr
afica de F es escalonada y tiene discontinuidades en los distintos
valores que toma la variable aleatoria.
lm F (x) = 0

lm F (x) = 1

P (x) = P (X = x) = F (x) lm F (t) x R


tx

29

Volviendo al ejemplo de las bateras


Primero veamos que X(Ej ) = j + 1 j Z0 es una variable aleatoria.
Si x < 1 : [X x] =
Si x 1 : [X x] =
Ej .

j[x]1

Observaci
on: [x] denota la parte entera de x.
X es una variable aleatoria discreta
Queremos hallar la funcion de probabilidad
Si x N P (x) = P (X = x) = 0
=

P (1) = P (X = 1) = P (E0 ) = p
P (2) = P (X = 2) = P (E1 ) = p.(1 p)
..
.
P (n + 1) = P (X = n + 1) = p.(1 p)n = P (En ) n N
Luego queremos hallar la funcion de distribucion acumulada de X
Si x < 1 [X x] = F (x) = 0
Sea x [k, k + 1) : k N
[x]

P (i)

P (i) =

F (x) =

i=1

i=1
[x]

(1 p)i1

= p.

(3)

i=1
[x]+1

(1 p)j

= p.

(4)

j=0

= p.

1 (1 p)[x]
1 (1 p)

= p.

1 (1 p)[x]
p

= 1 (1 p)[x]
(3) Reemplazo P (i).
(4) Hago un cambio de variables llamando a: j = i + 1.
n1

(5) Serie telesc


opica:
j=0

F (x) =

qj =

1q n
1q .

1 (1 p)x
0

30

x N
en caso contrario

(5)

Ejemplo
Sea una poblaci
on M, donde los habitantes contraen dos tipos de enfermedades distintas: A y B.
Supongamos que sabemos que:
El 30 % de la poblaci
on no posee ninguna de las dos enfermedades.
El 35 % de la poblaci
on tiene la enfermedad A.
El 55 % de la poblaci
on tiene la enfermedad B.
Sea X la cantidad de enfermedades de un sujeto de la poblacion M.
Im(x) = {0, 1, 2}
Se pide hallar la funci
on de distribucion de probabilidad de X:
Si x Im(x) P (x) = 0
Si x = 0 P (0) = P (X = 0) = 0,30
Si x = 1 P (1) = P (X = 1) = 0,50
Si x = 2 P (2) = P (X = 2) = 0,20

0,3 si x = 0

0,5 si x = 1
P (x) =
0,2 si x = 2

0 en caso contrario
Luego obtenemos la funcion de distribucion acumulada: F(x)
Si x < 0 F (0) = P (X < 0) = P () = 0
Si x [0, 1) F (x) = P (X 0) = P (X = 0) = 0,30
si x [1, 2) F (x) = P (X 1) = P (X = 0) + P (X = 1) = 0,80
si x 2 F (x) = P (S) = 1

0 si x < 0

0,3 si x [0, 1)
F (x) =
0,8 si x [1, 2)

1 x2

31

3.2.

Valor esperado de una variable aleatoria discreta

Definici
on: sea X una variable aleatoria discreta con funcion de distribucion
de probabilidad P (x), si
|xi |.P (xi ) < . Con Im(x) = {xi } iI llamaremos
iI

valor esperado o valor muestral o esperanza de X a:


E(x) =

xi .P (xi ) =
i I

Observaci
on: en el ejemplo anterior E(x) = 0 0,3 + 1 0,5 + 5 0,2 = 0,9
Propiedad: sea X una variable aleatoria discreta con funcion de distribucion
de probabilidad P (x) y sea w = h(x) entonces si
|h(xi )|.P (xi ) <
iI

Definimos: E (h(x)) =
iI

h(xi ).P (xi ) : Im(x) = {xi } iI


Ejemplo

Sea h(x) = x2 E x2 =

x2i .P (xi )
iI

3.3.

Varianza de una variable aleatoria discreta

Definici
on: sea X una variable aleatoria discreta con funcion de distribucion
de probabilidad P(x) llamaremos varianza de X a:
2 = V (x) = E(x )2 : = E(x)
Definici
on: sea X una variable aleatoria discreta con funcion de distribucion
de probabilidad P(x) llamaremos desvo est
andar de x a:
V (x)

3.4.

Propiedades de la varianza y la esperanza de una V.A.


discreta
E(a.x + b) = a.E(x) + b a, b R
V (x) 0 (Por definici
on)
V (x) = E(x2 ) 2 = E(x2 ) E(x)2
V (a.x + b) = a2 .V (x) a, b R

32

Demostraci
on:
Queremos ver que E(a.x + b) = a.E(x) + b a, b R
E(a.x + b) =

(a.xi + b).P (xi )


iI

h(x)

xi .P (xi ) +b.

= a.

P (xi )
iI

iI

= 1

E(x)

= a.E(x) + b

Queremos ver que V (x) = E(x2 ) E(x)2


V (x) = E(x )2
(xi )2 .P (xi )

=
iI

x2i .P (xi ) + 2 .

=
iI

P (xi ) 2..

xi .P (xi )
iI

iI

= 1

= E(x2 ) + 2 2.2
= E(x2 ) 2
Queremos ver que V (a.x + b) = a2 .V (x) a, b R
V (a.x + b) = E ((a.x + b) E(a.x + b))
2

= E ((a.x + b) (a. + b))


= E a2 .(x )2
2

= a2 .E (x )
= a2 .V (x)

33

Ejemplos
Sea X una Bernoulli(p) tenemos que:
P (0) = P (X = 0) = 1 p

P (1) = P (X = 1) = p

E(x) = 0.(1 p) + 1.p = p

E(x2 ) = 02 .(1 p) + 12 .p = p

V (x) = E(x2 ) E(x)2 = p p2 = p.(1 p) = p.q


Sea X = n
umero que se obtiene en la tirada de un dado honesto
Im(x) = {1, 2, 3, 4, 5, 6}
P (i) = P (X = i) =

1
6

i Im(x)

E(x) =

i.P (i) =
i=1

1
6

E(x2 ) =

i2 .P (i) =
i=1

(6)

i=
i=1
n

(7)
i=1

i=
i=1

1
6

1 67

= 3,5
6
2

i2 =
i=1

1 6 7 13

= 15,16
6
6

n.(n+1)
2

i2 =

n.(n+1).(2.n+1)
6

V (x) = E(x2 ) E(x)2 = 15,16 (3,5)2 = 2,91

34

(6)

(7)

Volvamos al ejemplo de las bateras


Definimos X = n
umero de bateras que deben ser probadas hasta obtener
la primera que cumpla las condiciones de calidad
Luego la funci
on de distribucion de probabilidad nos queda:
p.(1 p)x1
0

P (x) =

x N
en caso contrario

Se pide hallar su esperanza y su varianza:

E(x) =

i.p.(1 p)i1

i.P (i) =
i=1

i=1

i.(1 p)i1

= p.
i=1

= p.

= p.

d
.(1).
dp
d
.(1).
dp

d
.(1).
dp
d
= p. .(1).
dp
1
= (1).p. 2
p
1
=
p
= p.

35

(1 p)i + 1
i=1

(1 p)i 1
i=0

1
1
1 (1 p)
1
1
p

Para calcular la varianza necesitamos saber la E(x2 ):

E(x2 ) =

i2 .P (i) =

i2 .P (i)

i=0

i=1

i.(i 1).P (i) +

=
i=2

i.P (i)
i=0
E(x)

2.(1 p) 1
=
+
p2
p
2p
=
p2

i.(i 1)(1 p)i2

i.(i 1).P (i) = p.(1 p).

(8)

(8)

i=2

i=2

= p.(1 p).

d2
dp2
2

= p.(1 p).

d
dp2

d2
= p.(1 p). 2
dp
d
= p.(1 p).
dp
2
= p.(1 p).
p3
2.(1 p)
=
p2

(i p)i
i=2

(i p)i (1 p) 1
i=0

1
2+p
p
1
+1
p2

V (x) = E(x2 ) E(x)2 =

36

1p
p2

De una urna con n cartones numerados del 1 al n se extrae uno al azar.


Sea X el n
umero obtenido, se pide hallar la esperanza de X y su varianza.
Im(X) = {i N : 1 i n}
P (i) =
n

E(x) =

i.P (i) =
i=1

E(x2 ) =

i2 .P (i) =

i=1

1
n.

1
n
1
n.

i=
i=1

i2 =

i=1

V (x) = E(x ) E(x)2 =

3.5.

i Im(x)
1 n.(n+1)
n.
2

1 n.(n+1).(2n+1)
n.
6

(n+1).(2n+1)
6

n+1
2

n+1
2

=
=

(n+1)(2n+1)
6
n2 1
12

Distribuci
on Binomial

Definici
on: diremos que un experimento es binomial si cumple las siguientes
condiciones:
Consta de n ensayos identicos.
Cada ensayo tiene s
olo dos resultados posibles E = exito o F = fracaso.
Los ensayos son independientes uno de otro.
La P (E) = p para cada uno de los ensayos.
Definici
on: sea X la variable que cuenta el n
umero de exitos en un experimento binomial. Entonces diremos que X tiene distribucion binomial de
par
ametros n y p.
Notacion: X B(n, p)

37

Ejemplo
Sea un experimento donde tiramos 5 veces una moneda honesta. Definimos
X como la variable aleatoria que cuenta el n
umero de caras (E) en las 5 tiradas.
P (E) = 0,5 X B(5, 0,5)
3.5.1.

Funci
on de distribuci
on de probabilidad de una binomial

Dado un experimento binomial, sea X la variable aleatoria que cuenta los


exitos (E) en n ensayos independientes con P (E) = p para cada ensayo.
S = {(x1 , . . . , xn ) : xi = E xi = F i : 1 i n}
Im(x) = {k Z : 0 k n}
Tenemos que: P (k) = P (X = k)
Si k Im(x) P (k) = P () = 0
Si k Im(x) [X = k] = {x1 , . . . , xk , . . . , xn } S tal que hay k exitos y
(n-k) fracasos
#[X = k] = nk
SiP (E) = p P (F ) =1 p
n

P {E, . . . , E , F, . . . F } = pk .(1 p)nk


k

nk

Por ser independientes y por ser p constante en cada uno de los ensayos.
P (k) = P (X = k) =

n
k

.pk .(1 p)nk k Im(x)

Luego queremos hallar la esperanza y la varianza:

38

3.5.2.

Esperanza de una binomial

E(x) =

k.P (k)
k=0
n

k.

n
k

.pk .(1 p)nk

(9)

k.

n
k

.pk .(1 p)nk

(10)

k=0
n

=
k=1

n
n1
k1

= n.

.pk .(1 p)nk

(11)

k=1
n

= n.p.

n1
k1

.pk1 .(1 p)(n1)(k1)

n1
j

.pj .(1 p)n1j

k=1
n1

= n.p.

(12)

j=0

= n.p.(p + (1 p))n1

(13)

= n.p
(9) Definici
on de P (k).
(10) k = 0 = 0.
n.(n1)!
k.n!
= (k1)!((n1)(k1))!
= n. n1
(11) k. nk = k!(nk)!
k1 .
(12) Hacemos un cambio de variable llamando a: j = k + 1.
(13) Por binomio de Newton (a + b)m =

m
r=0

39

m
r

.ar .bmr .

Para calcular V(x) primero despejaremos la E(x2 )

n
2

k 2 .P (k)

E(x ) =
k=0
n

k2 .

n
k

.pk .(1 p)nk

(14)

k2 .

n
k

.pk .(1 p)nk

(15)

k=0
n

=
k=1
n

k.(k 1).

n
k

nk

.p .(1 p)

k=1

k.P (k)

(16)

k=1
E(x)=n.p

k.(k 1).

n
k

.pk .(1 p)nk + n.p

k.(k 1).

n
k

.pk .(1 p)nk + n.p

k=1
n

=
k=2
n

k.(k 1).

=
k=2

= n.(n 1)
k=2

(17)

n!
.pk .(1 p)nk + n.p
k!(n k)!
(n 2)!
.pk .(1 p)nk + n.p
(k 2)!((n 2) (k 2))!
n

= n.(n 1).p

n2
k2

.pk2 .(1 p)nk + n.p

n2
j

.pj .(1 p)n2j +n.p

k=2
n2

= n.(n 1).p2
j=0

=1

= n.p.((n 1).p + 1)
(14)
(15)
(16)
(17)
(18)

Definici
on de P(k).
k = 0 = 0.
Reescribimos k 2 = (k. ((k 1) + 1)).
k = 1 = 0.
Hago un cambio de variables llamando j = k 2.

40

(18)

Finalmente puedo calcular la varianza de una binomial:


V (x) = E(x2 ) E(x)2
= n.p.((n 1).p + 1 n.p)
= n.p.(1 p)
= n.p.q = n.P (E).P (F )

3.5.3.

Acumulada de una Binomial

F (x) = P (X x) =

0
x
i=0

n
i

si x < 0

p .(1 p)

ni

si 0 x < n
si x 0

En sntesis sea X B(n, p)


P (k) =

n
k

.pk .(1 p)nk k Im(x)

E(x) = n.p
V (x) = n.p.(1 p) = n.p.q = n.P (E).P (F )

3.6.

Distribuci
on de Poisson

Definici
on: diremos que una variable aleatoria X tiene distribucion de Poisson de par
ametros : > 0 si su funcion de probabilidad esta dada por
P (k) = e .

k
con k Im(x) = Z0
k!

Notaci
on: X P ()

e =
k=0

k
k!

(19)

e .

1=
k=0

k
=
k!

(19) Por el desarrollo de taylor.


(20) Multiplico por e .

41

P (k)
k=0

(20)

3.6.1.

Esperanza y varianza de una Poisson

E(x) =

k.P (k)
k=0

k.P (k)
k=1

k.e .

=
k=1

k
k!

e .

k
(k 1)!

e .

.k1
(k 1)!

k=1

(21)

k=1

= e ..
k=1

= e ..
k=1

k1
(k 1)!
k1
(k 1)!
e

=
(21) k = 0 = 0

42

E(x2 ) =

k 2 .P (k)
k=0

k 2 .P (k)

(22)

k=1
n

k.(k 1).P (k) +

=
k=1

k.P (k)

(23)

k=1
E(x)=

k.(k 1).e .

=
k=1

= e .
k=2
n

= e .
k=2

k
k!

k
(k 2)!

2 .k2
(k 2)!

= e .2 .
k=2

k2
(k 2)!

= 2 +
(22) k = 0 = 0.
(23) Reescribimos k 2 = (k. ((k 1) + 1)).
(24) k = 1 = 0
. Ahora termino calculando la varianza de una Poisson
V (x) = E(x2 ) E(x)2
= 2 + 2
=
En sntesis sea: X P ()
k

P (k) = P (X = k) = e . k! k Z0 .
E(x) = V (x) = .
3.6.2.

Distribuci
on de Poisson vista como una binomial

Se puede usar si: n 100, p 0,01 y n.p 20


n
k

.pk .(1 p)nk e .


43

k
: = n.p
k!

(24)

Ejemplo
En una prueba de tarjetas de circuito la probabilidad de que un iodo falle es
de 0,01. Suponiendo que la tarjeta tiene 200 de estos, que funcionan independientemente uno de otro. Cual es la probabilidad de que fallen por lo menos 2
iodos en una tarjeta seleccionada al azar?
Sea X = N
umero de iodos que fallan en una tarjeta
P (X 2) = 1 P (X < 2) = 1 P (X = 0) P (X = 1)
Si vemos a X B(200, 0,01)
Nos quedara P (X 2) = 1

200
0

.p0 .(1 p)200

200
1

.p1 .(1 p)199

= 1 (0,99)200 200.(0,01).(0,99)199
= 0,5953
Si lo vemos como una Poisson de parametro = n.p = 200 0,01 = 2
Nos quedara P (X 2) = 1 P (X < 2)
= 1 P (X = 0) P (X = 1)
1 e .
=2

0
e .
0!
1!

= 1 3.e2

= 0,5940

44

3.7.

Distribuci
on hiper geom
etrica

Sea un experimento que cumpla las siguientes condiciones:


La poblaci
on consta de N objetos o sujetos.
Cada objeto o sujeto puede ser clasificado como exito (E) o fracaso (F), y
hay M exitos en la poblacion: M N
Se elige una muestra de tama
no n donde cada subconjunto tiene igual
probabilidad de ocurrir.
Entonces la variable aleatoria X que cuenta el n
umero de exitos (E) de la
muestra de tama
no n se llama hiper geometrica de parametros n, M, N.
Notacion: X H(n, M, N )
3.7.1.

Propiedades de la hiper geom


etrica
M
N M
k . nk
N
n

P (k) = P (X = k) =

:0k <m y 0nk <N M

m
ax{0, n N + m} k mn{M, n}
E(x) = n. M
N
V (x) = n.

M
M
. 1
N
N
p

N n
N 1
correccion
Ejemplo

Cada uno de los 12 refrigeradores de cierto tipo ha sido devuelvo a un distribuidor debido a la presencia de un ruido oscilante agudo cuando esta funcionando. Suponiendo que 4 de esos 12 tienen compresores defectuosos y los otros
8 tienen problemas menos serios.
Definimos X = n
umero de refrigeradores que tienen el compresor defectuoso
entre los primeros 6 examinados
Si se examinan al azar, se pide calcular:
1. La probabilidad de que por lo menos uno tenga el compresor defectuoso.
2. La probabilidad de que haya entre 1 a 3 compresores rotos.
Comenzamos a analizar la variable aleatoria X y obtenemos que:
Im(X) = {0, 1, 2, 3, 4}
El tama
no de la muestra es n = 6
La cantidad de exitos es M = 4

Sobre una poblacion de N = 12

45

Luego nos queda: X H(6, 4, 12)


1. P (X 1) = 1 P (X < 1) = 1 P (X = 0) = 1

8
6
12
6

= 0,97

2. Obtenemos:
P (1 X 3) = P (1) + P (2) + P (3) = 1 (P (0) + P (4))
=1

8
6

4
4
12
6

8
1

= 0,962

Ejemplo
Un ge
ologo ha recolectado 10 especmenes de roca basaltica y 10 de rocas de
granito. Se instruye a un ayudante de laboratorio para que seleccione al azar 15
de estos especmenes para analizarlos.
Sea X = N
umero de rocas basalticas en la muestra
Sea Y = N
umero de rocas granticas en la muestra
Se pide:
1. Calcular la probabilidad de que todos los especmenes de uno de los dos
tipos sean seleccionados.
2. Calcular la probabilidad de que X este a menos de un desvo estandar de
su valor medio.
El tama
no de la muestra es n = 15
La cantidad de exitos es M = 10

Sobre una poblacion de N = 20

Im(X) = Im(Y ) = {5 i 10 : i N}
Tanto X como Y tienen distribucion X, Y H(n, m, N ) H(15, 10, 20)
1.
P ([X = 10] [Y = 10]) = P ([X = 10] [X = 5])
= 2.

10
10

10
5

20
15

= 0,032
2. P (|X | < ) = P ( X + )
10
Sabemos que: = E(x) = n. M
N = 15. 20 = 7,5

V (x) = 2 = n. M
N. 1

M
N

N n
N 1

= 15. 10
20 . 1

10
20

2015
201

75
76

= 75
76
6,51 = X + = 8,49
Luego P (|X | < ) = P (X = 7) + P (X = 8) =

46

10
7

10
10
8 + 8
20
15

10
7

= 0,02

3.8.

Distribuci
on binomial negativa

Dado un experimento que cumpla:


Los ensayos se realizan de forma independiente.
Cada ensayo tiene dos resultados posibles (E) o (F) y P (E) = p para cada
ensayo.
Los ensayos se contin
uan hasta obtener r exitos con r N fijo
Entonces la variable aleatoria X que cuenta el n
umero de fracasos que preceden al r-esimo exito se llama binomial negativa de parametros r y p.
Notaci
on: X B (r, p) : Im(x) = Z0
Definimos la funci
on de probabilidad:
P (k) = P (X = k) = pr .(1 p)k .

k+r1
k

Proposici
on

Sea X B (r, p) entonces:


E(x) = r. (1p)
p
V (x) = r. (1p)
p2
Ejemplo
Volviendo al ejemplo de las bateras. Sea Y = n
umero de bateras revisadas
hasta obtener la primera que cumpla las condiciones de calidad
Y =X +1
E(Y ) = E(X) + 1
1
= E(x) + 1
p
1p
E(X) =
p

47

Ejemplo
Sea un estudio geol
ogico en el cual se hacen perforaciones en la tierra hasta
encontrar petr
oleo, y sea p la probabilidad de encontrarlo en cada perforacion.
1. Cu
al es la probabilidad de que el primer descubrimiento ocurra en la
tercera perforaci
on?
Sea X = n
umero de fracasos que preceden al primer exito
Definimos: X B (1, p) y calculamos P(X=2):
P (X = 2) = p.(1 p)2 .

2+11
2

= p.(1 p)2
2. Cu
al es la probabilidad de que el tercer descubrimiento ocurra en la quinta
perforaci
on? Sea Y = n
umero de fracasos que preceden al tercer exito
Definimos: Y B (3, p) y calculamos P(Y=2)

P (Y = 2) = p3 .(1 p)2 .
= p3 .(1 p)2 .

2+31
2
4
2

= p3 .(1 p)2 6

4.

Variables aleatorias continuas


Definici
on: diremos que X es una variable aleatoria continua si:
P (X = x) = 0 x R

4.1.

Propiedades de una variable aleatoria X


P (a X b) = F (b) F (a)
P (a X b) = P (a < X b) = P (a X < b)
P (X > c) = 1 P (X c) = 1 F (c) = P (x c)
Puede no valer si X es una variable aleatoria discreta.

48

Proposicion
Sea un modelo probabilstico (S,

a , p)

Sean A1 A2 . . . Con {Ai } i=1 : Ai

Entonces P

Ai

= lm P (An )
n

i=1

Demostraci
on: Defino:

(Ai Ai1 ) : A0 =

Ai =
i=1

i=1

Uni
on disjunta de eventos.

Ai

P (Ai Ai1 )

i=1

(25)

i=1
n

P (Ai Ai1 )

= lm

i=1
n

(P (Ai ) P (Ai1 ))

= lm

i=1
n

P (Ai ) lm

= lm

(26)

i=1

P (Ai1 )
i=1

= lm [P (A1 ) + . . . + P (An ) (P (A0 ) + . . . + P (An+1 ))]


n

= lm [P (An ) P (A0 )]
n

= lm P (An )

(27)

(25) Disjuntos.
(26) Ya que Ai1 Ai P (Ai Ai1 ) = P (Ai ) P (Ai1 ).
(27) Ya que P (A0 ) = P () = 0.
Sean B1 B2 . . . eventos de

a entonces: P

Bi
i=1

= lm P (Bn )
n

Bi =
i=1

Bi

(28)

Bi

(29)

i=1

=
i=1

(28) Doble negaci


on.
49

(29) De-Morgan.

Bi

=P

i=1

Bi
i=1

=1P

Bi
i=1

= 1 lm P Bn

(30)

= 1 lm (1 P (Bn ))

(31)

n
n

= lm P (Bn )
n

(30) Vale por el item anterior.


(31) Definici
on de complemento.

4.2.

Funci
on de distribuci
on acumulada

Sea (S,

a , p) un modelo probabilstico y X una V.A. entonces:

1. F es mon
otona creciente, id est: si x1 < x2 F (x1 ) F (x2 )
2.

lm F (x) = 0 y el lm F (x) = 1

3. lm F (x) = F (a)
xa+

4. S
olo v
alida si es continua: lm F (x) = lm+ F (x) = F (a)
xa

xa

1. Demostraci
on:
Si x1 < x2 [X x1 ] [X x2 ]
P (X x1 ) P (X x2 )
F (x1 ) F (x2 )
2. Para probar que el lm F (x) = 1 definamos An = [X n]
x

n N A1 A2 . . . An y

Ai = S espacio muestral
i=1

1=P

Ai
i=1

= lm P (An ) = lm P (X n) = lm F (n)
n

lm F (n) = lm F (x) = 1
n

Por lo probado en la proposicion anterior.


Ahora queremos probar que lm F (x) = 0
x

50

Definimos Bn = [X n] n N

Ahora obtengo B1 B2 B3 . . . Luego

Bn

n=1

0=P

Bn

= lm P (Bn ) = lm F (n) lm F (x) = 0


n

n=1

P ()

Vale por lo probado en la proposicion anterior.


3. Queremos demostrar que lm F (x) = F (a)
Definimos Bn = [X a

xa+
+ n1 ] n

B1 = [X a + 1]
B2 = [X a + 0,5]
Luego Bi+1 Bi i : 1 i n

Bn = [X a]

Quiero ver que


n=1

() Sea w

Bn w Bn n N
n=1

*asumimos X(w) > A X(w) a +

1
n

a n N

X(w) a w [X a]

() Sea w [X a] X(w) a a +

1
n N
n

w Bn n N w

Bn
n=1

Bn = [X a]

n=1

Luego F (a) = P

Bn

= lm P (Bn ) = lm F a +
n

n=1

1
n

F (a) = lm F (x)
xa+

4. Sea X una variable aleatoria continua queremos probar que:


lm F (x) = lm+ F (x) = F (a)

xa

Definimos An = X a

xa

1
n

n N

Entonces Ai Ai+1 y

An = [X < a]
n=1

51

F
acil de probar.

An

P (X < a) = P
n=1

= lm P (An ) = lm F (a n1 )
x

Como X es una variable aleatoria continua P (X < a) = P (X a)


3

Luego P [X a] = F (a) lm F (x) = F (a) = lm+ F (x)


xa

xa

Corolario
La funci
on de distribucion de probabilidad de una variable aleatoria continua es continua.
La funci
on de distribucion de probabilidad acumulada de una variable
aleatoria continua es continua.
Definici
on: se llama funcion de densidad de probabilidad a toda funcion

f :RR

f (t) dt = 1

Propiedad: sea X una variable aleatoria continua entonces:


f (t) =

F (t)
0

en donde exista
en caso contrario
x

y F (x) =

f (t) dt

Definici
on percentil: sea X una variable aleatoria continua llamaremos percentil p: (p(100 %)) con p (0, 1) al valor p : F (p ) = p

52

Propiedad: sea X una variable aleatoria continua : Y = a.X +b con p (0, 1)


y a = 0 entonces:
a.x (p) + b
a.x (1 p) + b

y (p) =

si a > 0
si a < 0

Demostraci
on
exijo

Def

Quiero hallar y (p) : Fy (y (p)) = p = P (Y y (p))


= P [a.X + b y (p)]
Si a > 0
[a.X + b y (p)] = X
Fy (y (p)) = p = Fx

y (p)b
a
y (p)b
= Fx (x (p))
a

Luego y (p) = a.x (p) + b si a > 0


Si a < 0
(p)b
[a X + b y (p)] = X y a
b

Fy (y (p)) = p = 1 Fx ( ya ) = F (x) = 1 p = (x (1 p))


Luego y (p) = a.x (1 p) + b si a < 0

4.3.

Distribuci
on uniforme

Una variable aleatoria X sera uniforme si su funcion de distribucion acumulada est


a dada por:

si x a
0
xa
si x (a, b) con a < b
F (x) =
ba
1
si x b
Como F (x) no es diferenciable en x = a y x = b nos queda definida la
funci
on de distribuci
on de probabilidad como:
f (x) =

1
ba

si x (a, b)
en caso contrario

Notaci
on: X U (a, b)
Propiedad: sea X U (a, b) queremos hallar x (p) = p.(b a) + a
F (x (p)) =

x (p) a
x (p) = p.(b a) + a
ba

Con p = 0,5 = 12 .(b a) + a =

b+a
2

53

se define la mediana.

4.4.

Esperanza y varianza de una variable aleatoria continua

Sea X una variable aleatoria continua con funcion de densidad de probabilidad f . Se define el valor esperado o valor medio o esperanza de X al valor
medio.
Notacion: E(x) =
Proposici
on: sea X una variable aleatoria continua con funcion de densidad

h(x).f (x) dx siempre que exista.

f y sea h una funci


on entonces: E (h(x)) =

Definici
on: llamaremos varianza de X a E(x )2 , siempre que exista donde
= E(x) que denotaremos como V (x) = 2 y la desviacion estandar de X
como V (x).
Proposici
on: sea X una variable aleatoria con funcion de densidad f
V (x) = E(x2 ) E(x)2
E(a.x + b) = a.E(x) + b a, b R
V (a.x + b) = a2 .V (x) a, b R
Demostraci
on: Queremos ver que V (x) = E(x2 ) E(x)2

(x )2 .f (x) dx

V (x) = E (x ) =

h(x)

f (x) dx 2..

x .f (x) dx + .

= 1
2

= E(x ) + 2.
= E(x2 ) 2

54

x.f (x) dx

4.4.1.

Esperanza y varianza de una uniforme


1
2

Sea X U (0, 1) E(x) =

y la V (x) =

1
12

Demostracion

E(x) =

x. f (x) dx =

x.f (x) dx =

x2
2

1
2

x3
3

|0 =

|0 =

= 1

E(x2 ) =

x2 .f (x) dx =

x2 . f (x) dx =

1
3

= 1
2

V (x) = E(x ) E(x) =

1
3

1
4

1
12

Proposicion
a < b sea Y = (b a).X + a con X U (0, 1) entonces:
Y U (a, b)
E(Y ) =

a+b
2

V (Y ) =

(ba)2
12

Demostraci
on:
Fy (y) = P (Y y) = P X

ya
ba

= Fx

ya
ba

ya
ba

1
. ba

Fy (y) = Fx

1
. ba
= fx

f (y) =

1
ba

ya
ba

si y (a, b)
en caso contrario

1
f (y) = I(a, b) (y). ba
Y U (a, b)
Luego como Y = (b a).x + a

E(x) =

1
2

V (x) =

1
12

Usando las propiedades de la esperanza y la varianza obtenemos que:


E(y) = (b a).E(x) + a =

ba
b+a
+a=
2
2

V (y) = (b a).V (x) =

(b a)2
12

Corolario: sea Y U (a, a) entonces E(y) = 0 y la V (y) =

55

a2
4

Ejemplo
El tiempo que tarda en realizar un viaje ida y vuelta un camion, que transporta concreto hacia una obra en construccion, tiene una distribucion uniforme
en el intervalo de 50 a 70 minutos.
1. Cu
al es la probabilidad que la duracion del viaje sea mayor a 65 minutos
dado que la duraci
on ya paso lo 55 minutos?
1
ba

f (y) =

si y (a, b)
en caso contrario

0
1
20

f (x) =

si x (50, 70)
en caso contrario

P ((X > 65) (X > 55))


P (X > 55)
1/4
1
P (X > 65)
=
=
=
P (X > 55)
3/4
3

P (X > 65|X > 55) =

P (X > 65) =

70

f (x)dx =

65

P (X > 55) =

70

f (x)dx =

55

dx
20

x 70
20 | 65

1
4

dx
20

x 70
20 | 55

3
4

2. Dar el valor medio y la desviacion estandar del tiempo de duracion de


viaje.
E(x) =

a+b
2

2 = V (x) =
=

70+50
2
2

(ba)
12

V (x) =

= 60
=

202
12

= 33,33

33,33 = 5,7735

3. Suponga que los tiempos que tardan cada uno de los tres camiones son
independientes uno de otro. Cual es la probabilidad de que exactamente
uno de ellos tarde m
as de 55 minutos?
Defino una binomial: X B(n, p)
Donde X es el n
umero de camiones que tarda mas de 55 minutos.
P (E) = p =

3
4

X B 3, 34

Me pide calcular la P (X = 1) =

3
1

56

. 34 . 14

(31)

= 3. 34 .( 14 )2 = 0,1406

4.5.

Distribuci
on normal

Definici
on: diremos que una variable aleatoria X tiene distribucion normal
de par
ametros R y 2 > 0 si su funcion de densidad de probabilidad
est
a dada por:
(x)2
1
f (x) =
.e 22 x R
2 2
Es la variable aleatoria continua mas importante dentro de la probabilidad
y estadstica.
Notacion : X N (, 2 )
4.5.1.

Propiedades de la funci
on de densidad

f es simetrica en torno de , id est: f ( t) = f ( + t) t R.


f tiene un punto m
aximo en x = .
f tiene puntos de inflexion en + y .
lm f (x) = lm f (x) = 0

Proposici
on
Sea X N (, 2 ) entonces:

1.

f (x) dx = 1

Prueba:

f (x)dx = 1

f (x)dx = 1

hacemos un cambio de variable llamando a:


como f (x) =

1
2 2

e(

21
2

obtengo f (t) =

57

=t


2 2

t2
2

Partimos de

2 2

t2
2

dt =

2 2

dt

1
=
2

t2
2

t2
2

dt.

y2
2

dy

1
=
2

t2 +y 2
2

dtdy

1
=
2

e
0

r 2
2

.r drd

(32)

1
2

(33)

=1

(34)

(32) Hacemos un cambio a coordenadas polares llamando a:


t = r.cos()
y = r.sen() : 0 2

(33)

r 2
2

.r dr = e

r 2
2

1
2

e
=

(34)

1
2

d =
0

1
2

|0

.r drd

0 0

|0

r 2
2

lm e

1
= 2. 2
=1

58

r 2
2

+1=1

2. E(x) =

((t ) + ) .f (t) dt

E(x) =

(t ).f (t) dt +

1
=
2

1
2 2

e (

.e(

f (t) dt = 1

dt + .

f (t) dt

21
2

dt +

(36)
(37)

1
2

21
2

(35) Sumo y resto

(37)

(36) Ya que

.f (t) dt

(t )

(35)

e(

21
2

dt = 0

59

3. V (x) = 2

V (x) = E(x )2

2
2.. 2

.e(

x 2
) 1/2

dx

2 y2
y2
.e 2 dy
2.

2
=
2.

(38)

y 2 .e

y2
2

dy

2
y2
y
2

=
y.e 2 | +
e 2 dy
2.

y2
1
e 2
= 2
2.

(39)

= 2
(38) Tomo y =
(39) y.e

y2
2

dy
dx

y
2
y e y2

| = lm

y
2
y e y2

+ lm

=0

Dentro de la familia de normales la mas importante es cuando = 0 y = 1


tal variable se denomina variable normal est
andar.5

5 Notaci
on:

Z N (0, 1)

60

4.5.2.

Estandarizaci
on
Sea X N (, 2 )

N (0, 1)

Demostraci
on: Sea Y =

Fy (y) = P [Y y]
x
y

=P

= P [x .y + ]
= Fx (.y + ) y R

Derivo y obtengo:
.fx (.y + ) = .
=

1
2 2

(.y+)2
2 2

2 .y 2
2
2

2
y2

e
=

y R

Y N (0, 1)

Estand.

b
a
= ( b
Luego P (a X b) = P a
Z
) ( )
donde es la funci
on de distribucion acumulada de Z.

Ejemplo
Sea Z N (0, 1) se pide:
1. P (Z 2) = (2) = 0,9772
2. P (Z 1,96) = 1 (1,96) = 1 0,9750 = 0,025
3. P (0 Z 1,73) = (1,73) (0) = 0,9582 0,5 = 0,4582
4. P (1,5 Z 1) = (1,5) (1) = 0,9332 0,8413 = 0,0919
5. P (1,5 Z 2,82) = (2,82) (1,5) = (2,82) (1 (1,5))
= 0,9976 1 + 0,9332
= 0,9308

61

Propiedad
Sea X N (, 2 ) y p (0,1) x (p) = .z (p) +
Demostraci
on
Estand.
p = Fx (x (p)) = P (X x (p)) = P Z
Luego z (p) =

x (p)

x (p)

x (p)

x (p) = .z (p) + .
Ejemplo

Los alambres que se utilizan en cierta computadora deben tener una resistencia (0,12 ; 0,14). Para cierta compa
na la resistencia de los alambres son producidos con una distribuci
on normal con una media de 0,13 y una desviacion
est
andar = 0,005 .
Se pide:
1. Cu
al es la probabilidad que un alambre producido en dicha compa
na
cumpla con las especificaciones?
P (0,12 X 0,14) = P

0,14 0,13
0,12 0,13
Z
0,005
0,005

(40)

= P (2 Z 2)
= (2) (1 (2))
= 2.(2) 1
= 0,9544
(40) Estandarizo.
2. Si se seleccionan 4 alambres para un sistema al azar Cual es la probabilidad
que los 4 cumplan con las especificaciones?
(0,9544)4 = 0,8297
3. Cu
al es la probabilidad de que exactamente una cumpla con las especificaciones?
Defino una binomial Y : Y B(4; 0,9544)
entonces me pide calcular P [Y = 1] =

62

4
1

.(1 p)3 .p = 0,13

4. Para que valor c se cumple que la resistencia de un alambre se desve a lo


sumo c unidades con un porcentaje del 95 %.
exijo

P (|x | c) = 0,95
X

Estandarizo y obtengo: P
P (Z ) : =

4.6.

exijo

= 0,95

c
= 1,96 c = 1,96 = 0,0098

Distribuci
on Gamma

Sea f : R0 R0 llamaremos funcion gamma a la definida por:


+

x1 ex dx > 0

() =
0

1. (1) = 1
2. ( + 1) = .()
3. (n + 1) = n! n N
Demostraci
on:
+

x11 .ex dx

(1) =

0
+

ex dx

=
0

= ex | 0
1
= lm x + 1
x e
=1

63

Ahora quiero ver que ( + 1) = .()


+

x1 .ex dx

() =

0
+

x.x2 .ex dx

0
+

x2 2 x
x
e
|0
2

x . x2 ex dx =

=0
+

1
( 2).
2

x2 x3 ex dx
0

2
2

(41)

x2 x2 ex dx
0

+
2 3 x

x x

x2 x2 ex dx

dx
0

()

(+1)

2
2

( + 1)
=
.() +
2
2
( + 1)
= (). 1 +
2
2
( + 1)

= .()
2
2
( + 1) = .()
(41) Entonces U =

x2
2

y V = ( 2).x3 ex ex x2

Por u
ltimo quiero ver que (n + 1) = n! n N
Prueba por inducci
on en n:
Si n = 0 (0 + 1) = (1) = 1 = 0! Vale
Tomo como hip
otesis inductiva que vale para n, id est: (n + 1) = n!
Veamos que ((n + 1) + 1) = (n + 1)!
(2)

H.I.

((n + 1) + 1) = (n + 1).(n + 1) = (n + 1).n! = (n + 1)!

64

Definici
on: diremos que una variable aleatoria X tiene distribucion Gamma
de par
ametros y con (, > 0) si tiene funcion de densidad definida por:
1
().

f (x) =

.x1 .e
0

si x > 0
en caso contrario

Notacion: X (, )
Ahora probaremos que la integral de la funcion de densidad da 1

f (x) dx = 1

Id est:

Como la funci
on de densidad solo esta definida si x > 0
+

1
()

+
x

x1 e dx =

1
() 1 .

x1 e dx
0

1
().

.e dx

0
+

1
().

t1 et dt .
0
()

1
.()
=
()
=1
(42) Hago un cambio de variable llamando a: t =

65

(42)

Luego queremos Hallar E(x) y la V (x)


Si X (, ) y sea n N
+
n

xn f (x) dx

E(x ) =

xn .

x
x1
.e dx

().

n1
=
()

(n+)1
x

.e dx

0
n1

.
=
()

t(n+)1 .et dt

(43)

n .(n + )
=
()
(43) Hago un cambio de variables llamando a: t =

.( + 1)
()
= .

E(x) =

V (x) = E(x2 ) (E(x))

2 ( + 2)
2 2
()
.( + 1)()
= 2.
(a)
=

2 2

= 2 2 + 2 2 2 = 2
= 2

66

4.7.

Distribuci
on exponencial

Definici
on: diremos que X tiene distribucion exponencial de parametro
(con > 0) si su funci
on de densidad esta dada por:
.ex
0

f (x) =
4.7.1.

Distribuci
on exponencial vista como una Gamma
x
1
.e

Si X (1, ) f (x) =
Luego llamando =
4.7.2.

si x > 0
en caso contrario

si x > 0
en caso contrario
.ex si x > 0
0
en caso contrario

f (x) =

Propiedades de la distribuci
on exponencial

Sea X exp() = 1, 1 vale que:


1. E(x) =

y la V (x) =

1
2

2. F (x) = P [X x] =

f (t) dt

Si x 0 F (x) = 0
x

.e.t dt

Si x > 0 F (x) =
0

= e.t | 0

= e.x + 1
Luego F (x) =

1 e.x
0

67

si x > 0
en caso contrario

3. Propiedad de falta de memoria


P (x t + t0 |x t0 ) = P (x t)

P ((x t + t0 ) (x t0 ))
P (x t0 )
P (x t + t0 )
=
P (x t0 )
1 F (t + t0 )
=
1 F (t0 )

P (x t + t0 |x t0 ) =

1 (1 e(t+t0 ) )
1 (1 e.t0 )

e(t+t0 )
e.t0
.t
=e
=

= 1 (1 e.t )
= P (x t)

68

Distribuci
on 2

4.8.

Definici
on: diremos que una variable aleatoria X tiene distribucion 2 o
chi cuadrado de par
ametro , ( > 0) si su funcion de densidad es la de 2 , 2
Notacion: X 2 =
4.8.1.

,2
2

Propiedades de la distribuci
on 2

Sea X 2 =
1. E(x) =

2,2

vale que:

2 = y la V (x) = 2

2. Sea Z N (0, 1) Z 2 21 =

1
2, 2

Demostraci
on:
Si w 0 Fw (w) = P (Z 2 w) = P () = 0

Si w > 0 Fw (w) = P (Z 2 w) = P (|z| w) = ( w) ( w)


Donde es la funci
on de distribucion acumulada de la normal estandar.

Fw (w) = fw (w) = fz ( w)

1
1

fz ( w)
2 w
2 w

w
w
1
1

e 2 + e 2
=
2 w
2
w
2
w
e
1
e 2
=
=
w 2
w1/2 2
w
w1/2 w
w1/2
=
e 2 = 1/2 e 2
2

Luego si probamos ( 12 ) =

z 2 21

Recordar que si Z N (0, 1) fz (w) =


Mis candidatos van a ser = 2 y =

69

1
2

1
2.

z2
2

1=

fw (w) dw

(44)

0
1

2 2
= 1
22 .

w
2

1/2

ew/2 dw

(45)

1
=
2

2.t1/2 et dt

(46)

1
=

t1/2 et dt
0
( 21 )

1
2

(44) Por ser fw (w) una funcion de densidad.


1

(45) Multiplico y divido por 2 2


(46) Hago un cambio de variables llamando a: t =

70

w
2

5.

Distribuci
on de probabilidad conjunta
Sean X e Y dos variables aleatorias sobre un mismo espacio muestral S.
Definimos la funci
on de probabilidad conjunta de (x, y) como la funcion:
P : R2 [0, 1]
Dada por: P (x, y) = P ([X = x] [Y = y]) x, y R

A partir de la funci
on de probabilidad conjunta se puede hallar la funcion
de probabilidad de X e Y que se las conoce con el nombre de marginales.
Px (x) = P (X = x) = P ([X = x] [y [Y = y]])
= P (Y [X = x] [Y = y])
Disj

P ([X = x] [Y = y])

P (x,y)

P (x, y) x R

Px (x) =
Y

P (x, y) y R

De manera similar resulta que: Py (y) = P (Y = y) =


X

5.1.

Funciones marginales

Sean X e Y variables aleatorias discretas se cumple que:


La marginal de x es: Px (x) = P (x, y) x R
Y

P (x, y) y R

La marginal de y es: Py (y) =


X

Ejemplo
Se asignan aleatoriamente 2 contratos de construcciones para 3 empresas
posibles: A,B,C.
Sea X = N
umero de contratos asignados a la empresa A
Sea Y = N
umero de contratos asignados a la empresa B
Los valores posibles de X e Y son: 0, 1, 2.
S = {(A,A);(A,B);(A,C);(B,A);(B,B);(B,C);(C,A);(C,B);(C,C)}
Si todos los pares son igualmente posible entonces P ({w}) = 91 w S
Y
0

X
1
0
9
2
1
9
1
2
9

2
9
2
9

1
9

0
0

Luego la marginal de x : Px (x) =

P (x, y) =
y=0

71

4
9

1
9
4
9

si x = 2
si x = 1 o x = 0
(matriz simetrica).

0 en caso contrario
Como tienen la misma distribucion entonces tienen la misma esperanza y
varianza.
Luego Py (y) = Px (x) =

P [Y = y] = 0

E(x) = E(y) =
y=0

E(x2 ) = E(y 2 ) =

P [Y = y] = 12

P [Y = y] =
y=0

y=1
8
9

V (x) = V (y) = E(y 2 ) E(y)2 =

5.2.

4
1
2
4
+1 +2 =
9
9
9
3

4
9

8
1
4
+ 22 =
9
9
9

4
9

Funci
on de densidad conjunta

Definici
on: sean X e Y variables aleatorias continuas sobre el mismo espacio
muestral S. Llamaremos funcion de densidad conjunta de (x, y) a la funcion
f : R2 R0
Tal que: P ((x, y) A) =
f (x, y) dxdy
(x,y) (x,y)
d b

LuegoP ((x, y) [a, b] [c, d]) =

f (x, y) dxdy
c a

Si A = R2 P (x, y) R2 =

f (x, y) dxdy = 1

f (x, y) dy x R

La marginal de X es: fx (x) =

72

f (x, y) dx y R

La marginal de Y es: fy (y) =

Ejemplo
Sea X = Proporci
on de tiempo que esta ocupada la casilla de autos
Sea Y = Proporci
on de tiempo que esta ocupada la casilla de colectivos
Donde: f (x, y) =

k(x + y 2 ) si x, y [0, 1]
0
en caso contrario

Determinar el valor positivo de k:

1=

f (x, y) dxdy

Reemplazo por la funcion, los lmites de integracion donde esta definida y


obtengo:
1 1

k.(x + y 2 ) dxdy = k.

1=
0 0

0
1

1 = k.
0

1
2

+ y 2 dy

k=

Luego f (x, y) =

x2
2

y 2 x | 0 dy

|0 +
0

6
5
6
5

(x + y 2 )
0

si x, y [0, 1]
en caso contrario

Obtener la marginal de X:

Si x [0, 1] fx (x) =

f (x, y) dy = 0

=0

Si x [0, 1] fx (x) =

f (x, y) dy

6
=
5

x + y 2 dy
0

=
=

Luego fx (x) =

2
5 .(3x

73

+ 1)

..
.
2
. (3x + 1)
5
si x [0, 1]
en caso contrario

Obtener la marginal de Y:
Se obtiene de la misma manera que la marginal de x pero integrando sobre
x:
3
2
5 .(1 + y ) si y [0, 1]
fy (y) =
0
en caso contrario
Calcular la E(x) y la V (x)

E(x) =

x.fx (x) dx =

2
5

E(x2 ) =

x2 .fx (x) dx =

V (x) = E(x2 ) E(x)2 =

1
0
2
5

13
30

x.(1 + 3x) dx = 52 .[ 12 + 3. 13 ] =
1
0

3
5

= 0,6

x2 .(1 + 3x) dx = 52 .[ 13 + 3. 14 ] =
9
25

11
150

= 0,073

Sea A = {(x, y) : x, y 14 } se pide calcular P ((x, y) A)


1 1
4 4

P ((x, y) A) =

f (x, y) dxdy = . . . =
0 0

7
640

= 0,010

Ejemplo
Sea f (x, y) =

k.x.y
0

si x, y [0, 1]
en caso contrario

Determinar el valor positivo de k

74

:x+y 1y 1x

13
30

= 0,43

1=

f (x, y) dxdy

1 1y

k.x.y dxdy
0

1y

= k.

x dx dy

y
0

0
1

y.

= k.

(1 y)2
dy
2

k
2

1
2

1
4

2. 13 = 1

k
24

= 1 k = 24

Obtener la marginal de X

Si x [0, 1] fx (x) =

f (x, y) dy = 0

=0

Si x [0, 1] fx (x) =

f (x, y) dy

1x

1x

f (x, y) dy = 24.x.
0

Luego fx (x) =

y dy = 24.x. (1x)
2
12.x.(1 x)2
0

75

si x [0, 1]
en caso contrario

5.3.

Interdependencia entre variables aleatorias

Si A y B son eventos en el mismo espacio muestral S, definimos que A y B


son independientes si: P (A B) = P (A).P (B)
Definici
on: sean X e Y variables aleatorias sobre el mismo espacio muestral
S entonces diremos que X e Y son variables aleatorias independientes si:
P ([X C] [Y D]) = P (X C).P (Y D) C, D R
A

Propiedad
Sean X e Y variables aleatorias sobre el mismo espacio muestral S entonces:
F (x, y) = P ([X x] [Y y]) = Fx (x).Fy (y) x, y R
Con Fx (x) y Fy (y) las funciones de distribucion acumuladas de X e Y respectivamente.
Corolario: Si X e Y son independientes
Si X e Y son variables aleatorias discretas con funcion de distribucion de
probabilidad conjunta P (x, y) entonces:
P (x, y) = Px (x).Py (y) x, y R
Si X e Y son variables aleatorias continuas con funcion de densidad de
probabilidad conjunta f (x, y) entonces:
f (x, y) = fx (x).fy (y) x, y R
Volviendo al ejemplo de los contratos

Y 0

X
1
0
9
2
1
9
1
2
9

2
9
2
9

1
9

0
0

1 4
4
=
9 9
81
X e Y no son variables aleatorias independientes.
En el ejemplo de los autos y camiones tampoco se cumple la independencia
6
ya que: 0 = f (0, 0) = fx (0) fy (0) = 25
P (2, 1) = 0 y Px (2) Py (1) =

Definiciones
Sean X1 , . . . , Xn variables aleatorias sobre S entonces:

76

1. Llamaremos funci
on de probabilidad conjunta de (X1 , . . . , Xn ) a
P (x1 , . . . , xn ) = P ([X1 = x1 ] . . . [Xn = xn ])
xi R : 1 i n cuando las variables aleatorias son discretas.
2. Llamaremos funci
on de densidad conjunta de (X1 , . . . , Xn ) a
bn

b1

f (x1 , . . . , xn ) dx1 . . . dxn

...

P (x1 , . . . , xn ) =
a1

an

ai < bi R : 1 i n cuando las variables aleatorias son continuas.


3. Diremos que X1 , . . . , Xn son independientes si y solo si
(xi [ai , bi ])

P (xi [ai , bi ])ai < bi R

iI

iI

con 1 i n e I cualquier subconjunto de ndices {1, . . . , n}.


Proposicion
Sean X e Y variables aleatorias sobre un mismo espacio muestral S, con
funci
on de distribuci
on de probabilidad o funcion de densidad conjunta p(x, y)
o f (x, y) respectivamente y sea h : R2 R

Entonces:

h(x, y).p(x, y)
si X e Y son discretas.

X Y

E(h(x, y)) =

h(x, y).f (x, y) dxdy si X e Y son continuas.

Esperanza de una combinacion lineal de variables aleatorias


E(a.X + b.Y ) = a.E(X) + b.E(Y ) a, b R
Demostraci
on:
E(a.X + b.Y ) =

(ax + by).P (x, y)


X

=a

x
X

=a

P (x, y) + b
Y

y.P (x, y)
X

x.Px (x) +
X

y.Py (y)
Y

= a.E(x) + b.E(y)

77

5.4.

Covarianza

Sean X e Y variables aleatorias sobre S entonces llamamos covarianza entre


X e Y, Cov(X, Y ) al valor:
Cov(x, y) = E ((x x ).(y y )) : x = E(x) y y = E(y)
Proposici
on
Cov(x, y) = E(x.y) x .y : x = E(x) y y = E(y)
Demostraci
on con X e Y variables aleatorias discretas
(x x ).(y y ) .p(x, y)

Cov(x, y) =
X

h(x,y)

x.y.P (x, y) y

x
X

P (x, y)
Y

=E(x.y)

Px (x)
E(x)=x

P (x, y) +x .y
x

P (x, y)
X

Py (y)

=1

E(y)=y

= E(x.y) y x x y + x y
= E(x.y) x y
5.4.1.

Propiedades de la covarianza

1. Cov(x, y) = E(x.y) x .y
2. Cov(x, x) = V (x)
3. Cov(a.x + b, c.y + d) = a.c.Cov(x, y) a, b, c, d R
4. V (a.x + b.y) = a2 .V (x) + b2 .V (y) + 2.a.b.Cov(x, y)
Demostraci
on 3:
Cov(a.x + b, c.y + d) = E ((a.x + b)(c.y + d)) E(a.x + b).E(c.y + d)
= E(a.c.x.y + a.d.x + b.c.y + b.d) (a.x + b).(c.y + d)
= a.c.E(x.y) + a.d.x + b.c.y + b.d
a.c.x .y a.d.x b.c.y b.d
= a.c [E(x.y) x .y ]
= a.c.Cov(x, y)
78

Demostraci
on 4:
V (a.x + b.y) = E((a.x + b.y)2 ) E(a.x + b.y)2
= E(a2 .x2 + b2 .y 2 + 2.a.b.x.y) (a.x + b.y )2
= a2 .E(x2 ) + b2 .E(y 2 ) + 2.a.b.E(x.y) [a2 .x + b2 .y + 2.a.b.x .y ]
= a2 .V (x) + b2 .V (y) + 2.a.b[E(x.y) x y ]
= a2 .V (x) + b2 .V (y) + Cov(x, y)

5.4.2.

Probabilidad conjunta y covarianza


Proposici
on

Sean X e Y variables aleatorias sobre S independientes entonces:


E(x.y) = E(x).E(y)
Demostraci
on:
E(x.y) =

(x.y).P (x, y)
X

ind

x.y.Px (x).Py (y)


X

x.Px (x)
X

y.Py (y)
Y

= E(x).E(y)

79

Corolario
Si X e Y Son independientes Cov(x, y) = 0

Corolario
Si X e Y son independientes: V (a.x + b.y) = a2 .V (x) + b2 .V (y) a, b R
Ejemplo
Sean X e Y variables aleatorias discretas sobre S con funcion de probabilidad
conjunta dada por:

Y -1

X
1
-1
8
1
0
8
1
1
8
3
Py (y)
8
1

E(x) =
1

3
8

x.Px (x) = 38 +

Px (x)

1
8

1
8
1
8
1
8
3
8

3
8
2
8
3
8

0
1
8
2
8

=0

x = y = 0 Puedo decir que X e Y son independientes?


P (1, 1) =

3
8

1
=
8

= Px (1).Py (1) No son independientes


1

x.y.P (x, y)

E(x.y) =
x=1 y=1

= P (1, 1) P (1, 1) P (1, 1) + P (1, 1)


=0
Luego X e Y son independientes Cov(x, y) = 0 pero la recproca puede no
valer.

5.5.

Definici
on de correlaci
on

Sean X e Y variables aleatorias sobre S entonces se define la correlacion


entre X e Y como:
(x, y) = Corr(x, y) =

6 (Puede

Cov(x, y)
: x es el desvo estandar de x.
x .y

no valer )

80

Proposici
on
Sean X e Y variables aleatorias sobre S entonces:
1. Corr(x, x) = 1
2. Corr(a.x + b, c.y + d) = Sg(a.c).Corr(x, y)
3. (x, y) 1
4. Si y = a.x + b Corr(x, y) = Sg(a)
Demostraci
on 2:
Cov(a.x + b, c.y + d)
a.x+b .c.y+d
a.c.Cov(x, y)
=
|a|.|c|.x .y
Cov(x, y)
a.c
.
=
|a||c|
x .y

Corr(a.x + b, c.y + d) =

(47)
(48)
(49)

= Sg(a.c).Corr(x, y)

(50)

(47) Por definici


on
(48) Vale ya que si V (a.x + b) = a2 .V (x) ax+b = |a|.x
(49) ( Cov(x,y)
x .y ) = (x, y)
1 si x > 0
(50) Sg(x) =
0 si x < 0
Demostracion 3:
Sea Z = t.X + y t R
2

0 V (Z) = E(z z )2 = E ((tx + y) (tx + y ))


2

0 E ((t x ) + (y y ))

= E t2 (x x )2 + (y y )2 + 2.t(x x )(y y )
= t2 E(x x )2 + E(y y )2 +2t E(x x )(y y )
2
x

y2

0 t2 x2 + y2 + 2t.Cov(x, y) t R

81

Cov(x,y)

Obtengo un polinomio de segundo grado en t donde:


a = x2

c = y2

b = 2.Cov(x, y)

Luego 0 b2 4.a.c = 4.Cov(x, y)2 4.x2 .y2


Cov(x, y)2 x2 .y2 0 (x, y)2 1 |(x, y))| 1
Demostracion 4:
?

Si y = a.x + b : a = 0 : a, b R Corr(x, y) = Sg(a)


Cov(x, x)
a
Corr(x, y) = Cov(x,ax+b)
= |a|
= Sg(a)
x .ax+b
x .x
=1

5.5.1.

Generalizaci
on

Sean X1 , . . . , Xn Variables aleatorias y {ai }ni=1 R entonces:


n

1. E

ai .xi

i=1

ai .E (xi )
i=1

2. V

ai .xi
i=1

=
i=1

a2i .V (xi ) + 2

ai .aj .Cov(xi , xj )
i<j

Demostracion 1
Prueba por inducci
on en la cantidad de terminos de la sumatoria.
Si n = 2 ya est
a probado.
n

Supongamos que E

ai .xi

ai .E (xi )

i=1

i=1

Veamos para n + 1:
n+1

ai .xi

=E

i=1

ai .xi + (an+1 .xn+1 )


i=1
n

=E

ai .xi
i=1
n+1

H.I. =

ai .E (xi )
i=1

82

+ an+1 .E(xn+1 )

Demostracion 2

ai .xi

= Cov

i=1

ai .xi ,

aj .xj

i=1
n

j=1

Def

ai .aj .Cov(xi , xj )
i=1 j=1
n
a2i .V
i=1

(xi ) +

ai .aj .Cov(xi , xj )

a2i .V (xi ) + 2.

(51)

(i,j): i=j

i=1

ai .aj .Cov(xi , xj )
i<j:(i,j)

(51) Luego si i = j Cov(xi , xj ) = V (xi )


(51) Luego si i = j Cov(xi , xj ) = Cov(xj , xi )
Corolario: Si los Xi son independientes i : 1 i n se cumple que:
n

ai .xi

a2i .V (xi )

=
i=1

i=1

Proposicion
Sean X1 , . . . , Xn variables aleatorias independientes con distribucion normal
y {ai }ni=1 R entonces:
n

ai .xi N (, 2 ) donde =

i=1

ai .E(xi ) y 2 =

i=1

i=1

a2i .V (xi )

Consecuencia: Si X1 , . . . , Xn son variables aleatorias independientes e identicamente distribuidas 7 , con distribucion normal.
Id est: con E(xi ) = y V (xi ) = 2 i : 1 i n entonces:
n

X=

( n1 ).E(xi ) N (, n )

i=1
n

( n1 ).E(xi ) =

x =

i=1

x2 =

1
n .(

( n1 )2 . V (xi ) = n.

i=1

n.) =
2
n2

2
n

= 2

Ejemplo
Sean X e Y variables aleatorias independientes e idendicamente distribuidas
exp(1).
7 Definimos

esta condici
on como una muestra aleatoria: M.A.

83

Se pide hallar la distribucion de W = X + Y


.e.x
0

Si X exp() fx (x) =

si x > 0
en caso contrario

En este caso = 1
ex
0

fx (x) =

si x > 0
en caso contrario

Como son independientes f (x, y) = fx (x).fy (y), id est:


e(x+y)
0

f (x, y) =

si x, y > 0
en caso contrario

Luego Fw (w) = P (W w) = P (X + Y w) =
f (x, y)dxdy
A
Donde A = {(x, y) : x + y w} = {(x, y) : y w x}
Si w < 0 Fw (w) =
f (x, y) dxdy = 0
A
=0

Si w > 0 Fw (w) =

indep

f (x, y) dxdy =
A

w wx
0

e(x+y) dydx

w
wx

ex ey | 0

Fw (w) =

dx

0
w

ex e(wx) + 1

dx

0
w

xw+x

dx +

ex dx

0
w

= e

0
w
x w
(x | 0 ) (e | 0 )
w
w

= w.e

+ 1 w > 0

Derivo y obtengo:
Fw (w) = fw (w)
= (ew ew .w) + ew
= w.ew w > 0 y 0 en caso contrario.

fw (w) =

w.ew
0

si w > 0
en caso contrario

W (2, 1)

Conclusi
on: la distribuci
on de la suma de variables aleatorias exponenciales
no necesariamente es una exponencial.
84

Ejemplo
Sean X1 , . . . , Xn una M.A. P oisson() entonces:
X1 + . . . + Xn P (1 + . . . + n )
Demostracion
Prueba por inducci
on en la cantidad de variables aleatorias n.
n = 2 : sean X e Y variables aleatorias Poisson de parametros 1 y 2
respectivamente.
Queremos hallar la distribucion de X+Y
X P (1 ) Px (x) = P [X = x] = e1

x1
: x {0, 1, 2, . . .} = Z0
x!

Y P (2 ) Py (y) = P [Y = y] = e2

y2
: y {0, 1, 2, . . .} = Z0
y!

Como X e Y son independientes entonces:


P (x, y) = Px (x).Py (y)
= e(1 +2 )

x1 y2
x, y Z0
x!y!

Sea W = X + Y
Si w Z0 P [W = w] = 0
Si w Z0
P [W = w] = P [X + Y = w]
w

[X = x] [Y = w x]

=P
x=0
w

P (x, w x)

(52)

x=0
w

= e(1 +2 )
=

e(1 +2 )
w!

e(1 +2 )
w!

e(1 +2 )
=
w!

x1 wx
2
x!(w
x)!
x=0
w

w!x1 wx
2
x!(w

x)!
x=0
w

x=0
w

w!
x!(w x)!
w
x

(53)
x1 wx
2

x1 wx
2

x=0

e(1 +2 ) .(1 + 2 )w
=
w!
85

(54)

(52) Uni
on disjunta.
(53) Multiplico y divido por w!.
w

(54)
x=0

w
x

x1 wx
= (1 + 2 )w .
2

P [W = w] =

e(1 +2 ) .(1 +2 )w
w!

w Z0 W P (1 + 2 )
n

H.I Supongamos que X1 + . . . + Xn P

i
i=1

Luego X1 + . . . + Xn + Xn+1 = (X1 + . . . + Xn ) + Xn+1


n

+ n+1

i=1
n+1

=P

(55)

i=1

(55) Por H.I. tengo la suma de dos Poisson (caso base).

5.6.

Teorema Central del Lmite T.C.L

Sea X1 , . . . , Xn una M.A. con E(x) = y V (x) = 2 entonces:


P (X w)

w
n w

2
Si n es suficientemente grande X N , n ( X
) n N (0, 1)
La aproximaci
on ser
a razonable si n 30
Observaci
on: las variables aleatorias pueden ser discretas o continuas.

86

5.7.

Aproximaci
on normal a una binomial

Sea X1 , . . . , Xn una muestra aleatoria Bernoulli(p) : p = P (E)


1
0

Xi =

si es exito (E)
si es fracaso (F)

E(x2i ) = p

E(xi ) = p

V (xi ) = p.q
n

xi B(n, p)

Ya que son n ensayos independientes


i=1
n

xi

Llamo p =
pp

p.q =
n

1
n

i=1

N p, p.q
n

T.C.L pp

p.q
n

N (0, 1)

xi n.p

p.q

i=1

xi n.p

n.p.q

i=1

Luego la P [X x] = P Z

B(n, p) X N (n.p, n.p.q)

xn.p

n.p.q

xn.p

n.p.q

Si el n no es muy grande suele utilizarse una aproximacion con conexion por


continuidad:
Luego P (X x) = P (X x + 0,5)

x + 0,5 n.p

n.p.q

Ejemplo
Supongamos que una m
aquina produce el 10 % de artculos defectuosos.
Se procede a detener el funcionamiento de la maquina si por lo menos el
15 % son defectuosos.
Se toma una muestra aleatoria de 100 artculos de la produccion diaria. Cual
es la probabilidad que deba detener la maquina para ser reparada?
Sea X = n
umero de artculos defectuosos en la muestra
1
Luego X B 100, 10
P (X 15) = 1 P (X 14)
1

14 n.p

n.p.q

=1

14 10
3

= 1 (1,33)
= 1 0,9082
= 0,0918

87

Ejemplo
Sabemos que el tiempo de espera del colectivo tiene una distribucion uniforme por la ma
nana en el intervalo (0,4) y por la tarde (0,8) minutos y que
estos tiempos son independientes.
Cu
al es la probabilidad de que el tiempo total de espera en 40 das sea de
por lo menos tres horas y media?
N

Sea Wi = Xi + Yi : 1 i 40 me pide P

wi 210

i=1

Si X U (a, b) E(x) =

a+b
(b a)2
y la V (x) =
2
12

Luego la E(Wi ) = E(Xi ) + E(Yi ) = 2 + 4 = 6 =


Y la V (Wi ) = V (Xi ) + V (Yi ) =
W N

16
12

6,

64
12

20/3
40

80
12

20
3

=N

6,

= 2

1
6

Cu
antos das deberamos tomar de forma tal de asegurar con una probabilidad mayor al 99 % para garantizar que el tiempo total de espera sea
de por lo menos tres horas y media ?
n

exijo

wi 210

0,99 < P
i=1

Para obtener el promedio divido por n la desigualdad y obtengo:


n

0,99 < P (
i=1

wi
n

210
n )
2

Luego W N , n

210


P ( W ). n ( n ) n

P ( W ). n ( 210n.
)
n.

0,99 < P (Z ( 210n.


))
n.

0,99 < 1

210n.

n.

210n.

n.

< 0,01

Llamando a =

210n.

n.

Obtengo que : 1 () < 0,01 () 0,99 2,33


88

210n.

2,33

n.210

2,33

Reemplazando y por sus valores me queda un polinomio cuadratico


en n donde las races son: x1 = 29,55 y x2 = 41,66.
Respuesta: con tomar n 42 das alcanzara.

Ejemplo
El tiempo que tarda un empleado en procesar el pedido de cada cliente es
una variable aleatoria con media 1,5min y una desviacion estandar de 1 minuto.
Suponiendo que los tiempos que tarda en procesar n pedidos son independientes. Se pide:
1. Cu
al es la probabilidad aproximada de que se puedan procesar los pedidos
de 100 clientes en menos de dos horas?
Pasando en limpio tengo: x = 1,5 y x = 1 con n = 100
n

P
i=1

120
xi

n
n

= P X 1,20 : X N

x2
n

Estandarizo y obtengo:
P

1
Z 1,201,5

= (3) = 1 (3) = 1 0,9987 = 0,0013

100

2. Determinar el menor valor de tiempo t0 tal que con una probabilidad de


por lo menos 0,9 se puedan procesar 100 pedidos.
exijo

0,9 P

t0
n

Primero estandarizo y obtengo:


P

. n

t0
n

1,5
. 100
1

t0
Llamando a: = ( 100
1,5).10
exijo

Obtengo que: () 0,9 1,29

t0
1,5 .10 1,29
100
1,29
+ 1,5 .100
t0
10
t0 162,9
89

Ejemplo
Hallar la probabilidad aproximada para una variable aleatoria Poisson de
par
ametro 50 de tomar valores entre 35 y 70.
?

X P (50) P (35 X 70) =


Truco para usar el T.C.L.
Sean X1 , . . . , Xn una muestra aleatoria poisson de parametro = 1
N

Xi

Xi P (50) . Luego por T.C.L

i=1

50

35
P (35 X 70) = P
50

=P

N 1, n1 Donde n = 50

i=1

Xi
i=1

35
50 1
1
50

50

70

50

X 1
1
50

70
50 1
1
50

= P (2,12 z 2,83)
= (2,83) (2,12) = (2,83) (1 (2,12))
= 0,977 1 + 0,9830 = 0,9807

90

6.

Estimaci
on puntual

Definici
on: sea X1 , . . . , Xn una muestra aleatoria con distribucion acumulada
que dependa de .
Se dice que = h(x1 , . . . , xn ) es un estimador para si es una variable
aleatoria y = + .
=
Definici
on: se dice que un estimador es insesgado para si: E()
Proposicion
Sea X1 , . . . , Xn una muestra aleatoria : E(x) = y la V (x) = 2 entonces:
1 = X es insesgado para
n

2 = S 2 =

(xi x)2

i=1

n1

es insesgado para 2

Demostraci
on:
(a) Si 1 = X es insesgado para E(1 ) =
E(1 ) = E X = E

n
i=1

(b) 2 = S 2 =
=

1
n1
1
n1

1
=
n1

xi
n

(xi x)2

i=1

n1

=
i=1

1
n .E(xi )

1
=
n1

=
i=1

1
n .

n
2

((xi ) (x ))
i=1

(xi )2 +

(x )2 2.n.(x ).
i=1

i=1
n

i=1

xi
n

(xi )2 + n.(x )2 2.n.(x )2


i=1
n

(xi )2 n.(x )2
i=1

E 2 =

E(xi )2 n. E(x )2

n 1 i=1
V (xi = 2 )

V (x)= n

1
1
. n. 2 2 =
.(n 1). 2 = 2
n1
n1

91

Criterio de eleccion
Supongamos 1 y 2 son estimadores insesgados para debemos elegir el de
menor varianza.

Figura 4: V (1 ) < V (2 ) En este caso elegimos 1

Ejemplo
Sea X1 , . . . , Xn una muestra aleatoria Bernoulli de parametro p.
= X es un estimador insesgado para E(x) = p y E(x2 ) = p y la V (x) =
p.(1 p)
Sea X1 , . . . , Xn una M.A. U (0, ) X no es insesgado para
=

y la E(x) =

De todas maneras si elegimos 1 = 2.X si es insesgado para


1
si x [0, ]

Recordemos que si: X U (0, ) fx (x) =


0 en caso contrario

si x = 0
0 si x = 0
0
x
x n
si
x

(0,
)
(
)
si
x (0, )
Fx (x) =

F
(x)
=



1 si x
1
si x

f(x) = F(x) =

n.xn1
n

92

si x (0, )
en caso contrario

E(2 ) =

x.f2 (x) dx

n
= n

xn dx
0

n xn+1

= n
|

n+1 0
n n+1
= n

n+1
n.
= n N
=
n+1
2 No es insesgado para
Sea 3 = NN+1 2 3 Es un estimador insesgado para
Calculo la V (3 ) Para facilitar calculos calculamos la de 2 ya que es una
combinaci
on lineal de la que buscamos.

E((2 )2 ) =

x2 .f2 (x) dx

n
=

xn+1 dx
0

n xn+2
= n

n+2
n.2
=
n+2
V ((2 )2 ) = E((2 )2 ) E(2 )2 =

n. 2
n+2

n2 2
(n+1)2

V (3 ) = V
n+1
n

.V 2 =

93

|0

n. 2
(n+2)(n+1)2

n+1
.2
n

2
n.(n + 2)

Calculo la V (1 )
2
=
V (x) =
n

(ba)2
12

2
12n

n
Como b a =
2
2
= 3.n
Luego V (1 ) = 4.V (X) = 4. 12.n
Ahora comparamos para saber con que estimador nos quedamos
Partimos de n(n + 2) 3.n n N
Luego V (3 ) < V (1 ) n N
3 es mejor estimador que 1
Teorema
Si X1 , . . . , Xn es una muestra aleatoria con distribucion N , 2 entonces

= X es insesgado y de mnima varianza entre todos los insesgados para .


estimador de se lo denota IMVU.
V (
) V ()
Sea X1 , . . . , Xn una muestra aleatoria con distribucion f que depende de .

Llamamos error est


andar de a la V ()
Si el error est
andar depende de alg
un parametro desconocido entonces al

V ()

estimarlo obtenemos lo que llamamos error estimado


Volviendo al problema de una M.A. U (0, )
3 = n+1
ax xi
n . m
Luego el error est
andar sera

V 3 =

2
n.(n+2)

V 3 =

Luego el error est


andar estimado es :

(3 )2
n.(n+2)

Nota:
El estimador es una variable aleatoria Notacion: X
La estimaci
on es un valor Notacion: x
Sea X1 , . . . , Xn una M.A N (, 2 )
El estimador para x
Error est
andar de x

V (x) =

2
n

Si es desconocido reemplazo 2 por S 2


Luego el error est
andar aproximado es:

94

S
n

6.1.

M
etodos para la estimaci
on de los par
ametros de la
distribuci
on
Metodo de los momentos.
Metodo de m
axima verosimilitud.

6.1.1.

M
etodo de los Momentos

Definici
on: sea X1 , . . . , Xn una muestra aleatoria con distribucion F que
depende de par
ametros 1 , . . . , M .
Llamamos k-esimo momento poblacional a: E xk
n
i=1

xk
i

y k-esimo momento muestral a: n k N


Descripci
on del metodo:

E(x) = x

x2i

E(x2 ) = i=1
n
Sistema de m ecuaciones =
..
..

.
=
.

x2i

i=1
k
E(x ) = n
Luego si 1 , . . . , M son soluciones del sistema de m ecuaciones diremos que
son los estimadores por el metodo de los momentos para 1 , . . . , M
Ejemplos
1. Sea X1 , . . . , Xn una M.A. U (0, )

= E(x) = X = 2.X
2

2. Sea X1 , . . . , Xn una M.A. N (, 2 )


con y desconocidos luego m = 2
Luego = E(x) = X
n

+ = E(x ) =

i=1

x2i

=x
n

i=1

x2i n.x2
n

(xi x)
=

i=1

n1
S2
n

Luego
y
Son E.M.M para y respectivamente.
E(
2 ) =

n1
2
n .E(S )

n1
n

2 < 2 No es insesgado para 2

Pero
si lo es para

95

3. Sea X1 , . . . , Xn una M.A. Bernoulli(p)


n

xi

def

E(x) = X = p p =

i=1

4. Sea X1 , . . . , Xn una M.A. P ()


def

E(x) = X =
=X
El estimador para el metodo de los momentos para

Id est: E() = E(X) = y es insesgado para .


Recordar:
Sea X1 , . . . , Xn donde E(x) = y la V (x) = 2 entonces
E(X) = y la V (X) =

2
n

5. Recordando que si X exp() E(x) =

y la V (x) =

Sea X1 , . . . , Xn una M.A. exp()


1

= E(x) = X

=
Luego

1
X

fx (x) =

.e.x
0

Es el E.M.M. para
si x > 0
en caso contrario

Luego P X > 0 = 1

96

1
2

6.1.2.

M
etodo de M
axima Verosimilitud

Descripci
on del metodo: sea X1 , . . . , Xn una M.A. con funcion de densidad
conjunta:
f (x1 , . . . , xn , 1 , . . . , n ) o funcion de probabilidad conjunta.
P (x1 , . . . , xn , 1 , . . . , n ) si es discreta.
Dependiendo si la muestra es de una variable aleatoria continua o una variable aleatoria discreta respectivamente.
Entonces 1 , . . . , n son los estimadores de maxima verosimilitud si para todo
1 , . . . , n
Si para cada
x = (x1 , . . . , xn )
f
x, f
x,
oP
x, P
x,

Rn

Donde = (1 , . . . , M ) y = 1 , . . . , M
Ejemplos
1. Sea X1 , . . . , Xn una M.A. P ()
k

recordando que P (X = k) = e k! k Z0
x = (x1 , . . . , xn ) Luego 1 = M = 1

Suponer que xi Z0 i : 1 i N Para que no nos de 0 la productoria.


n

P (x
, )

indeptes

P (xi , )

ident distr

e .

i=1

i=1

xi

= en. . n
xi !

xi

i=1

= H()
xi !

i=1

Luego maximizar la funcion H() es equivalente a maximizar el logaritmo


n

log (h()) = n. +

xi

. log() .n.

i=1

xi !
i=1

n.+

Derivo respecto de :

d
d

log (H()) =

i=1

xi

exijo

= 0

n. +

xi = 0 = X
i=1

Tengo que chequear que sea maximo es decir que la derivada segunda
respecto de sea negativa en el punto
n

d2
d.2

log (H()) =

xi
i=1
2

<0

= X Es el E.M.V para .

97

2. Sea X1 , . . . , Xn una M.A. exp() : > 0


Sabemos que fx (x) =
1

Y que E(x) =

.e.x
0

y la V (x) =

si x > 0
en caso contrario

1
2

Sea
x Rn
n
indeptes

Luego f (x
, )

fx (xi , )
i=1

.e

xi

si xi > 0i : 1 i n
en caso contrario

i=1

Si Xi > 0 i : 1 . . . n
n

f (x
, ) = .e

xi
i=1

Maximizar la funci
on es lo mismo que maximizar el: log(f (x
, ))

log(f (x
, )) = n.log()

xi = G()
i=1

G () =

1
n

xi = 0 n .
xi = 0 =
i=1
X
i=1

=
Como es un punto de maximo obtengo que
m
axima verosimilitud para

98

1
X

es el estimador de

3. Sea X1 , . . . , Xn una M.A. N , 2


n

f
x, =

fx (xi , )
i=1
n

=
i=1

1
2.. 2

e
n

(xi )2

i=1 22

n
2

(xi )2
2 2

= (2.. ) .e

Por otra parte queremos reducir la siguiente expresion:


n

(xi )2 =
i=1

((xi x) ( x))
i=1
n

(xi )2 +

i=1

( x)2 2.( x).


i=1

(xi x)
i=1
=0

(xi x)2 + n.( x)2

=
i=1

Volviendo reemplazo

y obtengo :
2

n
2

f
x, = (2.. ) .e

n
(xi x)2 +n.(x)2
i=1
2. 2
xi x2
2. 2

(2.. 2 ) 2 .e

funcion que depende de


Acoto e

n.(x)2
2. 2

Sabiendo que

. e
2

n.(x)2
2. 2

depende de

e0 = 1

n.(x)2
2. 2

=0=x

Luego acoto la funci


on por:
n

G ()2 = (2.. 2 ) 2 .e

Aplico log(G()2 ) = n2 log(2. 2 )

99

n
i=1

xi x2
2. 2

(xi x)2
2. 2

Luego n2 log(2. 2 )
n2 log(2.)

n
2

n
i=1

(xi x)2
2. 2

log( 2 )

n
i=1

=0

(xi x)2
2. 2

d
d 2

log(G( 2 )) = 0
n 2 +
n

1
2 2

(xi x)2

i=1

(xi x)2

i=1
2 4

0=
2

n 1
2 2

(xi x)2

i=1

Y se que es un punto de maximo.


n

(xi x)2

El E.M.V para = (, 2 ) es = x, i=1

4. Sea X U (0, ) quiero hallar el E.M.V.


N

f (x
, ) =

fx (xi , )
i=1

Donde fx (x) =
f (x
, ) =

1
n

1
n I(0,)

Donde IA (x) =

si xi (0, )i : 1 i n
en caso contrario

(mn xi ).I(0,) (max xi )

1
0

si x A
en caso contrario

Supongamos xi (0, ) i : 1 i n 0 < mnxi maxxi <


Si i : xi (0, )

xi 0
xi 0

I(0,) (mn xi ) = 0
I(0,) (max xi ) > 0

I(0,) (m
ax xi ) = 0 Para cada
x
f (x
, ) =

1
n xi )
n I(0,) (m

I(0,) (max xi )

Por otra parte si > maxxi > 0 f (x


, ) =

1
n

Por u
ltimo si m
axxi f (x
, ) = 0

Luego el E.M.V para es EM V = max xi Recordar el EM M = 2.X

100

6.1.3.

Propiedades de los E.M.V

1. Propiedad de invarianza
Sea X1 , . . . , Xn una muestra aleatoria con funcion de distribucion F (x
, ) :

n

Si es el E.M.V. para y sea h : Rn R.


Entonces el E.M.V para h

es h

2. Si n es suficientemente grande entonces el estimador de maxima verosimilitud de es asint


oticamente insesgado, id est: E =
Ejemplo

(xi x)2

Sea X1 , . . . , Xn una M.A. N , i=1

(xi x)2

E.M.V = x, i=1

Se pide hallar el E.M.V. para el percentil p de una N (, 2 )


(p) : p = F ((p)) = P (X (p))

X
(p)

Estandarizo y obtengo P

(p)

(p) = . +
h(, 2 )

Luego por la propiedad de invarianza de los E.M.V. resulta que el E.M.V.


N

para el percentil de una N (, ) es igual a h

(xi x)2

101

E.M.V.

= .

i=1

+X

7.

Intervalos de confianza basados en una sola


muestra

Sea X1 , . . . , Xn una muestra aleatoria con distribucion acumulada F (x, )


con desconocido.
Objetivo: para construir un intervalo de confianza (IC) para el parametro
1 , . . . , xn ) que me permita generar
debemos obtener un estadstico = (x
intervalos de longitud peque
na (precision) que con una alta confiabilidad (nivel
de confianza) contengan al parametro .

7.1.

M
etodo general para obtener un IC para

Sea X1 , . . . , Xn una muestra aleatoria con distribucion F (x, ).


Obtener un estadstico h(x1 , . . . , xn , ) que dependa de pero su distribucion
no.
Seleccionar un nivel de confianza (1 ) para el intervalo y encontrar
a < b tales que cumplan:
P (a h(x1 , . . . , xn , ) b) = (1 )
A partir de la expresi
on a h(x1 , . . . , xn , ) b obtener:
L(x1 , . . . , xn ) (Low) llamada cota aleatoria inferior.
U (x1 , . . . , xn ) (Upper) llamada cota aleatoria superior.
Tales que P [L(x1 , . . . , xn ), U (x1 , . . . , xn )]

=1

Ejemplo
Sea X1 , . . . , Xn una M.A. N (, 2 ) con 2 conocido.
Problema:
Hallar un IC de nivel (1 ) para =
XN

2
n

n N (0, 1)

h(x1 ,...,xn ,)

Luego fijado un nivel (1 )


P (a h(x1 , . . . , xn , ) b) = 1
Elijo a = y b =
Definici
on: llamaremos

al valor tal que P (Z ) =

102

n 2

Figura 5: = X/2

2 X 2
n
n

X 2 X + 2
n
n
l(x1 ,...,xn )

U (x1 ,...,xn )

Luego el intervalo de de confianza de nivel (1 ) aleatorio para es:


X 2 n
Observaciones:
El intervalo de confianza esta centrado en X .
Su longitud es igual a 2. 2 n .
Al aumentar el niver de confianza 2 crece .
Luego aumentar la longitud del intervalo perdida de precision.
Si se quiere una precisi
on de a lo sumo w y un nivel (1) la u
nica posibilidad
que nos queda es elegir el tama
no de muestra adecuado.
Long (IC) = 2. 2 . n w n

7.2.

2. .

IC para = con muestras suficientemente grandes

Sea X1 , . . . , Xn una muestra aleatoria con E(x) = y con V (x) = 2


Como n es suficientemente grande puedo usar el teorema central del lmite
que dice:
2
X
X N ,

. n N (0, 1)
n

103

si es conocido entonces:
H(x1 , . . . , xn , )

. n N (0, 1)

entonces fijado un nivel de confianza (1) y pensando de manera similar


a la anterior tenemos que:
l(x1 , . . . , xn ), U (x1 , . . . , xn ) = X 2 . n es un I.C. de nivel aproximado
(1 ) para =
Si no es conocido entonces:
Sabemos que S 2 es un estimador insesgado para 2 id est: E(S 2 ) = 2
y tiene la propiedad de consistencia:
> 0 P (|S 2 2 | ) 0
n

o lo mismo P (|S 2 2 | ) 1
n

Adem
as

X
S

. n N (0, 1)

Si n > 40 luego un IC de nivel (1 ) aproximado para es : X 2 Sn


Ejemplo
Sea X1 , . . . , Xn una M.A. Bernoulli(p)
Problema: hallar un intervalo de confianza de nivel (1 ) para = p.
Si n es suficientemente grande por teorema central del lmite (T.C.L.)
sabemos si X B(n, p) X
N p, p.q
n =p
n
Recordemos si X B(n, p)
E(x) = n.p
E( nx ) =
V ( nx ) =
Luego

1
1
n .E(x) = n .n.p = p
p.q
1
1
n2 .V (x) = n2 .n.p.q = n

p p
p.q
n

N (0, 1)

h(x1 ,...,xn ,p)

Fijado un nivel de confianza: (1 )


h(x1 , . . . , xn , p) 2
|
p p|2
p2 + p2 2.
p.p 22 .
G(p) = p2 . 1 + 22 .

p.q
0
n

1
1
+ p. 2.
p 22 .
+ p2 0
n
n
104

p.q
n

p [r1 , r2 ] G(p) 0 r1 , r2 son races de G(p)


Obtengo las races:

2
p + 2 n1 + 2. 2

4.n2

2. 1 + 2 n1
2

Es el intervalo de confianza de nivel aproximado (1 ) para = p


Si n es grande

es despreciable

Entonces IC se reduce a :

p.
q
n

p 2

Elegir el n para que el IC tenga nivel aproximado (1 ) y una longitud


de a lo sumo w
p.
q
2. 2
w
n
Puedo acotar p.
q = p (1 p)

1
4

8 Intervalo

de confianza tradicional.

105

1
n
2

Ejemplo
Sea X1 , . . . , Xn una M.A. P () con n suficientemente grande.
Obtener un IC de nivel aproximado (1 ) para
Nota Si X P () E(x) = V (x) =
Por T.C.L

N (0, 1)

n
h(x1 ,...,xn ,)

Fijamos un nivel aproximado (1 )


(1 ) = P |h(x1 , . . . , xn , )| 2

2
= X . n ( 2 . )2
2

= n. X + 2 2..X 22 .
2

= n.X + n.2 2.n..X 22 . 0

Obtenemos un polinomio cuadratico en


n.x2 + n.2 2.n..x 2 . 0 : [x1 , x2 ]
2

Donde x1 y x2 son las races del polinomio


Luego el intervalo aproximado de nivel (1 ) para es:
2

IC =

+ 2.n.X 2 .
2.n

106

+ 4.n.X

7.3.
tad

Distribuci
on t de Student con n grados de liber-

Sea X1 , . . . , Xn una M.A. N (, 2 ) con y 2 desconocidos


Si n 40 entonces vimos que un IC de nivel de confianza aproximado
(1 ) para es: X 2 Sn
Que pasa si n < 40?
Podemos afirmar que

X
S

n N (0, 1)

Entonces necesitamos otro estimador para obtener un IC para en


esta situaci
on.
Definici
on: sean Z N (0, 1) e Y 2 : con Z e Y independientes.
La variable aleatoria ZY = T tiene una distribucion t-student con

grados de libertad .
Notacion: T t
7.3.1.

Caractersticas de la t de Student

Es simetrica en torno del origen y tiene forma de campana.


Si es peque
no entonces la t es mas dispersa que una N (0, 1)
P (T t) (t)

Figura 6: Gr
afico de la t-student con k grados de libertad

107

Teorema Sea X1 , . . . , Xn una M.A. N (, 2 ) entonces:


1.

2.

(n1).S 2
2

. n = Z N (0, 1)
= Y 2n1

3. Z e Y independientes entonces :
X

. n
=
S2
2

(X ). n
tn1
S

Luego un IC de nivel de confianza (1 ) para es X t 2 ,n1 . Sn


Resumen
Sea X1 , . . . , Xn una M.A. N (, 2 ) entonces:
Si es conocido IC = X 2 . n
Si es desconocido:
si n 40 IC = X 2 . Sn
si n < 40 IC = X t 2 ,(n1) . Sn
Sea X1 , . . . , Xn una M.A. con E(x) = y V (x) = S 2
Si n es suficientemente grande: IC = X 2 . Sn
Si Xi Bernoulli(p) entonces IC para p es: IC = p 2 .

108

p.
q
n

7.4.

Intervalo de confianza para la varianza

Sea X1 , . . . , Xn una M.A. N (, 2 )9 entonces:

(n 1) S 2
2n1
2
h(x1 ,...,xn , 2 )

Fijado un nivel de confianza (1 ) quiero obtener a < b tales que:


1 = P (a h(x1 , . . . , xn , 2 ) b)
(n 1).S 2
22 ,n1
2
2
(n 1).S 2
(n 1).S 2
2
=

2 ,n1
21 ,n1
2
( 2)
= 2(1 ),n1

Un IC de nivel (1 ) para 2 es :

2
(n1).S 2
, (n1).S
2 ,n1 2

Y para es:

(n1).S 2
,
2 ,n1
2

9 Importante

(1 2 ),n1

(n1).S 2
2

(1 2 ),n1

debe ser Normal la distribuci


on sino no podemos saber nada.

109

8.

Prueba de hip
otesis basada en una muestra
Llamaremos con al parameto poblacional.
Las hip
otesis que el investigador debe establecer son dos:
Hipotesis nula (H0 )
4
iiii
i
i
i
i
i
iiii
iiii
Tipos de hip
otesis

*
Hipotesis alternativa (Ha )12

Estas dos hip


otesis deben ser contrapuestas.

8.1.

Componentes de una prueba de hip


otesis

8.1.1.

Tipos de hip
otesis alternativas (Ha )

Ha : < 0 Unilateral de cola inferior.


Ha : > 0 Unilateral de cola superior.
Ha : = 0 Bilateral o de dos colas.
Con 0 valor fijado por el investigador.
El otro elemento que forma parte de una prueba de hipotesis es el Estadstico de prueba que es una funcion de la muestra aleatoria con distribucion
conocida.
8.1.2.

Regi
on de rechazo de la prueba (RR)

Son todos los valores del estadstico de prueba para el cual se rechaza la
hip
otesis nula.
Luego la H0 ser
a rechazada si el valor observado del estadistico de prueba
est
a en la regi
on de rechazo.
8.1.3.

Tipos de errores de una prueba de hip


otesis

Error de tipo I: () consiste en rechazar H0 cuando H0 es verdadera.


Error de tipo II: () consiste en aceptar H0 cuando H0 es falsa.
8.1.4.

Nivel de significancia

Definimos el nivel de significancia de una prueba de hipotesis al supremo


P (error de tipo I) H0

110

8.2.

Pasos a seguir para hacer una prueba de hip


otesis

1. Identificar el par
ametro de interes ().
2. Plantear las hip
otesis nulas y alternativas pertinentes.
3. Indicar el estadstico de prueba.
4. Obtener la regi
on de rechazo para un nivel de significancia : (RR ).
5. Evaluar el estadstico de prueba con los datos observados.
6. Tomar una decisi
on.
Si el valor observado esta en la RR diremos que se rechaza H0 con
un nivel de significancia .
En caso contrario diremos que no hay evidencia suficiente para rechazar H0 a un nivel de significancia .

8.3.

Prueba de hip
otesis para la media poblacional
Caso A: sea X1 , . . . , Xn una M.A. N (, 2 ) con conocido
H0 : = 0
Ha : = 0
Estadstico de prueba:

X0

. n N (0, 1) bajo H0 .

Un criterio razonable para rechazar H0 sera si x K1 o x K2


?

Fijado un nivel de significancia K1 =


= P (error de tipo I) = P (x K1 x K2 ) cuando = 0
= P (x K1 con = 0 ) + P (x K2 con = 0 )
K2 0
K1 0
= P (Z
. n) + P (Z
. n)

z1

z2

RR = {X 2 + 0 o X 2 + 0 }
n
n
= {z 2 o z 2 }
= {|z| 2 }
La funci
on es:

() = ( 2 + ( 0 ). n) ( 2 + ( 0 ). n) = 0
es simetrica en torno de id est: ( h) = ( + h) h R
lm () = lm+ () = 1
0

111

lm () = lm () = 0

es creciente para < 0 y decreciente para > 0


Que condici
on debe cumplir el n si > 0 ( ) 0 ?

( ) = ( 2 + ( 0
). n) ( 2 + ( ). n) = 0

( ) ( 2 + ( 0
). n) 0

+(

0
). n 1 (0 )

(0 + )
. n 0

+ 0

112

( 2 + 0 ).
0

. n
2

Resumen
Sea X1 , . . . , Xn una M.A. N (, 2 ) con conocido y H0 : = 0

0
. n N (0, 1) bajo H0
Estadstico de prueba: X

Fijado un nivel
Ha

RR

()

< 0

{z }

> 0

{z }

1 ( + ( 0 ) n)

( + ( 0 ). n)

= 0

{|z| 2 }

( + (
2

0
). n)

( + (
2

0
). n)

( ) 0
n
n
n

.( + ) 2
0
0
.( + ) 2
0
0
.( + ) 2
2

Caso b: Sea X1 , . . . , Xn una M.A. con E(x) = y V (x) = 2 y n suficientemente grande.

2
Por T.C.L. X N (, n ) X
. n N (0, 1)

n 30 y conocido entonces el estadstico de prueba es:

. n N (0, 1) bajo H0

X 0

n 40 y desconocido entonces el estadstico de prueba es:

. n N (0, 1) bajo H0

X 0
S

Las RR son las misma que en el caso a.


Caso c: Sea X1 , . . . , Xn una M.A. N (, 2 ) con desconocido y H0 :
= 0
n 40 Entonces el estadstico de prueba es:

. n N (0, 1) bajo H0

X 0
S

Luego la regi
on de rechazo para la prueba es la misma que la del
caso a.
n < 40 Entonces el estadstico de prueba va a ser :
X 0
S

. n tn1 bajo H0

113

Fijado un nivel de significancia

K 0
0
RR = {x K } = {( x
). n}
S ). n = t (
S
= P (x K cuando = 0 )
x 0
K 0
. n
=P
. n
S
S
t

tn1

t = t,n1
= t t,n1
Ha
< 0
> 0
= 0

RR
{t t,n1 }
{t t,n1 }
{|t| t 2 ,n1 }

Ejemplo
Dos empresas distintas desean establecerse en cierta region y brindar servicios de televisi
on por cable. Se denota por p la proporcion de suscriptores
potenciales que prefieren la primera empresa sobre la segunda.
Se toma una muestra aleatoria de tama
no 25 para probar: H0 : p = 0, 5
contra Ha : p = 0, 5.
Se representa con X el n
umero de suscriptores en la muestra que esta a favor
de la primera empresa y con x el valor observado de X.
1. Cu
al de las siguientes regiones de rechazo es la mas adecuada?
R1 = {x : x 7 o x 18}
R2 = {x : x < 8}
R3 = {x : x > 17}
La m
as adecuada es R1 que corresponde a una Ha de dos colas.
2. Cu
al es la distribuci
on de probabilidad del estadstico de prueba X cuando
H0 es verdadera? Utilcela para calcular la probabilidad de error de tipo I
Mi estadstico de prueba va a ser X B(25; 0,5) bajo H0
P (error de tipo I) = P (x 7 x 18 cuando p = p0 )
= P (x 7 cuando p = p0 ) + P (x 18 cuando p = p0 )
= B(7; 25 : 0,5) + 1 P (x 17 cuando p = p0 )
= B(7; 25 : 0,5) + 1 B(17; 25; 0,5)

114

P (error de tipo I) = P (x 7) + 1 P (x 17) cuando p = p0


=

7 n.p0

n.p0 .q0

+1

17 n.p0

n.p0 .q0

= (2,2) + 1 (1,8)
= 0,0139 + 10,9641
= 0,0498
3. Calcule la probabilidad de error de tipo II para la region seleccionada
cuando p = 0, 3.
Repita lo mismo para p = 0, 4 ; p = 0, 6 y p = 0, 7.
17
n
k

(p) = P (7 < x 17) =

.pk .q nk

k=8

p
0,3
0,4
0,6
0,7

(p)
0,488
0,845
0,845
0,488

(17,25, p) (7,25, p)

4. Mediante la regi
on seleccionada que concluye si 6 de los 25 individuos
favorecieron a la primera empresa?

115

8.4.

Prueba de hip
otesis para la varianza poblacional

Sea X1 , . . . , Xn M.A. N (, 2 ) con desconocido y H0 : 2 = 02 .


2
El estimador de prueba va a ser: (n1).S
2n1 bajo H0
2
Un criterio razonable para rechazar H0 en favor de la hipotesis aletenativa
ser
a:
K .(n 1)
(n 1).S 2

S 2 K
02
02
= P (S 2 K cuando 2 = 02 )
2

= P ( (n1).S
(n1).K
)
2
2
0

RR = {2 2,n1 }
En sntesis
Ha
2 > 02
2 < 02
2 = 02

8.5.

RR
{2 2,n1 }
{2 21,n1 }
2
{ 2 ,n1 o 2 21 ,n1 }
2

Prueba de hip
otesis para la proporci
on poblacional

Sea X1 , . . . , Xn una M.A. Bernoulli(p) con H0 : p = p0


Con p0 valor fijado por el investigador.
n

xi B(n, p)

Sabemos que:
i=1

Caso a: n peque
no, el estadstico de prueba va a ser:
n

xi B(n, p0 )

X=
i=1

Ha
p > p0
p < p0
p = p0

RR
{x : x K }
{x : x K }
{x : x K1 o x K2 }

Sea x Z0
x

Definimos B(x; n, p) =
k=0

n
k

.pk (1 p)nk

En el caso Ha : p > p0 y supongamos K Z0


P (error de tipo I) = P (X K cuando p = P0 )
= 1 P (X K1 cuando p = p0 )
= 1 B(K1 ; n, p0 )

116

En el caso Ha : p < p0
P (error de tipo I) = P (X K cuando p = P0 )
= B(K ; n, p0 )

En el caso Ha : p = p0
P (error de tipo I) = P (X K1 : p = P0 ) + P (X K2 : p = P0 )

Caso b: cuando n es suficientemente grande:


T.C.L

X N (n.p, n.p.q)
El estadstico de prueba va a ser:

X n.p
N (0, 1)

n.p.q

Xn.p0

n.p0 .q0

Luego fijado el nivel de significancia


Ha
RR
p > p0

{z }

p < p0

{z }

p = p0

{|z| 2 }

( 2

N (0, 1) Bajo H0
(p)

p0 . q 0
p.q

p
n. p0p.q
)
p0 p
+ n. p.q )

. q0
1 - ( p0p.q
p0 p
p0 . q0
n. p.q ) + ( 2
p.q +

p0 . q 0
p.q

p
n. p0p.q
)

Ejemplo
(Extrado de libro Probabilidad y estadstica de Jay L. Devore).
Muchos consumidores estan volviendo a los medicamentos genericos como
una forma de reducir el costo de las medicaciones prescritas.
Se propoicionan los resultados de 102 medicos, de los cuales solo 47 de los
encuestados conocan el nombre generico para el farmaco metadona.
Proporciona lo anterior evidencia suficiente para concluir que menos de la
mitad de los medicos conocen el nombre generico para la metadona?
Lleve a cabo una prueba de hipotsis con un nivel de significancia 0,05.
= p proporci
on de medicos que conocen el nombre generico de la metadona.
Ha : p < 0,5 = P0
= 0,05
P (error de tipo I) = B(K ; 102; 0,5)
Caso B: Proporci
on
como n es suficientemente grande mi estadstico de prueba va a ser:
X n.p0
N (0, 1) Bajo H0

n.p0 .q0
117

= 0,05 RR0,05 = { : < 0,05} =


obs

1,64+1,65
2

= 0,645

47 102 0, 5
= 0,79 RR0,05
=
102 0,5 0,5

No hay evidencia suficiente para rechazar H0 al 5 %

8.6.

P-Valor

Definici
on: llamaremos p valor o nivel de significancia alcanzado al menor
nivel de significancia a partir del cual rechazamos H0 con los resultados obtenidos
en la muestra.
p valor rechazo a un nivel a
Id est:

obs

p valor > no hay evidencia suficiente para rechazar H0


Id est:

obs

RR

Estadtico de prueba
Z

9.

Ha
cola superior
cola inferior
bilateral
cola superior
cola inferior
bilateral

p valor
P (Z obs )
P (Z obs )
2.P (Z |obs |)
P (T tobs )
P (T tobs )
2.P (T |tobs |)

Inferencia basada en dos muestras


No lo vimos

118

Vous aimerez peut-être aussi