Académique Documents
Professionnel Documents
Culture Documents
Indice
1. Estadstica descriptiva
1.1. Conceptos b
asicos y terminologa . . . . . . . . . . . . . .
1.2. Poblaci
on y muestra . . . . . . . . . . . . . . . . . . . . .
1.3. Tipos de datos . . . . . . . . . . . . . . . . . . . . . . . .
1.4. Tabla de distribuci
on de frecuencias . . . . . . . . . . . .
1.4.1. Histograma . . . . . . . . . . . . . . . . . . . . . .
1.5. Medidas de posici
on o tendencia central . . . . . . . . . .
1.6. Medidas de dispersion o variabilidad . . . . . . . . . . . .
1.7. Gua para la construccin de un grafico de caja o box-plot
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
4
4
5
6
6
10
12
13
2. Probabilidad
2.1. Propiedades de un modelo probabilstico . . . . . .
2.2. Probabilidad condicional . . . . . . . . . . . . . . .
2.2.1. Propiedades de la probabilidad condicional
2.3. Teorema de Bayes . . . . . . . . . . . . . . . . . .
2.4. Eventos independientes . . . . . . . . . . . . . . .
2.5. Variables aleatorias . . . . . . . . . . . . . . . . . .
2.5.1. Clasificaci
on de las variables aleatorias . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
19
21
23
23
24
26
27
27
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3.8. Distribuci
on binomial negativa . . . . . . . . . . . . . . . . . . .
47
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
48
48
50
53
54
55
57
57
61
63
67
67
67
69
69
5. Distribuci
on de probabilidad conjunta
5.1. Funciones marginales . . . . . . . . . . . .
5.2. Funci
on de densidad conjunta . . . . . . .
5.3. Interdependencia entre variables aleatorias
5.4. Covarianza . . . . . . . . . . . . . . . . .
5.4.1. Propiedades de la covarianza . . .
5.4.2. Probabilidad conjunta y covarianza
5.5. Definici
on de correlacion . . . . . . . . . .
5.5.1. Generalizacion . . . . . . . . . . .
5.6. Teorema Central del Lmite T.C.L . . . .
5.7. Aproximaci
on normal a una binomial . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
71
71
72
76
78
78
79
80
82
86
87
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6. Estimaci
on puntual
6.1. Metodos para la estimacion de los parametros
6.1.1. Metodo de los Momentos . . . . . . .
6.1.2. Metodo de Maxima Verosimilitud . . .
6.1.3. Propiedades de los E.M.V . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
de la
. . .
. . .
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
91
distribucion
95
. . . . . . . . 95
. . . . . . . . 97
. . . . . . . . 101
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
102
102
103
107
107
109
8. Prueba de hip
otesis basada en una muestra
8.1. Componentes de una prueba de hipotesis . . . . . .
8.1.1. Tipos de hipotesis alternativas (Ha ) . . . .
8.1.2. Regi
on de rechazo de la prueba (RR) . . . .
8.1.3. Tipos de errores de una prueba de hipotesis
8.1.4. Nivel de significancia . . . . . . . . . . . . .
8.2. Pasos a seguir para hacer una prueba de hipotesis .
8.3. Prueba de hip
otesis para la media poblacional . . .
8.4. Prueba de hip
otesis para la varianza poblacional .
8.5. Prueba de hip
otesis para la proporcion poblacional
8.6. P-Valor . . . . . . . . . . . . . . . . . . . . . . . .
9. Inferencia basada en dos muestras
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
110
110
110
110
110
110
111
111
116
116
118
118
1.
Estadstica descriptiva
1.1.
Conceptos b
asicos y terminologa
B
usqueda de
O patrones
Analisis
exploratorio
jjj4
j
j
j
jj
jjjj
jjjj
An
alisis de datos
*
Analisis confirmatorio
/ Estadstica descriptiva
/ Estadstica inferencial
Plantea hipotesis
1.2.
Poblaci
on y muestra
Poblaci
on:
Colecci
on de elementos o sujetos de interes.
Puede ser finita o infinita.
Muestra:
Subconjunto elegido al azar de la poblacion.
Tama
no muestral n.
lM uestra
lll
l
l
ll
lll
l
l
)
ul
Inferir acerca de hipotesis
Estimar caractersticas
kk
kkk
k
k
k
kkk
)
ukkk
Poblacion
1.3.
Tipos de datos
Num
ericos
Discretos: (determinados valores) como ser el n
umero de hermanos o el
n
umero de accidentados en un choque de motos.
Continuos: (valores en un intervalo) como ser la concentracion de glucosa
en sangre, o el nivel de P H[0, 14].
Categ
oricos
Ordinal: (orden, jerarquas) como ser el estado que atravieza una enfermedad (severo, moderado, suave) o el maximo nivel educativo alcanzado
(primario, secundario, terciario, universitario).
Nominal: (sin orden) como ser el grupo sanguneo de una persona, la
religi
on o el estado civil.
Discretos
n7
nnn
n
n
nnn
nnn
/ Continuos
Numericos
mm6
m
m
mmm
mmm
m
m
m
Tipos de datos
(
/ Ordinal
Categoricos
yyy
yyy
yyy
yy'
Nominal
1.4.
Tabla de distribuci
on de frecuencias
Metodo:
1. Tomar un intervalo que contenga al conjunto de datos.
2. Dividir el intervalo en k
sub-intervalos de clase (IC), adyacentes y disjuntos. (Generalmente k = n).
3. Contar el n
umero de observaciones en cada intervalo (FA)1 .
4. Calcular las (FR)2 como el cociente entre las FA y el tama
no muestral (n)
en cada uno de los k intervalos.
5. Se puede agregar:
Marca de clase: punto medio de cada intervalo de clase.
Frecuencia absoluta acumulada. (FAA)
Frecuencia relativa acumulada. (FRA)
1.4.1.
Histograma
Gr
afico de mayor difusion, es la representacion grafica de la tabla de distribuci
on de frecuencias.
C
omo hacerlo?
En una recta horizontal marcar los k intervalos de clase (IC).
Sobre cada intervalo trazar un rectangulo cuya area sea proporcional
al n
umero de observaciones del mismo.
C
omo elegir la altura de los rectangulos?
Altura =
1 Frecuencias
2 Frecuencias
absolutas.
relativas.
FR
Long(IC)
Observaciones:
F Ai = n
i=1
F Ri = 1
i=1
Ejemplo
Para decidir el n
umero de cajeras necesarias para trabajar en un supermercado, se requiere tener informacion sobre el tiempo, medido en minutos, requerido
para atender a los clientes.
Para tal fin, se tom
o una muestra al azar a 60 clientes y se midio el tiempo
que se demor
o en atenderlos.
Los datos obtenidos, ordenados de menor a mayor, fueron:
0,20
0,60
0,80
1,10
1,60
2,10
0,20
0,60
0,90
1,10
1,60
2,20
0,30
0,60
0,90
1,20
1,70
2,30
0,30
0,60
1,00
1,20
1,70
2,50
0,30
0,70
1,00
1,20
1,80
2,80
0,40
0,70
1,10
1,30
1,80
3,10
0,40
0,70
1,10
1,30
1,80
3,10
0,40
0,80
1,10
1,30
1,80
3,60
0,50
0,80
1,10
1,40
1,90
4,50
0,50
0,80
1,10
1,40
1,90
5,20
Primero: N
umero de intervalos de clase: k = 60 = 7,75 8.
Segundo: Elegir la longitud de los intervalos de clase.
Si queremos una partici
on disjunta del intervalo [0,2; 5,2] en 8 subintervalos
de igual longitud (L).
Esta
debe ser igual a: L =
5,20,2
8
= 0,625
FA
21
19
10
4
3
1
1
1
n = 60
FR
21/60 = 0.35
19/60 = 0.32
10/60 = 0.17
4/60 = 0.07
3/60 = 0.05
1/60 = 0.02
1/60 = 0.02
1/60 = 0.02
=1
Ejemplo
Distribucin del peso (x) en Kg de una muestra de 500 alumnos varones de
una universidad.
IC
40 < x 45
45 < x 50
50 < x 55
55 < x 60
60 < x 65
65 < x 70
70 < x 75
75 < x 80
80 < x 85
85 < x 90
90 < x 95
Total
FA
1
3
12
75
103
155
101
29
11
8
2
500
FAA
1
4
16
91
194
349
450
479
490
498
500
500
FR
0.002
0.006
0.024
0.150
0.206
0.310
0.202
0.058
0.022
0.016
0.004
1.000
FRA
0.002
0.008
0.032
0.182
0.388
0.698
0.900
0.958
0.980
0.996
1.000
1.000
%
0.2
0.6
2.4
15.0
20.6
31.0
20.2
5.8
2.2
1.6
0.4
100.0
Marca de clase
42.5
47.5
52.5
57.5
62.5
67.5
72.5
77.5
82.5
87.5
92.5
-
1.5.
Medidas de posici
on o tendencia central
Media muestral o promedio muestral
Sean x1 , . . . , xn los datos obtenidos en la muestra
n
xi
La definimos como: X =
i=1
.
n
(xi x) = 0.
i=1
10
Mediana muestral
Es el valor que deja el 50 % de las observaciones tanto por encima
como por debajo de el.
Es el valor central o el promedio de los dos valores centrales si n es
impar o par respectivamente.
x n +x( n )+1
x=
x n+1
2
si n es par
si n es impar
P (25) =
P (75) =
11
1.6.
Medidas de dispersi
on o variabilidad
Rango
Es la diferencia entre el maximo valor de la muestra y el mnimo.
Es f
acil de calcular y esta en la misma medida que los datos muestrales.
Desventaja: considera solo dos datos de la muestra:
Muestra 1: 0, 5, 5, 5, 10.
Muestra 2: 0, 4, 5, 6, 10.
Conclusi
on: la segunda muestra es mas variable que la segunda
pero el rango es el mismo (10).
Rango Intercuartil
Es la diferencia entre el cuartil superior y el cuartil inferior.
RIC = Q3 Q1 .
Varianza muestral
n
S =
(xi x)2
i=1
n1
2
S 2 (Varianza poblacional).
n
S=
(xi x)2
i=1
n1
Est
a en la misma medida que los datos de la muestra.
Sensible a la presencia de datos extremos en la muestra ya que utiliza
la media muestral.
Coeficiente de variaci
on
CV =
S
.100 %.
X
Permite comparar la variabilidad de caractersticas medidas en distintas escalas, luego la que tenga menor CV ser el de menor variabilidad.
El CV es adimensional.
Ejemplo: medidas de alturas
12
1.7.
13
14
x : 1,100000
Q3 : 1,800000
3.(RIC) = 3,3
Q1 3.(RIC) = 2,6
Q3 + 3.(RIC) = 5,1
Figura 2: Gr
afico de cajas del ejemplo de las cajeras
15
Ejemplo
Los siguientes valores reflejan el contenido de un metabolito en la sangre de
un paciente en 13 extracciones diferentes:
11,6
15,9
39,2
6,7
4,9
42,1
7,3
14,4
50,6
5,1
9,8
48,8
11,6
mg
L .
Figura 3: Gr
afico de densidad de puntos de las extracciones de sangre
16
Ejemplo
Los datos que mostrare corresponden a una tesina de alumnas de la Escuela
de Nutricin (Facultad de Medicina, UNC).
Tema de la tesina: ingesta de lquidos en el adulto mayor (AM).
Seleccin de la muestra: la muestra fue tomada de un grupo de AM que asisten
al comedor del centro de jubilados de un barrio de la ciudad de Cordoba.
Algunos de los objetivos de este trabajo fueron:
Conocer la ingesta diaria de lquidos en AM, a partir de alimentos ricos en
agua.
Comparar la ingesta diaria de lquidos en AM por sexo.
Determinar si los AM cumplen con las recomendaciones para la ingesta
diaria de lquidos por sexo.
Las recomendaciones diarias de lquido por sexo son las siguientes: en mujeres
debe ser de por lo menos 2,7 litros y en varones de por lo menos 3,7 litros.
Dos de las variables que consideraron son la ingesta diaria total de lquido
(llamada Total litros) y el sexo del AM.
Estadstica descriptiva para la variable ingesta diaria total de lquido
n
97
x
3,0213
S
1,0920
S2
1,1925
M
n
0,7888
17
M
ax
7,3943
x
3,0495
Q1
2,3570
Q3
3,5496
n
63
34
x
3,0993
2,8766
S
1,1344
1,0089
S2
1,2870
1,0179
M
n
0,7888
1,1947
Histogramas respectivos:
Gr
aficos de caja de los resultados obtenidos:
18
M
ax
7,3943
5,4458
x
3,1168
2,8861
Q1
2,3727
1,9777
Q3
3,5877
3,4463
2.
Probabilidad
Debe cumplir:
a
A a A3 a
{Ai } i=1 : Ai a i N
S
Ai
i=1
La funci
on de probabilidad
Es una funci
on P:
2. P(S) = 1
3. {Ai } i=1 : Ai
Entonces P
i=1
3 Definimos
Ai
P (Ai ).
i=1
A como el complemento de A en S.
19
1
n
a P (A) = #A
#S
2. Sea A
Demostraci
on
Sea (S, , p) un modelo probabilstico luego:
1. S =
1 = P (S) =
j=1
1
n
= p
2. Sea A
aA=
Ej union disjunta.
jJ
Luego P (A) =
P (Ej ) =
jJ
j
n
: j = #A
Ejemplo
Dos estaciones de servicio tienen seis (6) bombas en uso, en cada estacion
para un tiempo fijo.
S = {(i, j) : i, j Z : 0 i, j 6}
#S = 7 7 = 49
= P (S)4
Ejemplo
Consideremos el siguiente experimento: examinar un conjunto de bateras
hasta encontrar a la primera que cumpla con las condiciones de calidad.
Denotamos con (E) si la batera cumple con las condiciones de calidad y con
(F) en caso contrario.
Queda definido el espacio muestral
S = E, F E, F F E, . . . , F . . . F E, . . .
Luego definimos Ej = F . . . F E : j Z0 E0 = E
j
4 P(S)
es cualquier subconjunto de S.
20
Luego S =
Ej uni
on disjunta.
j=0
P (S) =
j=0
qk =
j=0
1
1q
(1 p)j = p.
P (Ej ) = p.
j=0
:0<q<1
A
aA=
Ej P (A) =
jJ
2.1.
1
=1
1 (1 p)
P (Ej )
jJ
Demostraci
on
1. Sean A,B
S = A A union disjunta.
S
A
Disj
21
S
B
Disj
S
A
P (A B) = P (A (B (A B)))
= P (A) + P (B (A B))
= P (A) + P (B) P (A B)
2
(1)
Ejemplo
En un lugar desconocido el 60 % de las familias compran el diario A y el
80 % de las familias compran el diario B. Por otra parte sabemos que el 50 %
est
a suscripta a ambos diarios.
Se pide calcular:
1. Cu
al es la probabilidad de tomar una familia que compre alg
un diario?
P (A B) = P (A) + P (B) P (A B)
= 0,6 + 0,8 0,5
= 0,9
2. Cu
al es la probabilidad de tomar una familia en el conjunto que compre
s
olo un diario?
P (A (A B) (B (A B))) = P (A (A B)) + P (B (A B))
= P (A) P (A B) + P (B) P (A B)
= 0,6 0,5 + 0,8 0,5
= 0,4
2.2.
Probabilidad condicional
a : P (B) > 0,
Definici
on: sea (S, , p) un modelo probabilstico, con B
entonces llamamos probabilidad de A dado B como:
Def
PB (A) = P (A|B) =
2.2.1.
P (A B)
A
P (B)
1. 0 P (A|B) 1 A
2. PB (S) = P (S|B) = 1
PB
a entonces:
Ai
i=1
PB (Ai )
i=1
Demostraci
on:
1. Sea A
a 0 P (A|B) = P P(AB)
(B) 1
* Ya que (A B) B P (A B) P (B)
23
P (AB)
P (B)
Def P (SB)
P (B)
2. PB (S) = P (S|B) =
P (B)
P (B)
=1
Ai
PB (Ai )
i=1
i=1
PB
Ai
Ai |B
=P
i=1
i=1
Ai B
P
i=1
P (B)
P (Ai B)
=
i=1
(2)
P (B)
PB (Ai )
i=1
a.
n1
Ai )
i=1
Ai y sea B
a tenemos
i=1
que:
n
P (B) =
2.3.
a:S=
P (Ai ).
i=1
P (B Ai )
=
P (Ai )
P (B Ai )
i=1
Teorema de Bayes
a:S=
Ai y sea B
a entonces:
i=1
P (Ai |B) =
P (Ai B)
=
P (B)
24
i, j : 1 i, j n
Ejemplo
Existe un negocio que vende 3 marcas de dvds: 1, 2, 3, que son elegidos por los
clientes asiduamente con un porcentaje del 50 %, 30 %, 20 %, respectivamente,
con un a
no de garanta.
Antes de que termine la garanta los dvds de la marca 1 terminan rrompiendose
en un 50 % de los casos, los de la marca 2 en un 20 % y los de la marca 3 en un
10 %.
Definimos Ai = el cliente compra la marca i : 1 i 3
Se pide:
1. Calcular la probabilidad de que si se compra un dvd, en este negocio, deba
ser reparado antes del a
no de garanta.
3
Y se obtiene:
P (A1 |R) =
P (A1 R)
0,125
=
0,61
P (R)
0,205
P (A2 |R) =
0,060
P (A2 R)
=
0,29
P (R)
0,205
25
2.4.
Eventos independientes
Definici
on: diremos que dos eventos son independientes si:
P (A B) = P (A).P (B)
Proposici
on: Si A y B son eventos en
equivalentes:
A y B son independientes
A y B son independientes
A y B son independientes
A y B son independientes
a.
Definici
on: Sean A1 , . . . , AN eventos en
Diremos que son mutuamente excluyentes si:
r
Ai,
i=1
=
k=1
Ejemplo
Supongamos 4 componentes conectados de la siguiente manera:
?
/ b
bb
bb
bb
/ 2
/ 4
bb
bb
bb
b
?
2.5.
Variables aleatorias
Definici
on: dado (S, , p) un modelo probabilstico llamaremos variable
aleatoria (V.A.) a cualquier funcion:
X : S R : [X x] = {w S : X(w) x}
2.5.1.
a x R
Clasificaci
on de las variables aleatorias
27
3.
[X x] = {w S : X(w) x}
a
Si x 5 [X x] = S a
Si x < 0 [X x] =
Si x [0, 5] [X x] = {
xi x}
(x1 , x2 , x3 , x4 , x5 ) :
i=1
P (0) = P (X = 0) =
1
32
1
32
1
32
1
32
1
32
5
2
5
3
5
4
5
5
P (x) =
=
=
=
=
10
32
10
32
5
32
1
32
1 5
5 x
si 0 x 5
en caso contrario
28
5
32
= P ((X = 0) (X = 1) (X = 2) (X = 3))
26
= P (0) + P (1) + P (2) + P (3) =
32
Si x [4, 5) F (x) = P (X 4)
= P ((X = 0) (X = 1) (X = 2) (X = 3) (X = 4))
31
= P (0) + P (1) + P (2) + P (3) + P (4) =
32
Si x 5 F (x) = P (X 5) = 1
3.1.
La funci
on es mon
otona creciente, id est si x1 < x2 F (x1 ) < F (x2 )
La gr
afica de F es escalonada y tiene discontinuidades en los distintos
valores que toma la variable aleatoria.
lm F (x) = 0
lm F (x) = 1
29
j[x]1
Observaci
on: [x] denota la parte entera de x.
X es una variable aleatoria discreta
Queremos hallar la funcion de probabilidad
Si x N P (x) = P (X = x) = 0
=
P (1) = P (X = 1) = P (E0 ) = p
P (2) = P (X = 2) = P (E1 ) = p.(1 p)
..
.
P (n + 1) = P (X = n + 1) = p.(1 p)n = P (En ) n N
Luego queremos hallar la funcion de distribucion acumulada de X
Si x < 1 [X x] = F (x) = 0
Sea x [k, k + 1) : k N
[x]
P (i)
P (i) =
F (x) =
i=1
i=1
[x]
(1 p)i1
= p.
(3)
i=1
[x]+1
(1 p)j
= p.
(4)
j=0
= p.
1 (1 p)[x]
1 (1 p)
= p.
1 (1 p)[x]
p
= 1 (1 p)[x]
(3) Reemplazo P (i).
(4) Hago un cambio de variables llamando a: j = i + 1.
n1
F (x) =
qj =
1q n
1q .
1 (1 p)x
0
30
x N
en caso contrario
(5)
Ejemplo
Sea una poblaci
on M, donde los habitantes contraen dos tipos de enfermedades distintas: A y B.
Supongamos que sabemos que:
El 30 % de la poblaci
on no posee ninguna de las dos enfermedades.
El 35 % de la poblaci
on tiene la enfermedad A.
El 55 % de la poblaci
on tiene la enfermedad B.
Sea X la cantidad de enfermedades de un sujeto de la poblacion M.
Im(x) = {0, 1, 2}
Se pide hallar la funci
on de distribucion de probabilidad de X:
Si x Im(x) P (x) = 0
Si x = 0 P (0) = P (X = 0) = 0,30
Si x = 1 P (1) = P (X = 1) = 0,50
Si x = 2 P (2) = P (X = 2) = 0,20
0,3 si x = 0
0,5 si x = 1
P (x) =
0,2 si x = 2
0 en caso contrario
Luego obtenemos la funcion de distribucion acumulada: F(x)
Si x < 0 F (0) = P (X < 0) = P () = 0
Si x [0, 1) F (x) = P (X 0) = P (X = 0) = 0,30
si x [1, 2) F (x) = P (X 1) = P (X = 0) + P (X = 1) = 0,80
si x 2 F (x) = P (S) = 1
0 si x < 0
0,3 si x [0, 1)
F (x) =
0,8 si x [1, 2)
1 x2
31
3.2.
Definici
on: sea X una variable aleatoria discreta con funcion de distribucion
de probabilidad P (x), si
|xi |.P (xi ) < . Con Im(x) = {xi } iI llamaremos
iI
xi .P (xi ) =
i I
Observaci
on: en el ejemplo anterior E(x) = 0 0,3 + 1 0,5 + 5 0,2 = 0,9
Propiedad: sea X una variable aleatoria discreta con funcion de distribucion
de probabilidad P (x) y sea w = h(x) entonces si
|h(xi )|.P (xi ) <
iI
Definimos: E (h(x)) =
iI
Sea h(x) = x2 E x2 =
x2i .P (xi )
iI
3.3.
Definici
on: sea X una variable aleatoria discreta con funcion de distribucion
de probabilidad P(x) llamaremos varianza de X a:
2 = V (x) = E(x )2 : = E(x)
Definici
on: sea X una variable aleatoria discreta con funcion de distribucion
de probabilidad P(x) llamaremos desvo est
andar de x a:
V (x)
3.4.
32
Demostraci
on:
Queremos ver que E(a.x + b) = a.E(x) + b a, b R
E(a.x + b) =
h(x)
xi .P (xi ) +b.
= a.
P (xi )
iI
iI
= 1
E(x)
= a.E(x) + b
=
iI
x2i .P (xi ) + 2 .
=
iI
P (xi ) 2..
xi .P (xi )
iI
iI
= 1
= E(x2 ) + 2 2.2
= E(x2 ) 2
Queremos ver que V (a.x + b) = a2 .V (x) a, b R
V (a.x + b) = E ((a.x + b) E(a.x + b))
2
= a2 .E (x )
= a2 .V (x)
33
Ejemplos
Sea X una Bernoulli(p) tenemos que:
P (0) = P (X = 0) = 1 p
P (1) = P (X = 1) = p
E(x2 ) = 02 .(1 p) + 12 .p = p
1
6
i Im(x)
E(x) =
i.P (i) =
i=1
1
6
E(x2 ) =
i2 .P (i) =
i=1
(6)
i=
i=1
n
(7)
i=1
i=
i=1
1
6
1 67
= 3,5
6
2
i2 =
i=1
1 6 7 13
= 15,16
6
6
n.(n+1)
2
i2 =
n.(n+1).(2.n+1)
6
34
(6)
(7)
P (x) =
x N
en caso contrario
E(x) =
i.p.(1 p)i1
i.P (i) =
i=1
i=1
i.(1 p)i1
= p.
i=1
= p.
= p.
d
.(1).
dp
d
.(1).
dp
d
.(1).
dp
d
= p. .(1).
dp
1
= (1).p. 2
p
1
=
p
= p.
35
(1 p)i + 1
i=1
(1 p)i 1
i=0
1
1
1 (1 p)
1
1
p
E(x2 ) =
i2 .P (i) =
i2 .P (i)
i=0
i=1
=
i=2
i.P (i)
i=0
E(x)
2.(1 p) 1
=
+
p2
p
2p
=
p2
(8)
(8)
i=2
i=2
= p.(1 p).
d2
dp2
2
= p.(1 p).
d
dp2
d2
= p.(1 p). 2
dp
d
= p.(1 p).
dp
2
= p.(1 p).
p3
2.(1 p)
=
p2
(i p)i
i=2
(i p)i (1 p) 1
i=0
1
2+p
p
1
+1
p2
36
1p
p2
E(x) =
i.P (i) =
i=1
E(x2 ) =
i2 .P (i) =
i=1
1
n.
1
n
1
n.
i=
i=1
i2 =
i=1
3.5.
i Im(x)
1 n.(n+1)
n.
2
1 n.(n+1).(2n+1)
n.
6
(n+1).(2n+1)
6
n+1
2
n+1
2
=
=
(n+1)(2n+1)
6
n2 1
12
Distribuci
on Binomial
Definici
on: diremos que un experimento es binomial si cumple las siguientes
condiciones:
Consta de n ensayos identicos.
Cada ensayo tiene s
olo dos resultados posibles E = exito o F = fracaso.
Los ensayos son independientes uno de otro.
La P (E) = p para cada uno de los ensayos.
Definici
on: sea X la variable que cuenta el n
umero de exitos en un experimento binomial. Entonces diremos que X tiene distribucion binomial de
par
ametros n y p.
Notacion: X B(n, p)
37
Ejemplo
Sea un experimento donde tiramos 5 veces una moneda honesta. Definimos
X como la variable aleatoria que cuenta el n
umero de caras (E) en las 5 tiradas.
P (E) = 0,5 X B(5, 0,5)
3.5.1.
Funci
on de distribuci
on de probabilidad de una binomial
nk
Por ser independientes y por ser p constante en cada uno de los ensayos.
P (k) = P (X = k) =
n
k
38
3.5.2.
E(x) =
k.P (k)
k=0
n
k.
n
k
(9)
k.
n
k
(10)
k=0
n
=
k=1
n
n1
k1
= n.
(11)
k=1
n
= n.p.
n1
k1
n1
j
k=1
n1
= n.p.
(12)
j=0
= n.p.(p + (1 p))n1
(13)
= n.p
(9) Definici
on de P (k).
(10) k = 0 = 0.
n.(n1)!
k.n!
= (k1)!((n1)(k1))!
= n. n1
(11) k. nk = k!(nk)!
k1 .
(12) Hacemos un cambio de variable llamando a: j = k + 1.
(13) Por binomio de Newton (a + b)m =
m
r=0
39
m
r
.ar .bmr .
n
2
k 2 .P (k)
E(x ) =
k=0
n
k2 .
n
k
(14)
k2 .
n
k
(15)
k=0
n
=
k=1
n
k.(k 1).
n
k
nk
.p .(1 p)
k=1
k.P (k)
(16)
k=1
E(x)=n.p
k.(k 1).
n
k
k.(k 1).
n
k
k=1
n
=
k=2
n
k.(k 1).
=
k=2
= n.(n 1)
k=2
(17)
n!
.pk .(1 p)nk + n.p
k!(n k)!
(n 2)!
.pk .(1 p)nk + n.p
(k 2)!((n 2) (k 2))!
n
= n.(n 1).p
n2
k2
n2
j
k=2
n2
= n.(n 1).p2
j=0
=1
= n.p.((n 1).p + 1)
(14)
(15)
(16)
(17)
(18)
Definici
on de P(k).
k = 0 = 0.
Reescribimos k 2 = (k. ((k 1) + 1)).
k = 1 = 0.
Hago un cambio de variables llamando j = k 2.
40
(18)
3.5.3.
F (x) = P (X x) =
0
x
i=0
n
i
si x < 0
p .(1 p)
ni
si 0 x < n
si x 0
n
k
E(x) = n.p
V (x) = n.p.(1 p) = n.p.q = n.P (E).P (F )
3.6.
Distribuci
on de Poisson
Definici
on: diremos que una variable aleatoria X tiene distribucion de Poisson de par
ametros : > 0 si su funcion de probabilidad esta dada por
P (k) = e .
k
con k Im(x) = Z0
k!
Notaci
on: X P ()
e =
k=0
k
k!
(19)
e .
1=
k=0
k
=
k!
41
P (k)
k=0
(20)
3.6.1.
E(x) =
k.P (k)
k=0
k.P (k)
k=1
k.e .
=
k=1
k
k!
e .
k
(k 1)!
e .
.k1
(k 1)!
k=1
(21)
k=1
= e ..
k=1
= e ..
k=1
k1
(k 1)!
k1
(k 1)!
e
=
(21) k = 0 = 0
42
E(x2 ) =
k 2 .P (k)
k=0
k 2 .P (k)
(22)
k=1
n
=
k=1
k.P (k)
(23)
k=1
E(x)=
k.(k 1).e .
=
k=1
= e .
k=2
n
= e .
k=2
k
k!
k
(k 2)!
2 .k2
(k 2)!
= e .2 .
k=2
k2
(k 2)!
= 2 +
(22) k = 0 = 0.
(23) Reescribimos k 2 = (k. ((k 1) + 1)).
(24) k = 1 = 0
. Ahora termino calculando la varianza de una Poisson
V (x) = E(x2 ) E(x)2
= 2 + 2
=
En sntesis sea: X P ()
k
P (k) = P (X = k) = e . k! k Z0 .
E(x) = V (x) = .
3.6.2.
Distribuci
on de Poisson vista como una binomial
k
: = n.p
k!
(24)
Ejemplo
En una prueba de tarjetas de circuito la probabilidad de que un iodo falle es
de 0,01. Suponiendo que la tarjeta tiene 200 de estos, que funcionan independientemente uno de otro. Cual es la probabilidad de que fallen por lo menos 2
iodos en una tarjeta seleccionada al azar?
Sea X = N
umero de iodos que fallan en una tarjeta
P (X 2) = 1 P (X < 2) = 1 P (X = 0) P (X = 1)
Si vemos a X B(200, 0,01)
Nos quedara P (X 2) = 1
200
0
200
1
= 1 (0,99)200 200.(0,01).(0,99)199
= 0,5953
Si lo vemos como una Poisson de parametro = n.p = 200 0,01 = 2
Nos quedara P (X 2) = 1 P (X < 2)
= 1 P (X = 0) P (X = 1)
1 e .
=2
0
e .
0!
1!
= 1 3.e2
= 0,5940
44
3.7.
Distribuci
on hiper geom
etrica
P (k) = P (X = k) =
m
ax{0, n N + m} k mn{M, n}
E(x) = n. M
N
V (x) = n.
M
M
. 1
N
N
p
N n
N 1
correccion
Ejemplo
Cada uno de los 12 refrigeradores de cierto tipo ha sido devuelvo a un distribuidor debido a la presencia de un ruido oscilante agudo cuando esta funcionando. Suponiendo que 4 de esos 12 tienen compresores defectuosos y los otros
8 tienen problemas menos serios.
Definimos X = n
umero de refrigeradores que tienen el compresor defectuoso
entre los primeros 6 examinados
Si se examinan al azar, se pide calcular:
1. La probabilidad de que por lo menos uno tenga el compresor defectuoso.
2. La probabilidad de que haya entre 1 a 3 compresores rotos.
Comenzamos a analizar la variable aleatoria X y obtenemos que:
Im(X) = {0, 1, 2, 3, 4}
El tama
no de la muestra es n = 6
La cantidad de exitos es M = 4
45
8
6
12
6
= 0,97
2. Obtenemos:
P (1 X 3) = P (1) + P (2) + P (3) = 1 (P (0) + P (4))
=1
8
6
4
4
12
6
8
1
= 0,962
Ejemplo
Un ge
ologo ha recolectado 10 especmenes de roca basaltica y 10 de rocas de
granito. Se instruye a un ayudante de laboratorio para que seleccione al azar 15
de estos especmenes para analizarlos.
Sea X = N
umero de rocas basalticas en la muestra
Sea Y = N
umero de rocas granticas en la muestra
Se pide:
1. Calcular la probabilidad de que todos los especmenes de uno de los dos
tipos sean seleccionados.
2. Calcular la probabilidad de que X este a menos de un desvo estandar de
su valor medio.
El tama
no de la muestra es n = 15
La cantidad de exitos es M = 10
Im(X) = Im(Y ) = {5 i 10 : i N}
Tanto X como Y tienen distribucion X, Y H(n, m, N ) H(15, 10, 20)
1.
P ([X = 10] [Y = 10]) = P ([X = 10] [X = 5])
= 2.
10
10
10
5
20
15
= 0,032
2. P (|X | < ) = P ( X + )
10
Sabemos que: = E(x) = n. M
N = 15. 20 = 7,5
V (x) = 2 = n. M
N. 1
M
N
N n
N 1
= 15. 10
20 . 1
10
20
2015
201
75
76
= 75
76
6,51 = X + = 8,49
Luego P (|X | < ) = P (X = 7) + P (X = 8) =
46
10
7
10
10
8 + 8
20
15
10
7
= 0,02
3.8.
Distribuci
on binomial negativa
k+r1
k
Proposici
on
47
Ejemplo
Sea un estudio geol
ogico en el cual se hacen perforaciones en la tierra hasta
encontrar petr
oleo, y sea p la probabilidad de encontrarlo en cada perforacion.
1. Cu
al es la probabilidad de que el primer descubrimiento ocurra en la
tercera perforaci
on?
Sea X = n
umero de fracasos que preceden al primer exito
Definimos: X B (1, p) y calculamos P(X=2):
P (X = 2) = p.(1 p)2 .
2+11
2
= p.(1 p)2
2. Cu
al es la probabilidad de que el tercer descubrimiento ocurra en la quinta
perforaci
on? Sea Y = n
umero de fracasos que preceden al tercer exito
Definimos: Y B (3, p) y calculamos P(Y=2)
P (Y = 2) = p3 .(1 p)2 .
= p3 .(1 p)2 .
2+31
2
4
2
= p3 .(1 p)2 6
4.
4.1.
48
Proposicion
Sea un modelo probabilstico (S,
a , p)
Entonces P
Ai
= lm P (An )
n
i=1
Demostraci
on: Defino:
(Ai Ai1 ) : A0 =
Ai =
i=1
i=1
Uni
on disjunta de eventos.
Ai
P (Ai Ai1 )
i=1
(25)
i=1
n
P (Ai Ai1 )
= lm
i=1
n
(P (Ai ) P (Ai1 ))
= lm
i=1
n
P (Ai ) lm
= lm
(26)
i=1
P (Ai1 )
i=1
= lm [P (An ) P (A0 )]
n
= lm P (An )
(27)
(25) Disjuntos.
(26) Ya que Ai1 Ai P (Ai Ai1 ) = P (Ai ) P (Ai1 ).
(27) Ya que P (A0 ) = P () = 0.
Sean B1 B2 . . . eventos de
a entonces: P
Bi
i=1
= lm P (Bn )
n
Bi =
i=1
Bi
(28)
Bi
(29)
i=1
=
i=1
(29) De-Morgan.
Bi
=P
i=1
Bi
i=1
=1P
Bi
i=1
= 1 lm P Bn
(30)
= 1 lm (1 P (Bn ))
(31)
n
n
= lm P (Bn )
n
4.2.
Funci
on de distribuci
on acumulada
Sea (S,
1. F es mon
otona creciente, id est: si x1 < x2 F (x1 ) F (x2 )
2.
lm F (x) = 0 y el lm F (x) = 1
3. lm F (x) = F (a)
xa+
4. S
olo v
alida si es continua: lm F (x) = lm+ F (x) = F (a)
xa
xa
1. Demostraci
on:
Si x1 < x2 [X x1 ] [X x2 ]
P (X x1 ) P (X x2 )
F (x1 ) F (x2 )
2. Para probar que el lm F (x) = 1 definamos An = [X n]
x
n N A1 A2 . . . An y
Ai = S espacio muestral
i=1
1=P
Ai
i=1
= lm P (An ) = lm P (X n) = lm F (n)
n
lm F (n) = lm F (x) = 1
n
50
Definimos Bn = [X n] n N
Bn
n=1
0=P
Bn
n=1
P ()
xa+
+ n1 ] n
B1 = [X a + 1]
B2 = [X a + 0,5]
Luego Bi+1 Bi i : 1 i n
Bn = [X a]
() Sea w
Bn w Bn n N
n=1
1
n
a n N
X(w) a w [X a]
() Sea w [X a] X(w) a a +
1
n N
n
w Bn n N w
Bn
n=1
Bn = [X a]
n=1
Luego F (a) = P
Bn
= lm P (Bn ) = lm F a +
n
n=1
1
n
F (a) = lm F (x)
xa+
xa
Definimos An = X a
xa
1
n
n N
Entonces Ai Ai+1 y
An = [X < a]
n=1
51
F
acil de probar.
An
P (X < a) = P
n=1
= lm P (An ) = lm F (a n1 )
x
xa
Corolario
La funci
on de distribucion de probabilidad de una variable aleatoria continua es continua.
La funci
on de distribucion de probabilidad acumulada de una variable
aleatoria continua es continua.
Definici
on: se llama funcion de densidad de probabilidad a toda funcion
f :RR
f (t) dt = 1
F (t)
0
en donde exista
en caso contrario
x
y F (x) =
f (t) dt
Definici
on percentil: sea X una variable aleatoria continua llamaremos percentil p: (p(100 %)) con p (0, 1) al valor p : F (p ) = p
52
y (p) =
si a > 0
si a < 0
Demostraci
on
exijo
Def
y (p)b
a
y (p)b
= Fx (x (p))
a
4.3.
Distribuci
on uniforme
si x a
0
xa
si x (a, b) con a < b
F (x) =
ba
1
si x b
Como F (x) no es diferenciable en x = a y x = b nos queda definida la
funci
on de distribuci
on de probabilidad como:
f (x) =
1
ba
si x (a, b)
en caso contrario
Notaci
on: X U (a, b)
Propiedad: sea X U (a, b) queremos hallar x (p) = p.(b a) + a
F (x (p)) =
x (p) a
x (p) = p.(b a) + a
ba
b+a
2
53
se define la mediana.
4.4.
Sea X una variable aleatoria continua con funcion de densidad de probabilidad f . Se define el valor esperado o valor medio o esperanza de X al valor
medio.
Notacion: E(x) =
Proposici
on: sea X una variable aleatoria continua con funcion de densidad
Definici
on: llamaremos varianza de X a E(x )2 , siempre que exista donde
= E(x) que denotaremos como V (x) = 2 y la desviacion estandar de X
como V (x).
Proposici
on: sea X una variable aleatoria con funcion de densidad f
V (x) = E(x2 ) E(x)2
E(a.x + b) = a.E(x) + b a, b R
V (a.x + b) = a2 .V (x) a, b R
Demostraci
on: Queremos ver que V (x) = E(x2 ) E(x)2
(x )2 .f (x) dx
V (x) = E (x ) =
h(x)
f (x) dx 2..
x .f (x) dx + .
= 1
2
= E(x ) + 2.
= E(x2 ) 2
54
x.f (x) dx
4.4.1.
y la V (x) =
1
12
Demostracion
E(x) =
x. f (x) dx =
x.f (x) dx =
x2
2
1
2
x3
3
|0 =
|0 =
= 1
E(x2 ) =
x2 .f (x) dx =
x2 . f (x) dx =
1
3
= 1
2
1
3
1
4
1
12
Proposicion
a < b sea Y = (b a).X + a con X U (0, 1) entonces:
Y U (a, b)
E(Y ) =
a+b
2
V (Y ) =
(ba)2
12
Demostraci
on:
Fy (y) = P (Y y) = P X
ya
ba
= Fx
ya
ba
ya
ba
1
. ba
Fy (y) = Fx
1
. ba
= fx
f (y) =
1
ba
ya
ba
si y (a, b)
en caso contrario
1
f (y) = I(a, b) (y). ba
Y U (a, b)
Luego como Y = (b a).x + a
E(x) =
1
2
V (x) =
1
12
ba
b+a
+a=
2
2
(b a)2
12
55
a2
4
Ejemplo
El tiempo que tarda en realizar un viaje ida y vuelta un camion, que transporta concreto hacia una obra en construccion, tiene una distribucion uniforme
en el intervalo de 50 a 70 minutos.
1. Cu
al es la probabilidad que la duracion del viaje sea mayor a 65 minutos
dado que la duraci
on ya paso lo 55 minutos?
1
ba
f (y) =
si y (a, b)
en caso contrario
0
1
20
f (x) =
si x (50, 70)
en caso contrario
P (X > 65) =
70
f (x)dx =
65
P (X > 55) =
70
f (x)dx =
55
dx
20
x 70
20 | 65
1
4
dx
20
x 70
20 | 55
3
4
a+b
2
2 = V (x) =
=
70+50
2
2
(ba)
12
V (x) =
= 60
=
202
12
= 33,33
33,33 = 5,7735
3. Suponga que los tiempos que tardan cada uno de los tres camiones son
independientes uno de otro. Cual es la probabilidad de que exactamente
uno de ellos tarde m
as de 55 minutos?
Defino una binomial: X B(n, p)
Donde X es el n
umero de camiones que tarda mas de 55 minutos.
P (E) = p =
3
4
X B 3, 34
Me pide calcular la P (X = 1) =
3
1
56
. 34 . 14
(31)
= 3. 34 .( 14 )2 = 0,1406
4.5.
Distribuci
on normal
Definici
on: diremos que una variable aleatoria X tiene distribucion normal
de par
ametros R y 2 > 0 si su funcion de densidad de probabilidad
est
a dada por:
(x)2
1
f (x) =
.e 22 x R
2 2
Es la variable aleatoria continua mas importante dentro de la probabilidad
y estadstica.
Notacion : X N (, 2 )
4.5.1.
Propiedades de la funci
on de densidad
Proposici
on
Sea X N (, 2 ) entonces:
1.
f (x) dx = 1
Prueba:
f (x)dx = 1
f (x)dx = 1
1
2 2
e(
21
2
obtengo f (t) =
57
=t
2 2
t2
2
Partimos de
2 2
t2
2
dt =
2 2
dt
1
=
2
t2
2
t2
2
dt.
y2
2
dy
1
=
2
t2 +y 2
2
dtdy
1
=
2
e
0
r 2
2
.r drd
(32)
1
2
(33)
=1
(34)
(33)
r 2
2
.r dr = e
r 2
2
1
2
e
=
(34)
1
2
d =
0
1
2
|0
.r drd
0 0
|0
r 2
2
lm e
1
= 2. 2
=1
58
r 2
2
+1=1
2. E(x) =
((t ) + ) .f (t) dt
E(x) =
(t ).f (t) dt +
1
=
2
1
2 2
e (
.e(
f (t) dt = 1
dt + .
f (t) dt
21
2
dt +
(36)
(37)
1
2
21
2
(37)
(36) Ya que
.f (t) dt
(t )
(35)
e(
21
2
dt = 0
59
3. V (x) = 2
V (x) = E(x )2
2
2.. 2
.e(
x 2
) 1/2
dx
2 y2
y2
.e 2 dy
2.
2
=
2.
(38)
y 2 .e
y2
2
dy
2
y2
y
2
=
y.e 2 | +
e 2 dy
2.
y2
1
e 2
= 2
2.
(39)
= 2
(38) Tomo y =
(39) y.e
y2
2
dy
dx
y
2
y e y2
| = lm
y
2
y e y2
+ lm
=0
5 Notaci
on:
Z N (0, 1)
60
4.5.2.
Estandarizaci
on
Sea X N (, 2 )
N (0, 1)
Demostraci
on: Sea Y =
Fy (y) = P [Y y]
x
y
=P
= P [x .y + ]
= Fx (.y + ) y R
Derivo y obtengo:
.fx (.y + ) = .
=
1
2 2
(.y+)2
2 2
2 .y 2
2
2
2
y2
e
=
y R
Y N (0, 1)
Estand.
b
a
= ( b
Luego P (a X b) = P a
Z
) ( )
donde es la funci
on de distribucion acumulada de Z.
Ejemplo
Sea Z N (0, 1) se pide:
1. P (Z 2) = (2) = 0,9772
2. P (Z 1,96) = 1 (1,96) = 1 0,9750 = 0,025
3. P (0 Z 1,73) = (1,73) (0) = 0,9582 0,5 = 0,4582
4. P (1,5 Z 1) = (1,5) (1) = 0,9332 0,8413 = 0,0919
5. P (1,5 Z 2,82) = (2,82) (1,5) = (2,82) (1 (1,5))
= 0,9976 1 + 0,9332
= 0,9308
61
Propiedad
Sea X N (, 2 ) y p (0,1) x (p) = .z (p) +
Demostraci
on
Estand.
p = Fx (x (p)) = P (X x (p)) = P Z
Luego z (p) =
x (p)
x (p)
x (p)
x (p) = .z (p) + .
Ejemplo
Los alambres que se utilizan en cierta computadora deben tener una resistencia (0,12 ; 0,14). Para cierta compa
na la resistencia de los alambres son producidos con una distribuci
on normal con una media de 0,13 y una desviacion
est
andar = 0,005 .
Se pide:
1. Cu
al es la probabilidad que un alambre producido en dicha compa
na
cumpla con las especificaciones?
P (0,12 X 0,14) = P
0,14 0,13
0,12 0,13
Z
0,005
0,005
(40)
= P (2 Z 2)
= (2) (1 (2))
= 2.(2) 1
= 0,9544
(40) Estandarizo.
2. Si se seleccionan 4 alambres para un sistema al azar Cual es la probabilidad
que los 4 cumplan con las especificaciones?
(0,9544)4 = 0,8297
3. Cu
al es la probabilidad de que exactamente una cumpla con las especificaciones?
Defino una binomial Y : Y B(4; 0,9544)
entonces me pide calcular P [Y = 1] =
62
4
1
P (|x | c) = 0,95
X
Estandarizo y obtengo: P
P (Z ) : =
4.6.
exijo
= 0,95
c
= 1,96 c = 1,96 = 0,0098
Distribuci
on Gamma
x1 ex dx > 0
() =
0
1. (1) = 1
2. ( + 1) = .()
3. (n + 1) = n! n N
Demostraci
on:
+
x11 .ex dx
(1) =
0
+
ex dx
=
0
= ex | 0
1
= lm x + 1
x e
=1
63
x1 .ex dx
() =
0
+
x.x2 .ex dx
0
+
x2 2 x
x
e
|0
2
x . x2 ex dx =
=0
+
1
( 2).
2
x2 x3 ex dx
0
2
2
(41)
x2 x2 ex dx
0
+
2 3 x
x x
x2 x2 ex dx
dx
0
()
(+1)
2
2
( + 1)
=
.() +
2
2
( + 1)
= (). 1 +
2
2
( + 1)
= .()
2
2
( + 1) = .()
(41) Entonces U =
x2
2
y V = ( 2).x3 ex ex x2
Por u
ltimo quiero ver que (n + 1) = n! n N
Prueba por inducci
on en n:
Si n = 0 (0 + 1) = (1) = 1 = 0! Vale
Tomo como hip
otesis inductiva que vale para n, id est: (n + 1) = n!
Veamos que ((n + 1) + 1) = (n + 1)!
(2)
H.I.
64
Definici
on: diremos que una variable aleatoria X tiene distribucion Gamma
de par
ametros y con (, > 0) si tiene funcion de densidad definida por:
1
().
f (x) =
.x1 .e
0
si x > 0
en caso contrario
Notacion: X (, )
Ahora probaremos que la integral de la funcion de densidad da 1
f (x) dx = 1
Id est:
Como la funci
on de densidad solo esta definida si x > 0
+
1
()
+
x
x1 e dx =
1
() 1 .
x1 e dx
0
1
().
.e dx
0
+
1
().
t1 et dt .
0
()
1
.()
=
()
=1
(42) Hago un cambio de variable llamando a: t =
65
(42)
xn f (x) dx
E(x ) =
xn .
x
x1
.e dx
().
n1
=
()
(n+)1
x
.e dx
0
n1
.
=
()
t(n+)1 .et dt
(43)
n .(n + )
=
()
(43) Hago un cambio de variables llamando a: t =
.( + 1)
()
= .
E(x) =
2 ( + 2)
2 2
()
.( + 1)()
= 2.
(a)
=
2 2
= 2 2 + 2 2 2 = 2
= 2
66
4.7.
Distribuci
on exponencial
Definici
on: diremos que X tiene distribucion exponencial de parametro
(con > 0) si su funci
on de densidad esta dada por:
.ex
0
f (x) =
4.7.1.
Distribuci
on exponencial vista como una Gamma
x
1
.e
Si X (1, ) f (x) =
Luego llamando =
4.7.2.
si x > 0
en caso contrario
si x > 0
en caso contrario
.ex si x > 0
0
en caso contrario
f (x) =
Propiedades de la distribuci
on exponencial
y la V (x) =
1
2
2. F (x) = P [X x] =
f (t) dt
Si x 0 F (x) = 0
x
.e.t dt
Si x > 0 F (x) =
0
= e.t | 0
= e.x + 1
Luego F (x) =
1 e.x
0
67
si x > 0
en caso contrario
P ((x t + t0 ) (x t0 ))
P (x t0 )
P (x t + t0 )
=
P (x t0 )
1 F (t + t0 )
=
1 F (t0 )
P (x t + t0 |x t0 ) =
1 (1 e(t+t0 ) )
1 (1 e.t0 )
e(t+t0 )
e.t0
.t
=e
=
= 1 (1 e.t )
= P (x t)
68
Distribuci
on 2
4.8.
Definici
on: diremos que una variable aleatoria X tiene distribucion 2 o
chi cuadrado de par
ametro , ( > 0) si su funcion de densidad es la de 2 , 2
Notacion: X 2 =
4.8.1.
,2
2
Propiedades de la distribuci
on 2
Sea X 2 =
1. E(x) =
2,2
vale que:
2 = y la V (x) = 2
2. Sea Z N (0, 1) Z 2 21 =
1
2, 2
Demostraci
on:
Si w 0 Fw (w) = P (Z 2 w) = P () = 0
Fw (w) = fw (w) = fz ( w)
1
1
fz ( w)
2 w
2 w
w
w
1
1
e 2 + e 2
=
2 w
2
w
2
w
e
1
e 2
=
=
w 2
w1/2 2
w
w1/2 w
w1/2
=
e 2 = 1/2 e 2
2
Luego si probamos ( 12 ) =
z 2 21
69
1
2
1
2.
z2
2
1=
fw (w) dw
(44)
0
1
2 2
= 1
22 .
w
2
1/2
ew/2 dw
(45)
1
=
2
2.t1/2 et dt
(46)
1
=
t1/2 et dt
0
( 21 )
1
2
70
w
2
5.
Distribuci
on de probabilidad conjunta
Sean X e Y dos variables aleatorias sobre un mismo espacio muestral S.
Definimos la funci
on de probabilidad conjunta de (x, y) como la funcion:
P : R2 [0, 1]
Dada por: P (x, y) = P ([X = x] [Y = y]) x, y R
A partir de la funci
on de probabilidad conjunta se puede hallar la funcion
de probabilidad de X e Y que se las conoce con el nombre de marginales.
Px (x) = P (X = x) = P ([X = x] [y [Y = y]])
= P (Y [X = x] [Y = y])
Disj
P ([X = x] [Y = y])
P (x,y)
P (x, y) x R
Px (x) =
Y
P (x, y) y R
5.1.
Funciones marginales
P (x, y) y R
Ejemplo
Se asignan aleatoriamente 2 contratos de construcciones para 3 empresas
posibles: A,B,C.
Sea X = N
umero de contratos asignados a la empresa A
Sea Y = N
umero de contratos asignados a la empresa B
Los valores posibles de X e Y son: 0, 1, 2.
S = {(A,A);(A,B);(A,C);(B,A);(B,B);(B,C);(C,A);(C,B);(C,C)}
Si todos los pares son igualmente posible entonces P ({w}) = 91 w S
Y
0
X
1
0
9
2
1
9
1
2
9
2
9
2
9
1
9
0
0
P (x, y) =
y=0
71
4
9
1
9
4
9
si x = 2
si x = 1 o x = 0
(matriz simetrica).
0 en caso contrario
Como tienen la misma distribucion entonces tienen la misma esperanza y
varianza.
Luego Py (y) = Px (x) =
P [Y = y] = 0
E(x) = E(y) =
y=0
E(x2 ) = E(y 2 ) =
P [Y = y] = 12
P [Y = y] =
y=0
y=1
8
9
5.2.
4
1
2
4
+1 +2 =
9
9
9
3
4
9
8
1
4
+ 22 =
9
9
9
4
9
Funci
on de densidad conjunta
Definici
on: sean X e Y variables aleatorias continuas sobre el mismo espacio
muestral S. Llamaremos funcion de densidad conjunta de (x, y) a la funcion
f : R2 R0
Tal que: P ((x, y) A) =
f (x, y) dxdy
(x,y) (x,y)
d b
f (x, y) dxdy
c a
Si A = R2 P (x, y) R2 =
f (x, y) dxdy = 1
f (x, y) dy x R
72
f (x, y) dx y R
Ejemplo
Sea X = Proporci
on de tiempo que esta ocupada la casilla de autos
Sea Y = Proporci
on de tiempo que esta ocupada la casilla de colectivos
Donde: f (x, y) =
k(x + y 2 ) si x, y [0, 1]
0
en caso contrario
1=
f (x, y) dxdy
k.(x + y 2 ) dxdy = k.
1=
0 0
0
1
1 = k.
0
1
2
+ y 2 dy
k=
Luego f (x, y) =
x2
2
y 2 x | 0 dy
|0 +
0
6
5
6
5
(x + y 2 )
0
si x, y [0, 1]
en caso contrario
Obtener la marginal de X:
Si x [0, 1] fx (x) =
f (x, y) dy = 0
=0
Si x [0, 1] fx (x) =
f (x, y) dy
6
=
5
x + y 2 dy
0
=
=
Luego fx (x) =
2
5 .(3x
73
+ 1)
..
.
2
. (3x + 1)
5
si x [0, 1]
en caso contrario
Obtener la marginal de Y:
Se obtiene de la misma manera que la marginal de x pero integrando sobre
x:
3
2
5 .(1 + y ) si y [0, 1]
fy (y) =
0
en caso contrario
Calcular la E(x) y la V (x)
E(x) =
x.fx (x) dx =
2
5
E(x2 ) =
x2 .fx (x) dx =
1
0
2
5
13
30
x.(1 + 3x) dx = 52 .[ 12 + 3. 13 ] =
1
0
3
5
= 0,6
x2 .(1 + 3x) dx = 52 .[ 13 + 3. 14 ] =
9
25
11
150
= 0,073
P ((x, y) A) =
f (x, y) dxdy = . . . =
0 0
7
640
= 0,010
Ejemplo
Sea f (x, y) =
k.x.y
0
si x, y [0, 1]
en caso contrario
74
:x+y 1y 1x
13
30
= 0,43
1=
f (x, y) dxdy
1 1y
k.x.y dxdy
0
1y
= k.
x dx dy
y
0
0
1
y.
= k.
(1 y)2
dy
2
k
2
1
2
1
4
2. 13 = 1
k
24
= 1 k = 24
Obtener la marginal de X
Si x [0, 1] fx (x) =
f (x, y) dy = 0
=0
Si x [0, 1] fx (x) =
f (x, y) dy
1x
1x
f (x, y) dy = 24.x.
0
Luego fx (x) =
y dy = 24.x. (1x)
2
12.x.(1 x)2
0
75
si x [0, 1]
en caso contrario
5.3.
Propiedad
Sean X e Y variables aleatorias sobre el mismo espacio muestral S entonces:
F (x, y) = P ([X x] [Y y]) = Fx (x).Fy (y) x, y R
Con Fx (x) y Fy (y) las funciones de distribucion acumuladas de X e Y respectivamente.
Corolario: Si X e Y son independientes
Si X e Y son variables aleatorias discretas con funcion de distribucion de
probabilidad conjunta P (x, y) entonces:
P (x, y) = Px (x).Py (y) x, y R
Si X e Y son variables aleatorias continuas con funcion de densidad de
probabilidad conjunta f (x, y) entonces:
f (x, y) = fx (x).fy (y) x, y R
Volviendo al ejemplo de los contratos
Y 0
X
1
0
9
2
1
9
1
2
9
2
9
2
9
1
9
0
0
1 4
4
=
9 9
81
X e Y no son variables aleatorias independientes.
En el ejemplo de los autos y camiones tampoco se cumple la independencia
6
ya que: 0 = f (0, 0) = fx (0) fy (0) = 25
P (2, 1) = 0 y Px (2) Py (1) =
Definiciones
Sean X1 , . . . , Xn variables aleatorias sobre S entonces:
76
1. Llamaremos funci
on de probabilidad conjunta de (X1 , . . . , Xn ) a
P (x1 , . . . , xn ) = P ([X1 = x1 ] . . . [Xn = xn ])
xi R : 1 i n cuando las variables aleatorias son discretas.
2. Llamaremos funci
on de densidad conjunta de (X1 , . . . , Xn ) a
bn
b1
...
P (x1 , . . . , xn ) =
a1
an
iI
iI
Entonces:
h(x, y).p(x, y)
si X e Y son discretas.
X Y
E(h(x, y)) =
=a
x
X
=a
P (x, y) + b
Y
y.P (x, y)
X
x.Px (x) +
X
y.Py (y)
Y
= a.E(x) + b.E(y)
77
5.4.
Covarianza
Cov(x, y) =
X
h(x,y)
x.y.P (x, y) y
x
X
P (x, y)
Y
=E(x.y)
Px (x)
E(x)=x
P (x, y) +x .y
x
P (x, y)
X
Py (y)
=1
E(y)=y
= E(x.y) y x x y + x y
= E(x.y) x y
5.4.1.
Propiedades de la covarianza
1. Cov(x, y) = E(x.y) x .y
2. Cov(x, x) = V (x)
3. Cov(a.x + b, c.y + d) = a.c.Cov(x, y) a, b, c, d R
4. V (a.x + b.y) = a2 .V (x) + b2 .V (y) + 2.a.b.Cov(x, y)
Demostraci
on 3:
Cov(a.x + b, c.y + d) = E ((a.x + b)(c.y + d)) E(a.x + b).E(c.y + d)
= E(a.c.x.y + a.d.x + b.c.y + b.d) (a.x + b).(c.y + d)
= a.c.E(x.y) + a.d.x + b.c.y + b.d
a.c.x .y a.d.x b.c.y b.d
= a.c [E(x.y) x .y ]
= a.c.Cov(x, y)
78
Demostraci
on 4:
V (a.x + b.y) = E((a.x + b.y)2 ) E(a.x + b.y)2
= E(a2 .x2 + b2 .y 2 + 2.a.b.x.y) (a.x + b.y )2
= a2 .E(x2 ) + b2 .E(y 2 ) + 2.a.b.E(x.y) [a2 .x + b2 .y + 2.a.b.x .y ]
= a2 .V (x) + b2 .V (y) + 2.a.b[E(x.y) x y ]
= a2 .V (x) + b2 .V (y) + Cov(x, y)
5.4.2.
(x.y).P (x, y)
X
ind
x.Px (x)
X
y.Py (y)
Y
= E(x).E(y)
79
Corolario
Si X e Y Son independientes Cov(x, y) = 0
Corolario
Si X e Y son independientes: V (a.x + b.y) = a2 .V (x) + b2 .V (y) a, b R
Ejemplo
Sean X e Y variables aleatorias discretas sobre S con funcion de probabilidad
conjunta dada por:
Y -1
X
1
-1
8
1
0
8
1
1
8
3
Py (y)
8
1
E(x) =
1
3
8
x.Px (x) = 38 +
Px (x)
1
8
1
8
1
8
1
8
3
8
3
8
2
8
3
8
0
1
8
2
8
=0
3
8
1
=
8
x.y.P (x, y)
E(x.y) =
x=1 y=1
5.5.
Definici
on de correlaci
on
6 (Puede
Cov(x, y)
: x es el desvo estandar de x.
x .y
no valer )
80
Proposici
on
Sean X e Y variables aleatorias sobre S entonces:
1. Corr(x, x) = 1
2. Corr(a.x + b, c.y + d) = Sg(a.c).Corr(x, y)
3. (x, y) 1
4. Si y = a.x + b Corr(x, y) = Sg(a)
Demostraci
on 2:
Cov(a.x + b, c.y + d)
a.x+b .c.y+d
a.c.Cov(x, y)
=
|a|.|c|.x .y
Cov(x, y)
a.c
.
=
|a||c|
x .y
Corr(a.x + b, c.y + d) =
(47)
(48)
(49)
= Sg(a.c).Corr(x, y)
(50)
0 E ((t x ) + (y y ))
= E t2 (x x )2 + (y y )2 + 2.t(x x )(y y )
= t2 E(x x )2 + E(y y )2 +2t E(x x )(y y )
2
x
y2
0 t2 x2 + y2 + 2t.Cov(x, y) t R
81
Cov(x,y)
c = y2
b = 2.Cov(x, y)
5.5.1.
Generalizaci
on
1. E
ai .xi
i=1
ai .E (xi )
i=1
2. V
ai .xi
i=1
=
i=1
a2i .V (xi ) + 2
ai .aj .Cov(xi , xj )
i<j
Demostracion 1
Prueba por inducci
on en la cantidad de terminos de la sumatoria.
Si n = 2 ya est
a probado.
n
Supongamos que E
ai .xi
ai .E (xi )
i=1
i=1
Veamos para n + 1:
n+1
ai .xi
=E
i=1
=E
ai .xi
i=1
n+1
H.I. =
ai .E (xi )
i=1
82
+ an+1 .E(xn+1 )
Demostracion 2
ai .xi
= Cov
i=1
ai .xi ,
aj .xj
i=1
n
j=1
Def
ai .aj .Cov(xi , xj )
i=1 j=1
n
a2i .V
i=1
(xi ) +
ai .aj .Cov(xi , xj )
a2i .V (xi ) + 2.
(51)
(i,j): i=j
i=1
ai .aj .Cov(xi , xj )
i<j:(i,j)
ai .xi
a2i .V (xi )
=
i=1
i=1
Proposicion
Sean X1 , . . . , Xn variables aleatorias independientes con distribucion normal
y {ai }ni=1 R entonces:
n
ai .xi N (, 2 ) donde =
i=1
ai .E(xi ) y 2 =
i=1
i=1
a2i .V (xi )
Consecuencia: Si X1 , . . . , Xn son variables aleatorias independientes e identicamente distribuidas 7 , con distribucion normal.
Id est: con E(xi ) = y V (xi ) = 2 i : 1 i n entonces:
n
X=
( n1 ).E(xi ) N (, n )
i=1
n
( n1 ).E(xi ) =
x =
i=1
x2 =
1
n .(
( n1 )2 . V (xi ) = n.
i=1
n.) =
2
n2
2
n
= 2
Ejemplo
Sean X e Y variables aleatorias independientes e idendicamente distribuidas
exp(1).
7 Definimos
esta condici
on como una muestra aleatoria: M.A.
83
Si X exp() fx (x) =
si x > 0
en caso contrario
En este caso = 1
ex
0
fx (x) =
si x > 0
en caso contrario
f (x, y) =
si x, y > 0
en caso contrario
Luego Fw (w) = P (W w) = P (X + Y w) =
f (x, y)dxdy
A
Donde A = {(x, y) : x + y w} = {(x, y) : y w x}
Si w < 0 Fw (w) =
f (x, y) dxdy = 0
A
=0
Si w > 0 Fw (w) =
indep
f (x, y) dxdy =
A
w wx
0
e(x+y) dydx
w
wx
ex ey | 0
Fw (w) =
dx
0
w
ex e(wx) + 1
dx
0
w
xw+x
dx +
ex dx
0
w
= e
0
w
x w
(x | 0 ) (e | 0 )
w
w
= w.e
+ 1 w > 0
Derivo y obtengo:
Fw (w) = fw (w)
= (ew ew .w) + ew
= w.ew w > 0 y 0 en caso contrario.
fw (w) =
w.ew
0
si w > 0
en caso contrario
W (2, 1)
Conclusi
on: la distribuci
on de la suma de variables aleatorias exponenciales
no necesariamente es una exponencial.
84
Ejemplo
Sean X1 , . . . , Xn una M.A. P oisson() entonces:
X1 + . . . + Xn P (1 + . . . + n )
Demostracion
Prueba por inducci
on en la cantidad de variables aleatorias n.
n = 2 : sean X e Y variables aleatorias Poisson de parametros 1 y 2
respectivamente.
Queremos hallar la distribucion de X+Y
X P (1 ) Px (x) = P [X = x] = e1
x1
: x {0, 1, 2, . . .} = Z0
x!
Y P (2 ) Py (y) = P [Y = y] = e2
y2
: y {0, 1, 2, . . .} = Z0
y!
x1 y2
x, y Z0
x!y!
Sea W = X + Y
Si w Z0 P [W = w] = 0
Si w Z0
P [W = w] = P [X + Y = w]
w
[X = x] [Y = w x]
=P
x=0
w
P (x, w x)
(52)
x=0
w
= e(1 +2 )
=
e(1 +2 )
w!
e(1 +2 )
w!
e(1 +2 )
=
w!
x1 wx
2
x!(w
x)!
x=0
w
w!x1 wx
2
x!(w
x)!
x=0
w
x=0
w
w!
x!(w x)!
w
x
(53)
x1 wx
2
x1 wx
2
x=0
e(1 +2 ) .(1 + 2 )w
=
w!
85
(54)
(52) Uni
on disjunta.
(53) Multiplico y divido por w!.
w
(54)
x=0
w
x
x1 wx
= (1 + 2 )w .
2
P [W = w] =
e(1 +2 ) .(1 +2 )w
w!
w Z0 W P (1 + 2 )
n
i
i=1
+ n+1
i=1
n+1
=P
(55)
i=1
5.6.
w
n w
2
Si n es suficientemente grande X N , n ( X
) n N (0, 1)
La aproximaci
on ser
a razonable si n 30
Observaci
on: las variables aleatorias pueden ser discretas o continuas.
86
5.7.
Aproximaci
on normal a una binomial
Xi =
si es exito (E)
si es fracaso (F)
E(x2i ) = p
E(xi ) = p
V (xi ) = p.q
n
xi B(n, p)
xi
Llamo p =
pp
p.q =
n
1
n
i=1
N p, p.q
n
T.C.L pp
p.q
n
N (0, 1)
xi n.p
p.q
i=1
xi n.p
n.p.q
i=1
Luego la P [X x] = P Z
xn.p
n.p.q
xn.p
n.p.q
x + 0,5 n.p
n.p.q
Ejemplo
Supongamos que una m
aquina produce el 10 % de artculos defectuosos.
Se procede a detener el funcionamiento de la maquina si por lo menos el
15 % son defectuosos.
Se toma una muestra aleatoria de 100 artculos de la produccion diaria. Cual
es la probabilidad que deba detener la maquina para ser reparada?
Sea X = n
umero de artculos defectuosos en la muestra
1
Luego X B 100, 10
P (X 15) = 1 P (X 14)
1
14 n.p
n.p.q
=1
14 10
3
= 1 (1,33)
= 1 0,9082
= 0,0918
87
Ejemplo
Sabemos que el tiempo de espera del colectivo tiene una distribucion uniforme por la ma
nana en el intervalo (0,4) y por la tarde (0,8) minutos y que
estos tiempos son independientes.
Cu
al es la probabilidad de que el tiempo total de espera en 40 das sea de
por lo menos tres horas y media?
N
Sea Wi = Xi + Yi : 1 i 40 me pide P
wi 210
i=1
Si X U (a, b) E(x) =
a+b
(b a)2
y la V (x) =
2
12
16
12
6,
64
12
20/3
40
80
12
20
3
=N
6,
= 2
1
6
Cu
antos das deberamos tomar de forma tal de asegurar con una probabilidad mayor al 99 % para garantizar que el tiempo total de espera sea
de por lo menos tres horas y media ?
n
exijo
wi 210
0,99 < P
i=1
0,99 < P (
i=1
wi
n
210
n )
2
Luego W N , n
210
P ( W ). n ( n ) n
P ( W ). n ( 210n.
)
n.
0,99 < 1
210n.
n.
210n.
n.
< 0,01
Llamando a =
210n.
n.
210n.
2,33
n.210
2,33
Ejemplo
El tiempo que tarda un empleado en procesar el pedido de cada cliente es
una variable aleatoria con media 1,5min y una desviacion estandar de 1 minuto.
Suponiendo que los tiempos que tarda en procesar n pedidos son independientes. Se pide:
1. Cu
al es la probabilidad aproximada de que se puedan procesar los pedidos
de 100 clientes en menos de dos horas?
Pasando en limpio tengo: x = 1,5 y x = 1 con n = 100
n
P
i=1
120
xi
n
n
= P X 1,20 : X N
x2
n
Estandarizo y obtengo:
P
1
Z 1,201,5
100
0,9 P
t0
n
. n
t0
n
1,5
. 100
1
t0
Llamando a: = ( 100
1,5).10
exijo
t0
1,5 .10 1,29
100
1,29
+ 1,5 .100
t0
10
t0 162,9
89
Ejemplo
Hallar la probabilidad aproximada para una variable aleatoria Poisson de
par
ametro 50 de tomar valores entre 35 y 70.
?
Xi
i=1
50
35
P (35 X 70) = P
50
=P
N 1, n1 Donde n = 50
i=1
Xi
i=1
35
50 1
1
50
50
70
50
X 1
1
50
70
50 1
1
50
= P (2,12 z 2,83)
= (2,83) (2,12) = (2,83) (1 (2,12))
= 0,977 1 + 0,9830 = 0,9807
90
6.
Estimaci
on puntual
Definici
on: sea X1 , . . . , Xn una muestra aleatoria con distribucion acumulada
que dependa de .
Se dice que = h(x1 , . . . , xn ) es un estimador para si es una variable
aleatoria y = + .
=
Definici
on: se dice que un estimador es insesgado para si: E()
Proposicion
Sea X1 , . . . , Xn una muestra aleatoria : E(x) = y la V (x) = 2 entonces:
1 = X es insesgado para
n
2 = S 2 =
(xi x)2
i=1
n1
es insesgado para 2
Demostraci
on:
(a) Si 1 = X es insesgado para E(1 ) =
E(1 ) = E X = E
n
i=1
(b) 2 = S 2 =
=
1
n1
1
n1
1
=
n1
xi
n
(xi x)2
i=1
n1
=
i=1
1
n .E(xi )
1
=
n1
=
i=1
1
n .
n
2
((xi ) (x ))
i=1
(xi )2 +
(x )2 2.n.(x ).
i=1
i=1
n
i=1
xi
n
(xi )2 n.(x )2
i=1
E 2 =
E(xi )2 n. E(x )2
n 1 i=1
V (xi = 2 )
V (x)= n
1
1
. n. 2 2 =
.(n 1). 2 = 2
n1
n1
91
Criterio de eleccion
Supongamos 1 y 2 son estimadores insesgados para debemos elegir el de
menor varianza.
Ejemplo
Sea X1 , . . . , Xn una muestra aleatoria Bernoulli de parametro p.
= X es un estimador insesgado para E(x) = p y E(x2 ) = p y la V (x) =
p.(1 p)
Sea X1 , . . . , Xn una M.A. U (0, ) X no es insesgado para
=
y la E(x) =
si x = 0
0 si x = 0
0
x
x n
si
x
(0,
)
(
)
si
x (0, )
Fx (x) =
F
(x)
=
1 si x
1
si x
f(x) = F(x) =
n.xn1
n
92
si x (0, )
en caso contrario
E(2 ) =
x.f2 (x) dx
n
= n
xn dx
0
n xn+1
= n
|
n+1 0
n n+1
= n
n+1
n.
= n N
=
n+1
2 No es insesgado para
Sea 3 = NN+1 2 3 Es un estimador insesgado para
Calculo la V (3 ) Para facilitar calculos calculamos la de 2 ya que es una
combinaci
on lineal de la que buscamos.
E((2 )2 ) =
x2 .f2 (x) dx
n
=
xn+1 dx
0
n xn+2
= n
n+2
n.2
=
n+2
V ((2 )2 ) = E((2 )2 ) E(2 )2 =
n. 2
n+2
n2 2
(n+1)2
V (3 ) = V
n+1
n
.V 2 =
93
|0
n. 2
(n+2)(n+1)2
n+1
.2
n
2
n.(n + 2)
Calculo la V (1 )
2
=
V (x) =
n
(ba)2
12
2
12n
n
Como b a =
2
2
= 3.n
Luego V (1 ) = 4.V (X) = 4. 12.n
Ahora comparamos para saber con que estimador nos quedamos
Partimos de n(n + 2) 3.n n N
Luego V (3 ) < V (1 ) n N
3 es mejor estimador que 1
Teorema
Si X1 , . . . , Xn es una muestra aleatoria con distribucion N , 2 entonces
V ()
V 3 =
2
n.(n+2)
V 3 =
(3 )2
n.(n+2)
Nota:
El estimador es una variable aleatoria Notacion: X
La estimaci
on es un valor Notacion: x
Sea X1 , . . . , Xn una M.A N (, 2 )
El estimador para x
Error est
andar de x
V (x) =
2
n
94
S
n
6.1.
M
etodos para la estimaci
on de los par
ametros de la
distribuci
on
Metodo de los momentos.
Metodo de m
axima verosimilitud.
6.1.1.
M
etodo de los Momentos
Definici
on: sea X1 , . . . , Xn una muestra aleatoria con distribucion F que
depende de par
ametros 1 , . . . , M .
Llamamos k-esimo momento poblacional a: E xk
n
i=1
xk
i
E(x) = x
x2i
E(x2 ) = i=1
n
Sistema de m ecuaciones =
..
..
.
=
.
x2i
i=1
k
E(x ) = n
Luego si 1 , . . . , M son soluciones del sistema de m ecuaciones diremos que
son los estimadores por el metodo de los momentos para 1 , . . . , M
Ejemplos
1. Sea X1 , . . . , Xn una M.A. U (0, )
= E(x) = X = 2.X
2
+ = E(x ) =
i=1
x2i
=x
n
i=1
x2i n.x2
n
(xi x)
=
i=1
n1
S2
n
Luego
y
Son E.M.M para y respectivamente.
E(
2 ) =
n1
2
n .E(S )
n1
n
Pero
si lo es para
95
xi
def
E(x) = X = p p =
i=1
E(x) = X =
=X
El estimador para el metodo de los momentos para
2
n
y la V (x) =
= E(x) = X
=
Luego
1
X
fx (x) =
.e.x
0
Es el E.M.M. para
si x > 0
en caso contrario
Luego P X > 0 = 1
96
1
2
6.1.2.
M
etodo de M
axima Verosimilitud
Descripci
on del metodo: sea X1 , . . . , Xn una M.A. con funcion de densidad
conjunta:
f (x1 , . . . , xn , 1 , . . . , n ) o funcion de probabilidad conjunta.
P (x1 , . . . , xn , 1 , . . . , n ) si es discreta.
Dependiendo si la muestra es de una variable aleatoria continua o una variable aleatoria discreta respectivamente.
Entonces 1 , . . . , n son los estimadores de maxima verosimilitud si para todo
1 , . . . , n
Si para cada
x = (x1 , . . . , xn )
f
x, f
x,
oP
x, P
x,
Rn
Donde = (1 , . . . , M ) y = 1 , . . . , M
Ejemplos
1. Sea X1 , . . . , Xn una M.A. P ()
k
recordando que P (X = k) = e k! k Z0
x = (x1 , . . . , xn ) Luego 1 = M = 1
P (x
, )
indeptes
P (xi , )
ident distr
e .
i=1
i=1
xi
= en. . n
xi !
xi
i=1
= H()
xi !
i=1
log (h()) = n. +
xi
. log() .n.
i=1
xi !
i=1
n.+
Derivo respecto de :
d
d
log (H()) =
i=1
xi
exijo
= 0
n. +
xi = 0 = X
i=1
Tengo que chequear que sea maximo es decir que la derivada segunda
respecto de sea negativa en el punto
n
d2
d.2
log (H()) =
xi
i=1
2
<0
= X Es el E.M.V para .
97
Y que E(x) =
.e.x
0
y la V (x) =
si x > 0
en caso contrario
1
2
Sea
x Rn
n
indeptes
Luego f (x
, )
fx (xi , )
i=1
.e
xi
si xi > 0i : 1 i n
en caso contrario
i=1
Si Xi > 0 i : 1 . . . n
n
f (x
, ) = .e
xi
i=1
Maximizar la funci
on es lo mismo que maximizar el: log(f (x
, ))
log(f (x
, )) = n.log()
xi = G()
i=1
G () =
1
n
xi = 0 n .
xi = 0 =
i=1
X
i=1
=
Como es un punto de maximo obtengo que
m
axima verosimilitud para
98
1
X
es el estimador de
f
x, =
fx (xi , )
i=1
n
=
i=1
1
2.. 2
e
n
(xi )2
i=1 22
n
2
(xi )2
2 2
= (2.. ) .e
(xi )2 =
i=1
((xi x) ( x))
i=1
n
(xi )2 +
i=1
(xi x)
i=1
=0
=
i=1
Volviendo reemplazo
y obtengo :
2
n
2
f
x, = (2.. ) .e
n
(xi x)2 +n.(x)2
i=1
2. 2
xi x2
2. 2
(2.. 2 ) 2 .e
n.(x)2
2. 2
Sabiendo que
. e
2
n.(x)2
2. 2
depende de
e0 = 1
n.(x)2
2. 2
=0=x
G ()2 = (2.. 2 ) 2 .e
99
n
i=1
xi x2
2. 2
(xi x)2
2. 2
Luego n2 log(2. 2 )
n2 log(2.)
n
2
n
i=1
(xi x)2
2. 2
log( 2 )
n
i=1
=0
(xi x)2
2. 2
d
d 2
log(G( 2 )) = 0
n 2 +
n
1
2 2
(xi x)2
i=1
(xi x)2
i=1
2 4
0=
2
n 1
2 2
(xi x)2
i=1
(xi x)2
f (x
, ) =
fx (xi , )
i=1
Donde fx (x) =
f (x
, ) =
1
n
1
n I(0,)
Donde IA (x) =
si xi (0, )i : 1 i n
en caso contrario
1
0
si x A
en caso contrario
xi 0
xi 0
I(0,) (mn xi ) = 0
I(0,) (max xi ) > 0
I(0,) (m
ax xi ) = 0 Para cada
x
f (x
, ) =
1
n xi )
n I(0,) (m
I(0,) (max xi )
1
n
Por u
ltimo si m
axxi f (x
, ) = 0
100
6.1.3.
1. Propiedad de invarianza
Sea X1 , . . . , Xn una muestra aleatoria con funcion de distribucion F (x
, ) :
n
es h
(xi x)2
(xi x)2
E.M.V = x, i=1
X
(p)
Estandarizo y obtengo P
(p)
(p) = . +
h(, 2 )
(xi x)2
101
E.M.V.
= .
i=1
+X
7.
7.1.
M
etodo general para obtener un IC para
=1
Ejemplo
Sea X1 , . . . , Xn una M.A. N (, 2 ) con 2 conocido.
Problema:
Hallar un IC de nivel (1 ) para =
XN
2
n
n N (0, 1)
h(x1 ,...,xn ,)
102
n 2
Figura 5: = X/2
2 X 2
n
n
X 2 X + 2
n
n
l(x1 ,...,xn )
U (x1 ,...,xn )
7.2.
2. .
. n N (0, 1)
n
103
si es conocido entonces:
H(x1 , . . . , xn , )
. n N (0, 1)
o lo mismo P (|S 2 2 | ) 1
n
Adem
as
X
S
. n N (0, 1)
1
1
n .E(x) = n .n.p = p
p.q
1
1
n2 .V (x) = n2 .n.p.q = n
p p
p.q
n
N (0, 1)
p.q
0
n
1
1
+ p. 2.
p 22 .
+ p2 0
n
n
104
p.q
n
2
p + 2 n1 + 2. 2
4.n2
2. 1 + 2 n1
2
es despreciable
Entonces IC se reduce a :
p.
q
n
p 2
1
4
8 Intervalo
de confianza tradicional.
105
1
n
2
Ejemplo
Sea X1 , . . . , Xn una M.A. P () con n suficientemente grande.
Obtener un IC de nivel aproximado (1 ) para
Nota Si X P () E(x) = V (x) =
Por T.C.L
N (0, 1)
n
h(x1 ,...,xn ,)
2
= X . n ( 2 . )2
2
= n. X + 2 2..X 22 .
2
IC =
+ 2.n.X 2 .
2.n
106
+ 4.n.X
7.3.
tad
Distribuci
on t de Student con n grados de liber-
X
S
n N (0, 1)
grados de libertad .
Notacion: T t
7.3.1.
Caractersticas de la t de Student
Figura 6: Gr
afico de la t-student con k grados de libertad
107
2.
(n1).S 2
2
. n = Z N (0, 1)
= Y 2n1
3. Z e Y independientes entonces :
X
. n
=
S2
2
(X ). n
tn1
S
108
p.
q
n
7.4.
(n 1) S 2
2n1
2
h(x1 ,...,xn , 2 )
2 ,n1
21 ,n1
2
( 2)
= 2(1 ),n1
Un IC de nivel (1 ) para 2 es :
2
(n1).S 2
, (n1).S
2 ,n1 2
Y para es:
(n1).S 2
,
2 ,n1
2
9 Importante
(1 2 ),n1
(n1).S 2
2
(1 2 ),n1
109
8.
Prueba de hip
otesis basada en una muestra
Llamaremos con al parameto poblacional.
Las hip
otesis que el investigador debe establecer son dos:
Hipotesis nula (H0 )
4
iiii
i
i
i
i
i
iiii
iiii
Tipos de hip
otesis
*
Hipotesis alternativa (Ha )12
8.1.
8.1.1.
Tipos de hip
otesis alternativas (Ha )
Regi
on de rechazo de la prueba (RR)
Son todos los valores del estadstico de prueba para el cual se rechaza la
hip
otesis nula.
Luego la H0 ser
a rechazada si el valor observado del estadistico de prueba
est
a en la regi
on de rechazo.
8.1.3.
Nivel de significancia
110
8.2.
1. Identificar el par
ametro de interes ().
2. Plantear las hip
otesis nulas y alternativas pertinentes.
3. Indicar el estadstico de prueba.
4. Obtener la regi
on de rechazo para un nivel de significancia : (RR ).
5. Evaluar el estadstico de prueba con los datos observados.
6. Tomar una decisi
on.
Si el valor observado esta en la RR diremos que se rechaza H0 con
un nivel de significancia .
En caso contrario diremos que no hay evidencia suficiente para rechazar H0 a un nivel de significancia .
8.3.
Prueba de hip
otesis para la media poblacional
Caso A: sea X1 , . . . , Xn una M.A. N (, 2 ) con conocido
H0 : = 0
Ha : = 0
Estadstico de prueba:
X0
. n N (0, 1) bajo H0 .
z1
z2
RR = {X 2 + 0 o X 2 + 0 }
n
n
= {z 2 o z 2 }
= {|z| 2 }
La funci
on es:
() = ( 2 + ( 0 ). n) ( 2 + ( 0 ). n) = 0
es simetrica en torno de id est: ( h) = ( + h) h R
lm () = lm+ () = 1
0
111
lm () = lm () = 0
( ) = ( 2 + ( 0
). n) ( 2 + ( ). n) = 0
( ) ( 2 + ( 0
). n) 0
+(
0
). n 1 (0 )
(0 + )
. n 0
+ 0
112
( 2 + 0 ).
0
. n
2
Resumen
Sea X1 , . . . , Xn una M.A. N (, 2 ) con conocido y H0 : = 0
0
. n N (0, 1) bajo H0
Estadstico de prueba: X
Fijado un nivel
Ha
RR
()
< 0
{z }
> 0
{z }
1 ( + ( 0 ) n)
( + ( 0 ). n)
= 0
{|z| 2 }
( + (
2
0
). n)
( + (
2
0
). n)
( ) 0
n
n
n
.( + ) 2
0
0
.( + ) 2
0
0
.( + ) 2
2
2
Por T.C.L. X N (, n ) X
. n N (0, 1)
. n N (0, 1) bajo H0
X 0
. n N (0, 1) bajo H0
X 0
S
. n N (0, 1) bajo H0
X 0
S
Luego la regi
on de rechazo para la prueba es la misma que la del
caso a.
n < 40 Entonces el estadstico de prueba va a ser :
X 0
S
. n tn1 bajo H0
113
K 0
0
RR = {x K } = {( x
). n}
S ). n = t (
S
= P (x K cuando = 0 )
x 0
K 0
. n
=P
. n
S
S
t
tn1
t = t,n1
= t t,n1
Ha
< 0
> 0
= 0
RR
{t t,n1 }
{t t,n1 }
{|t| t 2 ,n1 }
Ejemplo
Dos empresas distintas desean establecerse en cierta region y brindar servicios de televisi
on por cable. Se denota por p la proporcion de suscriptores
potenciales que prefieren la primera empresa sobre la segunda.
Se toma una muestra aleatoria de tama
no 25 para probar: H0 : p = 0, 5
contra Ha : p = 0, 5.
Se representa con X el n
umero de suscriptores en la muestra que esta a favor
de la primera empresa y con x el valor observado de X.
1. Cu
al de las siguientes regiones de rechazo es la mas adecuada?
R1 = {x : x 7 o x 18}
R2 = {x : x < 8}
R3 = {x : x > 17}
La m
as adecuada es R1 que corresponde a una Ha de dos colas.
2. Cu
al es la distribuci
on de probabilidad del estadstico de prueba X cuando
H0 es verdadera? Utilcela para calcular la probabilidad de error de tipo I
Mi estadstico de prueba va a ser X B(25; 0,5) bajo H0
P (error de tipo I) = P (x 7 x 18 cuando p = p0 )
= P (x 7 cuando p = p0 ) + P (x 18 cuando p = p0 )
= B(7; 25 : 0,5) + 1 P (x 17 cuando p = p0 )
= B(7; 25 : 0,5) + 1 B(17; 25; 0,5)
114
7 n.p0
n.p0 .q0
+1
17 n.p0
n.p0 .q0
= (2,2) + 1 (1,8)
= 0,0139 + 10,9641
= 0,0498
3. Calcule la probabilidad de error de tipo II para la region seleccionada
cuando p = 0, 3.
Repita lo mismo para p = 0, 4 ; p = 0, 6 y p = 0, 7.
17
n
k
.pk .q nk
k=8
p
0,3
0,4
0,6
0,7
(p)
0,488
0,845
0,845
0,488
(17,25, p) (7,25, p)
4. Mediante la regi
on seleccionada que concluye si 6 de los 25 individuos
favorecieron a la primera empresa?
115
8.4.
Prueba de hip
otesis para la varianza poblacional
S 2 K
02
02
= P (S 2 K cuando 2 = 02 )
2
= P ( (n1).S
(n1).K
)
2
2
0
RR = {2 2,n1 }
En sntesis
Ha
2 > 02
2 < 02
2 = 02
8.5.
RR
{2 2,n1 }
{2 21,n1 }
2
{ 2 ,n1 o 2 21 ,n1 }
2
Prueba de hip
otesis para la proporci
on poblacional
xi B(n, p)
Sabemos que:
i=1
Caso a: n peque
no, el estadstico de prueba va a ser:
n
xi B(n, p0 )
X=
i=1
Ha
p > p0
p < p0
p = p0
RR
{x : x K }
{x : x K }
{x : x K1 o x K2 }
Sea x Z0
x
Definimos B(x; n, p) =
k=0
n
k
.pk (1 p)nk
116
En el caso Ha : p < p0
P (error de tipo I) = P (X K cuando p = P0 )
= B(K ; n, p0 )
En el caso Ha : p = p0
P (error de tipo I) = P (X K1 : p = P0 ) + P (X K2 : p = P0 )
X N (n.p, n.p.q)
El estadstico de prueba va a ser:
X n.p
N (0, 1)
n.p.q
Xn.p0
n.p0 .q0
{z }
p < p0
{z }
p = p0
{|z| 2 }
( 2
N (0, 1) Bajo H0
(p)
p0 . q 0
p.q
p
n. p0p.q
)
p0 p
+ n. p.q )
. q0
1 - ( p0p.q
p0 p
p0 . q0
n. p.q ) + ( 2
p.q +
p0 . q 0
p.q
p
n. p0p.q
)
Ejemplo
(Extrado de libro Probabilidad y estadstica de Jay L. Devore).
Muchos consumidores estan volviendo a los medicamentos genericos como
una forma de reducir el costo de las medicaciones prescritas.
Se propoicionan los resultados de 102 medicos, de los cuales solo 47 de los
encuestados conocan el nombre generico para el farmaco metadona.
Proporciona lo anterior evidencia suficiente para concluir que menos de la
mitad de los medicos conocen el nombre generico para la metadona?
Lleve a cabo una prueba de hipotsis con un nivel de significancia 0,05.
= p proporci
on de medicos que conocen el nombre generico de la metadona.
Ha : p < 0,5 = P0
= 0,05
P (error de tipo I) = B(K ; 102; 0,5)
Caso B: Proporci
on
como n es suficientemente grande mi estadstico de prueba va a ser:
X n.p0
N (0, 1) Bajo H0
n.p0 .q0
117
1,64+1,65
2
= 0,645
47 102 0, 5
= 0,79 RR0,05
=
102 0,5 0,5
8.6.
P-Valor
Definici
on: llamaremos p valor o nivel de significancia alcanzado al menor
nivel de significancia a partir del cual rechazamos H0 con los resultados obtenidos
en la muestra.
p valor rechazo a un nivel a
Id est:
obs
obs
RR
Estadtico de prueba
Z
9.
Ha
cola superior
cola inferior
bilateral
cola superior
cola inferior
bilateral
p valor
P (Z obs )
P (Z obs )
2.P (Z |obs |)
P (T tobs )
P (T tobs )
2.P (T |tobs |)
118