Académique Documents
Professionnel Documents
Culture Documents
Fundamental
Definición Estadística
Frecuencia Absoluta
La frecuencia absoluta es la cantidad de veces que se repite cierto
evento o grupo de datos.
Frecuencia Relativa
La frecuencia relativa se basa en dividir la frecuencia absoluta en
el número de datos.
Frecuencia Acumulada
La frecuencia acumulada se basa en sumar la frecuencia absoluta
en orden.
Xmax=1.90
Xmin=1.60
m=5
500
400
300
200
100
0
0 1 2 3 4 5 6 7
Histograma
El eje vertical es la frecuencia y el eje horizontal los
grupos además el ancho de cada barra corresponde al
tamaño el grupo
Métodos Numéricos
∑ 𝑥𝑖 𝑓𝑖
Media Aritmética 𝑥̅ = ∑ 𝑓𝑖
Mediana: dato de la mitad de una distribución de datos.
Moda: Es el dato que se ve con más frecuencia.
Cuando los tres datos son distintos o hay una gran diferencia
entre ellos se presentan los tres datos, de otra forma cualquiera
sirve
Cuantiles
Los cuantiles son puntos tomados a intervalos regulares de la
función de distribución de una variable aleatoria.
Dentro de los límites de un cuantil debe haber la misma cantidad
de datos que en oros cuartiles.
Los cuartiles, que dividen a la distribución en cuatro partes.
Los quintiles, que dividen a la distribución en cinco partes.
𝑇𝑜𝑡𝑎𝑙 𝑑𝑎𝑡𝑜𝑠
𝐶𝑢𝑎𝑟𝑡𝑖𝑙 =
4
Desviación
Diferencia entre un dato medido y la media aritmética.
Medida de dispersión
𝑑𝑖 = 𝑥𝑖 − 𝑥̅
d1 será negativo
d2 será positivo
𝑑𝑖 = (𝑥𝑖 − 𝑥̅ )2
Elevarlo al cuadrado ayuda a evidenciar la dispersión de los
datos.
Coeficiente de Variación
El coeficiente de variación es adimensional por lo cual es útil
para comparar dos escalas diferentes.
𝑠
𝐶𝑉 = ∙ 100%
𝑥̅
Principios básicos de la teoría de la probabilidad
Espacio muestral
Dado un experimento se tiene solo una respuesta de las
múltiples dadas
ℑ: Sigma Algebraico
𝜙: Suceso Imposible Ω: Suceso Cierto
…………………………………………………………...
Se tienen 3 bolas de billar con un número cada una se
mesclan y se saca una bola.
Ω = {1,2,3}
ℑ = {∅, (1), (2), (3), (1,2), (1,3), (2,3), Ω}
…………………………………………………………...
Conjuntos
Espacio de probabilidad
Algebra de sucesos
𝐴, 𝐵 ∈ ℑ AB = A ∩ B si AB = 𝜙
𝐴, 𝐵 ∈ ℑ 𝐴⋃𝐵 𝑠𝑖 𝐴𝐵 = 𝜙 , 𝐴 ⊍ 𝐵
𝐴, 𝐵 ∈ ℑ A − B si AB = 𝜙 , 𝐴 − 𝐵 = 𝐴
𝐴, 𝐵 ∈ ℑ (𝐴 − 𝐵) ⊍ (𝐵 − 𝐴) = A∆B si AB = 𝜙 , 𝐴∆𝐵 =
𝐴⊍𝐵
𝐴 ∈ ℑ 𝐴𝑐 𝐴 = 𝜙 𝐴𝑐 ⊍ 𝐴 = Ω
Medida de Probabilidad
Sea (Ω, ℑ) un espacio medible se llama 𝑃(𝐴) para todo
𝐴 ∈ ℑ al número real tal que
Partición
Una partición es formar subconjuntos tal que la suma de
estos da Ω
𝐴1 + 𝐴2 + ⋯ + 𝐴𝑛 = Ω
𝐴1 ⊍ 𝐴2 ⊍ ⋯ ⊍ 𝐴𝑛 Los eventos solo ocurren en un
subconjunto
𝑃({𝑤1 } ⊍ {𝑤2 } ⊍ ⋯ ⊍ {𝑤𝑛 }) = ∑ 𝑃(𝑤𝑖 ) = 1
Suponga 𝑃(𝑤𝑖 ) = 𝑝 entonces 𝑛𝑝 = 1 → 𝑝 = 1⁄𝑛
𝑛 es la cantidad de respuestas equiprobable
…………………………………………………………
En una familia de 10 personas 5 cantan, 4 tocan piano y 3
cantan y tocan piano. ¿Qué probabilidad hay que al
escoger una persona esta:
1. Solo canta
2. No toca piano
3. Solo canta o solo toca piano
4. Ni canta ni toca piano
5. Canta o toca el piano
No importa el orden
Siendo n el número de elementos y r en número de
grupos, se tiene
(𝑛 )!
𝐶=
(𝑛 − 𝑟 )! (𝑟 ) !
……………………………………………………….
Combinar de a dos un grupo de 4 elementos.
(4)! (24)
= =6
(4 − 2)! (2)! (2)(2)
Combinar tríos de 4 elementos.
(4)! (24)
= =4
(4 − 3)! (3)! (1)(6)
………………………………………………………
Permutaciones
Si importa el orden
. ¿Cuántos grupos m se puede sacar de un conjunto de n?
(𝑛 )!
𝑃=
(𝑛 − 𝑟 )!
………………………………………………………
Combinación de parejas entre 4 personas
(#𝐸𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠)! (4 ) ! 24
= = = 12
(#𝐸𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 − #𝐺𝑟𝑢𝑝𝑜𝑠)! (4 − 2)! 2
………………………………………………………
Probabilidades, Combinaciones y Permutaciones
1
𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 =
# 𝑝𝑒𝑟𝑚𝑢𝑡𝑎𝑐𝑖𝑜𝑛𝑒𝑠
…………………………………………………………
Se quiere llamar a una persona pero no se tienen los tres
últimos dígitos. ¿Cuál es la probabilidad de marcar al azar
el número correcto?
45 números se escogen 6
(45)!
= 120
(45 − 6)! (6)!
1
Probabilidad 120 = 8.33 ∙ 10−3
…………………………………………………………
Probabilidades Condicionales
𝑃(𝐴𝐵)
𝑃 (𝐴 |𝐵 ) =
𝑃(𝐵)
𝑃(𝐴𝐵) = 𝑃(𝐵) − 𝑃(𝐴|𝐵)
…………………………………………………………..
Se toma una balota de la urna 1 y se deposita en la urna 2,
luego de revolver se saca una balota de la urna 2.
𝐴 Balota blanca
𝐻1 Se pasa de (1) balota blanca
𝐻2 Se pasa de (1) balota negra
Sucesos Excluyentes
Dos o más sucesos son mutuamente excluyentes si la
ocurrencia de uno imposibilita al otro. Así si A y B son
excluyentes, 𝑃(𝐴𝐵) = 0
𝑃(𝐴 + 𝐵) = 𝑃(𝐴) + 𝑃(𝐵)
Si no son excluyentes 𝑃(𝐴 + 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴𝐵)
…………………………………………………………
Si A es el suceso “sacar un as” y B es el suceso “sacar un
4
rey” al tomar una carta de una baraja, entonces 𝑃(𝐴) = 52
4
y 𝑃 (𝐵) = 52 la probabilidad de sacar un as o un rey al
tomar solo una carta es:
4 4 2
𝑃 (𝐴 + 𝐵 ) = 𝑃 (𝐴 ) + 𝑃 (𝐵 ) = + =
52 52 13
………………………………………………………..
……………………………………………………….
Si A es el suceso “sacar un as” y B es el suceso “sacar una
pica” al tomar una carta de una baraja, entonces A y B no
son mutuamente excluyentes, puesto que puede ser
extraído el as de picas.
4 13 1 4
𝑃(𝐴 + 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴𝐵) = + − =
52 52 52 13
………………………………………………………
Confiabilidad= 𝑅𝑆 = 𝑅1 ∙ 𝑅2
Se extraen cinco cartas de una baraja
𝐶44 ∙ 𝐶148 48 1
𝑃(4 𝑎𝑠𝑒𝑠) = 52 = =
𝐶5 2 598 960 54 145
𝐶44 ∙ 𝐶14 1
𝑃(4 𝑎𝑠𝑒𝑠 1 𝑟𝑒𝑦) = 52 = 649 740
𝐶5
𝐶34 ∙ 𝐶24 1
𝑃(3 𝑑𝑖𝑒𝑐𝑒𝑠 2 𝑗𝑜𝑡𝑎𝑠) = =
𝐶552 108 290
4 𝐶313 ∙ 3 𝐶213 429
𝑃(3 𝑐𝑢𝑎𝑙𝑞𝑢𝑒𝑟 𝑝𝑎𝑙𝑜 2 𝑜𝑡𝑟𝑜) = 52 =
𝐶5 4 165
𝐶448 ∙ 𝐶148 35 673
𝑃(𝑛𝑖𝑛𝑔𝑢𝑛 𝑎𝑠) = =
𝐶552 54 145
Supóngase que hay 𝑁 objetos de los cuales 𝐷 son
defectuosos. Una muestra aleatoria de tamaño 𝑛 se
selecciona sin reemplazo, y si dejamos que 𝑋 represente el
número de defectos en la muestra, entonces
𝐷 𝑁−𝐷
( )( )
𝑝 (𝑥 ) = 𝑥 𝑛 − 𝑥
𝑁
( )
𝑛
Supóngase N = 100 artículos, D = 5 artículos, y n = 4, de
modo que
5 100 − 5
( )( )
𝑝( 𝑥 ) = 𝑥 4−𝑥
100
( )
4
𝐸 (𝑥 + 𝑦) = 𝐸 (𝑥 ) + 𝐸(𝑦)
𝐸 (𝑥 + 𝑐 ) = 𝐸 (𝑥 ) + 𝑐
𝐸 (𝑎𝑥 + 𝑏𝑦) = 𝑎𝐸 (𝑥 ) + 𝑏𝐸 (𝑦)
Varianza
𝜎 2 = 𝑉𝑎𝑟(𝑥 ) = 𝐸 [(𝑥 − 𝜇)2 ] = ∑(𝑥𝑖 𝑝𝑖 )2 𝑝𝑖
𝑉𝑎𝑟(𝑐𝑥 ) = 𝑐 2 𝑉𝑎𝑟(𝑥)
Si son independientes
𝑉𝑎𝑟(𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑥 ) + 𝑉𝑎𝑟(𝑦)
𝑉𝑎𝑟(𝑋 − 𝑌) = 𝑉𝑎𝑟(𝑥 ) + 𝑉𝑎𝑟(𝑦)
𝑉𝑎𝑟(𝑥 + 𝑐 ) = 𝑉𝑎𝑟(𝑥)
Ejemplo
Sea X la variable que denota la suma de puntos obtenidos
al lanzar un par de dados. Entonces la distribución de
probabilidad viene dada por
Distribución de Bernoulli y Binomial
𝑋~𝐵𝑎𝑒𝑟𝑛𝑜𝑢𝑙𝑙𝑖(𝑝) 𝑃(𝑋 = 𝑥 ) = 𝑝 𝑥 (1 − 𝑝)1−𝑥
𝑥 solo es 0 ó 1
𝐸 (𝑥 ) = 0 (1 − 𝑝 ) + 1(𝑝 ) = 𝑝
𝐸 ( 𝑥 2 ) = 0 2 (1 − 𝑝 ) + 1 2 (𝑝 ) = 𝑝
𝑉𝑎𝑟(𝑥 ) = 𝑝 − 𝑝2 = 𝑝(1 − 𝑝)
Ejemplo
𝑋~𝐵𝑎𝑒𝑟𝑛𝑜𝑢𝑙𝑙𝑖(0.8)
𝐸(𝑥) = 0.8
𝑉𝑎𝑟(𝑥) = 0.16
Ejemplo
Si se tienen 3 éxitos en 4 intentos entonces 𝑝2 (1 − 𝑝)
Éxito 𝑥 = 1 𝑓(𝑥; 𝑝) = 𝑝
Fracaso 𝑥 = 0 𝑓(𝑥; 𝑝) = 𝑞
𝑥 = 𝑎 𝑓 (𝑥; 𝑝) = 0
Ejemplo
Lanzamiento moneda: cara
Posibles resultados 2
1
𝑝 probabilidad cara = 2 = 0.5
𝑞 probabilidad cruz 1 − 𝑝 = 0.5
𝑥 = 1 𝑓(1) = (0.5)1 (1 − 0.5)1−1 = 0.5
𝑥 = 0 𝑓 (0) = (0.5)0 (1 − 0.5)1−0 = 0.5
Ejemplo
Lanzamiento dado: 2
Posibles resultados 2
1
𝑝 probabilidad 2 = 6 = 0.167
𝑞 probabilidad ≠ 2 = 1 − 𝑝 = 0.833
𝑥 = 1 𝑓(1) = (0.167)1 (1 − 0.167)1−1 = 0.167
𝑥 = 0 𝑓(0) = (0.167)0 (1 − 0.167)1−0 = 0.833
Ejemplo
La probabilidad de meter un gol es del 80% si se lanzan 10
balones que probabilidad hay de:
Acertar 4 Acertar alguno
No acertar ninguno Acertar entre 3 y 6
𝑝 = 0.8 𝑞 = 0.2 𝑛 = 10
10 ( )4 (
𝑃 (𝑋 = 4) = ( ) 0.8 1 − 0.8)10−4 = 5.5 ∙ 10−3
4
6 − 𝑥̅ 3 − 𝑥̅
𝑃 (𝑧 ≤ ) − 𝑃 (𝑧 ≤ ) = 𝑃(𝑧 ≤ −1.58) − 𝑃(𝑧 ≤ −3.95)
𝜎 𝜎
→ [1 − 𝑃(𝑧 ≤ 1.58)] − [1 − 𝑃(𝑧 ≤ 3.95)] → uso de tablas→
→ [1 − 0.9429] − [1 − 1] = 0.0571
Distribución de Poisson
𝜆 Es la cantidad de eventos que ocurren rara vez, se
conoce
𝑥 Cantidad de sucesos de interés
Ejemplo
𝜆=1
𝑥 = 1 𝑐𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑑𝑒 𝑒𝑟𝑟𝑜𝑟𝑒𝑠 𝑝𝑜𝑟 𝑐𝑎𝑑𝑎 5 ℎ𝑜𝑗𝑎𝑠
𝜆0 𝑒 −𝜆
𝑃(𝑥 ≥ 1) = 1 − 𝑃(𝑥 = 0) = 1 − = 1 − 𝑒 −1 = 0.6321
0!
𝜆0 𝑒 −𝜆
𝑃 (𝑥 = 0) = = 𝑒 −2 = 0.135
0!
Función de Distribución Acumulada
Probabilidad de que tome valores a la izquierda de 𝑥
𝐹𝑥 (𝑥) = 𝑃(𝑋 ≤ 𝑥)
Propiedades
𝐹(𝑥2 ) = Probabilidad de estar a la izquierda de 𝑥2
Nos interesa saber 𝑃(𝑎 < 𝑥 ≤ 𝑏)
𝑃(𝑎 < 𝑥 ≤ 𝑏) = 𝐹𝑥 (𝑏) − 𝐹𝑥 (𝑎)
𝑑𝐹𝑥 (𝑥)
= 𝑓𝑥 (𝑥) = Función de densidad
𝑑𝑥
Propiedades
𝑓𝑥 (𝑥) ≥ 0
𝑃(𝑎 < 𝑥 ≤ 𝑏) = ∫ 𝑓𝑥 (𝑥) 𝑑𝑥 = 𝐹𝑥 (𝑏) − 𝐹𝑥 (𝑎)
∞
𝐸 (𝑥 𝑛 ) = ∫−∞ 𝑥 𝑛 𝑓𝑥 (𝑥) 𝑑𝑥
𝑉𝑎𝑟(𝑥) = 𝐸 (𝑥 𝑛 ) − 𝜇2
Ejemplo
1
𝑠𝑖 𝑎 < 𝑥 < 𝑏
Sea x una v.a.c. con 𝑓𝑥 (𝑥) = {𝑏−𝑎
0
𝑎 𝑏 ∞
1
∫ 𝑓𝑥 (𝑥) 𝑑𝑥 = ∫ 0 𝑑𝑥 + ∫ 𝑑𝑥 + ∫ 0 𝑑𝑥 = 1
−∞ 𝑎 𝑏−𝑎 𝑏
𝑏 𝑏
1 𝑎+𝑏
𝐸 (𝑥 ) = ∫ 𝑥 𝑓𝑥 (𝑥) 𝑑𝑥 = ∫ 𝑥 𝑑𝑥 =
𝑎 𝑎 𝑏−𝑎 2
(𝑏 − 𝑎 )2
𝑉𝑎𝑟(𝑥 ) =
12
Distribución Uniforme Continua
Ejemplo
𝑋~𝑈(0,1) 𝑎 = 0, 𝑏 = 1
1.
0 𝑥<0
1
𝑠𝑖 0 < 𝑥 < 1 𝑥−0
𝑓𝑥 (𝑥) = {1 − 0 𝐹𝑥 (𝑥) = { 0≤𝑥≤1
0 1−0
1 𝑥>1
0+1 (1 − 0)2
𝐸 (𝑥 ) = 𝑉𝑎𝑟(𝑥 ) =
2 12
2.
⁄2 1
1 1 1 1 1
𝑃 ( < 𝑥 < ) = ∫ 1 𝑑𝑥 = − =
4 2 1⁄ 2 4 4
4
1 1 1 1 1 1 1
𝑃 ( < 𝑥 < ) = 𝐹𝑥 ( ) − 𝐹𝑥 ( ) = − =
4 2 2 4 2 4 4
Distribución Normal I o de Probabilidades
Se necesitan tablas
Distribución Normal II, Normal Estándar
𝑥−𝜇
Sea 𝑥~𝑁(𝜇, 𝜎 2 ) entonces 𝑧 = ~𝑁(0,1)
𝜎
𝑧 ayuda a mover el eje de simetría y facilita el cálculo de
probabilidad, 𝑧 se llamará percentil. 𝑧 será el valor del área
a la derecha
Ejemplo
Hallar la probabilidad que en una distribución normal…
Sea 𝑥~𝑁(𝜇, 𝜎 2 )
𝑥−𝜇
𝑃(𝜇 − 𝜎 < 𝑥 < 𝜇 + 𝜎) → 𝑃 (−1 < < 1) =
𝜎
= 𝑃(−1 < 𝑧 < 1) = 0.6826
Hallar 𝑃(𝜇 − 2𝜎 < 𝑥 < 𝜇 + 2𝜎) = 𝑃(−2 < 𝑧 < 2) = 0.9544
Hallar 𝑃(𝜇 − 3𝜎 < 𝑥 < 𝜇 + 3𝜎) = 𝑃(−3 < 𝑧 < 3) = 0.9973
𝑃 (𝑧 > 𝑛) = 1 − 𝑃(𝑧 ≤ 𝑛)
Ejemplo
𝑥 =resistencia al rompimiento, 𝑁
𝑥~𝑁(𝜇 = 800, 𝜎 2 = 144)
Por lo tanto:
𝑃 (𝑧 < −0.82) = 𝑃(𝑧 > 0.82)
Por otra parte, la probabilidad que hay a partir de un valor
es igual a 1 (100%) menos la probabilidad acumulada
hasta dicho valor:
𝑃(𝑧 > 0.82) = 1 − 𝑃(𝑧 < 0.82) = 1 − 0.7939 = 0.2061
Luego, el 20,61% de la población tiene una renta inferior a
3 millones COP.
b) Renta a partir de la cual se sitúa el 10% de la población
con mayores ingresos.
Ejercicio
A un examen de oposición se han presentado 2.000
aspirantes. La nota media ha sido un 5.5, con una varianza
de 1.5.
a) Tan sólo hay 100 plazas. Usted ha obtenido un 7,7.
¿Sería oportuno ir organizando una fiesta para celebrar su
éxito?
Vamos a ver con ese 7,7 en qué nivel porcentual se ha
situado usted, para ello vamos a comenzar por calcular el
valor de la normal tipificada equivalente.
7.7 − 5.5
𝑧= = 2.1
1.049
A este valor de 𝑧 le corresponde una probabilidad
acumulada (ver tablas) de 0,98214 (98,214%), lo que
quiere decir que por encima de usted tan sólo se encuentra
un 1,786%.
Si se han presentado 2.000 aspirante, ese 1,786% equivale
a unos 36 aspirantes. Por lo que si hay 100 plazas
disponibles, tiene usted suficientes probabilidades como
para ir organizando la "mejor de las fiestas".
Ejemplo
𝑥−𝜇 𝜇
Sea 𝑥~𝑁(𝜇, 𝜎 2 ) entonces 𝑧 = 𝜎 ~𝑁(0,1) → 𝑧 = − 𝜎 +
1
𝑥
𝜎
Ejemplo
Un eje se ensambla con un cojinete
𝑥1 Diámetro del eje 𝑥1 ~𝑁(1.5,0.0016)
𝑥2 Diámetro del cojinete 𝑥2 ~𝑁(1.48,0.0009)
𝑌: 𝑥1 − 𝑥2 ~𝑁(𝜇, 𝜎 2 )
𝜇𝑦 = (1)(1.5) + (−1)(1.48) = 0.02
𝜎𝑦2 = (1)2 (0.0016) + (−1)2 (0.0009) = 0.0025
0 − 0.02
𝑃(𝑦 < 0) = 𝑃 (𝑧 < ) = 𝑃(𝑧 < −0.4) = 0.3446
0.05
Teorema central del límite
Ejemplo
Piezas se embarcan en cajas de a 250, 20 cajas es igual a un
lote, el camión usado para transportar no soporta más de
2510 kg. Calcular la probabilidad de llevar un lote
conociendo los pesos de las piezas, 1 lote tiene 5000
piezas
𝐸 (𝑥𝑖 ) = 0.5𝑘𝑔 𝜎 (𝑥𝑖 ) = 0.1𝑘𝑔
El peso del lote está dado por 𝑌 = ∑ 𝑥𝑖
𝜇𝑛 = (𝑛)𝐸(𝑥𝑖 ) = (5000)(0.5) = 2500𝑘𝑔
𝜎𝑛 = √𝑛𝜎(𝑥𝑖 ) = (√5000)(0.1) = 7.07𝑘𝑔
2510 − 2500
𝑃(𝑌𝑛 < 2510) = 𝑃 (𝑧𝑛 < ) = 𝑃(𝑧𝑛 < 1.41)
7.07
𝑃(𝑌𝑛 < 2510) = 0.0793 = 7.93%
La probabilidad de que el peso total no sea mayor a 2510
Teorema central del límite
El Teorema Central del Límite dice que si tenemos un
grupo numeroso de variables independientes y todas ellas
siguen el mismo modelo de distribución (cualquiera que
éste sea), la suma de ellas se distribuye según una
distribución normal.
Ejemplo
La variable "tirar una moneda al aire" sigue la distribución
de Bernouilli. Si lanzamos la moneda al aire 50 veces, la
suma de estas 50 variables (cada una independiente entre
sí) se distribuye según una distribución normal.
Este teorema se aplica tanto a suma de variables discretas
como de variables continuas.
Por lo tanto:
𝑃(𝑥 > 60) = 𝑃(𝑧 > 2.0) = 1 − 𝑃(𝑧 < 2.0) = 1 − 0.9772 = 0.0228
1 1
𝐸 (𝑥 ) = 𝑉𝑎𝑟(𝑥 ) =
𝜆 𝜆2
Observaciones:
1. En la definición de la variable aleatoria exponencial,
ésta se plantea como tiempo que tarda en ocurrir el primer
evento Poisson. Sin embargo, esta definición puede
hacerse extensiva a las demás unidades de medición
consideradas en los eventos de Poisson, por ejemplo,
cantidad de metros de carretera que deben recorrerse
hasta que aparezca el primer bache, cantidad de 𝑚2 que
deben inspeccionarse en una hacienda hasta que aparezca
el primer cafetal de broca, etc.
2. En el lenguaje de las aplicaciones también se utiliza la
distribución exponencial para modelar tiempo entre
eventos, distancia entre eventos, volumen entre eventos.
Ejemplo
Supóngase que la duración de los instrumentos
electrónicos 𝐷1 y 𝐷2 tienen distribuciones Exponenciales
así: 𝐷1 ~𝑒 1/40 ; 𝐷2 ~𝑒 1/45
¿Cuál se debe preferir para usarlo durante un periodo de
45 horas?
Debería preferirse aquel instrumento que de mayor
garantía de duración para un mínimo de tiempo como el
requerido, es decir, debe calcularse la probabilidad de que
el instrumento dure por lo menos 45 horas, en cada caso.
∞
1 −1
𝑃(𝐷1 ≥ 45) = ∫ 𝑒 40 𝑑𝑥 = 0.324652
45 40
∞
1 −1
𝑃 (𝐷2 ≥ 45) = ∫ 𝑒 45 𝑑𝑥 = 0.367879
45 45
Ejemplo
Sea 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 una muestra aleatoria de 𝑋~𝑁(𝜇, 𝜎 2 )
con 𝜇 y 𝜎 2 desconocido.
1 1
𝑥̅ = ∑ 𝑥𝑖 𝑠2 = ∑(𝑥𝑖 − 𝑥̅ )2
2 𝑛−1
𝜎2
𝐸 (𝑥̅ ) = 𝜇 𝑉𝑎𝑟(𝑥̅ ) =
𝑛
𝜎2 𝑥̅ −𝜇
Entonces 𝑋~𝑁 (𝜇, 𝑛 ) → 𝜎 ~𝑁(0,1)
√𝑛
𝜎
𝐸𝑟𝑟𝑜𝑟 𝐸𝑠𝑡á𝑛𝑑𝑎𝑟(𝑥̅ ) =
√𝑛
t de Student
Es una distribución de probabilidad que surge del
problema de estimar la media de una población
normalmente distribuida cuando el tamaño de la muestra
es pequeño.
𝑛
𝐸 (𝑡𝑛 ) = 0 𝜎 2 (𝑡𝑛 ) = 𝑛>2
𝑛−2
Teniendo la probabilidad 𝛼 y los grados de libertad se
busca el valor de 𝑡
Se define
1 1
𝑥̅1 = ∑ 𝑥1𝑖 𝑆12 = ∑(𝑥1𝑖 − 𝑥̅1 )2
𝑛 𝑛−1
1 1
𝑥̅ 2 = ∑ 𝑥2𝑖 𝑆22 = ∑(𝑥2𝑖 − 𝑥̅ 2 )2
𝑚 𝑚−1
2
𝑆12 𝑥( )
}
𝜎12 −1
2 ~𝐹(𝑛−1,𝑚−1)
𝑆22 𝑥( )
}
𝜎22 −1
Estimación de Parámetros
Suponiendo una variable aleatoria 𝑋 está normalmente
distribuida con media 𝜇 y varianza 𝜎 2
La media de la muestra 𝑋̅ es un estimador puntual de la
media desconocida 𝜇, de la población.
1
Es decir 𝜇̂ = 𝑛 ∑ 𝑥𝑖 = 𝑋̅ 𝐸 (𝑥̅ ) = 𝜇
2
De modo similar 𝑆 es un estimador puntual para una
varianza 𝜎 2 desconocida.
1 𝜎2
Es decir 𝜎̂ 2 = ∑(𝑥𝑖 − 𝑥̅ )2 = 𝑠 2 𝑉𝑎𝑟(𝑥̅ ) =
𝑛−1 𝑛
Ejemplo
Sea una población 𝑋~𝑁(𝜇 = 5, 𝜎 = 1.2) teóricamente se
desconoce 𝜇 y 𝜃
1
𝜇̂ = 𝑥̅ = ∑ 𝑥𝑖 = 5.0557
𝑛
2 2
1
𝜎̂ = 𝑆 = ∑(𝑥𝑖 − 𝑥̅ )2 = 2.405
𝑛−1
𝜎̂ = 𝑆 = 1.5508
Neutralidad o Insesgamiento
Sea 𝜃̂ una estimación puntual del parámetro 𝜃 donde en
una muestra aleatoria 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 es insesgada si
𝐸(𝜃̂) = 𝜃
Ejemplo
Sea 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 una muestra aleatoria de 𝑋~𝑁(𝜇, 𝜎 2 )
con 𝜇 y 𝜎 desconocido
1
𝜇̂ = ∑ 𝑥𝑖 = 𝑥̅
𝑛
1
𝐸 (𝜇̂ ) = 𝐸 (∑ 𝑥𝑖 ) = 𝜇 𝑒𝑠 𝑖𝑛𝑠𝑒𝑠𝑔𝑎𝑑𝑜
𝑛
𝐸 (𝜎̂ 2 ) = 𝜎̂ 2
Ejemplo
Se toman muchas muestras y se saca 𝜃̂ el dato que mas se
repita será muy cercano a 𝜃 y será insesgado.
Población 1, 2, 4, 6, 8 𝜇 = 4.2
Si no se conoce la población se toma una muestra
12 14 46 28 48 18
𝜇 = 1.5 𝜇 = 2.5 𝜇 = 5 𝜇 = 5 𝜇 = 6 𝜇 = 4.5
Las muestras deben tener igual tamaño 𝜇 𝑇 = 3.9
Neutralidad o Insesgamiento
Eficiencia
Si las distribuciones muéstrales de dos estadísticas tienen
la misma media o esperanza, la estadística que tenga
menor varianza se llama estimador eficiente de la media.
Ejemplo
Sea 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 una muestra aleatoria es 𝑋~𝑁(𝜇, 𝜎 2 )
con 𝜇 desconocido y 𝜎 2 conocido
Estimador 1
1 𝜎2
𝜇̂ 1 = 𝑥̅ = ∑ 𝑥𝑖 𝐸𝑀𝐶 (𝜇̂ 1 ) = 𝑉𝑎𝑟(𝑥̅ ) =
𝑛 𝑛
Estimador 2
𝜇̂ 2 = 𝑥1 𝐸(𝜇̂ 2 ) = 𝐸 (𝑥1 ) 𝐸𝑀𝐶(𝜇̂ 2 ) = 𝑉𝑎𝑟(𝑥1 ) = 𝜎 2
𝜎2
𝐸𝑀𝐶 (𝜇̂ 1 ) 1
𝐸𝑓𝑖𝑐𝑖𝑒𝑛𝑐𝑖𝑎 = = 𝑛2 =
𝐸𝑀𝐶 (𝜇̂ 2 ) 𝜎 𝑛
1
𝑛 es el tamaño de la muestra
𝑛 = 1 𝑖𝑔𝑢𝑎𝑙 𝑑𝑒 𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒
𝑛 > 1 𝑒𝑙 𝑑𝑒 𝑎𝑟𝑟𝑖𝑏𝑎 𝑒𝑠 𝑚𝑒𝑗𝑜𝑟
𝑛 < 1 𝑒𝑙 𝑑𝑒 𝑎𝑏𝑎𝑗𝑜 𝑒𝑠 𝑚𝑒𝑗𝑜𝑟
Eficiencia
La cota de Ras-Cramer
o
Estimador neutral de varianza mínima
Expresa una cota inferior para la varianza de un estimador
insesgado, basado en la información de Fisher.
1
𝑉𝑎𝑟(𝜃̂) > 2
𝑑
𝑛𝐸 (𝑑𝜃 𝑙𝑛(𝑓(𝑥, 𝜃)))
Donde 𝑓(𝑥, 𝜃) es la función de densidad de la población
𝑋~𝐷(𝜃) con 𝜃 desconocido
Ejemplo
Hallar la cota de Ras-Cramer para 𝑥̅ en una población
𝑋~𝑁(𝜇, 𝜎 2 ) con 𝜎 2 conocida
1 −1 𝑥−𝜇 2
[ ( ) ]
𝑓(𝑥, 𝜇) = 𝑒 2 𝜎
𝜎√2𝜋
𝑑 𝑥−𝜇
𝑙𝑛[𝑓 (𝑥, 𝜇)] → 𝑙𝑛(𝑓(𝑥, 𝜃)) =
𝑑𝜇 𝜎2
Luego
1 𝜎2
𝑉𝑎𝑟(𝑥̅ ) > =
𝑥−𝜇 2 𝑛
𝑛𝐸 ( 2 )
𝜎
Tomar 𝑥̅ para estimar 𝜇 es el mejor estimador insesgado.
Consistencia
Sea 𝜃̂𝑛 un estimador puntual de 𝜃 desconocido calculado
en muestra aleatoria de tamaño 𝜃̂𝑛 si es consistente
lim 𝑃 (|𝜃𝑛 − 𝜃| < 𝜀 ) = 1 𝜀 = 0.001
𝑛→∞
𝑉𝑎𝑟(𝑋̅) = 𝜎 2 ⁄𝑛
Ejemplo
Sea 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 una muestra aleatoria de 𝑋~𝑁(𝜇, 𝜎 2 )
𝑋̅ es un estimador consistente de la media de 𝑋~𝑁 (𝜇, 𝜎 2 )
El estimador 𝑋̅ = 𝜇 es consistente dado que
Ejemplo
Sea 𝑋 una variable aleatoria de Bernoulli. La función de
probabilidad es
𝑝(𝑥 ) = 𝑝 𝑥 (1 − 𝑝)1−𝑥
𝐿(𝑝) = ∏ 𝑝 𝑥𝑖 (1 − 𝑝)1−𝑥𝑖 = 𝑝∑ 𝑥𝑖 (1 − 𝑝)1−∑ 𝑥𝑖
1
El mejor estimador será 𝑝̂ = 𝑛 ∑ 𝑋𝑖
Ejemplo
Sea 𝑋~𝑁(𝜇, 𝜎 2 ) donde 𝜇 y 𝜎 2 se desconocen.
1
𝑚′1 = ∑ 𝑋𝑖 = 𝑋̅ 𝜇′1 = 𝐸 (𝑋) = 𝑝̂
𝑛
̅
𝑚′1 = 𝜇′1 → 𝑋 = 𝑝̂
𝑝(1 − 𝑝)
𝐸 (𝑝̂ ) = 𝑝 𝑉𝑎𝑟(𝑝̂ ) =
𝑛
Estimador por Intervalo
Sea 𝑥1 , ⋯ , 𝑥𝑛 una muestra aleatoria de 𝑋~𝐷(𝜃) con 𝜃
desconocido
Una estimación por intervalo es de la forma 𝜃1 ≤ 𝜃 ≤ 𝜃2
𝜃1 y 𝜃2 son aleatorios, si 𝑃(𝜃1 ≤ 𝜃 ≤ 𝜃2 ) = 1−∝ será un
intervalo de confianza
Ejemplo
Sea 𝑥1 , ⋯ , 𝑥𝑛 una muestra aleatoria de 𝑋~𝑁(𝜇, 𝜎 2 ) con
𝜇 desconocido y 𝜎 2 conocido se hace
1 𝜎2
𝜇̂ = ∑ 𝑥𝑖 = 𝑋̅~𝑁 (𝜇, )
𝑛 𝑛
𝜎
𝑋̅ ± 𝑍𝑜 𝑍𝑜 = 𝑍(𝛼⁄2) = −𝑍(𝛼⁄2)
√𝑛
𝜎 𝜎 2
𝐸𝑟𝑟𝑜𝑟 = 𝑍𝑜 → 𝑛 = (𝑍𝑜 )
√𝑛 𝐸
Ejemplo
Se toman 10 medidas de la conductividad 𝑋̅ = 41.92
41.60 41.48 42.34 41.95 41.86 42.18 41.72 42.26 41.81 42.04
𝑋~𝑁(𝜇, 𝜎 = 0.1)
Un intervalo de confianza del 95% para 𝜇
𝜎 0.1
𝑋̅ ± 𝑍𝑜 → 41.92 ± 1.96 → 41.92 ± 0.062
√𝑛 √10
→ (41.86 , 41.98)
Caso I
Se tiene 𝑋~𝑁(𝜇, 𝜎 2 ) con 𝜇 y 𝜎 2 desconocidos
Un intervalo de confianza del (1 − 𝛼 )100% para 𝜇
𝑋̅ −𝜇
Entonces tiene una distribución 𝑆⁄ ~𝑡(𝑛−1)
√𝑛
𝑆
𝑋̅ ± 𝑡𝑜 Usando la tabla se halla 𝑡𝑜
√𝑛
Ejemplo
Si se tienen los estimadores 𝑋̅ = 41.92 𝑆 2 = 0.08982
𝑆
𝑋̅ ± 𝑡𝑜 Usando la tabla se halla 𝑡𝑜
√𝑛
𝑆 0.0898
𝑋̅ ± 𝑡𝑜 → 41.92 ± 2.262 → 41.92 ± 0.064
√𝑛 √10
(41.856 , 41.984)
Caso II
Se tiene 𝑋~𝑁(𝜇, 𝜎 2 ) con 𝜇 y 𝜎 2 desconocido
Un intervalo de confianza del (1 − 𝛼 )100% para 𝜎 2
𝑆2
Entonces tiene una distribución (𝑛 − 1) 2 ~𝑥 2 (𝑛−1)
𝜎
Sacando lo estimadores 𝑋̅ = 41.92 𝑆 2 = 0.08982
(𝑛−1)𝑆 2
𝜎2 = ± 𝑥2 Usando la tabla se halla 𝑥 2 (𝑛−1,𝛼⁄
(𝑛−1,𝛼⁄2) 2)
Ejemplo
Si se tiene el estimador 𝑆 2 = 0.08982 con 𝑛 = 10
(𝑛−1)𝑆 2
𝜎2 = ± 𝑥2 Usando la tabla se halla 𝑥 2 (𝑛−1,𝛼⁄
(𝑛−1,𝛼⁄2) 2)
(𝑛 − 1)𝑆 2 (9)0.08982
± 2 →± 2 → (0.0038 , 0.0278)
𝑥 (𝑛−1,𝛼⁄ ) 𝑥 (𝑛−1,𝛼⁄ )
2 2
Caso III
Se usa para ver que tanto discrepan dos medias si solo se
conoce el tamaño de las muestras 𝑛 y sus varianzas 𝜎 2
Sea 𝑋1 ~𝑁(𝜇1 , 𝜎12 ) y 𝑋2 ~𝑁(𝜇2 , 𝜎22 )
𝜎2 𝜎2
Se tiene 𝑋̅1 ~𝑁 (𝜇1 , 1 ) y 𝑋̅2 ~𝑁 (𝜇2 , 2 )
𝑛1 𝑛2
𝜎 𝜎 2 2
Se quiere 𝑋̅1 − 𝑋̅2 ~𝑁 (𝜇1 − 𝜇2 , 1 + 2 )
𝑛1 𝑛2
𝜎 𝜎 2 2
(𝑋̅1 − 𝑋̅2 ) ± 𝑍𝑜 √ 1 + 2 Usando la tabla se halla 𝑍𝑜
𝑛 𝑛 1 2
Ejemplo
Construir un intervalo de confianza para 𝜇1 − 𝜇2
𝑋̅1 = 87.6 𝑋̅2 = 74.5 𝑛1 = 10 𝑛2 = 12 𝜎12 = 12 𝜎22 = 1.52
Ejemplo
Construir un intervalo de confianza para 𝜇1 − 𝜇2
𝑋̅1 = 87.6 𝑋̅2 = 74.5 𝑛1 = 10 𝑛2 = 12
Suponiendo son iguales con valores reales 𝑆12 = 12 𝑆22 = 1.52
(10 − 1)12 + (12 − 1)1.52
𝑆𝑝 = = 1.69
(10 − 1) + (12 − 1)
1 1
(87.6 − 74.5) ± (2.086)(1.69)√ + =
10 12
= 13.1 ± 1.51 → (11.59 , 14.61)
Caso V
Suponiendo que 𝜎12 ≠ 𝜎22 y desconocido
(𝑋̅1 −𝑋̅2 )−(𝜇1 −𝜇2 )
Se tiene una distribución ~𝑡(𝑣,𝛼⁄
2)
𝑆2 𝑆2
√ 1+ 2
𝑛1 𝑛2
Ejemplo
Encontrar un intervalo de confianza del 90% para 𝜇1 −
𝜇2
𝑋̅1 = 7 𝑋̅2 = 36 𝑛1 = 20 𝑛2 = 24 𝑆12 = 4 𝑆22 = 100
𝑣 = 25 𝑡(0.05,25) = 1.708
𝑆2 𝑆2
(𝑋̅1 − 𝑋̅2 ) ± 𝑡𝑜 √ 1 + 2 = (−32.56 , −25.43)
𝑛1 𝑛2
Caso VI
Sea 𝑋~𝐵𝑒𝑟𝑛𝑜𝑢𝑙𝑙𝑖(𝑝) con 𝑝 desconocido
Ejemplo
¿Qué proporción de familias tienen HBO con un
intervalo de confianza del 95%
340 de 500 personas tienen HBO
340
𝑝̂ = = 0.68
500
0.68(1 − 0.68)
0.68 ± 1.96√ = 0.68 ± 0.04 =
500
= (0.64 , 0.72)
Caso VII
Sea 𝑋1 ~𝐵𝑒𝑟𝑛𝑜𝑢𝑙𝑙𝑖(𝑝1 ) y 𝑋2 ~𝐵𝑒𝑟𝑛𝑜𝑢𝑙𝑙𝑖(𝑝2 ) con 𝑝1 y
𝑝2 desconocido. 𝑝1 − 𝑝2 será
(𝑝̂1 − 𝑝̂ 2 ) − (𝑝1 − 𝑝2 )
~𝑁(0,1)
𝑝1 (1 − 𝑝1 ) 𝑝2 (1 − 𝑝2 )
√ +
𝑛1 𝑛2
Un intervalo de confianza del (1 − 𝛼)100% para 𝑝1 − 𝑝2
𝑝̂1 (1 − 𝑝̂1 ) 𝑝̂ 2 (1 − 𝑝̂ 2 )
(𝑝̂1 − 𝑝̂ 2 ) ± 𝑍𝑜 √ +
𝑛1 𝑛2
Ejemplo
Se esta evaluando cambiar de proceso
En el proceso 1, 75 de los 1500 presentan defectos
En el proceso 2, 80 de los 2000 presentan defectos
Hallar un intervalo de confianza del 90% para 𝑝1 − 𝑝2
75 80
𝑝̂1 = = 0.05 𝑝̂ 2 = = 0.04
1500 2000
0.05(1 − 0.05) 0.04(1 − 0.04)
(0.05 − 0.04) ± 1.645√ +
1500 2000
= 0.01 ± 0.0117 = (−0.0017 , 0.0217)
No se descarta que puedan ser iguales ya que pasan por 0
Caso VIII
Sea 𝑋1 ~𝑁(𝜇1 , 𝜎12 ) y 𝑋2 ~𝑁(𝜇2 , 𝜎22 ) con 𝜎12 y 𝜎22
desconocidos se quiere saber 𝜎12 ⁄𝜎22
𝜎22 𝑆12
~𝐹(𝛼⁄2,𝑛2 −1,𝑛1−1 )
𝜎12 𝑆22
𝑆12 𝜎12 𝑆12
𝐹 ≤ ≤ 𝐹
𝑆22 (1−(𝛼⁄2),𝑛2−1,𝑛1 −1 ) 𝜎22 𝑆22 (𝛼⁄2,𝑛2−1,𝑛1 −1 )
Tener presente que
1
𝐹(1−(𝛼⁄2),𝑛2−1,𝑛1 −1 ) =
𝐹(𝛼⁄2,𝑛2−1,𝑛1 −1 )
Ejemplo
Se comparan dos catalizadores con un intervalo del 90%
𝑛1 = 12 𝑛2 = 15 𝑆1 = 0.85 𝑆2 = 0.98