Vous êtes sur la page 1sur 132

Probabilidad y Estadística

Fundamental
Definición Estadística

An engineer is someone who solves problems of interest to


society by the efficient application of scientific principles.
Engineers accomplish this by either refining an existing product
or process or by designing a new product or process that meets
customers’ needs. The engineering, or scientific, method is the
approach to formulating and solving these problems.
The steps in the engineering method are as follows:
1. Develop a clear and concise description of the problem.
2. Identify, at least tentatively, the important factors that affect
this problem or that may play a role in its solution.
3. Propose a model for the problem, using scientific or
engineering knowledge of the phenomenon being studied. State
any limitations or assumptions of the model.
4. Conduct appropriate experiments and collect data to test or
validate the tentative model or conclusions made in steps 2 and
3.
5. Refine the model on the basis of the observed data.
6. Manipulate the model to assist in developing a solution to the
problem.
7. Conduct an appropriate experiment to confirm that the
proposed solution to the problem is both effective and efficient.
8. Draw conclusions or make recommendations based on the
problem solution.
The field of statistics deals with the collection,
presentation, analysis, and use of data to make decisions,
solve problems, and design products and processes.
Because many aspects of engineering practice involve
working with data, obviously some knowledge of statistics
is important to any engineer. Specifically, statistical
techniques can be a powerful aid in designing new
products and systems, improving existing designs, and
designing, developing, and improving production
processes.

They provide ways of gaining new insights into the


behavior of many phenomena that you will encounter in
your chosen field of specialization in engineering or
science.
The discipline of statistics teaches us how to make
intelligent judgments and informed decisions in the
presence of uncertainty and variation. Without uncertainty
or variation, there would be little need for statistical
methods or statisticians.

Statistics is a branch of mathematics that has applications


in almost every facet of your daily life. It is a new and
unfamiliar language for most people, however, and, like
any new language, statistics can seem overwhelming at
first glance. But once the language of statistics is learned
and understood, it provides a powerful tool for data
analysis in many different fields of application.
The basic idea behind all statistical methods of data
analysis is to make inferences about a population by
studying a relatively small sample chosen from it.

Here are some specific questions that the engineer might


need to answer on the basis of these sample data:
1. The engineer needs to compute a rough estimate of the
likely size of the difference between the sample
proportion and the population proportion. How large is a
typical difference for this kind of sample?
2. The quality engineer needs to note in a logbook the
percentage of acceptable rods manufactured in the last
hour. Having observed that 92% of the sample rods were
good, he will indicate the percentage of acceptable rods in
the population as an interval of the form 92% ± x%,
where x is a number calculated to provide reasonable
certainty that the true population percentage is in the
interval. How should x be calculated?
3. The engineer wants to be fairly certain that the
percentage of good rods is at least 90%; otherwise he will
shut down the process for recalibration. How certain can
he be that at least 90% of the 1000 rods are good?
Variable
Una característica, propiedad o atributo observable que
medimos. Ej: Estatura, Edad, Ingresos, Transacciones.
Constructo o variable latente
Variable no observable. Concepto teórico que no se puede medir
directamente. Ej: Inteligencia, Felicidad, PIB.
Individuo o unidad estadística
Los objetos o entidades a los que les pertenecen las variables.
Objetos o entidades a los que se les mide directa o
indirectamente las características, propiedades o atributos de
interés. Ej: Persona, Animal, Empresa, Año.
Población
Conjunto de todos los posibles individuos o unidades
estadísticas de intereses a los cuales se les podría obtener sus
características, propiedades o atributos (sus valores para la(s)
variable(s)). Ej: Empresas textiles que tuvieron exportaciones en
los últimos cinco años.
Muestra
Subconjunto de individuos o unidades estadísticas de la
población.
Estadística descriptiva
Describir, presentar, resumir un conjunto de datos.
Estadística inferencial
Sacar conclusiones sobre la población a partir de lo que se
observa en la muestra (toma de decisión, predicción,
conclusiones).
Probabilidad
Formalización matemática que busca de unir y medir la
incertidumbre (aleatoriedad).
Distribución de frecuencias
La distribución de frecuencias permite ordenar y clasificar los
valores para observar frecuencias.

Frecuencia Absoluta
La frecuencia absoluta es la cantidad de veces que se repite cierto
evento o grupo de datos.

Frecuencia Relativa
La frecuencia relativa se basa en dividir la frecuencia absoluta en
el número de datos.

Frecuencia Acumulada
La frecuencia acumulada se basa en sumar la frecuencia absoluta
en orden.

Frecuencia Relativa Acumulada


La frecuencia relativa acumulada se basa en sumar la frecuencia
relativa en orden.

Se tiene un grupo de familias (1500) y se mide la variable de hijos.


Distribuciones por clases

 Buscar el dato mínimo y el máximo


 Para encontrar la cantidad de grupos (m) se siguen unas
reglas
 Escoger entre 5 a 15 grupos si es impar mejor
 𝑚 = √𝑛 donde 𝑛 es la cantidad de datos
 Sturges 𝑚 = 1 + 3.322 log10 (𝑛)
𝑥 −𝑥
 La amplitud (a) será 𝑎 = 𝑚𝑎𝑥 𝑚𝑖𝑛
𝑚

Se tiene un grupo al que se mide la estatura.

Xmax=1.90
Xmin=1.60
m=5

𝑋𝑚𝑎𝑥 − 𝑋𝑚𝑖𝑛 1.90 − 1.60


𝑎= = = 0.06
𝑚 5
Representación tabular de una variable Nominal

Representación tabular de una variable Ordinal


Representación tabular de una variable de intervalo

Representación tabular de una variable de razón


Representaciones Gráficas

Por convención en el eje horizantal van los datos


constantes y en el eje vertical los datos variables

500
400
300
200
100
0
0 1 2 3 4 5 6 7

Histograma
El eje vertical es la frecuencia y el eje horizontal los
grupos además el ancho de cada barra corresponde al
tamaño el grupo
Métodos Numéricos

∑ 𝑥𝑖 𝑓𝑖
Media Aritmética 𝑥̅ = ∑ 𝑓𝑖
Mediana: dato de la mitad de una distribución de datos.
Moda: Es el dato que se ve con más frecuencia.

Cuando los tres datos son distintos o hay una gran diferencia
entre ellos se presentan los tres datos, de otra forma cualquiera
sirve

Cuantiles
Los cuantiles son puntos tomados a intervalos regulares de la
función de distribución de una variable aleatoria.
Dentro de los límites de un cuantil debe haber la misma cantidad
de datos que en oros cuartiles.
Los cuartiles, que dividen a la distribución en cuatro partes.
Los quintiles, que dividen a la distribución en cinco partes.

𝑇𝑜𝑡𝑎𝑙 𝑑𝑎𝑡𝑜𝑠
𝐶𝑢𝑎𝑟𝑡𝑖𝑙 =
4
Desviación
Diferencia entre un dato medido y la media aritmética.

Medida de dispersión

𝑑𝑖 = 𝑥𝑖 − 𝑥̅

d1 será negativo
d2 será positivo

𝑑𝑖 = (𝑥𝑖 − 𝑥̅ )2
Elevarlo al cuadrado ayuda a evidenciar la dispersión de los
datos.

Media: ∑ 𝑑𝑖2 𝑓𝑖 = ∑ 𝑓𝑖 (𝑥𝑖 − 𝑥̅ )2 > 0


∑ 𝑓𝑖 (𝑥𝑖 −𝑥̅ )2 ∑ 𝑓𝑖 (𝑥𝑖 −𝑥̅ )2
Varianza: 𝑠 2 = →𝑠=√
∑ 𝑓𝑖 ∑ 𝑓𝑖

Si ∑ 𝑓𝑖 (𝑥𝑖 − 𝑥̅ )2 es grande hay más datos que no se


parecen a la media
Tiene la desventaja que las unidades quedarían al cuadrado
sin embargo se puede solucionar usando la raíz.

Coeficiente de Variación
El coeficiente de variación es adimensional por lo cual es útil
para comparar dos escalas diferentes.
𝑠
𝐶𝑉 = ∙ 100%
𝑥̅
Principios básicos de la teoría de la probabilidad

Espacio muestral
Dado un experimento se tiene solo una respuesta de las
múltiples dadas

Ω = {𝑤1 , 𝑤2 , ⋯ , 𝑤𝑛 } Espacio muestral

ℑ: Sigma Algebraico
𝜙: Suceso Imposible Ω: Suceso Cierto

Espacio medible: A la pareja de espacio muestral y sigma


algebraic
Espacio muestral: Objetivo Sigma Algebraico: Subjetivo

…………………………………………………………...
Se tienen 3 bolas de billar con un número cada una se
mesclan y se saca una bola.

El espacio muestral será 3

Ω = {1,2,3}
ℑ = {∅, (1), (2), (3), (1,2), (1,3), (2,3), Ω}
…………………………………………………………...
Conjuntos
Espacio de probabilidad

Algebra de sucesos
 𝐴, 𝐵 ∈ ℑ AB = A ∩ B si AB = 𝜙
 𝐴, 𝐵 ∈ ℑ 𝐴⋃𝐵 𝑠𝑖 𝐴𝐵 = 𝜙 , 𝐴 ⊍ 𝐵
 𝐴, 𝐵 ∈ ℑ A − B si AB = 𝜙 , 𝐴 − 𝐵 = 𝐴
 𝐴, 𝐵 ∈ ℑ (𝐴 − 𝐵) ⊍ (𝐵 − 𝐴) = A∆B si AB = 𝜙 , 𝐴∆𝐵 =
𝐴⊍𝐵
 𝐴 ∈ ℑ 𝐴𝑐 𝐴 = 𝜙 𝐴𝑐 ⊍ 𝐴 = Ω

Medida de Probabilidad
Sea (Ω, ℑ) un espacio medible se llama 𝑃(𝐴) para todo
𝐴 ∈ ℑ al número real tal que

 𝑃(𝐴) ≥ 0 El número que le corresponde no puede ser


negativo.
 𝑃(Ω) = 1 Como siempre ocurre el valor que se le da es 1.
 𝐴1 , 𝐴2 , ⋯ , 𝐴𝑛 ∈ ℑ tales que A, 𝐴𝑛 = 𝜙 entonces
 𝑃(𝐴1 ⊍ 𝐴2 ⊍ 𝐴3 ) = ∑ 𝑃(𝐴𝑖 )
Consecuencias

 𝐴 ⊍ 𝜙 = 𝐴 → 𝑃(𝐴 ⊍ 𝜙) = 𝑃(𝐴) → 𝑃(𝐴) + 𝑃(𝜙) = 𝑃(𝐴)


𝑃(𝜙) = 0
 𝐴 ⊍ 𝐴𝑐 = Ω → 𝑃(𝐴 ⊍ 𝐴𝑐 ) = 𝑃(Ω) → 𝑃(𝐴) + 𝑃(𝐴𝑐 ) = 𝑃(Ω)
 𝐴 = (𝐴 − 𝐵) ⊍ 𝐴𝐵 → 𝑃(𝐴) = 𝑃[(𝐴 − 𝐵) ⊍ 𝐴𝐵] → 𝑃(𝐴) =
𝑃(𝐴 − 𝐵) + 𝑃(𝐴𝐵)
𝑃(𝐴 − 𝐵) = 𝑃(𝐴) − 𝑃(𝐴𝐵)
 𝑃(𝐴 ⊍ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴𝐵)
 𝑃(𝐴∆𝐵) = 𝑃 (𝐴) + 𝑃(𝐵) − 2𝑃(𝐴𝐵)

Se debe saber A, B y la aparición conjunta

Partición
Una partición es formar subconjuntos tal que la suma de
estos da Ω

𝐴1 + 𝐴2 + ⋯ + 𝐴𝑛 = Ω
𝐴1 ⊍ 𝐴2 ⊍ ⋯ ⊍ 𝐴𝑛 Los eventos solo ocurren en un
subconjunto
𝑃({𝑤1 } ⊍ {𝑤2 } ⊍ ⋯ ⊍ {𝑤𝑛 }) = ∑ 𝑃(𝑤𝑖 ) = 1
Suponga 𝑃(𝑤𝑖 ) = 𝑝 entonces 𝑛𝑝 = 1 → 𝑝 = 1⁄𝑛
𝑛 es la cantidad de respuestas equiprobable
…………………………………………………………
En una familia de 10 personas 5 cantan, 4 tocan piano y 3
cantan y tocan piano. ¿Qué probabilidad hay que al
escoger una persona esta:
1. Solo canta
2. No toca piano
3. Solo canta o solo toca piano
4. Ni canta ni toca piano
5. Canta o toca el piano

𝑃(𝐴) = 5⁄10 = 0.5 𝑃(𝐵) = 4⁄10 = 0.4 𝑃(𝐴𝐵) = 3⁄10 = 0.3

𝑃(𝐴 − 𝐵) = 𝑃(𝐴) − 𝑃(𝐴𝐵) = 0.5 − 0.3 = 0.2


𝑃(𝐵 𝑐 ) = 1 − 𝑃(𝐵) = 1 − 0.4 = 0.6
𝑃(𝐴 ⊍ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴𝐵) = 0.5 + 0.4 − 0.3 = 0.6
𝑃[(𝐴 ⊍ 𝐵)𝑐 ] = 1 − 𝑃(𝐴 ⊍ 𝐵) = 1 − 0.6 = 0.4
𝑃(𝐴∆𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 2𝑃(𝐴𝐵) = 0.5 + 0.4 − 2(0.3) = 0.3
…………………………………………………………
Combinatoria

No importa el orden
Siendo n el número de elementos y r en número de
grupos, se tiene
(𝑛 )!
𝐶=
(𝑛 − 𝑟 )! (𝑟 ) !
……………………………………………………….
Combinar de a dos un grupo de 4 elementos.
(4)! (24)
= =6
(4 − 2)! (2)! (2)(2)
Combinar tríos de 4 elementos.
(4)! (24)
= =4
(4 − 3)! (3)! (1)(6)
………………………………………………………

Permutaciones

Si importa el orden
. ¿Cuántos grupos m se puede sacar de un conjunto de n?
(𝑛 )!
𝑃=
(𝑛 − 𝑟 )!
………………………………………………………
Combinación de parejas entre 4 personas
(#𝐸𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠)! (4 ) ! 24
= = = 12
(#𝐸𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 − #𝐺𝑟𝑢𝑝𝑜𝑠)! (4 − 2)! 2
………………………………………………………
Probabilidades, Combinaciones y Permutaciones

1
𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 =
# 𝑝𝑒𝑟𝑚𝑢𝑡𝑎𝑐𝑖𝑜𝑛𝑒𝑠
…………………………………………………………
Se quiere llamar a una persona pero no se tienen los tres
últimos dígitos. ¿Cuál es la probabilidad de marcar al azar
el número correcto?

Número de datos 10 Permutaciones 3 de 10


(10)!
= 720
(10 − 3)!
1
Probabilidad 720 = 1.39 ∙ 10−3
…………………………………………………………
1
𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 =
# 𝑐𝑜𝑚𝑏𝑖𝑛𝑎𝑐𝑖𝑜𝑛𝑒𝑠
…………………………………………………………
¿Qué probabilidad hay de ganarse el baloto?

45 números se escogen 6
(45)!
= 120
(45 − 6)! (6)!
1
Probabilidad 120 = 8.33 ∙ 10−3

…………………………………………………………
Probabilidades Condicionales

𝑃(𝐴𝐵)
𝑃 (𝐴 |𝐵 ) =
𝑃(𝐵)
𝑃(𝐴𝐵) = 𝑃(𝐵) − 𝑃(𝐴|𝐵)

…………………………………………………………..
Se toma una balota de la urna 1 y se deposita en la urna 2,
luego de revolver se saca una balota de la urna 2.

𝐴 Balota blanca
𝐻1 Se pasa de (1) balota blanca
𝐻2 Se pasa de (1) balota negra

𝑃(𝐻1 ) = 3⁄5 = 0.6 𝑃(𝐻2 ) = 2⁄5 = 0.4


𝑃(𝐴|𝐻1 ) = 3⁄7 = 0.43 𝑃(𝐴|𝐻2 ) = 5⁄7 = 0.71

𝑃(𝐴) = 𝑃(𝐻1 )𝑃(𝐴|𝐻1 ) + 𝑃(𝐻2 )𝑃(𝐴|𝐻2 )


Sucesos Independientes
A y B son independientes solo si
𝑃 (𝐴𝐵) = 𝑃(𝐴) ∙ 𝑃(𝐵)
𝑃 𝐴 𝐵) = 𝑃(𝐴) 𝑦 𝑃(𝐵|𝐴) = 𝑃(𝐵)
( |
……………………………………………………….
En el lanzamiento de una moneda, sea A el suceso “cara
en el quinto lanzamiento” y B “Cara en el sexto
lanzamiento”. Entonces A y B son sucesos
independientes, así que la probabilidad de cara en ambos
lanzamientos es:
1 1 1
𝑃(𝐴𝐵) = 𝑃(𝐴)𝑃(𝐵) = ∙ =
2 2 4
………………………………………………………..

Sucesos Excluyentes
Dos o más sucesos son mutuamente excluyentes si la
ocurrencia de uno imposibilita al otro. Así si A y B son
excluyentes, 𝑃(𝐴𝐵) = 0
𝑃(𝐴 + 𝐵) = 𝑃(𝐴) + 𝑃(𝐵)
Si no son excluyentes 𝑃(𝐴 + 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴𝐵)
…………………………………………………………
Si A es el suceso “sacar un as” y B es el suceso “sacar un
4
rey” al tomar una carta de una baraja, entonces 𝑃(𝐴) = 52
4
y 𝑃 (𝐵) = 52 la probabilidad de sacar un as o un rey al
tomar solo una carta es:
4 4 2
𝑃 (𝐴 + 𝐵 ) = 𝑃 (𝐴 ) + 𝑃 (𝐵 ) = + =
52 52 13
………………………………………………………..
……………………………………………………….
Si A es el suceso “sacar un as” y B es el suceso “sacar una
pica” al tomar una carta de una baraja, entonces A y B no
son mutuamente excluyentes, puesto que puede ser
extraído el as de picas.
4 13 1 4
𝑃(𝐴 + 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴𝐵) = + − =
52 52 52 13
………………………………………………………

Confiablidad del sistema


El campo de la ingeniería de confiabilidad se ha
desarrollado de manera muy rápida. La confiabilidad se
define aquí como la probabilidad de funcionar en forma
apropiada en un periodo de tiempo establecido. El sistema
funciona si sólo ambos subsistemas funcionan. Si los
subsistemas perduran en forma independiente, entonces

Confiabilidad= 𝑅𝑆 = 𝑅1 ∙ 𝑅2
Se extraen cinco cartas de una baraja

𝐶44 ∙ 𝐶148 48 1
𝑃(4 𝑎𝑠𝑒𝑠) = 52 = =
𝐶5 2 598 960 54 145
𝐶44 ∙ 𝐶14 1
𝑃(4 𝑎𝑠𝑒𝑠 1 𝑟𝑒𝑦) = 52 = 649 740
𝐶5
𝐶34 ∙ 𝐶24 1
𝑃(3 𝑑𝑖𝑒𝑐𝑒𝑠 2 𝑗𝑜𝑡𝑎𝑠) = =
𝐶552 108 290
4 𝐶313 ∙ 3 𝐶213 429
𝑃(3 𝑐𝑢𝑎𝑙𝑞𝑢𝑒𝑟 𝑝𝑎𝑙𝑜 2 𝑜𝑡𝑟𝑜) = 52 =
𝐶5 4 165
𝐶448 ∙ 𝐶148 35 673
𝑃(𝑛𝑖𝑛𝑔𝑢𝑛 𝑎𝑠) = =
𝐶552 54 145
Supóngase que hay 𝑁 objetos de los cuales 𝐷 son
defectuosos. Una muestra aleatoria de tamaño 𝑛 se
selecciona sin reemplazo, y si dejamos que 𝑋 represente el
número de defectos en la muestra, entonces

𝐷 𝑁−𝐷
( )( )
𝑝 (𝑥 ) = 𝑥 𝑛 − 𝑥
𝑁
( )
𝑛
Supóngase N = 100 artículos, D = 5 artículos, y n = 4, de
modo que

5 100 − 5
( )( )
𝑝( 𝑥 ) = 𝑥 4−𝑥
100
( )
4

Presentación Tabular Presentación Grafica


Distribución de Variable Discreta
Aquella cuya función de probabilidad sólo toma valores
positivos en un conjunto de valores de 𝑥. A dicha función
se le llama función de masa de probabilidad.

Distribución de Variable Continua


Aquella que puede tomar cualquiera de los infinitos
valores existentes dentro de un intervalo. La función de
probabilidad es la integral de la función de densidad.
Variables Aleatorias
Valor Esperado o Esperanza Matemática
Si p es la probabilidad de que una persona reciba una
suma de dinero S, la esperanza matemática se define 𝑝𝑆
………………………………………………………….
Si la probabilidad de que alguien gane un premio de $10 es
1 1
, su esperanza es ($10) 5 = $2
5
………………………………………………………….
𝐸 (𝑋) = 𝑝1 𝑋1 + 𝑝2 𝑋2 + ⋯ + 𝑝𝑛 𝑋𝑛
𝜇 = 𝐸 (𝑥 ) = ∑ 𝑥𝑖 𝑝𝑖
Propiedades
𝑃 (𝑋 = 𝑐 ) = 1 𝐸 (𝑐 ) = 𝑐

𝐸 (𝑥 + 𝑦) = 𝐸 (𝑥 ) + 𝐸(𝑦)
𝐸 (𝑥 + 𝑐 ) = 𝐸 (𝑥 ) + 𝑐
𝐸 (𝑎𝑥 + 𝑏𝑦) = 𝑎𝐸 (𝑥 ) + 𝑏𝐸 (𝑦)

Varianza
𝜎 2 = 𝑉𝑎𝑟(𝑥 ) = 𝐸 [(𝑥 − 𝜇)2 ] = ∑(𝑥𝑖 𝑝𝑖 )2 𝑝𝑖
𝑉𝑎𝑟(𝑐𝑥 ) = 𝑐 2 𝑉𝑎𝑟(𝑥)
Si son independientes
𝑉𝑎𝑟(𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑥 ) + 𝑉𝑎𝑟(𝑦)
𝑉𝑎𝑟(𝑋 − 𝑌) = 𝑉𝑎𝑟(𝑥 ) + 𝑉𝑎𝑟(𝑦)
𝑉𝑎𝑟(𝑥 + 𝑐 ) = 𝑉𝑎𝑟(𝑥)

Si el valor es pequeño entonces es similar al esperado


Si el valor es grande entonces es menos similar al esperado
𝑃 (𝑋 = 𝑐 ) = 1, 𝑉𝑎𝑟(𝑐 ) = 0
Distribuciones de Probabilidad Uniforme Discreta
Si una variable X puede tomar valores 𝑋1 , 𝑋2 , ⋯ , 𝑋𝑛 con
probabilidades 𝑝1 , 𝑝2 , ⋯ , 𝑝𝑛

Ejemplo
Sea X la variable que denota la suma de puntos obtenidos
al lanzar un par de dados. Entonces la distribución de
probabilidad viene dada por
Distribución de Bernoulli y Binomial
𝑋~𝐵𝑎𝑒𝑟𝑛𝑜𝑢𝑙𝑙𝑖(𝑝) 𝑃(𝑋 = 𝑥 ) = 𝑝 𝑥 (1 − 𝑝)1−𝑥
𝑥 solo es 0 ó 1

𝐸 (𝑥 ) = 0 (1 − 𝑝 ) + 1(𝑝 ) = 𝑝
𝐸 ( 𝑥 2 ) = 0 2 (1 − 𝑝 ) + 1 2 (𝑝 ) = 𝑝

𝑉𝑎𝑟(𝑥 ) = 𝑝 − 𝑝2 = 𝑝(1 − 𝑝)

Cuantos éxitos y fracasos se obtuvieron


Cuando se dio el primer éxito
Cuantos intentos se necesitaron para el segundo éxito
𝑥 como la cantidad de éxitos en 𝑛 repeticiones
independientes en un ensayo de Bernoulli

Ejemplo
𝑋~𝐵𝑎𝑒𝑟𝑛𝑜𝑢𝑙𝑙𝑖(0.8)
𝐸(𝑥) = 0.8
𝑉𝑎𝑟(𝑥) = 0.16
Ejemplo
Si se tienen 3 éxitos en 4 intentos entonces 𝑝2 (1 − 𝑝)

Entonces, la probabilidad de obtener 𝑥 aciertos en 𝑛


ensayos de Bernoulli es
𝑛 𝑛!
𝑃(𝑋 = 𝑥 ) = ( ) ∙ 𝑝 𝑥 ∙ 𝑞 𝑛−𝑥 = ∙ 𝑝 𝑥 ∙ 𝑞 𝑛−𝑥
𝑥 𝑋! ∙ (𝑛 − 𝑥 )!
Esta probabilidad es un término del binomio siguiente
𝑛
𝑛
(𝑝 + 𝑞 )𝑛 = ∑ ( ) ∙ 𝑝 𝑥 ∙ 𝑞 𝑛−𝑥
𝑥
𝑥=0
Proceso de Bernoulli
Consiste en hacer 𝑛 veces un experimento de Bernoulli,
teniendo en cuenta:

Que las condiciones no varían por ejemplo el dado que se


arrojo 𝑛 veces sigue siendo el mismo y no sufre cambios.
Es decir que la probabilidad 𝑝 de tener éxito en la quinta
vez es la misma que la de tener un éxito de la octava vez

Que cada uno de los experimentos es independiente, por


ejemplo que haya salido un 2 en la quinta vez que se
arrojó el dado no afecta lo que salga en la octava vez.

Se definen las variables


𝑛 La cantidad de veces que se hace el experimento
𝑝 La probabilidad de que un experimento arroje éxito.
𝑞 La probabilidad de que un experimento arroje fracasos
𝑥 La cantidad de veces que se obtiene éxito en las 𝑛 veces
que se hace el experimento

Nota: Si repetimos el experimento 𝑛 veces podemos


obtener resultados para la construcción de la distribución
binomial.

𝑓(𝑥 ) = 𝑝 𝑥 (𝑞 )1−𝑥 𝑥 = {0, 1} 𝑞 = 1 − 𝑝

Éxito 𝑥 = 1 𝑓(𝑥; 𝑝) = 𝑝
Fracaso 𝑥 = 0 𝑓(𝑥; 𝑝) = 𝑞
𝑥 = 𝑎 𝑓 (𝑥; 𝑝) = 0
Ejemplo
Lanzamiento moneda: cara
Posibles resultados 2
1
𝑝 probabilidad cara = 2 = 0.5
𝑞 probabilidad cruz 1 − 𝑝 = 0.5
𝑥 = 1 𝑓(1) = (0.5)1 (1 − 0.5)1−1 = 0.5
𝑥 = 0 𝑓 (0) = (0.5)0 (1 − 0.5)1−0 = 0.5

Ejemplo
Lanzamiento dado: 2
Posibles resultados 2
1
𝑝 probabilidad 2 = 6 = 0.167
𝑞 probabilidad ≠ 2 = 1 − 𝑝 = 0.833
𝑥 = 1 𝑓(1) = (0.167)1 (1 − 0.167)1−1 = 0.167
𝑥 = 0 𝑓(0) = (0.167)0 (1 − 0.167)1−0 = 0.833
Ejemplo
La probabilidad de meter un gol es del 80% si se lanzan 10
balones que probabilidad hay de:
 Acertar 4  Acertar alguno
 No acertar ninguno  Acertar entre 3 y 6

𝑝 = 0.8 𝑞 = 0.2 𝑛 = 10

10 ( )4 (
 𝑃 (𝑋 = 4) = ( ) 0.8 1 − 0.8)10−4 = 5.5 ∙ 10−3
4

 𝑃(𝑋 = 0) = (10) (0.8)0 (1 − 0.8)10−0 = 1.024 ∙ 10−7


0

 𝑃(𝑋 ≥ 1) = 𝑃(𝑋 = 1) + ⋯ + 𝑃(𝑋 = 10) = 1 − 𝑃(𝑋 = 0)


𝑃(𝑋 ≥ 1) =0.999

 𝑃(3 ≤ 𝑋 ≤ 6) = 𝑃(𝑋 = 3) + 𝑃(𝑋 = 4) + 𝑃(𝑋 = 5) + 𝑃(𝑋 =


6)
𝑃(3 ≤ 𝑋 ≤ 6) =

𝑃(3 ≤ 𝑋 ≤ 6) = 𝑃(𝑋 ≤ 6) − 𝑃(3 ≤ 𝑋)


Usando la distribución normal 𝑁(𝑥̅ , 𝜎)
𝑥̅ = 𝑛𝑝 → 𝑥̅ = 10 ∙ 0.8 = 8
𝜎 = √𝑛𝑝𝑞 → 𝜎 = √10 ∙ 0.8 ∙ 0.2 = 1.265

6 − 𝑥̅ 3 − 𝑥̅
𝑃 (𝑧 ≤ ) − 𝑃 (𝑧 ≤ ) = 𝑃(𝑧 ≤ −1.58) − 𝑃(𝑧 ≤ −3.95)
𝜎 𝜎
→ [1 − 𝑃(𝑧 ≤ 1.58)] − [1 − 𝑃(𝑧 ≤ 3.95)] → uso de tablas→
→ [1 − 0.9429] − [1 − 1] = 0.0571
Distribución de Poisson
𝜆 Es la cantidad de eventos que ocurren rara vez, se
conoce
𝑥 Cantidad de sucesos de interés

Ejemplo

Se encuentra un error tipográfico por cada 5 hojas de un


libro de 100 hojas. Determinar la probabilidad de un
grupo de 5 hojas haya por lo menos un error tipográfico.

𝜆=1
𝑥 = 1 𝑐𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑑𝑒 𝑒𝑟𝑟𝑜𝑟𝑒𝑠 𝑝𝑜𝑟 𝑐𝑎𝑑𝑎 5 ℎ𝑜𝑗𝑎𝑠

𝜆0 𝑒 −𝜆
𝑃(𝑥 ≥ 1) = 1 − 𝑃(𝑥 = 0) = 1 − = 1 − 𝑒 −1 = 0.6321
0!

Probabilidad de 0 errores en 10 hojas

𝜆 = 2 → 5 ℎ𝑜𝑗𝑎𝑠 = 1 𝑒𝑟𝑟𝑜𝑟 10 ℎ𝑜𝑗𝑎𝑠 = 2 𝑒𝑟𝑟𝑜𝑟𝑒𝑠


𝑥=0

𝜆0 𝑒 −𝜆
𝑃 (𝑥 = 0) = = 𝑒 −2 = 0.135
0!
Función de Distribución Acumulada
Probabilidad de que tome valores a la izquierda de 𝑥
𝐹𝑥 (𝑥) = 𝑃(𝑋 ≤ 𝑥)

Propiedades
𝐹(𝑥2 ) = Probabilidad de estar a la izquierda de 𝑥2
Nos interesa saber 𝑃(𝑎 < 𝑥 ≤ 𝑏)
𝑃(𝑎 < 𝑥 ≤ 𝑏) = 𝐹𝑥 (𝑏) − 𝐹𝑥 (𝑎)

𝑑𝐹𝑥 (𝑥)
= 𝑓𝑥 (𝑥) = Función de densidad
𝑑𝑥

Propiedades
 𝑓𝑥 (𝑥) ≥ 0
 𝑃(𝑎 < 𝑥 ≤ 𝑏) = ∫ 𝑓𝑥 (𝑥) 𝑑𝑥 = 𝐹𝑥 (𝑏) − 𝐹𝑥 (𝑎)

 𝐸 (𝑥 𝑛 ) = ∫−∞ 𝑥 𝑛 𝑓𝑥 (𝑥) 𝑑𝑥
 𝑉𝑎𝑟(𝑥) = 𝐸 (𝑥 𝑛 ) − 𝜇2

Ejemplo
1
𝑠𝑖 𝑎 < 𝑥 < 𝑏
Sea x una v.a.c. con 𝑓𝑥 (𝑥) = {𝑏−𝑎
0
𝑎 𝑏 ∞
1
∫ 𝑓𝑥 (𝑥) 𝑑𝑥 = ∫ 0 𝑑𝑥 + ∫ 𝑑𝑥 + ∫ 0 𝑑𝑥 = 1
−∞ 𝑎 𝑏−𝑎 𝑏
𝑏 𝑏
1 𝑎+𝑏
𝐸 (𝑥 ) = ∫ 𝑥 𝑓𝑥 (𝑥) 𝑑𝑥 = ∫ 𝑥 𝑑𝑥 =
𝑎 𝑎 𝑏−𝑎 2
(𝑏 − 𝑎 )2
𝑉𝑎𝑟(𝑥 ) =
12
Distribución Uniforme Continua
Ejemplo
𝑋~𝑈(0,1) 𝑎 = 0, 𝑏 = 1

1.
0 𝑥<0
1
𝑠𝑖 0 < 𝑥 < 1 𝑥−0
𝑓𝑥 (𝑥) = {1 − 0 𝐹𝑥 (𝑥) = { 0≤𝑥≤1
0 1−0
1 𝑥>1

0+1 (1 − 0)2
𝐸 (𝑥 ) = 𝑉𝑎𝑟(𝑥 ) =
2 12

2.
⁄2 1
1 1 1 1 1
𝑃 ( < 𝑥 < ) = ∫ 1 𝑑𝑥 = − =
4 2 1⁄ 2 4 4
4

1 1 1 1 1 1 1
𝑃 ( < 𝑥 < ) = 𝐹𝑥 ( ) − 𝐹𝑥 ( ) = − =
4 2 2 4 2 4 4
Distribución Normal I o de Probabilidades

La variable continua x tiene distribución normal solo si


1 1 𝑥−𝜇 2
𝑓𝑥 (𝑥) = 𝑒 −2( 𝜎 )
𝜎√2𝜋
1 1 𝑥−𝜇 2 1 𝑥−𝜇
𝑓𝑥′ (𝑥 ) = 𝑒 −2( 𝜎 ) [− ( )]
𝜎√2𝜋 𝜎 𝜎
𝑓𝑥′′ (𝑥 ) = 𝑐𝑜𝑚𝑝𝑙𝑖𝑐𝑎𝑑𝑜
′′ ( )
En lugar de 𝑓𝑥 𝑥 se evalúa un 𝜇 + 𝜎 y 𝜇 − 𝜎
1 1 −1⁄ 1 −1⁄
𝑓𝑥 (𝜇) = 𝑓𝑥 (𝜇 + 𝜎) = 𝑒 2 𝑓𝑥 (𝜇 − 𝜎) = 𝑒 2
𝜎√2𝜋 𝜎√2𝜋 𝜎√2𝜋

𝜇 es máximo, 𝑓𝑥 (𝑥 ) es par, en 𝜇 + 𝜎 y 𝜇 − 𝜎 hay puntos


de inflexión, si 𝜎 es pequeño entonces 𝑓𝑥 (𝜇) aumentará
su valor dado que debe compensar el área lateral dado que
siempre ∫ 𝑓𝑥 (𝑥 ) = 1

En términos de probabilidad 𝑥~𝑁(𝜇, 𝜎 2 ) por lo que


𝑃(𝑎 < 𝑥 < 𝑏) = 𝑃(𝜇 − 𝜎 < 𝑥 < 𝜋 + 𝜎)

Se necesitan tablas
Distribución Normal II, Normal Estándar
𝑥−𝜇
Sea 𝑥~𝑁(𝜇, 𝜎 2 ) entonces 𝑧 = ~𝑁(0,1)
𝜎
𝑧 ayuda a mover el eje de simetría y facilita el cálculo de
probabilidad, 𝑧 se llamará percentil. 𝑧 será el valor del área
a la derecha

Ejemplo
Hallar la probabilidad que en una distribución normal…
Sea 𝑥~𝑁(𝜇, 𝜎 2 )
𝑥−𝜇
𝑃(𝜇 − 𝜎 < 𝑥 < 𝜇 + 𝜎) → 𝑃 (−1 < < 1) =
𝜎
= 𝑃(−1 < 𝑧 < 1) = 0.6826
Hallar 𝑃(𝜇 − 2𝜎 < 𝑥 < 𝜇 + 2𝜎) = 𝑃(−2 < 𝑧 < 2) = 0.9544
Hallar 𝑃(𝜇 − 3𝜎 < 𝑥 < 𝜇 + 3𝜎) = 𝑃(−3 < 𝑧 < 3) = 0.9973

𝑃 (𝑧 > 𝑛) = 1 − 𝑃(𝑧 ≤ 𝑛)
Ejemplo
𝑥 =resistencia al rompimiento, 𝑁
𝑥~𝑁(𝜇 = 800, 𝜎 2 = 144)

𝑥 − 800 772 − 800


𝑃(𝑥 ≥ 772) = 𝑃 ( ≥ )=
12 12
= 𝑃(𝑧 ≥ −2.33) = 1 − 0.0099 = 0.9901
Ejemplo
Una variable aleatoria sigue el modelo de una distribución
normal con media 10 y varianza 4. Transformarla en una
normal tipificada.
𝑋: 𝑁(10,4)
Para transformarla en una normal tipificada se crea una
nueva variable (𝑧) que será igual a la anterior (𝑥) menos su
media y dividida por su desviación típica (que es la raíz
cuadrada de la varianza)
𝑥−𝜇
𝑧=
𝜎
𝑥−10
En el ejemplo, la nueva variable seria: 𝑧 = 2
Esta nueva variable se distribuye como una normal
tipificada, permitiéndonos, por tanto, conocer la
probabilidad acumulada en cada valor.
𝑧: 𝑁(0,1)
Ejemplo
El salario medio de los empleados de una empresa se
distribuye según una distribución normal, con media 5
millones y desviación típica 1 millón. Calcular el
porcentaje de empleados con un sueldo inferior a 7
millones.

Lo primero que haremos es transformar esa distribución


en una normal tipificada, para ello se crea una nueva
variable (𝑧) que será igual a la anterior (𝑥) menos su media
y dividida por la desviación típica
𝑥−𝜇
𝑧=
𝜎
En el ejemplo, la nueva variable sería:
𝑥−5
𝑧=
1
Esta nueva variable se distribuye como una normal
tipificada. La variable 𝑧 que corresponde a una variable 𝑥
de valor 7 es:
7−5
𝑧= =2
1
Ya podemos consultar en la tabla la probabilidad
acumulada para el valor 2 (equivalente a la probabilidad de
sueldos inferiores a 7 millones). Esta probabilidad es
0,9772.
Por lo tanto, el porcentaje de empleados con salarios
inferiores a 7 millones, es del 97,72%.
Ejemplo
La renta media de los habitantes de un país es de 4
millones COP/año, con una varianza de 1,5. Se supone
que se distribuye según una distribución normal. Calcular:
a) Porcentaje de la población con una renta inferior a 3
millones COP.
Lo primero que tenemos que hacer es calcular la normal
tipificada:
𝑥−4 3−4
𝑧= → → −0.82
1.22 1.22
Recordemos que el denominador es la desviación típica
(raíz cuadrada de la varianza)

El valor de 𝑧 equivalente a 3 millones de COP es -0.82.


𝑃(𝑥 < 3) = 𝑃(𝑧 < −0.82)
Ahora tenemos que ver cuál es la probabilidad acumulada
hasta ese valor. Tenemos un problema: la tabla de
probabilidades sólo abarca valores positivos, no obstante,
este problema tiene fácil solución, ya que la distribución
normal es simétrica respecto al valor medio.

Por lo tanto:
𝑃 (𝑧 < −0.82) = 𝑃(𝑧 > 0.82)
Por otra parte, la probabilidad que hay a partir de un valor
es igual a 1 (100%) menos la probabilidad acumulada
hasta dicho valor:
𝑃(𝑧 > 0.82) = 1 − 𝑃(𝑧 < 0.82) = 1 − 0.7939 = 0.2061
Luego, el 20,61% de la población tiene una renta inferior a
3 millones COP.
b) Renta a partir de la cual se sitúa el 10% de la población
con mayores ingresos.

Vemos en la tabla el valor de la variable tipificada cuya


probabilidad acumulada es el 0,9 (90%), lo que quiere
decir que por encima se sitúa el 10% superior.

Ese valor corresponde a 𝑧 = 1.282. Ahora calculamos la


variable normal 𝑥 equivalente a ese valor de la normal
tipificada:
𝑥−4
1.282 = → (1.282)(1.22) = 𝑥 − 4 → 𝑥 = 5.57
1.22
Despejando 𝑥, su valor es 5,57. Por lo tanto, aquellas
personas con ingresos superiores a 5,57 millones COP.
constituyen el 10% de la población con renta más elevada.
c) Ingresos mínimo y máximo que engloba al 60% de la
población con renta media.
Vemos en la tabla el valor de la variable normalizada Y
cuya probabilidad acumulada es el 0,8 (80%). Como
sabemos que hasta la media la probabilidad acumulada es
del 50%, quiere decir que entre la media y este valor de 𝑧
hay un 30% de probabilidad.

Por otra parte, al ser la distribución normal simétrica,


entre −𝑧 y la media hay otro 30% de probabilidad. En
definitiva, el segmento (−𝑧, 𝑧) engloba al 60% de
población con renta media.

El valor de 𝑧 que acumula el 80% de la probabilidad es


0.842, por lo que el segmento viene definido por
(−0.842, +0.842). Ahora calculamos los valores de la
variable 𝑥 correspondientes a estos valores de 𝑧.

Los valores de 𝑥 son 2.97 y 5.03. Por lo tanto, las


personas con ingresos superiores a 2,97 millones de ptas. e
inferiores a 5.03 millones de ptas. constituyen el 60% de
la población con un nivel medio de renta.
Ejercicio
La vida media de los habitantes de un país es de 68 años,
con una varianza de 25. Se hace un estudio en una
pequeña ciudad de 10.000 habitantes:
a) ¿Cuántas personas superarán previsiblemente los 75
años?
Calculamos el valor de la normal tipificada equivalente a
75 años
𝑥 − 68 75 − 68
𝑧= = = 1.4
5 5
Por lo tanto
𝑃 (𝑥 > 75) = (𝑧 > 1.4) = 1 − 𝑃 (𝑧 < 1.4) = 1 − 0.9192 = 0.0808
Luego, el 8.08% de la población (808 habitantes) vivirán
más de 75 años.

Ejercicio
A un examen de oposición se han presentado 2.000
aspirantes. La nota media ha sido un 5.5, con una varianza
de 1.5.
a) Tan sólo hay 100 plazas. Usted ha obtenido un 7,7.
¿Sería oportuno ir organizando una fiesta para celebrar su
éxito?
Vamos a ver con ese 7,7 en qué nivel porcentual se ha
situado usted, para ello vamos a comenzar por calcular el
valor de la normal tipificada equivalente.
7.7 − 5.5
𝑧= = 2.1
1.049
A este valor de 𝑧 le corresponde una probabilidad
acumulada (ver tablas) de 0,98214 (98,214%), lo que
quiere decir que por encima de usted tan sólo se encuentra
un 1,786%.
Si se han presentado 2.000 aspirante, ese 1,786% equivale
a unos 36 aspirantes. Por lo que si hay 100 plazas
disponibles, tiene usted suficientes probabilidades como
para ir organizando la "mejor de las fiestas".

b) Va a haber una 2ª oportunidad para el 20% de notas


más altas que no se hayan clasificados. ¿A partir de que
nota se podrá participar en esta "repesca"?
Vemos en la tabla el valor de la normal tipificada que
acumula el 80% de la probabilidad, ya que por arriba sólo
quedaría el 20% restante.
Este valor de 𝑧 corresponde a 0,85.
𝑍 = 0.85 → 0.8023 = 80.23%
Ahora calculamos el valor de la normal 𝑥 equivalente:
𝑥 − 5.5
0.85 =
1.049
Despejamos la 𝑥 y su valor es 6,39. Por lo tanto, esta es la
nota a partir de la cual se podrá acudir a la "repesca".
Cuando se mantiene la
misma media pero cambia la
varianza
𝑁(30,1), 𝑁(30,3), 𝑁(30,6)

Cuando se mantiene la misma


varianza pero cambia la media
𝑁(30,2), 𝑁(35,2), 𝑁(40,2)
Distribución Normal III

Ejemplo
𝑥−𝜇 𝜇
Sea 𝑥~𝑁(𝜇, 𝜎 2 ) entonces 𝑧 = 𝜎 ~𝑁(0,1) → 𝑧 = − 𝜎 +
1
𝑥
𝜎

Sean 𝑥1 , ⋯ , 𝑥𝑛 variables aleatorias independientes tales


que 𝑥𝑖 ~𝑁(𝜇, 𝜎 2 )
Si se define 𝑌𝑖 = 𝑎0 + ∑ 𝑎𝑖 𝑥𝑖
Entonces 𝑌~𝑁(𝜇, 𝜎 2 ) donde
𝜇𝑦 = 𝑎0 + ∑ 𝑎𝑖 𝜇𝑖

𝜎𝑦2 = ∑ 𝑎𝑖2 𝜎𝑖2

Ejemplo
Un eje se ensambla con un cojinete
𝑥1 Diámetro del eje 𝑥1 ~𝑁(1.5,0.0016)
𝑥2 Diámetro del cojinete 𝑥2 ~𝑁(1.48,0.0009)

𝑌: 𝑥1 − 𝑥2 ~𝑁(𝜇, 𝜎 2 )
𝜇𝑦 = (1)(1.5) + (−1)(1.48) = 0.02
𝜎𝑦2 = (1)2 (0.0016) + (−1)2 (0.0009) = 0.0025

0 − 0.02
𝑃(𝑦 < 0) = 𝑃 (𝑧 < ) = 𝑃(𝑧 < −0.4) = 0.3446
0.05
Teorema central del límite

Sea 𝑥𝑖 una variable aleatorea independiente tales que


𝐸 (𝑥𝑖 ) = 𝜇𝑖 y 𝑉𝑎𝑟(𝑥𝑖 ) = 𝜎𝑖2 se define 𝑌𝑛 = ∑ 𝑥𝑖
𝜇0 = 𝐸 (𝑌0 ) = 𝐸 (∑ 𝑥𝑖 ) = ∑ 𝐸(𝑥𝑖 ) = ∑ 𝜇𝑖

𝜎𝑖2 = 𝑉𝑎𝑟(𝑌0 ) = 𝑉𝑎𝑟 (∑ 𝑥𝑖 ) = ∑ 𝑉𝑎𝑟(𝑥𝑖 ) = ∑ 𝜎𝑖2


𝑌𝑛−𝜇𝑛
Entonces 𝑧𝑛 = 𝜎𝑛
~𝑁(0,1) cuando 𝑛 → ∞ se deben
tener muchas muestras
En particular 𝐸 (𝑥𝑖 ) = 𝜇 𝑉𝑎𝑟(𝑥𝑖 ) = 𝜎 2
𝑌 −𝑛𝜇
Entonces 𝑛𝜎 𝑛 ~𝑁(0,1) cuando 𝑛 → ∞

Ejemplo
Piezas se embarcan en cajas de a 250, 20 cajas es igual a un
lote, el camión usado para transportar no soporta más de
2510 kg. Calcular la probabilidad de llevar un lote
conociendo los pesos de las piezas, 1 lote tiene 5000
piezas
𝐸 (𝑥𝑖 ) = 0.5𝑘𝑔 𝜎 (𝑥𝑖 ) = 0.1𝑘𝑔
El peso del lote está dado por 𝑌 = ∑ 𝑥𝑖
𝜇𝑛 = (𝑛)𝐸(𝑥𝑖 ) = (5000)(0.5) = 2500𝑘𝑔
𝜎𝑛 = √𝑛𝜎(𝑥𝑖 ) = (√5000)(0.1) = 7.07𝑘𝑔

2510 − 2500
𝑃(𝑌𝑛 < 2510) = 𝑃 (𝑧𝑛 < ) = 𝑃(𝑧𝑛 < 1.41)
7.07
𝑃(𝑌𝑛 < 2510) = 0.0793 = 7.93%
La probabilidad de que el peso total no sea mayor a 2510
Teorema central del límite
El Teorema Central del Límite dice que si tenemos un
grupo numeroso de variables independientes y todas ellas
siguen el mismo modelo de distribución (cualquiera que
éste sea), la suma de ellas se distribuye según una
distribución normal.

Ejemplo
La variable "tirar una moneda al aire" sigue la distribución
de Bernouilli. Si lanzamos la moneda al aire 50 veces, la
suma de estas 50 variables (cada una independiente entre
sí) se distribuye según una distribución normal.
Este teorema se aplica tanto a suma de variables discretas
como de variables continuas.

Los parámetros de la distribución normal son:

Media: (𝜇)(𝑛) (media de la variable individual


multiplicada por el número de variables independientes)
Varianza: (𝜎 2 )(𝑛) (varianza de la variable individual
multiplicada por el número de variables individuales)
Ejemplo:
Se lanza una moneda al aire 100 veces, si sale cara le
damos el valor 1 y si sale cruz el valor 0. Cada lanzamiento
es una variable independiente que se distribuye según el
modelo de Bernouilli, con media 0,5 y varianza 0,25.

Calcular la probabilidad de que en estos 100 lanzamientos


salga más de 60 caras.

La variable suma de estas 100 variables independientes se


distribuye, por tanto, según una distribución normal.

Media = 𝑛𝜇 = 100 ∗ 0,5 = 50


Varianza = 𝑛𝜎 2 = 100 ∗ 0,25 = 25

Para ver la probabilidad de que salgan más de 60 caras


calculamos la variable normal tipificada equivalente:
𝑥 − 𝑛𝜇 60 − 50
𝑧= = = 2.0
√𝑛𝜎 5.0
5 es la raíz cuadrada de 25, o sea la desviación típica de
esta distribución

Por lo tanto:
𝑃(𝑥 > 60) = 𝑃(𝑧 > 2.0) = 1 − 𝑃(𝑧 < 2.0) = 1 − 0.9772 = 0.0228

Es decir, la probabilidad de que al tirar 100 veces la


moneda salga más de 60 caras es tan sólo del 2,28%
Ejemplo
La renta media de los habitantes de un país se distribuye
uniformemente entre 4,0 millones. y 10,0 millones. Calcular la
probabilidad de que al seleccionar al azar a 100 personas la suma
de sus rentas supere los 725 millones.
Cada renta personal es una variable independiente que se
distribuye según una función uniforme. Por ello, a la suma de las
rentas de 100 personas se le puede aplicar el Teorema Central del
Límite.

La media y varianza de cada variable individual es:


𝑎 + 𝑏 (4 + 10 )
𝜇= = =7
2 2
(𝑏 − 𝑎) 2 (10 − 4) 2
𝜎2 = = = 3
12 12
Por tanto, la suma de las 100 variables se distribuye según
una normal cuya media y varianza son:
Media: 𝑛𝜇 = (100 )(7) = 700
Varianza: 𝑛 𝜎 2 = (100)(3) = 300
Para calcular la probabilidad de que la suma de las rentas
sea superior a 725 millones, comenzamos por calcular el
valor equivalente de la variable normal tipificada:
𝑥 − 𝑛𝜇 725 − 700
𝑧= = = 1.44
𝜎 √𝑛 17.3
Luego:
𝑃 (𝑋 > 725) = 𝑃 (𝑧 > 1,44) = 1 − 𝑃 (𝑧 < 1,44) =
= 1 − 0,9251 = 0,0749
Es decir, la probabilidad de que la suma de las rentas de
100 personas seleccionadas al azar supere los 725 millones
de pesetas es tan sólo del 7,49%
Aproximación para la distribución binomial

La distribución normal frecuentemente es una buena


aproximación a una distribución discreta cuando la última
adquiere una forma de campana simétrica. La distribución
binomial se aproxima bien por la normal en problemas
prácticos cuando se trabaja con la función de distribución
acumulada.
Teorema. (Aplicación del Teorema del Límite Central)
Si 𝑥 es una variable aleatoria binomial con media 𝜇 =
𝑛𝑝 y varianza 𝜎 2 = 𝑛𝑝(1 − 𝑝) entonces la forma
𝑥−𝑛𝑝
limitante de la distribución de 𝑧 = cuando 𝑛 →
√𝑛𝑝(1−𝑝)
∞ , es la distribución normal estándar 𝑁(𝑧; 0,1)
La distribución normal proporciona una buena
aproximación de la binomial aún cuando 𝑛 es pequeña
y 𝑝 está razonablemente cercana a 0.5.
Distribución Exponencial
Distribución Exponencial
Notación: 𝑋~𝐸𝑥𝑝(𝜆)
Antes de introducir la variable exponencial puede mirarse
un origen natural de ésta a partir de una variable aleatoria
Poisson, la cual indica el número de veces que ocurre un
evento en una unidad de tiempo. Si se escribe la función
de probabilidad Poisson de la siguiente manera:
(𝜆𝑡)𝑥 𝑒 −𝜆𝑡
𝑓(𝑥, 𝜆𝑡) =
𝑥!
La probabilidad de que no ocurra algún evento, en el
periodo hasta el tiempo 𝑡 está dada por:
(𝜆𝑡)0 𝑒 −𝜆𝑡
𝑃(𝑥 = 0) = 𝑓(0, 𝜆𝑡) = = 𝑒 −𝜆𝑡
0!
De esta manera, puede definirse ahora una variable
aleatoria continua 𝑥 que mide el tiempo que tarda en
ocurrir el primer evento de Poisson. Es decir, 𝑃(𝑋 ≥
𝑥 ) = 𝑒 −𝜆𝑥
Lo que permite construir la función de distribución
acumulada así:

Al derivar, con respecto a 𝑥 se tiene la función de


densidad de la variable aleatoria exponencial 𝑥.
Definición
La variable aleatoria 𝑥 que es igual a la distancia (o
tiempo) entre ocurrencias sucecesivas de un proceso
Poisson con media 𝜆 > 0, tiene una distribución
exponencial con parámetro 𝜆

Función de densidad de Probabilidad:

1 1
𝐸 (𝑥 ) = 𝑉𝑎𝑟(𝑥 ) =
𝜆 𝜆2

Observaciones:
1. En la definición de la variable aleatoria exponencial,
ésta se plantea como tiempo que tarda en ocurrir el primer
evento Poisson. Sin embargo, esta definición puede
hacerse extensiva a las demás unidades de medición
consideradas en los eventos de Poisson, por ejemplo,
cantidad de metros de carretera que deben recorrerse
hasta que aparezca el primer bache, cantidad de 𝑚2 que
deben inspeccionarse en una hacienda hasta que aparezca
el primer cafetal de broca, etc.
2. En el lenguaje de las aplicaciones también se utiliza la
distribución exponencial para modelar tiempo entre
eventos, distancia entre eventos, volumen entre eventos.
Ejemplo
Supóngase que la duración de los instrumentos
electrónicos 𝐷1 y 𝐷2 tienen distribuciones Exponenciales
así: 𝐷1 ~𝑒 1/40 ; 𝐷2 ~𝑒 1/45
¿Cuál se debe preferir para usarlo durante un periodo de
45 horas?
Debería preferirse aquel instrumento que de mayor
garantía de duración para un mínimo de tiempo como el
requerido, es decir, debe calcularse la probabilidad de que
el instrumento dure por lo menos 45 horas, en cada caso.

1 −1
𝑃(𝐷1 ≥ 45) = ∫ 𝑒 40 𝑑𝑥 = 0.324652
45 40

1 −1
𝑃 (𝐷2 ≥ 45) = ∫ 𝑒 45 𝑑𝑥 = 0.367879
45 45

El instrumento dos tiene mayor probabilidad de tener


duración de 45 o más horas.
Comprueba los anteriores resultados utilizando la función
de distribución.
Inferencia Estadística

Sea 𝑥 una variable aleatoria cuya distribución se conoce


parcialmente con media o varianza conocida.
Sea 𝑋~𝐷(𝜃) con 𝜃 desconocido.
Una muestra aleatoria de tamaño 𝑛 está compuesta por 𝑛
mediciones independientes de la variable 𝑥.
Equivalentemente 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 es una muestra aleatoria
solo si son independientes.
El objetivo es saber el valor de 𝜃 a partir de 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛

La distribución de una estadística se llama distribución de


muestreo.
El error estándar es la desviación de la distribución de
muestreo.

Ejemplo
Sea 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 una muestra aleatoria de 𝑋~𝑁(𝜇, 𝜎 2 )
con 𝜇 y 𝜎 2 desconocido.
1 1
𝑥̅ = ∑ 𝑥𝑖 𝑠2 = ∑(𝑥𝑖 − 𝑥̅ )2
2 𝑛−1
𝜎2
𝐸 (𝑥̅ ) = 𝜇 𝑉𝑎𝑟(𝑥̅ ) =
𝑛
𝜎2 𝑥̅ −𝜇
Entonces 𝑋~𝑁 (𝜇, 𝑛 ) → 𝜎 ~𝑁(0,1)
√𝑛
𝜎
𝐸𝑟𝑟𝑜𝑟 𝐸𝑠𝑡á𝑛𝑑𝑎𝑟(𝑥̅ ) =
√𝑛
t de Student
Es una distribución de probabilidad que surge del
problema de estimar la media de una población
normalmente distribuida cuando el tamaño de la muestra
es pequeño.
𝑛
𝐸 (𝑡𝑛 ) = 0 𝜎 2 (𝑡𝑛 ) = 𝑛>2
𝑛−2
Teniendo la probabilidad 𝛼 y los grados de libertad se
busca el valor de 𝑡

Cuando aumentan los grados de libertad se parece más a


una distribución normal
Fisher
2 2
Sea 𝑌1 ~𝑋𝑘1 y 𝑌2 ~𝑋𝑘2 además 𝑌1 y 𝑌2 son variables
aleatorias independientes.
𝑌1
𝑘1 ~𝐹 (𝑘1, 𝑘2)
𝑌2
𝑘2
Ejemplo
Sean
𝑥11 , 𝑥12 , ⋯ , 𝑥1𝑛 es m.a. de 𝑋1 ~𝑁(𝜇1 , 𝜎12 )
𝑥21 , 𝑥22 , ⋯ , 𝑥2𝑛 es m.a. de 𝑋2 ~𝑁(𝜇2 , 𝜎22 )

Se define
1 1
𝑥̅1 = ∑ 𝑥1𝑖 𝑆12 = ∑(𝑥1𝑖 − 𝑥̅1 )2
𝑛 𝑛−1
1 1
𝑥̅ 2 = ∑ 𝑥2𝑖 𝑆22 = ∑(𝑥2𝑖 − 𝑥̅ 2 )2
𝑚 𝑚−1
2
𝑆12 𝑥( )
}
𝜎12 −1
2 ~𝐹(𝑛−1,𝑚−1)
𝑆22 𝑥( )
}
𝜎22 −1
Estimación de Parámetros
Suponiendo una variable aleatoria 𝑋 está normalmente
distribuida con media 𝜇 y varianza 𝜎 2
La media de la muestra 𝑋̅ es un estimador puntual de la
media desconocida 𝜇, de la población.
1
Es decir 𝜇̂ = 𝑛 ∑ 𝑥𝑖 = 𝑋̅ 𝐸 (𝑥̅ ) = 𝜇
2
De modo similar 𝑆 es un estimador puntual para una
varianza 𝜎 2 desconocida.
1 𝜎2
Es decir 𝜎̂ 2 = ∑(𝑥𝑖 − 𝑥̅ )2 = 𝑠 2 𝑉𝑎𝑟(𝑥̅ ) =
𝑛−1 𝑛

Los problemas de estimación ocurren con frecuencia en


ingeniería. A menudo se necesita estimar
 La media 𝜇 de una sola población
 La varianza 𝜎 2 (o desviación estándar 𝜎) de una población
 La proporción 𝑝 de artículos en una población que
pertenece a la clase de interés
 La diferencia en las medias de dos poblaciones, 𝜇1 − 𝜇2
 La diferencia en dos proporciones de población, 𝑝1 − 𝑝2

Las estimaciones puntuales serán


 Para 𝜇, 𝜇̂ = 𝑋̅
 Para 𝜎, 𝜎̂ 2 = 𝑠 2
 Para 𝑝, 𝑝̂ = 𝑋⁄𝑛, donde 𝑋 es el número de objetos en una
muestra de tamaño n
 Para 𝜇1 − 𝜇2 , la estimación es 𝜇̂ 1 − 𝜇̂ 2
 Para 𝑝1 − 𝑝2 , la estimación es 𝑝̂1 − 𝑝̂2
Estimadores Puntuales
Hallar la aproximación de un parámetro desconocido (Se
usa cuando la distribución pero no los parámetros)

La estimación puntual es un único valor (creo tiene 19 años)


Si son más valores se le llama por intervalo (entre 18 y 20 años)

Sea 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 una muestra aleatoria 𝑋~𝐷(𝜃) con 𝜃


desconocido. Sea además la función 𝑔(𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 )
para aproximar la expresión 𝜃̂ = 𝑔(𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ) se
llama estimación puntual de 𝜃

Ejemplo
Sea una población 𝑋~𝑁(𝜇 = 5, 𝜎 = 1.2) teóricamente se
desconoce 𝜇 y 𝜃

Se tiene una muestra de 10 datos


4.64 3.47 5.29 6.53 6.44 1.08 2.38 4.72 6.31 3.70

1
𝜇̂ = 𝑥̅ = ∑ 𝑥𝑖 = 5.0557
𝑛
2 2
1
𝜎̂ = 𝑆 = ∑(𝑥𝑖 − 𝑥̅ )2 = 2.405
𝑛−1
𝜎̂ = 𝑆 = 1.5508
Neutralidad o Insesgamiento
Sea 𝜃̂ una estimación puntual del parámetro 𝜃 donde en
una muestra aleatoria 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 es insesgada si
𝐸(𝜃̂) = 𝜃

Ejemplo
Sea 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 una muestra aleatoria de 𝑋~𝑁(𝜇, 𝜎 2 )
con 𝜇 y 𝜎 desconocido

1
𝜇̂ = ∑ 𝑥𝑖 = 𝑥̅
𝑛
1
𝐸 (𝜇̂ ) = 𝐸 (∑ 𝑥𝑖 ) = 𝜇 𝑒𝑠 𝑖𝑛𝑠𝑒𝑠𝑔𝑎𝑑𝑜
𝑛

𝐸 (𝜎̂ 2 ) = 𝜎̂ 2

Ejemplo
Se toman muchas muestras y se saca 𝜃̂ el dato que mas se
repita será muy cercano a 𝜃 y será insesgado.

Población 1, 2, 4, 6, 8 𝜇 = 4.2
Si no se conoce la población se toma una muestra
12 14 46 28 48 18
𝜇 = 1.5 𝜇 = 2.5 𝜇 = 5 𝜇 = 5 𝜇 = 6 𝜇 = 4.5
Las muestras deben tener igual tamaño 𝜇 𝑇 = 3.9
Neutralidad o Insesgamiento
Eficiencia
Si las distribuciones muéstrales de dos estadísticas tienen
la misma media o esperanza, la estadística que tenga
menor varianza se llama estimador eficiente de la media.

Sea 𝜃̂ un estimador puntual del parámetro desconocido 𝜃


2
Se define error cuadrático medio 𝐸𝐶𝑀(𝜃̂ ) = 𝐸(𝜃̂ − 𝜃)
Si el resultado es pequeño la aproximación es buena
Si 𝜃̂ es insesgado entonces 𝐸(𝜃̂ ) = 𝜃 → 𝐸(𝜃̂) − 𝜃 = 0

Ejemplo
Sea 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 una muestra aleatoria es 𝑋~𝑁(𝜇, 𝜎 2 )
con 𝜇 desconocido y 𝜎 2 conocido
Estimador 1
1 𝜎2
𝜇̂ 1 = 𝑥̅ = ∑ 𝑥𝑖 𝐸𝑀𝐶 (𝜇̂ 1 ) = 𝑉𝑎𝑟(𝑥̅ ) =
𝑛 𝑛
Estimador 2
𝜇̂ 2 = 𝑥1 𝐸(𝜇̂ 2 ) = 𝐸 (𝑥1 ) 𝐸𝑀𝐶(𝜇̂ 2 ) = 𝑉𝑎𝑟(𝑥1 ) = 𝜎 2

𝜎2
𝐸𝑀𝐶 (𝜇̂ 1 ) 1
𝐸𝑓𝑖𝑐𝑖𝑒𝑛𝑐𝑖𝑎 = = 𝑛2 =
𝐸𝑀𝐶 (𝜇̂ 2 ) 𝜎 𝑛
1
𝑛 es el tamaño de la muestra

𝑛 = 1 𝑖𝑔𝑢𝑎𝑙 𝑑𝑒 𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒
𝑛 > 1 𝑒𝑙 𝑑𝑒 𝑎𝑟𝑟𝑖𝑏𝑎 𝑒𝑠 𝑚𝑒𝑗𝑜𝑟
𝑛 < 1 𝑒𝑙 𝑑𝑒 𝑎𝑏𝑎𝑗𝑜 𝑒𝑠 𝑚𝑒𝑗𝑜𝑟
Eficiencia
La cota de Ras-Cramer
o
Estimador neutral de varianza mínima
Expresa una cota inferior para la varianza de un estimador
insesgado, basado en la información de Fisher.

1
𝑉𝑎𝑟(𝜃̂) > 2
𝑑
𝑛𝐸 (𝑑𝜃 𝑙𝑛(𝑓(𝑥, 𝜃)))
Donde 𝑓(𝑥, 𝜃) es la función de densidad de la población
𝑋~𝐷(𝜃) con 𝜃 desconocido

Ejemplo
Hallar la cota de Ras-Cramer para 𝑥̅ en una población
𝑋~𝑁(𝜇, 𝜎 2 ) con 𝜎 2 conocida

1 −1 𝑥−𝜇 2
[ ( ) ]
𝑓(𝑥, 𝜇) = 𝑒 2 𝜎
𝜎√2𝜋
𝑑 𝑥−𝜇
𝑙𝑛[𝑓 (𝑥, 𝜇)] → 𝑙𝑛(𝑓(𝑥, 𝜃)) =
𝑑𝜇 𝜎2
Luego
1 𝜎2
𝑉𝑎𝑟(𝑥̅ ) > =
𝑥−𝜇 2 𝑛
𝑛𝐸 ( 2 )
𝜎
Tomar 𝑥̅ para estimar 𝜇 es el mejor estimador insesgado.
Consistencia
Sea 𝜃̂𝑛 un estimador puntual de 𝜃 desconocido calculado
en muestra aleatoria de tamaño 𝜃̂𝑛 si es consistente
lim 𝑃 (|𝜃𝑛 − 𝜃| < 𝜀 ) = 1 𝜀 = 0.001
𝑛→∞
𝑉𝑎𝑟(𝑋̅) = 𝜎 2 ⁄𝑛

Si se sabe que es consistente la estimación debe hacerse en


el grupo más grande posible.
Si la varianza tiende a cero entre más muestras halla el
estimador será consistente.

La consistencia es una propiedad de muestras grandes,


puesto que describe el comportamiento en el límite del
estimador 𝜃̂ conforme el tamaño de la muestra tiende a
infinito.

Ejemplo
Sea 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 una muestra aleatoria de 𝑋~𝑁(𝜇, 𝜎 2 )
𝑋̅ es un estimador consistente de la media de 𝑋~𝑁 (𝜇, 𝜎 2 )
El estimador 𝑋̅ = 𝜇 es consistente dado que

𝑋̅ es neutral y lim 𝑉𝑎𝑟(𝑋̅) = lim (𝜎 2 ⁄𝑛) = 0


𝑛→∞ 𝑛→∞
Métodos para Estimaciones Puntuales
Método de Máxima Similitud o EMV
Es uno de los mejores métodos para obtener un estimador
puntual.
Suponiendo que 𝑋 es una variable aleatoria con
distribución de probabilidad 𝑓(𝑥, 𝜃), donde 𝜃 es un
parámetro desconocido. Sean 𝑋1 , ⋯ , 𝑋𝑛 los valores
observados en una muestra aleatoria de tamaño n. La
función de probabilidad de la muestra es
𝐿(𝜃) = 𝑓(𝑥1 , 𝜃) ∙ 𝑓(𝑥2 , 𝜃) ⋯ 𝑓(𝑥𝑛 , 𝜃)
La función de probabilidad es una función con solo 𝜃
desconocido

Ejemplo
Sea 𝑋 una variable aleatoria de Bernoulli. La función de
probabilidad es
𝑝(𝑥 ) = 𝑝 𝑥 (1 − 𝑝)1−𝑥
𝐿(𝑝) = ∏ 𝑝 𝑥𝑖 (1 − 𝑝)1−𝑥𝑖 = 𝑝∑ 𝑥𝑖 (1 − 𝑝)1−∑ 𝑥𝑖
1
El mejor estimador será 𝑝̂ = 𝑛 ∑ 𝑋𝑖

Para una distribución normal con 𝜇 desconocida y 𝜎 2


conocida
1
𝜇̂ = ∑ 𝑋𝑖 = 𝑋̅
𝑛
Para una distribución normal con 𝜇 y 𝜎 2 desconocida
1 1
𝜇̂ = ∑ 𝑋𝑖 = 𝑋̅ 𝜎̂ 2 = ∑(𝑋𝑖 − 𝑋̅ )2
𝑛 𝑛
Método de Momentos
Sea 𝑋~𝐷(𝜃1 , ⋯ , 𝜃𝑘 ) con 𝜃1 , ⋯ , 𝜃𝑘 desconocidos
Se toma una muestra de 𝑥 de tamaño 𝑛

Suponiendo que 𝑓(𝑥) es la función de densidad. Sea


𝑋1 , ⋯ , 𝑋𝑛 una muestra aleatoria de 𝑋. Se define
1
𝑚′𝑘 = ∑ 𝑋𝑖𝑡 𝑡 = 1,2, ⋯ , 𝑘
𝑛
1
Si 𝑡 = 1 𝑚′1 = 𝑛 ∑ 𝑋𝑖 = 𝑋̅
1
Si 𝑡 = 2 𝑚′2 = 𝑛 ∑ 𝑋𝑖2

Ejemplo
Sea 𝑋~𝑁(𝜇, 𝜎 2 ) donde 𝜇 y 𝜎 2 se desconocen.

𝜇′1 = 𝐸 (𝑋) = 𝜇 𝜇′2 = 𝐸 (𝑋 2 ) = 𝜇′ + 𝜎 2


1
𝑚′1 = 𝑋̅ 𝑚′2 = ∑ 𝑋𝑖
𝑛
1 1
𝜇̂ = ∑ 𝑋𝑖 = 𝑋̅ 𝜎̂ 2 = ∑(𝑋𝑖 − 𝑋̅ )2
𝑛 𝑛

Para una distribución de Bernoulli con 𝑝 desconocido

1
𝑚′1 = ∑ 𝑋𝑖 = 𝑋̅ 𝜇′1 = 𝐸 (𝑋) = 𝑝̂
𝑛
̅
𝑚′1 = 𝜇′1 → 𝑋 = 𝑝̂
𝑝(1 − 𝑝)
𝐸 (𝑝̂ ) = 𝑝 𝑉𝑎𝑟(𝑝̂ ) =
𝑛
Estimador por Intervalo
Sea 𝑥1 , ⋯ , 𝑥𝑛 una muestra aleatoria de 𝑋~𝐷(𝜃) con 𝜃
desconocido
Una estimación por intervalo es de la forma 𝜃1 ≤ 𝜃 ≤ 𝜃2
𝜃1 y 𝜃2 son aleatorios, si 𝑃(𝜃1 ≤ 𝜃 ≤ 𝜃2 ) = 1−∝ será un
intervalo de confianza

Muestras de igual tamaño se saca de cada muestra un 𝜃1 y


𝜃2 Si ∝= 5% y se tiene 100 muestras entonces 95
muestras contienen 𝜃

Si ∝ es muy pequeño los intervalos serán grandes


Intervalos de Confianza
Sea 𝑋~𝐷(𝜃) con 𝜃 desconocido. Un intervalo de
confianza (IC) del (1−∝)100% para 𝜃 está dado por
𝑃(𝜃1 ≤ 𝜃 ≤ 𝜃2 ) = 1−∝ para hallar 𝜃1 y 𝜃2

Ejemplo
Sea 𝑥1 , ⋯ , 𝑥𝑛 una muestra aleatoria de 𝑋~𝑁(𝜇, 𝜎 2 ) con
𝜇 desconocido y 𝜎 2 conocido se hace
1 𝜎2
𝜇̂ = ∑ 𝑥𝑖 = 𝑋̅~𝑁 (𝜇, )
𝑛 𝑛
𝜎
𝑋̅ ± 𝑍𝑜 𝑍𝑜 = 𝑍(𝛼⁄2) = −𝑍(𝛼⁄2)
√𝑛
𝜎 𝜎 2
𝐸𝑟𝑟𝑜𝑟 = 𝑍𝑜 → 𝑛 = (𝑍𝑜 )
√𝑛 𝐸
Ejemplo
Se toman 10 medidas de la conductividad 𝑋̅ = 41.92
41.60 41.48 42.34 41.95 41.86 42.18 41.72 42.26 41.81 42.04
𝑋~𝑁(𝜇, 𝜎 = 0.1)
Un intervalo de confianza del 95% para 𝜇
𝜎 0.1
𝑋̅ ± 𝑍𝑜 → 41.92 ± 1.96 → 41.92 ± 0.062
√𝑛 √10
→ (41.86 , 41.98)
Caso I
Se tiene 𝑋~𝑁(𝜇, 𝜎 2 ) con 𝜇 y 𝜎 2 desconocidos
Un intervalo de confianza del (1 − 𝛼 )100% para 𝜇
𝑋̅ −𝜇
Entonces tiene una distribución 𝑆⁄ ~𝑡(𝑛−1)
√𝑛

𝑆
𝑋̅ ± 𝑡𝑜 Usando la tabla se halla 𝑡𝑜
√𝑛
Ejemplo
Si se tienen los estimadores 𝑋̅ = 41.92 𝑆 2 = 0.08982
𝑆
𝑋̅ ± 𝑡𝑜 Usando la tabla se halla 𝑡𝑜
√𝑛
𝑆 0.0898
𝑋̅ ± 𝑡𝑜 → 41.92 ± 2.262 → 41.92 ± 0.064
√𝑛 √10
(41.856 , 41.984)
Caso II
Se tiene 𝑋~𝑁(𝜇, 𝜎 2 ) con 𝜇 y 𝜎 2 desconocido
Un intervalo de confianza del (1 − 𝛼 )100% para 𝜎 2
𝑆2
Entonces tiene una distribución (𝑛 − 1) 2 ~𝑥 2 (𝑛−1)
𝜎
Sacando lo estimadores 𝑋̅ = 41.92 𝑆 2 = 0.08982
(𝑛−1)𝑆 2
𝜎2 = ± 𝑥2 Usando la tabla se halla 𝑥 2 (𝑛−1,𝛼⁄
(𝑛−1,𝛼⁄2) 2)

Ejemplo
Si se tiene el estimador 𝑆 2 = 0.08982 con 𝑛 = 10
(𝑛−1)𝑆 2
𝜎2 = ± 𝑥2 Usando la tabla se halla 𝑥 2 (𝑛−1,𝛼⁄
(𝑛−1,𝛼⁄2) 2)

(𝑛 − 1)𝑆 2 (9)0.08982
± 2 →± 2 → (0.0038 , 0.0278)
𝑥 (𝑛−1,𝛼⁄ ) 𝑥 (𝑛−1,𝛼⁄ )
2 2
Caso III
Se usa para ver que tanto discrepan dos medias si solo se
conoce el tamaño de las muestras 𝑛 y sus varianzas 𝜎 2
Sea 𝑋1 ~𝑁(𝜇1 , 𝜎12 ) y 𝑋2 ~𝑁(𝜇2 , 𝜎22 )
𝜎2 𝜎2
Se tiene 𝑋̅1 ~𝑁 (𝜇1 , 1 ) y 𝑋̅2 ~𝑁 (𝜇2 , 2 )
𝑛1 𝑛2
𝜎 𝜎 2 2
Se quiere 𝑋̅1 − 𝑋̅2 ~𝑁 (𝜇1 − 𝜇2 , 1 + 2 )
𝑛1 𝑛2
𝜎 𝜎 2 2
(𝑋̅1 − 𝑋̅2 ) ± 𝑍𝑜 √ 1 + 2 Usando la tabla se halla 𝑍𝑜
𝑛 𝑛 1 2

Ejemplo
Construir un intervalo de confianza para 𝜇1 − 𝜇2
𝑋̅1 = 87.6 𝑋̅2 = 74.5 𝑛1 = 10 𝑛2 = 12 𝜎12 = 12 𝜎22 = 1.52

𝜎12 𝜎22 12 1.52


(𝑋̅1 − 𝑋̅2 ) ± 𝑍𝑜 √ + → (87.6 − 74.5) ± 1.96√ + →
𝑛1 𝑛2 10 12
→ 13.1 ± 1.05 → (12.05,14,15)

Como el intervalo de diferencia es positivo la primera


muestra es más alta que la segunda, será negativo si la
segunda muestra es más alta
Caso IV
Suponiendo que 𝜎12 = 𝜎22 = 𝜎 2 pero desconocido
(𝑋̅1 −𝑋̅2 )−(𝜇1 −𝜇2 )
Se tiene una distribución ~𝑡(𝑛−1,𝛼⁄
1
𝑆𝑝 √𝑛 +𝑛
1 2)
1 2
(𝑛1 − 1)𝑆12 + (𝑛2 − 1)𝑆22
𝑆𝑝 =
(𝑛1 − 1) + (𝑛2 − 1)
1 1
(𝑋̅1 − 𝑋̅2 ) ± 𝑡𝑜 𝑆𝑝 √ + Usando la tabla se halla 𝑡𝑜
𝑛 1𝑛 2

Ejemplo
Construir un intervalo de confianza para 𝜇1 − 𝜇2
𝑋̅1 = 87.6 𝑋̅2 = 74.5 𝑛1 = 10 𝑛2 = 12
Suponiendo son iguales con valores reales 𝑆12 = 12 𝑆22 = 1.52
(10 − 1)12 + (12 − 1)1.52
𝑆𝑝 = = 1.69
(10 − 1) + (12 − 1)
1 1
(87.6 − 74.5) ± (2.086)(1.69)√ + =
10 12
= 13.1 ± 1.51 → (11.59 , 14.61)
Caso V
Suponiendo que 𝜎12 ≠ 𝜎22 y desconocido
(𝑋̅1 −𝑋̅2 )−(𝜇1 −𝜇2 )
Se tiene una distribución ~𝑡(𝑣,𝛼⁄
2)
𝑆2 𝑆2
√ 1+ 2
𝑛1 𝑛2

(𝑆12 ⁄𝑛1 + 𝑆22 ⁄𝑛2 )2


𝑣=
(𝑆12 ⁄𝑛1 )2 (𝑆22 ⁄𝑛2)2
+
𝑛1 − 1 𝑛2 − 1
2
𝑆 𝑆22
(𝑋̅1 − 𝑋̅2 ) ± 𝑡𝑜 √ 1 + Usando la tabla se halla 𝑡𝑜
𝑛1 𝑛2

Ejemplo
Encontrar un intervalo de confianza del 90% para 𝜇1 −
𝜇2
𝑋̅1 = 7 𝑋̅2 = 36 𝑛1 = 20 𝑛2 = 24 𝑆12 = 4 𝑆22 = 100
𝑣 = 25 𝑡(0.05,25) = 1.708
𝑆2 𝑆2
(𝑋̅1 − 𝑋̅2 ) ± 𝑡𝑜 √ 1 + 2 = (−32.56 , −25.43)
𝑛1 𝑛2
Caso VI
Sea 𝑋~𝐵𝑒𝑟𝑛𝑜𝑢𝑙𝑙𝑖(𝑝) con 𝑝 desconocido

Un intervalo de confianza del (1 − 𝛼 )100% para 𝑝


𝑝̂ − 𝑝
~𝑁(0,1) 𝑠𝑜𝑙𝑜 𝑠𝑖 𝑛 → ∞
𝑝(1 − 𝑝)
𝑛
𝑝̂ (1 − 𝑝̂ )
𝑝̂ ± 𝑍𝑜 √
𝑛

Ejemplo
¿Qué proporción de familias tienen HBO con un
intervalo de confianza del 95%
340 de 500 personas tienen HBO

340
𝑝̂ = = 0.68
500
0.68(1 − 0.68)
0.68 ± 1.96√ = 0.68 ± 0.04 =
500
= (0.64 , 0.72)
Caso VII
Sea 𝑋1 ~𝐵𝑒𝑟𝑛𝑜𝑢𝑙𝑙𝑖(𝑝1 ) y 𝑋2 ~𝐵𝑒𝑟𝑛𝑜𝑢𝑙𝑙𝑖(𝑝2 ) con 𝑝1 y
𝑝2 desconocido. 𝑝1 − 𝑝2 será
(𝑝̂1 − 𝑝̂ 2 ) − (𝑝1 − 𝑝2 )
~𝑁(0,1)
𝑝1 (1 − 𝑝1 ) 𝑝2 (1 − 𝑝2 )
√ +
𝑛1 𝑛2
Un intervalo de confianza del (1 − 𝛼)100% para 𝑝1 − 𝑝2
𝑝̂1 (1 − 𝑝̂1 ) 𝑝̂ 2 (1 − 𝑝̂ 2 )
(𝑝̂1 − 𝑝̂ 2 ) ± 𝑍𝑜 √ +
𝑛1 𝑛2

Ejemplo
Se esta evaluando cambiar de proceso
En el proceso 1, 75 de los 1500 presentan defectos
En el proceso 2, 80 de los 2000 presentan defectos
Hallar un intervalo de confianza del 90% para 𝑝1 − 𝑝2
75 80
𝑝̂1 = = 0.05 𝑝̂ 2 = = 0.04
1500 2000
0.05(1 − 0.05) 0.04(1 − 0.04)
(0.05 − 0.04) ± 1.645√ +
1500 2000
= 0.01 ± 0.0117 = (−0.0017 , 0.0217)
No se descarta que puedan ser iguales ya que pasan por 0
Caso VIII
Sea 𝑋1 ~𝑁(𝜇1 , 𝜎12 ) y 𝑋2 ~𝑁(𝜇2 , 𝜎22 ) con 𝜎12 y 𝜎22
desconocidos se quiere saber 𝜎12 ⁄𝜎22
𝜎22 𝑆12
~𝐹(𝛼⁄2,𝑛2 −1,𝑛1−1 )
𝜎12 𝑆22
𝑆12 𝜎12 𝑆12
𝐹 ≤ ≤ 𝐹
𝑆22 (1−(𝛼⁄2),𝑛2−1,𝑛1 −1 ) 𝜎22 𝑆22 (𝛼⁄2,𝑛2−1,𝑛1 −1 )
Tener presente que
1
𝐹(1−(𝛼⁄2),𝑛2−1,𝑛1 −1 ) =
𝐹(𝛼⁄2,𝑛2−1,𝑛1 −1 )

Ejemplo
Se comparan dos catalizadores con un intervalo del 90%
𝑛1 = 12 𝑛2 = 15 𝑆1 = 0.85 𝑆2 = 0.98

(0.85)2 𝜎12 (0.85)2


( 0.39) ≤ ≤ (2.74) =
(0.98)2 𝜎22 (0.98)2
𝜎21
= 0.29 ≤ 2 ≤ 2.06
𝜎2
Hipótesis