Vous êtes sur la page 1sur 6

Universidad de los Andes

Departamento de Ingeniería Industrial


Probabilidad y Estadística I – EXAMEN FINAL

ESTADÍSTICA Teorema de Bayes


Media Muestral 𝑃(𝐴|𝐵)𝑃(𝐵) = 𝑃(𝐵|𝐴)𝑃(𝐴) = 𝑃(𝐴 ∩ 𝐵)
∑𝑛𝑖=1 𝑥𝑖
𝑋� = Propiedades
𝑛
Mediana Muestral 𝑃(𝐴) = 1 − 𝑃(𝐴𝐶 )
(𝑛 + 1) 𝑃(𝐴𝐶 |𝐵) = 1 − 𝑃(𝐴|𝐵)
𝑛_𝑖𝑚𝑝𝑎𝑟: 𝑀𝑒𝑑𝑖𝑎𝑛𝑎 = � � é𝑠𝑖𝑚𝑜 𝑣𝑎𝑙𝑜𝑟 𝑑𝑒 𝑙𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎
2 𝑆𝑖 𝐴 𝑦 𝐶 𝑠𝑜𝑛 𝑚𝑢𝑡𝑢𝑎𝑚𝑒𝑛𝑡𝑒 𝑒𝑥𝑐𝑙𝑢𝑦𝑒𝑛𝑡𝑒𝑠
𝑃(𝐴 ∪ 𝐶|𝐵) = 𝑃(𝐴|𝐵) + 𝑃(𝐶|𝐵)
𝑛 𝑛
𝑛_𝑝𝑎𝑟: 𝑀𝑒𝑑𝑖𝑎𝑛𝑎 = 𝑃𝑟𝑜𝑚𝑒𝑑𝑖𝑜 � 𝑦 � + 1�� é𝑠𝑖𝑚𝑜 𝑣𝑎𝑙𝑜𝑟 𝑑𝑒 𝑙𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎
2 2
Ley de Probabilidades Totales
Ω = {𝑁1 ∪ 𝑁2} → 𝑃(𝐴) = 𝑃(𝐴 ∩ 𝑁1) + 𝑃(𝐴 ∩ 𝑁2)
Desviación Estándar (s) y Varianza (s2)
P(N1)*P(B|N1)=P(BN1)
∑𝑛𝑖=1(𝑥𝑖 − 𝑋�)2
𝑆2 = ; 𝑆 = +�𝑆 2 Recuerda:
𝑛−1 Dos eventos mutuamente
Coeficiente de Variación excluyentes NO son
𝑆 independientes.
𝐶𝑉 =
𝑋�
VARIABLES ALEATORIAS
PROBABILIDAD Discretas
Axiomas  Función de Probabilidad 𝒈𝑿 (𝒙) = 𝑷(𝑿 = 𝒙)
𝑃(Ω) = 1 𝑔𝑋 (0) 𝑥=0
𝑃(𝐵1 ) + 𝑃(𝐵2 ) + ⋯ + 𝑃(𝐵𝑛 ) = 𝑃(𝐵1 ∪ 𝐵2 ∪ … ∪ 𝐵𝑛 ) 𝑔 (1) 𝑥=1
𝑔𝑋 (𝑥) = � 𝑋
→ 𝑆ó𝑙𝑜 𝑠𝑖 𝑠𝑜𝑛 𝑚𝑢𝑡𝑢𝑎𝑚𝑒𝑛𝑡𝑒 𝑒𝑥𝑐𝑙𝑢𝑦𝑒𝑛𝑡𝑒𝑠 ⋮
Teorema 0 𝑑𝑙𝑐
𝑃(𝐻 ∪ 𝐾) = 𝑃(𝐻) + 𝑃(𝐾) − 𝑃(𝐻 ∩ 𝐾) 𝑃𝑟𝑜𝑝𝑖𝑒𝑑𝑎𝑑𝑒𝑠:
𝑃(𝐻 ∪ 𝑃 ∪ 𝐼) = 𝑃(𝐻) + 𝑃(𝑃) + 𝑃(𝐼) − 𝑃(𝑃 ∩ 𝐻) − 𝑃(𝐻 ∩ 𝐼) → � 𝑔𝑋 (𝑥𝑖 ) = 1
− 𝑃(𝑃 ∩ 𝐼) + 𝑃(𝐻 ∩ 𝑃 ∩ 𝐼)
𝑅(𝑋)
# 𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠 𝐹𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 𝑑𝑒𝑙 𝑒𝑣𝑒𝑛𝑡𝑜 𝐵
𝑃(𝐵) = → 0 ≤ 𝑔𝑋 (𝑥𝑖 ) ≤ 1 ∀ 𝑖 ∈ 𝑅(𝑋)
# 𝑇𝑜𝑡𝑎𝑙 𝑑𝑒 𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠  Función de Distribución Acumulada 𝑭𝑿 (𝒙) = 𝑷(𝑿 ≤ 𝒙)
MÉTODOS DE CONTEO 0 𝑥<0
Regla de la Multiplicación 𝑔𝑋 (0) 0≤𝑥<1
# 𝑇𝑜𝑡𝑎𝑙 𝑑𝑒 𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠 = 𝑛1 ∗ 𝑛2 ∗ … ∗ 𝑛𝑟 𝐹𝑋 (𝑥) = �

Arreglo Ordenado 1 𝑥≥𝑘
#𝑇𝑜𝑡𝑎𝑙 𝑑𝑒 𝑟_𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠 𝑑𝑒 𝑢𝑛 𝑐𝑜𝑛𝑗𝑢𝑛𝑡𝑜 𝑑𝑒 𝑛 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 Continuas
#𝑚(𝑟; 𝐴) = 𝑛𝑟  Función de Densidad de Probabilidad
Permutaciones Ordinarias 𝑃𝑟𝑜𝑝𝑖𝑒𝑑𝑎𝑑𝑒𝑠:
𝑛 = 𝑟; 𝑃(𝑛) = 𝑛! → 𝑓𝑋 (𝑥) ≥ 0
Permutaciones (No hay repetición de elementos, Sin reemplazo,
→� 𝑓𝑋 (𝑥) = 1
Arreglo ordenado) 𝑅(𝑋)
𝑛! 𝑏
𝑟 < 𝑛; 𝑃(𝑟; 𝑛) = → 𝑃(𝑎 < 𝑋 < 𝑏) = � 𝑓𝑋 (𝑥)𝑑𝑥
(𝑛 − 𝑟)!
𝑎
Combinaciones (No hay repetición de elementos, Sin reemplazo,  Función de Distribución Acumulada 𝑭𝑿 (𝒙)
No importa orden) 𝑥
𝛿
𝑛! 𝐹𝑋 (𝑥) = � 𝑓𝑋 (𝑡)𝑑𝑡 = 𝑃(𝑋 ≤ 𝑥) → 𝐹𝑋 (𝑥) = 𝑓𝑋 (𝑥)
𝐶(𝑟; 𝑛) = −∞ 𝛿𝑥
(𝑛 − 𝑟)! 𝑟!
VALOR ESPERADO Y VARIANZA
Particiones Ordenadas
Propiedades Valor Esperado
#𝑃(𝑛1 , 𝑛2 , … , 𝑛𝑟 ; 𝐴)
𝑁 𝑁 − 𝑛1 𝑁 − 𝑛1 − 𝑛2 𝑁 − 𝑛1 − 𝑛2 − ⋯ − 𝑛𝑟−1 𝐸(𝑎) = 𝑎
= � �� �� �…� � 𝐸(𝑎𝑋) = 𝑎𝐸(𝑋)
𝑛1 𝑛2 𝑛3 𝑛𝑟
𝑁! 𝐸(𝑋 ± 𝑌) = 𝐸(𝑋) ± 𝐸(𝑌)
= 𝐸(𝑋𝑌) = 𝐸(𝑋) ∗ 𝐸(𝑌)
𝑛1 ! 𝑛2 ! … 𝑛𝑟 !
→ 𝑆ó𝑙𝑜 𝑠𝑖 𝑋 𝑦 𝑌 𝑠𝑜𝑛 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠
Propiedades Varianza
PROBABILIDAD CONDICIONAL
𝑃(𝐴 ∩ 𝐵) 𝑉𝑎𝑟(𝑎) = 0
𝑃(𝐴|𝐵) = 𝑉𝑎𝑟(𝑎𝑋) = 𝑎2 𝑉𝑎𝑟(𝑋)
𝑃(𝐵) 𝑉𝑎𝑟(𝑋 ± 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌) 𝑆𝑖 𝑋, 𝑌 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠
Independencia 𝑉𝑎𝑟(𝑎𝑋 ± 𝑏𝑌 + 𝑐) = 𝑎2 𝑉𝑎𝑟(𝑋) + 𝑏 2 𝑉𝑎𝑟(𝑌) ± 2𝑎𝑏 𝐶𝑜𝑣(𝑋, 𝑌)
𝑆𝑖 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) ∗ 𝑃(𝐵) ⟷ 𝑃(𝐴|𝐵) = 𝑃(𝐴) Si 𝑋, 𝑌 independientes  𝐶𝑜𝑣(𝑋, 𝑌) = 0
Discretas Continuas

𝑬[𝑿] = 𝝁 � 𝑥𝑖 𝑔𝑋 (𝑥𝑖 ) � 𝑥𝑓𝑋 (𝑥) 𝑑𝑥


𝑅(𝑋) 𝑅(𝑋)
2
2
𝟐 (𝑬[𝑿])𝟐
𝑽𝒂𝒓[𝑿] = 𝑬[𝑿 ] − � 𝑥𝑖2 𝑔𝑋 (𝑥𝑖 ) − � � 𝑥𝑖 𝑔𝑋 (𝑥𝑖 )� � 𝑥 2 𝑓𝑋 (𝑥) 𝑑𝑥 − �� 𝑥𝑓𝑋 (𝑥) 𝑑𝑥�
𝑅(𝑋) 𝑅(𝑋) 𝑅(𝑋) 𝑅(𝑋)

Función Generatriz De Momentos 𝝍𝑿 (𝒕) 𝐸[𝑒 𝑡𝑋 ] = � 𝑒 𝑡𝑥𝑖 𝑔𝑥 (𝑥𝑖 ) 𝐸[𝑒 𝑡𝑋 ] = � 𝑒 𝑡𝑥 𝑓𝑋 (𝑥) 𝑑𝑥


𝑅(𝑋) 𝑅(𝑋)
(𝑛)
Propiedad fundamental de la FGM 𝜓𝑋 (𝑡 = 0) = 𝐸(𝑋 𝑛 )

Recuerde:
VARIABLES DISCRETAS (DISTRIBUCIONES) *Definir siempre la VA e identificar su distribución y sus parámetros.
Parámetros g x (x) E(X) Var(X) F.G.M
𝑘 𝑘
DISTRIBUCIÓN UNIFORME 𝑘 = 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 1 1 1
� 𝑥𝑖 �(𝑥𝑖 − 𝜇)2
DISCRETA 𝑣𝑎𝑙𝑜𝑟𝑒𝑠 𝑑𝑖𝑠𝑡𝑖𝑛𝑡𝑜𝑠 𝑘 𝑘 𝑘
𝑖=1 𝑖=1
(Probabilidades idénticas) 𝑞𝑢𝑒 𝑝𝑢𝑒𝑑𝑒 𝑡𝑜𝑚𝑎𝑟 𝑋 𝑥 = 𝑥1 , 𝑥2 , …
𝑎 𝑁−𝑎
𝑁 = 𝑡𝑎𝑚𝑎ñ𝑜 𝑑𝑒 𝑙𝑎 � �� �
𝑘 𝑛−𝑘 𝑁−𝑛 𝑘 𝑘
𝑝𝑜𝑏𝑙𝑎𝑐𝑖ó𝑛
𝑁 � � 𝑛 ∗ �1 − �
HIPERGEOMÉTRICA 𝑛 = 𝑡𝑎𝑚𝑎ñ𝑜 𝑑𝑒 𝑙𝑎 � � 𝑛𝑘 𝑁−1 𝑁 𝑁
𝑛
(Sin reemplazo) 𝑚𝑢𝑒𝑠𝑡𝑟𝑎 𝑎: 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑑𝑒 𝑙𝑎 𝑁
𝑘 = 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑝𝑜𝑏𝑙𝑎𝑐𝑖𝑜𝑛 𝑑𝑒 𝑙𝑎 𝐷𝑜𝑛𝑑𝑒: 𝑘 = é𝑥𝑖𝑡𝑜𝑠
é𝑥𝑖𝑡𝑜𝑠 𝑐𝑎𝑡𝑒𝑔𝑜𝑟𝑖𝑎 𝑑𝑒𝑠𝑒𝑎𝑑𝑎
BERNOULLI 𝑝 = 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝 𝑥 (1 − 𝑝)1−𝑥
𝑝 𝑝(1 − 𝑝)
(Éxito o fracaso) 𝑑𝑒 é𝑥𝑖𝑡𝑜 𝑥 = 0,1 (1 − 𝑝) + 𝑝𝑒 𝑡
𝑝 = 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑛
� � 𝑝 𝑥 (1 − 𝑝)𝑛−𝑥
BINOMIAL 𝑑𝑒 é𝑥𝑖𝑡𝑜 𝑥 𝑛𝑝
𝑥 = 0,1,2, … , 𝑛 𝑛𝑝(1 − 𝑝) 𝑛
(# éxitos en n ensayos) 𝑛 = 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 �(1 − 𝑝) + 𝑝𝑒 𝑡 �
𝑒𝑛𝑠𝑎𝑦𝑜𝑠 0≤x≤n
GEOMÉTRICA
𝑝 = 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 (1 − 𝑝)𝑥−1 𝑝 1 1−𝑝 𝑝𝑒 𝑡
(# ensayos hasta el primer
𝑑𝑒 é𝑥𝑖𝑡𝑜 𝑥 = 1,2, … 𝑝 𝑝2 1 − (1 − 𝑝)𝑒 𝑡
éxito)
BINOMIAL NEGATIVA 𝑝 = 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑥−1 𝑘 𝑘
� � (1 − 𝑝)𝑥−𝑘 𝑝𝑘 𝑘(1 − 𝑝) 𝑝𝑒 𝑡
(# ensayos hasta el k-ésimo 𝑑𝑒 é𝑥𝑖𝑡𝑜 𝑘−1 � �
𝑥≥𝑘 𝑝 𝑝2 1 − (1 − 𝑝)𝑒 𝑡
éxito) 𝑘 − é𝑠𝑖𝑚𝑜 é𝑥𝑖𝑡𝑜
# 𝑑𝑒 𝑎𝑟𝑟𝑖𝑏𝑜𝑠 (𝜆𝑡)𝑥 −𝜆𝑡
POISSON 𝜆= 𝑒
(# llegadas en un intervalo de 𝑢𝑛𝑑. 𝑡𝑖𝑒𝑚𝑝𝑜 𝑥! 𝑠
𝑥 = 0,1, … 𝑒 𝜆(𝑒 −1)
𝑡 = 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑜 𝜆𝑡 𝜆𝑡
tiempo ∆𝑡) 𝑝𝑎𝑟𝑎 𝑡 = 1
𝑑𝑒 𝑡𝑖𝑒𝑚𝑝𝑜 𝜆, 𝑡 > 0
VARIABLES CONTINUAS (DISTRIBUCIONES)
Parámetros f x (x) E(X) Var(X)
1
DISTRIBUCIÓN 𝑎 = 𝑚í𝑛𝑖𝑚𝑜 𝑎≤𝑥≤𝑏 𝑎+𝑏 (𝑏 − 𝑎)2
�𝑏 − 𝑎
UNIFORME CONTINUA 𝑏 = 𝑚á𝑥𝑖𝑚𝑜 2 12
0 𝑑𝑙𝑐
𝜇 = 𝑀𝑒𝑑𝑖𝑎 1 −
1
(𝑥−𝜇)2 𝜇 𝜎2
𝑒 2𝜎2
DISTRIBUCIÓN NORMAL 𝜎 2 = 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 √2𝜋𝜎
𝑋 −𝜇 𝑥−𝜇 𝑥−𝜇
Recuerde: 𝑃(𝑋𝑁 ≤ 𝑥) = 𝑃 � 𝑁𝜎 ≤ 𝜎 � = 𝑃 �𝑍 ≤ 𝜎 �
# 𝑑𝑒 𝑎𝑟𝑟𝑖𝑏𝑜𝑠 −𝜆𝑥 1 1
𝜆= �𝜆𝑒 𝑥, 𝜆 > 0
𝑢𝑛𝑑. 𝑡𝑖𝑒𝑚𝑝𝑜 0 𝑑𝑙𝑐 𝜆 𝜆2
DISTRIBUCIÓN
EXPONENCIAL
(Tiempo entre 2 arribos Recuerde:
consecutivos) 𝜆
𝜓𝑋𝐸 (𝑠; 𝜆) = 𝜆−𝑠 𝑃(𝑇 > 𝑡 + 𝑠|𝑇 > 𝑡) = 𝑒 −𝜆𝑠 𝑃(𝑇 > 𝑡 + 𝑠) = 1 − 𝑃(𝑇 ≤ 𝑡 + 𝑠) = 𝑒 −𝜆(𝑡+𝑠)
𝐹𝑋 (𝑥) = 𝑃(𝑋𝐸 ≤ 𝑥) = 1 − 𝑒 −𝜆𝑥
2(𝑥 − 𝑎)
⎧ 𝑎≤𝑥<𝑚
DISTRIBUCIÓN
𝑎 = 𝑚í𝑛𝑖𝑚𝑜 ⎪(𝑚 − 𝑎)(𝑏 − 𝑎) 𝑎+𝑏+𝑐 𝑎2 + 𝑏2 + 𝑐 2 − 𝑎𝑏 − 𝑎𝑐 − 𝑏𝑐
𝑏 = 𝑚𝑜𝑑𝑎 2(𝑏 − 𝑥)
TRIANGULAR ⎨ 𝑚≤𝑥<𝑏 3 18
𝑐 = 𝑚á𝑥𝑖𝑚𝑜
⎪(𝑏 − 𝑚)(𝑏 − 𝑎)
⎩ 0 𝑑. 𝑙. 𝑐
VARIABLES ALEATORIAS CONJUNTAS Probabilidades Condicionales
 Discretas
� � 𝑔𝑋𝑌 (𝑥, 𝑦) = 1 𝑃(𝑋 ≤ 𝑎|𝑌 = 𝑏) = � 𝑓𝑋|𝑌 (𝑥, 𝑌 = 𝑏)𝑑𝑥
𝑅(𝑋) 𝑅(𝑌) 𝑅(𝑋≤𝑎|𝑦=𝑏)
𝑥 𝑦

𝑃(𝑋 ≤ 𝑥 ∩ 𝑌 ≤ 𝑌) = 𝐹𝑋𝑌 (𝑥, 𝑦) = � � 𝑔𝑋𝑌 (𝑥, 𝑦) 𝑏 𝑎


𝑃(𝑋 ≤ 𝑎 ∩ 𝑌 ≤ 𝑏) ∫−∞ ∫−∞ 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦
−∞ −∞ 𝑃(𝑋 ≤ 𝑎|𝑌 ≤ 𝑏) = = 𝑏
 Continuas 𝑃(𝑌 ≤ 𝑏) ∫ 𝑓𝑌 (𝑦)𝑑𝑦 −∞
 Coeficiente de Correlación
� � 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦 = 1 𝐶𝑜𝑣(𝑋, 𝑌)
𝜌𝑋𝑌 =
𝑅(𝑌) 𝑅(𝑋) 𝜎𝑋 𝜎𝑌
𝑦 𝑥
−1 ≤ 𝜌𝑋𝑌 ≤ 1
𝑃(𝑋 ≤ 𝑥 ∩ 𝑌 ≤ 𝑌) = 𝐹𝑋𝑌 (𝑥, 𝑦) = � � 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦
−∞ −∞
Distribuciones Marginales 1 → 𝑅𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑙𝑖𝑛𝑒𝑎𝑙 𝑑𝑖𝑟𝑒𝑐𝑡𝑎
 Discretas 𝜌𝑋𝑌 = � 0 → 𝑁𝑜 𝑒𝑥𝑖𝑠𝑡𝑒 𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑙𝑖𝑛𝑒𝑎𝑙
−1 → 𝑅𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑙𝑖𝑛𝑒𝑎𝑙 𝑖𝑛𝑣𝑒𝑟𝑠𝑎
𝑔𝑋 (𝑥) = � 𝑔𝑋𝑌 (𝑥, 𝑦)
𝑅(𝑌)

𝑔𝑌 (𝑦) = � 𝑔𝑋𝑌 (𝑥, 𝑦) Teorema del Límite Central(𝒏 ≥ 𝟑𝟎)


𝑅(𝑋) 𝑆𝑒𝑎𝑛 𝑋1 , 𝑋2 , … , 𝑋𝑛 𝑢𝑛𝑎 𝑐𝑜𝑙𝑒𝑐𝑐𝑖ó𝑛 𝑑𝑒 𝑛 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑎𝑙𝑒𝑎𝑡𝑜𝑟𝑖𝑎𝑠
 Continuas 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠 𝑒 𝑖𝑑𝑒𝑛𝑡𝑖𝑐𝑎𝑚𝑒𝑛𝑡𝑒 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑖𝑑𝑎𝑠 𝑐𝑜𝑛:
𝐸(𝑋𝑖 ) = 𝜇, 𝑉𝑎𝑟 (𝑋) = σ2
𝑓𝑋 (𝑥) = � 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑦
𝑅(𝑌)
𝐸𝑛𝑡𝑜𝑛𝑐𝑒𝑠, 𝑝𝑎𝑟𝑎 𝑢𝑛 𝑛 𝑠𝑢𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒𝑚𝑒𝑛𝑡𝑒 𝑔𝑟𝑎𝑛𝑑𝑒 𝑠𝑒 𝑡𝑖𝑒𝑛𝑒 𝑞𝑢𝑒:
𝑓𝑌 (𝑦) = � 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥
𝑅(𝑋) 𝑋�~𝑁(𝜇, 𝜎 2 /𝑛)
Distribución Condicional (Continua)
𝑓𝑋𝑌 (𝑥, 𝑦) 𝑋� − 𝜇
𝑓𝑋|𝑌 (𝑥, 𝑦) = ~𝑁(0,1)
𝑓𝑌 (𝑦) 𝜎/√𝑛
𝑓𝑋𝑌 (𝑥, 𝑦)
𝑓𝑌|𝑋 (𝑥, 𝑦) =
𝑓𝑋 (𝑥)
� xi ~𝑁(𝑛𝜇, 𝑛𝜎 2 )
Independencia
𝑆𝑖 𝑓𝑋𝑌 (𝑥, 𝑦) = 𝑓𝑋 (𝑥) ∗ 𝑓𝑌 (𝑦), entonces
𝑋 𝑦 𝑌 𝑠𝑜𝑛 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠 ∑ xi − 𝑛𝜇
~𝑁(0,1)
𝑆𝑖 𝑋 𝑦 𝑌 𝑠𝑜𝑛 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠: 𝑓𝑋|𝑌 (𝑋, 𝑌) = 𝑓𝑋 (𝑥) ó 𝑓𝑌|𝑋 (𝑋, 𝑌) = 𝑓𝑌 (𝑦) √𝑛𝜎

Valor Esperado de una V.A. Suma de VAs independientes


 Caso Discreto Sean 𝑋1 𝑦 𝑋2 variables aleatorias independientes con función
𝜇 = 𝐸(𝑋) = � 𝑥𝑓𝑋 (𝑥) generadoras de momentos 𝜓𝑥1 (𝑡)𝑦 𝜓𝑥2 (𝑡), respectivamente, y sea
𝑅(𝑋) 𝑊 = 𝑋1 + 𝑋2
 Caso Continuo Entonces:
𝜇 = 𝐸(𝑋) = � 𝑥𝑓𝑋 (𝑥)𝑑𝑥 𝜓𝑊 (𝑡) = 𝜓𝑥1 (𝑡) ∗ 𝜓𝑥2 (𝑡)
𝑅(𝑋) Suma V.A. Binomiales
𝑋1 ~𝐵𝑖𝑛𝑜𝑚𝑖𝑎𝑙(𝑛1 , 𝑝)
𝐸(𝑋𝑌) = � � 𝑥𝑦𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦
𝑅(𝑦) 𝑅(𝑥) 𝑋2 ~𝐵𝑖𝑛𝑜𝑚𝑖𝑎𝑙(𝑛2 , 𝑝)
𝑊 = 𝑋1 + 𝑋2 ~𝐵𝑖𝑛𝑜𝑚𝑖𝑎𝑙(𝑛1 + 𝑛2 , 𝑝)
𝐸(𝑢(𝑋, 𝑌)) = � � 𝑢(𝑋, 𝑌)𝑓𝑋𝑌 (𝑋, 𝑌)𝑑𝑥 𝑑𝑦
𝑅(𝑌) 𝑅(𝑋)
Varianza y Covarianza de una V.A. Suma V.A. Poisson
𝑉𝑎𝑟(𝑋) = 𝜎𝑋2 = 𝐸(𝑋 2 ) − [𝐸(𝑋)]2 𝑋1 ~𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜆1 )
𝐷𝑒𝑠𝑣𝑖𝑎𝑐𝑖ó𝑛 𝑒𝑠𝑡á𝑛𝑑𝑎𝑟 → 𝜎𝑥 = �𝑉𝑎𝑟(𝑋) 𝑋2 ~𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜆2 )
𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸(𝑋𝑌) − 𝐸(𝑋)𝐸(𝑌) 𝑊 = 𝑋1 + 𝑋2 ~𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜆1 + 𝜆2 )

𝑉𝑎𝑟(𝑋) = 𝐸[(𝑥 − 𝜇)2 ] = � (𝑥 − 𝜇)2 𝑓𝑋 (𝑥) = � (𝑥 − 𝜇)2 𝑓𝑋 (𝑥)𝑑𝑥
−∞ Suma V.A. Geométricas
𝑅(𝑋)

𝑋1 ~𝐺𝑒𝑜𝑚é𝑡𝑟𝑖𝑐𝑎(𝑝)
Valor Esperado Condicional
𝑋2 ~𝐺𝑒𝑜𝑚é𝑡𝑟𝑖𝑐𝑎(𝑝)
𝐸(𝑋|𝑌 = 𝑏) = � 𝑥𝑓𝑋|𝑌 (𝑥, 𝑌 = 𝑏) 𝑊 = 𝑋1 + 𝑋2 ~𝐵𝑖𝑛𝑜𝑚𝑖𝑎𝑙 𝑛𝑒𝑔𝑎𝑡𝑖𝑣𝑎(2, 𝑝)
𝑅(𝑋|𝑌)

𝐸(𝑋|𝑌 = 𝑏) = � 𝑥𝑓𝑋|𝑌 (𝑥, 𝑌 = 𝑏)𝑑𝑥


𝑅(𝑋|𝑦=𝑏)
ESTIMACIÓN PUNTUAL (Parámetro 𝜽)

1. SESGO: INTERVALOS DE CONFIANZA:


𝐸�𝜃�� − 𝜃 MEDIA POBLACIONAL(µ)
2. MÍNIMA VARIANZA Tamaño Intervalo de Confianza
Distr. Pob. Var. Pob.
𝑉𝑎𝑟(𝜃�1 ) < 𝑉𝑎𝑟(𝜃�2 ) Muestral (1-α)%
3. ERROR CUADRÁTICO MEDIO (ECM) 𝜎
2 Normal Conocida Pequeño 𝑋� ± 𝑧�1−𝛼�
𝐸𝐶𝑀�𝜃�� = 𝑉𝑎𝑟�𝜃�� + �𝑆𝑒𝑠𝑔𝑜(𝜃�)� 2 √𝑛
𝑆
4. CONSISTENCIA Normal Desconocida Pequeño 𝑋� ± 𝑡�1−𝛼;𝑛−1�
Lim 𝐸�𝜃�� = 𝜃 ; lim 𝑉𝑎𝑟�𝜃�� = 0 2 √𝑛
𝑛→∞ 𝑛→∞ 𝜎
5. EFICIENCIA (Cota Rao-Cramer=VarIanza 𝜃�) Cualquiera Conocida Grande 𝑋� ± 𝑧�1−𝛼�
2 √𝑛
𝑠
Cualquiera Desconocida Grande 𝑋� ± 𝑧 𝛼
1 1 �1− �
2 √𝑛
𝐶𝑅𝐶 = =
𝛿 2 𝛿2 ESTIMACIÓN DE UNA PROPORCIÓN POBLACIONAL (p)
𝑛𝐸 �� (ln 𝑓𝑋 (𝑥; 𝜃))� � −𝑛𝐸 �� 2 �ln 𝑓𝑋 (𝑥; 𝜃)���
𝛿𝜃 𝛿𝜃 Tamaño Intervalo de Confianza
Distr. Pob. Var. Pob.
Muestral (1-α)%
Binomial,
ESTIMADOR DE MÁXIMA VEROSIMILITUD 𝑝̂ (1 − 𝑝̂ )
Bernoulli, 𝑝̂ ± 𝑧�1−𝛼� �
Desconocida Grande 𝑛
Binomial 2
𝑥
Pasos: Negativa 𝑝̂ =
𝑛
, donde 𝑥 𝑒𝑠 # é𝑥𝑖𝑡𝑜𝑠
1) 𝐿(𝑥1 , … , 𝑥𝑛 ; 𝜃) = ∏𝑛𝑖=1 𝑓𝑋 (𝑥𝑖 ) ESTIMACIÓN DE UNA VARIANZA POBLACIONAL (σ2)
2) 𝑙𝑛(𝐿 (𝑥1 , … , 𝑥𝑛 ; 𝜃)) Intervalo de Confianza
𝛿 Distr. Pob. Var. Pob.
3) 𝛿𝜃
[𝑙𝑛(𝑙) (𝑥1 , … , 𝑥𝑛 )] = 0 (1-α)%
4) 𝑑𝑒𝑠𝑝𝑒𝑗𝑜 𝜃 = 𝜃� (𝑛 − 1)𝑆 2 (𝑛 − 1)𝑆 2
Normal Cualquiera � 2 ; 2 �
𝜒 𝛼 𝜒 𝛼
BONDAD DE AJUSTE �1− ;(𝑛−1)�
2
� ;(𝑛−1)�
2

𝑚
ESTIMACIÓN DE UNA DIFERENCIA DE MEDIAS POBLACIONALES µ 1 -µ 2
(𝑂𝑖 − 𝐸𝑖 )2 (𝑥𝑖 − 𝑛𝑝𝑖 )2 2 Distr. Tamaño Intervalo de Confianza
𝑌(𝑚−1) = =� ~𝜒(𝑚−1) Var. Pob.
𝐸𝑖 𝑛𝑝𝑖 Pob. Muestr. (1-α)%
𝑖=1
1 1
Desconoci 𝑋�1 − 𝑋�2 ± 𝑡 𝑆� +𝑛
�1− ;(𝑛1 +𝑛2 −2)� 𝑐 𝑛1
𝛼
𝑥𝑖 = 𝐹𝑟𝑒𝑐𝑢𝑒𝑛𝑐𝑖𝑎 𝑂𝑏𝑠𝑒𝑟𝑣𝑎𝑑𝑎, -das e Pequeños
2 2
Normales

𝑛 = # 𝑑𝑒 𝑂𝑏𝑠𝑒𝑟𝑣𝑎𝑐𝑖𝑜𝑛𝑒𝑠 𝑇𝑜𝑡𝑎𝑙𝑒𝑠 iguales (𝑛1 − 1)𝑆12+ (𝑛2 − 1)𝑆22


𝑑𝑜𝑛𝑑𝑒 𝑆𝑐 = �
𝑛1 + 𝑛2 − 2
𝑚 = # 𝑑𝑒 𝐶𝑙𝑎𝑠𝑒𝑠
Cualqui- 𝜎12 𝜎22
Conocidas 𝑋�1 − 𝑋�2 ± 𝑧�1−𝛼� � +
𝑆𝑖 𝑌𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑑𝑜 > 𝜒 2
→ 𝑟𝑒𝑐ℎ𝑎𝑧𝑜 𝐻𝑜 era 2 𝑛1 𝑛2
�𝑚−1;(1−𝛼)�

𝜎12 𝜎22
Conocidas 𝑋�1 − 𝑋�2 ± 𝑧�1−𝛼� � +
Cualquiera

Grandes

𝑛1 𝑛2
Ambos

Media muestral 2

∑𝑖=𝑛
𝑖=1 𝑥𝑖
𝑋� = Desconoci 𝑆12 𝑆22
𝑛 das 𝑋�1 − 𝑋�2 ± 𝑧�1−𝛼� � +
Varianza muestral 2 𝑛1 𝑛2
1
𝑖=𝑛 ESTIMACIÓN DE UNA DIFERENCIA DE PROPORCIONES POBLACIONALES
𝑆2 = �(𝑥𝑖 − 𝑥̅ )2 p 1 -p 2
𝑛−1
𝑖=1
Var. Tamaño
Distr. Pob. Intervalo de Confianza (1-α)%
Pob. Muestr.
DISTRIBUCIONES 𝑝̂1 − 𝑝̂ 2
Desco
Distribución 𝝌𝟐 : 𝑿𝟐𝟏 + 𝑿𝟐𝟐 + ⋯ + 𝑿𝟐𝒏 → 𝝌𝟐(𝒏) Bernoulli nocida Grandes 𝑝̂1 (1 − 𝑝̂1 ) 𝑝̂ 2 (1 − 𝑝̂ 2 )
± 𝑧�1−𝛼� � +
Donde X i es N(0,1) y X i es independiente de X j. s 2 𝑛1 𝑛2
ESTIMACIÓN DE UN COCIENTE DE VARIANZAS POBLACIONALES σ 1 2/σ 2 2
𝑿
Distribución 𝒕: → 𝒕(𝒏) Var.

𝒀 Distr. Pob. Intervalo de Confianza (1-α)%
𝒏 Pob.
Donde X es N(0,1) y Y es 𝑥 2 (𝑛) , siendo X y Y independientes. Cualqui
2
𝑆1 𝑠12
𝑿� Normales � 2𝐹 𝛼 ; 2𝐹 𝛼 �
Distribución 𝑭: 𝒏𝟏
→ 𝑭(𝒏𝟏,𝒏𝟐) era 𝑆2 � 2 ;(𝑛2 −1);(𝑛1 −1)� 𝑠2 �1− 2 ;(𝑛2 −1);(𝑛1 −1)�
𝒀�
𝒏𝟐
Donde X y Y son Vas independientes con distribuciones 𝜒 2 (𝑛1) y 𝜒 2 (𝑛2)
respectivamente.

𝟏
Si 𝑿 → 𝑭(𝒏𝟏.𝒏𝟐) 𝒆𝒏𝒕𝒐𝒏𝒄𝒆𝒔 𝒀 = 𝑿 → 𝑭(𝒏𝟐.𝒏𝟏)
PRUEBA DE HIPÓTESIS PARA LA MEDIA POBLACIONAL
Estadístico de Región Crítica, Estadístico de Región Crítica, Rechazar Ho
Hipótesis Nula Hipótesis Alternas Supuestos Supuestos
prueba Rechazar Ho cuando: prueba cuando:
𝐻1 : 𝜇 ≠ 𝜇𝑜 n Grande 𝑧 < −𝑧1−𝛼 ó 𝑧 > 𝑧1−𝛼 𝑡 < −𝑡�1−𝛼; 𝑛−1� ó 𝑡 > 𝑡�1−𝛼;𝑛−1�
2
𝑋� − 𝜇𝑜 2 2 Normalidad 𝑋� − 𝜇𝑜 2 2
𝐻𝑜 : 𝜇 = 𝜇𝑜 𝐻1 : 𝜇 > 𝜇𝑜 𝜎 Conocido ó 𝑧= 𝑧 > 𝑧1−𝛼 𝑡= 𝑡 > 𝑡(1−𝛼; 𝑛−1)
𝜎 ⁄√ 𝑛 𝜎 2 desconocido 𝑠⁄√𝑛
𝐻1 : 𝜇 < 𝜇𝑜 normalidad 𝑜
𝑧 < −𝑧1−𝛼 𝑡 < −𝑡(1−𝛼; 𝑛−1)
PRUEBA DE HIPÓTESIS PARA LA DIFERENCIA DE MEDIAS POBLACIONALES
Hipótesis Nula Hipótesis Alternas Supuestos Estadístico de prueba Región Critica, Rechazar Ho cuando:
1) 𝑛𝑋 , 𝑛𝑌 grandes, independencia,
𝐻1 : 𝜇𝑋 − 𝜇𝑌 ≠ 𝛿𝑜 𝑋� − 𝑌� − 𝛿𝑜 𝑧 < −𝑧�1−𝛼� ó 𝑧 > 𝑧�1−𝛼�
𝜎𝑋2 𝑦 𝜎𝑌2 conocidos. 𝑧= 2 2
𝐻𝑜 : 𝜇𝑋 − 𝜇𝑌 = 𝛿𝑜 o 𝜎2 𝜎2
𝐻1 : 𝜇𝑋 − 𝜇𝑌 > 𝛿𝑜 � 𝑋+ 𝑌 𝑧 > 𝑧(1−𝛼)
2) Normalidad, independencia, 𝑛𝑋 𝑛𝑌
𝐻1 : 𝜇𝑋 − 𝜇𝑌 < 𝛿𝑜 𝜎𝑋2 𝑦 𝜎𝑌2 conocidos. 𝑧 < −𝑧(1−𝛼)
𝐻1 : 𝜇𝑋 − 𝜇𝑌 ≠ 𝛿𝑜 𝑋� − 𝑌� − 𝛿𝑜 𝑡 < −𝑡�1−𝛼; 𝑛 ó 𝑡 > 𝑡�1−𝛼; 𝑛
𝑡= 2 𝑋 +𝑛𝑌 −2� 2 𝑋 +𝑛𝑌 −2�

𝐻1 : 𝜇𝑋 − 𝜇𝑌 > 𝛿𝑜 1 1 𝑡 > 𝑡(1−𝛼; 𝑛𝑋 +𝑛𝑌 −2)


Normalidad, independencia, 𝜎 2 𝑦 𝜎 2 𝑆𝑝 �𝑛 + 𝑛
𝑋 𝑌
𝐻𝑜 : 𝜇𝑋 − 𝜇𝑌 = 𝛿𝑜 𝑋 𝑌
desconocidos, 𝜎𝑋2 = 𝜎𝑌2
𝐻1 : 𝜇𝑋 − 𝜇𝑌 < 𝛿𝑜 (𝑛𝑥 − 1)𝑠𝑋2
+ (𝑛𝑌 − 1)𝑠𝑌2 𝑡 < −𝑡(1−𝛼; 𝑛𝑋 +𝑛𝑌 −2)
𝑆𝑝 = �
𝑛𝑋 + 𝑛𝑌 − 2
PRUEBA DE HIPÓTESIS PARA LA VARIANZA POBLACIONAL Y LA RAZÓN DE VARIANZAS POBLACIONALES
Hipótesis Nula Hipótesis Alternas Supuestos Estadístico de prueba Región Crítica, Rechazar Ho cuando:
𝐻1 : 𝜎 2 ≠ 𝜎𝑜2 𝑋 2 < 𝑋(𝛼⁄2; 𝑛−1) ó 𝑋 > 𝑋 2 (1−𝛼⁄2; 𝑛−1)
Normalidad, 𝑁𝑜𝑟𝑚𝑎𝑙(𝜇, 𝜎 2 ) (𝑛 − 1)𝑠 2
𝐻𝑜 : 𝜎 2 = 𝜎𝑜2 𝐻1 : 𝜎 2 > 𝜎𝑜2 𝑋2 = 𝑋 2 > 𝑋 2 (1−𝛼; 𝑛−1)
𝜇, 𝜎 2 desconocidos 𝜎𝑜2
𝐻1 : 𝜎 2 < 𝜎𝑜2 𝑋 2 < 𝑋 2 (𝛼; 𝑛−1)
𝐻1 : 𝜎𝑋2 ≠ 𝜎𝑌2 Normalidad, X y Y independientes, 𝐹 < 𝐹�𝛼⁄2; 𝑛𝑥 −1; 𝑛𝑦 −1� ó 𝐹 > 𝐹�1−𝛼⁄2; 𝑛𝑥 −1; 𝑛𝑦 −1�
𝐻1 : 𝜎𝑋2 /𝜎𝑌2 < 1 𝑁(𝜇1 , 𝜎12 ), 𝑁(𝜇2 , 𝜎22 ) 𝑆𝑥2 𝐹 < 𝐹�𝛼; 𝑛𝑥 −1; 𝑛𝑦 −1�
𝐻𝑜 : 𝜎𝑋2 = 𝜎𝑌2 𝜇1 , 𝜎12 , 𝜇2 , 𝜎22 desconocidos 𝐹= 2
𝑆𝑦
𝐻1 : 𝜎𝑋2 /𝜎𝑌2 >1 X es la población que tiene la mayor
𝐹 > 𝐹�1−𝛼 ; 𝑛𝑥 −1; 𝑛𝑦 −1�
varianza muestral
PRUEBA DE HIPÓTESIS PARA LA PROPORCIÓN Y LA DIFERENCIA DE PROPORCIONES
Hipótesis Nula Hipótesis Alternas Supuestos Estadístico de prueba Región Crítica, Rechazar Ho cuando:
𝐻1 : 𝑝 ≠ 𝑝𝑜 𝑝̂ − 𝑝𝑜 𝑍 < −𝑍�1−𝛼� ó 𝑍 > 𝑍�1−𝛼�
Población Bernoulli(𝑝) 𝑍= ; 𝑝̂ = 𝑋� 2 2
𝐻𝑜 : 𝑝 = 𝑝𝑜 𝐻1 : 𝑝 > 𝑝𝑜 𝑝 (1 − 𝑝 ) 𝑍 > 𝑍(1−𝛼)
𝑛 ≥ 30 � 𝑜 𝑜
𝐻1 : 𝑝 < 𝑝𝑜 𝑛 𝑍 < −𝑍(1−𝛼)
𝐻1 : 𝑝𝑋 − 𝑝𝑌 ≠ 0 𝑍 < −𝑍�1−𝛼� ó 𝑧 > 𝑍�1−𝛼�
𝑝�𝑋 −𝑝�𝑌 𝑥+𝑦 2 2
Población Bernoulli(𝑝𝑋 ) 𝑦 Bernoulli (𝑝𝑌 ), 𝑍= 𝑝̂ = 𝑛
𝐻𝑜 : 𝑝𝑥 − 𝑝𝑦 = 0 𝐻1 : 𝑝𝑋 − 𝑝𝑌 > 0 1 1 𝑋 +𝑛𝑌
𝑍 > 𝑍(1−𝛼)
𝑛𝑥 , 𝑛𝑦 ≥ 30 �𝑝�𝑞�� + �
𝑛𝑋 𝑛𝑌
𝐻1 : 𝑝𝑋 − 𝑝𝑌 < 0 𝑍 < −𝑍(1−𝛼)

P-VALUE
ERROR TIPO I 𝑝 − 𝑣𝑎𝑙𝑢𝑒
𝛼 = 𝑃(𝑟𝑒𝑐ℎ𝑎𝑧𝑎𝑟 𝐻0 |𝐻0 𝑒𝑠 𝑉𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎) = 𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑎𝑐𝑢𝑚𝑢𝑙𝑎𝑑𝑎 𝑎 𝑝𝑎𝑟𝑡𝑖𝑟 𝑑𝑒𝑙 𝑒𝑠𝑡𝑎𝑑í𝑠𝑡𝑖𝑐𝑜 𝑑𝑒 𝑝𝑟𝑢𝑒𝑏𝑎
ERROR TIPO II
𝛽 = 𝑃(𝑁𝑜 𝑟𝑒𝑐ℎ𝑎𝑧𝑎𝑟 𝐻0 |𝐻0 𝑒𝑠 𝐹𝑎𝑙𝑠𝑎)
POTENCIA
𝑃𝑜𝑡𝑒𝑛𝑐𝑖𝑎 = 1 − 𝛽 = 𝑃(𝑟𝑒𝑐ℎ𝑎𝑧𝑎𝑟 𝐻0 |𝐻0 𝑒𝑠 𝐹𝑎𝑙𝑠𝑎)
REGRESIÓN LINEAL
REGRESIÓN LINEAL SIMPLE
𝑌 = 𝛽0 + 𝛽1 𝑋 + 𝑒
𝑆𝑢𝑝𝑢𝑒𝑠𝑡𝑜𝑠:
𝐸(𝑒𝑖 ) = 0; 𝑉𝑎𝑟(𝑒𝑖 ) = 𝜎 2 ; 𝐶𝑜𝑣�𝑒𝑖 , 𝑒𝑗 � = 0 ∀ 𝑖 ≠ 𝑗; 𝑒𝑖 ~𝑁(0, 𝜎 2 )
Estimación de parámetros
𝑒𝑖 = 𝑦𝑖 − 𝑦�𝚤

𝐻𝑎𝑙𝑙𝑎𝑟 𝛽0 𝑦 𝛽 �1 𝑐𝑜𝑛 𝑆𝐶𝐸 = � 𝑒�𝚤 2
∑(𝑥𝑖 − 𝑥̅ )(𝑦𝑖 − 𝑦�) 𝑆𝑋𝑌
�0 = 𝑦� − 𝛽
𝛽 �1 𝑥̅ �1 =
𝛽 =
∑(𝑥𝑖 − 𝑥̅ )2 𝑆𝑋𝑋

Propiedades de los estimadores (Centrados)


E�β�1 � = β1
2
𝜎
𝑉𝑎𝑟(𝛽1 ) = 𝑑𝑜𝑛𝑑𝑒 𝑆𝑋𝑋 = �(𝑥𝑖 − 𝑥̅ )
𝑆𝑥𝑥
Hipótesis de interés y prueba asociada
𝑆𝐶𝑇 = 𝑆𝐶𝑅 + 𝑆𝐶𝐸
�(𝑦𝑖 − 𝑦�)2 = �(𝑦�𝚤 − 𝑦�)2 + �(𝑦𝑖 − 𝑦�𝚤 )2
𝐻𝑜 : 𝛽1 = 0
𝐻𝑎 : 𝛽1 ≠ 0
𝑆𝐶𝑅
𝑓(1;𝑛−2) →
𝑆𝐶𝐸 ⁄𝑛 − 2
𝑆𝐶𝑅 𝑆𝐶𝐸
𝑅2 = =1− 0 ≤ 𝑅2 ≤ 1
𝑆𝐶𝑇 𝑆𝐶𝑇

REGRESIÓN LINEAL MULTIPLE


𝑌 = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + ⋯ + 𝛽𝑗 𝑋𝑗 + 𝑒
Estimación de parámetros
�0 + 𝛽
𝑒�𝚤 = 𝑦𝑖 − �𝛽 �1 𝑥𝑖 + ⋯ + 𝛽�𝚥 𝑥𝑖𝑗 �
Hipótesis de interés y prueba asociada
𝑆𝐶𝑇 = 𝑆𝐶𝑅 + 𝑆𝐶𝐸
Recuerde:
𝑃𝑟𝑢𝑒𝑏𝑎 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑛𝑐𝑖𝑎 𝑔𝑙𝑜𝑏𝑎𝑙 → 𝐹
𝑃𝑟𝑢𝑒𝑏𝑎 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑛𝑐𝑖𝑎 𝑖𝑛𝑑𝑖𝑣𝑖𝑑𝑢𝑎𝑙 → 𝑡

𝐻𝑜 : 𝛽𝑗 = 0 𝐻𝑜 : 𝛽1 = 𝛽2 = ⋯ = 𝛽𝑘 = 0
𝐻𝑎 : 𝛽𝑗 ≠ 0 𝐻𝑎 : 𝑎𝑙 𝑚𝑒𝑛𝑜𝑠 𝑢𝑛 𝛽𝑗 ≠ 0
𝑆𝐶𝑅
𝛽�𝚤 𝑞 𝑀𝐶𝑅
𝑡(𝑔𝑙 𝑒𝑟𝑟𝑜𝑟) = 𝐹(𝑞;𝑛−𝑞−1) → =
𝑑𝑒𝑠�𝛽�𝚤 � 𝑆𝐶𝐸 ⁄𝑛 − 𝑞 − 1 𝑀𝐶𝐸

Intervalo de Confianza
𝐼𝐶(1−𝛼) (𝛽𝑖 ) = 𝛽̂ ± 𝑡�1−𝛼,𝑛−𝑞−1� 𝑑. 𝑒�𝛽̂ �
2

Vous aimerez peut-être aussi