Académique Documents
Professionnel Documents
Culture Documents
Departamento de Estadı́stica
Pontificia Universidad Católica de Chile
2 Distribuciones de Probabilidad
Distribución Normal
Distribución Log-Normal
Distribución Binomial y Bernoulli
Distribución Geométrica
Distribución Binomial Negativa
El Proceso de Poisson y la Distribución de Poisson
Distribución Exponencial
Distribución Gamma
Distribución Hipergeométrica
Distribución Beta
Aravena - Olea (PUC) Probabilidad y Estadı́stica TAV2016 2 / 119
Contenido II
3 Múltiples Variables Aleatorias
Distribución de Probabilidad Conjunta y Condicional
Distribuciones Marginales y Condicionales
Covarianza y Correlación
X = x, X < x, X>x
E1 = (a < X ≤ b)
E2 = (c < X ≤ d)
E1 ∪ E2 = (X ≤ a) ∪ (X > d)
E1 ∩ E2 = (c < X ≤ b)
Para los valores o rango de valores que puede tomar una variable aleatoria
tienen asociados una probabilidad especifica o medidas de probabilidad.
La regla que asigna las medidas de probabilidad se denomina:
pX (x) = P (X = x)
Ası́, X X
FX (x) = P (X = xi ) = pX (xi ),
xi ≤x xi ≤x
y Z x
FX (x) = P (X ≤ x) = fX (t) dt
−∞
con
d
fX (x) = FX (x)
dx
Notar que
P (x < X ≤ x + dx) = fX (x) dx
Aravena - Olea (PUC) Probabilidad y Estadı́stica TAV2016 10 / 119
Variables Aleatorias y Distribución de Probabilidad Distribución de Probabilidades de una Variable Aleatoria
1
pX(x)
fX(x)
Area = 1
0 0
0 x1 x2 x3 x4 x5 x6 x7 x8 x9 x10 0
1 1
FX(x)
FX(x)
0 0
0 x1 x2 x3 x4 x5 x6 x7 x8 x9 x10 0
Caso Mixto
p ●
1
fX(x) ó pX(x)
FX(x)
Area = 1−p
p ●
0 0
0 0
x x
Propiedades
1 F (−∞) = 0 y F (∞) = 1.
X X
2 F (x) ≥ 0 para todo valor de x y es no decreciente.
X
3 F (x) es continua por la derecha
X
Para el caso continuo, la ecuación (1) la podemos escribir como
Z b Z a
P (a < X ≤ b) = fX (x) dx − fX (x) dx
−∞ −∞
mientras que en el caso discreto
X X
P (a < X ≤ b) = pX (xi ) − pX (xi )
xi ≤b xi ≤a
Tiempo en Horas
12
10
Este comportamiento puede ser descrito con una distribución cuya función
de densidad es de la siguiente forma:
λ e−λ x , x ≥ 0
fX (x) =
0, en otro caso
Tiempo en Horas
12
10
Sismos Diarios
0.15
0.10
0.05
0.00
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30
Este comportamiento puede ser descrito con una distribución cuya función
de probabilidad es de la siguiente forma:
y −λ
λ y!e , y ∈ N0
pY (y) =
0, en otro caso
Sismos Diarios
0.15
● ●
●
●
0.10
●
0.05
●
●
●
●
●
●
● ●
●
● ● ●
0.00 ● ● ● ● ● ● ● ● ●
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30
● ●
●
●
0.10
●
0.08
●
●
pY(y)
0.06
●
●
0.04 ●
●
●
0.02
●
●
●
●
●
●
● ●
●
0.00 ● ● ● ● ● ● ● ● ●
0 5 10 15 20 25 30
Θy
1.0 ●
● ● ● ● ● ● ● ● ● ● ●
●
●
0.8
●
0.6
●
FY(y)
0.4
●
0.2
●
●
●
●
0.0 ● ● ● ●
0 5 10 15 20 25 30
Θy
Ejemplo 3.3
Cuya función densidad es constante en el intervalo [0, 10] y cero en otro
caso:
c, 0 ≤ x ≤ 10
fX (x) =
0, en otro caso
Valores Centrales
En el rango de posibles valores de una variable aleatoria, existe un interés
natural con respecto a los valores centrales, por ejemplo, el promedio.
Consideremos una variable aleatoria X con soporte ΘX .
Como cada valor de ΘX tiene una medida de probabilidad, el promedio
ponderado es de especial interés.
Valores Centrales
A el promedio ponderado se le llama también valor medio o valor
esperado de la variable aleatoria X.
Para una variable aleatoria X se define el valor esperado, µX , como:
X
x · pX (x), Caso Discreto
x∈ΘX
µX = E(X) =
Z ∞
x · fX (x) dx, Caso Continuo
−∞
FX (xmed ) = 1/2
Esperanza matemática
La noción del valor esperado como un promedio ponderado puede ser
generalizado para funciones de la variable aleatoria X.
Dada una función g(X), entonces el valor esperado de esta puede ser
obtenido como:
X
g(x) · pX (x), Caso Discreto
x∈ΘX
E[g(X)] = Z ∞
g(x) · fX (x) dx, Caso Continuo
−∞
Medidas de dispersión
Es de interés cuantificar el nivel de dispersión que tienen una variable
aleatoria con respecto a un valor de referencia.
Por ejemplo, nos podrı́a interesar la distancia esperada de los valores de
una variable aleatoria X con respeto al valor esperado µX , es decir,
E[(X − µX )].
Esta idea de dispersión tiene el problema que siempre da como resultado
cero.
Medidas de dispersión
Una alternativa es utilizar la definición de varianza:
2
σX = Var(X) = E[(X − µX )2 ]
X
(x − µX )2 · pX (x), Caso Discreto
x∈ΘX
= Z ∞
(x − µX )2 · fX (x) dx, Caso Continuo
−∞
Ejemplo 3.4
Valor Esperado, Mediana, Varianza y c.o.v. del modelo propuesto en el
Ejemplo 3.1
Ejemplo 3.5
Obtenga el Valor Esperado y Varianza del modelo propuesto en el Ejemplo
3.2
Medida de asimetrı́a
Se define una medida de asimetrı́a (skewness) corresponde al tercer
momento central:
X
(xi − µX )3 · pX (xi ), Caso Discreto
xi ∈ΘX
E[(X − µX )3 ] = Z ∞
(x − µX )3 · fX (x) dx, Caso Continuo
∞
E[(X − µX )3 ]
θX = 3
σX
Ejemplo 3.6 El tiempo T entre sismos vimos que se comportan como una
variable aleatoria Exponencial (Ejemplo 3.1).
Si el tiempo medio es µT , muestre que el tercer momento central es
E[(T − µT )3 ] = 2 µ3T
θT = 2
Medida de kurtosis
Finalmente, el cuarto momento central se conoce como la curtosis
X
(xi − µX )4 · pX (xi ), Caso Discreto
xi ∈ΘX
4
E[(X − µX ) ] = Z ∞
(x − µX )4 · fX (x) dx, Caso Continuo
∞
Distribuciones de Probabilidad
Distribuciones de Probabilidad
Distribución Normal
Distribuciones de Probabilidad
Distribución Normal
0.4
0.3
Función Densidad
0.2
0.1
0.0
Distribuciones de Probabilidad
Distribución Normal
Distribuciones de Probabilidad
Distribución Normal
Distribuciones de Probabilidad
Distribución Normal
0.2
0.1
0.0
µ1 µ2
Distribuciones de Probabilidad
Distribución Normal
0.4
0.2
0.0
Distribuciones de Probabilidad
Distribución Normal
Distribuciones de Probabilidad
Distribución Normal
fS(s)
Probabilidad = p
0 Sp
Distribuciones de Probabilidad
Distribución Normal
Distribuciones de Probabilidad
Distribución Normal
0.2
0.1
0.0
a µ b
Distribuciones de Probabilidad
Distribución Normal
Distribuciones de Probabilidad
Distribución Normal
Distribuciones de Probabilidad
Distribución Log-Normal
Donde, p
λ = E(ln X) y ζ= Var(ln X)
Propiedad: ln X ∼ Normal(λ, ζ) (Demostración en el capı́tulo 4)
Distribuciones de Probabilidad
Distribución Log-Normal
ζ = 0.1
3
ζ = 0.3
ζ = 0.5
fX(x)
2 Mediana = 1.0
Distribuciones de Probabilidad
Distribución Log-Normal
Ejercicio
Sea X ∼ Log-Normal(λ, ζ), obtenga su valor esperado, mediana y
varianza.
Distribuciones de Probabilidad
Distribución Log-Normal
Distribuciones de Probabilidad
Distribución Binomial y Bernoulli
Distribuciones de Probabilidad
Distribución Binomial y Bernoulli
Las variables descritas pueden ser modeladas por una secuencia Bernoulli,
la cual se basa en los siguientes supuestos:
1 Cada experimento, tiene una de dos opciones ocurrencia o no
ocurrencia del evento.
2 La probabilidad de ocurrencia del evento (“éxito”) en cada
experimento es constante (digamos p).
3 Los experimentos son estadı́sticamente independientes.
Distribuciones de Probabilidad
Distribución Binomial y Bernoulli
Distribuciones de Probabilidad
Distribución Binomial y Bernoulli
Distribuciones de Probabilidad
Distribución Binomial y Bernoulli
Distribuciones de Probabilidad
Distribución Geométrica
P (N = n) = p (1 − p)n−1 , n = 1, 2, . . .
Distribuciones de Probabilidad
Distribución Geométrica
para n > 0.
Mientras que su valor esperado y varianza son:
1 (1 − p)
E(N ) = , Var(N ) =
p p2
Distribuciones de Probabilidad
Distribución Geométrica
Distribuciones de Probabilidad
Distribución Geométrica
Distribuciones de Probabilidad
Distribución Geométrica
Ejemplo 3.17
Una ola de estas caracterı́stica tiene una probabilidad del 5% de ocurrencia
por año.
Determine:
El periodo de retorno.
La probabilidad de observar una ola de estas caracterı́sticas durante el
perı́odo de retorno.
Probabilidad que ocurra después del tercer año.
Probabilidad que ocurra el 5o año, dado que no sucedió durante los
primeros tres años.
Distribuciones de Probabilidad
Distribución Binomial Negativa
k k (1 − p)
E(Tk ) = , Var(Tk ) =
p p2
Distribuciones de Probabilidad
El Proceso de Poisson y la Distribución de Poisson
Distribuciones de Probabilidad
El Proceso de Poisson y la Distribución de Poisson
Distribuciones de Probabilidad
El Proceso de Poisson y la Distribución de Poisson
Supuestos:
Un evento puede ocurrir al azar y en cualquier instante de tiempo o
en cualquier punto en el espacio.
La ocurrencia(s) de un evento en un intervalo de tiempo dado (o
espacio) es estadı́sticamente independiente a lo que ocurra en otros
intervalos (o espacios) que no se solapen.
La probabilidad de ocurrencia de un evento en un pequeño intervalo
∆ t es proporcional a ∆ t, y puede estar dada por ν ∆ t, donde ν es la
tasa de incidencia media del evento (que se supone constante).
La probabilidad de dos o más eventos en ∆ t es insignificante.
Distribuciones de Probabilidad
El Proceso de Poisson y la Distribución de Poisson
(ν t)x e−ν t
P (Xt = x) = , x = 0, 1, 2, . . .
x!
donde ν es la tasa de ocurrencia media por unidad de tiempo, es decir,
E(Xt ) = ν t
Distribuciones de Probabilidad
El Proceso de Poisson y la Distribución de Poisson
Distribuciones de Probabilidad
Distribución Exponencial
(ν t)0 e−ν t
P (T1 > t) = P (Xt = 0) = = e−ν t ,
0!
con
Xt ∼ Poisson(ν t)
Distribuciones de Probabilidad
Distribución Exponencial
Distribuciones de Probabilidad
Distribución Exponencial
λ e−λ x , x ≥ 0
0, x<0
fX (x) = FX (x) =
0, x<0 1 − e−λ x , x≥0
Distribuciones de Probabilidad
Distribución Exponencial
λ e−λ (x−a) , x ≥ a
0, x<a
fX (x) = FX (x) = −λ (x−a)
0, x<a 1−e , x≥a
Distribuciones de Probabilidad
Distribución Exponencial
1
FX(x)
λ
fX(x)
0
0 a
x
Distribuciones de Probabilidad
Distribución Gamma
Distribuciones de Probabilidad
Distribución Gamma
Distribuciones de Probabilidad
Distribución Gamma
d ν k k−1 −ν t
fTk (t) = FTk (t) = t e , t≥0
dt Γ(k)
donde su valor esperado y varianza son
k k
µTk = , σT2k =
ν ν2
Aravena - Olea (PUC) Probabilidad y Estadı́stica TAV2016 79 / 119
Distribuciones de Probabilidad Distribución Gamma
Distribuciones de Probabilidad
Distribución Gamma
Distribuciones de Probabilidad
Distribución Gamma
Ejemplo 3.28
El tiempo T2 hasta la ocurrencia del segundo accidente puede describirse
como una variable aleatoria Gamma con función de densidad:
(1/6)2 2−1 −t/6
fT2 (t) = t e
Γ(2)
Distribuciones de Probabilidad
Distribución Gamma
Distribución Gamma(k, ν = 1 6)
1 6
k=1
k=2
k=3
fTk(t)
0 10 20 30 40 50 60
Distribuciones de Probabilidad
Distribución Gamma
νk
fX (x) = (x − γ)k−1 e−ν (x−γ) , x≥γ
Γ(k)
Distribuciones de Probabilidad
Distribución Hipergeométrica
Distribuciones de Probabilidad
Distribución Hipergeométrica
Distribuciones de Probabilidad
Distribución Hipergeométrica
Distribuciones de Probabilidad
Distribución Beta
Distribuciones de Probabilidad
Distribución Beta
Distribución Beta(q, r)
B(q = 1, r = 4)
4
B(q = 3, r = 3)
3 B(q = 4, r = 2)
B(q = 1, r = 1)
fX(x)
Los conceptos esenciales definidos para una variable aleatoria pueden ser
extendidos a dos o más con la correspondiente distribución de
probabilidades conjunta.
Considere por ejemplo dos variables aleatorias:
X, pluviosidad en cierta estación meteorológica
Y , nivel de un rı́o.
Ası́, el evento (X = x, Y = y) se puede definir como (X = x ∩ Y = y),
digamos evento conjunto, de igual forma el evento (X < x, Y < y) puede
definirse como el evento conjunto (X < x ∩ Y < y) definido para el
espacio Θxy de las variables aleatorias.
FX,Y (x, y) = P (X ≤ x, Y ≤ y)
pX,Y (x, y) = P (X = x, Y = y)
Entonces, Z x Z y
FX,Y (x, y) = fX,Y (u, v) dv du.
−∞ −∞
Si las derivadas parciales existen, entonces
∂2
fX,Y (x, y) = FX,Y (x, y)
∂x ∂y
pX,Y (x, y)
pX | Y =y (x) = P (X = x | Y = y) = , pY (y) > 0
pY (y)
pX,Y (x, y)
pY | X=x (y) = P (Y = y | X = x) = , pX (X) > 0
pX (x)
Tenemos que
X ∼ Poisson(ν) y Y | X = x ∼ Binomial(x, p)
Luego
Y ∼ Poisson(ν p)
x = 0:100
y = 0:20
z = p.xy(x, y, p = 0.20, nu = 50)
Aravena - Olea (PUC) Probabilidad y Estadı́stica TAV2016 101 / 119
Múltiples Variables Aleatorias Distribuciones Marginales y Condicionales
Z = c(z)
X = rep(x, length(y))
Y = sort(rep(y, length(x)))
install.packages("scatterplot3d")
library(scatterplot3d)
scatterplot3d(x = X, y = Y, z = Z, type = "h", lwd=2, pch= "",
xlab = "X", ylab = "Y", zlab = "", highlight.3d=TRUE, angle = 45)
20
Y
15
0.002
10
5
0.000
0
0 20 40 60 80 100
Y ∼ Gamma(k, ν) y X | Y = y ∼ Uniforme(0, y)
Luego
ν k k−1 −ν y 1
fX,Y (x, y) = y e · , 0≤x≤y
Γ(k) y
X ∼ Normal(µX , σX ), Y ∼ Normal(µY , σY )
ρ σY p
2
Y | X = x ∼ Normal µY + (x − µX ), σY (1 − ρ )
σX
Cuando hay dos variable aleatoria X e Y , puede haber una relación entre
las variables.
En particular, la presencia o ausencia de relación estadı́stica lineal se
determina observando el primer momento conjunto de X e Y definido
como Z ∞Z ∞
E(X Y ) = xy · fX,Y (x, y) dx dy
−∞ −∞
Si X e Y son estadı́sticamente independientes, entonces
Z ∞Z ∞
E(X Y ) = xy · fX (x) · fY (y) dx dy = E(X) · E(Y )
−∞ −∞
Cov(X, Y ) = 0
Por otra parte, para una función de Y , llamemos h(Y ), el valor esperado
condicional esta dado por
X
h(y) · P (Y = y | X = x), caso discreto
y∈ΘY | X=x
E[h(Y ) | X = x] = Z
h(y) · fY | X=x (y) dy, caso continuo
y∈ΘY | X=x
Ejemplo
Considere un proceso de Poisson cuyo número de eventos esperado en
[0, 1] es λ. Si N y X son variables aleatorias que determinan la cantidad
de eventos en los intervalos [0, 1] y [0, p] respectivamente, con 0 < p < 1,
muestre que E(X | N = n) = n p.
Ejemplo
Sean X e Y dos variables aleatorias cuya distribución de probabilidad
conjunta está determinada por una Normal bivariada de parámetros µX ,
µY , σX , σY y ρ.
Muestre que
Teorema
E(Y ) = E[E(Y | X)]
Teorema
Var(Y ) = Var[E(Y | X)] + E[Var(Y | X)]
ECM = E [Y − h(X)]2
= E E [Y − h(X)]2 | X