Académique Documents
Professionnel Documents
Culture Documents
Probabilidad axiomática
Eventos mútuamente exclusivos
Eventos complementarios
Unión de eventos
Eventos sucesivos
Eventos independientes
Teorema de Bayes
Selecciones al azar.
Definición de probabilidad
Regla de Laplace
Solo es aplicable a espacios muestrales finitos de
sucesos equiprobables y excluyentes dos a dos.
Eventos favorables
Eventos posibles
● Espacio muestra: Conjunto de resultados
posibles de un experimento.
● Evento: es un subconjunto del espacio muestra
● Evento elemental: evento que contiene un solo
elemento.
Ejemplo:
Experimento: lanzar dos dados
● Evento E: que la suma de los puntos sea 3
● Espacio muestra:{(1,1),(1,2),(1,3),....(6,6)}
● El evento no es elemental E={(1,2), (2,1)}
definiciones
0≤P ( E)
1=P (S )
si A y B son eventos mutuamente exclusivos
P ( A∪B)=P ( A)+P ( B)
teorema
P (∅)=0
TEOREMA
●
Complemento E (Ec ) de un evento E es el
conjunto de todos los elementos del espacio
muestra S que no son elementos de E.
Teorema:
B
A
D
C E
¿Y cuántos subconjuntos
Tiene este conjunto?
Teorema:
P(E)=P(E1)+P(E2)+ . . . +P(En)
Teorema:
Definición:
Sea Y una variable aleatoria discreta con la
función de probabilidad p(y). Entonces el valor
esperado de Y, E(Y), se define como
E (Y )=∑ y p( y)
y
TEOREMA
VALOR ESPERADO DE UNA FUNCIÓN
E [ g (Y ) ]=∑ g ( y) p( y)
y
DEFINICIÓN
E(c)=c
TEOREMA
E [cg (Y )]=cE [ g (Y )]
TEOREMA
2 2 2 2
V (Y )=σ =E [(Y −μ) ]=E (Y )−μ
4.3 LA DISTRIBUCIÓN DE PROBABILIDAD BINOMIAL
p( y)=
()
n
y
y n− y
p q
TEOREMA
Sea Y una variable aleatoria binomial
basada en n pruebas y probabilidad p de
éxito.
Entonces
μ =E (Y )=np y 2
σ =V (Y )=npq
4.5.- Distribución de
probabilidad Geométrica
Es similar a la distribución binomial pero...
Y es el número de prueba en la que ocurre
el primer éxito y el espacio muestral es
infinitamente contable.
● ESPACIO MUESTRAL
E1: S
E2:FS
.
.
Los eventos (Y=1),(Y=2) y (Y=3) contienen
solo los puntos muestrales E1, E2 y E3,
en general (Y=y) contiene solo a Ey.
Dado que las pruebas son independientes
y-
p(y)=P(Y=y)=P(Ey)=P(FF...FS)=qq...qp = q
1
p
Definición
y−1
se dicep(que una pvariable
y)=q aleatoria
y=1,2,3,. tiene
.. 0≤ p≤1
teorema
● Si Y es una variable aleatoria con una
distribución geométrica, entonces
1 2 1− p
μ =E (Y )= y σ =V (Y )= 2
p p
4.6.- DISTRIBUCIÓN HIPERGEOMÉTRICA
N-población
n-muestra
si n<<N entonces binomial (la restitución no
es relevante)
Sin embargo si n<N son comparables, la
restitución es relevante entonces la
distribución de probabilidad es
hipergeométrica.
Observe que tiene las mismas características
que la distribución binomial con Y – número
de éxitos observados en n pruebas.
MÉTODO DE PUNTO MUESTRAL
SSSSSS....SSFFF...FF
El número de posibilidades para elegir la
muestra con n elementos de la población N
()N
n
Ahora nuestro espacio muestral S será el total
de todas estas posibilidades (recuérdese que
en la distribución binomial esto no era
necesario ya que al ser n<<N, las pruebas se
podian considerar como independientes,
pero si n es del orden de N esto no será así).
Así, la propia muestra n es apenas un punto
Ei del espacio muestra, con probabilidad...
1
P ( E i )= , para todo E i en S
() N
n
Si llamamos r el número de éxitos en la
población y N-r el de fracasos, entonces el
número de éxitos en la muestra n tendrán
una probabilidad....
p( y)=
( )(
r
y )
N −r
n− y
() N
n
VALORES ESPERADOS
PARA LA DISTRIBUCIÓN HIPERGEOMÉTRICA
nr
μ=E (Y )=
N
2
σ =V (Y )=n ( )(
r
N N )(
N −r N −n
N −1 )
r
de hecho p= entonces
N
(N −n
N −1 )
es un factor de corrección
BINOMIAL → HIPERGEOMÉTRICA
4.7.- LA DISTRIBUCIÓN DE
PROBABILIDAD DE POISSON
Un evento que puede ocurrir en intervalos
espaciales o temporales que pueden
subdividirse en subintervalos cada vez más
pequeños(límite) de tal manera que solo un
evento pueda ocurrir dentro del subintervalo.
Y donde cada evento puede ocurrir con la
misma probabilidad de éxito, de manera
independiente. Obviamente solo hay una
determinada cantidad de sucesos que
pueden ocurrir dentro del intervalo
(observe la analogía con la Distribución
Binomial., pero ahora con intervalos (límite))
CARACTERÍSTICAS
Sea p la probabilidad de que el evento ocurra
dentro del subintervalo.
P(no ocurren eventos en el subintervalo)=1-p
P(ocurren más de un evento dentro)=0
La cantidad de eventos que ocurren en el
intervalo (tamaño de la muestra) es el
número de subintervalos en los que ocurre
un evento.
Si los eventos ocurren de manera
independiente de un intervalo a otro,
entonces Y-número de eventos en el
intervalo.Tiene distribución binomial
Encontrar la distribución de probabilidad
x
Aplicación de límites y definición de e .
DEFINICIÓN
μ =E (Y )= λ
2
σ =V (Y )= λ
MOMENTOS Y FUNCIONES GENERADORAS DE MOMENTO
● Observe que:
1
E (Y )= μ ' 1= μ
2
E (Y )= μ ' 2
Momento central
k
E [(Y − μ ) ]= μ k
Observe que
2
σ =μ 2
TEOREMA
ty
m(t)=E (e )
[ ]
k
d m(t ) k
k
=m (0)= μ ' k
dt t =0
() [ p e t +(1− p)] n
● Binomial p( y)= n p y (1− p)n− y np np(1− p)
y
y=0,1,2,. ... n
y −1
p( y)= p(1− p) 1 1− p pe
t
● Geométrica 2
y=1,2,.... p p 1−(1− p)e
t
( )(
r
y ) N −r
n− y nr
● Hipergeométrica p( y)=
(n)
N N n ( )( )( )
r
N
N −r
N
N −n
N −1
y −λ
Poisson λ e
●
p( y)= λ λ exp [ λ(e −1) ]
t
y!
Y =0,1,2,. ..
5.1.- DISTRIBUCIONES CONTÍNUAS
Definiciones
∞
E (Y )=∫−∞ y f ( y )dy
∞
E [ g ( y )]=∫−∞ g ( y) f ( y) dy
teorema
{ }
1
, θ1 ≤ y≤θ2 ,
f ( y)= θ2 −θ1
0, en cualquier otro punto
θ1 y θ2 se denominan parámetros de la función
de densidad.
En general las constantes que determinan la forma
específica de una función de densidad se denominan
PARÁMETROS de la función de densidad.
Aplicaciones: algunas variables aleatorias
continuas en física, administración, ciencias
biológicas, y otras, tienen distribuciones de
probabilidad aproximadamente uniformes.
Muchas veces en una variable con distribución
de Poisson en intervalo temporal o espacial
sobre el cual se distribuye la variable es a su
vez una variable que se distribuye
uniformemente.
VALORES ESPERADOS DE VARIABLES Y FUNCIONES
TEOREMA
media y varianza de la distribución uniforme
θ2+θ1
μ=E (Y )=
2
2
2 (θ2−θ1)
σ =V (Y )=
12
5.6 LA DISTRIBUCION DE
PROBABILIDAD NORMAL
Se dice que una variable Y tiene una
distribución normal de probabilidad si y solo si,
para σ > 0 y -∞ < µ < +∞, la función de
densidad de Y es
1 2
−( y− μ ) / 2 σ
2
f ( y)= e ,
σ √2 π
−∞< y<+∞
E (Y )= μ y V (Y )=σ 2
Propiedades de la distribución Normal
y− μ
z= σ
5.7 LA DISTRIBUCIÓN DE PROBABILIDAD GAMMA
.
Definición
{ }
α−1 − y / β
y e
α , 0< y<∞
f ( y)= Γ (α) β
0, en cualquier otro punto
Donde
∞
Γ (α )=∫0 y α −1 − y
e dy
Gráficas de la función de distribución gamma.
Ver aplicación excel*
*Todavía no
Realizar la
aplicación
VALORES ESPERADOS DE VARIABLES Y FUNCIONES
distribución de probabilidad gamma
TEOREMA
2 2
μ =E (Y )=α β y σ =V (Y )=α β
LA DISTRIBUCIÓN GAMMA – CASOS PARTICULARES
{ }
−y/β
e
f ( y)= , 0≤ y<∞
β
0, en cualquier otro punto
Teorema: Si Y es una variable aleatoria
exponencial con parámetro β, entonces
2 2
μ =E (Y )= β y σ =V (Y )= β
5.8 LA DISTRIBUCIÓN DE PROBABILIDAD BETA
Definición: se dice que una variable aleatoria Y tiene una
distribución de probabilidad beta con parámetros α > 0 y β > 0
si y solo si la función de densidad de Y es
{ }
α−1 β −1
y (1− y)
, 0≤ y≤1
f ( y)= B(α , β )
0, en cualquier otro punto
Donde
Función Beta
1
Γ(α)Γ(β)
B(α ,β)=∫ y
α−1 β−1
(1− y) dy=
0 Γ(α+β)
5.8.4 VALORES ESPERADOS PARA VARIABLES Y FUNCIONES
PARA LA FUNCIÓN DE DISTRIBUCIÓN BETA
TEOREMA
αβ
μ =E (Y )= α 2
y σ =V (Y )= 2
α +β (α + β ) (α + β +1)
5.9 Momentos, función Generadora
OTROS VALORES ESPERADOS
● DEFINICIÓN
● Si y es una variable aleatoria continua,
entonces el k-ésimo momento alrededor del
origen está dado por
, k
μ k =E (Y ) , k =1,2,. ..
DEFINICIÓN
Si Y es una variable aleatoria continua,
entonces la función generadora de momento
Y está dada por
tY
m(t )=E (e )
2
t , ,
m(t)=1+t μ + μ 2+....
1
2!
[ ]
k
d m(t ) ,
k
=μ k
dt t =0
DISTRIBUCIONES CONTINUAS
distribución función de densidad media varianza f.generadora
[( ) ] ( )
2
● Normal 1 1 2
μ σ t2σ 2
f ( y)= exp − 2 ( y−μ) exp μ t+
σ √ 2π 2σ 2
−∞< y<+∞
α−1 − y / β
Gamma y e αβ αβ
2
(1− β t)
−α
●
f ( y)= α
Γ(α) β
0< y<∞
Definición:
Sean Y1 y Y2 variables aleatorias discretas. La
función de probabilidad conjunta (o bivariante)
para Y1 y Y2 está dada por
p( y 1 , y 2 )=P (Y 1= y1 , Y 2= y 2 ) ,
−∞< y 1<∞ , −∞< y 2<∞
F ( y 1 , y 2 )=P (Y 1 ≤ y 1 , Y 2≤ y 2 ) ,
−∞< y1 <∞ , −∞< y 2<∞
es decir
F ( y 1 , y 2 )= ∑ ∑ p(t 1 ,t 2)
t 1≤Y 1 t 2≤Y 2
DEFINICIÓN (variables continuas)
F ( y 1 , y 2 )= ∫ ∫ f (t 1, t 2 )dt 2 dt 1 ,
−∞ −∞
−∞< y 1<∞ , −∞< y 2<∞
Entonces se dice que Y1 y Y2son variables
aleatorias continuas conjuntas. La función
f(y1,y2) recibe el nombre de función de densidad
de probabilidad conjunta.
TEOREMA
∞ ∞
2.− ∫ ∫ f ( y 1 , y 2 ) dy 1 dy 2 =1
−∞ −∞
p1 ( y 1 )= ∑ p ( y1 , y2) y p 2 ( y 2 )= ∑ p ( y 1 , y 2)
todos y 2 todos y1
Sean Y1 y Y2 variables aleatorias continuas conjuntas con función
de densidad conjunta f (y1, y2). Entonces las funciones de densidad
marginal de Y1 y Y2, respectivamente, están dadas por
∞ ∞
f 1 ( y 1)= ∫ f ( y 1 , y 2 )dy 2 y f 2 ( y 2 )= ∫ f ( y 1 , y 2) dy 1
−∞ −∞
FUNCIÓN DE PROBABILIDAD DISCRETA CONDICIONAL
Si Y1 y Y2 son variables aleatorias discretas
conjuntas con función de probabilidad conjunta
p(y1,y2) y funciones de probabilidad marginal
p1(y1) y p2(y2), respectivamente, entonces la
función de probabilidad discreta condicional de
Y1 dada Y2 es
P (Y 1= y 1 , Y 2= y 2 )
p( y 1 ∣ y 2)= P (Y 1= y 1 ∣ Y 2 = y 2)=
P (Y 2= y 2 )
p( y 1, y 2 )
=
P 2 ( y2)
Siempre que p2(y2)>0
DEFINICIÓN
F ( y 1 ∣ y 2 )=P (Y 1≤ y 1 ∣ Y 2= y 2 )
FUNCIÓN DE DENSIDAD CONDICIONAL
f ( y1 , y 2)
f ( y 1 ∣ y 2 )=
f 2 ( y2)
TEOREMA DE INDEPENDENCIA
p( y 1 , y 2 )= p1 ( y1 ) p 2 ( y 2 )
f ( y 1, y 2)= f 1 ( y 1 ) f 2 ( y 2 )
E [ g ( Y 1 , Y 2 ,… , Y k ) ]=
= ∑ … ∑ ∑ g ( y 1 , y 2 ,… , y k ) p( y 1 , y 2 ,… , y k )
toda y k toda y2 toda y 1
Si Y1, Y2, ....Yk son variables aleatorias continuas con función
de densidad conjunta f(y1,y2, ....yk), entonces
E [ g ( Y 1 , Y 2 ,… , Y k ) ]=
∞ ∞ ∞
= ∫ … ∫ ∫ g ( y 1 , y 2 ,… , y k ) f ( y 1 , y 2 ,… , y k )dy 1 dy 2 …dy k
−∞ −∞ −∞
TEOREMAS ESPECIALES
Sea c una constante, entonces
E (c)=c
Sea g(Y1, Y2) una función de las variables
aleatorias Y1 y Y2 y sea c una constante,
entonces.
E [ cg ( Y 1 , Y 2)]=cE [ g (Y 1 , Y 2)]
Sean Y1 y Y2 variables aleatorias y g1(Y1, Y2),
g2(Y1, Y2), . . . , gk(Y1,Y2) funciones de Y1 y Y2.
Entonces
E [ g 1 ( Y 1 ,Y 2 )+ g 2 ( Y 1 ,Y 2 )+… g k ( Y 1 , Y 2 ) ]=
=E [ g 1 ( Y 1 ,Y 2 ) ]+E [ g 2 ( Y 1 ,Y 2 ) ]+…+E [ g k ( Y 1 ,Y 2 ) ]
TEOREMA
Cov (Y 1 , Y 2)
ρ=
σ1 σ 2
TEOREMA
Cov (Y 1 , Y 2)=0
Cov (Y 1 , Y 2)=Cov (Y 2 , Y 1)
2
Cov (Y 1 , Y 1)=V (Y 1)=σ
VALOR ESPERADO Y VARIANZA DE FUNCIONES LINEALES DE
VARIABLES ALEATORIAS
Sean Y1, Y2, ..., Yn y X1, X2, ..., Xm variables
aleatorias con E(Yi) = µi y E(Xj) = ξj. Defina
n m
U 1 =∑ a i Y i y U 2 =∑ b i X i
i=1 j=1
y 1! y 2 !… y k !
k
donde , para cada i , y i =0,1,2,… , n y ∑i=1 y i =n
TEOREMA