Vous êtes sur la page 1sur 117

PROBABILIDAD Y ESTADÍSTICA

“Un repaso conceptual”


“Al final resultó que
el destino de la Estadística
estuvo escrito en las Estrellas”
Yo
CÁCULO ESTOCÁSTICO
FACULTAD DE ECONOMÍA, BUAP
J. ANTONIO PICENO RIVERA
Bibliografía:
Probabilidad y estadística, Stephen S. Willoughby
Publicaciones cultural
Estadística matemática con aplicaciones
séptima edición,
Wackerly, Mendenhall, Scheaffer,
CENGAGE Learning
Estadística Aplicada, Gonzalez-Manteiga, Vargas-
Luque,Ed. Diaz de Santos
Combinatoria, María Luisa Pérez Seguí, cuadernos
de olimpiadas de matemáticas, UNAM
Estadística, Serie Shaum, Murray R. Spiegel, Mc
Graw Hill.
Probabilidad y Estadística, Walpole and Myers,
Mc Graw Hill
Introducción a la Estadística Matemática, H. D.
Brunk, Ed. Trillas.
Probabilidad y Estadística para Ingeniería y
Ciencias, Jay L. Devore, CENGAGE Learning.
Elementos de Probabilidad y Estadística, Elmer
B. Mode, Ed. Reverté.
Estadística.
La estadística estudia métodos científicos para
recolectar, organizar, resumir y analizar datos
(descriptiva) así como sacar conclusiones válidas y
tomar decisiones razonales basadas en tales
análisis (Inferencial) Debido a que las conclusiones
no serán del todo exactas se utiliza el lenguaje de
la probabilidad.
Población y muestreo.
Para analizar las características de un conjunto en
ocasiones no es práctico estudiar toda la población,
o universo, en tales casos se toma una parte
representativa de ella denominada muestra. La
parte de la estadística que describe y analiza los
resultados de una muestra se llama descriptiva.
Variables. Los datos que se requieren para
analizar alguna característica de un grupo
pueden ser de dos tipos. Variables Discretas, si
cada uno se puede aparear con el conjunto de
los números naturales. En caso contrario se
denominan variables continuas.
Una variable es un símbolo, que puede tomar
una serie de valores.
Al conjunto de valores posibles de la variable
se le denomina Dominio
CONTENIDO

Probabilidad axiomática
Eventos mútuamente exclusivos
Eventos complementarios
Unión de eventos
Eventos sucesivos
Eventos independientes
Teorema de Bayes
Selecciones al azar.
Definición de probabilidad
Regla de Laplace
Solo es aplicable a espacios muestrales finitos de
sucesos equiprobables y excluyentes dos a dos.

Eventos favorables

Eventos posibles
● Espacio muestra: Conjunto de resultados
posibles de un experimento.
● Evento: es un subconjunto del espacio muestra
● Evento elemental: evento que contiene un solo
elemento.
Ejemplo:
Experimento: lanzar dos dados
● Evento E: que la suma de los puntos sea 3
● Espacio muestra:{(1,1),(1,2),(1,3),....(6,6)}
● El evento no es elemental E={(1,2), (2,1)}
definiciones

● Para dos eventos cualesquiera E1 y E2 se dice


que E1 y E2 son mutuamente exclusivos si y
solo si E 1∩E 2=∅ .
● Dos eventos elementales son exclusivos o bien
son el mismo evento.
● Para cualquier espacio muestra finito
S={θ1, θ2,....,θn}, donde θi es elemental
la probabilidad de un evento E es un número
P(E) tal que se cumplen los siguientes axiomas
AXIOMAS DE PROBABILIDAD

0≤P ( E)
1=P (S )
si A y B son eventos mutuamente exclusivos
P ( A∪B)=P ( A)+P ( B)

teorema
P (∅)=0
TEOREMA

Si A es un evento contenido en un espacio


muestra finito tal que la unión de n eventos
elementales es A, entonces
P(A)=P(E1)+P(E2)+ . . . P(En)
Definición.


Complemento E (Ec ) de un evento E es el
conjunto de todos los elementos del espacio
muestra S que no son elementos de E.
Teorema:

Dos eventos A y B son complementarios si y


solo si A y B son mutuamente exclusivos,
A∩B=∅ y A∪B=S
Teorema:
P(A) = 1 - P(Ac)
teorema

Para los eventos A y B en general se cumple:


P ( A∪B)=P ( A)+P ( B)−P ( A∩B)
Probabilidad condicional

Para dos eventos cualesquiera A y B, usaremos


el símbolo P(A|B) para designar la probabilidad
de que ocurra un evento, siempre que haya
ocurrido el evento B y se denomina
probabilidad condicional.
P ( A∩B)
P ( A ∣ B)=
P ( B)
con P ( B)>0
Eventos independientes

Definición: A y B son eventos independientes si


y solo si
P ( A∩B)=P ( A) P ( B)
Teorema.

Si A y B son eventos independientes y


y P ( A)≠0 , P ( B)≠0
entonces P ( A ∣ B)=P ( A) y P ( B ∣ A)=P ( B)
Teorema:

SI A y B son eventos independientes, entonces

P ( A∪B)=P ( A)+P ( B)−P ( A) P ( B)


Teorema:

Si A y B son eventos independientes, entonces


A y B son eventos independientes.
Definición: una colección de subconjuntos de
un conjunto dado es una partición si y solo si
cada uno de los elementos del conjunto original
está incluido en uno y solo uno de los
subconjuntos. Es decir no hay intersección
entre ningún par de estos subconjuntos y la
unión de ellos es el conjunto original.
Definición: los eventos A1, A2, . . . , An son
mutuamente exclusivos si y solo si dos
cualesquiera de ellos son mutuamente
exclusivos.
Encuentra todas las particiones posibles del conjunto

B
A
D

C E

¿Y cuántos subconjuntos
Tiene este conjunto?
Teorema:

Si el evento E ha sido particionado en n


subconjuntos E1, E2, E3, . . . , En entonces

P(E)=P(E1)+P(E2)+ . . . +P(En)
Teorema:

Si un conjunto de eventos Q1, Q2, .. . , Qn es


una partición de un conjunto Q, y E es un
subconjunto de Q, entonces
P(E)=P(Q1)P(E|Q1)+P(Q2)P(E|Q2)+ . . .
+P(Qn)P(E|Qn)
TEOREMA DE BAYES

Si los eventos Q1, Q2, .. . , Qn forman una


partición de Q, y E es un subconjunto de Q
entonces
P (Qi ) P ( E ∣ Q i )
P (Qi ∣ E )=
P (Q1 ) P ( E ∣ Q1 )+P (Q 2 ) P ( E ∣ Q 2 )+⋯+P (Q n ) P ( E ∣ Q n )
4.1 VARIABLES ALEATORIAS DISCRETAS
Definición:
Se dice que una variable aleatoria Y es discreta
si puede tomar solo un número finito o
contablemente infinito de valores distintos.
Un conjunto se dice contable si cada uno de sus
elementos puede relacionarse con un elemento del
conjunto de los números naturales
Notación:
S- espacio muestra
Y - variable
y - un valor particular de la variable.
Y=y, es el conjunto de todos los puntos en S en los
que la variable Y toma un valor y.
4.2 DISTRIBUCIÓN DE PROBABILIDADES

El conjunto de probabilidades para cada valor


de la variable aleatoria del espacio muestra
recibe el nombre de distribución de
probabilidad de la variable aleatoria discreta.
Definición: La probabilidad de que Y tome el
valor y, P(Y=y)=p(y), se define como la suma
de las probabilidades de todos los puntos
muestrales en S a los que se asigna el valor y.
La distribución de probabilidad para una variable
discreta Y puede ser representada por una
ecuación, una tabla o una gráfica.
TEOREMA

1. 0≤ p ( y)≤1 para toda y ,


2. ∑ p( y)=1,

Donde la sumatoria es para todos los valores de y con


probabilidad diferente de cero
VALORES ESPERADOS DE VARIABLES Y DE FUNCIONES

Definición:
Sea Y una variable aleatoria discreta con la
función de probabilidad p(y). Entonces el valor
esperado de Y, E(Y), se define como

E (Y )=∑ y p( y)
y
TEOREMA
VALOR ESPERADO DE UNA FUNCIÓN

Sea Y una variable aleatoria discreta con


función de probabilidad p(y) y sea g(y) una
función de valor real de Y. Entonces, el valor
esperado de g(Y) está dado por

E [ g (Y ) ]=∑ g ( y) p( y)
y
DEFINICIÓN

Si Y es una variable aleatoria con media


E(Y)=µ, la varianza de una variable aleatoria Y
se define como el valor esperado de (Y-µ)2.
Εsto es,
V (Y )=E [ (Y −μ) ]
2

La desviación estándar de Y es la raiz


cuadrada positiva de V(Y).
TEOREMA

Sea Y una variable aleatoria discreta con


función de probabilidad p(y) y sea c una
constante. Entonces

E(c)=c
TEOREMA

Sea Y una variable aleatoria discreta con


función de probabilidad p(y), g(Y) una función
de Y y c una constante. Entonces

E [cg (Y )]=cE [ g (Y )]
TEOREMA

Sea Y una variable aleatoria discreta con


función de probabilidad p(y) y sean g1(Y), g2(Y),
...,gk(Y) k funciones de Y. Entonces

E [ g 1 (Y )+g 2 (Y )+...+ g k (Y )]=


E [ g 1 (Y )]+E [ g 2 (Y )]+...+E [ g k (Y )]
TEOREMA ST

Sea Y una variable aleatoria discreta con función


de probabilidad p(y) y media E(Y)=µ entonces

2 2 2 2
V (Y )=σ =E [(Y −μ) ]=E (Y )−μ
4.3 LA DISTRIBUCIÓN DE PROBABILIDAD BINOMIAL

Un experimento binomial presenta las


siguientes propiedades
● Consiste en un número fijo, n, de pruebas idénticas
● Cada prueba resulta en uno de dos resultados:
éxito, S, o fracaso, F.
● La probabilidad de éxito en una sola prueba es
igual a algún valor p y es el mismo de una prueba a
otra. La probabilidad de fracaso es igual a q=(1-p).
● Las pruebas son independientes.
● La variable aleatoria de interés es Y, el número de
éxitos observado durante las n pruebas.
MÉTODO DE PUNTO MUESTRAL

● Para hallar la probabilidad de que el


experimento produzca y éxitos.
● Cada punto muestral del espacio muestral
puede estar caracterizado por un rearreglo
SSFSFFFSFS.....FS
n posiciones, con la posición i indica el
resultado de la i-ésima prueba
● Para Y=y; SSSSSS....SSFFF...FF
y y n-y posiciones para S y F respectivamente
cada uno de los puntos muestrales se puede
representar como un rearreglo de y éxitos y
(n-y) fracasos
y el número total de estos arreglos es
n!
()
n =
y y ! (n− y)!

cada uno con probabilidad


p y q n− y
DEFINICIÓN

Se dice que una variable aleatoria Y tiene una


distribución binomial basada en n pruebas con
probabilidad p de éxito si y solo si

p( y)=
()
n
y
y n− y
p q
TEOREMA
Sea Y una variable aleatoria binomial
basada en n pruebas y probabilidad p de
éxito.
Entonces
μ =E (Y )=np y 2
σ =V (Y )=npq
4.5.- Distribución de
probabilidad Geométrica
Es similar a la distribución binomial pero...
Y es el número de prueba en la que ocurre
el primer éxito y el espacio muestral es
infinitamente contable.
● ESPACIO MUESTRAL
E1: S
E2:FS
.
.
Los eventos (Y=1),(Y=2) y (Y=3) contienen
solo los puntos muestrales E1, E2 y E3,
en general (Y=y) contiene solo a Ey.
Dado que las pruebas son independientes
y-
p(y)=P(Y=y)=P(Ey)=P(FF...FS)=qq...qp = q
1
p
Definición
y−1
se dicep(que una pvariable
y)=q aleatoria
y=1,2,3,. tiene
.. 0≤ p≤1
teorema
● Si Y es una variable aleatoria con una
distribución geométrica, entonces
1 2 1− p
μ =E (Y )= y σ =V (Y )= 2
p p
4.6.- DISTRIBUCIÓN HIPERGEOMÉTRICA

N-población
n-muestra
si n<<N entonces binomial (la restitución no
es relevante)
Sin embargo si n<N son comparables, la
restitución es relevante entonces la
distribución de probabilidad es
hipergeométrica.
Observe que tiene las mismas características
que la distribución binomial con Y – número
de éxitos observados en n pruebas.
MÉTODO DE PUNTO MUESTRAL

Para hallar la probabilidad de que el


experimento produzca y éxitos en la muestra
n
Cada punto muestral es
SSFSFFFSFS.....FS
r éxitos en la población N

SSSSSS....SSFFF...FF
El número de posibilidades para elegir la
muestra con n elementos de la población N
()N
n
Ahora nuestro espacio muestral S será el total
de todas estas posibilidades (recuérdese que
en la distribución binomial esto no era
necesario ya que al ser n<<N, las pruebas se
podian considerar como independientes,
pero si n es del orden de N esto no será así).
Así, la propia muestra n es apenas un punto
Ei del espacio muestra, con probabilidad...
1
P ( E i )= , para todo E i en S
() N
n
Si llamamos r el número de éxitos en la
población y N-r el de fracasos, entonces el
número de éxitos en la muestra n tendrán
una probabilidad....

p( y)=
( )(
r
y )
N −r
n− y

() N
n
VALORES ESPERADOS
PARA LA DISTRIBUCIÓN HIPERGEOMÉTRICA

nr
μ=E (Y )=
N
2
σ =V (Y )=n ( )(
r
N N )(
N −r N −n
N −1 )
r
de hecho p= entonces
N

(N −n
N −1 )
es un factor de corrección
BINOMIAL → HIPERGEOMÉTRICA
4.7.- LA DISTRIBUCIÓN DE
PROBABILIDAD DE POISSON
Un evento que puede ocurrir en intervalos
espaciales o temporales que pueden
subdividirse en subintervalos cada vez más
pequeños(límite) de tal manera que solo un
evento pueda ocurrir dentro del subintervalo.
Y donde cada evento puede ocurrir con la
misma probabilidad de éxito, de manera
independiente. Obviamente solo hay una
determinada cantidad de sucesos que
pueden ocurrir dentro del intervalo
(observe la analogía con la Distribución
Binomial., pero ahora con intervalos (límite))
CARACTERÍSTICAS

Sea p la probabilidad de que el evento ocurra
dentro del subintervalo.

P(no ocurren eventos en el subintervalo)=1-p

P(ocurren más de un evento dentro)=0

La cantidad de eventos que ocurren en el
intervalo (tamaño de la muestra) es el
número de subintervalos en los que ocurre
un evento.

Si los eventos ocurren de manera
independiente de un intervalo a otro,
entonces Y-número de eventos en el
intervalo.Tiene distribución binomial
Encontrar la distribución de probabilidad

Cuando se incrementa el número de


subintervalos, p disminuye.
Calculemos el límite de la probabilidad
binomial a medida que n se acerca al infinito.

sea λ=np entonces p= λ


n
lim
()n
n →∞ y
y
p (1− p)
n− y

x
Aplicación de límites y definición de e .
DEFINICIÓN

Se dice que una variable aleatoria Y tiene una


ditribución de probabilidad de Poisson si y
y −λ
solo si: λ e
p( y)= y=0,1,2,. .. , λ >0
y!
TEOREMA

Si Y es una variable aleatoria que posee una


distribución de Poisson con parámetro λ,
entonces

μ =E (Y )= λ
2
σ =V (Y )= λ
MOMENTOS Y FUNCIONES GENERADORAS DE MOMENTO

● El k-ésimo momento de una variable aleatoria Y


tomada alrededor del origen se define como:
k
E (Y )= μ ' k

● Observe que:
1
E (Y )= μ ' 1= μ
2
E (Y )= μ ' 2
Momento central

El k-ésimo momento de una variable aleatoria Y


tomado alrededor de su media (k-ésimo
momento central de Y) se define como

k
E [(Y − μ ) ]= μ k

Observe que
2
σ =μ 2
TEOREMA

Dos variables aleatorias Y, Z que poseen


momentos µ'k alrededor del origen finitos e
iguales es decir
μ ' 1y = μ ' 1z , μ ' 2y = μ ' 2z ,… , μ ' jy = μ ' jz , para todo j entero
Tienen iguales distribuciones de probabilidad.

Este teorema es útil para calcular la distribución de


probabilidad de una variable aleatoria (por lo
general un estimador o tomador de decisiones)
DEFINICIÓN

La función generadora de momento m(t) para


una variable aleatoria Y se define como

ty
m(t)=E (e )

Y decimos que existe si existe una constante


positiva b tal que m(t) es finita para |t|<=b
si podemos encontrar E(ety) entonces podemos
obtener cualesquiera de los momentos para Y.
Teorema: Si m(t) existe, entonces para
cualquier entero positivo k,

[ ]
k
d m(t ) k
k
=m (0)= μ ' k
dt t =0

Es decir, la k-ésima derivada de m(t) evaluada


en t=0, es µ'k.
DISTRIBUCIONES DISCRETAS
distribución función de densidad media varianza f. generadora

() [ p e t +(1− p)] n
● Binomial p( y)= n p y (1− p)n− y np np(1− p)
y
y=0,1,2,. ... n

y −1
p( y)= p(1− p) 1 1− p pe
t
● Geométrica 2
y=1,2,.... p p 1−(1− p)e
t

( )(
r
y ) N −r
n− y nr
● Hipergeométrica p( y)=
(n)
N N n ( )( )( )
r
N
N −r
N
N −n
N −1

y=0,1,2,. ... n si n≤r


y=0,1,2,. ... r si n>r

y −λ
Poisson λ e

p( y)= λ λ exp [ λ(e −1) ]
t
y!
Y =0,1,2,. ..
5.1.- DISTRIBUCIONES CONTÍNUAS

Variable continua: una variable aleatoria que


puede tomar cualquier valor en un intervalo se
denomina continua.
● No son contables, es decir no se puede relacionar
cada valor de una variable continua con algún
elemento de los números naturales.
Es imposible asignar probabilidades diferentes
de cero a todos los puntos del intervalo de la
variable continua.
5.2.- FUNCIONES DE DISTRIBUCIÓN DE
PROBABILIDAD

Sea Y una variable aleatoria cualquiera. La


función de distribución de Y, denotada por F(y)
es tal que
F ( y)=P (Y ≤ y)
para−∞< y<∞

La función de distribución es la probabilidad


acumulada hasta Y=y
● Definición: mediana es el valor de la variable Y
donde el valor de la función de distribución es
0.5
Función escalonada

Las funciones de distribución para variables


aleatorias discretas son siempre funciones
escalón, ya que la función de distribución
acumulativa aumenta solo en el número finito o
contable de puntos con probabilidad positiva.
PROPIEDADES DE UNA FUNCIÓN DE DISTRIBUCIÓN

Si F(y) es una función de distribución entonces:

1.- F (−∞)= lim F ( y)=0


Y →−∞
2.- F (∞)= lim F ( y)=1
Y →∞
3.- F(y) es una función (continua) no
decreciente de y.
Las variables aleatorias continuas tienen
probabilidad cero en puntos discretos.
P (Y = y)=0
Es decir: si una función es continua, es
imposible sumar un valor diferente de cero de
manera instantánea.
FUNCIÓN DE DENSIDAD DE PROBABILIDAD

Definición: A la derivada (si existe) de una


función de distribución F(y) se le denomina
función de densidad de probabilidad, f (y).
d
f ( y)= F ( y)=F ' ( y)
dy

Nota: esto significa que la pendiente a F(y) en


un punto dado nos determina la densidad de
probabilidad.
De la anterior definición podemos deducir que
al incremento instantáneo de la probabilidad en
la variación de la variable aleatoria es a lo que
se le conoce como densidad de probabilidad.
Y viceversa, integrando la función de densidad
se puede obtener la función de distribución
y
F ( y)=∫−∞ f (t) dt
TEOREMA

Propiedades de una función de densidad:


Si una f (y) es una función de densidad para
una variable aleatoria continua, entonces

1.− f ( y )≥0 para toda y ,−∞< y<∞



2.− ∫−∞ f ( y) dy=1
TEOREMA

Si la variable aleatoria Y tiene una función de


densidad f (y) y a<b, entonces la probabilidad
de que Y caiga en el intervalo [a,b] es.
b
P (a≤ y≤b)=∫a f ( y ) dy

Además dado P(Y=y)=0


entonces
b
P (a< y<b)=∫a f ( y ) dy
VALORES ESPERADOS DE VARIABLES Y DE FUNCIONES

Definiciones


E (Y )=∫−∞ y f ( y )dy

E [ g ( y )]=∫−∞ g ( y) f ( y) dy
teorema

Sea c una constante y sean g(y), g1(y), g2(y),...,


gk(y) funciones de una variable aleatoria
continua Y. Entonces se cumplen los siguientes
resultados:
1. E (c)=c
2. E [ cg ( y)]=cE [ g ( y )]
3. E [ g 1 ( y)+ g 2 ( y )+…+ g k ( y )]= E [ g 1 ( y )]+ E [ g 2 ( y)]
+…+ E [ g k ( y )]
Nota:
1. μ = E ( y)
2 2 2 2
2. σ = E [( y− μ ) ]= E ( y )− μ
5.6.- DISTRIBUCIÓN DE PROBABILIDAD
UNIFORME

Cuando una variable se distribuye sobre un


intervalo de tal manera que a subintervalos
iguales correspondan iguales probabilidades
entonces decimos que la variable aleatoria
tiene distribución continua uniforme.
Y tiene función de densidad

{ }
1
, θ1 ≤ y≤θ2 ,
f ( y)= θ2 −θ1
0, en cualquier otro punto
θ1 y θ2 se denominan parámetros de la función
de densidad.
En general las constantes que determinan la forma
específica de una función de densidad se denominan
PARÁMETROS de la función de densidad.
Aplicaciones: algunas variables aleatorias
continuas en física, administración, ciencias
biológicas, y otras, tienen distribuciones de
probabilidad aproximadamente uniformes.
Muchas veces en una variable con distribución
de Poisson en intervalo temporal o espacial
sobre el cual se distribuye la variable es a su
vez una variable que se distribuye
uniformemente.
VALORES ESPERADOS DE VARIABLES Y FUNCIONES
TEOREMA
media y varianza de la distribución uniforme

Si θ1<θ2 y Y es una variable aleatoria


uniformemente distribuida en el intervalo (θ1,θ2),
entonces

θ2+θ1
μ=E (Y )=
2
2
2 (θ2−θ1)
σ =V (Y )=
12
5.6 LA DISTRIBUCION DE
PROBABILIDAD NORMAL
Se dice que una variable Y tiene una
distribución normal de probabilidad si y solo si,
para σ > 0 y -∞ < µ < +∞, la función de
densidad de Y es
1 2
−( y− μ ) / 2 σ
2

f ( y)= e ,
σ √2 π
−∞< y<+∞

Es la distribución de probabilidad continua más


usada.
VALORES ESPERADOS DE VARIABLES Y FUNCIONES
distribución de probabilidad Normal
TEOREMA

Si Y es una variable aleatoria normalmente


distribuida con parámetros µ y σ , entonces

E (Y )= μ y V (Y )=σ 2
Propiedades de la distribución Normal

● La moda ocurre exactamente en la media


● La curva es simétrica respecto a la media

Tiene puntos de inflexión en x=µ±σ
● Es asíntótica al eje horizontal en ambas
direcciones.
● El área bajo la curva es 1
OTROS VALORES DE LOS PARÁMETROS
z es la distancia desde la media de una distribución normal
expresada en unidades de desviación estándar

y− μ
z= σ
5.7 LA DISTRIBUCIÓN DE PROBABILIDAD GAMMA

Funciones de densidad sesgada

.
Definición

Se dice que una variable aleatoria Y tiene una


distribución Gamma con parámetros α >0 y β
>0 si y solo si la función de densidad de Y es

{ }
α−1 − y / β
y e
α , 0< y<∞
f ( y)= Γ (α) β
0, en cualquier otro punto
Donde

Γ (α )=∫0 y α −1 − y
e dy
Gráficas de la función de distribución gamma.
Ver aplicación excel*

Solo puede encontrarse la integración analítica


para α =1, asi que los software de estadística
serán los más útiles.

*Todavía no
Realizar la
aplicación
VALORES ESPERADOS DE VARIABLES Y FUNCIONES
distribución de probabilidad gamma
TEOREMA

Si Y tiene una distribución gamma con


parámetros α y β , entonces

2 2
μ =E (Y )=α β y σ =V (Y )=α β
LA DISTRIBUCIÓN GAMMA – CASOS PARTICULARES

Si α es un entero la distribución gamma puede


expresarse como una suma de ciertas
probabilidades de Poisson.
Si α =1 la distribución Gamma se denomina
Distribución exponencial.
Si los parámetros son α = ν/2 y β=2, entonces
se denomina Distribución Ji cuadrada (χ2) con
ν (nu) grados de libertad
VER APLICACIÓN EN EXCEL
LA DISTRIBUCIÓN DE PROBABILIDAD χ2

Definición: Sea n un entero positivo. Se dice


que una variable aleatoria Y tiene distribución ji
cuadrada con ν grados de libertad si y solo si Y
es una variable aleatoria con distribución
gamma y parámetros α = ν/2 y β = 2.
Teorema: Si Y es una variable aleatoria χ2 con
ν grados de libertad, entonces
2
μ =E (Y )=ν y σ =V (Y )=2 ν
LA DISTRIBUCIÓN DE PROBABILIDAD EXPONENCIAL
Definición: Se dice que una variable aleatoria Y
tiene una distribución exponencial con
parámetro β>0 si y solo si la función de
densidad de Y es

{ }
−y/β
e
f ( y)= , 0≤ y<∞
β
0, en cualquier otro punto
Teorema: Si Y es una variable aleatoria
exponencial con parámetro β, entonces
2 2
μ =E (Y )= β y σ =V (Y )= β
5.8 LA DISTRIBUCIÓN DE PROBABILIDAD BETA
Definición: se dice que una variable aleatoria Y tiene una
distribución de probabilidad beta con parámetros α > 0 y β > 0
si y solo si la función de densidad de Y es

{ }
α−1 β −1
y (1− y)
, 0≤ y≤1
f ( y)= B(α , β )
0, en cualquier otro punto
Donde
Función Beta
1
Γ(α)Γ(β)
B(α ,β)=∫ y
α−1 β−1
(1− y) dy=
0 Γ(α+β)
5.8.4 VALORES ESPERADOS PARA VARIABLES Y FUNCIONES
PARA LA FUNCIÓN DE DISTRIBUCIÓN BETA
TEOREMA

Sea Y una variable aleatoria con distribución


beta α > 0 y β > 0, entonces

αβ
μ =E (Y )= α 2
y σ =V (Y )= 2
α +β (α + β ) (α + β +1)
5.9 Momentos, función Generadora
OTROS VALORES ESPERADOS

● DEFINICIÓN
● Si y es una variable aleatoria continua,
entonces el k-ésimo momento alrededor del
origen está dado por
, k
μ k =E (Y ) , k =1,2,. ..

● El k-ésimo momento alrededor de la media, o


el k-ésimo momento central, está dado por
k
μ k =E [(Y −μ) ] , k =1,2,. ..
FUNCIÓN GENERADORA DE MOMENTO

DEFINICIÓN
Si Y es una variable aleatoria continua,
entonces la función generadora de momento
Y está dada por
tY
m(t )=E (e )

Se dice que existe la función generadora de


momento si existe una constante b > 0 tal que
m (t) es finita para ∣t∣≤b
Tiene la misma forma que para las variables aleatorias
discretas

2
t , ,
m(t)=1+t μ + μ 2+....
1
2!

[ ]
k
d m(t ) ,
k
=μ k
dt t =0
DISTRIBUCIONES CONTINUAS
distribución función de densidad media varianza f.generadora

1 θ2 +θ1 (θ2 −θ1 )


2 t θ2
e e
t θ1
● Uniforme f ( y)=
θ 2−θ1 2 12 t (θ2 −θ1 )
θ1≤ y≤θ2

[( ) ] ( )
2
● Normal 1 1 2
μ σ t2σ 2
f ( y)= exp − 2 ( y−μ) exp μ t+
σ √ 2π 2σ 2
−∞< y<+∞
α−1 − y / β
Gamma y e αβ αβ
2
(1− β t)
−α

f ( y)= α
Γ(α) β
0< y<∞

● Beta y α−1 (1− y )β −1 α αβ


f ( y)=
B (α , β ) α +β (α + β )2 (α + β +1)
0< y<1
DISTRIBUCIONES DE PROBABILIDAD MULTIVARIANTES

Definición:
Sean Y1 y Y2 variables aleatorias discretas. La
función de probabilidad conjunta (o bivariante)
para Y1 y Y2 está dada por

p( y 1 , y 2 )=P (Y 1= y1 , Y 2= y 2 ) ,
−∞< y 1<∞ , −∞< y 2<∞

(función de masa de probabilidad conjunta)


TEOREMA

Si Y1 y Y2 son variables aleatorias discretas con


función de probabilidad conjunta p(y1,y2),
entonces
1. p( y1 , y 2 )≥0 para toda y1 , y 2
2. ∑y , y
1 2
p( y 1 , y 2)=1
Donde la suma es para todos los valores (y1,y2)
a los que se asignan probabilidades diferentes
de cero
DEFINICIÓN

Para cualesquiera variables aleatorias Y1 y Y2,


la función de distribución conjunta (bivariante)
F(y1,y2) es

F ( y 1 , y 2 )=P (Y 1 ≤ y 1 , Y 2≤ y 2 ) ,
−∞< y1 <∞ , −∞< y 2<∞
es decir
F ( y 1 , y 2 )= ∑ ∑ p(t 1 ,t 2)
t 1≤Y 1 t 2≤Y 2
DEFINICIÓN (variables continuas)

Sean Y1 y Y2 variables aleatorias continuas con


función de distribución conjunta F(y1, y2). Si
existe una función yno ynegativa f (y1, y 2) tal que
1 2

F ( y 1 , y 2 )= ∫ ∫ f (t 1, t 2 )dt 2 dt 1 ,
−∞ −∞
−∞< y 1<∞ , −∞< y 2<∞
Entonces se dice que Y1 y Y2son variables
aleatorias continuas conjuntas. La función
f(y1,y2) recibe el nombre de función de densidad
de probabilidad conjunta.
TEOREMA

Si Y1 y Y2 son variables aleatorias con función


de distribución conjunta F(y1,y2) entonces

1.− F (−∞ ,−∞)=F (−∞ , y 2 )=F ( y 1 ,−∞)=0


2.− F (∞ , ∞)=1
3.− Si y ' 1 ≥ y 1 y y ' 2 ≥ y 2 , entonces
F ( y ' 1 , y ' 2)−F ( y ' 1 , y 2 )− F ( y 1 , y ' 2)+F ( y1 , y 2 )≥0
TEOREMA

Si Y1 y Y2 son variables aleatorias continuas


conjuntas con una función de densidad
conjunta dada por f (y1,y2), entonces

1.− f ( y 1 , y 2 )≥0 para toda y 1 , y 2.

∞ ∞

2.− ∫ ∫ f ( y 1 , y 2 ) dy 1 dy 2 =1
−∞ −∞

LOS VOLÚMENES ABAJO DE ESTAS SUPERFICIES


REPRESENTAN PROBABILIDADES.
DISTRIBUCIONES DE PROBABILIDAD MARGINAL
Definición:
Sean Y1 y Y2 variables aleatorias discretas conjuntas con función
de probabilidad p(y1,y2). Entonces las funciones de distribución
marginal de Y1 y Y2, respectivamente, están dadas por

p1 ( y 1 )= ∑ p ( y1 , y2) y p 2 ( y 2 )= ∑ p ( y 1 , y 2)
todos y 2 todos y1
Sean Y1 y Y2 variables aleatorias continuas conjuntas con función
de densidad conjunta f (y1, y2). Entonces las funciones de densidad
marginal de Y1 y Y2, respectivamente, están dadas por
∞ ∞

f 1 ( y 1)= ∫ f ( y 1 , y 2 )dy 2 y f 2 ( y 2 )= ∫ f ( y 1 , y 2) dy 1
−∞ −∞
FUNCIÓN DE PROBABILIDAD DISCRETA CONDICIONAL
Si Y1 y Y2 son variables aleatorias discretas
conjuntas con función de probabilidad conjunta
p(y1,y2) y funciones de probabilidad marginal
p1(y1) y p2(y2), respectivamente, entonces la
función de probabilidad discreta condicional de
Y1 dada Y2 es
P (Y 1= y 1 , Y 2= y 2 )
p( y 1 ∣ y 2)= P (Y 1= y 1 ∣ Y 2 = y 2)=
P (Y 2= y 2 )
p( y 1, y 2 )
=
P 2 ( y2)
Siempre que p2(y2)>0
DEFINICIÓN

Si Y1 y Y2 son variables aleatorias continuas


conjuntas con función de densidad conjunta
f(y1, y2), entonces la función de distribución
condicional de Y1 dado que Y2 = y2 es

F ( y 1 ∣ y 2 )=P (Y 1≤ y 1 ∣ Y 2= y 2 )
FUNCIÓN DE DENSIDAD CONDICIONAL

Sean Y1 y Y2 son variables aleatorias continuas


conjuntas con función de densidad conjunta
f(y1,y2) y densidades marginales f1(y1) y f2(y2),
respectivamente. Para cualquier y2 tal que
f2(y2)>0, la densidad condicional de Y1 dada Y2
está dada por

f ( y1 , y 2)
f ( y 1 ∣ y 2 )=
f 2 ( y2)
TEOREMA DE INDEPENDENCIA

Si Y1 y Y2 son variables aleatorias discretas con


función de probabilidad conjunta p(y1 , y2) y
funciones de probabilidad marginal p1(y1) y
p2(y2), respectívamente, entonces Y1 y Y2 son
independientes si y solo si

p( y 1 , y 2 )= p1 ( y1 ) p 2 ( y 2 )

Para todos los pares de números reales (y1 , y2)


Si Y1 y Y2 son variables aleatorias continuas
con función de densidad conjunta f (y1 , y2) y
funciones de densidad marginal f1(y1) y f2(y2),
respectivamente, entonces Y1 y Y2 son
independientes si y solo si

f ( y 1, y 2)= f 1 ( y 1 ) f 2 ( y 2 )

Para todos los pares de números reales (y1 , y2)


TEOREMA (para límites de integración constantes)

Sean Y1 y Y2 que tienen una densidad conjunta


f (y1, y2) que es positiva si y solo si a ≤ y1≤ b y
c ≤ y2≤ d, para constantes a,b,c y d; y
f (y1, y2) = 0 en otro caso. Entonces Y1 y Y2 son
variables aleatorias independientes si y solo si
f ( y 1 , y 2 )=g ( y 1) h( y 2 )
Donde g(y1) es una función no negativa de y1
solamente y h(y2) es una función no negativa
de y2 solamente.
6.4 VALOR ESPERADO DE UNA FUNCIÓN DE VARIABLES
ALEATORIAS
Sea g(Y1, Y2, ....Yk) una función de las variables aleatorias
discretas Y1, Y2, ....Yk que tienen función de probabilidad p (y1,
y2, . . . yk). Entonces el valor esperado de g(Y1, Y2, ....Yk) es

E [ g ( Y 1 , Y 2 ,… , Y k ) ]=
= ∑ … ∑ ∑ g ( y 1 , y 2 ,… , y k ) p( y 1 , y 2 ,… , y k )
toda y k toda y2 toda y 1
Si Y1, Y2, ....Yk son variables aleatorias continuas con función
de densidad conjunta f(y1,y2, ....yk), entonces

E [ g ( Y 1 , Y 2 ,… , Y k ) ]=
∞ ∞ ∞

= ∫ … ∫ ∫ g ( y 1 , y 2 ,… , y k ) f ( y 1 , y 2 ,… , y k )dy 1 dy 2 …dy k
−∞ −∞ −∞
TEOREMAS ESPECIALES
Sea c una constante, entonces
E (c)=c
Sea g(Y1, Y2) una función de las variables
aleatorias Y1 y Y2 y sea c una constante,
entonces.
E [ cg ( Y 1 , Y 2)]=cE [ g (Y 1 , Y 2)]
Sean Y1 y Y2 variables aleatorias y g1(Y1, Y2),
g2(Y1, Y2), . . . , gk(Y1,Y2) funciones de Y1 y Y2.
Entonces
E [ g 1 ( Y 1 ,Y 2 )+ g 2 ( Y 1 ,Y 2 )+… g k ( Y 1 , Y 2 ) ]=
=E [ g 1 ( Y 1 ,Y 2 ) ]+E [ g 2 ( Y 1 ,Y 2 ) ]+…+E [ g k ( Y 1 ,Y 2 ) ]
TEOREMA

Sean Y1 y Y2 variables aleatorias


independientes y sean g (Y1) y h(Y2) funciones
solo de Y1 y Y2 respectivamente. Entonces.

E [ g (Y 1) h (Y 2) ]=E [ g (Y 1)] E [ h ( Y 2)]

Siempre que existan los valores esperados


6.5 COVARIANZA DE DOS VARIABLES ALEATORIAS

Si Y1 y Y2 son variables aleatorias con medias


µ1 y µ2 , respectivamente, la covarianza de Y1 y
Y2 es

Cov (Y 1 , Y 2)=E [( Y 1− μ 1)(Y 2− μ 2)]


COEFICIENTE DE CORRELACIÓN

Cov (Y 1 , Y 2)
ρ=
σ1 σ 2
TEOREMA

Si Y1 y Y2 son variables aleatorias con medias


µ1 y µ2 , respectivamente, entonces

Cov (Y 1 , Y 2)=E [( Y 1− μ 1)(Y 2 − μ 2)]=E (Y 1 Y 2)−E (Y 1) E (Y 2)


TEOREMA

Si Y1 y Y2 son variables aleatorias


independientes, entonces

Cov (Y 1 , Y 2)=0

así las variables aleatorias independientes


deben ser no correlacionadas.
RESULTADO

Cov (Y 1 , Y 2)=Cov (Y 2 , Y 1)
2
Cov (Y 1 , Y 1)=V (Y 1)=σ
VALOR ESPERADO Y VARIANZA DE FUNCIONES LINEALES DE
VARIABLES ALEATORIAS
Sean Y1, Y2, ..., Yn y X1, X2, ..., Xm variables
aleatorias con E(Yi) = µi y E(Xj) = ξj. Defina
n m
U 1 =∑ a i Y i y U 2 =∑ b i X i
i=1 j=1

Para las constantes a1, a2, ..., an y b1, b2, ..., bm


Entonces se cumple
n
a E (U 1)=∑i=1 a i μ i
n
b V (U 1)=∑i=1 a V (Y i )+2 ∑ ∑1≤i< j≤n a i a j Cov(Y i ,Y j )
2
i
n m
c Cov(U 1 ,U 2 )=∑i=1 ∑ j=1 a i b j Cov (Y i , X j )
DISTRIBUCIÓN DE PROBABILIDAD MULTINOMIAL

Un experimento multinomial posee las siguientes


propiedades:
1.- El experimento consta de n intentos idénticos.
2.- El resultado de cada intento cae en una de k clases o
celdas.
3.- La probabilidad de que el resultado de cada intento
caiga en la celda i, es pi , i=1,2,....k y sigue siendo el
mismo de un intento a otro. Observe que p1 +p2+....+pk=1
4.- los intentos son independientes.
5.- las variables aleatorias de interés son Y1,Y2,....,Yk,
donde Yi es igual al número de intentos para los cuales el
resultado cae en la celda i. Observe que Y1+Y2+...+Yk=n.
DEFINICIÓN

Suponga que p1, p2, ...pk son tales que


k
∑i=1 pi =1, y pi >0 para i=1,2,… , k
Se dice que las variables aleatorias Y1, Y2, ....Yk
tienen una distribución multinomial con
parámetros n y p1, p2, ...pk , si la función de
probabilidad conjunta de Y1, Y2, ....Yk está dada
por
n! y y y
p( y 1 , y 2 ,… , y k )= 1 2
p1 p 2 … p k
k

y 1! y 2 !… y k !
k
donde , para cada i , y i =0,1,2,… , n y ∑i=1 y i =n
TEOREMA

Si Y1, Y2, ...., Yk tienen una distribución


multinomial con parámetros y y p1, p2, ..., pk,
entonces
1. E (Y i)=n pi , V (Y i)=np i q i
2. Cov (Y s , Y t )=−np s p t , si s≠t

Vous aimerez peut-être aussi