Académique Documents
Professionnel Documents
Culture Documents
MATERIA:
PROBABILIDAD Y ESTADÍSTICA.
PRESENTA:
GRADO:
2° SEMESTRE.
ASESOR:
En estadística resulta más fácil utilizar valores numéricos en lugar de trabajar directamente
con los elementos de un espacio muestral como el anterior. Así preferimos identificar los
que atribuye un único número real xe, a cada suceso elemental e, del espacio muestral
E5.1.
Por ejemplo, en el ejemplo anterior, se define la variable aleatoria.
Observación
La variable X no recibe el calificativo de aleatoria por el hecho de que atribuya de
En función de los valores que tome la variable, esta puede ser clasificada en discreta o
continua del siguiente modo:
v.a. discreta
es aquella que sólo puede tomar un número finito o infinito numerable de valores.
Por ejemplo,
v.a. continua
es la que puede tomar un número infinito no numerable de valores.
Observación
Si sobre los elementos de E existe una distribución de probabilidad, esta se transmite a los
valores que toma la variable X. Es decir, toda v.a. conserva la estructura probabilística del
experimento aleatorio que describe, en el sentido de que si es la función de probabilidad
definida sobre el espacio muestral E, ésta induce otra función definida sobre , de
forma que conserva los valores de las probabilidades.
Observación
Obsérvese que X está definido sobre el espacio muestral de sucesos E, mientras que f lo
está sobre el espacio de números reales .
Las propiedades de la función de probabilidad de v.a. se deducen de forma inmediata de
los axiomas de probabilidad:
Hay que observar que a valores no admisibles por la variable les pueden corresponder
valores de F no nulos. Por ejemplo,
Figura: Función de probabilidad a la izquierda, y función de
distribución a la derecha de una v.a. discreta
y
4.1.3 VARIANZA Y DESVIACIÓN ESTÁNDAR.
La media y la varianza de una variable aleatoria continua se define de la manera similar al caso
de la variable aleatoria discreta. En las definiciones la integración remplaza a la sumatoria.1
Supóngale que X es una variable aleatoria continua con función de densidad de probabilidad fx (x),-
<x<.
EJEMPLO:
Con la siguiente función f(x) =0.125x para 0<x<4, calcular la media, la varianza y la desviación
estándar.
Valor esperado:
4 4 4
E ( X ) X x(0.125 x)dx 0.125 x 2 dx 0.125 x 2 dx
0 0 0
3 4 3 3
0.125 x 0.125(4) 0.125(0) 8
3
0
3
3
2.666
3
Varianza:
0 8 24 72 0 8 3 9 8 * 4 3 * 3 9 * 2 0
dx dx
Desviación estándar:
8
x 0.9428
9
Aun cuando la variable tomase un número infinito de valores, x1, x2, ..., no hay ningún
problema en comprobar que cada xi contribuye con una cantidad f(xi) al total de modo que
Cuando la variable es continúa, no tiene sentido hacer una suma de las probabilidades de
cada uno de los términos en el sentido anterior, ya que el conjunto de valores que puede
tomar la variable es no numerable. En este caso, lo que generaliza de modo natural el
densidad de una v.a. continua, que se define como una función integrable,
que verifica las dos propiedades siguientes:
Observación
Por ser f una función integrable, la probabilidad de un punto es nula:
y por ello al calcular la probabilidad de un intervalo no afectara nada el que este sea
abierto o cerrado por cualquiera de sus extremos, pues estos son puntos y por tanto de
probabilidad nula:
Observación
Dado un intervalo de la forma (a,b], tenemos que
Es decir, la cantidad F(b) - F(a) representa la masa de probabilidad extendida a lo largo de
dicho intervalo. Si dividimos esta cantidad por la longitud del intervalo,
Demostración
Los sucesos
y
Cambio de variable
Sea X una v.a. cualquiera. Si realizamos el cambio de variable Y=h(X), tenemos una
nueva v.a. de modo que las probabilidades sobre la misma se calculan del modo:
Si X es una v.a. continua cuya función de densidad es fx, la función de densidad de Y, fy,
admite la siguiente expresión:
Proposición
Si X es una v.a. continua e Y=h(X), donde h es una función derivable e inyectiva, entonces
se tiene que para los elementos y de su imagen,
donde
Una aplicación interesante del cambio de v.a. es la siguiente: Sea X una v.a. continua
cualquiera con función de distribución derivable, con derivada no nula (en su soporte), Fx.
Veamos cual es la distribución de la nueva v.a.
Y=Fx-1(X)
donde es el conjunto numerable de índices de los valores que puede tomar la variable
Observación
Recordamos que si
4.2.3 VARIANZA
La varianza la denotamos mediante o bien :
Obsérvese que del mismo modo en que se demuestra la relación. se comprueba que
Ejemplo
Consideramos una variable aleatoria discreta con función de probabilidad:
Obtener:
1.
El valor de la constante c para que sea una función de probabilidad.
2.
Los valores de las funciones de probabilidad y distribución para
3.
Calcular y .
Solución:
1.
2.
Calculemos sucesivos valores de f(x) y F(x):
xi f(x) F(x)
2 3/4=0,75 0,75
3 3/16=0,19 0,94
4 3/64=0,047 0,987
5 3/256=0,012 0,999
;
Ejemplo
Consideremos una variable aleatoria continua con función de densidad
Se pide:
1.
El valor de la constante c para que sea una función de densidad.
2.
La función de distribución.
3.
La media o valor esperado.
4.
Probabilidad de que la variable este comprendida entre 0,2 y 0,7
Solución:
1.
2.
4.
Ejemplo
La variable aleatoria continua X tiene como función de densidad:
Determinar :
1.
Media
2.
Varianza
3.
Solución:
1.
2.
Luego
3.
Hay que calcular la probabilidad del intervalo de la Figura 5.6:
Figura: La probabilidad del intervalo 0,2--0,8
es el área de la zona sombreada
Teorema (Thebycheff)
Este importante resultado, por si sólo, justifica el que sea una medida de centralización y
(o bien ) de dispersión de X y motiva la introducción del concepto de tipificación de
variables aleatorias. Dada una v.a. X, definimos su v.a. tipificada, Z, como:
Teorema (Fourier)
de probabilidad) es
Por último
Proposición
Demostración
Una propiedad de que es muy usada es que la suma de v.a. independientes tiene por
función característica el producto de las respectivas funciones características. Es decir:
Teorema
Sean X e Y v.a. independientes. Entonces
Este resultado es también cierto para el caso de n v.a. independientes.
Proposición
Demostración
UNIDAD 5. DISTRIBUCIONES DE PROBABILIDAD
DISCRETAS.
5.1 Distribución Binomial.
Definición
Cuando se dispone de una expresión matemática, es factible calcular la probabilidad de
ocurrencia exacta correspondiente a cualquier resultado específico para la variable
aleatoria.
La distribución de probabilidad binomial es uno de los modelos matemáticos (expresión
matemática para representar una variable) que se utiliza cuando la variable aleatoria
discreta es el número de éxitos en una muestra compuesta por n observaciones.
Propiedades
- La muestra se compone de un número fijo de observaciones n
- Cada observación se clasifica en una de dos categorías, mutuamente excluyentes (los
eventos no pueden ocurrir de manera simultánea. Ejemplo: Una persona no puede ser de
ambos sexos) y colectivamente exhaustivos (uno de los eventos debe ocurrir. Ejemplo: Al
lanzar una moneda, si no ocurre cruz, entonces ocurre cara). A estas categorías se las
denomina éxito y fracaso.
- La probabilidad de que una observación se clasifique como éxito, p, es constante de una
observación o otra. De la misma forma, la probabilidad de que una observación se
clasifique como fracaso, 1-p, es constante en todas las observaciones.
- La variable aleatoria binomial tiene un rango de 0 a n
Ecuación:
PX=n!X!n-X!·pX·1-pn-X
Donde
PX=Probabilidad de X éxitos, dadas y
n = Número de observaciones
p = Probabilidad de éxitos
1-p = Probabilidad de fracasos
X = Número de éxitos en la muestra (= 0, 1, 2, 3, 4,………)
Ejemplo ilustrativo N° 1
Determine P(X=5) para n = 6 y p = 0,83
Solución:
Aplicando la ecuación se obtiene:
PX=n!X!n-X!·pX·1-pn-X
PX=5=6!5!6-5!·0,835·1-0,836-5=0,4018
En Excel se calcula de la siguiente manera:
a) Se escribe los datos y se inserta la función DISTR.BINOM. Clic en Aceptar. Los
argumentos de la función escribir como se muestra en la figura:
b) Clic en Aceptar
Ejemplo ilustrativo N° 2
Determinar P(X=4) para n =5 y p = 0,45
Solución:
Se puede aplicar la ecuación para cada probabilidad, pero para ahorrar tiempo se
recomienda encontrar las probabilidades con lectura en la tabla de probabilidades
binomiales. Realizando la lectura en la tabla de la distribución binomial para P(X=0) con
n=5 y p=0,5 se obtiene 0,0503. Continuando con la respectivas lecturas en la tabla se
obtiene: 0,2059 para P(X=1), 0,3369 para P(X=2), 0,2757 para P(X=3) y 0,1128 para
P(X=4),
Por lo tanto PX=4=0,0503+0,2059+0,3369+0,2757+0,1128=0,9816
Los cálculos realizados en Excel se muestran en la siguiente figura:
Media de la distribución binomial
La media de la distribución binomial es igual a la multiplicación del tamaño de la muestra
por la probabilidad de éxito
Desviación estándar de la distribución binomial
total .
El valor esperado de una variable aleatoria X que sigue la distribución hipergeométrica es
y su varianza, En la fórmula anterior, definiendo
y se obtiene La distribución hipergeométrica es aplicable a muestreos sin reemplazo y
la binomial a muestreos con reemplazo. En situaciones en las que el número esperado de
repeticiones en el muestreo es presumiblemente bajo, puede aproximarse la primera por la
segunda. Esto es así cuando N es grande y el tamaño relativo de la muestra extraída, n/N,
es pequeño.
Ejemplo
Un cargamento de 100 grabadoras contiene 25 defectuosas. Si 10 de ellas son
aleatoriamente escogidas para revisión, ¿cual es la probabilidad de que 2 estén
defectuosas? utilizando
Ir a la navegaciónIr a la búsqueda
En teoría de probabilidad y estadística, la distribución geométrica es cualquiera de las
dos distribuciones de probabilidad discretas siguientes:
la distribución de probabilidad del número X del ensayo de Bernoulli necesaria para
obtener un éxito, contenido en el conjunto { 1, 2, 3,...} o
la distribución de probabilidad del número Y = X − 1 de fallos antes del primer éxito,
contenido en el conjunto { 0, 1, 2, 3,... }.
Propiedades
haya x fallos antes del primer éxito es para y = 0, 1, 2,....En ambos casos, la
secuencia de es una progresión geométrica.
El valor esperado de una variable aleatoria X distribuida geométricamente es y dado
que Y = X-1, .
Las funciones generatrices de X y la de Y son, respectivamente, .
Como su análoga continua, la distribución exponencial, la distribución geométrica carece
de memoria. Esto significa que si intentamos repetir el experimento hasta el primer éxito,
entonces, dado que el primer éxito todavía no ha ocurrido, la distribución de condicional
del número de ensayos adicionales no depende de cuantos fallos se hayan observado. El
dado o la moneda que uno lanza no tiene "memoria" de estos fallos. La distribución
geométrica es de hecho la única distribución discreta sin memoria.
De todas estas distribuciones de contenidas en {1, 2, 3,... } con un valor esperado dado μ,
la distribución geométrica X con parámetro p = 1/μ es la demayor entropía.
La distribución geométrica del número y de fallos antes del primer éxito es infinitamente
divisible, esto es, para cualquier entero positivo n, existen variables aleatorias
independientes Y 1,..., Yn distribuidas idénticamente la suma de las cuales tiene la misma
distribución que tiene Y. Estas no serán geométricamente distribuidas a menos que n = 1.
Distribuciones relacionadas
La distribución geométrica es un caso especial de la distribución binomial negativa con
parámetro k = 1. Más generalmente, si Y 1,...,Yk son variables independientes distribuidas
Este modelo se puede ver como una generalización del Binomial en el que, en lugar de
tener dos posibles resultados, tenemos r resultados posibles.
Supongamos que el resultado de una determinada experiencia puede ser r valores
distintos: A1, A2, ..., Ar cada uno de ellos con probabilidad p1, p2, ..., pr, respectivamente.
como se ve, el modelo Multinomial queda definido por los parámetros (n, p1, p2, ..., pr). La
fórmula anterior puede deducirse de forma análoga al caso Binomial. En realidad, si
tomamos r = 2 tenemos exactamente el modelo Binomial.
Se debe destacar que este modelo es un ejemplo de distribución multivariante, es decir,
de distribución conjunta de varias (r) variables aleatorias. En efecto, si definimos la
variable aleatoria X1 como número de veces que se produce el suceso A1 de un total
de n experiencias, y así sucesivamente, tenemos un conjunto de r variables aleatorias
discretas cuya función de densidad conjunta (valorada a la vez) viene definida por la
anterior fórmula. Nótese que si consideramos cada una de estas variables Xi (i =
1, 2, ..., r) por separado, su distribución es la Binomial de parámetros n y pi.
5.5Distribución de Poisson
Distribución de Poisson
=
El eje horizontal es el índice x. La función
solamente está definida en valores enteros de k.
Las líneas que conectan los puntos son solo
guías para el ojo y no indican continuidad.
Función de densidad de probabilidad
=
El eje horizontal es el índice k.
Función de distribución de probabilidad
Parámetros
Dominio
Función de
probabilidad(fp)
Función de
distribución(cdf) (dónde es
la Función gamma
incompleta)
Media
Mediana
Moda
Varianza
Coeficiente de
simetría
Curtosis
Entropía
Función generadora
de momentos(mgf)
Función característica
donde
k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de
que el evento suceda precisamente k veces).
λ es un parámetro positivo que representa el número de veces que se espera que ocurra
el fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en
promedio 4 veces por minuto y estamos interesados en la probabilidad de que
ocurra k veces dentro de un intervalo de 10 minutos, usaremos un modelo de distribución
de Poisson con λ = 10×4 = 40.
e es la base de los logaritmos naturales (e = 2,71828...)
Tanto el valor esperado como la varianza de una variable aleatoria con distribución de
Poisson son iguales a λ. Los momentos de orden superior son polinomios de Touchard en
λ cuyos coeficientes tienen una interpretación combinatoria. De hecho, cuando el valor
esperado de la distribución de Poisson es 1, entonces según la fórmula de Dobinski, el n-
ésimo momento iguala al número de particiones de tamaño n.
La moda de una variable aleatoria de distribución de Poisson con un λ no entero es igual
Intervalo de confianza
Un criterio fácil y rápido para calcular un intervalo de confianza aproximada de λ es
propuesto por Guerriero (2012).1 Dada una serie de eventos k (al menos el 15 - 20) en un
periodo de tiempo T, los límites del intervalo de confianza para la frecuencia vienen dadas
por:
.
Distribución binomial
La distribución de Poisson es el caso límite de la distribución binomial. De hecho, si los
Como consecuencia del teorema central del límite, para valores grandes de , una
variable aleatoria de Poisson X puede aproximarse por otra normal dado que el cociente
converge a una distribución normal de media 0 y varianza 1.u
Distribución exponencial
Supóngase que para cada valor t > 0, que representa el tiempo, el número de sucesos de
cierto fenómeno aleatorio sigue una distribución de Poisson de parámetro λt. Entonces, los
tiempos transcurridos entre dos sucesos sucesivos sigue la distribución exponencial.
Ejemplos
Si el 2% de los libros encuadernados en cierto taller tiene encuadernación defectuosa,
para obtener la probabilidad de que 5 de 400 libros encuadernados en este taller tengan
encuadernaciones defectuosas usamos la distribución de Poisson. En este caso
concreto, k es 5 y, λ, el valor esperado de libros defectuosos es el 2% de 400, es decir, 8.
Por lo tanto, la probabilidad buscada es
Procesos de Poisson
Artículo principal: Proceso de Poisson
La distribución de Poisson se aplica a varios fenómenos discretos de la naturaleza (esto
es, aquellos fenómenos que ocurren 0, 1, 2, 3,... veces durante un periodo definido de
tiempo o en un área determinada) cuando la probabilidad de ocurrencia del fenómeno es
constante en el tiempo o el espacio. Ejemplos de estos eventos que pueden ser
modelados por la distribución de Poisson incluyen:
El número de autos que pasan a través de un cierto punto en una ruta (suficientemente
distantes de los semáforos) durante un periodo definido de tiempo.
El número de errores de ortografía que uno comete al escribir una única página.
El número de llamadas telefónicas en una central telefónica por minuto.
El número de servidores web accedidos por minuto.
El número de animales muertos encontrados por unidad de longitud de ruta.
El número de mutaciones de determinada cadena de ADN después de cierta cantidad de
radiación.
El número de núcleos atómicos inestables que se han desintegrado en un determinado
período.
El número de estrellas en un determinado volumen de espacio.
La distribución de receptores visuales en la retina del ojo humano.
La inventiva2 de un inventor a lo largo de su carrera.
La distribución de la riqueza humana.
5.6 Aproximación de la binomial por la de poisson.
Introducción Distribuciones Binomial, Poisson, Normal
En este trabajo estudiaremos dos de las principales distribuciones de variables aleatorias
discretas y la distribución Normal que se puede aplicar tanto para variables aleatorias
discretas como para variables aleatorias continuas.
Una distribución de probabilidades para una variable aleatoria discreta es un listado
mutuamente excluyente de todos los resultados numéricos posibles para esa variable
aleatoria tal que una probabilidad específica de ocurrencia se asocia con cada resultado.
El valor esperado de una variable aleatoria discreta es un promedio ponderado de todos
los posibles resultados, donde las ponderaciones son las probabilidades asociadas con
cada uno de los resultados.
Distribución Binomial
Para hablar de la distribución Binomial primero tenemos que decir que esta dada por la
sumatoria de eventos bernoulli, la distribución de Bernoulli (o distribución dicotómica),
nombrada así por el matemático y científico suizo Jakob Bernoulli, es una distribución de
probabilidad discreta, que toma valor 1 para la probabilidad de éxito (p) y valor 0 para la
probabilidad de fracaso (q = 1 − p).
donde
Las siguientes características son las que describen a una distribución Binomial
Función característica
Ejemplo:
Supóngase que en cierta población el 52 por ciento de todos los nacimientos que se
registraron son varones. Si aleatoriamente se escogen cinco registros de nacimientos
dentro de esa población, ¿cuál es la probabilidad de que exactamente tres de ellos
pertenezcan a varones?
Tenemos los siguientes datos:
N = 5 X = 3 p = 0.52
o lo que es lo mismo
dado que las pruebas son independientes y conocemos que P(A)= p y P(no A)= q
que sería la probabilidad de x si el suceso fuera precisamente con los resultados en ese
orden. Dado que pueden darse otros órdenes , en concreto formas u órdenes
distintos . La función de cuantía de la distribución binomial negativa quedará como :
Como ejemplo la representación gráfica
de una variable sería la
siguiente
Aplicando el teorema de los momentos hallamos media y varianza que resultan ser:
No parece necesario recordar que si nos encontramos con una distribución BN( k=1,p)
realmente se trata de una distribución geométrica.
Para una variable aleatoria discreta uniforme X, que puede tomar los valores 1,2, ..., n, la
media es:
EJEMPLOS
.
UNIDAD 6. DISTRIBUCIONES DE PROBABILIDAD
CONTINUAS.
Los valores en los dos extremos a y b no son por lo general importantes porque no afectan
el valor de las integrales de f(x) dx sobre el intervalo, ni de x f(x) dx o expresiones
similares. A veces se elige que sean cero, y a veces se los elige con el valor 1/(b − a).
Este último resulta apropiado en el contexto de estimación por el método de máxima
verosimilitud. En el contexto del análisis de Fourier, se puede elegir que el valor de f(a)
ó f(b) sean 1/(2(b − a)), para que entonces la transformada inversa de
muchas transformadas integrales de esta función uniforme resulten en la función inicial, de
otra forma la función que se obtiene sería igual "en casi todo punto", o sea excepto en un
conjunto de puntos con medida nula. También, de esta forma resulta consistente con
la función signo que no posee dicha ambigüedad.
Función de distribución de probabilidad:
La función de distribución de probabilidad es:
DISTRIBUCIÓN UNIFORME DISCRETA
En teoría de la probabilidad, la distribución uniforme discreta es una distribución de
probabilidad que asume un número finito de valores con la misma probabilidad.
Su media estadística es
y su varianza
6.2. DISTRIBUCION DE PROBABILIDAD EXPONENCIAL.
Como vemos, este modelo depende de dos parámetros positivos: α y p. La función Γ(p) es
la denominada función Gamma de Euler que representa la siguiente integral:
que verifica Γ(p + 1) = pΓ(p), con lo que, si p es un número entero positivo, Γ(p + 1) = p!
Su esperanza es pα.
Su varianza es pα2
X + Y ~ G(α, p1 + p2).
Una consecuencia inmediata de esta propiedad es que, si tenemos k variables aleatorias
con distribución Exponencial de parámetro α (común) e independientes, la suma de todas
ellas seguirá una distribución G(α, k).
Utilice la distribución gamma para modelar valores de datos positivos que sean
asimétricos a la derecha y mayores que 0. La distribución gamma se utiliza comúnmente
en estudios de supervivencia de fiabilidad. Por ejemplo, la distribución gamma puede
describir el tiempo que transcurre para que falle un componente eléctrico. La mayoría de
los componentes eléctricos de un tipo particular fallará aproximadamente en el mismo
momento, pero unos pocos tardarán más en fallar.
La distribución gamma es una distribución continua que se define por sus parámetros de
forma y escala. La distribución gamma de 3 parámetros se define por sus parámetros de
forma, escala y valor umbral. Por ejemplo, en la siguiente gráfica, la distribución gamma se
define según valores de forma y escala diferentes cuando el valor umbral se establece en
0.0. Note que la mayoría de los valores en una distribución gamma ocurren cercanos entre
sí, pero algunos valores quedan al final de la cola superior.
Donde:
x = variable de tipo discreto; solo toma valores enteros
m = np = media de la distribución Binomial
s= = desviación estándar de la distribución Binomial
Ejemplos:
1. La probabilidad de que un paciente se recupere de una rara enfermedad de la
sangre es de 0.4. Si se sabe que 100 personas han contraído esta enfermedad,
¿Cuál es la probabilidad de que: a) al menos 30 sobrevivan?, b) más de 46
sobrevivan?, c) menos de 50 no sobrevivan?
Solución:
a)
n = 100
p = p(paciente se recupere) = 0.40
q = p(paciente no se recupere) = 1 – p = 1 – 0.40 = 0.60
m = np = (100)(0.40) = 40 pacientes se recuperen
s= = pacientes que se recuperan
x = variable que nos define el número de pacientes que se recuperan
x = 0, 1, 2,....,100 pacientes que se recuperan
X = 29.5 m = 40
p( z = -2.14) =0.4838
a)
p(z = 1.33) = 0.4082
46) = 0.5 – p(z = 1.33) = 0.5 – 0.4082 = 0.0918
b) n = 100
p = p(paciente no sobreviva) = 0.60
q = p(paciente sobreviva) = 1 – p = 0.40
pacientes que no se recuperan
pacientes que no se recuperan
x = variable que nos define el número de pacientes que no sobreviven
x = 0, 1, 2, ....,100
p(x >
p( z = -2.14) = 0.4838
2. Una prueba de opción múltiple tiene 200 preguntas, cada una con 4
posibles respuestas, de las cuáles solo una es la correcta ¿cuál es la probabilidad
de que al azar se den de 25 a 30 respuestas correctas para 80 de las 200
preguntas acerca de los cuales el estudiante no tiene conocimientos?
Solución:
n = 80
p = p(dar una contestación correcta) = 0.25
q = p(dar una contestación incorrecta) = 1 – p = 0.75
preguntas contestadas correctamente
preguntas contestadas correctamente
x = número de preguntas que son contestadas correctamente = 0, 1, 2,...,80
, p(z1 = 1.16) = 0.377
b)