Vous êtes sur la page 1sur 16

DISTRIBUCIÓN BINOMIAL

Supongamos que un experimento aleatorio tiene las siguientes características:

 En cada prueba del experimento sólo son posibles dos resultados: el suceso
A (éxito) y su contrario(fracaso).
 El resultado obtenido en cada prueba es independiente de los resultados
obtenidos anteriormente.
 La probabilidad del suceso A es constante, la representamos por p, y no
varía de una prueba a otra. La probabilidad de  es 1- p y la
representamos por q .
 El experimento consta de un número n de pruebas.

Todo experimento que tenga estas características diremos que sigue el modelo de la
distribución Binomial. A la variable X que expresa el número de éxitos obtenidos en cada
prueba del experimento, la llamaremos variable aleatoria binomial.

La variable binomial es una variable aleatoria discreta, sólo puede tomar los valores 0, 1, 2,
3, 4, ..., n suponiendo que se han realizado n pruebas. Como hay que considerar todas las
maneras posibles de obtener k-éxitos y (n-k) fracasos debemos calcular éstas por
combinaciones (número combinatorio n sobre k).

La distribución Binomial se suele representar por B(n,p) siendo n y p los parámetros de


dicha distribución.

Función de Probabilidad de la v.a. Binomial


Función de probabilidad de la distribución Binomial o también denominada función de la
distribución de Bernoulli (para n=1). Verificándose: 0  p  1

Como el cálculo de estas probabilidades puede resultar algo tedioso se han construido
tablas para algunos valores de n y p que nos facilitan el trabajo.

Ver Tabla de la Función de Probabilidad de la Binomial


Parámetros de la Distribución Binomial

Función de Distribución de la v.a. Binomial

siendo k el mayor número entero menor o igual a xi.

Esta función de distribución proporciona, para cada número real xi, la probabilidad de que
la variable X tome valores menores o iguales que xi.

El cálculo de las F(x) = p( X x) puede resultar laborioso, por ello se han construido tablas
para algunos valores de n y p que nos facilitan el trabajo.

Sea X una variable aleatoria discreta correspondiente a una distribución binomial.

Ejemplo 1

Una máquina fabrica una determinada pieza y se sabe que produce un 7 por 1000 de piezas
defectuosas. Hallar la probabilidad de que al examinar 50 piezas sólo haya una defectuosa.

Solución :
Se trata de una distribución binomial de parámetros B(50, 0'007) y debemos calcular la
probabilidad p(X=1).

Ejemplo 2

La probabilidad de éxito de una determinada vacuna es 0,72. Calcula la probabilidad de a


que una vez administrada a 15 pacientes:
a) Ninguno sufra la enfermedad
b) Todos sufran la enfermedad
c) Dos de ellos contraigan la enfermedad

Solución :

Se trata de una distribución binomial de parámetros B(15, 0'72)

En estadística, la distribución binomial es una distribución de probabilidad discreta que


mide el número de éxitos en una secuencia de n ensayos independientes de Bernoulli con
una probabilidad fija p de ocurrencia del éxito entre los ensayos.

Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles
dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y
al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior
experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad
de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una
distribución de Bernoulli.

Para representar que una variable aleatoria X sigue una distribución binomial de parámetros
n y p, se escribe:
La distribución binomial es la base del test binomial de significación estadística.

Distribución geométrica
De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

En teoría de probabilidad y estadística, la distribución geométrica es cualquiera de las dos


distribuciones de probabilidad discretas siguientes:

 la distribución de probabilidad del número X del ensayo de Bernoulli necesaria para


obtener un éxito, contenido en el conjunto { 1, 2, 3,...} o
 la distribución de probabilidad del número Y = X − 1 de fallos antes del primer éxito,
contenido en el conjunto { 0, 1, 2, 3,... }.

Cual de éstas es la que uno llama "la" distribución geométrica, es una cuestión de
convención y conveniencia.

Propiedades [editar]
Si la probabilidad de éxito en cada ensayo es p, entonces la probabilidad de que n ensayos
sean necesarios para obtener un éxito es

para n = 1, 2, 3,.... Equivalentemente, la probabilidad de que haya n fallos antes del primer
éxito es

para n = 0,1, 2, 3,....

En ambos casos, la secuencia de probabilidades es una progresión geométrica.

El valor esperado de una variable aleatoria X distribuida geométricamente es

y dado que Y = X-1,


En ambos casos, la varianza es

Las funciones generatrices de probabilidad de X y la de Y son, respectivamente,

Como su análoga continua, la distribución exponencial, la distribución geométrica carece


de memoria. Esto significa que si intentamos repetir el experimento hasta el primer éxito,
entonces, dado que el primer éxito todavía no ha ocurrido, la distribución de probabilidad
condicional del número de ensayos adicionales no depende de cuantos fallos se hayan
observado. El dado o la moneda que uno lanza no tiene "memoria" de estos fallos. La
distribución geométrica es de hecho la única distribución discreta sin memoria.

De todas estas distribuciones de probabilidad contenidas en {1, 2, 3,... } con un valor


esperado dado μ, la distribución geométrica X con parámetro p = 1/μ es la de mayor
entropía.

La distribución geométrica del número y de fallos antes del primer éxito es infinitamente
divisible, esto es, para cualquier entero positivo n, existen variables aleatorias
independientes Y 1,..., Yn distribuidas idénticamente la suma de las cuales tiene la misma
distribución que tiene Y. Estas no serán geométricamente distribuidas a menos que n = 1.

Distribución de Poisson

En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de


probabilidad discreta. Expresa la probabilidad de un número k de eventos ocurriendo en un
tiempo fijo si estos eventos ocurren con una frecuencia media conocida y son
independientes del tiempo discurrido desde el último evento.

Fue descubierta por Siméon-Denis Poisson, que la dio a conocer en 1838 en su trabajo
Recherches sur la probabilité des jugements en matières criminelles et matière civile
(Investigación sobre la probabilidad de los juicios en materias criminales y civiles).

Propiedades [editar]
La función de densidad de la distribución de Poisson es

donde λ es un parámetro positivo que representa la frecuencia esperada del fenómeno


modelado por la distribución.

Tanto el valor esperado como la varianza de una variable aleatoria con distribución de
Poisson son iguales a λ. Los momentos de orden superior son polinomios de Touchard en λ
cuyos coeficientes tienen una interpretación combinatorio. De hecho, cuando el valor
esperado de la distribución de Poisson es 1, entonces según la fórmula de Dobinski, el n-
ésimo momento iguala al número de particiones de tamaño n.

La moda de una variable aleatoria de distribución de Poisson con un λ no entero es igual a


, el mayor de los enteros menores que λ (los símbolos representan la función parte
entera). Cuando λ es un entero positivo, las modas son λ y λ − 1.

La función generadora de momentos de la distribución de Poisson con valor esperado λ es

Las variables aleatorias de Poisson tienen la propiedad de ser infinitamente divisibles.

La divergencia Kullback-Leibler desde una variable aleatoria de Poisson de parámetro λ0 a


otra de parámetro λ es

Relación con otras distribuciones [editar]


Sumas de variables aleatorias de Poisson [editar]

La suma de variables aleatorias de Poisson independientes es otra variable aleatoria de


Poisson cuyo parámetro es la suma de los parámetros de las originales. Dicho de otra
manera, si

son N variables aleatorias de Poisson independientes, entonces


.

Distribución uniforme continua


De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

Para la distribución discreta, véase Distribución uniforme discreta.

En teoría de probabilidad y estadística, la distribución uniforme continua es una familia


de distribuciones de probabilidad para variables aleatorias continuas, tales que cada
miembro de la familia, todos los intervalos de igual longitud en la distribución en su rango
son igualmente probables. El dominio está definido por dos parámetros, a y b, que son sus
valores mínimo y máximo. La distribución es a menudo escrita en forma abreviada como
U(a,b).

Caracterización [editar]
Función de densidad de probabilidad [editar]

La función de densidad de probabilidad de la distribución uniforme continua es:

Los valores en los dos extremos a y b no son por lo general importantes porque no afectan
el valor de las integrales de f(x) dx sobre el intervalo, ni de x f(x) dx o expresiones similares.
A veces se elige que sean cero, y a veces se los elige con el valor 1/(b − a). Este último
resulta apropiado en el contexto de estimación por el método de maximum likelihood. En el
contexto del análisis de Fourier, se puede elegir que el valor de f(a) ó f(b) sean 1/(2(b − a)),
para que entonces la transformada inversa de muchas transformadas integrales de esta
función uniforme resulten en la función inicial, de otra forma la función que se obtiene
sería igual "en casi todo punto", o sea excepto en un conjunto de puntos con medida nula.
También, de esta forma resulta consistente con la función signo que no posee dicha
ambigüedad.

Función de distribución de probabilidad [editar]

La función de distribución de probabilidad es:


En estadística la distribución exponencial es una distribución de probabilidad continua
con un parámetro cuya función de densidad es:

Su función de distribución es:

Donde representa el número e.

El valor esperado y la varianza de una variable aleatoria X con distribución exponencial


son:

 Es un caso particular de la distribución gamma cuando α = 1. Su función de


densidad es:



 Su parámetro es β.
 La media y la varianza de la distribución exponencial son:

Distribución normal o de Gauss


La distribución normal fue definida por De Moivre en 1733 y es la
distribución de mayor importancia en el campo de la estadística.

Una variable es normal cuando se ajusta a la ley de los grandes números,


es decir, cuando sus valores son el resultado de medir reiteradamente una
magnitud sobre la que influyen infinitas causas de efecto infinitesimal.

Las variables normales tienen una función de densidad con forma de


campana a la que se llama campana de Gauss.

Su función de densidad es la siguiente:

Los parámetros de la distribución son la media y la desviación típica, μ y σ,


respectivamente. Como consecuencia, en una variable normal, media y desviación
típica no deben estar correlacionadas en ningún caso (como desgraciadamente
ocurre en la inmensa mayoría de las variables aleatorias reales que se asemejan a
la normal.

La curva normal cumple las siguientes propiedades:

1) El máximo de la curva coincide con la media.

2) Es perfectamente simétrica respecto a la media (g 1 = 0).

3) La curva tiene dos puntos de inflexión situados a una desviación típica de la


media. Es convexa entre ambos puntos de inflexión y cóncava en ambas
colas.
4) Sus colas son asintóticas al eje X.

Para calcular probabilidades en intervalos de valores de la variable, habría


que integrar la función de densidad entre los extremos del intervalo. por desgracia
(o por suerte), la función de densidad normal no tiene primitiva, es decir, no se
puede integrar. Por ello la única solución es referirse a tablas de la función de
distribución de la variable (calculadas por integración numérica) Estas tablas
tendrían que ser de triple entrada (μ, σ, valor) y el asunto tendría una complejidad
enorme.

Afortunadamente, cualquier que sea la variable normal, X, se puede


establecer una correspondencia de sus valores con los de otra variable con
distribución normal, media 0 y varianza 1, a la que se llama variable normal
tipificada o Z. La equivalencia entre ambas variables se obtiene mediante la
ecuación:

La función de distribución de la variable normal tipificada está tabulada y,


simplemente, consultando en las tablas se pueden calcular probabilidades en
cualquier intervalo que nos interese.

De forma análoga a lo pasaba con las variables Poisson, la suma de


variables normales independientes es otra normal.

Histograma de una muestra de una


Histograma de una normal idealizada variable normal

Distribución Gamma (Γ)


La distribución gamma se define a partir de la función gamma, cuya
ecuación es:

La función de densidad de la distribución gamma es:


α y β son los parámetros de la distribución.

La media y la varianza de la variable gamma son:

Distribución normal

En estadística y probabilidad se llama distribución normal, distribución de Gauss o


distribución gaussiana, a una de las distribuciones de probabilidad de variable continua
que con más frecuencia aparece en fenómenos reales.[cita requerida]

La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto


de un determinado parámetro. Esta curva se conoce como campana de Gauss.
La importancia de esta distribución radica en que permite modelizar numerosos fenómenos
naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte
de este tipo de fenómenos son desconocidos, por la ingente cantidad de variables
incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse
asumiendo que cada observación se obtiene como la suma de unas pocas causas
independientes.

La distribución normal también es importante por su relación con la estimación por


mínimos cuadrados, uno de los métodos de estimación más simples y antiguos.

Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la


normal son:

 caracteres morfológicos de individuos como la estatura;


 caracteres fisiológicos como el efecto de un fármaco;

 caracteres sociológicos como el consumo de cierto producto por un mismo grupo de


individuos;

 caracteres psicológicos como el cociente intelectual;

 nivel de ruido en telecomunicaciones;

 errores cometidos al medir ciertas magnitudes;

 etc.

La distribución normal también aparece en muchas áreas de la propia estadística. Por


ejemplo, la distribución muestral de las medias muestrales es aproximadamente normal,
incluso si la distribución de la población de la cual se extrae la muestra no es normal.1
Además, la distribución normal maximiza la entropía entre todas las distribuciones con
media y varianza conocidas, lo cual la convierte en la elección natural de la distribución
subyacente a una lista de datos resumidos en términos de media muestral y varianza. La
distribución normal es la más extendida en estadística y muchos tests estadísticos están
basados en una supuesta "normalidad".

En probabilidad la distribución normal aparece como el límite de varias distribuciones de


probabilidad continuas y discretas.

Distribución gamma
De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda


Distribución gamma.

En estadística la distribución gamma es una distribución de probabilidad continua con dos


parámetros k y λ cuya función de densidad para valores x > 0 es

Aquí e es el número e y Γ es la función gamma. Para valores enteros la


función gamma queda como Γ(k) = (k − 1)! (siendo ! la función factorial). En este caso —
por ejemplo para describir un proceso de Poisson— se llama distribución Erlang con un
parámetro θ = 1 / λ.

El valor esperado y la varianza de una variable aleatoria X de distribución gamma son

E[X] = k / λ = kθ

V(X) = k / λ2 = kθ2

Relaciones [editar]
El tiempo hasta que el suceso número k ocurre en un Proceso de Poisson de intensidad λ es
una variable aleatoria con distribución gamma. Eso es la suma de k variables aleatorias
independientes de distribución exponencial con parámetro λ.

Distribución de Erlang
De Wikipedia, la enciclopedia libre

(Redirigido desde Distribución Erlang)

Saltar a navegación, búsqueda


Distribución de Erlang

Función de densidad de probabilidad

Función de distribución de probabilidad

Parámetros

alt.:

Dominio

Función de
densidad
(pdf)

Función de
distribución
(cdf)

Media

Mediana —

Moda for

Varianza
Coeficiente
de simetría

Curtosis

Entropía

Función
generadora
de momentos for
(mgf)

Función
característica

En estadística, la distribución Erlang, es una distribución de probabilidad continua con


dos parámetros k y

λ cuya función de densidad para valores x > 0 es

La distribución Erlang es el equivalente de la distribución gamma con el parámetro


y λ = 1 / θ. Para k = 1 eso es la distribución exponencial. Se utiliza la
distribución Erlang para describir el tiempo de espera hasta el suceso número k en un
proceso de Poisson.

Su esperanza viene dada por: E(X) = k / λ

Su varianza viene dada por: V(X) = k / λ2

La función generadora de momento responde a la expresión: (1 − t / λ) − k

Vous aimerez peut-être aussi