Vous êtes sur la page 1sur 14

I.

INTRODUCCION
Analizar datos recabados, puede tornarse una tarea difícil en cuanto a cuales pueden
ser los resultados y para que necesitarían la información. La estadística, como
una rama de la matemática, presenta formas prácticas de resolver estas dificultades.

Una distribución de los datos en categorías que ha demostrado ser útil al organizar los
procedimientos estadísticos, es la distinción entre variables discretas.

Una variable discreta es sencillamente una variable para la que se dan de modo
inherente separaciones entre valores observables sucesivos. En otras palabras, se
define una variable discreta como la variable tal que entre 2 valores cualesquiera
observables, hay por lo menos un valor no observable.

Esta distribución tiene muchas variantes, pero entre las más importantes podemos
mencionar 5 y son: Distribución Binomial, la cual mideel número de éxitos en una
secuencia de “n” ensayos independientes de Bernoulli; Distribución Binomial Negativa,
que estudia el número de experimentos, independientes entre sí; La Distribución
Poisson, que expresa la probabilidad de un número k de eventos ocurriendo en un
tiempo fijo: La Distribución Geométrica e Hipergeométrica.
II. MARCO TEORICO
2.1 DISTRIBUCIÓN DE VARIABLE DISCRETA:

Una variable discreta es sencillamente una variable para la que se dan de modo
inherente separaciones entre valores observables sucesivos. En otras palabras, se
define una variable discreta como la variable tal que entre 2 valores cualesquiera
observables, hay por lo menos un valor no observable.

A dicha función se la llama función de masa de probabilidad. En este caso la


distribución de probabilidad es el sumatorio de la función de masa, por lo que tenemos
entonces que:

2.2 DISTRIBUCIONES DE VARIABLE DISCRETA MÁS IMPORTANTES:

Existen 5 tipos de distribuciones de variable discreta que son las más importantes, y
estas son:

 Distribución binomial
 Distribución binomial negativa
 Distribución Poisson
 Distribución geométrica
 Distribución hipergeométrica

2.2.1 Distribución Binomial:

Esta distribución se basa en el proceso de Bernoulli. Se denominan procesos de tipo


Bernoulli, a todo experimento consistente en una serie de pruebas repetidas,
caracterizadas por tener resultados que se pueden clasificar en si verifican o no
cierta propiedad o atributo, siendo aleatorios e independientes.

La distribución binomial es una generalización de la distribución de Bernoulli, a la que


puede llegarse nuevamente haciendo n = 1.

Su función de masa de probabilidad está dada por:


Experimento binomial:

La variable aleatoria binomial y su distribución están basadas en un experimento que


satisface las siguientes condiciones:

 El experimento consiste en una secuencia de n ensayos, donde n


se fija antes del experimento
 Los ensayos se realizan bajo idénticas condiciones, y cada uno de ellos tiene
unicamente dos posibles resultados, que se denotan a conveniencia
por éxito (E) o fracaso (F) (p(E)+p(F)=1).

 Los ensayos son independientes, por lo que el resultado de cualquier


ensayos en particular no influye sobre el resultado de cualquier otro intento.

 La probabilidad de éxito es idéntica para todos los ensayos.

Siguiendo estas premisas, la variable aleatoria binomial X está definida como:

X = el número de E entre los n intentos.

Relaciones con otras variables aleatorias

Se verifica que si son tales que cada una sigue una distribución Bernouilli de

parámetro , y todas ellas independientes entre sí, entonces resulta

ser una variable aleatoria con distribución binomial de parámetros

Además, si n es grande y es pequeño, de modo que el producto entre ambos


parámetros tiende a , entonces la distribución de la variable aleatoria binomial
tiende a una distribución de
2.3 Poisson de parámetro:

Por último, se cumple que cuando n es muy grande (n>=30) la distribución binomial se
aproxima a la distribución normal.

Propiedades reproductivas

Dadas n variables aleatorias , tales que:

 todas tienen una distribución binomia


 todas tienen el mismo parámetro
 cada una tiene su propio parámetro (es decir, los n no
necesariamente tienen que ser iguales)
 son todas independientes entre sí
 se toma la variable aleatoria
 se toma

Entonces:

La variable aleatoria Y tiene una distribución Binomial, con parámetros y Por lo tanto,
dadas n variables binomiales independientes, donde cada una tiene su propio n pero
todas tienen igual , su suma es también una variable binomial, cuyo parámetro n es
la suma de los n de las variables originales, y cuyo parámetro coincide con el de
las originales.

Su función masa de Probabilidad viene dada por:

Para
Siendo el combinatorio:

Su media y su varianza son:

si pensamos en "fracasos esperados", y

si consideramos "número de experimentos" (incluyen k-1 éxitos y los fracasos)

(para ambos casos)

Por ejemplo, si la probabilidad de que un niño expuesto a una enfermedad contagiosa


la contraiga es 0,40, ¿cuál es la probabilidad de que el décimo niño expuesto a la
enfermedad sea el tercero en contraerla?

Sea X: Número de niños expuestos a una enfermedad contagiosa.

2.4 Distribución de Poisson:

En teoría de probabilidad y estadística, la distribución de Poisson1 expresa la


probabilidad de un número k de eventos ocurriendo en un tiempo fijo si estos eventos
ocurren con una tasa media conocida, y son independientes del tiempo desde el último
evento.

La distribución fue descubierta por Siméon-Denis Poisson(1781–1840) que publicó,


junto con su teoría de probabilidad, en 1838 en su trabajo Recherches sur la probabilité
des jugements en matières criminelles et matière civile2. El trabajo
estaba enfocado en ciertas variables aleatorias N que cuentan, entre otras cosas, un
número de ocurrencias discretas (muchas veces llamadas "arribos") que tienen lugar

durante un intervalo de tiempo de duración determinada. Si el número esperado de


ocurrencias en este intervalo es λ, entonces la probabilidad de que haya exactamente
k ocurrencias (siendo k un entero no negativo, k = 0, 1, 2, ...) es igual a:

dónde:

 e es el base del logaritmo natural (e = 2.71828...),


 k! es el factorial de k,
 k es el número de ocurrencias de un evento,
 λ es un número real positivo, equivalente al número esperado de
ocurrencias durante un intervalo dado. Por ejemplo, si los eventos
ocurren de media cada 4 minutos, y se está interesado en el número
de eventos ocurriendo en un intervalo de 10 minutos, se usaría como
modelo una distribución de Poisson con λ = 2.5.
Por ejemplo, si 2% de los libros encuadernados en cierto taller tiene encuadernación
defectuosa, obtener la probabilidad de que 5 de 400 libros encuadernados
en este taller tengan
encuadernaciones defectuosas.

Su media y su varianza son:

Como una función de k, ésta es la función probabilidad de masa. La distribución de


Poisson puede ser vista como un caso limitante de la distribución binomial, es decir,
que una distribución binomial

2.4.1 Propiedades:

 El valor esperado de una variable aleatoria con distribución Poisson


es igual a λ y también lo es su varianza. Los momentos más altos de
la distribución Poisson son polinomios de Touchard en λ cuyos
coeficientes tienen un sentido combinatorio. De hecho, cuando el
valor esperado de la distribución Poisson es 1, entonces la fórmula
de Dobinski dice que el enésimo momento iguala al número de
particiones de tamaño n.
 Las medidas de tendencia central de una variable aleatoria de
distribución Poisson no entero es igual a (o suelo de λ), el cual es
el número entero más grande menor o igual a λ. Esto también es
expresado como la función parte entera de λ. Cuando λ es un entero
positivo, las medidas de tendencia central son λ y λ − 1.
 Sumas de las variables aleatorias de distribución Poisson:
Si sigue una distribución Poisson con

parámetro y Xi son independientes entonces también sigue una


distribución Poisson cuyo parámetro es la suma de los parámetros del componente.

 La función generadora de momentos de la distribución Poisson con valor


esperado λ es:

 Todas las acumulaciones de la distribución Poisson son iguales al valor


esperado λ. El enésimo momento factorial de la distribución Poisson es λn.
 La distribuciones Poisson son funciones probabilísticas infinitamente divisibles
 La divergencia Kullback-Leibler dirigida entre Poi(λ0) y Poi(λ) está dada por:

2.5 Distribución Geométrica:

En teoría de probabilidad y estadística, la distribución geométrica es cualquiera


de las dos distribuciones de probabilidad discretas siguientes:
 La distribución de probabilidad del número X del ensayo de Bernoulli
necesaria para obtener un éxito, contenido en el conjunto { 1, 2, 3,...} o
 La distribución de probabilidad del número Y = X − 1 de fallos antes del
primer éxito, contenido en el conjunto { 0, 1, 2, 3,... }.
Cuál de éstas es la que uno llama "la" distribución geométrica, es una cuestión de
convención y conveniencia.
Si la probabilidad de éxito en cada ensayo es p, entonces la probabilidad de que n
ensayos sean necesarios para obtener un éxito es

para n = 1, 2, 3,.... Equivalentemente, la probabilidad de que haya n fallos antes del


primer éxito es
Equivalentemente, el valor esperado de una variable aleatoria distribuida
geométricamente Y es

(1 − p)/p, y su varianza es (1 − p)/p2.

La función generatriz de probabilidad de X y la de Y son, respectivamente,

Como su continua análoga (la distribución exponencial), la distribución geométrica es


sin memoria. Esto significa que si intentamos repetir el experimento hasta el primer
éxito, entonces, dado que el primer éxito todavía no ha ocurrido, la distribución de
probabilidad condicional del número de ensayos adicionales no depende de cuantos
fallos se hayan observado. El dado o la moneda que uno lanza no tiene "memoria" de
estos fallos. La distribución geométrica es de hecho la única distribución discreta sin
memoria.
De todas estas distribuciones de probabilidad contenidas en {1, 2, 3,... } con un valor
esperado dado μ, la distribución geométrica X con parámetro p = 1/μ es la de mayor
entropía

La distribución geométrica del número y de fallos antes del primer éxito es infinitamente
divisible, esto es, para cualquier entero positivo n, existen
variables aleatorias independientes Y 1,..., Yn distribuidas idénticamente la suma
de las cuales tiene la misma distribución que tiene Y. Estas no serán
geométricamente distribuidas a menos que n = Distribuciones relacionadas

La distribución geométrica Y es un caso especial de la distribución binomial negativa,


con r = 1. Más generalmente, si Y 1,...,Yr son variables independientes distribuidas
geométricamente:
parámetro p, entonces sigue a una distribución binomial
negativa con parámetros r y p.
Si Y1,...,Yr son variables independientes distribuidas geométricamente (con diferentes
parámetros de éxito pm posibles ), entonces su mínimo W = minmYm es también
geométricamente distribuido, con parámetro p dado por
Distribución hipergeométrica
En estadística la Distribución hipergeométrica es una distribución de probabilidad
discreta con tres parámetros discretos N, d y n cuya función de probabilidad es:

N = Tamaño de población.
n = Tamaño de muestra.
d = Cantidad de elementos que cumple característica deseada.
x = Cantidad de éxitos

Aquí,se refiere al coeficiente binomial, o al número de combinaciones posibles


al seleccionar b elementos de un total a.
Esta distribución se refiere a un espacio muestral donde hay elementos de 2 tipos
posibles. Indica la probabilidad de obtener un número de objetos x de uno de los tipos,
al extraer (sin reemplazo) una muestra de tamaño n, de un total de N objetos, de los
cuales d son del tipo requerido.
El valor esperado de una variable aleatoria X de distribución hipergeométrica es

Y su varianza
llamando

, q=1−p

entonces:
La distribución hipergeométrica se puede aproximar por una distribución binomial
Bi(n,p) si
III. REFERENCIA BIBLIOGRAFICA

 https://matap.dmae.upm.es/WebpersonalBartolo/Probabilidad/5_Distrib
ucionesDiscretas.pdf
 http://fernando725.blogspot.com/2012/11/distribucion-de-bernoulli.html
 https://es.scribd.com/document/329015714/Estadistica-Bernoulli
 http://virtual.uptc.edu.co/ova/estadistica/docs/libros/ftp.bioestadistica.um
a.es/libro/node69.htm
 Estadística matemática con aplicaciones By John E. Freund, Irwin
Miller, Marylees Mille.
 Introducción a la estadística By Sheldon M. Ross.
IV. ANEXO

Vous aimerez peut-être aussi