Vous êtes sur la page 1sur 23

Variables aleatorias

Instituto Tecnológico Superior de Tepeaca


Agosto-Diciembre 2015
Ingeniería en Sistemas Computacionales
M.C. Ana Cristina Palacios García
Definición de variable aleatoria

 Las variables aleatorias son aquellas que tienen un comportamiento


probabilístico en la realidad.
 Las variables aleatorias deben cumplir reglas de distribución de
probabilidad como estas:
 La suma de las probabilidades asociadas a todos lo valores posibles de la
variable aleatoria x es uno.
 La probabilidad de que un posible valor de la variable x se presente siempre es
mayor que o igual a cero.
 El valor esperado de la distribución de la variable aleatoria es la media de la
misma, la cual a su vez estima la verdadera media de la población.
 Si la distribución de probabilidad asociada a una variable aleatoria está
definida por más de un parámetro, dichos parámetros pueden obtenerse
mediante un estimador no sesgado.
 Ejemplo: la varianza de la población puede ser estimada usando la varianza r2 de una
muestra que es s2. De la misma manera, la desviación estándar de la población r,
puede estimarse mediante la desviación estándar de la muestra s.
Tipos de variables aleatorias

 Es posible diferenciar a las variables aleatorias dependiendo del tipo de


valor aleatorio que representan.
 Ejemplo: si hablamos del número de clientes que solicitan cierto servicio en un
periodo de tiempo determinado, podríamos encontrar valores tales como
0,1,2,…,n, es decir, un comportamiento como el que presentan las distribuciones
de probabilidad discretas.
 Por otro lado, si hablamos del tiempo que tarda en ser atendida una persona,
nuestra investigación tal vez arrojaría resultados como 1.54 minutos, 0.028 horas
o 1.37 días, es decir, un comportamiento similar al de las distribuciones de
probabilidad continuas.
 Por tanto existen variables aleatorias discretas y variables aleatorias
continuas.
Variables aleatorias discretas
 Estas variables debe cumplir los siguientes parámetros:

 Ejemplos de distribuciones discretas de probabilidad son: la uniforme discreta, la de


Bernoulli, la hipergeométrica, la de Poison y la binomial.
 Es posible asocial a estas distribuciones de probabilidad el comportamiento de una
variable aleatoria.
 Ejemplo: si nuestro propósito al analizar un muestreo de calidad consiste en decidir si la
pieza bajo inspección es buena o no, estamos realizando un experimento con dos posibles
resultados: la pieza es buena o la pieza es mala. Este tipo de comportamiento es asociado
a una distribución de Bernoulli.
 Por otro lado, si lo que queremos es modelar el número de usuarios que llamarán a un
teléfono de atención a clientes, el tipo de comportamiento puede llegar a parecerse a una
distribución de Poisson. Incluso podría ocurrir que el comportamiento de la variable no se
pareciera a otras distribuciones de probabilidad conocidas.
 Si fuera el caso, es válido usar una distribución empírica que se ajuste a las condiciones reales de
probabilidad. Esta distribución puede ser una ecuación o una suma de términos que cumplan con las
condiciones necesarias para ser consideradas una distribución de probabilidad.
Distribución de probabilidad uniforme
discreta
 Es una distribución de probabilidad que asume un número finito de valores
con la misma probabilidad.
 Propiedades:
 Si la distribución asume valores reales x1, x2, …, xn, su función de probabilidad
es:
P(xi) = 1/n
Distribución de probabilidad de
Bernoulli (1)
Pruebas de Bernoulli
 Una prueba de Bernoulli es un experimento aleatorio cuyos posibles resultados
se agrupan en dos conjuntos excluyentes que llamaremos éxito(E) y fracaso(F),
con respectivas probabilidades p = P(E) y 1-p = P(F).
 Ejemplos:
 En el lanzamiento de una moneda podemos tomar E={Cara} y F={Cruz]. Si la moneda
no está trucada, p=1/2.
 En una población se elige al azar a una persona y consideramos los sucesos
E={altura>= 1.80} y F={altura < 1.80}. La probabilidad de éxito dependerá de la
distribución de la variable altura en la población.
 En el lanzamiento de un dado podemos tomar E={6} y F={1,2,3,4,5}. Si el dado es
perfecto, p=1/6; si está trucado y por ejemplo, el 2 tiene probabilidad doble que
cualquiera de los demás resultados, p=1/7.
 La distribución de Bernoulli es el modelo más sencillo obtenido a partir de
pruebas de Bernoulli.
Distribución de probabilidad de
Bernoulli (2)
 Definición: realizada una prueba de Bernoulli con P(E)=p se considera la
variable aleatoria como:

 La función de masa es: P(X=0)=1-p y P(X=1)=p. Los parámetros esperanza y


varianza de una variable X con distribución de Bernoulli son:

 Obtenidos ambos de manera sencilla a partir de la definición.


Distribución binomial (1)
 Definición: supongamos que realizamos n pruebas de Bernoulli
independientes, con P(E)=p en cada prueba. Sea X la variable “número
de éxitos obtenidos en las n pruebas”. Llamaremos distribución binomial a
la distribución de esta variable X. Denotaremos por B(n;p) a la distribución
binomial de parámetros n = “número de pruebas de Bernoulli” y p=P(E) en
cada prueba.
 Si X sigue una distribución B(n;p), escribimos X~B(n;p), su función de masa es:
Distribución binomial (2)

 Ejemplos:
 Se lanza un dado 10 veces y se cuenta el número X de tres obtenidos: entonces
X~B(10,1/6).
 Se lanza una moneda dos veces y se cuenta el número X de caras obtenidas:
entonces X~B(2,1/2).
 En este caso, la probabilidad de un experimento no depende de otro. El
resultado de cada experimento ha de admitir sólo dos categorías (éxito o
fracaso). Las probabilidades de ambas posibilidades son constantes en
todos los experimentos, y se denotan por p y q (p y 1-p).
 Se designa por X a la variable que mide el número de éxitos que se han
producido en los n experimentos. Cuando se dan estas circunstancias, se
dice que la variable X sigue una distribución de probabilidad binomial, y se
denota B(n,p).
Distribución binomial (3)

 Características:
Distribución de Poisson(1)
 Expresa a partir de una frecuencia de ocurrencia media, la probabilidad de
que ocurra un determinado número de eventos durante cierto periodo de
tiempo.
 Se especializa en la probabilidad de ocurrencia de sucesos con probabilidades
muy pequeñas, o sucesos raros.
 Propiedades:
 La función de masa o probabilidad de la distribución de Poisson es:

 Donde k es el número de ocurrencias del evento o fenómeno (la función nos da la


probabilidad de que el evento suceda precisamente k veces).

λ es un parámetro positivo que representa el número de veces que se espera que


ocurra el fenómeno durante un intervalo dado.
 Ejemplo: si el suceso tiene lugar en promedio 4 veces por minuto y estamos interesados en la
probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos, usaremos un
modelo de distribución de Poisson con λ = 10 × 4 = 40
 e es la base del logaritmo natural (e = 2.71828…).
Distribución de Poisson(2)

 Tanto el valor esperado como la varianza de una variable aleatoria con


distribución de Poisson son iguales a λ.
Variables aleatorias continuas (1)
 Estas variables se representan mediante una ecuación que se conoce
como función de densidad de probabilidad. Dada esta condición,
cambiamos el uso de la sumatoria por la de una integral para conocer la
función acumulada de la variable aleatoria. Por tanto, las variables
aleatorias continuas deben cumplir los siguientes parámetros:

 Entre las distribuciones de probabilidad tenemos la uniforme continua, la


exponencial, la normal la de Weibull, la Chi-cuadrada y la de Erlang.
Variables aleatorias continuas (2)
Variables aleatorias continuas (3)

 Ejemplo:
 Es posible que el tiempo de llegada de cada cliente a un sistema tenga una
distribución de probabilidad muy semejante a una exponencial, o que el tiempo
que le toma a un operario realizar una serie de tareas se comporte de manera
muy similar a la dispersión que presenta una distribución normal.
 Sin embargo, debemos hacer notar que este tipo de distribuciones tienen sus
desventajas, dado que el rango de valores posibles implica que existe la
posibilidad de tener tiempos infinitos de llegada de clientes o tiempos de
ensamble infinitos, situaciones lejanas a la realidad.
Generación de variables aleatorias

 Los principales métodos para generar variables aleatorias son:


 Método de la transformada inversa.
 Método de convolución.
 Método de composición.
 Método de la transformada directa.
Método de la transformada inversa (1)

 Se utiliza para simular variables aleatorias continuas, lo cual se logra


mediante la función acumulada f(x) y la generación de números
pseudoaleatorios ri.
 El método consiste en:
 Definir la función de densidad F(x) que represente la variable a modelar.
 Calcular la función acumulada F(x).
 Despejar la variable aleatoria x y obtener la función acumulada inversa F(x)-1.
 Generar las variables aleatorias x, sustituyendo valores con números
pseudoaleatorios ri en la función acumulada inversa.
Método de la transformada inversa (2)

 El método de la transformada inversa también puede emplearse para


simular variables aleatorias de tipo discreto, como en las distribuciones de
Poisson, de Bernoulli, binomial, geométrica, discreta general, etc.
 La generación se lleva a cabo a través de la probabilidad acumulada P(x)
y la generación de números pseudoaleatorios ri.
 El método es el siguiente:
 Calcular todos los valores de la distribución de probabilidad p(x) de la variable a
modelar.
 Calcular todos los valores de la distribución acumulada P(x).
 Generar números pseudoaleatorios ri.
 Comparar con el valor P(x) y determinar qué valor de x corresponde a P(x).
Método de la transformada inversa (3)

Figura. Esquematización del método de la transformada inversa para


variables continuas.
Método de la transformada inversa (4)

Figura. Esquematización del método de la transformada inversa para


variables discretas.
Ejemplo:

 La temperatura de una estufa se comporta uniformemente dentro del


rango de 95 q 100°C. Una lista de números pseudoaleatorios y la ecuación
xi=95+5ri nos permite modelar el comportamiento de la variable aleatoria
que simula la temperatura de la estufa.
Distribución de Poisson

 Supongamos que estamos interesados en estudiar el número de éxitos


obtenidos en un número grande de pruebas independientes de Bernoulli,
teniendo una probabilidad pequeña de éxito en cada prueba. Es
razonable pensar que la distribución venga dada como límite de una
distribución B(n;p) con n→∞, p→0.
 Si se tiene cierto control sobre el producto np, digamos np → λ < ∞ cuando n→∞
y p → 0, podemos calcular el límite. Surge así la distribución de Poisson de
parámetro λ > 0 definida por la función de masa:

Vous aimerez peut-être aussi