Académique Documents
Professionnel Documents
Culture Documents
FUNCION DE PROBABILIDAD DISTRIBUCION ACUMULADA VARIABLES ALEATORIAS VARIABLES ALEATORIAS VS NUMEROS PSEUDOALEATORIOS METODOS PROBABILISTICOS Y ESTADISTICOS APLICADOS A SIMULACION
FUNCION DE PROBABILIDAD
La funcin que mide el grado de confianza a depositar en que se verifique el suceso. A esta funcin la denominaremos funcin de probabilidad. La funcin de probabilidad ser, pues, una aplicacin entre el conjunto de resultados y el conjunto de nmeros reales, que asignar a cada suceso la probabilidad de que se verifique.
DISTRIBUCION ACUMULADA
Si X es una variable aleatoria, entonces para cualquier nmero real x0, existe la probabilidad del evento (X toma cualquier valor menor o igual a x0). La probabilidad que depende de la eleccin de x0 es la probabilidad acumulada hasta x0 que es la funcin de distribucin o distribucin acumulada y se denota por F(x0).
VARIABLE ALEATORIA
Es cualquier regla que asocia un numero con cada resultado en s. En lenguaje matemtico, una variable aleatoria es una funcin cuyo dominio es el espacio muestral y cuyo rango es el conjunto de los nmeros reales. Las variables aleatorias a su vez se dividen en discretas y continuas
Una variable discreta no es medible, es una variable de tipo atributo, cuando se inspecciona un producto este puede ser defectuoso o no, blanco o negro, cumple con las especificaciones o no cumple, etc. etc.
EJEMPLOS
x Variable que nos define el nmero de burbujas por envase de vidrio que son generadas en un proceso dado. x0, 1, 2, 3, 4, 5, etc. etc. burbujas por envase x Variable que nos define el nmero de productos defectuosos en un lote de 25 productos. x0, 1, 2, 3,....,25 productos defectuosos en el lote x Variable que nos define el nmero de alumnos aprobados en la materia de probabilidad en un grupo de 40 alumnos. x0, 1, 2, 3, 4, 5,....,40 alumnos aprobados en probabilidad
Una variable continua puede tomar cualquier valor, entero o fraccionario, una forma de distinguir cuando se trata de una variable continua es que esta variable nos permite medirla o evaluarla,
EJEMPLOS
x Variable que nos define el dimetro de un engrane en pulgadas
METODO DE MONTECARLO
ESTOCSTICO
Modelo matemtico en el que la ley de probabilidad que da la evolucin de un sistema depende del tiempo. Un ejemplo de un proceso estocstico es la bolsa de comercio, donde una empresa agrcola puede ir en alza, pero por determinado factor climtico perder sus cosechas, aunque la plantacin, el desarrollo de la cosecha sea excelente, el riego excelente, la fumigacin excelente... y aunque todas las predicciones probabilsticas te indiquen que vas viento en popa. Esa inundacin, esa helada, esa plaga, es esa variable no controlable o imprevisible que "se mete" en el proceso y es la que da de cara contra el suelo a todo.
DETERMINISTICO
En trminos generales los modelos deterministicos, son aquellos, en donde todas las variables son conocidas, o se pueden obtener
Por ejemplo:
Supongamos que tienes un almacn en donde la demanda es de X productos por da, y el almacn se llena de Y productos a la semana, por lo tanto se puede obtener el costo de almacenamiento sin ningn problema.
Un algoritmo de este tipo no especula con el resultado sino que especula con los recursos a utilizar en la computacin del mismo. De la misma manera que el mtodo de Montecarlo, la probabilidad de encontrar una solucin correcta aumenta con el tiempo empleado en obtenerla y el nmero de muestreos utilizado. Un algoritmo tipo Las Vegas se utiliza sobre todo en problemas que seran intratables con mtodos determinsticos.
Existe un riesgo de no encontrar solucin debido a que se hacen elecciones de rutas aleatorias que pueden no llevar a ningn sitio. El objetivo es minimizar la probabilidad de no encontrar la solucin, tomando decisiones aleatorias con inteligencia, pero minimizando tambin tiempo de ejecucin al aplicarse sobre el espacio de informacin aleatoria.
En la teora de la probabilidad, se conoce como cadena de Mrkov a un tipo especial de proceso estocstico discreto en el que la probabilidad de que ocurra un evento depende del evento inmediatamente anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el ltimo evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Mrkov de las series de eventos independientes, como tirar una moneda al aire o un dado.
CADENA DE MARKOV