Académique Documents
Professionnel Documents
Culture Documents
QUE SON?
Las cadenas de markov son modelos probabilsticos que se usan para predecir la evolucin y el comportamiento a corto y a largo plazo de determinados sistemas. Una cadena de Markov es un proceso estocstico con un nmero finito de estados con probabilidades de trancisin estacionarias, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la informacin relevante para describir en probabilidad su estado futuro.
PROCESO ESTOCSTICO
Es un conjunto o sucesin de variables aleatorias: {X(t)CG } definidas en un mismo espacio de probabilidad. Normalmente el ndice t representa un tiempo y X(t) el estado del proceso estocstico en el instante t. EJ: Serie mensual de ventas de un producto Estado de una mquina al final de cada semana
TIPOS DE CADENAS
Cadenas irreductibles: se dice que es que es irreductible si cumple cualquiera de las siguientes condiciones(equivalentes entre si): Desde cualquier estado E se puede acceder a cualquier otro. Todos los estados se comunican entre si C(x)=E para algun x E C(x)=E para todo x E El nico conjunto cerrado es el total
TIPOS DE CADENAS
Cadenas positivo- recurrentes: Se dice que es positivo recurrente si sus estados son positivos recurrentes. Si la cadena es adems irreducible es posible demostrar que existe un nico ventor de probabilidad invariante y esta dado por: = 1/
TIPOS DE CADENAS
Cadenas regulares (tambien primitiva o ergdica): si existe alguna potencia positiva de la matriz de transicin cuyas entradas sean todas estrictamente mayores de cero
TIPOS DE CADENAS
Cadenas regulares (tambien primitiva o ergdica): si existe alguna potencia positiva de la matriz de transicin cuyas entradas sean todas estrictamente mayores de cero Cadenas adsorventes Cadenas de MARKOV en tiempo continuo
qij
t+1
0,1 0,9
1 0,3
0,7