Vous êtes sur la page 1sur 1

Un proceso estocstico discreto que cumple con la propiedad de Mrkov, es decir, si se conoce la historia del sistema hasta su instante

actual, su estado presente resume toda la informacin relevante para describir en probabilidad su estado futuro.

Tipos de Cadenas de Markov

Cadenas Irreducibles:
Desde cualquier estado de E se puede acceder a cualquier otro. Todos los estados se comunican entre s.

Una de sus funciones es analizar patrones de compra de los consumidores, para pronosticar las concesiones por deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.

Cadenas Positivo- recurrentes:


Es irreducible es posible demostrar que existe un nico vector de probabilidad invariante.

Cadenas Regulares:
Existe alguna potencia positiva de la matriz de transicin cuyas entradas sean todas estrictamente mayores que cero.

Las cadenas de Markov poseen una propiedad notable en cuanto a que tienden a aproximarse a lo que se llama estado estable. Generalmente despus de unos cuantos ciclos, las probabilidades de estado comienzan a asentarse o estabilizarse. Cuando una cadena de Markov ha llegado lo suficientemente lejos como para estar cerca de estos lmites, se dice que ha alcanzado un estado estable. Adems, estos lmites son los mismos, independientemente del punto de partida del sistema.

Cadenas Absorbentes:
La cadena tiene al menos un estado absorbente. De cualquier estado no absorbente se accede a algn estado absorbente. Ilse Enoe Escobar Ojeda 2225-11-1527 Seccin C

Vous aimerez peut-être aussi