Vous êtes sur la page 1sur 8

NOMBRE DEL ALUMNO:

JAIME VALDIVIA CASTELLANOS

MATERIA:

INVESTIGACIN DE OPERACIONES II

NUMERO DE CONTROL:

119T0101

NOMBRE DEL DOCENTE:

ING. ROBERTO CRUZ ANDRADE

NMERO Y NOMBRE DE LA UNIDAD:

IV CADENAS DE MARKOV
INTRODUCCIN

En las cadenas de Markov considera ciertos puntos discretos en el tiempo para


toma valores de la variable aleatoria que caracteriza al sistema. Entonces las
cadenas de Markov se usan para estudiar ciertos comportamientos de largo y
cortos plazos de sistemas.

Los estados en el tiempo representan situacin exhaustiva y mutuamente


excluyentes del sistema en un tiempo especfico. Adems el nmero de estado
puede ser finito o infinito.

Por lo general una cadena de Markov describe el comportamiento de transicin de


un sistema en intervalos de tiempo igualmente espaciados. Sin embargo, existen
situaciones donde los espaciamientos temporales dependen de las caractersticas
del sistema y por ello, pueden no ser iguales entre s.

Las cadenas de Markov se pueden aplicar en reas como la educacin,


comercializacin, servicios de salud, finanzas, contabilidad y produccin.
4.1. INTRODUCCIN A LAS CADENAS DE MARKOV

La cadena de Markov recibe su nombre del matemtico ruso AndreiMarkov que


desarrollo el mtodo en 1907, permite encontrar la probabilidad de que un sistema
se encuentre en un estado en particular en un momento dado. Algo ms
importante an, es que permite encontrar el promedio a la larga o las
probabilidades de estado estable para cada estado. Con esta informacin se
puede predecir el comportamiento del sistema a travs del tiempo.

A veces nos interesa saber cmo cambia una variable aleatoria a travs del
tiempo. Por ejemplo, desearamos conocer cmo evoluciona el precio de las
acciones de una empresa en el mercado a travs del tiempo.

La cadena de markov es una serie de eventos, en la cual la probabilidad de que


ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas
de este tipo tienen memoria. Recuerdan el ltimo evento y esto condiciona las
posibilidades de los eventos futuros. Esta dependencia del evento anterior
distingue a las cadenas de Markov de las series de eventos independientes, como
tirar una moneda al aire o un dado.

En los negocios, las cadenas de Markov se han utilizado para analizar los
patrones de compra de los deudores morosos, para planear las necesidades de
personal y para analizar el reemplazo de equipo.

En matemticas, se define como un proceso estocstico discreto que cumple con


la Propiedad de Markov, es decir, si se conoce la historia del sistema hasta su
instante actual, su estado presente resume toda la informacin relevante para
describir en probabilidad su estado futuro.
4.2. PROBABILIDAD DE TRANSICIN ESTACIONARIA DE N PASOS

Suponga que estudiamos una cadena de markov con matriz. P de probabilidad de


transicin conocida. Como todas las cadenas con las que trataremos son
estacionarias, no nos importara identificar nuestras cadenas de markov como
estacionarias. Una pregunta de inters es: si una cadena de markov est en el
estado i en el tiempo m, Cul es la probabilidad que n periodos despus de la
cadena de markov este en el estado j? como se trata de una cadena de markov
estacionaria, esta probabilidad ser independiente de m y, por tanto, podemos
escribir

Donde Se llama probabilidad en la etapa n de una transicin de estado i al estado


j.

Es claro que pn(1)=pn para determinar pn(2) ntese que si el sistema se


encuentra hoy en el estado i. entonces para que el estado termine en el estado j
dentro de 2 periodos, debemos pasar del estado i al estado k y despus pasar del
estado k al estado i este modo de razonar nos permite escribir

(Probabilidad de transicin de i a k)

(Probabilidad de transicin de k a j)

De acurdo con la definicin de p. la matriz de transicin de replanteamos la ltima


ecuacin en la siguiente forma:
4.3. ESTADO ESTABLE

Para grande, p n tiende a una matriz con renglones idnticos. Esto significa que
despus de un largo tiempo, la cadena de markov se estabiliza, e
(independientemente del estado inicial ) hay una probabilidad j de que se est
en el estado j .

El vector 1 , 2 n se llama distribucin de estado estable o


distribucin de equilibrio, para la cadena de markov. Para una cadena
determinada con matriz de transicin , cmo se puede hallar la distribucin de
probabilidad de estado estable? A partir del teorema 1, se observa que para
grande y toda ,

pij n 1 pij n j (6)

Puesto que pij n 1


(rengln de p n ) (columna de ), se podra escribir

k s
pij n 1 pij npkj (7)
k 1

Si es grande, sustituyendo la ecuacin (6) en la (7), se obtiene

k s

j k pkj (8)
k 1

En forma de matriz, (8) se podra escribir como

p (8`)

Infortunadamente, el sistema de ecuaciones especificado en (8) tiene un nmero


infinito de soluciones, debido a que el rango de la matriz siempre resulta ser
s 1(vase capitulo 2, problema de repaso 21). Para obtener los valores
nicos de la probabilidad de estado estable, observe que para cualquier y
cualquier ,
pi1 n pi 2 n pis n1 (9)
4.4. ESTADOS ABSORBENTES

Es un estado a partir de la cual existe cero probabilidad de hacer una transicin


fuera de ese estado, que contiene al menos un estado que es posible llegar a un
nmero de etapas comenzando en caulquier estado no absorbente.

En una cadena de Markov un conjunto C de estados se denomina absorbentes si


el sistema, pertenece indefinidamente. Un ejemplo especial de un conjunto
cerrado es un estado particular que tenga una probabilidad de transicin .
En este caso se denomina estado absorbente.

Todos los estado de una cadena irreducible deben formar un conjunto cerrado y
ningn otro subconjunto puede ser cerrado.

Los estados absorbentes tendrs sumas de probabilidades que con el correr del
tiempo llegarn a ser cero, todo esto debido a que hay estados que tiene
probabilidad 1 y por ende los dems estados tendern a llegar a esta clase de
estados.
CONCLUSIN

Como conclusin las cadenas de Markov nos permite hacer anlisis sobre el
estudio de los comportamientos de ciertos sistemas en ciertos periodos que
pueden ser cortos o largos. Adems se tiene una relacin con las probabilidades
absolutas. Pero sin embargo lo ms importante es el estudio del comportamiento
sistemas a largo plazo, cuando el nmero de transiciones tiene al infinito

Al conocer ms o menos las probabilidades de un experimento, esto a su vez nos


permitir conocer a corto yplazo los estados en que se encontraran en periodos o
tiempos futuros y tomar decisiones que afectarn o favorecern nuestros
intereses, y tomar una decisin de manera consciente y no se comentan muchos
errores.

Esto tambin nos proporcionara un tiempo estimado para que identifiquemos cada
estado y el periodo en que se encuentra con la implementacin de un proceso,
tambin se establece las probabilidades como una herramienta ms en las
cadenas de Markov.
BIBLIOGRAFA

4.1. INTRODUCCIN A LAS CADENAS DE MARKOV

Investigacin de operaciones, 5 edicin, Editorial taha, pp. 822-826

4.2. PROBABILIDAD DE TRANSICIONES ESTACIONARIAS DE N PASOS

Investigacin de operaciones, 5 edicin, Editorial taha, pp. 824-826

Investigacin de operaciones aplicaciones y algoritmos, 4 edicin, Autor Wayne l.


wishston, Editorial Thompson, pp. 928-931.

4.3. ESTADO ESTABLE

Investigacin de operaciones aplicaciones y algoritmos, 4 edicin, Autor Wayne l.


wishston, Editorial Thompson, pp. 934-938.

4.4. ESTADOS ABSORBENTES

Investigacin de operaciones, 5 edicin, Editorial taha, pp. 826-830

Vous aimerez peut-être aussi