Académique Documents
Professionnel Documents
Culture Documents
=
=
n
j
ij
p
1
1 [2]
Es decir la suma de las probabilidades de cada una de
las filas debe ser igual a (1). Adems por definicin las
probabilidades deben ser mayores a (0). La suma de las
columnas no tiene ninguna propiedad especial.
Cuando las (p
ij
) cumplen con las propiedades arriba
indicadas la matriz P es una matriz estocstica.
Ejemplo
2
: Suponga un jugador que entra en un juego
con $2.000. Con una probabilidad de (p) el jugador gana
$1.000 y con una probabilidad de (1-p) el jugador pierde
$1.000. Si el jugador gana $2.000, o pierde los $2.000
que trae el juego se acaba. La matriz de transicin del
juego ser la siguiente:
Tabla 1. Matriz de probabilidades de transicin
Estado
P(i) =
$0 $1 $2 $3 $4
$0 1 - - - -
$1 1-p - p - -
$2 - 1-p 0 P -
$3 - - 1-p - P
$4 - - - - 1
2
WISTON, Wayne. Investigacin de operaciones pag. 925
Una matriz de transicin se puede representar
mediante un grafo, en el cual los nodos son los estados y
los arcos representan la probabilidad de transicin entre
estados, para el ejercicio de la ruina del jugador el grafo
es el siguiente:
Grfica 1. Grafo representativo de la ruina del jugador
1.3. Probabilidades de transicin en la n-sima etapa.
Teorema de Chapman - Kolmogorov
Suponga que se est estudiando una cadena de
Markov con una matriz de probabilidades de transicin
(P), (dejando como precedente que la cadena es
estacionaria). Una pregunta de inters es si una cadena
esta en el tiempo (t) en el estado (i), Cul es la
probabilidad de que (n) periodos al futuro la cadena este
en estado (j)?
Como se trata de una cadena de Markov estacionaria,
esta probabilidad es independiente de (t). As que se
podra escribir como:
) ( ) | ( ) | (
0
n P i X j X P i X j X P
ij n t n t
= = = = = =
+
[3]
Donde (P
ij
) se le llama la probabilidad del n-simo
paso de una transicin del estado (i) al estado (j).
Es claro que P
ij
(1) = p
ij
. Para determinar P
ij
(2),
observe que ahora el sistema est en estado (i), entonces
para que el sistema se encuentre en estado (j) dos
periodos al futuro (ejemplo) a partir de ahora, se debe ir
del estado (i) a algn estado intermedio (k) y luego del
estado (k) al estado (j), por tanto la matriz de
probabilidad de P (2) se puede escribir como:
=
=
=
s k
k
kj ik ij
P p P
1
) 2 (
[4]
El lado derecho de [4] es el producto escalar del
rengln (i) de la matriz (P) con la columna (j) de la matriz
(P) por consiguiente P
ij
(2), es el ij-simo elemento de la
Apuntes de Clase, Cadenas de Markov Ing. Orlando De Antonio Surez, 03/2012
matriz P
2
. Al ampliar este razonamiento, se puede
demostrar que para n > 1:
2
_ _ _ ) ( P de elemento simo ij n P
ij
=
[5]
Evaluando [4], podemos concluir que se pueden
obtener matrices P (n) de transicin de (n) pasos a partir
de la potencia de la matriz P.
2
* ) 2 ( P P P P
ij
= =
3 2
* ) 3 ( P P P P
ij
= =
n n
ij
P P P n P = =
1
* ) (
Es decir que las sucesivas potencias de la matriz P
indican las probabilidades de transicin en tantas
transiciones como indique la potencia.
Ejemplo: Dos bebidas gaseosas compiten en el
mercado, informacin estadstica nos indica que si una
persona la ltima vez compr la gaseosa 1, hay una
probabilidad del 90% de que compre gaseosa 1 en la
siguiente compra. Ahora si la compra fue la gaseosa 2, la
probabilidad de volver a comprar la gaseosa 2 es del 80%
1. Si una persona compro gaseosa 2 hoy cual es la
probabilidad de que compre gaseosa 1 dos veces a
partir de ahora.
2. Cul sera la probabilidad de que compre tres veces.
Estado 1: la persona compro gaseosa 1 la ltima vez.
Estado 2: la persona compro gaseosa 2 la ltima vez.
La matriz de transicin para este problema es:
P =
Gaseosa 1 Gaseosa 2
Gaseosa 1 0.90 0.10
Gaseosa 2 0.20 0.80
1)
|
|
\
|
(
=
(
=
66 . 34 .
17 . 83 .
80 . 20 .
10 . 90 .
*
80 . 20 .
10 . 90 .
2
P
Por tanto la probabilidad de que un comprador de
gaseosa 1 compre dos veces gaseosa 2 en el futuro es de
0.34.
|
|
\
|
(
=
(
=
562 . 438 .
219 . 781 .
66 . 34 .
17 . 83 .
*
80 . 20 .
10 . 90 .
3
P
R/: 0.438.
1.4. Clasificacin de los estados en una cadena de
Markov
Para ilustrar algunas de las definiciones, usaremos la
siguiente matriz de transicin:
(
(
(
(
(
(
2 . 8 . 0 0 0
1 . 4 . 5 . 0 0
0 7 . 3 . 0 0
0 0 0 5 . 5 .
0 0 0 6 . 4 .
Dados los estados (i) y (j), una trayectoria de (i) a (j)
es una secuencia de transiciones que comienzan en (i)
y terminan en (j), y que cada secuencia tiene una
probabilidad de ocurrencia. As un estado (j) es
alcanzable desde el estado (i) si hay una trayectoria
que conduzca desde (i) a (j).
Se dice que dos estados se comunican si (j) es
alcanzable desde (i), y a su vez (i) es alcanzable desde
(j).
Un conjunto de estados (S) es un conjunto cerrado si
ningn estado fuera de (S) es alcanzable desde algn
estado (S).
Un estado es absorbente si P
ij
= 1.
Un estado (i) es transitorio, si existe un estado (j) que
es alcanzable desde (i), pero el estado (i) no es
alcanzable desde (j).
Si un estado no es transitorio es un estado recurrente.
Un estado (i) es peridico con periodo k > 1, si k es el
nmero ms pequeo tal que las trayectorias que
conducen del estado (i) al regreso al estado (i) tienen
una longitud que un mltiplo de k. si un estado
recurrente no es peridico se conoce como
aperidico.
Si los estados de una cadena son recurrentes,
aperidicos y se comunican entre s, se dice que la
cadena es ergdica.
2. Probabilidades del estado estable
Es importante el orientar nuestro inters hacia el
conocer la probabilidad de hallar el sistema en un estado
determinado cuando lleva funcionando un tiempo
indefinidamente largo. Tales probabilidades se les
denominan probabilidades estacionarias o de estado
estable. Dichas probabilidades se denotan como (
ij
) y la
matriz de probabilidades P*.
Apuntes de Clase, Cadenas de Markov Ing. Orlando De Antonio Surez, 03/2012
Recordemos en la seccin [3] que ij-simo elemento
de P
n
es P
ij
(n). Por tanto si:
( )
j ij n
n P =
) ( lim
Observe que para una (n) grande, P
n
tiende a una
matriz con renglones idnticos, esto significa que tras un
largo tiempo, la cadena de Markov se estabiliza e
independientemente del estado inicial (i), hay una
probabilidad
j
de que se est en el estado (j).
Al vector = (
1
2
S
) se le llama distribucin de
estado estable o distribucin de equilibrio, para la
cadena de Markov.
Como ilustracin de cmo encontrar las
p[probabilidades del estado estable evaluemos el
ejemplo del numeral [1.3].la matriz de transicin era:
P=
(
80 . 20 .
10 . 90 .
As:
[ ] [ ]
(
=
80 . 20 .
10 . 90 .
*
2 1 2 1
2 1 1
20 . 90 . + =
2 1 2
80 . 10 . + =
Sustituyendo la segunda ecuacin con la condicin de
la ecuacin [2], se tiene el siguiente sistema:
2 1 1
20 . 90 . + =
2 1
. 1 + =
Resolviendo para
1
y
2
se obtiene
1
= 2/3 y
2
=
1/3. Significa que despus de algn tiempo, hay una
probabilidad de 2/3 de que una persona determinada
compre gaseosa 1, y una probabilidad de 1/3 de que una
persona compre la gaseosa 2.
BIBLIOGRAFA:
WISTON Waine L. Investigacin de Operaciones Editorial
Tomson.
HILLIER y LIBERMAN Introduccin a la Investigacin de
Operaciones. Editorial Mc Graw Hill.
TAHA Investigacin de Operaciones,. Editorial Alfa
omega.
PRAWDA Witenberg, Juan. Mtodos y Modelos de
Investigacin de Operaciones, , Editorial Limusa.