Académique Documents
Professionnel Documents
Culture Documents
/ 0 1 ......
0 00 01 ...... 0
1 10 11 ...... 1
() = .. .. .. .. (2.6)
. . . .
.. .. .. ..
. . . .
0 1 ......
Ejemplo 2.a
Si en la cadena de Markov descripta en la experiencia b) del ejemplo
l.b se denominan:
estado 0 = no
estado 1 = si
el grafo y la matriz de transicion de 1 paso son respectivamente:
Cadenas de Markov 12
0
7654
0123
0^
/ 0 1
1 1/3
= 0 0 1
1 1/3 2/3 0123
7654
1S
2/3
Ejemplo 2.b
Si bien la experiencia a) del ejemplo l.b corresponde a 1 proceso de
ensayos independientes, se lo puede tratar dentro de la teora de las
cadenas de Markov, siendo sus estados, el grafo y la matriz de tran-
sicion de 1 paso las siguientes:
estado 0 = no
estado 1 = si
1/3
0123
7654
0^
2/3 1/3 1/3 2/3
=
0123
7654
1S 1/3 2/3
2/3
(/ ) = (/ )
( ). ( /).
()
=0
(2) = (/) = = .
()
=0
00 (2) . . . 0 (2) 00 01 . . . 0 00 . . . 0
.. ... . .. ...
. = .. . x 10 1
(2) = .. .. .. .. .. .. ..
. . . . . . .
0 (2) . . . (2) 0 1 . . . 0 . . .
P(2)=P.P= 2 (2.10)
Ejemplo 2.c
La matriz de transicion de 2 pasos de la cadena del Ejemplo n 2.a,
aplicando la ecuacion (2.10) es:
Cadenas de Markov 15
0,33
0123
7654
0^
0 1 0 1 0, 33 0, 67 0,67 0,22
(2) = = =
7654
0123
1S
0, 33 0, 67 0, 33 0, 67 0, 22 0, 78 0,78
00 () 01 () . . . . . . 0 ()
10 () 11 () . . . . . . 1 ()
() = .. (2.13)
.
0 () 1 () . . . . . . ()
y la expresion matricial general de la ecuacion de Chapman-Kolmogorov,
tomando por ejemplo la forma a), queda:
00 () . . . 0 () 00 01 . . . 0 00 ( 1) . . . 0 ( 1)
.. .. . .. ..
. . = .. . . x 10 ( 1) 1 ( 1)
() = .. .. .. .. .. .. ..
. . . . . . .
0 () . . . () 0 1 . . . 0 ( 1) . . . ( 1)
P(n)=P.P(n-1)
() = (2.14)
Ejemplo 2.d
Las matrices de transicion de 3, 4 y 5 pasos de la cadena del ejemplo
Cadenas de Markov 17
0 1 0, 33 0, 67 0, 222 0, 778
3 2
(2) = = . = x =
0, 33 0, 67 0, 22 0, 78 0, 259 0, 741
() = 0 () 1 () 2 () . . . () (2.16)
0
() 1 ; (2.17)
() = 1 ; con = 0, 1, 2, . . . (2.18)
=0
00 . . . 0
1
(1) = 0 (1) 1 (1) . . . (1) = 0 (0) 1 (0) . . . (0) x ..10 ..
. .
0 . . .
() = 0 () 1 () 2 () . . . () (2.27)
00 () . . . 0 ()
() 1 ()
() = 0 (0) 1 (0) . . . (0) x 10.. ..
. .
0 () . . . ()
Ejemplo 2.e
En la cadena del ejemplo 2.a, si se parte de un estado inicial con las
siguientes probabilidades:
0 (0) = 0, 5
(0) = 0, 5 0, 5
1 (0) = 0, 5
las probabilidades de 1, 2, 3 y 4 pasos seran respectivamente:
0 1
(1) = (0). = 0, 5 0, 5 x = 0, 167 0, 833
0, 333 0, 667
0, 333 0, 667
(2) = (0). 2 = 0, 5 0, 5 x = 0, 278 0, 722
0, 222 0, 778
Cadenas de Markov 21
0, 222 0, 778
(3) = (0). 3 = 0, 5 0, 5 x = 0, 241 0, 759
0, 259 0, 741
0, 259 0, 741
(4) = (0). 4 = 0, 5 0, 5 x = 0, 253 0, 747
0, 247 0, 753
si y
Ejemplo 2.f
En la cadena de la gura el estado 6 es accesible desde el 5 en un paso y
desde el 4 en dos pasos, a traves del 5. El estado 1 no es accesible desde el 2.
Cadenas de Markov 22
si y
1
7654
0123 '
7654
0123
0g 1/2 :1
0 1 0
1
1/2 = 1/2 0 1/2
7654
0123z
2 0 1 0
1 clase comunicante recurrente : 3 = {5, 6, 7}
2 clase comunicante transitoria : 1 = {2} y 2 = {3, 4}
2 estados sin retorno :0 1
Dentro de las cadenas no ergodicas merecen especial atencion dos
tipos particulares de cadenas denominadas respectivamente cadenas
absorbentes y cadenas cclicas.
{
Cadenas no ergodicas: separables en absorbentes
clases comunicantes mas estados sin retorno cclicas
0 . . . . . .
.. .. ..
. . .
lim () = lim = 0 . . . . . . (2.31)
.. .. ..
. . .
0 . . . . . .
0 . . . . . .
.. ... ...
.
lim () = (0). lim () = 0 (0) . . . (0) . . . (0) x 0 . . . . . .
.. .. ..
. . .
0 . . . . . .
y por cumplirse que: (0) = 1, queda:
=0
lim () = 0 . . . . . . (2.32)
las (2.31) y (2.32) expresan que en una cadena de Markov regular, luego
de un numero sucientemente grande de transiciones ( ), sus pro-
babilidades de transicion () y de estado () se estabilizan en valores
lmites iguales para cada estado j, e independientes del estado inicial i. Este
estado se conoce como regimen permanente o estacionario, y sus probabi-
lidades de estado representan los porcentajes de tiempo que la cadena
permanece en cada estado j luego de un perodo largo de tiempo.
Esta distribucion de estados lmites se puede determinar mediante tres
caminos alternativos.
lim () = lim ( 1) =
agrupando queda: . = (1 )
=
reemplazando queda:
. = . ; = 0, . . . , (2.35)
= =
Cadenas de Markov 31
0, 5 0, 3125 0, 1875
16
= 0, 5 0, 3125 0, 1875 = 17 = 18 = lim
0, 5 0, 3125 0, 1875