Académique Documents
Professionnel Documents
Culture Documents
Cuando,
conociendo el pasado y el
presente, el comportamiento
probabilstico del futuro inmediato
slo depende del estado presente
PAULO OLIVARES
Concepto de
cadena de Markov
En honor al matemtico ruso Andrei Andreyevich
Markov,
PAULO OLIVARES
Cadenas de Markov
Las cadenas de Markov y los procesos de Markov
son un tipo especial de procesos estocsticos que
poseen la siguiente propiedad:
Propiedad Markoviana
Sea {Xn: n 0} un proceso estocstico discreto
(es decir, cada Xn es una variable aleatoria
discreta). Diremos que tiene la propiedad de
markoviana si se cumple:
P{Xn+1= j / X0= i0 , X1= i1 . . . Xn= in } =
Probabilidades de Transicin
Matriz de Transicin
pij 1
j
PAULO OLIVARES
0,20
0,65
0,15
0,60
0,40
Estado 2
0,15
0,15
0,30
0,40
Estado 3
Tiempo Etado 1
n
PAULO OLIVARES
Surb.
Rur.
PAULO OLIVARES
Cadenas de Markov
0,05
0,90
0,8
0,15
Urb
0,04
Surb.
0,04
PAULO OLIVARES
Rural
0,06
0,06
10
0,90
11
i0 , .
Probabilidades de transicin en n
etapas
Pregunta: si en el tiempo t el proceso de
Markov se encuentra en el estado i, cul es la
probabilidad de que n pasos despus se
encuentre en el estado j ?
Resp:
P{Xn+t= j /Xt= i }= P{Xn= j /X0= i } (estacionaria)
= p(n)i,j (notacin)
= elemento (i,j) de la matriz Pn
PAULO OLIVARES
12
Ecuacin de
Chapman-Kolgomorov
Si el resultado anterior se combina con la identidad
matricial Pn+m = Pn Pm , obtenemos:
13
14
b)
PAULO OLIVARES
15
3
P 0,1352
0,0967
0, 3353 0,1248
0,7593 0,1055
0,1622 0,7411
a (0, 35 0,45 0, 20 )
t
a)
b)
0,0967
0,2691
PAULO OLIVARES
16
Ejemplo 3
PAULO OLIVARES
18
0.80
0.20
0.30
0.70
Calculo
0.8 0.2
P (1)
0
.
3
0
.
7
Matriz inicial
0.8 0.2
(350,650)
(C , N) 100 900
0
.
3
0
.
7
P ( 2)
0
.
3
0
.
7
0
.
3
0
.
7
0
.
45
0
.
55
0.7 0.3
(475,525)
(C , N) 100 900
0
.
45
0
.
55
PAULO OLIVARES
20
PAULO OLIVARES
21
PAULO OLIVARES
22
PAULO OLIVARES
23