Académique Documents
Professionnel Documents
Culture Documents
PROCESOS ESTOCÁSTICOS
Mayo de 2004
(versión 10/5)
2.1. Ejemplos
RECORRIDO ALEATORIO SIMPLE: Consideremos una partícula que se mueve a lo largo de
una recta mediante saltos de magnitud –1,0,1 con probabilidades q, r y p, respectivamente. Si
representamos por {X n }n∈N la posición de la partícula después del n-ésimo salto tenemos una
cadena de Markov en tiempo discreto.
BOLAS EN DOS URNAS: N bolas están repartidas en dos urnas A y B. En cada etapa se
escoge al azar una de las N bolas y se cambia de urna. Si representamos por {X n }n∈N el número
de bolas que contiene la urna A después del n-ésimo cambio tenemos una cadena de Markov en
tiempo discreto.
PROBABILIDADES DE TRANSICIÓN ESTACIONARIAS: La condición de Markov
{ } { }
P X n+1 = j X 0 = i0 ,..., X n = i = P X n+1 = j X n = i ∀n ∈ N exige que la probabilidad de
que la cadena de Markov se encuentre en un estado j en el instante n + 1 dependa únicamente
del estado en que se encontraba en el instante n y que esto se cumpla para cualquier etapa en
que se encuentre la cadena. Sin embargo, tal y como se ha expresado, la probabilidad de pasar
del estado i al j puede depender de la etapa n en que se encuentre la cadena de Markov. La
condición de homogeneidad en el tiempo hace que esta probabilidad sea independiente de la
{ } { }
etapa, es decir, exige que P X m +1 = j X m = i = P X n +1 = j X n = i ∀m, n ∈ N . Una cadena
de Markov en tiempo discreto que cumpla esta condición de homogeneidad en el tiempo se dice
que tiene probabilidades de transición estacionarias.
CADENA DE MARKOV CON PROBABILIDADES DE TRANSICIÓN ESTACIONARIAS:
Una cadena de Markov con probabilidades de transición estacionarias queda perfectamente
especificada por:
1. El espacio de estados E (finito o numerable)
( ) { }
2. La matriz de transición P = pij , donde pij = P X n +1 = j X n = i ∀n ∈ N , que indica la
probabilidad de pasar al estado j partiendo del estado i –en cualquiera de las etapas-.
Obviamente pij ≥ 0 ∀i, j ∈ E y ∑
pij = 1 ∀i ∈ E -es decir, todos los elementos de la
j∈E
matriz de transición deben ser no negativos y las sumas por filas deben ser la unidad.
3. La distribución inicial de la cadena, que se expresa en forma de vector en el que cada
componente indica la probabilidad de que la cadena se encuentre en el estado i ∈ E en el
( )
instante 0, es decir, p (0 ) = p1(0 ) , p 2(0 ) ,..., pi(0 ) ,... , con pi(0 ) = P{X 0 = i}. Obviamente,
pi(0 ) ≥ 0 ∀i ∈ E y ∑ p( ) = 1 .
i∈E
i
0
Sea N ij una variable aleatoria que recoge el número de etapa en que la cadena llega por primera
vez al estado j cuando parte del estado i. Puede expresarse f ij(n ) = P N ij = n y { }
f ij = P{N ij < ∞}.
RELACIÓN ENTRE f ij( n ) Y pij(n ) : Recuérdese que pij(n ) = P X m+ n = j X m = i ∀m ∈ N{ }
recoge la probabilidad de pasar del estado i al estado j en n etapas. Es claro que
[ ]
∞ ∞ ∞ ∞
Fij (1) = ∑ f ij(n )1n = ∑ f ij(n ) = f ij y Fij' (1) = ∑ nf ij(n )1n = ∑ nf ij(n ) = E N ij cuando f ij = 1 ,
n =1 n =1 n =1 n =1
donde N ij es la variable aleatoria que recoge el número de etapa en que se alcanza por primera
vez el estado j partiendo del estado i. Fij (1) = f ij y Fij' (1) = E N ij [ ]
RELACIÓN ENTRE LAS FUNCIONES GENERATRICES. MÉTODO TEÓRICO DE
Pij (s )
RESOLUCIÓN: Se prueba fácilmente que Fij (s ) = .
1 + Pjj (s )
MÉTODO PRÁCTICO PARA OBTENER LOS f ij( n ) : Dada una cadena de Markov con
probabilidades de transición estacionarias {X n }n∈N definimos una nueva cadena X n {~ } n∈N
del
siguiente modo:
~ ⎧ X si Xr ≠ j ∀r < n
Xn = ⎨ n
⎩ j si ∃r < n : X r = j
Es decir, cuando la cadena llega al estado j se queda indefinidamente en él pero es igual que la
~
cadena original mientras no llegue al estado j. La matriz de transición P de la cadena de
{~ }
Markov X n n∈N es igual a la matriz de transición P de la cadena original salvo en lo que se
refiere a la j-ésima fila, que debe sustituirse por un vector nulo excepto en la j-ésima columna,
donde debe situarse un 1. Esta modificación expresa el hecho de que una vez en el estado j la
cadena no sale de él –se dice que el estado j es absorbente-. De este modo, la probabilidad de
que la primera vez que la cadena original llega al estado j partiendo de i sea en la etapa n es
igual a la probabilidad de que la cadena modificada pase de i a j en n etapas menos la
probabilidad de que la cadena modificada pase de i a j en n-1 etapas –ya que si la cadena
modificada no pasa de i a j en n-1 etapas eso significa que la cadena original nunca ha pasado
por j. En resumen, f ij(n ) = ~
pij(n ) − ~
pij(n−1) .
Es decir, i comunica con j si, y sólo si, alguna potencia de la matriz de transición otorga
probabilidad no nula a la transición entre los estados.
ESTADOS QUE INTERCOMUNICAN: Se dice que i y j intercomunican si i comunica con j y
j comunica con i.
TEOREMA:
∞
1. Si j es transitorio entonces Pij (1) = ∑ p ( ) < ∞∀i ∈ E , es decir, se espera un número finito
ij
n
n =1
de visitas a un estado transitorio sea cual sea el estado del que se parta.
2. Si j es recurrente e i comunica con j, entonces Pij (1) = ∞ , es decir, se espera un número
infinito de visitas a un estado recurrente desde aquellos estados que comunican con él
3. Si j es recurrente y j comunica con k ( f jk > 0 ), entonces k comunica con j, k es recurrente y
f jk = f kj = 1 . Es decir, si un estado recurrente comunica con otro estado, éste es recurrente.
Además, ambos estados intercomunican y es seguro que se llegará a uno de ellos partiendo
del otro. Nótese que en el caso de los estados recurrentes, la noción de comunicación y la de
intercomunicación coinciden.
4. Si j es recurrente y k es transitorio, entonces f jk = 0 , es decir, es imposible llegar de un
estado recurrente a un estado transitorio.
COROLARIO: Es evidente, ya que no se puede llegar de un estado recurrente a un transitorio,
que si i y j intercomunican o son ambos transitorios o son ambos recurrentes.
TEOREMA DE DESCOMPOSICIÓN: El espacio de estados E puede dividirse en dos
subconjuntos disjuntos; el primero constituido por los estados transitorios y el segundo el
formado por los estados recurrentes. Los estados transitorios son inaccesibles desde los
recurrentes. A su vez, los estados recurrentes pueden dividirse de manera única en clases de
equivalencias establecidas por la relación de equivalencia i ~ j -i comunica con j o i
intercomunica con j – de tal manera que si i y j están en la misma clase de equivalencia entonces
f ji = f ij = 1 y en caso contrario f ji = f ij = 0 . Tenemos así la siguiente estructura para la
matriz de transición de una cadena de Markov:
C1 C2 ... Cr
C1 P1 0 ... 0
C2 0 P2 ... 0
0
... ... ... ... 0
Cr 0 0 ... Pr
A B
(1 − s )(1 + Pjj (s )) = 0 .
lim
sólo si
s ↑1
TEOREMA: Si i y j son dos estados recurrentes que intercomunican entonces o ambos son
recurrentes positivos o ambos son recurrentes nulos. Así, la recurrencia positiva o nula no es
una propiedad de los estados recurrentes, sino más bien de las clases de equivalencia
establecidas por la relación de intercomunicación. Los subconjuntos cerrados e irreducibles de
estados recurrentes establecidos por el teorema de descomposición serán, bien recurrentes
positivos, bien recurrentes nulos.
D0 D1 D2 ... Dt −1
D0 0 0 ... 0
D1 0 0 ... 0
D2 0 0 0
... 0 ... ... ...
Dt −1 0 0 ... 0
s ↑1
{(1 − s )[1 + P (s )]} . Así,
jj
−1
πj =
1
[ ] =
lim
E N jj s ↑ 1
[ ]
(1 − s ) 1 + Pjj (s ) > 0 , luego podemos reformular la propiedad diciendo que
una subcadena irreducible es recurrente positiva si y sólo si la distribución estacionaria asigna
probabilidades no nulas a todos sus estados.
CONDICIÓN PARA QUE EXISTA DISTRIBUCIÓN ESTACIONARIA: Dada una cadena de
Markov cualquiera es condición necesaria y suficiente para que exista distribución estacionaria
que exista alguna subcadena C1 ⊂ E recurrente positiva. Por el teorema de Levinson existe una
P1 0 .... 0
0 P2 ... 0
0
P= ... ... ... ...
0 0 Pr
A B
S1 0 .... 0
0 S2 ... 0
0
S= ... ... ... ...
0 0 Sr
α 0
donde las zonas rayadas indican valores no nulos. El elemento de la fila j-ésima, columna i-
ésima toma el valor tπ i en la única matriz en la que es no nulo.
COROLARIO 4: Dada una cadena de Markov reducible en la que las subcadenas tienen
periodos distintos, sea t el mínimo común múltiplo de los periodos existentes. Entonces la
probabilidad de que pase a otro estado transitorio desde el cual resulte absorbida - ∑p
k∈T
jk f kC -.
Se dispone de este modo de un sistema de tantas ecuaciones como incógnitas. Nótese que esta
técnica nos permite conocer los f ji que aparecen en el corolario 1 del apartado 2.4. Es
importante darse cuenta que si C ⊂ E está formado por estados recurrentes, entonces
f ji = f jC ∀i ∈ C .
TIEMPO MEDIO DE PRIMERA PASADA: Dada una subcadena irreducible E de estados
recurrentes se tiene que f ij = 1∀i, j ∈ E , es decir, es seguro que partiendo de cualquier estado
de la cadena ésta va a llegar tarde o temprano a cualquier otro estado. Podemos, no obstante,
estar interesados en conocer cuál es el valor esperado del número de etapa en el que se va a
alcanzar por primera vez el estado j partiendo del estado i , es decir E N ij . Se tiene que[ ]
A =I.
0
matricialmente P ' (t ) = P ' (0 )P(t ) - si y sólo si ∑ p' (0) = − p' (0) < +∞ , es decir, si los
ik ii
k ≠i
elementos de cada fila de la matriz P ' (0 ) cumplen que el valor de la suma de aquellos situados
fuera de la diagonal principal coincide con el valor del elemento situado en la diagonal principal
cambiado de signo y además este valor es finito.
CONDICIÓN SUFICIENTE (NO NECESARIA) PARA LA ECUACIÓN DEL FUTURO: Si
existe M > 0 tal que p 'ii (0 ) ≥ − M ∀i ∈ E entonces para todo i, j ∈ E existe la derivada de
pij (t ) y se verifica p'ij (t ) = ∑ pik (t ) p'kj (0) -o matricialmente P ' (t ) = P(t )P' (0 ) -.
k∈E
TEOREMA: Si para todo j ∈ E se cumple que p 'ij (t ) = ∑ p (t ) p' (0) entonces para todo
ik kj
k∈E
k ∈ E tal que pik (t ) > 0 se verifica p' kj (t ) = ∑ pkl (0 ) p'lj (t ) para todo j ∈ E . En otras
k∈E
palabras, las ecuaciones del futuro implican las ecuaciones del pasado.
n =0
TEOREMA:
cualquier h > 0 .
COROLARIO: Para todo s > 0 es Π = Π P(s ) = P(s )Π = ΠΠ .
ESTADO RECURRENTE POSITIVO: Se llama estado recurrente positivo en el proceso en
tiempo continuo a aquel i ∈ E tal que π ii > 0 . Un estado es recurrente positivo en el proceso
en tiempo continuo si y sólo si es recurrente positivo en alguna de las cadenas
C h ≡ {Yn = X nh }n=0 y, en tal caso, lo es en todas las cadenas.
∞
1
Una variable aleatoria con distribución exponencial tiene función de densidad f ( x ) = λe − λx y función de
distribución F (x ) = 1 − e − λx
, luego P{X ≥ x} = e − λx
. El valor esperado de esta variable aleatoria será
E[X ] =
1
.
λ