Vous êtes sur la page 1sur 77

Cadenas de Markov y

Teora de Colas
Carlos F. Belaustegui Goitia

Procesos y Cadenas de Markov

Variables binomial, geomtrica y de Poisson.


Procesos puntuales.
Procesos de Markov.
Cadenas de Markov. Clasificacin de estados, clases de cadenas, estado
estacionario. Teorema de Perron-Frobenius.
Cadenas de Markov en tiempo continuo. Ecuaciones de balance global.
Aplicaciones.

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

Variables Binomial y Geomtrica


Variable Binomial: La probabilidad de que el evento
A, cuya probabilidad es P(A) = p, ocurra k veces en n
pruebas es
n
pn (k ) = p k (1 p) nk ,
k

n
n!
=
k k!(n k )!

3 4

P( X = 1) = p
P( X = 2) = (1 p) p
L
P( X = n) = (1 p) n1 p = q n1 p

n=22, k=7
1

Separacin entre eventos: sea X= nmero de pruebas


hasta el primer xito

13

15

21
1

1 3 4 8 13 15 21
1 2 4 5 11 19 20
3 5 6 7 12 17 20
...............
4 6 8 9 16 21 22

22
combinaciones
7

3 4

15

21

X=n

Propiedad sin memoria de la distribucin geomtrica


P ( X = n / X > n0 ) =

P ( X = n, X > n0 ) P ( X = n)
=
=
P ( X > n0 )
P ( X > n0 )

q n 1 p

k 1

=
p

k = n0 +1

=
5 48
48

13

n0

X=n

Aplicacin: Proceso de Bernoulli como modelo


de flujo ATM

09/11/2003

Distribucin geomtrica.
X es el nmero de pruebas
hasta el primer xito en una
secuencia de pruebas de
Bernoulli.

q n 1

i = n0

=
i

q n 1
= q n n0 1 p = P ( X = n n0 )
n0
1
1 q

1 q 1 q

53 bytes
C.F. Belaustegui
Goitia - Cadenas de Markov y Teora de Colas
1 CC = 2.83 uSec @ 149.76 Mbps

Variables Binomial y de Poisson


Variable Binomial: La probabilidad de que el evento
A, cuya probabilidad es P(A) = p, ocurra k veces en n
pruebas es
n
pn (k ) = p k (1 p) nk ,
k

n
n!
=
k k!(n k )!

3 4

1 3 4 8 13 15 21
1 2 4 5 11 19 20
3 5 6 7 12 17 20
...............
4 6 8 9 16 21 22

09/11/2003

13

1 k / n
pn (k + 1)
p nk
a
a
=

1 p k +1 1 a / n k +1
pn (k )
k +1
a
pn ( k )
k +1
p(0) = lim pn (0) = lim (1 p) n = lim (1 a / n) n = e a

pn (k + 1) =
n

n=22, k=7
1

Variable de Poisson: Si p<<1, np=a, y k del orden de np

p(1) = ae a
15

21

22
combinaciones
7

p ( 2) =

a
a2
p(1) = e a
2
2

L
a k a
p(k ) = e
k!

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

Puntos de Poisson
6 1 5

Puntos de Poisson: Se colocan al azar n puntos en el


intervalo real [0, T)
t 2 t1 t
=
T
T
n
pn (k puntos en [t1 , t 2 ]) = p k (1 p) nk
k

3 2
t1

(t ) k t
pn (k puntos en [t1 , t 2 ]) n

= p(k )
e
,T
k!

09/11/2003

t2

P(1 punto en [t1 , t 2 ]) = p =

= n /T
n , T , = cte., p = t / T 0
a = np = n t / T = t

94 8 7

Densidad de puntos
t
p(1) = t e t t (1 t )
t 0
(t ) k t (t ) k
(t ) k

e
(1 t )
t 0
k!
k!
k!
P (1 punto en [t, t + t ])
= lim
t 0
t
p(k ) =

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

Distribucin Exponencial
X
t

x0

t+x

Separacin entre puntos: sea X = distancia desde


t al primer punto a la derecha de t.
FX ( x) = P( X x) = 1 P( X > x) =
= 1 P (0 puntos en [t , t + x]) = 1 e

x0

f X ( x) = e x u ( x)

1
1
E ( X ) = x e x dx = , var( X ) = 2

0
Los tiempos entre arribos son independientes y
distribudos exponencialmente con parmetro

09/11/2003

Propiedad sin memoria de la distribucin


exponencial
FX ( x / X x0 ) = P( X x / X x0 ) =
=

P( X x, X x0 )
=
P( X x0 )

P( x 0 X x) FX ( x) FX ( x0 )
=
= 1 e ( x x0 )
P( X x0 )
1 FX ( x0 )

f X ( x / X x0 ) = e ( x x0 ) u ( x x0 ) = f X ( x x0 )
Lo que ocurre despus de t0 es independiente de lo
que ocurri antes de t0..

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

Relacin entre procesos de


Bernoulli y Poisson
Tiempo continuo

Tiempo discreto

Proceso de Bernoulli

Proceso de Poisson

Distribucin entre arribos:

Distribucin entre arribos:

Geomtrica

Exponencial

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

Ejemplo: Arribos Aleatorios


servidor

09/11/2003

arribos

tiempo

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

El proceso de arribos es Poisson.


Los tiempos entre arribos son
independientes y distribuidos
exponencialmente con parmetro
.

Ejemplo: Modelo de Trfico Telefnico


fTh(t)
X

Th: duracin de la comunicacin


(holding time)

t+x

fTh (t ) = e t u (t )

f X ( x) = e x u ( x)

E ( X ) = x e
0

Arribos de Poisson

Fdp experimental

1
1
dx = , var( X ) = 2

1/

Separacin entre arribos exponencial

tk
1
2

: tasa de arribos (llamadas/seg)


1/: duracin media de la llamada (seg)
a = (1/ )

Trfico (Erlang)

i
T
ai = i E (Thi ) =
a = ai =
i

09/11/2003

N i 1 Ni
1 Ni
tki = tki
T N i k =1
T k =1

1 L
jtj
T j =0

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

Nmero de ocupaciones simultneas

Tiempo medio de ocupacin


de una lnea
Promedio de lneas ocupadas
simultneamente

Tiempo total en el que


exactamente j lneas estn ocupadas

Procesos de Markov
Proceso de Markov: Es un proceso estocstico cuyo
pasado no tiene influencia sobre el futuro si el presente
est especificado.

Cadena de Markov: Proceso de Markov en tiempo


discreto con un conjunto numerable de estados ai.
Especificado en trminos de:

ij (n1, n2 ) = P( X n2 = a j / X n1 = ai )

Tiempo continuo:
t n 1 < t n

P[X (t n ) xn / X (t ) t t n 1 ] = P[X (t n ) xn / X (t n 1 )]

Tiempo discreto:

ij

( n, m ) = 1

(n, m)1 = 1

i1

continuo
discreto

estado

p j (n) = pi (k ) ij (k , n)

Cadenas de
Markov
discreto

Procesos
puntualesColas
continuo

tiempo

i2
ai

Matriz estocstica

P[X (t n ) xn / X (t n 1 ),L, X (t1 )] = P[X (t n ) xn / X (t n 1 )]

Sistemas
dinmicos

Prob. transicin

Propiedades:
j

t1 < t 2 < L < t n

09/11/2003

Prob. estado

pi (n) = P( X n = ai )

p T ( n ) = p T ( k ) ( k , n)

ik

p1

1j

aj

2j

p2

ij p
i

ij (k , n) = il (k , m) lj (m, n)
l

(k , n) = (k , m) (m, n)
C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

Ecuacin de
Chapman-Kolmogorov

10

Propiedades de las Cadenas de Markov


Propiedades generales de los procesos de Markov
P[ X (t n ) xn / X (t n 1 ),L, X (t1 )] = P[ X (t n ) xn / X (t n 1 )]
f ( xn / xn 1 , L, x1 ) = f ( xn / xn 1 )
E ( X n / X n 1 ,L , X 1 ) =

n 1

,L , x1 ) dx =

(n, m) = P( X m = a j / X n = ai ) =
j

P( X m = a j , X n = ai )
P( X n = ai )

p (k )
i

x f ( x / xn1 ) dx =E ( X n / X n1 )

f ( xn / xn +1 ,L , xn + k ) = f ( xn / xn +1 )

ij

x f (x / x

Propiedades de las cadenas de Markov

ij

P( X n = ai )
=1
P( X n = ai )

(k , n) = P( X k = ai ) P( X n = a j / X k = ai ) =
i

= P( X k = ai , X n = a j ) =P( X n = a j ) = p j (n)
i

Un proceso de Markov tambin


es de Markov si el tiempo se invierte.

k < m < n:

ij ( k , n) = P ( X n = a j / X k = ai ) = P ( X n = a j , X m = al / X k = ai ) =
l

k < m < n:
f ( xn , x m , xk )
f ( xn , xk / x m ) =
=
f ( xm )
=

Si el presente est especificado,


el pasado es independiente del
futuro.

f ( xn / xm ) f ( xm / xk ) f ( xk )
= f ( xn / xm ) f ( xk / xm )
f ( xm )

P ( X n = a j , X m = a l , X k = ai )
=
P ( X k = ai )

P ( X n = a j / X m = a l , X k = ai ) P ( X m = al , X k = a i )

P ( X k = ai )

= P ( X n = a j / X m = a l , X k = a i ) P ( X m = a l / X k = ai ) =
l

= P ( X n = a j / X m = a l ) P ( X m = al / X k = a i ) =
l

09/11/2003

= il ( k , m) lj ( m, n)

C.F. Belaustegui Goitia - Cadenas de Markov y Teora


l de Colas

11

Evolucin de una Cadena de Markov


Cadenas homogneas: Las probabilidades de
transicin ij(m,n) slo dependen de la diferencia
k=n-m.
Ecuacin de Chapman-Kolmogorov:

ij (k , n) = il (k , m) lj (m, n)

Evolucin del sistema

(2) = (1) (1) = 2


L
(n + 1) = (n)
( n) = n

p(n) = [ p1 (n) L p N ( n)]T


p T ( n) = p T ( k ) ( k , n) =
= pT (k ) (n k ) =
= pT (k ) n k =
= pT (0) n

Estado estacionario

(k , n) = (k , m) (m, n)

p ( n) = p
pT = pT

ij (n k ) = il (m k ) lj (n m)
l

( n k ) = ( m k ) ( n m)
( p + q ) = ( p ) ( q ) = ( q ) ( p )

Matriz de probabilidades de transicin a n pasos.


El elemento i,j de n es la probabilidad de llegar
de i a j en exactamente n pasos.

Si existe el estado estacionario, el vector de probabilidad de estados


p de una cadena de Markov, es un autovector izquierdo de su
matriz de transicin con autovalor 1.
Existe
Existeun
unestado
estado
estacionario?
Si p(1) p, el proceso no es estacionario.
estacionario?
Si n tiende a un lmite para n , el proceso es asintticamente
estacionario.

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

12

Ejemplo: Cadena de 2 estados


Aplicacin: Es un modelo para voz en paquetes.

1-a
00

11

1-b

Matriz de transicin

Solucin en estado estacionario

01 1 a
a

=
= 00

10 11 b 1 b
1 b a (1 a b) n a a
n
+
( n) = =
a + b b a
a + b b b

09/11/2003

Estado 0: inactivo (silencio). La probabilidad de que la prxima TS sea


activa es a, y la probabilidad de que permanezca en el estado
inactivo es 1-a.
Estado 1: activo (habla). La probabilidad de que la prxima TS sea
inactiva es b, y la probabilidad de que permanezca en el estado
activo es 1-b. En el estado activo, una TS contiene una celda
con probabilidad p, y se tiene un proceso de Bernoulli.

p = p

[ p0

p1 ] = [ p0

a p0 = b
1 a
p1 ]
a+b

b
b
1

a
p0 + p1 = 1 p1 =
a+b

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

13

Ejemplo: Proceso de cuenta binomial


Ejemplo: Proceso de cuenta binomial.

1-p

Es una secuencia de variables aleatorias de Bernoulli independientes.


Sn es el proceso de suma o cuenta que da el nmero de xitos en las
primeras n pruebas.
En cada paso, Sn puede incrementarse en 1 con probabilidad p o quedar
igual con probabilidad 1-p.
1
Ik =
0

11

1-p
p

22

1-p
p

n-1
n-1

1-p
p

Matriz de transicin

Con probabilidad p
Con probabilidad 1-p

n
Sn = I1 + L + I n P( Sn = j ) = p j (1 p) n j
j

09/11/2003

00

1-p

0 jn

p
0
0
1 p
0
1 p
p
0
=
0
0
1 p p

L
L L
L

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

L
L

14

nn

Propiedades Generales de la Matriz de Transicin


Radio espectral

Matriz no negativa

( ) = max

0 ij 0 i, j

( )

1 ( ) 1 ( )

0
Matriz Estocstica
1 = 1 (1,1) es un par propio de

1 = 1 max x = max ij = 1
x =1

() ( ) = 1

El radio espectral es menor o igual


que cualquier norma

( ) = 1
El radio espectral es unitario

Norma infinito: mxima suma de valores absolutos de


cada fila = 1

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

15

Clasificacin de Estados

Accesible: j es accesible desde i si hay alguna secuencia de


transiciones de i a j con probabilidad no nula: n>0/ ij(n)>0.

Comunicantes: los estados i y j comunican si son accesibles entre


s. Se escribe ij. La comunicacin es una relacin de equivalencia:
ij, jk ik.

Absorbente: Si es imposible abandonarlo: ii=1.

Recurrente: El estado i es recurrente si la probabilidad de regresar


alguna vez a l es 1.

Peridico: Un estado es peridico con perodo d si slo se puede


regresar a l despus de d, 2d, ..., nd pasos.

Aperidico o Ergdico: Peridico con perodo d=1. Se puede


regresar a l en cualquier momento.

Transitorio: La probabilidad de regresar al estado alguna vez es


menor que 1.
09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

Recurrente

f i = ii (n) = 1
n =1

Transitorio

f i = ii (n) < 1
n =1

16

Clases de Estados

Cerrada: Si desde un estado interior no se puede


alcanzar ningn estado exterior a la clase. Un
estado absorbente es una clase cerrada con un
nico estado.
Irreducible: Clase cerrada tal que ningn
subclase propia es cerrada. En otros trminos, la
nica clase cerrada es la de todos los estados.
Dos estados pertenecen a un mismo conjunto si se
comunican.
Dos clases distintas deben ser disjuntas, pues si
existe algn elemento comn, los estados de una
clase se pueden comunicar con los de la otra, y as
resultan ser de la misma clase.

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

Clase reducible
Clase cerrada

Estados absorbentes

Clase irreducible

17

Clases de Cadenas

Irreducible. Definiciones equivalentes:

La que consiste en una nica clase de equivalencia.

El nico conjunto cerrado es el de todos los estados.

En una cadena irreducible, todos los estados son recurrentes o son todos transitorios.
En una cadena irreducible finita, no pueden ser todos los estados transitorios; luego, son todos recurrentes.

Reducible. Opciones:
1.

Tiene uno o ms estados absorbentes.

2.

Tiene un subconjunto de estados S1 desde el cual no es posible alcanzar estados fuera de S1.

Absorbente: la que tiene al menos un estado absorbente, accesible desde cualquier otro estado.

Aperidica: Todos sus estados son peridicos con perodo 1.

Regular: Es posible ir de un estado a cualquier otro en exactamente n pasos: n>0/ (n)= n > 0.
Regular Todos los estados comunican Irreducible

Ergdica: Irreducible, aperidica, recurrente positiva.

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

18

Cadenas Absorbentes
Una cadena es absorbente si es posible renombrar sus
estados para escribir la matriz de probabilidades de
transicin como
Q R
=

0 I

11

22

33

tt

t+1
t+1

t+2
t+2

1
t+r
t+r

r estados absorbentes

(I Q )1 R

Q R
p Q (n + 1) p I ( n + 1) = p Q ( n) p I (n)

0 I
p Q ( n + 1) = p Q ( n)Q, p I ( n + 1) = p Q ( n)R + p I (n)

t estados transitorios

0
Q n Q n 1 + Q n 2 + L + I R
=

n
0
I

0
p ( n) = p Q ( n) p I ( n )
n

] [

p Q ( n) 0, p I ( n) p Q (0)(I Q ) R + p I (0)
1

t
09/11/2003

r
C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

19

Cadenas Reducibles e Irreducibles


Matriz Reducible

Matrices de Permutacin
P es una matriz de permutacin si exactamente 1 elemento en cada
fila y 1 elemento en cada columna es 1 y los restantes son nulos.

0 1 0
1 2
P = 1 0 0, P 2 = 1
0 0 1
3 3
permuta las filas de A
PA
permuta las columnas de A
AP
A' = P T AP
det P = 1

P1 , P2 MP P1 P2 MP

B C
A' = P T AP =

0 D
Test: A NN es irreducible sii:

Identidad de NN

Matriz de valores absolutos


Matriz positiva

(I

+ A)

N 1

>0

Permutacin de estados en una cadena de Markov

Permuta las filas y columnas de A

P T = P 1

A es una matriz reducible (irreducible) si (si no) existe alguna matriz de


permutacin P tal que:

' = PT P

Permutar filas y columnas de equivale a renombrar los


estados de la cadena

Cadena Reducible
Una cadena de Markov es reducible si es posible renombrar sus estados para
llevar la matriz de probabilidades de transicin a la forma
Q R
' = PT P =

0 A
En caso contrario, la cadena de Markov es irreducible.

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

20

Cadenas de Markov y Grafos


Grafo de una cadena
El grafo G(
) de es el grfico orientado sobre n nodos {N1, N2,..., Nn}
en el cual hay un arco orientado de Ni a Nj si y slo si ij0

Clase irreducible

Cambio de nombre de los nodos


Si P es una matriz de permutacin,

G (PT P ) = G ( )

Grafo fuertemente conexo


Para
Paracada
cadapar
parde
denodos
nodos(N
(Ni,i,NNj )j )existe
existeuna
unasecuencia
secuenciade
dearcos
arcos
a
N
.
orientados
que
conduce
de
N
i
j
orientados que conduce de N a N .
i

esesirreducible
irreducible

Todos
Todoslos
losestados
estadoscomunican.
comunican.La
Lacadena
cadenaconsiste
consisteenenuna
unanica
nicaclase
clase
dedeequivalencia.
equivalencia.

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

21

Descomposicin Espectral de una Matriz


A
nn es diagonalizable cuando tiene un conjunto completo
de autovectores linealmente independientes.

Avi = i v i

Autovector derecho

AT u i = i u i uTi A = i uTi

Autovector izquierdo

det(A I ) = det AT I

A y AT tienen iguales
autovalores

Avi = i v i uTj Avi = i uTj v i


T

j v i = 0 si i j
T
T
T
T
u j A = j u j u j Avi = j u j v i Autovectores derecho e
T
i

u vi 0
T
j

u v i = ij

izquierdo son biortogonales

Normalizacin

V = [v1 L v n ], U = [u1 Lu n ] Conjunto completo de autovectores


l.i. A es diagonalizable

= diag (1 , K, n )

AV = V V 1AV =
1
T
T
U =V U V=I
T
T
T
T 1
U A = U U A(U ) =
n

A = VV = VU = i v i uTi
1

i =1

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

Descomposicin espectral

22

Teorema de Perron-Frobenius
Teorema de Perron-Frobenius
Si A0 es irreducible, entonces
El radio espectral es un autovalor de A
(A ) (A )
El radio espectral es positivo
(A ) > 0
El radio espectral es un autovalor simple A
alg mult ( A) = 1
El autovector asociado al radio espectral es positivo.
x > 0 : Ax = (A )x
A :1 geo mult (A ) alg mult (A ) = 1 geo mult (A ) = 1
El autovector asociado al radio espectral es nico.

No existen otros autovectores no negativos aparte de x: Vector de Perron


y T A = (A)y T

El vector izquierdo de Perron tiene la misma propiedad.

Matriz primitiva
A0, irreducible es primitiva si tiene un nico autovalor r = (A) de mdulo
mximo (es decir, un nico autovalor sobre el crculo espectral).
A0, irreducible es imprimitiva de ndice h si tiene h autovalores de mdulo
mximo.
Test de Frobenius: A0 es primitiva sii Am>0 para algn m1.
n 2 n+ 2
>0
Test de Wielandt: A0 nxn es primitiva sii A
2

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

23

Matrices primitivas e imprimitivas


Si A0 es irreducible y primitiva, entonces tiene un
nico autovalor r = (A) sobre el crculo espectral.

Si A0 es irreducible e imprimitiva de ndice h, entonces


tiene h autovalores sobre el crculo espectral.

r = ( A)
B = A / r (B) = 1, (B) = {1 = (B) = 1, 2 ,K , n }

alg mult i = 1 i = 1, 2, K, h

i < 1 = 1 i = 2,K , n

Teorema: Los h autovalores de A sobre el crculo


espectral, son las races de orden h de (A)

Bx i = i x i

2ik
S = ( A) exp
: k = 0,1, K , h 1
h

y Tj B = j y Tj
n

B = i x i y Ti = x1y1T + i x i y Ti
i =1

lim B = lim (A / r ) = x y
k

En este caso, A/r no es convergente, pero es sumable Cesro:

i=2

09/11/2003

T
1 1

S = {1 = ( A), 2 ,K , h }

A/r es convergente

I + ( A / r ) + L + ( A / r ) k 1
lim
= x1y1T
k
k

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

24

Cadenas irreducibles y aperidicas


Propiedades generales de la matriz de
probabilidades de transicin
n 0 n 1

( ) = 1
1 = 1

(1, 1) es un par propio de

i >1

i >1

Matriz irreducible
Por el teorema de Perron-Frobenius, 1 es el vector
de Perron asociado al autovalor 1. No existe otro
autovector derecho no negativo. Para el mismo
autovalor, existe un nico autovector izquierdo p no
negativo tal que
Normalizacin

= 1p T + i v i u Ti

n = 1p T + ni v i u Ti

Radio espectral unitario

pT = p

Matriz irreducible y primitiva

i < 1 i > 1

Por ser primitiva, 1 es el nico autovalor sobre el


crculo espectral

lim k = 1pT

Todas las filas son iguales. Todas las columnas


tienen iguales elementos

lim pT (k ) = lim pT (0) k = pT (0)1pT = pT


k

La distribucin de probabilidades estacionaria es el vector izquierdo


de Perron.
La cadena es aperidica.

pT 1 = 1

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

25

Cadenas irreducibles y peridicas


Forma cannica de Frobenius para matrices
imprimitivas

Matriz irreducible e imprimitiva


I + + L k 1
= 1pT
k
k
pT (0) + pT (1) + L + pT (k 1)
= pT (0)1pT = pT
lim
k
k
lim

Si es imprimitiva de orden h>1, entonces existe una


permutacin tal que

Interpretacin
1 si el estado inicial es j
1 si el estado en tiempo n es j
Z0 =
, Zn =
0 si no
0 si no
k 1

: nmero de visitas al estado j antes del tiempo k .

/ k : fraccin de veces que el estado j es visitado antes del tiempo k .

n =0
k 1

0
0

PT P = M

0
h1

12
0
M
0
0

0 L
0
23 L
0
O O
M

L 0 h 1,h
L 0
0

La cadena es peridica de perodo h.

n =0

E ( Z n ) = 1 P( Z n = 1) + 0 P( Z n = 0) = P( Z n = 1) = p j (n)
k 1
k 1
k 1

E Z n / k = p j ( n) / k = p T ( n ) / k = p T
n=0
n =0
n =0
j

( )

La fraccin de tiempo a largo plazo que la cadena pasa en j es pj :


componente j del vector de Perron pT. La interpretacin vale tambin
cuando la matriz es primitiva y existe un estado estacionario.

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

26

Cadenas reducibles (1)


Cadena Reducible
Una cadena de Markov es reducible si es posible renombrar sus estados
para llevar la matriz de probabilidades de transicin a la forma
X Y
' = PT P =

0 Z

X11
R S T
0
X Y

0 U V L M
0
Z

0 0 W
0
Si X o Z es reducible
Si R, U o W es reducible, etc.

X12
X 22
M
0

L
L
O
L

11
0

X1k M

X 2 k 0

M 0

X kk 0
M

Cada Xii es irreducible o [0]1x1.

09/11/2003

12
22
M
0
0
0
M
0

Cada ii es irreducible o [0]1x1


i-sima clase transitoria: cuando se la abandona,
no se regresa a ella

L rr
L 2r
L M
L rr
L 0
L 0
L M
L 0

1,r +1
1, r + 2
2,r +1
2,r + 2
M
M
r ,r +1
r ,r + 2
r +1, r +1
0
0
r + 2,r + 2
M
M
0
0

L
L
L
L
L
L
O
L

1m
2 m
M

rm
0

0
M

mm

Forma cannica para


matrices reducibles

Cada r+j,r+j es irreducible.


j-sima clase ergdica. Cada clase
ergdica es una cadena irreducible en s
misma

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

27

Cadenas reducibles (2)


n

= 11

Cada ii es irreducible o [0]1x1


i-sima clase transitoria: cuando se la abandona, no se regresa a ella

( ii ) = 1 ii 1 = 1, pero

( ii ) < 1
ii 1 1 porque hay bloques ij , j i, no nulos

(11 ) < 1 lim


k

11
0

0
M

12 L rr
22 L 2 r
M

1,r +1
2,r +1

1,r + 2
2,r + 2

r ,r +1

r ,r + 2
0

L M
L rr

0
0

L
L

0
0

r +1,r +1
0

r + 2,r + 2

L
L

n 1

k 1
11

I + 11 + L +
k

L 1m
L 2 m
L
M

L rm 11

L
0 0

L
0
O
M

L mm

k
= lim 11
=0
k

i=0

12 n221i

n22

i
11

1 k 1 n 1 i
1 k 1 k i
1112 n221i = 11
12 n221i =

k n =1 i =0
k i = 0 n =i +1
I + 22 + 222 + L + 22k 1i
= 12
k
i=0
k 1

i
11

1 k 1 n 1 i
n 1 i
=(I 11 )12 L
1112 22

k k
n =1 i = 0

lim

12
22

1
I + + L + k 1 0 (I 11 ) 12 L
=
lim

k
k
L
0

1
0 (I 11 ) 12 L
lim k =

k
L
0

Siempre

Sii todas las


submatrices de 22
son primitivas

pTj jj = pTj , j = r + 1,K , m


1pTr+1

+L+

=
O M =L
k

1pTm

lim 22 = L si todas las submatrices de 22 son primitivas

Cada r+j,r+j es irreducible.


I + 22
j-sima clase ergdica. Cada clase ergdica es una cadena irreducible en s misma
lim
k
Los autovalores unitarios de cada r+j,r+j son simples y son races de la unidad.
Los autovalores unitarios de son el conjunto de los autovalores unitarios de las submatrices r+j,r+j .
k
Pueden estar repetidos por aparecer en ms e una submatriz r+j,r+j .

k 1
22

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

28

Cadenas reducibles (3)


11
0

0
M

12 L rr

1,r +1

1,r + 2

22 L 2 r
M L M

2,r +1
M

2,r + 2
M

r ,r +1
r +1,r +1

r ,r + 2
0

0
0

L rr
L 0

r + 2,r + 2

L
L

L 1m
L 2 m
L
M

L rm 11

0 0
L

L
0
O
M

L mm

I + + L + k 1 0 (I 11 ) 12 L
lim
=

k
k
L
0

0 (I 11 )1 12L
k
lim =

k
0
L

12
22

Siempre
Sii todas las
submatrices de 22
son primitivas

Cada r+j,r+j es irreducible.


j-sima clase ergdica. Cada clase ergdica es una cadena irreducible en s misma.
Toda cadena reducible eventualmente queda absorbida en una clase ergdica.
Si r+j,r+j es primitiva, la cadena llega a un estado estacionario determinado por el
vector izquierdo de Perron de r+j,r+j .
Si r+j,r+j es imprimitiva, la cadena oscila en la clase ergdica para siempre.

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

29

Valor medio y autocorrelacin en la cadena de Markov (t. discreto)


R(n, n + k ) = E ( X n X n + k ) = xi x j P ( X n+ k = j, X n = i ) =

p T ( n + k ) = p T ( n) k

lim p(n) = p

= xi x j P( X n + k = j / X n = i) P ( X n = i )

lim = 1p

= xi x j ij (k ) pi (n) =

x = [x1 x2 L x N ]

y (n) = [x1 p1 (n) x2 p2 (n) L x N p N (n)]

m X ( n) = E ( X n ) = xi pi (n) =pT ( n)x = pT (0) n x


i

m X = lim m X (n) = pT x = y T 1

= y T ( n ) k x y T k x = R ( k )
n

lim y (n) = y

R (n, n) = y T (n)x = pi (n) xi2 = E ( X n2 ) = m X2 (n)


i

R( k ) = y T k x y T 1pT x = m X2
k

C ( k ) = R (k ) m X2 = y T ( k 1pT )x

C (0) = y T (I 1pT )x = y T x y T 1pT x = E ( X 2 ) m X2 = X2

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

30

Cadenas de Markov en Tiempo Continuo


Cadenas homogneas

ij(t1, t2)

t2 t1 = ,

ai

( + ) = ( ) ( )
aj

t1

Ecuaciones de Kolmogorov
t2

Puntos de Poisson

Cadena de Markov en tiempo continuo: Los cambios de


estado ocurren en los puntos aleatorios Tn.

(t1 , t 2 )1 = 1
pT (t 2 ) = pT (t 2 ) (t1 , t 2 )
(t1 , t3 ) = (t1 , t 2 ) (t 2 , t3 )

Matriz de velocidad
de cambio de la
probabilidad de transicin

t3 t2 =

Propiedades bsicas

(t + ) = (t ) ( )
d (t + )
d ( )
= (t )
d
d
& (t + ) = (t )
& ( )

& (t ) = (t )
& (0)

& ( ) =
& (0 + )
= lim
0 +

& (t ) = (t )

pT (t ) = pT (0) (t )
& (t ) = pT (0) (t ) = pT (t )
p& T (t ) = pT (0)

Solucin

(t ) = e t
p T (t ) = pT (0) (t ) = pT (0) e t

1 0 L 0
0 1 L 0

(0) = I =
L L L L

0 0 L 1
Condicin inicial

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

31

Ecuaciones de Balance Global


Solucin en estado estacionario

kk

p(t ) = p = cte. p& (t ) = 0


T

p =0

Sistema de ecuaciones homogneas

pT 1 = 1

Condicin adicional

ij

ii

ji

Ecuaciones de balance global

piij = 0 pi ij = p j jj
i j

ji = 1 ji = 0 jj = ji
i

p j ji = piij
i j

ll

i j

i j

Flujo
Flujo de
de velocidad
velocidad de
de probabilidad
probabilidad
saliente
de
j
saliente de j

09/11/2003

jj

Flujo
Flujo de
de velocidad
velocidad de
de probabilidad
probabilidad
entrante
a
j
entrante a j

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

32

Evolucin de la cadena en tiempo continuo


(t ) = e

vi = i vi

p(t ) = p(0) (t ) = p(0) e t


(t )1 = 1
& (t )1 = 0

1 = 0
pT = 0

uTi = iuTi
uTi v j = ij

U = [u1 LuN ], V = [v1 LvN ]


UT V = I
k = ki viuTi
i

f () = f (i )viuTi
i

1 = 0 > 2 > L> N

et = eit viuTi = 1pT + eit viuTi = 1pT


i

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

i>1

33

Valor medio y autocorrelacin en la cadena de Markov (t. continuo)


R (t1 , t 2 ) = E ( X (t1 ) X (t 2 )) = xi x j P ( X (t 2 ) = j , X (t1 ) = i ) =

(t ) = exp(t )

pT (t + ) = pT (t ) ( ) = pT (t ) exp( )
lim p(t ) = p
t

lim (t ) = 1pT

= xi x j P ( X (t 2 ) = j / X (t1 ) = i ) P ( X (t1 ) = i )
i

= xi x j ij (t1 , t 2 ) pi (t1 ) =
i

R(t , ) = xi x j ij ( ) pi (t ) =

x = [x1 x2 L x N ]

y (t ) = [x1 p1 (t ) x2 p2 (t ) L xN p N (t )]

= y T (t ) ( )x y T ( )x = y T e x = R ( )
n

lim y (t ) = y

R (t , t ) = y (t )x = pi (t ) xi2 = E ( X 2 (t )) = m X2 (t )
T

m X (t ) = E ( X (t )) = xi pi (t ) =pT (t )x = pT (0) (t )x
i

m X = lim m X (t ) = pT x = y T 1
t

R( ) = y T ( ) x y T 1pT x = m X2
k

C ( ) = R ( ) m = y T ( ) 1pT x

2
X

C (0) = y T I 1pT x = y T x y T 1pT x = E ( X 2 ) m X2 = X2

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

34

Ejemplo : Proceso de Poisson


Otra forma de obtener la matriz :

ij (t ) = P[ X (t ) = j / X (0) = i ] =
= P[ j i puntos en [0, t ]] =
et

0
=
0

t e t
e t
0
L


0
& (0 + ) =
=
0

(t ) 2 e t / 2!
L
t e t
(t )2 e t / 2!
t e t
e t
L
L

0

0
L L

ii ( ) = P[ X ( ) = i / X (0) = i ] =
= P[T1 > ] = 1 P[T1 ] =

(t ) j i t
e
( j i)!

L
L

L
L

ii = &ii (0) =
i ,i +1 = &i ,i +1 (0) =

= 1 FT1 ( ) = e

i ,i +1 ( ) = P[ X ( ) = i + 1 / X (0) = i] =
= P[T1 ] = FT1 ( ) = 1 e
Solucin de p& (t ) = p(t )

p (0) = [1 0 0 L]

Condicin
inicial

p& 0 (t ) = p0 (t ) p0 (t ) = e t
p&1 (t ) = p0 (t ) p1 (t ) = e t p1 (t ) p1 (t ) = t e t
L
(t ) n t
p& n (t ) = pn1 (t ) pn (t ) pn (t ) =
e
n!

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

35

Ejemplo : Seal binaria aleatoria


a
-a

-b

01 ( ) = P[X ( ) = 1 / X (0) = 0] = P[1 punto en `[0, ]] = 1 e a

10 ( ) = P[X ( ) = 0 / X (0) = 1] = P[1 punto en `[0, ]] = 1 e b


e a
( ) =
b
1 e

1 e a

e b

a a
& (0) =
=

b b
b + a e ( a+b)t

a+b
e t =
b

1 e ( a + b )t
a + b

09/11/2003

b
p=
a + b

a
a + b

a
a + b
a
E ( X (t )) = pT x =
a+b

y = 0

a
1 e ( a+b)t
a+b

a + b e ( a +b )t

a+b
b

ap0 = bp1 p0 = a + b
p T = 0

pT 1 = 1
p0 + p1 = 1 p1 = a
a+b

x = [0 1]

Puntos de Poisson

ab
a
R( ) = y e x =
e ( a +b )
+
2
a + b (a + b )
T

= m X2 + X2 e ( a +b )
C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

36

Ejemplo: Cola M/M/1 (1)


Clientes atendidos de a uno por vez en orden de llegada
Tiempo entre arribos distribuido exponencialmente con parmetro .
Tiempo de servicio de un cliente distribuido exponencialmente con
parmetro .

j , j +1 ( ) = P( X ( ) = j + 1/ X (0) = j ) =
= P(1 arribo en [0, ]) = ( ) e + o( )
j , j + 2 ( ) = P( X ( ) = j + 2 / X (0) = j ) =
2

= P(2 arribo en [0, ]) = ( ) e


j , j 1 ( ) = P( X ( ) = j 1/ X (0) = j ) =

/ 2! o( )

&
= (0) =
0

( + )

( + )
L
L

p
=0
p0 + p1 = 0
p j 1 ( + ) p j + p j +1 = 0

= P(1 partida en[0, ]) = ( ) e + o( )


jj ( ) = P( X ( ) = j / X (0) = j ) =
= P(0 arribo y 0 partida en [0, ]) + P (1 arribo y 1 partida en [0, ]) + L =

p1 = p0
p j 1 + p j +1 = ( + ) p j

j=0
j = 1,2,...

j=0
j = 1,2,...

= e e + e e 1 ( + ) + o( )
Flujo entrante

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

Flujo saliente

37

L
L

Ejemplo: Cola M/M/1 (2)

00

11

p1 = p0
p j 1 + p j +1 = ( + ) p j

22

j=0
j = 1,2,...

jj

j+1
j+1

p0 p1 = 0
p j 1 p j = p j p j +1 = cte.

cte. = 0 p j p j +1
j 1

p j = ( / ) p j 1 = p j 1

p0 p j = (1 )
j
1 = p j = p0 =
1
j =0
j =0
p j = n p0

09/11/2003

= / <1 <

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

La tasa de arribos debe ser menor


que la velocidad de servicio; de
otro modo, la cola crece sin lmite.

38

Ejemplo: Proceso de Nacimiento y Muerte General


Transiciones limitadas a estados adyacentes.
Los arribos ocurren como un proceso de Poisson de tasa
. Los tiempos entre arribos son vv.aa. exponenciales iid
con media 1/ .
El tiempo entre desapariciones est distribuido
exponencialmente con media 1/ .

Ecuaciones de balance global

1 p1 = 0 p0
j 1 p j 1 + j +1 p j +1 = ( j + j ) p j

j=0
j = 1,2,..., N - 1

N 1 p N 1 = N p N

j=N

Solucin de las ecuaciones de balance global


0
00

1
11

2
22

jj
3

N-1

j-1

j+1
j+1
j+1

N
N
N

1 p1 0 p0 = 0
j 1 p j 1 + j +1 p j +1 ( j + j ) p j = cte. = 0
N 1 p N 1 N p N = 0

j=0
j = 1,2,..., N - 1
j=N

i 1

pi = i 1 pi 1 =
i

i =0
i

p0
i

i =1

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

39

Ejemplo: Proceso de Poisson Modulado por Markov (MMPP)


Modelo para voz en paquetes.
Duracin del intervalo de silencio: fdp
exponencial, 1/ = 600 mseg.
Duracin del intervalo de habla: fdp exponencial,
1/ = 400 mseg.

Modelo para N fuentes

00

11

22

jj

11 habla

i 1

pi =

V paquetes/seg

i 1
pi 1 =
i

i=0
i

p0
i

i =1

p0

p0 + p1 = 1

p1 = p0 p1 =

09/11/2003

N
N
N

Probabilidad que i fuentes


entre N estn activas

00

j+1
j+1
(j+1)

Modelo para una fuente nica

silencio

(j)

(1)

= 0.6
+

p1 =
= 0.4
+
p0 =

i = ( N i ) , i = i
N

i=0

=1

N
pi = 1 +
i

E (i ) = N
+

var(i ) = N
( + )2

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

=
i +

Nmero medio de
fuentes activas

40

N i

Ejemplo : Modelo MMPP del multiplexado estadstico de voz (1)


Aplicacin: Multiplexado Estadstico de Voz
Describe el comportamiento de multiplicadores de
tramas (DCME).
Prxima generacin de DCME soportada por AAL2.
Duracin del intervalo de silencio: fdp exponencial,
1/ = 600 mseg.
Duracin del intervalo de habla: fdp exponencial,
1/ = 400 mseg.

N fuentes
de voz

MUX
Estadstico

Capacidad del canal:


C canales de voz
equivalentes

pi =
i +

p0 =
= 0.6,
+
E (i ) = Np1

N i

N

= p1i p0N i

i
+

p1 =
= 0.4
+

Probabilidad que i fuentes


entre N estn activas

var(i ) = Np0 p1
Promedio de trfico recortado
Promedio de trfico total
N
n
Promedio de trfico recortado = r (k ) p k (1 p ) N k
k =0
k
F ( N , C , p1 ) =

k C
r (k ) =
0
F ( N , C , p1 ) =

09/11/2003

k >C
k C
n
1 N
(k C ) p k (1 p ) N k

Np1 k = 0
k

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

41

Ejemplo : Modelo MMPP del multiplexado estadstico de voz (2)


Freeze Out Fraction
30

Freeze Out Fraction

F ( N , C , p1 ) =

n
1
(k C ) p k (1 p ) N k

Np1 k =0
k
N

25

Capacidad del Canal (C)

MUX
Estadstico

N fuentes
de voz

Capacidad del canal:


C canales de voz
equivalentes

20

15

0.1 %
0.5 %
1.0 %
5.0 %
10.0 %

10

0
0

10

20

30

40

50

60

Nmero de Fuentes de Voz (N)

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

42

Ejemplo : Modelo MMPP del multiplexado estadstico de datos (1)


Aplicacin: Multiplexado Estadstico de Datos
Caracterizacin de una fuente
Duracin del intervalo OFF: fdp exponencial, 1/ = tOFF.
Duracin del intervalo ON: fdp exponencial, 1/ = tON.
Burstiness: vel. pico/vel. promedio.
T

1
1
rm = r (t )dt = rp tONi = rp P (ON )
T 0
T i
P(ON ) = p1 = rm / rp
b = rp / rm = 1 / p1

Probabilidad de actividad
de la fuente
Burstiness

G = N / C
G = Nrp / rc = N > 1
C = rc / rp

Rfaga perdida o retrasada

rp

rc

rm

Ganancia de
multiplexado estadstico

Se debe cumplir la condicin de estabilidad:

S=

Capacidad del canal:


C canales
Velocidad del canal: rC

MUX
Estadstico

N fuentes

Entradas

Narribos L Nrm Nrp pON Nrp


=
=
=
<1
rc
rc
rc
brc

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

43

Ejemplo : Modelo MMPP del multiplexado estadstico de datos (2)


i

pi =
i

+
+

, p1 =
p0 =
+
+
E (i) = Np1

N i

N
= p1i p0N i Probabilidad que i fuentes entre N
estn activas
i

pi
Np1 (1 p1 )

Np1 C

Aproximacin gaussiana a la distribucin binomial

var(i) = Np1 (1 p1 )
PL = Q ( )

Probabilidad de prdida

C Np1 + Np1 (1 p1 )

Nmero de canales para la


prob. de prdida PL

C = 1/
0 = Np1 + 1 p1 Np1 1 /
Np1 =

1 p1 1

2 (1 p1 ) + 4 /
2
2

09/11/2003

Throughput
normalizado

2 (1 p1 ) + 4 / 1 p1
4 p1
(Grc / rp )rm Grm
Nr
S= m =
=
= Gp1
rc
rc
rp

G = N =

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

44

Ejemplo : Modelo MMPP del multiplexado estadstico de datos (3)


Ganancia de Multiplexado Estadstico

Ganancia

10.00
8.00
6.00

Throughput

Prob. prdida = 10-6

12.00

b=2
b=4
b=8
b=12
b=16
b=20

0.90
0.80

b=2
b=4
b=6
b=8
b=10
b=12
b=14
b=16
b=18
b=20

16.00
14.00

Throughput Normalizado

4.00
2.00

0.70
0.60
0.50
0.40
0.30
0.20
0.10
0.00

0.00
0

0.05

0.1

0.15

0.2

0.25

0.3

Relacin vel. pico/vel. enlace

G = N =

09/11/2003

4 p1

[ (1 p ) + 4 /
2

0.05

0.1

0.15

0.2

0.25

0.3

Relacin vel. pico/vel. enlace

1 p1

S=

Nrm (Grc / rp )rm Grm


=
=
= Gp1
rc
rc
rp

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

45

Ejemplo : Modelo MMPP del multiplexado estadstico de datos (4)


Ganancia de Multiplexado Estadstico
30.00

Ganancia

N=30

Prob. prdida 10-2

25.00

b=32

25

20.00

0.00

4 p1
G = N

G=

[ (1 p ) + 4 /
2

15
16

10.00
5.00

20

24

15.00

Solucin simultnea de las


ecuaciones

10

12
6
2

0.2

0.4

0.6

0.8

Relacin vel. pico/vel. enlace


09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

46

1 p1

Utilidad de los modelos de Markov

El modelo de Poisson es apropiado si


hay un gran nmero de usuarios
similares e independientes.
Si se combinan n procesos de arribos
iid, no necesariamente Poisson de tasa
/n,

La tasa de arribos del agregado es .


El proceso agregado se aproxima a un
proceso de Poisson de tasa cuando
n en condiciones bastante amplias.

PASTA: Poisson Arrivals See Time


Averages

09/11/2003

La distribucin exponencial no tiene


memoria.

Lo que ocurre despus del tiempo t es


independiente de lo que ocurri antes
de t.
El conocimiento del pasado no sirve
para predecir el futuro.

Para los tiempos de servicio:


P(s>r+t / s>t) = P(s>r)
El tiempo adicional necesario para
completar el servicio del cliente que
est siendo atendido, es independiente
de cundo comenz el servicio.

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

47

Teora de Colas

Teorema de Little
Cola M/M/1
Cola M/M/1/K
Cola M/M/c. Frmula Erlang-C
Cola M/M/c/c. Frmula Erlang-B
Cola M/M/N/N/N

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

48

Introduccin
Teora de Colas: Tipos de problemas y soluciones.
Introduccin a las colas de espera.
Fundamentos: Probabilidad, estadstica, procesos
aleatorios.

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

49

Tipos de problemas y soluciones (1)


Usuario
Usuario11
Recursos
Recursoscompartidos
compartidos
Usuario
UsuarioNN

El modelo de una cola de espera generalmente se


usa para representar un sistema de recursos
compartidos.

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

50

Tipos de problemas y soluciones (2)


Flujo entrante
Clientes que arriban

Cola
Lnea de espera

Servidor
Cabeza de lnea

Flujo saliente
Clientes atendidos

Bloqueo,
prdida o desborde

Concepto bsico:
Los clientes llegan para ser atendidos. Si todos los servidores estn ocupados, el cliente
espera en la cola y es atendido despus.
Parmetros: tasa de arribos, velocidad de atencin, nmero de servidores, capacidad de la
cola...
Medidas: tiempo de espera, utilizacin de los servidores, tamao de la cola, probabilidad de
rechazo...
09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

51

Ejemplos
Sistema

Clientes

Servidor

Procesador

Programas o procesos

CPU, disco, dispositivos


I/O, bus...

MUX estadstico

Paquetes o celdas

Enlace de comunicaciones

Conmutador de circuitos

Llamadas

Canales

Red de acceso mltiple


(LAN, LAN inalmbrica)

Paquetes o tramas

Medio (FO, UTP, RF)

Servicios Web

Requerimientos de cliente

Web server

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

52

Objetivos y mtodos
Objetivos

Mtodo

Predecir la performance del


sistema.
Determinar cmo
9 Dimensionar el sistema (ancho de
banda)
9 Controlar la entrada

Anlisis de un modelo matemtico.

Simulacin.

Medicin de sistemas reales.

para obtener la performance


requerida, en trminos de:
9 Grado de servicio (GoS)
9 Retardo

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

53

Factores
Bsicos

Tasa de arribos.
Tiempo de servicio.
Nmero de servidores.
Longitud mxima de la cola (tamao del buffer).

Otros

Tamao de la poblacin.
Disciplina de servicio (FCFS, LCFS, prioridades, vacaciones).
Modelo de carga de trabajo (trfico).
Comportamiento del cliente: Desistir, abandonar, ...

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

54

Modelos de trfico
Voz
Video CBR

Dependencia
de corto alcance

Poisson
Modelos de regresin

Datos en paquetes
Imgenes

Modelos
de trfico
Dependencia
de largo alcance

Video VBR

F-ARIMA (Fractional
AutoRegressive Integrated
Moving Average)
FBM (Fractional Brownian
Motion)
...

Dificultad del modelo

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

55

Modelo de switch o de router


Link

Port

Port

Router / Switch

Router / Switch

Tasa de arribos

Paquetes/seg

09/11/2003

Tamao del Buffer

B paquetes
L bytes/paquete

Tasa de servicio

Velocidad de Transmisin
R bits/seg

= R/8L
Paquetes/seg

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

56

Componentes del Retardo

Procesamiento:

Cola:

Transmisin:

Propagacin:

Tiempo desde que el


paquete es recibido hasta
que se le asigna un enlace
de salida.

Tiempo desde que al paquete


se le asigna un enlace de salida
hasta que comienza la
transmisin (tiempo de espera).

Tiempo entre la
transmisin del
primer bit y el
ltimo bit del
paquete.

Tiempo desde que el ltimo


bit es transmitido por la
fuente hasta que el ltimo bit
es recibido por el receptor.

Dependen de la carga de trfico


y el tamao de los paquetes

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

57

Tipos de Colas
Notacin de Kendall

A/S/M/K/N/Q
Distribucin del tiempo entre arribos:
M: exponencial (Markov)
D: determinstica (constante)
G: General
Distribucin del tiempo de servicio:
M: exponencial (Markov)
D: determinstica (constante)
G: General
Nmero de servidores

09/11/2003

Disciplina de servicio:
FIFO, LIFO, prioridad,...
Tamao de la poblacin.
Puede ser finito o infinito.

Tamao mximo de la cola,


longitud del buffer o
capacidad de almacenamiento.

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

58

Teora de Colas

Teorema de Little
Cola M/M/1
Cola M/M/1/K
Cola M/M/c. Frmula Erlang-C
Cola M/M/c/c. Frmula Erlang-B
Cola M/M/N/N/N

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

59

Teorema de Little
Tk

k =1

N (t )

D(t): partidas

T1

N(t)=A(t)-D(t): nmero de clientes en el sistema

A (T )

N (t )dt =

A(t): arribos

T2

Tk

1T
1
= N (t )dt =
T0
T

A (T )

A(T ) 1 A(T )
A(T )
Tk = T A(T ) Tk = T Tk
k =1
k =1

A(T )
= T
T
N (t )

Nmero medio de clientes


en el sistema

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

= T Tk

E ( N ) = E (T )

Tasa de
arribos

Tiempo medio de
permanencia en el
sistema

60

Teorema de Little: Aplicacin


Flujo entrante

Cola

Clientes que arriban

T =W + S
E (T ) = E (W ) + 1/
E( N ) = E( Nq ) + / =
= E( Nq ) +

++
E(W)

09/11/2003

Nq

clientes en la cola

Tiempo de espera
en la cola

Tiempo de
servicio

N
E(T)

E ( N q ) = E (W )
Tiempo medio de servicio:
E ( N ) = E (T )
E(S) = 1/ seg/cliente
Little means a lot!

clientes/seg

1/
1
E (T ) =
=
1

Flujo saliente

Cabeza de lnea Clientes atendidos

Lnea de espera

E (W ) = E ( N )(1 / ) = E (T ) / = E (T )
E (T ) = E (W ) + 1 / = E (T ) + 1 /

1/

Servidor

clientes en el sistema

T
Tiempo en el sistema
o retardo

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

61

Tipos de Colas
Notacin de Kendall

A/S/M/K/N/Q
Distribucin del tiempo entre arribos:
M: exponencial (Markov)
D: determinstica (constante)
G: General
Distribucin del tiempo de servicio:
M: exponencial (Markov)
D: determinstica (constante)
G: General
Nmero de servidores

09/11/2003

Disciplina de servicio:
FIFO, LIFO, prioridad,...
Tamao de la poblacin.
Puede ser finito o infinito.

Tamao mximo de la cola,


longitud del buffer o
capacidad de almacenamiento.

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

62

Cola M/M/1 (1)


Sistema de un nico servidor.
Clientes atendidos de a uno por vez en orden de llegada.
Los clientes arriban como un proceso de Poisson de tasa
. Los tiempos entre arribos son vv.aa. exponenciales iid
con media 1/ .
Tiempo de servicio de un cliente distribuido
exponencialmente con media 1/ .
El sistema puede acomodar un nmero ilimitado de
clientes.

Solucin de las ecuaciones de balance global

= / <1
p j = (1 ) j = P[ N (t ) = j ]

, var( N ) = N2 =
1
(1 ) 2
1/ E ( S )
1
E( N ) 1
E (T ) = T =
=
=
=
=

1 1 1
E(N ) = N =

E (W ) = W = T S =

00

11

22

jj

j+1
j+1

S
S =
S
1
1

2
E ( N q ) = N q = W =
S=
1
1
E ( N s ) = N s = S = (1/ ) =
P(servidor ocupado) = 1 p0

p1 = p0
p j 1 + p j +1 = ( + ) p j
09/11/2003

j=0
j = 1,2,...

Ecuaciones de
balance global

P(servidor ocupado) = N s

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

= 1 p0

63

Cola M/M/1 (2)

E(N)

20

20

15

15

10

E(T)

0
0

0,2

0,4

E (N ) =

09/11/2003

10

0,6

0,8

0,2

0,4

0,6

0,8

E (T ) =

E (S ) 1/
=
1 1

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

64

Aplicacin: Multiplexado de trfico


Capacidad de transmisin del canal: C bit/seg.
M flujos de trfico de Poisson de tasa /M comparten el canal.
Longitud de paquetes distribuida exponencialmente con media L.

FDM, TDM
Se crean M canales separados, cada uno de capacidad C/M.
En FDM, el retardo de transmisin es ML/C.
En TDM, el retardo de transmisin es ML/C si el paquete es mucho
ms largo que 1 TS. Si L = 1 TS, el retardo de transmisin es L/C,
pero debe esperar (M-1) tiempos de TS entre transmisiones.

09/11/2003

Retardo de transmisin del canal

Estadstico
Los paquetes de cada flujo se combinan en una sola cola y se
transmiten con un ordenamiento FCFS.

/M

C/M

/M

/M

C/M

/M

/M

C/M

/M

C/M
=
L
M
M
1
=
T =
/M /M
i =

1 L
=
C

Un
Unpaquete
paquetetarda
tardaMMveces
vecesms
msenenlalacola
colayyenenser
serservido
servidoenenTDM
TDMooFDM,
FDM,que
queenen
multiplexado
estadstico.
multiplexado estadstico.
Sin
Sinembargo,
embargo,lavarianza
lavarianzadel
delretardo
retardoesesmenor
menorenenTDM
TDMooFDM.
FDM.
TDM
y
FDM
malgastan
capacidad
del
canal
cuando
un
flujo
TDM y FDM malgastan capacidad del canal cuando un flujononotiene
tienetrfico,
trfico,pero
pero
eliminan
la
necesidad
de
identificar
a
qu
flujo
pertenece
cada
paquete.
eliminan la necesidad de identificar a qu flujo pertenece cada paquete.
C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

C
L

T =

1

65

Cola M/M/1/K (1)


Cola M/M/1 con capacidad finita. El sistema puede
contener hasta K clientes. Los que llegan cuando el
sistema est lleno, son devueltos.
pj

00

11

22

p0 = p1
p j 1 + p j +1 = ( + ) p j
pK 1 = pK

K-1
K-1

0
K
K

j =0
j = 1,2,L.K 1
j=K

p j = p j 1 = p0
1

K
j
1 K +1 p j =
K +1
1 = p j = p0
1
1
j =0
j

09/11/2003

j = 0,L, K

<1
K

=1
pj

pj
0

>1

( K + 1) K +1

1
1 K +1
1
Probabilidad de bloqueo
PB = P( N = K ) = pK =
K
K +1
1
B = PB
Tasa de rechazos
Tasa efectiva de arribos
A = B = (1 PB )
Carga ofrecida
E ( N ) = E ( S ) =
E(N ) =

1
1 K
E ( N A ) = A E ( S ) = (1 pK ) =

1 K +1

Carga satisfecha

E(N )
E(N )
1 1
( K + 1) K 1 K +1
E (T ) =
=
=

A
(1 PB ) 1 1 K +1 1 K

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

66

Cola M/M/1/K (2)


1

10

K=10

K=10

0,8

K=2

A/

0,6

E(T)
0,4

0,2

K=2
0

0,5

1,5

A =

09/11/2003

0,5

1,5

1
1
=
K +1
1
1 K +1

E ( N A ) = A /

1 1
( K + 1) K 1 K +1

E (T ) =

1 1 K +1 1 K

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

67

Ejemplo: Dimensionamiento de un buffer


Capacidad del buffer requerida

1,00E+00

200

1,00E-01

180

1,00E-02

160

1,00E-03

140

1,00E-04

= 0.9

1,00E-05

0.5
0.7

1,00E-06

0.8

0.8

0.9

1,00E-07

0.7

1,00E-08

120
100
80
60
40

0.5

1,00E-09

Capacidad

P(overflow)

Probabilidad de "overflow"

20

1,00E-10

0
0

20

40

60

80

100

120

140

160

180

200

0,0

0,1

0,2

0,3

Tamao del buffer

PB = P( N = K ) = pK =

0,4

0,5

0,6

Carga ofrecida

0,7

0,8

0,9

1
K
K +1
1

B = PB
A = B = (1 PB )
09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

68

1,0

Cola M/M/c (1)


El nmero de servidores es c. La tasa de partidas es k cuando
k servidores estn ocupados, pues:
k servidores ocupados tiempo hasta la prxima partida T = min(T1,LTk )
P(T > t ) = P[min(T1,L, Tk ) > t ] =

aj
p0
j!
c
j c a
pj =
p0
c!

= P(T1 > t )L P(Tk > t ) =


=e

Le

=e

pj =

k t

k
k servidores ocupados tasa de partidas =
c

00

11

09/11/2003

22

p0 = p1
p j 1 + ( j + 1) p j +1 = ( + j ) p j
p j 1 + cp j +1 = ( + c ) p j

k <c
k c

c-1
c-1

3 (c-1)

c+1
c+1

j = 0,L , c
j c +1
1

cc

j=0
j = 1,L, c
j c +1

c 1 a j a c 1

p0 = +

j
!
c
!
1

j =0
a=/
Nmero medio de servidores ocupados
= / c = a / c < 1
Ocupacin de 1 servidor

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

69

Cola M/M/c (2)

P(W > 0) = P( N c) = j c pc =
j =c

pc
= C (c, a )
1

1 a c c 1 a j a c 1
C (c, a ) =
+
1 c! j =0 j! c! 1

E ( N q ) = ( j c) p j = ( j c) j c pc =
j =c

E( Nq )

j =c

C ( c, a ) C ( c , a )
=
c (c a)

C (c, a ) 1
E (T ) = E (W ) + E ( S ) =
+
(c a )

E ( N ) = E (T ) = E (W ) + = E ( N q ) + a

E (W ) =

09/11/2003

C ( c, a )
1

Probabilidad de encontrar todos los c servidores ocupados y tener que


esperar en la cola: frmula Erlang C.

Nmero medio de clientes en la cola.

Tiempo medio de espera en la cola.


Tiempo medio total en el sistema (retardo).
Nmero medio de clientes en el sistema.

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

70

Frmula Erlang-C

1 a c c 1 a j a c 1
+

C ( c, a ) =
1 c! j =0 j! c! 1
09/11/2003

Probabilidad de encontrar todos los c servidores ocupados y tener que


esperar en la cola: frmula Erlang C.

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

71

Frmula Erlang-C: Tiempo de espera

E (W ) =
09/11/2003

E(Nq )

C ( c , a ) C ( c, a )
=
c (c a)

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

72

Ejemplo: Call Center


Ejemplo
Un call center recibe 600 llamadas por hora, con una duracin media
de 3. El operador trabaja durante 20 despus de cada llamada. Se
quiere que el tiempo medio de espera sea 20. Obtener el nmero
de operadores necesario.
a = (600/3600) (360+20) = 33.33 Erlang
E(W) = 20/(360) = 0.111 (Tiempo de espera normalizado)
E(W) =C(c,a)/(c-a)
0.111 = C(c,33.33)/(c-33.33)
c = 36 operadores.

09/11/2003

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

73

Ejemplo: Retardo en acceso DVB-RCS


Internet access (browsing)
Assumptions:
Users:
Internet usage/month/user
Day-to month ratio
BH-to-day ratio

1000
20 h
1/20
1/10

Pages/session
36
Page size
50 Kbyte
Page delivery time
2 sec
Page view time
60 sec
Mean upstream packet length
80 Byte
Mean downstream packet length
560 Byte
Simultaneous session in BH
100 i.e. 10 % users
Protocol: TCP/IP with 560 bytes/OB packet and 80 bytes/IB packet.

Peak dnstream thput in BH/user


Peak upstream thput in BH/user
Session duration
Mean thput/user
Mean upstream thput in BH
Mean dnstream thput in BH
Upstream packets in BH
Dnstream packets in BH

DVB-S BASIC ACCESS PROFILE BA1

Forward max (Kbps)


Forward min (Kbps)
Return max (Kbps)
Return min (Kbps)
Unav/month (%)
Activity MBH (%)

09/11/2003

256
8
16
2
0.1
20

Qty.
200.0
28.6
37.2
6.5
92.2
645.2
147.5
147.5

Unit
Kbit/s
Kbit/s
sec
Kbit/s
Kbit/s
Kbit/s

Trfico elstico NRT - transferencia de archivos.


Proceso de arribo de archivos: Poisson con tasa .(archivos/seg)
Tamao medio de archivo: L (bits)
Max. Bitrate de una terminal: rb (bit/seg)
Ancho de banda (capacidad total) disponible: C (bit/seg).
Objetivo: Garantizar un tiempo medio de transferencia E(T), o bien un determinado throughput promedio L/E(T) para
todas las transacciones.

C (c , a ) 1 1 C (c , a )
+ = 1 +

ca
(c a )
= rb / L, c = C / rb , a = L / rb

E (T ) = E (W ) + E ( S ) =

Downstream :
Pag/session *(2+60)/60
PageSize*8/(2+60)
Mean dnstream thput*80/560
MeanThput/user*10 users
(50*1024/560)*10/(4+60)

BA2 BA3 BA4 BA5 BA6 BA7


256 256 512 1024 2048 4096
16
32
64 128 256 512
32
64 128 256 512 1028
4
8
16
32
64 128
0.1
0.1
0.1
0.1
0.1
0.1
20
20
25
25
25
30

E (T ) =

Byte
bits
rb Kbit/s
paq/s
paq/s
a Erlang

Downstream
560.0
4,480.0
256.0
57.1
147.5
2.6

Upstream
80.0
640.0
32.0
50.0
147.5
2.9

Upstream :
E (T ) =

BA8
4096
1024
1028
256
0.1
30

1 C (c,2.6)
C (c,2.6)
< 16.1 c = 4
< 0.3
1 +
57.1
c 2.6
c 2.6

1 C (c,2.9)
C (c,2.9)
< 15.0 c = 4
1 +
< 0.3
50.0
c 2.9
c 2.9

Para mantener acotado el retardo, se necesitan


4256 = 1024 Kbit/s downstream
432 = 128 Kbit/s upstream.
Comparar con los valores de throughput medio:
645.2 Kbit/s downstream
92.2 Kbit/s upstream
.

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

74

Cola M/M/c/c
La capacidad de la cola es igual al nmero total de servidores.
Los clientes que arriban cuando todos los servidores estn
ocupados, son devueltos.
a =/
Carga ofrecida
pj =

a
p0
j!

00

11

22

c-1
c-1

3 (c-1)

cc
c

j = 0,L, c

c aj
1 = p j p0 =
j =0
j =0 j!
c

Probabilidad de que los c servidores estn ocupados =


ac
a c / c!
P ( N = c ) = pc =
= B(c, a) = PB probabilidad de bloqueo: Frmula Erlang B
p0 =
c!
1 + a + a 2 / 2!+ L + a c / c!
Tasa efectiva de arribos
A = pc = [1 B(c, a)]

A
= a[1 B (c, a )]

A a[1 B(c, a)]


=
= [1 B (c, a)] = [1 B (c, a)]
c
c
c

E ( N ) = A E ( S ) = [1 B (c, a)]

09/11/2003

Carga soportada por cada servidor = utilizacin

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

75

Frmula Erlang-B
Frmula Erlang-B

Frmula Erlang-B
20

50
0.1%

18

45

0.5%
16

5.0%

35
Nmero de circuitos

14
Nmero de circuitos

40

1.0%

10.0%

12

20.0%

10
8

0.5%
25

1.0%
5.0%

20

15

10

0.1%

30

10.0%
20.0%

0
0,0

1,0

2,0

3,0

4,0

5,0

6,0

7,0

8,0

9,0

10,0

0,0

5,0

10,0

15,0

Trfico total ofrecido (Erlang)

20,0

25,0

30,0

35,0

40,0

45,0

Trfico total ofrecido (Erlang)

a c / c!
a c / c!
=
P ( N = c) = B (c, a) = PB =
1 + a + a 2 / 2!+ L + a c / c! c k
a / k!
k =0

B (c + 1, a) =
09/11/2003

aB(c, a)
c + 1 + aB(c, a )

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

76

50,0

Cola M/M/N/N/N
El nmero de servidores es N. La tasa de partidas es k
cuando k servidores estn ocupados.
La cantidad de fuentes (o tamao de la poblacin) es
N. La tasa de arribos es (N-i) cuando hay i fuentes
activas.
Es un modelo idntico al MMPP.

00

11

(j)

(1)
22

jj

j+1
j+1

N
N

(j+1)

Probabilidad que i fuentes


entre N estn activas
i 1

pi =

i 1
pi 1 =
i

i=0
i

p0
i

i =1

i = ( N i ) , i = i
N

i=0

09/11/2003

=1

N
pi = 1 +
i

E (i ) = N
+

var(i ) = N
( + )2

C.F. Belaustegui Goitia - Cadenas de Markov y Teora de Colas

=
i +

Nmero medio de
fuentes activas

77

N i

Vous aimerez peut-être aussi