Académique Documents
Professionnel Documents
Culture Documents
Cadenas de Markov
Javier Pereira
Ncleo de Red
IIE - FING - UdelaR
12 de mayo de 2011
1/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Agenda
Introduccin
2/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Agenda
Introduccin
3/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Conceptos Introductorios
Proceso estocstico
Un proceso estocstico X = (Xt , t T ) es una familia de
variables aleatorias cuyo ndice t T es llamado el conjunto de
los ndices (o parmetro de tiempo) del proceso X.
Para cada t T , Xt es una variable aleatoria sobre el espacio
de estado del proceso X.
Espacio de Estado
El espacio de estado de un proceso estocstico X es el
conjunto mnimo E de todos los valores posibles que las V.A. Xt
pueden asumir (estados posibles del sistema). Notamos Xt = e
el evento que indica que en el instante t el proceso se
encuentra en el estado e.
4/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Conceptos Introductorios
Proceso estocstico
Un proceso estocstico X = (Xt , t T ) es una familia de
variables aleatorias cuyo ndice t T es llamado el conjunto de
los ndices (o parmetro de tiempo) del proceso X.
Para cada t T , Xt es una variable aleatoria sobre el espacio
de estado del proceso X.
Espacio de Estado
El espacio de estado de un proceso estocstico X es el
conjunto mnimo E de todos los valores posibles que las V.A. Xt
pueden asumir (estados posibles del sistema). Notamos Xt = e
el evento que indica que en el instante t el proceso se
encuentra en el estado e.
4/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
e E n N/P(Xn = e) > 0
Probabilidad Condicional
Estudiamos dichos procesos suponiendo conocida la
probabilidad condicional de que el proceso est en el estado en
en la etapa n, suponiendo que sabemos que el proceso estuvo
en el estado e1 en la etapa 1, e2 en la etapa 2 y as hasta la
etapa n 1
e E n N/P(Xn = e) > 0
Probabilidad Condicional
Estudiamos dichos procesos suponiendo conocida la
probabilidad condicional de que el proceso est en el estado en
en la etapa n, suponiendo que sabemos que el proceso estuvo
en el estado e1 en la etapa 1, e2 en la etapa 2 y as hasta la
etapa n 1
Evolucin de un proceso
Evolucin de un proceso
Definimos la evolucin de un proceso como la sucesin de
estados por los que va pasando el mismo.
6/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Evolucin de un proceso
Evolucin de un proceso
Definimos la evolucin de un proceso como la sucesin de
estados por los que va pasando el mismo.
6/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Probabilidad condicional
Para calcular dicha probabilidad se utilizan probabilidades
condicionales.
P (Xn = en , Xn1 = en1 , . . . , X0 = e0 ) =
P (Xn = en |Xn1 = en1 , . . . , X0 = e0 ) P (Xn1 = en1 , . . . , X0 = e0 ) =
P (Xn = en |Xn1 = en1 , . . . , X0 = e0 ) . . . P (X1 = e1 |X0 = e0 ) P (X0 = e0 ) =
Qn
P (X0 = e0 ) P (X1 = e1 |X0 = e0 ) i=2 P (Xi = ei |Xi1 = ei1 , . . . , X0 = e0 )
7/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejemplo
8/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejemplo
Estados posibles:
A = la moneda con cara y nmero fue elegida
B = la moneda con dos caras fue elegida
C = el resultado del lanzamiento de una moneda fue una
cara
N = el resultado del lanzamiento de una mondeda fue
nmero
i {1, . . . , 6} el resultado del lanzamiento del dado fue i
9/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejemplo
10/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejemplo
Por un lado
1
P(X1 = A) = P(X1 = B) = 2
Adems
1
P(X2 = C|X1 = A) = P(X2 = N|X1 = A) = 2 y
P(X2 = C|X1 = B) = 1
Por ltimo
P(X3 = C|X2 = C, X1 = B) = 1
P(X3 = C|X2 = C, X1 = A) = 12
P(X3 = N|X2 = C, X1 = A) = 21
P(X3 = i|X2 = N, X1 = A) = 16 con i = 1, . . . , 6
11/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejemplo
Se puede calcular la distribucin conjunta de
probabilidades para cada evolucin del proceso
Dado un proceso estocstico de tiempo y espacio de
estados discreto es posible representar mediante un rbol
de profundidad k todas las evoluciones posibles de k
etapas
12/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejemplo
La raz del rbol corresponde al estado inicial del proceso
estocstico
A cada resultado posible de la nsima etapa le
corresponde un nodo del nivel n + 1 del bol
Los arcos estn ponderados por las probabilidades de
transicin entre los estados del proceso
13/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Agenda
Introduccin
14/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Generalidades
Definicin
Una cadena de Markov es una secuencia de V.A. discretas
Xn , n N que poseen la siguiente propiedad:
P(Xn+1 = en+1 |X0 = e0 , X 1 = e1 , . . . , Xn = en ) =
P(Xn+1 = en+1 |Xn = en ), n N, e0 , e1 , . . . , en+1 E
15/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Generalidades
Definicin
Una cadena de Markov es una secuencia de V.A. discretas
Xn , n N que poseen la siguiente propiedad:
P(Xn+1 = en+1 |X0 = e0 , X 1 = e1 , . . . , Xn = en ) =
P(Xn+1 = en+1 |Xn = en ), n N, e0 , e1 , . . . , en+1 E
15/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Generalidades
Definicin
Una cadena de Markov es una secuencia de V.A. discretas
Xn , n N que poseen la siguiente propiedad:
P(Xn+1 = en+1 |X0 = e0 , X 1 = e1 , . . . , Xn = en ) =
P(Xn+1 = en+1 |Xn = en ), n N, e0 , e1 , . . . , en+1 E
15/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Generalidades
Definicin
Una cadena de Markov es una secuencia de V.A. discretas
Xn , n N que poseen la siguiente propiedad:
P(Xn+1 = en+1 |X0 = e0 , X 1 = e1 , . . . , Xn = en ) =
P(Xn+1 = en+1 |Xn = en ), n N, e0 , e1 , . . . , en+1 E
15/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Generalidades
Homogeneidad
Cuando las probabilidades condicionales de pasaje de un
estado al otro son tambin independientes de la etapa n
decimos que la cadena correspondiente es homognea en el
tiempo (la probabilidad de pasar a otro estado depende del
estado actual y no del tiempo). Las probabilidades
condicionales se reducen a la expresin:
P(Xn+1 = j | Xn = i) = pij , i, j E, n 0
Probabilidades de transicin
Los nmeros pij se denominan probabilidades de transicin y
definen la probabilidad de que el proceso estando actualmente
en el estado i pase al estado j en su prxima transicin,
independientemente de la etapa n en que se encuentre el
proceso.
16/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Generalidades
Homogeneidad
Cuando las probabilidades condicionales de pasaje de un
estado al otro son tambin independientes de la etapa n
decimos que la cadena correspondiente es homognea en el
tiempo (la probabilidad de pasar a otro estado depende del
estado actual y no del tiempo). Las probabilidades
condicionales se reducen a la expresin:
P(Xn+1 = j | Xn = i) = pij , i, j E, n 0
Probabilidades de transicin
Los nmeros pij se denominan probabilidades de transicin y
definen la probabilidad de que el proceso estando actualmente
en el estado i pase al estado j en su prxima transicin,
independientemente de la etapa n en que se encuentre el
proceso.
16/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Matriz de transicin
Representamos las probabilidades de transicin en forma
matricial
Es una matriz estocstica, es decir
pij 0 i, j E
P
jE pij = 1 i E
17/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Distribucin de la cadena
Definicin
La distribucin de la cadena en tiempo n es el vector fila n que
representa las probabilidades de estar en cada estado en el
instante n.
Distribucin de la cadena
Definicin
La distribucin de la cadena en tiempo n es el vector fila n que
representa las probabilidades de estar en cada estado en el
instante n.
Distribucin de la cadena
Definicin
La distribucin de la cadena en tiempo n es el vector fila n que
representa las probabilidades de estar en cada estado en el
instante n.
Distribucin de la cadena
Definicin
La distribucin de la cadena en tiempo n es el vector fila n que
representa las probabilidades de estar en cada estado en el
instante n.
Distribucin de la cadena
Definicin
La distribucin de la cadena en tiempo n es el vector fila n que
representa las probabilidades de estar en cada estado en el
instante n.
Distribucin de la cadena
Definicin
La distribucin de la cadena en tiempo n es el vector fila n que
representa las probabilidades de estar en cada estado en el
instante n.
Transicin en n pasos
19/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Distribucin lmite
Definicin
Se dice que el vector de probabilidad es una distribucin
lmite para 0 si existe 0 tal que
= lm n = lm 0 P n
n n
20/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
= P
21/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ergodicidad
= lm n = lm 0 P n
n n
22/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ecuaciones de Balance
Adems: X
pji = 1
iE
23/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ecuaciones de Balance
Definicin
X X
(j) pji = pij (i)
iE iE
24/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ecuaciones de Balance
Ejemplo
(j) pjm + pji + pjk = (i)pij + (m)pmj + (k )pkj
25/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Agenda
Introduccin
26/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Generalidades
27/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Generalidades
27/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Generalidades
27/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Generalidades
27/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Generalidades
Las CMTC respetan las siguientes reglas:
El tiempo de permanencia en el estado i es una V.A.
independiente de ley exponencial de parmetro vi (media
1/vi )
Cuando el proceso abandona el estado i, la eleccin del
estado j se realiza de acuerdo a las probabilidades de
transicin pij
Estas probabilidades deben satisfacer:
P
pii = 0 jE pij = 1, i E
Se puede considerar que una CMTC es un proceso cuyas
transiciones se realizan de acuerdo a una CMTD, pero
donde el tiempo de permanencia en cada estado es una
V.A. exponencial
28/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Generalidades
Las CMTC respetan las siguientes reglas:
El tiempo de permanencia en el estado i es una V.A.
independiente de ley exponencial de parmetro vi (media
1/vi )
Cuando el proceso abandona el estado i, la eleccin del
estado j se realiza de acuerdo a las probabilidades de
transicin pij
Estas probabilidades deben satisfacer:
P
pii = 0 jE pij = 1, i E
Se puede considerar que una CMTC es un proceso cuyas
transiciones se realizan de acuerdo a una CMTD, pero
donde el tiempo de permanencia en cada estado es una
V.A. exponencial
28/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Generalidades
Las CMTC respetan las siguientes reglas:
El tiempo de permanencia en el estado i es una V.A.
independiente de ley exponencial de parmetro vi (media
1/vi )
Cuando el proceso abandona el estado i, la eleccin del
estado j se realiza de acuerdo a las probabilidades de
transicin pij
Estas probabilidades deben satisfacer:
P
pii = 0 jE pij = 1, i E
Se puede considerar que una CMTC es un proceso cuyas
transiciones se realizan de acuerdo a una CMTD, pero
donde el tiempo de permanencia en cada estado es una
V.A. exponencial
28/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Generalidades
Las CMTC respetan las siguientes reglas:
El tiempo de permanencia en el estado i es una V.A.
independiente de ley exponencial de parmetro vi (media
1/vi )
Cuando el proceso abandona el estado i, la eleccin del
estado j se realiza de acuerdo a las probabilidades de
transicin pij
Estas probabilidades deben satisfacer:
P
pii = 0 jE pij = 1, i E
Se puede considerar que una CMTC es un proceso cuyas
transiciones se realizan de acuerdo a una CMTD, pero
donde el tiempo de permanencia en cada estado es una
V.A. exponencial
28/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Generador infinitesimal
29/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Generador infinitesimal
29/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Generador infinitesimal
29/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ecuaciones de Balance
Si es invariante, entonces Q = 0
Luego:
X X
(j) qji = (i)qij
iE iE
30/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Agenda
Introduccin
31/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Procesos de conteo
32/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Procesos de conteo
32/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Procesos de conteo
32/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Definicin y propiedades
T1 , T2 , . . . son V.A. exponenciales independientes de
parmetro
P(T1 t) = P(Nt = 0) = et
33/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
34/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Proceso de conteo
Es estacionario y tiene incrementos independientes
Nt+s Ns tiene la misma distribucin que Nt y es Poisson
de parmetro t
(t)k t
P(Nt+s Ns = k ) = e
k!
35/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Agenda
Introduccin
36/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Definicin y propiedades
Supongamos que en el sistema hay n clientes
el tiempo del siguiente arribo es exponencial de parmetro
(la tasa de llegada de un nuevo individuo es una V.A. de
esperanza 1 )
el tiempo de servicio es exponencial de parmetro (el
tiempo hasta la partida de un individuo presente en el
sistema es una V.A. de esperanza 1 )
Sea Nt la cantidad de clientes en el sistema en el tiempo t.
Se dice que Nt es un proceso de nacimiento y muerte
37/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Definicin y propiedades
Supongamos que en el sistema hay n clientes
el tiempo del siguiente arribo es exponencial de parmetro
(la tasa de llegada de un nuevo individuo es una V.A. de
esperanza 1 )
el tiempo de servicio es exponencial de parmetro (el
tiempo hasta la partida de un individuo presente en el
sistema es una V.A. de esperanza 1 )
Sea Nt la cantidad de clientes en el sistema en el tiempo t.
Se dice que Nt es un proceso de nacimiento y muerte
37/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Estabilidad
Definicin
Todo proceso de nacimiento y muerte con espacio de estados
infinito y de parmetros {n }
n=0 , {n }n=1 es estable si y solo
si se verifican las siguientes condiciones:
Y
n
X k
<
k +1
n=0 k =0
Y
n
X k +1
=
k +1
n=0 k =0
38/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ecuaciones de balance
Estados Ecuacin
de balance
0 1 p1 = 0 p0
0, 1 2 p2 = 1 p1
... ...
0, 1, . . . , n 1, n n+1 pn+1 = n pn
39/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ecuaciones de balance
40/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Clculos tiles
X
n= npn
n=0
41/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Clculos tiles
X
v= (n s)pn
n=s+1
42/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Clculos tiles
s
X
X
= npn + spn
n=0 n=s+1
Se cumple que n = v +
43/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Clculos tiles
44/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Clculos tiles
v
tf =
45/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
46/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
47/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
47/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
48/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
48/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
48/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Agenda
Introduccin
49/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejercicio 1
Letra
Considere cierta parte de una red de telefona sobre IP la cual
es conectada al resto de la red a travs de 4 de sus nodos. En
dicha subred, se estima que el nmero promedio de paquetes
es de 1000.
Las tasas de arribo de los paquetes desde otras partes de la
red hacia esos 4 nodos son:
1 = 200pps
2 = 300pps
3 = 400pps
4 = 500pps
Cunto tiempo reside, en promedio, un paquete en dicha
subred?
50/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejercicio 1
Solucin
Por un lado N = 1000
P4
El trfico total ofrecido a la red es: tot = i=1 i = 1400
(paquetes)
Aplicando la frmula de Little tenemos que el retardo
N 1000
medio es: T = = 1400 0,71s
51/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejercicio 1
Solucin
Por un lado N = 1000
P4
El trfico total ofrecido a la red es: tot = i=1 i = 1400
(paquetes)
Aplicando la frmula de Little tenemos que el retardo
N 1000
medio es: T = = 1400 0,71s
51/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejercicio 1
Solucin
Por un lado N = 1000
P4
El trfico total ofrecido a la red es: tot = i=1 i = 1400
(paquetes)
Aplicando la frmula de Little tenemos que el retardo
N 1000
medio es: T = = 1400 0,71s
51/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejercicio 2
Letra
Pedidos de coneccin arriban a un servidor de acuerdo a un
proceso de Poisson de intensidad . Si el servidor est
sobrecargado, su throughput colapsa rpidamente. Para
prevenir dicho incidente, el servidor implementa un control de
congestin tal que el mismo, luego de aceptar una conexin,
rechaza cualquier nueva conexin durante un perodo de
tiempo T . Se asume que no hay reintentos de peticin de
conexin por parte de las conexiones rechazadas.
a Cuntas conexiones son aceptadas, en promedio, por
unidad de tiempo?
b Determine la tasa de pedidos aceptados en casos
extremos cuando T es muy grande o muy chico,
respectivamente.
52/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejercicio 2
Letra
Pedidos de coneccin arriban a un servidor de acuerdo a un
proceso de Poisson de intensidad . Si el servidor est
sobrecargado, su throughput colapsa rpidamente. Para
prevenir dicho incidente, el servidor implementa un control de
congestin tal que el mismo, luego de aceptar una conexin,
rechaza cualquier nueva conexin durante un perodo de
tiempo T . Se asume que no hay reintentos de peticin de
conexin por parte de las conexiones rechazadas.
a Cuntas conexiones son aceptadas, en promedio, por
unidad de tiempo?
b Determine la tasa de pedidos aceptados en casos
extremos cuando T es muy grande o muy chico,
respectivamente.
52/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejercicio 2
Letra
Pedidos de coneccin arriban a un servidor de acuerdo a un
proceso de Poisson de intensidad . Si el servidor est
sobrecargado, su throughput colapsa rpidamente. Para
prevenir dicho incidente, el servidor implementa un control de
congestin tal que el mismo, luego de aceptar una conexin,
rechaza cualquier nueva conexin durante un perodo de
tiempo T . Se asume que no hay reintentos de peticin de
conexin por parte de las conexiones rechazadas.
a Cuntas conexiones son aceptadas, en promedio, por
unidad de tiempo?
b Determine la tasa de pedidos aceptados en casos
extremos cuando T es muy grande o muy chico,
respectivamente.
52/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejercicio 2
Solucin
a El tiempo medio entre dos peticiones aceptadas es T + 1 ,
por lo que en promedio T +1 1 peticiones son aceptadas por
unidad de tiempo
1 1
b Por un lado tenemos que lmT T + 1
= T, mientras que
1
lmT 0 T + 1
=
53/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejercicio 2
Solucin
a El tiempo medio entre dos peticiones aceptadas es T + 1 ,
por lo que en promedio T +1 1 peticiones son aceptadas por
unidad de tiempo
1 1
b Por un lado tenemos que lmT T + 1
= T, mientras que
1
lmT 0 T + 1
=
53/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejercicio 3
Letra
Sea X una V.A que modela la duracin de una llamada en
minutos. Suponga que X Exp() y P(X > 3) = 12 .
a Determine el parmetro .
b Cul es la duracin media de las llamadas?
c Cul es la probabilidad de que la duracin de una llamada
sea mayor a 6 minutos?
54/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejercicio 3
Letra
Sea X una V.A que modela la duracin de una llamada en
minutos. Suponga que X Exp() y P(X > 3) = 12 .
a Determine el parmetro .
b Cul es la duracin media de las llamadas?
c Cul es la probabilidad de que la duracin de una llamada
sea mayor a 6 minutos?
54/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejercicio 3
Letra
Sea X una V.A que modela la duracin de una llamada en
minutos. Suponga que X Exp() y P(X > 3) = 12 .
a Determine el parmetro .
b Cul es la duracin media de las llamadas?
c Cul es la probabilidad de que la duracin de una llamada
sea mayor a 6 minutos?
54/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejercicio 3
Letra
Sea X una V.A que modela la duracin de una llamada en
minutos. Suponga que X Exp() y P(X > 3) = 12 .
a Determine el parmetro .
b Cul es la duracin media de las llamadas?
c Cul es la probabilidad de que la duracin de una llamada
sea mayor a 6 minutos?
54/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejercicio 3
Solucin
1
a P(X > 3) = e3 = 2 = 0,231
1
b E(X ) = = 4,33 minutos
c P(X > 6) = e6 = 0,25
55/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejercicio 3
Solucin
1
a P(X > 3) = e3 = 2 = 0,231
1
b E(X ) = = 4,33 minutos
c P(X > 6) = e6 = 0,25
55/56
Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo
Ejercicio 3
Solucin
1
a P(X > 3) = e3 = 2 = 0,231
1
b E(X ) = = 4,33 minutos
c P(X > 6) = e6 = 0,25
55/56
Apndice
56/56