Académique Documents
Professionnel Documents
Culture Documents
Julio de 2003
ii
CONTENIDO
1 PRELIMINARES 1
1.1 TOMA DE DECISIONES . . . . . . . . . . . . . . . . . . . . . . 1
1.2 PROGRAMACIÓN DINÁMICA . . . . . . . . . . . . . . . . . . 8
1.2.1 INTRODUCCIÓN . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 ELEMENTOS DE UN MODELO DE PD . . . . . . . . . 9
1.2.3 CARACTERÍSTICAS DE LOS PROBLEMAS DE PRO-
GRAMACIÓN DINÁMICA . . . . . . . . . . . . . . . . . 9
1.2.4 LA PROGRAMACIÓN DINÁMICA TIPO DETERMINÍS-
TICA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.5 LA PROGRAMACIÓN DINÁMICA PROBABILÍSTICA 12
1.3 PROCESOS ESTOCÁSTICOS . . . . . . . . . . . . . . . . . . . 14
1.3.1 INTRODUCCIÓN . . . . . . . . . . . . . . . . . . . . . . 14
1.3.2 LA PROPIEDAD DE MARKOV Y MATRICES DE TRAN-
SICIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.3 ECUACIONES DE CHAPMAN-KOLMOGOROV . . . . 19
1.3.4 CLASIFICACIÓN DE ESTADOS EN UNA CADENA
DE MARKOV . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3.5 TIEMPOS DE PRIMERA PASADA . . . . . . . . . . . . 24
1.3.6 PROPIEDADES A LARGO PLAZO DE LAS CADENAS
DE MARKOV . . . . . . . . . . . . . . . . . . . . . . . . 25
2 TEORÍA DE INVENTARIOS 29
2.1 COMPONENTES DE LOS MODELOS DE INVENTARIOS . . 29
2.2 MODELOS DETERMINÍSTICOS . . . . . . . . . . . . . . . . . 31
2.2.1 REVISIÓN CONTINUA, DEMANDA UNIFORME Y NO
SE PERMITEN FALTANTES . . . . . . . . . . . . . . . 31
2.2.2 REVISIÓN CONTINUA, DEMANDA UNIFORME Y SE
PERMITEN FALTANTES . . . . . . . . . . . . . . . . . 32
2.3 MODELOS ESTOCÁSTICOS . . . . . . . . . . . . . . . . . . . 34
2.3.1 MODELO DE UN PERIODO SIN COSTO FIJO . . . . 34
2.3.2 MODELO CON UN INVENTARIO INICIAL . . . . . . . 36
2.3.3 DERIVACIÓN DE LA POLÍTICA ÓPTIMA . . . . . . . 36
2.3.4 MODELO DE INVENTARIOS DE UN PERIODO CON
COSTO DE PREPARACIÓN . . . . . . . . . . . . . . . . 38
iii
iv CONTENIDO
3 APLICACIÓN 51
3.1 INTRODUCCIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.2 SOLUCIÓN DE UN PROBLEMA DE INVENTARIOS . . . . . 51
3.3 CONCLUSIONES . . . . . . . . . . . . . . . . . . . . . . . . . . 57
CAPÍTULO 1
PRELIMINARES
1
2 CAPÍTULO 1. PRELIMINARES
Aún así, los modelos matemáticos tienen muchas ventajas sobre una des-
cripción verbal del problema. Una ventaja obvia es que el modelo matemático
1.1. TOMA DE DECISIONES 3
describe un problema en forma mucho más concisa. Esto tiende a hacer que
toda la estructura del problema sea mucho más comprensible y ayude a revelar
las relaciones importantes entre causa y efecto. De esta manera, indica con
más claridad qué datos adicionales son importantes para el análisis. También
facilita simultáneamente el manejo del problema en su totalidad y el estudio de
todas sus interrelaciones. Por último, un modelo matemático forma un puente
para poder emplear técnicas matemáticas y computadoras de alto poder, para
analizar el problema.
Por otro lado, existen obstáculos que deben evitarse al usar modelos matemá-
ticos. Un modelo, como se dijo anteriormente, es una idealización abstracta del
problema, por lo que casi siempre se requieren aproximaciones y suposiciones
de simplificación si se requiere que el modelo sea manejable. Por lo tanto, debe
tenerse cuidado de que el modelo sea siempre una representación válida del pro-
blema. El criterio apropiado para juzgar la validez de un modelo es el hecho de si
predice o no con suficiente exactitud los efectos relativos de los diferentes cursos
de acción, para poder tomar una decisión que tenga sentido. En consecuencia no
es necesario incluir detalles sin importancia o factores que tengan aproximada-
mente el mismo efecto sobre todas las opciones. Ni siquiera es necesario que la
magnitud absoluta de la medida de efectividad sea aproximadamente correcta
para las diferentes alternativas, siempre que sus valores relativos sean bastantes
precisos. Entonces, todo lo que se requiere es que exista una alta correlación
entre la predicción del modelo y lo que ocurre en la vida real. Para asegurar
que este requisito se cumpla, es importante hacer un número considerable de
pruebas del modelo y las modificaciones consecuentes.
reconocer que estas soluciones son óptimas sólo respecto al modelo que se está
utilizando. Como el modelo es una idealización y no una representación exacta
del problema real, no puede existir una garantía utópica de que la solución óp-
tima del modelo resulte ser la mejor solución posible que pueda llevarse a la
práctica para el problema real. Esto es de esperarse si se toman en cuenta los
muchos imponderables e incertidumbres asociados a casi todos los problemas
reales, pero si el modelo está bien formulado y verificado, la solución que resulta
debe tender a una buena aproximación de un curso de acción ideal para el pro-
blema real. Por todo esto, más que enfrascarse en pedir lo imposible, la prueba
del éxito de un estudio de investigación de operaciones debe ser el hecho de si
proporciona o no una mejor guía en las decisiones que la que se puede obtener
por otros medios.
La cuarta f ase indica cuando un modelo es válido, éste debe dar una predic-
ción confiable del funcionamiento del sistema. Para realizar la validez, se puede
comparar su funcionamiento con algunos datos pasados disponibles del sistema
actual. El modelo será válido si, bajo condiciones similares de entrada, puede
reproducir el funcionamiento pasado del sistema.
problema bajo estudio y del modelo usado. Para ello, después de completar
los detalles de la versión inicial del modelo, una buena manera de comenzar
las pruebas es observarlo en forma global para verificar los errores u omisiones
obvias. El grupo que hace esta revisión debe, de preferencia, incluir por lo
menos a una persona que no haya participado en la formulación. Al exami-
nar de nuevo la formulación del problema y compararla con el modelo pueden
descubrirse este tipo de errores. También es útil asegurarse de que todas las
expresiones matemáticas sean consistentes en las dimensiones de las unidades
que emplean. Además, puede obtenerse un mejor conocimiento de la validez del
modelo variando los valores de los parámetros de entrada y/o de las variables
de decisión, y comprobando que los resultados del modelo se comporten de una
manera factible.
Un enfoque más sistemático para la prueba del modelo es emplear una prueba
retrospectiva. Esta prueba utiliza datos históricos y reconstruye el pasado para
determinar si el modelo y la solución resultante hubiera tenido un buen desem-
peño, de haberse usado. La comparación de la efectividad de este desempeño
hipotético con lo que en realidad ocurrió, indica si el uso del modelo tiende
a dar mejoras significativas sobre la práctica actual. Puede también indicar
áreas en las que el modelo tiene fallas y requiere modificaciones. Lo que es
más, al emplear las alternativas de solución y estimar sus desempeños históri-
cos hipotéticos, se pueden reunir evidencias en cuanto a lo bien que el modelo
predice los efectos relativos de los diferentes cursos de acción.
Por otra parte, la prueba retrospectiva tiene la desventaja de que usa los
mismos datos que sirvieron para formular el modelo. Entonces, la pregunta cru-
cial es si el pasado en realidad representa el futuro. Para salvar esta desventaja
de la prueba retrospectiva, a veces es útil continuar con las cosas como están
por una temporada. Esto proporcionará datos con los que no se contaba cuando
se construyó el modelo.
aleatorios que se encuentran fuera del control del tomador de decisiones. Estos
factores aleatorios determinan en qué situación se encontrará en el momento en
que se ejecute la acción. Cada una de estas situaciones posibles se conoce como
un estado de la naturaleza, que se denotará por θ. Para cada combinación de
una acción a y un estado de la naturaleza θ, el tomador de decisiones sabe cuál
sería el pago resultante. El pago es una medida cuantitativa del valor de las
consecuencias del resultado para el tomador de decisiones. Sea p(a, θ)= pago al
tomar la acción a cuando el estado de la naturaleza es θ.
En general, se usa una tabla de pagos para dar p(a, θ) para cada combinación
de a y θ. Existe una analogía interesante entre los conceptos de análisis de
decisiones y el juego de dos personas con suma cero. Un juego de dos personas
con suma cero (veáse[10]), como su nombre lo indica, es aquel en que participan
sólo dos jugadores o adversarios y se le llama con suma cero porque un jugador
gana lo que el otro pierde, de manera que la suma de sus ganacias netas es cero.
El tomador de decisiones y la naturaleza se pueden ver como dos jugadores de
este juego. Las acciones posibles y los estados de la naturaleza posibles se pueden
ver como las estrategias disponibles para los respectivos jugadores, donde cada
combinación de estrategias da como resultado un pago para el jugador 1 (el
tomador de decisiones) . Desde este punto de vista, el marco conceptual del
análisis de decisiones se puede resumir como sigue:
P (θ = θi , S = s)
P (θ = θi |S = s) = (1.1)
P (S = s)
n
X
P (S = s) = P (θ = θi , S = s) (1.2)
i=1
P (θ = θi |S = s) = P (S = s|θ = θi )P (θ = θi ). (1.3)
Por lo tanto, para cada i = 1, 2, ..., n, la fórmula deseada para la probabilidad
a posteriori correspondiente es
P (S = s|θ = θi )P (θ = θi )
P (θ = θi |S = s) = Pn . (1.4)
P (θ = θi , S = s)
i=1
El estado del sistema se considera como la información que une cada etapa,
de tal manera que se puedan tomar decisiones óptimas para las etapas restantes
reexaminando la forma en la cual se llegó a las decisiones para las etapas previas.
fn∗ (sn ) = max{fn (sn , x∗n )} o fn∗ (sn ) = min{fn (sn , x∗n )} (1.5)
xn xn
∗
en donde fn (sn , xn ) se escribe en términos de sn , xn , fn+1 (sn+1 ) y tal vez
alguna medida de la contribución inmediata de xn a la función objetivo. Lo que
hace que la expresión para fn∗ (sn ) sea una relación recursiva es la inclusión de
∗
fn+1 (sn+1 ) en el lado derecho, de manera que fn∗ (sn ) está definida en términos
∗
de fn+1 (sn+1 ).
xn fn (sn , xn )
sn
f n* ( sn ) x n*
Etapa Etapa
n n +1
Etapa
sn Contribución
s n +1
de xn
fn(sn, xn) fn*+1(sn+1)
Cuando se expande la Figura 1.3 para incluir todos los estados y las deci-
siones posibles en todas las etapas, se obtiene lo que con frecuencia se conoce
como un árbol de decisión. Si este árbol de decisión no es muy grande, propor-
ciona una forma útil de resumir estas posibilidades.
∗
Debido a la estructura probabilística, la relación entre fn (sn , xn ) y fn+1 (sn+1 )
necesariamente es más complicada que para el caso determinístico. La forma
exacta de esta relación dependerá de la forma global de la función objetivo.
1.2. PROGRAMACIÓN DINÁMICA 13
Etapa n Etapa n + 1
Contribución
Probabilidad
de la etapa n
1
fn*+1(1)
C1
p1
sn Decisión
xn p2 C1 2
ps
fn*+1(2)
C1
fn+*1(S)
AXIOMAS DE LA PROBABILIDAD
Axioma 2 P (Ω) = 1.
1.3. PROCESOS ESTOCÁSTICOS 15
P (A ∪ B) = P (A) + P (B)
A = A1 ∪ A2 ∪ ... ∪ Ak
Definición 3 Una función que mapea un espacio muestral sobre los números
reales se llama variable aleatoria. Las letras X, Y, Z serán usadas para denotar
variables aleatorias.
16 CAPÍTULO 1. PRELIMINARES
Probabilidad condicional
La noción de probabilidad condicional es un instrumento básico de la teoría de
probabilidades y, por desgracia, su gran simplicidad se ve a veces oscurecida por
una terminología singularmente inadecuada.
P (E ∩ F )
P (E|F ) = . (1.8)
P (F )
La cantidad así definida, P (E|F ), se llamará probabilidad de E bajo la
hipótesis F (ver [6]). Cuando todos los puntos muestrales tienen probabili-
dades iguales, P (E|F ), es la razón del número de puntos muestrales que E y
F tienen en común al número de puntos de F . La probabilidad condicional
queda indefinida cuando P (F ) es cero. Esto no tiene consecuencias en el caso
de espacios muestrales discretos, pero es importante en la teoría general.
Esta formulación nos muestra que todos los teoremas generales de probabilidad
también son válidos para probabilidades condicionales con respecto a cualquier
hipótesis particular F .
a) Bi ∩ Bj = φ para todo i 6= j.
S
k
b) Bi = Ω.
i=1
à k
!
[
A=A∩Ω=A∩ Bi = (A ∩ B1 ) ∪ (A ∩ B2 ) ∪ ... ∪ (A ∩ Bk ).
i=1
P (A) = P (A ∩ B1 ) + P (A ∩ B2 ) + ... + P (A ∩ Bk )
= P (A|B1 )P (B1 ) + P (A|B2 )P (B2 ) + ... + P (A|Bk )P (Bk )
P (A|Bi )P (Bi )
P (Bi |A) = . (1.10)
P
k
P (A|Bj )P (Bj )
j=1
Por lo tanto
entonces se dice que las probabilidades de transición (de un paso) son esta −
cionarias y se denotan por pij.
Estado 0 ... M
(n) (n)
0 p00 ... p0M
(n) (n)
1 p10 ... p1M
P (n) = . . . (1.14)
. . .
. . .
(n) (n)
M pM0 ... pM M
o, en forma equivalente,
(n) (n)
p ... p0M
00
P (n) = ... ... ... . (1.15)
(n) (n)
pM0 ... pM M
(n) P
M
(m) (n−m)
pij = pik pkj para toda i, j y n con 0 ≤ m ≤ n. (1.16)
k=0
(m) (n−m)
Así, pik pkj es sólo la probabilidad condicional de que si se comienza en el
estado i, el proceso vaya al estado k después de m pasos y después al estado j
en n − m pasos. A continuación analizaremos los casos especiales cuando m = 1
y m = n − 1.
Para m = 1
(n) P
M
(n−1)
pij = pik pkj . (1.17)
k=0
Para m = n − 1
(n) P
M
(n−1)
pij = pik pkj (1.18)
k=0
para toda i, j y n.
Demostración. Sea
(n) (n) (n)
p00 p01 ... p0M
... ... ... ...
P (n) =
...
... ... ...
(n) (n) (n)
pM0 pM1 ... pMM
la matriz de transición de n pasos y
p00 p01 ... p0M
... ... ... ...
P = ...
... ... ...
pM0 pM1 ... pM M
la matriz de transición de un paso.
La demostración será por inducción.
i) Para n = 1 se tiene que
P k+1 = P k P = P (k) P
(k) (k) (k)
p00 p01 ... p0M p00 p01 ... p0M
... ... ... ... ... ... ... ...
=
...
... ... ... ... ... ... ...
(k) (k) (k) pM0 pM1 ... pMM
pM 0 pM1 ... pMM
P M P
M P
M
(k) (k) (k)
p p p0j pj1 ... p0j pjM
j=0 0j j0
j=0 j=0
... ... ... ...
=
... ... ... ...
P M
(k) P
M
(k) P
M
(k)
pMj pj0 pMj pj1 ... pMj pjM
j=0 j=0 j=0
(k+1) (k+1) (k+1)
p00 p01 ... p0M
... ... ... ...
=
...
= P (k+1)
... ... ...
(k+1) (k+1) (k+1)
pM 0 pM1 ... pMM
(n)
Definición 10 Se dice que el estado j es accesible desde el estado i si pij > 0
para alguna n ≥ 0.
à ∞
! ∞
X X
E Bn |X0 = i = E (Bn |X0 = i)
n=1 n=1
X∞
= P (Xn = i|X0 = i)
n=1
X∞
(n)
= pii . (1.23)
n=1
(n)
(i) pjj = 0 a menos que n = md para algún entero positivo m y
(ii) d es el máximo entero con esta propiedad.
(1) (1)
fij = pij = pij
(2) (2) (1)
fij = pij − fij pjj
.
.
.
(n) (n) (1) (n−1) (2) (n−2) (n−1)
fij = pij − fij pjj − fij pjj − ... − fij pjj . (1.25)
(n)
Para i y j fijos, las fij son números no negativos tales que
1.3. PROCESOS ESTOCÁSTICOS 25
∞
X (n)
fij ≤ 1. (1.26)
n=1
(n)
Mientras que puede ser difícil calcular fij para toda n, es relativamente
sencillo obtener el tiempo esperado de primera pasada del estado i al estado j.
Sea µij este valor esperado, que se define como
P
∞
(n)
∞ si fij < 1
n=1
µij = . (1.27)
P
∞ P
∞
(n)
nfij si
(n)
fij =1
n=1 n=1
P
∞
(n)
Siempre que fij = 1, entonces µij satisface, de manera única, la ecuación
n=1
X
µij = 1 + pik µkj (1.28)
k6=j
M
X
πj = π i pij para j = 0, 1, ..., M,
i=0
M
X
πj = 1. (1.29)
j=0
26 CAPÍTULO 1. PRELIMINARES
1
πj = , para j = 0, 1, ..., M. (1.30)
µjj
M
X
πj = 1 (1.31)
j=0
(n)
De manera parecida, si j es un estado transitorio, entonces lim pij = 0,
n→∞
para toda i. Este resultado significa que la probabilidad de encontrar el proceso
en un estado transitorio después de un número grande de transiciones es cero.
1.3. PROCESOS ESTOCÁSTICOS 27
Otra medida del costo promedio esperado (a la larga) por unidad de tiempo
es el costo promedio real por unidad de tiempo (a la larga). Se puede demostrar
que esta última medida está dada por
" n # M
1X X
lim C(Xt ) = π j C(j) (1.36)
n→∞ n
t=1 j=0
para casi todas las trayectorias del proceso. Así, ambas medidas llevan al mismo
resultado. Estos resultados tambien se pueden usar para interpretar el signifi-
cado de las πj . Para hacer esta interpretación, sea
½
1 si Xt = j
C(Xt ) = . (1.37)
0 si Xt 6= j.
28 CAPÍTULO 1. PRELIMINARES
" n
#
1X
lim E C(Xt )
n→∞ n t=1
TEORÍA DE
INVENTARIOS
29
30 CAPÍTULO 2. TEORÍA DE INVENTARIOS
Para iniciar el análisis, calculamos la longitud del ciclo. La longitud del ciclo
se calcula por Qa . El costo total T por unidad de tiempo se obtiene a partir de
las siguientes componentes.
hQ2
Costo por ciclo de mantener inventario = (2.3)
2a
Por lo tanto
hQ2
Costo total por ciclo = K + cQ + (2.4)
2a
y el costo total T por unidad de tiempo es
K + cQ + hQ2 /2a aK hQ
T = = + ac + (2.5)
Q/a Q 2
32 CAPÍTULO 2. TEORÍA DE INVENTARIOS
dT aK h
=− 2 + =0 (2.6)
dQ Q 2
de manera que
r
∗ 2aK
Q = (2.7)
h
que es la familiar fórmula del lote económico. De igual manera, el tiempo que
toma obtener este valor de Q∗ , llámese t∗ , está dado por
r
∗ Q∗ 2K
t = = . (2.8)
a ah
p = costo del f altante por unidad de demanda insatisf echa por uni-
dad de tiempo.
S = nivel de inventario justo después de recibir un lote de Q unida-
des.
Q − S = f altante en inventario justo antes de recibir un lote de Q unida-
des.
Ahora, el costo total por unidad de tiempo se obtiene a partir de las siguientes
componentes
hS S hS 2
Costo de mantener el inventario por ciclo = ( )= (2.10)
2 a 2a
Por lo tanto
hS 2 p(Q − S)2
Costo total por ciclo = K + cQ + + (2.12)
2a 2a
y el costo total T por unidad de tiempo es
∂T hS p(Q − S)
= − =0
∂S Q Q
∂T aK hS 2 p(Q − S) p(Q − S)2
= − 2 − + − = 0. (2.14)
∂Q Q 2Q2 Q 2Q2
r r r s
2aK p 2aK p+h
S∗ = Q∗ = . (2.15)
h p+h h p
r s
Q∗ 2K p+h
t∗ = = (2.16)
a ah p
El faltante máximo es
s s
2aK h
Q∗ − S ∗ = . (2.17)
p p+h
34 CAPÍTULO 2. TEORÍA DE INVENTARIOS
∞
X
C(y) = E[C(D, y)] = [cy + pmax{0, d − y} + hmax{0, y − d}]PD (d)
d=0
∞
X y−1
X
= cy + p(d − y)PD (d) + h(y − d)PD (d). (2.20)
d=y d=0
de manera que
Z a
Φ(a) = ϕD (ξ)dξ. (2.21)
0
Z ∞
C(y) = E[C(D, y)] = C(ξ, y)ϕD (ξ)dξ
0
Z ∞
= [cy + pmax{0, ξ − y} + hmax{0, y − ξ}]ϕD (ξ)dξ
0
Z ∞ Z y
= cy + p(ξ − y)ϕD (ξ)dξ + h(y − ξ)ϕD (ξ)dξ
y 0
= cy + L(y) (2.22)
p−c
Φ(y 0 ) = . (2.23)
p+h
En la sección 2.3.3 se mostrará la forma de deducir este resultado.
36 CAPÍTULO 2. TEORÍA DE INVENTARIOS
Z ∞ Z y
min{c(y − x) + p(ξ − y)ϕD (ξ)dξ + h(y − ξ)ϕD (ξ)dξ} (2.24)
y≥x y 0
½
< y0 se ordena y 0 − x para subir el nivel de inventario a y 0
Si x (2.25)
≥ y0 no se ordena
en donde y 0 satisface
p−c
Φ(y 0 ) = . (2.26)
p+h
Z y Z ∞
G(y) = c1 (y − ξ)ϕD (ξ)dξ + c2 (ξ − y)ϕD (ξ)dξ + cy. (2.30)
0 y
Para obtener los resultados para el caso en que el inventario inicial sea x > 0,
es necesario resolver la relación
Z ∞ Z y
min{−cx + [ p(ξ − y)ϕD (ξ)dξ + h(y − ξ)ϕD (ξ)dξ + cy]}. (2.34)
y≥x y 0
min{G(y)}. (2.36)
y≥x
p−c
Así, el valor de y 0 que minimiza G(y) satisface Φ(y 0 ) = p+h . Más aún, G(y)
2
d G(y)
debe ser una función convexa porque dy2 ≥ 0. También se observa que
38 CAPÍTULO 2. TEORÍA DE INVENTARIOS
G(y)
G(y0)
y0
y
dG(y)
lim = c − p el cual es negativo
y→0 dy
dG(y)
lim = h + c el cual es positivo (2.37)
y→∞ dy
Gráfica de cy+L(y)
cy+L(y)
s S
y
Z ∞ Z y
L(y) = p (ξ − y)ϕD (ξ)dξ + h (y − ξ)ϕD (ξ)dξ. (2.38)
y 0
si x > S, entonces
de manera que
K + c(y − x) + L(y) > L(x).
El lado izquierdo de la última desigualdad representa el costo total esperado
de ordenar y − x unidades para elevar el nivel de inventario a y unidades, y
el lado derecho de esta desigualdad representa el costo total esperado si no se
ordena. La política óptima indica que si x > S, no se ordene.
de manera que
K + c(y − x) + L(y) ≥ L(x).
Una vez más, no ordenar es menos costoso que ordenar. Por último, si x < s,
en la Figura 2.2 se ve que
½
< s se ordena S − x para elevar el nivel de inventario a S
Si x
≥s no se ordena.
(2.40)
Este valor de S se obtiene a partir de
p−c
Φ(S) = (2.41)
p+h
y s es el valor más pequeño que satisface la expresión
½
< y20 ordenar y20 − x2 para elevar el inventario hasta y20
Si x2 (2.44)
≥ y20 no ordenar.
asociados a seguir una política durante el segundo periodo (veáse [5] y[10]). Así,
el costo esperado si se sigue una política óptima en los dos periodos está dado
por
½
L(y1 − D1 ) si y1 − D1 ≥ y20
C2 (x2 ) = C2 (y1 − D1 ) =
C(y20
− y1 + D1 ) + L(y2 ) si y1 − D1 < y20 .
0
(2.48)
Así, C2 (x2 ) es una variable aleatoria y su valor esperado está dado por
Z ∞
E[C2 (x2 )] = C2 (y1 − ξ)ϕD (ξ)dξ
0
Z y1 −y20
= L(y1 − ξ)ϕD (ξ)dξ
0
Z ∞
+ [c(y20 − y1 + ξ) + L(y20 )]ϕD (ξ)dξ. (2.49)
y1 −y20
Entonces
Z y1 −y20
c(y1 − x1 ) + L(y1 ) + L(y1 − ξ)ϕD (ξ)dξ
C1 (x1 ) = min Z ∞ 0 (2.50)
y1 ≥x1
+ [c(y20 − y1 + ξ) + L(y20 )]ϕD (ξ)dξ
y1 −y20
Se puede demostrar que C1 (x1 ) tiene un mínimo único y que el valor óptimo
de y1 , denotado por y10 , satisface la ecuación
Z y1 −y20
−p+(p+h)Φ(y10 )+(c−p)Φ(y10 −y20 )+(p+h) Φ(y10 −ξ)ϕD (ξ)dξ = 0 (2.51)
0
½
< y10 ordenar y10 − x1 para elevar el nivel de inventario hasta y10
Si x1
≥ y10 no ordenar.
(2.52)
2.4. PROCESOS DE DECISIÓN 43
½
< yi0
ordenar yi0 − xi para elevar el nivel de inventario hasta yi0
Si xi
≥ yi0 no ordenar en el periodo i.
(2.53)
Lo que es más
yn0 ≤ yn−1
0
≤ ... ≤ y20 ≤ y10 (2.54)
Para el caso de un número infinito de periodos, todos estos números críticos
y10 , y20 , ... son iguales. Sea y 0 este valor constante. Se puede demostrar que y 0
satisface la ecuación
p − c(1 − α)
Φ(y 0 ) = . (2.55)
p+h
Existen dos métodos para resolver el problema de etapa infinita (para mayor
información de éstos veáse [10] y [11]). El primer método recomienda la enu-
meración de todas las políticas estacionarias posibles del problema de decisión.
2.4. PROCESOS DE DECISIÓN 45
Xm
fn (i) = max pkij [rij
k
+ fn+1 (j)] , n = 1, 2, ..., N (2.56)
k
j=1
k
Una justificación para la ecuación es que el ingreso acumulado, rij + fn+1 (j)
que resulta de llegar al estado j en la etapa n + 1 desde el estado i en la
etapa n ocurre con probabilidad pkij . Si vik representa el rendimiento esperado
resultante de una transición desde el estado i dada la alternativa k, entonces vik
puede expresarse como
m
X
vik = pkij rij
k
. (2.57)
j=1
fN (i) = max{vik }
k
m
X
fn (i) = max vik + pkij fn+1 (j)] , n = 1, 2, ..., N − 1 (2.58)
k
j=1
46 CAPÍTULO 2. TEORÍA DE INVENTARIOS
πs P s = πs
πs1 + πs2 + ... + π sm = 1 (2.59)
donde πs = (π s1 , π s2 , ..., π sm )
definimos η como el número de tepas que faltan por considerar. Esto sucede en
contraste con n en la ecuación, que define la n−ésima etapa. Por lo tanto, la
ecuación recursiva se escribe como
m
X
fη (i) = vi + pij fη−1 (j), i = 1, 2, ..., m. (2.63)
j=1
m
X
ηE + f (i) = vi + pij {(n − 1)E + f (j)}, i = 1, 2, ..., m. (2.64)
j=1
que genera m ecuaciones y m+1 incógnitas, donde las incógnitas son f (1), f (2),
..., f (m) y E.
Nuestro objetivo final es el de determinar la política óptima que genere el
valor máximo de E. Como hay m ecuaciones y m + 1 incógnitas, el valor óptimo
de E no se puede determinar en un paso. En cambio se utiliza un enfoque
iterativo que, al comenzar con una política arbitraria, determinará entonces
una nueva política que genere un mejor valor de E. El proceso iterativo termina
cuando dos políticas sucesivas son identicas.
con las incógnitas E s , f s (1), f s (2), ..., f s (m − 1). Diríjase al paso de mejora de
la política.
La razón por la que este enfoque es atractivo es que se cuenta con un método
rápido para encontrar una política óptima cuando sólo quedan n periodos de
operación, a saber, el de programación dinámica probabilística.
Vin =costo descontado total esperado por seguir una política óptima, dado
que el proceso comienza en el estado i y le quedan sólo n periodos de operación
M
X
Vin = min Cij + α pij (k)Vjn−1 , para i = 0, 1, ...., M. (2.69)
k
j=0
APLICACIÓN
3.1 INTRODUCCIÓN
El objetivo de este capítulo es mostrar una aplicación de la programación
dinámica a un proceso markoviano en teoría de inventarios, que es el obje-
tivo primordial de la tesis. En los capítulos anteriores se desarrolló, en detalle,
la teoría necesaria para resolver el problema de aplicación y se pretendió que no
faltara ni excediera información para comprenderlo completamente.
51
52 CAPÍTULO 3. APLICACIÓN
SEMANA, i DEMANDA, xi
1 23
2 21
3 12
4 12
5 31
6 28
7 15
8 30
9 41
10 17
11 21
12 24
13 31
14 12
15 18
16 23
17 24
P17
i=1 xi
λ= = 22.5. (3.1)
17
(22.5)k
P (Dt = k) = exp(−22.5) . (3.2)
k!
P17
i=1 xi
λ= = 2.25. (3.3)
17
(2.25)k
P (Dt = k) = exp(−2.25) . (3.4)
k!
Demanda P (Dt = k)
0 0.1054
1 0.2371
2 0.2668
3 0.2001
4 0.1906
Estado 0 1 2 3 4
0 0.1906 0.2001 0.2668 0.2371 0.1054
1 0.8946 0.1054 0 0 0
P 1
= 2 0.6575 0.2371 0.1054 0 0
3 0.3907 0.2668 0.2371 0.1054 0
4 0.1906 0.2001 0.2668 0.2371 0.1054
y la matriz de costo es
z }| {
Estado 0 1 2 3 4
0 495.3 424.012 432.016 428.452 412.648
1 447.3 12.648 0 0 0
C1 = 2 328.75 28.452 12.648 0 0
3 195.35 32.016 28.452 12.648 0
4 95.3 24.012 32.016 28.452 12648
½
Xt ≤ 1 ordenar
Si , tenemos que la matriz de transición es
Xt > 1 no ordenar
Estado 0 1 2 3 4
0 0.1906 0.2001 0.2668 0.2371 0.1054
1 0.1906 0.2001 0.2668 0.2371 0.1054
P2 = 2 0.6575 0.2371 0.1054 0 0
3 0.3907 0.2668 0.2371 0.1054 0
4 0.1906 0.2001 0.2668 0.2371 0.1054
54 CAPÍTULO 3. APLICACIÓN
y su matriz de costo es
z }| {
Estado 0 1 2 3 4
0 495.3 424.012 432.016 428.452 412.648
1 495.3 424.012 432.016 428.452 412.648
C2 = 2 328.75 28.452 12.648 0 0
3 195.35 32.016 28.452 12.648 0
4 95.3 24.012 32.016 28.452 12.648
½
Xt ≤ 2 ordenar
Si tenemos que la matriz de transición es
Xt > 1 no ordenar
Estado 0 1 2 3 4
0 0.1906 0.2001 0.2668 0.2371 0.1054
1 0.1906 0.2001 0.2668 0.2371 0.1054
P 3
= 2 0.1906 0.2001 0.2668 0.2371 0.1054
3 0.3907 0.2668 0.2371 0.1054 0
4 0.1906 0.2001 0.2668 0.2371 0.1054
y su matriz de costo es
z }| {
Estado 0 1 2 3 4
0 495.3 424.012 432.016 428.452 412.648
1 495.3 424.012 432.016 428.452 412.648
C3 = 2 495.3 424.012 432.016 428.452 412.64
3 195.35 32.016 28.452 12.648 0
4 95.3 24.012 32.016 28.452 12.648
vis
s i=1 i=2 i=3 i=4 i=5
1 439.59 401.4877 224.2322 92.9442 39.59
2 439.59 439.59 224.2322 92.9442 39.59
3 439.59 439.59 439.59 92.9442 39.59
IT ERACI ÓN 1
E = 439.59 + 0.1906f (1) + 0.2001f (2) + 0.2668f (3) + 0.2371f (4) + 0.1054f (5) − f (1)
E = 401.4877 + 0.8946f (1) + 0.1054f (2) − f (2)
E = 224.2322 + 0.6575f (1) + 0.2371f (2) + 0.1054f (3) − f (3)
E = 92.9442 + 0.3907f (1) + 0.2668f (2) + 0.2371f (3) + 0.1054f (4) − f (4)
E = 39.59 + 0.1906f (1) + 0.2001f (2) + 0.2668f (3) + 0.2371f (4) + 0.1054f (5) − f (5)
2) M ejora de la polı́tica.
IT ERACI ÓN 2
E = 439.59 + 0.1906f (1) + 0.2001f (2) + 0.2668f (3) + 0.2371f (4) + 0.1054f (5) − f (1)
E = 439.59 + 0.1906f (1) + 0.2001f (2) + 0.2668f (3) + 0.2371f (4) + 0.1054f (5) − f (2)
E = 224.2322 + 0.6575f (1) + 0.2371f (2) + 0.1054f (3) − f (3)
E = 92.9442 + 0.3907f (1) + 0.2668f (2) + 0.2371f (3) + 0.1054f (4) − f (4)
E = 39.59 + 0.1906f (1) + 0.2001f (2) + 0.2668f (3) + 0.2371f (4) + 0.1054f (5) − f (5)
2) M ejora de la polı́tica.
Notemos que este método llegó muy rápido a la solución óptima. Si se hubiese
resuelto el problema con el método de enumeración exhaustiva se hubiesen hecho
muchos cálculos para llegar a esta solución. Esta es una de las ventajas de aplicar
el enfoque de la programación dinámica a la solución de problemas donde se
cumple el principio de optimalidad.
3.3. CONCLUSIONES 57
3.3 CONCLUSIONES
Los procesos de decisión markovianos son bastantes importantes, ya que apare-
cen con bastante frecuencia en la práctica. Debido a que éstos utilizan muchas
herramientas matemáticas para su solución, fue uno de los motivos que nos
impulsó a tomarlos como objetos de estudio para mostrar el alcance de la
matemática aplicada.
En este trabajo de tesis damos una introducción sobre la teoría de decisiones,
un breve resumen de la herramienta matemática que se necesita para la solu-
ción de problemas de decisión y resolvimos un problema de éstos en el área de
inventarios. Si bien la teoría expuesta aquí se puede encontrar en los libros que
se mencionan en la bibliografía, el mérito en esta tesis (si es que existe) es la
concentración y el tratar de explicar en forma clara y concisa la interrelación
entre teoría de decisiones, cadenas de Markov y programación dinámica.
En nuestro país estos métodos de solución no son utilizados actualmente
pero se espera que en un futuro si lo sean, ya que en países desarrollados han
probado ser efectivos en problemas de minimización de costos y maximización
de utilidades.
La importancia de la herramienta matemática se manifiesta en la aplicación
de las cadenas de Markov en el modelamiento del problema y de la programación
dinámica en el proceso de solución para encontrar la mejor alternativa. El
problema resuelto aquí, aunque pequeño, es original y muestra lo que se ha
mencionado. Es así como hemos logrado el objetivo inicial.
58 CAPÍTULO 3. APLICACIÓN
BIBLIOGRAFÍA
59