Vous êtes sur la page 1sur 20

FACULTAD DE INGENIERIA INDUSTRIAL ESCUELA DE INGENIERIA INDUSTRIAL

CURSO

: INVESTIGACIN DE OPERACIONES II

DOCENTE ALUMNOS

: ING. MIGUEL JIMENEZ CARRION : ESPINOZA AMBULAY CARLOS CASTILLO PINTADO JEFF RIVERA LLACSAHUANCA DARWIN LLENQUE TUME CESAR JARAMILLO ALAMA JUAN

INTRODUCCIN

En el acontecer diario nos mezclamos con diferentes situaciones que requieren un anlisis exhaustivo para llegar a una solucin. Situaciones en las que no bastando con la ayuda de la misma experiencia necesitan otro tipo de herramientas para sus prontas decisiones ya que podran ser vitales para el progreso de una empresa o negocio.

Las cadenas de Markov son pues una de esas herramientas que motivan el uso de hechos que ya sucedieron para a travs de probabilidades predecir una futura situacin. En el presente trabajo pretendemos mostrar la aplicacin de las cadenas de Markov en el proceso industrial de fabricacin y comercializacin (en este caso analizaremos la demanda) de la comercializacin de jaboncillos en el mercado minorista. Para ello tomamos refencia de la distribuidora MI DIANITA ubicada en el mercado central de Piura. . Nosotros analizaremos la demanda de los siguientes productos: JABONES NEKO, NIVEA, PALMOLIVE Y OTROS.

OBJETIVOS

GENERAL: Aplicar la teora fundamental de cadenas de Markov para determinar el comportamiento de la transferencia de demanda a futuro en cada proceso.

ESPECIFICOS: Mostrar que el proceso es una cadena de Markov. Construir la matriz de transicin. Mostrar que los estados son accesibles. Mostrar que los estados se comunican. Mostrar que los estados son recurrentes. Mostrar que los estados son aperidicos. Determinar la regularidad de la matriz. Determinar los limites ergdicos. Presentar las probabilidades de estado estable.

MARCO TEORICO
1. PROCESOS MARKOV 1.1. ESTADOS DEL SISTEMA: Un modelo de Markov consiste en un conjunto de estados discretos. Este conjunto es exhaustivo y describe todos los posibles estados donde el sistema puede estar. La transicin del estado i a j ocurre con una probabilidad pij. Podemos pensar en un modelo de Markov como una simple lnea de transferencia.

1.2. LA CONDICIN DE MARKOV: Si P[Sj(k) / Sa(k-1), Sb(k-2), Sc(k-3).....] = P[Sj(k) / Sa(k-1)] para todo k, j,a, b, c,..... Entonces el sistema es un estado discreto de discretas transiciones de procesos de Markov. La implicacin de esta condicin es que la historia anterior del sistema a su llegada en (a) no tiene efecto en la transicin a (j). En otras palabras, el sistema no tiene memoria.

1.3. PROBABILIDADES DE TRANSICIN: Para una cadena de Markov, se definen las probabilidades de transicin como: pij = P[Sj(k) / Si(k-1)] matriz de transicin, 1<= i,j <= m y las pij son independientes de (k). Estas probabilidades pueden ser incluidas en una

P=

P11 P21 . . Pm1

P12 P22 . . Pm2

........................ ........................ . . ........................

P1m P2m . . Pmm

Tambin note que las transiciones de probabilidad satisfacen 0<=pij<=1 y m

p =1,
ij

i = 1,2,3...........,m

.j=1

Debido a que los estados son mutuamente excluyentes y colectivamente exhaustivos. La matriz P, proporciona una completa descripcin del proceso de Markov el cual se usara para responder numerosas preguntas sobre el sistema.

1.4. CLASIFICACIN DE LOS ESTADOS Limite de las probabilidades de estado: Si k tiende a infinito, P(k) llega a una constante, entonces el limite de las probabilidades de estado existe y son independientes de la condicin inicial. Si es un vector 1 x m definido como, Limkinfinito P(k)= Entonces puede satisfacer =P. Para el ejemplo, esta ecuacin se puede ser resuelta con la restriccin

im =1
i

para obtener (1

2)

Estado transitorio Si es un estado transitorio si se puede dejar el estado pero nunca retornar a l.

Estado absorbente

Si es un estado absorbente si el sistema entra al estado y permanece ah. Y el lmite de la probabilidad de estado es 1. este estado es conocido tambin como estado trampa.

Cadena recurrente Una cadena recurrente es un conjunto de estados de los que el sistema no puede salir. Un estado transitorio conduce al sistema dentro de este conjunto de estados. El sistema hace saltos dentro de este conjunto indefinidamente. La cadena recurrente es tambin llamada subcadena de Markov irreducible o de clases recurrentes.

Finalmente se presentan unos tiles factores de las cadenas de Markov: Cada cadena de Markov debe tener al menos una cadena recurrente. Una cadena recurrente es un estado absorbente generalizado. Un proceso de Markov que tiene una cadena recurrente ser completamente ergdica desde dondequiera que el inicie finalizara en cadena recurrente. Si un proceso tiene dos o ms cadenas recurrentes, entonces la propiedad ergdica no se mantiene en el tiempo. Un estado transitorio es un estado que ocupa el sistema antes de convertirse en una cadena recurrente.

2. CADENAS ERGDICAS Condicin suficiente: si existe un n>0 tal que Pijn >0; i, j=0,1,2....m. la cadena de Markov, con esta propiedad, se llama ergdica. Entonces, P ijn = k=0 (Pikn * Pkj), luego j = k=0 (k * Pkj) y como j=0 Pijn = 1, entonces j=0 j =1 Teorema. Para una cadena de Markov ergdica, j =Lim j = k=0 (k * Pkj) y j=0 j =1.
ninfinito

Pijn existe y j (j

pertenece {0,..,m}) es la nica solucin no negativa de j. Entonces:

2.1. LMITES ERGDICOS EN LAS CADENAS DE MARKOV

La relacin fundamental en una cadena de Markov es: Pn =Mn P0. Y si nuestro inters es el comportamiento asinttico de Pn, es decir Lim ninfinito Pn entonces el problema es encontrar las condiciones para que este lmite exista y en caso de existir, depender del estado inicial del sistema? Bajo condiciones de regularidad la distribucin asinttica existe y bajo estas condiciones la distribucin en el lmite ser independiente de la distribucin inicial. TEOREMA BSICO DEL LMITE PARA CADENAS DE MARKOV: En una cadena de Markov recurrente irreducible y aperidica se tiene que:

1 Lim ninfinito Piin =

inf

n=1

n fiin

Siendo fii la probabilidad de que el proceso regrese al estado i dado que comienza en el estado i. Y adems Lim ninfinito Pijn = Lim ninfinito Piin Del teorema se pueden sacar fuertes conclusiones: Si M = Pij es la matriz de transicin de una cadena de Markov, y si suponemos que esta cadena es recurrente, irreducible y aperidica, se nos garantiza la existencia de la matriz de la forma : M (infinita) donde la entrada j,i es P ij(inf) =Lim ninfinito Pijn , pero como Pij(inf) = Pii(inf) se concluye que la matriz M(infinita) tiene sus columnas iguales, esto es

M(infinita) =

P00inf P11inf P22inf


.

Piiinf

P00inf P11inf P22inf . Piiinf

P00inf P11inf P22inf . Piiinf

. .

Sea C una cadena irreducible y recurrente, entonces P ijn =0 para i pertenece a C y j no pertenece a C dado n. Esto es, toda vez que entremos en C no es posible

abandonarlo, luego la matriz Pij con i,j perteneciendo a C estar asociada a una cadena de Markov irreducible y recurrente luego el teorema bsico es aplicable si la clase resulta ser aperidica. Ahora si Lim ninfinito Piin = =0 y la clase es recurrente se dir entonces que la clase es dbilmente ergdica o nula recurrente. Supongamos que Lim
ninfinito

Piin = i >0 para algn i en una clase aperidica

recurrente, entonces j >0 para todo j que est en la clase de i. Si este es el caso diremos que la clase es positiva recurrente o fuertemente ergdica.

El valor infn=1 n fiin = mi. se define como el tiempo medio de recurrencia del estado i. Ahora se asegura, sin demostracin, que bajo las condiciones de regularidad del teorema anterior, que Lim ninfinito Piin = 1/mi = i. El clculo de los i se entrega en el siguiente teorema.

Teorema. En una clase aperidica positiva recurrente con estados i=0,1,2.... se tiene que Lim ninfinito Piin = i = infk=0 Pkj k ; infk=0 k =1 estacionaria de la cadena de Markov. (1)

Cualquier conjunto i que satisfaga (1) se llama probabilidad de distribucin

Observe que si Pij es la matriz de transicin asociada a una clase recurrente ergdica positiva, entonces la ecuacin i = infk=0 Pkj k llevada a su forma matricial: P00 P01 P02 . . . P0i . . P10 P11 P12 . . . P1i . . P20 P21 P22 . . . P2i . . . . . . . 1 2 3 . . . i . . 1 2 3 . . . i . .

Establece claramente que (1 2 3.....) t es un auto vector (a la derecha) de la matriz Pij asociado al autovalor 1. Para esto debemos saber que la matriz de Markov tiene

un autovalor igual a 1, ms an, este valor ser el mayor, en valor absoluto, si la matriz es primitiva, esto es si todas sus entradas son positivas para alguna potencia de la matriz.

ENUNCIADO DEL PROBLEMA.


La distribuidora MI DIANITA de la cual nosotros analizaremos el comportamiento de la taza de transferencia de la demanda de jaboncillos como: JABONES NEKO, NIVEA, PALMOLIVE Y OTROS.

- Las ventas semanales se dan en la siguiente tabla.


PRODUCTO NEKO NIVEA PALMOLIVE OTROS SEMANA 01 854 132 300 371 SEMANA 02 727 111 290.5 301

La porcin de la demanda que no contina en el mismo

producto i se traslada

uniformemente a los dems productos n-i.

Las probabilidades iniciales de demanda de cada producto son: 51.54% de NEKO,

7.96% de NIVEA, 18.11% de PALMOLIVE y 22.39% de OTROS.

SOLUCION DEL PROBLEMA

1) DESCRIPCION DE LOS ESTADOS:

NUMERO DE ESTADO 01 02 03 04

ESTADO NEKO NIVEA PALMOLIVE OTROS

SIMBOLO DE ESTADO N. C. P. O.

2) EL PROCESO DE TRANSFERENCIA DE DEMANDA COMO CADENA DE MARKOV.

NEKO

NIVEA

PALMOLIVE

OTROS

El proceso se define como una cadena de Markov debido a que cumple la propiedad Markoviana de la siguiente forma:

Al pasar de un estado a otro la probabilidad de la demanda de cada producto puede aumentar o disminuir. La cantidad de clientes (demanda) que llega a un estado proveniente de otro estado, depende solo de que en el estado i el cliente quedo insatisfecho o este desea probar nuevos productos n-i. El proceso se mira como un proveedor que le entrega a su prximo cliente teniendo en cuenta que tanto le entrega al cliente del nivel anterior y al cliente actual.

3) DATOS RESUMIDOS PARA CONSTRUIR LA MATRIZ PRODUCTO NEKO NIVEA PALMOLIVE OTROS TOTAL SEMANA 01 854 132 300 371 1657 SEMANA 02 727 111 290.5 301 1429.5

4) ICONO DEL PROBLEMA NEKO NIVEA

PALMOLIVE

OTROS

5) CALCULO DE PROBABILIDADES
PROPORCIONES DE DEMANDA (SEMANA 01) semana 01 comprende desde el da 20 hasta el da 26 PROPORCIONES

DEMANDA DE NEKO DEMANDA DE NIVEA DEMANDA DE PALMOLIVE DEMANDA DE OTROS DEMANDA TOTAL

854 132 300 371 1657

0.5154 0.0796 0.1811 0.2239

PROBABILIDADES DE TRANSFERENCIA DE LA DEMANDA ENTRE ESTADOS DEMANDA QUE CONTINUA EN "i" 0.8512 0.8409 0.9683 0.8111

PRODUCTO DEMANDA DE NEKO DEMANDA DE NIVEA DEMANDA DE PALMOLIVE DEMANDA DE OTROS

SEMANA SEMANA 01 02 854 132 300 371 727 111 290.5 301

DEMANDA QUE NO CONTINUA EN "i" 0.1487 0.159 0.0317 0.1886

LA DEMANDA QUE NO CONTINUA EN "i" PASA EN PARTES IGUALES A "n-i" OREJITAS DEMANDA QUE NO CONTINUA EN NEKO DEMANDA QUE NO CONTINUA EN NIVEA. DEMANDA QUE NO CONTINUA EN PALMOLIVE DEMANDA QUE NO CONTINUA EN OTROS 0.054 0.0106 0.063 0.0106 0.063 0.063 KEKE DE N. PIONONO PASTELITOS 0.0496 0.0496 0.053 0.0496 0.053 0.0106

6) MATRIZ DE TRANSICION
ESTADOS NEKO NIVEA PALMOLIVE OTROS KEKE DE OREJITAS NARANJA PIONONO PASTELITOS 0.8512 0.0496 0.0496 0.0496 0.054 0.8409 0.053 0.053 0.0106 0.0106 0.9683 0.0106 0.063 0.063 0.063 0.8111

7) CLASIFICACION DE LOS ESTADOS Primeramente diremos que es una cadena de markov ergodica. Los cuatro estados (orejitas, keke de naranja, pionono, pastelitos) son: Estados aperiodicos. Estados concurrentes. Estados comunicados. Estados alcanzables. 8) ARBOL DE LA DISTRIBUCION DE PROBABILIDADES DEL COMPORTAMIENTO DE LA TRANSFERENCIA DE LA DEMANDA.

N C P O

N C P O

N C P O N

C P O

De acuerdo a la matriz anterior y a los datos de la demanda de los productos se generan las siguientes interrogantes:

1.- Cual es la matriz de transicin para 2 semanas y 4 semanas. Pasando 2 semanas la demanda se mantendr de la siguiente manera.

P = P*P
0.8512 0.0540 0.0106 0.0630 0.0496 0.8409 0.0106 0.0630 0.0496 0.0530 0.9683 0.0630 0.0496 0.0530 0.0106 0.8111 0.8512 0.0540 0.0106 0.0630 0.0496 0.8409 0.0106 0.0630 0.0496 0.0530 0.9683 0.0630 0.0496 0.0530 0.0106 0.8111

0.7309 0.0953 0.0205 0.1088

0.0876 0.7137 0.0203 0.1079

0.0958 0.1017 0.9307 0.1183

0.0856 0.0908 0.0199 0.6650

Despus de 4 semanas la matriz de transicin de la transferencia de demanda ser la siguiente:

0.7309 0.0953 0.0205 0.1088 0.0876 0.7137 0.0203 0.1079

(P)
0.0856 0.0908 0.0199 0.6650 0.7309 0.0876 0.0958 0.0856 0.0953 0.7137 0.1017 0.0908 0.0205 0.0203 0.9307 0.0199 0.1088 0.1079 0.1183 0.6650

0.0958 0.1017 0.9307 0.1183

0.5538 0.1496 0.0381 0.1646

0.1317 0. 5296 0.0374 0.1607

0.1782 0. 1870 0.8725 0.2101

0.1294 0.1354 0.0354 0.4637

2.- Conociendo la demanda inicial de:


NEKO NIVEA PALMOLIVE OTROS 0.5154 0.0796 0.1811 0.2239

Despus de 2 y 4 semanas cual ser el nuevo porcentaje de cantidad demandada de orejitas, keke de naranja, pionono, pastelitos.

Despus de 2 semanas ser:

p*P
*

= 0.5154 0.0796 0.1811 0.2239

0.7309 0.0953 0.0205 0.1088

0.0876 0.7137 0.0203 0.1079

0.0958 0.1017 0.9307 0.1183

0.0856 0.0908 0.0199 0.6650

N = 0.4123

C 0.1296

P 0.2525

O 0.2038

El nuevo porcentaje de cantidad demandada de cada producto despus de 2 semanas ser:

PRODUCTO DEMANDA DE NEKO DEMANDA DE NIVEA DEMANDA DE PALMOLIVE DEMANDA DE OTROS

PORCENTAJE DE CANTIDAD DEMANDADA 41.23% 12.98% 25.25% 20.38%

Despus de 4 semanas ser:

p*(P)

= 0.5154 0.0796 0.1811 0.2239

0.5538 0.1496 0.0381 0.1646

0.1317 0. 5296 0.0374 0.1607

0.1782 0. 1870 0.8725 0.2101

0.1294 0.1354 0.0354 0.4637

N = 0.3411

C 0.1559

P 0.3118

O 0.1877

El nuevo porcentaje de cantidad demandada de cada producto despus de 2 semanas ser:

PRODUCTO DEMANDA DE NEKO DEMANDA DE NIVEA DEMANDA DE PALMOLIVE DEMANDA DE OTROS

PORCENTAJE DE CANTIDAD DEMANDADA 34.11% 15.59% 31.18% 18.77%

3.-Obtener la matriz limite de las sucesivas potencias de la matriz de transicin para conocer las probabilidades de demanda a largo plazo.

t*P=t

t1

t2

t3

t4

0.8512 0.0496 0.0496 0.0540 0.8409 0.0530 0.0106 0.0106 0.9683 0.0630 0.0630 0.0630

0.0496 0.0530 0.0106 0.8111

t1

t2

t3

t4

0.8512 t1 + 0.0496 t2 + 0.0496 t3 + 0.0496 t4 = t1 0.0540 t1 + 0.8409 t2 + 0.0530 t3 + 0.0530 t4 = t2 0.0106 t1 + 0.0106 t2 + 0.9683 t3 + 0.0106 t4 0.0630 t1 + 0.0630 t2 + 0.0630 t3 + t1 + t2 + t3 + 0.8111 t4 t4 = t3 = t4 =1

SOLUCION

t1 = 0.2356 t2 = 0.1981 t3 = 0.3674

t4 = 0.1981

P =

0.2356 0.2356 0.2356 0.2356

0.1981 0.1981 0.1981 0.1981

0.3674 0.3674 0.3674 0.3674

0.1981 0.1981 0.1981 0.1981

Esta es la matriz limite en la que hay un equilibrio establece las cantidades demandadas de los 4 productos.

El porcentaje de las cantidades demandadas a largo plazo son:


PRODUCTO DEMANDA DE NEKO DEMANDA DE NIVEA DEMANDA DE PALMOLIVE DEMANDA DE OTROS PORCENTAJE DE CANTIDAD DEMANDADA 23.56% 19.81% 36.74% 19.81%

CONCLUSIONES
1.

Esta primera conclusin es para decir que no se concluir sobre los resultados numricos del proceso, pues en el desarrollo del mismo se explica claramente las respuestas obtenidas. Nuestro deseo es expresar conclusiones alrededor del proceso de construccin del conocimiento y crear una inquietud acerca del proceso a analizar.

2.

Se requiere de ms tiempo para poder elaborar un buen documento que sirva como apoyo a otras personas que quieran profundizar en el modelado y explicacin de una cadena de Markov.

3.

No es fcil construir una matriz de transicin. En este problema en particular se tuvo que modelar el proceso de la demanda con los datos disponibles en la empresa. No hay otros ms.

4.

5.

Se aprendi a construir la matriz de transicin por medio de proporciones generadas por los datos totales de la demanda en cada uno de los productos fabricados (orejitas, keke de naranja, pionono, pastelitos).

6.

El problema se abordo desde una perspectiva acadmica, pero siempre con el norte de responderle a un empresario de forma tcnica y cientfica todas las inquietudes que se generan alrededor de una cadena de Markov.

7.

Las cadenas de Markov no deben abordase de una forma simple, ellas tienen una sustentacin matemtica fuerte y unos requisitos que se deben probar.

Existen inquietudes que nos llevan a concluir que no es solamente construir una matriz y calcularle probabilidades de estado estable y tiempos de ocurrencia y recurrencia, las cadenas de Markov son mucho ms.

BIBLIOGRAFA

INTRODUCCIN A LA INVESTIGACIN DE OPERACIONES, Hiller and Lieberman, Edit.Mc Graw Hill.

LGEBRA LINEAL. Grossman, Edit. Iberoamrica. APUNTES DE CLASE, Ing. CARLOS COELLO OBALLE - UNP. Documentos bajados de la Internet.
1. 2. 3. 4.

Cadenas de Markov Lmites ergdicos en las cadenas de Markov. Notas sobre cadenas de Markov. Anlisis de Markov.

Vous aimerez peut-être aussi