Vous êtes sur la page 1sur 10

INVESTIGACION DE OPERACIONES TAREA lll

TOSA MARGARITA GARCIA OLIVAS

MAESTRA SANDRA SANCHEZ

CUARTO TETRAMESTRE
FORMULACIÓN DEL PROBLEMA DUAL

(Teoría de Dualidad)

Hemos visto como la programación lineal puede ser usada para resolver una extensa variedad de
problemas propios de los negocios, ya sea para maximizar utilidades o minimizar costos. Las
variables de decisión en tales problemas fueron, por ejemplo, el número de productos a producir, la
cantidad de pesos a emplear, etc. En cada caso la solución óptima no explicó cómo podrían ser
asignados los recursos (ejemplo: materia prima, capacidad de las máquinas, el dinero, etc.) para
obtener un objetivo establecido.

En este capítulo veremos que a cada problema de programación lineal se le asocia otro problema de
programación lineal, llamado el problema de programación dual. La solución óptima del problema
de programación dual, proporciona la siguiente información respecto del problema de programación
original:

1. La solución óptima del problema dual proporciona los precios en el mercado o los beneficios
de los recursos escasos asignados en el problema original.

2. La solución óptima del problema dual aporta la solución óptima del problema original y
viceversa.

EJEMPLO:

Una compañía produce y vende 2 tipos de máquinas de escribir: manual y eléctrica. Cada máquina
de escribir manual es vendida por un ingreso de 40 dls. y cada máquina de escribir eléctrica produce
un ingreso de 60 dls. Ambas máquinas tienen que ser procesadas (ensambladas y empacadas) a
través de 2 operaciones diferentes (O1 y O2).

La compañía tiene una capacidad de 2000 hrs. Mensuales para la operación O1 y 1000 hrs.
Mensuales de la operación O2.
El número de horas requeridas de O1 y O2 para producir un modelo terminado se da en la siguiente
tabla.

HORAS REQUERIDAS CAPACIDAD

OPERACIÓN MANUAL ELECTRICA (HRS MENSUALES)

O1 3 2 2000

O2 1 2 1000

Encuentre el número óptimo de unidades de cada tipo de máquina de escribir que se debe producir
mensualmente para maximizar el ingreso.

OBJETIVO: Maximizar el ingreso total

RESTRICCIONES: horas mensuales de las operaciones

VARIABLE DE DECISION: número de máquinas de escribir a producir

X1 = número de máquinas de escribir manuales

X2 = número de máquinas de escribir eléctricas

Maximizar Z= 40 X1 + 60X2

Sujeto a:

Minimizar Z=2000 W1 + 1000 W2

Sujeto a:
V. Básica Z W1 W2 S1 S2 Solución

Z 1 0 0 5 25 35000

S1 0 1 0 1/ 2 -1/2 500

W1 0 0 1 -1/ 4 3/ 4 250

CONDICIONES DE KUHT TUCKER

Optimización con restricciones de desigualdad: Condiciones de Kuhn-Tucker Hasta ahora, hemos


estudiado como maximizar o minimizar una función sujeta a restricciones en forma de ecuaciones de
igualdad. En esta sección, nos ocuparemos de problemas de programación no lineal, con
restricciones en forma de desigualdad. Los programas con restricciones de desigualdad, tienen una
historia mucho más reciente que los programas analizados anteriormente. Las características y
métodos de resolución de estos, se empiezan a dar a conocer en los años cincuenta de este siglo,
mientras que los programas con restricciones de igualdad o sin restricciones conforman la
optimización clásica, y han sido utilizados desde el siglo XVIII. Los métodos teóricos de resolución de
los programas no lineales, con restricciones de desigualdad, son conocidos a partir de los trabajos de
los matemáticos norteamericanos Kuhn y Tucker, publicados en 1951. Este tipo de programas
representan con más fidelidad, las circunstancias en las que se desenvuelve la actividad económica,
ya que normalmente se dispone de cantidades limitadas de recursos - más de una vez habremos
leído que la economía es la ciencia de la escasez - pero sin la obligación de emplearlas en su
totalidad, si ello no resulta necesario. Así, este nuevo tipo de programas, nos posibilita obtener
soluciones óptimas que no saturen1 necesariamente todas las restricciones, pudiendo quedar
recursos que no sea necesario utilizar hasta su agotamiento. Consideremos el problema sencillo de
programación no lineal: ܿ ≥ (‫ ݕ‬,‫ ݕ( ݐܿܿݑݏܿ ܿ ܿ)ݔ‬,‫ ܿ)ݔ‬max 1 Un punto factible (‫ ݔ‬,‫( ݕ‬satura o
activa la restricc

Método Dual-Simplex.

El método dual-simplex se aplica para resolver problemas que empiezan


confactibilidad dual, es decir, óptimos pero infactibles.

Un problema se puede resolver por el método dual-simplex, cuando, después


de igualar acero la función objetivo y convertir las restricciones en
ecuaciones, agregando las variables de holgura necesarias, al menos uno,
cualquiera de los elementos del vector b (vector de disponibilidades) es
negativo y la condición de optimalidad se satisface.

Un comparativo entre el método simplex y el método dual-simplex.

El método dual-simplex requiere de la aplicación de dos criterios para su


solución: El criterio de optimalidad que asegura que la solución permanecerá
óptima todo el tiempo y el criterio de factibilidad que forza las soluciones
básicas hacia el espacio factible.

Criterio de Factibilidad. La variable saliente será aquella variable básica que


tenga el valor más negativo en el vector bi. Si todas las variables
básicas sonpositivas o sea 0 se tiene la solución final, óptima y factible.

Criterio de optimalidad. La variable entrante se selecciona de entre


lasvariables no-básicas como sigue:

Dividir los coeficientes de la ecuación cero entre los coeficientes de la


ecuación asociada con la variable saliente, ignorando
denominadorespositivos y/o ceros. La variable entrante será aquella
cuyo cociente sea el menor, si el problema es de minimizar, ó el de
menor valor absoluto si es de maximizar. Si todos los denominadores
son 0, el problema no tendrá solución factible.

La aplicación del método dual-simplex es especialmente útil para el tema


deanálisis de sensibilidad. El procedimiento del método dual-simplex se
explicara más objetivamente con los siguientes ejemplos:

Ejemplo 1
Considere el siguiente modelo de PL y determine su solución por el método
dual-simplex.

Minimizar. Z= 2X1 + X2
S.A.
3X1 +X2  3
4X! +3X2 6
X! +2X2 # 3

X10 , X20 X30

Igualando a cero la función objetivo y agregando las variables de holgurapara


obtener ecuaciones de restricción.

Cambios en el vector C de coeficientes de la función


objetivo.
Este cambio se analiza mediante la fórmula: Zj - Cj = CBB-1 A - C = YA - C y da
lugar a que se pueda perder la optimalidad de la solución ya obtenida. Debe
hacerse la diferencia de cambios en el coeficiente de una variable Xj que no está en
la base, en cuyo caso hay cambios en su columna y en los precios sombra; también
el caso de cambio al coeficiente de una variable básica, puede resultar en pérdida
de factibilidad y/u optimalidad. Se muestran los ejemplos siguientes:

Se recurre al siguiente problema muy pequeño, pues contiene tres variables que
representan la actividad del problema y sólo dos restricciones.
Ejemplo 3-7. Cambio en el vector C de costos en MINSENC1.

Dado el modelo de PL siguiente y su correspondiente tabla simplex óptima:

Figura 3-21. Modelo y tabla simplex óptima del ejemplo MINSENC1.

Para cambios en el vector C de coeficientes de la función objetivo Z, se calcula el


intervalo del valor para cada coeficiente de C, que permite conservar la solución
óptima en un problema específico. Se procede así con el ejemplo.

Sea: j =unidades de cambio en (+) o en (-), del coeficiente Cj en la función Z.

La fórmula a utilizar: Zj - Cj = YA -C, se puede simplificar en Zj - Cj = Yaj - Cj con


el propósito de manejar sólo la columna aj, en vez de la matriz A, y sólo el
coeficiente Cj, en vez del vector C, pues el interés del cambio es sólo en Xj.

Ahora ya se tienen los intervalos en el valor de los coeficientes en el vector C, que


permiten conservar la solución óptima ( Zj - Cj <= 0). Aquí se propone lo siguiente:

Cambio en el vector C de un coeficiente Cj de variable no básica.-

Suponga el coeficiente C3 = 4 de la variable X3 en la función Z, cambia a C3 = -4.


Esto significa 3 = -8 = -16/2, quedando fuera del intervalo permisible y por lo
tanto se espera que la solución se convierta a no óptima, al cambiar a signo (+) el
indicador Z3 - C3, como se muestra enseguida:
Se arregla la tabla simplex, sustituyendo en el renglón Z el coeficiente
indicador Z3 - C3 = 1/2, el cual provoca la pérdida de optimalidad en la solución
actual, señalando que la variable X3 no básica debe entrar a la base y sustituir a
X2 que es variable saliente. Esto se conoce como reoptimizar:

Figura 3-22. Reoptimización en ejemplo MINSENC1, debido al cambio en


C3 de variable no básica.

La nueva solución óptima es: Zo = 4; X1 = 28, X3 = 20, X2 = S1 = W1 = W2 =


0. Cambian: la base, X3 sustituye a X2, columnas X2 y X3, y precio sombra en W2.

Ejemplo 3-8. Cambio en el vector C de costos en MINSENC2.

Dada la tabla simplex óptima y el modelo que la origina:

CAMBIOS EN UN COFICIENTE DE UNA FUNCION

En el contexto del Análisis de Sensibilidad o Postoptimal en Programación Lineal y una vez

alcanzada la tabla (tableau) final en la aplicación del método simplex, resulta de interés evaluar el
impacto en la solución óptima del problema si cambia un coeficiente o parámetro en la función
objetivo asociado a una variable básica. Se busca dar respuesta a este escenario sin la necesidad

de reoptimizar, es decir, de resolver el problema original nuevamente.

Para conservar la solución óptima identificada inicialmente, se debe cumplir que el costo reducido

de todas las variables debe ser mayor o igual a cero (recordar que el costo reducido de las

variables básicas es cero por tanto dicha condición en la práctica se establece sobre las variables
no básicas). Lo anterior se garantiza si el incremento es cualquiera en el siguiente intervalo:

Donde rj es el costo reducido de la respectiva variable no básica en la actual solución óptima y los

coeficientes yij denotan las entradas en la tabla final del método simplex asociadas a la variable

básica xi (cuyo costo cambia) y la respectiva variable no básica xj.


Para presentar el concepto anteriormente expuesto consideremos el siguiente problema

de Programación Lineal:

Luego de llevar a la forma estándar, incorporando S1, S2 y S3 como las variables de holgura de

las restricciones 1, 2 y 3 respectivamente y resolver el modelo lineal anterior a través del método
simplex se alcanza la siguiente tabla óptima:

ADICCION DE UNA NUEVA VARIIABLE

Después de obtener la solución óptima en un problema de programación lineal, a menudo es deseable estudiar el
efecto de cambios discretos en los coeficientes del problema en la solución óptima actual. Una forma de lograrlo
es resolviendo el problema de nuevo, pero puede ser computacionalmente ineficiente. Si uno hace uso de ciertas
propiedades del método simplex, es posible reducir los cálculos adicionales considerablemente.
Los datos para el planteamiento del problema normalmente son estimaciones de eventos futuros y, tal vez, nos
interese conocer como cambiaría la solución óptima si existe algún cambio importante en los datos del modelo.

Los cambios en el problema de programación lineal usualmente estudiados son:

1. Cambios en la disponibilidad de las restricciones.

2. Cambios en los coeficientes de la función objetivo.

3. Cambios en los coeficientes tecnológicos de las variables.

4. Adición de nuevas variables al modelo.

5. Adición de nuevas restricciones al modelo.

Vous aimerez peut-être aussi