Vous êtes sur la page 1sur 25

Optimizacin y Simulacin de Procesos

Enrique Eduardo Tarifa


Facultad de Ingeniera - Universidad Nacional de Jujuy

Mtodos Analticos

Introduccin
Hasta aqu hemos analizado la forma de plantear un problema de optimizacin, ahora es el turno
de resolverlo. Si bien existen numerosos software para ese fin (Solver, LINGO, GAMS), poco
se podra hacer con ellos si no se tiene una nocin por lo menos de la forma en que trabajan. Por
ejemplo, suponga que quiere resolver el siguiente simple problema:
Max f(x) x3 9 x2 26 x 24
x
s.a. (1)
x  1.5
x  4.75

Utilizando el Solver de Excel, la solucin reportada (inicializando con x = 1.5) es xopt = 2.42 con
yopt = 0.38. Cualquier usuario sin experiencia podra tomar este resultado y utilizarlo ignorando
que en realidad no es el ptimo. En efecto, graficando f(x) vemos cul es el problema:

Figura 1: Extremos relativos y absolutos.

El Excel nos da una pista cuando le pedimos el informe de Lmites, la solucin ptima es xopt =
4.75 con yopt = 3.61, bastante diferente de la reportada al principio!. Este problema aumenta
geomtricamente con el nmero de variables.

Por otra parte, Solver tiene varios parmetros para regular, sin un conocimiento cabal de sus
significados dependeramos peligrosamente de la capacidad de los programadores para anticipar

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 1
todo tipo de problemas. La Figura 2 muestra el cuadro de Opciones de Solver.

Figura 2: Opciones de Solver (Excel 97).

Otro tanto ocurre con LINGO. Este programa nos facilita enormemente la tarea de ingresar el
modelo. Por ejemplo, el problema de los sensores planteados en el captulo anterior se formula
de la siguiente manera:

MODEL:
TITLE Validacion_II;
!En este ejemplo se considera la posibilidad de sensores
fallados;
SETS:
!Cada corriente tiene una valor verdadero otro medido
y una bandera de estado del sensor. Si la bandera es 1,
el sensor funciona bien;
Corrientes/Entrada1, Entrada2, Entrada3, Entrada4
Salida1, Salida2/: Caudal, Medido, Activo;
ENDSETS

DATA:
!Lecturas de los sensores;
Medido = 10, 11, 15, 14, 24, 25;
ENDDATA
INIT:
Caudal = 10, 11, 15, 14, 24, 25;
Activo = 1, 1, 1, 1, 1, 1;
ENDINIT
!Queremos minimizar el error y maximizar los sensores;
[Objetivo] MIN =
((@SUM( Corrientes: Activo*(Caudal-Medido)^2))/
(@SUM( Corrientes: Activo)-4));

!Sujeto a;
[Balance_Global] Caudal(1) + Caudal(3) = Caudal(5);
[Balance_Local1] Caudal(1) = Caudal(2);
[Balance_Local2] Caudal(3) = Caudal(4);

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 2
[Balance_Local3] Caudal(5) = Caudal(6);
@FOR( Corrientes:
[Positivo] Caudal > 0;
[Errores_sup] Activo*(Caudal-Medido) <= 1.5;
[Errores_inf] Activo*(Caudal-Medido) >= -1.5;
[Binarias] @BIN(Activo));
END

Observe que hay un bloque de inicializacin, qu tan sensible es LINGO a los valores
especificados en esta seccin. Por otra parte, cul es el significado del reporte de LINGO:

Rows= 23 Vars= 12 No. integer vars= 6


Nonlinear rows= 13 Nonlinear vars= 12 Nonlinear constraints=
12
Nonzeros= 63 Constraint nonz= 39 Density=0.211
No. < : 6 No. =: 4 No. > : 12, Obj=MIN Single cols= 0
Local optimal solution found at step: 22
Objective value: 0.8333333
Branch count: 0
Model Title: VALIDACION_II

Variable Value Reduced Cost


CAUDAL( ENTRADA1) 10.33333 0.0000000
CAUDAL( ENTRADA2) 10.33333 0.0000000
CAUDAL( ENTRADA3) 14.33333 0.0000000
CAUDAL( ENTRADA4) 14.33333 0.0000000
CAUDAL( SALIDA1) 24.66667 0.0000000
CAUDAL( SALIDA2) 24.66667 0.0000000
MEDIDO( ENTRADA1) 10.00000 0.0000000
MEDIDO( ENTRADA2) 11.00000 0.0000000
MEDIDO( ENTRADA3) 15.00000 0.0000000
MEDIDO( ENTRADA4) 14.00000 0.0000000
MEDIDO( SALIDA1) 24.00000 0.0000000
MEDIDO( SALIDA2) 25.00000 0.0000000
ACTIVO( ENTRADA1) 1.000000 -0.3611107
ACTIVO( ENTRADA2) 1.000000 0.0000000
ACTIVO( ENTRADA3) 1.000000 0.0000000
ACTIVO( ENTRADA4) 1.000000 0.0000000
ACTIVO( SALIDA1) 1.000000 0.0000000
ACTIVO( SALIDA2) 1.000000 0.0000000

Row Slack or Surplus Dual Price


OBJETIVO 0.8333333 -0.3333333
BALANCE_GLOBAL -0.3552714E-14 0.0000000
BALANCE_LOCAL1 0.0000000 0.0000000
BALANCE_LOCAL2 0.0000000 0.0000000
BALANCE_LOCAL3 0.0000000 0.0000000
POSITIVO( ENTRADA1) 10.33333 0.0000000
ERRORES_SUP( ENTRADA1) 1.166667 0.0000000
ERRORES_INF( ENTRADA1) 1.833333 0.0000000
POSITIVO( ENTRADA2) 10.33333 0.0000000
ERRORES_SUP( ENTRADA2) 2.166667 0.0000000
ERRORES_INF( ENTRADA2) 0.8333328 0.0000000
POSITIVO( ENTRADA3) 14.33333 0.0000000
ERRORES_SUP( ENTRADA3) 2.166667 0.0000000
ERRORES_INF( ENTRADA3) 0.8333326 0.0000000
POSITIVO( ENTRADA4) 14.33333 0.0000000
ERRORES_SUP( ENTRADA4) 1.166667 0.0000000
ERRORES_INF( ENTRADA4) 1.833333 0.0000000
POSITIVO( SALIDA1) 24.66667 0.0000000

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 3
ERRORES_SUP( SALIDA1) 0.8333346 0.0000000
ERRORES_INF( SALIDA1) 2.166665 0.0000000
POSITIVO( SALIDA2) 24.66667 0.0000000
ERRORES_SUP( SALIDA2) 1.833335 0.0000000
ERRORES_INF( SALIDA2) 1.166665 0.0000000

Para lograr un uso correcto de estas potentes herramientas, es necesario dominar algunos
conceptos tericos que sern tratados en este captulo.

Funciones de una sola variable


Introduccin
La optimizacin de funciones con una nica variable independiente es frecuente en el campo
de la ingeniera. Adems, varios mtodos diseados para mltiples variables utilizan
optimizaciones internas univariables. Por este motivo, son muchos los mtodos desarrollados
para las funciones de una nica variable.

Antes de resolver cualquier problema, debemos estudiar las funciones a fin de saber qu esperar
de sus comportamientos.

Funciones continua
Una funcin f(x) es continua en a si:
1. Existe f(a).
2. Existe el Lim f(x) para x tendiendo a a.
3. El valor de (1) es igual al valor de (2).

Funcin monotnica
Una funcin f(x) es monotnica si para todo par de puntos x1, x2 con x1  x2, se cumple f(x1) 
f(x2) (montona creciente), o se cumple f(x1)  f(x2) (montona decreciente). No es necesario
que se trate de una funcin continua.

Funcin unimodal
Un funcin es unimodal en a si es montona creciente para x  a y montona decreciente para
x  a. Tambin vale para la situacin inversa.

Definicin
Una funcin es unimodal en el intervalo [a, b] si y slo si es monotnica en ambos lados del
nico punto ptimo xopt en el intervalo. En otras palabras, si xopt es un punto mnimo de f(x) en
dicho intervalo, luego la funcin es unimodal si y slo si para todo punto x1 y x2,

x opt  x1  x2 < f(x opt)  f(x1)  f(x2) (2)

y
x opt  x1  x2 < f(x opt)  f(x1)  f(x2) (3)

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 4
Criterio de optimalidad
Cuando se est resolviendo un problema de optimizacin, aparecen dos situaciones:
Situacin esttica: Cmo podemos determinar si un dado punto x* es el la solucin
ptima?
Situacin dinmica: Si el punto x* no es el ptimo, entonces cmo llegamos a la
solucin ptima?

En este captulo trataremos de contestar la primera pregunta.

Optimo global y local


Sea f(x) definida en la regin R, el punto xopt  R es un mnimo global si y slo si f(xopt)  f(x)
para todo x  R.

Sea f(x) definida en la regin R, el punto xopt  R es un mnimo local si y slo si existe un valor
/ >0 tal que f(xopt)  f(x) para todo x que cumpla con |x - xopt| < /.

Observaciones:
Invirtiendo las desigualdades tenemos las definiciones para los mximos.
Si la funcin es unimodal, el mnimo local es automticamente el mnimo global.
Cuando la funcin no es unimodal, pueden existir mltiples puntos mnimos locales, y
el mnimo global slo puede ser determinado buscando todos los locales y seleccionando
el mejor.

Funciones cncavas y convexas


Como demostraron Wilde y Beightler (1967) la propiedad de unimodalidad es difcil de
establecer analticamente. Entonces, debemos contar con algn criterio ms fcil de establecer
que nos permita determinar si el problema tendr un nico ptimo o no. Este criterio es el que
analizaremos ahora.

Una funcin es cncava sobre una regin R si la siguiente relacin vale para todo par de puntos
xa y xb (pueden ser vectores) pertenecientes a R:
f[ xa (1 ) x b]   f(xa) (1 ) f(x b)
(4)
  [0,1]

Si se prohbe la igualdad, entonces tenemos una funcin estrictamente cncava. Cambiando el


sentido de la desigualdad podemos definir las funciones convexas. En la Figura 3 se muestran
algunos ejemplos. Observe, que la funcin todas son tambin unimodales, sin embargo la ltima
no es ni cncava ni convexa.

Otra observacin interesante es que una la recta es cncava y tambin convexa, pero no
satisface las condiciones de estrictamente cncava ni convexa. Adems, la suma de dos
funciones mantiene el carcter.

Las ecuaciones utilizadas para definir las funciones cncavas y convexas no son muy cmodas

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 5
para calcular. En cambio, para este fin, se utiliza la segunda derivada. Una funcin es cncava
sobre una regin R si f(x)  0 para todo x  R. Esta definicin se puede adaptar para las
funciones convexas y las estrictamente cncavas y convexas con slo modificar la desigualdad.

Figura 3: Funciones unimodales.

Regin convexa
Una regin R es convexa si para todo par de puntos xa y xb (pueden ser vectores) pertenecientes
a R se cumple:
x  x a (1 ) x b
  [0,1] (5)
x  R

En la Figura 4 se muestran algunos ejemplos para dos dimensiones.

Figura 4: Regiones convexas y no convexas.

Es muy importante contar con un mtodo para determinar si una regin es o no es convexa
porque esto afecta la solucin del problema; en la Figura 5 se muestran dos casos donde una
funcin cncava est siendo maximizada. En el primer caso, el dominio es convexo, por lo tanto
basta con encontrar el nico mximo relativo (fcil de encontrar) que automticamente ser
tambin el mximo absoluto. En cambio, en el segundo caso misma funcin es maximizada en
un dominio no convexo; ahora, es necesario estudiar lo que ocurre en las fronteras.

Se puede determinar si una regin es convexa o no estudiando las restricciones que la


determinan. Si todas las restricciones g(x) son funciones cncavas y adems g(x)  0; entonces,
tenemos una regin cerrada convexa. Lo mismo vale si todas las restricciones con convexas pero
ahora g(x)  0. Recuerde que las lneas rectas son tanto cncavas como convexas. En la Figura
6 se muestran los ejemplos para una sola variable, note que lo que se est graficando ahora son

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 6
las restricciones, no la funcin objetivo. En la Figura 7 se combinan los grficos, f(x) es la
funcin objetivo y g(x) es la restriccin.

Figura 5: Efecto de la regin sobre el ptimo.

Figura 6: Efecto de la restriccin sobre la regin.

Figura 7: Efecto de la regin sobre el ptimo.

Condiciones para un punto ptimo


Los valores ptimos de una funcin limitada a una regin slo pueden darse en limitadas

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 7
localizaciones. Por eso, es importante identificar estas posiciones para limitar la bsqueda a
ellas. Las localizaciones posibles de un ptimo son:
1. Los puntos estacionarios, donde f(x) = 0.
2. En los puntos de discontinuidad de la f(x).
3. En los puntos de discontinuidad de la f(x).
4. En las fronteras.

La Figura 8 muestra los puntos que deben ser explorados en la bsqueda de un mximo en el
intervalo [a,b].

Figura 8: Puntos extremos.

Condiciones para un ptimo interno o sin restricciones


Un ptimo interno a una regin, o un ptimo de un problema sin restricciones puede estar dado
por un punto estacionario. Aqu veremos la condiciones necesarias y suficientes para que un
dado punto sea considerado un punto ptimo.

Si f(x) es continua y sus derivadas tambin, entonces podemos de desarrollar la serie de Taylor
alrededor del punto candidato a:
h2 h j (j)
f(a h) f(a) h f (a) f (a) ... f () (6)
2! j!

donde h = x - a, y   [a, x].

La condicin necesaria para que en a exista un punto ptimo se deriva de la siguiente manera.
Supongamos que en x = a existe un mnimo, debido a que para valores pequeos de h es el
primer trmino de la mano derecha el que domina, tenemos que el signo de la diferencia f(a+h) -
f(a) depende del signo de h, hecho que se opone con la definicin de mnimo. Para asegurar que
la definicin de mnimo no es violada no queda otra alternativa que f(a) = 0. Esta es la
condicin necesaria para que un punto interno o sin restricciones sea mnimo. De la misma
manera se puede demostrar para un punto mximo.

Sabiendo que el primer trmino debe ser nulo, ahora nos concentramos en el segundo trmino.
Para h pequeos, este trmino predomina sobre el resto y fija el signo de la diferencia f(a+h) -

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 8
f(a). Se puede ver que si f(a) > 0, nos aseguramos que se cumpla la definicin de mnimo
independientemente del signo de h. Esta es una condicin suficiente para la existencia de un
mnimo. Para un mximo pediremos f(a) < 0.

En forma ms general, sea n es el orden de la primera derivada que no es nula en el punto x =


a, entonces:
Si n es par y f(n)(a) > 0, entonces tenemos un mnimo.
Si n es par y f(n)(a) < 0, entonces tenemos un mximo.
Si n es impar, entonces tenemos un punto de inflexin o ensilladura.

Funciones de varias variables


Introduccin
Las mismas situaciones consideradas para las funciones de un sola variables se presentan
tambin aqu, pero con el agravante que los inconvenientes crecen geomtricamente con el
nmero de variables a considerar.

La extensin de las mayoras de las definiciones antes realizadas son triviales, basta con pensar
que la variable x ahora es un vector. Aqu slo se repasarn las definiciones que incorporen
algn grado de dificultad.

En primer lugar, la f(x) ser reemplazada por el gradiente /f(x), mientras las segunda derivada
ser reemplazada por /2f(x) o Hessiano H(x) definido como:

02f(x) 02f(x)
0x12 0x10x2
H(x) (7)
02f(x) 02f(x)
0x20x1 0x22

Funciones cncavas y convexas


Primero debemos plantear las siguientes definiciones:
H(x) es definida positiva si y slo si vT H v > 0 para todo v g 0.
H(x) es definida negativa si y slo si vT H v < 0 para todo v g 0.
H(x) es indefinida si y slo si vT H v es < 0 para algunos v y > 0 para otros.
Cuando se contempla la igualdad, H es semidefinida.

Se puede demostrar, utilizando la serie de Taylor que:


Si H(x) es definida negativa en la regin R, la funcin f(x) es estrictamente cncava en
esa regin.
Si H(x) es definida positiva en la regin R, la funcin f(x) es estrictamente convexa en
esa regin.
Si H(x) es semidefinida, entonces f(x) ser slo cncava o convexa.

Para clasificar H(x) como definida positiva, se debe cumplir:


Todos los elementos de la diagonal deben ser positivos y los determinantes de H(x) y de

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 9
sus principales menores deben ser positivos.
O, todos los autovalores de H(x) deben ser positivos.

Para clasificar H(x) como definida negativa, se debe cumplir:


Todos los elementos de la diagonal deben ser negativos y los determinantes de H(x) y
de sus principales menores deben tener signos alternos comenzando con det(M1(H(x)))
< 0, donde M1 es la matriz principal 1 (el elemento de la esquina superior izquierda).
O, todos los autovalores de H(x) deben ser negativos.

Para los H semidefinidos, basta incorporara la igualdad. Cuando los autovalores tienen signos
mezclados, la funcin no es ni cncava ni convexa.

Los autovalores () y autovectores (v) se definen de la siguiente manera:


H v  v (8)

Los autovalores se obtienen de resolver la siguiente ecuacin:


|H  I| 0 (9)

Mientras que los autovectores se obtienen de resolver el siguiente sistema de ecuaciones, una
vez por cada autovalor (la solucin no es nica):
(H i I) v i 0 (10)

Ejemplo
Clasifique la siguiente funcin:
2 2
f(x) 2 x1 3 x1 x2 2 x2 (11)

Calculando el Hessiano:
0f(x)
4 x1 3 x2 (12)
0x 1

0f(x)
3 x1 4 x2 (13)
0x 2

02f(x)
4 (14)
0x12

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 10
02f(x)
4 (15)
0x22

02f(x) 02f(x)
3 (16)
0x10x 0x20x
2 1

Entonces, el Hessiano es:


4 3
H(x) (17)
3 4

Los menores principales son:


M1 (orden 1) = 4 det(M1) = 4
M2 (orden 2) = H det(M2) = 7

por lo tanto, H(x) es definida positiva y f(x) es estrictamente convexa.

Ejemplo
Clasifique la siguiente funcin utilizando autovalores:
2 2
f(x) 2 x1 2 x1 x2 1.5 x2 7 x1 8 x2 24 (18)

El Hessiano es:

4 2
H(x) (19)
2 3

Para determinar los autovalores planteamos:


4  2
|H(x)  I| (4 ) (3 ) 4 0 (20)
2 3 

los autovalores son 5.56 y 1.44, ambos positivos; por lo tanto, la funcin es estrictamente
convexa.

Regiones convexas
Se mantiene la misma definicin pero ahora se utiliza el Hessiano. Veamos un ejemplo.

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 11
Ejemplo
Determine si las siguientes restricciones forman una regin convexa:
x2  1
2
x1 (21)

x1 x2  2 (22)

Primero escribimos las restricciones en la forma g(x) 0:


1  0
2
g1(x) x1 x2 (23)

g2(x) x1 x2 2  0 (24)

Debemos demostrar que las dos funciones son cncavas, entonces calculamos los Hessianos:
2 0
H[g1(x)] (25)
0 0

0 0
H[g2(x)] (26)
0 0

como todos los autovalores son nulos o negativos, las matrices son semidefinidas negativas; por
lo tanto, las funciones son cncavas, y la regin es convexa. La Figura 9 muestra esta regin.

Figura 9: Regin convexa.

En la Figura 10 se puede ver los problemas que trae una regin no convexa, se pueden

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 12
determinar dos puntos ptimos.

Figura 10: Regin no convexa.

Condiciones necesarias y suficientes para un ptimo sin restricciones


La demostracin es parecida a la anterior, slo que ahora se utiliza el gradiente y el Hessiano.
La serie de Taylor alrededor del punto xopt es:
1
f(x) f(x opt) /Tf(x opt) x (X)T /2f(x opt) x O3(x) ... (27)
2

Siguiendo el mismo razonamiento que antes se tienen las condiciones necesarias (1 y 2) y la


suficiente (de 1 a 3):
1. f(x) es dos veces diferenciables en xopt.
2. /f(xopt) = 0, esto es xopt es un punto estacionario.
3. H(xopt) es definida positiva para que un mnimo exista en xopt, y definida negativa para
que exista un mximo en xopt.

Ejemplo
Calcule los puntos extremos de la siguiente funcin:
2 2 4 2
f(x) 4 4.5 x1 4 x2 x1 2 x2 2 x1 x2 x1 2 x1 x2 (28)

Haciendo el gradiente cero, tenemos el siguiente sistema de ecuaciones:


0f(x) 4.5 2 x1 2 x2 4 x1
3
4 x1 x2 0
0x 1 (29)

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 13
0f(x) 2
4 4 x2 2 x1 2 x1 0 (30)
0x 2

La solucin numrica de este sistema y su clasificacin se da en la siguiente tabla:


Puntos f(x) 1 2 Clasificacin
estacionarios
(x1, x2)

(1.941, 3.854) 0.9855 37.03 0.97 Mnimo local


(-1.053,1.028) -0.5134 10.5 3.5 Mnimo local
(0.6117,1.4929 2.83 7.0 -2.56 Ensilladura
)

Optimo con restricciones


Ahora analicemos cmo afectan las restricciones al problema de encontrar un punto ptimo.
Consideremos el problema general:
Min f(x)
x [ x1, x2, ..., x n]T
s.a. (31)
h j(x) 0 j 1, 2, ..., m
gj(x)  0 j m 1, m 2, ..., p

Las desigualdades (restricciones dbiles) se pueden transformar en igualdades por un mtodo


que veremos luego, por lo tanto el problema se reduce a manejar las igualdades (restricciones
fuertes).

La forma ms aconsejable de manejar las restricciones de igualdades es utilizar las mismas para
eliminar una cantidad equivalente de variables (mtodo de sustitucin) y transformar el
problema original en un problema sin restricciones y con menor cantidad de variables. Este
mtodo ya fue explicado en un captulo anterior. A continuacin veremos un ejemplo:

Ejemplo
2 2
Min f(x) 4 x1 5 x2
s.a. (32)
2 x1 3 x2 6

Utilizamos la igualdad para despejar x1:

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 14
6 3 x2
x1 (33)
2

sustituyendo en la funcin objetivo, tenemos la nueva funcin objetivo de una nica variable
y sin restricciones:
2
Min f(x2) 14 x2 36 x2 36 (34)

Como es una funcin de una nica variable podemos resolverlo con el mtodo estudiado en la
seccin anterior:
0f(x2)
28 x2 36 0 (35)
0x 2

entonces, x2opt = 1.286, y por lo tanto x1opt = 1.071.

Multiplicadores de Lagrange
Para aplicar el mtodo de los multiplicadores de Lagrange necesitamos llevar el problema
original a una forma donde slo existan restricciones fuertes (igualdades). A fin de analizar el
fundamento del mtodo, veamos el siguiente problema:
Min f(x1, x2)
s.a. (36)
h(x1, x2) 0

para que un punto sea considerado ptimo deber satisfacer las siguientes ecuaciones:
0f 0f
df 0 dx1 dx2
0x 1 0x 2
0h 0h (37)
dh 0 dx1 dx2
0x 1 0x 2

Debido a que las variables x1 y x2 no son independientes (estn vinculadas por la restriccin),
no es necesario pedir que ambas derivadas parciales de f sean nulas, sino que simplemente
pediremos que ambos trmino se cancelen mutuamente asegurando un df nulo (condicin para
ser un ptimo). Por otra parte, la segunda igualdad se debe cumplir porque h est igualada a una
constante (cero).

Las ecs. 37 constituyen un sistema de ecuaciones homogneo, el cual tendr solucin no trivial
(dx1 y dx2 no nulos) cuando el determinante sea igual a cero, esto es:

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 15
0f 0h 0f 0h
0 (38)
0x 1 0x 2 0x 2 0x 1

esto se puede escribir tambin de la siguiente forma:

0f 0h
0x 2 0x 2
(39)
0f 0h
0x 1 0x 1

o tambin:
0f 0f
0x 2 0x 1
(40)
0h 0h
0x 2 0x 1

o lo que es equivalente:
0f 0h
 0
0x 1 0x 1
0f 0h (41)
 0
0x 2 0x 2

donde  relaciona las derivadas de f y h y es llamado multiplicador de Lagrange.

Por comodidad, podemos plantear la siguiente funcin ampliada (Lagrangeana):


L(x, ) f(x)  h(x) (42)

note que h(x) = 0,

Si aplicamos a esta funcin las condiciones para un ptimo sin restricciones, obtendremos el
siguiente sistema de ecuaciones:

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 16
0L 0f 0h
 0
0x 1 0x 1 0x 1
0L 0f 0h
 0 (43)
0x 2 0x 2 0x 2
0L
h(x) 0
0

con incgnitas , x1 y x2. Observe que estas ecuaciones son las que obtuvimos en la ec. 41 y en
la ec. 36 como las condiciones que deba satisfacer un punto ptimo.

En la Figura 11 se muestra la interpretacin grfica de la condicin expresada en la ec. 39. La


conclusin es que en el punto ptimo, la restriccin se hace tangente a las curvas de nivel de la
funcin objetivo. Recuerde que el gradiente de una funcin es un vector perpendicular a la curva
de nivel e indica hacia el mximo de la funcin.

Figura 11: Multiplicadores de Lagrange.


Ejemplo
2 2
Min f(x) 4 x1 5 x2
s.a. (44)
h(x) 2 x1 3 x2 6 0

La funcin ampliada ser entonces:


2 2
L(x,) 4 x1 5 x2  (2 x1 3 x2 6) (45)

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 17
aplicando las condiciones necesarias:
0L
8 x1 2  0
0x 1
0L
10 x2 3  0 (46)
0x 2
0L
2 x1 3 x2 6 0
0

la solucin es opt = - 4.286, x1opt = 1.071 y x2opt = 1.286.

En este caso la solucin fue encontrada con tan slo resolver un sistema lineal de ecuaciones.
Sin embargo, en los casos en que el sistema a resolver es no lineal deberemos sopesar la
conveniencia de utilizar el mtodo de los multiplicadores debido a que la resolucin de un
sistema de ecuaciones lineales es tan o ms complejo que el problema original de optimizacin.

Se debe siempre verificar el xopt debido a que la funcin Lagraneana exhibe un punto de
ensilladura con respecto a x y .

Generalizacin del mtodo de los multiplicadores de Lagrange


A continuacin generalizaremos el mtodo para ms de dos variables e incluiremos restricciones
dbiles. Dado el modelo general planteado anteriormente:
Min f(x)
x [ x1, x2, ..., x n]T
s.a. (47)
h j(x) 0 j 1, 2, ..., m
gj(x)  0 j m 1, m 2, ..., p

Lo rescribimos para adaptarlo al mtodo de los multiplicadores de Lagrange:


Min f(x)
x [ x1, x2, ..., x n]T
s.a.
(48)
h j(x) 0 j 1, 2, ..., m

g j(x) 12j 0 j m 1, m 2, ..., p

Note que al escribir 12 evitamos incorporar las restricciones 1  0. La Lagrangeana es:

M M  (g (x)
m p
L(x, ) f(x) j h j(x) j j 12j ) (49)
j 1 j m 1

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 18
Las condiciones necesarias y suficientes que debe cumplir xopt son:
f(x) debe ser convexa.
La regin debe ser convexas.
Satisfacer las siguientes ecuaciones:

0L
0 i 1, ..., n
0x i
0L
0 j 1, ..., p
0j (50)
0L
2 j 1j 0 j m 1, ..., p
01j
j 0 j m 1, ..., p

Para un mximo de f(x) se debe cambiar el signo de la ltima desigualdad por j 0. Observe
que el valor de j se elige de tal modo que penaliza el no cumplimiento de las restriccin de
desigualdad.

Ejemplo
Resolvamos el siguiente problema:
Min f(x) x1 x2
s.a. (51)
g(x) 25 x1
2 2
x2 0

La Lagrangeana es:

L(x,) x1 x2  (25 x1
2
x2
2
1 2) (52)

Planteando las condiciones necesarias:

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 19
0L
x2 2  x1 0
0x 1
0L
x1 2  x2 0
0x 2
0L (53)
25 x1
2
x2
2
12 0
0
0L
2  1 0
01
 0

El sistema es homogneo, por lo tanto las ecuaciones son dependiente, se debe probar para  =
0 y para  no nulo. La solucin para estos casos es:
 x1 x2 1 f(x) Comentarios
0 0 0 5 0 Ensilladura
-0.5 3.54 -3.54 0 -12.5 Mnimo
-0.5 -3.54 3.54 0 -12.5 Mnimo
0.5 3.54 3.54 0 12.5 Mximo
0.5 -3.54 -3.54 0 12.5 Mximo

Interpretacin econmica de los multiplicadores


Para una dada restriccin, el correspondiente multiplicador indica cunto cambiar la funcin
objetivo cuando se cambie diferencialmente la constante e de la restriccin h*(x) = e. Esto es:
0L 0 [f(x)  (h (x) e)]  (54)
0e 0e

y debido a que en ptimo h*(xopt) = e y xopt es funcin de e, tenemos que:


0L 0f
(55)
0e 0e

Entonces, el multiplicador indica la sensibilidad de tanto L(x) como de f(x) con respecto a e.

El parmetro e puede ser interpretado como los recursos existentes, mientras el correspondiente
multiplicador ser el precio sombra. El estudio de estos multiplicadores nos permite decidir
dnde conviene colocar inversiones adicionales, se colocar en las restricciones que afecten ms
favorablemente la funcin objetivo.

Condiciones necesarias y suficiente para un mnimo local, Kuhn-Tucker


La Lagrangeana considerando las desigualdades es:

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 20
M M
m p
L(x, , ) f(x) j h j(x) j (gj(x) 12j ) (56)
j 1 j m 1

Los  pueden ser positivos o negativos, pero los deben ser positivos. Si la desigualdad de las
restricciones fuera del tipo menor o igual a cero, debera ir sumando en lugar de ir restando el
la sumatoria correspondiente a las restricciones dbiles. Entonces, siempre pediremos 0.

Una direccin vlida de bsqueda s, debe asegurarnos que disminuir el valor de f(x). Esto se
verifica si se cumple /Tf(x) s < 0. Recuerde que el gradiente de una funcin indica hacia el
mximo, por lo tanto una direccin cuya proyeccin sobre el gradiente es negativa debe
necesariamente conducir hacia un mnimo. Analizando la Figura 12, vemos que el nico modo
de que no exista una direccin s que posibilite continuar minimizando (y por lo tanto ya
estaramos en un mnimo) es que el gradiente sea una combinacin lineal de los gradientes de
las restricciones activas, es decir:
/f(x opt) 1 [ /g1(x opt)]
opt
2 [ /g2(x opt)]
opt
(57)

Otra forma de decir esto es, la interseccin del cono de direcciones descendentes (toda s con
proyeccin negativa sobre /f(x)) con el cono de direcciones factibles (todas las s con proyeccin
positivas sobre los /g(x) de las restricciones activas) es vaca.

Generalinzando, podemos afirmar que debe cumplirse lo siguiente en un punto ptimo:

M
p
/f(x opt) j
opt
[ /g j(x opt)]
j m 1 (58)
opt
j 0

Sin embargo, como la relacin debe cumplirse slo para las restricciones activas, imponemos:
j
opt
0 si gj(x opt) 0
opt
(59)
j 0 si gj(x opt) >0

o lo que es lo mismo:
opt
j g j(x opt) 0 (60)

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 21
Figura 12: Condicin de dependencia lineal.

Por otra parte, de la definicin de la Lagrangeana, se cumple:

M M
m p
/L(x opt, opt) /f(x opt) opt
j /hj(x opt) opt
j /g j(x opt) (61)
j 1 j m 1

Note que no figuran las variables 1 porque se hacen nulas para las restricciones activas, mientras
que para las restricciones no activas es nulo. Dada la relacin deducida anteriormente entre
los gradientes de las restricciones y de la funcin, concluimos que /L(xopt) debe ser nulo.

En resumen, las condiciones necesarias para que xopt sea un mnimo son:
1. f(x), hj(x) y gj(x) son todas diferenciables dos veces en xopt.
2. Las restricciones son satisfechas (tanto las fuertes como las dbiles).
3. Vale la calificacin de restricciones de segundo orden. Para esto, es suficiente con que
los gradientes de las restricciones activas (/gj(xopt)) y de las igualdades (/hj(xopt)) sean
linealmente independientes.
4. Vale jopt gj(xopt) = 0.
5. Vale /Lx(xopt, opt, opt) = 0.
6. Los jopt son no negativos.
7. La Hessiana de L sea semidefinida positiva para todo v para el cual vT*/gj(xopt) = 0 (de
las activas) y vT*/hj(xopt) = 0: vT*/2[L(xopt, opt, opt)]*v  0

Las condiciones suficientes para que xopt sea un mnimo son:


1. De la 1 a la 6 de las necesarias.
2. La Hessiana de L es positiva definida para todo v para el cual:
v */gj(xopt) = 0, para las activas con jopt > 0.
T

vT*/hj(xopt) = 0

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 22
vT*/gj(xopt)  0, para las activas con jopt = 0.
vT*/2[L(xopt, opt, opt)]*v > 0

Observaciones: si f(x) es convexa, las hj(x) son lineales, las gj(x) son cncavas y xi 0, entonces
un mnimo local tambin es un mnimo global. Anlogamente, un mximo local es un mximo
global si la funcin objetivo es cncava y las restricciones forman un conjunto convexo.

Note que todas las condiciones que vimos pueden ser utilizadas para:
1. Verificar si un candidato dado es un punto ptimo.
2. Para encontrar candidatos. Si se hace esto, hemos transformado el problema de
Optimizacin en un problema de resolucin de un sistema de ecuaciones. Generalmente,
este nuevo problema puede ser tanto o ms complejo que el problema inicial, y por lo
tanto conviene la utilizacin de otro mtodo.

Ejemplo
Determinar si el punto (1.00, 4.90) es un mnimo local para el problema.
2
Min f(x) 4 x1 x2 12
s.a.
2 2
h1(x) 25 x1 x2 0
34  0
2 2
g1(x) 10 x1 x1 10 x2 x2 (62)
g2(x) (x1 3) (x2 1)  0
2 2

g3(x) x1  0
g4(x) x2  0

En la Figura 13 se muestra grficamente este problema.

1. Por inspeccin, las funciones son dos veces diferenciables.


2. Reemplazando el valor de xopt en las restricciones vemos que todas las restricciones se
satisfacen y que g1(xopt) se vuelve activa (hace valer la igualdad).
3. Ahora verificamos la independencia lineal entre los gradientes de las restricciones
activas, /g1(xopt) y /h1(xopt). Para ello, analizamos el determinante del sistema de
ecuaciones que surge de plantear la combinacin lineal. Como el determinante del
sistema es distinto de cero, la nica solucin es el vector nulo (c = (0,0)), por lo tanto los
gradientes son linealmente independientes.

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 23
Figura 13: Condiciones de Kuhn-Tucker.

opt opt
c1 (10 2 x1 ) c2 ( 2 x1 ) 0
opt opt (63)
c1 (10 2 x2 ) c2 ( 2 x2 ) 0

es decir:

8 c1 2 c2 0
0.2 c1 9.8 c2 0 (64)

4. 1 puede tener cualquier valor porque g1(xopt) = 0, pero 2, 3 y 4 debern ser nulos.
5. Debemos verificar que el gradiente de la Lagrangeana es nulo.
opt opt opt opt
4 1 ( 2 x1 ) u1 (10 2 x1 ) 0 0
opt opt opt opt opt (65)
2 x2 1 (2 x2 ) u1 (10 2 x2 ) 0 0

es decir:
opt opt
4 2 1 8 u1 0
opt opt (66)
9.8 9.8 1 0.2 u1 0

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 24
La solucin de este sistema es 1opt = -1.016 y 1opt = 0.754.

6. Estos son valores permitidos por las condiciones que estamos verificando ya que 1opt
debe ser positivo, mientras 1opt puede tener cualquier valor.
7. Calculamos la Hessiana de la Lagrangeana:
02L
2 1 2 1
2
0x 1
(67)
02L
2 2 1 2 1
2
0x 2

Las derivadas cruzadas son nulas, por lo tanto el Hessiano en xopt es:
3.54 0
H(x opt) (68)
0 1.54

es definida positiva.

Sin embargo, el nico vector v que satisface vT*/g1(xopt) = 0 y vT*/h1(xopt) = 0, es el vector nulo;
por lo tanto, slo podemos demostrar la condicin necesaria vT*/2[L(xopt, opt, opt)]*v  0, pero
no la suficiente vT*/2[L(xopt, opt, opt)]*v > 0. Lo que ocurri es que para este problema, en xopt
no tenemos grados de libertad porque tenemos dos variables y dos restricciones fuertes.

Optimizacin y Simulacin de procesos. Mtodos Analticos


Enrique Eduardo Tarifa - Universidad Nacional de Jujuy 25

Vous aimerez peut-être aussi