Vous êtes sur la page 1sur 23

Optimizaci

n Con
Restricciones

Estudiante:
PAOLA GONCALVES C.I V19350709
Barinas, Diciembre
Optimizacin

Prof. Mariangela Pinto

Optimizacin con
Restricciones
La optimizacin con restricciones es el proceso de
optimizacin de una funcin objetivo con respecto a algunas
variables con restricciones en las mismas. La funcin
objetivo es, o bien una funcin de coste o funcin de energa
que debe ser minimizada, o una funcin de recompensa o
funcin de utilidad, que ha de ser maximizado.
Forma general
Un problema general de minimizacin restringida se puede escribir
como sigue:

En algunos problemas, a menudo llamados problemas de


optimizacin con restricciones, la funcin objetivo es en realidad la
suma de funciones de coste, cada una penaliza la medida (si la hay)
en la que una restriccin blanda (una restriccin que se prefiere
pero no se requiere para ser satisfecho) es violada.

Mtodos de solucin
Restricciones de igualdad
Si el problema restringido slo tiene restricciones de igualdad,
el mtodo de los multiplicadores de Lagrange puede ser
utilizado para convertirlo en un problema sin restricciones
cuyo nmero de variables es el nmero original de las
variables ms el nmero original de restricciones de igualdad.
Alternativamente, si las restricciones son todas las
restricciones de igualdad y son lineales, que se pueden
resolver para algunas de las variables en trminos de los
otros, y la antigua pueden ser sustituidos de la funcin
objetivo, dejando un problema sin restricciones en un nmero
menor de variables.

Restricciones de desigualdad
Con restricciones de desigualdad, el problema puede ser
caracterizado en trminos de las condiciones de KarushKuhn-Tucker, en la que los problemas pueden ser resueltos.

Programacin lineal
Si la funcin objetivo y todas las restricciones son lineales,
entonces el problema es problema de programacin lineal.
Esto se puede resolver por el mtodo simplex.

Extremos
Restringidos
Teorema
Condicin necesaria para la existencia de un extremo: Si la funcin z =
f (x, y) tiene un extremo cuando x = x0 , y= y0 entonces cada derivada
parcial de primer orden de z se anula para estos valores de las
variables independientes o bien la derivada no existe. Los puntos de la
funcin donde se verifica que las derivadas parciales de primer orden
son cero o no existen son puntos crticos de la funcin. La existencia de
puntos crticos es una condicin necesaria para un extremo, es decir,
los extremos (mximos o mnimos) de una funcin son puntos crticos.
Sin embargo, no en todos los casos en que las derivadas parciales
sean cero o no existan tendremos extremos.
En otras palabras, la existencia de puntos crticos de una funcin no es
suficiente para la existencia de un punto extremo.
Prueba de las segundas derivadas: Tenemos una funcin z = f(x, y)
definida en un dominio en el que est el P(x0, y0) que tiene derivadas
parciales continuas al menos de hasta segundo orden. Suponemos que
P(x0, y0) se anulan las derivadas parciales de primer orden. Esto es:

Luego, se puede demostrar que P (Xo,Yo ), y es:


1.Un mximo, si evaluadas las derivadas parciales de
segundo orden en se tiene que: X= Xo, y Y= Yo se
tiene que:

2. Un mnimo, si evaluadas las derivadas parciales de


segundo orden en se tiene que: X= Xo, y Y= Yo

3. No es mximo ni mnimo si evaluadas las


derivadas parciales de segundo orden en se tiene que:

Este caso se le denomina punto silla. En un punto


silla, la funcin z = f (x, y) tiene un mnimo en alguna
direccin y un mximo en otra direccin.
4. Se requiere ms anlisis para decidir si P (Xo,Yo ),
y es un punto extremo cuando:

Problemas
Extremos Restringidos
En la siguiente funcin encontrar los puntos crticos y determinar si stos son
mximos o mnimos relativos, puntos de inflexin o puntos de silla:

f( x, y) = x + 4xy 2y +1
SOLUCIN.
Calculando la primera derivada e igualndola a 0 buscando los puntos
crticos:
f ( x, y ) = -3x + 4y, f ( x, y ) = 4x 4y
Una vez resuelta la derivada para encontrar los puntos crticos
igualamos las dos ecuaciones a 0:
-3x + 4y = 0 => si se sustituye y : - 3x = - 4y => y = x = 4/3
4x 4y = 0 => si se sustituye y : 4x = 4y => y = 4x/4 => y = x
Una vez realizada la igualacin se obtiene un sistema de ecuaciones, de la
segunda ecuacin se observa y = x = 0 y sustituyendo en la primera obtenemos e
y = x = 4/3 y se procede a realizar la segunda derivada:

f ( x, y) = - 6x, f ( x, y ) = - 4 y f ( x, y ) = 4
Para el punto crtico se tiene que (0. 0), H (0, 0) = -16 < 0 y, y por el criterio
de las derivadas parciales segundas, se concluye que (0, 0, 1) es el punto de
silla de f.
Para el punto Critico (4/3, 4/3), se tiene H (4/3, 4/3) = 16 > 0
y como f (4/3, 4/3) = -8 < 0
Se concluye que f(4/3, 4/3) es un mximo relativo

Mtodo de LaGrange
El mtodo de los multiplicadores de Lagrange, llamados
as en honor a Joseph Louis Lagrange, es un procedimiento
para encontrar los mximos y mnimos de funciones de
mltiples variables sujetas a restricciones. Este mtodo
reduce el problema restringido con n variables a uno sin
restricciones de n + k variables, donde k es igual al nmero
de restricciones, y cuyas ecuaciones pueden ser resueltas
ms fcilmente. Estas nuevas variables escalares
desconocidas, una para cada restriccin, son llamadas
multiplicadores de Lagrange. El mtodo dice que los puntos
donde la funcin tiene un extremo condicionado con k
restricciones, estn entre los puntos estacionarios de una
nueva funcin sin restricciones construida como
una combinacin lineal de la funcin y las funciones
implicadas en las restricciones, cuyos coeficientes son los
multiplicadores.
La demostracin usa derivadas parciales y la regla de la
cadena para funciones de varias variables. Se trata de
extraer una funcin implcita de las restricciones, y encontrar
las condiciones para que las derivadas parciales con
respecto a las variables independientes de la funcin sean
iguales a cero.

Consideremos un caso bidimensional. Supongamos que tenemos la


funcin, f (x, y), y queremos maximizarla, estando sujeta a la condicin:

donde c es una constante. Podemos visualizar las curvas de nivel


de f dadas por

Para varios valores de dn, y el contorno de g dado por g(x, y) = c.


Supongamos que hablamos de la curva de nivel donde g = c. Entonces, en
general, las curvas de nivel de f y g sern distintas, y la curva g = c por lo
general intersectar y cruzar muchos contornos de f. En general,
movindose a travs de la lnea g=c podemos incrementar o disminuir el
valor de f. Slo cuando g=c (el contorno que estamos siguiendo) toca
tangencialmente (no corta) una curva de nivel de f, no se incrementa o
disminuye el valor de f. Esto ocurre en el extremo local restringido y en
los puntos de inflexin restringidos de f.
Un ejemplo familiar puede ser obtenido de los mapas climatolgicos, con
sus curvas de nivel de presin y temperatura (isbaras e isotermas
respectivamente): el extremo restringido ocurrir donde los mapas
superpuestos muestren curvas que se tocan.
Geomtricamente traducimos la condicin de tangencia diciendo que los
gradientes de f y g son vectores paralelos en el mximo. Introduciendo un
nuevo escalar, , resolvemos

[f(x,y) - (g(x,y) c)] = 0

para 0.
Una vez determinados los valores de , volvemos al nmero original de
variables y as continuamos encontrando el extremo de la nueva ecuacin
no restringida.

El mtodo de los
multiplicadores de
Lagrange

Ejemplo

Criterio de la segunda
derivada para Extremos
con Restriccin
El caso bidimensional

El caso n-dimensional

Mtodo de Jacobi
Los siguientes cuatro elementos conforman la
resolucin
de
un
problema
mediante
Programacin Dinmica:

Principio de
Optimalidad de
Bellman

Dada una secuencia


ptima de decisiones,
toda subsecuencia de ella
es, a su vez, ptima

Definicin Recursiva
de la solucin
optimal

El problema se divide en
subproblemas, y estos se
resuelven recordando las
soluciones por si fueran
necesarias nuevamente. Es una
combinacin de memoizacin y
recursin.
Todos los problemas que
puedan ser necesarios se
resuelven de antemano y
despus se usan para resolver
las soluciones a problemas
mayores.
No importa cules fueron los
estados y decisiones iniciales,
las decisiones restantes
constituirn una poltica ptima
con respecto al estado
resultante de la primera

Enfoque ascendente

Bsqueda solucin
optima

Mtodo de Jacobi

Algoritmo
El mtodo de Jacobi se puede escribir en forma de algoritmo de
la siguiente manera:

Convergencia
El mtodo de Jacobi siempre converge si la matriz A es estrictamente
diagonal dominante y puede converger incluso si esta condicin no se
satisface.
Para verificar la convergencia del mtodo se calcula el radio espectral ():

Es la condicin necesaria y suficiente para la convergencia, siendo R = L + U.


No es necesario que los elementos de la diagonal en la matriz sean mayores
(en magnitud) que los otros elementos (la matriz es diagonalmente dominante),
pero en el caso de serlo, la matriz converge.

Ejemplo

Condiciones KuhnTucker
permiten abordar la resolucin de modelos de Programacin No
Lineal que consideran tanto restricciones de igualdad como
desigualdad. En trminos comparativos las condiciones de KKT son
ms generales que el Mtodo de Lagrange el cual se puede aplicar
a problemas no lineales que consideran exclusivamente
restricciones de igualdad.

Problema general de optimizacin

Condiciones necesarias de primer orden

Condiciones de regularidad
(o cualificacin de las restricciones)

Puede verse que CRIL=>CRMF=>DLCP,


CRIL=>CRRC=>DLCP, aunque CRMF no es equivalente
a CRRC. En la prctica, se prefiere cualificacin de
restricciones ms dbiles ya que proporcionan
condiciones de optimalidad ms fuertes.

Condiciones suficientes

Ejemplo

CONCLUSIONES

Bibliografa
- Wenyu Sun; Ya-Xiang Yua (2010). Optimization Theory and Methods:
Nonlinear Programming, Springer, ISBN 978-1441937650. p. 541
- "The Nature of Mathematical Programming," Mathematical
Programming Glossary, INFORMS Computing Society.
- W. Erwin Diewert (2008). "cost functions," The New Palgrave
Dictionary of Economics, 2nd Edition Contents.
- Peter Newman (2008). "indirect utility function," The New Palgrave
Dictionary of Economics, 2nd Edition. Contents.

Referencias Electrnicas
http://investigacionoperativa.es.tl/Programaciona.htm
http://dis.unal.edu.co/profesores/jgomez/courses/algorithm
ics/documents/progDinamica.pdf
http://sci2s.ugr.es/docencia/tasb/TA-Tema6-0809.pdf
http://www.redalyc.org/src/inicio/ArtPdfRed.jsp?
iCve=84920977024
http://es.wikipedia.org/wiki/Programaci%C3%B3n_din
%C3%A1mica
http://invdeo.blogspot.com.ar/

Vous aimerez peut-être aussi