Académique Documents
Professionnel Documents
Culture Documents
n Con
Restricciones
Estudiante:
PAOLA GONCALVES C.I V19350709
Barinas, Diciembre
Optimizacin
Optimizacin con
Restricciones
La optimizacin con restricciones es el proceso de
optimizacin de una funcin objetivo con respecto a algunas
variables con restricciones en las mismas. La funcin
objetivo es, o bien una funcin de coste o funcin de energa
que debe ser minimizada, o una funcin de recompensa o
funcin de utilidad, que ha de ser maximizado.
Forma general
Un problema general de minimizacin restringida se puede escribir
como sigue:
Mtodos de solucin
Restricciones de igualdad
Si el problema restringido slo tiene restricciones de igualdad,
el mtodo de los multiplicadores de Lagrange puede ser
utilizado para convertirlo en un problema sin restricciones
cuyo nmero de variables es el nmero original de las
variables ms el nmero original de restricciones de igualdad.
Alternativamente, si las restricciones son todas las
restricciones de igualdad y son lineales, que se pueden
resolver para algunas de las variables en trminos de los
otros, y la antigua pueden ser sustituidos de la funcin
objetivo, dejando un problema sin restricciones en un nmero
menor de variables.
Restricciones de desigualdad
Con restricciones de desigualdad, el problema puede ser
caracterizado en trminos de las condiciones de KarushKuhn-Tucker, en la que los problemas pueden ser resueltos.
Programacin lineal
Si la funcin objetivo y todas las restricciones son lineales,
entonces el problema es problema de programacin lineal.
Esto se puede resolver por el mtodo simplex.
Extremos
Restringidos
Teorema
Condicin necesaria para la existencia de un extremo: Si la funcin z =
f (x, y) tiene un extremo cuando x = x0 , y= y0 entonces cada derivada
parcial de primer orden de z se anula para estos valores de las
variables independientes o bien la derivada no existe. Los puntos de la
funcin donde se verifica que las derivadas parciales de primer orden
son cero o no existen son puntos crticos de la funcin. La existencia de
puntos crticos es una condicin necesaria para un extremo, es decir,
los extremos (mximos o mnimos) de una funcin son puntos crticos.
Sin embargo, no en todos los casos en que las derivadas parciales
sean cero o no existan tendremos extremos.
En otras palabras, la existencia de puntos crticos de una funcin no es
suficiente para la existencia de un punto extremo.
Prueba de las segundas derivadas: Tenemos una funcin z = f(x, y)
definida en un dominio en el que est el P(x0, y0) que tiene derivadas
parciales continuas al menos de hasta segundo orden. Suponemos que
P(x0, y0) se anulan las derivadas parciales de primer orden. Esto es:
Problemas
Extremos Restringidos
En la siguiente funcin encontrar los puntos crticos y determinar si stos son
mximos o mnimos relativos, puntos de inflexin o puntos de silla:
f( x, y) = x + 4xy 2y +1
SOLUCIN.
Calculando la primera derivada e igualndola a 0 buscando los puntos
crticos:
f ( x, y ) = -3x + 4y, f ( x, y ) = 4x 4y
Una vez resuelta la derivada para encontrar los puntos crticos
igualamos las dos ecuaciones a 0:
-3x + 4y = 0 => si se sustituye y : - 3x = - 4y => y = x = 4/3
4x 4y = 0 => si se sustituye y : 4x = 4y => y = 4x/4 => y = x
Una vez realizada la igualacin se obtiene un sistema de ecuaciones, de la
segunda ecuacin se observa y = x = 0 y sustituyendo en la primera obtenemos e
y = x = 4/3 y se procede a realizar la segunda derivada:
f ( x, y) = - 6x, f ( x, y ) = - 4 y f ( x, y ) = 4
Para el punto crtico se tiene que (0. 0), H (0, 0) = -16 < 0 y, y por el criterio
de las derivadas parciales segundas, se concluye que (0, 0, 1) es el punto de
silla de f.
Para el punto Critico (4/3, 4/3), se tiene H (4/3, 4/3) = 16 > 0
y como f (4/3, 4/3) = -8 < 0
Se concluye que f(4/3, 4/3) es un mximo relativo
Mtodo de LaGrange
El mtodo de los multiplicadores de Lagrange, llamados
as en honor a Joseph Louis Lagrange, es un procedimiento
para encontrar los mximos y mnimos de funciones de
mltiples variables sujetas a restricciones. Este mtodo
reduce el problema restringido con n variables a uno sin
restricciones de n + k variables, donde k es igual al nmero
de restricciones, y cuyas ecuaciones pueden ser resueltas
ms fcilmente. Estas nuevas variables escalares
desconocidas, una para cada restriccin, son llamadas
multiplicadores de Lagrange. El mtodo dice que los puntos
donde la funcin tiene un extremo condicionado con k
restricciones, estn entre los puntos estacionarios de una
nueva funcin sin restricciones construida como
una combinacin lineal de la funcin y las funciones
implicadas en las restricciones, cuyos coeficientes son los
multiplicadores.
La demostracin usa derivadas parciales y la regla de la
cadena para funciones de varias variables. Se trata de
extraer una funcin implcita de las restricciones, y encontrar
las condiciones para que las derivadas parciales con
respecto a las variables independientes de la funcin sean
iguales a cero.
para 0.
Una vez determinados los valores de , volvemos al nmero original de
variables y as continuamos encontrando el extremo de la nueva ecuacin
no restringida.
El mtodo de los
multiplicadores de
Lagrange
Ejemplo
Criterio de la segunda
derivada para Extremos
con Restriccin
El caso bidimensional
El caso n-dimensional
Mtodo de Jacobi
Los siguientes cuatro elementos conforman la
resolucin
de
un
problema
mediante
Programacin Dinmica:
Principio de
Optimalidad de
Bellman
Definicin Recursiva
de la solucin
optimal
El problema se divide en
subproblemas, y estos se
resuelven recordando las
soluciones por si fueran
necesarias nuevamente. Es una
combinacin de memoizacin y
recursin.
Todos los problemas que
puedan ser necesarios se
resuelven de antemano y
despus se usan para resolver
las soluciones a problemas
mayores.
No importa cules fueron los
estados y decisiones iniciales,
las decisiones restantes
constituirn una poltica ptima
con respecto al estado
resultante de la primera
Enfoque ascendente
Bsqueda solucin
optima
Mtodo de Jacobi
Algoritmo
El mtodo de Jacobi se puede escribir en forma de algoritmo de
la siguiente manera:
Convergencia
El mtodo de Jacobi siempre converge si la matriz A es estrictamente
diagonal dominante y puede converger incluso si esta condicin no se
satisface.
Para verificar la convergencia del mtodo se calcula el radio espectral ():
Ejemplo
Condiciones KuhnTucker
permiten abordar la resolucin de modelos de Programacin No
Lineal que consideran tanto restricciones de igualdad como
desigualdad. En trminos comparativos las condiciones de KKT son
ms generales que el Mtodo de Lagrange el cual se puede aplicar
a problemas no lineales que consideran exclusivamente
restricciones de igualdad.
Condiciones de regularidad
(o cualificacin de las restricciones)
Condiciones suficientes
Ejemplo
CONCLUSIONES
Bibliografa
- Wenyu Sun; Ya-Xiang Yua (2010). Optimization Theory and Methods:
Nonlinear Programming, Springer, ISBN 978-1441937650. p. 541
- "The Nature of Mathematical Programming," Mathematical
Programming Glossary, INFORMS Computing Society.
- W. Erwin Diewert (2008). "cost functions," The New Palgrave
Dictionary of Economics, 2nd Edition Contents.
- Peter Newman (2008). "indirect utility function," The New Palgrave
Dictionary of Economics, 2nd Edition. Contents.
Referencias Electrnicas
http://investigacionoperativa.es.tl/Programaciona.htm
http://dis.unal.edu.co/profesores/jgomez/courses/algorithm
ics/documents/progDinamica.pdf
http://sci2s.ugr.es/docencia/tasb/TA-Tema6-0809.pdf
http://www.redalyc.org/src/inicio/ArtPdfRed.jsp?
iCve=84920977024
http://es.wikipedia.org/wiki/Programaci%C3%B3n_din
%C3%A1mica
http://invdeo.blogspot.com.ar/