Académique Documents
Professionnel Documents
Culture Documents
OPTIMIZACION CON
RESTRICCIONES
Integrantes:
Aquiles Vaesa
xx.xxx.xxx
Introducción
Conclusión
Introducción
Para optimizar una función real en el caso que no existan restricciones
sobre el dominio de la función y cuando la función admite segundas derivadas
continuas. Esta técnica generaliza la técnica de optimización de funciones en una
variable utilizando calculo diferencial: primeramente, se determina cuáles son los
candidatos a ´óptimos, y posteriormente se aplica un criterio basado en la segunda
derivada para determinar si corresponden a un máximo o mínimo relativo.
Primeramente, definiremos los puntos críticos, que son los ´únicos puntos
candidatos a ´óptimos de la función. Seguido de esto, se formula el principal
resultado que caracteriza los puntos máximos y mínimos locales e ilustraremos el
proceso de optimización con un par de ejemplos detallados hechos y usando la
calculadora TI. En la ´última sección se listan los resultados teóricos que son los
argumentos necesarios para el teorema que caracteriza los ´óptimos locales.
Desarrollo
En optimización sin restricciones se minimiza una función objetivo que
depende de variables reales sin restricciones sobre los valores de esas variables.
Definición
Sea f una función de valor real definida sobre un conjunto D ⊆ Rn. Un punto
x0 ∈ D se llama punto estacionario o punto crítico si todas las parciales de f se
hacen cero cuando se evalúan en x0. Es decir, si
∇f(x0) = 0
Teorema Clave
Demostración
Al aplicar la fórmula de Taylor de segundo orden a f(x) en el punto
estacionario x = x0 (Así se cumple ∇f (x0) = 0) nos da:
Supongamos que todos los valores propios _1, _2, . . ., _n de Hf (x0) son
positivos. Sea _ = 1 2 min {_i}. Así todos los números _1 − h, _2 − h, . . ., _n − h
son positivos. Se prueba fácilmente que z es vector propio de Hf (x0) asociado al
valor propio _i si y solo si z es vector propio de la matriz simétrica [Hf (x0) −h I]
asociado al valor propio _ − h. Por consiguiente y por el resultado anterior, x′ [Hf
(x0) − h I] x > 0 para todo x 6= 0. Y por consiguiente
para los vectores x que cumplen 0 < llxll < r. Así concluimos que x0
corresponde a un mínimo local de f(x).
direcciones factibles
Sea el problema
Por tanto
Programación Cuadrática
Es aquél que contiene una función objetivo cuadrática y restricciones lineales
En notación matricial:
Condiciones de Kuhn-Tucker
Otro método más eficiente y simple para resolver las CKT es el método
pivote complementario. Para el cual hacemos el siguiente cambio de variable:
Método de Pivote Complementario 1
Programación Separable
Una función es separable si se puede expresar como la suma
de n funciones de una sola variable, es decir, Un caso especial de programación
separable ocurre cuando las funciones son convexas, resultando así un espacio
convexo de solución; además la función es convexa en caso de minimización y
cóncava en caso de maximización.
No existe un algoritmo único para solucionar problemas de programación
convexa; en general los algoritmos conocidos se pueden clasificar así:
Forma convexa
Los programas geométricos no son por regla general problemas de optimiz
ación convexa, pero puedentransformarse en ellos mediante un cambio de variabl
es y una transformación de las funciones objetivo y derestricción. Definiendo yi = lo
Conclusión