Vous êtes sur la page 1sur 15

República Bolivariana De Venezuela

Ministerio Del Poder Popular Para La Defensa

Universidad Nacional Experimental De La Fuerza Armada

UNEFA – Núcleo Zulia.

OPTIMIZACION CON
RESTRICCIONES

Integrantes:

Aquiles Vaesa

xx.xxx.xxx

Maracaibo, noviembre De 2017.


Índice

Introducción

1. Método del Gradiente.


2. Método de Newton.
3. Método de Gradiente Conjugado.
4. Algoritmo de Cuasi – Newton.

Conclusión

Introducción
Para optimizar una función real en el caso que no existan restricciones
sobre el dominio de la función y cuando la función admite segundas derivadas
continuas. Esta técnica generaliza la técnica de optimización de funciones en una
variable utilizando calculo diferencial: primeramente, se determina cuáles son los
candidatos a ´óptimos, y posteriormente se aplica un criterio basado en la segunda
derivada para determinar si corresponden a un máximo o mínimo relativo.
Primeramente, definiremos los puntos críticos, que son los ´únicos puntos
candidatos a ´óptimos de la función. Seguido de esto, se formula el principal
resultado que caracteriza los puntos máximos y mínimos locales e ilustraremos el
proceso de optimización con un par de ejemplos detallados hechos y usando la
calculadora TI. En la ´última sección se listan los resultados teóricos que son los
argumentos necesarios para el teorema que caracteriza los ´óptimos locales.

Desarrollo
En optimización sin restricciones se minimiza una función objetivo que
depende de variables reales sin restricciones sobre los valores de esas variables.

Óptimos de una Función


Definamos el ´óptimo de una función. Definición Sea f una función de valor
real definida sobre un conjunto D ⊆ Rn. Sea x0 un punto en D, x0 se dice un
mínimo local de f si existe d > 0 tal que si x ∈ D y |xo −x| < d entonces f(x) ≥ f(x0).
Por otro lado, se dice máximo local si se cumple f(x) ≤ f(x0). En general, el
concepto ´optimo local se refiere a mínimos o máximos locales. El valor del
´optimo local x0 es f(x0).

Punto Crítico o Estacionario


La siguiente definición nos da una condición necesaria que deben cumplir lo
´óptimos locales: Uno de nuestros resultados importantes asegura que los
´óptimos locales deben ser puntos estacionarios. La definición se ve como parte
del proceso analítico de obtención de los ´óptimos de una función: la primera fase
será determinar los puntos críticos.

Definición
Sea f una función de valor real definida sobre un conjunto D ⊆ Rn. Un punto
x0 ∈ D se llama punto estacionario o punto crítico si todas las parciales de f se
hacen cero cuando se evalúan en x0. Es decir, si

∇f(x0) = 0
Teorema Clave

El resultado importante siguiente da las condiciones necesarias y


suficientes para los ´óptimos locales.
Teorema
Sea f: D ⊆ Rn → R. Suponga que f tiene segundas derivadas parciales
continuas en D. Si x0 es un punto estacionario de f entonces f tiene en x0 . . .

- un mínimo local si Hf (x0) es positiva definida. (Todos los valores propios de


Hf (x0) son positivos)
- un máximo local si Hf (x0) es negativa definida. (Todos los valores propios
de Hf (x0) son negativos)
- un punto silla si Hf (x0) tiene valores propios negativos y también positivos.

Demostración
Al aplicar la fórmula de Taylor de segundo orden a f(x) en el punto
estacionario x = x0 (Así se cumple ∇f (x0) = 0) nos da:

f (x0 + x) − f(x0) =1/2. Q(x) + llxll2E2(x0, x) en donde E2(x0, x) → 0 cuando x → 0.

Supongamos que todos los valores propios _1, _2, . . ., _n de Hf (x0) son
positivos. Sea _ = 1 2 min {_i}. Así todos los números _1 − h, _2 − h, . . ., _n − h
son positivos. Se prueba fácilmente que z es vector propio de Hf (x0) asociado al
valor propio _i si y solo si z es vector propio de la matriz simétrica [Hf (x0) −h I]
asociado al valor propio _ − h. Por consiguiente y por el resultado anterior, x′ [Hf
(x0) − h I] x > 0 para todo x 6= 0. Y por consiguiente

Q(x) = x′ Hf (x0) x > x′ (h I) x = h llxll2

para todo x 6= 0. Puesto que E2(x0, x) → 0 cuando x → 0, existe un r


positivo tal que |E2(x0, x)| < 14 h para los vectores x que cumplen 0 < kxk < r.
Entonces para tales vectores x tenemos

0 ≤ kxk2 |E2(x0, x) | < llxll2 (1/4h) =1/4h llxll2 <1/2Q(x)

De esto se tiene que


1/2Q(x) – llxll2 |E2(x0, x) | > 0
Por otro lado, E2(x0, x) ≥ −|E2(x0, x) | implica que llxll2 E2(x0, x) ≥ −llxll2 E2(x0, x).
De donde obtenemos

f (x0 + x) − f(x0) =1/2Q(x) + llxll2 E2(x0, x) ≥1/2Q(x) − llxll2 E2(x0, x) > 0

para los vectores x que cumplen 0 < llxll < r. Así concluimos que x0
corresponde a un mínimo local de f(x).

direcciones factibles
Sea el problema

donde f: IRn  IR es una función diferenciable con continuidad y X un conjunto


convexo y compacto. Los métodos de direcciones factibles son métodos iterados
tales que:

Dado un punto inicial x0, se generan los puntos siendo

una dirección factible

Por ser X convexo el conjunto de direcciones factibles en xk viene dado por:

Puesto que una dirección puede expresarse como la diferencia de sus

extremos. Esto hace que

Por tanto

pues X es un conjunto convexo y


Luego este método garantiza que dado dos puntos de X se puede generar
otro punto del conjunto tomando ® de forma conveniente. Además, nos interesa
que él me- todo sea de descenso, en otras palabras, buscamos direcciones

factibles de descenso, es decir, pues así se obtendrá que

La pregunta es si; es posible encontrar direcciones de descenso, y la


respuesta es sí; siempre que xk no sea punto estacionario, es decir,

Si no es estacionario existe por tanto es


dirección factible y de descenso.

La segunda pregunta sería; como elegir longitudes de paso en los métodos


de descenso y la repuesta estaría dada por: las longitudes de paso se pueden
elegir según los mismos métodos que en los algoritmos sin restricciones, aunque
ahora para asegurar factibilidad se debe imponer que a

entonces el punto generado no está en el conjunto X,


aunque a veces interesa que a > 1 pues el punto óptimo está cerca.

Programación Cuadrática
Es aquél que contiene una función objetivo cuadrática y restricciones lineales

En notación matricial:
Condiciones de Kuhn-Tucker

Si la función objetivo es convexa, es decir la matriz Q es una matriz


cuadrada, y definida positiva, y las restricciones son lineales, las condiciones de
Kunh Tucker son necesarias y suficientes para encontrar el óptimo de la función.
=> Método de Wolfe sólo hay que resolver las condiciones de KT para encontrar
el óptimo, como un problema de programación lineal.

Otro método más eficiente y simple para resolver las CKT es el método
pivote complementario. Para el cual hacemos el siguiente cambio de variable:
Método de Pivote Complementario 1

Consideramos el problema pivote complementario: Encontrar los vectores w y z


tales que:

Una solución (w,z) no negativa al sistema de ecuaciones w=Mz+q se le


llama una solución factible al problema complementario

Una solución (w,z) factible al problema complementario que también


satisface la condición complementaria wTz=0 se le llama solución complementaria

La condición wTz=0 es equivalente a wizi=0 para todas las i. Las variables


wi y zi para cada i, son llamadas un par complementario de variables

Método de Pivote Complementario 2


Supongamos que tenemos que encontrar una solución no negativa a un
sistema de ecuaciones de la siguiente forma:

Encontrar los vectores w y z tales que:

No hay Función Objetivo, solo una restricción no lineal.


Método de Pivote Complementario 3
Solución más sencilla es hacer, z=0 y w=q, válida siempre que q sea no
negativo. Si algún q es negativo el método pivote complementario (Lemke)
empieza con una solución no factible, y se suma una variable auxiliar z0 para que
el sistema quede siempre positivo, por tanto, z0 = - min (qi) => elimino la variable
más negativa.

La tabla inicial queda:

W => son variables básicas.


Z => son variables no básicas.

Regla de complementariedad: la variable que entra en la base es la


complementaria de la que se eliminó en el paso anterior. Si salió wi entra su
complementaria zi
Regla del radio mínimo: la variable que sale de la base es aquella que
cumpla:
Método de Pivote Complementario 5
Se sigue iterando hasta que z0 salga de la base.

Método de Pivote Complementario 6

Programación Separable
Una función es separable si se puede expresar como la suma
de n funciones de una sola variable, es decir, Un caso especial de programación
separable ocurre cuando las funciones son convexas, resultando así un espacio
convexo de solución; además la función es convexa en caso de minimización y
cóncava en caso de maximización.
No existe un algoritmo único para solucionar problemas de programación
convexa; en general los algoritmos conocidos se pueden clasificar así:

Algoritmos de gradiente, en estos casos se modifica de alguna manera el


procedimiento de búsqueda del gradiente para evitar que la trayectoria de
búsqueda penetre la frontera de restricción.

Algoritmos secuenciales no restringidos, incluye los métodos de función de


penalización y de función barrera; estos algoritmos convierten el problema de
optimización restringida original en una sucesión de problemas de optimización no
restringida, cuyas soluciones óptimas convergen a la solución óptima del problema
original.

Algoritmos de Aproximación Secuencial, incluye métodos de aproximación


lineal y aproximación cuadrática; estos algoritmos sustituyen la función objetivo no
lineal por una sucesión de aproximaciones lineales o cuadráticas. Para problemas
de optimización linealmente restringidos, estas aproximaciones permiten la
aplicación repetida de los algoritmos de programación lineal o cuadrática.

A continuación, resolvemos un problema de programación separable


aplicando el método de la base restringida.

El método de aproximación nos sugiere que las variables separables son:


Programación Geométrica
Es el proceso de resolución de un sistema de ecuaciones sujetas a un
conjunto de restricciones sobre un conjunto de variables reales desconocidas, con
una función objetivo o al f(x) Max, cuando algunas de las restricciones o la función
objetivo no son lineales.
Un programa geométrico es un problema de optimización de la forma

Minimizar tal que

donde son posinomios y son monomios. Hay que subraya


r que al hablar deprogramación geométrica (al contrario que en otras disciplinas),

un monomio se define como una funcion con defini


do como

Tiene múltiples aplicaciones, como el dimensionamiento de circuitos y la est


imación paramétrica vía regresión logística en estadística.

Forma convexa
Los programas geométricos no son por regla general problemas de optimiz
ación convexa, pero puedentransformarse en ellos mediante un cambio de variabl
es y una transformación de las funciones objetivo y derestricción. Definiendo yi = lo

gxi, el monomio , donde b = logc. De la misma


forma, si f es el polinomio
entonces , donde y bk = logck. Tras el c
ambio de variables, elposinomio se convierte en una suma de exponenciales de fu
nciones afines.

Conclusión

En optimización sin restricciones se minimiza una función objetivo que


depende de variables reales sin restricciones sobre los valores de esas variables f
una función de valor real definida sobre un conjunto se dice que un mínimo local
de f si existe, en general, el concepto ´optimo local se refiere a mínimos o
máximos locales.
Uno de nuestros resultados importantes asegura que los ´óptimos locales
deben ser puntos estacionarios. La definición se ve como parte del proceso
analítico de obtención de los ´óptimos de una función: la primera fase será
determinar los puntos críticos.
Programación Cuadrática Es aquél que contiene una función objetivo
cuadrática y restricciones lineales, las condiciones de Kunh Tucker son necesarias
y suficientes para encontrar el óptimo de la función. => Método de Wolfe sólo hay
que resolver las condiciones de KT para encontrar el óptimo, como un problema
de programación lineal.
la variable que entra en la base es la complementaria de la que se eliminó
en el paso anterior. Si salió wi entra su complementaria zi.
Una función es separable si se puede expresar como la suma
de n funciones de una sola variable a su vez los algoritmos de aproximación
secuencial, incluye métodos de aproximación lineal y aproximación cuadrática;
estos algoritmos sustituyen la función objetivo no lineal por una sucesión de
aproximaciones lineales o cuadráticas
El proceso de resolución de un sistema de ecuaciones sujetas a un
conjunto de restricciones sobre un conjunto de variables reales desconocidas
Un programa geométrico es un problema de optimización de la forma

Minimizar tal que

Vous aimerez peut-être aussi