Vous êtes sur la page 1sur 10

Universidad Mayor de San Simón

Facultad de Ciencias Económicas


Carrera Ingeniería Financiera

Docente :
Lic Vargas antezana Ademar Marcelo
Estudiante :
Maraza Ignacio Nora
Materia:
Investigacion Operativa 1
Semestre:
II/2019
SOLUCIONES ESPECIALES O ANORMALES

Los problemas no lineales se caracterizan por tener relaciones no lineales; es decir, no existe una
relación directa y proporcional entre las variables que intervienen. Los problemas de programación no
lineal, también son llamados curvilíneos, ya que el área que delimita las soluciones factibles en un
gráfico se presenta en forma de curva.
La función objetivo en la programación no lineal, puede ser cóncavo o convexo. Es cóncavo cuando se
trata de maximizar utilidades, contribuciones. Es convexo cuando trata de minimizar recursos, costos,
entre otros. Los problemas que contienen restricciones lineales, se resuelven de una forma más sencilla
que los problemas con restricciones no lineales.
Optimizaciòn no Restringida
Los problemas de optimización no restringida no tienen restricciones, por lo que la función objetivo es
sencillamente
Maximizar f(x)

sobre todos los valores x= (x1, x2,…,xn). Según el repaso del apéndice 3, la condición necesaria para que
una solución específica x = x* sea óptima cuando f(x) es una función diferenciable es

Cuando f (x) es cóncava, esta condición también es suficiente, con lo que la obtención de x* se reduce a
resolver el sistema de las necuaciones obtenidas al establecer las n derivadas parciales iguales a cero.
Por desgracia, cuando se trata de funciones no lineales f (x), estas ecuaciones suelen ser no
lineales también, en cuyo caso es poco probable que se pueda obtener una solución analítica
simultánea. ¿Qué se puede hacer en ese caso? Las secciones 13.4 y 13.5 describen procedimientos
algorítmicos de búsqueda para encontrar x* primero para n = 1 y luego para n > 1. Estos
procedimientos también tienen un papel importante en la solución de varios tipos de problemas con
restricciones, que se describirán en seguida. La razón es que muchos algoritmos para
problemas restringidos están construidos de forma que se adaptan a versiones no restringidas del
problema en una parte de cada iteración.
Cuando una variable Xj tiene una restricción de no negatividad, x- > 0, la condición necesaria (y tal vez)
suficiente anterior cambia ligeramente a

para cada j de este tipo. Esta condición se ilustra en la figura 13.11, donde la solución óptima de un
problema con una sola variable es x = 0 aun cuando la derivada ahí es negativa y no cero. Como este
ejemplo tiene una función cóncava para maximizar sujeta a una restricción de no negatividad, el que su
derivada sea menor o igual a 0 en # = 0, es una condición necesaria y suficiente para que x= 0 sea
óptima.
Un problema que tiene algunas restricciones de no negatividad y que no tiene restricciones funcionales
es un caso especial (m = 0) de la siguiente clase de problemas.

Optimizaciòn Linealmente Restringida


Los problemas de optimización literalmente restringida se caracterizan por restricciones que se ajustan
por completo a la programación lineal, de manera que todas las funciones de restricción g¡ (x) son
lineales, pero la función objetivo es no lineal. El problema se simplifica mucho si sólo se tiene que
tomar en cuenta una función no lineal junto con una región factible de programación lineal. Se han
desarrollado varios algoritmos especiales basados en una extensión del método símplex para analizar la
función objetivo no lineal.
Un caso especial importante descrito a continuación es la programación cuadrática.
Programación Cuadrática

De nuevo los problemas de programación cuadrática tienen restricciones lineales, pero ahora la
función objetivo /(x) debe ser cuadrática.Entonces, la única diferencia entre éstos y un problema de
programación lineal es que algunos términos de la función objetivo incluyen el cuadrado de una
variable o el producto de dos variables.

Programación Convexa

La programación convexa abarca una amplia clase de problemas, entre ellos como casos especiales,
están todos los tipos anteriores cuando /(x) es cóncava. Las suposiciones son
1. f(x) es cóncava.
2. Cada una de las g(x) es convexa.

Programaciòn Separable
La programación separable es un caso especial de programación convexa, en donde la suposición
adicional es
Todas las funciones f(x) y g(x) son funciones separables.
Una función separable es una función en la que cada término incluye una sola variable, por lo que la
función se puede separar en una suma de funciones de variables individuales. Por ejemplo, si f(x) es
una función separable, se puede expresar como

son cada tina funciones de una sola variable x1 y x2, respectivamente. Usando el mismo razonamiento,
se puede verificar que la función considerada en la figura 13.7 también es una función separable.
Es importante distinguir estos problemas de otros de programación convexa, pues cualquier problema
de programación separable se puede aproximar muy de cerca mediante uno de programación lineal y,
entonces, se puede aplicar el eficiente método símplex.
son cada tina funciones de una sola variable x1 y x2, respectivamente. Usando el mismo razonamiento,
se puede verificar que la función considerada en la figura 13.7 también es una función separable.
Es importante distinguir estos problemas de otros de programación convexa, pues cualquier problema
de programación separable se puede aproximar muy de cerca mediante uno de programación lineal y,
entonces, se puede aplicar el eficiente método símplex.
Programación no Convexa
La programación no convexa incluye todos los problemas de programación no lineal que
no satisfacen las suposiciones de programación convexa. En este caso, aun cuando se tenga éxito en
encontrar un máximo local, no hay garantía de que sea también un máximo global. Por lo tanto, no se
tiene un algoritmo que garantice encontrar una solución óptima para todos estos problemas; pero sí
existen algunos algoritmos bastante adecuados para encontrar máximos locales, en especial cuando las
formas de las funciones no lineales no se desvían demasiado de aquellas que se supusieron para
programación convexa. En la sección 13.10 se presenta uno de estos algoritmos.
Ciertos tipos específicos de problemas de programación no convexa se pueden resolver sin mucha
dificultad mediante métodos especiales. Dos de ellos, de gran importancia, se presentarán más
adelante.
Programación Geométrica
Cuando se aplica programación no lineal a problemas de diseño de ingeniería, muchas veces la función
objetivo y las funciones de restricción toman la forma

En tales casos, las ci y a ty


representan las constantes físicas y
las x} son las variables de diseño.
Estas funciones por lo general no
son ni cóncavas ni convexas, por lo
que las técnicas
de programación convexa no se pueden aplicar directamente a estos problemas de programacióngeo-
métrica. Sin embargo, existe un caso importante en el que el problema se puede transformar en un
problema de programación convexa equivalente. Este caso es aquel en el que todos los coeficientes
¿ en cada función son estrictamente positivos, es decir, las funciones son polinomios positivos
generalizados (ahora llamados posinomiales), y la función objetivo se tiene que minimizar. El problema
equivalente de programación convexa con variables de decisión yx, y2,…, yn se obtiene entonces al
establecer
en todo el modelo original. Ahora se puede aplicar
un algoritmo de programación convexa. Se ha
desarrollado otro procedimiento de solución para
resolver estos problemas de programación posinomial, al igual que para problemas de programación
geométrica de otros tipos.
Programación Fracccional
Suponga que la función objetivo se encuentra en la forma de una fracción, esto es, la razón o cociente
de dos funciones, Estos problemas de programación
fraccional surgen, por ejemplo, cuando se maximiza
la razón de la producción entre las horas-hombre
empleadas (productividad), o la ganancia entre el capital
invertido (tasa de rendimiento), o el valor esperado dividido
entre la desviación estándar de alguna medida de desempeño para una cartera de
inversiones (rendimiento/riesgo). Se han formulado algunos procedimientos de solución
especiales 1 para ciertas formas de f1(x) y f2 (x)

Cuando se puede hacer, el enfoque más directo para resolver un problema de programación fraccional
es transformarlo en un problema equivalente de algún tipo estándar que disponga de un
procedimiento eficiente. Para ilustrar esto, suponga que f(x) es de la forma de programación fraccional
lineal

donde c y d son vectores renglón, x es un vector columna y c0 y dQ son escalares. También suponga que
las funciones de restricción g¡ (x)son lineales, es decir, las restricciones en forma matricial son Ax <
b y x > 0.
Con algunas suposiciones débiles adicionales, el problema se puede transformar en un problema
equivalente de programación lineal si se establece que se puede resolver con el método símplex. En
términos generales, se puede usar el mismo tipo de transformación para convertir un problema de
programación fraccional con /¡(x) cóncava, f2 (x) convexa y g¡ (x) convexas, en un problema equivalente
de programación convexa.
DIFERENCIAS ENTRE PROGRAMACIÓN LINEAL Y PROGRAMACIÓN NO LINEAL
El supuesto de la proporcionalidad de la programación lineal no siempre es adecuado para representar
de buena forma situaciones de naturaleza real que requieren de un modelo de optimización como
apoyo para el proceso de toma de decisiones. Cabe señalar que un modelo de programación no lineal
es aquel donde la función objetivo y/o las restricciones son funciones no lineales de las variables de
decisión. En este sentido la programación no lineal permite enfrentar una serie de aplicaciones
prácticas que requieren una representación a través de funciones no lineales. Algunos casos
característicos de la programación no lineal son los problemas de minimización de distancia, economías
o deseconomías de escala, carteras de inversión, ajuste de curva, entre otros. En general cuando
formulamos un modelo de optimización no lineal esperamos que éste sea más representativo de una
situación real en comparación a un modelo lineal, sin embargo, a la vez asumimos que es probable que
la complejidad de la resolución aumente. Por ello quien formule un modelo debe equilibrar la
representatividad del mismo con la dificultad de la resolución. A continuación presentaremos dos
modelos de optimización que comparten las mismas restricciones (que asumiremos por simplicidad
que son funciones lineales) y se diferencian por la naturaleza de la función objetivo (lineal y no lineal,
respectivamente). Estos ejemplos nos ayudarán a explicar algunas diferencias entre la programación
lineal y programación no lineal:

Modelo Lineal Modelo Minimización PNL

Si resolvemos gráficamente el modelo de programación lineal obtenemos la solución óptima en el


vértice C (X=14/5 Y=8/5 y valor óptimo V(P)=20,8). En efecto, una de las propiedades básicas de la
programación lineal es que cuando un modelo admite solución, ésta se encontrará en un vértice (o
tramo frontera) del dominio de soluciones factibles.

En cuanto a la resolución del modelo de programación no lineal, la


función objetivo no lineal tiene la forma de circunsferencias
concéntricas desde la coordenada (X,Y)=(2,4). Como la función
objetivo es de minimización, buscamos la circunsferencia de menor
radio que intersecte por primera vez el dominio de soluciones
factibles. Esto se alcanza en (X,Y)=(1,2,2,4). Conclusión: Si un
modelo de programación no lineal admite solución óptima, ésta se
puede encontrar en cualquier punto del dominio de soluciones
factibles. Por ejemplo, si nuestra función objetivo estuviese centrada en (X,Y)=(2,1) ésta ya sería la
solución óptima del problema. Notar que esta situación (solución en un punto interno del dominio
factible) no sería posible en la resolución de un modelo de programación lineal. En próximos artículos
en la categoría de programación no lineal analizaremos algunos algoritmos especializados para la
resolución de modelos no lineales como también herramientas computacionales para enfrentar este
tipo de problemas.
Programación Cuadrática
La programación cuadrática (QP) es el nombre que se le da a un procedimiento que minimiza una
función cuadrática de n variables sujeta a m restricciones lineales de igualdad o desigualdad. Un
programa cuadrático es la forma más simple de problema no lineal con restricciones de desigualdad. La
importancia de la programación cuadrática es debida a que un gran número de problemas aparecen de
forma natural como cuadráticos (optimización por mínimos cuadrados, con restricciones lineales), pero
además es importante porque aparece como un subproblema frecuentemente para resolver problemas
no lineales más complicados. Las técnicas propuestas para solucionar los problemas cuadráticos tienen
mucha similitud con la programación lineal. Específicamente cada desigualdad debe ser satisfecha
como igualdad. El problema se reduce entonces a una búsqueda de vértices exactamente igual que se
hacía en programación lineal.
Donde c es un vector de coeficientes constantes; A es una matriz
(m x n) y se asume, en general que Q es una matriz simétrica. Dado
que las restricciones son lineales y presumiblemente
independientes la cualificación de las restricciones se satisface
siempre, así pues, las condiciones de Karush-KuhnTucker son
también condiciones suficientes para obtener un extremo, que será
además un mínimo global si Q es definida positiva. Si Q no es definida positiva el problema podría no
estar acotado o llevar a mínimos locales.

La Programación Cuadrática juega un papel muy relevante en la teoría de optimización lineal y no lineal
pues guarda una relación muy estrecha con la Programación Lineal y es un paso intermedio esencial
para resolver eficazmente problemas generales de Programación No Lineal.

Para qué se usa


Existen diferentes tipos de problemas de programación cuadrática, los cuales se pueden clasificar en:
1. -Problemas cuadráticos de minimización sin restricciones, requieren minimizar la
función cuadrática f (x) sobre el espacio completo.
2. -Problemas cuadráticos de minimización sujetos a restricciones de igualdad, requieren
minimizar la función objetivo f (x) sujeta a restricciones lineales de igualdad Ax = b.
3. -Problemas cuadráticos de minimización sujetos a restricciones lineales de desigualdad.
Requieren minimizar la función objetivo f (x) sujeta a restricciones lineales de desigualdad Ax =
b, también puede contener restricciones de igualdad.
4. -Problemas de optimización de redes cuadráticas. Son problemas cuadráticos en los
que las restricciones son restricciones de baja conservación sobre una red pura generalizada.
5. -Problemas cuadráticos convexos. Son cualquiera de los mencionados arriba, en el cual
la función objetivo a ser minimizada, f (x) es convexa.
6. -Problemas cuadráticos no convexos. Son cualquiera de los mencionados arriba, en el
cual la función objetivo a ser minimizada, f (x) es no convexa.
7. -Problemas de complementariedad lineal. Son problemas especiales con un sistema de
ecuaciones en variables no negativas, en el cual las variables están formadas en varios pares
llamados pares complementarios.
Una función cuadrática, es la función no lineal más simple, y cuando es usada como una aproximación
para una función no lineal general, esta puede capturar la información importante de la curvatura, lo
que una aproximación lineal no puede. El uso de aproximaciones cuadráticas para resolver problemas
con funciones no lineales generales se remonta mucho tiempo atrás. Entre los métodos más
destacados, tenemos al método de Newton y el método de gradiente conjugado. Para la programación
cuadrática se pueden encontrar mínimos locales, mínimos globales, puntos estacionarios o de KKT, (son
los que satisfacen las condiciones de KKT del problema).
Problemas

Para desarrollar el problema hacemos:

(x 1 - 2)² + (x 2 - 2)² = a²

Y tenemos una circunferencia de radio a y centro en (2, 2). Por lo tanto, para obtener el mínimo de z
necesitamos calcular el mínimo valor de a que cumple las restricciones. Gráficamente tenemos la
situación de la figura y en ella vemos que el valor mínimo de a que verifica las restricciones es el de la
perpendicular desde el punto (2, 2) a la recta dada por:

pues en dicho punto se tiene:

y de ese modo se cumplen todas las restricciones.

Para obtener la perpendicular hacemos:

y puesto que pasa por el punto (2, 2):

con lo que tendremos:


Condiciones Karush Kuhn Tucker (KKT)

Las condiciones necesarias que deben satisfacer los óptimos de problemas de optimización no lineal
con restricciones de desigualdad fueron publicadas por primera vez (1939) en la tesis de Maestría de
William Karush (1917-1997) (en aquél entonces estudiante de matemáticas de la Universidad de
Chicago) , aunque fueron renombradas tras un artículo en una conferencia de Harold W. Kuhn y Albert
W. Tucker en 1951. Las condiciones de Karush-Kuhn-Tucker (KKT) son una generalización del método
de los multiplicadores de Lagrange para restricciones de desigualdad.

Problema General de Optimizaciòn


Consideremos el siguiente problema general:

donde es la función objetivo a minimizar, son las restricciones de desigualdad


y son las restricciones de igualdad, con y el número de restricciones de desigualdad e
igualdad, respectivamente.
Las condiciones necesarias para problemas con restricciones de desigualdad fueron publicadas por
primera vez en la tesis de máster de W. Karush, aunque fueron renombradas tras un artículo en una
conferencia de Harold W. Kuhn y Albert W. Tucker.
Condiciones Generales de Primer Orden

Supongamos que la función objetivo, por ejemplo, a minimizar, es y las funciones de


restricción son y . Además, supongamos que
son continuamente diferenciales en el punto . Si es un mínimo local, entonces existe
constantes , y tales que
Condiciones de Regularidad o Clasificación de las Restricciones

En la condición necesaria anterior, el multiplicador dual puede ser igual a cero. Este caso se
denomina degenerado o anormal. La condición necesaria no tiene en cuenta las propiedades de la
función sino la geometría de las restricciones.Existen una serie de condiciones de regularidad que
aseguran que la solución no es degenerada (es decir ).
1. Estas incluyen:Cualificación de la restricción de independencia lineal (CRIL): los
gradientes de las restricciones activas de desigualdad y los gradientes de las restricciones de
igualdad son linealmente independientes en .
2. Cualificación de la restricción de Mangasarian-Fromowitz (CRMF): los gradientes de las
restricciones activas de desigualdad y los gradientes de las restricciones de igualdad son
linealmente independientes positivos en .
3. Cualificación de la restricción de rango constante (CRRC): para cada subconjunto de las
restricciones activas de desigualdad y los gradientes de las restricciones de igualdad, el rango
en el entorno de es constante.
4. Cualificación de la restricción de dependencia lineal constante positiva (DLCP): para
cada subconjunto de restricciones activas de desigualdad y de gradientes de las restricciones
de igualdad, si es linealmente dependiente positivo en entonces es linealmente
dependiente positivo en el entorno de . ( es linealmente dependiente
positivo si existe distintos de cero tal
que )
5. Condición de Slater: para un problema únicamente con restricciones de desigualdad,
existe un punto tal que para todo
Condiciones Suficientes
Puede verse que CRIL=>CRMF=>DLCP, CRIL=>CRRC=>DLCP, aunque CRMF no es equivalente a CRRC. En
la práctica, se prefiere cualificación de restricciones más débiles ya que proporcionan condiciones de
optimalidad más fuertes.

Sea la función objetivo y las funciones de


restricción sean funciones convexas y sean las funciones
de afinidad, y séa un punto . si existen
constantes y tales que

entonces el punto es un mínimo global.

Vous aimerez peut-être aussi