Vous êtes sur la page 1sur 20

ÍNDICE

UNIDAD 3 “PROGRAMACIÓN NO LINEAL”

INTRODUCCIÓN …………………………………………………………… 3

3.1 CONCEPTOS BÁSICOS DE PROBLEMAS


DE PROGRAMACIÓN NO LINEAL……………………………………… 4

3.2 ILUSTRACIÓN GRAFICA DE PROBLEMAS


DE PROGRAMACIÓN NO LINEAL……………………………………… 5

3.3 TIPOS DE PROBLEMAS DE PROGRAMACIÓN


NO LINEAL…………………………………………………………………10

3.4 OPTIMIZACIÓN CLÁSICA……………………………………………15

3.4.1 PUNTOS DE INFLEXIÓN………………………………………….18

3.4.2 MÁXIMOS Y MÍNIMOS……………………………………………. 19

CONCLUSIÓN……………………………………………………………...20

BIBLIOGRAFÍA…………………………………………………………….21

INTRODUCCIÓN
2

La programación lineal es un conjunto de técnicas de análisis y de resolución de


problemas que tiene por objeto ayudar a los responsables en las decisiones sobre
asuntos en los que interviene un gran número de variables.
El nombre no viene de programas informáticos, sino de un término militar, programar,
que significa “realizar planes o propuestas de tiempo para el entrenamiento, la logística
o el despliegue de las unidades de combate”.

La programación lineal surge por la necesidad de buscar soluciones o modelos con


ecuaciones no lineales basados en problemas de organización de la actualidad, donde
el principal objetivo sea minimizar gastos y optimizar tiempos.
Aquí las variables de decisión se expresan como funciones no lineales ya sea en la
función objetivo y/o restricciones de un modelo de optimización. Esta característica
particular de los modelos no lineales permite abordar problemas donde existen
economías o deseconomías de escala o en general donde los supuestos asociados a
la proporcionalidad no se cumplen.
3
3.1 CONCEPTOS BÁSICOS DE PROBLEMAS DE
PROGRAMACIÓN NO LINEAL

La programación lineal da respuesta a situaciones en las que se exige maximizar o


minimizar funciones que se encuentran sujetas a determinadas limitaciones, que
llamaremos restricciones.
Su empleo es frecuente en aplicaciones de la industria, la economía, la estrategia
militar, etc.

Función objetivo
En esencia la programación lineal consiste en optimizar (maximizar o minimizar) una
función objetivo, que es una función lineal de varias variables:

f(x,y) = ax + by.

Restricciones
La función objetivo está sujeta a una serie de restricciones, expresadas por
inecuaciones lineales:
Cada desigualdad del sistema de restricciones determina un semiplano.
a1x + b1y ≤ c1

a2x + b2y ≤c2

… … …
… … …
Solución factible
El conjunto intersección, de todos los semiplanos formados por las
anx + bny ≤cn
restricciones, determina un recinto, acotado o no, que recibe el
nombre de región de validez o zona de soluciones factibles.
4
Solución óptima
El conjunto de los vértices del recinto se denomina conjunto de soluciones factibles
básicas y el vértice donde se presenta la solución óptima se llama solución máxima (o
mínima según el caso).

Valor del programa lineal


El valor que toma la función objetivo en el vértice de solución óptima se llama valor del
programa lineal.

3.2 ILUSTRACIÓN GRAFICA DE PROBLEMAS DE


PROGRAMACIÓN NO LINEAL

Cuando un problema de programación no lineal tiene sólo una o dos variables, se


puede representar gráficamente de forma muy parecida al ejemplo de la Wyndor Glass
Co. La figura 13.5 muestra lo que ocurre con este problema si los únicos cambios que
se hacen al modelo son que la segunda y tercera restricciones funcionales se
susti-tuyen por la restricción no lineal 9x + 5x2 < 216.
5

Entonces la representación gráfica en la figura 13.6 indica que la solución óptima es


xx – x2 = 5, que de nuevo se encuentra en la frontera de la región factible. (El valor
óptimo de Z es Z = 857; así, la figura 13.6 muestra el hecho de que el lugar geométrico
de todos los puntos para los que Z = 857 tiene en común con la región factible sólo
este punto, mientras que el lugar geométrico de los puntos con Z más grande no toca
la región factible en ningún punto.)

Entonces la figura 13.7 ilustra que la solución óptima es (*l5 x2 ) = (3,3), que se
encuentra dentro de la frontera de la región factible. (Se puede comprobar que esta
solución es óptima si se usa cálculo para derivarla como un máximo global no
restringido; como también satisface las restricciones, debe ser óptima para el problema
restringido.) Por lo tanto, es necesario que:
6
Un algoritmo general para resolver problemas de este tipo tome en cuenta todas las
soluciones en la región factible, y no sólo aquellas que están sobre la frontera.
Otra complicación que surge en programación no lineal es que un máximo local no
necesariamente es un máximo global (la solución óptima global). Por ejemplo,
considere la función de una sola variable graficada en la figura 13.8. En el intervalo 0
< x < 5, esta función tiene tres máximos locales — x=0,x=2,x=4—pero sólo uno de
éstos—x – 4—es un máximo global. (De igual manera, existen mínimos locales en x =
1,3 y 5, pero sólo x = 5 es un mínimo global.)

En general, los algoritmos de programación no lineal no pueden distinguir entre un


máximo local y un máximo global (excepto si encuentran otro máximo local mejor), por
lo que es determinante conocer las condiciones bajo las que se garantiza que un
máximo local es un máximo global en la región factible. Recuerde que en cálculo,
cuando se maximiza una función ordinaria (doblemente diferenciable) de una sola
variable f(x) sin restricciones, esta garantía está dada cuando:

Una función de este tipo cuya curvatura siempre es “hacia abajo” (o que no tiene
curvatura) se llama función cóncava. De igual manera, si se sustituye < por >, de
manera que la función tiene siempre una curvatura “hacia arriba” (o no tiene curvatura),
se llama función convexa. (Así, una función lineal es tanto cóncava como convexa.)
En la figura 13.9 se pueden ver ejemplos de esto. Note que la figura 13.8 ilustra una
función que no es cóncava, ni convexa pues alterna sus curvaturas hacia arriba y hacia
abajo.
Las funciones de variables múltiples también se pueden caracterizar como cóncavas
o convexas si su curvatura es siempre hacia abajo o hacia arriba. Estas definiciones
intuitivas se fundamentan en términos precisos que, junto con cierta profundización en
los conceptos.
7
La siguiente es una forma conveniente de verificar esto para una función de más de
dos variables cuando la función consiste en una suma de funciones más pequeñas
cada una de sólo

Una o dos variables. Si cada función más pequeña es cóncava, entonces la función
completa es cóncava. De manera similar, la función completa es convexa si cada
función más pequeña es convexa.

Es la suma de las dos funciones más pequeñas dadas en los paréntesis cuadrados.
La primera función más pequeña 4*! – x\ es una función de la variable x nada más, por
lo que puede verse que es cóncava si se observa que su segunda derivada es
negativa. La segunda función más pequeña (x2 – x¿ )2 es una fimción de x2 y por lo
que se puede aplicar la prueba para funciones de dos variables dada en el apéndice
2. De hecho, este apéndice usa esta función en particular para ilustrar la prueba y
encuentra que la función es cóncava. Como las dos funciones más pequeñas son
cóncavas, la función completa f (jVj ,x2,x3) debe ser cóncava.
8
Si un problema de programación no lineal no tiene restricciones, el hecho de que la
función objetivo sea cóncava garantiza que un máximo local es un máximo global. (De
igual mane-ra, una función objetivo convexa asegura que un mínimo local es un
mínimo global.) Si existen restricciones, entonces se necesita una condición más para
dar esta garantía, a saber, que la región factible sea un conjunto convexo. Un conjunto
convexo es sencillamente un conjunto de puntos tales que, para cada par de puntos
de la colección, el segmento de recta que los une está totalmente contenido en la
colección. Así, la región factible en el problema original de la Wyndor Glass Co. (vea
la figura 13.6 o 13.7) es un conjunto convexo. De hecho, la región factible para
cualquier otro problema de programación lineal es un conjunto convexo. De igual
manera, la región factible de la figura 13.5 también es un conjunto convexo.
En general la región factible para un problema de programación no lineal es un
conjunto convexo siempre que todas las funciones g¡ (x) [para las restricciones g (x) <
b{ ] sean convexas. Para el ejemplo de la figura 13.5, las dos gt (x) son convexas, ya
que gx (x) = x (una función lineal es automáticamente cóncava y convexa) y g2 (x) =
9x\ + 5x\ (tanto 9x\ como 5x2 son funciones convexas, por lo que su suma es una
función convexa). Estas dos funciones convexas g¡ (x) conducen a que la región
factible de la figura 13.5 sea un conjunto convexo.
Ahora se analizará qué pasa cuando sólo una de estas funciones g¡ (x) es una función
concava. En particular, suponga que el único cambio que se hace al ejemplo de la
figura 13.5 es:

Son funciones cóncavas. La nueva región factible mostrada en la figura 13.10 no es


un conjunto convexo. Este contiene pares de puntos, como (0, 7) y (4, 3), tales que
9
parte del segmento de recta que los une no está en la región factible. En consecuencia,
no se puede garantizar que un máximo local sea un máximo global. De hecho, este
ejemplo tiene dos máximos locales (0, 7) y (4, 3), pero sólo (0, 7) es un máximo global.
Entonces, para garantizar que un máximo local sea un máximo global para un
problema de programación no lineal con restricciones (x) < b¡ (i = 1,2,…, m) y x > 0, la
función objetivo /(x) debe ser cóncava y cada gí (x) debe ser convexa. Un problema
de este tipo se llama problema de programación convexa y es una de las clases más
importantes de la programación no lineal que se estudiará en la siguiente sección.

3.3 TIPOS DE PROBLEMAS DE PROGRAMACIÓN NO


LINEAL
(se mantuvieron los numero de ubicación de las imágenes para
identificar que imagen corresponde a cada problema)
Los problemas de programación no lineal se presentan de muchas formas distintas. Al
contrario del método simplex para programación lineal, no se dispone de un algoritmo
que resuelva todos estos tipos especiales de problemas. En su lugar, se han
desarrollado algoritmos para algunas clases (tipos especiales) de problemas de
programación no lineal. Se introducirán las clases más importantes y después se
describirá cómo se pueden resolver algunos de estos problemas.
 Si la función objetivo f es lineal y el espacio restringido es un politopo, el
problema es de Programación lineal y puede resolverse utilizando alguno de los
bien conocidos algoritmos de programación lineal.

Los tipos de problemas de programación no lineal son:


 Optimización no restringida.
 Optimización linealmente restringida.
 Programación cuadrática
 Programación convexa.
 Programación separable.
 Programación no convexa.
 Programación geométrica.
 Programación fraccional.
 Problema de complementariedad.
10

OPTIMIZACIÓN NO RESTRINGIDA

Los problemas de optimización no restringida no tienen restricciones, por lo que la


función objetivo es sencillamente Maximizar f(x)

Sobre todos los valores x= (x1, x2,…,xn). La condición necesaria para que una
solución específica x = x* sea óptima cuando f(x) es una función diferenciable es:

Cuando f (x) es cóncava, esta condición también es suficiente, con lo que la obtención
de x* se reduce a resolver el sistema de las n ecuaciones obtenidas al establecer las
n derivadas parciales iguales a cero. Por desgracia, cuando se trata de funciones no
lineales f (x), estas ecuaciones suelen ser no lineales también, en cuyo caso es poco
probable que se pueda obtener una solu-ción analítica simultánea.

¿Qué se puede hacer en ese caso? Las secciones 13.4 y 13.5 describen
procedimientos algorítmicos de búsqueda para encontrar x* primero para n = 1 y luego
para n > 1. Estos procedimientos también tienen un papel importante en la solución de
varios tipos de problemas con restricciones, que se describirán en seguida. La razón
es que muchos algoritmos para problemas restringidos están construidos de forma
que se adaptan a versiones no restringidas del problema en una parte de cada
iteración.

Cuando una variable Xj tiene una restricción de no negatividad, x > 0, la condición


necesaria (y tal vez) suficiente anterior cambia ligeramente a:

para cada j de este tipo. Esta condición se ilustra en la figura 13.11, donde la solución
óptima de un problema con una sola variable es x = 0 aun cuando la derivada ahí es
negativa y no cero. Como este ejemplo tiene una función cóncava para maximizar
11
sujeta a una restricción de no negatividad, el que su derivada sea menor o igual a 0
en # = 0, es una condición necesaria y su-ficiente para que x= 0 sea óptima.
Un problema que tiene algunas restricciones de no negatividad y que no tiene
restricciones funcionales es un caso especial (m = 0) de la siguiente clase de
problemas.

OPTIMIZACIÓN LINEALMENTE RESTRINGIDA


Los problemas de optimización linealmente restringida se caracterizan por
restricciones que se ajustan por completo a la programación lineal, de manera que
todas las funciones de restricción g¡ (x) son lineales, pero la función objetivo es no
lineal. El problema se simplifica mucho si sólo se tiene que tomar en cuenta una
función no lineal junto con una región factible de programación lineal. Se han
desarrollado varios algoritmos especiales basados en una extensión del método
símplex para analizar la función objetivo no lineal.
Un caso especial importante descrito a continuación es la programación cuadrática.

PROGRAMACIÓN CUADRÁTICA
De nuevo los problemas de programación cuadrática tienen restricciones lineales, pero
ahora la función objetivo /(x) debe ser cuadrática. Entonces, la única diferencia entre
éstos y un problema de programación lineal es que algunos términos de la función
objetivo incluyen el cuadrado de una variable o el producto de dos variables.
12

PROGRAMACIÓN CONVEXA
La programación convexa abarca una amplia clase de problemas, entre ellos como
casos especiales, están todos los tipos anteriores cuando /(x) es cóncava. Las
suposiciones son:

 f(x) es cóncava.
 Cada una de las g(x) es convexa.

PROGRAMACIÓN SEPARABLE

La programación separable es un caso especial de programación convexa, en donde


la suposi-ción adicional es
Todas las funciones f(x) y g(x) son funciones separables.
Una función separable es una función en la que cada término incluye una sola variable,
por lo que la función se puede separar en una suma de funciones de variables
individuales. Por ejemplo, si f(x) es una función separable, se puede expresar como:

PROGRAMACIÓN NO CONVEXA

La programación no convexa incluye todos los problemas de programación no lineal


que no satisfacen las suposiciones de programación convexa. En este caso, aun
cuando se tenga éxito en encontrar un máximo local, no hay garantía de que sea
también un máximo global. Por lo tanto, no se tiene un algoritmo que garantice
encontrar una solución óptima para todos estos problemas; pero sí existen algunos
algoritmos bastante adecuados para encontrar máximos locales, en especial cuando
las formas de las funciones no lineales no se desvían demasiado de aquellas que se
supusieron para programación convexa. En la sección 13.10 se presenta uno de estos
algoritmos.
Ciertos tipos específicos de problemas de programación no convexa se pueden
resolver sin mucha dificultad mediante métodos especiales. Dos de ellos, de gran
importancia, se pre-sentarán más adelante.
13

PROGRAMACIÓN GEOMÉTRICA
Cuando se aplica programación no lineal a problemas de diseño de ingeniería, muchas
veces la función objetivo y las funciones de restricción toman la forma:

En tales casos, las ci y a ty representan las constantes físicas y las x son las variables
de diseño. Estas funciones por lo general no son ni cóncavas ni convexas, por lo que
las técnicas de programación convexa no se pueden aplicar directamente a estos
problemas de programación geométrica. Sin embargo, existe un caso importante en el
que el problema se puede transformar en un problema de programación convexa
equivalente. Este caso es aquel en el que todos los coeficientes , en cada función son
estrictamente positivos, es decir, las funciones son polinomios positivos generalizados
(ahora llamados posinomiales), y la función objetivo se tiene que minimizar. El
problema equivalente de programación convexa con variables de decisión yx, y2,…,
yn se obtiene entonces al establecer:

en todo el modelo original. Ahora se puede aplicar un algoritmo de programación


convexa. Se ha desarrollado otro procedimiento de solución para resolver estos
problemas de programación posinomial, al igual que para problemas de programación
geométrica de otros tipos.

PROGRAMACIÓN FRACCIONAL
Suponga que la función objetivo se encuentra en la forma de una fracción, esto es, la
razón o cociente de dos funciones,

Estos problemas de programación fraccional surgen, por ejemplo, cuando se maximiza


la razón de la producción entre las horas-hombre empleadas (productividad), o la
ganancia entre el capital invertido (tasa de rendimiento), o el valor esperado dividido
entre la desviación es-tándar de alguna medida de desempeño para una cartera de
14
inversiones (rendimiento/ries-go). Se han formulado algunos procedimientos de
solución especiales para ciertas formas de f1(x) y f2 (x)

Cuando se puede hacer, el enfoque más directo para resolver un problema de


programación fraccional es transformarlo en un problema equivalente de algún tipo
estándar que disponga de un procedimiento eficiente. Para ilustrar esto, suponga que
f(x) es de la forma de programación fraccional lineal:

Donde c y d son vectores renglón, x es un vector columna y c0 y dQ son escalares.


También suponga que las funciones de restricción g¡ (x) son lineales, es decir, las
restricciones en forma matricial son Ax < b y x > 0.
Con algunas suposiciones débiles adicionales, el problema se puede transformar en
un problema equivalente de programación lineal si se establece

Se puede resolver con el método símplex. En términos generales, se puede usar el


mismo tipo de transformación para convertir un problema de programación fraccional
con /¡(x) cóncava, f2 (x) convexa y g¡ (x) convexas, en un problema equivalente de
programación convexa.

3.4 OPTIMIZACIÓN CLÁSICA

Está constituida por un conjunto de resultados y métodos analíticos y numéricos


enfocados a encontrar e identificar al mejor candidato de entre una colección de
alternativas, sin tener que enumerar y evaluar explícitamente todas esas alternativas.
Un problema de optimización es, en general, un problema de decisión.
15

Con el fin de ilustrar de forma adecuada la estructura y composición de un problema


de optimización, introduciremos a continuación un sencillo ejemplo:
Ejemplo 1: (Construcción de una caja con volumen máximo) Supongamos que
queremos determinar las dimensiones de una caja rectangular de forma que contenga
el mayor volumen posible, pero utilizando para ello una cantidad fija de material. El
problema en forma abstracta se podría plantear en los siguientes términos Maximizar
Volumen de la caja sujeto a Área lateral fija Con el fin de resolver este problema habrá
que modelizarlo matemáticamente, es decir tendremos que expresarlo en términos
matemáticos.

 Primer paso para modelizar un problema de optimización es identificar y definir


las variables que están implicadas en dicho problema, en este caso y puesto
que estamos tratando de determinar el tamaño de una caja rectangular, la
opción más clara es considerar como variables sus tres dimensiones
rectangulares usuales (ancho, largo, alto) y que representamos con x, y, z. Con
estas variables, la función para la que tenemos que encontrar el mejor valor
será el volumen de la caja que puede expresarse como V (x, y, z) = xyz.

 A continuación debemos tener en cuenta las limitaciones existentes sobre el


material. Como este material se utiliza para construir las paredes de la caja,
necesitaremos considerar el área lateral de la misma, y si la caja tiene tapa,
dicha área será A (x, y, z)= 2(xy + yz + zx).

 Por último, teniendo en cuenta que las dimensiones de la caja no pueden ser
negativas el problema puede expresarse matemáticamente como Maximizar
xyz sujeto a 2 (xy + yz + zx) = A x, y, z ≥ 0.

Fundamentos de Optimización
En este ejemplo se distinguen tres elementos fundamentales: las variables del
problema, una función de esas variables y un conjunto de relaciones que deben
cumplir las variables del problema. Estos elementos se repetirán en todos los
problemas de optimización y se definen formalmente a continuación:

1.- Variables de decisión: El primer elemento clave en la formulación de problemas


de optimización es la selección de las variables independientes que sean adecuadas
para caracterizar los posibles diseños candidatos y las condiciones de funcionamiento
del sistema. Como variables independientes se suelen elegir aquellas que tienen un
impacto significativo sobre la función objetivo.
16
Representaremos las variables independientes se representarán mediante vectores
columna de Rn x = x1 . . . + xn o vectores fila xt= (x1,...,xn) Aunque para los casos n
= 1, 2 y 3 se emplearán las notaciones usuales de x, (x, y) y (x, y, z) respectivamente.

2.- Restricciones: Una vez determinadas las variables independientes, el siguiente


paso es establecer, mediante ecuaciones o inecuaciones las relaciones existentes
entre las variables de decisión. Estas relaciones son debidas, entre otras razones, a
limitaciones en el sistema, a leyes naturales o a limitaciones tecnológicas y son las
llamadas restricciones del sistema. Podemos distinguir dos tipos de restricciones:

(a) Restricciones de igualdad: Son ecuaciones entre las variables de la forma h (x) =
h (x1,....xn)=0 donde g : A ⊆ Rn → R es una función real de variables reales definida
sobre un conjunto A de números reales.

(b) Restricciones de desigualdad: Son inecuaciones entre las variables de la forma g


(x) = g(x1,....xn) ≤ 0 donde A : C ⊆ Rn → R es una función real de variables reales
definida sobre un conjunto A de números reales.

Observación: Solamente se han considerado restricciones de dos tipos: restricciones


de igualdad del forma h (x1,....xn)=0 y restricciones de desigualdad de la forma
g(x1,....xn) ≤ 0, debido a que siempre es posible, mediante una simple transformación,
expresar el problema en términos de esta clase de restricciones.

Función objetivo: Finalmente, el último ingrediente de un problema de optimización


es la función objetivo, también llamado índice de rendimiento o criterio de elección.
Este es el elemento utilizado para decidir los valores adecuados de las variables de
decisión que resuelven el problema de optimización.
La función objetivo permite determinar los mejores valores para las variables de
decisión. Independientemente del criterio seleccionado, dentro del contexto de la
optimización matemática el adjetivo “mejor” siempre indica los valores de las variables
de decisión que producen el mínimo o máximo valor (según el criterio utilizado) de la
función objetivo elegida. Algunos de estos criterios pueden ser por ejemplo de tipo
económico (coste total, beneficio), de tipo tecnológico (energía mínima, máxima
capacidad de carga, máxima tasa de producción) o de tipo temporal (tiempo de
producción mínimo) entre otros.
17

3.4.1 PUNTOS DE INFLEXIÓN


Se define un punto de inflexión como el punto en que la función pasa de ser convexa
a cóncava o de cóncava a convexa.
En la siguiente gráfica podemos ver que cuando x = 0, la gráfica pasa de ser cóncava
a ser convexa, por lo que podemos decir que el punto de inflexión esta en X = 0.

Una característica de los puntos de inflexión es que son los puntos donde la función
derivada tiene máximos y mínimos. Si nos fijamos, cuando nos acercamos a un punto
de inflexión la función cada vez crece más (o decrece menos), pero al sobrepasar el
punto de inflexión la función empieza a crecer menos (o decrecer menos). Esto
significa que justamente donde haya un punto de inflexión la derivada tendrá un
máximo o un mínimo. Consecuentemente encontraremos los puntos de inflexión
buscando ceros de la segunda derivada.
Vamos a ilustrar el proceso con un ejemplo para así dar una explicación simple y clara:
Consideraremos la función F(x) = x³ - 3x (es la función representada en la anterior
gráfica).
Sabemos ya calcular los máximos y los mínimos de la función f(x) usando la primera
derivada. La expresión de ésta es 3x² - 3 y justamente encontramos máximos y
mínimos respectivamente en x = -14 y x = 1 . Si representamos la gráfica de la
derivada queda:

Observamos que justamente donde la derivada tiene un mínimo es donde la función


tiene el punto de inflexión.
Para saber qué punto es vamos a derivar la función derivada e igualarla a cero: F´´(x)
= 6x=0 = x = 0/6 = 0, y por tanto la función original en x = 0 tiene un punto de inflexión.
18

3.4.2 MÁXIMOS Y MÍNIMOS


Loas máximos y mínimos de una función son los valores más grandes o más pequeños
de ésta, ya sea en una región o en todo el dominio.

Los máximos y mínimos en una función f son los valores más grandes (máximos) o
más pequeños (mínimos) que toma la función, ya sea en una región (extremos
relativos) o en todo su dominio (extremos absolutos).
19

CONCLUSIÓN

Este trabajo pude apreciar en que situaciones podemos ocupar


la “programación no lineal”, ya que no en todos los casos este
es aplicable.

En la Programación Lineal (PL) no siempre es adecuado para


representar de buena forma situaciones de naturaleza real que
requieren de un modelo de optimización como apoyo para el
proceso de toma de decisiones. Y en la Programación No
Lineal permite enfrentar una serie de aplicaciones prácticas que
requieren una representación a través de funciones no lineales.

Algunos casos característicos de la Programación No Lineal


son los problemas de minimización de distancia, economías o
deseconomías de escala, carteras de inversión, ajuste de
curva, entre otros.

Por ello podemos decir que la programación no lineal podemos


aplicarla mas en la vida real.
20
BIBLIOGRAFÍA
 http://www.investigaciondeoperaciones.net/programacion_no_lineal.html#targe
tText=Modelos%20de%20Programaci%C3%B3n%20No%20Lineal&targetText
=Un%20modelo%20de%20Programaci%C3%B3n%20No,de%20un%20model
o%20de%20optimizaci%C3%B3n.

 https://www.gestiondeoperaciones.net/programacion-no-lineal/diferencias-
entre-la-programacion-no-lineal-y-la-programacion-lineal/

 http://www.aliat.org.mx/BibliotecasDigitales/economico_administrativo/Investig
acion_de_operaciones/Investigacion_de_operaciones_Parte_2.pdf

 http://www.ehu.eus/mae/html/prof/Maria_archivos/plnlapuntes.pdf

 https://www.gestiopolis.com/programacion-lineal-en-la-investigacion-de-
operaciones/

 https://alejandraarvisu.wordpress.com/3-1-conceptos-basicos-de-problemas-
de-programacion-no-lineal/

 https://karenbandala.wordpress.com/unidad-iii/3-2-optimizacion-clasica-
programacion-no-lineal/

 https://karenbandala.wordpress.com/unidad-iii/3-3-problemas-no-restringidos-
programacion-no-lineal/

 http://operaciongadget.blogspot.com/2017/10/34-optimizacion-clasica.html

 http://www.sangakoo.com/es/temas/concavidad-y-convexidad-puntos-de-
inflexion-de-una-funcion

 http://nuyoo.utm.mx/~jjf/rna/guia_foe.pdf

 http://www.universoformulas.com/matematicas/analisis/maximos-minimos-
funcion/

Vous aimerez peut-être aussi