Académique Documents
Professionnel Documents
Culture Documents
Saint Etienne
Universidad Central del Ecuador
PROYECTO
Optimización Matemática y Métodos
Económicos
Para obtener la Licenciatura en Ciencia y Tecnologı́as,
mención Matemática
Autora: Tutor:
Verónica M. Acurio Vásconez Dr. Julio Medina
Junio 2009
Quito - Ecuador
A Dios y a mis padres, Bertila y Franklin.
Las palabras son insuficientes para
retribuirles su ayuda, ası́ que solo me queda
decirles GRACIAS.
Optimización Matemática y Métodos
Económicos:
Programación Lineal
3 de julio de 2009
Índice general
1. Introducción 2
4. Programación Lineal 10
4.1. El Problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.2. Generación de Soluciones de Punto Extremo . . . . . . . . . . 19
4.3. Dualidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.4. El Método Simplex . . . . . . . . . . . . . . . . . . . . . . . . 29
4.4.1. Desarrollo de una solución posible mı́nima . . . . . . . 29
4.4.2. Procedimiento de Cómputo . . . . . . . . . . . . . . . 33
4.5. Alternativa al Método Simplex . . . . . . . . . . . . . . . . . . 40
5. Modelización PL y Aplicaciones
Activo/Pasivo, Flujo de Caja, Fondos Compensatorios 41
5.1. Algunos Términos Financieros . . . . . . . . . . . . . . . . . . 41
5.1.1. Modelar . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.1.2. Resolver . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.1.3. Interpretar . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.2. Caracterı́sticas de los Programas Lineales . . . . . . . . . . . . 51
5.3. Dedicación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.4. Sensibilidad y Análisis de la Programación Lineal . . . . . . . 58
6. Conclusiones 59
1
Capı́tulo 1
Introducción
2
CAPÍTULO 1. INTRODUCCIÓN
2.1. Convexidad
2.1.1. Conjuntos Convexos
Definición 2.1.1 Sean P1 , P2 , ..., Pn ∈ Rn . Una combinación convexa de
los puntos P1 , P2 , ..., Pn es un punto
P = α1 P1 + α2 P2 + · · · + αn Pn
P
donde las αi son escalares, αi ≥ 0 y αi = 1.
i=1
Propiedades:
1. Para cualquier par de puntos dados en un conjunto convexo, el segmen-
to de lı́nea que los une está también en el conjunto.
4
CAPÍTULO 2. ELEMENTOS MATEMÁTICOS PREVIOS
Teorema 2.1.1 Cualquier punto sobre el segmento de lı́nea que une dos pun-
tos de un conjunto Rn , puede ser expresado como una combinación convexa
de los dos puntos.
Q + λ (P − Q) = R
o también,
λP + (1 − λ) Q = R
que es la expresión de R como combinación lineal de P y Q.
Teorema 2.1.2 Cualquier punto que puede ser expresado como combinación
convexa de dos puntos de En estará sobre el segmento de lı́nea que une a los
dos puntos.
Demostración Tenemos,
R = (1 − λ) Q + λP o R − Q = λ (P − Q) , con 0 ≤ λ ≤ 1
Por otra parte, como el segmento de lı́nea que une P con Q y el segmento
de lı́nea que une R con Q son paralelos a los vectores P −Q y R−Q respectiva-
mente, el punto R deberá estar sobre el segmento de lı́nea que une P con Q.
Propiedades:
Elementos de un Problema de
Optimización
3.1. Generalidades
Definición 3.1.1 Los elementos esenciales de un problema de optimización
son los siguientes:
f : Rn → R
X 7→ f (x1 , . . . , xn )
Observación
Si es posible encontrar una secuencia Xk ∈ K para todo
k
k, y f X diverge hacia −∞, entonces el problema se dice irresoluble.
8
CAPÍTULO 3. ELEMENTOS DE UN PROBLEMA DE OPTIMIZACIÓN
f (X∗ ) ≤ f (X) , ∀X ∈ S
Para algún ε > 0, donde BX∗ (ε) es la bola abierta de radio ε con centro
en X∗ , es decir:
K := {X : gi (X) = 0, i ∈ ε, gi (X) ≥ 0, i ∈ I}
Programación Lineal
4.1. El Problema
Resolver un problema de este tipo, consiste en elegir valores no negativos
de ciertas variables, para maximizar o minimizar la función objetivo, que es
lineal y que está sujeta a restricciones dadas por ecuaciones o desigualdades
lineales.
10
CAPÍTULO 4. PROGRAMACIÓN LINEAL
mı́nX cT X
aTi X = bi , i ∈ ε (4.1)
aTj X = bj, j ∈ I
Donde ε y I son los conjuntos de restricciones de igualdades y desigual-
dades respectivamente.
mı́nX cT X
AX = b (4.2)
X≥0
Aquı́, A ∈ Rmxn , b ∈ Rm , c ∈ Rn son dados y x ∈ Rn es la variable vector
a ser determinada. A es la matriz de coeficientes de las funciones de restric-
ción, b el vector de las constantes de restricción asociadas y f (X) = cT X,
donde c es el vector de coeficientes de la función objetivo.
Suponemos que A tiene rango n, pues caso contrario no podrı́a ser re-
ducida.
x1 P1 +
x2 P2 +
... + xn
Pn = P0
, donde
a11 a12 a1n b1
P1 = . , P2 = . , ..., Pn = . y P0 = .
am1 am2 amn bm
Ejemplo 4.1.2 Supongamos que una de las restricciones para una com-
ponente xi de X xi ≤ −6, esto contradice el hecho de que xi ≥ 0 para todo
i = 1, ..., n, y por tanto no existe ningún elemento que cumpla esta condición,
convirtiendo al conjunto de oportunidades en uno vacı́o, donde el problema
PL no tiene solución.
mı́nX f (X) = x1 + x2
−x1 − x2 ≤ −8
x1 , x2 ≥ 0
Sea f (X) la función objetivo, los vectores x1 , ..., xp las soluciones factibles y
X0 la solución óptima, es decir f (X0 ) ≤ f (X) para todo X ∈ K. Si X0 es un
punto extremo, entonces cumplimos con la primera parte del teorema.
q
X X
X0 = αi xi , con αi ≥ 0 y αi = 1
i=1 i
f (X0 ) = f Xm = m
Para probar la segunda parte del teorema, supongamos que existen x1 , ..., xq
soluciones mı́nimas para el problema LP. Se sigue entonces que f (x1 ) =
f (x2 ) = ..... = f (xm ) = m. Sea X una combinación convexa de las xi , en-
Pq P
tonces X = αi xi para αi ≥ 0 y αi = 1.
i=1 i
Luego,
x1 P1 + x2 P2 + ... + xk Pk = P0 , con xi ≥ 0
Entonces,
(1) (1)
xi = xi = xi
Por tanto X no puede ser expresado como una combinación convexa de dos
puntos distintos de K y por lo tanto X es un punto extremo.
k
X
xi Pi = P0
i=1
Supongamos que los vectores P1 , ...P k son LD, entonces existe una com-
binación lineal de estos vectores tal que,
d 1 P1 + d 2 P2 + . . . + d k Pk = 0
x1 P1 + x2 P2 + . . . + xk Pk = P0
x1 P1 + x2 P2 + . . . + xk Pk + d (d1 P1 + d2 P2 + . . . + dk Pk ) = P0
k
P k
P
xi Pi + d diPi = P0
i=1 i=1
k
X k
X
xi Pi − d d i Pi = P0
i=1 i=1
Ahora bien,
1/ X1 + 1/ X2 = 1/ x1 + dd1 + 1/ x1 − dd1, . . . , 1/ xk + ddk + 1/ xk − ddk , 0 . . . , 0
2 2 2 2 2 2
= (x1 , x2 , . . . , xk , 0, . . . , 0)
=X
Por lo tanto lo que supusimos es incorrecto, y entonces los P1 , ...P k son LI.
Para probar que al menos m de las xi son positivas, partimos del hecho
de que todo conjunto de m + 1 de vectores en un espacio m dimensional
es necesariamente LD, entonces no podemos tener más de m xi positivas,
puesto que si esto ocurriera, por la parte anterior de este teorema, existirı́an
vectores P1 , ..., Pm , Pm+1 que son LI.
En efecto, dado que los P1 , ..., P m son LI estos forman una base para un
espacio vectorial m-dimensional, y entonces cualquier vector de los n dados
se puede expresar como,
m
X
Pj = xij Pi , j = m + 1, ..., n (4.3)
i=1
Supongamos ahora que existe un vector Pm+1 que no está en la base, que
tiene al menos un elemento xi,m+1 > 0 en la expresión
de donde,
xi
θ≤
xi,m+1
xi
luego, si tomamos 0 < θ ≤ mı́n xi,m+1 tendremos una solución factible.
i
Luego, como P2 , ..., Pm son LI, se sigue que todos estos coeficientes son iguales
a cero, pero xi,m+1 es estrictamente mayor a cero, por tanto lo que supusimos
P1 P2 P3 P4 P5 P6 P0
3x1 − x2 + 2x3 + x4 = 7
2x1 − 4x2 + x5 = 12
−4x1 − 3x2 + 8x3 + x6 = 10
Y entonces,
x41 = 3, x51 = 2 y x61 = −4
Si multiplicamos (4.12) por θ y restamos el resultado de (4.11), tenemos
donde cualquier θ > 0 nos de una solución posible X′′ = (0, θ, θ, 7 + θ, 12 + 4θ, 10 + 3θ),
como en este caso, xi2 < 0, no es posible hallar una solución de extremo.
P1 P2 P3 P4 P5 P6 P0 θ
1 −1 2 1 0 0 7 7/3 = θ0
2 −4 0 0 1 0 12 6
−4 −3 8 0 0 1 10
Para hacerlo, procedemos como si la tabla fuese una matriz, por tanto
con el método de eliminación completa podemos obtener los resultados que
deseamos.
P1 P2 P3 P4 P5 P6 P0 θ
1 −1/3 2/3 1/3 0 0 7/3
2 −4 0 0 1 0 12
−4 −3 8 0 0 1 10
P1 P2 P3 P4 P5 P6 P0 θ
1 −1/3 2/3 1/3 0 0 7/3
2/3 −10/3 −4/3 −2/3 1 0 22/3
0 −13/3 32/3 4/3 0 1 58/3
donde la nueva solución es X′ = 7/3, 0, 0, 0, 22/3, 58/3
4.3. Dualidad
En la resolución de un problema de optimización es necesario saber re-
conocer una solución óptima entre las soluciones.
Entonces,
Esta desigualdad debe cumplirse con todas las soluciones factibles dado
que xi son no negativas y el coeficiente de cada variable al lado izquierdo
de la inecuación es al menos tan grande como el coeficiente de la variable
correspondiente del lado derecho.
Esta última desigualdad indica que para toda solución factible, la solu-
ción de la función objetivo no puede ser más pequeña que −7.
Teorema 4.3.1 (De la dualidad débil) Sea X una solución factible del prob-
lema PL y Y una solución factible del problema dual correspondiente. En-
tonces,
cT X ≥ bT Y
YT s = sT X
T
= c − AT Y X
= cT X − YT b ≥ 0
Por tanto cT X ≥ bT Y.
Demostración Del teorema de dualidad débil, se sigue que para toda solu-
ción factible X del problema primal,
cT X ≥ bT Y∗
cj = cj − ΠT aj , ∀j = 1, 2, . . . , n
cj = cj − ΠT aj ≥ 0, ∀j = 1, 2, . . . , n
En consecuencia,
ΠT aj ≤ cj , ∀j = 1, 2, . . . , n
o aTj Π ≤ cj , ∀j = 1, 2, . . . , n
de donde se sigue que
AT Π ≤ c
lo que implica que
Π ∈ Y : AT Y ≤ c
Definición 4.3.2 X ∈ Rn es una solución óptima de (4.2) si y solo si
1. X es primal factible: AX = b, X ≥ 0 y existen Y ∈ Rn y S ∈ Rn tales
que
2. (Y, S) es dual factible: AT Y + S = c, S ≥ 0 y
3. cT X = bT Y.
Un análisis de estas condiciones nos lleva a obtener un conjunto de condi-
ciones óptimas alternativas. Del teorema de dualidad débil, tenemos que
T
cT X − bT Y = c − AT Y X ≥ 0
para cualquier par de soluciones factibles del primal-dual.
Es decir,
n
T
T X
c − AT Y i Xi
0= c−A Y X=
i=1
donde cada término es no negativo.
Dado que esta suma es cero, cada término debe ser cero.
XN = 0, XB = B −1 b
Sea X0 = (x10 , x20 , ..., xm0 ) y sea P1 , ..., Pm el conjunto asociado de vec-
tores LI, entonces
y,
x10 c1 + x20 c2 + . . . + xm0 cm = z0 , con xi0 > 0 (4.16)
Las ci son los coeficientes de restricción de la función objetivo y z0 es el valor
correspondiente de la función objetivo para la solución dada.
Como P1 , ..., Pm son LI, podemos expresar cualquier vector del conjunto
P1 , ..., Pn en términos de P1 , ..., Pm , es decir
Definamos,
En cada caso se puede obtener una solución posible, cuyo valor correspon-
diente de la función objetivo es menor que el valor de la solución precedente.
Este proceso puede volverse a realizar cuantas veces sea necesario, hasta
que zj − cj ≤ 0 o hasta que para cierta zj − cj > 0, todas las xij ≤ 0.
Teorema 4.4.2 Si para cualquier solución básica posible, X = (x10 , ..., xm0 )
las condiciones zj − cj ≤ 0 se cumplen para todas las j = 1, ..., n, entonces
(4.15) y (4.16) constituyen una solución posible mı́nima.
Demostración Sean,
y,
y10 c1 + y20 c2 + . . . + yn0 cn = z ∗ (4.23)
Sea cualquier otra solución posible en la que z∗ es el valor correspondiente
de la función objetivo. Demostremos que z0 ≤ z∗ .
m
! m
! m
!
X X X
y10 xi1 Pi + y20 xi2 Pi + . . . + yn0 xin Pi = P0 (4.25)
i=1 i=1 i=1
Ası́ mismo, para cada j sustituimos la expresión para zj dada por (4.18)
en (4.24) y obtenemos,
m
! m
! m
!
X X X
xj0 X1j c1 + xj0 X2j c1 + . . . + xj0 Xmj cm ≤ z ∗ (4.26)
i=1 i=1 i=1
Note que existe solo un número finito de estas soluciones básicas, lo que
reduce esta búsqueda a un espacio infinito o finito.
Ejemplo 4.4.1 El granjero Jones tiene 100 acres de tierra que quiere
dedicar a la siembra de trigo y maı́z, y desea planear la plantación de las
mismas, de tal manera que pueda obtener la máxima ganancia por su venta.
La extensa vida social de la familia Jones, les deja libres solo 150 dı́as
laborables para dedicarlos a la siembra. Para sembrar cada acre de trigo se
necesitan dos dı́as y para sembrar un acre de maı́z uno.
Z − 80x1 − 60x2 = 0
P1 P2 P3 P4 P5 P0
Variables ⇓
x2 x3 x4 x5
Basicas x1
Z −80 −60 0 0 0 0 (1)
x3 1 1 1 0 0 100
⇐ x4 2∗ 1 0 1 0 150
x5 5 10 0 0 1 800
Una vez que hayamos formado la tabla (1), buscamos una variable en-
trante, es decir, una variable que tenga un coeficiente negativo en la columna
objetivo y que acreciente la función objetivo si es introducida en la base.
En cada caso, las dos variables x1 y x2 poseen coeficientes negativos en la
columna objetivo. Dado que x1 tiene el mayor coeficiente negativo, tomare-
mos la columna de este coeficiente (por ello la flecha sobre la columna de x1 ).
Sin embargo, en principio, cualquier variable básica con coeficiente negativo
puede ser tomada.
De donde,
Y entonces,
0 < θ = θ0 = 75
que corresponde al vector P4 (por ello la flecha hacia fuera en la variable
x4 , en la tabla (1), que identifica esta como la variable de holgadura).
Cabe recordar que en el proceso se busca el mı́nimo solo entre las vari-
ables que son no negativas.
Si es que todas las θ0i son cero o negativas, entonces concluimos que el
problema es irresoluble.
Del paso anterior tenemos que θ0 = 75, reemplazando este valor en (4) se
sigue que,
P1 P2 P3 P4 P5 P0
Variables ⇓
x2 x3 x4 x5
Basicas x1
F1 Z −80 −60 0 0 0 0
F2 x3 1 1 1 0 0 100
F3 ⇐ x4 2∗ 1 0 1 0 150
F4 x5 5 10 0 0 1 800
P1 P2 P3 P4 P5 P0
Variables
x1 x2 x3 x4 x5
Basicas
F1 Z −80 −60 0 0 0 0
F2 x3 1 1 1 0 0 100
F3 x1 1 1/2 0 1/2 0 75
F4 x5 5 10 0 0 1 800
P1 P2 P3 P4 P5 P0
Variables
x1 x2 x3 x4 x5
Basicas
F1 Z 0 −20 0 40 0 6000 (5)
F2 x3 0 1/2 1 −1/2 0 25
F3 x1 1 1/2 0 1/2 0 75
F4 x5 0 15/2 0 −5/2 1 425
Paso 3 Volver a realizar los pasos 1 y 2 hasta que el Paso 1 nos pida de-
tenernos
Con la tabla (5), podemos decir que la nueva solución básica inicial es,
De donde,
Luego,
Se sigue que
x3 100
θ03 = x32
= 1
= 50
x1 150
θ01 = x12
= 2
= 75
800
θ05 = x5
x52
= 5
= 170
3
Y entonces,
0 < θ = θ0 = 50
que corresponde al vector P3 en la tabla (5), identificando x3 como la
variable de holgadura.
P1 P2 P3 P4 P5 P0
Variables ⇓
x1 x3 x4 x5
Basicas x2
F1 Z 0 −20 0 40 0 6000
F2 ⇐ x3 0 1/2∗ 1 −1/2 0 25
F3 x4 1 1/2 0 1/2 0 75
F4 x5 0 15/2 0 −5/2 1 800
P1 P2 P3 P4 P5 P0
Variables
x1 x2 x3 x4 x5
Basicas
F1 Z 0 −20 0 40 0 6000
F2 x2 0 1 2 −1 0 50
F3 x4 1 1/2 0 1/2 0 75
F4 x5 0 15/2 0 −5/2 1 425
P1 P2 P3 P4 P5 P0
Variables
x1 x2 x3 x4 x5
Basicas
F1 Z 0 0 40 20 0 7000
F2 x2 0 1 2 −1 0 50
F3 x4 1 0 −1 1 0 50
F4 x5 0 0 −15 5 1 50
Como todas las variables del objetivo son no negativas, entonces (50, 50, 0, 0, 50)
es la solución óptima.
Existe otro método que nos permite resolver estos grandes problemas,
conocido como el método barrera o el método del punto interior. Este méto-
do usa una estrategia totalmente distinta a la del método simplex para buscar
el óptimo, siguiendo un patrón mucho más complejo, pero el número de it-
eraciones necesarias no depende de cuan grande sea el problema.
Como resultado, el método del punto interior, puede ser mucho más rápi-
do que el método simplex para resolver problemas de grandes proporciones.
Modelización PL y Aplicaciones
Activo/Pasivo, Flujo de Caja,
Fondos Compensatorios
Considere el ejemplo.
Una lı́nea de crédito sobre los $100 a una tasa de interés del 1 % men-
sual.
Los fondos excedentes pueden ser invertidos a una tasa de interés del
0.3 % mensual.
41
CAPÍTULO 5. MODELIZACIÓN PL Y APLICACIONES
ACTIVO/PASIVO, FLUJO DE CAJA, FONDOS COMPENSATORIOS
5.1.1. Modelar
Empezamos modelando el pequeño problema financiero anterior, es decir,
escribiremos este problema en el lenguaje de programación lineal. Existen re-
glas sobre las que se puede o no plantear un la programación lineal. Estas
reglas imponen algunos de los pasos necesarios para el proceso (resolviendo
e interpretando el problema) que nos llevan a plantearlo exitosamente.
Las claves del programa lineal es el escoger bien las variables de decisión,
el objetivo y las restricciones.
Objetivo Todo problema lineal tienen un objetivo, que debe ser o bien
maximizado o bien minimizado. Este objetivo debe tener variables de decisión
lineales, lo que significa que estas deben estar sumándose o multiplicándose
por constantes, es decir 2x1 + 10x2 es una función lineal, mientras que x1 ∗ x2
no lo es. En nuestro caso, el objetivo es simplemente maximizar v.
x1 + y1 − z1 = 150
Si hacemos lo mismo para los meses de marzo, abril, mayo y junio, ten-
emos lo siguiente,
0 ≤ xi ≤ 100
yi ≥ 0
zi ≥ 0
máx v
x1 + y1 − z1 = 150
x2 + y2 − 1,01x1 + 1,003z1 − z2 = 100
x3 + y3 − 1,01x2 + 1,003z2 − z3 = −200
x4 − 1,02y1 − 1,01x3 + 1,003z3 − z4 = 200
x5 − 1,02y2 − 1,01x4 + 1,003z4 − z5 = −50
−1,02y3 − 1,01x5 + 1,003z5 − v = −300
x1 ≤ 100
x2 ≤ 100
x3 ≤ 100
x4 ≤ 100
x5 ≤ 100
xi , yi, zi ≥ 0
5.1.2. Resolver
Existen varios programas que resuelven problemas de optimización. En
este proyecto se usará la herramienta informática Matlab.
Este software posee un comando que nos permite resolver problemas PL,
que es linprog.
Este comando resuelve el programa lineal estándar, es decir la minimización
de la función objetivo.
mı́nX cT X
AX ≤ b
Si se dejan vacı́os, se sobre entiende que no existen lı́mites para las vari-
ables. Si se coloca LB(i) = −Inf significa que el problema no posee
lı́mites hacia abajo, y si se pone UB(i) = Inf se entiende que el prob-
lema no posee lı́mites hacia arriba.
Como tenemos que las variables x1 , ..., xn son siempre positivas, debe-
mos procurar colocar LB=[0 0 .... 0], de acuerdo a la cantidad de vari-
ables que tengamos.
La función es la siguiente,
5.1.3. Interpretar
Cada paquete informático posee su propia manera de presentar los re-
sultados. En nuestro caso, al poner X = antes de la correr el comando, el
resultado que se nos despliega es el valor que debe tener cada variable a fin
de minimizar (o maximizar) la función objetivo. Estos valores están en el
mismo orden en el que se colocó las variables en la función objetivo.
Los primeros dos supuestos están relacionados con la forma lineal de las
funciones. La contribución al objetivo de las variables de decisión es propor-
cional al valor de cada una de ellas. Similarmente, la contribución de cada
variable al lado izquierdo de cada restricción es proporcional al valor de cada
variable. Este es llamando el Supuesto de Proporcionalidad.
5.3. Dedicación
La Dedicación o flujo de caja correspondiente es una técnica usada para
encontrar conocidos pasivos en el futuro. La idea es formar un portafolio de
activos cuyo efectivo compense exactamente la salida de los pasivos. Los pa-
sivos por lo tanto serán liquidados, a medida que se deben, sin la necesidad
de vender o comprar activos en el futuro. El portafolio se forma hoy y es
entonces mantenido hasta que los pasivos sean liquidados.
La duración es,
T
1 X tCt
D=
P t=1 (1 + rt )t
Bono 1 2 3 4 5 6 7 8 9 10
Precio 102 99 101 98 98 104 100 101 102 94
Cupón 5 3,5 5 3,5 4 9 6 8 9 7
Madurez Año 1 Año 2 Año 2 Año 3 Año 4 Año 5 Año 5 Año 6 Año 7 Año 8
Formularemos y resolveremos el problema lineal, de tal manera que en-
cuentre el portafolio menos costoso de bonos a adquirir hoy que compense las
obligaciones del municipio durante los siguientes ocho años. Para eliminar
la posibilidad de cualquier reinversión riesgosa, asumimos una tasa de rein-
versión igual al 0 %.
Obviamente, algunos números en los datos son más importantes que otros
¿cómo saber cuáles son importantes?, ¿cómo determinar el efecto de los er-
rores de estimación? La sensibilidad es exactamente esto y con análisis de la
programación lineal se pueden responder estas preguntas, dependiendo del
del paquete informático que se use.
Si usamos Matlab podemos pedirle que nos retorne, a más del valor de
las constantes, el valor objetivo, mediante el comando,
Recuerde que como Matlab solo minimiza, tuvimos que minimizar la fun-
ción −f a fin de obtener el máximo, por ello el parámetro f val nos de-
volverá un valor negativo.
Conclusiones
Los avances tecnológicos han sido los verdaderos gestores del gran éxito
de la programación lineal, puesto que hace 30 años, resolver sistemas de ecua-
ciones con más de 10 000 incógnitas y variables era simplemente impensable.
59
CAPÍTULO 6. CONCLUSIONES
[5] Bernard Kolman, David R. Hill Álgebra Lineal, Pearson, Prentice Hill
(2006)
61
BIBLIOGRAFÍA