Vous êtes sur la page 1sur 14

Tema 4

Optimización

4.1. Planteamiento del problema. Concepto de ópti-


mo: máximos y mı́nimos, estrictos y no es-
trictos, locales y globales. Teorema local-global.
Teorema de Weierstrass
4.1.1. Planteamiento del problema
El problema de optimización más sencillo serı́a el correspondiente al siguiente
enunciado: Optimizar la función real f : IRn → IR. A la función f se llama función
objetivo del problema:
Opt f (x).

Habitualmente, en un problema de optimización real, las variables de la función


están sujetas a distintas condiciones que las limitan o las relacionan entre ellas. A
dichas condiciones se les llama restricciones del problema de optimización.
El subconjunto X de IRn formado por todos los puntos de IRn que satisfacen
las restricciones de nuestro problema se llama conjunto factible. Este caso se
denotarı́a por:
Opt f (x)
s. a x ∈ X,

con X ⊆ Dom(f ).
Los problemas de optimización pueden concretarse en problemas de maxi-
mización y problemas de minimización:

Max f (x) Min f (x)


y
s. a x ∈ X s. a x ∈ X.

31
32 TEMA 4. OPTIMIZACIÓN

4.1.2. Conjuntos abiertos, cerrados, acotados y compactos


Definición 4.1.1 (Bola cerrada) Sean a ∈ IRn y r ∈ IR+ . Se denomina bola
cerrada de centro a y radio r al conjunto definido como:

B̄(a, r) = {x ∈ IRn : |x − a| ≤ r} .

En la Figura 4.1 se pueden observar cómo serı́an bolas cerradas en dimensión 1,


2 y 3.

B̄(0, 1) ⊂ IR. B̄(0, 1) ⊂ IR2 . B̄(0, 1) ⊂ IR3 .

Figura 4.1: Tres ejemplos de bola cerrada (en IR, IR2 y IR3 , respectivamente).

Definición 4.1.2 (Conjunto abierto) Se dice que un conjunto A ⊆ IRn es un


abierto, si para todo punto a ∈ A existe un radio r > 0 tal que B̄(a, r) ⊂ A.

Definición 4.1.3 (Conjunto cerrado) Se dice que un conjunto C ⊂ IRn es un


cerrado, si IRn \ C es un abierto.

Los conjuntos de las Figuras 4.1 y 4.2 son cerrados y los de la Figura 4.3 son
abiertos. Los conjuntos ∅ y IRn (∀n ∈ IN) son simultáneamente abiertos y cerrados.

Figura 4.2: Algunos conjuntos cerrados en IR2 .

Proposición 4.1.4 Los conjuntos abiertos en IR son ∅ y las uniones de intervalos


abiertos.
CONCEPTO DE ÓPTIMO 33

Figura 4.3: Algunos conjuntos abiertos en IR2 .

Definición 4.1.5 (Conjunto acotado) Se dice que un conjunto S ⊂ IRn está aco-
tado si existen a ∈ IRn y r > 0 tales que S ⊂ B̄(a, r).

Definición 4.1.6 (Conjunto compacto) Un conjunto K ⊂ IRn es compacto si


K es al mismo tiempo cerrado y acotado.

En la Figura 4.2 pueden verse varios ejemplos de conjuntos compactos. Algunos


conjuntos que no son compactos aparecen en la Figura 4.4.

Cı́rculo: Ángulo:
conjunto acotado y no cerrado. conjunto cerrado y no acotado.

Semirrecta abierta:
conjunto no cerrado y no acotado.
Figura 4.4: Algunos conjuntos no compactos.

4.1.3. Concepto de óptimo: máximos y mı́nimos, estrictos y


no estrictos, locales y globales
Definición 4.1.7 Sea f : D ⊆ IRn → IR una función real tal que D = Dom(f ) es
un abierto de IRn . Se dice que a ∈ D es:

un máximo local de f si ∃r ∈ IR+ | f (a) ≥ f (x) ∀x ∈ B̄(a, r);


34 TEMA 4. OPTIMIZACIÓN

un mı́nimo local de f si ∃r ∈ IR+ | f (a) ≤ f (x) ∀x ∈ B̄(a, r);

un máximo local estricto de f si ∃r ∈ IR+ | f (a) > f (x) ∀x ∈ B̄(a, r)\{a};

un mı́nimo local estricto de f si ∃r ∈ IR+ | f (a) < f (x) ∀x ∈ B̄(a, r)\{a};

un máximo global de f en D si f (a) ≥ f (x) ∀x ∈ D;

un mı́nimo global de f en D si f (a) ≤ f (x) ∀x ∈ D;

un máximo global estricto de f en D si f (a) > f (x) ∀x ∈ D \ {a};

un mı́nimo global estricto de f en D si f (a) < f (x) ∀x ∈ D \ {a}.

Definición 4.1.8 (Óptimo) Se dice que a ∈ D es un óptimo local (resp. global


en D) de f si es un máximo local (resp. global en D) o un mı́nimo local (resp. global
en D).

Ejemplo 4.1.9 En la Figura 4.5 puede verse un ejemplo de una función con máxi-
mos y mı́nimos locales y estrictos.

Figura 4.5: Ejemplo de función con máximos y mı́nimos en el intervalo (−3, 3).
A: mı́nimo global estricto; B: máximo local estricto; C: algunos óptimos locales no
estrictos; D: máximo global estricto.
OPTIMIZACIÓN EN UNA VARIABLE 35

4.1.4. Teorema local-global. Teorema de Weierstrass


Teorema 4.1.10 (Teorema local-global) Sean X ⊆ IRn un subconjunto convexo
y f : X ⊆ IRn → IR una función real para la que existen todas sus derivadas parciales
y estas son continuas. Entonces:

1. Si f es convexa en X, entonces los mı́nimos locales de f en X, en caso de que


existan, son mı́nimos globales de f en X.

2. Si f es estrictamente convexa en X, entonces el mı́nimo local de f en X, en


caso de que exista, es mı́nimo global estricto de f en X.

3. Si f es cóncava en X, entonces los máximos locales de f en X, en caso de que


existan, son máximos globales de f en X.

4. Si f es estrictamente cóncava en X, entonces el máximo local de f en X, en


caso de que exista, es máximo global estricto de f en X.

Ejemplo 4.1.11 Sea una función f : [0, 1] ⊂ IR → IR, que está definida en el
conjunto convexo [0, 1] de IR y que tiene un óptimo en x = 00 5. En la Figura 4.6 puede
verse lo que ocurre si f es estrictamente cóncava en (0, 1) y si f es estrictamente
convexa en (0, 1).

Función estrictamente convexa. Función estrictamente cóncava.

Figura 4.6: Dos situaciones posibles en el Teorema local-global.

Teorema 4.1.12 (Teorema de Weierstrass) Sea X ⊂ IRn un subconjunto com-


pacto de IRn y sea f : X ⊂ IRn → IR una función real continua en X. Entonces
existen máximos y mı́nimos globales para la función f en X.
36 TEMA 4. OPTIMIZACIÓN

Figura 4.7: Ilustración del Teorema local-global.

4.2. Optimización de funciones reales de una va-


riable
Teorema 4.2.1 (Condición necesaria de óptimo) Sea f : D ⊆ IR → IR una
función derivable en el abierto D. Si a ∈ D es un óptimo de f entonces f 0 (a) = 0.

Definición 4.2.2 (Punto crı́tico) Sea f : D ⊆ IR → IR una función derivable en


el abierto D. Se dice que a ∈ D es un punto crı́tico de f si f 0 (a) = 0.

Definición 4.2.3 (Punto de inflexión) Llamaremos punto de inflexión de f a


todo punto crı́tico que no es óptimo.

Nota 4.2.4 Algunos autores definen los puntos de inflexión como aquellos puntos
en los que la función pasa de cóncava a convexa o de convexa a cóncava. Otros como
los puntos en los que la curva de la función atraviesa a su tangente en el punto.
Nótese que estos criterios no son equivalentes al dado en la Definición 4.2.3.

Ejemplo 4.2.5 La función f : IR → IR, definida como f (x) = x+2, no tiene ningún
punto crı́tico, ya que su derivada nunca se anula (i.e. f 0 (x) = 1 6= 0). La gráfica de
la función puede verse en la Figura 4.8.

Ejemplo 4.2.6 La función f : IR → IR definida como f (x) = x2 tiene un único


punto crı́tico en x = 0, ya que su derivada es f 0 (x) = 2x, que solo se anula en x = 0.
Además, ese punto crı́tico es un mı́nimo, como puede verse en la Figura 4.9.

Ejemplo 4.2.7 La función f : IR → IR definida como f (x) = x3 tiene un único


punto crı́tico, ya que su derivada es f 0 (x) = 3x2 , que solo se anula en x = 0. Como
puede verse en la Figura 4.10, esta función no tiene un óptimo en dicho punto crı́tico,
sino un punto de inflexión.
OPTIMIZACIÓN EN VARIAS VARIABLES SIN RESTRICCIONES 37

-2 -1 1 2

Figura 4.8: Ejemplo de función sin puntos crı́ticos: f (x) = x + 2.


4

-2 -1 1 2

Figura 4.9: Ejemplo de función con un punto crı́tico que es óptimo: f (x) = x2 .

Teorema 4.2.8 (Condición suficiente de óptimo) Sean f : D ⊆ IR → IR una


función dos veces derivable en D y a ∈ D un punto crı́tico de f . Entonces:

1. Si f 00 (a) < 0, entonces a es un máximo local estricto de f .

2. Si f 00 (a) > 0, entonces a es un mı́nimo local estricto de f .

4.3. Optimización de funciones de varias variables


sin restricciones
Sea f : D ⊆ IRn → IR una función, con D un abierto de IRn .

Teorema 4.3.1 (Condición necesaria de óptimo) Supongamos que existen to-


das las derivadas parciales de f en D y que estas son continuas. Si a ∈ D es óptimo
de f , entonces ∇f (a) = 0.

Definición 4.3.2 (Punto crı́tico) Se dice que a ∈ D es un punto crı́tico de f si


∇f (a) = 0.

Definición 4.3.3 (Punto de silla) Se llama punto de silla de f a todo punto


crı́tico que no es óptimo.
38 TEMA 4. OPTIMIZACIÓN

-6 -4 -2 2 4 6

-2

-4

Figura 4.10: Ejemplo de función con un punto de inflexión: f (x) = x3 .

Nota 4.3.4 Según la Definición 4.2.3 y la Definición 4.3.3, el concepto de punto de


silla generaliza el de punto de inflexión para funciones de varias variables.

5
0 2
-5

0
-2

0
-2
2

Figura 4.11: Gráfica de la función f (x, y) = x2 − y 2 (“silla de montar”).

En la Figura 4.11 puede verse la gráfica de la función f : IR2 → IR definida como


f (x, y) = x2 − y 2 ; tiene un punto de silla en (0, 0).

Teorema 4.3.5 (Condición suficiente de óptimo) Supongamos que existen to-


das las derivadas parciales de segundo orden de f en D y que estas son continuas.
Sea a ∈ D un punto crı́tico de f . Entonces:

1. Si Hf (a) es definida negativa, entonces a es un máximo local estricto de f .

2. Si Hf (a) es definida positiva, entonces a es un mı́nimo local estricto de f .

3. Si Hf (a) es indefinida, entonces a es un punto de silla.


OPTIMIZACIÓN EN VARIAS VARIABLES CON RESTRICCIONES 39

Ejemplo 4.3.6 Si se optimiza la función f : IR2 → IR, definida como f (x, y) =


x2 + y 2 , encontramos que el gradiente de f es:
µ ¶
2x
∇f (x, y) = ,
2y
por lo que los puntos crı́ticos (que se obtienen de ∇f (x, y) = 0) serán las soluciones
del sistema {x = 0, y = 0}, cuya única solución es (0, 0).
Si calculamos la matriz hessiana de f en (0, 0), obtenemos:
µ ¶
2 0
Hf (x, y) = = Hf (0, 0).
0 2
Por tanto, la matriz hessiana Hf (0, 0) es definida positiva (ya que ∆1 = 2 > 0 y
∆2 = 4 > 0) y el punto (0, 0) es un mı́nimo local estricto.
Pero la matriz hessiana es definida positiva para cualquier (x, y) ∈ IR2 , por lo
que f es una función estrictamente convexa en IR2 . Al ser IR2 un conjunto convexo,
podemos usar el Teorema local-global, obteniendo como conclusión que (0, 0) es el
mı́nimo global estricto de f en IR2 . La situación puede verse en la Figura 4.7.

4.4. Optimización de funciones con restricciones


de igualdad. Interpretación económica de los
multiplicadores de Lagrange
Dada una función real f : IRn → IR, en el apartado anterior hemos dado las
directrices para hallar sus óptimos locales cuando el conjunto factible del problema
es un abierto. En el presente apartado nos centraremos en el caso en que la región
es un cerrado definido por un sistema de ecuaciones.
Ejemplo 4.4.1 En una empresa se fabrican dos productos distintos: mesas cua-
dradas y mesas redondas. Mientras que las mesas redondas le cuestan a la fábrica
20,50 euros por unidad, las mesas cuadradas conllevan unos gastos de 30,10 euros por
unidad. Si la función que representa los beneficios en la fábrica es
f (x, y) = x2 + xy − y 2 , donde x es la cantidad de mesas cuadradas e y es la de mesas
redondas fabricadas, ¿sabrı́as decir cuál deberı́a ser la producción de la fábrica para
obtener los mayores beneficios posibles con un presupuesto de 150000 euros?
Con este enunciado, el problema de optimización que habrı́a que resolver se
plantearı́a considerando la región factible:
X = {(x, y) ∈ IR2 | 30,1 · x + 20,5 · y = 150000},
con lo que el problema de optimización a estudiar serı́a:
½ ½
Opt f (x, y) Opt x2 + xy − y 2
o equivalentemente
s. a (x, y) ∈ X s. a 300 1 · x + 200 5 · y = 150000.
40 TEMA 4. OPTIMIZACIÓN

Siguiendo la estructura de este ejemplo, la definición de los problemas de opti-


mización que resolveremos en este apartado viene dada en la siguiente:

Definición 4.4.2 Sean f : IRn → IR y g : IRn → IRm y un vector b ∈ IRm . El


correspondiente problema de optimización con restricciones es el que se expresa
como: ½
Opt f (x)
(4.1)
s. a g(x) = b

Este problema de optimización habitualmente se puede resolver utilizando el


método de los multiplicadores de Lagrange, que desarrollamos en esta sección
paso a paso.

Paso 1. Buscar una función auxiliar: función lagrangiana


Si las componentes de la función g son g = (g1 , . . . , gm ), con gi : IRn → IR para
i = 1, . . . , m, y las del vector b son b = (b1 , . . . , bm ), se define una función auxiliar
para resolver el problema de optimización.

Definición 4.4.3 (Función lagrangiana) Se llama función de Lagrange o


función lagrangiana del problema de optimización (4.1) a la función L : IRn+m→ IR
definida como

L(x, λ1 , . . . , λm ) = f (x) − λ1 · (g1 (x) − b1 ) − · · · − λm · (gm (x) − bm ),

∀x ∈ Dom(f ) y ∀(λ1 , . . . , λm ) ∈ IRm .

Definición 4.4.4 (Multiplicador de Lagrange) A cada una de las variables λi


en la función lagrangiana se le denomina multiplicador de Lagrange.

Nota 4.4.5 En la función lagrangiana hay tantos multiplicadores de Lagrange como


ecuaciones definan el conjunto factible; los denotaremos por λ = (λ1 , . . . , λm ).

Ejemplo 4.4.6 Sea el siguiente problema de optimización con una restricción de


igualdad: ½
Opt f (x, y) = 8x + 4xy
s. a x + y = 12.

En este problema de optimización, la función g : IR2 → IR es g(x, y) = x + y


y b ∈ IR es b = 12. Ası́, la función lagrangiana tiene un único multiplicador de
Lagrange y su expresión es:

L(x, y, λ) = 8x + 4xy − λ · (x + y − 12).


OPTIMIZACIÓN EN VARIAS VARIABLES CON RESTRICCIONES 41

Ejemplo 4.4.7 Sea el siguiente problema de optimización con restricciones de igual-


dad: 
 Opt f (x, y, z, t) = x3 + x · y
s. a : x2 + y 2 + t2 = 3;

x + y + z = 2.
En este problema de optimización, la función g : IR4 → IR2 es g(x, y, z, t) =
(x + y 2 + t2 , x + y + z) y el vector b ∈ IR2 es b = (3, 2). Ası́, la función lagrangiana
2

tiene dos multiplicadores de Lagrange y su expresión es:

L(x, y, z, t, λ1 , λ2 ) = x3 + x · y − λ1 · (x2 + y 2 + t2 − 3) − λ2 · (x + y + z − 2).

Paso 2. Calcular los puntos crı́ticos de la función lagrangiana


Teorema 4.4.8 (Condición necesaria de óptimo) Supongamos que existen las
derivadas parciales de las funciones f y L y que todas ellas son continuas. Si el
vector x∗ ∈ IRn es un óptimo del problema de optimización (4.1), entonces:

∃λ∗ ∈ IRm tal que ∇L(x∗ , λ∗ ) = 0.

Ejemplo 4.4.9 Siguiendo con el Ejemplo 4.4.6, para calcular los puntos crı́ticos
de dicho problema de optimización, tenemos que calcular los puntos crı́ticos de su
función lagrangiana L. Para ello, tenemos que calcular los puntos que anulan a su
gradiente:    
8 + 4y − λ 0
∇L(x, y, λ) =  4x − λ  =  0 .
−x − y + 12 0
La única solución real de este sistema es (7, 5, 28), por lo que (7, 5) es el único
candidato a óptimo del problema planteado en el Ejemplo 4.4.6.

Paso 3. Determinar los óptimos: clasificación de la matriz


hessiana
Teorema 4.4.10 (Condición suficiente de óptimo) Supongamos que existen
todas las derivadas parciales de segundo orden de las funciones f y gi , ∀i = 1, . . . , m,
y que dichas derivadas son continuas. Sea (x∗ , λ∗ ) ∈ IRn+m un punto crı́tico de la
función lagrangiana del problema de optimización (4.1) y consideremos la forma
cuadrática q asociada a la matriz hessiana (respecto de las variables x) Hx L(x∗ , λ∗ )
restringida al subespacio vectorial definido por el sistema de ecuaciones [∇gi (x∗ )]t ·
x = 0, ∀i = 1, . . . , m. Entonces:

1. Si la restricción de q es definida positiva, x∗ es un mı́nimo local estricto del


problema (4.1).
42 TEMA 4. OPTIMIZACIÓN

2. Si la restricción de q es definida negativa, x∗ es un máximo local estricto del


problema (4.1).

Nota 4.4.11 Si x = (x1 , . . . , xn ), se denota por Hx L(x∗ , λ∗ ) a la matriz que se


obtiene al calcular las derivadas parciales de segundo orden solo respecto de las
variables xi , es decir, la matriz:

 
∂2L ∗ ∗ ∂2L ∂2L ∂2L
 (x , λ ) (x∗ , λ∗ ) ··· (x∗ , λ∗ ) (x∗ , λ∗ )

 ∂x21 ∂x2 ∂x1 ∂xn−1 ∂x1 ∂xn ∂x1 
 ∂2L ∂2L ∗ ∗ ∂2L ∂2L 

 (x∗ , λ∗ ) (x , λ ) ··· (x∗ , λ∗ ) (x∗ , λ∗ )


 ∂x1 ∂x2 ∂x22 ∂xn−1 ∂x2 ∂xn ∂x2 
 .. .. .. .. .. 
 . . . . . .
 
 ∂2L ∂ L 2
∂2L ∂2L 
 (x∗ , λ∗ ) (x∗ , λ∗ ) ··· (x∗ , λ∗ ) ∗ ∗ 
(x , λ ) 
 ∂x ∂x ∂x2 ∂xn−1 ∂x2n−1 ∂xn ∂xn−1
 1 n−1 
 ∂2L ∂2L ∂2L ∂2L ∗ ∗ 
(x∗ , λ∗ ) (x∗ , λ∗ ) ··· (x∗ , λ∗ ) 2
(x , λ )
∂x1 ∂xn ∂x2 ∂xn ∂xn−1 ∂xn ∂xn

Ejemplo 4.4.12 Continuamos con el Ejemplo 4.4.9, donde ya habı́amos calculado


los candidatos a óptimos del problema planteado en el Ejemplo 4.4.6. La matriz
hessiana H(x,y) L es la siguiente:
µ ¶
0 4
H(x,y) L(x0 , y0 , λ0 ) = , ∀(x0 , y0 , λ0 ) ∈ IR3 ,
4 0

que es una matriz indefinida para cualquier (x0 , y0 , λ0 ) ∈ IR3 y, en particular, para
(7, 5, 28).
Vamos a restringir la forma cuadrática asociada a H(x,y) L(7, 5, 28) al subespacio
vectorial definido por [∇g(7, 5)]t · (x, y)t = 0. Como g(x, y) = x + y, su gradiente es
∇g(x0 , y0 ) = (1, 1)t , para todo (x0 , y0 ) ∈ IR2 . Por tanto, el subespacio vectorial que
tenemos que considerar es el dado por el sistema de ecuaciones:
µ ¶
x
(1 1) · = 0, o sea, x + y = 0,
y

cuyas soluciones son los vectores (x, −x), con x ∈ IR.


Por tanto, la forma cuadrática que hemos de clasificar es la siguiente:
µ ¶ µ ¶
0 4 x
(x − x) · · = −8x2 ,
4 0 −x

que es una forma cuadrática definida negativa en IR. Por lo tanto, el punto (7, 5) es
un máximo local estricto de f bajo la restricción x + y = 12.
OPTIMIZACIÓN EN VARIAS VARIABLES CON RESTRICCIONES 43

Paso 4. Multiplicador de Lagrange: interpretación económica


El multiplicador de Lagrange λi representa la variación aproximada que experi-
menta la función objetivo cuando bi aumenta una unidad, manteniéndose constantes
los restantes términos bj , con j 6= i.
En nuestro ejemplo de una sola restricción, λ = 28 es el incremento aproximado
que se producirı́a en la función objetivo (concretamente en su valor en el máximo)
si la restricción fuese x + y = 13.
En el caso en que el sistema de ecuaciones g(x) = b representa una restricción
presupuestaria, la interpretación económica es especialmente frecuente en la prácti-
ca.

Ejemplo 4.4.13 Calculemos los óptimos globales de la función f : IR2 → IR, defini-
da como f (x, y) = x3 + y 3 , sujeta a la restricción x2 + y 2 = 1.
La función f es una función continua en IR2 por tratarse de una función polinó-
mica. Además, el conjunto factible es:

X = {(x, y) ∈ IR2 | x2 + y 2 = 1},

que es la circunferencia de centro (0, 0) y radio 1, compacto (véase la Figura 4.12).


En consecuencia, se cumplen las hipótesis del Teorema de Weierstrass y, por tanto,
sabemos que la función tiene tanto máximos como mı́nimos globales en el conjunto
factible X.
1

0.5

-1 -0.5 0.5 1

-0.5

-1

Figura 4.12: Región factible en el Ejemplo 4.4.13.

Para calcular los candidatos a óptimos de nuestro problema, tenemos que cons-
truir la función lagrangiana del problema:
L(x, y, λ) = x3 + y 3 − λ · (x2 + y 2 − 1),
 
3x2 − 2λx
cuyo gradiente es ∇L(x, y, λ) =  3y 2 − 2λy .
−x2 − y 2 + 1
El sistema de ecuaciones que se obtiene al considerar ∇L(x, y, λ) = 0 es:
44 TEMA 4. OPTIMIZACIÓN

 2
 3x − 2λx = 0
3y 2 − 2λy = 0

x2 + y 2 = 1
cuyas soluciones √ √
son√ los seis√ puntos √
siguientes:

(0, 1, 32 ), (0, −1, − 23 ), (1, 0, 23 ),
(−1, 0, − 32 ), ( 22 , 22 , 3 4 2 ) y (− 22 , − 22 , − 3 4 2 ). Estos son nuestros candidatos a ópti-
mos. Si quisiéramos calcular todos los óptimos de la función en la región X, ten-
drı́amos que clasificar la matriz hessiana H(x,y) L en dichos puntos. Pero no es nece-
sario en este caso porque estamos buscando los óptimos globales de f , que sabemos
que existen. Por tanto, bastará con calcular las imágenes de los candidatos a ópti-
mos: el mayor valor corresponderá al máximo de la función y el menor al mı́nimo.
Los valores de la función en dichos puntos son los siguientes:
à √ √ ! √ Ã√ √ ! √
2 2 2 2 2 2
f (0, −1) = f (−1, 0) = −1 < f − ,− =− <f , = < f (0, 1) = f (1, 0) = 1.
2 2 2 2 2 2

En consecuencia, los máximos globales son (0, 1) y (1, 0) y los mı́nimos globales
son (0, −1) y (−1,√0), que √
obviamente
√ √
son óptimos no estrictos.
Los puntos (− 2 , − 2 ) y (− 2 , − 22 ) solo podrı́an ser óptimos locales o puntos
2 2 2

de silla. √Si queremos


√ √ saber qué son,
√ tendremos
√ √ que estudiar las matrices hessianas
2 2 3 2 2 2 3 2
H(x,y) L( 2 , 2 , 4 ) y H(x,y) L(− 2 , − 2 , − 4 ).
Como la matriz hessiana H(x,y) L es la siguiente:
µ ¶
6x0 − 2λ0 0
H(x,y) L(x0 , y0 , λ0 ) = , ∀(x0 , y0 , λ0 ) ∈ IR3 ,
0 6y0 − 2λ0

sustituyendo en los dos puntos que nos interesan obtenemos las matrices:
à √ !
³√ √ √ ´ 3 2
0
H(x,y) L 22 , 22 , 3 4 2 = 2 √ y
0 322
à √ !
³ √ √ √ ´ −322 0
H(x,y) L − 2 , − 2 , − 4 2 =
2 2 3 √ ,
0 −322
que
³ √ son,

respectivamente, definida positiva y definida
√ ´ ³ √negativa.

Por
√ ´
tanto,
2 2 3 2 2 2 3 2
2
, 2, 4 es un mı́nimo local estricto no global y − 2 , − 2 , − 4 es un
máximo local estricto no global.

Vous aimerez peut-être aussi