Vous êtes sur la page 1sur 28

TD dconomie Julien Grenet

cole Normale Suprieure


Anne 2007-2008

Vade mecum : Optimisation statique.


Lagrangien et conditions de Kuhn et Tucker

Ce vade mecum expose la mthode de rsolution des programmes doptimisation sta-


tique (par opposition aux programmes doptimisation dynamique qui ne seront pas abor-
ds ici) dans le cas dune fonction objectif multivarie. Les sections 1 et 2 donnent un
certain nombre de dfinitions prliminaines. Les sections suivantes exposent les mthodes
de rsolution des quatre grandes catgories de programmes doptimisation : optimisation
sans contraintes (section 3), optimisation sous contraintes prenant la forme dquations
(section 4), optimisation sous contraintes prenant la forme dinquations (section 5) et
optimisation sous contraintes prenant la forme dinquations incluant des contraintes de
non-ngativit (section 6).

1 Prambule
1.1 Dfinitions prliminaires
Soit f : U R une fonction de n variables (x1 , x2 , ..., xn ) valeurs relles dont len-
semble de dfinition U constitue un sous-ensemble de Rn . On supposera toujours que f
est continue et deux fois diffrentiable.

f (x1 ,x2 ,...,xn)


On note fi la drive partielle de f par rapport xi (fi = xi ); on note fij
2 f (x1 ,x2 ,...,xn)
la drive croise de f par rapport xi et xj (fij = xi xj )

Dterminant dune matrice : Le dterminant dune matrice est dfini par induction :
Une matrice (1,1) est juste un scalaire
! a. Le dterminant de cette matrice est gal a.
a b a b

Matrice (2,2) : soit M = . Le dterminant de M scrit = ad bc.
c d c d

a11 a12 a1n

a21 a22 a2n

Matrice (n, n) : soit M = . ..
.. .. Pour calculer le dterminant de M ,
.. . . .
an1 an2 ann
il suffit dutiliser la mthode dite du dveloppement selon la premire ligne :
1. on associe chaque coefficient a1i de la premire ligne de la matrice M un signe +
si i est impair et un signe - si i est pair.
2. Le dterminant de M peut scrire comme la somme des n dterminants dordre
n 1 obtenus en liminant de la matrice M la ligne et la colonne contenant le
coefficient a1i . Chacun de ces dterminants est multipli par (1)1+i a1i

1

a b c

Exemple : soit M = d e f . Le dterminant de la matrice M scrit :
g h i

a b c
e f d f d e

det(M ) = d e f = a b +c
h i g i g h
g h i
= a(ei f h) b(di f g) + c(dh eg)

Mineurs principaux dune matrice : Soit M une matrice carr symtrique de dimen-
sion (n, n). Un mineur principal dordre k est le dterminant de la sous-matrice de M
dordre k obtenue en supprimant n k lignes et les n k colonnes correspondantes dans
M.

a11 a12 a13

Exemple : soit M = a21 a22 a23 .
a31 a32 a33
Les trois mineurs principaux dordre 1 de M sont a11 , a22 et a 33 .
a a a a a a12
11
Les trois mineurs principaux dordre 2 de M sont : 22 23 11 13 et
a32 a33 a31 a33 a21 a32

a a12 a13
11

Le mineur principal dordre 3 de M est : a21 a22 a23 .

a31 a32 a33

Mineurs principaux diagonaux dune matrice : Soit M une matrice carr sym-
trique de dimension (n, n). Le mineur principal diagonal dordre k (not Dk ) de la matrice
M est le dterminant de la matrice de taille (k, k) obtenue en liminant les n k dernires
lignes et n k dernires colonnes de la matrice M . Une matrice carr dordre n admet n
mineurs principaux diagonaux.

N.B. : Le mineur principal diagonal dordre k dune matrice est lun de ses mineurs
principaux dordre k.
a11 a12 a13

Exemple : soit M = a21 a22 a23 .
a31 a32 a33
Le mineur principal diagonal dordre 1 de M est a11 .
a a

Le mineur principal diagonal dordre 2 est 11 12 ;
a21 a22

a a12 a13
11

le mineur principal diagonal dordre 3 est a21 a22 a23 .

a31 a32 a33

2
Matrice hessienne : On appelle matrice hessienne H(x1 , x2 , ..., xn ) de f la matrice des
drives secondes de f values au point (x1 , x2 , ..., xn ) :


f11
f12
f1n

f21 f12 f2n
H(x1 , x2 , ..., xn ) =
.. .. .. ..

. . . .

fn1
fn2
fnn

Comme fij = fji


(i, j), la matrice hessienne de f est une matrice symtrique d ordre n.

Matrice hessienne borde : On appelle matrice hessienne borde H(x1 , x2 , ..., xn ) de


f la matrice des drives secondes de f , borde par la matrice des drives premires de f :

0 f1 f2 fn
f1
f11
f12
f1n


H(x1 , x2 , ..., xn ) = f2
f21
f12
f2n

.. .. .. .. ..
. . . . .
fn fn1

fn2
fnn

La matrice hessienne borde de f est une matrice symtrique carre dordre n + 1.

Matrice jacobienne : soit G = (g1 , g2 , ..., gm ) une fonction dfinie de Rn dans Rm .


A tout vecteur x e = (x1 , x2 , ..., xn ), la fonction G associe le vecteur de fonctions
(g1 (x
e), g2 (xe), ..., gm (x
e)). On appelle matrice jacobienne de G la matrice de dimension (m, n)
JG (x1 , x2 , ...xn ) des drives partielles des m fonctions qui composent G :

g1 g1 g1
x1 (x) x2 (x) xn (x)
e e e
g2 g2 g2

x1 (xe) x2 (xe) xn (xe)

JG (x1 , x2 , ..., xn ) = .. .. .. ..
. . . .

gm g1 gm
x1 (x) x2 (x) xn (x)
e e e

1.2 Matrices (semi) dfinies ngatives, matrice (semi) dfinies positives

Matrice dfinie positive : Soit M une matrice carre symtrique. Soit A un vecteur
colonne quelconque. On note A sa transpose. M est dite dfinie positive si et seulement
si :
A M A > 0 A 6= 0

N.B. : Les lments diagonaux aii dune matrice dfinie positive sont tous > 0.

Matrice semi-dfinie positive : Soit M une matrice carre symtrique. Soit A un vec-
teur colonne quelconque. On note A sa transpose. Une matrice M est dite semi-dfinie
positive si et seulement si :
A M A > 0 A

3
N.B. : Les lments diagonaux aii dune matrice semi-dfinie positive sont tous 0.

Matrice dfinie ngative : Soit M une matrice carre symtrique. Soit A un vecteur
colonne quelconque. On note A sa transpose. M est dite dfinie ngative si et seulement
si :
A M A < 0 A 6= 0

N.B. : Les lments diagonaux aii dune matrice dfinie ngative sont tous < 0.

Matrice semi-dfinie ngative : Soit M une matrice carre symtrique. Soit A un vec-
teur colonne quelconque. On note A sa transpose. M est dite semi-dfinie ngative si et
seulement si :
A M A 6 0 A

N.B. : Les lments diagonaux aii dune matrice semi-dfinie ngative sont tous 0.

Caractrisation : Soit M une matrice carre symtrique dordre n.


M dfinie positive ses n mineurs principaux diagonaux Dk sont > 0.
M semi-dfinie positive tous ses mineurs diagonaux (et pas seulement diagonaux !)
Dk sont > 0.
M dfinie ngative ses n mineurs principaux diagonaux Dk sont alternativement < 0
(k impair) et > 0 (k pair).
M semi-dfinie ngative tous ses mineurs principaux Dk (et pas seulement diago-
naux !) sont alternativement 6 0 (k impair) et > 0 (k pair).

1.3 Ensembles convexes

Ensemble convexe : Un ensemble S de Rn est convexe ssi, (x, y) S 2 :

(1 )x + y S, [0, 1]

Intuitivement, un ensemble convexe est tel que tout segment reliant deux points de cet
ensemble se trouve lintrieur de lensemble. La figure 1 donne un exemple densemble
convexe et un exemple densemble non convexe.

Ensemble strictement convexe : Un ensemble S de Rn est strictement convexe ssi,


(x, y) S 2 :
(1 )x + y intrieurS, ]0, 1[

N.B. : La notion d ensemble concave nexiste pas.

4
1.4 Fonctions concaves, fonctions convexes
Soit f une fonction de plusieurs variables dfinie sur un ensemble convexe S.

Fonction concave : f est concave sur S ssi, (x, y) S 2 et [0, 1], on a :



f (1 )x + y > (1 )f (x) + f (y)

f est strictement concave sur S ssi :



f (1 )x + y > (1 )f (x) + f (y)

Autrement dit, une fonction f est concave ssi le segment reliant tout couple de points
situs sur la surface dfinie par f est situ au-dessous de cette surface.

La figure 2 donne un exemple de fonction strictement concave dans le cas une seule
variable.

La figure 3 donne un exemple de fonction strictement concave dans le cas 2 variables.

Fonction convexe : f est convexe sur S ssi, (x, y) S 2 et [0, 1], on a :



f (1 )x + y 6 (1 )f (x) + f (y)

f est strictement convexe sur S ssi :



f (1 )x + y < (1 )f (x) + f (y)

Autrement dit, une fonction f est convexe si le segment reliant tout couple de points
situs sur la surface dfinie par f est situ au-dessus de cette surface.

La figure 4 donne un exemple de fonction strictement concave dans le cas 1 variable.

La figure 5 donne un exemple de fonction strictement strictement convexe dans le cas


2 variables.

N.B. : Il est important de ne pas confondre la notion densemble convexe avec celle de
fonction convexe.

Proprits importantes :
f concave f convexe
Si f et g sont des fonctions concaves (resp. convexes), alors (a, b) R2+ , (a.f + b.g) est
une fonction concave (resp. convexe).
Si f est une fonction concave et g est une fonction croissante et concave, alors la fonction
g f (x) est concave.
Si f est une fonction convexe et g est une fonction croissante et convexe, alors la fonction
g f (x) est convexe.
Une fonction affine est la fois concave et convexe.

5
Figure 1: Exemples dun ensemble convexe S et dun ensemble non convexe S .
Ensemble convexe S Ensemble non convexe S

Figure 2: Fonction (strictement) concave f (x) = 10 x2 .


f x

10

x
-3 -2 -1 1 2 3

Figure 3: Fonction (strictement) concave f (x, y) = 6 (x 2)2 (y 2)2 . Reprsentation


en 3 dimensions et courbes de niveaux.

Reprsentation en 3D Courbes de niveau

2.
6 3

4
2 f x,y 
y

5.
2
4 0
3 -2
4 1.
3 1
y 2
2
1 3.
1 x 5.
4.
0
0 1 2 3 4
00 x

6
Figure 4: Fonction (strictement) convexe f (x) = x2 .
f x 

x
-3 -2 -1 1 2 3

Figure 5: Fonction (strictement) convexe f (x, y) = (x 2)2 + (y 2)2 . Reprsentation


en 3 dimensions et courbes de niveaux.

Reprsentation en 3D Courbes de niveau

2.
8 3

6
4
f x,y 
y

2 5.

4 2
3 0
4 1.

2 3 1
y
2
1 5.
3.

1 x 4.
0
0 1 2 3 4
00 x

7
Caractrisation pour les fonctions une seule variable :
f concave f (x) 6 0 x R.
f (x) < 0 x R f strictement concave (attention : la rciproque nest pas nces-
sairement vraie).
f convexe f (x) > 0 x R.
f (x) > 0 x R f strictement convexe (attention : la rciproque nest pas nces-
sairement vraie).

Caractrisation pour les fonctions plusieurs variables :


f concave la matrice hessienne de f est semi-dfinie ngative xe Rn .
la matrice hessienne de f est dfinie ngative x R f strictement concave (atten-
n

tion : la rciproque nest pas ncessairement vraie).


f concave la matrice hessienne de f est semi-dfinie positive x Rn .
la matrice hessienne de f est dfinie ngative x Rn f strictement convexe (atten-
tion : la rciproque nest pas ncessairement vraie).

Exemple : Montrer que la fonction f (x, y, z) = x2 + 2y 2 + 3z 2 + 2xy + 2xz est


strictement convexe.

Solution : Soit H La matrice hessienne de f . Elle scrit :




fxx fxy fxz 2 2 2

H(x, y, z) = fyx fyy fyz = 2 4 0


fzx
fzy
fzz 2 0 6

Noter quici, la matrice hessienne est indpendante de ses arguments x, y et z (ce nest
pas toujours le cas). Les mineurs principaux diagonaux de H sont D1 = 2 > 0, D2 =
4 > 0 et D3 = 8 > 0, donc H est dfinie positive, donc f est strictement convexe.

1.5 Fonctions quasi-concaves, fonctions quasi-convexes

Fonctions quasi-concaves : Une fonction valeurs relles f dfinie sur Rn est dite
quasi-concave ssi ses contours suprieurs forment des ensembles convexes, c.--d. ssi len-
semble P = {xe Rn : f (x
e) > c} est convexe pour toutes les valeurs de c.

Une telle dfinition ne donne pas une reprsentation trs intuitive de la notion de
quasi-concavit dune fonction. Pour se faire une ide de ce que recouvre ce concept, il est
important davoir en tte un ou deux exemples de fonctions quasi-concaves.

Dans le cas une variable, on pensera la fonction f reprsente la figure 6. Elle


nest clairement pas convexe, puisquon peut trouver deux points de cette fonction unis par
un segment passant au-dessus de la courbe. En revanche, cest une fonction quasi-concave,
car lensemble des valeurs x telles que f (x) > c est un ensemble convexe. Cet ensemble
correspond en effet au segment en gras sur le graphique. Quelle que soit la valeur de c, ce
segment est est constitu dun seul tenant.
A linverse, la fonction f une variable reprsente la figure 7 nest pas quasi-concave
car ses contours suprieurs ne sont pas convexes.

8
Figure 6: Fonction (strictement) quasi-concave f (x, y) = exp (x2 ). La fonction est quasi
concave car lensemble des valeurs x telles que f (x) > c est un ensemble (ici un segment)
(strictement) convexe.
f x

0.8

0.6

0.4

0.2

x
-3 -2 -1 1 2 3

Figure 7: Fonction qui nest pas quasi-concave car lensemble des valeurs x telles que
f (x) > c est un ensemble (constitu ici de la runion de deux segments) non convexe.
f
x
1

0.8

0.6

0.4

0.2

x
-3 -2 -1 1 2 3

9
Dans le cas 2 variables, on pensera la fonction reprsente la figure 8. La surface
dessine par cette fonction est en cloche , cest--dire que ses bords sont convexes. Bien
que cette fonction ne soit pas convexe, lensemble de ses contours suprieurs forment des
ensembles convexes, comme on peut le voir sur le graphique de ses courbes de niveaux
(qui dlimitent ses contours suprieurs).

 
Figure 8: Fonction (strictement) quasi-concave f (x, y) = exp (x 2)2 (y 2)2 . Re-
prsentation en 3 dimensions et courbes de niveau.

Reprsentation de la fonction en 3D Courbes de niveau


3.5 0.1

1 2.5
0.75
2 0.3 0.5 0.4 0.2
0.5 f x,y

y
4 0.25 1.5

3 0
4 1
3
y 2 0.5
2
1
1 x 0
0 0.5 1 1.5 2 2.5 3 3.5
x
00

Fonctions strictement quasi-concaves : Une fonction valeurs relles f dfinie sur


Rn est dite strictement quasi-concave si ses contours suprieurs forment des ensembles
strictement convexes, i.e. si lensemble P = {x Rn : f (x) > c} est strictement convexe
pour toutes les valeurs de c.

Dans le cas une seule variable, une fonction ne sera strictement quasi-concave que si
sa courbe ne comporte aucune section horizontale.

Dans le cas deux variables, une fonction quasi-concave ne sera strictement quasi-
concave que si ses contours suprieurs ne prsentent pas de sections horizontales et si la
fonction ne comporte pas de replats (qui se traduisent par des courbes dindiffrences
paisses ) (cf. figure 9).

Fonctions quasi-convexes : Une fonction valeurs relles f dfinie sur Rn est dite
quasi-convexe si ses contours infrieurs forment des ensembles convexes, c.--d. si len-
semble P = {x Rn : f (x) 6 c} est convexe pour toutes les valeurs de c.

Fonctions strictement quasi-convexes : Une fonction f dfinie sur Rn est dite stricte-
ment quasi-convexe si ses contours infrieurs forment des ensembles strictement convexes,
i.e. si lensemble P = {x Rn : f (x) 6 c} est strictement convexe pour toutes les valeurs
de c.

10
Figure 9: Courbes dindiffrence de fonctions quasi-concaves, mais pas strictement quasi-
concaves

Contre-exemple 1 Contre-exemple 2

La figure 10 montre le graphique dune fonction quasi-convexe dans le cas une seule
variable. Bien que cette fonction ne soit pas convexe, ses contours infrieurs sont convexes.
Elle est donc bien quasi-convexe.

Figure 10: Fonction (strictement) quasi-convexe f (x, y) = 1 exp (x2 ). La fonction est
quasi-concave car lensemble des valeurs x telles que f (x) 6 c est un ensemble (ici un
segment) convexe.
f x 

0.8

0.6

0.4

0.2

x
-3 -2 -1 1 2 3

La figure 11 montre la reprsentation en 3 dimensions et les courbes de niveaux dune


fonction deux variables strictement quasi-convexe : bien que les bords de la fonction
soient concaves, ses contours infrieurs sont strictement convexes.

11
 
Figure 11: Fonction (strictement) quasi-convexe f (x, y) = 1exp (x 2)2 (y 2)2 .
Reprsentation en 3 dimensions et courbes de niveau.

Reprsentation en 3D Courbes de niveau


3.5 0.9

1
2.5
0.75
0.5 2 0.7 0.5 0.6 0.8
f x,y 

y
4 0.25 1.5

3 0
4 1
2 3
y
2 0.5
1
1 x
0
0 0.5 1 1.5 2 2.5 3 3.5
00 x

Proprits importantes :
f concave (resp. convexe) f quasi-concave (resp. quasi-convexe) (attention : la rci-
proque nest pas vraie).
f quasi-concave (f ) quasi-convexe.
La somme de deux fonctions quasi-concaves (resp. quasi-convexes) nest pas ncessaire-
ment une fonction quasi-concave (resp. quasi-convexe).
Toute transformation monotone dune fonction concave (resp. convexe) est une fonction
quasi-concave (resp. quasi-convexe) : si f est une fonction

concave (resp. convexe) et
g est une fonction monotone, alors la fonction g f (x) est quasi concave (resp. quasi-
convexe).

Caractrisation :
f quasi-concave les mineurs principaux diagonaux Dk de la matrice hessienne borde
de f alternent en signe partir de k = 3, avec Dk > 0 pour k impair et Dk 6 0 (k pair)
xe Rn (attention : la rciproque nest pas ncessairement vraie).
Les mineurs principaux diagonaux Dk de la matrice hessienne borde de f alternent en
signe partir de k = 2, avec Dk > 0 pour k impair et Dk < 0 (k pair) x e Rn f
quasi-concave.
f quasi-convexe les mineurs principaux diagonaux Dk de la matrice hessienne borde
de f sont tous 6 0 partir de k = 3 x e Rn (attention : la rciproque nest pas
ncessairement vraie).
Les mineurs principaux diagonaux Dk de la matrice hessienne borde de f sont tous < 0
partir de k = 2 xe Rn f quasi-convexe.

Exemple : Trouver une condition suffisante sur x et y permettant daffirmer que la


fonction f (xy) = xy est quasi-concave.

12
Solution : Soit H La matrice hessienne borde de f . Elle scrit :

0 fx fy 0 y x

H(x, y) = fx fxx fxy = y 0 1

fy fxy

fyy x 1 0

Le mineur diagonal principal dordre 3 de H est D3 = 2xy. Une condition suffisante


pour que f soit quasi-concave est que D3 > 0. Ce sera le cas en particulier si x > 0 et
y > 0.

13
2 Gnralits sur loptimisation
2.1 Notations
Un programme doptimisation scrit typiquement sous la forme (avec s.c. pour sous
contraintes ) :
max f (x1 , x2 , ..., xn )

P x1 ,x2,...,xn
s.c. contrainte(j) j = 1, ..., m
sil sagit dun programme de maximisation sous contraintes et sous la forme :

min f (x1 , x2 , ..., xn )

P x1 ,x2 ,...,xn
s.c. contrainte(j) j = 1, ..., m

sil sagit dun programme de minimisation sous contraintes.

La fonction f est appele fonction objectif. Le programme consiste chercher les va-
leurs (x1 , x2 , ..., xn ) pour laquelle la valeur de cette fonction est maximale (ou minimale)
sous les contraintes. On appelle Optimum la solution dun programme doptimisation : il
sagit soit dun maximum, soit dun minimum.

Les contraintes peuvent prendre plusieurs formes distinctes :


contraintes en quations : gj (x1 , x2 , ..., xn ) = cj j = 1, ..., m
contraintes en inquations : gj (x1 , x2 , ..., xn ) 6 cj j = 1, ..., m
contraintes de non-ngativit : xi > 0 i = 1, ..., n

2.2 Dfinitions

Maximum, minimum :
La valeur xe qui rsout le programme P est un maximum de la fonction f sous les
contraintes du programme.
La valeur xe qui rsout le programme P est un minimum de la fonction f sous les
contraintes du programme.

Optimum local :
La variable x est un maximum local dune fonction f dfinie sur lensemble convexe S
> 0 tel que f (x) 6 f (x ) x S et |x x | 6
La variable x est un minimum local dune fonction f dfinie sur lensemble convexe S
> 0 tel que f (x) > f (x ) x S et |x x | 6

Optimum global :
La variable x est un maximum global dune fonction f dfinie sur lensemble convexe
S f (x) 6 f (x ) x S
La variable x est un minimum global dune fonction f dfinie sur lensemble convexe
S f (x) > f (x ) x S

La figure 12 montre le graphique dune fonction f comportant un maximum local et


un maximum global.

14
Figure 12: Fonction f admettant un maximum local en x et un maximum global en x
sur lensemble de son domaine de dfinition.

2.3 Remarques

Transformation de la fonction objectif : Soit g une fonction une seule variable


strictement croissante. Alors lensemble des solutions du programme P :

max f (x
e)

P ex
s.c. contraintes

est identique lensemble des solutions du programme P :



max g (f (x
e))

P ex
s.c. contraintes

Transformation des programmes de minimisation : tout programme de minimisa-


tion peut aisment tre transform en programme de maximisation en remplaant la fonc-
tion objectif f par son oppose f :

min f (x
e) max f (x
e)
e
x ex
s.c. contraintes s.c. contraintes

N.B. : Dans les sections qui suivent, on crira tous les programmes doptimisation
comme des programmes de maximisation sous contraintes. On prcisera, en cas de be-
soin, comment adapter la mthode de rsolution au cas des programmes de minimisation
sous contraintes.

15
Conditions ncessaires et suffisantes dexistence dun optimum :
Pour trouver la solution x
e dun programme doptimisation quelconque, on distingue tra-
ditionnellement deux types de conditions :
Les conditions du premier ordre (CPO) sont les conditions ncessaires que doit
vrifier un optimum, sil existe. Ces conditions scrivent comme un systme dquations
ou dinquations dont la rsolution permet de trouver x e .
Les conditions du second ordre (CSO) garantissent que les conditions du premier
ordre sont suffisantes pour que x e soit bien la solution du programme doptimisation.

3 Optimisation sans contraintes


3.1 Cas dune fonction une seule variable
On commence par envisager le cas dune fonction f une seule variable que lon maxi-
mise sans contrainte.

On considre le programme de maximisation P suivant :

P : max f (x)
x

Condition du premier ordre : si x est une solution du programme de maximisation


P, alors x vrifie :
f (x ) = 0

Conditions du second ordre pour un optimum local : Supposons quil existe un


x qui vrifie la CPO. Alors :
x est un maximum local f (x ) 6 0
f (x ) < 0 x est un maximum local
x est un minimum local f (x ) > 0
f (x ) > 0 x est un minimum local

Conditions suffisantes du second ordre pour un optimum global : Supposons


quil existe un x qui vrifie la CPO. Alors :
f (x) 6 0 x (f est concave) x est un maximum global
f (x) > 0 x (f est convexe) x est un minimum global

Exemple : Trouver le maximum global du programme de maximisation P :

P : max f (x) = (x 2)2


x

Solution :

CPO : x est une solution du programme P f (x ) = 0, soit 2(x 2) = 0 x = 2

CSO : f (x) = 2 < 0 x, donc x est un maximum global

Ccl : x = 2 est le maximum global de f .

16
3.2 Cas dune fonction plusieurs variables
Soit une fonction f n variables.

On considre le programme de maximisation P suivant :

P: max f (x1 , x2 , ..., xn )


x1 ,x2 ,...,xn

Conditions du premier ordre : Si x e = (x1 , x2 , ..., xn ) est une solution du programme


de maximisation P, alors x
e vrifie :

f (x
e )
= 0 i = 1, ..., n
xi

Conditions du second ordre pour un optimum local : Supposons quil existe un


e qui vrifie les CPO. Alors :
x
H(xe ) est dfinie ngative xe est un maximum local
e est un maximum local H(x
x e ) est semi-dfinie ngative
H(xe ) est dfinie positive x
e est un minimum local
e est un minimum local H(x
x e ) est semi-dfinie positive
o H(xe ) dsigne la matrice hessienne de f value au point x e .

Conditions suffisantes du second ordre pour un optimum global : Supposons


quil existe un x
e qui vrifie les CPO. Alors :
H(ze) est semi-dfinie ngative ze (f est concave) x
e est un maximum global
H(ze) est semi-dfinie positive ze (f est convexe) x
e est un minimum global
o H(ze) dsigne la matrice hessienne de f value au point ze.

Exemple : Rsoudre le programme de maximisation P :

P : max f (x, y) = 3xy x3 y 3


x,y

Solution :

CPO : Si (x , y ) est une solution du programme P alors :

fx (x , y ) = 0 3(y ) 3(x )2 = 0
fy (x , y ) = 0 3(x ) 3(y )2 = 0

(x , y ) est donc tel que x = (y )2 = (x )4 . Il y a deux solutions possibles : (0, 0) et (1, 1).

CSO : la matrice hessienne de f value en tout point (x, y) scrit :


!
6x 3
H(x, y) =
3 6y

on a donc : ! !
0 3 6 3
H(0, 0) = et H(1, 1) =
3 0 3 6

17
Les mineurs principaux diagonaux de H(0, 0) sont D1 = 0 et D2 = 9, donc H(0, 0)
nest pas semi-dfinie ngative, donc (0, 0) nest pas un maximum local de f .
Les mineurs principaux diagonaux de H(1, 1) sont D1 = 1 et D2 = 27, donc H(1, 1)
est dfinie ngative, donc (1,1) est un maximum local de f .
Par ailleurs, comme H(0, 0) nest pas semi-dfinie ngative, H(x, y) nest pas
semi-dfinie ngative pour tout (x, y). Les conditions du second ordre ne permettent
donc pas de conclure que (1, 1) est un maximum global. En fait, on peut montrer que
ce nest pas le cas : f (1, 1) = 1, mais f (1, 1) = 5 (par exemple).

Ccl : (x , y ) = (1, 1) est un maximum local, mais pas un maximum global de f .

4 Optimisation sous contraintes prenant la forme dqua-


tions : le Lagrangien
On envisage maintenant loptimisation dune fonction f n variables sous m contraintes
de la forme : gj (x1 , x2 , ..., xn ) = cj , j = 1, ..., m

4.1 Cas une seule contrainte


On considre le programme de maximisation P suivant :

max f (x
e)

P ex
s.c. e) = c
g(x

Lagrangien : On appelle Lagrangien, not L, la fonction suivante :

e, ) = f (x
L(x e) (g(x
e) c)

o la variable est appele multiplicateur de Lagrange associ la contrainte.

Conditions de qualification de la contrainte : Pour pouvoir utiliser le Lagrangien


dans la rsolution dun programme doptimisation sous une contrainte en quation, il
suffit que lune des conditions suivantes soit vrifie :
(a) Les drives partielles de la fonction contrainte g values loptimum x e ne sont pas
g
simultanment nulles, c.--d. x i
(x
e ) 6= 0 pour au moins un xi , i = 1, ..., n.
(b) La fonction contrainte g est linaire.

N.B. : Les conditions de qualification des contraintes garantissennt simplement quil ny


a pas de contraintes potentiellement contradictoires.

Conditions du premier ordre : On suppose que la contrainte de qualification est v-


rifie. Si le vecteur x
e = (x1 , x2 , ..., xn ) est une solution du programme de maximisation
P, alors il existe un unique tel que x e vrifie les n + 1 conditions suivantes :


e , )
L(x f (x
e ) e )
g(x
=0 . =0 i = 1, ..., n
xi xi xi

L(xe , )
e ) = c
= 0 g(x

18
Matrice hessienne borde du Lagrangien dans le cas une seule contrainte :
On appelle matrice hessienne borde du Lagrangien H L value au point x e la matrice
des drives partielles secondes de L par rapport xi borde par les drives partielles
premires de la fonction contrainte g :
g g g
0 x1 x2 xn
g 2L 2L 2L

x1 x21 x1 x2 x1 xn


g 2L 2L 2L
e) =
H L (x x2 x1 x2 x22
x2 xn


.. .. .. .. ..
.
. . . .
g 2L 2L 2L
xn x1 xn x2 xn x2n

H L est une matrice symtrique dordre n + 1.

Conditions suffisantes du second ordre pour un optimum local : Supposons


quil existe un x
e qui vrifie les CPO.
Les n 1 derniers mineurs principaux diagonaux de la matrice hessienne borde du
Lagrangien HL (x e , ) value loptimum sont alternativement > 0 et < 0, le dernier
dentre eux (Dn+1 ) tant de mme signe que (1)n x e est un maximum local.
Les n 1 derniers mineurs principaux diagonaux de la matrice hessienne borde du
Lagrangien HL (x e , ) value loptimum sont tous tous < 0 xe est un minimum
local.

Conditions suffisantes du second ordre pour un optimum global : Supposons


quil existe un x
e qui vrifie les CPO. Alors :
Le Lagrangien L est une fonction concave (ce qui est est le cas en particulier si f est
concave et si g est convexe) x e est un maximum global.
Le Lagrangien L est une fonction convexe (ce qui est est le cas en particulier si f est
convexe et g est concave) x e est un minimum global.

Exemple : Rsoudre le programme de maximisation P :



max f (x, y) = xy

P x,y
s.c. x+y =6
Solution :

Le Lagrangien associ ce programme scrit :


L(x, y, ) = xy (x + y 6)
Condition de qualification de la contrainte : Soit g(x, y) = x + y 6 et soit
(x , y ) une solution du programme. La condition de qualification de la contrainte sera
vrifie si gx (x , y ) 6= 0 et gy (x , y ) 6= 0. Il faudra le vrifier quand on connatra (x , y ).

CPO : Si (x , y ) est une solution du programme P, alors :


L
x =0 y = 0
L
y =0 x = 0
L
= 0 x + y 6 = 0

19
Lunique solution de ce systme de 3 quations 3 inconnues est (x , y , ) = (3, 3, 3).
Cette solution vrifie la condition de qualification de la contrainte puisque
gx (3, 3) = 1 6= 0 et gy (3, 3) = 1 6= 0.

CSO : La matrice hessienne borde du Lagrangien scrit, pour tout (x, y) :



0 gx gy 0 1 1
= 1 0 1
H L (x, y) = gx fxx fxy



gy fxy fyy 1 1 0

Le mineur principal dordre 3 de cette matrice value en (3, 3) est gal 2 > 0. Il
est donc du mme signe que (1)n , puisque n = 2. Par consquent, le point (3, 3) est
un maximum local. En revanche, la fonction f ntant pas concave (elle est seulement
quasi-concave), la condition suffisante pour que (x , y ) soit un maximum global nest
pas vrifie.

Cc : Le programme P admet un maximum local en (3, 3).

4.2 Cas m contraintes


Le programme prcdent se gnralise aisment au cas m contraintes.
On considre le programme de maximisation P suivant (o x e = (x1 , x2 , ...xn )) :


max f (x
e)

P ex
s.c. gj (x
e) = cj j = 1, ..., m

Lagrangien : On appelle Lagrangien, not L, la fonction suivante :


m
X
L(x e = f (x
e, ) e) j (gj (x
e) cj )
j=1

o les variables j sont appeles multiplicateurs de Lagrange associs aux j contraintes et


e = (1 , 2 , ..., n ).

Conditions de qualification des contraintes : Pour pouvoir utiliser le Lagrangien


dans la rsolution dun programme doptimisation sous plusieurs contraintes en quations,
il suffit que lune des conditions suivantes soit vrifie :
(a) La matrice jacobienne des fonctions contraintes gj , j = 1, ..., m, note JG et de
f .
taille (m, n) est de rang m lorsquelle est value loptimum x
(b) Les fonctions contraintes gj sont toutes linaires.

N.B. : il existe dautres proprits (non indiques ici) portant sur les fonctions contraintes
qui permettent de garantir que la condition de qualification de la contrainte est vrifie.

20
Conditions du premier ordre : On suppose que la contrainte de qualification est v-
rifie. Si le vecteur x
e = (x1 , x2 , ..., xn ) est une solution du programme de maximisation
P, alors il existe un unique vecteur f tel que xe vrifie les n + m conditions suivantes :
m
e )
e ,
L(x f (x
e ) X gj (x
e )

=0 j . =0 i = 1, ..., n

xi xi j=1
xi

f )
e ,
L(x

=0 e ) = cj
gj (x j = 1, ..., m

j

Matrice hessienne borde du Lagrangien dans le cas m contraintes : On ap-


pelle matrice hessienne borde du Lagrangien H L dans le cas m contraintes la matrice
hessienne du Lagrangien (drives partielles secondes de L par rapport xi borde par les
drives partielles premires des m fonctions contraintes gj , value au point x
e:

g1 g1 g1
0 0 0 x1 x2 xn
g2 g2 g2

0 0 0 x1 x2 xn



.. .. .. .. .. .. .. ..

. . . . . . . .
gm gm gm
0 0 0 x1 x2 xn

H L (x
e) = g1 g2
gm 2L 2L
2L
x1 x1 x1 x21 x1 x2 x1 xn

g1 g2
gm 2L 2L
2L
x2 x2 x2 x1 x2 x22 x2 xn

.. .. .. .. .. .. .. ..

. . . . . . . .

g1 g1 gm 2L 2L 2L
xn xn xn x1 xn x2 xn x2n

H L est une matrice symtrique dordre m + n.

Conditions suffisantes du second ordre pour un optimum local : Supposons


quil existe un x e qui vrifie les CPO.
Les n m derniers mineurs principaux diagonaux de la matrice hessienne borde du
Lagrangien HL (x e ) value loptimum sont alternativement > 0 et < 0, le dernier
e ,
dentre eux (Dm+n ) tant de mme signe que (1)n x e est un maximum local.
Les n m mineurs principaux diagonaux de la matrice hessienne borde du Lagrangien
HL (x e ) value loptimum sont tous strictement du mme signe que (1)m x
e , e
est un minimum local.

Conditions suffisantes du second ordre pour un optimum global : Supposons


quil existe un x
e qui vrifie les CPO.
Si le Lagrangien L est une fonction concave (ce qui est est le cas en particulier si f est
concave et les j gj sont convexes j = 1, ..., m) x
e est un maximum global.
Si le Lagrangien L est une fonction convexe (ce qui est est le cas en particulier si f est
convexe et les j gj sont concaves j = 1, ..., m) x
e est un minimum global.

Exemple : Rsoudre le programme de maximisation P :



max
x,y x2 + y 2 + z 2

P s.c. x + 2y + z = 1

2x y 3z = 4

21
Solution :

Le Lagrangien associ ce programme scrit :

L(x, y, z, 1 , 2 ) = x2 + y 2 + z 2 1 (x + 2y + z 1) 2 (2x y 3z 4)

Condition de qualification des contraintes : Soient g1 (x, y, z) = x + 2y + z 1 et


g2 (x, y, z) = 2x y 3z 4. La matrice jacobienne JG des fonctions contraintes value
au point (x, y, z) scrit :

g1 g1 g1 !
x y z 1 2 1
JG (x, y, z)
g2

g2 =
g2 2 1 3
x y z
Les deux vecteurs-lignes de cette matrice tant linairement indpendants, JG est
de rang 2 pour tout (x, y, z) (donc en particulier pour (x , y , z )). La contrainte de
qualification est donc vrifie. Le fait que les deux contraintes soient linaires permet
aussi de laffirmer.

CPO : Si (x , y , z , 1 , 2 ) est une solution du programme P, alors :


L
x =0 2x 1 22 =0
L
y =0 2y 21 + 2 =0
L
z =0 2z 21 + 32 =0
L
1 =0 x + 2y + z =1
L
2 =0 2x y 3z =4

Lunique solution de ce systme de 5 quations 5 inconnues est :


16 1 11 52 54
(x , y , z , 1 , 2 ) = ( , , , , )
15 3 15 75 75
CSO : La fonction f tant une somme de fonctions convexes, elle est convexe quelles que
soient les valeurs de 1 et 2 . Par consquent, (x , y , z , 1 , 2 ) est un maximum global.

Ccl : Le programme P admet un maximum global en ( 16 1 11 52 54


15 , 3 , 15 , 75 , 75 ).

5 Optimisation sous contraintes prenant la forme dinqua-


tions : les conditions de Kuhn et Tucker
On considre le programme de maximisation P suivant :


max f (x
e)

P ex
s.c. gj (x
e) 6 cj j = 1, ..., m

Soit x
e la solution de ce programme. Deux situations sont envisageables pour chaque
contrainte j
soit gj (x
e ) = cj : dans ce cas, on dit que la contrainte j est sature loptimum ;
soit gj (x
e ) < cj : dans ce cas, on dit que la contrainte j est non sature loptimum.

22
Comme prcdemment, on dfinit le Lagrangien comme la fonction L suivante :
m
X
L(x e = f (x
e, ) e) j (gj (x
e) cj )
j=1

o les variables j sont les multiplicateurs de Lagrange associs chaque contrainte j et


e = ( , , ..., ).
1 2 m

Conditions de qualification des contraintes : Pour pouvoir utiliser le Lagrangien


dans la rsolution dun programme doptimisation sous contraintes prenant la forme din-
quations, il suffit que lune des conditions suivantes soit vrifie :
(a) Soit s 6 m le nombre de contraintes satures loptimum x f . On suppose sans perte de
gnralit quil sagit des s premires contraintes gj , j = 1, ..., s. Si la matrice jacobienne
de ces s fonctions contraintes, note JG et de taille (s, n), est de rang s lorsquelle est
value loptimum x e , alors la condition de qualification des contraintes est vrifie.
(b) Les fonctions contraintes gj , j = 1, ..., s sont toutes linaires.

Les conditions du premier ordre que doit vrifier toute solution x e du programme
P sont lgrement modifies par rapport au cas prcdent (contraintes prenant la forme
dquations) et portent le nom de conditions de Kuhn et Tucker . Elles ont notamment
pour proprit que le multiplicateur de Lagrange j associ la contrainte j est nul lorsque
cette contrainte nest pas sature lquilibre.

Conditions du premier ordre (Kuhn et Tucker) : On suppose que la contrainte de


qualification est vrifie. Si le vecteur x
e = (x1 , x2 , ..., xn ) est une solution du programme
de maximisation P, alors il existe un unique vecteur f tel que xe vrifie les n + 3m
conditions suivantes :
m
L(x e)
e , f (x
e ) X gj (x e )



=0 j . =0 i = 1, ..., n

xi xi xi

j=1
f )
L(x e ,
>0 e ) 6 cj
gj (x j = 1, ..., m


j



j > 0 j > 0 j = 1, ..., m


j (gj (x ) cj ) = 0 j = 0 ou gj (x
e e ) = cj j = 1, ..., m

N.B. : ces conditions nexcluent pas la possibilit que j = 0 et gj (x


e ) = cj simultanment.

En pratique, la rsolution des conditions de Kuhn et Tucker est complique par le


fait quil faut envisager successivement toutes les configurations possibles : toutes les
contraintes sont satures lquilibre, toutes sauf une, deux,..., aucune (tous les j sont
nuls lquilibre). Pour trouver la bonne solution, il faut procder par limination, en
montrant que parmi lensemble de ces possibilits, certaines aboutissent des contradic-
tions.

23
Conditions suffisantes du second ordre pour un optimum local : Supposons
quil existe un xe qui vrifie les CPO. Soit s le nombre de contraintes satures
loptimum. Sans perte de gnralit, on suppose quil sagit des s premires. On dsigne
par H L la matrice hessienne du Lagrangien borde par les drives premires des seules
contraintes satures. Cette matrice est symtrique dordre s + n.
Les n s derniers mineurs principaux diagonaux de la matrice H L (x e ) value
e ,
loptimum sont alternativement > 0 et < 0, le dernier dentre eux (Dn+s ) tant du
mme signe que (1)n x e est un maximum local.
Les n s derniers mineurs principaux diagonaux de la matrice H L (x e ) value
e ,
loptimum sont tous du mme signe (strictement) que (1)m x e est un minimum
local.

Conditions suffisantes du second ordre pour un optimum global : Supposons


quil existe un xe qui vrifie les CPO.
Si f est concave et les gj sont convexes j = 1, ..., m x
e est un maximum global
Si f est quasi-concave et les gi sont quasi-convexes j = 1, ..., m et fi (x e ) 6= 0
i = 1, ..., n xe est un maximum global

Si f est convexe et les gj sont concaves j = 1, ..., m x


e est un minimum global
Si f est quasi-convexe et les gj sont quasi-concaves j = 1, ..., m et fi (x e ) 6= 0
i = 1, ..., n xe est un minimum global

Dans les cas 2 et 3, si lune des drives partielles de f (notes fi ) est nulle au point
e ,
x alors x
e peut tre ou ne pas tre un maximum (ou un minimum) global. Pour le savoir,
il peut tre utile de calculer la valeur de f en x
e et de la comparer la valeur prise par f
pour dautres points vrifiant les conditions du premier ordre.

Note sur les programmes de minimisation sous contraintes dinquations : Il


est trs facile de passer dun programme de minimisation sous contraintes prenant la forme
dinquations un programme de maximisation.

Soit P le programme de minimisation suivant :



min f (x
e)

P ex
s.c. gj (x
e) > cj j = 1, ..., m

Pour pouvoir appliquer les conditions de Kuhn et Tucker voques ci-dessus, il suffit
de transformer le programme P en un programme de maximisation P :

max f (x
e)

P ex
s.c. gj (x
e) 6 cj j = 1, ..., m

Le Lagrangien scrit donc :


m
X
L(x e = f (x
e, ) e) j (gj (x
e) + cj )
j=1
Xm
= f (x
e) + j (gj (x
e) cj )
j=1

24
Pour trouver la solution du programme, on cherche les conditions du premier ordre
associes ce Lagrangien.
Exemple : Rsoudre le programme de maximisation P :
h i

max (x 4)2 (y 4)2
x,y
P s.c. x+y 64

x + 3y 6 9
Solution :

Le Lagrangien associ ce programme scrit :


L(x, y, 1 , 2 ) = (x 4)2 (y 4)2 1 (x + y 4) 2 (x + 3y 9)
Condition de qualification des contraintes : Toutes les contraintes tant linaires,
la contrainte de qualification est automatiquement vrifie.

CPO : Si (x , y , 1 , 2 ) est une solution du programme P, alors :


L
x =0 2(x 4) 1 2 =0
L
y =0 2(y 4) 1 32 =0
L
1 >0 x + y 64
1 >0 1 >0
L
1 . 1
=0 1 (x + y 4) =0
L
2 >0 x + 3y 69
2 >0 2 >0
L
2 . 2 =0 2 (x + 3y 9) =0
Pour dterminer les solutions de ce systme, il faut envisager successivement tous les cas
de figure possibles portant sur la saturation des contraintes et procder par limination :
Cas 1 : (x + y = 4) et (x + 3y = 9) (les deux contraintes sont satures
loptimum). Dans ce cas, on a x = 32 et y = 52 . Alors, les deux premires quations
se rcrivent :
5 1 2 = 0
3 1 32 = 0
qui implique que 1 = 6 et 2 = 1, ce qui viole la condition 2 > 0.
Cas 2 : (x + y = 4) et (x + 3y < 9), donc 2 = 0 (seule la premire contrainte
est sature loptimum). Alors, les deux premires quations impliquent que x =
y = 2 et 1 = 4. Toutes les conditions sont satisfaites, donc (x , y , 1 , 2 ) =
(2, 2, 4, 0) est une solution possible.
Cas 3 : (x + y < 4) et (x + 3y = 9), donc 1 = 0 (seule la seconde contrainte est
sature loptimum). Alors, les deux premires quations impliquent que x = 12 5
et y = 115 , ce qui viole la condition x + y < 4.

Cas 4 : (x + y < 4) et (x + 3y < 9), donc 1 = 2 = 0 (aucune des deux


contraintes nest sature loptimum). Alors, les deux premires quations
impliquent que x = y = 4, ce qui viole la condition x + y < 4.

CSO : la fonction f est concave et les deux contraintes sont linaires. Par consquent,
(x , y , 1 , 2 ) est un maximum global.

CCl : Le programme P admet un maximum global en (2, 2, 4, 0).

25
6 Optimisation sous contraintes prenant la forme dinqua-
tions incluant des contraintes de non-ngativit
Dans de nombreuses application conomiques, les programmes doptimisation consid-
rs imposent que les variables considres ne puissent pas tre ngatives (le travail ou le
capital dans la fonction de production, par exemple).

On considre le programme de maximisation P suivant :




max f (x
e)
x1 ,x2 ,...,xn

P s.c. gj (x
e) 6 cj j = 1, ..., m

xi > 0 i = 1, ..., n

En ralit, le programme P nest quun cas particulier du programmes doptimisation


tudi dans la section prcdente (il suffit de rcrire les contraintes xi > 0 sous la forme
xi 6 0 pour sen apercevoir). Toutefois, la rsolution de ce programme selon la mthode
expose prcdemment exigerait de travailler avec n + m multiplicateurs de Lagrange, ce
qui est peu commode lorsque n est grand. Cest la raison pour laquelle on prfrera, pour
ce type de programmes, travailler partir dun Lagrangien dit modifi , partir duquel
on peut driver des conditions de Kuhn et Tucker plus simples manipuler.

Lagrangien modifi : Le Lagrangien modifi, not M(x e scrit :


e, ),
n
X
M(x e = f (x
e, ) e) j (gj (x
e) cj )
i=1

On remarquera que ce Lagrangien ne contient pas explicitement les contraintes de non-


ngativit xi > 0, i = 1, ..., n.

Condition de qualification des contraintes : Ce sont les mmes que dans le cas des
programmes doptimisation sous contraintes prenant la forme dinquations.

Conditions du premier ordre (Kuhn et Tucker) : On suppose que la contrainte de


qualification est vrifie. Si le vecteur x
e = (x1 , x2 , ..., xn ) est une solution du programme
de maximisation P, alors il existe un unique vecteur f tel que x e vrifie les 3(n + m)
conditions suivantes :

e ) m


M(x e , f (x
e ) X gj (x
e )

60 j . 60 i = 1, ..., n

xi xi xi

j=1





xi > 0 xi > 0 i = 1, ..., n

e ) e)
M(x e , e ,
M(x
xi . =0 xi = 0 ou =0 i = 1, ..., n
xi xi

f )

M(x e ,


>0 e ) 6 cj
gj (x j = 1, ..., m

j



j > 0 j > 0 j = 1, ..., m


(g (x
j = 0 ou gj (x
e ) = cj
j j e ) cj ) = 0 j = 1, ..., m

26
Conditions suffisantes du second ordre pour un optimum local : Elles sont
identiques celles du cas prcdent (programme doptimisation avec contraintes prenant
la forme dinquations).

Conditions suffisantes du second ordre pour un optimum global : Cf. cas prc-
dent.

En pratique, la rsolution des programmes doptimisation sous contraintes dinqua-


tions incluant des contraintes de non-ngativit est complique par le fait que non seule-
ment il faut envisager toutes les configurations possibles pour les j , mais aussi toutes les
configurations possibles pour les variables xi : elles sont strictement positives lquilibre,
toutes sauf une, deux,..., toutes sont nulles loptimum. Pour trouver la bonne solution, il
faut ensuite procder par limination en montrant que parmi lensemble de ces possibilits,
certaines aboutissent des contradictions. Une solution pour laquelle un ou plusieurs xi
sont nuls loptimum est appele solution en coin .

Note sur les programmes de minimisation Cf. remarques de la section prcdente.


Exemple : Rsoudre le programme de maximisation P :

max xy
x,y

P s.c. x+y 66

x >0

y >0

Solution :

Le Lagrangien modifi associ ce programme scrit :

M(x, y, ) = xy (x + y 6)

Condition de qualification des contraintes : Toutes les contraintes tant linaires,


la contrainte de qualification est automatiquement vrifie.

CPO (Kuhn et Tucker) : Si (x , y , ) est une solution du programme P, alors :


M
x 60 y 60
x >0 x >0
x . Mx = 0 x (y ) =0

M
y 6 0 x 60
y > 0 y >0
y . M
y = 0 y (x ) =0
> 0 x + y 66
L

> 0 >0
M
. = 0
(x + y 6)
=0

Pour dterminer les solutions de ce systme, il faut thoriquement passer en revue tous
les cas de figures possibles portant sur la saturation des contraintes (sur x,y et x+ y 6),
ce qui fait 9 combinaisons diffrentes. En ralit, on peut aboutir la solution trs
rapidement en procdant comme suit :

27
Cas x > 0. Alors, daprs la troisime condition : y = .
Si y = 0, alors = 0, donc x 6 0 daprs la quatrime condition, ce qui est
contradictoire avec lhypothse de dpart (x > 0).
Donc y > 0, ce qui implique x = daprs la cinquime condition. La dernire
condition implique alors que x = y = = 3.
Cas x = 0. Alors :
Si y > 0, alors = x = 0 daprs la sixime condition. Mais alors, la premire
condition contredit lhypothse y > 0.
Donc y = 0. La dernire condition implique alors que x = y = = 0.
Finalement, on en dduit que les conditions de Kuhn et Tucker admettent deux
solutions pour (x , y , ) : (3, 3, 3) et (0, 0, 0).

CSO : La fonction f est deux fois drivable et quasi-concave et les contraintes sont
linaires. Par consquent, si les drives partielles fi de f values en (x , y , ) sont
non nulles, alors (x , y , ) est un maximum global. Cest le cas pour la solution
(x , y ) = (3, 3). En revanche, comme les drives partielles de f sannulent en (0,0),
on peut savoir ce stade si la solution (x , y ) = (0, 0) est ou non un maximum global.
Pour dterminer lequel de ces deux points est le maximum global du programme P, il
faut alors comparer les valeurs de f en ces deux points : comme f (3, 3) > f (0, 0), le
point (x , y ) = (3, 3) est le maximum global du programme.

Ccl : Le programme P admet un maximum global en (3, 3).

28

Vous aimerez peut-être aussi