Académique Documents
Professionnel Documents
Culture Documents
1
Introduction
Ce cours se concentre sur un problème qui apparaît sous de multiples formes
lors du choix d’une décision, par exemple économique ou …nancière: l’optimisa-
tion d’une fonction objectif sous des contraintes. Le cours suppose une certaine
familiarité avec des concepts mathématiques de base comme les nombres entiers
naturels (ensemble N), les nombres réels (ensemble R), les fonctions d’une vari-
able réelle (limite, continuité, dérivée, ...), mais rappelle brièvement la plupart
des dé…nitions utiles. Les notes qui suivent doivent se concevoir comme
un résumé. Elles sont indissociables des commentaires, des détails et
des exemples donnés en cours chaque semaine.
Pour des rappels plus détaillés, des exemples supplémentaires, des représen-
tations graphiques, et un développement des matières abordées dans ce cours,
on pourra consulter:
Le livre de Philippe Michel “Cours de mathématiques pour économistes”,
Editions Economica, 1989.
Le cours en ligne de Martin Osborne “Mathematical methods for economic
theory”, accessible depuis le site internet de l’auteur:
https://mjo.osborne.economics.utoronto.ca/index.php/tutorial/index/1/int/i
2
1 Quelques notions de base pour l’optimisation
Le but de ce cours est de décrire rigoureusement un problème d’optimisation du
type
max f (x) (noté aussi max ff (x) : x 2 Cg ) (1)
x2C
3
et en véri…ant si cet ensemble f (C) R possède un maximum. Donc, ainsi que
nous le verrons, la toute première étape, pour étudier le problème (1) est de
bien comprendre la notion de maximum pour un ensemble A R, avec le cas
A = f (C) en tête.
Dans un deuxième temps (Section 1.2), a…n d’identi…er des propriétés utiles
de l’ensemble des contraintes C apparaissant dans le problème (1), nous étudierons
quelques propriétés topologiques de l’espace Rd . Nous verrons aussi une pro-
priété fondamentale de la fonction objectif f , la continuité. Nous poursuivrons
au Chapitre 2 l’étude de propriétés plus précises de l’ensemble des contraintes
et de la fonction objectif, qui fourniront des conditions pour que le problème
(1) ait une solution.
Exercice 1.1 Pour les ensembles suivants, déterminer, s’ils existent,ple maxi-
mum et le minimum: [0; 1[, ]2; 3], ]4; 5[, ] 1; ], n1 : n 2 N n f0g , ] 2; +1[.
4
- L’ensemble A est minoré si A possède un minorant m, i.e., s’il existe m 2 R
tel que pour tout a 2 A, a m.
- L’ensemble A est borné si A est majoré et minoré, i.e., s’il existe m 2 R et
M 2 R tels que pour tout a 2 A, m a M .
Proposition Dans R, tout ensemble majoré admet une borne supérieure (dans
R) et tout ensemble minoré admet une borne inférieure (dans R).
1. a = sup A
2. Pour tout b 2 A, b a; de plus, si b < a, alors b n’est pas un majorant de
A.
3. Pour tout b 2 A, b a; de plus, pour tout " > 0, il existe a" 2 A tel que
a" > a ".
5
Remarque: la notation a" dans l’énoncé ci-dessus vise à rappeler que l’élément
a" choisi dans A dépend de ".
Proposition Soient A R et a 2 R.
6
Revenons au problème d’optimisation maxx2C f (x) considéré au début du
Chapitre 1: la fonction f décrit l’objectif et l’ensemble C, les contraintes.
Exercice 1.6 Calculer les suprema des fonctions suivantes sur les ensembles
indiqués:
2x sur C =] 1; 1[
1
1 x sur C = [1; +1[
sin(x) sur C = R.
f (x) = 2x + 1 si 0 < x < 1, f (0) = 0, f (1) = 2 sur C = [0; 1].
1. 8 x 2 Rd ; k x k= 0 , x = 0
2. 8 x; y 2 Rd ; k x + y k k x k + k y k
7
3. 8 x 2 Rd ; 8 2 R; k x k= j j k x k.
Exercice 1.10 Véri…er que la distance dé…nie ci-dessus satisfait les propriétés:
1. 8 x; y 2 Rd ; d(x; y) = 0 , x = y
2. 8 x; y 2 Rd ; d(x; y) = d(y; x)
3. 8 x; y; z 2 Rd ; d(x; y) d(x; z) + d(z; y).
P
d
k x k1 = jxi j
i=1
k x k1 = max1 i d
fjxi jg.
P
d
Dé…nition (Produit scalaire dans Rd ) 8 x; y 2 Rd , on note x y = xi yi le
i=1
P
d
2
produit scalaire de x et y. (En particulier, 8 x 2 Rd , x x = x2i = (k x k2 ) ).
i=1
8x; y 2 Rd ; jx yj k x k2 k y k2
Exercice 1.12 Véri…er que les normes usuelles sur Rd sont bien des normes,
au sens de la dé…nition ci-dessus. Indication: une manière de faire, pour la
8
norme euclidienne, est d’utiliser l’inégalité de Cauchy-Schwartz (voir exercice
précédent).
Exercice 1.13 Montrer que les trois normes usuelles sur Rd sont équivalentes.
B(x; R) = y 2 Rd : k x y k< R .
B(x; R) = y 2 Rd : k x yk R .
Exercice 1.14 Véri…er que dans R muni de la valeur absolue, B(x; R) =]x
R; x + R[. Donner un résultat analogue pour la boule fermée.
Exercice 1.16 Soit I un intervalle borné de R. I peut être de la forme [a; b],
[a; b[, ]a; b] ou ]a; b[, avec a, b 2 R, a < b. Montrer que x est un point intérieur à
I si et seulement si x 2 ]a; b[ (et qu’on a donc, dans tous les cas, intI = ]a; b[).
9
Exercice 1.17 Montrer que x est un point intérieur à la boule fermée B(0; 1)
(pour une norme usuelle de Rd ) si et seulement si x 2 B(0; 1), la boule ouverte
correspondante (et qu’on a donc intB(0; 1) = B(0; 1)).
Exercice 1.18 Montrer que l’ensemble des points intérieurs à Rd est Rd (et
qu’on a donc intRd = Rd ).
Exercice 1.19 Montrer que toute boule (ouverte ou fermée) est bornée.
Exercice 1.20 Montrer qu’un ensemble A Rd est borné si et seulement s’il est
inclus dans une boule (non nécessairement centrée en 0), c’est-à-dire: A Rd
est borné , 9 x 2 Rd et R > 0 tels que A B(x; R).
10
Dans cette expression, la place des quanti…cateurs est importante: n0 est choisi
en fonction de ", mais ensuite, quel que soit n n0 , la distance entre xn et x
doit être inférieure à ".
Exercice 1.24 Soit (xn )n 0 une suite dans Rd . Montrer que si (xn )n 0 converge
vers x 2 Rd , k xn k converge vers k x k (dans R).
11
1. Trouver une constante c > 0 telle que pour tout x 2 Rd , j f (x) j c k x k.
2. En déduire que f est continue.
Démonstration
Condition nécessaire ()): On suppose que f est continue en x, c’est-à-dire
(6). Soit xn une suite qui converge vers x. On doit montrer que f (xn ) converge
vers f (x), c’est-à-dire, selon (5) trouver, pour tout " > 0, un nombre entier
n0 2 N tel que, pour n n0 , on ait j f (xn ) f (x) j ". Fixons " > 0. Par
(6), il existe = (") tel que pour tout y 2 Rd , k x y k (") garantit
j f (x) f (y) j ". Par ailleurs, comme xn converge vers x, par (5), pour ce
("), il existe n0 = n0 ( (")) 2 N tel que, pour n n0 ( (")), k xn x k (").
Donc n n0 ( (")) garantit j f (xn ) f (x) j ".
Condition su¢ sante ((): On doit montrer que si, pour toute suite xn qui
converge vers x, f (xn ) converge vers f (x), alors (6) est vraie (du type P ) Q).
On procède par contraposition (on montre non Q ) non P ). On suppose donc
que (6) n’est pas satisfaite, c’est-à-dire qu’il existe "0 > 0 tel que pour tout
> 0, il existe y 2 Rd :k x y k etj f (x) f (y) j> "0 . Etant donné "0 ,
1 1
prenons = 1+n , pour chaque n 2 N: il existe yn 2 Rd :k x yn k 1+n
etj f (x) f (yn ) j> "0 . On a trouvé une suite yn qui converge vers x, mais f (yn )
ne converge pas vers f (x).
12
Remarque: On peut avoir à traiter d’une application f : Rd ! Rp , où p est un
nombre entier > 1. Les notions introduites ci-dessus s’appliquent directement
car une telle application f peut se voir comme p fonctions fj , j = 1; :::; p, avec
fj : Rd ! R: 8 x 2 Rd , f (x) 2 Rp est de la forme f (x) = (fj (x))1 j p . On peut
dé…nir la continuité de f : Rd ! Rp en x 2 Rd de deux façons équivalentes.
Selon une première dé…nition, f est continue en x si et seulement si chacune des
fonctions fj , j = 1; :::; p, est continue en x. On peut aussi dé…nir directement la
continuité de f en x, comme en (6), en faisant apparaître la distance, dans Rp ,
entre f (x) et f (y):
Exercice 1.31 Véri…er que les deux dé…nitions précédentes sont bien équiva-
lentes.
13
2.1 Notions de calcul di¤érentiel, formule de Taylor
Commençons par rappeler la notion de dérivabilité pour des fonctions d’une
variable, dé…nies sur un intervalle I de R, et à valeurs dans R. Pour la dé…nition
de “point intérieur”, on se reportera à la Section 1.2.1.
f (x + h) f (x )
lim = f 0 (x ). (7)
h!0 h
f (x + h) = f (x ) + f 0 (x )h + "(h) j h j
14
obtenue à partir de f en faisant varier uniquement la coordonnée i et en …xant
les autres coordonnées, j 6= i, à xj :
@f @f
rf (x ) = (x ); :::; (x ) . (11)
@x1 @xd
Nous allons voir que la notion de dérivée peut se généraliser des fonc-
tions d’une variable aux fonctions de plusieurs variables de manière à conserver
l’interprétation géométrique d’approximation a¢ ne. Nous commençons par une
notion exigeante, qui a l’avantage de se dé…nir à l’aide des dérivées partielles.
f (x + h) = f (x ) + rf (x ) h + "(h) k h k . (12)
Ou, en posant x = x + h,
15
La fonction g : Rd ! R dé…nie par
g(x) = f (x ) + rf (x ) (x x ) (13)
Remarques:
1 Une
P
d
fonction g : Rd ! R est a¢ ne si elle est de la forme g(x) = a0 + a x = a0 + a i xi ,
i=1
où a0 2 R et a = (ai )1 i d 2 Rd .
16
un point x = (x1 ; :::; xd ) intérieur à A. Soient i; j 2 f1; :::; dg. La dérivée par-
@ @f @2f
tielle seconde @xi @xj (x ), que l’on note @xi @xj (x ), se dé…nit en appliquant
@f @
à la fonction @xj la dé…nition de la dérivée partielle première @xi (voir (10)) au
@f
point x , ce qui suppose que soit dé…nie dans une boule B(x ; "), " > 0,
@xj
autour de x .
On note D2 f (x ) la matrice des dérivées partielles secondes de f en x ,
2
c’est-à-dire la matrice d d dont l’élément (i; j) est @x@i @x
f
j
(x ). On l’appelle
matrice hessienne.
f 00 (x )
f (x) = f (x ) + f 0 (x )(x x )+ (x x )2 + "(x x )(x x )2 (15)
2
où, comme pour la formule de Taylor à l’ordre 1, " : R ! R est une fonction
telle que "(h) tend vers 0 quand h tend vers 0.
De façon équivalente, en termes de x et h:
f 00 (x ) 2
f (x + h) = f (x ) + f 0 (x )h + h + "(h)h2 .
2
Nous allons généraliser la formule ci-dessus au cas de plusieurs variables,
c’est-à-dire pour x et h dans Rd . Pour ce faire, nous devons préciser quelques
notations usuelles. Un élément h 2 Rd étant représenté comme un vecteur-
colonne (une matrice d 1), ht est la transposée de h (donc une matrice 1 d).
Pour h et y 2 Rd , le produit scalaire y h s’écrit donc de manière équivalente
17
comme y t h ou ht y. Etant donné une matrice M , symétrique, d d, ht M h est
la forme quadratique associée à M , c’est-à-dire, en notant mij = mji l’élément
(i; j) de M ,
X X X
ht M h = mij hi hj = mii h2i + 2 mij hi hj . (16)
i;j i i<j
18
1. Calculer le gradient de f , rf (x1 ; x2 ), en (x1 ; x2 ) 6= (0; 0).
2. Montrer que les dérivées partielles de f existent en tout point de R2 .
@f @f
Indication: en (0; 0), utiliser la dé…nition de @x1
et @x2
, en terme de
limite.
19
De manière équivalente, on peut adopter la dé…nition suivante.
Dé…nition
Soient A Rd et f : A ! R. La fonction f admet un maximum local
intérieur en x s’il existe un nombre r > 0 tel que B(x ; r) A et f (x ) =
maxx2B(x ;r) f (x).
f (x) = x2
f (x) = x2
f (x) = x3 3x
Véri…er s’il existe des maxima locaux et dans l’a¢ rmative, s’ils sont globaux
et/ou intérieurs.
Démonstration
Commençons par le cas particulier d = 1. Par hypothèse, A R, il existe
un nombre r > 0 tel que ]x r; x + r[ A et f (x ) = maxx2]x r;x +r[ f (x).
Autrement dit, pour tout h 2 R tel que r < h < r, f (x + h) f (x ), ce qui
implique
f (x + h) f (x )
0 pour 0 < h < r
h
f (x + h) f (x )
0 pour r<h<0
h
et donc
f (x + h) f (x )
lim = 0.
h!0 h
20
Comme par ailleurs, par hypothèse, f est dérivable en x , la limite ci-dessus est
égale à f 0 (x ) (voir (7)) et donc f 0 (x ) = 0.
Venons-en au cas général. Pour alléger les notations, nous prenons d = 2,
mais le raisonnement est le même pour tout d. Supposons que f atteigne un
maximum local intérieur en x = (x1 ; x2 ). D’après la seconde dé…nition de
maximum local intérieur ci-dessus, il existe une boule B(x ; r) A telle que
f (x ) = maxx2B(x ;r) f (x). En nous souvenant de l’équivalence des normes sur
Rd , nous supposons que cette boule est associée à la norme k k1 : B(x ; r) =
B1 (x ; r) = ]x1 r; x1 + r[ ]x2 r; x2 + r[. A partir de f , nous construisons
la fonction d’une variable, '1 , dé…nie sur ]x1 r; x1 + r[ en …xant la seconde
coordonnée x2 :
x1 ! '1 (x1 ) = f (x1 ; x2 ).
D’après la dé…nition de dérivée partielle (voir (10)),
d'1 @f
'01 (x1 ) = (x ) = (x ; x ).
dx1 1 @x1 1 2
De même, nous construisons '2 sur ]x2 r; x2 + r[ en …xant la première coor-
donnée x1 :
x2 ! '2 (x2 ) = f (x1 ; x2 ).
d'2 @f
'02 (x2 ) = (x2 ) = (x ; x ).
dx2 @x2 1 2
L’hypothèse f (x ) f (x) pour tout x 2 B1 (x ; r) implique
'1 (x1 ) '1 (x1 ) 8 x1 2 ]x1 r; x1 + r[ et
'2 (x2 ) '2 (x2 ) 8 x2 2 ]x2 r; x2 + r[ .
En appliquant à '1 et x1 , puis à '2 et x2 , le raisonnement appliqué ci-dessus
pour le cas d = 1, on obtient '01 (x1 ) = 0 et '02 (x2 ) = 0 et donc …nalement
@f @f
rf (x ) = @x 1
(x1 ; x2 ); @x2
(x1 ; x2 ) = 0.
21
2.2.2 Conditions du second ordre
Commençons à nouveau par le cas de R (d = 1). Dans ce cadre, supposons que la
fonction f : A ! R, avec A R, a un maximum local intérieur x et approchons
f au voisinage du point x (c’est-à-dire sur un intervalle ]x r; x + r[ A)
par son approximation quadratique grâce à la formule de Taylor à l’ordre 2 (voir
(15)). Comme le point x est un maximum local de f , la condition du premier
ordre est véri…ée: f 0 (x ) = 0. On a donc
f 00 (x )
f (x) = f (x ) + (x x )2 + "(x x )(x x )2
2
où " : R ! R est une fonction telle que "(h) tend vers 0 quand h tend vers
0. Par aillleurs f (x) f (x ) pour tout x 2 ]x r; x + r[. On en déduit que
f 00 (x ) 0. Cette condition ne fait intervenir que la dérivée seconde de f ; on
parle de condition –nécessaire – d’optimalité d’ordre 2.
Cette condition nécessaire f 00 (x ) 0 (en un point x 2 intA tel que
0
f (x ) = 0) ne garantit pas que f ait un maximum local en x , comme on
l’a déjà remarqué ci-dessus en considérant la fonction f (x) = x3 . Néanmoins,
une condition su¢ sante est que f 00 (x ) < 0. Pour le voir, commençons par
utiliser la dé…nition de f 00 (x ) (voir (7)), avec f 0 (x ) = 0:
f 0 (x + h) f 0 (x ) f 0 (x + h)
f 00 (x ) = lim = lim
h!0 h h!0 h
Si f 00 (x ) < 0, il doit exister " > 0 tel que
8h 2 Rd ht M h 0.
22
Proposition (Caractérisation des matrices symétriques 2 2 (semi-)dé…nies
négatives)
a b
Soit M = une matrice symétrique 2 2. M est semi-dé…nie
b d
négative si et seulement si chaque valeur située sur sa diagonale est négative ou
nulle (a 0, d 0) et son déterminant est positif ou nul (det M = ad b2 0).
M est dé…nie négative si et seulement si a < 0 et det M > 0 (auquel cas d < 0).
Exercice 2.11 Soit M une matrice d d diagonale, c’est-à-dire telle que mij =
0 si i 6= j (i; j 2 f1; :::; dg). Montrer que M est semi-dé…nie négative si et
seulement si mii 0, 8i 2 f1; :::; dg.
Exercice 2.13 Chercher les extrema locaux et globaux éventuels des fonctions
suivantes:
3 2
1. A R, f (x) = x3 2x .
23
2.3 Optimisation avec un objectif concave
Dans cette partie, on étudie les propriétés d’optimisation des fonctions concaves,
qui ne peuvent être dé…nies que sur un domaine convexe dans Rd . On donne
quelques-unes des multiples caractérisations de ces fonctions, en soulignant leur
interprétation géométrique. Ces résultats prennent une forme particulièrement
simple pour les fonctions concaves di¤érentiables ou deux fois di¤érentiables.
En…n on conclura le chapitre par un résultat essentiel : un point critique d’une
fonction concave est un maximum global. Ainsi pour de telles fonctions, la
condition nécessaire d’optimalité du premier ordre est aussi une condition su¢ -
sante.
Exercice 2.16 Donner des exemples d’ensembles convexes de Rd qui sont bornés
et d’autres qui ne le sont pas.
24
2.3.2 Fonctions concaves
Dé…nition (Fonction concave) Soient A un ensemble convexe de Rd et f : A !
R. La fonction f est concave (resp., convexe) si
Exercice 2.18 Caractériser les fonctions qui sont à la fois concaves et convexes.
Donner un exemple d’une telle fonction.
n
! n
X X
f i xi i f (xi ).
i=1 i=1
Cette inégalité indique que l’image par une fonction concave de la moyenne
pondérée de n points est plus grande que la moyenne pondérée des images
de ces points. Par exemple, si x1 ; :::; xn représentent les valeurs d’une variable
e, on interprète i comme la probabilité de xi (i = 1; :::; n). L’inégalité
aléatoire x
nous dit alors que, pour une fonction f concave, f (E x e) E (f (e
x)), où E
désigne l’espérance par rapport à la distribution de probabilité = ( 1 ; :::; n ).
En particulier, un consommateur dont la fonction d’utilité est concave a de
l’aversion pour le risque.
25
Exercice 2.22 Déduire de l’exercice précédent que si A Rd est un ensemble
convexe et f : A ! R et g : A ! R sont des fonctions concaves, la fonc-
tion min ff; gg est concave. Enoncer un résultat analogue pour des fonctions
convexes.
Exercice 2.24 Véri…er que les fonctions de deux variables ci-dessous sont con-
caves:
f : R2 ! R : f (x; y) = e (x+y)
p
f : R2+ ! R : f (x; y) = x + y.
Démonstration
Supposons que f soit concave sur intI. Fixons x et x dans intI. Par dé…ni-
tion de la concavité, 8 2 [0; 1],
f ( x + (1 )x ) f (x) + (1 )f (x ) = (f (x) f (x )) + f (x )
26
dont on déduit, pour 6= 0,
f ( x + (1 )x ) f (x )
f (x) f (x ) . (20)
'0 ( ) = (x x )f 0 ( x + (1 )x ).
'( ) '(0)
f (x) f (x ) 8 2 [0; 1] , 6= 0.
On en déduit
'( ) '(0)
f (x) f (x ) lim = '0 (0) = (x x )f 0 (x ).
!0
27
Théorème (Optimisation des fonctions concaves di¤érentiables) Soient A Rd
un ensemble convexe et f : A ! R une fonction concave sur A, di¤érentiable
sur intA. Soit x 2 intA. Si rf (x ) = 0 (pour d = 1, f 0 (x ) = 0), f atteint son
maximum global en x : f (x ) = maxx2A f (x).
Exercice 2.26 Véri…er que les fonctions de deux variables ci-dessous sont con-
caves:
p p
f : R2+ ! R : f (x; y) = x + y
f : R2 ! R : f (x; y) = x2 2y 2 + 2xy + 2y 1.
- Rd .
- fx0 g, où x0 2 Rd .
28
- Une boule fermée B(x0 ; r), pour x0 2 Rd et r > 0.
- Un intervalle de la forme [a; b] dans R (a, b 2 R, a 6= b).
- L’ensemble de budget d’un consommateur (voir (3)).
- A1 = x 2 Rd : f (x) = 0 , A2 = x 2 Rd : f (x) 0 où f : Rd ! R est une
fonction continue.
- A3 = (x; y) 2 R2 : y f (x) , A4 = (x; y) 2 R2 : y = f (x) où f : R ! R
est une fonction continue.
- L’ensemble des points x 2 Rd qui satisfont un système d’inégalités linéaires
(voir (18)).
Exercice 2.28 Montrer que les intervalles de la forme [a; b[, ]a; b] et ]a; b[, avec
a, b 2 R, a < b, ne sont pas fermés.
A…n de faire le lien entre la notion d’ensemble fermé et celle d’intérieur d’un
ensemble, nous introduisons la notion d’ensemble ouvert.
La caractérisation ci-dessus, qui peut aussi tenir lieu de dé…nition, nous dit
qu’un ensemble A est ouvert si et seulement si tout point x de A peut être
entouré d’une boule ouverte B(x; r) –dont le rayon r peut être très petit mais
est tel que r > 0 –qui soit entièrement contenue dans A (i.e., B(x; r) A). On
peut donc dire qu’un ensemble est ouvert si et seulement s’il est “voisinage de
chacun de ses points”.
29
Exercice 2.30 Véri…er si les ensembles fermés de l’exercice 2.27 sont compacts.
30
Le Chapitre 3* est consacré à des conditions du premier ordre, nécessaires (et sous des
hypothèses adéquates, suffisantes) utiles à la résolution de problèmes d’optimisation sous
contraintes : les conditions de Karush-Kuhn-Tucker, anticipées par W. Karush et
développées par H. Kuhn et A. Tucker, souvent appelées simplement conditions de Kuhn-
Tucker.
William Karush (1 March 1917 – 22 February 1997) was a mathematician best known for his
contribution to Karush-Kuhn-Tucker conditions. In his master's thesis he was the first to publish
these necessary conditions for the inequality-constrained problem, although he became
renowned after a seminal conference paper by Harold Kuhn and Albert Tucker. He also worked
as a physicist for the Manhattan Project, although he signed the Szilard petition and became a
peace activist afterwards.
Harold William Kuhn (July 29, 1925 – July 2, 2014) was an American mathematician who
contributed to game theory. He won the 1980 John von Neumann Theory Prize along with
David Gale and Albert Tucker. A former Professor Emeritus of Mathematics at Princeton
University, he is known for the Karush-Kuhn-Tucker conditions, for Kuhn’s theorem and for
developing Kuhn poker as well as the description of the Hungarian method for the assignment
problem. Recently, though, a paper by Carl Gustav Jacobi, published posthumously in 1890 in
Latin, has been discovered that anticipates by many decades the Hungarian algorithm.
Albert William Tucker (28 November 1905 – 25 January 1995) was a Canadian
mathematician who made important contributions in topology, game theory and non-linear
programming. Tucker advised and collaborated with Harold Kuhn on a number of papers and
models. In 1950, Albert Tucker gave the name and interpretation “prisoner’s dilemma” to
Merrill Flood and Melvin Dresher’s model of cooperation and conflict, resulting in the most
well-known game theoretic paradox. He is also well known for the Karush-Kuhn-Tucker
conditions, a basic result in non-linear programming, which was published in conference
proceedings, rather than in a journal.
*
paginé indépendamment des deux chapitres précédents.
3 Optimisation dans Rd sous contraintes
Ce chapitre est consacré à l’optimisation de fonctions f de d variables réelles, différentiables, sur un
ensemble de contraintes A ⊂ Rd . On traitera successivement :
1. le cas d’une seule contrainte de type “égalité” : A = {x ∈ Rd : h(x) = 0},
2. le cas de plusieurs contraintes de type “égalité” : A = {x ∈ Rd : h1 (x) = 0, . . . , hp (x) = 0},
3. le cas de plusieurs contraintes de type “inégalité” : A = {x ∈ Rd : g1 (x) ≥ 0, . . . , gn (x) ≥ 0}.
4. le cas mixte : A = {x ∈ Rd : h1 (x) = 0, . . . , hp (x) = 0, g1 (x) ≥ 0, . . . , gn (x) ≥ 0}.
Dans les deux premiers cas, on établira que si x̄ est une solution du problème alors une certaine fonction L
(appelée lagrangien) vérifie les conditions d’optimalité pour les points intérieurs : ses dérivées premières
s’annulent. Dans les deux derniers cas, on utilisera encore le lagrangien pour donner des conditions
nécessaires d’optimalité (les conditions de Karush, Kuhn et Tucker). Dans tous les cas, en supposant de
plus f concave, les hi affines et les gj concaves, les conditions précédentes deviennent suffisantes.
— Les fonctions hi , pour i = 1, ..., p, sont les fonctions contraintes de type égalité du problème,
— Les fonctions gi , pour i = 1, ..., n, sont les fonctions contraintes de type inégalité du problème.
Remarque 1. Suivant les problèmes considérés, il se peut que p = 0 ou n = 0.
Notations.
— Pour simplifier, on écrit L(x, λ, µ) au lieu de L(x1 , ..., xd , λ1 , ...λp , µ1 , ..., µn ).
— Les variables (λi )i=1,...,p et (µi )i=1,...,n sont appelées multiplicateurs de Lagrange du problème
(P). On suivra la notation suivante dans tout le chapitre :
— Lorsqu’il s’agit d’une contrainte de type égalité, on utilise la lettre λ indicée par le numéro de
la contrainte,
— Lorsqu’il s’agit d’une contrainte de type inégalité, on utilise la lettre µ, indicée par le numéro
de la contrainte.
2
∂L(x∗ , λ, µ)
=0 ∀i = 1, ..., d
∂xi
∗
∂L(x , λ, µ)
=0 ∀i = 1, ..., p
(KKT ) : ∂λi
∗
∂L(x , λ, µ)
≥0 ∀i = 1, ..., n
∂µi
µ ≥0 ∀i = 1, ..., n
i
µi gi (x∗ ) = 0 ∀i = 1, ..., n
On peut réécrire ces conditions de manière un peu plus condensée en explicitant le lagrangien et en
remarquant que les dérivées partielles du lagrangien par rapport aux λi et µi donnent exactement les
fonctions hi et gi :
p
n
X X
∗ ∗
µi ∇gi (x∗ ) = 0
∇f (x ) + λ ∇h (x ) +
i i
i=1 i=1
hi (x∗ ) = 0
(KKT ) : ∀i = 1, ..., p
∗
gi (x ) ≥ 0 ∀i = 1, ..., n
µ ≥ 0 ∀i = 1, ..., n
i
µi gi (x∗ ) = 0
∀i = 1, ..., n
Définition 2. Soit x ∈ A. La contrainte j est dite saturée en x si gj (x) = 0. Soit J(x) := {j = 1, ..., n :
gj (x) = 0} l’ensemble des contraintes, de type inégalité, saturées en x.
En examinant les conditions KKT, on voit que si une contrainte de type inegalité gi n’est pas saturée
au point x∗ , cela implique que µi = 0 car on a simultanément gi (x∗ ) > 0 et µi gi (x∗ ) = 0. Donc la
contrainte gi n’intervient plus dans les conditions KKT, elle est inactive.
Ces conditions sont à connaı̂tre absolument. Dans la suite nous montrons que ces conditions
peuvent caractériser les points de maximum d’une fonction (sous certaines hypothèses). Et nous verrons
enfin comment résoudre explicitement les problèmes à partir d’exemples. Nous partons du cas le plus
simple où p = 1 et n = 0 pour aller au plus général. Pour chaque problème on verra apparaı̂tre les
conditions associées, données plus haut.
A propos de la résolution. Les résultats suivants sont relativement puissants, en particulier ils s’ap-
pliquent extrêmement bien aux environnements économiques standards, que ce soit en macroéconomie
ou en microéconomie. Ceci dit, en pratique, la résolution à partir des conditions KKT est compliquée par
le fait qu’il faut envisager successivement toutes les configurations possibles : toutes les contraintes sont
saturées à l’optimum, toutes sauf une, deux,..., aucune (tous les µj sont nuls à l’optimum). Pour trouver
la bonne solution, il faut procéder par élimination, en montrant que parmi l’ensemble de ces possibilités,
certaines aboutissent à des contradictions. Les sections suivantes fournissent de nombreux exemples qui
vous aideront à vous y retrouver.
3
h(x) = h(x1 , . . . , xd )
Pd
= ci xi + k où c = (c1 , . . . , cd ), k ∈ R
i=1
Dans le cas sans contrainte, il a suffi de s’intéresser aux propriétés locales des maxima locaux de f
pour obtenir la condition d’optimalité du premier ordre. Procédons de même ici et considérons donc qu’il
existe une solution locale x̄ du problème
max f (x).
c·x+k=0
On se souvient de la formule de Taylor à l’ordre 1 vue dans le chapitre précédent. On en déduit que lorsque
x est “suffisamment proche” de x̄, l’inégalité f (x̄) ≥ f (x) implique la suivante : ∇f (x̄) · (x̄ − x) ≥ 0.
Autrement dit, il existe ε > 0 tel que, pour tout x ∈ B(x̄, ε) vérifiant la contrainte c·x+k = 0 (c’est-à-dire
tel que : c · (x̄ − x) = 0), on a : ∇f (x̄) · (x̄ − x) ≥ 0.
A présent, pour tout u ∈ Rd , on pose x := x̄ − 2||u|| ε
u et x0 := x̄ + 2||u||ε
u. On remarque que dans
0 ε 0
ce cas, ||x − x̄|| = ||x − x̄|| = 2 et donc x et x appartiennent à la boule ouverte B(x̄, ε). D’autre part,
x̄ − x = x0 − x̄ = 2||u||
ε
u. On en déduit que pour tout u ∈ Rd tel que c · u = 0, on a ∇f (x̄) · (x̄ − x) ≥ 0 et
∇f (x̄) · (x̄ − x0 ) ≥ 0, ce qui signifie ∇f (x̄) · (x̄ − x) = ∇f (x̄) · (x̄ − x0 ) = 0 et donc ∇f (x̄) · u = 0.
Ainsi, on obtient la propriété suivante :
Commentons brièvement la propriété Q1 . Remarquons tout d’abord que si c = (0, . . . , 0) (et donc
k = 0 car x̄ satisfait : c · x̄ + k = 0), on obtient ∇f (x̄) = (0, . . . , 0). On retrouve donc la condition de
premier ordre (sans contrainte) vue au chapitre précédent. Considérons à présent le cas c 6= 0. Plaçons
nous dans R3 et considérons la figure 3.1 ci-dessus. c est un vecteur de R3 − {(0, 0, 0)} et {u : c · u = 0}
est le plan orthogonal à c, noté {c}⊥ . Si un vecteur a est orthogonal à ce plan, il doit être colinéaire au
vecteur c. On a donc montré intuitivement que :
Revenons maintenant au cas général, avec h quelconque et non nécessairement affine. Si on suppose
que ∇h(x̄) 6= 0 (c’est-à-dire que localement en x̄, A n’est pas dégénéré), on peut (preuve omise) utiliser
la différentiabilité de h, comme nous avons utilisé celle de f , et réécrire la propriété Q1 de la manière
suivante :
On obtient donc l’existence d’un réel α tel que ∇f (x̄) = α∇h(x̄). Cette dernière condition est appelée
condition nécessaire d’optimalité d’ordre 1. Elle revient à chercher les points critiques (c’est-à-dire les
points d’annulation du gradient) du lagrangien. En effet,
4
Théorème 1. Si x̄ est une solution locale du problème (P)
max f (x)
{x : h(x)=0}
∂L(x̄,λ)
et si ∇h(x̄) 6= 0 (condition de qualification de la contrainte), alors il existe un réel λ tel que ∂xi =0
∂L(x̄,λ)
pour tout i = 1, ..., d et ∂λ = 0. C’est-à-dire :
• ∇f (x̄) + λ∇h(x̄) = 0
• h(x̄) = 0
Remarque 2. On peut vérifier qu’il s’agit bien des conditions KKT associées à (P) données dans la section
précédente en posant p = 1 et n = 0.
Exemple 1.
Considérons le problème :
Pd
max i=1 xi
(P ) : x ∈ Rd
Pd
x2i = 1
i (λ)
Solution : Ici on a :
d
X
h(x) = x2i − 1
i
On voit tout d’abord que le maximum pour le problème (P ) existe car {x ∈ Rd | h(x) = 0} est un
compact et f est continue (notamment, pour tout i = 1, ..., d, xi ∈ [−1; 1]).
∂f (x̄) ∂h(x̄)
+λ =0
∂xi ∂xi
On obtient donc pour i = 1, ..., d, 1 = −2λx̄i .
Nécessairement il est vrai que x̄i = x̄j pour tout i, j = 1, ..., d. Soit m∗ = x̄i pour tout i = 1, ..., d. En
Pd Pd
remplaçant dans la contrainte h, on a i=1 x̄2i = i=1 m∗2 = dm∗2 = 1. On en déduit alors qu’il existe
∈ {−1, 1} tel que pour tout i, x̄i = m∗ = √1d .
Il reste donc seulement deux candidats pour le maximum : le vecteur ( √1d , ..., √1d ) et le vecteur
(− √1d , ..., − √1d ). Nous devons les départager. Il est facile de vérifier que ( √1d , . . . , √1d ) est le maximum
global de la fonction f dans l’ensemble des contraintes. De même, (− √1d , . . . , − √1d ) est son minimum
global dans l’ensemble des contraintes.
Exercice 1. Résoudre les problèmes suivants :
1. f (x) = x2i , h(x) = i xi − 1.
P P
5
Nous pouvons maintenant envisager Pd le cas particulier où la fonction objectif f est concave et la
fonction h est affine (i.e., de la forme i=1 ai xi + b). Sous ces conditions, un point x̄ vérifiant la condition
nécessaire d’optimalité est un maximum global de f . En effet,
Théorème 2. Supposons f concave et h affine (i.e., il existe des réels a1 , . . . , ad et b tels que h(x) =
Pd d
i=1 ai xi + b). S’il existe x̄ ∈ R et λ ∈ R tels que :
• ∇f (x̄) + λ∇h(x̄) = 0
• h(x̄) = 0
alors x̄ est solution de (P).
Figure 2 – Propriété Q2
u
a
c1
P
c2
On peut, comme nous l’avons fait pour la propriété (Q1 ), commenter brièvement la propriété (Q2 ).
Plaçons nous à nouveau dans R3 et considérons la figure 3.2 ci-dessous. Si le vecteur u est orthogonal aux
vecteurs c1 et c2 , il est orthogonal au plan formé par toutes leurs combinaisons linéaires. Si un vecteur a
est orthogonal à u, il doit donc appartenir à ce plan. Pd
On en conclut que la propriété (Q2 ) signifie qu’il existe des réels λ1 , . . . , λp tels que ∇f (x̄)+ i=1 λi ∇hi (x̄) =
0.
Lorsque A était décrit par une contrainte unique, dans le cas d’une contrainte quelconque (non
nécessairement affine), il a fallu imposer la relation ∇h(x̄) 6= 0. Ici, on va devoir imposer que les vecteurs
∇h1 (x̄), . . . , ∇hp (x̄) soient linéairement indépendants (i.e., qu’on ne peut écrire l’un des vecteurs comme
combinaison linéaire des autres).
Théorème 3. Si x̄ est une solution locale de (P)
et si ∇h1 (x̄), . . . , ∇hp (x̄) sont linéairement indépendants (condition de qualification des contraintes),
alors il existe des réels λ1 , . . . , λp tels que ∂L(x̄,λ)
∂xi = 0, pour tout i = 1, ..., d et ∂L(x̄,λ)
∂λi = 0 pour tout
i = 1, . . . , p. C’est-à-dire
Xp
• ∇f (x̄) + λi ∇hi (x̄) = 0
i=1
• hi (x̄) = 0 pour tout i = 1, ..., p
6
Remarque 3. Ici aussi on remarque qu’il s’agit bien des conditions KKT associées au problème (P).
Théorème 4. Supposons f concave et les hi affines (i.e., il existe des réels ai1 , . . . , aid et bi tels que pour
Pd
tout i = 1, . . . , p, hi (x) = j=1 aij xj + bi ). S’il existe x̄ ∈ Rd et λ1 , . . . , λp ∈ R tels que
X p
• ∇f (x̄) + λi ∇hi (x̄) = 0
i=1
• hi (x̄) = 0 pour tout i = 1, ..., p
alors x̄ est une solution de (P).
Démonstration Considérons (x̄, λ1 , . . . , λp ) comme indiqué. Alors, d’après une propriété des fonctions
concaves, pour tout x élément de A, on a
Donc pour tout x qui vérifie les contraintes, i.e., tel que pour tout i, hi (x) = 0, on a f (x̄) ≥ f (x) et donc
x̄ est une solution de (P).
Exemple 2.
Considérons le problème :
min x2 + y 2 + z 2
(x, y, z) ∈ R3
(P ) :
x + 2y + z = 1 (λ1 )
2x − y − 3z = 4 (λ2 )
Solution :
De manière équivalente, cela revient à considérer en fait
max −(x2 + y 2 + z 2 )
3
(x, y, z) ∈ R
x + 2y + z = 1
2x − y − 3z = 4
La fonction objectif est continue et différentiable. L’ensemble A est fermé mais il n’est pas borné. On
peut cependant s’assurer de l’existence d’une solution. On va faire appel ici au théorème 4, en vérifiant
tout d’abord qu’il est valide dans cet exemple.
7
qui sont clairement linéairement indépendants (non proportionnels). La contrainte de qualification du
théorème 3 est donc vérifiée.
−2x̄ + λ1 + 2λ2 = 0
−2ȳ + 2λ1 − λ2 = 0
−2z̄ + λ1 − 3λ2 = 0
x̄ + 2ȳ + z̄ = 1
2x̄ − ȳ − 3z̄ = 4
Le système à 5 inconnues admet une unique solution :
16 1 11 52 18
(x̄, ȳ, z̄, λ1 , λ2 ) = , ,− , ,
15 3 15 75 25
Conditions suffisantes d’optimalité.
La fonction (x, y, z) → x2 + y 2 + z 2 étant une somme de fonctions convexes elle est convexe (à savoir,
et à savoir démontrer si besoin). Donc −f est concave. Si vous n’êtes pas convaincus, vous pouvez
aussi écrire la matrice hessienne et utiliser la proposition sur la caractérisation des fonctions concaves.
Comme les contraintes sont affines, on sait d’après le théorème 4 que le triplet
16 1 11
, ,−
15 3 15
est un maximum global de −f sur l’ensemble des contraintes.
Conclusion.
On vient de montrer que (x̄, ȳ, z̄) est solution de (P ) si et seulement si (x̄, ȳ, z̄) = ( 16 1 11
15 , 3 , − 15 ).
Exercice 2. En utilisant la même méthode que précédemment, trouver le minimum du problème pour :
f (x) = x21 + x22 + x23 , h1 (x) = 2x1 + x2 + x3 − 1, h2 (x) = −x1 + x2 + x3 − 1.
Contrairement au problème précédent, l’ensemble A n’est plus une “pelure” de Rd mais un ensemble
“épais”. Si f atteint son maximum en un point de x̄ de int A = {x : g1 (x) > 0, . . . , gn (x) > 0}, on sait
que ∇f (x̄) = 0 (conditions nécessaires du premier ordre). Mais quelles propriétés vérifient nécessairement
les maxima de f qui sont sur la frontière de A ? La résolution du problème ne fait intervenir comme pour
les cas précédents que le comportement local de f , des gj et donc de A. On peut donc considérer plus
généralement un problème d’optimisation local, c’est-à-dire supposer pour un ouvert U de Rd fixé que x̄
est un maximum local de f sur A c’est-à-dire une solution du problème
8
Il semble alors sensé d’introduire l’ensemble J(x̄) = {j ∈ {1, . . . , n} : gj (x̄) = 0} dit ensemble des
contraintes saturées (ou actives). En effet si j ∈
/ J(x̄), on a gj (x̄) > 0 donc par continuité de gj , la condition
gj (x) > 0 est satisfaite pour x au voisinage de x̄. Ainsi, une contrainte j non saturée n’influencera pas le
problème. Il semble donc qu’une condition nécessaire d’optimalité ne fasse intervenir que les indices de
conditions saturées du problème ou plutôt les ∇gj (x̄) pour j ∈ J(x̄).
Figure 3 – Exemple d’ensemble J : J(x1 ) = ∅, J(x2 ) = {3}, J(x3 ) = {2, 3}, J(x4 ) = {3, 4}
Si les contraintes sont affines, les propriétés Q1 (ou plus généralement Q2 ) des cas d’optimisation sous
contraintes de type égalité deviennent la propriété Q3 :
9
Théorème 5 (Karush-Kuhn-Tucker). Si x̄ est une solution locale du problème (P)
et si les vecteurs ∇gj (x̄), pour j ∈ J(x̄), sont linéairement indépendants (condition de qualification des
contraintes) alors x̄ vérifie les conditions KKT associées à (P).
Remarques
a) Comme prévu, seules les conditions saturées interviennent dans la condition nécessaire obtenue.
b) Il y a une nouveauté ici par rapport à l’optimisation sous contraintes d’égalité, le signe des µj pour
j ∈ J(x̄) est déterminé. Ce n’est pas réellement une surprise, les ∇gj (x̄) sont forcément dirigés
vers l’intérieur des ensembles {x : gj (x) ≥ 0} et x̄ étant un maximum local de f , ∇f (x̄) pointe
naturellement vers l’ensemble {x : gj (x) ≤ 0}. En analogie avec l’optimisation sous contraintes
d’égalités, une étude du cas affine montre que sous la condition de qualification, les vecteurs ∇f (x̄)
et ∇gj (x̄) pour j ∈ J(x̄) vérifient la condition (Q3 ).
En présence de concavité dans les données, les conditions précédentes deviennent suffisantes pour que
x̄ maximise f . En effet,
Théorème 6 (Karush-Kuhn-Tucker (concave)). Supposons f concave et les gj concaves. Alors, un
élément x̄ ∈ A qui vérifie les conditions KKT associées à (P) est un maximum de (P).
Considérons le problème :
max
xy
(x, y) ∈ R2
(P ) : x≥0 (µ1 )
y≥0 (µ2 )
4x2 + y 2 ≤ 8 (µ3 )
Solution :
L’ensemble A est fermé borné (le justifier !) et f est continue donc y atteint son maximum que l’on
note ū = (x̄, ȳ). Par contre f n’est pas concave. Pour s’en convaincre, on peut écrire la matrice hessienne
de f en (x, y) ∈ R2 :
0 1
D2 f (x, y) =
1 0
dont le déterminant est négatif, donc f n’est pas concave d’après la caractérisation des fonctions concaves
vues à la section précédente. On ne peut pas utiliser le théorème 6.
Il faut vérifier que les vecteurs sont linéairement indépendants en se restreignant aux contraintes gi
saturées aux points solution (les i tels que i ∈ J(x̄, ȳ)) Mais comme f est une fonction positive sur A et
f non nulle, le maximum (x̄, ȳ) ne peut être atteint pour x̄ = 0 ou ȳ = 0. Donc J(x̄, ȳ) ⊂ {3}, donc la
condition de qualification est nécessairement vérifiée.
10
Condition nécessaire d’optimalité.
Soit (x̄, ȳ) un maximum. D’après le Théorème 5, il existe µ1 , µ2 , µ3 tels que :
∇f (x̄, ȳ) + µ1 ∇g1 (x̄, ȳ) + µ2 ∇g2 (x̄, ȳ) + µ3 ∇g3 (x̄, ȳ) = 0
gi (x̄, ȳ) ≥ 0 ∀i = 1, 2, 3
(KKT ) :
µi ≥ 0
∀i = 1, 2, 3
µi gi (x̄, ȳ) = 0 ∀i = 1, 2, 3
On a vu que nécessairement les contraintes g1 et g2 ne sont pas saturées en (x̄, ȳ), c’est-à-dire g1 (x̄, ȳ) >
0 et g2 (x̄, ȳ) > 0, les conditions ci -dessus entraı̂nent alors que µ1 = µ2 = 0. Donc on peut réécrire les
conditions comme suit
∇f (x̄, ȳ) + µ3 ∇g3 (x̄, ȳ) = 0
g3 (x̄, ȳ) ≥ 0
µ3 ≥ 0
µ3 g3 (x̄, ȳ) = 0
x̄, ȳ > 0
C’est-à-dire :
ȳ = 8µ3 x̄
x̄ = 2µ3 ȳ
8 − 4x̄2 − ȳ 2 ≥ 0
µ3 ≥ 0
µ3 (8 − 4x̄2 − ȳ 2 ) = 0
x̄, ȳ > 0
Si 8−4x̄2 − ȳ 2 > 0, cela implique µ3 = 0 d’après les conditions ci-dessus. Mais dans ce cas on voit ȳ = 0
d’après la première condition, ce qui contredit la dernière condition. Donc la contrainte g3 est saturée,
8 − 4x̄2 − ȳ 2 = 0. On en déduit que ȳ 2 = 4x̄2 d’après les deux premières conditions. En remplacant dans
l’équation 8 − 4x̄2 − ȳ 2 = 0 on obtient x̄ = 1, ȳ = 2 et µ3 = 41 . Toutes les conditions sont satisfaites.
Conclusion.
Comme le couple (1, 2) est le seul candidat, c’est nécessairement l’unique solution du problème P .
Exercice 3. En suivant la même démarche que dans l’exemple précédent, résoudre le problème
max xy
(x, y) ∈ R2
x+y ≤6
x, y ≥ 0
Considérons le problème :
max −(x − 4)2 − (y − 4)2
(x, y) ∈ R2
(P ) :
x+y ≤4 (µ1 )
x + 3y ≤ 9 (µ2 )
Solution :
L’ensemble A est fermé mais n’est pas borné. On peut savoir toutefois que ce problème a bien une
solution. On va utiliser la concavité de la fonction objectif.
11
Condition de qualification des contraintes.
En posant g1 (x, y) = 4 − x − y et g2 (x, y) = 9 − x − 3y, on voit que ∇g1 (x, y) = (−1, −1), ∇g2 (x, y) =
(−1, −3) pour tout (x, y) ∈ R2 sont linéairement indépendants donc la condition de qualification est
vérifiée.
C’est-à-dire
−2(x̄ − 4) − µ1 − µ2 = 0
−2(ȳ − 4) − µ1 − 3µ2 = 0
4 − x̄ − ȳ ≥ 0
9 − x̄ − 3ȳ ≥ 0
µ1 , µ2 ≥ 0
µ1 (4 − x̄ − ȳ) = 0
µ2 (9 − x̄ − 3ȳ) = 0
Pour déterminer les solutions de ce système, il faut envisager successivement tous les cas de figure
possibles portant sur la saturation des contraintes et procéder par élimination.
• si x̄ + ȳ = 4 et x̄ + 3ȳ = 9. Alors, on a x̄ = 23 et ȳ = 52 . Les deux premières conditions se réécrivent :
5 − µ1 − µ2 = 0
3 − µ1 − 3µ2 = 0
ce qui implique que µ1 = 6 et µ2 = −1, ce qui contredit la condition µ2 ≥ 0.
• si x̄ + ȳ = 4 et x̄ + 3ȳ < 9, donc µ2 = 0. Les deux premières équations donnent x̄ = ȳ = 2 et
µ1 = 4. Donc toutes les conditions sont satisfaites. (2, 2) est un candidat.
• si x̄ + ȳ < 4 et x̄ + 3ȳ = 9, donc µ1 = 0. Les deux premières équations impliquent que x̄ = 33
10 et
ȳ = 19
10 , ce qui contredit la condition x̄ + ȳ < 4.
• si x̄ + ȳ < 4 et x̄ + 3ȳ < 9, donc µ1 = µ2 = 0. Les deux premières équations impliquent que
x̄ = ȳ = 4, ce qui contredit la condition x̄ + ȳ < 4.
Le seul candidat potentiel pour être solution est donc le vecteur (2, 2).
Les éléments diagonaux sont négatifs et le déterminant vaut 4. Donc d’après la caractérisation vue
précédemment, f est bien concave. De plus, les contraintes sont affines (donc en particulier concaves),
donc le théorème 6 (condition suffisante) s’applique.
Conclusion.
On vient de montrer que (x̄, ȳ) est solution de (P ) si et seulement si (x̄, ȳ) = (2, 2). Donc (2, 2) est
l’unique solution.
12
3.4 Optimisation sous contraintes de type mixte
Dans cette partie, on s’intéresse au problème d’optimisation général :
Théorème 7. Si x̄ est une solution locale du problème (P) et si les vecteurs ∇hj (x̄), pour j = 1, ..., p,
et ∇gk (x̄), pour k ∈ J(x̄), sont linéairement indépendants (condition de qualification des contraintes),
alors x̄ vérifie les conditions KKT associées.
Comme dans les cas similaires déjà évoqués, les conditions du théorème KKT deviennent suffisantes
en présence de concavité dans les données. Outre les hypothèses de différentiabilité qui ont toujours cours,
nous supposons ici,
f est concave,
(C) les fonctions gj : Rd → R sont concaves,
les fonctions hi : Rd → R sont affines (ou bien hi et −hi sont concaves !).
Théorème 8. Dans le contexte défini par (C), les conditions KKT sont toujours suffisantes pour que x̄
soit un maximum de f sur A.
Exemple 5 (pas de solution unique).
Solution :
Figure 4 – Exemple
13
On va vérifier que la solution du problème (graphiquement évidente) est atteinte aux points (1, 0, 0),
(0, 1, 0) et (0, 0, 1).
A est un fermé borné de R3 (le justifier !) et f continue sur A donc f atteint ses bornes.
J(ū) ne peut pas être l’ensemble {1, 2, 3}, sinon cela signifie x̄ = ȳ = z̄ = 0, mais dans ce cas-là
x̄ + ȳ + z̄ = 0 ne vérifie pas la contrainte h. Il en résulte que la famille de vecteurs à considérer est
{(1, 1, 1), ei } ou {(1, 1, 1), ei , ej } avec i, j = 1, ..., 3, et i 6= j et où ei est le vecteur de R3 dont la ième
composante vaut 1, et 0 pour les autres. Clairement les vecteurs de ces familles sont toujours linéairement
indépendants. Donc la condition de qualification du théorème 7 est satisfaite.
Conclusion. En comparant les valeurs de f sur ces différentes solutions potentielles, on obtient bien le
résultat.
14
Exercices sur le Chapitre 3
Exercice 1
On considère, dans R2 , le problème P:
3x + y = 12
x 0
y 0
Exercice 2
On considère, dans R2 , le problème P:
4x + 3y 10
y 2x
x 0
1. Démontrer que, sans résoudre le problème P, on peut a¢ rmer qu’il possède une solution.
2. Montrer que les conditions de quali…cation du problème P sont satisfaites en tout point.
3. Ecrire les conditions de Karush, Kuhn et Tucker (KKT) du problème P.
4. Les conditions KKT seront-elles nécessaires?
5. Les conditions KKT seront-elles su¢ santes?
6. En admettant que la contrainte x 0 n’est pas saturée à l’optimum, résoudre le problème P grâce
aux conditions KKT.
7. Démontrer qu’e¤ectivement, la contrainte x 0 n’est pas saturée à l’optimum.
Exercice 3
On considère, dans R2 , g(x; y) = 2x2 + y 2 et le problème P:
2x + y 3
x 0
y 0
5. Soit (x; y) 2 R2 tel que 2x + y < 3. Montrer qu’il existe (x0 ; y 0 ) 2 A g(x0 ; y 0 ) > g(x; y).
6. Déduire des questions qui précèdent les trois candidats solutions du problème P et conclure.