Vous êtes sur la page 1sur 64

Programmation lineaire et Optimisation

Didier Smets
Chapitre 1
Un probl`eme doptimisation lineaire
en dimension 2
On consid`ere le cas dun fabricant dautomobiles qui propose deux mod`eles ` a la vente,
des grosses voitures et des petites voitures. Les voitures de ce fabriquant sont tellement
` a la mode quil est certain de vendre tout ce quil parvient `a produire, au moins au prix
catalogue actuel de 16000 euros pour les grosses voitures, et 10000 euros pour les petites
voitures. Son probl`eme vient de lapprovisionnement limite en deux mati`eres premi`eres, le
caoutchouc et lacier. La construction dune petite voiture necessite lemploi dune unite
de caoutchouc et dune unite dacier, tandis que celle dune grosse voiture necessite une
unite de caoutchouc mais deux unites dacier. Sachant que son stock de caoutchouc est
de 400 unites et son stock dacier de 600 unites, combien doit-il produire de petites et de
grosses voitures au moyen de ces stocks an de maximiser son chire daaire ?
Nous appellerons x le nombre de grosses voitures produites, y le nombre de petites
voitures produites, et z le chire daaire resultant. Le probl`eme se traduit alors sous la
forme
maximiser z = 16000x + 10000y
sous les contraintes x + y 400
2x +y 600
x 0, y 0.
(1.1)
1.1 Solution graphique
Un tel syst`eme, parce quil ne fait intervenir que deux variables, peu se resoudre assez
facilement de mani`ere graphique, en hachurant la zone correspondant aux contraintes,
et en tracant les lignes de niveaux (ici des lignes parall`eles) de la fonction `a maximiser
(cfr. graphique ci-dessous). On obtient ainsi la solution optimale x = 200 et y = 200,
qui correspond ` a z = 5200000. Elle est unique dans ce cas precis, et correspond `a un
sommet de la zone de contraintes.
1
1.2 Sensibilite `a la variation des stocks
Observons comment la solution du probl`eme evolue lorsquon modie certaines donnees
de depart, par exemple une augmentation du stock de caoutchouc ou du stock dacier.
Imaginons que le stock dacier soit de 700 au lieu de 600, le nouveau probl`eme secrit
maximiser z = 16000x + 10000y
sous les contraintes x + y 400
2x +y 700
x 0, y 0.
(1.2)
Toujours de mani`ere graphique, on sapercoit que la solution optimale est maintenant
donnee par x = 300 et y = 100, ce qui correspond ` a z = 5800000. Autrement dit, une
augmentation de 100 unites dacier ` a un impact de 600000 euros sur le chire daaire.
On dira alors que le prix marginal de lunite dacier est de 6000 euros.
2
Si le stock dacier passe `a 800, la solution optimale devient x = 400 et y = 0 et le chire
daaire z = 6400000. Augmenter le stock dacier au-del`a de 800, sans changer le stock
de caoutchouc, na plus aucune inuence sur la solution optimale, car y est contraint `a
rester positif.
Imaginons maintenant que le stock dacier reste xe ` a 600 mais que le stock de caou-
tchouc passe de 400 ` a 500. Le nouveau probl`eme secrit
maximiser z = 16000x + 10000y
sous les contraintes x + y 500
2x +y 600
x 0, y 0.
(1.3)
Toujours de mani`ere graphique, on sapercoit que la solution optimale est maintenant
donnee par x = 100 et y = 400, ce qui correspond ` a z = 5600000. Autrement dit, une
augmentation de 100 unites de caoutchouc `a un impact de 400000 euros sur le chire
3
daaire. On dira alors que le prix marginal de lunite de caoutchouc est de 4000 euros.
Si le stock de caoutchouc passe ` a 600, la solution optimale devient x = 0 et y = 600
et le chire daaire z = 6000000. Augmenter le stock de caoutchouc au-del` a de 600,
sans changer le stock dacier, na plus aucune inuence sur la solution optimale, car x est
contraint ` a rester positif.
4
1.3 Le probl`eme dual du concurrent
Supposons maintenant que le fabricant dautomobile poss`ede un concurrent qui, pour
honorer des commandes en trop grand nombre, se propose de lui racheter tous ses stocks.
Ce dernier doit faire une ore de prix (la meme, disons u) pour chaque unite de caoutchouc
et une ore de prix (disons v) pour chaque unite dacier. Pour que lore soit acceptee, il
faut que le prix paye par le concurrent soit au moins egal ` a ce que le fabriquant pourrait
en tirer en produisant des voitures. Le probl`eme du concurrent secrit ainsi
minimiser p = 400u + 600v
sous les contraintes u + v 10000
u + 2v 16000
u 0, v 0.
(1.4)
Une analyse graphique fournit la solution optimale u = 4000 et v = 6000, ce qui corres-
pond `a un prix global p = 5200000. On remarque (nous verrons par la suite que ce nest pas
un hasard) que la solution optimale du probl`eme du concurrent (on parlera de probl`eme
dual, par opposition au probl`eme primal du fabriquant) correspond aux prix marginaux
du probl`eme du fabricant, et que le prix minimal que puisse proposer le concurrent est
egal au chire daaire maximal du fabricant.
5
Chapitre 2
Un probl`eme doptimisation lineaire
en dimension superieure
Dans ce chapitre, nous allons decrire un probl`eme de transport optimal assimilable `a
un probl`eme doptimisation lineaire en dimension 6. De ce fait, il ne sera plus possible de
le resoudre au moyen de la methode graphique du chapitre precedent.
Notre fabricant dautomobiles poss`ede trois chanes de montage M
1
, M
2
et M
3
, tandis
que son stock dacier provient de deux acieries A
1
et A
2
. Les co uts de transport dune
unite dacier dune acierie vers une usine de montage sont donnes par le tableau suivant :
M
1
M
2
M
3
A
1
9 16 28
A
2
14 29 19
Les besoins de production des chanes de montage di`erent, ainsi que les capacites de
production des acieries, et sont donnees par les deux tableaux suivants :
A
1
206
A
2
394
M
1
142
M
2
266
M
3
192
Il sagit donc pour le fabricant de determiner le plan de transport des unites dacier
produites vers les chanes de montage an de minimiser le co ut total de transport. Pour
i = 1, 2 et j = 1, 2, 3, notons x
ij
le nombre dunites dacier acheminees depuis lacierie A
i
vers la chane de montage M
j
. Le probl`eme de transport optimal peut alors secrire :
minimiser t = 9x
11
+16x
12
+28x
13
+14x
21
+29x
22
+19x
23
sous les contraintes x
11
+x
12
+x
13
206,
x
21
+x
22
+x
23
394,
x
11
+x
21
142,
x
12
+x
22
266,
x
13
+x
23
192,
x
11
, x
12
, x
13
, x
21
, x
22
, x
23
0.
Nous verrons par la suite quil est possible de traiter un tel probl`eme de mani`ere
systematique, par le biais dune reduction `a une forme standard suivie dun algorithme
6
qui porte le nom de methode du simplexe. Toutefois, dans ce cas precis, cela nous m`enerait
` a des manipulations trop fastidieuses pour etre realisees sans laide dun ordinateur. A
sa place, nous allons proceder ` a un certain nombre de remarques ad hoc qui vont nous
permettre de poursuivre les calculs ` a la main.
La remarque principale ici est que dans la mesure o` u la somme des capacites productions
des acieries (206 + 394 = 600) est egale ` a la somme des besoins de production des trois
chanes de montage (142 + 266 + 192 = 600), chacune des 5 premi`eres inegalites dans
le probl`eme doptimisation ci-dessus doit necessairement etre une egalite. Si on omet
momentanement de soccuper des contraintes x
ij
0 (i = 1, 2, j = 1, 2, 3), les contraintes
restantes se reduisent `a un syst`eme de 5 equations ` a 6 inconnues, que nous pouvons tenter
de resoudre par la methode du pivot de Gauss (cfr. Alg`ebre lineaire L1).
On recrit le sous-syst`eme des contraintes degalite sous la forme (on choisit lordre des
equation an de faciliter le pivot de Gauss) :
x
11
+x
21
= 142,
x
12
+x
22
= 266,
x
13
+x
23
= 192,
x
11
+x
12
+x
13
= 206,
x
21
+x
22
+x
23
= 394.
On echelonne ensuite (methode du tableau) :
_
_
_
_
_
_
1 0 0 1 0 0 [ 142
0 1 0 0 1 0 [ 266
0 0 1 0 0 1 [ 192
1 1 1 0 0 0 [ 206
0 0 0 1 1 1 [ 394
_
_
_
_
_
_

_
_
_
_
_
_
1 0 0 1 0 0 [ 142
0 1 0 0 1 0 [ 266
0 0 1 0 0 1 [ 192
0 1 1 1 0 0 [ 64
0 0 0 1 1 1 [ 394
_
_
_
_
_
_

_
_
_
_
_
_
1 0 0 1 0 0 [ 142
0 1 0 0 1 0 [ 266
0 0 1 0 0 1 [ 192
0 0 1 1 1 0 [ 202
0 0 0 1 1 1 [ 394
_
_
_
_
_
_

_
_
_
_
_
_
1 0 0 1 0 0 [ 142
0 1 0 0 1 0 [ 266
0 0 1 0 0 1 [ 192
0 0 0 1 1 1 [ 394
0 0 0 1 1 1 [ 394
_
_
_
_
_
_

_
_
_
_
1 0 0 1 0 0 [ 142
0 1 0 0 1 0 [ 266
0 0 1 0 0 1 [ 192
0 0 0 1 1 1 [ 394
_
_
_
_

_
_
_
_
1 0 0 0 1 1 [ 252
0 1 0 0 1 0 [ 266
0 0 1 0 0 1 [ 192
0 0 0 1 1 1 [ 394
_
_
_
_
.
La forme echelonnee laisse apparatre les variables x
22
et x
23
comme libres, desquelles on
deduit
x
21
= 394 x
22
x
23
,
x
13
= 192 x
23
,
x
12
= 266 x
22
,
x
11
= 252 + x
22
+ x
23
.
(2.1)
On exprime ensuite le co ut t uniquement en termes des variables libres x
22
et x
23
:
t = 9(252 + x
22
+x
23
) + 16(266 x
22
) + 28(192 x
23
)
+ 14(394 x
22
x
23
) + 29x
22
+ 19x
23
= 8x
22
14x
23
+ 12880.
(2.2)
7
An de minimiser t il est donc opportun de choisir x
23
le plus grand possible, et x
22
le
plus petit possible. Cest ` a ce niveau quil nous est necessaire de faire reapparatre les
contraintes x
ij
0 (i = 1, 2, j = 1, 2, 3), sans lesquelles t pourrait etre rendu aussi negatif
que souhaite. En examinant les equation (2.1), on se convainc assez rapidement que le
meilleur choix est obtenu en prenant x
23
= 192 (an de satisfaire mais saturer la contrainte
x
13
0), et ensuite x
22
= 60 (an de satisfaire mais saturer la contrainte x
11
0). On
propose alors la solution suivante
x
11
= 0,
x
12
= 206,
x
13
= 0,
x
21
= 142,
x
22
= 60,
x
23
= 192,
(2.3)
comme candidat ` a etre le transport optimal. Pour verier notre intuition, on choisit dex-
primer cette fois le syst`eme (2.1) uniquement en termes des variables x
11
et x
13
(on com-
prendra ce choix dans un instant), ce qui donne (on na en realite besoin que dexprimer
x
22
et x
33
puisquelles seules interviennent dans lexpression de t dans (2.2)) :
x
22
= 60 + x
11
+x
13
,
x
23
= 192 x
13
.
(2.4)
On obtient ainsi lexpression
t = 8x
22
14x
23
+ 12880
= 8(60 + x
11
+x
13
) 14(192 x
13
) + 12880
= 8x
11
+ 22x
13
+ 10672.
(2.5)
Comme x
11
0 et x
13
0 par contrainte, on a necessairement t 10672 quel que soit
le choix de x
ij
(i = 1, 2, j = 1, 2, 3) satisfaisant lensemble des contraintes. Par ailleurs, le
choix propose en (2.3) fournit t = 10672 et satisfait `a lensemble des contraintes. Il sagit
donc eectivement de la solution optimale.
Pour terminer cet exemple par une synth`ese, observons que nous sommes parvenus `a
recrire le probl`eme doptimisation initial sous la forme dun syst`eme lineaire augmente de
contraintes de positivite de toutes les variables. Nous avons ensuite determine le rang du
syst`eme lineaire en question et exprime de diverses mani`eres possibles (deux en loccur-
rence) la fonction ` a optimiser (ici t) en termes de variables libres pour ce syst`eme lineaire.
Nous nous sommes arretes lorsque les coecients des variables libres dans lexpression de
la fonction `a optimiser furent tous positifs ou nuls, et avons conclu que les egaler ` a zero
fournissait une solution assurement optimale.
Dans le chapitre qui suit, nous reprenons cette demarche de mani`ere un peu plus
systematique sur un exemple initialement en dimension 3.
8
Chapitre 3
Methode du simplexe : un apercu
par lexemple
Considerons le probl`eme doptimisation lineaire :
maximiser z = 5x
1
+4x
2
+3x
3
sous les contraintes 2x
1
+3x
2
+x
3
5,
4x
1
+x
2
+2x
3
11,
3x
1
+4x
2
+2x
3
8,
x
1
, x
2
, x
3
0.
(3.1)
An de se ramener ` a un syst`eme dequations plut ot que dinequations, on introduit les
variables decart x
4
, x
5
, x
6
et lon ecrit le probl`eme ci-dessus sous la forme
x
4
= 5 2x
1
3x
2
x
3
,
x
5
= 11 4x
1
x
2
2x
3
,
x
6
= 8 3x
1
4x
2
2x
3
,
z = 5x
1
+4x
2
+3x
3
,
(3.2)
avec pour but de maximiser z sous les contraintes additionnelles x
i
0, (i = 1, , 6). Il
est aise (et recommande) de verier que si (x
1
, x
2
, x
3
, x
4
, x
5
, x
6
) est une solution optimale
de ce dernier probl`eme, alors les (x
1
, x
2
, x
3
) correspondants constituent une solution op-
timale du probl`eme (3.1). Inversement, si (x
1
, x
2
, x
3
) est une solution optimale de (3.1),
alors (x
1
, x
2
, x
3
, 5 2x
1
3x
2
x
3
, 11 4x
1
x
2
2x
3
, 8 3x
1
4x
2
2x
3
) constitue une
solution optimale de (3.2).
Le syst`eme (3.2) poss`ede la solution (non optimale) (0, 0, 0, 5, 11, 8) (lusage est dap-
peler solution realisable tout choix de variables satisfaisant `a lensemble des contraintes
(cfr. le chapitre suivant)).
On observe que dans lexpression z = 5x
1
+4x
2
+3x
3
, une augmentation de x
1
entrane
une augmentation de z. Lidee premi`ere est alors daugmenter x
1
autant que possible (sans
modier ni x
2
ni x
3
) tant quaucune des variables decart x
4
, x
5
ou x
6
ne devient negative.
Le choix maximal est donc x
1
= min(5/2, 11/4, 8/3) = 5/2, lorsque x
4
devient nulle, et
qui fait passer ` a la solution realisable (5/2, 0, 0, 0, 3, 1/2).
On recrit le syst`eme (3.2) en exprimant cette fois (x
1
, x
5
, x
6
) (ainsi que z) en termes
9
de (x
2
, x
3
, x
4
), au moyen de lequation
x
1
=
5
2

3
2
x
2

1
2
x
3

1
2
x
4
.
Ceci donne, apr`es substitutions :
x
1
=
5
2

3
2
x
2

1
2
x
3

1
2
x
4
,
x
5
= 1 +5x
2
+2x
4
,
x
6
=
1
2
+
1
2
x
2

1
2
x
3
+
3
2
x
4
,
z =
25
2

7
2
x
2
+
1
2
x
3

5
2
x
4
.
(3.3)
Cette fois, on observe que dans lexpression z = 25/2 7/2x
2
+ 1/2x
3
5/2x
4
, une
augmentation de x
3
(cest ici le seul choix possible) entrane une augmentation de z.
A nouveau, on augmente donc x
3
autant que possible (sans modier ni x
2
ni x
4
) tant
quaucune des variables (dites variables en bases (cfr. Chapitre 5)) x
1
, x
5
ou x
6
ne devient
negative. Le choix maximal est donc x
3
= min((5/2)/(1/2), (1/2)/(1/2)) = 1, lorsque x
6
devient nulle, et qui fait passer `a la solution realisable (2, 0, 1, 0, 1, 0).
On recrit le syst`eme (3.3) en exprimant cette fois (x
1
, x
3
, x
5
) (ainsi que z) en termes
de (x
2
, x
4
, x
6
), au moyen de lequation
x
3
= 1 +x
2
+ 3x
4
2x
6
.
Ceci donne, apr`es substitutions :
x
1
= 2 2x
2
2x
4
+x
6
,
x
3
= 1 +x
2
+3x
4
2x
6
,
x
5
= 1 +5x
2
+2x
4
,
z = 13 3x
2
x
4
x
6
.
(3.4)
Puisque les coecients de x
2
, x
4
et x
6
intervenant dans lexpression de z ci-dessus sont
tous negatifs ou nuls, on deduit que la solution realisable
x
1
= 2,
x
2
= 0,
x
3
= 1,
x
4
= 0,
x
5
= 1,
x
6
= 0,
(3.5)
est une solution optimale, pour laquelle z = 13.
Avant de formaliser lalgorithme du simplexe, et den decouvrir les bases theoriques,
voyons une deuxi`eme methode pour laborder et qui consiste `a placer les calculs en tableau
(toutes les variables se retrouvant du meme c ote du signe degalite) plut ot que sous forme
dictionnaire comme ci-dessus. Lavantage de cette deuxi`eme facon de presenter les choses
(mais qui est bien s ur equivalente ` a la premi`ere) et quelle se rapproche plus de la methode
bien connue du pivot de Gauss.
10
Considerons donc maintenant le probl`eme doptimisation lineaire
maximiser z = x
1
+5x
2
+x
3
sous les contraintes x
1
+3x
2
+x
3
3,
x
1
+3x
3
2,
2x
1
+4x
2
x
3
4,
x
1
+3x
2
x
3
2,
x
1
, x
2
, x
3
0.
(3.6)
On introduit les variables decart x
4
, x
5
, x
6
, x
7
(il y a une contrainte supplementaire par
rapport au probl`eme precedent) et on recrit le probl`eme sous la forme
maximiser z = x
1
+5x
2
+x
3
sous les contraintes x
1
+3x
2
+x
3
+x
4
= 3,
x
1
+3x
3
+x
5
= 2,
2x
1
+4x
2
x
3
+x
6
= 4,
x
1
+3x
2
x
3
+x
7
= 2,
x
1
, x
2
, x
3
x
4
, x
5
, x
6
, x
7
0.
(3.7)
On adopte alors la notation sous forme de tableau :
1 3 1 1 0 0 0 [ 3
1 0 3 0 1 0 0 [ 2
2 4 1 0 0 1 0 [ 4
1 3 1 0 0 0 1 [ 2
1 5 1 0 0 0 0 [ 0
La derni`ere ligne du tableau correspond `a un expression possible de z comme fonction
ane des variables x
1
, , x
7
, loppose du terme constant se trouvant en bas `a droite du
tableau. On part de la solution realisable (0, 0, 0, 3, 2, 4, 2) et puisque le terme en x
1
dans
la derni`ere ligne du tableau (=1) est positif, on va augmenter x
1
(sans modier ni x
2
ni
x
3
) jusqu` a ce que lune des variables x
4
, x
5
, x
6
ou x
7
devienne nulle. Ceci se produit pour
x
1
= 2 pour lequel `a la fois x
6
et x
7
deviennent nuls. On choisit dont de faire rentrer x
1
en base, et de faire sortir (par exemple) x
6
. Cela donne
1 3 1 1 0 0 0 [ 3
1 0 3 0 1 0 0 [ 2
2 4 1 0 0 1 0 [ 4
1 3 1 0 0 0 1 [ 2
1 5 1 0 0 0 0 [ 0

1 3 1 1 0 0 0 [ 3
1 0 3 0 1 0 0 [ 2
1 2
1
2
0 0
1
2
0 [ 2
1 3 1 0 0 0 1 [ 2
1 5 1 0 0 0 0 [ 0

0 1
3
2
1 0
1
2
0 [ 1
0 2
5
2
0 1
1
2
0 [ 4
1 2
1
2
0 0
1
2
0 [ 2
0 1
1
2
0 0
1
2
1 [ 0
0 3
3
2
0 0
1
2
0 [ 2
et fournit une solution realisable pour laquelle x
1
= 2, x
4
= 1, x
5
= 4, x
7
= 0 (et les
variables hors base sont toujours nulles : x
2
= x
3
= x
6
= 0). Puisque le coecient de x
2
11
dans la nouvelle expression de z est positif, on fait ensuite rentrer x
2
en base, et on doit
faire sortir x
7
sans pouvoir en rien augmenter x
2
! Cela donne
0 1
3
2
1 0
1
2
0 [ 1
0 2
5
2
0 1
1
2
0 [ 4
1 2
1
2
0 0
1
2
0 [ 2
0 1
1
2
0 0
1
2
1 [ 0
0 3
3
2
0 0
1
2
0 [ 2

0 0 2 1 0 0 1 [ 1
0 0
7
2
0 1
3
2
2 [ 4
1 0
1
2
0 0
3
2
2 [ 2
0 1
1
2
0 0
1
2
1 [ 0
0 0 3 0 0 1 3 [ 2
et fournit la solution realisable (2, 0, 0, 1, 4, 0, 0). On fait ensuite rentrer x
3
en base (son
coecient dans lexpression de z vaut maintenant 3) et on fait sortir x
4
(qui sannule
lorsque x
3
= 1/2). Cela donne
0 0 2 1 0 0 1 [ 1
0 0
7
2
0 1
3
2
2 [ 4
1 0
1
2
0 0
3
2
2 [ 2
0 1
1
2
0 0
1
2
1 [ 0
0 0 3 0 0 1 3 [ 2

0 0 1
1
2
0 0
1
2
[
1
2
0 0
7
2
0 1
3
2
2 [ 4
1 0
1
2
0 0
3
2
2 [ 2
0 1
1
2
0 0
1
2
1 [ 0
0 0 3 0 0 1 3 [ 2

0 0 1
1
2
0 0
1
2
[
1
2
0 0 0
7
4
1
3
2

1
4
[
9
4
1 0 0 0 0
3
2

7
4
[
7
4
0 1 0
1
4
0
1
2
3
4
[
1
4
0 0 0
3
2
0 1
3
2
[
7
2
et fournit la solution realisable (
7
4
,
1
4
,
1
2
, 0, 0, 0, 0). On fait ensuite rentrer x
6
et sortir x
1
(qui sannule en premier lorsque lorsque x
6
=
7
6
). Cela donne
0 0 1
1
2
0 0
1
2
[
1
2
0 0 0
7
4
1
3
2

1
4
[
9
4
1 0 0 0 0
3
2

7
4
[
7
4
0 1 0
1
4
0
1
2
3
4
[
1
4
0 0 0
3
2
0 1
3
2
[
7
2

0 0 1
1
2
0 0
1
2
[
1
2
0 0 0
7
4
1
3
2

1
4
[
9
4
2
3
0 0 0 0 1
7
6
[
7
6
0 1 0
1
4
0
1
2
3
4
[
1
4
0 0 0
3
2
0 1
3
2
[
7
2

0 0 1
1
2
0 0
1
2
[
1
2
1 0 0
7
4
1 0
3
2
[
1
2
2
3
0 0 0 0 1
7
6
[
7
6
1
3
1 0
1
4
0 0
1
6
[
5
6

2
3
0 0
3
2
0 0
1
3
[
14
3
et fournit nalement la solution optimale (0,
5
6
,
1
2
, 0,
1
2
,
7
6
, 0) pour laquelle z =
14
3
.
12
Chapitre 4
Formes generale, canonique et
standard dun probl`eme
doptimisation lineaire
Dans ce chapitre, nous denissons la forme generale dun probl`eme doptimisation
lineaire, ainsi que la forme canonique et la forme standard. Nous montrons egalement
quun probl`eme sous forme generale peut etre transforme dabord en un probl`eme equivalent
sous forme canonique, puis enn sous un probl`eme equivalent sous forme standard. Dans
les chapitres qui suivront, nous nous restreindrons donc `a fournir un algorithme de
resolution pour les probl`emes sous forme standard.
Denition 4.1. On appelle probl`eme doptimisation lineaire sous forme generale un
probl`eme de la forme
maximiser F(X)
sous les contraintes X R
Q
, G
1
(X) 0, , G
P
(X) 0,
(4.1)
o` u P, Q N

, F : R
Q
R est une forme lineaire sur R
Q
et G
1
, , G
P
sont des
applications anes denies sur R
Q
et `a valeurs reelles. On dit que la fonction F est la
fonction objectif et que les fonctions G
1
, , G
P
sont les contraintes.
Remarque 4.2. On pourrait bien s ur traiter de mani`ere equivalente les probl`emes de
minimisation. Il ny a toutefois aucune perte de generalite `a ne traiter que les probl`emes de
maximisation. De fait, minimiser une fonctionnelle F revient `a maximiser la fonctionnelle
F. Dans le meme esprit, on pourrait considerer des contraintes de la forme G
i
(X) 0
ou meme G
i
(X) = 0. Dans le premier cas il sut alors de recrire la contrainte sous la
forme G
i
(X) 0, et dans le second de la dedoubler en deux contraintes : G
j
(X) 0 et
G
i
(X) 0.
Denition 4.3. On dit que X R
Q
est une solution realisable du probl`eme (4.1) si
X satisfait aux contraintes, autrement dit si G
1
(X) 0, , G
P
(X) 0. Lensemble T
de toutes les solutions realisables dun probl`eme doptimisation est appele son ensemble
realisable.
Denition 4.4. On dit que X R
Q
est une solution optimale du probl`eme (4.1) si
X est une solution realisable du probl`eme (4.1) et si de plus, quelle que soit la solution
13
realisable Y R
Q
du probl`eme (4.1) on a necessairement F(Y ) F(X). Autrement dit,
une solution realisable est optimale si elle maximise la fonction objectif sur lensemble
realisable.
Remarque 4.5. Anticipant un peu sur le Chapitre 12, on arme que lensemble T est
un poly`edre dans R
n
, cest-`a-dire une intersection nie de demi-espaces fermes de R
n
. Si
T est de plus borne (cela nest pas necessairement le cas), et puisque la fonction objectif
est une fonction continue, lexistence dau moins une solution optimale est alors garantie
par le theor`eme des bornes atteintes. Dans tous les cas, nous verrons que si la fonction
est majoree sur T, alors le probl`eme de maximisation a toujours au moins une solution.
Un meme probl`eme doptimisation lineaire peut se recrire de diverses mani`eres equivalentes
les unes aux autres. Parmi ces versions, nous distinguerons les formes canoniques et les
formes standards.
Denition 4.6. On appelle probl`eme doptimisation lineaire sous forme canonique un
probl`eme de la forme
maximiser

q
j=1
c
j
x
j
sous les contraintes

q
j=1
a
ij
x
j
b
i
(i = 1, , p),
x
j
0 (j = 1, , q),
(4.2)
o` u p, q N

, et o` u les c
j
(1 j q), les a
ij
(1 i p, 1 j q), et les b
i
(1 i p)
sont des constantes reelles.
En ecriture matricielle, un probl`eme sous forme canonique secrit donc
maximiser c
T
x
sous les contraintes Ax b,
x 0,
o` u c = (c
1
, , c
q
)
T
et (la variable) x = (x
1
, , x
q
)
T
sont des vecteurs colonnes ` a q
lignes, A = (a
ij
)
1ip,1jq
est une matrice `a p lignes et q colonnes, et b = (b
1
, , b
p
)
T
est un vecteur colonne ` a p lignes.
Il est immediat que tout probl`eme doptimisation lineaire sous forme canonique est
un probl`eme doptimisation lineaire sous forme generale. En eet, la fonction ` a maximi-
ser dans (4.2) est bien une forme lineaire, les contraintes x
j
0 secrivent de mani`ere
equivalente sous la forme G
j
(x) 0 avec G
j
(x) = x
j
qui est bien une fonction af-
ne, et enn les contraintes

q
j=1
a
ij
x
j
b
i
se recrivent sous la forme H
j
(x) 0 o` u
H
j
(x) =

q
j=1
a
ij
x
j
b
i
est egalement ane.
Nous allons montrer maintenant que la resolution de nimporte quel probl`eme dop-
timisation lineaire sous forme generale peut se ramener ` a la resolution dun probl`eme
doptimisation lineaire sous forme canonique. Pour ce faire, on recrit tout dabord (4.1)
sous la forme etendue (cest-` a-dire que lon rend explicite F et G
1
, , G
P
) :
maximiser

Q
l=1
f
l
X
l
sous les contraintes

Q
l=1
G
kl
X
l
B
k
0 (k = 1, , P).
(4.3)
14
On introduit alors les variables ctives X
+
1
, , X
+
Q
et X

1
, , X

Q
et on consid`ere le
probl`eme
maximiser

Q
l=1
f
l
(X
+
l
X

l
)
sous les contraintes

Q
l=1
G
kl
(X
+
l
X

l
) B
k
(k = 1, , P),
X
+
l
0, X

l
0 (l = 1 , Q).
(4.4)
Le probl`eme (4.4) est un probl`eme doptimisation lineaire sous forme canonique. En eet,
il sut de choisir p = P et q = 2Q et de poser (x
1
, , x
q
) := (X
+
1
, , X
+
Q
, X

1
, , X

Q
).
Le lecteur veriera que si (X
+
1
, , X
+
N
, X

1
, , X

N
) est une solution realisable (resp.
optimale) de (4.4), alors (X
+
1
X

1
, , X
+
Q
X

Q
) est une solution realisable (resp. opti-
male) de (4.3). Inversement, si (X
1
, , X
Q
) est une solution realisable (resp. optimale) de
(4.3), alors (X
+
1
, , X
+
Q
, X

1
, , X

Q
), o` u pour 1 l Q on a deni X
+
l
:= max(X
l
, 0)
et X

l
:= min(X
l
, 0), est une solution realisable (resp. optimale) de (4.4).
Denition 4.7. On appelle probl`eme doptimisation lineaire sous forme standard un
probl`eme de la forme
maximiser

n
j=1
c
j
x
j
sous les contraintes

n
j=1
a
ij
x
j
= b
i
(i = 1, , m),
x
j
0 (j = 1, , n),
o` u m, n N

, et o` u les c
j
(1 j n), les a
ij
(1 i m, 1 j n), et les b
i
(1 i m), sont des constantes reelles.
En ecriture matricielle, un probl`eme sous forme standard secrit donc
maximiser c
T
x
sous les contraintes Ax = b,
x 0,
o` u c = (c
1
, , c
n
)
T
et (la variable) x = (x
1
, , x
n
)
T
sont des vecteurs colonnes `a n
lignes, A = (a
ij
)
1im,1jn
est une matrice `a m lignes et n colonnes, et b = (b
1
, , b
m
)
T
est un vecteur colonne ` a m lignes.
Remarque 4.8. Sans perte de generalite, on peut supposer que dans un probl`eme sous
forme standard, les lignes de A sont lineairement independantes (si ce nest pas le cas soit
certaines contraintes sont redondantes, soit lensemble des contraintes est vide). Dans la
suite, lorsque nous parlerons de probl`eme sous forme standard, nous supposerons implici-
tement que les lignes de A sont lineairement independantes, autrement dit que
rang(A) = m,
ce qui implique egalement que n m.
A tout probl`eme doptimisation lineaire sous forme canonique, ont peut associer un
probl`eme doptimisation lineaire sous forme standard de la mani`ere suivante. Soit le
syst`eme sous forme canonique
maximiser

q
j=1
c
j
x
j
sous les contraintes

q
j=1
a
ij
x
j
b
i
(i = 1, , p),
x
j
0 (j = 1, , q).
(4.5)
15
On pose m = p et n = p +q, et on consid`ere le syst`eme
maximiser

q
j=1
c
j
x
j
sous les contraintes

q
j=1
a
ij
x
j
+x
q+i
= b
i
(i = 1, , m),
x
j
0 (j = 1, , n).
(4.6)
Il est aise (et cest un bon exercice) de verier que si le vecteur (x
1
, , x
q
)
T
est une
solution realisable (resp. optimale) du probl`eme (4.5), alors le vecteur
(x
1
, , x
n
)
T
:= (x
1
, , x
q
, b
1

j=1
a
1j
x
j
, , b
p

j=1
a
pj
x
j
)
T
est solution realisable (resp. optimale) du probl`eme (4.6). Inversement, si le vecteur
(x
1
, , x
q
, x
q+1
, , x
q+p
)
T
est solution realisable (resp. optimale) du probl`eme (4.6),
alors (x
1
, , x
q
)
T
est solution realisable (resp. optimale) du probl`eme (4.5). Le probl`eme
(4.6) peut se recrire sous forme matricielle comme
maximiser c
T
x
sous les contraintes

A x =

b,
x 0,
(4.7)
o` u x := (x
1
, , x
p+q
)
T
,
c
T
:= (c
1
, , c
q
, 0, , 0),

A :=
_
_
_
_
_
a
11
a
1q
1 0 0 0
a
21
a
2q
0 1 0 0
.
.
.
.
.
.
a
p1
a
pq
0 0 0 1
_
_
_
_
_
,

b := b.
De par sa structure particuli`ere (elle contient la matrice identite de taille q dans sa partie
droite), la matrice

A est necessairement de rang egal ` a m = q, quelle que soit A.
Denition 4.9. Dans la suite, nous dirons quun probl`eme doptimisation lineaire est
sous forme standard canonique sil est de la forme (4.7)
Remarque 4.10. Meme si les methodes presentees ci-dessus permettent de ramener de
mani`ere systematique nimporte quel probl`eme doptimisation lineaire sous forme generale
en des probl`emes doptimisation lineaire sous forme canonique ou standard, dans la pra-
tique il peut arriver (cetait le cas dans le chapitre precedent) que ce ne soit pas la plus
econome en nombre de variables. Dans ces cas, il est bien entendu plus avantageux duti-
liser la reduction rendant le probl`eme standard le plus compact possible (i.e. avec le moins
de contraintes ou le moins de variables possible).
16
Chapitre 5
Solutions de base dun probl`eme
sous forme standard
Dans ce chapitre, nous mettons en evidence certaines solutions realisables (dites de
base) pour un probl`eme doptimisation lineaire sous forme standard. Ces solutions se
reveleront susantes pour la recherche dune solution optimale.
Considerons le probl`eme doptimisation lineaire sous forme standard
maximiser c
T
x
sous les contraintes Ax = b,
x 0,
(5.1)
o` u c = (c
1
, , c
n
)
T
et (la variable) x = (x
1
, , x
n
)
T
sont des vecteurs colonnes `a n
lignes, A = (a
ij
)
1im,1jn
est une matrice `a m lignes et n colonnes veriant rang(A) =
m, et b = (b
1
, , b
m
)
T
est un vecteur colonne `a m lignes. Sans perte de generalite, on
peut supposer que n > m, car si n = m lensemble realisable contient au plus un point.
On note
A
1
:=
_
_
_
a
11
.
.
.
a
m1
_
_
_
, , A
k
=
_
_
_
a
1k
.
.
.
a
mk
_
_
_
, , A
n
=
_
_
_
a
1n
.
.
.
a
mn
_
_
_
,
les colonnes de la matrice A. Par hypoth`ese sur le rang de A, on peut trouver m colonnes
parmi A
1
, , A
n
qui soient lineairement independantes. En general, ce choix nest pas
unique. On note
:=
_
: 1, , m 1, , n strictement croissante
_
.
Pour , on note A

la matrice carree de taille m


A

=
_
A
(1)
, , A
(m)
_
=
_
_
_
a
1(1)
a
1(m)
.
.
.
.
.
.
a
m(1)
a
m(m)
_
_
_
.
Finalement, on denit
B :=
_
t.q. rang(A

) = m
_
.
17
Remarque 5.1. On a bien s ur
B =
n!
m!(n m)!
.
Pour chaque , on note lunique application strictement croissante de 1, , n
m dans 1, , n telle que

_
1, , m
_

_
1, , n m
_
= 1, , n
(autrement dit, fournit en ordre croissant les indices complementaires ` a ceux atteints
par ).
Denition 5.2. Etant xe un choix de B, on dit que les variables x
(1)
, , x
(m)
sont les variables en base (pour ), tandis que les variables x
(1)
, , x
(nm)
sont les
variables hors base (pour ).
Pour x R
n
et B, on note
x
B
:=
_
x
(1)
, , x
(m)
_
T
, x
N
:=
_
x
(1)
, , x
(nm)
_
T
.
On note aussi
c
B
:=
_
c
(1)
, , c
(m)
_
T
, c
N
:=
_
c
(1)
, , c
(nm)
_
T
,
et enn
B := A

, N := A

.
On remarque alors que le syst`eme Ax = b se recrit sous la forme
Bx
B
+Nx
N
= b,
qui est equivalent, puisque B est inversible lorsque B, au syst`eme
x
B
= B
1
b B
1
Nx
N
. (5.2)
Denition 5.3. On appelle solution de base du syst`eme Ax = b associee au choix de base
B la solution x

denie par
x

B
= B
1
b, x

N
= (0, , 0).
Denition 5.4. (Solution de base realisable) On dit que la solution de base x

du syst`eme
Ax = b associee au choix de base B est une solution de base realisable si de
plus elle verie les contraintes de (5.1), cest-`a-dire si toutes les composantes de x

sont
positives. Dans ce cas, on dit aussi que la base est une base realisable, et on note
1 lensemble des bases realisables. On dit que la solution de base realisable x

est non
degeneree si toutes les composantes de x

B
sont strictement positives.
Corollaire 5.5. Etant xee B, pour x R
n
solution realisable quelconque de (5.1),
on a
x
B
= x

B
B
1
Nx
N
, et c
T
x = c
T
x

+ d
T
x,
o` u le vecteur d est deni par les relations
d
T
N
= c
T
N
c
T
B
B
1
N
et
d
T
B
= (0, , 0).
18
Demonstration. La premi`ere egalite decoule de mani`ere directe de la denition de x

.
Pour la seconde, on ecrit
c
T
x = c
T
B
x
B
+c
T
N
x
N
et lon substitue x
B
par B
1
b B
1
Nx
N
. Ceci donne
c
T
x = c
T
B
B
1
b+
_
c
T
N
c
T
B
B
1
N
_
x
N
= c
T
B
x

B
+
_
c
T
N
c
T
B
B
1
N
_
x
N
= c
T
x

+
_
c
T
N
c
T
B
B
1
N
_
x
N
,
do` u la conclusion.
Denition 5.6. On dit que le vecteur d est le vecteur des prix marginaux associe `a
la base .
Remarque 5.7. La terminologie pour vecteur des prix marginaux apparatra plus claire-
ment dans le Chapitre 10 lorsque nous aborderons les probl`emes duaux ; il serait en fait
plus juste dattribuer ce nom `a d plutot qu`a d. Cette notion a ete vaguement esquissee
dans le premier chapitre, lorsque nous avons evoque le probl`eme du concurrent.
Proposition 5.8. Soit une base realisable et x

la solution de base associee `a . Si le


vecteur des prix marginaux d na que des composantes negatives, alors x

est une solution


optimale du probl`eme (5.1).
Demonstration. Si x est une solution realisable quelconque de (5.1), on a par le Corollaire
5.5
c
T
x = c
T
x

+d
T
N
x
N
c
T
x

.
De fait, le produit matriciel d
T
N
x
N
est negatif puisque les composantes de d (et donc d
N
)
sont supposees negatives et celles de x
N
positives (car x est realisable).
La remarque qui suit est ` a la base de la technique du tableau (cfr. Chapitre 3) pour
limplementation de la methode du simplexe.
Remarque 5.9. On peut transformer le probl`eme 5.1 en le probl`eme equivalent suivant
maximiser z
sous les contraintes Ax = b,
c
T
x +z = 0,
x 0, z 0,
(5.3)
o` u z est une variable scalaire reelle (positive). Ce dernier probl`eme peut se recrire sous
la forme matricielle
maximiser c
T
x
sous les contraintes

A x =

b,
x 0,
(5.4)
o` u x
T
:= (x
1
, , x
n
, z), c
T
= (0, , 0, 1), et o` u

A :=
_
A 0
c
T
1
_
et

b :=
_
b
0
_
.
Si : 1, , m 1, , n est un element de B alors : 1, , m + 1
1, , n + 1 denie par (j) = (j) si j 1, , m et (m + 1) = n + 1 est
19
telle que les colonnes

A
(1)
, ,

A
(m+1)
sont lineairement independantes. Par analogie
avec les notations utilisees plus haut, on notera

B =

A

= (

A
(1)
, ,

A
(m+1)
),
qui est par consequent une matrice carree inversible de taille m + 1. On remarque que le
syst`eme

A x =

b est equivalent au syst`eme

B
1

A x =

B
1

b,
et on explicite ensuite lexpression de

B
1

A et

B
1

b. On a

B =
_
B 0
c
T
B
1
_
do` u

B
1
=
_
B
1
0
c
T
B
B
1
1
_
,
et donc

B
1

A =
_
B
1
0
c
T
B
B
1
1
__
A 0
c
T
1
_
=
_
B
1
A 0
c
T
c
T
B
B
1
A 1
_
=
_
B
1
A 0
d
T
1
_
,
et

B
1

b =
_
B
1
b
C
T
B
B
1
b
_
.
Finalement, pour chaque i 1, , m,
(B
1
A)
(i)
= (0, , 0, 1, 0, , 0)
T
,
o` u lunique 1 est place en i`eme position.
20
Chapitre 6
Pivot `a partir dune solution de base
realisable : crit`ere de Dantzig
Au chapitre precedent, nous avons associe `a tout choix de base B une solution de
base x

, et nous avons fournit un crit`ere (la Proposition 5.8) permettant de sassurer que
x

soit une solution optimale.


Dans ce chapitre, nous presentons une methode permettant, etant donne un choix
de base B pour laquelle la solution de base x

est realisable mais le crit`ere de la


Proposition 5.8 nest pas verie, de determiner un autre choix de base B dont la
solution de base associee y

est realisable et verie de plus


c
T
y

c
T
x

.
Cette methode op`ere au moyen dun pivot, au sens o` u les ensembles (1, , m) et
(1, , m) ne di`erent que par un element.
Reprenons donc le probl`eme doptimisation lineaire sous forme standard (5.1) du cha-
pitre precedent :
maximiser c
T
x
sous les contraintes Ax = b,
x 0,
o` u n > m N

, c = (c
1
, , c
n
)
T
et (la variable) x = (x
1
, , x
n
)
T
sont des vecteurs
colonnes ` a n lignes, A = (a
ij
)
1im,1jn
est une matrice ` a m lignes et n colonnes veriant
rang(A) = m, et b = (b
1
, , b
m
)
T
est un vecteur colonne ` a m lignes.
Soit B, x

la solution de base du syst`eme Ax = b associee `a et supposons que


x

soit realisable mais que lune au moins des composantes du vecteur d soit strictement
positive.
On note
E

:=
_
j 1, , n m t.q. d
(j)
> 0
_
.
(par construction on a necessairement d
(i)
= 0 pour tout i 1, , m)
Supposons J E

xe (nous verrons dierents crit`eres pour ce faire ci-dessous). On


denit lensemble
S
,J
:=
_
i 1, , m t.q. (B
1
N)
iJ
> 0
_
.
21
Lemme 6.1. Si S
,J
= alors le probl`eme doptimisation (5.1) na pas de solution opti-
male car la fonction objectif nest pas bornee superieurement sur lensemble realisable.
Demonstration. Soit t > 0 xe quelconque. On denit le vecteur x R
n
par les relations
x
(j)
= 0 si j 1, , n m J,
x
(J)
= t,
x
(i)
= x

(i)
t(B
1
N)
iJ
si i 1, , m.
Par construction,
x
B
= x

B
B
1
Nx
N
,
de sorte que
Ax = b.
De plus, puisque t 0, puisque x

est realisable, et puisque (B


1
N)
iJ
0 pour tout
i 1, , m par hypoth`ese, on a
x 0,
et on deduit donc que x est une solution realisable. Enn, on a
c
T
x = c
T
x

+td
(J)
.
Comme t 0 etait quelconque et que d
(J)
> 0, on deduit que la fonction objectif nest
pas bornee superieurement sur lensemble realisable.
Supposons maintenant que la fonction objectif soit bornee superieurement sur len-
semble realisable et xons I S
,J
(l` a aussi nous verrons dierents crit`eres de choix par
la suite). Dans tous les cas, on a
Lemme 6.2. Soit lunique application strictement croissante de 1, , m dans 1, , n
telle que

_
1, , m
_
=
_
1, , m
_

_
I
_

_
J
_
.
Alors B.
(Autrement dit les colonnes de A associees aux variables en base obtenues en faisant
sortir de la base initiale la variable x
(I)
et en y faisant rentrer la variable x
(J)
sont
lineairement independantes.
Demonstration. Par denition des matrices B et N (pour la base ), on a
A
(J)
=
m

i=1
(B
1
N)
iJ
A
(i)
.
Puisque (B
1
N)
IJ
> 0 (et donc ,= 0) par hypoth`ese sur I, et puisque la famille (A
(i)
)
1im
est une base de R
m
, on deduit que A
(J)
nest pas combinaison lineaire des seuls A
(i)
avec
i 1, , m I. Il sensuit que denit une famille de m vecteurs libres de R
m
, et
donc que B par denition de B.
22
Lemme 6.3. (Crit`ere de Dantzig) Sous les hypoth`ese du lemme precedent, si de plus
x

(I)
(B
1
N)
IJ
= t
J
:= min
iS
,J
x

(i)
(B
1
N)
iJ
alors est une base realisable. De plus, si y

designe la solution de base realisable associee


`a la base , alors
c
T
y

c
T
x

,
linegalite etant stricte si t
J
,= 0.
Demonstration. On proc`ede de mani`ere assez semblable `a la demonstration du Lemme
6.1. Soit y R
n
deni par
y
(j)
= 0 si j 1, , n m J,
x
(J)
= t
J
,
y
(i)
= x

(i)
t
J
(B
1
N)
iJ
si i 1, , m.
Par construction,
y
B
= x

B
B
1
Ny
N
,
de sorte que
Ay = b.
Aussi, par denition de t
J
on a
y 0
et on deduit donc que y est une solution realisable. De plus
y
(I)
= x

(I)
t
J
(B
1
N)
IJ
= 0,
et par construction
y
(j)
= 0 si j 1, , n m J.
Il sensuit que, relativement `a la base ,
y
N
= 0.
Par consequent, y = y

est lunique solution de base (on sait quelle est aussi realisable)
associee ` a la base , et on a
c
T
y

= c
T
y = c
T
x

+ d
(J)
t
J
c
T
x

,
linegalite etant stricte si t
J
> 0.
Dans la methode presentee ci-dessus, et permettant de passer de la base realisable ` a
la base realisable , il se peut que les indices J puis I des variables entrantes puis sortantes
ne soient pas determines de mani`ere unique (si E

nest pas reduit `a un element, et si


le maximum t
J
est atteint pour plusieurs indices I). Dans ces cas, et avec loptique par
exemple de rendre la methode algorithmique (et donc deterministe) en vue de la program-
mer sur un ordinateur, il faut y adjoindre un ou des crit`eres additionnels permettant de
determiner I et J de mani`ere univoque. Nous allons decrire deux tels crit`eres (on peut
imaginer beaucoup dautres variantes) :
23
Denition 6.4 (Crit`ere naturel). On appelle variable entrante selon le crit`ere naturel la
variable x
(J)
telle que
d
(J)
= max
jE

d
(j)
et J = min
jE

,d
(j)
=d
(J)
j.
(autrement dit la variable sortante est dans ce cas une de celles associees aux plus grands
coecients positifs de d, et parmi celles-ci celle de plus petit indice)
On appelle variable sortante selon le crit`ere naturel la variable x
(I)
telle que
I = min
_
i S
,J
t.q.
x

(i)
(B
1
N)
iJ
= t
J
_
.
(autrement dit la variable entrante est dans ce cas celle de plus petit indice parmi les
variables satisfaisant au crit`ere de Dantzig etant donnee la variable entrante J)
Denition 6.5 (Crit`ere de Bland). On appelle variable entrante selon le crit`ere de Bland
la variable x
(J)
telle que
J = min
jE

j.
(autrement dit la variable sortante est dans ce cas celle associee au premier coecient
strictement positif de d)
On appelle variable sortante selon le crit`ere de Bland la variable x
(I)
telle que
I = min
_
i S
,J
t.q.
x

(i)
(B
1
N)
iJ
= t
J
_
.
(autrement dit la variable entrante est dans ce cas celle de plus petit indice parmi les
variables satisfaisant au crit`ere de Dantzig etant donnee la variable entrante J)
24
Chapitre 7
Non cyclicite sous le crit`ere de Bland
Le chapitre precedent nous fournit une (en realite deux suivant que lon applique le
crit`ere naturel ou celui de Bland) methode pour passer dune base realisable ` a une
base realisable tout en augmentant (au sens non strict) la fonction objectif. Puisquil
ny a quun nombre ni de bases realisables (au plus C
m
n
), les iterees de cette methode
nous conduiront assurement `a une solution optimale `a condition que la fonction objectif
soit majoree et que nous puissions demontrer que lalgorithme ne cycle pas, cest-`a-dire
quaucune des bases realisables obtenues par les dierentes iterations ne peut etre egale
` a la base initiale . Cette condition nest pas veriee en general pour le crit`ere naturel (il
existe un cel`ebre contre-exemple du ` a Beale (1955)). A linverse, Bland (1974) `a demontre
que la cyclicite est proscrite suivant son crit`ere :
Theor`eme 7.1. (Bland) Literation de la methode du Chapitre 6 avec le crit`ere de Bland
garantit la non-cyclicite des bases realisables produites, et par consequent atteint une
solution optimale en un nombre ni detapes si la fonction objectif est majoree.
Demonstration. La demonstration se fait par labsurde et nest pas des plus eclairantes.
On la fournit neanmoins par souci de completude. Supposons donc que literation de la
methode engendre un cycle. Cela implique bien s ur que la fonction objectif soit constante
tout au long du cycle, et donc qu` a chaque etape on ait t
J
= 0, de sorte que la solution
de base x

est elle aussi constante tout au long du cycle. Appelons K le plus grand indice
(parmi 1, , m) pour lequel la variable x
K
se retrouve ` a la fois en base et hors base
dans deux iterations dierentes du cycle. Appelons aussi la base realisable correspondant
` a une etape du cycle (que nous xons) o` u x
K
est appelee `a rentrer en base, et la base
realisable correspondant ` a une etape du cycle (que nous xons) o` u x
K
est appelee ` a sortir
de la base.
Faisant reference `a la remarque 5.9 du Chapitre 5, on augmente le syst`eme Ax = b en
le syst`eme

A x =

b, que lon recrit sous les deux formes equivalentes

B
1

A x =

B
1

b et

B
1

A x =

B
1

b,
o` u B

et B

se ref`erent ` a la matrice B du Chapitre 5 suivant que lon choisit ou comme


base realisable. De plus,

B
1

A =
_
B
1

A 0
d
T

1
_
et

B
1

A =
_
B
1

A 0
d
T

1
_
.
25
On note 1 le sous-espace vectoriel de R
n+1
engendre par les lignes de

A. Une premi`ere
remarque importante est que puisque B

et B

sont inversibles, 1 est aussi le sous-espace


vectoriel engendre par les lignes de

B
1

A ou par celles

B
1

A. En particulier, on a
h :=
_
d
T

1
_
1. (7.1)
De plus, par denition de K et de , et en vertu du crit`ere de Bland,
(d

)
k
0, k < K,
(d

)
K
> 0.
(7.2)
Venons en maintenant ` a letape correspondant ` a la base . Puisque x
K
est destinee `a
sortir de la base ` a cette etape, en particulier x
K
est en base `a ce moment, et on peut donc
ecrire K = (I) pour un certain I 1, , m. Soit x
E
la variable destinee ` a rentrer en
base ` a letape correspondant ` a la base . Par denition de K on a donc E K et dautre
part
(d

)
E
> 0, et (B
1

A)
IE
> 0. (7.3)
On denit le vecteur f R
n+1
par
f
(i)
:= (

B
1

A)
iE
i 1, , m,
f
E
:= 1,
f
n+1
:= (d

)
E
,
les autres composantes de f etant nulles.
On pretend que quel que soit i 1, , m+ 1, on a
n+1

l=1
(

B
1

A)
il
f
l
= 0,
autrement dit le vecteur f est orthogonal `a lespace vectoriel engendre par les lignes de

B
1

A, cest-`a-dire 1. En eet, pour 1 i m on a, par denition de f,


n+1

l=1
(

B
1

A)
il
f
l
=
m

j=1
(B
1

A)
i(j)
f
(j)
+ (B
1

A)
iE
f
E
= (B
1

A)
i(i)
f
(i)
(B
1

A)
iE
= 0,
o` u on a utilise le fait que (B
1

A)
i(j)
=
ij
(symbole de Kronecker). Dautre par, pour
i = m+ 1 on a
n+1

l=1
(

B
1

A)
il
f
l
=
m

j=1
(d

)
(j)
f
(j)
+ (d

)
E
f
E
+f
n+1
= 0 (d

)
E
+ (d

)
E
= 0,
o` u on a ici utilise le fait que (d

)
(j)
0.
Comme h 1 et f 1

, on deduit que
n+1

l=1
h
l
f
l
= 0.
26
Pour l = n +1, on a h
n+1
f
n+1
= (d

)
E
> 0 par (7.3), et par consequent il existe au moins
un indice L 1, , n pour lequel h
L
f
L
< 0. En particulier, h
L
,= 0 et donc x
L
est une
variable hors base . Aussi, f
L
,= 0, et par consequent ou bien x
L
est une variable en base
ou bien L = E. Dans lun ou lautre cas, on conclut que x
L
est une variable qui rentre
et sort de la base ` a dierentes etapes du cycle, et par denition de K cela implique que
L K. Enn, h
K
= (d

)
K
> 0 par (7.2) et f
K
= (B
1

A)
IE
> 0 par (7.3). Il sensuit que
L < K. D`es lors h
L
= (d

)
L
0 par (7.2), do` u on deduit que h
L
< 0, et nalement que
f
L
> 0. Comme f
E
= 1 on ne peut donc avoir L = E, et dun argument precedent on
conclut que x
L
est une variable en base pour (rappelons que x
L
est `a linverse hors base
, et donc que x

L
= 0). D`es lors, si L = (J), on a alors `a letape correspondant ` a la base
,
(B
1

A)
JE
> 0 car f
L
> 0,
x

(J)
= 0 car x

(J)
= x

L
,
L < K.
Le crit`ere de Bland nous interdit alors de faire sortir la variable x
K
, ce qui constitue la
contradiction cherchee.
27
Chapitre 8
Determination dune premi`ere
solution de base realisable
Le Chapitre 6 nous a fourni un moyen de passer dune base realisable `a une autre
base realisable plus avantageuse du point de vue de la fonction objectif. Il nous reste
neanmoins ` a determiner, en vue dinitialiser la methode, comment obtenir une premi`ere
base realisable. Ceci constitue lobjet du chapitre present.
Considerons un probl`eme doptimisation lineaire sous forme canonique :
maximiser c
T
x
sous les contraintes Ax b,
x 0,
(8.1)
o` u c = (c
1
, , c
q
)
T
et (la variable) x = (x
1
, , x
q
)
T
sont des vecteurs colonnes ` a q
lignes, A = (a
ij
)
1ip,1jq
est une matrice `a p lignes et q colonnes, et b = (b
1
, , b
p
)
T
est un vecteur colonne ` a p lignes.
Denition 8.1. On dit que le probl`eme sous forme canonique (8.1) est un probl`eme de
premi`ere esp`ece si toutes les composantes du vecteur b sont positives. Dans le cas inverse,
ou si le probl`eme nest pas sous forme canonique, on dit quil sagit dun probl`eme de
deuxi`eme esp`ece.
Comme indique au Chapitre 4, au probl`eme (8.1) ont peut associer un probl`eme
equivalent sous forme standard : on explicite (8.1) comme
maximiser

q
j=1
c
j
x
j
sous les contraintes

q
j=1
a
ij
x
j
b
i
(i = 1, , p),
x
j
0 (j = 1, , q),
(8.2)
on pose m = p et n = p + q, et on consid`ere le syst`eme
maximiser

q
j=1
c
j
x
j
sous les contraintes

q
j=1
a
ij
x
j
+x
q+i
= b
i
(i = 1, , m),
x
j
0 (j = 1, , n).
(8.3)
Ce dernier probl`eme se recrit sous forme matricielle comme
maximiser c
T
x
sous les contraintes

A x =

b,
x 0,
(8.4)
28
o` u x = (x
1
, , x
p+q
)
T
,
c
T
= (c
1
, , c
q
, 0, , 0),

A =
_
_
_
_
_
a
11
a
1q
1 0 0 0
a
21
a
2q
0 1 0 0
.
.
.
.
.
.
a
p1
a
pq
0 0 0 1
_
_
_
_
_
,

b = b.
De par la forme de

A, on obtient directement le
Lemme 8.2. Si toutes les composantes de b sont positives (i.e. si le probl`eme sous forme
canonique est de premi`ere esp`ece), alors le probl`eme sous forme standard (8.3) poss`ede
comme base realisable celle obtenue en ne retenant en base que les m variables decart.
Demonstration. En eet, en posant (1, , m) = n m + 1, , n, on sapercoit
que

B :=

A

nest autre que la matrice identite de taille m (en particulier B), et par
consequent
x

B
= (

B)
1

b =

b = b
na que des composantes positives. La conclusion suit alors la denition de base realisable,
puisque dautre part par construction x

N
= (0, , 0).
Venons en maintenant au cas general dun syst`eme de deuxi`eme esp`ece. Nous com-
mencons par le cas dun syst`eme sous forme standard (nous savons que tout probl`eme
doptimisation peut se ramener sous cette forme). Nous verrons ensuite une deuxi`eme
mani`ere de proceder, moins gourmande en nombre de variables additionnelles, qui sap-
plique lorsque lon part dun syst`eme sous forme canonique de deuxi`eme esp`ece.
Soit donc le probl`eme doptimisation lineaire sous forme standard
maximiser c
T
x
sous les contraintes Ax = b,
x 0,
(8.5)
o` u c = (c
1
, , c
n
)
T
et (la variable) x = (x
1
, , x
n
)
T
sont des vecteurs colonnes `a n
lignes, A = (a
ij
)
1im,1jn
est une matrice ` a m lignes et n colonnes, de rang egal `a m,
et b = (b
1
, , b
m
)
T
est un vecteur colonne ` a m lignes.
Sans perte de generalite, on peut supposer que toutes les composantes de b sont
positives, sinon il sut de les multiplier, ainsi que les lignes correspondantes de A, par 1
(ce qui revient ` a remplacer une egalite entre deux quantites par legalite de leurs quantites
opposees, ce qui est bien s ur equivalent).
On introduit alors la variable ctive y = (y
1
, , y
m
)
T
R
m
et on consid`ere le
probl`eme doptimisation lineaire
maximiser y
1
y
2
y
m
sous les contraintes Ax + y = b,
x, y 0.
(8.6)
29
Notons que la fonction objectif de ce dernier probl`eme na aucun lien avec la
fonction objectif du probl`eme de depart. Par contre, si le probl`eme (8.5) poss`ede
une solution realisable, alors le maximum du probl`eme (8.6) est egal ` a zero, et inverse-
ment. Lavantage du probl`eme (8.6) est quil poss`ede, comme dans le cas des probl`emes
de premi`ere esp`ece, une solution de base realisable evidente donnee par (x
1
, , x
n
) =
(0, , 0) et (y
1
, , y
m
) = (b
1
, b
m
) (do` u le choix decrire le syst`eme de depart avec b
nayant que des composantes positives). Literation de la methode du chapitre 6 appliquee
` a (8.6) permet par consequent de sassurer si le maximum de (8.6) vaut 0, auquel cas le
sommet optimal auquel se nit lalgorithme determine une solution realisable de (8.5) et
literation de la methode du chapitre 6 peut alors etre appliquee directement `a (8.5). Si
par contre le maximum de (8.6) est strictement negatif, alors lensemble realisable de (8.5)
est vide et par consequent il est vain de tenter de resoudre (8.5).
Revenons maintenant au cas dun probl`eme sous forme canonique
maximiser c
T
x
sous les contraintes Ax b,
x 0,
(8.7)
que lon a transforme via les variables decart en le probl`eme sous forme standard cano-
nique
maximiser c
T
x
sous les contraintes

A x =

b,
x 0,
(8.8)
o` u x := (x
1
, , x
p+q
)
T
,
c
T
:= (c
1
, , c
q
, 0, , 0),

A :=
_
_
_
_
_
a
11
a
1q
1 0 0 0
a
21
a
2q
0 1 0 0
.
.
.
.
.
.
a
p1
a
pq
0 0 0 1
_
_
_
_
_
,

b := b,
et faisons lhypoth`ese que b poss`ede au moins une composante strictement negative (de
sorte que le probl`eme soit de deuxi`eme esp`ece). Plut ot que dintroduire p nouvelles va-
riables comme dans le procede ci-dessus, on en introduit une seule (appelons la x
p+q+1
)
et on consid`ere le probl`eme dinitialisation
maximiser x
p+q+1
sous les contraintes

x = b,

x 0,
(8.9)
o` u

x := (x
1
, , x
p+q+1
)
T
et

A =
_
_
_
_
_
a
11
a
1q
1 0 0 0 1
a
21
a
2q
0 1 0 0 1
.
.
.
.
.
.
.
.
.
a
p1
a
pq
0 0 0 1 1
_
_
_
_
_
.
30
Comme plus haut, le probl`eme (8.8) poss`ede une solution de base realisable si et seulement
si le maximum du probl`eme (8.9) est egal `a zero. Ce dernier probl`eme poss`ede une solution
de base realisable relativement facile ` a determiner. Pour ce faire, soit i
0
1, , p un
indice tel quel
b
i
0
= min
i{1, ,p}
b
i
< 0.
On pretend quen choisissant pour variables en base les variables x
q
+ 1, , x
q+p+1

x
p+i
0
on obtient une base realisable. En eet, les variables hors base etant xees ` a zero,
le syst`eme (8.9) se ram`ene `a
x
p+q+1
= b
i
0
(se lit dans la ligne i
0
),
x
p+i
= b
i
+x
p+q+1
(pour tout i ,= i
0
).
Ainsi, x
p+q+1
> 0 par denition de i
0
et aussi
x
p+i
= b
i
b
i
0
0
pour tout i ,= i
0
. La suite de lanalyse suit alors les memes lignes que ci-dessus dans le
cas dun probl`eme sous forme standard quelconque.
31
Chapitre 9
Description algorithmique de la
methode du simplexe
Dans ce chapitre, on traduit sous forme algorithmique la methode developpee dans
les chapitres precedents an de resoudre un probl`eme doptimisation lineaire que lon
supposera (le Chapitre 4 nous garantit que cela nenl`eve aucune generalite) sous forme
standard :
maximiser c
T
x
sous les contraintes Ax = b,
x 0,
(9.1)
o` u c = (c
1
, , c
n
)
T
et (la variable) x = (x
1
, , x
n
)
T
sont des vecteurs colonnes `a n
lignes, A = (a
ij
)
1im,1jn
est une matrice ` a m lignes et n colonnes, de rang egal `a m,
et b = (b
1
, , b
m
)
T
est un vecteur colonne ` a m lignes de composantes toutes positives.
Etape 1 : Soit on connat une base realisable pour (9.1), auquel cas on passe ` a letape
2, soit on nen connat pas et consid`ere alors le probl`eme (8.6) du Chapitre 8 pour lequel
on dispose dune base realisable evidente. On passe alors ` a letape 2 pour ce dernier
probl`eme, et on laisse momentanement en suspend la resolution de (9.1).
Etape 2 : On dispose dune base realisable. Si le vecteur des prix marginaux pour
cette base realisable na que des composantes negatives, la solution de base realisable
correspondant ` a la base realisable courante est un optimum pour le probl`eme en question,
on passe alors directement ` a lEtape 3. Sinon, on applique la methode decrite dans le
Chapitre 6. Celle-ci permet soit de determiner que le probl`eme doptimisation en question
nest pas majore (cfr. Lemme 6.1), auquel cas on passe directement ` a lEtape 4, soit
de determiner une nouvelle base realisable meilleure (au sens non strict) concernant la
fonction objectif. Dans ce dernier cas, on applique par defaut le crit`ere naturel pour le
choix des variables entrantes et sortantes, sauf si celui-ci conduit ` a une augmentation non
stricte de la fonction objectif, auquel cas on applique le crit`ere de Bland. On retourne
ensuite en debut dEtape 2 avec cette nouvelle base realisable.
Etape 3 : On dispose dune solution optimale pour le probl`eme en question. Sil sagit
du probl`eme initial (9.1), on passe `a lEtape 6. Sil sagit du probl`eme (8.6), ou bien
le maximum est strictement negatif, auquel cas le probl`eme (9.1) poss`ede un ensemble
realisable vide et on passe ` a lEtape 5, ou bien le maximum est egal `a zero, ce qui fournit
une base realisable pour (9.1), et on retourne ` a lEtape 1.
32
Etape 4 : On sort de lalgorithme avec la conclusion que la fonction objectif du
probl`eme doptimisation 9.1 nest pas majoree sur lensemble realisable.
Etape 5 : On sort de lalgorithme avec la conclusion que lensemble realisable du
probl`eme doptimisation 9.1 est vide.
Etape 6 : On sort de lalgorithme avec une solution optimale.
Il est vivement conseille au lecteur de tenter dimplementer lalgorithme ci-dessus dans
son langage de programmation prefere. La procedure en question recevra en entree la
matrice A ainsi que les vecteurs b et c et fournira en sortie une solution optimale (sil en
existe, sinon elle en indiquera lune des deux raisons possibles) ainsi que la valeur optimale
de la fonction objectif.
33
Chapitre 10
Dualite en programmation lineaire
Considerons ` a nouveau un probl`eme doptimisation lineaire sous forme canonique
maximiser

q
j=1
c
j
x
j
sous les contraintes

q
j=1
a
ij
x
j
b
i
(i = 1, , p),
x
j
0 (j = 1, , q),
(10.1)
o` u p, q N

, et o` u les c
j
(1 j q), les a
ij
(1 i p, 1 j q), et les b
i
(1 i p)
sont des constantes reelles.
A supposer que (10.1) poss`ede au moins une solution optimale x

, la methode du
simplexe permet, `a chacune de ses etapes, dobtenir (et dameliorer) une borne inferieure
sur la valeur optimale c
T
x

de la fonction objectif.
Une question naturelle, mais qui va dans la direction opposee, est celle de savoir sil
est possible dobtenir une borne superieure sur la valeur c
T
x

, et cela sans etre oblige de


parcourir lalgorithme du simplexe jusqu`a ce quil aboutisse ` a une solution optimale. De
fait, on peut imaginer que dans certains cas on puisse etre interesse `a encadrer avec plus
ou moins de precision la valeur c
T
x

, sans toutefois requerir sa valeur exacte (par exemple


si les calculs sont co uteux ou si le temps est compte).
Pour ce faire, partons des p contraintes dinegalites
q

j=1
a
ij
x
j
b
i
(i = 1, , p),
et faisons en une somme ponderee au moyen de p coecients positifs y
i
:
p

i=1
y
i
_
q

j=1
a
ij
x
j
_

i=1
y
i
b
i
.
En recrivant le terme de gauche de linegalite precedente, on obtient
q

j=1
_
p

i=1
a
ij
y
i
_
x
j

p

i=1
y
i
b
i
,
de sorte que si
p

i=1
a
ij
y
i
c
j
(j = 1, , q), (10.2)
34
alors necessairement pour toute solution realisable x (x
1
, , x
q
) de (10.1) on a
q

j=1
c
j
x
j

p

i=1
y
i
b
i
.
En particulier,
c
T
x

b
T
y
quel que soit y (y
1
, , y
p
) veriant (10.2) et tel que y 0. Autrement dit, pour obtenir
une borne superieure sur la valeur optimale de la fonction objectif du probl`eme (10.1), il
sut de connatre une solution realisable du probl`eme dual de (10.1), que nous denissons
plus formellement maintenant :
Denition 10.1 (Probl`eme primal et dual). Le probl`eme dual de (10.1) est le probl`eme
minimiser

p
i=1
b
i
y
i
sous les contraintes

p
i=1
a
ij
y
i
c
j
(j = 1, , q),
y
i
0 (i = 1, , p).
(10.3)
On dit aussi que (10.1) est le probl`eme primal de (10.3).
Remarquons que sous forme matricielle, les probl`emes primal et dual secrivent donc
maximiser c
T
x
sous les contraintes Ax b,
x 0,

minimiser b
T
y
sous les contraintes A
T
y c,
y 0.
Remarquons aussi que le probl`eme dual est equivalent au probl`eme doptimisation lineaire
sous forme canonique
maximiser (b)
T
y
sous les contraintes (A)
T
y c,
y 0,
loptimum du second etant egal ` a loppose de loptimum du premier
1
. D`es lors, on peut
appliquer au probl`eme dual tout ce que nous avons developpe jusquici concernant le
probl`eme primal, en particulier lalgorithme du simplexe, ce qui permet dej` a de donner
une reponse `a la question evoquee en tete de chapitre.
Finalement, remarquons que puisque le probl`eme dual (10.3) est lui-meme (equivalent ` a)
un probl`eme primal, on peut considerer son probl`eme dual ` a lui aussi. On sapercoit de
suite que ce dernier nest autre que le probl`eme primal du depart, autrement dit le dual
du probl`eme dual est egal au probl`eme primal qui est donc aussi un probl`eme dual !
Repetant alors largumentaire nous ayant conduit ` a la denition 10.1, on obtient di-
rectement le
Theor`eme 10.2. Si x est une solution realisable du probl`eme primal (10.1), et y une
solution realisable du probl`eme dual (10.3), alors necessairement
c
T
x b
T
y.
En particulier, si c
T
x = b
T
y alors x est une solution optimale du primal et y est une
solution optimale du dual.
1. En eet, cela suit la formule classique max
y
(f(y)) = min
y
(f(y)) avec f(y) = b
T
y.
35
Corollaire 10.3. Si la fonction objectif du probl`eme primal est non majoree sur son
ensemble realisable, alors le probl`eme dual ne poss`ede aucune solution realisable. Inverse-
ment, si la fonction objectif du probl`eme dual est non minoree sur son ensemble realisable,
alors le probl`eme primal ne poss`ede aucune solution realisable.
Attention au fait que les reciproques des enonces du Corollaire 10.3 sont fausses en
general.
Un resultat plus dicile est le theor`eme de dualite suivant
Theor`eme 10.4 (Theor`eme de dualite de Gale, Kuhn et Tucker). Le probl`eme
primal (10.1) poss`ede une solution optimale x

si et seulement si le probl`eme dual (10.3)


poss`ede une solution optimale y

. Dans ce cas, on a necessairement


q

j=1
c
j
x

j
=
p

i=1
b
i
y

i
.
Demonstration. Au vu du Theor`eme 10.2, et de la remarque sur le dual du dual, il sut
de montrer que si x

(x

1
, , x

q
) est une solution optimale du probl`eme primal, alors
il existe une solution realisable y

(y

1
, , y

p
) du dual pour laquelle
q

j=1
c
j
x

j
=
p

i=1
b
i
y

i
.
Partant donc du probl`eme primal
maximiser

q
j=1
c
j
x
j
sous les contraintes

q
j=1
a
ij
x
j
b
i
(i = 1, , p),
x
j
0 (j = 1, , q),
introduisons les p variables decart
x
q+i
:= b
i

j=1
a
ij
x
j
, (i = 1, , p),
et recrivons le probl`eme primal sous forme standard
maximiser

q
j=1
c
j
x
j
sous les contraintes

q
j=1
a
ij
x
j
+x
q+i
= b
i
(i = 1, , p),
x
j
0 (j = 1, , q +p),
(10.4)
ou sous forme matricielle
maximiser c
T
x
sous les contraintes

A x =

b,
x 0,
36
avec (cfr. Chapitre 4)
x = ( x
1
, , x
q
, x
q+1
, , x
q+p
),
c
T
= (c
1
, , c
q
, 0, , 0),

A =
_
_
_
_
_
a
11
a
1q
1 0 0 0
a
21
a
2q
0 1 0 0
.
.
.
.
.
.
a
p1
a
pq
0 0 0 1
_
_
_
_
_
,

b = b.
Appelons la base realisable pour (10.4) correspondant `a la solution optimale x

=
(x

1
, , x

q
, b
1

q
j=1
a
1j
x

j
, , b
p

q
j=1
a
pj
x

j
), et soit

d (d
1
, , d
q
, d
q+1
, , d
q+p
) le
vecteur des prix marginaux correspondants. Alors pour toute solution (non necessairement
realisable) x de (10.4) on a
c
T
x = c
T
x

+

d
T
x = c
T
x

+
q

j=1
d
j
x
j
+
p

i=1
d
q+i
_
b
i

j=1
a
ij
x
j
_
=
_
c
T
x

i=1
b
i
(d
q+i
)
_
+
q

j=1
_
d
j

p

i=1
a
ij
d
q+i
_
x
j
.
(10.5)
En choisissant pour x lunique solution pour laquelle x
1
= = x
q
= 0 on obtient de
(10.5)
c
T
x

=
p

i=1
b
i
(d
q+i
). (10.6)
En choisissant pour x lunique solution pour laquelle x
1
= = x
q
= 0 sauf pour un
certain j 1, , q pour lequel x
j
= 1, on obtient, par (10.5) et en tenant compte de
(10.6),
d
j

p

i=1
a
ij
d
q+i
= c
j
. (10.7)
Par ailleurs, puisque x

est une solution optimale, necessairement le vecteur des prix mar-


ginaux

d en cette solution est negatif. Dautre part j 1, , q a ete choisi quelconque.
Ainsi, de (10.7) on obtient
p

i=1
a
ij
(d
q+i
) = c
j
d
j
c
j
, j = 1, , q. (10.8)
Il sensuit que le vecteur y

(y

1
, , y

p
) := (d
q+1
, , d
q+p
) est une solution
realisable du probl`eme dual (10.3), et par (10.6) on a
c
T
x

= b
T
y

,
ce qui termine la demonstration.
La demonstration du theor`eme precedent permet egalement darmer le
37
Corollaire 10.5 (Solution optimale du dual et prix marginaux). Si le probl`eme
primal (10.1) poss`ede une solution optimale x

, et si

d (d
1
, , d
q
, d
q+1
, , d
q+p
)
designe le vecteur des prix marginaux pour la base realisable correspondant `a x

, alors
une solution optimale du probl`eme dual (10.3) est fournie par
(y

1
, , y

p
) := (d
q+1
, , d
q+p
).
Theor`eme 10.6 (Prix marginaux et probl`eme dual). Supposons que le probl`eme
primal (10.1) poss`ede une solution optimale x

non degeneree.
2
Alors il existe > 0 tel
que si les variations t
1
, , t
p
des contraintes verient la condition de petitesse
[t
i
[ i 1, , p,
loptimum du probl`eme primal modie
maximiser

q
j=1
c
j
x
j
sous les contraintes

q
j=1
a
ij
x
j
b
i
+t
i
(i = 1, , p),
x
j
0 (j = 1, , q),
(10.9)
est encore atteint et est donne par
c
T
x

+
p

i=1
t
i
y

i
,
o` u (y

1
, , y

p
) designe une (en fait lunique) solution optimale du probl`eme dual (10.3).
Demonstration. Le probl`eme dual de (10.9) est donne par
minimiser

p
i=1
(b
i
+ t
i
)y
i
sous les contraintes

p
i=1
a
ij
y
i
c
j
(j = 1, , q),
y
i
0 (i = 1, , p).
(10.10)
La variation des contraintes du primal se traduit donc par une variation de la fonction
objectif du dual, mais les contraintes du dual ne sont pas modiees. En particulier, les
solutions de base realisables de (10.10) et de (10.3) sont identiques. Par hypoth`ese, x

est non-degeneree, et par consequent y

est lunique solution optimale de (10.3). En eet,


le corollaire precedent (utilise en renversant le role du primal et du dual) implique que
les prix marginaux du dual correspondant aux variables decart du dual sont donnes par
x

, et sont donc tous strictement negatifs, il sensuit que loptimum du dual est atteint
et uniquement atteint en y

. Puisque y

est lunique solution optimale de (10.3), il existe


r > 0 tel que
p

i=1
b
i
y

i

p

i=1
b
i
y
i
+r
quelle que soit la solution de base realisable (y
1
, , y
p
) de (10.3) (et donc de (10.10))
dierente de y

. Par continuite et nitude (il ny a quun nombre ni de solutions de base


realisables), on deduit alors quil existe > 0 tel que
p

i=1
(b
i
+ t
i
)y

i
>
p

i=1
(b
i
+t
i
)y
i
2. On rappelle quune solution de base est dite non degeneree si aucune des composantes correspondant
aux variables en base nest nulle.
38
quelle que soit la solution de base realisable (y
1
, , y
p
) de (10.10) dierente de y

, et
quels que soient t
1
, , t
p
veriant [t
i
[ pour chaque i 1, , p. En particulier,
pour de tels t
i
le probl`eme dual (10.10) poss`ede un optimum dont la valeur est donnee par

p
i=1
(b
i
+ t
i
)y

i
. Le Theor`eme de dualite 10.4 assure alors que (10.9) poss`ede egalement
un optimum, dont la valeur optimale, egale ` a celle du dual (10.10), est donnee par
p

i=1
(b
i
+ t
i
)y

i
=
p

i=1
b
i
y

i
+
p

i=1
t
i
y

i
=
q

j=1
c
j
x

j
+
p

i=1
t
i
y

i
= c
T
x

+ +
p

i=1
t
i
y

i
.
Ceci termine la demonstration.
Il est conseille au lecteur de relire la partie du premier chapitre consacree au probl`eme
du concurrent `a la lumi`ere du Corollaire precedent.
Remarque 10.7 (Sur le choix du primal ou du dual pour lapplication de lalgo-
rithme du simplexe). Dans certains cas, il est plus interessant dappliquer lalgorithme
du simplexe `a un probl`eme dual (ou pl utot `a sa forme standard associee) plutot quau
probl`eme primal. Considerons en eet un primal ayant p = 1000 contraintes pour seule-
ment q = 100 inconnues. La forme standard associee au primal (apr`es introduction des
variables decart) aura m = 1000 contraintes pour n = p + q = 1100 inconnues. Lalgo-
rithme du simplexe dans ce cas necessite `a chaque etape de resoudre un syst`eme de taille
1000 1000. A linverse, le probl`eme dual poss`ede p = 100 contraintes pour q = 1000
inconnues. Le probl`eme standard qui lui est associe poss`ede donc m = 100 contraintes
pour n = p + q = 1100 inconnues. Lalgorithme du simplexe dans ce deuxi`eme cas ne
necessite plus donc `a chaque etape que de resoudre un syst`eme de taille 100 100, ce
qui constitue un gain enorme. En resume, il est donc preferable de considerer en priorite
la version (primale ou duale) qui poss`ede le moins de contraintes.
Theor`eme 10.8 (Theor`eme des ecarts complementaires). Soient x (x
1
, , x
q
)
et y = (y
1
, , y
p
) deux solutions realisables respectivement du probl`eme primal (10.1)
et du probl`eme dual (10.3). Une condition necessaire et susante pour que x et y soient
optimaux simultanement est que
j 1, , q, si x
j
> 0 alors
p

i=1
a
ij
y
i
= c
j
et
i 1, , p, si y
i
> 0 alors
q

j=1
a
ij
x
j
= b
i
.
(10.11)
Demonstration. Elle reprend le schema du debut de chapitre concernant les bornes superieures
et inferieures sur la fonction objectif.
Puisque x est une solution realisable du primal et que y 0,
p

i=1
_
q

j=1
a
ij
x
j
_
y
i

p

i=1
b
i
y
i
.
39
Inversement, puisque y est une solution realisable du dual et que x 0,
q

j=1
_
p

i=1
a
ij
y
i
_
x
j

q

j=1
c
j
x
j
.
Par ailleurs, en developpant on obtient bien s ur que
p

i=1
_
q

j=1
a
ij
x
j
_
y
i
=
q

j=1
_
p

i=1
a
ij
y
i
_
x
j
.
Ainsi,
q

j=1
c
j
x
j

q

j=1
_
p

i=1
a
ij
y
i
_
x
j
=
p

i=1
_
q

j=1
a
ij
x
j
_
y
i

p

i=1
b
i
y
i
. (10.12)
Nous pouvons maintenant demontrer la condition necessaire. Si x et y sont optimales,
alors par le Theor`eme de dualite on a

q
j=1
c
j
x
j
=

p
i=1
b
i
y
i
et par consequent chacune
des deux inegalites de (10.12) est une egalite. Les inegalites de (10.11) sensuivent.
Inversement pour la condition susante. Si les inegalites de (10.11) sont veriees, alors
les deux inegalites de (10.12) sont des egalites et par consequent

q
j=1
c
j
x
j
=

p
i=1
b
i
y
i
.
Il sensuit du Theor`eme 10.2 que x et y sont optimales.
Corollaire 10.9. Soit x une solution realisable du probl`eme primal. Alors x est opti-
male si et seulement si il existe une solution realisable y du probl`eme dual pour laquelle

q
j=1
a
ij
x
j
= b
i
pour tout i veriant y
i
> 0 et

p
i=1
a
ij
y
i
= c
j
pour tout j veriant x
j
> 0.
40
Chapitre 11
Rappels de geometrie ane
Denition 11.1 (Sous-espace ane). Un sous-ensemble non vide F de R
n
est appele
un sous-espace ane si
x, y F, R, x + (1 )y F.
Proposition 11.2. On a les proprietes elementaires suivantes :
1. Si F
1
, F
2
sont deux sous-espaces anes de R
n
et
1
,
2
deux reels, alors
1
F
1
+
2
F
2
est un sous-espace ane de R
n
.
2. Si F
1
, F
2
sont deux sous-espaces anes de R
n
, alors F
1
F
2
est un sous-espace ane
de R
n
.
3. Si F est un sous-espace ane de R
n
et f : R
n
R
m
est une application ane, i.e.
f(x) = Ax + b pour certains A R
mn
et b R
m
, alors f(F) est un sous-espace
ane de R
m
.
Denition 11.3 (Espace vectoriel associe et dimension). Soit F un sous-espace
ane de R
n
. Lespace vectoriel associe `a F est deni par
lin(F) := v R
n
[ x F, x +v F .
La dimension de F est la dimension (au sens des espaces vectoriels) de son espace vectoriel
associe.
Denition 11.4 (Independance ane). On dit que les points x
1
, , x
k
de R
n
sont
anement independants si quels que soient les reels
1
, ,
k
veriant
k

j=1

j
= 0,
si
k

j=1

j
x
j
= 0
alors necessairement
1
= =
k
= 0.
Lemme 11.5. Les points x
1
, , x
k
de R
n
sont anement independants si et seulement
si les vecteurs x
2
x
1
, , x
k
x
1
sont lineairement independants.
41
Demonstration. Pour la condition necessaire, si
2
, ,
k
sont tels que
k

j=2

j
(x
j
x
1
) = 0,
alors
k

j=1

j
x
j
= 0
o` u
j
:=
j
pour j 2, , k et

1
:=
k

j=2

j
.
En particulier, puisque

k
j=1

j
= 0, on deduit de lindependance ane des x
j
que
j
= 0
pour tout j 1, , k et donc aussi que
j
= 0 pour tout j 2, , k.
Pour la condition susante, si
1
, ,
k
sont tels que
k

j=1

j
x
j
= 0
alors
1
=

k
j=2

j
et donc
k

j=2

j
(x
j
x
1
) = 0.
Il suit de lindependance vectorielle des (x
j
x
1
) que
j
= 0 pour tout j 2, , l, et
donc aussi que
1
=

k
j=2

j
= 0.
Corollaire 11.6. Un sous-espace ane F est de dimension k si et seulement si le nombre
maximal de points anement independants quil contient est egal `a k + 1.
Demonstration. Si F est de dimension k, et si e
1
, , e
k
est une base de lin(F), alors au vu
du lemme precedent quel que soit x F les k+1 points x, xe
1
, , xe
k
sont anement
independants. Inversement, si x
1
, , x
k+1
sont k + 1 points anements independants
dans F, alors les k vecteurs x
2
x
1
, , x
k+1
x
1
sont lineairement independants et
appartiennent ` a lin(F). Il sensuit que lin(F) est de dimension superieure ou egale `a k.
La conclusion suit ces deux implications.
Denition 11.7 (Combinaison ane). Soient x
1
, , x
k
un nombre ni de points de
R
n
, et
1
, ,
k
des reels tels que
k

j=1

j
= 1.
On dit que
x :=
k

j=1

j
x
j
42
est une combinaison ane des points x
1
, , x
k
.
Plus generalement, si S R
n
est un sous-ensemble quelconque, on dit que x R
n
est
une combinaison ane de points de S sil existe un nombre ni de points de S dont x
soit une combinaison ane.
Proposition 11.8. Un sous-ensemble F de R
n
est un sous-espace ane si et seulement
si il contient toutes les combinaisons anes de points de F.
Demonstration. La condition susante est immediate, puisque la condition intervenant
dans la Denition 11.1 ne fait intervenir autre-chose quune combinaison ane ` a deux
elements. Pour la condition susante, on peut utiliser une recurrence sur le nombre
delements intervenant dans la combinaison ane. En eet, si lon suppose que toute
combinaison ane dau plus k elements de F est dans F, et si x :=

k+1
j=1

j
x
j
est une
combinaison ane de k + 1 elements de F (sentend donc

k+1
j=1
= 1), alors on a (on
peut supposer que tous les
j
sont non nuls sinon il sagit dune combinaison ` a au plus k
elements)
x =
1
x
1
+ (1
1
)
_
k+1

j=2

j
1
1
x
j
_
.
Or,
k+1

j=2

j
1
1
= 1,
et d`es lors par hypoth`ese de recurrence
y :=
k+1

j=2

j
1
1
x
j
F.
Finalement, puisque F est ane x =
1
x
1
+ (1
1
)y F et la demonstration est
compl`ete.
Pour un ensemble quelconque S R
n
, on peut considerer le plus petit sous-espace
ane le contenant, cest la notion suivante denveloppe ane.
Denition 11.9 (Enveloppe ane). Lenveloppe ane dun sous-ensemble S de R
n
est lensemble de toutes les combinaisons anes de points de S. On la note a(S).
Proposition 11.10. Lenveloppe ane de S R
n
est un sous-espace ane, cest le plus
petit sous-espace ane contenant S.
Demonstration. Si un sous-espace ane contient F, alors par la Proposition 11.8 il contient
toutes les combinaisons anes de points de F, cest-` a-dire a(F). Pour conclure, il suf-
t donc de montrer que a(F) est un sous-espace ane. Soit x :=

k
j=1

j
x
j
a(F)
(sentend que x
j
F et

j
= 1), y :=

i=1

i
y
i
a(F) (sentend que y
i
F et

i
= 1), et R. Alors
x + (1 )y =
k

j=1

j
x
j
+

i=1
(1 )
i
y
i
a(F)
43
puisque

k
j=1

j
x
j
+

i=1
(1)
i
= +(1) = 1. [Plus generalement, on montrerait de
meme que toute combinaison ane de combinaisons anes est une combinaison ane]
Theor`eme 11.11 (Caratheodory). Si S est un sous-ensemble de R
n
, tout point de
a(S) peut secrire comme une combinaison ane de points de S anement independants.
Demonstration. Soit x =

k
j=1

j
x
j
un point de a(F), o` u sans perte de generalite on
suppose que tous les
j
sont non nuls. Si les x
j
ne sont pas anement independants, lun
dentre eux (quitte `a les renumeroter on peut supposer quil sagit de x
k
) peut secrire
comme combinaison ane des k 1 autres :
x
k
=
k1

i=1

i
x
i
avec
k1

i=1

i
= 1.
D`es lors,
x =
k1

j=1
(
j
+
k

j
) x
j
et

k1
j=1
(
j
+
k

j
) = 1, de sorte que x secrit comme combinaison ane dau plus
k 1 points de F. Si les points x
1
, , x
k1
ne sont pas anement independants, on
recommence la procedure ci-dessus, et ainsi de suite. Au bout dun nombre ni detapes
(au plus k 1 puisquune famille dun seul point est bien s ur anement independante)
on aboutit necessairement `a la th`ese.
Denition 11.12 (Dimension). La dimension dun sous-ensemble non vide S de R
n
,
notee dim(S), est la dimension de son enveloppe ane (au sens de la Denition 11.3).
Denition 11.13 (Hyperplan ane). Un hyperplan ane de R
n
est un sous-espace
ane de dimension n 1.
Proposition 11.14. Tout hyperplan ane de R
n
est de la forme
H H
a,r
:= x R
n
[ a, x = r
o` u a R
n

et r R.
Demonstration. Etant donne un hyperplan ane H, il sut de choisir pour a un vecteur
de norme unite dans H

et de poser r := dist(H, 0), o` u dist se ref`ere ` a la distance


signee dans la direction de a.
Un hyperplan ane de R
n
determine deux demi-espaces de R
n
:
H
+
H
+
a,r
:= x R
n
[ a, x r
et
H

a,r
:= x R
n
[ a, x r .
On a
H = H
+
H

.
44
Chapitre 12
Ensembles convexes, polytopes et
poly`edres
12.1 Proprietes algebriques
Denition 12.1 (Ensemble convexe). Un sous-ensemble C de R
n
est dit convexe si
x, y C, [0, 1], x + (1 )y C.
Dans la suite, par abus de langage et lorsque cela nam`ene aucune ambigute, on parlera
simplement dun convexe ou dun convexe de R
n
pour designer un sous-ensemble convexe
de R
n
.
Dun point de vue geometrique, un convexe est donc un ensemble qui, lorsquil contient
deux points, contient necessairement le segment les reliant.
Proposition 12.2. On a les proprietes elementaires suivantes :
1. Si C
1
, C
2
sont deux convexes de R
n
et
1
,
2
deux reels, alors
1
C
1
+
2
C
2
est un
convexe de R
n
.
2. Si (C
j
)
jJ
est une famille quelconque de convexes de R
n
, alors
jJ
C
j
est un convexe
de R
n
.
3. Si C est un convexe de R
n
et f : R
n
R
m
est une application ane, i.e. f(x) =
Ax +b pour certains A R
mn
et b R
m
, alors f(C) est un convexe de R
m
.
Denition 12.3 (Combinaison convexe). Soient x
1
, , x
k
un nombre ni de points
de R
n
, et
1
, ,
k
des reels tels que

j
0 j = 1, , k et
k

j=1

j
= 1.
On dit que
x :=
k

j=1

j
x
j
est une combinaison convexe des points x
1
, , x
k
.
45
Plus generalement, si S R
n
est un sous-ensemble quelconque, on dit que x R
n
est
une combinaison convexe de points de S sil existe un nombre ni de points de S dont x
soit une combinaison convexe.
Dans le cas particulier de deux points x
1
et x
2
, toute combinaison convexe des x
1
, x
2
peut secrire sous la forme
x = x
1
+ (1 )x
2
, [0, 1],
qui intervient dans la Denition 12.1 ci-dessus.
Proposition 12.4. Un sous-ensemble C de R
n
est convexe si et seulement si il contient
toutes les combinaisons convexes de points de C.
Demonstration. Elle est en tout point similaire ` a celle correspondante de la Proposition
11.8. Cfr. TD 9.
Lorsquun ensemble S R
n
nest pas convexe, on peut considerer le plus petit ensemble
convexe le contenant, cest la notion importante suivante denveloppe convexe.
Denition 12.5 (Enveloppe convexe). Lenveloppe convexe dun sous-ensemble S de
R
n
est lintersection de tous les sous-ensembles convexes de R
n
contenant S. Lenveloppe
convexe de S est par consequent le plut petit sous-ensemble convexe de R
n
qui contienne
S, on le note conv(S).
Proposition 12.6. On a la denition equivalente : conv(S) est lensemble de toutes les
combinaisons convexes de points de S.
Demonstration. Elle est tr`es similaire ` a celle correspondante de la Proposition 11.10. Cfr.
TD 9.
Theor`eme 12.7 (Caratheodory bis). Soit S R
n
. Nimporte quel point de conv(S)
peut secrire comme combinaison convexe de points de S anement independants (et par
consequent en nombre inferieur n + 1).
Demonstration. Soit x =

k
j=1

j
x
j
un point de conv(S), o` u sans perte de generalite
on suppose que tous les
j
sont strictement positifs. Si les x
j
ne sont pas anement
independants, il existe des coecients
j
tels que :
k

j=1

j
x
j
= 0 avec
k

j=1

j
= 1.
En particulier, au moins un des coecients
j
est strictement positif. Pour 0 quel-
conque, on peut donc aussi ecrire
x =
k

j=1
(
j

j
) x
j
.
On choisit pour la valeur
:= min

j
[
j
> 0.
46
Par construction, au moins un des coecients
j

j
est nul, les autres restant compris
entre 0 (par denition de ) et 1 (puisque tous sont positifs et leur somme totale valant 1).
On obtient ainsi une expression de x comme combinaison convexe dau plus k 1 points
de S. Si ces k1 points ne sont pas anement independants, on recommence la procedure
ci-dessus, et ainsi de suite. Au bout dun nombre ni detapes (au plus k 1 puisquune
famille dun seul point est bien s ur anement independante) on aboutit necessairement
` a la th`ese.
Les cones convexes jouent un role particulier dans letude des convexes non bornes :
Denition 12.8. Un sous-ensemble

C de R
n
est un cone convexe si
x
1
, x
2


C,
1
,
2
R
+
,
1
x
1
+
2
x
2


C.
Denition 12.9 (Combinaison positive). Soient x
1
, , x
k
un nombre ni de points
de R
n
, et
1
, ,
k
des reels positifs. On dit alors que
x :=
k

j=1

j
x
j
est une combinaison positive des points x
1
, , x
k
.
Plus generalement, si S R
n
est un sous-ensemble quelconque, on dit que x R
n
est
une combinaison positive de points de S sil existe un nombre ni de points de S dont x
soit une combinaison positive.
Proposition 12.10. Un sous-ensemble

C de R
n
est un cone convexe si et seulement si
il contient toutes les combinaisons positives de points de

C.
Demonstration. Elle est tr`es similaire ` a celle correspondante de la Proposition 11.8. Cfr.
TD 9.
Denition 12.11 (Enveloppe conique). Lenveloppe conique dun sous-ensemble S de
R
n
est lensemble de toutes les combinaisons positives de points de S. On la note c one (S).
Proposition 12.12. Lenveloppe conique dun sous-ensemble S de R
n
est un cone convexe,
cest le plus petit cone convexe contenant S.
Demonstration. Elle est tr`es similaire ` a celle correspondante de la Proposition 11.10. Cfr.
TD 9.
Theor`eme 12.13 (Caratheodory ter). Soit S R
n
. Nimporte quel point de c one(S)
peut secrire comme combinaison positive de points de S lineairement independants (et
par consequent en nombre inferieur n).
Demonstration. Elle est tr`es similaire ` a celle correspondante du Theor`eme 12.7 ci-dessus.
Cfr. TD 9.
47
12.2 Proprietes topologiques
Lemme 12.14. On a les proprietes elementaires suivantes :
1. Si C est un convexe de R
n
, son adherence

C est un convexe de R
n
.
2. Si C est un convexe de R
n
, son interieur

C est un convexe de R
n
.
Pour letude des ensembles convexes, il est commode dadopter la notion de topologie
relative : celle-ci qui nest autre que la topologie au sens usuel, mais consideree dans le
plus petit sous-espace ane comprenant lensemble en question, autrement dit dans son
enveloppe ane.
Denition 12.15. Soit S un sous-ensemble quelconque de R
n
, linterieur relatif de S est
lensemble
int
r
(S) := x S [ > 0, B(x, ) a(S) S .
Bien s ur, on a toujours

S int
r
(S). Pour un ensemble convexe, on a de plus
Lemme 12.16. Si C est un convexe de R
n
, son interieur relatif int
r
(C) est un convexe
de R
n
. De plus, si C nest pas vide, alors int
r
(C) non plus.
Demonstration. Soient x
1
, x
2
deux points de int
r
(C) et (0, 1). Par hypoth`ese, il existe

1
> 0 tel que B(x
1
,
1
) a(C) C et
2
> 0 tel que B(x
2
,
2
) a(C) C. Par
inegalite triangulaire, et en posant := min(
1
,
2
), on montre facilement que
B(x
1
+ (1 )x
2
, ) = B(x
1
, ) + (1 )B(x
2
, )
et par consequent
B(x
1
+ (1 )x
2
, ) a(C) C.
Il sensuit que int
r
(C) est convexe. Montrons maintenant quil est non vide, si C ne lest
pas. Soit k := dim(C). Si k = 0 alors C est reduit ` a un point, de meme que a(C), et la
conclusion suit. Si k 1, soient x
1
, , x
k+1
k + 1 points anement independants dans
C et soit
x :=
k+1

j=1
1
k + 1
x
k
C.
On pretend que x int
r
(C). En eet, si > 0 et si y B(x, ) a(C) alors puisque les
vecteurs x
2
x
1
, , x
k+1
x
1
forment une base de lin(a(C)), on peut decomposer
y x =
k+1

j=2

j
(x
j
x
j
)
o` u pour une constante C positive (toutes les normes sont equivalents en dimension nie)
[
j
[ C pour chaque j. D`es lors,
y =
_
1
k + 1

k+1

j=2

j
_
x
1
+
k+1

j=2
_
1
k + 1
+
j
_
x
j
.
Si est susamment petit, (
1
k+1

k+1
j=2

j
) (0, 1) tout comme (
1
k+1
+
j
) et on conclut
que y int
r
(C). La conclusion suit.
48
Denition 12.17. Soit S un sous-ensemble quelconque de R
n
, le bord relatif de S est
lensemble
bd
r
(S) :=

S int
r
(S).
Lemme 12.18. Soit C un convexe de R
n
, x
1
int
r
(C) et x
2


C. Alors quel que soit
(0, 1), x
1
+ (1 )x
2
int
r
(C).
Demonstration. Par hypoth`ese, il existe > 0 tel que B(x, ) a(C) C. Supposons
dans un premier temps que x
2
C. Par inegalite triangulaire, pour tout (0, 1) on
obtient
B(x + (1 )y, ) B(x, ) + (1 )y C.
Il sensuit que x + (1 )y int
r
(C). Supposons maintenant que y

C. Soit (y

)
N
une suite dans C qui converge vers y. Par la premi`ere partie, on obtient que pour chaque
,B(x + (1 )y

, ) C. Mais pour susamment grand,


B(x + (1 )y,

2
) B(x + (1 )y

, )
et par consequent la conclusion suit egalement.
Corollaire 12.19. Soit C un convexe de R
n
, alors int
r
(C) = int
r
(

C).
Demonstration. Si C est vide la conclusion est immediate. Sinon, il sut bien s ur de
montrer linclusion du deuxi`eme ensemble dans le premier, soit donc x int
r
(

C). Par le
Lemme 12.16 il existe x
1
int
r
(C). Par denition de int
r
(

C), pour susamment petit
on a x
2
:= x +(x x
1
)

C. Comme
x =
1
1 +
(x +(x x
1
)) + (1
1
1 +
)x
1
= x
1
+ (1 )x
2
avec = 1
1
1+
(0, 1), la conclusion suit du Lemme 12.18.
12.3 Projection orthogonale
Theor`eme 12.20 (Projection orthogonale). Soit C un convexe ferme non vide de R
n
et x / C. Il existe un unique element p
C
(x) C qui minimise la distance de x `a C :
|x p
C
(x)| = min
yC
|x y|.
De plus, p
C
(x) est caracterise par les proprietes
_
p
C
(x) C
x p
C
(x), y p
C
(x) 0 y C.
(12.1)
Demonstration. Soit (x
k
)
kN
une suite minimisante pour la distance de x ` a C, autrement
dit x
k
C et
lim
k+
|x
k
x| = inf
yC
|x y| := .
49
On rappelle linegalite du parallelogramme pour tous vecteurs a, b de R
n
,
|a +b|
2
+|a b|
2
= 2
_
|a|
2
+|b|
2
_
,
que lon applique ` a a := x x
k
et b := x x
j
(j, k quelconques dans N). Ceci donne
4|x
x
j
+ x
k
2
|
2
+|x
j
x
k
|
2
= 2
_
|x x
j
|
2
+|x x
k
|
2
_
.
Puisque C est convexe, et puisque x
j
, x
k
C, on a (x
j
+ x
k
)/2 C et il suit de la
denition de que
|x
x
j
+x
k
2
|
2

2
.
D`es lors, on deduit que
0 |x
j
x
k
|
2
2
_
|x x
j
|
2
+|x x
k
|
2
_
4
2
.
Prenant alors la limite lorsque j, k tendent simultanement vers +, on deduit que la suite
(x
k
)
kN
est de Cauchy. Par completude de R
n
, celle-ci poss`ede une limite que nous notons
p
C
(x). Par fermeture de C, p
C
(x) C. Par construction et par continuite de la norme
|x p
C
(x)| = lim
k+
|x x
k
| = ,
ce qui prouve lexistence de p
C
(x). Lunicite suit de la meme mani`ere de lidentite du
parallelogramme. Venons en maintenant ` a la condition (12.1). Pour y quelconque dans C,
et [0, 1] quelconque, on a (1 )p
C
(x) + y C. Par consequent,
|x ((1 )p
C
(x) + y)|
2
|x p
C
(x)|
2
.
Mais
|x ((1 )p
C
(x) + y)|
2
= |x p
C
(x) (y p
C
(x)))|
2
et
|xp
C
(x)(y p
C
(x))x)|
2
= |xp
C
(x)|
2
2xp
C
(x), y p
C
(x)+
2
|y p
C
(x)|
2
.
Par consequent, pour tout [0, 1],
2x p
C
(x), y p
C
(x) +
2
|y p
C
(x)|
2
0.
En faisant tendre vers 0 par les positifs (auquel cas on peut diviser par ), on deduit
(12.1). De plus, si p
C
(x) verie (12.1) alors largument ci-dessus applique ` a = 1 montre
que |x y| |x p
C
(x)| quel que soit y C, et par consequent (12.1) caracterise
eectivement p
C
(x).
Denition 12.21. Lapplication p
C
: R
n
C, x p
C
(x) decrite dans le theor`eme
precedent est appelee la projection orthogonale sur C.
Proposition 12.22. La projection orthogonale p
C
sur un convexe ferme non vide verie
linegalite
|p
C
(x) p
C
(y)| |x y| pour tous x, y R
n
.
En particulier, p
C
est lipschitzienne de constante de Lipschitz egale `a 1.
50
Demonstration. On ecrit
|p
C
(x) p
C
(y)|
2
= (p
C
(x) x) + (x y) + (y p
C
(y)), p
C
(x) p
C
(y)
et on developpe
(p
C
(x) x) + (x y) + (y p
C
(y)), p
C
(x) p
C
(y)
=x y, p
C
(x) p
C
(y) +p
C
(x) x), p
C
(x) p
C
(y) +y p
C
(y), p
C
(x) p
C
(y)
x y, p
C
(x) p
C
(y)
|x y| |p
C
(x) p
C
(y)|.
La conclusion suit.
12.4 Separation et Hyperplan dappui
On rappelle (cfr. Chapitre 11) quun hyperplan ane H R
n
determine deux demi-
espaces fermes que nous avons notes H
+
et H

.
Denition 12.23 (Hyperplan dappui). Soit S un sous-ensemble de R
n
et x S. On
dit quun hyperplan ane H de R
n
est un hyperplan dappui pour S en x si x H et si
S est enti`erement contenu dans un des deux demi-espaces determines par H.
Par extension, on dira quun hyperplan ane H de R
n
est un hyperplan dappui pour
S si il existe x S tel que H soit un hyperplan dappui pour S en x. Le demi-espace
determine par H et contenant S est appele un demi-espace de support de S.
Proposition 12.24. Soit C un convexe ferme de R
n
et x R
n
C. Alors lhyperplan
deni par
H := y R
n
[ x p
C
(x), y = x p
C
(x), p
C
(x) ,
o` u p
C
designe la projection orthogonale sur C est un hyperplan dappui pour C en p
C
(x).
Le demi-espace
H

:= y R
n
[ x p
C
(x), y x p
C
(x), p
C
(x) ,
est un demi-espace de support pour C, de plus il ne contient pas x.
Demonstration. Il est immediat que p
C
(x) H. Pour montrer que H est un hyperplan
dappui pour C en p
C
(x) il sut donc de montrer que C est enti`erement contenu dans
H

. Mais pour y C, on a en vertu de Theor`eme 12.20


x p
C
(x), y p
C
(x) 0,
et par consequent
x p
C
(x), y x p
C
(x), p
C
(x),
ce qui montre que y H

.
51
Denition 12.25 (Hyperplan dappui propre). Soit S un sous-ensemble de R
n
et
x S. On dit quun hyperplan ane H de R
n
est un hyperplan dappui propre pour S
en x si x H et si S est enti`erement contenu dans un des deux demi-espaces determines
par H, sans etre toutefois enti`erement contenu dans H.
Proposition 12.26 (Existence dun hyperplan dappui propre). Soit C un convexe
ferme de R
n
et x bd
r
(C). Alors il existe un hyperplan dappui propre pour C en x.
Demonstration. Puisque x bd
r
(C), il existe une suite (x
k
)
kN
dans a(C) C qui
converge vers x lorsque k +. Par la Proposition 12.24, pour chaque k lhyperplan
H
k
:= y R
n
[ x
k
p
C
(x
k
), y = x
k
p
C
(x
k
), p
C
(x
k
) ,
est un hyperplan dappui pour C en p
C
(x
k
). Remarquons que puisque x
k
/ C, x
k
,= p
C
(x
k
)
et par consequent on peut recrire H
k
comme
H
k
:=
_
y R
n
[
x
k
p
C
(x
k
)
|x
k
p
C
(x
k
)|
, y =
x
k
p
C
(x
k
)
|x
k
p
C
(x
k
)|
, p
C
(x
k
)
_
.
Quitte `a passer `a une sous-suite si necessaire, on peut supposer que
x
k
p
C
(x
k
)
|x
k
p
C
(x
k
)|
a S
n1
lorsque k +.
Par ailleurs, par continuite de p
C
(p
C
est meme lipschitzienne),
p
C
(x
k
) p
C
(x) = x lorsque k +.
On pretend que
H := y R
n
[ a, y = a, x
est un hyperplan dappui propre pour C en x. Premi`erement, il est clair que x H.
Ensuite, pour tout y C on a
a, y = lim
k+

x
k
p
C
(x
k
)
|x
k
p
C
(x
k
)|
, y
x
k
p
C
(x
k
)
|x
k
p
C
(x
k
)|
, p
C
(x
k
) = a, x,
o` u on a utilise le fait que H
k
est un hyperplan dappui pour C en p
C
(x
k
). Il sensuit que
C H

et donc que H est un hyperplan dappui pour C en x. Finalement, H est un


hyperplan dappui propre. En eet, par construction H a a(C) et par consequent si
on avait C H alors H a(C) serait une sous-espace ane contenant C et strictement
inclus dans a(C), ce qui serait incompatible avec le fait que a(C) soit le plus petit
sous-espace ane contenant C.
Denition 12.27 (Separation et separation stricte). Soient S et T deux sous-
ensembles de R
n
.
On dit que lhyperplan ane H separe S et T au sens large si S H

et T H
+
,
ou inversement.
On dit que lhyperplan ane H H
a,r
separe S et T au sens strict sil existe > 0
tel que S H

a,r
et T H
+
a,r+
, ou inversement.
52
Theor`eme 12.28 (Separation stricte dun convexe et dun point). Soit C un
convexe ferme non vide de R
n
et x / C. Il existe un hyperplan ane qui separe C et x
au sens strict, autrement dit
a R
n

, r R, a, x > r > sup


yC
a, y.
Demonstration. Il sut de choisir a := x p
C
(x) et r := a,
x+p
C
(x)
2
, de sorte que
lhyperplan ane en question passe par le point milieu du segment joignant x et p
C
(x)
et est orthogonal `a ce segment. Les details sont tr`es similaires ` a ceux de la preuve de la
Proposition 12.24.
Proposition 12.29 (Separation au sens large de deux convexes). Soit C
1
et C
2
deux convexes disjoints de R
n
. Alors il existe un hyperplan ane H qui separe C
1
et C
2
au sens large.
Demonstration. Par hypoth`ese, 0 / C := C
1
C
2
. Comme C est convexe comme dierence
(au sens vectoriel et non ensembliste !) de deux convexes, on deduit du Corollaire 12.19
que 0 / int
r
(

C). Si 0 /

C, alors par la Theor`eme 12.28 il existe un hyperplan ane
qui separe

C et 0 au sens strict (en particulier au sens large). Si inversement 0

C,
alors comme par ailleurs 0 / int
r
(

C) on a necessairement 0 bd
r
(

C), et il sensuit de la
Proposition 12.26 quil existe un hyperplan dappui (propre) H pour

C en 0. Dans un cas
comme dans lautre, il existe donc a R
n
0 tel que
a, x
1
a, x
2

quels que soient x


1
C
1
et x
2
C
2
. D`es lors, lhyperplan H
a,r
o` u r := sup
x
1
C
1
a, x
1
<
+ separe C
1
et C
2
au sens large.
12.5 Representation exterieure
Comme corollaire de la Proposition 12.24 nous obtenons :
Theor`eme 12.30. Tout sous ensemble convexe ferme non vide de R
n
est egal `a linter-
section de ses demi-espaces de support.
Demonstration. Puisque tout demi-espace de support de C contient C, il suit que C est
inclus dans lintersection de ses demi-espaces de support. Dautre part, si x / C, par la
Proposition 12.24 le demi-espace deni par
y R
n
[ x p
C
(x), y x p
C
(x), p
C
(x),
o` u p
C
designe la projection orthogonale sur C, est un demi-espace de support de C qui
ne contient pas x. Do` u linclusion inverse.
53
12.6 Faces, Points extremaux, Cone de recession
Denition 12.31 (Face). Soit C un sous-ensemble convexe ferme de R
n
et F C
convexe ferme lui aussi. On dit que F est une face de C si quels que soient x
1
, x
2
C et
(0, 1), si x
1
+ (1 )x
2
F alors necessairement x
1
F et x
2
F.
Denition 12.32 (Point extremal). Un point extremal dun convexe C de R
n
est une
face reduite `a un point. Autrement dit, x C est un point extremal si et seulement si
quels que soient x
1
, x
2
C et (0, 1), si x
1
+ (1 )x
2
= x alors necessairement
x
1
= x
2
= 0.
Denition 12.33 (Demi-droite et direction extremale). Une demi-droite
F = x
0
+z
0
[ 0,
o` u x
0
, z
0
R
n
sont xes est appelee une demi-droite extremale du convexe C R
n
si F
est une face de C. On dit alors que z
0
est une direction extremale de C.
Denition 12.34 (Cone de recession). Soit C un sous-ensemble convexe ferme de R
n
.
Le cone de recession de C est lensemble
rec(C) := z R
n
[ x C, 0, x + z C .
Lemme 12.35. Soit C un sous-ensemble convexe ferme de R
n
, alors rec(C) est un cone
convexe ferme de R
n
et on a legalite
rec(C) := z R
n
[ x C, 0, x +z C .
De plus, C est borne si et seulement si rec(C) est reduit `a zero.
Demonstration. Par denition on a
rec(C) =

xC,>0
C x

.
Comme une intersection quelconque de fermes est fermee, et quune intersection quel-
conque de convexes est convexe, rec(C) est un convexe ferme. Supposons ensuite que
x
0
C et z
0
R
n
soient tels que
0, x
0
+z
0
C.
Soit x C et 0 quelconques. Pour tout > 0 on a
x +z = x +z +(x
0
x) (x
0
x) = (x
0
+

z) + (1 )x (x
0
x).
Comme x
0
+

z C et x C on a
x +z + (x
0
x) (x
0
x) = (x
0
+

z) + (1 )x C.
Comme C est ferme par hypoth`ese, et que (x
0
x) tend vers 0 lorsque tend vers 0, on
deduit que x +z C. Do` u legalite annoncee dans lenonce. Il reste `a demontrer que C
54
est borne si son cone de recession est reduit ` a 0 (limplication inverse etant immediate). Si
C netait pas borne, il existerait dans C un suite de segments y
0
+(1)y
n
[ [0, 1]
avec |y
n
y
0
| + quand n +. Par compacite de la sph`ere unite de R
n
, on peut
supposer, modulo un passage ` a une sous-suite, que
y
n
y
0
|y
n
y
0
|
z
1
lorsque n +,
pour un certain z
1
R
n
0. Par fermeture de C, on deduit alors que
y
0
+z
1
[ 0 C
et par consequent que z
1
rec(C) 0.
Denition 12.36 (Espace lineaire dun convexe). Soit C un sous-ensemble convexe
ferme de R
n
, lespace lineaire de C est lensemble
lin(C) := rec(C) (rec(C)) = z R
n
[ x C, R, x +z C .
Cest un sous-espace vectoriel de R
n
.
Denition 12.37. On dit quun convexe ferme de R
n
ne contient aucune droite si son
espace lineaire est reduit `a zero.
Proposition 12.38. Soit C un sous-ensemble convexe ferme de R
n
, alors
C = lin(C) +
_
C (lin(C))

_
.
De plus, C (lin(C))

est un convexe ferme ne contenant aucune droite.


Demonstration. Soit p la projection orthogonale de R
n
sur lin(C). Alors tout x C se
decompose comme
x = p(x) + (x p(x))
et il suit de la caracterisation (12.1) de p(x), et du caract`ere lineaire (et pas seulement
convexe) de lin(C), que x p(x) C (lin(C))

.
12.7 Representation interieure
Theor`eme 12.39 (Minkowski). Tout convexe ferme et borne de R
n
est egal `a lenve-
loppe convexe de ses points extremaux.
Nous deduisons le Theor`eme de Minkowski du theor`eme plus general suivant :
Theor`eme 12.40. Tout convexe ferme de R
n
ne contenant aucune droite est egal `a
lenveloppe convexe de ses points extremaux et de ses demi-droites extremales.
55
Demonstration. La demonstration se fait par recurrence sur la dimension du convexe en
question. Remarquons dabord quun convexe de dimension zero est reduit ` a un point, ce
point est necessairement extremal et le convexe est donc egal ` a lenveloppe convexe de
lui-meme ! Ensuite, un convexe ferme de dimension un est soit a) un segment, auquel cas
il est egal `a lenveloppe convexe de ses deux extremites (qui sont des points extremaux) ;
b) une demi-droite fermee, auquel cas il est egal ` a lenveloppe convexe de ses demi-droites
extremales (il nen a quune, egale `a lui-meme) ; c) une droite, mais ce dernier cas est exclu
par hypoth`ese. Supposons maintenant avoir montre la th`ese pour tout sous-ensemble
convexe ferme de R
n
de dimension au plus k, k 1, et considerons un sous-ensemble
convexe ferme C de R
n
de dimension k + 1. Soit x C. On distingue deux cas.
i) Cas o` u x bd
r
(C). Dans ce cas, par la Proposition 12.26, il existe un hyperplan
dappui propre H pour C en x. Lintersection C H est un convexe ferme de dimension
au plus k de R
n
. Par notre hypoth`ese de recurrence, x est donc contenu dans lenveloppe
convexe des points extremaux et des demi-droites extremales de CH. Mais comme H est
un hyperplan dappui, les points extremaux et les demi-droites extremales de C H sont
aussi des points extremaux et des demi-droites extremales de C (verier !). La conclusion
suit dans ce cas.
ii) Cas o` u x int
r
(C). Par hypoth`ese sur k, E := lin(a(C)) est un espace vectoriel
de dimension superieure ou egale `a deux. Par hypoth`ese sur C, lin(C) = 0, et donc
rec(C) (rec(C)) = 0. Par consequent,
(rec(C) e E [ |e| = 1) (rec(C) e E [ |e| = 1) = .
Comme dautre part les deux ensembles ci-dessus sont fermes, et que la sph`ere unite de
E est connexe (E est de dimension superieure ` a deux), on deduit que
rec(C) (rec(C)) ,= E.
Soit z E (rec(C) (rec(C))). Par construction, lensemble

C := C x +z [ R
est un convexe borne de dimension 1 (x int
r
(C)). D`es lors cest un segment. On peut
ainsi ecrire x comme combinaison convexe des extremites (appelons les x
1
et x
2
) de ce
segment. Puisque x
1
, x
2
bd
r
(C), par le Cas i) x
1
et x
2
sont contenues dans lenveloppe
convexe des points extremaux et des demi-droites extremales de C. Comme ce dernier
ensemble est un convexe, il contient donc x lui aussi.
12.8 Polytopes et C ones niment engendres
Denition 12.41 (Polytope). Un polytope dans R
n
est lenveloppe convexe dun nombre
ni de points de R
n
.
Denition 12.42 (Simplexe). Un simplexe dans R
n
est lenveloppe convexe dun nombre
ni de points de R
n
anement independants.
Proposition 12.43. Tout polytope de R
n
peut secrire comme une union nie de sim-
plexes de R
n
.
56
Demonstration. Cest une consequence directe du Theor`eme de Caratheodory version bis
(Theor`eme 12.7).
Proposition 12.44. Tout polytope de R
n
est ferme et borne.
Demonstration. Si P = conv(x
1
, , x
k
), alors P est limage par lapplication lineaire
(de R
k
dans R
n
)
(
1
, ,
k
)
j

j=1

j
x
j
du simplexe standard de R
k
S
k
:= (
1
, ,
k
) R
k
[
k

j=1

j
= 1,
j
0 j 1, , k.
Comme S
k
est un ferme borne de R
k
et que limage dun ferme borne par une application
continue est un ferme borne, la conclusion suit.
Denition 12.45 (C one niment engendre). Un cone niment engendre dans R
n
est
lenveloppe conique dun nombre ni de points de R
n
.
Denition 12.46 (Cone simplicial). Un cone simplicial dans R
n
est lenveloppe conique
dun nombre ni de points de R
n
lineairement independants.
Proposition 12.47. Tout cone niment engendre de R
n
peut secrire comme une union
nie de cones simpliciaux de R
n
Demonstration. Il sagit cette fois dune consequence directe du Theor`eme de Caratheodory
version ter (Theor`eme 12.13).
Corollaire 12.48. Tout cone niment engendre de R
n
est ferme.
Demonstration. Contrairement ` a la demonstration de la Proposition 12.44, on ne peut se
baser ici sur la compacite. Toutefois, en vertu de la Proposition 12.47, il sut de montrer
que tout cone simplicial est ferme (car une union nie de fermes est fermee). Soit donc
c one(x
1
, , x
k
) un cone simplicial dans R
n
, avec x
1
, , x
k
lineairement independants.
Lapplication lineaire (de R
k
dans R
n
)
(
1
, ,
k
)
j

j=1

j
x
j
est par consequent injective. Son inverse (bien denie sur son image) est lineaire et donc
continue ; il sut d`es lors de remarquer que cone(x
1
, , x
k
) est limage reciproque,
par cette application inverse, du ferme (
1
, ,
k
) R
k
[
j
0 j 1, , k de
R
k
. Comme limage reciproque dun ferme par une application continue est un ferme, la
conclusion suit.
57
12.9 Lemme de Farkas
Theor`eme 12.49 (Lemme de Farkas). Soient a
1
, , a
k
des points de R
n
et b R
n
.
Alors

k
j=1
x R
n
[ a
j
, x 0 x R
n
[ b, x 0
si et seulement si
b c one(a
1
, , a
k
).
Demonstration. Commencons par la condition susante, la plus aisee. Si
b =
k

j=1

j
a
j
c one(a
1
, , a
k
),
avec les
j
tous positifs, et si
x
0

k
j=1
x R
n
[ a
j
, x 0 ,
alors
b, x
0
=
k

j=1

j
a
j
, x
0
0,
de sorte que x
0
x R
n
[ b, x 0 .
Passons `a la condition necessaire, o` u plut ot ` a sa contraposee.
Supposons que b /

C := cone(a
1
, , a
k
). Comme

C est un convexe ferme (Corol-
laire12.48), par le theor`eme de separation stricte (Theor`eme 12.28) il existe a R
n
et
r R tels que
sup
y

C
a, y < r < a, b.
Comme

C est un c one, pour tout > 0
r > sup
y

C
a, y = sup
y

C
a, y = sup
y

C
a, y.
Il sensuit que sup
y

C
a, y = 0. Par consequent, comme chaque a
j


C,
a
k
j=1
x R
n
[ a
j
, x 0 .
Mais b, a > r 0, de sorte que
a / x R
n
[ b, x 0 .
Ceci termine la demonstration.
58
12.10 Poly`edres
Denition 12.50 (Poly`edre). Un poly`edre dans R
n
est un ensemble de la forme
P := x R
n
[ Ax b ,
o` u A R
mn
(R) et b R
m
sont xes.
Soit P := x R
n
[ Ax b un poly`edre de R
n
. Pour j 1, , m, notons A
j
la
j-i`eme ligne de A (consideree comme un element de R
n
) et b
j
la j-i`eme composante de b.
On peut d`es lors decrire de mani`ere equivalente
P :=
_
x R
n
[ A
j
, x b
j
, j 1, , m
_
.
Autrement dit, un sous-ensemble de R
n
est un poly`edre si et seulement si cest une inter-
section nie de demi-espaces fermes de R
n
. En particulier, tout poly`edre dans R
n
est un
convexe ferme.
Proposition 12.51. Soit P un poly`edre dans R
n
(decrit par A et b) et F P un sous-
ensemble de dimension k. Les deux armations suivantes sont equivalentes :
1. F est une face de P.
2. Il existe n k lignes lineairement independantes de A, notees A
j

jJ
avec J =
n k, telles que
F =
_
x P [ A
j
, x = b
j
j J
_
.
Demonstration. Commencons par la condition susante, la plus simple. Montrons `a cet ef-
fet que quel que soit le sous-ensemble J de 1, , m, lensemble G := x P [ A
j
, x = b
j
j J
est une face de P. De fait, si x
1
et x
2
sont des elements de P et (0, 1) sont tels que
x
1
+ (1 )x
2
G, alors pour i G on a `a la fois A
i
, x
1
b
i
(car x
1
P),
A
i
, x
2
b
i
(car x
2
P) et A
i
, x
1
+ (1 )A
i
, x
2
= b
i
(car x G). Ceci implique
que A
i
, x
1
= A
i
, x
2
= b
i
, et par consequent que x
1
G et x
2
G, do` u la conclusion.
Venons en ` a la condition necessaire. Soit F une face de P de dimension k. Soit x
0

int
r
(F) xe (nous avons que celui-ci est non-vide puisque F lest). On designe par I len-
semble des indices i de lignes de A pour lesquelles A
i
, x
0
= b
i
. Soit V := Vect(A
i

iI
).
Pour v V

quelconque et pour tout i I, on a


A
i
, x
0
+v = A
i
, x = b
i
.
Dautre part, pour tout i / I on a A
i
, x
0
< b
i
et par consequent, par continuite,
> 0 [ A
i
, x
0
+v < b
i
, i / I, v V

t.q. |v| .
Il sensuit que
x
0
+ v P v V

t.q. |v| . (12.2)


Dautre part, puisque x
0
= (x
0
+v)/2 +(x
0
v)/2 et que F est une face, il sensuit aussi
que
x
0
+v F v V

t.q. |v| . (12.3)


59
D`es lors, comme F est de dimension k, dim(V

) k, et aussi dim(V ) nk. Supposons


par labsurde que dim(V ) > n k. Si E := lin(a(F)) designe lespace vectoriel associe `a
lenveloppe ane de F, alors dim(E) = k et par consequent V E ,= 0. Soit 0 ,= w =

iI

i
A
i
V E. Comme x
0
int
r
(F) par hypoth`ese, on a x
0
+w F P pour tout
R susamment petit en valeur absolue, et en particulier, pour de tels
b
j
A
j
, x
0
+

iI

i
a
i
= b
j
+A
j
,

iI

i
a
i

pour tout j I, et donc, en variant le signe de ,


0 = A
j
,

iI

i
A
i

pour tout j I. Par sommation, on obtient alors


0 =

jI

j
A
j
,

iI

i
A
i
= |w|
2
,
ce qui est absurde. Do` u dim(V ) = n k et E = V

. Montrons maintenant que


F = G :=
_
x P [ A
i
, x = b
i
i I
_
.
Soit x F G avec x ,= x
0
. On peut ecrire
x
0
=
_
x
0
+

|x
0
x|
(x
0
x)
_
+ (1 )x
o` u
:=
_
1 +

|x x
0
|
_
1
(0, 1).
Comme x x
0
E = V

, on a x
0
+

x
0
x
(x
0
x) P par (12.2). Mais comme F (par
hypoth`ese) et G (par la premi`ere partie) sont des faces de P, on deduit que x F G,
et donc que F = G.
Pour terminer, on remarque que puisque dim(V ) = n k (et , = F x
0
),
_
x P [ A
i
, x = b
i
i I
_
=
_
x P [ A
j
, x = b
j
j J
_
,
o` u J designe nimporte quel sous-ensemble de I correspondant `a nk lignes lineairement
independantes de A.
Corollaire 12.52. Un poly`edre de R
n
poss`ede au plus un nombre ni de faces. En par-
ticulier, il contient un nombre ni de points extremaux et de demi-droites extremales.
Demonstration. Il suit de la proposition 12.51 que pour P = x R
n
[ Ax b , o` u
A R
mn
(R) et b R
m
, le nombre de faces de dimension k de P est majore par le
nombre de combinaisons de n k lignes parmi m, soit m!/((n k)!(mn + k)!).
Denition 12.53 (C one polyedrique). Un cone polyedrique dans R
n
est un ensemble
de la forme

C := x R
n
[ Ax 0 ,
o` u A R
mn
(R).
La demonstration de la proposition suivante est immediate.
Proposition 12.54. Un cone polyedrique est un cone convexe ferme.
60
12.11 Correspondances poly`edres/polytopes
Les polytopes et les cones niment engendres correspondent ` a une description interieure
de certains convexes (en tant que combinaisons convexes ou de combinaisons positives dun
nombre ni de points). A linverse, les poly`edres et les c ones polyedriques correspondent
` a une description exterieure (en tant quintersection dun nombre ni de demi-espaces).
Dans cette section, on montre que ces dierentes notions concident cependant.
Theor`eme 12.55. Tout poly`edre borne est un polytope.
Demonstration. Cest une consequence directe du Theor`eme de Minkowski (Theor`eme
12.39) et du Corollaire 12.52.
Plus generalement, on a
Theor`eme 12.56. Soit P R
n
un poly`edre. Il existe des ensembles de cardinal ni E
et D dans R
n
tels que
P = conv(E) + cone(D).
Si de plus P ne contient aucune droite, alors on peut choisir pour E lensemble des points
extremaux de P et pour D lensemble des directions extremales de P.
Demonstration. On comment par ecrire, au moyen de la Proposition 12.38,
P = lin(P) +
_
P (lin(P))

_
o` u P (lin(P))

ne contient aucune droite. Soit (e


1
, , e

) une base de lin(P). Alors si


P =
_
x R
n
[ A
j
, x b
j
, j 1, , m
_
.
on a
P (lin(P))

=
_
x R
n
[
_
_
_
A
j
, x b
j
, j 1, , m
e
j
, x 0, j 1, ,
e
j
, x 0, j 1, ,
_
_
_
_
et ce dernier est donc un poly`edre dans R
n
ne contenant aucune droite. Soient x
1
, , x
k

les points extremaux de P (lin(P))

et z
1
, , z
p
ses directions extremales. Alors par
le Theor`eme 12.40 on a
P (lin(P))

= conv(x
1
, , x
k
) + cone(z
1
, , z
p
),
et nalement, puisque
lin(P) = Vect(e
1
, , e

) = c one(e
1
, , e

, e
1
, , e

),
on obtient
P = conv(x
1
, , x
k
) + cone(z
1
, , z
p
, e
1
, , e

, e
1
, , e

).
Ceci termine la demonstration.
Enn, dans le cas particulier o` u P est un c one polyedrique, on deduit le
61
Corollaire 12.57. Tout cone polyedrique est un cone niment engendre.
Demonstration. Il sut de reprendre la demonstration du theor`eme precedent et de re-
marquer que P (lin(P))

est un c one polyedrique ne contenant aucune droite. Par


consequent, 0 est son unique point extremal, et d`es lors
P = conv(0) + cone(D) = cone(D),
ce qui termine la demonstration.
Nous allons maintenant montrer la reciproque du Corollaire 12.57, ce qui permettra
darmer :
Theor`eme 12.58. Un cone est niment engendre si et seulement si il est polyedrique.
Demonstration. Il ne nous reste bien s ur qu` a demontrer la condition necessaire. Soit

C = c one(x
1
, , x

) un c one niment engendre. On denit son cone polaire



C
o
par

C
o
:= y R
n
[ x
i
, y 0 i 1, , .
Par construction,

C
o
est un cone polyedrique, et il suit d`es lors du Corollaire 12.57 que

C
o
= c one(y
1
, , y
k
) pour certains y
1
, , y
k
dans R
n
. On pretend que

C = (

C
o
)
o
:= x R
n
[ y
j
, x 0 j 1, , k,
ce qui terminera la demonstration. An de montrer une premi`ere inclusion, prenons x C
quelconque. Alors x =

i=1

i
x
i
pour certains
i
0. Pour chaque j 1, , k), on a
alors
y
j
, x =

i=1

i
y
j
, x
i
=

i=1

i
x
i
, y
j
0
car les
i
sont positifs et y
j


C
o
. Donc x (

C
o
)
o
. Inversement, soit x (

C
o
)
o
. Si
z =

k
j=1

j
y
j


C
o
avec tous les
j
positifs, alors
x, z =
k

j=1

j
x, y
j
0.
Il suit du Lemme de Farkas (Theor`eme 12.49), applique pour a
j
:= x
j
et b := x, que
x c one(x
1
, , x
k
), cest-`a-dire x

C, do` u linclusion opposee.
De meme, le theor`eme qui suit est une reciproque du Theor`eme 12.56.
Theor`eme 12.59. Soient E et D des ensembles nis de R
n
. Alors le convexe
P := conv(E) + cone(D)
est un poly`edre.
62
Demonstration. On ecrit E = e
1
, , e
k
, D = z
1
, , z

, et on pose

C := c one((e
1
, 1), , (e
k
, 1), (z
1
, 0), , (z

, 0)) R
n+1
.
Comme

C est un c one niment engendre dans R
n+1
, par le theor`eme precedent, il existe
c
1
, , c
p
R
n+1
tels que

C = z R
n+1
[ a
i
, z 0 i 1, , p.
On observe enn que x P si et seulement si z := (x, 1)

C. D`es lors,
P = x R
n
[ a
i
, x b
i
i 1, , p,
o` u, pour chaque i 1, , p, on a ecrit c
i
(a
i
, b
i
) avec a
i
R
n
et b
i
R. Par
consequent P est polyedrique.
Corollaire 12.60. Un sous-ensemble de R
n
est un polytope si et seulement si cest un
poly`edre borne.
Demonstration. Cest une consequence du Theor`eme 12.55, du theor`eme precedent ap-
plique avec D = , et de la Proposition 12.44.
63

Vous aimerez peut-être aussi