Vous êtes sur la page 1sur 346

COLLECTION ENSEIGNEMENT SUP //// Mathmatiques

L3M1

Optimisation
et analyse convexe
EXERCICES CORRIGS

Jean-Baptiste Hiriart-Urruty

This page intentionally left blank

OPTIMISATION
ET
ANALYSE CONVEXE
Exercices et problmes corrigs,
avec rappels de cours

Jean-Baptiste Hiriart-Urruty
Collection dirige par Daniel Guin

17, avenue du Hoggar


Parc dactivits de Courtabuf, BP 112
91944 Les Ulis Cedex A, France

Illustration de couverture : un corps convexe dpaisseur presque constante et son


ombre ; reproduit avec la gracieuse permission de Christof Weber (universit de
Zurich).

Imprim en France

ISBN : 978-2-7598-0373-6
Tous droits de traduction, dadaptation et de reproduction par tous procds rservs pour tous
pays. Toute reproduction ou reprsentation intgrale ou partielle, par quelque procd que ce soit, des
pages publies dans le prsent ouvrage, faite sans lautorisation de lditeur est illicite et constitue une
contrefaon. Seules sont autorises, dune part, les reproductions strictement rserves lusage priv
du copiste et non destines une utilisation collective, et dautre part, les courtes citations justies
par le caractre scientique ou dinformation de luvre dans laquelle elles sont incorpores (art. L.
122-4, L. 122-5 et L. 335-2 du Code de la proprit intellectuelle). Des photocopies payantes peuvent
tre ralises avec laccord de lditeur. Sadresser au : Centre franais dexploitation du droit de copie,
3, rue Hautefeuille, 75006 Paris. Tl. : 01 43 26 95 35.
c 2009, EDP Sciences, 17, avenue du Hoggar, BP 112, Parc dactivits de Courtabuf,

91944 Les Ulis Cedex A

TABLE DES MATIRES

Introduction

Abrviations et notations
I

ix

Rvision de bases : calcul direntiel, algbre linaire


et bilinaire
I.1
Algbre linaire et bilinaire . . . . . . . . . . . . . . . . . . .
I.2
Calcul direntiel . . . . . . . . . . . . . . . . . . . . . . . . .
I.3
Fonctions convexes . . . . . . . . . . . . . . . . . . . . . . . .

1
1
2
3

II

Minimisation sans contraintes. Conditions de minimalit


41
II.1
Conditions de minimalit du premier ordre . . . . . . . . . . . 41
II.2
Conditions de minimalit du second ordre . . . . . . . . . . . . 42

III

Minimisation avec contraintes. Conditions de minimalit


III.1 Conditions de minimalit du premier ordre . . . . . . . .
III.2 Cne tangent, cne normal un ensemble . . . . . . . . .
III.3 Prise en compte de la convexit . . . . . . . . . . . . . .
III.4 Conditions de minimalit du second ordre . . . . . . . . .

IV

.
.
.
.

.
.
.
.

.
.
.
.

63
63
65
66
66

Mini-maximisation. Dualisation de problmes


127
de minimisation convexe
IV.1 Points-selles (ou cols) ; problmes de mini-maximisation . . . . 127
IV.2 Points-selles de lagrangiens . . . . . . . . . . . . . . . . . . . . 128
IV.3 Premiers pas dans la thorie de la dualit . . . . . . . . . . . . 129

Optimisation et analyse convexe

VI

Polydres convexes ferms. Optimisation donnes anes


(Programmation linaire)
V.1
Polydres convexes ferms . . . . . . . . . . . . . . . . . . .
V.2
Optimisation donnes anes (Programmation linaire) . .
V.2.1 Dnitions et notations . . . . . . . . . . . . . . . .
V.2.2 Rsultats fondamentaux dexistence . . . . . . . . .
V.3
La dualit en programmation linaire . . . . . . . . . . . . .
V.3.1 Formulations de problmes duaux . . . . . . . . . . .
V.3.2 Relations entre les valeurs optimales et les solutions
de programmes linaires en dualit . . . . . . . . . .
V.3.3 Caractrisation simultane des solutions du problme
primal et du problme dual . . . . . . . . . . . . . .
Ensembles et fonctions convexes. Projection sur un convexe
ferm
VI.1 Ensembles convexes . . . . . . . . . . . . . . . . . . . . . . .
VI.1.1 Ensembles convexes associs un convexe donn . .
VI.1.2 Enveloppe convexe, enveloppe convexe ferme . . . .
VI.1.3 Hyperplan dappui, fonction dappui . . . . . . . . .
VI.1.4 Thormes de sparation par un hyperplan ane . .
VI.2 Projection sur un convexe ferm . . . . . . . . . . . . . . . .
VI.3 Fonctions convexes . . . . . . . . . . . . . . . . . . . . . . .

VII Initiation au calcul sous-direntiel et de transformes


de Legendre-Fenchel
VII.1 La transformation de Legendre-Fenchel . . . . . . . . .
VII.1.1 Dnitions . . . . . . . . . . . . . . . . . . . .
VII.1.2 Quelques proprits et rgles de calcul . . . . .
VII.2 Le sous-direntiel dune fonction . . . . . . . . . . . .
VII.2.1 Dnitions . . . . . . . . . . . . . . . . . . . .
VII.2.2 Quelques proprits et rgles de calcul . . . . .
VII.3 La convexication dune fonction . . . . . . . . . . . . .

iv

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.

165
165
168
168
170
171
171

. 172
. 173

217
. 217
. 217
. 218
. 219
. 219
. 220
. 220

.
.
.
.
.
.
.

271
271
271
272
273
273
274
275

Sources

323

Rfrences gnrales

325

Notice historique

327

Index

331

INTRODUCTION

Good modern science implies good variational problems


M.S. Berger (1983)
Le recueil dexercices et problmes corrigs que nous proposons ici concerne
les domaines des Mathmatiques rpertories sous les vocables dOptimisation
et Analyse convexe. LOptimisation est traite dans ses aspects suivants : la cl
de vote que constituent les conditions doptimalit (chapitres II et III) ; le rle
(incontournable) de la dualisation de problmes (chapitre IV) ; le monde particulier (et toujours en haut de lache depuis ses dbuts) de lOptimisation linaire
(chapitre V). LAnalyse convexe (moderne) nest pas traite en tant que telle mais
par lutilisation quon peut en avoir en Optimisation ; il sagit en fait dune initiation la manipulation de concepts et de rsultats concernant essentiellement : la
projection sur un convexe ferm (au chapitre VI), le calcul sous-direntiel et de
transformes de Legendre-Fenchel (chapitre VII). LAnalyse linaire et bilinaire
(ou, plutt, lAnalyse matricielle) ainsi que le Calcul direntiel interviennent de
manire harmonieuse en Optimisation et Analyse convexe : un chapitre de revision des bases leur est consacr (chapitre I). Prs de 160 exercices et problmes
sont corrigs, parfois comments et situs dans un contexte dutilisation ou de
dveloppement historique, gradus dans leur dicult par un, deux ou trois :
Exercices plutt faciles (applications immdiates dun rsultat du Cours,
vrication dun savoir-faire de base, etc.) ;
Exercices que le lecteur-tudiant doit pouvoir aborder aprs une bonne
comprhension et assimilation du Cours. De dicult moyenne, ce sont de loin
les plus nombreux ;
Exercices plus diciles, soit cause de certains calculs mener bien,
soit simplement en raison dun degr de maturit plus grand que leur rsolution
requiert.
Comme tous les exercices de mathmatiques, ceux prsents ici ne seront protables au lecteur-tudiant que si celui-ci les travaille, un crayon la main, sans

Optimisation et analyse convexe

regarder la correction dans un premier temps. Quil garde lesprit ce proverbe


chinois :
Jentends et joublie, (cours oral)
je vois et je retiens, (tude du cours)
je fais et je comprends . (exercices)
Le cadre de travail choisi est volontairement simple (celui des espaces de dimension nie), et nous avons voulu insister sur les ides et mcanismes de base
davantage que sur les gnralisations possibles ou les techniques particulires tel
ou tel contexte. Les problmes dits variationnels requirent dans leur traitement
une intervention plus grande de la Topologie et de lAnalyse fonctionnelle, commencer par le cadre fondamental des espaces de Hilbert ; ils seront abords
dans un prochain recueil.
Les connaissances mathmatiques pour tirer prot des exercices et problmes
du recueil prsent sont maintenues minimales, celles normalement acquises aprs
une formation scientique Bac + 2 ou Bac + 3 (suivant les cas).
Chaque chapitre dbute par des rappels de rsultats essentiels, ce qui ne doit
pas empcher le lecteur-tudiant daller consulter les rfrences indiques la
n du livre. Lapproche retenue est celle dune progression en spirale plutt que
linaire au sens strict : ainsi, par exemple, la fonction A Mn (R)  ln(dtA)
est dabord considre pour un calcul de direntielles, puis pour sa convexit,
puis plus tard en raison de son rle comme fonction-barrire dans des problmes
doptimisation matricielle.
Pour ce qui est de lenseignement, les aspects de lOptimisation et Analyse
convexe traits en exercices ici trouvent leur place dans les formations de niveau
deuxime cycle universitaire (modules gnralistes ou professionnaliss) et dans
la formation mathmatique des ingnieurs, sur une dure dun semestre environ ;
la connaissance de ces aspects est un pralable des formations plus en aval, en
optimisation numrique par exemple.
La plupart des exercices et problmes proposs, sinon tous, ont t poss en
sances dexercices ou examens lUniversit Paul Sabatier de Toulouse.
Je voudrais remercier les anciens tudiants ou jeunes collgues qui ont bien
voulu relire une premire version de ce document et y relever une multitude de
petites fautes (il en reste srement...), parmi eux : D. Mallard, M. Torki, Y. Lucet,
C. Imbert et J. Benoist. Enn je ne voudrais pas oublier A. Andrei pour la part
primordiale qui a t la sienne dans la saisie informatique de louvrage.
Toulouse, 19891997
J.-B. Hiriart-Urruty
vi

Introduction

Depuis sa publication il y a dix ans (en mars 1998), cet ouvrage a subi les vicissitudes dun document de formation destin un public (dtudiants en sciences)
en nette diminution. Il a t traduit en russe par des collgues de Kiev (Ukraine)
en 2004, mais la version franaise originelle nest plus disponible depuis 2006.
Ainsi, pour rpondre une demande de collgues et tudiants, un nouveau tirage
a t envisag. Je remercie les ditions EDP Sciences, notamment mon collgue
D. Guin (directeur de la collection Enseignement Sup Mathmatiques), davoir
accueilli ce projet. Aude Rondepierre a donn un coup de main pour reprendre
les chiers informatiques anciens ; quelle soit remercie de sa bonne volont et
ecacit.
Toulouse, printemps 2009
J.-B. Hiriart-Urruty

vii

This page intentionally left blank

ABRVIATIONS ET NOTATIONS

:=

: gal par dnition.

cf. : confer , signie se reporter .


i.e. : id est , signie cest--dire .
ln

: notation normalise pour le logarithme nprien.

R+
, R+ ou ]0, +[ : ensemble des rels strictement positifs.
+
u : partie positive du rel u.
x = (x1 , . . . , xn ) ou x = (1 , . . . , n ) : notation gnrique pour un vecteur
de Rn .
+
n
u+ signie (u+
1 , . . . , un ) lorsque u = (u1 , . . . , un ) R .
Lorque u et v sont deux vecteurs de Rn , u  v signie ui  vi pour tout
i = 1, . . . , n .
{uk } ou (uk ) : notations utilises pour les suites indexes par des entiers
naturels.
Pour une fonction f direntiable en x (resp. deux fois direntiable en x),
Df (x) dsigne la direntielle (premire) de f en x (resp. D 2 f (x) dsigne la
direntielle seconde de f en x). Si la variable est relle (et note t), on utilise la
notation f  (t) (resp. f  (t)) pour la drive de f en t (resp. la drive seconde de f
en t) [ce sont des lments de lespace darrive et non des applications linaires].
Pour une fonction numrique f dnie sur un ouvert O de Rn , direntiable
en x O (resp. deux fois direntiable en x O), f (x) (resp. 2 f (x)) dsigne
le (vecteur) gradient de f en x (resp. la matrice hessienne de f en x).
Lorsquelle existe, la drive directionnelle de f en x dans la direction d est
note f  (x, d).
Pour une fonction vectorielle f : O Rn Rm direntiable en x O, Jf (x)
dsigne la matrice jacobienne de f en x (matrice m lignes et n colonnes).

Optimisation et analyse convexe

Mm,n (R) : ensemble des matrices (m, n) (m lignes et n colonnes) coecients


rels ; Mn (R) est une abrviation de Mn,n (R).
[aij ] : matrice de terme gnral aij ( la i-me ligne et j-me colonne).
diag (1 , . . . , n ) : matrice diagonale dont les lments diagonaux sont
1 , . . . , n .
In (ou I quand il ny a pas dambigut) : matrice-unit de Mn (R), i.e.
diag (1,. . .,1).
A ou t A : transpose de A Mm,n (R) [les deux notations sont dun usage
trs courant ; par contre At est proscrire car gnratrice de confusions].
Lorsque A est inversible, A dsigne linverse de A (ou, ce qui revient au
mme, la transpose de A1 ).
tr A : trace de A Mn (R).
dt A : dterminant de A Mn (R).
cof A : matrice des cofacteurs de A Mn (R), i.e. celle dont le terme (i, j) est
(1)i+j dt Aij , o Aij est obtenue partir de A en enlevant la i-me ligne et la
j-me colonne.
Sn (R) : ensemble des matrices de Mn (R) qui sont symtriques.
symbolise la somme directe de sous-espaces vectoriels.
vect{v1 , . . . , vk } : sous-espace vectoriel engendr par les vecteurs v1 , . . . , vk .
Sauf indication contraire, Rn est muni de sa base canonique ; ainsi A
Mm,n (R) est canoniquement associe une application linaire de Rn dans Rm ,
do les notations Ker A, Im A, etc.
Lisomorphisme canonique de Rn sur
Mn,1 (R) est celui qui x = (x1 , . . . , xn )
x1

associe la matrice unicolonne X = ... ; des expressions comme AX (ou Ax) ne
xn
devraient pas arrter ltudiant-lecteur. Si, par exemple, u et v sont deux vecteurs
de Rn , uv  est une matrice carre de taille n dont le terme gnral est ui vj , alors
n

ui vj .
que u v est la matrice-scalaire (ou scalaire)
i=1

, , , , ( | ) : notations utilises pour les produits scalaires (dans


des espaces euclidiens). Sauf indication contraire,
, dsigne dans Rn le produit
scalaire usuel (celui qui x = (1 , . . . , n ) et y = (1 , . . . , n ) associe
x, y :=
n

i i , soit encore x y (cf. supra)). Bien des problmes doptimisation se posent
i=1

dans des espaces de matrices : si X := Mm,n (R), le produit scalaire standard sur
X est dni par M, N := tr (M  N ).
x

Abrviations et notations

Soit A Mn (R), u et v des vecteurs de Rn : u Av est un(e) (matrice-)


dutilisation
scalaire gal(e) (sa transpose) uA v ; un mcanisme plus commode

et engendrant moins de fautes est dcrire


u, Av = A u, v .
Si l est une application linaire dun espace euclidien (E, , ) dans un
autre espace euclidien (F,
, ), ladjointe l de l est lapplication linaire de F
dans E dnie par
l (y), x =
y, l(x) pour tout (x, y) E F.
Si lon reprsente lensemble des formes linaires sur E par E via le produit
scalaire , (idem pour F ), prendre ladjointe de l ou sa transpose revient
au mme. Lorsque E et F sont munies de bases orthonormales (comme cest le
cas des espaces euclidiens (Rn ,
, ) munies de leurs bases canoniques), la matrice
reprsentant ladjointe de l (= sa transpose) dans ces bases est la transpose de
la matrice reprsentant l.
 : norme dans un espace vectoriel norm X. Si X est muni dun produit
scalaire
, (exemples typiques : Rn , Mm,n (R)), et en labsence dautres
prcisions,  dsignera la norme drive du produit scalaire (i.e.  =
, ).
Lorsquinterviennent la fois des normes de vecteurs et de matrices, on vite les
confusions en utilisant  pour les vecteurs et ||| ||| pour les matrices).

int S ou S : intrieur de S ; S : adhrence de S ;


fr S : frontire de S.
B(x, r) : boule ferme de centre x et de rayon r.
n : simplexe-unit de Rn , cest--dire lensemble des (1 , . . . , n ) Rn tels
que 1 + . . . + n = 1 et i  0 pour tout i (coecients qui servent dans la prise
de combinaisons convexes).
A Sn (R) est dite (symtrique) semi-dnie positive lorsque
Ax, x  0
pour tout x Rn [cette appellation est prfrable positive qui peut signier,
dans certains cas, coecients positifs ]. On dsignera par Pn (R) lensemble
des matrices semi-dnies positives de taille n.
A Sn (R) est dite (symtrique) dnie positive lorsque
Ax, x > 0 pour tout
x = 0 de Rn (ce qui revient : A semi-dnie positive et inversible). On dsignera

par Pn (R) lensemble des matrices dnies positives de taille n.


Le caractre de semi-dnie ou dnie positivit ne sera considr dans ce
recueil que pour des matrices symtriques.

xi

This page intentionally left blank

I
RVISION DE BASES : CALCUL
DIFFRENTIEL, ALGBRE LINAIRE
ET BILINAIRE

Rappels
I.1. Algbre linaire et bilinaire
Si l : Rn R est linaire, il existe un unique v Rn tel que l(x) =
v, x pour
tout x Rn ; les fonctions anes valeurs relles sont de la forme x 
v, x +c,
o v Rn et c R. Mme chose si l est une forme linaire sur un espace euclidien
(E,
, ) : l scrit de manire unique sous la forme
v, , o v E.
Si q : Rn R est une forme quadratique, il existe un unique Q Sn (R) tel
1
que q(x) =
Qx, x pour tout x Rn (le coecient 1/2 est mis l pour simplier
2
les calculs).
Rappel du mcanisme de transposition :
Ax, y =
x, A y (produits scalaires
dans Rm et Rn respectivement).
Si H est un sous-espace vectoriel de Rn , H dsigne son sous-espace orthogonal. Rappel : si A est linaire, (KerA) = Im(A ).
Un rsultat-cl de lAlgbre linaire et bilinaire : si S Sn (R), toutes les
valeurs propres i de S sont relles et il existe une matrice orthogonale U telle
que U  SU = diag(1 , . . . , n ) ; ainsi il existe des vecteurs propres xi unitaires (xi
n

associ i ) tels que S =
i xi x
i (ceci est appel une dcomposition spectrale
i=1

de S).

Chapitre I. Rvision de bases : calcul diffrentiel...

Les formulations variationnelles suivantes de la plus grande et la plus petite


valeurs propres de S Sn (R) sont essentielles :
max (S) = max
x = 0

Sx, x

Sx, x
, min (S) = min

x = 0  x 2
 x 2

Sn (R) est muni de lordre (partiel) suivant : A  B dans Sn (R) lorsque A B est
semi-dnie positive (A B Pn (R)).

Si X Pn (R), la racine carre positive de X (note X 1/2 ) est lunique S

Pn (R) telle que S 2 = X. Lapplication X  X 1/2 a des proprits similaires


celles de la fonction racine carre sur R+
; prudence tout de mme... Mmes
remarques pour lapplication X  X 1 .
Si K est un cne convexe ferm dun espace euclidien (E,
, ), le cne polaire

K de K est le cne convexe ferm de E dni comme suit :


K := {s E |
s, x  0 pour tout x K}.

I.2. Calcul direntiel


f : O Rn R dnie sur un ouvert O de Rn est dite direntiable en
x O sil existe l : Rn R linaire telle que :
f (x + h) = f (x) + l(h) +  h  (h) , avec (h) 0 quand h 0.
=

(1.1)

l est reprsente (dans (Rn ,


, ) euclidien) par un unique vecteur, appel gradient
de f en x, et not f (x) (a se lit nabla f de x ). Dsignant par j f (x) la
drive partielle en x de f par rapport la j e variable, f (x) est le vecteur de
Rn de composantes 1 f (x) , ..., n f (x). Une manire quivalente dexprimer (1.1)
est :
f (x + td) f (x)
=
f (x) , d
(1.2)
lim
t
t0+
et la convergence est uniforme par rapport d lorsque celui-ci reste dans un
ensemble born de Rn (la sphre-unit par exemple).
gnralement, F : O Rn Rm qui x O associe F (x) =
Plus
f1 (x)
..
. est dite direntiable en x O si chacune des fonctions-composantes
fm (x)
f1 , ..., fm lest. On appelle alors matrice jacobienne de F en x, et on note JF (x)
la matrice de Mm,n (R) dont les lignes sont [f1 (x)] , ..., [fm (x)] , cest--dire
que le terme (i, j) de JF (x) est j fi (x) .
2

I.3. Fonctions convexes

Revenant une fonction numrique f : O Rn R direntiable sur O,


on dit que f est deux fois direntiable en x O lorsque f : O Rn Rn
est direntiable en x. La matrice jacobienne de f en x est appele matrice
hessienne de f en x et note 2 f (x) ; il sagit dune matrice symtrique de taille
2 f (x) (drive partielle dordre 2 en x
n dont le terme (i, j) est i (j f )(x) = ij
de f par rapport la ie et j e variables).
Rappel : dans le cas o f est deux fois direntiable en x O, on a le
dveloppement de Taylor-Young dordre deux suivant :
1
f (x + h) = f (x) +
f (x) , h +
2 f (x) h, h +  h 2 (h) ,
2

(1.3)

avec (h) 0 quand h 0.


=

Enn deux ensembles de rsultats de Calcul direntiel sont essentiels en Optimisation : le thorme de la fonction implicite et le thorme dinversion locale ;
les dveloppements de Taylor sous leurs formes diverses. revoir si ncessaire.

I.3. Fonctions convexes


Soit C un convexe de Rn ; f : C R est dite convexe sur C si pour tout
(x, x ) C C et tout ]0, 1[ on a :


(1.4)
f x + (1 ) x  f (x) + (1 ) f (x ).
f est dite strictement convexe sur C quand lingalit (1.4) est stricte ds que
x = x . Une proprit encore plus forte est comme suit : f est dite fortement
convexe sur C, de module de forte convexit c > 0, lorsque


1
f x + (1 ) x  f (x) + (1 ) f (x ) c (1 )  x x 2
2

(1.5)

pour tout (x, x ) C C et tout ]0, 1[ .


Rappelons deux rsultats essentiels :

Theor`eme. Soit f direntiable sur un ouvert O de Rn et C un convexe de O.


Alors :
(i) f est convexe sur C si et seulement si
f (x)  f (x) +
f (x) , x x pour tout (x, x) C C ;

(1.6)

Chapitre I. Rvision de bases : calcul diffrentiel...

(ii) f est strictement convexe sur C si et seulement si lingalit (1.6) est stricte
ds que x = x ;
(iii) f est fortement convexe sur C de module c si et seulement si
1
f (x)  f (x) +
f (x) , x x + c  x x 2 , pour tout (x, x) C C. (1.7)
2

Theor`eme. Soit f deux fois direntiable sur un ouvert convexe O. Alors :


(i) f est convexe sur O si et seulement si 2 f (x) est semi-dnie positive
pour tout x O ;
(ii) Si 2 f (x) est dnie positive pour tout x O, alors f est strictement
convexe sur O ;
(iii) f est fortement convexe sur O de module c si et seulement si la plus
petite valeur propre de 2 f (x) est minore sur O par c , soit encore :

2 f (x) d, d  c  d 2 pour tout x O et tout d Rn .


Rfrences. Parmi les exercices de [15] gurent des applications simples lAnalyse numrique matricielle et lOptimisation. Outre les rfrences suggres en
pp. 305 307 de [15] (et rdites prsent), signalons [16], ouvrage complet et trs
dius, dans lequel laspect matriciel (celui qui prvaut dans les applications) est
privilgi.
Pour les fonctions convexes direntiables, on pourra consulter [12], Chapitre IV, Section 4, par exemple.

* Exercice I.1. Soit f : Rn R continment direntiable.


1 ) Soit x0 tel que f (x0 ) = 0. Que reprsente f (x0 ) pour la surface de
niveau S := {x Rn | f (x) = f (x0 )} ?
2 ) Rappeler lquation de lhyperplan ane (de Rn+1 ) tangent au graphe
de f en (x0 , f (x0 )) .
Donner laide de f (x0 ) un vecteur normal cet hyperplan.
3 ) On suppose quil existe L > 0 tel que


 
 f (x) f x   L  x x  pour tout x, x Rn Rn .
Montrer qualors
|f (x + d) f (x)
f (x), d | 

L
 d 2 pour tout (x, d) Rn Rn .
2

I.3. Fonctions convexes

Solution : 1 ) f (x0 ) est un vecteur normal S en x0 ; le sous-espace tangent


S en x0 est orthogonal f (x0 ).
2 ) Soit grf := {(x, f (x)) | x Rn } le graphe de f (partie de Rn+1 donc).
Le sous-espace ane tangent grf en (x0 , f (x0 )) a pour quation
y = f (x0 ) +
f (x0 ), x x0 .
Un vecteur normal cet hyperplan est fourni par (f (x0 ), 1) Rn R.
On peut voir aussi grf comme la surface de niveau 0 de la fonction
g : (x, r) Rn R  g(x, r) := f (x) r.
Comme g (x0 , f (x0 )) = (f (x0 ), 1) nest jamais nul, le vecteur
(f (x0 ), 1) est normal grf en (x0 , f (x0 )) .

Figure 1.

3 ) f tant continment direntiable, on a grce la formule de Taylor


lordre zro avec reste sous forme dintgrale


f (x + td), d dt.

f (x + d) = f (x) +
0


Sachant que
f (x), d =
cdente en

f (x), d dt, on transforme lexpression pr

f (x + d) f (x)
f (x), d =

f (x + td) f (x), d dt.

Chapitre I. Rvision de bases : calcul diffrentiel...

Il sensuit grce lhypothse faite sur f :


|
f (x + td) f (x), d |   f (x + td) f (x)   d 
 tL  d 2 ,
do :

|f (x + d) f (x)
f (x), d | 

1
0

(tL  d 2 )dt =

L
 d 2 .
2

Commentaire :
Prolongement de lexercice. On suppose prsent que f est deux fois direntiable sur Rn . Comment traduire alors en termes de 2 f lhypothse dans la
3e question ? Proposer ensuite une dmonstration de lingalit de la 3e question
qui sappuie sur une autre formule de Taylor.
Il importe de bien assimiler ce que reprsentent gomtriquement les objets
f (x) et 2 f (x) vis--vis des surfaces de niveau et du graphe de f .

* Exercice I.2.
Situations :

dterminer :

1 ) f : Rn R
x  f (x) :=
c, x + .
2 ) F : Rn Rm

f (x), 2 f (x) en tout point x.


JF (x).

x  F (x) := Lx + b, o L Mm,n (R).


3 ) f : Rn R
x  f (x) := 12
Ax, x +
d, x + ,
o A Mn (R).

f (x), 2 f (x).

4 ) g : Rn R

g(x), 2 g(x).

x  g(x) :=

[ri (x)]2 ,

i=1

o les ri : Rn R sont deux


fois direntiables.
Commentaire : Ne pas se lancer tte baisse dans le calcul de drives partielles !
Pour les fonctions de base que sont les fonctions anes, quadratiques, sommes
de carrs, etc., il faut savoir dterminer f (x), 2 f (x) rapidement et sans erreur,
mcaniquement presque.
6

I.3. Fonctions convexes

Solution :
1 ) f (x) = c, 2 f (x) = 0 pour tout x Rn .
2 ) JF (x) = L (L est la partie linaire de la fonction ane F ).


3 ) f (x) = 12 A + A x + d, f (x) = Ax + d si A est symtrique.


2 f (x) = 12 A + A , 2 f (x) = A si A est symtrique.
m

ri (x)ri (x),
4 ) g(x) = 2
i=1
m 

2 g(x) = 2


ri (x) [ri (x)] + ri (x)2 ri (x) .

i=1

Ainsi, si (r1 (x), ..., rm (x)) est proche de 0 dans Rm , on peut considm

ri (x) [ri (x)] est une bonne approximation de 2 g(x) ;
rer que 2
i=1

approximation qui, de plus, ne fait appel quaux gradients des fonctions ri .

* Exercice I.3.
Situations :

Questions :

1 ) g : Rn R
x  g(x) :=

m



2 ,
fi+ (x)

i=1

g est-elle direntiable deux fois


direntiable ?

o les fi : Rn R sont deux


fois direntiables et a+ dsigne max
(0, a).
2 )
A
Rn

Rm
f

g := f A
R

o A : u  Au = A0 u + b, avec
A0 Mm,n (R), et f deux fois direntiable.
Application : Soit : Rn R deux
fois direntiable, x0 Rn , d Rn .
On pose (t) := f (x0 + td).

Dterminer g, 2 g en fonction des


lments correspondants f et 2 f .
Calculer  (t) (resp.  (t)) en fonction de f (x0 + td) (resp. 2 f (x0 +
td)).
7

Chapitre I. Rvision de bases : calcul diffrentiel...


2

Solution : 1 ) La fonction u R  (u+ ) est drivable une fois, mais pas


deux fois (daccord ?). Par suite, g est direntiable sur Rn et
g(x) = 2

fi+ (x) fi (x) pour tout x Rn .

i=1

Mais, en gnral, g nest pas deux fois direntiable en les points x o lun des
fi sannule.
Lorsque les fi sont de classe C 2 , la fonction g est dans une classe intermdiaire entre C 2 (Rn ) et C 1 (Rn ), celle des fonctions direntiables dont le gradient est localement lipschitzien.
2
 2
2 ) g(u) = A
0 f (Au) ; g(u) = A0 f (Au)A0 .

Application : A : R Rn dnie par At := x0 + td. Comme A0 : t  A0 t =


n
n
td, nous avons A
0 : R R qui x R associe
x, d . Par consquent, les
lments de R que sont les drives premire et seconde (usuelles) de sont
donnes par :
 (t) =
f (x0 + td), d ,

 (t) =
2 f (x0 + td)d, d .

** Exercice I.4. Soit Mn (R) structur en espace euclidien grce au produit scalaire A, B := tr A B ; soit louvert de Mn (R) constitu des matrices
inversibles. On considre les applications suivantes :
1 )
2 )
3 )
4 )
5 )

tr : A Mn (R)  trA R
dt : A Mn (R)  dtA R
g : A  g(A) := ln|dtA| R
f1 : A  f1 (A) := A1
p N , fp : A Mn (R)  fp (A) := Ap Mn (R)
fp : A  fp (A) := Ap .

Indiquer rapidement pourquoi ces applications sont direntiables. Dterminer en tout point de leurs domaines de dnition le gradient pour les trois
premires et la direntielle pour les dernires.
Commentaire : Si l : Mn (R) R est linaire (l est une forme linaire sur
Mn (R) donc), l est continue et il existe un unique M Mn (R) tel que
l(H) = M, H pour tout H Mn (R).
8

I.3. Fonctions convexes

Lorsque l est la direntielle Df (x0 ) dune fonction f : Mn (R) R


direntiable en x0 , son reprsentant M dans Mn (R) est le gradient de f en
x0 (et est not f (x0 )).
Bien matriser le calcul direntiel sur les fonctions de matrices est essentiel
en Analyse matricielle, Optimisation et (surtout) Statistique.
Solution : 1 ) A  trA est linaire (continue) ; donc sa direntielle en tout
A Mn (R) est elle-mme :
D tr (A) : H  trH = In , H .
Par consquent
tr (A) = In pour tout A Mn (R).
2 ) Lapplication dt peut tre vue comme une application multilinaire (contin
n
nue) de Mn (R)
 R R dans R. Elle est donc direntiable en tout
1
n
A = a , ..., a avec


D dt (A) : H = h , ..., h



dt a1 , ..., aj1 , hj , aj+1 , ..., an .

j=1



En dveloppant dt a1 , ..., aj1 , hj , aj+1 , ..., an par rapport la j e colonne, on
obtient :
n


hji (cofA)ij ,
dt a1 , ..., aj1 , hj , aj+1 , ..., an =
i=1

o cof A dsigne la matrice des cofacteurs de A. Il sensuit :


[D dt(A)] (H) =

hji (cofA)ij = cofA, H .

i,j=1

En dnitive,
dt(A) = cofA en tout A Mn (R).
3 ) Par application du thorme de composition des applications direntiables, g est direntiable et
Dg(A) : H 
Donc



cofA, H
= A1 , H .
dt A



g(A) = A1 en tout A .
9

Chapitre I. Rvision de bases : calcul diffrentiel...

4 ) Lapplication A cof A est direntiable car chacune de ses applicationscomposantes (qui sont des dterminants) est direntiable ; il sensuit que lap(cofA)
est direntiable. Le calcul de la diplication f1 : A  A1 =
dtA
rentielle de f1 en A se fait rapidement partir de la relation
f1 (A)f1 (A) = In pour tout A ,
que lon direntie. On trouve :
Df1 (A) : H  [D f1 (A)] H = A1 HA1 .
5 ) Lapplication qui (A1 , . . . , Ap ) Mn (R) . . . Mn (R) associe le produit A1 A2 . . . Ap est multilinaire (continue) ; elle est donc direntiable et sa
direntielle en (A1 , . . . , Ap ) est :
(H1 , . . . , Hp ) 

A1 . . . Ai1 Hi Ai+1 . . . Ap .

i=1

Il sensuit alors :
Dfp (A) : H  [Dfp (A)] (H) =

Ai1 HApi pour tout A Mn (R) ;

i=1

Dfp (A) : H  [Dfp (A)] (H) =

Ai HAi1p pour tout A .

i=1

Ax, x
. Calcu x 2
ler f (x) en x = 0 et le comparer la projection orthogonale de Ax sur le
sous-espace vectoriel Hx orthogonal x.

** Exercice I.5. Soit A Sn (R) et f : x Rn \ {0}  f (x) :=

2
Solution : On a aisment f (x) =
[Ax f (x)x] .
 x 2



Ax, x

Ax, x
x +
x est la dcomposition
La dcomposition Ax = Ax
2
x
 x 2
orthogonale de Ax suivant Hx et (Hx ) = Rx. Donc, f (x) est au coecient
2
prs la projection orthogonale de Ax sur Hx .
multiplicatif
 x 2

10

I.3. Fonctions convexes

En x Rn \ {0} minimisant (ou maximisant) f sur Rn \ {0}, on a ncessairement f (x) = 0, soit Ax = f (x) x ; de tels x sont donc des vecteurs propres
associs la valeur propre f (x) ( suivre dans lExercice III.4).

** Exercice I.6. Soit Mm,n


structur
en espace euclidien grce au produit

 (R)

scalaire M, N := tr M N et soit B Sn (R).
On dnit f, g : Mm,n (R) R par




f (A) := tr ABA et g(A) := dt ABA respectivement.
Dterminer les direntielles (premires) et les gradients de f et g en tout
A Mm,n (R).
Solution : f peut tre vue comme f2 f1 , o
f1 : A  f1 (A) := ABA et f2 : C  f2 (C) := tr C.
Puisque f1 (A + H) = f1 (A) + HBA + ABH  + HBH  , il vient que f1 est
direntiable en A avec Df1 (A) : H [Df1 (A)] (H) = HBA + ABH  .
Quant f2 qui est linaire (continue), Df2 (C) = f2 . Il sensuit :


Df (A) : H  [Df (A)] (H) = tr HBA + ABH 


car tr(HBA ) = tr(ABH  )

= 2 tr(ABH )
en raison de la symtrie de B
= 2 AB, H .
Do f (A) = 2AB.
Si f3 : C Sm (R)  f3 (C) := dt C, on a g = f3 f1 par dnition
mme de g. Lapplication f3 est direntiable et
Df3 (C) : K [Df3 (C)] (K) = tr ((cof C) K) (cf. Exercice 1.4)
Par suite :



 
Dg (A) : H  [Dg (A)] (H) = 2 tr cof ABA ABH 


= 2 cof ABA AB, H



et g(A) = 2 cof ABA AB.




En particulier, g(A) A = 2 cof ABA ABA = 2dt ABA Im .
11

Chapitre I. Rvision de bases : calcul diffrentiel...

*** Exercice I.7. Soit f : Rn R convexe et direntiable sur Rn . Montrer


lquivalence des trois proprits suivantes (o L est une constante > 0) :
(i) f (x) f (x )  L  x x  pour tout x,x (f est L-lipschitzienne
sur Rn ).
(ii)f (x ) f (x)
f (x), x x 
(iii)
f (x) f (x ), x x 

1
L

1
2L

 f (x) f (x ) 2 pour tout x, x .

 f (x) f (x ) 2 pour tout x, x .

Indication. Pour [(i) (ii)] on pourra considrer :


fx : y  f (y) f (x)
f (x), y x .

Solution : [(i) (ii)]. Soit (x, x ) Rn Rn et montrons que lingalit (ii)


est vrie pour ce couple de points. Considrons
fx : y Rn  fx (y) := f (y) f (x)
f (x), y x .
Il est clair que fx est convexe avec fx L-lipschitzienne sur Rn (puisque
fx = f f (x)). Par consquent, pour tout y Rn ,
 1

fx (x + t(y x )), y x dt


fx (y) = fx (x ) +
0
 1



= fx (x )+
fx (x ), yx +
fx (x +t(yx ))fx (x ), yx dt
0
 1



tL  y x 2 dt
 fx (x ) +
fx (x ), y x +
0

L
 fx (x ) +
fx (x ), y x +  y x 2 .
2
n
Le point x minimise fx sur R . Par suite


fx (x )
.
0 = fx (x)  fx x
L
Daprs lingalit (1.8) dans laquelle on fait y = x

(0 ) fx

12

fx (x )
x
L


(1.8)

fx (x )
L

 
1
L fx (x )
 fx (x )
fx (x ), fx x +
L
2
L


I.3. Fonctions convexes

soit
0  fx (x )

1
 fx (x ) 2
2L

ce qui nest autre que lingalit (ii) .


[(ii) (iii)]. On crit (ii) pour (x, x ) et (x , x) successivement, et on additionne membre membre les ingalits pour obtenir (iii) .
[(iii) (i)]. Rsulte de lingalit de Cauchy-Schwarz.

** Exercice I.8. Soit A Mn (R) inversible, V Mm,n (R) et U Mn,m (R).


On suppose que Im V A1 U est inversible.
1 ) Montrer que A U V est alors inversible, avec

1
V A1 .
(A U V )1 = A1 + A1 U Im V A1 U
2 ) Application 1. Soit u, v Rn . Quelle condition assurerait que A + uv 
est inversible ? Quelle est alors linverse de A + uv  ?
3 ) Application 2. Rappeler pourquoi A + In est inversible pour | | susamment petit ; donner alors une expression de (A + In )1 .


a1k
a
1k
..
..

e
4 ) Application 3. On remplace dans A la k colonne . par . ,
ank
a
nk
1

et on appelle A la nouvelle matrice ainsi obtenue. Exprimer A sous la forme


Ek A1 , o Ek est une matrice que lon dterminera ; en dduire lexpression des
(1)
(1)
termes a
ij de A1 en fonction de ceux akl de A1 .
5 ) Application 4. On suppose ici que A est de plus symtrique. Soit u et v
dans Rn , et des rels ; on se propose de dterminer linverse de A + uu +
vv  .


On pose d := (1 + A1 u, u )(1 + A1 v, v ) ( A1 u, v )2 . Montrer
que A + uu + vv  est inversible ds lors que d = 0, avec
1


1
(1 + A1 v, v )A1 uu A1
= A1
A + uu + vv 
d

+ (1 + A1 u, u )A1 vv  A1



A1 u, v A1 vu A1 + A1 uv  A1 .

13

Chapitre I. Rvision de bases : calcul diffrentiel...

Indication. Pour la 4e question, on utilisera le rsultat de la 2e question avec

0
1k
a1k a

.
..

..

..

.
e

u=
et v = 1 k ligne.
..

..

..

.
nk
ank a
0
le rsultat de la 1re question avec U :=
Pour la 5e question, on utilisera

u
M2,n (R)].
[u v] Mn,2 (R) et V :=
v 
Solution : U V Mn (R), V A1 U Mm (R) par construction.
n
m

A1

V A1U

n
V

1 ) Puisquon propose une expression E de (A U V )1 , il sut de vrier


que (A U V ) E = In (ou bien E (A U V ) = In ).
On a :
"
!

1
V A1
(A U V ) E = (A U V ) A1 + A1 U Im V A1 U

1
V A1 U V A1
= AA1 + AA1 U Im V A1 U

1
U V A1 U Im V A1 U
V A1


1
= In U V A1 + U Im V A1 U Im V A1 U
V A1
= In U V A1 + U V A1 = In .
2 ) On se place dans le cas o m = 1 : u et v sont dans Rn Mn,1 (R),
et la condition Im V A1 U est inversible revient 1 +
v, A1 u = 0 .
14

I.3. Fonctions convexes

Donc, si
A1 u, v = 1, la matrice A + uv  est inversible avec
1

= A1
A + uv 

1
A1 uv  A1 .
1 +
A1 u, v

(1.9)

Cas particuliers :
A = In : Si
u, v = 1, In + uv  est inversible avec


In + uv 

1

= In

1
uv  .
1 +
u, v

(1.10)

A = In , u = v : In + uu est inversible avec


1

= In
In + uu

1
uu .
1+  u 2

(1.11)

La formule (1.9) donne linverse dune matrice perturbe par une matrice
de rang 1 ; on rappelle en liaison avec (1.10) le rsultat suivant sur les dterminants :


dt In + uv  = 1 +
u, v

( revoir si ncessaire) .

3 ) Lensemble des matrices n n inversibles est un ouvert de Mn (R).


Puisque A , il existe donc > 0 tel que A + In pour | | .
Appliquons le rsultat de la 1re question avec U = In et V = In :

1 1
A .
(A + In )1 = A1 A1 In + A1


0
a1k a
1k

..
.
..

0
..


4 ) En prenant u =
et v = 1 k ligne,
..

0
.

..

..

.
.
nk
ank a
0
15

Chapitre I. Rvision de bases : calcul diffrentiel...

on constate queA = A
uv  (cest fait pour !). Appliquons le rsultat de la

2e question : si A1 u k = 1, la matrice A est inversible et
ke colonne

A1

u1
1

= A1 +
A1 0 ... 0 A1
1 (A1 u)k
un

=
In + 1 (A1 u) 0

$%
#

 1 
A u 1

..
1
A .
 1.  0

A u n

&

Ek

Explicitons A1

ke colonne

..
1 0 0.

..

0 1 0 . 0

!
"
..

(1)
0
0
1
.

,
= a
ij
: Ek est de la forme

..

.. 1 0 0

.
0 .. 0 1 0

..
.0 0 1

et A1 = Ek A1 ; do :

(1)
a
k,j

(1)
ak,j

1
1 (A1 u)k

(1)

= ak,j

1
n

l=1

n


si i = k,

(1)
a
i,j

(1)
aij

l=1
n

l=1

16

(1)

ail

alk

(1)
akl
alk

(1)
akj

(1)
aij

(1)

akl

;
a
lk

' n

l=1

(
(1)
ail

(1)

a
lk a
kj .

I.3. Fonctions convexes

5 )


u
Avec U := [u v] et V :=
, on a
v 
1

I2 V A


1 + A1 u,
u
A 1 u, v

U=
1 + A1 v, v
A1 u, v


( M2 (R)) .

Cette matrice est inversible si et seulement si




d : = dt I2 V A1 U


= (1 + A1 u, u )(1 + A1 v, v ) ( A1 u, v )2 = 0.

Dans ce cas



1 1 1 + A1 v, v A1 u, v

1

.

=
I2 V A U
d A1 u, v 1 + A1 u, u
Lapplication de la formule dmontre la 1re question conduit alors
aprs quelques calculs, certes la formule annonce.

** Exercice I.9. Ingalit de Kantorovitch


Soit A symtrique dnie positive. Montrer que pour tout x Rn
)*
* +2
1

n
1
 x 4 
Ax, x
A1 x, x 
+
 x 4 ,
4
n
1

(1.12)

o 1 et n dsignent respectivement la plus grande et la plus petite valeur


propre de A.
Indication. Il y a intrt diagonaliser A (et donc A1 ). On utilisera ensuite les
proprits de convexit de la fonction x > 0  1/x.
Solution : Par homognit, il sut de dmontrer lingalit (1.12) pour
 x = 1.
Rangeons les valeurs propres de A par ordre dcroissant : 1  2  . . . 
n , et considrons une matrice orthogonale P diagonalisant A :
A =t P P, avec := diag(1 , 2 , . . . , n ).
17

Chapitre I. Rvision de bases : calcul diffrentiel...

A1 = (t P P )1 = tP 1 P, ou 1 = diag(1/1 , 1/2 , . . . , 1/n ) ;

Ax, x =
t P P x, x =
(P x), P x ;

A1 x, x =
1 (P x), P x .

La transformation P : x S := {x |  x = 1}  y = P x S est une


bijection de la sphre-unit euclidienne sur elle-mme. Oprons alors le changement de variables y = P x. Il faut donc dmontrer que pour tout vecteur
unitaire y de Rn ,
1
1 
y, y
1 y, y 
4

)*

1
+
n

n
1

+2
.

(1.13)

Considrons pour cela le graphe (et ce qui est au-dessus, appel lpigraphe)
de la fonction : x > 0  1/x. (Il est suppos que n < 1 , sinon il ny a
rien dmontrer.)

Figure 2.

tant donn y = (y1, ..., yn ) Rn de norme 1, posons i := yi2 . Ainsi


n
n


1
yi2 i (resp.
1 y, y =
yi2 ) est une combinaison convexe

y, y =

i
i=1
i=1
des i (resp. des 1/i ).
Pour k = 1, 2, ..., n, soit Mk le point du graphe de de coordonnes k
et 1/k .
18

I.3. Fonctions convexes

Le point M , barycentre des points Mk aects des coecients i , est dans


le domaine convexe D dlimit par le graphe de et la droite M1 Mn (et mme
dans le polygone convexe de sommets M1 , M2 ,..., Mn ). Deux points de mme
abscisse que M (abscisse note ) jouent un rle particulier :
le premier, M , est le point correspondant du graphe de ;
le second, M , est le point correspondant sur la droite M1 Mn .
Ainsi :
n

1
1
i ; M est dordonne n
=
M est dordonne

i
i=1
i i

1
;

i=1

1
1

est dordonne y() =


+

(par un calcul algbrique


1 n 1 n

facile).
crire que lordonne de M est suprieure celle de M conduit
n

i=1

1
1
 , soit
1 y, y
y, y  1.
i

De mme, crivons que lordonne de M est suprieure celle de M :


n

i=1

do

n

i=1

i i

+) n

i=1

1
i
i

1
 y(),
i



  1 + n

y =
1 n

u (1 + n u)
atteint son maximum pour
1 n


 
1 + n 2 1
1 + n
, lexpression y est majore par
, soit
u=
2
2
1 n
encore
)*
* +2


n
1
1
n
1 1
+
+2 =
+
.
4 n
1
4
n
1
Comme la fonction u 

La deuxime ingalit dans (1.13) est donc dmontre.

19

Chapitre I. Rvision de bases : calcul diffrentiel...

** Exercice I.10. Gomtrie de lensemble des matrices symtriques


semi-dnies positives
On part de Sn (R), n  2, structur en espace euclidien laide du produit
scalaire fondamental (A, B)  A, B := tr(AB). On dsigne par Pn (R)

(resp. Pn (R)) lensemble de A Sn (R) qui sont semi-dnies positives (resp.


dnies positives).
1 ) Montrer que Pn (R) est un cne convexe ferm de Sn (R) et que lintrieur

de Pn (R) est exactement Pn (R).


2 ) Montrer que le cne polaire [Pn (R)] de Pn (R) nest autre que Pn (R).
3 ) On suppose ici que n = 2.
a) Rappeler quelles conditions
 sur
 les rels a, b, et c sont ncessaires et
ab
susantes pour que A =
soit semi-dnie positive (resp. dnie
bc
positive).
b) On dnit : S2 (R) R3 par

A=


ab
 (A) := (a, b, c).

bc

3 rapport
Dans
 R 

10
1

,
00
0


un repre
(O;i, j, k), reprsenter
 orthonorm

0
11
,
et (P2 (R)).
1
11


ab
c) Montrer que toutes les matrices non nulles A =
se trouvant
bc
sur la frontire de P2 (R) sont de forme xx , ox est un lment non
ab
se trouvant sur
nul de R2 . En dduire une description des A =
bc
cette frontire laide de conditions sur les coecients a, b, c de A.
Indication. Parmi les matrices de Pn (R), il y a celles de la forme A = xx , avec
x Rn \ {0}. Pour ces matrices A et un B Sn (R), on note que A, B =

Bx, x .
n

i xi x
De plus, si S Sn (R), une dcomposition spectrale de S est S =
i ,
i=1

o les i sont les valeurs propres de A, xi Rn est un vecteur propre unitaire


associ i .
20

I.3. Fonctions convexes

Solution : 1 ) Soit A, B Pn (R) et [0, 1]. On a :

(A + (1 )B)x, x =
Ax, x + (1 )
Bx, x  0,

x Rn ,

ce qui implique A + (1 )B Pn (R).


De mme, il est immdiat de constater que A Pn (R) lorsque A Pn (R)
et > 0. Donc Pn (R) est bien un cne convexe de Sn (R).
Soit {Ak } une suite dlments de Pn (R) convergeant vers A. Outre le fait
clair que A Sn (R), lingalit

Ak x, x  0 pour tout x Rn ,
induit par passage la limite sur k :
Ax, x  0 pour tout x Rn . Par
consquent A Pn (R). Et Pn (R) est bien ferm dans Sn (R).

Soit A Pn (R) et n > 0 la plus petite valeur propre de A. Rappelons cet gard lingalit suivante (que lon reverra dans lExercice 3.4) :

Ax, x  n  x 2 pour tout x Rn . Soit prsent M Sn (R). Puisque


)n
+1/2


2
i
(1  . . .  n , valeurs propres de M ),
 M := M, M =
i=1

il sut de prendre  M   n pour tre sr davoir

(A + M )x, x  (n + n )  x 2  0 pour tout x Rn ,


soit A + M Pn (R). Donc A est bien lintrieur de Pn (R).
Rciproquement, soit A lintrieur de Pn (R). Il existe alors > 0 assez
petit tel que A In Pn (R). En consquence, lingalit

(A In )x, x  0 pour tout x Rn


induit

Ax, x   x 2 pour tout x Rn ,

soit A Pn (R).

Le rsultat de cette 1re question explique la notation Pn (R) utilise pour


lensemble des matrices symtriques dnies positives.
La frontire de Pn (R) est donc constitue des matrices semi-dnies positives qui sont singulires ; parmi celles-l gurent les matrices de rang 1,
cest--dire du type xx avec x = 0.
2 ) Soit B Sn (R) dans le cne polaire de Pn (R). Puisque B, A  0
pour tout A Pn (R), en particulier B, xx =
Bx, x  0 pour tout x
Rn ; donc B est semi-dnie ngative.
21

Chapitre I. Rvision de bases : calcul diffrentiel...

Rciproquement, soit B semi-dnie ngative et A Pn (R). En dcomn



i xi x
posant A sous la forme
i (avec 1   n  0, valeurs propres
i=1

de A), on a
B, A = B,

n

i=1

i xi x
i =

i
Bxi , xi  0.

i=1

Do B [ Pn (R)] .
Ce rsultat [Pn (R)] = Pn (R) apparat ainsi comme la gnralisation
de la relation de polarit (Rn+ ) = Rn+ dans lespace euclidien standard
(Rn ,
, ).
3 ) a)




ab
A=
P2 (R) (a > 0 et ac b2 > 0) ;
bc





a  0, c  0
ab
.
A=
P2 (R)
et ac b2  0
bc

b)


P1 =

P2 =

P3 =

10
00
10
01
11
11





Figure 3.

Remarquons que le produit scalaire A, B nest pas le produit scalaire usuel de (A) et (B) dans R3 ; en eet

   
ab
a b

,   = aa + 2bb + cc ,
b c
bc
22

I.3. Fonctions convexes

tandis que

, 
    ab
a b
= aa + bb + cc .

,
b c
bc

c) Les matrices de la frontire de P2 (R) sont les matrices semi-dnies positives singulires ; mise part la matrice nulle, il sagit donc de matrices
de rang 1, i.e. du type
 2

 
x1 x1 x2
x1
[x1 x2 ] =
x2
x1 x2 x22
o x = (x1 , x2 ) est un lment non nul de R2 .
En dnitive, la frontire de P2 (R) peut tre dcrite comme
/
.

a ac

, a  0 et c  0 .
ac c
Remarque : On aurait pu utiliser


ab
: A :=
S2 (R)  (A) := (a, 2 b, c) R3
bc
qui a lavantage 
de conserver
les produits scalaires usuels dans S2 (R) et R3 , ou

ab
mieux, : A =
 (A) := 12 (2b, c a, c + a) qui permet de reprbc

3 dquation w 
de
R
u2 + v 2 et les lments de
senter (P2 (R)) par le cne

2x1 x2

 
x1

1
[x1 x2 ] = 2 x22 x21 par la frontire de ce cne, dquation :

x2
x22 + x21
w2 = u2 + v 2 , w  0.

** Exercice I.11. Soit A Mn (R) symtrique et inversible, soit H un sousespace vectoriel de Rn . Montrer quune condition ncessaire et susante pour
que A soit dnie positive est :

Ax, x > 0 pour tout x H \ {0}

(C) et

A1 x, x > 0 pour tout x H \ {0}.

23

Chapitre I. Rvision de bases : calcul diffrentiel...

Solution : La ncessit de (C) est immdiate puisque A1 est (symtrique)


dnie positive ds que A lest.
La dnie positivit de A sous la condition (C) sera dmontre en deux
tapes.
Montrons tout dabord que Rn = H A1 (H ).
On a dimH +dimA1 (H ) = dimH +dimH = n. Il sut donc de dmontrer que H A1 (H ) = {0}. Prenons pour cela x H A1 (H ). Comme
Ax H ,
Ax, y = 0 pour tout y H. Ainsi : x H et
Ax, x = 0. Or,
daprs le premier volet de la condition (C), ceci nest possible que si x = 0.
Montrons prsent que

A(x + y), x + y  0 pour tout x H et tout y A1 (H ),


ce qui assurera la semi-dnie positivit de A.
Soit donc x H et y A1 (H ). Alors

A(x + y), x + y =
Ax, x + 2
x, Ay +
Ay, y ,
avec :

Ax, x  0 puisque x H,

x, Ay = 0 puisque x H et Ay H ,
et

Ay, y =
x , A1 x puisque x := Ay H .
En dnitive,
A(x + y), x + y  0.

Commentaire : Il y a en fait une caractrisation de A dnie positive plus


gnrale que (C), avec un cne convexe ferm K au lieu dun sous-espace vectoriel H : dans (C) on remplace H par K et H par le cne polaire K . Mais
la dmonstration est plus dicile. On retiendra nanmoins la belle symtrie du
rsultat puisque (A1 )1 = A et (K ) = K.

** Exercice I.12. Soit A = [aij ] Sn (R). Rassemblez toutes les caractrisations


que vous connaissez de :
A est dnie positive , et de A est semi-dnie positive .

24

I.3. Fonctions convexes

Solution : Dans Sn (R) structur en espace euclidien grce au produit scalaire


A, B := tr(AB), on considre :

Pn (R) := ensemble des matrices dnies positives,


Pn (R) := ensemble des matrices semi-dnies positives.
Nous serons aussi amens considrer la forme quadratique qA sur Rn
associe A, savoir : x Rn  qA (x) =
Ax, x .

* Proprits de Pn (R) et Pn (R) (cf. Exercice I.10) :

Pn (R) est un cne convexe ferm de Sn (R), dont lintrieur est Pn (R)

prcisment (Pn (R) est donc un cne convexe ouvert de Sn (R)).


Le cne polaire de Pn (R) est exactement Pn (R) (le cne des matrices
semi-dnies ngatives), cest--dire :
( B, A  0 pour tout A Pn (R)) (B Pn (R)) .
Cela se voit facilement en utilisant, pour S Sn (R), une dcomposition spectrale de S :
n

i xi x
S=
i
i=1

(o les i sont les valeurs propres de S, xi Rn est un vecteur propre unitaire


associ i ) et en observant que S, yy  =
Sy, y .
Sur la frontire du cne Pn (R) se trouvent donc toutes les matrices semidnies positives qui sont singulires ; il y a
la matrice nulle (cest la pointe du cne) ;
les matrices de rang 1, i.e. celles de la forme xx avec x = 0 (ce sont
les gnratrices extrmales du cne Pn (R)) ;
les matrices de rang 2, 3, ..., n 1.
Lorsque n = 2, on peut visualiser P2 (R) dans S2 (R) R3 (cf. Exercice I.10)
mais ceci est trs particulier dans la mesure o la frontire de S2 (R), prive de
lorigine, est lisse (ny gurent que des gnratrices extrmales).

* Caractrisations diverses de A Pn (R) :


Toutes les valeurs propres i de A sont strictement positives.
dt Ak > 0 pour tout k = 1, . . . , n, o Ak = [aij ]1  i  k .
1 j k

Il existe B inversible telle que A = BB  (auquel cas


Ax, x =  Bx 2 ).
25

Chapitre I. Rvision de bases : calcul diffrentiel...

Il y a direntes factorisations possibles de A sous cette forme :


la factorisation de Cholesky, o B est triangulaire infrieure avec lments diagonaux strictement positifs ;
en prenant B symtrique dnie positive (B est dans ce cas la racine
carre positive de A, note A1/2 ).
Les invariants principaux ik (A) de A, k = 1, . . . , n, sont strictement
positifs.
Si PA est le polynme caractristique de A, on a :
PA = (X)n + i1 (A)(X)n1 + + ik (A)(X)nk + + in (A).
Rappelons que
ik (A) =

i1 i2 . . . ik ;

1i1 <<ik n

par exemple i1 (A) = tr(A) et in (A) = dt A.


Une caractrisation lorsque A est inversible. Soit K un cne convexe
ferm de Rn et K son cne polaire ; alors
+
)



Ax, x > 0 pour tout x K \ {0} et


A Pn (R)

A1 x, x > 0 pour tout x K \ {0}


(cf. Exercice I.11 pour une dmonstration dans le cas plus simple o K est un
sous-espace vectoriel de Rn ).
Il y a dautres tests de dpistage du caractre dni positif de A Sn (R),
mais ils sont moins utiles dans la pratique ; titre dexemple :



A Pn (R) (A + (1 )In est inversible pour tout ]0, 1]) ;





A Pn (R) (Il existe B Sn (R) telle que A = exp B) .


* Caractrisations diverses de A Pn (R) :
Toutes les valeurs propres de A sont positives.
Il existe B telle que A = BB  (alors la forme quadratique qA (x) =

Ax, x est minimise (nulle en fait) sur le noyau de B).


Tous les mineurs principaux dordre k de A, k = 1, . . . , n, sont positifs (et pas seulement les dt (Ak ), k = 1, . . . , n). On rappelle quun mineur principal dordre k de A est le dterminant dune matrice (k, k) extraite de A en retenant les lignes et colonnes de numros n1 , n2 , . . . , nk , o
1  n1 < n2 < < nk <  n.
26

I.3. Fonctions convexes

Considrons par exemple

2 1 1
A = 1 2 1 S3 (R).
1 1 2
Le calcul des mineurs principaux de A se dcompose en :
3 dterminants de matrices (1,1) (tous gaux 2 ici),
3 dterminants de matrices (2,2) (tous gaux 3 ici),
1 dterminant de matrice (3,3) (ici dt A = 0).
Donc A est semi-dnie positive.


0 0
Considrons prsent A =
S2 (R). Bien que dt A1  0 et
0 1
dtA2  0, la matrice A nest pas semi-dnie positive (elle est mme semidnie ngative).
* Proprits de la forme quadratique qA :
n
(A
 Pn (R))  (qA est une fonction convexe sur R )

A Pn (R) (qA est strictement convexe sur Rn )

(qA est fortement convexe sur Rn ) .

** Exercice I.13. Soit Pn (R) lensemble des A Sn (R) qui sont dnies positives
(cest un ouvert convexe de Sn (R)). Soit

f : Pn (R) R
A  f (A) := ln(dt A1 ).

On se propose de montrer que f est strictement convexe sur Pn (R). Pour

cela, on prend X0 Pn (R), H Sn (R), et on considre la fonction de la


variable relle dnie par
(t) := ln(dt(X0 + tH)1 ).
1 ) Vrier que est dnie sur un intervalle ouvert (de R) contenant lorigine ; on notera IX0 ,H cet intervalle.
27

Chapitre I. Rvision de bases : calcul diffrentiel...

2 ) Montrer que
(t) (0) =

ln(1 + ti ) pour tout t IX0 ,H ,

i=1
1/2

o les i dsignent les valeurs propres de X0

1/2

HX0

3 ) Dduire de ce qui prcde la stricte convexit de f .

Solution : 1 ) Pn (R) tant ouvert et convexe,

IX0 ,H := {t R | X0 + tH Pn (R)}

est galement ouvert et convexe : cest limage inverse de Pn (R) par lapplication ane (continue) t  X0 + tH.


1/2
1/2
1/2
X0 + tH = X0
H
X0 + tX0
2 ) De :


1/2
1/2
1/2
1/2
HX0
In + tX0
X0 ,
= X0
on tire :


1/2
1/2
1/2 1
1/2
HX0
X0
,
In + tX0
(X0 + tH)1 = X0
do :


ln dt (X0 + tH)

ln(dt X01 )


 
1/2
1/2 1
+ ln dt In + tX0
HX0
.

Si {i | i = 1, . . . , n} est le spectre (entirement rel) de la matrice symtrique


1/2
1/2
HX0
, alors {1 + ti | i = 1, . . . , n} (resp. {(1 + ti )1 | i = 1, . . . , n})
X0


1/2
1/2
1/2
1/2 1
HX0
(resp. de In + tX0
HX0
). En
est le spectre de In + tX0
consquence,
n

ln(1 + ti ).
(t) = (0)
i=1

3 )

est strictement convexe sur IX0 ,H car  > 0 sur IX0 ,H . Par suite, la

fonction f dont toute trace sur une droite passant par X0 Pn (R)
et dirige par H Sn (R) est strictement convexe, est elle-mme strictement
convexe.

28

I.3. Fonctions convexes

Commentaire :
La proprit dmontre dans lexercice se traduit par : si A et B sont (symtriques) dnies positives et direntes, et si ]0, 1[ alors
dt(A + (1 )B) > (dtA) (dtB)1 .

Autre exemple de consquence : {A Pn (R) | dtA  1} est un ensemble


convexe (ce qui ne saute pas aux yeux...).
La proprit dmontre dans cet exercice est essentielle ; on y reviendra
maintes et maintes fois.

** Exercice I.14. Soit f : Sn (R) R


A  f (A) := dt A.
1 ) Rappeler ce quest la direntielle de f en A Sn (R).

2 ) Soit g : Pn (R) R
A  g(A) := ln(dt A).

Sachant que g est deux fois direntiable sur Pn (R), dterminer le plus

conomiquement possible la direntielle seconde de g en A Pn (R).


Solution : 1 ) Df (A) : H Sn (R)  cof A, H ; revoir ce sujet
lExercice 1.4 si ncessaire.
2 ) Dg(A) : H Sn (R)  A1 , H (= tr(A1 H)).
On sait que D 2 g(A) : Sn (R) Sn (R) R
(H, K)  D2 g(A)(H, K)
est une forme bilinaire symtrique sur Sn (R). La voie la plus conomique pour
dterminer D 2 g(A)(H, K) est la suivante : D 2 g(A)(H, K) est la direntielle

(premire) en A de lapplication X Pn (R)  Dg(X)H, applique K.


Dans le cas prsent :
D2 g(A)(H, K) = A1 KA1 , H = tr(A1 KA1 H).
Il sensuit notamment (par un dveloppement de Taylor-Young lordre

deux de g en A Pn (R)) : pour tout H Sn (R),


ln(dt (A + H)) = ln(dt (A)) + tr(A1 H) tr(A1 HA1 H) +  H 2 (H),
o (H) 0 quand H 0.
29

Chapitre I. Rvision de bases : calcul diffrentiel...

** Exercice I.15. Soit O un ouvert convexe de Rn et f : O R+


. On dit que
f est logarithmiquement convexe (sur O) lorsque la fonction ln f : O R est
convexe.
1 ) a) Montrer que si : O R est convexe, il en est de mme de la fonction
exp .
b) En dduire quune fonction logarithmiquement convexe est ncessairement convexe.
2 ) a) On suppose ici que f est deux fois direntiable sur O. Montrer
lquivalence des assertions suivantes :
(i) f est logarithmiquement convexe ;
(ii) f (x)2 f (x)  f (x) [f (x)] pour tout x O ;
(iii) La fonction x  e a,x f (x) est convexe pour tout a Rn .
b) En dduire que si f1 et f2 sont logarithmiquement convexes et deux fois
direntiables sur O, il en est de mme de leur somme f1 + f2 .
Solution : 1 ) a) La fonction : x O  (x) est convexe par hypothse ;
la fonction y R  exp y est croissante et convexe. Par suite, la fonction
compose qui x O associe exp (x) est convexe ; en eet :
]0, 1[ , x , x O, (x + (1 )x )  (x) + (1 )(x ),
do
(exp )(x + (1 )x )  exp[(x) + (1 )(x )]
 exp (x) + (1 )(x ).
b) Appliquons le rsultat prcdent := ln f ; il vient que f = exp(ln f )
est convexe.
2 ) a) [(i) (ii)]. On sait que la fonction (deux fois direntiable) := ln f
est convexe si et seulement si :
2 (x) est semi-dnie positive pour tout x O.
Mais
2 (x) =

f (x)2 f (x) f (x)[f (x)]


pour tout x O ;
f (x)2

lquivalence annonce sensuit.


30

I.3. Fonctions convexes

[(ii) (iii)]. Soit ga : x O  ga (x) := e a,x f (x). La fonction ga est


deux fois direntiable
5
4 sur O avec
2 ga (x) = e a,x f (x)aa + f (x)a + a[f (x)] + 2 f (x) pour tout
x O.
Par consquent, ce quexprime (iii) est
exactement

:
f (x)(
a, h )2 + 2
f (x), h
a, h + 2 f (x)h, h  0 pour tout x O,
tout a Rn et tout h Rn ;
soit encore

f (x)u2 + 2
f (x), h u + 2 f (x)h, h  0 pour tout x O, tout u R
et tout h Rn .
Le trinme du second degr mis en vidence ci-dessus est positif sur R si
et seulement si son discriminant est ngatif ; cela se traduit par

(
f (x), h )2 f (x) 2 f (x)h, h  0.
Lquivalence de (iii) et (ii) est claire prsent.
b) Si f1 et f2 sont logarithmiquement convexes, toutes les fonctions x 
e a,x f1 (x) et x  e a,x f2 (x) sont convexes (daprs [(i) (iii)] de la question prcdente) ; par suite, toutes les fonctions x  e a,x (f1 + f2 )(x) sont
convexes, et donc f1 + f2 est logarithmiquement convexe (daprs [(iii) (i)]
de la question prcdente).

Commentaire : Prolongement de lexercice : Dmontrer lquivalence entre (i)


et (iii) de la question 2 ) a) et le rsultat de la question 2 ) b) pour des fonctions
qui ne sont pas ncessairement direntiables.

** Exercice I.16. Soit Q Sp (R) et A Mm,p (R). Montrer lquivalence des


deux assertions suivantes :
(i)
Qx, x > 0 pour tout x Ker A \ {0} ;
(ii) Il existe 0  0 tel que Q + 0 A A soit dnie positive.

Solution : [(ii) (i)]. Immdiat : si x Ker A, x = 0,

Qx, x =
Qx, x + 0  Ax 2 =
(Q + 0 A A)x, x > 0.

31

Chapitre I. Rvision de bases : calcul diffrentiel...

[(i) (ii)]. Supposons que (ii) ne soit pas ralise. Pour tout n N il existe
donc un vecteur xn = 0 tel que

Qxn , xn + n  Axn 2  0,
soit encore, en posant un := xn /  xn ,

Qun , un
+  Aun 2  0.
n
On peut alors extraire de {un } une sous-suite {unk }k convergeant, lorsque
k +, vers un vecteur u de norme 1. En passant la limite dans lingalit ()nk , on obtient Au = 0. Or, daprs (i),
Qu, u > 0, ce qui implique que

Qunk , unk > 0 pour k assez grand. Ceci contredit lingalit ()nk .
()n

Commentaire : Il est clair que si Q + 0 A A est dnie positive pour un certain 0 , il en est de mme de Q + A A ds que  0 .

** Exercice I.17. Soit A et B dans Sn (R), A tant de plus dnie positive. Montrer que :
le spectre de AB est entirement rel ;
la plus grande valeur propre de AB est gal supu = 0

Bu, u
;

A1 u, u

AB est diagonalisable.
Indication. Considrer C := A1/2 BA1/2 ou, ce qui revient au mme, la rduction
de la forme quadratique associe B dans lespace euclidien (Rn ,
, A ) avec

u, v A :=
Au, v .

Solution : Les valeurs propres de AB sont les racines de la fonction polynme


caractristique P () = dt (AB In ). Mais, en factorisant A1/2 gauche
dans AB In , puis en multipliant droite par A1/2 , on constate que
(dt (AB In ) = 0) (dt (A1/2 B A1/2 ) = 0)
(dt (A1/2 BA1/2 In ) = 0).
Le spectre de AB est donc celui de la matrice symtrique A1/2 BA1/2 , entirement constitu de rels.
32

I.3. Fonctions convexes

De plus

A1/2 BA1/2 x, x

x, x
x = 0



Bu, u
en posant
.
= sup
1
u = A1/2 x
u = 0
A u, u

max (AB) = max (A1/2 BA1/2 ) = sup

Soit U une matrice orthogonale diagonalisant A1/2 BA1/2 :


U 1 (A1/2 BA1/2 )U = diag(1 , . . . , n ).
Alors P := A1/2 U diagonalise AB :
P 1 (AB)P = diag(1 , . . . , n ).
Remarque : Si B est semi-dnie positive (resp. dnie positive) il en est de
mme de A1/2 BA1/2 ; le spectre de AB est alors constitu de rels  0 (resp.
> 0).

** Probl`eme I.18. Les donnes sont les suivantes : N, M entiers  1, A matrice


symtrique dnie positive de taille N, b RN , B matrice M lignes et N
colonnes (M  N ) non nulle. On dsigne par
, le produit scalaire usuel aussi
bien dans RN que dans RM , et par   la norme euclidienne associe.
On considre le problme de minimisation (dans RN ) suivant :
6
Minimiser f (x) := 12
Ax, x
b, x
(P)
sous la contrainte Bx = 0.
A Existence, unicit, caractrisation des solutions de (P) :
1 ) Quelles sont les proprits de f relatives la direntiabilit, la convexit,
et le comportement linni ?

2 ) Dmontrer que (P) a une solution et une seule (que lon notera x par la
suite).

3 ) a) Montrer que x est caractrise (parmi les lments de RN ) par le systme


6
Bx = 0
(S)
Ax b Im(B  ).
b) Vrier que f (x) = 12
Ax, x = 12
b, x :
33

Chapitre I. Rvision de bases : calcul diffrentiel...

B Lagrangien et lagrangien augment :


tant donn r  0, on dnit les applications L et Lr de RN RM dans R
par :
L(x, ) := f (x) +
, Bx (lagrangien usuel) ;
Lr (x, ) := L(x, ) +

r
 Bx 2 (lagrangien augment).
2

On dit que (x, ) RN RM est un point-selle (ou un col) de L sur RN RM


lorsque :
(x, ) RN RM , L(x, )  L(x, )  L(x, ).
Dnition analogue dun point-selle de Lr .
1 ) a) Montrer que lon a toujours :
+
)


inf L(x, )  inf
sup L(x, )
sup
RM

xRN

xRN

RM

(Cette ingalit est dans R {}, et sa dmonstration ne fait pas appel


lexpression particulire de L comme fonction de x et ).
b) Soit (x, ) un point-selle de L. Montrer :
L(x, ) = maxRM (inf xRN L(x, )) = minxRN (supRM L(x, )) .
2 ) Soit r  0 et (x, ) RN RM .
a) tablir les quivalences suivantes :


Lr (x, )  Lr (x, ) pour tout RM (Bx = 0) ;





Lr (x, )  Lr (x, ) pour tout x RN A + rB  B x + B  = b .
b) Quelles conclusions peut-on tirer de ce qui prcde concernant les liens
existant entre les points-selles de Lr et la solution de (P) ?
C Algorithme dArrow-Uzawa ( pas variable) :
Les donnes sont : r  0, 0 RM , (n ) une suite de rels > 0. On considre
les suites (xn ) de RN , (n ) de RM construites de manire rcurrente comme
suit :
6
n N, xn minimise Lr (, n ) sur RN ,
n+1 = n + n Bxn .
Soit (x, ) un point-selle de Lr .
34

I.3. Fonctions convexes

1 ) tablir les relations suivantes :


(A + rB  B)(xn x) + B  (n ) = 0 ;
n+1 = n + n B(xn x).
En dduire
 n+1 2 =  n 2 2 n
A(xn x), xn x
+ n (n 2r)  B(xn x) 2 .
2 ) On suppose dsormais n [0 , 1 ] pour tout n, o :


1
,
0 < 0 < 1 < 2 r +

:= la plus grande valeur propre de A1 B  B.


(On admettra ici que le spectre de A1 B  B est constitu de rels  0 et
Bu2
; cf. Exercice 1.17).
que = supu = 0 Au,u


a) Dmontrer que la suite  n 2 n est dcroissante.
b) Montrer que :
lim

n+

B(xn x) = 0 ;

Dduire de ce qui prcde :

lim

n+

lim
A(xn x), xn x = 0.

n+

xn = x.

3 ) Montrer galement que la suite (n ) converge quand n + vers


7 + 0,2 , o 0,2 est la composante de 0 dans Ker(B  ) provenant
=
7 le multiplicateur de
de la dcomposition ImB Ker(B  ) de RM , et
M
Lagrange de norme minimale dans R pour le problme (P) en question.
Commentaire : Ce problme, dans lequel apparaissent bien des aspects de lOptimisation, peut tre abord sans aucune connaissance spcique ce domaine ;
seuls sont utiliss les rsultats et techniques dans les thmes qui font lobjet de
rvisions dans ce chapitre.
Solution : A 1 ) f est de classe C sur RN ; f (x) = Ax b et 2 f (x) =
A pour tout x RN .
f est convexe (et mme fortement convexe) sur RN .
35

Chapitre I. Rvision de bases : calcul diffrentiel...

Si dsigne la plus petite valeur propre de A ( > 0 donc), on a :

Ax, x   x 2 , do f (x)   x 2  b   x  pour tout x.


2
f (x)
Ainsi
lim
= + : f est ce quon appelle 1-coercive sur RN .
x+  x 
2 ) La 1-coercivit de f est plus quil nen faut pour assurer lexistence dun minimum de f sur Ker B. Servons-nous de la proprit :
lim
f (x) = +.
 x  +
x Ker B
Choisissons x0 Ker B ; il existe r > x0  tel que
(x Ker B et  x > r) (f (x)  f (x0 )) .
De ce fait :
inf f (x) =

Bx=0

inf
f (x).
Bx = 0
 x  r

Lexistence dun minimum x de f sur Ker B sensuit. Lunicit de ce minimum vient de la stricte convexit de f .
6
3 ) (S)

Bx = 0
RM tel que Ax b + B  = 0.

a) Faisons une dmonstration directe du fait que (S) caractrise la solution


x de (P).
Partons de x vriant (S). Soit x Ker B ; a-t-on
1
1

Ax, x
b, x 
Ax, x
b, x ?
2
2
La fonction f tant convexe, on sait que f (x)  f (x) +
f (x), x x , soit ici
f (x)  f (x) +
Ax b, x x .
Mais Ax b Im(B  ) = (Ker B) et x x Ker B, donc
Ax b, x x = 0.
On suppose que x minimise f sur Ker B. Tout dabord, Bx = 0. Ensuite
f (x + td)  f (x) pour tout t R et d Ker B,
1 2
2 t
Ad, d

+ t
Ax b, d  0 pour tout t R et d Ker B.
Ceci nest possible que si
Ax b, d = 0. Donc Ax b (Ker B) =
Im(B  ).
i.e.

36

I.3. Fonctions convexes

Remarque : Lensemble des vriant Ax b + B  = 0 est lensemble des


multiplicateurs de Lagrange associ x. Cest un sous-espace ane de RM , de
la forme + Ker(B  ). Il est rduit {} lorsque B est surjective (i.e., lorsque
les m vecteurs-lignes de B sont linairement indpendants), ce quindiquait
dj le thorme de Lagrange.
b) Puisque Ax b Im(B  ) = (Ker B) , on a
Ax b, x = 0, soit

Ax, x =
b, x .
Do f (x) = 12
Ax, x = 12
b, x .
B 1 ) a) Soit (x0 , 0 ) RN RM . Par dnitions,
inf L(x, )  L(x0 , 0 )  sup L(x, ).

xRN

Do :


sup
RM

RM

+
)

inf L(x, )  inf
sup L(x, ) .

xRN

xRN

RM

b) Considrons maintenant un point-selle (x, ) de L sur RN RM . On a :




inf L(x, ) ;
L(x, ) = inf L(x, )  sup
xRN

RM

L(x, ) = sup L(x, )  inf

xRN

RM

Par suite :


inf L(x, )
sup
N
RM xR
$%
&
#
supremum atteint pour =

xRN

sup L(x, ) .

RM

)
=

inf

xRN

sup L(x, )

= L(x, ).

RM

$%
&
#
inmum atteint pour x =

2 ) a) L(x, ) = f (x) +
, Bx ; Lr (x, ) = L(x, ) + 2r
B  Bx, x . Alors :
maximise Lr (x, ) sur RM si et seulement si Lr (x, ) = Bx = 0 ;
x minimise la fonction quadratique convexe Lr (, ) sur RN si et seulement si
x Lr (x, ) = Ax b + B  + rB  Bx = 0.
b) Pour r  0 donn, un point-selle de Lr est exactement un couple (x, ) de
RN RM vriant
Bx = 0 et (A + rB  B)x + B  = b,
37

Chapitre I. Rvision de bases : calcul diffrentiel...

soit encore

Bx = 0 et Ax + B  = b.

En comparant ceci (S), on voit donc que la solution x de (P) est prcisment la premire composante de tout point-selle de L (ou de Lr , ceci pour
un r > 0, ou quelque soit r  0 ).
C 1 ) Puisque xn est, par construction, un minimum de Lr (, n ) sur RN , il
est caractris comme suit :
(A + rB  B)xn + B  n = b.
On a vu quil existe eectivement un point-selle (x, ) de Lr sur RN RM et
que ce point-selle est caractris par les relations :
Bx = 0 et (A + rB  B)x + B  = b.
Par suite :

(A + rB  B)(xn x) + B  (n ) = 0,

()

n+1 = n + n B(xn x).

()

On tire de () :
 n+1 2 =  n 2 + 2 n
B(xn x), n + 2n  B(xn x) 2 .
Il vient de (), en faisant le produit scalaire des deux membres avec xn x :

A(xn x), xn x + r  B(xn x) 2 +


B(xn x), n = 0.
Les deux galits prcdentes conduisent :
 n+1 2  n 2 =
2n
A(xn x), xn x + (2n 2n r)  B(xn x) 2 . ()
2 ) a) On doit sassurer que le second membre de () est  0.
Cest le cas si B(xn x) = 0. Sinon, il faut prouver que
n  B(xn x) 2 2[
A(xn x), xn x + r  B(xn x) 2 ]  0,



A(xn x), xn x
soit

()
n  2 r +
 B(xn x) 2


1
pour
tout
u
tel
que
Bu
=

0
et

<
2
r
+
Or : 1  Au,u
n
1
.
Bu2
Donc lingalit () a bien lieu.
38

I.3. Fonctions convexes

b) Par choix de n , on a : 2r n > 2 et n  0 > 0 pour tout n.


Alors
 n 2  n+1 2 = n [(2r n )  B(xn x) 2


2
+ 2
A(xn x), xn x ]  0
 B(xn x) 2 + 2
A(xn x), xn x .

Comme
A(xn x), xn x  1  B(xn x) 2 (voir la formulation variationnelle de et se rappeler que > 0), le second membre de lingalit
prcdente est  0.
Or  n 2  n+1 2 0 quand n + (puisque la suite
de rels positifs ( n 2 )n est dcroissante) ; donc
1
 B(xn x) 2 0 quand n +.



Utilisons prsent lingalit stricte 1 < 2 r + 1 :

A(xn x), xn x

2
A(xn x), xn x + (2r n )  B(xn x) 2

suite dont on sait


quelle tend vers 0
quand n +

= 2
A(xn x), xn x 2  B(xn x) 2
#
$%
&
lment  0

1
(2(r + ) n )  B(xn x) 2
+

#$%&

$%
&
#
>0

Par consquent :

lim

n+

2(r+ 1 )1 >0.

 B(xn x) 2 = 0, et limn+
A(xn x), xn

x = 0.
Comme
A(xn x), xn x   xn x 2 , avec > 0 plus petite valeur
propre de A, il sensuit lim  xn x = 0.
n+

39

Chapitre I. Rvision de bases : calcul diffrentiel...

3 )

 
RM = ImB Ker B 
Tout multiplicateur de Lagrange (i.e., toute seconde composante de point7 + s, o
7 est la projection de lorigine sur
selle de Lr ) se dcompose en =
le sous-espace ane des multiplicateurs de Lagrange, et s Ker(B  ).
Dsignons par p2 le projecteur orthogonal de RM dimage Ker(B  ) (et de
noyau ImB). Puisque n+1 = n + Bxn , on a : p2 (n+1 ) = p2 (n ) pour tout
n N, donc :
p2 (n ) = p2 (0 ) = 0,2 pour tout n.
On sait que

lim

n+

 xn x  = 0, et lgalit



A + rB  B (xn x) + B  (n ) = 0
vue au 1 ) de C, donne :

lim

n+

B  (n ) = 0.

Or lapplication u ImB  B  u  est une norme sur ImB. En crivant




dcomposition suivant
n = (idRM p2 )(n ) + p2 (n )
ImB Ker(B  )
et
on a donc



B  (n ) = B  (idRM p2 )(n ) ,
lim (idRM p2 )(n ) = 0, soit

n+

7
lim (idRM p2 )(n ) = .

n+

7 + 0,2 quand n +.
En rassemblant : n

40

II
MINIMISATION SANS CONTRAINTES.
CONDITIONS DE MINIMALIT

Rappels
f : Rn R (ou mme R {+}) est dite 0-coercive (resp. 1-coercive) sur
C Rn lorsque
f (x)
= +).
lim
f (x) = + (resp.
lim
 x  +  x 
 x  +
xC
xC
Si C est convexe et si f : C R est strictement convexe sur C, alors il
existe au plus un x C minimisant f sur C.

II.1. Conditions de minimalit du premier ordre


Soit O un ouvert de Rn et f : O R.
Si x O est un minimum local de f et si f est direntiable en x, alors
f (x) = 0.
On suppose O convexe et f convexe sur O. Alors les conditions suivantes
relatives x O sont quivalentes :
(i) x est un minimum (global) de f sur O ;
(ii) x est un minimum local de f .
Et si f est direntiable en x, on a une troisime condition quivalente :
(iii) f (x) = 0.

Chapitre II. Minimisation sans contraintes. Conditions de minimalit

II.2. Conditions de minimalit du second ordre


Soit O un ouvert de Rn et f : O R.
Si x O est un minimum local de f et si f est deux fois direntiable en
x, alors
f (x) = 0 et 2 f (x) est semi-dnie positive.
Si x O est un point o f est deux fois direntiable et si :
f (x) = 0, 2 f (x) est dnie positive,
alors x est un minimum local strict de f.
Rfrences. Chapitre II de [11].

** Exercice II.1. Soit f : Rn R {+} et S Rn . On suppose que :


(i)

S est ferm ;

(ii)

f est semi-continue infrieurement sur Rn ;

(iii)

Il existe un point de S en lequel f est nie ;

(iv)

lim
f (x) = +.
 x  +
xS

Montrer que f est borne infrieurement sur S et quil existe x S tel que
f (x) = inf xS f (x).
Indication. On montrera que toute suite minimisante pour f sur S est borne,
ou bien on commencera par traiter le cas o S est born et on ramnera le cas
gnral ce cas grce lhypothse de 0-coercivit de f sur S (hypothse (iv)).
Solution : On rappelle tout dabord les direntes caractrisations de f est
semi-continue infrieurement sur Rn :
En tout point x Rn , on a lim inf x x f (x )  f (x) (ingalit dans
R {+}) ;
R, {x Rn | f (x)  } est ferm ;
epif := {(x, r) Rn R | f (x)  r} est ferm.

Soit f := inf S f ( R {}) et soit {xk } S une suite minimisante pour f


sur S, i.e., telle que f (xk ) f quand k +.
42

II.2. Conditions de minimalit du second ordre

Montrons que {xk } est borne. Si ce ntait pas le cas, il existerait une
sous-suite {xkl }l de {xk } telle que  xkl  + quand l +. Par la
0-coercivit de f sur S (hypothse (iv)), cela impliquerait


f=
lim f (xkl ) = +,
l+

ce qui est impossible.


La suite {xk } tant borne, il existe une sous-suite {xkl } qui converge vers
un lment x de S. Do, grce la semi-continuit infrieure de f,


f=
lim f (xkl )  f (x).
l+

Comme f (x) > et f (x)  f , on en dduit que la valeur f est nie et


atteinte en x.
Autre dmonstration : Soit x0 S en lequel f est nie ; puisque f (x)
+ quand  x  +, x S, il existe r (>  x0 ) tel que
f (x)  f (x0 ) ds que x S,  x > r.
Donc minimiser f sur S revient minimiser f sur S B (0, r) .
Commentaire : Le rsultat de lexercice est utilis frquemment dans le contexte
suivant. Soit un ouvert de Rn et g : R vriant :
g est continue sur ; g(x) + quand x a fr ;
lim
g(x) = +.
 x  +
x
Alors, si S est un ferm tel que S = , g est borne infrieurement sur
S et il existe x S tel que g(x) = inf xS g(x). Il sut pour voir cela
de considrer f : x Rn  f (x) := g(x) si x , + sinon.

** Exercice II.2. Soit D1 := {A1 + tv1 | t R} et D2 := {A2 + tv2 | t R} deux


droites anes de Rn dnies laide des points Ai et des vecteurs directeurs
non nuls vi . On cherche les points M1 D1 et M2 D2 minimisant la distance
(euclidienne) de M1 M2 .
1 ) Formaliser le problme ci-dessus comme un problme de minimisation
convexe sans contraintes.
43

Chapitre II. Minimisation sans contraintes. Conditions de minimalit

2 ) Rsoudre le problme pos en prcisant : les conditions dexistence et


dunicit des solutions, comment caractriser ces solutions, les proprits particulires des solutions.

Figure 4.

Solution : 1 ) Soit
M1 = A1 + t1v1 , t1 R
M2 = A2 + t2v2 , t2 R,
de sorte que

 M1 M2 2 =  A2 A1 + t1v1 t2v2 2 .

Le problme consiste minimiser

f (t1 , t2 ) :=  M1 M2 2 ,

(t1 , t2 ) R2 .

On a :

f (t1 , t2 ) = t21  v1 2 + t22  v2 2 2t1 t2


v1 , v2 + 2t1
A2 A1 , v1

2t2
A2 A1 , v2 +  A2 A1 2 .
f est une fonction quadratique de la variable t = (t1 , t2 ), convexe mme
car

 v1 2
v1 , v2
f (t1 , t2 ) = 2

v1 , v2  v2 2


2

est semi-dnie positive pour tout (t1 , t2 ) R2 .


44

II.2. Conditions de minimalit du second ordre

Le problme pos peut donc tre formalis en


6
Minimiser f (t1 , t2 )

(P)

(t1 , t2 ) R2 .





2 ) Les solutions t1 , t2 de (P) sont les solutions de f t1 , t2 = 0, soit
encore

(S)

t1  v1 2 t2
v1 , v2 =
A2 A1 , v1

t2  v2 2 t1
v1 , v2 =
A2 A1 , v2 .

1er cas : v1 et v2 sont colinaires, i.e., D1 et D2 sont parallles.



 Il y a une
innit de solutions (S) ; en posant v2 = v1 , ce sont les t1 , t2 vriant


t1 t2  v1 2 =
A2 A1 , v1 .

Les points M 1 , M 2 correspondants sont


M 1 = A1 + t1v1 ,

)
+

A2 A1 , v1
M 2 = A2 +
+ t1 v1 .
 v1 2

A2 A1 , v1
v1 est orthogonal v1 (et v2 ).
videmment M 1 M 2 = A1 A2 +
 v1 2
2e cas : v1 et v2 sont linairement indpendants. Dans ce cas, 2 f (t1 , t2 )
2
2
2
est
 dnie positive pour tout (t1, t2 ) R ( v1  > 0 et dt f (t1 , t2 ) =
4  v1 2  v2 2 (
v1 , v2 )2 > 0 ), et le problme (P) a une et une seule




solution t1 , t2 . Ce t1 , t2 est lunique solution de (S) :


A2 A1 , v1  v2 2 +
A2 A1 , v2
v1 , v2
,
 v1 2  v2 2 (
v1 , v2 )2

A2 A1 , v2  v1 2
A2 A1 , v1
v1 , v2
t2 =

 v1 2  v2 2 (
v1 , v2 )2
t1 =

45

Chapitre II. Minimisation sans contraintes. Conditions de minimalit


Et on vrie que M 1 M 2 = A1 A2 + t2v2 t1v1 est orthogonal v1 et v2 :
la droite (M1 M2 ) est la perpendiculaire commune D1 et D2 .
La distance minimale entre deux points de D1 et D2 se dduit donc de



f t1 , t2 =  M 1 M 2 2 .
Dans le cas particulier o n = 3,
8!
"8
8
8
8 A1 A2 , v1 , v2 8

,
 M 1M 2  =
 v1 v2 
"
!

o A1 A2 , v1 , v2 dsigne le produit mixte de A1 A2 , v1 , v2 , et v1 v2 le produit
vectoriel de v1 et v2 .

** Exercice II.3. Condition ncessaire de minimalit prs dEkeland


Soit f : Rn R continue et borne infrieurement sur Rn . Soit > 0 et
u une solution prs du problme de minimisation de f sur Rn , cest--dire
vriant f (u)  infn f (x) + . tant donn > 0 on considre
xR

g : x Rn  g(x) := f (x) +

xu.

1 ) Montrer quil existe v Rn minimisant g sur Rn .


Montrer que ce point v vrie les conditions ci-aprs :
(i)

f (v)  f (u) ;

(ii)  v u   ;
(iii) x Rn , f (v)  f (x) +

xv .

2 ) Soit f : Rn R direntiable et borne infrieurement sur Rn . Montrer


que pour tout > 0 il existe x tel que  f (x )  .
Solution :
1 ) g est continue ; de plus, f tant borne infrieurement,
g(x) + quand  x  +. Par consquent, il existe un point v minimisant g sur Rn :

(2.1)
x Rn , f (v) +  v u   f (x) +  x u  .

Faisons x = u dans (2.1) :


f (v) +
do f (v)  f (u).
46

 v u   f (u),

(2.2)

II.2. Conditions de minimalit du second ordre

En notant f := inf xRn f (x), il vient de (2.2) :


f+

 v u   f + ,

do  v u   .
Enn lingalit  x u    x v  +  v u , introduite dans (2.1),
conduit

f (v)  f (x) +  x v  .

2 ) Partant dun minimum 2 prs de f et choisissant = , il existe


daprs la question prcdente un x tel que
x Rn , f (x )  f (x) +  x x  .
Pour d Rn et > 0 faisons successivement x = x + d et x = x d dans
lingalit prcdente ; on obtient :
f (x + d) f (x )   d ,

soit

f (x + d) f (x )
  d  ;

f (x d) f (x )   d ,

soit

f (x d) f (x )
  d  .

Un passage la limite 0+ induit :

f (x ) , d   d  et
f (x ) , d   d ,
soit encore |
f (x ) , d |   d  . Cette dernire ingalit tant vraie pour
tout d Rn , il sensuit  f (x )   .

* Exercice II.4. Soit n  2 et f : Rn R la fonction polynomiale de degr cinq


dnie par
3

x = (x1 , . . . , xn ) R  f (x) := (1 + xn )
n

n1

x2i + x2n .

i=1

Rn )

est le seul point critique de f , quil est minimum local


Montrer que 0 (
strict de f , mais quil nest pas minimum global de f.
47

Chapitre II. Minimisation sans contraintes. Conditions de minimalit

Solution : On a :
i f (x) = 2xi (1 + xn )3
n f (x) = 3(1 + xn )2

n1

pour tout i = 1, . . . , n 1 ;
x2i + 2xn .

i=1

Ainsi le seul point x Rn vriant f (x) = 0 est x = 0.


Ce point x = 0 est un minimum local strict de f car 2 f (x) =
diag (2, . . . , 2) est dnie positive.
Mais f (1, . . . , 1, xn ) = (n 1) (1 + xn )3 + x2n est une fonction polynomiale
du 3e degr, prenant donc toutes les valeurs relles. Il ny a donc pas de minimum global de f sur Rn .

*** Exercice II.5. Soit f : Rn R continue et x Rn . Montrer :


)
+
Tout x tel que f (x) = f (x)
.
(x est minimum global de f )
est un minimum local de f
Solution : Limplication tant vidente, considrons limplication inverse. Supposons donc que tout x au mme niveau que x soit un minimum
local de f . Si x nest pas un minimum global de f , cest quil existe u Rn
tel que f (u) < f (x) . Dnissons : t [0, 1]  (t) := f (tx + (1 t)u)
et posons S := {t [0, 1] | (t) = f (x)} . Ainsi S est une partie non vide
(1 S ) ferme (de par la continuit de f donc de ) et minore. Dsignons
par t0 la borne infrieure de S : t0 S et 0 < t0  1.
Le point t0 x + (1 t0 )u tant au mme niveau que x, il est minimum local
de f ; par consquent t0 est un minimum local de : il existe > 0 tel que :
+
)
|t t0 | 
( (t)  (t0 )) .
t [0, 1]
Comme t0 est la borne infrieure de S , on en dduit :
+
)
t 0 < t < t0
( (t) > (t0 )) .
0<t
Prenons un tel t, que nous appelons t1 :
t0 < t1 < t0 , 0 < t1 , et (t1 ) > (t0 ) .
48

II.2. Conditions de minimalit du second ordre

Alors (1) = (t0 ) [ (0) , (t1 )] et, daprs le thorme des valeurs
intermdiaires, il existe t2 [0, t1 ] tel que (t2 ) = (1) (= f (x)) . Par consquent, t2 ]0, t1 ] S , et puisque t1 < t0 , ceci contredit la dnition de t0
comme borne infrieure de S .

Figure 5.

Remarque : Dans lassertion de droite de lnonc, on ne peut pas remplacer minimum local de f par point critique de f ; prendre lexemple de
f : x R  f (x) = x3 .

*** Exercice II.6. On dsigne par Pn (R)lensemble des matrices dnies posi

tives de taille n (cest un ouvert de Sn (R)). tant donns A et B dans Pn (R),


on considre le problme de minimisation suivant :


6
Minimiser f (X) := tr (AX) + tr BX 1
(P)

X Pn (R).
1 ) Quelles proprits de f , utiles pour sa minimisation (direntiabilit,
convexit, coercivit) peut-on dgager ? En dduire que le problme (P) a une
et une seule solution.
2 ) (i) Vrier que la solution de (P) est la (seule) matrice X vriant
XAX = B.
(ii) Donner, partir de BA (ou de AB), une procdure permettant de
construire X.
(iii) En dduire la valeur optimale dans (P) .

9 3 ) On fait n = 2 ici. Montrer que la valeur optimale dans (P) est


2 tr (AB) + 2 dt (AB).

49

Chapitre II. Minimisation sans contraintes. Conditions de minimalit

Indication. Le cas simple o n = 1 permet de guider la dmarche et de contrler


les rsultats.
Solution : Sn (R) est structur en espace euclidien grce au produit scalaire
U, V = tr (U V ) .
Le problme (P) est celui de la minimisation sur (le cne convexe ou

vert) Pn (R) =: de la fonction-objectif X  f (X) = A, X +


B, X 1 .
1 ) Lapplication X  X 1 est bijective et de classe C ; il
sensuit que f est C sur . De lingalit de convexit




U, V dans
[U + (1 ) V ]1 ! U 1 + (1 ) V 1 ,
]0, 1[
et de la (semi-) dnie positivit de B, on dduit que X  B, X 1 est
convexe sur (daccord ?).
De manire concentrer sur une seule partie toute la contribution de A et
B aux deux parties de f (X), posons C := A1/2 BA1/2 . Comme




1 
1/2
1/2
1/2
1/2
1/2
1/2
+ C A XA
A XA
A
f (X) = tr A


1 
1/2
1/2
1/2
1/2
= tr A XA + C A XA
1

est visiblement une
et que lapplication X  Y := A1/2 XA1/2
bijection de sur , le problme (P) est quivalent celui de la minimisation de


Y  g(Y ) := tr Y 1 + CY = In , Y 1 + C, Y
sur .
La frontire fr de est exactement lensemble des matrices semi-dnies
positives singulires (i.e., dont la plus petite valeur propre est nulle). En consquence :
+
)
+
)
g(Y ) +
Y Y0 fr
=
.
(ou f (X) +)
(ou X X0 fr )
De mme, un calcul (pas trop dicile) sur les matrices dnies positives conduit
lucider le comportement linni :
)
+


Y ,  Y 
g(Y ) +
=
.
(ou f (X) +)
(ou X ,  X  )
50

II.2. Conditions de minimalit du second ordre

Ainsi g (ou f ) agit comme ce quil est convenu dappeler une fonctionbarrire sur . Il en rsulte ainsi quil existe bien X minimisant f
sur (cf. Commentaire suivant lExercice II.1).
Lunicit de X est une consquence de la stricte convexit de la fonction X  B, X 1 , qui se voit mieux via la stricte convexit
de Y  In , Y 1 = tr(Y 1 ).
2 ) (i) La direntielle Df (X) de f en X est facile obtenir :
Df (X) : H Sn (R)  A X 1 BX 1 , H .
Le problme (essentiellement sans contraintes) (P) tant celui de la minimisation dune fonction convexe direntiable, X est solution de (P) si et
1
1
seulement si A X BX = 0, soit XAX = B.
(ii) tant le produit de deux matrices dnies positives, BA est diagonalisable et son spectre est constitu exclusivement de rels > 0 (cf. Exercice 1.17).
Si on diagonalise BA avec P ,
P 1 (BA)P = diag(1 , . . . , n ) (i valeurs propres de BA),

la matrice M := P diag( 1 , . . . , n )P 1 vrie M 2 = BA, et il vient immdiatement que X = M 1 B est la solution cherche.
(iii) La valeur optimale dans (P) est
f (X) = tr(AM 1 B + B(M 1 B)1 )
= 2 trM ;
cest donc la somme des racines carres des valeurs propres de BA (ou de AB).
La symtrie en A et B de la valeur optimale pouvait tre note ds le
dpart, en raison de la forme particulire de (P).

3 ) De lgalit 1 + 2 = 1 + 2 + 2 1 2 crite pour 1 , 2 , valeurs propres de BA, il vient


9



1 + 2 = trM = tr(BA) + 2 dt(BA),
do lexpression annonce.

51

Chapitre II. Minimisation sans contraintes. Conditions de minimalit

** Exercice II.7. Soit g : Rn R une fonction convexe et direntiable sur


Rn , soit h : Rn R {+} une fonction convexe sur Rn , nie en au moins
un point. On pose f := g + h et on considre le problme de la minimisation de
f sur Rn .
1 ) Montrer que x minimise f sur Rn si et seulement si
< g(x), x x > + h(x) h(x)  0 pour tout x Rn .

(2.3)

2 ) Vrier que (2.3) est quivalente


< g(x), x x > + h(x) h(x)  0 pour tout x Rn .

(2.4)

Solution : 1 ) Soit x minimisant f sur Rn . tant donn x Rn et ]0, 1[,


on a f (x + (1 )x)  f (x), ce qui se traduit par
g(x) + h(x)  g(x + (1 )x) + h(x + (1 )x).
En utilisant lingalit de convexit h(x + (1 )x)  h(x) + (1 )h(x)
et en divisant par > 0, on obtient
0

g(x + (x x)) g(x)


+ h(x) h(x).

En faisant tendre vers 0, on obtient prcisment (2.3).


Rciproquement, soit x vriant (2.3). La convexit de g induit
g(x)  g(x) +
g(x), x x ,
ce qui, combin avec (2.3), entrane g(x) + h(x)  g(x) + h(x).
2 ) Soit x vriant (2.3). La fonction g tant convexe, lapplication g
vrie :
g(x) g(x), x x  0. Do (2.4) sensuit.
Soit prsent x vriant (2.4). Considrons x Rn et ]0, 1[. Il vient
alors de (2.4) :

g((1 )x + x), x x + h ((1 )x + x) h(x)  0,


ce qui, avec lingalit de convexit de h dj vue plus haut, donne

g((1 )x + x), x x + [h(x) h(x)]  0.


Divisons par et faisons tendre vers 0 ; sachant que g est continue (daccord ?), on obtient prcisment (2.3).
52

II.2. Conditions de minimalit du second ordre

Remarque : Dans le cas particulier o C est un convexe ferm non vide et h la


fonction indicatrice de C (h(x) = 0 si x C, + sinon), ce que dit le rsultat de
lexercice est :
(x minimise g sur C) (
g(x), x x  0 pour tout x C)
( caractrisation classique)
(
g(x), x x  0 pour tout x C)
(caractrisation nouvelle).

** Exercice II.8. Soit f : Rn R dnie par


x Rn  f (x) :=

Ax, x +
b, x + c,
2

o A Sn (R) est suppose dnie positive, b Rn et c R. On considre le


problme doptimisation suivant :
(P) Minimiser f (x), x Rn .
1 ) Rappeler pourquoi (P) a une et une seule solution x, caractrise comme
tant lunique solution de lquation f (x) = 0.
Pour approcher x, on utilise lalgorithme du gradient pas optimal, qui
consiste construire une suite (xk ) de la manire itrative suivante :
Initialisation : x0 Rn ;
Dnition de litr xk+1 partir de xk (lorsque f (xk ) = 0) :
xk+1 := xk + tk dk ,
o dk := f (xk ), et tk est lunique rel (positif) minimisant t  f (xk + tdk )
sur R.
Le but de lexercice est de donner une ide de la vitesse de convergence de
(xk ) vers x en fonction dun rel associ A appel conditionnement de A.
2 ) Vrier les relations suivantes : Pour tout k N,
 dk 2
, dk+1 = dk tk Adk ,
dk+1 , dk = 0,

Adk , dk


 dk 4
,
f (xk+1 ) f = [f (xk ) f ] 1

Adk , dk
A1 dk , dk
tk =

(2.5)

o f dsigne la valeur optimale dans (P).


53

Chapitre II. Minimisation sans contraintes. Conditions de minimalit

3 ) Soit 1  2   n les valeurs propres de A ranges dans lordre


dcroissant. On pose
c2 (A) :=

1
, appel conditionnement de A.
n

Dmontrer les ingalits suivantes : Pour tout k N,




c2 (A) 1 2k
,
f (xk ) f  [f (x0 ) f ]
c2 (A) + 1


2(f (x0 ) f )
 xk x  
n

1/2 

c2 (A) 1
c2 (A) + 1

(2.6)
k
.

(2.7)

On pourra pour cela utiliser librement lingalit de Kantorovitch que voici :


'*
* (2
1

n
1
+
 x 4 .
x Rn ,
Ax, x
A1 x, x 
4
n
1
Quels commentaires peut-on faire partir des ingalits (2.6) et (2.7) quant
la rapidit de convergence de la mthode de gradient pas optimal ?

Solution : 1 ) f est quadratique strictement convexe, 1-coercive sur Rn : il


existe donc un et un seul x minimisant f sur Rn . La direntiabilit de f allie
sa convexit assurent que x est lunique solution de lquation f (x) = 0.
Si on veut prciser en fonction des donnes de (P), x = A1 b et la valeur
optimale est f = f (x) = 12
A1 b, b + c.
2 ) Comme f (xk + tdk ) = f (xk ) + 12 t2
Adk , dk + t
Axk + b, dk , la fonction
t R  f (xk + tdk ) est minimise sur R (lorsque dk = f (xk ) = 0) en
 dk 2
(> 0).
un seul point, qui est tk =

Adk , dk
Ensuite :
dk+1 = (Axk+1 + b) = Axk b tk Adk = dk tk Adk ,

dk+1 , dk =
dk , dk tk
Adk , dk = 0.
En dveloppant f (xk+1 ) = f (xk + tk dk ) on obtient
f (xk+1 ) = f (xk )

54

1  dk 4
,
2
Adk , dk

II.2. Conditions de minimalit du second ordre

soit encore

 dk 4
f (xk+1 ) f = [f (xk ) f ] 1
2(f (xk ) f )
Adk , dk

(toujours sous lhypothse f (xk ) = 0, qui est quivalente f (xk ) f > 0).
Un simple calcul prsent montre que

A1 dk , dk =
A1 (Axk + b), Axk + b


1 1
1
= 2
Axk , xk +
b, xk +
A b, b
2
2




1 1
car
A b, b = c f .
= 2 f (xk ) f
2
Do lexpression (2.5).
3 ) De lingalit de Kantorovitch on dduit (toujours lorsque dk = 0) :
'*
* (2
1 /n
1
n
 dk 4
4
+
=4

Adk , dk
A dk , dk
n
1
(1 /n + 1)2
Ainsi, daprs (2.5) :

c2 (A)
k N, f (xk+1 ) f  [f (xk ) f ] 1 4
(c2 (A) + 1)2


c2 (A) 1 2
.
 [f (xk ) f ]
c2 (A) + 1

Lingalit (2.6) sensuit alors facilement.


Par ailleurs on a :
1
f (xk ) f =
Axk , xk +
b, xk + c f
2
+
)
car Ax = b
1
=
A(xk x), xk x
2
et c f = 12
A1 b, b
1
 n  xk x 2 ;
2
do (2.7).
Daprs (2.6) et (2.7), plus c2 (A) est proche de 1, plus la mthode (du
gradient pas optimal) converge rapidement. Le cas limite serait celui o
c2 (A) = 1, ce qui suppose f (x) =  x x 2 pour un certain > 0, auquel
cas on atteint x ds la 1re itration x1 .
Par contre, lorsque c2 (A) est grand, cest--dire lorsque les valeurs propres
extrmes sont trs direntes, la mthode est (dans le pire des cas) trs lente.
55

Chapitre II. Minimisation sans contraintes. Conditions de minimalit

Lorsque n = 2, les courbes de niveau de f sont alors des ellipses trs eles,
et on observe facilement la convergence lente en zigzags de (xk ) vers x.
Pour tre sr davoir

k

f (xk )f
f (x0 )f

 , il faudrait

c (A)
 2
ln
c2 (A)1
4

ln

2 ln

c2 (A)+1

 
1
(quand c2 (A) +).

*** Exercice II.9. Soit O un ouvert de Rn et f : O R quatre fois direntiable en x O. On suppose que x est un minimum local de f , ce qui implique :
f (x) = 0, 2 f (x) est semi-dnie positive.
On suppose galement que 2 f (x) nest pas nulle et on pose H := Ker 2 f (x).
1 ) Montrer que lon a ncessairement :
(a) 3 f (x)(u, u, u) = 0 pour tout u H ;

2
(b) 4 f (x)(u, u, u, u)
2 f (x)v, v 3 3 f (x)(u, u, v)  0 pour tout
(u, v) H H .
o x = (0, 0) est
2 ) On prend lexemple dune fonction
 fde deux variables,
2f

0
0
avec =
(x) > 0.
un point critique de f et o 2 f (x) =
0
x22
Quelles formes prennent les conditions (a) et (b) dans ce cas ?
Application. Soit f : R2 R
(x1 , x2 )  f (x1 , x2 ) := 3x41 4x21 x2 + x22 .
Au vu de ce qui a t tabli, dcider si x = (0, 0) est un minimum local de f ou
non.
Commentaire : Le cas o f (x) = 0 et 2 f (x) est semi-dnie positive est
ce quon peut appeler cas dincertitude , car les conditions de minimalit du
second ordre ne permettent pas de dcider. Les conditions (a) et (b) considres
ici sont des conditions ncessaires de minimalit dordre trois et quatre. Comme
bien entendu, on sattend des conditions susantes de minimalit locale en
remplaant lingalit au sens large de (b) par une ingalit stricte (pour tous les
vecteurs non nuls u et v).
56

II.2. Conditions de minimalit du second ordre

En rgle gnrale, les conditions de minimalit dordre suprieur ( deux) sont


diciles utiliser car, contrairement 2 f (x), il ny a pas de thorie spectrale
simple qui va avec les formes 2p-linaires 2p f (x).
Indication. 3 f (x) (resp. 4 f (x)) dsigne la forme trilinaire (resp. la forme
quadrilinaire) direntielle dordre trois (resp. dordre quatre) de f en x.
Exprimer f en x + tu + t2 v laide du dveloppement de Taylor-Young lordre
quatre de f en x.
Solution :
1 ) tant donns u H, v Rn et t = 0, exprimons f en
x + tu + t2 v = x + t(u + tv) laide du dveloppement de Taylor-Young
lordre quatre de f en x. Sachant que f (x) = 0 et 2 f (x)u = 0, on obtient :
f (x + tu + t2 v) = f (x) +

t3 3
6 f (x)(u, u, u)


12
2 f (x)v, v + 123 f (x)(u, u, v) + 4 f (x)(u, u, u, u) + t4 (t),
(2.8)
o (t) 0 quand t 0.
Puisque f (x + tu + t2 v)  f (x) pour t susamment petit, il vient du
dveloppement ci-dessus
t4

24

 t3
f (x + tu + t2 v) f (x) / 3 f (x)(u, u, u)  0.
6 0

La mme ingalit tant valable en u ( H),


0  3 f (x)(u, u, u) = 3 f (x)(u, u, u),
on en dduit (a).
Ensuite, en procdant de la mme manire pour le bloc facteur de t4 /24
dans (2.8), on arrive :
12
2 f (x)v, v + 123 f (x)(u, u, v) + 4 f (x)(u, u, u, u)  0 pour tout v Rn .
crivons cette ingalit en v, R ; il vient :
6
122
2 f (x)v, v + 123 f (x)(u, u, v) + 4 f (x)(u, u, u, u)  0
pour tout R, v Rn .

(2.9)

Choisissons v = 0 dans H ; alors la positivit du trinme du second degr


dans (2.9) se traduit en disant que son discriminant est ngatif, do (b).
57

Chapitre II. Minimisation sans contraintes. Conditions de minimalit

2 ) Les conditions (a) et (b) prennent ici les formes suivantes :


3f
(x) = 0 et
x31

2f
4f
(x)

(x) 3
x22
x41

2
3f
(x)  0.
x21 x2

Dans lexemple propos, la deuxime condition ci-dessus nest pas vrie, et


donc (0, 0) ne saurait tre un minimum local de f .

** Exercice II.10. Soit O un ouvert convexe de Rn et f : O R deux fois


direntiable sur O. On suppose que f et 2 f sont lipschitziennes sur O de
constante de Lipschitz L, cest--dire :
 f (x) f (x )   L  x x  et |||2 f (x) 2 f (x )|||  L  x x 
pour tout x, x dans O, o   dsigne la norme euclidienne usuelle sur Rn
et
M
 n (R) dduite du produit scalaire ,
 ||| 2||| dsigne la norme sur
|||A||| = A, A = tr AT A .
1 ) tant donn xk O, on pose
x O  x1k (x) := f (xk ) +
f (xk ) , x xk ,

x O  x2k (x) := f (xk ) +


f (xk ) , x xk

1
+
2 f (xk ) (x xk ) , x xk .
2



x1k resp. x2k est ainsi lapproximation de f fournie par linformation du
premier ordre (resp. du deuxime ordre) au point xk .
Montrer que pour tout x O :
8
8
8
8
8f (x) 1 (x)8  L  x xk 2 , 8f (x) 2 (x)8  L  x xk 3 .
xk
xk
2
6

2 ) Pour avoir une approximation du gradient de f en xk O laide


dvaluations de f , on utilise les vecteurs suivants :
f (xk ) := vecteur de composantes
)
+
dirences nies
f (xk + hj ej ) f (xk )
,
hj
en avant
f (xk ) := vecteur de composantes
f (xk + hj ej ) f (xk hj ej )
2hj
58

dirences nies
centres

+
,

II.2. Conditions de minimalit du second ordre

o e1 , . . . , en sont les vecteurs de la base canonique de Rn et h1 , . . . , hn des


rels strictement positifs.
Montrer que pour tout j = 1, . . . , n :
8 L
8
8
8
8[f (xk )]j j f (xk )8  hj ,
2
8 L
8

8
8
8 f (xk ) j j f (xk )8  h2j .
6
3 ) On suppose ici quon a accs aux valuations de f et on propose une
approximation de 2 f (xk ) de la forme suivante :


[f (xk + hj ej )]i [f (xk hj ej )]i
2

.
f (xk ) :=
2hj
1i,jn
Cette approximation est obtenue par dirences nies centres partir du
2 f (xk ) est une approximation de 2 f (xk ) .
gradient de f , le terme (i, j) de
ij
Montrer quil existe une et une seule matrice symtrique la plus proche de
2 f (xk ) au sens de la distance associe ||| |||, et dterminer cette matrice en

2 f (xk ) .
fonction de

Solution : 1 ) Grce aux dveloppements de Taylor avec restes sous formes


dintgrales on a :

f (x) = f (xk ) +


0

f (xk + t (x xk )) , x xk dt,

(2.10)

f (x) = f (xk ) +
f (xk ) , x xk +

(2.11)

(1 t) 2 f (xk + t (x xk )) (x xk ) , x xk dt.

Il vient alors de (2.10)


f (x)

x1k

(x) =
0

f (xk + t (x xk )) f (xk ), x xk dt,

do, grce la proprit de Lipschitz de f,


8
8
8f (x) x1 (x)8 
k

1
0

Lt  x xk 2 dt =

L
 x xk 2 .
2
59

Chapitre II. Minimisation sans contraintes. Conditions de minimalit

Dune manire similaire, on dduit de (2.11) :


f (x) x2k (x)

 1, 
1
(1 t) 2 f (xk + t (x xk )) 2 f (xk ) (x xk ) , x xk
dt
=
2
0
 1




(1 t) 2 f (xk + t (x xk )) 2 f (xk ) (x xk ) , x xk dt,


=
0

do, toujours grce la proprit de Lipschitz de 2 f, et lingalit


 Au   |||A|||  u  encore valable pour la norme ||| ||| (daccord ?) :
 1
8
8
L
8f (x) x2 (x)8 
Lt (1 t)  x xk 3 dt =  x xk 3 .
k
6
0
2 ) On a : j f (xk ) =
f (xk ) , ej , do
1
(f (xk + hj ej ) f (xk )
f (xk ) , hj ej )
hj

1 
f (xk + hj ej ) x1k (xk + hj ej ) .
=
hj

[f (xk )]j j f (xk ) =

Il rsulte alors de la 1re question :


8
8
1 L 2 L
8
8
h = hj .
8[f (xk )]j j f (xk )8 
hj 2 j
2
De manire similaire, on a pour les dirences nies centres :


1
f (xk ) j j f (xk ) =
(f (xk +hj ej )f (xk hj ej )2
f (xk ) , hj ej )
2hj

1 4
f (xk + hj ej ) x2k (xk + hj ej )
=
2hj
5
(f (xk hj ej ) x2k (xk hj ej ) .
Par suite



8
8

1
L 3
L
8
8
2 hj = h2j .
8 f (xk ) j j f (xk )8 
2hj
6
6

2 f (xk ) ntant pas symtrique alors que 2 f (xk ) lest toujours, on


3 )
2 f (xk ) ( Mn (R)) .
cherche S Sn (R) la plus proche de
en espace euclidien grce au produit scalaire
Mn (R) est  structur

A, B = tr A B , et la distance considre est celle associe ce produit
scalaire :
|||A B||| = ( A B, A B )1/2 . Lensemble Sn (R) tant un sousespace vectoriel de Mn (R), le problme pos est donc celui de la projection
60

II.2. Conditions de minimalit du second ordre

2 f (xk ) sur Sn (R). Llment S Sn (R) distance minimale


orthogonale de
2
de
6 A = f (xk ) existe, est unique, et caractris par la proprit suivante :
S Sn (R)
et A S, S = 0 pour tout S Sn (R).


Llment S := 12 A + A est la solution cherche car
"
1!
A, S A , S
2
= 0 pour tout S Sn (R).

A S, S =

** Exercice II.11. Une situation dapplication importante o la fonction-objectif


m

[ri (x)]2 ( moindres carrs ) est lajus minimiser est de la forme x 
i=1

tement de donnes exprimentales. Dune manire habituelle les choses se prsentent comme suit : on dispose de m donnes d1 , d2 , . . . , dm correspondant aux
valeurs t1 , t2 , . . . , tm dune variable t ; lobjectif est daccorder au mieux aux
donnes (t1 , d1 ), (t2 , d2 ), . . . , (tm , dm ), une fonction-modle t  (t, x) qui
contient des paramtres ajustables x1 , x2 , . . . , xn .
En gnral la forme de la fonction-modle dpend du contexte dorigine des
donnes. On appelle rsidus les dirences entre la valeur de la fonction-modle
(ti , x) et la valeur di correspondant ti , cest--dire ri (x) = (ti , x) di (i =
1, . . . , m). Le critre mesurant lcart (dans Rm ) entre ((t1 , x), . . . , (tm , x))
et (r1 , . . . , rm ) fait lobjet dun choix : cest souvent le carr de la distance
euclidienne,
m
m


[(ti , x) di ]2 =
[ri (x)]2 .
x  f (x) =
i=1

i=1

Exemple. Un utilisateur a obtenu les donnes exprimentales suivantes pour un


problme de nature physique dans lequel le comportement des valeurs observes
est gouvern par une fonction inconnue de la variable t [0, 1].
i

ti

0,2

0,4

0,6

0,8

0,9

0,95

di

0,7123

1,754

4.852

22,27

94,91

388,2

Selon lutilisateur, le phnomne physique sous-jacent suggre que la fonction


t  d(t) doit avoir les proprits suivantes :
61

Chapitre II. Minimisation sans contraintes. Conditions de minimalit

un comportement en tx1 au voisinage de 0, pour un certain x1 > 0 ;


1
un comportement en (1t)
x2 au voisinage de 1, pour un certain x2 > 0.
La fonction-modle suggre est

t  (t, x) := x3 tx1

1
,
(1 t)x2

o x1 > 0, x2 > 0, x3 > 0.


La fonction-objectif minimiser est donc
x = (x1 , x2 , x3 )  f (x) =

2
6 

x3 tx1

d
.
i
(1 t)x2
i=1

Questions :
Mettre en uvre votre mthode de minimisation favorite pour obtenir un
jeu de paramtres (x1 , x2 , x3 ) acceptable (point de dpart suggr : (1,1,1)).
Dterminer la valeur f (x) de la somme des carrs des rsidus.
Tracer sur un mme graphique la fonction t  (t, x) et les donnes
(ti , di ), i = 1, . . . , 6.

Solution : x1 = 0, 5532 ;

x2 = 1, 9897 ;

x3 = 1, 0298 ;

f (x) = 0, 0205.

Commentaire : Les problmes doptimisation du type moindres carrs sont


ceux les plus frquemment rencontrs dans les applications.

62

III
MINIMISATION AVEC CONTRAINTES.
CONDITIONS DE MINIMALIT

Rappels
III.1. Conditions de minimalit du premier ordre
Soit f : O Rn IR direntiable sur un ouvert O de Rn , soit S un
ensemble-contrainte dcrit par m galits et p ingalits
S := {x Rn | h1 (x) = 0, . . . , hm (x) = 0, g1 (x)  0, . . . , gp (x)  0}
o les m + p fonctions hi , gj : Rn R sont supposes continment direntiables sur Rn .

Theor`eme (F. John). Si x O S est un minimum local de f sur S, alors il existe


1 , . . . , m , 0 , 1 , . . . , p non tous nuls tels que :
(i) 0 f (x) +

m


i hi (x) +

i=1

p

j=1

j gj (x) = 0 ;

(ii) j  0 pour tout j = 0, 1, . . . , p ;


(iii) j = 0 si gj (x) < 0.
On carte lventualit 0 = 0 (peu informative sur x ) en faisant une hypothse de qualication des contraintes en x, cest--dire une hypothse sur les

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

fonctions-contraintes hi et gj reprsentant S. On considre par exemple la condition (QC)x de Mangasarian-Fromovitz suivante :

Il existe d0 tel que


hi (x) , d0 = 0 pour tout i = 1, . . . , m
(QC)x et
gj (x) , d0 < 0 pour tout j vriant gj (x) = 0 ;

les vecteurs h (x) , . . . , h (x) sont linairement indpendants.


1
m

Theor`eme (Karush-Kuhn-Tucker). Six OS est


 un minimum local de f sur S,
et si (QC)x a lieu, il existe alors = 1 , . . . , m Rm et = (1 , . . . , p ) Rp
tels que :
p
m


i hi (x) +
j gj (x) = 0 ;
(i) f (x) +
i=1

j=1

(ii) j  0 pour tout j = 1, . . . , p ;


(iii) j = 0 si gj (x) < 0.
Les i et j mis en vidence dans ce thorme de Karush-Kuhn-Tucker (KKT
en abrg) sont appels multiplicateurs de Lagrange (ou de Lagrange-KKT).
Une hypothse de qualication des contraintes en x, plus forte que (QC)x , est
la suivante :

(QC)x Les vecteurs h1 (x) , . . . , hm (x) , gj (x) , j J (x), sont linairement indpendants, o J (x) := {j | gj (x) = 0} est lensemble des indices des
contraintes (de type ingalit) actives (ou satures) en x.
Si les fonctions hi et gj sont anes, on peut se dispenser de toute hypothse
de qualication des contraintes et dduire quand mme les conditions ncessaires
de minimalit de KKT.
Les conditions (i) - (ii) - (iii) du thorme de KKT (appeles conditions de
KKT) deviennent susantes en prsence de convexit dans les donnes. Considrons cet eet le contexte suivant :

f est convexe sur louvert convexe O ;


(C) les fonctions hi : Rn R sont anes ;

les fonctions gj : Rn R sont convexes.

Theor`eme. Dans la situation dcrite par (C) ci-dessus, les conditions de KKT
sont susantes pour que x soit un minimum de f sur O S.
Dans le contexte dcrit par (C), il y a une condition dnonc simple assurant
(QC)x en tout point de S ; cest la condition dite de Slater que voici : en notant
64

III.2. Cne tangent, cne normal un ensemble

hi : x  hi (x) =
ai , x bi les fonctions-contraintes du type galit, et Ax = b
la conjonction des m contraintes du type galit hi (x) = 0, i = 1, . . . , m,

Les vecteurs ai sont linairement indpendants


(S) (i.e. A est surjective) ;

Il existe x0 tel que Ax0 = b et gj (x0 ) < 0 pour tout j = 1, . . . , p.

III.2. Cne tangent, cne normal un ensemble


Soit x S. On dit que d Rn est une direction tangente S en x lorsquil
existe une suite {xk } S convergeant vers x et une suite {tk } R+
convergeant
vers 0 telles que (xk x) /tk d quand k +.
Autre manire de dire la mme chose : d est tangente S en x si et seulement
si : il existe {dk } d, il existe {tk } R+
0, telles que x + tk dk S pour
tout k.
Lensemble de telles directions est appel cne tangent S en x, et not
T (S, x) . Il sagit bien dun
 cne
 et mme dun cne ferm (de sommet 0).
De plus T (S, x) = T S, x , ce qui fait quen gnral nous ne considrerons ce
concept de tangence que pour des S ferms.

Theor`eme. Sous lhypothse (QC)x , on a


T (S, x) = {d |
hi (x) , d = 0 pour i = 1, . . . , m et

gj (x) , d  0 pour j J (x)} .


Cette relation reste vraie en labsence de (QC)x lorsque les fonctions hi et gj
sont anes.
Considrons le problme de la minimisation de f sur un ensemble-contrainte S
qui nest pas ncessairement reprsent par des galits ou ingalits. La condition
ncessaire de minimalit locale snonce comme suit.

Theor`eme. Si x S est un minimum local de f sur S et si f est direntiable en


x, alors
f (x) [T (S, x)] ,
o [T (S, x)] dsigne le cne polaire de T (S, x), cest--dire
[T (S, x)] := {s |
s, d  0 pour tout d T (S, x)} .

65

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

III.3. Prise en compte de la convexit


Si S est un convexe ferm, T (S, x) est exactement ladhrence du cne
engendr par S x :
T (S, x) = adhrence de {d | d = (c x) avec c S et  0}
= R+ (S x).
T (S, x) est alors un cne convexe ferm.
Une direction s Rn est dite normale S en x lorsque

s, c x  0 pour tout c S.
Lensemble des directions normales S en x est appel cne normal S en x, et
not N (S, x). Lorsque S est un convexe ferm, N (S, x) nest autre que le cne
polaire de T (S, x) :
N (S, x) = [T (S, x)]

(et [N (S, x)] = T (S, x)) .

Theor`eme. Soit f : Rn R convexe et direntiable, soit S convexe ferm. Alors


les minima de f sur S sont exactement les x S pour lesquels
f (x) N (S, x) .
Par exemple, la projection x de x sur le convexe ferm S est llment de S
minimisant lapplication u  u x  (ou 1/2  u x 2 ) sur S ; cet lment x
est unique et caractris par la relation suivante :

x x, c x  0 pour tout c S.

III.4. Conditions de minimalit du second ordre


Soit f : O Rn deux fois direntiable sur un ouvert O de Rn , soit S un
ensemble-contrainte dni par m galits hi (x) = 0 o les fonctions hi : Rn R
sont supposes deux fois direntiables. On dsigne par L le lagrangien usuel
associ au problme de minimisation de f sur S, i.e.
(x, ) O Rm  L (x, ) := f (x) +

m

i=1

66

i hi (x) .

III.4. Conditions de minimalit du second ordre

Theor`eme. Si x O S est un minimum local de f sur S et si les vecteurs h1 (x)


 , . . . , hm (x) sont linairement indpendants, il existe alors =
1 , . . . , m Rm (unique) tel que :


(i) x L x, = 0
et




(ii) 2xx L x, d, d  0 pour toute direction d dans le sous-espace tangent
T (S, x) = {d Rn |
hi (x) , d = 0 pour tout i = 1, . . . , m}.
Theor`eme. Soit x O S. Supposons les h1 (x), . . . , hm (x) linairement indpendants, et supposons quil existe Rm tel que :


(i) x L x, = 0
et




(ii) 2xx L x, d, d > 0 pour toute direction non nulle d dans le sous-espace
tangent T (S, x) = {d Rn |
hi (x) , d = 0 pour tout i = 1, . . . , m} .
Alors x est un minimum local strict de f sur S.
Rfrences. Chapitre III de [11].

* Exercice III.1. On considre le problme de la minimisation dune fonction


direntiable f : R2 R sous la contrainte h (1 , 2 ) := 13 22 = 0.
Quels sont les points vriant les conditions de minimalit du 1er ordre ?
Rsoudre le problme avec f : (1 , 2 )  f (1 , 2 ) := 1 + 22 .
Solution : La fonction h dnissant la contrainte (du type galit) est contiles
nment direntiable,

 mais h (x) = 0 en x = (0, 0) . Par consquent,
er
points x = 1 , 2 vriant les conditions de minimalit du 1 ordre sont
ceux vriant :
6
h (x) = 0,
(conditions de


F. John).
0 , 1 = (0, 0) tel que 0 f (x) + 1 h (x) = 0
Cela conduit aux candidats suivants :
x = (0, 0) vriant h (x) = 0 et f (x) = h (x) pour un certain R
(conditions usuelles de Lagrange) ;
x = (0, 0) ( considrer dans tous les cas de gure).
Dans lexemple considr, avec f (1 , 2 ) := 1 + 22 , il ny a pas de point
vriant des conditions de minimalit de type Lagrange ; seul x = (0, 0) est
retenir. En eet, x = (0, 0) est le minimum de f (1 , 2 ) sous la contrainte
h (1 , 2 ) = 0.
67

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

* Exercice III.2. Soit s =


 0 x dans Rn , r R, et Hr lhyperplan de Rn
dquation
s, x = r.
tant donn v Rn on se propose de dterminer la projection orthogonale
v r de v sur Hr .
1 ) Dterminer v r partir de lobservation suivante : v r est la solution du
problme de minimisation convexe suivant :
6
Minimiser 12  x v 2
(Pr )
x Hr .
2 ) Posons d(r) := 12  v r v 2 . Vrier que d est une fonction drivable de
r et que sa drive d (r) est, au signe prs, le multiplicateur de Lagrange dans
le problme (Pr ).

Solution : 1 ) v r est la solution de (Pr ) si et seulement si :


6

s, v r = r
(daccord ?)
r R tel que v r v + r s = 0.

(3.1)

r est le multiplicateur de Lagrange associ la seule contrainte de (Pr ),


savoir la contrainte-galit
s, x r = 0.
Il vient de la 2e relation de (3.1)

v r v, s + r  s 2 = 0
do, avec la 1re relation de (3.1) , r = s,v r
s2 .
Par suite

s, v r
vr = v
s.
 s 2
v v r est dirig par s, ce qui est... normal.
La distance de v Hr vaut donc | s,v r|
s .
2

est drivable
2 ) La fonction r R  d(r) := 12  v r v 2 = 12 ( s,v r)
s2
sur R et

s, v r
= r .
d (r) =
 s 2
Ainsi, la sensibilit au 1er ordre de la valeur minimale d(r) aux variations de r (second membre dans lquation de Hr ) est donne, au signe prs,
par le multiplicateur de Lagrange associ la contrainte dans (Pr ).
68

III.4. Conditions de minimalit du second ordre

** Exercice III.3. Soient n1 , . . . , nk k entiers naturels de somme N > 0 et


f : Rk R dnie par :
f (p1 , . . . , pk ) :=

k
:

pni i .

i=1

Maximiser f sur le simplexe-unit k de Rk


6
)
k :=

p = (p1 , . . . , pk ) R | pi  0 pour tout i, et


k

;+
pi = 1

i=1

Solution : f est continue, k est compact (daccord ?) ; il existe donc au moins


un p k maximisant f sur k .

Figure 6.

Comme f est nulle sur la frontire relative de k , les p se trouvent ncessairement dans lintrieur relatif de k , i.e. pi > 0 pour tout i = 1, . . . , k
( relatif signie dans le sous-espace ane engendr par k , savoir lhyperk

pi = 1).
plan ane dquation
i=1

Donc, si on dnit g : (R+


) R par g (p1 , . . . , pk ) := ln f (p1 , . . . , pk ) et
k

pi 1, il est clair que p maximise g(p) sous
h : Rk R par h (p1 , . . . , pk ) :=
k

i=1

la contrainte h(p) = 0. Puisque h (p) = 0 ncessairement, il existe R


69

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

unique tel que g (p) = h (p), soit :


ni
= pour tout i = 1, . . . , k.
pi
Comme

k

i=1

pi = 1, on en dduit = N et, par suite,


pi =

ni
pour tout i = 1, . . . , k.
N

(3.2)

Sachant que le problme de maximisation de dpart a une solution et quon


na dtect quun seul point vriant les conditions ncessaires doptimalit, le
point en question est la solution du problme.
Remarque : On aurait pu faire la mme dmarche avec f sans recourir g ; mais
casser un produit en une somme en prenant le logarithme peut simplier les
calculs.
Commentaire : Dans les problmes destimation en Statistique, on est amen
maximiser des fonctions appeles fonctions de vraisemblance, et cela est source de
bien des problmes doptimisation. Lexemple trait dans cet exercice en est une
illustration.

** Exercice III.4. Soit A Sn (R), 1 (resp. n ) la plus grande valeur propre


(resp. la plus petite valeur propre) de A. Montrer que :
1 = max
Ax, x (resp. n = min
Ax, x ).
x=1

x=1

quelle condition a-t-on 1 = max


Ax, x (resp. n = min
Ax, x ) ?
x1

x1

On demande des dmonstrations bases sur des techniques et rsultats dOptimisation, sans recourir des rsultats dAlgbre bilinaire (comme une dcomposition spectrale de A).
Solution : Soient f : x Rn  f (x) :=
Ax, x et S := {x Rn |
 x  = 1}. Il est clair que S peut tre reprsent comme une contrainte du
type galit, h(x) = 0, avec h(x) :=  x 2 1.
La fonction-objectif f tant continue et S compact, il existe bien x S
tel que f (x) = maxxS f (x). Comme h est continment direntiable et
h (x) = 2x = 0, il existe R (unique) tel que f (x) = h (x), soit
70

III.4. Conditions de minimalit du second ordre

Ax = x. Donc x est un vecteur propre (unitaire) de A associ la valeur


propre (exhibe) ; la valeur correspondante f (x) est
Ax, x = . Reste
montrer que est la plus grande des valeurs propres de A. Soit une valeur
propre de A et x un vecteur propre unitaire associ : Ax = x,  x = 1. Il
sensuit :

Ax, x =  max
Ax, x = .
x=1

Posons := maxx1
Ax, x . Il va de soi que 1  et  0.
Si = 1 , on a 1  0 videmment. Montrons la rciproque, savoir :
(1  0) (
Ax, x  1 pour tout x tel que  x   1).
Si x = 0, lingalit voulue est bien vrie ; si x = 0,  x  1, on note
que

,
x
x
,
 1.

Ax, x =  x  A
x x
2

Donc 1 est le maximum de la forme quadratique


Ax, x sur la boule unit
ferme (euclidienne) de Rn si, et seulement si, la plus grande valeur propre de
A est  0.
Par un raisonnement similaire celui fait pour 1 , nous avons n =
min
Ax, x .
x=1

Posons := min
Ax, x . Il est clair que  n et  0.
x1

Si = n , on a n  0 bien sr. Rciproquement, si n  0,

Ax, x  n  x 2  n pour tout x tel que  x   1.


Donc : n = min
Ax, x si, et seulement si, lune des valeurs propres de
x1

A est  0 (ce qui quivaut n  0).

* Exercice III.5. Soit A Sn (R) . quelle condition les deux problmes suivants sont-il quivalents
6
6
 
Min
Ax, x
Min
Ax, x
(P)
P
x=1
x1
(au sens o les valeurs optimales et les solutions sont les mmes dans (P)
?
et (P))

71

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

sont les mmes si, et seuleSolution : Les valeurs optimales dans (P) et (P)
ment si, la plus petite valeur propre n de A est  0 (voir exercice prcdent).
Mais on demande plus ici : on veut que les solutions soient les mmes dans (P)
ne soit
ou, ce qui revient au mme, on veut quaucune solution x de (P)
et (P)
n
intrieure la boule unit (euclidienne) de R ( x  < 1). Or une solution x
est intrieure la boule unit (euclidienne) de Rn si, et seulement si,
de (P)
A est semi-dnie positive (daccord ?).
sont quivalents si, et seulement si, n < 0.
Donc, (P) et (P)

** Exercice III.6. tant donns A Sn (R) et b Rn , on considre le problme


doptimisation suivant :
(P)

.
Min f (x) :=
 x  = 1.

1
2

Ax, x +
b, x

1 ) On suppose b = 0. Rappeler alors ce que vaut f := inf {f (x) :  x  = 1}


et quels sont les x de norme 1 pour lesquels f (x) = f .
2 ) Soient 1 la plus grande valeur propre de A et p un rel strictement
infrieur 1 . On pose
Ap := A + pIn et fp : x Rn  fp (x) :=

Ap x, x +
b, x .
2

(a) Indiquer pourquoi fp est strictement concave.


(b) On considre le problme doptimisation suivant :
 
Pp

Min fp (x)

 x   1.

Montrer que
1
inf {fp (x) :  x   1} = inf {f (x) :  x  = 1} + p
2
 
et que les solutions de (P) et Pp sont les mmes.

72

III.4. Conditions de minimalit du second ordre

Solution :
De plus

1 )


f = 12 n , o n dsigne la plus petite valeur propre de A.


 x  = 1, f (x) = f ( x  = 1 et Ax = n x) .

Les solutions de (P) sont, dans ce cas, les vecteurs propres unitaires associs
n .
2 ) (a) On a 2 fp (x) = Ap pour tout x Rn , et par choix de p

Ap x, x =
Ax, x + p  x 2  (1 + p)  x 2
< 0 si x = 0.
Donc fp est une fonction strictement concave (et mme fortement concave
sur Rn ).
(b) Notons que inf {fp (x) :  x   1} est ncessairement atteint en
des points x tels que  x  = 1. En eet, si cette borne
  infrieure tait atteinte
en un point x intrieur lensemble-contrainte de Pp on aurait : fp (x) = 0
et 2 fp (x) semi-dnie positive, ce qui est exclu.
Il sensuit
inf {fp (x) :  x   1} = inf {fp (x) :  x  = 1}
p
= inf {f (x) :  x  = 1} +
2
p
(puisque fp (x) = f (x) + lorsque  x  = 1).
2
Dune manire claire :
 
x est solution de Pp fp (x) = inf {fp (x) : x  1} et x = 1 ;
fp (x) = inf {fp (x) : x = 1} et x = 1 ;
p
p
f (x) + = inf {f (x) : x = 1} + et x = 1 ;
2
2
x est solution de (P) .
 
Les solutions de (P) et Pp sont bien les mmes.
 
Remarque : Lensemble-contrainte dans Pp est un convexe compact simple
(la boule unit ferme pour la norme euclidienne) et la fonction minimiser est
strictement concave. Ce nest pas pour autant un problme simple, et la stricte
73

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

concavit de la fonction objectif fp nimplique nullement quil ny a quune seule


solution (contrairement la maximisation de fp sur le mme ensemble-contrainte).

** Exercice III.7. Soit n : Sn (R) R


A  n (A) := plus petite valeur propre de A.
1 ) Vrier que n est une fonction concave.
2 ) Reprsenter Pn (R) , ensemble des matrices semi-dnies positives de
taille n, sous la forme {A Sn (R) | g(A)  0}, o g est une fonction convexe
que lon proposera.

Solution : 1 ) On a (cf. Exercice III.4 par exemple) :


A Sn (R) , n (A) = inf x=1
Ax, x .
Si , symbolise le produit scalaire usuel dans Sn (R) (i.e.
A, B = tr(AB)),
Ax, x nest autre que A, xxT . Ainsi
n (A) = inf A, xxT .
x=1

Do la fonction n est linmum de la famille de formes linaires A 


A, xxT , indexe par x vriant  x  = 1. Il sensuit que n est une
fonction concave positivement homogne (i.e., n (A) = n (A) pour tout
 0 et A Sn (R)).
2 ) On a : (A Pn (R)) (n (A)  0) .
Par suite : Pn (R) = {A Sn (R) | g(A)  0} , o g := n .
Il sagit dune bonne reprsentation de Pn (R) sous forme de contrainte
de type ingalit, car il existe A0 Sn (R) tel que g(A0 ) < 0 (par exemple
A0 = In ) : lhypothse de qualication des contraintes de Slater est satisfaite.
On retrouve alors que
int Pn (R) = {A Sn (R) | g(A) < 0}
(ensemble des matrices dnies positives de taille n).
Notons toutefois que g nest pas ncessairement direntiable.

74

III.4. Conditions de minimalit du second ordre

** Exercice III.8. tant donn a1 , . . . , an des rels dirents de zro, on considre lellipsode plein (ou convexe compact elliptique) de Rn dni comme suit :
;
6

n 

ui 2
n
1 .
E := u = (u1 , . . . , un ) R |
ai
i=1

Soient x
/ E x et x sa projection sur E. Montrer que
xi =

a2i xi
pour tout i = 1, . . . , n,
a2i +

o > 0 est la seule solution de lquation (en )

n

i=1

a2i x2i
= 1.
(a2i + )2

Solution : x = (x1 , . . . , xn ) est solution du problme de minimisation suivant :

Minimiser f (u) :=  x u 2


n 

(P)
ui 2

 1.

sous la contrainte
ai
i=1

Il est clair ici que la (seule) contrainte ingalit est active en x :

n  2

xi
i=1

ai

1 (daccord ?). La condition de minimalit caractrisant x est : il existe un multiplicateur  0 tel que
xi xi +

xi
= 0 pour tout i = 1, . . . , n.
a2i
a2 x

Il sensuit que > 0 (car x = x) et xi = a2i+i pour tout i = 1, . . . , n.


i
Comment trouver ce ? On crit tout simplement la condition
n  2

xi
= 1.
ai

i=1

La fonction  d () :=

n

i=1

a2i x2i
(a2i +)2

est continue et strictement d-

croissante sur R+ ; elle dcrot de d(0) =




0 = lim d () .

n

i=1

x2i
a2i

> 1 (car x
/ E)

Lunique > 0 vriant d () = 1 est le multiplicateur recherch.


75

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

** Exercice III.9. Dans le processus de minimisation dune fonction f deux fois


direntiable sur Rn , la direction de Newton partir dun point xk o
f (xk ) = 0 et 2 f (xk ) est dnie positive est obtenue


soit en minimisant d 
f (xk ) , d + 12 2 f (xk ) d, d sur Rn
soit

d 
f (xk ) , d sous la contrainte
2en minimisant
f (xk ) d, d  1.
Montrer que les directions obtenues comme solutions de ces deux problmes
de minimisation sont les mmes une constante positive multiplicative prs.
Solution : Le premier problme (sans contraintes) est celui de la minimisation
dune fonction quadratique strictement convexe sur Rn : sa solution est celle
de lquation

1
f (xk ) .
f (xk ) + 2 f (xk ) d = 0, soit d = 2 f (xk )
Dans le deuxime problme (avec contrainte) il sagit de minimiser une
forme
non
nulle sur le convexe compact (elliptique) dcrit par linga linaire
2
lit f (xk ) d, d  1.
sur
La solution d est donc ncessairement

la frontire de lensemble
contrainte (frontire dquation 2 f (xk ) d, d = 1) et elle est caractrise
par lexistence de  0 (le multiplicateur) tel que
f (xk ) + 22 f (xk ) d = 0.
 2
1
f (xk )
f (xk )
.
 0 (car f (xk ) =
 0), il sensuit d =
Comme =
2

** Exercice III.10. Minimisation sur le simplexe-unit de Rn


1 ) Soit 3 := {(x1 , x2 , x3 ) R3 | x1 + x2 + x3 = 1, x1  0, x2  0,
x3  0}.
Dessiner 3 et dterminer le cne tangent et le cne normal 3 en
(1/3, 1/3, 1/3) , (0, 1/2, 1/2) et (0, 0, 1) respectivement. (On ne demande pas
une dmonstration ou un calcul dtaill mais une rponse au vu des dnitions
et de la reprsentation graphique de 3 .)
n
2 ) Soit
6 n le simplexe-unit de R , cest--dire

n :=

x = (x1 , . . . , xn )

Rn

| xi  0 pour tout i et

n

i=1

76

;
xi = 1 .

III.4. Conditions de minimalit du second ordre

Pour x n on note I (x) lensemble (ventuellement vide) des i tels que


xi = 0.
Montrer que
le cne tangent n en x est
Tn (x) = {d = (d1 , . . . , dn ) Rn | di  0 pour tout i I (x) ,
n

di = 0} ;
et
i=1

le cne normal n en x est


Nn (x) = {(0 , . . . , 0 ) | 0 R}
/ I (x) ,
+ { (1 , . . . , n ) Rn | i = 0 pour tout i
i  0 pour tout i I (x)}.
3 ) Soit f : Rn R convexe et direntiable. Montrer quune condition
ncessaire et susante pour que x n minimise f sur n est :
/ I (x)
i f (x) = constante c pour tout i
i f (x)  c pour tout i I (x) .

Solution :

1 ) T3 (1/3, 1/3, 1/3) est le plan dquation


d1 + d2 + d3 = 0 ;
T3 (0, 1/2, 1/2) est le demi-plan dquation :
d1 + d2 + d3 = 0 et d1  0 ;
T3 (0, 0, 1) est le cne dquation :
d1 + d2 + d3 = 0 d1  0 et d2  0.
Figure 7.

T3 (x) est dans chaque cas R+ (3 x) .


N3 (1/3, 1/3, 1/3) est la droite dirige par le vecteur (1, 1, 1) ;
N3 (0, 1/2, 1/2) est le demi-plan constitu des vecteurs de la forme
(0 + 1 , 0 , 0 ), o 0 R et 1  0.
N3 (0, 0, 1) est le cne constitu des vecteurs de la forme (0 + 1 ,
0 + 2 , 0 ), o 0 R, 1  0 et 2  0.
77

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

2 ) Il y a direntes manires darriver aux expressions annonces de


Tn (x) et Nn (x) :
partir des dnitions : le caractre polydral du convexe (ferm) n
facilite grandement les choses
Tn (x) = { (x x) |  0 et x n }

Nn (x) = [Tn (x)] ;

partir de la reprsentation de n comme conjonction dun nombre ni


dingalits anes
aj , x  bj ; auquel cas :
Tn (x) = {d Rn |
aj , d  0 pour tout j J (x)} ,

j aj | j  0 pour tout j J (x) ,


Nn (x) =

jJ(x)

o J (x) dsigne {j |
aj , x = bj } .
Dans le cas prsent, si lon pose a0 = (1, . . . , 1) , a1 = (1, 0, . . . , 0) , . . . ,
an = (0, . . . , 0, 1) , n est reprsent comme conjonction de n + 2 ingalits
anes

a0 , x  1,
a0 , x  1,
a1 , x  0, . . . ,
an , x  0.
Les deux premires contraintes-ingalits sont toujours actives en x n ,
et certaines parmi les n autres peuvent ltre (de aucune presque toutes
(n 1)). En consquence :
6
Tn (x) =

d = (d1 , . . . , dn ) R |
n

di  0,

i=1

6
Nn (x) = Ra0

di  0,

i=1

di  0 pour tout i I (x)

i (0, . . . , 1, 0, . . . , 0) | i  0 si xi = 0

i=1

;


et i = 0 si xi > 0 .

78

III.4. Conditions de minimalit du second ordre

3 ) Une condition ncessaire et susante pour que x n minimise la


fonction (convexe et direntiable) f sur n est
f (x) = (1 f (x) , . . . , n f (x)) Nn (x) .
Le rsultat escompt dcoule de lexpression de Nn (x) trouve la question prcdente.

** Exercice III.11. Soit S un ensemble non vide de Rn ; on dsigne par S c le


complmentaire de S, et par frS la frontire de S. Montrer que si x frS,
T (S, x) T (S c , x) = Rn , T (f rS, x) = T (S, x) T (S c , x) .
Solution : Soit d quelconque dans Rn et posons xk := x + k1 d, k N . Si
{xk } possde une sous-suite contenue dans S, il est alors clair que d T (S, x) .
Dans le cas contraire, il existe k0 tel que xk S c pour tout k  k0 ; il sensuit
que d T (S c , x).
En rsum, d T (S, x) T (S c , x) .
Puisque frS = S S c , linclusion T (frS, x) T (S, x) T (S c , x) est
acquise.
Rciproquement, considrons d T (S, x) T (S c , x) :
{dk } d, {tk } R+
convergeant vers 0, telles que
x + tk dk S pour tout k ;


 


dk d , tk R+
convergeant vers 0, telles que


x + tk dk S c pour tout k.


Puisque x + tk dk S et x + tk dk S c , il existe k ]0, 1[ tel que


 
k (x + tk dk ) + (1 k ) (x + tk dk ) frS. Posons


(1 k ) tk 
tk k
dk +
dk .
k := k tk + (1 k ) tk , k :=
k
k


Alors : {k } R+
converge vers 0 ;
{k } converge vers d (car chaque k est une combinaison convexe de dk et


dk , do  k d   max( dk d ,  dk d )) ; x + k k frS pour tout k.
Donc, d T (frS, x).
79

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

Remarque : La premire formule nore pas un grand intrt puisque, de manire


gnrale, T (A B, x) = T (A, x) T (B, x) ; la deuxime est plus inattendue
puisque seule linclusion T (A B, x) T (A, x) T (B, x) est valide en gnral.

** Exercice III.12. Soit S un ferm non vide de Rn et x S. On dsigne par


T (S, x) le cne tangent S en x.
1 ) Montrer que p [T (S, x)] si et seulement si :
.
> 0, > 0 tel que
(x S et  x x   ) (
p, x x   x x ) .

(3.3)

2 ) Soit f une fonction numrique telle que, pour tout d Rn , le quotient


direntiel suivant



f x + td f (x)
t
0+ et

d d. Cette limite est note f (x, d)


admette une limite (nie) quant t
(et appele drive directionnelle tangentielle de f en x dans la direction d).
Montrer que la condition


f (x, d) > 0 pour tout 0 = d T (S, x)

(3.4)

entrane que x est un minimum local strict de f sur S.


Que deviendrait (3.4) si S = Rn et f tait direntiable en x ?
3 ) Soit f une fonction numrique direntiable en x. Vrier lquivalence
des noncs suivants :
(i) f (x) [T (S, x)] ;
(ii) > 0,
f (x) , d >  d  pour tout 0 = d T (S, x) .
On suppose que x vrie lune des conditions quivalentes ci-dessus. Montrer
que pour tout > 0, x est un minimum local strict de f +  x  sur S.
Solution : 1 ) Soit p vriant la proprit (3.3), et soit d T (S, x) ; montrons
que
p, d  0.
Puisque d T (S, x), il existe {tk } R+
tendant vers 0, {dk } tendant vers
d, tels que xk := x + tk dk S pour tout k. Donc  xk x  pour tout k
assez grand (disons k  k0 ). Par suite :
> 0, k0 tel que
p, dk   dk  pour tout k  k0 .
Donc, la limite,
p, d  0.
80

III.4. Conditions de minimalit du second ordre

Rciproquement, soit p [T (S, x)] et supposons que (3.3) nait pas lieu.
Il existe donc > 0, une suite {xk } S convergeant vers x, tels que

p, xk x >  xk x  pour tout k.

(3.5)

Ncessairement xk = x pour tout k. Posons dk := xxkk x


x . La suite {dk } est
dans la sphre-unit de Rn ; prenons-en une sous-suite convergente : dkl d
quand l +. Par construction, d T (S, x) . Il vient de (3.5) :

p, d  > 0
ce qui entre en contradiction avec le fait que p [T (S, x)] .
2 ) Supposons quil existe {xk } S, xk = x, xk x telle que f (xk ) 
f (x) pour tout k. Posons dk := xxkk x
x , de sorte que xk = x +  xk x  dk .
Quitte prendre une sous-suite, on peut supposer que dk d quand k +.
videmment  d  = 1 et d T (S, x) . Posant tk :=  xk x 
0

f (x + tk dk ) f (x)
f (xk ) f (x)

=
f (x, d) > 0.
tk
tk
k +

Do contradiction.

Si f tait direntiable en x, f (x, d) =
f (x), d pour tout d Rn , et
la condition (3.4) deviendrait alors :

f (x), d > 0 pour tout d Rn \ {0}


ce qui est impossible raliser !
3 ) (i) dit :
f (x) , d  0 pour tout d T (S, x) .
(ii) dit : > 0,
f (x) , d >  d  pour tout 0 = d T (S, x) .
Il est clair que (i) (ii) .
Soit g : x  g(x) := f (x) +  x x  . Il est facile de vrier que

g (x, d) =
f (x) , d +  d  .
Daprs le rsultat de la 2e question, appliqu g, on obtient que x est un
minimum local strict de g sur S.
81

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

En rsum :
Si f nest pas direntiable en le point x considr, on peut esprer avoir

une condition susante de minimalit du 1er ordre pour f (base sur f (x, )).
En minimisation sans contraintes, une condition ncessaire de minimalit
du 1er ordre comme f (x) = 0 ne donne une information (du type dtre un
minimum local) que sur la fonction perturbe f +  x  .

** Exercice III.13. Soit Mn (R) structur en espace euclidien laide du produit


scalaire


(A, B)  A, B = tr A B ;
soit N une norme sur Mn (R) pour laquelle on pose :
S := {M Mn (R) : N (M ) = 1} (sphre-unit),
B := {M Mn (R) : N (M )  1} (boule-unit ferme).
On dnit
N : A Mn (R)  N (A) := max { A, M : M S} .
N est une norme sur Mn (R) (ce que lon ne demande pas de dmontrer).
On considre la fonction f : Mn (R) R qui X associe
f (X) := dt X.
1 ) Montrer que le maximum de f sur S est galement le maximum de f
sur B.
2 ) Soit X un point de S o f atteint son maximum. Montrer que X est
inversible et que

 
1 
 n.
N X
3 ) a) Quelle est la direntielle de f en X Mn (R) (forme linaire sur
Mn (R)) ? le gradient de f en X (lment de Mn (R)) ? On demande simplement
de rappeler les rsultats.
b) En crivant la condition ncessaire de maximalit en X, montrer :


1 
, M X  0 pour tout M B.
X

 
1 
= n.
En dduire que N X

82

III.4. Conditions de minimalit du second ordre

Solution : Lapplication M
 A, M est une forme linaire sur Mn (R),
donc continue (pourquoi ?). La sphre-unit S tant compacte, il existe bien
M S telle que
N (A) = A, M = sup { A, M : M S} .
Si M S, il en est de mme de M , do N (A) R+ .
Les proprits suivantes sont immdiates :
N (0) = 0 ;
A Mn (R) , R, N (A) = || N (A) ;
A1 Mn (R) , A2 Mn (R) , N (A1 + A2 )  N (A1 ) + N (A2 ) .
Comme A, M  N (A) N (M ) pour tout (A, M ) Mn (R)
Mn (R) ,
(N (A) = 0) ( A, M  0 pour tout M Mn (R)) , soit A = 0.
N est bien une norme sur Mn (R) .
Il est clair que N (A) est galement le maximum de A, sur B. En
fait N est ce quon appelle la fonction dappui de B (ou de S) ; cest la norme
duale de N . Mais attention, N nest pas ( , )1/2 !
1 ) Si 0 = M Mn (R) , M/N (M ) S de sorte que


1
M
=
f (M )  max f (S).
f
SS
N (M )
[N (M )]n
Ainsi, dans tous les cas, f (M )  [N (M )]n maxSS f (S).
En particulier, f (M )  maxSS f (S) pour tout M
maxM B f (M ) est gal maxSS f (S).

B, do

2 ) f est continue, S est compact, donc f atteint bien son maximum en un


point X de S.
 
Il est clair que f X  0. Pour sassurer du caractre inversible de X, il
sut de montrer que dtX = f(X) >0.
La matrice N I(Inn ) S et f N I(Inn ) = [N (I1n )]n > 0, donc f (X) > 0.
On a



 


1 
1 
1
, M = tr X M pour tout M S.
 X
N X

 
1 
 trIn = n.
En particulier, puisque X S, N X
83

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

3 ) a) Rappelons que Df (X) : H Mn (R)  Df (X) H =


tr((cof X) H), o cof X dsigne la matrice des cofacteurs de X. Do f (X) =
cof X.
b) Une condition ncessairement vrie par X maximisant f sur S
(ou sur B) est :
f (X), M X  0 pour tout M B.



En X inversible, X 1 = 1 (cof X) , do f (X) = dtX X 1 .
dt X
La condition ncessaire de maximalit voque plus haut devient :


1 
, M X  0 pour tout M B (car dt X > 0)
X
soit






1 
1 
1
,M  X
, X = tr X X = n pour tout M B.
X



1 
 n.
Par suite, N X

** Exercice III.14. Soit S un ferm non vide de Rn et x


/ S. On dsigne par
PS (x) lensemble des x S tels que  x x  = dS (x). Montrer que
x x [T (S, x)] pour tout x PS (x) .
Solution : Les points x de PS (x) sont les solutions du problme de minimi.
sation suivant :
Min f (x) := 12  x s 2
s S.

Figure 8.

84

III.4. Conditions de minimalit du second ordre

En une solution x de ce problme, on crit la condition ncessaire doptimalit du 1er ordre, savoir : f (x) [T (S, x)] .
Comme f (x) = (x x), le rsultat annonc est dmontr.
Remarque : Si g est la fonction 12 d2S , on peut montrer que g admet en tout x
/S
une drive directionnelle (tangentielle) qui est


d  g (x, d) = min {
x x, d | x PS (x)} .
On en dduit que g est direntiable en x si et seulement si PS (x) est rduit
un seul lment.

* Exercice III.15. Le lemme de H. Everett


Soit le problme doptimisation suivant :
6
Minimiser f (x) sous les contraintes
(P)
hi (x) = 0 pour i = 1, . . . , m et gj (x)  0 pour j = 1, . . . , p.
On dnit le lagrangien usuel
 p
L : (x, , ) Rn Rm R+ 
L (x, , ) := f (x) +

i hi (x) +

i=1

j gj (x) .

j=1



p
Soit , un lment quelconque de Rm (R+ ) et soit x, un point de


Rn minimisant L , , sur Rn .
Vrier que x, est solution du problme doptimisation (P ) suivant :
6
(P )
o

Minimiser f (x) sous les contraintes


hi (x) = i pour i I et gj (x)  j pour j J,



5
4
I := i : i = 0 et i := hi x, pour i I,


5
4
J := j : j > 0 et j := gj x, pour j J.

85

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

Solution : Par dnition de x, , on a :








i hi x, +
j gj x,
f x, +
iI

 f (x) +

jJ

i hi (x) +

iI

j gj (x) pour tout x Rn .

(3.6)

jJ

Soit x vriant : hi (x) = hi (x, ) pour i I, gj (x)  gj (x, ) pour j J.


Il est trivial que x, , entre autres, vrie ces ingalits.
Au vu de lingalit (3.6), et sachant que j  0, on a bien f (x, )  f (x).
Donc, x, vrie les contraintes de (P ) et est une solution de (P ).

** Exercice III.16. tant donn Q Sn (R) dnie positive, c Rn , A


Mm,n (R) de rang m (m  n) et b Rm , on considre le problme de minimisation suivant :
6
Min f (x) := 12
Qx, x +
c, x
(Pb )
Ax = b.
1 ) Indiquer rapidement pourquoi (Pb ) a toujours une et une seule solution.
2 ) Dterminer explicitement la solution x de (Pb ) ainsi que le vecteurmultiplicateur Rm associ.
3 ) Pour u Rm , on pose
(u) := inf {f (x) | Ax = b + u} .
Quelles sont les proprits essentielles de la fonction (convexit, direntiabilit, etc.) ?

Solution : 1 ) Lapplication linaire A : Rn Rm tant surjective, lensemblecontrainte de (Pb ) est un convexe ferm non vide de Rn , et ce quel que soit
b Rm (cest en fait un sous-espace ane de Rn dont la direction est le
sous-espace vectoriel KerA).
La fonction f est convexe (fortement convexe mme) sur Rn et
lim f (x) = +.

x+

86

III.4. Conditions de minimalit du second ordre

En consquence, il existe un et un seul x Rn minimisant f (x) sous la


contrainte Ax = b.
2 ) La solution x de (Pb ) est caractrise par les relations suivantes :

Ax = b ;
Il existe Rm tel que f (x) + A = 0

soit Qx + c + A = 0.
Comme Q est inversible, ceci est quivalent :
Ax = b et x + Q1 c + Q1 A = 0
ou encore

Ax = b et AQ1 A + AQ1 c + b = 0.

(3.7)

Or lapplication linaire AQ1 A : Rm Rm est symtrique et dnie


positive ; en eet,
@ ?

@

?
AQ1 A y, y = Q1 A y , A y  0 pour tout y Rm ,
et

@ ?

@

?
AQ1 A y, y = Q1 A y , A y = 0

si et seulement si A y = 0, soit y = 0 (A tant injective puisque A est


surjective).
On a ainsi partir de (3.7) lexpression explicite de x et :


x = Q1 A B AQ1 c + b Q1 c,


= B AQ1 c + b ,
1

.
o B := AQ1 A
3 ) On peut expliciter (u) compltement. Sans aller faire ce calcul, nous
savons que : Rm R est convexe, et nous sommes dans les conditions
assurant que est direntiable en 0 avec (0) = .

* Exercice III.17. Considrons le problme de la minimisation de f , suppose


de classe C 1 , sous les contraintes h1 (x) = 0, . . . , hm (x) = 0 et g1 (x)  0, . . .,
gp (x)  0, o les fonctions hi et gj sont aussi supposes de classe C 1 .
87

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

tant donn x Rn et c = (1 , . . . , m , 1 , . . . p ) Rm Rp , on pose

m


h
(x)+
f
(x)
+
i
i

i=1

p


j+ gj (x)

j=1

h (x)
1

h2 (x)

F (x, c) := ..
Rn Rm Rp

hm (x)

g (x) +

1
1

g2 (x) + 2

..

gp (x) + p
o j+ := max (0, j ) et j := min (0, j ).
1 ) F est-elle continue ? direntiable ? Donner des conditions susantes
portant sur les donnes du problme de minimisation pour que F soit localement
lipschitzienne.
2 ) Montrer que x vrie les conditions de KKT si, et seulement si, il existe
c = (1 , . . . , m , 1 , . . . , p ) tel que F (x, c) = 0.
Solution : 1 ) F est continue, mais nest pas direntiable ( cause des fonctions j  j+ et j  j qui ne sont pas direntiables en 0).
Les fonctions f, hi , gj tant de classe C 1 , elles sont localement lipschitziennes (comme fonctions de x, donc de (x, c)) ; par ailleurs les fonctions
j  j+ et j  j sont lipschitziennes. Par consquent, F sera localement lipschtzienne sur Rn Rm Rp ds lors que les f, hi , et gj sont
localement lipschitziennes sur Rn .
2 ) Rappelons que x vrie les conditions

 de mKKT psi hi (x) = 0 pour tout
i, gj (x)  0 pour tout j, et sil existe , R R tel que :
p
m


i hi (x) +
j gj (x) = 0
(i) f (x) +
i=1

j=1

(ii) j  0 pour tout j = 1, . . . , p


(iii) j = 0 lorsque gj (x) < 0, j = 1, . . . , p.
88

III.4. Conditions de minimalit du second ordre

Si x vrie les conditions de KKT, on dnit c = (1 , . . . , m , 1 , . . . p )


comme suit :
i = i pour tout i = 1, . . . , m
j = j si gj (x) = 0,

j = gj (x) si gj (x) < 0.

Alors F (x, c) = 0.
Rciproquement, soit (x, c), avec c = (, ), tel que F (x, c) = 0. On a tout
dabord :
hi (x) = 0 pour tout i = 1, . . . , m

gj (x) = j  0 pour tout j = 1, . . . , p.


Ensuite, posons
i = i pour tout i = 1, . . . , m
+

j = j pour tout j = 1, . . . , p.


Alors , vrie les conditions dans (i) , (ii) , (iii) nonces plus haut.

Commentaire : On ramne ainsi la recherche des points vriant les conditions de


KKT la rsolution dun systme dquations non linaires, mais les fonctions non
linaires intervenant dans les quations ne sont pas deux fois direntiables, ce
qui oblige repenser des mthodes usuelles de rsolution comme celle de Newton.

** Exercice III.18. Soit Rn muni de son produit scalaire usuel


, et de la
norme euclidienne   associe. tant donn a Rn , on considre
fa : := {x Rn :  x  < 1} R

x  fa (x) := ln 1  x 2 +
a, x .
1 ) Montrer que fa est strictement convexe sur .
2 ) On considre le problme de minimisation suivant :
6
Minimiser fa (x)
4
5
(Pa )
x Ca := x Rn :  x   12 et
a, x  0 .
a) Rsoudre (Pa ) pour a = 0.
b) On suppose a = 0 et on dsigne par x la solution de (Pa ).
89

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

Montrer que
a, x < 0 ncessairement et donc que le multiplicateur 2
associ cette contrainte est nul.
1
En distinguant selon que la contrainte  x  
est active ou pas en x,
2
dterminer x et le multiplicateur 1 associ cette contrainte (on sera amen
discuter sur les valeurs prises par  a ).
Solution : 1 ) Il y a au moins deux faons de montrer que fa est strictement
convexe sur louvert convexe .
(i) La fonction x  (x) := 1  x 2 est strictement concave sur ; la
fonction y  (y) := ln y est strictement dcroissante et convexe sur R+
.
2
Par suite, la fonction : x  ln(1  x  ) est strictement convexe sur
; en eet :


]0, 1[, x, x , x = x ,

 


x + (1 ) x > (x) + (1 ) x ;
do

!
  "


( ) x + (1 ) x  (x) + (1 ) x

 
 ( ) (x) + (1 ) ( ) x .

(ii) La fonction fa est deux fois direntiable sur avec :


x ,

2 fa (x) =

4
(1  x

xx
2 )2

2
In .
1  x 2

Ainsi :

x, d 2 +
d Rn , 2 fa (x) d, d = (1x
2 )2

2
fa (x) d, d > 0 si d = 0.

2
1x2

 d 2  0 ;

2 fa (x) est dnie positive pour tout x : fa est donc strictement


convexe sur . Sil y a une solution dans (Pa ) elle est unique.
2
2 ) a) Il sagit
4 de nminimiser f105(x) := ln(1  x  ) sur le convexe
compact C0 := x R |  x   2 . On peut considrer que C0 est reprsent sous forme dune ingalit : g1 (x) :=  x 2 14  0. Comme il existe
x0 tel que g1 (x0 ) < 0 (prendre x0 = 0 par exemple), la solution x de (P0 ) est
caractrise par lexistence de 1  0 tel que :
6
f0 (x) + 1 g1 (x) = 0,

1 = 0 si g1 (x) < 0.
90

III.4. Conditions de minimalit du second ordre

La solution x peut-elle tre sur la frontire de C0 ? Dans ce cas on aurait :




1
4
+ 1 x = 0 avec 1  0.
 x  = f0 (x) + 1 g1 (x) =
2
3
Ceci est impossible.
Donc x est lintrieur de C0 , et vrie f0 (x) = 0. Il en rsulte que
x = 0.
videmment, dans ce cas particulier, on aurait pu dduire directement que
f0 (x)  f0 (0) pour tout x C0 .
b) La fonction fa est continue, strictement convexe sur le convexe compact Ca ; le problme (Pa ) a une et une seule solution x quil sagit
de dterminer. On voit facilement quil existe x0 tel que g1 (x0 ) < 0 et
g2 (x0 ) :=
a, x0 < 0 (hypothse de Slater). En consquence, x Ca est
solution de (Pa ) si et seulement si : 1  0, 2  0 tels que
6
fa (x) + 1 g1 (x) + 2 g2 (x) = 0,
1 g1 (x) = 2 g2 (x) = 0 ;
ce qui donne :
2x
+ a + 21 x + 2 a = 0,
1  x 2


1
2
= 2
a, x = 0.
1  x 
4

(3.8)
(3.9)

Supposons g2 (x) =
a, x = 0. En faisant le produit scalaire avec a
dans (3.8), on obtient (1 + 2 )  a 2 = 0, ce qui oblige avoir a = 0.
Donc g2 (x) < 0 et 2 = 0. Les conditions (3.8) et (3.9) simplies deviennent :
2x
+ a + 21 x = 0,
1  x 2
1
1 = 0 si  x  <
2

(3.10)
(3.11)

Dans tous les cas, x et a sont colinaires : x = ra avec r < 0.


2x
1
+ a = 0.
1re possibilit pour x :  x  < , et
2
1  x 2
4
Ceci ne peut se produire que si  a  < , auquel cas
3

a 
21 .
x=
1+

a

 a 2
91

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

1
, et (3.10) pour un certain 1  0.
2
Aprs quelques calculs, on constate que ceci na lieu que pour
4
 a   , auquel cas :
3
4
a

1 =  a  et x =
3
2a
En rsum :

a 
4
21 ,
1+

a

Si 0 <  a  < , la solution de (Pa ) est x =
3
 a 2
lintrieur de Ca ;
4
a
, sur la frontire de Ca .
Si  a   , la solution de (Pa ) est x = 2a
3
2e possibilit pour x :  x  =

* Exercice III.19. On considre dans R2 le problme de minimisation suivant :


6
Min f (1 , 2 ) := 13 + 22
(P)
g (1 , 2 ) := 12 + 22 9  0.
1 ) Dterminer les points vriant les conditions ncessaires de minimalit
du 1er ordre.
2 ) En dduire les solutions de (P).
Solution : La fonction f ntant pas convexe, (P) nest pas un problme de
minimisation convexe.
1 ) La fonction g dnissant la seule contrainte de type ingalit est
convexe ; de plus, il existe x0 tel que g (x0 ) < 0. En consquence, une solution x = 1 , 2 de (P) et il y en a vrie les conditions ncessaires de
minimalit du 1er ordre, savoir :
 0 tel que f (x) + g (x) = 0 et g (x) = 0,
soit

3 1 + 2 1 = 0, (1 + ) 2 = 0, = 0 si 1 + 2 9 < 0.
Il en ressort deux possibilits :


1 , 2 = (0, 0) avec = 0,


9
1 , 2 = (3, 0) avec =
2
92

III.4. Conditions de minimalit du second ordre

2 ) Comme f (0, 0) = 0 et f (3, 0) = 27, la seule solution de (P) est


x = (3, 0), et la valeur optimale correspondante est f = 27.
 
00
2
, mais x nest pas un minimum local de
On notera que f (0, 0) =
02
f ; pas plus quil nest un point-selle de f dailleurs.

* Exercice III.20. Soit C lensemble de R2 dni par


C := {(1 , 2 ) | 1 + 2  1, 1  0, 2  0} ,
et f : R2 R dnie par f (1 , 2 ) := 1 22 21 2 +

12
2

22
2

1 ) La fonction f est-elle convexe ? concave ?


2 ) On considre le problme de la minimisation de f sur C.
(i) Montrer que tout minimum (mme local) se trouve sur la frontire fr C
de C.
(ii) En explicitant T (C, x) (o [T (C, x)] = N (C, x)) en tout point x de
fr C, montrer quil nexiste quun point de C vriant la condition ncessaire
de minimalit du 1er ordre. En dduire lunique solution du problme de la
minimisation de f sur C.
3 ) Rsoudre prsent le problme de la maximisation de f sur C.

Solution : 1 ) On a aaire une fonction f quadratique qui nest ni convexe


ni concave.


1 2
2
nest ni semi-dnie positive ni semiEn eet, f (1 , 2 ) =
2 1
dnie ngative.
2 ) (i) Un minimum local (ou maximum local) x de f qui se trouverait


lintrieur de C devrait vrier f (x) = 0. Or le seul point x = 1 , 2




1 + 1 2 2
= 0 est 53 , 43 qui est lextrieur
vriant f (x) =
2 2 1 + 2
de C.
Mais f tant continue et C compact, le problme de la minimisation de f
sur C (comme celui de la maximisation de f sur C) admet des solutions. Ces
solutions se trouvent donc ncessairement sur la frontire de C.
93

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

(ii) Examinons successivement tous les cas de gure : x est sur lune des
artes (1), (2), (3), puis x est lun des sommets (1 2), (2 3), (1 3).
2

(1-2)

(1)
(2)
C

(2-3)

(3)

(1-3)

 
1
(1) : T (C, x) = {(d1 , d2 ) | d1 + d2  0} , [T (C, x)] = N (C, x) = R
.
1
 
+ 1
.
(2) : T (C, x) = {(d1 , d2 ) | d1  0} , N (C, x) = R
0
 
0
.
(3) : T (C, x) = {(d1 , d2 ) | d2  0} , N (C, x) = R+
1

(1 2) : T (C, x) = {(d1 , d2 ) | d1 + d2  0 et d1  0} ,
.  
/
 
1
1
+ 2
| 1  0, 2  0 .
N (C, x) = 1
1
0
(1 3) : T (C, x) = {(d1 , d2 ) | d1 + d2  0 et d2  0} ,
.  
/
 
1
0
+ 2
| 1  0, 2  0 .
N (C, x) = 1
1
1
(2 3) : T (C, x) = {(d1 , d2 ) | d1  0 et d2  0} ,
.  
/
 
1
0
+ 2
| 1  0, 2  0 .
N (C, x) = 1
0
1
La condition ncessaire du 1er ordre que doit satisfaire un minimum (mme
local) de f sur C est : f (x) N (C, x). Or un seul
 vrie cette condi point
1 2
,
.
tion : il se trouve sur larte (1) de C et cest x =
3 3


Par consquent, x = 13 , 23 est le seul point de C minimisant f sur C. La
valeur minimale de f sur C est f (x) = 11
6 .
94

III.4. Conditions de minimalit du second ordre

3 ) Un maximum local x de f sur C doit ncessairement vrier : f (x)


N (C, x). Deux points sont candidats : x1 = (1, 0) et x2 = (0, 0).
Comme f (x1 ) = 12 < 0 = f (x2 ), on en dduit que x2 = (0, 0) est le
maximum global de f sur C.

*** Exercice III.21. Soit P un polydre convexe ferm de Rn , n  2, symtrique


par rapport lorigine, dcrit comme suit :
P := {x Rn | 1 
ai , x  1 pour tout i = 1, . . . , m} ,
o les ai sont des vecteurs de Rn .
On suppose que P est born et dintrieur non vide.
Soit E un ellipsode plein (ou convexe compact elliptique) de Rn , centr en
lorigine, dcrit comme suit :

5
4
(3.12)
E := x Rn | A1 x, x  1 ,
o A Sn (R) est dnie positive.
1 ) Montrer que E dcrit en (3.12) est aussi {Bu | u   1}, avec B :=
A1/2 . En dduire que le volume de E est proportionnel dt A.
2 ) On considre le problme qui consiste chercher l (ou les) ellipsode(s)
E contenu(s) dans P de volume maximal.
a) Montrer que linclusion E P est traduite par les contraintes de type
ingalit

Aai , ai  1 pour tout i = 1, . . . , m.


b) Vrier que le problme de la recherche dun ellipsode E contenu dans P
de volume maximal revient au problme de minimisation convexe direntiable
suivant (pos dans Sn (R)) :

Minimiser ln(dt A1 )

(P) A Pn (R)

Aa , a  1 pour tout i = 1, . . . , m
i

o Pn (R) dsigne le cne convexe ouvert de Sn (R) constitu des matrices


dnies positives.
c) Montrer que (P) a une et une seule solution.
95

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

d) Montrer que la solution A de (P) est caractrise par les conditions suivantes :

A Pn (R) ;

Aa
,
a
 1 pour tout i = 1, . . . , m ;
i
i

Il existe des rels positifs 1 , . . . , m tels que :


(C)

1 


A
=
i ai a

i=1

i Aai , ai 1 = 0 pour tout i = 1, . . . , m.


e) A, 1 , . . . , m vriant les conditions de (C) . Montrer que
m

i = n.

i=1

f) Soit E lellipsode contenu dans P de volume maximal.


Dmontrer lencadrement suivant :

E P n E.

Solution : 1 ) Si B := A1/2 , A1 x, x =  A1/2 x 2 , de sorte que lingalit

1
A x, x  1 quivaut  A1/2 x   1. Grce au changement de variable
u := A1/2 x, on voit que


 A1/2 x   1 (x = Bu,  u   1) .
E est ainsi limage par B de la boule-unit ferme de Rn .
Le volume de E est donc

n
+1 ,
dt B n/2 /
2
n

n/2
/ 2 + 1 tant le volume de la boule-unit ferme de Rn . Comme

dt B = dt A, le volume de E est bien proportionnel dt A.


2 ) a) E P signie
|
ai , Bu |  1 pour tout u tel que  u   1,
ce qui quivaut

sup |
Bai , u | =  Bai   1.

u1

Mais  Bai 2  1 revient


Bai , Bai =
Aai , ai  1.
96

III.4. Conditions de minimalit du second ordre

b) Maximiser le volume de E quivaut maximiser


maximiser ln (dt A) .

dt A, ou encore

Les contraintes du problme sont : A Pn (R) et


gi (A) :=
Aai , ai 1  0 pour tout i = 1, . . . , m.
En observant que
Aai , ai = A, ai a
i , o , dsigne le produit
scalaire usuel dans Sn (R) (rappel : U, V = tr(U V )), il est clair que les
gi sont des fonctions anes (de A), avec
gi (A) = ai a
i en tout A Sn (R) .

La fonction f : A Pn (R)  f (A) := ln(dt A) = ln(dt A1 ) est

convexe (strictement mme) et direntiable sur Pn (R) (cf. Exercice 1.13 et


Exercice 1.4), avec

f (A) = A1 en tout A Pn (R).


Le problme de la recherche dun ellipsode E contenu dans P de volume
maximal revient donc

Minimiser f (A)

(P)
A Pn (R)

g (A)  0 pour tout i = 1, . . . , m.


i

Cest un problme de minimisation convexe direntiable avec contraintes


du type ingalits anes.
c) Soit E un ellipsode contenant P (un tel ellipsode existe puisque P est
born) ; il est clair que les ellipsodes-candidats E tre solutions de (P) ont
De plus,
un volume major par celui de E.



1
ln(dt A ) = ln(dt A) + lorsque A Pn (R) A0 fr Pn (R) .
(la fonction A  ln(dt A) joue le rle de fonction-barrire ou de

pnalisation intrieure pour la contrainte A Pn (R) ).


En consquence (revoir lExercice II.1 si ncessaire), le problme (P) a une
solution au moins.
La stricte convexit de la fonction-objectif fait que cette solution est unique.
97

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

d) En raison de ce qui a t dit en b), la solution A de (P) est caractrise


par les conditions de KKT :

A vrie les contraintes du problme (P) ;

Il existe des rels positifs (1 , . . . , m ) (les multiplicateurs

de Lagrange KKT) tels que :


(C)
m
 1

+
i ai a
A

i = 0,

i=1



i Aai , ai 1 = 0 pour tout i = 1, . . . , m.

m

i=1

 1
 1/2
la relation A
=
e) En pr-multipliant et en post-multipliant par A
i ai a
i , il vient :
In =

 1/2
 1/2
i A
ai a
,
i A

i=1

et, en prenant la trace,


n=

i Aai , ai

i=1

i daprs la dernire relation de (C).

i=1

f) E P videmment ; dmontrons linclusion P n E.


Soit x P , cest--dire vriant |
x, ai |  1 pour tout i = 1, . . . , m ; il
nous faut dmontrer que
,
? 
@
 1 x
x
1
,
 1 i.e.
A
A
x, x  n.
n n
m
 1 
=
i ai a
Or A
i de sorte que
i=1

puisque
ai , x 2  1
m
@
? 
1

m

A
x, x =
i
ai , x 2  n
.

=
n
pour
tout
i
=
1,
...,
m
et
i
i=1
i=1

98

III.4. Conditions de minimalit du second ordre

Commentaire :

m
m
 1 
 1

La relation A
=
i ai a
i = n, indique que A
/n est
i , allie
i=1

i=1

une combinaison convexe de matrices symtriques semi-dnies positives de rang


1 construites partir des vecteurs ai normaux aux facettes de P . Elle traduit une
tangence simultane de lellipsode optimal E certaines facettes de P , ce que
lintuition de la gomtrie du problme laissait supposer.

La constante n obtenue dans lencadrement de f est indpendante de P ,


notamment du nombre m de doubles ingalits le dcrivant. Un exemple simple
dans R2 , en considrant un carr P et donc une boule ferme pour E, montre que
cette constante ne peut tre amliore.
Le centre des ellipsodes-candidats E avait t x lorigine, mais on peut
aisment imaginer que sil avait t libre (cest--dire un paramtre additionnel
dans le problme), la symtrie de P aurait de toute faon conduit un E optimal
centr lorigine.

*** Exercice III.22. Soit P un polydre convexe ferm de Rn dcrit de la manire


suivante
P := {x Rn |
ai , x  bi pour tout i = 1, . . . , m}
o les ai sont des vecteurs de Rn et les bi des rels.
On suppose que P est born et dintrieur non vide.
Soit E un ellipsode plein de Rn dcrit de la manire suivante
E := c + {Bu |  u   1} ,

(3.13)

o c Rn et B Sn (R) est dnie positive. E est ainsi centr en c et de volume


proportionnel dt B.
On considre le problme qui consiste chercher l (ou les) ellipsode(s) E
contenu(s) dans P de volume maximal.
1 ) Dcrire linclusion E P sous la forme dune conjonction dingalits
gi (c, B)  0 pour tout i = 1, . . . , m
o les gi sont des fonctions convexes de (c, B) Rn Sn (R) .
2 ) Formaliser le problme de la recherche dun ellipsode E contenu dans P
de volume maximal comme un problme de minimisation convexe.

99

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

Solution : 1 ) Linclusion E {x Rn |
ai , x  bi } se traduit par

ai , c + Bu  bi pour tout u vriant  u   1 ;


ce qui quivaut

ai , c + sup
ai , Bu  bi
u1

soit encore, puisque B  = B et que supu1


v, u =  v 

ai , c +  Bai   bi .
Soit gi : Rn Sn (R) R la fonction qui (c, B) Rn Sn (R) associe gi (c, B) :=
ai , c +  Bai  bi . Il est immdiat que gi est convexe
(daccord ?). Donc linclusion E P quivaut au jeu dingalits convexes
gi (c, B)  0 pour tout i = 1, . . . , m.

2 ) Soit Pn (R) louvert convexe de Sn (R) constitu des B Sn (R) qui


sont dnies positives. La fonction

f : B Pn (R)  f (B) := ln(dt B)

est convexe (strictement convexe mme) sur Pn (R) (cf. Exercice I.13 par
exemple).
Le volume de lellipsode dcrit comme en (3.13) est dt B, une constante
multiplicative prs (xe, indpendante de B ; cest le volume de la boule-unit
ferme de Rn ). Maximiser dt B quivaut maximiser ln(dt B), ou encore
minimiser ln(dt B).
Le problme de la recherche dun ellipsode E (dcrit comme en (3.13))
contenu dans P de volume maximal se formalise donc en le problme de minimisation convexe suivant (pos dans Rn Sn (R)) :

Minimiser f (B) = ln(dt B)

B Pn (R),

g (c, B)  0 pour tout i = 1, . . . , m.


i

100

III.4. Conditions de minimalit du second ordre

Commentaire : Prolongement de lexercice : on peut montrer, dans lesprit de


lexercice prcdent, quil y a un et un seul ellipsode contenu dans P de volume
maximal.
Autre prolongement : Montrer quil existe un et un seul ellipsode E contenant
P de volume minimal.

*** Exercice III.23. Soit B Sn (R), s et y dans Rn , s = 0. On considre le


problme de minimisation suivant :
(P)

Minimiser

1
 X B 2 parmi les X Sn (R) vriant Xs = y,
2

o   dsigne la norme euclidienne associe au produit scalaire usuel ,


sur Sn (R) (rappel : U, V = tr(U V )).
1 ) Soit l : Sn (R) Rn dnie par l(X) := Xs.
a) Vrier que l est linaire surjective.
b) Dterminer lapplication linaire adjointe l de l (rappel : l : Rn Sn (R)
est dnie par
l (X), u = X, l (u) pour tout X Sn (R) et u Rn ).
2 ) a) Indiquer pourquoi le problme (P) a une et une seule solution.
b) Montrer que X Sn (R) est solution de (P) si et seulement si :

Xs = y ;


(L)
u Rn tel que X B = us + su
2
c) Vrier que X := B +

(y Bs)s + s(y Bs)


y Bs, s 

ss est la
 s 2
 s 4

solution de (P).

3 ) On suppose ici quil existe W Pn (R) telle que W y = W 1 s, et on


considre le problme de minimisation suivant :
(Q) Minimiser 12  W (X B)W 2 parmi les X Sn (R) vriant Xs = y.
a) Montrer que la solution X de (Q) est donne par
X := B +

(y Bs)y  + y(y Bs)


y Bs, s 

yy .

y, s
(
y, s )2

b) On suppose de plus que B est inversible. Montrer que X est inversible et


(X )1 = B 1 +

B 1 yy  B 1
ss

y, s

B 1 y, y

En dduire que X est dnie positive lorsque B est dnie positive.


101

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

Indication. Pour rpondre la question 3 ) b), on pourra utiliser sur (X )1 le


rsultat de la 5e question de lExercice I.8.
Solution : 1 ) a) l est linaire, cest clair. Dsignons par Eij la matrice carre
de taille n dont tous les lments sont nuls sauf le terme (i, j) qui vaut 1. La
famille {Eii | i = 1, . . . , n} {Eij + Eji | i = j} constitue une base de Sn (R) ;
et :
l(Eii ) = vecteur de Rn dont toutes les composantes sont nulles sauf la ie
qui vaut si ;
l(Eij + Eji ) = vecteur de Rn dont toutes les composantes sont nulles sauf
la ie qui vaut sj et la j e qui vaut si .
Puisque s = (s1 , . . . , sn ) = 0, limage par l de la base ci-dessus est une
famille gnratrice de Rn : l est donc surjective.
On peut tre plus explicite en proposant une matrice symtrique X telle
que Xs = y :
yy 
rpond la question ;
Si
y, s = 0, X :=

y, s
sy  + ys
fait laaire.
Si
y, s = 0, X :=
 s 2
b) l (u) est la seule matrice symtrique vriant

Xs, u = X, l (u) = tr(l (u)X) pour tout X Sn (R) et u Rn .


Puisque
Xs, u = (Xs) u et que s X  u = tr(us X) = tr(su X), on a :


= us +su
(daccord ?).
2

l (u)

2 ) a) Puisque l est linaire (continue) surjective, {X Sn (R) | l(X) = y}


est un sous-espace ane (ferm) de Sn (R). Le problme (P) est donc celui
de trouver la projection orthogonale (dans le contexte de lespace euclidien
(Sn (R), , ) de B sur ce sous-espace ane : (P) a une et une seule
solution.
b) En tout point X de lensemble-contrainte de (P), le sous-espace (vectoriel) normal est le mme, cest (Ker l) = Im l . Ainsi, X est solution de (P)
si et seulement si :
X Sn (R),

Xs = y et X B Im l .

Connaissant l , nous avons donc la caractrisation (L) annonce (il sagit,


bien sr, des conditions ncessaires et susantes doptimalit de Lagrange).
102

III.4. Conditions de minimalit du second ordre

c) l tant injective (puisque l est surjective), il ny a quun u Rn rpondant la question. On vrie que
u := 2

y Bs
y Bs, s

s
 s 2
 s 4

fait laaire. La matrice X qui sensuit vrie bien Xs = y (cest facile


vrier) ; cest donc la solution de (P).
3 ) a) Le problme (Q) consiste minimiser 12  W XW W BW 2 parmi
les X Sn (R) vriant (W XW )(W 1 s) = W y.
En posant B  := W BW, s := W 1 s, y  := W y, et en faisant le changement de variable X  := W XW, le problme (Q) est quivalent :


Q

Minimiser

1
 X  B  2 parmi les X  Sn (R) vriant X  s = y  .
2

Daprs le rsultat de la question prcdente, la solution de (Q) est fournie


par


W (y Bs)s W 1 + W 1 s(y Bs) W


 W 1 s 2

W (y Bs), W 1 s

W 1 ss W 1 ;
 W 1 s 4

X = W BW +

par suite, la solution du problme (Q) est X = W 1 (X )W 1 , soit


(y Bs)s W 2 + W 2 s(y Bs)
 W 1 s 2

W (y Bs), W 1 s

W 2 ss W 2 .
 W 1 s 4

X = B +

Mais puisque W y = W 1 s et que W est symtrique, on a :


W 2 s = y,  W 1 s 2 = W 1 s, W 1 s = W y, W 1 s =
y, s ,


W (y Bs), W 1 s =
y Bs, s .
Do lexpression annonce de X .
B 1 yy  B 1
ss

et posons A := B 1 ,

y, s

B 1 y, y
1
1
et := 1
; nous avons donc inverser
u := s, v := B 1 y, :=

y, s

B y, y
b) Partons de Y := B 1 +

103

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

(A + uu + vv  ). Dans le but dappliquer le rsultat de la 5e question de


lExercice I.8, nous valuons les expressions suivantes :
)
+

1
rappelons que

Bs, s
,
1 + A u, u = 1 +

y, s

y, s =  W 1 s 2 > 0


1 + A1 v, v = 0,

 




2


s, y

1 + A1 v, v A1 u, v
=
d := 1 + A1 u, u

B 1 y, y
Par suite


14
(1 + A1 u, u A1 vv  A1
d



A1 u, v A1 vu A1 + A1 uv  A1

(Y )1 = A1

=B

ys B + Bsy 
Bs + y, s 
+
yy ,

y, s
(
s, y )2

ce qui nest autre que X .


Dmontrons la dnie positivit de X en montrant la dnie positivit
de Y = (X )1 . Pour cela, soit x non nul dans Rn et considrons
Y x, x .
On a :

(
s, x )2 ( B 1 y, x )2

Y x, x = B x, x +

s, y

B 1 y, y
En posant := B 1/2 x et := B 1/2 y, la formulation ci-dessus devient

Y x, x =

 2  2 (
, )2 (
s, x )2

+
 2

s, y

Il est clair prsent (grce lingalit de Schwarz


,     )
que
Y x, x  0. Sachant que Y est inversible, cela sut dmontrer le
caractre de dnie positivit de Y . Faisons-en nanmoins une dmonstration
directe.
Si le 1er terme dans lexpression de
Y x, x sannule, cest quil existe
= 0 tel que = (cas dgalit dans lingalit de Schwarz), soit encore
x = y. Mais alors
s, x =
s, y et le 2e terme dans lexpression de
Y x, x
est 2
s, y > 0. Donc
Y x, x > 0.

104

III.4. Conditions de minimalit du second ordre

Commentaire : La matrice X obtenue comme solution de (P) nest pas

ncesXs, s )
sairement dnie positive, pour cela il faudrait quau
moins

y,
s
(=

soit > 0. Cest le cas dans la 3e question o


y, s = W 2 s, s > 0.
Cet exercice trouve ses racines dans la ncessit dexpliquer de manire
variationnelle les formules de mise jour dans les mthodes de minimisation
sans contraintes dites de quasi-Newton. Ainsi, dans la 2e question, parmi les
X Sn (R) vriant Xs = y (appele quation de la scante ou de quasi-Newton),
on cherche celle qui est la plus proche de A (au sens de la distance drive de
, ). La formule de mise jour qui en rsulte est PSB (pour Powellsymtrique-Broyden).
Le rsultat de la 3e question a un pendant que voici.

Soit W Pn (R) telle que W s = W 1 y, et considrons le problme de minimisation suivant :


(R) Minimiser

1
 W (X B)W 2 parmi les X Sn (R) vriant Xy = s.
2

Alors la solution X de (R) est donne par


X := B +

(s By)s + s(s By)


s By, y 

ss .

s, y
(
s, y )2

Si B est dnie positive, il en est de mme de X et


(X )1 = B 1 +

B 1 ss B 1
yy 

y, s

B 1 s, s

Les expressions de X et X sont la base des formules de mise jour de la mthode DFP (pour Davidon-Fletcher-Powell) et BFGS (pour Broyden-FletcherGoldfarb-Shanno).

*** Exercice III.24. tant donn u = (u1 , . . . , un ) Rn , on cherche un lment


x = (x1 , . . . , xn ) Rn vriant x1  x2  . . .  xn le plus proche possible de u
(au sens de la norme euclidienne usuelle de Rn ).
1 ) Formaliser cette question comme un problme de minimisation convexe,
ou comme un problme de projection sur un cne convexe ferm.
2 ) Dcrire les conditions caractrisant lunique lment x = (x1 , . . . , xn )
rpondant la question.
3 ) On traite ici un exemple dans R4 : tant donn u = (2, 1, 5, 4), trouver
lunique x = (x1 , x2 , x3 , x4 ) vriant x1  . . .  x4 distance minimale de u.

105

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

Solution : 1 ) Soit K := {x = (x1 , . . . , xn ) Rn | x1  x2  . . .  xn } . Il est


clair que K est un cne convexe ferm de Rn , polydral mme, qui peut tre
dcrit par n 1 ingalits gi (x)  0, avec
gi (x) := xi xi+1

pour tout i = 1, . . . , n 1.

Le problme pos peut tre formalis comme suit :


Minimiser  u x  (ou 12  u x 2 ) sous les contraintes gi (x)  0, i =
1, . . . , n 1 ;
ou bien comme ceci :
Trouver la projection x de u sur K.
2 ) Les fonctions gi dnissant les contraintes du type ingalit sont linaires, avec mme les gi (x) = ei ei+1 , i = 1, . . . , n1 ({ei } base canonique
du prode Rn ) linairement indpendants. Donc, x = (x1 , . .. , xn ) est solution

n1
blme pos si, et seulement si, x K et il existe 1 , . . . , n1 (R+ )
(unique dailleurs) tel que
xu+

n1

i (ei ei+1 ) = 0,

i=1

i (xi+1 xi ) = 0 pour tout i = 1, . . . , n 1.


Dtaillons ces conditions ; cela devient : x1  x2  . . .  xn , et il existe
1 , . . . , n1 tels que :

x1 u1 + 1 = 0

x2 u2 + 2 1 = 0

..

x ui + i i1 = 0

i
..
.

xn1 un1 + n1 n2 = 0

xn un n1 = 0 ;

1  0, . . . , n1  0 et

(x x ) = 0 pour i = 1, . . . , n 1.
i

106

i+1

(3.14)

III.4. Conditions de minimalit du second ordre

Transformons ces conditions en observant :


u1 x1 (= 1 )  0, (u1 + u2 ) (x1 + x2 ) (= 2 )  0, . . .
(u1 + . . . + un1 ) (x1 + . . . + xn1 ) (= n1 )  0,
(u1 + . . . + un ) (x1 + . . . + xn ) = 0 ;

i
i

uj
xj (xi xi+1 ) = 0 pour tout i = 1, . . . , n 1
j=1

j=1

(un xn ) (xn1 xn ) = 0.
Rciproquement, (x1 , . . . , xn ) vriant les conditions ci-dessus vrie les
i
i


uj
xj pour tout i = 1, . . . , n 1.
conditions (3.14) o on a pos i =
j=1

j=1

En dnitive nous avons la caractrisation suivante, exempte de toute rfrence des multiplicateurs i :
x = (x1 , . . . , xn ) est solution du problme pos si, et seulement si,

x1  x2  . . .  xn

x

uj pour tout i = 1, . . . , n 1

j=1
j=1

n
n



xj =
uj

j=1
j=1

i
i

uj
xj (xi xi+1 ) = 0 pour tout i = 1, . . . , n 1

j=1
j=1

(un xn ) (xn1 xn ) = 0.
3 ) Dans lexemple propos, on cherche x1  x2  x3  x4 tels que
x1  2, x1 + x2  3, x1 + x2 + x3  8, x1 + x2 + x3 + x4 = 12,
(2 x1 ) (x1 x2 ) = 0, (3 x1 x2 ) (x2 x3 ) = 0,
(8 x1 x2 x3 ) (x3 x4 ) = 0, (4 x4 ) (x3 x4 ) = 0.

107

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

Aprs quelques calculs algbriques (on commence par supposer x1 = 2 et


montrer que cela conduit une contradiction ; donc x1 < 2 et par consquent
x1 = x2 , etc.), on arrive : x1 = x2 = 32 , x3 = x4 = 92 .
videmment le point x est plus proche de u que le point u de K obtenu par
simple rarrangement par ordre croissant des coordonnes de u. Dans lexemple
trait, la distance de u x est 1 tandis que celle de u u est 2.

* Exercice III.25. Dans R2 on considre le problme de minimisation suivant :


6
Min f (x) := (1 1)2 + 22
(P )
h(x) := 1 + 22 = 0.
1er

1 ) Observer que x = (0, 0) vrie les conditions ncessaires doptimalit du


ordre de Lagrange.

2 ) laide des conditions ncessaires de minimalit du 2e ordre, dcider en


fonction de quand x est un minimum local et quand il ne lest pas.

Solution : 1 ) La fonctionh de la
 contrainte du type galit est continment
1
= (0, 0) . Si x = (0, 0) est un minimum
direntiable et h(x) =
22
local (ou un maximum local) de f sous la contrainte h(x) = 0, il existe R
tel que f (x) + h(x) = 0. Cest bien le cas ici avec = 2.
2 ) Le sous-espace tangent lensemble-contrainte en x = (0, 0) est
H := {0} R.
De plus


 2
f (x) + 2 h(x) d, d = 2(1 2)d22
pour tout d = (0, d2 ) H.
Par suite :
si > 12 , x = (0, 0) ne peut tre un minimum local de f sous la contrainte
h(x) = 0 ;
si < 12 , x = (0, 0) est un minimum local strict de f sous la contrainte
h(x) = 0 ;
si = 12 , on ne peut dcider laide des seules conditions du 1er et
2e ordre.

108

III.4. Conditions de minimalit du second ordre

* Exercice III.26. On considre le problme de la minimisation de


f (1 , 2 , 3 ) := 1 2 2 3 1 3 sous la contrainte 1 + 2 + 3 3 = 0.
1 ) Ce problme est-il convexe ?
2 ) Dterminer tous les points vriant les conditions ncessaires de minimalit du 1er ordre.
Parmi ces points quels sont ceux qui vrient les conditions ncessaires de
minimalit du 2e ordre ? ceux qui vrient les conditions susantes de minimalit du 2e ordre ?
Solution : 1 ) La fonction-objectif f est quadratique, avec

0 0 1
x = (1 , 2 , 3 )  2 f (x) = 0 0 1 .
1 1 0
Mais 2 f (x) ntant pas semi-dnie positive, f nest pas convexe. Le
problme pos nest donc pas un problme de minimisation convexe.


2 ) Un point x = 1 , 2 , 3 vrie les conditions ncessaires de minimalit
du 1er ordre lorsque :
.
1 + 2 + 3 = 3 ;
R tel que 1 3 + = 0 et 2 1 + = 0.


Ce systme dquations conduit = 2 et aux points x = 1 , 2 1 , 1 ,
1 R.
Le sous-espace H tangent lensemble-contrainte (not S) en x est lhyperplan dquation d1 + d2 + d3 = 0. Ensuite :

(d1 , d2 , d3 ) H, 2xx L(x, )d, d = 2(d1 + d2 )2 = 2d23 .




Donc, tous les points x = 1 , 2 1 , 1 vrient les conditions ncessaires
de minimalit du 2e ordre.
 d H \ {0} et
2Soit d = (d
1 , d1 , 0) avec d1 = 0 ; il est clair que
xx L(x, )d, d = 0. Donc aucun des points 1 , 2 1 , 1 ne vrie les conditions susantes de minimalit (stricte) du 2e ordre.


Par ailleurs, f 1 , 2 1 , 1 = 4 constamment et
f (1 , 2 , 3 ) (4) = (1 + 2 2)2  0 pour
tout (1 , 2 , 3 ) dans l ensemble-contrainte S.
109

Chapitre III. Minimisation avec contraintes. Conditions de minimalit



Donc, en fait, tous les points 1 , 2 1 , 1 sont des minima globaux de f
sur S.
Le fait quon nait
 pu vrierla condition susante de minimalit (stricte)
en un point x = 1 , 2 1 , 1 sexplique aisment par le fait que f est
constante sur toute la droite {(1 , 2 1 , 1) | 1 R} .

** Exercice III.27. Soit dans R2 le problme de minimisation suivant :


6
Min fa (1 , 2 ) := 12 + a22 + 1 2 + 1 ,
(a R)
(Pa )
1 + 2 1  0.
1 ) Quand (Pa ) est-il un problme de minimisation convexe ?
2 ) Rsoudre (Pa ) suivant les valeurs de a.

Solution : 1 ) La fonction g : (1 , 2 )  g(1 , 2 ) := 1 + 2 1 dnissant


la seule contrainte du type ingalit dans (Pa ) est convexe, ane mme.
Pour tudier la convexit de fa , considrons 2 fa (1 , 2 ) :


2 1
2
pour tout (1 , 2 ) R2 .
fa (1 , 2 ) =
1 2a
2 fa (1 , 2 ) est semi-dnie positive si et seulement si a  14 .
Donc, le problme (Pa ) nest un problme de minimisation convexe que
lorsque a  14 .
2 ) Observations prliminaires :
4
5
Si a < 0, sachant que (0, 2 ) C := (1 , 2 ) R2 | 1 + 2 1  0
avec 2 < 0 arbitraire, fa nest pas borne infrieurement
sur C.

Si a = 0, sachant quil y a dans C des lments 12 , 2 avec 2 , fa
nest pas borne infrieurement sur C.
On ntudiera donc (Pa ) que pour a > 0.
1
1er cas : a 

 4
Ici x = 1 , 2 C est solution de (Pa ) si et seulement si :
6
f (x) + g(x) = 0,
 0 tel que
g(x) = 0,

110

III.4. Conditions de minimalit du second ordre

soit encore :
(1)
ou bien
(2)

1 + 2 1 < 0,
  

+

+
1
0
2
1
2

=
+ 2a
0
1
2

1 + 2 1 = 0,
  

0
+

+
1
+

2
1
2

=
,  0.
+ 2a +
0
1
2

 (1) ne se produit que lorsque a >


 Lventualit
2a
1
4a1 , 4a1 .


Lventualit
(2) ne se produit que pour

1
1
1 a , a et = 13a
a .

1
4

 a 

1
3,
1
3,

auquel cas x =
auquel cas x =

2e cas : 0 < a < 14 . Il y a deux points de C vriant les conditions ncessaires de minimalit du 1er ordre, savoir :


1 1
sur la frontire de C ;
x1 = 1 ,
a a


1
2a
,
lintrieur de C.
x2 =
1 4a
1 4a
Quid des conditions ncessaires de minimalit du 2e ordre ?
En x1 , le sous-espace considrer est H = {(d1 , d2 ) R2 | :
g(x1 ), d =
0}, soit H = {(d1 , d2 ) R2 | d2 = d1 }. Alors :

d = (d1 , d1 ) H 2xx L(x1 , )d, d = 2 fa (x1 )d, d = 2ad21 .


Do 2 fa (x1 )d, d > 0 pour tout d = 0 dans H : le point x1 est donc
un minimum local strict de fa sur C.
En x2 , le sous-espace considrer est H = R2 , et on a dj vu que
2
fa (x2 ) ntait pas semi-dnie positive. Donc x2 ne saurait tre un minimum local de fa sur C.
Reste savoir si x1 est un minimum global de fa sur C.
En fait, fa est une fonction quadratique dont la valeur en x = (1 , 2 ) peut
tre dcompose comme suit :




2 2
1 2
+ 1 .
+ a
fa (1 , 2 ) = 1 +
2
4 2
111

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

Quand 1 + (1 , 21 ) reste dans C et fa (1 , 21 ) = 4(a 14 )12 + 1


tend vers . Donc fa nest pas borne infrieurement sur C.
Rsum :
a
a<

1
4

1
1
a
4
3
1
<a
3

solution

valeur optimale

1 1
1 ,
a a

1
2a
,
1 4a 4a 1

2a 1
a


a
1 4a

** Exercice III.28. On se propose dans cet exercice dobtenir les conditions ncessaires de minimalit de Karush-Kuhn-Tucker pour un problme de minimisation avec contraintes du type galit et ingalit partir des conditions ncessaires de minimalit du 1er et 2e ordre pour un problme de minimisation avec
contraintes du type galit seulement.
Soit donc
.
S := {x Rn | hi (x) = 0 pour i = 1, . . . , m
Min f (x)
(P)
, o
xS
et gj (x)  0 pour j = 1, . . . , p}.
On supposera f, h1 , . . . , hm , g1 , . . . , gp deux fois direntiables. Au point
x S minimum local de f sur S, il est suppos

(QC)x : h1 (x) , . . . , hm (x) , gj (x) , j J (x), sont linairement indpendants.
suivant, plongement du proOn considre le problme de minimisation (P)
n
p
blme (P) dans R R :

Min f (x)
 

hi (x) = 0 pour i = 1, . . . , m
P

gj (x) + yj2 = 0 pour j = 1, . . . , p.


1 ) Vrier que si x est un minimum local dans (P) et si y = (y 1 , . . . , y p )
p
R est tel que gj (x) + y2j = 0 pour j = 1, . . . , p, alors (x, y) est un minimum

local dans (P).


2 ) crire les conditions ncessaires de minimalit du 1er et 2e ordre en (x, y)
et en dduire les conditions ncessaires de minimalit
minimum local dans (P),
er
du 1 ordre en x minimum local dans (P).

112

III.4. Conditions de minimalit du second ordre

Commentaire : Cette manire de transformer des contraintes du type galit et


ingalit en contraintes du type galit exclusivement est appele parfois transformation de Valentine (non non, ce nest pas le prnom de ltudiante voisine,
mais le nom dun mathmaticien du XXe sicle qui a travaill sur les problmes
variationnels).
Solution :
suit :

1, . . . , h
m+p : Rn Rp R comme
On dnit les fonctions f, h

(x, y) Rn Rp ,

f(x, y) := f (x),
i (x, y) := hi (x) pour i = 1, . . . , m,
h
m+j (x, y) := gj (x) + y 2 pour j = 1, . . . , p.
h
j

m+j (x, y) =
1 ) Pour x S considrons (y 1 , . . . , y p ) Rp tel que h
2
gj (x) + y j = 0 pour j = 1, . . . , p. Notons que y j = 0 exactement pour les
j J (x) . Limplication suivante est alors claire :

(x, y) est un minimum local de f sur


x est un minimum


k (x, y) = 0 .
:= (x, y) Rn Rp | h
S
local de f sur S

pour k = 1, . . . , m + p}
2 ) Observons la structure particulire de la matrice jacobienne de H :=
m+p ) en (x, y)

(h1 , . . . , h
%
h1 (x)
..
.
..
.
[JH(x, y)]T =
..
.
0
..
.

&#
...

$
hm (x)
..
.
..
.
..
.
0
..
.

&#

g1 (x)
..
.
..
.
2y 1
0

...

..

gp (x)

..
n
.

..
.

2y p

pour constater que lindpendance linaire suppose des h1 (x), . . . ,


1 (x, y), . . . , h
m+p (x, y).
hm (x) , gj (x) , j J (x), entrane celle des h
113

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

En eet :

gj (x)
..
.


m+p
p
m

(x)
h
i
k (x, y) =
2y j
k h
i
m+j
+
0=

0
..
i=1
j=1
k=1
.
0

implique
/ J (x)
m+j yj = 0 pour j = 1, . . . , p, do m+j = 0 si j
puis
0=

i hi (x) +

i=1

m+j gj (x) ;

jJ(x)

et ceci nest possible que si tous les coecients k sont nuls.
Par consquent, il existe 1 , . . . , m , 1 , . . . , p Rm+p unique tel que
0 = f(x, y) +

i (x, y) +
i h

i=1

m+j (x, y).


j h

j=1

Cest la condition de minimalit du 1er ordre de Lagrange crite en (x, y)

minimum local dans (P).


Cette relation se dcompose en deux :
0 = f (x) +

m

i=1

i hi (x) +

j gj (x)

j=1

et
0 = j y j pour tout j = 1, . . . , p.
/ J (x) .
Cette dernire relation signie encore : j = 0 ds lors que j
Il ne reste plus qu dmontrer que les j sont positifs. Cela rsultera des
conditions ncessaires de minimalit du 2e ordre crites en (x, y) minimum

local de f sur S.
m+p (x, y) sont linairement indpen 1 (x, y), . . . , h
tant donn que les h
dants, et sachant que y j = 0 lorsque j J(x), nous avons :

pour i = 1, . . . , m

hi (x) , d = 0


(x, y)
gj (x) , d = 0
pour j J(x)
(d, ) T S,

/ J(x).

gj (x) , d + 2y j j = 0 pour j
114

III.4. Conditions de minimalit du second ordre

Concernant le lagrangien
L : (Rn Rp ) (Rm Rp ) R
(x, y, , )  L (x, y ; , ) = f(x, y) +

i hi (x, y) +

i=1

m+j (x, y)
j h

j=1

nous avons :
associ au problme de minimisation (P),
m

 n { 2xx f (x) 0

2xx hi (x)
+
i
2(x,y;x,y)L x, y; , =
0
0
0
p{
# $% & #$%& i=1
n

0
0

2xx gj (x)

0
0

..
j

2
..
.
..
.

j=1

...
..
.

...

j
de sorte que
@
?


2(x,y;x,y) L x, y; , (d, ) , (d, ) =

B
A
m



2xx f (x) +
i 2xx hi (x) +
j 2xx gj (x) d, d + 2
j j2 .
i=1

jJ(x)

jJ(x)

La positivit de cette forme quadratique sur T S, (x, y) implique alors la


positivit des j .


** Exercice III.29. On considre le problme :


(P) Minimiser f (x) sous les contraintes g1 (x)  0, . . . , gm (x)  0, avec les
hypothses suivantes sur les donnes :
f : Rn R est continue et 0-coercive (i.e.

lim

x+

f (x) = +) ;

g1, . . . , gm : Rn R sont continues ; lensemble-contrainte de (P) nest pas vide.


115

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

Pour tout k N , soit Pk : Rn R dnie par


x Rn  Pk (x) := f (x) + k

m



2
gi+ (x) ,

i=1

o gi+ (x) dsigne max(gi (x), 0). (Pk est une version pnalise de f .)
1 ) Montrer quil existe xk minimisant globalement Pk sur Rn .
2 ) Vrier que la suite {Pk (xk )} est croissante et majore par la valeur
optimale f de (P).
3 ) Montrer que
lim

k+

m



2
gi+ (xk ) = 0.

i=1

4 )

tablir que la suite {xk } est borne et que toute limite de sous-suite
convergente de {xk } est solution de (P).
5 ) Montrer que
lim k

k+

6 )

m



2
gi+ (xk ) = 0.

i=1

On suppose que les fonctions f, g1 , . . . , gm sont convexes et diren-

tiables.
a) Pk est-elle convexe direntiable ?
b) Comment caractriser les xk minimisant Pk sur Rn ?

Solution : f est continue et 0-coercive sur Rn , lensemble-contrainte de (P)


est un ferm non vide de Rn ; donc (P) a des solutions.
Rn

1 ) Pk est continue, et comme Pk  f , elle est galement 0-coercive sur


: il existe donc xk minimisant (globalement) Pk sur Rn .
2 ) Par dnition mme des xk ,
m

2
 +
gi (xk+1 )
Pk (xk ) = minn Pk (x)  Pk (xk+1 ) = f (xk+1 ) + k
xR

i=1

 f (xk+1 ) + (k + 1)
#

116

m



$% i=1

=Pk+1 (xk+1 )

2
gi+ (xk+1 ) .
&

III.4. Conditions de minimalit du second ordre

Soit x vriant les contraintes de (P) : on a gi+ (x) = 0 pour tout


i = 1, . . . , m. Do
Pk (xk )  f (x) + k

m



2
gi+ (x) pour tout x Rn ,

i=1

 f (x) pour tout x vriant les contraintes de (P).


Par suite, Pk (xk )  inf {f (x) | gi (x)  0 pour i = 1, . . . , m} =: f .
3 ) Soit r un minorant de f sur Rn (rappelons que f est borne infrieurement sur Rn car continue et 0-coercive ; elle atteint mme sa borne infrieure).
Alors
r+k

m



m

2
2
 +
gi+ (xk )  f (xk ) + k
gi (xk ) = Pk (xk )  f ,

i=1

i=1

do
0

m


i=1

2 f r
,
gi+ (xk ) 
k

et donc
gi+ (xk ) 0 quand k +, pour tout i = 1, . . . , m.
4 ) Si lim  xkl  = + pour une sous-suite {xkl }l de {xk }, on aurait
l+

lim f (xkl ) = + puisque f est 0-coercive. Mais

l+

f (xkl )  Pkl (xkl )  f ,


do une contradiction. La suite {xk } est donc borne.
Considrons une sous-suite {xkl } convergente, de limite x. On a :
dune part
gi+ (x) = lim gi+ (xkl ) = 0, pour tout i = 1, . . . , m
l+

(x vrie les contraintes de (P)) ;


dautre part
f (xkl )  Pkl (xkl )  f ,
do f (x)  f .
Le point-limite x est bien une solution de (P).
117

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

5 ) Raisonnons par labsurde et supposons que la limite suprieure de


2
 +
gi (xk ) quand k + est > 0. Il sensuit alors une sous-suite {xkl }l

m


i=1

de {xk } et > 0 tels que


Pkl (xkl ) f (xkl ) = kl

m



2
gi+ (xkl )  pour tout l.

i=1

Quitte prendre une sous-suite de la suite (borne) {xkl }, on peut supposer que {xkl }l est convergente. Sa limite x est solution de (P), daprs ce qui
a t dmontr dans la 4e question. On a donc :
f f (xkl )  Pkl (xkl ) f (xkl )  > 0 pour tout l
et
f (xkl ) f (x) = f quand l +,
do une contradiction.
6 ) a) La fonction gi tant convexe, il en est de mme de gi+ = max(0, gi )
et donc de (gi+ )2 (daccord ?). La fonction gi tant direntiable, il en est de
mme de (gi+ )2 .
Donc Pk est une fonction convexe direntiable.
b) xk minimise Pk sur Rn si, et seulement si, Pk (xk ) = 0. Cela sexprime
par
m

gi+ (xk )gi (xk ) = 0.
f (xk ) + 2k
i=1

*** Exercice III.30. On considre le problme doptimisation suivant :

Minimiser f (x) sous les contraintes


(P) hi (x) = 0, i = 1, . . . , m

gi (x)  0, i = m + 1, . . . , p,
o f, hi , gi : Rn R sont des fonctions deux fois direntiables sur Rn .
Pour tout c = (c1 , . . . , cp ) (R+ )p , on dnit la fonction pc par :
x Rn  pc (x) := f (x) +

ci |hi (x)| +

i=1

ci gi+ (x).

i=m+1


1 ) Calculer la drive directionnelle pc (x, d) de pc en un point x de


lensemble-contrainte de (P) dans une direction quelconque d de Rn .
118

III.4. Conditions de minimalit du second ordre

2 ) Soit x un point vriant les conditions ncessaires de minimalit


du 1er ordre du type Karush-Kuhn-Tucker pour le problme (P)
8 8 (avec
1 , . . . , m , m+1 , . . . , p comme multiplicateurs). Montrer que si ci  8i 8 pour
tout i = 1, . . . , p, alors

pc (x, d)  0 pour tout d.
3 ) Pour tout x vriant les contraintes du problme (P) on pose :
L(x) : = {d Rn |
hi (x), d = 0 pour tout i = 1, . . . , m,

gi (x), d = 0 pour tout i I(x) tel que i > 0,


5

gi (x), d  0 pour tout i I(x) tel que i = 0 ,


o I(x) := {i | m + 1  i  p, gi (x) = 0} .
On considre un minimum local x pour (P) et on fait les hypothses suivantes :
(H1 ) Les gradients {hi (x) , i = 1, . . . , m} et {gi (x) , i I(x)} sont
linairement indpendants (ce qui assure lexistence et lunicit des multiplicateurs i associs x) ;

(H2 ) d L(x), i  m pour lequel 2 hi (x)d, d = 0


ou bien

i I(x) pour lequel i > 0 et 2 gi (x)d, d = 0.


8 8
Montrer que si ci > 8i 8 pour tout i, alors, pour tout d Rn , il existe d > 0
tel que : pc (x + td)  pc (x) pour tout t ]d , d [ (x est un minimum local de
pc dans toute direction d).
Indication. On distinguera le cas d
/ L (x) et le cas d L (x) .
Solution : 1 ) Si 1 et 2 sont deux fonctions de classe C 1 et si 1 (x) = 2 (x),
la fonction 3 := max {1 , 2 } admet une drive directionnelle en x avec :


d Rn , 3 (x, d) = max {
1 (x), d ,
2 (x), d } .
Par application de ce rsultat nous avons :


d Rn , pc (x, d) =
f (x), d +

m

i=1

ci |
hi (x), d | +

ci [
gi (x), d ]+ .

iI(x)

119

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

2 ) Soit x un point vriant les conditions ncessaires de minimalit du 1er


ordre du type KKT, i.e. : Il existe 1 , . . . , m , m+1 , . . . , p tels que
f (x) +

i hi (x) +

i=1

i gi (x) = 0,

i=m+1

i  0 et i gi (x) = 0 pour tout i = m + 1, . . . , p.


8 8
Supposons ci  8i 8 pour tout i. Alors :
8 8
pour 1  i  m, i
hi (x), d  8i 8 |
hi (x), d |  ci |
hi (x), d | ;
pour i I(x), i  0 de sorte que
i
gi (x), d  i [
gi (x), d ]+  ci [
gi (x), d ]+ .
Ainsi
A


pc (x, d) 

f (x) +

i hi (x) +

i=1

B
i gi (x) , d

= 0.

iI(x)

3 ) Lhypothse (H1 ) assure lexistence (et lunicit) des multiplicateurs i


associs x.
Considrons d
/ L(x). Lune des ingalits dans la preuve au-dessus de


la positivit de pc (x, d) est stricte (daccord ?) ; donc pc (x, d) > 0.
Considrons d L(x). Notons que nous avons le dveloppement suivant :
pc (x, d) = 0 ;
6
m
8

8
t2 2
f (x)d, d +
ci 8 2 hi (x)d, d 8
pc (x + td) pc (x) =
2
i=1


+
2
ci gi (x)d, d
+ o(t2 ).
+

iI(x)

Alors :

8

pour 1  i  m, i 2 hi (x)d, d  ci 8 2 hi (x)d, d 8 ;

+


.
pour i I(x), i 2 gi (x)d, d  ci 2 gi (x)d, d
120

III.4. Conditions de minimalit du second ordre

Lhypothse (H2 ) implique que lune des ingalits ci-dessus est stricte. Par
consquent :
m
8

8
pc (x + td) pc (x) 2
f
(x)d,
d
+
ci 8 2 hi (x)d, d 8
=

2
t0
t /2
i=1


+
2
+
ci gi (x)d, d

lim

iI(x)
m


> 2 f (x)d, d +
i 2 hi (x)d, d

i=1

i gi (x)d, d

iI(x)

0

de par les conditions ncessaires


de minimalit du 2e ordre


.

pc (x + td) pc (x)
est > 0. Dans les deux cas de gure (d
/ L(x)
t2 /2
et d L(x)), x est un minimum local de pc dans la direction d.
Donc lim

t0

** Exercice III.31. Soit f et h dnies sur R2 comme suit :


x = (1 , 2 ) R2 , f (x) := 23 222 2
h(x) := 12 + 22 + 2 .
On considre le problme doptimisation (P) qui consiste minimiser f (x)
sous la contrainte h(x) = 0.
1er

1 ) Dterminer les points vriant les conditions ncessaires doptimalit du


ordre.
Parmi ces points quels sont ceux qui sont minima globaux dans (P) ?
(Il y en a deux, que nous noterons x1 et x2 .)

2 ) Les conditions susantes du 2e ordre pour tre un minimum local strict


dans (P) sont-elles satisfaites en x1 et x2 ?
3 ) On pose
f () := inf f (x), o est un paramtre rel.
h(x)=

Montrer, sans calculer son expression explicite, que f ne saurait tre drivable en 0.
121

Chapitre III. Minimisation avec contraintes. Conditions de minimalit


2
1 ) Les
 f et h sont continment direntiables sur R ,
 fonctions
21
= 0 pour tout x de lensemble-contrainte. Donc
de plus h(x) =
22 + 1


les points x = 1 , 2 vriant les conditions ncessaires doptimalit du 1er
ordre (conditions de Lagrange) sont ceux pour lesquels

2
2

1 + 2 + 2 = 0 ;

+
)


0
2 1

R tel que 3 2 4 1 + 2 + 1 = 0.
2
2
2

Solution :

Des calculs simples conduisent aux quatre possibilits suivantes :


x1 = (0, 0) et 1 = 1 ; x2 = (0, 1) et 2 = 0 ;
+
+
)
)
2 1
2 1
,
,
et 3 = 0 ; x4 =
et 4 = 0.
x3 =
3
3
3
3
Les points x1 et x2 sont les minima globaux dans (P) ; la valeur minimale
dans (P) est f = 0.
2 ) Le sous-espace tangent lensemble-contrainte en x1 comme en x2 est
H = R {0} . Ensuite




2 0
2
2
2
xx L x1 , 1 := f (x1 ) + 1 h(x1 ) =
0 2
vrie




2xx L x1 , 1 d, d > 0 pour tout d = 0 dans H.

Les conditions susantes du second ordre de minimalit locale sont bien


satisfaites en x1 .
 


00
2
=
de sorte que
En ce qui concerne x2 , xx L x2 , 2
02


2 
xx L x2 , 2 d, d = 0 pour tout d H. Les conditions susantes du second ordre de minimalit locale ne sont pas satisfaites en x2 .
3 ) Les conditions susantes du second ordre de minimalit locale tant
satisfaites en x1 , on a le rsultat suivant : il existe un intervalle ouvert A
contenant 0 et une application A  x1, drivable en 0 tels que :
(i) x1,0 = x1 et, pour tout A, x1, est un minimum local strict de f
sous la contrainte h(x) = ;


(ii)  () := f (x1, ) est drivable en 0 et (0) = 1 .


122

III.4. Conditions de minimalit du second ordre

Mais ce qui est demand ici concerne la valeur minimale globale f () et


non () . Puisque x1 et x2 sont des minima globaux dans (P),
f (x1 ) = f (x2 ) = f (0) = f (h(x1 )) = f (h(x2 )).
Soit v quelconque dans Rn et considrons le problme (perturb) de la minimisation de f sous la contrainte h(x) = h(v). Il est vident que v vrie cette
contrainte et donc f (h(v))  f (v). On est donc dans la situation suivante :
f (v) f (h(v))  0 pour tout v Rn ;
f (x1 ) f (h(x1 )) = 0, f (x2 ) f (h(x2 )) = 0.
Ainsi x1 et x2 minimisent (sans contraintes) la fonction x  g(x) :=
f (x) f (h(x)).
Supposons f drivable en 0. Il vient de ce qui prcde :


0 = g(x1 ) = f (x1 ) f (0)h(x1 )




= f (x2 ) f (0)h(x2 ).
Mais conditions ncessaires doptimalit du 1er ordre on a :
f (x1 ) + 1 h(x1 ) = 0 et f (x2 ) + 2 h(x2 ) = 0.


Par suite, f (0) = 1 et f (0) = 2 . Ceci est impossible puisque


1 = 2 . Donc f ne saurait tre drivable en 0.
Commentaire : Sous des hypothses raisonnables on arrive faire en sorte que

la fonction valeur minimale f ait une drive directionnelle  f (0, ) ; suivant


la direction dans laquelle on regarde, f (0, ) choisit dans son expression


les multiplicateurs i associs aux dirents minima x dans (P). Dans le cas de
lexemple, suivant que lon se dplace vers la droite ( = 1) ou vers la gauche

( = 1) , lexpression de f (0, ) (cest--dire de la drive droite ou de la
drive gauche ici) fait appel au multiplicateur 1 associ x1 ou celui 2
associ x2 .

** Exercice III.32. tant donnes des fonctions f1 , f2 , . . . , fp de Rn dans R, on


dnit
x Rn  g(x) := max {f1 (x), f2 (x), . . . , fp (x)} .
1 ) Vrier que si les fi sont toutes continues, alors g est continue.
123

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

On pose, pour x Rn ,
I(x) := {1  i  p | fi (x) = g(x)} .
2 ) On suppose que les fi sont toutes direntiables en x. quelle condition
(ncessaire et susante) portant sur les fi (x), i I(x), la fonction g est-elle
direntiable en x ?
3 ) On dnit 0 , 1 , . . . , p : Rn R  R de la manire suivante :
(x, r) Rn R, 0 (x, r) := r,
i (x, r) := fi (x) r pour i = 1, . . . , p.
Vrier que si x est un minimum local de g, alors (x, g(x)) est un minimum
local de 0 sur lensemble-contrainte
S := {(x, r) Rn R | i (x, r)  0 pour tout i = 1, . . . , p} .
Quelle condition ncessaire de minimalit (en x) peut-on dduire de cette
observation ?
Solution : 1 ) En posant gj := max {f1 , f2 , . . . , fj } pour j = 1, . . . , p, on a :
1
(gj + fj+1 + |gj fj+1 |) .
2
Grce la continuit de g1 = f1 , de f2 , . . . , fp , et celle de |h| lorsque h est
continue, la formule ci-dessus conduit par rcurrence la continuit de gp = g.
gj+1 = max {gj , fj+1 } =

/ I(x), on a fi (x) < g(x). De par la continuit de g et des


2 ) Lorsque i
fi , il existe un voisinage V de x tel que :
/ I(x) et tout x V.
fi (x) < g(x) pour tout i
Une autre manire de dire la mme chose est :
I(x) I(x) pour tout x V.
En consquence,
g(x) = max {fi (x) | i I(x)} pour tout x V.

(3.15)

Quest-ce qui fait prsent que g est direntiable en x ? Lexamen attentif de


quelques exemples (mme de fonctions dune seule variable) suggre le rsultat
suivant :
(g est direntiable en x) (fi (x) est constant pour tout i I (x)) .
Auquel cas, g(x) = fi (x) (i tant pris quelconque dans I(x)).
124

III.4. Conditions de minimalit du second ordre

[]. Posons v = fi (x), i I (x) . Soit i I (x) et crivons que fi est


direntiable en x : > 0, i > 0 tel que
(x x  i ) (|fi (x) fi (x)
v, x x |  x x) .

(3.16)

Pour x assez voisin de x, g(x) = fi (x) o i est un certain indice de I(x) (cela
rsulte de (3.15)). En consquence, il vient de (3.16) : > 0 tel que
(x x  ) (|g(x) g(x)
v, x x |  x x) .
On a ainsi dmontr que g est direntiable en x et g(x) = v.
[]. Supposons g direntiable en x. Soit i quelconque dans I(x). Puisque
g  fi (par dnition mme de g), que (g fi )(x) = 0 (car i I(x)), et que
g fi est direntiable en x, on a (g fi )(x) = 0. Do g(x) = fi (x).
3 ) Soit V un voisinage de x sur lequel g(x)  g(x). Un simple jeu
dingalits permet de voir que lon a
r  g(x) pour tout (x, r) (V R) S.
Donc (x, g(x)) est un minimum local de 0 sur S. (Il est dailleurs intressant
de visualiser sur une gure ce passage de Rn Rn R).
Concernant 0 et i nous avons :
 


Rn
0
fi (x)
, i (x, g(x)) =
dans ;
0 (x, g(x)) =
1
1
R
par ailleurs, dans le problme de minimisation de 0 sur S, les indices des
contraintes-ingalits actives en (x, g(x)) sont exactement ceux pour lesquels
fi (x) = g(x), cest--dire ceux de I(x). Comme lhypothse de qualication
des contraintes (QC)(x,g(x)) , qui requiert lexistence de (d, ) Rn R tel que
  ,
d
fi (x)
,
< 0 pour tout i I(x),
1

est trivialement vrie (comme dailleurs lhypothse de qualication des



contraintes (QC)(x,g(x)) ), les conditions ncessaires de minimalit de KKT induisent quil existe des rels positifs 1 , . . . , p tels que :
 


p

fi (x)

0 +
i
= 0,
1
1
i=1

= 0 si i
/ I(x).
i
125

Chapitre III. Minimisation avec contraintes. Conditions de minimalit

Une condition ncessaire de minimalit locale (du 1er ordre) vrie en x est
donc :
Une combinaison convexe des fi (x), i I(x), est gale (au vecteur) 0.
Autre manire de dire la mme chose : (le vecteur) 0 est dans le plus
petit polydre convexe construit partir des fi (x), i I(x).

Commentaire : Si on a aaire une famille innie de fonctions continues fi ,


on ne peut seulement assurer que la semi-continuit infrieure de g := sup fi .
i

Prendre comme exemple


x R  fi (x) := |x|1/i , i N ;
il y a alors un dcrochement vers le bas de g := supi fi au point 0.
Lorsque les fi sont direntiables, lobjet mathmatique adquat qui joue le
rle de gradient de g := max {f1 , . . . , fp } en x est

i fi (x) |
i = 1 et i  0 pour tout i I(x) .
g(x) :=

iI(x)

iI(x)

Rsultats dmontrs dans lexercice :

est un singleton ;
g est direntiable en x si et seulement si g(x)

Si x est un minimum local de g, alors 0 g(x).


Prolongement de lexercice : rchir ce que pourrait tre (ou ce que
devrait tre) lobjet mathmatique jouant le rle de matrice hessienne de g :=
max {f1 , . . . , fp } en x lorsque les fonctions fi sont deux fois direntiables en x,
et par suite une condition ncessaire de minimalit (du 2e ordre) vrie en un
minimum local de g.

126

IV
MINI-MAXIMISATION. DUALISATION DE
PROBLMES DE MINIMISATION CONVEXE

Rappels
IV.1. Points-selles (ou cols) ; problmes
de mini-maximisation
Soit l : X Y R. Un couple (x, y) X Y est appel point-selle (ou col)
de l sur X Y lorsque
l (x, y)  l (x, y)  l (x, y) pour tout (x, y) X Y.
Lensemble des points-selles de l sur X Y a ncessairement une structure
trs particulire : cest un produit cartsien densembles (qui peut tre vide, cela
va sans dire). La valeur l(x, y) est constante pour tous les points-selles (x, y) de l
sur X Y : elle est appele valeur-selle.
Un exemple de rsultat dexistence de points-selles est fourni par le thorme
qui suit.

Theor`eme. Soient X Rn et Y Rm deux convexes ferms non vides et l :


X Y R. On suppose :
Pour tout y Y, la fonction l(, y) : X R est convexe ; pour tout x X,
la fonction l(x, ) : Y R est concave (on dit alors que l est convexe-concave sur
X Y );
X est born, ou bien il existe y0 Y tel que l(x, y0 ) + quand  x 
+, x X ;

Chapitre IV. Mini-maximisation. Dualisation de problmes...

Y est born, ou bien il existe x0 X tel que l(x0 , y) quand  y 


+, y Y ;
alors lensemble des points-selles de l sur X Y est un convexe compact non
vide de X Y.
Posons prsent
: x X  (x) := sup l(x, y) ( valeurs + ventuellement),
yY

: y Y  (y) := inf l(x, y) ( valeurs ventuellement).


xX

Les dnitions mmes dinf et de sup font que lon a toujours les ingalits :
(y)  l(x, y)  (x) pour tout (x, y) X Y . Et (x, y) est un point-selle de
l sur X Y si et seulement si (y)  (x) ; dans ce cas (y) = (x) est la
valeur-selle de l sur X Y.
Il est naturel dassocier l les deux problmes doptimisation suivants :



Minimiser sup l(x, y) (problme de minimisation de sup )
(1)
yY
pour x X;

(2)



Maximiser inf l(x, y) (problme de maximisation dinf )

xX

pour y Y.

Alors, une condition ncessaire et susante pour que l ait des points-selles sur
X Y est
min (x) = max (y)
xX

yY

(i.e. optima gaux et atteints).

Dans ce cas, (x, y) est un point-selle exactement lorsque x minimise sur X et y


maximise sur Y.

IV.2. Points-selles de lagrangiens


Considrons le problme (basique) de la minimisation dune fonction-objectif
sous des contraintes exprimes par des galits et des ingalits :

Minimiser f (x)
(P)
hi (x) = 0 pour i = 1, . . . , m et

gj (x)  0 pour j = 1, . . . , p (x C en bref).


128

IV.3. Premiers pas dans la thorie de la dualit

Nous sommes plus particulirement


intresss, ici, par les points-selles du la
p
grangien (usuel) sur Rn Rm (R+ ) ; les donnes sont donc les suivantes :
 p
X = Rn , Y = Rm R+ ,
L : (x, (, )) X Y  L (x, , ) = f (x) +

i hi (x) +

i=1

j gj (x).

j=1


p
Theor`eme. Les points-selles de L sur Rn Rm (R+ ) sont exactement les

 
x, , tels que :
 

(i) x minimise L , , sur Rn ;
(ii) x C ;
(iii) j gj (x) = 0 pour tout j = 1, . . . , p.

 
x, , est un point-selle de L sur Rn
En particulier,
si

p
Rm (R+ ) ,alors x est une solution du problme (P).
Supposons maintenant que (P) soit un problme de minimisation convexe : f
et les gj sont convexes, les hi sont anes.

Theor`eme. Sous les hypothses de convexit dcrites ci-dessus, les deux noncs
suivantssont
:
 quivalents


p
(i) x, , est un point-selle de L sur Rn Rm (R+ ) ;


(ii) x est solution de (P) et , est un multiplicateur de Lagrange.
Dans tous les exercices considrs dans ce chapitre, le problme de minimisation convexe (P) aura des solutions (lensemble S des solutions de (P) ne sera
pas vide), et des hypothses de qualication des contraintes seront faites pour
quil y ait des multiplicateurs de Lagrange (lensemble M des multiplicateurs de
Lagrange
vide). Donc lensemble des points-selles du lagrangien L sur
 ne sera pas
p
Rn Rm (R+ ) sera le produit cartsien des deux convexes ferms S et M.

IV.3. Premiers pas dans la thorie de la dualit


Revenons au problme de minimisation (P) et au lagrangien L qui lui est
associ, et voyons ce que sont alors les problmes de mini-maximisation introduits
au premier paragraphe. Le premier problme de mini-maximisation est celui de
la minimisation sur Rn de
x  (x) :=

sup

(,)Rm (R+ )p

L (x, , ) .
129

Chapitre IV. Mini-maximisation. Dualisation de problmes...

Le calcul explicite de (x) est ais : (x) = f (x) si x C, + sinon.


Donc, notre premier problme de mini-maximisation est celui de la minimisation sur C de f (x), cest--dire ni plus ni moins que le problme (P) originel.
Regardons maintenant ce quest le second problme de mini-maximisation. Il faut
considrer
 p
(, ) Rm R+  (, ) := infn L (x, , ) .
xR

La fonction est concave et semi-continue suprieurement (nie sur une partie


p
convexe de Rm (R+ ) ). On appelle problme dual de (P), et on le notera (D),
p
le problme de la maximisation de sur Rm (R+ ) . Cette fonction duale est
galement note parfois. Si f et dsignent les valeurs optimales dans (P ) et
(D) respectivement, on a toujours f  (la dirence f sappelle le saut de
dualit (1) ).
Si (P) est un problme de minimisation convexe, avec un ensemble S (= )
de solutions et un ensemble M (= ) de multiplicateurs de Lagrange, on a :
f = et les solutions du problme dual (D) sont exactement les multiplicateurs
de Lagrange du problme

 (P).
Si on a accs un , M , comment en dduit-on les solutions de (P) ?
Rponse : Ce sont les x qui


minimisent L , , sur Rn ;
sont dans C et vrient j gj (x) = 0 pour tout j = 1, . . . , p.


Si L , , est minimise en un seul point, comme cest le cas lorsque f est
strictement convexe par exemple, ce point est automatiquement solution de (P).
Rfrences. Section 4 du chapitre VII de [12].

* Exercice IV.1. Soit l : (x, y) Rn Rm  l(x, y) une fonction direntiable


sur Rn Rm , X Rn et Y Rm deux convexes ferms non vides.
1 ) Montrer lquivalence des deux assertions suivantes :
(i) l est convexe-concave sur X Y ;

x l(x1 , y1 ) x l(x2 , y2 ), x1 x2 

y l(x1 , y1 ) y l(x2 , y2 ), y1 y2
(ii)

pour tout (x1 , y1 ) et (x2 , y2 ) dans X Y.


(1)

Dautres appellations sont parfois utilises ; ainsi entendre parler de foss de dualit avec
laccent qubcois est charmant...

130

IV.3. Premiers pas dans la thorie de la dualit

Exemple. Soit P Sn (R), Q Sm (R), et R Mm,n (R).


Donner une condition susante portant sur P et Q, assurant que la fonction
l : (x, y)  l(x, y) := 12
P x, x + 12
Qy, y +
Rx, y est convexe-concave
sur Rn Rm .
2 ) On suppose l convexe-concave sur X Y . Montrer lquivalence des
assertions suivantes concernant (x, y) X Y :
(j) (x, y) est un point-selle de l sur X Y ;

x l(x, y), x x  0 pour tout x X


(jj)

et

y l(x, y), y y  0 pour tout y Y ;


(jjj)
x l(x, y), x x
y l(x, y), y y  0 pour tout (x, y) X Y.
Remarque : Les deux questions de lexercice sont indpendantes.
Solution : 1 ) [(i) (ii)] . Soient (x1 , y1 ) et (x2 , y2 ) dans X Y. Puisque
l(, y2 ) est convexe sur X et l(x1 , ) concave sur Y , on a :
l(x1 , y2 ) l(x2 , y2 ) 
x l(x2 , y2 ), x1 x2
et
l(x1 , y2 ) l(x1 , y1 ) 
y l(x1 , y1 ), y2 y1 .
Il sensuit :
l(x1 , y1 ) l(x2 , y2 ) 
x l(x2 , y2 ), x1 x2 +
y l(x1 , y1 ), y1 y2 .

()

Comme l(, y1 ) est aussi convexe sur X et l(x2 , ) concave sur Y on a, de


la mme manire,
()

l(x2 , y2 ) l(x1 , y1 ) 
x l(x1 , y1 ), x2 x1 +
y l(x2 , y2 ), y2 y1 .

Laddition membre membre des ingalits () et () conduit :


0 
x l(x2 , y2 ) x l(x1 , y1 ), x1 x2 +
y l(x1 , y1 ) y l(x2 , y2 ), y1 y2 ,
ce qui est lingalit de (ii) .
[(ii) (i)] . Soit y Y. Faisons y1 = y2 = y dans (ii) ; il vient :

x l(x1 , y) x l(x2 , y), x1 x2  0 pour tout x1 et x2 dans X.


Ceci implique (en fait caractrise) la convexit de la fonction l(, y) sur X.
131

Chapitre IV. Mini-maximisation. Dualisation de problmes...

Paralllement, soit x X. En faisant x1 = x2 = x dans (ii), il vient :


0 
y l(x, y1 ) y l(x, y2 ), y1 y2 pour tout y1 et y2 dans Y,
ce qui implique la concavit de l(x, ) sur Y.
Dans lexemple propos, en tout (xi , yi ) Rn Rm ,
x l(xi , yi ) = P xi + R yi et y l(xi , yi ) = Qyi + Rxi .
La condition (ii) de convexe-concavit de l sur Rn Rm se traduit par :
6

P (x1 x2 ), x1 x2
Q(y1 y2 ), y1 y2  0
pour tout (x1 , y1 ) et (x2 , y2 ) dans Rn Rm .
Ceci est certainement vrai lorsque P est semi-dnie positive et Q semi-dnie
ngative.
2 ) [(j) (jj)] . (x, y) X Y est un point-selle de l sur X Y signie :
x est un minimum sur X de la fonction convexe direntiable l(, y)
et
y est un maximum sur Y de la fonction concave direntiable l(x, ).
Ce quexpriment les ingalits de (jj) ne sont que les conditions ncessaires
et susantes doptimalit correspondantes.
[(jj) (jjj)] . Immdiat.

** Exercice IV.2. On note


, le produit scalaire usuel dans Rn et   la norme
euclidienne associe. Soit a Rn et A Sn (R) dnie positive. On dnit :
X := {x Rn |
A(x a), x a  1} ;
Y := {x Rn |  y   1} ;
l : (x, y) Rn Rn  l(x, y) :=
x, y .
1 ) a) Indiquer rapidement pourquoi l a des points-selles sur X Y.
b) Soit (x, y) un point-selle de l sur X Y.
Montrer que x est la projection de lorigine sur X.
Quelle est la valeur-selle de l sur X Y ?
En dduire y.
132

IV.3. Premiers pas dans la thorie de la dualit

2 ) tant donn y Y , on considre le problme de minimisation suivant


6
Minimiser l(x, y)
(Py )
x X.
Rsoudre compltement (Py ).
/ X. Dduire de ce qui prcde :
3 ) On suppose que 0
"
!

minxX  x  = maxy1
a, y
A1 y, y ;
le maximum dans lexpression de droite ci-dessus est atteint en y =
o x dsigne la projection de 0 sur X.

x
,
x

Solution : 1 ) a) X et Y sont des convexes compacts non vides de Rn , la


fonction l est convexe-concave sur Rn Rn ; par consquent il y a bien des
points-selles de l sur X Y.
de l sur X
b) Soit (x, y) un point-selle

 Y. Alors : 
() l(x, y) = min max l(x, y) = max min l(x, y) ;
xX

yY

yY

xX

() x minimise la fonction (x) := maxyY l(x, y) sur X


et
y maximise la fonction (y) := min l(x, y) sur Y.
xX

Ici (x) = maxy1


x, y nest autre que  x  ; par suite x est le point
de X minimisant la fonction  x  sur X, cest--dire la projection de lorigine
sur X.
La valeur-selle de l sur X Y est  x , cest--dire la distance de lorigine
X.
Par suite
x, y =  x , ce qui conduit :
x
si  x  = 0, cest--dire lorsque 0
/ X;
x
y lment quelconque de Y lorsque 0 X.
y=

2 ) Lensemble-contrainte du problme de minimisation (Py ) est dcrit sous


la forme g(x)  0 o g : x  g(x) :=
A(x a), x a 1. La fonction g est convexe direntiable (quadratique mme) et il existe x0 tel que
g(x0 ) < 0 (x0 = a par exemple). La fonction-objectif dans (Py ) est linaire,
ce qui fait que, lorsque y = 0, les solutions xy de ( Py ) sont forcment sur la
frontire de X (daccord ?).
133

Chapitre IV. Mini-maximisation. Dualisation de problmes...

En somme, si y = 0, une solution xy de (Py ) est caracte rise e par :


6

A(xy a), xy a = 1,
> 0 tel que y + 2A(xy a) = 0.
1

La deuxime relation ci-dessus donne xy a = A2 y qui, reporte dans


1
A y,y
. Puis
la premire, induit =
2
xy = a

A1 y

A1 y, y

Si y = 0, tout point de X est solution de (P0 ).


3 ) Daprs ce qui prcde,
(y) := min l(x, y) =
xy , y =
a, y

xX

A1 y, y ,

ce qui avec () donne lgalit annonce.


Les points y Y maximisant sur Y sont exactement les y tels que (x, y)
x
.
soit un point-selle de l sur X Y. Donc, dans le cas prsent, y =
x

** Exercice IV.3. Soient f1 , . . . , fm m fonctions convexes direntiables sur Rn .


On suppose que lune dentre elles est 0-coercive sur Rn , cest--dire vrie :
lim fi (x) = +.
x+

On dnit :
l : (x, y) Rn Rm  l(x, y) :=

yi fi (x) ;

i=1

X := Rn ;
Y est le simplexe-unit de Rm , cest--dire
6
(y1 , . . . , ym ) R

| yi  0 pour tout i, et

;
yi = 1 .

i=1

1 ) Indiquer rapidement pourquoi l a des points-selles sur X Y.


134

IV.3. Premiers pas dans la thorie de la dualit

2 ) Montrer que (x, y) est un point-selle de l sur X Y si et seulement si :

x minimise la fonction := maxi=1,...,m fi sur R


et

y Y avec yi = 0 ds que fi (x) < (x) .


Solution : 1 ) l est convexe-concave sur X Y. Supposons par exemple f1
0-coercive sur Rn ; en considrant y0 = (1, 0, . . . , 0) Y , on a l(x, y0 ) +
quand  x  + ; par ailleurs Y est convexe compact. Il en rsulte que
lensemble des points-selles de l sur X Y est un convexe compact non vide
de X Y , de la forme S T. Reste dterminer S et T prcisment.
2 ) Considrons : x X  (x) := supyY l(x, y), la premire des
fonctions intervenant dans la mini-maximisation de l sur X Y . En raison de
la structure particulire de l et Y ici, on voit aisment que
(x) = max fi (x) pour tout x X.
i=1,...,m

La valeur-selle l de l sur X Y est donc




l = minn max fi (x) .
xR

i=1,...,m

Les x dun point-selle (x, y) de l sur X Y sont ceux pour lesquels (x) = l,
cest--dire ceux qui minimisent maxi=1,...,m fi sur Rn .
De mme, les y dun point-selle (x, y) sont ceux de Y pour lesquels
m

y i fi (x) et (x) = max fi (x), cela
l(x, y) = (x). Sachant que l(x, y) =
i=1,...,m

i=1

conduit aux y dun sous-simplexe-unit de Y , savoir les y Y dont les


composantes yi sont nulles lorsque fi (x) < max fi (x).
i=1,...,m

* Exercice IV.4. tant donns a1 , . . . , an des rels dirents de zro, on considre


lellipsode plein de Rn dni comme suit :
;
6
2
n 

u
i
1 .
E := u = (u1 , . . . , un ) Rn |
ai
i=1
Soient x
/ E x et f : Rn R dnie par :
u Rn , f (u) :=  u x 2 .
135

Chapitre IV. Mini-maximisation. Dualisation de problmes...

On cherche rsoudre le problme de minimisation suivant :


6
Minimiser f (u)
(P)
u E.
1 ) Dterminer la fonction duale R+  () associe au lagrangien
usuel (u, ) Rn R  L (u, ) dans (P).
2 ) Montrer que est maximise sur R+ en un point > 0 unique solution
n

a2i x2i
de lquation (en )
2 = 1.
2
i=1 (ai +)
Commentaire : Exercice relier, videmment, lExercice 3.8.
Solution : 1 ) Pour tout  0, la fonction de
' nLagrange
(
 2
n


u
i
(ui xi )2 +
1 est minimise
u Rn  L (u, ) =
a
i
i=1
i=1
sur Rn en u () dont les composantes sont
u ()i =

a2i xi
, i = 1, . . . , n.
a2i +

La valeur optimale () := inf uRn L (u, ) est


n

x2i
.
() =
a2 +
i=1 i

est notre fonction duale.


est strictement concave continue sur R+ et () quand +.
Il existe donc un et un seul maximisant sur R+ .
2 ) est drivable sur (un intervalle ouvert contenant) R+ , avec


() =

n

i=1

a2i x2i
2 1 pour tout  0.
 2
ai +

/ E ; est donc maximise au seul point > 0 annu (0) > 0 car x

lant .
Exemple. ai = i pour i = 1, . . . , 7 ; xi = 10 pour i = 1, . . . , 7.
Valeur approche de : 87, 67846859.
Valeur approche de () : 494, 9439304.

136

IV.3. Premiers pas dans la thorie de la dualit

Commentaire :

Soit g : u  g(u) :=

n  2

ui
i=1

ai

1, de sorte que E =

{u Rn | g(u)  0} . On vrie sur le cas trait dans lexercice que la seule manire dassurer
u () E et g (u ()) = 0
(ce qui revient ici : > 0 et g (u ()) = 0), est davoir = .

* Exercice IV.5. tant donns s Rn \ {0} et c Rn , on considre le problme


de minimisation convexe suivant :
/
.
1
2
 x 
c, x sous la contrainte
s, x  0.
(P) Minimiser
2
1 ) Dterminer la fonction duale R+  () associe au lagrangien
L : (x, )  L (x, ) =

1
 x 2
c, x +
s, x .
2

2 ) Rsoudre le problme dual (D) associ (P), cest--dire celui de la


maximisation de sur R+ (on sera amen considrer plusieurs cas, suivant le
signe de
c, s ).
3 ) Utiliser le rsultat prcdent pour rsoudre eectivement (P).
Solution : 1 ) () = inf xRn L (x, ) par dnition.
L (, ) est une fonction quadratique strictement convexe sur Rn . Son minimum est la solution de lquation x L (x, ) = 0, soit
x c + s = 0, cest--dire x () = c s.
Donc () = 12  c s 2
c, c s +
s, c s = 12  c s 2 .
137

Chapitre IV. Mini-maximisation. Dualisation de problmes...

2 ) est une fonction concave que lon doit maximiser sur R+ (cest notre
problme dual (D)). Ici, est une fonction polynomiale du 2e degr en , avec

() =
c s, s =
c, s  s 2 . Deux cas sont distinguer :


c, s  0, auquel cas la seule solution de (D) est =

c,s
.
s2

Alors

1
(
c, s )2 1
 c 2 .
() =  c s 2 =
2
2  s 2
2

c, s < 0, auquel cas le supremum de sur R+ est atteint en = 0.
Alors
1
() =  c 2 .
2
3 ) Le problme (P) a une seule solution x. La minimisation de la fonction
strictement convexe L (, ) sur Rn donnera automatiquement la solution x
cherche.

c, s < 0. Ici L (x, ) = 12  x 2
c, x et le minimum de L (, ) est
atteint en x = c. La valeur optimale est
1
L (x, ) = f (x) = () =  c 2 .
2

c, s  0. Alors L (x, ) =
L (, ) est minimise en
x=c

1
2

 x 2
c, x +

c,s
s2

s, x . La fonction

c, s
s = c s.
 s 2

Finalement
f (x) = L (x, ) = () =

138

(
c, s )2 1
 c 2 .
2  s 2
2

IV.3. Premiers pas dans la thorie de la dualit

** Exercice IV.6. tant donns r1 , . . . , rn des rels tous strictement positifs,


A Mm,n (R) et c Rm , on considre le problme de minimisation suivant :

 
n

xi

Minimiser
xi ln
ri
(P)
i=1

sous les contraintes x n et Ax  c.


Dans cette formulation, n dsigne le simplexe-unit de Rn , et ln() est
prise gale 0 pour = 0.
 
n

xi
m
+
xi ln
+
, Ax c le
Soient (x, ) n (R )  L (x, ) =
ri
i=1
lagrangien dans le problme (P) et
 m
 () = inf L (x, )
R+
xn

la fonction duale associe.


Dterminer la forme explicite de et formuler (le plus simplement possible)
le problme dual (D) de (P).

Solution : Pour dterminer () , (R+ ) , on a minimiser L (, ) sur


n . En raison de la compacit de n , de la continuit de L (, ) sur n et de
la stricte convexit de L (, ), il existe un et un seul x () minimisant L (, )
sur n . Un tel x (), sil est dans lintrieur relatif de n (i.e. vrie x ()i > 0
pour tout i), est caractris par la proprit :
m

Rn tel que x L (x () , ) + (1, . . . , 1) = 0.

(4.1)

Cette condition se dtaille en






x ()i
+ 1 + A + = 0 pour tout i = 1, . . . , n.
ln
ri
i
Sachant que

n

i=1

x ()i = 1, cela conduit




ri e(A )i
x ()i = n

A
(
)
i
ri e
i=1

Cet x () vrie (4.1) et est donc bien lunique minimum de L (, ) sur n .


139

Chapitre IV. Mini-maximisation. Dualisation de problmes...

Par suite, on obtient par de simples calculs


L (x () , ) = ln

) n

+
(A )i + ,c

ri e

= () .

i=1

Une forme quivalente du problme dual (D) de (P) est donc :

(D)

n



Minimiser
ri e(A )i
i=1

m
sur le cne (R+ ) .

+ ,c

** Exercice IV.7. Problme de minimisation de J. Gibbs :


n

Soit f : x = (x1 , . . . , xn ) Rn  f (x) :=
fi (xi ), o les n fonctions fi :
i=1

R R sont supposes drivables sur R. On considre le problme doptimisation


suivant :

Minimiser f (x)
n

(P)

0
pour
tout
i
=
1,
.
.
.
,
n
et
xi = 1.
sous
les
contraintes
:
x

i=1

1 ) a) Le problme (P) a-t-il des solutions ?


b) Est-il licite de dire quun point solution de (P) vrie les conditions
ncessaires de minimalit du premier ordre de Karush-Kuhn-Tucker ?
c) Montrer que si x est une solution de (P), il existe alors un rel tel
que :

fi (xi ) + = 0 pour les i tels que xi > 0,


fi (xi ) +  0 pour les i tels que xi = 0.


d) Sous quelle hypothse additionnelle les conditions prcdentes
caractrisent-elles les solutions de (P) ?
2 ) a1 , . . . , an , b1 , . . . , bn tant des rels (xs) tous strictement positifs, on
pose ici : fi (xi ) = ai (ebi xi 1) pour tout i = 1, . . . , n.
On considre le lagrangien usuel
) n
+
n


 + n
R  L(x, ) =
fi (xi ) +
xi 1
L : (x, ) R
i=1

140

i=1

IV.3. Premiers pas dans la thorie de la dualit

et la fonction duale associe, i.e. :


R, () =

inf

x(R+ )n

L(x, )

(dualisation de la contrainte du type galit seulement).


a) Vrier que () = si < 0, et que pour tout > 0 il existe un et
n
un seul x () minimisant L(, ) sur (R+ ) .
En utilisant la caractrisation de x () fournie par les conditions ncessaires
et susantes doptimalit, montrer :
) n
+


n

1   ai bi +
+
ai 1
+
1 .
ln
 0, () =
ai bi
bi

i=1

i=1

R+

(notamment sa drivabilit) monb) En tudiant les proprits de sur


trer quil existe un et un seul > 0 maximisant sur R+ .
Exprimer alors les coordonnes xi de la solution de (P) en fonction de et
a1 , . . . , an , b1 , . . . , bn .
Solution : 1 ) a) Lensemble-contrainte est compact et f est continue : le
problme de minimisation (P) a donc des solutions.
b) Les contraintes du type galit ou ingalit sont exprimes laide de
fonctions anes ; il ny a donc pas dhypothse de qualication des contraintes
quil faudrait vrier. Ainsi, toute solution de (P) vrie ncessairement les
conditions de minimalit du 1er ordre de Karush-Kuhn-Tucker.

 

et que la fonction
c) Puisque f (x) = f1 (x1 ) , . . . , fn (xn )
n

xi 1 dnissant la contrainte de type
h : x = (x1 , . . . , xn )  h(x) :=
i=1

galit a un gradient constant (1, . . . , 1) , nous avons le rsultat suivant : si x


n
est une solution de (P), il existe (1 , . . . , n ) (R+ ) et R tels que
6 
fi (xi ) i + = 0
pour tout i = 1, . . . , n.
(KKT )
i xi = 0
Si i est tel que xi > 0 (il y a ncessairement de tels i), i = 0 de sorte que

fi (xi ) + = 0.
Si i est tel que xi = 0,


fi (xi ) + = i  0.
Do le rsultat escompt.
141

Chapitre IV. Mini-maximisation. Dualisation de problmes...

d) Si les fi sont convexes, f est convexe et les conditions de KKT prcdentes caractrisent les solutions de (P).
2 ) La fonction f est strictement convexe. Il existe un et un seul x solution
de (P), caractris par :

x  0 pour tout i,
xi = 1 ;

i
i=1

R tel que : ai bi ebi xi + = 0 pour tout i tel que xi > 0,

ai bi +  0 pour tout i tel que xi = 0.


+
On considre (x, )
 n (R ) R  L (x, ) = f (x) + h(x) =
n




ai ebi xi 1 +
xi 1 .
n

i=1

i=1

a) L (, ) a une expression spare en les coordonnes xi , ce qui fait


que sa minimisation sous contraintes spares (xi  0 pour tout i) sen
trouve facilite.
Supposons < 0. Puisque xi peut tre pris positif arbitrairement grand, il
vient que () = .
n

ai .
Si = 0, on a L (x, 0) = f (x) et (0) =
i=1

Supposons > 0. La fonction L (, ) est continue, 0-coercive, strictement


n
n
convexe sur (R+ ) : il existe donc un et un seul point x() (R+ ) minimisant
n
L (, ) sur (R+ ) . Ce point x() est caractris par le fait que
x L (x(), ) N(R+ )n (x()) ,
cest--dire :
6
ai bi ebi x()i + = 0 pour tout i tel que x ()i > 0,
ai bi  0 pour tout i tel que x ()i = 0.
On constate que (x()i > 0) quivaut ( < ai bi ) . En clair, x() est le
! 
"+
, i = 1, . . . , n.
vecteur de Rn de composantes b1i ln aibi
Par suite
() = L (x(), )





ai bi
1

1
ai
1 +
ln
=
ai bi
bi

{i | x()i > 0}
{i | x()i > 0}
) n
+


n

1   ai bi +
+
ai 1
+
1 .
ln
=
ai bi
bi

i=1

142

i=1

IV.3. Premiers pas dans la thorie de la dualit

La fonction , on le sait, est concave semi-continue suprieurement sur R.


Le problme dual (D) de (P) consiste ici maximiser () , R+ .
b) Supposons, pour allger lcriture et les notations, que nous avons la
disposition suivante : a1 b1  a2 b2  . . .  an bn . Alors :
Si  an bn , () = ;
n



n

 1  ai bi 

1 ;
ai 1 ai bi +
Si  a1 b1 , () =
bi ln

i=1

i=1

Si [ak bk , ak+1 bk+1 [ , () a lexpression suivante :


+
) n

n 

1  ai bi 

1 .
ai +
ln
() =
bi
bi

i=k+1

i=k+1

Ainsi est drivable sur ]ak bk , ak+1 bk+1 [ , de drive




n

ai bi
1

1.
ln
() =
bi

i=k+1

En observant que

lim

(ak bk )

() =

lim

(ak bk )+

(), on constate que est

aussi drivable en ak bk . En fait est drivable sur R+


avec

 
n


1
ai bi +
1 pour tout > 0.
ln
() =
bi

i=1

On note (sans surprise) que () est gal h (x ()) = dL


d |x = x() .

+
La fonction est continue sur R , strictement dcroissante sur [0, an bn ],
et de plus :

lim () = + ;
0+


() = 1 pour  an bn .


Lquation () = 0 a donc une seule solution (> 0), cest videmment


le point maximisant sur R+ .
 
La solution de (P) est donc x = x , cest--dire :



ai bi

1
pour les i tels que ai bi > ,
xi = bi ln

xi = 0 pour les i tels que ai bi  .


Exemple. a1 = 1, a2 = 2, a3 = 5/2
b1 = 1, b2 = 3/2, b3 = 2.
143

Chapitre IV. Mini-maximisation. Dualisation de problmes...

Voir ci-aprs le trac de la fonction duale :






+
+ 5
+
1

 0, () = (1 ) 2 1
3
2
5
)
+
+

+


3
5 +
1
2
1
ln
ln
+ ln
+
+
1 ;







3 + 1
5 +
1 + 2

ln
ln
+
+
1.
> 0, () = ln

Valeur approche de : 1, 58469934.


Valeur approche de () : 2, 65118410.

144

IV.3. Premiers pas dans la thorie de la dualit

** Exercice IV.8. a1 , . . . , an , b1 , . . . , bn tant des rels (xs) tous strictement


n

ai
positifs, on pose f : x = (x1 , . . . , xn ) Rn  f (x) :=
1+xi et
i=1

C := x = (x1 , . . . , xn ) R | xi  0 pour tout i = 1, . . . , n et


n

;
bi xi = 1 .

i=1

On considre le problme doptimisation suivant :


6
Minimiser f (x)
(P)
x C.
1 ) a) Quelles proprits de (P), utiles pour sa rsolution, peut-on observer ?
Quelles consquences peut-on en tirer quant lexistence et lunicit des
solutions de (P) ?
b) Montrer que x = (x1 , . . . , xn ) C est solution de (P) si et seulement
si on a la proprit suivante :
Il existe un rel tel que
ai
+ bi = 0 pour tout i tel que xi > 0,

(1 + xi )2
ai + bi  0 pour tout i tel que xi = 0.
2 ) On considre le lagrangien usuel

) n
+

 + n
R  L(x, ) = f (x) +
bi xi 1
L : (x, ) R
i=1

et la fonction duale associe, i.e.


R, () =

inf

x(R+ )n

L(x, ).

a) Vrier que () = si < 0, et que pour tout > 0 il existe un et


n
un seul x () minimisant L(, ) sur (R+ ) .
En utilisant la caractrisation de x () fournie par les conditions ncessaires
et susantes doptimalit, montrer que :
+)
6
)*
++ ;
*
n

bi
bi
ai 1 +
1
1
.
 0, () =
ai
ai
i=1

b) En tudiant les proprits de sur R+ (notamment sa drivabilit) montrer quil existe un et un seul > 0 maximisant sur R+ .
Exprimer alors les coordonnes xi de la solution (P) en fonction de et
a1 , . . . , an , b1 , . . . , bn .
145

Chapitre IV. Mini-maximisation. Dualisation de problmes...

Solution : 1 ) a) Lensemble-contrainte est un polydre convexe compact non


vide (le caractre born de C se dduit par exemple de lobservation suivante :
si x = (x1 , . . . , xn ) C, alors 0  xi  1/(mini bi )), f est continue sur C : le
problme de minimisation (P) a donc des solutions.
La fonction f est strictement convexe sur louvert convexe
:= (]1, +[)n de Rn (car 2 f (x) = diag(. . . ,

2ai
, . . .)
(1 + xi )3

est dnie positive en tout x = (x1 , . . . , xn ) de ).


Par consquent, le problme (P) a une et une seule solution.
(P) est un problme de minimisation direntiable et convexe, les
contraintes du type galit ou ingalit sont exprimes laide de fonctions
anes ; par suite, la solution de (P) est caractrise par les conditions du 1er
ordre de Karush-Kuhn-Tucker.
b) x = (x1 , . . . , xn ) C est solution de (P) si et seulement si les conditions
n
de KKT suivantes sont vries : il existe (1 , . . . , n ) (R+ ) et R tels
que

ai

i + bi = 0
(1 + xi )2
pour tout i = 1, . . . , n.
(KKT )

i xi = 0
Si i est tel que xi > 0 (il y a ncessairement de tels i), i = 0 de sorte que
ai
+ bi = 0.
(1+x
)2
i

Si i est tel que xi = 0, on a ai + bi = i  0.


Do la caractrisation annonce.
2 ) On considre
(x, )

n
(R+ )

R  L (x, ) =

n

i=1


ai
1+xi

n



bi xi 1 .

i=1

a) L (, ) a une expression spare en les coordonnes xi , ce qui fait


que sa minimisation sous contraintes spares (xi  0 pour tout i) sen
trouve facilite.
Supposons < 0. Puisque xi peut tre pris positif arbitrairement grand et
que bi > 0, il sensuit () = .
Si = 0, L (x, 0) = f (x) et (0) = 0.
Supposons > 0. La fonction L (, ) est continue, 0-coercive, strictement
n
n
convexe sur (R+ ) : il existe donc un et un seul point x () (R+ ) minimisant
n
L (, ) sur (R+ ) . Ce point x () est caractris par la proprit
x L (x () , ) N(R+ )n (x ()) ,
146

IV.3. Premiers pas dans la thorie de la dualit

cest--dire

ai

+ bi = 0 pour tout i tel que x ()i > 0,


(1 + x ()i )2

ai bi  0 pour tout i tel que x ()i = 0.




On constate que (x ()i > 0) quivaut < abii . Ainsi x () est le vecteur
9
+
ai

1
, i = 1, . . . , n.
de Rn de composantes
bi
Par suite



ai +
ai bi
() = L (x () , ) =
i
|
x()
=0
i
|
x()
>0
}
}
{
{
i
i


*

ai

bi
1 1 .
+
bi
{i | x()i >0}
Or

{i

ai +

| x()i =0}

et

{i

{i

| x()i >0}

*

bi

| x()i >0}

ai bi =

n

i=1

'
ai 1

*
1

bi
ai

++ (


+
*
n
ai
ai
1 =
1
bi
,
bi
bi
i=1

de sorte que
++ (
+ ;
*
bi
ai
1
ai 1 1
+ bi

() =
ai
bi
i=1
+)
6
)*
++ ;
*
n

bi
bi
ai 1 +
1
1
.
=
ai
ai
n

'

i=1

b) Quitte renumroter les indices, on peut supposer que nous avons la


disposition suivante : ab11  ab22  . . .  abnn . Ainsi :
n

an
ai ;
Si  bn , () =
i=1
)
+
*
n

bi
a1
ai bi 2
;
Si < b1 , () =
ai
i=1

147

Chapitre IV. Mini-maximisation. Dualisation de problmes...

Si

ak ak+1
bk , bk+1

!
, () a pour expression

ai +

i=1

ai bi 2

i=k+1

bi
ai

+
.

+
La fonction est nie sur R+ et continue sur R+
(puisque concave sur R ).
tudions sa drivabilit sur R+
.
!
"
ak+1
, de drive
Il est clair que est drivable sur abkk , bk+1

)*

() =

i=k+1

lim
  () =

Notons que

ak
bk

ai bi
bi

1.


+
lim
  () ; donc est drivable sur R .

ak
bk

Dailleurs la formule gnrale donnant sur R+


est :
+
*
n


ai
1
bi
1 pour tout > 0.
() =
bi
i=1

Observons et ce nest pas surprenant


 est la drive par
 n que ()

bi xi 1 prise au point optirapport de  L (x, ) = f (x) +
i=1

mal x().
!
"

an
,
strictement
dcroissante
sur
0,
La fonction est continue sur R+

bn ,
et de plus :


lim () = + ;

0+


() = 1 pour 


an

bn

Lquation () = 0 a donc une et une seule solution (> 0), et cest


lunique point maximisant sur R+ .  
La solution de (P) est donc x = x , cest--dire :
*

ai
ai

xi =
1 pour tous les i tels que
> ,
bi
bi
a

xi = 0 pour tous les i tels que i  .


bi
Exemple. a1 = 1, a2 = 3, a3 = 4
b1 = 1, b2 = 1, b3 = 4/5.
148

IV.3. Premiers pas dans la thorie de la dualit

Voir ci-dessous le trac de la fonction duale :




+
1 1
 0, () = 1 +
+)
+)
'
)*
'
)*
* ++ (
* ++ (

1
1
1
1
+3 1 +
+ 4 1+
;
3
3
5
5
)*


> 0, () =

++ )*
++
)*
++
4
1
3
5
1
1
1
+
+
1.

Valeur approche de : 1, 58122109.


Valeur approche de () : 5, 42941905.

** Exercice IV.9. Dans Rn muni du produit scalaire usuel


, , on considre le
problme de minimisation suivant :

Minimiser f (x) := 1
M x, x +
q, x
2
(P)
sous la contrainte Ax + b  0,
o M Mn (R) est symtrique dnie positive, q Rn , A Mm,n (R) et
b Rm .
1 ) Dterminer la fonction duale associe au lagrangien
L : (x, )  L (x, ) :=

M x, x +
q, x +
, Ax + b .
2
149

Chapitre IV. Mini-maximisation. Dualisation de problmes...

2 ) (i) Formuler le problme dual (D) de (P).


(ii) Comment caractriser une solution de (D) ?
(iii) Donner une condition susante pour que (D) ait une solution unique.
(iv) Comment une solution de (D) permettrait-elle de retrouver la solution
de (P) ?

Solution : f est une fonction (quadratique) fortement convexe, lensemble


C := {x Rn | Ax + b  0} dni par la conjonction des contraintes
aj , x +
bj  0 pour j = 1, . . . , m (ingalits dnies par des fonctions anes) est
un convexe ferm. Donc, si C = , (P) a une et une seule solution x. Les
contraintes tant qualies (puisque les fonctions les dnissant sont anes),
x est caractrise par :


(1)

M x + q + A = 0,
 + m
(2)
tel que
, Ax + b = 0
= (1 , . . . , m ) R



j = 0 si
aj , x + bj < 0 .
1 ) () est par dnition inf xRn L(x, ).

x, le minimum de L(, ) sur Rn est atteint en x () =

M 1 q + A .
Do :

@

1?
() = M 1 A + q , A + q +
b,
2

@

1 1

1 ?
AM 1 A , + b AM 1 q,
M q, q .
=
2
2
2 ) (i) Le problme dual (D) de (P) est :
6
Maximiser ()
(D)
m
sous la contrainte (R+ ) .
On sait que ce problme de maximisation dune fonction quadratique
m
concave sur (R+ ) a des solutions (ce qui ne se voit pas directement puisque
AM 1 A est certes semi-dnie positive, mais pas ncessairement dnie positive).
(ii) Une solution de (D) est caractrise par :
 m
 m
R+
et () est normal R+
en ;
150

IV.3. Premiers pas dans la thorie de la dualit

soit encore

 m 
 m
R+ , AM 1 A + AM 1 q b R+
et
?
@

AM 1 A + AM 1 q b, = 0.
(iii) Si m  n et A est surjective, alors A est injective de sorte que
AM 1 A est dnie positive. En eet
 
@

@ ?

?
0
AM 1 A y, y = M 1 A y , A y
et


@


?
AM 1 A y, y = 0 A y = 0 (y = 0) .
Alors, (D) a une et une seule solution .
Cela se voit aussi partir de (1) : les solutions de (D) sont les multiplicateurs de (P), ils vrient (1) et (2) ; de (1) on tire
A = M x q.
Un tel dont on est assur de lexistence est unique.
(iv) Connaissant une solution de (D), la solution de (P) est le point minimisant L(, ) sur Rn , i.e. x () . Il ny a pas lieu de distinguer les minima
de L(, ) qui sont admissibles et ceux qui ne le sont pas : x () est forcment
admissible.

* Exercice IV.10. Donnes :


A0 symtrique dnie positive, A1 , . . . , Am symtriques semi-dnies positives ; b0 , b1 , . . . , bm dans Rn ; c0 , c1 , . . . , cm dans R.
On considre le problme doptimisation suivant :

Minimiser f (x) := 2
A0 x, x +
b0 , x + c0
sous les contraintes
(P)

gj (x) := 12
Aj x, x +
bj , x + cj  0, j = 1, . . . , m.
1 ) Quelles proprits de (P), utiles pour sa rsolution, peut-on noter ?
151

Chapitre IV. Mini-maximisation. Dualisation de problmes...

2 ) Soit
L : (x, ) R R
n

 L(x, ) = f (x) +

j gj (x)

j=1

le lagrangien usuel dans (P), et


 m
 () = infn L(x, )
R+
xR

la fonction duale associe.


m
Pour (R+ ) on pose
A () := A0 + 1 A1 + . . . + m Am
b () := b0 + 1 b1 + . . . + m bm
c () := c0 + 1 c1 + . . . + m cm .
Dterminer lexpression de () en fonction de A () , b () et c (), et
formuler (le plus simplement possible) le problme dual (D) de (P).

Solution : 1 ) La fonction-objectif f est (quadratique) strictement convexe,


les fonctions gj dnissant les contraintes du type ingalit sont (quadratiques)
convexes. Donc, si lensemble-contrainte nest pas vide, le problme de minimisation convexe (P) a une et une seule solution.
2 ) On a
.
() = infn
xR

/
1

A () x, x +
b () , x + c () .
2

A () est symtrique dnie positive pour tout (R+ ) . La solution du


problme de minimisation de L(, ) sur Rn est
m

x () = [A ()]1 b () ,
do

@
1?
1
() = [A ()] b () , b () + c () .
2
Le problme dual (D) de (P) consiste maximiser la fonction (concave)
m
sur (R+ ) .

152

IV.3. Premiers pas dans la thorie de la dualit

 
*** Exercice IV.11. Soient a1 , . . . , am dans Rn , b1 , . . . , bm dans R, et soit P
+
)
m

a
,x b

j
j
e
pour x Rn .
le problme qui consiste minimiser f (x) := ln
j=1

 
1 ) Montrer que P est quivalent (en des termes quon prcisera) au problme (avec contraintes) (P) pos dans Rn Rm suivant :

Minimiserf (x, y) := ln
eyj
(P)
j=1

sous les contraintes Ax b = y,


o A Mm,n (R) est la matrice dont les lignes sont a1 , . . . , am et b le vecteur
de Rm de composantes b1 , . . . , bm .
2 ) Expliciter la fonction duale
Rm  () =

inf

(x,y)Rn Rm

{f (x, y) +
, Ax b y } .

En dduire la forme du problme dual (D) de (P).


 
Solution : 1 ) Si x est une solution de P , on pose y = Ax b et (x, y)
devient solution de (P). Rciproquement,
si (x, y) est solution de (P), on a
 

Ax b = y et x est solution de P .
2 ) Il sagit de calculer

@
?

eyj
, y
, b + A , x
.
ln
inf

(x,y)Rn Rm
j=1

Plusieurs cas sont distinguer :


a) Si A = 0, linmum ci-dessus est clairement gal .
b) Si A = 0, on a dterminer en fait


eyj
, y .
infm ln

yR

(4.2)

j=1

Situation o

m


j = 1.

j=1

153

Chapitre IV. Mini-maximisation. Dualisation de problmes...

De lingalit ey1 + . . . + eym  m emaxj yj , on dduit

m
m


yj

e
j yj .

, y  ln m + max yj
ln
j

j=1

j=1

k
k
pour tout j (ou m
pour tout j) et en
En prenant par exemple yj = m
faisant k +, on constate aisment qualors


yj

e

, y = .
(4.3)
ln
inf

yRm
j=1

Situation o lun des j (disons j0 ) est < 0.


En prenant yj = 0 pour j = j0 et yj0 = k et en faisant k +, on
arrive galement la relation (4.3) .
m

j = 1 et j  0 pour tout j = 1, . . . , m.
Situation o
j=1

Observons tout dabord que si J+ dnote {j = 1, . . . , m | j > 0},




eyj
, y = infm ln
eyj
j yj .
infm ln
yR

yR
j=1

jJ+

jJ+

Il sut donc de dterminer la borne infrieure de (4.2) dans le cas o tous


les j sont > 0. Cest en fait la situation o la borne infrieure de (4.2) est
nie et atteinte. En eet, la borne infrieure de (4.2) est nie et atteinte si et
seulement si le systme doptimalit suivant a une solution
eyj
m

= j

pour tout j = 1, . . . , m,

eyj

j=1

cest--dire si et seulement si
m

j = 1 et j > 0 pour tout j = 1, . . . , m.

j=1

Dans ce cas la borne infrieure en question vaut

m

j=1

154

j ln j .

IV.3. Premiers pas dans la thorie de la dualit

Rsumons tous les cas de gure en lexpression suivante de la fonction


duale :

() =

j ln j
, b si A = 0,

j=1

j = 1 et j  0 pour tout j ;

j=1

sinon

(avec le prolongement habituel 0 ln 0 = 0).


Le problme dual (D) de (P) est donc :

j ln j
, b
Maximiser

(D)

j=1

j = 1 et j  0 pour tout j.

sous les contraintes A = 0,


j=1

** Exercice IV.12. Soit (P) le problme consistant minimiser f (x) sous la


contrainte
x C := {x Rn | g1 (x)  0, . . . , gp (x)  0} .
On fait les hypothses suivantes sur les donnes de (P) :
Les fonctions f, g1 , . . . , gp sont convexes et direntiables sur Rn ;
Lensemble-contrainte C est born ;
Il existe x0 C tel que gj (x0 ) < 0 pour tout j = 1, . . . , p.
1 ) a) Montrer que lintrieur de C est

C = {x Rn | gj (x) < 0 pour tout j = 1, . . . , p} .


b) noncer les proprits du problme doptimisation (P) que les hypothses
faites induisent.
2 ) Soit


: R


+ p

 () := infn f (x) +
xR

j gj (x)

j=1

155

Chapitre IV. Mini-maximisation. Dualisation de problmes...

la fonction duale usuelle associe au problme de minimisation (P), et pour


tout > 0 soit
p

1
ln (gj (x)) .
: x C  (x) := f (x)

j=1

a) Vrier que est convexe et direntiable sur C.

b) Montrer quil existe des points de C minimisant sur C .

c) Soit x un minimum de sur C et on dsigne par le vecteur de (R+ )


1
.
dont les composantes sont
gj (x )
p

j gj (x) sur Rn .
Montrer que x minimise x  f (x) +

j=1

Vrier que la fonction duale prend une valeur nie en .


tablir lencadrement suivant
p
f (x )  f  f (x ) ,

o f dsigne la valeur minimale dans (P).


d) Commenter la pertinence de lapproche propose dans cet exercice pour
rsoudre le problme originel (P).

Solution : 1 ) a) Il est clair que C = {x Rn | g(x)  0} , o on a pos


g := maxj gj . La fonction g est convexe, mais pas direntiable en gnral.
De par la continuit de g, on a :



(la convexit de g nest pas essentielle ici).


(g(x) < 0) x C
Soit prsent x lintrieur de C et montrons que g(x) < 0 ncessairement.
Supposons g(x) = 0 et montrons que cela conduit une contradiction.
Pour t ]0, 1[, posons yt := x t(x x0 ) et zt := x + t(x x0 ), o x0 est
un point en lequel gj (x0 ) < 0 pour tout j = 1, . . . , p (et dont lexistence gure
en hypothse).
1
Comme x = (yt + zt ) et que g est
2
convexe,
1
1
0 = g(x)  g(yt ) + g(zt ).
2
2
Toujours en raison de la convexit de g,
g(yt )  (1 t) g(x) + tg(x0 ) < 0.
156

IV.3. Premiers pas dans la thorie de la dualit

Par suite g(zt ) > 0. On a donc zt arbitrairement proche de x en lequel la


valeur prise par g est strictement positive. Ceci contredit lhypothse de dpart
selon laquelle x est lintrieur de {x Rn | g(x)  0} .
En dnitive

C = {x Rn | gj (x) < 0 pour tout j = 1, . . . , p} ,


et donc
fr C = {x C | j tel que gj (x) = 0}

(qui est aussi fr C car C est un convexe dintrieur non vide).


b) (P) est un problme de minimisation convexe. La fonction-objectif f
tant continue et lensemble-contrainte C compact, le problme (P) a bien des
solutions. Tout ceci conduit armer que lensemble S des solutions de (P)
est un convexe compact non vide de C.
La condition (de qualication des contraintes) de Slater tant vrie pour
(P) (cela gure parmi les hypothses du problme), lensemble M des multip
plicateurs de Lagrange-KKT est donc un convexe compact non vide de (R+ )
( tout x S est associ le mme ensemble de multiplicateurs M ).
La fonction duale

p

 + p
 () = infn f (x) +
j gj (x)
: R
xR

j=1

est concave semi-continue suprieurement, et on sait que les points maximisant


p
sur (R+ ) sont exactement ceux de M.

2 ) a) La fonction gj : C R
est convexe et direntiable ; la fonction

ln(y)
est
convexe,
croissante
et direntiable. Il sensuit que la
y R

compose des deux, qui nest autre que x C  ln(gj (x)), est convexe

et direntiable sur C .

Par suite, est convexe et direntiable sur C.


b) f est borne infrieurement sur C, ln(gj (x)) + quand gj (x)
0 . Il sensuit

fr C.
(x) + quand x C x
Par consquent tous les ingrdients sont l pour quil existe x minimisant

sur C . Ces points x sont caractriss par :


p

1
gj (x ) = 0.
x C et f (x ) +
gj (x )

(4.4)

j=1

157

Chapitre IV. Mini-maximisation. Dualisation de problmes...

c) La fonction x Rn  f (x) +
sur Rn . Comme f (x ) +
f+

p

j=1

p

j=1

j gj sur Rn .

Ainsi

( )

j=1

f (x) +

p

j=1

On a :

f (x )  f = inf f (x) =
xC

et

( ) = f (x ) +

p

j=1

puisque

1
gj (x )

j gj (x) est convexe et direntiable

j gj (x ) = 0, le point x minimise bien

:= inf xRn

p


+
j gj (x)

> .

sup ()  ( ) ,

(R+ )p

j gj (x )


p 

1
= f (x ) +

j=1

pour tout j = 1, . . . , p.

d) joue le rle de fonction-barrire (ou de fonction pnalise par lintrieur) rgle par le paramtre > 0.
 x est un chemin central dont on espre quil nous conduira
une solution x de (P) lorsque +.
La recherche de x est un problme de minimisation sans contraintes, et
on peut envisager de trouver x en rsolvant le systme doptimalit (4.4) (par
une mthode de Newton par exemple).
Lencadrement f (x )  f  f (x ) p est fort utile pour grer un test
darrt sur lincrmentation en .
On peut aussi voir x comme rsultat dune perturbation ad hoc des conditions de minimalit. En eet :

p
x C et il existe (R+ ) tel que :

f (x) +  g (x) = 0 ;
(x est solution de (P))
j
,
j

j=1
j gj (x) = 0 pour tout j = 1, . . . , p
alors que x est caractris par

p
x C et il existe (R+ ) tel que :

p
f (x ) +  g (x ) = 0 ;

j=1
j gj (x ) = 1 pour tout j = 1, . . . , p.

158

IV.3. Premiers pas dans la thorie de la dualit

** Exercice IV.13. Le problme dual augment :


1 ) Considrons le problme de minimisation (de base) suivant :
6
Min f (x)
(P)
h1 (x) = 0, . . . , hm (x) = 0.
Pour r > 0 on pose fr (x) := f +

r
2

m

i=1

h2i et on considre la version modie

(Pr ) de (P) ci-dessous :


(Pr )

6
Min fr (x)
h1 (x) = 0, . . . , hm (x) = 0.

a) Vrier que les problmes (P) et (Pr ) sont quivalents.


b) Soit
Lr : (x, ) R R
n

 Lr (x, ) : = fr (x) +

i hi (x)

i=1
m

r
= f (x) +
2

[hi (x)] +

i=1

i hi (x)

i=1

(4.5)
le lagrangien usuel pour le problme (Pr ) ; on lappelle lagrangien augment
du problme (P).
Comparer Lr et le lagrangien usuel L du problme (P).
crire le problme dual (Dr ) (dit augment) driv de Lr .
2 ) On dsire dnir un lagrangien augment pour le problme de minimisation avec contraintes du type ingalit ci-dessous :
6
Min f (x)
(Q)
g1 (x)  0, . . . , gp (x)  0.
suivant, plongement du problme
Pour ce faire, on considre le problme (Q)
n
p
(Q) dans R R :
6
 
Min f (x)

Q
gj (x) + yj2 = 0 pour j = 1, . . . , p.
159

Chapitre IV. Mini-maximisation. Dualisation de problmes...

Soit Lr : ((x, y), ) (Rn Rp ) Rp  Lr (x, y, ) le lagrangien augment


suivant la dnition (4.5) . Comme lexpression de la fonction duale
associ (Q)
drive de Lr conduit calculer
Rp 

inf

(x,y)Rn Rp

Lr (x, y, ) = infn [ infp Lr (x, y, )],


xR

yR

on propose de dnir un lagrangien augment directement associ (Q) en


posant :
Lr : (x, ) Rn Rp  Lr (x, ) := infp Lr (x, y, ).
yR

a) Dmontrer que
Lr (x, ) = f (x) +

r (j , gj (x)),

j=1

o r : (, t) R R  r (, t) :=

1
2r


[max {0, + rt}]2 2 .

b) Dduire du comportement de r (, t), lorsque r 0+ , ce que devient


Lr (x, ) quand r 0+ .
Donner quelques premiers lments de comparaison entre la fonction
duale r drive de Lr et la fonction duale usuelle .
c) Quelles proprits de Lr peut-on dduire des hypothses du type convexit
ou direntiabilit des donnes du problme (Q) ?
Commentaire :
Le plongement dun problme doptimisation avec contraintes du type ingalit dans un problme doptimisation avec contraintes du type galit (en ajoutant
des variables dcart) a dj t considr dans lExercice III.28.
Concernant lapport et lintert du lagrangien augment dans un contexte
particulier, on pourra boucler sur la partie B du problme I.18.
Solution : 1 ) a) Dsignons par S lensemble-contrainte dans (P), cest--dire
S := {x Rn | h1 (x) = 0, . . . , hm (x) = 0} .
Il est vident que fr (x) = f (x) pour tout x S. Donc le problme de la
minimisation (locale, resp. globale) de fr sur S est quivalent celui de la
minimisation (locale, resp. globale) de f sur S.
160

IV.3. Premiers pas dans la thorie de la dualit

b) Le lagrangien usuel L pour le problme (P) est


(x, ) R R
n

 L(x, ) = f (x) +

i hi (x),

i=1

cest--dire la fonction-limite lim Lr (x, ). En fait,


r0

r 2
hi
2
m

Lr = L +

i=1

est la somme du lagrangien usuel et dun terme positif d augmentation ou


de pnalisation extrieure mesurant dune certaine manire la violation des
contraintes du problme.
La fonction duale drive de Lr est
r := Rm  r () := infn Lr (x, ),
xR

do le problme dual correspondant :


6
Max r ()
(Dr )
Rm .
2 ) a) Par dnition,

r
[gj (x) + yj2 ]2 +
j [gj (x) + yj2 ]
Lr (x, y, ) = f (x) +
2
p

= f (x) +

j=1
p

j=1

j=1


r
r 4
yj + [j + rgj (x)]yj2 + j gj (x) + gj (x)2 .
2
2

La structure spare de Lr (x, y, ) en les variables yj facilite la minimisation de Lr (x, , ) sur Rp . En posant u := yj2 , on est en fait rduit la
minimisation de la fonction quadratique convexe u  2r u2 + [j + rgj (x)]u +
j gj (x) + 2r gj (x)2 sur R+ . Deux cas sont alors envisager :
j
r ,
j +rgj (x)

;
r

gj (x) 
u=

gj (x) >

auquel cas la fonction en question est minimise en

j
r ,

auquel cas la fonction en question est minimise en u = 0.




+rg (x)
.
En somme, u = max 0, j r j



Par suite, gj (x) + u = max gj (x), rj et


161

Chapitre IV. Mini-maximisation. Dualisation de problmes...


.
/2
/
.
1
r
j
j
max gj (x),
=
{[max{0, j +
+ j max gj (x),
2
r
r
2r
rgj (x)}]2 2j } (si, si !), do lexpression escompte de Lr (x, ).
b) Voici ci-aprs des exemples de fonctions t  r (, t).
Les fonctions r (, ) sont convexes, croissantes et drivables (mais pas
deux fois drivables). De plus, lorsque  0,
r (, t)  t pour tout t R (daccord ?),
de sorte que
Lr (x, )  f (x) +

j gj (x) si = (1 , . . . , p ) (R+ )p .

j=1

Figure 9.

Par ailleurs, de simples calculs de limites montrent :


si  0, r (, t) t quand r 0+ , et ce pour tout t R ;
si < 0, r (, t) quand r 0+ , et ce pour tout t R.
En consquence, pour tout (x, ) Rn Rp ,

f (x) +
j gj (x) = L(x, ) si = (1 , . . . , p ) (R+ )p ,
lim Lr (x, ) =
j=1

r0+

si lun des est < 0.


j

Le lagrangien augmente Lr , et la fonction duale augment r qui lui


est associe, sont naturellement dnis pour tout Rp , alors que la fonction
duale usuelle nest considrer que pour (R+ )p . Si, nanmoins, on pose
() = pour
/ (R+ )p , il est clair que lon a :
r ()  () pour tout Rp .
162

IV.3. Premiers pas dans la thorie de la dualit

Problmes duaux drivs :


6
Max r ()
(Dr )
Rp ;

(D)

6
Max ()
Rp .

c) On vrie aisment que, pour tout t R, les fonctions r (, t) sont


concaves sur R. Par suite, la fonction Lr (x, ) est concave pour tout x Rn .
Si les fonctions gj sont convexes, il en est de mme des fonctions x 
r (j , gj (x)) (daccord ?) ; par consquent la convexit de f et des fonctions
gj induisent la convexit de Lr (, ), pour tout Rp .
Dans ce cas on a aaire un lagrangien augment Lr qui est convexeconcave (et partout valeurs nies) sur Rn Rp .
Si f et les fonctions gj sont direntiables, il en est de mme de la fonction
Lr (, ) et
x Lr (x, ) = f (x) +

4
5
max 0, j + rgj (x) gj (x).

j=1

Par contre, mme si f et les gj sont deux fois direntiables, la direntiabilit


seconde de Lr (, ) nest pas assure en les points x tels que j + rgj (x) = 0
pour un certain j.
Commentaire : Prolongement de lexercice : Dans le cas dun problme de minimisation convexe (Q), montrer que :
les points-selles de Lr sur Rn Rp sont les mmes que ceux de L sur Rn
(R+ )p ;
les solutions du problme dual augment (Dr ) sont les mmes que celles du
problme dual ordinaire (D).

163

This page intentionally left blank

V
POLYDRES CONVEXES FERMS.
OPTIMISATION DONNES AFFINES
(PROGRAMMATION LINAIRE)

Rappels

, dnote le produit scalaire usuel dans Rn ; les formes linaires sur Rn sont
du type x Rn 
c, x , o c Rn .
Les hyperplans anes de Rn peuvent tre dcrits de la manire suivante :
{x Rn |
ai , x = bi } ,

(5.1)

o ai est un vecteur non nul de Rn et bi un rel. Les demi-espaces anes ferms de


Rn peuvent tre dcrits dune manire similaire (5.1), une ingalit (
ai , x  bi )
se substituant lgalit
ai , x = bi .
Naturellement, un hyperplan ane (dquation
ai , x = bi ) peut tre vu
comme lintersection des deux demi-espaces ferms (dquation
ai , x  bi et

ai , x  bi respectivement).

V.1. Polydres convexes ferms


Denition. Un polydre convexe ferm de Rn est lintersection dun nombre ni
de demi-espaces anes ferms de Rn .
Le polydre convexe ferm C, intersection des m demi-espaces anes ferms
dquation
ai , x  bi , est dcrit dune manire condense sous la forme
Ax  b,

(5.2)

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

o A Mm,n (R) est la matrice dont les m lignes successives sont a1 , . . . , am , b


le vecteur de Rm de coordonnes b1 , . . . , bm , et  lordre de Rm coordonne par
coordonne (i.e., si x = (x1 , . . . , xm ) et y = (y1 , . . . , ym ) sont deux vecteurs de
Rm , x  y signie xi  yi pour tout i = 1, . . . , m ).
Parmi les classes particulires de polydres convexes ferms signalons :
Les sous-espaces anes de Rn , que lon peut dcrire comme intersections
dhyperplans anes ferms :
{x Rn |
ai , x = bi pour tout i = 1, . . . , m}

(5.3)

(Ax = b sous forme condense).

Lorsquun sous-espace ane est reprsent comme en (5.3) avec des ai linairement indpendants (i.e. A est surjective), ce sous-espace est de dimension
n m.
Les polydres convexes compacts (cest--dire ferms borns) de Rn , appels
aussi polytopes de Rn quand ils sont dintrieur non vide. Il y a deux manires
quivalentes de reprsenter un polydre convexe compact C de Rn :
C = {x Rn | Ax  b} et C est born,
ou bien
C = conv {v1 , . . . , vk } ,

(5.4)

o v1 , . . . , vk sont des vecteurs de Rn .


Les cnes convexes ferms polydriques de Rn ; ce sont les intersections dun nombre ni de demi-espaces vectoriels ferms de Rn
(b = 0 dans la description (5.2)) :
{x Rn |
ai , x  0 pour i = 1, . . . , m}

(5.5)

(Ax  0 sous forme condense).

Il y a deux manires quivalentes de reprsenter un cne convexe ferm polydrique K de Rn : comme en (5.5) , ou bien
K=

6 k

;
ti vi | ti  0 pour tout i = 1, . . . , k

(5.6)

i=1

o v1 , . . . , vk sont des vecteurs de Rn .


K, dcrit en (5.6), est un cne convexe ferm (le caractre ferm de K fera
lobjet dun exercice), auquel on se rfrera par la notation cne {v1 , . . . , vk }
166

V.1. Polydres convexes ferms

(plutt que cne-conv {v1 , . . . , vk }). Le passage dune description lautre se fait
par polarit : si K est un cne convexe ferm polydrique de Rn , son cne polaire
K := {s Rn |
s, d  0 pour tout d K}
est encore un cne convexe ferm polydrique de Rn ; de cette manire :
K = cne {a1 , . . . , am } lorsque K est dcrit comme en (5.5) ;
K = {x Rn |
vi , x  0 pour tout i = 1, . . . , k}
lorsque K est dcrit comme en (5.6) .

(5.7)
(5.8)

Ce que dit (5.7) est le lemme de Minkowski-Farkas (sa premire forme du


moins) :
6
{x Rn |
ai , x  0 pour i = 1, . . . , m} est contenu dans
(5.9)
{x Rn |
b, x  0}
si et seulement si
b cne {a1 , . . . , am } .

(5.10)

Le plus petit sous-espace ane de Rn contenant un polydre convexe ferm C


de Rn sappelle le sous-espace ane engendr par C ; on appelle dimension de C
(et on note dim C) la dimension de ce sous-espace ane engendr. Lintrieur de
C dans le sous-espace ane engendr par C est ce quon appelle lintrieur relatif
de C ; il est not ir C (ou intr C).
Le caractre born ou non dun polydre convexe ferm de Rn est mesur par
le cne asymptote (ou asymptotique) de C ; il sagit de
C := {d Rn | x0 + td C pour tout t  0} .

(5.11)

Cet ensemble, qui se trouve tre indpendant du x0 choisi dans C, est un


cne convexe ferm polydrique de Rn ; il est rduit {0} si et seulement si
C est born. Dans lexemple dune description de C comme en (5.2) , C est
{x Rn | Ax  0} .
Il y a une manire de dcrire un polydre convexe ferm C de Rn , complmentaire de celle donne en (5.2), faisant apparatre la partie borne et la partie non
borne de C :
(5.12)
C = C0 + C ,
o C0 est un polydre convexe compact. On peut mme poursuivre la dcomposition en faisant C = K + L, o K est un cne convexe ferm polydrique saillant
(i.e. K (K) = {0}) et L un sous-espace vectoriel de Rn .
167

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

Autres notions rattaches un polydre convexe ferm C de Rn :


Si x C, le cne tangent C en x et le cne normal C en x, cest--dire
T (C, x) = {d Rn | d = t(c x) avec c C et t  0}
et

N (C, x) = {s Rn |
s, c x  0 pour tout c C}

respectivement, sont leur tour des cnes convexes ferms polydriques.


Un point x de C est appel point extrmal (ou sommet ) de C sil ny a pas
deux points distincts y et z de C tels que x = 1/2(y + z).
Autre manire quivalente de dsigner un tel point : il est impossible davoir
x = y + (1 ) z avec y et z deux points distincts de C et ]0, 1[ .
Un polydre convexe compact est lenveloppe convexe de ses points extrmaux.
Un hyperplan ane de Rn , dquation
a, x = b, est appel hyperplan
dappui C en x C lorsque

a, x = b et
a, x  b pour tout x C.
F C est une face (expose) de C sil existe un hyperplan dappui H C tel
que F = C H. Si un tel hyperplan a pour quation
a, x = b, on dira que F est
expose par a.
Une face F de C est un polydre convexe ferm, de dimension comprise entre
0 et n 1. Si dim F = 0 on retrouve la notion de point extrmal (ou sommet) de
C ; si dim F = 1 on dira que F est une arte de C ; si dim F = n 1 on parlera
de F comme dune facette de C.
Un polydre convexe ferm a un nombre ni de faces.

V.2. Optimisation donnes anes


(Programmation linaire)
V.2.1. Dnitions et notations
Un problme doptimisation donnes anes (ou programme linaire) se
prsente sous la forme suivante :

Maximiser
c, x
(P)

Ax  b,

x0

o c Rn , b Rm et A Mm,n (R).

(5.13)

Minimiser
c, x sous les contraintes Ax  b et x  0 conduit au mme
type de problme (en changeant c en c). La prsentation (5.13) est appele
168

V.2. Optimisation donnes affines (Programmation linaire)

forme canonique dun programme linaire ; une autre prsentation est la forme
dite standard (1) :

Maximiser
c, x
(P) Ax = b
(5.14)

x  0.
On passe de la forme canonique (avec A, b, c) la forme standard, de la manire
suivante :
)
+
)
+

ai , x  bi
Il existe ui  0 tel que
devient
;

ai , x + ui = bi
dans Rn
do

Ax  b

x0
dans Rn

+
Ax + Im u = b
.
x  0, u  0

)
devient

Le programme linaire de (5.13) est transport dans Rn Rm prsent :



Maximiser
c , x
 
 

P
Ax =b,


x 0


o x = (x, u) Rn Rm ,

(5.15)

avec A = [A | Im ] Mm,n+m (R), b = b et c = (c, 0) .


Les problmes doptimisation (5.13) et (5.15) sont quivalents au sens o rsoudre lun permet de rsoudre lautre. Ainsi tous les rsultats sur les programmes
linaires formuls sous la forme standard ont des contreparties sur les programmes
linaires formuls sous une forme canonique, et vice versa.
La rsolution dun programme linaire est interprte gomtriquement
comme suit : Si C est le polydre convexe ferm dnissant les contraintes, maximiser
c, x pour x C revient chercher sappuyer sur C avec un hyperplan
dquation
c, x = constante ; lensemble des solutions (lorsquil y en a) est une
face de C expose par c.
Soit C un polydre convexe ferm de Rn dcrit de la manire suivante :
.
Ax = b
(5.16)
, avec A Mm,n (R) de rang m.
x0
(1)

Ces appellations ne sont pas universelles, certains auteurs les permutent mme. Canonique
doit tre compris ici au sens de naturelle, toujours possible dans lespace des variables x ;
standard au sens de on peut toujours sy ramener, quitte ajouter des variables .

169

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

Une base est un ensemble J {1, . . . , n} dindices de colonnes de A telle que


la sous-matrice AJ constitue des colonnes de A dindices j J soit inversible ;
AJ est la matrice de base associe J .
Un lment (ou point) de base correspondant la base J est un vecteur x =
(x1 , . . . , xn ) de Rn tel que
 1
/ J, xj est pris dans xJ := AJ
b sinon.
xj = 0 si j
Cet x a donc des composantes hors-base qui sont nulles, et des composantes
de base qui sont celles de xJ .
Une base J est dite admissible lorsque llment de base x correspondant est
dans lensemble-contrainte dcrit en (5.16), cest--dire lorsque (xJ )j  0 pour
tout j J (les autres composantes, celles hors-base, tant nulles).
Si (5.16) est la reprsentation dun ensemble-contrainte dun programme linaire, une base admissible J est appele optimale lorsque llment de base correspondant est solution du programme linaire considr.
partir dune base J , on construit llment de base correspondant en compltant par des 0 llment xJ ; si lun des xj , j J , est nul, il y a une certaine
ambigut reconnatre la base J ; on dira que llment de base est dgnr si
prcisment lune des composantes de base est nulle.
Le rsultat qui suit tablit un lien fort entre la gomtrie dun polydre convexe
ferm et sa reprsentation sous la forme standard (5.16) .

Theor`eme. Soit C dcrit comme en (5.16) . Alors les points extrmaux (ou sommets) de C sont exactement les lments de base admissibles.

V.2.2. Rsultats fondamentaux dexistence


Theor`eme. Si la forme linaire x 
c, x est majore sur le polydre convexe
ferm C = , alors elle y atteint sa borne suprieure.
Ceci est un rsultat dexistence particulier au monde linaire : le seul fait
pour
c, dtre majore sur C entrane lexistence de x maximisant
c, sur C.
Sa dmonstration fera lobjet dun exercice.

Theor`eme. Si lensemble-contrainte dun programme linaire est un polydre


convexe ferm non vide dcrit comme en (5.16), alors il existe des lments de
base admissibles (i.e. il existe des lments de base correspondant des bases
admissibles).
Si lensemble-contrainte dun programme linaire est dcrit comme en (5.16)
et si ce programme linaire a des solutions, alors il existe des lments de base
optimaux (i.e. il existe des lments de base correspondant des bases optimales).
170

V.3. La dualit en programmation linaire

Ainsi un polydre convexe ferm C dcrit comme en (5.16) a toujours des


points extrmaux, et si la forme linaire
c, est majore sur C, il y a toujours
au moins un point extrmal maximisant
c, sur C.

V.3. La dualit en programmation linaire


V.3.1. Formulations de problmes duaux
Commenons par un programme linaire crit sous forme canonique :

(P)

Maximiser
c, x
(D)
Ax  b

x0

Minimiser
b, y
A y  c

y0

(5.17)

(D) est appel problme dual (ou programme linaire dual ) de (P).
Dans le cas de programmes linaires (P) crits sous forme standard, les problmes duaux (D) se prsentent comme suit :

(P)

(P)

Maximiser
c, x
(D)
Ax = b

x0

Minimiser
b, y

Minimiser
c, x
(D)
Ax = b

x0

Maximiser
b, y

(5.18)
A y

c

(5.19)
A y

c

ct de la transformation symtrique (5.17), retenons dans les transformations asymtriques (5.18) et (5.19) les points suivants : maximiser
devient minimiser et vice versa ; les contraintes du type galit deviennent des
contraintes du type ingalit, il ny a plus de conditions de signe sur les variables
duales y.
171

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

V.3.2. Relations entre les valeurs optimales et les solutions


de programmes linaires en dualit
Theor`eme. Considrons

Maximiser
c, x
(P)
Ax  b

x0

et

(D)

Minimiser
b, y
A y  c

y  0.

(i) Si x est admissible pour (P) et si y est admissible pour (D), alors
c, x 

b, y .
(ii) Si x est admissible pour (P), si y est admissible pour (D) et si
c, x =

b, y , alors x est une solution de (P) et y est une solution de (D).


Revoyons ce mme thorme avec une autre forme de (P), et donc de (D).

Theor`eme. Considrons

Minimiser
c, x
(P)
Ax = b

x0

Maximiser
b, y
et

(D)

A y  c.

(i) Si x est admissible pour (P) et si y est admissible pour (D), alors
c, x 

b, y .
(ii) Si x est admissible pour (P), si y est admissible pour (D) et si
c, x =

b, y , alors x et y sont solutions de (P) et de (D) respectivement.


Revenons au couple (P) (D) de problmes en dualit du premier thorme,
cest--dire celui explicit en (5.17) ; on a leur sujet le rsultat fondamental
suivant :

Theor`eme. (i) Si lun des problmes (P) ou (D) a une valeur optimale nie, alors
il en est de mme de lautre, et les valeurs optimales sont gales.
(ii) Si le supremum dans (P) est +, alors lensemble-contrainte de (D) est
vide ; si linmum dans (D) est , alors cest que lensemble-contrainte de (P)
est vide.
Tous les cas possibles sont rassembls dans le tableau synoptique ci-dessous ;
pour englober tous les cas de valeurs optimales dans (P) ou (D) (+ et
ventuellement), on conviendra que inf = + et sup = .
172

V.3. La dualit en programmation linaire

Lensemble-contrainte
de (P) nest pas vide
(P) a des
solutions

(P) na pas
de solutions

Lensemble- (D) a
O.K.
contrainte
des
max = min Impossible
de (D)
solutions (P) (D)
nest pas
D na
vide
pas de Impossible Impossible
solutions

Lensemble
contrainte
de (P)
est vide
Impossible
inf dans (D) =
sup dans (P) =

sup dans (P) Cas pathologique


Lensemble-contrainte Impossible
=
possible :
de (D)
inf dans (D) sup dans (P) =
est vide
= +
inf dans (D) = +

V.3.3. Caractrisation simultane des solutions du problme primal


et du problme dual
Considrons par exemple le couple de problmes en dualit de (5.19) :

Minimiser
c, x
Maximiser
b, y
(P)
Ax = b
et (D)

x0
A y  c.

Theor`eme. Soient x et y des points admissibles pour (P) et (D) respectivement.


Alors :

+
) 
+
)
x est solution de (P)

aj , y cj xj = 0

,
et y est solution de (D)
pour tout j = 1, . . . , n


o les aj dsignent les vecteurs-lignes de A .


Une manire quivalente de dire ce qui est exprim dans lassertion de droite
de lquivalence est :
?  @


?  @

xj > 0 aj , y = cj et
aj , y < cj xj = 0 .
173

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

Rcrivons ce rsultat pour la formulation symtrique de programmes linaires


en dualit (de (5.17)) :

Maximiser
c, x
Minimiser
b, y
Ax  b
A y  c
(P)
(D)

y  0.
x0

Theor`eme. Soient x et y des points admissibles pour (P) et (D) respectivement.


Alors :


 

aj , y cj xj = 0

+
)
pour
tout
j
=
1,
.
.
.
,
n

x est solution de (P)

,
et

et y est solution de (D)

(
ai , x bi ) y i = 0
pour tout i = 1, . . . , m


o les ai (resp. les aj ) dsignent les vecteurs-lignes de A (resp. de A ).


Toujours pour le couple (P) (D) de (5.17), considrons le lagrangien
L : Rn Rm R
(x, y)  L(x, y) :=
c, x
y, Ax b
m

yi (
ai , x bi ) .
=
c, x
i=1

(Ici, dans (P), on maximise


c, x ou on minimise
c, x ce qui explique le
changement de signe par rapport au formalisme du chapitre IV et induit quelques
adaptations dans les dnitions et rsultats qui y sont rappels.)
n
m
n
Un point-selle (ou col) de L sur (R+ ) (R+ ) est un couple (x, y) (R+ )
m
+
(R ) tel que
 n  m
L(x, y)  L(x, y)  L(x, y) pour tout (x, y) R+ R+
(do L(x, y) = maxx0 L(x, y) = min L(x, y)).
y0

Theor`eme. Soient x (R+ ) et y (R+ ) . Il y a alors quivalence entre les


assertions suivantes :
n

(i) x est une solution de (P) et y est une solution de (D) ;


(ii) (x, y) est un point-selle de L sur (R+ ) (R+ ) .
Lorsque ceci a lieu
n

L(x, y) = max dans (P) = min dans (D).


174

V.3. La dualit en programmation linaire

Rfrences
[7] Concis et dense. Trs bon.
[26] [21], [22] et [24] contiennent de nombreux exemples simples et des illustrations ; elles intgrent la Programmation linaire dans un domaine plus vaste,
rpertori sous le vocable de Recherche Oprationnelle .
[27] Description et analyse des principales mthodes de rsolution numrique
des problmes de programmation linaire reposant sur lalgorithme du simplexe, ainsi que les programmes ncessaires leur mise en uvre sur microordinateur.
[28] [CS] Trs complets sur la question ; de vritables Bibles . Longtemps domine par les algorithmes du type mthode du simplexe , la rsolution
numrique des programmes linaires a subi un vritable rvolution avec lapport de N. Karmarkar (1984). Les techniques du type points intrieurs
(cf. lExercice V.25 pour une ide) commencent prendre place dans les
formations du niveau 2e cycle : voir le chapitre 4 de [8] et les chapitres XIII
et XIV de [24] par exemple. La 4e partie de [4] et les ouvrages [20] et [25]
sont consacrs pour lessentiel ces nouvelles approches.

* Exercice V.1. Soit lensemble-contrainte dun programme linaire dans R5 dcrit de la manire suivante :
6
2x1 + x2 + x3 = 8, x1 + 2x2 + x4 = 7, x2 + x5 = 3
xi  0 pour tout i = 1, . . . , 5.
1 ) Combien y a-t-il de bases au plus ? Quelles sont ces bases et les lments
de base associs ?
2 ) Dterminer toutes les bases admissibles.
Solution : Lensemble-contrainte est dcrit sous la forme
6
Ax = b
, avec A M3,5 (R) de rang 3.
x0
 
5
Il y a au plus
= 10 bases.
3
Bases

lments de base associs

Statut (admissible ou non)

J = {1, 2, 3}

x = (1, 3, 3, 0, 0)


x = 52 , 3, 0, 32 , 0

admissible

J = {1, 2, 4}

non admissible
175

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

J = {1, 2, 5}

x = (3, 2, 0, 0, 1)

admissible

J = {2, 3, 4}

admissible
non admissible

J = {3, 4, 5}

x = (0, 3, 5, 1, 0)


x = 0, 72 , 92 , 0, 12
x = (0, 0, 8, 7, 3)

admissible

J = {1, 3, 5}

x = (7, 0, 6, 0, 3)

non admissible

J = {1, 4, 5}

x = (4, 0, 0, 3, 3)

admissible

J = {2, 4, 5}

x = (0, 8, 0, 9, 5)

non admissible

J = {1, 3, 4}

nest pas une base.

J = {2, 3, 5}

* Exercice V.2. Soit n le simplexe-unit de Rn , cest--dire


6
;
n

xi = 1, xi  0 pour tout i = 1, . . . , n .
n := x = (x1 , . . . , xn ) Rn |
i=1

Dterminer tous les points extrmaux de n de la manire suivante :


.
Ax = b
, avec A Mm,n (R) de rang m et
dcrire n sous la forme
x0
b Rm ;
faire ensuite la liste des lments de base admissibles.
.
Ax = b
Solution : n peut tre dcrit sous la forme
, avec
x0
A = [1.......1] M1,n (R) (de rang 1) et b = 1. Il sensuit la liste des bases et
des lments de base :
Bases
{i} , 1  i  n

lments de base associs

Statut

ei = (0, . . . , 0, 1, 0, . . . , 0) , 1  i  n
lments de la base canonique de

Rn

Tous
admissibles.

e1 , . . . , en sont les (seuls) points extrmaux de n .


Commentaire : On peut, bien entendu, dmontrer directement les rsultats suivants :
n = conv{e1 , . . . , en } (il sut dcrire x = (x1 , . . . , xn ) n comme
n

xi ei ).
i=1

Tout ei est un point extrmal de n .


176

V.3. La dualit en programmation linaire

** Exercice V.3. Soit C un polydre convexe compact de Rn dcrit comme


{x Rn | Ax = b, x  0}, avec A Mm,n (R) de rang m. Montrer lquivalence
suivante :
)
+


Chaque element de C a au
Chaque sommet de C a

.
exactement m composantes > 0
moins m composantes > 0

Commentaire : On illustrera ce rsultat avec le simplexe-unit de Rn , cest--dire


avec
;
6
n

xi = 1, xi  0 pour tout i = 1, . . . , n .
C := x = (x1 , . . . , xn ) Rn |
i=1

Solution : []. Un sommet x de C est un lment de base admissible ; les nm


composantes hors-base sont donc nulles. Comme x, lment de C, a au moins
m composantes > 0, il en rsulte que x a exactement m composantes > 0.
[]. Un lment x de C est une combinaison convexe de points extrmaux xi de C :
x=

i x , avec i > 0 pour tout i et

i=1

i = 1.

(5.20)

i=1

Supposons que x ait l > n m composantes nulles et montrons que cela


conduit une contradiction. Soit J {1, . . . , k} de cardinal l tel que xj = 0
pour tout j J. Il vient de (5.20)
k

 
i xi j = 0 pour tout j J,

i=1

 
do xi j = 0 pour tout j J, ce qui voudrait dire que xi a l > n m
composantes nulles au moins. Ceci entre en contradiction avec le fait que xi a,
par hypothse, m composantes > 0.
Dans le cas du simplexe-unit C de Rn , les n points extrmaux ei de C ont
exactement 1 composante > 0, mais les lments de C peuvent avoir 1, 2, . . .
ou n composantes > 0.

177

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

** Exercice V.4. Soit C := {x Rn | Ax  b, x  0}, o A Mm,n (R), et


C := {(x, u) Rn Rm | Ax + u = b, x  0, u  0} .
Il y a ainsi une correspondance entre les points x de C et les points x
=

(x, u = b Ax) de C.
Montrer lquivalence suivante :


(x est extrmal dans C) (x, u = b Ax) est extrmal dans C .
Solution : Considrons x extrmal dans C. Posons u = b Ax, de sorte que
(x, u) soit le point de C correspondant x. Montrons que (x, u) est extrmal

dans C.
On va pour cela raisonner par labsurde : en supposant que (x, u) nest pas
on va tre conduit une contradiction.
extrmal dans C,
il existe ]0, 1[ , (x1 , u1 ) et (x2 , u2 )
Si (x, u) nest pas extrmal dans C,

dans C, (x1 , u1 ) = (x2 , u2 ), tels que


(x, u) = (x1 , u1 ) + (1 ) (x2 , u2 ) .
Cette dernire relation induit entre autres
x = x1 + (1 ) x2 ,
ce qui, en raison du caractre extrmal de x dans C, nest possible que si
x1 = x2 .
Mais alors u1 = b Ax1 = b Ax2 = u2 , do (x1 , u1 ) = (x2 , u2 ), ce qui
est contraire lune des proprits de dpart de (x1 , u1 ) et (x2 , u2 ) .

Donc (x, u) est bien extrmal dans C.


Rciproquement, soit (x, u) extrmal dans C et montrons que x est ncessairement extrmal dans C.
Raisonnons nouveau par labsurde. Supposons que x ne soit pas extrmal dans C : il existe ]0, 1[ , x1 et x2 dans C, x1 = x2 , tels que
x = x1 + (1 ) x2 .
Mais alors, puisque u = b Ax,
(x, u) = (x1 , b Ax1 ) + (1 ) (x2 , b Ax2 )
= z1 + (1 ) z2,
z1 = z2 . Ceci contredit le caractre extrmal de (x, u) dans C.

o z1 et z2 C,
Donc x est bien extrmal dans C.
178

V.3. La dualit en programmation linaire

Commentaire : Cette correspondance entre points extrmaux de C Rn Rm et


de sa projection C sur Rn est particulire ; elle est sans espoir pour des convexes
ferms en gnral (cf. Exercice VI.7).

* Exercice V.5. Soit C le polydre convexe ferm de R2 dcrit laide des ingalits suivantes :
8
x1 + x2  4, x1 + x2  2, 2x1  3, x1  0, x2  0.
3
1 ) crire C sous la forme standard (cest--dire comme la projection sur
x = b, x
 0).
R2 dun polydre convexe ferm C de R5 dquation : A

2 ) Quels sont les points extrmaux de C ? En dduire les points extrmaux


de C.
Grce une reprsentation
) + ) graphique
+ ) de
+ C,) on voit
+ )facilement
+
0
3/2
0
4/5
3/2
que les points extrmaux de C sont
,
,
,
,
. Le
0
0
3/2
6/5
1/2
but de lexercice est de retrouver ces points en utilisant la caractrisation des
points extrmaux dun polydre convexe ferm dquation : A
x = b, x
 0 (revoir
lExercice V.4 ce sujet).

Commentaire :

Solution : 1 ) En introduisant les variables dcart u1 , u2 , u3 , on peut dire :

(x = (x1 , x2 ) C) (Il existe u1 , u2 , u3 tels que (x1 , x2 , u1 , u2 , u3 ) C),


o C est dcrit comme suit :
6
x1 + 83 x2 + u1 = 4, x1 + x2 + u2 = 2, 2x1 + u3 = 3,
x1  0, x2  0, u1  0, u2  0, u3  0.

Les points extrmaux de C sobtiennent par projection sur R2 des points


extrmaux de C :
x = (x1 , x2 , u1 , u2 , u3 ) est extrmal
(x = (x1 , x2 ) est extrmal dans C) (
(cf. Exercice V.4).
dans C)
Comme C est dcrit sous la forme A
x = b, x
 0, avec A M3,5 (R) de
de reprer ses lments
rang 3, il sut, pour avoir les points extrmaux de C,
de base admissibles. Ce sont :


x = 32 , 12 , 76 , 0, 0 correspondant la base {1, 2, 3} ,


x = 45 , 65 , 0, 0, 75 correspondant la base {1, 2, 5} ,


x = 32 , 0, 52 , 12 , 0 correspondant la base {1, 3, 4} ,
x = (0, 0, 4, 2, 3) correspondant la base {3, 4, 5} ,


x = 0, 32 , 0, 12 , 3 correspondant la base {2, 4, 5} .
179

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

*** Exercice V.6. Soit A Mm,n (R), b Rm , et C le polydre convexe ferm


de Rn dcrit comme suit
C := {x Rn | Ax  b} .
On suppose : m  n, aucun des vecteurs-lignes ai de A nest nul.
Pour toute partie non vide I de {1, . . . , m} (de cardinal k par exemple), on
note :
AI la matrice extraite de A en ne conservant que les lignes de numro i I
(ainsi AI Mk,n (R)) ;
bI le vecteur extrait de b en ne conservant que les coordonnes de numro
i I (ainsi bI Rk ).
Soit x un point-frontire de C ; on dsigne par I (x) lensemble des indices
i {1, . . . , m} correspondant aux contraintes-ingalits actives en x, cest--dire
I (x) = {i |
ai , x = bi } .
Montrer que x est un point extrmal de C si et seulement si le rang de AI(x)
est gal n.

Solution : De par la structure de C on a :

n
C = {x R |
ai , x < bi pour tout i = 1, . . . , m} ;
/
.
frC = x C | max {
ai , x bi } = 0 = {x C | I(x) = } .
i=1,...,m

Soient x fr C et AI(x) la matrice extraite de A correspondante. Le rang


de AI(x) est un entier compris entre 1 et min (n, card I (x)) . On se propose de
montrer que x est un point extrmal de C si et seulement si le rang de AI(x)
est exactement n.



rang de AI(x) = n (x est un point extrmal de C) .
Supposons AI(x) de rang n et supposons que x ne soit pas extrmal dans C.
Il existe alors y et z dans C, y = z, et ]0, 1[ tels que x = y+(1 ) z.
Prenons i I (x) ; on a :

ai , x = bi ,
ai , y  bi ,
ai , z  bi .
Mais alors
ai , y bi =
ai , z bi = 0 ncessairement. Nous avons dmontr que I (x) I(y) I(z).
180

V.3. La dualit en programmation linaire

Maintenant, puisque AI(x) est de rang n, il existe I I (x) de cardinal n telle que la matrice AI ( Mn (R)) soit rgulire. Le systme AI u = bI
na quune seule solution, et comme il a t observ que AI x = bI , AI y =
bI , AI z = bI , il sensuit x = y = z ncessairement. Ceci entre en contradiction
avec une assertion du dbut du raisonnement. Lhypothse faite au dpart est
donc absurde : x est un point extrmal de C.



rang de AI(x) < n (x nest pas un point extrmal de C) .
Si rang de AI(x) < n, le systme AI(x) u = 0I(x) a une solution non nulle,
que nous notons u.
Si i
/ I (x) ,
ai , x < bi de sorte que

ai , x + u < bi et
ai , x u < bi
pour = 0 susamment petit. On prend = 0 faisant laaire pour tous
les i
/ I (x) .
Mais comme AI(x) (x u) = AI(x) (x) AI(x) (u) = bI(x) , on a
A (x u)  b en tout tat de cause. Il en rsulte que x + u et x u sont
dans C, et du coup x nest pas extrmal dans C puisque x = 1/2 (x + u) +
1/2 (x u) .
Commentaire : En un point extrmal x de C, on a card I (x)  n ; lorsque
card I (x) = n, le point x est appel point extrmal non-dgnr.
Le rsultat de 
lexercice
conduit un majorant du nombre de points ex
m
trmaux de C, cest
. Toutefois ce majorant est trs grossier en gnral, et
n
une autre majoration a t donne par McMullen en 1970 : le nombre de points
extrmaux de C est major par





n+2
n+1
m
m
+
,
2
2
e (m, n) :=
mn
mn
o [k] dsigne la partie 
entire
 de k. Cet entier e(m, n) est en gnral considram
blement plus petit que
.
n
On peut complter lexercice en cernant un peu plus les points extrmaux
non-dgnrs de C :
un point extrmal non-dgnr x a exactement n points extrmaux adjacents xi (cest--dire que les segments de droites joignant x aux xi sont des artes
de C) ;
181

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

si x est un point extrmal non-dgnr de C et si x1 , . . . , xn sont


ses points extrmaux adjacents, alors C est contenu dans le cne convexe
polydral de sommet x et de gnratrices x1 x, . . . , xn x (cest--dire
x + cne{x1 x, . . . , xn x}).

** Exercice V.7. Soit C un polydre convexe ferm de Rn .


1 ) On suppose ici que C est born ; plus prcisment on a
C = conv {v1 , . . . , vk } .
Montrer quun point extrmal de C est ncessairement lun des vi .
2 ) On suppose C dcrit de la manire suivante :
C = C0 + K,

(5.21)

o C0 est un polydre convexe compact et K un cne convexe ferm polydrique.


a) Montrer que tout point extrmal de C est ncessairement dans C0 et quil
est aussi extrmal dans C0 .
b) Donner un exemple de C dcrit comme en (5.21) mais sans point extrmal.
Quelle condition portant sur C (ou sur K) assurerait que C a eectivement
des points extrmaux ?
Solution : 1 ) Soit x un point extrmal de C. Si x nest pas lun des vi , il y
a l vecteurs vi , 2  l  k, tels que :
x=

i vi , 0 < i < 1 pour tout i et

i=1

i = 1.

i=1

Il sensuit
x = i0 vi0 + (1 i0 )


i = i0

i
vi ,
1 i0

et, par consquent, x nest pas extrmal (daccord ?).


Les points extrmaux de C gurent donc ncessairement parmi les vi (mais
tous les vi ne sont pas extrmaux dans C).
2 ) a) Soit x C, x = c0 + d avec c0 C0 et d K. Si d = 0, x ne saurait
tre extrmal dans C ; en eet
1
1
c0 + d = c0 + (c0 + 2d) ,
2
2
o c0 C, c0 + 2d C0 + 2K = C0 + K = C et c0 = c0 + 2d.
182

V.3. La dualit en programmation linaire

Donc, si x est extrmal dans C, il est donc dans C0 ncessairement ; et


comme C0 C, x est aussi extrmal dans C0 .
b) Considrons lexemple suivant dans R2 :

Figure 10.

C na pas de point extrmal ici. La raison en est que C contient une droite
entire.
On peut en eet montrer que si C ne contient pas de droite, cest--dire en
fait si K (K) = {0}, alors C a eectivement au moins un point extrmal.

** Exercice V.8. On considre dans Rn , n  2, le cne convexe ferm polydrique suivant :


K1 := {x = (x1 , . . . , xn ) Rn | x1  x2 . . .  xn } .
1 ) Reprsenter K1 sous la forme
{x Rn |
x, di  0 pour tout i = 1, . . . , p} ,
o d1 , . . . , dp sont des vecteurs de Rn dterminer.
2 ) Utiliser la reprsentation obtenue dans la question prcdente pour dmontrer que le cne polaire de K1 est
6
K1 =

y = (y1 , . . . , yn ) Rn |

yi  0 pour tout k = 1, . . . , n 1

i=1

et

;
yi = 0 .

i=1

3 ) Dduire de ce qui prcde des vecteurs a1 , . . . , aq tels que K1 =


cne {a1 , . . . , aq }.

183

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

Solution : 1 ) On observe que x = (x1 , . . . , xn ) K si et seulement si les


n 1 ingalits linaires suivantes sont vries :
x1 x2  0, x2 x3  0, . . . , xn1 xn  0,
cest--dire encore :

x, di  0 pour tout i = 1, . . . , n 1,
o di := (0, . . . , 0, 1, 1, 0, . . . , 0) .

(i + 1)e
ie
position position
2 ) Il vient de la reprsentation ci-dessus de K1 :
K1

6n1

;
i di | i  0 pour tout i = 1, . . . , n 1 .

i=1

Explicitons K1 . Un lment y = (y1 , . . . , yn ) de K1 a pour composantes


y1 = 1 , y2 = 2 1 , . . . , yn1 = n1 n2 , yn = n1 .
Il sensuit : y1  0, y1 + y2  0, . . . , y1 + . . . + yn1  0 et y1 + . . . + yn = 0.
Rciproquement, partant de y1 , . . . , yn vriant les conditions ci-dessus,
posons :
1 = y1 , 2 = y1 + y2 , . . . , n2 = y1 + . . . + yn2 et n1 = yn .
Il est clair que 1  0, 2  0, . . . , n2  0, n1 = y1 + . . . + yn1  0,
n1

i di .
et (y1 , . . . , yn ) =
i=1

On a donc dmontr lexpression annonce de K1 .


3 ) K1 peut aussi sexprimer de la manire suivante :
K1 = {y Rn |
y, i  0 pour i = 1, . . . , n + 1} ,
184

V.3. La dualit en programmation linaire

o les i sont les vecteurs de Rn suivants :


1 = (1, 0, . . . , 0)
2 = (1, 1, 0, . . . , 0) , . . . , n1 = (1, . . . , 1, 0)
n = (1, 1, . . . , 1) , n+1 = n .
Par suite

K1 = (K1 ) = cne {1 , . . . , n , n } .

*** Exercice V.9. On considre dans Rn , n  2, les cnes convexes ferms


polydriques suivants :
K2 := {x = (x1 , . . . , xn ) Rn | 0  x1  x2  . . .  xn } ;
4
2
 ...
K3 := x = (x1 , . . . , xn ) Rn | x1  x1 +x
2
5
x1 +...+xk
x1 +...+xn
 ... 
;

k
n
4
x1 +x2
n
K4 := x = (x1 , . . . , xn ) R | x1  2  . . .
5
n
k
 . . .  x1 +...+x
0 .
 x1 +...+x
k
n
Dterminer K2 , K3 et K4 .
Indication. Utiliser le rsultat de lexercice prcdent.
Solution : Soit K1 le cne convexe ferm polydrique de lexercice prcdent.
Le passage de K1 K2 se fait par lajout dune nouvelle ingalit linaire x1  0 , i.e.
x, dn  0 avec dn = (1, 0, . . . , 0) . Un lment
n

i di K2 a donc pour composantes
y = (y1 , . . . , yn ) =
i=1

y1 = 1 n , y2 = 2 1 , . . . , yn1 = n1 n2 , yn = n1 .
Sachant que les i sont tous positifs ou nuls, il sensuit :
yn  0, yn1 + yn  0, . . . , yk + . . . + yn  0, y1 + . . . + yn  0.
Rciproquement, partant de y1 , . . . , yn vriant les conditions ci-dessus,
posons :
n = (y1 + . . . + yn ) ,
n1 = yn , n2 = (yn1 + yn ) , . . . , k = (yk+1 + . . . + yn ) , . . . ,
1 = (y2 + . . . + yn ) .

185

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

On a :
i  0 pour tout i = 1, . . . , n
et
(y1 , . . . , yn ) =

i di .

i=1

Nous avons ainsi dmontr que


6
K2

y = (y1 , . . . , yn ) R |
n

;
yi  0 pour tout k = 1, . . . , n .

i=k

K3 a un air de ressemblance avec K1 ; en eet


(x K3 ) (Ax K1 ) ,

A :=

1 0 0 ... ...
1
2
1
3

1
2
1
3

1 1
n n

0 ... ...

3 0 ... .

..

1
... ... n

A est visiblement inversible. La relation

y, x  0 pour tout x K3 ,
caractrisant un lment y de K3 , est quivalente


y, A1 x  0 pour tout x K1 ,
soit encore
cest--dire
A1

186

?

A1



@
y, x  0 pour tout x K1,
 1 
y K1 .
A

est aise dterminer ici :

1 0
1 2

1
0 2
A =

..
.
0 0

0 0
0 0
3 0

...
...
...
..
.

(5.22)

0
0
0

. . . . . . (n 1) n

V.3. La dualit en programmation linaire

Connaissant K1 , la relation (5.22) se traduit par :


y1  y2 , y1 + y2  2y3 , y1 + y2 + y3  3y4 , . . .
. . . , y1 + . . . + yn1  (n 1) yn et y1 + y2 + . . . + yn = 0.

(5.23)

Un dernier eort pour montrer que (5.23) quivaut :


y1 

y1 +y2
2

y1 +y2 +y3
3

 ... 

y1 +...+yn
n

et y1 + . . . + yn = 0.
Finalement
6

(5.24)

y1 + . . . + yk
y1 + y2
 ... 
 ...
2
k
;
n

y1 + . . . + yn
et
yi = 0 .
... 
n

K3 = y = (y1 , . . . , yn ) Rn | y1 

i=1

En suivant une dmarche similaire, on arrive lexpression suivante de K4 :


6
y1 + . . . + yk
y1 + y2
 ... 
 ...
K4 = y = (y1 , . . . , yn ) Rn | y1 
2
k
/
y1 + . . . + yn
0 .
... 
n

Commentaire : Les cnes Ki interviennent en Statistique (rgression monotone)


o partir dun chantillon x1 , . . . , xn , on cherche x1 , . . . , xn ordonn dans un
certain sens (i.e. (x1 , . . . , xn ) Ki ) le plus proche possible de x1 , . . . , xn au sens
dune distance euclidienne. Voir lExercice III.24 par exemple.

** Exercice V.10. Soit C le polydre convexe ferm de Rn reprsent de la manire suivante :


C := {x Rn |
ai , x  bi pour i = 1, . . . , p,
et
ai , x = bi pour i = p + 1, . . . , q}.

187

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

Dterminer en tout x C le cne normal C ainsi que son intrieur


relatif (en fonction des donnes de la reprsentation de C et de I(x) :=
{i {1, . . . , p} |
ai , x = bi }).

Solution :
N (C, x) =

ti ai +

i=p+1

iI(x)

ti ai | ti  0 pour i I(x) .

Cest la somme (vectorielle) de deux ensembles : le cne convexe engendr par les ai , i I(x), et le sous-espace vectoriel engendr par les
ai , i {p + 1, . . . , q} .

ir N (C, x) =

ti ai +

iI(x)

q

i=p+1

ti ai | ti > 0 pour i I(x) .

* Exercice V.11. Soit B2 le sous-ensemble des matrices [aij ] i = 1, 2 M2 (R)


j = 1, 2

dni par :

2

([aij ] B2 )

i=1

aij  0 pour tout (i, j ) ;


aij =

.
aij = 1 pour tout (i, j )

j=1

Montrer que B2 est un segment de droite de M2 (R) dont on dterminera les


extrmits.

Solution : De par les conditions imposes, une matrice M de B2 est ncessairement de la forme


1
M=
, avec [0, 1] .
1

Ainsi M =

188


 
10
01
+ (1 )
, o [0, 1] .
01
10

V.3. La dualit en programmation linaire


10
Les deux matrices distinctes M0 :=
et M1 :=
01
extrmits du segment de droite B2 (ou encore les points


01
sont donc les
10
extrmaux de B2 ).

Commentaire : Les matrices [aij ] Mn (R) vriant




aij = 1,
aij = 1 pour tout (i, j)
aij  0,
i

sont appeles bistochastiques. Lensemble Bn de toutes les matrices bistochastiques


de taille n est un convexe compact de Mn (R) dont les points extrmaux sont les
matrices de permutation (une matrice de permutation est une matrice dont chaque
ligne et chaque colonne ne contiennent quun seul terme non nul, lequel vaut 1).
Ainsi, si n dsigne lensemble des n! matrices de permutation,
n = extr Bn et Bn = conv n .
Ce rsultat, d G. Birkho (1946), est illustr pour n = 2 dans lexercice.
Le plus petit sous-espace ane contenant Bn (i.e. le sous-espace ane engendr par Bn ) est de dimension (n 1)2 , une droite ane dans le cas de lexercice.
n
* Exercice V.12. On considre le cne
. mconvexe K de R engendr par les vec/

ti ai | ti  0 pour tout i = 1, . . . , m .
teurs a1 , . . . , am , cest--dire K :=
i=1

Montrer que K est ncessairement ferm.

Solution : 1er cas : a1 , . . . , am sont linairement indpendants.


On pose H := vect {a1 , . . . , am } ; H est un sous-espace vectoriel ferm
dont {a1 , . . . , am } constitue une base. Soit {xk } une suite dlments de K
ayant pour limite x.
m

tki ai avec tki  0 pour tout i, k, et que xk x dans H,
Puisque xk =
nous avons :

i=1

tki ti pour tout i; x =

ti ai .

i=1

Donc ti  0 pour tout i, et x K en fait.


2e cas : a1 , . . . , am sont linairement dpendants.
189

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

Il existe donc 1 , 2 , . . . , m non tous nuls tels que

m


i ai = 0. On sar-

i=1

range pour que I := {i | i < 0} ne soit pas vide. Tout vecteur x de K peut
alors scrire
.
/
m



ti
ti + ti ai , o t := min
(0) .
x=
iI
i
i=1

Par choix de t, ti + ti  0 pour tout i, mais lun dentre eux au moins est
nul, disons celui correspondant i0 . Ainsi

C

i ai | i  0 pour tout i = i0 .
v|v=
K=

i0 =1

i = i0

On ritre le procd jusqu exprimer K comme runion nie de cnes


convexes engendrs par des familles libres de vecteurs, donc ferms daprs le
rsultat du 1er point.

** Exercice V.13. Rn est muni de la base canonique {e1 , e2 , . . . , en } et du produit


scalaire canonique not
., . . tant donns A Mm,n (R), b Rm et c Rn
(de coordonnes cj ), on considre le programme linaire suivant :
6
Minimiser
c, x
(P L)
x C := {x  0 : Ax = b} .
On suppose C = et := inf
c, x > . Lobjet de lexercice est de
xC

dmontrer directement que (P L) a alors une solution (au moins). On pourra


utiliser librement le rsultat suivant : si v1 , . . . , vp sont des vecteurs de Rq , alors
le cne convexe de Rq engendr par v1 , . . . , vp , i.e.

j vj : j  0 pour tout j
cne {v1 , . . . , vp } :=

j=1

est ferm.
!c , . . . , c "
1
n
Mm+1,n (R) et dsignons par K le cne convexe de
Soit A :=
A
m+1
engendr par les vecteurs Ae1 , . . . , Aen .
R
190

V.3. La dualit en programmation linaire

On considre {xk } une suite minimisante pour (P L), i.e. vriant : xk C


pour tout k et
c, xk quand k +.
1 ) Vrier que Axk K pour tout k.
2 ) En dduire quil existe  0 dans Rn tel que =
c, et b = A.
Conclure.
Solution : 1 ) Puisque xk =

n

j=1

(xk )j ej et A est linaire, Axk =

Comme tous les (xk )j sont dans R+ , on a bien

n

j=1

(xk )j Aej .

Axk K pour tout k.







c, xk

c, xk
et que la suite {Axk }
=
2 ) Notons que Axk =
Axk
b
 

.
converge, quand k +, vers
b
Le cne K tant ferm, la limite de {Axk } se trouve encore dans K.
n
Ainsi, il existe = (1 , . . . , n ) (R+ ) tel que
 
n

j Aej ,
=
b
j=1


cest--dire, puisque Aej =


cj
,
Aej

j cj et b = A.

j=1

Donc C et
c, = = inf xC
c, x ; en clair est une solution
de (P L) .

** Exercice V.14. Soient c = (c1 , . . . , cn ) Rn , a = (a1 , . . . , an ) Rn et b0 R


tels que :
b0 > 0 et cj > 0, aj > 0 pour tout j = 1, . . . , n.
On considre le programme linaire suivant :
6
Max
c, x
(P)
x C := {x Rn |
a, x  b0 , xj  0 pour tout j = 1, . . . , n} .
191

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

1 ) Vrier que C nest pas vide et est born.


2 ) Quels sont les points extrmaux de C ?
3 ) Dcrire la face de C constitue de lensemble des solutions de (P).
4 ) Illustrer les rsultats prcdents en faisant n = 3, a1 = a2 = a3 = b0 =
1, et en choisissant successivement c = (0, 0, 1) , c = (0, 1, 1) et c = (1, 1, 1) .

Solution : 1 ) C nest pas vide puisque (0, . . . , 0) y appartient. De plus, C


est born puisque


b0
pour tout j = 1, . . . , n .
(x = (x1 , . . . , xn ) C) 0  xj 
minj aj
2 ) 1re mthode. Dcrivons C sous la forme standard. Pour cela posons
C := {(x, u) Rn R |
a, x + u = b0 , x  0, u  0} .
Les points extrmaux de C sont faciles dterminer ; les points extrmaux
de C sensuivront (cf. Exercice V.4).

Dans lquation
x1
..

[a1 . . . an 1] . = b0,
xn
u
les lments de base admissibles sont :
n
 % &#
$ 
0, . . . , 0, b0 correspondant la base {n + 1} ;


0, . . . , 0, ab0j , 0, . . . , 0 correspondant la base {j} , 1  j  n.

Ce sont les points extrmaux de C.


Par suite, les points extrmaux de C sont


b0
(0, . . . , 0) , 0, . . . , 0, , 0, . . . , 0 , 1  j  n. (Il y en a n + 1 au total.)
aj
2e mthode. crivons C sous la forme Ax  b o

b0


0
a . . . an

Mn+1,n (R) et b := . ,
A := 1
In
..
0
et utilisons le rsultat de lExercice V.6.
192

V.3. La dualit en programmation linaire

Pour extraire de A une matrice AI(x) de rang n, il ny a pas beaucoup de


choix :
AI(x) = In , ce qui correspond x = 0 ;
AI(x) a [a1 , . . . , an ] pour premire ligne et n 1 lignes prises dans In ;
ceci revient, pour x, avoir n 1 composantes nulles (mettons, toutes sauf
la j e ) et aj xj = b0 (relation qui vient de
a, x = b0 ).
3 ) Les points extrmaux de C, solutions de (P), sont ceux de la forme
c b
c b
(0, . . . , 0, abj0 , 0, . . . , 0), o aj0j 0 = maxj aj j0 ; supposons quil y en ait k.
0
0
Par consquent, la face-solution de (P) est lenveloppe convexe de ces k points
extrmaux.
4 ) Si a1 = a2 = . . . = an = b0 = 1, les points extrmaux de

C :=

x = (x1 , . . . , xn ) Rn |

xj  1, xj  0 pour tout j = 1, . . . , n

j=1

sont 0 et les n vecteurs de base canonique e1 , . . . , en .


Pour n = 3, les choix successifs de c conduisent une face-solution de (P)
qui est :
le sommet (0, 0, 1) lorsque c1 = (0, 0, 1) ;
larte de C joignant (0, 0, 1) (0, 1, 0) lorsque c2 = (0, 1, 1) ;
la facette de C enveloppe convexe de (0, 0, 1) , (0, 1, 0) et (0, 0, 1) lorsque
c3 = (1, 1, 1) .

Figure 11.

193

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

** Exercice V.15. Soient n rels xs x1 , . . . , xn et considrons n coecients


rels 1 , . . . , n vriant :
0  i  1 pour tout i = 1, . . . , n et

(I)

i = m,

i=1

o m est un entier compris entre 1 et n.


Dsignons par xi1 , . . . , xim les m plus grands nombres parmi les x1 , . . . , xn .
1 ) Montrer par un calcul direct que
n

i xi  xi1 + . . . + xim .

(5.25)

i=1

2 ) Soit m le polydre convexe compact de Rn constitu de tous les =


(1 , . . . , n ) vriant (I) .
a) Dterminer les points extrmaux (ou sommets) de m .
b) En dduire (5.25) .

Solution : 1 ) Quitte changer lindexation, on suppose x1  x2  . . . 


xm  xm+1  . . .  xn .
Si m = n, il ny a rien dmontrer. Supposons donc m < n.
m
n


(1 i ) =
i , nous avons :
Comme
i=1
n

i=m+1

)
i xi 

i=m+1

i=m+1

xm =

(1 i ) xm 

i=1

(1 i ) xi .

i=1

Do
n

i=1

i xi =

m

i=1

i xi +

n

i=m+1

i xi 

m

i=1

i xi +

m

i=1

(1 i ) xi =

xi .

i=1

2 ) a) Les points extrmaux de m sont de la forme (1 , . . . , n ) avec :


toutes les coordonnes i sont nulles sauf m dentre elles qui sont gales 1
(daccord ?).
Illustration pour n = 3.
194

V.3. La dualit en programmation linaire

Figure 12.

1 de sommets (0,0,1), (0,1,0), (0,0,1)


2 de sommets (0,1,1), (1,0,1), (1,1,0)
3 = {(1, 1, 1)}.
b) Appelons Em lensemble des points extrmaux de m et
x, la forme
n

i xi . Le maximum de
x,
linaire sur Rn dnie par
x, (1 , . . . , n ) =
i=1

est le mme sur m et sur Em :

max
x, = max
x, .

Em

Au vu de lexpression des Em , ce dernier maximum est la somme des


m plus grands nombres parmi les x1 , . . . , xn .

** Exercice V.16. Soit C un polydre convexe ferm de Rn . Pour tout d Rn ,


on note F (d) la face de C expose par d, cest--dire
/
.
F (d) = x C |
x, d = max
x, d .
xC

1 ) Soit d Rn . Montrer quil existe un voisinage V de d tel que


F (d) F (d) pour tout d V.
2 ) On considre le programme linaire suivant :
.
Max
x, d
(P)
x C.
Quelle consquence pour la rsolution de (P) peut-on tirer du rsultat de la
1re question ?
195

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

Indication. Pour rpondre la 1re question on pourra


raisonner par labsurde,
utiliser dans le raisonnement le fait que C a un nombre ni de faces.
Solution : 1 ) Raisonnons par labsurde. Supposer le contraire de lassertion
que lon veut prouver revient supposer quil existe une suite (dk ) convergeant
vers d telle que :
k, F (dk ) nest pas inclus dans F (d).

(5.26)

Puisque C a un nombre ni de faces, il existe une sous-suite de (dk ) , note


(dkl )l , et une face F de C telles que
F (dkl ) = F pour tout l.
Soit y quelconque dans F. Alors, pour tout l :

y, dkl 
x, dkl pour tout x C.
Un passage la limite sur l (l +) conduit :

y, d  x, d pour tout x C,

soit encore : y F (d).


Nous avons donc prouv que F F (d), ce qui entre en contradiction avec
(5.26) .
2 ) Soit (dk ) convergeant vers d et soit (Pk ) le programme linaire suivant :

(Pk )

196

6
Max
x, dk
x C.

V.3. La dualit en programmation linaire

Du rsultat de la 1re question, il vient ceci : pour k susamment grand,


lensemble des solutions de (Pk ) est contenu dans lensemble des solutions (P).

Figure 13.

** Exercice V.17. Soit C le polydre convexe compact de R4 dcrit comme suit :

x1 + 43 x2 + 2x3 = 32

x2 + 3x3 = 32

x1 + x2 + x3 + x4 = 1

x  0, . . . , x  0.
1
4
1 ) Lister les points extrmaux de C.
2 ) Rsoudre
(P)

4
3

6
Min 3x1 + x2 + x3 + x4
(x1 , x2 , x3 , x4 ) C.

1
), on remplace 43 par
3 ) Pour > 0 susamment petit (disons 0 < < 10
re
dans la 1 quation dnissant C, ce qui donne un nouveau polydre C .
Rsoudre prsent
6
Min 3x1 + x2 + x3 + x4
(P )
(x1 , x2 , x3 , x4 ) C .

Conclusions ?

197

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

Solution : 1 ) C est dcrit sous la forme : Ax = b, x  0, avec A M3,4 (R)


de rang 3 ; les lments de base admissibles (et donc les points extrmaux de C)
sont :


3 1
correspondant la base {2, 3, 4} ,
0, , , 0
4 4


1
1
, 0, , 0
correspondant la base {1, 3, 4} .
2
2


2 ) x = 0, 34 , 14 , 0 est la seule solution de (P), et val(P) = 1.
3 ) On a introduit une lgre perturbation dans un des coecients de A,
par exemple 43 est remplac par 1,333333. Il sensuit par des calculs similaires
ceux de la question
prcdente que la (seule) solution de (P ) est prsent

x = 12 , 0, 12 , 0 , et la valeur optimale correspondante val(P ) = 2.
Il ny a donc pas, en gnral, de continuit 6
de la valeur optimale ou
Min
c, x
de lensemble-solution dun programme linaire
considrs
Ax = b, x  0
comme fonctions des coecients de A.

** Exercice V.18. tant donns a1 , . . . , am dans Rn , b1 , . . . , bm dans R, et le


systme dquations

a1 , x b1 = 0

a , x b = 0
2
2
(S)

...

am , x bm = 0,
on cherche le (ou les) point(s) minimisant
x  f (x) := maxi=1,...,m |
ai , x bi | sur Rn (problme appel (P1 ) dans
la suite).
1 ) Que reprsente gomtriquement |
ai , x bi | lorsque  ai  = 1 ?
Quelle est la signication gomtrique du problme pos ci-dessus lorsque
tous les ai sont de norme gale 1 ?
2 ) Formaliser (P1 ) comme un problme de programmation linaire, et en
tirer toutes les consquences.

198

V.3. La dualit en programmation linaire

Solution : 1 ) Lorsque  ai  = 1, |
ai , x bi | reprsente la distance (euclidienne) du point x lhyperplan Hi dquation
ai , x bi = 0.
Lorsque tous les ai sont des vecteurs unitaires, le problme pos revient
donc chercher les points x de Rn minimisant la plus grande des distances de
x aux hyperplans Hi .
2 ) tant donn que |
ai , x bi | = max (
ai , x bi , bi
ai , x ), chercher
x Rn rendant maxi |
ai , x bi | le plus petit possible revient chercher
(x, y) Rn R vriant

ai , x bi  y

ai , x + bi  y

pour tout i = 1, . . . , m,

avec y le plus petit possible.


Considrons donc le programme linaire suivant, pos dans Rn R :

Min y

A
(P)

x1
b1
.. .
. ..

..
. bm
,

.. b1
. .
.
.
xn
bm
y

1
..
.
1
1
..
.

o A Mm,n (R) est la matrice dont les vecteurs-lignes sont les ai .


Une solution (x, y) de (P) fournit une solution x de (P1 ) et sa valeur optimale minn max |
ai , x bi | = max |
ai , x bi | .
xR

Lensemble-contrainte de (P) nest pas vide (il sut de prendre x Rn


quelconque et y = maxi |
ai , x bi |), et tout y de cet ensemble-contrainte
est  0.
La fonction-objectif (linaire) est borne infrieurement sur le polydrecontrainte, donc elle y atteint sa borne infrieure : (P) et donc (P1 ) a une
solution.
Pour rsoudre numriquement (P1 ), une possibilit intressante est donc
de rsoudre le programme linaire (P) associ.

199

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

** Probl`eme V.19. Dans tout le problme, C dsigne un polydre convexe ferm


non vide de Rn .
1re partie. On suppose ici que C est reprsent de la manire suivante :
C := {x Rn | Ax  b} , o A Mm,n (R) et b Rm .

(5.27)

1 ) a) Montrer que le cne asymptote C de C est


C = {d Rn | Ad  0} .
b) En dduire que C est born si, et seulement si, le systme dinquations
Ad  0 na que la solution d = 0.
2 ) Montrer lquivalence des deux assertions suivantes :
(i) {d Rn | Ad  0} = {0} ;
(ii) Pour tout c Rn , le systme dquations A y = c a une solution y  0.
2 e partie. On suppose que C a la reprsentation suivante :
C := C0 + K + L,

(5.28)

o
C0 = conv {u1 , . . . , us } est un convexe compact (de Rn ),
K = cne {v1 , . . . , vr } un cne convexe ferm,
L = vect {w1 , . . . , wp } un sous-espace vectoriel.
On considre le programme linaire suivant :
(P)

6
Minimiser
c, x ,
xC

o c Rn est donn.
1 ) Montrer que la fonction f : x  f (x) :=
c, x est borne infrieurement
sur C si, et seulement si,
(C)
200

c, vi  0 pour tout i = 1, . . . , r et

c, wj = 0 pour tout j = 1, . . . , p.

V.3. La dualit en programmation linaire

2 ) Montrer que sous la condition (C), lensemble des solutions de (P) est
dcrit comme suit :
.
p



i ui +
j vj +
k wk ;
= xC|x=
iI1

jJ2

k=1

i  0,

/
i = 1, j  0, k R ,

iI1

4
5
o I1 := i |
c, ui = f , J2 := {j |
c, vj = 0} , f := inf xC f (x).
3 ) On suppose K = L = {0}, cest--dire C = C0 born, et = C.

c, ui f
, o d dsigne la fonction-distance .
On pose alors : := min
d (ui )
iI
/ 1
(5.29)
Montrer que : x C0 , d (x)  c,x f

(on pourra utiliser la convexit de la fonction d ).


On admettra pour la suite que le rsultat de cette question est encore valable
pour un C dcrit en (5.28) (non ncessairement born), et que tout C dcrit
comme en (5.27) peut tre reprsent sous la forme (5.28) .
3 e partie. On revient la reprsentation (5.27) de C, et on considre le
programme linaire suivant (dans Rn Rm Rm ) :

Minimiser
ti

i=1

(P L)

ai , x bi = ti zi pour i = 1, . . . , m

(les ai dsignent les vecteurs-lignes de A)

ti  0, zi  0 pour i = 1, . . . , m.
1 ) Vrier que pour tout x Rn , le vecteur (x, (Ax b)+ , (b Ax)+ ) est
admissible pour (P L) .
2 ) tablir que toute solution de (P L) est de la forme (x, 0, b Ax), o
x C.
En dduire, laide du rsultat de la 3e question de la 2e partie, quil existe
> 0 tel que :
m
1
(
ai , x bi )+ .
(5.30)
x Rn , dC (x) 

i=1

201

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

Solution : 1re partie


1 ) a) Soit x0 quelconque dans C. On rappelle :
(d C ) (x0 + td C pour tout t > 0) .
Dans le cas prsent, d C si et seulement si Ax0 + tAd  b pour tout
t > 0.
De faon vidente, (Ad  0) (d C ). Rciproquement, soit d C et
supposons (Ad)i0 > 0 pour un certain i0 . Alors
(Ax0 + td)i0 = (Ax0 )i0 + t (Ad)i0  b pour tout t > 0
est contredit.
b) (C born) (C = {0}) . Pour obtenir le rsultat annonc, il sut de
traduire ceci avec lexpression de C obtenue prcdemment.
2 ) Soient a1 , . . . , am les vecteurs-lignes de A. Dire que A y = c a, pour
tout c Rn , une solution y  0 , revient dire que cne{a1 , . . . , am } = Rn .
Grce au lemme de Minkowski-Farkas, cela quivaut
{d Rn |
ai , d  0 pour tout i = 1, . . . , m} = {0} .
2 e partie. Soit x C,
x=

s

i=1

avec :

i  0

i ui +

j vj +

j=1

k wk ,

k=1

pour tout i, 1 + . . . + s = 1 ;

(5.31)
pour tout j ; k R pour tout k.



i
c, ui +
j
c, vj +
k
c, wk avec les
1 ) Puisque
c, x =
j  0

contraintes sur i et j nonces ci-dessus, il vient facilement :

c, vj  0 pour tout j = 1, . . . , r



et

c, x  f pour tout x C
.

c, wk = 0 pour tout k = 1, . . . , p
Ceci est une manire de dire que c doit se trouver dans le cne normal
K et dans le sous-espace orthogonal L.
2 ) On suppose que la condition (C) est vrie. Le problme (P) a alors
des solutions
 ; il est, en eet, clair que tout x est solution de (P) car
i
c, ui = f .

c, x =
iI1

202

V.3. La dualit en programmation linaire

Rciproquement, soit x =
on a :

i ui +

i
c, ui +


j

j
c, vj 

j vj +

k wk une solution de (P) ;

i
c, ui +

j
c, vj = f

pour tout (1 , . . . , r ) et (1 , . . . , s ) vriant les conditions dcrites en (5.31) .


Avoir j > 0 et
c, vj > 0 est impossible car cela contredirait le caractre
C qui ferait mieux que x,
optimal de x (on construirait facilement un x

c, x
< f ).

 
i
c, ui f = 0
Ensuite, sachant que
c, ui  f pour tout i, lgalit
i

ne soure pas quon puisse avoir simultanment i > 0 et


c, ui f > 0.
Donc x est bien dans .
3 ) Ici C = C0 = conv{u1 , . . . , us } . Puisque = C, il existe un i pour
s

i ui C0 ,
lequel
c, ui > f . De par la convexit de , lorsque x =
d

) s

i=1

+
i ui

i=1

i d (ui ) .

i=1

Nous avons deux cas possibles :


i I1 , ce qui revient ui , auquel cas d (ui ) = 0 ;
i
/ I1 , auquel cas d (ui )  c,ui f .
En consquence,

c, ui f

c, x f


i
d (x) 

iI
/ 1

3 e partie
Le programme linaire (P L) est pos dans Rn Rm Rm en les variables
x1 , . . . , xn , t1 , . . . , tm , z1 , . . . , zm .
1 ) Pour x quelconque dans Rn , posons pour i = 1, . . . , m
ti := (
ai , x bi )+ , zi := (bi
ai , x )+ .
Le vecteur


x1 , . . . , xn , (
a1 , x b1 )+ , . . . , (
am , x bm )+ ,


b1
a1 , x )+ , . . . , (bm
am , x )+

est admissible pour (P L) .


2 ) On a par dnition mme de C : (x C) ((Ax b)+ = 0).
203

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

Si x C, i.e. si t := (Ax b)+ = 0 et z := bAx, le point (x, 0, b Ax) est


solution de (P L) puisque la valeur de la fonction-objectif
positive)

 (toujours
en ce point est nulle. Rciproquement, en une solution x, t, z de (P L), on


doit avoir
ai , x bi = ti z i = (
ai , x bi )+ (bi
ai , x )+ pour tout
i = 1,
 ; si
ai , x bi > 0 pour un certain i, on pourrait faire mieux
 ...,m
C et le point (
x, t := 0, z := bA
x) correspondant.
que x, t, z en prenant x
Donc x C en fait et t = 0, z = b Ax.
La valeur du programme (P L) est 0 et la valeur de sa fonction-objectif en
m



(
ai , x bi )+ . Il rsulte
un point x, (Ax b)+ , (b Ax)+ , x Rn , est
i=1

alors de la 3e question de la 2e partie, lexistence de > 0 tel que :


x Rn ,



dC (x)  d x, (Ax b)+ , (b Ax)+
m
1
(
ai , x bi )+ .


i=1

** Exercice V.20. Soit C := {x Rn | Ax  b, x  0} un polydre convexe


que lon suppose born. On considre le problme doptimisation fractionnaire
suivant :

Min
c, x +

d, x + ,
(P)

xC
o c et d sont des vecteurs de Rn , et des rels, et o on suppose que

d, x + > 0 pour tout x C.


On se propose de rsoudre (P) par lintermdiaire du programme linaire
(en la variable (c, z) Rn R) suivant :

Min
c, y + z

Ay zb  0
 
P

d, y + z = 1

y  0, z  0.
alors z > 0 ncessairement.
1 ) Montrer que si (y, z) est admissible pour (P),
alors x := y/z est une
2 ) Dmontrer que si (y, z) est une solution de (P),
solution de (P).

204

V.3. La dualit en programmation linaire

; (y, z) = (0, 0) en raison de la


Solution : 1 ) Soit (y, z) admissible pour (P)
contrainte
d, y + z = 1 ; donc si on suppose z = 0, alors y = 0. Mais alors
on aurait un y = 0 vriant y  0 et Ay  0, cest--dire une direction non
nulle dans le cne asymptote de C. Ce qui contredit le caractre born de C.
x := y/z  0 et Ax  b. Donc x C.
2 ) Si (y, z) est une solution de (P),
Montrons que x est eectivement une solution

 de (P).
x
1
, d,x +
est admissible
Considrons x C ; alors le couple d,x +

et comme (y, z) est une solution de (P),


pour (P),

c, y + z 

,
c,

d, x +

c, x +
=

d, x +

d, x +

Divisons le membre de gauche par 1 =


d, y + z pour obtenir

c, y + z =

c, x +

c, y + z
=

d, y + z

d, x +

Do le rsultat annonc.

* Exercice V.21. Considrons le programme linaire (P) suivant dans R5 :



4

5
21100
8
Max
c, x

, b = 7 .
(P)
Ax  b
, o A = 1 2 0 1 0 , c =
0

x  0
0
3
01001
0
Quel est le problme dual (D) de (P) ?
Vrier que x = (3, 2, 0, 0, 1) et y = (1, 2, 0) sont solutions de (P) et (D)
respectivement.
Solution : Le problme dual (D) de (P) secrit :

Min
b, y
(D)
A y  c

y  0.
On constate que les x et y proposs sont admissibles pour (P) et (D) respectivement, avec, de plus, lgalit
c, x =
b, y = 22. En consquence, x et
y sont solutions de (P) et (D) respectivement.
205

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

* Exercice V.22. Montrer que si le programme linaire


6
Max
c, x
(P)
Ax = 0, x  0
a une valeur optimale nie, alors x = 0 est certainement solution de (P).

Solution : Lensemble-contrainte de (P) nest pas vide (il contient 0) et, par
hypothse, val(P) < +.
Le problme dual de (P) scrit :
(D)

6
Min
0, y
A y  c

et donc 0 = val(D) = val(P).


Par consquent, x = 0 est une solution de (P).

** Exercice V.23. Soit le programme linaire suivant dans R4 :

Min 3x1 + 4x2 + x3 + x4

x1 + x2 + x3 x4  2
, o est un paramtre rel.
(P )

2x1 + 2x2 + x3 + x4 

x1  0, . . . , x4  0
1 ) crire le problme dual (D ) de (P ).
2 ) Rsoudre (D ) suivant les valeurs de ; en dduire les solutions de (P ).

Solution : 1 ) (D ) se formule comme suit :

(D )

206

Max 2y1 + y2

y 2y  3, y + 2y  4,
1
2
1
2

y1 + y2  1, y1 + y2  1,

y1  0, y2  0.

V.3. La dualit en programmation linaire

2 ) (D ) est un programme linaire dans R2 ; il se rsout graphiquement :


Valeur du paramtre
<2
=2
>2

Solutions
y = (1, 0)
{y = (y1 , 1 y1 ) | 0  y1  1}
y = (0, 1)

Valeur optimale
2
2

On est dans une situation o val(P ) = val (D ).


Les deux premires contraintes de (D ) sont inactives en y solution de
(D ) ; donc x1 = x2 = 0 ncessairement pour toute solution x = (x1 , x2 , x3 , x4 )
de (P ).
Sachant cela et connaissant val(P ), on dtermine x3 et x4 .
< 2. On cherche x3 et x4 tels que
x3 + x4 = 2, x3 x4  2,
x3 + x4 
x3  0, x4  0.
Il sensuit x3 = 2 et x4 = 0. La seule solution de (P ) est donc
x = (0, 0, 2, 0) .
 2. Les solutions x de (P ) sont de la forme
x = (0, 0, , ) , avec 1 +

  .
2

Cest donc une arte du polydre des contraintes, qui se rduit un sommet
pour = 2.

** Exercice V.24. 0n considre le programme linaire suivant :

Minimiser x1 + 2x2 + 3x3 + . . . + nxn


x1  1, x1 + x2  2, x1 + x2 + x3  3, . . . , x1 + x2 + . . . + xn  n,
(P)

xi  0 pour tout i = 1, 2, . . . , n.
1 ) Dcrire dune manire dtaille le problme dual (D) de (P).
2 ) Montrer que tout lment admissible y = (y1 , . . . , yn ) de (D) (et donc
toute solution de (D)) vrie
yk + yk+1 + . . . + yn < k

pour tout k = 2, . . . , n.
207

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

Dduire de ce qui prcde et des relations liant les solutions de (P) et de


(D) les valeurs x2 , x3 , . . . , xn de toute solution x = (x1 , x2 , . . . , xn ) de (P).
3 ) Rsoudre compltement (P).

Solution : Commenons par visualiser le cas o n = 2.

Figure 14.

(P) consiste minimiser


c, x sous les contraintes Ax  b, x  0, o



1
1

2
2

b = . , c = . et A =
.
.

.
.

n
n

1 0 0 ...
1 1 0 ...
1 1 1 0
..
..
.
.
1 1 1 ...

...
...
...

1 ) Le problme dual de (P) consiste maximiser


b, y sous les contraintes
 c et y  0, soit :

Maximiser y1 + 2y2 + . . . + nyn

y1 + y2 + . . . + yn  1

y2 + . . . + yn  2

y3 + . . . + yn  3
(D)

...

yn  n

yi  0 pour tout i = 1, 2, . . . , n.

A y

208

V.3. La dualit en programmation linaire

(1, 1, . . . , 1) est admissible pour (P), (0, . . . , 0) est admissible pour (D) :
donc
val(P) = val(D) R.
2 ) Soit y = (y1 , . . . , yn ) admissible pour (D). Pour k  2,
yk + yk+1 + . . . + yn  y1 + . . . + yn (puisque tous les yi sont  0)
(daprs la 1re contrainte de
1
type ingalit dans (D).)
< k.
Daprs les relations de complmentarit liant les solutions du problme
primal (P) et celles du dual (D), on a :

)
+
x = (x1 , . . . , xn ) solution de (P)
[
ak , y ck ] xk = 0

.
et

pour tout k = 1, . . . , n
y = (y 1 , . . . , y n ) solution de (D)
Or, ici,
ak , y = yk + yk+1 + . . . + yn < k = ck pour tout k = 2, . . . , n. En
consquence, xk = 0 pour tout k = 2, . . . , n.
3 ) Si x est solution de (P),
c, x = x1 . Rsoudre (P) revient donc minimiser x1 sous les contraintes x1  1, x1  2, . . . , x1  n et x1  0 ; do
x1 = n.
La solution de (P) est donc x = (n, 0, . . . , 0), et val(P) = val(D) = n.

*** Exercice V.25. On considre le programme linaire suivant

Minimiser
c, x
(P) Ax = b
, o c Rn , b Rm et A Mm,n (R),

x0
et son problme dual
(D)

6
Maximiser
b, y
A y  c

prsent sous la forme standard dans Rm Rn :

Maximiser
b, y

(y Rm , u Rn ).
(D)
A y + u = c

u0
209

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

On suppose que les ensembles-contraintes de (P) et de (D) ne sont pas vides


(hypothse qui sera renforce par la suite) et que A est de rang m.
1 ) Vrier que si x est admissible pour (P) et si (y, u) est admissible
alors :
pour (D),

x, u  0,
et

(
x, u = 0) (x est solution de (P) et (y, u) est solution de (D)).
:
En dduire la caractrisation suivante des solutions de (P) et de (D)

x est solution de (P)


Ax = b, x  0

(SO)
A y + u = c, u  0 .
et

x, u = 0
(y, u) est solution de (D)
i.e.
Dsignons par C lassociation des ensembles-contraintes de (P) et de (D),


C := (x, y, u) Rn Rm Rn | Ax = b, x  0, A y + u = c, u  0 ,
le couplage des problmes (P) et (D)
suivant :
et par (P D)
6
Minimiser
x, u

(P D)
(appel problme primal-dual ).
(x, y, u) C
Pour toute la suite on fait les hypothses que voici : A est de rang m et il existe
(x, y, u) C tel que x > 0 et u > 0 (v > 0 dans Rn signie que toutes les
composantes vi de v sont > 0).
par pnalisation
tant donn > 0, on propose une approximation de (P D)
intrieure (ou addition dune fonction-barrire) dnie comme suit :
6
Minimiser f (x, y, u)

(P D)
(x, y, u) C0 ,
o C0 := {(x, y, u) C | x > 0 et u > 0} et f : (x, y, u) C0  f (x, y, u) :=
n

ln(xi ui ).

x, u
i=1

2 )

a au plus une solution et que cette solution est


Montrer que (P D)
caractrise comme suit :

+
)
Ax() = b
(x(), y(), u()) est

(SO)
A y() + u() = c
.

solution de (P D)
x()i u()i = pour tout i
210

V.3. La dualit en programmation linaire

a eectiveOn admettra que, sous les hypothses qui ont t faites, (P D)


ment une solution (x(), y(), u()) et que (x(), y(), u()) a une limite quand
0, limite qui sera note (x , y , u ).
et que, de plus :
3 ) Montrer que (x , y , u ) est solution de (P D)
Pour tout i = 1, . . . , n, lune des deux composantes du couple (xi , ui ) est
nulle tandis que lautre est strictement positive .
4 ) Illustration. Considrons le programme linaire suivant dans (R3 ) :

Minimiser x1 + x2 + x3

x + x = 0
1
2
(P)

=
1
x
3

x1  0, x2  0, x3  0.
Illustrer sur cet exemple les rsultats obtenus dans les questions prcdentes
en dterminant (x(), y(), u()) ainsi que (x , y , u ).
Solution : On rappelle au pralable le lien qui existe entre les solutions de
:
(D) et celles de (D)
;
(y est solution de (D)) ((y, c A y) est solution de (D))
(u = c A y et y est solution de (D)).
((y, u) est solution de (D))
Notons aussi quen raison du caractre injectif de A (d au fait que A est
surjective),

(y 1 , u) solution de (D)

(y 1 = y 2 ) .
et

(y2 , u) solution de (D)


Alors
1 ) Soit x admissible pour (P) et (y, u) admissible pour (D).

u = c A y de sorte que
?
@

x, u = x, c A y =
x, c
Ax, y
=
x, c
b, y .
Mais puisque y est admissible pour (D),
c, x 
b, y , do
x, u  0.
Avoir
x, u = 0 quivaut avoir
c, x =
b, y . Ceci traduit le fait que x
est solution de (P) et y est solution de (D) (soit encore (y, u = c A y) est

solution de (D)).
211

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

nest autre que la


La caractrisation (SO) des solutions de (P) et de (D)
formulation synthtique de ce qui vient dtre dmontr.
et (P D)
ne sont plus linaires car les fonctions2 ) Les problmes (P D)
objectifs ne le sont pas. Les vraies variables y sont x et u car, comme cela
a dj t dit, la connaissance de u induit celle de y.
On a
x, u =
c, x
b, y lorsque (x, y, u) C0 (cf. 1re question si ncessaire) de sorte que
) n
+
n


ln xi +
ln ui .
f (x, y, u) =
c, x
b, y
i=1

i=1

La stricte concavit de la fonction ln fait donc que f est strictement convexe


a au plus une solusur C0 . Ainsi le problme de minimisation convexe (P D)
tion.
, on a x() > 0 et u() > 0,
Au point (x(), y(), u()) solution de (P D)
de sorte que seules les deux contraintes du type galit (ane) Ax = b et
A y + u = c sont prendre en compte dans lexpression de la condition ncessaire et susante de minimalit. cet eet :



, 0, . . . , 0, x1 , . . . , xn
.
f (x, y, u) = u1 , . . . , un
x1
xn # $% &
u1
un
#
$%
&
$%
&
#
Rm

Rn

Rn

scrit sous la forme A(x, y, u) =


Lensemble-contrainte (utile) de (P D)
(b, c), o
n

A$

A :=

La condition ncessaire et susante de minimalit


f (x, y, u) ImA
212

V.3. La dualit en programmation linaire

se dcompose en :

x1 , . . . , un

x
1

u1 , . . . , xn

xn

et

un




Im A
(5.32)
Ker A.

Pour allger lcriture, notons


ui
u
1
1
n
x le vecteur de R de composantes xi ,
xi
x
1
1
n
u le vecteur de R de composantes
ui ,

x i ui
w le vecteur deRn de composantes
.
9 
9
x1
xn
Soit  := diag
u1 , . . . ,
un . De simples calculs font observer que

u 1

1
= w = 1
w

x 1

Au vu de (5.32), il vient alors


w

1
1
Im(A ) et w Ker (A).
w
w

Mais comme (A) = A , les deux sous-espaces Im(A ) et Ker(A) sont
orthogonaux, do w w1 = 0, cest--dire xi ui = pour tout i = 1, . . . , n.
3 ) Aprs un passage la limite ( 0), on obtient que
Ax = b, x  0
A y + u = c, y  0

x , u

(5.33)

= 0,

(ou encore, x est solution de (P)


cest--dire (x , y , u ) est solution de (P D)

et (y , u ) est solution de (D)).


En combinant (SO) et (5.33), on obtient
A(x() x ) = 0 et A (y() y ) = u u(),
do

?
@
0 =
A(x() x ), y() y = x() x , A (y() y )

(5.34)

=
x() x , u u() .
Par ailleurs

x() x , u() u =
x(), u() (
x , u() +
x(), u ) ,
213

Chapitre V. Polydres convexes ferms. Optimisation donnes affines...

ce qui conduit, puisque


x(), u() = n et
x() x , u() u = 0
(cf. (5.34)), :

x , u() +
x(), u =

[xi u()i + x()i ui ] = n.

i=1

Divisons les deux membres de la dernire galit ci-dessus par (= x()i u()i
pour tout i = 1, . . . , n) ; il sensuit

n 

ui
xi
+
= n.
x()i u()i

(5.35)

i=1

Comme x  0, u  0 et
x , u = 0, on a xi ui = 0 pour tout i, de sorte
que (5.35) se rcrit en
u
x
i
i
+
=n
x()i
u()i
iI

(5.36)

iJ

o I := {i | xi > 0} et J := {i | ui > 0} (I et J sont disjoints). Mais


xi
= 1 si i I
0 x()i
lim

et

ui
= 1 si i
/ I,
0 u()i
lim

ce qui, avec (5.36), donne bien le rsultat escompt.


4 ) Le programme dual (D) de (P) est un programme linaire dans R2 ,
savoir :

Maximiser y2

y  1
1
(D)

y1  1

y2  1.
(P) et (D) peuvent tre rsolus graphiquement : x = (0, 0, 1) est la seule solution de (P) tandis que {(y1 , 1) | 1  y1  1} est lensemble-solution de (D).
(SO) devient ici :

x1 + x2 = 0, x3 = 1, (x1 > 0, x2 > 0)

y1 + u1 = 1,
y1 + u2 = 1, (u1 > 0, u2 > 0, u3 > 0)

y2 + u3 = 1,

x1 u1 = x2 u2 = x3 u3 = .
214

V.3. La dualit en programmation linaire

La rsolution de ce systme dquations (dont une est non linaire) fournit


x() = (, , 1), y() = (0, 1 ), u() = (1, 1, ).
Par suite
x = (0, 0, 1), y = (0, 1), u = (1, 1, 0).
Notons que la solution y de (D) obtenue par ce procd est le milieu du
segment-solution de (D).

Commentaire : Voir lExercice 4.12 pour une approche analogue dans la rsolution dun problme de minimisation convexe direntiable (moyennant le changement de paramtre = 1/). Comme ici,  x() (resp.  (y(), u()) est
appel chemin central conduisant une solution de (P) (resp. une solution

de (D)).
Prolongement de lexercice : Dmontrer que, sous les hypothses qui ont
t faites, lensemble {(x, y, u) C0 | f (x, y, u)  r} est born pour tout r R.
Cette proprit, combine la continuit de f , dclenche le rsultat dexistence
admis la 2e question.
La proprit particulire de la solution x = (x1 , . . . , xn ) de (P) et des
mise en vidence dans la 3e question, est
variables dcart u1 , . . . , un de (D),
appele de Goldman et Tucker .

215

This page intentionally left blank

VI
ENSEMBLES ET FONCTIONS CONVEXES.
PROJECTION SUR UN CONVEXE FERM

Rappels
VI.1. Ensembles convexes
Bien des notions et proprits rappeles ci-aprs ont dj t vues propos
des polydres convexes ferms (rappels du Chapitre 5) ; seuls sont souligns ici les
aspects qui en dirent.
C Rn est dit convexe (ou est un convexe) lorsque x + (1 )x C ds
que x et x sont dans C et ]0, 1[ .
Stabilit de la convexit par certaines oprations sur les ensembles :
Si C1 et C2 sont des convexes de Rn , il en est de mme de C1 + C2 ;
Si C1 est un convexe de Rp et C2 un convexe de Rq , alors C1 C2 est
un convexe de Rp Rq ;
Si (Ci )iI est une collection de convexes, Ci est encore convexe.
iI

VI.1.1. Ensembles convexes associs un convexe donn


Le plus petit sous-espace ane de Rn contenant un convexe C de Rn sappelle
le sous-espace ane engendr par C, et est not a C ; on appelle dimension de
C la dimension de ce sous-espace ane engendr (notation : dim C). Lintrieur

Chapitre VI. Ensembles et fonctions convexes. Projection...

de C dans le sous-espace ane engendr par C est appel lintrieur relatif de C ;


il est not ir C (ou intr C).
Chose extraordinaire : ir C = ds que (le convexe) C = .
Une partie convexe F de C est appele face (ou partie extrmale) de C
lorsque la proprit suivante est vrie :
;
(x1 , x2 ) C C et
[x1 , x2 ] F.
]0, 1[ tel que x1 + (1 )x2 F
Les faces exposes de C (cf. Chapitre 5) sont les exemples les plus importants
de faces de C ; toutefois une face de C nest pas ncessairement une face expose
de C.
Le cas minimal de face F est lorsque dim F = 0 ; alors F = {x} et on parle
plutt de point extrmal x. En dautres termes, x C est appel point extrmal (1)
de C sil nest pas possible davoir x = y + (1 )z avec y et z deux points
distincts de C et ]0, 1[ . On note ext C lensemble des points extrmaux de C.
Proprit : Si C est un convexe compact de Rn , alors ext C = .

VI.1.2. Enveloppe convexe, enveloppe convexe ferme


Soit S Rn . On appelle enveloppe convexe de S, et on note conv S (traditionnellement co S), le plus petit ensemble convexe (au sens de linclusion) contenant S. Il y a deux manires de construire conv S :
conv S = intersection de tous les convexes C contenant S ;
conv S = ensemble de toutes les combinaisons convexes dlments de S.
Deux thormes importants :

Theor`eme (C. Caratheodory). Tout lment x de conv S, o S Rn , peut tre


reprsent sous forme de combinaison convexe dau plus n + 1 lments de S.
Theor`eme (H. Minkowski). Si C est un convexe compact de Rn , alors C =
conv(ext C).
On appelle enveloppe convexe ferme de S, et on note conv S, le plus petit
ensemble convexe ferm contenant S. Il y a dj deux manires de voir conv S :
conv S = intersection de tous les convexes ferms C contenant S ;
conv S = adhrence de conv S (autrement dit, pour avoir conv S on commence par convexier S, puis on ferme lensemble conv S ainsi
obtenu).
(1)
Dans le cas non polydral, le vocable sommet de C est plutt rserv un point extrmal x de
C tel que N (C, x) soit de dimension n (N (C, x) dsigne le cne normal C en x ; cf. Chapitre 3).

218

VI.1. Ensembles convexes

VI.1.3. Hyperplan dappui, fonction dappui


Un hyperplan ane de Rn , dquation
s, x = r, est appel hyperplan dappui
au convexe C en x C lorsque

s, x = r et
s, x  r pour tout x C.
Rsultat important : Si C est convexe et si x fr C, alors il y a (au moins) un
hyperplan dappui C en x.
Soit = S Rn . On appelle fonction dappui de S, et on note S , la fonction
S : Rn R {+} dnie de la manire suivante :
d Rn  S (d) := sup
s, d .
sS

S est partout nie sur Rn si, et seulement si, S est born.


Une fonction dappui ne sait pas distinguer S de son enveloppe convexe ferme : S = conv S .
On peut voir conv S partir de S ou plutt partir de S de la manire
suivante :
(s conv S) (
s, d  S (d) pour tout d Rn ).
Ceci est la version fonctionnelle du rsultat ensembliste de description de
conv S suivant : conv S est lintersection de tous les demi-espaces anes ferms
contenant S.
Une rgle de calcul (parmi dautres) concernant les fonctions dappui : Si S1
et S2 sont deux parties non vides de Rn , alors S1 +S2 = S1 + S2 .

VI.1.4. Thormes de sparation par un hyperplan ane


Theor`eme de separation (au sens large). Si C1 et C2 sont deux convexes disjoints
de Rn , il existe un hyperplan ane qui les spare, i.e. un vecteur s = 0 de Rn tel
que :

s, x1 
s, x2 pour tout x1 C1 et tout x2 C2 .
Theor`eme de separation (au sens strict). Si C1 est un convexe ferm et C2 un
convexe compact de Rn , et sils sont disjoints, il existe un hyperplan ane qui
les spare strictement, i.e. un vecteur s = 0 de Rn et r R tels que :

s, x1 < r pour tout x1 C1


et

s, x2 > r pour tout x2 C2 .


219

Chapitre VI. Ensembles et fonctions convexes. Projection...

VI.2. Projection sur un convexe ferm


Soit C un convexe ferm non vide de Rn . Pour tout x Rn , il existe un et un
seul lment dans C distance (euclidienne) minimale de x ; cet lment sappelle
la projection de x sur C et est not pC (x) :
6
pC (x) C,
pC (x) x  c x pour tout c C.
Caractrisation de pC (x) (cf. Chapitre 3) : x C est pC (x) si, et seulement si,

x x, c x  0 pour tout c C.
Dans le cas o C est un cne convexe ferm, la caractrisation ci-dessus se
simplie quelque peu : Soit K un cne convexe ferm de Rn et K son cne
polaire ; alors x K est pK (x) si, et seulement si,
x x K et
x x, x = 0.
Une proprit fondamentale de lapplication pC : Rn C Rn est comme
suit :
pC (x1 ) pC (x2 )2 
pC (x1 ) pC (x2 ), x1 x2
pour tout x1 et x2 dans Rn .
Il en dcoule notamment :
pC (x1 ) pC (x2 )  x1 x2  pour tout x1 et x2 dans Rn .

VI.3. Fonctions convexes


Soit C un convexe de Rn et f : C R ; les dnitions de f est convexe sur
C et de f est strictement convexe sur C ont t rappeles au Chapitre 1.
Quelques rappels supplmentaires :
Ingalit de Jensen
Soient C Rn convexe et f : C R convexe. Alors, pour toute collection
{x1 , . . . , xk } de points de C et tout = (1 , . . . , k ) dans le simplexe-unit de
Rk , on a lingalit suivante :
+
) k
k


i xi 
i f (xi ).
f
i=1

220

i=1

VI.3. Fonctions convexes

Stabilit de la convexit par certaines oprations sur les fonctions :


Si f1 et f2 sont convexes sur C, il en est de mme de f1 + f2 ;
Si (fi )iI est une collection de fonctions convexes sur C, alors supiI fi
est encore convexe sur C.
Exemples de fonctions convexes :
Si   est une norme sur Rn et C un convexe de Rn , alors la fonctiondistance
dC : x Rn  dC (x) := inf { x c , c C}
est convexe sur Rn .

Si f : x R+
 f (x) est convexe sur R+ , il en est de mme de la
fonction
 
1
+
.
g : x R  g(x) := xf
x
Rfrences. Chapitres III et IV de [12].

* Exercice VI.1. Soit S Rn vriant la proprit de demi-somme suivante :




x+y
S .
(x S, y S)
2
1 ) S est-il convexe ?
2 ) Mme question si lon suppose S ferm.
Solution : 1 ) Non. Il sut pour le voir de prendre pour S lensemble des
rationnels compris entre 0 et 1.
2 ) Oui si S est ferm.
Prenons x1 et x2 dans S et considrons x [x1 , x2 ] := {(1 t)x1 + tx2 |
0  t  1} .
  x +x


2
, 1 2 2 , x2 celui qui contient x,
On prend !des deux "segments x1 , x1 +x
2
(1)

(2)

et on le note x1 , x2

. On ritre le processus de manire obtenir :

"
!
(k) (k)
x . . . x1 , x2 . . . [x1 , x2 ] ,
(k)

(k)

lim x1 = lim x2 = x.

k+

k+

Mais grce la proprit de demi-somme de S, toutes les extrmits


(k) (k)
x1 , x2 sont dans S. Le caractre ferm de S fait quensuite la limite x est
dans S.
221

Chapitre VI. Ensembles et fonctions convexes. Projection...

* Exercice VI.2. Soient A0 , A1 , . . . , Am dans Sn (R) et


A(x) := A0 +

xi Ai pour tout x = (x1 , . . . , xm ) Rm .

i=1

On pose C := {x Rm | A(x) est semi-dnie positive}. Montrer que C est


convexe ferm.

Solution : Vrication directe : toute combinaison convexe dlments de


C est dans C ; toute limite de suite dlments de C est encore dans C.
Autre manire de faire. Lapplication
x = (x1 , . . . , xm ) R

 A(x) = A0 +

xi Ai Sn (R)

i=1

est ane, et C nest autre que limage inverse par cette application du cne
convexe ferm Pn (R) .

Commentaire :
Contrairement ce quon peut imaginer au premier abord, C nest pas
polydrique. On peut aussi dcrire C par la conjonction dingalits polynomiales
en x (tous les mineurs principaux dordre k de A(x), k = 1, . . . , n, doivent tre
positifs).
Le problme doptimisation
6
Min
c, x
(P)
A(x) semi-dnie positive (x C)
est un problme-modle trs gnral ; sy ramnent des problmes classiques doptimisation (optimisation quadratique, de valeurs propres, etc.) ou dingnierie
(thorie et commande des systmes).

** Exercice VI.3. Soient C un convexe compact de Rn et H un hyperplan


dappui C. Montrer que H contient ncessairement des points extrmaux
de C.

222

VI.3. Fonctions convexes

Solution : C H est un convexe compact ; il a donc des points extrmaux.


Mais si x est un point extrmal de C H, il est aussi point extrmal de C. En
eet, supposons que x = y + (1 )z avec y, z dans C et ]0, 1[. Puisque
H est un hyperplan dappui C en x, mettons dquation
s, x = r, on a :

s, x = r,
s, y  r,
s, z  r.
Par suite,
0 = r
s, x = [r
s, y ] + (1 ) [r
s, z ] ,
do
s, y =
s, z = r. Ainsi y et z se trouvent aussi dans H. Mais alors le
caractre extrmal de x dans C H fait que x = y = z. Le point x est donc
extrmal dans C.
En conclusion, C H contient bien des points extrmaux de C.

** Exercice VI.4. Soit C le convexe dni comme tant lenveloppe convexe


de S : C = conv S.
Montrer que tout point extrmal de C est ncessairement dans S.

Solution : Soit x un point extrmal de C et supposons quil ne soit pas dans S.


Comme C = conv S, il existe une reprsentation de x sous la forme
k

i xi , avec x1 , . . . , xk dans S et (1 , . . . , k ) dans le simplexe-unit
x =
i=1

de Rk .
Puisque x
/ S, on a ncessairement k  2. On peut supposer, sans perte
de gnralit, que 0 < k < 1. Ainsi
k1

i
xi ,
x = k xk + (1 k )
1 k
i=1

o y := xk et z :=

k1

i=1

i
1k xi

sont des lments de C dirents (dirents car,

/ S). La reprsentation de x
sinon, x = xk , ce qui est impossible vu que x
sous la forme
x = k y + (1 k )z, avec y et z dans C, y = z et 0 < k < 1,
entre alors en contradiction avec le caractre extrmal de x.
223

Chapitre VI. Ensembles et fonctions convexes. Projection...

titre dexemple, soit S = {x1 , . . . , xk } . Alors tout point extrmal du


polydre convexe compact C := conv S est ncessairement lun des points xi .
Ce cas particulier a dj t vu lExercice V.7.
Le rsultat de lexercice est important et sera utilis plusieurs reprises
par la suite.

** Exercice VI.5. Soit C un convexe. Montrer que x C est un point extrmal


de C si, et seulement si, C \ {x} est convexe.
A-t-on une caractrisation similaire pour une face de C ?

Solution : Soit x un point extrmal de C. Considrons deux points distincts


y et z de C \ {x} et ]0, 1[ ; nous devons montrer que u := y + (1 )z
C \ {x} .
Par la convexit de C, le point u est dans C ; mais il est dirent de x car
u C, u = x = y + (1 )z avec y et z dans C, y = z, et ]0, 1[
viendrait contredire le caractre extrmal de x dans C. Donc u est bien dans
C \ {x} .
Rciproquement, supposons C \{x} convexe et montrons que x est un point
extrmal de C. Supposons quon puisse crire x sous la forme
x=

1
(y + z) avec y et z dans C, y = z.
2

(6.1)

Alors y et z sont dirents de x ncessairement ; mais par la convexit de


C \ {x} , cela entrane que 12 y + 12 z C \ {x} . Do contradiction avec (6.1) .
En consquence, une dcomposition de x comme dans (6.1) est impossible :
x est un point extrmal de C.
En ce qui concerne les faces de C, limplication suivante est une gnralisation naturelle de ce qui a t tabli pour les points extrmaux de C :
(F face de C) (C \ F est convexe).
Mais la rciproque est fausse. Pour voir cela, prendre par exemple un triangle C de R2 et considrer une moiti F de C.

224

VI.3. Fonctions convexes

** Exercice6VI.6. On considre dans Rn les deux


; boules suivantes :
n

|xi |  1 ,
B1 := x = (x1 , . . . , xn ) Rn |
i=1

B := {x = (x1 , . . . , xn ) Rn | maxi=1,...,n |xi |  1} .


Quels sont les points extrmaux de B1 ? de B ?
Solution : Dsignons par e1 , . . . , en les n lments de la base canonique de Rn .
Lensemble B1 peut tre vu comme lenveloppe convexe des 2n lments
e1 , e1 , . . . , ei , ei , . . . , en , en ; de plus chacun de ces ei ou ei est un point
extrmal de B1 (daccord ?). En somme, les points extrmaux (ou sommets)
de B1 sont exactement : e1 , e1 , . . . , en , en .
La structure de produit cartsien de B = [1, +1]n facilite la dtermination de ses points extrmaux. En eet, il rsulte de la dnition mme de point
extrmal que ext(C1 C2 ) = (extC1 ) (extC2 ). En consquence, les points
extrmaux de B sont les 2n points x = (x1 , . . . , xn ), o xi {1, +1} pour
tout i = 1, . . . , n.
Il y a donc une dirence notable entre B1 et B , dirence qui ne se
voit pas pour n = 1 ou 2. Lorsque n crot, le nombre de points extrmaux
de B1 crot de manire linaire (en passant de Rn Rn+1 on ajoute en fait
2 nouveaux points extrmaux), tandis que le nombre de points extrmaux de
B crot exponentiellement (en passant de Rn Rn+1 , on reproduit 2 copies
des points extrmaux prcdents).

dans R2 , reproduits dans R3

dans R2 ,

ajout dans R3

dans R3 , 2 copies de
Figure 15.

** Exercice VI.7. Soit C un convexe de Rn et A : Rn Rm une application


ane. Quelle relation y a-t-il entre les points extrmaux de A(C) et limage par
A de lensemble des points extrmaux de C ?
225

Chapitre VI. Ensembles et fonctions convexes. Projection...

Solution : Aucune en gnral.


Dans lexemple ci-contre, A est
loprateur de projection sur laxe
des x. On note que
A(ext C) est tout le segment [a, b]
tandis que
ext (A(C)) = {a, b}.
Figure 16.

Si, prsent, C est la bande [a, b] R de R2 , on a toujours A(C) = [a, b]


et donc ext(A(C)) = {a, b} , mais ext C = .
Toutefois, si A est injective et si x est un point extrmal de C, alors
y = A(x) est un point extrmal de A(C). En eet, avoir
A(x) = A(x1 ) + (1 )A(x2 ) avec
x1 , x2 C, A(x1 ) = A(x2 ) et ]0, 1[
est impossible puisque A(x1 ) + (1 )A(x2 ) = A(x1 + (1 )x2 ) = A(x)
implique x = x1 + (1 )x2 , et que cette dernire dcomposition contredit
le caractre extrmal de x dans C.

** Exercice VI.8. Soient k lments a1 , . . . , ak de Rn et K un cne convexe ferm


de Rn .
1 ) Montrer lquivalence des deux armations ci-dessous :
(i) Il existe d0 K tel que
ai , d0 < 0 pour tout i = 1, . . . , k ;
(ii) conv{a1 , . . . , ak } (K ) = .
2 ) Applications :
Traduire lquivalence dmontre dans les cas particuliers suivants :
() K = Rn ;
() K = {d Rn |
vi , d = 0 pour tout i = 1, . . . , m}, o v1 , . . . , vm sont m
vecteurs donns de Rn .
Indication. Dans la 1re question on montrera successivement
[(i) (ii)] et [non(i) non(ii)] ; pour cette deuxime implication, on pourra
k
sparer (au sens large) les convexes {(
d, a1 , . . . ,
d, ak ) | d K} et (R
) .
226

VI.3. Fonctions convexes

1 ) [(i) (ii)]. Considrons un lment quelconque de


k

i ai , o (1 , . . . , k )
conv{a1 , . . . , ak }, cest--dire un lment de la forme

Solution :

i=1

k (simplexe-unit de Rk ). Il dcoule de (i) : d0 K et


B
A k
k


i ai , d0 =
i (
ai , d0 ) > 0 ;

i=1

donc

k


i=1

i ai nest pas dans K .

i=1

[non(i) non(ii)]. Puisque K est convexe et que lapplication


d Rn  (
d, a1 , . . . ,
d, ak ) Rk est linaire, lensemble C2 :=
{(
d, a1 , . . . ,
d, ak ) | d K} est un convexe de Rk .
k
Ce quexprime non(i) est exactement (R
) C2 = . Si tel est le
k
cas, il existe un hyperplan ane qui spare (R
) et C2 , i.e. un vecteur
s = (s1 , . . . sk ) = 0 de Rk tel que :
k

s, x1 
s, x2 pour tout x1 (R
) et tout x2 C2 .

(S)

k
Puisque (R )k est ladhrence de (R
) , lingalit (S) reste vraie pour tout

k
x1 (R ) et tout x2 C2 . Prenons x2 = 0 (qui est dans C2 ) dans cette
ingalit, il sensuit :

s, x1  0 pour tout x1 (R )k ,
do s (R+ )k (daccord ?). Ainsi si  0 pour tout i = 1, . . . , k.
Faisons x1 = 0 dans lingalit (S) (prolonge) ; on a alors :
A k
B
k


si
d, ai =
si ai , d  0 pour tout d K,

s, x2 =
i=1

autrement dit :

k


i=1

si ai K .

i=1

En rsum : si (i) na pas lieu, il existe des rels s1  0, . . . , sk  0 non tous


k
k


si ai K . En posant i := si /( si ) pour tout i = 1, . . . , k,
nuls tels que
i=1

i=1

de manire avoir (1 , . . . , k ) k , on obtient que


k

i ai conv {a1 , . . . , ak } (K ).

i=1

227

Chapitre VI. Ensembles et fonctions convexes. Projection...

2 ) () Si K = Rn , alors K = {0} ; on a donc lquivalence des noncs


suivants :
(i) d0 Rn tel que
ai , d0 < 0 pour tout i = 1, . . . , k ;
(ii) 0
/ conv{a1 , . . . , ak } .
() Si K = {d Rn |
vi , d = 0 pour tout i = 1, . . . , m}, alors K =
K = vect {v1 , . . . , vm } . Il y a donc quivalence des noncs suivants :
(i) d0 Rn tel que
vi , d0 = 0 pour tout i = 1, . . . , m et
ai , d0 < 0
pour tout i = 1, . . . , k ;
(ii) conv{a1 , . . . , ak } vect{v1 , . . . , vm } = .
Commentaire : Lquivalence provenant de lapplication () de la 2e question
constitue le lemme de Gordan (1873) ; ce lemme appartient au royaume des
polydres convexes et peut tre dmontr avec les rsultats et techniques du
Chapitre 5 ; il sera revisit dans lExercice VII.1.
Lquivalence provenant de lapplication () de la 2e question montre bien

la dirence entre les conditions de qualication de contraintes (QC)x et (QC)x
utilises dans les problmes de minimisation avec contraintes dcrites avec des
galits et ingalits (cf. Chapitre 3). En particulier elle indique clairement que

(QC)x implique (QC)x .

*** Exercice VI.9. Soient A et B deux lments de Sn (R), n 3, On suppose


que B nest pas dnie ngative. Montrer lquivalence des deux assertions suivantes :
(i) (
Bx, x  0 et x = 0) (
Ax, x > 0) ;
(ii) Il existe  0 tel que A B soit dnie positive.
Commentaire : Rsultat rapprocher du rsultat de lExercice I.16 quil tend.
Indication. On admettra que lensemble C := {(
Ax, x ,
Bx, x ) |  x  = 1} est
un convexe de R2 . Pour [(i) (ii)], penser sparer strictement C de R R+ .
Solution : [(ii) (i)]. Immdiat.
[(i) (ii)]. Lensemble C dni ci-dessus est un convexe compact de R2 .
Observons que C ne rencontre pas R R+ . En eet, avoir

Ax, x  0 et
Bx, x  0 pour un certain x de norme 1
est impossible daprs (i).
228

VI.3. Fonctions convexes

et

On peut donc sparer strictement le convexe compact C du convexe ferm


R+ : il existe s = (s1 , s2 ) = (0, 0), r R, tels que

s, x = s1 x1 + s2 x2 > r pour tout x = (x1 , x2 ) C

(6.2)

s1 x1 + s2 x2 < r pour tout x = (x1 , x2 ) R R+ .

(6.3)

En faisant (x1 , x2 ) = (0, 0) dans (6.3), il vient que r > 0. De plus, comme
(tx1 , tx2 ) R R+ ds que (x1 , x2 ) R R+ et avec t > 0 arbitrairement
grand, il rsulte de (6.3) : s1  0, s2  0.

Figure 17.

On ne peut avoir s1 = 0. En eet, si tel tait le cas, s2 serait < 0 et (6.2)


impliquerait
r
pour tout x de norme 1,

Bx, x <
s2
ce qui est contraire lhypothse faite sur B.
Par suite,
s2
r
pour tout (x1 , x2 ) C,
x1 + x2 >
s1
s1
soit encore

Ax, x +

r
s2

Bx, x >
pour tout x de norme 1.
s1
s1

Lassertion (ii) est ainsi dmontre.

229

Chapitre VI. Ensembles et fonctions convexes. Projection...

Remarque :
Curieusement, lquivalence ne stend pas au cas de plus de deux matrices
symtriques. Soient A, B1 , . . . , Bm des lments de Sn (R) : alors
(i) (
B1 x, x  0, . . . ,
Bm x, x  0 et x = 0) (
Ax, x > 0)
et
(ii) Il existe 1  0, . . . , m  0 tels que A 1 B1 . . . m Bm soit dnie
positive
ne sont pas des assertions quivalentes ; seule [(ii) (i)] a lieu.
Par une technique similaire celle utilise dans lExercice (on spare (au
2
sens large) C et (R
) ), on dmontre le rsultat parent suivant : Soient A et B
deux lments de Sn (R) ; alors
(i) max {
Ax, x ,
Bx, x }  0 pour tout x Rn
quivaut
(ii) Il existe 1  0 et 2  0, non tous deux nuls, tels que 1 A + 2 B soit
semi-dnie positive.

* Exercice VI.10. Montrer que conv(A B) = (convA) (convB).

Solution : A convA, B convB, et (convA) (convB) est convexe (produit cartsien de deux convexes). Par consquent, conv(A B) (convA)
(convB).
Dmontrons linclusion rciproque. Soient u convA et v convB ; alors
il existe

des entiers non nuls p et q,

des lments a1 , . . . , ap de A et des lments b1 , . . . , bq de B,


(6.4)

(1 , . . . , p ) dans le simplexe-unit de Rp ,

(1 , . . . , q ) dans le simplexe unit de Rq ,


tels que :
u=

i ai , v =

i=1

Do
(u, v) =

j bj .

(6.5)

i j (ai , bj ).

(6.6)

j=1
q
p

i=1 j=1

230

VI.3. Fonctions convexes

Mais (ai , bj ) A B pour tout (i, j) et (1 1 , . . . , 1 q , 2 1 ,


. . . , 2 q , . . . , p 1 , . . . , p q ) est dans le simplexe-unit de)Rpq (en
+ eet tous
 p  q



les coecients i j sont positifs et
i j =
i
j = 1).
1ip
1 j q

i=1

j=1

Il rsulte donc de (6.6) que (u, v) est bien dans conv(A B).

** Exercice VI.11. Soient A et B deux parties (non vides) de Rn . Montrer que :


(i) conv(A + B) = convA + convB ;
(ii) conv (A + B) = (conv A + conv B).

Solution : (i) A convA, B convB, et convA + convB est convexe


(somme de deux convexes). Par suite, conv(A + B) convA + convB.
Dmontrons linclusion rciproque. Soient u convA et v convB ; alors
il existe une expression de u et v comme en (6.5) . Do
u+v =

i ai +

i=1

Comme

p

i=1

i =

q


j bj .

(6.7)

j=1

j = 1, il vient de la relation ci-dessus

j=1

u+v =

q
p

i j (ai + bj ).

(6.8)

i=1 j=1

Mais ai + bj A + B pour tout (i, j) et (i j )1  i  p est dans le simplexe1 j q

unit de Rpq . Il en rsulte avec (6.8) que u + v est bien dans conv(A + B).
(ii) Ds quil y a une enveloppe convexe ferme en jeu, il faut penser
loutil fonction dappui .
conv(A + B) est un convexe ferm dont la fonction dappui est celle de
A + B, soit
(6.9)
d Rn  A+B (d) = sup
a + b, d .
aA
bB

231

Chapitre VI. Ensembles et fonctions convexes. Projection...

(convA + convB) est un convexe ferm dont la fonction dappui est la


somme des fonctions dappui de A et de B, soit
d Rn  (A + B )(d) = sup
a, d + sup
b, d .
aA

(6.10)

bB

De lgalit des fonctions de (6.9) et (6.10) dcoule lgalit des convexes


ferms dont elles sont les fonctions dappui.
Commentaire : Prolongement du (i) de lexercice : Si S Rn et U : Rn Rm
est une application ane, alors conv U (S) = U (conv S). Ceci, combin au rsultat
de lExercice 6.10 permet de retrouver (i).

** Exercice VI.12. Dans Sn (R) structur en espace euclidien grce au produit


scalaire

, (rappel :

A, B := tr(AB)), on considre lensemble suivant


1 := {M Pn (R) | trM = 1} .
1 ) Montrer que 1 est un convexe compact de Sn (R).
2 ) Montrer que les points extrmaux de 1 sont exactement les matrices
de la forme xx , o x est un vecteur unitaire de Rn .

Solution : 1 ) 1 est par dnition lintersection du cne convexe ferm Pn (R)


avec lhyperplan ane dquation

M, In = 1 : cest donc un convexe ferm.


Par ailleurs, si M Sn (R) et si 1 , . . . , n dsignent ses valeurs propres
 M 2 := tr(M 2 ) =

2i

(daccord ?).

i=1

Si prsent M 1 , ses valeurs propres i sont toutes positives (puisque


n

i = trM = 1). Par consquent
M Pn (R)) et infrieures 1 (puisque
i=1
2

 M   n pour tout M 1 .
1 est donc born : cest un convexe compact de Sn (R).
2 ) Montrons que 1 est lenveloppe convexe des xx , o x est de norme 1 :


(6.11)
1 = conv xx |  x  = 1 .

232

VI.3. Fonctions convexes

Toute matrice de la forme xx , avec x = 1, est symtrique semi-dnie


positive et de trace 1 (car tr(xx ) =  x 2 ) ; par consquent, toute combinaison convexe de telles matrices est dans 1 .
Rciproquement, soit M 1 . Par dcomposition spectrale, on peut exprimer M sous la forme
n

i xi x
(6.12)
M=
i ,
i=1

o les xi sont des vecteurs unitaires de Rn et les i les valeurs propres de M.


Mais ces valeurs propres sont positives et de somme gale 1 ; ce quexprime (6.12) est5donc que M est une combinaison convexe dlments de
4
xx |  x  = 1 .
Visualisation gomtrique de (6.11)

Figure 18.

Daprs lexpression (6.11) de 1 , les points extrmaux de 1 gurent ncessairement parmi les matrices de la forme xx , o  x  = 1.
Rciproquement, soit xx avec  x  = 1 et montrons quil sagit dun
point extrmal de 1 . Supposons que lon ait la dcomposition

xx = M + (1 )N,

(6.13)
]0, 1[ ,

M et N dans 1 ,
et montrons que cela conduit ncessairement xx = M = N.
En faisant le produit scalaire , avec xx dans chaque membre de
la 1re ligne de (6.13), on obtient
1 =
M x, x + (1 )
N x, x .

(6.14)
233

Chapitre VI. Ensembles et fonctions convexes. Projection...

Comme
M x, x  1 (M )  1 (1 (M ) dsignant la plus grande valeur propre de M ) et
N x, x  1 (N )  1, il vient de (6.14) que
1 (M ) = 1 (N ) = 1.
Puisque les valeurs propres de M (et de N ) sont positives et de somme
gale 1, la seule possibilit pour M (et N ) est dtre de rang 1, M = uu
avec  u  = 1 (et N = vv  , avec  v  = 1). Avec la 1re ligne de (6.13), on
conclut ensuite xx = uu = vv  .
Commentaire :
On aurait pu aussi dmontrer que 1 est lensemble des matrices de la forme
U diag(1 , . . . , n )U  , o U est orthogonale et (1 , . . . , n ) dans le simplexe-unit
n de Rn . La recherche des points extrmaux de 1 revient alors celle des points
extrmaux de n .
Consquence sur la formulation variationnelle usuelle de la plus grande valeur
propre dune matrice symtrique relle : Soient A Sn (R) et 1 (A) sa plus grande
valeur propre ; alors
1 (A) = max {
Ax, x |  x  = 1} (classique, cf. Exercice III.4)
@@

??
|x=1
= max
A, xx
= max {

A, M | M 1 } .
5
4
Prendre le max de

A, sur xx |  x  = 1 ou sur 1 revient au mme ;


1 est en fait la fonction dappui de 1 . En somme, la formulation classique de
Rayleigh (1re expression au-dessus) nous cache des choses (le plus grand ensemble
sur lequel le max de

A, est 1 (A) est 1 ), mais dit lessentiel (on prend le


max sur les points extrmaux de 1 ).
Prolongement de lexercice avec la gnralisation que voici.
Soit m un entier compris entre 1 et n, et soit
m := {M Pn (R) | trM = m et 1 (M )  1} .
Dans la dnition de 1 , il ntait pas ncessaire de faire apparatre la
contrainte 1 (M )  1 car elle tait automatiquement vrie. videmment
n = {In } . Rsultat gnral : m est un convexe compact de Sn (R) ; cest lenveloppe convexe des XX  , X parcourant lensemble des matrices de format n m
telles que X  X = Im , ces dernires tant les points extrmaux de m . En dautres
termes : lenveloppe convexe des matrices de projections orthogonales de rang m
est exactement lensemble des matrices symtriques dont les valeurs propres sont
entre 0 et 1 et dont la trace vaut m.
234

VI.3. Fonctions convexes

Pour dmontrer ce rsultat, on commence par montrer que m est lensemble des matrices de la forme U diag(1 , . . . , n )U  , o U est orthogonale et
(1 , . . . , n ) dans le polydre convexe compact m suivant :
6
m :=

(1 , . . . , n ) Rn |0  i  1 pour tout i = 1, . . . , n
et

;
i = m .

i=1

La dtermination des points extrmaux de m (cf. Exercice V.15) conduit


alors au rsultat annonc.
La fonction dappui m de m
A Sn (R)  m (A) = max

M, A
M m

se trouve tre
A  m (A) = somme des m plus grandes valeurs propres de A.
Cette formulation variationnelle est due Ky Fan (1949).

*** Exercice VI.13. Soit K(Rn ) lensemble des compacts non vides de Rn .
1 ) Soient A, B, C dans K(Rn ). Montrer que :
(A + B = A + C) (conv B = conv C).
2 ) Soit B arbitraire dans K(Rn ). Montrer que :
n(conv B) + B = n(conv B) + conv B.
Montrer sur un exemple que ce rsultat ne saurait tre vrai avec, au lieu de
n, un coecient strictement infrieur n.
3 ) Dduire de ce qui prcde : Si B et C sont dans K(Rn ),
+
)
+
)
B et C sont
A K(Rn ),

.
(A + B = A + C) (B = C)
convexes
Solution : 1 ) Les fonctions dappui A , B et C de A, B et C sont des
fonctions convexes partout nies sur Rn ; lgalit A + B = A + C implique en
termes de fonctions dappui :
A + B = A + C ,
235

Chapitre VI. Ensembles et fonctions convexes. Projection...

do B = C et, par consquent, conv B = conv C (rappelons que lorsque


S K(Rn ), conv S est compact donc ferm).
2 ) Ce quil faut dmontrer est linclusion :
n(conv B) + conv B n(conv B) + B.
Soit C := convB et dsignons par ext C lensemble des points extrmaux de
C. Comme C := conv(ext C) et C Rn , tout c C peut scrire comme
combinaison convexe de n + 1 lments de ext C :
n+1

i xi , avec (1 , . . . , n+1 ) n+1 (simplexe-unit de Rn+1 ), xi
c=
i=1

ext C et i  0 pour tout i.


Lun des i est ncessairement suprieur ou gal
gnralit, on peut supposer quil sagit de 1 . Alors :

1
n+1

; sans perte de



n+1

1
1
x1 + 1
x1 +
i xi
c=
n+1
n+1
i=2

1
n
x1 +
n+1
n+1

n+1

o (1 , . . . , n+1 ) n+1 .

i xi ,

i=1

Par consquent,

(n + 1)c = x1 + n

)n+1

+
i xi

ext C + nC.

i=1

Mais tout point extrmal de C = convB est ncessairement dans B (cf.


Exercice VI.4) ; donc, nalement, (n + 1)c B + n(convB).
Comme (n + 1)convB = n(convB) + convB (cela est d la convexit de
convB), on a bien dmontr linclusion n(convB)+ convB n( convB) + B.
Considrons B := {0, e1 , . . . , en }, o ei est le ime vecteur de la base canonique de Rn , de sorte que
6
conv B =

(1 , . . . , n ) Rn |

;
i  1 et i  0 pour tout i .

i=1

Alors, pour k < n, k(convB) + B est strictement contenu dans (k + 1)convB.


236

VI.3. Fonctions convexes

3 ) Daprs la 1re question, si B et C sont convexes,


(A + B = A + C) (B = C),
et ce quel que soit A K(Rn ).
Rciproquement, si B ou C nest pas convexe disons B on peut avoir
A + B = A + C sans avoir B = C ; il sut pour cela, daprs la 2e question,
de considrer A = n(convB).

** Probl`eme VI.14. Soit C un convexe (non vide) de Rn et x0 C. On note


KC (x0 ) le cne engendr par C x0 (cest--dire KC (x0 ) = R+ (C x0 )) et
LC (x0 ) le plus grand sous-espace vectoriel contenu dans KC (x0 ). On appelle
LC (x0 ) le sous-espace facial de x0 relatif C. Lensemble
FC (x0 ) := [x0 + LC (x0 )] C
est appel face de x0 dans C.
1 ) Vrier que
LC (x0 ) = {d Rn | > 0 tel que x0 + d C pour | | < } .
En dduire que FC (x0 ) est la runion de tous les segments [a, b] contenus
dans C et ayant x0 dans leur intrieur relatif.
2 ) Montrer que x0 est un point extrmal de C si et seulement si LC (x0 ) se
rduit {0} (ou, ce qui revient au mme, FC (x0 ) se rduit {x0 }).
3 ) Soient D un autre convexe de Rn et x0 C D. tablir
FCD (x0 ) = FC (x0 ) FD (x0 ),
LCD (x0 ) = LC (x0 ) LD (x0 ).
4 ) Vrier que
a (FC (x0 )) = x0 + LC (x0 ).
(a S dsigne le sous-espace ane engendr par S) et par consquent
dim FC (x0 ) = dim LC (x0 ).
dim LC (x0 ) est ce quil est convenu dappeler la dimension faciale de x0
relative C.
237

Chapitre VI. Ensembles et fonctions convexes. Projection...

5 ) Soient A : Rp Rq une application ane et C un convexe compact non


vide de Rp .
a) On considre y0 A(C). Indiquer pourquoi A1 (y0 ) est convexe et ferm.
b) On prend un point extrmal x0 de A1 (y0 ) C (Pourquoi en existe-t-il ?).
Soit z un lment de LC (x0 ).
Montrer que A(x0 + z) y0 LA(C) (y0 ).
tablir que A(x0 + z) = y0 implique z = 0.
En dduire que A : a(FC (x0 )) a(FA(C) (y0 )) ainsi que
A : FC (x0 ) FA(C) (y0 ) sont injectives, et que
dim LC (x0 )  dim LA(C) (y0 ).
On a ainsi dmontr que pour tout y0 A(C), il existe x0 A1 (y0 ) C tel
que la dimension faciale de x0 relative C soit infrieure la dimension faciale
de y0 relative A(C).
6 ) Soient A1 , . . . , Ak , k compacts non vides de Rn et
C := conv A1 conv A2 . . . conv Ak .
On considre A : Rnk Rn dnie par
x = (x1 , . . . , xk ) Rn . . . Rn  A(x) :=

xi .

i=1

a) Rappeler pourquoi A(C) = conv(A1 + . . . + Ak ).


k

xi avec xi convAi pour tout i = 1, . . . , k. Montrer que :
b) Soit y =
i=1

dim LC (x) =

dim Lconv Ai (xi ).

i=1

Montrer quun point extrmal de convAi appartient ncessairement Ai .


k

xi
Dduire du rsultat de la 5e question quil existe une reprsentation y =
i=1

avec :
xi convAi pour tout i,
/ Ai }  n (cest le thorme de Shapley et Folkman).
Card {i | xi

On suppose que xi0 int(convAi0 ) pour un certain i0 . Que peut-on dire des
autres xi ?
238

VI.3. Fonctions convexes

7 ) Soit k le simplexe-unit (ou simplexe lmentaire) de Rk , cest--dire


6
k :=

= (1 , . . . , k ) | i  0 pour tout i,

;
i = 1 .

i=1

Pour tout k , on note n() := Card{i | i > 0} .


a) Montrer que la dimension faciale de relative k est n() 1.
b) Soit B un sous-ensemble de Rn et considrons y convB. Il existe donc
k

i bi .
= (1 , . . . , k ) k , b1 , . . . , bk dans B tels que y =
Considrons A : Rk Rn dnie par
= (1 , . . . , k ) R  A() :=
k

i=1

i bi .

i=1

Dduire de la 5e question quil existe une reprsentation y =

k


i bi , =

i=1

(1 , . . . , k ) k , telle que dim Lk ()  n. Quel rsultat classique dAnalyse


convexe retrouve-t-on ainsi ?
8 ) On suppose que ltat x(k) dun systme linstant k {0, 1, . . . , T + 1}
est dcrit de la manire suivante :

x(0) = x0 [tat initial] ;


(E)
k {0, 1, . . . , T } , x(k + 1) = A(k)x(k) + B(k)u(k)

(loi dvolution du systme),


o A(k) est une matrice relle (n, n), B(k) une matrice (n, m) et
u(0), u(1), . . . , u(T ) une suite de vecteurs de Rm appels contrles (ou commandes). Les contrles u(k) sont assujettis aux contraintes
(Ad )

u(k) U (k) pour tout k = 0, 1, . . . , T,

o U (0), U (1), . . . , U (T ) sont des convexes compacts non vides de Rm .


chaque suite u := (u(0), . . . , u(T )) de contrles admissibles (i.e., vriant
(Ad )) est associe par (E) une suite dtats (xu (0), xu (1), . . . , xu (T ), xu (T + 1)).
On dit que ltat
xu (T + 1) est atteint en utilisant la suite u de contrles.
Soit y Rn un lment qui peut tre atteint par une suite u de contrles.
239

Chapitre VI. Ensembles et fonctions convexes. Projection...

Montrer que y peut aussi tre atteint en utilisant une suite u =


(u(0), . . . , u(T )) de contrles admissibles pour laquelle
Card {k | u(k) nest pas extrmal dans U (k)}  n.
On utilisera pour cela le rsultat de la 5e question avec
U (0) . . . U (T ) =: C
et A : Rm(T +1) Rn dnie par
u = (u(0), . . . , u(T ))  A(u) := xu (T + 1).

Solution : 1 ) Le plus grand sous-espace vectoriel contenu dans (le cne


convexe) KC (x0 ) est KC (x0 ) KC (x0 ) = LC (x0 ).
Pour les direntes notions proposes, il est recommand de faire des dessins pour visualiser les choses ; considrer notamment des polydres de R2
et R3 .
D
Comme KC (x0 ) = >0 (C x0 ) et LC (x0 ) = KC (x0 ) KC (x0 ), on a :


> 0 tel que x = x0 + d C, et
.
(d LC (x0 ))
 > 0 tel que x = x0 d C

C tant convexe, le segment [x, x ] joignant


x x est contenu dans C. Par

1 1
consquent, en prenant 0 <  min ,  , on aura
x0 + d C ds que | |< .

(6.15)

Rciproquement, si lon considre d vriant (6.15) pour un certain > 0,


il est immdiat que d et d appartiennent KC (x0 ).
Par construction, FC (x0 ) est un convexe contenu dans C et contenant x0 .
Tout lment x de FC (x0 ) est un lment de C qui peut scrire sous la forme
x = x0 + d avec d LC (x0 ).
Puisque d LC (x0 ), il existe 1  > 0 tel que
[x0 d, x0 + d] [x0 d, x0 + d] C.
$%
&
#
[a, b]
240

VI.3. Fonctions convexes

Ainsi, x = x0 + d appartient un segment [a, b] C tel que


x0 ]a, b[ = ir ([a, b]) lorsque d = 0,
x0 {x0 } = ir ({x0 }) lorsque d = 0.
Rciproquement, si x appartient un segment contenu dans C et ayant x0
dans son intrieur relatif, il est vident que x x0 LC (x0 ).
2 ) Par dnition, x0 est extrmal sil nest pas intrieur un segment
contenu dans C. Dire ceci est exactement dire que FC (x0 ) = {x0 } (ou, dune
manire quivalente, LC (x0 ) = {0}).
3 ) Soit x FCD (x0 ), x = x0 : il existe alors x C D et ]0, 1[
tels que x0 = x + (1 )x ; on en dduit immdiatement que x appartient
FC (x0 ) et FD (x0 ).
Inversement, si x FC (x0 ) FD (x0 ), x = x0 , on a la situation suivante :

x0 = 1 x1 + (1 1 )x pour un certain x1 C et un 1 ]0, 1[ ;


x0 = 2 x2 + (1 2 )x pour un certain x2 D et un 2 ]0, 1[ .
Comme x0 C D, on a ncessairement [x1 , x] C D ou bien
[x2 , x] C D, donc x FCD (x0 ).
La deuxime assertion, LCD (x0 ) = LC (x0 ) LD (x0 ), se dmontre de la
mme manire.
4 ) Lenveloppe ane a(FC (x0 )) de FC (x0 ) est, par dnition, le plus
petit sous-espace ane de Rn contenant FC (x0 ). Cest lensemble de tous les
m

i xi , avec m  1, xi FC (x0 ) pour tout i et
vecteurs x de la forme x =
m

i=1

i=1

i = 1.
x0 + LC (x0 ) est un sous-espace ane, do a(FC (x0 )) x0 + LC (x0 ).
241

Chapitre VI. Ensembles et fonctions convexes. Projection...

Pour linclusion inverse, considrons d = 0 dans LC (x0 ). Il existe alors


> 0 tel que x := x0 + d appartienne C et par consquent FC (x0 ). Le
point x := x0 + d se trouvant sur la droite dtermine par x0 et x est donc
dans a(FC (x0 )). La dimension de FC (x0 ) est celle de a(FC (x0 )) ; cest par
consquent la dimension de LC (x0 ).
5 ) a) A1 (y0 ) est convexe ferm comme image rciproque de {y0 } par
lapplication ane (et donc) continue A.
b) C tant compact, il en est de mme de A1 (y0 ) C. Puisque y0 a t
choisi dans A(C), A1 (y0 ) C nest pas vide. A1 (y0 ) C tant un convexe
compact non vide de Rp , il possde un point extrmal.
Soit z LC (x0 ) (si, de plus, x0 + z C, on a x := x0 + z FC (x0 )).
Rappelons que
A(x0 + z) = y0 + A0 (z) pour tout R,

(6.16)

o A0 dsigne lapplication linaire de Rp dans Rq associe A.


Considrons > 0 vriant
x0 + z C ds que | | < .
La relation (6.16) indique immdiatement que y0 + A0 (z) A(C) lorsque
| | < ; donc A(x0 + z) y0 = A0 (z) LA(C) (y0 ). En somme :
(z LC (x0 )) (A0 (z) LA(C) (y0 )) ;
(x = x0 + z FC (x0 )) (A(x) = y0 + A0 (z) FA(C) (y0 )).
Si z est tel que A(x0 + z) = y0 , il rsulte facilement de (6.16) que
z LA1 (y0 ) (x0 ). Ainsi,
z LC (x0 ) LA1 (y0 ) (x0 ) = LA1 (y0 )C (x0 ) = {0}
(puisque x0 est extrmal dans A1 (y0 ) C).
Soient z1 et z2 deux lments de LC (x0 ) pour lesquels A(x0 + z1 ) =
A(x0 + z2 ).
Pour | | susamment petit, disons | | < , on a :
x0 + (z1 z2 ) C, A(x0 + (z1 z2 )) = y0.
Par consquent, x0 + (z1 z2 ) FC (x0 ) et, daprs ce qui a t dmontr
prcdemment, z1 z2 = 0 ncessairement.
Lapplication
a(FA(C) (y0 ))
A : a (FC (x0 ))
(= y0 + LA(C) (y0 ))
(= x0 + LC (x0 ))
242

VI.3. Fonctions convexes

ou encore
A : FC (x0 ) FA(C) (y0 )
est injective et, par consquent, la dimension de LC (x0 ) est infrieure la
dimension de LA(C) (y0 ).
Illustration : A est la projection orthogonale de R3 sur R2 .

Figure 19.

6 ) a) C := conv A1 . . . conv Ak = conv (A1 . . . Ak ) ( redmontrer


si ncessaire ; cf. Exercice VI.10).
Limage par lapplication linaire A de lenveloppe convexe de A1 . . .Ak
k

est conv Ai ; cest aussi lenveloppe convexe de limage par A de A1 . . .Ak ,
i=1

 k

Ai . On peut aussi dmontrer directement que
cest--dire conv
i=1

conv

) k

+
Ai

i=1

conv Ai .

i=1

(cf. Exercice VI.11).


b) Si x = (x1 , . . . , xk ) C = conv A1 . . . conv Ak , les perturbations
sur x peuvent avoir lieu indpendamment sur chaque coordonne xi , de sorte
que
LC (x) = (Lconv A1 (x1 )) (Lconv A2 (x2 )) . . . (Lconv Ak (xk ))
et
dim LC (x) =

dim LconvAi (xi ).

i=1

243

Chapitre VI. Ensembles et fonctions convexes. Projection...

Soit y A(C) ; daprs le rsultat de la 5e question, il existe x =


(x1 , . . . , xk ) dans C tel que :
k

xi ,
y=
i=1
k

dim LconvAi (xi )  dim A(C)  n.

(6.17)

i=1

Par suite,
Card {i | dim LconvAi (xi )  1}  n.

(6.18)

Si xi est un point extrmal de convAi , il appartient ncessairement Ai


(rsultat classique sur les points extrmaux de lenveloppe convexe dun ensemble ; cf. Exercice VI.4).
Do
/ Ai } {i | dim LconvAi (xi )  1}
{i | xi
et le rsultat annonc dcoule alors de (6.18).
Si lon sait que xi0 int(convAi0 ) pour un certain indice i0 , alors
dim LconvAi0 (xi0 ) = n et lingalit (6.17) implique
dim LconvAi (xi ) = 0 pour tout i = i0 ,
ce qui implique
xi Ai pour tout i = i0 .

Figure 20.

244

VI.3. Fonctions convexes

7 ) a) Soient k et d = (d1 , . . . , dk ) un vecteur de Lk (). Il existe


> 0 tel que
k

(i + di ) = 1 pour | | < ,
(6.19)
i=1

i + di  0 pour tout i = 1, . . . , k.

(6.20)

Sil existe i tel que i = 1, est alors un point extrmal de k et le rsultat


escompt est vrai avec n() = 1.
Supposons donc i < 1 pour tout i. Il rsulte de (6.19) et (6.20) que di
k

nest non nul que lorsque i > 0. De plus, lgalit (6.19) induit que
di = 0.
i=1

En bref,

(d = (d1 , . . . , dk ) Lk ())

di = 0 pour tout i tel que i = 0,


k


di = 0

i=1

Limplication inverse est facile vrier. En dnitive, Lk () est le sousespace vectoriel dquation
6
di = 0 pour tout i tel que i = 0,
d1 + . . . + dk = 0,
ce qui implique
dim Lk () = n() 1.
b) On prend C = k . Avec A : Rk Rn dnie par A() :=

k


i bi ,

i=1

on a A(C) = conv{b1 , . . . , bk } . Daprs le rsultat de la 5e question, il existe


= (1 , . . . , k ) k tel que
y=

i bi

et dim Lk ()  dim LA(C) (y).

i=1

Comme dim Lk () = n() 1 et que dim LA(C) (y)  n, on en dduit


5
4
Card i = 1, . . . , k | i > 0  n + 1.
On a dmontr que y pouvait scrire comme combinaison convexe dau plus
n + 1 points de B ; cest le fameux thorme de Carathodory.
8 ) On pose C = U (0) . . . U (T ) et on dnit A : Rm(T +1) Rn par
u = (u(0), . . . , u(T ))  A(u) := xu (T + 1).
A est une application ane (cest facile vrier).
245

Chapitre VI. Ensembles et fonctions convexes. Projection...

Soit y un tat qui peut tre atteint en utilisant une squence de contrles
admissibles. Daprs le rsultat de la 5e question, il existe u = (u(0), . . . , u(T ))
dans U (0) . . . U (T ) tel que
dim LU (0)...U (T ) (u)  dim LA(C) (y),
soit

dim LU (k) (u(k))  n.

k=0

Par consquent,
Card {k | u(k) nest pas extrmal dans U (k)}  n.

** Exercice VI.15. tant donn un convexe ferm non vide D de (Rn ,


, ), on
note pD loprateur de projection sur D.
Soient C un convexe ferm non vide de Rn et f : Rn R une fonction
convexe direntiable. Soit x C ; montrer lquivalence des assertions suivantes :
(i) x minimise f sur C ;
(ii)
f (x), x x  0 pour tout x C ;
(iii) x = pC (x tf (x)), t tant quelconque dans R+
;
(iv) pT (C,x) (f (x)) = 0 ;


(v) f (x), pT (C,x) (f (x))  0.
Solution : On rappelle la caractrisation suivante de llment pD (x) :
x D et
x x
, y x
 0 pour tout y D) .
(
x = pD (x)) (
Dans le cas particulier o lon projette sur un cne convexe ferm K,
K et
x x
, x
= 0) .
(
x = pK (x)) (x x
[(i) (ii)]. De la dnition mme de f (x) et de lingalit f (x) 
f (x) +
f (x), x x valable pour tout x Rn , il vient :
x C minimise f sur C
f (x), x x  0 pour tout x C.

(6.21)

Cette dernire ingalit a lieu si et seulement si

f (x), d  0 pour tout d R+ (C x) = T (C, x),


246

(6.22)

VI.3. Fonctions convexes

soit encore

f (x) [T (C, x)] = N (C, x).

(6.23)

[(ii) (iii)]. tant donn t > 0, dire que x = pC (x tf (x)) quivaut


(daprs la caractrisation de u
= pC (u) rappele au-dessus) :

x x, (x tf (x)) x  0 pour tout x C,


cest--dire
t
x x, f (x)  0 pour tout x C,
ce qui nest autre que (ii) .
[(iv) (ii)]. T (C, x) tant un cne convexe ferm de Rn , utilisons la
caractrisation de u
= pK (u) rappele au-dessus ; ainsi :
0 = pT (C,x) (f (x)) f (x) [T (C, x)] .
Do lquivalence de (iv) et (ii) via (6.23)(6.22)(6.21).
[(iv) (v)]. Toujours daprs la caractrisation de pT (C,x) (u), on a :


u pT (C,x) (u), pT (C,x) (u) = 0,
soit

u, pT (C,x) (u) =  pT (C,x) (u) 2 .

(6.24)

Ce que dit (v) est exactement


f (x), pT (C,x) (f (x))  0,
cest--dire, daprs (6.24),
 pT (C,x) (f (x)) 2 = 0,
ce qui quivaut (iv).

** Exercice VI.16. Soit C un convexe ferm non vide de (Rn ,


, ). La manire
usuelle de caractriser llment cx projection de x sur C est la suivante :
(i)

(cx = pC (x)) (cx C et


x cx , c cx  0 pour tout c C) .

Montrer quune autre caractrisation de pC (x) est comme suit :


(ii)

(cx = pC (x)) (cx C et


c cx , x c  0 pour tout c C) .

247

Chapitre VI. Ensembles et fonctions convexes. Projection...

Solution : Il sagit de montrer lquivalence des deux inquations variationnelles gurant dans les caractrisations (i) et (ii).

Figure 21.

[(i) (ii)]. Observons que pour tout c C :

c cx , x c =  c cx 2 +
x cx , c cx .
Limplication voulue sensuit.
[(ii) (i)]. Pour t ]0, 1[ soit
c(t) := cx + t(c cx ) ;
observant que c(t) C, on a :
t
c cx , x cx t2  c cx 2  0.
En divisant par t, puis en faisant tendre t vers 0, on trouve lingalit
de (i).

** Exercice VI.17. Soit C un convexe ferm non vide de (Rn ,


, ).
1 ) Montrer que la fonction f := d2C (carr de la fonction-distance euclidienne
C) est direntiable sur Rn avec
f (x) = 2(x pC (x)) pour tout x Rn .
248

VI.3. Fonctions convexes

2 ) Dduire de ce qui prcde les primitives sur Rn de lapplication pC ,


cest--dire les fonctions g : Rn R direntiables telles que
g(x) = pC (x) pour tout x Rn .
Solution : 1 ) Considrons (h) := d2C (x + h) d2C (x).
Puisque d2C (x)   x pC (x + h) 2 , nous avons
(h)   x + h pC (x + h) 2  x pC (x + h) 2 =
 h 2 + 2
x pC (x + h), h .
En intervertissant les rles de x et x + h, on obtient de la mme manire
(h)   x + h pC (x) 2  x pC (x) 2 =  h 2 + 2
x pC (x), h .
Comme  pC (u) pC (v)    u v  pour tout (u, v) Rn Rn , on en
dduit
(h) = 2
x pC (x), h + o ( h ) .
Par consquent, f := d2C est direntiable en x avec f (x) = 2(x pC (x)).
2 ) Soit g0 : x Rn  g0 (x) := 12 [ x 2 d2C (x)]. Daprs ce qui prcde,
cette fonction est direntiable sur Rn et
g0 (x) = pC (x) pour tout x Rn .
Ainsi, les fonctions g primitives de lapplication pC sont les fonctions de la
forme suivante :
g = g0 + r, r R.

* Exercice VI.18. Soit f : Rn R convexe et direntiable, soit C un convexe


ferm de Rn . On rappelle que les points x C minimisant f sur C sont exactement ceux pour lesquels :

f (x), c x  0 pour tout c C.

(6.25)

On dnit alors F : Rn Rn de la manire suivante :


x Rn , F (x) := (f (pC (x)) pC (x)) .
1 ) F est-elle continue ? direntiable ?
2 ) Montrer que si x est un point xe de F , alors sa projection x sur C
minimise f sur C.

249

Chapitre VI. Ensembles et fonctions convexes. Projection...

Solution : 1 ) f tant convexe, f : Rn Rn est localement lipschitzienne


sur Rn .
Comme pC : Rn Rn est lipschitzienne sur Rn , il sensuit que F est non
seulement continue, mais localement lipschitzienne sur Rn .
Mme si f est deux fois direntiable sur Rn (cest--dire si f est direntiable), la non-direntiabilit de pC (notamment en les points x fr(C))
fait quon ne peut conclure la direntiabilit de F.
2 ) Soient x un point xe de F et x := pC (x). Puisque f (pC (x))pC (x) =
x, f (x) x = pC (x) et la caractrisation de llment pC (x) conduit :

x (f (x) x), c x  0 pour tout c C.


Ceci nest autre que (6.25) .

Commentaire :
Plus gnralement, si A : Rn Rn est un oprateur (pas ncessairement un
gradient), la recherche de x C vriant

A(x), c x  0 pour tout c C


(inquation variationnelle) peut tre faite via la recherche de points xes de F :=
(A pC pC ) .
Le rsultat de lexercice est rapprocher de celui de lExercice III.17.

** Exercice VI.19. Soient S Rn et x


/ S. On dsigne par PS (x) lensemble
des x S tels que  x x  = dS (x) (PS (x) est lensemble des points de S
distance euclidienne minimale de x).
1 ) Montrer lquivalence des assertions suivantes :
(i) x PS (x) ;
(ii) x S et
x x, c x  12  c x 2 pour tout c S ;
(iii) x PS (x + t(x x)) pour tout t [0, 1].
2 ) Vrier que si x PS (x), alors pour tout t [0, 1[, PS (x + t(x x)) est
le singleton {x} , cest--dire x est le seul point de S distance minimale de x.
3 ) Commenter les dirences avec la caractrisation de x = pS (x) lorsque
S est convexe.

250

VI.3. Fonctions convexes

Solution : 1 ) On a :

xS

x PS (x) et
.
 x x 2   x c 2 pour tout c S

En dveloppant  x c 2 =  x x + x c 2 , lingalit ci-dessus est


quivalente
2
x x, c x   c x 2 .
Do (i) (ii).
(ii) peut encore scrire : x S et
2
x x, c x 

1
 c x 2 pour tout c S et t ]0, 1].
t

(6.26)

Reformulons (6.26) comme suit :


2
[x + t(x x)] x, c x   c x 2 pour tout c S et t [0, 1].
Daprs lquivalence de (i) et (ii) dj vue, nous venons de dmontrer que (ii)
quivaut (iii).

Figure 22.

2 ) Soit x
PS (x + t(x x)), 0  t < 1, et montrons que x
= x ncessairement.
Daprs la caractrisation (ii) de la 1re question,
, c x


x + t(x x) x

1
cx
2 pour tout c S.
2
251

Chapitre VI. Ensembles et fonctions convexes. Projection...

En particulier, pour c = x, cela donne :


2 + t
x x, x x

xx

1
xx
2 .
2

Or x PS (x), do

x x, c x 

1
 c x 2 pour tout c S,
2

x 
et par consquent
x x, x

1
2

x
x 2 .

x
x 2  0, do x
= x.
En dnitive, (1t)
2
La signication gomtrique de ce rsultat est claire : si xt := x + t(x x)
est un point du segment [x, x[, lintersection de S et de la boule ferme centre
en xt et de rayon  xt x  est rduite {x} .
3 ) Contrairement au cas convexe, langle de x x et c x, c S, nest
pas ncessairement obtus : on a simplement une majoration de
x x, c x
par 12  c x 2 . De plus, lorsque t > 1, xt := x + t(x x) ne se projette
pas ncessairement en x. En clair, on ne peut laisser t + dans lingalit (6.26) .
Commentaire :
Les rsultats ci-dessus stendent sans dicult au cadre hilbertien. La
grande dirence est que lorsque S est un ferm de lespace de Hilbert de dimension innie H, on nest pas assur davoir PS (x) = . Notons toutefois les
rsultats suivants :
{x H | PS (x) = } est dense dans H,
{x H | PS (x) est un singleton} est dense dans H.
Depuis Bunt (1934), on sait que si S est un ferm de Rn tel que PS (x) soit
un singleton pour tout x Rn , alors S est convexe. La mme question, pose
dans un cadre hilbertien gnral, reste sans rponse complte ce jour.

** Exercice
ferms de Rn
E VI.20. Soient {Ck } une suite dcroissante de convexes
n
et C := Ck suppos non vide. Montrer que pour tout x R :
k

pCk (x) pC (x)


et

quand k +.

dCk (x) dC (x)


( est une notation pour signier la convergence en croissant.)

252

VI.3. Fonctions convexes

Solution :
Puisque C Ck , pCk (x) est lment du compact B :=
{u |  u x   dC (x)} .
Considrons une sous-suite de {pCk (x)} qui converge vers u B, donc telle
que  u x   dC (x).
Nous disons que u Ck pour tout k. En eet, si ce ntait pas le cas, si
u
/ Ck0 pour un certain k0 , alors, en raison de la dcroissance de
E{Ck } , u ne
pourrait pas tre limite dune sous-suite de {pCk (x)} . Donc u Ck = C, de
k

sorte que  u x   dC (x).


En rsum, u C et  u x  = dC (x) : u = pC (x).
Le raisonnement ci-dessus tant valable pour toute sous-suite convergente
de la suite (borne) {pCk (x)}, on en dduit que (toute) la suite {pCk (x)}
converge vers pC (x).
Comme consquence, dCk (x) =  x pCk (x)   x pC (x)  = dC (x).

** Exercice VI.21. Soit Rn muni dun produit scalaire not


, et de la norme
euclidienne associe note   . On considre un convexe ferm non vide C de
Rn et x un lment de C.
1re partie
On se propose de dmontrer que loprateur pC de projection sur C a en x
une drive directionnelle qui est gale loprateur de projection sur T (C, x)
(cne tangent C en x). Soit donc d Rn .
1 ) Montrer que
pC (x + td) x
= p Cx (d) pour tout t > 0.
t
t
Cx
2 ) a) Vrier que si 0 < t1 < t2 , on a Cx
t2 t1 .
D
(C x) ?
b) Quest-ce que ladhrence de
>0

c) Soit {tk } une suite de rels strictement positifs de limite 0 ; on pose


vk := p Cx (d).
tk

(i) Vrier que la suite {vk } est borne.


(ii) Soit w la limite dune sous-suite convergente de {vk } . Montrer que w
est ncessairement la projection de d sur T (C, x).
d) Dduire de ce qui prcde :
pC (x + td) x
pT (C,x) (d) quand t 0+ .
t
253

Chapitre VI. Ensembles et fonctions convexes. Projection...

2 e partie
Soit f : Rn R continment direntiable.
1 ) Rappeler, sous ses direntes formes quivalentes, la condition de minimalit du 1er ordre ncessairement vrie en x lorsque x est un minimum local
de f sur C.
2 ) Considrons gx : R+ R dnie par gx (t) := f [pC (x tf (x))].
(i) Montrer que la drive droite de gx en 0 existe et vaut
 pT (C,x) (f (x)) 2 .
(ii) Vrier que la drive droite de gx en 0 est strictement ngative
lorsque x ne vrie pas la condition de minimalit du 1er ordre rappele la 1re
question.
3 ) On propose lalgorithme suivant (dit du gradient projet) :
x0 C, xk+1 := pC (xk tk f (xk )),
o tk est choisi minimisant gxk : t R+  gxk (t) := f [pC (xk tf (xk ))] sur
R+ (on suppose quun tel tk existe).
Dmontrer que toute limite dune sous-suite convergente de {xk } est un
point x de C vriant la condition ncessaire de minimalit du 1er ordre.
Solution : 1re partie
1 ) Daprs la caractrisation de u = pD (u) pour dirents D et u (qui est,
rappelons-le : u D et
u, u u  0 pour tout D), on a :



C x

et
x + tv C i .e. v

(x + tv = pC (x + td))
(x + td) (x + tv), c (x + tv)  0

pour tout c C

cx
2
(i.e., t d v, t v  0 pour tout c C) ;
,




cx
C x
et d v,
v  0 pour tout c C .
v = p Cx (d) v
t
t
t
Donc :

pC (x + td) x
= p Cx (d).
t
t


y  x
 := 1
=
avec
y
2 ) a) Si 0 < t1 < t2 et y C, yx
t2
t1
Par consquent, (C x)/t2 (C x)/t1 .
254

t1
t2


x+

t1
t2 y

C.

VI.3. Fonctions convexes

b)

(C x) = T (C, x).

>0

c) (i) vk = p Cx (d) =
tk

pC (x+tk d)x
tk

; sachant que x C, et donc pC (x) = x,

la proprit de Lipschitz de pC (sur Rn , avec la constante 1) fait que  vk  


d.
(ii) Soit w la limite dune sous-suite convergente de {vk } (sous-suite note
encore {vk }) ; il nous faut dmontrer que w = pT (C,x) (d).
D
(C x) = T (C, x).
Puisque vk Cx
tk et que vk w, on a : w
>0
D
(C x), i.e., u (C x) pour un certain > 0.
Soit maintenant u
>0

Pour k susamment grand,

1
tk

 , de sorte que (C x)

Cx
tk ;

do :

d vk , u vk  0 (puisque vk = p Cx (d)).
tk

En passant la limite (sur k) ci-dessus, on obtient


D :
d w, u w  0.
(C x) = T (C, x). Ceci
Par suite,
d w, u w  0 pour tout u
>0

caractrise le fait que w = pT (C,x) (d).


d) Puisque toute sous-suite convergente de la suite (borne) {vk } a pour
limite le mme w = pT (C,x) (d), cest que toute la suite {vk } est convergente et
a pour limite pT (C,x) (d).
Le rsultat prcdent tant acquis pour toute suite {tk } R+
de limite 0,
pC (x+td)x
+
pT (C,x) (d) quand t 0 .
on a bien :
t
Notons quen raison du caractre lipschitzien de pC , on a aussi :
pC (x + tv) x
pT (C,x) (d) quand t 0+ et v d.
t
2 e partie
1 ) Si x est un minimum local de f sur C, on a ncessairement :

f (x), x x  0 pour tout x C,


ou, dune manire quivalente,
pT (C,x) (f (x)) = 0, ou bien x = pC (x f (x)),

ou encore f (x), pT (C,x) (f (x))  0 (cf. Exercice VI.15).


2 ) (i) f tant de classe C 1 , pC ayant une drive directionnelle en x, la


fonction compose f pC a une drive directionnelle en x et :
d Rn ,


(f pC )(x + td) (f pC )(x)
t0+ f (x), pT (C,x) (d) .
t
255

Chapitre VI. Ensembles et fonctions convexes. Projection...

En particulier pour d = f (x),


f [pC (x tf (x))] f (x)


t0+ f (x), pT (C,x) (f (x)) .
t
Lorsque lon projette sur un cne convexe ferm K (comme cest le cas ici
avec T (C, x)), on a la proprit suivante :
(u = pK (u)) (u K et
u u, u = 0) .
(
u, u =  u 2 )
Dans le cas qui nous concerne


(gx )+ (0) = f (x), pT (C,x) (f (x)) =  pT (C,x) (f (x)) 2 .
(ii) Lorsque x ne vrie pas lune des conditions quivalentes du 1 ), on a
(gx )+ (0) < 0 comme cela est clair daprs lexpression de (gx )+ (0) ci-dessus.
3 ) Par construction : xk C et f (xk+1 )  f (xk ) pour tout k.
Soit {xkn }, extraite de {xk } , convergeant vers x (x C ncessairement).
Raisonnons par labsurde et supposons que  pT (C,x) (f (x)) 2 < 0.
Si t minimise t  gx (t) := f [pC (x tf (x))] sur R+ , t > 0 ncessairement et gx (t) < gx (0) = f (x).
Ainsi, pour n assez grand,
f [pC (xkn tf (xkn ))] < f (x).

(6.27)

Comme {f (xk )} est dcroissante (toute la suite !) et f continue, f (xk )


f (x) quand k + (convergence de toute la suite {f (xk )}).
Mais
f (x)  f (xkn +1 ) = f [pC (xkn tkn f (xkn ))]
 f [pC (xkn tf (xkn ))] (daprs la dnition mme de tkn )
< f (x) (daprs (6.27)).

Do la contradiction.
Donc pT (C,x) (f (x)) = 0, ce qui est une des formes de la condition du
1er ordre ncessairement vrie par un minimum local x de f sur C.

256

VI.3. Fonctions convexes

** Exercice VI.22. Dcomposition de Moreau


Soient (H,
, ) un espace euclidien et K un cne convexe ferm non vide
de H.
On dsigne par K le cne polaire de K, cest--dire lensemble
K = {x H |
x, y  0 pour tout y K} .
Le thorme de dcomposition de Moreau arme que les proprits (1) et (2)
suivantes sont quivalentes :
(1)
(2)

z = x + y, x K, y K , et
x, y = 0 ;
x = pK (z), y = pK (z).

La dcomposition gurant en (1) sappelle la dcomposition de Moreau de z


suivant K et K .
Dans chacun des deux exemples qui suivent, dterminer le cne polaire de
K et la dcomposition de Moreau de llment de H propos.
1 ) H = Rn muni de son produit scalaire usuel ; K est lorthant positif (R+ )n
de Rn ; llment dcomposer est un lment quelconque de Rn .
2 ) H = Sn (R) muni du produit scalaire

A, B := trace de AB ; K est le
cne des matrices (symtriques) semi-dnies positives ; llment dcomposer
est un lment quelconque de Sn (R).

Solution : 1 ) K = K ; la dcomposition de Moreau de z = (z1 , . . . , zn )


Rn suivant K et K est z = z + + z , o z + = (z1+ , . . . , zn+ ) et z =
(z1 , . . . , zn ). Ici u signie max(u, 0).
2 ) K = K, cest--dire le cne des matrices (symtriques) semi-dnies
ngatives (revoir lExercice I.10, 2 ), si ncessaire). tant donn Z H, soit
une matrice orthogonale telle que
 Z = diag(1 , . . . , n )

(matrice diagonale dont les lments diagonaux sont les valeurs propres (relles) de Z).

De faon naturelle, on pose

+



X := diag (+
1 , . . . , n ) , Y := diag (1 , . . . , n ) .

Alors Z = X + Y est la dcomposition de Moreau cherche.


257

Chapitre VI. Ensembles et fonctions convexes. Projection...

Commentaire : Lopration de projection sur un convexe ferm ainsi que la dcomposition de Moreau, dont quelques proprits ou exemples font lobjet des
exercices prcdents, prennent toute leur importance dans le contexte des espaces
de Hilbert rels (espaces fonctionnels de rfrence dans ltude de problmes variationnels).

** Exercice VI.23. Soit C := [0, 1]n .


1 ) Quels sont les points extrmaux de C ?
2 ) Soit x = (x1 , . . . , xn ) {0, 1}n . On se propose de dterminer le cne
normal N (C, x) C en x. Pour cela on pose I0 (x) := {i | xi = 0} et I1 (x) :=
{i | xi = 1} .
Dmontrer lquivalence des noncs suivants :

ui xi +

iI0 (x)

u = (u1 , . . . , un ) N (C, x) ;

(6.28)

ui (xi 1)  0 pour tout x = (x1 , . . . , xn ) [0, 1]n ; (6.29)

iI1 (x)

ui x
i +

iI0 (x)

ui (
xi 1)  0 pour tout x
= (
x1 , . . . , x
n ) {0, 1}n ; (6.30)

iI1 (x)


iI0 (x)

u+
i +

u
i =0 ;

(6.31)

iI1 (x)

ui  0 si i I0 (x) et ui  0 si i I1 (x).

(6.32)

3 ) Soit minimiser sur C une fonction convexe direntiable f . Comment


caractriser x = (x1 , . . . , xn ) {0, 1}n minimum de f sur C ?
Solution :
{0, 1}n .

1 ) Lensemble ext C des points extrmaux de C est extC =

2 ) Par dnition, u N (C, x) signie :


u, x x  0 pour tout x C.
Cela se traduit par :


ui xi +
ui (xi 1)  0 pour tout x C.
iI0 (x)

iI1 (x)

Donc (6.28) (6.29) .


Comme ext C = {0, 1}n et que C = conv(ext C), avoir
u, x x  0
ext C. Do
pour tout x C quivaut avoir
u, x x  0 pour tout x
lquivalence de (6.29) et (6.30) .
258

VI.3. Fonctions convexes

Puisque u+
i et ui sont toujours positifs ou nuls, avoir (6.31) signie :

u+
i = 0 pour tout i I0 (x) et ui = 0 pour tout i I1 (x) ; cest-dire (6.32) .

[(6.32) (6.30)] est vident ; dmontrons [(6.30) (6.32)].

1 si j = i,
= (
x1 , . . . , x
n ) dni par x
j := 1 si j I1 (x),
Si i I0 (x), posons x

0 sinon.


ui x
i +
ui (
xi 1) = ui  0 daprs (6.30) .
Alors
iI0 (x)

iI1 (x)

dni par
De manire
similaire, si i I1 (x), posons x
6
0 si j {i} I0 (x),
x
j :=
1 sinon.
Daprs (6.30) , ui  0.
Il est bon de visualiser ces rsultats avec les points extrmaux de [0, 1]2 ou
[0, 1]3 .
3 ) x C est un minimum de f sur C si, et seulement si, loppos de
f (x) est dans N (C, x). Dans le cas o x {0, 1}n , cela se traduit donc par :
f
(x)  0 pour tout i I0 (x)
xi
et

f
(x)  0 pour tout i I1 (x).
xi

* Exercice VI.24. Soient f : Rn R une fonction strictement convexe et C un


convexe compact non vide de Rn . Montrer quun point maximisant f sur C est
ncessairement un point extrmal de C.
Solution : La fonction f , puisque suppose convexe sur Rn , y est continue ;
C est suppos compact : il existe donc x C maximisant f sur C.
Supposons que x ne soit pas un point extrmal de C : il existe ]0, 1[ , x1
et x2 dans C, dirents, tels que x = x1 +(1)x2 . Mais, f tant strictement
convexe,
f (x) < f (x1 ) + (1 )f (x2 )
< f (x) + (1 )f (x) = f (x),
do la contradiction.
259

Chapitre VI. Ensembles et fonctions convexes. Projection...

Commentaire :
Un exemple typique est avec f : x   x a 2 , o   dsigne la norme
euclidienne usuelle de Rn et a Rn ; alors le point de C le plus loign de a est
ncessairement un point extrmal de C.
Prolongement. Soit C un compact non vide de Rn (que lon peut prendre
convexe sans perte de gnralit) ; on suppose que pour tout a Rn , il ny a quun
point qui soit le plus loign de a dans C. Montrer que C est ncessairement rduit
un point. H h...

** Exercice VI.25. Soient C un convexe de Rn et f : C R. On dit que f est


quasi-convexe sur C lorsque
+
)
x1 , x2 C
(6.33)
(f (x1 + (1 )x2 )  max {f (x1 ), f (x2 )}) .
]0, 1[
1 ) Montrer que f est quasi-convexe sur C si et seulement si :
r R, {x C | f (x)  r} est convexe.
2 ) Soit f quasi-convexe sur C.
(i) Montrer que tout minimum local strict de f (sur C) est un minimum
global.
(ii) Montrer que tout maximum local strict de f est ncessairement un point
extrmal de C (et se trouve donc sur la frontire de C).
Solution :
1 ) Soit f vriant (6.33) et considrons Sr (f ) :=
{x C | f (x)  r} .
Si x1 et x2 sont pris dans Sr (f ) et dans ]0, 1[ , f (x1 + (1 )x2 )  r
daprs (6.33) et donc x1 + (1 )x2 Sr (f ). Lensemble Sr (f ) est bien
convexe.
Rciproquement, tant donns x1 et x2 dans C et dans ]0, 1[ , posons r := max {f (x1 ), f (x2 )} . Les points x1 et x2 sont dans Sr (f ) et la
convexit de Sr (f ) fait alors que x1 + (1 )x2 est aussi dans Sr (f ). Do
f (x1 + (1 )x2 )  r.
2 ) (i) Soit x un minimum local strict de f sur C ; soit > 0 tel que
+
)
xx 
(f (x) > f (x)) .
x C, x = x
Prenons x C,  x x  > , et posons t :=
260

xx ,

xt := (1 t)x + tx.

VI.3. Fonctions convexes

Dune manire claire, xt C,  xt x  = et xt = x. Si on avait


f (x) < f (x), on aurait
f (x) < f (xt )  max {f (x), f (x)} = f (x),
do la contradiction. Donc on a bien f (x)  f (x).
(ii) Soit x un maximum local strict de f sur C. Si x ntait pas un point
extrmal de C, on pourrait trouver u = 0 tel que
xuC
x+uC

et

f (x u) < f (x)
f (x + u) < f (x).

Par suite, sachant que x = 12 [(x u) + (x + u)], la quasi-convexit de f ferait


que
f (x)  max {f (x u), f (x + u)} < f (x),
do la contradiction.

* Exercice VI.26. Soit := {x = (x1 , . . . , xn ) Rn | xi > 0 pour tout i} . On


dit que f : R est de la forme (G) lorsquelle sexprime de la manire
suivante :
p

ck xa11k xa22k . . . xannk ,
x = (x1 , . . . , xn )  f (x) =
k=1

o les ck sont des rels positifs et les aik des rels quelconques (ventuellement
< 0).
Des problmes dingnierie, de gnie chimique notamment, conduisent des
problmes de minimisation du type :

Min f0 (x)
x
( rel > 0)
(P)

fi (x)  pour i = 1, . . . , m,
o les fonctions f0 , f1 , . . . , fm sont du type (G).
Montrer que, grce un changement de variables adquat, (P) peut tre
transform en un problme de minimisation convexe qui lui est quivalent.
Solution : Posons yi = ln xi (i = 1, . . . , n), de manire quune fonction f de
la forme (G) se transforme en
p

n
y1
yn
ck e ak ,y ,
y = (y1 , . . . , yn ) R  g(y) := f (e , . . . , e ) =
k=1

avec ak := (a1k , a2k , . . . , ank ).


261

Chapitre VI. Ensembles et fonctions convexes. Projection...


a

,y

Les fonctions y  e k sont convexes sur Rn (daccord ?), les rels ck


sont positifs, donc la fonction g est convexe. (P) est alors quivalent au problme de minimisation convexe suivant :
6
 
Min g0 (y)
P
gi (y)  pour i = 1, . . . , m.

** Exercice VI.27. Soient S un compact non vide de Rn et g, h : S R deux


fonctions continues. On suppose : h(x) > 0 pour tout x S, et on considre
le problme doptimisation (dit fractionnaire) suivant :

Minimiser f (x) := g(x)


h(x)
(P)

x S.
(P) on associe le problme doptimisation suivant, paramtr par R :
6
Minimiser g(x) h(x)
(P )
x S.
1 ) Montrer que la fonction  () := minxS {g(x) h(x)} est
concave, continue, strictement dcroissante, et que lquation () = 0 a une
seule solution.
2 ) Montrer :
si x est solution de (P), alors := f (x) vrie () = 0 ;
si () = 0, alors tout x S tel que f (x) = est solution de (P).
3 ) On suppose : S convexe, g convexe positive sur S, h concave sur S.
Quelles mthodes peut-on prconiser pour approcher dune manire itrative la
valeur optimale dans (P) ?
Solution : 1 ) La fonction est linmum de la famille de fonctions anes
ax : R  g(x) h(x), indexe par x S ; elle est donc concave sur R.
La fonction (, x)  (, x) := g(x) h(x) tant continue et S compact, la fonction  () = minxS (, x) est continue (ceci est ais
vrier).
Prenons 1 < 2 et considrons une solution x1 de (P1 ) ; alors
(1 ) = g(x1 ) 1 h(x1 ) > g(x1 ) 2 h(x1 ) (car h(x1 ) > 0)
 min {g(x) 2 h(x)} =: (2 ).
xS

262

VI.3. Fonctions convexes

Soit x0 S et prenons les rels et + vriant : + < minxS

g(x)
et
h(x)

g(x0 )
< ; il sensuit que ( ) < 0 et (+ ) > 0.
h(x0 )
Il existe donc un seul tel que () = 0.
2 ) Soit x une solution de (P). On a :
x S,

g(x)
g(x)

=: ,
h(x)
h(x)

do
min {g(x) h(x)}  0, g(x) h(x) = 0,
xS

soit () = 0.
Rciproquement, soit R tel que () = minxS {g(x) h(x)} = 0 et
considrons x S tel que g(x) h(x) = 0, i.e. = f (x). Alors :
x S, g(x) h(x)  g(x) h(x) = 0,
soit encore :
x S,

g(x)
g(x)
=
,
h(x)
h(x)

cest--dire que x est solution de (P).


3 ) La premire observation est que f = g/h est prsent quasi-convexe
sur S.
En eet :
r  0, {x S | f (x)  r} = {x S | g(x) rh(x)  0} est convexe.
On peut donc penser approcher la valeur optimale dans (P) par une mthode
de minimisation dune fonction quasi-convexe sur un convexe.
Au vu du rsultat de la 2e question, une deuxime mthode consiste rsoudre lquation (dans R) () = 0 par une mthode itrative ; lvaluation
(k ) rsulte de la minimisation de la fonction g k h qui est convexe sur S.
+ n
+ n
** Exercice VI.28. Soit : R+
R convexe. On dnit I : (R ) (R ) R
par
 
n

pi
qi
.
(p = (p1 , . . . , pn ), q = (q1 , . . . , qn ))  I (p, q) :=
qi
i=1

263

Chapitre VI. Ensembles et fonctions convexes. Projection...

1 ) Vrier que I est convexe. En dduire lingalit suivante :




n
) n +
p
i

i=1
.
qi
I (p, q) 
n


i=1
qi
i=1

On dnit
:
R par
:= x( x1 ).
(i)  est-elle convexe ?
(ii) Comment se comparent I et I ?

2 )

R+

 (x)


I dans les cas suivants : (t) =
3 ) Donner
2les expressions de et
t ln t, (1 t) , t avec > 1, (t 1)2 , | t 1 | .
 
+ )  R dnie par f (x, y) := y x . Il
Solution : 1 ) Soit f : (R+
)

(R

nous sut de vrier que f est convexe. cet eet, prenons (x, y) et (u, v)
dans (R+ ) (R+ ) et 0 < < 1. En notant = 1 , la convexit de
implique




y x
v u
x + u
=
+

y + v
y + v y
y + v v
 
u
x

y
v
+
.

y
v
y + v
y + v
Aprs multiplication par y + v, on obtient

 

u
x
x + u
 y
+ v
,
(y + v)
y
v
y + v
ce qui est lingalit de convexit (sur

 nf ) cherche.
n


ti xi
ti (xi ), faisons ti =

Dans lingalit de Jensen
qi

n


i=1

, xi =
qi

pi
qi .

i=1

i=1

On en dduit immdiatement lingalit demande.

2 ) (i) Oui. Cest un rsultat classique sur les fonctions convexes de la variable relle (rappel en dbut de chapitre), mais qui est aussi une consquence
de ce qui a t dmontr au-dessus.
(ii) I (p, q) = I (q, p).
3 ) I (p, q) est une sorte de mesure de proximit entre p et q ; elle joue un
rle important lorsque
1 , . . . , pn ) et q = (q1 , . . . , qn ) sont des distribup = (p
tions de probabilit ( pi = qi = 1) notamment.
i

264

VI.3. Fonctions convexes

(t) = t ln t. Alors  (t) = ln t, I (p, q) =

n


pi ln

i=1

(t) = (1

pi
qi .

n


t)2 . Ici  = , I (p, q) =


( pi qi )2 .
i=1
n


(t) = t . Alors  (t) = t1 , I (p, q) =

(pi ) (qi )1 .

i=1

(t) = (t 1)2 . Alors  (t) = t +

1
t

2, I (p, q) =

(t) = | t 1 | . Alors  = , I (p, q) =

n

i=1

n


(pi qi )2
.
qi

| pi q i | .

i=1

** Exercice VI.29.
Sur lesprance mathmatique de linverse dune matrice
alatoire
 
1
Si X est une variable alatoire strictement positive, E X1  E(X)
pourvu
1
que E(X) et E X existent. Dans cet exercice, on propose une gnralisation
de cette proprit au cas matriciel.
On dsigne par matrice alatoire une matrice A dont les coecients aij
sont des variables alatoires. Lorsque les aij sont intgrables, on dira que A est
intgrable et on posera E(A) := [E(aij )]1i,jn .
Soit A une matrice carre alatoire telle que, presque srement, A() =
[aij ()]1i,jn soit relle, symtrique et dnie positive ; on suppose que A et
A1 sont intgrables. On se propose de dmontrer que E(A1 )  [E(A)]1 .
1re approche
1 ) Soient U et V deux matrices relles symtriques dnies positives de
taille n, et c un lment de Rn . On dnit f : [0, 1] R comme suit :


t [0, 1], f (t) := [(1 t)U + tV ]1 c, c .
Montrer que f est continue sur [0,1] et deux fois drivable sur ]0,1[. En dduire
que f est convexe.
2 ) En dduire :
t [0, 1], [(1 t)U + tV ]1 ! (1 t)U 1 + tV 1 .
3 ) Montrer alors, laide de lingalit de Jensen,


E A1 c, c  [E(A)]1 c, c .

265

Chapitre VI. Ensembles et fonctions convexes. Projection...

2 e approche
4 ) On pose () := A() E(A). tablir
E(A1 ) = [E(A)]1 + [E(A)]1 E(A1 )[E(A)]1 .
5 ) Vrier que [E(A)]1 E(A1 )[E(A)]1 est semi-dnie positive. En
dduire lingalit E(A1 )  [E(A)]1 .

Solution : 1re approche

1 ) On dsigne par Pn (R) louvert (cest en fait un cne convexe ouvert)


des matrices relles symtriques dnies positives de taille n.

Puisque U et V sont dans Pn (R),


/
.

I := t R | (1 t)U + tV Pn (R)
est un intervalle ouvert de R contenant [0,1].
On peut voir f comme la compose des applications suivantes :
1

t I  1 (t) := (1 t)U + tV

M Pn (R)  2 (M ) := M 1

A Pn (R)  3 (A) :=
Ac, c .
1 est une fonction ane, donc de classe C , et 1 (t) = V U pour tout
t I.
2 est galement une fonction de classe C , et sa direntielle premire
en M est donne par
H  D2 (M )(H) = M 1 HM 1 .
3 est linaire (continue), donc de classe C , et D3 (A) = 3 en tout A.
Par suite, f = 3 2 1 est C sur I [0, 1] et, pour tout t I,

f  (t) = [(1 t)U + tV ]1 [V U ][(1 t)U + tV ]1 c, c ,



f  (t) = 2 [(1 t)U + tV ]1 [V U ][(1 t)U + tV ]1 [V U ]

[(1 t)U + tV ]1 c, c .

266

VI.3. Fonctions convexes

Posons u := [(1 t)U + tV ]1 c et v := [V U ]u. Daprs ce qui prcde et


en raison de la symtrie des matrices en jeu,

f  (t) = 2 [V U ][(1 t)U + tV ]1 [V U ]u, u


= 2 [(1 t)U + tV ]1 v, v .
Do f  (t)  0 puisque [(1 t)U + tV ]1 est symtrique dnie positive.
f est bien convexe sur I.
2 ) Lingalit de convexit (de base) relative f conduit :


t [0, 1], [(1 t)U + tV ]1 c, c  [(1 t)U 1 + tV 1 ]c, c ,
et ce pour tout c Rn . Do lingalit annonce.
3 ) De par les rsultats des questions prcdentes, lapplication F :

Pn (R) R qui A associe F (A) := A1 c, c est convexe. Par application


de lingalit de Jensen :
E[F (A())]  F [E(A)],


E A1 ()c, c  [E(A)]1 c, c ,

soit

do le rsultat escompt puisque E

A1 ()c, c = E(A1 )c, c .

2 e approche
4 ) ()A1 ()() = A() + E(A)A1 ()E(A) 2E(A),
do :
E[()A1 ()()] = E(A) + E(A)E(A1 )E(A)
et

[E(A)]1 E[()A1 ()()][E(A)]1 = [E(A)]1 + E(A1 ).

5 ) Comme la matrice M := E[()A1 ()()] est semi-dnie positive,


il en est de mme de [E(A)]1 M [E(A)]1 . Do lingalit annonce.

*** Exercice VI.30. Soit Pn (R) le cne convexe ouvert des matrices symtriques

dnies positives de taille n. On dnit f : Rn Pn (R) R comme suit :

x Rn , A Pn (R), f (x, A) := A1 x, x
(
, tant le produit scalaire usuel sur Rn ).
Lapplication f est-elle convexe ?

267

Chapitre VI. Ensembles et fonctions convexes. Projection...

Solution : La rponse est oui. Alors


que
la
convexit
de
x

A
x,
x

1 x peut tre aisment dmontre, cest la


est facile et celle de A 

1A x,
convexit de (x, A)  A x, x comme fonction du couple (x, A) qui est
prouve ici.
Soit tout dabord A := diag(a1 , . . . , an ), B := diag(b1 , . . . , bn ), avec les
ai et bi strictement positifs et ]0, 1[. Alors :
f (x + (1 )y, A + (1 )B) =

n

(xi + (1 )yi )2

ai + (1 )bi


n 

y2
x2
=
i + (1 ) i (1 )(bi xi ai yi )2
ai
bi
i=1

n 

yi2
x2i
+ (1 )
= f (x, A) + (1 )f (y, B).

ai
bi
i=1

i=1

Soient prsent A et B quelconques dans Pn (R). On peut trouver Q


inversible telle que QAQ et QBQ soient toutes deux diagonales (rduction
simultane des formes quadratiques associes A et B, possible car A est
dnie positive). Or


f (x, A) = A1 x, x = QT A1 Q1 Qx, Qx
@
?
= (QAQ )1 Qx, Qx = f (Qx, QAQ ) ;
donc
f (x, A) + (1 )f (y, B) f (x + (1 )y, A + (1 )B)
= f (Qx, QAQ ) + (1 )f (Qy, QBQ )
= f (Qx + (1 )Qy, QAQ + (1 )QBQ ),
 0 daprs le rsultat du 1er point.

** Exercice VI.31. Soit f : Rn R convexe et de classe C 2 sur Rn , soit C un


convexe ferm de Rn .
On suppose quil existe x C minimisant f sur C.
C minimise f sur C si, et seulement si,
1 ) Montrer quun point x
x) = f (x).

f (x), x x = 0 et f (
268

(6.34)

VI.3. Fonctions convexes

2 ) On suppose que f est quadratique, i.e. f (x) = 12


Ax, x +
b, x + c, avec
A symtrique semi-dnie positive, et que C est un polydre convexe ferm.
Montrer que lensemble des points minimisant f sur C est un polydre
convexe ferm que lon exprimera en fonction de C, A, b et x.
Solution : 1 ) Soit x
un point de C vriant la condition (6.34) . De part la
convexit de f, on a
x) +
f (
x), x x
,
f (x)  f (
x) laide de (6.3.4) . Ainsi, x
minimise aussi f sur C.
do f (x)  f (
Rciproquement, soit x
un point de C minimisant f sur C. On a alors :
x)  f (x) +
f (x), x
x , do
f (x), x x  0,
f (x) = f (

f (x), x x  0 (cest la condition de minimalit),


en dnitive
f (x), x x = 0.
, on obtient de mme
f (
x), x x
= 0.
En changeant le rle de x et x
Or
 1
x) =
2 f (
x + t(x x
))(x x
)dt
(6.35)
f (x) f (
0
 1
), o H :=
2 f (
x + t(x x
))dt.
= H(x x
0

Comme

x), x x
=
H(x x
), x x
,
0 =
f (x) f (

) = 0 ncessairement.
et que H est symtrique semi-dnie positive, H(x x
x) = 0 daprs lvaluation (6.35) .
Do f (x) f (
2 ) Lensemble des points minimisant f sur C est
=
b, x et A
x = Ax} .
C {
x Rn |
b, x

269

This page intentionally left blank

VII
INITIATION AU CALCUL
SOUS-DIFFRENTIEL
ET DE TRANSFORMES
DE LEGENDRE-FENCHEL

Rappels
Les fonctions f : Rn R {+} qui seront considres, quelles soient
convexes ou non, vrieront au minimum les deux proprits suivantes :
;
Il y a un point au moins en lequel f est nie ;
.
(7.1)
Il existe une fonction ane minorant f sur Rn
Pour de telles fonctions f , on appelle domaine de f lensemble des x en
lesquels f prend une valeur nie (dom f := {x Rn | f (x) < +}), et pigraphe de f lensemble des (x, r) Rn R au-dessus du graphe de f
(epi f := {(x, r) Rn R | f (x)  r}). Si lingalit est stricte dans la dnition
de epi f , on parlera de lpigraphe strict de f , et on notera epis f cet ensemble.

VII.1. La transformation de Legendre-Fenchel


VII.1.1. Dnitions

Rn

La conjugue ou transforme de Legendre-Fenchel de f est la fonction f :


R {+} dnie par :
s Rn , f (s) := sup {
s, x f (x)} .
xRn

(7.2)

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

Lapplication f  f est appele conjugaison ou transformation de


Legendre-Fenchel.
La dnition stend sans dicult aux f dnies sur un espace euclidien
(E,
, ), auquel cas f est dnie sur E reprsent par E via
, .
Comme consquence de la dnition (7.2) , nous avons lingalit suivante :
f (s) + f (x) 
s, x pour tout (s, x) Rn Rn ,
appele ingalit de Fenchel.
Par construction, f est convexe et semi-continue infrieurement ; cette proprit ajoute au fait que f vrie (7.1) entrane que f vrie galement (7.1) .
Exemples :
Si S est une partie non vide de Rn et si IS : x Rn  IS (x) := 0 si
x S, + sinon (IS est la fonction indicatrice de S), alors
(IS ) : s Rn  (IS ) (s) = sup
s, x
xS

est la fonction dappui de S (note S galement).


Si S est une partie ferme non vide de Rn , posons
fS : x Rn  fS (x) :=

1
 x 2 si x S, +, sinon ;
2

alors,
(fS ) : s Rn  (fS ) (s) =

(7.3)


1
 s 2 d2S (s) ,
2

o dS dsigne la fonction-distance S.
Notation : 0 (Rn ) dsigne lensemble des f : Rn R {+} qui sont
convexes semi-continues infrieurement sur Rn et nies en au moins un point
de Rn . On a dja signal que f 0 (Rn ) ds que f vrie (7.1).

VII.1.2. Quelques proprits et rgles de calcul


Si f est 1-coercive sur Rn (i.e. si f (x)/  x  + quand  x  +),
alors f est partout nie sur Rn (cest--dire dom f = Rn ).
Soit f : Rn R strictement convexe, direntiable et 1-coercive sur Rn ;
alors :
272

VII.2. Le sous-diffrentiel dune fonction

f est galement partout nie, strictement convexe, direntiable et


1-coercive sur Rn ;
lapplication f : Rn Rn est bijective et

f (s) = s, (f )1 (s) f ((f )1 (s)) pour tout s Rn .

(7.4)

Ceci est la formule de Legendre.


tant donnes deux fonctions f1 et f2 minores par une fonction ane
commune, linf-convolution (ou somme pigraphique) de f1 et f2 est la fonction
note f1 f2 dnie comme suit :
x Rn , (f1 f2 )(x) :=

inf

x1 +x2 =x

{f1 (x1 ) + f2 (x2 )} .

Alors dom(f1 f2 ) = dom(f1 ) + dom(f2 ) et epis (f1 f2 ) = epis (f1 ) + epis (f2 ).
La conjugue de f1 f2 est f1 + f2 , et ce sans aucune hypothse additionnelle sur
f1 et f2 .
Soient deux fonctions f1 et f2 de 0 (Rn ) telles que les intrieurs relatifs
de leurs domaines se coupent (i.e., ir(dom f1 ) et ir(dom f2 ) ont un point en
commun) ; alors la conjugue de f1 + f2 est f1 f2 et cette inf-convolution est
exacte, cest--dire : si s domf1 f2 , il existe (s1 , s2 ) dom f1 dom f2 tel
que s = s1 + s2 et f1 f2 (s) = f1 (s1 ) + f2 (s2 ).
Si f 0 (Rn ), la fonction f := (f ) nest autre que f. La transformation
f  f est en fait une involution de 0 (Rn ).

VII.2. Le sous-direntiel dune fonction


VII.2.1. Dnitions
tant donns une fonction f et x dom f , un lment s de Rn est appel
sous-gradient de f en x lorsque

(7.5)
f (x )  f (x) + s, x x pour tout x Rn .
La dnition stend sans dicult aux f dnies sur un espace euclidien
(E,
, ).
Lensemble des sous-gradients de f en x est appel sous-direntiel de f en x
et not par le graphisme f (x).
Une caractrisation des s f (x), venant immdiatement de (7.5), est comme
suit :
(s f (x)) (f (s) + f (x)
s, x = 0) ;
273

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

il sensuit que le calcul sous-direntiel et la transformation de Legendre-Fenchel


sont trs troitement lis.

VII.2.2. Quelques proprits et rgles de calcul


Si f 0 (Rn ), alors f (x) est assurment non vide ds que x est dans
lintrieur relatif de dom f.
Si f 0 (Rn ) et si x int(dom f ), f (x) est un convexe compact (non
vide) dont la fonction dappui est
d  f  (x, d) := lim

t0+

f (x + td) f (x)
,
t

appele drive directionnelle de f en x. En consquence, f 0 (Rn ) est direntiable en x int(dom f ) si et seulement si f (x) est un singleton (cest--dire
quil ny a quun sous-gradient de f en x) ; auquel cas f (x) = {f (x)} .
Soit f 0 (Rn ) ; alors : (s f (x)) (x f (s)).
Ceci est rsum symboliquement sous la forme f = (f )1 .
Soit f : Rn R strictement convexe, deux fois direntiable et 1-coercive
sur Rn . Supposons de plus que 2 f (x) soit dnie positive pour tout x Rn .
Alors f jouit des mmes proprits et le calcul direntiel sur f partir de celui
sur f sopre comme suit :
f (s) = (f )1 (s),


1
2 f (s) = 2 f ((f )1 (s))
.

(7.6)

Soient deux fonctions f1 et f2 de 0 (Rn ) telles que les intrieurs relatifs de


leurs domaines se coupent ; alors en tout x en lequel f1 et f2 sont nies,
(f1 + f2 )(x) = f1 (x) + f2 (x).

(7.7)

(Dans le membre de droite il sagit dune somme vectorielle de deux convexes


ferms ; cette rgle gnralise donc la rgle de calcul direntiel usuelle (f1 +
f2 )(x) = f1 (x) + f2 (x).)
Soient deux fonctions f1 et f2 de 0 (Rn ) et x dom(f1 f2 ) pour lequel il
existe (x1 , x2 ) dom f1 dom f2 tels que (f1 f2 )(x) = f1 (x1 ) + f2 (x2 ) (cest-dire linf-convolution de f1 et f2 est exacte en x1 + x2 ) ; alors :
(f1 f2 )(x) = f1 (x1 ) f2 (x2 ).
274

VII.3. La convexification dune fonction

Soient des fonctions f1 , . . . , fk 0 (Rn ) et x un point intrieur tous les


dom fi , i = 1, . . . , k (par exemple x est quelconque si les fi sont partout nies
sur Rn ). Alors :

fi (x) ,
(7.8)
( max fi )(x) = conv

i=1,...,k
iI(x)

o I(x) := {i | fi (x) = f (x)} . En dautres termes, un sous-gradient de


maxi=1,...,k fi en x est une combinaison convexe de sous-gradients de fi en x, o
lon ne retient que les indices i pour lesquels fi (x) = f (x) ( l o a touche ). La
rgle de calcul (7.8), sans quivalent dans le monde des fonctions direntiables,
est sans doute la plus importante du royaume des fonctions convexes.

VII.3. La convexication dune fonction


tant donne une fonction f (toujours vriant (7.1)), on se pose la question de construire lenveloppe convexe de f , cest--dire la plus grande fonction
convexe minorant f sur Rn ; laquelle fonction est note conv f (ou co f plus traditionnellement). La construction analytique de conv f est comme suit :

(conv f )(x) = inf

6n+1

i=1

i f (xi ) | x =

n+1

i xi , i  0 pour tout i

i=1

et

n+1

;
i = 1 ;

i=1

parmi toutes les dcompositions possibles de x comme combinaisons convexes


de points xi , on prend linmum des combinaisons convexes correspondantes des
valeurs f (xi ) de la fonction. (Mais attention ! lpigraphe de conv f peut tre
lgrement plus gros que lenveloppe convexe de epi f.)
Plus utile que conv f est son enveloppe semi-continue infrieure, cest--dire
la fonction obtenue en fermant lpigraphe de conv f (ce qui revient in ne
prendre lenveloppe convexe ferme de epi f ) ; cette nouvelle fonction est note
conv f (ou co f plus traditionnellement). Outre la construction interne de
conv f voque prcdemment, il y a une construction externe qui savre
toute aussi parlante : La fonction conv f est le supremum de toutes les fonctions
anes minorant f sur Rn .
275

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

Fort heureusement, il y a une situation, frquente dans les applications, o


conv f et conv f ne dirent pas :
Si f est semi-continue et 1-coercive sur Rn , alors conv f = conv f et, pour
tout x en lequel conv f est nie, il existe des xi dom fi et des i positifs de
somme 1 tels que
x=

n+1

i xi et (conv f )(x) =

i=1

n+1

i f (xi ).

i=1

Exemple de telle situation : Soient S un ferm non vide de Rn et : Rn R


une fonction continue telle que
lim
(x) = + ; alors la fonction
 x  +
xS
n
f : x R  f (x) := (x) si x S, + sinon, vrie les hypothses du rsultat nonc au-dessus. Voir (7.3) pour un exemple particulier.
Le lien avec la transformation de Legendre-Fenchel sexprime par la relation
suivante : conv f = f .
Rfrences. Chapitre VI de [12] et Chapitre X de [13].

** Exercice VII.1. Soient k lments s1 , . . . , sk de Rn .


1 ) (Lemme de Gordan). Montrer lquivalence des deux propositions suivantes :
(P1 ) maxi=1,...,k
si , x  0 pour tout x Rn ;
(P2 ) Il existe 1  0, . . . , k  0, non tous nuls, tels que

k


i si = 0.

i=1

2 ) Comparer les propositions suivantes :


(P3 ) maxi=1,...,k
si , x > 0 pour tout x = 0 de Rn ;
(P4 ) Il existe 1
vect{s1 , . . . , sk } = Rn .

>

0, . . . , k

>

0, tels que

k


i si

0, et

i=1

Commentaire : Pour visualiser ces conditions (Pi ), il est conseill de reprsenter graphiquement la fonction x  maxi=1,...,k
si , x ainsi que le cne normal
son pigraphe en lorigine (de Rn+1 ).
276

VII.3. La convexification dune fonction

Solution : 1 ) Preuve 1. Soit f : x  f (x) := maxi=1,...,k


si , x . Ce que
dit (P1 ) est que la fonction convexe (et mme linaire par morceaux) f est
minimise en 0. Une condition ncessaire et susante pour quil en soit ainsi
est donc : 0 f (0). Sachant que f (0) = conv{s1 , . . . , sk } , lquivalence de
(P1 ) et (P2 ) sensuit.
Preuve 2 (directe).
k


[(P2 ) (P1 )]. Il est clair que (P2 ) implique lgalit (pour tout x)
i
si , x = 0. Sil existait x tel que maxi=1,...,k
si , x < 0, on aurait (sa-

i=1

chant que lun au moins des i est > 0)

k


i
si , x < 0. Do contradiction.

i=1

[(P1 ) (P2 )]. Soit L : Rk Rn dnie par L(1 , . . . , k ) =

k


i si .

i=1

Comme L est linaire continue, elle transforme le simplexe-unit k de Rk en


un (polydre) convexe compact L(k ) de Rn .
/ L(k ). Nous allons, sans le dire expliciSupposons (P2 ) fausse. Alors 0
tement, sparer strictement {0} et L(k ). Dsignons par p0 la projection de
0 sur L(k ). Daprs la caractrisation de la projection dun lment sur un
convexe ferm,

c p0 , 0 p0 =
p0 , p0 c  0 pour tout c L(k ).
Cest notamment le cas pour c = si , i = 1, . . . , k. Do

si , p0 
p0 , p0 =  p0 2 < 0,
ce qui induit maxi=1,...,k
si , p0 < 0. Do contradiction avec (P1 ).
2 ) Les deux propositions (P3 ) et (P4 ) sont quivalentes.
[(P4 ) (P3 )]. Supposons quil existe x = 0 tel que maxi=1,...,k
si , x  0
et montrons quon arrive une contradiction. Comme
0=

A k

B
i si , x

i=1

i
si , x

i=1

et que tous les i sont > 0, il sensuit :

si , x = 0 pour tout i = 1, . . . , k.
277

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

Puisque x = 0, il existe s Rn tel que


s, x = 0. Or Rn = vect{s1 , . . . , sk }
k

i si . Par suite
par hypothse ; il existe donc des rels i tels que s =
i=1

s, x =

i
si , x

i=1

est impossible tenir puisque


s, x = 0 et
si , x = 0 pour tout i.
[(P3 ) (P4 )]. Montrons tout dabord que (P3 ) implique que
vect{s1 , . . . , sk } = Rn . Sil nen tait pas ainsi, il existerait x = 0 tel que

si , x = 0 pour tout i = 1, . . . , k (daccord ?). Mais ceci contredirait alors


(P3 ).
Au vu du rsultat de la 1re question, (P3 ) implique lexistence de coek

i si = 0. Reste prouver (ici) que
cients i  0, non tous nuls, tels que
i=1

lon peut prendre les i tous strictement positifs. Dsignons par K le cne
convexe engendr par les vecteurs si , cest--dire
;
6 k

ti si | ti  0 pour tout i = 1, . . . , k .
K :=
i=1

Nous savons que K est ferm (cf. Exercice V.12). Considrons prsent la
k

si sur (le cne convexe ferm) K ; cette projection est de la
projection de
forme

k


i=1

ti si , avec ti  0, pour tout i, et caractrise par les relations suivantes

i=1

(cf. rappels de la Section VI.2) :


k
k

si
ti si K (cne polaire de K)

i=1
i=1

et
B
A k
k
k

si
ti s i ,
ti si = 0.

i=1
i=1
i=1

Puisque K est engendr par les si , la 1re relation ci-dessus implique


B
A k

(1 + ti )si , sj  0 pour tout j = 1, . . . , k,

i=1

278

VII.3. La convexification dune fonction

do, grce la 2e relation ci-dessus,


B
A k

(1 + ti )si , sj = 0 pour tout j = 1, . . . , k.
i=1

Comme vect{s1 , . . . , sk } = Rn , on en dduit

k


(1 + ti )si = 0. Do le

i=1

rsultat escompt.
Commentaire : Des exemples simples montrent quon ne peut se contenter de
i  0 pour tout i dans (P4 ), et quon ne peut se dispenser de lhypothse
vect{s1 , . . . , sk } = Rn .
Prolongement de lexercice : Montrer que (P4 ) quivaut aussi
cne {s1 , , sk } = Rn .

Figure 23. Illustration dans R2 .

** Exercice VII.2. Soit f 0 (R) telle que f (t) = f (t) pour tout t R.
Rassembler toutes les proprits possibles de f , notamment celles concernant f
et f.
Solution : Le domaine de f est un intervalle symtrique :
si 0  t dom f, [t, +t] dom f.
0 dom f et minimise f sur R. En eet, puisque f est paire et convexe
1
f (0)  [f (t) + f (t)] = f (t) pour tout t R.
2
f est galement paire.
279

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

f (t) = f (t) pour tout t dom f.


Si 0 f (t0 ) pour un certain t0 , alors f (t) = f (0) sur [t0 , +t0 ].
Si 0 est lunique minimum de f et si f est drivable en 0, il en est de
mme pour f .

** Exercice VII.3. Soient 0 (R) paire et f 0 (Rn ) dnie par


f (x) := ( x ).
Exprimer f en fonction de .
En dduire lexpression suivante de f (x) :
f (x) = {s Rn |  s  ( x ) et
s, x =  s   x } .

Solution : f (s) = ( s ).


s f (x) f (x) + f (s) =
s, x ( x ) + ( s ) =
s, x
( x ) + ( s ) =  s   x  et
s, x =  s   x 
(utiliser lingalit de Schwarz, et celle de Fenchel pour ).

* Exercice VII.4. Construire graphiquement la conjugue de la fonction suivante :


1
x R  f (x) := x2 + | x |
2
(graphiquement signie en dterminant le graphe de f , puis celui de f =
(f )1 , et en en dduisant f .)
Solution :

Figure 24.

280

VII.3. La convexification dune fonction

Do, par intgration de s  f (s) = {(f ) (s)}, et sachant que


f (0) = 0 :
6
f (s) =

0 si 1  s  +1,
1
2 (|

s | 1)2 si | s | > 1.

* Exercice VII.5. Soit A Sn (R) dnie positive. Montrer, laide dun simple
calcul de conjugue de fonction convexe, lingalit suivante
A + A1  2In .
Solution : Soit f
: x Rn  f (x) :=
f (s) = 12 A1 s, s .
Lingalit de Fenchel indique :

1
2

Ax, x . Alors f : s Rn 

x Rn , s Rn ,
Ax, x + A1 s, s  2
x, s .
En faisant x = s, on trouve lingalit demande.

* Exercice VII.6. On se propose de trouver une primitive de la fonction s 


Argsh s (note aussi (sh)1 (s)) par lintermdiaire de la transformation de
Legendre-Fenchel.
1 ) Soit f : x R  f (x) := ch x. Dterminer f .
2 ) Indiquer pourquoi f est une primitive de la fonction Argsh.

Solution : 1 ) Par dnition, f (s) = supxR {sx ch x} . Le supremum dans


lexpression de f (s) est atteint en un seul point x(s) = Argsh s. Do

(7.9)
f (s) = s(Argsh s) ch(Argsh s) = s(Argsh s) 1 + s2 .
2 ) On a f  = sh, do (f ) = (f  )1 : s R  Argsh s. Donc f est la
primitive de Argsh qui prend en 0 la valeur f (0) = inf xR f (x) = 1.
Le cas trait ici est une illustration de la formule de Legendre :
f (s) = s(f  )1 (s) f [(f  )1 (s)].
281

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

** Exercice VII.7. Pour a > 0 et c  0 posons



fa,c : x R  fa,c (x) := a2 (x c)2 si | x c |  a, + sinon.
1 ) Calculer (fa,c ) , puis fa1 ,c1 fa2 ,c2 .
2 ) Vrier sur cet exemple les formules reliant les drives premire et
seconde de fa,c celles de (fa,c ) .

: s R  f (s) = a 1 + s2 + cs. Ce calcul permet un


Solution : 1 ) fa,c
a,c
4 5
. En particulier, les
va-et-vient entre les familles de fonctions {fa,c } et fa,c
rgles de calcul sur les conjugues conduisent :
fa1 ,c1 fa2 ,c2 = fa1 +a2 ,c1 +c2 .
2 ) On a :
x ]c a, c + a[,

 (x) = (x c)[a2 (x c)2 ]1/2 ,


fa,c


fa,c (x) = a2 [a2 (x c)2 ]3/2 ;


) (s) = as(1 + s2 )1/2 + c,
(fa,c

s R,



) (s) = a(1 + s2 )3/2 .


(fa,c


Ainsi, lapplication fa,c est une bijection de ]c a, c+ a[ sur R dont la bijec ) . Pour ce qui est de la drive seconde, nous sommes dans
tion inverse est (fa,c

) par la formule suivante :
les conditions o nous pouvons relier fa,c et (fa,c
1

, o x = as(1 + s2 )1/2 + c.
) (s) = 
s R, (fa,c
fa,c (x)
Notons aussi sur cet exemple le comportement suivant :
(s) I (s) = cs pour
Lorsque a 0, fa,c (x) I{c} (x) pour tout x, et fa,c
{c}
tout s.

** Exercice VII.8. Pour m et rels posons




1 xm 2
lorsque = 0,
qm, : x R  qm, (x) :=
2

qm,0 := I{m} .
Calculer (qm, ) .
En dduire qm, qm , .

282

VII.3. La convexification dune fonction

(s) = 1 2 s2 + ms.
Solution : qm,
: s R  qm,
2
Par suite,

qm, qm , = qm+m ,2 +2 .


de la formule corresponCommentaire : Le rsultat ci-dessus doit tre rapproch
dante en Probabilits : N (m, )N (m ,  ) = N (m+m , 2 + 2 ), o dsigne
lopration de convolution usuelle en Analyse. On peut pousser le parallle entre
Probabilits et Analyse convexe et dresser le tableau de correspondance suivant :
Probabilits

Analyse convexe

addition de rels

inmum de rels

multiplication de rels

addition de rels

lois normales N (m, )

fonctions quadratiques qm,

convolution

inf-convolution

transformation de Fourier
(fonctions caractristiques)

transformation de Legendre-Fenchel
(fonctions conjugues)

** Exercice VII.9. Soit f 0 (R) dnie de la faon suivante :


6
2
x ln x + x2 x si x  0 (avec 0 ln 0 = 0)
f (x) :=
+ si x < 0.
Ici f (s) ne peut tre exprime analytiquement laide des fonctions
usuelles.
Considrons la fonction l : R+ R+ , dite de Lambert, dnie comme
linverse de la fonction x  xex (cest--dire : pour tout u  0, x = l(u) est
lunique solution de xex = u).
Exprimer f laide de l et des fonctions usuelles.

Solution : Puisque f (x)/ | x | + quand | x | +, on sait dj que f


sera partout nie sur R.
Soit s R. Par dnition
/
.
x2

+x .
f (s) = sup sx x ln x
2
x0
283

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...


2

La fonction strictement concave x  0  s (x) := sx x ln x x2 + x



sannule en 0, elle est drivable sur R+
et s (x) = s lnx x pour tout x > 0.

Comme s sannule en lunique point x(s) = l(es ), le supremum de s sur R+
est atteint en x(s). Ainsi :
[l(es )]2
+ l(es )
f (s) = sl(es ) l(es )[s l(es )]
2
1
= [l(es )]2 + l(es ).
2
En dnitive :
s R,

f (s) =

1
[l(es )]2 + l(es ).
2

* Exercice VII.10. Soit f 0 (Rn ) majore sur Rn . Que peut-on dire dune
telle fonction ?
Solution : Elle est ncessairement constante. En eet, de lingalit
f (x)  M pour tout x Rn ,
on tire f  I{0} M (fonction qui vaut partout + sauf en 0 o elle vaut
M ).
Par consquent, f = I{0} C pour un certain C R, do f = f C.

** Exercice VII.11. Soient f et g dans 0 (Rn ) telles que f + g soit une fonction
ane sur Rn . Montrer que f et g sont ncessairement anes sur Rn .
Indication. Calculer (f + g) .
Solution : Soient s Rn et r R tels que f + g =
s, + r. De cette galit,
il vient que f et g sont partout nies sur Rn et donc continues sur Rn . Par
conjugaison, il sensuit :
(f + g) = f g = I{s} r.
Comme dom (f g ) = dom f + dom g et epis (f g ) = epis f + epis g ,
la seule possibilit pour vrier la relation au-dessus est davoir :
f = I{s1 } r1 , g = I{s2 } r2 , s = s1 + s2 , r = r1 + r2 .
Do

284

f = (f ) =
s1 , r1 et g = (g ) =
s2 , r2 .

VII.3. La convexification dune fonction

** Exercice VII.12. Soit Rn muni du produit scalaire usuel not


, et de la
norme euclidienne associe  . La fonction f : x Rn  f (x) := 12  x 2
est sa propre conjugue : f = f . Est-ce la seule fonction dans ce cas ?
Solution : Oui. Pour voir cela, considrons donc une fonction f sur Rn pour
laquelle f = f . Lingalit de Fenchel nous dit que
f (x) + f (s) 
s, x pour tout (s, x) Rn Rn .
En faisant s = x et sachant que f = f , il sensuit
1
 x 2 pour tout x Rn .
2
Prenons la conjugue membre membre ci-dessus ; il vient
f  12  2 .
f (x) 

Donc

1
2

 2 est la seule solution de lquation f = f .

Commentaire : Dans le mme ordre dides, soit f : Rn R convexe, de classe


C 2 , telle que dt (2 f (x)) = 1 pour tout x Rn . Que peut-on dire dune telle
fonction ? Rponse : elle est quadratique. Dur dur...

** Exercice VII.13. Soit f : Rn R telle que


f (x) = pour tout x Rn .
Montrer quune telle fonction est ncessairement convexe sur Rn .
Solution : 1re dmonstration. Soient x0 , x1 dans Rn et ]0, 1[. Posons
x := (1 )x0 + x1 . Prenons s f (x ) ; alors :
f (x0 )  f (x ) +
s , x0 x = f (x ) +
s , x0 x1 ,
f (x1 )  f (x ) +
s , x1 x = f (x ) + (1 )
s , x1 x0 .
Multiplions la 1re ingalit par 1, la deuxime par , et faisons la somme
membre membre ; il vient :
(1 )f (x0 ) + f (x1 )  f (x ).
2e dmonstration. Puisque f (a) = pour au moins un a Rn , f est minore sur Rn par une fonction ane. On fait alors appel au rsultat suivant :
(f (x) = ) ((conv f )(x) = f (x)) .
On a donc conv f = f (dans le cas prsent).
285

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

*** Exercice VII.14. Soient f : Rn R convexe et C un convexe ferm sur


lequel f est constante.
1 ) Montrer que le sous-direntiel de f est constant sur lintrieur relatif
de C.
2 ) On suppose f direntiable sur C. Montrer que le gradient de f est
constant sur C.
Commentaire : On pourra illustrer cette proprit avec des fonctions f : R2 R
et des segments C = [A, B] de R2 .
Lhypothse f constante sur C peut tre gnralise facilement f est
ane sur C .
Solution : 1 ) a) Soient x ir C et d V := sous-espace vectoriel direction
de a C. Alors nous disons que
s, d = 0 pour tout s f (x). Soit en eet
s f (x). Par dnition :
f (x + td)  f (x) + t
s, d pour tout t R.
Sachant quil existe > 0 tel que x + td C pour tout t ] , +[,
nous avons f (x + td) = f (x) pour de tels t. Divisons lingalit qui prcde
par t > 0 (resp. par t < 0) et faisons tendre t vers 0+ (resp. 0 ) pour obtenir

s, d  0 (resp.
s, d  0).
b) Soit x ir C, s f (x) et x C. Il vient tout dabord :
f (s) + f (x)
s, x = 0.
Or x x V, do
s, x x = 0 daprs le rsultat du point prcdent.
Comme f (x ) = f (x), il vient

f (s) + f (x ) s, x = 0, soit s f (x ).


On a donc dmontr que f (x) f (x ). Pour linclusion inverse, on considre x ir C et on opre de mme.
2 ) Nous avons f (x) = v pour tout x ir C. Tout x C est limite
dune suite dlments x de ir C, et f (x) f (x ) quand x x . Do
f (x ) = v.

286

VII.3. La convexification dune fonction

*** Probl`eme VII.15. Approximation et rgularisation de Moreau-Yosida


Soient Rn muni dun produit scalaire not
, ,   la norme associe, et
f : Rn R {+} une fonction convexe, semi-continue infrieurement (s.c.i.)
et nie en au moins un point.
1 ) Pour tout r > 0, on considre la fonction fr dnie sur Rn par :


r
(7.10)
x Rn  fr (x) := infn f (u) +  x u 2 .
uR
2
(fr est appele rgularise de Moreau-Yosida de f.)
a) Vrier que la fonction u  f (u) + r2  x u 2 est s.c.i. et 0-coercive
sur Rn .
En dduire que linmum est atteint dans la dnition de fr (x).
Montrer que cet inmum est atteint en un point unique de Rn , point que
lon notera xr dans toute la suite.
b) crire fr comme linf-convolution de deux fonctions convexes.
Vrier que cette inf-convolution est exacte en tout point x de Rn .
En dduire que fr est direntiable en tout x Rn avec :
fr (x) = r(x xr ) ;

(7.11)

(7.12)
r(x xr ) f (xr ).
c) En crivant les conditions de minimalit pour le problme de minimisation
dnissant fr (x), montrer que :
I + 1r f est une multi-application surjective de Rn dans Rn ;

1
(x) = xr.
x Rn , I + 1r f

(7.13)

(I dsigne ici lapplication identit de Rn dans Rn ).


2 ) Dterminer fr (x) et xr pour tout x Rn dans les cas suivants :
a) f est une forme ane sur Rn , i.e.
u Rn  f (u) :=
s, u + , o s Rn et R.
b) f est lindicatrice dun convexe ferm non vide C de Rn .
c) u Rn  f (u) := 12
Au, u , o A : Rn Rn est linaire autoadjoint.
3 ) Montrer que xr peut tre caractris par lune ou lautre des conditions
suivantes :
(7.14)
f (u) f (xr ) + r
xr x, u xr  0 pour tout u Rn ;
f (u) f (xr ) + r
u x, u xr  0 pour tout u Rn .

(7.15)
287

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

Quexpriment ces conditions dans le cas b) de la question prcdente ?


4 ) a) Montrer que lapplication x  xr est lipschitzienne de rapport 1.
b) Montrer que lapplication x  fr (x) = r(x xr ) est lipschitzienne de
rapport r.
c) Dmontrer lingalit
0  fr (y) fr (x) r
x xr , y x  r  x y 2 ,

(7.16)

valable pour tout x, y dans Rn .


5 ) a) On suppose que f est borne infrieurement sur Rn . Indiquer pourquoi
fr est localement lipschitzienne et borne infrieurement sur Rn .
b) Quelle est la conjugue (de Legendre-Fenchel) de la fonction Nr : u 
r

u 2 ?
2
En dduire lexpression de la conjugue fr de fr .
Comparer alors inf xRn f (x) et inf xRn fr (x).
6 ) a) Montrer que
f (xr )  fr (x)  f (x) pour tout x Rn .

(7.17)

b) tablir lquivalence des assertions suivantes :


(i) x minimise f sur Rn ;
(ii) x minimise fr sur Rn ;
(iii) x = xr ;
(iv) f (x) = f (xr ) ;
(v) f (x) = fr (x).
7 ) Lobjet de cette question est ltude du comportement de fr (x) quand
r +.
a) Soit x dom f := {x | f (x) < +} . Montrer tout dabord que xr x
quand r +.
En dduire que {x Rn | f (x) = } est dense dans dom f.
En dduire aussi que fr (x) f (x) quand r +.
b) Soit x
/ dom f. Montrer que fr (x) + quand r +. (On raisonnera par labsurde en montrant que lhypothse {fr (x)}r est majore conduit
une contradiction.)
8 ) On considre le problme de minimisation suivant :
(P)
288

Trouver x Rn tel que f (x) = f := infn f (x),


xR

VII.3. La convexification dune fonction

o f vrie en outre lhypothse suivante :


R, {x Rn | f (x)  } est born.
5
4
a) Indiquer pourquoi x Rn | f (x) = f est un convexe compact non vide.
b) On considre la suite {xk } de Rn construite partir de x0 Rn de la
manire suivante :
xk+1 := (I + f )1 (xk ),
cest--dire xk+1 est lunique point tel que

.
/
1
1
2
2
f (xk+1 ) +  xk+1 xk  = minn f (u) +  xk u  .
uR
2
2

Montrer que la suite {f (xk )} est dcroissante.


Montrer que la suite {xk } est borne et que lim  xk+1 xk  = 0.
k+

En dduire que f (xk ) f quand k +.


Solution : 1 ) a) La fonction Fr : u Rn  Fr (u) := f (u) + 2r  x u 2 est
clairement s.c.i. Montrons quelle est 0-coercive sur Rn . Comme f est convexe
par hypothse, elle possde une minorante ane : il existe s0 Rn et 0 R
tels que
f (u) 
s0 , u + 0 pour tout u Rn .
Par consquent,
r
Fr (u) 
s0 , u + 0 +  x u 2
2
s

r
r s0
r
0
x 2 
x 2 +  x 2 + 0 ,
 u+
2
r
2 r
2
do on dduit : lim Fr (u) = +.
u+

Il en rsulte quil existe bien un point minimisant Fr sur Rn .


La fonction Fr tant strictement convexe, comme somme dune fonction
convexe et dune fonction strictement convexe, il ny a quun point minimisant
Fr sur Rn .
b) Soit Nr := 2r  2 ; il est clair que fr est linf-convolution de f et de
Nr : fr = f Nr . De plus, cette inf-convolution est exacte en tout point de Rn :
r
(7.18)
x Rn , fr (x) = (f Nr )(x) = f (xr ) +  x xr 2 .
2
On utilise alors la rgle de calcul donnant le sous-direntiel dune infconvolution de fonctions pour obtenir
x Rn , fr (x) = f (xr ) Nr (x xr ).
289

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

Or Nr (x xr ) = {r(x xr )}, de sorte que


fr (x) = {r(x xr )} et r(x xr ) f (xr ).

(7.19)

La fonction fr est une fonction convexe de Rn dans R, donc localement lipschitzienne sur Rn ; alors lunique lment r(xxr ) de fr (x) dnit la direntielle (au sens de Frchet) de fr en x comme suit : h Rn 
r(x xr ), h .
Ainsi fr (x) = r(x xr ).
c) Le point xr est caractris par la condition suivante :


r
0 f +  x 2 (xr ),
2
ce qui revient
0 f (xr ) + r(xr x) (condition dj rencontre en (7.19)),

1
(7.20)
I + f (xr ).
r
Daprs ce qui a t vu plus haut, pour tout x Rn , llment xr , solution
de lquation multivoque (7.20) , est dni de faon unique.
En consquence :

la multi-application I + 1r f est surjective (i.e., I + 1r f (Rn ) = Rn ) ;
linverse de la multi-application I + 1r f est en fait univoque ; il dnit
xr prcisment :
1

1
n
(x).
(7.21)
x R , xr = I + f
r


ou encore

2 ) a) On a dj utilis la dcomposition suivante dans 1 ) a) :


s

r
r s
r
r
x 2  x 2 +  x 2 + .

s, u + +  x u 2 =  u +
2
2
r
2 r
2
Il sensuit :
s
 s 2
+
s, x + .
xr = x , fr (x) =
r
r
On peut aussi calculer4(immdiatement)
xr grce (7.21) .
5
b) fr (x) = inf uC 2r  x u 2 = r2 d2C (x), o dC dsigne la fonctiondistance C.
Quant xr , ce nest autre que la projection de x sur C : xr = pC (x).
c) Comme f (u) = {Au} pour tout u, il est ais de dterminer xr
via (7.21) :


A 1
(x).
xr = I +
r
290

VII.3. La convexification dune fonction

Pour ce qui est de fr (x),


1
r

Axr , xr +  x xr 2
2
2
'

 (


1
A 1
A 1
=
Ar x, x , o Ar := A I +
=r I I+
.
2
r
r

fr (x) =

3 ) xr est solution dun problme de minimisation o la fonction-objectif


est de la forme f + g, avec f convexe s.c.i. et g convexe direntiable sur Rn .
Les solutions u dun tel problme sont caractrises par lune ou lautre des
conditions suivantes (cf. Exercice II.7) :
u Rn ,
g(u), u u + f (u) f (u)  0 ;

(7.22)

u R ,
g(u), u u + f (u) f (u)  0.

(7.23)

Avec g : u  g(u) = r2  u x 2 , elles donnent prcisment les conditions (7.14) et (7.15) attendues.
La premire condition, cest--dire (7.22), a dj t vue puisquelle est
quivalente
g(xr ) = r(x xr ) f (xr ).
Seule la condition (7.15), traduction de (7.23), a un caractre nouveau.
Si lon considre lexemple b) de la question prcdente, on obtient :

x pC (x), u pC (x)  0 pour tout u C


(caractrisation variationnelle usuelle de pC (x)) ;

(7.24)

u pC (x), x u  0 pour tout u C


(cf. Exercice 6.16).

(7.25)

4 ) a) Lingalit (7.14) crite successivement pour xr et yr donne :


u Rn , f (u) f (xr )  r
x xr , u xr
v Rn , f (v) f (yr )  r
y yr , v yr .
En faisant u = yr et v = xr et en additionnant, on obtient :
 xr yr 2 
xr yr , x y ,

(7.26)

do
 xr yr    x y  .
Donc lapplication x  xr est monotone et lipschitzienne de rapport 1.
291

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

b) On a :
(x xr ) (y yr )2 =  (x y) (xr yr ) 2
=  x y 2 +  xr yr 2 2
x y, xr yr
  x y 2 daprs (7.26) .
Lapplication x  fr (x) = r(xxr ) est ainsi lipschitzienne de rapport r.
c) Puisque r(y yr ) fr (y), on a lingalit
fr (x) fr (y)  r
y yr , x y .
En retranchant r
x xr , x y aux deux membres, on obtient :
fr (x) fr (y) r
x xr , x y  r  x y 2 + r
x y, xr yr
 r  x y 2 ,
soit encore
fr (y) fr (x) r
x xr , y x  r  x y 2 .
Une autre mthode consisterait utiliser la proprit de Lipschitz de fr
dans un dveloppement de Taylor-Lagrange (ou Taylor avec reste sous forme
dintgrale) du 1er ordre de fr .
5 ) a) Comme cela a dj t dit, fr : Rn R est convexe, donc localement
lipschitzienne sur Rn . Comme
fr (x)  f (xr )  infn f (x),
xR

fr est borne infrieurement sur

Rn

ds que f lest.

1
 s 2 .
b) La conjugue Nr de Nr est s Rn  Nr (s) = 2r

Puisque fr = f Nr , on a fr = f + Nr , cest--dire :

s Rn , fr (s) = f (s) +

1
 s 2 .
2r

En particulier
fr (0)

(= inf xRn fr (x))

concide avec

f (0)

6 ) a) De par les dnitions mmes :


r
f (xr ) +  x xr 2 = fr (x)  f (x) pour tout x Rn .
2
292

(= inf xRn f (x))

(7.27)

VII.3. La convexification dune fonction

b) [(ii) (iii)]. On sait que fr est convexe et direntiable, avec fr (x) =


r(x xr ) en tout x. Par consquent, x minimise fr sur Rn si et seulement si
fr (x) = 0.
[(i) (iii)]. xr est caractris comme lunique lment vriant


1
x I + f (xr ).
r
Il est donc clair que x = xr si et seulement si 0 f (x), ou, dune manire
quivalente, si x minimise f sur Rn .
[(iii) (iv) (v)]. Immdiat partir de (7.27) .
[(v) (iii)]. Si fr (x) = f (x), cela signie que la borne infrieure dans la
dnition de fr (x) est atteinte en x, donc x = xr .
7 ) a) Soit x 
s0 , x + 0 une minorante ane de f. Avec (7.27) on
obtient :
r
f (x) 
s0 , xr + 0 +  x xr 2 ,
2
ce qui implique (cf. dcomposition du 1 ) a) :
+ >

1
s0 2 1 s0
1
0
f (x)
  xr x +
 
x 2 +  x 2 +
r
2
r
2 r
2
r

De ce fait,  xr x + sr0  tend vers 0 quand r +, et donc  xr x 


aussi.
Comme f (xr ) nest pas vide (car r(x xr ) f (xr )), xr dom f :=
{x | f (x) = } pour tout r > 0 ; avec ce qui prcde, on a donc dmontr
que dom f est contenu dans ladhrence de dom f.
La convergence de xr vers x, combine avec la semi-continuit infrieure
de f (en x) et lingalit f (xr )  fr (x)  f (x), font que fr (x) f (x) quand
r +.
b) Soit x
/ dom f , i.e. f (x) = +. Il nous faut montrer que fr (x) +
quand r +. La suite {fr (x)}r tant croissante, le contraire de lnonc
est : il existe K tel que fr (x)  K pour tout r > 0.
Toujours grce la minorante
s0 , + 0 de f , lingalit
"
1
1!
r
K
 fr (x) =
f (xr ) +  x xr 2
r
r
r
2
s0 2  s0 2
s0 , x 0
1

+
+
  xr x +
2
r
2r 2
r
r
conduit nouveau : xr x quand r +.
293

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

Ensuite

f (xr )  fr (x)  K pour tout r > 0,


xr x quand r +,
f est semi-continue infrieurement en x,

font que f (x)  K. Do la contradiction.


8 ) Lhypothse faite sur f revient sa 0-coercivit :
lim

x+

f (x) = +.

a) La
5 f, sa semi-continuit et sa coercivit font que f >
4 convexit de
et que x | f (x) = f est un convexe compact non vide de Rn .
b) Par dnition mme de xk+1 , on a :
1
 xk+1 xk 2  f (xk ).
2
La suite {f (xk )} est videmment dcroissante (et borne infrieurement
par f ).
Consquences :
f (xk+1 ) +

xk {x Rn | f (x)  f (x0 )} qui est born par hypothse ;

f (xk )  f quand k +.

(7.28)

Posons F (x) := (I + f )1 (x). Cette application F : Rn Rn (qui est la


base de la dnition de la suite {xk } puisque xk+1 = F (xk )) vrie lingalit
suivante :
x, y Rn ,  F (x)F (y) 2   xy 2  [F (x)x][F (y)y] 2 (7.29)
qui nest autre, aprs dveloppement, que lingalit (7.26) pour r = 1.
Soit x minimisant f sur Rn . Sachant que F (x) = x et xk+1 = F (xk ), il
vient de (7.29) :
 xk+1 x 2   xk x 2  xk+1 xk 2 .

(7.30)

Consquences
5
4 :
;
La suite  xk x 2 est dcroissante, donc convergente
4
5
2
2
 xk+1 x   xk x  k+ 0 (la suite  xk x 2 tant
convergente) ;
 xk+1 xk k+ 0 (cela rsulte de (7.30)).
Revenons prsent la suite {f (xk )} .
Comme f est convexe, on a
f = f (x)  f (xk+1 ) + f  (xk+1 , x xk+1 ).
294

(7.31)

VII.3. La convexification dune fonction

Puisque xk+1 minimise u  f (u) +

1
2

 xk u 2 ,

f  (xk+1 , x xk+1 ) +
xk+1 xk , x xk+1  0.

(7.32)

Sachant que la suite { x xk+1 } est borne et que


lim  xk+1 xk  = 0, un passage la limite dans (7.32) conduit

k+

lim inf f  (xk+1 , x xk+1 )  0.


k+

Do on tire grce (7.31) : lim f (xk )  . Ce qui, avec (7.28), nous permet
k+

de conclure que f (xk ) f quand k +.


On peut en fait dmontrer que la suite (toute entire, pas seulement une
sous-suite) {xk } converge vers un minimum de f sur Rn .

** Exercice VII.16. Soit f : Rn R convexe et de classe C 2 sur Rn . Montrer que lapplication c : Rn Rn dnie par c(p) := p + f (p) est un C 1 diomorphisme de Rn sur lui-mme.
Indication. Pour dmontrer le caractre bijectif de c, on pourra minimiser la fonction g : u Rn  g(u) := f (u) + 12  u x 2 , o x Rn est donn.
Solution : c est bijective. Pour x donn, considrons
g : u  g(u) = f (u) +

1
2

 u x 2 .

La fonction f tant convexe, elle est minore par une fonction ane : il
existe s0 Rn et 0 R tels que f (u) 
s0 , u + 0 pour tout u Rn .
Par consquent,
1
g(u) 
s0 , u + 0 +  u x 2
2
1
1
 x 2
+ 0 ,
  u + s0 x 2  s0 x 2 +
2
2
2
do on dduit :

lim

g(u) = +. Par ailleurs, g est (continue et) stric-

u+
sur Rn . Il

existe donc un unique lment de Rn , not p(x),


tement convexe
n
minimisant g sur R ; cet lment p(x) est caractris par lquation
f (p(x)) + p(x) x = 0 (condition ncessaire et susante de minimalit),
soit
c(p(x)) = x.
295

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

Caractre C 1 de c1 . La direntielle de c en x est reprsente par la matrice jacobienne Jc(x) qui vaut ici In +2 f (x). Comme 2 f (x) est symtrique
semi-dnie positive, Jc(x) a un dterminant suprieur dt In = 1. Daprs
le thorme dinversion locale, c1 = p est C 1 sur Rn avec
Jp(x) = [Jc(p(x))]1 pour tout x Rn .
Autrement dit :

1

pour tout x Rn .
Jp(x) = In + 2 f (p(x))

En rsum : c est une bijection de Rn sur lui-mme, c et c1 sont de


classe C 1 sur Rn ; c est donc un C 1 -diomorphisme de Rn sur lui-mme.

*** Exercice VII.17. Soit f : Rn R convexe et de classe C 2 sur Rn . Pour tout


r > 0, on considre la fonction fr dnie sur Rn par :


r
x Rn  fr (x) := infn f (u) +  x u 2 .
uR
2
(fr est la rgularise de Moreau-Yosida de f.)
En utilisant les rsultats des Exercices VII.15 (1re question) et 7.16, montrer
que fr est de classe C 2 sur Rn et exprimer 2 fr en fonction de 2 f et de
linverse de lapplication p  p + 1r f (p).
Solution : Si pr (x) dsigne lunique lment de Rn minimisant la fonction
u  f (u) + 2r  x u 2 sur Rn , on a (cf. Exercice VII.15, 1re question) :
fr (x) = r(x pr (x)) = f (pr (x)).
Par consquent, fr est deux fois (continment) direntiable en x si, et
seulement si, pr est (continment) direntiable en x ; dans ce cas
2 fr (x) = r(In Jpr (x)) = 2 f (pr (x)) Jpr (x)
Or, lorsque f est C 2 sur Rn , lapplication pr est de classe C 1 sur Rn , avec
!
"1
2
(cf. Exercice VII.16). En dnitive, fr est de
Jpr (x) = In + f (pr r (x))
classe C 2 sur Rn avec :


!

fr (x) = r In In +


pr (x) = In +

296

f
r

1

(x).

2 f (pr (x))
r

"1 

2 f (p

!
r (x))

In +

2 f (pr (x))
r

"1

VII.3. La convexification dune fonction

** Exercice VII.18. Soit f : Rn R convexe (mais pas ncessairement direntiable). On dsigne par f (x) le sous-direntiel de f en x.
Soient x Rn et y < f (x) ; on dsigne par (x, y) la projection de (x, y) sur
lpigraphe de f.
Vrier que y = f (x) et y < f (x).
Montrer que
xx
f (x).
f (x) y
Solution : Rn R est structur en espace euclidien grce au produit scalaire


(x, r), (x , r  ) Rn+1 := x, x Rn + rr  .
Lpigraphe de f , epi f := {(x, r) Rn R | f (x)  r}, est ici un convexe
ferm de Rn R. Il peut tre vu comme lensemble de sous-niveau (ou tranche)
de la fonction g : (x, r)  g(x, r) := f (x) r au niveau 0, i.e.,
epi f = {(x, r) Rn R | g(x, r)  0} .
Comme g est une fonction convexe (continue) et quil existe (x0 , r0 )
Rn R tel que g(x0 , r0 ) < 0 (hypothse de Slater donc), on a :
int(epi f ) = {(x, r) | g(x, r) < 0} = epi f \ gr f,
fr(epi f ) = {(x, r) | g(x, r) = 0} = gr f.
Par hypothse, (x, y)
/ epi f ; la projection (x, y) de (x, y) sur epi f se
trouve donc sur la frontire de epi f , do f (x) = y.
Llment (x, f (x)), projection de (x, y) sur epi f , est solution de linquation variationnelle suivante :

x x, u x + (y f (x))(v f (x))  0 pour tout (u, v) epi f.

(7.33)

Il sensuit :
y f (x)  0 (sinon on arrive une contradiction dans (7.33) en prenant
(u, v + ) epi f et en faisant +) ;
y < f (x) en fait (sinon, avec y = f (x), lingalit (7.33) indique que

x x, u x  0 pour tout u Rn (car f est partout nie sur Rn ), et donc


x = x ; on aurait alors (x, y) = (x, f (x)) epi f , ce qui nest pas le cas).
En divisant par f (x) y dans (7.33), on obtient :
,
xx
, u x + f (x) v  0 pour tout (u, v) epi f.
f (x) y
297

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

Cette dernire ingalit, crite pour tous les (u, f (u)), u Rn , conduit :
,
xx
,u x
pour tout u Rn ,
f (u)  f (x) +
f (x) y
cest--dire

xx
f (x)y

f (x).

Figure 25.

Illustration du fait que (x x, y f (x)) est dans le cne normal epi f en


xx
f (x).
(x, f (x)), soit encore f (x)y

** Exercice VII.19. Soit E := Sn (R) structur en espace euclidien laide du


produit scalaire

, (rappel :

A, B := tr(AB)) ; soit f : E R dnie


comme suit :


tr X 2
1
2
.
X E, f (X) :=  X 
n
n
On souhaite calculer f , cest--dire
S E  f (S) := sup {

S, X f (X)} .
XE

tr X
1
In 2 pour tout X E. En dduire
1 ) Vrier que f (X) =  X
n
n
que f est convexe sur E.
2 ) a) Montrer que le supremum de la fonction X 

S, X f (X) sur
E est ni et atteint si, et seulement si, tr S = 0.
En dduire f (S) lorsque tr S = 0.
b) Montrer que f (S) = + si tr S = 0.
298

VII.3. La convexification dune fonction

Indication. La dcomposition E = V V , o V = {X E | tr X = 0} et V =
RIn , peut tre utile dans lorganisation des calculs.
Solution : 1 ) En utilisant la rgle de calcul
 M N 2 =  M 2 +  N 2 2

M, N ,
on obtient
tr X
In
X
n

=X  +

tr X
n

2

 In 2

2
(tr X)2 .
n

Comme  In 2 =

In , In = tr(In2 ) = n, il vient


2
tr X 2
tr X
In
=  X 2
.
X
n
n
Do lexpression annonce de f (X).
Lapplication X E  X trnX In E est ane, la fonction U E 
1
2
n  U  R est convexe ; par consquent la compose des deux, qui nest
autre que f , est convexe.
2 ) a) La fonction g : X E  g(X) :=

S, X f (X) est concave et


direntiable sur E, avec


tr X
2
X
In .
g(X) = S
n
n
Le supremum de g sur E est ni et atteint si, et seulement si, lquation
g(X) = 0 est rsoluble ; la valeur maximale est alors g(X) o X est une des
solutions de lquation en question. Voyons pour
 quels S cela est possible.
2
X
tr
Avoir g(X) = 0, i.e. S = n X n In , implique tr S = 0. Rciproquement, si tr S = 0, lquation g(X) = 0 est rsoluble avec X =
consquence, lorsque tr S = 0,

nS
2 .

En

f (S) =

S, nS/2 f (nS/2) = n/4 tr(S 2 ).


b) Supposons tr S = 0 et considrons Xk := k(tr S)In , k N. Alors

S, Xk f (Xk ) = k(tr S)2 +

quand

k +.

Il sensuit que f (S) = +.


299

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

*** Probl`eme VII.20. Conjugaison et sous-direntiation de fonctions spectrales


Soit E := Sn (R) structur en espace euclidien laide du produit scalaire

, (rappel :

A, B := tr(AB)). tant donne f 0 (Rn ) symtrique


(i.e. vriant f (x(1) , . . . , x(n) ) = f (x1 , . . . , xn ) pour tout (x1 , . . . , xn ) Rn et
toute permutation de {1, . . . , n}), on dnit Vf : Sn (R) R {+} de la
manire suivante :
M Sn (R), Vf (M ) := f (1 (M ), . . . , n (M )) ,

(7.34)

o 1 (M )  2 (M )  . . .  n (M ) dsignent les valeurs propres de M.


De telles fonctions Vf sont appeles fonctions de valeurs propres ou fonctions
spectrales.
Lobjet du problme est de dterminer la conjugue (resp. le sous-direntiel)
de Vf en fonction de la conjugue (resp. du sous-direntiel) de f.
1 ) a) Vrier que f ( 0 (Rn )) est galement symtrique.
b) Montrer :
Vf (M ) = sup {tr(M S) f (1 (S), . . . , n (S))} .

(7.35)

SE

En dduire que Vf 0 (E) et (Vf ) = Vf .


2 ) laide de fonctions f 0 (Rn ) symtriques, faire une liste dexemples
de fonctions de valeurs propres Vf qui soient convexes.
3 ) a) Montrer que S E est un sous-gradient de Vf en M (i.e., S
Vf (M )) si et seulement si :

(1 (S), . . . , n (S)) f (1 (M ), . . . , n (M ))

et il existe


(7.36)

U M U = diag (1 (M ), . . . , n (M ))

U orthogonale telle que et

U  SU = diag ( (S), . . . , (S)) .


1
n
b) On suppose f direntiable en (1 (M ), . . . , n (M )). Dduire de ce qui
prcde que Vf est direntiable en M , avec :
Vf (M ) = U [diag f (1 (M ), . . . , n (M ))] U  ,

(7.37)

o U est une matrice orthogonale (quelconque) telle que U  M U =


diag(1 (M ), . . . , n (M )), et diag f (1 (M ), . . . , n (M )) dsigne la matrice diagonale construite partir du vecteur f (1 (M ), . . . , n (M )).
300

VII.3. La convexification dune fonction

4 ) Illustrer les rsultats obtenus dans le problme sur lexemple suivant :


n

ln(xi ) si

i=1
x = (x1 , . . . , xn ) Rn  f (x) := x > 0 pour tout i = 1, . . . , n ;
i

+ sinon.
Indication. Pour dmontrer lingalit  dans (7.35) et dmontrer (7.36), on
pourra utiliser le rsultat suivant : pour M et S dans E,
tr(SM ) =

i (SM ) 

i=1

i (S)i (M ),

i=1

avec galit si, et seulement si, il existe U orthogonale telle que U  M U =


diag(1 (M ), . . . , n (M )) et U  SU = diag(1 (S), . . . , n (S)) (dcomposition spectrale simultane).
Solution : 1 ) a) Par dnition de f ,
s = (s1 , . . . , sn ) Rn , f (s) =

sup
(x1 ,...,xn )

6 n

;
si xi f (x1 , . . . , xn ) . (7.38)

i=1

n
n


si xi =
s(i) x(i) , f (x1 , . . . , xn ) =
Si est une permutation de {1, . . . , n},
i=1
i=1
4
5
f (x(1) , . . . , x(n) ), et (x(1) , . . . , x(n) )|(x1 , . . . , xn ) Rn = Rn ; il est ainsi
clair, partir de (7.38), que

f (s(1) , . . . , s(n) ) = f (s1 , . . . , sn ).


Comme cela a t fait partir de f pour Vf , il est donc possible de dnir
Vf : S Sn (R)  Vf (S) := f (1 (S), . . . , n (S)).
b) Ingalit  dans (7.35)
Soit U orthogonale telle que M = U  diag(1 (M ), . . . , n (M ))U ; ainsi
tr(M S) = tr[diag(1 (M ), . . . , n (M ))U SU  ].
301

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

Lapplication de E dans E qui S associe U SU  tant bijective et prservant


les valeurs propres, on a :
sup {tr(M S) f (1 (S), . . . , n (S))} =

SE

sup {tr[diag(1 (M ), . . . , n (M ))S] f (1 (S), . . . , n (S))} .

SE

En se restreignant aux matrices diagonales S = diag(s1 , . . . , sn ), on en


dduit
sup {tr(M S) f (1 (S), . . . , n (S))} 

SE

sup
(s1 ,...,sn )Rn

6 n

;
i (M )si f (s1 , . . . , sn ) .

i=1

Lexpression de droite nest autre que f (1 (M ), . . . , n (M )), soit


f (1 (M ), . . . , n (M )) puisque f 0 (Rn ).
Ingalit  dans (7.35)
Pour tout S E,

tr(M S) f (1 (S), . . . , n (S)) 

i (M )i (S) f (1 (S), . . . , n (S))

i=1

 f (1 (M ), . . . , n (M )) = Vf (M ).

Consquences de (7.35)
(7.35) exprime que Vf est la conjugue de Vf ; donc Vf 0 (E).
Par ailleurs, f tant son tour une fonction de 0 (Rn ) symtrique,
Vf 0 (E). Il sensuit (Vf ) = (Vf ) = Vf .
302

VII.3. La convexification dune fonction

2 )
Fonctions de 0 (Rn )
symtriques

Fonctions de valeurs propres Vf


correspondantes

f (x1 , ..., xn ) = max {x1 , ..., xn } .

Vf (M ) = plus grande
valeur propre de M.

f (x1 , ..., xn ) = somme des m plus


grandes valeurs dans x1 , ..., xn .
f (x1 , ..., xn ) = max {x1 , ..., xn }

Vf (M ) = somme des m plus


grandes valeurs propres de M.
Vf (M ) = 1 (M ) n (M )
= max(i,j) | i (M ) j (M ) |
(largeur du spectre deM ).

min {x1 , ..., xn } .


n

ln xi si

f (x1 , ..., xn ) =

i=1

xi > 0 pour tout i,

+ sinon.

) n
+

1/xi si

1/

f (x1 , ..., xn ) =

i=1

xi > 0 pour tout i,

+ sinon.

ln(dt M ) si M est
dnie positive,
Vf (M ) =

+ sinon.

1/tr(M ) si M est
dnie positive,
Vf (M ) =

+ sinon.

3 ) a) Nous avons :
S Vf (M )

S, M = Vf (M ) + (Vf ) (S)
= Vf (M ) + Vf (S) (daprs la 1re question).
Or :
lingalit (de Fenchel)

f (1 (M ), . . . , n (M )) + f (1 (S), . . . , n (S)) 

i (M )i (S)

i=1

est toujours assure, et


S, M = tr(SM ) 

n


i (S)i (M ).

i=1

303

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

Il sensuit :

S Vf (M )

f (1 (M ), . . . , n (M )) + f (1 (S), . . . , n (S))

i (M )i (S)
=

i=1
et

i (M )i (S).

tr(SM ) =
i=1

La

1re

partie de lassertion de droite exprime que


(1 (S), . . . , n (S)) f (1 (M ), . . . , n (M )) ;

quant la 2e , elle na lieu que sil existe U orthogonale telle que


U  M U = diag (1 (M ), . . . , n (M )) et U  SU = diag(1 (S), . . . , n (S)).
b) Si f est direntiable en (1 (M ), . . . , n (M )), alors
f (1 (M ), . . . , n (M )) = {f (1 (M ), . . . , n (M ))} ;
il sensuit avec la rgle de calcul tablie en (7.36) :
4
telle
Vf (M ) = U [diagf (1 (M ), . . . , n (M ))]U  | U orthogonale
5

que U M U = diag(1 (M ), . . . , n (M )) .
Montrons que cet ensemble ne contient quun seul lment, ce qui assurera
la direntiabilit de Vf en M et lexpression annonce (7.37) de Vf (M ).
Tous les lments du convexe Vf (M ) ont mme norme ( S 2 = tr(S 2 ) =
 f (1 (M ), . . . , n (M )) 2 pour tout S Vf (M )), et comme cette norme
  sur E (dduite du produit scalaire

, ) est strictement convexe, i.e.


( S1  =  S2  = 1, S1 = S2 , ]0, 1[)
( S1 + (1 )S2  <  S1  + (1 )  S2 ),
Vf (M ) ne contient quun seul lment.
4 ) La fonction f propose donne lieu
Vf : M E  Vf (M ) =

ln(i (M )) = ln(dtM ) si i (M ) > 0 pour tout i,

304

i=1

cest--dire si M est dnie positive,


sinon.

VII.3. La convexification dune fonction

Dtermination de la conjugue
Le calcul de f est ais, de6par la structure dcompose de f :
ln x si x > 0
la conjugue de : x 
est
+ sinon
6
 
1 + ln 1s si s < 0,

: s 
+ sinon ;
do



n

1

n +
ln
si si < 0 pour tout i,
si
f : s = (s1 , . . . , sn )  f (s) =
i=1

+ sinon.
Il sensuit :

n ln(dt S) si S

(Vf ) (S) = Vf (S) = f (1 (S), . . . , n (S)) = est dnie ngative,

+ sinon.

Calcul direntiel
f est direntiable en (1 (M ), . . . , n (M )) lorsque i (M ) > 0 pour tout i,
cest--dire lorsque M est dnie positive. Alors, la rgle de calcul tablie
en (7.37) conduit retrouver le rsultat
Vf (M ) = M 1 .

Commentaire : Les fonctions de valeurs propres Vf vrient


Vf (M ) = Vf (U  M U ) quelle que soit U orthogonale ;

(7.39)

il est intressant de savoir que la rciproque est vraie : toute fonction convexe V
sur E (vriant (7.39) est de la forme Vf .
Pour les fonctions de valeurs propres du type Vf , le calcul de la conjugue et
du sous-direntiel reviennent ceux plus simples du calcul de la conjugue
et du sous-direntiel de f.
Le rsultat (7.37) est quelque peu curieux : lexpression de Vf (M ) ne
dpend pas de la matrice orthogonale U ayant servi diagonaliser M .
305

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

** Exercice VII.21. Soit C un convexe ferm (non vide) symtrique de Rn (i.e.


tel que (x(1) , . . . , x(n) ) C pour tout (x1 , . . . , xn ) C et toute permutation
de {1, . . . , n}). On dnit :
1 (C) := {M Sn (R) | (1 (M ), . . . , n (M )) C} ,

(7.40)

o 1 (M )  2 (M )  . . .  n (M ) dsignent les valeurs propres de M.


1 ) Montrer que 1 (C) est un convexe ferm de Sn (R).
2 ) Illustrations. Dterminer 1 (C) dans les cas suivants :
 n
C = {0} , C = R+ , C = n (simplexe-unit de Rn ).

Indication. Pour rpondre la 1re question, utiliser le rsultat de la 1re question


du Problme VII.20.
Solution : 1 ) Soit f := IC (fonction indicatrice de C) ; de par les hypothses
faites sur C, f 0 (Rn ) et est symtrique. Quest-ce qualors la fonction
Vf : M Sn (R)  Vf (M ) := f (1 (M ), . . . , n (M )) ?
Il vient immdiatement : Vf = I1 (C) (fonction indicatrice de 1 (C)).
Daprs le rsultat de la 1re question du Problme VII.20, Vf est convexe
semi-continue infrieurement sur Sn (R) ; par consquent, 1 (C) est un
convexe ferm de Sn (R) (assurment non vide).
2 ) Si C = {0}, seule la matrice nulle est dans 1 (C).
n
Si C = (R+ ) , 1 (C) est clairement Pn (R) (lensemble des matrices M
de Sn (R) qui sont semi-dnies positives).
Si C = n , 1 (C) = {M Pn (R) | trM = 1} (ensemble not 1 dans
lExercice 6.12).

Commentaire : Les exemples traits dans lexercice montrent que 1 (C) nest
pas ncessairement polydral lorsque C lest.
Prolongement de lexercice : Montrer que M est un point extrmal de 1 (C)
si, et seulement si, (1 (M ), . . . , n (M )) est un point extrmal de C.
306

VII.3. La convexification dune fonction

*** Exercice VII.22. Soit f : R R drivable et minore par une fonction


ane. Montrer que conv f est drivable sur R.
Solution : Comme conv f est convexe et partout nie, il ny a pas lieu de
distinguer ici conv f et conv f (= f ). Cela dit, conv(epi f ) peut tre dirent
2
de conv(epi f ) (prendre f (x) = ex par exemple).
Supposons quil existe un point x0 en lequel la fonction g := conv f nest
pas drivable, cest--dire en lequel la drive gauche de g dire de la drive
droite.

Figure 26.

Le cne K construit partir des demi-drives de g en x0 contient


conv(epi f ) et, de plus, (x0 , g(x0 )) conv(epi f ). On peut donc approcher
(x0 , g(x0 )) par une suite dlments de conv(epi f ), lesquels sont ncessairement dans K.
Il sensuit que f (x0 ) = g(x0 ) (daccord ?). Mais alors f ne serait pas drivable en x0 , ce qui est contraire lhypothse.

Commentaire : Ce rsultat est particulier aux fonctions convexes de la variable


relle.

Considrons en eet f : (x, y) R2  f (x, y) := x2 + ey2 ; cest une
fonction de classe C sur R2 pour laquelle (conv f ) : (x, y)  (conv f )(x, y) =
|x|.

*** Exercice VII.23. Soient f et g : R R drivables et minores (chacune)


par une fonction ane. On sait daprs lexercice prcdent que conv f et conv g
sont galement drivables sur R. La question prsent est : si f   g , a-t-on
(conv f )  (conv g) ?

307

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

Solution : La rponse est oui. Nous dmontrons cela en plusieurs tapes.


tape 1
Considrons h : R R drivable, minore par une fonction ane, et
x0 R. On suppose quil existe a > (conv h) (x0 ) et b R tels que
h(x)  a(x x0 ) + b pour x  x0 .
Alors b < (conv h)(x0 ) ncessairement.
En eet, si b  (conv h)(x0 ), on aurait alors :
(i) h(x)  a(x x0 ) + b  a(x x0 ) + (conv h)(x0 ) pour x  x0 dune part,
(ii) h(x)  (conv h)(x)  (conv h)(x0 ) + (conv h) (x0 )(x x0 )
 (conv h)(x0 ) + a(x x0 ) si x  x0 dautre part.
En somme
h(x)  (conv h)(x0 ) + a(x x0 ) pour tout x R,
et donc
(conv h)(x)  (conv h)(x0 ) + a(x x0 ) pour tout x R.
Cette dernire ingalit implique (conv h) (x0 )  a (en fait galit), do
contradiction avec lhypothse.
La mme conclusion, savoir b < (conv h)(x0 ), est obtenue mutatis mutandis en supposant quil existe a < ( conv h) (x0 ) et b R tels que
h(x)  a(x x0 ) + b pour x  x0 .
tape 2
On ramne le problme des fonctions concidant en un point x0 R.
Posons en eet f1 (x) := f (x) f (x0 ) et g1 (x) := g(x) g(x0 ). On a
videmment :
(1) f1 = f  et g1 = g ;
(2) (conv f1 ) = (conv f ) et (conv g1 ) = (conv g)
(car conv f1 = conv f f (x0 )).
tape 3
Sachant que f1  g1 , montrons que (conv f1 ) (x0 )  (conv g1 ) (x0 ).
En premier lieu, notons :
Fx
Fx
si x  x0 , f1 (x) = x0 f1 (t)dt  x0 g1 (t)dt = g1 (x) ;
si x  x0 , g1 (x)  f1 (x).
308

VII.3. La convexification dune fonction

Supposons que (conv f1 ) (x0 ) > (conv g1 ) (x0 ) et arrivons une contradiction. Nous avons :
si x  x0 ,
g1 (x)  f1 (x)  (conv f1 )(x)  (conv f1 )(x0 ) + (conv f1 ) (x0 )(x x0 )
et, daprs le rsultat de la 1re tape (appliqu h := g1 , a := (conv f1 ) (x0 )
et b := (conv f1 )(x0 )), il vient que (conv f1 )(x0 ) < ( conv g1 )(x0 ).
si x  x0 ,
f1 (x)  g1 (x)  (conv g1 )(x)  ( conv g1 )(x0 ) + (conv g1 ) (x0 )(x x0 )
et, toujours daprs le rsultat de la 1re tape (appliqu h := f1 , a :=
(conv g1 ) (x0 ) et b := (conv g1 )(x0 )), il vient que (conv g1 )(x0 ) < (conv f1 )(x0 ).

** Exercice VII.24. Soient f : Rn R convexe et x1 , 


. . . , xk 
Rn . On suppose
k
k


i xi =
i f (xi ).
quil existe 1 > 0, . . . , k > 0, de somme 1, tels que f
Montrer que f est alors ane sur conv{x1 , . . . , xk } .

i=1

i=1

Solution : Soit C := conv{x1 , . . . , xk } . On veut montrer que sil y a un


point
relatif de C en lequel lingalit usuelle de convexit

 k de lintrieur
k


i xi 
i f (xi ) est une galit, alors f est ane sur C.
f
i=1

i=1

Posons x :=

k


i xi et prenons s f (x). La fonction g : x Rn 

i=1

g(x) := f (x) +
s, x x est une minorante ane de f , concidant avec f en x.
Nous disons que g concide avec f en tous les xi , i = 1, . . . , k. Si ce ntait
pas le cas, nous aurions

g(x) =

k

i=1

i g(xi ) <

i f (xi ) = f (x),

i=1

do contradiction.
309

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

En consquence, pour tout x C, disons x =

k


i xi ,

i=1

)
f

+
i xi

i=1

k

i=1
k

i f (xi ) (de part la convexit de f )

i g(xi ) (puisque f (xi ) = g(xi ) pour tout i)

i=1

g
f

) k

i=1
) k

+
i xi

(puisque g est ane)


+

i xi

(puisque g minore f ),

i=1

do f (x) = g(x).

*** Exercice VII.25. Soit C un convexe compact de Rn , soit f : C R une

fonction continue sur C et C sur C . On prolonge f tout Rn en posant

f (x) = + si x
/ C. La fonction conv f est-elle alors direntiable sur C ?

Solution : Non. Voici un contre-exemple. Soit C le polydre convexe compact de R2 de sommets (1,0), (1,2), (0,3), (1,2) et (1,0) ; soit f : (1 , 2 )
R2  f (1 , 2 ) := 1 12 si (1 , 2 ) C, + sinon. Alors conv f nest pas
direntiable sur le segment L joignant (1,2) (1,2).

Figure 27.

310

VII.3. La convexification dune fonction

Remarque : La fonction conv f construite partir dune fonction f comme dans

lexercice ci-dessus est continue sur C (puisque conv f est convexe et C est le
domaine de conv f ), mais il peut arriver quelle ne soit pas continue en des points
de la frontire de C.

** Exercice VII.26. S tant un ferm non vide de Rn , on dnit fS : Rn


que la
R {+} par fS (x) := 12  x 2 si x S, +

 sinon. On rappelle
conjugue fS de fS est fS : s Rn  fS (s) = 12  s 2 d2S (s) .
Rappeler ce que sont fS (x) et (conv fS )(x) pour x S, ainsi que fS (s).
Illustrer les formules prcdentes sur les exemples suivants :
S = {x R | 0  x  1 ou 2  x  3} ,
4
S = x = (1 , 2 ) R2 : 12 + 22 2 | 1 | 2 | 2 | +1  0
et | 1 | + | 2 |  1} .
Solution : On note PS (x) := {y S | dS (x) =  x y } .
Considrons x S :
(i) (s fS (x)) (x PS (s)) (dS (s) =  s x ) .
En particulier x fS (x).
Les quivalences annonces se voient grce la caractrisation de fS (x)
via fS : s fS (x) si, et seulement si, fS (x) + fS (s) =
s, x , ce qui revient
ici

1
1
IS (x) +  x 2 +  s 2 d2S (s) =
s, x .
2
2
Sachant que IS (x) = 0, ceci quivaut dS (s) =  s x , i.e. x PS (s).
(ii) conv fS est une fonction convexe de domaine conv S.
Comme fS (x) = lorsque x S, conv fS et fS concident en x ; de plus
(conv fS )(x) = fS (x).
(iii) fS (s) = conv PS (s).
En eet, (conv fS =) convfS 0 (Rn ) de sorte que x fS (s) quivaut
s ( conv fS )(x). Or, on est ici dans les conditions o on peut exprimer
(conv fS )(x) en fonction de fS (voir rappels de la Section VII.3) : il existe
x1 , . . . , xn+1 dans S (= dom fS ), (1 , . . . , n+1 ) n+1 tels que
x=

n+1

i=1

i xi

et (conv fS )(x) =

fS (xi ).

i >0

311

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

Connaissant lvaluation de fS (xi ) lorsque xi S (cf. (ii)), on a bien


traduit x fS (s) en x conv PS (s) .

Figure 28.



fS (1) = (conv fs )(1) = 1, 32 = {s se projetant sur S en 1} .
En x = 32 , PS (x) = {1, 2} et fS (x) = [1, 2].
Dans le 2e exemple, lensemble S de R2 est comme suit :

Figure 29.

fS nest pas direntiable en x0 = (1, 1).

Remarque : Dans le cadre plus gnral o S est un ferm non vide dun espace
de Hilbert, on montre facilement linclusion PS (x) fS (x), x H, de sorte que
conv PS (x) fS (x). Mais lorsque H est de dimension innie, cette inclusion peut
tre stricte. Toutefois, bien des proprits de la multi-application x  PS (x), la
monotonie par exemple, se dduisent des proprits de x  fS (x) grce cette
inclusion.
312

VII.3. La convexification dune fonction

** Probl`eme VII.27. Minimisation de dirences de fonctions convexes


Soient g et h deux fonctions convexes de Rn dans R et on considre le
problme doptimisation suivant :
(P)

Minimiser f (x) := g(x) h(x) sur Rn .

o
1 ) Comment trouver une dcomposition de f sous la forme f = g h,

g et h sont toutes les deux fortement convexes ?


2 ) Pour cette question et la suivante, on fait lhypothse (H1 ) ci-dessous :
{x Rn : g(x) h(x)  r} est born pour tout r R.

(H1 )

a) Indiquer brivement pourquoi le problme (P) a au moins une solution.


Cette solution est-elle unique ?
b) On dit que x est un point T-critique de (P) lorsque g(x) h(x) = .
Montrer que toute solution de (P) est un point T-critique de (P).
3 ) Dans cette question, on suppose de plus
(H2 )

g et h sont fortement convexes sur Rn .

On considre alors lalgorithme dcrit comme suit :


k = 0 : x0 Rn ;
k k + 1 : on prend un lment quelconque sk de h(xk ) et on choisit xk+1
de sorte que sk g(xk+1 ).
a) Montrer que la suite {f (xk ) = g(xk ) h(xk )}k est dcroissante.
b) Montrer que les suites {xk } et {sk } sont bornes.
c) Montrer que

 xk+1 xk 2 < +.

k=0

d) Montrer que si x
est limite dune suite extraite de la suite {xk }, alors x
est un point T-critique de (P).
e) Soit : t  (t) := f [txk+1 + (1 t)xk ]. En supposant xk+1 = xk ,
montrer que est strictement dcroissante sur [0,1]. En dduire que f (xk+1 ) <
f (xk ).
4 ) On considre le problme (Q) suivant (dans Rn+1 ) :
6
Minimiser g(x) y
(Q)
sous la contrainte : (x, y) Rn R, h(x)  y.
tablir les relations existant entre les solutions et valeurs optimales de (P)
et celles de (Q).

313

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

Solution : 1 ) La dcomposition de f comme dirence de fonctions convexes


nest videmment pas unique ; il sut dajouter g et h une fonction convexe
pour avoir une nouvelle dcomposition : f = (g + ) (h + ). Si est
fortement convexe, par exemple : x  (x) =  x 2 , il sensuivra que
:= h + seront fortement convexes.
g := g + et h
2 ) a) La fonction f est continue (comme dirence de fonctions convexes
sur Rn , donc continues). Soit r0 R tel que
Sr0 (f ) := {x Rn | f (x)  r0 } = .
Sr0 (f ) est compact et, bien entendu, minimiser f sur Rn revient minimiser f
sur Sr0 (f ). Le problme (P) a donc une solution ; mais il ny a aucune raison
pour que cette solution soit unique.
b) Soient x une solution de (P) et s h(x). On a :
h(x)  h(x) +
s, x x pour tout x Rn (puisque s h(x));
g(x) h(x)  g(x) h(x) pour tout x Rn (puisque x minimise
f = g h sur Rn ).
Par suite,
g(x)  g(x) +
s, x x pour tout x Rn ,
i.e., s g(x).
Ainsi on a montr : ( = ) h(x) g(x), et, a fortiori, g(x)h(x) = .
Remarques :
1. Il sut que x soit minimum local de f pour avoir h(x) g(x).
2. Si x avait t un maximum local de f , on aurait eu g(x) h(x), soit
encore g(x) h(x) = .
Autre dmonstration de limplication propose. Supposons g(x)h(x) =
et montrons que cela conduit une contradiction.
/ g(x) h(x). Ceci signie
Avoir g(x) h(x) = revient avoir 0
exactement :
d Rn , g(x) (d) + h(x) (d) < 0 (daccord ?).
Or

h(x) (d) = h(x) (d) = h (x, d)  h (x, d).

Donc il existe d Rn tel que g (x, d)h (x, d) = f  (x, d) < 0, ce qui contredit la condition (f  (x, d)  0 pour tout d Rn ) satisfaite en tout minimum
(mme local) de f.
3 ) Choisir xk+1 de sorte que sk g(xk+1 ) revient choisir xk+1 minimisant x  g(x)
sk , x sur Rn .
314

VII.3. La convexification dune fonction

a) Puisque sk g(xk+1 ) et que g est fortement convexe,


g(xk )  g(xk+1 ) +
sk , xk xk+1 +

c
 xk xk+1 2
2

(7.41)

(c tant un module de forte convexit de g sur Rn ).


De mme, puisque sk h(xk ) et h est fortement convexe,
d
 xk xk+1 2
2

(7.42)

c+d
 xk xk+1 2 .
2

(7.43)

h(xk+1 )  h(xk ) +
sk , xk+1 xk +
(d tant un module de forte convexit de h).
En additionnant (7.41) et (7.42), on obtient :
g(xk ) h(xk )  g(xk+1 ) h(xk+1 ) +

La suite {f (xk ) = g(xk ) h(xk )}k est bien dcroissante. Elle est minore
par f := inf xRn f (x).
b) Puisque f (xk )  f (x0 ) pour tout k et que {x | f (x)  f (x0 )} est born
par hypothse, la suite {xk } est borne.
Comme limage dun born par h est un born et que sk h(xk ), la
suite {sk } est galement borne.
c) On tire de (7.43) :


do

+


c+d
2

 K1

 xk+1 xk 2  f (x0 ) f pour tout K N ,

k=0

 xk+1 xk 2 < +.

k=0

quand l +. Puisque la suite


d) Considrons {xkl }l telle que xkl x
{skl }l est borne, on peut supposer quitte extraire une nouvelle sous-suite
que skl s quand l +.
En raison du caractre ferm du graphe de la multi-application x 
x).
h(x), un passage la limite (sur l) de skl h(xkl ) conduit s h(
galement car xkl +1 xkl 0 quand l +.
Mais xkl +1 l+ x
Donc, comme prcdemment, un passage la limite sur skl g(xkl +1 )
conduit s g(
x).
En dnitive, s h(
x) g(
x) ; x
est bien un point T-critique de (P).
e) (t) = (g h)[txk+1 + (1 t)xk ] par dnition. Posons
2 := t2 xk+1 + (1 t2 )xk , o t1 < t2 et
x
1 := t1 xk+1 + (1 t1 )xk , x
x1 ), s2 h(
x2 ).
t1 , t2 [0, 1] , et choisissons s1 h(
315

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

Il sensuit :
c
2 2 ,
x
1 x
2
d
h(
x2 )  h(
1 x
x1 ) +

s1 , x
2 x
1 +  x
2 2 ,
2
x2 ) +

s2 , x
1 x
2 +
g(
x1 )  g(

2  = (t2 t1 )  x
k x
k+1  > 0,
do, puisque  x
1 x
x1 ) h(
x1 ) g(
x2 ) + h(
x2 ) >

s2 s1 , x
1 x
2 .
(t1 ) (t2 ) = g(

(7.44)

Mais
1 x
2 =
sk s2 , x
2 x
1 +

s1 sk , x
2 x
1

s2 s1 , x

(7.45)

et
1 = (t2 t1 )(xk+1 xk ),
x
2 x
2 = (1 t2 )(xk+1 xk ),
xk+1 x
do :
1 =
x
2 x

t2 t1
(xk+1 x
2 ),
1 t2

x
1 xk = t1 (xk+1 xk ), do

x
2 x
1 =

t2 t1
(
x1 xk ).
t1

Il vient alors de (7.45) :


1 x
2 =

s2 s1 , x

t2 t1
t2 t1

sk s2 , xk+1 x
2 +

s1 sk , x
1 xk .
1 t2
t1

Or
x2 )) (
sk s2 , xk+1 x
2  0) ,
(sk g(xk+1 ), s2 g(
x1 )) (

s1 sk , x
1 xk  0) ,
(sk h(xk ), s1 h(
2  0, et (7.44) permet de conclure (t2 ) < (t1 ).
do

s2 s1 , x1 x
En particulier (1) < (0), soit f (xk+1 ) < f (xk ).
4 ) (Q) est quivalent (P) au sens suivant :
si (x, y) est solution de (Q), alors x est solution de (P) et y = h(x) ;
si x est solution de (P), alors (x, h(x)) est solution de (Q).

316

VII.3. La convexification dune fonction

Commentaire :
Un problme analogue (Q) est le problme (R) suivant (toujours dans
Rn+1 ) :
6
Maximiser h(x) y
(R)
sous la contrainte : (x, y) Rn R, g(x)  y.
Alors, (R) est quivalent (P) au sens suivant :
si (x, y) est solution de (R), alors x est solution de (P) et y = g(x) ;
si x est solution de (P), alors (x, g(x)) est solution de (R).
(Q) et (R) ressemblent des problmes de minimisation convexe, mais lune
des convexits (dans la dnition de la contrainte ou dans la fonction-objectif)
est rebours .
Lassociation de f := h g f = g h se trouve fort productive
quant la comparaison de points T-critiques, de valeurs optimales, etc. ; en plus,
direntes dcompositions de f en g h donnent lieu dirents f .

*** Exercice VII.28. Soit f 0 (Rn ), soit 0 (Rn ) vriant les hypothses
suivantes :
(x)
= +.
(7.46)
est nie en 0 ; lim
x+ x
On se propose dans cet exercice de donner des formes explicites de solutions
dquations aux drives partielles (dites de Hamilton-Jacobi ) suivantes :

F + ( F ) = 0 sur Rn ]0, +[,


x
t

F (x, 0) = f (x) pour tout x Rn .


(Dans cette criture, F/t et x F dsignent respectivement la drive partielle
par rapport t et le vecteur gradient par rapport x = (x1 , . . . , xn ) de la
fonction F : (x, t) Rn ]0, +[ F (x, t) R.)
1 ) Prliminaires. a) Soit
H : (y, s) R R  H(y, s) :=
n

f (y) si (y) + s  0,
+ sinon.

Vrier que H 0 (Rn R) et dterminer sa conjugue H .


b) Posons
4
xu5

n
si t > 0,

inf uR f (u) + t t
n
F : (x, t) R R  F (x, t) := f (x) si t = 0,

+ si t < 0.
317

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

Vrier que, pour tout x Rn ,


F (x, t) f (x) quand t 0+ .

(7.47)

2 ) Outre les hypothses de (7.46), on suppose :


est direntiable en tout point o elle admet des sous-gradients.

(7.48)

Montrer qualors F est direntiable en tout point (x, t) de int(dom F)


( Rn ]0, +[) et y vrie
F
(x, t) + (x F (x, t)) = 0.
t
3 ) Exemples. Donner des formes explicites de solutions dquations de
Hamilton-Jacobi suivantes :

F + 1 x F 2 = 0,
t
2

lim F (, t) = F (, 0) = f.

(7.49)

t0+

9
F + 1 +  F 2 = 0,
x
t

limt0+ F (, t) = F (, 0) = f.

(7.50)

(Dans ces quations,  dsigne la norme euclidienne usuelle de Rn .)

Solution : 1 ) a) Dcomposons H en somme de deux fonctions H1 et H2 plus


maniables ; soient
H1 : (y, s) Rn R  H1 (y, s) := f (y)
H2 : (y, s) Rn R  H2 (y, s) := IR ( (y) + s).
H1 ne dpend que de y, dom H1 = (dom f ) R, et puisque f 0 (Rn ) il va
de soi que H1 0 (Rn R).
H2 est la compose de la fonction r  IR (r) qui est dans 0 (R) et croissante, avec la fonction (y, s)  (y)+s qui est visiblement dans 0 (Rn R) ;
il sensuit aisment que H2 0 (Rn R). De plus, pour tout y dom f , le
couple (y, (y)) est la fois dans le domaine de H1 et dans celui de H2 . Pas
de doute : H = H1 + H2 est bien une fonction de 0 (Rn R).
318

VII.3. La convexification dune fonction

Soit (x, t) Rn R et calculons


H (x, t) =

{
y, x + st f (y)} .
sup
y Rn

(y) + s  0

Par dcouplage de lopration qui consiste prendre le supremum, nous


avons
(7.51)
H (x, t) = sup sup {
y, x + st f (y)} .
yRn (y)s

Il sensuit :
Si t < 0, H (x, t) = + (pour voir cela, faire s dans (7.51)).
Si t = 0, H (x, t) = supyRn {
y, x f (y)}
= f (x) = f (x) (car f 0 (Rn )).
Si t > 0, H (x, t) = supyRn {
y, x t (y) f (y)} = (f + t ) (x).
Mais la fonction ayant t suppose 1-coercive sur Rn (cest la deuxime
partie de lhypothse (7.46)), sa conjugue est partout nie. Nous sommes
donc (largement) dans les hypothses assurant que
(f + t ) = (f )  (t ) .
 
 
Or f = f et (t ) : x Rn  t xt = t xt . En conclusion :
Si t > 0, H (x, t) = [f  t( t )](x).

(7.52)

b) Comme cela a t observ en (7.52), on a pour tout t > 0 :



= (f + t ) ,
F (, t) = f  t
t
cest--dire :
F (x, t) = sup {
x, y f (y) t (y)} pour tout x Rn .
yRn

Il sensuit :

/
.

F (x, t)  sup
x, y f (y) t infn (y)
yRn

yR

 f (x) + t(0) (car f

= f et infn (y) = (0) = (0)) ;


yR

do : lim supt0+ F (x, t)  f (x).


Dautre part, on a pour un y quelconque dans Rn :
F (x, t) 
x, y f (y) t (y),
do : lim inf t0+ F (x, t) 
x, y f (y).
319

Chapitre VII. Initiation au calcul sous-diffrentiel et de transformes...

Par suite, lim inf t0+ F (x, t)  supyRn {


x, y f (y)} = f (x).
En conclusion :
lim F (t, x) = f (x) pour tout x Rn .

t0+

2 ) Reprenons la dcomposition H = H1 + H2 du 1 a) : H1 0 (Rn R)


et dom H1 = (dom f ) R, tandis que H2 0 (Rn R) et dom H2 =
{(y, s) Rn R | (y) + s  0} . Puisque est partout nie sur Rn , les intrieurs relatifs de dom H1 et de dom H2 se coupent ; cela est susant pour
garantir (H1 +H2 ) = H1 H2 et lexactitude de cette dernire inf-convolution.
Ainsi, pour (x, t) dom F , il existe (z, u) Rn R tel que

de plus

F (x, t) = H1 (x z, t u) + H2 (z, u) ;

(7.53)

F (x, t) = H1 (x z, t u) H2 (z, u).

(7.54)

Explicitons ces rsultats (7.53) et (7.54) . On a par de simples calculs :


H1 (w, r) = f (w) si r = 0, + sinon ;
w 
si r > 0.
H2 (w, r) = r
r
On en dduit que u = t dans (7.53) et
F (x, t) = H1 (x z, 0) H2 (z, t).

(7.55)
(7.56)

(7.57)

Prcisons les choses en prenant (x, t) int(dom F ) ( Rn ]0, +[) :


La fonction convexe F est continue en (x, t), donc F (x, t) = ; il vient
alors avec (7.57) que H2 (z, t) = .
De par la relation (7.56) liant H2 , et sachant que est direntiable
en tout point o elle admet des sous-gradients (cest lhypothse (7.48)), on a :

 z  .  z  1 ?  z  @/

,z
.
H2 (z, t) =
t
t
t
t
De par la relation (7.55), on a toujours :
H1 (x z, 0) = f (x z) R.
Ces informations permettent de conclure avec (7.57) :
que F (x, t) est rduit un seul lment, cest--dire F est direntiable
en (x, t) ;
 
que x F (x, t) = zt et
z  1 ?
z  @
F
(x, t) =

,z .
t
t
t
t
320

VII.3. La convexification dune fonction

Dans cette dernire relation, observons que

do nalement :

z 
t

z  @
  z 
1?

, z =
,
t
t
t

F
(x, t) = (x F (x, t)).
t

3 ) Avec = 12 2 , on a = 12 2 : toutes les hypothses (7.46) et (7.48)


sont vries ; des solutions de lquation (7.49) correspondant la condition
initiale f sont donnes (sur un ouvert de Rn ]0, +[) par :
6
(x, t)  infn
uR

Avec =

x u2
f (u) +
2t

;
.

(7.58)

9
1 + 2 , on a

9
 (x) = 1 x2 si x  1, + sinon.
:xR
n

(cf. Exercice VII.7 et Exercice VII.3 si ncessaire).


Toutes les hypothses faites sur dans lexercice, notamment (7.48), sont
vries ; des solutions de lquation (7.50) correspondant la condition initiale
f sont donnes (sur un ouvert de Rn ]0, +[) par :
.
(x, t) 

inf

uxt

f (u)

t2

x u

/
.

(7.59)

Commentaire : Lexpression de F (, t) comme inf-convolution de f et de t


est connue sous le nom de formule de Lax et Oleinik.


t

321

This page intentionally left blank

SOURCES

Certains auteurs, parlant de leurs ouvrages, disent : mon livre, mon


commentaire, mon histoire... ils feraient mieux de dire : notre livre, notre
commentaire, notre histoire, vu que dordinaire il y a plus du bien dautrui que
du leur .
B. Pascal
Des crits ou contributions orales de collgues nous ont conduit, partiellement
et parfois indirectement, la confection de certains exercices ; quils en soient
remercis ici.
1.4 : G. Constans ; 1.5 : I. Glazman et Y. Liubitch ; 1.6 : H. Wolkowicz ; 1.7 :
A. Nemirovsky et Yu. Nesterov ; 1.8 : W.W. Hager, L. Amodei (Application 4 de
la 5e question) ; 1.10 : R. Fletcher ; 1.11 : O. Mangasarian, J.-Y. Ranjeva ; 1.16 : P.
Finsler et G. Debreu ; 1.18 : J.-M. Exbrayat ; 2.4 : R. Horst, P. Pardalos et Nguyen
V. Thoai ; 2.5 : Yu. Ledyaev et E. Giner ; 2.6 : Revue de Mathmatiques Spciales
(RMS) ; 2.7 : I. Ekeland et R. Temam ; 2.9 : J.-P. Dedieu et R. Janin ; 2.10 : C. Bs ;
2.11 : J. Hall ; 3.6 : Pham Dinh Tao ; 3.8 : V. Alexev, E. Galev et V. Tikhomirov ; 3.9 : C. Lemarchal ; 3.12 : J.-P. Aubin et H. Frankowska ; 3.13 : RMS ; 3.17 :
M. Kojima ; 3.18-3.19-3.20 : H. Moulin et F. Fogelman-Souli ; 3.21-3.22 : J.-L.
Gon, S. Boyd et L. Vandenberghe ; 3.23 : J. Dennis et J. Mor ; 3.25 : R. Fletcher ; 3.27 : H. Moulin et F. Fogelman-Souli ; 3.28 : J.D. Buys ; 3.30 : J. Lasserre
et F. Bonnans ; 3.32 : RMS (1 et 2 ), P. Huard (3 ) ; 4.1 : A. Auslender ; 4.8 : N.
Gake et R. Mathar ; 4.10-4.11-4.12 : S. Boyd et L. Vandenberghe ; 4.13 : R.T.
Rockafellar ; 5.8-5.9 : R.L. Dykstra ; 5.11 : A. Badrikian ; 5.14 : S. Achmanov ; 5.15
(1 ) : P. Thomas ; 5.17 : S. Robinson ; 5.19 : B.T. Polyak ; 5.21 : M. Sakarovitch ;
5.22, 5.24 : S. Achmanov ; 5.25 : J.-Ph. Vial ; 6.1 : S. Achmanov ; 6.8 : M. Volle ;
6.9 : L. Vanderberghe ; 6.13 : J.M. Borwein et R.C. OBrien ; 6.14 : Z. Artstein ;
6.18 : S. Robinson ; 6.19 : F. Clarke et Ph. Loewen ; 6.25 : J.-P. Crouzeix et J.E.

Optimisation et analyse convexe

Martinez-Legaz ; 6.27 : W. Dinkelbach ; 6.28 : I. Csiszr et A. Ben-Tal, A. BenIsrael et M. Teboulle ; 6.29 (2 ) : S. K. Mitra ; 6.30 : G. Letac ; 6.31 : O.L. Mangasarian ; 7.1 : RMS, M. Volle ; 7.3 : F. Flores ; 7.8 : J.-P. Quadrat ; 7.9 : J.M.
Borwein ; 7.13 : L. Thibault ; 7.14 : O. Mangasarian et C. Gonzaga ; 7.15 : J.-J.
Moreau et B. Martinet ; 7.19 : A. Seeger ; 7.20-7.21 : A. Lewis ; 7.23 : J.-C. Rochet
et J. Benoist ; 7.27 : J. Toland et C. Michelot ; 7.28 : Ph. Plazanet.
Peuvent tre considrs comme des grands classiques du domaine les exercices suivants : 1.4, 1.9, 1.13, 1.16, 1.18, 2.1, 2.7, 2.8, 2.10, 3.4, 3.16, 4.7, 4.9, 5.6,
5.12, 5.13, 5.18, 6.3, 6.4, 6.5, 6.10, 6.11, 6.17, 7.3, 7.12, 7.15.

324

RFRENCES GNRALES

[1] S. Achmanov, Programmation linaire, ditions Mir, Moscou (1984).


[2] V. Alexev, E. Galev et V. Tikhomirov, Recueil de problmes doptimisation, ditions Mir (1987).
[3] D.P. Bertsekas, Nonlinear programming, Athena Scientic (1995).
[4] F. Bonnans, J.-C. Gilbert, C. Lemarchal et C. Sagastizabal, Optimisation
numrique ; aspects thoriques et pratiques, N 27 de la srie Mathmatiques
et Applications (1997). Version en anglais publie en 2003.
[5] S. Boyd and L. Vanderberghe, Convex optimization, Cambridge University
Press (2004).
[6] V. Chvatal, Linear programming, W.H. Freeman and Company, New-York
(1983).
[7] Concis et dense. Trs bon.
[8] J.-C. Culioli, Introduction lOptimisation, Ellipses (1994).
[9] F. Droesbeke, M. Hallin et C. Lefevre, Programmation linaire par lexemple,
Ellipses (1986).
[10] J. Gauvin, Leons de programmation mathmatique, ditions de lcole polytechnique de Montral (1995).
[11] J.-B. Hiriart-Urruty, LOptimisation, collection Que sais-je ? , Presses
Universitaires de France (1996).
[12] J.-B. Hiriart-Urruty et C. Lemarchal, Convex analysis and minimization
algorithms, Vol. 1 : Fundamentals, Grundlehren der mathematichen Wissenschaften 305, Springer-Verlag (1993).
[13] J.-B. Hiriart-Urruty et C. Lemarchal, Convex analysis and minimization
algorithms, Vol. 2 : Advanced theory and bundle methods, Grundlehren der
mathematichen Wissenschaften 305, Springer-Verlag (1993).
[14] J.-B. Hiriart-Urruty et C. Lemarchal, Convex analysis andminimization
algorithms, Vol. I et II, Grundlehren der mathematichen Wissenschaften
305 & 306, Springer-Verlag (1993).

Optimisation et analyse convexe

[15] J.-B. Hiriart-Urruty et Y. Plusquellec, Exercices dAlgbre linaire et bilinaire, CEPADUES-ditions (1988).
[16] R.A. Horn and C.R. Johnson, Matrix analysis, Cambridge University Press
(r-impression de 1992).
[17] B. Lemaire et C. lemaire-Misonne, Programmation linaire sur microordinateur, Collection Mthode + Programmes, Masson (1988).
[18] D.G. Luenberger, Linear and nonlinear programming, Addison-Wesley,
2e dition (1984).
[19] M. Minoux, Programmation mathmatique : Thorie et Algorithmes, Vol. I,
Dunod (1983).
[20] C. Roos, T. Terlaky and J-Ph. Vial, Theory and algorithms for linear optimization: an interior point approach, J. Wiley (1997).
[21] Roseaux (nom collectif), Exercices et problmes rsolus de Recherche Oprationnelle, Tome III, Masson (1985).
[22] M. Sakarovitch, Optimisation combinatoire. Graphes et Programmation linaire, Herman (1984).
[23] A. Schrijver, Theory of linear and integer programming, J. Wiley (1987).
[24] J. Teghem, Programmation linaire, collection Statistique et Mathmatiques
Appliques, ditions de lUniversit de Bruxelles et ditions Ellipses (1996).
[25] S.J. Wright, Primal-dual interior point methods, SIAM Publications (1997).
[26] [21], [22] et [24] contiennent de nombreux exemples simples et des illustrations ; elles intgrent la Programmation linaire dans un domaine plus vaste,
rpertori sous le vocable de Recherche Oprationnelle .
[27] Description et analyse des principales mthodes de rsolution numrique
des problmes de programmation linaire reposant sur lalgorithme du simplexe, ainsi que les programmes ncessaires leur mise en uvre sur microordinateur.
[28] [CS] Trs complets sur la question ; de vritables Bibles . Longtemps domine par les algorithmes du type mthode du simplexe , la rsolution
numrique des programmes linaires a subi un vritable rvolution avec lapport de N. Karmarkar (1984). Les techniques du type points intrieurs
(cf. lExercice V.25 pour une ide) commencent prendre place dans les
formations du niveau 2e cycle : voir le chapitre 4 de [8] et les chapitres XIII
et XIV de [24] par exemple. La 4e partie de [4] et les ouvrages [20] et [25]
sont consacrs pour lessentiel ces nouvelles approches.

326

NOTICE HISTORIQUE

Bien des noms (Euler, Lagrange, Legendre, Lipschitz, etc.) ont t rencontrs dans
dautres contextes par ltudiant-lecteur. Nous voquons ici ceux cits dans ce recueil
et/ou ayant marqu les dveloppements modernes de lOptimisation et de lAnalyse
convexe.
K. ARROW, L. HURWICZ et H. UZAWA. Associs deux par deux ou tous
les trois, ce sont guids par des problmes dorigine conomique que ces conomistesmathmaticiens ont publi ou dit les mthodes algorithmiques portant prsent leurs
noms. Lconomie mathmatique a beaucoup interagi avec lOptimisation, et ce ds le
dbut des annes cinquante. Notons dailleurs que beaucoup de laurats du Prix Nobel
dconomie (instaur en 1969) ont eu des activits trs mathmatises : R. Frisch
(18951973, norvgien, Prix Nobel en 1969) proposa en 1954 un type de pnalisation
intrieure (ou de fonction-barrire) pour la programmation linaire, K. Arrow (1921,
amricain, Prix Nobel en 1972), L.V. Kantorovitch (19121986, russe, Prix Nobel en
1975), J.F. Nash (1928, amricain, Prix Nobel en 1994), sans oublier G. Debreu (1921
2004, dorigine franaise, Prix Nobel en 1983).
R. BAIRE (18741932) est un mathmaticien franais dont la priode active ainsi que la
carrire universitaire furent rduites une douzaine dannes par des maladies nerveuses
qui lont conduit la mort. Il a enrichi lAnalyse de notions fondamentales, par exemple
la semicontinuit qui savre essentielle dans les rsultats dexistence dans un problme
doptimisation (cf. Exercice II.1).
G. BIRKHOFF (19111996). Garret de son prnom, il est souvent confondu avec
George Birkho son pre ; tous les deux sont des mathmaticiens amricains de renom qui
furent longtemps professeurs luniversit de Harvard aux tats-Unis. Un des rsultats
les plus connus de Garret Birkho est celui qui dit que les sommets de lensemble des
matrices bistochastiques sont les matrices de permutation (1946), cf. Exercice V.11,
dont les applications en gomtrie convexe sont importantes.
C. CARATHODORY (18731950). Mathmaticien allemand dorigine grecque. Le
lecteur-tudiant a rencontr ou rencontrera son nom dans des domaines tels que la Thorie
de la mesure et le Calcul des variations. Un de ses fameux thormes est : Si S est une

Optimisation et analyse convexe

partie dun espace vectoriel de dimension n, tout point de lenveloppe convexe de S est
combinaison dune partie nie de S de cardinal au plus n + 1 (cf. Chapitre VI).
A.L. CHOLESKY (18751918). Peu dtudiants en Analyse numrique savent que
Cholesky nest pas un obscur polonais mais bel et bien un ingnieur militaire franais
originaire de la rgion Poitou-Charentes. Cest dans le but dapplications la godsie
que Cholesky tudie la rsolution de systmes dquations linaires et introduit la factorisation qui porte son nom. Le procd du commandant Cholesky fut publi de manire
posthume en 1924 dans le Bulletin godsique de Toulouse. Nimporte quel cours dAnalyse numrique matricielle, nimporte o dans le monde, fait rfrence la factorisation
de Cholesky ; comme quoi, rien ne sert de... il faut publier point. quand le nom de
Cholesky sur le site du Futuroscope ?
I. EKELAND (1944). Mathmaticien franais, professeur retrait de lUniversit de
Paris IX Dauphine. Ses travaux portent sur les problmes variationnels, la commande
optimale et lconomie mathmatique. Sa condition ncessaire doptimalit pour solutions
approches dun problme doptimisation, tablie dans un contexte despace mtrique
complet (1974) (cf. Exercice II.3 pour une version simplie), est devenue un outil classique de lAnalyse variationnelle. I. Ekeland est galement auteur de plusieurs ouvrages
de popularisation des mathmatiques.
(KY) FAN (1914). Mathmaticien amricain dorigine chinoise. Arriv comme boursier Paris en 1939 avec tout viatique le plan du mtro de Paris (comme il le raconte
lui-mme) et un grand dsir de faire des mathmatiques, Ky Fan obtient son doctorat
en 1941 sous la direction de M. Frchet. Aprs tre rest en France jusquen 1945 puis
occup ensuite plusieurs postes aux tats-Unis, il sinstalle Santa Barbara (Californie)
en 1965 ; retrait, il y est toujours. Le champ dactivits de Ky Fan a t trs vaste :
thorie des oprateurs, analyse convexe et ingalits, analyse matricielle (avec des ingalits trs nes sur les valeurs propres), topologie et thormes de point xe. On lui
doit un des tous premiers thormes de mini-maximisation (cf. Chapitre IV) et une formulation variationnelle de la somme des m plus grandes valeurs propres dune matrice
symtrique (cf. Exercice VI.12). Ky Fan est docteur honoris causa de luniversit de Paris
IX-Dauphine (1990).
G. FARKAS (18471930). Mathmaticien hongrois qui a contribu la thorie de la
Physique ; dans ce domaine, les plus connus sont ses rsultats en Mcanique et Thermodynamique. La premire preuve (complte et correcte) de son thorme sur les ingalits
linaires homognes (cf. Chapitre V) fut publie en 1898.
W. FENCHEL (19051988), J.-J. MOREAU (1923) et R.T. ROCKAFELLAR
(1935). Le dveloppement de lAnalyse convexe moderne doit beaucoup ces trois personnes. W. Fenchel, mathmaticien danois dorigine allemande avait une approche trs
gomtrique de la convexit ; J.-J. Moreau ( ne pas confondre avec lactrice de cinma de
mme nom) est un mathmaticien-mcanicien de Montpellier qui, selon ses dires, appliquait la Mcanique aux Mathmatiques . R.T. Rockafellar est un mathmaticien amricain dont les racines sont (huguenotes) franaises ( Rocquefeuille ) comme les nanciers
de noms voisins ; le concept de problme dual a t un des ls directeurs de lapproche

328

Notice historique

de cet auteur. R.T. Rockafellar est docteur honoris causa de luniversit de Montpellier II
(1995).
P. de FERMAT (16011665). Tout le monde en a entendu parler... y compris rcemment. Ses clbres questions dArithmtique ont fait un peu oublier son principe
variationnel en Optique gomtrique (le premier, historiquement, sans doute) et ses implications sur la loi de rfraction de la lumire ; une de ses citations est : La nature
agit toujours par les voies les plus courtes . En 1629, soit treize ans avant la naissance
de Newton, Fermat conut sa mthode De maximis et minimis sappliquant la dtermination des valeurs qui rendent maximum ou minimum une fonction ainsi que celles
des tangentes aux courbes, ce qui revenait poser les fondements du Calcul direntiel.
la Salle des Illustres du Capitole Toulouse (Htel de ville) se trouve une statue de P.
de Fermat avec la mention inventeur du calcul direntiel , et le Guide du Routard
dajouter encore merci ! ( Beaumont-de-Lomagne, village natal de Fermat). Alors,
tudiants-lecteurs, si vous avez des problmes en calcul direntiel, vous savez qui vous
plaindre...
J.W. GIBBS (18391903). Physicien amricain (un phnomne ...) auteur de travaux
trs profonds, en Thermodynamique entre autres. Le rle de la convexication en Thermodynamique a t essentiellement tudi par lui. Dans ses travaux se trouvent aussi les
racines des conditions de KKT (cf. Exercice IV.7). Une de ses citations : Mathematics
is the language of science .
P. GORDAN (18371932). Mathmaticien allemand connu pour ses travaux en Algbre
et Gomtrie. Cf. Exercices VI.8 et VII.1 pour un lemme portant son nom.
L.V. KANTOROVICH (19121986). Mathmaticien russe ayant contribu lAnalyse
applique, lAnalyse fonctionnelle et la Programmation linaire. Bien que de formation
entirement mathmatique, il montra une perception trs pertinente des problmes de nature conomique auxquels il appliqua les techniques mathmatiques. Considr comme un
des pres-fondateurs (avec G. Dantzig (19142005) aux tats-Unis) de la Programmation
linaire, L. Kantorovitch partagea le prix Nobel dEconomie 1975 avec T. Koopmans. De
nature robuste (des collgues lont vu avaler dun trait une bouteille de vodka et plonger
pour traverser un lac la nage), il et nanmoins sourir de svices sous Staline.
W. KARUSH, H. KUHN et A.W. TUCKER. Non, non ce nest pas la 3e ligne de
lquipe de rugby dAustralie que doit rencontrer prochainement le Stade Toulousain...
Alors que la rgle de Lagrange (i.e. conditions doptimalit dans des problmes avec des
contraintes du type galit) tait connue ds le dbut du XIXe sicle, il faut attendre le
milieu du XXe sicle pour quon sintresse (par ncessit) aux conditions doptimalit
dans des problmes avec des contraintes du type ingalit. A.W. Tucker (mathmaticien
amricain dorigine canadienne, rcemment dcd) et son lve H. Kuhn ont publi en
1951 in article fondamental ce sujet. Il sest avr quils avaient t prcds par W.
Karush dans un travail publi en 1948 qui tait pour lessentiel son mmoire de Matrise
de 1938 (tudiants-lecteurs, tous les espoirs vous sont permis !). Il est donc juste dassocier
ces trois noms dans les conditions de KKT (cf. Chapitre III). Une citation : The
KKT theorem provides the single most important tool in modern economic analysis both
from the theoretical and computational point of view (D. Gale, 1967).

329

Optimisation et analyse convexe

J. JENSEN (18591925). Mathmaticien danois, autodidacte. Il noccupa aucune position universitaire mais fut longtemps expert dans une compagnie tlphonique de Copenhague. Lingalit de convexit qui porte son nom (cf. Chapitre VI) date de 1906.
La tradition de convexit chez les mathmaticiens scandinaves est commmore par la
amme de la poste danoise ci-dessous.

F. JOHN (19101994) (on trouve souvent crit Fritz John) est aussi un mathmaticien
de ce sicle qui a tabli les conditions qui portent son nom (cf. Chapitre III) en 1948.
Le travail de F. John tait motiv par des questions de nature gomtrique ; les ellipsodes pleins de volume extrmal mis en vidence dans les Exercices III.21 et III.22 sont
dailleurs appels ellipsodes de John (ou de Loewner-John). On doit aussi au mathmaticien dorigine tchque Ch. Loewner (ou K. Lwner) lordre partiel  dans Sn (R).
H. MINKOWSKI (18641909). Mathmaticien allemand considr comme le fondateur
de la gomtrie des nombres entiers ; il sest intress aussi la Physique mathmatique
(les fameux espaces de Minkowski de dimension 4) et a, le premier, procd une tude
systmatique de la convexit dans les espaces de dimension nie.
J. (VON) NEUMANN (19031957). Il y a plusieurs mathmaticiens du nom de
Neumann. Celui-ci, Von Neumann (John) est un mathmaticien amricain dorigine hongroise, mort relativement jeune, et qui fut pionnier dans ses ides et recherches en Mathmatiques appliques. Et quand il attaquait un problme, il nenfonait pas des portes
ouvertes ! On lui doit notamment un thorme de mini-maximisation (cf. Chapitre IV).

330

INDEX

formulation en programmes linaires : V.18, V.20


fractionnaire (problme doptimisation) : V.20,
VI.27

(fonction-) barrire : II.6, III.21, IV.12, V.25


bases, lments de base : V.1, V.2
BFGS : III.23
Birkho : V.11

Gibbs (problme doptimisation) : IV.7


Gordan (lemme de) : VI.8, VII.1

chemin central : IV.12, V.25


cne convexe polydrique : V.8, V.9, V.10, V.12
conjugues de fonctions : VII.2, VII.3, VII.4,
VII.6, VII.7, VII.8, VII.9, VII.12,
VII.19, VII.20
convexication densembles : VI.10, VI.11,
VI.12, VI.13, VI.14
convexication de fonctions : VII.22, VII.23,
VII.24, VII.25, VII.26
D
dcomposition de Moreau : VI.22
drive directionnelle : III.12, III.30, VI.21
DFP : III.23
dirence de fonctions convexes : VII.27
(problme) dual en minimisation convexe : IV.4,
IV.5, IV.6, IV.7, IV.8, IV.9, IV.10,
IV.11
dual augment : IV.13
(problme) dual en programmation linaire :
V.21, V.22, V.23, V.24, V.25
E
Ekeland : II.3
ellipsode : III.8
ellipsode de volume maximal : III.21, III.22
Everett (lemme de) : III.15
F
face : VI.14

H
Hamilton-Jacobi (quations) : VII.28
I
inversion de matrices alatoires : VI.29
inversion de matrices perturbes : I.8
K
Kantorovitch (ingalit) : I.9
L
lagrangien augment : I.18(B), IV.13
logarithme du dterminant : I.13, I.14
logarithmiquement convexe (fonction) : I.15
M
matrices dnies positives : I.10, I.11, I.12
minimum local vs. minimum global : II.5
moindres carrs : I.2 (4 ), II.11
Moreau-Yosida : VII.15, VII.17
N
Newton (direction de) : III.9
normal (cne) : VI.23

Optimisation et analyse convexe

P
pnalisation exacte : III.30
pnalisation intrieure (cf. barrire)
pnalisation extrieure : III.29
perturbation dun programme linaire : V.16,
V.17
point extrmal dun convexe : VI.3, VI.4, VI.5,
VI.6, VI.7, VI.12, VI.14, VI.24
point xe : VI.18
point-selle : I.18 (B), IV.1, IV.2, IV.3
polaire (cne) : V.8, V.9, VI.22
projection sur un ensemble non convexe : III.14,
VI.19
projection sur un convexe ferm : VI.15,
VI.16, VI.17, VI.18, VI.20, VI.21,
VII.18
projection sur un hyperplan : III.2
PSB : III.23

332

quasi-convexe : VI.25
quasi-Newton : III.23
R
rgression monotone : III.24
S
sparation de convexes ferms : VI.8, VI.9
Shapley-Folkman : VI.14
sommets dun polydre convexe ferm : V.3, V.4,
V.5, V.6, V.7, V.11, V.14, V.15
sous-direntiel (calcul) : VII.2, VII.3, VII.13,
VII.14, VII.18, VII.20, VII.26
spectrales (fonctions) : VII.20
T
tangent (cne) : III.10, III.11, III.12, III.20,
VI.15

quadratique (problme doptimisation) : I.18,


II.8, IV.9, IV.10, VI.31

valeur propre : III.4, III.5, III.7


vraisemblance (fonction de) : III.3

Vous aimerez peut-être aussi