RELAXATION LAGRANGIENNE
4.1 Introduction
La relaxation lagrangienne est une manipulation classique en optimisation sous contraintes.
Bien quintimement lie la convexit, elle est couramment utilise dans le cas non convexe.
En particulier, elle permet dobtenir des bornes de la valeur optimale de certains problmes
doptimisation combinatoire durs. Lide consiste relaxer une partie des contraintes (en
principe, celles qui rendent le problme compliqu) qui sont introduites dans la fonction
objectif sous la forme dune pnalit qui combine linairement les contraintes relaxes. Les
coefficients de cette combinaison linaire sont appeles les variables duales associes la
relaxation lagrangienne.
Considrons le problme doptimisation dans IRn suivant :
Minimiser f (x)
(P) g(x) 0
xS
o S est un sous-ensemble de IRn , f : S 7 IR et g : S 7 IRp .
(P) sera appel le problme primal. Ici, les contraintes g(x) 0 sont considres comme
les contraintes complicantes (on dit aussi couplantes) dans le sens o on suppose que lon
dispose dun algorithme efficace pour minimiser une fonction de IRn sur lensemble S.
Observez quaucune hypothse particulire na t formule sur le problme primal.
1
2 CHAPITRE 4. RELAXATION LAGRANGIENNE
Dmonstration Pour chaque x S, f (x) + hu, g(x)i est une fonction affine en u. Or, len-
veloppe infrieure dune collection de fonctions affines est concave sur tout sous-ensemble
convexe ferm de son domaine. 2
En plus de cette proprit remarquable, la fonction duale fournit une borne infrieure
pour le problme (P) :
Thorme 4.2
Maximiser h(u)
(D)
uU
Le point-selle signifie donc que x minimise L(x, u) par rapport x sur S et que u
maximise L(x, u) par rapport u sur u 0 (voir reprsentation sur la figure 4.1).
Corollaire 4.2 Sil existe x P-ralisable et u D-ralisable tels que h(u ) = f (x ), alors
(x , u ) est un point-selle de L. Par consquent, x est solution optimale de (P) et u est
solution optimale de (D).
Il est difficile de donner une condition ncessaire et suffisante dexistence dun point-
selle. Le thorme dexistence le plus prcis est d Karlin :
Donc, h sera diffrentiable en u U si g(x) est constant sur X(u), ou de manire plus
pratique, si le sous-problme inf xS f (x) + hu, g(x)i possde un unique minimum. Cela
sera le cas en particulier si f est strictement convexe, g1 , . . . , gp convexes sur S convexe
born.
Exemples :
a) Programmation Linaire.
Soit le programme linaire :
Max z = cT x
Ax b
x0
b)
Remarques :
4.5. DUALIT ET PERTURBATIONS DES CONTRAINTES 5
Min x2
1 2x = 0
0x1
Minimiser f (x)
(P y) sous g(x) y
xS
dfinie sur
Y = {y IRp | x S tel que g(x) y}
Dmonstration : exercice
h(u) = w (u)
!
g(x)
de la fonction w en x, u) f (x) + hu, g(x)i, x S, ce qui
. En effet, h(u) = L(
f (
x)
implique que h(u) y0 + hu, yi pour tout y0 f (
x) et tout y g(x). On vrifie alors que
f (
x) = w(y).
En se reportant la dfinition de la fonction conjugue (chap.3), on retrouve la relation
cherche entre h et w . 2
Minimiser cT x
(IP) Ax b
Ex d, x Z n
Ici encore, on suppose que les contraintes Ax b sont complicantes et quon dispose
dun outil pour minimiser une fonction linaire sur S = {x Z n | Ex d}. Soit vRL =
supu0 inf xS cT x + uT (b Ax), la valeur maximale du dual associ la relaxation la-
grangienne des contraintes complicantes dans (IP). Le rsultat suivant est d Geoffrion
(1974) :
Thorme 4.7 Soit vRC la valeur optimale de la relaxation de (IP) obtenue en remplaant
S par convS, lenveloppe convexe de S. Alors
vRL = vRC
Dmonstration On remarque dabord quon peut remplacer S par convS dans la dfi-
nition de la fonction duale h. En effet, le Lagrangien tant linaire en x, le minimum est
8 CHAPITRE 4. RELAXATION LAGRANGIENNE
La fonction duale est donc concave linaire par morceaux, chaque support affine tant
associ un sommet de S.
Le problme dual peut donc scrire comme un programme linaire :
Maximiser w
w uT (b Axk ) cT xk , k K
u0
Minimiser cT ( k k xk )
P
A( k k xk ) b
P
P
k k = 1
k 0, k
2
Observation : Si vLP est la valeur optimale de la relaxation continue de (IP), on a la
hirarchie suivante entre les bornes infrieures :
vLP vRL v
On aura de plus vLP = vRL si conv(S) = {x IRn | Ex d, x 0} (ce qui revient dire
que le sous-problme a la proprit dintgralit de ses solutions de base).
4.6. RELAXATION LAGRANGIENNE ET OPTIMISATION COMBINATOIRE 9
Rfrences :
L.S. Lasdon, Optimization for Large Systems, Mac Millan, 1970
C. Lemarchal, Lagrangian Relaxation, INRIA Report, 2000
O. Mangasarian, Nonlinear Programming, Prentice-Hall, 1969