Académique Documents
Professionnel Documents
Culture Documents
REPUBLIC OF CAMEROON
PAIX-TRAVAIL-PATRIE
PEACE-WORK-FATHERLAND
UNIVERSITE DE YAOUNDE I
UNIVERSITY OF YAOUNDE I
ECOLE NATIONALE
SUPERIEURE NATIONAL ADVANCED
POLYTECHNIQUE SCHOOL OF ENGINEERING
Sous la supervision de :
Pr. Thomas TAMO TATIETSE
Polytechnicien ( 𝑋𝑌 ), Ing., PhD., HDR
Professeur Titulaire des Universités
SOMMAIRE
SOMMAIRE ....................................................................................................................... 2
ABREVIATIONS ................................................................................................................ 4
INTRODUCTION ............................................................................................................... 5
I. PRESENTATION GLOBALE DE LA RELAXATION LANGRANGIENNE :
problème résolu et nécessité ................................................................................................ 6
1. Problème d’optimisation ........................................................................................ 6
2. Description mathématique...................................................................................... 6
1. Problème d’optimisation ........................................................................................ 7
2. Description mathématique...................................................................................... 7
II. PRESENTATION DETAILLEE DE LA TECHNIQUE DE RELAXATION
LAGRANGIENNE .............................................................................................................. 9
1. Prérequis mathématique ......................................................................................... 9
2. Principes ................................................................................................................. 9
3. Présentation de la méthode ..................................................................................... 9
4. Quelques Propriétés de la relaxation lagrangienne ................................................ 9
1. Prérequis mathématique ....................................................................................... 10
a) Lagrangien et fonction duale ............................................................................ 10
b) Point-selle du Lagrangien ................................................................................. 10
c) Différentiablilite de la fonction duale ............................................................... 11
d) Dualité et perturbation de contrainte................................................................. 11
2. Principes ............................................................................................................... 12
3. Présentation de la méthode ................................................................................... 15
4. Quelques Propriétés de la relaxation lagrangienne .............................................. 17
III. LES APPLICATIONS DE LA RELAXATION LAGRANGIENNE ..................... 19
1. Gestion Réseau Téléinformatique ........................................................................ 19
ABREVIATIONS
INTRODUCTION
1. Problème d’optimisation
2. Description mathématique
1. Problème d’optimisation
La relaxation lagrangienne est une manipulation classique en optimisation sous
contraintes. Bien qu’intimement liée à la convexité, elle est couramment utilisée dans le
cas non convexe. En particulier, elle permet d’obtenir des bornes de la valeur optimale de
certains problèmes d’optimisation combinatoire durs. L’idée consiste à relaxer une partie
des contraintes (en principe, celles qui rendent le problème compliqué) qui sont introduites
dans la fonction objective sous la forme d’une pénalité qui combine linéairement les
contraintes relaxées. Les coefficients de cette combinaison linéaire sont appelées les
variables duales associées à la relaxation lagrangienne. Considérons le problème
d’optimisation dans IRn suivant :
𝑀𝑖𝑛𝑖𝑚𝑖𝑠𝑒𝑟 𝑓 (𝑥)
(P) { 𝑔 (𝑥 ) ≤ 0
𝑥∈𝑆
Où S est un sous-ensemble de IRn ,𝑓: 𝑆 ↦ IRP où (P) sera appelé le problème primal. Ici,
les contraintes g(x) ≤ 0 sont considérées comme les contraintes complicantes (on dit aussi
couplantes) dans le sens où on suppose que l’on dispose d’un algorithme efficace pour
minimiser une fonction de IRn sur l’ensemble S. Observez qu’aucune hypothèse
particulière n’a été formulée sur le problème primal.
2. Description mathématique
Globalement si nous avons un problème de minimisation cela revient à maximiser (-
f)
max 𝑐 𝑇 𝑥
S.C. 𝐴𝑥 ≤ 𝑏
max 𝑐 𝑇 𝑥
(2) 𝐴𝑥2 ≤ 𝑏
Supposons que les contraintes (2) soient difficiles, on les introduit dans la fonction
objectif:
max 𝑐 𝑇 𝑥 + 𝜆𝑇 (𝑏2 − 𝐴2 𝑥)
S.T.
(1) 𝐴𝑥1 ≤ 𝑏
Si 𝜆 = (𝜆1 , … , 𝜆𝑚2 ) sont des pénalités positives, on est pénalisé si la contrainte (2) est
violée. D'un autre côté, si on veut garder une fonction objectif linéaire, on est récompensé
si on suit strictement la fonction objectif. Le système ci-dessus est appelé la relaxation
lagrangienne du problème.
On cherchera alors à résoudre le dual de cette relaxation par différentes méthodes comme
la méthode des faisceaux, la génération de colonnes ou la plus utilisée, la descente de
sous-gradient et ses variations.
1. Prérequis mathématique
2. Principes
3. Présentation de la méthode
1. Prérequis mathématique
Corollaire : en notant 𝑆𝑢𝑝ℎ = +∞, le problème primal n’a pas de solution réalisable.
(𝐷 ) {𝑀𝑎𝑥𝑖𝑚𝑖𝑠𝑒𝑟 𝒉(𝒖)
𝒖𝝐𝑼
b) Point-selle du Lagrangien
Le point-Selle signifie donc que 𝑥 ∗ minise 𝑳(𝑥, 𝑢), par rapport à x sur S et que 𝑢∗
maximise L(x, u) par rapport à u sur u ≥ 0
Il est difficile de donner une condition nécessaire et suffisante d’existence d’un point selle.
Théorème : Supposons S convexe et les fonctions f, 𝑔1 ,…, 𝑔𝑝 convexes sur S. Supposons
de plus qu’il existe x0 ∈ S tel que g(x0) < 0. Si x∗ ∈ S est une solution optimale de (P),
alors il existe un vecteur de multiplicateurs u∗ ≥ 0 tel que (x∗, u∗) est un point-selle du
Lagrangien L(x, u).
Proposition :
– La fonction w est monotone non croissante sur Y
– Si f, g sont des fonctions convexes et S est convexe fermé, alors Y est un ensemble
convexe et w est convexe sur Y.
2. Principes
Par FS(P) nous désignons la suite des solutions admissibles au problème primal (𝑃)
Nous remarquons que (𝐿𝑅𝜆 ) est bien une relaxation du problème (𝑃) puique :
i) FS(L𝑅𝜆 ) ⊆ FS(P)
ii) ∀ la solution admissible du problème (P) et ∀ λ≥0, f (x) +λ (Ax −b) ≤ f (x)
(puisque nous sommes en présence d’un problème de minimisation). Donc, il
s’en suit qu’une solution optimale au problème relaxé est inférieure à J* (∀
λ≥0, L(λ) ≤ J*). Ainsi, L(λ) est une borne inférieure à la valeur optimale du
problème (P).
satisfait la condition λ (Axλ - b) ≤ 0, alors xλ est solution optimale au problème primal (P).
Par contre, si xλ n’est pas une solution admissible au problème (P), alors des méthodes
heuristiques sont souvent utilisées pour modifier la solution inadmissible à (P) pour la
rendre admissible. Généralement, les solutions obtenues des sous problèmes lagrangiens
sont des solutions approximées. Ainsi, une méthode heuristique de relaxation pour générer
de bonnes solutions est adoptée.
Pour ces méthodes l’idée principale est de mettre à jour itérativement le vecteur des
multiplicateurs 𝝀 en fonction, notamment de la valeur de L(𝝀). A chaque itération de
l’algorithme dual, l’idée des deux méthodes évoquées ci haut est de résoudre jusqu’à
l’optimalité les problèmes ( 𝐿𝑅 𝝀 ). Ceci présuppose que les problèmes relaxés ( 𝐿𝑅 𝝀 )
peuvent être résolus très rapidement. Le choix des contraintes relaxés est donc guidé par
cette première observation. De plus en pratique, il est important de préserver une taille
raisonnable au vecteur des multiplicateurs. Par conséquent, nous sommes souvent
contraints de limiter le nombre de contraintes à relaxer. Ce choix doit tenir compte de la
qualité des bornes inferieures que nous allons obtenir. Il est connu que, quelles que soient
les contraintes relaxées, la valeur maximale de L(𝝀) est supérieure ou égale à la borne
inferieure que nous aurions obtenue à l’aide de la relaxation de (P). Ainsi trouver une
réponse à la deuxième question n’est pas évident.
3. Présentation de la méthode
𝑋1 = { 𝑥 ∈ 𝑅𝑛 : 𝑓𝑖 (𝑥) ≤ 0, 𝑖 = 1, … , 𝑚}
𝑋2 = { 𝑥 ∈ 𝑅𝑛 : 𝑔𝑖 (𝑥) ≤ 0, 𝑖 = 1, … , 𝑞}.
Si les contraintes 𝑥 ∈ 𝑋1 et 𝑥 ∈ X sont des contraintes faciles à traiter, alors il est
intéressant de trouver un moyen d’en tirer d’avantage en éliminant 𝑥 ∈ 𝑋2 .
Par contre il faut trouver un moyen de simuler leur présence dans le problème résultant
𝒒
(𝑷𝝀 ) G (𝝀) =Min {f(x) +∑𝒊=𝟏 𝝀𝒊 𝒈𝒊 (𝒙)}
𝒇 ≤𝟎 𝒊 = 𝟏, … . . 𝒎
Sujet à { 𝒊
𝒙∈𝑿
𝒇 ≤𝟎 𝒊 = 𝟏, … . . 𝒎
Sujet a { 𝒊
𝒙∈𝑿
Est concave en 𝜆.
Si la fonction G (𝜆) était continument différentiable, il suffirait de résoudre le
dual (𝐷) avec une méthode itérative où à chaque itération la solution actuelle
est modifiée en se déplaçant dans une direction s'alignant sur le gradient de la
fonction évalué à la solution actuelle.
Du fait que G(λ) est concave, il s'ensuit que cette fonction atteint un minimum global
en un point où le gradient s'annule.
Mais la fonction G(λ) n’est pas continument différentiable en général. Pour ce genre
de problème, des méthodes itératives ont été développées où le gradient est remplacé
par le sous-gradient de la fonction.
= 𝐆( λ)
Propriété d’Intégralité :
Si l’enveloppe convexe des points entiers des contraintes que l’on garde est égale au
polyèdre des contraintes que l’on garde autrement dit, si
Co{x∈X | Cx ≤ d} = {x∈Rn | Cx ≤ d} Conséquences (malheureuses !) de la
propriété d’intégralité: v(LR)=v(PR)=v(LP)
L’objectif des grandes entreprises est d’établir le lien entre la ressource naturelle
disponible, sa transformation et l’obtention du produit sollicité afférent aux problèmes que
solutionne l’entreprise. Généralement on désire minimiser la production (matière première,
sa transformation), et satisfait la consommation. Pour atteindre le but et rester dans la
logique dans une perspective durable, certaines entreprises disposent des départements
d’études spécifiques dont le rôle est de maximiser certains paramètres et de minimiser
d’autres ; en d’autres termes améliorer le rendement. La traduction du problème en
équations mathématiques s’avère plus ou moins complexe suivant les domaines, et les
méthodes de résolution qui ne sont pas toujours disponibles sont très cruciales pour
l’entreprise. En effet la solution fournie fera suite à une série des décisions et des
contraintes à prendre en compte pour atteindre l’objectif escompté. Ainsi, nous présentons
ci-après quelques problèmes que vient résoudre l’algorithme de relaxation lagrangienne en
termes d’optimisation et d’efficacité.
x(u)= 1 si u Є A
x(u)= 0 si non
On note S l’ensemble des fonctions ainsi obtenues (par abus de langage, un élément x de
S est appelé arbre). On appellera 𝑑𝑣 (𝑥) le degré du sommet v dans l’arbre x, et pour chaque
sommet v du graphe on définit une borne 𝐷𝑣 que ne devra pas dépasser 𝑑𝑣 (𝑥) dans la
solution finale. On note i(u) et j(u) les extrémités de l’arrête u. Avec ces notations, le
problème que l’on veut résoudre s’écrit :
Minimiser ∑ c(u).x(u)
xЄS uЄU
Avec les contraintes pour tout v Є V, 𝑑𝑣 (𝑥)≤ 𝐷𝑣
Définissons le problème dual en relâchant les contraintes. A chaque contrainte, mise sous
la forme 𝑑𝑣 (𝑥)- 𝐷𝑣 ≤ 0, on associe un multiplicateur de Lagrange 𝜆𝑣 ≥0. Notons A le
vecteur dont les composants sont les différents multiplicateurs de Lagrange. La fonction de
Lagrange L(x,A) vaut alors
L(x,A)=∑ c(u).x(u) + ∑ 𝜆𝑣 (𝑑𝑣 (𝑥)- 𝐷𝑣 )
uЄU vЄV
L’inconvénient majeur de la forme précédente est qu’elle fait intervenir à la fois les arrêtes
et les sommets du graphe. Ceci empêche de reconnaitre un problème d’arbre de poids
minimum, problème que l’on sait bien résoudre. Transformons le second terme en
éliminant les sommets.
Pour cela, remarquons que le degré d’un sommet v est égal au nombre d’arrêtes qui lui sont
incidentes
𝑑 𝑣 (𝑥 ) = ∑ x(u)
u Є U et [ i(u)= v ou j(u)= v ]
=∑ ∑ 𝜆𝑣 x(u)- ∑ 𝜆𝑣 𝐷𝑣
Considérons une arrête u quelconque : x(u) apparait à deux endroits dans le dernier membre
de l’expression ci-dessus, correspondant aux deux extrémités de u. par conséquent, si on
regroupe les termes selon les arrêtes u, 𝑥𝑢 aura pour coefficient λi(u)+ λj(u). D’autre part,
faire la somme sur tous les sommets possibles revient à envisager toutes les arrêtes du
graphe. On se trouve donc avec l’expression :
Wk.
C(XI)=5 et c(X2)=12
Toute solution à notre problème aura un coût au moins égal à la solution de coût minimum :
5 𝑍 ∗ , l’arbre x2 de coût 12 est réalisable : 𝑍 ∗ 12.
En ce qui concerne 𝑊 ∗ on peut remarquer que W(0)=c(X1)=5 ; comme on a 𝑊 ∗ W(0),
il vient 𝑊 ∗ 5. Par ailleurs, g : 𝑊 ∗ 12.
On peut en fait considérer que XI est un APM obtenu pour =0, et un arbre correspondant à
des valeurs très grandes de et Rb de telle sorte que le coût devienne négligeable par rapport
aux contraintes dans la fonction de Lagrange. On obtient :
On résout Maximiser Min { L(XI, A), L(X2,Ä) ) pour A=0. on est amener à résoudre
Application de l’algorithme de
Simplex nous donne les valeurs
optimales recherchées
A3=(7/3,0)
∗
𝑊 3=29/3
b) Voyageur de commerce
En informatique, le problème du voyageur de commerce, ou problème du commis
voyageur, est un problème d'optimisation qui, étant donné une liste de villes, et des
distances entre toutes les paires de villes, détermine un plus court chemin qui visite chaque
ville une et une seule fois et qui termine dans la ville de départ.
Malgré la simplicité de son énoncé, il s'agit d'un problème d'optimisation pour lequel
on ne connait pas d'algorithme permettant de trouver une solution exacte rapidement dans
tous les cas. Plus précisément, on ne connait pas d'algorithme en temps polynomial, et sa
version décisionnelle (pour une distance D, existe-t-il un chemin plus court que D passant
par toutes les villes et qui termine dans la ville de départ ?) est un problème NP-complet,
ce qui est un indice de sa difficulté.
C'est un problème algorithmique célèbre, qui a généré beaucoup de recherches et qui
est souvent utilisé comme introduction à l'algorithmique ou à la théorie de la complexité.
Il présente de nombreuses applications que ce soit en planification et en logistique, ou bien
dans des domaines plus éloignés comme la génétique (en remplaçant les villes par des gènes
et la distance par la similarité)
c) Bin packing
En recherche opérationnelle et en optimisation combinatoire, le bin packing est un
problème algorithmique. Il s'agit de ranger des objets avec un nombre minimum de boîtes.
Le problème classique se définit en une dimension, mais il existe de nombreuses variantes
en deux ou trois dimensions.
3. Améliorations
3. Améliorations
Relève du domaine de la recherche en optimisation
CONCLUSION
Au terme de ce travail qui portait sur la relaxation lagrangienne , rappelons qu’il a été
question pour nous de présenter la relaxation lagrangienne de façon globale, puis détaillée,
ensuite nous avons présenté ses nombreuses applications en recherche opérationnelle dans
la résolution des problèmes dans plusieurs domaines notamment en génie civil, électrique,
informatique. Bien que présentant des avantages, la relaxation lagrangienne présente des
limites et ses améliorations peuvent être faites dans le cadre d’une recherche plus poussée
d’optimisation. Toutefois, lors d’une relaxation lagrangienne, on devrait se poser les
questions suivantes : est-ce que le problème à la propriété de linéarisation entière ? Dans
ce cas il se peut que le problème lagrangien soit très facile à résoudre. Est-ce que le
problème lagrangien est décomposable ? Dans ce cas on découper et mélanger les plans
sécants dans une méthode de génération de coupes et de colonnes ou faisceaux. Peut-on
utiliser une substitution ou une décomposition lagrangienne agrégée ? Dans ce cas il se peut
que la borne soit aussi bonne et beaucoup moins couteuse que par la décomposition
lagrangienne. Toutes ces questions sont importantes pour la résolution utilisant la technique
de relaxation lagrangienne.
BIBLIOGRAPHIE
<< Une approche par relaxation lagrangienne pour l’optimisation d’un réseau de
distribution : modèles stochastiques et fiables>>, Guy Aimé TANONKOU
<< Quelques propriétés particulières de la relaxation lagrangienne. >> Monique
Guignard, The Warton School, Journée Francilienne de Recherche
<< L.S. Lasdon, Optimization for Large Systems >>, Mac Millan, 1970
<< O. Mangasarian, Nonlinear Programming >>, Prentice-Hall, 1969
<< Relaxation Lagrangienne de problème de planification de production d’énergie
>> rapport présenté par Mohamed BOUSSAID et Skander BOURAOUI