Vous êtes sur la page 1sur 10

Optimisation multi-objectif 

1. Introduction

L'optimisation multi-objectif est une branche de l'optimisation mathématique qui se concentre sur la
résolution de problèmes impliquant plusieurs objectifs à atteindre simultanément. Contrairement
aux problèmes d'optimisation mono-objectif où un seul objectif est à maximiser ou à minimiser, les
problèmes d'optimisation multi-objectif ont plusieurs critères à optimiser, souvent en concurrence
les uns avec les autres.

Les problèmes d'optimisation multi-objectif se retrouvent dans de nombreux domaines, tels que la
finance, l'ingénierie, la logistique, l'environnement, etc. Les solutions optimales dans ces domaines
peuvent impliquer des compromis entre plusieurs critères, ce qui rend l'optimisation multi-objectif
particulièrement utile pour la prise de décision.

L'optimisation multi-objectif présente des défis uniques en termes de méthodes d'optimisation, de


représentation de la solution optimale et d'évaluation des solutions. Il existe de nombreuses
approches pour résoudre des problèmes d'optimisation multi-objectif, notamment les méthodes
basées sur les poids, les méthodes d'évolution, les algorithmes génétiques, les méthodes basées sur
les essaims, etc.

Dans la suite, nous allons explorer les concepts de base de l'optimisation multi-objectif, les défis
associés à la résolution de problèmes multi-objectifs et les méthodes les plus couramment utilisées
pour trouver des solutions optimales.

2. Définitions de notions liées aux problèmes d’optimisation multi objectifs :

[Alain Berro, 2001] définit un problème multi-objectif comme un problème qui implique la recherche
d'une action qui satisfait un ensemble de contraintes tout en optimisant un vecteur de fonctions
objectifs. Dans ce type de problème, il est courant de trouver plusieurs solutions car il est difficile de
définir un unique optimum.

En effet, la notion d'optimum dans les problèmes multi-objectifs n'est pas clairement définie. Au lieu
de cela, on cherche à trouver un ensemble de solutions qui représentent un compromis entre les
différents critères et contraintes du problème. Ces solutions ne sont pas nécessairement optimales,
mais elles sont toutes acceptables et fournissent un équilibre satisfaisant entre les différents
objectifs du problème.

Le paragraphe suivant donne la modélisation mathématique d’un problème d’optimisation multi-


objectif.

 Une action (ou un vecteur de décisions) sera notée :


x = (x 1, x 2, ..., x n)
avec x i les variables du problème et n le nombre de variables.
 Les contraintes20 seront notées :
g i(x) avec i = 1, ..., m
avec m le nombre de contraintes
 Le vecteur de fonctions objectifs sera noté f :
f(x) = (f 1(x), f 2(x), ..., f k(x))
avec f i les objectifs ou critères de décision et k le nombre d'objectifs.
Un problème d'optimisation recherche l'action x * telle que les contraintes g i(x *) soient satisfaites
pour i = 1, ..., m et qui optimise la fonction f : f(x *) = (f1(x *), f 2(x *), ..., f k(x*))
L'union des domaines de définition de chaque variable et les contraintes forment un
ensemble E qu’on appelle l'ensemble des actions réalisables. On appelle aussi F l’ensemble des
objectifs réalisable.

Fig : définition de E, F et f [BAAZIZ ADLANE,2015]

2.1. Optimum de Pareto

Vilfredo Pareto, un mathématicien italien du XIXème siècle, a introduit le concept d'optimum de


Pareto en optimisation multi-objectif. Selon ce concept, il existe un équilibre dans un problème d'OM
tel que l'amélioration d'un critère entraîne nécessairement la détérioration d'au moins un autre
critère. L'optimum de Pareto est cet équilibre et un point x est considéré Pareto-optimal s'il n'est pas
dominé par un autre point de S. Ces points sont également appelés solutions non inférieures ou non
dominées. [Coello Coello et Christiansen, 1999]

2.2. Définition du principe de dominance

La plupart des algorithmes d'optimisation multi-objectifs utilisent le principe de dominance pour


comparer deux solutions. Une solution x(i) domine une autre solution x(j) si deux conditions sont
vérifiées : d'une part, pour chaque critère k dans l'ensemble {1, ..., K}, la valeur du critère est
meilleure ou égale pour x(i) que pour x(j). D'autre part, il existe au moins un critère k dans l'ensemble
{1, ..., K} tel que la valeur du critère est strictement meilleure pour x(i) que pour x(j). Si x(i) domine
x(j), cela est noté x(i) ≺ x(j).

2.3. Frontière de Pareto

Lorsque l'on dispose d'un ensemble fini de solutions, il est possible de les comparer deux à deux en
utilisant le principe de dominance, et ainsi déterminer quelle solution domine l'autre. Au final, on
obtient un ensemble de solutions où aucune solution ne domine une autre, cet ensemble est appelé
ensemble des solutions non-dominées ou ensemble des solutions Pareto-optimales.

3. Défis associé à la résolution du problème multi-objectif :

La résolution de problèmes multi-objectif est une tâche complexe qui présente de nombreux défis. Le
premier défi est lié à la nature même du problème multi-objectif, qui ne permet pas de définir une
solution unique et optimale. Au lieu de cela, il faut rechercher un ensemble de solutions
satisfaisantes, qui répondent à plusieurs critères souvent contradictoires. Cette difficulté se traduit
par la nécessité de trouver un compromis entre les différentes solutions possibles, ce qui peut être
difficile pour les décideurs.

Un deuxième défi majeur est lié à la taille de l'espace de recherche. Avec plusieurs critères à prendre
en compte, l'espace de recherche devient rapidement très grand, rendant la tâche de recherche de
solutions efficaces difficile. Les méthodes de recherche doivent donc être suffisamment robustes
pour explorer efficacement cet espace de recherche et identifier les solutions les plus intéressantes.

En outre, la résolution de problèmes multi-objectif peut impliquer des calculs intensifs, en particulier
lorsque des techniques d'optimisation numérique sont utilisées. Il peut être nécessaire de trouver
des solutions qui sont à la fois efficaces en termes de temps de calcul et précises en termes de
qualité de la solution.

Enfin, la résolution de problèmes multi-objectif peut impliquer des difficultés liées aux préférences
des décideurs. En effet, les critères à optimiser peuvent être interdépendants et les décideurs
peuvent avoir des préférences qui ne sont pas facilement exprimées. Il peut donc être difficile de
trouver des solutions qui reflètent fidèlement les préférences des décideurs.

La communauté scientifique a adopté deux approches différentes pour résoudre les problèmes multi
objectifs. La première consiste à simplifier le problème en ne considérant qu'un seul critère, ce qui
peut entraîner une perte de sens pour le problème. La seconde approche tente de répondre au
problème en prenant en compte tous les critères, et a conduit à de nombreuses innovations dans les
méthodes de résolution au cours des dix dernières années. La différence entre ces deux approches
réside dans le fait que, dans la première, le décideur exprime ses préférences dès le début de la
définition du problème pour le transformer en un problème simple objectif, tandis que dans la
seconde, le décideur choisit parmi les solutions proposées par le solveur multi objectif. [Alain Berro,
2001]
Fig : Quel mode de résolution choisir ? [Alain Berro, 2001]

Dans le prochain paragraphe on présentera une classification des différentes méthodes adopté pour
la résolution des problèmes d’optimisation multi objectifs.

4. Classification des méthodes de résolution des problèmes d’optimisation multi objectifs

Il existe deux classifications différentes des méthodes de résolution de problèmes multi objectifs
dans la littérature scientifique. Le premier classement se base sur l'usage que l'on souhaite faire de
ces méthodes, et est axé sur l'utilisateur. Le second classement, plus théorique et conceptuel,
regroupe les méthodes en fonction de leur approche pour traiter les fonctions objectives.

4.1. Classification de point de vue utilisateur

De point de vue utilisateur, il est possible de classer les méthodes d'optimisation multicritère en trois
catégories distinctes : les méthodes a priori, les méthodes a posteriori et les méthodes interactives.

 Les méthodes a priori nécessitent que le décideur connaisse préalablement les


poids de chaque objectif et vise à atteindre un compromis spécifique.
 Les méthodes a posteriori fournissent une liste de solutions Pareto-optimales,
parmi lesquelles le décideur sélectionne celle qui convient le mieux à ses
préférences.
 Les méthodes interactives impliquent une collaboration progressive entre le
décideur et la méthode d'optimisation pour affiner les choix de compromis.
Bien que certaines méthodes puissent ne pas être classées exclusivement dans l'une de ces
catégories, cette classification en trois groupes permet d'orienter la démarche à suivre pour obtenir
une solution optimale. Par exemple, en utilisant des préférences aléatoires avec une méthode a
priori, il est possible de produire un ensemble Pareto-optimal, qui sera présenté au décideur pour
qu'il sélectionne la solution le mieux adaptée à ses besoins, créant ainsi une méthode a posteriori.

4.2. Classification de point de vue concepteur

Ce classement propose une approche théorique pour classer les différentes méthodes de résolution
de problèmes multi objectifs en fonction de leur utilisation de concepts tels que l'agrégation et
l'optimum de Pareto.

 Les méthodes agrégées : transforment un problème multi objectif en un problème simple


objectif
 Les méthodes basées sur Pareto : se concentrent sur la notion de dominance au sens de
Pareto pour rechercher des solutions qui satisfont le mieux tous les objectifs.
 Les méthodes non agrégées et non Pareto : traitent les objectifs de manière séparée et ne se
reposent pas sur l'agrégation ou la dominance de Pareto pour résoudre le problème.

Dans le paragraphe suivant, on présentera quelques méthodes de résolution des problèmes multi
objectif en adoptant la deuxième classification.

5. Méthodes de résolution des problèmes d’optimisation multi-objectifs

Différentes méthodes ont été proposées pour résoudre les problèmes multi-objectifs, allant des
méthodes exactes aux heuristiques. Bien que cette liste ne soit pas exhaustive, voici quelques
exemples de méthodes utilisées pour l'optimisation multi-objectif.

5.1. Les méthodes agrégées


5.1.1.La moyenne pondérée

La méthode de moyenne pondérée (Weighted Average Method en anglais) est une technique
couramment utilisée pour résoudre des problèmes multi objectifs en ingénierie. Cette méthode
combine les différents objectifs en un seul critère en utilisant une pondération pour chaque objectif,
ce qui permet de les agréger en un seul critère de performance. Les pondérations sont choisies de
manière à donner plus ou moins d'importance à chaque objectif en fonction de sa priorité relative.

Plusieurs auteurs ont utilisé cette méthode pour résoudre des problèmes multi objectifs en
ingénierie, tels que la conception de circuits intégrés [Potkonjak et Srivastava, 1995] ou la
planification de la production [A. E. Smith et R. A. Linn, 1987]. Une étude récente a montré que la
méthode de moyenne pondérée était particulièrement efficace pour résoudre des problèmes avec
un petit nombre d'objectifs [K. M. Hasan et al, 2012].

L'algorithme de la méthode de moyenne pondérée est simple : il suffit de donner une pondération à
chaque objectif et de calculer la moyenne pondérée des résultats pour chaque solution. Cependant,
le choix des pondérations peut être délicat et doit être effectué avec soin pour obtenir des résultats
pertinents. Cette méthode est simple et efficace, mais il y a deux problèmes principaux à résoudre. Le
premier problème est de déterminer comment le décideur attribue des poids à chaque critère. Le
deuxième problème est de trouver un moyen d'exprimer l'interaction entre les différents critères.

Pour résoudre le premier problème, une solution est d'utiliser une combinaison linéaire des objectifs
et de faire varier les poids pour voir l'impact de chaque objectif sur le résultat final. Cependant, cette
approche ne prend en compte que les solutions qui appartiennent à des zones convexes de l'espace
des objectifs réalisables, et les solutions potentielles situées dans des portions concaves sont
ignorées. En d'autres termes, cette méthode est facile à mettre en œuvre, mais elle ne permet pas
d'explorer toutes les possibilités de manière exhaustive.

Le deuxième problème dans l'optimisation multi-objectif est plus complexe car il existe différents
types d'interactions entre deux critères qui ne peuvent pas être exprimés simplement à l'aide d'une
somme pondérée. Par exemple, il peut y avoir une corrélation positive ou négative entre deux
critères, ce qui signifie que lorsque l'un est satisfait, l'autre l'est également, ou inversement. Il peut
également y avoir une interchangeabilité, où la satisfaction d'un seul critère produit presque le
même effet que la satisfaction des deux critères, ou une complémentarité, où la satisfaction d'un
seul critère a très peu d'effet par rapport à la satisfaction des deux critères. Enfin, il peut y avoir une
dépendance préférentielle, où le décideur préfère certaines combinaisons de critères par rapport à
d'autres.

5.1.2.La méthode ε-contrainte

Cette méthode a été suggérée par [Haimes Y et al, 1986] la méthode consiste à minimiser (ou
maximiser) un objectif particulier tout en s'assurant que les autres objectifs ne dépassent pas une
certaine valeur εj. Cette approche repose sur l'idée que le décideur souhaite donner la priorité à
l'optimisation de cet objectif en particulier. En d'autres termes, la méthode vise à atteindre un
certain niveau de performance pour l'objectif prioritaire tout en limitant les autres objectifs à des
niveaux acceptables. Cela permet de trouver une solution satisfaisante qui répond aux exigences du
décideur en termes d'objectifs à atteindre.

Le processus le plus difficile de cette méthode est de choisir des valeurs appropriées pour epsilon.
Cela nécessite une connaissance approfondie des intervalles de valeurs appropriés pour tous les
objectifs du problème, afin de pouvoir générer un ensemble de solutions Pareto optimales. En
d'autres termes, la sélection des valeurs d’epsilon est cruciale pour obtenir des résultats satisfaisants.
Le choix de ces valeurs doit être fait avec soin pour assurer que toutes les solutions possibles sont
prises en compte dans l'ensemble des solutions Pareto optimales. Cela nécessite une compréhension
claire des exigences et des préférences du décideur pour chacun des objectifs du problème

5.2. Les méthodes méta-heuristiques

Les méta-heuristiques sont des algorithmes généraux utilisés pour résoudre des problèmes
d'optimisation difficiles avec un grand espace de recherche ou un problème discret. Les méta-
heuristiques fournissent une approximation du front de Pareto plutôt que le front de Pareto réel et il
y a deux types d'algorithmes de méta-heuristiques : les algorithmes basés sur une solution unique et
les algorithmes basés sur une population. Ci-dessous quelques méta-heuristiques utilisé dans la
littérature.

5.2.1. Le Recuit Simulé

Plusieurs approches ont été proposées pour utiliser le Recuit Simulé dans des problèmes multi-
objectifs, notamment en utilisant des ensembles de solutions Pareto-optimaux contenant toutes les
solutions non-dominées ou en utilisant des populations de solutions. Les règles d'acceptation doivent
également être modifiées pour prendre en compte les différentes situations qui peuvent se produire
lors de la comparaison de deux solutions. [Ulungu et al, 2003]

L'une des méthodes les plus couramment utilisées est le Pareto Simulated Annealing (PSA), qui utilise
une population de solutions, chacune étant associée à un vecteur poids séparé. La méthode met à
jour les vecteurs de poids des solutions en construction pour assurer la dispersion des solutions sur
toutes les régions du front Pareto. Une autre méthode est MOSA (Multi-Objective Simulated
Annealing), qui utilise plusieurs processus de Recuit Simulé indépendants, chacun commençant par
une solution aléatoire ou construite par une heuristique spécialisée. Les solutions non-dominées
générées par tous les processus de Recuit Simulé forment l'ensemble final des solutions Pareto-
optimaux. [Czyzak et Jaszkiewicz , 2005]

Le principe de base du Recuit Simulé est de trouver une solution optimale en explorant l'espace de
recherche en utilisant des mouvements aléatoires pour éviter de rester bloqué dans des minima
locaux. L'algorithme fonctionne en calculant une fonction de coût pour chaque solution candidate et
en choisissant aléatoirement une nouvelle solution dans une région voisine. La nouvelle solution est
acceptée ou rejetée en fonction de la différence de coût entre la solution courante et la nouvelle
solution, ainsi que d'une probabilité déterminée par une règle d'acceptation. Le processus est répété
jusqu'à ce qu'une solution satisfaisante soit trouvée ou jusqu'à ce qu'un critère d'arrêt soit atteint. En
utilisant des règles d'acceptation multi-objectif et des ensembles de solutions Pareto-optimaux, le
Recuit Simulé peut être étendu pour résoudre efficacement les problèmes multi-objectifs complexes.
[Suppapitnarm et Parks, 2006]

5.2.2.La recherche tabou

La recherche tabou est un autre algorithme de recherche locale populaire pour la résolution de
problèmes multi objectifs. Cette méthode est basée sur la notion de tabou, qui consiste à empêcher
le retour à des solutions déjà visitées. L'objectif est d'éviter de rester bloqué dans des régions de
l'espace de recherche qui ne conduisent pas à des solutions améliorantes. La recherche tabou est
efficace pour la résolution de problèmes difficiles avec des espaces de recherche complexes et de
multiples optima locaux.

Plusieurs travaux de recherche ont utilisé la recherche tabou pour la résolution de problèmes multi
objectifs. Par exemple, [Gambardella et Dorigo, 1996] ont proposé un algorithme de recherche tabou
pour la résolution de problèmes de tournées de véhicules avec des objectifs multiples. La méthode
utilise une liste tabou pour éviter de revisiter des solutions déjà explorées et une fonction
d'évaluation basée sur la notion de domination de Pareto pour évaluer les solutions. Les résultats
montrent que l'algorithme de recherche tabou est capable de trouver des solutions de haute qualité
pour des instances difficiles de problèmes multi objectifs de tournées de véhicules.

De même, [Tanabe et Fukunaga, 2013] ont proposé un algorithme de recherche tabou pour la
résolution de problèmes d'optimisation multi objectif. L'algorithme utilise une liste tabou pour éviter
de revisiter les solutions précédemment visitées, ainsi qu'une méthode de perturbation pour
explorer différentes régions de l'espace de recherche. Les résultats expérimentaux montrent que
l'algorithme de recherche tabou est capable de trouver des solutions de haute qualité pour des
problèmes multi objectifs complexes.

5.2.3.Méta-heuristiques basées sur la population

Il existe plusieurs types d'algorithmes basés sur la population qui sont adaptés aux problèmes
d'optimisation multi-objectifs (POMOs), et la littérature les a classés en différentes catégories selon
leur source d'inspiration. La figure suivante présente les catégories les plus populaires, où les
algorithmes en gris sont considérés comme faisant partie de l'ancienne génération, tandis que les
autres sont classés comme faisant partie de la nouvelle génération.
Fig : méta-heuristiques basées sur la population [Aouadj Wafa, 2021]

 Les algorithmes évolutionnaires : Les algorithmes évolutionnaires font partie des premiers
algorithmes inspirés de la biologie, utilisés pour résoudre les problèmes d’optimisation en
général et les problèmes multi-objectif en particulier. Ces algorithmes sont inspirés de
mécanismes d’évolution biologique, qui portent sur le développement des générations
successives contenants un ensemble d’individus appelé population. Parmi ces algorithmes on
peut mentionner l’algorithme génétique elliste NSGAII (Non-dominated Sorting Genetic
Algorithm). On va retourner sur le principe de cet algorithme dans le paragraphe suivant.

 Les algorithmes basés sur les essaims : cette catégorie comprend les algorithmes inspirés des
essaims naturels. Différemment à la première catégorie qui ne contient que les algorithmes
de l’ancienne génération, celle-là contient des algorithmes des deux générations. Parmi les
algorithmes de l’ancienne génération : l’optimisation multi-objectif par essaim de particules
(MOPSO : Multi-Objective Particle Swarm Optimization) mettant à jour la position d’un
ensemble de particules représentées par des vecteurs dans l’espace de décision [C. C. Coello
et M. S. Lechuga, 2002]. La nouvelle génération aussi regroupe une variété d’algorithmes tels
que : l’optimisation par fourragement bactérien (MBFO : Multi-objective Bacterial foraging
Optimization) inspirée par le comportement de fourragement chez les bactéries. [B. Niu et al,
2013]

 Les algorithmes basés sur la physique : La troisième catégorie d'algorithmes pour les POMOs
est constituée par les algorithmes basés sur la physique, tels que le MO Gravitational Search
Algorithm (MOGSA), qui simule les forces gravitationnelles entre les particules pour
optimiser les solutions. [H. R. Hassanzadeh et M. Rouhani, 2010]

 Les algorithmes inspirés de la société humaine : Une catégorie émergente d'algorithmes pour
les POMOs est basée sur la société humaine. Par exemple, l'algorithme d'optimisation par
remue-méninges basé sur la décomposition (MOBSO/D) imite le processus de brainstorming,
qui est un comportement collectif observé chez les êtres humains. [C. Dai et X. Lei, 2019]

 Les algorithmes basés sur les plantes : Il existe de nouvelles catégories d'algorithmes
émergents, telles que ceux qui s'inspirent du monde végétal, comme l'algorithme de
pollinisation des fleurs (MOFPA : Multi-Objective Flower Pollination Algorithm) [X. S. Yang et
al, 2013]

6. Conclusion

Ce chapitre présente une introduction à l'optimisation multi-objectif et aux concepts fondamentaux


tels que le principe de dominance et l'ensemble des solutions non dominées. Bien qu'une variété de
méthodes soit proposée pour résoudre des problèmes de test continus et de petite taille, les
problèmes réels peuvent être plus difficiles à résoudre, en particulier les problèmes discrets ou à
grande échelle comme les problèmes de conception de chaine logistique. Malgré le manque de
preuves théoriques démontrant leur convergence, les méta-heuristiques basées sur une population
ont démontré leur capacité à résoudre efficacement une variété de problèmes réels complexes.
Bibliographie

M. Potkonjak and M. Srivastava, "Multiobjective optimization in VLSI CAD," in Proceedings of the


IEEE, vol. 83, no. 9, pp. 1371-1394, Sept. 1995.

A. E. Smith and R. A. Linn, "Multiobjective optimization in production planning," Journal of


Operations Management, vol. 6, no. 4, pp. 303-314, Juin 1987.

K. M. Hasan, S. K. Biswas, and S. K. Pal, "Comparison of MCDM methods for multi-objective


optimization of irrigation water management," Journal of Hydrology, vol. 464-465, pp. 478-490, Juin
2012.

C. C. Coello et M. S. Lechuga, «MOPSO: A proposal for multiple objective particle swarm


optimization,» chez Proceedings of the 2002 Congress on Evolutionary Computation. CEC'02 (Cat. No.
02TH8600) , Honolulu, HI, USA , 2002.

B. Niu, H. Wang, J. Wang et L. Tan, «Multi-objective bacterial foraging optimization,»


Neurocomputing, vol. 116, pp. 336-345, 2013.

H. R. Hassanzadeh et M. Rouhani, «A multi-objective gravitational search algorithm,» chez 2nd


international conference on computational intelligence, communication systems and networks,
Liverpool, UK, 2010.

Coello Coello C. A., Christiansen A. (1999) A Multiobjective Optimization Tool for engineering Design,
Engineering Optimization, volume 31, numéro 3, 337-368.

X. S. Yang, M. Karamanoglu et X. He, «Multi-objective flower algorithm for optimization,» Procedia


Computer Science, vol. 18, pp. 861-868, 2013

C. Dai et X. Lei, «A multiobjective brain storm optimization algorithm based on decomposition,»


Complexity, vol. 2019, 2019.

Ulungu, E. L., Teghem, J., & Fortemps, P. (2003). Multiobjective simulated annealing: A comparative
study. European Journal of Operational Research, 151(2), 307-326.

Czyzak, P., & Jaszkiewicz, A. (2005). Pareto simulated annealing for multiple objective optimization.
Journal of Multi-Criteria Decision Analysis, 13(1-2), 77-87.

Suppapitnarm, A., & Parks, G. T. (2006). A new multi-objective simulated annealing algorithm for
design optimization. Engineering Optimization, 38(6), 655-679.

Gambardella, L. M., & Dorigo, M. (1996). Solving TSPs with ACS: a new ant approach. In Proceedings
of the 1996 IEEE International Conference on Systems, Man and Cybernetics (pp. 309–314). IEEE.

Tanabe, R., & Fukunaga, A. (2013). Success-history based parameter adaptation for differential
evolution. In 2013 IEEE congress on evolutionary computation (CEC) (pp. 71-78). IEEE.

Alain Berro. Optimisation multiobjectif et stratégies d'évolution en environnement dynamique, déc


2001.

BAAZIZ ADLANE . Optimisation Multi-objectif des Chaînes Logistiques par les


Algorithmes Génétiques. Déc 2015

Vous aimerez peut-être aussi