Académique Documents
Professionnel Documents
Culture Documents
1. Introduction
L'optimisation multi-objectif est une branche de l'optimisation mathématique qui se concentre sur la
résolution de problèmes impliquant plusieurs objectifs à atteindre simultanément. Contrairement
aux problèmes d'optimisation mono-objectif où un seul objectif est à maximiser ou à minimiser, les
problèmes d'optimisation multi-objectif ont plusieurs critères à optimiser, souvent en concurrence
les uns avec les autres.
Les problèmes d'optimisation multi-objectif se retrouvent dans de nombreux domaines, tels que la
finance, l'ingénierie, la logistique, l'environnement, etc. Les solutions optimales dans ces domaines
peuvent impliquer des compromis entre plusieurs critères, ce qui rend l'optimisation multi-objectif
particulièrement utile pour la prise de décision.
Dans la suite, nous allons explorer les concepts de base de l'optimisation multi-objectif, les défis
associés à la résolution de problèmes multi-objectifs et les méthodes les plus couramment utilisées
pour trouver des solutions optimales.
[Alain Berro, 2001] définit un problème multi-objectif comme un problème qui implique la recherche
d'une action qui satisfait un ensemble de contraintes tout en optimisant un vecteur de fonctions
objectifs. Dans ce type de problème, il est courant de trouver plusieurs solutions car il est difficile de
définir un unique optimum.
En effet, la notion d'optimum dans les problèmes multi-objectifs n'est pas clairement définie. Au lieu
de cela, on cherche à trouver un ensemble de solutions qui représentent un compromis entre les
différents critères et contraintes du problème. Ces solutions ne sont pas nécessairement optimales,
mais elles sont toutes acceptables et fournissent un équilibre satisfaisant entre les différents
objectifs du problème.
Lorsque l'on dispose d'un ensemble fini de solutions, il est possible de les comparer deux à deux en
utilisant le principe de dominance, et ainsi déterminer quelle solution domine l'autre. Au final, on
obtient un ensemble de solutions où aucune solution ne domine une autre, cet ensemble est appelé
ensemble des solutions non-dominées ou ensemble des solutions Pareto-optimales.
La résolution de problèmes multi-objectif est une tâche complexe qui présente de nombreux défis. Le
premier défi est lié à la nature même du problème multi-objectif, qui ne permet pas de définir une
solution unique et optimale. Au lieu de cela, il faut rechercher un ensemble de solutions
satisfaisantes, qui répondent à plusieurs critères souvent contradictoires. Cette difficulté se traduit
par la nécessité de trouver un compromis entre les différentes solutions possibles, ce qui peut être
difficile pour les décideurs.
Un deuxième défi majeur est lié à la taille de l'espace de recherche. Avec plusieurs critères à prendre
en compte, l'espace de recherche devient rapidement très grand, rendant la tâche de recherche de
solutions efficaces difficile. Les méthodes de recherche doivent donc être suffisamment robustes
pour explorer efficacement cet espace de recherche et identifier les solutions les plus intéressantes.
En outre, la résolution de problèmes multi-objectif peut impliquer des calculs intensifs, en particulier
lorsque des techniques d'optimisation numérique sont utilisées. Il peut être nécessaire de trouver
des solutions qui sont à la fois efficaces en termes de temps de calcul et précises en termes de
qualité de la solution.
Enfin, la résolution de problèmes multi-objectif peut impliquer des difficultés liées aux préférences
des décideurs. En effet, les critères à optimiser peuvent être interdépendants et les décideurs
peuvent avoir des préférences qui ne sont pas facilement exprimées. Il peut donc être difficile de
trouver des solutions qui reflètent fidèlement les préférences des décideurs.
La communauté scientifique a adopté deux approches différentes pour résoudre les problèmes multi
objectifs. La première consiste à simplifier le problème en ne considérant qu'un seul critère, ce qui
peut entraîner une perte de sens pour le problème. La seconde approche tente de répondre au
problème en prenant en compte tous les critères, et a conduit à de nombreuses innovations dans les
méthodes de résolution au cours des dix dernières années. La différence entre ces deux approches
réside dans le fait que, dans la première, le décideur exprime ses préférences dès le début de la
définition du problème pour le transformer en un problème simple objectif, tandis que dans la
seconde, le décideur choisit parmi les solutions proposées par le solveur multi objectif. [Alain Berro,
2001]
Fig : Quel mode de résolution choisir ? [Alain Berro, 2001]
Dans le prochain paragraphe on présentera une classification des différentes méthodes adopté pour
la résolution des problèmes d’optimisation multi objectifs.
Il existe deux classifications différentes des méthodes de résolution de problèmes multi objectifs
dans la littérature scientifique. Le premier classement se base sur l'usage que l'on souhaite faire de
ces méthodes, et est axé sur l'utilisateur. Le second classement, plus théorique et conceptuel,
regroupe les méthodes en fonction de leur approche pour traiter les fonctions objectives.
De point de vue utilisateur, il est possible de classer les méthodes d'optimisation multicritère en trois
catégories distinctes : les méthodes a priori, les méthodes a posteriori et les méthodes interactives.
Ce classement propose une approche théorique pour classer les différentes méthodes de résolution
de problèmes multi objectifs en fonction de leur utilisation de concepts tels que l'agrégation et
l'optimum de Pareto.
Dans le paragraphe suivant, on présentera quelques méthodes de résolution des problèmes multi
objectif en adoptant la deuxième classification.
Différentes méthodes ont été proposées pour résoudre les problèmes multi-objectifs, allant des
méthodes exactes aux heuristiques. Bien que cette liste ne soit pas exhaustive, voici quelques
exemples de méthodes utilisées pour l'optimisation multi-objectif.
La méthode de moyenne pondérée (Weighted Average Method en anglais) est une technique
couramment utilisée pour résoudre des problèmes multi objectifs en ingénierie. Cette méthode
combine les différents objectifs en un seul critère en utilisant une pondération pour chaque objectif,
ce qui permet de les agréger en un seul critère de performance. Les pondérations sont choisies de
manière à donner plus ou moins d'importance à chaque objectif en fonction de sa priorité relative.
Plusieurs auteurs ont utilisé cette méthode pour résoudre des problèmes multi objectifs en
ingénierie, tels que la conception de circuits intégrés [Potkonjak et Srivastava, 1995] ou la
planification de la production [A. E. Smith et R. A. Linn, 1987]. Une étude récente a montré que la
méthode de moyenne pondérée était particulièrement efficace pour résoudre des problèmes avec
un petit nombre d'objectifs [K. M. Hasan et al, 2012].
L'algorithme de la méthode de moyenne pondérée est simple : il suffit de donner une pondération à
chaque objectif et de calculer la moyenne pondérée des résultats pour chaque solution. Cependant,
le choix des pondérations peut être délicat et doit être effectué avec soin pour obtenir des résultats
pertinents. Cette méthode est simple et efficace, mais il y a deux problèmes principaux à résoudre. Le
premier problème est de déterminer comment le décideur attribue des poids à chaque critère. Le
deuxième problème est de trouver un moyen d'exprimer l'interaction entre les différents critères.
Pour résoudre le premier problème, une solution est d'utiliser une combinaison linéaire des objectifs
et de faire varier les poids pour voir l'impact de chaque objectif sur le résultat final. Cependant, cette
approche ne prend en compte que les solutions qui appartiennent à des zones convexes de l'espace
des objectifs réalisables, et les solutions potentielles situées dans des portions concaves sont
ignorées. En d'autres termes, cette méthode est facile à mettre en œuvre, mais elle ne permet pas
d'explorer toutes les possibilités de manière exhaustive.
Le deuxième problème dans l'optimisation multi-objectif est plus complexe car il existe différents
types d'interactions entre deux critères qui ne peuvent pas être exprimés simplement à l'aide d'une
somme pondérée. Par exemple, il peut y avoir une corrélation positive ou négative entre deux
critères, ce qui signifie que lorsque l'un est satisfait, l'autre l'est également, ou inversement. Il peut
également y avoir une interchangeabilité, où la satisfaction d'un seul critère produit presque le
même effet que la satisfaction des deux critères, ou une complémentarité, où la satisfaction d'un
seul critère a très peu d'effet par rapport à la satisfaction des deux critères. Enfin, il peut y avoir une
dépendance préférentielle, où le décideur préfère certaines combinaisons de critères par rapport à
d'autres.
Cette méthode a été suggérée par [Haimes Y et al, 1986] la méthode consiste à minimiser (ou
maximiser) un objectif particulier tout en s'assurant que les autres objectifs ne dépassent pas une
certaine valeur εj. Cette approche repose sur l'idée que le décideur souhaite donner la priorité à
l'optimisation de cet objectif en particulier. En d'autres termes, la méthode vise à atteindre un
certain niveau de performance pour l'objectif prioritaire tout en limitant les autres objectifs à des
niveaux acceptables. Cela permet de trouver une solution satisfaisante qui répond aux exigences du
décideur en termes d'objectifs à atteindre.
Le processus le plus difficile de cette méthode est de choisir des valeurs appropriées pour epsilon.
Cela nécessite une connaissance approfondie des intervalles de valeurs appropriés pour tous les
objectifs du problème, afin de pouvoir générer un ensemble de solutions Pareto optimales. En
d'autres termes, la sélection des valeurs d’epsilon est cruciale pour obtenir des résultats satisfaisants.
Le choix de ces valeurs doit être fait avec soin pour assurer que toutes les solutions possibles sont
prises en compte dans l'ensemble des solutions Pareto optimales. Cela nécessite une compréhension
claire des exigences et des préférences du décideur pour chacun des objectifs du problème
Les méta-heuristiques sont des algorithmes généraux utilisés pour résoudre des problèmes
d'optimisation difficiles avec un grand espace de recherche ou un problème discret. Les méta-
heuristiques fournissent une approximation du front de Pareto plutôt que le front de Pareto réel et il
y a deux types d'algorithmes de méta-heuristiques : les algorithmes basés sur une solution unique et
les algorithmes basés sur une population. Ci-dessous quelques méta-heuristiques utilisé dans la
littérature.
Plusieurs approches ont été proposées pour utiliser le Recuit Simulé dans des problèmes multi-
objectifs, notamment en utilisant des ensembles de solutions Pareto-optimaux contenant toutes les
solutions non-dominées ou en utilisant des populations de solutions. Les règles d'acceptation doivent
également être modifiées pour prendre en compte les différentes situations qui peuvent se produire
lors de la comparaison de deux solutions. [Ulungu et al, 2003]
L'une des méthodes les plus couramment utilisées est le Pareto Simulated Annealing (PSA), qui utilise
une population de solutions, chacune étant associée à un vecteur poids séparé. La méthode met à
jour les vecteurs de poids des solutions en construction pour assurer la dispersion des solutions sur
toutes les régions du front Pareto. Une autre méthode est MOSA (Multi-Objective Simulated
Annealing), qui utilise plusieurs processus de Recuit Simulé indépendants, chacun commençant par
une solution aléatoire ou construite par une heuristique spécialisée. Les solutions non-dominées
générées par tous les processus de Recuit Simulé forment l'ensemble final des solutions Pareto-
optimaux. [Czyzak et Jaszkiewicz , 2005]
Le principe de base du Recuit Simulé est de trouver une solution optimale en explorant l'espace de
recherche en utilisant des mouvements aléatoires pour éviter de rester bloqué dans des minima
locaux. L'algorithme fonctionne en calculant une fonction de coût pour chaque solution candidate et
en choisissant aléatoirement une nouvelle solution dans une région voisine. La nouvelle solution est
acceptée ou rejetée en fonction de la différence de coût entre la solution courante et la nouvelle
solution, ainsi que d'une probabilité déterminée par une règle d'acceptation. Le processus est répété
jusqu'à ce qu'une solution satisfaisante soit trouvée ou jusqu'à ce qu'un critère d'arrêt soit atteint. En
utilisant des règles d'acceptation multi-objectif et des ensembles de solutions Pareto-optimaux, le
Recuit Simulé peut être étendu pour résoudre efficacement les problèmes multi-objectifs complexes.
[Suppapitnarm et Parks, 2006]
La recherche tabou est un autre algorithme de recherche locale populaire pour la résolution de
problèmes multi objectifs. Cette méthode est basée sur la notion de tabou, qui consiste à empêcher
le retour à des solutions déjà visitées. L'objectif est d'éviter de rester bloqué dans des régions de
l'espace de recherche qui ne conduisent pas à des solutions améliorantes. La recherche tabou est
efficace pour la résolution de problèmes difficiles avec des espaces de recherche complexes et de
multiples optima locaux.
Plusieurs travaux de recherche ont utilisé la recherche tabou pour la résolution de problèmes multi
objectifs. Par exemple, [Gambardella et Dorigo, 1996] ont proposé un algorithme de recherche tabou
pour la résolution de problèmes de tournées de véhicules avec des objectifs multiples. La méthode
utilise une liste tabou pour éviter de revisiter des solutions déjà explorées et une fonction
d'évaluation basée sur la notion de domination de Pareto pour évaluer les solutions. Les résultats
montrent que l'algorithme de recherche tabou est capable de trouver des solutions de haute qualité
pour des instances difficiles de problèmes multi objectifs de tournées de véhicules.
De même, [Tanabe et Fukunaga, 2013] ont proposé un algorithme de recherche tabou pour la
résolution de problèmes d'optimisation multi objectif. L'algorithme utilise une liste tabou pour éviter
de revisiter les solutions précédemment visitées, ainsi qu'une méthode de perturbation pour
explorer différentes régions de l'espace de recherche. Les résultats expérimentaux montrent que
l'algorithme de recherche tabou est capable de trouver des solutions de haute qualité pour des
problèmes multi objectifs complexes.
Il existe plusieurs types d'algorithmes basés sur la population qui sont adaptés aux problèmes
d'optimisation multi-objectifs (POMOs), et la littérature les a classés en différentes catégories selon
leur source d'inspiration. La figure suivante présente les catégories les plus populaires, où les
algorithmes en gris sont considérés comme faisant partie de l'ancienne génération, tandis que les
autres sont classés comme faisant partie de la nouvelle génération.
Fig : méta-heuristiques basées sur la population [Aouadj Wafa, 2021]
Les algorithmes évolutionnaires : Les algorithmes évolutionnaires font partie des premiers
algorithmes inspirés de la biologie, utilisés pour résoudre les problèmes d’optimisation en
général et les problèmes multi-objectif en particulier. Ces algorithmes sont inspirés de
mécanismes d’évolution biologique, qui portent sur le développement des générations
successives contenants un ensemble d’individus appelé population. Parmi ces algorithmes on
peut mentionner l’algorithme génétique elliste NSGAII (Non-dominated Sorting Genetic
Algorithm). On va retourner sur le principe de cet algorithme dans le paragraphe suivant.
Les algorithmes basés sur les essaims : cette catégorie comprend les algorithmes inspirés des
essaims naturels. Différemment à la première catégorie qui ne contient que les algorithmes
de l’ancienne génération, celle-là contient des algorithmes des deux générations. Parmi les
algorithmes de l’ancienne génération : l’optimisation multi-objectif par essaim de particules
(MOPSO : Multi-Objective Particle Swarm Optimization) mettant à jour la position d’un
ensemble de particules représentées par des vecteurs dans l’espace de décision [C. C. Coello
et M. S. Lechuga, 2002]. La nouvelle génération aussi regroupe une variété d’algorithmes tels
que : l’optimisation par fourragement bactérien (MBFO : Multi-objective Bacterial foraging
Optimization) inspirée par le comportement de fourragement chez les bactéries. [B. Niu et al,
2013]
Les algorithmes basés sur la physique : La troisième catégorie d'algorithmes pour les POMOs
est constituée par les algorithmes basés sur la physique, tels que le MO Gravitational Search
Algorithm (MOGSA), qui simule les forces gravitationnelles entre les particules pour
optimiser les solutions. [H. R. Hassanzadeh et M. Rouhani, 2010]
Les algorithmes inspirés de la société humaine : Une catégorie émergente d'algorithmes pour
les POMOs est basée sur la société humaine. Par exemple, l'algorithme d'optimisation par
remue-méninges basé sur la décomposition (MOBSO/D) imite le processus de brainstorming,
qui est un comportement collectif observé chez les êtres humains. [C. Dai et X. Lei, 2019]
Les algorithmes basés sur les plantes : Il existe de nouvelles catégories d'algorithmes
émergents, telles que ceux qui s'inspirent du monde végétal, comme l'algorithme de
pollinisation des fleurs (MOFPA : Multi-Objective Flower Pollination Algorithm) [X. S. Yang et
al, 2013]
6. Conclusion
Coello Coello C. A., Christiansen A. (1999) A Multiobjective Optimization Tool for engineering Design,
Engineering Optimization, volume 31, numéro 3, 337-368.
Ulungu, E. L., Teghem, J., & Fortemps, P. (2003). Multiobjective simulated annealing: A comparative
study. European Journal of Operational Research, 151(2), 307-326.
Czyzak, P., & Jaszkiewicz, A. (2005). Pareto simulated annealing for multiple objective optimization.
Journal of Multi-Criteria Decision Analysis, 13(1-2), 77-87.
Suppapitnarm, A., & Parks, G. T. (2006). A new multi-objective simulated annealing algorithm for
design optimization. Engineering Optimization, 38(6), 655-679.
Gambardella, L. M., & Dorigo, M. (1996). Solving TSPs with ACS: a new ant approach. In Proceedings
of the 1996 IEEE International Conference on Systems, Man and Cybernetics (pp. 309–314). IEEE.
Tanabe, R., & Fukunaga, A. (2013). Success-history based parameter adaptation for differential
evolution. In 2013 IEEE congress on evolutionary computation (CEC) (pp. 71-78). IEEE.