Académique Documents
Professionnel Documents
Culture Documents
par
Yann COOREN
pour obtenir le grade de
DOCTEUR EN SCIENCES
Spcialit :
SCIENCES DE L'INGNIEUR
Option : Optimisation
quipe d'accueil : Laboratoire Images, Signaux et Systmes Intelligents (LiSSi, E.A. 3956) cole Doctorale : cole Doctorale Sciences et Ingnierie : Matriaux - Modlisation - Environnement (SIMME)
Sujet de la thse:
Perfectionnement d'un algorithme adaptatif d'Optimisation par Essaim Particulaire. Applications en gnie mdical et en lectronique
M. Michel GOURGAND M. Laurent GENESTE M. Ioan Cristian TRELEA M. Maurice CLERC M. Patrick SIARRY
Professeur des Universits Professeur des Universits Matre de Confrences HDR Ingnieur consultant Professeur des Universits
Universit de Clermont-Ferrand Laboratoire Ampre, Lyon ENIT, Tarbes INA-Grignon Annecy Universit de Paris 12
Rsum
Les mtaheuristiques sont une famille d'algorithmes stochastiques destins rsoudre des problmes d 'optimisation dicile. Utilises dans de nombreux domaines, ces mthodes prsentent l'avantage d'tre gnralement ecaces, sans pour autant que l'utilisateur ait modier la structure de base de l'algorithme qu'il utilise. Parmi celles-ci, l'Optimisation par Essaim Particulaire (OEP) est une nouvelle classe d'algorithmes propose pour rsoudre les problmes variables continues. Les algorithmes d'OEP s'inspirent du comportement social des animaux voluant en essaim, tels que les oiseaux migrateurs ou les poissons. Les particules d'un mme essaim communiquent de manire directe entre elles tout au long de la recherche pour construire une solution au problme pos, en s'appuyant sur leur exprience collective. Reconnues depuis de nombreuses annes pour leur ecacit, les mtaheuristiques prsentent des dfauts qui rebutent encore certains utilisateurs. Le rglage des paramtres des algorithmes est un de ceux-ci. Il est important, pour chaque problme pos, de trouver le jeu de paramtres qui conduise des performances optimales de l'algorithme. Cependant, cette tche est fastidieuse et coteuse en temps, surtout pour les utilisateurs novices. Pour s'aranchir de ce type de rglage, des recherches ont t menes pour proposer des algorithmes dits adaptatifs. Avec ces algorithmes, les valeurs des paramtres ne sont plus ges, mais sont modies, en fonction des rsultats collects durant le processus de recherche. Dans cette optique-l, Maurice Clerc a propos TRIBES, qui est un algorithme d'OEP mono-objectif sans aucun paramtre de contrle. Cet algorithme fonctionne comme une bote noire, pour laquelle l'utilisateur n'a qu' dnir le problme traiter et le critre d'arrt de l'algorithme. Nous proposons dans cette thse une tude comportementale de TRIBES, qui permet d'en dgager les principales qualits et les principaux dfauts. An de corriger certains de ces dfauts, deux modules ont t ajouts TRIBES. Une phase d'initialisation rgulire est insre, an d'assurer, ds le dpart de l'algorithme, une bonne couverture de l'espace de recherche par les particules. Une nouvelle stratgie de dplacement, base sur une hybridation avec un algorithme estimation de distribution, est aussi dnie, an de maintenir la diversit au sein de l'essaim, tout au long du traitement. Le besoin croissant de mthodes de rsolution de problmes multiobjectifs a conduit les concepteurs adapter leurs mthodes pour rsoudre ce type de problme. La complexit de cette opration provient du fait que les objectifs optimiser sont souvent contradictoires. Nous avons labor une version multiobjectif de TRIBES, dnomme MO-TRIBES. Nos algorithmes ont t enn appliqus la rsolution de problmes de seuillage d'images mdicales et au problme de dimensionnement de composants de circuits analogiques.
Mots-clefs :
Optimisation, optimisation continue, optimisation multiobjectif, mtaheuristiques, optimisation par essaim particulaire, algorithme adaptatif, algorithme estimation de distribution, segmentation d'image, seuillage.
iii
Abstract
Metaheuristics are a new family of stochastic algorithms which aim at solving dicult optimization problems. Used to solve various applicative problems, these methods have the advantage to be generally ecient on a large amount of problems. Among the metaheuristics, Particle Swarm Optimization (PSO) is a new class of algorithms proposed to solve continuous optimization problems. PSO algorithms are inspired from the social behavior of animals living in swarm, such as bird ocks or sh schools. The particles of the swarm use a direct way of communication in order to build a solution to the considered problem, based on their collective experience. Known for their eciency, metaheuristics show the drawback of comprising too many parameters to be tuned. Such a drawback may rebu some users. Indeed, according to the values given to the parameters of the algorithm, its performance uctuates. So, it is important, for each problem, to nd the parameter set which gives the best performance of the algorithm. However, such a problem is complex and time consuming, especially for novice users. To avoid the user to tune the parameters, numerous researches have been done to propose adaptive algorithms. For such algorithms, the values of the parameters are changed according to the results previously found during the optimization process. TRIBES is an adaptive mono-objective parameter-free PSO algorithm, which was proposed by Maurice Clerc. TRIBES acts as a black box, for which the user has only the problem and the stopping criterion to dene. The rst objective of this PhD is to make a global study of the behavior of TRIBES under several conditions, in order to determine the strengths and drawbacks of this adaptive algorithm. In order to improve TRIBES, two new strategies are added. First, a regular initialization process is dened in order to insure an exploration as wide as possible of the search space, since the beginning of the optimization process. A new strategy of displacement, based on an hybridation with an estimation of distribution algorithm, is also introduced to maintain the diversity in the swarm all along the process. The increasing need for multiobjective methods leads the researchers to adapt their methods to the multiobjective case. The diculty of such an operation is that, in most cases, the objectives are conicting. We designed MO-TRIBES, which is a multiobjective version of TRIBES. Finally, our algorithms are applied to thresholding segmentation of medical images and to the design of electronic components.
Keywords :
Optimization, continuous optimization, multiobjective optimization, metaheuristics, particle swarm optimization, adaptive algorithm, estimation of distribution algorithm, image segmentation, thresholding.
5 9
9 9 9 10 11 13 13 15 17 18 20 20 21 22 23 24 25 27 27 28 28 28 28 29 29 30 30 30 31
Algorithme de recuit simul . . . . . . . . . . . . . . . . . . . . . . . Recherche Tabou . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Algorithmes volutionnaires . . . . . . . . . . . . . . . . . . . . . . . Algorithmes de colonies de fourmis . . . . . . . . . . . . . . . . . . . Algorithme estimation de distribution . . . . . . . . . . . . . . . . Optimisation par Essaim Particulaire 1.2.2.6.1 1.2.2.6.2 1.2.2.6.3 1.2.2.6.4 1.2.2.6.5 Connement des particules Graphes d'inuence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . .
1.3
Optimisation multiobjectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 1.3.2 1.3.3 1.3.4 1.3.5 Dnition du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Approche agrgative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Approche Pareto . . . . . . . . . . . . . . . . . . . . . . . .
1.4
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
33 34 34
2.3.1 2.3.2
34 35 36 36 37 38 39 40 40 40 42 42 44 44 50 50 51 51 52 52 54 55 57
Cration de particules . . . . . . . . . . . . . . . . . . . . . . . . . .
Exprimentation numrique et comparaisons . . . . . . . . . . . . . . . . . . . . . . . Procdure de test CEC'05 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Algorithmes utiliss pour la comparaison . . . . . . . . . . . . . . . . . . . . . Rsultats numriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.4.1 2.6.4.2 2.6.4.3 2.6.4.4 2.6.5 Commentaires gnraux . . . . . . . . . . . . . . . . . . . . . . . . . Comparaison avec le
. . . . . . . . . . . . . . .
Conclusion
2.7
Amlioration de TRIBES : initialisation et dplacement des particules 2.7.1 2.7.2 2.7.3 Initialisation rgulire Stratgie de dplacement
2.8
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
73
73 74 74 74 74 75 75
4.2.2.2.2 4.3 4.3.1 4.3.2 4.3.3 4.3.4 4.3.5 4.4 4.4.1 4.4.2 4.4.3 4.4.4 4.5
. . . . . . . . . . . . . . . . . . .
75 76 76 76 77 79 80 80 80 80 83 87 87
Segmentation d'images IRM base sur l'entropie exponentielle 2D . . . . . . . . . . . Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Histogramme 2D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Entropie exponentielle 2D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rsultats exprimentaux et discussion Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Seuillage d'images par approximation d'histogramme . . . . . . . . . . . . . . . . . . Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Approximation de l'histogramme . . . . . . . . . . . . . . . . . . . . . . . . . Rsultats exprimentaux de la mthode de segmentation par approximation de l'histogramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Conclusion et perspectives Annexe A : Principales fonctions de test Annexe B : Rsultats numriques de TRIBES Rfrences bibliographiques
Introduction gnrale
Cette thse part du constat simple que les problmes d'optimisation occupent une place de plus en plus importante dans les processus dcisionnels. Dans de multiples domaines, le besoin toujours croissant d'ecacit et de rentabilit a conduit les dcisionnaires ne plus se er seulement l'exprience des experts, mais aussi aux rsultats numriques obtenus par la rsolution de problmes d'optimisation. Une telle mulation a donn naissance de nouvelles mthodes de rsolution de problmes d 'optimisation dicile. L'tude des phnomnes rels est une source d'inspiration en ingnierie informatique, o l'tude et la modlisation des systmes complexes sont trs prsentes. En recherche oprationnelle, et plus prcisment dans le domaine de l'optimisation, de nombreuses mthodes sont inspires par de telles tudes. Parmi ces domaines d'inspiration, la biologie est particulirement prise par les chercheurs en optimisation. En eet, la modlisation des systmes intelligents rencontrs dans la nature peut servir crer une intelligence articielle, mme de rsoudre des problmes d'optimisation. Parmi toutes les branches de la biologie, l'thologie, tude du comportement des animaux, a rcemment donn lieu plusieurs avances signicatives dans le domaine de la recherche oprationnelle. La modlisation des comportements animaliers, principalement ceux des animaux voluant en essaim, est exploite majoritairement en robotique, en classication ou encore en optimisation. Un systme en essaim est un systme qui doit son intelligence la coopration d'lments qui, individuellement, sont de faible intelligence. La performance du systme entier est suprieure la somme des performances de ses parties. Dans le cadre de l'optimisation, cette approche a donn lieu la naissance de nouvelles mtaheuristiques. Les mtaheuristiques forment une famille d'algorithmes stochastiques destine la rsolution de problmes d 'optimisation dicile. Ces mthodes ont t conues an de rsoudre un panel trs large de problmes, sans pour autant ncessiter de changements profonds dans les structures des algorithmes. Ces mthodes sont inspires par des analogies avec la physique (recuit simul), la gntique (algorithmes volutionnaires) et l'thologie (colonies de fourmis). Parmi les mthodes inspires de l'thologie, la mthode d'Optimisation par Essaim Particulaire (OEP) a t propose en 1995 par Kennedy et Eberhart pour la rsolution de problmes d'optimisation dicile continus. Bncier d'un algorithme d'optimisation dicile variables continues est un avantage tant donn que la plupart des mthodes existantes ont t conues pour traiter les problmes discrets, et que les problmes variables continues sont trs courants en ingnierie. L'OEP prsente, comme la majorit des mtaheuristiques, le dfaut de ncessiter le rglage de plusieurs paramtres de contrle. Les paramtres de contrle permettent de rgler le fonctionnement de l'algorithme en fonction du problme propos. Les performances de l'OEP sont fortement corrles au rglage de ses paramtres. Il est donc indispensable pour un concepteur d'tudier l'inuence de chaque paramtre sur le comportement de l'algorithme. De cette tude dcoulera le choix du jeu de paramtres optimal. Idalement, il serait ncessaire de mener cette tude pour chaque nouveau problme, an d'adapter au mieux le comportement de la mthode au problme pos. Cette stratgie apparat complique mettre en place dans le cadre de l'industrie. En eet, un ingnieur qui doit rsoudre un problme d'optimisation n'a pas le temps de tester de nombreux 5
INTRODUCTION GNRALE
jeux de paramtres avant de dcider pour lequel opter. Le besoin de rsultats tant immdiat, il est important pour l'ingnieur de disposer de mthodes qui donnent des rsultats satisfaisants pour une large gamme de problmes, sans pour autant qu'il soit ncessaire de devoir modier le jeu de paramtres. Ce constat a conduit au dveloppement de mthodes dites adaptatives. Ces mthodes proposent de rduire le nombre de paramtres d'un algorithme, en dnissant des rgles d'adaptation, qui permettent de modier la valeur des paramtres, en fonction des rsultats trouvs au cours du droulement de l'algorithme. L'idal serait de concevoir des algorithmes qui ne ncessitent aucun paramtre de contrle. Dans ce cas, l'utilisateur n'aurait qu' dnir le problme pos et le critre d'arrt de l'algorithme. Cependant, le gain de temps li l'automatisation de la dnition des paramtres ne doit pas tre la cause d'une perte d'ecacit de l'algorithme. La rduction du nombre de paramtres des mthodes d'optimisation est aujourd'hui un enjeu crucial. En eet, les applications sont nombreuses et il existe aujourd'hui beaucoup de mthodes qui se sont rvles ecaces. Cependant, ces mthodes restent toujours diciles rgler de manire optimale, pour un utilisateur non spcialiste. Cette thse a t prpare au sein du
E.A. 3956) de l'Universit de Paris 12 Val de Marne. Ce laboratoire est en partie spcialis dans l'imagerie et le traitement du signal pour le gnie biomdical. Cette thse a t nance par une allocation de recherche du Ministre de la Recherche ainsi que par un poste de moniteur l'Universit de Paris12 Val de Marne. Ce travail a t encadr par le Professeur P. Siarry, directeur du laboratoire et responsable du groupe optimisation, et co-encadr par M. Clerc, spcialiste de la mthode d'OEP et consultant pour le projet XPS (
une quipe transversale au LiSSi spcialise dans l'adaptation des mtaheuristiques aux problmes variables continues, mais aussi dans l'optimisation multiobjectif ou dynamique. Ont particip mon travail de doctorat Amir Nakib, docteur de l'Universit de Paris12 Val de Marne, et Mourad Fakhfakh, Matre de Confrences l'cole Nationale d'Ingnieurs de Sfax, en Tunisie.
Le but de cette thse est l'tude de TRIBES, un algorithme d'Optimisation par Essaim Particulaire sans paramtres propos par M. Clerc. L'objectif premier est d'tudier le comportement de TRIBES sur un large panel de fonctions de test. L'tude des rsultats numriques et du comportement des particules, tout au long du traitement, permet de mettre en vidence les avantages et les dfauts de TRIBES. Le deuxime objectif de cette thse est de proposer des mthodes alternatives, incorporables TRIBES, qui permettent d'en amliorer l'ecacit. Enn, devant la ncessit croissante de disposer de mthodes multiobjectifs, la dernire contribution de cette thse est de proposer une version multiobjectif de TRIBES, dnomme MO-TRIBES. Comme sa version mono-objectif, MO-TRIBES possde la particularit de ne possder aucun paramtre de contrle rgler. Les applications tudies ont port sur l'utilisation de TRIBES pour rsoudre des problmes de traitement d'images et de dimensionnement de circuits lectroniques. Dans le cas de la segmentation d'images mdicales, TRIBES est utilis comme mthode d'optimisation pour maximiser un critre qui permet de dterminer les dirents seuils d'une image multi-classe. Dans le cas de l'application en lectronique, TRIBES est utilis dans sa version multiobjectif, pour dimensionner les transistors d'un amplicateur faible bruit et d'un convoyeur de courant de seconde gnration, an que ceux-ci prsentent des performances optimales.
Ce manuscrit se divise en trois parties. La premire partie est consacre l'tude bibliographique des mthodes d'optimisation. Elle fait l'objet du premier chapitre. La deuxime partie est consacre TRIBES, dans ses versions mono-objectif et multiobjectif. Elle fait l'objet des chapitres 2 et 3. Enn, la dernire partie correspond aux applications de TRIBES des problmes rels. Les applications concernent les chapitres 4 et 5.
INTRODUCTION GNRALE
Dans le chapitre 1, nous prsentons un tat de l'art des mtaheuristiques d'optimisation monoobjectif ou multiobjectif. Une attention toute particulire est accorde la mthode d'Optimisation par Essaim Particulaire, principale mthode utilise au cours de cette thse. Nous abordons aussi l'intrt des mthodes adaptatives. Un tat de l'art des algorithmes d'Optimisation par Essaim Particulaire adaptatifs est propos.
Le chapitre 2 est consacr l'tude de TRIBES dans sa version mono-objectif. Une tude dtaille de TRIBES est ralise sur un large ventail de problmes, an de dgager les avantages et les inconvnients de cet algorithme. Cette tude est base sur les rsultats numriques de TRIBES, mais aussi sur l'analyse du comportement des particules au cours de l'excution de l'algorithme. Une comparaison de TRIBES avec d'autres algorithmes est prsente, an de montrer en quoi TRIBES apparat comme un algorithme prometteur. La comparaison est faite en utilisant la procdure de test dnie lors de la confrence
deux amliorations sont proposes pour amliorer le comportement de TRIBES. La premire amlioration est une nouvelle mthode d'initialisation de TRIBES, qui permet de prserver la diversit de l'essaim, en essayant de couvrir au maximum l'espace de recherche, ds l'initialisation. La seconde amlioration est la dnition d'une nouvelle stratgie pour les particules, qui utilise une hybridation avec un Algorithme Estimation de Distribution.
Le chapitre 3 est consacr la prsentation de MO-TRIBES, qui est la version multiobjectif de TRIBES. Cet algorithme, dvelopp au cours de cette thse, est un algorithme d'optimisation multiobjectif variables continues sans paramtres. Le but est d'adapter les rgles de TRIBES, an de pouvoir traiter des problmes multiobjectifs. Cet algorithme utilise une approche Pareto en incorporant TRIBES la gestion d'une archive externe. Cette archive permet de stocker toutes les solutions non-domines et, ainsi, de fournir, en n de traitement, une approximation du front de Pareto du problme trait. MO-TRIBES a t cr en respectant la contrainte qui imposait de ne devoir introduire aucun paramtre de contrle. Une comparaison de MO-TRIBES avec les algorithmes les plus connus sur des problmes classiques est prsente en n de chapitre.
Dans le chapitre 4, nous prsentons une premire application de TRIBES dans le cas monoobjectif. Le but est de segmenter des images multi-classe dont le nombre de classes est connu a priori. A cet eet, on cherche dterminer automatiquement les seuils des direntes classes. TRIBES est utilis pour optimiser deux types de critres qui permettent de dterminer ces seuils. Le premier critre utilis est l'entropie exponentielle deux dimensions, qui permet de dterminer directement les seuils de direntes classes, l'entropie tant maximale pour les valeurs optimales des seuils. La deuxime approche est l'approximation de l'histogramme de l'image par une somme de gaussiennes. Approcher l'histogramme de l'image par une somme de gaussiennes permet de connatre l'expression analytique approche de l'histogramme, donc de calculer beaucoup plus facilement les seuils des direntes classes.
Le chapitre 5 prsente des applications de TRIBES et MO-TRIBES au dimensionnement de circuits lectroniques. Le but est de trouver les dimensions des transistors qui permettent de faire fonctionner de manire optimale les circuits tudis. En d'autres termes, notre objectif est de dterminer la largeur et la longueur des transistors qui permettent au circuit d'avoir des performances optimales, suivant un critre donn. TRIBES est utilis pour maximiser le gain d'un amplicateur faible bruit. MO-TRIBES est utilis pour minimiser la rsistance d'entre et maximiser la frquence de transition d'un convoyeur de courant de seconde gnration.
INTRODUCTION GNRALE
Enn, la conclusion rcapitule les contributions de cette thse et propose des perspectives aux travaux eectus.
Chapitre 1
Mtaheuristiques d'optimisation : tat de l'art
1.1 Introduction
La rsolution de problmes d'optimisation est devenue un sujet central en recherche oprationnelle, le nombre de problmes d'aide la dcision pouvant tre formaliss sous la forme d'un problme d'optimisation tant en forte croissance. Les problmes d'apprentissage de rseaux de neurones, de planication des tches ou encore d'identication sont, par exemple, des problmes communs d'optimisation. Ce chapitre prsente un tat de l'art des mtaheuristiques d'optimisation aussi bien pour les problmes mono-objectif que pour les problmes multiobjectifs. Un intrt particulier est apport la mthode d'Optimisation par Essaim Particulaire (OEP), qui constitue le sujet principal de ce travail de thse. De plus, nous abordons, dans le cas mono-objectif, la question de l'intrt grandissant des mthodes adaptatives. Un bref aperu des OEPs adaptatives est prsent dans ce chapitre. L'Optimisation par Essaim Particulaire est une nouvelle classe des mtaheuristiques propose en 1995 par Kennedy et Eberhart [Kennedy et al., 1995]. Cet algorithme s'inspire du comportement social des animaux voluant en essaim. Les direntes particules d'un essaim communiquent directement avec leurs voisins et construisent ainsi une solution un problme, en s'appuyant sur leur exprience collective.
et une fonction
f.
nous aborderons les problmes d'optimisation essentiellement sous l'aspect minimisation, maximiser
f .
s = min (f (s) \ s S) s S,
(1.1)
De plus, un problme d'optimisation peut prsenter des contraintes d'galit et/ou d'ingalit sur les solutions candidates tre multiobjectif si plusieurs fonctions objectifs doivent tre 9
10
CHAPITRE 1.
nous n'tudierons que les problmes mono-objectif, le cas multiobjectif tant tudi section 1.3. Il existe de nombreuses mthodes dterministes (ou exactes) qui permettent de rsoudre certains types de problmes d'optimisation en un temps ni. Cependant, ces mthodes ncessitent que la fonction objectif prsente un certain nombre de caractristiques, telles que la convexit, la continuit ou encore la drivabilit. Parmi les mthodes les plus connues, on peut citer les mthodes de programmation linaire [Schrijver, 1998], quadratique [Nocedal et al., 1999] ou dynamique [Bertsekas, 2000], la mthode de Newton [Nocedal et al., 1999], la mthode du simplex [Nelder et al., 1965] ou encore la mthode du gradient [Avriel, 2003]. Certains problmes restent cependant trop complexes rsoudre pour les mthodes dterministes. Certaines caractristiques peuvent tre problmatiques pour ces mthodes. Parmi celles-ci, on peut citer la discontinuit, la non-drivabilit ou encore la prsence de bruit. Dans ce cas, le problme d'optimisation est dit
dicile,
un temps raisonnable. Les problmes d'optimisation dicile se divisent en deux catgories : les problmes variables discrtes et les problmes variables continues. De faon gnrale, un problme d'optimisation variables discrtes, ou combinatoire, consiste trouver, dans un ensemble discret, la meilleure solution ralisable, au sens du problme dni par (1.1). Le problme majeur rside ici dans le fait que le nombre de solutions ralisables est gnralement trs lev, donc il est trs dicile de trouver la meilleure solution dans un temps raisonnable. Le problme du voyageur de commerce [Biggs et al., 1976] est un exemple classique de problme d'optimisation variables discrtes. L'utilisation d'algorithmes d'optimisation stochastiques, tels que les mtaheuristiques, permet de trouver une solution approche, en un temps raisonnable. Les problmes variables continues sont, eux, moins formaliss que les prcdents. En eet, la grande majorit des mtaheuristiques existantes ont t cres pour rsoudre des problmes variables discrtes [Siarry et al., 2006]. Cependant, la ncessit croissante de mthodes pouvant rsoudre ce type de problmes a pouss les chercheurs adapter leurs mthodes au cas continu. Les dicults les plus courantes de ce type de problmes sont les corrlations non identies entre les variables, le caractre bruit des fonctions ou encore des fonctions objectifs qui ne sont accessibles que par dispositif exprimental. Il est noter qu'il existe des problmes variables mixtes, c'est--dire que le problme prsente la fois des variables discrtes et continues.
mta.
Leur capacit optimiser un problme partir d'un nombre minimal d'informations est
contrebalance par le fait qu'elles n'orent aucune garantie quant l'optimalit de la meilleure solution trouve. Seule une approximation de l'optimum global est donne. Cependant, du point de vue de la recherche oprationnelle, ce constat n'est pas forcment un dsavantage, tant donn que l'on prfrera toujours une approximation de l'optimum global trouve rapidement qu'une valeur exacte trouve dans un temps rdhibitoire. Les mtaheuristiques sont des mthodes qui ont, en gnral, un comportement itratif, c'est-dire que le mme schma est reproduit un certain nombre de fois au cours de l'optimisation, et qui sont directes, dans le sens o elles ne font pas appel au calcul du gradient de la fonction. Ces mthodes tirent leur ecacit du fait qu'elles sont moins facilement pigeables dans des optima locaux, car elles acceptent, au cours du traitement, des dgradations de la fonction objectif et la
1.2.
OPTIMISATION MONO-OBJECTIF
11
recherche est souvent mene par une population de points et non un point unique. Comme il a t dit section 1.1, les mtaheuristiques sont majoritairement conues pour rsoudre des problmes variables discrtes, mais font de plus en plus l'objet d'adaptations aux problmes variables continues. De plus, de par leur varit et leur capacit rsoudre des problmes trs divers, les mtaheuristiques sont assez facilement sujettes extensions. Parmi celles-ci, on peut citer :
Les mtaheuristiques pour l'optimisation multiobjectif. La but est ici non pas de trouver un optimum global mais de trouver un ensemble d'optima qui forment une surface de compromis pour les dirents objectifs du problme. Cette partie sera traite section 1.3 ;
Les mtaheuristiques pour l'optimisation multimodale [Goldberg et al., 1987], o l'on ne cherche plus l'optimum global, mais l'ensemble des meilleurs optima locaux ; Les mtaheuristiques pour l'optimisation dynamique [Branke, 2001 ; Ourique et al., 2002 ; Di Caro et al., 1998], o il faut approcher l'optimum chaque pas de temps, car la fonction objectif change de topologie au cours du temps ;
Les mtaheuristiques hybrides [Talbi, 2002], qui combinent direntes mtaheuristiques, an d'en tirer les avantages respectifs ; Les mtaheuristiques parallles [Alba, 2005], pour lesquelles on cherche acclrer le calcul, en distribuant la charge de calcul sur plusieurs calculateurs.
L'utilisateur est, certes, demandeur de mthodes rapides et ecaces, mais il est aussi demandeur de mthodes simples d'utilisation. Un enjeu majeur des mtaheuristiques est donc de faciliter le choix des mthodes et de simplier leur rglages, an de les adapter au mieux aux problmes poss. Le monde des mtaheuristiques est un monde en constante volution. De nombreuses mthodes sont proposes chaque anne pour tenter d'amliorer la rsolution des problmes les plus complexes. Du fait de cette activit permanente, un grand nombre de classes de mtaheuristiques existe actuellement. Les mthodes les plus courantes sont le recuit simul, la recherche tabou, les algorithmes volutionnaires, les algorithmes de colonies et fourmis ou encore l'optimisation par essaim particulaire. La suite de ce chapitre est ddi la prsentation de ces mthodes.
recuit.
Le recuit simul a t dvelopp simultanment par Kirkpatrick et al. [Kirpatrick et al., 1983] et Cerny [Cerny, 1985]. Le recuit simul repose sur l'algorithme de Metropolis [Metropolis et al., 1953 ; Hastings, 1970] dcrit par l'Algorithme 1. Cette procdure permet de sortir des minima locaux avec une probabilit leve si la temprature
tempratures, de conserver les tats les plus probables. L'algorithme de Metropolis permet d'chantillonner la fonction objectif par le biais d'une distribution de Boltzmann de paramtre
de la temprature. De nombreuses lois de dcroissance direntes ont t proposs [Triki et al., 2005]. L'algorithme de recuit simul est rsum par l'Algorithme 2. L'algorithme de recuit simul est devenu rapidement populaire, du fait de sa facilit d'adaptation un grand nombre de problmes et son ecacit. En revanche, cet algorithme prsente l'inconvnient de disposer d'un nombre lev de paramtres (temprature initiale, rgle de dcroissance de la temprature, dure des paliers de temprature, etc.) qui rendent les rglages de l'algorithme assez empiriques. Cependant, il existe des tudes qui s'attachent rgler de manire optimale les para-
12
CHAPITRE 1.
Algorithme 1 Algorithme de Metropolis Initialiser un point de dpart x0 et une temprature T Pour i = 1 n faire Tant que xi n'est pas accept faire Si f (xi ) f (xi1 ) : accepter xi f (xi )f (xi1 ) T Si f (xi ) > f (xi1 ) : accepter xi avec la probabilit e Fin Tant que Fin Pour
Algorithme 2 Algorithme de recuit simul Dterminer une conguration alatoire S Choix des mcanismes de perturbation d'une conguration Initialiser la temprature T Tant que la condition d'arrt n'est pas atteinte faire Tant que l'quilibre n'est pas atteint faire Tirer une nouvelle conguration S ' Appliquer la rgle de Metropolis Si f (S ) < f (S) Fin Si Fin Tant que Dcrotre la temprature Fin Tant que
Smin = S fmin = f (S )
1.2.
OPTIMISATION MONO-OBJECTIF
13
Algorithme 3 Algorithme de Recherche Tabou Dterminer une conguration alatoire s Initialiser une liste tabou vide Tant que le critre d'arrt n'est pas atteint faire Perturbation de s suivant N mouvements non tabous valuation des N voisins Slection du meilleur voisin t Actualisation de la meilleure position connue s Insertion du mouvement t s dans la liste tabou Fin Tant que
mtres de l'algorithme [Siarry, 1994]. L'autre inconvnient majeur de cette mthode est sa lenteur. Pour pallier ce problme, plusieurs mthodes de paralllisation des calculs ont t introduites [Azencott, 1992]. Bien qu'initialement cre pour fonctionner avec des variables discrtes, la mthode du recuit simul possde des versions continues [Siarry, 1994 ; Courat et al., 94].
s=t
s)
mou-
derniers mouvements (s
t)
eectus. L'algorithme
modlise ainsi une forme primaire de mmoire court terme. L'algorithme de recherche tabou peut tre rsum par l'Algorithme 3. Dans sa forme de base, l'algorithme de recherche tabou prsente l'avantage de comporter moins de paramtres que l'algorithme de recuit simul. Cependant, l'algorithme n'tant pas toujours performant, il est souvent appropri de lui ajouter des processus d'intensication et/ou de diversication, qui introduisent de nouveaux paramtres de contrle [Glover et al., 1997].
Les La Les
stratgies d'volution
[Rechenberg, 1965 ; Beyer, 2001] qui ont t conues comme une [Fogel et al., 1966], qui visait faire voluer les structures
d'automates tats nis par des successions de croisements et de mutations ; [Holland, 1973 ; Goldberg, 1989 ; Holland, 1992], qui ont t conus pour rsoudre des problmes d'optimisation variables discrtes.
14
CHAPITRE 1.
Algorithme 4 Algorithme volutionnaire gnrique Initialisation de la population de individus valuation des individus Tant que le critre d'arrt n'est pas atteint faire Slection de individus en vue de la phase de reproduction Croisement des individus slectionns Mutation des individus slectionns valuation des enfants obtenus Slection pour le remplacement Fin Tant que
0 1 0 1 1 1 0 1 0
0 1 1 1 1 0 0 1 0
0 1 0 1 1 0 0
1 0
0 1 1
1 1 1 0 1 0
Les approches volutionnaires s'appuient toutes sur un modle commun prsent par l'Algorithme 4. Les individus soumis l'volution sont des solutions possibles du problme pos. L'ensemble de ces individus constitue une population. Cette population volue durant une succession d'itrations, appeles gnrations. Au cours de chaque gnration, une succession d'oprateurs est applique aux individus de la population pour engendrer une nouvelle population, en vue de la gnration suivante. Chaque oprateur utilise un ou plusieurs individus de la population appel(s) pour engendrer de nouveaux individus, appels
enfants.
parent(s)
nombre d'individus de la population sont remplacs par des enfants crs durant la gnration. Un algorithme volutionnaire dispose donc de trois oprateurs principaux : un oprateur de slection, un oprateur de croisement et un oprateur de mutation. L'oprateur de slection permet de favoriser la propagation des meilleures solutions dans la population, tout en maintenant la diversit gntique de celle-ci. L'oprateur de croisement est mis en oeuvre lors de la phase de cration des enfants. Le but de cet oprateur est d'changer les gnes des dirents parents pour crer les enfants. La Figure 1.1 prsente l'exemple d'un croisement simple pour des individus cods en reprsentation binaire. L'oprateur de mutation consiste tirer alatoirement une composante de l'individu parent et la remplacer par une valeur alatoire. L'oprateur de mutation apporte un caractre alatoire la cration de la descendance, qui permet de maintenir une certaine diversit dans la population. La Figure 1.2 montre un exemple de mutation pour un individu cod en reprsentation binaire. Une liste
1.2.
OPTIMISATION MONO-OBJECTIF
15
1 0 0 1 0 0 1 0 1 0 0 1 0 1 0 1 0 1 0
1 0 0 1 0 0 1 0 0 0 0 1 0 1 0 1 0 1 0
Figure 1.3 Dtermination du plus court chemin par une colonie de fourmis. (a) Situation initiale,
(b) Introduction d'un obstacle, (c) Recherche du chemin optimal, (d) Prdominance du chemin optimal.
complte de toutes les mthodes existantes pour dnir ces oprateurs est disponible dans [Eiben et al., 2003].
stigmergie.
La principale illustration de ce constat est donne par la Figure 1.3. On voit sur cette gure que, si un obstacle est introduit sur le chemin des fourmis, les fourmis vont, aprs une phase de recherche, avoir tendance toutes emprunter le plus court chemin entre le nid et l'obstacle [Goss et al., 1989]. Plus le taux de phromone un endroit donn est important, plus une fourmi va avoir tendance tre attire par cette zone. Les fourmis qui sont arrives le plus rapidement au nid en passant par la source de nourriture sont celles qui ont emprunt la branche la plus courte du trajet. Il en dcoule donc que la quantit de phromones sur ce trajet est plus importante que sur le trajet plus long. De ce fait, le plus court chemin a une probabilit plus grande d'tre emprunt par les fourmis que les autres chemins et sera donc, terme, emprunt par toutes les fourmis.
Le premier algorithme s'inspirant de cette analogie a t propos par Colorni, Dorigo et Maniezzo
16
CHAPITRE 1.
Algorithme 5 Algorithme de colonies de fourmis pour le problme du voyageur de commerce Tant que le critre d'arrt n'est pas atteint faire Pour k=1 m faire Choisir une ville au hasard Pour chaque ville non visite i faire Choisir une ville j , dans la liste Jik des villes restantes selon (1.2) Fin Pour k Dposer une piste ij (t) sur le trajet T k (t) conformment (1.3) Fin Pour vaporer les pistes selon (1.4) Fin Tant que
[Colorni et al., 1992 ; Dorigo et al., 1996]. Le but initial de la mthode tait de rsoudre le problme du voyageur de commerce. L'Algorithme 5 prsente la mthode propose par les auteurs. Si l'on considre un problme de voyageur de commerce construit un trajet de longueur dpend de :
parcourt le graphe et
n = |N |.
une ville
la liste des villes dj visites, qui dnit les mouvements possibles chaque pas, quand la fourmi
i : Jik ; ij =
1 dij , appele
pour diriger les fourmis vers des villes proches et, ainsi, viter de trop longs dplacements ; la quantit de phromone dpose sur l'arte reliant deux villes
piste.
intensit de la
Cette quantit dnit l'attractivit d'une piste et est modie aprs le passage d'une
fourmi. C'est la pseudo-mmoire du systme. La rgle de dplacement est la suivante [Dorigo et al., 2005] :
pk (t) ij
o
si j Jik
(1.2)
si j /
Jik
k ij (t) sur l'ensemble
et
Aprs un tour complet, chaque fourmi dpose une quantit de phromone de son parcours. Cette quantit dpend de la
qualit
k ij
(t) =
Q Lk (t)
0 k
(1.3)
T k (t)
l'itration
t, Lk (t)
est la longueur de
T k (t)
et
est un paramtre x. Enn, il est ncessaire d'introduire un processus d'vaporation des phromones. En eet, pour viter de se faire piger dans des solutions sous-optimales, il est ncessaire qu'une fourmi oublie les mauvaises solutions. La rgle de mise jour est donc :
ij (t + 1) = (1 ) ij (t) + ij (t)
o
(1.4)
ij (t) =
m k k=1 ij
(t)
et
1.2.
OPTIMISATION MONO-OBJECTIF
17
Algorithme 6 Algorithme Estimation de Distribution Engendrer alatoirement M individus pour constituer la population D0 Tant que le critre d'arrt n'est pas atteint faire
i=i+1
se population Di1
Slectionner
individus dans
Di1
se Estimer la distribution de probabilit pl (x) = p x|Di1 chantillonner M individus selon pl (x) pour constituer Di Fin Tant que
Depuis, la dmarche initie par cette analogie a t tendue la rsolution d'autres problmes d'optimisation, discrets et continus [Dorigo et al., 2005 ; Siarry et al., 2006]. Les algorithmes de colonies de fourmis prsentent plusieurs caractristiques intressantes, telles que le paralllisme intrinsque lev, la robustesse (une colonie peut maintenir une recherche ecace mme si certains de ses individus sont dfaillants) ou encore la dcentralisation (les fourmis n'obissent pas une autorit centralise). De ce fait, ces algorithmes semblent tre idalement adapts aux problmes dynamiques, pour lesquels seule une information locale est disponible [Tfaili, 2007].
ont t conus comme une variante des algorithmes volutionnaires [Mlhenbein et al., 1996]. Cependant, ces mthodes n'utilisent ni oprateur de croisement, ni oprateur de mutation. Un modle probabiliste est utilis pour engendrer des solutions candidates, la distribution de probabilit tant estime chaque itration partir des informations apportes par la prcdente gnration. L'estimation de la distribution de probabilit permet d'estimer les relations entre les dirents individus, alors que celles-ci sont exprimes de manire implicite dans le cas des algorithmes volutionnaires.
D0 . Ensuite, l'itration i, on utilise un oprateur de sse lection pour dterminer la population Di1 . L'information apporte par cette population est alors utilise pour estimer la distribution de probabilit pl(x) de l'itration courante. Enn, la nouvelle population Di est cre alatoirement partir de la distribution de probabilit pl(x). Le parallle
avec les algorithmes volutionnaires est ici respect, le couple croisement-mutation tant remplac par l'estimation de la distribution. La phase de diversication est ainsi assure par l'utilisation d'une distribution de probabilit explicite, alors que la phase d'intensication n'est assure que par la prsence d'un oprateur de slection. Cette procdure est rsume par l'Algorithme 6. La principale dicult de cette mthode est le choix et l'estimation de la distribution de probabilit. En eet, il faut choisir au pralable quel modle de distribution va tre utilis par l'algorithme et, chaque itration, estimer les paramtres de cette distribution. De nombreux modles de distributions ont t proposs dans la littrature [Larraaga et al., 2001]. Ces modles peuvent se diviser en trois catgories :
Le principe gnral d'un EDA est similaire un algorithme volutionnaire. On initialise tout
Les modles
sans dpendance
butions indpendantes univariantes pour chaque dimension. Ce cas a le dfaut d'tre le plus souvent inapplicable dans les cas rels, les variables tant la plupart du temps corrles entre elles ;
18
CHAPITRE 1.
de distributions bivariantes ;
statistiques d'ordre suprieur deux. Il est noter que, dans le cas continu, le modle de distribution le plus souvent utilis est la distribution gaussienne. L'utilisation de modles avec dpendances introduit l'utilisation de rseaux probabilistes, les rseaux baysiens ou gaussiens tant le plus souvent utiliss. Le nombre de modles et le nombre d'algorithmes tant relativement levs, il serait trop long de les exposer dans le prsent manuscrit. On prfrera se reporter au livre de rfrence dans le domaine [Larraaga et al., 2001].
physique : la particule tend suivre sa direction courante de dplacement ; composante cognitive : la particule tend se diriger vers le meilleur site par lequel elle sociale
: la particule tend se er l'exprience de ses congnres et, ainsi,
Une composante
se diriger vers le meilleur site dj atteint par ses voisins. Dans le cas d'un problme d'optimisation, la qualit d'un site de l'espace de recherche est dtermine par la valeur de la fonction objectif en ce point. La Figure 1.4 illustre la stratgie de dplacement d'une particule.
D,
la particule
. Cette
= (p , p , . . . , p ) . La meilleure position atteinte par toutes les particules de l'essaim est note pi i1 i2 iD = (g , g , . . . , g ) . Au temps t, le vecteur vitesse est calcul partir de (1.5). g
1 2 D
particule garde en mmoire la meilleure position par laquelle elle est dj passe, que l'on note
1.2.
OPTIMISATION MONO-OBJECTIF
19
vij (t) = wvij (t 1)+c1 r1 (pij (t1)xij (t1))+c2 r2 (gj (t1)xij (t1)), j {1, . . . , D}
o
(1.5)
appeles
coecients d'acclration, r1
et
c2
et
r2
w vij (t 1)
correspond la composante
contrle
l'inuence de la direction de dplacement sur le dplacement futur . Il est noter que, dans certaines applications, le paramtre
w peut tre variable [Siarry et al., 2006]. c1 r1 (pij (t 1) xij (t 1)) correspond la composante cognitive
correspond la composante
du dplacement. du dplacement.
c1 c2
contrle contrle
sociale
w, c1
et
c2
cation et intensication du processus de recherche [Shi et al., 1998 ; Kennedy et al., 2001]. Il est noter que le terme vitesse est ici abusif car les vecteurs
Vi
serait plus appropri de parler de direction de dplacement. Cependant, pour respecter l'analogie avec le monde animalier, les auteurs ont prfr utiliser le terme vitesse. La position au temps
de la particule
L'OEP est un algorithme population. Il commence par une initialisation alatoire de l'essaim dans l'espace de recherche. A chaque itration de l'algorithme, chaque particule est dplace suivant (1.5) et (1.6). Une fois le dplacement des particules eectu, les nouvelles positions sont values. Les
pi
ainsi que
sont alors mis jour. Cette procdure est rsume par l'Algorithme 7.
est le
nombre de particules de l'essaim. Le critre d'arrt peut tre dirent suivant le problme pos. Si l'optimum global est connu a priori, on peut dnir une erreur acceptable
20
CHAPITRE 1.
Algorithme 7 Algorithme d'optimisation par essaim particulaire Initialisation alatoire des positions et des vitesses de chaque particule Pour chaque particule i, = Xi pi Tant que le critre d'arrt n'est pas atteint faire Pour i = 1 N faire Dplacement de la particule l'aide de (1.5) et (1.6) valuation des positions Si f Xi < f () pi Fin Si Si f () < f () pi g Fin Pour Fin Tant que
comme critre d'arrt. Cependant, au regard du problme pos et des exigences de l'utilisateur, d'autres critres d'arrt peuvent tre utiliss.
= pi Xi
= g pi
conduise sortir de l'espace de recherche. Dans ce cas, on peut assister une amplication des rtroactions positives, qui conduit une divergence de systme. Pour s'aranchir de ce problme, on
du systme
[Eberhart et al., 1996]. Une tude sur le comportement de l'OEP suivant les valeurs de
Vmax
est
De plus, une stratgie de connement des particules peut tre introduite. Une telle stratgie permet de ramener une particule sortie de l'espace de recherche l'intrieur de celui-ci. Plusieurs mthodes peuvent tre alors employes :
La particule est laisse l'extrieur de l'espace de recherche, mais on n'value pas sa fonction objectif. Ainsi, elle ne pourra pas attirer les autres particules en dehors de l'espace de recherche ; La particule est stoppe la frontire et les composantes correspondantes de la vitesse sont annules ; La particule rebondit sur la frontire. La particule est stoppe sur la frontire, mais les composantes correspondantes de la vitesse sont multiplies par un coecient dans l'intervalle [-1,0].
tir alatoirement
Cependant, suivant les besoins, de nombreuses autres mthodes peuvent tre utilises.
d'information est donc compltement connect. On est ici en prsence d'une topologie statique d'information, car les liens d'information entre les particules sont dnis une fois pour toutes. De mme, Eberhart et al. [Eberhart et al., 1995] ont dni une version dite locale de l'OEP, qui utilise aussi un graphe d'information statique. Cette version utilise un graphe d'information circulaire. Les particules de l'essaim sont virtuellement disposes en cercle et numrotes squentiellement partir de 1 en parcourant le cercle. La particule n'est donc plus informe par toutes les particules
1.2.
OPTIMISATION MONO-OBJECTIF
21
Figure 1.5 Graphe d'inuence d'un essaim de particules. (a) Graphe compltement connect, (b)
Graphe circulaire. de l'essaim, mais par elle-mme et ses deux voisins. Bien qu'elle converge moins rapidement que la version globale, la version locale de l'OEP donne de meilleurs rsultats, car elle est moins sujette l'attraction par des minima locaux [Kennedy, 1999]. La Figure 1.5 illustre la dirence entre un graphe compltement connect et un graphe circulaire.
De nombreuses autres topologies ont t testes. Parmi celles-ci, on peut retenir celles inspires de modles socio-psychologiques [Bavelas, 1950] ou celles incluant des stratgies petit-monde [Watts et al., 1998]. Des rsultats d'OEP utilisant direntes topologies sont disponibles dans [Kennedy, 1999 ; Clerc, 2006]. L'information importante qui ressort de ces rsultats est qu'aucune topologie n'est meilleure que les autres, dans le sens o il n'y a aucune topologie qui donne de meilleurs rsultats que toutes les autres sur un large panel de problmes. A l'inverse des topologies statiques, il existe aussi des topologies dynamiques. Dans ce cas, les liens d'information entre les particules sont modis chaque pas de temps. Par exemple, dans [Suganthan, 1999], une stratgie globale, favorisant une convergence rapide, est combine une stratgie locale, qui favorise la phase de diversication. L'algorithme dbute avec une topologie circulaire classique (2-voisinage) puis, au fur et mesure du traitement, la taille des voisinages est augmente jusqu' obtenir un graphe compltement connect. L'ide est de combiner les avantages des deux stratgies pour amliorer les rsultats de l'OEP. De mme, d'autres exemples de topologies alatoires sont disponibles dans [Peram et al., 2003 ; Liang et al., 2005 ; Janson et al., 2005 ; Clerc, 2006]. Comme dans le cas des topologies statiques, les rsultats ne permettent pas de dgager une hirarchie claire.
a conduit la recherche de solutions pour viter la divergence de l'algorithme. Dans les paragraphes prcdents, on a vu en quoi l'introduction du paramtre
Vmax
cules. De nombreuses tudes sur la dynamique ont t publies au l du temps [Kennedy, 1998 ; Ozcan et al., 1999 ; Van den Bergh, 2002]. Toutes ces tudes s'attachent tudier dans quelle situation une convergence de l'essaim est assure. Dans [Clerc et al., 2002], il a t dmontr qu'une bonne convergence peut tre assure en rendant dpendants les paramtres d'un paramtre
w, c1
et
Vmax .
22
CHAPITRE 1.
vi,j (t + 1) = (vi,j (t) + 1 r1 (pi,j xi,j (t)) + 2 r2 (gj xi,j (t))) , j {1, . . . , D}
avec :
(1.7)
2 2+ 2 4
, = 1 + 2 , > 4
(1.8)
On remarque que l'OEP avec coecient de constriction est quivalente l'OEP originale avec
w, c1 1
de
et
c2 2 . = 4.1
et
Dans [Clerc et al., 2002], de nombreux tests sont mens pour dterminer les valeurs optimales
et
2 .
1 = 2 ;
multiplicatif
Le systme converge vers un tat d'quilibre ; Plusieurs rgions de l'espace de recherche sont explores, tout en vitant une convergence prmature.
Bien que le systme converge avec certitude vers un tat d'quilibre, il n'est cependant pas certain que l'algorithme converge vers l'optimum global. Il est noter que l'OEP avec facteur de constriction n'est pas le seul algorithme d'OEP garantissant la convergence vers un tat d'quilibre. D'autres exemples peuvent tre trouvs dans [Van den Bergh, 2002; Trelea, 2003; Peer et al., 2003; Zheng et al., 2003]. La dnition du facteur de constriction permet au systme de converger, sans pour autant avoir dnir un paramtre mme bnque de dnir un paramtre
i, Vmaxi
Vmax . Cependant, il a t montr dans [Eberhart et al., 2000], qu'il est quand Vmax . Cette tude amne dnir, pour chaque dimension gal Xmaxi , qui dnit la taille de l'espace de recherche sur la dimension i. Cette version
dation a aussi touch le domaine de l'OEP. L'hybridation consiste combiner les caractristiques de deux mthodes direntes pour tirer les avantages des deux mthodes [Talbi, 2002]. Dans ce paragraphe, on prsentera quelques exemples d'hybridation entre l'OEP et d'autres mthodes. La premire hybridation d'un algorithme d'OEP est rencontre dans [Angeline, 1998]. Dans cet article, Angeline introduit dans l'algorithme d'OEP un processus de slection et un processus de mutation inspirs des algorithmes volutionnaires. Le processus de slection est utilis pour choisir des bonnes particules qui vont subir une mutation et des mauvaises particules qui sont limines. Dans [Miranda et al., 2002], Miranda et al. utilisent aussi une hybridation entre l'OEP et les stratgies volutionnaires. Les paramtres
, 1
et
2 ,
ainsi que
, g
distribution gaussienne. La variance de cette distribution est dtermine l'aide d'un processus de slection. Dans [Robinson et al., 2002], il est dvelopp une hybridation entre l'OEP et les algorithmes gntiques. Il est dmontr dans cet article que l'OEP est favorable dans la phase de diversication alors que les algorithmes gntiques sont plus ecaces dans la phase d'intensication. Dans [Poli et al., 2004], on trouve une hybridation entre l'OEP et la mthode du hill-climbing [Russell et al., 2003]. Les particules n'ont plus ici de mmoire, mais utilisent plutt la physique des masses pour se dplacer dans l'espace de recherche. Des forces telles que la gravit, l'lasticit ou le frottement sont notamment utilises. La gravit apporte la comptence permettant de chercher
1.2.
OPTIMISATION MONO-OBJECTIF
23
les mimina, l'lasticit permet de maintenir la diversit et les frottements permettent d'intensier la recherche dans les zones intressantes de l'espace de recherche. Dans [Shelokar et al., 2004], un algorithme d'OEP est hybrid avec un algorithme de colonies de fourmis. L'OEP est utilise comme mthode de recherche globale alors que l'algorithme de colonies de fourmis est cens amliorer le processus d'intensication, en tant utilis comme une recherche locale. Une hybridation entre un algorithme d'OEP et un procd d'volution direntielle [Price, 1996 ] est prsente dans [Zhang et al., 2003]. Enn, un algorithme d'OEP utilisant des principes des algorithmes estimation de distribution est prsent dans [Iqbal et al., 2006]. Les meilleures particules sont ici utilises pour attirer les autres particules de l'essaim l'aide de l'estimation d'une distribution de probabilit.
breux paramtres de contrle. Si l'on se rfre l'OEP avec facteur de constriction, les paramtres dnir par l'utilisateur sont les suivants :
N,
la taille de l'essaim ;
Le rglage de tous ces paramtres est un processus qui s'avre long et dicile. En eet, chaque paramtre ayant une forte inuence sur le comportement de l'algorithme [Shi et al., 1998 ; Van den Bergh, 2002], il est important de trouver un jeu de paramtres bien adapt au problme pos. De ce fait, chaque problme ncessiterait en thorie une tude qui permettrait de dgager le jeu de paramtres optimal pour le traiter. Or, un tel procd est souvent long raliser et demande une bonne connaissance au pralable du comportement de l'algorithme, ce qui le rend inapplicable dans un contexte industriel. C'est pourquoi un nouvel axe de recherche, qui s'attache rduire le nombre de paramtres libres des mtaheuristiques, s'est dvelopp. Le but est de trouver des rgles qui aranchissent l'utilisateur de dnir les paramtres, en calculant ceux-ci au fur et mesure du traitement, en fonction des rsultats donns par l'algorithme. Ainsi, l'algorithme adapte son comportement au problme pos, au lieu d'avoir un comportement g, dni au pralable par l'utilisateur. Le but ultime serait de concevoir un algorithme qui n'aurait aucun paramtre de contrle ; un tel algorithme agirait comme une bote noire pour laquelle l'utilisateur n'aurait qu' dnir les problmes et le critre d'arrt. videmment, pour tre valable, un tel algorithme se doit de prsenter des rsultats au moins gaux ceux des algorithmes paramtriques. Dans le but de limiter l'intervention de l'utilisateur, des tudes sur le choix des paramtres ont t mises en place au cours des dernires annes. Dans [Shi et al., 1998], Shi et Eberhart proposent une tude qui donne une indication sur les performances de l'OEP en fonction des direntes valeurs de
et de
Vmax .
Dans [Van den Bergh, 2002], Van den Bergh propose une tude exhaustive de
l'inuence des paramtres sur le comportement de trois algorithmes dirents d'OEP. Il y apparat que, suivant que le problme pos soit unimodal ou multimodal, les jeux de paramtres sont dirents. L'enjeu crucial apparat tre le taux de diversit au sein de l'essaim, un problme multimodal ncessitant un essaim avec un taux de diversit beaucoup plus important que dans le cas unimodal. Une topologie de voisinage fortement connecte favorisera ainsi la rsolution des problmes unimodaux, alors qu'un essaim de taille importante aura tendance favoriser la rsolution de problmes multimodaux. Dans [Trelea, 2003], l'OEP est tudie en utilisant les rsultats de base sur les systmes dynamiques. Comme Van den Bergh, Trelea pose la dnition des paramtres comme un problme de compromis diversication-intensication. De nombreuses autres tudes sont disponibles
24
CHAPITRE 1.
dans la littrature. Cependant, bien que donnant une ide aux utilisateurs potentiels de l'inuence des paramtres, ces tudes sont quand mme relativement restrictives. En eet, ces tudes portent souvent sur des intervalles limits de valeurs et ne sont applicables qu' des topologies statiques de voisinages. Il existe aussi des tudes portant sur la dnition des procdures automatiques de choix des paramtres. Birattari et al. [Birattari et al., 2002] proposent une procdure de conguration des mtaheuristiques base sur un algorithme nomm F-RACE, qui appartient la classe des racing algorithms trs utiliss en apprentissage [Maron et al., 1994]. Cet algorithme utilise le test nonparamtrique de Friedman [Friedman, 1937] pour adapter au mieux le jeu de paramtres aux spcicits du problme pos. Hutter et al. [Hutter et al., 2006] proposent d'utiliser des modles hardness pour pouvoir prdire les paramtres d'un algorithme. Adenso-Diaz et Laguna [Adenso-Diaz et al., 2006] proposent eux-aussi une mthode nomme CALIBRA, qui utilise la mthode de Taguchi [Nair, 1992], ainsi qu'un algorithme de recherche locale, pour dterminer les paramtres. Ces procdures, bien qu'ecaces sur certains points, n'ont pour autant pas rencontr un vif succs. La principale raison est qu'elles ne s'appliquent qu' un champ restreint de mthodes et elles ne se sont pas avres robustes sur un large panel de problmes. Enn, la dernire faon de choisir les paramtres d'une mthode est justement de ne pas les choisir. Au lieu de dnir des paramtres avant l'excution de la mthode, on prfre ici modier les valeurs des paramtres au cours du traitement, en fonction des rsultats trouvs au cours des direntes itrations. De nombreuses mtaheuristiques ont t conues dans ce domaine : des algorithmes gntiques [Schnecke et al., 1996; Sawai et al., 1999; Murata et al., 2002], des algorithmes de colonies de fourmis [Chen et al., 2004; Di Caro, 1998b; Frster et al., 2007], des algorithmes de recherche tabou [Battiti, 1996] ou encore des algorithmes de recuit simul [Ingber, 1996]. Dans le domaine de l'OEP, de nombreux algorithmes de ce type existent aussi. Suganthan [Suganthan, 1999] propose de modier la taille des voisinages des particules en fonction du temps. De mme, Shi [Shi et al., 2001] propose de modier le coecient d'inertie
logique oue. L'algorithme propos par Ye et al. [Ye et al., 2002] limine les particules inactives et les remplace par de nouvelles particules, plus mme d'explorer l'espace de recherche. Zhang et al. [Zhang et al., 2003b] proposent de modier la fois la taille de l'essaim, le coecient de constriction et la taille des voisinages, l'aide d'un seuil d' amlioration. Dans [Kennedy, 2003], Kennedy propose de remplacer les quations de dplacement par une distribution gaussienne de moyenne et de variance
+ p pi g 2
qui dnit les valeurs des paramtres partir de l'information apporte par les vecteurs vitesse des particules. En 2003, Clerc [Clerc, 2003] a dvelopp un algorithme adaptatif appel TRIBES. La description de TRIBES fera l'objet du Chapitre 2. Cette liste est non exhaustive, mais dresse un aperu assez complet de tout ce qui peut tre imagin pour adapter un algorithme d'OEP. Ce paragraphe a prsent succinctement l'Optimisation par Essaim Particulaire, ainsi que les principales avances depuis sa cration en 1995. Pour plus de dtails sur la mthode, une revue complte est disponible dans [Banks et al., 2007 ; Banks et al., 2007b].
1.3.
OPTIMISATION MULTIOBJECTIF
25
(1.9)
gi () 0, i = 1, 2, . . . , m x hi () = 0, i = 1, 2, . . . , p x
o
(1.10)
(1.11)
= (x , x , . . . , x ) est une position dans l'espace de recherche, f : RD R, i=1,...,k , sont les x 1 2 i D D fonctions objectifs du problme, gi : R R, i=1,...,m, sont les contraintes d'ingalit du problme D et hi : R R, i=1,...,p, sont les contraintes d'galit du problme.
Dans le cas multiobjectif, le concept d'optimum est dirent que dans le cas mono-objectif. En eet, on n'est plus ici la recherche d'un unique optimum global, mais plutt d'une surface de solutions qui orent un bon compromis entre les dirents objectifs. Pour bien comprendre la notion d'optimalit dans le cas multiobjectif, on introduit les dnitions suivantes, bases sur les travaux de Pareto [Pareto, 1896] :
Dnition 1 : tant donn , Rk , on dit que si xi yi pour i=1,..., k, et que x y x y domine (not ) si et = . x y x y x y x y
La Figure 1.6 illustre un cas de dominance dans le cas de deux fonctions objectif.
Dnition 2
Dnition 3
: On dit qu'un
est
non-domin
dans
s'il
est
Pareto-optimal
s'il est
non-domin dans
F.
La Figure 1.7 montre le cas particulier d'un front de Pareto dans le cas d'un problme bi-objectif.
Le but d'un algorithme d'optimisation multiobjectif est donc de trouver les positions de l'espace de recherche qui correspondent au front de Pareto Pareto.
se divisent en trois familles : les approches agrgatives, les approches non-Pareto et les approches
26
CHAPITRE 1.
1.3.
OPTIMISATION MULTIOBJECTIF
27
f2
f2
Hyper-plan
Hyper-plan Optimiser F z
x
Optimiser F
f1
f1
(a)
(b)
Figure 1.8 Mthode d'agrgation. (a) Front de Pareto convexe, (b) Front de Pareto concave.
1.3.2 Approche agrgative
Cette approche, dite approche nave, consiste transformer un problme multiobjectif en problme mono-objectif pour y appliquer les mthodes dj existantes [Collette et al., 2002]. Pour cela, on ralise une combinaison des
fi
F.
(1.14)
F () = x
o les paramtres dirents critres.
k i=1
ai fi () x
k i=1 ai
ai
= 1.
Cette mthode prsente pour avantage d'tre simple mettre en oeuvre et elle ne fournit qu'une seule solution, ce qui vite l'intervention d'un dcideur. Les principaux problmes sont la dtermination des paramtres
ai
ai
au cours du temps. Par exemple, on peut trouver dans la littrature des mthodes aveugles, qui permettent de modier de faon alatoire les paramtres au cours du temps [Ishibuchi et al., 1998]. La Figure 1.8 (a) illustre le fonctionnement de la mthode d'agrgation dans le cas bi-objectif. L'espace des solutions ralisables est not est concave, les solutions
A.
tangent au front de Pareto. La Figure 1.8 (b) illustre les limites de la mthode. Si le front de Pareto
et
peuvent tre trouves, alors que les autres points ne le seront jamais.
28
CHAPITRE 1.
lexicographique [Talbi, 1999]. L'approche slection parallle a t propose par Schaer dans [Schaer, 1985]. Son algorithme, inspir d'un algorithme volutionnaire et nomm VEGA, slectionne les solutions courantes du front de Pareto suivant chaque objectif, indpendamment des autres (d'o le paralllisme). L'analyse du comportement de cet algorithme a montr qu'il se comportait d'une manire similaire un algorithme utilisant une mthode agrgative. D'autres travaux ont t mens sur ce sujet [Richardson et al., 1989 ; Berro, 2001].
1.3.
OPTIMISATION MULTIOBJECTIF
29
Algorithme 8 Algorithme gnral d'OEP multiobjectif Initialisation alatoire des positions et des vitesses de chaque particule
Tant que le critre d'arrt n'est pas atteint faire Pour i = 1 N faire Dplacement de la particule l'aide de (1.5) et (1.6)
Mutation
Mise jour des leaders sociaux Mise jour des solutions non-domines
limins. Une volution de cet algorithme est disponible dans [Zitzler et al., 2002]. Cette volution a une plus grande complexit, mais prsente de meilleurs rsultats.
30
CHAPITRE 1.
positions de l'essaim sont ajoutes l'archive, ce qui induit une complexit de le nombre d'objectifs,
O kM N 2
est
inconvnient, il est commun de dnir une taille maximale pour l'archive [Coello Coello et al., 2002]. L'introduction de ce paramtre implique aussi la dnition d'une rgle d'inclusion de solutions dans l'archive, dans le cas o celle-ci est pleine. Dans les paragraphes suivants, on dresse une liste non exhaustive des travaux existants en OEP multiobjectif.
d'agrger les objectifs suivant trois mthodes direntes : une agrgation linaire classique, pour laquelle les poids sont xs, une agrgation dynamique, pour laquelle les poids sont modis au cours du traitement et une agrgation dite bang-bang [Jin et al., 2001], pour laquelle les poids sont brutalement modis au cours du temps. Cet algorithme utilise une OEP avec une topologie totalement connecte. De mme, Baumgartner et al. [Baumgartner et al., 2004] utilisent une OEP avec une topologie compltement connecte combine avec une agrgation linaire des objectifs. L'essaim est divis en
sous-essaims utilisant chacun un jeu de poids dirent et possdant chacun leur propre leader. Les
solutions optimales au sens de Pareto sont dtermines l'aide d'une mthode base sur l'utilisation du gradient.
qui optimise un seul objectif la fois, en utilisant un ordre lexicographique. Cette approche utilise une OEP avec une topologie circulaire de voisinage. Cet algorithme n'introduit pas d'archive externe de stockage. Cependant, dans [Hu et al., 2003], une version de cet algorithme avec utilisation d'une archive externe est propose. Parsopoulos et al. [Parsopoulos et al., 2004] ont propos une version parallle de VEPSO (Vector Evaluated Particle Swarm) inspire de VEGA (cf. 1.3.5.2). VEPSO est un algorithme multi-essaim pour lequel chaque sous-essaim traite un des objectifs. Chaque sous-essaim change son information (e.g., son
) g
avec les autres sous-essaims. Les auteurs montrent que cette mthode peut mener
des solutions Pareto optimales. Dans [Chow et al., 2004], un algorithme multi-essaim est aussi propos. Chaque essaim traite individuellement un des objectifs. L'change des informations est eectu entre les sous-essaims voisins par l'intermdiaire de l'change des vecteurs les dirents sous-essaims.
. g
compltement connectes. A l'oppos, une topologie locale de voisinage est utilise pour connecter
dominance de Pareto et qui combine l'OEP avec des techniques issues des algorithmes volutionnaires. Les auteurs utilisent un oprateur de densit sur le voisinage pour promouvoir la diversit Coello Coello et al. [Coello Coello et al., 2002b ; Coello Coello et al., 2004] ont dvelopp un algorithme bas sur l'utilisation d'une archive externe. La mise jour de l'archive est ralise suivant un critre gographique. L'espace de recherche est divis en hyper-cubes auxquels on donne des notes, qui sont fonction du nombre de solutions non-domines situes dans chacun d'eux. Les leaders sont choisis dans les hyper-cubes slectionns l'aide d'un oprateur de slection par roulette bas sur leurs notes. Un oprateur de mutation est aussi utilis. Une approche hybride OEP-algorithme volutionnaire est propose dans [Srinivasan et al., 2003]. Le but ici est d'appliquer les oprateurs des algorithmes volutionnaires an de rendre plus ecaces
1.4.
CONCLUSION
31
les mcanismes de l'OEP. Un oprateur de slection est ici aussi utilis pour assurer la convergence vers des solutions non-domines. Les auteurs n'utilisent pas d'archive externe, la population la dernire itration constituant les solutions nales du problme. Bartz-Beielstein et al. [Bartz-Beielstein et al., 2003] ont introduit une stratgie litiste l'OEP. Dirents oprateurs de slection et d'limination sont tudis pour trouver la combinaison qui produit la meilleure approximation du front de Pareto. Les mthodes d'limination sont bases sur la contribution des particules la diversit de l'essaim. A l'oppos, les oprateurs de slection sont bass sur les valeurs des fonctions objectifs. Dans [Li, 2003], on trouve une adaptation des principaux mcanismes de NSGA-II l'OEP multiobjectif. Les leaders sont slectionns parmi les lments de l'archive. On utilise deux mthodes de slection : une stratgie de niching et une stratgie de densit du voisinage. De mme, dans [Raquel et al., 2005], la distance d'encombrement ( lments de l'archive. De nombreuses autres mthodes sont rfrences dans [Reyes-Sierra et al., 2006].
crowding distance),
critre pour maintenir la diversit dans l'archive. La slection des leaders se fait aussi partir des
1.4 Conclusion
Nous avons prsent dans ce chapitre les problmes d'optimisation dicile, qu'ils soient monoobjectif ou multiobjectif. Une famille de mthodes de rsolution de ces problmes a t prsente : les mtaheuristiques. Les mtaheuristiques sont des mthodes stochastiques qui visent rsoudre un large panel de problmes, sans pour autant que l'utilisateur ait modier leur structure. Ces mthodes sont inspires d'analogies avec des domaines aussi varis que la physique, la gntique ou encore l'thologie. Les mtaheuristiques ont vite rencontr un vif succs grce leur simplicit d'emploi mais aussi leur forte modularit. On a vu tout au long de ce chapitre que, suivant la nature du problme pos (continu/discret, mono-objectif/multiobjectif, etc.), les mtaheuristiques sont facilement adaptables et/ou hybridables en vue d'obtenir les meilleures performances possibles. Un intrt particulier a t port la mthode d'optimisation par essaim particulaire. Cette jeune mthode, inspire des dplacements d'animaux en essaims, a rencontr un vif succs depuis sa cration. Sa relative simplicit et son ecacit en font un des algorithmes les plus utiliss de nos jours. De nombreux axes de recherches ont pour objet de tirer le meilleur parti du paradigme de l'OEP. Parmi ceux-ci, la rduction des paramtres apparat comme un enjeu crucial, en vue de l'introduction massive de l'OEP dans l'industrie. Les chapitres suivants prsentent une mthode d'optimisation particulaire adaptative, qui prsente la particularit de ne comporter aucun paramtre de contrle.
Chapitre 2
tude et perfectionnement de TRIBES, algorithme d'OEP sans paramtre
2.1 Introduction
Comme nous l'avons vu dans le Chapitre 1 de ce manuscrit, la famille des mtaheuristiques regroupe un panel trs vari de mthodes d'optimisation. Sujet privilgi dans le domaine de la recherche oprationnelle, elles arrivent aujourd'hui un tournant important de leur existence. En eet, les direntes mthodes, telles qu'elles ont t initialement dnies, atteignent aujourd'hui leurs limites. De ce fait, de nouveaux axes de recherche sont explors an de dpasser les restrictions imposes par les algorithmes originaux et, ainsi, d'arriver une meilleure prise en main des algorithmes par les utilisateurs novices, mais aussi de meilleures performances. Les mtaheuristiques sont reconnues pour tre des mthodes performantes mais elles ne rencontrent qu'un succs modr dans le monde de l'industrie. Dans un milieu o seule la performance compte, l'aspect stochastique des mtaheuristiques semble encore tre un obstacle dicile franchir pour les dcisionnaires. Il est donc important que les chercheurs de la communaut portent un eort tout particulier sur la facilit de prise en main des algorithmes. Plus les algorithmes seront faciles d'accs pour les utilisateurs novices, plus l'utilisation de ceux-ci pourra se rpandre. Parmi les amliorations possibles, la rduction du nombre de paramtres des algorithmes apparat comme un enjeu majeur. En eet, les mtaheuristiques sont fortement dpendantes de leur jeu de paramtres. De ce fait, le traitement d'un problme passe, au pralable, par la dnition d'un jeu de paramtres optimal. Or, cette tape, dj longue et fastidieuse, ncessite un connaissance assez pousse des mcanismes de l'algorithme utilis. Un industriel ayant un problme d'optimisation rsoudre risque de ne pas prendre le temps de trouver le jeu de paramtres optimal. Il est donc important d'aranchir l'utilisateur de cette tape en proposant des rgles intelligentes qui permettent de dterminer automatiquement les paramtres des algorithmes. De telles rgles ont dj t prsentes dans le cadre de l'optimisation par essaim particulaire (cf. section 1.2.2.6). Dans ce chapitre, on prsente en dtail TRIBES, un algorithme d'optimisation par essaim particulaire sans paramtres de contrle [Clerc, 2003]. Les contributions apportes cet algorithme seront aussi prsentes, ainsi que des rsultats numriques tablis partir de la procdure de test dnie lors de la confrence
34
N et de w, c1 , c2
Vmax . Deux types d'adaptations sont alors dnis : les adaptations structurelles et les adaptations
tribus.
tailles direntes, qui voluent au cours du temps. Le but est d'explorer simultanment plusieurs rgions de l'espace de recherche, gnralement des optima locaux, avant de prendre une dcision globale. Dans le but de prendre un telle dcision, les tribus changent leurs rsultats tout au long du traitement. Un tel type de structure est comparable aux structures multi-essaims utilises dans d'autres algorithmes [Parsopoulos et al., 2004 ; Niu et al., 2005]. Deux types de communications sont donc dnir : la communication intra-tribu et la communication inter-tribu. Chaque tribu est compose d'un nombre variable de particules. Les relations entre les particules l'intrieur d'une tribu sont dnies par une topologie compltement connecte. Chaque particule connait la meilleure et la plus mauvaise position jamais atteintes par la tribu, c'est--dire que chaque particule connait les positions pour lesquelles la tribu a trouv la plus petite et la plus grande valeur
2.3.
ADAPTATIONS STRUCTURELLES
35
Figure 2.1 Rseau d'information. Chaque tribu est un graphe compltement connect (communication intra-tribu). Les tribus sont relies par l'intermdiaire de leurs chamans (communication inter-tribu).
communication intra-tribu.
Au fur et mesure du traitement, chaque tribu va converger vers un optimum local. Il est donc ncessaire que celles-ci communiquent entre elles pour dnir lequel de ces optima est retenir par l'utilisateur. La communication entre les tribus est tablie par l'intermdiaire des meilleures particules de chaque tribu. Ce type de communication est appel
communication inter-tribu.
), p
En rsum, chaque particule est informe par elle-mme (mmoire cognitive lments de sa tribu (appels (appels
informateurs internes ),
chaman
la meilleure particule d'une tribu), alors elle est aussi informe par les chamans des autres tribus
informateurs
La mmoire sociale
ex
de la particule.
objectif est la plus petite. La Figure 2.1 illustre la topologie du graphe d'information de l'essaim. Les ches symbolisent la communication inter-tribu alors que les traits matrialisent la communication intra-tribu. Les particules noires sont les chamans de chaque tribu. On verra dans la suite que cette structure est modie automatiquement par l'intermdiaire de crations et de destructions de particules.
bonne
si elle
a amlior sa meilleure performance au cours de la dernire itration. Dans le cas contraire, elle est
neutre. Cet indicateur est purement qualitatif, car il est bas sur l'volution de la performance non sur la performance elle-mme. En plus de cet indicateur, la meilleure et la plus mauvaise
Une tribu est aussi dite
bonne ou mauvaise suivant le nombre de bonnes particules prsentes en mauvaise si aucune de ses particules n'a amlior sa meilleure performance au cours de la dernire itration. Les tribus qui possdent au moins une bonne particule sont dclares bonnes avec une probabilit de 0.5, mauvaises sinon.
36
Figure
redistribus vers
T2
et
T3.
La tribu
T1
L'utilisation de ces indicateurs permet de dnir les rgles de cration et de destruction de particules.
plus mauvaises
particules des
bonnes
Il est ici considr que de telles particules n'apportent plus d'informations pertinentes la tribu, et donc l'essaim, au regard des performances de ses congnres. Dans le cas d'une tribu compose d'une seule particule, la destruction est ralise seulement si l'un des informateurs externes a une meilleure performance que la particule considre. Cela nous assure de ne retenir que les particules qui apportent de bonnes informations. Sur la Figure 2.2, la tribu
bonne. La particule P, qui est obligatoirement la plus mauvaise de la tribu, est meilleure. Cependant, P ne sera dtruite que si son informateur externe Mp possde une meilleure performance. L'hypothse est que l'information apporte par P est de moins bonne qualit que celle apporte par Mp .
est dclare dtruite, mme si elle en est aussi la La destruction de particules implique un changement dans le graphe d'information de l'essaim. Toutes les particules informatrices d'une particule supprime sont rediriges vers la redirigs vers le meilleur informateur de la particule supprime.
T1
meilleure
par-
ticule de sa tribu. Dans le cas particulier d'une tribu de taille 1, tous les liens d'informations sont
mauvaise
tribu gnre des particules. Le nombre de particules gnres par chaque mauvaise
tribu est dni par l'quation (2.1). Cette quation est inspire d'une formule identique prouve pour l'OEP binaire [Clerc, 2005]. Toutes les particules gnres par les direntes forment une nouvelle tribu.
mauvaises
tribus
N Bparticules = max 2,
o
(2.1)
2.3.
ADAPTATIONS STRUCTURELLES
37
Les
mauvaises
apporte par cette tribu pour amliorer leurs performances. En pratique, le chaman de la nouvelle tribu est un informateur externe des chamans des mauvaises tribus. Deux types de particules sont gnrs, le type de particule tant slectionn alatoirement :
Ces particules sont gnres alatoirement l'aide d'une distribution uniforme soit dans tout l'espace de recherche, soit sur une frontire de celui-ci, ou sur un sommet. Les particules sont gnres en utilisant (2.2). Le but est d'apporter de la diversit la population.
Dans tout l espace de recherche : Xj = U (xminj , xmaxj ), j {1, . . . , D} U (xminj , xmaxj ) j I {1, . . . , D} Sur une f rontire : Xj = U ({xminj , xmaxj }) j J {1, . . . , D} Sur un sommet : Xj = U ({xminj , xmaxj }) , j {1, . . . , D}
o
(2.2)
U (xminj , xmaxj ) est un rel uniformment choisi dans [xminj , xmaxj ] et U ({xminj , xmaxj }) {xminj , xmaxj }. I et J sont deux sous-espaces qui forment une partition de {1, . . . , D}. Ces deux espaces sont dnis alatoirement pour chaque parest un rel uniformment choisi dans la liste ticule gnre.
Si
p ix
et de rayon
p px ix
et de
ix .
ix
et px pix D-sphre
p X generated = aleasphere (x , x ) pi pi x
o et
(2.3)
pix
NL
dernire adaptation, la prochaine adaptation sera eectue N L/2 itrations plus tard.
NL
est estim
tribeN b
NL =
n=1
(2.4)
38
Pour i=1 tribeNb faire Si tribe[i].status =bad Gnrer N Bparticules = M ax Fin Si Si tribe[i].status =good
Supprimer
test =1
2,
9.5+0.124.(D1) tribeN b
particules
Si tribe[i].size = 1 sinon
Rediriger
la
plus mauvaise
particule de tribe[i]
Agrger les particules gnres la nouvelle tribu Etablir un lien entre les dirents chamans Fin Si Calculer NL
o
tribeNb = tribeNb+1
tribeN b
explorerN b[n]
n.
Le
premier terme du membre de droite de l'quation (2.4) suppose que les particules d'une tribu sont compltement connectes. Donc, pour la tribu la communication intra-tribu est gal
explorerN b[n]2 .
n,
le nombre de liens d'information correspondant Le second terme suppose quant lui que
tous les chamans sont relis entre eux. Chaque chaman est reli tous les autres, donc il possde
tribeN b 1
2.4.
ADAPTATIONS COMPORTEMENTALES
39
Pass
Stratgie de dplacement
pivot bruit pivot
(= +) (+ +) (+ =) (- +) (- -) (= -) (+ -) (- =) (= =)
procd est rpt. On continue selon ce schma durant toute l'excution. La taille de l'essaim augmente jusqu' ce que l'essaim trouve des zones prometteuses de l'espace de recherche. Plus la taille de l'essaim devient grande, plus le temps sparant deux adaptations va tre long. La capacit d'exploration est amliore et il va tre plus facile pour les particules de trouver de bonnes solutions. Une fois que des zones intressantes de l'espace de recherche sont trouves, les plus mauvaises particules vont tre progressivement supprimes.
Pivot :
Cette mthode est inspire des travaux publis dans [Serra et al., 1997]. On note position jamais atteinte par la particule, mouvement est dtermin par :
sa meilleure informatrice et
la meilleure
la fonction objectif. Le
(2.5)
c1 =
f ( ) p )+f ( ) , f( p g
c2 =
f ( ) g )+f ( ) , f( p g
aleasphere (Hp )
40
sphre de centre
l'hyper-sphre de centre
et de
Pivot bruit :
(2.6)
(2.7)
X = (1 + b) X
Si
(2.8)
Locale par gaussiennes indpendantes : est la meilleure informatrice de la particule, le mouvement est dtermin comme suit :
(2.9)
Il est important de noter que, contrairement l'OEP originale, le concept de vitesse n'apparat pas dans TRIBES. Il est prcis dans [Kennedy, 2003] que la suppression de ce concept n'est pas un obstacle l'OEP. La seule dirence notable est que la distribution de probabilit de la prochaine position est modie, elle est
D -sphrique
D -paralllpipdique
dans
le cas de l'OEP classique [Clerc, 2006]. Ceci implique que, dans TRIBES, le dplacement n'est pas dpendant du systme de coordonnes. La philosophie globale de l'algorithme est toutefois respecte, le vecteur vitesse pouvant tre modlis par
X (t + 1) X (t).
2.5 Algorithme
L'algorithme de TRIBES est donn par l'Algorithme 10. la particule
i, pi
gi
i. n
(CEC'05) [Suganthan et
al., 2005]. Le but de cette procdure est d'uniformiser les tests eectus sur les mtaheuristiques et, ainsi, de faciliter les comparaisons entre celles-ci. En eet, dans les dirents articles sur le sujet, les algorithmes ne sont jamais valus de la mme faon, donc il est souvent dicile de comparer
2.6.
41
==X p0 g0 0
Evaluer la fonction objectif Tant que le critre d'arrt n'est pas atteint, faire Dterminer le statut de chaque particule Choisir la stratgie de dplacement Dplacement des particules Evaluer la fonction objectif Mise jour des et des pi gi Si n<NL Dterminer la qualit des tribus Adaptations structurelles Calculer NL Fin Si Fin Tant que
deux algorithmes sans avoir les coder. Possder une procdure de test commune permet donc de faciliter les comparaisons entre les direntes mthodes. Lors de la confrence CEC'05 a t dni un ensemble de 25 fonctions de test. Ces fonctions ont t choisies ou cres an d'viter certaines topologies de l'espace de recherche [Liang et al., 2005b]. En eet, il a t montr que certaines particularits topologiques des fonctions objectifs peuvent favoriser certains algorithmes. Par exemple, il existe des algorithmes qui ont la capacit de converger plus rapidement si l'optimum global est situ l'origine
[0, 0, . . . , 0]
de l'espace de
recherche ou au centre de celui-ci [Zhong et al., 2004]. Pour viter cela, les fonctions dnies lors de CEC'05 sont translates par rapport leur forme d'origine et/ou tournes. Certaines fonctions prsentent aussi la particularit d'avoir leur optimum global situ sur une des frontires de l'espace de recherche. Deux types de tests sont dnis : un qui tudie la valeur de l'erreur aprs un nombre x d'valuations de la fonction objectif et un qui tudie le nombre d'valuations de la fonction objectif ncessaires pour obtenir une prcision donne. Le premier test consiste excuter le mme algorithme 25 fois sur chacun des problmes. Un critre d'arrt unique est utilis : l'algorithme est stopp si le nombre d'valuations de la fonction objectif dpasse
M axF es = 10000 D, o D
5 et
M axF es valuations
de la fonction objectif. Les rsultats sur les 25 excutions sont alors classs, la moyenne et la variance de l'erreur sont calcules. Ces rsultats sont utiliss pour construire le graphe de convergence de l'algorithme. Le graphe de convergence trace la valeur mdiane de l'erreur sur les 25 excutions en fonction du nombre d'valuations de la fonction objectif. Une chelle semi-logarithmique est utilise. Le deuxime test consiste dterminer le nombre d'valuations ncessaires pour obtenir une prcision donne. L'algorithme est stopp si l'erreur entre la meilleure particule de l'essaim et l'objectif est infrieure une prcision donne ou si le nombre d'valuations de la fonction objectif est suprieur
M axF es . Les rsultats sont enregistrs pour chaque excution et classs. On dnit aussi
T aux de succes =
(2.10)
42
Table 2.2 Prcisions utilises comme critre d'arrt pour le test n2.
Fonction Prcision
1 1e-6
2 1e-6
3 1e-6
4 1e-6
5 1e-6
6 1e-2
7 1e-2
8 1e-2
9 1e-2
10 1e-2
11 1e-2
(2.11)
F esmean
est le nombre moyen d'valuations de la fonction objectif pour les excutions russies.
de constriction qui utilise une topologie de voisinage alatoire. La taille de l'essaim est dnie par
N = 10 + 2 D w=
1 2. ln(2) et
[PSC, 2006]. Les quations de dplacement sont identiques (1.5) et (1.6), avec
c1 = c2 =
1 2
+ ln (2).
le code source donn l'adresse [PSC,2006] est utilis. La Table B.1 prsente la valeur absolue de l'erreur en dimension 10 pour les fonctions unimodales, la Table B.2 prsente la valeur absolue de l'erreur en dimension 10 pour les fonctions multimodales simples et, la Table B.3 prsente la valeur absolue de l'erreur en dimension 10 pour les fonctions tendues et composes.
2.6.
43
Algorithme gntique variables continues hybride avec direnciation Mle/Femelle Algorithme mimtique variables continues Optimisation variables continues utilisant une mutation co-volutive Optimisation variables continues avec volution direntielle Optimisation par essaim particulaire multi-essaim dynamique avec recherche locale Algorithme estimation de distribution variables continues Algorithme CMA avec stratgie de redmarrage et taille de population variable Procdure steady-state pour l'optimisation variables continues Algorithme CMA avec recherche locale Algorithme d'volution direntielle adaptative Algorithme gntique variables continues avec procdure
steady-state Standard PSO 2006
BLX-GL50 BLX-MA CoEVO DE DMS-L-PSO EDA G-CMA-ES K-PCX L-CMA-ES L-SaDE SPC-PNX SPSO
[Garca-Martnez et al., 2005] [Molina et al., 2005] [Posik, 2005] [Rnkknen et al., 2005] [Liang et al., 2005c] [Yuan et al., 2005] [Auger et al., 2005] [Sinha et al., 2005] [Auger et al., 2005b] [Qin et al., 2005] [Ballester et al., 2005] [PSC, 2006]
44
des sommes pondres, biaises et tournes des fonctions F1 F14 [Suganthan et al., 2005]. Les Tables B.4, B.5 et B.6 orent une comparaison statistique entre les rsultats de TRIBES donns dans les Tables B.1 et B.2, et les rsultats des algorithmes de la Table 2.3. Ces statistiques sont tablies pour les fonctions F1 F11. L'hypothse du test est : Les rsultats donns par TRIBES sont meilleurs que ceux donns par l'algorithme X. Nous supposons ici que, pour un nombre d'valuations de la fonction objectif donn, les rsultats de TRIBES suivent une distribution gaussienne tronque (borne gauche par zro)
N1 (1 , 1 )
N2 (2 , 2 ). Les rsultats exprimentaux nous donnent m1 , s1 , m2 et s2 , qui sont des approximations de 1 , 1 , 2 et 2 . La probabilit que l'hypothse soit vraie, i.e. la probabilit que 1 < 2 , est donne par:
tion gaussienne tronque (borne gauche par zro)
p(m1 < m2 ) =
0
o
(2.12)
N2c (u)
N2
u.
La Table B.7 prsente les rsultats de TRIBES pour le test n2. La Table B.8 prsente une comparaison entre TRIBES et les algorithmes de la Table 2.3 sur les fonctions unimodales en dimension 10 pour le test n2. La premire ligne donne le meilleur
Performance
Taux de Performance
Taux de
entre parenthses donnent les nombres d'excutions ayant abouti un succs. La Table B.9 est structure comme la Table 2.11, mais les rsultats pour les fonctions multimodales sont cette fois-ci prsents. Les Tables B.10 et B.11 donnent les rsultats de TRIBES en dimension 30, pour les fonctions unimodales et multimodales, respectivement. Les Tables B.12 et B.13 donnent les rsultats de TRIBES en dimension 50 pour les fonctions unimodales et multimodales, respectivement. Les Tables B.14 et B.15 comparent les rsultats moyens obtenus par TRIBES et les algorithmes de la Table 2.3 en dimensions 30 et 50.
2.6.4 Discussion
Les Tables B.1 B.15 et les Figures 2.3 2.11 illustrent le comportement de TRIBES.
2.6.
45
46
Figure 2.6 Vecteur position de la meilleure particule de l'essaim pour la fonction Rosenbrock (F6)
en dimension 10.
2.6.
47
Figure 2.7 Vecteur position de la meilleure particule de l'essaim pour la fonction Griewank (F7)
en dimension 10.
Figure 2.8 Vecteur position de la meilleure particule de l'essaim pour la fonction Rastrigin (F9)
en dimension 10.
48
de la particule chaque instant. L'observation des vecteurs vitesse la n de l'excution nous montre que la particule a tendance emprunter une trajectoire circulaire autour de l'optimum local dans lequel elle est pige. Ce type d'inconvnient est inhrent au paradigme de l'OEP. Le dplacement d'une particule est inuenc par sa mmoire cognitive positions
et
. g
ou
. g
particules vont tre attires dans celle-ci. Les particules sont alors piges, tournent autour de cette valle et n'arrivent plus amliorer leur performance. Dans TRIBES, l'ajout de particule est cens contrer cet inconvnient. La Figure 2.10 montre l'volution de la performance de chaque particule en fonction du nombre d'itrations, pour le problme Rastrigin 10D (F9). Sur cette gure, on peut observer la frquence des adaptations structurelles au cours du temps. A la n de l'excution, l'essaim est compos de 64 particules rparties en 8 tribus. La convergence rapide des particules est ici facilement observable. Il apparat aussi que, dans ce cas l, l'ajout de nouvelles particules n'apporte aucune aide l'essaim pour trouver des rgions prometteuses de l'espace de recherche. Les meilleures performances de chaque tribu sont quasi-similaires, situes ici dans l'intervalle [2.26, 2.56]. La Figure 11 montre l'histogramme des distances entre toutes les positions atteintes par les particules de l'essaim pour la fonction Rastrigin 10D (F9). L'histogramme est compos de quatre pics assez troits. Cela signie que, la n de l'excution,
2.6.
49
Figure
Figure 2.11 Histogramme des distances entre particules pour la fonction Rastrigin 10D (F9).
50
l'essaim a explor quatre rgions direntes de l'espace de recherche. Le fait que les pics soient trs troits implique que les particules sont concentres autour d'optima locaux et qu'elles n'arrivent pas s'chapper de leurs valles. Les donnes numriques des Tables B.1, B.2 et B.3 conrment ce qui a t dit prcdemment. TRIBES est performant pour les problmes Sphere (F1) ou Schwefel (F2) (mme dans le cas bruit
Schwefel noise
(F4), o les optima locaux sont peu profonds). Cependant, pour les problmes plus
complexes, TRIBES donne de moins bons rsultats. On constate que, entre FEs=10 des particules dans les valles d'optima locaux.
4 et FEs=105 , les
performances de l'algorithme n'voluent que trs peu, ce qui conrme l'hypothse d'une stagnation
a une
probabilit suprieure 50% d'tre meilleure que TRIBES dans seulement 9 cas sur 33. Les Tables
Standard PSO 2006. Cependant, pour les problmes aboutissant des succs, Taux de Performance du Standard PSO 2006 sont souvent meilleurs que ceux de TRIBES. Ceci peut tre expliqu par le fait que, en dimension 10, le Standard PSO 2006 commence le traitement
suprieurs ceux du les avec un essaim de taille 16 alors que TRIBES ne commence qu'avec une seule particule. Il est donc beaucoup plus simple au
B.8 et B.9 montrent que, pour atteindre une prcision donne, TRIBES prsente des
Taux de succs
d'atteindre une prcision donne rapidement qu' mme si la convergence est souvent moins
TRIBES. En conclusion, on peut dire que TRIBES prsente des performances au moins quivalentes et souvent meilleures que celles du rapide.
Ackley bounds
pour ce problme et prsentent des rsultats similaires. Les Tables B.4 B.6 conrment nos prcdentes remarques sur la convergence prmature. Pour FEs=10 , TRIBES prsente des rsultats qui sont bien meilleurs que ceux des autres algorithmes avec une forte probabilit. La plupart d'entre elles sont suprieures 90%. Il en est dduit que TRIBES peut trouver trs rapidement des zones prometteuses de l'espace de recherche. Pour FEs=10 , aucune tendance claire ne se dgage, mais on voit que TRIBES n'est plus aussi dominateur vis--vis des autres algorithmes. En revanche, pour FEs=10 , les rsultats sont trs dfavorables TRIBES. On en dduit que des rgions prometteuses sont eectivement trouves, mais que l'algorithme n'a pas la capacit de s'extraire des valles des optima locaux trop profondes. Les Tables B.7 B.9 nous informent sur le nombre d'valuations de la fonction objectif ncessaires TRIBES pour atteindre une prcision donne. Les problmes unimodaux sont trs bien rsolus, avec un (2
Taux de succs
Taux de performance
certes, jamais l'algorithme le plus rapide, mais qu'il occupe toujours une bonne place dans celle-ci
me ,
seule particule, TRIBES possde une convergence assez rapide dans le cas des fonctions unimodales. En revanche, l'algorithme est dcient pour les problmes multimodaux. Le
Taux de succs
est de
1%, ce qui fait de TRIBES l'un des plus mauvais algorithmes. Seul CoEvo prsente de plus mauvais rsultats. Seules les fonctions F6 et F7 sont rsolues et encore seulement une fois sur les 25 excutions. Les fonctions F6 F11 possdant de nombreux optima locaux, souvent profonds, il est dicile pour TRIBES d'obtenir de bons rsultats sur ces problmes, eu gard ce qui a t dit prcdemment.
2.6.
51
M axF es = 10000 D
En dimension 10, TRIBES donne de trs bons rsultats pour les problmes unimodaux (F1 F5). Plus la dimension augmente, plus les rsultats se dgradent, mme si
M axF es
augmente. Les
performances ne sont constantes que pour le problme Sphere (F1), qui est le plus simple de tous. De trs bons rsultats sont aussi trouvs pour le problme Schwefel (F2). Pour les problmes F3 F5, les performances de TRIBES se dgradent fortement avec l'augmentation de la dimension. Ces problmes sont rsolus avec une prcision aux alentours de 10
3 chute 10
pour les dimensions suprieures. Pour le problme F3, la dicult vient du fait que la
fonction a un ventail de valeurs possibles trs large, qui augmente fortement avec la dimension. Pour la fonction F4, la dicult provient du bruit additif. En eet, accrotre la dimension implique une augmentation du rapport signal bruit, donc une augmentation de la complexit du problme. Pour le problme F5, l'optimum global est situ sur une frontire de l'espace de recherche. Il est donc beaucoup plus dicile, pour l'algorithme, de le localiser, si la dimension de l'espace de recherche augmente. Dans le cas des problmes multimodaux, les conclusions sont similaires. Dans la majorit des cas, les performances se dgradent avec l'augmentation de la dimension, mais dans des proportions moindres que dans le cas unimodal. La fonction F8 est singulire dans le sens o, quelle que soit la dimension, TRIBES prsente toujours les mmes rsultats. Ceci est d la topologie de la fonction. Quelle que soit la dimension, les valeurs de la fonction prsentent des uctuations autour de -120 dans tout l'espace de recherche et un pic trs n qui tombe -140 [Suganthan et al., 2005]. L'erreur, quasi-constante avec l'augmentation de la dimension, provient donc du fait qu'aucune particule ne tombe jamais dans ce pic. Le problme F7 est aussi singulier, dans le sens o TRIBES est de plus en plus ecace mesure que la dimension augmente. On peut penser que des performances identiques pourraient tre obtenues en dimension 10 avec une lgre augmentation de
M axF es .
Les Tables B.14 et B.15 montrent une comparaison des erreurs moyennes pour les fonctions F1 F12. Vis--vis des autres algorithmes, le comportement de TRIBES ne change pas avec l'augmentation de la dimension. TRIBES possde gnralement des performances qui le situent en milieu de hirarchie. Le taux de dtrioration de la performance avec l'augmentation de la dimension est similaire pour TRIBES et pour les autres algorithmes. Ceci implique que la dtrioration des performances de TRIBES est plus due l'augmentation de la dicult des problmes qu' un dysfonctionnement de TRIBES en haute dimension. Except pour le problme F6, TRIBES reste comparable au en matire de performances.
PSO 2006
Standard
2.6.5 Conclusion
TRIBES est un algorithme novateur dans le domaine des mtaheuristiques adaptatives, car c'est un algorithme qui n'a aucun paramtre de contrle rgler. Aucune intervention humaine n'est sollicite ; seul le problme rsoudre est spcier. Ceci est permis par l'utilisation de rgles d'adaptation susamment robustes. Compar un algorithme d'OEP classique, TRIBES donne des rsultats comptitifs, que ce soit sur des problmes unimodaux ou multimodaux, et quelle que soit la dimension. En revanche, compar d'autres algorithmes, TRIBES donne des rsultats assez faibles sur les problmes multimodaux. L'algorithme trouve trs rapidement des zones intressantes de l'espace de recherche. Dans le cas o ces zones seraient en fait des optima locaux, le problme est que TRIBES n'arrive pas extraire les particules de l'essaim de ceux-ci.
52
inconvnient, mais il peut se transformer en avantage, dans le cas de l'optimisation dynamique, ou pour les fonctions objectif trs longues valuer (souvent issues d'un processus exprimental). Ce travail a fait l'objet de la soumission d'un article la revue al., 2008].
Swarm Intelligence
[Cooren et
que de la position initiale de la particule et l'autre qui est indpendant de la position initiale de la particule. La trajectoire d'une particule est donc linairement dpendante de sa position initiale et de sa vitesse initiale. De ce fait, il apparat comme primordial de bien initialiser les particules de l'essaim, an d'obtenir de meilleurs rsultats. L'idal serait d'initialiser les particules an que l'espace de recherche soit explor de la meilleure des manires, i.e. que toutes les rgions de celui-ci soient visites au moins une fois par une des particules de l'essaim. Dans la grande majorit des cas, les particules sont initialises alatoirement dans l'espace de recherche. Cependant, une telle initialisation peut entraner un manque de diversit dans l'essaim ds le premier pas de temps, ce qui favorise une convergence prmature vers un optimum local. La Figure 2.12 montre l'exemple d'une initialisation alatoire de sept particules dans un espace de recherche 2D. On peut observer que les particules sont concentres dans la partie suprieure gauche et sur la frontire de droite de l'espace de recherche. De ce fait, ce sont ces deux rgions qui vont d'abord tre explores par les particules. Il y a donc une possibilit que les particules soient piges dans l'un des optima locaux prsents dans l'une de ces deux rgions, sans qu'elles aient pu auparavant explorer le reste de l'espace de recherche.
Dans l'objectif de rsoudre ce problme, on introduit un nouveau mode d'initialisation. Le but est de couvrir l'espace de recherche le plus uniformment possible avec les particules, ds leur initialisation. En pratique, les particules sont initialises de manire tre le plus loign possible les unes des autres et le plus loignes possible des frontires de l'espace de recherche. Le critre qui permet de choisir la meilleure conguration, en accord avec ce qui a t dit prcdemment, est dni comme suit :
nbP articules
f=
i=1
o
j=i
1 + dij i
(2.13)
dij
et la particule
d (xi , boundd )
particule
et la frontire de la dimension
d.
La Figure 2.13 montre l'exemple d'une initialisation rgulire ralise avec sept particules dans un espace de recherche deux dimensions.
Dans la nouvelle version de TRIBES, l'initialisation des particules est donc ralise en initialisant
D+1
54
, i {1, . . . , D}. pi
de probabilit support inni permet de garantir la possibilit d'un dplacement plus large pour la
= [ , . . . , ] 1 D
= [ , . . . , ] et les composantes 1 D
i =
1 N
pji , i {1, . . . , D}
j=1
(2.14)
2 i
La
1 = N 1
(pji i )2 , i {1, . . . , D}
j=1
(2.15)
ime
coordonne de la nouvelle position est alors dtermine l'aide d'un tirage alatoire de
et de variance
i .
Cependant, dans le cas d'applications relles, il est courant que les variables soient dpendantes entre elles. Dans ce cas la loi gaussienne est dnie par l'quation (2.16).
G () = x
1 T exp ( ) 1 ( ) x x 2 (2) ||
D 2 1 2
(2.16)
= [ , . . . , ] 1 D
covariance peut tre estime l'aide de l'quation (2.17), le vecteur de moyenne tant inchang.
1 N 1
N j=1
T ( ) ( ) pj pj
(2.17)
Dans ce cas, la nouvelle position est dtermine par tirage alatoire de la distribution gaussienne de moyenne
et de matrice de covariance
Bien videmment, cette stratgie de dplacement ne doit pas tre applique toutes les particules. Cette stratgie de dplacement autorise des dplacements trs larges et, donc, favorise un processus de diversication. De ce fait, cette stratgie doit tre rserve aux particules ayant eu un mauvais comportement lors des dernires itrations. La stratgie de dplacement base sur un EDA est donc attribue aux particules ayant pour historique (- -), (- =) et (= -). Ainsi ces mauvaises particules vont pouvoir amliorer leur performances en allant explorer de nouvelles rgions de l'espace de recherche. La Figure 2.14 montre l'histogramme des distances entre toutes les positions atteintes par les particules dans le cas de la fonction Rastrigin 10D. La Figure 2.14a est ralise l'aide de TRIBES classique et la Figure 2.14b est ralise en introduisant la nouvelle stratgie de dplacement. Il apparat que les positions atteintes dans le cas b) sont plus diverses que dans le cas classique. En eet, la Figure 2.14 est compose de quatre pics trs ns. Cela implique qu' la n de l'excution les particules ont principalement explor quatre rgions de l'espace de recherche. Les pics tant trs troits, on en dduit que les particules sont concentres autour d'optima locaux. A l'oppos, sur la Figure 2.14b, les pics sont beaucoup plus larges. Ceci induit que, comme souhait, on a explor l'espace de recherche de manire plus large que dans le cas initial et, donc, on a amlior le processus de diversication de TRIBES.
D = 10.
erreurs moyennes sur 25 excutions des algorithmes et, entre parenthses, le nombre moyen d'valuations de la fonction objectif pour les fonctions unimodales F1 F5. L'excution de l'algorithme est stoppe si l'erreur est infrieure
106
M axF es = 100000.
La Table 2.5 prsente les erreurs moyennes sur 25 excutions des algorithmes et,
entre parenthses, le nombre moyen d'valuations de la fonction objectif pour les fonctions multimodales F6 F11. L'excution de l'algorithme est stoppe si l'erreur est infrieure nombre d'valuations de la fonction objectif dpasse
102
ou si le
M axF es = 100000.
TRIBES+ donne des meilleurs r-
Les Tables 2.4 et 2.5 montrent que TRIBES+ donne des rsultats comptitifs vis--vis des autres algorithmes de comparaison. Compar au
sultats dans la grande majorit des cas. TRIBES+ est juste un peu plus lent pour les fonctions F4 et F5, ce qui peut s'expliquer par le fait que ces fonctions sont plus rapidement rsolues par un algorithme disposant de beaucoup de particules au dpart du processus (car elles sont relativement simples). Compar TRIBES, TRIBES+ est meilleur dans 80% des cas. On prouve donc ici que
56
(a)
(b)
Figure 2.14 Histogramme des distances entre particules pour la fonction Rastrigin 10D (F9). (a)
TRIBES original, (b) TRIBES avec la nouvelle stratgie de dplacement.
Table 2.4 Comparaison entre algorithmes pour les fonctions unimodales 10D. Erreur moyenne et
nombre d'valuations de la fonction objectif moyen ncessaire pour atteindre un erreur infrieure
106 .
F1 Standard PSO 2006 EDA TRIBES TRIBES+ 0.00 (3375) 0.00 (28732) 0.00 (1856) 0.00 (1521) F2 0.00 (8300) 0.00 (28916) 0.00 (10452) 0.00 (12011) F3 7.12e+04 (100000) 0.00 (32922) 0.00 (10340) 0.00 (9405) F4 0.00 (11562) 0.00 (32636) 0.00 (18966) 0.00 (23783) F5 18.86 (67610) 233.50 (100000) 1.74 (60409) 9.04e-04 (80832)
2.8.
CONCLUSION
57
Table 2.5 Comparaison entre algorithmes pour les fonctions multimodales 10D. Erreur moyenne
et nombre d'valuations de la fonction objectif moyen ncessaire pour atteindre un erreur infrieure
102 .
l'ajout des deux mcanismes prsents dans les sections prcdentes apporte une relle plus-value aux performances de TRIBES. Ce travail a fait l'objet d'une publication [Cooren et al., 2007].
2.8 Conclusion
Dans ce chapitre, nous avons prsent TRIBES, un algorithme d'optimisation par essaim particulaire totalement adaptatif. TRIBES ne ncessite aucune intervention humaine pour la dnition de ses paramtres et permet donc l'utilisateur novice une prise en main plus facile de l'algorithme. Cependant, un tel algorithme ne peut tre intressant que si la facilit de prise en main ne se fait pas au dtriment de la qualit des performances. Les tests proposs dans ce chapitre montrent que TRIBES donne des rsultats comptitifs sur un trs large panel de fonctions de test, et ce, mme pour des dimensions leves des problmes. De mme, au niveau de la rapidit de recherche de l'optimum global, TRIBES a des performances tout fait correctes vis--vis des autres algorithmes, mme si, dans certains cas, il est handicap par le fait que son traitement ne dbute qu'avec une seule particule. Cependant, on constate que TRIBES soure d'un manque de diversit au sein de son essaim. En eet, il apparat dans de nombreux cas que la convergence de TRIBES est trs rapide vers un optimum local et que les particules n'arrivent pas s'chapper de ceux-ci. Cela entrane une stagnation des particules et, donc, des performances mitiges. Pour essayer d'apporter plus de diversit l'essaim, nous avons introduit deux nouveaux mcanismes TRIBES : une initialisation rgulire et une nouvelle stratgie de dplacement. Le but de ces mcanismes est de permettre aux particules d'explorer l'espace de recherche le plus largement possible. Les rsultats numriques montrent les eets bnques de ces deux nouveaux mcanismes.
Chapitre 3
laboration de MO-TRIBES : algorithme d'optimisation multiobjectif sans paramtre
3.1 Introduction
Les mtaheuristiques ont t l'origine conues pour traiter des problmes mono-objectif, c'est-dire que la recherche de solutions pour un problme donn ne dpend que d'un seul critre. Or, l'exprience montre que de nombreux problmes ne sont pas modlisables par un critre unique. En eet, pour une modlisastion correcte de ces problmes, il ne faut pas dnir un critre, mais plusieurs. La dicult majeure lors de la rsolution de ce type de problme provient du fait que les critres utiliss pour modliser ces problmes sont trs souvent contradictoires. On ne recherche plus alors une solution unique au problme pos, mais plutt un ensemble de solutions de compromis entre les dirents critres, un expert dans le domaine trait ayant alors pour rle de choisir parmi cet ensemble la solution nale. Dans le chapitre 1, nous avons dcrit comment les principales mtaheuristiques ont t modies et adaptes an de pouvoir traiter des problmes multiobjectifs. Il a t montr que les mtaheuristiques multiobjectifs peuvent se diviser en trois classes : les mthodes agrgatives, les mthodes non-Pareto et les mthodes Pareto. Les mthodes bases sur la dominance de Pareto (cf. section 1.3.1) sont aujourd'hui les plus ecaces et, de ce fait, les plus utilises. Dans les chapitres 1 et 2, nous avons discut la ncessit de rduire le nombre de paramtres de contrle des algorithmes d'optimisation dans le cas mono-objectif. Nous avons conclu que, en vue d'un dveloppement plus large de l'utilisation des mtaheuristiques dans l'industrie, il est ncessaire de faciliter au maximum la prise en main des algorithmes par les utilisateurs novices. Parmi les objectifs identis pour raliser cela, la rduction du nombre de paramtres de contrle des algorithmes est l'un des plus importants. Ce constat, discut dans le cas mono-objectif, est aussi valable dans le cas multiobjectif. En eet, les algorithmes multiobjectifs sont adapts des mthodes mono-objectif donc ils sont, par nature, fortement dpendants de leurs paramtres. De plus, les mcanismes permettant de transformer un algorithme mono-objectif en algorithme multiobjectif introduisent trs souvent la dnition de nouveaux paramtres, donc une complexit supplmentaire lors de la prise en main de l'algorithme. Le chapitre 2 a t consacr la prsentation de TRIBES, un algorithme d'Optimisation par Essaim Particulaire sans paramtres dvelopp par Clerc. Le prsent chapitre est consacr la prsentation de MO-TRIBES, une version multiobjectif de TRIBES, qui a t dveloppe au cours de cette thse. Comme TRIBES, MO-TRIBES prsente la particularit de ne ncessiter le rglage 59
60
3.2 MO-TRIBES
MO-TRIBES a pour objectif d'tre un algorithme d'optimisation par essaim particulaire multiobjectif sans paramtres de contrle. Il reprend les principaux mcanismes de TRIBES auxquels sont ajouts de nouveaux mcanismes destins traiter des problmes multiobjectifs. MO-TRIBES a t conu en utilisant une approche base sur la dominance au sens de Pareto. Dans le but d'adapter le paradigme de TRIBES la rsolution de problmes multiobjectifs, il est clair que le schma gnral de l'algorithme (cf. Algorithme 10) doit tre modi. En gnral, la rsolution d'un problme multiobjectif pose trois problmes [Ziztler et al., 2000] :
trouver le plus d'lments possibles appartenant au front de Pareto ; approcher le mieux possible le front de Pareto ; la rpartition des solutions doit tre la plus uniforme possible le long du front de Pareto approch.
Comme dans le cas des algorithmes volutionnaires [Coello Coello et al., 2002], tendre l'algorithme d'OEP au traitement des problmes multiobjectifs implique de rpondre aux trois questions suivantes :
Comment choisir les informatrices des particules de manire favoriser les particules nondomines ? Comment retenir les particules non-domines pour que celles-ci soient non seulement nondomines vis--vis de la population courante, mais aussi vis--vis des populations passes ? Comment maintenir la diversit dans l'essaim pour ne pas converger vers une solution unique ?
Les solutions non-domines trouves au cours de l'excution sont stockes dans une
archive externe,
comme cela est dj fait dans de nombreuses autres mthodes [Reyes-Sierra et al., 2006]. Ainsi, la n du traitement, l'archive contiendra toutes les solutions non-domines rencontres au cours de l'excution et, de ce fait, l'approximation du front de Pareto du problme. Les paragraphes suivants dtaillent les modications qui ont d tre apportes TRIBES pour le transformer en MO-TRIBES.
3.2.
MO-TRIBES
61
Fin Si
dplacements signicatifs, on peut considrer qu'il est prfrable de r-initialiser l'essaim, plutt que de continuer la recherche avec l'essaim courant. De ce fait, de nouvelles zones de l'espace de recherche vont pouvoir tre explores. En pratique, notre objectif est de trouver des solutions non-domines. On considre donc qu'un essaim a atteint un tat de quasi-quilibre s'il n'arrive plus trouver de nouvelles solutions nondomines. L'essaim sera donc rinitialis si, entre deux itrations successives de MO-TRIBES, l'algorithme n'a pas trouv de nouvelles solutions non-domines. On assure ainsi un renouvellement assez frquent de la population et, donc, on multiplie nos chances de trouver de nouvelles solutions non-domines.
Prev
nDom-
est le nombre de solutions non-domines trouves depuis la dernire mise jour de la taille de
l'archive et
reinit
La diversit des solutions non-domines stockes au sein de l'archive est maintenue l'aide d'un
ime
distance d'encombrement
distance d'encombrement
ime
du
de l'archive sans en inclure d'autres. L'ide est de maximiser la possible le long du front de Pareto. Sur la Figure 3.1, la
distance d'encombrement
solution entre
les solutions stockes dans l'archive, an d'obtenir une rpartition des particules la plus uniforme
distance d'encombrement
de la solution
62
tribe[i].explorerNb
tribeNb
est le nombre
ime
tribu,
X , le premier informateur est , l'informateur cognitif. modlise la p p est mis jour si, et seulement tendance de la particule suivre sa propre exprience. A l'itration t, p si, la nouvelle position X domine p . Le critre de dominance est donc utilis pour mettre jour l'informateur cognitif. Le second informateur dterminer est g , l'informateur social. g modlise
3.2.
MO-TRIBES
63
L'Algorithme 13 rsume la mise jour des liens d'information l'instant algorithme sont les suivants :
t.
tribe[i].particle[j] est la j me particule de la ime tribu ; tribe[i].particle[j].p est l'informateur cognitif de tribe[i].particle[j] ; tribe[i].particle[j].g est l'informateur social de tribe[i].particle[j] ; tribe[i].particle[chaman] est le chaman de la ime tribu ; U(archive) est une solution uniformment choisie dans l'archive.
64
Algorithme 13 Processus d'information Pour i =1 tribeNb Pour j =1 tribe[i].explorerNb Si tribe[i].particle[j] domine tribe[i].particle[j].p Fin si Si tribe[i].particle[j] Sinon
t
tribe[i].particle[j].g=tribe[i].particle[chaman].p
1 () = x k
k i=1
(3.1)
3.2.5 Algorithme
L'Algorithme 14 donne un pseudo-code de MO-TRIBES. lors de la prcdente adaptation de l'essaim et dernire adaptation.
3.3.
65
(= +) (+ +)
(+ =) (- +)
pivot bruit
(- -) (= -) (+ -) (- =) (= =)
pivot
Algorithme 14 Algorithme de MO-TRIBES. Initialiser la taille de l'archive Initialiser un essaim de particules avec des positions alatoires Pour chaque particule i, est initialis Xi pi valuer les fonctions objectifs pour chaque particule et initialiser gi Insrer les particules non-domines dans l'archive Tant que le critre d'arrt n'est pas atteint Choisir les stratgies de dplacement Mettre jour les vitesses et les positions des particules valuer les fonctions objectifs pour chaque particule Mettre jour et pi gi Mettre jour l'archive Si n <NL Adaptations structurelles (ajout/limination de particules, mise jour du rseau d'information,
rinitialisation de l'essaim...)
Si nDomPrev =0 Redmarrer l'algorithme Mettre jour la taille de l'archive Fin Si Calculer NL Fin Si Fin Tant que
66
Covariance
: La
C (U, V ) =
(3.2)
C (U, V ) = 1 implique que tous les vecteurs contenus dans V sont domins par ceux contenus U . A l'oppos, C (U, V ) est gal 0 quand aucun des vecteurs de V n'est domin par un des vecteurs de U . Ainsi, si U et V sont deux fronts de Pareto donns par deux algorithmes dirents AU et AV , plus le couple (C (U, V ) , C (V, U )) est proche de (1, 0), plus l'algorithme AU aura tendance tre meilleur que l'algorithme AV .
dans
Espacement
: L'
espacement S
S (A)
du front de Pareto.
S (A) =
1 A1
k
|A|
(di dmoy )2
i=1
(3.3)
di =
o
sj Asj =si
min
(3.4)
|A|
de fonctions objectifs et
dmoy
Largeur de front
: La
largeur de front M S
k
MS
est d-
MS =
u=1
|A|
|A|
(3.5)
c1
et
c2
est gale 100. MO-TRIBES n'a aucun paramtre de contrle dnir. Dans le code source de MOTRIBES, la taille maximale de l'archive est cependant borne 100. Cette borne n'est ici insre que par prvention, la taille de l'archive tant bien rgule par les quations de l'Algorithme 11 et ne
M axF es = 50000. La Table 3.2 prsente les couples moyens (C (AM OT RIBES , CX ) , C (AX , AM OT RIBES )) sur 25 excutions des algorithmes. X symbolise soit NSGA-II soit MOPSO.
dpassant jamais 100. Le critre d'arrt utilis pour chacun des algorithmes est La Table 3.3 prsente les MOPSO et MO-TRIBES.
espacements
3.3.
67
largeurs de front
Les Figures 3.3 3.9 reprsentent une comparaison entre les fronts de Pareto fournis par NSGAII et MO-TRIBES. Les fronts matrialiss par des points sont ceux obtenus l'aide de NSGA-II, ceux matrialiss par des croix tant obtenus l'aide de MO-TRIBES.
3.3.4 Discussion
La Table 3.3 montre que MO-TRIBES prsente des rsultats comptitifs vis--vis de ceux de NSGA-II. Pour la fonction ZDT6, toutes les solutions non-domines trouves par NSGA-II sont domines par les solutions non-domines trouves par MO-TRIBES. MO-TRIBES est aussi nettement plus performant pour le problme MOP5. Pour les problmes ZDT1, ZDT2 et ZDT3, MO-TRIBES ne semble pas encore atteindre les mmes performances que NSGA-II. Les Figures 3.4 3.6 montrent que l'on n'est pas trop loign des rsultats optimaux pour ZDT1 et ZDT3 alors que, dans le cas de ZDT2, MO-TRIBES semble ne pas arriver correctement approcher le front de Pareto. Ce manque d'ecacit provient principalement du fait que MO-TRIBES ne dmarre qu'avec une seule particule, contre 100 NSGA-II, ce qui peut amener le traitement du problme par MO-TRIBES tre un peu plus long. Pour les problmes Deb et MOP6, les rsultats sont sensiblement quivalents. La Table 3.2 montre que MO-TRIBES donne de bien meilleurs rsultats que MOPSO. Les rsultats obtenus l'aide de MOPSO sont meilleurs que ceux de MO-TRIBES seulement pour la fonction Deb. Ils sont similaires dans le cas du problme MOP6 et l'avantage de MO-TRIBES pour tous les autres problmes.
68
Figure 3.3 Fronts de Pareto de NSGA-II et MO-TRIBES pour la fonction Deb. () Front de
Pareto donn par MO-TRIBES, ( ) Front de Pareto donn par NSGA-II.
Figure 3.4 Fronts de Pareto de NSGA-II et MO-TRIBES pour la fonction ZDT1. () Front de
Pareto donn par MO-TRIBES, ( ) Front de Pareto donn par NSGA-II.
3.3.
69
Figure 3.5 Fronts de Pareto de NSGA-II et MO-TRIBES pour la fonction ZDT2. () Front de
Pareto donn par MO-TRIBES, ( ) Front de Pareto donn par NSGA-II.
Figure 3.6 Fronts de Pareto de NSGA-II et MO-TRIBES pour la fonction ZDT3. () Front de
Pareto donn par MO-TRIBES, ( ) Front de Pareto donn par NSGA-II.
70
Figure 3.7 Fronts de Pareto de NSGA-II et MO-TRIBES pour la fonction ZDT6. () Front de
Pareto donn par MO-TRIBES, ( ) Front de Pareto donn par NSGA-II.
Figure 3.8 Fronts de Pareto de NSGA-II et MO-TRIBES pour la fonction MOP6. () Front de
Pareto donn par MO-TRIBES, ( ) Front de Pareto donn par NSGA-II.
3.4.
CONCLUSION
71
Figure 3.9 Fronts de Pareto de NSGA-II et MO-TRIBES pour la fonction MOP5. () Front de
Pareto donn par MO-TRIBES, ( ) Front de Pareto donn par NSGA-II. La Table 3.3 nous informe que les solutions non-domines trouves par MO-TRIBES sont assez bien rparties le long du front de Pareto. De mme, la Table 3.4 montre que MO-TRIBES fournit des fronts de Pareto de mme largeur que ceux fournis par MOPSO et NSGA-II. Toutes les donnes numriques observes dans les Tables 3.2 3.4 sont conrmes par les impressions visuelles donnes par les Figures 3.3 3.9. On peut noter que, pour le problme ZDT1, les solutions non-domines trouves par MO-TRIBES sont mieux rparties sur la partie droite du front que celles donnes par NSGA-II. De mme, pour le problme MOP5, on arrive trouver davantage de solutions non-domines dans le plan
f2 f3
3.4 Conclusion
Dans ce chapitre, nous avons prsent MO-TRIBES, un algorithme adaptatif d'optimisation par essaim particulaire sans paramtres de contrle. Comme nous l'avons dj observ dans le cas mono-objectif, l'utilisation d'algorithmes adaptatifs permet aux utilisateurs de mtaheuristiques de s'aranchir du problme de dnition des paramtres de l'algorithme, ceux-ci tant automatiquement calculs au cours de l'excution de l'algorithme. MO-TRIBES est une OEP multiobjectif disposant d'une archive externe dans laquelle sont stockes les solutions non-domines trouves tout au long du traitement. La taille de l'archive est dtermine de manire adaptative et la diversit des solutions acceptes au sein de l'archive est gre grce un critre bas sur la maximisation de la
distance d'encombrement
De plus, la diversit est aussi assure au sein de l'essaim de particules l'aide d'une stratgie de redmarrage de l'algorithme. Les comparaisons avec deux algorithmes trs populaires montrent que, mme si son comportement n'est pas guid par des paramtres soigneusement choisis par l'utilisateur, MO-TRIBES donne de bonnes approximations des fronts de Pareto, pour lesquelles les solutions sont bien rparties le long du front. Pour rsumer, on peut dire que MO-TRIBES est un algorithme comptitif pour rsoudre des pro-
72
blmes d'optimisation multiobjectif, ce qui vite aux non-spcialistes d'avoir dnir des paramtres de contrle. Ce travail a fait l'objet d'une soumission d'article [Cooren et al., 2008b].
Chapitre 4
Application de TRIBES en segmentation d'images mdicales
4.1 Introduction
L'imagerie est un domaine qui est devenu prpondrant dans de nombreux domaines, tels que la surveillance, la mdecine ou encore la prospection ptrolire. Les images pouvant apporter des informations trs diverses, il est devenu ncessaire de disposer d'algorithmes de traitement automatique des images. Un systme de traitement automatique d'images est compos de deux niveaux : le premier est consacr au traitement numrique des images, au sens large, avec des oprations telles que le codage, l'amlioration ou encore la restauration des images, le deuxime est ddi l'analyse symbolique des images, dans le but d'extraire l'information contenue dans l'image. La segmentation occupe une place importante, car elle est situe l'articulation entre le traitement et l'analyse des images. La complexit du problme, la diversit des images et l'valuation assez empirique des rsultats en font un axe de recherche trs actif. Le but de la segmentation est de partitionner une image en plusieurs rgions homognes, au sens d'un critre x a priori. On passe ainsi d'une information de type intensit lumineuse une information de type appartenance du pixel une rgion donne. D'un point de vue purement pratique, l'opration de segmentation revient donner chaque pixel de l'image un label d'appartenance une rgion donne. La partition de l'image en rgions homognes permet de fournir des donnes simplies qui vont permettre de faciliter la tche d'un systme de reconnaissance ou d'un systme de classication. De trs nombreuses mthodes de segmentation existent. Ce chapitre traite du problme de segmentation par seuillage d'images. Le seuillage d'image est une mthode de segmentation supervise, c'est--dire que le nombre de rgions et leurs proprits sont fournis au pralable par l'utilisateur. La segmentation est eectue en dterminant, pour chaque pixel, la classe dont les proprits se rapprochent le plus de celles observes en ce site. La technique de seuillage est base sur l'hypothse que les direntes rgions de l'image peuvent tre direncies par leurs niveaux de gris. Cette mthode repose donc sur l'utilisation de l'histogramme de l'image traite. Le seuillage de l'image en
N-1
zones. Le
problme de seuillage est dni dans la premire section de ce chapitre. Dans ce chapitre, le problme de segmentation sera abord selon deux critres dirents. Tout d'abord, nous prsentons un problme de segmentation d'images IRM de cerveau. Le critre de segmentation utilis dans ce cas est l'entropie exponentielle 2D. Les seuils optimaux sont obtenus lorsque l'entropie exponentielle 2D est maximale. Ce problme est rsolu l'aide de TRIBES. Ensuite, nous montrons comment on peut faciliter le processus de segmentation en approchant l'histogramme 73
74
par une somme de gaussiennes. Approcher l'histogramme par une somme de gaussiennes permet de disposer d'une expression analytique de l'histogramme et, donc, de calculer plus facilement les seuils optimaux. Cette application ayant t ralise en cours de thse, elle permet de corroborer les observations faites sur le comportement de TRIBES et, justie donc les recherches d'amliorations pour TRIBES inities avec TRIBES+.
tant dni au pralable par l'utilisateur. Le processus de segmentation est uniquement bas sur l'hypothse que les direntes rgions de l'espace sont direnciables par leurs niveaux de gris. Segmenter l'image en rgions. Soit
N-1
(4.1)
et
T0, . . . , TN
sont les
bornes des direntes rgions en niveaux de gris. Le but d'une mthode de seuillage est de trouver les seuils optimaux
T1 , . . . , TN 1 , T0
et
TN
observation de l'histogramme ; choix des seuils dans les valles de l'histogramme ; dnition des classes de rgions par intervalles de couleurs ; classement des pixels.
Le but d'un algorithme de seuillage est de proposer une mthode automatique qui permette l'utilisateur de s'aranchir des quatre tapes prcdemment cites.
paramtriques,
qui sont bases sur l'hypothse que les densits de probabilit des niveaux de gris des direntes
4.2.
PROBLME DE SEUILLAGE
75
la variance interclasse, la variance intraclasse et la variance totale. Les trois critres sont quivalents et, suivant la situation, l'un ou l'autre peut tre choisi. Cependant, du fait de sa simplicit de mise en oeuvre, la variance interclasse est souvent choisie. Le calcul des critres est bas sur la densit de probabilit des dirents pixels de l'image. Si l'on note
pi =
h (i)
L1
(4.2)
h (j)
j=0
o
h (i)
i {1, . . . , L 1}.
t = Arg max
th
avec :
B T
2(th)
(4.3)
2(th)
2(th)
= Pth (Pth 1) (1 0 )2
L1
(4.4)
2(th) T th
o
=
i=1
pi (i T )2
th L1
(4.5)
L1 p i Pi , t
0 =
i=0
1 =
pi i 1Pt , i=th+1
T = 0 + 1 , P t =
i=0
pi
et
1 Pt =
pi
i=th+1
Comme la mthode d'Otsu consiste regrouper les pixels en deux classes, l'ecacit de cette mthode n'est prouve que lorsqu'il n'y a qu'un seul type d'objet segmenter dans l'image. Une version multi-classes est disponible dans [Cheriet et al., 1998].
entropique, est base sur le principe de la maximisation de l'entropie totale de Shannon. La mthode suppose que deux objets d'une mme image ont des densits de probabilit indpendantes. Le seuil optimal est celui qui permet de maximiser l'entropie de l'image partitionne. Dans le cas de deux classes, les entropies partielles et totales sont donnes par :
HA (t) =
i=0 L1
pi log2 Pt
pi Pt pi 1 Pt
(4.6)
HB (t) =
i=t+1
pi log2 1 Pt
(4.7)
76
(4.8)
(4.9)
Cette mthode a ouvert le champ la dnition de nombreuses mesures d'information pour mieux segmenter les images, telles que l'entropie de Tsallis ou l'entropie de Renyi. Une description de ces variantes est disponible dans [Sezgin et al., 2004]. Une variante de cette mthode base sur l'entropie exponentielle 2D est utilise dans la section 4.3.
4.3.2 Histogramme 2D
Soit
l'image originale et
l'image moyenne partir d'un masque 3x3, tel que dni par
l'quation (4.2) :
1 w (x, y) = 9
L'histogramme 2D
f (x + i, y + j)
(4.10)
i=1 j=1
h (i, j) =
avec
(4.11)
i, j {0, 1, . . . , L 1}, o L est le nombre de niveaux posera L = 256. On note la probabilit jointe pij = h (i, j).
L'histogramme 2D est reprsent par la Figure 4.1. Les cadrans 1 et 2 matrialisent respectivement le fond et les objets de l'image. Les cadrans 3 et 4 contiennent respectivement l'information concernant le bruit et les contours. Un vecteur de seuillage de l'histogramme 2D
est not
(s, t),
4.3.
77
et
f.
Dans
sn 1
tn 1
Pm1 (an1 , an ) =
i=sn1 j=tn1 sn+1 1 tn+1 1
pij
(4.12)
Pm (an , an+1 ) =
i=sn
o
pij
j=tn
(4.13)
an = (sn , tn ), n = 1, . . . , N ; m = 1, . . . , N ,
H =
i
avec
p ij
j
1 1
(4.14)
[0, 1[.
1 1
(4.15)
et
Le
T H
(a1 , . . . , aN 1 ) =
i=0
(4.16)
78
(s , t ) , . . . , 1 1
s 1 , t 1 N N
(a , . . . , a ) = 1 N
doit satisfaire :
T T H (a , . . . , a ) = max H (a1 , . . . , aN 1 ) 1 N
avec
(4.17)
et
N =2),
, o
O L
rsolution du problme de maximisation d'entropie l'aide de TRIBES. Pour montrer l'intrt de cette mthode, nous l'avons compare cinq autres mthodes classiques de calculs de seuils : un algorithme EM (EM) [Bazi et al., 2007], une mthode base sur la mthode dite de valley-emphasis (VE) [Ng, 2006], la mthode d'Otsu [Sezgin et al., 2004], la mthode de Kapur et al. [Sezgin et al., 2004] et une mthode base sur l'entropie 2D de Tsallis (TE) [Sahoo et al., 2006]. La comparaison est eectue sur une image synthtique avec dirents niveaux de bruit (cf. Figure 4.2). Les performances sont values par le critre de mauvaise classication ME [Sezgin et al., 2004]. Ce critre est dni par une corrlation entre les images et la perception visuelle. Son expression analytique est donne par (4.18) :
M E (%) =
o
100 BT
et
(4.18)
BO
et
FO
FT
sont respectivement
La valeur du vecteur de seuils optimal dpend de l'ordre An de trouver l'ordre optimal
U () =
o :
1 2N M
N j=0 iCj
fi i fmax fmin
2
(4.19)
N est le nombre de seuils, Cj est la j me classe ; M est le nombre de pixels de l'image ; fi le niveau de gris du pixel i ; j est le niveau de gris moyen de la classe j ; fmax et fmin sont respectivement le plus grand
Les rsultats exprimentaux sont prsents dans la Table 4.1. TRIBES est utilis pour optimiser le critre de 2DEE. On voit sur cette Table que le seuillage avec utilisation de l'entropie exponentielle donne de meilleurs rsultats que les autres mthodes.
4.3.
79
Figure 4.2 (A) Image originale. (B) (D) Images bruites Table 4.1 valuation des direntes mthodes de seuillage.
Mthodes de segmentation Otsu ME(%) Kapur ME(%) EM ME(%) VE ME(%) TE ME(%) 2DEE ME(%) Image B 0.45 5.61 8.68 0.34 0.64 0.23 ( = 0.4) Image C 0.88 4.50 12.50 0.63 1.12 0.56 ( = 0.4) Image D 12.22 4.97 28.87 11.59 12.90 3.57 ( = 0.6)
M axF es = 1000.
Les rsultats obtenus sont prsents sur la Figure 4.4. Cette gure montre les seuillages obtenus l'aide de TRIBES pour un cas sain (a) et un cas pathologique (b) pour
N =4
(c,d) et
N =5
(e,f ).
Le but est le quantier le taux de matire blanche situe dans l'espace ventriculaire. La Figure 4.5 prsente les mmes images, mais en utilisant l'entropie de Shannon 2D classique (2DSE), optimise l'aide d'une OEP classique [Peng-Yeng, 2007]. Dans le cas d'une recherche exhaustive, le critre doit tre valu en o
2
points,
L est le nombre total de niveaux de gris de l'image. La Table 4.2 montre le gain en temps obtenu
en utilisant TRIBES vis--vis d'une recherche exhaustive. De plus, en comparant avec d'autres mthodes de segmentation proposes dans la littrature [Drapaca et al., 2005 ; Qiao et al., 2007 ; Wareld et al., 2000, Murgasova et al., 2006 ; Song et al., 2006 ; Kamber et al., 2000 ; Cocosco et al., 2003], on constate que l'utilisation de TRIBES apporte aussi un gain en temps apprciable la segmentation des images IRM, tant donn que ces mthodes ncessitent au moins 120 secondes pour donner un rsultat. Les Figures 4.4 et 4.5 montrent que la mthode utilisant la 2DEE prsente un meilleur rsultat de segmentation que la mthode utilisant une entropie classique. La matire blanche est beaucoup mieux segmente sur les images de la Figure 4.4 que sur celles de la Figure 4.5.
80
M axF Es = 2000,
(b)
M axF Es = 1000.
Table 4.2 Temps d'excution pour segmenter l'image IRM de cerveau l'aide de TRIBES.
Nombre de classes (N ) Temps d'excution (s) Facteur de gain
3 4 5
4.3.5 Conclusion
Dans cette section, nous avons montr comment TRIBES peut tre utilis pour rsoudre un problme de segmentation d'images IRM. Le critre utilis, l'entropie exponentielle, aboutit des rsultats de segmentation satisfaisants. L'utilisation de TRIBES permet un gain de temps important vis--vis d'une recherche exhaustive, mais aussi vis--vis d'autres mthodes de segmentation. Ce travail a fait l'objet d'une publication [Nakib et al., 2007b].
niveaux de
densits
4.4.
81
Figure
4.4 Segmentation obtenue l'aide de TRIBES suivant le critre de 2DEE. (a) Image
= 0.1, (d) Image pathologique segmente avec N =4 et = 0.3, (e) Image N =5 et = 0.4, (f ) Image pathologique segmente avec N =5 et = 0.2.
originale cas sain, (b) Image originale cas pathologique, (c) Image saine segmente avec
N =4
et
82
Figure 4.5 Segmentation obtenue l'aide d'une OEP classique et 2DSE. (a) Image saine segmente
avec
N =4 , (b) Image pathologique segmente avec N =4, (c) Image saine segmente avec N =5, (d) Image pathologique segmente avec N =5 .
de probabilit [Synder et al., 1990]. Dans notre cas, des densits de probabilit gaussiennes sont utilises. L'approximation de
happrox (x) =
i=1
o
Pi e
xi i
(4.20)
Pi
est l'amplitude de la
ime
gaussienne,
est la moyenne et
est la variance.
L'histogramme
hnorm (i) =
Approcher l'histogramme critre
(4.21)
L'expression du critre
le
J=
Le jeu de paramtres
(4.22)
= {(Pi , i , i ) , i = 1, . . . , d}
(4.23)
Si l'on suppose que l'histogramme est correctement approch par la somme de gaussiennes, alors les seuils optimaux sont calculs en minimisant la probabilit de recouvrement des direntes gaussiennes. Pour deux gaussiennes successives, l'expression de cette probabilit est donne par :
4.4.
83
E (Ti ) = Pi
o
Ti
pi (x) dx + Pi+1
(4.24)
Ti
est le
ime
seuil de l'image et
pi
en fonction de
Ti
(4.25)
ATi2 + BTi + C = 0
avec :
(4.26)
(4.27)
(4.28)
i+1 Pi i Pi+1
(4.29)
Cette expression a deux solutions possibles mais seulement une seule solution est acceptable dans le cas prsent [Gonzalez et al., 2002].
Lena
Boulons
images sont de taille 256x256, codes sur 256 niveaux de gris. Le critre obtenus avec TRIBES pour
Standard PSO 2006. Le critre d'arrt utilis est rsultats d =3, 4 et 5 sont respectivement prsents dans les Tables 4.3 et 4.4. Les rsultats obtenus avec le Standard PSO 2006 pour d =3, 4 et 5 sont respectivement prsents dans les Tables 4.5 et 4.6. On observe que, dans les cas d =3 et d =4, TRIBES et Standard PSO 2006 donnent des rsultats similaires. Dans le cas d =5, les rsultats sont lgrement dirents. Le
problme augmentant en taille, il est plus dicile pour les deux algorithmes de trouver une solution correcte, donc de trouver les mmes rsultats. La Figure 4.6 prsente les rsultats obtenus l'aide de TRIBES dans le cas de l'image Lena. Les Figures 4.6 (b) et (c) montrent l'approximation de l'histogramme obtenue avec les paramtres optimaux fournis par TRIBES, dans les cas
d =3
et
d =4.
rsultats de segmentation. On voit sur ces images que la segmentation de Lena en trois classes est insusante, mais semble convenable avec 4 classes. La Figure 4.7 prsente les rsultats obtenus l'aide de TRIBES dans le cas de l'image Boulons. Les Figures 4.7 (b) et (c) montrent l'approximation de l'histogramme obtenue avec les paramtres optimaux fournis par TRIBES, dans les cas rsultats de segmentation. Les Figures (e) et (f ) des Figures 4.6 et 4.7 montrent les graphes de convergence de TRIBES. L'allure de ces graphes nous permet de conrmer la pertinence de notre critre d'arrt.
d =3
et
d =4.
84
Table 4.3 Rsultats exprimentaux sur l'image Lena obtenus avec TRIBES.
Nombre de gaussiennes Paramtres des gaussiennes Seuils Erreur nale
3 4 5
P :(0.2624, 0.7685, 0.8153) :(198, 23, 100) :(14.0789, 8.3667, 66,4781) P :(0.3541, 0.2902, 0.7758, 0.7547) :(133,196, 94, 23) :(8.9784, 16.8357, 64.3285, 8.6236) P :(0.3370, 0.2877, 0.7868, 0.3420,0.7536) :(65, 196, 23, 133, 98) :(4.7779, 16.3593, 9.3536, 8.5447, 63.0961)
Table 4.4 Rsultats exprimentaux sur l'image Boulons obtenus avec TRIBES.
Nombre de gaussiennes Paramtres des gaussiennes Seuils Erreur nale
3 4 5
P :(0.570, 0.036, 0.529) :(34, 98, 251) :(7.383, 100.0, 0.614) P :(0.035, 0.528, 0.845, 0.505) :(100, 251, 32,35) :(100.0, 0.616, 0.272, 7.866) P :(0.038, 0.537, 0.018, 0.639, 0.506) :(79, 251, 216, 32, 34, 57) :(56.781, 0.552, 100.0, 0.189, 7.891)
Table 4.5 Rsultats exprimentaux sur l'image Lena obtenus avec Standard PSO 2006.
Nombre de gaussiennes Paramtres des gaussiennes Seuils Erreur nale
3 4 5
P :(0.262, 0.764, 0.815) :(198, 23, 100) T :(41, 179) :(14.078, 8.835, 66.480) P :(0.775, 0.754, 0.290, 0.354) :(94, 23, 196, 133) T :(41, 119, 172) :(64.328, 8.623, 16.835, 8.978) P :(0.337, 0.342, 0.786, 0.287, 0.753) :(65, 133, 23, 196, 98) T :(42, 75, 119, 174) :(4.777, 8.544, 9.353, 16.359, 63.095)
4.4.
85
(a)
(b)
(c)
(d)
(e)
(f)
ginal et approch pour pour
(g)
Figure 4.6 Rsultat de segmentation de l'image Lena. (a) Image originale, (b) Histogrammes orid =3,
(e) Image convergence pour
d =4.
d =3, (c) Histogrammes original et approch pour d =4, (d) Image segmente segmente pour d =4, (f ) Graphe de convergence pour d =3, (g) Graphe de
86
(a)
(b)
(c)
(d)
(e)
(f)
original et approch pour
(g)
Figure 4.7 Rsultat de segmentation de l'image Boulons. (a) Image originale, (b) Histogrammes
d =3, (c) Histogrammes original et approch pour d =4, (d) Image segmente pour d =3, (e) Image segmente pour d =4, (f ) Graphe de convergence pour d =3, (g) Graphe de convergence pour d =4.
4.5.
CONCLUSION
87
Table 4.6 Rsultats exprimentaux sur l'image Boulons obtenus avec Standard PSO 2006.
Nombre de gaussiennes Paramtres des gaussiennes Seuils Erreur nale
3 4 5
P :(0.5707, 0.0366, 0.5294) :(34, 98, 251) T :(54, 250) :(7.38, 100.0, 0.6141) P :(0.5293, 0.0358, 0.5252, 0.5058) :(251, 101, 32, 35) T :(34, 57, 250) :(0.6135, 100.0, 0.1752, 7.8581) P :(0.5284, 0.0182, 0.5070, 0.0384, 0.7295) :(251, 214, 34, 79, 32,) T :(34, 56, 170, 250) :(0.5644, 100.0, 7.8907, 56.5071, 0.2354)
4.4.4 Conclusion
Dans cette section, nous avons prsent une mthode de segmentation base sur l'approximation de l'histogramme original par une somme de densits de probabilit. Obtenir, par approximation, une expression analytique de l'histogramme permet ainsi de calculer beaucoup plus facilement les seuils optimaux. Les rsultats proposs pour les images segmentation. Ce travail a fait l'objet d'une publication [Cooren et al., 2008c].
Lena
et
Boulons
couple l'utilisation de TRIBES, ore une alternative ecace et rapide aux autres mthodes de
4.5 Conclusion
Le traitement d'images est aujourd'hui un enjeu important dans le monde de la recherche. Considrant que ses domaines d'applications sont nombreux et varis, c'est un sujet qui est en pleine bullition et qui prote totalement des avances technologiques en matire d'acquisition des images et de puissance des calculateurs. Parmi les nombreux axes de recherche au sein de la communaut de l'imagerie, la segmentation fait partie des sujets les plus actifs. Segmenter une image consiste isoler les dirents objets ou les direntes zones de cette image. Segmenter les direntes parties d'une image permet de pouvoir calculer les proprits de ces zones d'intrt partir de l'information apporte par l'intensit lumineuse. La mthode de seuillage est une technique particulire de segmentation. Elle repose sur l'hypothse que les dirents objets de l'image sont direnciables uniquement par leurs intensits lumineuses. En pratique, cela implique que la segmentation de l'image va se dterminer partir de l'histogramme de l'image. Aucune notion de voisinage n'est utilise ici. L'entropie exponentielle est un critre qui permet de trouver les seuils optimaux d'une image partir de son histogramme. Les seuils optimaux sont trouvs quand l'entropie exponentielle est maximale. Le problme de seuillage devient alors un problme d'optimisation qui peut tre rsolu par n'importe quelle mtaheuristique. Les rsultats prsents montrent que TRIBES parvient parfaitement rsoudre ce problme dans le cas d'images IRM de cerveau. De plus, la segmentation est ralise dans un temps beaucoup plus rapide qu'avec les mthodes classiques. Ce chapitre prsente enn comment l'histogramme d'une image peut tre approch par une expression analytique. L'intrt de disposer d'une telle expression est de pouvoir dterminer thori-
88
quement les seuils optimaux. L'utilisation de TRIBES conduit ici aussi des rsultats intressants, qui orent une alternative crdible aux mthodes d'imagerie pure.
Chapitre 5
Application de TRIBES et de MO-TRIBES au dimensionnement de circuits lectroniques
5.1 Introduction
Les avances en matire de circuits intgrs VLSI (Very Large Scale Integration) permettent la ralisation de circuits intgrs de haute complexit [Gielen et al., 1991]. Les composants analogiques tiennent une part importante dans la conception de tels circuits, tant pour les systmes signal mixte que pour les systmes numriques [Gielen et al., 1991 ; Toumazou et al., 1993]. La conception des composants analogiques apparat donc comme une tape importante lors de la ralisation de tels circuits. En eet, les performances de ces circuits sont directement dpendantes des paramtres des composants analogiques. La conception de circuits analogiques est un processus complexe, dans le sens o elle ne concerne pas seulement le placement et le routage des composants, mais aussi leur dimensionnement [Graeb et al., 2001]. Dans la majorit des cas, le dimensionnement des composants analogiques est un processus lent, fastidieux et itratif, qui est ralis grce l'exprience et l'intuition d'un expert [Conn et al., 1996]. L'enjeu est d'essayer de proposer des mthodes automatiques de dimensionnement des composants analogiques, an d'acclrer de manire ecace le processus de conception des circuits intgrs. Les approches les plus connues dans la littrature sont bases sur des topologies xes et/ou des techniques stochastiques [Medeiro et al., 1994 ; Silveira et al., 1996 ; Conn et al., 1996 ; Loulou et al., 2002]. Ces mthodes sont, dans la majorit des cas, initialises avec une bonne solution fournie par un expert en conception de circuits analogiques. Ces mthodes cherchent ensuite amliorer cette solution par direntes techniques. Le problme de ces mthodes est qu'elles sont souvent trs lentes et qu'elles ne garantissent pas la convergence vers un optimum global. Si l'on aborde le problme de dimensionnement du point de vue non pas de l'lectronique, mais plutt de la recherche oprationnelle, on s'aperoit que le problme de dimensionnement est un problme d'optimisation variables continues soumis des contraintes. Les variables de dcision sont alors la largeur et la longueur des transistors du circuit, les contraintes tant imposes par le cahier des charges du circuit. Dans ce chapitre, nous prsentons deux applications de TRIBES au dimensionnement de circuits analogiques, l'une mono-objectif et l'autre multiobjectif. Dans un premier temps, nous dcrivons comment TRIBES peut tre utilis pour dimensionner les transistors d'un amplicateur de tension faible bruit, an de maximiser le gain de celui-ci. Dans un deuxime temps, nous montrons comment 89
90
Rception
Contrleur automatique de gain Filtre SAW Filtre Passe Bas Bande de base I
Mlangeur
Bande de base Q
Bande de base I
Filtre PA
Bande de base Q
Emission
dans les systmes de communication. Il sert amplier les signaux trs faibles capts par les antennes tout en rduisant le bruit. Dans la majorit des cas, un tel amplicateur est plac proximit de l'antenne, an d'viter les pertes en ligne. Pour cela, il est aussi souvent nomm
pramplicateur.
La Figure 5.1 situe la place d'un amplicateur faible bruit dans la chane de transmission radiofrquence. La Figure 5.2 prsente l'amplicateur faible bruit utilis dans cette section. On est ici en prsence d'un amplicateur source commune avec dgnrescence inductive (Ls ). Le transistor
M1
l'entre [Bazavi, 1998]. L'impdance d'entre est principalement due aux inductances aussi la capacit grille-source les lments
Lg
et
Ls , mais
Cgs
du transistor
M1 .
M1
et
M2 .
M3 , R1
et
R2
Id
29 mA.
Pour assurer une transmission maximale de la puissance du signal de l'antenne l'amplicateur
5.2.
91
Vdd
R2 R1
Lch
Cch
M3
M1
Ls M2 Vin Ls Vout
Zin (j) =
o
(5.1)
gm
Cgs
M1 .
De mme, l'impdance de sortie doit tre gale l'impdance d'entre du bloc suivant. Cette impdance est donne par le schma de la Figure 5.3.
rch
Lch .
Zs
M1
et
M2 .
(5.2)
92
Vout
in,Rs
Rs
in,g
Cgs
gm1 V
gs1
in,d in,Rout
Ls
rds1
et
rds2
M1
et
M2 ,
et
gm2
est
la transconductance du transistor
M2 .
Le modle petit-signal de l'amplicateur est donn par la Figure 5.4. L'tude du bruit impos par ce circuit est ralise suivant le modle tabli dans [Andreani et al., 2001]. Le schma quivalent utilis pour calculer le facteur de bruit est prsent Figure 5.5.
L'expression du facteur de bruit est donne par [Hung et al., 1990 ; Andreani et al., 2001] :
F =1+
avec
1 Q2 +
1 4
gm P 2 gdn +
1 4 gdn
1 1 4 cP gm 2 Rs Q2 gm
2 + (Rs + RL ) Q2 gm +
1 Rout
(5.3)
c = 0.4
P =
Cgs Ct ,
4 15
gdn =
2 3
gd0
et
Q=
1 . m Rs + gC Ls 0 Cgs
gs
(5.4)
(5.5)
VDsati
5.2.
93
10
Lg (nH)
8.110 7.44
Ls (nH)
0.320 1
Lch (nH)
0.715 1.03
rch (W)
1.92
R2 (kW)
W1 /L1 (m)
510/0.35
500/0.35
40/0.35
(a)
(b)
Figure 5.6 Variation du gain (a) et de la gure de bruit (b) en fonction du courant de polarisation.
35.108 L 45.108 400.106 W 800.106
o (5.6)
(5.7)
et
fT
F0 = 2.14 GHz .
Le but de cette application est de dimensionner les transistors
M1 , M2
et
faible bruit an que celui-ci prsente un gain maximal la frquence UMTS
en utilisant une technique de calcul symbolique partir du schma petit signal de la Figure 5.4. Son expression prsente un trs grand nombre de termes et il n'a pas t jug utile de la prsenter ici. Le problme est rsolu en utilisant TRIBES. Le critre d'arrt utilis est de polarisation
M axF es = 10000.
Les
Id
signal bruit introduit par le circuit dans la chane de transmission radiofrquence. Les paramtres optimaux trouvs sont prsents dans la Table 5.1 pour
Id = 29mA. 0.35 m, Id
gal 29 mA. Les Figures 5.7 et 5.8
Les simulations sont ralises l'aide du logiciel ADS, en utilisant la technologie ADS une alimentation de 2.5 V et un courant de polarisation
94
10
Gain (dB)
dB(S(2,1))
-5
1.8 1.6 1.4 1.2 1.0 0.8 0.6 1.0 1.2 1.4 1.6 1.8 2.0 2.2 2.4 2.6 2.8 3.0
m1
F0 , on obtient 0.631 dB .
14.631 dB
Cette tude a fait l'objet d'une publication lors de la confrence [Boughariou et al., 2008].
5.3.
95
VY
RY
CY
(c)
Figure 5.9 (a) Reprsentation gnrale d'un convoyeur de courant, (b) Schma idal, (c) Schma
quivalent avec composants parasites.
IY 0 k2 0 VY V X = 1 0 0 IX IZ 0 k1 0 VZ
Dans l'quation ci-dessus,
(5.8)
k2
k2 = 1,
alors le
circuit est considr comme un convoyeur de courant de premire gnration (CCI). A l'oppos, si
k2 = 0,
k1
si
positif.
k1 = 1,
ngatif
k1 = 1.
Un convoyeur de courant de seconde gnration assure deux fonctionnalits :
suiveur de courant entre les ports X et Z ; suiveur de tension entre les ports X et Y.
Dans le cas idal, et pour assurer les bonnes fonctionnalits du circuit, un convoyeur de courant de deuxime gnration est caractris par une faible impdance sur le port X et de hautes impdances sur les ports Y et Z. Le convoyeur de courant de seconde gnration est le convoyeur le plus souvent utilis tant pour ses bonnes performances que pour l'intrt apport par l'utilisation d'une boucle translinaire [Seevinck, 2000]. La Figure 5.10 montre l'exemple d'un convoyeur de courant de seconde gnration
positif
M13
M1
M4
constituent
VX = VY . I0
M9
M5
M8
Lorsqu'il est conu au niveau microlectronique, le comportement d'un convoyeur de courant peut
96
M10
M9
M8
M7
M1 Y I0 M3
M2 X Z
M4
M13
M12
M11
M5
M6
Vss
RX
est le composant parasite dont les eets sont les plus importants
sur le comportement du convoyeur de courant. Dans le cas d'applications hautes frquences, ces circuits doivent tre prcisment dimensionns, si l'on veut que les performances soient en accord avec les souhaits du concepteur. La bande passante en courant limite le domaine d'application du circuit, car la bande passante en courant est moins large que celle en tension. Donc, dans cette section, nous cherchons optimiser les caractristiques importantes du circuit, i.e. la rsistance parasite
RX
fci .
On peut montrer que l'expression de la rsistance parasite 2006] :
RX
RX = 2KN
o
1
WN LN
(5.9)
(1 + N VDS ) I0 +
2KP
WP LP
(1 + P VDS ) I0
N , P , KN = 0.9386.108 et KP = 0.3476.106 sont des paramtres lis la technologie des transistors (AMS 0.35 m). I0 est le courant de polarisation et VDS est la tension drain-source des transistors. Dans notre cas, on utilise I0 = 100 A. WN et LN sont respectivement la largeur et la longueur des transistors NMOS. WP et LP sont respectivement la largeur et le longueur des
transistors PMOS. L'expression de la frquence de coupure en courant
fci
symbolique. Son expression n'est pas donne ici du fait de son trs grand nombre de termes. Tous les transistors doivent oprer en mode saturation. Les contraintes de saturation sont donnes par :
5.3.
97
VDD VT N 2 VDD VT P 2
o
I0
N KN WN L
>
I0
P KP WP L
(5.10)
I0
P KP WP L
>
I0
N KN WN L
(5.11)
VT N = 0.4655 V
et
VT P = 0.617 V RX
VDD
fcli en fonction de WN , LN , WP
et
LP , en respectant
les conditions imposes par (5.10) et (5.11). Les limites technologiques imposent :
(5.12)
(5.13)
Les rsultats optimaux sur les largeurs et longueurs des transistors NMOS et PMOS qui forment le convoyeur de courant sont obtenus en utilisant MO-TRIBES. Ces rsultats sont prsents dans la Table 5.2. Ces rsultats constituent le front de Pareto approch du problme de dimensionnement. La Figure 5.11 reprsente celui-ci dans le plan l'espace des solutions. Cette gure ne prsente que les valeurs pour lesquelles
de polarisation
I0
est
(fcli /RX ), ainsi que les solutions non-domines dans fci est suprieure gal 100 A. Le critre d'arrt pour MO-TRIBES est
La Table 5.3 montre les bornes des fronts de Pareto obtenus en fonction du courant de polarisation On voit sur ce tableau que la frquence de coupure augmente lorsque
I0
I0
I0
circuit possdera de bonnes performances. Cependant, sachant que produire des forts courants de polarisation est assez complexe, il est donc important de trouver un bon compromis entre la valeur du courant de polarisation et les performances souhaites pour le circuit. La Figure 5.12 montre les dirents fronts de Pareto, dans le plan V et un courant de polarisation SPICE
1 obtenues l'aide des valeurs de Table 5.3 pour I0 = 100 A. Les rsultats de simulation sont
with Integrated Circuit Emphasis
I0
gal 100 mA. Les Figures 5.13 et 5.14 prsentent les simulations
en accord avec les rsultats thoriques calculs prcdemment. La Table 5.4 illustre cette remarque.
98
x 10
-5
LP=0.35m
580 2.2 2 1.8 1.6 480 1.4 1.2 0.7 460 440 -1.9
RX
WP
0.8
0.9
1.1
1.2
1.3
1.4
1.5 x 10
-5
-1.8
-1.7
-1.6
-1.5
-1.4
-1.3
-1.2 x 10
9
WN
LN=0.55m
-fci
Figure 5.11 Solutions non-domines et front de Pareto du problme de dimensionnement. Table 5.3 Bornes du front de Pareto en fonction du courant de polarisation I0 .
I0 (A) fcimin (GHz) RXmin () fcimax (GHz) RXmax ()
1200
1000 RX (ohm)
800
600
400
200 -2.5
-2
-1
-0.5 x 10
0
9
5.4.
CONCLUSION
99
R X
1.0K
Rx
10KHz
100KHz
1.0MHz
10MHz
100MHz
1.0GHz 10GHz
Frquence Frequency
Rx
10KHz
100KHz
1.0MHz
10MHz
100MHz
1.0GHz 10GHz
Frquence Frequency
(fcimin /RXmin ).
5.4 Conclusion
Dans ce chapitre, nous avons prsent deux applications de l'optimisation au problme de dimensionnement de circuits lectroniques analogiques. Ce type de problme est crucial lors de la conception de circuits analogiques, car les performances des circuits sont fortement dpendantes des dimensions des transistors. Il n'existe pas de mthode automatique pour rsoudre ce genre de problme, la rsolution reposant le plus souvent sur l'exprience d'un expert. Ceci implique que le problme de dimensionnement est un problme long et fastidieux rsoudre. Ce chapitre montre
100
10
-10
10KHz
100KHz
1.0MHz
10MHz
100MHz
1.0GHz
10GHz
Frquence Frequency
100KHz
1.0MHz
10MHz
100MHz
1.0GHz
10GHz
Frquence Frequency
Simulations
fci (GHz) RX ()
1.253 1.802
448 633
1.211 1.577
566 874
5.4.
CONCLUSION
101
comment l'utilisation des mtaheuristiques permet de trouver rapidement des solutions convenables en terme de performance des circuits. Le premier problme, mono-objectif, a consist maximiser le gain d'un amplicateur de courant faible bruit. Le deuxime, multiobjectif, a consist simultanment minimiser la rsistance d'entre et maximiser la frquence de coupure d'un convoyeur de courant de seconde gnration. Ces problmes ont t traits respectivement l'aide de TRIBES et MO-TRIBES. Nous avons montr dans ce chapitre que les deux problmes sont correctement rsolus.
Conclusion et perspectives
Dans cette thse, nous avons prsent un travail bas sur un algorithme d'Optimisation par Essaim Particulaire adaptative appel TRIBES. L'optimisation par essaim particulaire est une mtaheuristique destine la rsolution de problmes variables continues, inspire du comportement en essaim de certains animaux. Un essaim de particules prsente un comportement auto-organis qui conduit, par des interactions au niveau local, l'mergence d'un comportement global complexe. Un des inconvnients de cette mthode est que son comportement est trs fortement dpendant des valeurs donnes ses dirents paramtres de contrle. Un temps non ngligeable est donc ncessaire au pralable pour rgler le jeu de paramtres en fonction du problme pos. Pour s'aranchir de cette tape fastidieuse et faciliter la prise en main de l'algorithme par un utilisateur novice, de nombreuses recherches ont t menes, an de proposer des mthodes adaptatives. Une mthode adaptative est une mthode pour laquelle les valeurs des paramtres sont calcules au cours de l'excution de l'algorithme, en fonction du comportement des particules, et non imposes par l'utilisateur. TRIBES est un algorithme d'optimisation par essaim particulaire adaptatif qui a t propos par Maurice Clerc. Cet algorithme prsente la particularit d'tre totalement adaptatif, l'utilisateur n'a qu' dnir son problme et son critre d'arrt, sans se proccuper des paramtres de l'algorithme. Tous les paramtres de contrle sont calculs de manire autonome par l'algorithme, aucune intervention humaine n'tant ncessaire la bonne rsolution d'un problme. La premire tape de ce travail de thse a t de mener une tude des performances de TRIBES, an d'en dgager les principaux dfauts et, ainsi, de nouvelles pistes de dveloppement. Cette tude a t mene en utilisant la procdure de test dnie lors de la confrence
tation 2005,
L'tude mene montre tout d'abord que, certes, TRIBES n'est pas encore le meilleur algorithme d'optimisation, mais il prsente des rsultats tout--fait comptitifs vis--vis de la majorit des algorithmes. Le principal constat est que TRIBES soure d'un dcit de diversit au sein de l'essaim. En eet, l'algorithme converge vite vers un optimum, qui est souvent un optimum local, et n'arrive pas s'en extraire. En d'autres termes, les mcanismes de TRIBES n'arrivent pas maintenir la diversit ncessaire parmi les particules, an d'explorer les dirents optima locaux de la fonction objectif. An de rsoudre ce problme, nous avons dni deux nouveaux mcanismes pour TRIBES : une initialisation rgulire et une stratgie de dplacement. L'initialisation rgulire a pour but d'initialiser les particules de manire ce que, ds le dbut du traitement, l'espace de recherche soit explor de la manire la plus large possible par l'essaim de particules. Le but est d'explorer l'espace de recherche aussi largement que possible. La nouvelle stratgie de dplacement est destine aux particules qui prsentent un comportement dfaillant. An d'amliorer le comportement de ces particules, nous avons dni une nouvelle stratgie de dplacement, base sur l'utilisation d'un algorithme estimation de distribution. L'utilisation d'un tel algorithme permet d'avoir des dplacements plus larges, conditionns par les meilleures particules de l'essaim et, ainsi, de diversier le comportement d'une particule dfaillante. Ces deux mcanismes aboutissent une amlioration sensible des rsultats de TRIBES. 103
104
CONCLUSION ET PERSPECTIVES
TRIBES est destin la rsolution de problmes mono-objectif. Face au besoin croissant de
mthodes multiobjectif, nous avons dvelopp au cours de cette thse une version multiobjectif de TRIBES, dnomme MO-TRIBES. Comme dans le cas de TRIBES, MO-TRIBES est un algorithme pour lequel la dnition des paramtres de contrle ne ncessite aucune intervention de l'utilisateur. MO-TRIBES est un algorithme multiobjectif qui utilise une approche base sur la dominance, au sens de Pareto, pour chercher l'ensemble des solutions du problme pos. Tout au long du traitement, on stocke les solutions non-domines au sein d'une archive externe, dont la taille et le processus de mise jour sont dnis automatiquement. La diversit au sein de celle-ci est maintenue grce un critre de maximisation de
distance d'encombrement.
est maintenue au sein de l'essaim par l'intermdiaire de multiples rinitialisations de l'essaim. Le procd d'information des particules tant dirent de celui du cas mono-objectif, nous avons dni une nouvelle topologie du graphe d'information des particules. Ce graphe permet de favoriser les solutions non-domines, an d'obtenir la meilleure approximation possible du front de Pareto du problme pos. MO-TRIBES a t compar deux des algorithmes les plus performants, NSGA-II et MOPSO, et prsente des rsultats trs encourageants, surtout si l'on considre que les pistes d'amlioration sont nombreuses. Nos algorithmes ont t appliqus dans deux domaines dirents. Tout d'abord, nous avons montr, dans le cas mono-objectif, que les mtaheuristiques peuvent tre une alternative rapide et performante au problme de seuillage d'images haute-rsolution, telles que les images IRM. Ensuite, TRIBES et MO-TRIBES ont t utiliss pour rsoudre des problmes de dimensionnement de transistors en lectronique analogique. Ce type de problme est crucial en lectronique, car les performances des circuits sont trs fortement dpendantes des dimensions des transistors. Peu de mthodes automatiques existent pour rsoudre ce type de problme. Nous avons montr que, dans les cas mono-objectif et multiobjectif, l'utilisation de mthodes d'optimisation est ici aussi une alternative crdible, tant en termes de performance que de temps de calcul.
Les perspectives de ce travail sont nombreuses, tant du point de vue thorique que pratique. Nous avons montr dans cette thse que les mthodes adaptatives ont un vrai avenir dans le monde de la recherche oprationnelle car elles permettent non seulement une prise en main trs facile des algorithmes d'optimisation, mais aussi d'obtenir des rsultats tout--fait comptitifs. TRIBES est un algorithme modulaire. Il est donc facilement possible de lui ajouter de nouveaux mcanismes. Dans le cas de TRIBES, les deux points sujets amlioration sont les rgles d'adaptation structurelle et les stratgies de dplacement des particules. Ainsi, il serait bnque de dnir de nouvelles stratgies de dplacement des particules, an de proposer un dplacement idal la particule, en se basant sur son pass rcent. Le but ici est de raliser un apprentissage de l'espace de recherche an de mieux guider les particules dans leur recherche. Par exemple, l'utilisation de fonctions d'interpolation, telles que les fonctions B-splines, pourrait permettre aux particules de mieux apprhender leurs dplacements dans l'espace de recherche. De mme, il serait intressant d'utiliser des stratgies de dplacement bases sur des paradigmes autres que celui de l'OEP, an de pouvoir bncier des avantages de ces autres mthodes. Dans l'idal, chaque type d'historique devrait possder une stratgie de dplacement qui lui est propre. L'ide est que chaque stratgie de dplacement apporte une solution au problme pos par les dplacements antrieurs de la particule. L'tape de mise jour des liens d'information l'intrieur de TRIBES est aussi un enjeu important, car une bonne gestion de la structure de l'essaim pourrait permettre de maintenir la diversit ncessaire au sein de l'essaim. La question est ici de savoir quelle mthode utiliser pour modier de manire optimale la structure de l'essaim, mais aussi de savoir quel est le moment le plus opportun pour raliser ce changement. En ce qui concerne l'instant de modication, il est clair qu'il est nces-
CONCLUSION ET PERSPECTIVES
105
saire de dnir un critre de stagnation de l'essaim qui permette de mesurer la capacit de l'essaim pouvoir encore amliorer sa performance ou, l'oppos, de mesurer la tendance de l'essaim tre bloqu dans une situation quasi-ge. Il serait peut-tre ncessaire de revoir la structure du graphe d'information de TRIBES en testant les eets d'autres topologies (par exemple, topologie circulaire sur les chamans) sur les performances de l'essaim. Ceci implique aussi une mise jour des liens d'information dirente lors de l'ajout/suppression de particules. De plus, les statuts utiliss pour les oprations de suppression sont assez binaires, il serait intressant de crer des statuts intermdiaires qui rendent mieux comptent de la situation d'une tribu ou d'une particule au sein de l'essaim. Les remarques prcdentes ont pour but d'amliorer TRIBES en confrant aux particules un meilleur pouvoir d'apprentissage de l'espace de recherche tout en maintenant au sein de l'essaim une forte diversit. Ce genre de caractristique est aussi apprciable dans le cas multiobjectif, donc les propositions de perspectives pour TRIBES peuvent aussi servir de perspectives pour MO-TRIBES. De plus, dans le cas multiobjectif, il est possible d'amliorer la gestion de l'archive. Par exemple, la taille de celle-ci est adapte suivant une rgle dnie empiriquement. Il serait intressant de mener une tude plus approfondie, an de dterminer une rgle optimale pour dnir la taille de l'archive. De mme, le choix des meilleurs informateurs au sein de l'archive pourrait favoriser les particules qui ont la plus grande
distance d'encombrement.
domines peuvent tre utiliss. Considrant que TRIBES converge trs rapidement vers un optimum local de la fonction objectif, il serait intressant de modier TRIBES an de l'exploiter en optimisation dynamique. En eet, l'utilisation de TRIBES pourrait permettre de dtecter rapidement l'optimum global de la fonction entre deux modications de la topologie de celle-ci.
EPNSugan/
http://www3.ntu.edu.sg/home/
= , = [x , . . . , x ] [100, 100]D z x o x 1 D = [o , . . . , o ], o 1 D
l'optimum global
i j=1
= , = [x , . . . , x ] [100, 100]D z x o x 1 D = [o , . . . , o ], o 1 D
l'optimum global
= ( ) M, = [x , . . . , x ] [100, 100]D z x o x 1 D = [o , . . . , o ], o 1 D M
l'optimum global
107
108
i j=1
= , = [x , . . . , x ] [100, 100]D z x o x 1 D = [o , . . . , o ], o 1 D
l'optimum global
est un matrice
DxD, Ai
ieme
ligne de
A, det (A) =0
= + 1, = [x , . . . , x ] [100, 100]D z x o x 1 D = [o , . . . , o ], o 1 D
l'optimum global
i=1
cos
zi i
= ( ) M, = [x , . . . , x ] [0, 600]D z x o x 1 D M = M (1 + 0.3 |N (0, 1)|), M est une matrice de transformation nombre de contionnement = 3 2 = [o , . . . , o ], o 1 D
A1 A
l'optimum global linaire dont
2. Le
nombre de conditionnement
109
eD
D i=1
cos(2zi )
= ( ) M, = [x , . . . , x ] [32, 32]D z x o x 1 D M
est une matrice de transformation linaire dont
= [o , . . . , o ], o 1 D
l'optimum global
o2j1 = 32 o2j , j = 1, 2, . . . ,
D 2
= , = [x , . . . , x ] [5, 5]D z x o x 1 D = [o , . . . , o ], o 1 D
l'optimum global
= ( ) M, = [x , . . . , x ] [5, 5]D z x o x 1 D M
est une matrice de transformation linaire dont
nombre de conditionnement = 2
= [o , . . . , o ], o 1 D
l'optimum global
ak
k=0
cos
2bk
(zi + 0.5)
D
k=0
+ fbiais11 , fbiais11 = 90
nombre de conditionnement = 5
= [o , . . . , o ], o 1 D
l'optimum global
110
Ai =
i=1
Nom
de recherche
Expression analytique
Rfrence
Deb
f1 ( ) = x1 x [0.1, 1]
2
f 2 ( ) = x
2e
x2 0.2 0.004
0.8e x1
x2 0.6 0.4
30
ZDT1
[0, 1]30
30
ZDT2
h ( , f1 , g) = 1 x ( ) ) = g ( ) h ( , f , g) f2 ( x x x 1 f1 ( ) = x1 x ) = 1 + 9 D xi g(x
i=2 D1 x f1 () h ( , f1 , g) = 1 g x x ( ) f ( ) = g ( ) h ( , f , g) x x x 2 1 2
xi D1 x f1 () g x
[0, 1]30
30
ZDT3
[0, 1]30
f1 () x g x
( )
10
ZDT6
g ( ) = 1 + 9 x [0, 1]10
1( ) h ( , f1 , g) = 1 g x x ( ) ) = g ( ) h ( , f , g) f (x x x
D xi i=2 D1 f x
1 0.25 2
111
Nom
de recherche
Expression analytique
Rfrence
MOP5
[30, 30]
f1 ( ) = 0.5 x2 + x2 + sin x2 + x2 x 1 2 1 2 ) = (3x1 2x2 +4)2 + (x1 x2 +1)2 + 15 f2 ( x 8 27 2 2 1 f3 ( ) = x2 +x2 +1 1.1 ex1 x2 x
1 2
MOP6
x1 1+10x2
sin (24x1 )
113
114
Table B.1 Erreur pour les fonctions unimodales en dimension 10 pour FEs=103 , 104 et 105 .
FEs F1 F2 F3 F4 F5 FEs=103 1er 7me 13me 19me 25me Moyenne Variance FEs=104 1er 7me 13me 19me 25me Moyenne Variance FEs=105 1er 7me 13me 19me 25me Moyenne Variance 0.004347 0.011044 0.03552 0.096339 0.276081 0.068943 0.075044 0 0 0 0 0 0 0 0 0 0 0 0 0 0 17.156654 37.389443 58.212032 139.37427 346.374378 100.607688 91.541188 1.55e-10 3.36e-09 6.61e-08 7.61e-06 2.01e-03 1.57e-04 4.40e-04 0 0 0 0 5.68e-14 2.27e-15 1.11e-14 23736.314425 44778.393803 130599.062043 318787.308758 1594493.870254 273638.075237 388777.309094 4.001777e-11 7.671247e-09 5.475368e-07 0.000026 0.002139 0.000117 0.00042 0 0 0 0 0 0 0 39.090571 133.988893 237.769180 596.315063 3932.029550 577.302159 834.977069 0.000004 0.000085 0.000957 0.009582 0.363307 0.025930 0.072792 0 0 0 0 3.64e-14 9.09e-15 2.08e-14 146.139053 598.534137 862.570764 1313.068874 3228.512443 1110.369922 781.104211 0.095210 1.716032 11.366620 45.927941 1119.663894 72.416017 217.650700 0 0 5.68e-13 2.84e-08 1.11e-05 9.18e-07 2.44e-06
115
Table B.2 Erreur pour les fonctions multimodales en dimension 10 pour FEs=103 , 104 et 105 .
FEs F6 F7 F8 F9 F10 F11 F12 FEs=103 1er 7me 13me 19me 25me Moyenne Variance FEs=104 1er 7me 13me 19me 25me Moyenne Variance FEs=105 1er 7me 13me 19me 25me Moyenne Variance 203.463571 1646.790313 2127.361491 6475.698481 38601.955678 6586.931554 9386.941213 0.014145 4.386041 5.453284 7.075625 30.227322 6.385858 5.564184 0.004314 0.541085 0.747254 1.103226 2.169582 0.85882 0.570887 0.623361 0.982154 1.05142 1.462515 5.384111 1.33978 0.902277 0.061571 0.115684 0.137799 0.221471 0.440146 0.180578 0.10215 0.015287 0.051984 0.073769 0.091044 0.201614 0.077474 0.03942 20.485670 20.682525 20.769963 20.814313 20.915608 20.745941 0.096755 20.416319 20.485168 20.525583 20.600516 20.764823 20.545279 0.088329 20.416319 20.485168 20.525583 20.600516 20.764823 20.545279 0.088329 15.10467 33.675252 44.956646 55.474189 76.821327 43.309673 16.000977 2.984879 8.954626 14.924371 21.889039 50.742348 16.371514 11.22564 2.984877 5.969754 7.959667 9.949586 16.914269 8.556642 3.66922 16.23971 33.74019 47.748059 63.569776 84.542945 48.262753 17.973327 5.969754 10.94457 17.909248 23.878972 41.788129 19.052126 8.864428 5.969754 9.098987 10.94454 12.934458 27.858783 12.118002 4.660575 3.673786 6.84937 8.270853 8.761013 10.9190 7.935141 1.569063 2.793658 4.702974 5.44391 6.58871 8.413328 5.567022 1.424877 2.792143 3.456094 4.158164 4.871277 6.097017 4.233992 0.958315 1086.721513 2087.954288 5392.676747 14089.042494 42976.859515 9990.359131 10625.813191 1.822694 150.871807 1576.117425 5735.460084 14058.362618 3252.791878 3782.702898 0.009991 3.347386 18.856007 208.277865 5184.562815 401.055407 1066.232340
116
Table B.3 Erreur pour les fonctions tendues et composes en dimension 10 pour FEs=103 , 104
et 10
5.
FEs FEs=103 1er 7me 13me 19me 25me Moyenne Variance FEs=104 1er 7me 13me 19me 25me Moyenne Variance FEs=105 1er 7me 13me 19me 25me Moyenne Variance
F13 3.171010 4.066271 4.812523 5.322586 6.044543 4.703398 0.749118 0.083393 0.701463 1.156255 1.434762 1.767060 1.084210 0.436958 0.348796 0.472609 0.593114 0.674788 0.970072 0.545902 0.222001
F14 3.475790 4.002326 4.150536 4.300356 4.508500 4.138838 0.239739 2.798398 3.269073 3.576401 3.695722 4.022634 3.488787 0.325614 2.142077 2.58856 2.752672 3.087005 3.510396 2.777861 0.341739
F15 197.489562 423.264014 470.853547 626.471829 777.774774 491.856725 143.137483 124.185470 228.681273 384.060458 398.763970 646.622212 346.902015 132.223074 92.820102 126.050968 187.286285 264.809332 457.359199 212.15829 100.776783
F16 189.184315 235.981761 296.892300 312.520238 556.601713 307.959855 96.034311 155.201434 188.317715 204.072135 218.378360 553.128678 228.777700 95.73212 145.067276 169.775478 176.438753 187.096185 215.349429 177.530554 17.13220
F17 206.397449 285.067996 371.981281 477.090661 789.774458 426.898085 180.843460 163.389636 179.965528 202.972766 263.948551 707.856708 234.821253 105.063253 149.27214 163.169731 169.735632 186.123329 236.277438 176.305663 21.653134
117
Table B.4 Probabilit que l'erreur moyenne donne par TRIBES pour FEs= 103 soit plus petite
que les erreurs moyennes donnes par les autres algorithmes.
F1 G-CMA-ES EDA DE L-CMA-ES BLX-GL50 DMS-L-PSO L-SaDE SPC-PNX CoEVO K-PCX BLX-MA Standard PSO 24.72% 99.98% 99.49% 64.28% 100% 84.68% 99.88% 79.01% 97.56% 0% 100% 100%
F2 34.05% 96.97% 94.62% 64.99% 99.66% 99.57% 99.75% 97.24% 98.99% 0.01% 100% 87.31%
F3 85.06% 99.77% 97.54% 99.77% 99.64% 93.27% 96.53% 97.19% 98.12% 79.90% 99.77% 32.81%
F4 73.17% 99.66% 96.22% 99.99% 99.57% 99.97% 98.98% 92.81% 99.39% 99.98% 99.99% 61.69%
F5 8.30% 99.99% 99.84% 27.22% 99.99% 99.99% 99.99% 99.99% 99.99% 99.99% 99.99% 50.79%
F6 57.32% 90.29% 90.28% 41.19% 97.17% 72.82% 94.6% 64.01% 94.67% 31.01% 96.45% 69.97%
F7 30.30% 100% 98.09% 46.66% 100% 100% 99.73% 62.94% 97.15% 36.52% 97.44% 82.36%
F8 65.17% 100% 63.19% 39.51% 39.80% 39.63% 44.23% 99.94% 24.98% 38.68% 0% 74.23%
F9 29.57% 97.73% 23.86% 91.7% 93.69% 74.88% 73.16% 94.88% 88.27% 99.15% 31.26% 47.33%
F10 39.17% 99.13% 98.1% 91.74% 97.79% 92.16% 91.79% 96.72% 94.69% 99.42% 55.4% 62.04%
F11 50.51% 98.72% 98.33% 82.65% 98.32% 86.88% 97.07% 95.78% 95.37% 39.89% 68.92% 86.80%
Table B.5 Probabilit que l'erreur moyenne donne par TRIBES pour FEs= 104 soit plus petite
que les erreurs moyennes donnes par les autres algorithmes.
F1 G-CMA-ES EDA DE L-CMA-ES BLX-GL50 DMS-L-PSO L-SaDE SPC-PNX CoEVO K-PCX BLX-MA Standard PSO 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% -
F2 35.78% 99.66% 92.45% 0% 100% 100% 98.45% 79.33% 89.13% 0% 100% 0.29%
F3 39.31% 99.87% 99.42% 39.52% 96.36% 99.87% 96.75% 91.26% 90.99% 87.73% 99.25% -
F4 36.36% 99.73% 77.48% 88.03% 99.71% 99.6% 97.16% 77.66% 86.66% 98.96% 82.34% 36.46%
F5 36.94% 93.9% 37.28% 0% 37.56% 46.45% 71.78% 41.68% 99.68% 99.94% 55.59% 52.87%
F6 54.02% 96.23% 70.93% 17.62% 79.11% 89.25% 83.33% 69.38% 89.45% 15.1% 55.09% 69.84%
F7 4.06% 99.93% 99.98% 4.3% 100% 99.87% 100% 89.3% 99.87% 58.48% 99.39% 51.08%
F8 35.62% 45.38% 37.93% 29.58% 38.59% 8.53% 38.10% 100% 16.07% 0% 0.05% 54.12%
F9 18.68% 99.52% 0% 95.06% 34.32% 20.82% 19.37% 89.78% 89.71% 98.58% 16.23% 18.64%
F10 10.29% 99.03% 98.92% 95.56% 93.27% 67.08% 89.75% 98.59% 90.18% 99.83% 12.48% 39.13%
F11 32.56% 99.85% 99.78% 81.51% 99.68% 87.15% 91.93% 44.09% 98.91% 73.32% 89.06% 66.54%
118
Table B.6 Probabilit que l'erreur moyenne donne par TRIBES pour FEs= 105 soit plus petite
que les erreurs moyennes donnes par les autres algorithmes.
F1 G-CMA-ES EDA DE L-CMA-ES BLX-GL50 DMS-L-PSO L-SaDE SPC-PNX CoEVO K-PCX BLX-MA Standard PSO -
F2 -
F3 -
F4 -
F7 2.49% 100% 99.99% 0% 5.07% 26.38% 7.91% 57.62% 16.89% 76.17% 100% 51.87%
F10 0.50% 99.96% 99.99% 97.95% 9.38% 3.65% 7.47% 24.56% 93.2% 0.59% 8.30% 29.89%
F11 0.60% 97.5% 53.71% 38.03% 15.49% 61.9% 63.23% 6.12% 99.97% 89.63% 61.64% 59.41%
Table B.7 Nombre d'valuations de la fonction objectif ncessaires pour atteindre une prcision
donne pour
D=10.
F1 Prcision 1er 7me 13me 19me 25me Moyenne Variance Taux de succs Taux de performance 1E-06 1132 1341 1379 1405 1538 1364.72 82.27 1 1364.72
F5 1E-06 19310 33030 54219 68466 100000 55448 21856.65 0.88 63009.09
F6 1E-02 57732 1E+05 1E+05 1E+05 1E+05 98309.28 8282.80 0.04 2457725
F7 1E-02 14211 1E+05 1E+05 1E+05 1E+05 96568.44 16811.14 0.04 355275
119
Table
Performance normaliss
Comparaison des
Taux de succs
et des
Taux de
F1 Taux de succs 100% 98% 96% 86% 86% 80% 80% 80% 76% 72% 59% 57%
98%
F2 2400 1 (25) 4.6 (25) 19.2 (25) 1.89(25) 1.1 (25) 17.1 (25) 12.9 (25) 11.3 (25) 5 (25) 4.2 (25) 15.4 (25) 1 (25)
2.75 (25)
F3 6500 1 (25) 2.5 (23) 18.5 (20) 1.28(25) 1 (25) 6.8 (25) 1.8 (25) 8 (16) 1.60(25)
F4 2900 1 (25) 4.1 (25) 17.9 (25) 4.05 (24) 65.5 (7) 14.5 (25) 10.7 (25) 16.2 (25) 15.9 (24) 25.9 (24) 19.7 (21)
5.99 (25)
F5 5900 1 (25) 4.2 (25) 6.9 (25) 9.51(9) 1 (25) 4.7 (25) 6.8 (25) 18.6 (20) 10.67 (22)
G-CMA-ES EDA DE Standard PSO L-CMA-ES BLX-GL50 SPC-PNX CoEVO DMS-L-PSO L-SaDE BLX-MA K-PCX
TRIBES
1000 1.6 (25) 10 (25) 29 (25) 1.92(25) 1.7 (25) 19 (25) 6.7 (25) 23 (25) 12 (25) 10 (25) 12 (25) 1 (25)
1.3 (25)
120
Table
Performance normaliss
Comparaison des
Taux de succs
et des
Taux de
F6 Taux de succs 65% 45% 37% 36% 33% 33% 25% 16% 14% 12% 3% 0%
1%
F7 4700 1 (25) 36.2 (6) 126 (4) 255 (2) 1.2 (25) 12.3 (9) 383 (1) 404 (1) 75.59 (1)
F8 59585 -
F9 17000
F10 55000
G-CMA-ES K-PCX L-SaDE DMS-L-PSO DE L-CMA-ES BLX-GL50 SPC-PNX Standard PSO BLX-MA EDA CoEVO
TRIBES
7100 1.5 (25) 9.6 (22) 6.6 (24) 1.3 (25) 7.3 (25) 7.7 (25) 6.69 (25) 1 (22) 8.22(21) 346.15(1)
4.5 (19) 1.2 (23) 2.9 (24) 1 (22) 1 (25) 2.1 (25) 10.6 (11) 10 (3) 5.7 (18) -
121
Table B.10 Erreurs obtenues par TRIBES pour les fonctions unimodales F1 F5 pour FEs=103 ,
10 , 10
5 et
3 105
en dimension 30.
FEs 1er 7me 13me 19me 25me Moyenne Variance FEs=104 1er 7me 13me 19me 25me Moyenne Variance FEs=105 1er 7me 13me 19me 25me Moyenne Variance FEs=3 105 1er 7me 13me 19me 25me Moyenne Variance FEs=103
F1 545.401319 763.736762 952.377579 1175.006339 2135.289475 1078.901830 438.636560 8.76923e-10 2.34268e-08 1.57023e-07 6.90545e-07 1.63378e-06 3.81567e-07 4.60849e-07 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 -
F2 23753.455258 36551.200224 41729.732379 48020.937603 73057.951110 42257.908075 10513.104038 1157.692640 2456.192247 3261.409112 4527.274681 8610.326003 3619.335066 1621.557782 0.065053 0.214957 0.329139 0.459690 1.238312 0.412722 0.288669 9.07801e-08 1.61207e-06 4.95458e-06 9.42962e-06 3.0105e-05 7.19735e-06 7.73998e-06
F3 4.27361e+07 8.51668e+07 9.91835e+07 1.23047e+08 2.30009e+08 1.08777e+08 4.22558e+07 3.60156e+06 7.75657e+06 9.74018e+06 1.13803e+07 2.07468e+07 1.05132e+07 4.37557e+06 813066.45845 1.54066e+06 1.90716e+06 2.27242e+06 3.76743e+06 2.01593e+06 698066.45436 598704.350987 855999.379857 1014045.152060 1247628.169888 1887991.141906 1069031.474667 334378.671805
F4 32573.551403 45090.823064 57324.701513 77243.382507 107561.251077 61096.008923 19032.203746 8932.572469 14849.919239 21635.111487 25567.005027 32501.740810 21030.406402 6441.561675 516.631486 948.127901 1447.308771 2054.595836 4088.917498 1551.897873 804.590438 25.455964 55.108733 105.279604 155.578752 263.511924 114.536412 64.802493
F5 7055.819362 10868.133323 12457.704085 13882.372397 17034.082175 12098.970689 2462.033587 3187.995258 4014.106435 4949.878258 6143.642470 8873.854482 5161.075479 1450.382821 1812.453648 2794.833156 3426.708974 4445.213415 5819.294765 3573.855339 1001.152670 1216.232084 2346.496762 2659.422989 3298.160834 4732.928081 2904.395914 893.729250
122
Table
B.11 Erreurs obtenues par TRIBES pour les fonctions multimodales F6 F12 pour
F8 21.056059 21.171188 21.221481 21.242706 21.298876 21.204342 0.059272 21.032120 21.058639 21.115257 21.156435 21.181138 21.109398 0.047673 20.839995 20.961109 21.018591 21.045619 21.066397 20.989665 0.066620 20.815151 20.907250 20.962332 20.990927 21.054735 20.940385 0.065990
F9 187.265639 249.604655 271.948330 287.091759 406.081078 273.795732 43.602115 42.936466 61.621876 76.893785 92.878949 162.958231 81.094363 26.525312 42.566535 49.747867 59.861496 68.652044 86.147111 60.061898 12.161238 36.617389 45.768041 54.309993 62.349902 77.728616 54.915138 10.860816
F10 285.218958 306.145836 325.744326 340.021783 438.236754 331.165661 34.758146 80.173776 112.631522 128.923325 182.153706 246.566326 148.598773 51.585323 35.555125 52.991327 70.524538 78.348288 123.191450 68.788406 17.885204 32.471423 46.330144 50.842266 62.444743 72.461759 53.290049 12.316491
F11 31.896924 35.902835 38.507720 41.047662 45.843919 38.871644 3.900798 17.007092 23.086002 27.936516 28.776337 30.678365 25.920437 3.984833 14.705651 18.163141 20.389028 23.403583 26.988445 20.671717 3.358757 13.148180 17.221012 18.760161 20.308537 24.281864 18.886322 2.767368
F12 108258.095532 157464.201553 191766.228493 247644.941821 451068.981703 215511.037627 81816.336469 3611.325757 14344.047438 27461.024901 57245.400760 143722.805979 37867.177531 32126.004765 591.258305 4521.349844 7906.540961 15837.006895 38892.189697 10975.585704 9347.985658 423.138620 1441.010871 2401.051302 7512.223871 27042.396094 6125.519784 7332.809051
123
Table B.12 Erreurs obtenues par TRIBES pour les fonctions unimodales F1 F5 pour FEs=103 ,
10 , 10
5 et
5 105
en dimension 50.
FEs 1er 7me 13me 19me 25me Moyenne Variance FEs=104 1er 7me 13me 19me 25me Moyenne Variance FEs=105 1er 7me 13me 19me 25me Moyenne Variance FEs=5 105 1er 7me 13me 19me 25me Moyenne Variance FEs=103
F1 7373.798751 13582.060330 14654.659667 18078.306341 23029.561123 15373.138183 3553.869792 0.00045 0.002793 0.012681 0.038681 0.095290 0.022326 0.024181 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 -
F2 66512.243201 123132.752712 132489.995334 154687.092015 177734.220606 136021.355994 24836.430592 18343.212051 26256.755860 33668.457975 38466.704353 43600.143258 32404.253572 7381.423033 546.036631 942.168600 1113.865921 1450.544282 2334.117640 1256.383381 511.503268 0.444382 1.011717 1.319648 1.880692 2.925234 1.527317 0.773144
F3 1.608408e+08 3.490499e+08 3.995339e+08 5.436261e+08 8.970324e+08 4.470123e+08 1.731368e+08 2.073663e+07 3.725160e+07 4.771993e+07 5.798409e+07 9.830602e+07 5.054105e+07 1.763190e+07 7.639610e+06 9.828907e+06 1.117745e+07 1.313159e+07 1.801836e+07 1.168230e+07 2.705968e+06 7.639610e+06 9.828907e+06 1.117745e+07 1.313159e+07 1.801836e+07 1.168230e+07 2.705968e+06
F4 1.096512e+05 1.541903e+05 1.775259e+05 1.992400e+05 2.453915e+05 1.785500e+05 3.708685e+04 5.316309e+04 7.464497e+04 8.701098e+04 9.582370e+04 1.173356e+05 8.593429e+04 1.562124e+04 2.303105e+04 2.861164e+04 3.834594e+04 4.049924e+04 4.818047e+04 3.554161e+04 7.935071e+03 3.929082e+03 8.238943e+03 9.877399e+03 1.207335e+04 1.588878e+04 1.003315e+04 2.710695e+03
F5 19776.750982 24905.440048 26795.888081 30405.058354 39602.474627 28010.523749 5055.179819 8895.099403 10867.563346 11796.904609 13032.312161 20798.492757 12528.211571 2725.159823 5990.765568 6663.180346 7506.657817 9513.361510 11020.584031 8136.961363 1559.783989 5260.547389 6139.722171 6741.550803 8347.882926 9986.382681 7168.083978 1342.863057
124
Table B.13 Erreurs obtenues par TRIBES pour les fonctions multimodales F1 F5 pour FEs=103 ,
10 , 10
5 et
5 105
en dimension 50.
FEs FEs=103 1er 7me 13me 19me 25me Moyenne Variance FEs=104 1er 7me 13me 19me 25me Moyenne Variance FEs=105 1er 7me 13me 19me 25me Moyenne Variance FEs=5 105 1er 7me 13me 19me 25me Moyenne Variance
F6 6.676345e+08 1.502741e+09 2.102731e+09 3.203172e+09 7.085885e+09 2.567254e+09 1.566098e+09 6.102731e+01 7.367784e+02 1.516126e+03 5.897766e+03 1.710479e+04 4.447202e+03 5.420401e+03 41.431073 44.562834 45.558088 100.111610 933.549769 135.990197 198.555711 36.409515 38.880127 39.625544 41.959751 213.409772 57.607742 44.178837
F7 456.524380 557.430595 647.983077 836.367432 1222.275318 688.664200 193.401528 0.816631 0.972842 1.094367 1.143562 1.460009 1.079263 0.139955 2.907517e-06 1.161803e-04 7.462253e-03 9.925737e-03 1.479109e-02 6.369441e-03 5.068086e-03 3.410605e-13 4.831691e-13 7.396040e-03 9.857285e-03 1.477978e-02 5.323914e-03 4.961702e-03
F8 21.234798 21.311694 21.346268 21.377617 21.407934 21.338811 0.043641 21.109296 21.228355 21.264091 21.286178 21.327707 21.251033 0.048455 20.405250 21.152316 21.181590 21.208740 21.253827 21.145569 0.157824 20.262322 21.093476 21.113697 21.159861 21.184178 21.084618 0.172698
F9 465.537510 553.900449 595.439355 643.693590 879.884348 596.145274 82.419408 148.236247 376.164593 453.379153 487.744376 530.327958 413.006171 102.862691 86.563856 99.614556 123.076870 145.046664 164.427758 123.107381 24.416071 81.842922 95.353745 112.144946 124.494016 148.818196 110.142961 19.008936
F10 513.461528 625.415037 660.080508 687.156062 767.535534 658.790550 52.848078 148.236247 376.164593 453.379153 487.744376 530.327958 413.006171 102.862691 79.786767 120.221918 129.999699 147.253598 212.920642 137.292408 28.455030 55.686656 80.591477 87.556288 102.935947 136.309043 91.540077 17.366791
F11 65.753077 71.808955 76.316146 79.698272 85.009848 75.932692 5.342803 34.243716 49.407092 52.859016 57.316236 68.796546 53.309136 8.805442 31.436250 38.677564 40.724507 43.990335 49.109166 40.875080 4.355602 31.436208 35.548696 39.387344 40.414953 47.766014 38.483802 3.760477
F12 1.678901e+06 1.945224e+06 2.300503e+06 2.569254e+06 3.441769e+06 2.363485e+06 4.933425e+05 1.040067e+05 2.168960e+05 3.310868e+05 3.871801e+05 7.210531e+05 3.278379e+05 1.442562e+05 2.748311e+04 9.110961e+04 1.464058e+05 2.512531e+05 6.820534e+05 1.890965e+05 1.355189e+05 1.790812e+04 5.492813e+04 1.330062e+05 1.526228e+05 3.377268e+05 1.351737e+05 8.656101e+04
125
F1 BLX-GL50 BLX-MA CoEVO DE DMS-L-PSO EDA G-CMA-ES K-PCX L-CMA-ES L-SaDE SPC-PNX SPSO TRIBES 9.87e-9 9.98e-9 0.79 0.0 48.83 5.42e-9 9.47e-9 5.28e-9 9.34e-9 0.0 0.0
F2
F9
F10 35.19 90.58 232.35 61.60 238.62 1.65 0.517 5.63e+2 60.297 96.06 53.29
F11 24.74 31.13 37.70 32.60 39.76 5.48 29.50 15.20 18.09 34.32 18.88
F12 9.52e+3 4.39e+3 1.01e+5 8.43e+3 4.47e+5 4.43e+4 1.68e+3 1.32e+4 1.31e+4 8.14e+4 6.12e+3
9.83e-9 8.71e-6 0.44 5.49e-8 161.25 6.22e-9 9.85e-9 6.93e-9 6.94e-7 0.0 7.19e-6
15.10 0.68 1.31e+2 0.0 229.79 0.93 0.27 2.91e+2 23.93 43.40 54.91
F1 BLX-GL50 BLX-MA CoEVO DE DMS-L-PSO EDA G-CMA-ES K-PCX L-CMA-ES L-SaDE SPC-PNX SPSO TRIBES 5.87e-9 6.20e-9 0.0 0.0
F2 -
F9 -
Rfrences bibliographiques
(2006).
fractional experimental design and local search , Operations Researchs, Vol. 54, N1, 2006. [Alba, 2005] E. Alba. (2005). Parallel Metaheuristics : A New Class of Algorithms , 2005, John Wiley & sons. [Andreani et al., 2001] P. Andreani, H. Sjoland. (2001). Noise Optimisation of an Inductively Degenerated CMOS Low Noise Amplier , IEEE Transactions on circuits and systems, Vol. 48, pp. 835-841, 2001. [Angeline, 1998] P. Angeline. (1998). Evolutionary optimization versus particle swarm optimization , Proceedings of the Evolutionary Programming VII, pp. 601-610, 1998, Springer. [Auger et al., 2005] A. Auger, S. Kern, N. Hansen. (2005). A Restart CMA Evolution Strategy with Increasing Population Size , Proceedings of 2005 Congress on Evolutionary Computation, 2005, pp. 1769-1776, IEEE Computer Society. [Auger et al., 2005b] A. Auger, S. Kern, N. Hansen. (2005). Performance Evaluation of an Ad-
vanced Local Search Evolutionary Algorithm , Proceedings of 2005 Congress on Evolutionary Computation, 2005, pp. 1777-1784, IEEE Computer Society. [Avriel, 2003] M. Avriel. (2003). Nonlinear Programming : Analysis and Methods , 2003, Dover Publishing. [Azencott, 1992] R. Azencott. (1992). Simulated Annealing : Parallelization Techniques , 1992, John Wiley & sons. [Ballester et al., 2005] P. J. Ballester, J. Stephenson, J. N. Carter, K. Gallagher. (2005). Real-
Parameter Optimization Performance Study on the CEC'2005 benchmark with SPC-PNX , Proceedings of 2005 Congress on Evolutionary Computation, 2005, pp. 498-505, IEEE Computer Society. [Banks et al., 2007] A. Banks, J. Vincent, C. Anyakoha. (2007). A review of Particle Swarm Optimization. Part I: background and development , Natural Computing, Vol. 6, N4, pp. 467-484, 2007. [Banks et al., 2007b] A. Banks, J. Vincent, C. Anyakoha. (2007). A review of Particle Swarm Optimization. Part II: hybridisation, combinatorial, multicriteria and constrained optimization, and indicative applications , Natural Computing, Vol. 7, N1, pp. 109-124, 2007. [Bartz-Beielstein et al., 2003] T. Bartz-Beielstein, P. Limbourg, K.E. Parsopoulos, M.N. Vrahatis, J. Mehnen, K. Schmitt. (2003). Particle swarm optimizers for pareto optimization with enhanced archiving techniques , Proceedings of the 2003 Congress on Evolutionary Computation, Vol. 3, pp. 1780-1787, IEEE Press. [Battiti, 1996] R. Battiti. (1996). Reactive search: toward self tuning heuristics , Modern Heuristic Search Methods, pp. 61-83, John Wiley & Sons. 127
128
RFRENCES BIBLIOGRAPHIQUES
[Baumgartner et al., 2004] U. Baumgartner, C. Magelle, W. Renhart. (2004). Pareto optimality and particle swarm optimization , IEEE Transactions on Magnetics, Vol. 40, N2, pp. 1172-1175, 2004. [Bavelas, 1950] A. Bavelas. (1950). Communication patterns in task-oriented groups , Journal of the Acoustical Society of America, Vol. 22, pp. 271-282, 1950. [Bazavi, 1998] R. Basavi. (1998). RF Microelectronics , 1998, Prentice Hall Press. [Bazi et al., 2007] Y. Bazi, L. Bruzzone, F. Melgani. (2007). Image thresholding based on the EM algorithm and the generalized Gaussian distribution , Pattern Recognition Journal, Vol. 40, pp. 619634, 2007. [Benlian et al., 2007] X. Benlian, W. Zhiquan. (2007). A multiobjective ACO-based data association method for bearings-only multi-target tracking , Communications in Nonlinear Science and Numerical Simulation, Vol. 12, pp. 1360-1369, 2007. [Ben Salem et al., 2006] S. BenSalem, M. Fakhfakh, (et al.). (2006). A High Performances CMOS CCII and High Frequency Applications , Journal of Analog Integrated Circuits and Signal Processing, Vol. 49, N 1, 2006. [Berro, 2001] A. Berro. (2001). Optimisation multiobjectif et stratgies d'volution en environnement dynamique , Thse de doctorat de l'Universit des Sciences Sociales de Toulouse I, 2001. [Bertsekas, 2000] D.P. Bertsekas. (2000). Dynamic Programming and Optimal Control , Vols. 1 & 2, 2nd ed, 2000, Athena Scientic. [Beyer, 2001] H.G. Beyer. (2001). The theory of evolution strategies , Natural Computing Series, 2001, Springer. [Biggs et al., 1976] N.L. Biggs, E.K. Lloyd, R.J. Wilson. (1976). Graph Theory 1736-1936 , 1976, Clarendon Press. [Birattari et al., 2002] M. Birattari, T. Sttzle, L. Paquete, K. Varrentrapp. putation Conference GECCO 2002, pp. 11-18, Morgan Kaufmann. [Blum, 2005] C. Blum. (2005). Ant colony optimization : Introduction and recent trends , Physics of Life Review, Vol. 2, pp. 353-373, 2005. [Bougahriou et al., 2008] M. Boughariou, M. Fakhfakh, M. Ben Amor, M. Loulou, Y. Cooren, P. Siarry. (2008). Optimizing a low noise amplier for UMTS standard through a heuristic , European Conference on Circuits and Systems for Communications 2008, IEEE Press. [Branke, 2001] J. Branke. (2001). Evolutionary Optimization in Dynamic Environments , Genetic Algorirhms and Evolutionary Computation, Vol. 3, 2001, Kluwer Academic Publishers. [Campana et al., 2006] E.F. Campana, G. Fasano, D. Peri, A. Pinto. (2006). Particle Swarm Optimization : Ecient Globally Convergent Modications , Proceedings of the 3 Springer. [Cerny, 1985] V. Cerny. (1985). Thermodynamical approach to the travelling salesman problem , Journal of Optimization Theory and Applications, Vol. 45, N 1, pp. 41-51, 1985. [Chen et al., 2004] L. Chen, X.H. Xu, Y.X. Chen. pp. 1387-1392, IEEE Press. [Cheriet et al., 1998] M. Cheriet, J.N. Said, C.Y. Suen. (1998). A recursive thresholding technique for image segmentation , IEEE Trans. on Image Processing, Vol. 7, N6, pp. 918-921, 1998. (2004). An Adaptive Ant Colony Clustering (2002). A racing
algorithm for conguring metaheuristics , Proceedings of the Genetic and Evolutionary Com-
rd
European
Algorithm , Proceedings of the 3rd Conference on Machine Learning and Cybernetics, 2004,
RFRENCES BIBLIOGRAPHIQUES
[Chow et al., 2004] C. Chow, H. Tsui. (2004).
129
species particle swarm optimization , Proceedings of the IEEE Congress on Evolutionary Computation, Vol. 1, pp. 778-785, 2004, IEEE Press. [Clerc et al., 2002] M. Clerc, J. Kennedy. tation, Vol. 6, pp. 58-73, 2002. [Clerc, 2003] M. Clerc. (2003). TRIBES - Un exemple d'optimisation par essaim particulaire sans paramres de contrle , Confrence OEP'03, 2 Octobre , 2003, Paris, France. [Clerc, 2005] M. Clerc. (2005). Binary Particle Swarm Optimisers: toolbox, derivations, and (2002). The particle swarm: explosion, stability, and
mathematical insights ,
https://hal.archives-ouvertes.fr/hal-00122809.
[Clerc, 2006] M. Clerc. (2006). Particle Swarm Optimization , International Scientic and Technical Encyclopaedia, 2006, John Wiley & sons. [Cocosco et al., 2003] C.A. Cocosco, A.P. Zijdenbos, A.C. Evans. (2003). A fully automatic and robust brain MRI Tissue Classication , Medical Image Analysis, Vol. 7, pp. 513527, 2003. [Coello Coello et al., 2002] C.A. Coello Coello, D.A. Veldhuizen, G.B. Lamont. (2002). Evolutionary Algorithms for Solving Multi-Objective Problems , Kluwer Academic Publishers. [Coello Coello et al., 2002b] C.A. Coello Coello, M. Salazar Lechuga. (2002). MOPSO : a proposal for multiple objective particle swarm optimization , Proceedings of the 2002 IEEE Congress on Evolutionary Computation, Vol. 2, pp. 1051-1056, IEEE Press. [Coello Coello et al., 2004] C.A. Coello Coello, G. Toscano Pulido, M. Salazar Lechuga. (2004). Handling multiple objectives with particle swarm optimization , IEEE Transactions on Evolutionary Computation, Vol. 8, N 3, pp. 256-279, 2004. [Collette et al., 2002] Y. Collette, P. Siarry. (2002). Optimisation multiobjectif , 2002, Eyrolles. [Colorni et al., 1992] A. Colorni, M. Dorigo, V. Maniezzo. (1992). Distributed Optimization by Ant Colonies , Proceedings of the 1 Elsevier Publishing. [Conn et al., 1996] A. R. Conn et al.. (1996). Optimization of custom MOS circuits by transistor sizing , Proceedings of the International Conference on Computer-Aided Design ICCAD96, pp. 174-190, 1996, IEEE Press. [Cooren et al., 2007] Y. Cooren, M. Clerc, P. Siarry. (2007). Initialization and Displacements of the Particles in TRIBES, a Parameter-free Particle Swarm Optimization Algorithm , Adaptive and Multilevel Metaheuristics, pp. 199-219, Springer. [Cooren et al., 2007b] Y. Cooren, M. Fakhfakh, M. Loulou, P. Siarry. (2007). Optimizing second generation current conveyors using particle swarm optimization , Proceedings of the 19th IEEE International Conference on Microelectronics, pp. 365-368, IEEE Press. [Cooren et al., 2008] Y. Cooren, M. Clerc, P. Siarry. (2008). Performance Evaluation of TRIBES, an Adaptive Particle Swarm Optimization Algorithm , Swarm Intelligence, Springer.
rst
En rvision.
[Cooren et al., 2008b] Y. Cooren, M. Clerc, P. Siarry. (2008). MO-TRIBES, an adaptive multiobjective particle swarm optimization algorithm , Computational Optimization and Applications, Springer.
Soumis.
[Cooren et al., 2008c] Y. Cooren, A. Nakib, P. Siarry. (2008). Image Thresholding using TRIBES, a parameter-free Particle Swarm Optimization Algorithm , Proceedings of the International Conference on Learning and Intelligent Optimization (LION II), Springer.
paratre.
130
RFRENCES BIBLIOGRAPHIQUES
[Courat et al., 1994] J. Courat, G. Raynaud, I. Mrad, P. Siarry. (1994). Electronic component model minimisation based on Log Simulated Annealing , IEEE Transactions on Circuits and Systems, Vol. 41, N 12, pp. 790-795, 1994. [Deb, 1999] K. Deb. (1999). Multi-Objective Genetic Algorithms: Problem Diculties and Construction of Test Problems , Evolutionary Computation, Vol.7, N3, pp. 205-230, 1999. [Deb et al., 2002] K. Deb, S. Agrawal, A. Pratap, T. Meyarivan. (2002). A Fast Elitist NonDominated Sorting Genetic Algorithm for Multiobjective Optimization : NSGA-II , IEEE Transactions on Evolutionary Computation, Vol. 5, N3, pp. 115-148, 2002. [Di Caro et al., 1998] G. Di Caro, M. Dorigo. (1998). Ant colonies for adaptive routing in packetswitched communications networks , Proceedings of the 5
Problem Solving from Nature, 1998, LNCS 1498, pp. 673-682, Springer. [Di Caro et al., 1998b] G. Di Caro, M. Dorigo. (1998). AntNet: Distributed Stigmergetic Control for Communications Networks , Journal of Articial Intelligence Research (JAIR), Vol. 9, pp. 317-365, 1998. [Doerner et al., 2004] K. Doerner et al.. (2004). Pareto Ant Colony Optimization : a metaheuristic approach to multiobjective project portofolio selection , Annals of Operations Research, Vol. 131, pp. 79-99, 2004. [Doerner et al., 2006] K. Doerner et al.. (2006). Pareto Ant Colony Optimization with ILP preprocessing in multiobjective project portofolio selection , European Journal of Operational Research, Vol. 171, pp. 830-841, 2006. [Dorigo et al., 1996] M. Dorigo, V. Maniezzo, A. Colorni. (1996). Ant System : optimization by a colony of cooperating agents , IEEE Transactions on Man. Cyber., Part B, Vol. 26, N1, pp. 29-41, 1996. [Dorigo et al., 2005] M. Dorigo, C. Blum. (2005). Ant colony optimization theory : A survey , Theoretical Computer Science, Vol. 344, pp. 243-278, 2005. [Drapaca et al., 2005] C.S. Drapaca, V. Cardenas, C. Studholme. (2005). Segmentation of tissue boundary evolution from brain MR image sequences using multi-phase level sets , Computer Vision and Image Understanding, Vol. 100, pp. 312329, 2005. [Eberhart et al., 1995] R.C. Eberhart, J. Kennedy. (1995). A new optimizer using particle swarm theory , Proceedings of the 6
1995, pp. 39-43, IEEE Press. [Eberhart et al., 1996] R.C. Eberhart, P. Simpson, R. Dobbins. (1996). Computational PC Tools , chapter 6, pp. 212-226, 1996, AP Professional. [Eberhart et al., 2000] R.C. Eberhart, Y. Shi. (2000). Comparing inertia weights and constriction factors in particle swarm optimization , Proceedings of the 6 Computation, pp. 84-88, 2000, IEEE Press. [Eiben et al., 2003] A.E. Eiben, J.E. Smith. (2003). Introduction to Evolutionary Computing , Natural Computing Series, 2003, Springer. [Engrand, 1997] P. Engrand. (1997). A multi-objective optimization approach based on simulated annealing and its application to nuclear fuel management , Proceedings of the 5 Engineers. [Fan et al., 2001] H.Y. Fan, Y. Shi. (2001). Study on University Indianapolis Press.
th
Internatio-
nal Conference on Nuclear Engineering, pp. 416-423, 1997, American Society Of Mechanical
Vmax
RFRENCES BIBLIOGRAPHIQUES
131
[Fogel et al., 1966] L.J. Fogel, A.J. Owens, M.J. Walsh. (1966). Articial Intelligence through Simulated Evolution , 1966, John Wiley & sons. [Fonseca et al., 1995] C.M. Fonseca, P.J. Flemming. (1995). An overview of evolutionary algorithms in multiobjective optimization , Evolutionary Computation, Vol. 3, N1, pp. 205-209, 1995. [Fonseca et al., 1996] C.M. Fonseca, P.J. Flemming. On the performance assessment and comparison of stochastic multiobjective optimizers , Proceedings of the Parallel Problem Solving from Nature IV Conference, pp. 584-593, 1996, Lecture Notes in Computer Science, Springer. [Frster et al., 2007] M. Frster, B. Bickel, B. Hardung, G. Kkai. (2007). Self-adaptive ant colony optimization applied to function allocation in vehicle networks , Proceedings of the 9th annual Conference on Genetic and Evolutionary Computation, 2007, pp. 1991-1998, ACM Press. [Fraser, 1957] A.S. Fraser. (1957). Simulation of genetic systems by automatic digital computers , Australian Journal of Biological Sciences, Vol. 10, pp. 484-491, 1957. [Friedman, 1937] M. Friedmann. (1937). "The use of ranks to avoid the assumption of normality implicit in the analysis of variance", Journal of the American Statistical Association, Vol. 32 (200), pp. 675701, 1937. [Friesz et al., 1993] T.L. Friesz et al.. (1993). The multiobjective equilibrium network design problem revisited : a simulated annealing approach , European Journal of Operational Research, Vol. 65, pp. 44-57, 1993. [Gagn et al., 2004] C. Gagn, M. Gravel, W.L. Price. (2004). Optimisation multiobjectif l'aide d'un algorithme de colonies de fourmis , Inf. Syst. and Operational Research, Vol. 42, N1, pp. 23-42, 2004. [Garca-Martnez et al., 2005] C. Garca-Martnez, M. Lozano. (2005). Hybrid Real-Coded Genetic Algorithms with Female and Male Dierentiation , Proceedings of 2005 Congress on Evolutionary Computation, 2005, pp. 896-903, IEEE Computer Society. [Gielen et al., 1991] G. Gielen, W. Sansen. (1991). Symbolic Analysis for Automated Design of
Analog Integrated Circuits , 1991, Kluwer Academic Publishers. [Glover, 1986] F. Glover. (1986). Future paths for integer programming and links to articial intelligence , Computers and Operations Research, Vol. 13, pp. 533-549, 1986. [Glover et al., 1997] F. Glover, M. Laguna. (1997). Tabu Search , 1997, Kluwer Academic Publishers. [Goldberg et al., 1987] D.E. Goldberg, J. Richardson. (1987). Genetic Algorithms whih Sharing for Multimodal Function Optimization , Proceedings of the 2
nd
International Conference on
Genetic Algorithms, 1987, pp. 41-49, Lawrence Earlbaum Associates. [Goldberg, 1989] D.E. Goldberg. (1989). Genetic Algorithms in Search, Optimization and Machine Learning , 1989, Addison-Wesley. [Gonzalez et al., 2002] R.C. Gonzalez, R.E. Woods. (2002). Digital image processing , 2002, Prentice Hall. [Goss et al., 1989] S. Goss, S. Aron, J.L. Deneubourg, J.M. Pasteels. (1989). Self-Organized Shortcuts in the Argentine Ant , Naturwissenchaften, Vol. 76, pp. 579-581, 1989. [Graeb et al., 2001] H. Graeb, S. Zizala, J. Eckmueller, K. Antreich. (2001). The sizing rules method for analog integrated circuit design , IEEE/ACM International Conference on Computer-Aided Design, ICCAD'01, pp. 343-349, 2001, IEEE Press. [Harary, 1994] F. Harary. (2004). Graph Theory , 1994, Addison-Wesley, Reading.
132
RFRENCES BIBLIOGRAPHIQUES
[Hastings, 1970] W.K. Hastings. (1970). Monte Carlo sampling method using Markov chains and their applications , Biometrica, Vol. 57, 1970. [Holland, 1973] J.H. Holland. (1973). Genetic Algorithms and the optimal allocation of trials , SIAM Journal of Computing, Vol. 2, pp. 88-105, 1973.
[Holland, 1992] J.H. Holland. (1992). Adaptation in Natural and Articial Sytems , 2 1992, MIT Press.
nd
edition,
[Hu et al., 2002] X. Hu, R.C. Eberhart. (2002). Multiobjective optimization using dynamic neighborhood particle swarm optimization , Proceedings of the 2002 IEEE Congress on Evolutionary Computation, Vol. 2, pp. 1677-1681, IEEE Press. [Hu et al., 2003] X. Hu, R.C. Eberhart, Y. Shi. (2003). Particle Swarm with Extended Memory for Multiobjective Optimization , Proceedings of the 2003 IEEE Swarm Intelligence Symposium, pp. 193-197, IEEE Press. [Hung et al., 1990] K. K. Hung, P. K. Ko, C. Hu, Y. C. Cheng. (1990). A physics-based MOSFET noise model for circuit simulators , IEEE Trans. Electronic Devices, Vol. 37, pp. 13231333, 1990. [Hutter et al., 2006] F. Hutter, Y. Hamadi, H.H. Hoos, K. Leyton-Brown. (2006). Performance
Prediction and Automated Tuning of Randomized and Parametric Algorithms , Proceedings of the Principles and Practice of Constraint Programming Conference, 2006, pp. 213-228, LNCS 4204, Springer. [Ingber, 1996] L. Ingber. (1996). Adaptive Simulated Annealing (ASA): lessons learned , Control and Cybernetics, Vol. 25, N 1, pp. 33-54, 1996. [Iqbal et al., 2006] M. Iqbal, M.A. Montes de Oca. (2006). An estimation of distribution particle swarm optimization algorithm , Proceedings of the 5 Optimization and Swarm Intelligence, pp. 72-83, 2006, LNCS 4150, Springer. [Ishibushi et al., 1998] H. Ishibushi, T. Murata. (1998). A multiobjective genetic local search algorithm and its application to owshop scheduling , IEEE Transactions on Systems, Man and Cybernetics, Vol. 28, N3, pp. 1732-1743, 1998. [Janson et al., 2005] S. Janson, M. Middenhorf. (2005). A hierarchical particle swarm optimizer and its adaptive variant , Proceedings of the 2004 Evoworkshops, pp. 513-524, 2005, LNCS 3005, Springer. [Jin et al., 2001] Y. Jin, T. Okabe, B. Sendho. (2001). Dynamic weighted aggregation for evolutionary multiobjective optimization : why does it work and how ? , Proceedings of the Genetic and Evolutionary Conference, pp. 1042-1049, Morgan Kaufman Publishers. [Kamber et al., 2000] M. Kamber, R. Shinghal, D.L. Collins, G.S. Francis, A.C. Evans. (2000). Model-based segmentation of multiple sclerosis lesions in magnetic resonance brain images , IEEE Trans. on Med. Imaging, Vol. 14, pp. 442453, 2000. [Kapur et al., 1985] J.N. Kapur, P.K. Sahoo, A.C.K. Wong. (1985). A new method for gray-level picture thresholding using the entropy of the histogram , Computer Vision, Graphics and Image Processing, Vol. 29, pp. 273-285, 1985. [Kennedy et al., 1995] J. Kennedy, R.C. Eberhart. (1995). Particle Swarm Optimisation , Proceedings of the IEEE International Conference On Neural Networks, 1995, pp. 1942-1948, IEEE Press.
[Kennedy, 1998] J. Kennedy. (1998). The behavior of particles , Proceedings of the 7 on Evolutionary Computation, pp. 581-589, LNCS, Springer.
th Conference
RFRENCES BIBLIOGRAPHIQUES
133
[Kennedy, 1999] J. Kennedy. (1999). Small worlds and mega-minds : eects of neighborhood topology on particle swarm performance , Proceedings of the 1999 IEEE Congress on Evolutionary Computation, pp. 1931-1938, 1999, IEEE Press. [Kennedy et al., 2001] J. Kennedy, R.C. Eberhart, Y. Shi. (2001). Swarm Intelligence , 2001, Morgan Kaufmann Academic Press. [Kennedy, 2003] J. Kennedy. (2003). Bare bones particle swarms , Proceedings of the 2003 IEEE Swarm Intelligence Symposium, pp. 80-87, 2003, IEEE Press. [Kirkpatrick et al., 1983] S. Kirkpatrick, S. Gelatt, M. Vecchi. (1983). Optimization by simualted annealing , Science, Vol. 220, N 4598, pp. 671-680, 1983. [Kursawe, 1990] F. Kursawe. (1990). A variant of evolution strategies for vector optimization , 193-197, 1990, Lecture
Proceedings of Parallel Problem Solving for Nature Conference, pp. Notes in Computer Science 496, Springer.
[Larraaga et al., 2001] P. Larraaga, J.A. Lozano. (2001). Estimation of Distributions Algorithms, a new tool for evolutionary computation , 2001, Kluwer Academic Publishers. [Laumanns et al., 2001] M. Laumanns, K. Deb, L. Thiele, E. Zitzler. (2001). Scalable test problems for Evolutionary Multi-Objective Optimization , Technical Report 112, Institut fr Technische Informatik und Kommunikationsnetze, ETH Zrich, Ch-8092, Zrich, July, 2001. [Li, 2003] X. Li. (2003). A non-dominated sorting particle swarm optimizer for multiobjective optimization , Proceedings of the 2003 Genetic and Evolutionary Conference, pp. 37-48, LNCS 2723, Springer. [Liang et al., 2005] J.J. Liang, P.N. Suganthan. (2005). Dynamic multiswarm particle swarm optimizer , Proceedings of the IEEE Swarm Intelligence Symposium, pp. 1772-1779, 2005, IEEE Press. [Liang et al., 2005b] J.J. Liang, P.N. Suganthan, K. Deb. (2005). Novel Composition Test Functions for Numerical Global Optimization , Proceedings of the 2005 Swarm Intelligence Symposium, 2005, pp. 68-75, IEEE Press. [Liang et al., 2005c] J.J. Liang, P.N. Suganthan. (2005). Dynamic Multi-Swarm Particle Swarm Optimizer with Local Search , Proceedings of 2005 Congress on Evolutionary Computation, 2005, pp. 522-528, IEEE Computer Society. [Loulou et al., 2002] M. Loulou, S. Ait Ali, M. Fakhfakh, N. Masmoudi. electronic, ICM 2002, pp. 14-17, 2002, IEEE Press. [Maron et al., 1994] O. Maron, A.W. Moore. (1994). Hoeding races : Accelerating model selection search for classication and function approximation , Advances in Neural Information Processing Systems, Vol. 6, pp. 5966, 1994, Morgan Kaufmann Publishers. [Medeiro et al., 1994] E. Medeiro et al., (1994). Global design of analog cells using statistical optimization techniques , Analog Integrated Circuits and Signal Processing, Vol. 6, pp. 179-195, 1994, Kluwer Academic Publishers. [Metropolis et al., 1953] N. Metropolis, A.W. Rosenbluth, M.N. Rosenbluth, A.H. Teller, E. Teller. (1953). Equation of state calculations by fast computing machines , Journal of Chemical Physics, Vol. 21, pp. 1087-1092, 1953. [Miranda et al., 2002] V. Miranda, N. Fonseca. (2002). New evolutionary particle swarm algorithm applied to voltage/VAR control , Proceedings of the 14 rence, 2002, pp. 1-6, Sevilla, Spain. (2002). An optimized
134
RFRENCES BIBLIOGRAPHIQUES
[Molina et al., 2005] D. Molina, F. Herrera, M. Lozano. (2005). Adaptive Local Search Parameters for Real-Coded Memetic Algorithms , Proceedings of 2005 Congress on Evolutionary Computation, 2005, pp. 888-895, IEEE Computer Society. [Mlhenbein et al., 1996] H. Mlhenbein, G. Paa . (1996). From recombination of genes to the estimation of distributions I. Binary parameters , Proceedings of the International Conference on Parallel Problem Solving from Nature IV, 1996, LNCS 1411, pp. 178-187, Springer. [Murata et al., 2002] Y. Murata and al. (2002). Agent Oriented Self Adaptive Genetic Algorithm , Proceedings of the IASTED Communications and Computer Networks, 2002, pp. 348-353, Acta Press. [Murgasova et al., 2006] M. Murgasova, L. Dyet, D. Edwards, M. Rutherford, J.V. Hajnal, D. Rueckert. (2006). Segmentation of Brain MRI in Young Children , Proceedings of the 9th Int. Conf. MICCAI Copenhagen, pp. 687694, 2006, LNCS, Springer. [Nair, 1992] V.N. Nair. (1992). Taguchi's parameter design : a panel discussion , Technometrics, Vol. 34, pp. 127-161, 1992. [Nakib et al., 2007] A. Nakib, H. Oulhadj, P. Siarry. (2007). Microscopic image segmentation based on twodimensional exponential entropy with hybrid microcanonical annealing , Proceedings of Int. Conf. IAPR-MVA 2007, pp. 420423, 2007. [Nakib et al., 2007b] A. Nakib, Y. Cooren, H. Oulhadj, P. Siarry. (2007). Magnetic Resonance Image Segmentation based on Two-dimensional Exponential Entropy , Proceedings of the International Conference on Articial Evolution, pp. 50-61, Springer. [Nelder et al., 1965] J.A. Nelder, R. Mead. (1965). A simplex method for function minimization , Computer Journal, Vol. 7, pp. 308-313, 1965. [Ng, 2006] H. Ng. (2006). Automatic thresholding for defect detection , Pattern Recognition Letters, Vol. 27, pp. 16441649, 2006. [Niu et al., 2005] B. Niu, Y. Zhu, X. He, W. Henry. (2005). MCPSO : A multi-swarm cooperative particle swarm optimizer , Applied Mathematics and Computation, Vol. 185, N 2, pp. 10501062, 2005. [Nocedal et al., 1999] J. Nocedal, S.J. Wright. (1999). Numerical Optimization , 1999, Springer. [Okabe et al., 2003] T. Okabe, Y. Jin, B. Senho. (2003). A critical survey of performances indices for multi-objective optimization , Proceedings of the 2003 IEEE Congress on Evolutionary Computation, pp. 878-885, 2003, IEEE Press. [Papers, 2005] Papers of CEC'05. (2005).
http://www3.ntu.edu.sg/home/EPNSugan/
[Pareto, 1896] V. Pareto. (1896). Cours d'conomie politique , Rouge, 1896. [Parsopoulos et al., 2002] K.E. Parsopoulos, M.N. Vrahatis. (2002). Particle Swarm Optimization in Multiobjective Problems , Proceedings of the 2002 ACM Symposium on Applied Computing, pp. 603-607, ACM Press. [Parsopoulos et al., 2004] K.E. Parsopoulos, D. Tasoulis, M.N. Vrahatis. (2004). Multiobjective
optimization using parallel vector evaluated particle swarm optimization , Proceedings of the IASTED International Conference on Articial Intelligence and Applications, Vol. 2, pp. 823828, Acta Press. [Peer et al., 2003] E.S. Peer, F. Van den Bergh, A.P. Engelbrecht. (2003). Using neighborhoods with the guaranteed convergence PSO , Proceedings of the IEEE Swarm Intelligence Symposium 2003 (SIS 2003), 2003, pp. 235-242, IEEE Press.
RFRENCES BIBLIOGRAPHIQUES
[Peng-Yeng, 2007] Y. Peng-Yeng. 503513, 2007. (2007).
135
based on particle swarm optimization , Applied Mathematics and Computation, Vol. 184, pp.
[Peram et al., 2003] T. Peram, K. Veeramachaneni, C. Mohan. (2003). Fitness-distance ratio based particle swarm optimization , Proceedings of the IEEE Swarm Intelligence Symposium, pp. 174-181, 2003, IEEE Press. [Poli et al., 2004] R. Poli, C.R. Stephens. (2004). Constrained molecular dynamics as a search and optimization tool , Proceedings of the 7 150-161, 2004, Springer. [Posik, 2005] P. Posik. (2005). Real Parameter Optimization Using Mutation Step Co-evolution , Proceedings of 2005 Congress on Evolutionary Computation2005, pp. 872-879, IEEE Computer Society. [Price, 1996] K.V. Price. (1996). Dierential evolution : a fast and simple numerical optimizer , 1996 Biennial Conference of the North American Fuzzy Information Processing Society, pp. 524-527, 1996, IEEE Press. [PSC, 2006] Particle Swarm Central. (2006).
http://www.particleswarm.info/Standard_PSO_2006.c
[Otsu, 1979] N.A. Otsu. (1979). A Threshold Selection Method from Gray Level Histograms , IEEE Trans. on Syst., Man and Cyb., Vol. 9, N1, pp. 62-66, 1979. [Ourique et al., 2002] C. Ourique, E.J. Biscaia, J. Pinto. (2002). The use of particle swarm optimization for dynamical analysis in chemical processes , Computers & Chemical Engineering, Vol. 26, N12, pp. 1783-1793, 2002. [Ozcan et al., 1999] E. Ozcan, C.K. Mohan. (1999). Particle Swarm Optimization : surng the waves , Proceeding of the 1999 IEEE Congress on Evolutionary Computation, pp. 1939-1944, IEEE Press. [Qiaio et al., 2007] Y. Qiao, Q. Hu, G. Qian, S. Luo, W.L. Nowinski. (2007). Thresholding based on variance and intensity contrast , Pattern Recognition, Vol. 40, pp. 596608, 2007. [Qin et al., 2005] A. K. Qin, P. N. Suganthan. (2005). Self-adaptive Dierential Evolution Algorithm for Numerical Optimization , Proceedings of 2005 Congress on Evolutionary Computation, 2005, pp. 1785-1791, IEEE Computer Society. [Raquel et al., 2005] C.R. Raquel, J.P.C. Naval. (2005). An eective use of crowding distance in multiobjective particle swarm optimization , Proceedings of the 2005 Genetic and Evolutionary Computation Conference, pp. 257-264, ACM Press. [Ray et al., 2002] T. Ray, K.M. Liew. (2002). A swarm metaphor for multiobjective design optimization , Engineering Optimization, Vol. 34, N2, pp. 141-153, 2002. [Rechenberg, 1965] I. Rechenberg. (1965). Cybernetic Solution Path of an Experimental Problem , 1965, Royal Aircarft Establishment Library Translation. [Reyes-Sierra et al., 2006] M. Reyes-Sierra, A. Coello Coello. (2006). Multi-Objective Particle Swarm Optimizers : A survey of the state-of-the-art , International Journal of Computational Intelligence Research, Vol. 2, N3, pp. 287-308, 2006. [Reynolds, 1987] C.W. Reynolds. (1987). Flocks, herds and schools: a distributed behavioral
model , Computer Graphics, Vol. 21, N4, pp.25-34, 1987. [Richardson et al., 1989] J.T. Richardson et al..
(1989).
136
RFRENCES BIBLIOGRAPHIQUES
[Robinson et al., 2002] J. Robinson, J. Sinton, Y. Rahamt-Samii. (2002). Particle swarm, genetic algortihm, and their hybrids : optimization of a proled corrugated horn antenna , Proceedings of the IEEE International Symposium on Antennas and Propogation, pp. 314-317, 2002, IEEE Press. [Rnkknen et al., 2005] J. Rnkknen, S. Kukkonen, K. V. Price. (2005). Real-Parameter Optimization with Dierential Evolution , Proceedings of 2005 Congress on Evolutionary Computation, 2005, pp. 506-513, IEEE Computer Society. [Russell et al., 2003] S.J. Russell, P. Norvig. (2003). Articial Intelligence: A Modern Approach , 2nd ed., pp. 111-114, Prentice Hall. [Sahoo et al., 1998] P.K. Sahoo et al.. (1998). A survey of thresholding techniques , Computer
Vision, Graphics, and Image Processing, Vol. 41, pp. 233-260, 1998. [Sahoo et al., 2006] K.P. Sahoo, G. Arora. (2006). Image thresholding using two dimensional
Tsallis-Havrda-Charvat entropy , Pattern Recognition Letters, Vol. 27, pp. 520528, 2006. [Sawai et al., 1999] H. Sawai, S. Adachi. (1999). Genetic Algorithm Inspired by Gene Duplication , Proceedings of the 1999 Congress on Evolutionary Computation, 1999, pp. Computer Society. [Schaer, 1985] J.D. Schaer. (1985). Multiple objective optimization with vector evaluated genetic algorithm , Proceedings of the 1 93-100, Lawrence Erlbaum Associates. [Schmid, 2000] H.Schmid. (2000). Approximating the Universal Active Element , IEEE Transactions on Circuits and Systems-II: Analog and Digital Signal Processing, Vol. 47, N 11, 2000. [Schnecke et al., 1996] V. Schnecke, O. Vornberger. (1996). An Adaptive Parallel Genetic Al480-487, IEEE
rst
th
International Conference on
Parallel Problem Solving from Nature, 1996, pp. 859-868, LNCS, Springer. [Schrijver, 1998] A. Schrijver. (1998). Theory of Linear and Integer Programming , 1998, John Wiley & sons. [Seevinck, 2000] E. Seevinck. (2000). CMOS Translinear Circuits for Minimum Supply Voltage , IEEE Transactions on Circuits and Systems-II : Analog and Digital Signal Processing, Vol. 47, N12, pp. 15601564, 2000. [Serani, 1992] P. Serani. (1992). Simulated annealing for multiple objective optimization problems , Proceedings of the 10 87-96, Springer. [Serra et al., 1997] P. Serra, A.F. Stanton, S. Kais. Physical Review, Vol. 55, pp. 1162-1165, 1997. [Sezgin et al., 2004] M. Sezgin, B. Sankur. (2004). Survey over image thresholding techniques and quantitative performance evaluation , Journal of Electronic Imaging, Vol. 2004. [Shelokar et al., 2004] P.S. Shelokar, P. Siarry, V.K. Jayaraman, B.D. Kulkarni. (2004). Particle swarm and ant colony algorithms hybridized for improved continuous optimization , Applied Mathematics and Computation, Volume 188, N 1, Pages 129-142, 2004. [Shi et al., 1998] Y. Shi, R. Eberhart. (1998). Parameter Selection in Particle Swarm Optimization , Proceedings of the 7 13, pp. 146165, (1997). Method for global optimization ,
th
th
RFRENCES BIBLIOGRAPHIQUES
137
[Shi et al., 2001] Y. Shi, R.C. Eberhart . (2001). Fuzzy Adaptive Particle Swarm Optimization , Proceedings of 2001 Congress on Evolutionary Computation, 2001, pp. 101-106, IEEE Computer Society. [Siarry, 1994] P. Siarry. (1994). La mthode du recuit simul en lectronique. Adaptation et acclration. Comparaison avec d'autres mthodes d'optimisation. Applications dans d'autres domaines , Habilitation diriger des recherches en sciences physiques, Universit de Paris Sud, 1994. [Siarry et al., 2003] P. Siarry, J. Dro, A. Ptrowski, E. Taillard. (2006). Mtaheuristiques pour l'optimisation dicile , 2003, Eyrolles. [Silveira et al., 1996] F. Silveira, D. Flandre, P. G. A. Jespers. (1996). A gm/Id based methodology for the design of CMOS Analog Circuits and its Application to the Synthesis of a SOI micropower OTA , IEEE Journal of Solid State Circuits, Vol. 31, N9, 1996. [Sinha et al., 2005] A. Sinha, S. Tiwari, K. Deb. (2005). A Population-Based, Steady-State Procedure for Real-Parameter Optimization , Proceedings of 2005 Congress on Evolutionary Computation, 2005, pp. 514-521, IEEE Computer Society. [Song et al., 2006] Z. Song, N. Tustison, B. Avants, J.C. Gee. (2006). Integrated Graph Cuts for Brain MRI Segmentation , Proceedings of the 9 pp. 831838, 2006. [Srinivasan et al., 2003] D. Srinivasan, T.H. Seow. (2003). Particle swarm inspired evolutionary algorithm for multiobjective optimization problem , Proceedings of the 2003 Congress on Evolutionary Computation, Vol. 3, pp. 2292-2297, IEEE Press. [Srivians et al., 1995] N. 1995. [Suganthan, 1999] P.N. Suganthan. (1999). Particle Swarm Optimizer with neighborhood operator , Proceedings of the 1999 IEEE Conference on Evolutionary Computation, pp. 1958-1962, IEEE Press. [Suganthan et al., 2005] P.N. Suganthan and al. (2005). Problem Denitions and Evaluation Srivinas, K. Deb. (1995). Multiobjective Optimization using Non-
th Int.
Dominated Sorting in Genetic Algorithms , Evolutionary Computation, Vol. 2, N8, pp. 221-248,
Criteria for the CEC'2005 Special Session on Real-Parameter Optimization , Technical Report, Nanyang Technological University, Singapore, May 2005, AND KanGAL Report #2005005, IIT Kanpur, India.
http://www.ntu.edu.sg/home/epnsugan/index_files/CEC-05/Tech-Report-May-30-05. pdf
[Synder et al., 1990] W. Synder, G. Bilbro. Optimal thresholding : A new approach , Pattern Recognition Letters, Vol. 11, pp. 803-810, 1990. [Talbi, 1999] E.G. Talbi. (1999). Mtaheuristiques pour l'optimisation combinatoire multiobjectif : Etat de l'art , CNET, PE :98-757.33, 1999. [Talbi, 2002] E.G. Talbi. (2002). A taxonomy of Hybrid Metaheuristics , Journal of Heuristics, Vol. 8, N5, pp. 541-564, 2002. [Tfaili, 2007] W. Tfaili. (2007). Conception d'un algorithme de colonie de fourmis pour l'optimisation continue dynamique , Thse de doctorat de l'Universit de Paris 12-Val de Marne, 2007. [Toumazou et al., 1993] C. Toumazou, F.J.Lidgey, D.G.Haigh. (1993). Analog Integrated Circuits : The current mode approach , IEEE circuit and systems series 2 (books) 1993, IEEE Press. [Trelea, 2003] I.C. Trelea. (2003). The particle swarm optimization algorithm: convergence analysis and parameter selection , Information Processing Letters, Vol. 85, pp. 317-325, 2003.
138
RFRENCES BIBLIOGRAPHIQUES
[Triki et al., 2004] E. Triki, Y. Collette, P. Siarry. (2005). A theoretical study on the behavior of simulated annealing leading to a new cooling schedule , European Journal of Operational Research, Vol. 166, N 1, 2005. [Ulungu et al., 1999] E.L. Ulungu, J. Teghem, P. Fortemps, D. Tuyttens. (1999). MOSA method: a tool for solving multiobjective combinatorial optimization problems , Journal of Multicriteria Decision Analysis, Vol. 20, pp. 221-236, 1999. [Van den Bergh, 2002] F. Van den Bergh. (2002). An analysis of Particle Swarm Optimizers , PhD thesis, University of Pretoria, South Africa, 2002. [Wareld et al., 2000] S.K. Wareld, M. Kaus, F.A. Jolesz, R. Kikinis.(2000). Adaptive template moderate spatially varying statistical classication , Medical Image analysis, Vol. 4, pp. 4355, 2000. [Watts et al., 1998] D.J. Watts, S.H. Strogatz. (1998). Collective dynamics of small worlds networks, Nature, Vol. 393, pp. 440-442, 1998. [Wilson, 1975] E.O. Wilson. (1975). Sociobiology: The new synthesis , 1975, Belknap Press. [Yasuda et al., 2004] K. Yasuda, N. Iwasaki. (2004). Adaptive particle swarm optimization using velocity information of swarm , Proceedings of the IEEE Conference on System, Man and Cybernetics, 2004, pp. 3475-3481, IEEE Press. [Ye et al., 2002] X.F. Ye, W.J. Zhang, Z.L. Yang. (2002). Adaptive Particle Swarm Optimization on Individual Level , Proceedings of the International Conference on Signal Processing (ICSP), 2002, pp. 1215-1218, IEEE Press. [Yuan et al., 2005] B. Yuan, M. Gallagher. (2005). Experimental Results for the Special Session on Real-Parameter Optimization at CEC'2005: A Simple, Continuous EDA , Proceedings of 2005 Congress on Evolutionary Computation, 2005, pp. 1792-1799, IEEE Computer Society. [Zitzler et al., 1999] E. Zitzler, L. Thiele. (1999). Multiobjective Evolutionary Algorithms: A Comparative Case Study and the Strength Pareto Approach , IEEE Transactions on Evolutionary Computation, Vol. 3, N4, pp. 257-271, 1999. [Zitzler et al., 2000] E. Zitzler, K. Deb, L. Thiele. (2000). Comparison of Multiobjective Evolutionary Algorithms : Empirical Results , Evolutionary Computation, Vol. 8, N2, pp. 173-195, 2000. [Zitzler et al., 2002] E. Zitzler, M. Laumanns, L. Thiele. (2002). SPEA2 : Improving the Strengh Pareto Evolutionary Algorithm for Multiobjective Optimization , Proceedings of the Evolutionary Methods for Design, Optimization and Control with Applications to Industrial Problems Conference, pp. 95-100, CIMNE, Barcelona, Spain. [Zhang et al., 2003] W.J. Zhang, X.F. Xie. (2003). DEPSO: hybrid particle swarm with dierential evolution operator , Proceedings of the IEEE Conference on Systems, Man and Cybernetics, pp. 3816-3821, 2003, IEEE Press. [Zhang et al., 2003b] W. Zhang, Y. Liu, M. Clerc. (2003). An adaptive PSO algorithm for real
power optimization , Proceedings of the APSCOM (Advances in Power System Control Operation and Management) Conference, S6: Application of Articial Intelligence Technique (part I), 2003, pp. 302-307, IEEE Press. [Zheng et al., 2003] Y. Zheng, L. Ma, L. Zhang, J. Qian. (2003). On the convergence analysis and parameter selection in particle swarm optimization , Proceedings of International Conference on Machine Learning and Cybernetics, 2003, pp. 1802-1807, IEEE Press.
RFRENCES BIBLIOGRAPHIQUES
139
[Zhong et al., 2004] W.C. Zhong, J. Liu, Z. Xue, L.C. Jiao. (2004). A multiagent genetic algorithm for global numerical optimization , IEEE Transactions on Systems, Man and Cybernetics, Vol. 34, pp. 1128-1141, 2004.