Vous êtes sur la page 1sur 145

THSE DE DOCTORAT DE L'UNIVERSIT PARIS 12 VAL DE MARNE

par

Yann COOREN
pour obtenir le grade de

DOCTEUR EN SCIENCES
Spcialit :

SCIENCES DE L'INGNIEUR
Option : Optimisation

quipe d'accueil : Laboratoire Images, Signaux et Systmes Intelligents (LiSSi, E.A. 3956) cole Doctorale : cole Doctorale Sciences et Ingnierie : Matriaux - Modlisation - Environnement (SIMME)

Sujet de la thse:

Perfectionnement d'un algorithme adaptatif d'Optimisation par Essaim Particulaire. Applications en gnie mdical et en lectronique

soutenue le 27 novembre 2008 devant la commission d'examen compose de :

M. Michel GOURGAND M. Laurent GENESTE M. Ioan Cristian TRELEA M. Maurice CLERC M. Patrick SIARRY

Professeur des Universits Professeur des Universits Matre de Confrences HDR Ingnieur consultant Professeur des Universits

Universit de Clermont-Ferrand Laboratoire Ampre, Lyon ENIT, Tarbes INA-Grignon Annecy Universit de Paris 12

M. Laurent KRHENBHL Directeur de recherche CNRS

Rapporteur Rapporteur Examinateur Examinateur Examinateur Directeur de thse

Rsum

Les mtaheuristiques sont une famille d'algorithmes stochastiques destins rsoudre des problmes d 'optimisation dicile. Utilises dans de nombreux domaines, ces mthodes prsentent l'avantage d'tre gnralement ecaces, sans pour autant que l'utilisateur ait modier la structure de base de l'algorithme qu'il utilise. Parmi celles-ci, l'Optimisation par Essaim Particulaire (OEP) est une nouvelle classe d'algorithmes propose pour rsoudre les problmes variables continues. Les algorithmes d'OEP s'inspirent du comportement social des animaux voluant en essaim, tels que les oiseaux migrateurs ou les poissons. Les particules d'un mme essaim communiquent de manire directe entre elles tout au long de la recherche pour construire une solution au problme pos, en s'appuyant sur leur exprience collective. Reconnues depuis de nombreuses annes pour leur ecacit, les mtaheuristiques prsentent des dfauts qui rebutent encore certains utilisateurs. Le rglage des paramtres des algorithmes est un de ceux-ci. Il est important, pour chaque problme pos, de trouver le jeu de paramtres qui conduise des performances optimales de l'algorithme. Cependant, cette tche est fastidieuse et coteuse en temps, surtout pour les utilisateurs novices. Pour s'aranchir de ce type de rglage, des recherches ont t menes pour proposer des algorithmes dits adaptatifs. Avec ces algorithmes, les valeurs des paramtres ne sont plus ges, mais sont modies, en fonction des rsultats collects durant le processus de recherche. Dans cette optique-l, Maurice Clerc a propos TRIBES, qui est un algorithme d'OEP mono-objectif sans aucun paramtre de contrle. Cet algorithme fonctionne comme une bote noire, pour laquelle l'utilisateur n'a qu' dnir le problme traiter et le critre d'arrt de l'algorithme. Nous proposons dans cette thse une tude comportementale de TRIBES, qui permet d'en dgager les principales qualits et les principaux dfauts. An de corriger certains de ces dfauts, deux modules ont t ajouts TRIBES. Une phase d'initialisation rgulire est insre, an d'assurer, ds le dpart de l'algorithme, une bonne couverture de l'espace de recherche par les particules. Une nouvelle stratgie de dplacement, base sur une hybridation avec un algorithme estimation de distribution, est aussi dnie, an de maintenir la diversit au sein de l'essaim, tout au long du traitement. Le besoin croissant de mthodes de rsolution de problmes multiobjectifs a conduit les concepteurs adapter leurs mthodes pour rsoudre ce type de problme. La complexit de cette opration provient du fait que les objectifs optimiser sont souvent contradictoires. Nous avons labor une version multiobjectif de TRIBES, dnomme MO-TRIBES. Nos algorithmes ont t enn appliqus la rsolution de problmes de seuillage d'images mdicales et au problme de dimensionnement de composants de circuits analogiques.
Mots-clefs :

Optimisation, optimisation continue, optimisation multiobjectif, mtaheuristiques, optimisation par essaim particulaire, algorithme adaptatif, algorithme estimation de distribution, segmentation d'image, seuillage.

iii

Abstract

Metaheuristics are a new family of stochastic algorithms which aim at solving dicult optimization problems. Used to solve various applicative problems, these methods have the advantage to be generally ecient on a large amount of problems. Among the metaheuristics, Particle Swarm Optimization (PSO) is a new class of algorithms proposed to solve continuous optimization problems. PSO algorithms are inspired from the social behavior of animals living in swarm, such as bird ocks or sh schools. The particles of the swarm use a direct way of communication in order to build a solution to the considered problem, based on their collective experience. Known for their eciency, metaheuristics show the drawback of comprising too many parameters to be tuned. Such a drawback may rebu some users. Indeed, according to the values given to the parameters of the algorithm, its performance uctuates. So, it is important, for each problem, to nd the parameter set which gives the best performance of the algorithm. However, such a problem is complex and time consuming, especially for novice users. To avoid the user to tune the parameters, numerous researches have been done to propose adaptive algorithms. For such algorithms, the values of the parameters are changed according to the results previously found during the optimization process. TRIBES is an adaptive mono-objective parameter-free PSO algorithm, which was proposed by Maurice Clerc. TRIBES acts as a black box, for which the user has only the problem and the stopping criterion to dene. The rst objective of this PhD is to make a global study of the behavior of TRIBES under several conditions, in order to determine the strengths and drawbacks of this adaptive algorithm. In order to improve TRIBES, two new strategies are added. First, a regular initialization process is dened in order to insure an exploration as wide as possible of the search space, since the beginning of the optimization process. A new strategy of displacement, based on an hybridation with an estimation of distribution algorithm, is also introduced to maintain the diversity in the swarm all along the process. The increasing need for multiobjective methods leads the researchers to adapt their methods to the multiobjective case. The diculty of such an operation is that, in most cases, the objectives are conicting. We designed MO-TRIBES, which is a multiobjective version of TRIBES. Finally, our algorithms are applied to thresholding segmentation of medical images and to the design of electronic components.
Keywords :

Optimization, continuous optimization, multiobjective optimization, metaheuristics, particle swarm optimization, adaptive algorithm, estimation of distribution algorithm, image segmentation, thresholding.

Table des matires

Introduction gnrale 1 Mtaheuristiques d'optimisation : tat de l'art


1.1 1.2 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Optimisation mono-objectif 1.2.1 1.2.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Optimisation mono-objectif dicile . . . . . . . . . . . . . . . . . . . . . . . . Mtaheuristiques pour l'optimisation mono-objectif dicile 1.2.2.1 1.2.2.2 1.2.2.3 1.2.2.4 1.2.2.5 1.2.2.6 . . . . . . . . . .

5 9
9 9 9 10 11 13 13 15 17 18 20 20 21 22 23 24 25 27 27 28 28 28 28 29 29 30 30 30 31

Algorithme de recuit simul . . . . . . . . . . . . . . . . . . . . . . . Recherche Tabou . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Algorithmes volutionnaires . . . . . . . . . . . . . . . . . . . . . . . Algorithmes de colonies de fourmis . . . . . . . . . . . . . . . . . . . Algorithme estimation de distribution . . . . . . . . . . . . . . . . Optimisation par Essaim Particulaire 1.2.2.6.1 1.2.2.6.2 1.2.2.6.3 1.2.2.6.4 1.2.2.6.5 Connement des particules Graphes d'inuence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Facteur de constriction OEP et hybridation OEP adaptative

. . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . .

1.3

Optimisation multiobjectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 1.3.2 1.3.3 1.3.4 1.3.5 Dnition du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Approche agrgative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Approche non-Pareto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Approche Pareto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Mtaheuristiques pour l'optimisation multiobjectif 1.3.5.1 1.3.5.2 1.3.5.3 1.3.5.4

Algorithme de recuit simul . . . . . . . . . . . . . . . . . . . . . . . Algorithmes volutionnaires . . . . . . . . . . . . . . . . . . . . . . . Algorithme de colonies de fourmis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Optimisation par Essaim Particulaire 1.3.5.4.1 1.3.5.4.2 1.3.5.4.3

Approche agrgative . . . . . . . . . . . . . . . . . . . . . . Approche non-Pareto . . . . . . . . . . . . . . . . . . . . .

Approche Pareto . . . . . . . . . . . . . . . . . . . . . . . .

1.4

Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2 tude et perfectionnement de TRIBES, algorithme d'OEP sans paramtre


2.1 2.2 2.3 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Prsentation de TRIBES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Adaptations structurelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

33
33 34 34

TABLE DES MATIRES

2.3.1 2.3.2

Structure de l'essaim . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . volution des tribus 2.3.2.1 2.3.2.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Destruction de particules

34 35 36 36 37 38 39 40 40 40 42 42 44 44 50 50 51 51 52 52 54 55 57

Cration de particules . . . . . . . . . . . . . . . . . . . . . . . . . .

2.3.3 2.3.4 2.4 2.5 2.6

Frquence des adaptations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . volution de l'essaim . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Adaptations comportementales Algorithme 2.6.1 2.6.2 2.6.3 2.6.4

Exprimentation numrique et comparaisons . . . . . . . . . . . . . . . . . . . . . . . Procdure de test CEC'05 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Algorithmes utiliss pour la comparaison . . . . . . . . . . . . . . . . . . . . . Rsultats numriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.4.1 2.6.4.2 2.6.4.3 2.6.4.4 2.6.5 Commentaires gnraux . . . . . . . . . . . . . . . . . . . . . . . . . Comparaison avec le

Standard PSO 2006

. . . . . . . . . . . . . . .

Comparaison entre algorithmes . . . . . . . . . . . . . . . . . . . . . Inuence de la dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Conclusion

2.7

Amlioration de TRIBES : initialisation et dplacement des particules 2.7.1 2.7.2 2.7.3 Initialisation rgulire Stratgie de dplacement

Exprimentation numrique des nouveaux modules de TRIBES . . . . . . . .

2.8

Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3 laboration de MO-TRIBES : algorithme d'optimisation multiobjectif sans paramtre 59


3.1 3.2 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MO-TRIBES 3.2.1 3.2.2 3.2.3 3.2.4 3.2.5 3.3 3.3.1 3.3.2 3.3.3 3.3.4 3.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Diversit au sein de l'essaim . . . . . . . . . . . . . . . . . . . . . . . . . . . . Techniques d'archivage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Choix des informateurs Algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Stratgies de dplacement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 60 60 61 62 63 64 64 64 64 66 67 71

Rsultats numriques de MO-TRIBES Critres de performance

Fonctions de test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rsultats exprimentaux de MO-TRIBES

Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4 Application de TRIBES en segmentation d'images mdicales


4.1 4.2 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Problme de seuillage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 4.2.2 Dnition du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . tat de l'art des mthodes de seuillage . . . . . . . . . . . . . . . . . . . . . . 4.2.2.1 4.2.2.2 Mthodes paramtriques de seuillage . . . . . . . . . . . . . . . . . . Mthodes non-paramtriques de seuillage 4.2.2.2.1 Mthode d'Otsu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

73
73 74 74 74 74 75 75

TABLE DES MATIRES

4.2.2.2.2 4.3 4.3.1 4.3.2 4.3.3 4.3.4 4.3.5 4.4 4.4.1 4.4.2 4.4.3 4.4.4 4.5

Mthode de Kapur et al.

. . . . . . . . . . . . . . . . . . .

75 76 76 76 77 79 80 80 80 80 83 87 87

Segmentation d'images IRM base sur l'entropie exponentielle 2D . . . . . . . . . . . Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Histogramme 2D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Entropie exponentielle 2D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rsultats exprimentaux et discussion Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Seuillage d'images par approximation d'histogramme . . . . . . . . . . . . . . . . . . Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Approximation de l'histogramme . . . . . . . . . . . . . . . . . . . . . . . . . Rsultats exprimentaux de la mthode de segmentation par approximation de l'histogramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5 Application de TRIBES et de MO-TRIBES au dimensionnement de circuits lectroniques 89


5.1 5.2 5.3 5.4 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Amplicateur faible bruit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Convoyeur de courant de seconde gnration . . . . . . . . . . . . . . . . . . . . . . . Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 90 94 99

Conclusion et perspectives Annexe A : Principales fonctions de test Annexe B : Rsultats numriques de TRIBES Rfrences bibliographiques

103 107 113 127

Introduction gnrale

Cette thse part du constat simple que les problmes d'optimisation occupent une place de plus en plus importante dans les processus dcisionnels. Dans de multiples domaines, le besoin toujours croissant d'ecacit et de rentabilit a conduit les dcisionnaires ne plus se er seulement l'exprience des experts, mais aussi aux rsultats numriques obtenus par la rsolution de problmes d'optimisation. Une telle mulation a donn naissance de nouvelles mthodes de rsolution de problmes d 'optimisation dicile. L'tude des phnomnes rels est une source d'inspiration en ingnierie informatique, o l'tude et la modlisation des systmes complexes sont trs prsentes. En recherche oprationnelle, et plus prcisment dans le domaine de l'optimisation, de nombreuses mthodes sont inspires par de telles tudes. Parmi ces domaines d'inspiration, la biologie est particulirement prise par les chercheurs en optimisation. En eet, la modlisation des systmes intelligents rencontrs dans la nature peut servir crer une intelligence articielle, mme de rsoudre des problmes d'optimisation. Parmi toutes les branches de la biologie, l'thologie, tude du comportement des animaux, a rcemment donn lieu plusieurs avances signicatives dans le domaine de la recherche oprationnelle. La modlisation des comportements animaliers, principalement ceux des animaux voluant en essaim, est exploite majoritairement en robotique, en classication ou encore en optimisation. Un systme en essaim est un systme qui doit son intelligence la coopration d'lments qui, individuellement, sont de faible intelligence. La performance du systme entier est suprieure la somme des performances de ses parties. Dans le cadre de l'optimisation, cette approche a donn lieu la naissance de nouvelles mtaheuristiques. Les mtaheuristiques forment une famille d'algorithmes stochastiques destine la rsolution de problmes d 'optimisation dicile. Ces mthodes ont t conues an de rsoudre un panel trs large de problmes, sans pour autant ncessiter de changements profonds dans les structures des algorithmes. Ces mthodes sont inspires par des analogies avec la physique (recuit simul), la gntique (algorithmes volutionnaires) et l'thologie (colonies de fourmis). Parmi les mthodes inspires de l'thologie, la mthode d'Optimisation par Essaim Particulaire (OEP) a t propose en 1995 par Kennedy et Eberhart pour la rsolution de problmes d'optimisation dicile continus. Bncier d'un algorithme d'optimisation dicile variables continues est un avantage tant donn que la plupart des mthodes existantes ont t conues pour traiter les problmes discrets, et que les problmes variables continues sont trs courants en ingnierie. L'OEP prsente, comme la majorit des mtaheuristiques, le dfaut de ncessiter le rglage de plusieurs paramtres de contrle. Les paramtres de contrle permettent de rgler le fonctionnement de l'algorithme en fonction du problme propos. Les performances de l'OEP sont fortement corrles au rglage de ses paramtres. Il est donc indispensable pour un concepteur d'tudier l'inuence de chaque paramtre sur le comportement de l'algorithme. De cette tude dcoulera le choix du jeu de paramtres optimal. Idalement, il serait ncessaire de mener cette tude pour chaque nouveau problme, an d'adapter au mieux le comportement de la mthode au problme pos. Cette stratgie apparat complique mettre en place dans le cadre de l'industrie. En eet, un ingnieur qui doit rsoudre un problme d'optimisation n'a pas le temps de tester de nombreux 5

INTRODUCTION GNRALE

jeux de paramtres avant de dcider pour lequel opter. Le besoin de rsultats tant immdiat, il est important pour l'ingnieur de disposer de mthodes qui donnent des rsultats satisfaisants pour une large gamme de problmes, sans pour autant qu'il soit ncessaire de devoir modier le jeu de paramtres. Ce constat a conduit au dveloppement de mthodes dites adaptatives. Ces mthodes proposent de rduire le nombre de paramtres d'un algorithme, en dnissant des rgles d'adaptation, qui permettent de modier la valeur des paramtres, en fonction des rsultats trouvs au cours du droulement de l'algorithme. L'idal serait de concevoir des algorithmes qui ne ncessitent aucun paramtre de contrle. Dans ce cas, l'utilisateur n'aurait qu' dnir le problme pos et le critre d'arrt de l'algorithme. Cependant, le gain de temps li l'automatisation de la dnition des paramtres ne doit pas tre la cause d'une perte d'ecacit de l'algorithme. La rduction du nombre de paramtres des mthodes d'optimisation est aujourd'hui un enjeu crucial. En eet, les applications sont nombreuses et il existe aujourd'hui beaucoup de mthodes qui se sont rvles ecaces. Cependant, ces mthodes restent toujours diciles rgler de manire optimale, pour un utilisateur non spcialiste. Cette thse a t prpare au sein du

Laboratoire Images, Signaux et Systmes Intelligents (LiSSi,

E.A. 3956) de l'Universit de Paris 12 Val de Marne. Ce laboratoire est en partie spcialis dans l'imagerie et le traitement du signal pour le gnie biomdical. Cette thse a t nance par une allocation de recherche du Ministre de la Recherche ainsi que par un poste de moniteur l'Universit de Paris12 Val de Marne. Ce travail a t encadr par le Professeur P. Siarry, directeur du laboratoire et responsable du groupe optimisation, et co-encadr par M. Clerc, spcialiste de la mthode d'OEP et consultant pour le projet XPS (

eXtended Particle Swarm ).

Le groupe optimisation est

une quipe transversale au LiSSi spcialise dans l'adaptation des mtaheuristiques aux problmes variables continues, mais aussi dans l'optimisation multiobjectif ou dynamique. Ont particip mon travail de doctorat Amir Nakib, docteur de l'Universit de Paris12 Val de Marne, et Mourad Fakhfakh, Matre de Confrences l'cole Nationale d'Ingnieurs de Sfax, en Tunisie.

Le but de cette thse est l'tude de TRIBES, un algorithme d'Optimisation par Essaim Particulaire sans paramtres propos par M. Clerc. L'objectif premier est d'tudier le comportement de TRIBES sur un large panel de fonctions de test. L'tude des rsultats numriques et du comportement des particules, tout au long du traitement, permet de mettre en vidence les avantages et les dfauts de TRIBES. Le deuxime objectif de cette thse est de proposer des mthodes alternatives, incorporables TRIBES, qui permettent d'en amliorer l'ecacit. Enn, devant la ncessit croissante de disposer de mthodes multiobjectifs, la dernire contribution de cette thse est de proposer une version multiobjectif de TRIBES, dnomme MO-TRIBES. Comme sa version mono-objectif, MO-TRIBES possde la particularit de ne possder aucun paramtre de contrle rgler. Les applications tudies ont port sur l'utilisation de TRIBES pour rsoudre des problmes de traitement d'images et de dimensionnement de circuits lectroniques. Dans le cas de la segmentation d'images mdicales, TRIBES est utilis comme mthode d'optimisation pour maximiser un critre qui permet de dterminer les dirents seuils d'une image multi-classe. Dans le cas de l'application en lectronique, TRIBES est utilis dans sa version multiobjectif, pour dimensionner les transistors d'un amplicateur faible bruit et d'un convoyeur de courant de seconde gnration, an que ceux-ci prsentent des performances optimales.

Ce manuscrit se divise en trois parties. La premire partie est consacre l'tude bibliographique des mthodes d'optimisation. Elle fait l'objet du premier chapitre. La deuxime partie est consacre TRIBES, dans ses versions mono-objectif et multiobjectif. Elle fait l'objet des chapitres 2 et 3. Enn, la dernire partie correspond aux applications de TRIBES des problmes rels. Les applications concernent les chapitres 4 et 5.

INTRODUCTION GNRALE

Dans le chapitre 1, nous prsentons un tat de l'art des mtaheuristiques d'optimisation monoobjectif ou multiobjectif. Une attention toute particulire est accorde la mthode d'Optimisation par Essaim Particulaire, principale mthode utilise au cours de cette thse. Nous abordons aussi l'intrt des mthodes adaptatives. Un tat de l'art des algorithmes d'Optimisation par Essaim Particulaire adaptatifs est propos.

Le chapitre 2 est consacr l'tude de TRIBES dans sa version mono-objectif. Une tude dtaille de TRIBES est ralise sur un large ventail de problmes, an de dgager les avantages et les inconvnients de cet algorithme. Cette tude est base sur les rsultats numriques de TRIBES, mais aussi sur l'analyse du comportement des particules au cours de l'excution de l'algorithme. Une comparaison de TRIBES avec d'autres algorithmes est prsente, an de montrer en quoi TRIBES apparat comme un algorithme prometteur. La comparaison est faite en utilisant la procdure de test dnie lors de la confrence

2005 International Conference on Evolutionary Computation. Enn,

deux amliorations sont proposes pour amliorer le comportement de TRIBES. La premire amlioration est une nouvelle mthode d'initialisation de TRIBES, qui permet de prserver la diversit de l'essaim, en essayant de couvrir au maximum l'espace de recherche, ds l'initialisation. La seconde amlioration est la dnition d'une nouvelle stratgie pour les particules, qui utilise une hybridation avec un Algorithme Estimation de Distribution.

Le chapitre 3 est consacr la prsentation de MO-TRIBES, qui est la version multiobjectif de TRIBES. Cet algorithme, dvelopp au cours de cette thse, est un algorithme d'optimisation multiobjectif variables continues sans paramtres. Le but est d'adapter les rgles de TRIBES, an de pouvoir traiter des problmes multiobjectifs. Cet algorithme utilise une approche Pareto en incorporant TRIBES la gestion d'une archive externe. Cette archive permet de stocker toutes les solutions non-domines et, ainsi, de fournir, en n de traitement, une approximation du front de Pareto du problme trait. MO-TRIBES a t cr en respectant la contrainte qui imposait de ne devoir introduire aucun paramtre de contrle. Une comparaison de MO-TRIBES avec les algorithmes les plus connus sur des problmes classiques est prsente en n de chapitre.

Dans le chapitre 4, nous prsentons une premire application de TRIBES dans le cas monoobjectif. Le but est de segmenter des images multi-classe dont le nombre de classes est connu a priori. A cet eet, on cherche dterminer automatiquement les seuils des direntes classes. TRIBES est utilis pour optimiser deux types de critres qui permettent de dterminer ces seuils. Le premier critre utilis est l'entropie exponentielle deux dimensions, qui permet de dterminer directement les seuils de direntes classes, l'entropie tant maximale pour les valeurs optimales des seuils. La deuxime approche est l'approximation de l'histogramme de l'image par une somme de gaussiennes. Approcher l'histogramme de l'image par une somme de gaussiennes permet de connatre l'expression analytique approche de l'histogramme, donc de calculer beaucoup plus facilement les seuils des direntes classes.

Le chapitre 5 prsente des applications de TRIBES et MO-TRIBES au dimensionnement de circuits lectroniques. Le but est de trouver les dimensions des transistors qui permettent de faire fonctionner de manire optimale les circuits tudis. En d'autres termes, notre objectif est de dterminer la largeur et la longueur des transistors qui permettent au circuit d'avoir des performances optimales, suivant un critre donn. TRIBES est utilis pour maximiser le gain d'un amplicateur faible bruit. MO-TRIBES est utilis pour minimiser la rsistance d'entre et maximiser la frquence de transition d'un convoyeur de courant de seconde gnration.

INTRODUCTION GNRALE

Enn, la conclusion rcapitule les contributions de cette thse et propose des perspectives aux travaux eectus.

Chapitre 1
Mtaheuristiques d'optimisation : tat de l'art

1.1 Introduction
La rsolution de problmes d'optimisation est devenue un sujet central en recherche oprationnelle, le nombre de problmes d'aide la dcision pouvant tre formaliss sous la forme d'un problme d'optimisation tant en forte croissance. Les problmes d'apprentissage de rseaux de neurones, de planication des tches ou encore d'identication sont, par exemple, des problmes communs d'optimisation. Ce chapitre prsente un tat de l'art des mtaheuristiques d'optimisation aussi bien pour les problmes mono-objectif que pour les problmes multiobjectifs. Un intrt particulier est apport la mthode d'Optimisation par Essaim Particulaire (OEP), qui constitue le sujet principal de ce travail de thse. De plus, nous abordons, dans le cas mono-objectif, la question de l'intrt grandissant des mthodes adaptatives. Un bref aperu des OEPs adaptatives est prsent dans ce chapitre. L'Optimisation par Essaim Particulaire est une nouvelle classe des mtaheuristiques propose en 1995 par Kennedy et Eberhart [Kennedy et al., 1995]. Cet algorithme s'inspire du comportement social des animaux voluant en essaim. Les direntes particules d'un essaim communiquent directement avec leurs voisins et construisent ainsi une solution un problme, en s'appuyant sur leur exprience collective.

1.2 Optimisation mono-objectif


1.2.1 Optimisation mono-objectif dicile
Un problme d'optimisation en gnral est dni par un espace de recherche

et une fonction

objectif f . Le but est de trouver la solution s

de meilleure qualit f (s ). Suivant le problme

pos, on cherche soit le minimum soit le maximum de la fonction une fonction

f.

Dans la suite de ce document,

nous aborderons les problmes d'optimisation essentiellement sous l'aspect minimisation, maximiser

tant quivalent minimiser

f .

L'quation (1.1) rsume la dnition prcdente.

s = min (f (s) \ s S) s S,

(1.1)

De plus, un problme d'optimisation peut prsenter des contraintes d'galit et/ou d'ingalit sur les solutions candidates tre multiobjectif si plusieurs fonctions objectifs doivent tre 9

10

CHAPITRE 1.

MTAHEURISTIQUES D'OPTIMISATION : TAT DE L'ART

optimises ou encore dynamique, si la topologie de

change au cours du temps. Dans cette section,

nous n'tudierons que les problmes mono-objectif, le cas multiobjectif tant tudi section 1.3. Il existe de nombreuses mthodes dterministes (ou exactes) qui permettent de rsoudre certains types de problmes d'optimisation en un temps ni. Cependant, ces mthodes ncessitent que la fonction objectif prsente un certain nombre de caractristiques, telles que la convexit, la continuit ou encore la drivabilit. Parmi les mthodes les plus connues, on peut citer les mthodes de programmation linaire [Schrijver, 1998], quadratique [Nocedal et al., 1999] ou dynamique [Bertsekas, 2000], la mthode de Newton [Nocedal et al., 1999], la mthode du simplex [Nelder et al., 1965] ou encore la mthode du gradient [Avriel, 2003]. Certains problmes restent cependant trop complexes rsoudre pour les mthodes dterministes. Certaines caractristiques peuvent tre problmatiques pour ces mthodes. Parmi celles-ci, on peut citer la discontinuit, la non-drivabilit ou encore la prsence de bruit. Dans ce cas, le problme d'optimisation est dit

dicile,

car aucune mthode dterministe ne peut rsoudre ce problme en

un temps raisonnable. Les problmes d'optimisation dicile se divisent en deux catgories : les problmes variables discrtes et les problmes variables continues. De faon gnrale, un problme d'optimisation variables discrtes, ou combinatoire, consiste trouver, dans un ensemble discret, la meilleure solution ralisable, au sens du problme dni par (1.1). Le problme majeur rside ici dans le fait que le nombre de solutions ralisables est gnralement trs lev, donc il est trs dicile de trouver la meilleure solution dans un temps raisonnable. Le problme du voyageur de commerce [Biggs et al., 1976] est un exemple classique de problme d'optimisation variables discrtes. L'utilisation d'algorithmes d'optimisation stochastiques, tels que les mtaheuristiques, permet de trouver une solution approche, en un temps raisonnable. Les problmes variables continues sont, eux, moins formaliss que les prcdents. En eet, la grande majorit des mtaheuristiques existantes ont t cres pour rsoudre des problmes variables discrtes [Siarry et al., 2006]. Cependant, la ncessit croissante de mthodes pouvant rsoudre ce type de problmes a pouss les chercheurs adapter leurs mthodes au cas continu. Les dicults les plus courantes de ce type de problmes sont les corrlations non identies entre les variables, le caractre bruit des fonctions ou encore des fonctions objectifs qui ne sont accessibles que par dispositif exprimental. Il est noter qu'il existe des problmes variables mixtes, c'est--dire que le problme prsente la fois des variables discrtes et continues.

1.2.2 Mtaheuristiques pour l'optimisation mono-objectif dicile


Les mtaheuristiques sont une famille d'algorithmes stochastiques destins la rsolution des problmes d'optimisation. Leur particularit rside dans le fait que celles-ci sont adaptables un grand nombre de problmes sans changements majeurs dans leurs algorithmes, d'o le qualicatif

mta.

Leur capacit optimiser un problme partir d'un nombre minimal d'informations est

contrebalance par le fait qu'elles n'orent aucune garantie quant l'optimalit de la meilleure solution trouve. Seule une approximation de l'optimum global est donne. Cependant, du point de vue de la recherche oprationnelle, ce constat n'est pas forcment un dsavantage, tant donn que l'on prfrera toujours une approximation de l'optimum global trouve rapidement qu'une valeur exacte trouve dans un temps rdhibitoire. Les mtaheuristiques sont des mthodes qui ont, en gnral, un comportement itratif, c'est-dire que le mme schma est reproduit un certain nombre de fois au cours de l'optimisation, et qui sont directes, dans le sens o elles ne font pas appel au calcul du gradient de la fonction. Ces mthodes tirent leur ecacit du fait qu'elles sont moins facilement pigeables dans des optima locaux, car elles acceptent, au cours du traitement, des dgradations de la fonction objectif et la

1.2.

OPTIMISATION MONO-OBJECTIF

11

recherche est souvent mene par une population de points et non un point unique. Comme il a t dit section 1.1, les mtaheuristiques sont majoritairement conues pour rsoudre des problmes variables discrtes, mais font de plus en plus l'objet d'adaptations aux problmes variables continues. De plus, de par leur varit et leur capacit rsoudre des problmes trs divers, les mtaheuristiques sont assez facilement sujettes extensions. Parmi celles-ci, on peut citer :

Les mtaheuristiques pour l'optimisation multiobjectif. La but est ici non pas de trouver un optimum global mais de trouver un ensemble d'optima qui forment une surface de compromis pour les dirents objectifs du problme. Cette partie sera traite section 1.3 ;

Les mtaheuristiques pour l'optimisation multimodale [Goldberg et al., 1987], o l'on ne cherche plus l'optimum global, mais l'ensemble des meilleurs optima locaux ; Les mtaheuristiques pour l'optimisation dynamique [Branke, 2001 ; Ourique et al., 2002 ; Di Caro et al., 1998], o il faut approcher l'optimum chaque pas de temps, car la fonction objectif change de topologie au cours du temps ;

Les mtaheuristiques hybrides [Talbi, 2002], qui combinent direntes mtaheuristiques, an d'en tirer les avantages respectifs ; Les mtaheuristiques parallles [Alba, 2005], pour lesquelles on cherche acclrer le calcul, en distribuant la charge de calcul sur plusieurs calculateurs.

L'utilisateur est, certes, demandeur de mthodes rapides et ecaces, mais il est aussi demandeur de mthodes simples d'utilisation. Un enjeu majeur des mtaheuristiques est donc de faciliter le choix des mthodes et de simplier leur rglages, an de les adapter au mieux aux problmes poss. Le monde des mtaheuristiques est un monde en constante volution. De nombreuses mthodes sont proposes chaque anne pour tenter d'amliorer la rsolution des problmes les plus complexes. Du fait de cette activit permanente, un grand nombre de classes de mtaheuristiques existe actuellement. Les mthodes les plus courantes sont le recuit simul, la recherche tabou, les algorithmes volutionnaires, les algorithmes de colonies et fourmis ou encore l'optimisation par essaim particulaire. La suite de ce chapitre est ddi la prsentation de ces mthodes.

1.2.2.1 Algorithme de recuit simul


L'origine de la mthode du recuit simul provient de la mtallurgie, o, pour atteindre les tats de basse nergie d'un solide, on chaue celui-ci jusqu' des tempratures leves, avant de le laisser refroidir lentement. Ce processus est appel le

recuit.

Le recuit simul a t dvelopp simultanment par Kirkpatrick et al. [Kirpatrick et al., 1983] et Cerny [Cerny, 1985]. Le recuit simul repose sur l'algorithme de Metropolis [Metropolis et al., 1953 ; Hastings, 1970] dcrit par l'Algorithme 1. Cette procdure permet de sortir des minima locaux avec une probabilit leve si la temprature

est leve et, quand l'algorithme atteint de trs basses

tempratures, de conserver les tats les plus probables. L'algorithme de Metropolis permet d'chantillonner la fonction objectif par le biais d'une distribution de Boltzmann de paramtre

T . Le point crucial de l'algorithme est donc la loi de dcroissance

de la temprature. De nombreuses lois de dcroissance direntes ont t proposs [Triki et al., 2005]. L'algorithme de recuit simul est rsum par l'Algorithme 2. L'algorithme de recuit simul est devenu rapidement populaire, du fait de sa facilit d'adaptation un grand nombre de problmes et son ecacit. En revanche, cet algorithme prsente l'inconvnient de disposer d'un nombre lev de paramtres (temprature initiale, rgle de dcroissance de la temprature, dure des paliers de temprature, etc.) qui rendent les rglages de l'algorithme assez empiriques. Cependant, il existe des tudes qui s'attachent rgler de manire optimale les para-

12

CHAPITRE 1.

MTAHEURISTIQUES D'OPTIMISATION : TAT DE L'ART

Algorithme 1 Algorithme de Metropolis Initialiser un point de dpart x0 et une temprature T Pour i = 1 n faire Tant que xi n'est pas accept faire Si f (xi ) f (xi1 ) : accepter xi f (xi )f (xi1 ) T Si f (xi ) > f (xi1 ) : accepter xi avec la probabilit e Fin Tant que Fin Pour

Algorithme 2 Algorithme de recuit simul Dterminer une conguration alatoire S Choix des mcanismes de perturbation d'une conguration Initialiser la temprature T Tant que la condition d'arrt n'est pas atteinte faire Tant que l'quilibre n'est pas atteint faire Tirer une nouvelle conguration S ' Appliquer la rgle de Metropolis Si f (S ) < f (S) Fin Si Fin Tant que Dcrotre la temprature Fin Tant que
Smin = S fmin = f (S )

1.2.

OPTIMISATION MONO-OBJECTIF

13

Algorithme 3 Algorithme de Recherche Tabou Dterminer une conguration alatoire s Initialiser une liste tabou vide Tant que le critre d'arrt n'est pas atteint faire Perturbation de s suivant N mouvements non tabous valuation des N voisins Slection du meilleur voisin t Actualisation de la meilleure position connue s Insertion du mouvement t s dans la liste tabou Fin Tant que
mtres de l'algorithme [Siarry, 1994]. L'autre inconvnient majeur de cette mthode est sa lenteur. Pour pallier ce problme, plusieurs mthodes de paralllisation des calculs ont t introduites [Azencott, 1992]. Bien qu'initialement cre pour fonctionner avec des variables discrtes, la mthode du recuit simul possde des versions continues [Siarry, 1994 ; Courat et al., 94].

s=t

1.2.2.2 Recherche Tabou


L'algorithme de Recherche Tabou a t introduit par Glover en 1986 [Glover, 1986]. Le but de cette mthode est d'inculquer aux mthodes de recherche locale un surcrot d'intelligence. L'ide ici est d'ajouter au processus de recherche une mmoire qui permette de mener une recherche plus intelligente dans l'espace des solutions. Comme l'algorithme de recuit simul, la mthode de recherche tabou fonctionne avec une seule conguration courante, qui est actualise au cours des itrations successives. La nouveaut ici est que, pour viter le risque de retour une conguration dj visite, on tient jour un liste de mouvements interdits, appele liste tabou. Cette liste contient vements (t

s)

qui sont les inverses des

mou-

derniers mouvements (s

t)

eectus. L'algorithme

modlise ainsi une forme primaire de mmoire court terme. L'algorithme de recherche tabou peut tre rsum par l'Algorithme 3. Dans sa forme de base, l'algorithme de recherche tabou prsente l'avantage de comporter moins de paramtres que l'algorithme de recuit simul. Cependant, l'algorithme n'tant pas toujours performant, il est souvent appropri de lui ajouter des processus d'intensication et/ou de diversication, qui introduisent de nouveaux paramtres de contrle [Glover et al., 1997].

1.2.2.3 Algorithmes volutionnaires


Les algorithmes volutionnaires, labors au cours des annes 1950 [Fraser, 1957], forment une famille d'algorithmes de recherche inspirs de l'volution biologique des espces. L'ide ici est de s'inspirer de la thorie darwiniste de slection naturelle pour rsoudre des problmes d'optimisation. Au cours des annes 1970, avec l'avnement des calculateurs de forte puissance, de nombreuses tentatives ont t ralises pour modliser cette approche. Trois approches se sont dtaches :

Les La Les

stratgies d'volution

[Rechenberg, 1965 ; Beyer, 2001] qui ont t conues comme une [Fogel et al., 1966], qui visait faire voluer les structures

mthode d'optimisation variables continues ;

programmation volutionnaire algorithmes gntiques

d'automates tats nis par des successions de croisements et de mutations ; [Holland, 1973 ; Goldberg, 1989 ; Holland, 1992], qui ont t conus pour rsoudre des problmes d'optimisation variables discrtes.

14

CHAPITRE 1.

MTAHEURISTIQUES D'OPTIMISATION : TAT DE L'ART

Algorithme 4 Algorithme volutionnaire gnrique Initialisation de la population de individus valuation des individus Tant que le critre d'arrt n'est pas atteint faire Slection de individus en vue de la phase de reproduction Croisement des individus slectionns Mutation des individus slectionns valuation des enfants obtenus Slection pour le remplacement Fin Tant que

0 1 0 1 1 1 0 1 0

0 1 1 1 1 0 0 1 0

0 1 0 1 1 0 0

1 0

0 1 1

1 1 1 0 1 0

Figure 1.1  Exemple d'oprateur de croisement.

Les approches volutionnaires s'appuient toutes sur un modle commun prsent par l'Algorithme 4. Les individus soumis l'volution sont des solutions possibles du problme pos. L'ensemble de ces individus constitue une population. Cette population volue durant une succession d'itrations, appeles gnrations. Au cours de chaque gnration, une succession d'oprateurs est applique aux individus de la population pour engendrer une nouvelle population, en vue de la gnration suivante. Chaque oprateur utilise un ou plusieurs individus de la population appel(s) pour engendrer de nouveaux individus, appels

enfants.

parent(s)

A la n de chaque gnration, un certain

nombre d'individus de la population sont remplacs par des enfants crs durant la gnration. Un algorithme volutionnaire dispose donc de trois oprateurs principaux : un oprateur de slection, un oprateur de croisement et un oprateur de mutation. L'oprateur de slection permet de favoriser la propagation des meilleures solutions dans la population, tout en maintenant la diversit gntique de celle-ci. L'oprateur de croisement est mis en oeuvre lors de la phase de cration des enfants. Le but de cet oprateur est d'changer les gnes des dirents parents pour crer les enfants. La Figure 1.1 prsente l'exemple d'un croisement simple pour des individus cods en reprsentation binaire. L'oprateur de mutation consiste tirer alatoirement une composante de l'individu parent et la remplacer par une valeur alatoire. L'oprateur de mutation apporte un caractre alatoire la cration de la descendance, qui permet de maintenir une certaine diversit dans la population. La Figure 1.2 montre un exemple de mutation pour un individu cod en reprsentation binaire. Une liste

1.2.

OPTIMISATION MONO-OBJECTIF

15

1 0 0 1 0 0 1 0 1 0 0 1 0 1 0 1 0 1 0

1 0 0 1 0 0 1 0 0 0 0 1 0 1 0 1 0 1 0

Figure 1.2  Exemple d'oprateur de mutation.

Figure 1.3  Dtermination du plus court chemin par une colonie de fourmis. (a) Situation initiale,
(b) Introduction d'un obstacle, (c) Recherche du chemin optimal, (d) Prdominance du chemin optimal.

complte de toutes les mthodes existantes pour dnir ces oprateurs est disponible dans [Eiben et al., 2003].

1.2.2.4 Algorithmes de colonies de fourmis


Les algorithmes de colonies de fourmis sont ns d'une constatation simple : les insectes sociaux, et en particulier les fourmis, rsolvent naturellement des problmes complexes. Un tel comportement est possible car les fourmis communiquent entre elles de manire indirecte par le dpt de substances chimiques, appeles phromones, sur le sol. Ce type de communication indirecte est appel

stigmergie.

La principale illustration de ce constat est donne par la Figure 1.3. On voit sur cette gure que, si un obstacle est introduit sur le chemin des fourmis, les fourmis vont, aprs une phase de recherche, avoir tendance toutes emprunter le plus court chemin entre le nid et l'obstacle [Goss et al., 1989]. Plus le taux de phromone un endroit donn est important, plus une fourmi va avoir tendance tre attire par cette zone. Les fourmis qui sont arrives le plus rapidement au nid en passant par la source de nourriture sont celles qui ont emprunt la branche la plus courte du trajet. Il en dcoule donc que la quantit de phromones sur ce trajet est plus importante que sur le trajet plus long. De ce fait, le plus court chemin a une probabilit plus grande d'tre emprunt par les fourmis que les autres chemins et sera donc, terme, emprunt par toutes les fourmis.

Le premier algorithme s'inspirant de cette analogie a t propos par Colorni, Dorigo et Maniezzo

16

CHAPITRE 1.

MTAHEURISTIQUES D'OPTIMISATION : TAT DE L'ART

Algorithme 5 Algorithme de colonies de fourmis pour le problme du voyageur de commerce Tant que le critre d'arrt n'est pas atteint faire Pour k=1 m faire Choisir une ville au hasard Pour chaque ville non visite i faire Choisir une ville j , dans la liste Jik des villes restantes selon (1.2) Fin Pour k Dposer une piste ij (t) sur le trajet T k (t) conformment (1.3) Fin Pour vaporer les pistes selon (1.4) Fin Tant que
[Colorni et al., 1992 ; Dorigo et al., 1996]. Le but initial de la mthode tait de rsoudre le problme du voyageur de commerce. L'Algorithme 5 prsente la mthode propose par les auteurs. Si l'on considre un problme de voyageur de commerce construit un trajet de longueur dpend de :

villes, chaque fourmi

parcourt le graphe et

n = |N |.

Pour chaque fourmi, le trajet d'une ville

une ville

la liste des villes dj visites, qui dnit les mouvements possibles chaque pas, quand la fourmi

est sur la ville

i : Jik ; ij =

l'inverse de la distance entre les villes

1 dij , appele

visibilit. Cette information est utilise


ij (t),
appele

pour diriger les fourmis vers des villes proches et, ainsi, viter de trop longs dplacements ; la quantit de phromone dpose sur l'arte reliant deux villes

piste.

intensit de la

Cette quantit dnit l'attractivit d'une piste et est modie aprs le passage d'une

fourmi. C'est la pseudo-mmoire du systme. La rgle de dplacement est la suivante [Dorigo et al., 2005] :

pk (t) ij
o

(ij (t)) (ij ) (il (t)) (il ) lJ k


i

si j Jik
(1.2)

si j /

Jik
k ij (t) sur l'ensemble

et

sont deux paramtres contrlant l'importance relative de l'intensit et de la visibilit.

Aprs un tour complet, chaque fourmi dpose une quantit de phromone de son parcours. Cette quantit dpend de la

qualit

de la solution trouve et est dnie par :

k ij

(t) =

Q Lk (t)

si (i, j) T k (t) si (i, j) T k (t) /

0 k

(1.3)

T k (t)

est le trajet eectu par la fourmi

l'itration

t, Lk (t)

est la longueur de

T k (t)

et

est un paramtre x. Enn, il est ncessaire d'introduire un processus d'vaporation des phromones. En eet, pour viter de se faire piger dans des solutions sous-optimales, il est ncessaire qu'une fourmi oublie les mauvaises solutions. La rgle de mise jour est donc :

ij (t + 1) = (1 ) ij (t) + ij (t)
o

(1.4)

ij (t) =

m k k=1 ij

(t)

et

est le nombre de fourmis.

1.2.

OPTIMISATION MONO-OBJECTIF

17

Algorithme 6 Algorithme Estimation de Distribution Engendrer alatoirement M individus pour constituer la population D0 Tant que le critre d'arrt n'est pas atteint faire
i=i+1
se population Di1

Slectionner

individus dans

Di1

l'aide d'un oprateur de slection pour constituer la

se Estimer la distribution de probabilit pl (x) = p x|Di1 chantillonner M individus selon pl (x) pour constituer Di Fin Tant que

Depuis, la dmarche initie par cette analogie a t tendue la rsolution d'autres problmes d'optimisation, discrets et continus [Dorigo et al., 2005 ; Siarry et al., 2006]. Les algorithmes de colonies de fourmis prsentent plusieurs caractristiques intressantes, telles que le paralllisme intrinsque lev, la robustesse (une colonie peut maintenir une recherche ecace mme si certains de ses individus sont dfaillants) ou encore la dcentralisation (les fourmis n'obissent pas une autorit centralise). De ce fait, ces algorithmes semblent tre idalement adapts aux problmes dynamiques, pour lesquels seule une information locale est disponible [Tfaili, 2007].

1.2.2.5 Algorithme estimation de distribution


Les algorithmes estimation de distribution (EDA pour

Estimation of Distribution Algorithm )

ont t conus comme une variante des algorithmes volutionnaires [Mlhenbein et al., 1996]. Cependant, ces mthodes n'utilisent ni oprateur de croisement, ni oprateur de mutation. Un modle probabiliste est utilis pour engendrer des solutions candidates, la distribution de probabilit tant estime chaque itration partir des informations apportes par la prcdente gnration. L'estimation de la distribution de probabilit permet d'estimer les relations entre les dirents individus, alors que celles-ci sont exprimes de manire implicite dans le cas des algorithmes volutionnaires.

d'abord alatoirement une population

D0 . Ensuite, l'itration i, on utilise un oprateur de sse lection pour dterminer la population Di1 . L'information apporte par cette population est alors utilise pour estimer la distribution de probabilit pl(x) de l'itration courante. Enn, la nouvelle population Di est cre alatoirement partir de la distribution de probabilit pl(x). Le parallle
avec les algorithmes volutionnaires est ici respect, le couple croisement-mutation tant remplac par l'estimation de la distribution. La phase de diversication est ainsi assure par l'utilisation d'une distribution de probabilit explicite, alors que la phase d'intensication n'est assure que par la prsence d'un oprateur de slection. Cette procdure est rsume par l'Algorithme 6. La principale dicult de cette mthode est le choix et l'estimation de la distribution de probabilit. En eet, il faut choisir au pralable quel modle de distribution va tre utilis par l'algorithme et, chaque itration, estimer les paramtres de cette distribution. De nombreux modles de distributions ont t proposs dans la littrature [Larraaga et al., 2001]. Ces modles peuvent se diviser en trois catgories :

Le principe gnral d'un EDA est similaire un algorithme volutionnaire. On initialise tout

Les modles

sans dpendance

: la distribution de probabilit est factorise partir de distri-

butions indpendantes univariantes pour chaque dimension. Ce cas a le dfaut d'tre le plus souvent inapplicable dans les cas rels, les variables tant la plupart du temps corrles entre elles ;

18

CHAPITRE 1.

MTAHEURISTIQUES D'OPTIMISATION : TAT DE L'ART

Les modles Les modles

dpendances bivariantes dpendances multiples

: la distribution de probabilit est factorise partir

de distributions bivariantes ;

: la distribution de probabilit est factorise partir de

statistiques d'ordre suprieur deux. Il est noter que, dans le cas continu, le modle de distribution le plus souvent utilis est la distribution gaussienne. L'utilisation de modles avec dpendances introduit l'utilisation de rseaux probabilistes, les rseaux baysiens ou gaussiens tant le plus souvent utiliss. Le nombre de modles et le nombre d'algorithmes tant relativement levs, il serait trop long de les exposer dans le prsent manuscrit. On prfrera se reporter au livre de rfrence dans le domaine [Larraaga et al., 2001].

1.2.2.6 Optimisation par Essaim Particulaire


L'Optimisation par Essaim Particulaire (OEP) a t propose par Kennedy et Eberhart en 1995 [Kennedy et al., 1995]. Cette mthode est inspire du comportement social des animaux voluant en essaim. L'exemple le plus souvent utilis est le comportement des bancs de poissons [Wilson, 1975 ; Reynolds, 1987]. En eet, on peut observer chez ces animaux des dynamiques de dplacement relativement complexes, alors qu'individuellement chaque individu a une intelligence limite et une connaissance seulement locale de sa situation dans l'essaim. Un individu de l'essaim n'a pour connaissance que la position et la vitesse de ses plus proches voisins. Chaque individu utilise donc, non seulement, sa propre mmoire, mais aussi l'information locale sur ses plus proches voisins pour dcider de son propre dplacement. Des rgles simples, telles que aller la mme vitesse que les autres, se dplacer dans la mme direction ou encore rester proche de ses voisins sont des exemples de comportements qui susent maintenir la cohsion de l'essaim, et qui permettent la mise en oeuvre de comportements collectifs complexes et adaptatifs. L' intelligence globale de l'essaim est donc la consquence directe des interactions locales entre les direntes particules de l'essaim. La performance du systme entier est suprieure la somme des performances de ses parties. Kennedy et Eberhart se sont inspirs de ces comportements socio-psychologiques pour crer l'OEP. Un essaim de particules, qui sont des solutions potentielles au problme d'optimisation, survole l'espace de recherche, en qute de l'optimum global. Le dplacement d'une particule est inuenc par les trois composantes suivantes :

Une composante Une est dj passe ;

physique : la particule tend suivre sa direction courante de dplacement ; composante cognitive : la particule tend se diriger vers le meilleur site par lequel elle sociale
: la particule tend se er l'exprience de ses congnres et, ainsi,

Une composante

se diriger vers le meilleur site dj atteint par ses voisins. Dans le cas d'un problme d'optimisation, la qualit d'un site de l'espace de recherche est dtermine par la valeur de la fonction objectif en ce point. La Figure 1.4 illustre la stratgie de dplacement d'une particule.

Dans un espace de recherche de dimension vecteur position

Xi = (xi1 , xi2 , . . . , xiD )

D,

la particule

de l'essaim est modlise par son

et par son vecteur vitesse

Vi = (vi1 , vi2 , . . . , viD )

. Cette

= (p , p , . . . , p ) . La meilleure position atteinte par toutes les particules de l'essaim est note pi i1 i2 iD = (g , g , . . . , g ) . Au temps t, le vecteur vitesse est calcul partir de (1.5). g
1 2 D

particule garde en mmoire la meilleure position par laquelle elle est dj passe, que l'on note

1.2.

OPTIMISATION MONO-OBJECTIF

19

Figure 1.4  Dplacement d'une particule.

vij (t) = wvij (t 1)+c1 r1 (pij (t1)xij (t1))+c2 r2 (gj (t1)xij (t1)), j {1, . . . , D}
o

(1.5)

est en gnral une constante appele,

appeles

coecients d'acclration, r1

coecient d'inertie, c1 physique

et

c2

sont deux constantes,

et

r2

sont deux nombres alatoires tirs uniformment dans du dplacement. Le paramtre

[0,1] chaque itration et pour chaque dimension.

w vij (t 1)

correspond la composante

contrle

l'inuence de la direction de dplacement sur le dplacement futur . Il est noter que, dans certaines applications, le paramtre

w peut tre variable [Siarry et al., 2006]. c1 r1 (pij (t 1) xij (t 1)) correspond la composante cognitive
correspond la composante

du dplacement. du dplacement.

c1 c2

contrle contrle

le comportement cognitif de la particule.

c2 r2 (gj (t 1) xij (t 1))


l'aptitude sociale de la particule.

sociale

La combinaison des paramtres

w, c1

et

c2

permet de rgler la balance entre les phases diversi-

cation et intensication du processus de recherche [Shi et al., 1998 ; Kennedy et al., 2001]. Il est noter que le terme vitesse est ici abusif car les vecteurs

Vi

ne sont pas homognes une vitesse. Il

serait plus appropri de parler de direction de dplacement. Cependant, pour respecter l'analogie avec le monde animalier, les auteurs ont prfr utiliser le terme vitesse. La position au temps

de la particule

est alors dnie par (1.6). (1.6)

xij (t) = xij (t 1) + vij (t) , j {1, . . . , D}

L'OEP est un algorithme population. Il commence par une initialisation alatoire de l'essaim dans l'espace de recherche. A chaque itration de l'algorithme, chaque particule est dplace suivant (1.5) et (1.6). Une fois le dplacement des particules eectu, les nouvelles positions sont values. Les

pi

ainsi que

sont alors mis jour. Cette procdure est rsume par l'Algorithme 7.

est le

nombre de particules de l'essaim. Le critre d'arrt peut tre dirent suivant le problme pos. Si l'optimum global est connu a priori, on peut dnir une erreur acceptable

comme critre d'arrt. Sinon, il est commun de

xer un nombre maximum d'valuations de la fonction objectif ou un nombre maximum d'itrations

20

CHAPITRE 1.

MTAHEURISTIQUES D'OPTIMISATION : TAT DE L'ART

Algorithme 7 Algorithme d'optimisation par essaim particulaire Initialisation alatoire des positions et des vitesses de chaque particule Pour chaque particule i, = Xi pi Tant que le critre d'arrt n'est pas atteint faire Pour i = 1 N faire Dplacement de la particule l'aide de (1.5) et (1.6) valuation des positions Si f Xi < f () pi Fin Si Si f () < f () pi g Fin Pour Fin Tant que
comme critre d'arrt. Cependant, au regard du problme pos et des exigences de l'utilisateur, d'autres critres d'arrt peuvent tre utiliss.

= pi Xi

= g pi

1.2.2.6.1 Connement des particules


peut introduire un nouveau paramtre disponible dans [Fan et al., 2001].

Il est possible que le dplacement d'une particule la

conduise sortir de l'espace de recherche. Dans ce cas, on peut assister une amplication des rtroactions positives, qui conduit une divergence de systme. Pour s'aranchir de ce problme, on

Vmax , qui va permettre de contrler l' explosion

du systme

[Eberhart et al., 1996]. Une tude sur le comportement de l'OEP suivant les valeurs de

Vmax

est

De plus, une stratgie de connement des particules peut tre introduite. Une telle stratgie permet de ramener une particule sortie de l'espace de recherche l'intrieur de celui-ci. Plusieurs mthodes peuvent tre alors employes :

La particule est laisse l'extrieur de l'espace de recherche, mais on n'value pas sa fonction objectif. Ainsi, elle ne pourra pas attirer les autres particules en dehors de l'espace de recherche ; La particule est stoppe la frontire et les composantes correspondantes de la vitesse sont annules ; La particule rebondit sur la frontire. La particule est stoppe sur la frontire, mais les composantes correspondantes de la vitesse sont multiplies par un coecient dans l'intervalle [-1,0].

tir alatoirement

Cependant, suivant les besoins, de nombreuses autres mthodes peuvent tre utilises.

1.2.2.6.2 Graphes d'inuence

Si l'on se rfre la version basique de l'OEP rsume par

l'Algorithme 7, la meilleure particule

est choisie partir de la population entire. Le graphe

d'information est donc compltement connect. On est ici en prsence d'une topologie statique d'information, car les liens d'information entre les particules sont dnis une fois pour toutes. De mme, Eberhart et al. [Eberhart et al., 1995] ont dni une version dite locale de l'OEP, qui utilise aussi un graphe d'information statique. Cette version utilise un graphe d'information circulaire. Les particules de l'essaim sont virtuellement disposes en cercle et numrotes squentiellement partir de 1 en parcourant le cercle. La particule n'est donc plus informe par toutes les particules

1.2.

OPTIMISATION MONO-OBJECTIF

21

Figure 1.5  Graphe d'inuence d'un essaim de particules. (a) Graphe compltement connect, (b)
Graphe circulaire. de l'essaim, mais par elle-mme et ses deux voisins. Bien qu'elle converge moins rapidement que la version globale, la version locale de l'OEP donne de meilleurs rsultats, car elle est moins sujette l'attraction par des minima locaux [Kennedy, 1999]. La Figure 1.5 illustre la dirence entre un graphe compltement connect et un graphe circulaire.

De nombreuses autres topologies ont t testes. Parmi celles-ci, on peut retenir celles inspires de modles socio-psychologiques [Bavelas, 1950] ou celles incluant des stratgies petit-monde [Watts et al., 1998]. Des rsultats d'OEP utilisant direntes topologies sont disponibles dans [Kennedy, 1999 ; Clerc, 2006]. L'information importante qui ressort de ces rsultats est qu'aucune topologie n'est meilleure que les autres, dans le sens o il n'y a aucune topologie qui donne de meilleurs rsultats que toutes les autres sur un large panel de problmes. A l'inverse des topologies statiques, il existe aussi des topologies dynamiques. Dans ce cas, les liens d'information entre les particules sont modis chaque pas de temps. Par exemple, dans [Suganthan, 1999], une stratgie globale, favorisant une convergence rapide, est combine une stratgie locale, qui favorise la phase de diversication. L'algorithme dbute avec une topologie circulaire classique (2-voisinage) puis, au fur et mesure du traitement, la taille des voisinages est augmente jusqu' obtenir un graphe compltement connect. L'ide est de combiner les avantages des deux stratgies pour amliorer les rsultats de l'OEP. De mme, d'autres exemples de topologies alatoires sont disponibles dans [Peram et al., 2003 ; Liang et al., 2005 ; Janson et al., 2005 ; Clerc, 2006]. Comme dans le cas des topologies statiques, les rsultats ne permettent pas de dgager une hirarchie claire.

1.2.2.6.3 Facteur de constriction

L'tude de la dynamique des particules au sein de l'essaim

a conduit la recherche de solutions pour viter la divergence de l'algorithme. Dans les paragraphes prcdents, on a vu en quoi l'introduction du paramtre

Vmax

peut limiter la divergence des parti-

cules. De nombreuses tudes sur la dynamique ont t publies au l du temps [Kennedy, 1998 ; Ozcan et al., 1999 ; Van den Bergh, 2002]. Toutes ces tudes s'attachent tudier dans quelle situation une convergence de l'essaim est assure. Dans [Clerc et al., 2002], il a t dmontr qu'une bonne convergence peut tre assure en rendant dpendants les paramtres d'un paramtre

w, c1

et

c2 . L'utilisation d'un facteur de constriction permet de prvenir

l'explosion de l'essaim, d'assurer la convergence, mais aussi de s'aranchir de la dnition arbitraire

Vmax .

L'quation (1.5) devient alors :

22

CHAPITRE 1.

MTAHEURISTIQUES D'OPTIMISATION : TAT DE L'ART

vi,j (t + 1) = (vi,j (t) + 1 r1 (pi,j xi,j (t)) + 2 r2 (gj xi,j (t))) , j {1, . . . , D}
avec :

(1.7)

2 2+ 2 4

, = 1 + 2 , > 4

(1.8)

On remarque que l'OEP avec coecient de constriction est quivalente l'OEP originale avec

w, c1 1
de

et

c2 2 . = 4.1
et

Dans [Clerc et al., 2002], de nombreux tests sont mens pour dterminer les valeurs optimales

et

2 .

Dans la majorit des cas, on utilise

1 = 2 ;

ce qui donne un coecient

multiplicatif

approximativement gal 0.7298.

La dnition du paramtre tiques suivantes :

permet de contrler le systme, an qu'il prsente les caractris-

Le systme converge vers un tat d'quilibre ; Plusieurs rgions de l'espace de recherche sont explores, tout en vitant une convergence prmature.

Bien que le systme converge avec certitude vers un tat d'quilibre, il n'est cependant pas certain que l'algorithme converge vers l'optimum global. Il est noter que l'OEP avec facteur de constriction n'est pas le seul algorithme d'OEP garantissant la convergence vers un tat d'quilibre. D'autres exemples peuvent tre trouvs dans [Van den Bergh, 2002; Trelea, 2003; Peer et al., 2003; Zheng et al., 2003]. La dnition du facteur de constriction permet au systme de converger, sans pour autant avoir dnir un paramtre mme bnque de dnir un paramtre

i, Vmaxi

Vmax . Cependant, il a t montr dans [Eberhart et al., 2000], qu'il est quand Vmax . Cette tude amne dnir, pour chaque dimension gal Xmaxi , qui dnit la taille de l'espace de recherche sur la dimension i. Cette version

de l'OEP a t adopte comme la version canonique de celui-ci.

1.2.2.6.4 OEP et hybridation

Procd rpandu dans le monde des mtaheuristiques, l'hybri-

dation a aussi touch le domaine de l'OEP. L'hybridation consiste combiner les caractristiques de deux mthodes direntes pour tirer les avantages des deux mthodes [Talbi, 2002]. Dans ce paragraphe, on prsentera quelques exemples d'hybridation entre l'OEP et d'autres mthodes. La premire hybridation d'un algorithme d'OEP est rencontre dans [Angeline, 1998]. Dans cet article, Angeline introduit dans l'algorithme d'OEP un processus de slection et un processus de mutation inspirs des algorithmes volutionnaires. Le processus de slection est utilis pour choisir des bonnes particules qui vont subir une mutation et des mauvaises  particules qui sont limines. Dans [Miranda et al., 2002], Miranda et al. utilisent aussi une hybridation entre l'OEP et les stratgies volutionnaires. Les paramtres

, 1

et

2 ,

ainsi que

, g

sont perturbs l'aide d'une

distribution gaussienne. La variance de cette distribution est dtermine l'aide d'un processus de slection. Dans [Robinson et al., 2002], il est dvelopp une hybridation entre l'OEP et les algorithmes gntiques. Il est dmontr dans cet article que l'OEP est favorable dans la phase de diversication alors que les algorithmes gntiques sont plus ecaces dans la phase d'intensication. Dans [Poli et al., 2004], on trouve une hybridation entre l'OEP et la mthode du hill-climbing [Russell et al., 2003]. Les particules n'ont plus ici de mmoire, mais utilisent plutt la physique des masses pour se dplacer dans l'espace de recherche. Des forces telles que la gravit, l'lasticit ou le frottement sont notamment utilises. La gravit apporte la comptence permettant de chercher

1.2.

OPTIMISATION MONO-OBJECTIF

23

les mimina, l'lasticit permet de maintenir la diversit et les frottements permettent d'intensier la recherche dans les zones intressantes de l'espace de recherche. Dans [Shelokar et al., 2004], un algorithme d'OEP est hybrid avec un algorithme de colonies de fourmis. L'OEP est utilise comme mthode de recherche globale alors que l'algorithme de colonies de fourmis est cens amliorer le processus d'intensication, en tant utilis comme une recherche locale. Une hybridation entre un algorithme d'OEP et un procd d'volution direntielle [Price, 1996 ] est prsente dans [Zhang et al., 2003]. Enn, un algorithme d'OEP utilisant des principes des algorithmes estimation de distribution est prsent dans [Iqbal et al., 2006]. Les meilleures particules sont ici utilises pour attirer les autres particules de l'essaim l'aide de l'estimation d'une distribution de probabilit.

1.2.2.6.5 OEP adaptative

Comme toutes les autres mtaheuristiques, l'OEP possde de nom-

breux paramtres de contrle. Si l'on se rfre l'OEP avec facteur de constriction, les paramtres dnir par l'utilisateur sont les suivants :

N,

K, la taille maximale du voisinage d'une particule ;


, le coecient de constriction ; 1 et 2 ; Vmax , la vitesse maximale.

la taille de l'essaim ;

Le rglage de tous ces paramtres est un processus qui s'avre long et dicile. En eet, chaque paramtre ayant une forte inuence sur le comportement de l'algorithme [Shi et al., 1998 ; Van den Bergh, 2002], il est important de trouver un jeu de paramtres bien adapt au problme pos. De ce fait, chaque problme ncessiterait en thorie une tude qui permettrait de dgager le jeu de paramtres optimal pour le traiter. Or, un tel procd est souvent long raliser et demande une bonne connaissance au pralable du comportement de l'algorithme, ce qui le rend inapplicable dans un contexte industriel. C'est pourquoi un nouvel axe de recherche, qui s'attache rduire le nombre de paramtres libres des mtaheuristiques, s'est dvelopp. Le but est de trouver des rgles qui aranchissent l'utilisateur de dnir les paramtres, en calculant ceux-ci au fur et mesure du traitement, en fonction des rsultats donns par l'algorithme. Ainsi, l'algorithme adapte son comportement au problme pos, au lieu d'avoir un comportement g, dni au pralable par l'utilisateur. Le but ultime serait de concevoir un algorithme qui n'aurait aucun paramtre de contrle ; un tel algorithme agirait comme une bote noire pour laquelle l'utilisateur n'aurait qu' dnir les problmes et le critre d'arrt. videmment, pour tre valable, un tel algorithme se doit de prsenter des rsultats au moins gaux ceux des algorithmes paramtriques. Dans le but de limiter l'intervention de l'utilisateur, des tudes sur le choix des paramtres ont t mises en place au cours des dernires annes. Dans [Shi et al., 1998], Shi et Eberhart proposent une tude qui donne une indication sur les performances de l'OEP en fonction des direntes valeurs de

et de

Vmax .

Dans [Van den Bergh, 2002], Van den Bergh propose une tude exhaustive de

l'inuence des paramtres sur le comportement de trois algorithmes dirents d'OEP. Il y apparat que, suivant que le problme pos soit unimodal ou multimodal, les jeux de paramtres sont dirents. L'enjeu crucial apparat tre le taux de diversit au sein de l'essaim, un problme multimodal ncessitant un essaim avec un taux de diversit beaucoup plus important que dans le cas unimodal. Une topologie de voisinage fortement connecte favorisera ainsi la rsolution des problmes unimodaux, alors qu'un essaim de taille importante aura tendance favoriser la rsolution de problmes multimodaux. Dans [Trelea, 2003], l'OEP est tudie en utilisant les rsultats de base sur les systmes dynamiques. Comme Van den Bergh, Trelea pose la dnition des paramtres comme un problme de compromis diversication-intensication. De nombreuses autres tudes sont disponibles

24

CHAPITRE 1.

MTAHEURISTIQUES D'OPTIMISATION : TAT DE L'ART

dans la littrature. Cependant, bien que donnant une ide aux utilisateurs potentiels de l'inuence des paramtres, ces tudes sont quand mme relativement restrictives. En eet, ces tudes portent souvent sur des intervalles limits de valeurs et ne sont applicables qu' des topologies statiques de voisinages. Il existe aussi des tudes portant sur la dnition des procdures automatiques de choix des paramtres. Birattari et al. [Birattari et al., 2002] proposent une procdure de conguration des mtaheuristiques base sur un algorithme nomm F-RACE, qui appartient la classe des racing algorithms trs utiliss en apprentissage [Maron et al., 1994]. Cet algorithme utilise le test nonparamtrique de Friedman [Friedman, 1937] pour adapter au mieux le jeu de paramtres aux spcicits du problme pos. Hutter et al. [Hutter et al., 2006] proposent d'utiliser des modles hardness pour pouvoir prdire les paramtres d'un algorithme. Adenso-Diaz et Laguna [Adenso-Diaz et al., 2006] proposent eux-aussi une mthode nomme CALIBRA, qui utilise la mthode de Taguchi [Nair, 1992], ainsi qu'un algorithme de recherche locale, pour dterminer les paramtres. Ces procdures, bien qu'ecaces sur certains points, n'ont pour autant pas rencontr un vif succs. La principale raison est qu'elles ne s'appliquent qu' un champ restreint de mthodes et elles ne se sont pas avres robustes sur un large panel de problmes. Enn, la dernire faon de choisir les paramtres d'une mthode est justement de ne pas les choisir. Au lieu de dnir des paramtres avant l'excution de la mthode, on prfre ici modier les valeurs des paramtres au cours du traitement, en fonction des rsultats trouvs au cours des direntes itrations. De nombreuses mtaheuristiques ont t conues dans ce domaine : des algorithmes gntiques [Schnecke et al., 1996; Sawai et al., 1999; Murata et al., 2002], des algorithmes de colonies de fourmis [Chen et al., 2004; Di Caro, 1998b; Frster et al., 2007], des algorithmes de recherche tabou [Battiti, 1996] ou encore des algorithmes de recuit simul [Ingber, 1996]. Dans le domaine de l'OEP, de nombreux algorithmes de ce type existent aussi. Suganthan [Suganthan, 1999] propose de modier la taille des voisinages des particules en fonction du temps. De mme, Shi [Shi et al., 2001] propose de modier le coecient d'inertie

en utilisant des rgles de

logique oue. L'algorithme propos par Ye et al. [Ye et al., 2002] limine les particules inactives et les remplace par de nouvelles particules, plus mme d'explorer l'espace de recherche. Zhang et al. [Zhang et al., 2003b] proposent de modier la fois la taille de l'essaim, le coecient de constriction et la taille des voisinages, l'aide d'un seuil d' amlioration. Dans [Kennedy, 2003], Kennedy propose de remplacer les quations de dplacement par une distribution gaussienne de moyenne et de variance

| |. En 2004, Yasuda et Iwasaki [Yasuda et al., 2004] ont propos un algorithme pi pg

+ p pi g 2

qui dnit les valeurs des paramtres partir de l'information apporte par les vecteurs vitesse des particules. En 2003, Clerc [Clerc, 2003] a dvelopp un algorithme adaptatif appel TRIBES. La description de TRIBES fera l'objet du Chapitre 2. Cette liste est non exhaustive, mais dresse un aperu assez complet de tout ce qui peut tre imagin pour adapter un algorithme d'OEP. Ce paragraphe a prsent succinctement l'Optimisation par Essaim Particulaire, ainsi que les principales avances depuis sa cration en 1995. Pour plus de dtails sur la mthode, une revue complte est disponible dans [Banks et al., 2007 ; Banks et al., 2007b].

1.3 Optimisation multiobjectif


Les mtaheuristiques ont toutes t conues l'origine pour rsoudre des problmes monoobjectif. Cependant, devant l'omniprsence des problmes multiobjectifs dans les cas rels, de nouvelles mthodes ont d tre cres pour rsoudre de tels problmes. Aprs avoir dni le problme d'optimisation multiobjectif, cette partie prsentera de manire non exhaustive un tat de l'art des

1.3.

OPTIMISATION MULTIOBJECTIF

25

mtaheuristiques conues pour rsoudre les problmes multiobjectifs.

1.3.1 Dnition du problme


Un problme d'optimisation multiobjectif est un problme du type :

M inimiser f () = (f1 () , f2 () , . . . , fk ()) x x x x


sous les contraintes suivantes :

(1.9)

gi () 0, i = 1, 2, . . . , m x hi () = 0, i = 1, 2, . . . , p x
o

(1.10)

(1.11)

= (x , x , . . . , x ) est une position dans l'espace de recherche, f : RD R, i=1,...,k , sont les x 1 2 i D D fonctions objectifs du problme, gi : R R, i=1,...,m, sont les contraintes d'ingalit du problme D et hi : R R, i=1,...,p, sont les contraintes d'galit du problme.
Dans le cas multiobjectif, le concept d'optimum est dirent que dans le cas mono-objectif. En eet, on n'est plus ici la recherche d'un unique optimum global, mais plutt d'une surface de solutions qui orent un bon compromis entre les dirents objectifs. Pour bien comprendre la notion d'optimalit dans le cas multiobjectif, on introduit les dnitions suivantes, bases sur les travaux de Pareto [Pareto, 1896] :

Dnition 1 : tant donn , Rk , on dit que si xi yi pour i=1,..., k, et que x y x y domine (not ) si et = . x y x y x y x y

La Figure 1.6 illustre un cas de dominance dans le cas de deux fonctions objectif.

Dnition 2

: On dit qu'un vecteur solution

n'existe pas d'autre vecteur

Dnition 3

: On dit qu'un

RD x tel que f x f ( x ). D vecteur solution x F R

est

non-domin

dans

s'il

est

Pareto-optimal

s'il est

non-domin dans

Dnition 4 : L'ensemble optimal de Pareto est dni par :


P = { F| x est P areto optimal} x f ( x ) Rk | P x
(1.12)

F.

Dnition 5 : Le front optimal de Pareto est dni par :


FP =
(1.13)

La Figure 1.7 montre le cas particulier d'un front de Pareto dans le cas d'un problme bi-objectif.

Le but d'un algorithme d'optimisation multiobjectif est donc de trouver les positions de l'espace de recherche qui correspondent au front de Pareto Pareto.

FP . Les algorithmes d'optimisation multiobjectif

se divisent en trois familles : les approches agrgatives, les approches non-Pareto et les approches

26

CHAPITRE 1.

MTAHEURISTIQUES D'OPTIMISATION : TAT DE L'ART

Figure 1.6  Relation de dominance.

Figure 1.7  Front de Pareto dans le cas bi-objectif.

1.3.

OPTIMISATION MULTIOBJECTIF

27

f2

f2

Hyper-plan

Hyper-plan Optimiser F z

x
Optimiser F

f1

f1

(a)

(b)

Figure 1.8  Mthode d'agrgation. (a) Front de Pareto convexe, (b) Front de Pareto concave.
1.3.2 Approche agrgative
Cette approche, dite approche nave, consiste transformer un problme multiobjectif en problme mono-objectif pour y appliquer les mthodes dj existantes [Collette et al., 2002]. Pour cela, on ralise une combinaison des

fi

pour obtenir un objectif unique

F.
(1.14)

F () = x
o les paramtres dirents critres.

k i=1

ai fi () x
k i=1 ai

ai

sont strictement positifs et

= 1.

Ils reprsentent les poids aects aux

Cette mthode prsente pour avantage d'tre simple mettre en oeuvre et elle ne fournit qu'une seule solution, ce qui vite l'intervention d'un dcideur. Les principaux problmes sont la dtermination des paramtres

ai

et le choix des interactions entre les dirents critres.

Il est commun de ne pas donner aux

ai

des valeurs statiques, mais plutt de modier leurs valeurs

au cours du temps. Par exemple, on peut trouver dans la littrature des mthodes aveugles, qui permettent de modier de faon alatoire les paramtres au cours du temps [Ishibuchi et al., 1998]. La Figure 1.8 (a) illustre le fonctionnement de la mthode d'agrgation dans le cas bi-objectif. L'espace des solutions ralisables est not est concave, les solutions

A.

Le calcul des paramtres revient trouver l'hyperplan

tangent au front de Pareto. La Figure 1.8 (b) illustre les limites de la mthode. Si le front de Pareto

et

peuvent tre trouves, alors que les autres points ne le seront jamais.

1.3.3 Approche non-Pareto


Les mthodes bases sur une approche non-Pareto ont pour caractristique de traiter les objectifs sparment. Deux groupes de mthodes existent : les mthodes slection lexicographique et les mthodes slection parallle. Dans une approche classique de slection lexicographique, les fonctions sont optimises squentiellement, suivant un ordre dni a priori. Cet ordre permet de dnir le poids des objectifs. Plusieurs mtaheuristiques ont t utilises pour la rsolution des problmes multiobjectifs slection

28

CHAPITRE 1.

MTAHEURISTIQUES D'OPTIMISATION : TAT DE L'ART

lexicographique [Talbi, 1999]. L'approche slection parallle a t propose par Schaer dans [Schaer, 1985]. Son algorithme, inspir d'un algorithme volutionnaire et nomm VEGA, slectionne les solutions courantes du front de Pareto suivant chaque objectif, indpendamment des autres (d'o le paralllisme). L'analyse du comportement de cet algorithme a montr qu'il se comportait d'une manire similaire un algorithme utilisant une mthode agrgative. D'autres travaux ont t mens sur ce sujet [Richardson et al., 1989 ; Berro, 2001].

1.3.4 Approche Pareto


Contrairement aux deux prcdentes approches, l'approche Pareto utilise la notion de dominance pour slectionner des solutions faisant converger la population vers un ensemble de solutions qui approchent avec justesse le front de Pareto. Cette approche a t initie par Goldberg en 1989 [Goldberg, 1989]. Cette approche assure un traitement quitable de chaque critre, car il n'y a pas de classement a priori de l' importance des critres. Ainsi, en n de traitement, l'algorithme fournit un ensemble de solutions qui approchent le front de Pareto. Le choix de la solution nale revient donc l'utilisateur, qui doit choisir parmi l'ensemble fourni la solution qui lui convient le mieux [Talbi, 1999]. Ces mthodes se sont avres tre les plus ecaces donc, de nos jours, la majorit des algorithmes utilisent une approche Pareto pour traiter les problmes multiobjectifs. Le paragraphe suivant fournit un bref aperu des mtaheuristiques d'optimisation multiobjectif.

1.3.5 Mtaheuristiques pour l'optimisation multiobjectif 1.3.5.1 Algorithme de recuit simul


La mthode de recuit simul en optimisation multiobjectif a d'abord t aborde sous l'angle agrgatif [Serani, 1992 ; Friesz et al., 1993]. Les deux mthodes les plus populaires sont la mthode MOSA (Multiple Objective Simulated Annealing) propose par Ulungu et al. [Ulungu et al., 1999] et la mthode PASA (Pareto Archived Simulated Annealing) propose dans [Engrand, 1997]. MOSA utilise les caractristiques du recuit simul pour rechercher le plus ecacement possible les solutions non-domines. PASA utilise une fonction d'agrgation des fonctions objectifs, couple avec un systme d'archivage des solutions non-domines.

1.3.5.2 Algorithmes volutionnaires


Les algorithmes volutionnaires sont trs largement utiliss pour rsoudre des problmes multiobjectifs. Parmi tous les algorithmes existants, on retrouve les trois approches dcrites en 1.3.2, 1.3.3 et 1.3.4 [Talbi, 1999]. Une tude comparative des algorithmes volutionnaires pour l'optimisation multiobjectif est disponible dans [Zitzler et al., 1999]. Parmi les mthodes utilisant l'approche Pareto, on distingue deux familles d'algorithmes : les non-litistes et les litistes. Parmi les mthodes non-litistes, l'algorithme MOGA (Multiple Objective Genetic Algorithm) propos par Fonseca et al. [Fonseca et al., 1995] est l'un des plus connus. Cet algorithme se base sur le classement des individus suivant le nombre d'individus domins. NSGA (Non Dominated Sorting Genetic Algorithm) [Srivinas et al., 1995] propose de diviser la population en plusieurs groupes, fonctions du degr de domination de chaque individu. Enn, l'algorithme qui fait rfrence dans le domaine est NSGA-II [Deb et al., 2002], qui est une volution de NSGA, mais en version litiste. Parmi les mthodes litistes, on peut citer SPEA (Stength Pareto Evolutionary Algorithm) [Ziztler et al., 1999], o l'on prote du passage de gnration pour mettre jour les direntes sauvegardes. Les individus non-domins sont sauvegards et les individus domins dj prsents sont

1.3.

OPTIMISATION MULTIOBJECTIF

29

Dterminer les leaders Stockage des solutions non-domines

Algorithme 8 Algorithme gnral d'OEP multiobjectif Initialisation alatoire des positions et des vitesses de chaque particule

Tant que le critre d'arrt n'est pas atteint faire Pour i = 1 N faire Dplacement de la particule l'aide de (1.5) et (1.6)
Mutation

valuation des positions Fin Pour

Mise jour des leaders cognitifs

Fin Tant que

Mise jour des leaders sociaux Mise jour des solutions non-domines

limins. Une volution de cet algorithme est disponible dans [Zitzler et al., 2002]. Cette volution a une plus grande complexit, mais prsente de meilleurs rsultats.

1.3.5.3 Algorithme de colonies de fourmis


En optimisation mono-objectif, les algorithmes de colonies de fourmis sont trs apprcis pour rsoudre des problmes combinatoires. En revanche, peu de travaux existent dans le cas multiobjectif. Dans l'tat de l'art ralis par Blum en 2005 [Blum, 2005] on ne retrouve que trois rfrences des algorithmes multiobjectifs. Doerner et al. [Doerner et al., 2004 ; Doerner et al., 2006] ont propos un algorithme nomm P-ACO ddi la rsolution du problme d'allocation de portefeuilles. Cet algorithme prsente de bons rsultats, notamment face NSGA et au recuit simul, mais soure de ne pas avoir t compar NSGA-II, la rfrence en la matire. L'algorithme OCF de Gagn [Gagn et al., 2004] repose sur le mme principe que P-ACO. A chaque itration, les fourmis changent de fonction objectif optimiser. A la n de l'itration, la fourmi ayant la meilleure performance met jour le trac de phromone. Quelques travaux sur une application de poursuite des multi-trajets sont disponibles dans [Benlian et al., 2007].

1.3.5.4 Optimisation par Essaim Particulaire


L'Algorithme 8 prsente le schma global d'un algorithme d'OEP adapt pour l'optimisation multiobjectif. Les tapes ajoutes par rapport une OEP mono-objectif sont indiques en italique. La rsolution d'un problme multiobjectif revient slectionner les positions non-domines trouves par l'algorithme au cours de son excution. De ce fait, la n de l'excution, les solutions retenues se doivent d'tre des solutions non-domines vis--vis de toutes les positions atteintes par les particules au cours des itrations successives. Il apparat donc ncessaire de tenir jour une liste des solutions non-domines trouves au cours du traitement et de mettre celle-ci jour la n de chaque itration. La solution la plus couramment utilise pour rsoudre ce problme est d'utiliser une archive extrieure. Une solution potentielle est alors accepte dans l'archive si, et seulement si, elle est non-domine vis--vis du contenu de l'archive. De plus, si elle domine des solutions contenues dans l'archive, celles-ci sont retires de l'archive. Le problme d'une telle approche est qu'elle peut tre trs rapidement coteuse en complexit. En eet, la taille de l'archive peut devenir rapidement importante. De ce fait, le temps de calcul pour mettre jour les solutions non-domines peut s'avrer excessif. Dans le pire des cas, toutes les

30

CHAPITRE 1.

MTAHEURISTIQUES D'OPTIMISATION : TAT DE L'ART

positions de l'essaim sont ajoutes l'archive, ce qui induit une complexit de le nombre d'objectifs,

O kM N 2

est

est le nombre d'itrations et

est la taille de l'essaim. Pour pallier cet

inconvnient, il est commun de dnir une taille maximale pour l'archive [Coello Coello et al., 2002]. L'introduction de ce paramtre implique aussi la dnition d'une rgle d'inclusion de solutions dans l'archive, dans le cas o celle-ci est pleine. Dans les paragraphes suivants, on dresse une liste non exhaustive des travaux existants en OEP multiobjectif.

1.3.5.4.1 Approche agrgative

Parsopoulos et Vrahatis [Parsopoulos et al., 2002] proposent

d'agrger les objectifs suivant trois mthodes direntes : une agrgation linaire classique, pour laquelle les poids sont xs, une agrgation dynamique, pour laquelle les poids sont modis au cours du traitement et une agrgation dite bang-bang [Jin et al., 2001], pour laquelle les poids sont brutalement modis au cours du temps. Cet algorithme utilise une OEP avec une topologie totalement connecte. De mme, Baumgartner et al. [Baumgartner et al., 2004] utilisent une OEP avec une topologie compltement connecte combine avec une agrgation linaire des objectifs. L'essaim est divis en

sous-essaims utilisant chacun un jeu de poids dirent et possdant chacun leur propre leader. Les

solutions optimales au sens de Pareto sont dtermines l'aide d'une mthode base sur l'utilisation du gradient.

1.3.5.4.2 Approche non-Pareto

Hu et Eberhart [Hu et al., 2002] ont propos un algorithme

qui optimise un seul objectif la fois, en utilisant un ordre lexicographique. Cette approche utilise une OEP avec une topologie circulaire de voisinage. Cet algorithme n'introduit pas d'archive externe de stockage. Cependant, dans [Hu et al., 2003], une version de cet algorithme avec utilisation d'une archive externe est propose. Parsopoulos et al. [Parsopoulos et al., 2004] ont propos une version parallle de VEPSO (Vector Evaluated Particle Swarm) inspire de VEGA (cf. 1.3.5.2). VEPSO est un algorithme multi-essaim pour lequel chaque sous-essaim traite un des objectifs. Chaque sous-essaim change son information (e.g., son

) g

avec les autres sous-essaims. Les auteurs montrent que cette mthode peut mener

des solutions Pareto optimales. Dans [Chow et al., 2004], un algorithme multi-essaim est aussi propos. Chaque essaim traite individuellement un des objectifs. L'change des informations est eectu entre les sous-essaims voisins par l'intermdiaire de l'change des vecteurs les dirents sous-essaims.

. g

A l'intrieur d'un sous-essaim les particules sont

compltement connectes. A l'oppos, une topologie locale de voisinage est utilise pour connecter

1.3.5.4.3 Approche Pareto


au sein de l'essaim.

Dans [Ray et al., 2002], il est propos un algorithme utilisant la

dominance de Pareto et qui combine l'OEP avec des techniques issues des algorithmes volutionnaires. Les auteurs utilisent un oprateur de densit sur le voisinage pour promouvoir la diversit Coello Coello et al. [Coello Coello et al., 2002b ; Coello Coello et al., 2004] ont dvelopp un algorithme bas sur l'utilisation d'une archive externe. La mise jour de l'archive est ralise suivant un critre gographique. L'espace de recherche est divis en hyper-cubes auxquels on donne des notes, qui sont fonction du nombre de solutions non-domines situes dans chacun d'eux. Les leaders sont choisis dans les hyper-cubes slectionns l'aide d'un oprateur de slection par roulette bas sur leurs notes. Un oprateur de mutation est aussi utilis. Une approche hybride OEP-algorithme volutionnaire est propose dans [Srinivasan et al., 2003]. Le but ici est d'appliquer les oprateurs des algorithmes volutionnaires an de rendre plus ecaces

1.4.

CONCLUSION

31

les mcanismes de l'OEP. Un oprateur de slection est ici aussi utilis pour assurer la convergence vers des solutions non-domines. Les auteurs n'utilisent pas d'archive externe, la population la dernire itration constituant les solutions nales du problme. Bartz-Beielstein et al. [Bartz-Beielstein et al., 2003] ont introduit une stratgie litiste l'OEP. Dirents oprateurs de slection et d'limination sont tudis pour trouver la combinaison qui produit la meilleure approximation du front de Pareto. Les mthodes d'limination sont bases sur la contribution des particules la diversit de l'essaim. A l'oppos, les oprateurs de slection sont bass sur les valeurs des fonctions objectifs. Dans [Li, 2003], on trouve une adaptation des principaux mcanismes de NSGA-II l'OEP multiobjectif. Les leaders sont slectionns parmi les lments de l'archive. On utilise deux mthodes de slection : une stratgie de niching et une stratgie de densit du voisinage. De mme, dans [Raquel et al., 2005], la distance d'encombrement ( lments de l'archive. De nombreuses autres mthodes sont rfrences dans [Reyes-Sierra et al., 2006].

crowding distance),

dj utilise dans NSGA-II, sert de

critre pour maintenir la diversit dans l'archive. La slection des leaders se fait aussi partir des

1.4 Conclusion
Nous avons prsent dans ce chapitre les problmes d'optimisation dicile, qu'ils soient monoobjectif ou multiobjectif. Une famille de mthodes de rsolution de ces problmes a t prsente : les mtaheuristiques. Les mtaheuristiques sont des mthodes stochastiques qui visent rsoudre un large panel de problmes, sans pour autant que l'utilisateur ait modier leur structure. Ces mthodes sont inspires d'analogies avec des domaines aussi varis que la physique, la gntique ou encore l'thologie. Les mtaheuristiques ont vite rencontr un vif succs grce leur simplicit d'emploi mais aussi leur forte modularit. On a vu tout au long de ce chapitre que, suivant la nature du problme pos (continu/discret, mono-objectif/multiobjectif, etc.), les mtaheuristiques sont facilement adaptables et/ou hybridables en vue d'obtenir les meilleures performances possibles. Un intrt particulier a t port la mthode d'optimisation par essaim particulaire. Cette jeune mthode, inspire des dplacements d'animaux en essaims, a rencontr un vif succs depuis sa cration. Sa relative simplicit et son ecacit en font un des algorithmes les plus utiliss de nos jours. De nombreux axes de recherches ont pour objet de tirer le meilleur parti du paradigme de l'OEP. Parmi ceux-ci, la rduction des paramtres apparat comme un enjeu crucial, en vue de l'introduction massive de l'OEP dans l'industrie. Les chapitres suivants prsentent une mthode d'optimisation particulaire adaptative, qui prsente la particularit de ne comporter aucun paramtre de contrle.

Chapitre 2
tude et perfectionnement de TRIBES, algorithme d'OEP sans paramtre

2.1 Introduction
Comme nous l'avons vu dans le Chapitre 1 de ce manuscrit, la famille des mtaheuristiques regroupe un panel trs vari de mthodes d'optimisation. Sujet privilgi dans le domaine de la recherche oprationnelle, elles arrivent aujourd'hui un tournant important de leur existence. En eet, les direntes mthodes, telles qu'elles ont t initialement dnies, atteignent aujourd'hui leurs limites. De ce fait, de nouveaux axes de recherche sont explors an de dpasser les restrictions imposes par les algorithmes originaux et, ainsi, d'arriver une meilleure prise en main des algorithmes par les utilisateurs novices, mais aussi de meilleures performances. Les mtaheuristiques sont reconnues pour tre des mthodes performantes mais elles ne rencontrent qu'un succs modr dans le monde de l'industrie. Dans un milieu o seule la performance compte, l'aspect stochastique des mtaheuristiques semble encore tre un obstacle dicile franchir pour les dcisionnaires. Il est donc important que les chercheurs de la communaut portent un eort tout particulier sur la facilit de prise en main des algorithmes. Plus les algorithmes seront faciles d'accs pour les utilisateurs novices, plus l'utilisation de ceux-ci pourra se rpandre. Parmi les amliorations possibles, la rduction du nombre de paramtres des algorithmes apparat comme un enjeu majeur. En eet, les mtaheuristiques sont fortement dpendantes de leur jeu de paramtres. De ce fait, le traitement d'un problme passe, au pralable, par la dnition d'un jeu de paramtres optimal. Or, cette tape, dj longue et fastidieuse, ncessite un connaissance assez pousse des mcanismes de l'algorithme utilis. Un industriel ayant un problme d'optimisation rsoudre risque de ne pas prendre le temps de trouver le jeu de paramtres optimal. Il est donc important d'aranchir l'utilisateur de cette tape en proposant des rgles intelligentes qui permettent de dterminer automatiquement les paramtres des algorithmes. De telles rgles ont dj t prsentes dans le cadre de l'optimisation par essaim particulaire (cf. section 1.2.2.6). Dans ce chapitre, on prsente en dtail TRIBES, un algorithme d'optimisation par essaim particulaire sans paramtres de contrle [Clerc, 2003]. Les contributions apportes cet algorithme seront aussi prsentes, ainsi que des rsultats numriques tablis partir de la procdure de test dnie lors de la confrence

2005 IEEE Congress on Evolutionary Computation.


33

34

CHAPITRE 2. TUDE ET PERFECTIONNEMENT DE TRIBES

2.2 Prsentation de TRIBES


La description d'un problme d'optimisation impose l'utilisateur de spcier un certain nombre de donnes que l'algorithme ne peut pas deviner. Tout d'abord, il doit dlimiter l'espace de recherche, souvent en prcisant pour chaque dimension l'intervalle des valeurs admissibles. Ensuite, il doit indiquer comment, en chaque point de l'espace, la fonction objectif est value. Enn, il doit prciser son critre d'arrt. Une fois ces trois lments dnis, le problme est totalement dcrit. Dnir un algorithme sans paramtres de contrle implique qu'une fois le problme rsoudre spci, l'utilisateur n'a plus aucun paramtre dnir. L'algorithme doit donc incorporer des rgles qui vont dnir comment, chaque itration de l'algorithme, l'essaim va voluer et se comporter, tout en intgrant les informations progressivement recueillies au cours du traitement. Dnir de telles rgles peut apparatre comme une manire dtourne de donner des instructions de fonctionnement au programme, donc de dnir des paramtres. Cependant, si ces rgles sont susamment robustes et gnrales, il est possible de les ignorer et de les considrer comme faisant partie de manire intgrante de la mthode. Par exemple, on pourrait coder en dur une rgle du type on utilise 50 particules et dire que la dnition de ce paramtre est vite, mais l'exprience montre que les rsultats sont mauvais pour certains problmes et bons pour d'autres ; la rgle n'est pas robuste. Considrer ce point de vue revient adopter un point de vue ingnieur plutt qu'un point de vue chercheur. Les rsultats recherchs ne sont pas forcment les rsultats optimaux, mais du moins une approximation correcte de l'optimum. Ce qui est perdu en ecacit est gagn en facilit de prise en main de l'algorithme. En eet, il est absolument normal qu'un algorithme qui doit rechercher par lui-mme les valeurs de ses propres paramtres prsente des rsultats infrieurs un algorithme dont le comportement est guid par des paramtres soigneusement dnis par l'utilisateur. Clerc [Clerc, 2006] a adopt ce point de vue pour dnir TRIBES, un algorithme d'OEP adaptatif. Au sens vu dans le paragraphe prcdent, TRIBES peut tre considr comme un algorithme sans paramtres de contrle. TRIBES est dni comme une bote noire, pour laquelle l'utilisateur n'a qu' spcier le problme rsoudre. Proposer une OEP adaptative impose de rpondre deux types de questions : Comment la structure de l'essaim volue au cours du temps ? et Quel comportement doit adopter une particule ?. La premire question est relative la dnition du paramtre la topologie de voisinage. La deuxime question est relative la dnition des paramtres et comportementales. Ces deux types d'adaptations sont dnis dans les sections suivantes.

N et de w, c1 , c2

Vmax . Deux types d'adaptations sont alors dnis : les adaptations structurelles et les adaptations

2.3 Adaptations structurelles


2.3.1 Structure de l'essaim
Dans TRIBES, l'essaim est divis en plusieurs sous-essaims appels

tribus.

Les tribus sont de

tailles direntes, qui voluent au cours du temps. Le but est d'explorer simultanment plusieurs rgions de l'espace de recherche, gnralement des optima locaux, avant de prendre une dcision globale. Dans le but de prendre un telle dcision, les tribus changent leurs rsultats tout au long du traitement. Un tel type de structure est comparable aux structures multi-essaims utilises dans d'autres algorithmes [Parsopoulos et al., 2004 ; Niu et al., 2005]. Deux types de communications sont donc dnir : la communication intra-tribu et la communication inter-tribu. Chaque tribu est compose d'un nombre variable de particules. Les relations entre les particules l'intrieur d'une tribu sont dnies par une topologie compltement connecte. Chaque particule connait la meilleure et la plus mauvaise position jamais atteintes par la tribu, c'est--dire que chaque particule connait les positions pour lesquelles la tribu a trouv la plus petite et la plus grande valeur

2.3.

ADAPTATIONS STRUCTURELLES

35

Figure 2.1  Rseau d'information. Chaque tribu est un graphe compltement connect (communication intra-tribu). Les tribus sont relies par l'intermdiaire de leurs chamans (communication inter-tribu).

de la fonction objectif. Cette forme de communication est appele

communication intra-tribu.

Au fur et mesure du traitement, chaque tribu va converger vers un optimum local. Il est donc ncessaire que celles-ci communiquent entre elles pour dnir lequel de ces optima est retenir par l'utilisateur. La communication entre les tribus est tablie par l'intermdiaire des meilleures particules de chaque tribu. Ce type de communication est appel

communication inter-tribu.
), p

En rsum, chaque particule est informe par elle-mme (mmoire cognitive lments de sa tribu (appels (appels

informateurs internes ),

et, si cette particule est un

chaman

par tous les (e.g.

la meilleure particule d'une tribu), alors elle est aussi informe par les chamans des autres tribus

informateurs

La mmoire sociale

ex

ternes ). Toutes ces positions sont appeles les informateurs

de la particule.

de chaque particule est l'informateur pour lequel la valeur de la fonction

objectif est la plus petite. La Figure 2.1 illustre la topologie du graphe d'information de l'essaim. Les ches symbolisent la communication inter-tribu alors que les traits matrialisent la communication intra-tribu. Les particules noires sont les chamans de chaque tribu. On verra dans la suite que cette structure est modie automatiquement par l'intermdiaire de crations et de destructions de particules.

2.3.2 volution des tribus


Dans le but de dnir des rgles d'adaptation structurelles pour l'essaim, on dnit deux indicateurs de qualit, un pour les particules et un pour les tribus. Une particule est dite dite et

bonne

si elle

a amlior sa meilleure performance au cours de la dernire itration. Dans le cas contraire, elle est

neutre. Cet indicateur est purement qualitatif, car il est bas sur l'volution de la performance non sur la performance elle-mme. En plus de cet indicateur, la meilleure et la plus mauvaise
Une tribu est aussi dite

position de la tribu sont stockes.

son sein. Une tribu est dite

bonne ou mauvaise suivant le nombre de bonnes particules prsentes en mauvaise si aucune de ses particules n'a amlior sa meilleure performance au cours de la dernire itration. Les tribus qui possdent au moins une bonne particule sont dclares bonnes avec une probabilit de 0.5, mauvaises sinon.

36

CHAPITRE 2. TUDE ET PERFECTIONNEMENT DE TRIBES

Figure

2.2  Destruction de particule.

redistribus vers

T2

et

T3.

La tribu

T1

est dtruite, les liens d'informations sont

L'utilisation de ces indicateurs permet de dnir les rgles de cration et de destruction de particules.

2.3.2.1 Destruction de particules


L'lment le plus coteux en temps lors de l'excution d'un algorithme d'optimisation est l'valuation de la fonction objectif. Dans un souci de gain de temps, il est important d'valuer la fonction objectif le moins de fois possible. Notre intrt est donc de dtruire des particules de l'essaim chaque fois que cela est possible. Ces destructions sont ralises en esprant que le rsultat nal ne soit pas altr. C'est pourquoi seules les

plus mauvaises

particules des

bonnes

tribus sont dtruites.

Il est ici considr que de telles particules n'apportent plus d'informations pertinentes la tribu, et donc l'essaim, au regard des performances de ses congnres. Dans le cas d'une tribu compose d'une seule particule, la destruction est ralise seulement si l'un des informateurs externes a une meilleure performance que la particule considre. Cela nous assure de ne retenir que les particules qui apportent de bonnes informations. Sur la Figure 2.2, la tribu

bonne. La particule P, qui est obligatoirement la plus mauvaise de la tribu, est meilleure. Cependant, P ne sera dtruite que si son informateur externe Mp possde une meilleure performance. L'hypothse est que l'information apporte par P est de moins bonne qualit que celle apporte par Mp .
est dclare dtruite, mme si elle en est aussi la La destruction de particules implique un changement dans le graphe d'information de l'essaim. Toutes les particules informatrices d'une particule supprime sont rediriges vers la redirigs vers le meilleur informateur de la particule supprime.

T1

meilleure

par-

ticule de sa tribu. Dans le cas particulier d'une tribu de taille 1, tous les liens d'informations sont

2.3.2.2 Cration de particules


Le procd qui permet de crer des particules est assez similaire celui qui permet d'en dtruire. Chaque

mauvaise

tribu gnre des particules. Le nombre de particules gnres par chaque mauvaise

tribu est dni par l'quation (2.1). Cette quation est inspire d'une formule identique prouve pour l'OEP binaire [Clerc, 2005]. Toutes les particules gnres par les direntes forment une nouvelle tribu.

mauvaises

tribus

N Bparticules = max 2,
o

9.5 + 0.124 (D 1) tribeN b tribeN b


le nombre de tribus dans l'essaim.

(2.1)

est la dimension de l'espace de recherche et

2.3.

ADAPTATIONS STRUCTURELLES

37

Les

mauvaises

tribus sont alors relies la nouvelle tribu et utilisent la nouvelle information

apporte par cette tribu pour amliorer leurs performances. En pratique, le chaman de la nouvelle tribu est un informateur externe des chamans des mauvaises tribus. Deux types de particules sont gnrs, le type de particule tant slectionn alatoirement :

Les particules libres :

Ces particules sont gnres alatoirement l'aide d'une distribution uniforme soit dans tout l'espace de recherche, soit sur une frontire de celui-ci, ou sur un sommet. Les particules sont gnres en utilisant (2.2). Le but est d'apporter de la diversit la population.

Dans tout l espace de recherche : Xj = U (xminj , xmaxj ), j {1, . . . , D} U (xminj , xmaxj ) j I {1, . . . , D} Sur une f rontire : Xj = U ({xminj , xmaxj }) j J {1, . . . , D} Sur un sommet : Xj = U ({xminj , xmaxj }) , j {1, . . . , D}
o

(2.2)

U (xminj , xmaxj ) est un rel uniformment choisi dans [xminj , xmaxj ] et U ({xminj , xmaxj }) {xminj , xmaxj }. I et J sont deux sous-espaces qui forment une partition de {1, . . . , D}. Ces deux espaces sont dnis alatoirement pour chaque parest un rel uniformment choisi dans la liste ticule gnre.

Si

Les particules connes : est la meilleure particule de la tribu gnratrice et si

sont les meilleures performances de de centre

p ix

et de rayon

p px ix

et de

ix .

ix

est sa meilleure informatrice,

La nouvelle particule est gnre dans la

et px pix D-sphre

l'aide de l'quation (2.3). L'objectif est ici d'intensier la

recherche de la tribu gnratrice.

p X generated = aleasphere (x , x ) pi pi x
o et

(2.3)

p aleasphere (x , x ) pi pi x de rayon px pix .

est un point uniformment choisi dans une hyper-sphre de centre

pix

2.3.3 Frquence des adaptations


Les adaptations structurelles ne doivent pas tre eectues chaque itration. En eet, du temps doit tre laiss pour que l'information introduite par la dernire modication de la topologie se propage dans l'essaim. Thoriquement, le temps ncessaire pour que l'information se propage dans tout l'essaim est gal au diamtre du graphe d'information. Cela assure que chaque particule soit directement ou indirectement informe des changements apports lors de la dernire adaptation [Harary, 1994]. Cependant, si la taille de l'essaim devient trop importante, ce nombre peut vite devenir trs long calculer. En pratique, si l'aide de l'quation (2.4).

NL

est le nombre de liens d'informations lors de la

dernire adaptation, la prochaine adaptation sera eectue N L/2 itrations plus tard.

NL

est estim

tribeN b

NL =
n=1

explorerN b[n]2 + tribeN b.(tribeN b 1)

(2.4)

38

CHAPITRE 2. TUDE ET PERFECTIONNEMENT DE TRIBES

Algorithme 9 Adaptations structurelles


test =0

Pour i=1 tribeNb faire Si tribe[i].status =bad Gnrer N Bparticules = M ax Fin Si Si tribe[i].status =good
Supprimer
test =1

2,

9.5+0.124.(D1) tribeN b

particules

Si tribe[i].size = 1 sinon
Rediriger

la

plus mauvaise

particule de tribe[i]

les liens d'information vers la meilleure particule de la tribu

Fin Si Fin Si Fin Pour Si test =1

tribeNb =tribeNb-1 Rediriger les liens d'information vers la meilleure informatrice

Agrger les particules gnres la nouvelle tribu Etablir un lien entre les dirents chamans Fin Si Calculer NL
o

tribeNb = tribeNb+1

tribeN b

est le nombre de tribus et

explorerN b[n]

est le nombre de particules de la tribu

n.

Le

premier terme du membre de droite de l'quation (2.4) suppose que les particules d'une tribu sont compltement connectes. Donc, pour la tribu la communication intra-tribu est gal

explorerN b[n]2 .

n,

le nombre de liens d'information correspondant Le second terme suppose quant lui que

tous les chamans sont relis entre eux. Chaque chaman est reli tous les autres, donc il possde

tribeN b 1

liens d'informations correspondant la communication inter-tribu.

2.3.4 volution de l'essaim


Les adaptations structurelles peuvent tre rsumes par l'Algorithme 9. Au dbut du traitement, l'essaim est compos d'une particule unique, qui constitue une tribu elle seule. Si, durant la premire itration, cette particule n'amliore pas sa performance, de nouvelles particules vont alors tre gnres pour former une deuxime tribu. N L/2 itrations plus tard, le mme procd est rpt. On continue selon ce schma durant toute l'excution. La taille de l'essaim augmente jusqu' ce que l'essaim trouve des zones prometteuses de l'espace de recherche. Plus la taille de l'essaim devient grande, plus le temps sparant deux adaptations va tre long. La capacit d'exploration est amliore et il va tre plus facile pour les particules de trouver de bonnes solutions. Une fois que des zones intressantes de l'espace de recherche sont trouves, les plus mauvaises particules vont tre progressivement supprimes. Au dbut du traitement, l'essaim est compos d'une particule unique, qui constitue une tribu elle seule. Si, durant la premire itration, cette particule n'amliore pas sa performance, de nouvelles particules vont tre gnres, pour former une deuxime tribu. N L/2 itrations plus tard, le mme

2.4.

ADAPTATIONS COMPORTEMENTALES

39

Pass

Table 2.1  Stratgies de dplacement.

Stratgie de dplacement
pivot bruit pivot

(= +) (+ +) (+ =) (- +) (- -) (= -) (+ -) (- =) (= =)

locale par gaussiennes indpendantes

procd est rpt. On continue selon ce schma durant toute l'excution. La taille de l'essaim augmente jusqu' ce que l'essaim trouve des zones prometteuses de l'espace de recherche. Plus la taille de l'essaim devient grande, plus le temps sparant deux adaptations va tre long. La capacit d'exploration est amliore et il va tre plus facile pour les particules de trouver de bonnes solutions. Une fois que des zones intressantes de l'espace de recherche sont trouves, les plus mauvaises particules vont tre progressivement supprimes.

2.4 Adaptations comportementales


La seconde manire d'adapter le comportement de l'essaim est de proposer direntes stratgies de dplacement des particules, en fonction de leur comportement pass. Le choix se base sur le pass proche de la particule. L'ide est de permettre aux particules qui ont un bon comportement d'intensier la recherche dans leur zone et, inversement, aux particules qui voluent mal de pouvoir diversier leur recherche. Il y a trois possibilits d'volution pour dcrire l'historique d'une particule entre deux itrations : amlioration, dtrioration ou statu quo, suivant que la particule a amlior, dtrior ou gal sa performance prcdente. Ces trois tats sont nots en utilisant les symboles suivants : + pour amlioration, - pour une dtrioration et = pour un statu quo. Le pass rcent d'une particule est constitu par ses deux dernires variations. Par exemple, une amlioration suivie d'une dtrioration est note (+ -). Il y a donc neuf possibilits de passs possibles. Cependant, on se contente de les diviser en trois groupes (cf. Table 2.1). (= +) et (+ +) reprsentent les particules qui ont le meilleur comportement, donc on choisit d'intensier la recherche dans leur zone l'aide d'une stratgie locale gaussiennes indpendantes. (+ =) et (- +) reprsentent les particules au comportement moyen. Il leur est attribu une stratgie par pivots bruits. Enn, (- -), (- =), (+ -), (- =) et (= =) reprsentent les plus mauvaises particules. On leur attribue donc une possibilit de dplacement relativement large, en utilisant une stratgie par pivot. Les stratgies de dplacement sont dnies de la manire suivante :

Pivot :

Cette mthode est inspire des travaux publis dans [Serra et al., 1997]. On note position jamais atteinte par la particule, mouvement est dtermin par :

sa meilleure informatrice et

la meilleure

la fonction objectif. Le

X = c1 aleasphere (Hp ) + c2 aleasphere (Hg )


o

(2.5)

c1 =

f ( ) p )+f ( ) , f( p g

c2 =

f ( ) g )+f ( ) , f( p g

aleasphere (Hp )

est un point uniformment choisi dans l'hyper-

40

CHAPITRE 2. TUDE ET PERFECTIONNEMENT DE TRIBES


p
et de rayon

sphre de centre

l'hyper-sphre de centre

et de

et alea p g sphere (Hg ) . rayon p g

est un point uniformment choisi dans

Pivot bruit :

Cette stratgie est identique la prcdente, mais un bruit est ajout.

X = c1 aleasphere (Hp ) + c2 aleasphere (Hg ) b=N 0, f () f () p g ) + f () f( p g

(2.6)

(2.7)

X = (1 + b) X
Si

(2.8)

Locale par gaussiennes indpendantes : est la meilleure informatrice de la particule, le mouvement est dtermin comme suit :

Xj = gj + aleanormal (gj Xj , gj Xj ) , j {1, . . . , D}


o enne de moyenne

(2.9)

aleanormal (gj -Xj , gj Xj ) est un point alatoirement gj -Xj et de variance gj Xj .

choisi l'aide d'une distribution gaussi-

Il est important de noter que, contrairement l'OEP originale, le concept de vitesse n'apparat pas dans TRIBES. Il est prcis dans [Kennedy, 2003] que la suppression de ce concept n'est pas un obstacle l'OEP. La seule dirence notable est que la distribution de probabilit de la prochaine position est modie, elle est

D -sphrique

dans le cas de TRIBES et

D -paralllpipdique

dans

le cas de l'OEP classique [Clerc, 2006]. Ceci implique que, dans TRIBES, le dplacement n'est pas dpendant du systme de coordonnes. La philosophie globale de l'algorithme est toutefois respecte, le vecteur vitesse pouvant tre modlis par

X (t + 1) X (t).

2.5 Algorithme
L'algorithme de TRIBES est donn par l'Algorithme 10. la particule

i, pi

gi

est la meilleure informatrice de

est la meilleure position atteinte par la particule

i. n

est le nombre d'itrations

eectues depuis la dernire adaptation structurelle.

2.6 Exprimentation numrique et comparaisons


Dans cette section, nous prsentons les rsultats numriques obtenus par TRIBES, ainsi que des comparaisons avec d'autres algorithmes. L'intrt est de montrer que TRIBES donne des rsultats encourageants. Une discussion sur les avantages et inconvnients de TRIBES est aussi ralise.

2.6.1 Procdure de test CEC'05


La procdure de test utilise pour comparer les algorithmes est celle qui a t dnie dans le cadre de la confrence

2005 IEEE Congress on Evolutionary Computation

(CEC'05) [Suganthan et

al., 2005]. Le but de cette procdure est d'uniformiser les tests eectus sur les mtaheuristiques et, ainsi, de faciliter les comparaisons entre celles-ci. En eet, dans les dirents articles sur le sujet, les algorithmes ne sont jamais valus de la mme faon, donc il est souvent dicile de comparer

2.6.

EXPRIMENTATION NUMRIQUE ET COMPARAISONS

41

==X p0 g0 0

Algorithme 10 Algorithme de TRIBES Initialisation alatoire de la particule initiale X0

Evaluer la fonction objectif Tant que le critre d'arrt n'est pas atteint, faire Dterminer le statut de chaque particule Choisir la stratgie de dplacement Dplacement des particules Evaluer la fonction objectif Mise jour des et des pi gi Si n<NL Dterminer la qualit des tribus Adaptations structurelles Calculer NL Fin Si Fin Tant que
deux algorithmes sans avoir les coder. Possder une procdure de test commune permet donc de faciliter les comparaisons entre les direntes mthodes. Lors de la confrence CEC'05 a t dni un ensemble de 25 fonctions de test. Ces fonctions ont t choisies ou cres an d'viter certaines topologies de l'espace de recherche [Liang et al., 2005b]. En eet, il a t montr que certaines particularits topologiques des fonctions objectifs peuvent favoriser certains algorithmes. Par exemple, il existe des algorithmes qui ont la capacit de converger plus rapidement si l'optimum global est situ l'origine

[0, 0, . . . , 0]

de l'espace de

recherche ou au centre de celui-ci [Zhong et al., 2004]. Pour viter cela, les fonctions dnies lors de CEC'05 sont translates par rapport leur forme d'origine et/ou tournes. Certaines fonctions prsentent aussi la particularit d'avoir leur optimum global situ sur une des frontires de l'espace de recherche. Deux types de tests sont dnis : un qui tudie la valeur de l'erreur aprs un nombre x d'valuations de la fonction objectif et un qui tudie le nombre d'valuations de la fonction objectif ncessaires pour obtenir une prcision donne. Le premier test consiste excuter le mme algorithme 25 fois sur chacun des problmes. Un critre d'arrt unique est utilis : l'algorithme est stopp si le nombre d'valuations de la fonction objectif dpasse

M axF es = 10000 D, o D

est la dimension du problme. La valeur de l'erreur entre

la meilleure particule de l'essaim et l'objectif est enregistre pour 10 , 10 , 10

5 et

M axF es valuations

de la fonction objectif. Les rsultats sur les 25 excutions sont alors classs, la moyenne et la variance de l'erreur sont calcules. Ces rsultats sont utiliss pour construire le graphe de convergence de l'algorithme. Le graphe de convergence trace la valeur mdiane de l'erreur sur les 25 excutions en fonction du nombre d'valuations de la fonction objectif. Une chelle semi-logarithmique est utilise. Le deuxime test consiste dterminer le nombre d'valuations ncessaires pour obtenir une prcision donne. L'algorithme est stopp si l'erreur entre la meilleure particule de l'essaim et l'objectif est infrieure une prcision donne ou si le nombre d'valuations de la fonction objectif est suprieur

M axF es . Les rsultats sont enregistrs pour chaque excution et classs. On dnit aussi

deux indicateurs de performances :

T aux de succes =

nombre d executions reussies nombre total d executions

(2.10)

42

CHAPITRE 2. TUDE ET PERFECTIONNEMENT DE TRIBES

Table 2.2  Prcisions utilises comme critre d'arrt pour le test n2.
Fonction Prcision

1 1e-6

2 1e-6

3 1e-6

4 1e-6

5 1e-6

6 1e-2

7 1e-2

8 1e-2

9 1e-2

10 1e-2

11 1e-2

T aux de P erf ormance =


o

F esmean nombre total d executions nombre d executions reussies

(2.11)

F esmean

est le nombre moyen d'valuations de la fonction objectif pour les excutions russies.

Les prcisions utilises sont indiques dans la Table 2.2.

2.6.2 Algorithmes utiliss pour la comparaison


TRIBES est compar aux algorithmes de la Table 2.3. Dans ce paragraphe, une description succincte de chacun de ces algorithmes est donne. BLX-GL50 est un algorithme gntique variables continues hybrid avec une stratgie de direnciation mle/femelle [Garcia-Martinez et al., 2005]. BLX-MA [Molina et al., 2005] est un algorithme mimtique variables continues, qui combine une exploration globale de l'espace de recherche avec une recherche locale adaptative qui favorise les meilleurs lments. CoEvo [Posik, 2005] est un algorithme volutionnaire variables relles. Il utilise une stratgie cooprative d'volution qui permet de reproduire les mutations qui ont eu un bon eet sur les performances. DE est un algorithme d'volution direntielle simple [Rnkkonn et al., 2005]. DMS-L-PSO est un algorithme d'OEP multi-essaim. L'essaim est divis en sous-essaims, qui changent de l'information mais qui peuvent aussi tre regroups [Liang et al. 2005c]. Une mthode de type Newton est utilise comme recherche locale. EDA est un algorithme estimation de distribution basique [Yuan et al., 2005]. G-CMA-ES est un algorithme volutionnaire avec une stratgie de redmarrage adaptable l'aide d'une matrice de covariance [Auger et al., 2005]. KPCX est un algorithme population dvelopp par Sinha et al. [Sinah et al., 2005]. L-CMA-ES est une hybridation de CMA-ES avec un algorithme de recherche locale [Auger et al., 2005b]. L-SaDE est un algorithme d'volution direntielle adaptatif disposant de deux mthodes d'apprentissage [Qin et al., 2005]. SPC-PNX est un algorithme gntique variables continues disposant d'oprateurs de slection, de croisement et de remplacement particuliers [Ballester et al., 2005]. Les articles relatifs ces mthodes sont tlchargeables gratuitement l'adresse suivante [Papers, 2005]. Enn, on compare TRIBES avec l'algorithme

Standard PSO 2006,

qui est un algorithme d'OEP avec facteur

de constriction qui utilise une topologie de voisinage alatoire. La taille de l'essaim est dnie par

N = 10 + 2 D w=
1 2. ln(2) et

[PSC, 2006]. Les quations de dplacement sont identiques (1.5) et (1.6), avec

c1 = c2 =

1 2

+ ln (2).

Tous les algorithmes sont lists dans la Table 2.3.

2.6.3 Rsultats numriques


Toutes les tables cites dans cette section sont situes dans l'annexe B. Les rsultats numriques prsents dans cette section ont t obtenus grce la version de TRIBES code dans notre laboratoire. Les rsultats obtenus pour les algorithmes prsents en 2.6.2 ont t tirs des articles rfrencs dans la Table 2.3, l'exception du

Standard PSO 2006, pour lequel

le code source donn l'adresse [PSC,2006] est utilis. La Table B.1 prsente la valeur absolue de l'erreur en dimension 10 pour les fonctions unimodales, la Table B.2 prsente la valeur absolue de l'erreur en dimension 10 pour les fonctions multimodales simples et, la Table B.3 prsente la valeur absolue de l'erreur en dimension 10 pour les fonctions tendues et composes.

2.6.

EXPRIMENTATION NUMRIQUE ET COMPARAISONS

43

Table 2.3  Algorithmes utiliss pour les comparaisons.


Algorithme Nom Rfrence

Algorithme gntique variables continues hybride avec direnciation Mle/Femelle Algorithme mimtique variables continues Optimisation variables continues utilisant une mutation co-volutive Optimisation variables continues avec volution direntielle Optimisation par essaim particulaire multi-essaim dynamique avec recherche locale Algorithme estimation de distribution variables continues Algorithme CMA avec stratgie de redmarrage et taille de population variable Procdure steady-state pour l'optimisation variables continues Algorithme CMA avec recherche locale Algorithme d'volution direntielle adaptative Algorithme gntique variables continues avec procdure
steady-state Standard PSO 2006

BLX-GL50 BLX-MA CoEVO DE DMS-L-PSO EDA G-CMA-ES K-PCX L-CMA-ES L-SaDE SPC-PNX SPSO

[Garca-Martnez et al., 2005] [Molina et al., 2005] [Posik, 2005] [Rnkknen et al., 2005] [Liang et al., 2005c] [Yuan et al., 2005] [Auger et al., 2005] [Sinha et al., 2005] [Auger et al., 2005b] [Qin et al., 2005] [Ballester et al., 2005] [PSC, 2006]

44

CHAPITRE 2. TUDE ET PERFECTIONNEMENT DE TRIBES


Les fonctions F15 F25 sont des fonctions composes, i.e. leurs expressions mathmatiques sont

des sommes pondres, biaises et tournes des fonctions F1 F14 [Suganthan et al., 2005]. Les Tables B.4, B.5 et B.6 orent une comparaison statistique entre les rsultats de TRIBES donns dans les Tables B.1 et B.2, et les rsultats des algorithmes de la Table 2.3. Ces statistiques sont tablies pour les fonctions F1 F11. L'hypothse du test est : Les rsultats donns par TRIBES sont meilleurs que ceux donns par l'algorithme X. Nous supposons ici que, pour un nombre d'valuations de la fonction objectif donn, les rsultats de TRIBES suivent une distribution gaussienne tronque (borne gauche par zro)

N1 (1 , 1 )

et que ceux de l'algorithme X suivent une distribu-

N2 (2 , 2 ). Les rsultats exprimentaux nous donnent m1 , s1 , m2 et s2 , qui sont des approximations de 1 , 1 , 2 et 2 . La probabilit que l'hypothse soit vraie, i.e. la probabilit que 1 < 2 , est donne par:
tion gaussienne tronque (borne gauche par zro)

p(m1 < m2 ) =
0
o

x.N1 (x). (1 N2c (x)) .dx

(2.12)

N2c (u)

est la probabilit qu'un nombre tir alatoirement en utilisant

N2

soit plus petit que

u.

La Table B.7 prsente les rsultats de TRIBES pour le test n2. La Table B.8 prsente une comparaison entre TRIBES et les algorithmes de la Table 2.3 sur les fonctions unimodales en dimension 10 pour le test n2. La premire ligne donne le meilleur

Performance

trouv et le reste du tableau donne les

Taux de Performance

Taux de

normaliss. Les chires

entre parenthses donnent les nombres d'excutions ayant abouti un succs. La Table B.9 est structure comme la Table 2.11, mais les rsultats pour les fonctions multimodales sont cette fois-ci prsents. Les Tables B.10 et B.11 donnent les rsultats de TRIBES en dimension 30, pour les fonctions unimodales et multimodales, respectivement. Les Tables B.12 et B.13 donnent les rsultats de TRIBES en dimension 50 pour les fonctions unimodales et multimodales, respectivement. Les Tables B.14 et B.15 comparent les rsultats moyens obtenus par TRIBES et les algorithmes de la Table 2.3 en dimensions 30 et 50.

2.6.4 Discussion
Les Tables B.1 B.15 et les Figures 2.3 2.11 illustrent le comportement de TRIBES.

2.6.4.1 Commentaires gnraux


A la vue de ces rsultats exprimentaux, il apparat que TRIBES prsente un dfaut majeur : la convergence prmature. Les Figures 2.3, 2.4 et 2.5 montrent les graphes de convergence pour les fonctions Rosenbrock (F6), Griewank (F7) et Rastrigin (F9). Ces graphes reprsentent l'erreur mdiane sur les 25 excutions, en fonction du nombre d'valuations de la fonction objectif (FEs). Ces trois cas, qui sont reprsentatifs du comportement gnral, montrent que l'erreur dcrot assez rapidement jusqu' approximativement 10000 valuations de la fonction objectif mais, qu'ensuite, elle a tendance ne plus trop voluer. Les Figures 2.6, 2.7 et 2.8 montrent l'volution de la position de la meilleure particule de l'essaim en fonction du nombre d'itrations pour les fonctions Rosenbrock (F6), Griewank (F7) et Rastrigin (F9). Comme sur les gures prcdentes, on voit que la meilleure particule de l'essaim converge rapidement vers une position de l'espace de recherche et ne bouge pas beaucoup aprs. On est donc ici dans le cas o la meilleure particule de l'essaim est pige dans un optimum local et n'arrive pas s'en chapper. Il en dcoule que les autres particules de l'essaim sont aussi attires

2.6.

EXPRIMENTATION NUMRIQUE ET COMPARAISONS

45

Figure 2.3  Graphe de convergence de la fonction Rosenbrock (F6).

Figure 2.4  Graphe de convergence de la fonction Griewank (F7).

46

CHAPITRE 2. TUDE ET PERFECTIONNEMENT DE TRIBES

Figure 2.5  Graphe de convergence de la fonction Rastrigin (F9).

Figure 2.6  Vecteur position de la meilleure particule de l'essaim pour la fonction Rosenbrock (F6)
en dimension 10.

2.6.

EXPRIMENTATION NUMRIQUE ET COMPARAISONS

47

Figure 2.7  Vecteur position de la meilleure particule de l'essaim pour la fonction Griewank (F7)
en dimension 10.

Figure 2.8  Vecteur position de la meilleure particule de l'essaim pour la fonction Rastrigin (F9)
en dimension 10.

48

CHAPITRE 2. TUDE ET PERFECTIONNEMENT DE TRIBES

Figure 2.9  Trajectoire d'une particule pour la fonction Weierstrass 2D (F11).


vers cet optimum local et, vont donc se faire piger les unes aprs les autres dans cet optimum local. A partir de ce moment l, la phase de diversication devient inexistante. L'algorithme est alors en situation d'chec. Cependant, sur la Figure 2.8, on peut voir, aux alentours de l'itration 1000, que l'ajout de nouvelles particules permet une volution signicative de la meilleure position de l'essaim. La Figure 2.9 montre la trajectoire d'une particule dans le cas de la fonction Weierstrass 2D (F11). Il apparat bien ici comment la particule stagne l'intrieur de la valle d'un optimum local. Les ches reprsentent les vecteurs

Xi (t) Xi (t 1), i {1, . . . , N },

qui modlisent le vecteur vitesse

de la particule chaque instant. L'observation des vecteurs vitesse la n de l'excution nous montre que la particule a tendance emprunter une trajectoire circulaire autour de l'optimum local dans lequel elle est pige. Ce type d'inconvnient est inhrent au paradigme de l'OEP. Le dplacement d'une particule est inuenc par sa mmoire cognitive positions

et

. g

et par sa mmoire sociale

Cela implique que, si

ou

. g

Les particules sont donc attires vers les

est localis dans la valle d'un optimum local, les

particules vont tre attires dans celle-ci. Les particules sont alors piges, tournent autour de cette valle et n'arrivent plus amliorer leur performance. Dans TRIBES, l'ajout de particule est cens contrer cet inconvnient. La Figure 2.10 montre l'volution de la performance de chaque particule en fonction du nombre d'itrations, pour le problme Rastrigin 10D (F9). Sur cette gure, on peut observer la frquence des adaptations structurelles au cours du temps. A la n de l'excution, l'essaim est compos de 64 particules rparties en 8 tribus. La convergence rapide des particules est ici facilement observable. Il apparat aussi que, dans ce cas l, l'ajout de nouvelles particules n'apporte aucune aide l'essaim pour trouver des rgions prometteuses de l'espace de recherche. Les meilleures performances de chaque tribu sont quasi-similaires, situes ici dans l'intervalle [2.26, 2.56]. La Figure 11 montre l'histogramme des distances entre toutes les positions atteintes par les particules de l'essaim pour la fonction Rastrigin 10D (F9). L'histogramme est compos de quatre pics assez troits. Cela signie que, la n de l'excution,

2.6.

EXPRIMENTATION NUMRIQUE ET COMPARAISONS

49

Figure

2.10  Performances des particules en fonction du nombre d'itrations pour la fonction

Rastrigin 10D (F9).

Figure 2.11  Histogramme des distances entre particules pour la fonction Rastrigin 10D (F9).

50

CHAPITRE 2. TUDE ET PERFECTIONNEMENT DE TRIBES

l'essaim a explor quatre rgions direntes de l'espace de recherche. Le fait que les pics soient trs troits implique que les particules sont concentres autour d'optima locaux et qu'elles n'arrivent pas s'chapper de leurs valles. Les donnes numriques des Tables B.1, B.2 et B.3 conrment ce qui a t dit prcdemment. TRIBES est performant pour les problmes Sphere (F1) ou Schwefel (F2) (mme dans le cas bruit

Schwefel noise

(F4), o les optima locaux sont peu profonds). Cependant, pour les problmes plus

complexes, TRIBES donne de moins bons rsultats. On constate que, entre FEs=10 des particules dans les valles d'optima locaux.

4 et FEs=105 , les

performances de l'algorithme n'voluent que trs peu, ce qui conrme l'hypothse d'une stagnation

2.6.4.2 Comparaison avec le Standard PSO 2006


TRIBES n'aurait aucun intrt si ses performances taient infrieures celles donnes par un algorithme d'OEP classique. Les Tables B.4 B.6 montrent que le

Standard PSO 2006

a une

probabilit suprieure 50% d'tre meilleure que TRIBES dans seulement 9 cas sur 33. Les Tables

Standard PSO 2006. Cependant, pour les problmes aboutissant des succs, Taux de Performance du Standard PSO 2006 sont souvent meilleurs que ceux de TRIBES. Ceci peut tre expliqu par le fait que, en dimension 10, le Standard PSO 2006 commence le traitement
suprieurs ceux du les avec un essaim de taille 16 alors que TRIBES ne commence qu'avec une seule particule. Il est donc beaucoup plus simple au

B.8 et B.9 montrent que, pour atteindre une prcision donne, TRIBES prsente des

Taux de succs

Standard PSO 2006

d'atteindre une prcision donne rapidement qu' mme si la convergence est souvent moins

TRIBES. En conclusion, on peut dire que TRIBES prsente des performances au moins quivalentes et souvent meilleures que celles du rapide.

Standard PSO 2006,

2.6.4.3 Comparaison entre algorithmes


Dans l'objectif d'tablir des comparaisons entre TRIBES et les algorithmes de la Table 2.3, on exclut la fonction

Ackley bounds

(F8), parce que tous les algorithmes chouent de la mme manire

pour ce problme et prsentent des rsultats similaires. Les Tables B.4 B.6 conrment nos prcdentes remarques sur la convergence prmature. Pour FEs=10 , TRIBES prsente des rsultats qui sont bien meilleurs que ceux des autres algorithmes avec une forte probabilit. La plupart d'entre elles sont suprieures 90%. Il en est dduit que TRIBES peut trouver trs rapidement des zones prometteuses de l'espace de recherche. Pour FEs=10 , aucune tendance claire ne se dgage, mais on voit que TRIBES n'est plus aussi dominateur vis--vis des autres algorithmes. En revanche, pour FEs=10 , les rsultats sont trs dfavorables TRIBES. On en dduit que des rgions prometteuses sont eectivement trouves, mais que l'algorithme n'a pas la capacit de s'extraire des valles des optima locaux trop profondes. Les Tables B.7 B.9 nous informent sur le nombre d'valuations de la fonction objectif ncessaires TRIBES pour atteindre une prcision donne. Les problmes unimodaux sont trs bien rsolus, avec un (2

Taux de succs

de 98%. L'observation des et 8

Taux de performance

nous montre que TRIBES n'est,

certes, jamais l'algorithme le plus rapide, mais qu'il occupe toujours une bonne place dans celle-ci

nd , 5me , 4me , 4me

me ,

respectivement). Mme si le traitement ne commence qu'avec une

seule particule, TRIBES possde une convergence assez rapide dans le cas des fonctions unimodales. En revanche, l'algorithme est dcient pour les problmes multimodaux. Le

Taux de succs

est de

1%, ce qui fait de TRIBES l'un des plus mauvais algorithmes. Seul CoEvo prsente de plus mauvais rsultats. Seules les fonctions F6 et F7 sont rsolues et encore seulement une fois sur les 25 excutions. Les fonctions F6 F11 possdant de nombreux optima locaux, souvent profonds, il est dicile pour TRIBES d'obtenir de bons rsultats sur ces problmes, eu gard ce qui a t dit prcdemment.

2.6.

EXPRIMENTATION NUMRIQUE ET COMPARAISONS

51

2.6.4.4 Inuence de la dimension


Le but de ce paragraphe est de mesurer l'inuence de la dimension du problme sur les performances de TRIBES. La comparaison est tablie partir des performances de TRIBES sur les fonctions F1 F12 en dimensions 10, 30 et 50 (Tables B.1, B.2, B.10, B.11, B.12, B.13). TRIBES est excut en utilisant

M axF es = 10000 D

comme critre d'arrt.

En dimension 10, TRIBES donne de trs bons rsultats pour les problmes unimodaux (F1 F5). Plus la dimension augmente, plus les rsultats se dgradent, mme si

M axF es

augmente. Les

performances ne sont constantes que pour le problme Sphere (F1), qui est le plus simple de tous. De trs bons rsultats sont aussi trouvs pour le problme Schwefel (F2). Pour les problmes F3 F5, les performances de TRIBES se dgradent fortement avec l'augmentation de la dimension. Ces problmes sont rsolus avec une prcision aux alentours de 10

3 chute 10

-10 en dimension 10, mais la prcision

pour les dimensions suprieures. Pour le problme F3, la dicult vient du fait que la

fonction a un ventail de valeurs possibles trs large, qui augmente fortement avec la dimension. Pour la fonction F4, la dicult provient du bruit additif. En eet, accrotre la dimension implique une augmentation du rapport signal bruit, donc une augmentation de la complexit du problme. Pour le problme F5, l'optimum global est situ sur une frontire de l'espace de recherche. Il est donc beaucoup plus dicile, pour l'algorithme, de le localiser, si la dimension de l'espace de recherche augmente. Dans le cas des problmes multimodaux, les conclusions sont similaires. Dans la majorit des cas, les performances se dgradent avec l'augmentation de la dimension, mais dans des proportions moindres que dans le cas unimodal. La fonction F8 est singulire dans le sens o, quelle que soit la dimension, TRIBES prsente toujours les mmes rsultats. Ceci est d la topologie de la fonction. Quelle que soit la dimension, les valeurs de la fonction prsentent des uctuations autour de -120 dans tout l'espace de recherche et un pic trs n qui tombe -140 [Suganthan et al., 2005]. L'erreur, quasi-constante avec l'augmentation de la dimension, provient donc du fait qu'aucune particule ne tombe jamais dans ce pic. Le problme F7 est aussi singulier, dans le sens o TRIBES est de plus en plus ecace mesure que la dimension augmente. On peut penser que des performances identiques pourraient tre obtenues en dimension 10 avec une lgre augmentation de

M axF es .

Les Tables B.14 et B.15 montrent une comparaison des erreurs moyennes pour les fonctions F1 F12. Vis--vis des autres algorithmes, le comportement de TRIBES ne change pas avec l'augmentation de la dimension. TRIBES possde gnralement des performances qui le situent en milieu de hirarchie. Le taux de dtrioration de la performance avec l'augmentation de la dimension est similaire pour TRIBES et pour les autres algorithmes. Ceci implique que la dtrioration des performances de TRIBES est plus due l'augmentation de la dicult des problmes qu' un dysfonctionnement de TRIBES en haute dimension. Except pour le problme F6, TRIBES reste comparable au en matire de performances.

PSO 2006

Standard

2.6.5 Conclusion
TRIBES est un algorithme novateur dans le domaine des mtaheuristiques adaptatives, car c'est un algorithme qui n'a aucun paramtre de contrle rgler. Aucune intervention humaine n'est sollicite ; seul le problme rsoudre est spcier. Ceci est permis par l'utilisation de rgles d'adaptation susamment robustes. Compar un algorithme d'OEP classique, TRIBES donne des rsultats comptitifs, que ce soit sur des problmes unimodaux ou multimodaux, et quelle que soit la dimension. En revanche, compar d'autres algorithmes, TRIBES donne des rsultats assez faibles sur les problmes multimodaux. L'algorithme trouve trs rapidement des zones intressantes de l'espace de recherche. Dans le cas o ces zones seraient en fait des optima locaux, le problme est que TRIBES n'arrive pas extraire les particules de l'essaim de ceux-ci.

52

CHAPITRE 2. TUDE ET PERFECTIONNEMENT DE TRIBES


Converger rapidement vers des zones intressantes de l'espace de recherche est, en soi, un

inconvnient, mais il peut se transformer en avantage, dans le cas de l'optimisation dynamique, ou pour les fonctions objectif trs longues valuer (souvent issues d'un processus exprimental). Ce travail a fait l'objet de la soumission d'un article la revue al., 2008].

Swarm Intelligence

[Cooren et

2.7 Amlioration de TRIBES : initialisation et dplacement des particules


2.7.1 Initialisation rgulire
Les performances des mthodes d'OEP sont directement lies l'initialisation des particules. Dans [Campana et al., 2006], il est dmontr que, dans le cas d'un algorithme d'OEP classique, la position d'une particule au temps

peut tre dcompose en deux vecteurs, l'un qui ne dpend

que de la position initiale de la particule et l'autre qui est indpendant de la position initiale de la particule. La trajectoire d'une particule est donc linairement dpendante de sa position initiale et de sa vitesse initiale. De ce fait, il apparat comme primordial de bien initialiser les particules de l'essaim, an d'obtenir de meilleurs rsultats. L'idal serait d'initialiser les particules an que l'espace de recherche soit explor de la meilleure des manires, i.e. que toutes les rgions de celui-ci soient visites au moins une fois par une des particules de l'essaim. Dans la grande majorit des cas, les particules sont initialises alatoirement dans l'espace de recherche. Cependant, une telle initialisation peut entraner un manque de diversit dans l'essaim ds le premier pas de temps, ce qui favorise une convergence prmature vers un optimum local. La Figure 2.12 montre l'exemple d'une initialisation alatoire de sept particules dans un espace de recherche 2D. On peut observer que les particules sont concentres dans la partie suprieure gauche et sur la frontire de droite de l'espace de recherche. De ce fait, ce sont ces deux rgions qui vont d'abord tre explores par les particules. Il y a donc une possibilit que les particules soient piges dans l'un des optima locaux prsents dans l'une de ces deux rgions, sans qu'elles aient pu auparavant explorer le reste de l'espace de recherche.

Dans l'objectif de rsoudre ce problme, on introduit un nouveau mode d'initialisation. Le but est de couvrir l'espace de recherche le plus uniformment possible avec les particules, ds leur initialisation. En pratique, les particules sont initialises de manire tre le plus loign possible les unes des autres et le plus loignes possible des frontires de l'espace de recherche. Le critre qui permet de choisir la meilleure conguration, en accord avec ce qui a t dit prcdemment, est dni comme suit :

nbP articules

f=
i=1
o

j=i

1 + dij i

nbP articules i=1

1 mind{1...D} (d (xi , boundd )) j,


et

(2.13)

dij

est la distance entre la particule

et la particule

d (xi , boundd )

est la distance entre la

particule

et la frontire de la dimension

d.

La Figure 2.13 montre l'exemple d'une initialisation rgulire ralise avec sept particules dans un espace de recherche deux dimensions.

Dans la nouvelle version de TRIBES, l'initialisation des particules est donc ralise en initialisant

D+1

particules en satisfaisant le critre de l'quation (2.13).

2.7. AMLIORATION DE TRIBES : INITIALISATION ET DPLACEMENT DES PARTICULES53

Figure 2.12  Initialisation alatoire de particules dans un espace de recherche 2D.

Figure 2.13  Initialisation rgulire de particules dans un espace de recherche 2D.

54

CHAPITRE 2. TUDE ET PERFECTIONNEMENT DE TRIBES

2.7.2 Stratgie de dplacement


L'tude du comportement des particules est un sujet dicile aborder. En eet, les direntes interactions entre les particules et le caractre alatoire des dplacements rendent l'tude thorique des trajectoires des particules quasiment impossible raliser. Cependant, il existe des tudes sur la dynamique des particules [Ozcan et al., 1999 ; Clerc et al., 2002 ; Van den Bergh, 2002 ; Trelea, 2003]. Ne pouvant appuyer ses choix sur des rsultats thoriques, un concepteur de mtaheuristique ne peut conrmer ou inrmer ses intuitions que par le biais de procdures empiriques. Les rsultats prsents dans la section 2.6 laissent apparatre que le dfaut principal de TRIBES est le manque de diversit au sein de l'essaim. Les particules ont tendance se regrouper dans les valles des optima locaux et y rester. Aucune des trois stratgies de dplacement utilises ne permet de disposer de mouvements assez larges pour s'chapper des valles de ces optima locaux. Dans le cadre de cette thse, il a t introduit une nouvelle stratgie de dplacement qui autorise, dans certains cas, une particule avoir un dplacement plus large que ne le peuvent proposer les trois autres stratgies de dplacement. On observe que, pour ces trois stratgies, chaque dplacement est inuenc par la position courante de la particule, par son informateur cognitif et par son informateur social. Ainsi, si l'une ou plusieurs de ces positions sont piges dans un optimum local, la particule va tre attire vers la valle de cet optimum local, va tourner autour ce celui-ci (voir Figure 2.9) et, ainsi, il ne va pas lui tre possible d'amliorer sa performance. L'ide de notre nouvelle stratgie de dplacement est de travailler non pas avec trois positions de rfrence, mais avec tout un ensemble de positions choisies soigneusement. La stratgie introduite va donc reposer sur une structure de type Algorithme Estimation de Distribution (voir Section 1.2.2). Comme nous le dtaillons dans l'Algorithme 6, on slectionne un ensemble de particules considres comme intressantes dans l'essaim, on calcule le modle probabiliste correspondant et, enn, on tire alatoirement la nouvelle position de la particule l'aide de la distribution de probabilit ainsi calcule. Le problme est de dterminer avec quel ensemble de positions la distribution de probabilit va tre calcule. Pour un algorithme de type OEP comme TRIBES, le choix le plus simple et le plus naturel est de prendre comme famille de rfrence les particule. Dans notre cas, nous avons utilis un modle gaussien. Deux cas de gures sont alors envisageables, selon que les direntes variables sont indpendantes entre elles ou non. Si les variables sont indpendantes entre elles, les composantes du vecteur moyenne du vecteur variance et (2.15).

, i {1, . . . , D}. pi

L'utilisation d'un modle

de probabilit support inni permet de garantir la possibilit d'un dplacement plus large pour la

= [ , . . . , ] 1 D

= [ , . . . , ] et les composantes 1 D

sont calcules indpendamment l'aide des quations (2.14)

est la taille de l'essaim et

est la dimension du problme.

i =

1 N

pji , i {1, . . . , D}
j=1

(2.14)

2 i
La

1 = N 1

(pji i )2 , i {1, . . . , D}
j=1

(2.15)

ime

coordonne de la nouvelle position est alors dtermine l'aide d'un tirage alatoire de

la distribution gaussienne de moyenne

et de variance

i .

Cependant, dans le cas d'applications relles, il est courant que les variables soient dpendantes entre elles. Dans ce cas la loi gaussienne est dnie par l'quation (2.16).

G () = x

1 T exp ( ) 1 ( ) x x 2 (2) ||
D 2 1 2

(2.16)

2.7. AMLIORATION DE TRIBES : INITIALISATION ET DPLACEMENT DES PARTICULES55

= [ , . . . , ] 1 D

est le vecteur moyenne et

est la matrice de covariance. La matrice de

covariance peut tre estime l'aide de l'quation (2.17), le vecteur de moyenne tant inchang.

1 N 1

N j=1

T ( ) ( ) pj pj

(2.17)

Dans ce cas, la nouvelle position est dtermine par tirage alatoire de la distribution gaussienne de moyenne

et de matrice de covariance

Bien videmment, cette stratgie de dplacement ne doit pas tre applique toutes les particules. Cette stratgie de dplacement autorise des dplacements trs larges et, donc, favorise un processus de diversication. De ce fait, cette stratgie doit tre rserve aux particules ayant eu un mauvais comportement lors des dernires itrations. La stratgie de dplacement base sur un EDA est donc attribue aux particules ayant pour historique (- -), (- =) et (= -). Ainsi ces mauvaises particules vont pouvoir amliorer leur performances en allant explorer de nouvelles rgions de l'espace de recherche. La Figure 2.14 montre l'histogramme des distances entre toutes les positions atteintes par les particules dans le cas de la fonction Rastrigin 10D. La Figure 2.14a est ralise l'aide de TRIBES classique et la Figure 2.14b est ralise en introduisant la nouvelle stratgie de dplacement. Il apparat que les positions atteintes dans le cas b) sont plus diverses que dans le cas classique. En eet, la Figure 2.14 est compose de quatre pics trs ns. Cela implique qu' la n de l'excution les particules ont principalement explor quatre rgions de l'espace de recherche. Les pics tant trs troits, on en dduit que les particules sont concentres autour d'optima locaux. A l'oppos, sur la Figure 2.14b, les pics sont beaucoup plus larges. Ceci induit que, comme souhait, on a explor l'espace de recherche de manire plus large que dans le cas initial et, donc, on a amlior le processus de diversication de TRIBES.

2.7.3 Exprimentation numrique des nouveaux modules de TRIBES


Dans tout ce paragraphe, TRIBES+ dsignera l'algorithme TRIBES auquel on a ajout l'initialisation rgulire et la nouvelle stratgie de dplacement. Dans cette section, la nouvelle version de TRIBES, i.e. avec une initialisation rgulire et avec la nouvelle stratgie de dplacement, est value sur les principales fonctions de test. Les dirents rsultats prsents sont obtenus pour des problmes de dimension

D = 10.

La Table 2.4 prsente les

erreurs moyennes sur 25 excutions des algorithmes et, entre parenthses, le nombre moyen d'valuations de la fonction objectif pour les fonctions unimodales F1 F5. L'excution de l'algorithme est stoppe si l'erreur est infrieure

106

ou si le nombre d'valuations de la fonction objectif dpasse

M axF es = 100000.

La Table 2.5 prsente les erreurs moyennes sur 25 excutions des algorithmes et,

entre parenthses, le nombre moyen d'valuations de la fonction objectif pour les fonctions multimodales F6 F11. L'excution de l'algorithme est stoppe si l'erreur est infrieure nombre d'valuations de la fonction objectif dpasse

102

ou si le

M axF es = 100000.
TRIBES+ donne des meilleurs r-

Les Tables 2.4 et 2.5 montrent que TRIBES+ donne des rsultats comptitifs vis--vis des autres algorithmes de comparaison. Compar au

Standard PS0 2006,

sultats dans la grande majorit des cas. TRIBES+ est juste un peu plus lent pour les fonctions F4 et F5, ce qui peut s'expliquer par le fait que ces fonctions sont plus rapidement rsolues par un algorithme disposant de beaucoup de particules au dpart du processus (car elles sont relativement simples). Compar TRIBES, TRIBES+ est meilleur dans 80% des cas. On prouve donc ici que

56

CHAPITRE 2. TUDE ET PERFECTIONNEMENT DE TRIBES

(a)

(b)

Figure 2.14  Histogramme des distances entre particules pour la fonction Rastrigin 10D (F9). (a)
TRIBES original, (b) TRIBES avec la nouvelle stratgie de dplacement.

Table 2.4  Comparaison entre algorithmes pour les fonctions unimodales 10D. Erreur moyenne et
nombre d'valuations de la fonction objectif moyen ncessaire pour atteindre un erreur infrieure

106 .
F1 Standard PSO 2006 EDA TRIBES TRIBES+ 0.00 (3375) 0.00 (28732) 0.00 (1856) 0.00 (1521) F2 0.00 (8300) 0.00 (28916) 0.00 (10452) 0.00 (12011) F3 7.12e+04 (100000) 0.00 (32922) 0.00 (10340) 0.00 (9405) F4 0.00 (11562) 0.00 (32636) 0.00 (18966) 0.00 (23783) F5 18.86 (67610) 233.50 (100000) 1.74 (60409) 9.04e-04 (80832)

2.8.

CONCLUSION

57

Table 2.5  Comparaison entre algorithmes pour les fonctions multimodales 10D. Erreur moyenne
et nombre d'valuations de la fonction objectif moyen ncessaire pour atteindre un erreur infrieure

102 .

F6 1.88 (100000) 0.00 (43500) 0.06 (100000) 0.12 (100000)

F7 0.08 (100000) 0.53 (100000) 0.07 (100000) 0.02 (100000)

F8 20.11 (100000) 20.33 (100000) 20.32 (100000) 20.35 (100000)

F9 4.02 (100000) 32.28 (100000) 8.55 (100000) 0.19 (100000)

F10 10.18 (100000 32.28 (100000) 12.11 (100000) 4.12 (100000)

F11 4.72 (100000) 8.27 (100000) 5.68 (100000) 3.55 (100000)

Standard PSO 2006 EDA TRIBES TRIBES+

l'ajout des deux mcanismes prsents dans les sections prcdentes apporte une relle plus-value aux performances de TRIBES. Ce travail a fait l'objet d'une publication [Cooren et al., 2007].

2.8 Conclusion
Dans ce chapitre, nous avons prsent TRIBES, un algorithme d'optimisation par essaim particulaire totalement adaptatif. TRIBES ne ncessite aucune intervention humaine pour la dnition de ses paramtres et permet donc l'utilisateur novice une prise en main plus facile de l'algorithme. Cependant, un tel algorithme ne peut tre intressant que si la facilit de prise en main ne se fait pas au dtriment de la qualit des performances. Les tests proposs dans ce chapitre montrent que TRIBES donne des rsultats comptitifs sur un trs large panel de fonctions de test, et ce, mme pour des dimensions leves des problmes. De mme, au niveau de la rapidit de recherche de l'optimum global, TRIBES a des performances tout fait correctes vis--vis des autres algorithmes, mme si, dans certains cas, il est handicap par le fait que son traitement ne dbute qu'avec une seule particule. Cependant, on constate que TRIBES soure d'un manque de diversit au sein de son essaim. En eet, il apparat dans de nombreux cas que la convergence de TRIBES est trs rapide vers un optimum local et que les particules n'arrivent pas s'chapper de ceux-ci. Cela entrane une stagnation des particules et, donc, des performances mitiges. Pour essayer d'apporter plus de diversit l'essaim, nous avons introduit deux nouveaux mcanismes TRIBES : une initialisation rgulire et une nouvelle stratgie de dplacement. Le but de ces mcanismes est de permettre aux particules d'explorer l'espace de recherche le plus largement possible. Les rsultats numriques montrent les eets bnques de ces deux nouveaux mcanismes.

Chapitre 3
laboration de MO-TRIBES : algorithme d'optimisation multiobjectif sans paramtre

3.1 Introduction
Les mtaheuristiques ont t l'origine conues pour traiter des problmes mono-objectif, c'est-dire que la recherche de solutions pour un problme donn ne dpend que d'un seul critre. Or, l'exprience montre que de nombreux problmes ne sont pas modlisables par un critre unique. En eet, pour une modlisastion correcte de ces problmes, il ne faut pas dnir un critre, mais plusieurs. La dicult majeure lors de la rsolution de ce type de problme provient du fait que les critres utiliss pour modliser ces problmes sont trs souvent contradictoires. On ne recherche plus alors une solution unique au problme pos, mais plutt un ensemble de solutions de compromis entre les dirents critres, un expert dans le domaine trait ayant alors pour rle de choisir parmi cet ensemble la solution nale. Dans le chapitre 1, nous avons dcrit comment les principales mtaheuristiques ont t modies et adaptes an de pouvoir traiter des problmes multiobjectifs. Il a t montr que les mtaheuristiques multiobjectifs peuvent se diviser en trois classes : les mthodes agrgatives, les mthodes non-Pareto et les mthodes Pareto. Les mthodes bases sur la dominance de Pareto (cf. section 1.3.1) sont aujourd'hui les plus ecaces et, de ce fait, les plus utilises. Dans les chapitres 1 et 2, nous avons discut la ncessit de rduire le nombre de paramtres de contrle des algorithmes d'optimisation dans le cas mono-objectif. Nous avons conclu que, en vue d'un dveloppement plus large de l'utilisation des mtaheuristiques dans l'industrie, il est ncessaire de faciliter au maximum la prise en main des algorithmes par les utilisateurs novices. Parmi les objectifs identis pour raliser cela, la rduction du nombre de paramtres de contrle des algorithmes est l'un des plus importants. Ce constat, discut dans le cas mono-objectif, est aussi valable dans le cas multiobjectif. En eet, les algorithmes multiobjectifs sont adapts des mthodes mono-objectif donc ils sont, par nature, fortement dpendants de leurs paramtres. De plus, les mcanismes permettant de transformer un algorithme mono-objectif en algorithme multiobjectif introduisent trs souvent la dnition de nouveaux paramtres, donc une complexit supplmentaire lors de la prise en main de l'algorithme. Le chapitre 2 a t consacr la prsentation de TRIBES, un algorithme d'Optimisation par Essaim Particulaire sans paramtres dvelopp par Clerc. Le prsent chapitre est consacr la prsentation de MO-TRIBES, une version multiobjectif de TRIBES, qui a t dveloppe au cours de cette thse. Comme TRIBES, MO-TRIBES prsente la particularit de ne ncessiter le rglage 59

60

CHAPITRE 3. LABORATION DE MO-TRIBES

d'aucun paramtre de contrle.

3.2 MO-TRIBES
MO-TRIBES a pour objectif d'tre un algorithme d'optimisation par essaim particulaire multiobjectif sans paramtres de contrle. Il reprend les principaux mcanismes de TRIBES auxquels sont ajouts de nouveaux mcanismes destins traiter des problmes multiobjectifs. MO-TRIBES a t conu en utilisant une approche base sur la dominance au sens de Pareto. Dans le but d'adapter le paradigme de TRIBES la rsolution de problmes multiobjectifs, il est clair que le schma gnral de l'algorithme (cf. Algorithme 10) doit tre modi. En gnral, la rsolution d'un problme multiobjectif pose trois problmes [Ziztler et al., 2000] :

trouver le plus d'lments possibles appartenant au front de Pareto ; approcher le mieux possible le front de Pareto ; la rpartition des solutions doit tre la plus uniforme possible le long du front de Pareto approch.

Comme dans le cas des algorithmes volutionnaires [Coello Coello et al., 2002], tendre l'algorithme d'OEP au traitement des problmes multiobjectifs implique de rpondre aux trois questions suivantes :

Comment choisir les informatrices des particules de manire favoriser les particules nondomines ? Comment retenir les particules non-domines pour que celles-ci soient non seulement nondomines vis--vis de la population courante, mais aussi vis--vis des populations passes ? Comment maintenir la diversit dans l'essaim pour ne pas converger vers une solution unique ?

Les solutions non-domines trouves au cours de l'excution sont stockes dans une

archive externe,

comme cela est dj fait dans de nombreuses autres mthodes [Reyes-Sierra et al., 2006]. Ainsi, la n du traitement, l'archive contiendra toutes les solutions non-domines rencontres au cours de l'excution et, de ce fait, l'approximation du front de Pareto du problme. Les paragraphes suivants dtaillent les modications qui ont d tre apportes TRIBES pour le transformer en MO-TRIBES.

3.2.1 Diversit au sein de l'essaim


Comme nous l'avons dit en introduction, l'algorithme ne doit pas converger vers une solution unique de l'espace de recherche. Il est donc primordial de maintenir une forte diversit au sein de l'essaim, si l'on veut obtenir une bonne approximation du front de Pareto. Nous avons vu dans le chapitre prcdent que, dans le cas mono-objectif, TRIBES converge trs rapidement vers un optimum local, sans garantie que celui-ci soit l'optimum global. Un faible nombre d'itrations sut donc pour que TRIBES atteigne un tat de quasi-quilibre et, donc, que la diversit au sein de l'essaim ne soit plus maintenue. Dans MO-TRIBES, ce dfaut inhrent au paradigme de l'OEP est utilis pour maintenir la diversit au sein de l'essaim. En eet, considrant que l'essaim va converger au bout d'un faible nombre d'itrations vers un tat de quasi-quilibre, on peut considrer qu'il n'est pas utile de continuer la recherche partir de ce moment l, et qu'il est alors prfrable de recommencer une nouvelle recherche. En d'autres termes, si, aprs un certain nombre d'itrations, les particules n'ont plus de

3.2.

MO-TRIBES

61

Algorithme 11 Mise jour de la taille de l'archive Si reinit = 0 Sinon


archiveSize = ek

Fin Si

archiveSize = archiveSize + 10 ln (1 + nDomP rev)

dplacements signicatifs, on peut considrer qu'il est prfrable de r-initialiser l'essaim, plutt que de continuer la recherche avec l'essaim courant. De ce fait, de nouvelles zones de l'espace de recherche vont pouvoir tre explores. En pratique, notre objectif est de trouver des solutions non-domines. On considre donc qu'un essaim a atteint un tat de quasi-quilibre s'il n'arrive plus trouver de nouvelles solutions nondomines. L'essaim sera donc rinitialis si, entre deux itrations successives de MO-TRIBES, l'algorithme n'a pas trouv de nouvelles solutions non-domines. On assure ainsi un renouvellement assez frquent de la population et, donc, on multiplie nos chances de trouver de nouvelles solutions non-domines.

3.2.2 Techniques d'archivage


L'archive externe contient les solutions non-domines trouves tout au long du processus d'optimisation. On a vu dans le paragraphe 1.3.5 que, pour viter une explosion de la complexit de l'algorithme, il est ncessaire de borner la taille de l'archive. Borner la taille de l'archive permet de gagner en complexit et, donc, en temps, mais introduit un nouveau paramtre, la taille de l'archive, ainsi qu'une nouvelle rgle, qui permet de grer la mise jour de l'archive. En eet, lorsque l'archive est pleine, il est ncessaire de disposer d'une rgle qui dnisse les conditions dans lesquelles les nouvelles solutions non-domines remplacent celles dj prsentes dans l'archive. Comme MO-TRIBES a pour but d'tre un algorithme sans paramtres de contrle, il nous est impos de trouver une rgle qui permette d'adapter la taille de l'archive en fonction du comportement de l'algorithme. La rgle propose a t dnie empiriquement lors de la conception de MO-TRIBES. Tout d'abord, on admet que la taille de l'archive est dpendante du nombre d'objectifs. Plus le nombre d'objectifs est important, plus il est ncessaire de disposer de beaucoup de solutions nondomines pour approcher le front de Pareto. Ensuite, chaque nouvelle adaptation, la taille de l'archive est mise jour, en fonction du nombre de solutions non-domines trouves entre les deux adaptations. Cette procdure est rsume par l'Algorithme 11.

Prev

est le nombre de fonctions objectifs,

nDom-

est le nombre de solutions non-domines trouves depuis la dernire mise jour de la taille de

l'archive et

reinit

est le nombre de r-initialisations de l'essaim, depuis le dbut de traitement.

La diversit des solutions non-domines stockes au sein de l'archive est maintenue l'aide d'un

ime

critre bas sur la

distance d'encombrement

[Deb et al., 2002]. La

distance d'encombrement
ime

du

lment de l'archive approche le volume du plus grand hypercube contenant la

de l'archive sans en inclure d'autres. L'ide est de maximiser la possible le long du front de Pareto. Sur la Figure 3.1, la

distance d'encombrement

solution entre

les solutions stockes dans l'archive, an d'obtenir une rpartition des particules la plus uniforme

distance d'encombrement

de la solution

est la largeur moyenne de l'hypercube matrialis en pointill.

62

CHAPITRE 3. LABORATION DE MO-TRIBES

Figure 3.1  Distance d'encombrement.


Algorithme 12 Mise jour de l'archive Pour i =1 tribeNb Pour j =1 tribe[i].explorerNb Si tribe[i].particle[j] domine des lments de l'archive Eacer les lments domins Fin si Si tribe[i].particle[j] est non-domin Si archiveSize = nonDomCtr Ajouter tribe[i].particle[j] l'archive Sinon Calculer les distances d'encombrement de chaque solution Trier les lments de l'archive en fonction de la distance d'encombrement Remplacer la solution avec la plus faible distance d'encombrement par tribe[i].particle[j] Fin si Fin si Fin pour Fin pour
L'archive est mise jour, suivant la procdure dcrite par l'Algorithme 12. de tribus dans l'essaim,

tribe[i].particle[j] est la j me particule de la ime tribu, nonDomCtr archiveSize

tribe[i].explorerNb

tribeNb

est le nombre

est le nombre de particules l'intrieur de la est la taille maximale de l'archive.

ime

tribu,

est le nombre de solutions non-

domines stockes dans l'archive et

3.2.3 Choix des informateurs


La solution un problme d'optimisation multiobjectif est un ensemble de solutions non-domines quivalentes. Il n'y a aucune solution qui puisse tre dite meilleure que les autres. Le concept d'informatrice dans MO-TRIBES est, de ce fait, dirent de celui de TRIBES. Pour une particule donne

X , le premier informateur est , l'informateur cognitif. modlise la p p est mis jour si, et seulement tendance de la particule suivre sa propre exprience. A l'itration t, p si, la nouvelle position X domine p . Le critre de dominance est donc utilis pour mettre jour l'informateur cognitif. Le second informateur dterminer est g , l'informateur social. g modlise

3.2.

MO-TRIBES

63

Figure 3.2  Topologie des liens d'information dans MO-TRIBES.


est dpendant du statut g sera la meilleure position de X au sein de la tribu. Si X est une particule quelconque de la tribu, g jamais atteinte par le chaman de la tribu. Si X est le chaman de la tribu, g est choisi alatoirement
l'inuence de l'essaim sur le comportement de la particule. Le choix de au sein de l'archive, an de donner une prfrence aux solutions non-domines. Choisir alatoirement l'informateur social du chaman au sein de l'archive permet d'assurer une certaine diversit au sein de l'essaim. La gure 3.2 illustre la topologie des liens d'information. Les particules noires sont les chamans des direntes tribus.

L'Algorithme 13 rsume la mise jour des liens d'information l'instant algorithme sont les suivants :

t.

Les lments de cet

tribe[i].particle[j] est la j me particule de la ime tribu ; tribe[i].particle[j].p est l'informateur cognitif de tribe[i].particle[j] ; tribe[i].particle[j].g est l'informateur social de tribe[i].particle[j] ; tribe[i].particle[chaman] est le chaman de la ime tribu ; U(archive) est une solution uniformment choisie dans l'archive.

3.2.4 Stratgies de dplacement


Les stratgies de dplacement sont identiques celles de TRIBES. Elles sont rsumes dans la Table 3.1. La fonction

est dnie par l'quation (3.1).

64

CHAPITRE 3. LABORATION DE MO-TRIBES

Algorithme 13 Processus d'information Pour i =1 tribeNb Pour j =1 tribe[i].explorerNb Si tribe[i].particle[j] domine tribe[i].particle[j].p Fin si Si tribe[i].particle[j] Sinon
t

tribe[i].particle[j].p =tribe[i].particle[j] ribe[i].particle[j].g=U(archive)

est le chaman de la tribu

Fin si Fin pour Fin pour

tribe[i].particle[j].g=tribe[i].particle[chaman].p

1 () = x k

k i=1

fi () x maxj{1,...,k} (fj ()) x

(3.1)

3.2.5 Algorithme
L'Algorithme 14 donne un pseudo-code de MO-TRIBES. lors de la prcdente adaptation de l'essaim et dernire adaptation.

NL est le nombre de liens d'informations

est le nombre d'itrations eectues depuis cette

3.3 Rsultats numriques de MO-TRIBES


3.3.1 Fonctions de test
De nombreuses fonctions de test ont t proposes pour valuer les algorithmes multiobjectifs [Fonseca et al., 1996 ; Laumanns et al., 2001 ; Kursawe, 1990]. Ces problmes ont t conus pour prsenter les caractristiques majeures que peuvent prsenter les fronts de Pareto (concavit/convexit, continuit/discontinuit, sparabilit, modalit, etc...). Les fonctions utilises pour valuer MO-TRIBES sont prsentes dans la Table A.1.

3.3.2 Critres de performance


Dans le cas multiobjectif, les algorithmes ne peuvent plus tre jugs sur la qualit de la solution fournie. De ce fait, de nombreuses mtriques ont t dnies, an de juger de la qualit d'un front de Pareto [Okabe et al., 2003]. Dans la suite de ce paragraphe, nous prsentons les trois mtriques utilises pour valuer MO-TRIBES.

3.3.

RSULTATS NUMRIQUES DE MO-TRIBES

65

Table 3.1  Stratgies de dplacement.


Historique de la particule Stratgie de dplacement Equation

(= +) (+ +)

locale par gaussiennes indpendantes

Xj = gj + aleanormal (gj Xj , gj Xj ) , j {1, . . . , D}

(+ =) (- +)

pivot bruit

X = c1 aleasphere (Hp ) + c2 aleasphere (Hg ) () p c1 = + g p ( ) ( ) g () c2 = + g p ( ) ( )

(- -) (= -) (+ -) (- =) (= =)

pivot

X = c1 aleasphere (Hp ) + c2 aleasphere (Hg ) ()() p g b = N 0, + p) ( (g) X = (1 + b) X

Algorithme 14 Algorithme de MO-TRIBES. Initialiser la taille de l'archive Initialiser un essaim de particules avec des positions alatoires Pour chaque particule i, est initialis Xi pi valuer les fonctions objectifs pour chaque particule et initialiser gi Insrer les particules non-domines dans l'archive Tant que le critre d'arrt n'est pas atteint Choisir les stratgies de dplacement Mettre jour les vitesses et les positions des particules valuer les fonctions objectifs pour chaque particule Mettre jour et pi gi Mettre jour l'archive Si n <NL Adaptations structurelles (ajout/limination de particules, mise jour du rseau d'information,
rinitialisation de l'essaim...)

Si nDomPrev =0 Redmarrer l'algorithme Mettre jour la taille de l'archive Fin Si Calculer NL Fin Si Fin Tant que

66

CHAPITRE 3. LABORATION DE MO-TRIBES

Covariance

: La

covariance C (U, V ) mesure le ratio de solutions de l'archive V


U . C (U, V )
est dni par l'quation (3.2) :

qui sont domi-

nes par des solutions de l'archive

C (U, V ) =

|{b V | a U, b domine a}| |V |

(3.2)

o l'oprateur |.| donne le cardinal de l'ensemble.

C (U, V ) = 1 implique que tous les vecteurs contenus dans V sont domins par ceux contenus U . A l'oppos, C (U, V ) est gal 0 quand aucun des vecteurs de V n'est domin par un des vecteurs de U . Ainsi, si U et V sont deux fronts de Pareto donns par deux algorithmes dirents AU et AV , plus le couple (C (U, V ) , C (V, U )) est proche de (1, 0), plus l'algorithme AU aura tendance tre meilleur que l'algorithme AV .
dans

Espacement

: L'

espacement S
S (A)

mesure la distribution des solutions stockes dans l'archive le long

du front de Pareto.

est dni par les quations (3.3) et (3.4) :

S (A) =

1 A1
k

|A|

(di dmoy )2
i=1

(3.3)

di =
o

sj Asj =si

min

|fu (si ) fu (sj )|


u=1

(3.4)

est l'archive considre,

|A|

est le nombre de solutions stockes dans l'archive,

de fonctions objectifs et

dmoy

est la distance moyenne. Plus

k est le nombre S (A) est grand, mieux les solutions sont

rparties le long du front de Pareto.

Largeur de front

: La

largeur de front M S
k

mesure la largeur du front de Pareto.

MS

est d-

ni par l'quation (3.5) :

MS =
u=1

max (fu (si )) min (fu (si ))


i=1 i=1

|A|

|A|
(3.5)

3.3.3 Rsultats exprimentaux de MO-TRIBES


Les rsultats obtenus avec MO-TRIBES sont compars NSGA-II [Deb et al., 2002], qui est connu comme le meilleur algorithme d'optimisation multiobjectif, et MOPSO [Raquel et al., 2005], qui est l'un des meilleurs algorithmes d'OEP multiobjectif. NSGA-II est excut avec une population de taille 100, une probabilit de croisement de 0.8 et une probabilit de mutation de 0.1. MOPSO est excut avec une population de taille 100, un coecient d'inertie d'acclration

gal 0.4 et des coecients

c1

et

c2

gaux 1. Pour ces deux algorithmes, la taille maximale de l'archive externe

est gale 100. MO-TRIBES n'a aucun paramtre de contrle dnir. Dans le code source de MOTRIBES, la taille maximale de l'archive est cependant borne 100. Cette borne n'est ici insre que par prvention, la taille de l'archive tant bien rgule par les quations de l'Algorithme 11 et ne

M axF es = 50000. La Table 3.2 prsente les couples moyens (C (AM OT RIBES , CX ) , C (AX , AM OT RIBES )) sur 25 excutions des algorithmes. X symbolise soit NSGA-II soit MOPSO.
dpassant jamais 100. Le critre d'arrt utilis pour chacun des algorithmes est La Table 3.3 prsente les MOPSO et MO-TRIBES.

espacements

moyens sur 25 excutions des algorithmes NSGA-II,

3.3.

RSULTATS NUMRIQUES DE MO-TRIBES

67

Table 3.2  Comparaison des algorithmes base sur la covariance.


Deb NSGA-II MOPSO (0.14, 0.18) (0.01, 0.27) ZDT1 (0.00, 0.85) (1.00, 0.00) ZDT2 (0.00, 0.35) (0.71, 0.05) ZDT3 (0.00,0.76) (1.00, 0.00) ZDT6 (1.00, 0.00) (1.00, 0.00) MOP5 (0.52, 0.07) (0.40, 0.03) MOP6 (0.03, 0.03) (0.06, 0.01)

Table 3.3  Comparaison des algorithmes base sur l'espacement.


Deb NSGA-II MOPSO MO-TRIBES 0.0313 0.0236 0.0188 ZDT1 0.0096 0.0072 0.0047 ZDT2 0.0089 0.0070 0.0130 ZDT3 0.0098 0.0084 0.0336 ZDT6 0.0067 0.1567 0.0870 MOP5 0.3515 0.2839 0.2237 MOP6 0.0076 0.0059 0.0040

La Table 3.4 prsente les MOPSO et MO-TRIBES.

largeurs de front

moyennes sur 25 excutions des algorithmes NSGA-II,

Les Figures 3.3 3.9 reprsentent une comparaison entre les fronts de Pareto fournis par NSGAII et MO-TRIBES. Les fronts matrialiss par des points sont ceux obtenus l'aide de NSGA-II, ceux matrialiss par des croix tant obtenus l'aide de MO-TRIBES.

3.3.4 Discussion
La Table 3.3 montre que MO-TRIBES prsente des rsultats comptitifs vis--vis de ceux de NSGA-II. Pour la fonction ZDT6, toutes les solutions non-domines trouves par NSGA-II sont domines par les solutions non-domines trouves par MO-TRIBES. MO-TRIBES est aussi nettement plus performant pour le problme MOP5. Pour les problmes ZDT1, ZDT2 et ZDT3, MO-TRIBES ne semble pas encore atteindre les mmes performances que NSGA-II. Les Figures 3.4 3.6 montrent que l'on n'est pas trop loign des rsultats optimaux pour ZDT1 et ZDT3 alors que, dans le cas de ZDT2, MO-TRIBES semble ne pas arriver correctement approcher le front de Pareto. Ce manque d'ecacit provient principalement du fait que MO-TRIBES ne dmarre qu'avec une seule particule, contre 100 NSGA-II, ce qui peut amener le traitement du problme par MO-TRIBES tre un peu plus long. Pour les problmes Deb et MOP6, les rsultats sont sensiblement quivalents. La Table 3.2 montre que MO-TRIBES donne de bien meilleurs rsultats que MOPSO. Les rsultats obtenus l'aide de MOPSO sont meilleurs que ceux de MO-TRIBES seulement pour la fonction Deb. Ils sont similaires dans le cas du problme MOP6 et l'avantage de MO-TRIBES pour tous les autres problmes.

Table 3.4  Comparaison des algorithmes base sur la largeur de front.


Deb NSGA-II MOPSO MO-TRIBES 6.41 6.41 6.41 ZDT1 1.41 1.43 1.43 ZDT2 1.41 1.40 1.41 ZDT3 1.96 2.02 2.05 ZDT6 1.12 8.34 1.22 MOP5 83.35 62.78 102.33 MOP6 1.69 1.69 1.69

68

CHAPITRE 3. LABORATION DE MO-TRIBES

Figure 3.3  Fronts de Pareto de NSGA-II et MO-TRIBES pour la fonction Deb. () Front de
Pareto donn par MO-TRIBES, ( ) Front de Pareto donn par NSGA-II.

Figure 3.4  Fronts de Pareto de NSGA-II et MO-TRIBES pour la fonction ZDT1. () Front de
Pareto donn par MO-TRIBES, ( ) Front de Pareto donn par NSGA-II.

3.3.

RSULTATS NUMRIQUES DE MO-TRIBES

69

Figure 3.5  Fronts de Pareto de NSGA-II et MO-TRIBES pour la fonction ZDT2. () Front de
Pareto donn par MO-TRIBES, ( ) Front de Pareto donn par NSGA-II.

Figure 3.6  Fronts de Pareto de NSGA-II et MO-TRIBES pour la fonction ZDT3. () Front de
Pareto donn par MO-TRIBES, ( ) Front de Pareto donn par NSGA-II.

70

CHAPITRE 3. LABORATION DE MO-TRIBES

Figure 3.7  Fronts de Pareto de NSGA-II et MO-TRIBES pour la fonction ZDT6. () Front de
Pareto donn par MO-TRIBES, ( ) Front de Pareto donn par NSGA-II.

Figure 3.8  Fronts de Pareto de NSGA-II et MO-TRIBES pour la fonction MOP6. () Front de
Pareto donn par MO-TRIBES, ( ) Front de Pareto donn par NSGA-II.

3.4.

CONCLUSION

71

Figure 3.9  Fronts de Pareto de NSGA-II et MO-TRIBES pour la fonction MOP5. () Front de
Pareto donn par MO-TRIBES, ( ) Front de Pareto donn par NSGA-II. La Table 3.3 nous informe que les solutions non-domines trouves par MO-TRIBES sont assez bien rparties le long du front de Pareto. De mme, la Table 3.4 montre que MO-TRIBES fournit des fronts de Pareto de mme largeur que ceux fournis par MOPSO et NSGA-II. Toutes les donnes numriques observes dans les Tables 3.2 3.4 sont conrmes par les impressions visuelles donnes par les Figures 3.3 3.9. On peut noter que, pour le problme ZDT1, les solutions non-domines trouves par MO-TRIBES sont mieux rparties sur la partie droite du front que celles donnes par NSGA-II. De mme, pour le problme MOP5, on arrive trouver davantage de solutions non-domines dans le plan

f2 f3

avec MO-TRIBES qu'avec TRIBES.

3.4 Conclusion
Dans ce chapitre, nous avons prsent MO-TRIBES, un algorithme adaptatif d'optimisation par essaim particulaire sans paramtres de contrle. Comme nous l'avons dj observ dans le cas mono-objectif, l'utilisation d'algorithmes adaptatifs permet aux utilisateurs de mtaheuristiques de s'aranchir du problme de dnition des paramtres de l'algorithme, ceux-ci tant automatiquement calculs au cours de l'excution de l'algorithme. MO-TRIBES est une OEP multiobjectif disposant d'une archive externe dans laquelle sont stockes les solutions non-domines trouves tout au long du traitement. La taille de l'archive est dtermine de manire adaptative et la diversit des solutions acceptes au sein de l'archive est gre grce un critre bas sur la maximisation de la

distance d'encombrement

des solutions de l'archive.

De plus, la diversit est aussi assure au sein de l'essaim de particules l'aide d'une stratgie de redmarrage de l'algorithme. Les comparaisons avec deux algorithmes trs populaires montrent que, mme si son comportement n'est pas guid par des paramtres soigneusement choisis par l'utilisateur, MO-TRIBES donne de bonnes approximations des fronts de Pareto, pour lesquelles les solutions sont bien rparties le long du front. Pour rsumer, on peut dire que MO-TRIBES est un algorithme comptitif pour rsoudre des pro-

72

CHAPITRE 3. LABORATION DE MO-TRIBES

blmes d'optimisation multiobjectif, ce qui vite aux non-spcialistes d'avoir dnir des paramtres de contrle. Ce travail a fait l'objet d'une soumission d'article [Cooren et al., 2008b].

Chapitre 4
Application de TRIBES en segmentation d'images mdicales

4.1 Introduction
L'imagerie est un domaine qui est devenu prpondrant dans de nombreux domaines, tels que la surveillance, la mdecine ou encore la prospection ptrolire. Les images pouvant apporter des informations trs diverses, il est devenu ncessaire de disposer d'algorithmes de traitement automatique des images. Un systme de traitement automatique d'images est compos de deux niveaux : le premier est consacr au traitement numrique des images, au sens large, avec des oprations telles que le codage, l'amlioration ou encore la restauration des images, le deuxime est ddi l'analyse symbolique des images, dans le but d'extraire l'information contenue dans l'image. La segmentation occupe une place importante, car elle est situe l'articulation entre le traitement et l'analyse des images. La complexit du problme, la diversit des images et l'valuation assez empirique des rsultats en font un axe de recherche trs actif. Le but de la segmentation est de partitionner une image en plusieurs rgions homognes, au sens d'un critre x a priori. On passe ainsi d'une information de type intensit lumineuse une information de type appartenance du pixel une rgion donne. D'un point de vue purement pratique, l'opration de segmentation revient donner chaque pixel de l'image un label d'appartenance une rgion donne. La partition de l'image en rgions homognes permet de fournir des donnes simplies qui vont permettre de faciliter la tche d'un systme de reconnaissance ou d'un systme de classication. De trs nombreuses mthodes de segmentation existent. Ce chapitre traite du problme de segmentation par seuillage d'images. Le seuillage d'image est une mthode de segmentation supervise, c'est--dire que le nombre de rgions et leurs proprits sont fournis au pralable par l'utilisateur. La segmentation est eectue en dterminant, pour chaque pixel, la classe dont les proprits se rapprochent le plus de celles observes en ce site. La technique de seuillage est base sur l'hypothse que les direntes rgions de l'image peuvent tre direncies par leurs niveaux de gris. Cette mthode repose donc sur l'utilisation de l'histogramme de l'image traite. Le seuillage de l'image en

classes revient donc trouver les

N-1

seuils qui vont partitionner l'histogramme en

zones. Le

problme de seuillage est dni dans la premire section de ce chapitre. Dans ce chapitre, le problme de segmentation sera abord selon deux critres dirents. Tout d'abord, nous prsentons un problme de segmentation d'images IRM de cerveau. Le critre de segmentation utilis dans ce cas est l'entropie exponentielle 2D. Les seuils optimaux sont obtenus lorsque l'entropie exponentielle 2D est maximale. Ce problme est rsolu l'aide de TRIBES. Ensuite, nous montrons comment on peut faciliter le processus de segmentation en approchant l'histogramme 73

74

CHAPITRE 4. APPLICATION DE TRIBES EN SEGMENTATION D'IMAGES

par une somme de gaussiennes. Approcher l'histogramme par une somme de gaussiennes permet de disposer d'une expression analytique de l'histogramme et, donc, de calculer plus facilement les seuils optimaux. Cette application ayant t ralise en cours de thse, elle permet de corroborer les observations faites sur le comportement de TRIBES et, justie donc les recherches d'amliorations pour TRIBES inities avec TRIBES+.

4.2 Problme de seuillage


4.2.1 Dnition du problme
Le problme de seuillage consiste diviser l'image en

rgions non forcment connexes,

tant dni au pralable par l'utilisateur. Le processus de segmentation est uniquement bas sur l'hypothse que les direntes rgions de l'espace sont direnciables par leurs niveaux de gris. Segmenter l'image en rgions. Soit

rgions revient donc trouver

N-1

seuils qui vont diviser l'histogramme en

l'image segmenter, l'image segmente

est dnie par :

g (x, y) = k si Tk f (x, y) < Tk+1 , k {0, . . . , N 1}


o

(4.1)

et

sont les coordonnes du pixel courant,

est le nombre de classes et

T0, . . . , TN

sont les

bornes des direntes rgions en niveaux de gris. Le but d'une mthode de seuillage est de trouver les seuils optimaux

T1 , . . . , TN 1 , T0

et

TN

tant les bornes de l'ensemble des niveaux de gris possibles.

Le seuillage manuel d'image se droule en quatre tapes :

observation de l'histogramme ; choix des seuils dans les valles de l'histogramme ; dnition des classes de rgions par intervalles de couleurs ; classement des pixels.

Le but d'un algorithme de seuillage est de proposer une mthode automatique qui permette l'utilisateur de s'aranchir des quatre tapes prcdemment cites.

4.2.2 tat de l'art des mthodes de seuillage


Les mthodes de seuillage peuvent tre divises en deux classes : les mthodes classes sont gaussiennes, et les mthodes plusieurs critres a posteriori.

paramtriques,

qui sont bases sur l'hypothse que les densits de probabilit des niveaux de gris des direntes

non-paramtriques, qui reposent sur l'optimisation d'un ou

4.2.2.1 Mthodes paramtriques de seuillage


Les mthodes paramtriques de seuillage supposent que les direntes classes de l'image suivent une densit de probabilit pr-dnie. L'histogramme est approch par une somme de densits de probabilit et les seuils sont choisis aux intersections de celles-ci. Le problme se dcompose ici en deux tapes : estimer les paramtres des densits de probabilit et dterminer les seuils de segmentation. La problmatique de ce genre de mthode est dnie en dtail dans la section 4.4. La plupart des mthodes existantes sont prsentes dans [Sezgin et al., 2004 ; Sahoo et al., 1998 ; Gonzalez et al., 2002].

4.2.

PROBLME DE SEUILLAGE

75

4.2.2.2 Mthodes non-paramtriques de seuillage


Les deux mthodes de rfrence dans cette catgorie sont la mthode d'Otsu [Otsu, 1979] et la mthode de Kapur et al. [Kapur et al., 1985]. La plupart des techniques parues ensuite sont bases sur ces deux principes.

4.2.2.2.1 Mthode d'Otsu

Otsu dcrit trois critres principaux de discrimination des classes :

la variance interclasse, la variance intraclasse et la variance totale. Les trois critres sont quivalents et, suivant la situation, l'un ou l'autre peut tre choisi. Cependant, du fait de sa simplicit de mise en oeuvre, la variance interclasse est souvent choisie. Le calcul des critres est bas sur la densit de probabilit des dirents pixels de l'image. Si l'on note

l'histogramme de l'image, celle-ci est donne par :

pi =

h (i)
L1

(4.2)

h (j)
j=0
o

h (i)

est le nombre d'occurrences du pixel de niveau de gris

i {1, . . . , L 1}.

Dans le cas d'une binarisation, le seuil optimal interclasse la variance totale :

est celui qui maximise le ratio de la variance

t = Arg max
th
avec :

B T

2(th)
(4.3)

2(th)

2(th)

= Pth (Pth 1) (1 0 )2
L1

(4.4)

2(th) T th
o

=
i=1

pi (i T )2
th L1

(4.5)

L1 p i Pi , t

0 =
i=0

1 =

pi i 1Pt , i=th+1

T = 0 + 1 , P t =
i=0

pi

et

1 Pt =

pi
i=th+1

Comme la mthode d'Otsu consiste regrouper les pixels en deux classes, l'ecacit de cette mthode n'est prouve que lorsqu'il n'y a qu'un seul type d'objet segmenter dans l'image. Une version multi-classes est disponible dans [Cheriet et al., 1998].

4.2.2.2.2 Mthode de Kapur et al.

La mthode de Kapur et al., ou mthode du seuillage

entropique, est base sur le principe de la maximisation de l'entropie totale de Shannon. La mthode suppose que deux objets d'une mme image ont des densits de probabilit indpendantes. Le seuil optimal est celui qui permet de maximiser l'entropie de l'image partitionne. Dans le cas de deux classes, les entropies partielles et totales sont donnes par :

HA (t) =
i=0 L1

pi log2 Pt

pi Pt pi 1 Pt

(4.6)

HB (t) =
i=t+1

pi log2 1 Pt

(4.7)

76

CHAPITRE 4. APPLICATION DE TRIBES EN SEGMENTATION D'IMAGES

HT (t) = HA (t) + HB (t)


Le problme de seuillage entropique est alors dni par :

(4.8)

t = Arg max (HT (t))


0tL1

(4.9)

Cette mthode a ouvert le champ la dnition de nombreuses mesures d'information pour mieux segmenter les images, telles que l'entropie de Tsallis ou l'entropie de Renyi. Une description de ces variantes est disponible dans [Sezgin et al., 2004]. Une variante de cette mthode base sur l'entropie exponentielle 2D est utilise dans la section 4.3.

4.3 Segmentation d'images IRM base sur l'entropie exponentielle 2D


4.3.1 Introduction
Avec le dveloppement des nouvelles techniques d'imagerie, telles que l'imagerie IRM ou la tomodensitomtrie, les mdecins ont un besoin d'algorithmes de traitement d'images de plus en plus ecaces. Le but de l'imagerie mdicale est d'apporter aux mdecins des outils d'aide la dcision. Les images sont traites an d'extraire de celles-ci des donnes quantitatives, qui vont permettre aux mdecins d'inrmer ou de conrmer leurs avis de spcialistes. La segmentation occupe une place prpondrante dans le processus d'imagerie mdicale, dans le sens o elle permet d'isoler certains objets sur les images, et donc de pouvoir mesurer les proprits spatiales de ceux-ci. Dans cette section, nous prsentons une mthode de segmentation de la matire blanche dans l'espace vsiculaire du cerveau. Les traitements sont raliss sur des images IRM du cerveau. Des rsultats sur ce genre d'images sont disponibles dans [Drapaca et al., 2005 ; Qiao et al., 2007 ; Wareld et al., 2000, Murgasova et al., 2006 ; Song et al., 2006 ; Kamber et al., 2000 ; Cocosco et al., 2003]. Le but est d'utiliser TRIBES pour optimiser un critre d'entropie exponentielle 2D, pour trouver les seuils optimaux de ces images dans un temps raisonnable.

4.3.2 Histogramme 2D
Soit

l'image originale et

l'image moyenne partir d'un masque 3x3, tel que dni par

l'quation (4.2) :

1 w (x, y) = 9
L'histogramme 2D

f (x + i, y + j)

(4.10)

i=1 j=1

d'une image [Nakib et al., 2007] est alors dni par :

h (i, j) =
avec

Card (f (x, y) = i et w (x, y) = j) T aille de l image

(4.11)

i, j {0, 1, . . . , L 1}, o L est le nombre de niveaux posera L = 256. On note la probabilit jointe pij = h (i, j).

de gris disponibles. Dans la suite, on

L'histogramme 2D est reprsent par la Figure 4.1. Les cadrans 1 et 2 matrialisent respectivement le fond et les objets de l'image. Les cadrans 3 et 4 contiennent respectivement l'information concernant le bruit et les contours. Un vecteur de seuillage de l'histogramme 2D

est not

(s, t),

4.3.

SEGMENTATION D'IMAGES IRM BASE SUR L'ENTROPIE EXPONENTIELLE 2D

77

Figure 4.1  Histogramme 2D.


o

reprsente le seuil de l'image moyenne

le cas d'une segmentation de l'image en

et

reprsente le seuil de l'image originale

f.

Dans

classes, les classes sont donnes par :

sn 1

tn 1

Pm1 (an1 , an ) =
i=sn1 j=tn1 sn+1 1 tn+1 1

pij

(4.12)

Pm (an , an+1 ) =
i=sn
o

pij
j=tn

(4.13)

an = (sn , tn ), n = 1, . . . , N ; m = 1, . . . , N ,

sont les vecteurs de seuillage.

4.3.3 Entropie exponentielle 2D


L'entropie exponentielle 2D (2DEE) est dnie par :

H =
i
avec

p ij
j

1 1

(4.14)

[0, 1[.

L'entropie exponentielle 2D de la classe

d'une image segmente est donne par :

(m) H (an , an+1 ) =

sn+1 1 tn+1 1 i=sn j=tn

pij Pm (an , an+1 )


et

1 1

(4.15)

Pour des raisons pratiques, on dnit problme impose

t0 < t1 < . . . < tN

et

T0 = (s0 , t0 ) = (0, 0) s0 < s1 < . . . < sN .


N 1

TN = (sN , tN ) = (255, 255).

Le

L'entropie 2D totale est donc donne par :

T H

(a1 , . . . , aN 1 ) =
i=0

(i+1) H (ai , ai+1 )

(4.16)

78

CHAPITRE 4. APPLICATION DE TRIBES EN SEGMENTATION D'IMAGES


En appliquant le principe du maximum de l'entropie, le vecteur de seuils optimaux

(s , t ) , . . . , 1 1

s 1 , t 1 N N

(a , . . . , a ) = 1 N

doit satisfaire :

T T H (a , . . . , a ) = max H (a1 , . . . , aN 1 ) 1 N
avec

(4.17)

0 < t1 < . . . < tN 1 < 255

et

0 < s1 < . . . < sN 1 < 255. O L


2N +2 4

Dans le cas d'une image segmenter en deux classes (

N =2),

dterminer le vecteur optimal

(s , t ) demande une complexit en N


classes, la complexit est de

, o

est le nombre de niveaux de gris. Dans le cas de

O L

. Dans la suite, nous proposons d'appliquer ce critre la

rsolution du problme de maximisation d'entropie l'aide de TRIBES. Pour montrer l'intrt de cette mthode, nous l'avons compare cinq autres mthodes classiques de calculs de seuils : un algorithme EM (EM) [Bazi et al., 2007], une mthode base sur la mthode dite de valley-emphasis (VE) [Ng, 2006], la mthode d'Otsu [Sezgin et al., 2004], la mthode de Kapur et al. [Sezgin et al., 2004] et une mthode base sur l'entropie 2D de Tsallis (TE) [Sahoo et al., 2006]. La comparaison est eectue sur une image synthtique avec dirents niveaux de bruit (cf. Figure 4.2). Les performances sont values par le critre de mauvaise classication ME [Sezgin et al., 2004]. Ce critre est dni par une corrlation entre les images et la perception visuelle. Son expression analytique est donne par (4.18) :

M E (%) =
o

|BO BT | + |FO FT | |B0 | + |F0 | ME

100 BT
et

(4.18)

BO

et

FO

sont respectivement le fond et l'objet de l'image originale,

FT

sont respectivement

le fond et l'objet de l'image seuille. Dans le cas idal,

est gal 0%.

La valeur du vecteur de seuils optimal dpend de l'ordre An de trouver l'ordre optimal

de la 2DEE (2D exponential entropy ).

on utilise le critre d'uniformit. Ce critre est dni par :

U () =
o :

1 2N M

N j=0 iCj

fi i fmax fmin

2
(4.19)

N est le nombre de seuils, Cj est la j me classe ; M est le nombre de pixels de l'image ; fi le niveau de gris du pixel i ; j est le niveau de gris moyen de la classe j ; fmax et fmin sont respectivement le plus grand

et le plus faible niveau de gris de l'image.

est strictement positif et compris entre 0 et 1. Si

est proche de 1, il y a une forte uniformit

dans l'image, et inversement.

Les rsultats exprimentaux sont prsents dans la Table 4.1. TRIBES est utilis pour optimiser le critre de 2DEE. On voit sur cette Table que le seuillage avec utilisation de l'entropie exponentielle donne de meilleurs rsultats que les autres mthodes.

4.3.

SEGMENTATION D'IMAGES IRM BASE SUR L'ENTROPIE EXPONENTIELLE 2D

79

Figure 4.2  (A) Image originale. (B) (D) Images bruites Table 4.1  valuation des direntes mthodes de seuillage.
Mthodes de segmentation Otsu ME(%) Kapur ME(%) EM ME(%) VE ME(%) TE ME(%) 2DEE ME(%) Image B 0.45 5.61 8.68 0.34 0.64 0.23 ( = 0.4) Image C 0.88 4.50 12.50 0.63 1.12 0.56 ( = 0.4) Image D 12.22 4.97 28.87 11.59 12.90 3.57 ( = 0.6)

4.3.4 Rsultats exprimentaux et discussion


La segmentation d'image est ralise en maximisant l'entropie 2D de l'image l'aide de TRIBES en fonction des vecteurs de seuils optimaux. Les exprimentations ralises montrent que la meilleure position de l'essaim n'volue plus beaucoup aprs 1000 valuations de la fonction objectif (cf. Figure 4.3). Le critre d'arrt de l'algorithme est donc

M axF es = 1000.

Les rsultats obtenus sont prsents sur la Figure 4.4. Cette gure montre les seuillages obtenus l'aide de TRIBES pour un cas sain (a) et un cas pathologique (b) pour

N =4

(c,d) et

N =5

(e,f ).

Le but est le quantier le taux de matire blanche situe dans l'espace ventriculaire. La Figure 4.5 prsente les mmes images, mais en utilisant l'entropie de Shannon 2D classique (2DSE), optimise l'aide d'une OEP classique [Peng-Yeng, 2007]. Dans le cas d'une recherche exhaustive, le critre doit tre valu en o

L! (L+1N )!(N 1)!

2
points,

L est le nombre total de niveaux de gris de l'image. La Table 4.2 montre le gain en temps obtenu

en utilisant TRIBES vis--vis d'une recherche exhaustive. De plus, en comparant avec d'autres mthodes de segmentation proposes dans la littrature [Drapaca et al., 2005 ; Qiao et al., 2007 ; Wareld et al., 2000, Murgasova et al., 2006 ; Song et al., 2006 ; Kamber et al., 2000 ; Cocosco et al., 2003], on constate que l'utilisation de TRIBES apporte aussi un gain en temps apprciable la segmentation des images IRM, tant donn que ces mthodes ncessitent au moins 120 secondes pour donner un rsultat. Les Figures 4.4 et 4.5 montrent que la mthode utilisant la 2DEE prsente un meilleur rsultat de segmentation que la mthode utilisant une entropie classique. La matire blanche est beaucoup mieux segmente sur les images de la Figure 4.4 que sur celles de la Figure 4.5.

80

CHAPITRE 4. APPLICATION DE TRIBES EN SEGMENTATION D'IMAGES

Figure 4.3  volution de la valeur de l'entropie 2D en fonction du nombre d'valuations de la


fonction objectif. (a)

M axF Es = 2000,

(b)

M axF Es = 1000.

Table 4.2  Temps d'excution pour segmenter l'image IRM de cerveau l'aide de TRIBES.
Nombre de classes (N ) Temps d'excution (s) Facteur de gain

3 4 5

14.8 19.6 26.7

106e4 687e8 194e16

4.3.5 Conclusion
Dans cette section, nous avons montr comment TRIBES peut tre utilis pour rsoudre un problme de segmentation d'images IRM. Le critre utilis, l'entropie exponentielle, aboutit des rsultats de segmentation satisfaisants. L'utilisation de TRIBES permet un gain de temps important vis--vis d'une recherche exhaustive, mais aussi vis--vis d'autres mthodes de segmentation. Ce travail a fait l'objet d'une publication [Nakib et al., 2007b].

4.4 Seuillage d'images par approximation d'histogramme


4.4.1 Introduction
Dans cette section, le processus de seuillage est abord sous un aspect dirent de celui vu dans la section prcdente. Dans la section 4.3, le seuillage tait ralis directement partir des informations obtenues partir de l'histogramme, en calculant un critre. Dans la prsente section, une mthode permettant d'approcher l'histogramme par une somme de fonctions gaussiennes est propose. Un telle opration nous permet d'obtenir une expression analytique approche de l'histogramme, et donc de pouvoir choisir les seuils optimaux plus facilement.

4.4.2 Approximation de l'histogramme


Soit

l'histogramme d'une image quelconque code sur une chelle comportant

niveaux de

gris. On cherche simplier le processus de seuillage en approchant

par une somme de

densits

4.4.

SEUILLAGE D'IMAGES PAR APPROXIMATION D'HISTOGRAMME

81

Figure

4.4  Segmentation obtenue l'aide de TRIBES suivant le critre de 2DEE. (a) Image

= 0.1, (d) Image pathologique segmente avec N =4 et = 0.3, (e) Image N =5 et = 0.4, (f ) Image pathologique segmente avec N =5 et = 0.2.

originale cas sain, (b) Image originale cas pathologique, (c) Image saine segmente avec

N =4

et

saine segmente avec

82

CHAPITRE 4. APPLICATION DE TRIBES EN SEGMENTATION D'IMAGES

Figure 4.5  Segmentation obtenue l'aide d'une OEP classique et 2DSE. (a) Image saine segmente
avec

N =4 , (b) Image pathologique segmente avec N =4, (c) Image saine segmente avec N =5, (d) Image pathologique segmente avec N =5 .

de probabilit [Synder et al., 1990]. Dans notre cas, des densits de probabilit gaussiennes sont utilises. L'approximation de

est donne par :

happrox (x) =
i=1
o

Pi e

xi i

(4.20)

Pi

est l'amplitude de la

ime

gaussienne,

est la moyenne et

est la variance.

L'histogramme

est normalis de la manire suivante :

hnorm (i) =
Approcher l'histogramme critre

h (i) j=0 h (j)


L1

(4.21)

avec la somme de gaussiennes

en fonction du jeu de paramtres

L'expression du critre

happrox revient donc minimiser J est donne par :

le

J=
Le jeu de paramtres

L1 i=0 |hnorm (i)


L1

happrox (, i)| j=0 hnorm (j)

(4.22)

est donn par :

= {(Pi , i , i ) , i = 1, . . . , d}

(4.23)

Si l'on suppose que l'histogramme est correctement approch par la somme de gaussiennes, alors les seuils optimaux sont calculs en minimisant la probabilit de recouvrement des direntes gaussiennes. Pour deux gaussiennes successives, l'expression de cette probabilit est donne par :

4.4.

SEUILLAGE D'IMAGES PAR APPROXIMATION D'HISTOGRAMME

83

E (Ti ) = Pi
o

Ti

pi (x) dx + Pi+1

pi+1 (x) dx, i = 1, . . . , d 1


Ti

(4.24)

Ti

est le

ime

seuil de l'image et

pi

Minimiser cette erreur revient et de l'galer zro. Cela donne :

ime gaussienne de l'approximation. direncier E (Ti ) selon le critre de Leibniz


est la

en fonction de

Ti

Pi pi (x) = Pi+1 pi+1 (x)


second ordre, dont l'expression est donne par :

(4.25)

Dans le cas de densits de probabilits gaussiennes, on aboutit la rsolution d'une quation du

ATi2 + BTi + C = 0
avec :

(4.26)

2 2 A = i + i+1 2 2 B = 2 i i+1 i+1 i 2 2 2 2 C = 2 i 2 i+1 + 4i i+1 ln i+1 i

(4.27)

(4.28)

i+1 Pi i Pi+1

(4.29)

Cette expression a deux solutions possibles mais seulement une seule solution est acceptable dans le cas prsent [Gonzalez et al., 2002].

4.4.3 Rsultats exprimentaux de la mthode de segmentation par approximation de l'histogramme


La mthode est teste sur les images TRIBES et de

Lena

(Figure 4.6 (a)) et

Boulons

(Figure 4.7 (a)). Ces l'aide de

images sont de taille 256x256, codes sur 256 niveaux de gris. Le critre obtenus avec TRIBES pour

Standard PSO 2006. Le critre d'arrt utilis est rsultats d =3, 4 et 5 sont respectivement prsents dans les Tables 4.3 et 4.4. Les rsultats obtenus avec le Standard PSO 2006 pour d =3, 4 et 5 sont respectivement prsents dans les Tables 4.5 et 4.6. On observe que, dans les cas d =3 et d =4, TRIBES et Standard PSO 2006 donnent des rsultats similaires. Dans le cas d =5, les rsultats sont lgrement dirents. Le
problme augmentant en taille, il est plus dicile pour les deux algorithmes de trouver une solution correcte, donc de trouver les mmes rsultats. La Figure 4.6 prsente les rsultats obtenus l'aide de TRIBES dans le cas de l'image Lena. Les Figures 4.6 (b) et (c) montrent l'approximation de l'histogramme obtenue avec les paramtres optimaux fournis par TRIBES, dans les cas

J est optimis M axF es = 10000 d. Les

d =3

et

d =4.

Les Figures 4.6 (d) et (e) prsentent les

rsultats de segmentation. On voit sur ces images que la segmentation de Lena en trois classes est insusante, mais semble convenable avec 4 classes. La Figure 4.7 prsente les rsultats obtenus l'aide de TRIBES dans le cas de l'image Boulons. Les Figures 4.7 (b) et (c) montrent l'approximation de l'histogramme obtenue avec les paramtres optimaux fournis par TRIBES, dans les cas rsultats de segmentation. Les Figures (e) et (f ) des Figures 4.6 et 4.7 montrent les graphes de convergence de TRIBES. L'allure de ces graphes nous permet de conrmer la pertinence de notre critre d'arrt.

d =3

et

d =4.

Les Figures 4.7 (d) et (e) prsentent les

84

CHAPITRE 4. APPLICATION DE TRIBES EN SEGMENTATION D'IMAGES

Table 4.3  Rsultats exprimentaux sur l'image Lena obtenus avec TRIBES.
Nombre de gaussiennes Paramtres des gaussiennes Seuils Erreur nale

3 4 5

P :(0.2624, 0.7685, 0.8153) :(198, 23, 100) :(14.0789, 8.3667, 66,4781) P :(0.3541, 0.2902, 0.7758, 0.7547) :(133,196, 94, 23) :(8.9784, 16.8357, 64.3285, 8.6236) P :(0.3370, 0.2877, 0.7868, 0.3420,0.7536) :(65, 196, 23, 133, 98) :(4.7779, 16.3593, 9.3536, 8.5447, 63.0961)

T :(41, 179) T :(41, 119, 174) T :(42, 75, 120, 175)

2.0761 1.2141 0.7023

Table 4.4  Rsultats exprimentaux sur l'image Boulons obtenus avec TRIBES.
Nombre de gaussiennes Paramtres des gaussiennes Seuils Erreur nale

3 4 5

P :(0.570, 0.036, 0.529) :(34, 98, 251) :(7.383, 100.0, 0.614) P :(0.035, 0.528, 0.845, 0.505) :(100, 251, 32,35) :(100.0, 0.616, 0.272, 7.866) P :(0.038, 0.537, 0.018, 0.639, 0.506) :(79, 251, 216, 32, 34, 57) :(56.781, 0.552, 100.0, 0.189, 7.891)

T :(55, 250) T :(34, 57, 250) T :(34, 56, 170, 250)

0.3701 0.1311 0.1199

Table 4.5  Rsultats exprimentaux sur l'image Lena obtenus avec Standard PSO 2006.
Nombre de gaussiennes Paramtres des gaussiennes Seuils Erreur nale

3 4 5

P :(0.262, 0.764, 0.815) :(198, 23, 100) T :(41, 179) :(14.078, 8.835, 66.480) P :(0.775, 0.754, 0.290, 0.354) :(94, 23, 196, 133) T :(41, 119, 172) :(64.328, 8.623, 16.835, 8.978) P :(0.337, 0.342, 0.786, 0.287, 0.753) :(65, 133, 23, 196, 98) T :(42, 75, 119, 174) :(4.777, 8.544, 9.353, 16.359, 63.095)

2.0761 1.2141 0.7023

4.4.

SEUILLAGE D'IMAGES PAR APPROXIMATION D'HISTOGRAMME

85

(a)

(b)

(c)

(d)

(e)

(f)
ginal et approch pour pour

(g)

Figure 4.6  Rsultat de segmentation de l'image Lena. (a) Image originale, (b) Histogrammes orid =3,
(e) Image convergence pour

d =4.

d =3, (c) Histogrammes original et approch pour d =4, (d) Image segmente segmente pour d =4, (f ) Graphe de convergence pour d =3, (g) Graphe de

86

CHAPITRE 4. APPLICATION DE TRIBES EN SEGMENTATION D'IMAGES

(a)

(b)

(c)

(d)

(e)

(f)
original et approch pour

(g)

Figure 4.7  Rsultat de segmentation de l'image Boulons. (a) Image originale, (b) Histogrammes

d =3, (c) Histogrammes original et approch pour d =4, (d) Image segmente pour d =3, (e) Image segmente pour d =4, (f ) Graphe de convergence pour d =3, (g) Graphe de convergence pour d =4.

4.5.

CONCLUSION

87

Table 4.6  Rsultats exprimentaux sur l'image Boulons obtenus avec Standard PSO 2006.
Nombre de gaussiennes Paramtres des gaussiennes Seuils Erreur nale

3 4 5

P :(0.5707, 0.0366, 0.5294) :(34, 98, 251) T :(54, 250) :(7.38, 100.0, 0.6141) P :(0.5293, 0.0358, 0.5252, 0.5058) :(251, 101, 32, 35) T :(34, 57, 250) :(0.6135, 100.0, 0.1752, 7.8581) P :(0.5284, 0.0182, 0.5070, 0.0384, 0.7295) :(251, 214, 34, 79, 32,) T :(34, 56, 170, 250) :(0.5644, 100.0, 7.8907, 56.5071, 0.2354)

0.3701 0.1311 0.1199

4.4.4 Conclusion
Dans cette section, nous avons prsent une mthode de segmentation base sur l'approximation de l'histogramme original par une somme de densits de probabilit. Obtenir, par approximation, une expression analytique de l'histogramme permet ainsi de calculer beaucoup plus facilement les seuils optimaux. Les rsultats proposs pour les images segmentation. Ce travail a fait l'objet d'une publication [Cooren et al., 2008c].

Lena

et

Boulons

montrent que cette mthode,

couple l'utilisation de TRIBES, ore une alternative ecace et rapide aux autres mthodes de

4.5 Conclusion
Le traitement d'images est aujourd'hui un enjeu important dans le monde de la recherche. Considrant que ses domaines d'applications sont nombreux et varis, c'est un sujet qui est en pleine bullition et qui prote totalement des avances technologiques en matire d'acquisition des images et de puissance des calculateurs. Parmi les nombreux axes de recherche au sein de la communaut de l'imagerie, la segmentation fait partie des sujets les plus actifs. Segmenter une image consiste isoler les dirents objets ou les direntes zones de cette image. Segmenter les direntes parties d'une image permet de pouvoir calculer les proprits de ces zones d'intrt partir de l'information apporte par l'intensit lumineuse. La mthode de seuillage est une technique particulire de segmentation. Elle repose sur l'hypothse que les dirents objets de l'image sont direnciables uniquement par leurs intensits lumineuses. En pratique, cela implique que la segmentation de l'image va se dterminer partir de l'histogramme de l'image. Aucune notion de voisinage n'est utilise ici. L'entropie exponentielle est un critre qui permet de trouver les seuils optimaux d'une image partir de son histogramme. Les seuils optimaux sont trouvs quand l'entropie exponentielle est maximale. Le problme de seuillage devient alors un problme d'optimisation qui peut tre rsolu par n'importe quelle mtaheuristique. Les rsultats prsents montrent que TRIBES parvient parfaitement rsoudre ce problme dans le cas d'images IRM de cerveau. De plus, la segmentation est ralise dans un temps beaucoup plus rapide qu'avec les mthodes classiques. Ce chapitre prsente enn comment l'histogramme d'une image peut tre approch par une expression analytique. L'intrt de disposer d'une telle expression est de pouvoir dterminer thori-

88

CHAPITRE 4. APPLICATION DE TRIBES EN SEGMENTATION D'IMAGES

quement les seuils optimaux. L'utilisation de TRIBES conduit ici aussi des rsultats intressants, qui orent une alternative crdible aux mthodes d'imagerie pure.

Chapitre 5
Application de TRIBES et de MO-TRIBES au dimensionnement de circuits lectroniques

5.1 Introduction
Les avances en matire de circuits intgrs VLSI (Very Large Scale Integration) permettent la ralisation de circuits intgrs de haute complexit [Gielen et al., 1991]. Les composants analogiques tiennent une part importante dans la conception de tels circuits, tant pour les systmes signal mixte que pour les systmes numriques [Gielen et al., 1991 ; Toumazou et al., 1993]. La conception des composants analogiques apparat donc comme une tape importante lors de la ralisation de tels circuits. En eet, les performances de ces circuits sont directement dpendantes des paramtres des composants analogiques. La conception de circuits analogiques est un processus complexe, dans le sens o elle ne concerne pas seulement le placement et le routage des composants, mais aussi leur dimensionnement [Graeb et al., 2001]. Dans la majorit des cas, le dimensionnement des composants analogiques est un processus lent, fastidieux et itratif, qui est ralis grce l'exprience et l'intuition d'un expert [Conn et al., 1996]. L'enjeu est d'essayer de proposer des mthodes automatiques de dimensionnement des composants analogiques, an d'acclrer de manire ecace le processus de conception des circuits intgrs. Les approches les plus connues dans la littrature sont bases sur des topologies xes et/ou des techniques stochastiques [Medeiro et al., 1994 ; Silveira et al., 1996 ; Conn et al., 1996 ; Loulou et al., 2002]. Ces mthodes sont, dans la majorit des cas, initialises avec une bonne solution fournie par un expert en conception de circuits analogiques. Ces mthodes cherchent ensuite amliorer cette solution par direntes techniques. Le problme de ces mthodes est qu'elles sont souvent trs lentes et qu'elles ne garantissent pas la convergence vers un optimum global. Si l'on aborde le problme de dimensionnement du point de vue non pas de l'lectronique, mais plutt de la recherche oprationnelle, on s'aperoit que le problme de dimensionnement est un problme d'optimisation variables continues soumis des contraintes. Les variables de dcision sont alors la largeur et la longueur des transistors du circuit, les contraintes tant imposes par le cahier des charges du circuit. Dans ce chapitre, nous prsentons deux applications de TRIBES au dimensionnement de circuits analogiques, l'une mono-objectif et l'autre multiobjectif. Dans un premier temps, nous dcrivons comment TRIBES peut tre utilis pour dimensionner les transistors d'un amplicateur de tension faible bruit, an de maximiser le gain de celui-ci. Dans un deuxime temps, nous montrons comment 89

90

CHAPITRE 5. DIMENSIONNEMENT DE CIRCUITS LECTRONIQUES

Rception
Contrleur automatique de gain Filtre SAW Filtre Passe Bas Bande de base I

LNA Filtre Image Reject

LNA Filtre Image Reject

Mlangeur

Antenne Gain Programmable Synchroniseur de frquence Synchroniseur de frquence 90

Filtre Passe Bas

Bande de base Q

Bande de base I

Filtre PA

Buffer Mlangeur SSB Contrleur de niveau IF Filtre LC

Bande de base Q

Emission

Figure 5.1  Chane de transmission radio-frquence.


optimiser les performances d'un convoyeur de courant de deuxime gnration l'aide de MOTRIBES. Cette application ayant t ralise en cours de thse, elle permet de corroborer les observations faites sur le comportement de TRIBES et, justie donc les recherches d'amliorations pour TRIBES inities avec TRIBES+. De mme, cette application nous permet d'aner nos conclusions sur le comportement global de MO-TRIBES.

5.2 Amplicateur faible bruit


Un amplicateur faible bruit (LNA,

Low Noise Amplier )

est un dispositif lectronique utilis

dans les systmes de communication. Il sert amplier les signaux trs faibles capts par les antennes tout en rduisant le bruit. Dans la majorit des cas, un tel amplicateur est plac proximit de l'antenne, an d'viter les pertes en ligne. Pour cela, il est aussi souvent nomm

pramplicateur.

La Figure 5.1 situe la place d'un amplicateur faible bruit dans la chane de transmission radiofrquence. La Figure 5.2 prsente l'amplicateur faible bruit utilis dans cette section. On est ici en prsence d'un amplicateur source commune avec dgnrescence inductive (Ls ). Le transistor

M1

amliore la stabilit du circuit en minimisant la contre-raction entre la sortie et

l'entre [Bazavi, 1998]. L'impdance d'entre est principalement due aux inductances aussi la capacit grille-source les lments

Lg

et

Ls , mais

Cgs

du transistor

M1 .

L'impdance de sortie correspond au circuit

LC (Lch , Cch ) et l'impdance quivalente des transistors

M1

et

M2 .

Le sous-circuit compos par

M3 , R1

et

R2

est destin polariser le circuit. Le courant de polarisation

Id

est ici gal

29 mA.
Pour assurer une transmission maximale de la puissance du signal de l'antenne l'amplicateur

5.2.

AMPLIFICATEUR FAIBLE BRUIT

91

Vdd

R2 R1

Lch

Cch

M3

M1

Ls M2 Vin Ls Vout

Figure 5.2  Amplicateur faible bruit.


Lch Zs rch Cch Zout

Figure 5.3  Impdance de sortie de l'amplicateur faible bruit.


faible bruit, l'impdance d'entre de l'amplicateur doit tre gale celle de sortie de l'antenne, qui en gnral est gale 50

L'impdance d'entre de l'amplicateur faible bruit est donne par :

Zin (j) =
o

1 gm Ls + j (Lg + Ls ) + jCgs Cgs M1


et

(5.1)

gm

est la transconductance du transistor

Cgs

est la capacit grille-source du transistor

M1 .

De mme, l'impdance de sortie doit tre gale l'impdance d'entre du bloc suivant. Cette impdance est donne par le schma de la Figure 5.3.

rch

est la rsistance parasite de l'inductance

Lch .

Zs

est l'impdance quivalente des transistors

M1

et

M2 .

Son expression est donne par :

Zout = rds1 rds2 gm2

(5.2)

92

CHAPITRE 5. DIMENSIONNEMENT DE CIRCUITS LECTRONIQUES


gm2 Vgs2 Rs Vin Cgs2 Ls rch Cc Lg Cgs1 gm1 gs1 V rds1 rds2 Lch Cch Rout

Vout

Figure 5.4  Modle petit-signal de l'amplicateur faible bruit.


in,Rg,RLg Rg RLg Lg

in,Rs

Rs

in,g

Cgs

gm1 V

gs1

in,d in,Rout

Ls

Figure 5.5  Sources de bruit dans un amplicateur faible bruit.


o

rds1

et

rds2

sont respectivement les rsistances drain-source des transistors

M1

et

M2 ,

et

gm2

est

la transconductance du transistor

M2 .

Le modle petit-signal de l'amplicateur est donn par la Figure 5.4. L'tude du bruit impos par ce circuit est ralise suivant le modle tabli dans [Andreani et al., 2001]. Le schma quivalent utilis pour calculer le facteur de bruit est prsent Figure 5.5.

L'expression du facteur de bruit est donne par [Hung et al., 1990 ; Andreani et al., 2001] :

F =1+
avec

1 Q2 +

1 4

gm P 2 gdn +

1 4 gdn

1 1 4 cP gm 2 Rs Q2 gm

2 + (Rs + RL ) Q2 gm +

1 Rout

(5.3)

c = 0.4

[Hung et al., 1990],

P =

Cgs Ct ,

4 15

gdn =

2 3

gd0

et

Q=

1 . m Rs + gC Ls 0 Cgs
gs

Assurer le comportement linaire du circuit impose de satisfaire les ingalits suivantes :

VDS1min > VDsat1 VDS2min > VDsat2 VDSimin Mi .


o et

(5.4)

(5.5)

VDsati

sont la tension drain-source minimale et la tension de saturation du transistor

Les limites technologiques imposent :

5.2.

AMPLIFICATEUR FAIBLE BRUIT

93

Table 5.1  Valeurs optimales des paramtres.


Cc (pF)

10

Lg (nH)

8.110 7.44

Ls (nH)

0.320 1

Lch (nH)

0.715 1.03

rch (W)

1.92

Cch (pF) W2 /L2 (m)

R1 (kW) W3 /L3 (m)

R2 (kW)

W1 /L1 (m)

510/0.35

500/0.35

40/0.35

(a)

(b)

Figure 5.6  Variation du gain (a) et de la gure de bruit (b) en fonction du courant de polarisation.
35.108 L 45.108 400.106 W 800.106
o (5.6)

(5.7)

et

sont respectivement la longueur et la largeur des transistors.

Enn, on impose que la frquence de transition

fT

soit cinq fois suprieure la frquence UMTS

F0 = 2.14 GHz .
Le but de cette application est de dimensionner les transistors

M1 , M2

et

faible bruit an que celui-ci prsente un gain maximal la frquence UMTS

M3 de l'amplicateur F0 . Le gain est calcul

en utilisant une technique de calcul symbolique partir du schma petit signal de la Figure 5.4. Son expression prsente un trs grand nombre de termes et il n'a pas t jug utile de la prsenter ici. Le problme est rsolu en utilisant TRIBES. Le critre d'arrt utilis est de polarisation

M axF es = 10000.

Les

variations du gain en dB et de la gure de bruit [Andreani et al., 1991] en fonction du courant

Id

sont prsentes Figure 5.6. La gure de bruit mesure la dgradation du rapport

signal bruit introduit par le circuit dans la chane de transmission radiofrquence. Les paramtres optimaux trouvs sont prsents dans la Table 5.1 pour

Id = 29mA. 0.35 m, Id
gal 29 mA. Les Figures 5.7 et 5.8

Les simulations sont ralises l'aide du logiciel ADS, en utilisant la technologie ADS une alimentation de 2.5 V et un courant de polarisation

94

CHAPITRE 5. DIMENSIONNEMENT DE CIRCUITS LECTRONIQUES


m1
15

10

Gain (dB)

dB(S(2,1))

m1 freq= 2.140GHz dB(S(2,1))=14.631


1.0 1.2 1.4 1.6 1.8 2.0 2.2 2.4 2.6 2.8 3.0

-5

Frquence (Ghz) freq, GHz

Figure 5.7  Gain en tension en fonction de la frquence.


2.0

nf(2) Figure de bruit (dB)

1.8 1.6 1.4 1.2 1.0 0.8 0.6 1.0 1.2 1.4 1.6 1.8 2.0 2.2 2.4 2.6 2.8 3.0

m1 freq= 2.147GHz nf(2)=0.631

m1

freq, GHz Frquence (GHz)

Figure 5.8  Figure de bruit en fonction de la frquence.


montrent les rsultats obtenus par simulation avec les paramtres de la Table 5.1. Pour la frquence UMTS gale

F0 , on obtient 0.631 dB .

un gain maximum gal

14.631 dB

et une gure de bruit quasi-minimale

and Systems for Communications 2008

Cette tude a fait l'objet d'une publication lors de la confrence [Boughariou et al., 2008].

European Conference on Circuits

5.3 Convoyeur de courant de seconde gnration


Un convoyeur de courant est un dispositif lectronique compos des trois ports actifs. La reprsentation conventionnelle est donne sur la Figure 5.9 (a). La Figure 5.9 (b) donne le schma quivalent nullateur/norateur qui reproduit le comportement idal d'un convoyeur de courant [Schmid, 2000]. La Figure 5.9 (c) donne le schma rel, en prenant en compte les lments parasites. Les dirents courants et tensions aux trois bornes X, Y et Z sont lis par la relation suivante [Toumazou et al., 1993 ; Ben Salem et al., 2006] :

5.3.

CONVOYEUR DE COURANT DE SECONDE GNRATION

95

Nullateur Z X Norateur (b) RX LX k2IX RZ CZ Z (a) k1

VY

RY

CY

(c)

Figure 5.9  (a) Reprsentation gnrale d'un convoyeur de courant, (b) Schma idal, (c) Schma
quivalent avec composants parasites.

IY 0 k2 0 VY V X = 1 0 0 IX IZ 0 k1 0 VZ
Dans l'quation ci-dessus,

(5.8)

k2

spcie le type de convoyeur de courant utilis. Si

k2 = 1,

alors le

circuit est considr comme un convoyeur de courant de premire gnration (CCI). A l'oppos, si

k2 = 0,

le circuit est considr comme un convoyeur de courant de seconde gnration (CCII).

k1
si

caractrise le transfert de courant entre les ports X et Z. Si un convoyeur de courant

positif.

k1 = 1,

le circuit est considr comme

Le circuit est class comme un convoyeur de courant

ngatif

k1 = 1.
Un convoyeur de courant de seconde gnration assure deux fonctionnalits :

suiveur de courant entre les ports X et Z ; suiveur de tension entre les ports X et Y.

Dans le cas idal, et pour assurer les bonnes fonctionnalits du circuit, un convoyeur de courant de deuxime gnration est caractris par une faible impdance sur le port X et de hautes impdances sur les ports Y et Z. Le convoyeur de courant de seconde gnration est le convoyeur le plus souvent utilis tant pour ses bonnes performances que pour l'intrt apport par l'utilisation d'une boucle translinaire [Seevinck, 2000]. La Figure 5.10 montre l'exemple d'un convoyeur de courant de seconde gnration

positif
M13

boucle translinaire CMOS [Ben Salem et al., 2006]. Les transistors

M1

M4

constituent

la boucle translinaire qui assure courant appliqu au port X.

VX = VY . I0

est le courant de polarisation et les transistors

M9

constituent des miroirs de courant. Les transistors

M5

M8

servent reproduire au port Z le

Lorsqu'il est conu au niveau microlectronique, le comportement d'un convoyeur de courant peut

96

CHAPITRE 5. DIMENSIONNEMENT DE CIRCUITS LECTRONIQUES


Vdd

M10

M9

M8

M7

M1 Y I0 M3

M2 X Z

M4

M13

M12

M11

M5

M6

Vss

Figure 5.10  Convoyeur de courant de seconde gnration positif.


direr du cas idal. La Figure 5.9 (c) montre les dirents composants parasites d'un convoyeur de courant. Ces composants aectent de manire signicative le comportement du circuit. Il a t prouv que, parmi ces lments,

RX

est le composant parasite dont les eets sont les plus importants

sur le comportement du convoyeur de courant. Dans le cas d'applications hautes frquences, ces circuits doivent tre prcisment dimensionns, si l'on veut que les performances soient en accord avec les souhaits du concepteur. La bande passante en courant limite le domaine d'application du circuit, car la bande passante en courant est moins large que celle en tension. Donc, dans cette section, nous cherchons optimiser les caractristiques importantes du circuit, i.e. la rsistance parasite

RX

du port X et la frquence de coupure en courant

fci .
On peut montrer que l'expression de la rsistance parasite 2006] :

RX

est donne par [Ben Salem et al.,

RX = 2KN
o

1
WN LN

(5.9)

(1 + N VDS ) I0 +

2KP

WP LP

(1 + P VDS ) I0

N , P , KN = 0.9386.108 et KP = 0.3476.106 sont des paramtres lis la technologie des transistors (AMS 0.35 m). I0 est le courant de polarisation et VDS est la tension drain-source des transistors. Dans notre cas, on utilise I0 = 100 A. WN et LN sont respectivement la largeur et la longueur des transistors NMOS. WP et LP sont respectivement la largeur et le longueur des
transistors PMOS. L'expression de la frquence de coupure en courant

fci

est calcule partir d'une approche

symbolique. Son expression n'est pas donne ici du fait de son trs grand nombre de termes. Tous les transistors doivent oprer en mode saturation. Les contraintes de saturation sont donnes par :

5.3.

CONVOYEUR DE COURANT DE SECONDE GNRATION

97

Table 5.2  Valeurs optimales des paramtres du circuit.


LN (m) WN (m) LP (m) WP (m) fcli (GHz) RX ()

0.55 0.55 0.57 0.57 0.59 0.55

7.29 14.73 10.63 12.93 8.27 7.76

0.35 0.36 0.35 0.35 0.35 0.35

12.6 24.15 17.06 20.69 13.87 12.25

1802 1253 1478 1330 1610 1771

633 448 525 477 604 610

VDD VT N 2 VDD VT P 2
o

I0
N KN WN L

>

I0
P KP WP L

(5.10)

I0
P KP WP L

>

I0
N KN WN L

(5.11)

VT N = 0.4655 V

et

VT P = 0.617 V RX

sont des paramtres inhrents la technologie utilise.

VDD

est la source de tension de 2.5 V. Le but est de minimiser et de maximiser

fcli en fonction de WN , LN , WP

et

LP , en respectant

les conditions imposes par (5.10) et (5.11). Les limites technologiques imposent :

35.108 LN , LP 45.108 1.106 WN , WP 30.106

(5.12)

(5.13)

Les rsultats optimaux sur les largeurs et longueurs des transistors NMOS et PMOS qui forment le convoyeur de courant sont obtenus en utilisant MO-TRIBES. Ces rsultats sont prsents dans la Table 5.2. Ces rsultats constituent le front de Pareto approch du problme de dimensionnement. La Figure 5.11 reprsente celui-ci dans le plan l'espace des solutions. Cette gure ne prsente que les valeurs pour lesquelles

1 GHz . Le courant M axF es = 10000. I0 .

de polarisation

I0

est

(fcli /RX ), ainsi que les solutions non-domines dans fci est suprieure gal 100 A. Le critre d'arrt pour MO-TRIBES est

La Table 5.3 montre les bornes des fronts de Pareto obtenus en fonction du courant de polarisation On voit sur ce tableau que la frquence de coupure augmente lorsque

I0

augmente, alors que

la rsistance d'entre dcrot lorsque

I0

augmente. On en dduit que plus

I0

est grand, plus le

circuit possdera de bonnes performances. Cependant, sachant que produire des forts courants de polarisation est assez complexe, il est donc important de trouver un bon compromis entre la valeur du courant de polarisation et les performances souhaites pour le circuit. La Figure 5.12 montre les dirents fronts de Pareto, dans le plan V et un courant de polarisation SPICE

(fcli /RX ). 0.35 m,


une alimentation de 2.5

Les simulations sont ralises en utilisant la technologie ADS

1 obtenues l'aide des valeurs de Table 5.3 pour I0 = 100 A. Les rsultats de simulation sont
with Integrated Circuit Emphasis

I0

gal 100 mA. Les Figures 5.13 et 5.14 prsentent les simulations

en accord avec les rsultats thoriques calculs prcdemment. La Table 5.4 illustre cette remarque.

1. SPICE (Simulation Program circuits lectroniques analogiques.

) est un logiciel de simulation gnraliste de

98

CHAPITRE 5. DIMENSIONNEMENT DE CIRCUITS LECTRONIQUES

2.8 2.6 2.4

x 10

-5

640 620 600

LP=0.35m

580 2.2 2 1.8 1.6 480 1.4 1.2 0.7 460 440 -1.9

RX

560 540 520 500

WP

0.8

0.9

1.1

1.2

1.3

1.4

1.5 x 10
-5

-1.8

-1.7

-1.6

-1.5

-1.4

-1.3

-1.2 x 10
9

WN

LN=0.55m

-fci

Figure 5.11  Solutions non-domines et front de Pareto du problme de dimensionnement. Table 5.3  Bornes du front de Pareto en fonction du courant de polarisation I0 .
I0 (A) fcimin (GHz) RXmin () fcimax (GHz) RXmax ()

50 100 150 200 250 300

0.866 1.802 1.721 2.027 1.940 2.042

1376 633 435 338 272 230

0.027 0.059 0.078 0.090 0.097 0.107

714 382 336 285 249 224

1400 I0=300A I0=250A I0=200A I0=150A I0=100A I0=50A

1200

1000 RX (ohm)

800

600

400

200 -2.5

-2

-1.5 -fchi (Hz)

-1

-0.5 x 10

0
9

Figure 5.12  Front de Pareto en fonction du courant de polarisation I0 .

5.4.

CONCLUSION

99

R X

1.0K

Rx

0 10Hz 100Hz 1.0KHz V(V4q:+)/-I(V4q)

10KHz

100KHz

1.0MHz

10MHz

100MHz

1.0GHz 10GHz

Frquence Frequency

(a) Solution donnant un fci maximum


R X 1.0K

Rx

0 10Hz 100Hz 1.0KHz V(V4q:+)/-I(V4q)

10KHz

100KHz

1.0MHz

10MHz

100MHz

1.0GHz 10GHz

Frquence Frequency

(b) Solution donnant un RX minimum

Figure 5.13  Simulations SPICE pour RX .


Ce convoyeur de courant a t optimis dans [Ben Salem et al., 2006] en utilisant une approche agrgative. L'unique solution trouve par Ben Salem et al. appartient au front de Pareto donn par MO-TRIBES et correspond la borne infrieure

(fcimin /RXmin ).

Ce travail a fait l'objet d'une publication [Cooren et al., 2007c].

5.4 Conclusion
Dans ce chapitre, nous avons prsent deux applications de l'optimisation au problme de dimensionnement de circuits lectroniques analogiques. Ce type de problme est crucial lors de la conception de circuits analogiques, car les performances des circuits sont fortement dpendantes des dimensions des transistors. Il n'existe pas de mthode automatique pour rsoudre ce genre de problme, la rsolution reposant le plus souvent sur l'exprience d'un expert. Ceci implique que le problme de dimensionnement est un problme long et fastidieux rsoudre. Ce chapitre montre

100

CHAPITRE 5. DIMENSIONNEMENT DE CIRCUITS LECTRONIQUES

10

-10

-20 100Hz 1.0KHz DB(-I(R1q)/-I(V4q))

10KHz

100KHz

1.0MHz

10MHz

100MHz

1.0GHz

10GHz

Frquence Frequency

(a) Solution donnant un fci maximum


10

-20 100Hz 1.0KHz 10KHz DB(-I(R1q)/-I(V4q))

100KHz

1.0MHz

10MHz

100MHz

1.0GHz

10GHz

Frquence Frequency

(b) Solution donnant un RX minimum

Figure 5.14  Simulations SPICE pour fci .

Table 5.4  Comparaison entre les rsultats thoriques et les simulations.


Rsultats thoriques
fci (GHz) RX ()

Simulations
fci (GHz) RX ()

Borne infrieure du front de Pareto Borne suprieure du front de Pareto

1.253 1.802

448 633

1.211 1.577

566 874

5.4.

CONCLUSION

101

comment l'utilisation des mtaheuristiques permet de trouver rapidement des solutions convenables en terme de performance des circuits. Le premier problme, mono-objectif, a consist maximiser le gain d'un amplicateur de courant faible bruit. Le deuxime, multiobjectif, a consist simultanment minimiser la rsistance d'entre et maximiser la frquence de coupure d'un convoyeur de courant de seconde gnration. Ces problmes ont t traits respectivement l'aide de TRIBES et MO-TRIBES. Nous avons montr dans ce chapitre que les deux problmes sont correctement rsolus.

Conclusion et perspectives

Dans cette thse, nous avons prsent un travail bas sur un algorithme d'Optimisation par Essaim Particulaire adaptative appel TRIBES. L'optimisation par essaim particulaire est une mtaheuristique destine la rsolution de problmes variables continues, inspire du comportement en essaim de certains animaux. Un essaim de particules prsente un comportement auto-organis qui conduit, par des interactions au niveau local, l'mergence d'un comportement global complexe. Un des inconvnients de cette mthode est que son comportement est trs fortement dpendant des valeurs donnes ses dirents paramtres de contrle. Un temps non ngligeable est donc ncessaire au pralable pour rgler le jeu de paramtres en fonction du problme pos. Pour s'aranchir de cette tape fastidieuse et faciliter la prise en main de l'algorithme par un utilisateur novice, de nombreuses recherches ont t menes, an de proposer des mthodes adaptatives. Une mthode adaptative est une mthode pour laquelle les valeurs des paramtres sont calcules au cours de l'excution de l'algorithme, en fonction du comportement des particules, et non imposes par l'utilisateur. TRIBES est un algorithme d'optimisation par essaim particulaire adaptatif qui a t propos par Maurice Clerc. Cet algorithme prsente la particularit d'tre totalement adaptatif, l'utilisateur n'a qu' dnir son problme et son critre d'arrt, sans se proccuper des paramtres de l'algorithme. Tous les paramtres de contrle sont calculs de manire autonome par l'algorithme, aucune intervention humaine n'tant ncessaire la bonne rsolution d'un problme. La premire tape de ce travail de thse a t de mener une tude des performances de TRIBES, an d'en dgager les principaux dfauts et, ainsi, de nouvelles pistes de dveloppement. Cette tude a t mene en utilisant la procdure de test dnie lors de la confrence

tation 2005,

IEEE International Conference Evolutionary Compu-

qui vise proposer un standard de comparaison entre les direntes mtaheuristiques.

L'tude mene montre tout d'abord que, certes, TRIBES n'est pas encore le meilleur algorithme d'optimisation, mais il prsente des rsultats tout--fait comptitifs vis--vis de la majorit des algorithmes. Le principal constat est que TRIBES soure d'un dcit de diversit au sein de l'essaim. En eet, l'algorithme converge vite vers un optimum, qui est souvent un optimum local, et n'arrive pas s'en extraire. En d'autres termes, les mcanismes de TRIBES n'arrivent pas maintenir la diversit ncessaire parmi les particules, an d'explorer les dirents optima locaux de la fonction objectif. An de rsoudre ce problme, nous avons dni deux nouveaux mcanismes pour TRIBES : une initialisation rgulire et une stratgie de dplacement. L'initialisation rgulire a pour but d'initialiser les particules de manire ce que, ds le dbut du traitement, l'espace de recherche soit explor de la manire la plus large possible par l'essaim de particules. Le but est d'explorer l'espace de recherche aussi largement que possible. La nouvelle stratgie de dplacement est destine aux particules qui prsentent un comportement dfaillant. An d'amliorer le comportement de ces particules, nous avons dni une nouvelle stratgie de dplacement, base sur l'utilisation d'un algorithme estimation de distribution. L'utilisation d'un tel algorithme permet d'avoir des dplacements plus larges, conditionns par les meilleures particules de l'essaim et, ainsi, de diversier le comportement d'une particule dfaillante. Ces deux mcanismes aboutissent une amlioration sensible des rsultats de TRIBES. 103

104

CONCLUSION ET PERSPECTIVES
TRIBES est destin la rsolution de problmes mono-objectif. Face au besoin croissant de

mthodes multiobjectif, nous avons dvelopp au cours de cette thse une version multiobjectif de TRIBES, dnomme MO-TRIBES. Comme dans le cas de TRIBES, MO-TRIBES est un algorithme pour lequel la dnition des paramtres de contrle ne ncessite aucune intervention de l'utilisateur. MO-TRIBES est un algorithme multiobjectif qui utilise une approche base sur la dominance, au sens de Pareto, pour chercher l'ensemble des solutions du problme pos. Tout au long du traitement, on stocke les solutions non-domines au sein d'une archive externe, dont la taille et le processus de mise jour sont dnis automatiquement. La diversit au sein de celle-ci est maintenue grce un critre de maximisation de

distance d'encombrement.

De mme, une certaine forme de diversit

est maintenue au sein de l'essaim par l'intermdiaire de multiples rinitialisations de l'essaim. Le procd d'information des particules tant dirent de celui du cas mono-objectif, nous avons dni une nouvelle topologie du graphe d'information des particules. Ce graphe permet de favoriser les solutions non-domines, an d'obtenir la meilleure approximation possible du front de Pareto du problme pos. MO-TRIBES a t compar deux des algorithmes les plus performants, NSGA-II et MOPSO, et prsente des rsultats trs encourageants, surtout si l'on considre que les pistes d'amlioration sont nombreuses. Nos algorithmes ont t appliqus dans deux domaines dirents. Tout d'abord, nous avons montr, dans le cas mono-objectif, que les mtaheuristiques peuvent tre une alternative rapide et performante au problme de seuillage d'images haute-rsolution, telles que les images IRM. Ensuite, TRIBES et MO-TRIBES ont t utiliss pour rsoudre des problmes de dimensionnement de transistors en lectronique analogique. Ce type de problme est crucial en lectronique, car les performances des circuits sont trs fortement dpendantes des dimensions des transistors. Peu de mthodes automatiques existent pour rsoudre ce type de problme. Nous avons montr que, dans les cas mono-objectif et multiobjectif, l'utilisation de mthodes d'optimisation est ici aussi une alternative crdible, tant en termes de performance que de temps de calcul.

Les perspectives de ce travail sont nombreuses, tant du point de vue thorique que pratique. Nous avons montr dans cette thse que les mthodes adaptatives ont un vrai avenir dans le monde de la recherche oprationnelle car elles permettent non seulement une prise en main trs facile des algorithmes d'optimisation, mais aussi d'obtenir des rsultats tout--fait comptitifs. TRIBES est un algorithme modulaire. Il est donc facilement possible de lui ajouter de nouveaux mcanismes. Dans le cas de TRIBES, les deux points sujets amlioration sont les rgles d'adaptation structurelle et les stratgies de dplacement des particules. Ainsi, il serait bnque de dnir de nouvelles stratgies de dplacement des particules, an de proposer un dplacement idal la particule, en se basant sur son pass rcent. Le but ici est de raliser un apprentissage de l'espace de recherche an de mieux guider les particules dans leur recherche. Par exemple, l'utilisation de fonctions d'interpolation, telles que les fonctions B-splines, pourrait permettre aux particules de mieux apprhender leurs dplacements dans l'espace de recherche. De mme, il serait intressant d'utiliser des stratgies de dplacement bases sur des paradigmes autres que celui de l'OEP, an de pouvoir bncier des avantages de ces autres mthodes. Dans l'idal, chaque type d'historique devrait possder une stratgie de dplacement qui lui est propre. L'ide est que chaque stratgie de dplacement apporte une solution au problme pos par les dplacements antrieurs de la particule. L'tape de mise jour des liens d'information l'intrieur de TRIBES est aussi un enjeu important, car une bonne gestion de la structure de l'essaim pourrait permettre de maintenir la diversit ncessaire au sein de l'essaim. La question est ici de savoir quelle mthode utiliser pour modier de manire optimale la structure de l'essaim, mais aussi de savoir quel est le moment le plus opportun pour raliser ce changement. En ce qui concerne l'instant de modication, il est clair qu'il est nces-

CONCLUSION ET PERSPECTIVES

105

saire de dnir un critre de stagnation de l'essaim qui permette de mesurer la capacit de l'essaim pouvoir encore amliorer sa performance ou, l'oppos, de mesurer la tendance de l'essaim tre bloqu dans une situation quasi-ge. Il serait peut-tre ncessaire de revoir la structure du graphe d'information de TRIBES en testant les eets d'autres topologies (par exemple, topologie circulaire sur les chamans) sur les performances de l'essaim. Ceci implique aussi une mise jour des liens d'information dirente lors de l'ajout/suppression de particules. De plus, les statuts utiliss pour les oprations de suppression sont assez binaires, il serait intressant de crer des statuts intermdiaires qui rendent mieux comptent de la situation d'une tribu ou d'une particule au sein de l'essaim. Les remarques prcdentes ont pour but d'amliorer TRIBES en confrant aux particules un meilleur pouvoir d'apprentissage de l'espace de recherche tout en maintenant au sein de l'essaim une forte diversit. Ce genre de caractristique est aussi apprciable dans le cas multiobjectif, donc les propositions de perspectives pour TRIBES peuvent aussi servir de perspectives pour MO-TRIBES. De plus, dans le cas multiobjectif, il est possible d'amliorer la gestion de l'archive. Par exemple, la taille de celle-ci est adapte suivant une rgle dnie empiriquement. Il serait intressant de mener une tude plus approfondie, an de dterminer une rgle optimale pour dnir la taille de l'archive. De mme, le choix des meilleurs informateurs au sein de l'archive pourrait favoriser les particules qui ont la plus grande

distance d'encombrement.

D'autres critres d'valuation des solutions non-

domines peuvent tre utiliss. Considrant que TRIBES converge trs rapidement vers un optimum local de la fonction objectif, il serait intressant de modier TRIBES an de l'exploiter en optimisation dynamique. En eet, l'utilisation de TRIBES pourrait permettre de dtecter rapidement l'optimum global de la fonction entre deux modications de la topologie de celle-ci.

Annexe A : Principales fonctions de test

Principales fonctions de test mono-objectif


Toutes les donnes ncessaires au calcul de ces fonctions (matrices de rotation, vecteurs de translation, code sources,...) sont disponibles l'adresse suivante :

EPNSugan/

http://www3.ntu.edu.sg/home/

Fonction Sphre (F1)


F1 () = x
D 2 zi + fbiais1 , fbiais1 = 450 i=1

= , = [x , . . . , x ] [100, 100]D z x o x 1 D = [o , . . . , o ], o 1 D
l'optimum global

Fonction Schwefel 1.2 (F2)


F2 () = x
D i=1

i j=1

2 zj + fbiais2 , fbiais2 = 450

= , = [x , . . . , x ] [100, 100]D z x o x 1 D = [o , . . . , o ], o 1 D
l'optimum global

Fonction Elliptic (F3)


F3 () = x
D i=1 2 106 D1 zi + fbiais3 , fbiais3 = 450
i1

= ( ) M, = [x , . . . , x ] [100, 100]D z x o x 1 D = [o , . . . , o ], o 1 D M
l'optimum global

est une matrice de rotation orthogonale

107

108

ANNEXE A : PRINCIPALES FONCTIONS DE TEST

Fonction Schwefel 1.2 bruite (F4)


F4 () = x
D i=1

i j=1

2 zj (1 + 0.4 N (0, 1)) + fbiais4 , fbiais4 = 450

= , = [x , . . . , x ] [100, 100]D z x o x 1 D = [o , . . . , o ], o 1 D
l'optimum global

Fonction Schwefel 2.6 bruite (F5)


F5 () = x A max
i{1,...,D}

{|Ai Bi |} + fbiais5 , fbiais5 = 310 x


est la

est un matrice

DxD, Ai

ieme

ligne de

A, det (A) =0

Bi = Ai , oi = U (100, 100), i = {1, . . . , D} o = , = [x , . . . , x ] [100, 100]D z x o x 1 D = [o , . . . , o ], o 1 D


l'optimum global

Fonction Rosenbrock (F6)


F6 () = x
D1 2 100 zi zi+1 i=1 2

+ (zi 1)2 + fbiais6 , fbiais6 = 390

= + 1, = [x , . . . , x ] [100, 100]D z x o x 1 D = [o , . . . , o ], o 1 D
l'optimum global

Fonction Griewank (F7)


F7 () = x
D i=1
2 zi 4000

i=1

cos

zi i

+ 1 + fbiais7 , fbiais7 = 180

= ( ) M, = [x , . . . , x ] [0, 600]D z x o x 1 D M = M (1 + 0.3 |N (0, 1)|), M est une matrice de transformation nombre de contionnement = 3 2 = [o , . . . , o ], o 1 D
A1 A
l'optimum global linaire dont

2. Le

nombre de conditionnement

d'une matrice A mesure la complexit de son calcul numrique et est gal

ANNEXE A :PRINCIPALES FONCTIONS DE TEST

109

Fonction Ackley (F8)


0.2 F8 () = 20 e x
1 D D 2 i=1 zi

eD

D i=1

cos(2zi )

+ 20 + e + fbiais8 , fbiais8 = 140

= ( ) M, = [x , . . . , x ] [32, 32]D z x o x 1 D M
est une matrice de transformation linaire dont

nombre de conditionnement = 100

= [o , . . . , o ], o 1 D

l'optimum global

o2j1 = 32 o2j , j = 1, 2, . . . ,

D 2

Fonction Rastrigin (F9)


F9 () = x
D 2 zi + 10 cos (2zi ) + 10 + fbiais9 , fbiais9 = 330 i=1

= , = [x , . . . , x ] [5, 5]D z x o x 1 D = [o , . . . , o ], o 1 D
l'optimum global

Fonction Rastrigin pivote (F10)


F10 () = x
D 2 zi + 10 cos (2zi ) + 10 + fbiais10 , fbiais10 = 330 i=1

= ( ) M, = [x , . . . , x ] [5, 5]D z x o x 1 D M
est une matrice de transformation linaire dont

nombre de conditionnement = 2

= [o , . . . , o ], o 1 D

l'optimum global

Fonction Weierstrass (F11)


F11 () = x
D i=1 kmax kmax

ak
k=0

cos

2bk

(zi + 0.5)

D
k=0

ak cos 2bk 0.5

+ fbiais11 , fbiais11 = 90

= ( ) M, = [x , . . . , x ] [0.5, 0.5]D , a = 0.3, b = 3, k z x o x 1 max = 20 D M


est une matrice de transformation linaire dont

nombre de conditionnement = 5

= [o , . . . , o ], o 1 D

l'optimum global

110

ANNEXE A : PRINCIPALES FONCTIONS DE TEST

Fonction Schwefel 2.13 (F12)


F12 () = x
D i=1 D D

2 (Ai Bi ()) + fbiais12 , fbiais12 = 460, = [x1 , . . . , xD ] [, ]D x x

Ai =
i=1

(aij sin (j ) + bij cos (j )), Bi =


i=1

(aij sin (xj ) + bij cos (xj ))

aij , bij [100, 100] , j [, ]

Principales fonctions de test multiobjectif


Table A.1 - Fonctions de test multiobjectif.
Espace D

Nom

de recherche

Expression analytique

Rfrence

Deb

f1 ( ) = x1 x [0.1, 1]
2

f 2 ( ) = x

2e

x2 0.2 0.004

0.8e x1

x2 0.6 0.4

[Deb, 1999] [Zitzler et al., 2000]

30

ZDT1

[0, 1]30

f1 ( ) = x1 x )=1+9 D g(x i=2

30

ZDT2

h ( , f1 , g) = 1 x ( ) ) = g ( ) h ( , f , g) f2 ( x x x 1 f1 ( ) = x1 x ) = 1 + 9 D xi g(x
i=2 D1 x f1 () h ( , f1 , g) = 1 g x x ( ) f ( ) = g ( ) h ( , f , g) x x x 2 1 2

xi D1 x f1 () g x

[0, 1]30

[Zitzler et al., 2000]

30

ZDT3

[0, 1]30

f1 ( ) = x1 x ) = 1 + 9 D xi g(x i=2 D1 , f , g) = 1 f1 ( x ) sin (10f ( )) h( x 1 1 x g () x f2 ( ) = g ( ) h ( , f1 , g) x x x ) = 1 e4x1 sin6 (6x ) f (x


1

f1 () x g x

( )

[Zitzler et al., 2000]

10

ZDT6

g ( ) = 1 + 9 x [0, 1]10

1( ) h ( , f1 , g) = 1 g x x ( ) ) = g ( ) h ( , f , g) f (x x x

D xi i=2 D1 f x

1 0.25 2

[Zitzler et al., 2000]

ANNEXE A :PRINCIPALES FONCTIONS DE TEST


Espace D

111

Nom

de recherche

Expression analytique

Rfrence

MOP5

[30, 30]

f1 ( ) = 0.5 x2 + x2 + sin x2 + x2 x 1 2 1 2 ) = (3x1 2x2 +4)2 + (x1 x2 +1)2 + 15 f2 ( x 8 27 2 2 1 f3 ( ) = x2 +x2 +1 1.1 ex1 x2 x
1 2

[Coello Coello et al., 2002] [Coello Coello et al., 2002]

MOP6

f1 ( ) = x1 x [0, 1]2 f2 ( ) = (1 + 10x2 ) 1 x


x1 1+10x2 2

x1 1+10x2

sin (24x1 )

Annexe B : Rsultats numriques de TRIBES

113

114

ANNEXE B : RSULTATS NUMRIQUES DE TRIBES

Table B.1  Erreur pour les fonctions unimodales en dimension 10 pour FEs=103 , 104 et 105 .
FEs F1 F2 F3 F4 F5 FEs=103 1er 7me 13me 19me 25me Moyenne Variance FEs=104 1er 7me 13me 19me 25me Moyenne Variance FEs=105 1er 7me 13me 19me 25me Moyenne Variance 0.004347 0.011044 0.03552 0.096339 0.276081 0.068943 0.075044 0 0 0 0 0 0 0 0 0 0 0 0 0 0 17.156654 37.389443 58.212032 139.37427 346.374378 100.607688 91.541188 1.55e-10 3.36e-09 6.61e-08 7.61e-06 2.01e-03 1.57e-04 4.40e-04 0 0 0 0 5.68e-14 2.27e-15 1.11e-14 23736.314425 44778.393803 130599.062043 318787.308758 1594493.870254 273638.075237 388777.309094 4.001777e-11 7.671247e-09 5.475368e-07 0.000026 0.002139 0.000117 0.00042 0 0 0 0 0 0 0 39.090571 133.988893 237.769180 596.315063 3932.029550 577.302159 834.977069 0.000004 0.000085 0.000957 0.009582 0.363307 0.025930 0.072792 0 0 0 0 3.64e-14 9.09e-15 2.08e-14 146.139053 598.534137 862.570764 1313.068874 3228.512443 1110.369922 781.104211 0.095210 1.716032 11.366620 45.927941 1119.663894 72.416017 217.650700 0 0 5.68e-13 2.84e-08 1.11e-05 9.18e-07 2.44e-06

ANNEXE B : RSULTATS NUMRIQUES DE TRIBES

115

Table B.2  Erreur pour les fonctions multimodales en dimension 10 pour FEs=103 , 104 et 105 .
FEs F6 F7 F8 F9 F10 F11 F12 FEs=103 1er 7me 13me 19me 25me Moyenne Variance FEs=104 1er 7me 13me 19me 25me Moyenne Variance FEs=105 1er 7me 13me 19me 25me Moyenne Variance 203.463571 1646.790313 2127.361491 6475.698481 38601.955678 6586.931554 9386.941213 0.014145 4.386041 5.453284 7.075625 30.227322 6.385858 5.564184 0.004314 0.541085 0.747254 1.103226 2.169582 0.85882 0.570887 0.623361 0.982154 1.05142 1.462515 5.384111 1.33978 0.902277 0.061571 0.115684 0.137799 0.221471 0.440146 0.180578 0.10215 0.015287 0.051984 0.073769 0.091044 0.201614 0.077474 0.03942 20.485670 20.682525 20.769963 20.814313 20.915608 20.745941 0.096755 20.416319 20.485168 20.525583 20.600516 20.764823 20.545279 0.088329 20.416319 20.485168 20.525583 20.600516 20.764823 20.545279 0.088329 15.10467 33.675252 44.956646 55.474189 76.821327 43.309673 16.000977 2.984879 8.954626 14.924371 21.889039 50.742348 16.371514 11.22564 2.984877 5.969754 7.959667 9.949586 16.914269 8.556642 3.66922 16.23971 33.74019 47.748059 63.569776 84.542945 48.262753 17.973327 5.969754 10.94457 17.909248 23.878972 41.788129 19.052126 8.864428 5.969754 9.098987 10.94454 12.934458 27.858783 12.118002 4.660575 3.673786 6.84937 8.270853 8.761013 10.9190 7.935141 1.569063 2.793658 4.702974 5.44391 6.58871 8.413328 5.567022 1.424877 2.792143 3.456094 4.158164 4.871277 6.097017 4.233992 0.958315 1086.721513 2087.954288 5392.676747 14089.042494 42976.859515 9990.359131 10625.813191 1.822694 150.871807 1576.117425 5735.460084 14058.362618 3252.791878 3782.702898 0.009991 3.347386 18.856007 208.277865 5184.562815 401.055407 1066.232340

116

ANNEXE B : RSULTATS NUMRIQUES DE TRIBES

Table B.3  Erreur pour les fonctions tendues et composes en dimension 10 pour FEs=103 , 104
et 10

5.

FEs FEs=103 1er 7me 13me 19me 25me Moyenne Variance FEs=104 1er 7me 13me 19me 25me Moyenne Variance FEs=105 1er 7me 13me 19me 25me Moyenne Variance

F13 3.171010 4.066271 4.812523 5.322586 6.044543 4.703398 0.749118 0.083393 0.701463 1.156255 1.434762 1.767060 1.084210 0.436958 0.348796 0.472609 0.593114 0.674788 0.970072 0.545902 0.222001

F14 3.475790 4.002326 4.150536 4.300356 4.508500 4.138838 0.239739 2.798398 3.269073 3.576401 3.695722 4.022634 3.488787 0.325614 2.142077 2.58856 2.752672 3.087005 3.510396 2.777861 0.341739

F15 197.489562 423.264014 470.853547 626.471829 777.774774 491.856725 143.137483 124.185470 228.681273 384.060458 398.763970 646.622212 346.902015 132.223074 92.820102 126.050968 187.286285 264.809332 457.359199 212.15829 100.776783

F16 189.184315 235.981761 296.892300 312.520238 556.601713 307.959855 96.034311 155.201434 188.317715 204.072135 218.378360 553.128678 228.777700 95.73212 145.067276 169.775478 176.438753 187.096185 215.349429 177.530554 17.13220

F17 206.397449 285.067996 371.981281 477.090661 789.774458 426.898085 180.843460 163.389636 179.965528 202.972766 263.948551 707.856708 234.821253 105.063253 149.27214 163.169731 169.735632 186.123329 236.277438 176.305663 21.653134

ANNEXE B : RSULTATS NUMRIQUES DE TRIBES

117

Table B.4  Probabilit que l'erreur moyenne donne par TRIBES pour FEs= 103 soit plus petite
que les erreurs moyennes donnes par les autres algorithmes.

F1 G-CMA-ES EDA DE L-CMA-ES BLX-GL50 DMS-L-PSO L-SaDE SPC-PNX CoEVO K-PCX BLX-MA Standard PSO 24.72% 99.98% 99.49% 64.28% 100% 84.68% 99.88% 79.01% 97.56% 0% 100% 100%

F2 34.05% 96.97% 94.62% 64.99% 99.66% 99.57% 99.75% 97.24% 98.99% 0.01% 100% 87.31%

F3 85.06% 99.77% 97.54% 99.77% 99.64% 93.27% 96.53% 97.19% 98.12% 79.90% 99.77% 32.81%

F4 73.17% 99.66% 96.22% 99.99% 99.57% 99.97% 98.98% 92.81% 99.39% 99.98% 99.99% 61.69%

F5 8.30% 99.99% 99.84% 27.22% 99.99% 99.99% 99.99% 99.99% 99.99% 99.99% 99.99% 50.79%

F6 57.32% 90.29% 90.28% 41.19% 97.17% 72.82% 94.6% 64.01% 94.67% 31.01% 96.45% 69.97%

F7 30.30% 100% 98.09% 46.66% 100% 100% 99.73% 62.94% 97.15% 36.52% 97.44% 82.36%

F8 65.17% 100% 63.19% 39.51% 39.80% 39.63% 44.23% 99.94% 24.98% 38.68% 0% 74.23%

F9 29.57% 97.73% 23.86% 91.7% 93.69% 74.88% 73.16% 94.88% 88.27% 99.15% 31.26% 47.33%

F10 39.17% 99.13% 98.1% 91.74% 97.79% 92.16% 91.79% 96.72% 94.69% 99.42% 55.4% 62.04%

F11 50.51% 98.72% 98.33% 82.65% 98.32% 86.88% 97.07% 95.78% 95.37% 39.89% 68.92% 86.80%

Table B.5  Probabilit que l'erreur moyenne donne par TRIBES pour FEs= 104 soit plus petite
que les erreurs moyennes donnes par les autres algorithmes.

F1 G-CMA-ES EDA DE L-CMA-ES BLX-GL50 DMS-L-PSO L-SaDE SPC-PNX CoEVO K-PCX BLX-MA Standard PSO 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% -

F2 35.78% 99.66% 92.45% 0% 100% 100% 98.45% 79.33% 89.13% 0% 100% 0.29%

F3 39.31% 99.87% 99.42% 39.52% 96.36% 99.87% 96.75% 91.26% 90.99% 87.73% 99.25% -

F4 36.36% 99.73% 77.48% 88.03% 99.71% 99.6% 97.16% 77.66% 86.66% 98.96% 82.34% 36.46%

F5 36.94% 93.9% 37.28% 0% 37.56% 46.45% 71.78% 41.68% 99.68% 99.94% 55.59% 52.87%

F6 54.02% 96.23% 70.93% 17.62% 79.11% 89.25% 83.33% 69.38% 89.45% 15.1% 55.09% 69.84%

F7 4.06% 99.93% 99.98% 4.3% 100% 99.87% 100% 89.3% 99.87% 58.48% 99.39% 51.08%

F8 35.62% 45.38% 37.93% 29.58% 38.59% 8.53% 38.10% 100% 16.07% 0% 0.05% 54.12%

F9 18.68% 99.52% 0% 95.06% 34.32% 20.82% 19.37% 89.78% 89.71% 98.58% 16.23% 18.64%

F10 10.29% 99.03% 98.92% 95.56% 93.27% 67.08% 89.75% 98.59% 90.18% 99.83% 12.48% 39.13%

F11 32.56% 99.85% 99.78% 81.51% 99.68% 87.15% 91.93% 44.09% 98.91% 73.32% 89.06% 66.54%

118

ANNEXE B : RSULTATS NUMRIQUES DE TRIBES

Table B.6  Probabilit que l'erreur moyenne donne par TRIBES pour FEs= 105 soit plus petite
que les erreurs moyennes donnes par les autres algorithmes.

F1 G-CMA-ES EDA DE L-CMA-ES BLX-GL50 DMS-L-PSO L-SaDE SPC-PNX CoEVO K-PCX BLX-MA Standard PSO -

F2 -

F3 -

F4 -

F5 35.23% 100% 100% 100% 100% 100% 100%

F6 6.53% 0% 0% 0% 0% 6.92% 6.65% 67.62% 90.16% 39.81% 86.73% 63.53%

F7 2.49% 100% 99.99% 0% 5.07% 26.38% 7.91% 57.62% 16.89% 76.17% 100% 51.87%

F8 0% 2.64% 10.65% 0% 5.48% 0% 0% 100% 0% 0% 0% 43.24%

F9 1.22% 100% 0% 99.51% 2.43% 0% 0% 14.65% 92.01% 0.53% 1.35% 14.41%

F10 0.50% 99.96% 99.99% 97.95% 9.38% 3.65% 7.47% 24.56% 93.2% 0.59% 8.30% 29.89%

F11 0.60% 97.5% 53.71% 38.03% 15.49% 61.9% 63.23% 6.12% 99.97% 89.63% 61.64% 59.41%

Table B.7  Nombre d'valuations de la fonction objectif ncessaires pour atteindre une prcision
donne pour

D=10.

F1 Prcision 1er 7me 13me 19me 25me Moyenne Variance Taux de succs Taux de performance 1E-06 1132 1341 1379 1405 1538 1364.72 82.27 1 1364.72

F2 1E-06 4407 5901 6405 7024 10990 6620.92 1440.33 1 6620.92

F3 1E-06 7590 9445 10765 11535 12302 10422.96 1368.08 1 10422.96

F4 1E-06 7473 14178 17679 18912 37259 17399.32 5288.60 1 17399.32

F5 1E-06 19310 33030 54219 68466 100000 55448 21856.65 0.88 63009.09

F6 1E-02 57732 1E+05 1E+05 1E+05 1E+05 98309.28 8282.80 0.04 2457725

F7 1E-02 14211 1E+05 1E+05 1E+05 1E+05 96568.44 16811.14 0.04 355275

F8 1E-02 1E+05 1E+05 1E+05 1E+05 1E+05 1E+05 0 0 -

F9 1E-02 1E+05 1E+05 1E+05 1E+05 1E+05 1E+05 0 0 -

F10 1E-02 1E+05 1E+05 1E+05 1E+05 1E+05 1E+05 0 0 -

F11 1E-02 1E+05 1E+05 1E+05 1E+05 1E+05 1E+05 0 0 -

ANNEXE B : RSULTATS NUMRIQUES DE TRIBES

119

Table

Performance normaliss

B.8  Comparaisons pour le test n2.

Comparaison des

Taux de succs

et des

Taux de

pour les fonctions unimodales en dimension 10.

F1 Taux de succs 100% 98% 96% 86% 86% 80% 80% 80% 76% 72% 59% 57%
98%

F2 2400 1 (25) 4.6 (25) 19.2 (25) 1.89(25) 1.1 (25) 17.1 (25) 12.9 (25) 11.3 (25) 5 (25) 4.2 (25) 15.4 (25) 1 (25)
2.75 (25)

F3 6500 1 (25) 2.5 (23) 18.5 (20) 1.28(25) 1 (25) 6.8 (25) 1.8 (25) 8 (16) 1.60(25)

F4 2900 1 (25) 4.1 (25) 17.9 (25) 4.05 (24) 65.5 (7) 14.5 (25) 10.7 (25) 16.2 (25) 15.9 (24) 25.9 (24) 19.7 (21)
5.99 (25)

F5 5900 1 (25) 4.2 (25) 6.9 (25) 9.51(9) 1 (25) 4.7 (25) 6.8 (25) 18.6 (20) 10.67 (22)

G-CMA-ES EDA DE Standard PSO L-CMA-ES BLX-GL50 SPC-PNX CoEVO DMS-L-PSO L-SaDE BLX-MA K-PCX
TRIBES

Nombre de problmes rsolus 5 5 5 5 5 4 4 4 4 4 3 3


5

1000 1.6 (25) 10 (25) 29 (25) 1.92(25) 1.7 (25) 19 (25) 6.7 (25) 23 (25) 12 (25) 10 (25) 12 (25) 1 (25)
1.3 (25)

120

ANNEXE B : RSULTATS NUMRIQUES DE TRIBES

Table

Performance normaliss

B.9  Comparaisons pour le test n2.

Comparaison des

Taux de succs

et des

Taux de

pour les fonctions multimodales en dimension 10.

F6 Taux de succs 65% 45% 37% 36% 33% 33% 25% 16% 14% 12% 3% 0%
1%

F7 4700 1 (25) 36.2 (6) 126 (4) 255 (2) 1.2 (25) 12.3 (9) 383 (1) 404 (1) 75.59 (1)

F8 59585 -

F9 17000

F10 55000

F11 190000 1.4 (6) 1 (12) 5.8 (1) 2.9 (3) -

G-CMA-ES K-PCX L-SaDE DMS-L-PSO DE L-CMA-ES BLX-GL50 SPC-PNX Standard PSO BLX-MA EDA CoEVO
TRIBES

Nombre de problmes rsolus 5 3 3 3 4 1 3 3 1 1 2 0


2

7100 1.5 (25) 9.6 (22) 6.6 (24) 1.3 (25) 7.3 (25) 7.7 (25) 6.69 (25) 1 (22) 8.22(21) 346.15(1)

4.5 (19) 1.2 (23) 2.9 (24) 1 (22) 1 (25) 2.1 (25) 10.6 (11) 10 (3) 5.7 (18) -

ANNEXE B : RSULTATS NUMRIQUES DE TRIBES

121

Table B.10  Erreurs obtenues par TRIBES pour les fonctions unimodales F1 F5 pour FEs=103 ,
10 , 10

5 et

3 105

en dimension 30.

FEs 1er 7me 13me 19me 25me Moyenne Variance FEs=104 1er 7me 13me 19me 25me Moyenne Variance FEs=105 1er 7me 13me 19me 25me Moyenne Variance FEs=3 105 1er 7me 13me 19me 25me Moyenne Variance FEs=103

F1 545.401319 763.736762 952.377579 1175.006339 2135.289475 1078.901830 438.636560 8.76923e-10 2.34268e-08 1.57023e-07 6.90545e-07 1.63378e-06 3.81567e-07 4.60849e-07 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 -

F2 23753.455258 36551.200224 41729.732379 48020.937603 73057.951110 42257.908075 10513.104038 1157.692640 2456.192247 3261.409112 4527.274681 8610.326003 3619.335066 1621.557782 0.065053 0.214957 0.329139 0.459690 1.238312 0.412722 0.288669 9.07801e-08 1.61207e-06 4.95458e-06 9.42962e-06 3.0105e-05 7.19735e-06 7.73998e-06

F3 4.27361e+07 8.51668e+07 9.91835e+07 1.23047e+08 2.30009e+08 1.08777e+08 4.22558e+07 3.60156e+06 7.75657e+06 9.74018e+06 1.13803e+07 2.07468e+07 1.05132e+07 4.37557e+06 813066.45845 1.54066e+06 1.90716e+06 2.27242e+06 3.76743e+06 2.01593e+06 698066.45436 598704.350987 855999.379857 1014045.152060 1247628.169888 1887991.141906 1069031.474667 334378.671805

F4 32573.551403 45090.823064 57324.701513 77243.382507 107561.251077 61096.008923 19032.203746 8932.572469 14849.919239 21635.111487 25567.005027 32501.740810 21030.406402 6441.561675 516.631486 948.127901 1447.308771 2054.595836 4088.917498 1551.897873 804.590438 25.455964 55.108733 105.279604 155.578752 263.511924 114.536412 64.802493

F5 7055.819362 10868.133323 12457.704085 13882.372397 17034.082175 12098.970689 2462.033587 3187.995258 4014.106435 4949.878258 6143.642470 8873.854482 5161.075479 1450.382821 1812.453648 2794.833156 3426.708974 4445.213415 5819.294765 3573.855339 1001.152670 1216.232084 2346.496762 2659.422989 3298.160834 4732.928081 2904.395914 893.729250

122

ANNEXE B : RSULTATS NUMRIQUES DE TRIBES

Table

3 4 5 5 FEs=10 , 10 , 10 et 3 10 en dimension 30.


FEs FEs=103 1er 7me 13me 19me 25me Moyenne Variance FEs=104 1er 7me 13me 19me 25me Moyenne Variance FEs=105 1er 7me 13me 19me 25me Moyenne Variance FEs=3 105 1er 7me 13me 19me 25me Moyenne Variance F6 3.92325e+06 2.0412e+07 3.50137e+07 6.24164e+07 2.03865e+08 4.99783e+07 4.22058e+07 17.014731 189.176584 416.425645 1350.193152 15045.306282 2659.469329 4236.307159 14.509209 22.218218 23.409837 108.194483 260.359554 71.144465 71.878558 11.151063 17.913102 19.051047 28.042458 162.687090 42.957510 45.734870 F7 40.013150 71.737478 85.845944 118.854991 160.406095 96.136898 33.263711 0.085397 0.221678 0.392264 0.663108 0.991563 0.438602 0.260645 1.21747e-09 2.80406e-09 1.81492e-08 0.00776076 0.0392017 0.00633127 0.0108424 1.13687e-13 1.42109e-13 2.27374e-13 0.00739604 0.0392017 0.00462371 0.00853559

B.11  Erreurs obtenues par TRIBES pour les fonctions multimodales F6 F12 pour

F8 21.056059 21.171188 21.221481 21.242706 21.298876 21.204342 0.059272 21.032120 21.058639 21.115257 21.156435 21.181138 21.109398 0.047673 20.839995 20.961109 21.018591 21.045619 21.066397 20.989665 0.066620 20.815151 20.907250 20.962332 20.990927 21.054735 20.940385 0.065990

F9 187.265639 249.604655 271.948330 287.091759 406.081078 273.795732 43.602115 42.936466 61.621876 76.893785 92.878949 162.958231 81.094363 26.525312 42.566535 49.747867 59.861496 68.652044 86.147111 60.061898 12.161238 36.617389 45.768041 54.309993 62.349902 77.728616 54.915138 10.860816

F10 285.218958 306.145836 325.744326 340.021783 438.236754 331.165661 34.758146 80.173776 112.631522 128.923325 182.153706 246.566326 148.598773 51.585323 35.555125 52.991327 70.524538 78.348288 123.191450 68.788406 17.885204 32.471423 46.330144 50.842266 62.444743 72.461759 53.290049 12.316491

F11 31.896924 35.902835 38.507720 41.047662 45.843919 38.871644 3.900798 17.007092 23.086002 27.936516 28.776337 30.678365 25.920437 3.984833 14.705651 18.163141 20.389028 23.403583 26.988445 20.671717 3.358757 13.148180 17.221012 18.760161 20.308537 24.281864 18.886322 2.767368

F12 108258.095532 157464.201553 191766.228493 247644.941821 451068.981703 215511.037627 81816.336469 3611.325757 14344.047438 27461.024901 57245.400760 143722.805979 37867.177531 32126.004765 591.258305 4521.349844 7906.540961 15837.006895 38892.189697 10975.585704 9347.985658 423.138620 1441.010871 2401.051302 7512.223871 27042.396094 6125.519784 7332.809051

ANNEXE B : RSULTATS NUMRIQUES DE TRIBES

123

Table B.12  Erreurs obtenues par TRIBES pour les fonctions unimodales F1 F5 pour FEs=103 ,
10 , 10

5 et

5 105

en dimension 50.

FEs 1er 7me 13me 19me 25me Moyenne Variance FEs=104 1er 7me 13me 19me 25me Moyenne Variance FEs=105 1er 7me 13me 19me 25me Moyenne Variance FEs=5 105 1er 7me 13me 19me 25me Moyenne Variance FEs=103

F1 7373.798751 13582.060330 14654.659667 18078.306341 23029.561123 15373.138183 3553.869792 0.00045 0.002793 0.012681 0.038681 0.095290 0.022326 0.024181 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 -

F2 66512.243201 123132.752712 132489.995334 154687.092015 177734.220606 136021.355994 24836.430592 18343.212051 26256.755860 33668.457975 38466.704353 43600.143258 32404.253572 7381.423033 546.036631 942.168600 1113.865921 1450.544282 2334.117640 1256.383381 511.503268 0.444382 1.011717 1.319648 1.880692 2.925234 1.527317 0.773144

F3 1.608408e+08 3.490499e+08 3.995339e+08 5.436261e+08 8.970324e+08 4.470123e+08 1.731368e+08 2.073663e+07 3.725160e+07 4.771993e+07 5.798409e+07 9.830602e+07 5.054105e+07 1.763190e+07 7.639610e+06 9.828907e+06 1.117745e+07 1.313159e+07 1.801836e+07 1.168230e+07 2.705968e+06 7.639610e+06 9.828907e+06 1.117745e+07 1.313159e+07 1.801836e+07 1.168230e+07 2.705968e+06

F4 1.096512e+05 1.541903e+05 1.775259e+05 1.992400e+05 2.453915e+05 1.785500e+05 3.708685e+04 5.316309e+04 7.464497e+04 8.701098e+04 9.582370e+04 1.173356e+05 8.593429e+04 1.562124e+04 2.303105e+04 2.861164e+04 3.834594e+04 4.049924e+04 4.818047e+04 3.554161e+04 7.935071e+03 3.929082e+03 8.238943e+03 9.877399e+03 1.207335e+04 1.588878e+04 1.003315e+04 2.710695e+03

F5 19776.750982 24905.440048 26795.888081 30405.058354 39602.474627 28010.523749 5055.179819 8895.099403 10867.563346 11796.904609 13032.312161 20798.492757 12528.211571 2725.159823 5990.765568 6663.180346 7506.657817 9513.361510 11020.584031 8136.961363 1559.783989 5260.547389 6139.722171 6741.550803 8347.882926 9986.382681 7168.083978 1342.863057

124

ANNEXE B : RSULTATS NUMRIQUES DE TRIBES

Table B.13  Erreurs obtenues par TRIBES pour les fonctions multimodales F1 F5 pour FEs=103 ,
10 , 10

5 et

5 105

en dimension 50.

FEs FEs=103 1er 7me 13me 19me 25me Moyenne Variance FEs=104 1er 7me 13me 19me 25me Moyenne Variance FEs=105 1er 7me 13me 19me 25me Moyenne Variance FEs=5 105 1er 7me 13me 19me 25me Moyenne Variance

F6 6.676345e+08 1.502741e+09 2.102731e+09 3.203172e+09 7.085885e+09 2.567254e+09 1.566098e+09 6.102731e+01 7.367784e+02 1.516126e+03 5.897766e+03 1.710479e+04 4.447202e+03 5.420401e+03 41.431073 44.562834 45.558088 100.111610 933.549769 135.990197 198.555711 36.409515 38.880127 39.625544 41.959751 213.409772 57.607742 44.178837

F7 456.524380 557.430595 647.983077 836.367432 1222.275318 688.664200 193.401528 0.816631 0.972842 1.094367 1.143562 1.460009 1.079263 0.139955 2.907517e-06 1.161803e-04 7.462253e-03 9.925737e-03 1.479109e-02 6.369441e-03 5.068086e-03 3.410605e-13 4.831691e-13 7.396040e-03 9.857285e-03 1.477978e-02 5.323914e-03 4.961702e-03

F8 21.234798 21.311694 21.346268 21.377617 21.407934 21.338811 0.043641 21.109296 21.228355 21.264091 21.286178 21.327707 21.251033 0.048455 20.405250 21.152316 21.181590 21.208740 21.253827 21.145569 0.157824 20.262322 21.093476 21.113697 21.159861 21.184178 21.084618 0.172698

F9 465.537510 553.900449 595.439355 643.693590 879.884348 596.145274 82.419408 148.236247 376.164593 453.379153 487.744376 530.327958 413.006171 102.862691 86.563856 99.614556 123.076870 145.046664 164.427758 123.107381 24.416071 81.842922 95.353745 112.144946 124.494016 148.818196 110.142961 19.008936

F10 513.461528 625.415037 660.080508 687.156062 767.535534 658.790550 52.848078 148.236247 376.164593 453.379153 487.744376 530.327958 413.006171 102.862691 79.786767 120.221918 129.999699 147.253598 212.920642 137.292408 28.455030 55.686656 80.591477 87.556288 102.935947 136.309043 91.540077 17.366791

F11 65.753077 71.808955 76.316146 79.698272 85.009848 75.932692 5.342803 34.243716 49.407092 52.859016 57.316236 68.796546 53.309136 8.805442 31.436250 38.677564 40.724507 43.990335 49.109166 40.875080 4.355602 31.436208 35.548696 39.387344 40.414953 47.766014 38.483802 3.760477

F12 1.678901e+06 1.945224e+06 2.300503e+06 2.569254e+06 3.441769e+06 2.363485e+06 4.933425e+05 1.040067e+05 2.168960e+05 3.310868e+05 3.871801e+05 7.210531e+05 3.278379e+05 1.442562e+05 2.748311e+04 9.110961e+04 1.464058e+05 2.512531e+05 6.820534e+05 1.890965e+05 1.355189e+05 1.790812e+04 5.492813e+04 1.330062e+05 1.526228e+05 3.377268e+05 1.351737e+05 8.656101e+04

ANNEXE B : RSULTATS NUMRIQUES DE TRIBES

125

F1 BLX-GL50 BLX-MA CoEVO DE DMS-L-PSO EDA G-CMA-ES K-PCX L-CMA-ES L-SaDE SPC-PNX SPSO TRIBES 9.87e-9 9.98e-9 0.79 0.0 48.83 5.42e-9 9.47e-9 5.28e-9 9.34e-9 0.0 0.0

F2

Table B.14  Erreurs moyennes en dimension 30.


F3 F4 F5 F6 F7 F8 3.11e+3 8.77e+5 367.13 2.89e+5 3.75e+6 5.55e-9 57.9 5.18e-9 1.10e+6 4.21e+5 1.06e+6 16.84 39.66 4.79e+3 0.504 1.28e+3 1.11e+4 1.11e+3 9.26e+7 8.13e-7 0.71 114.53 332.56 2.18e+3 8.34e+3 2.35e+2 6.19e+3 8.62e-9 2.04e+3 8.30e-9 4.23e+3 3.92e+3 2.90e+3 2.59e-7 49.54 1.21e+3 3.77 1.82e+5 5.90e-9 1.75 6.31e-9 619.78 0.81 42.95 9.07e-9 0.013 0.14 0.96 26.63 5.31e-9 1.50e-2 6.48e-9 0.0159 9.79e-3 4.60e-3 20.94 20.71 20.90 20.9 20.94 20.10 20.00 20.00 20.93 20.92 20.94

F9

F10 35.19 90.58 232.35 61.60 238.62 1.65 0.517 5.63e+2 60.297 96.06 53.29

F11 24.74 31.13 37.70 32.60 39.76 5.48 29.50 15.20 18.09 34.32 18.88

F12 9.52e+3 4.39e+3 1.01e+5 8.43e+3 4.47e+5 4.43e+4 1.68e+3 1.32e+4 1.31e+4 8.14e+4 6.12e+3

9.83e-9 8.71e-6 0.44 5.49e-8 161.25 6.22e-9 9.85e-9 6.93e-9 6.94e-7 0.0 7.19e-6

15.10 0.68 1.31e+2 0.0 229.79 0.93 0.27 2.91e+2 23.93 43.40 54.91

F1 BLX-GL50 BLX-MA CoEVO DE DMS-L-PSO EDA G-CMA-ES K-PCX L-CMA-ES L-SaDE SPC-PNX SPSO TRIBES 5.87e-9 6.20e-9 0.0 0.0

F2 -

Table B.15  Erreurs moyennes en dimension 50.


F3 6.14e-9 6.04e-9 1.18e+6 1.16e+7 F4 4.68e+5 4.46e+8 3.04e+3 1.00e+4 F5 2.85 3.27 8.22e+3 7.16e+3 F6 7.13e-9 7.12e-9 4.31 57.60 F7 7.22e-9 7.49e-9 9.85e-3 5.32e-3 F8 20.1 20.0 21.11 21.08

F9 -

F10 1.72 1.48e+3 106.78 91.54

F11 11.7 34.1 58.76 38.48

F12 2.27e+5 8.93e+4 5.45e+5 1.35e+5

7.86e-9 7.96e-9 1.91e-8 1.52

1.39 5.67e+2 129.00 110.14

Rfrences bibliographiques

[Adenso-Diaz et al.,2006] B. Adenso-Diaz, M. Laguna.

(2006).

 Fine-tuning of algorithms using

fractional experimental design and local search , Operations Researchs, Vol. 54, N1, 2006. [Alba, 2005] E. Alba. (2005).  Parallel Metaheuristics : A New Class of Algorithms , 2005, John Wiley & sons. [Andreani et al., 2001] P. Andreani, H. Sjoland. (2001).  Noise Optimisation of an Inductively Degenerated CMOS Low Noise Amplier , IEEE Transactions on circuits and systems, Vol. 48, pp. 835-841, 2001. [Angeline, 1998] P. Angeline. (1998).  Evolutionary optimization versus particle swarm optimization , Proceedings of the Evolutionary Programming VII, pp. 601-610, 1998, Springer. [Auger et al., 2005] A. Auger, S. Kern, N. Hansen. (2005).  A Restart CMA Evolution Strategy with Increasing Population Size , Proceedings of 2005 Congress on Evolutionary Computation, 2005, pp. 1769-1776, IEEE Computer Society. [Auger et al., 2005b] A. Auger, S. Kern, N. Hansen. (2005).  Performance Evaluation of an Ad-

vanced Local Search Evolutionary Algorithm , Proceedings of 2005 Congress on Evolutionary Computation, 2005, pp. 1777-1784, IEEE Computer Society. [Avriel, 2003] M. Avriel. (2003).  Nonlinear Programming : Analysis and Methods , 2003, Dover Publishing. [Azencott, 1992] R. Azencott. (1992).  Simulated Annealing : Parallelization Techniques , 1992, John Wiley & sons. [Ballester et al., 2005] P. J. Ballester, J. Stephenson, J. N. Carter, K. Gallagher. (2005).  Real-

Parameter Optimization Performance Study on the CEC'2005 benchmark with SPC-PNX , Proceedings of 2005 Congress on Evolutionary Computation, 2005, pp. 498-505, IEEE Computer Society. [Banks et al., 2007] A. Banks, J. Vincent, C. Anyakoha. (2007).  A review of Particle Swarm Optimization. Part I: background and development , Natural Computing, Vol. 6, N4, pp. 467-484, 2007. [Banks et al., 2007b] A. Banks, J. Vincent, C. Anyakoha. (2007).  A review of Particle Swarm Optimization. Part II: hybridisation, combinatorial, multicriteria and constrained optimization, and indicative applications , Natural Computing, Vol. 7, N1, pp. 109-124, 2007. [Bartz-Beielstein et al., 2003] T. Bartz-Beielstein, P. Limbourg, K.E. Parsopoulos, M.N. Vrahatis, J. Mehnen, K. Schmitt. (2003).  Particle swarm optimizers for pareto optimization with enhanced archiving techniques , Proceedings of the 2003 Congress on Evolutionary Computation, Vol. 3, pp. 1780-1787, IEEE Press. [Battiti, 1996] R. Battiti. (1996).  Reactive search: toward self tuning heuristics , Modern Heuristic Search Methods, pp. 61-83, John Wiley & Sons. 127

128

RFRENCES BIBLIOGRAPHIQUES

[Baumgartner et al., 2004] U. Baumgartner, C. Magelle, W. Renhart. (2004).  Pareto optimality and particle swarm optimization , IEEE Transactions on Magnetics, Vol. 40, N2, pp. 1172-1175, 2004. [Bavelas, 1950] A. Bavelas. (1950).  Communication patterns in task-oriented groups , Journal of the Acoustical Society of America, Vol. 22, pp. 271-282, 1950. [Bazavi, 1998] R. Basavi. (1998).  RF Microelectronics , 1998, Prentice Hall Press. [Bazi et al., 2007] Y. Bazi, L. Bruzzone, F. Melgani. (2007).  Image thresholding based on the EM algorithm and the generalized Gaussian distribution , Pattern Recognition Journal, Vol. 40, pp. 619634, 2007. [Benlian et al., 2007] X. Benlian, W. Zhiquan. (2007).  A multiobjective ACO-based data association method for bearings-only multi-target tracking , Communications in Nonlinear Science and Numerical Simulation, Vol. 12, pp. 1360-1369, 2007. [Ben Salem et al., 2006] S. BenSalem, M. Fakhfakh, (et al.). (2006).  A High Performances CMOS CCII and High Frequency Applications , Journal of Analog Integrated Circuits and Signal Processing, Vol. 49, N 1, 2006. [Berro, 2001] A. Berro. (2001).  Optimisation multiobjectif et stratgies d'volution en environnement dynamique , Thse de doctorat de l'Universit des Sciences Sociales de Toulouse I, 2001. [Bertsekas, 2000] D.P. Bertsekas. (2000).  Dynamic Programming and Optimal Control , Vols. 1 & 2, 2nd ed, 2000, Athena Scientic. [Beyer, 2001] H.G. Beyer. (2001).  The theory of evolution strategies , Natural Computing Series, 2001, Springer. [Biggs et al., 1976] N.L. Biggs, E.K. Lloyd, R.J. Wilson. (1976).  Graph Theory 1736-1936 , 1976, Clarendon Press. [Birattari et al., 2002] M. Birattari, T. Sttzle, L. Paquete, K. Varrentrapp. putation Conference GECCO 2002, pp. 11-18, Morgan Kaufmann. [Blum, 2005] C. Blum. (2005).  Ant colony optimization : Introduction and recent trends , Physics of Life Review, Vol. 2, pp. 353-373, 2005. [Bougahriou et al., 2008] M. Boughariou, M. Fakhfakh, M. Ben Amor, M. Loulou, Y. Cooren, P. Siarry. (2008).  Optimizing a low noise amplier for UMTS standard through a heuristic , European Conference on Circuits and Systems for Communications 2008, IEEE Press. [Branke, 2001] J. Branke. (2001).  Evolutionary Optimization in Dynamic Environments , Genetic Algorirhms and Evolutionary Computation, Vol. 3, 2001, Kluwer Academic Publishers. [Campana et al., 2006] E.F. Campana, G. Fasano, D. Peri, A. Pinto. (2006).  Particle Swarm Optimization : Ecient Globally Convergent Modications , Proceedings of the 3 Springer. [Cerny, 1985] V. Cerny. (1985).  Thermodynamical approach to the travelling salesman problem , Journal of Optimization Theory and Applications, Vol. 45, N 1, pp. 41-51, 1985. [Chen et al., 2004] L. Chen, X.H. Xu, Y.X. Chen. pp. 1387-1392, IEEE Press. [Cheriet et al., 1998] M. Cheriet, J.N. Said, C.Y. Suen. (1998).  A recursive thresholding technique for image segmentation , IEEE Trans. on Image Processing, Vol. 7, N6, pp. 918-921, 1998. (2004).  An Adaptive Ant Colony Clustering (2002).  A racing

algorithm for conguring metaheuristics , Proceedings of the Genetic and Evolutionary Com-

rd

European

Conference on Computational Mechanics, Solids and Coupled Problems in Engineering, 2006,

Algorithm , Proceedings of the 3rd Conference on Machine Learning and Cybernetics, 2004,

RFRENCES BIBLIOGRAPHIQUES
[Chow et al., 2004] C. Chow, H. Tsui. (2004).

129

 Autonomous agents response learning by multi-

species particle swarm optimization , Proceedings of the IEEE Congress on Evolutionary Computation, Vol. 1, pp. 778-785, 2004, IEEE Press. [Clerc et al., 2002] M. Clerc, J. Kennedy. tation, Vol. 6, pp. 58-73, 2002. [Clerc, 2003] M. Clerc. (2003).  TRIBES - Un exemple d'optimisation par essaim particulaire sans paramres de contrle , Confrence OEP'03, 2 Octobre , 2003, Paris, France. [Clerc, 2005] M. Clerc. (2005).  Binary Particle Swarm Optimisers: toolbox, derivations, and (2002).  The particle swarm: explosion, stability, and

convergence in multi-dimensional complex space , IEEE Transactions on Evolutionary Compu-

mathematical insights ,

https://hal.archives-ouvertes.fr/hal-00122809.

[Clerc, 2006] M. Clerc. (2006).  Particle Swarm Optimization , International Scientic and Technical Encyclopaedia, 2006, John Wiley & sons. [Cocosco et al., 2003] C.A. Cocosco, A.P. Zijdenbos, A.C. Evans. (2003).  A fully automatic and robust brain MRI Tissue Classication , Medical Image Analysis, Vol. 7, pp. 513527, 2003. [Coello Coello et al., 2002] C.A. Coello Coello, D.A. Veldhuizen, G.B. Lamont. (2002).  Evolutionary Algorithms for Solving Multi-Objective Problems , Kluwer Academic Publishers. [Coello Coello et al., 2002b] C.A. Coello Coello, M. Salazar Lechuga. (2002).  MOPSO : a proposal for multiple objective particle swarm optimization , Proceedings of the 2002 IEEE Congress on Evolutionary Computation, Vol. 2, pp. 1051-1056, IEEE Press. [Coello Coello et al., 2004] C.A. Coello Coello, G. Toscano Pulido, M. Salazar Lechuga. (2004).  Handling multiple objectives with particle swarm optimization , IEEE Transactions on Evolutionary Computation, Vol. 8, N 3, pp. 256-279, 2004. [Collette et al., 2002] Y. Collette, P. Siarry. (2002).  Optimisation multiobjectif  , 2002, Eyrolles. [Colorni et al., 1992] A. Colorni, M. Dorigo, V. Maniezzo. (1992).  Distributed Optimization by Ant Colonies , Proceedings of the 1 Elsevier Publishing. [Conn et al., 1996] A. R. Conn et al.. (1996).  Optimization of custom MOS circuits by transistor sizing , Proceedings of the International Conference on Computer-Aided Design ICCAD96, pp. 174-190, 1996, IEEE Press. [Cooren et al., 2007] Y. Cooren, M. Clerc, P. Siarry. (2007).  Initialization and Displacements of the Particles in TRIBES, a Parameter-free Particle Swarm Optimization Algorithm , Adaptive and Multilevel Metaheuristics, pp. 199-219, Springer. [Cooren et al., 2007b] Y. Cooren, M. Fakhfakh, M. Loulou, P. Siarry. (2007).  Optimizing second generation current conveyors using particle swarm optimization , Proceedings of the 19th IEEE International Conference on Microelectronics, pp. 365-368, IEEE Press. [Cooren et al., 2008] Y. Cooren, M. Clerc, P. Siarry. (2008).  Performance Evaluation of TRIBES, an Adaptive Particle Swarm Optimization Algorithm , Swarm Intelligence, Springer.

rst

European Conference on Articial Life, 1992, pp. 134-142,

En rvision.

[Cooren et al., 2008b] Y. Cooren, M. Clerc, P. Siarry. (2008).  MO-TRIBES, an adaptive multiobjective particle swarm optimization algorithm , Computational Optimization and Applications, Springer.

Soumis.

[Cooren et al., 2008c] Y. Cooren, A. Nakib, P. Siarry. (2008).  Image Thresholding using TRIBES, a parameter-free Particle Swarm Optimization Algorithm , Proceedings of the International Conference on Learning and Intelligent Optimization (LION II), Springer.

paratre.

130

RFRENCES BIBLIOGRAPHIQUES

[Courat et al., 1994] J. Courat, G. Raynaud, I. Mrad, P. Siarry. (1994).  Electronic component model minimisation based on Log Simulated Annealing , IEEE Transactions on Circuits and Systems, Vol. 41, N 12, pp. 790-795, 1994. [Deb, 1999] K. Deb. (1999).  Multi-Objective Genetic Algorithms: Problem Diculties and Construction of Test Problems , Evolutionary Computation, Vol.7, N3, pp. 205-230, 1999. [Deb et al., 2002] K. Deb, S. Agrawal, A. Pratap, T. Meyarivan. (2002).  A Fast Elitist NonDominated Sorting Genetic Algorithm for Multiobjective Optimization : NSGA-II , IEEE Transactions on Evolutionary Computation, Vol. 5, N3, pp. 115-148, 2002. [Di Caro et al., 1998] G. Di Caro, M. Dorigo. (1998).  Ant colonies for adaptive routing in packetswitched communications networks , Proceedings of the 5

th International Conference on Parallel

Problem Solving from Nature, 1998, LNCS 1498, pp. 673-682, Springer. [Di Caro et al., 1998b] G. Di Caro, M. Dorigo. (1998).  AntNet: Distributed Stigmergetic Control for Communications Networks , Journal of Articial Intelligence Research (JAIR), Vol. 9, pp. 317-365, 1998. [Doerner et al., 2004] K. Doerner et al.. (2004).  Pareto Ant Colony Optimization : a metaheuristic approach to multiobjective project portofolio selection , Annals of Operations Research, Vol. 131, pp. 79-99, 2004. [Doerner et al., 2006] K. Doerner et al.. (2006).  Pareto Ant Colony Optimization with ILP preprocessing in multiobjective project portofolio selection , European Journal of Operational Research, Vol. 171, pp. 830-841, 2006. [Dorigo et al., 1996] M. Dorigo, V. Maniezzo, A. Colorni. (1996).  Ant System : optimization by a colony of cooperating agents , IEEE Transactions on Man. Cyber., Part B, Vol. 26, N1, pp. 29-41, 1996. [Dorigo et al., 2005] M. Dorigo, C. Blum. (2005).  Ant colony optimization theory : A survey , Theoretical Computer Science, Vol. 344, pp. 243-278, 2005. [Drapaca et al., 2005] C.S. Drapaca, V. Cardenas, C. Studholme. (2005).  Segmentation of tissue boundary evolution from brain MR image sequences using multi-phase level sets , Computer Vision and Image Understanding, Vol. 100, pp. 312329, 2005. [Eberhart et al., 1995] R.C. Eberhart, J. Kennedy. (1995).  A new optimizer using particle swarm theory , Proceedings of the 6

th International Symposium on Micro Machine and Human Science,

1995, pp. 39-43, IEEE Press. [Eberhart et al., 1996] R.C. Eberhart, P. Simpson, R. Dobbins. (1996).  Computational PC Tools , chapter 6, pp. 212-226, 1996, AP Professional. [Eberhart et al., 2000] R.C. Eberhart, Y. Shi. (2000).  Comparing inertia weights and constriction factors in particle swarm optimization , Proceedings of the 6 Computation, pp. 84-88, 2000, IEEE Press. [Eiben et al., 2003] A.E. Eiben, J.E. Smith. (2003).  Introduction to Evolutionary Computing , Natural Computing Series, 2003, Springer. [Engrand, 1997] P. Engrand. (1997).  A multi-objective optimization approach based on simulated annealing and its application to nuclear fuel management , Proceedings of the 5 Engineers. [Fan et al., 2001] H.Y. Fan, Y. Shi. (2001).  Study on University Indianapolis Press.

th IEEE Congress on Evolutionary

th

Internatio-

nal Conference on Nuclear Engineering, pp. 416-423, 1997, American Society Of Mechanical

Vmax

of particle swarm optimization , Pro-

ceedings of the 2001 Workshop on Particle Swarm Optimization, Indiana University-Purdue

RFRENCES BIBLIOGRAPHIQUES

131

[Fogel et al., 1966] L.J. Fogel, A.J. Owens, M.J. Walsh. (1966).  Articial Intelligence through Simulated Evolution , 1966, John Wiley & sons. [Fonseca et al., 1995] C.M. Fonseca, P.J. Flemming. (1995).  An overview of evolutionary algorithms in multiobjective optimization , Evolutionary Computation, Vol. 3, N1, pp. 205-209, 1995. [Fonseca et al., 1996] C.M. Fonseca, P.J. Flemming.  On the performance assessment and comparison of stochastic multiobjective optimizers , Proceedings of the Parallel Problem Solving from Nature IV Conference, pp. 584-593, 1996, Lecture Notes in Computer Science, Springer. [Frster et al., 2007] M. Frster, B. Bickel, B. Hardung, G. Kkai. (2007).  Self-adaptive ant colony optimization applied to function allocation in vehicle networks , Proceedings of the 9th annual Conference on Genetic and Evolutionary Computation, 2007, pp. 1991-1998, ACM Press. [Fraser, 1957] A.S. Fraser. (1957).  Simulation of genetic systems by automatic digital computers , Australian Journal of Biological Sciences, Vol. 10, pp. 484-491, 1957. [Friedman, 1937] M. Friedmann. (1937). "The use of ranks to avoid the assumption of normality implicit in the analysis of variance", Journal of the American Statistical Association, Vol. 32 (200), pp. 675701, 1937. [Friesz et al., 1993] T.L. Friesz et al.. (1993).  The multiobjective equilibrium network design problem revisited : a simulated annealing approach , European Journal of Operational Research, Vol. 65, pp. 44-57, 1993. [Gagn et al., 2004] C. Gagn, M. Gravel, W.L. Price. (2004).  Optimisation multiobjectif l'aide d'un algorithme de colonies de fourmis , Inf. Syst. and Operational Research, Vol. 42, N1, pp. 23-42, 2004. [Garca-Martnez et al., 2005] C. Garca-Martnez, M. Lozano. (2005).  Hybrid Real-Coded Genetic Algorithms with Female and Male Dierentiation , Proceedings of 2005 Congress on Evolutionary Computation, 2005, pp. 896-903, IEEE Computer Society. [Gielen et al., 1991] G. Gielen, W. Sansen. (1991).  Symbolic Analysis for Automated Design of

Analog Integrated Circuits , 1991, Kluwer Academic Publishers. [Glover, 1986] F. Glover. (1986).  Future paths for integer programming and links to articial intelligence , Computers and Operations Research, Vol. 13, pp. 533-549, 1986. [Glover et al., 1997] F. Glover, M. Laguna. (1997).  Tabu Search , 1997, Kluwer Academic Publishers. [Goldberg et al., 1987] D.E. Goldberg, J. Richardson. (1987).  Genetic Algorithms whih Sharing for Multimodal Function Optimization , Proceedings of the 2

nd

International Conference on

Genetic Algorithms, 1987, pp. 41-49, Lawrence Earlbaum Associates. [Goldberg, 1989] D.E. Goldberg. (1989).  Genetic Algorithms in Search, Optimization and Machine Learning , 1989, Addison-Wesley. [Gonzalez et al., 2002] R.C. Gonzalez, R.E. Woods. (2002).  Digital image processing , 2002, Prentice Hall. [Goss et al., 1989] S. Goss, S. Aron, J.L. Deneubourg, J.M. Pasteels. (1989).  Self-Organized Shortcuts in the Argentine Ant , Naturwissenchaften, Vol. 76, pp. 579-581, 1989. [Graeb et al., 2001] H. Graeb, S. Zizala, J. Eckmueller, K. Antreich. (2001).  The sizing rules method for analog integrated circuit design , IEEE/ACM International Conference on Computer-Aided Design, ICCAD'01, pp. 343-349, 2001, IEEE Press. [Harary, 1994] F. Harary. (2004).  Graph Theory , 1994, Addison-Wesley, Reading.

132

RFRENCES BIBLIOGRAPHIQUES

[Hastings, 1970] W.K. Hastings. (1970).  Monte Carlo sampling method using Markov chains and their applications , Biometrica, Vol. 57, 1970. [Holland, 1973] J.H. Holland. (1973).  Genetic Algorithms and the optimal allocation of trials , SIAM Journal of Computing, Vol. 2, pp. 88-105, 1973.

[Holland, 1992] J.H. Holland. (1992).  Adaptation in Natural and Articial Sytems , 2 1992, MIT Press.

nd

edition,

[Hu et al., 2002] X. Hu, R.C. Eberhart. (2002).  Multiobjective optimization using dynamic neighborhood particle swarm optimization , Proceedings of the 2002 IEEE Congress on Evolutionary Computation, Vol. 2, pp. 1677-1681, IEEE Press. [Hu et al., 2003] X. Hu, R.C. Eberhart, Y. Shi. (2003).  Particle Swarm with Extended Memory for Multiobjective Optimization , Proceedings of the 2003 IEEE Swarm Intelligence Symposium, pp. 193-197, IEEE Press. [Hung et al., 1990] K. K. Hung, P. K. Ko, C. Hu, Y. C. Cheng. (1990).  A physics-based MOSFET noise model for circuit simulators , IEEE Trans. Electronic Devices, Vol. 37, pp. 13231333, 1990. [Hutter et al., 2006] F. Hutter, Y. Hamadi, H.H. Hoos, K. Leyton-Brown. (2006).  Performance

Prediction and Automated Tuning of Randomized and Parametric Algorithms , Proceedings of the Principles and Practice of Constraint Programming Conference, 2006, pp. 213-228, LNCS 4204, Springer. [Ingber, 1996] L. Ingber. (1996).  Adaptive Simulated Annealing (ASA): lessons learned , Control and Cybernetics, Vol. 25, N 1, pp. 33-54, 1996. [Iqbal et al., 2006] M. Iqbal, M.A. Montes de Oca. (2006).  An estimation of distribution particle swarm optimization algorithm , Proceedings of the 5 Optimization and Swarm Intelligence, pp. 72-83, 2006, LNCS 4150, Springer. [Ishibushi et al., 1998] H. Ishibushi, T. Murata. (1998).  A multiobjective genetic local search algorithm and its application to owshop scheduling , IEEE Transactions on Systems, Man and Cybernetics, Vol. 28, N3, pp. 1732-1743, 1998. [Janson et al., 2005] S. Janson, M. Middenhorf. (2005).  A hierarchical particle swarm optimizer and its adaptive variant , Proceedings of the 2004 Evoworkshops, pp. 513-524, 2005, LNCS 3005, Springer. [Jin et al., 2001] Y. Jin, T. Okabe, B. Sendho. (2001).  Dynamic weighted aggregation for evolutionary multiobjective optimization : why does it work and how ? , Proceedings of the Genetic and Evolutionary Conference, pp. 1042-1049, Morgan Kaufman Publishers. [Kamber et al., 2000] M. Kamber, R. Shinghal, D.L. Collins, G.S. Francis, A.C. Evans. (2000).  Model-based segmentation of multiple sclerosis lesions in magnetic resonance brain images , IEEE Trans. on Med. Imaging, Vol. 14, pp. 442453, 2000. [Kapur et al., 1985] J.N. Kapur, P.K. Sahoo, A.C.K. Wong. (1985).  A new method for gray-level picture thresholding using the entropy of the histogram , Computer Vision, Graphics and Image Processing, Vol. 29, pp. 273-285, 1985. [Kennedy et al., 1995] J. Kennedy, R.C. Eberhart. (1995).  Particle Swarm Optimisation , Proceedings of the IEEE International Conference On Neural Networks, 1995, pp. 1942-1948, IEEE Press.

th International Workshop on Ant Colony

[Kennedy, 1998] J. Kennedy. (1998).  The behavior of particles , Proceedings of the 7 on Evolutionary Computation, pp. 581-589, LNCS, Springer.

th Conference

RFRENCES BIBLIOGRAPHIQUES

133

[Kennedy, 1999] J. Kennedy. (1999).  Small worlds and mega-minds : eects of neighborhood topology on particle swarm performance , Proceedings of the 1999 IEEE Congress on Evolutionary Computation, pp. 1931-1938, 1999, IEEE Press. [Kennedy et al., 2001] J. Kennedy, R.C. Eberhart, Y. Shi. (2001).  Swarm Intelligence , 2001, Morgan Kaufmann Academic Press. [Kennedy, 2003] J. Kennedy. (2003).  Bare bones particle swarms , Proceedings of the 2003 IEEE Swarm Intelligence Symposium, pp. 80-87, 2003, IEEE Press. [Kirkpatrick et al., 1983] S. Kirkpatrick, S. Gelatt, M. Vecchi. (1983).  Optimization by simualted annealing , Science, Vol. 220, N 4598, pp. 671-680, 1983. [Kursawe, 1990] F. Kursawe. (1990).  A variant of evolution strategies for vector optimization , 193-197, 1990, Lecture

Proceedings of Parallel Problem Solving for Nature Conference, pp. Notes in Computer Science 496, Springer.

[Larraaga et al., 2001] P. Larraaga, J.A. Lozano. (2001).  Estimation of Distributions Algorithms, a new tool for evolutionary computation , 2001, Kluwer Academic Publishers. [Laumanns et al., 2001] M. Laumanns, K. Deb, L. Thiele, E. Zitzler. (2001).  Scalable test problems for Evolutionary Multi-Objective Optimization , Technical Report 112, Institut fr Technische Informatik und Kommunikationsnetze, ETH Zrich, Ch-8092, Zrich, July, 2001. [Li, 2003] X. Li. (2003).  A non-dominated sorting particle swarm optimizer for multiobjective optimization , Proceedings of the 2003 Genetic and Evolutionary Conference, pp. 37-48, LNCS 2723, Springer. [Liang et al., 2005] J.J. Liang, P.N. Suganthan. (2005).  Dynamic multiswarm particle swarm optimizer , Proceedings of the IEEE Swarm Intelligence Symposium, pp. 1772-1779, 2005, IEEE Press. [Liang et al., 2005b] J.J. Liang, P.N. Suganthan, K. Deb. (2005).  Novel Composition Test Functions for Numerical Global Optimization , Proceedings of the 2005 Swarm Intelligence Symposium, 2005, pp. 68-75, IEEE Press. [Liang et al., 2005c] J.J. Liang, P.N. Suganthan. (2005).  Dynamic Multi-Swarm Particle Swarm Optimizer with Local Search , Proceedings of 2005 Congress on Evolutionary Computation, 2005, pp. 522-528, IEEE Computer Society. [Loulou et al., 2002] M. Loulou, S. Ait Ali, M. Fakhfakh, N. Masmoudi. electronic, ICM 2002, pp. 14-17, 2002, IEEE Press. [Maron et al., 1994] O. Maron, A.W. Moore. (1994).  Hoeding races : Accelerating model selection search for classication and function approximation , Advances in Neural Information Processing Systems, Vol. 6, pp. 5966, 1994, Morgan Kaufmann Publishers. [Medeiro et al., 1994] E. Medeiro et al., (1994).  Global design of analog cells using statistical optimization techniques , Analog Integrated Circuits and Signal Processing, Vol. 6, pp. 179-195, 1994, Kluwer Academic Publishers. [Metropolis et al., 1953] N. Metropolis, A.W. Rosenbluth, M.N. Rosenbluth, A.H. Teller, E. Teller. (1953).  Equation of state calculations by fast computing machines , Journal of Chemical Physics, Vol. 21, pp. 1087-1092, 1953. [Miranda et al., 2002] V. Miranda, N. Fonseca. (2002).  New evolutionary particle swarm algorithm applied to voltage/VAR control , Proceedings of the 14 rence, 2002, pp. 1-6, Sevilla, Spain. (2002).  An optimized

methodology to design CMOS operational amplier , IEEE International Conference on Micro-

th Power Systems Computation Confe-

134

RFRENCES BIBLIOGRAPHIQUES

[Molina et al., 2005] D. Molina, F. Herrera, M. Lozano. (2005).  Adaptive Local Search Parameters for Real-Coded Memetic Algorithms , Proceedings of 2005 Congress on Evolutionary Computation, 2005, pp. 888-895, IEEE Computer Society. [Mlhenbein et al., 1996] H. Mlhenbein, G. Paa . (1996).  From recombination of genes to the estimation of distributions I. Binary parameters , Proceedings of the International Conference on Parallel Problem Solving from Nature IV, 1996, LNCS 1411, pp. 178-187, Springer. [Murata et al., 2002] Y. Murata and al. (2002).  Agent Oriented Self Adaptive Genetic Algorithm , Proceedings of the IASTED Communications and Computer Networks, 2002, pp. 348-353, Acta Press. [Murgasova et al., 2006] M. Murgasova, L. Dyet, D. Edwards, M. Rutherford, J.V. Hajnal, D. Rueckert. (2006).  Segmentation of Brain MRI in Young Children , Proceedings of the 9th Int. Conf. MICCAI Copenhagen, pp. 687694, 2006, LNCS, Springer. [Nair, 1992] V.N. Nair. (1992).  Taguchi's parameter design : a panel discussion , Technometrics, Vol. 34, pp. 127-161, 1992. [Nakib et al., 2007] A. Nakib, H. Oulhadj, P. Siarry. (2007).  Microscopic image segmentation based on twodimensional exponential entropy with hybrid microcanonical annealing , Proceedings of Int. Conf. IAPR-MVA 2007, pp. 420423, 2007. [Nakib et al., 2007b] A. Nakib, Y. Cooren, H. Oulhadj, P. Siarry. (2007).  Magnetic Resonance Image Segmentation based on Two-dimensional Exponential Entropy , Proceedings of the International Conference on Articial Evolution, pp. 50-61, Springer. [Nelder et al., 1965] J.A. Nelder, R. Mead. (1965).  A simplex method for function minimization , Computer Journal, Vol. 7, pp. 308-313, 1965. [Ng, 2006] H. Ng. (2006).  Automatic thresholding for defect detection , Pattern Recognition Letters, Vol. 27, pp. 16441649, 2006. [Niu et al., 2005] B. Niu, Y. Zhu, X. He, W. Henry. (2005).  MCPSO : A multi-swarm cooperative particle swarm optimizer , Applied Mathematics and Computation, Vol. 185, N 2, pp. 10501062, 2005. [Nocedal et al., 1999] J. Nocedal, S.J. Wright. (1999).  Numerical Optimization , 1999, Springer. [Okabe et al., 2003] T. Okabe, Y. Jin, B. Senho. (2003). A critical survey of performances indices for multi-objective optimization , Proceedings of the 2003 IEEE Congress on Evolutionary Computation, pp. 878-885, 2003, IEEE Press. [Papers, 2005] Papers of CEC'05. (2005).

http://www3.ntu.edu.sg/home/EPNSugan/
[Pareto, 1896] V. Pareto. (1896).  Cours d'conomie politique , Rouge, 1896. [Parsopoulos et al., 2002] K.E. Parsopoulos, M.N. Vrahatis. (2002).  Particle Swarm Optimization in Multiobjective Problems , Proceedings of the 2002 ACM Symposium on Applied Computing, pp. 603-607, ACM Press. [Parsopoulos et al., 2004] K.E. Parsopoulos, D. Tasoulis, M.N. Vrahatis. (2004).  Multiobjective

optimization using parallel vector evaluated particle swarm optimization , Proceedings of the IASTED International Conference on Articial Intelligence and Applications, Vol. 2, pp. 823828, Acta Press. [Peer et al., 2003] E.S. Peer, F. Van den Bergh, A.P. Engelbrecht. (2003).  Using neighborhoods with the guaranteed convergence PSO , Proceedings of the IEEE Swarm Intelligence Symposium 2003 (SIS 2003), 2003, pp. 235-242, IEEE Press.

RFRENCES BIBLIOGRAPHIQUES
[Peng-Yeng, 2007] Y. Peng-Yeng. 503513, 2007. (2007).

135

 Multilevel minimum cross entropy threshold selection

based on particle swarm optimization , Applied Mathematics and Computation, Vol. 184, pp.

[Peram et al., 2003] T. Peram, K. Veeramachaneni, C. Mohan. (2003).  Fitness-distance ratio based particle swarm optimization , Proceedings of the IEEE Swarm Intelligence Symposium, pp. 174-181, 2003, IEEE Press. [Poli et al., 2004] R. Poli, C.R. Stephens. (2004).  Constrained molecular dynamics as a search and optimization tool , Proceedings of the 7 150-161, 2004, Springer. [Posik, 2005] P. Posik. (2005).  Real Parameter Optimization Using Mutation Step Co-evolution , Proceedings of 2005 Congress on Evolutionary Computation2005, pp. 872-879, IEEE Computer Society. [Price, 1996] K.V. Price. (1996).  Dierential evolution : a fast and simple numerical optimizer , 1996 Biennial Conference of the North American Fuzzy Information Processing Society, pp. 524-527, 1996, IEEE Press. [PSC, 2006] Particle Swarm Central. (2006).

th European Conference on Genetic Programming, pp.

http://www.particleswarm.info/Standard_PSO_2006.c
[Otsu, 1979] N.A. Otsu. (1979).  A Threshold Selection Method from Gray Level Histograms , IEEE Trans. on Syst., Man and Cyb., Vol. 9, N1, pp. 62-66, 1979. [Ourique et al., 2002] C. Ourique, E.J. Biscaia, J. Pinto. (2002).  The use of particle swarm optimization for dynamical analysis in chemical processes , Computers & Chemical Engineering, Vol. 26, N12, pp. 1783-1793, 2002. [Ozcan et al., 1999] E. Ozcan, C.K. Mohan. (1999).  Particle Swarm Optimization : surng the waves , Proceeding of the 1999 IEEE Congress on Evolutionary Computation, pp. 1939-1944, IEEE Press. [Qiaio et al., 2007] Y. Qiao, Q. Hu, G. Qian, S. Luo, W.L. Nowinski. (2007).  Thresholding based on variance and intensity contrast , Pattern Recognition, Vol. 40, pp. 596608, 2007. [Qin et al., 2005] A. K. Qin, P. N. Suganthan. (2005).  Self-adaptive Dierential Evolution Algorithm for Numerical Optimization , Proceedings of 2005 Congress on Evolutionary Computation, 2005, pp. 1785-1791, IEEE Computer Society. [Raquel et al., 2005] C.R. Raquel, J.P.C. Naval. (2005).  An eective use of crowding distance in multiobjective particle swarm optimization , Proceedings of the 2005 Genetic and Evolutionary Computation Conference, pp. 257-264, ACM Press. [Ray et al., 2002] T. Ray, K.M. Liew. (2002).  A swarm metaphor for multiobjective design optimization , Engineering Optimization, Vol. 34, N2, pp. 141-153, 2002. [Rechenberg, 1965] I. Rechenberg. (1965).  Cybernetic Solution Path of an Experimental Problem , 1965, Royal Aircarft Establishment Library Translation. [Reyes-Sierra et al., 2006] M. Reyes-Sierra, A. Coello Coello. (2006).  Multi-Objective Particle Swarm Optimizers : A survey of the state-of-the-art , International Journal of Computational Intelligence Research, Vol. 2, N3, pp. 287-308, 2006. [Reynolds, 1987] C.W. Reynolds. (1987).  Flocks, herds and schools: a distributed behavioral

model , Computer Graphics, Vol. 21, N4, pp.25-34, 1987. [Richardson et al., 1989] J.T. Richardson et al..

with penalty functions , Proceedings of the 3

rd International Conference on Genetic Algorithms,

(1989).

 Some guidelines for genetic algorithms

pp. 191-197, 1989, Morgan Kaufmann Publishers.

136

RFRENCES BIBLIOGRAPHIQUES

[Robinson et al., 2002] J. Robinson, J. Sinton, Y. Rahamt-Samii. (2002).  Particle swarm, genetic algortihm, and their hybrids : optimization of a proled corrugated horn antenna , Proceedings of the IEEE International Symposium on Antennas and Propogation, pp. 314-317, 2002, IEEE Press. [Rnkknen et al., 2005] J. Rnkknen, S. Kukkonen, K. V. Price. (2005).  Real-Parameter Optimization with Dierential Evolution , Proceedings of 2005 Congress on Evolutionary Computation, 2005, pp. 506-513, IEEE Computer Society. [Russell et al., 2003] S.J. Russell, P. Norvig. (2003).  Articial Intelligence: A Modern Approach , 2nd ed., pp. 111-114, Prentice Hall. [Sahoo et al., 1998] P.K. Sahoo et al.. (1998).  A survey of thresholding techniques , Computer

Vision, Graphics, and Image Processing, Vol. 41, pp. 233-260, 1998. [Sahoo et al., 2006] K.P. Sahoo, G. Arora. (2006).  Image thresholding using two dimensional

Tsallis-Havrda-Charvat entropy , Pattern Recognition Letters, Vol. 27, pp. 520528, 2006. [Sawai et al., 1999] H. Sawai, S. Adachi. (1999).  Genetic Algorithm Inspired by Gene Duplication , Proceedings of the 1999 Congress on Evolutionary Computation, 1999, pp. Computer Society. [Schaer, 1985] J.D. Schaer. (1985).  Multiple objective optimization with vector evaluated genetic algorithm , Proceedings of the 1 93-100, Lawrence Erlbaum Associates. [Schmid, 2000] H.Schmid. (2000).  Approximating the Universal Active Element , IEEE Transactions on Circuits and Systems-II: Analog and Digital Signal Processing, Vol. 47, N 11, 2000. [Schnecke et al., 1996] V. Schnecke, O. Vornberger. (1996).  An Adaptive Parallel Genetic Al480-487, IEEE

rst

International Conference on Genetic Algorithm, pp.

gorithm for VLSI- Layout Optimization , Proceedings of the 4

th

International Conference on

Parallel Problem Solving from Nature, 1996, pp. 859-868, LNCS, Springer. [Schrijver, 1998] A. Schrijver. (1998).  Theory of Linear and Integer Programming , 1998, John Wiley & sons. [Seevinck, 2000] E. Seevinck. (2000).  CMOS Translinear Circuits for Minimum Supply Voltage , IEEE Transactions on Circuits and Systems-II : Analog and Digital Signal Processing, Vol. 47, N12, pp. 15601564, 2000. [Serani, 1992] P. Serani. (1992).  Simulated annealing for multiple objective optimization problems , Proceedings of the 10 87-96, Springer. [Serra et al., 1997] P. Serra, A.F. Stanton, S. Kais. Physical Review, Vol. 55, pp. 1162-1165, 1997. [Sezgin et al., 2004] M. Sezgin, B. Sankur. (2004).  Survey over image thresholding techniques and quantitative performance evaluation , Journal of Electronic Imaging, Vol. 2004. [Shelokar et al., 2004] P.S. Shelokar, P. Siarry, V.K. Jayaraman, B.D. Kulkarni. (2004).  Particle swarm and ant colony algorithms hybridized for improved continuous optimization , Applied Mathematics and Computation, Volume 188, N 1, Pages 129-142, 2004. [Shi et al., 1998] Y. Shi, R. Eberhart. (1998).  Parameter Selection in Particle Swarm Optimization , Proceedings of the 7 13, pp. 146165, (1997).  Method for global optimization ,

th

International Conference on Multiple Criteria Decision, pp.

th

Annual Conference on Evolutionary Programming, 1998, pp. 591-600,

LNCS 1447, Springer.

RFRENCES BIBLIOGRAPHIQUES

137

[Shi et al., 2001] Y. Shi, R.C. Eberhart . (2001).  Fuzzy Adaptive Particle Swarm Optimization , Proceedings of 2001 Congress on Evolutionary Computation, 2001, pp. 101-106, IEEE Computer Society. [Siarry, 1994] P. Siarry. (1994).  La mthode du recuit simul en lectronique. Adaptation et acclration. Comparaison avec d'autres mthodes d'optimisation. Applications dans d'autres domaines , Habilitation diriger des recherches en sciences physiques, Universit de Paris Sud, 1994. [Siarry et al., 2003] P. Siarry, J. Dro, A. Ptrowski, E. Taillard. (2006).  Mtaheuristiques pour l'optimisation dicile , 2003, Eyrolles. [Silveira et al., 1996] F. Silveira, D. Flandre, P. G. A. Jespers. (1996).  A gm/Id based methodology for the design of CMOS Analog Circuits and its Application to the Synthesis of a SOI micropower OTA , IEEE Journal of Solid State Circuits, Vol. 31, N9, 1996. [Sinha et al., 2005] A. Sinha, S. Tiwari, K. Deb. (2005).  A Population-Based, Steady-State Procedure for Real-Parameter Optimization , Proceedings of 2005 Congress on Evolutionary Computation, 2005, pp. 514-521, IEEE Computer Society. [Song et al., 2006] Z. Song, N. Tustison, B. Avants, J.C. Gee. (2006).  Integrated Graph Cuts for Brain MRI Segmentation , Proceedings of the 9 pp. 831838, 2006. [Srinivasan et al., 2003] D. Srinivasan, T.H. Seow. (2003).  Particle swarm inspired evolutionary algorithm for multiobjective optimization problem , Proceedings of the 2003 Congress on Evolutionary Computation, Vol. 3, pp. 2292-2297, IEEE Press. [Srivians et al., 1995] N. 1995. [Suganthan, 1999] P.N. Suganthan. (1999).  Particle Swarm Optimizer with neighborhood operator , Proceedings of the 1999 IEEE Conference on Evolutionary Computation, pp. 1958-1962, IEEE Press. [Suganthan et al., 2005] P.N. Suganthan and al. (2005).  Problem Denitions and Evaluation Srivinas, K. Deb. (1995).  Multiobjective Optimization using Non-

th Int.

Conf. MICCAI, Copenhagen, Denmark,

Dominated Sorting in Genetic Algorithms , Evolutionary Computation, Vol. 2, N8, pp. 221-248,

Criteria for the CEC'2005 Special Session on Real-Parameter Optimization , Technical Report, Nanyang Technological University, Singapore, May 2005, AND KanGAL Report #2005005, IIT Kanpur, India.

http://www.ntu.edu.sg/home/epnsugan/index_files/CEC-05/Tech-Report-May-30-05. pdf
[Synder et al., 1990] W. Synder, G. Bilbro.  Optimal thresholding : A new approach , Pattern Recognition Letters, Vol. 11, pp. 803-810, 1990. [Talbi, 1999] E.G. Talbi. (1999).  Mtaheuristiques pour l'optimisation combinatoire multiobjectif : Etat de l'art , CNET, PE :98-757.33, 1999. [Talbi, 2002] E.G. Talbi. (2002).  A taxonomy of Hybrid Metaheuristics , Journal of Heuristics, Vol. 8, N5, pp. 541-564, 2002. [Tfaili, 2007] W. Tfaili. (2007).  Conception d'un algorithme de colonie de fourmis pour l'optimisation continue dynamique , Thse de doctorat de l'Universit de Paris 12-Val de Marne, 2007. [Toumazou et al., 1993] C. Toumazou, F.J.Lidgey, D.G.Haigh. (1993).  Analog Integrated Circuits : The current mode approach , IEEE circuit and systems series 2 (books) 1993, IEEE Press. [Trelea, 2003] I.C. Trelea. (2003).  The particle swarm optimization algorithm: convergence analysis and parameter selection , Information Processing Letters, Vol. 85, pp. 317-325, 2003.

138

RFRENCES BIBLIOGRAPHIQUES

[Triki et al., 2004] E. Triki, Y. Collette, P. Siarry. (2005).  A theoretical study on the behavior of simulated annealing leading to a new cooling schedule , European Journal of Operational Research, Vol. 166, N 1, 2005. [Ulungu et al., 1999] E.L. Ulungu, J. Teghem, P. Fortemps, D. Tuyttens. (1999).  MOSA method: a tool for solving multiobjective combinatorial optimization problems , Journal of Multicriteria Decision Analysis, Vol. 20, pp. 221-236, 1999. [Van den Bergh, 2002] F. Van den Bergh. (2002).  An analysis of Particle Swarm Optimizers , PhD thesis, University of Pretoria, South Africa, 2002. [Wareld et al., 2000] S.K. Wareld, M. Kaus, F.A. Jolesz, R. Kikinis.(2000).  Adaptive template moderate spatially varying statistical classication , Medical Image analysis, Vol. 4, pp. 4355, 2000. [Watts et al., 1998] D.J. Watts, S.H. Strogatz. (1998).  Collective dynamics of small worlds networks, Nature, Vol. 393, pp. 440-442, 1998. [Wilson, 1975] E.O. Wilson. (1975).  Sociobiology: The new synthesis , 1975, Belknap Press. [Yasuda et al., 2004] K. Yasuda, N. Iwasaki. (2004).  Adaptive particle swarm optimization using velocity information of swarm , Proceedings of the IEEE Conference on System, Man and Cybernetics, 2004, pp. 3475-3481, IEEE Press. [Ye et al., 2002] X.F. Ye, W.J. Zhang, Z.L. Yang. (2002).  Adaptive Particle Swarm Optimization on Individual Level , Proceedings of the International Conference on Signal Processing (ICSP), 2002, pp. 1215-1218, IEEE Press. [Yuan et al., 2005] B. Yuan, M. Gallagher. (2005).  Experimental Results for the Special Session on Real-Parameter Optimization at CEC'2005: A Simple, Continuous EDA , Proceedings of 2005 Congress on Evolutionary Computation, 2005, pp. 1792-1799, IEEE Computer Society. [Zitzler et al., 1999] E. Zitzler, L. Thiele. (1999).  Multiobjective Evolutionary Algorithms: A Comparative Case Study and the Strength Pareto Approach , IEEE Transactions on Evolutionary Computation, Vol. 3, N4, pp. 257-271, 1999. [Zitzler et al., 2000] E. Zitzler, K. Deb, L. Thiele. (2000).  Comparison of Multiobjective Evolutionary Algorithms : Empirical Results , Evolutionary Computation, Vol. 8, N2, pp. 173-195, 2000. [Zitzler et al., 2002] E. Zitzler, M. Laumanns, L. Thiele. (2002).  SPEA2 : Improving the Strengh Pareto Evolutionary Algorithm for Multiobjective Optimization , Proceedings of the Evolutionary Methods for Design, Optimization and Control with Applications to Industrial Problems Conference, pp. 95-100, CIMNE, Barcelona, Spain. [Zhang et al., 2003] W.J. Zhang, X.F. Xie. (2003).  DEPSO: hybrid particle swarm with dierential evolution operator , Proceedings of the IEEE Conference on Systems, Man and Cybernetics, pp. 3816-3821, 2003, IEEE Press. [Zhang et al., 2003b] W. Zhang, Y. Liu, M. Clerc. (2003).  An adaptive PSO algorithm for real

power optimization , Proceedings of the APSCOM (Advances in Power System Control Operation and Management) Conference, S6: Application of Articial Intelligence Technique (part I), 2003, pp. 302-307, IEEE Press. [Zheng et al., 2003] Y. Zheng, L. Ma, L. Zhang, J. Qian. (2003).  On the convergence analysis and parameter selection in particle swarm optimization , Proceedings of International Conference on Machine Learning and Cybernetics, 2003, pp. 1802-1807, IEEE Press.

RFRENCES BIBLIOGRAPHIQUES

139

[Zhong et al., 2004] W.C. Zhong, J. Liu, Z. Xue, L.C. Jiao. (2004).  A multiagent genetic algorithm for global numerical optimization , IEEE Transactions on Systems, Man and Cybernetics, Vol. 34, pp. 1128-1141, 2004.

Vous aimerez peut-être aussi