Vous êtes sur la page 1sur 149

Perfectionnement des algorithmes doptimisation par

essaim particulaire : applications en segmentation


dimages et en
electronique
Abbas El Dor

To cite this version:


Abbas El Dor. Perfectionnement des algorithmes doptimisation par essaim particulaire : applications en segmentation dimages et en electronique. Other. Universite Paris-Est, 2012.
French. <NNT : 2012PEST1074>. <tel-00788961>

HAL Id: tel-00788961


https://tel.archives-ouvertes.fr/tel-00788961
Submitted on 15 Feb 2013

HAL is a multi-disciplinary open access


archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.

Larchive ouverte pluridisciplinaire HAL, est


destinee au depot et `a la diffusion de documents
scientifiques de niveau recherche, publies ou non,
emanant des etablissements denseignement et de
recherche francais ou etrangers, des laboratoires
publics ou prives.

UNIVERSIT PARIS-EST
COLE DOCTORALE MATHEMATIQUES ET STIC
(MSTIC, E.D. 532)
THSE DE DOCTORAT
EN INFORMATIQUE
par

Abbas EL DOR
Sujet de la thse

Perfectionnement des algorithmes


dOptimisation par Essaim Particulaire.
Applications en segmentation dimages et en lectronique
Thse soutenue le 5 dcembre 2012
Jury :
Damien TRENTESAUX Professeur des Universits Universit de Valenciennes

Prsident

Frdric SAUBION

Professeur des Universits Universit dAngers

Rapporteur

Marc SEVAUX

Professeur des Universits Universit de Bretagne-Sud

Rapporteur

Grard BERTHIAU

Professeur des Universits Universit de Nantes

Examinateur

Laurent DEROUSSI

Matre de Confrences

Universit de Clermont-Ferrand Examinateur

Maurice CLERC

Ingnieur consultant

Annecy

Patrick SIARRY

Professeur des Universits Universit Paris-Est Crteil

Co-directeur de thse
Directeur de thse

Remerciements
Je voudrais tout dabord remercier Patrick Siarry, Directeur de lquipe Traitement de
lImage et du Signal du Laboratoire Images, Signaux et Systmes Intelligents, et Directeur
de cette thse, ainsi que Maurice Clerc, pour mavoir donn la possibilit de faire cette
thse, et pour leur encadrement parfait. Ils ont toute ma gratitude pour mavoir laiss
une grande libert dans mes recherches, aid et encourag dans les moments difficiles et
mavoir consacr leur temps malgr leurs occupations.
Je tiens exprimer ma gratitude Frdric Saubion et Marc Sevaux pour avoir accept
dtre les rapporteurs de cette thse. Je voudrais galement remercier Damien Trentesaux
pour avoir accept de prsider mon jury. Je remercie aussi Grard Berthiau et Laurent
Deroussi pour avoir accept dexaminer mes travaux. Jadresse un grand merci tous les
membres de mon jury, pour avoir ainsi marqu leur intrt pour mon travail, et pour les
remarques quils ont apportes durant la relecture et la soutenance de ma thse.
Je souhaite galement exprimer ma reconnaissance envers tous les membres du LiSSi,
pour mavoir accueilli chaleureusement, et pour toutes les conversations scientifiques ou
non que lon a pu avoir. Un grand merci Patricia Jamin, Sandrine David et Frdric Dumont, pour mavoir aid surmonter toutes sortes de problmes. Je remercie galement
Brigitte David, de lancienne Ecole Doctorale SIMME, et Sylvie Cach, de la nouvelle ED
MSTIC.
Je remercie tous mes collgues doctorants, pour la bonne ambiance et leur amiti. Merci
en particulier Kamel Aloui, Ilhem Boussad, Julien Lepagnot et Mustapha Dakkak.
Jai eu la chance denseigner en tant que vacataire, pendant mes deux premires annes
de thse, lUniversit Paris-Est Crteil. Jai beaucoup aim enseigner luniversit, et je
souhaite remercier toute lquipe enseignante avec qui jai eu lhonneur de travailler. Merci
notamment Eric Petit et Ahmed Raji.

II

Remerciements

Je suis trs reconnaissant envers les membres de lIUT de Crteil/Vitry qui mont chaleureusement accueilli parmi eux. Un grand merci pour leur bienveillance, et pour tous les
bons conseils quils mont prodigus.
Ce travail naurait pas pu tre ralis sans le soutien de ma famille, que je remercie
tout particulirement. Un grand merci mes parents, mes frres et mes surs, qui mont
soutenu tout au long de mes tudes et dont je serai indfiniment redevable.
Je tiens aussi remercier tous ceux qui ont, de prs ou de loin, aid rendre ce travail
possible, que ce soit par des ides ou par des encouragements.
Merci tous !

III

Rsum
La rsolution satisfaisante dun problme doptimisation difficile, qui comporte un
grand nombre de solutions sous-optimales, justifie souvent le recours une mtaheuristique
puissante. La majorit des algorithmes utiliss pour rsoudre ces problmes doptimisation
sont les mtaheuristiques population. Parmi celles-ci, nous intressons lOptimisation
par Essaim Particulaire (OEP, ou PSO en anglais) qui est apparue en 1995. PSO sinspire de
la dynamique danimaux se dplaant en groupes compacts (essaims dabeilles, vols groups doiseaux, bancs de poissons). Les particules dun mme essaim communiquent entre
elles tout au long de la recherche pour construire une solution au problme pos, et ce en
sappuyant sur leur exprience collective. Lalgorithme PSO, qui est simple comprendre,
programmer et utiliser, se rvle particulirement efficace pour les problmes doptimisation variables continues. Cependant, comme toutes les mtaheuristiques, PSO possde
des inconvnients, qui rebutent encore certains utilisateurs. Le problme de convergence
prmature, qui peut conduire les algorithmes de ce type stagner dans un optimum local, est un de ces inconvnients. Lobjectif de cette thse est de proposer des mcanismes,
incorporables PSO, qui permettent de remdier cet inconvnient et damliorer les performances et lefficacit de PSO.
Nous proposons dans cette thse deux algorithmes, nomms PSO-2S et DEPSO-2S,
pour remdier au problme de la convergence prmature. Ces algorithmes utilisent des
ides innovantes et se caractrisent par de nouvelles stratgies dinitialisation dans plusieurs zones, afin dassurer une bonne couverture de lespace de recherche par les particules. Toujours dans le cadre de lamlioration de PSO, nous avons labor une nouvelle
topologie de voisinage, nomme Dcluster, qui organise le rseau de communication entre
les particules. Les rsultats obtenus sur un jeu de fonctions de test montrent lefficacit
des stratgies mises en uvre par les diffrents algorithmes proposs. Enfin, PSO-2S est
appliqu des problmes pratiques, en segmentation dimages et en lectronique.
Mots cls : Optimisation, optimisation continue, mtaheuristiques, optimisation par essaim
particulaire, segmentation dimage.
IV

Abstract
The successful resolution of a difficult optimization problem, comprising a large number of sub optimal solutions, often justifies the use of powerful metaheuristics. A wide range
of algorithms used to solve these combinatorial problems belong to the class of population
metaheuristics. Among them, Particle Swarm Optimization (PSO), appeared in 1995, is inspired by the movement of individuals in a swarm, like a bee swarm, a bird flock or a fish
school. The particles of the same swarm communicate with each other to build a solution
to the given problem. This is done by relying on their collective experience. This algorithm,
which is easy to understand and implement, is particularly effective for optimization problems with continuous variables. However, like several metaheuristics, PSO shows some
drawbacks that make some users avoid it. The premature convergence problem, where the
algorithm converges to some local optima and does not progress anymore in order to find
better solutions, is one of them. This thesis aims at proposing alternative methods, that can
be incorporated in PSO to overcome these problems, and to improve the performance and
the efficiency of PSO.
We propose two algorithms, called PSO-2S and DEPSO-2S, to cope with the premature convergence problem. Both algorithms use innovative ideas and are characterized by
new initialization strategies in several areas to ensure good coverage of the search space
by particles. To improve the PSO algorithm, we have also developed a new neighborhood
topology, called Dcluster, which can be seen as the communication network between the
particles. The obtained experimental results for some benchmark cases show the effectiveness of the strategies implemented in the proposed algorithms. Finally, PSO-2S is applied
to real world problems in both image segmentation and electronics fields.
Keywords : Optimization, continuous optimization, metaheuristics, particle swarm optimization, image segmentation.

Table des matires

Introduction gnrale
1

Mtaheuristiques doptimisation : tat de lart


1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Mtaheuristiques pour loptimisation mono-objectif difficile
1.2.1 Problme doptimisation . . . . . . . . . . . . . . . . .
1.2.2 Optimisation difficile . . . . . . . . . . . . . . . . . . .
1.2.3 Algorithmes doptimisation approche . . . . . . . .
1.2.3.1 Heuristiques . . . . . . . . . . . . . . . . . .
1.2.3.2 Mtaheuristiques . . . . . . . . . . . . . . .
1.2.4 Diffrentes approches en optimisation statique . . . .
1.2.4.1 Algorithme du recuit simul . . . . . . . . .
1.2.4.2 Algorithme de recherche tabou . . . . . . .
1.2.4.3 Les algorithmes volutionnaires . . . . . . .
1.2.4.4 Les algorithmes de colonies de fourmis . . .
1.2.4.5 Algorithme volution diffrentielle . . . .
1.3 Optimisation par Essaim Particulaire . . . . . . . . . . . . . .
1.3.1 Principe gnral . . . . . . . . . . . . . . . . . . . . . .
1.3.2 Formalisation . . . . . . . . . . . . . . . . . . . . . . .
1.3.3 Amliorations de PSO . . . . . . . . . . . . . . . . . .
1.3.3.1 Confinement des particules . . . . . . . . . .
1.3.3.2 Coefficient de constriction . . . . . . . . . .
1.3.3.3 Topologie de voisinage . . . . . . . . . . . .
1.3.3.4 Coefficient dinertie . . . . . . . . . . . . . .
1.3.3.5 Stratgie FIPS . . . . . . . . . . . . . . . . . .
1.3.3.6 Algorithme TRIBES . . . . . . . . . . . . . .
1.3.3.7 PSO et hybridation . . . . . . . . . . . . . .
1.3.3.8 PSO cooprative . . . . . . . . . . . . . . . .
1.3.3.9 Autres variantes de PSO . . . . . . . . . . .
1.4 Validation des algorithmes . . . . . . . . . . . . . . . . . . . .
1.4.1 Principales fonctions de test . . . . . . . . . . . . . . .
1.4.2 Problmes rels . . . . . . . . . . . . . . . . . . . . . .
1.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

VI

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

4
4
5
5
5
7
7
7
9
9
10
12
15
18
21
21
22
24
24
25
26
27
27
28
29
30
31
32
32
33
33

Table des matires

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Description de lalgorithme PSO-2S . . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Structure gnrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.2 Utilisation de deux essaims . . . . . . . . . . . . . . . . . . . . . . . .
2.2.3 Partitionnement de lespace de recherche . . . . . . . . . . . . . . . .
2.2.4 Rpulsion lectrostatique des particules . . . . . . . . . . . . . . . . .
2.2.5 Recherche locale de PSO-2S . . . . . . . . . . . . . . . . . . . . . . . .
2.2.6 Rsultats et analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.6.1 Paramtrage . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.6.2 Analyse de complexit . . . . . . . . . . . . . . . . . . . . .
2.2.6.3 Analyse de la sensibilit des paramtres . . . . . . . . . . .
2.2.6.4 Comparaison avec dautres algorithmes . . . . . . . . . . .
2.2.6.5 Comparaison de PSO-2S, avec et sans heuristique de rpulsion, avec SPSO2007 . . . . . . . . . . . . . . . . . . . . . . .
2.3 DEPSO-2S : hybridation de PSO-2S avec un algorithme volution diffrentielle DELG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.1 Prsentation de lalgorithme DELG . . . . . . . . . . . . . . . . . . .
2.3.2 Adaptation de DELG PSO-2S . . . . . . . . . . . . . . . . . . . . . .
2.3.3 Algorithme DEPSO-2S . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.4 Rsultats et discussion . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.4.1 Paramtrage . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.4.2 Comparaison avec dautres algorithmes . . . . . . . . . . .
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

35
35
36
36
38
39
42
44
49
49
50
51
53

Topologie de voisinage dans PSO : tude et perfectionnement


3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Notion de voisinage de PSO . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1 Voisinage gographique et social . . . . . . . . . . . . . . . . . . . . .
3.2.1.1 Voisinage gographique . . . . . . . . . . . . . . . . . . . .
3.2.1.2 Voisinage social . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.2 change des informations entre les particules dans lalgorithme PSO
3.2.3 Diffrents modles de topologies . . . . . . . . . . . . . . . . . . . . .
3.2.3.1 Topologies statiques . . . . . . . . . . . . . . . . . . . . . . .
3.2.3.2 Topologies dynamiques . . . . . . . . . . . . . . . . . . . . .
3.3 laboration de la topologie Dcluster : une combinaison de deux topologies
(statique et dynamique) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.1 Prsentation de la topologie propose . . . . . . . . . . . . . . . . . .
3.3.2 Rsultats et discussion . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.2.1 Paramtrage . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.2.2 Analyse exprimentale et comparaison avec dautres topologies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.2.3 Analyse de convergence . . . . . . . . . . . . . . . . . . . .
3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

70
70
71
72
72
73
74
75
76
77

VII

55
57
59
61
62
64
64
64
68

81
82
83
83
85
89
91

Table des matires

Application de PSO-2S en segmentation dimages et en lectronique


4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Application de PSO-2S en segmentation dimages . . . . . . . . . . . .
4.2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.2 Segmentation dimages par seuillage . . . . . . . . . . . . . . .
4.2.2.1 Formulation du problme . . . . . . . . . . . . . . . .
4.2.2.2 Mthodes de seuillage . . . . . . . . . . . . . . . . . . .
4.2.2.3 Seuillage par apprentissage . . . . . . . . . . . . . . .
4.2.3 Protocole exprimental et paramtrage . . . . . . . . . . . . . .
4.2.4 Rsultats et discussion . . . . . . . . . . . . . . . . . . . . . . . .
4.2.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Application de PSO-2S au dimensionnement de circuits lectroniques .
4.3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.2 Convoyeur de courant de seconde gnration . . . . . . . . . .
4.3.3 Les fonctions objectifs de composants . . . . . . . . . . . . . . .
4.3.4 Lvaluation des performances . . . . . . . . . . . . . . . . . . .
4.3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

93
93
93
93
95
95
96
96
98
99
103
103
103
104
107
109
113
113

Conclusion et perspectives

118

Annexe

122

Rfrences bibliographiques

140

VIII

Introduction gnrale
Les problmes doptimisation occupent actuellement une place importante dans la
communaut des ingnieurs, des scientifiques et des dcideurs. En effet, ce genre de problmes intervient dans leurs domaines dactivit qui sont trs divers, comme la conception
de systmes mcaniques, le traitement dimages, llectronique ou la recherche oprationnelle.
Un problme doptimisation est dfini par un ensemble de variables, une fonction objectif et un ensemble de contraintes. Lespace de recherche est lensemble des solutions
possibles du problme. Rsoudre un problme doptimisation consiste trouver la ou les
meilleures solutions (en minimisant et/ou maximisant la/les fonctions objectifs du problme pos), tout en satisfaisant un ensemble de contraintes dfinies par lutilisateur. Certains problmes doptimisation sont qualifis de difficiles, et leur rsolution dans un temps
raisonnable ncessite lutilisation dalgorithmes sophistiqus, comme les mthodes approches (Les heuristiques et les mtaheuristiques). Parmi les mtaheuristiques destines
rsoudre ces problmes, plus prcisment les problmes variables continues, loptimisation par essaim particulaire (OEP, ou PSO en anglais) est apparue en 1995. Cest le sujet
principal de ce travail de thse.
PSO est une mthode doptimisation stochastique qui est inspir dun comportement
social des animaux voluant en essaim. Ce comportement social est modlis par une
quation mathmatique permettant de guider les particules durant le processus de dplacement. Le dplacement dune particule est influenc par trois composantes : la composante dinertie, la composante cognitive et la composante sociale. Chacune de ces composantes reflte une partie de lquation. PSO prsente lavantage dtre efficace sur une
grande varit de problmes, sans pour autant que lutilisateur ait modifier la structure
de base de lalgorithme. Cependant, comme toutes les mthodes stochastiques, PSO prsente des inconvnients, qui rebutent encore certains utilisateurs. Parmi ceux-ci, nous citons le problme de convergence prmature, qui peut conduire les algorithmes de ce type
stagner dans un optimum local. Lobjectif de cette thse est de proposer des mthodes
1

Introduction gnrale

alternatives, incorporables PSO, qui permettent de remdier ce problme et damliorer


lefficacit de PSO.
Cette thse a t prpare au sein de lUniversit Paris-Est Crteil (UPEC), dans le Laboratoire Images, Signaux et Systmes Intelligents (LiSSi, E.A. 3956). Elle a t finance par une
bourse libanaise (2 ans), puis par un demi-poste dattach temporaire lenseignement et
la recherche (ATER), partag entre le LiSSi et lIUT de Crteil-Vitry. Cette thse a t dirige par le Professeur P. Siarry, Directeur de lquipe Traitement de lImage et du Signal, et
co-encadre par Monsieur M. Clerc, spcialiste de la mthode PSO. Ont particip mon
travail de doctorat Julien Lepagnot, Matre de Confrences lUniversit de Haute-Alsace,
Mulhouse, et Mourad Fakhfakh, Matre de Confrences lcole Nationale dIngnieurs
de Sfax, en Tunisie.
Durant cette thse, nous avons tout dabord labor deux algorithmes, nomms PSO2S et DEPSO-2S. Ces deux algorithmes utilisent des ides innovantes et se caractrisent
par de nouvelles stratgies dinitialisation dans plusieurs zones de lespace de recherche.
Les algorithmes proposs ont contribu remdier notablement au problme de la convergence prmature. Ensuite, toujours dans le cadre de lamlioration de lalgorithme PSO,
nous nous sommes intresss la composante sociale de lquation modlisant le dplacement des particules, plus prcisment au rseau de communication entre les particules,
appel aussi topologie de voisinage . En effet, nous avons propos une nouvelle topologie dynamique, appele Dcluster, qui est une combinaison de deux topologies (statique
et dynamique). Enfin, les applications tudies ont port sur lutilisation de PSO-2S pour
rsoudre des problmes de dimensionnement de circuits lectroniques et de traitement
dimages.
Le mmoire se divise en quatre chapitres. Le premier est consacr ltude bibliographique des mthodes doptimisation, dont la plus grande partie concerne loptimisation
par essaim particulaire. Le deuxime chapitre est ddi aux extensions que nous avons apportes la mthode PSO (PSO-2S et sa variante DEPSO-2S, lhybridation de PSO avec un
algorithme dvolution diffrentielle (ou Differential Evolution en anglais). Le troisime chapitre porte sur la notion de voisinage dans PSO et la nouvelle topologie propose Dcluster.
Enfin, le dernier chapitre correspond aux applications de PSO-2S des problmes rels .
Dans le premier chapitre, nous dcrivons dabord le cadre de loptimisation difficile,
puis nous prsentons un tat de lart des mtaheuristiques doptimisation pour les problmes mono-objectifs : lalgorithme du recuit simul, la recherche tabou, les algorithmes
2

Introduction gnrale

volutionnaires, lalgorithme de colonies de fourmis et lalgorithme volution diffrentielle. Ensuite, nous dtaillons lalgorithme dOptimisation par Essaim Particulaire (OEP,
ou PSO en anglais). Enfin, nous prsentons des fonctions de test, qui sont utilises dans le
deuxime et le troisime chapitre, pour mesurer les performances des algorithmes.
Dans le deuxime chapitre, nous dcrivons lalgorithme PSO-2S, que nous avons labor durant cette thse. Il se caractrise par une nouvelle stratgie dinitialisation dans
plusieurs zones de lespace de recherche. Cette stratgie est base sur lutilisation de deux
types dessaims de particules (auxiliaire et principal), en considrant les particules comme
des lectrons. Nous commenons par dcrire PSO-2S en dtail, puis nous en prsentons
une analyse exprimentale. Une comparaison de ses performances avec celles des autres
algorithmes doptimisation proposs dans la littrature est galement effectu. Ensuite,
une variante amliore de PSO-2S, nomme DEPSO-2S, est dcrite et analyse.
Dans le troisime chapitre, nous nous concentrons dabord sur le concept de voisinage,
en tudiant les caractristiques des changes dinformations entre les particules. Ensuite,
nous prsentons la topologie Dcluster, que nous avons labore durant cette thse. Enfin,
nous effectuons une analyse exprimentale, ainsi quune comparaison de ses performances
avec celles dautres algorithmes utilisant diffrentes topologies connues dans la littrature
de PSO.
Le quatrime chapitre est consacr lapplication de PSO-2S en segmentation dimages
et en lectronique. Dans la premire partie de ce chapitre, nous prsentons la premire application de PSO-2S en segmentation dimages. Le but est de segmenter des images multiclasses dont le nombre de classes est connu a priori. Dans le cadre de nos travaux, nous
nous sommes limits lapproche par seuillage dimages pour dterminer les seuils des
diffrentes classes. PSO-2S est utilis comme mthode doptimisation pour minimiser un
critre qui permet de dterminer ces seuils. La deuxime partie de ce chapitre porte sur
lapplication de PSO-2S au dimensionnement de circuits lectroniques. Le but est de trouver les dimensions des transistors qui permettent de faire fonctionner de manire optimale
les circuits tudis. PSO-2S est utilis pour minimiser la rsistance parasite et maximiser
la frquence de coupure dun convoyeur de courant de seconde gnration CCII+.
Enfin, dans la conclusion gnrale du manuscrit, nous rcapitulons nos principales
contributions, puis nous exposons quelques perspectives pour amliorer les performances
des algorithmes dj dvelopps.

C HAPITRE U N

M TAHEURISTIQUES D OPTIMISATION : TAT DE


L ART

1.1

Introduction

Lun des principes les plus fondamentaux de notre monde, qui occupe aussi une place
importante dans le monde informatique, industriel, etc., est la recherche dun tat optimal.
En effet, de nombreux problmes scientifiques, sociaux, conomiques et techniques ont
des paramtres qui peuvent tre ajusts pour produire un rsultat plus souhaitable. Ceuxci peuvent tre considrs comme des problmes doptimisation et leur rsolution est un
sujet central en recherche oprationnelle. Des techniques ont t conues pour rsoudre
ces problmes, notamment les problmes difficiles (par exemple ceux qui prsentent
de nombreux extrema locaux pauvres), en dterminant des solutions qui ne sont pas rigoureusement optimales, mais qui sen approchent. Ces mthodes, appeles heuristiques
et mtaheuristiques, se basent gnralement sur des phnomnes physiques, biologiques,
socio-psychologiques, et peuvent faire appel au hasard.
Ce chapitre est structur comme suit. Dans la section 1.2, nous dcrivons dabord le
cadre de loptimisation difficile, puis nous prsentons un tat de lart des mtaheuristiques
doptimisation pour les problmes mono-objectifs, telles que lalgorithme du recuit simul,
la recherche tabou, les algorithmes volutionnaires, lalgorithme de colonies de fourmis et
lalgorithme volution diffrentielle.
Dans la section 1.3, nous dtaillons lalgorithme dOptimisation par Essaim Particulaire
(OEP, ou PSO en anglais), qui constitue le sujet principal de ce travail de thse. LOptimisation par Essaim Particulaire est une mtaheuristiques invente par Kennedy et Eberhart [Kenn 95] en 1995. Elle sinspire du comportement social des animaux voluant en
essaim. Les diffrentes particules dun essaim communiquent directement avec leurs voisines et construisent ainsi une solution un problme, en sappuyant sur leur exprience
collective.
4

Mtaheuristiques doptimisation : tat de lart

Enfin, dans la section 1.4, nous prsentons des fonctions analytiques (principales fonctions de test de CEC05 Congress on Evolutionary Computation et problmes rels) dont
les minima globaux et locaux sont connus. Ces fonctions sont utilises dans le deuxime et
le troisime chapitre pour mesurer les performances des algorithmes.

1.2

Mtaheuristiques pour loptimisation mono-objectif


difficile

1.2.1

Problme doptimisation

Un problme doptimisation au sens gnral est dfini par un ensemble de variables,


une fonction objectif f et un ensemble de contraintes dgalit (ou dingalit) que les variables doivent satisfaire. Lensemble des solutions possibles du problme forme lespace
de recherche E, o chaque dimension correspond une variable. Lespace de recherche
E est fini puisque le dcideur prcise exactement le domaine de dfinition de chaque variable entre autres pour des raisons de temps de calcul. Suivant le problme pos, nous
cherchons minimiser ou maximiser la fonction objectif f . Un problme doptimisation
peut tre statique ou dynamique (i.e. la fonction objectif change avec le temps), monoobjectif ou multi-objectif (i.e. plusieurs fonctions objectifs doivent tre optimises) et avec
ou sans contraintes. Ainsi, un problme doptimisation peut tre, par exemple, la fois
continu et dynamique.
Il existe de nombreuses mthodes dterministes (ou exactes) permettant de rsoudre
certains types de problmes doptimisation et dobtenir la solution optimale du problme,
en un temps raisonnable. Ces mthodes ncessitent que la fonction objectif prsente un
certain nombre de caractristiques telles que la convexit, la continuit ou la drivabilit. Nous pouvons citer, parmi les mthodes les plus connues, les mthodes de programmation linaire [Schr 98], quadratique [Noce 00] et/ou dynamique [Bert 95], la mthode
de Newton [Noce 00], la mthode du simplex [Neld 65] ou encore la mthode du gradient [Avri 76].

1.2.2

Optimisation difficile

Les mthodes de rsolution exacte ne sont pas adaptes toutes les problmatiques,
et donc certains problmes sont trop complexes rsoudre par ces mthodes. Parmi ces

Mtaheuristiques doptimisation : tat de lart

problmatiques, nous pouvons citer lexistence de discontinuits, labsence de convexit


stricte, la non-drivabilit, la prsence de bruit ou encore la fonction objectif peut ne pas
tre dfinie prcisment (e.g. quand cest un cout). En outre, les mthodes de rsolution
exacte peuvent avoir un temps de rsolution trop long. Dans ce cas, le problme doptimisation est dit difficile, car aucune mthode exacte nest capable de le rsoudre en un temps
raisonnable. Il est alors ncessaire davoir recours des heuristiques de rsolution dites
mthodes approches, qui fournissent un rsultat sans garantie de loptimalit.
Loptimisation difficile peut se diviser en deux types de problmes : les problmes
variables discrtes et les problmes variables continues :
Un problme doptimisation variables discrtes consiste trouver, dans un ensemble discret, une solution ralisable. Le problme majeur rside ici dans le fait que
le nombre de solutions ralisables est gnralement trs lev, donc il est trs difficile
de trouver la meilleure solution dans un temps raisonnable . Les problmes variables discrtes rassemble les problmes de type NP-complets, tels que le problme
du voyageur de commerce. Lutilisation dalgorithmes doptimisation stochastiques,
tels que les mtaheuristiques, permettant de trouver une solution approche en un
temps raisonnable est donc courante.
Dans le deuxime type, les variables du problme doptimisation sont continues.
Cest le cas par exemple des problmes didentification, o lon cherche minimiser
lerreur entre le modle dun systme et des observations exprimentales. Ce type
de problmes est moins formalis que le prcdent, mais un certain nombre de difficults sont bien connues, comme lexistence de nombreuses variables prsentant des
corrlations non identifies, la prsence de bruit ou plus gnralement une fonction
objectif accessible par simulation uniquement. En effet, la grande majorit des mtaheuristiques existantes ont t cres pour rsoudre des problmes variables discrtes [Dro 03]. Cependant, la ncessit croissante de mthodes pouvant rsoudre ce
type de problmes a pouss les chercheurs adapter leurs mthodes au cas continu.
Il est noter quil existe des problmes variables mixtes (i.e. le problme prsente
la fois des variables discrtes et continues).

Mtaheuristiques doptimisation : tat de lart

1.2.3

Algorithmes doptimisation approche

1.2.3.1

Heuristiques

Lutilisation de mthodes exactes nest pas toujours possible pour un problme donn
cause dun certain nombre de contraintes, telles que le temps de calcul souvent important
ou bien la difficult, voire limpossibilit dans certains cas, dune dfinition spare du problme. Pour faire face ces contraintes, nous utilisons des mthodes approches, appeles
heuristiques. Le terme heuristique drive du grec ancien heuriskin et signifie trouver .
Il qualifie tout ce qui sert la dcouverte et lexploitation. Il est souligner ici quune
mthode heuristique peut tre dterministe ou stochastique.
Une heuristique est un algorithme qui fournit rapidement (en un temps polynomial)
une solution approche et ralisable, pas ncessairement optimale, pour un problme doptimisation difficile. Cette mthode approximative est le contraire dun algorithme exact qui
donne une solution optimale pour un problme donn.
Il y a une multitude dheuristiques qui ont dj t proposes dans la littrature. Nous
pouvons citer des heuristiques trs simples telles que les algorithmes gloutons [Corm 90,
DeVo 96] ou les approches par amlioration itrative [Basi 75]. Le principe des mthodes
gloutonnes est de faire une succession de choix optimaux localement, jusqu ce que lon
ne puisse plus amliorer la solution, et ce, sans retour en arrire possible. Le fonctionnement dune heuristique gloutonne est similaire celui dun algorithme glouton exact. La
diffrence rside dans le fait que nous nimposons plus que la solution obtenue soit optimale, nous obtenons donc un algorithme dapproximation.
1.2.3.2

Mtaheuristiques

Des heuristiques plus pousses, adaptables un grand nombre de problmes diffrents,


sans changements majeurs dans lalgorithme, ont t mises au point et ont donn naissance
une nouvelle famille dalgorithmes doptimisation stochastiques : les mta-heuristiques. Le
terme mta-heuristique a t invent par Fred Glover en 1986, lors de la conception de la
recherche tabou [Glov 86].
Les mtaheuristiques forment une famille dalgorithmes doptimisation visant rsoudre des problmes doptimisation difficile, pour lesquels nous ne connaissons pas de
mthodes classiques plus efficaces. Elles sont gnralement utilises comme des mthodes
gnriques pouvant optimiser une large gamme de problmes diffrents, do le qualificatif mta. Leur capacit optimiser un problme partir dun nombre minimal dinforma7

Mtaheuristiques doptimisation : tat de lart

tions est contrebalance par le fait quelles noffrent aucune garantie quant loptimalit
de la meilleure solution trouve. Cependant, du point de vue de la recherche oprationnelle, ce constat nest pas forcment un dsavantage, puisque lon prfre toujours une
approximation de loptimum global trouve rapidement une valeur exacte trouve dans
un temps rdhibitoire.
Il existe un grand nombre de mtaheuristiques diffrentes, allant de la simple recherche
locale des algorithmes complexes de recherche globale. La plupart des mta-heuristiques
utilisent des processus alatoires comme moyens de rcolter de linformation et de faire
face des problmes comme lexplosion combinatoire. Les mtaheuristiques peuvent tre
considres comme des algorithmes stochastiques itratifs, o elles manipulent une ou
plusieurs solutions la recherche de loptimum. Les itrations successives doivent permettre de passer dune solution de mauvaise qualit la solution optimale. Lalgorithme
sarrte aprs avoir atteint un critre darrt, consistant gnralement en latteinte du
temps dexcution imparti ou en une prcision demande. Ces mthodes tirent leur intrt de leur capacit viter les optima locaux, soit en acceptant des dgradations de la
fonction objectif au cours du traitement, soit en utilisant une population de points comme
mthode de recherche.
Les mtaheuristiques sont souvent inspires de processus naturels qui relvent de la
physique (lalgorithme du recuit simul), de la biologie de lvolution (les algorithmes gntiques) ou encore de lthologie (les algorithmes de colonies de fourmis ou loptimisation
par essaim particulaire).
Les mtaheuristiques se caractrisant par leur capacit rsoudre des problmes trs
divers, elles se prtent naturellement des extensions. Pour illustrer celles-ci, nous pouvons citer :
Les mtaheuristiques pour loptimisation multiobjectif [Coll 02] : o il faut optimiser
plusieurs objectifs contradictoires. Le but ne consiste pas ici trouver un optimum
global, mais trouver un ensemble doptima, qui forment une surface de compromis
pour les diffrents objectifs du problme ;
Les mtaheuristiques pour loptimisation multimodale [Gold 87] : o lon ne cherche
plus loptimum global, mais lensemble des meilleurs optima globaux et/ou locaux ;
Les mtaheuristiques pour loptimisation de problmes bruits : o il existe une incertitude sur le calcul de la fonction objectif, dont il faut tenir compte dans la recherche
de loptimum ;
8

Mtaheuristiques doptimisation : tat de lart

Les mtaheuristiques pour loptimisation dynamique [Bran 02] : o la fonction objectif


varie dans le temps, ce qui ncessite dapprocher loptimum chaque pas de temps ;
Les mtaheuristiques hybrides [Talb 02] : qui consistent combiner diffrentes mtaheuristiques, afin de tirer profit des avantages respectifs ;
Les mtaheuristiques parallles [Alba 05] : o lon cherche acclrer le calcul, en
rpartissant la charge de calcul sur des units fonctionnant de concert. Le problme
revient alors adapter les mtaheuristiques pour quelles soient distribues.
En gnral, lutilisateur demande des mthodes efficaces et rapides permettant datteindre un optimum avec une prcision acceptable dans un temps raisonnable, mais il a
besoin aussi des mthodes simples utiliser. Un des enjeux des mtaheuristiques est donc
de faciliter le choix dune mthode et de simplifier son rglage pour ladapter au mieux
un problme pos. De nombreuses mthodes existent dans la littrature, certaines, parmi
les plus courantes, seront prsentes plus en dtail dans la section 1.2.4.

1.2.4

Diffrentes approches en optimisation statique

1.2.4.1

Algorithme du recuit simul

Le recuit simul est une mthode empirique inspire dun processus utilis en mtallurgie (appel le recuit) o, pour atteindre les tats de basse nergie dun solide, on chauffe
celui-ci jusqu des tempratures leves, avant de le laisser refroidir lentement.
Lalgorithme du recuit simul a t propos par Kirkpatrick et al. [Kirk 83] (et indpendamment, Cerny [Cern 85]). La description classique du recuit simul le prsente
comme un algorithme probabiliste, o un point volue dans lespace de recherche. Le recuit simul sappuie sur lalgorithme de Metropolis [Metr 53, Hast 70] dcrit par lAlgorithme 1.1, qui permet de dcrire lvolution dun systme en thermodynamique. Cette
procdure permet de sortir des minima locaux avec une probabilit leve si la temprature T est leve et, quand lalgorithme atteint de basses tempratures, de conserver les
tats les plus probables. Ici, la mthode de Metropolis (ou toute autre mthode dchantillonnage [Creu 83, Okam 95]) tient lieu de diversification, associe la dcroissance de
temprature, qui contrle lintensification. Lalgorithme de recuit simul est rsum en Algorithme 1.2.

Mtaheuristiques doptimisation : tat de lart

Algorithme de Metropolis
1

Initialiser un point de dpart x0 et une temprature T

pour i=1 n faire


tant que xi nest pas accept faire
si f ( xi ) f ( xi1 ) alors
accepter xi

3
4
5
6

fin

si f ( xi ) > f ( xi1 ) alors

accepter xi avec la probabilit e

fin

fin

10
11

f ( xi ) f ( xi 1 )
T

fin

A LGORITHME 1.1: Algorithme de Metropolis.


Les inconvnients du recuit simul rsident dans :
1. Les rglages , car lalgorithme dispose dun nombre lev de paramtres (temprature initiale, rgle de dcroissance de la temprature, dures des paliers de temprature, etc.) qui rendent les rglages de lalgorithme assez empiriques ;
2. Les temps de calcul , qui peuvent devenir trs importants.
Cependant, il existe des tudes qui sattachent rgler de manire optimale les paramtres
de lalgorithme [Cour 94]. Par ailleurs, pour surmonter le problme de temps de calcul,
plusieurs mthodes de paralllisation des calculs ont t introduites [Azen 92].
Par contre, la mthode du recuit simul a lavantage dtre souple vis--vis des volutions du problme et facile implmenter. Elle a donn dexcellents rsultats pour un
certain nombre de problmes, le plus souvent de grande taille. Bien quinitialement cre
pour fonctionner avec des variables discrtes, la mthode du recuit simul possde des
versions continues [Cour 94].
1.2.4.2

Algorithme de recherche tabou

La recherche tabou est une mtaheuristique itrative qualifie de recherche locale


au sens large. Lide de la recherche tabou consiste, partir dune position donne, en
explorer le voisinage et choisir le voisin qui minimise la fonction objectif.
10

Mtaheuristiques doptimisation : tat de lart

Algorithme du recuit simul


1

Dterminer une configuration alatoire S

Choix des mcanismes de perturbation dune configuration

Initialiser la temprature T

tant que le critre darrt nest pas satisfait faire


tant que lquilibre nest pas atteint faire
Tirer une nouvelle configuration S

Appliquer la rgle de Metropolis

8
9

si f (S ) < f (S) alors


Smin = S

10

f min = f (S )

fin

11
12

fin

13

Dcrotre la temprature

14

fin

A LGORITHME 1.2: Algorithme du recuit simul.


Lalgorithme de recherche tabou a t introduit par Fred Glover en 1986 [Glov 86]. Le
principe de base de cet algorithme est de pouvoir poursuivre la recherche de solutions
mme lorsquun optimum local est rencontr et ce, en permettant des dplacements qui
namliorent pas la solution, et en utilisant le principe de la mmoire pour viter les retours en arrire (mouvements cycliques). Il est essentiel de noter que cette opration peut
conduire augmenter la valeur de la fonction (dans un problme de minimisation) ; cest
le cas lorsque tous les points du voisinage ont une valeur plus leve. Cest partir de
ce mcanisme que lon sort dun minimum local. En effet, comme lalgorithme de recuit
simul, la mthode de recherche tabou fonctionne avec une seule configuration courante,
qui est actualise au cours des itrations successives. La nouveaut ici est que, pour viter
le risque de retour une configuration dj visite, on tient jour une liste de mouvements
interdits (ou de solutions interdites), appele liste tabou . Le rle de cette dernire volue au cours de la rsolution pour passer de lexploration (aussi appele diversification )
lexploitation (galement appele intensification ). Cette liste contient m mouvements
(t s) qui sont les inverses des m derniers mouvements (s t) effectus. Lalgorithme

modlise ainsi une forme primaire de mmoire court terme. Lalgorithme de recherche

11

Mtaheuristiques doptimisation : tat de lart

tabou peut tre rsum par lAlgorithme 1.3.


Dans sa forme de base, lalgorithme de recherche tabou prsente lavantage de comporter moins de paramtres que lalgorithme de recuit simul. Cependant, lalgorithme
ntant pas toujours performant, il est souvent appropri de lui ajouter des processus
dintensification et/ou de diversification, qui introduisent de nouveaux paramtres de
contrle [Glov 97].
Algorithme de recherche tabou
1

Dterminer une configuration alatoire s

Initialiser une liste tabou vide

tant que le critre darrt nest pas satisfait faire


Perturbation de s suivant N mouvements non tabous

4
5

valuation des N voisins

Slection du meilleur voisin t

Actualisation de la meilleure position connue s

Insertion du mouvement t s dans la liste tabou


s=t

9
10

fin

A LGORITHME 1.3: Algorithme de recherche tabou.

1.2.4.3

Les algorithmes volutionnaires

Les algorithmes volutionnaires (AEs), labors au cours des annes 1950 [Fras 57],
sont des techniques de recherche inspires par lvolution biologique des espces. Ils sinspirent de lvolution des tres vivants (la thorie Darwinienne de la slection naturelle des
espces) pour rsoudre des problmes doptimisation. Lide ici est que, les individus qui
ont hrit des caractres bien adapts leur milieu ont tendance vivre assez longtemps
pour se reproduire, alors que les plus faibles ont tendance disparatre.
Au cours des annes 1970, avec lavnement des calculateurs de forte puissance, de
nombreuses approches de modlisation de lvolution ont t ralises. Nous pouvons
citer :
Les statgies dvolution [Rech 65, Beye 01] qui ont t conues pour rsoudre des problmes variables continues. Elles sont axes sur la modlisation des paramtres
12

Mtaheuristiques doptimisation : tat de lart

stratgiques qui contrlent la variation dans lvolution, autrement dit lvolution


de lvolution ;
La programmation volutionnaire [Foge 62, Foge 66], qui vise faire voluer les structures dautomates tats finis par des successions de croisements et de mutations ;
Les algorithmes gntiques [Holl 75], qui ont t conus pour rsoudre des problmes
doptimisation variables discrtes, en modlisant lvolution gntique ;
La programmation gntique [Koza 89, Koza 90], base sur les algorithmes gntiques,
mais o les individus (ou chromosomes) sont des programmes informatiques, reprsents en utilisant une structure darbre ;
Lvolution diffrentielle [Stor 97, Pric 05], qui a t conue pour rsoudre des problmes variables continues. Sa stratgie consiste biaiser un oprateur de mutation,
appliqu un individu, en fonction des diffrences calcules avec dautres individus
slectionns alatoirement. Une description complte et dtaille de cet algorithme
est donne dans la section 1.2.4.5.
Les approches volutionnaires sappuient sur un modle commun prsent en Algorithme 1.4. Les individus soumis lvolution sont des solutions possibles du problme
pos. Lensemble de ces individus constitue une population. Cette population volue durant une succession ditrations, appeles gnrations. Au cours de chaque gnration, une
srie doprateurs est applique aux individus, pour crer la population de la gnration
suivante. Chaque oprateur utilise un ou plusieurs individus, appels parents, pour engendrer de nouveaux individus, appels enfants. A la fin de chaque gnration, une slection
denfants crs durant la gnration remplace un sous-ensemble dindividus de la population.
Un algorithme volutionnaire dispose de trois oprateurs principaux :
1. Un oprateur de slection, qui favorise la propagation des meilleures solutions dans
la population, tout en maintenant une certaine diversit gntique au sein de celle-ci ;
2. Un oprateur de croisement, mis en uvre lors de la phase de cration des enfants.
Son but est dchanger les gnes des diffrents parents pour crer les enfants. Un
exemple de croisement simple pour des individus cods en reprsentation binaire
est prsent dans la figure 1.1 ;
13

Mtaheuristiques doptimisation : tat de lart

Algorithme volutionnaire gnrique


1

Initialisation de la population de individus

Evaluation des individus

tant que le critre darrt nest pas satisfait faire


Slection de individus en vue de la phase de reproduction

4
5

Croisement des individus slectionns

Mutation des enfants obtenus

Evaluation des enfants obtenus

Slection pour le remplacement

fin

A LGORITHME 1.4: Algorithme volutionnaire gnrique.


3. Un oprateur de mutation, consistant tirer alatoirement une composante de lindividu parent et la remplacer par une valeur alatoire. Lapport dun caractre alatoire la cration de la descendance permet ainsi de maintenir une certaine diversit
dans la population. La figure 1.2 montre un exemple de mutation, pour un individu
cod en reprsentation binaire.

Parent 1

Parent 2

0 1 0 1 1 0 0 1 1

0 1 1 0 1 0 1 1 0

0 1 0 0 1 0 1 1 1

0 1 1 1 1 0 0 1 0

Enfant 1

Enfant 2

F IGURE 1.1: Exemple doprateur de croisement en reprsentation binaire.


Le principe dun algorithme volutionnaire se dcrit simplement (voir figure 1.3).

14

Mtaheuristiques doptimisation : tat de lart

0 1 0 1 0 0 1 1 1 0 1 0 0 1 1 1 0 0

0 1 0 1 0 0 1 1 1 1 1 0 0 1 1 1 0 0
F IGURE 1.2: Exemple doprateur de mutation en reprsentation binaire.

valuation des
performances
des individus

Slection
pour la
reproduction

Croisements

Mutations

Slection
pour la
reproduction

valuation des
performances
des individus

non
Initialisation
alatoire
dune
population

Stop ?
oui
meilleur(s) individu(s)

F IGURE 1.3: Principe dun algorithme volutionnaire standard.


1.2.4.4

Les algorithmes de colonies de fourmis

Les algorithmes de colonies de fourmis sont des algorithmes inspirs du comportement


des fourmis et constituent une famille de mtaheuristiques doptimisation pour rsoudre
naturellement des problmes complexes. Une telle aptitude savre possible en raison de
la capacit des fourmis communiquer entre elles indirectement, par le dpt dans lenvironnement de substances chimiques, appeles phromones. Ce type de communication
indirecte est appel stigmergie. En anglais, le terme consacr la principale classe dalgorithmes est Ant Colony Optimization (ACO).
La principale illustration de ce phnomne est donne par la figure 1.4 : un obstacle est
plac sur le trajet des fourmis qui, aprs une tape dexploration, finiront par emprunter
le plus court chemin entre le nid et la source de nourriture [Goss 89]. Les fourmis qui sont
retournes le plus rapidement au nid en passant par la source de nourriture sont celles
qui ont emprunt le chemin le plus court. Il en dcoule que la quantit de phromones
dposes par unit de temps sur ce trajet est plus importante que sur les autres. Par ailleurs,

15

Mtaheuristiques doptimisation : tat de lart

une fourmi est dautant plus attire un certain endroit que le taux de phromones y
est important. De ce fait, le plus court chemin a une probabilit plus importante dtre
emprunt par les fourmis que les autres chemins et sera donc, terme, emprunt par toutes
les fourmis.
Le premier algorithme doptimisation sinspirant de cette analogie a t propos par
Colorni, Dorigo et Maniezzo [Colo 91, Dori 96], afin de rsoudre le problme du voyageur
de commerce. LAlgorithme 1.5 rsume lapproche par colonies de fourmis propose par
les auteurs. Si lon considre un problme de voyageur de commerce N villes, chaque
fourmi k parcourt le graphe et construit un trajet de longueur n = N. Pour chaque fourmi,
le trajet dune ville i une ville j dpend de :
La liste des dplacements possibles Jik , quand la fourmi k est sur la ville i ;
Linverse de la distance entre les villes ij =

1
dij ,

appele visibilit. Cette information

est utilise pour diriger les fourmis vers des villes proches et, ainsi, viter de trop
longs dplacements ;
La quantit de phromones dpose sur larte reliant deux villes ij (t), appele intensit de la piste. Cette quantit dfinit lattractivit dune piste et est modifie aprs
le passage dune fourmi. Cest en quelque sorte la mmoire du systme.
La rgle de dplacement est la suivante :

pijk (t) =

(ij (t)) (ij )


l J k (il (t)) (il )
i

si j Jik

(1.2.1)

sinon

o et sont deux paramtres contrlant limportance relative de lintensit de la piste et


de la visibilit.
Aprs un tour complet, chaque fourmi dpose une quantit de phromones ijk (t) sur
lensemble de son parcours. Cette quantit dpend de la qualit de la solution trouve et
est dfinie par :

ijk (t) =

Q
Lk (t)

si (i, j) T k (t)
sinon

16

(1.2.2)

Mtaheuristiques doptimisation : tat de lart

nid
d

nourriture
ou u e

nidd

nourriture
ou u e

obstacle
(a)

nid

(b)

nourriture

nid

nourriture

obstacle

obstacle
(c)

(d)

F IGURE 1.4: Illustration de la capacit des fourmis chercher de la nourriture en minimisant leur parcours. (a) Recherche sans obstacle, (b) Apparition dun obstacle, (c) Recherche
du chemin optimal, (d) Chemin optimal trouv.

ACO
1
2
3
4

t1

tant que le critre darrt nest pas satisfait faire


pour k = 1 m faire
Choisir une ville au hasard

pour chaque ville non visite i faire


Choisir une ville j dans la liste Jik des villes restantes selon (1.2.1)

fin

Dposer une quantit de phromones ijk (t) sur le trajet T k (t) conformment

(1.2.2)
fin

9
10

Evaporer les phromones selon (1.2.3)

11

t t+1

12

fin

A LGORITHME 1.5: Algorithme de colonies de fourmis pour le problme du voyageur de


commerce.

17

Mtaheuristiques doptimisation : tat de lart

o T k (t) est le trajet effectu par la fourmi k litration t, Lk (t) est la longueur de T k (t) et
Q est un paramtre de rglage.
Enfin, il est ncessaire dintroduire un processus dvaporation des phromones. En
effet, pour viter de rester pig dans des optima locaux, il est ncessaire quune fourmi
oublie les mauvaises solutions. La rgle de mise jour est la suivante :
ij (t + 1) = (1 )ij (t) + ij (t)

(1.2.3)

k
o ij (t) = m
k=1 ij ( t ), m est le nombre de fourmis et est un paramtre de rglage.

La dmarche initie par cette analogie a t tendue la rsolution dautres problmes


doptimisation, discrets et continus [Dori 05, Dro 03]. ACO prsente plusieurs caractristiques intressantes, telles que le paralllisme intrinsque lev, la robustesse (une colonie
peut maintenir une recherche efficace, mme si certains de ses individus sont dfaillants)
ou encore la dcentralisation (les fourmis nobissent pas une autorit centralise).
1.2.4.5

Algorithme volution diffrentielle

Lvolution diffrentielle (Differential Evolution DE) est une mtaheuristique stochastique doptimisation qui a t inspire par les algorithmes gntiques et des stratgies
volutionnaires combines avec une technique gomtrique de recherche. Les algorithmes
gntiques changent la structure des individus en utilisant la mutation et le croisement,
alors que les stratgies volutionnaires ralisent lauto-adaptation par une manipulation
gomtrique des individus. Ces ides ont t mises en uvre grce une opration
simple, mais puissante, de mutation de vecteurs, propose en 1995 par K. Price et R.
Storn [Stor 97]. Mme si, lorigine, la mthode de lvolution diffrentielle tait conue
pour les problmes doptimisation continus et sans contraintes, ses extensions actuelles
peuvent permettre de traiter les problmes variables mixtes et grent les contraintes non
linaires [Lamp].
Dans la mthode DE, la population initiale est gnre par tirage alatoire uniforme
sur lensemble des valeurs possibles de chaque variable. Les bornes infrieures et suprieures des variables sont spcifies par lutilisateur selon la nature du problme. Aprs
linitialisation, lalgorithme effectue une srie de transformations sur les individus, dans
un processus appel volution.
18

Mtaheuristiques doptimisation : tat de lart

La population contient N individus. Chaque individu xi,G est un vecteur de dimension


D, o G dsigne la gnration :
xi,G = ( x1i,G , x2i,G , ..., x Di,G ) avec i = 1, 2, ..., N

(1.2.4)

Le standard DE utilise trois techniques (mutation, croisement et slection) comme les


algorithmes gntiques. A chaque gnration, lalgorithme applique successivement ces
trois oprations sur chaque vecteur pour produire un vecteur dessai (trial vector) :
ui,G+1 = (u1i,G+1 , u2i,G+1 , ..., u Di,G+1 ) avec i = 1, 2, ..., N

(1.2.5)

Une opration de slection permet de choisir les individus conserver pour la nouvelle
gnration (G + 1).
a - Mutation
Pour chaque vecteur courant xi,G , on gnre un vecteur mutant vi,G+1 qui peut tre cr en
utilisant une des stratgies de mutation suivantes :
- Rand/1 :
vi,G+1 = xr1 ,G + F.( xr2 ,G xr3 ,G )

(1.2.6)

vi,G+1 = xbest,G + F.( xr1 ,G xr2 ,G )

(1.2.7)

vi,G+1 = xi,G + F.( xr1 ,G xr2 ,G ) + F.( xbest,G xi,G )

(1.2.8)

vi,G+1 = xbest,G + F.( xr1 ,G xr2 ,G ) + F.( x3,G x4,G )

(1.2.9)

- Best/1 :

- Current to best/1 :

- Best/2 :

- Rand/2 :

19

Mtaheuristiques doptimisation : tat de lart

vi,G+1 = xr1 ,G + F.( xr2 ,G xr3 ,G ) + F.( xr4 ,G xr5 ,G )

(1.2.10)

Les indices r1 , r2 , r3 , r4 et r5 {1, 2, . . . , N } sont des entiers alatoires et tous diffrents. Ils

sont galement choisis diffrents de lindice courant i. xbest,G est le meilleur individu la

Gme gnration. F [0, 2] est une valeur constante, appele differential weight, qui contrle

lamplification de la variation diffrentielle de ( xri ,G xr j ,G ).


b - Croisement

Aprs la mutation, une opration de croisement binaire forme le vecteur dessai final
ui,G+1 , selon le vecteur xi,G et le vecteur mutant correspondant vi,G+1 . Lopration de croisement est introduite pour augmenter la diversit des vecteurs de paramtres perturbs.
Le nouveau vecteur ui,G+1 est donn par la formule suivante :

u ji,G+1 =

v1i,G+1 si (randb( j) CR) ou j = rnbr (i )

x
ji,G

si (randb( j) > CR) et j 6= rnbr (i )

pour tout j {1,2, . . . ,D }


(1.2.11)

o randb( j) est la jme valeur procure un gnrateur de nombre alatoire uniforme appartenant lintervalle [0,1]. CR est le coefficient de croisement qui appartient lintervalle

[0,1] et est dtermin par lutilisateur. rnbr (i ) est un indice choisi au hasard dans lensemble {1, 2, . . . , N }.
c - Slection
Pour dcider quel vecteur, parmi ui,G+1 ou xi,G , doit tre choisi dans la gnration G + 1,
on doit comparer les valeurs de fonction du cout de ces deux vecteurs. En effet, on garde le
vecteur ayant la plus petite valeur de fonction du cout en cas de minimisation. Le nouveau
vecteur xi,G+1 est choisi selon lexpression suivante :

xi,G+1 =

ui,G+1 si f (ui,G+1 ) < f ( xi,G )

x
i,G

(1.2.12)

sinon

Il est clair quun bon rglage des principaux paramtres de lalgorithme (taille de la population N, facteur de mutation F et facteur de croisement CR) contribue de faon importante
lefficacit de la mthode. Lauto-adaptation de ces paramtres parat donc intressante
20

Mtaheuristiques doptimisation : tat de lart

pour lamlioration de lalgorithme. Une comparaison des versions adaptatives et autoadaptatives de lalgorithme volution diffrentielle (FADE [Liu 05], DESAP [Teo 06],
SaDE [Qin 05] et jDE [Bres 06]) est prsente dans [Bres 07].

1.3

Optimisation par Essaim Particulaire

1.3.1

Principe gnral

Loptimisation par essaim particulaire (OEP), ou Particle Swarm Optimization (PSO) en


anglais, est un algorithme volutionnaire qui utilise une population de solutions candidates pour dvelopper une solution optimale au problme. Cet algorithme a t propos
par Russel Eberhart (ingnieur en lectricit) et James Kennedy (socio-psychologue) en
1995 [Kenn 95]. Il sinspire lorigine du monde du vivant, plus prcisment du comportement social des animaux voluant en essaim, tels que les bancs de poissons et les vols
groups doiseaux. En effet, on peut observer chez ces animaux des dynamiques de dplacement relativement complexes, alors quindividuellement chaque individu a une intelligence limite, et ne dispose que dune connaissance locale de sa situation dans lessaim.
Linformation locale et la mmoire de chaque individu sont utilises pour dcider de son
dplacement. Des rgles simples, telles que rester proche des autres individus , aller
dans une mme direction ou aller la mme vitesse , suffisent pour maintenir la cohsion de lessaim, et permettent la mise en uvre de comportements collectifs complexes et
adaptatifs.
Lessaim de particules correspond une population dagents simples, appels particules. Chaque particule est considre comme une solution du problme, o elle possde
une position (le vecteur solution) et une vitesse. De plus, chaque particule possde une
mmoire lui permettant de se souvenir de sa meilleure performance (en position et en valeur) et de la meilleure performance atteinte par les particules voisines (informatrices) :
chaque particule dispose en effet dun groupe dinformatrices, historiquement appel son
voisinage.
Un essaim de particules, qui sont des solutions potentielles au problme doptimisation, survole lespace de recherche, la recherche de loptimum global. Le dplacement
dune particule est influenc par les trois composantes suivantes :
1. Une composante dinertie : la particule tend suivre sa direction courante de dpla21

Mtaheuristiques doptimisation : tat de lart

cement ;
2. Une composante cognitive : la particule tend se diriger vers le meilleur site par
lequel elle est dj passe ;
3. Une composante sociale : la particule tend se fier lexprience de ses congnres
et, ainsi, se diriger vers le meilleur site dj atteint par ses voisins.
La stratgie de dplacement dune particule est illustre dans la figure 1.5.
Vers sa meilleure
performance
p
Nouvelle
position

Position
actuelle

Vers la meilleure
performance
f
d
des
particules voisines

Vers le point
accessible avec sa
vitesse courante

F IGURE 1.5: Dplacement dune particule.

1.3.2

Formalisation

Dans un espace de recherche de dimension D, la particule i de lessaim est modlise par son vecteur position ~xi = ( xi1 , xi2 , . . . , xiD ) et par son vecteur vitesse ~vi =

(vi1 , vi2 , . . . , viD ). La qualit de sa position est dtermine par la valeur de la fonction objectif en ce point. Cette particule garde en mmoire la meilleure position par laquelle elle
est dj passe, que lon note ~
Pbesti = ( pbesti1 , pbesti2 , . . . , pbestiD ). La meilleure position

~
atteinte par les particules de lessaim est note Gbest
= ( gbest1 , gbest2 , . . . , gbest D ). Nous
nous rfrons la version globale de PSO, o toutes les particules de lessaim sont consid~
res comme voisines de la particule i, do la notation Gbest
(global best).
Remarque : le terme de vitesse est ici abusif, car les vecteurs ~vi ne sont pas homognes une
vitesse. Il serait plus appropri de parler de direction de dplacement . Cependant, pour respecter
lanalogie avec le monde animal, les auteurs ont prfr utiliser le terme de vitesse .
22

Mtaheuristiques doptimisation : tat de lart

Au dpart de lalgorithme, les particules de lessaim sont initialises de manire


alatoire/rgulire dans lespace de recherche du problme. Ensuite, chaque itration,
chaque particule se dplace, en combinant linairement les trois composantes cites cidessus. En effet, litration t + 1, le vecteur vitesse et le vecteur position sont calculs
partir de lquation (1.3.1) et de lquation (1.3.2), respectivement.

t +1
t
t
t
t
vi,j
= wvi,j
+ c1 r1t i,j [ pbesti,j
xi,j
] + c2 r2t i,j [ gbesttj xi,j
], j {1, 2, ..., D }
t +1
t
t +1
xi,j
= xi,j
+ vi,j
, j {1, 2, ..., D }

(1.3.1)
(1.3.2)

o w est une constante, appele coefficient dinertie ; c1 et c2 sont deux constantes, appeles
coefficients dacclration ; r1 et r2 sont deux nombres alatoires tirs uniformment dans

[0, 1], chaque itration t et pour chaque dimension j.


Les trois composantes mentionnes ci-dessus (i.e. dinertie, cognitive et sociale) sont reprsentes dans lquation (1.3.1) par les termes suivants :
t correspond la composante dinertie du dplacement, o le paramtre w
1. wvi,j

contrle linfluence de la direction de dplacement sur le dplacement futur ;


t x t ] correspond la composante cognitive du dplacement, o le
2. c1 r1t i,j [ pbesti,j
i,j

paramtre c1 contrle le comportement cognitif de la particule ;

t ] correspond la composante sociale du dplacement, o le para3. c2 r2t i,j [ gbesttj xi,j

mtre c2 contrle laptitude sociale de la particule.

Une fois le dplacement des particules effectu, les nouvelles positions sont values et les
~
deux vecteurs ~
Pbesti et Gbest
sont mis jour , litration t + 1, suivant les deux quations
(1.3.3) (dans le cas dune minimisation) et (1.3.4) (dans une version globale de PSO), respectivement. Cette procdure est prsente dans lAlgorithme 1.6, o N est le nombre de
particules de lessaim.

~Pbesti (t + 1) =

~Pbesti (t), si f (~xi (t + 1)) ~Pbesti (t)

~xi (t + 1), sinon

~
Gbest
(t + 1) = arg min~Pbest f (~Pbesti (t + 1)), 1 i N.
i

23

(1.3.3)

(1.3.4)

Mtaheuristiques doptimisation : tat de lart

OEP
1

Initialiser alatoirement N particules : position et vitesse.

2
3

Evaluer les positions des particules


Pour chaque particule i, ~
Pbesti = ~xi

~
Calculer Gbest
selon (1.3.4)

tant que le critre darrt nest pas satisfait faire


Dplacer les particules selon (1.3.1) et (1.3.2)

6
7

Evaluer les positions des particules

~
Mettre jour ~
Pbesti et Gbest
selon (1.3.3) et (1.3.4)

fin

A LGORITHME 1.6: Algorithme doptimisation par essaim particulaire.

1.3.3

Amliorations de PSO

1.3.3.1

Confinement des particules

Pour viter que le systme n explose en cas damplification trop grande doscillations (il est possible que le dplacement dune particule soit trop rapide et la conduise
sortir de lespace de recherche), nous pouvons introduire un nouveau paramtre Vmax , qui
permet de limiter la vitesse sur chaque dimension et ainsi de contrler lexplosion du systme [Eber 96]. Notons que cela ne restreint pas les valeurs de xi lintervalle [Vimin , Vimax ],
mais limite seulement la distance maximale quune particule va parcourir au cours dune
itration. Cette mthode permet de contrler la divergence de lalgorithme et de raliser
ainsi un compromis efficace entre intensification et diversification.
De plus, une stratgie de confinement des particules peut tre introduite. Une telle
stratgie permet de ramener une particule sortie de lespace de recherche lintrieur de
celui-ci. Dans ce cadre, plusieurs mthodes peuvent tre employes :
La particule est laisse lextrieur de lespace de recherche, mais on nvalue pas sa
fonction objectif. Ainsi, elle ne pourra pas attirer les autres particules en dehors de
lespace de recherche ;
La particule est arrte la frontire et les composantes associes sa vitesse sont
annules ;
La particule rebondit sur la frontire. La particule est stoppe sur la frontire, mais
24

Mtaheuristiques doptimisation : tat de lart

les composantes correspondantes de la vitesse sont multiplies par un coefficient tir


alatoirement dans lintervalle [-1,0].
1.3.3.2

Coefficient de constriction

Des amliorations ont t apportes lalgorithme de base, notamment du point de


vue du contrle de la divergence : en particulier, lintroduction du paramtre Vmax que
nous avons vu dans le paragraphe prcdent, et qui permet de limiter la divergence des
particules. En outre, beaucoup dautres tudes ont t menes sur la dynamique des particules et qui sattachent analyser sous quelles conditions une convergence de lessaim est
assure [Kenn 98, Ozca 99, Van 01].
La combinaison des paramtres w, c1 et c2 permet de rgler lquilibre entre les phases
de diversification et dintensification du processus de recherche [Kenn 01]. Dans [Cler 02],
Clerc et Kennedy ont dmontr quune bonne convergence peut tre obtenue en rendant dpendants ces paramtres. Lutilisation dun coefficient de constriction (ou facteur
de constriction) permet de mieux contrler la divergence de lessaim et de saffranchir de la
dfinition de Vmax [Cler 02]. Cette variante de PSO, qui a t largement utilise dans la littrature, est connue sous le nom de canonical PSO. En utilisant le coefficient de constriction,
lquation (1.3.1) devient :



vij (t + 1) = vi,j (t) + 1 r1 pbesti,j (t) xi,j (t) + 2 r2 gbest j (t) xi,j (t)

(1.3.5)

avec :
=
o : = 1 + 2 , > 4.

2+

2
p

2 4

(1.3.6)

Les valeurs optimales de 1 et 2 ont t dtermines dans [Cler 02], en effectuant de


nombreux tests. En gnral, on utilise = 4,1 et 1 = 2 , ce qui donne un coefficient
= 0,7298844.
Dans [Eber 00], les auteurs ont indiqu que lutilisation dun coefficient de constriction donne gnralement un meilleur taux de convergence, sans avoir fixer de vitesse

25

Mtaheuristiques doptimisation : tat de lart

maximale Vmax . Cependant, dans certains cas, le coefficient de constriction seul ne permet pas la convergence vers la solution optimale pour un nombre ditrations donn.
Pour remdier ce problme, il pourrait tre intressant de fixer Vmax = ( xmax xmin )/2
en plus du coefficient de constriction, ce qui, selon les tudes de Shi et Eberhart, per-

met damliorer les performances globales de lalgorithme. Ainsi, il est noter que PSO,
utilisant un coefficient de constriction, nest pas la seule version de PSO qui garantisse la convergence vers un tat dquilibre. Dautres exemples peuvent tre trouvs
dans [Van 01, Trel 03, Peer 03, Zhen 03], qui permettent aussi de provoquer la convergence
de lalgorithme.
1.3.3.3

Topologie de voisinage

Comme nous lavons vu dans les deux sous-sections 1.3.1 et 1.3.2, PSO est une mthode doptimisation stochastique inspire dun comportement social. Ce comportement
a t modlis par les deux quations (1.3.1) et (1.3.2) pour guider les particules durant le
processus de dplacement. Le choix dune topologie (le rseau de communication entre les
particules) a donc une influence importante sur les performances de PSO.
A lorigine, dans la version de PSO rsume dans lAlgorithme 1.6, les auteurs ont dfini une topologie entirement connecte (i.e. chaque particule est relie toutes les autres).
Cette version de PSO est appele version globale (Gbest), car la particule est informe par
~
la totalit des autres, et linformation effectivement utilise est incarne par le terme Gbest
de la troisime composante de lquation (1.3.1). Cette version a linconvnient majeur de
ne pas donner lieu une exploration suffisante, ce qui peut conduire une stagnation
dans un optimum local et donc une convergence prmature. De nombreuses variantes
de la version originale, dites versions locales (Lbest), ont t proposes dans la littrature
de PSO, afin damliorer sa convergence. Parmi ces variantes, nous pouvons citer celle
propose dans [Eberhart et al., 1995] et qui utilise un graphe dinformation statique sous
forme danneau (cette version est connue comme tant la version locale classique). Dans les
~
versions locales, le terme Gbest
est remplac par les termes ~Lbesti , o, pour chaque particule i, on dfinit un ensemble de voisinage (i.e. linformation qui doit tre partage est la
meilleure solution trouve dans le voisinage de chaque particule (~Lbesti )). Cette partie sera
traite et dtaille dans le chapitre 3, o nous prsenterons aussi une nouvelle topologie
dynamique, nomme Dcluster.

26

Mtaheuristiques doptimisation : tat de lart

1.3.3.4

Coefficient dinertie

Le coefficient dinertie w, introduit par Shi et Eberhart [Shi 99], contrle linfluence de
la direction de la particule sur le dplacement futur. Le but de lintroduction de ce paramtre est de raliser un quilibre entre la recherche locale (exploitation) et la recherche
globale (exploration). Lintensit de lexploration de lespace de recherche dpend de la
valeur du poids dinertie, une grande valeur de w facilitant une exploration globale, alors
quune petite valeur facilite lexploration locale. Du fait de son influence sur les performances de lalgorithme PSO, le poids dinertie a suscit un grand intrt de la part de la
communaut des chercheurs. Dans [Shi 99], les auteurs ont propos un coefficient dinertie dynamique qui varie au cours du temps. Il commence par une valeur proche de 0,9 et
descend linairement pour arriver 0,4. Cette stratgie a beaucoup amlior les performances de PSO pour plusieurs problmes doptimisation. Le coefficient dinertie w varie
linairement avec le temps selon la formule suivante :

w = wmin + (wmax wmin ).(

iter
)
maxiter

(1.3.7)

o iter est litration courante et maxiter est le nombre maximal ditrations. wmax et wmin
dsignent respectivement les valeurs maximum et minimum du coefficient w (gnralement, wmin , wmax [0, 1]).
Dans [Chat 06], Chatterjee et Siarry ont utilis une autre stratgie non-linaire pour
dfinir un coefficient dinertie dynamique. Dans [Eber 01], Eberhart et Shi ont propos
une autre variante, dans laquelle le coefficient dinertie est choisi au hasard, selon une
distribution uniforme, dans lintervalle [0,5, 1]. Cet intervalle a t inspire du facteur de
constriction propos par Clerc et Kennedy (la valeur attendue du coefficient dinertie, dans
ce cas, est gale 0,75 0,729).
1.3.3.5

Stratgie FIPS

Kennedy et Mendes [Mend 04] ont propos une nouvelle manire dutiliser la topologie Gbest, appele FIPS (Fully Informed Particle Swarm). FIPS utilise une partie des informations de chaque voisine, au lieu de se baser seulement sur les informations de la meilleure
voisine et la meilleure exprience propre la particule. Par consquent, lutilisation dune
topologie entirement connecte ne signifie pas que linformation utilise soit seulement
27

Mtaheuristiques doptimisation : tat de lart

la meilleure solution trouve par lessaim. En effet, dans FIPS, elle est toujours utilise,
mais elle nest pas la seule. Pour les algorithmes bass sur le principe de la topologie FIPS,
linformation utilise pour dplacer les particules est issue de toutes les autres particules.
Ainsi, toutes les voisines contribuent lajustement de la vitesse dune particule :
vit+1 =

vit +

Ni

U (0,)( ptnbr(n) xit )


Ni

n =1

(1.3.8)

o Ni est le nombre de voisins de la particule i, nbr (n) est la nime particule voisine de la
particule i et est la constante dacclration, qui permet de contrler la convergence des
particules. Cette dernire est fixe 4,1, suite lanalyse de Clerc et al [Cler 02].
1.3.3.6

Algorithme TRIBES

TRIBES est un algorithme doptimisation par essaim particulaire sans paramtres de


contrle, qui a t propos par Clerc [Cler 03]. Cet algorithme prsente la particularit
dtre totalement adaptatif, cest--dire que tous les paramtres de contrle sont calculs
de manire autonome par lalgorithme. En effet, TRIBES est dfini comme une bote noire,
pour laquelle lutilisateur na plus aucun paramtre rgler. Il doit seulement dfinir le
problme rsoudre (i.e. la fonction objectif, lespace de recherche, les contraintes), ainsi
que son critre darrt. Cependant, il est signaler que TRIBES ne peut pas rsoudre tous
les problmes. De plus, ses rsultats sont probabilistes cause de son caractre stochastique. Le but de TRIBES, daprs son auteur, est dtre efficace dans la plupart des cas
et de permettre ses utilisateurs de gagner du temps, en vitant ltape de rglage de la
mtaheuristique.
Dans TRIBES, lessaim particulaire est divis en plusieurs sous-essaims appels tribus . Les tribus sont de tailles diffrentes, qui voluent au cours du temps. Le but est
dexplorer simultanment plusieurs rgions de lespace de recherche, gnralement des
optima locaux, avant de prendre une dcision globale. Dans le but de prendre un telle
dcision, les tribus changent leurs rsultats tout au long du traitement. Deux types de
communications sont donc dfinir : la communication intra-tribu et la communication
inter-tribus. Chaque tribu est compose dun nombre variable de particules. En effet, une
tribu qui peine amliorer ses rsultats gnre des particules plus exploratrices . Les
particules gnres par les diffrentes tribus forment une nouvelle tribu, qui reste en communication avec ses gnitrices. Inversement, une tribu efficace tendra supprimer celles
28

Mtaheuristiques doptimisation : tat de lart

de ses particules qui nont pas contribu sa bonne performance.


TRIBES est un algorithme comptitif, qui permet de trouver rapidement des optima
locaux (trs utile pour loptimisation dynamique). Cependant, les particules ont tendance
rester dans ces optima locaux et ont du mal en sortir.
La thse de Yann Cooren [Coor 08] sattache particulirement lalgorithme TRIBES,
qui est en dtail. Cest ainsi que Cooren a propos deux ides qui permettent damliorer
les performances de cet algorithme :
La premire ide consiste utiliser un nouveau mode dinitialisation (initialisation
rgulire) pour assurer une couverture plus uniforme de lespace de recherche par
les particules. En pratique, les particules sont initialises de manire tre les plus
loignes possible les unes des autres et les plus loignes possible des frontires de
lespace de recherche.
La deuxime ide consiste utiliser une nouvelle stratgie de dplacement, base sur
une hybridation avec un algorithme estimation de distribution, pour maintenir la
diversit au sein de lessaim, tout au long du traitement.
Les rsultats obtenus montrent une relle amlioration apporte lalgorithme initial.
Dans sa thse, Yann Cooren a propos aussi une version performante pour les problmes
multi-objectifs, dnomme MO-TRIBES.
1.3.3.7

PSO et hybridation

Ces dernires annes, lhybridation des algorithmes a attir lattention de nombreux


chercheurs afin damliorer leurs performances. Lobjectif de lhybridation est de combiner
les caractristiques de plusieurs algorithmes pour tirer profit de leurs avantages [Talb 02].
Mais lalgorithme rsultant risque dhriter galement de leurs faiblesses. De plus, un algorithme rsultant de lhybridation de plusieurs algorithmes peut avoir une complexit
importante. Comme pour toutes les mtaheuristiques, lhybridation a aussi touch le domaine de PSO dans le but damliorer ses performances. Dans ce qui suit, nous prsentons
quelques exemples dhybridations entre PSO et dautres algorithmes.
Dans [Ange 98], Angeline a propos la premire hybridation dun algorithme PSO. Il
introduit un processus de slection et un processus de mutation inspirs des algorithmes
volutionnaires. Le processus de slection est utilis pour choisir des bonnes particules qui vont subir une mutation, et des mauvaises particules qui sont limines.
29

Mtaheuristiques doptimisation : tat de lart

Dans [Zhan 09], une approche originale dhybridation, qui est une combinaison de PSO et
DE (DE-PSO), est propose. Cette approche consiste dfinir une stratgie de dplacement
alatoire pour accrotre la capacit dexploration et en mme temps acclrer la convergence de lalgorithme, en utilisant des oprateurs de lalgorithme DE. Dans cette approche,
trois stratgies de mise jour de la particule ont t utilises : DE Updating Strategy (DEUS),
Random Updating Strategy (RUS) et PSO Updating Strategy (PSOUS). Dans [Mira 02], une
hybridation entre PSO et les stratgies volutionnaires est propose. Les paramtres chi,
1 et 2 , ainsi que ~g, sont perturbs selon une distribution gaussienne. La variance de cette
distribution est dtermine laide dun processus de slection. Dans [Robi 02], une hybridation entre PSO et les algorithmes gntiques est dveloppe. Il est dmontr dans cet
article que PSO est favorable dans la phase de diversification, alors que les algorithmes gntiques sont plus efficaces dans la phase dintensification. Dans [Shel 07], un algorithme
de PSO est hybrid avec un algorithme de colonies de fourmis. Lide sous-jacente consiste
utiliser PSO comme mthode de recherche globale, alors que lalgorithme de colonies
de fourmis est cens amliorer le processus dintensification, en tant utilis comme une
recherche locale. Dans [Iqba 06], un algorithme de PSO utilisant des principes des algorithmes estimation de distribution est prsent. Les meilleures particules sont ici utilises pour attirer les autres particules de lessaim laide de lestimation dune distribution
de probabilit. Enfin, il existe aussi plusieurs mthodes hybridant PSO avec une recherche
locale. Parmi ces mthodes, nous citons NM-PSO, qui est une combinaison de la technique
de Nelder-Mead (NM) et de PSO. Dans NM-PSO, le processus hybride ralise lexploration
par lalgorithme PSO et lexploitation par lalgorithme NM [Fan 04].
1.3.3.8

PSO cooprative

Les algorithmes de recherche coopratifs, notamment ceux de PSO, ont t largement tudis ces dernires annes, surtout pour rsoudre les problmes doptimisation de
grande tailles. Lapproche de base consiste avoir plus dun module de recherche en cours
dexcution (peut-tre travers des sous-essaims) et un change dinformations entre eux,
afin dexplorer plus efficacement lespace de recherche et datteindre de meilleures solutions.
Dans [Berg 04], les auteurs proposent deux variantes de PSO : Cooperative PSO
(CPSO-Sk ) et Hybrid CPSO (CPSO-H). La premire variante CPSO-S divise lespace ndimensionnel (vecteur de solutions de dimension n) en sous-espaces (de plus petits vec30

Mtaheuristiques doptimisation : tat de lart

teurs), o chaque sous-espace est optimis par un essaim spar. Le vecteur global de solutions est construit partir des solutions trouves par la meilleure particule de chaque
essaim. Dans le cas particulier o n = k, lalgorithme est appel CPSO-S et utilise
n essaims 1-dimensionnel pour effectuer la recherche dans chaque dimension sparment. La deuxime variante CPSO-H consiste en deux phases de recherche squentielle.
Chaque phase sexcute seulement pour une itration et communique la meilleure solution trouve la phase suivante. La premire phase utilise un CPSO-S (avec des essaims
1-dimensionnel) et la seconde phase utilise lalgorithme de base de PSO.
Dans [Bask 04], lalgorithme Concurrent PSO (CONPSO) considre deux essaims en
concurrence qui sont gnrs laide de deux variantes de PSO : PSO de base et Fitnessto-Distance Ratio PSO (FDR-PSO) [Pera 03]. Ces deux essaims effectuent la recherche en
mme temps avec un change frquent dinformations. Les informations changes sont
les meilleures solutions globales gbest1 et gbest2 de deux essaims. Aprs chaque point
dchange, les particules des essaims sont obliges de suivre la meilleure solution globale
trouve entre les deux.
Dans [Yen 08], les auteurs prsentent une autre mthode dchange dinformations
entre les essaims, dans laquelle la population des particules est divise en m sous-essaims
qui cooprent entre eux. Au moment de lchange, chaque sous-essaim prpare deux ensembles de particules : les particules envoyer un autre sous-essaim et les particules
remplacer par dautres particules venant dautres sous-essaims. Lchange dinformations
se fait entre sous-essaims du mme voisinage, dtermin par une distance qui change au
cours de lexcution de lalgorithme. Ceci fournit une configuration dynamique entre les
sous-essaims, grce au changement de distance, qui permet chacun dentre eux de communiquer avec dautres groupes.
Un autre algorithme de PSO cooprative a t propos dans [Niu 07], bas sur un modle matre-esclave. Dans cet algorithme, la population se compose dun essaim matre
et plusieurs essaims esclaves . Les essaims esclaves excutent un seul PSO indpendamment pour maintenir la diversit des particules, tandis que lessaim matre volue en
fonction de son information propre et de celle des essaims esclaves.
1.3.3.9

Autres variantes de PSO

Dans [Hsie 09], Hsieh et al. proposent un algorithme (EPU-PSO) bas sur une population de taille variable qui utilise trois ides principales pour amliorer les performances
31

Mtaheuristiques doptimisation : tat de lart

de PSO. La premire ide introduit un gestionnaire de la population o, selon ltat de


la recherche, lalgorithme ajoute ou supprime des particules. Cette dynamicit affecte
considrablement les performances et augmente la capacit trouver loptimum global.
La deuxime ide est base sur la stratgie dite solution-sharing strategy, qui permet aux
meilleures particules de partager leurs informations et de mettre jour leurs vitesses. La
troisime ide porte sur la technique dite searching range sharing (SRS), qui empche les
particules de tomber dans un optimum local. En outre, SRS tend lexploration de lespace
de recherche des zones inexplores. CLPSO [Lian 06] est une variante de PSO qui utilise
une nouvelle stratgie dapprentissage (learning strategy) pour mettre jour les vitesses des
particules utilisant des informations historiques. UPSO [Pars 04] est un algorithme de PSO
qui regroupe les variantes globale et locale de PSO, en combinant leurs capacits dexploration et dexploitation.

1.4

Validation des algorithmes

Dans cette section, nous allons prsenter les fonctions et les problmes rels utiliss
pour comparer les rsultats obtenus par les algorithmes que nous proposons dans ce manuscrit ceux dautres algorithmes existants dans la littrature. Nous nous appuyons, pour
comparer les algorithmes, sur la procdure de test dfinie dans le cadre de la confrence
2005 IEEE Congress on Evolutionary Computation (CEC05) [Suga 05].
Le critre darrt peut tre diffrent suivant le problme pos. Si loptimum global est
connu a priori, on peut dfinir une erreur acceptable comme critre darrt. Sinon, il est
habituel de fixer un nombre maximum dvaluations de la fonction objectif ou un nombre
maximum ditrations comme critre darrt. Cependant, selon le problme pos et les
exigences de lutilisateur, dautres critres darrt peuvent tre utiliss.

1.4.1

Principales fonctions de test

Les principales fonctions de test sont classes en quatre groupes (voir Tableau 1.1) en
fonction de leurs proprits [Suga 05, Tu 04, Yao 99].
Dans lannexe, nous dtaillons ces quatre groupes.

32

Mtaheuristiques doptimisation : tat de lart

Groupe

Type de fonction

Nom de fonction

Fonctions unimodales

f 1 . Sphere function
f 2 . Quadric function

Fonctions multimodales

f 3 . Rosenbrocks function
f 4 . Ackleys function
f 5 . Rastrigins function
f 6 . Weierstrasss function
f 7 . Generalized penalized function
f 8 . Griewanks function
f 9 . Tripods function

Fonctions pivotes

f 10 . Rotated Quadric function


f 11 . Rotated Rosenbrocks function
f 12 . Rotated Ackleys function
f 13 . Rotated Rastrigins function
f 14 . Rotated Weierstrasss function
f 15 . Rotated Generalized penalized function

Fonctions dcales

f 16 . Shifted Rosenbrocks function


f 17 . Shifted Ackleys function
f 18 . Shifted Rastrigins function
f 19 . Shifted Griewanks function
f 20 . Shifted Sphere function

TABLEAU 1.1: Les principales fonctions de test.

1.4.2

Problmes rels

Quelques problmes rels trs frquents dans le domaine doptimisation et utiliss


pour mesurer les performances des algorithmes, sont prsents dans le tableau 1.2 et dtaills dans lannexe.

1.5

Conclusion

Dans ce chapitre, nous avons prsent un tat de lart sur les mthodes doptimisation mono-objectifs statiques. Tout dabord, nous avons donn la dfinition dun problme
doptimisation. Puis, nous avons distingu les deux types de problmes doptimisation
mono-objectif difficile : les problmes variables discrtes et les problmes variables
continues. Ensuite, nous avons prsent une famille de mthodes de rsolution de problmes variables continues : les mtaheuristiques. Enfin, nous avons dcrit la plupart
des fonctions dun jeu de test trs utilis dans la littrature de loptimisation continue,
33

Mtaheuristiques doptimisation : tat de lart

Problme

F1

Lennard-Jones atomic cluster

F2

Gear train design

F3

Frequency modulation sound parameter identification

F4

Spread spectrum radar poly-phase code design

F5

Compression spring design

F6

Perm function

F7

Mobile network design

F8

Pressure Vessel design

F9

Welded Beam design

F10

Speed Reducer design

F11

Problme de contraintes 1

F12

Problme de contraintes 2

TABLEAU 1.2: Les problmes rels.


dfini dans le cadre de la confrence (CEC05) et quelques problmes rels trs frquents
dans ce domaine.
Parmi les mtaheuristiques prsentes pour rsoudre ces problmes, un intrt particulier a t port la mthode doptimisation par essaim particulaire (PSO). Cette mthode,
qui est inspire du monde du vivant, a rencontr un succs remarquable depuis sa cration, grce sa simplicit. Elle prsente lavantage dtre efficace sur une vaste gamme de
problmes, sans pour autant que lutilisateur ait modifier la structure de base de lalgorithme. Cependant, PSO prsente un problme majeur, qui rebute encore certains utilisateurs : le problme de la convergence prmature, qui peut conduire les algorithmes de ce
type stagner dans un optimum local. De nombreux travaux ont t proposs pour amliorer les performances de PSO, tout en essayant de remdier ce problme. Parmi ceux-ci,
nous avons dcrit les travaux bass sur lhybridation avec dautres mthodes, lutilisation
de plusieurs essaims, le mode dinitialisation des particules, la topologie de voisinage, etc.
Nous nous sommes inspirs de certains de ces travaux et dides novatrices pour concevoir, durant cette thse, plusieurs variantes de lalgorithme doptimisation par essaim particulaire. Ces variantes sont prsentes dans les chapitres 2 et 3 et analyses en utilisant
les fonctions de test et les problmes rels donns dans le prsent chapitre et dtaills en
annexe.
34

C HAPITRE D EUX

LABORATION D UN ALGORITHME
D O PTIMISATION PAR E SSAIM PARTICULAIRE
PSO-2S
2.1

Introduction

Lalgorithme doptimisation par essaim particulaire (PSO) est caractris par sa convergence rapide, ce qui peut conduire les algorithmes de ce type stagner dans un optimum
local [Shi 99]. Pour remdier ce problme et amliorer les performances de PSO standard,
plusieurs tentatives ont t faites, telles que les modles hybrides, les mcanismes inspirs
de la biologie et quelques modifications de base dans les quations de mise jour de la
vitesse et de la position (le poids dinertie w, la topologie, etc.) [Das 08].
Toujours dans le cadre de lamlioration de lalgorithme PSO, nous proposons dans ce
chapitre deux variantes pour remdier au problme de la convergence prmature de cet
algorithme. Dans la premire variante, nous proposons un algorithme, nomm PSO-2S,
qui est bas sur lutilisation de lapproche multi-essaims. Dans la deuxime variante, nous
proposons un algorithme, nomm DEPSO-2S, qui est une variante de PSO-2S base sur
lhybridation de deux algorithmes doptimisation, PSO et DE.
PSO-2S [El D 12a] se base sur trois ides principales. La premire ide consiste utiliser
deux types dessaims : un essaim principal, not S1, et S essaims auxiliaires, nots S2i , o
1 i S. La deuxime ide consiste partitionner lespace de recherche en plusieurs

zones o les essaims auxiliaires seraient initialiss (le nombre de zones est gal au nombre
dessaims auxiliaires, est donc gal S). La dernire ide consiste utiliser le concept de la
rpulsion lectrostatique, qui permet de couvrir plus largement chaque zone de lespace de
recherche. Ces trois ides sont appliques dans la premire phase de lalgorithme PSO-2S,
qui est la phase de construction de lessaim principal.
DEPSO-2S [El D 12b] est une variante de PSO-2S. Elle utilise les trois ides principales
sur lesquelles se base PSO-2S et qui sont prsentes dans le paragraphe prcdent. Par
35

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

contre, dans DEPSO-2S, lalgorithme DE est utilis pour construire lessaim principal au
lieu de lalgorithme PSO. Pour ce faire, nous proposons une nouvelle version de DE afin
de ladapter PSO-2S. Cette version est utilise uniquement dans la premire phase de
lalgorithme et son rle prend fin aprs la construction de lessaim principal. Une fois,
lessaim principal construit, lalgorithme continue la recherche de la mme faon que PSO2S.
Dans la section 2.2, nous commenons par dcrire lalgorithme PSO-2S. Ensuite, nous
prsentons une analyse exprimentale de cet algorithme et nous comparons ses performances celles des autres algorithmes de PSO proposs dans la littrature. Dans la section 2.3, nous commenons par dcrire lalgorithme DEPSO-2S. Ensuite, nous prsentons
des rsultats numriques obtenus par DEPSO-2S et dautres algorithmes de PSO et lalgorithme DE, et nous terminons en tablissant une comparaison entre les performances des
diffrents algorithmes.

2.2

Description de lalgorithme PSO-2S

Dans cette section, nous proposons un nouvel algorithme doptimisation par essaim
particulaire, nomm PSO-2S, pour rsoudre des problmes doptimisation continue. Afin
de bien comprendre le fonctionnement de cet algorithme, nous allons prsenter les principales techniques utilises, qui ont abouti laborer la structure finale de PSO-2S, en
plusieurs paragraphes. Nous commencerons par dcrire la structure gnrale de PSO-2S,
puis nous verrons ensuite chacune des stratgies mises en uvre.

2.2.1

Structure gnrale

PSO-2S est une nouvelle variante de lalgorithme doptimisation par essaim particulaire (PSO). Cette variante utilise plusieurs sous-essaims au lieu dun seul essaim. Lapproche gnrale de lalgorithme multi-essaims consiste diversifier la recherche afin dexplorer plusieurs zones de lespace de recherche. En effet, dans cette variante, nous utilisons
les sous-essaims dans diffrentes zones, o chaque sous-essaim est utilis pour explorer
une zone particulire. Les algorithmes multi-essaims sont adopts spcialement pour loptimisation de problmes multimodaux ayant plusieurs optima locaux.
PSO-2S utilise des essaims auxiliaires et un essaim principal. Les essaims auxiliaires
sont utiliss pour construire lessaim principal. Les essaims auxiliaires sont des sous36

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

DEBUT

Essaim principal

Initialisation

Espace de
recherche E

Essaim
ms auxiliaiires

Essaim 1
Zone1

Essaim 2
Zone2

OUI

Critre darrt
satisfait ?

NON

Essaim S
ZoneS

FIN
F IGURE 2.1: Schma fonctionnel de PSO-2S.

essaims qui possdent des rles limits. Un essaim auxiliaire a pour but de dcouvrir une
zone de lespace de recherche en effectuant un certain nombre ditrations, et son rle se
termine aprs la rception de linformation sur la meilleure position de la zone. Plus prcisment, les populations des essaims auxiliaires sont initialises alatoirement dans diffrentes zones, selon un partitionnement dj fait de lespace de recherche. Puis une force
de rpulsion lectrostatique est applique sparment sur les particules de chaque essaim
pour les diversifier dans sa zone correspondante. Ensuite, les particules de chaque essaim
effectuent nbgeneration gnrations (valeur prdfinie) dans leur zone et, la fin de ces gnrations, la meilleure position trouve est sauvegarde dans un tableau. Les meilleures
positions obtenues par tous les essaims auxiliaires sont donc regroupes dans un tableau
de taille gale au nombre des essaims initialiss et aussi au nombre de zones. Le tableau
final de toutes les meilleures positions regroupes composera ensuite la population initiale de lessaim principal. Une fois linitialisation de lessaim principal est acheve, les
essaims auxiliaires ne sont plus utiliss. Lessaim principal prend alors le relais et continue
la recherche de la mme faon que lalgorithme PSO standard jusqu atteindre un critre
darrt. La structure gnrale de PSO-2S est illustre dans la figure 2.1.

37

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

2.2.2

Utilisation de deux essaims

Lalgorithme PSO est connu pour sa convergence rapide, qui peut conduire une stagnation dans un optimum local [Shi 99]. Nous profitons de cette convergence rapide pour
dtecter plusieurs optima locaux. La dtection des optima locaux consiste effectuer plusieurs recherches sur diffrents sites partir de plusieurs essaims. Les optima dtects sont
utiliss pour construire un essaim principal.
Comme nous lavons indiqu dans la section prcdente, PSO-2S consiste utiliser des
essaims auxiliaires (S2i ) pour construire son essaim principal (S1). Les essaims auxiliaires
sont situs dans plusieurs zones de lespace de recherche et ils sont de tailles diffrentes qui
correspondent aux tailles des zones prdfinies par la partition de lespace de recherche.
Nous en dduisons que la taille de lessaim dpend de la taille de sa zone (zone i correspondant lessaim S2i ), o la plus petite zone de lespace de recherche contient lessaim
contenant le moins de particules. Les essaims auxiliaires nvoluent pas au cours du temps
et leurs tailles restent donc fixes. Le but est dexplorer simultanment plusieurs rgions
de lespace de recherche, gnralement des optima locaux, avant que lessaim principal
ne prenne une dcision globale. Les essaims auxiliaires peuvent effectuer leurs travaux
de manire synchrone ou asynchrone, cest--dire que les essaims peuvent travailler en
parallle (i.e. les essaims travaillent en mme temps) ou en squence (i.e. un essaim finit avant quun autre ne commence). Dans les deux cas, les essaims auxiliaires effectuent
leurs recherches sans communiquer entre eux, cest--dire que le travail de chaque essaim
auxiliaire est indpendant de celui des autres essaims.
Dans PSO-2S, les particules de lessaim auxiliaire sont initialises alatoirement dans la
zone qui lui correspond. Aprs linitialisation, chaque essaim excute nbgeneration itrations
de la mme faon que PSO standard, et il procure la fin de ces itrations la meilleure position trouve pendant la recherche. Le but, dans la gnration dun petit nombre ditrations est dexplorer uniquement la rgion o lessaim a t initialis, et donc le plus grand
nombre ditrations est laiss pour lessaim principal. Du fait de la convergence rapide
de lalgorithme PSO et de lutilisation de lapproche multi-essaims dans un espace partitionn, les essaims auxiliaires dans PSO-2S convergent chacun vers une position intressante dans les diffrentes zones de lespace, et donc le cas o plusieurs essaims convergent
vers la mme position est vit. Ces positions sont des optima locaux des problmes obtenus des diffrentes zones. Donc, chaque fois que lessaim auxiliaire termine son travail, la
meilleure solution trouve par cet essaim est ajoute, comme une particule initiale, les38

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

saim principal S1. La taille de population de lessaim principal S1 est donc gale au nombre
des essaims auxiliaires S2i . La phase de construction de lessaim S1 se termine aprs avoir
gnr tous les essaims S2i . Aprs cette phase, S1 prend le relais et continue seul faire
une recherche globale dans lespace. A la diffrence de PSO standard, la deuxime phase
de PSO-2S (phase de lessaim principal) commence la recherche avec des particules bien
positionnes dans lespace (cest--dire des positions intressantes dans les diffrentes rgions). En effet, S1 effectue les itrations restantes (nombre ditrations restantes = nombre
total ditrations - nombre ditrations rserves aux essaims auxiliaires) et sarrte lorsquon atteint un critre darrt. La phase de construction de lessaim principal S1 est illustre dans la figure 2.2.
Les essaims auxiliaires
S21

S22

S23

S2S-1

S2S

Chaque essaim effectue K


gnrations et procure chaque
fois sa meilleur solution trouve,
note gbesti
Construire S1 partir
de chaque gbesti
sauvegard

gbest1 de S21

gbest2 de S22

gbest3 de S23

gbestS-1 de S2S-1 gbestS de S2S

Lessaim principal

F IGURE 2.2: Construction de lessaim principal partir des essaims auxiliaires.

2.2.3

Partitionnement de lespace de recherche

Dans la vie quotidienne, le partage des tches aboutit dans la plupart des cas des
rsultats intressants. Par exemple, la recherche des trsors perdus ou le forage des puits
de ptrole, o lon commence la recherche en leffectuant sur plusieurs rgions prdfinies,
pour ensuite intensifier la recherche dans les zones prometteuses. Nous nous inspirons de
ce modle de recherche pour trouver une solution optimale du problme doptimisation
et, cet effet, nous proposons de partitionner lespace de recherche en plusieurs zones.
39

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

La recherche de PSO-2S est faite alors dans un espace de recherche partitionn et donc
nous partitionnons lespace de recherche E en plusieurs zones spares, dans lesquelles les
essaims auxiliaires sont initialiss. Ce partitionnement contribue augmenter la diversification des particules dans tout lespace de recherche, et dassurer une bonne couverture
pendant la phase dinitialisation. En pratique, nous fixons un nombre maximal de zones,
dnomm maxzone , qui est gal au nombre des essaims auxiliaires S. Les zones qui forment
lespace de recherche E sont dfinies par :
zonei , 1 i S tels que

S
[

i =1

zonei = E; ( i,j {1, . . . , S}, zonei zone j = )

Afin de partitionner un espace de recherche E de dimension D (E = [mind , maxd ] D )


en maxzone zones, o mind et maxd reprsentent respectivement les bornes infrieure et
suprieure dans chaque dimension d, 1 d D, nous dfinissons le centre de lespace de

recherche comme un point de dpart pour le partitionnement. Les centres des intervalles,
qui dfinissent les bornes dans chaque dimension d, sont dfinis par lquation suivante :

centred =

(maxd + mind )
2

(2.2.1)

Une fois que les centres dintervalles sont dfinis, nous commenons par partitionner les
intervalles de chaque dimension, et donc lespace de recherche, en se basant sur ces centres.
A cet effet, nous devons calculer un pas pasd pour chaque intervalle [mind , maxd ]. Les pasd
sont utiliss pour construire les nouvelles bornes [zoneimin , zoneimax ] de chaque zone i, 1
i maxzone . Le pasd de chaque dimension est calcul selon la formule suivante :
pasd =

maxd mind
2 maxzone

(2.2.2)

Chaque zone [zoneidmin , zoneidmax ] D est dtermine en utilisant les deux quations suivantes :
zoneidmin = centred i pasd

(2.2.3)

zoneidmax = centred + i pasd

(2.2.4)

40

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

o zoneidmin et zoneidmax sont, respectivement, les bornes infrieures et les bornes suprieures de chaque zone. La figure 2.3 et la figure 2.4 illustrent le partitionnement de lespace
de recherche dans les cas uniforme et non uniforme.
(max1 , max2)
E

pas

(0,0)

X
zone 1
zone 2
zone 3
zone 4
zone 5

(min1 , min2)
Y

F IGURE 2.3: Partitionnement dun espace de recherche uniforme.

E
pas2

pas1

max2

centre2

min2
X
(0,0)

min1

centre1

max1

F IGURE 2.4: Partitionnement dun espace de recherche non uniforme.


41

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

Comme nous pouvons le voir sur les figures 2.3 et 2.4, les zones partitionnes de lespace de recherche E sont de tailles diffrentes (zone1 < zone2 < zone3 < < zoneS ).

Cest pourquoi, nous prenons en considration leurs tailles pour dfinir les tailles des populations des essaims auxiliaires initialiser dans les diffrentes zones. En effet, nous commenons linitialisation par la plus petite zone, qui prend un minimum de particules, pour
augmenter ensuite ce nombre en fonction de la taille de chaque zone. La taille de population de chaque essaim auxiliaire S2i est calcule comme suit :
S2isize = numzone nb particule

(2.2.5)

o, numzone {1, 2, . . . , maxzone } est le numro de la zone courante et nb particule est un

nombre fixe.

Pour viter un nombre excessif de particules lorsque lon utilise un grand nombre de
zones, le choix dune petite valeur pour le paramtre nb particule sera indispensable. Donc,
la valeur de nb particule dpend de la valeur de maxzone .
Le pseudo-code dinitialisation des essaims auxiliaires est prsent dans la procdure
2.1.

2.2.4

Rpulsion lectrostatique des particules

Dans ce paragraphe, nous allons prsenter lheuristique de rpulsion lectrostatique


utilise dans lalgorithme PSO-2S. Lutilisation de cette heuristique vise couvrir lespace
de recherche plus largement que dhabitude, et ce, en essayant de diversifier les particules
dans les diffrentes zones pendant la phase dinitialisation.
A linitialisation, chaque essaim auxiliaire se compose de particules positionnes alatoirement et qui risquent donc de ltre de manire irrgulire dans la zone concerne.
Certaines particules sont alors proches les unes des autres et dautres sont isoles. Ceci est
d lutilisation dun gnrateur alatoire, qui conduit parfois un dsquilibre dans la
distribution des particules. Pour remdier ce problme, nous proposons dutiliser une
heuristique de rpulsion lectrostatique issue de [Conw 98]. Cette heuristique considre
un ensemble de points (particules) de lespace comme des particules charges se repoussant mutuellement. A partir dun ensemble arbitraire de points, chaque point est repouss
itrativement selon une force en 1/r2 , o r reprsente la distance entre deux points. Lheuristique est excute jusqu la satisfaction dun critre darrt. Cette technique a t utilise
42

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

Initialisation PSO-2S
1

Entres : max, min, maxzone

centre (max + min)/2, pas (max min)/2 maxzone

3
4
5

si (p = 1) alors
pour s = 1 S2 p .size faire
S2 p .X [s] alea_X ([centre pas, centre + pas] D )
S2 p .V [s] alea_V ([centre pas, centre + pas] D )
fin

sinon
pour s = 1 S2 p .size faire
rpter
S2 p .X [s] alea_X ([centre pas p, centre + pas p] D )

7
8
9
10
11

tant que (isInside(S2 p .X [s], p 1))

12

fin

13

pour s = 1 to S2 p .size faire


rpter
S2 p .V [s] alea_V ([centre pas p, centre + pas p] D )

14
15
16

tant que (isInside(S2 p .V [s], p 1))

17

fin

18

retourner S2 p
fin

19
20

fin

P ROCDURE 2.1: La procdure dinitialisation des essaims auxiliaires de PSO-2S.


dans un algorithme doptimisation dynamique base dagents, nomm MADO [Lepa 10].
Dans MADO, l heuristique est utilise pour positionner les agents initiaux dans lespace
de recherche. Cependant, dans PSO-2S, elle est utilise pour repositionner les particules
des essaims auxiliaires dans chaque zone.
Dans un premier temps, nous initialisons toutes les particules de manire alatoire dans
les diffrentes zones, en considrant chaque particule comme un lectron charg. Puis une
force de rpulsion en 1/r2 , o r est la distance entre deux particules, est applique sur
les particules de chaque zone, jusqu ce que le dplacement maximal dune particule au
cours dune itration, dsign par maxdisp , devienne infrieur un seuil donn . Dans un
espace de recherche normalis [0, 1] D , o D est la dimension de lespace de recherche, ce
seuil est fix 104 . Cette valeur associe est utilise plusieurs fois dans la littrature,
en particulier dans [Lepa 10].

43

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

Le pseudo-code de la rpulsion des particules est prsent dans la procdure 2.2. A


chaque itration de lheuristique, la force de rpulsion ~F sappliquant la particule ~
Pi , sous
leffet des autres particules de lessaim auxiliaire, est calcule la ligne 7 de ce pseudocode. Ensuite, le coefficient step est adapt (augmente ou diminue) de faon maximiser
le dplacement (step.~F) de la particule ~
Pi , sous la contrainte dabsence daccroissement de
lnergie e du systme. Dans cet algorithme, la fonction crop est utilise la ligne 10 pour
centrer les particules repousses de la zone courante de lespace de recherche. Elle projette
chaque particule ~
Pi sur le point le plus proche du centre de la zone, comme lillustre la figure 2.5. On rpte les oprations de rpulsion et de projection (crop) jusqu ce quaucune
particule ne se dplace dune distance suprieure .

(a)

(b)

(c)
ime

F IGURE 2.5: La fonction crop : (a) lessaim auxiliaire ltape n


de lheuristique de rime
pulsion aprs lapplication de la fonction crop, (b) lessaim auxiliaire ltape (n + 1)
ime
aprs la rpulsion, (c) lessaim auxiliaire ltape (n + 1)
aprs lapplication de la fonction crop de nouveau.
Le pseudo-code principal de lalgorithme PSO-2S est prsent dans la procdure 2.3.
Ainsi, un exemple illustr dans la figure 2.6 montre les positions des particules avant et
aprs lutilisation de lheuristique de rpulsion dans la zone 3 (cas de dimension 2). En
se basant sur cette figure, nous pouvons imaginer la forme initiale de la population dun
essaim auxiliaire dans PSO-2S. Les positions des particules obtenues aprs lutilisation de
lheuristique de rpulsion forment la population initiale de lessaim auxiliaire, qui son
tour effectue nbgeneration gnrations et procure la meilleure solution trouve.

2.2.5

Recherche locale de PSO-2S

Afin damliorer le fonctionnement de lalgorithme PSO-2S tout au long de la recherche, nous proposons dintgrer une procdure de recherche locale, grce laquelle
44

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

Rpulsion
1

Entres : = 104

Variables locales : step, maxdisp , e, ~F, ~


Pi , ~
Pj , ~
Pi

3
4
5
6
7
8

step 1
rpter
maxdisp 0

pour tout particule ~


Pi P (population de lessaim auxiliaire) faire
~Pi ~Pj
~F j6=i
3
k~Pi ~Pj k
e j 6 =i

k~Pi ~Pj k

rpter
~P crop(~pi + step.~F )
i

9
10

11

si e < j6=i

12

step 2
sinon
step step 2
fin

13
14
15

alors

step

tant que step peut tre adapt et e < j6=i

16

si k~
Pi ~
Pi k > maxdisp alors
maxdisp k~
Pi ~
Pi k

17
18

1
2
~
~
P
k i Pj k

fin

19
20
21

k~Pi ~Pj k

fin

~
~Pi P
i

22

tant que maxdisp >

23

retourner P

P ROCDURE 2.2: Heuristique de rpulsion lectrostatique utilise pour repositionner les


particules.

45

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

PSO-2S
1

Entres : maxzone , nb particule , nbgeneration

S1.size maxzone
pour p = 1 maxzone faire
S2 p .size nb part * p
S2 p init_swarm(S2 p .size, p)
rpulsion(S2 p , p)
pour i = 1 S2 p .size faire
Vi Vi + 1 (X pbesti - Xi ) + 2 (Xgbest p - Xi )
Xi Xi + Vi
si f ( Xi ) < Pbesti alors
Pbesti f ( Xi )
X pbesti Xi

3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21

22
23

fin

fin
fin
S1.X [ p] Xgbest[ p]
rpter
pour i = 1 maxzone faire
Mettre jour Vi et Xi de lessaim S1 selon les quations (1.3.1) et (1.3.2)
Evaluer Xi
Mettre jour Pbesti et Gbest de lessaim S1 en utilisant les quations (1.3.3) et
(1.3.4)
fin
tant que le critre darrt nest pas satisfait
P ROCDURE 2.3: Algorithme PSO-2S.

46

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

(a)

(b)

F IGURE 2.6: Procdure de rpulsion : (a) (zone3 , S23 ) avant rpulsion, (b) (zone3 , S23 ) aprs
rpulsion.
sera intensifie chaque itration dans la zone la plus prometteuse contenant loptimum
global, dune manire peu couteuse en nombre dvaluations.
La recherche locale de PSO-2S seffectue dans la deuxime phase de PSO-2S, cest-dire aprs la phase de construction de lessaim principal. Cette recherche ne concerne pas
les essaims auxiliaires, dont le travail est limit dcouvrir des zones prometteuses et
construire lessaim principal. Donc le rle des essaims auxiliaires consiste explorer et
non exploiter lespace de recherche. Ceci dit, la recherche locale est faite uniquement par
lessaim principal, o elle intervient chaque itration en effectuant une recherche dans le
voisinage de la meilleure solution trouve gbest de lessaim S1. Le principe gnral de cette
recherche locale est le suivant : partir de la meilleure solution gbest, o lon connat la valeur de la fonction objectif f ( gbest), on cherche la meilleure solution dans son voisinage
(seulement deux voisins) en ajoutant et soustrayant du bruit sur une de ses dimensions.
Ce bruit, nomm d x , a une valeur plus petite que celle du pas calcul, dans l quation
(2.2.2), pour partitionner lespace de recherche. En effet, on choisit alatoirement une dimension d {1, . . . , D } puis, une fois, on ajoute le bruit d x sur gbest et, une autre fois,

on le soustrait, tout en essayant de dplacer gbest vers une meilleure solution voisine. Si
lon parvient amliorer gbest alors on le remplace par la nouvelle solution trouve, sinon
rien ne change. Cette procdure de recherche ne ncessite pas beaucoup dvaluations et
permet lalgorithme davoir plus de chances damliorer sa meilleure solution gbest tout
au long de la recherche. Il est noter que lide de cette recherche locale, faire un petit
mouvement une fois droite puis une fois gauche , nest pas tout fait nouvelle
(voir par exemple dans [Boya 98]). Le pseudo-code de lalgorithme de la recherche locale
est prsent dans la procdure 2.4.
47

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

Recherche locale

10

Entres : d x
Choisir alatoirement une dimension d {1, . . . , D }
Xbest gbest
pour i = 1 D faire
si i = d alors
d
d +d
S1.Xnewbest
S1.Xbest
x
fin
sinon
i
i
S1.Xnewbest
S1.Xbest
fin

11

fin

12

19

i
valuer f ( Xnewbest
), comparer avec f ( Xbest ) et garder la meilleure position
pour i = 1 D faire
si i = d alors
d
d d
S1.Xnewbest
S1.Xbest
x
fin
sinon
i
i
S1.Xnewbest
S1.Xbest
fin

20

fin

21

i
valuer f ( Xnewbest
), comparer avec f ( Xbest ) et garder la meilleure position

1
2
3
4
5
6
7
8
9

13
14
15
16
17
18

P ROCDURE 2.4: La recherche locale utilise dans lalgorithme PSO-2S.

48

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

2.2.6

Rsultats et analyse

Dans cette section, nous prsentons les rsultats numriques obtenus par PSO-2S, ainsi
que des comparaisons avec dautres algorithmes, en utilisant les fonctions de test prsentes en annexe. Lintrt est de montrer que PSO-2S donne des rsultats encourageants.
Nous commenons par une discussion sur le paramtrage de PSO-2S et des autres algorithmes. Ensuite, nous effectuons une analyse de la complexit de PSO-2S, ainsi quune
analyse de la sensibilit de ses paramtres. Enfin, nous ralisons une analyse exprimentale de lalgorithme, ainsi quune comparaison de ses performances celles des autres
algorithmes de la littrature.
2.2.6.1

Paramtrage

Des expriences ont t effectues pour comparer lalgorithme que nous avons propos
cinq autres algorithmes de PSO (EPUS-PSO, CLPSO, CPSO-H, UPSO, SPSO2007), et ce en
utilisant les fonctions (en 10-D et 30-D) prsentes en annexe. Les rsultats pour les deux algorithmes PSO-2S et SPSO2007 ont t obtenus grce aux versions codes en C dans notre
laboratoire. Les paramtrages et les rsultats de toutes les autres variantes de PSO ont t
tirs de [Hsie 09], o ces variantes ont t mises en uvre en utilisant Matlab 7.1. PSO-2S
et SPSO2007 utilisent une topologie lbest alatoire pour changer les informations entre les
particules, UPSO [Pars 04] utilise une combinaison de topologies lbest et gbest, et CLPSO
[Lian 06] utilise la stratgie globale dapprentissage (comprehensive learning strategy) pour
mettre jour les vitesse des particules. Le tableau 2.1 rcapitule les valeurs des paramtres,
le coefficient d inertie w et les coefficients dacclration c1 et c2 , de PSO-2S et des autres
algorithmes. Deux types de tests sont dfinis : le premier tudie lerreur moyenne et lcarttype aprs un nombre fix dvaluations de la fonction objectif et le deuxime tudie le taux
de russite, lerreur moyenne et lerreur minimale aprs un nombre fix dvaluations ou
aprs avoir atteint une prcision donne.
1. Le premier test consiste excuter le mme algorithme 30 fois sur chacun des problmes, une fois en 10-D et une autre en 30-D. Lerreur moyenne et lcart-type sont
calculs sur les 30 excutions. Un critre darrt unique est utilis : lalgorithme sarrte si le nombre dvaluations de la fonction objectif dpasse Max Fes , o Max Fes est
fix 40000 en 10-D et 150000 en 30-D. Les paramtres de lalgorithme propos,
dsigns par nbgeneration et nb particule , sont fixs 5 et 2 respectivement, dans les deux
49

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

Variantes de PSO

Coefficient dinertie

Coefficients dacclration

PSO-2S ([El D 12a])

w=

1
2ln(2)

c1 = c2 = 0,5 + ln(2)

EPUS-PSO ([Hsie 09])

w=

1
2ln(2)

c1 = c2 = 0,5 + ln(2)

CLPSO ([Lian 06])

w( g) = 0,9

0,5 g
max gen

c1 = c2 = 1,49

CPSO-H ([Berg 04])

w( g) = 0,9

0,5 g
max gen

c1 = c2 = 1,49

UPSO ([Pars 04])

w = 0,72

SPSO2007 ([Cler 12])

w=

c1 = c2 = 1,49

1
2ln(2)

c1 = c2 = 0,5 + ln(2)

TABLEAU 2.1: Paramtrages des algorithmes.


cas (10-D et 30-D). Ainsi, le paramtre maxzone est fix 20, sachant que ce paramtre
dfinit aussi la taille dessaim principal S1. La taille de population S de lalgorithme
SPSO2007 est fixe 16 et 20 (ici S est automatiquement calcul selon la formule :

S = 10 + 2 D) dans les deux cas, 10-D et 30-D respectivement. La taille de population des autres algorithmes est similaire celle utilise dans PSO-2S.
2. Le deuxime test consiste dterminer lerreur moyenne, lerreur minimale et le taux
de russite aprs avoir atteint un des deux critres darrt (un nombre fix dvaluations ou une prcision donne). Lalgorithme sarrte si lerreur entre la meilleure particule de lessaim et lobjectif est infrieure une prcision donne, ou si le nombre
dvaluations de la fonction objectif est suprieur Max Fes . Le tableau 2.2 prsente
les fonctions utilises dans ce test, ainsi que leurs paramtres (Espace de recherche,
Max Fes et Erreur acceptable). Les autres paramtres restent les mmes que dans le
premier test. Pour ce test, les rsultats sont enregistrs aprs avoir excut chaque
algorithme 100 fois sur chacun des problmes du tableau 2.2. Mais, contrairement
au premier test, ce test a t effectu pour montrer lintrt dutiliser lheuristique de
rpulsion dans PSO-2S.

2.2.6.2

Analyse de complexit

Lensemble des processus excuts dans PSO-2S est prsent dans le tableau 2.3, ainsi
que leurs complexits. La complexit totale de PSO-2S est calcule en additionnant les
50

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

Fonction

Espace de recherche

Erreur acceptable

MaxFes

f3

Rosenbrock

[10, 10]30

0,0001

40000

f4

Ackley

[32, 32]30

0,0001

40000

f5

Rastrigin

[10, 10]30

0,0001

40000

f8

Griewank

[100, 100]30

0,0001

40000

f9

Tripod

[100, 100]2

0,0001

40000

f 16

Shifted Rosenbrock

[100, 100]10

0,01

100000

f 17

Shifted Ackley

[32, 32]30

0,0001

100000

f 18

Shifted Rastrigin

[5, 5]30

0,0001

100000

f 19

Shifted Griewank

[600, 600]30

0,0001

100000

f 20

Shifted Sphere

[100, 100]30

0,0001

100000

TABLEAU 2.2: Paramtres des fonctions utilises pour le deuxime test.


complexits de chacun de ses processus. Enfin, pour un jeu de paramtres de PSO-2S fix,
et pour un nombre dvaluations fixe, nous obtenons une complexit en O(d) pour PSO-2S
dans le pire des cas de calcul, o d est la dimension du problme.
2.2.6.3

Analyse de la sensibilit des paramtres

Dans cette section, nous tudions la sensibilit de PSO-2S en faisant varier deux de ses
paramtres sparment (nbgeneration et maxzone ), et en laissant les autres paramtres fixs
des valeurs donnes par dfaut dans le tableau 2.1. Nous choisissons deux fonctions,
f 17 et f 18 en 30-D, pour tudier les paramtres nbgeneration et maxzone . Lalgorithme PSO-2S
sarrte lorsque 75000 valuations sont effectues, et lerreur moyenne et lcart-type sont
calculs en excutant lalgorithme 30 fois.
Dabord, nous tudions la sensibilit du paramtre nbgeneration . nb particule est fix 2 et
maxzone est fix 20. Le paramtre nbgeneration varie de 0 25 par pas de 5. La figure 2.7-a
et la figure 2.7-b montrent lerreur moyenne sur laxe y, pour chaque valeur du paramtre
nbgeneration qui varie sur laxe x. Comme nous le constatons sur ces figures, il est prfrable
deffectuer plusieurs gnrations des essaims S2i pour construire lessaim S1, ce qui garantit que lalgorithme soit en mesure davoir des bonnes performances. En f 17 , nous pouvons
constater que la valeur moyenne oscille quand nbgeneration augmente, et elle devient stable
51

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

Processus

Complexit

Nombre total dvaluations


linitialisation

2
O nbgeneration maxzone
nb particule

Nombre de gnrations
linitialisation

O nbgeneration maxzone nb particule

Nombre de gnrations
aprs linitialisation

Max Fes
maxzone

nbgeneration maxzone nb particule

Gnration alatoire des particules

Heuristique de
des particules

O(d maxzone )

rpulsion



log

 2
1

2
d maxzone

Une seule gnration de PSO

2
O(maxzone
+ d maxzone )

PSO-2S pendant la phase


dinitialisation


nbgeneration maxzone nb particule


2

maxzone + d maxzone +
O


 2
1
2
log
d maxzone

PSO-2S pendant la phase


principale

Complexit totale de PSO2S

Max Fes
maxzone

 !
nbgeneration maxzone nb particule

2
maxzone
+ d maxzone

MaxFes (maxzone + d) + log

1
ffl

TABLEAU 2.3: Analyse de la complexit de PSO-2S.

52

2

max2zone

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

lorsque nbgeneration = 10. Alors que, pour f 18 , nous remarquons toujours une amlioration
de lerreur moyenne avec laugmentation de nbgeneration . Par consquent, nbgeneration doit
sadapter avec le problme utilis. Par ailleurs, lcart-type ne varie pas significativement
avec le changement de nbgeneration .
De la mme faon, nous tudions la sensibilit du paramtre maxzone sur les mmes
fonctions utilises pour le paramtre nbgeneration . nb particule est encore fix 2 et la valeur
de nbgeneration fixe 5. Les rsultats obtenus montrent que lerreur moyenne samliore en
augmentant la valeur de maxzone , pour les deux fonctions f 17 et f 18 . Lcart-type diminue
aussi avec laugmentation du nombre de zones (i.e. le paramtre maxzone ). La figure 2.7-c
et la figure 2.7-d montrent les amliorations de lerreur moyenne et de lcart-type.
Pour conclure, nous pouvons remarquer que linfluence de maxzone sur les performances de PSO-2S est plus importante que celle du paramtre nbgeneration . Par consquent,
nous pouvons donner nbgeneration une valeur faible (environ 5) dans le but dutiliser un
petit nombre dvaluations pour la construction de lessaim principal S1. En effet, la diminution de la valeur de nbgeneration va nous permettre daccrotre le nombre de zones, sans
augmenter le nombre dvaluations, et donc damliorer les performances de lalgorithme
avec le mme nombre dvaluations.
2.2.6.4

Comparaison avec dautres algorithmes

Rsultats des problmes en 10-D

Le tableau 3.2 prsente les rsultats obtenus par PSO-

2S et cinq autres algorithmes de PSO, en termes derreurs moyennes et dcarts-types sur


30 excutions. Nous utilisons le premier test expliqu dans la section 2.2.6.1 sur les problmes prsents dans la section 1.4.1 en dimension 10. Les meilleurs rsultats parmi ceux
obtenus par les six algorithmes sont prsents en gras.
Au vu de ces rsultats exprimentaux, nous remarquons que lalgorithme propos
PSO-2S obtient les meilleurs rsultats sur la plupart des fonctions utilises. Il est suivi en
deuxime place par lalgorithme EPUS-PSO. PSO-2S surpasse EPUS-PSO pour 7 fonctions
sur 13, il obtient les mmes rsultats pour 3 fonctions et il est surpass par EPUS-PSO sur 3
fonctions. Par ailleurs, nous pouvons remarquer que PSO-2S et EPUS-PSO obtiennent des
rsultats significativement meilleurs que les autres algorithmes sur f 5 , f 7 et f 15 . Dautre
part, lalgorithme que nous avons propos est meilleur que lalgorithme SPSO2007 sur
toutes les fonctions testes, sauf sur la fonction f 1 .
Le temps dexcution pour les 30 excutions de PSO-2S et SPSO2007 est prsent dans
53

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

2.50E+00

Valeur moyenne

2.00E+00
1.50E+00
1.00E+00
5.00E-01
0.00E+00
0

10

15

20

25

15

20

25

nbgeneration
K
(a)
9.00E+01

Valeur moyenne

8.00E+01
7.00E+01
6.00E+01
5.00E+01
4.00E+01
3.00E+01
0

10

nbgeneration
K
(b)
9.00E+00
8.00E+00

Valeur moyenne

7.00E+00
6.00E+00
5.00E+00
4.00E+00
3.00E+00
2.00E+00
1.00E+00
0.00E+00
10

20

30

40

50

40

50

maxzone

(c)
1.20E+02

Valeur moyenne

1.00E+02
8.00E+01
6.00E+01
4.00E+01
2.00E+01
0.00E+00
10

20

30
maxzone

(d)

F IGURE 2.7: Analyse de la sensibilit des paramtres de PSO-2S : (a) lvolution du paramtre nbgeneration pour f 17 , (b) lvolution du paramtre nbgeneration pour f 18 , (c) lvolution
du paramtre maxzone pour f 17 , (d) lvolution du paramtre maxzone pour f 18 .
54

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

le tableau 2.5. Nous pouvons remarquer que le temps dexcution de PSO-2S, en utilisant
lheuristique de rpulsion, est infrieur celui de SPSO2007, pour toutes les fonctions,
except la fonction f 6 .

Rsultats des problmes en 30-D Les rsultats exprimentaux pour les problmes en 30D sont prsents dans le tableau 3.3. Comme en 10-D, Nous comparons les algorithmes par
rapport lerreur moyenne et lcart-type sur 30 excutions, et ceci, en utilisant les mmes
fonctions dj utilises en 10-D.
Bien que les problmes en 30-D soient plus compliqus que ceux en 10-D, PSO-2S
obtient toujours de bonnes performances. Les rsultats montrent que PSO-2S se met
lchelle avec le nombre de dimensions utilises. Comme nous pouvons le voir, les rsultats obtenus en 30-D ne sont pas significativement diffrents de ceux obtenus en 10-D. Par
ailleurs, PSO-2S surpasse les autres algorithmes de PSO pour huit fonctions, et EPUS-PSO
est toujours class deuxime par rapport aux autres. PSO-2S surpasse de manire significative les autres algorithmes pour f 2 , f 7 et f 10 . Lalgorithme propos est meilleur que
lalgorithme SPSO2007 pour toutes les fonctions, sauf pour f 12 . Nous constatons aussi que
CLPSO obtient des rsultats significativement meilleurs que les autres algorithmes pour
f 12 .
Comme en 10-D, nous avons calcul le temps dexcution de PSO-2S et SPSO2007 en 30D. Les rsultats sont prsents dans le tableau 2.7. Selon ces rsultats, le temps dexcution
de PSO-2S est toujours comparable celui de SPSO2007.

2.2.6.5

Comparaison de PSO-2S, avec et sans heuristique de rpulsion, avec SPSO2007

Dans cette section, nous allons tudier leffet de lheuristique de rpulsion sur lalgorithme PSO-2S, et comparer les rsultats obtenus par PSO-2S avec et sans lheuristique
ceux de SPSO2007. Les rsultats sont exprims en termes suivants : erreur moyenne, erreur
minimale, taux de russite et temps dexcution de 100 excutions pour chaque algorithme.
Les fonctions de test utilises dans cette comparaison et leurs paramtres sont prsents
dans le tableau 2.2.
Les rsultats obtenus sont prsents dans le tableau 2.8. Nous utilisons dans cette comparaison des fonctions qui sont translates par rapport leur forme dorigine pour montrer lefficacit de PSO-2S. Car il existe des algorithmes qui ont la capacit de converger
55

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

PSO-2S

EPUS-PSO

CLPSO

CPSO-H

UPSO

SPSO2007

f1

1,05e-086

3,10e-086

5,55e-153

2,44e-134

4,02e-021

6,49e-021

9,01e-010

1,38e-009

5,52e-090

1,18e-089

4,00e-101

1,80e-100

f2

6,18e-028

2,13e-027

9,32e-012

4,16e-011

5,04e+002

1,99e+002

1,62e+003

9,35e+002

7,18e+001

7,63e+001

1,83e-027

4,03e-027

f3

2,35e-002

1,56e-002

9,13e-002

1,05e-001

2,84e+000

1,05e+000

1,08e+000

1,18e+000

2,89e-001

7,36e-002

3,10e-001

9,95e-001

f4

4,12e-015

1,21e-015

2,72e-015

1,50e-015

1,78e-011

1,63e-011

7,02e-006

5,77e-006

3,32e-015

8,86e-016

3,85e-001

2,07e-001

f5

0,00e+000

0,00e+000

0,00e+000

0,00e+000

2,35e-009

2,72e-009

3,83e-010

7,36e-010

9,28e+000

2,97e+000

5,11e+000

2,29e+000

f6

5,85e-003

2,35e-002

3,21e-002

8,11e-002

2,06e+000

4,80e-001

4,12e+000

1,72e+000

1,94e+000

1,13e+000

4,04e-002

1,78e-001

f7

1,35e-032

5,47e-048

1,35e-032

5,47e-048

4,32e-001

4,10e-001

1,09e+006

2,14e+006

1,35e-032

5,47e-048

7,32e-004

2,74e-003

f 10

3,38e-009

9,02e-009

3,99e-007

1,63e-006

8,27e+002

3,35e+002

2,15e+003

1,19e+003

1,01e+002

9,50e+001

1,02e-007

4,12e-007

f 11

4,21e-001

7,77e-002

8,96e-001

2,15e+000

6,44e+000

4,56e+000

3,01e+000

2,52e+000

1,11e+000

1,18e+000

5,73e-001

1,05e+000

f 12

1,56e+001

2,28e+000

2,61e-015

1,57e-015

8,45e-008

2,97e-007

1,31e+000

9,68e-001

7,70e-002

2,88e-001

2,03e+001

8,54e-002

f 13

2,65e-001

9,93e-001

7,26e+000

4,31e+000

8,85e+000

3,07e+000

2,81e+001

1,39e+001

1,18e+001

5,66e+000

1,26e+001

7,00e+000

f 14

6,43e-001

3,45e-001

1,12e+000

1,36e+000

1,98e+000

5,38e-001

3,48e+000

1,41e+000

1,84e+000

1,02e+000

4,20e+000

1,50e+000

f 15

1,35e-32

5,47e-048

1,35e-032

5,47e-048

4,36e-001

5,55e-001

1,09e+006

2,37e+006

2,77e+000

6,22e+000

1,10e-003

3,30e-003

7/10

12/13

12/13

9/12

12/13

Performance
de PSO-2S

TABLEAU 2.4: Comparaison des erreurs moyennes et des carts-types des algorithmes en
10-D.
56

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

Function
PSO-2S

f1

f2

f3

f4

f5

f6

f7

f 10

f 11

f 12

f 13

f 14

f 15

10,016 4,731 6,864 10,657 5,855 143,526 9,250 5,550 8,276 11,947 7,737 103,474 10,224

SPSO2007 11,259 12,559 11,042 13,356 12,801 106,760 16,110 12,328 12,057 14,117 13,451 107,067 16,585

TABLEAU 2.5: Temps de calcul de 30 excutions pour chacun des algorithmes PSO-2S et
SPSO2007, en 10-D.
plus rapidement si loptimum global est situ soit lorigine [0, 0, . . . , 0] soit au centre de
lespace de recherche [Zhon 04]. Daprs ces rsultats, nous pouvons constater que PSO-2S
avec lheuristique de rpulsion donne de meilleures performances, et il surpasse SPSO2007
pour toutes les fonctions, excepte f 19 . De plus, les taux de russite prsents dans ce tableau montrent lefficacit de lalgorithme propos.
Un test statistique de Wilcoxon-Mann-Whitney [Wilc 45, Mann 47], est appliqu sur les
rsultats de PSO-2S et SPSO2007, avec un niveau de confiance de 95%, afin de dterminer
si leurs performances sont significativement diffrentes ou non. PSO-2S et SPSO2007 ont
t excuts 100 fois et les valeurs des meilleures solutions trouves la fin de chaque excution ont t utilises pour calculer les valeurs de W et P-value. Ces valeurs sont donnes
dans le tableau 2.8 dans les deux dernires colonnes. La valeur de P-value est prsente
en gras quand les rsultats sont significativement diffrents. Nous pouvons conclure que
PSO-2S surpasse SPSO2007 pour toutes les fonctions avec des rsultats significativement
diffrents, sauf pour f 19 .
Ce travail a fait lobjet de la publication dun article dans la revue Computational Optimization and Applications [El D 12a].

2.3

DEPSO-2S : hybridation de PSO-2S avec un algorithme


volution diffrentielle DELG

DEPSO-2S est une nouvelle variante de PSO-2S issue des amliorations de cet algorithme. DEPSO-2S est bas sur lhybridation de deux mtaheuristiques : DE et PSO. Ces
deux dernires ont connu un grand dveloppement ces dernires annes, ainsi quun
nombre important dapplications industrielles et scientifiques. Do lintrt de tenter lhybridation de ces deux algorithmes.
57

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

PSO-2S

EPUS-PSO

CLPSO

CPSO-H

UPSO

SPSO2007

f1

3,02e-119

1,56e-118

8,50e-263

1,02e-262

1,34e-025

1,71e-025

1,57e-010

2,99e-10

8,79e-123

3,56e-122

3,36e-107

1,79e-106

f2

6,18e-011

2,63e-011

197,e+0000

4,69e+000

2,41e+004

6,78e+003

8,36e+004

6,58e+004

1,07e+004

4,23e+003

8,25e-008

9,00e-008

f3

9,75e+000

9,59e-001

2,55e+001

3,53e-001

2,01e+001

3,37e+000

1,03e+001

1,37e+001

1,31e+001

2,98e+000

1,23e+001

1,47e+000

f4

1,63e-001

3,85e-001

3,91e-015

1,07e-015

9,90e-014

3,80e-014

3,90e-006

5,98e-006

1,33e+000

8,58e-001

1,36e+000

1,13e+000

f5

1,00e+000

1,18e+001

0,00e+000

0,00e+000

1,87e-009

5,34e-009

3,15e-010

1,05e-009

7,63e+001

1,45e+001

4,88e+001

1,44e+001

f6

3,63e-001

2,79e-001

4,08e-001

1,22e+000

1,49e+001

1,69e+000

1,36e+000

3,38e+000

2,06e+000

3,37e+000

1,55e+001

1,09e+000

f7

1,35e-032

5,47e-048

1,35e-032

5,47e-048

1,62e+003

5,92e+003

2,58e+008

4,41e+008

1,34e+001

2,34e+001

4,21e-001

1,10e+000

f 10

7,80e-005

9,25e-005

1,20e+001

2,46e+001

2,38e+004

6,49e+003

3,87e+004

1,71e+004

1,27e+004

4,77e+003

1,09e-001

1,80e-001

f 11

1,39e+001

1,48e-001

1,96e+001

2,91e+001

3,04e+001

1,32e+001

3,03e+001

2,59e+001

2,15e+001

1,89e+001

2,77e+001

1,31e+001

f 12

1,69e+001

1,66e+000

6,81e-001

1,02e+000

2,22e-006

8,29e-006

1,52e+000

8,30e-001

1,63e+000

9,49e-001

2,09e+000

1,31e+000

f 13

1,40e+000

2,73e-001

3,76e+001

1,48e+001

4,70e+001

6,85e+000

9,52e+001

2,93e+001

7,70e+001

1,70e+001

9,04e+001

4,03e+001

f 14

3,34e+000

1,22e+000

4,26e+000

2,97e+000

1,51e+001

1,93e+000

1,36e+001

3,56e+000

2,02e+001

4,19e+000

3,27e+001

3,19e+000

f 15

1,89e-002

2,38e-002

1,35e-032

5,47e-048

3,43e+004

1,57e+005

2,44e+008

4,66e+008

2,47e+001

2,77e+001

5,37e+001

2,92e+001

7/12

10/13

10/13

11/13

12/13

Performance
de PSO-2S

TABLEAU 2.6: Comparaison des erreurs moyennes et des carts-types des algorithmes en
30-D.
58

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

Function
PSO-2S

f1

f2

f3

f4

f5

f6

f7

f 10

f 11

f 12

f 13

f 14

f 15

38,178 36,585 39,852 135,147 118,646 1472,139 119,396 56,818 64,566 107,005 83,418 1603,414 98,412

SPSO2007 50,625 61,446 51,445 69,378 67,110 1038,837 122,355 80,664 71,624 88,712 83,819 1078,324 124,757

TABLEAU 2.7: Temps de calcul de 30 excutions pour chacun des algorithmes PSO-2S et
SPSO2007, en 30-D.
Dans cette section, nous prsentons tout dabord une variante de DE, nomme DELG,
puis nous dcrivons les modifications proposes pour ladapter PSO-2S. Ensuite, nous
dcrivons la structure gnrique du nouvel algorithme propos DEPSO-2S. Enfin, nous
ralisons une tude exprimentale de lalgorithme, ainsi quune comparaison de ses performances celles des autres algorithmes de la littrature.

2.3.1

Prsentation de lalgorithme DELG

DELG est une variante de lalgorithme DE qui a t propose dans [Chak 06]. Il utilise le
concept de voisinage de chaque vecteur qui vise quilibrer les capacits dexploration et
dexploitation de lvolution diffrentielle, sans avoir besoin dvaluer la fonction. Cela se
fait grce lutilisation de deux oprateurs de mutation : la mutation locale et la mutation
globale. Contrairement au standard DE, DELG utilise une topologie du voisinage qui dfinit avec qui chacune des particules va pouvoir communiquer. La topologie utilise dans
DELG est en anneau, o chaque particule est relie un nombre dfini dautres particules.
~ i,
Supposons que nous ayons une population P = [ ~
X1 , ~
X2 , . . . , ~
Xnp ]. Pour chaque vecteur X
on dfinit un voisinage de rayon k, constitu des vecteurs ~
Xi k , . . . , ~
Xi , . . . , ~
Xi+k . Les deux
voisins immdiats du vecteur ~
X1 sont, quant eux, ~
Xnp et ~
X2 .
La mutation locale :
Pour chaque membre de la population, une mutation locale est applique en utilisant le
meilleur vecteur ~
Xnbest dans le voisinage de ce membre et de deux autres vecteurs choisis

~X p et ~Xq dans le mme voisinage. Le modle peut tre exprim comme suit :
~Li (t) = ~Xi (t) + .( ~Xnbest (t) ~Xi (t)) + F.( ~X p (t) ~Xq (t))

(2.3.1)

o lindice nbest indique le meilleur vecteur dans le voisinage de ~


Xi , et p, q {i k, . . . , i +
k }.

59

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

SPSO2007

PSO-2S
avec rpulsion

PSO-2S
sans rpulsion

Erreur moyenne
Erreur minimale
Taux de russite
Temps dexcution

Erreur moyenne
Erreur minimale
Taux de russite
Temps dexcution

Erreur moyenne
Erreur minimale
Taux de russite
Temps dexcution

f3

3,15e+001
1,82e-001
0,0%
46,750s

2,23e+001
2,13e+001
0,0%
24,938s

f4

9,94e-001
7,11e-001
33%
46,313s

P-value

2,24e+001
2,14e+001
0,0%
21,021s

6957

1,714e-06

2,03e-001
8,08e-005
81%
38,234s

7,34e-001
8,69e-005
47%
27,389s

6909

3,024e-06

5,71e+001
2,49e+001
0,0%
62,835s
1,31e-002
4,90e-005
43%
46,542s
6,02e-001
3,43e-006
51%
19,047s

2,00e+000
6,55e-005
24%
64,805s
2,93e-003
5,30e-005
77%
47,028s
2,45e-003
1,79e-005
98%
9,153s

7,50e+000
8,92e-005
5%
33,160s
4,24e-003
6,19e-005
61%
24,935s
2,05e-001
7,31e-006
75%
4,572s

10000

< 2,2e-16

6341,5

0,001049

5946

0,02050

f 16

2,81e+000
7,26e-003
76%
59,282s

2,06e+000
9,53e-003
73%
31,202s

2,89e+000
9,57e-003
77%
17,615s

4070

0,02293

f 17

1,05e+000
7,69e-005
36%
108,104s

2,34e-001
7,96e-005
63%
197,423s

1,27e+000
8,87e-005
24%
150,201s

6135,5

0,000343

5,44e+001
2,92e+001
0,0%
154,163s
2,36e-002
2,72e-005
36%
117,191s

4,32e+001
1,39e+001
0,0%
148,035s
3,35e-002
7,52e-005
38%
211,496s

5,43e+001
3,08e+001
0,0%
98,578s
3,78e-002
8,03e-005
42%
120,180s

7824

0,00668

4618

0,3512

8,39e-005
1,88e-005
100%
12,185s

6,23e-005
3,74e-005
100%
28,686s

9,31e-005
7,50e-005
100%
10,201s

3444

0,0001442

B
f5

f8

f9

f 18

f 19

f 20

TABLEAU 2.8: Comparaison des rsultats obtenus par PSO-2S (avec et sans) heuristique de
rpulsion.
60

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

La mutation globale :
De plus, pour tous les vecteurs ~
Xi , une mutation globale est applique en utilisant la
meilleure particule ~
Xbest de la population, ainsi que deux autres vecteurs ~
Xr et ~
Xs choisis alatoirement. La formule de la mutation globale est alors :

~ i (t) = ~Xi (t) + .( ~Xbest (t) ~Xi (t)) + F .( ~Xr (t) ~Xs (t))
G

(2.3.2)

o lindice best indique le meilleur vecteur dans lensemble de la population, et r, s

{1, . . . ,np}.

En effet, la mutation locale favorise lexploration, car les diffrents membres de la population doivent en gnral tre biaiss par des membres diffrents. A linverse, la mutation
globale encourage lexploitation, puisque tous les vecteurs de la population sont biaiss
par le mme vecteur (global best). Aprs avoir combin ces deux mutations en utilisant un
poids scalaire variable dans le temps, loprateur de mutation final de DELG permettra
dobtenir un bon quilibre entre la recherche locale et la recherche globale. Lquation de
cette combinaison de mutations est la suivante :

~ i (t) + (1 w).~Li (t)


~ i (t) = w.G
V

(2.3.3)

Le facteur de poids w varie linairement avec le temps selon la formule suivante :


w = wmin + (wmax wmin ).(

iter
)
MAXIT

(2.3.4)

o iter est litration courante et MAXIT est le nombre maximal ditrations. wmax et
wmin dsignent respectivement les valeurs maximum et minimum du poids w, telles que :
wmin , wmax {0, . . . , 1}.

2.3.2

Adaptation de DELG PSO-2S

Afin que lhybridation de DELG avec PSO-2S aboutisse lamlioration des performances, et rende DELG compatible avec la stratgie de partage de lespace de recherche
utilise dans PSO-2S, une autre modification a t propose. Lquation (2.3.3) a t modifie pour que la zone courante devienne dynamique : au dbut de la recherche, les vecteurs de chaque zone peuvent aller au-del de la zone et donc explorent des rgions priphriques, puis ils se restreignent progressivement lintrieur de la zone. En effet, pour
61

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

~ i calcul dans lquachaque vecteur courant ~


Xi dun essaim auxiliaire, le vecteur mutant V
tion (2.3.5) dpasse la zone o lessaim auxiliaire est initialis vers les zones extrieures, du
fait de la valeur de w. Au dbut des itrations rserves aux essaims auxiliaires, le vecteur
~ i va tre calcul en utilisant la valeur de w = wmin , qui a pour effet daugmenter la valeur
V

~ i . Puis cette valeur diminue progressivement dune itration lautre ; pour


du vecteur V
~ i sorte de sa zone mais, cette fois, vers lintrieur.
qu la fin des itrations, le vecteur V
La nouvelle formule de combinaison des mutations globale et locale est la suivante :

~ i (t) + (1 w).~Li (t)


~ i ( t ) = (1 w ). G
V

(2.3.5)

~ i (t) est alors libre de sortir de sa zone


En choisissant wmin < 0,5 et wmax > 0,5, le vecteur V
~ i (t) est ensuite progressivement rduit,
de recherche pour des valeurs de t proches de 0. V
mesure que le temps t augmente.

2.3.3

Algorithme DEPSO-2S

Aprs avoir prsent dans les deux sections prcdentes lalgorithme DELG, ainsi que
la modification faite pour ladapter PSO-2S, nous allons prsenter dans cette section la
structure gnrale du nouvel algorithme propos DEPSO-2S. Cet algorithme utilise une
hybridation de deux variantes dalgorithmes doptimisation (une variante de DE et une
variante de PSO). Nous notons que nous utilisons une variante modifie de lalgorithme
DE, nomme DELG, pour lintgrer dans DEPSO-2S. Cette variante est utilise uniquement dans la premire phase de DEPSO-2S, qui est la phase de construction de lessaim
principal S1. En effet, chaque essaim auxiliaire a un nombre fixe ditrations effectuer
en utilisant DELG la place dun standard PSO utilis dans PSO-2S. Mais, comme dans
PSO-2S, DELG effectue ses itrations et procure la fin la meilleure solution trouve pendant la recherche, et le nombre dessaims auxiliaires utiliss est gal au nombre de zones
partitionnes. La mme technique est applique dans toutes les zones et, chaque fois, la
meilleure solution obtenue par DELG sera sauvegarde pour construire la population de
lessaim principal S1. Le rle de DELG se termine une fois lessaim S1 construit. Dans la
deuxime phase de lalgorithme, S1 se comporte de la mme faon que dans PSO-2S.
En rsum, dans la premire partie de lalgorithme PSO-2S, la phase de construction
de lessaim principal a t modifie pour utiliser DELG la place dun algorithme de PSO.
La figure 2.8 illustre la structure gnrale de lalgorithme DEPSO-2S.
62

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

Initialisation S21
dans la zone 1

Rpulsion des
particules

S21 effectue K
gnrations

Sauvegarder
Gbest1

Initialisation S22
dans la zone 2

Rpulsion des
particules

S22 effectue K
gnrations

Sauvegarder
Gbest2

Initialisation S2n
dans la zone n

Rpulsion des
particules

S2n effectue K
gnrations

Sauvegarder
Gbestn

Phaase de con
nstruction
n de lessaim S1 parr DE

Utilisant DE

Dbut

Retourner la meilleure
solution trouve par S1

S1 effectue les
gnrations
restantes

Construire lessaim
principal S1 partir de
tous les Gbests

Fin

F IGURE 2.8: La structure gnrale de lalgorithme DEPSO-2S.

63

Le traavail de S1
1

Utilisant PSO

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

2.3.4

Rsultats et discussion

Dans cette section, nous prsentons les rsultats numriques obtenus par DEPSO-2S,
ainsi que ceux obtenus par PSO-2S et les autres algorithmes utiliss dans la section 2.2.6.
Lintrt est de comparer ces rsultats et de montrer que DEPSO-2S amliore lancienne
version de PSO-2S, et donne des rsultats encourageants.
Nous commenons par une brve discussion sur le nouveau paramtrage de DEPSO2S. Ensuite, nous ralisons une analyse exprimentale de lalgorithme, ainsi quune comparaison de ses performances celles de PSO-2S et des autres algorithmes.
2.3.4.1

Paramtrage

Nous utilisons dans cette comparaison les mmes valeurs de paramtres que dans
la section 2.2.6.1, pour les algorithmes PSO-2S, EPUS-PSO, CLPSO, CPSO-H, UPSO et
SPSO 2007. De plus, nous ajoutons les nouveaux paramtres Cr, F, F , et , utiliss
dans DEPSO-2S. Nous fixons Cr 0,5 et F, F , et 0,2, pour toutes les comparaisons.
Dabord, nous allons faire des tests sur les diffrents algorithmes, de la mme manire que
ceux faits dans la section 2.2.6, en utilisant les mmes fonctions en 10-D et 30-D. Ensuite,
un autre test sera ralis en utilisant plusieurs problmes rels de la littrature, parmi ceux
prsents en annexe.
2.3.4.2

Comparaison avec dautres algorithmes

Dans le but de comparer DEPSO-2S avec dautres algorithmes doptimisation et de voir


si nous avons russi amliorer lancienne version PSO-2S, nous choisissons les mmes
fonctions que dans la section 2.2.6 en 10-D et 30-D, ainsi que les mmes algorithmes y compris PSO-2S. Les rsultats obtenus par tous les algorithmes en 10-D sont prsents dans le
tableau 2.9, et les rsultats en 30-D sont prsents dans le tableau 2.10. Chaque excution
a t rpte 30 fois, en fixant le nombre maximum dvaluations Max Fes 40000 en 10-D
et 150000 en 30-D. Lerreur moyenne et lcart-type sont calculs sur les 30 excutions.
Nous commenons tout dabord par analyser le tableau 2.9, o nous constatons des
progrs sur la plupart des fonctions. De plus, nous pouvons voir que DEPSO-2S amliore
significativement ses performances sur les fonctions f 6 et f 13 , par rapport lancienne version. Par contre, nous constatons une diminution des performances pour les fonctions f 1

64

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

(Sphere), f 3 et f 11 (Rosenbrock et Rotated Rosenbrock, qui sont des fonctions mal conditionnes).
Nous analysons maintenant les rsultats du tableau 2.10, o nous constatons que
DEPSO-2S a amlior les rsultats pour la plupart des fonctions, par rapport aux anciens rsultats obtenus par PSO-2S. Nous remarquons une amlioration significative sur
les fonctions f 4 , f 5 et surtout sur la fonction f 13 , o DEPSO-2S trouve la solution optimale de cette fonction comme en 10-D. Par contre, nous remarquons une diminution des
performances sur quelques fonctions qui sont les mmes quen 10-D, comme f 1 , f 3 et f 11 .
Pour montrer que DEPSO-2S a des meilleures performances sur des problmes divers
par rapport dautres algorithmes incluant lalgorithme DE, nous choisissons quelques
problmes rels doptimisation connus dans la littrature. Les rsultats obtenus et prsents dans le tableau 2.11 ont t tirs de notre article [El D 12b]. Ce tableau prsente les
problmes, la dimension et le nombre maximum dvaluations Max Fes qui sont fixs pour
chaque problme, ainsi que les rsultats obtenus par tous les algorithmes en terme derreur
moyenne et lcart-type sur 100 excutions. A partir de ce tableau, nous pouvons remarquer que lalgorithme DEPSO-2S est plus performant que les autres algorithmes pour la
plupart des problmes tests, en termes de qualit de solution trouve. En effet, DEPSO2S obtient de meilleures rsultats sur tous les problmes, except pour P4 , o lalgorithme
propos est surpass par SPSO2007.
Pour plus de dtails sur les problmes rels utiliss, on peut se rfrer larticle
[El D 12b].
Pour conclure, nous constatons que DEPSO-2S obtient de meilleurs rsultats que PSO2S et les autres algorithmes sur la plupart des fonctions testes, notamment sur des fonctions difficiles ou fortement multimodales (Ackley, Rastrigin, Weierstrass) et sur la majorit
des problmes rels tests. Par contre, pour des fonctions telles que Sphere et Rosenbrock,
les performances de DEPSO-2S sont infrieures celles des autres algorithmes. Nanmoins, en augmentant le nombre de zones et le nombre maximum dvaluations Max Fes
autorises, les performances de DEPSO-2S samliorent.

65

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

DEPSO-2S

PSO-2S

EPUS-PSO

CLPSO

CPSO-H

UPSO

SPSO2007

f1

1,30e-024

3,33e-002

1,05e-086

3,10e-086

5,55e-153

2,44e-134

4,02e-021

6,49e-021

9,01e-010

1,38e-009

5,52e-090

1,18e-089

4,00e-101

1,80e-100

f2

6,18e-028

2,13e-027

6,18e-028

2,13e-027

9,32e-012

4,16e-011

5,04e+002

1,99e+002

1,62e+003

9,35e+002

7,18e+001

7,63e+001

1,83e-027

4,03e-027

f3

8,52e-002

3,35e-002

2,35e-002

1,56e-002

9,13e-002

1,05e-001

2,84e+000

1,05e+000

1,08e+000

1,18e+000

2,89e-001

7,36e-002

3,10e-001

9,95e-001

f4

4.79e-013

2.53e-002

4,12e-015

1,21e-015

2,72e-015

1,50e-015

1,78e-011

1,63e-011

7,02e-006

5,77e-006

3,32e-015

8,86e-016

3,85e-001

2,07e-001

f5

0,00e+000

0,00e+000

0,00e+000

0,00e+000

0,00e+000

0,00e+000

2,35e-009

2,72e-009

3,83e-010

7,36e-010

9,28e+000

2,97e+000

5,11e+000

2,29e+000

f6

2,20e-007

7,38e-006

5,85e-003

2,35e-002

3,21e-002

8,11e-002

2,06e+000

4,80e-001

4,12e+000

1,72e+000

1,94e+000

1,13e+000

4,04e-002

1,78e-001

f7

1,35e-032

5,47e-048

1,35e-032

5,47e-048

1,35e-032

5,47e-048

4,32e-001

4,10e-001

1,09e+006

2,14e+006

1,35e-032

5,47e-048

7,32e-004

2,74e-003

f 10

3,38e-009

9,02e-009

3,38e-009

9,02e-009

3,99e-007

1,63e-006

8,27e+002

3,35e+002

2,15e+003

1,19e+003

1,01e+002

9,50e+001

1,02e-007

4,12e-007

f 11

5,52e-001

4,28e-002

4,21e-001

7,77e-002

8,96e-001

2,15e+000

6,44e+000

4,56e+000

3,01e+000

2,52e+000

1,11e+000

1,18e+000

5,73e-001

1,05e+000

f 12

5,66e+000

5,15e-001

1,56e+001

2,28e+000

2,61e-015

1,57e-015

8,45e-008

2,97e-007

1,31e+000

9,68e-001

7,70e-002

2,88e-001

2,03e+001

8,54e-002

f 13

0,00e+000

0,00e+000

2,65e-001

9,93e-001

7,26e+000

4,31e+000

8,85e+000

3,07e+000

2,81e+001

1,39e+001

1,18e+001

5,66e+000

1,26e+001

7,00e+000

f 14

1,53e-001

3,67e-002

6,43e-001

3,45e-001

1,12e+000

1,36e+000

1,98e+000

5,38e-001

3,48e+000

1,41e+000

1,84e+000

1,02e+000

4,20e+000

1,50e+000

f 15

1,35e-32

5,47e-048

1,35e-32

5,47e-048

1,35e-032

5,47e-048

4,36e-001

5,55e-001

1,09e+006

2,37e+006

2,77e+000

6,22e+000

1,10e-003

3,30e-003

TABLEAU 2.9: Comparaison des erreurs moyennes et carts-types des algorithmes en 10-D.

66

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

DEPSO-2S

PSO-2S

EPUS-PSO

CLPSO

CPSO-H

UPSO

SPSO2007

f1

1,25e-025

3,24e-024

3,02e-119

1,56e-118

8,50e-263

1,02e-262

1,34e-025

1,71e-025

1,57e-010

2,99e-10

8,79e-123

3,56e-122

3,36e-107

1,79e-106

f2

3,88e-012

2,50e-011

6,18e-011

2,63e-011

197,e+0000

4,69e+000

2,41e+004

6,78e+003

8,36e+004

6,58e+004

1,07e+004

4,23e+003

8,25e-008

9,00e-008

f3

1,68e+001

5,43e-002

9,75e+000

9,59e-001

2,55e+001

3,53e-001

2,01e+001

3,37e+000

1,03e+001

1,37e+001

1,31e+001

2,98e+000

1,23e+001

1,47e+000

f4

6,48e-014

3,33e-014

1,63e-001

3,85e-001

3,91e-015

1,07e-015

9,90e-014

3,80e-014

3,90e-006

5,98e-006

1,33e+000

8,58e-001

1,36e+000

1,13e+000

f5

3,98e-014

2,33e-014

1,00e+000

1,18e+001

0,00e+000

0,00e+000

1,87e-009

5,34e-009

3,15e-010

1,05e-009

7,63e+001

1,45e+001

4,88e+001

1,44e+001

f6

1,69e-002

3,36e-002

3,63e-001

2,79e-001

4,08e-001

1,22e+000

1,49e+001

1,69e+000

1,36e+000

3,38e+000

2,06e+000

3,37e+000

1,55e+001

1,09e+000

f7

1,35e-032

5,47e-048

1,35e-032

5,47e-048

1,35e-032

5,47e-048

1,62e+003

5,92e+003

2,58e+008

4,41e+008

1,34e+001

2,34e+001

4,21e-001

1,10e+000

f 10

7,80e-005

9,25e-005

7,80e-005

9,25e-005

1,20e+001

2,46e+001

2,38e+004

6,49e+003

3,87e+004

1,71e+004

1,27e+004

4,77e+003

1,09e-001

1,80e-001

f 11

2,55e+001

3,92e-002

1,39e+001

1,48e-001

1,96e+001

2,91e+001

3,04e+001

1,32e+001

3,03e+001

2,59e+001

2,15e+001

1,89e+001

2,77e+001

1,31e+001

f 12

1,36e+000

1,59e-001

1,69e+001

1,66e+000

6,81e-001

1,02e+000

2,22e-006

8,29e-006

1,52e+000

8,30e-001

1,63e+000

9,49e-001

2,09e+000

1,31e+000

f 13

0,00e+000

0,00e+000

1,40e+000

2,73e-001

3,76e+001

1,48e+001

4,70e+001

6,85e+000

9,52e+001

2,93e+001

7,70e+001

1,70e+001

9,04e+001

4,03e+001

f 14

9,70e-001

5,95e-002

3,34e+000

1,22e+000

4,26e+000

2,97e+000

1,51e+001

1,93e+000

1,36e+001

3,56e+000

2,02e+001

4,19e+000

3,27e+001

3,19e+000

f 15

1,35e-032

5,47e-048

1,89e-002

2,38e-002

1,35e-032

5,47e-048

3,43e+004

1,57e+005

2,44e+008

4,66e+008

2,47e+001

2,77e+001

5,37e+001

2,92e+001

TABLEAU 2.10: Comparaison des erreurs moyennes et carts-types des algorithmes en 30D.

67

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

Problme

D Max Fes

P1

Gas
transmission
design

24000

2,96438e+006 2,96440e+006 7,43233e+006 2,96438e+006

0,264829
4,66e-010
2,28e-009
1,40e-009

P2

Optimal capacity
o f gas
production f acilities

16000

1,69844e+002 1,69844e+002 1,69844e+002 1,69844e+002

0,000021
1,14e-013
1,14e-013
1,14e-013

P3

Design
o f a gear
train

32000

1,76382e-008 1,43626e-009 1,40108e-010 1,39732e-010

3,51577e-008
5,05e-009
3,35e-010
2,65e-010

P4

Optimal thermohydraulic
per f ormance o f an arti f icially 3
roughened air heater

24000

4,21422

5,08471e-07

7,26733e-016 2,31987e-006 3,17128e-005

5,69e-016
1,25e-005
7,54e-005

P5

Frequency modulation
sound parameter
identi f ication

144000

3,01253

0,367899

9,75177e+000 2,58539e+000 2,07431e+000

6,65e+000
3,30e+000
3,07e+000

The spread spectrum


P6a radar poly phase
code design (a)

10 240000

0,626379

0,0821391

5,00750e-001 3,50806e-001 3,00490e-001

1,61e-001
7,19e-002
7,07e-002

The spread spectrum


P6b radar poly phase
code design (b)

20 480000

1,07813

0,0812955

8,65976e-001 5,39793e-001 5,37990e-001

2,52e-001
1,25e-001
8,25e-002

DE

SPSO2007

PSO-2S

DEPSO-2S

TABLEAU 2.11: Les rsultats obtenus pour des problmes rels.

2.4

Conclusion

Deux nouveaux algorithmes doptimisation, nomms PSO-2S et DEPSO-2S, ont t


prsents. Le premier algorithme est bas sur lutilisation de lapproche multi-essaims et
considre les particules comme des lectrons chargs dans un espace de recherche partitionn. Trois ides ont t ajoutes lalgorithme standard de PSO, sans introduire doprations complexes. A partir de lanalyse et de lexprimentation faites, nous constatons que
PSO-2S surpasse les autres variantes pour la plupart des problmes tests. Nous pouvons
conclure que les stratgies utilises dans cette approche ont rendu PSO plus robuste, et que
les performances ont t amliores de manire significative. Le deuxime algorithme est
une variante de PSO-2S, base sur lhybridation de PSO et DE. DE a t intgr dans PSO2S pour construire lessaim principal et donc le changement est effectu uniquement dans
la premire phase, la suite de lalgorithme restant globalement similaire PSO-2S. Cet algorithme obtient aussi de bons rsultats, lhybridation des deux algorithmes a contribu
68

laboration dun algorithme dOptimisation par Essaim Particulaire PSO-2S

amliorer lancienne version de PSO-2S.


Nous soulignons que ces nouvelles ides proposes dans ce chapitre aboutissent de
nouvelles mthodes qui pourraient tre appliques dautres algorithmes doptimisation,
tels que les algorithmes volutionnaires.
Dans les chapitres suivants, nous nous intressons la topologie de voisinage dans
PSO et lapplication de PSO-2S des problmes rels relevant du traitement dimages,
qui est une thmatique de recherche prpondrante du laboratoire LiSSi.

69

C HAPITRE T ROIS

T OPOLOGIE DE VOISINAGE DANS PSO : TUDE


ET PERFECTIONNEMENT

3.1

Introduction

Nous avons expliqu prcdemment que PSO est un algorithme inspir dun comportement social, comme celui des individus dun essaim doiseaux ou dun banc de poissons.
Ce comportement a t modlis par les auteurs de PSO en deux quations (1.3.1) et (1.3.2),
dj dtailles au premier chapitre. partir de ces quations, nous constatons que le dplacement dune particule est influenc par trois composantes : la composante dinertie, la
composante cognitive et la composante sociale. Chacune de ces composantes reprsente
une partie de lquation (1.3.1). Dans ce chapitre, nous allons nous intresser la composante sociale (i.e. la troisime partie) de cette quation, o nous utilisons le terme gbest ou
lbest, selon la version utilise.
Lquation (1.3.1) montre que les relations entre les particules influencent directement
leurs vitesses et donc leurs dplacements. Dans la littrature de PSO, il existe plusieurs
versions qui utilisent la notion de voisinage dune particule et ce de manires diffrentes.
Certaines se servent de la version globale, cest--dire que chaque particule est connecte
toutes les autres particules de lessaim (i.e. le voisinage dune particule est lensemble
des particules de lessaim) ; dautres utilisent la version locale, o chaque particule nest
connecte qu une partie des autres particules de lessaim (i.e. le voisinage dune particule est un sous-ensemble des particules de lessaim). Le voisinage dune particule i peut
donc tre dfini comme le sous-ensemble de particules de lessaim que i peut interroger
afin de rcuprer ses informations. Pour intgrer ces notions dans lquation (1.3.1), nous
avons besoin de dfinir une structure de voisinage entre les particules, qui forme le rseau de communication entre elles. Cette structure est appele "topologie de voisinage".
Les auteurs ont propos deux types de topologies : les topologies statiques et dynamiques.
Chaque type tant plus performant pour certains problmes que pour dautres. Pour avoir
une meilleure performance de lalgorithme, il est trs important de bien dfinir la topologie
70

Topologie de voisinage dans PSO : tude et perfectionnement

de voisinage, ainsi que les modalits dchange dinformations entre particules. Cest pourquoi, pour accrotre les performances de PSO, nous avons labor une nouvelle topologie
dynamique, que nous avons nomme Dcluster, qui est une combinaison dune topologie
statique (Four-clusters) [Mend 04] et dune topologie dynamique (Fitness) [Wang 08].
Dans ce chapitre, nous nous concentrons dabord sur le concept de voisinage, en tudiant les caractristiques des changes dinformations entre les particules. Ensuite, nous
procdons une description dtaille de la topologie propose (Dcluster). Enfin, nous prsentons une analyse exprimentale, ainsi quune comparaison des performances de Dcluster celles dautres algorithmes utilisant diffrentes topologies connues dans la littrature
de PSO.

3.2

Notion de voisinage de PSO

Comme nous lavons vu dans le chapitre 1, lalgorithme PSO est inspir du comportement collectif des essaims lors des tudes et des simulations informatiques de groupes
danimaux (vols doiseaux ou bancs de poissons). Ces tudes mettent en vidence la capacit dun individu rester une distance optimale par rapport aux autres dans le mme
groupe et suivre un mouvement global affect par les mouvements locaux de ses voisins.
partir de ces simulations, les auteurs ont modlis le comportement des individus par
les quations (1.3.1) et (1.3.2). Dans la pratique, en utilisant lquation (1.3.1), un rseau
doit tre dfini afin dtablir des connexions entre les particules et leur permettre dchanger des informations entre elles. Ce rseau de communication entre les particules est appel topologie de voisinage. Cette topologie contribue dfinir un groupe dinformatrices
pour chaque particule, cest ce que lon appelle le voisinage dune particule. Le voisinage
dune particule peut donc tre dfini comme le sous-ensemble de particules de lessaim
avec lesquelles celle-ci a une communication directe, i.e. chaque particule peut interroger
les particules dans son voisinage (ses informatrices) qui, leur tour, lui transmettent leurs
informations.
Dans notre description de PSO dans le chapitre 1, nous avons dcrit brivement la
version globale de PSO, dans laquelle toutes les particules ont accs linformation globale
gbest de la population. Toutefois, ce nest pas le seul choix possible, et il existe des essaims
dans lesquels les particules ont accs des informations locales, ou des informations
la fois globales et locales. Dans ce chapitre, nous discutons des diffrentes possibilits

71

Topologie de voisinage dans PSO : tude et perfectionnement

dinteraction des particules entre elles, qui sont modlises au niveau de la composante
sociale de lquation (1.3.1).
En 1995, lorsque le premier algorithme PSO (la version globale) a t propos, les auteurs ont choisi une topologie entirement connecte, cest--dire que chaque particule
se trouve relie toute les autres particules de lessaim. Dans cette topologie, linformation utilise dans lquation (1.3.1) est globale, i.e. chaque particule vole dans lespace
de recherche du problme avec une vitesse adaptative, qui se modifie dynamiquement,
selon sa propre exprience du vol et lexprience du vol de toutes les autres particules
dans lessaim. La faiblesse de cette version est quelle ne fournit pas une exploration suffisante (recherche globale) de lespace de recherche et peut conduire une stagnation dans
un optimum local et donc une convergence prmature [Shi 99]. De nombreuses variantes de la version originale ont alors t proposes afin damliorer sa convergence.
Ces variantes intgrent notamment de nouvelles topologies pour lessaim de particules.
Nous allons traiter dans la suite ces diffrentes topologies, telles que les topologies locales [Watt 98, Suga 99, Watt 99], les topologies dynamiques et dautres topologies plus
sophistiques, qui ont t proposes pour tablir un quilibre entre la recherche locale et
la recherche globale [Kenn 99, Pera 03, Rich 03, Cler 06, Wang 08].

3.2.1

Voisinage gographique et social

La notion de voisinage peut avoir deux types principaux, gographique et social, qui
donnent aux particules une capacit de perception de leur environnement proche, selon le
type utilis (i.e. lenvironnement proche peut tre dfini par un rseau social ou un rseau
gographique).
3.2.1.1

Voisinage gographique

Le voisinage gographique dune particule i se compose des particules proches. Pour


considrer cette proximit, la distance entre la particule i et les autres particules de
lessaim est utilise, sachant que le nombre de voisins doive tre dfini lavance.
Dans [Lane 08, Safa 09], les auteurs ont utilis lapproche spatiale pour dfinir le voisinage gographique des particules. Les voisins sont ainsi calculs avec la triangulation de
Delaunay ou le diagramme de Vorono. Un autre modle dextension spatiale des particules a t propos dans [Krin 02] pour augmenter la diversit des particules, lorsquelles
commencent se regrouper. Pour remdier au problme du regroupement, un rayon r a
72

Topologie de voisinage dans PSO : tude et perfectionnement

t ajout chaque particule afin de vrifier sil y a rapprochement entre particules puis
collision. Dans ce cas, les auteurs proposent plusieurs techniques pour carter les particules et viter la collision et donc le regroupement. Toutefois, le voisinage doit tre calcul
chaque itration car les distances entre les particules peuvent changer dune itration
lautre au cours de la recherche. Cette mthode est donc couteuse en termes de temps de
calcul, mais elle permet par ailleurs dapporter un certain dynamisme la topologie.
3.2.1.2

Voisinage social

Le voisinage social dune particule est le sous-ensemble des voisins virtuels dfini au
dbut de lalgorithme PSO ; il nest pas ncessairement fixe et peut tre adaptatif. Il peut
tre reprsent sous la forme dun graphe, o les particules sont des sommets relis leurs
voisines par les artes du graphe. Le but dutiliser ce type de voisinage est damliorer la
rapidit de convergence de lalgorithme. Cela signifie quil est ncessaire de contrler la
propagation de linformation dans le graphe. Pour ce faire, il sagit donc de trouver quels
sont les bons paramtres (par exemple, la taille du voisinage, la forme du rseau social, la
ou les sources dinfluence) qui structurent le graphe et qui sont responsables de la vitesse
de propagation du flux dinformation. Savoir choisir la topologie est donc fondamental et
demande une adaptation au problme trait. Lorsque la topologie est dense, les particules
ont beaucoup de voisins, de sorte que linformation (meilleure position) est rapidement
partage. Inversement, dans une topologie parse, linformation se propage plus lentement.
Pour dfinir une topologie de ce type, qui peut tre statique ou dynamique, on doit
crer une structure au dbut de lalgorithme qui dfinit le voisinage de chaque particule
(e.g. les topologies : anneau ou Ring, toile ou Wheel, Von Neumann, Four-clusters, etc.). Il
y a aussi des topologies qui nont pas besoin de dfinir leurs structures, comme FitnessDistance-Ratio [Pera 03] et une autre, alatoire, qui a t propose par Clerc [Cler 06] et
qui est utilise dans SPSO 2006, SPSO 2007 et SPSO 2011. Dautres modles sociaux ont
t proposs par Watts [Watt 99, Watt 98], et se caractrisent par deux facteurs, le degr
de connectivit K, qui mesure le nombre de voisins dune particule, et la quantit de regroupement C, qui mesure le nombre de voisins dune particule appartenant galement
dautres voisinages. Le voisinage social est le plus utilis dans la littrature de PSO. Il est
le plus simple programmer et le moins couteux en temps de calcul. La convergence de
lalgorithme peut conduire un voisinage social devenir un voisinage gographique. La
73

Topologie de voisinage dans PSO : tude et perfectionnement

figure 3.1 montre la diffrence entre un voisinage gographique et un voisinage social.


Voisinage
social

Voisinage
g
gographique

F IGURE 3.1: Voisinage gographique et voisinage social.

3.2.2

change des informations entre les particules dans lalgorithme


PSO

Aprs la dfinition de la topologie du voisinage, chaque particule peut obtenir des informations sur une partie des particules de lessaim ou sur toutes les particules de lessaim,
selon la topologie choisie. Pour donner une vision du mcanisme dchange dinformations, il convient de rpondre plusieurs questions sur la coopration entre les particules.
Quelle est linformation changer ? Dans la plupart des versions de PSO (globale et
locale), linformation changer est la meilleure exprience des particules. Dans la
version globale, linformation qui doit tre partage est la meilleure solution trouve
par lessaim (gbest) ; pour ce qui est de la version locale, cest la meilleure solution
trouve dans le voisinage de chaque particule (lbest) qui est considre. Il y a certaines versions de PSO qui changent la fois linformation locale (lbest) et globale
(gbest) [Pars 04], afin damliorer la convergence de lalgorithme et ne pas perdre
linformation globale de lessaim. Il existe galement des versions qui changent la
74

Topologie de voisinage dans PSO : tude et perfectionnement

mauvaise exprience des particules [Chen 10], afin dviter lexploration des zones
non prometteuses de lespace de recherche.
Quand lchanger ? Le moment dchange de linformation dpend de la stratgie de
communication utilise. Dans la littrature, deux stratgies sont connues, les stratgies synchrones et les stratgies asynchrones, qui indiquent le moment o les particules
doivent partager linformation [Vent 05]. La stratgie synchrone est la plus utilise
dans la littrature de PSO, elle oblige les particules communiquer chaque itration, ou suite un nombre prdtermin ditrations, et ce aprs avoir mis jour
linformation changer (gbest ou lbest). La deuxime stratgie, asynchrone, implique
lchange de linformation lorsque certaines conditions se produisent (par exemple,
si la solution trouve ne samliore pas pendant un certain nombre ditrations).
Qui change avec qui ? Une particule peut partager son information avec ses voisines, qui sont dfinies selon la topologie utilise. Dans la version globale, linformation peut tre transmise toute la population de lessaim, car le voisinage de chaque
particule est lessaim tout entier. En revanche, dans la version locale, chaque particule reoit linformation de son voisinage, qui nest quune partie de lessaim. Il existe
galement des versions qui se basent sur la notion de tribus [Bast 09], o il y a une
particule leader, qui a le droit exclusif de recevoir linformation et de la communiquer
aux autres particules, aprs lavoir examine.
Que faire de linformation change ? Une fois linformation est reue, elle doit tre
traite afin damliorer la performance de lalgorithme. Limportance de cette information est rvle par son utilisation dans lquation (1.3.1), elle sert mettre jour
les vitesses qui vont permettre, par la suite, de dplacer les particules en amliorant leurs positions dans lespace de recherche. Dautre part, linformation peut tre
utilise pour rinitialiser une ou plusieurs particules qui nont pas amlior leurs
positions durant plusieurs itrations, ou lessaim tout entier.

3.2.3

Diffrents modles de topologies

PSO a connu deux versions originales, juste aprs son dveloppement en 1995, qui
sont la version globale (Gbest) et la version locale classique en anneau (Lbest classique).
En plus de ces deux modles originaux, un grand nombre de topologies ont t proposes et beaucoup dentre elles ont laiss un impact positif sur lalgorithme PSO en termes

75

Topologie de voisinage dans PSO : tude et perfectionnement

de performances. Nous distinguons les topologies statiques des topologies dynamiques,


avant de dcrire, ci-dessous, une slection de ces topologies, qui ont t cites plusieurs
fois dans la littrature et ont eu un certain succs.
3.2.3.1

Topologies statiques

A lorigine, lalgorithme PSO nutilisait pas de topologies dynamiques. Celles utilises


taient structures dune manire rgulire ou sur des formes gomtriques. Ces topologies sont donc appeles graphes statiques, car elles sont dfinies une fois pour toutes. Les
versions statiques les plus connues (celles qui sont principalement utilises) sont la version
globale Gbest et la version locale classique sous forme dun anneau (Lbest classique), o
chaque particule na que deux particules voisines. Dans le modle Lbest classique, lessaim
converge plus lentement que dans Gbest, mais il a plus de chances de localiser loptimum
global. En gnral, lutilisation du modle Lbest permet de limiter les risques dune convergence prmature de lalgorithme. Ce qui a un effet positif sur les performances de lalgorithme, surtout pour les problmes multimodaux. Kennedy et Mendes proposent plusieurs topologies statiques dans [Kenn 02, Kenn 99, Mend 04], nous prsentons ci-dessous
quelques-unes d entre elles :
Von Neumann [Kenn 02] : elle est communment adopte sur les deux modles Gbest
et Lbest classique. Dans Von Neumann, la topologie prend la forme dune grille (rseau rectangulaire), o chaque particule est relie ses quatre particules voisines (
gauche, droite, au dessus et en dessous). Comme le modle Lbest classique, cette topologie ralentit la vitesse de convergence de lalgorithme, ce qui est prouv par Kennedy et Mendes dans [Kenn 02], en raison de sa structure particulire, qui ralentit la
propagation de linformation toutes les particules de lessaim. Une reprsentation
graphique du modle de Von Neumann est illustre dans 3.2.
Wheel ou focal [Kenn 02] : Cette topologie a la forme dune roue, o la particule du
centre de lessaim, nomme focale (principale), est responsable du flux des informations. Dans cette topologie, toutes les particules sont isoles les unes des autres
et elles sont lies uniquement la particule focale. Les informations doivent tre
communiques travers cette particule, qui va ensuite utiliser ces informations pour
adapter sa trajectoire. Si le rsultat des ajustements montre une amlioration des performances de la particule principale, alors cette amlioration sera communique au
reste de la population. Donc la particule principale sert de filtre, qui ralentit la vi76

Topologie de voisinage dans PSO : tude et perfectionnement

tesse de transmission de linformation sur la meilleure solution trouve. La figure 3.2


illustre une reprsentation graphique du modle Wheel.
Four-clusters [Mend 04] : La topologie Four-clusters utilise quatre groupes de particules relis entre eux par plusieurs passerelles. Du point de vue sociologique,
cette topologie ressemble quatre communauts isoles. Dans chaque communaut,
quelques particules peuvent communiquer avec une particule dune autre communaut. Ce modle a t tudi dans [Mend 04, Mend 03], en prenant une taille de population gale 20. Les particules sont divises en quatre groupes, chaque groupe est
compos de cinq particules, qui changent linformation avec les trois autres groupes
via les passerelles. Chaque passerelle nest lie qu un seul groupe. Cette topologie
est caractrise par le nombre dartes qui relient indirectement deux particules. Le
diamtre du graphe est de trois, ce qui signifie que linformation peut tre transmise dune particule une autre en empruntant au maximum trois artes. Grce
ce diamtre, chaque particule peut obtenir une vision sur linformation globale, en
effectuant au maximum trois itrations de lalgorithme. La figure 3.2 montre la reprsentation graphique de ce modle. Dans [Mend 04], les auteurs ont aussi propos
un autre modle, nomm Pyramid. Ce modle est reprsent par un rendu en fil de
fer triangulaire en 3-D (ou triangular wire-frame).

(a)

(b)

(c)

(d)

(e)

F IGURE 3.2: Topologies statiques : (a) Topologie Gbest, (b) Topologie en anneau (ou Ring)
utilise dans Lbest, (c) Topologie en toile (ou Wheel), (d) Topologie Von Neumann et (e)
topologie Four-clusters.

3.2.3.2

Topologies dynamiques

En gnral, les diffrentes topologies statiques proposes dans la littrature de PSO


ne rsolvent pas le problme de la convergence prmature de PSO, mme si beaucoup
dentre elles amliorent ses performances. La recherche sest donc poursuivie, visant tou77

Topologie de voisinage dans PSO : tude et perfectionnement

jours laborer une topologie robuste permettant damliorer les performances de lalgorithme. Les auteurs ont alors essay de mettre en place des topologies dynamiques. Ils ont
trouv que ces topologies pouvaient avoir de meilleures performances que les topologies
statiques, et ce, au moyen dun changement de leurs structures, dune itration lautre.
Ce changement permet aux particules de changer leurs trajectoires de dplacement, afin
de pouvoir schapper des optima locaux. Nous allons dans la suite voquer un ensemble
de topologies dynamiques :
Fitness [Wang 08] : Wang et Xiang ont propos une topologie dynamique dans laquelle les particules sont disposes dans un anneau rgulier, comme dans le modle
classique en anneau du Lbest. Mais, contrairement au modle classique qui possde
des liens bidirectionnels, les particules dans Fitness sont connectes par des liens
unidirectionnels, une particule ne peut donc communiquer quavec une seule autre
particule situe aprs elle. Toutefois, les particules sont tries par ordre dcroissant,
en fonction de leurs valeurs de f itness, et non pas selon leurs indices prdfinis. En
effet, la particule qui a la plus grande valeur de f itness (la mauvaise particule) est place dans la premire position de lanneau, suivie par la particule qui a la deuxime
valeur, et ainsi de suite (cet arrangement a lieu en cas de minimisation). Les auteurs
ont utilis deux stratgies, Learn From Far and Better Ones et Centroid of Mass ,
qui permettent la communication entre une particule et son voisinage. Dans cette
topologie, lensemble du voisinage Ni dune particule i est dfini par :

Ni =

{n : n [i + 1 + ,N ]} , i f i + 1 + N

(3.2.1)

{n : n [( N mod i + 1 + ), i 1]} , sinon

o N est le nombre de particules et est un paramtre dfini par lutilisateur.


Fitness-Distance-Ratio (FDR) [Pera 03] : est une variante de PSO se basant sur un
rseau social spcial, qui a t inspir par lobservation du comportement animal.
Ce rseau social nutilise pas une structure gomtrique spcifique pour effectuer
la communication entre les particules. Toutefois, il utilise une nouvelle faon de
communiquer, qui est modlise par lajout dun terme la composante sociale de
lquation (1.3.1). Dans FDR, la position et la vitesse dune particule sont mises
jour dimension par dimension. Pour chaque dimension, la particule na quune seule
informatrice. On vite ainsi que plusieurs informatrices se communiquent des infor78

Topologie de voisinage dans PSO : tude et perfectionnement

mations qui sannulent entre elles. Le choix de cette informatrice, nomme nbest (best
nearest), repose sur les deux critres suivants :
elle doit tre proche de la particule courante ;
elle doit avoir visit une position ayant une meilleure f itness.
Pour ce faire, les auteurs ont propos de choisir comme informatrice de la particule courante i, pour chaque dimension d, celle qui, parmi toutes les particules de
lessaim, lexception de la particule i, maximise le rapport (Fitness-Distance-Ratio)
suivant :
Fitness( Pj ) Fitness( Xi )
| Pjd Xid |

o Pj et Xi sont respectivement la meilleure position de la particule j et la meilleure


position de la particule courante i.
Le dplacement de la particule est influenc alors par trois facteurs : sa propre exprience pbest, lexprience globale de lessaim gbest et lexprience de la particule
nbest. Lquation (1.3.1) de mise jour de la vitesse devient la suivante :
t +1
t + c r t [ pbestt x t ] + c r t [ gbestt x t ] + c r t [ nbestt x t ].
vi,d
= wvi,d
2 2i,d
3 3i,d
1 1i,d
i,d
i,d
d
i,d
d
i,d

(3.2.2)

R2006 [Cler 06] : Cest une topologie dynamique alatoire qui a t propose par
Clerc. Elle consiste utiliser la notion de modle Lbest, dans lequel chaque particule
est influence par son propre voisinage dfini lavance. Toutefois, dans R2006, la
taille du voisinage est variable dune particule lautre, elle peut tre de nimporte
quelle valeur entre 1 et S (o S est la taille de la population) avec une forte probabilit
dtre proche dun nombre fixe k. Chaque particule choisit son voisinage alatoirement en utilisant une distribution reprsente graphiquement par une courbe ayant
la forme dune cloche non symtrique (avec une valeur de moyenne proche de k).
chaque itration, si la meilleure solution trouve jusque-l na pas t amliore,
la topologie change litration suivante. La topologie R2006 est utilise dans SPSO
2006, SPSO 2007 et SPSO 2011 [Cler 12].
Hierarchy [Jans 05] : Janson et Middendorf ont propos une autre topologie dynamique. Dans cette topologie, les particules sont organises dans une hirarchie
dynamique afin de dfinir le voisinage de chaque particule, qui change au fil des
itrations. La structure de cette topologie est un arbre descendant de nuds o
79

Topologie de voisinage dans PSO : tude et perfectionnement

chacune des branches contient aussi dautres nuds, pour pouvoir continuer crer
dautres branches. Larbre de cette topologie est dfini par sa hauteur h, le degr de
branchement d (i.e. le nombre maximum denfants des nuds internes) et le nombre
total de nuds m (i.e. le nombre de particules). La figure 3.3 montre un exemple
dun essaim de 21 particules disposes dans un arbre descendant rgulier de hauteur
h = 3, et un degr de branchement d = 3. Dans le cas o il nest pas possible de
construire un arbre rgulier avec un degr de branchement uniforme pour tous les
nuds, toute incompatibilit sur les nuds internes sera pousse au niveau le plus
profond de larbre, condition que la diffrence de branchement entre deux nuds
de ce niveau soit gale, au plus, un, comme dans lexemple illustr par la figure 3.4.
Les particules changent leurs places dans larbre, vers le haut ou vers le bas, selon
leurs valeurs de f itness values chaque itration. La valeur de f itness dune
particule du nud courant est compare celles des particules des nuds enfants
(une par une et de la gauche vers la droite). Les particules changent leurs places
chaque fois que lon trouve une particule dun nud enfant qui est meilleure que
celle du nud courant. On commence ces comparaisons par la particule en tte avec
lenfant de gauche (du haut vers le bas, et de la gauche vers la droite).

F IGURE 3.3: Un arbre rgulier.

Une autre topologie dynamique a t propose dans [Rich 03]. Lessaim est initialis
sous la forme dune topologie en anneau. A linitialisation, chaque particule est connecte
une autre particule unique de la population. Au fil du temps, des connexions supplmentaires entre les particules sont ajoutes, jusqu ce que lon ait un rseau entirement
connect comme dans la version globale Gbest. La stratgie implmente ici est davoir
un essaim entirement connect (i.e. une topologie globale) aprs 80% des valuations al80

Topologie de voisinage dans PSO : tude et perfectionnement

F IGURE 3.4: Un arbre non-rgulier.

loues pour la fonction utilise. Sachant quune nouvelle connexion est ajoute chaque
particule aprs quun nombre prdfini dvaluations aient t effectues, jusqu atteindre
80% du nombre total dvaluations. Par exemple, supposons que la taille de lessaim soit
de 12 particules et que le nombre maximum dvaluations soit gal 9600. Dans un premier temps, chaque particule Pi est relie Pi+1 (P11 lie P0 ). Au fil du temps, lessaim
ajoute progressivement des connexions, de telle sorte que toutes les particules deviennent
interconnectes entre elles, aprs avoir atteint 9600 0,8 = 7680 valuations. Aprs la confi-

guration initiale en anneau, chaque particule doit tre connecte 10 autres particules, si
lon ajoute une nouvelle connexion aprs chaque srie de 768 valuations (64 itrations
de lalgorithme de 12 particules). Donc, aprs 64 itrations, chaque Pi est connect Pi+2 ;

aprs 128 itrations, chaque Pi est connect Pi+3 , et ainsi de suite.

3.3

laboration de la topologie Dcluster : une combinaison


de deux topologies (statique et dynamique)

Une topologie statique nest pas approprie pour tous les problmes doptimisation, et
donc une topologie dynamique est parfois ncessaire. En effet, lutilisation dune topologie dynamique permet lalgorithme PSO damliorer ses performances et de limiter les
risques dune convergence prmature. De ce fait, nous avons labor une nouvelle topologie dynamique, nomme Dcluster. Cette topologie est une combinaison de deux topologies,
lune statique et lautre dynamique. Dans cette section, nous dcrivons la topologie Dcluster, puis nous en prsentons une analyse exprimentale, ainsi quune comparaison de ses
performances avec celles des autres algorithmes PSO, qui utilisent diffrentes topologies.

81

Topologie de voisinage dans PSO : tude et perfectionnement

3.3.1

Prsentation de la topologie propose

La topologie propose Dcluster utilise une nouvelle structure spcifique pour former
son rseau de communication entre les particules. Lide gnrale de cette topologie sinspire du point de vue moral selon lequel le fort doit aider le faible, chacun devant donner suivant ses facults, et recevoir, suivant ses besoins. Prenant par exemple une population dindividus que nous partitionnons en sous-ensembles homognes de tribus (par
exemple, en mettant ensemble les individus ayant une rsistance similaire). Chaque
sous-ensemble dindividus a son propre monde, compltement interconnect et il peut
changer des informations avec les autres, travers des canaux de communication dfinis
par toutes les tribus. Ces communications permettent aux tribus de communiquer les besoins de chacune et aux faibles individus damliorer leurs situations. Dans certains cas,
si un individu devient plus fort quun autre appartenant une autre tribu, il peut migrer
vers cette autre tribu plus forte, en essayant de maintenir la parit entre les individus dans
chaque tribu.
Pour rapprocher lide de communication entre les individus des tribus avec les particules de lessaim de PSO, nous considrons lindividu comme une particule, et la tribu
comme un sous-essaim de particules. Puis lensemble des sous-essaims forme lessaim
principal de lalgorithme PSO.
Les particules sont tries par ordre dcroissant en fonction de leurs valeurs de fitness

10 11 12 13 14 15 16 17 18 19 20

10 11 12

Les mauvaises particules

13 14 15 16

Les meilleures particules

17 18 19 20

F IGURE 3.5: Partitionnement en sous-liste.

La topologie propose fonctionne comme suit : chaque itration, aprs la phase dvaluation de la fonction objectif, on trie les particules dans une liste, suivant lordre dcrois82

Topologie de voisinage dans PSO : tude et perfectionnement

sant de leurs valeurs de f itness (en cas de minimisation). De sorte que la particule qui
obtient la plus grande valeur de f itness (la plus mauvaise particule) est place dans la
premire case de la liste (case no 1), suivie par la particule qui obtient la deuxime plus
grande valeur dans la case suivante (case no 2), et ainsi de suite, et donc la dernire case
dans la liste contient alors la meilleure particule de lessaim. Une fois le classement des
particules termin, la liste se divise en plusieurs sous-listes, correspondant chacune un
groupe (ou cluster) de particules dans la topologie propose. La dernire tape consiste
lier les groupes entre eux, afin de crer la structure finale de la topologie de lessaim.
Ainsi, le premier groupe contenant les mauvaises particules est appel groupe central
(ou central cluster), il est plac au centre de la topologie. Chaque particule de ce groupe est
relie aux autres groupes comme suit : la mauvaise particule du groupe central est lie la
mauvaise particule du deuxime groupe, la seconde est lie au troisime groupe aussi par
sa mauvaise particule, et ainsi de suite. Ceci est illustr dans la figure 3.5. Tous les groupes
dans cette topologie, y compris le groupe central, sont entirement connects. La figure 3.6
montre la structure finale de la topologie propose.
Dcluster est dfinie par le nombre de particules dans chaque groupe np. Pour avoir une
topologie de forme rgulire, la taille de lessaim doit tre gale np + np2 et ng = np + 1,
o ng est le nombre de groupes. Prenons, par exemple, un essaim de taille gale 20,
la topologie sera compose de 5 groupes (ng = 5), qui contiennent chacun 4 particules
(np = 4).

3.3.2

Rsultats et discussion

Pour tester Dcluster, nous allons utiliser quelques fonctions de CEC05 et 12 problmes
rels, tels que dcrits au paragraphe 1.4. Nous commenons ici par la prsentation des
valeurs des paramtres utilises par Dcluster et par dautres versions de PSO utilisant diffrentes topologies de la littrature. Ensuite, nous effectuons une analyse exprimentale de
tous les algorithmes, ainsi quune comparaison des performances obtenues avec Dcluster
par rapport aux autres topologies. Enfin, nous raliserons une tude de la convergence de
lalgorithme.
3.3.2.1

Paramtrage

Afin de montrer lefficacit de notre topologie, nous comparons, dans les lignes
suivantes, les performances de lalgorithme PSO, qui utilise la topologie Dcluster, aux
83

Topologie de voisinage dans PSO : tude et perfectionnement

20

17

19

10

2
3

18

11

12

13

16

14

15

F IGURE 3.6: Structure finale de Dcluster.

six autres algorithmes utilisant dautres topologies (R2006, FDR, Fitness, Four-clusters,
Geometric et Hierarchy).
Pour que la comparaison soit quitable, plusieurs lments doivent tre pris en compte :
le gnrateur de nombres alatoires et les paramtres des algorithmes (par exemple : taille
de la population, c1 , c2 , w, etc.). Dans notre travail, nous utilisons, pour les sept topologies,
le mme gnrateur de nombres alatoires KISS (Random Number Generator (RNG)) qui est
utilis dans les algorithmes SPSO 2006, SPSO 2007 et SPSO 2011 [Cler 12]. La taille de la
population est fixe 20 pour les sept algorithmes. Les coefficients dacclration c1 et c2
sont choisis gaux 1,19 et le coefficient dinertie w est fix 0,72 pour chaque algorithme.
La taille du voisinage de FDR, Fitness et Geometric est fix 5. Elle est variable entre 1 et
20 pour R2006, avec une forte probabilit dtre proche de 5. Pour la topologie Hierarchy,
la hauteur h est fixe 4 et le degr de branchement d est fix 2. Dans ces expriences,
Dcluster utilise une forme rgulire, comme dans la figure 3.6, o le nombre de particules
dans chaque groupe np est fix 4, alors que le nombre de groupes ng est gal 5.
Nous utilisons tout dabord une slection des fonctions dcales et des fonctions pivotes (Shifted functions et Rotated functions), dfinies dans la section 1.4.1. Le nombre maximal
dvaluations (Max Fes ) est fix 50000 en 10-D pour les huit fonctions, et 150000 en 30-D.
84

Topologie de voisinage dans PSO : tude et perfectionnement

Nous utilisons ensuite les 12 problmes rels prsents dans la section 1.4.2. Le Max Fes
pour chaque problme est donn dans le tableau 3.4. Dans les expriences, chaque algorithme est excut 100 fois et la moyenne et lcart-type des valeurs de la fonction objectif
sont calculs. Les sept algorithmes sont implments en langage C dans notre laboratoire,
en utilisant un ordinateur quip dun processeur de 64-bits.
Problme

F1

F2

F3

F4

F5

F6

F7

F8

F9

F10

F11

F12

Dimension

27

10

42

13

10

Max Fes

150000 50000 150000 240000 50000 50000 150000 300000 50000 50000 15000 100000

TABLEAU 3.1: Dimension et Max Fes des problmes rels.

3.3.2.2

Analyse exprimentale et comparaison avec dautres topologies

Dans cette section, les rsultats numriques obtenus par Dcluster sont prsents, ainsi
que des comparaisons avec dautres algorithmes utilisant diffrentes topologies. Lintrt
est de montrer que la topologie propose donne des rsultats encourageants. Une discussion sur les avantages et inconvnients de Dcluster est ensuite engage.
Les tableaux 3.2 et 3.3 prsentent les rsultats de simulation obtenus en 10-D et 30-D respectivement, sur les huit fonctions cites dans le paragraphe prcdent. Plus prcisment,
la moyenne et lcart-type (Mean best value Standard deviation) obtenus, pour chaque al-

gorithme et pour chaque fonction, sur 100 excutions en 10-D et 30-D, sont prsents dans
ces tableaux. Nous avons ajout une colonne indiquant la P value donne par le test

statistique de Friedman, afin de confirmer que les rsultats sont significativement diff-

rents (des chantillons non apparis). Les meilleurs rsultats sont indiqus en gras dans
les tableaux.
De ces expriences, on peut remarquer que la topologie Geometric donne les rsultats
les moins bons sur toutes les fonctions testes, quoique cette topologie soit la plus couteuse
en termes de temps de calcul. Les rsultats des autres topologies sont mitigs, mais on peut
constater que la topologie Dcluster obtient de meilleurs rsultats que les autres topologies,
pour la majorit des fonctions testes.
Nous commenons par analyser les rsultats en 10-D. Les rsultats de ces analyses sont
prsents dans le tableau 3.2. Nous constatons que PSO utilisant la topologie Dcluster surpasse les autres algorithmes sur 3 fonctions dcales (Shifted Rosenbrock, Shifted Griewank et
85

Topologie de voisinage dans PSO : tude et perfectionnement

Fonction

R2006

FDR

Dcluster

Fitness

Four
Geometric Hierarchy P-value
clusters

Shifted Rosenbrock

2,81e+004 1,41e+001 4,99e+000 1,29e+001 7,44e+000 8,12e+003 2,25e+001

5,09e-32
2,79e+005 3,16e+001 1,55e+001 4,77e+001 3,10e+001 8,07e+004 6,27e+001

Shifted Ackley

1,16e-002 0,00e+000 1,79e-014 1,16e-002 1,14e-001 1,62e+000 1,70e-014

1,55e-70
1,15e-001 0,00e+000 1,54e-014 1,15e-001 3,67e-001 1,48e+000 1,50e-014

Shifted Griewank

5,92e-002 6,98e-002 2,71e-002 3,78e-002 7,15e-002 1,03e-001 4,84e-002

2,78e-30
3,38e-002 4,83e-002 2,08e-002 2,84e-002 5,02e-002 6,89e-002 4,11e-002

Shifted Rastrigin

6,06e+000 6,09e+000 2,81e+000 3,83e+000 9,49e+000 1,57e+001 4,08e+000

3,35e-59
3,07e+000 5,13e+000 1,62e+000 1,76e+000 5,31e+000 6,94e+000 1,77e+000

Rotated Rosenbrock

3,55e+002 5,85e+002 7,62e+002 1,53e+003 5,16e+002 2,51e+003 2,56e+003

1,32e-15
1,28e+003 1,80e+003 2,63e+003 4,14e+003 1,90e+003 1,69e+004 5,02e+003

Rotated Ackley

2,33e+001 2,40e+001 2,28e+001 2,31e+001 2,30e+001 2,29e+001 2,33e+001

5,35e-19
8,50e-002 8,48e-002 7,93e-002 1,05e-001 8,93e-002 8,21e-002 1,06e-001

Rotated Griewank

1,12e-001 2,24e-001 1,04e-002 8,78e-002 1,87e-001 6,86e-001 5,27e-002

6,20e-59
7,68e-002 1,45e-001 8,86e-002 7,79e-002 1,17e-001 7,02e-001 3,61e-002

Rotated Rastrigin

1,14e+001 1,58e+001 4,96e+000 7,87e+000 1,35e+001 1,23e+001 5,61e+000

1,31e-38
5,81e+000 7,86e+000 3,40e+000 4,00e+000 4,99e+000 3,78e+000 4,29e+000

TABLEAU 3.2: Les rsultats en 10-D.

86

Topologie de voisinage dans PSO : tude et perfectionnement

Shifted Rastrigin) et sur 3 fonctions pivotes (Rotated Ackley, Rotated Griewank et Rotated Rastrigin), mais ce nest pas le cas pour la fonction (Shifted Ackley), pour laquelle FDR obtient
des rsultats significativement meilleurs, et pour la fonction (Rotated Rosenbrock), pour laquelle Dcluster est surpasse par R2006. Ainsi, Dcluster obtient de meilleurs rsultats que
les autres topologies pour 6 fonctions sur 8.
Fonction

R2006

FDR

Dcluster

Fitness

Four
Geometric Hierarchy P-value
clusters

Shifted Rosenbrock

2,83e+001 5,92e+001 5,72e+001 8,21e+001 1,50e+001 6,70e+007 9,10e+001

6,95e-69
6,66e+001 7,91e+001 9,32e+001 1,37e+002 3,32e+001 9,17e+007 1,65e+002

Shifted Ackley

1,73e+000 3,71e-001 9,00e-014 2,00e-001 2,66e+000 1,47e+001 5,98e-001

9,28e-104
1,03e+000 1,73e+000 2,45e-014 4,92e-001 1,64e+000 2,26e+000 1,30e+000

Shifted Griewank

6,26e-002 3,93e-001 4,43e-003 1,50e-002 1,10e-001 1,39e+001 4,87e-002

1,80e-58
3,14e-001 2,68e+000 9,38e-003 2,18e-002 3,44e-001 1,12e+001 8,43e-002

Shifted Rastrigin

5,65e+001 4,36e+001 3,20e+001 4,51e+001 9,49e+001 1,55e+002 4,12e+001

6,09e-85
1,85e+001 1,74e+001 1,14e+001 1,57e+001 2,53e+001 3,15e+001 1,59e+001

Rotated Rosenbrock

1,87e+003 2,03e+003 2,13e+003 1,82e+005 1,32e+003 5,67e+008 3,07e+003

2,73e-48
4,62e+003 4,82e+003 4,72e+003 1,78e+006 3,88e+003 5,69e+008 6,36e+003

Rotated Ackley

2,92e+001 2,96e+001 2,83e+001 2,91e+001 2,90e+001 2,90e+001 2,92e+001

1,51e-28
7,09e-002 5,23e-002 5,98e-002 7,85e-002 6,92e-002 8,23e-002 6,85e-002

Rotated Griewank

2,11e-002 1,64e-002 1,04e-002 1,63e-002 2,37e-002 2,50e+001 1,95e-002

2,07e-48
1,65e-002 1,44e-002 1,49e-002 1,36e-002 2,20e-002 1,50e+001 1,89e-002

Rotated Rastrigin

7,82e+001 9,29e+001 1,03e+002 5,66e+001 7,21e+001 1,09e+002 3,63e+001

3,54e-63
4,69e+001 2,78e+001 2,08e+001 3,80e+001 2,01e+001 2,44e+001 2,53e+001

TABLEAU 3.3: Les rsultats en 30-D.


Nous analysons maintenant les rsultats du tableau 3.3, obtenus en 30-D. Ce tableau
indique les erreurs moyennes et les carts-types sur les mmes fonctions que celles utilises en 10-D. Bien que lon ait augment la dimension et donc la complexit du problme,
les performances de PSO, en utilisant la topologie Dcluster, ne sont pas affectes par ce
changement. Cette topologie permet ainsi PSO dobtenir des bons rsultats, quelle que
87

Topologie de voisinage dans PSO : tude et perfectionnement

soit la dimension. Nous pouvons remarquer que les rsultats obtenus par Dcluster en 30D ne sont pas significativement diffrents de ceux obtenus en 10-D, o Dcluster surpasse
les autres topologies pour cinq fonctions sur huit. Four-clusters possde de meilleures performances pour les fonctions Shifted Rosenbrock et Rotated Rosenbrock, et Hierarchy pour la
fonction Rotated Rastrigin. Dans le tableau 3.3, nous avons ajout une colonne qui contient
les P value obtenues par le test statistique de Friedman. Ces valeurs montrent que les

rsultats obtenus par tous les algorithmes sont significativement diffrents. Pour assurer
les performances et la robustesse de la topologie Dcluster, nous valuons les sept topologies sur 12 problmes rels (prsents dans la section 1.4.2) de diffrentes dimensions.
Les rsultats de ces problmes sont prsents dans le tableau 3.4, et ils sont calculs de la
mme faon que pour les fonctions en 10-D et en 30-D. Les P value obtenues par le test
statistique de Friedman sont galement donnes dans ce tableau.

Pour les problmes avec contraintes, nous avons utilis lapproche de pnalit statique,
afin de prserver la faisabilit des solutions [Homa 94]. Nous avons dfini plusieurs niveaux de violation, chacun ayant un coefficient de pnalit choisi, de faon que ce coefficient augmente avec le niveau de violation. Ainsi les coefficients les plus grands sont
attribus aux niveaux les plus levs. Cette approche commence par une population alatoire de particules (faisables ou infaisables). La mise jour des meilleures positions des
particules est ralise en appliquant cette approche, dans laquelle les facteurs de pnalit
ne dpendent pas du nombre de gnrations effectues et restent constants pendant toute
la recherche. Plus prcisment, la particule modifie sa position courante uniquement si la
nouvelle position candidate est meilleure, sinon elle ne se dplace pas. Les positions des
particules sont values en utilisant la formule suivante, propose dans [Homa 94] :

m 
f itness(~x ) = f (~x ) + Rk,i max [0, gi (~x )]2

(3.3.1)

i =1

o Rk,i sont les coefficients de pnalit utiliss, m est le nombre de contraintes, f (~x ) est
la fonction objectif, et k = 1, 2, . . . , l o l est le nombre de niveaux de violation dfini par
lutilisateur.
Nous constatons dans le tableau 3.4 que les meilleurs rsultats sont obtenus par lalgorithme de PSO utilisant la topologie Dcluster. En effet, Dcluster surpasse les autres topologies pour la majorit des problmes tests, lexception de F1 et F2 . Les rsultats obtenus
par les autres topologies sont mitigs, et nous ne pouvons pas dterminer quelle topologie
est la meilleure. La topologie Hierarchy surpasse la topologie propose pour F1 et F2 , et elle
88

Topologie de voisinage dans PSO : tude et perfectionnement

obtient les mmes rsultats pour F9 et F10 .


Pour faciliter la lecture du tableau 3.4, nous avons ajout la figure 3.7 qui montre clairement les classements des topologies sur les 12 problmes. Sur cette figure, laxe y correspond aux problmes tests, laxe x correspond aux classements en fonction de lerreur
moyenne de chaque topologie. On peut remarquer que Dcluster est classe premire et
obtient les meilleurs rsultats pour la majorit des problmes (10 problmes sur 12). En
revanche, les autres topologies sont instables et leurs classements changent dun problme
lautre, cest ce qui nous amne les caractriser comme mitiges.
8
7
6

R2006
FDR

Dcluster
4

Fitness
Four-clusters

Geometric
2

Hierarchy

1
0
F1

F2

F3

F4

F5

F6

F7

F8

F9

F10

F11

F12

F IGURE 3.7: Le classement des sept algorithmes sur les 12 problmes rels.

3.3.2.3

Analyse de convergence

La figure 3.8 montre les graphes de convergence pour les fonctions Shifted Ackley, Shifted
Griewank, Shifted Rastrigin et Shifted Rosenbrock. Ces graphes reprsentent lerreur mdiane
sur 100 excutions, en fonction du nombre dvaluations de la fonction objectif (Max Fes ).
Les quatre premiers graphes reprsentent les graphes de convergence des fonctions
cites ci-dessus, en 10-D. Ces graphes montrent que lalgorithme PSO utilisant Dcluster
obtient de meilleurs rsultats et vite la convergence prmature. Dcluster continue amliorer sa meilleure solution jusqu la fin de lexcution de lalgorithme, except pour
Shi f ted Ackley. Pour cette fonction, Dcluster a pu limiter la convergence prmature de
PSO. Par contre, ce graphe montre quen utilisant les topologies (Fitness, Four-clusters,
R2006 et Geometric), lerreur dcrot assez rapidement jusqu approximativement 1000
89

Topologie de voisinage dans PSO : tude et perfectionnement

Pb.

R2006

FDR

Dcluster

Fitness

Four
clusters

Geometric Hierarchy P-value

F1

1,26e+000 1,22e+000 6,63e+000 1,49e+000 1,08e+000 5,74e+000 1,00e+000

3,41e-76
1,26e+000 7,07e-001 1,83e+000 1,57e+000 6,98e-001 1,97e+000 6,19e-001

F2

3,61e-010

7,79e-010

F3

8,89e+000 1,18e+001 2,21e+000 4,50e+000 1,14e+001 5,74e+000 6,53e+000

1,59e-27
6,36e+000 7,80e+000 3,98e+000 4,97e+000 6,73e+000 1,97e+000 6,14e+000

3,36e-009

5,78e-009

2,89e-010

6,27e-010

3,17e-010

6,01e-010

9,20e-010

2,87e-009

4,37e-009

7,69e-009

2,56e-010

1,17e-46
4,91e-010

F4

4,69e-001

1,64e-001

6,45e-001

1,40e-001

3,90e-001

1,22e-001

4,23e-001

1,41e-001

6,34e-001

1,26e-001

7,21e-001

9,03e-002

4,17e-001

1,12e-58
1,62e-001

F5

8,54e-003 7,28e-002

2,99e-002 1,17e-001

6,53e-005

6,50e-004

2,67e-004

1,28e-003

2,21e-002

5,36e-002

5,29e-003

3,23e-002

2,34e-003

1,70e-44
1,19e-002

F6

5,29e+002 5,30e+002 1,14e+002 1,62e+002 5,99e+002 6,69e+002 1,98e+002

4,46e-36
5,03e+002 5,29e+002 1,96e+002 2,41e+002 5,49e+002 5,66e+002 2,92e+002

F7

1,04e+002 1,07e+002 9,06e+001 9,49e+001 1,09e+002 1,12e+002 9,79e+001

4,03e-33
1,37e+001 2,35e+001 1,02e+001 1,23e+001 1,81e+001 2,90e+001 9,65e+000

F8

6,68e+000 3,35e+001 3,59e-001 3,03e+000 9,92e+000

2,68e+001 7,49e+001 3,58e+000 1,90e+001 4,25e+001

3,86e-001

3,84e-001

5,37e+000

1,09e-40
2,30e+001

3,08e-007

6,48e-017

1,00e-001

1,33e-001

3,08e-007

1,87e-90
3,79e-017

F9

1,15e-002

5,52e-002

F10

3,92e-001 0,00e+000 0,00e+000 0,00e+000 1,08e+000 3,92e-001 0,00e+000

1,19e-12
3,91e+000 0,00e+000 0,00e+000 0,00e+000 5,71e+000 3,91e+000 0,00e+000

F11

6,17e+000 9,78e-001 2,00e-002

2,28e+000 1,24e+000 1,99e-001

3,57e-001 6,06e+000 5,06e+000

8,29e-001 2,55e+000 2,15e+000

5,97e-001

5,11e-99
9,68e-001

7,06e-001 1,09e+000 3,26e-001

6,83e-001 1,12e+000 2,92e-001

4,11e-001 1,21e+000 7,43e+000

3,86e-001 1,12e+000 8,97e+000

5,93e-001

4,06e-55
5,69e-001

F12

1,61e-001

2,59e-001

5,51e-004

5,25e-003

6,98e-002

1,30e-001

TABLEAU 3.4: Les rsultats obtenus pour des problmes rels.

90

Topologie de voisinage dans PSO : tude et perfectionnement

valuations de la fonction objectif, mais quensuite elle a tendance ne plus trop voluer.
On peut constater que la topologie Geometric conduit lalgorithme une convergence prmature, sur toutes les fonctions, et donc de mauvais rsultats.
Les quatre graphes restants sont les graphes de convergence des mmes fonctions
tudies non pas en 10-D, mais en 30-D. Ces graphes, comme ceux prsents plus haut,
montrent une amlioration significative de la convergence de PSO utilisant Dcluster. Pour
les fonctions Shi f ted Ackley et Shi f ted Griewank, toutes les topologies convergent rapidement vers un optimum local, sauf la topologie Dcluster, qui converge plus lentement, ce
qui permet aux particules de ne pas tre piges prcocement dans un optimum local.
La bonne convergence de Dcluster peut tre explique par lutilisation de cinq groupes
interconnects dans une structure dynamique. En effet, chaque ensemble de particules
(groupe) peut dcouvrir une rgion de lespace de recherche ; ainsi la topologie contribue
acclrer la convergence vers loptimum global, et permet aux particules piges dans
un optimum local de sen chapper.

3.4

Conclusion

Dans ce chapitre, nous avons dfini le voisinage dune particule dans lalgorithme PSO.
Nous avons galement rpondu aux principales questions sur les changes des informations entre les particules. Nous avons prsent ensuite plusieurs types de topologies, utiliss dans la littrature de PSO, tels que les modles statiques et dynamiques.
Par ailleurs, nous avons propos une nouvelle topologie dynamique, appele Dcluster,
base sur le comportement entre les individus des tribus. Cette topologie a t structure
comme une combinaison dune topologie statique et dune topologie dynamique (Fousclusters et Fitness). Notre travail a t valu en utilisant diffrents problmes (plusieurs
fonctions de CEC05, et problmes rels, avec et sans contraintes). Les rsultats obtenus
par Dcluster ont t compars ceux obtenus par six autres topologies. Les expriences
ont montr quaucune des topologies tudies ne surpasse compltement les autres, mais
la topologie propose obtient les meilleures performances pour la majorit des problmes
tests. En outre, nous avons montr que Dcluster a pu limiter le phnomne de convergence prmature de lalgorithme PSO.

91

Topologie de voisinage dans PSO : tude et perfectionnement

10D Shifted Ackley

Valeur de fitness

10

10

10

10

10

15

10

10

20

500

1000
1500
Evaluations

2000

10

2500

500

10D Shifted Rastrigin

1000
1500
Evaluations

2000

2500

10D Shifted Rosenbrock

12

10

10

10

R2007
FDR
Dcluster
Fitness
Fourclus
Geo
Hierarchy

10

10

Valeur de fitness

R2007
FDR
Dcluster
Fitness
Fourclus
Geo
Hierarchy

Valeur de fitness

R2007
FDR
Dcluster
Fitness
Fourclus
Geo
Hierarchy

10

Valeur de fitness

R2007
FDR
Dcluster
Fitness
Fourclus
Geo
Hierarchy

10

10

10D Shifted Griewank

10

10

10

10

10

10

10

10

500

1000
1500
Evaluations

2000

10

2500

30D Shifted Ackley

500

1000
1500
Evaluations

2000

2500

30D Shifted Griewank

10

10

10

10

10

10

R2007
FDR
Dcluster
Fitness
Fourclus
Geo
Hierarchy

10

10
Valeur de fitness

R2007
FDR
Dcluster
Fitness
Fourclus
Geo
Hierarchy

10

Valeur de fitness

10

10

10

10

12

10

10

10

14

10

1000

2000

3000

4000
5000
Evaluations

6000

7000

10

8000

1000

2000

30D Shifted Rastrigin

3000

4000
5000
Evaluations

6000

7000

8000

30D Shifted Rosenbrock

12

10

10

R2007
FDR
Dclsuter
Fitness
Fourclus
Geo
Hierarchy
2

10

R2007
FDR
Dcluster
Fitness
Fourclus
Geo
Hierarchy

10

10

Valeur de fitness

Valeur de fitness

10

10

10

10

10

1000

2000

3000

4000
5000
Evaluations

6000

7000

10

8000

1000

2000

3000

4000
5000
Evaluations

6000

7000

8000

F IGURE 3.8: Les courbes de convergence de lalgorithme pour certains problmes.

92

C HAPITRE Q UATRE

A PPLICATION DE PSO-2S EN SEGMENTATION


D IMAGES ET EN LECTRONIQUE
4.1

Introduction

Ce chapitre se divise en deux parties correspondant aux applications de PSO-2S des


problmes rels . Dans la premire partie (section 4.2), nous prsentons la premire application de PSO-2S en segmentation dimages, dans laquelle PSO-2S est utilis comme
mthode doptimisation pour minimiser un critre qui permet de dterminer les diffrents
seuils dune image multi-classes. Dans la deuxime partie (section 4.3), nous prsentons
la deuxime application de PSO-2S en lectronique (plus prcisment, dans le cadre de la
conception de composants des circuits lectroniques). Le but ici est de trouver les dimensions des transistors qui permettent de faire fonctionner de manire optimale les circuits
tudis.

4.2

Application de PSO-2S en segmentation dimages

4.2.1

Introduction

Le traitement dimages numriques est devenu prpondrant dans de nombreux domaines, tels que la surveillance, la mdecine ou encore la prospection ptrolire. Les
images pouvant contenir des informations trs diverses, difficiles extraire et sparer visuellement, il est devenu ncessaire de disposer dalgorithmes de traitement automatique
des images. Un systme de traitement automatique dimages est globalement compos de
deux niveaux : le premier est consacr au traitement numrique, au sens large, avec des
oprations telles que le codage, lamlioration ou encore la restauration ; le deuxime est
ddi lanalyse des images, dans le but dextraire et dinterprter linformation contenue
dans limage.
La segmentation occupe une place importante, car elle est situe larticulation entre le
93

Application de PSO-2S en segmentation dimages et en lectronique

traitement et lanalyse des images. La complexit du problme, la diversit des images et


lvaluation assez empirique des rsultats en font un axe de recherche trs actif. Le but de la
segmentation est de partitionner une image en plusieurs rgions homognes, au sens dun
critre fix a priori. On peut ainsi passer dune information de type intensit lumineuse
une information spatiale, permettant de mieux interprter limage traite. Dun point de
vue purement pratique, lopration de segmentation revient donner chaque pixel de
limage un label dappartenance une rgion donne.
Plusieurs approches de segmentation dimages existent dans la littrature [Naki 07].
Dans le cadre de nos travaux, nous nous sommes limits lapproche par seuillage
dimages. Le seuillage dimage est une mthode de segmentation supervise, cest--dire
que le nombre de rgions et leurs proprits sont fournis au pralable par lutilisateur. La
segmentation est effectue en dterminant, pour chaque pixel, la classe dont les proprits
se rapprochent le plus de celles observes en ce pixel. La technique de seuillage est base
sur lhypothse que les diffrentes rgions de limage peuvent tre diffrencies par leurs
niveaux de gris. Cette mthode repose donc sur lutilisation de lhistogramme de limage
traite. Le seuillage de limage en N classes revient trouver les N 1 seuils qui vont par-

titionner lhistogramme en N zones. Le problme de seuillage est dfini plus prcisment


dans la sous-section 4.2.2.
Dans cette partie de ce chapitre, nous montrons lintrt dutiliser la mtaheuristique
PSO-2S, dcrite dans le chapitre 2, pour la segmentation dimages IRM crbrale. Les performances de PSO-2S sont tout dabord compares celles de SPSO-07 (Standard Particle

Swarm Optimization dans sa version 2007) [Cler 12], en utilisant des images de rfrence,
communment utilises dans la littrature en segmentation. Ensuite, les performances de
ces deux algorithmes seront compares sur des images issues dune base de donnes gnre par simulation dIRM crbrale [Bran 12, Coll 98]. Cette base de donnes, appele
BrainWeb, fournit des images pour lesquelles une segmentation optimale est connue.
En effet, les simulations dIRM crbrale disponibles sur BrainWeb se basent sur un modle anatomique prdfini du cerveau. Les images gnres par ces simulations peuvent
ainsi servir pour valider une mthode de segmentation, ou comparer les performances de
diffrentes mthodes.
Il est noter ici que cette application est faite en collaboration avec Julien Lepagnot,
Matre de Confrences lUniversit de Haute-Alsace, Mulhouse.
94

Application de PSO-2S en segmentation dimages et en lectronique

4.2.2

Segmentation dimages par seuillage

4.2.2.1

Formulation du problme

Le problme du seuillage consiste diviser limage en N rgions (N dfini au pralable


par lutilisateur) non forcment connexes. Le processus de segmentation est uniquement
bas sur lhypothse que les diffrentes rgions de lespace sont diffrentiables par leurs
niveaux de gris. Segmenter limage en N rgions revient donc trouver N 1 seuils qui
vont diviser lhistogramme en N rgions.

Soit f limage segmenter, limage segmente g est dfinie par :


g( x, y) = k si Tk f ( x, y) < Tk+1 , k {0, ..., N 1}

(4.2.1)

o x et y sont les coordonnes du pixel courant, N est le nombre de classes et T0 , ..., TN sont
les bornes des diffrentes rgions en niveaux de gris. Le but dune mthode de seuillage
est de trouver les seuils optimaux T1 , ..., TN 1 , T0 et TN tant les bornes de lensemble des
niveaux de gris possibles.

Le seuillage manuel dimages se droule globalement en quatre tapes :


1. observation de lhistogramme ;
2. choix des seuils dans les valles de lhistogramme ;
3. dfinition des classes de rgions par intervalles de niveaux de gris ;
4. classement des pixels.
Les performances du seuillage manuel dpendent de laptitude de loprateur trouver les bons seuils de segmentation. Cette tche ne pose pas de problme lorsque lhistogramme de limage nest pas difficile interprter. Toutefois, ce nest pas toujours le cas
avec les diffrentes classes dimages. Le but dun algorithme de seuillage est donc de proposer une mthode automatique qui permette lutilisateur de saffranchir de lensemble
des quatre tapes du seuillage manuel, afin de gagner en prcision et en rapidit de traitement.

95

Application de PSO-2S en segmentation dimages et en lectronique

4.2.2.2

Mthodes de seuillage

Les mthodes de seuillage peuvent tre divises en deux catgories : les mthodes nonparamtriques, qui reposent sur loptimisation dun ou plusieurs critres a posteriori, et
les mthodes paramtriques, qui sont bases sur lhypothse que les niveaux de gris des
diffrentes classes de limage suivent une certaine fonction de densit de probabilit.
Les deux mthodes non-paramtriques de rfrence sont la mthode dOtsu [Otsu 79]
et la mthode de Kapur et al. [Kapu 85]. Beaucoup de techniques parues ensuite sont des
variantes de ces deux mthodes. La mthode dOtsu repose sur la maximisation de la
variance interclasse. Celle de Kapur et al. est base sur la maximisation de lentropie de
Shannon. Cette mthode a ouvert le champ la dfinition de nombreuses mesures dinformation pour mieux segmenter les images, telles que lentropie de Tsallis ou lentropie de
Renyi [Sezg 04].
Les mthodes paramtriques de seuillage supposent que les diffrentes classes de
limage suivent une fonction de densit de probabilit (fdp) prdfinie. Lhistogramme est
alors approch par une somme de fdp et les seuils sont choisis aux intersections de cellesci. Gnralement, ces fdp sont supposes suivre un modle gaussien. Le problme se dcompose ici en deux tapes : estimer les paramtres des fdp et dterminer les seuils de segmentation. La plupart des mthodes existantes sont prsentes dans [Saho 88], [Sezg 04],
[Gonz 07] et [Cuev 10].
Dans cette section, nous nous intressons une mthode de cette catgorie pour segmenter des images mdicales. Lhistogramme est ainsi approch par une somme de fonctions gaussiennes. Une telle opration nous permet dobtenir une expression analytique
approche de lhistogramme, et den dduire les seuils optimaux.
4.2.2.3

Seuillage par apprentissage

La premire tape permet dapprocher lhistogramme, not h, dune image quelconque


code sur une chelle de L niveaux de gris, par une somme de d fdp [Synd 90]. Dans notre
cas, des fdp gaussiennes sont utilises, et lapproximation de h est donne par :

( x i )2
h approx ( x ) = Pi exp
i2
i =1
"

96

(4.2.2)

Application de PSO-2S en segmentation dimages et en lectronique

o Pi est lamplitude de la iime gaussienne, i est la moyenne et i2 est la variance.


Lhistogramme h est normalis de la manire suivante :
hnorm (i ) =

h (i )
Lj=01

(4.2.3)

h( j)

Approcher lhistogramme h avec la somme de gaussiennes h approx revient donc minimiser le critre J en fonction du jeu de paramtres . Lexpression du critre J est donne
par :
J () =

L 1

hnorm (i) happrox (, i)

i =0

(4.2.4)

Le jeu de paramtres est donn par :

= { Pi , i , i ; i = 1, ..., d}

(4.2.5)

Si lon suppose que lhistogramme est correctement approch par la somme de gaussiennes, alors les seuils optimaux sont calculs en minimisant la probabilit de recouvrement des diffrentes gaussiennes. Pour deux gaussiennes successives, lexpression de cette
probabilit est :

E( Ti ) = Pi

Z Ti

pi ( x )dx + Pi+1

Z +
Ti

pi+1 ( x )dx

(4.2.6)

o Ti est le iime seuil de limage, pi est la iime gaussienne de lapproximation, et i =


1, ..., d 1.
Minimiser cette erreur revient diffrencier E( Ti ) selon le critre de Leibniz en fonction
de Ti et lgaler zro. Cela donne :
Pi pi ( x ) = Pi+1 pi+1 ( x )

(4.2.7)

Dans le cas de fdp gaussiennes, on aboutit la rsolution dune quation du second


ordre, dont lexpression est donne par :

97

Application de PSO-2S en segmentation dimages et en lectronique

A Ti2 + B Ti + C = 0

(4.2.8)

A = i2 + i2+1

(4.2.9)



B = 2 i i2+1 i+1 i2

(4.2.10)

avec :

C=

2i+1

i2

2i

i2+1

+4

i2

i2+1 ln

i+1 Pi
i Pi+1

(4.2.11)

Cette expression a deux solutions possibles, mais seule lune des deux est acceptable
dans le cas prsent [Kitt 86].

4.2.3

Protocole exprimental et paramtrage

Pour comparer les performances de PSO-2S et de SPSO-07, le critre (4.2.4) est minimis
pour les quatre images de la figure 4.1. Le critre de stagnation utilis est satisfait si aucune
amlioration significative (suprieure 1E10) nest observe pour la meilleure solution

courante, durant 1E+4 valuations successives de la fonction objectif. De plus, le nombre


maximum dvaluations autorises est fix Max Fes = 300000.

Sur cette figure, les images (a) et (b) sont des images de rfrence utilises pour la
validation de mthodes de segmentation, dans la littrature. Les images (c) et (d) correspondent, quant elles, des images obtenues depuis BrainWeb [Bran 12]. Les paramtres
utiliss pour la simulation dIRM crbrale sont une squence pondre en T1, une paisseur de coupe de 1 mm, un bruit gaussien de 3% calcul par rapport au tissu dintensit
maximale, et un niveau dinhomognit dintensit du champ radio-frquence de 20%.
Les valeurs des paramtres de PSO-2S et de SPSO-07 utilises pour ce problme de
segmentation, sont prsentes ci-dessous :
PSO-2S (variante utilisant une recherche locale telle que dcrite dans le chapitre 2)
en utilisant 30 zones et

p4
7000

+ 10 particules dans chaque zone, avec p le numro de

la zone. La valeur du paramtre K utilis pour engendrer le voisinage des particules


est fixe K = 3. Le paramtre dsign par nbgeneration est fix 15.
98

Application de PSO-2S en segmentation dimages et en lectronique

(a)

(b)

(c)

(d)

F IGURE 4.1: Les images tests : (a) LENA, (b) BRIDGE, (c) IRMCT (coupe transversale), (d)
IRMCC (coupe coronale).
SPSO-07 (Standard Particle Swarm Optimization dans sa version 2007) [Cler 12] en utilisant le paramtrage recommand par son auteur (le paramtre K utilis pour engendrer le voisinage des particules (K = 3) et la taille de lessaim S est calcule

automatiquement par la formule : S = 10 + 2 D ).

4.2.4

Rsultats et discussion

Nous prsentons maintenant les rsultats exprimentaux obtenus avec PSO-2S et


SPSO-07. Les rsultats de segmentation sont prsents la figure 4.2. Sur cette figure, les
images originales et leurs histogrammes sont illustrs en (a) et en (b), respectivement. Les
histogrammes approchs sont illustrs en (c), et les images segmentes (en 5 classes) sont
illustres en (d). Pour chaque image test, nous pouvons constater que lapproximation de
son histogramme, illustre en dtail pour LENA la figure 4.3, permet dobtenir une bonne
segmentation de limage.
Les rsultats destimation dhistogramme, pour chaque image test, sont prsents dans
le tableau 4.1. Dans ce tableau, les paramtres de chacune des cinq gaussiennes utilises
pour approcher lhistogramme de chaque image sont donns. Les paramtres de la iime
gaussienne dune image sont nots Pi , i et i . Les valeurs de seuils sparant les diffrentes
classes de pixels, calcules pour chaque image via lapproximation de son histogramme,
sont ensuite donnes dans le tableau 4.2.
Pour chaque image test, le nombre dvaluations effectues par chaque algorithme,
moyenn sur 100 excutions, est donn dans le tableau 4.3. Le taux de succs (le pourcentage sur les 100 excutions de solutions acceptables trouves, i.e. le pourcentage de
99

Application de PSO-2S en segmentation dimages et en lectronique

LENA

BRIDGE

IRMCT

IRMCC

(a)

(b)

(c)

(d)

F IGURE 4.2: Illustration de la procdure de segmentation. (a) Images originales. (b) Images
segmentes. (c) Histogrammes originaux. (d) Histogrammes approchs.
Image
LENA

P1

P2

P3

P4

P5

41,62 0,17 9,87 90,57 0,28 23,14 117,21 0,06 6,33 142,54 0,43 23,82 199,56 0,07 12,64

BRIDGE 41,13 0,06 15,36 76,75 0,39 25,97 119,25 0,38 34,73 173,38 0,14 28,43 225,53 0,02

9,09

IRMCT

4,71 0,28 3,78 40,79 0,17 10,05 94,50 0,36 14,26 131,55 0,19 9,17 225,60 0,00 252,92

IRMCC

4,66 0,41 3,66 41,76 0,09 7,64

99,57 0,21 11,92 135,53 0,29 7,46 192,73 0,00 239,82

TABLEAU 4.1: Paramtres des gaussiennes utiliss pour estimer lhistogramme de chaque
image test.
100

Application de PSO-2S en segmentation dimages et en lectronique

0.01

P abilits
Proba

0 008
0.008

0.006

0 004
0.004

0.002

0
0

50

100

150

200

250

Niveaux de gris

(a)
0.01

classe 1
classe 2
classe 3
classe 4
classe 5

P abilits
Proba

0 008
0.008

0.006

0 004
0.004

0.002

0
0

50

100

150

200

250

200

250

Niveaux de gris

(b)
0.01

P abilits
Proba

0 008
0.008

0.006

0 004
0.004

0.002

0
0

50

100

150

Niveaux de gris

(c)
F IGURE 4.3: Illustration de la procdure dapproximation dhistogramme pour LENA.
(a) Histogramme original. (b) Fonctions gaussiennes de chaque classe de pixels. (c) Somme
des fonctions gaussiennes (histogramme approch).
101

Application de PSO-2S en segmentation dimages et en lectronique

Image

Seuils

LENA

57 112 120 183

BRIDGE 46 98 156 215


IRMCT 15 62 117 184
IRMCC 17 64 121 177
TABLEAU 4.2: Valeurs des seuils pour chaque image test.
solutions ayant une valeur de fonction objectif infrieure ou gale 5,14E4 ; 5,09E4 ;
7,51E4 ; 7,99E4 pour LENA ; BRIDGE ; IRMCT ; IRMCC, respectivement), ainsi que

lerreur moyenne dapproximation (la valeur moyenne de la fonction objectif pour la


meilleure solution trouve) de lhistogramme dune image sont aussi donns dans ce tableau, pour 100 excutions dun algorithme.
Image
LENA
BRIDGE
IRMCT
IRMCC

Algorithme

Evaluations

Erreur dapproximation

Taux de succs

PSO-2S

119721,7 64844,3

5,44E4 3,06E5

41 %

241537,8 70707,8

5,27E4 9,54E5

48 %

7,69E4 1,26E4

95 %

8,68E4 1,18E4

70 %

SPSO-07
PSO-2S
SPSO-07
PSO-2S
SPSO-07
PSO-2S
SPSO-07

67057,1 64316,9

125524,4 63277,9
81080,9 66569,8
44212,0 57321,5
72922,5 35894,4
28185,4 16188,4

5,52E4 3,08E5

25 %

5,16E4 6,01E6

24 %

8,79E4 2,73E4

77 %

9,46E4 2,71E4

54 %

TABLEAU 4.3: Nombre moyen dvaluations pour segmenter une image, erreur dapproximation et taux de succs obtenus par chaque algorithme, pour chaque image test.
Dans ce tableau, nous constatons que PSO-2S ncessite plus dvaluations que SPSO-07
pour converger vers une solution acceptable. En revanche, son taux de succs est significativement suprieur celui de SPSO-07 pour toutes les images, daprs le test exact de
Fisher [Fish 22] avec un niveau de confiance de 95%. En effet, PSO-2S est conu pour viter
une convergence prmature de lalgorithme PSO. Il permet damliorer significativement
la stabilit de la mthode de segmentation utilise. Nous montrons ainsi lintrt dutiliser
PSO-2S pour ce type de problme.
102

Application de PSO-2S en segmentation dimages et en lectronique

4.2.5

Conclusion

Dans cette section, nous avons prsent une mthode de segmentation par estimation dhistogramme permettant didentifier plusieurs classes de pixels, aussi bien dans
des images standard que dans des images mdicales. Cette mthode comporte une tape
doptimisation dans laquelle nous avons intgr notre algorithme PSO-2S. Nous avons
galement test la mthode en utilisant lalgorithme SPSO-07.
Les rsultats de segmentation obtenus sur plusieurs images tests communment utilises dans la littrature en traitement dimages, ainsi que sur des images synthtiques issues de simulations paramtrables dIRM crbrale, sont satisfaisants. Ensuite, nous avons
montr que lutilisation de PSO-2S confre une plus grande stabilit la mthode de segmentation, par rapport SPSO-07. Les rsultats montrent ainsi lintrt dutiliser PSO-2S
sur ce type de problme.

4.3

Application de PSO-2S au dimensionnement de circuits


lectroniques

4.3.1

Introduction

Lintgration trs grande chelle (VLSI - Very Large Scale Integration) est une technologie de circuit intgr (CI) dont la densit dintgration permet de supporter plus de 100 000
composants lectroniques sur une mme puce et, donc, de raliser des circuits intgrs
de haute complexit [Giel 91]. Les composants analogiques prennent une part importante
dans la conception de tels circuits, tant pour les systmes signal mixte que pour les systmes numriques [Giel 91, Toum 93]. En effet, les paramtres des composants analogiques
influencent directement les performances de ces circuits.
La conception de circuits analogiques est un processus complexe, qui consiste raliser de nombreuses tapes de dveloppement, pour concevoir correctement et sans erreurs un tel circuit. Elle ne concerne pas seulement le placement et le routage des composants, mais aussi leur dimensionnement [Grae 01]. Normalement, le dimensionnement des composants analogiques est un processus lent, itratif et qui ncessite beaucoup de temps. Ce processus peut tre ralis grce lexprience et lintuition dun expert [Conn 96]. Donc, trouver une manire efficace et rapide dacclrer le processus de
conception des circuits intgrs est indispensable. Les approches qui sont bases sur des
103

Application de PSO-2S en segmentation dimages et en lectronique

topologies fixes et/ou des techniques stochastiques sont les plus connues dans la littrature [Mede 94, Silv 96, Conn 96, Loul 02]. Ces mthodes sont initialises avec une bonne
solution fournie par un expert en conception de circuits analogiques. Le problme de ces
mthodes est quelles sont souvent trs lentes et quelles ne garantissent pas la convergence
vers un optimum global.
En effet, le problme de dimensionnement peut tre considr comme un problme
doptimisation variables continues soumis des contraintes. Les variables de dcision
sont alors les largeurs et les longueurs des transistors du circuit, les contraintes tant imposes par le cahier des charges du circuit.
Dans ce qui suit, nous prsentons une application de PSO-2S au dimensionnement dun
circuit analogique. Plus prcisment, dans cette application, nous cherchons optimiser les
caractristiques importantes dun convoyeur de courant de seconde gnration positif boucle
translinaire CMOS afin damliorer sa performance. Ces caractristiques sont la rsistance
parasite et la frquence de coupure en courant [Toum 93, Fabr 98].
Il est noter ici que cette application est faite en collaboration avec Mourad Fakhfakh,
Matre de Confrences lcole Nationale dIngnieurs de Sfax, en Tunisie.

4.3.2

Convoyeur de courant de seconde gnration

Les convoyeurs de courant (CCs, Current Conveyors) ont t introduits en 1970 [Sedr 70].
Ces convoyeurs constituent ce jour llment le plus courant des circuits analogiques
en mode courant (CMCs, Current Mode Circuits) [Sedr 90, Toum 93]. Il est notoire que
les circuits en mode tension (VMCs, Voltage Mode Circuits), tels que les amplificateurs oprationnels (Op-amps), les convertisseurs tension-frquence (VFCs, Voltage-toFrequency Converters), les comparateurs de tension, etc., ne sont pas adapts aux oprations haute frquence, en raison de leurs contraintes dues aux faibles bandes passantes. De tels problmes se posent dans les VMCs, en raison de la prsence de capacits parasites [Rajp 07]. Les CMCs se sont avrs plus performants que les VFCs parce
que le fonctionnement du circuit dpend principalement des courants et, donc, il est possible de concevoir des circuits utilisant les CMCs qui peuvent fonctionner sur une large
gamme dynamique. Parmi les configurations les plus populaires de CMCs, nous citons
les convoyeurs de courant, spcialement ceux de deuxime gnration (CCIIs), qui ont
reu beaucoup dattention et prsentent de nombreux avantages par rapport leurs homologues VMCs.
104

Application de PSO-2S en segmentation dimages et en lectronique

Un convoyeur de courant est un dispositif lectronique compos de trois ports actifs. Sa


reprsentation conventionnelle est illustre dans la figure 4.4 (a). Les figures 4.4 (b) et 4.4 (c)
illustrent, respectivement, les schmas quivalents nullateurs-norateurs qui reproduisent
les comportements idaux des convoyeurs de courant CCII+ et CCII [Tlel 10, Schm 00].
Y

Y
X
Z

CC

Z
X

r=1ohm

(a)

(b)

r=1ohm

(c)

F IGURE 4.4: (a) Reprsentation gnrale dun convoyeur de courant, (b) Schma quivalent nullateur-norateur dun CCII- idal, et (c) Schma quivalent nullateur-norateur
dun CCII+ idal.
Les diffrents courants et tensions aux trois bornes X, Y et Z sont lis par la relation
suivante [Toum 93, Ben 06] :

IY

0 0

VY



V = 1 0 0 I
X

X
IZ
0 0
VZ

Dans lquation ci-dessus, spcifie le type de convoyeur de courant utilis et peut


prendre deux valeurs 0 ou 1 :
Si = 0, le circuit est considr comme un convoyeur de courant de seconde gnration (CCII),
Si = 1, alors le circuit est considr comme un convoyeur de courant de premire
gnration (CCI).
et caractrise le transfert de courant entre les ports X et Z et peut prendre deux valeurs

1 ou 1 :
Si = 1, le circuit est class comme un convoyeur de courant ngatif,
Si = 1, le circuit est considr comme un convoyeur de courant positif.
Un convoyeur de courant de seconde gnration assure les deux fonctionnalits suivantes :

105

Application de PSO-2S en segmentation dimages et en lectronique

suiveur de courant entre les ports X et Z ;


suiveur de tension entre les ports X et Y.
Dans le cas idal, et pour assurer les bonnes fonctionnalits du circuit, un convoyeur
de courant de deuxime gnration est caractris par une faible impdance sur le port X
et de hautes impdances sur les ports Y et Z.
Le convoyeur de courant de seconde gnration est le convoyeur le plus souvent utilis, tant pour ses bonnes performances, que pour lintrt apport par lutilisation dune
boucle translinaire [Seev 00]. La figure 4.5 montre lexemple dun convoyeur de courant de
seconde gnration positif boucle translinaire CMOS [Ben 06]. Les transistors M1 M4
constituent la boucle translinaire qui assure VX = VY . I0 est le courant de polarisation et
les transistors M9 M13 constituent des miroirs de courant. Les transistors M5 M8 servent
reproduire au port Z le courant appliqu au port X.
VDD
M10

M9

M8

M1

M7

M2

I0
M3

M13

M12

M4

M11

M5

M6
VSS

F IGURE 4.5: Convoyeur de courant de seconde gnration positif (CCII+).


Lorsquil est conu au niveau microlectronique, le comportement dun convoyeur de
courant peut diffrer du cas idal. La Figure 4.6 montre les diffrents composants parasites
dun convoyeur de courant qui sont souvent modliss par trois impdances ZX , ZY et ZZ
et relis aux ports correspondants. Ces composants affectent de manire significative le
106

Application de PSO-2S en segmentation dimages et en lectronique

comportement du circuit. Il a t prouv que, parmi ces lments, ZX est le composant


parasite dont les effets sont les plus importants sur le comportement du convoyeur de
courant. Plus prcisment, cest la rsistance parasite R X du port X qui est le plus dominant
et qui affecte les performances de la faon la plus significative du CC.

Zx

Cx
Vx

X
Ix

Lx

Rx

Iy

Vy

ideal
CC
CC
idal

Xi

Zi

Yi

Iz

Cy

Cz

Ry
Zy

Vz

CC rel
real
CC

Rz

Zz

F IGURE 4.6: Schma quivalent avec composants parasites.


Dans le cas dapplications hautes frquences, ces circuits doivent tre prcisment dimensionns si lon veut que les performances soient en accord avec les souhaits du concepteur. La bande passante en courant limite le domaine dapplication du circuit, car la bande
passante en courant est moins large que celle en tension. Donc, dans cette application, nous
cherchons optimiser les caractristiques importantes du circuit, i.e. la rsistance parasite
R X du port X et la frquence de coupure en courant f ci .

4.3.3

Les fonctions objectifs de composants

Lexpression de la rsistance parasite R X est donne par [Ben 06] :

o :

RX = q

1
N
2K N ( W
L N )(1 + N VDS ) I0 +

P
2K P ( W
L P )(1 + P VDS ) I0

(4.3.1)

N , P , K N = 0,9386.108 et K P = 0,3476.106 sont des paramtres lis la technologie des transistors (AMS 0,35 m),
I0 est le courant de polarisation et VDS est la tension drain-source des transistors,
107

Application de PSO-2S en segmentation dimages et en lectronique

WN et L N sont respectivement la largeur et la longueur des transistors NMOS,


et WP et L P sont respectivement la largeur et la longueur des transistors PMOS.
Lexpression de la frquence de coupure en courant f ci est calcule partir dune approche symbolique. Son expression nest pas donne ici, du fait de son trs grand nombre
de termes.
Tous les transistors doivent oprer en mode saturation. Les contraintes de saturation
sont donnes par :
WN
W
= KP P
LN
LP

(4.3.2)

WN L N = WP L P

(4.3.3)

KN

VDD
VTN
2

VDD
VTP
2

I0
N
KN W
LN

I0
P
KP W
LP

>

>

I0
P
KP W
LP

I0
N
KN W
LN

(4.3.4)

(4.3.5)

o VTN = 0,4655V et VTP = 0,617V sont des paramtres inhrents la technologie utilise.
VDD est la source de tension de 2,5 V.
Le but est de minimiser R X et de maximiser f ci en fonction de WN , L N , WP et L P ,
en respectant les conditions imposes par les contraintes prsentes ci-dessus. Les limites
technologiques imposent que :
35.108 L N , L P 13.106

(4.3.6)

1.106 WN , WP 30.106

(4.3.7)

Comme notre objectif est de minimiser R x et de maximiser f ci simultanment, et comme


ces deux quantits sont essentiellement positives, nous configurons le problme comme un
problme doptimisation bi-objectif minimiser. La nouvelle fonction objectif minimiser,
note f obj , est alors donne comme suit :
f obj =

1
f ci

108

+ RX

(4.3.8)

Application de PSO-2S en segmentation dimages et en lectronique

4.3.4

Lvaluation des performances

Les valeurs optimales pour les dimensions physiques des transistors MOS (i.e les valeurs de WN et L N pour chaque transistor NMOS et les valeurs de WP et L P pour chaque
transistor PMOS) sont obtenues en minimisant f obj , pour une srie du courant de polarisation (i.e. avec diffrentes valeurs de I0 ). Les simulations sont ralises en utilisant la
technologie CMOS AMS 0,35 m, une alimentation de 2,5 V et lensemble des valeurs du
courant de polarisation est considr I0 {50, 100, 150, 200, 250, 300} A. Les valeurs des

paramtres de PSO-2S utilises pour ce problme, dsigns par nbgeneration et nb particule , sont
fixes 40 et 2, respectivement. En outre, le paramtre maxzone est fix 30, sachant que

ce paramtre signifie aussi la taille de lessaim principal S1. Le critre darrt pour PSO-2S
est Max Fes = 100000.
Les tableaux 4.4 4.9 montrent les valeurs optimales des paramtres de conception (i.e.

les valeurs optimales de dimensions obtenues pour CCII+), ainsi que les valeurs associes
obtenues pour R x et f ci , en utilisant lalgorithme PSO-2S. Chacun de ces tableaux correspond une valeur de I0 , et prsente les rsultats obtenus par PSO-2S sur cinq excutions.
Les meilleurs rsultats sont indiqus en gras ; la ligne en gras dans chaque tableau dsigne
la meilleure excution.
L N (m)

WN (m)

L P (m)

WP (m)

f ci (GHz)

R X (ohm)

#1

0,52

15,98

0,35

26,38

0,909

594

#2

0,52

15,30

0,35

25,10

0,925

607

#3

0,52

17,48

0,35

28,85

0,868

567

#4

0,52

17,47

0,35

28,82

0,869

568

#5

0,52

17,70

0,35

28,99

0,859

565

No exc.

TABLEAU 4.4: Valeurs optimales des paramtres WN , L N , WP et L P de transistors NMOS


et PMOS obtenues par PSO-2S sur cinq excutions, avec un courant de polarisation I0 =
50A.
Pour vrifier les rsultats obtenus par PSO-2S, nous avons mis en uvre des simulations laide de SPICE 1 pour le modle CCII ltude. Pour ce faire, nous choisissons les
meilleures valeurs optimales des dimensions (i.e. la meilleure excution parmi les cinq)
1. SPICE (Simulation Program with Integrated Circuit Emphasis) est un logiciel de simulation gnraliste de
circuits lectroniques analogiques.

109

Application de PSO-2S en segmentation dimages et en lectronique

L N (m)

WN (m)

L P (m)

WP (m)

f ci (GHz)

R X (ohm)

#1

0,52

14,30

0,35

23,62

1,358

444

#2

0,52

17,70

0,35

29,47

1,215

399

#3

0,54

17,19

0,35

27,41

1,211

408

#4

0,57

15,33

0,35

23,27

1,240

437

#5

0,52

17,69

0,35

29,17

1,220

399

No exc.

TABLEAU 4.5: Valeurs optimales des paramtres WN , L N , WP et L P de transistors NMOS


et PMOS obtenues par PSO-2S sur cinq excutions, avec un courant de polarisation I0 =
100A.

L N (m)

WN (m)

L P (m)

WP (m)

f ci (GHz)

R X (ohm)

#1

0,58

12,14

0,35

18,22

1,664

362

#2

0,53

14,41

0,35

23,53

1,761

404

#3

0,53

13,92

0,35

22,64

1,671

368

#4

0,53

11,30

0,35

18,41

1,855

409

#5

0,56

12,26

0,35

19,08

1,646

397

No exc.

TABLEAU 4.6: Valeurs optimales des paramtres WN , L N , WP et L P de transistors NMOS


et PMOS obtenues par PSO-2S sur cinq excutions, avec un courant de polarisation I0 =
150A.

L N (m)

WN (m)

L P (m)

WP (m)

f ci (GHz)

R X (ohm)

#1

0,52

17,19

0,35

28,28

1,749

286

#2

0,52

13,07

0,35

21,43

1,999

329

#3

0,53

15,77

0,35

25,41

1,800

300

#4

0,52

16,36

0,35

27,02

1,793

293

#5

0,55

12,88

0,35

19,95

1,940

335

No exc.

TABLEAU 4.7: Valeurs optimales des paramtres WN , L N , WP et L P de transistors NMOS


et PMOS obtenues par PSO-2S sur cinq excutions, avec un courant de polarisation I0 =
200A.

110

Application de PSO-2S en segmentation dimages et en lectronique

L N (m)

WN (m)

L P (m)

WP (m)

f ci (GHz)

R X (ohm)

#1

0,54

16,73

0,35

26,54

1,932

262

#2

0,53

15,34

0,35

24,84

2,045

272

#3

0,54

15,65

0,35

25,49

1,993

271

#4

0,53

17,51

0,35

29,52

1,915

255

#5

0,53

15,78

0,35

25,61

2,021

268

No exc.

TABLEAU 4.8: Valeurs optimales des paramtres WN , L N , WP et L P de transistors NMOS


et PMOS obtenues par PSO-2S sur cinq excutions, avec un courant de polarisation I0 =
250A.
L N (m)

WN (m)

L P (m)

WP (m)

f ci (GHz)

R X (ohm)

#1

0,52

18,04

0,35

29,79

2,095

228

#2

0,52

17,76

0,35

29,25

2,097

230

#3

0,53

18,62

0,35

30,00

2,027

226

#4

0,54

18,89

0,35

30,00

1,996

225

#5

0,54

18,83

0,35

30,00

2,003

225

No exc.

TABLEAU 4.9: Valeurs optimales des paramtres WN , L N , WP et L P de transistors NMOS


et PMOS obtenues par PSO-2S sur cinq excutions, avec un courant de polarisation I0 =
300A.
obtenues par PSO-2S pour chacun des six cas. Ces valeurs sont utilises dans SPICE pour
dterminer les valeurs exactes de R x et f ci , que nous devrions nous attendre obtenir si
la configuration de CCII+ est physiquement ralise avec les dimensions physiques optimales correspondant celles des transistors NMOS et PMOS. En outre, pour permettre
une comparaison correcte de ces rsultats obtenus en utilisant PSO-2S, les rsultats sont
compars avec ceux dalgorithmes doptimisation stochastique concurrents, qui peuvent
tre potentiellement utiliss pour rsoudre ce genre de problme.
Afin de raliser ces comparaisons, nous nous sommes bass sur des rsultats prsents dans [Chat 10]. Ces rsultats sont obtenus partir de trois algorithmes : DE, PSO et
BFO (bacterial foraging optimization [Pass 02]). Le tableau 4.10 prsente les rsultats de ces
trois algorithmes, ainsi que les rsultats obtenus par PSO-2S. Plus prcisment, ce tableau
montre les rsultats directs de R x et f ci obtenus par chacun de ces quatre algorithmes, ainsi
que les rsultats de simulations obtenus par SPICE, qui sont associs aux valeurs de di111

Application de PSO-2S en segmentation dimages et en lectronique

BFO

f ci (GHz)
PSO
DE

PSO-2S

BFO

R X (ohm)
PSO
DE

Direct
Simulation

1,245
1,228

0,866
0,840

1,184
1,181

0,925
0,982

860
1044

1376
1821

865
1060

607
671

Direct

1,812

1,802

1,729

1,358

608

633

607

444

Simulation

1,629

1,620

1,543

1,539

815

848

821

538

Direct

1,736

1,721

1,735

1,761

405

435

406

404

Simulation

1,581

1,564

1,569

1,746

546

597

548

471

Direct

1,846

2,027

1,686

1,793

305

338

305

293

Simulation

1,639

1,774

1,543

1,810

410

471

413

388

250

Direct
Simulation

2,036
1,772

1,940
1,750

2,006
1,763

2,045
2,016

272
377

272
382

273
382

272
381

300

Direct
Simulation

2,121
1,825

2,042
1,788

2,055
1,748

2,095
2,053

231
324

230
324

232
324

228
318

I0 (A)

Rsultats

50
100

150

200

PSO-2S

TABLEAU 4.10: Une comparaison des meilleurs rsultats obtenus par les algorithmes : BFO,
PSO, DE et PSO-2S.
mensions obtenues par chaque algorithme (i.e. nous avons utilis les valeurs de WN , L N ,
WP et L P de chaque algorithme pour faire les simulations SPICE, par lesquelles nous obtenons les valeurs de R x et f ci ). Lintrt de ces comparaisons est de montrer que PSO-2S
donne des rsultats encourageants par rapport aux algorithmes concurrents, et de vrifier
que les rsultats directs et ceux des simulations ne sont pas trs diffrents. Il est noter
que la prsence de diffrences, entre les valeurs thoriques (directes) et celles des simulations (SPICE), est tout fait normal, car les modles mathmatiques utiliss prsentent des
erreurs provoques par les simplifications.
Une tude attentive du tableau 4.10 montre que lalgorithme PSO-2S obtient de
meilleurs rsultats que les autres algorithmes en comptition sur cette application, et ce
dans la majorit des cas (i.e. pour les diffrentes valeurs de I0 ). En effet, sur ce tableau,
nous pouvons remarquer que PSO-2S obtient les plus petites valeurs de R x (la fonction
minimiser) dans les six cas tudis. En revanche, pour f ci (la fonction maximiser),
PSO-2S donne de meilleurs rsultats dans deux cas de I0 (I0 = 150 A et I0 = 250 A).
Pour cette fonction, BFO surpasse les autres algorithmes dans trois cas (I0 = 50 A,
I0 = 100 A et I0 = 300 A), pendant que PSO obtient de meilleurs rsultats dans un
seul cas (I0 = 200 A). Le fait de ne pas avoir les meilleurs rsultats pour f ci par PSO112

Application de PSO-2S en segmentation dimages et en lectronique

2S ne montre pas une faiblesse de lalgorithme, mais ceci sxplique par la minimisation
d une fonction bi-objectif. En effet, nous pouvons voir sur ce tableau quen minimisant
la fonction objectif f obj ( f obj = ( f1 ) + R X ), PSO-2S obtient les meilleurs rsultats dans les
ci

six cas. De plus, les simulations SPICE prouvent que PSO-2S obtient les meilleurs valeurs
pour R x et f ci dans la plupart des cas.
Les figures 4.7 4.12 montrent les rsultats correspondants la simulation SPICE, pour

les volutions de f ci et R X en fonction de la frquence, avec les dimensions optimales dtermines partir de lalgorithme PSO-2S.

4.3.5

Conclusion

Dans cette application, nous avons russi dmontrer comment un convoyeur de courant de seconde gnration positif boucle translinaire CMOS (CCII+) peut tre conu de
manire optimale pour donner de meilleures performances. En effet, la conception consiste
minimiser la rsistance dentre X-port (R X ) et en mme temps maximiser la frquence
de coupure f ci du CCII+. Ce problme a t trait et rsolu correctement laide de PSO-2S.
Une srie dexpriences de simulation, ralise avec plusieurs courants de polarisation
I0 , a dmontr que lalgorithme propos obtient de meilleurs rsultats, en comparaison de
ceux obtenus par les algorithmes PSO, DE et BFO.

4.4

Conclusion

Dans la premire partie de ce chapitre (section 4.2), une mthode permettant dapprocher lhistogramme par une somme de fonctions gaussiennes a t prsente. Une telle
opration nous a permis dobtenir une expression analytique approche de lhistogramme,
et donc de calculer beaucoup plus facilement les seuils optimaux. Puis, nous avons montr
comment PSO-2S peut tre utilis pour rsoudre un problme de segmentation dimages.
Les rsultats proposs pour des images de test standard, ainsi que pour des images mdicales, montrent que cette mthode, couple lutilisation de PSO-2S, offre une plus grande
stabilit, par rapport SPSO-07.
Dans la deuxime partie (section 4.3), nous avons prsent une application de loptimisation au problme de dimensionnement de circuits lectroniques analogiques. Ce type de
problme est crucial lors de la conception de circuits analogiques, car les performances
113

Application de PSO-2S en segmentation dimages et en lectronique

(a) Solution donnant un f ci maximum

(b) Solution donnant un R x minimum


F IGURE 4.7: Cas (I0 = 50 A) : les rsultats de la simulation SPICE montrant la variation de ( f ci et
R x ) par rapport la frquence, pour le dimensionnement optimal suggr par PSO-2S.

(a) Solution donnant un f ci maximum

(b) Solution donnant un R x minimum


F IGURE 4.8: Cas (I0 = 100 A) : les rsultats de la simulation SPICE montrant la variation de ( f ci
et R x ) par rapport la frquence, pour le dimensionnement optimal suggr par PSO-2S.

114

Application de PSO-2S en segmentation dimages et en lectronique

(a) Solution donnant un f ci maximum

(b) Solution donnant un R x minimum


F IGURE 4.9: Cas (I0 = 150 A) : les rsultats de la simulation SPICE montrant la variation de ( f ci
et R x ) par rapport la frquence, pour le dimensionnement optimal suggr par PSO-2S.

(a) Solution donnant un f ci maximum

(b) Solution donnant un R x minimum


F IGURE 4.10: Cas (I0 = 200 A) : les rsultats de la simulation SPICE montrant la variation de ( f ci
et R x ) par rapport la frquence, pour le dimensionnement optimal suggr par PSO-2S.

115

Application de PSO-2S en segmentation dimages et en lectronique

(a) Solution donnant un f ci maximum

(b) Solution donnant un R x minimum


F IGURE 4.11: Cas (I0 = 250 A) : les rsultats de la simulation SPICE montrant la variation de ( f ci
et R x ) par rapport la frquence, pour le dimensionnement optimal suggr par PSO-2S.

(a) Solution donnant un f ci maximum

(b) Solution donnant un R x minimum


F IGURE 4.12: Cas (I0 = 300 A) : les rsultats de la simulation SPICE montrant la variation de ( f ci
et R x ) par rapport la frquence, pour le dimensionnement optimal suggr par PSO-2S.

116

Application de PSO-2S en segmentation dimages et en lectronique

des circuits sont fortement dpendantes des dimensions des transistors. Cette application montre comment lutilisation des mtaheuristiques permet de trouver rapidement
des solutions convenables, en termes de performance des circuits. Le problme est prsent comme un problme doptimisation bi-objectif minimiser. Ce problme a t trait
laide de PSO-2S et a donn des rsultats comptitifs, par rapport aux autres algorithmes
utiliss pour la comparaison.
Nous avons montr dans ce chapitre que les deux problmes (i.e. la segmentation
dimages et le dimensionnement de circuits lectroniques) sont correctement rsolus. En
effet, les rsultats obtenus pour les deux applications montrent lintrt de lutilisation de
PSO-2S sur ce type de problmes.

117

Conclusion et perspectives
Les ingnieurs se heurtent quotidiennement des problmes technologiques de complexit grandissante, qui surgissent dans des domaines trs divers, comme dans les transports, le traitement dimages, llectronique, etc. La plupart de ces problmes peuvent
tre formuls comme des problmes doptimisation. Les mtaheuristiques forment un ensemble dalgorithmes utiliss en recherche oprationnelle pour rsoudre ce type de problmes. En effet, lutilisation des mtaheuristiques a fait lobjet dun intrt croissant du
fait de leurs applications (notamment en traitement dimages et en lectronique) qui ont
connu un succs particulier ces dernires annes grce laugmentation de la puissance
des ordinateurs.
Les travaux prsents dans cette thse apportent des contributions dans diffrents domaines de recherche tels que la recherche oprationnelle et les applications des mtaheuristiques en traitement dimages et en lectronique.
Dans cette thse, nous avons abord le sujet de loptimisation mono-objectif continue,
puis nous avons expos quelques-unes des mtaheuristiques les plus connues dans la
littrature. Parmi les mtaheuristiques prsentes, un intrt particulier a t port la
mthode dOptimisation par Essaim Particulaire (OEP, ou PSO en anglais). PSO est une
mthode doptimisation stochastique qui est inspire du comportement social danimaux
voluant en essaim. Ce comportement social est modlis par une quation mathmatique
qui revient guider les particules durant le processus de dplacement. Le dplacement
dune particule est influenc par trois composantes : la composante dinertie, la composante cognitive et la composante sociale. Chacune de ces composantes correspond une
partie de lquation.
Dans PSO, les particules sont initialises alatoirement dans lespace de recherche. Cependant, une telle initialisation peut entraner un manque de diversit dans lessaim ds
le premier pas de temps, ce qui favorise une convergence prmature vers un optimum
local. La convergence prmature est considre comme un problme majeur de PSO.
La premire tape de ce travail de thse a t dlaborer un nouvel algorithme qui per118

Conclusion et perspectives

met de remdier au problme de la convergence prmature et damliorer les performances de lalgorithme PSO. Un nouvel algorithme doptimisation, dnomm PSO-2S, a
t propos. Dans cet algorithme, trois ides principales ont t ajoutes lalgorithme
standard de PSO, sans introduire doprations complexes. La premire ide consiste utiliser deux types dessaims : un essaim principal, not S1, et S essaims auxiliaires, nots S2i ,
o 1 i S. La deuxime ide consiste partitionner lespace de recherche en S zones o

les essaims auxiliaires sont initialiss. La dernire ide consiste utiliser le concept de la
rpulsion lectrostatique, qui permet de couvrir plus largement chaque zone de lespace de
recherche. Ces trois ides sont appliques dans la premire phase de lalgorithme PSO-2S,

qui est la phase de construction de lessaim principal, dont le but est dexplorer au mieux
les diffrents optima locaux de la fonction objectif. Une recherche locale a t galement
ajoute PSO-2S afin damliorer la prcision des solutions trouves. A partir des analyses
et des exprimentations faites sur de nombreuses fonctions de test, nous avons conclu que
les ides utilises dans PSO-2S ont pu limiter le phnomne de convergence prmature
de lalgorithme PSO. Elles ont galement amlior les performances de PSO dune manire
significative pour la plupart des fonctions de test.
Une des perspectives considres comme intressantes dans de nombreux travaux est
lintgration dides en provenance de diverses mtaheuristiques, gnralement sous la
forme dhybridations. En effet, tirer partie des avantages spcifiques de mtaheuristiques
diffrentes en les combinant peut conduire une amlioration des performances et des
solutions trouves. Nous avons alors choisi dhybrider PSO-2S avec lalgorithme DE (Differential Evolution), qui possde un oprateur de croisement facile contrler et efficace
pour lexploration, permettant la gnration de nouvelles configurations par recombinaison de solutions existantes. Cette hybridation (PSO-2S avec DE) est implmente dans un
nouvel algorithme, dnomm DEPSO-2S. DEPSO-2S est une variante de PSO-2S qui utilise
les trois ides principales sur lesquelles se base PSO-2S et qui sont prsentes dans le paragraphe prcdent. Par contre, dans DEPSO-2S, lalgorithme DE est utilis pour construire
lessaim principal la place de lalgorithme PSO. Ainsi, dans DEPSO-2S, une variante de
DE modifie des fins dadaptation PSO-2S est utilise. Lalgorithme DEPSO-2S a t
valu sur les mmes fonctions de test que PSO-2S. Il obtient galement de bons rsultats, lhybridation des deux algorithmes ayant contribu amliorer lancienne version de
PSO-2S.
Ensuite, toujours dans le cadre de lamlioration de lalgorithme PSO, nous nous

119

Conclusion et perspectives

sommes intresss la composante sociale de lquation modlisant le dplacement des


particules, plus prcisment au rseau de communication entre les particules (i.e. la topologie de voisinage), o les performances de PSO sont influences par la topologie choisie. Nous avons propos une nouvelle topologie dynamique, appele Dcluster, qui est une
combinaison de deux topologies (statique et dynamique). Ce travail a t valu en utilisant diffrents problmes (la plupart des fonctions dfinies dans CEC05 et quelques problmes rels trs frquents dans ce domaine). Les rsultats obtenus par Dcluster ont t
compars ceux obtenus via six autres topologies de la littrature de PSO. Les expriences
ont montr quaucune des topologies tudies ne surpasse compltement les autres, mais
la topologie propose obtient les meilleures performances pour la majorit des problmes
tests et a pu limiter le phnomne de convergence prmature.
Notre algorithme PSO-2S a t appliqu dans deux domaines diffrents. Tout dabord,
nous avons montr que les mtaheuristiques peuvent tre une alternative rapide et performante pour des problmes de segmentation dimages, telles que les images IRM crbrales. Ensuite, PSO-2S a t utilis pour rsoudre un problme de dimensionnement
de transistors en lectronique analogique, o les performances des circuits sont trs fortement dpendantes des dimensions des transistors. En effet, peu de mthodes automatiques existent pour rsoudre ce type de problme. Nous avons montr que ce problme a
t correctement rsolu par PSO-2S. Ainsi, lutilisation de mthodes doptimisation pour
ce problme est aussi une alternative crdible, tant en termes de performance que de prcision.
En perspective, pour les algorithmes proposs (PSO-2S, DEPSO-2S) et la topologie
Dcluster, des analyses exprimentales plus pousses restent effectuer. Les variantes actuelles de PSO-2S obtiennent des rsultats encourageants, mais de nombreuses pistes
damlioration restent explorer. Nous envisageons dans un premier temps damliorer
les performances de PSO-2S en lhybridant avec un algorithme de recherche locale plus
performant que celui propos dans ce travail, comme la mthode de Nelder & Mead. Pour
chaque problme pos, il est important de trouver le bon rglage de paramtres, i.e. celui
qui maximise les performances de lalgorithme. Cependant, trouver le bon rglage ncessite parfois beaucoup de temps, ce qui est fastidieux pour lutilisateur. Donc, dans un second temps, nous souhaitons proposer une mthode permettant de rendre les paramtres
de PSO-2S auto-adaptatifs, afin de faciliter son utilisation. Dautres pistes sont explorer,
telles que ladaptation des algorithmes proposs aux plateformes de calcul parallles, afin

120

Conclusion et perspectives

de rduire le temps de calcul, ou bien llaboration dune version multiobjectif de PSO-2S.


En perspective galement, nous envisageons damliorer la topologie Dcluster que nous
avons propose. En effet, nous pourrions tudier diffrentes manires de gnrer les voisinages des particules, non seulement par une structure rgulire comme nous lavons vu
dans ce travail, mais aussi par des structures auto-adaptatives, en respectant toujours les
principes fondamentaux de la topologie propose. En outre, nous pourrions pondrer les
connexions entre les particules en ajoutant un poids pour chaque connexion, ce qui aura
pour effet de pondrer linfluence de chaque particle sur celles auxquelles elle est connecte.
Enfin, lapplication en segmentation dimages propose au chapitre quatre pourrait tre
amliore par lutilisation dautres critres plus complexes.

121

Annexe
A - Principales fonctions de test
Les principales fonctions de test sont classes en quatre groupes en fonction de leurs
proprits [Suga 05, Tu 04, Yao 99]. Ceux-ci sont dfinis comme suit :
Groupe A : Fonctions unimodales
1. Sphere function
d

f1 (x) =

xi2.

(4.4.1)

i =1

2. Quadric function
f2 (x) =

i =1

j =1

xj

!2

(4.4.2)

Groupe B : Fonctions multimodales


3. Rosenbrocks function
f3 (x) =

d 1 

i =1


100( xi2 xi+1 )2 + ( xi 1)2 .

(4.4.3)

4. Ackleys function
v

u d
u1
f 4 ( x ) = 20 exp 0,2t xi2 exp
d i =1

1
cos(2xi )
d i
=1

+ 20 + e.

(4.4.4)

5. Rastrigins function

f5 (x) =

i =1


xi2 10cos(2xi ) + 10 .

(4.4.5)

6. Weierstrasss function
d

f6 (x) =

i =1

k max h

k =0

ak cos 2bk ( xi + 0,5)


122

i

k max h

k =0


i
ak cos 2bk .0,5
(4.4.6)

Conclusion et perspectives

a = 0,5, b = 3, k max = 20.


7. Generalized penalized function

sin (3x1 )



f 7 ( x ) = 0,1
+ id=11 ( xi 1)2 1 + sin2 (3xi+1 )

+( x 1)2 1 + sin2 (2x )


d
d
avec :

k ( xi a ) m ,

u( xi ,a,k,m) =
0,

k ( x a)m ,
i

+ u( xi , 5, 100, 4) (4.4.7)

i =1

xi > a

a xi a
xi < a

8. Griewanks function

d
x2
f 8 ( x ) = i cos
4000 i=1
i =1
d

x
i
i

+ 1.

9. Tripods function

1sign( x2 )

(| x1 | + | x2 + 50|)

( x2 ) 1sign( x1 )
f9 (x) =
(1 + | x1 + 50| + | x2 50|)
+ 1+sign
2
2

+ 1+sign( x1 ) (2 + | x 50| + | x 50|)


2
1
2
avec :

sign( x ) = 1 si

sign( x ) = 1

(4.4.8)

(4.4.9)

x0

sinon.

Groupe C : Fonctions pivotes


Nous utilisons la mthode de Salomon [Salo 96], qui gnre une matrice orthogonale
M pour faire tourner les fonctions. En effet, une nouvelle variable y = M x sera

utilise pour calculer la valeur de f itness, sachant que x est la variable originale. Le
fait de faire tourner les fonctions ajoute une grande complexit sur les fonctions, qui
deviennent trs difficiles rsoudre par les algorithmes doptimisation. Ces fonctions
sont dfinies comme suit :
123

Conclusion et perspectives

10. Rotated Quadric function


d

i =1

j =1

yj

f 10 ( x ) =

!2

(4.4.10)

11. Rotated Rosenbrocks function


f 11 ( x ) =

d 1 

i =1


100(y2i yi+1 )2 + (yi 1)2 .

12. Rotated Ackleys function


v

u d
u1
f 12 ( x ) = 20 exp 0,2t y2i exp
d i =1

1 d
cos(2yi )
d i
=1

(4.4.11)

+ 20 + e. (4.4.12)

13. Rotated Rastrigins function


d

f 13 ( x ) =

i =1

y2i

10cos(2yi ) + 10 .

(4.4.13)

14. Rotated Weierstrasss function


f 14 ( x ) =

k max

i =1

k =0

a cos 2b (yi + 0,5)

i

k max

k =0

a cos 2b .0,5

i

(4.4.14)

a = 0,5, b = 3, k max = 20.


15. Rotated Generalized penalized function

sin (3y1 )


f 15 ( x ) = 0.1
)
+ id=11 (yi  1)2 1 + sin2 (3y
i
+
1

+(y 1)2 1 + sin2 (2y )


d
d

avec :

k ( yi a )m

0
u(yi ,a,k,m) =

k (yi a)

Groupe D : Fonctions dcales

124

+ u(yi , 5, 100, 4)

i =1

yi > a

a yi a
yi < a

(4.4.15)

Conclusion et perspectives

Pour dcaler les fonctions, nous utilisons un vecteur de dcalage O = (o1 , o2 , . . . , od ),


et nous ajoutons f biasi pour chaque fonction. En effet, ce dcalage rend le problme
plus difficile rsoudre. Les vecteurs de dcalage utiliss sont repris de CEC 2005
[Suga 05].
Les fonctions dcales sont prsentes ci-dessous :
16. Shifted Rosenbrocks function
f 16 ( x ) =

d 1 

i =1

100(z2i

z i +1 ) + ( z i 1)

+ f bias2

(4.4.16)

zi = xi o2i .
17. Shifted Ackleys function
v
u d
u1
f 17 ( x ) = 20exp 0,2t z2i exp
d i =1

1 d
cos(2zi )
d i
=1

+ 20 + e + f bias3
(4.4.17)

zi = xi o3i .
18. Shifted Rastrigins function
d

f 18 ( x ) =

i =1


z2i 10cos(2zi ) + 10 + f bias4

(4.4.18)

zi = xi o4i .
19. Shifted Griewanks function
d
z2
f 19 ( x ) = i cos
4000 i=1
i =1
d

z
i
i

+ 1 + f bias5

(4.4.19)

zi = xi o5i .
20. Shifted Sphere function
d

f 20 ( x ) =

xi2 + f bias1

i =1

zi = xi o1i .

125

(4.4.20)

Conclusion et perspectives

B - Problmes rels
F1 : problme Lennard-Jones atomic cluster
Le problme Lennard Jones ( LJ ) consiste, tant donn un agrgat de K atomes, repr-

sentant une molcule, trouver les positions relatives de ces atomes dont lnergie potentielle globale est minimale dans un espace euclidien trois dimensions. Nous prsentons
le problme LJ comme suit : la molcule est constitue de K atomes, xi = ( x1i , x2i , xi 3 ) reprsente les coordonnes de latome i dans lespace trois dimensions, sachant que les K
atomes sont situs aux positions (( x1 ), . . . , ( x K )), o xi IR3 et i = 1, 2, . . . , K. La formule

de lnergie potentielle de LJ pour une paire datomes (i, j) est donne par :
v(rij ) =

1
1
6 tels que 1 i,j K
12
rij
rij



o rij = xi x j .

Lnergie potentielle globale est la somme des nergies rsultant des interactions entre
chaque couple datomes de la molcule. La configuration la plus stable de la molcule
correspond un minimum global dnergie potentielle que lon peut avoir en minimisant
la fonction Vk ( x ) dans lquation suivante :



Min Vk ( x ) = i< j v xi x j = iK=11 Kj=i+1

1
12
k xi x j k

1
6
k xi x j k

(4.4.21)

Dans notre travail, nous utilisons 9 atomes dans un espace de recherche [2, 2]27 . La
valeur de loptimum global dans ce cas est f = 24,113360.
F2 : problme Gear train design
Min f ( x ) =

TT
1
d b
6,931 Ta T f

)2

x x
1
1 2
6,931 x3 x4

2

(4.4.22)

o :
12 xi 60 avec i = 1, 2, 3, 4 et xi doit tre entier ;

Ta , Tb , Td et T f sont les nombres de dents des engrenages A, B, D et F, respectivement


[Ali 10].
126

Conclusion et perspectives

F3 : problme Frequency modulation sound parameter identification


Le problme est de dterminer les six paramtres a1 , w1 , a2 , w2 , a3 et w3 du modle
suivant :
y(t) = a1 sin(w1 t + a2 sin(w2 t + a3 sin(w3 t ))), = (2./100) (4.4.23)
La fonction objectif est la somme des carrs des erreurs entre les donnes values et le
modle de donnes. Elle est dfinie par :
2
f ( a1 ,w1 , a2 ,w2 , a3 ,w3 ) = 100
t=0 ( y ( t ) y0 ( t ))

Le modle de donnes est dfini par lquation suivante :


y0 (t) = 1,0 sin(5,0 t + 1,5 sin(4,8 t + 2,0 sin(4,9 t )))

(4.4.24)

o : 6,4 ai , wi 6,35 avec i = 1, 2, 3. [Ali 10]

F4 : problme Spread spectrum radar poly-phase code design

o :

Min f ( X ) = max { f 1 ( X ), . . . , f 2m ( X )}


X = ( x1 , . . . , xn ) Rn | 0 x j 2, j = 1,2, . . . ,n et m = 2n 1,
f 2i1 ( x ) =
f 2i ( x ) =

nj=i

cos

j
k=|2i j1|+1

0,5 + nj=i+1 cos

j
k=|2i j|+1

i = 1,2, . . . , n ;

i = 1,2, . . . , n 1 ;

xk
xk

(4.4.25)

f m+i ( X ) = f i ( X ), i = 1, 2, . . . , m.
F5 : problme Compression spring design
Min f ( x ) = 2

x2 x32 ( x1 + 1)
4

(4.4.26)

o x1 {1, . . . , 70} avec une granularit 1, x2 [0,6; 3,0] et x3 {0,207; . . . ; 0,5}


avec une granularit 0,0001. La meilleure solution x

( x1 , x2 , x3 ) connue est

(7; 1,386599591; 0,292) avec sa valeur de fitness f = 2,6254214578. Ce problme a cinq


contraintes que lon peut trouver dans [Cler 06].
127

Conclusion et perspectives

F6 : Perm function
5

Min f ( x ) =

"


k =1

i =1

ik +

n

( xi /i )k 1

#2

(4.4.27)

o x [5, 5] et est une constante fixe 10 [Cler 12]. Loptimum global de cette fonction

est (1, 2, 3, 4, 5) et sa valeur de fitness f est gale 0.


F7 : problme Mobile network design

Dans ce problme, la difficult consiste dterminer efficacement les emplacements


des contrleurs de stations de base (BSC), centres de commutation mobiles (MSC), ainsi
que leurs liaisons de connexion pour un site donn de stations de base. Ce problme est
complexe dcrire, pour plus dinformations le lecteur peut se rfrer [El S 09]. Lespace
de recherche est constitu de variables binaires (38 variables) et de variables continues (4
variables). Par consquent, le problme a 42 dimensions.
F8 : problme Pressure Vessel design
Min f ( x ) = 0,6224x1 x3 x4 + 1,7781x2 x32 + 3,1661x12 x4 + 19,84x12 x3

(4.4.28)

sous rserve que :


g1 ( x ) = 0,0193x3 x1 0
g2 ( x ) = 0,00954x3 x2 0
g3 ( x ) = 750 1728 x32 ( x4 + 43 x3 ) 0
o x1 {0,0625; . . . ; 12,5} avec une granularit 0,0625, x2 {0,625; . . . ; 12,5}

avec une granularit 0,0625, x3 ]0, 240] et x4 ]0, 240]. La meilleure solution est

(1,125; 0,625; 58,2901554; 43,6926562) et f = 7,197.72893 [Kann 94].

F9 : problme Welded Beam design


Min f ( x ) = 1,10471x12 x2 + 0,04811x3 x4 (14,0 + x2 )
sous rserve que :
128

(4.4.29)

Conclusion et perspectives

g1 ( x ) = ( x ) 13000 0, g2 ( x ) = ( x ) 30000 0, g3 ( x ) = x1 x4 0
g4 ( x ) = 6000 Pc ( x ) 0, g5 ( x ) = 0,125 x1 0, g6 ( x ) = ( x ) 0,25 0
g7 ( x ) = 0,10471x12 + 0,04811x3 x4 (14,0 + x2 ) 5,0 0
o :
(x) =

x2
( )2 + 2 2R
+ ( )2 , =

M = 6000(14 +

Pc ( x ) =

x2
2 ),

4,013(30106 )
196

R=

x32 x6
4
36

x22
4

6000 ,
2x1 x2

+ ( x1 +2 x3 )2 , J = 2

x3

30106
4(12106 )

28

=
n

MR
J

2x1 x2

, ( x) =

x22
12

504000
,
x4 x32

+ ( x1 +2 x3 )2
( x ) =

io

2,1952
x33 x4

x1 , x4 [0,1; 2,0] , x2 , x3 [0,1; 10,0], x = (0,205730; 3,470489; 9,036624; 0,205729) et

f = 1,724852 [Rags 76].

F10 : problme Speed Reducer design


Min f ( x ) = 0,7854x1 x22 (3,3333x32 + 14,9334x3 43,0934) 1,508x1 ( x62 + x72 )

+7,4777( x63

x73 ) + 0,7854( x4 x62

(4.4.30)

x5 x72 )

sous rserve que :


g1 ( x ) =
g5 ( x ) =
g8 ( x ) =
g10 ( x ) =

27
x1 x22 x3
1,0
110x63
1,0
85x73

0, g2 ( x ) =

r

r

745x4
x2 x3

745x5
x2 x3

1,5x6 +1,9
x4

2

2

397,5
x1 x22 x32

0, g3 ( x ) =

1,93x43
x2 x3 x64

0, g4 ( x ) =

1,93x53
x2 x3 x74

+ 16,9 106 1 0, g6 ( x ) =

x2 x3
40

1 0, g7 ( x ) =

+ 157,5 106 1 0, g9 ( x ) =

x1
12x2

1 0

1 0, g11 ( x ) =

1,1x7 +1,9
x5

5x2
x1

1 0

1 0

o 2,6 x1 3,6; 0,7 x2 0,8; 17 x3 28; 7,3 x4 8,3; 7,8 x5

8,3; 2,9 x6 3,9; 5,0 x7 5,5, x = (3,5; 0,7; 17; 7,3; 7,8; 3,350214; 5,286683) et
f = 2,996.348165 [Goli 73].

129

Conclusion et perspectives

F11 : problme de contraintes 1


4

13

i =1

i =1

i =1

Min f ( x ) = 5 xi 5 xi 2 xi

(4.4.31)

sous rserve que :


g1 ( x ) = 2x1 + 2x2 + x1 0 + x1 1 10 0, g2 ( x ) = 2x1 + 2x3 + x10 + x12 10 0
g3 ( x ) = 2x2 + 2x3 + x11 + x12 10 0, g4 ( x ) = 8x1 + x10 0, g5 ( x ) = 8x2 + x11 0
g6 ( x ) = 8x3 + x12 0, g7 ( x ) = 2x4 x5 + x10 0, g8 ( x ) = 2x6 x7 + x11 0
g9 ( x ) = 2x8 x9 + x12 0
o : 0 xi 1 (i = 1, . . . , 9, 13) et 0 xi 100 (i = 10, 11, 12). Loptimum global est

(1, 1, 1, 1, 1, 1, 1, 1, 1, 3, 3, 3, 1) et f = 15.

F12 : problme de contraintes 2


Min f ( x ) = x12 + x22 + x1 x2 14x1 16x2 + ( x3 10)2 + 4( x4 5)2 + ( x5 3)2

+2( x6 1)2 + 5x72 + 7( x8 11)2 + 2( x9 10)2 + ( x10 7)2 + 45

sous rserve que :


g1 ( x ) = 105 + 4x1 + 5x2 3x7 + 9x8 0
g2 ( x ) = 10x1 8x2 17x7 + 2x8 0
g3 ( x ) = 8x1 + 2x2 + 5x9 2x10 12 0
g4 ( x ) = 3( x1 2)2 + 4( x2 3)2 + 2x32 7x4 120 0
g5 ( x ) = 5x12 + 8x2 + ( x3 6)2 2x4 40 0
g6 ( x ) = x12 + 2( x2 2)2 2x1 x2 + 14x5 6x6 0
g7 ( x ) = 0,5( x1 8)2 + 2( x2 4)2 + 3x52 x6 30 0
g8 ( x ) = 3x1 + 6x2 + 12( x9 8)2 7x10 0
130

(4.4.32)

Conclusion et perspectives

o :
10 xi 10 pour tout (i = 1, 2, . . . , 10),

x = (2,171996; 2,363683; 8,773926; 5,095984; 0,9906548; 1,430574; 1,321644; 9,828726;


8,280092; 8,375927)
et f ( x ) = 24,3062091.

131

Rfrences bibliographiques
[Alba 05]

E. Alba. Parallel Metaheuristics : A New Class of Algorithms. John Wiley & sons, 2005.

[Ali 10]

M. Ali, M. Pant, and V. P. Singh. Two Modified Differential Evolution Algorithms


and their Applications to Engineering Design Problems. World Journal of Modeling and
Simulation, Vol. 6, No. 1, pp. 7280, 2010.

[Ange 98] P. Angeline. Evolutionary optimization versus particle swarm optimization : Philosophy and performance differences. pp. 601610, 1998.
[Avri 76]

M. Avriel. Nonlinear Programming : Analysis and Methods. Prentice-Hall, Englewood


Cliffs, NJ, 1976.

[Azen 92] R. Azencott. Simulated Annealing : Parallelization Techniques. Wiley-Interscience, 1992.


[Basi 75]

V. R. Basili and A. J. Turner. Iterative enhancement : A practical technique for software


development. IEEE Transactions on Software Engineering, Vol. 1, No. 4, pp. 390396,
1975.

[Bask 04]

S. Baskar and P. Suganthan. A Novel Concurrent Particle Swarm Optimization. In :


In Proceedings IEEE of the Congress on Evolutionary Computation (CEC 2004), pp. 792796,
2004.

[Bast 09]

C. J. A. Bastos-Filho, D. F. Carvalho, E. M. N. Figueiredo, and P. B. C. de Miranda.


Dynamic Clan Particle Swarm Optimization. In : Intelligent Systems Design and Applications, 2009. ISDA 09. Ninth International Conference on, pp. 249254, 2009.

[Ben 06]

S. Ben Salem, M. Fakhfakh, D. S. Masmoudi, M. Loulou, P. Loumeau, and N. Masmoudi.


A high performances CMOS CCII and high frequency applications. Analog Integr.
Circuits Signal Process., Vol. 49, No. 1, pp. 7178, 2006.

[Berg 04]

F. Van den Bergh and A. P. Engelbrecht. A cooperative approach to particle swarm


optimization. IEEE Transactions on Evolutionary Computation, Vol. 8, No. 3, pp. 225239,
2004.

[Bert 95]

D. P. Bertsekas. Dynamic Programming and Optimal Control. Athena Scientific, 1995.

[Beye 01]

H. G. Beyer. The theory of evolution strategies. Springer, first edition, 2001.

[Boya 98]

J. A. Boyan and A. W. Moore. Learning evaluation functions for global optimization


and boolean satisfiability. In : AAAI-98, pp. 310, Madison, Wisconsin, 1998.

[Bran 02]

J. Branke. Evolutionary Optimization in Dynamic Environments. Kluwer Academic, 2002.

[Bran 12]

J.
Branke.
BrainWeb
:
Simulated
http://brainweb.bic.mni.mcgill.ca/brainweb, 2012.

132

Brain

Database.

RFRENCES BIBLIOGRAPHIQUES

[Bres 06]

J. Brest, S. Greiner, B. Boskovic, M. Mernik, and V. Zumer. Self-Adapting Control


Parameters in Differential Evolution : A Comparative Study on Numerical Benchmark
Problems. Trans. Evol. Comp, Vol. 10, No. 6, pp. 646657, 2006.

[Bres 07]

J. Brest, B. Boskovic, S. Greiner, V. Zumer, and M. S. Maucec. Performance comparison


of self-adaptive and adaptive differential evolution algorithms. Soft Comput., Vol. 11,
No. 7, pp. 617629, 2007.

[Cern 85]

V. Cerny. Thermodynamical Approach to the Travelling Salesman Problem : An Efficient Simulation Algorithm. Journal of Optimization Theory and Applications, Vol. 45,
pp. 4151, 1985.

[Chak 06] U. K. Chakraborty, A. Konar, and S. Das. Differential Evolution with Local Neighborhood. pp. 20422049, IEEE Press, Vancouver, BC, Canada, July 2006.
[Chat 06]

A. Chatterjee and P. Siarry. Nonlinear inertia weight variation for dynamic adaptation
in particle swarm optimization. Computers and Operations Research, Vol. 33, pp. 859
871, 2006.

[Chat 10]

A. Chatterjee, M. Fakhfakh, and P. Siarry. Design of second-generation current


conveyors employing bacterial foraging optimization. Microelectron. J., Vol. 41, No. 10,
pp. 616626, 2010.

[Chen 10] D. Chen, C. Zhao, and H. Zhang. An improved cooperative particle swarm optimization and its application. Neural Computing and Applications, Vol. 20, No. 2, pp. 171182,
2010.
[Cler 02]

M. Clerc and J. Kennedy. The particle swarm : explosion, stability, and convergence
in multi-dimensional complex space. IEEE Transactions on Evolutionary Computation,
Vol. 6, pp. 5873, 2002.

[Cler 03]

M. Clerc. TRIBES - Un exemple doptimisation par essaims particulaires sans paramtres de contrle. In : Confrence OEP03, Paris, France, Octobre 2003.

[Cler 06]

M. Clerc. Particle Swarm Optimization. ISTE (International Scientific and Technical


Encyclopaedia), 2006.

[Cler 12]

M. Clerc et al. The Particle Swarm Central website. http://www.particleswarm.info,


2012.

[Coll 02]

Y. Collette and P. Siarry. Optimisation multiobjectif. Eyrolles, 2002.

[Coll 98]

D. L. Collins, A. P. Zijdenbos, V. Kollokian, J. G. Sled, N. J. Kabani, C. J. Holmes, and


A. C. Evans. Design and Construction of a Realistic Digital Brain Phantom. IEEE
Transactions on Medical Imaging, Vol. 17, No. 3, pp. 463468, 1998.

[Colo 91]

A. Colorni, M. Dorigo, and V. Maniezzo. Distributed Optimization by Ant Colonies.


In : Proceedings of the First European Conference on Artificial Life, pp. 134142, MIT Press,
Paris, France, December 1991.

[Conn 96] A. R. Conn, K. C. Paula, A. H. Ruud, L. M. Gregory, and V. Chandu. Optimization of


Custom MOS Circuits by Transistor Sizing. pp. 174180, 1996.
[Conw 98] J. H. Conway and N. J. A. Sloane. Sphere Packings, Lattices and Groups. Springer-Verlag,
third Ed., 1998.

133

RFRENCES BIBLIOGRAPHIQUES

[Coor 08]

Y. Cooren. Perfectionnement dun algorithme adaptatif dOptimisation par Essaim Particulaire. Applications en gnie mdical et en lectronique. PhD thesis, Universit Paris-Est Crteil, 2008.

[Corm 90] T. H. Cormen, C. E. Leiserson, and R. L. Rivest. Introduction to algorithms, chapitre 16 :


Greedy Algorithms. MIT Press and McGraw-Hill, 1st Ed., 1990.
[Cour 94]

J. P. Courat, G. Raynaud, I. Mrad, and P. Siarry. Electronic component model minimization based on Log Simulated Annealing. pp. 790795, 1994.

[Creu 83]

M. Creutz. Microcanonical Monte Carlo simulation. Physical Review Letters, Vol. 50,
No. 19, pp. 14111415, 1983.

[Cuev 10] E. Cuevas, D. Zaldivar, and M. Prez-Cisneros. A novel multi-threshold segmentation


approach based on differential evolution optimization. Expert Systems with Applications, Vol. 37, No. 7, pp. 52655271, 2010.
[Das 08]

S. Das, A. Abraham, and A. Konar. Particle swarm optimization and differential evolution algorithms : technical analysis, applications and hybridization perspectives. Studies in Computational Intelligence (SCI), Vol. 116, No. , pp. 138, 2008.

[DeVo 96] R. A. DeVore and V. N. Temlyakov. Some remarks on greedy algorithms. Advances in
Computational Mathematics, Vol. 5, No. 1, pp. 173187, 1996.
[Dori 05]

M. Dorigo and C. Blum. Ant colony optimization theory : a survey. Theoretical Computer Science, Vol. 344, No. 2-3, pp. 243278, 2005.

[Dori 96]

M. Dorigo, V. Maniezzo, and A. Colorni. Ant System : optimization by a colony of


cooperating agents. IEEE Transactions on Systems, Man, and Cybernetics, Part B : Cybernetics, Vol. 26, No. 1, pp. 2941, 1996.

[Dro 03]

J. Dro, A. Ptrowski, P. Siarry, and E. Taillard. Mtaheuristiques pour lOptimisation Difficile. Eyrolles, 2003.

[Eber 00]

R. Eberhart and Y. Shi. Comparing inertia weights and constriction factors in particle
swarm optimization. In : Proceedings of the 6th IEEE Congress on Evolutionary Computation, pp. 8488, IEEE Press, 2000.

[Eber 01]

R. C. Eberhart and Y. Shi. Tracking and optimizing dynamic systems with particle
swarms. In : Proceedings of the 2001 IEEE Congress on Evolutionary Computation, pp. 94
100, IEEE Press, Piscataway, NJ, 2001.

[Eber 96]

R. Eberhart, P. Simpson, and R. Dobbins. Computational Intelligence PC Tools. AP Professional, 1996.

[El D 12a] A. El Dor, M. Clerc, and P. Siarry. A multi-swarm PSO using charged particles in a
partitioned search space for continuous optimization. Computational Optimization and
Applications, Vol. 53, No. 1, pp. 271295, 2012.
[El D 12b] A. El Dor, M. Clerc, and P. Siarry. Hybridization of Differential Evolution and Particle Swarm Optimization in a New Algorithm : DEPSO-2S. In : Proceedings of the
2012 International Conference on Swarm and Evolutionary Computation, ICAISC (SIDE-EC),
pp. 5765, Springer-Verlag, Zakopane, Poland, April 29-May 3, 2012.

134

RFRENCES BIBLIOGRAPHIQUES

[El S 09]

A. A. El-Saleh, M. Ismail, R. Viknesh, C. C. Mark, and M. L. Chan. Particle swarm optimization for mobile network design. IEICE Electronics Express, Vol. 6, No. 17, pp. 1219
1225, 2009.

[Fabr 98]

A. Fabre, O. Saaid, W. F., and C. Boucheron. High-frequency high-Q BiCMOS currentmode bandpass filter and mobile communication application. IEEE Journal of Solid
State Circuits, Vol. 33, No. 4, pp. 614625, 1998.

[Fan 04]

S. Fan, Y. Liang, and E. Zahara. Hybrid simplex search and particle swarm optimization for the global optimization of multimodal functions. Engineering Optimization,
Vol. 36, pp. 401418, 2004.

[Fish 22]

R. A. Fisher. On the interpretation of 2 from contingency tables, and the calculation


of P. Journal of the Royal Statistical Society, Vol. 85, No. 1, pp. 8794, 1922.

[Foge 62]

L. J. Fogel. Autonomous automata. Industrial Research Magazine, Vol. 4, No. 2, pp. 14


19, 1962.

[Foge 66]

L. J. Fogel, A. J. Owens, and M. J. Walsh. Artificial Intelligence through Simulated Evolution.


John Wiley & sons, first edition, 1966.

[Fras 57]

A. S. Fraser. Simulation of genetic systems by automatic digital computers. Australian


Journal of Biological Science, Vol. 10, pp. 484491, 1957.

[Giel 91]

G. Gielen and W. Sansen. Symbolic Analysis for Automated Design of Analog Integrated
Circuits. Kluwer Academic Publishers, 1991.

[Glov 86]

F. Glover. Future paths for integer programming and links to artificial intelligence.
Computers and Operations Research, Vol. 13, pp. 533549, 1986.

[Glov 97]

F. Glover and M. Laguna. Tabu Search. Kluwer Academic Publishers, 1997.

[Gold 87]

D. E. Goldberg and J. Richardson. Genetic algorithms with sharing for multimodal


function optimization. In : Proceedings of the Second International Conference on Genetic Algorithms on Genetic algorithms and their application, pp. 4149, Lawrence Erlbaum
Associates., Mahwah, NJ, USA, 1987.

[Goli 73]

J. Golinski. An Adaptive Optimization System Applied to Machine Synthesis. Journal


of Engineering for Industry, Transactions of the ASME, Vol. 8, No. 4, pp. 419436, 1973.

[Gonz 07] R. C. Gonzalez and R. E. Woods. Digital image processing. Prentice Hall, third Ed., 2007.
[Goss 89]

S. Goss, S. Aron, J. L. Deneubourg, and J. M. Pasteels. Self-organized shortcuts in the


Argentine ant. Naturwissenschaften, Vol. 76, No. 12, pp. 579581, 1989.

[Grae 01]

H. E. Graeb, S. Zizala, J. Eckmueller, and K. Antreich. The Sizing Rules Method for
Analog Integrated Circuit Design.. pp. 343349, 2001.

[Hast 70]

W. K. Hastings. Monte-Carlo sampling method using Markov chains and their applications. Biometrika, Vol. 57, 1970.

[Holl 75]

J. H. Holland. Adaptation in Natural and Artificial Systems. The University of Michigan


Press, 1975.

[Homa 94] A. Homaifar, C. X. Qi, and S. H. Lai. Constrained Optimization Via Genetic Algorithms. Simulation, Vol. 62, No. 4, pp. 242253, 1994.

135

RFRENCES BIBLIOGRAPHIQUES

[Hsie 09]

S. T. Hsieh, T. Y. Sun, C. C. Liu, and S. J. Tsai. Efficient population utilization strategy


for particle swarm optimizer. pp. 444456, IEEE Press, Piscataway, NJ, USA, 2009.

[Iqba 06]

M. Iqbal and M. A. Montes de Oca. An estimation of distribution particle swarm


optimization algorithm. In : Proceedings of the 5th international conference on Ant Colony Optimization and Swarm Intelligence, pp. 7283, Springer-Verlag, Berlin, Heidelberg,
2006.

[Jans 05]

S. Janson and M. Middendorf. A hierarchical particle swarm optimizer and its adaptive variant. IEEE Transactions on Systems, Man, and Cybernetics, Part B, Vol. 35, No. 6,
pp. 12721282, 2005.

[Kann 94] B. Kannan and S. Kramer. An augmented Lagrange multiplier based method for
mixed integer discrete continuous optimization and its applications to mechanical design. Journal of Mechanical Design, Vol. 116, No. 2, pp. 318320, 1994.
[Kapu 85] J. N. Kapur, P. K. Sahoo, and A. C. K. Wong. A new method for gray-level picture
thresholding using the entropy of the histogram. Computer Vision, Graphics and Image
Processing, Vol. 29, No. 3, pp. 273285, 1985.
[Kenn 01] J. Kennedy, R. Eberhart, and Y. Shi. Swarm Intelligence. Morgan Kaufmann Academic
Press, 2001.
[Kenn 02] J. Kennedy and R. Mendes. Population Structure and Particle Swarm Performance.
In : Proceedings of the 2002 IEEE Congress on Evolutionary Computation, CEC02, pp. 1671
1676, Honolulu, HI, USA, 2002.
[Kenn 95] J. Kennedy and R. C. Eberhart. Particle Swarm Optimization. In : Proceedings of
the IEEE International Conference on Neural Networks IV, pp. 19421948, Perth, Australia,
November 1995.
[Kenn 98] J. Kennedy. The behavior of particles. In : Proceedings of the 7th Conference on Evolutionary Computation, pp. 581589, LNCS, Springer, 1998.
[Kenn 99] J. Kennedy. Small worlds and mega-minds : effects of neighborhood topology on particle swarm performance. In : Proceedings of the 1999 Congress on Evolutionary Computation, CEC99, pp. 19311938, Washington, DC USA, 1999.
[Kirk 83]

S. Kirkpatrick, C. D. Gelatt, and M. P. Vecchi. Optimization by Simulated Annealing.


Science, Vol. 220, 4598, pp. 671680, 1983.

[Kitt 86]

J. Kittler and J. Illingworth. Minimum error thresholding. Pattern Recognition, Vol. 19,
No. 1, pp. 4147, 1986.

[Koza 89] J. R. Koza. Hierarchical genetic algorithms operating on populations of computer


programs. pp. 768774, Morgan Kaufmann, Detroit, Michigan, USA, 1989.
[Koza 90] J. R. Koza. Genetic programming : A paradigm for genetically breeding populations of
computer programs to solve problems. Tech. Rep., Technical Report STANCS-90-1314,
Stanford University, Department of Computer Science, 1990.
[Krin 02]

T. Krink, J. S. Vesterstrom, and J. Riget. Particle swarm optimisation with spatial particle extension. In : Proc. IEEE Congress on Evolutionary Computation, pp. 14741479,
Honolulu, Hawaii USA, May 2002.

136

RFRENCES BIBLIOGRAPHIQUES

[Lamp]

J. Lampinen and I. Zelinka. Mixed Integer-Discrete-Continuous Optimization By Differential Evolution - Part 1 : the optimization method. In : Proceedings of MENDEL99 5th International Mendel Conference on Soft Computing.

[Lane 08]

J. Lane, A. Engelbrecht, and J. Gain. Particle swarm optimization with spatially meaningful neighbours. In : Proceedings of the 2008 IEEE Swarm Intelligence Symposium.
Piscataway, NJ : IEEE, pp. 18, Press, 2008.

[Lepa 10]

J. Lepagnot, A. Nakib, H. Oulhadj, and P. Siarry. A new multiagent algorithm for dynamic continuous optimization. International Journal of Applied Metaheuristic Computing,
Vol. 1, No. 1, pp. 1638, 2010.

[Lian 06]

J. J. Liang, A. K. Qin, P. N. Suganthan, and S. Baskar. Comprehensive Learning Particle


Swarm Optimizer for Global Optimization of Multimodal Functions. IEEE Transactions
on Evolutionary Computation, Vol. 10, No. 3, pp. 281295, 2006.

[Liu 05]

J. Liu and J. Lampinen. A Fuzzy Adaptive Differential Evolution Algorithm. Soft


Computing, Vol. 9, No. 6, pp. 448462, 2005.

[Loul 02]

M. Loulou, S. Ait Ali, M. Fakhfakh, and N. Masmoudi. An optimized methodology to


design CMOS operational amplifier. pp. 1416, Beirut, Lebanon, 2002.

[Mann 47] H. B. Mann and D. R. Whitney. On a Test of Whether one of Two Random Variables
is Stochastically Larger than the Other. The Annals of Mathematical Statistics, Vol. 18,
No. 1, pp. 5060, 1947.
[Mede 94] F. Medeiro, R. Rodrguez-Macas, F. V. Fernndez, R. Domnguez-Castro, J. L. Huertas,
and A. Rodrguez-Vzquez. Global design of analog cells using statistical optimization
techniques. Analog Integrated Circuits and Signal Processing, Vol. 6, No. 3, pp. 179195,
1994.
[Mend 03] R. Mendes, J. Kennedy, and J. Neves. Watch thy neighbor or how the swarm can learn
from its environment. In : Proceedings of the 2003 IEEE Swarm Intelligence Symposium,
pp. 8894, Indianapolis, Indiana, USA, 2003.
[Mend 04] R. Mendes, J. Kennedy, and J. Neves. The Fully Informed Particle Swarm : Simpler,
Maybe Better. IEEE Trans. Evolutionary Computation, Vol. 8, No. 3, pp. 204210, 2004.
[Metr 53]

N. Metropolis, A. W. Rosenbluth, M. N. Rosenbluth, A. H. Teller, and E. Teller. Equation of State Calculations by Fast Computing Machines. The Journal of Chemical Physics,
Vol. 21, No. 6, pp. 10871092, 1953.

[Mira 02]

V. Miranda and N. Fonseca. New evolutionary particle swarm algorithm applied to


voltage/VAR control. In : Proceedings of the 14th Power Systems Computation Conference,
pp. 16, Sevilla, Spain, 2002.

[Naki 07]

A. Nakib. Conception de mtaheuristiques doptimisation pour la segmentation dimages. Application des images biomdicales. PhD thesis, Universit Paris-Est Crteil, Dcembre
2007.

[Neld 65]

J. A. Nelder and R. Mead. A Simplex Method for Function Minimization. The Computer Journal, Vol. 7, No. 4, pp. 308313, 1965.

[Niu 07]

B. Niu, Y. Zhu, X. He, and H. Wu. MCPSO : A multi-swarm cooperative particle swarm
optimizer. Applied Mathematics and Computation, Vol. 185, 2007.

137

RFRENCES BIBLIOGRAPHIQUES

[Noce 00] J. Nocedal and S. J. Wright. Numerical Optimization. Springer, 2000.


[Okam 95] Y. Okamoto and U. H. E. Hansmann. Thermodynamics of helix-coil transitions studied
by multicanonical algorithms. J. Phys. Chem., No. 99, pp. 1127611287, 1995.
[Otsu 79]

N. A. Otsu. A Threshold Selection Method from Gray Level Histograms. IEEE Transactions on Systems, Man, and Cybernetics, Vol. 9, No. 1, pp. 6266, 1979.

[Ozca 99]

E. Ozcan and C. Mohan. Particle Swarm Optimization : surfing the waves. In :


Proceeding of the 1999 IEEE Congress on Evolutionary Computation, pp. 19391944, IEEE
Press, Washington, DC, USA, 1999.

[Pars 04]

K. E. Parsopoulos and M. N. Vrahatis. UPSO : A Unified Particle Swarm Optimization


Scheme. pp. 868873, VSP International Science Publishers, Zeist, Netherlands, 2004.

[Pass 02]

K. M. Passino. Biomimicry of Bacterial Foraging for distributed optimization and


control. IEEE Control Systems Magazine, Vol. 22, No. 3, pp. 5267, 2002.

[Peer 03]

E. S. Peer, A. P. Engelbrecht, and F. Van Den Bergh. Using neighborhoods with the
guaranteed convergence PSO. In : Proceedings of the IEEE Swarm Intelligence Symposium
2003 (SIS03), pp. 235242, IEEE Press, Indianapolis, Indiana, USA, 2003.

[Pera 03]

T. Peram, K. Veeramachaneni, and C. K. Mohan. Fitness-distance-ratio based particle


swarm optimization. In : Proc. IEEE Swarm Intelligence Symposium, pp. 174181, Indianapolis, Indiana, USA, 2003.

[Pric 05]

K. Price, R. M. Storn, and J. A. Lampinen. Differential Evolution : A Practical Approach to


Global Optimization (Natural Computing Series). Springer, 2005.

[Qin 05]

A. K. Qin and P. N. Suganthan. Self-adaptive differential evolution algorithm for numerical optimization. In : 2005 IEEE Congress on Evolutionary Computation CEC2005,
pp. 17851791, IEEE Press, 2005.

[Rags 76]

K. Ragsdell and D. Phillips. Optimal Design of a Class of Welded Structures using


Geometric Programming. Journal of Engineering for Industry, Transactions of the ASME,
Vol. 98, No. 3, pp. 10211025, 1976.

[Rajp 07]

S. Rajput and S. Jamuar. Advanced Applications Of Current Conveyors : a tutorial.


Journal of Active and Passive Electronic devices, Vol. 2, pp. 143164, 2007.

[Rech 65]

I. Rechenberg. Cybernetic solution path of an experimental problem. Tech. Rep., Library translation 1122, Ministry of Aviation, Royal Air Force Establishment (UK), 1965.

[Rich 03]

M. Richards and D. Ventura. Dynamic Sociometry in Particle Swarm Optimization.


In : Joint Conference on Information Sciences, pp. 15571560, Cary, North Carolina USA,
2003.

[Robi 02]

J. Robinson, S. Sinton, and Y. Rahmat-Samii. Particle Swarm, Genetic Algorithm, and


Their Hybrids : Optimization of a Profiled Corrugated Horn Antenna. In : Proceedings
of the IEEE International Symposium on Antennas and Propogation, pp. 314317, San Antonio, Texas, tats-Unis, 2002.

[Safa 09]

E. Safavieh, A. Gheibi, M. Abolghasemi, and A. Mohades. Particle swarm optimization with Voronoi neighborhood. In : Proceedings of the 14th International CSI Computer
Conference (CSICC2009), pp. 397402, Tehran, Iran, 2009.

138

RFRENCES BIBLIOGRAPHIQUES

[Saho 88]

P. K. Sahoo, S. Soltani, A. K. C. Wong, and Y. Chen. A survey of thresholding techniques. Computer Vision, Graphics, and Image Processing, Vol. 41, No. 2, pp. 233260,
1988.

[Salo 96]

R. Salomon. Reevaluating genetic algorithm performance under coordinate rotation


of benchmark functions. BioSystems, Vol. 39, pp. 263278, 1996.

[Schm 00] H. Schmid. Approximating the universal active element. IEEE Transactions on Circuits
and Systems-II : Analog and Digital Signal Processing, Vol. 47, No. 11, pp. 11601169, 2000.
[Schr 98]

A. Schrijver. Theory of Linear and Integer Programming. Wiley, 1998.

[Sedr 70]

A. Sedra and K. Smith. A second generation current conveyor and its applications.
IEEE Transactions on Circuits Theory, Vol. 17, pp. 132134, 1970.

[Sedr 90]

A. Sedra, G. Robert, and F. Gohln. The current conveyor : History, progress and new
results. In : IEEE Proc. Part G, pp. 7887, 1990.

[Seev 00]

E. Seevinck, E. Vittoz, M. Du Plessis, T. Joubert, and W. Beetge. CMOS translinear


circuits for minimum supply voltage. IEEE Transactions on Circuits and Systems-II :
Analog and Digital Signal Processing, Vol. 47, No. 12, pp. 15601564, 2000.

[Sezg 04]

M. Sezgin and B. Sankur. Survey over image thresholding techniques and quantitative
performance evaluation. Journal of Electronic Imaging, Vol. 13, No. 1, pp. 146165, 2004.

[Shel 07]

P. Shelokar, P. Siarry, V. Jayaraman, and B. Kulkarni. Particle swarm and ant colony
algorithms hybridized for improved continuous optimization. Applied Mathematics and
Computation, Vol. 188, No. 1, pp. 129142, 2007.

[Shi 99]

Y. Shi and E. R. C. Empirical study of particle swarm optimization. Vol. 3, pp. 1945
1950, 1999.

[Silv 96]

F. Silveira, D. Flandre, and P. G. A. Jespers. A GM/ID based methodology for the


design of CMOS analog circuits and its application to the synthesis of a SOI micropower
OTA. IEEE Journal of Solid State Circuits, Vol. 31, No. 9, 1996.

[Stor 97]

R. Storn and K. Price. Differential Evolution - A Simple and Efficient Heuristic for
global Optimization over Continuous Spaces. Journal of Global Optimization, Vol. 11,
No. 4, pp. 341359, 1997.

[Suga 05]

P. N. Suganthan, N. Hansen, J. J. Liang, K. Deb, Y. P. Chen, A. Auger, and S. Tiwari.


Problem Definitions and Evaluation Criteria for the CEC 2005 Special Session on RealParameter Optimization. Tech. Rep., Nanyang Technological University, Singapore,
2005.

[Suga 99]

P. N. Suganthan. Particle swarm optimiser with neighbourhood operator. In : Proceedings of the 1999 Congress on Evolutionary Computation, CEC 99, pp. 19581962, Washington, DC USA, 1999.

[Synd 90] W. Synder and G. Bilbro. Optimal thresholding : A new approach. Pattern Recognition
Letters, Vol. 11, No. 12, pp. 803810, 1990.
[Talb 02]

E. G. Talbi. A Taxonomy of Hybrid Metaheuristics. Journal of Heuristics, Vol. 8, No. 5,


pp. 541564, 2002.

139

RFRENCES BIBLIOGRAPHIQUES

[Teo 06]

J. Teo. Exploring dynamic self-adaptive populations in differential evolution. Soft


Computing, Vol. 10, No. 8, pp. 673686, May 2006.

[Tlel 10]

E. Tlelo-Cuautle, C. Snchez-Lpez, and D. Moro-Fras. Symbolic analysis of


(MO)(I)CCI(II)(III)-based analog circuits. International Journal of Circuit Theory and Applications, Vol. 38, No. 6, pp. 649659, 2010.

[Toum 93] C. Toumazou, F. Lidgey, and D. Haigh. Analog Integrated Circuits : The current mode
approach. IEEE Transactions on circuits and systems, series, Vol. 2, 1993.
[Trel 03]

I. C. Trelea. The particle swarm optimization algorithm : convergence analysis and


parameter selection. Information Processing Letters, Vol. 85, No. 6, pp. 317325, 2003.

[Tu 04]

Z. G. Tu and L. Yong. A robust stochastic genetic algorithm (StGA) for global numerical optimization. IEEE Trans. Evol. Comput., Vol. 8, No. 5, pp. 456470, 2004.

[Van 01]

F. Van Den Bergh. An Analysis of Particle Swarm Optimizers. PhD thesis, Faculty of
Natural and Agricultural Sciences, University of Pretoria, South Africa, 2001.

[Vent 05]

G. Venter and J. Sobieszczanski-Sobieski. A parallel particle swarm optimization algorithm accelerated by asynchronous evaluations. In : 6th World Congresses of Structural
and Multidisciplinary Optimization, Rio de Janeiro, Brazil, 30 May - 03 June 2005.

[Wang 08] Y. X. Wang and Q. L. Xiang. Particle Swarms with dynamic ring topology. In : Proceedings of the IEEE Congress on Evolutionary Computation, pp. 419423, IEEE, 2008.
[Watt 98]

D. J. Watts and S. H. Strogatz. Collective dynamics of small-world networks. Nature,


Vol. 393, No. 6684, pp. 440442, June 1998.

[Watt 99]

D. J. Watts. Small worlds : The dynamics of networks between order and randomness. Princeton University Press, Princeton, NJ, 1999.

[Wilc 45]

F. Wilcoxon. Individual Comparisons by Ranking Methods. Biometrics Bulletin, Vol. 1,


No. 6, pp. 8083, 1945.

[Yao 99]

X. Yao, Y. Liu, and G. M. Lin. Evolutionary programming made faster. IEEE Trans.
Evol. Comput., Vol. 3, No. 2, pp. 82102, 1999.

[Yen 08]

G. Yen and M. Daneshyari. Diversity-Based Information Exchange among Multiple


Swarms in Particle Swarm Optimization. International Journal of Computational Intelligence and Applications, Vol. 7, No. 1, pp. 5775, 2008.

[Zhan 09] C. Zhang, J. Ning, S. Lu, D. Ouyang, and T. Ding. A novel hybrid differential evolution
and particle swarm optimization algorithm for unconstrained optimization. Oper. Res.
Lett., Vol. 37, No. 2, pp. 117122, March 2009.
[Zhen 03] Y. Zheng, L. Ma, L. Zhang, and J. Qian. On the convergence analysis and parameter
selection in particle swarm optimization. In : Proceedings of International Conference on
Machine Learning and Cybernetics 2003, pp. 18021807, 2003.
[Zhon 04] W. C. Zhong, J. Liu, Z. Xue, and L. C. Jiao. A multiagent genetic algorithm for global
numerical optimization. IEEE Transactions on Systems, Man and Cybernetics, Vol. 34,
No. 2, pp. 11281141, 2004.

140

Vous aimerez peut-être aussi