UNIVERSIT PARIS-EST
COLE DOCTORALE MATHEMATIQUES ET STIC
(MSTIC, E.D. 532)
THSE DE DOCTORAT
EN INFORMATIQUE
par
Abbas EL DOR
Sujet de la thse
Prsident
Frdric SAUBION
Rapporteur
Marc SEVAUX
Rapporteur
Grard BERTHIAU
Examinateur
Laurent DEROUSSI
Matre de Confrences
Maurice CLERC
Ingnieur consultant
Annecy
Patrick SIARRY
Co-directeur de thse
Directeur de thse
Remerciements
Je voudrais tout dabord remercier Patrick Siarry, Directeur de lquipe Traitement de
lImage et du Signal du Laboratoire Images, Signaux et Systmes Intelligents, et Directeur
de cette thse, ainsi que Maurice Clerc, pour mavoir donn la possibilit de faire cette
thse, et pour leur encadrement parfait. Ils ont toute ma gratitude pour mavoir laiss
une grande libert dans mes recherches, aid et encourag dans les moments difficiles et
mavoir consacr leur temps malgr leurs occupations.
Je tiens exprimer ma gratitude Frdric Saubion et Marc Sevaux pour avoir accept
dtre les rapporteurs de cette thse. Je voudrais galement remercier Damien Trentesaux
pour avoir accept de prsider mon jury. Je remercie aussi Grard Berthiau et Laurent
Deroussi pour avoir accept dexaminer mes travaux. Jadresse un grand merci tous les
membres de mon jury, pour avoir ainsi marqu leur intrt pour mon travail, et pour les
remarques quils ont apportes durant la relecture et la soutenance de ma thse.
Je souhaite galement exprimer ma reconnaissance envers tous les membres du LiSSi,
pour mavoir accueilli chaleureusement, et pour toutes les conversations scientifiques ou
non que lon a pu avoir. Un grand merci Patricia Jamin, Sandrine David et Frdric Dumont, pour mavoir aid surmonter toutes sortes de problmes. Je remercie galement
Brigitte David, de lancienne Ecole Doctorale SIMME, et Sylvie Cach, de la nouvelle ED
MSTIC.
Je remercie tous mes collgues doctorants, pour la bonne ambiance et leur amiti. Merci
en particulier Kamel Aloui, Ilhem Boussad, Julien Lepagnot et Mustapha Dakkak.
Jai eu la chance denseigner en tant que vacataire, pendant mes deux premires annes
de thse, lUniversit Paris-Est Crteil. Jai beaucoup aim enseigner luniversit, et je
souhaite remercier toute lquipe enseignante avec qui jai eu lhonneur de travailler. Merci
notamment Eric Petit et Ahmed Raji.
II
Remerciements
Je suis trs reconnaissant envers les membres de lIUT de Crteil/Vitry qui mont chaleureusement accueilli parmi eux. Un grand merci pour leur bienveillance, et pour tous les
bons conseils quils mont prodigus.
Ce travail naurait pas pu tre ralis sans le soutien de ma famille, que je remercie
tout particulirement. Un grand merci mes parents, mes frres et mes surs, qui mont
soutenu tout au long de mes tudes et dont je serai indfiniment redevable.
Je tiens aussi remercier tous ceux qui ont, de prs ou de loin, aid rendre ce travail
possible, que ce soit par des ides ou par des encouragements.
Merci tous !
III
Rsum
La rsolution satisfaisante dun problme doptimisation difficile, qui comporte un
grand nombre de solutions sous-optimales, justifie souvent le recours une mtaheuristique
puissante. La majorit des algorithmes utiliss pour rsoudre ces problmes doptimisation
sont les mtaheuristiques population. Parmi celles-ci, nous intressons lOptimisation
par Essaim Particulaire (OEP, ou PSO en anglais) qui est apparue en 1995. PSO sinspire de
la dynamique danimaux se dplaant en groupes compacts (essaims dabeilles, vols groups doiseaux, bancs de poissons). Les particules dun mme essaim communiquent entre
elles tout au long de la recherche pour construire une solution au problme pos, et ce en
sappuyant sur leur exprience collective. Lalgorithme PSO, qui est simple comprendre,
programmer et utiliser, se rvle particulirement efficace pour les problmes doptimisation variables continues. Cependant, comme toutes les mtaheuristiques, PSO possde
des inconvnients, qui rebutent encore certains utilisateurs. Le problme de convergence
prmature, qui peut conduire les algorithmes de ce type stagner dans un optimum local, est un de ces inconvnients. Lobjectif de cette thse est de proposer des mcanismes,
incorporables PSO, qui permettent de remdier cet inconvnient et damliorer les performances et lefficacit de PSO.
Nous proposons dans cette thse deux algorithmes, nomms PSO-2S et DEPSO-2S,
pour remdier au problme de la convergence prmature. Ces algorithmes utilisent des
ides innovantes et se caractrisent par de nouvelles stratgies dinitialisation dans plusieurs zones, afin dassurer une bonne couverture de lespace de recherche par les particules. Toujours dans le cadre de lamlioration de PSO, nous avons labor une nouvelle
topologie de voisinage, nomme Dcluster, qui organise le rseau de communication entre
les particules. Les rsultats obtenus sur un jeu de fonctions de test montrent lefficacit
des stratgies mises en uvre par les diffrents algorithmes proposs. Enfin, PSO-2S est
appliqu des problmes pratiques, en segmentation dimages et en lectronique.
Mots cls : Optimisation, optimisation continue, mtaheuristiques, optimisation par essaim
particulaire, segmentation dimage.
IV
Abstract
The successful resolution of a difficult optimization problem, comprising a large number of sub optimal solutions, often justifies the use of powerful metaheuristics. A wide range
of algorithms used to solve these combinatorial problems belong to the class of population
metaheuristics. Among them, Particle Swarm Optimization (PSO), appeared in 1995, is inspired by the movement of individuals in a swarm, like a bee swarm, a bird flock or a fish
school. The particles of the same swarm communicate with each other to build a solution
to the given problem. This is done by relying on their collective experience. This algorithm,
which is easy to understand and implement, is particularly effective for optimization problems with continuous variables. However, like several metaheuristics, PSO shows some
drawbacks that make some users avoid it. The premature convergence problem, where the
algorithm converges to some local optima and does not progress anymore in order to find
better solutions, is one of them. This thesis aims at proposing alternative methods, that can
be incorporated in PSO to overcome these problems, and to improve the performance and
the efficiency of PSO.
We propose two algorithms, called PSO-2S and DEPSO-2S, to cope with the premature convergence problem. Both algorithms use innovative ideas and are characterized by
new initialization strategies in several areas to ensure good coverage of the search space
by particles. To improve the PSO algorithm, we have also developed a new neighborhood
topology, called Dcluster, which can be seen as the communication network between the
particles. The obtained experimental results for some benchmark cases show the effectiveness of the strategies implemented in the proposed algorithms. Finally, PSO-2S is applied
to real world problems in both image segmentation and electronics fields.
Keywords : Optimization, continuous optimization, metaheuristics, particle swarm optimization, image segmentation.
Introduction gnrale
1
VI
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
4
5
5
5
7
7
7
9
9
10
12
15
18
21
21
22
24
24
25
26
27
27
28
29
30
31
32
32
33
33
35
35
36
36
38
39
42
44
49
49
50
51
53
70
70
71
72
72
73
74
75
76
77
VII
55
57
59
61
62
64
64
64
68
81
82
83
83
85
89
91
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
93
93
93
93
95
95
96
96
98
99
103
103
103
104
107
109
113
113
Conclusion et perspectives
118
Annexe
122
Rfrences bibliographiques
140
VIII
Introduction gnrale
Les problmes doptimisation occupent actuellement une place importante dans la
communaut des ingnieurs, des scientifiques et des dcideurs. En effet, ce genre de problmes intervient dans leurs domaines dactivit qui sont trs divers, comme la conception
de systmes mcaniques, le traitement dimages, llectronique ou la recherche oprationnelle.
Un problme doptimisation est dfini par un ensemble de variables, une fonction objectif et un ensemble de contraintes. Lespace de recherche est lensemble des solutions
possibles du problme. Rsoudre un problme doptimisation consiste trouver la ou les
meilleures solutions (en minimisant et/ou maximisant la/les fonctions objectifs du problme pos), tout en satisfaisant un ensemble de contraintes dfinies par lutilisateur. Certains problmes doptimisation sont qualifis de difficiles, et leur rsolution dans un temps
raisonnable ncessite lutilisation dalgorithmes sophistiqus, comme les mthodes approches (Les heuristiques et les mtaheuristiques). Parmi les mtaheuristiques destines
rsoudre ces problmes, plus prcisment les problmes variables continues, loptimisation par essaim particulaire (OEP, ou PSO en anglais) est apparue en 1995. Cest le sujet
principal de ce travail de thse.
PSO est une mthode doptimisation stochastique qui est inspir dun comportement
social des animaux voluant en essaim. Ce comportement social est modlis par une
quation mathmatique permettant de guider les particules durant le processus de dplacement. Le dplacement dune particule est influenc par trois composantes : la composante dinertie, la composante cognitive et la composante sociale. Chacune de ces composantes reflte une partie de lquation. PSO prsente lavantage dtre efficace sur une
grande varit de problmes, sans pour autant que lutilisateur ait modifier la structure
de base de lalgorithme. Cependant, comme toutes les mthodes stochastiques, PSO prsente des inconvnients, qui rebutent encore certains utilisateurs. Parmi ceux-ci, nous citons le problme de convergence prmature, qui peut conduire les algorithmes de ce type
stagner dans un optimum local. Lobjectif de cette thse est de proposer des mthodes
1
Introduction gnrale
Introduction gnrale
volutionnaires, lalgorithme de colonies de fourmis et lalgorithme volution diffrentielle. Ensuite, nous dtaillons lalgorithme dOptimisation par Essaim Particulaire (OEP,
ou PSO en anglais). Enfin, nous prsentons des fonctions de test, qui sont utilises dans le
deuxime et le troisime chapitre, pour mesurer les performances des algorithmes.
Dans le deuxime chapitre, nous dcrivons lalgorithme PSO-2S, que nous avons labor durant cette thse. Il se caractrise par une nouvelle stratgie dinitialisation dans
plusieurs zones de lespace de recherche. Cette stratgie est base sur lutilisation de deux
types dessaims de particules (auxiliaire et principal), en considrant les particules comme
des lectrons. Nous commenons par dcrire PSO-2S en dtail, puis nous en prsentons
une analyse exprimentale. Une comparaison de ses performances avec celles des autres
algorithmes doptimisation proposs dans la littrature est galement effectu. Ensuite,
une variante amliore de PSO-2S, nomme DEPSO-2S, est dcrite et analyse.
Dans le troisime chapitre, nous nous concentrons dabord sur le concept de voisinage,
en tudiant les caractristiques des changes dinformations entre les particules. Ensuite,
nous prsentons la topologie Dcluster, que nous avons labore durant cette thse. Enfin,
nous effectuons une analyse exprimentale, ainsi quune comparaison de ses performances
avec celles dautres algorithmes utilisant diffrentes topologies connues dans la littrature
de PSO.
Le quatrime chapitre est consacr lapplication de PSO-2S en segmentation dimages
et en lectronique. Dans la premire partie de ce chapitre, nous prsentons la premire application de PSO-2S en segmentation dimages. Le but est de segmenter des images multiclasses dont le nombre de classes est connu a priori. Dans le cadre de nos travaux, nous
nous sommes limits lapproche par seuillage dimages pour dterminer les seuils des
diffrentes classes. PSO-2S est utilis comme mthode doptimisation pour minimiser un
critre qui permet de dterminer ces seuils. La deuxime partie de ce chapitre porte sur
lapplication de PSO-2S au dimensionnement de circuits lectroniques. Le but est de trouver les dimensions des transistors qui permettent de faire fonctionner de manire optimale
les circuits tudis. PSO-2S est utilis pour minimiser la rsistance parasite et maximiser
la frquence de coupure dun convoyeur de courant de seconde gnration CCII+.
Enfin, dans la conclusion gnrale du manuscrit, nous rcapitulons nos principales
contributions, puis nous exposons quelques perspectives pour amliorer les performances
des algorithmes dj dvelopps.
C HAPITRE U N
1.1
Introduction
Lun des principes les plus fondamentaux de notre monde, qui occupe aussi une place
importante dans le monde informatique, industriel, etc., est la recherche dun tat optimal.
En effet, de nombreux problmes scientifiques, sociaux, conomiques et techniques ont
des paramtres qui peuvent tre ajusts pour produire un rsultat plus souhaitable. Ceuxci peuvent tre considrs comme des problmes doptimisation et leur rsolution est un
sujet central en recherche oprationnelle. Des techniques ont t conues pour rsoudre
ces problmes, notamment les problmes difficiles (par exemple ceux qui prsentent
de nombreux extrema locaux pauvres), en dterminant des solutions qui ne sont pas rigoureusement optimales, mais qui sen approchent. Ces mthodes, appeles heuristiques
et mtaheuristiques, se basent gnralement sur des phnomnes physiques, biologiques,
socio-psychologiques, et peuvent faire appel au hasard.
Ce chapitre est structur comme suit. Dans la section 1.2, nous dcrivons dabord le
cadre de loptimisation difficile, puis nous prsentons un tat de lart des mtaheuristiques
doptimisation pour les problmes mono-objectifs, telles que lalgorithme du recuit simul,
la recherche tabou, les algorithmes volutionnaires, lalgorithme de colonies de fourmis et
lalgorithme volution diffrentielle.
Dans la section 1.3, nous dtaillons lalgorithme dOptimisation par Essaim Particulaire
(OEP, ou PSO en anglais), qui constitue le sujet principal de ce travail de thse. LOptimisation par Essaim Particulaire est une mtaheuristiques invente par Kennedy et Eberhart [Kenn 95] en 1995. Elle sinspire du comportement social des animaux voluant en
essaim. Les diffrentes particules dun essaim communiquent directement avec leurs voisines et construisent ainsi une solution un problme, en sappuyant sur leur exprience
collective.
4
Enfin, dans la section 1.4, nous prsentons des fonctions analytiques (principales fonctions de test de CEC05 Congress on Evolutionary Computation et problmes rels) dont
les minima globaux et locaux sont connus. Ces fonctions sont utilises dans le deuxime et
le troisime chapitre pour mesurer les performances des algorithmes.
1.2
1.2.1
Problme doptimisation
1.2.2
Optimisation difficile
Les mthodes de rsolution exacte ne sont pas adaptes toutes les problmatiques,
et donc certains problmes sont trop complexes rsoudre par ces mthodes. Parmi ces
1.2.3
1.2.3.1
Heuristiques
Lutilisation de mthodes exactes nest pas toujours possible pour un problme donn
cause dun certain nombre de contraintes, telles que le temps de calcul souvent important
ou bien la difficult, voire limpossibilit dans certains cas, dune dfinition spare du problme. Pour faire face ces contraintes, nous utilisons des mthodes approches, appeles
heuristiques. Le terme heuristique drive du grec ancien heuriskin et signifie trouver .
Il qualifie tout ce qui sert la dcouverte et lexploitation. Il est souligner ici quune
mthode heuristique peut tre dterministe ou stochastique.
Une heuristique est un algorithme qui fournit rapidement (en un temps polynomial)
une solution approche et ralisable, pas ncessairement optimale, pour un problme doptimisation difficile. Cette mthode approximative est le contraire dun algorithme exact qui
donne une solution optimale pour un problme donn.
Il y a une multitude dheuristiques qui ont dj t proposes dans la littrature. Nous
pouvons citer des heuristiques trs simples telles que les algorithmes gloutons [Corm 90,
DeVo 96] ou les approches par amlioration itrative [Basi 75]. Le principe des mthodes
gloutonnes est de faire une succession de choix optimaux localement, jusqu ce que lon
ne puisse plus amliorer la solution, et ce, sans retour en arrire possible. Le fonctionnement dune heuristique gloutonne est similaire celui dun algorithme glouton exact. La
diffrence rside dans le fait que nous nimposons plus que la solution obtenue soit optimale, nous obtenons donc un algorithme dapproximation.
1.2.3.2
Mtaheuristiques
tions est contrebalance par le fait quelles noffrent aucune garantie quant loptimalit
de la meilleure solution trouve. Cependant, du point de vue de la recherche oprationnelle, ce constat nest pas forcment un dsavantage, puisque lon prfre toujours une
approximation de loptimum global trouve rapidement une valeur exacte trouve dans
un temps rdhibitoire.
Il existe un grand nombre de mtaheuristiques diffrentes, allant de la simple recherche
locale des algorithmes complexes de recherche globale. La plupart des mta-heuristiques
utilisent des processus alatoires comme moyens de rcolter de linformation et de faire
face des problmes comme lexplosion combinatoire. Les mtaheuristiques peuvent tre
considres comme des algorithmes stochastiques itratifs, o elles manipulent une ou
plusieurs solutions la recherche de loptimum. Les itrations successives doivent permettre de passer dune solution de mauvaise qualit la solution optimale. Lalgorithme
sarrte aprs avoir atteint un critre darrt, consistant gnralement en latteinte du
temps dexcution imparti ou en une prcision demande. Ces mthodes tirent leur intrt de leur capacit viter les optima locaux, soit en acceptant des dgradations de la
fonction objectif au cours du traitement, soit en utilisant une population de points comme
mthode de recherche.
Les mtaheuristiques sont souvent inspires de processus naturels qui relvent de la
physique (lalgorithme du recuit simul), de la biologie de lvolution (les algorithmes gntiques) ou encore de lthologie (les algorithmes de colonies de fourmis ou loptimisation
par essaim particulaire).
Les mtaheuristiques se caractrisant par leur capacit rsoudre des problmes trs
divers, elles se prtent naturellement des extensions. Pour illustrer celles-ci, nous pouvons citer :
Les mtaheuristiques pour loptimisation multiobjectif [Coll 02] : o il faut optimiser
plusieurs objectifs contradictoires. Le but ne consiste pas ici trouver un optimum
global, mais trouver un ensemble doptima, qui forment une surface de compromis
pour les diffrents objectifs du problme ;
Les mtaheuristiques pour loptimisation multimodale [Gold 87] : o lon ne cherche
plus loptimum global, mais lensemble des meilleurs optima globaux et/ou locaux ;
Les mtaheuristiques pour loptimisation de problmes bruits : o il existe une incertitude sur le calcul de la fonction objectif, dont il faut tenir compte dans la recherche
de loptimum ;
8
1.2.4
1.2.4.1
Le recuit simul est une mthode empirique inspire dun processus utilis en mtallurgie (appel le recuit) o, pour atteindre les tats de basse nergie dun solide, on chauffe
celui-ci jusqu des tempratures leves, avant de le laisser refroidir lentement.
Lalgorithme du recuit simul a t propos par Kirkpatrick et al. [Kirk 83] (et indpendamment, Cerny [Cern 85]). La description classique du recuit simul le prsente
comme un algorithme probabiliste, o un point volue dans lespace de recherche. Le recuit simul sappuie sur lalgorithme de Metropolis [Metr 53, Hast 70] dcrit par lAlgorithme 1.1, qui permet de dcrire lvolution dun systme en thermodynamique. Cette
procdure permet de sortir des minima locaux avec une probabilit leve si la temprature T est leve et, quand lalgorithme atteint de basses tempratures, de conserver les
tats les plus probables. Ici, la mthode de Metropolis (ou toute autre mthode dchantillonnage [Creu 83, Okam 95]) tient lieu de diversification, associe la dcroissance de
temprature, qui contrle lintensification. Lalgorithme de recuit simul est rsum en Algorithme 1.2.
Algorithme de Metropolis
1
3
4
5
6
fin
fin
fin
10
11
f ( xi ) f ( xi 1 )
T
fin
Initialiser la temprature T
8
9
10
f min = f (S )
fin
11
12
fin
13
Dcrotre la temprature
14
fin
modlise ainsi une forme primaire de mmoire court terme. Lalgorithme de recherche
11
4
5
9
10
fin
1.2.4.3
Les algorithmes volutionnaires (AEs), labors au cours des annes 1950 [Fras 57],
sont des techniques de recherche inspires par lvolution biologique des espces. Ils sinspirent de lvolution des tres vivants (la thorie Darwinienne de la slection naturelle des
espces) pour rsoudre des problmes doptimisation. Lide ici est que, les individus qui
ont hrit des caractres bien adapts leur milieu ont tendance vivre assez longtemps
pour se reproduire, alors que les plus faibles ont tendance disparatre.
Au cours des annes 1970, avec lavnement des calculateurs de forte puissance, de
nombreuses approches de modlisation de lvolution ont t ralises. Nous pouvons
citer :
Les statgies dvolution [Rech 65, Beye 01] qui ont t conues pour rsoudre des problmes variables continues. Elles sont axes sur la modlisation des paramtres
12
4
5
fin
Parent 1
Parent 2
0 1 0 1 1 0 0 1 1
0 1 1 0 1 0 1 1 0
0 1 0 0 1 0 1 1 1
0 1 1 1 1 0 0 1 0
Enfant 1
Enfant 2
14
0 1 0 1 0 0 1 1 1 0 1 0 0 1 1 1 0 0
0 1 0 1 0 0 1 1 1 1 1 0 0 1 1 1 0 0
F IGURE 1.2: Exemple doprateur de mutation en reprsentation binaire.
valuation des
performances
des individus
Slection
pour la
reproduction
Croisements
Mutations
Slection
pour la
reproduction
valuation des
performances
des individus
non
Initialisation
alatoire
dune
population
Stop ?
oui
meilleur(s) individu(s)
15
une fourmi est dautant plus attire un certain endroit que le taux de phromones y
est important. De ce fait, le plus court chemin a une probabilit plus importante dtre
emprunt par les fourmis que les autres chemins et sera donc, terme, emprunt par toutes
les fourmis.
Le premier algorithme doptimisation sinspirant de cette analogie a t propos par
Colorni, Dorigo et Maniezzo [Colo 91, Dori 96], afin de rsoudre le problme du voyageur
de commerce. LAlgorithme 1.5 rsume lapproche par colonies de fourmis propose par
les auteurs. Si lon considre un problme de voyageur de commerce N villes, chaque
fourmi k parcourt le graphe et construit un trajet de longueur n = N. Pour chaque fourmi,
le trajet dune ville i une ville j dpend de :
La liste des dplacements possibles Jik , quand la fourmi k est sur la ville i ;
Linverse de la distance entre les villes ij =
1
dij ,
est utilise pour diriger les fourmis vers des villes proches et, ainsi, viter de trop
longs dplacements ;
La quantit de phromones dpose sur larte reliant deux villes ij (t), appele intensit de la piste. Cette quantit dfinit lattractivit dune piste et est modifie aprs
le passage dune fourmi. Cest en quelque sorte la mmoire du systme.
La rgle de dplacement est la suivante :
pijk (t) =
si j Jik
(1.2.1)
sinon
ijk (t) =
Q
Lk (t)
si (i, j) T k (t)
sinon
16
(1.2.2)
nid
d
nourriture
ou u e
nidd
nourriture
ou u e
obstacle
(a)
nid
(b)
nourriture
nid
nourriture
obstacle
obstacle
(c)
(d)
F IGURE 1.4: Illustration de la capacit des fourmis chercher de la nourriture en minimisant leur parcours. (a) Recherche sans obstacle, (b) Apparition dun obstacle, (c) Recherche
du chemin optimal, (d) Chemin optimal trouv.
ACO
1
2
3
4
t1
fin
Dposer une quantit de phromones ijk (t) sur le trajet T k (t) conformment
(1.2.2)
fin
9
10
11
t t+1
12
fin
17
o T k (t) est le trajet effectu par la fourmi k litration t, Lk (t) est la longueur de T k (t) et
Q est un paramtre de rglage.
Enfin, il est ncessaire dintroduire un processus dvaporation des phromones. En
effet, pour viter de rester pig dans des optima locaux, il est ncessaire quune fourmi
oublie les mauvaises solutions. La rgle de mise jour est la suivante :
ij (t + 1) = (1 )ij (t) + ij (t)
(1.2.3)
k
o ij (t) = m
k=1 ij ( t ), m est le nombre de fourmis et est un paramtre de rglage.
Lvolution diffrentielle (Differential Evolution DE) est une mtaheuristique stochastique doptimisation qui a t inspire par les algorithmes gntiques et des stratgies
volutionnaires combines avec une technique gomtrique de recherche. Les algorithmes
gntiques changent la structure des individus en utilisant la mutation et le croisement,
alors que les stratgies volutionnaires ralisent lauto-adaptation par une manipulation
gomtrique des individus. Ces ides ont t mises en uvre grce une opration
simple, mais puissante, de mutation de vecteurs, propose en 1995 par K. Price et R.
Storn [Stor 97]. Mme si, lorigine, la mthode de lvolution diffrentielle tait conue
pour les problmes doptimisation continus et sans contraintes, ses extensions actuelles
peuvent permettre de traiter les problmes variables mixtes et grent les contraintes non
linaires [Lamp].
Dans la mthode DE, la population initiale est gnre par tirage alatoire uniforme
sur lensemble des valeurs possibles de chaque variable. Les bornes infrieures et suprieures des variables sont spcifies par lutilisateur selon la nature du problme. Aprs
linitialisation, lalgorithme effectue une srie de transformations sur les individus, dans
un processus appel volution.
18
(1.2.4)
(1.2.5)
Une opration de slection permet de choisir les individus conserver pour la nouvelle
gnration (G + 1).
a - Mutation
Pour chaque vecteur courant xi,G , on gnre un vecteur mutant vi,G+1 qui peut tre cr en
utilisant une des stratgies de mutation suivantes :
- Rand/1 :
vi,G+1 = xr1 ,G + F.( xr2 ,G xr3 ,G )
(1.2.6)
(1.2.7)
(1.2.8)
(1.2.9)
- Best/1 :
- Current to best/1 :
- Best/2 :
- Rand/2 :
19
(1.2.10)
Les indices r1 , r2 , r3 , r4 et r5 {1, 2, . . . , N } sont des entiers alatoires et tous diffrents. Ils
sont galement choisis diffrents de lindice courant i. xbest,G est le meilleur individu la
Gme gnration. F [0, 2] est une valeur constante, appele differential weight, qui contrle
Aprs la mutation, une opration de croisement binaire forme le vecteur dessai final
ui,G+1 , selon le vecteur xi,G et le vecteur mutant correspondant vi,G+1 . Lopration de croisement est introduite pour augmenter la diversit des vecteurs de paramtres perturbs.
Le nouveau vecteur ui,G+1 est donn par la formule suivante :
u ji,G+1 =
x
ji,G
o randb( j) est la jme valeur procure un gnrateur de nombre alatoire uniforme appartenant lintervalle [0,1]. CR est le coefficient de croisement qui appartient lintervalle
[0,1] et est dtermin par lutilisateur. rnbr (i ) est un indice choisi au hasard dans lensemble {1, 2, . . . , N }.
c - Slection
Pour dcider quel vecteur, parmi ui,G+1 ou xi,G , doit tre choisi dans la gnration G + 1,
on doit comparer les valeurs de fonction du cout de ces deux vecteurs. En effet, on garde le
vecteur ayant la plus petite valeur de fonction du cout en cas de minimisation. Le nouveau
vecteur xi,G+1 est choisi selon lexpression suivante :
xi,G+1 =
x
i,G
(1.2.12)
sinon
Il est clair quun bon rglage des principaux paramtres de lalgorithme (taille de la population N, facteur de mutation F et facteur de croisement CR) contribue de faon importante
lefficacit de la mthode. Lauto-adaptation de ces paramtres parat donc intressante
20
pour lamlioration de lalgorithme. Une comparaison des versions adaptatives et autoadaptatives de lalgorithme volution diffrentielle (FADE [Liu 05], DESAP [Teo 06],
SaDE [Qin 05] et jDE [Bres 06]) est prsente dans [Bres 07].
1.3
1.3.1
Principe gnral
cement ;
2. Une composante cognitive : la particule tend se diriger vers le meilleur site par
lequel elle est dj passe ;
3. Une composante sociale : la particule tend se fier lexprience de ses congnres
et, ainsi, se diriger vers le meilleur site dj atteint par ses voisins.
La stratgie de dplacement dune particule est illustre dans la figure 1.5.
Vers sa meilleure
performance
p
Nouvelle
position
Position
actuelle
Vers la meilleure
performance
f
d
des
particules voisines
Vers le point
accessible avec sa
vitesse courante
1.3.2
Formalisation
Dans un espace de recherche de dimension D, la particule i de lessaim est modlise par son vecteur position ~xi = ( xi1 , xi2 , . . . , xiD ) et par son vecteur vitesse ~vi =
(vi1 , vi2 , . . . , viD ). La qualit de sa position est dtermine par la valeur de la fonction objectif en ce point. Cette particule garde en mmoire la meilleure position par laquelle elle
est dj passe, que lon note ~
Pbesti = ( pbesti1 , pbesti2 , . . . , pbestiD ). La meilleure position
~
atteinte par les particules de lessaim est note Gbest
= ( gbest1 , gbest2 , . . . , gbest D ). Nous
nous rfrons la version globale de PSO, o toutes les particules de lessaim sont consid~
res comme voisines de la particule i, do la notation Gbest
(global best).
Remarque : le terme de vitesse est ici abusif, car les vecteurs ~vi ne sont pas homognes une
vitesse. Il serait plus appropri de parler de direction de dplacement . Cependant, pour respecter
lanalogie avec le monde animal, les auteurs ont prfr utiliser le terme de vitesse .
22
t +1
t
t
t
t
vi,j
= wvi,j
+ c1 r1t i,j [ pbesti,j
xi,j
] + c2 r2t i,j [ gbesttj xi,j
], j {1, 2, ..., D }
t +1
t
t +1
xi,j
= xi,j
+ vi,j
, j {1, 2, ..., D }
(1.3.1)
(1.3.2)
o w est une constante, appele coefficient dinertie ; c1 et c2 sont deux constantes, appeles
coefficients dacclration ; r1 et r2 sont deux nombres alatoires tirs uniformment dans
Une fois le dplacement des particules effectu, les nouvelles positions sont values et les
~
deux vecteurs ~
Pbesti et Gbest
sont mis jour , litration t + 1, suivant les deux quations
(1.3.3) (dans le cas dune minimisation) et (1.3.4) (dans une version globale de PSO), respectivement. Cette procdure est prsente dans lAlgorithme 1.6, o N est le nombre de
particules de lessaim.
~Pbesti (t + 1) =
~
Gbest
(t + 1) = arg min~Pbest f (~Pbesti (t + 1)), 1 i N.
i
23
(1.3.3)
(1.3.4)
OEP
1
2
3
~
Calculer Gbest
selon (1.3.4)
6
7
~
Mettre jour ~
Pbesti et Gbest
selon (1.3.3) et (1.3.4)
fin
1.3.3
Amliorations de PSO
1.3.3.1
Pour viter que le systme n explose en cas damplification trop grande doscillations (il est possible que le dplacement dune particule soit trop rapide et la conduise
sortir de lespace de recherche), nous pouvons introduire un nouveau paramtre Vmax , qui
permet de limiter la vitesse sur chaque dimension et ainsi de contrler lexplosion du systme [Eber 96]. Notons que cela ne restreint pas les valeurs de xi lintervalle [Vimin , Vimax ],
mais limite seulement la distance maximale quune particule va parcourir au cours dune
itration. Cette mthode permet de contrler la divergence de lalgorithme et de raliser
ainsi un compromis efficace entre intensification et diversification.
De plus, une stratgie de confinement des particules peut tre introduite. Une telle
stratgie permet de ramener une particule sortie de lespace de recherche lintrieur de
celui-ci. Dans ce cadre, plusieurs mthodes peuvent tre employes :
La particule est laisse lextrieur de lespace de recherche, mais on nvalue pas sa
fonction objectif. Ainsi, elle ne pourra pas attirer les autres particules en dehors de
lespace de recherche ;
La particule est arrte la frontire et les composantes associes sa vitesse sont
annules ;
La particule rebondit sur la frontire. La particule est stoppe sur la frontire, mais
24
Coefficient de constriction
vij (t + 1) = vi,j (t) + 1 r1 pbesti,j (t) xi,j (t) + 2 r2 gbest j (t) xi,j (t)
(1.3.5)
avec :
=
o : = 1 + 2 , > 4.
2+
2
p
2 4
(1.3.6)
25
maximale Vmax . Cependant, dans certains cas, le coefficient de constriction seul ne permet pas la convergence vers la solution optimale pour un nombre ditrations donn.
Pour remdier ce problme, il pourrait tre intressant de fixer Vmax = ( xmax xmin )/2
en plus du coefficient de constriction, ce qui, selon les tudes de Shi et Eberhart, per-
met damliorer les performances globales de lalgorithme. Ainsi, il est noter que PSO,
utilisant un coefficient de constriction, nest pas la seule version de PSO qui garantisse la convergence vers un tat dquilibre. Dautres exemples peuvent tre trouvs
dans [Van 01, Trel 03, Peer 03, Zhen 03], qui permettent aussi de provoquer la convergence
de lalgorithme.
1.3.3.3
Topologie de voisinage
Comme nous lavons vu dans les deux sous-sections 1.3.1 et 1.3.2, PSO est une mthode doptimisation stochastique inspire dun comportement social. Ce comportement
a t modlis par les deux quations (1.3.1) et (1.3.2) pour guider les particules durant le
processus de dplacement. Le choix dune topologie (le rseau de communication entre les
particules) a donc une influence importante sur les performances de PSO.
A lorigine, dans la version de PSO rsume dans lAlgorithme 1.6, les auteurs ont dfini une topologie entirement connecte (i.e. chaque particule est relie toutes les autres).
Cette version de PSO est appele version globale (Gbest), car la particule est informe par
~
la totalit des autres, et linformation effectivement utilise est incarne par le terme Gbest
de la troisime composante de lquation (1.3.1). Cette version a linconvnient majeur de
ne pas donner lieu une exploration suffisante, ce qui peut conduire une stagnation
dans un optimum local et donc une convergence prmature. De nombreuses variantes
de la version originale, dites versions locales (Lbest), ont t proposes dans la littrature
de PSO, afin damliorer sa convergence. Parmi ces variantes, nous pouvons citer celle
propose dans [Eberhart et al., 1995] et qui utilise un graphe dinformation statique sous
forme danneau (cette version est connue comme tant la version locale classique). Dans les
~
versions locales, le terme Gbest
est remplac par les termes ~Lbesti , o, pour chaque particule i, on dfinit un ensemble de voisinage (i.e. linformation qui doit tre partage est la
meilleure solution trouve dans le voisinage de chaque particule (~Lbesti )). Cette partie sera
traite et dtaille dans le chapitre 3, o nous prsenterons aussi une nouvelle topologie
dynamique, nomme Dcluster.
26
1.3.3.4
Coefficient dinertie
Le coefficient dinertie w, introduit par Shi et Eberhart [Shi 99], contrle linfluence de
la direction de la particule sur le dplacement futur. Le but de lintroduction de ce paramtre est de raliser un quilibre entre la recherche locale (exploitation) et la recherche
globale (exploration). Lintensit de lexploration de lespace de recherche dpend de la
valeur du poids dinertie, une grande valeur de w facilitant une exploration globale, alors
quune petite valeur facilite lexploration locale. Du fait de son influence sur les performances de lalgorithme PSO, le poids dinertie a suscit un grand intrt de la part de la
communaut des chercheurs. Dans [Shi 99], les auteurs ont propos un coefficient dinertie dynamique qui varie au cours du temps. Il commence par une valeur proche de 0,9 et
descend linairement pour arriver 0,4. Cette stratgie a beaucoup amlior les performances de PSO pour plusieurs problmes doptimisation. Le coefficient dinertie w varie
linairement avec le temps selon la formule suivante :
iter
)
maxiter
(1.3.7)
o iter est litration courante et maxiter est le nombre maximal ditrations. wmax et wmin
dsignent respectivement les valeurs maximum et minimum du coefficient w (gnralement, wmin , wmax [0, 1]).
Dans [Chat 06], Chatterjee et Siarry ont utilis une autre stratgie non-linaire pour
dfinir un coefficient dinertie dynamique. Dans [Eber 01], Eberhart et Shi ont propos
une autre variante, dans laquelle le coefficient dinertie est choisi au hasard, selon une
distribution uniforme, dans lintervalle [0,5, 1]. Cet intervalle a t inspire du facteur de
constriction propos par Clerc et Kennedy (la valeur attendue du coefficient dinertie, dans
ce cas, est gale 0,75 0,729).
1.3.3.5
Stratgie FIPS
Kennedy et Mendes [Mend 04] ont propos une nouvelle manire dutiliser la topologie Gbest, appele FIPS (Fully Informed Particle Swarm). FIPS utilise une partie des informations de chaque voisine, au lieu de se baser seulement sur les informations de la meilleure
voisine et la meilleure exprience propre la particule. Par consquent, lutilisation dune
topologie entirement connecte ne signifie pas que linformation utilise soit seulement
27
la meilleure solution trouve par lessaim. En effet, dans FIPS, elle est toujours utilise,
mais elle nest pas la seule. Pour les algorithmes bass sur le principe de la topologie FIPS,
linformation utilise pour dplacer les particules est issue de toutes les autres particules.
Ainsi, toutes les voisines contribuent lajustement de la vitesse dune particule :
vit+1 =
vit +
Ni
n =1
(1.3.8)
o Ni est le nombre de voisins de la particule i, nbr (n) est la nime particule voisine de la
particule i et est la constante dacclration, qui permet de contrler la convergence des
particules. Cette dernire est fixe 4,1, suite lanalyse de Clerc et al [Cler 02].
1.3.3.6
Algorithme TRIBES
PSO et hybridation
Dans [Zhan 09], une approche originale dhybridation, qui est une combinaison de PSO et
DE (DE-PSO), est propose. Cette approche consiste dfinir une stratgie de dplacement
alatoire pour accrotre la capacit dexploration et en mme temps acclrer la convergence de lalgorithme, en utilisant des oprateurs de lalgorithme DE. Dans cette approche,
trois stratgies de mise jour de la particule ont t utilises : DE Updating Strategy (DEUS),
Random Updating Strategy (RUS) et PSO Updating Strategy (PSOUS). Dans [Mira 02], une
hybridation entre PSO et les stratgies volutionnaires est propose. Les paramtres chi,
1 et 2 , ainsi que ~g, sont perturbs selon une distribution gaussienne. La variance de cette
distribution est dtermine laide dun processus de slection. Dans [Robi 02], une hybridation entre PSO et les algorithmes gntiques est dveloppe. Il est dmontr dans cet
article que PSO est favorable dans la phase de diversification, alors que les algorithmes gntiques sont plus efficaces dans la phase dintensification. Dans [Shel 07], un algorithme
de PSO est hybrid avec un algorithme de colonies de fourmis. Lide sous-jacente consiste
utiliser PSO comme mthode de recherche globale, alors que lalgorithme de colonies
de fourmis est cens amliorer le processus dintensification, en tant utilis comme une
recherche locale. Dans [Iqba 06], un algorithme de PSO utilisant des principes des algorithmes estimation de distribution est prsent. Les meilleures particules sont ici utilises pour attirer les autres particules de lessaim laide de lestimation dune distribution
de probabilit. Enfin, il existe aussi plusieurs mthodes hybridant PSO avec une recherche
locale. Parmi ces mthodes, nous citons NM-PSO, qui est une combinaison de la technique
de Nelder-Mead (NM) et de PSO. Dans NM-PSO, le processus hybride ralise lexploration
par lalgorithme PSO et lexploitation par lalgorithme NM [Fan 04].
1.3.3.8
PSO cooprative
Les algorithmes de recherche coopratifs, notamment ceux de PSO, ont t largement tudis ces dernires annes, surtout pour rsoudre les problmes doptimisation de
grande tailles. Lapproche de base consiste avoir plus dun module de recherche en cours
dexcution (peut-tre travers des sous-essaims) et un change dinformations entre eux,
afin dexplorer plus efficacement lespace de recherche et datteindre de meilleures solutions.
Dans [Berg 04], les auteurs proposent deux variantes de PSO : Cooperative PSO
(CPSO-Sk ) et Hybrid CPSO (CPSO-H). La premire variante CPSO-S divise lespace ndimensionnel (vecteur de solutions de dimension n) en sous-espaces (de plus petits vec30
teurs), o chaque sous-espace est optimis par un essaim spar. Le vecteur global de solutions est construit partir des solutions trouves par la meilleure particule de chaque
essaim. Dans le cas particulier o n = k, lalgorithme est appel CPSO-S et utilise
n essaims 1-dimensionnel pour effectuer la recherche dans chaque dimension sparment. La deuxime variante CPSO-H consiste en deux phases de recherche squentielle.
Chaque phase sexcute seulement pour une itration et communique la meilleure solution trouve la phase suivante. La premire phase utilise un CPSO-S (avec des essaims
1-dimensionnel) et la seconde phase utilise lalgorithme de base de PSO.
Dans [Bask 04], lalgorithme Concurrent PSO (CONPSO) considre deux essaims en
concurrence qui sont gnrs laide de deux variantes de PSO : PSO de base et Fitnessto-Distance Ratio PSO (FDR-PSO) [Pera 03]. Ces deux essaims effectuent la recherche en
mme temps avec un change frquent dinformations. Les informations changes sont
les meilleures solutions globales gbest1 et gbest2 de deux essaims. Aprs chaque point
dchange, les particules des essaims sont obliges de suivre la meilleure solution globale
trouve entre les deux.
Dans [Yen 08], les auteurs prsentent une autre mthode dchange dinformations
entre les essaims, dans laquelle la population des particules est divise en m sous-essaims
qui cooprent entre eux. Au moment de lchange, chaque sous-essaim prpare deux ensembles de particules : les particules envoyer un autre sous-essaim et les particules
remplacer par dautres particules venant dautres sous-essaims. Lchange dinformations
se fait entre sous-essaims du mme voisinage, dtermin par une distance qui change au
cours de lexcution de lalgorithme. Ceci fournit une configuration dynamique entre les
sous-essaims, grce au changement de distance, qui permet chacun dentre eux de communiquer avec dautres groupes.
Un autre algorithme de PSO cooprative a t propos dans [Niu 07], bas sur un modle matre-esclave. Dans cet algorithme, la population se compose dun essaim matre
et plusieurs essaims esclaves . Les essaims esclaves excutent un seul PSO indpendamment pour maintenir la diversit des particules, tandis que lessaim matre volue en
fonction de son information propre et de celle des essaims esclaves.
1.3.3.9
Dans [Hsie 09], Hsieh et al. proposent un algorithme (EPU-PSO) bas sur une population de taille variable qui utilise trois ides principales pour amliorer les performances
31
1.4
Dans cette section, nous allons prsenter les fonctions et les problmes rels utiliss
pour comparer les rsultats obtenus par les algorithmes que nous proposons dans ce manuscrit ceux dautres algorithmes existants dans la littrature. Nous nous appuyons, pour
comparer les algorithmes, sur la procdure de test dfinie dans le cadre de la confrence
2005 IEEE Congress on Evolutionary Computation (CEC05) [Suga 05].
Le critre darrt peut tre diffrent suivant le problme pos. Si loptimum global est
connu a priori, on peut dfinir une erreur acceptable comme critre darrt. Sinon, il est
habituel de fixer un nombre maximum dvaluations de la fonction objectif ou un nombre
maximum ditrations comme critre darrt. Cependant, selon le problme pos et les
exigences de lutilisateur, dautres critres darrt peuvent tre utiliss.
1.4.1
Les principales fonctions de test sont classes en quatre groupes (voir Tableau 1.1) en
fonction de leurs proprits [Suga 05, Tu 04, Yao 99].
Dans lannexe, nous dtaillons ces quatre groupes.
32
Groupe
Type de fonction
Nom de fonction
Fonctions unimodales
f 1 . Sphere function
f 2 . Quadric function
Fonctions multimodales
f 3 . Rosenbrocks function
f 4 . Ackleys function
f 5 . Rastrigins function
f 6 . Weierstrasss function
f 7 . Generalized penalized function
f 8 . Griewanks function
f 9 . Tripods function
Fonctions pivotes
Fonctions dcales
1.4.2
Problmes rels
1.5
Conclusion
Dans ce chapitre, nous avons prsent un tat de lart sur les mthodes doptimisation mono-objectifs statiques. Tout dabord, nous avons donn la dfinition dun problme
doptimisation. Puis, nous avons distingu les deux types de problmes doptimisation
mono-objectif difficile : les problmes variables discrtes et les problmes variables
continues. Ensuite, nous avons prsent une famille de mthodes de rsolution de problmes variables continues : les mtaheuristiques. Enfin, nous avons dcrit la plupart
des fonctions dun jeu de test trs utilis dans la littrature de loptimisation continue,
33
Problme
F1
F2
F3
F4
F5
F6
Perm function
F7
F8
F9
F10
F11
Problme de contraintes 1
F12
Problme de contraintes 2
C HAPITRE D EUX
LABORATION D UN ALGORITHME
D O PTIMISATION PAR E SSAIM PARTICULAIRE
PSO-2S
2.1
Introduction
Lalgorithme doptimisation par essaim particulaire (PSO) est caractris par sa convergence rapide, ce qui peut conduire les algorithmes de ce type stagner dans un optimum
local [Shi 99]. Pour remdier ce problme et amliorer les performances de PSO standard,
plusieurs tentatives ont t faites, telles que les modles hybrides, les mcanismes inspirs
de la biologie et quelques modifications de base dans les quations de mise jour de la
vitesse et de la position (le poids dinertie w, la topologie, etc.) [Das 08].
Toujours dans le cadre de lamlioration de lalgorithme PSO, nous proposons dans ce
chapitre deux variantes pour remdier au problme de la convergence prmature de cet
algorithme. Dans la premire variante, nous proposons un algorithme, nomm PSO-2S,
qui est bas sur lutilisation de lapproche multi-essaims. Dans la deuxime variante, nous
proposons un algorithme, nomm DEPSO-2S, qui est une variante de PSO-2S base sur
lhybridation de deux algorithmes doptimisation, PSO et DE.
PSO-2S [El D 12a] se base sur trois ides principales. La premire ide consiste utiliser
deux types dessaims : un essaim principal, not S1, et S essaims auxiliaires, nots S2i , o
1 i S. La deuxime ide consiste partitionner lespace de recherche en plusieurs
zones o les essaims auxiliaires seraient initialiss (le nombre de zones est gal au nombre
dessaims auxiliaires, est donc gal S). La dernire ide consiste utiliser le concept de la
rpulsion lectrostatique, qui permet de couvrir plus largement chaque zone de lespace de
recherche. Ces trois ides sont appliques dans la premire phase de lalgorithme PSO-2S,
qui est la phase de construction de lessaim principal.
DEPSO-2S [El D 12b] est une variante de PSO-2S. Elle utilise les trois ides principales
sur lesquelles se base PSO-2S et qui sont prsentes dans le paragraphe prcdent. Par
35
contre, dans DEPSO-2S, lalgorithme DE est utilis pour construire lessaim principal au
lieu de lalgorithme PSO. Pour ce faire, nous proposons une nouvelle version de DE afin
de ladapter PSO-2S. Cette version est utilise uniquement dans la premire phase de
lalgorithme et son rle prend fin aprs la construction de lessaim principal. Une fois,
lessaim principal construit, lalgorithme continue la recherche de la mme faon que PSO2S.
Dans la section 2.2, nous commenons par dcrire lalgorithme PSO-2S. Ensuite, nous
prsentons une analyse exprimentale de cet algorithme et nous comparons ses performances celles des autres algorithmes de PSO proposs dans la littrature. Dans la section 2.3, nous commenons par dcrire lalgorithme DEPSO-2S. Ensuite, nous prsentons
des rsultats numriques obtenus par DEPSO-2S et dautres algorithmes de PSO et lalgorithme DE, et nous terminons en tablissant une comparaison entre les performances des
diffrents algorithmes.
2.2
Dans cette section, nous proposons un nouvel algorithme doptimisation par essaim
particulaire, nomm PSO-2S, pour rsoudre des problmes doptimisation continue. Afin
de bien comprendre le fonctionnement de cet algorithme, nous allons prsenter les principales techniques utilises, qui ont abouti laborer la structure finale de PSO-2S, en
plusieurs paragraphes. Nous commencerons par dcrire la structure gnrale de PSO-2S,
puis nous verrons ensuite chacune des stratgies mises en uvre.
2.2.1
Structure gnrale
PSO-2S est une nouvelle variante de lalgorithme doptimisation par essaim particulaire (PSO). Cette variante utilise plusieurs sous-essaims au lieu dun seul essaim. Lapproche gnrale de lalgorithme multi-essaims consiste diversifier la recherche afin dexplorer plusieurs zones de lespace de recherche. En effet, dans cette variante, nous utilisons
les sous-essaims dans diffrentes zones, o chaque sous-essaim est utilis pour explorer
une zone particulire. Les algorithmes multi-essaims sont adopts spcialement pour loptimisation de problmes multimodaux ayant plusieurs optima locaux.
PSO-2S utilise des essaims auxiliaires et un essaim principal. Les essaims auxiliaires
sont utiliss pour construire lessaim principal. Les essaims auxiliaires sont des sous36
DEBUT
Essaim principal
Initialisation
Espace de
recherche E
Essaim
ms auxiliaiires
Essaim 1
Zone1
Essaim 2
Zone2
OUI
Critre darrt
satisfait ?
NON
Essaim S
ZoneS
FIN
F IGURE 2.1: Schma fonctionnel de PSO-2S.
essaims qui possdent des rles limits. Un essaim auxiliaire a pour but de dcouvrir une
zone de lespace de recherche en effectuant un certain nombre ditrations, et son rle se
termine aprs la rception de linformation sur la meilleure position de la zone. Plus prcisment, les populations des essaims auxiliaires sont initialises alatoirement dans diffrentes zones, selon un partitionnement dj fait de lespace de recherche. Puis une force
de rpulsion lectrostatique est applique sparment sur les particules de chaque essaim
pour les diversifier dans sa zone correspondante. Ensuite, les particules de chaque essaim
effectuent nbgeneration gnrations (valeur prdfinie) dans leur zone et, la fin de ces gnrations, la meilleure position trouve est sauvegarde dans un tableau. Les meilleures
positions obtenues par tous les essaims auxiliaires sont donc regroupes dans un tableau
de taille gale au nombre des essaims initialiss et aussi au nombre de zones. Le tableau
final de toutes les meilleures positions regroupes composera ensuite la population initiale de lessaim principal. Une fois linitialisation de lessaim principal est acheve, les
essaims auxiliaires ne sont plus utiliss. Lessaim principal prend alors le relais et continue
la recherche de la mme faon que lalgorithme PSO standard jusqu atteindre un critre
darrt. La structure gnrale de PSO-2S est illustre dans la figure 2.1.
37
2.2.2
Lalgorithme PSO est connu pour sa convergence rapide, qui peut conduire une stagnation dans un optimum local [Shi 99]. Nous profitons de cette convergence rapide pour
dtecter plusieurs optima locaux. La dtection des optima locaux consiste effectuer plusieurs recherches sur diffrents sites partir de plusieurs essaims. Les optima dtects sont
utiliss pour construire un essaim principal.
Comme nous lavons indiqu dans la section prcdente, PSO-2S consiste utiliser des
essaims auxiliaires (S2i ) pour construire son essaim principal (S1). Les essaims auxiliaires
sont situs dans plusieurs zones de lespace de recherche et ils sont de tailles diffrentes qui
correspondent aux tailles des zones prdfinies par la partition de lespace de recherche.
Nous en dduisons que la taille de lessaim dpend de la taille de sa zone (zone i correspondant lessaim S2i ), o la plus petite zone de lespace de recherche contient lessaim
contenant le moins de particules. Les essaims auxiliaires nvoluent pas au cours du temps
et leurs tailles restent donc fixes. Le but est dexplorer simultanment plusieurs rgions
de lespace de recherche, gnralement des optima locaux, avant que lessaim principal
ne prenne une dcision globale. Les essaims auxiliaires peuvent effectuer leurs travaux
de manire synchrone ou asynchrone, cest--dire que les essaims peuvent travailler en
parallle (i.e. les essaims travaillent en mme temps) ou en squence (i.e. un essaim finit avant quun autre ne commence). Dans les deux cas, les essaims auxiliaires effectuent
leurs recherches sans communiquer entre eux, cest--dire que le travail de chaque essaim
auxiliaire est indpendant de celui des autres essaims.
Dans PSO-2S, les particules de lessaim auxiliaire sont initialises alatoirement dans la
zone qui lui correspond. Aprs linitialisation, chaque essaim excute nbgeneration itrations
de la mme faon que PSO standard, et il procure la fin de ces itrations la meilleure position trouve pendant la recherche. Le but, dans la gnration dun petit nombre ditrations est dexplorer uniquement la rgion o lessaim a t initialis, et donc le plus grand
nombre ditrations est laiss pour lessaim principal. Du fait de la convergence rapide
de lalgorithme PSO et de lutilisation de lapproche multi-essaims dans un espace partitionn, les essaims auxiliaires dans PSO-2S convergent chacun vers une position intressante dans les diffrentes zones de lespace, et donc le cas o plusieurs essaims convergent
vers la mme position est vit. Ces positions sont des optima locaux des problmes obtenus des diffrentes zones. Donc, chaque fois que lessaim auxiliaire termine son travail, la
meilleure solution trouve par cet essaim est ajoute, comme une particule initiale, les38
saim principal S1. La taille de population de lessaim principal S1 est donc gale au nombre
des essaims auxiliaires S2i . La phase de construction de lessaim S1 se termine aprs avoir
gnr tous les essaims S2i . Aprs cette phase, S1 prend le relais et continue seul faire
une recherche globale dans lespace. A la diffrence de PSO standard, la deuxime phase
de PSO-2S (phase de lessaim principal) commence la recherche avec des particules bien
positionnes dans lespace (cest--dire des positions intressantes dans les diffrentes rgions). En effet, S1 effectue les itrations restantes (nombre ditrations restantes = nombre
total ditrations - nombre ditrations rserves aux essaims auxiliaires) et sarrte lorsquon atteint un critre darrt. La phase de construction de lessaim principal S1 est illustre dans la figure 2.2.
Les essaims auxiliaires
S21
S22
S23
S2S-1
S2S
gbest1 de S21
gbest2 de S22
gbest3 de S23
Lessaim principal
2.2.3
Dans la vie quotidienne, le partage des tches aboutit dans la plupart des cas des
rsultats intressants. Par exemple, la recherche des trsors perdus ou le forage des puits
de ptrole, o lon commence la recherche en leffectuant sur plusieurs rgions prdfinies,
pour ensuite intensifier la recherche dans les zones prometteuses. Nous nous inspirons de
ce modle de recherche pour trouver une solution optimale du problme doptimisation
et, cet effet, nous proposons de partitionner lespace de recherche en plusieurs zones.
39
La recherche de PSO-2S est faite alors dans un espace de recherche partitionn et donc
nous partitionnons lespace de recherche E en plusieurs zones spares, dans lesquelles les
essaims auxiliaires sont initialiss. Ce partitionnement contribue augmenter la diversification des particules dans tout lespace de recherche, et dassurer une bonne couverture
pendant la phase dinitialisation. En pratique, nous fixons un nombre maximal de zones,
dnomm maxzone , qui est gal au nombre des essaims auxiliaires S. Les zones qui forment
lespace de recherche E sont dfinies par :
zonei , 1 i S tels que
S
[
i =1
recherche comme un point de dpart pour le partitionnement. Les centres des intervalles,
qui dfinissent les bornes dans chaque dimension d, sont dfinis par lquation suivante :
centred =
(maxd + mind )
2
(2.2.1)
Une fois que les centres dintervalles sont dfinis, nous commenons par partitionner les
intervalles de chaque dimension, et donc lespace de recherche, en se basant sur ces centres.
A cet effet, nous devons calculer un pas pasd pour chaque intervalle [mind , maxd ]. Les pasd
sont utiliss pour construire les nouvelles bornes [zoneimin , zoneimax ] de chaque zone i, 1
i maxzone . Le pasd de chaque dimension est calcul selon la formule suivante :
pasd =
maxd mind
2 maxzone
(2.2.2)
Chaque zone [zoneidmin , zoneidmax ] D est dtermine en utilisant les deux quations suivantes :
zoneidmin = centred i pasd
(2.2.3)
(2.2.4)
40
o zoneidmin et zoneidmax sont, respectivement, les bornes infrieures et les bornes suprieures de chaque zone. La figure 2.3 et la figure 2.4 illustrent le partitionnement de lespace
de recherche dans les cas uniforme et non uniforme.
(max1 , max2)
E
pas
(0,0)
X
zone 1
zone 2
zone 3
zone 4
zone 5
(min1 , min2)
Y
E
pas2
pas1
max2
centre2
min2
X
(0,0)
min1
centre1
max1
Comme nous pouvons le voir sur les figures 2.3 et 2.4, les zones partitionnes de lespace de recherche E sont de tailles diffrentes (zone1 < zone2 < zone3 < < zoneS ).
Cest pourquoi, nous prenons en considration leurs tailles pour dfinir les tailles des populations des essaims auxiliaires initialiser dans les diffrentes zones. En effet, nous commenons linitialisation par la plus petite zone, qui prend un minimum de particules, pour
augmenter ensuite ce nombre en fonction de la taille de chaque zone. La taille de population de chaque essaim auxiliaire S2i est calcule comme suit :
S2isize = numzone nb particule
(2.2.5)
nombre fixe.
Pour viter un nombre excessif de particules lorsque lon utilise un grand nombre de
zones, le choix dune petite valeur pour le paramtre nb particule sera indispensable. Donc,
la valeur de nb particule dpend de la valeur de maxzone .
Le pseudo-code dinitialisation des essaims auxiliaires est prsent dans la procdure
2.1.
2.2.4
Initialisation PSO-2S
1
3
4
5
si (p = 1) alors
pour s = 1 S2 p .size faire
S2 p .X [s] alea_X ([centre pas, centre + pas] D )
S2 p .V [s] alea_V ([centre pas, centre + pas] D )
fin
sinon
pour s = 1 S2 p .size faire
rpter
S2 p .X [s] alea_X ([centre pas p, centre + pas p] D )
7
8
9
10
11
12
fin
13
14
15
16
17
fin
18
retourner S2 p
fin
19
20
fin
43
(a)
(b)
(c)
ime
2.2.5
Afin damliorer le fonctionnement de lalgorithme PSO-2S tout au long de la recherche, nous proposons dintgrer une procdure de recherche locale, grce laquelle
44
Rpulsion
1
Entres : = 104
3
4
5
6
7
8
step 1
rpter
maxdisp 0
k~Pi ~Pj k
rpter
~P crop(~pi + step.~F )
i
9
10
11
si e < j6=i
12
step 2
sinon
step step 2
fin
13
14
15
alors
step
16
si k~
Pi ~
Pi k > maxdisp alors
maxdisp k~
Pi ~
Pi k
17
18
1
2
~
~
P
k i Pj k
fin
19
20
21
k~Pi ~Pj k
fin
~
~Pi P
i
22
23
retourner P
45
PSO-2S
1
S1.size maxzone
pour p = 1 maxzone faire
S2 p .size nb part * p
S2 p init_swarm(S2 p .size, p)
rpulsion(S2 p , p)
pour i = 1 S2 p .size faire
Vi Vi + 1 (X pbesti - Xi ) + 2 (Xgbest p - Xi )
Xi Xi + Vi
si f ( Xi ) < Pbesti alors
Pbesti f ( Xi )
X pbesti Xi
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
fin
fin
fin
S1.X [ p] Xgbest[ p]
rpter
pour i = 1 maxzone faire
Mettre jour Vi et Xi de lessaim S1 selon les quations (1.3.1) et (1.3.2)
Evaluer Xi
Mettre jour Pbesti et Gbest de lessaim S1 en utilisant les quations (1.3.3) et
(1.3.4)
fin
tant que le critre darrt nest pas satisfait
P ROCDURE 2.3: Algorithme PSO-2S.
46
(a)
(b)
F IGURE 2.6: Procdure de rpulsion : (a) (zone3 , S23 ) avant rpulsion, (b) (zone3 , S23 ) aprs
rpulsion.
sera intensifie chaque itration dans la zone la plus prometteuse contenant loptimum
global, dune manire peu couteuse en nombre dvaluations.
La recherche locale de PSO-2S seffectue dans la deuxime phase de PSO-2S, cest-dire aprs la phase de construction de lessaim principal. Cette recherche ne concerne pas
les essaims auxiliaires, dont le travail est limit dcouvrir des zones prometteuses et
construire lessaim principal. Donc le rle des essaims auxiliaires consiste explorer et
non exploiter lespace de recherche. Ceci dit, la recherche locale est faite uniquement par
lessaim principal, o elle intervient chaque itration en effectuant une recherche dans le
voisinage de la meilleure solution trouve gbest de lessaim S1. Le principe gnral de cette
recherche locale est le suivant : partir de la meilleure solution gbest, o lon connat la valeur de la fonction objectif f ( gbest), on cherche la meilleure solution dans son voisinage
(seulement deux voisins) en ajoutant et soustrayant du bruit sur une de ses dimensions.
Ce bruit, nomm d x , a une valeur plus petite que celle du pas calcul, dans l quation
(2.2.2), pour partitionner lespace de recherche. En effet, on choisit alatoirement une dimension d {1, . . . , D } puis, une fois, on ajoute le bruit d x sur gbest et, une autre fois,
on le soustrait, tout en essayant de dplacer gbest vers une meilleure solution voisine. Si
lon parvient amliorer gbest alors on le remplace par la nouvelle solution trouve, sinon
rien ne change. Cette procdure de recherche ne ncessite pas beaucoup dvaluations et
permet lalgorithme davoir plus de chances damliorer sa meilleure solution gbest tout
au long de la recherche. Il est noter que lide de cette recherche locale, faire un petit
mouvement une fois droite puis une fois gauche , nest pas tout fait nouvelle
(voir par exemple dans [Boya 98]). Le pseudo-code de lalgorithme de la recherche locale
est prsent dans la procdure 2.4.
47
Recherche locale
10
Entres : d x
Choisir alatoirement une dimension d {1, . . . , D }
Xbest gbest
pour i = 1 D faire
si i = d alors
d
d +d
S1.Xnewbest
S1.Xbest
x
fin
sinon
i
i
S1.Xnewbest
S1.Xbest
fin
11
fin
12
19
i
valuer f ( Xnewbest
), comparer avec f ( Xbest ) et garder la meilleure position
pour i = 1 D faire
si i = d alors
d
d d
S1.Xnewbest
S1.Xbest
x
fin
sinon
i
i
S1.Xnewbest
S1.Xbest
fin
20
fin
21
i
valuer f ( Xnewbest
), comparer avec f ( Xbest ) et garder la meilleure position
1
2
3
4
5
6
7
8
9
13
14
15
16
17
18
48
2.2.6
Rsultats et analyse
Dans cette section, nous prsentons les rsultats numriques obtenus par PSO-2S, ainsi
que des comparaisons avec dautres algorithmes, en utilisant les fonctions de test prsentes en annexe. Lintrt est de montrer que PSO-2S donne des rsultats encourageants.
Nous commenons par une discussion sur le paramtrage de PSO-2S et des autres algorithmes. Ensuite, nous effectuons une analyse de la complexit de PSO-2S, ainsi quune
analyse de la sensibilit de ses paramtres. Enfin, nous ralisons une analyse exprimentale de lalgorithme, ainsi quune comparaison de ses performances celles des autres
algorithmes de la littrature.
2.2.6.1
Paramtrage
Des expriences ont t effectues pour comparer lalgorithme que nous avons propos
cinq autres algorithmes de PSO (EPUS-PSO, CLPSO, CPSO-H, UPSO, SPSO2007), et ce en
utilisant les fonctions (en 10-D et 30-D) prsentes en annexe. Les rsultats pour les deux algorithmes PSO-2S et SPSO2007 ont t obtenus grce aux versions codes en C dans notre
laboratoire. Les paramtrages et les rsultats de toutes les autres variantes de PSO ont t
tirs de [Hsie 09], o ces variantes ont t mises en uvre en utilisant Matlab 7.1. PSO-2S
et SPSO2007 utilisent une topologie lbest alatoire pour changer les informations entre les
particules, UPSO [Pars 04] utilise une combinaison de topologies lbest et gbest, et CLPSO
[Lian 06] utilise la stratgie globale dapprentissage (comprehensive learning strategy) pour
mettre jour les vitesse des particules. Le tableau 2.1 rcapitule les valeurs des paramtres,
le coefficient d inertie w et les coefficients dacclration c1 et c2 , de PSO-2S et des autres
algorithmes. Deux types de tests sont dfinis : le premier tudie lerreur moyenne et lcarttype aprs un nombre fix dvaluations de la fonction objectif et le deuxime tudie le taux
de russite, lerreur moyenne et lerreur minimale aprs un nombre fix dvaluations ou
aprs avoir atteint une prcision donne.
1. Le premier test consiste excuter le mme algorithme 30 fois sur chacun des problmes, une fois en 10-D et une autre en 30-D. Lerreur moyenne et lcart-type sont
calculs sur les 30 excutions. Un critre darrt unique est utilis : lalgorithme sarrte si le nombre dvaluations de la fonction objectif dpasse Max Fes , o Max Fes est
fix 40000 en 10-D et 150000 en 30-D. Les paramtres de lalgorithme propos,
dsigns par nbgeneration et nb particule , sont fixs 5 et 2 respectivement, dans les deux
49
Variantes de PSO
Coefficient dinertie
Coefficients dacclration
w=
1
2ln(2)
c1 = c2 = 0,5 + ln(2)
w=
1
2ln(2)
c1 = c2 = 0,5 + ln(2)
w( g) = 0,9
0,5 g
max gen
c1 = c2 = 1,49
w( g) = 0,9
0,5 g
max gen
c1 = c2 = 1,49
w = 0,72
w=
c1 = c2 = 1,49
1
2ln(2)
c1 = c2 = 0,5 + ln(2)
S = 10 + 2 D) dans les deux cas, 10-D et 30-D respectivement. La taille de population des autres algorithmes est similaire celle utilise dans PSO-2S.
2. Le deuxime test consiste dterminer lerreur moyenne, lerreur minimale et le taux
de russite aprs avoir atteint un des deux critres darrt (un nombre fix dvaluations ou une prcision donne). Lalgorithme sarrte si lerreur entre la meilleure particule de lessaim et lobjectif est infrieure une prcision donne, ou si le nombre
dvaluations de la fonction objectif est suprieur Max Fes . Le tableau 2.2 prsente
les fonctions utilises dans ce test, ainsi que leurs paramtres (Espace de recherche,
Max Fes et Erreur acceptable). Les autres paramtres restent les mmes que dans le
premier test. Pour ce test, les rsultats sont enregistrs aprs avoir excut chaque
algorithme 100 fois sur chacun des problmes du tableau 2.2. Mais, contrairement
au premier test, ce test a t effectu pour montrer lintrt dutiliser lheuristique de
rpulsion dans PSO-2S.
2.2.6.2
Analyse de complexit
Lensemble des processus excuts dans PSO-2S est prsent dans le tableau 2.3, ainsi
que leurs complexits. La complexit totale de PSO-2S est calcule en additionnant les
50
Fonction
Espace de recherche
Erreur acceptable
MaxFes
f3
Rosenbrock
[10, 10]30
0,0001
40000
f4
Ackley
[32, 32]30
0,0001
40000
f5
Rastrigin
[10, 10]30
0,0001
40000
f8
Griewank
[100, 100]30
0,0001
40000
f9
Tripod
[100, 100]2
0,0001
40000
f 16
Shifted Rosenbrock
[100, 100]10
0,01
100000
f 17
Shifted Ackley
[32, 32]30
0,0001
100000
f 18
Shifted Rastrigin
[5, 5]30
0,0001
100000
f 19
Shifted Griewank
[600, 600]30
0,0001
100000
f 20
Shifted Sphere
[100, 100]30
0,0001
100000
Dans cette section, nous tudions la sensibilit de PSO-2S en faisant varier deux de ses
paramtres sparment (nbgeneration et maxzone ), et en laissant les autres paramtres fixs
des valeurs donnes par dfaut dans le tableau 2.1. Nous choisissons deux fonctions,
f 17 et f 18 en 30-D, pour tudier les paramtres nbgeneration et maxzone . Lalgorithme PSO-2S
sarrte lorsque 75000 valuations sont effectues, et lerreur moyenne et lcart-type sont
calculs en excutant lalgorithme 30 fois.
Dabord, nous tudions la sensibilit du paramtre nbgeneration . nb particule est fix 2 et
maxzone est fix 20. Le paramtre nbgeneration varie de 0 25 par pas de 5. La figure 2.7-a
et la figure 2.7-b montrent lerreur moyenne sur laxe y, pour chaque valeur du paramtre
nbgeneration qui varie sur laxe x. Comme nous le constatons sur ces figures, il est prfrable
deffectuer plusieurs gnrations des essaims S2i pour construire lessaim S1, ce qui garantit que lalgorithme soit en mesure davoir des bonnes performances. En f 17 , nous pouvons
constater que la valeur moyenne oscille quand nbgeneration augmente, et elle devient stable
51
Processus
Complexit
2
O nbgeneration maxzone
nb particule
Nombre de gnrations
linitialisation
Nombre de gnrations
aprs linitialisation
Max Fes
maxzone
Heuristique de
des particules
O(d maxzone )
rpulsion
log
2
1
2
d maxzone
2
O(maxzone
+ d maxzone )
nbgeneration maxzone nb particule
2
maxzone + d maxzone +
O
2
1
2
log
d maxzone
Max Fes
maxzone
!
nbgeneration maxzone nb particule
2
maxzone
+ d maxzone
1
ffl
52
2
max2zone
lorsque nbgeneration = 10. Alors que, pour f 18 , nous remarquons toujours une amlioration
de lerreur moyenne avec laugmentation de nbgeneration . Par consquent, nbgeneration doit
sadapter avec le problme utilis. Par ailleurs, lcart-type ne varie pas significativement
avec le changement de nbgeneration .
De la mme faon, nous tudions la sensibilit du paramtre maxzone sur les mmes
fonctions utilises pour le paramtre nbgeneration . nb particule est encore fix 2 et la valeur
de nbgeneration fixe 5. Les rsultats obtenus montrent que lerreur moyenne samliore en
augmentant la valeur de maxzone , pour les deux fonctions f 17 et f 18 . Lcart-type diminue
aussi avec laugmentation du nombre de zones (i.e. le paramtre maxzone ). La figure 2.7-c
et la figure 2.7-d montrent les amliorations de lerreur moyenne et de lcart-type.
Pour conclure, nous pouvons remarquer que linfluence de maxzone sur les performances de PSO-2S est plus importante que celle du paramtre nbgeneration . Par consquent,
nous pouvons donner nbgeneration une valeur faible (environ 5) dans le but dutiliser un
petit nombre dvaluations pour la construction de lessaim principal S1. En effet, la diminution de la valeur de nbgeneration va nous permettre daccrotre le nombre de zones, sans
augmenter le nombre dvaluations, et donc damliorer les performances de lalgorithme
avec le mme nombre dvaluations.
2.2.6.4
2.50E+00
Valeur moyenne
2.00E+00
1.50E+00
1.00E+00
5.00E-01
0.00E+00
0
10
15
20
25
15
20
25
nbgeneration
K
(a)
9.00E+01
Valeur moyenne
8.00E+01
7.00E+01
6.00E+01
5.00E+01
4.00E+01
3.00E+01
0
10
nbgeneration
K
(b)
9.00E+00
8.00E+00
Valeur moyenne
7.00E+00
6.00E+00
5.00E+00
4.00E+00
3.00E+00
2.00E+00
1.00E+00
0.00E+00
10
20
30
40
50
40
50
maxzone
(c)
1.20E+02
Valeur moyenne
1.00E+02
8.00E+01
6.00E+01
4.00E+01
2.00E+01
0.00E+00
10
20
30
maxzone
(d)
F IGURE 2.7: Analyse de la sensibilit des paramtres de PSO-2S : (a) lvolution du paramtre nbgeneration pour f 17 , (b) lvolution du paramtre nbgeneration pour f 18 , (c) lvolution
du paramtre maxzone pour f 17 , (d) lvolution du paramtre maxzone pour f 18 .
54
le tableau 2.5. Nous pouvons remarquer que le temps dexcution de PSO-2S, en utilisant
lheuristique de rpulsion, est infrieur celui de SPSO2007, pour toutes les fonctions,
except la fonction f 6 .
Rsultats des problmes en 30-D Les rsultats exprimentaux pour les problmes en 30D sont prsents dans le tableau 3.3. Comme en 10-D, Nous comparons les algorithmes par
rapport lerreur moyenne et lcart-type sur 30 excutions, et ceci, en utilisant les mmes
fonctions dj utilises en 10-D.
Bien que les problmes en 30-D soient plus compliqus que ceux en 10-D, PSO-2S
obtient toujours de bonnes performances. Les rsultats montrent que PSO-2S se met
lchelle avec le nombre de dimensions utilises. Comme nous pouvons le voir, les rsultats obtenus en 30-D ne sont pas significativement diffrents de ceux obtenus en 10-D. Par
ailleurs, PSO-2S surpasse les autres algorithmes de PSO pour huit fonctions, et EPUS-PSO
est toujours class deuxime par rapport aux autres. PSO-2S surpasse de manire significative les autres algorithmes pour f 2 , f 7 et f 10 . Lalgorithme propos est meilleur que
lalgorithme SPSO2007 pour toutes les fonctions, sauf pour f 12 . Nous constatons aussi que
CLPSO obtient des rsultats significativement meilleurs que les autres algorithmes pour
f 12 .
Comme en 10-D, nous avons calcul le temps dexcution de PSO-2S et SPSO2007 en 30D. Les rsultats sont prsents dans le tableau 2.7. Selon ces rsultats, le temps dexcution
de PSO-2S est toujours comparable celui de SPSO2007.
2.2.6.5
Dans cette section, nous allons tudier leffet de lheuristique de rpulsion sur lalgorithme PSO-2S, et comparer les rsultats obtenus par PSO-2S avec et sans lheuristique
ceux de SPSO2007. Les rsultats sont exprims en termes suivants : erreur moyenne, erreur
minimale, taux de russite et temps dexcution de 100 excutions pour chaque algorithme.
Les fonctions de test utilises dans cette comparaison et leurs paramtres sont prsents
dans le tableau 2.2.
Les rsultats obtenus sont prsents dans le tableau 2.8. Nous utilisons dans cette comparaison des fonctions qui sont translates par rapport leur forme dorigine pour montrer lefficacit de PSO-2S. Car il existe des algorithmes qui ont la capacit de converger
55
PSO-2S
EPUS-PSO
CLPSO
CPSO-H
UPSO
SPSO2007
f1
1,05e-086
3,10e-086
5,55e-153
2,44e-134
4,02e-021
6,49e-021
9,01e-010
1,38e-009
5,52e-090
1,18e-089
4,00e-101
1,80e-100
f2
6,18e-028
2,13e-027
9,32e-012
4,16e-011
5,04e+002
1,99e+002
1,62e+003
9,35e+002
7,18e+001
7,63e+001
1,83e-027
4,03e-027
f3
2,35e-002
1,56e-002
9,13e-002
1,05e-001
2,84e+000
1,05e+000
1,08e+000
1,18e+000
2,89e-001
7,36e-002
3,10e-001
9,95e-001
f4
4,12e-015
1,21e-015
2,72e-015
1,50e-015
1,78e-011
1,63e-011
7,02e-006
5,77e-006
3,32e-015
8,86e-016
3,85e-001
2,07e-001
f5
0,00e+000
0,00e+000
0,00e+000
0,00e+000
2,35e-009
2,72e-009
3,83e-010
7,36e-010
9,28e+000
2,97e+000
5,11e+000
2,29e+000
f6
5,85e-003
2,35e-002
3,21e-002
8,11e-002
2,06e+000
4,80e-001
4,12e+000
1,72e+000
1,94e+000
1,13e+000
4,04e-002
1,78e-001
f7
1,35e-032
5,47e-048
1,35e-032
5,47e-048
4,32e-001
4,10e-001
1,09e+006
2,14e+006
1,35e-032
5,47e-048
7,32e-004
2,74e-003
f 10
3,38e-009
9,02e-009
3,99e-007
1,63e-006
8,27e+002
3,35e+002
2,15e+003
1,19e+003
1,01e+002
9,50e+001
1,02e-007
4,12e-007
f 11
4,21e-001
7,77e-002
8,96e-001
2,15e+000
6,44e+000
4,56e+000
3,01e+000
2,52e+000
1,11e+000
1,18e+000
5,73e-001
1,05e+000
f 12
1,56e+001
2,28e+000
2,61e-015
1,57e-015
8,45e-008
2,97e-007
1,31e+000
9,68e-001
7,70e-002
2,88e-001
2,03e+001
8,54e-002
f 13
2,65e-001
9,93e-001
7,26e+000
4,31e+000
8,85e+000
3,07e+000
2,81e+001
1,39e+001
1,18e+001
5,66e+000
1,26e+001
7,00e+000
f 14
6,43e-001
3,45e-001
1,12e+000
1,36e+000
1,98e+000
5,38e-001
3,48e+000
1,41e+000
1,84e+000
1,02e+000
4,20e+000
1,50e+000
f 15
1,35e-32
5,47e-048
1,35e-032
5,47e-048
4,36e-001
5,55e-001
1,09e+006
2,37e+006
2,77e+000
6,22e+000
1,10e-003
3,30e-003
7/10
12/13
12/13
9/12
12/13
Performance
de PSO-2S
TABLEAU 2.4: Comparaison des erreurs moyennes et des carts-types des algorithmes en
10-D.
56
Function
PSO-2S
f1
f2
f3
f4
f5
f6
f7
f 10
f 11
f 12
f 13
f 14
f 15
10,016 4,731 6,864 10,657 5,855 143,526 9,250 5,550 8,276 11,947 7,737 103,474 10,224
SPSO2007 11,259 12,559 11,042 13,356 12,801 106,760 16,110 12,328 12,057 14,117 13,451 107,067 16,585
TABLEAU 2.5: Temps de calcul de 30 excutions pour chacun des algorithmes PSO-2S et
SPSO2007, en 10-D.
plus rapidement si loptimum global est situ soit lorigine [0, 0, . . . , 0] soit au centre de
lespace de recherche [Zhon 04]. Daprs ces rsultats, nous pouvons constater que PSO-2S
avec lheuristique de rpulsion donne de meilleures performances, et il surpasse SPSO2007
pour toutes les fonctions, excepte f 19 . De plus, les taux de russite prsents dans ce tableau montrent lefficacit de lalgorithme propos.
Un test statistique de Wilcoxon-Mann-Whitney [Wilc 45, Mann 47], est appliqu sur les
rsultats de PSO-2S et SPSO2007, avec un niveau de confiance de 95%, afin de dterminer
si leurs performances sont significativement diffrentes ou non. PSO-2S et SPSO2007 ont
t excuts 100 fois et les valeurs des meilleures solutions trouves la fin de chaque excution ont t utilises pour calculer les valeurs de W et P-value. Ces valeurs sont donnes
dans le tableau 2.8 dans les deux dernires colonnes. La valeur de P-value est prsente
en gras quand les rsultats sont significativement diffrents. Nous pouvons conclure que
PSO-2S surpasse SPSO2007 pour toutes les fonctions avec des rsultats significativement
diffrents, sauf pour f 19 .
Ce travail a fait lobjet de la publication dun article dans la revue Computational Optimization and Applications [El D 12a].
2.3
DEPSO-2S est une nouvelle variante de PSO-2S issue des amliorations de cet algorithme. DEPSO-2S est bas sur lhybridation de deux mtaheuristiques : DE et PSO. Ces
deux dernires ont connu un grand dveloppement ces dernires annes, ainsi quun
nombre important dapplications industrielles et scientifiques. Do lintrt de tenter lhybridation de ces deux algorithmes.
57
PSO-2S
EPUS-PSO
CLPSO
CPSO-H
UPSO
SPSO2007
f1
3,02e-119
1,56e-118
8,50e-263
1,02e-262
1,34e-025
1,71e-025
1,57e-010
2,99e-10
8,79e-123
3,56e-122
3,36e-107
1,79e-106
f2
6,18e-011
2,63e-011
197,e+0000
4,69e+000
2,41e+004
6,78e+003
8,36e+004
6,58e+004
1,07e+004
4,23e+003
8,25e-008
9,00e-008
f3
9,75e+000
9,59e-001
2,55e+001
3,53e-001
2,01e+001
3,37e+000
1,03e+001
1,37e+001
1,31e+001
2,98e+000
1,23e+001
1,47e+000
f4
1,63e-001
3,85e-001
3,91e-015
1,07e-015
9,90e-014
3,80e-014
3,90e-006
5,98e-006
1,33e+000
8,58e-001
1,36e+000
1,13e+000
f5
1,00e+000
1,18e+001
0,00e+000
0,00e+000
1,87e-009
5,34e-009
3,15e-010
1,05e-009
7,63e+001
1,45e+001
4,88e+001
1,44e+001
f6
3,63e-001
2,79e-001
4,08e-001
1,22e+000
1,49e+001
1,69e+000
1,36e+000
3,38e+000
2,06e+000
3,37e+000
1,55e+001
1,09e+000
f7
1,35e-032
5,47e-048
1,35e-032
5,47e-048
1,62e+003
5,92e+003
2,58e+008
4,41e+008
1,34e+001
2,34e+001
4,21e-001
1,10e+000
f 10
7,80e-005
9,25e-005
1,20e+001
2,46e+001
2,38e+004
6,49e+003
3,87e+004
1,71e+004
1,27e+004
4,77e+003
1,09e-001
1,80e-001
f 11
1,39e+001
1,48e-001
1,96e+001
2,91e+001
3,04e+001
1,32e+001
3,03e+001
2,59e+001
2,15e+001
1,89e+001
2,77e+001
1,31e+001
f 12
1,69e+001
1,66e+000
6,81e-001
1,02e+000
2,22e-006
8,29e-006
1,52e+000
8,30e-001
1,63e+000
9,49e-001
2,09e+000
1,31e+000
f 13
1,40e+000
2,73e-001
3,76e+001
1,48e+001
4,70e+001
6,85e+000
9,52e+001
2,93e+001
7,70e+001
1,70e+001
9,04e+001
4,03e+001
f 14
3,34e+000
1,22e+000
4,26e+000
2,97e+000
1,51e+001
1,93e+000
1,36e+001
3,56e+000
2,02e+001
4,19e+000
3,27e+001
3,19e+000
f 15
1,89e-002
2,38e-002
1,35e-032
5,47e-048
3,43e+004
1,57e+005
2,44e+008
4,66e+008
2,47e+001
2,77e+001
5,37e+001
2,92e+001
7/12
10/13
10/13
11/13
12/13
Performance
de PSO-2S
TABLEAU 2.6: Comparaison des erreurs moyennes et des carts-types des algorithmes en
30-D.
58
Function
PSO-2S
f1
f2
f3
f4
f5
f6
f7
f 10
f 11
f 12
f 13
f 14
f 15
38,178 36,585 39,852 135,147 118,646 1472,139 119,396 56,818 64,566 107,005 83,418 1603,414 98,412
SPSO2007 50,625 61,446 51,445 69,378 67,110 1038,837 122,355 80,664 71,624 88,712 83,819 1078,324 124,757
TABLEAU 2.7: Temps de calcul de 30 excutions pour chacun des algorithmes PSO-2S et
SPSO2007, en 30-D.
Dans cette section, nous prsentons tout dabord une variante de DE, nomme DELG,
puis nous dcrivons les modifications proposes pour ladapter PSO-2S. Ensuite, nous
dcrivons la structure gnrique du nouvel algorithme propos DEPSO-2S. Enfin, nous
ralisons une tude exprimentale de lalgorithme, ainsi quune comparaison de ses performances celles des autres algorithmes de la littrature.
2.3.1
DELG est une variante de lalgorithme DE qui a t propose dans [Chak 06]. Il utilise le
concept de voisinage de chaque vecteur qui vise quilibrer les capacits dexploration et
dexploitation de lvolution diffrentielle, sans avoir besoin dvaluer la fonction. Cela se
fait grce lutilisation de deux oprateurs de mutation : la mutation locale et la mutation
globale. Contrairement au standard DE, DELG utilise une topologie du voisinage qui dfinit avec qui chacune des particules va pouvoir communiquer. La topologie utilise dans
DELG est en anneau, o chaque particule est relie un nombre dfini dautres particules.
~ i,
Supposons que nous ayons une population P = [ ~
X1 , ~
X2 , . . . , ~
Xnp ]. Pour chaque vecteur X
on dfinit un voisinage de rayon k, constitu des vecteurs ~
Xi k , . . . , ~
Xi , . . . , ~
Xi+k . Les deux
voisins immdiats du vecteur ~
X1 sont, quant eux, ~
Xnp et ~
X2 .
La mutation locale :
Pour chaque membre de la population, une mutation locale est applique en utilisant le
meilleur vecteur ~
Xnbest dans le voisinage de ce membre et de deux autres vecteurs choisis
~X p et ~Xq dans le mme voisinage. Le modle peut tre exprim comme suit :
~Li (t) = ~Xi (t) + .( ~Xnbest (t) ~Xi (t)) + F.( ~X p (t) ~Xq (t))
(2.3.1)
59
SPSO2007
PSO-2S
avec rpulsion
PSO-2S
sans rpulsion
Erreur moyenne
Erreur minimale
Taux de russite
Temps dexcution
Erreur moyenne
Erreur minimale
Taux de russite
Temps dexcution
Erreur moyenne
Erreur minimale
Taux de russite
Temps dexcution
f3
3,15e+001
1,82e-001
0,0%
46,750s
2,23e+001
2,13e+001
0,0%
24,938s
f4
9,94e-001
7,11e-001
33%
46,313s
P-value
2,24e+001
2,14e+001
0,0%
21,021s
6957
1,714e-06
2,03e-001
8,08e-005
81%
38,234s
7,34e-001
8,69e-005
47%
27,389s
6909
3,024e-06
5,71e+001
2,49e+001
0,0%
62,835s
1,31e-002
4,90e-005
43%
46,542s
6,02e-001
3,43e-006
51%
19,047s
2,00e+000
6,55e-005
24%
64,805s
2,93e-003
5,30e-005
77%
47,028s
2,45e-003
1,79e-005
98%
9,153s
7,50e+000
8,92e-005
5%
33,160s
4,24e-003
6,19e-005
61%
24,935s
2,05e-001
7,31e-006
75%
4,572s
10000
< 2,2e-16
6341,5
0,001049
5946
0,02050
f 16
2,81e+000
7,26e-003
76%
59,282s
2,06e+000
9,53e-003
73%
31,202s
2,89e+000
9,57e-003
77%
17,615s
4070
0,02293
f 17
1,05e+000
7,69e-005
36%
108,104s
2,34e-001
7,96e-005
63%
197,423s
1,27e+000
8,87e-005
24%
150,201s
6135,5
0,000343
5,44e+001
2,92e+001
0,0%
154,163s
2,36e-002
2,72e-005
36%
117,191s
4,32e+001
1,39e+001
0,0%
148,035s
3,35e-002
7,52e-005
38%
211,496s
5,43e+001
3,08e+001
0,0%
98,578s
3,78e-002
8,03e-005
42%
120,180s
7824
0,00668
4618
0,3512
8,39e-005
1,88e-005
100%
12,185s
6,23e-005
3,74e-005
100%
28,686s
9,31e-005
7,50e-005
100%
10,201s
3444
0,0001442
B
f5
f8
f9
f 18
f 19
f 20
TABLEAU 2.8: Comparaison des rsultats obtenus par PSO-2S (avec et sans) heuristique de
rpulsion.
60
La mutation globale :
De plus, pour tous les vecteurs ~
Xi , une mutation globale est applique en utilisant la
meilleure particule ~
Xbest de la population, ainsi que deux autres vecteurs ~
Xr et ~
Xs choisis alatoirement. La formule de la mutation globale est alors :
~ i (t) = ~Xi (t) + .( ~Xbest (t) ~Xi (t)) + F .( ~Xr (t) ~Xs (t))
G
(2.3.2)
{1, . . . ,np}.
En effet, la mutation locale favorise lexploration, car les diffrents membres de la population doivent en gnral tre biaiss par des membres diffrents. A linverse, la mutation
globale encourage lexploitation, puisque tous les vecteurs de la population sont biaiss
par le mme vecteur (global best). Aprs avoir combin ces deux mutations en utilisant un
poids scalaire variable dans le temps, loprateur de mutation final de DELG permettra
dobtenir un bon quilibre entre la recherche locale et la recherche globale. Lquation de
cette combinaison de mutations est la suivante :
(2.3.3)
iter
)
MAXIT
(2.3.4)
o iter est litration courante et MAXIT est le nombre maximal ditrations. wmax et
wmin dsignent respectivement les valeurs maximum et minimum du poids w, telles que :
wmin , wmax {0, . . . , 1}.
2.3.2
Afin que lhybridation de DELG avec PSO-2S aboutisse lamlioration des performances, et rende DELG compatible avec la stratgie de partage de lespace de recherche
utilise dans PSO-2S, une autre modification a t propose. Lquation (2.3.3) a t modifie pour que la zone courante devienne dynamique : au dbut de la recherche, les vecteurs de chaque zone peuvent aller au-del de la zone et donc explorent des rgions priphriques, puis ils se restreignent progressivement lintrieur de la zone. En effet, pour
61
(2.3.5)
2.3.3
Algorithme DEPSO-2S
Aprs avoir prsent dans les deux sections prcdentes lalgorithme DELG, ainsi que
la modification faite pour ladapter PSO-2S, nous allons prsenter dans cette section la
structure gnrale du nouvel algorithme propos DEPSO-2S. Cet algorithme utilise une
hybridation de deux variantes dalgorithmes doptimisation (une variante de DE et une
variante de PSO). Nous notons que nous utilisons une variante modifie de lalgorithme
DE, nomme DELG, pour lintgrer dans DEPSO-2S. Cette variante est utilise uniquement dans la premire phase de DEPSO-2S, qui est la phase de construction de lessaim
principal S1. En effet, chaque essaim auxiliaire a un nombre fixe ditrations effectuer
en utilisant DELG la place dun standard PSO utilis dans PSO-2S. Mais, comme dans
PSO-2S, DELG effectue ses itrations et procure la fin la meilleure solution trouve pendant la recherche, et le nombre dessaims auxiliaires utiliss est gal au nombre de zones
partitionnes. La mme technique est applique dans toutes les zones et, chaque fois, la
meilleure solution obtenue par DELG sera sauvegarde pour construire la population de
lessaim principal S1. Le rle de DELG se termine une fois lessaim S1 construit. Dans la
deuxime phase de lalgorithme, S1 se comporte de la mme faon que dans PSO-2S.
En rsum, dans la premire partie de lalgorithme PSO-2S, la phase de construction
de lessaim principal a t modifie pour utiliser DELG la place dun algorithme de PSO.
La figure 2.8 illustre la structure gnrale de lalgorithme DEPSO-2S.
62
Initialisation S21
dans la zone 1
Rpulsion des
particules
S21 effectue K
gnrations
Sauvegarder
Gbest1
Initialisation S22
dans la zone 2
Rpulsion des
particules
S22 effectue K
gnrations
Sauvegarder
Gbest2
Initialisation S2n
dans la zone n
Rpulsion des
particules
S2n effectue K
gnrations
Sauvegarder
Gbestn
Phaase de con
nstruction
n de lessaim S1 parr DE
Utilisant DE
Dbut
Retourner la meilleure
solution trouve par S1
S1 effectue les
gnrations
restantes
Construire lessaim
principal S1 partir de
tous les Gbests
Fin
63
Le traavail de S1
1
Utilisant PSO
2.3.4
Rsultats et discussion
Dans cette section, nous prsentons les rsultats numriques obtenus par DEPSO-2S,
ainsi que ceux obtenus par PSO-2S et les autres algorithmes utiliss dans la section 2.2.6.
Lintrt est de comparer ces rsultats et de montrer que DEPSO-2S amliore lancienne
version de PSO-2S, et donne des rsultats encourageants.
Nous commenons par une brve discussion sur le nouveau paramtrage de DEPSO2S. Ensuite, nous ralisons une analyse exprimentale de lalgorithme, ainsi quune comparaison de ses performances celles de PSO-2S et des autres algorithmes.
2.3.4.1
Paramtrage
Nous utilisons dans cette comparaison les mmes valeurs de paramtres que dans
la section 2.2.6.1, pour les algorithmes PSO-2S, EPUS-PSO, CLPSO, CPSO-H, UPSO et
SPSO 2007. De plus, nous ajoutons les nouveaux paramtres Cr, F, F , et , utiliss
dans DEPSO-2S. Nous fixons Cr 0,5 et F, F , et 0,2, pour toutes les comparaisons.
Dabord, nous allons faire des tests sur les diffrents algorithmes, de la mme manire que
ceux faits dans la section 2.2.6, en utilisant les mmes fonctions en 10-D et 30-D. Ensuite,
un autre test sera ralis en utilisant plusieurs problmes rels de la littrature, parmi ceux
prsents en annexe.
2.3.4.2
64
(Sphere), f 3 et f 11 (Rosenbrock et Rotated Rosenbrock, qui sont des fonctions mal conditionnes).
Nous analysons maintenant les rsultats du tableau 2.10, o nous constatons que
DEPSO-2S a amlior les rsultats pour la plupart des fonctions, par rapport aux anciens rsultats obtenus par PSO-2S. Nous remarquons une amlioration significative sur
les fonctions f 4 , f 5 et surtout sur la fonction f 13 , o DEPSO-2S trouve la solution optimale de cette fonction comme en 10-D. Par contre, nous remarquons une diminution des
performances sur quelques fonctions qui sont les mmes quen 10-D, comme f 1 , f 3 et f 11 .
Pour montrer que DEPSO-2S a des meilleures performances sur des problmes divers
par rapport dautres algorithmes incluant lalgorithme DE, nous choisissons quelques
problmes rels doptimisation connus dans la littrature. Les rsultats obtenus et prsents dans le tableau 2.11 ont t tirs de notre article [El D 12b]. Ce tableau prsente les
problmes, la dimension et le nombre maximum dvaluations Max Fes qui sont fixs pour
chaque problme, ainsi que les rsultats obtenus par tous les algorithmes en terme derreur
moyenne et lcart-type sur 100 excutions. A partir de ce tableau, nous pouvons remarquer que lalgorithme DEPSO-2S est plus performant que les autres algorithmes pour la
plupart des problmes tests, en termes de qualit de solution trouve. En effet, DEPSO2S obtient de meilleures rsultats sur tous les problmes, except pour P4 , o lalgorithme
propos est surpass par SPSO2007.
Pour plus de dtails sur les problmes rels utiliss, on peut se rfrer larticle
[El D 12b].
Pour conclure, nous constatons que DEPSO-2S obtient de meilleurs rsultats que PSO2S et les autres algorithmes sur la plupart des fonctions testes, notamment sur des fonctions difficiles ou fortement multimodales (Ackley, Rastrigin, Weierstrass) et sur la majorit
des problmes rels tests. Par contre, pour des fonctions telles que Sphere et Rosenbrock,
les performances de DEPSO-2S sont infrieures celles des autres algorithmes. Nanmoins, en augmentant le nombre de zones et le nombre maximum dvaluations Max Fes
autorises, les performances de DEPSO-2S samliorent.
65
DEPSO-2S
PSO-2S
EPUS-PSO
CLPSO
CPSO-H
UPSO
SPSO2007
f1
1,30e-024
3,33e-002
1,05e-086
3,10e-086
5,55e-153
2,44e-134
4,02e-021
6,49e-021
9,01e-010
1,38e-009
5,52e-090
1,18e-089
4,00e-101
1,80e-100
f2
6,18e-028
2,13e-027
6,18e-028
2,13e-027
9,32e-012
4,16e-011
5,04e+002
1,99e+002
1,62e+003
9,35e+002
7,18e+001
7,63e+001
1,83e-027
4,03e-027
f3
8,52e-002
3,35e-002
2,35e-002
1,56e-002
9,13e-002
1,05e-001
2,84e+000
1,05e+000
1,08e+000
1,18e+000
2,89e-001
7,36e-002
3,10e-001
9,95e-001
f4
4.79e-013
2.53e-002
4,12e-015
1,21e-015
2,72e-015
1,50e-015
1,78e-011
1,63e-011
7,02e-006
5,77e-006
3,32e-015
8,86e-016
3,85e-001
2,07e-001
f5
0,00e+000
0,00e+000
0,00e+000
0,00e+000
0,00e+000
0,00e+000
2,35e-009
2,72e-009
3,83e-010
7,36e-010
9,28e+000
2,97e+000
5,11e+000
2,29e+000
f6
2,20e-007
7,38e-006
5,85e-003
2,35e-002
3,21e-002
8,11e-002
2,06e+000
4,80e-001
4,12e+000
1,72e+000
1,94e+000
1,13e+000
4,04e-002
1,78e-001
f7
1,35e-032
5,47e-048
1,35e-032
5,47e-048
1,35e-032
5,47e-048
4,32e-001
4,10e-001
1,09e+006
2,14e+006
1,35e-032
5,47e-048
7,32e-004
2,74e-003
f 10
3,38e-009
9,02e-009
3,38e-009
9,02e-009
3,99e-007
1,63e-006
8,27e+002
3,35e+002
2,15e+003
1,19e+003
1,01e+002
9,50e+001
1,02e-007
4,12e-007
f 11
5,52e-001
4,28e-002
4,21e-001
7,77e-002
8,96e-001
2,15e+000
6,44e+000
4,56e+000
3,01e+000
2,52e+000
1,11e+000
1,18e+000
5,73e-001
1,05e+000
f 12
5,66e+000
5,15e-001
1,56e+001
2,28e+000
2,61e-015
1,57e-015
8,45e-008
2,97e-007
1,31e+000
9,68e-001
7,70e-002
2,88e-001
2,03e+001
8,54e-002
f 13
0,00e+000
0,00e+000
2,65e-001
9,93e-001
7,26e+000
4,31e+000
8,85e+000
3,07e+000
2,81e+001
1,39e+001
1,18e+001
5,66e+000
1,26e+001
7,00e+000
f 14
1,53e-001
3,67e-002
6,43e-001
3,45e-001
1,12e+000
1,36e+000
1,98e+000
5,38e-001
3,48e+000
1,41e+000
1,84e+000
1,02e+000
4,20e+000
1,50e+000
f 15
1,35e-32
5,47e-048
1,35e-32
5,47e-048
1,35e-032
5,47e-048
4,36e-001
5,55e-001
1,09e+006
2,37e+006
2,77e+000
6,22e+000
1,10e-003
3,30e-003
TABLEAU 2.9: Comparaison des erreurs moyennes et carts-types des algorithmes en 10-D.
66
DEPSO-2S
PSO-2S
EPUS-PSO
CLPSO
CPSO-H
UPSO
SPSO2007
f1
1,25e-025
3,24e-024
3,02e-119
1,56e-118
8,50e-263
1,02e-262
1,34e-025
1,71e-025
1,57e-010
2,99e-10
8,79e-123
3,56e-122
3,36e-107
1,79e-106
f2
3,88e-012
2,50e-011
6,18e-011
2,63e-011
197,e+0000
4,69e+000
2,41e+004
6,78e+003
8,36e+004
6,58e+004
1,07e+004
4,23e+003
8,25e-008
9,00e-008
f3
1,68e+001
5,43e-002
9,75e+000
9,59e-001
2,55e+001
3,53e-001
2,01e+001
3,37e+000
1,03e+001
1,37e+001
1,31e+001
2,98e+000
1,23e+001
1,47e+000
f4
6,48e-014
3,33e-014
1,63e-001
3,85e-001
3,91e-015
1,07e-015
9,90e-014
3,80e-014
3,90e-006
5,98e-006
1,33e+000
8,58e-001
1,36e+000
1,13e+000
f5
3,98e-014
2,33e-014
1,00e+000
1,18e+001
0,00e+000
0,00e+000
1,87e-009
5,34e-009
3,15e-010
1,05e-009
7,63e+001
1,45e+001
4,88e+001
1,44e+001
f6
1,69e-002
3,36e-002
3,63e-001
2,79e-001
4,08e-001
1,22e+000
1,49e+001
1,69e+000
1,36e+000
3,38e+000
2,06e+000
3,37e+000
1,55e+001
1,09e+000
f7
1,35e-032
5,47e-048
1,35e-032
5,47e-048
1,35e-032
5,47e-048
1,62e+003
5,92e+003
2,58e+008
4,41e+008
1,34e+001
2,34e+001
4,21e-001
1,10e+000
f 10
7,80e-005
9,25e-005
7,80e-005
9,25e-005
1,20e+001
2,46e+001
2,38e+004
6,49e+003
3,87e+004
1,71e+004
1,27e+004
4,77e+003
1,09e-001
1,80e-001
f 11
2,55e+001
3,92e-002
1,39e+001
1,48e-001
1,96e+001
2,91e+001
3,04e+001
1,32e+001
3,03e+001
2,59e+001
2,15e+001
1,89e+001
2,77e+001
1,31e+001
f 12
1,36e+000
1,59e-001
1,69e+001
1,66e+000
6,81e-001
1,02e+000
2,22e-006
8,29e-006
1,52e+000
8,30e-001
1,63e+000
9,49e-001
2,09e+000
1,31e+000
f 13
0,00e+000
0,00e+000
1,40e+000
2,73e-001
3,76e+001
1,48e+001
4,70e+001
6,85e+000
9,52e+001
2,93e+001
7,70e+001
1,70e+001
9,04e+001
4,03e+001
f 14
9,70e-001
5,95e-002
3,34e+000
1,22e+000
4,26e+000
2,97e+000
1,51e+001
1,93e+000
1,36e+001
3,56e+000
2,02e+001
4,19e+000
3,27e+001
3,19e+000
f 15
1,35e-032
5,47e-048
1,89e-002
2,38e-002
1,35e-032
5,47e-048
3,43e+004
1,57e+005
2,44e+008
4,66e+008
2,47e+001
2,77e+001
5,37e+001
2,92e+001
TABLEAU 2.10: Comparaison des erreurs moyennes et carts-types des algorithmes en 30D.
67
Problme
D Max Fes
P1
Gas
transmission
design
24000
0,264829
4,66e-010
2,28e-009
1,40e-009
P2
Optimal capacity
o f gas
production f acilities
16000
0,000021
1,14e-013
1,14e-013
1,14e-013
P3
Design
o f a gear
train
32000
3,51577e-008
5,05e-009
3,35e-010
2,65e-010
P4
Optimal thermohydraulic
per f ormance o f an arti f icially 3
roughened air heater
24000
4,21422
5,08471e-07
5,69e-016
1,25e-005
7,54e-005
P5
Frequency modulation
sound parameter
identi f ication
144000
3,01253
0,367899
6,65e+000
3,30e+000
3,07e+000
10 240000
0,626379
0,0821391
1,61e-001
7,19e-002
7,07e-002
20 480000
1,07813
0,0812955
2,52e-001
1,25e-001
8,25e-002
DE
SPSO2007
PSO-2S
DEPSO-2S
2.4
Conclusion
69
C HAPITRE T ROIS
3.1
Introduction
Nous avons expliqu prcdemment que PSO est un algorithme inspir dun comportement social, comme celui des individus dun essaim doiseaux ou dun banc de poissons.
Ce comportement a t modlis par les auteurs de PSO en deux quations (1.3.1) et (1.3.2),
dj dtailles au premier chapitre. partir de ces quations, nous constatons que le dplacement dune particule est influenc par trois composantes : la composante dinertie, la
composante cognitive et la composante sociale. Chacune de ces composantes reprsente
une partie de lquation (1.3.1). Dans ce chapitre, nous allons nous intresser la composante sociale (i.e. la troisime partie) de cette quation, o nous utilisons le terme gbest ou
lbest, selon la version utilise.
Lquation (1.3.1) montre que les relations entre les particules influencent directement
leurs vitesses et donc leurs dplacements. Dans la littrature de PSO, il existe plusieurs
versions qui utilisent la notion de voisinage dune particule et ce de manires diffrentes.
Certaines se servent de la version globale, cest--dire que chaque particule est connecte
toutes les autres particules de lessaim (i.e. le voisinage dune particule est lensemble
des particules de lessaim) ; dautres utilisent la version locale, o chaque particule nest
connecte qu une partie des autres particules de lessaim (i.e. le voisinage dune particule est un sous-ensemble des particules de lessaim). Le voisinage dune particule i peut
donc tre dfini comme le sous-ensemble de particules de lessaim que i peut interroger
afin de rcuprer ses informations. Pour intgrer ces notions dans lquation (1.3.1), nous
avons besoin de dfinir une structure de voisinage entre les particules, qui forme le rseau de communication entre elles. Cette structure est appele "topologie de voisinage".
Les auteurs ont propos deux types de topologies : les topologies statiques et dynamiques.
Chaque type tant plus performant pour certains problmes que pour dautres. Pour avoir
une meilleure performance de lalgorithme, il est trs important de bien dfinir la topologie
70
de voisinage, ainsi que les modalits dchange dinformations entre particules. Cest pourquoi, pour accrotre les performances de PSO, nous avons labor une nouvelle topologie
dynamique, que nous avons nomme Dcluster, qui est une combinaison dune topologie
statique (Four-clusters) [Mend 04] et dune topologie dynamique (Fitness) [Wang 08].
Dans ce chapitre, nous nous concentrons dabord sur le concept de voisinage, en tudiant les caractristiques des changes dinformations entre les particules. Ensuite, nous
procdons une description dtaille de la topologie propose (Dcluster). Enfin, nous prsentons une analyse exprimentale, ainsi quune comparaison des performances de Dcluster celles dautres algorithmes utilisant diffrentes topologies connues dans la littrature
de PSO.
3.2
Comme nous lavons vu dans le chapitre 1, lalgorithme PSO est inspir du comportement collectif des essaims lors des tudes et des simulations informatiques de groupes
danimaux (vols doiseaux ou bancs de poissons). Ces tudes mettent en vidence la capacit dun individu rester une distance optimale par rapport aux autres dans le mme
groupe et suivre un mouvement global affect par les mouvements locaux de ses voisins.
partir de ces simulations, les auteurs ont modlis le comportement des individus par
les quations (1.3.1) et (1.3.2). Dans la pratique, en utilisant lquation (1.3.1), un rseau
doit tre dfini afin dtablir des connexions entre les particules et leur permettre dchanger des informations entre elles. Ce rseau de communication entre les particules est appel topologie de voisinage. Cette topologie contribue dfinir un groupe dinformatrices
pour chaque particule, cest ce que lon appelle le voisinage dune particule. Le voisinage
dune particule peut donc tre dfini comme le sous-ensemble de particules de lessaim
avec lesquelles celle-ci a une communication directe, i.e. chaque particule peut interroger
les particules dans son voisinage (ses informatrices) qui, leur tour, lui transmettent leurs
informations.
Dans notre description de PSO dans le chapitre 1, nous avons dcrit brivement la
version globale de PSO, dans laquelle toutes les particules ont accs linformation globale
gbest de la population. Toutefois, ce nest pas le seul choix possible, et il existe des essaims
dans lesquels les particules ont accs des informations locales, ou des informations
la fois globales et locales. Dans ce chapitre, nous discutons des diffrentes possibilits
71
dinteraction des particules entre elles, qui sont modlises au niveau de la composante
sociale de lquation (1.3.1).
En 1995, lorsque le premier algorithme PSO (la version globale) a t propos, les auteurs ont choisi une topologie entirement connecte, cest--dire que chaque particule
se trouve relie toute les autres particules de lessaim. Dans cette topologie, linformation utilise dans lquation (1.3.1) est globale, i.e. chaque particule vole dans lespace
de recherche du problme avec une vitesse adaptative, qui se modifie dynamiquement,
selon sa propre exprience du vol et lexprience du vol de toutes les autres particules
dans lessaim. La faiblesse de cette version est quelle ne fournit pas une exploration suffisante (recherche globale) de lespace de recherche et peut conduire une stagnation dans
un optimum local et donc une convergence prmature [Shi 99]. De nombreuses variantes de la version originale ont alors t proposes afin damliorer sa convergence.
Ces variantes intgrent notamment de nouvelles topologies pour lessaim de particules.
Nous allons traiter dans la suite ces diffrentes topologies, telles que les topologies locales [Watt 98, Suga 99, Watt 99], les topologies dynamiques et dautres topologies plus
sophistiques, qui ont t proposes pour tablir un quilibre entre la recherche locale et
la recherche globale [Kenn 99, Pera 03, Rich 03, Cler 06, Wang 08].
3.2.1
La notion de voisinage peut avoir deux types principaux, gographique et social, qui
donnent aux particules une capacit de perception de leur environnement proche, selon le
type utilis (i.e. lenvironnement proche peut tre dfini par un rseau social ou un rseau
gographique).
3.2.1.1
Voisinage gographique
t ajout chaque particule afin de vrifier sil y a rapprochement entre particules puis
collision. Dans ce cas, les auteurs proposent plusieurs techniques pour carter les particules et viter la collision et donc le regroupement. Toutefois, le voisinage doit tre calcul
chaque itration car les distances entre les particules peuvent changer dune itration
lautre au cours de la recherche. Cette mthode est donc couteuse en termes de temps de
calcul, mais elle permet par ailleurs dapporter un certain dynamisme la topologie.
3.2.1.2
Voisinage social
Le voisinage social dune particule est le sous-ensemble des voisins virtuels dfini au
dbut de lalgorithme PSO ; il nest pas ncessairement fixe et peut tre adaptatif. Il peut
tre reprsent sous la forme dun graphe, o les particules sont des sommets relis leurs
voisines par les artes du graphe. Le but dutiliser ce type de voisinage est damliorer la
rapidit de convergence de lalgorithme. Cela signifie quil est ncessaire de contrler la
propagation de linformation dans le graphe. Pour ce faire, il sagit donc de trouver quels
sont les bons paramtres (par exemple, la taille du voisinage, la forme du rseau social, la
ou les sources dinfluence) qui structurent le graphe et qui sont responsables de la vitesse
de propagation du flux dinformation. Savoir choisir la topologie est donc fondamental et
demande une adaptation au problme trait. Lorsque la topologie est dense, les particules
ont beaucoup de voisins, de sorte que linformation (meilleure position) est rapidement
partage. Inversement, dans une topologie parse, linformation se propage plus lentement.
Pour dfinir une topologie de ce type, qui peut tre statique ou dynamique, on doit
crer une structure au dbut de lalgorithme qui dfinit le voisinage de chaque particule
(e.g. les topologies : anneau ou Ring, toile ou Wheel, Von Neumann, Four-clusters, etc.). Il
y a aussi des topologies qui nont pas besoin de dfinir leurs structures, comme FitnessDistance-Ratio [Pera 03] et une autre, alatoire, qui a t propose par Clerc [Cler 06] et
qui est utilise dans SPSO 2006, SPSO 2007 et SPSO 2011. Dautres modles sociaux ont
t proposs par Watts [Watt 99, Watt 98], et se caractrisent par deux facteurs, le degr
de connectivit K, qui mesure le nombre de voisins dune particule, et la quantit de regroupement C, qui mesure le nombre de voisins dune particule appartenant galement
dautres voisinages. Le voisinage social est le plus utilis dans la littrature de PSO. Il est
le plus simple programmer et le moins couteux en temps de calcul. La convergence de
lalgorithme peut conduire un voisinage social devenir un voisinage gographique. La
73
Voisinage
g
gographique
3.2.2
Aprs la dfinition de la topologie du voisinage, chaque particule peut obtenir des informations sur une partie des particules de lessaim ou sur toutes les particules de lessaim,
selon la topologie choisie. Pour donner une vision du mcanisme dchange dinformations, il convient de rpondre plusieurs questions sur la coopration entre les particules.
Quelle est linformation changer ? Dans la plupart des versions de PSO (globale et
locale), linformation changer est la meilleure exprience des particules. Dans la
version globale, linformation qui doit tre partage est la meilleure solution trouve
par lessaim (gbest) ; pour ce qui est de la version locale, cest la meilleure solution
trouve dans le voisinage de chaque particule (lbest) qui est considre. Il y a certaines versions de PSO qui changent la fois linformation locale (lbest) et globale
(gbest) [Pars 04], afin damliorer la convergence de lalgorithme et ne pas perdre
linformation globale de lessaim. Il existe galement des versions qui changent la
74
mauvaise exprience des particules [Chen 10], afin dviter lexploration des zones
non prometteuses de lespace de recherche.
Quand lchanger ? Le moment dchange de linformation dpend de la stratgie de
communication utilise. Dans la littrature, deux stratgies sont connues, les stratgies synchrones et les stratgies asynchrones, qui indiquent le moment o les particules
doivent partager linformation [Vent 05]. La stratgie synchrone est la plus utilise
dans la littrature de PSO, elle oblige les particules communiquer chaque itration, ou suite un nombre prdtermin ditrations, et ce aprs avoir mis jour
linformation changer (gbest ou lbest). La deuxime stratgie, asynchrone, implique
lchange de linformation lorsque certaines conditions se produisent (par exemple,
si la solution trouve ne samliore pas pendant un certain nombre ditrations).
Qui change avec qui ? Une particule peut partager son information avec ses voisines, qui sont dfinies selon la topologie utilise. Dans la version globale, linformation peut tre transmise toute la population de lessaim, car le voisinage de chaque
particule est lessaim tout entier. En revanche, dans la version locale, chaque particule reoit linformation de son voisinage, qui nest quune partie de lessaim. Il existe
galement des versions qui se basent sur la notion de tribus [Bast 09], o il y a une
particule leader, qui a le droit exclusif de recevoir linformation et de la communiquer
aux autres particules, aprs lavoir examine.
Que faire de linformation change ? Une fois linformation est reue, elle doit tre
traite afin damliorer la performance de lalgorithme. Limportance de cette information est rvle par son utilisation dans lquation (1.3.1), elle sert mettre jour
les vitesses qui vont permettre, par la suite, de dplacer les particules en amliorant leurs positions dans lespace de recherche. Dautre part, linformation peut tre
utilise pour rinitialiser une ou plusieurs particules qui nont pas amlior leurs
positions durant plusieurs itrations, ou lessaim tout entier.
3.2.3
PSO a connu deux versions originales, juste aprs son dveloppement en 1995, qui
sont la version globale (Gbest) et la version locale classique en anneau (Lbest classique).
En plus de ces deux modles originaux, un grand nombre de topologies ont t proposes et beaucoup dentre elles ont laiss un impact positif sur lalgorithme PSO en termes
75
Topologies statiques
(a)
(b)
(c)
(d)
(e)
F IGURE 3.2: Topologies statiques : (a) Topologie Gbest, (b) Topologie en anneau (ou Ring)
utilise dans Lbest, (c) Topologie en toile (ou Wheel), (d) Topologie Von Neumann et (e)
topologie Four-clusters.
3.2.3.2
Topologies dynamiques
jours laborer une topologie robuste permettant damliorer les performances de lalgorithme. Les auteurs ont alors essay de mettre en place des topologies dynamiques. Ils ont
trouv que ces topologies pouvaient avoir de meilleures performances que les topologies
statiques, et ce, au moyen dun changement de leurs structures, dune itration lautre.
Ce changement permet aux particules de changer leurs trajectoires de dplacement, afin
de pouvoir schapper des optima locaux. Nous allons dans la suite voquer un ensemble
de topologies dynamiques :
Fitness [Wang 08] : Wang et Xiang ont propos une topologie dynamique dans laquelle les particules sont disposes dans un anneau rgulier, comme dans le modle
classique en anneau du Lbest. Mais, contrairement au modle classique qui possde
des liens bidirectionnels, les particules dans Fitness sont connectes par des liens
unidirectionnels, une particule ne peut donc communiquer quavec une seule autre
particule situe aprs elle. Toutefois, les particules sont tries par ordre dcroissant,
en fonction de leurs valeurs de f itness, et non pas selon leurs indices prdfinis. En
effet, la particule qui a la plus grande valeur de f itness (la mauvaise particule) est place dans la premire position de lanneau, suivie par la particule qui a la deuxime
valeur, et ainsi de suite (cet arrangement a lieu en cas de minimisation). Les auteurs
ont utilis deux stratgies, Learn From Far and Better Ones et Centroid of Mass ,
qui permettent la communication entre une particule et son voisinage. Dans cette
topologie, lensemble du voisinage Ni dune particule i est dfini par :
Ni =
{n : n [i + 1 + ,N ]} , i f i + 1 + N
(3.2.1)
mations qui sannulent entre elles. Le choix de cette informatrice, nomme nbest (best
nearest), repose sur les deux critres suivants :
elle doit tre proche de la particule courante ;
elle doit avoir visit une position ayant une meilleure f itness.
Pour ce faire, les auteurs ont propos de choisir comme informatrice de la particule courante i, pour chaque dimension d, celle qui, parmi toutes les particules de
lessaim, lexception de la particule i, maximise le rapport (Fitness-Distance-Ratio)
suivant :
Fitness( Pj ) Fitness( Xi )
| Pjd Xid |
(3.2.2)
R2006 [Cler 06] : Cest une topologie dynamique alatoire qui a t propose par
Clerc. Elle consiste utiliser la notion de modle Lbest, dans lequel chaque particule
est influence par son propre voisinage dfini lavance. Toutefois, dans R2006, la
taille du voisinage est variable dune particule lautre, elle peut tre de nimporte
quelle valeur entre 1 et S (o S est la taille de la population) avec une forte probabilit
dtre proche dun nombre fixe k. Chaque particule choisit son voisinage alatoirement en utilisant une distribution reprsente graphiquement par une courbe ayant
la forme dune cloche non symtrique (avec une valeur de moyenne proche de k).
chaque itration, si la meilleure solution trouve jusque-l na pas t amliore,
la topologie change litration suivante. La topologie R2006 est utilise dans SPSO
2006, SPSO 2007 et SPSO 2011 [Cler 12].
Hierarchy [Jans 05] : Janson et Middendorf ont propos une autre topologie dynamique. Dans cette topologie, les particules sont organises dans une hirarchie
dynamique afin de dfinir le voisinage de chaque particule, qui change au fil des
itrations. La structure de cette topologie est un arbre descendant de nuds o
79
chacune des branches contient aussi dautres nuds, pour pouvoir continuer crer
dautres branches. Larbre de cette topologie est dfini par sa hauteur h, le degr de
branchement d (i.e. le nombre maximum denfants des nuds internes) et le nombre
total de nuds m (i.e. le nombre de particules). La figure 3.3 montre un exemple
dun essaim de 21 particules disposes dans un arbre descendant rgulier de hauteur
h = 3, et un degr de branchement d = 3. Dans le cas o il nest pas possible de
construire un arbre rgulier avec un degr de branchement uniforme pour tous les
nuds, toute incompatibilit sur les nuds internes sera pousse au niveau le plus
profond de larbre, condition que la diffrence de branchement entre deux nuds
de ce niveau soit gale, au plus, un, comme dans lexemple illustr par la figure 3.4.
Les particules changent leurs places dans larbre, vers le haut ou vers le bas, selon
leurs valeurs de f itness values chaque itration. La valeur de f itness dune
particule du nud courant est compare celles des particules des nuds enfants
(une par une et de la gauche vers la droite). Les particules changent leurs places
chaque fois que lon trouve une particule dun nud enfant qui est meilleure que
celle du nud courant. On commence ces comparaisons par la particule en tte avec
lenfant de gauche (du haut vers le bas, et de la gauche vers la droite).
Une autre topologie dynamique a t propose dans [Rich 03]. Lessaim est initialis
sous la forme dune topologie en anneau. A linitialisation, chaque particule est connecte
une autre particule unique de la population. Au fil du temps, des connexions supplmentaires entre les particules sont ajoutes, jusqu ce que lon ait un rseau entirement
connect comme dans la version globale Gbest. La stratgie implmente ici est davoir
un essaim entirement connect (i.e. une topologie globale) aprs 80% des valuations al80
loues pour la fonction utilise. Sachant quune nouvelle connexion est ajoute chaque
particule aprs quun nombre prdfini dvaluations aient t effectues, jusqu atteindre
80% du nombre total dvaluations. Par exemple, supposons que la taille de lessaim soit
de 12 particules et que le nombre maximum dvaluations soit gal 9600. Dans un premier temps, chaque particule Pi est relie Pi+1 (P11 lie P0 ). Au fil du temps, lessaim
ajoute progressivement des connexions, de telle sorte que toutes les particules deviennent
interconnectes entre elles, aprs avoir atteint 9600 0,8 = 7680 valuations. Aprs la confi-
guration initiale en anneau, chaque particule doit tre connecte 10 autres particules, si
lon ajoute une nouvelle connexion aprs chaque srie de 768 valuations (64 itrations
de lalgorithme de 12 particules). Donc, aprs 64 itrations, chaque Pi est connect Pi+2 ;
3.3
Une topologie statique nest pas approprie pour tous les problmes doptimisation, et
donc une topologie dynamique est parfois ncessaire. En effet, lutilisation dune topologie dynamique permet lalgorithme PSO damliorer ses performances et de limiter les
risques dune convergence prmature. De ce fait, nous avons labor une nouvelle topologie dynamique, nomme Dcluster. Cette topologie est une combinaison de deux topologies,
lune statique et lautre dynamique. Dans cette section, nous dcrivons la topologie Dcluster, puis nous en prsentons une analyse exprimentale, ainsi quune comparaison de ses
performances avec celles des autres algorithmes PSO, qui utilisent diffrentes topologies.
81
3.3.1
La topologie propose Dcluster utilise une nouvelle structure spcifique pour former
son rseau de communication entre les particules. Lide gnrale de cette topologie sinspire du point de vue moral selon lequel le fort doit aider le faible, chacun devant donner suivant ses facults, et recevoir, suivant ses besoins. Prenant par exemple une population dindividus que nous partitionnons en sous-ensembles homognes de tribus (par
exemple, en mettant ensemble les individus ayant une rsistance similaire). Chaque
sous-ensemble dindividus a son propre monde, compltement interconnect et il peut
changer des informations avec les autres, travers des canaux de communication dfinis
par toutes les tribus. Ces communications permettent aux tribus de communiquer les besoins de chacune et aux faibles individus damliorer leurs situations. Dans certains cas,
si un individu devient plus fort quun autre appartenant une autre tribu, il peut migrer
vers cette autre tribu plus forte, en essayant de maintenir la parit entre les individus dans
chaque tribu.
Pour rapprocher lide de communication entre les individus des tribus avec les particules de lessaim de PSO, nous considrons lindividu comme une particule, et la tribu
comme un sous-essaim de particules. Puis lensemble des sous-essaims forme lessaim
principal de lalgorithme PSO.
Les particules sont tries par ordre dcroissant en fonction de leurs valeurs de fitness
10 11 12 13 14 15 16 17 18 19 20
10 11 12
13 14 15 16
17 18 19 20
La topologie propose fonctionne comme suit : chaque itration, aprs la phase dvaluation de la fonction objectif, on trie les particules dans une liste, suivant lordre dcrois82
sant de leurs valeurs de f itness (en cas de minimisation). De sorte que la particule qui
obtient la plus grande valeur de f itness (la plus mauvaise particule) est place dans la
premire case de la liste (case no 1), suivie par la particule qui obtient la deuxime plus
grande valeur dans la case suivante (case no 2), et ainsi de suite, et donc la dernire case
dans la liste contient alors la meilleure particule de lessaim. Une fois le classement des
particules termin, la liste se divise en plusieurs sous-listes, correspondant chacune un
groupe (ou cluster) de particules dans la topologie propose. La dernire tape consiste
lier les groupes entre eux, afin de crer la structure finale de la topologie de lessaim.
Ainsi, le premier groupe contenant les mauvaises particules est appel groupe central
(ou central cluster), il est plac au centre de la topologie. Chaque particule de ce groupe est
relie aux autres groupes comme suit : la mauvaise particule du groupe central est lie la
mauvaise particule du deuxime groupe, la seconde est lie au troisime groupe aussi par
sa mauvaise particule, et ainsi de suite. Ceci est illustr dans la figure 3.5. Tous les groupes
dans cette topologie, y compris le groupe central, sont entirement connects. La figure 3.6
montre la structure finale de la topologie propose.
Dcluster est dfinie par le nombre de particules dans chaque groupe np. Pour avoir une
topologie de forme rgulire, la taille de lessaim doit tre gale np + np2 et ng = np + 1,
o ng est le nombre de groupes. Prenons, par exemple, un essaim de taille gale 20,
la topologie sera compose de 5 groupes (ng = 5), qui contiennent chacun 4 particules
(np = 4).
3.3.2
Rsultats et discussion
Pour tester Dcluster, nous allons utiliser quelques fonctions de CEC05 et 12 problmes
rels, tels que dcrits au paragraphe 1.4. Nous commenons ici par la prsentation des
valeurs des paramtres utilises par Dcluster et par dautres versions de PSO utilisant diffrentes topologies de la littrature. Ensuite, nous effectuons une analyse exprimentale de
tous les algorithmes, ainsi quune comparaison des performances obtenues avec Dcluster
par rapport aux autres topologies. Enfin, nous raliserons une tude de la convergence de
lalgorithme.
3.3.2.1
Paramtrage
Afin de montrer lefficacit de notre topologie, nous comparons, dans les lignes
suivantes, les performances de lalgorithme PSO, qui utilise la topologie Dcluster, aux
83
20
17
19
10
2
3
18
11
12
13
16
14
15
six autres algorithmes utilisant dautres topologies (R2006, FDR, Fitness, Four-clusters,
Geometric et Hierarchy).
Pour que la comparaison soit quitable, plusieurs lments doivent tre pris en compte :
le gnrateur de nombres alatoires et les paramtres des algorithmes (par exemple : taille
de la population, c1 , c2 , w, etc.). Dans notre travail, nous utilisons, pour les sept topologies,
le mme gnrateur de nombres alatoires KISS (Random Number Generator (RNG)) qui est
utilis dans les algorithmes SPSO 2006, SPSO 2007 et SPSO 2011 [Cler 12]. La taille de la
population est fixe 20 pour les sept algorithmes. Les coefficients dacclration c1 et c2
sont choisis gaux 1,19 et le coefficient dinertie w est fix 0,72 pour chaque algorithme.
La taille du voisinage de FDR, Fitness et Geometric est fix 5. Elle est variable entre 1 et
20 pour R2006, avec une forte probabilit dtre proche de 5. Pour la topologie Hierarchy,
la hauteur h est fixe 4 et le degr de branchement d est fix 2. Dans ces expriences,
Dcluster utilise une forme rgulire, comme dans la figure 3.6, o le nombre de particules
dans chaque groupe np est fix 4, alors que le nombre de groupes ng est gal 5.
Nous utilisons tout dabord une slection des fonctions dcales et des fonctions pivotes (Shifted functions et Rotated functions), dfinies dans la section 1.4.1. Le nombre maximal
dvaluations (Max Fes ) est fix 50000 en 10-D pour les huit fonctions, et 150000 en 30-D.
84
Nous utilisons ensuite les 12 problmes rels prsents dans la section 1.4.2. Le Max Fes
pour chaque problme est donn dans le tableau 3.4. Dans les expriences, chaque algorithme est excut 100 fois et la moyenne et lcart-type des valeurs de la fonction objectif
sont calculs. Les sept algorithmes sont implments en langage C dans notre laboratoire,
en utilisant un ordinateur quip dun processeur de 64-bits.
Problme
F1
F2
F3
F4
F5
F6
F7
F8
F9
F10
F11
F12
Dimension
27
10
42
13
10
Max Fes
150000 50000 150000 240000 50000 50000 150000 300000 50000 50000 15000 100000
3.3.2.2
Dans cette section, les rsultats numriques obtenus par Dcluster sont prsents, ainsi
que des comparaisons avec dautres algorithmes utilisant diffrentes topologies. Lintrt
est de montrer que la topologie propose donne des rsultats encourageants. Une discussion sur les avantages et inconvnients de Dcluster est ensuite engage.
Les tableaux 3.2 et 3.3 prsentent les rsultats de simulation obtenus en 10-D et 30-D respectivement, sur les huit fonctions cites dans le paragraphe prcdent. Plus prcisment,
la moyenne et lcart-type (Mean best value Standard deviation) obtenus, pour chaque al-
gorithme et pour chaque fonction, sur 100 excutions en 10-D et 30-D, sont prsents dans
ces tableaux. Nous avons ajout une colonne indiquant la P value donne par le test
statistique de Friedman, afin de confirmer que les rsultats sont significativement diff-
rents (des chantillons non apparis). Les meilleurs rsultats sont indiqus en gras dans
les tableaux.
De ces expriences, on peut remarquer que la topologie Geometric donne les rsultats
les moins bons sur toutes les fonctions testes, quoique cette topologie soit la plus couteuse
en termes de temps de calcul. Les rsultats des autres topologies sont mitigs, mais on peut
constater que la topologie Dcluster obtient de meilleurs rsultats que les autres topologies,
pour la majorit des fonctions testes.
Nous commenons par analyser les rsultats en 10-D. Les rsultats de ces analyses sont
prsents dans le tableau 3.2. Nous constatons que PSO utilisant la topologie Dcluster surpasse les autres algorithmes sur 3 fonctions dcales (Shifted Rosenbrock, Shifted Griewank et
85
Fonction
R2006
FDR
Dcluster
Fitness
Four
Geometric Hierarchy P-value
clusters
Shifted Rosenbrock
5,09e-32
2,79e+005 3,16e+001 1,55e+001 4,77e+001 3,10e+001 8,07e+004 6,27e+001
Shifted Ackley
1,55e-70
1,15e-001 0,00e+000 1,54e-014 1,15e-001 3,67e-001 1,48e+000 1,50e-014
Shifted Griewank
2,78e-30
3,38e-002 4,83e-002 2,08e-002 2,84e-002 5,02e-002 6,89e-002 4,11e-002
Shifted Rastrigin
3,35e-59
3,07e+000 5,13e+000 1,62e+000 1,76e+000 5,31e+000 6,94e+000 1,77e+000
Rotated Rosenbrock
1,32e-15
1,28e+003 1,80e+003 2,63e+003 4,14e+003 1,90e+003 1,69e+004 5,02e+003
Rotated Ackley
5,35e-19
8,50e-002 8,48e-002 7,93e-002 1,05e-001 8,93e-002 8,21e-002 1,06e-001
Rotated Griewank
6,20e-59
7,68e-002 1,45e-001 8,86e-002 7,79e-002 1,17e-001 7,02e-001 3,61e-002
Rotated Rastrigin
1,31e-38
5,81e+000 7,86e+000 3,40e+000 4,00e+000 4,99e+000 3,78e+000 4,29e+000
86
Shifted Rastrigin) et sur 3 fonctions pivotes (Rotated Ackley, Rotated Griewank et Rotated Rastrigin), mais ce nest pas le cas pour la fonction (Shifted Ackley), pour laquelle FDR obtient
des rsultats significativement meilleurs, et pour la fonction (Rotated Rosenbrock), pour laquelle Dcluster est surpasse par R2006. Ainsi, Dcluster obtient de meilleurs rsultats que
les autres topologies pour 6 fonctions sur 8.
Fonction
R2006
FDR
Dcluster
Fitness
Four
Geometric Hierarchy P-value
clusters
Shifted Rosenbrock
6,95e-69
6,66e+001 7,91e+001 9,32e+001 1,37e+002 3,32e+001 9,17e+007 1,65e+002
Shifted Ackley
9,28e-104
1,03e+000 1,73e+000 2,45e-014 4,92e-001 1,64e+000 2,26e+000 1,30e+000
Shifted Griewank
1,80e-58
3,14e-001 2,68e+000 9,38e-003 2,18e-002 3,44e-001 1,12e+001 8,43e-002
Shifted Rastrigin
6,09e-85
1,85e+001 1,74e+001 1,14e+001 1,57e+001 2,53e+001 3,15e+001 1,59e+001
Rotated Rosenbrock
2,73e-48
4,62e+003 4,82e+003 4,72e+003 1,78e+006 3,88e+003 5,69e+008 6,36e+003
Rotated Ackley
1,51e-28
7,09e-002 5,23e-002 5,98e-002 7,85e-002 6,92e-002 8,23e-002 6,85e-002
Rotated Griewank
2,07e-48
1,65e-002 1,44e-002 1,49e-002 1,36e-002 2,20e-002 1,50e+001 1,89e-002
Rotated Rastrigin
3,54e-63
4,69e+001 2,78e+001 2,08e+001 3,80e+001 2,01e+001 2,44e+001 2,53e+001
soit la dimension. Nous pouvons remarquer que les rsultats obtenus par Dcluster en 30D ne sont pas significativement diffrents de ceux obtenus en 10-D, o Dcluster surpasse
les autres topologies pour cinq fonctions sur huit. Four-clusters possde de meilleures performances pour les fonctions Shifted Rosenbrock et Rotated Rosenbrock, et Hierarchy pour la
fonction Rotated Rastrigin. Dans le tableau 3.3, nous avons ajout une colonne qui contient
les P value obtenues par le test statistique de Friedman. Ces valeurs montrent que les
rsultats obtenus par tous les algorithmes sont significativement diffrents. Pour assurer
les performances et la robustesse de la topologie Dcluster, nous valuons les sept topologies sur 12 problmes rels (prsents dans la section 1.4.2) de diffrentes dimensions.
Les rsultats de ces problmes sont prsents dans le tableau 3.4, et ils sont calculs de la
mme faon que pour les fonctions en 10-D et en 30-D. Les P value obtenues par le test
statistique de Friedman sont galement donnes dans ce tableau.
Pour les problmes avec contraintes, nous avons utilis lapproche de pnalit statique,
afin de prserver la faisabilit des solutions [Homa 94]. Nous avons dfini plusieurs niveaux de violation, chacun ayant un coefficient de pnalit choisi, de faon que ce coefficient augmente avec le niveau de violation. Ainsi les coefficients les plus grands sont
attribus aux niveaux les plus levs. Cette approche commence par une population alatoire de particules (faisables ou infaisables). La mise jour des meilleures positions des
particules est ralise en appliquant cette approche, dans laquelle les facteurs de pnalit
ne dpendent pas du nombre de gnrations effectues et restent constants pendant toute
la recherche. Plus prcisment, la particule modifie sa position courante uniquement si la
nouvelle position candidate est meilleure, sinon elle ne se dplace pas. Les positions des
particules sont values en utilisant la formule suivante, propose dans [Homa 94] :
m
f itness(~x ) = f (~x ) + Rk,i max [0, gi (~x )]2
(3.3.1)
i =1
o Rk,i sont les coefficients de pnalit utiliss, m est le nombre de contraintes, f (~x ) est
la fonction objectif, et k = 1, 2, . . . , l o l est le nombre de niveaux de violation dfini par
lutilisateur.
Nous constatons dans le tableau 3.4 que les meilleurs rsultats sont obtenus par lalgorithme de PSO utilisant la topologie Dcluster. En effet, Dcluster surpasse les autres topologies pour la majorit des problmes tests, lexception de F1 et F2 . Les rsultats obtenus
par les autres topologies sont mitigs, et nous ne pouvons pas dterminer quelle topologie
est la meilleure. La topologie Hierarchy surpasse la topologie propose pour F1 et F2 , et elle
88
R2006
FDR
Dcluster
4
Fitness
Four-clusters
Geometric
2
Hierarchy
1
0
F1
F2
F3
F4
F5
F6
F7
F8
F9
F10
F11
F12
F IGURE 3.7: Le classement des sept algorithmes sur les 12 problmes rels.
3.3.2.3
Analyse de convergence
La figure 3.8 montre les graphes de convergence pour les fonctions Shifted Ackley, Shifted
Griewank, Shifted Rastrigin et Shifted Rosenbrock. Ces graphes reprsentent lerreur mdiane
sur 100 excutions, en fonction du nombre dvaluations de la fonction objectif (Max Fes ).
Les quatre premiers graphes reprsentent les graphes de convergence des fonctions
cites ci-dessus, en 10-D. Ces graphes montrent que lalgorithme PSO utilisant Dcluster
obtient de meilleurs rsultats et vite la convergence prmature. Dcluster continue amliorer sa meilleure solution jusqu la fin de lexcution de lalgorithme, except pour
Shi f ted Ackley. Pour cette fonction, Dcluster a pu limiter la convergence prmature de
PSO. Par contre, ce graphe montre quen utilisant les topologies (Fitness, Four-clusters,
R2006 et Geometric), lerreur dcrot assez rapidement jusqu approximativement 1000
89
Pb.
R2006
FDR
Dcluster
Fitness
Four
clusters
F1
3,41e-76
1,26e+000 7,07e-001 1,83e+000 1,57e+000 6,98e-001 1,97e+000 6,19e-001
F2
3,61e-010
7,79e-010
F3
1,59e-27
6,36e+000 7,80e+000 3,98e+000 4,97e+000 6,73e+000 1,97e+000 6,14e+000
3,36e-009
5,78e-009
2,89e-010
6,27e-010
3,17e-010
6,01e-010
9,20e-010
2,87e-009
4,37e-009
7,69e-009
2,56e-010
1,17e-46
4,91e-010
F4
4,69e-001
1,64e-001
6,45e-001
1,40e-001
3,90e-001
1,22e-001
4,23e-001
1,41e-001
6,34e-001
1,26e-001
7,21e-001
9,03e-002
4,17e-001
1,12e-58
1,62e-001
F5
8,54e-003 7,28e-002
2,99e-002 1,17e-001
6,53e-005
6,50e-004
2,67e-004
1,28e-003
2,21e-002
5,36e-002
5,29e-003
3,23e-002
2,34e-003
1,70e-44
1,19e-002
F6
4,46e-36
5,03e+002 5,29e+002 1,96e+002 2,41e+002 5,49e+002 5,66e+002 2,92e+002
F7
4,03e-33
1,37e+001 2,35e+001 1,02e+001 1,23e+001 1,81e+001 2,90e+001 9,65e+000
F8
3,86e-001
3,84e-001
5,37e+000
1,09e-40
2,30e+001
3,08e-007
6,48e-017
1,00e-001
1,33e-001
3,08e-007
1,87e-90
3,79e-017
F9
1,15e-002
5,52e-002
F10
1,19e-12
3,91e+000 0,00e+000 0,00e+000 0,00e+000 5,71e+000 3,91e+000 0,00e+000
F11
5,97e-001
5,11e-99
9,68e-001
5,93e-001
4,06e-55
5,69e-001
F12
1,61e-001
2,59e-001
5,51e-004
5,25e-003
6,98e-002
1,30e-001
90
valuations de la fonction objectif, mais quensuite elle a tendance ne plus trop voluer.
On peut constater que la topologie Geometric conduit lalgorithme une convergence prmature, sur toutes les fonctions, et donc de mauvais rsultats.
Les quatre graphes restants sont les graphes de convergence des mmes fonctions
tudies non pas en 10-D, mais en 30-D. Ces graphes, comme ceux prsents plus haut,
montrent une amlioration significative de la convergence de PSO utilisant Dcluster. Pour
les fonctions Shi f ted Ackley et Shi f ted Griewank, toutes les topologies convergent rapidement vers un optimum local, sauf la topologie Dcluster, qui converge plus lentement, ce
qui permet aux particules de ne pas tre piges prcocement dans un optimum local.
La bonne convergence de Dcluster peut tre explique par lutilisation de cinq groupes
interconnects dans une structure dynamique. En effet, chaque ensemble de particules
(groupe) peut dcouvrir une rgion de lespace de recherche ; ainsi la topologie contribue
acclrer la convergence vers loptimum global, et permet aux particules piges dans
un optimum local de sen chapper.
3.4
Conclusion
Dans ce chapitre, nous avons dfini le voisinage dune particule dans lalgorithme PSO.
Nous avons galement rpondu aux principales questions sur les changes des informations entre les particules. Nous avons prsent ensuite plusieurs types de topologies, utiliss dans la littrature de PSO, tels que les modles statiques et dynamiques.
Par ailleurs, nous avons propos une nouvelle topologie dynamique, appele Dcluster,
base sur le comportement entre les individus des tribus. Cette topologie a t structure
comme une combinaison dune topologie statique et dune topologie dynamique (Fousclusters et Fitness). Notre travail a t valu en utilisant diffrents problmes (plusieurs
fonctions de CEC05, et problmes rels, avec et sans contraintes). Les rsultats obtenus
par Dcluster ont t compars ceux obtenus par six autres topologies. Les expriences
ont montr quaucune des topologies tudies ne surpasse compltement les autres, mais
la topologie propose obtient les meilleures performances pour la majorit des problmes
tests. En outre, nous avons montr que Dcluster a pu limiter le phnomne de convergence prmature de lalgorithme PSO.
91
Valeur de fitness
10
10
10
10
10
15
10
10
20
500
1000
1500
Evaluations
2000
10
2500
500
1000
1500
Evaluations
2000
2500
12
10
10
10
R2007
FDR
Dcluster
Fitness
Fourclus
Geo
Hierarchy
10
10
Valeur de fitness
R2007
FDR
Dcluster
Fitness
Fourclus
Geo
Hierarchy
Valeur de fitness
R2007
FDR
Dcluster
Fitness
Fourclus
Geo
Hierarchy
10
Valeur de fitness
R2007
FDR
Dcluster
Fitness
Fourclus
Geo
Hierarchy
10
10
10
10
10
10
10
10
10
10
500
1000
1500
Evaluations
2000
10
2500
500
1000
1500
Evaluations
2000
2500
10
10
10
10
10
10
R2007
FDR
Dcluster
Fitness
Fourclus
Geo
Hierarchy
10
10
Valeur de fitness
R2007
FDR
Dcluster
Fitness
Fourclus
Geo
Hierarchy
10
Valeur de fitness
10
10
10
10
12
10
10
10
14
10
1000
2000
3000
4000
5000
Evaluations
6000
7000
10
8000
1000
2000
3000
4000
5000
Evaluations
6000
7000
8000
12
10
10
R2007
FDR
Dclsuter
Fitness
Fourclus
Geo
Hierarchy
2
10
R2007
FDR
Dcluster
Fitness
Fourclus
Geo
Hierarchy
10
10
Valeur de fitness
Valeur de fitness
10
10
10
10
10
1000
2000
3000
4000
5000
Evaluations
6000
7000
10
8000
1000
2000
3000
4000
5000
Evaluations
6000
7000
8000
92
C HAPITRE Q UATRE
Introduction
4.2
4.2.1
Introduction
Le traitement dimages numriques est devenu prpondrant dans de nombreux domaines, tels que la surveillance, la mdecine ou encore la prospection ptrolire. Les
images pouvant contenir des informations trs diverses, difficiles extraire et sparer visuellement, il est devenu ncessaire de disposer dalgorithmes de traitement automatique
des images. Un systme de traitement automatique dimages est globalement compos de
deux niveaux : le premier est consacr au traitement numrique, au sens large, avec des
oprations telles que le codage, lamlioration ou encore la restauration ; le deuxime est
ddi lanalyse des images, dans le but dextraire et dinterprter linformation contenue
dans limage.
La segmentation occupe une place importante, car elle est situe larticulation entre le
93
Swarm Optimization dans sa version 2007) [Cler 12], en utilisant des images de rfrence,
communment utilises dans la littrature en segmentation. Ensuite, les performances de
ces deux algorithmes seront compares sur des images issues dune base de donnes gnre par simulation dIRM crbrale [Bran 12, Coll 98]. Cette base de donnes, appele
BrainWeb, fournit des images pour lesquelles une segmentation optimale est connue.
En effet, les simulations dIRM crbrale disponibles sur BrainWeb se basent sur un modle anatomique prdfini du cerveau. Les images gnres par ces simulations peuvent
ainsi servir pour valider une mthode de segmentation, ou comparer les performances de
diffrentes mthodes.
Il est noter ici que cette application est faite en collaboration avec Julien Lepagnot,
Matre de Confrences lUniversit de Haute-Alsace, Mulhouse.
94
4.2.2
4.2.2.1
Formulation du problme
(4.2.1)
o x et y sont les coordonnes du pixel courant, N est le nombre de classes et T0 , ..., TN sont
les bornes des diffrentes rgions en niveaux de gris. Le but dune mthode de seuillage
est de trouver les seuils optimaux T1 , ..., TN 1 , T0 et TN tant les bornes de lensemble des
niveaux de gris possibles.
95
4.2.2.2
Mthodes de seuillage
Les mthodes de seuillage peuvent tre divises en deux catgories : les mthodes nonparamtriques, qui reposent sur loptimisation dun ou plusieurs critres a posteriori, et
les mthodes paramtriques, qui sont bases sur lhypothse que les niveaux de gris des
diffrentes classes de limage suivent une certaine fonction de densit de probabilit.
Les deux mthodes non-paramtriques de rfrence sont la mthode dOtsu [Otsu 79]
et la mthode de Kapur et al. [Kapu 85]. Beaucoup de techniques parues ensuite sont des
variantes de ces deux mthodes. La mthode dOtsu repose sur la maximisation de la
variance interclasse. Celle de Kapur et al. est base sur la maximisation de lentropie de
Shannon. Cette mthode a ouvert le champ la dfinition de nombreuses mesures dinformation pour mieux segmenter les images, telles que lentropie de Tsallis ou lentropie de
Renyi [Sezg 04].
Les mthodes paramtriques de seuillage supposent que les diffrentes classes de
limage suivent une fonction de densit de probabilit (fdp) prdfinie. Lhistogramme est
alors approch par une somme de fdp et les seuils sont choisis aux intersections de cellesci. Gnralement, ces fdp sont supposes suivre un modle gaussien. Le problme se dcompose ici en deux tapes : estimer les paramtres des fdp et dterminer les seuils de segmentation. La plupart des mthodes existantes sont prsentes dans [Saho 88], [Sezg 04],
[Gonz 07] et [Cuev 10].
Dans cette section, nous nous intressons une mthode de cette catgorie pour segmenter des images mdicales. Lhistogramme est ainsi approch par une somme de fonctions gaussiennes. Une telle opration nous permet dobtenir une expression analytique
approche de lhistogramme, et den dduire les seuils optimaux.
4.2.2.3
( x i )2
h approx ( x ) = Pi exp
i2
i =1
"
96
(4.2.2)
h (i )
Lj=01
(4.2.3)
h( j)
Approcher lhistogramme h avec la somme de gaussiennes h approx revient donc minimiser le critre J en fonction du jeu de paramtres . Lexpression du critre J est donne
par :
J () =
L 1
i =0
(4.2.4)
= { Pi , i , i ; i = 1, ..., d}
(4.2.5)
Si lon suppose que lhistogramme est correctement approch par la somme de gaussiennes, alors les seuils optimaux sont calculs en minimisant la probabilit de recouvrement des diffrentes gaussiennes. Pour deux gaussiennes successives, lexpression de cette
probabilit est :
E( Ti ) = Pi
Z Ti
pi ( x )dx + Pi+1
Z +
Ti
pi+1 ( x )dx
(4.2.6)
(4.2.7)
97
A Ti2 + B Ti + C = 0
(4.2.8)
A = i2 + i2+1
(4.2.9)
B = 2 i i2+1 i+1 i2
(4.2.10)
avec :
C=
2i+1
i2
2i
i2+1
+4
i2
i2+1 ln
i+1 Pi
i Pi+1
(4.2.11)
Cette expression a deux solutions possibles, mais seule lune des deux est acceptable
dans le cas prsent [Kitt 86].
4.2.3
Pour comparer les performances de PSO-2S et de SPSO-07, le critre (4.2.4) est minimis
pour les quatre images de la figure 4.1. Le critre de stagnation utilis est satisfait si aucune
amlioration significative (suprieure 1E10) nest observe pour la meilleure solution
Sur cette figure, les images (a) et (b) sont des images de rfrence utilises pour la
validation de mthodes de segmentation, dans la littrature. Les images (c) et (d) correspondent, quant elles, des images obtenues depuis BrainWeb [Bran 12]. Les paramtres
utiliss pour la simulation dIRM crbrale sont une squence pondre en T1, une paisseur de coupe de 1 mm, un bruit gaussien de 3% calcul par rapport au tissu dintensit
maximale, et un niveau dinhomognit dintensit du champ radio-frquence de 20%.
Les valeurs des paramtres de PSO-2S et de SPSO-07 utilises pour ce problme de
segmentation, sont prsentes ci-dessous :
PSO-2S (variante utilisant une recherche locale telle que dcrite dans le chapitre 2)
en utilisant 30 zones et
p4
7000
(a)
(b)
(c)
(d)
F IGURE 4.1: Les images tests : (a) LENA, (b) BRIDGE, (c) IRMCT (coupe transversale), (d)
IRMCC (coupe coronale).
SPSO-07 (Standard Particle Swarm Optimization dans sa version 2007) [Cler 12] en utilisant le paramtrage recommand par son auteur (le paramtre K utilis pour engendrer le voisinage des particules (K = 3) et la taille de lessaim S est calcule
4.2.4
Rsultats et discussion
LENA
BRIDGE
IRMCT
IRMCC
(a)
(b)
(c)
(d)
F IGURE 4.2: Illustration de la procdure de segmentation. (a) Images originales. (b) Images
segmentes. (c) Histogrammes originaux. (d) Histogrammes approchs.
Image
LENA
P1
P2
P3
P4
P5
41,62 0,17 9,87 90,57 0,28 23,14 117,21 0,06 6,33 142,54 0,43 23,82 199,56 0,07 12,64
BRIDGE 41,13 0,06 15,36 76,75 0,39 25,97 119,25 0,38 34,73 173,38 0,14 28,43 225,53 0,02
9,09
IRMCT
4,71 0,28 3,78 40,79 0,17 10,05 94,50 0,36 14,26 131,55 0,19 9,17 225,60 0,00 252,92
IRMCC
TABLEAU 4.1: Paramtres des gaussiennes utiliss pour estimer lhistogramme de chaque
image test.
100
0.01
P abilits
Proba
0 008
0.008
0.006
0 004
0.004
0.002
0
0
50
100
150
200
250
Niveaux de gris
(a)
0.01
classe 1
classe 2
classe 3
classe 4
classe 5
P abilits
Proba
0 008
0.008
0.006
0 004
0.004
0.002
0
0
50
100
150
200
250
200
250
Niveaux de gris
(b)
0.01
P abilits
Proba
0 008
0.008
0.006
0 004
0.004
0.002
0
0
50
100
150
Niveaux de gris
(c)
F IGURE 4.3: Illustration de la procdure dapproximation dhistogramme pour LENA.
(a) Histogramme original. (b) Fonctions gaussiennes de chaque classe de pixels. (c) Somme
des fonctions gaussiennes (histogramme approch).
101
Image
Seuils
LENA
Algorithme
Evaluations
Erreur dapproximation
Taux de succs
PSO-2S
119721,7 64844,3
5,44E4 3,06E5
41 %
241537,8 70707,8
5,27E4 9,54E5
48 %
7,69E4 1,26E4
95 %
8,68E4 1,18E4
70 %
SPSO-07
PSO-2S
SPSO-07
PSO-2S
SPSO-07
PSO-2S
SPSO-07
67057,1 64316,9
125524,4 63277,9
81080,9 66569,8
44212,0 57321,5
72922,5 35894,4
28185,4 16188,4
5,52E4 3,08E5
25 %
5,16E4 6,01E6
24 %
8,79E4 2,73E4
77 %
9,46E4 2,71E4
54 %
TABLEAU 4.3: Nombre moyen dvaluations pour segmenter une image, erreur dapproximation et taux de succs obtenus par chaque algorithme, pour chaque image test.
Dans ce tableau, nous constatons que PSO-2S ncessite plus dvaluations que SPSO-07
pour converger vers une solution acceptable. En revanche, son taux de succs est significativement suprieur celui de SPSO-07 pour toutes les images, daprs le test exact de
Fisher [Fish 22] avec un niveau de confiance de 95%. En effet, PSO-2S est conu pour viter
une convergence prmature de lalgorithme PSO. Il permet damliorer significativement
la stabilit de la mthode de segmentation utilise. Nous montrons ainsi lintrt dutiliser
PSO-2S pour ce type de problme.
102
4.2.5
Conclusion
Dans cette section, nous avons prsent une mthode de segmentation par estimation dhistogramme permettant didentifier plusieurs classes de pixels, aussi bien dans
des images standard que dans des images mdicales. Cette mthode comporte une tape
doptimisation dans laquelle nous avons intgr notre algorithme PSO-2S. Nous avons
galement test la mthode en utilisant lalgorithme SPSO-07.
Les rsultats de segmentation obtenus sur plusieurs images tests communment utilises dans la littrature en traitement dimages, ainsi que sur des images synthtiques issues de simulations paramtrables dIRM crbrale, sont satisfaisants. Ensuite, nous avons
montr que lutilisation de PSO-2S confre une plus grande stabilit la mthode de segmentation, par rapport SPSO-07. Les rsultats montrent ainsi lintrt dutiliser PSO-2S
sur ce type de problme.
4.3
4.3.1
Introduction
Lintgration trs grande chelle (VLSI - Very Large Scale Integration) est une technologie de circuit intgr (CI) dont la densit dintgration permet de supporter plus de 100 000
composants lectroniques sur une mme puce et, donc, de raliser des circuits intgrs
de haute complexit [Giel 91]. Les composants analogiques prennent une part importante
dans la conception de tels circuits, tant pour les systmes signal mixte que pour les systmes numriques [Giel 91, Toum 93]. En effet, les paramtres des composants analogiques
influencent directement les performances de ces circuits.
La conception de circuits analogiques est un processus complexe, qui consiste raliser de nombreuses tapes de dveloppement, pour concevoir correctement et sans erreurs un tel circuit. Elle ne concerne pas seulement le placement et le routage des composants, mais aussi leur dimensionnement [Grae 01]. Normalement, le dimensionnement des composants analogiques est un processus lent, itratif et qui ncessite beaucoup de temps. Ce processus peut tre ralis grce lexprience et lintuition dun expert [Conn 96]. Donc, trouver une manire efficace et rapide dacclrer le processus de
conception des circuits intgrs est indispensable. Les approches qui sont bases sur des
103
topologies fixes et/ou des techniques stochastiques sont les plus connues dans la littrature [Mede 94, Silv 96, Conn 96, Loul 02]. Ces mthodes sont initialises avec une bonne
solution fournie par un expert en conception de circuits analogiques. Le problme de ces
mthodes est quelles sont souvent trs lentes et quelles ne garantissent pas la convergence
vers un optimum global.
En effet, le problme de dimensionnement peut tre considr comme un problme
doptimisation variables continues soumis des contraintes. Les variables de dcision
sont alors les largeurs et les longueurs des transistors du circuit, les contraintes tant imposes par le cahier des charges du circuit.
Dans ce qui suit, nous prsentons une application de PSO-2S au dimensionnement dun
circuit analogique. Plus prcisment, dans cette application, nous cherchons optimiser les
caractristiques importantes dun convoyeur de courant de seconde gnration positif boucle
translinaire CMOS afin damliorer sa performance. Ces caractristiques sont la rsistance
parasite et la frquence de coupure en courant [Toum 93, Fabr 98].
Il est noter ici que cette application est faite en collaboration avec Mourad Fakhfakh,
Matre de Confrences lcole Nationale dIngnieurs de Sfax, en Tunisie.
4.3.2
Les convoyeurs de courant (CCs, Current Conveyors) ont t introduits en 1970 [Sedr 70].
Ces convoyeurs constituent ce jour llment le plus courant des circuits analogiques
en mode courant (CMCs, Current Mode Circuits) [Sedr 90, Toum 93]. Il est notoire que
les circuits en mode tension (VMCs, Voltage Mode Circuits), tels que les amplificateurs oprationnels (Op-amps), les convertisseurs tension-frquence (VFCs, Voltage-toFrequency Converters), les comparateurs de tension, etc., ne sont pas adapts aux oprations haute frquence, en raison de leurs contraintes dues aux faibles bandes passantes. De tels problmes se posent dans les VMCs, en raison de la prsence de capacits parasites [Rajp 07]. Les CMCs se sont avrs plus performants que les VFCs parce
que le fonctionnement du circuit dpend principalement des courants et, donc, il est possible de concevoir des circuits utilisant les CMCs qui peuvent fonctionner sur une large
gamme dynamique. Parmi les configurations les plus populaires de CMCs, nous citons
les convoyeurs de courant, spcialement ceux de deuxime gnration (CCIIs), qui ont
reu beaucoup dattention et prsentent de nombreux avantages par rapport leurs homologues VMCs.
104
Y
X
Z
CC
Z
X
r=1ohm
(a)
(b)
r=1ohm
(c)
F IGURE 4.4: (a) Reprsentation gnrale dun convoyeur de courant, (b) Schma quivalent nullateur-norateur dun CCII- idal, et (c) Schma quivalent nullateur-norateur
dun CCII+ idal.
Les diffrents courants et tensions aux trois bornes X, Y et Z sont lis par la relation
suivante [Toum 93, Ben 06] :
IY
0 0
VY
V = 1 0 0 I
X
X
IZ
0 0
VZ
1 ou 1 :
Si = 1, le circuit est class comme un convoyeur de courant ngatif,
Si = 1, le circuit est considr comme un convoyeur de courant positif.
Un convoyeur de courant de seconde gnration assure les deux fonctionnalits suivantes :
105
M9
M8
M1
M7
M2
I0
M3
M13
M12
M4
M11
M5
M6
VSS
Zx
Cx
Vx
X
Ix
Lx
Rx
Iy
Vy
ideal
CC
CC
idal
Xi
Zi
Yi
Iz
Cy
Cz
Ry
Zy
Vz
CC rel
real
CC
Rz
Zz
4.3.3
o :
RX = q
1
N
2K N ( W
L N )(1 + N VDS ) I0 +
P
2K P ( W
L P )(1 + P VDS ) I0
(4.3.1)
N , P , K N = 0,9386.108 et K P = 0,3476.106 sont des paramtres lis la technologie des transistors (AMS 0,35 m),
I0 est le courant de polarisation et VDS est la tension drain-source des transistors,
107
(4.3.2)
WN L N = WP L P
(4.3.3)
KN
VDD
VTN
2
VDD
VTP
2
I0
N
KN W
LN
I0
P
KP W
LP
>
>
I0
P
KP W
LP
I0
N
KN W
LN
(4.3.4)
(4.3.5)
o VTN = 0,4655V et VTP = 0,617V sont des paramtres inhrents la technologie utilise.
VDD est la source de tension de 2,5 V.
Le but est de minimiser R X et de maximiser f ci en fonction de WN , L N , WP et L P ,
en respectant les conditions imposes par les contraintes prsentes ci-dessus. Les limites
technologiques imposent que :
35.108 L N , L P 13.106
(4.3.6)
1.106 WN , WP 30.106
(4.3.7)
1
f ci
108
+ RX
(4.3.8)
4.3.4
Les valeurs optimales pour les dimensions physiques des transistors MOS (i.e les valeurs de WN et L N pour chaque transistor NMOS et les valeurs de WP et L P pour chaque
transistor PMOS) sont obtenues en minimisant f obj , pour une srie du courant de polarisation (i.e. avec diffrentes valeurs de I0 ). Les simulations sont ralises en utilisant la
technologie CMOS AMS 0,35 m, une alimentation de 2,5 V et lensemble des valeurs du
courant de polarisation est considr I0 {50, 100, 150, 200, 250, 300} A. Les valeurs des
paramtres de PSO-2S utilises pour ce problme, dsigns par nbgeneration et nb particule , sont
fixes 40 et 2, respectivement. En outre, le paramtre maxzone est fix 30, sachant que
ce paramtre signifie aussi la taille de lessaim principal S1. Le critre darrt pour PSO-2S
est Max Fes = 100000.
Les tableaux 4.4 4.9 montrent les valeurs optimales des paramtres de conception (i.e.
les valeurs optimales de dimensions obtenues pour CCII+), ainsi que les valeurs associes
obtenues pour R x et f ci , en utilisant lalgorithme PSO-2S. Chacun de ces tableaux correspond une valeur de I0 , et prsente les rsultats obtenus par PSO-2S sur cinq excutions.
Les meilleurs rsultats sont indiqus en gras ; la ligne en gras dans chaque tableau dsigne
la meilleure excution.
L N (m)
WN (m)
L P (m)
WP (m)
f ci (GHz)
R X (ohm)
#1
0,52
15,98
0,35
26,38
0,909
594
#2
0,52
15,30
0,35
25,10
0,925
607
#3
0,52
17,48
0,35
28,85
0,868
567
#4
0,52
17,47
0,35
28,82
0,869
568
#5
0,52
17,70
0,35
28,99
0,859
565
No exc.
109
L N (m)
WN (m)
L P (m)
WP (m)
f ci (GHz)
R X (ohm)
#1
0,52
14,30
0,35
23,62
1,358
444
#2
0,52
17,70
0,35
29,47
1,215
399
#3
0,54
17,19
0,35
27,41
1,211
408
#4
0,57
15,33
0,35
23,27
1,240
437
#5
0,52
17,69
0,35
29,17
1,220
399
No exc.
L N (m)
WN (m)
L P (m)
WP (m)
f ci (GHz)
R X (ohm)
#1
0,58
12,14
0,35
18,22
1,664
362
#2
0,53
14,41
0,35
23,53
1,761
404
#3
0,53
13,92
0,35
22,64
1,671
368
#4
0,53
11,30
0,35
18,41
1,855
409
#5
0,56
12,26
0,35
19,08
1,646
397
No exc.
L N (m)
WN (m)
L P (m)
WP (m)
f ci (GHz)
R X (ohm)
#1
0,52
17,19
0,35
28,28
1,749
286
#2
0,52
13,07
0,35
21,43
1,999
329
#3
0,53
15,77
0,35
25,41
1,800
300
#4
0,52
16,36
0,35
27,02
1,793
293
#5
0,55
12,88
0,35
19,95
1,940
335
No exc.
110
L N (m)
WN (m)
L P (m)
WP (m)
f ci (GHz)
R X (ohm)
#1
0,54
16,73
0,35
26,54
1,932
262
#2
0,53
15,34
0,35
24,84
2,045
272
#3
0,54
15,65
0,35
25,49
1,993
271
#4
0,53
17,51
0,35
29,52
1,915
255
#5
0,53
15,78
0,35
25,61
2,021
268
No exc.
WN (m)
L P (m)
WP (m)
f ci (GHz)
R X (ohm)
#1
0,52
18,04
0,35
29,79
2,095
228
#2
0,52
17,76
0,35
29,25
2,097
230
#3
0,53
18,62
0,35
30,00
2,027
226
#4
0,54
18,89
0,35
30,00
1,996
225
#5
0,54
18,83
0,35
30,00
2,003
225
No exc.
BFO
f ci (GHz)
PSO
DE
PSO-2S
BFO
R X (ohm)
PSO
DE
Direct
Simulation
1,245
1,228
0,866
0,840
1,184
1,181
0,925
0,982
860
1044
1376
1821
865
1060
607
671
Direct
1,812
1,802
1,729
1,358
608
633
607
444
Simulation
1,629
1,620
1,543
1,539
815
848
821
538
Direct
1,736
1,721
1,735
1,761
405
435
406
404
Simulation
1,581
1,564
1,569
1,746
546
597
548
471
Direct
1,846
2,027
1,686
1,793
305
338
305
293
Simulation
1,639
1,774
1,543
1,810
410
471
413
388
250
Direct
Simulation
2,036
1,772
1,940
1,750
2,006
1,763
2,045
2,016
272
377
272
382
273
382
272
381
300
Direct
Simulation
2,121
1,825
2,042
1,788
2,055
1,748
2,095
2,053
231
324
230
324
232
324
228
318
I0 (A)
Rsultats
50
100
150
200
PSO-2S
TABLEAU 4.10: Une comparaison des meilleurs rsultats obtenus par les algorithmes : BFO,
PSO, DE et PSO-2S.
mensions obtenues par chaque algorithme (i.e. nous avons utilis les valeurs de WN , L N ,
WP et L P de chaque algorithme pour faire les simulations SPICE, par lesquelles nous obtenons les valeurs de R x et f ci ). Lintrt de ces comparaisons est de montrer que PSO-2S
donne des rsultats encourageants par rapport aux algorithmes concurrents, et de vrifier
que les rsultats directs et ceux des simulations ne sont pas trs diffrents. Il est noter
que la prsence de diffrences, entre les valeurs thoriques (directes) et celles des simulations (SPICE), est tout fait normal, car les modles mathmatiques utiliss prsentent des
erreurs provoques par les simplifications.
Une tude attentive du tableau 4.10 montre que lalgorithme PSO-2S obtient de
meilleurs rsultats que les autres algorithmes en comptition sur cette application, et ce
dans la majorit des cas (i.e. pour les diffrentes valeurs de I0 ). En effet, sur ce tableau,
nous pouvons remarquer que PSO-2S obtient les plus petites valeurs de R x (la fonction
minimiser) dans les six cas tudis. En revanche, pour f ci (la fonction maximiser),
PSO-2S donne de meilleurs rsultats dans deux cas de I0 (I0 = 150 A et I0 = 250 A).
Pour cette fonction, BFO surpasse les autres algorithmes dans trois cas (I0 = 50 A,
I0 = 100 A et I0 = 300 A), pendant que PSO obtient de meilleurs rsultats dans un
seul cas (I0 = 200 A). Le fait de ne pas avoir les meilleurs rsultats pour f ci par PSO112
2S ne montre pas une faiblesse de lalgorithme, mais ceci sxplique par la minimisation
d une fonction bi-objectif. En effet, nous pouvons voir sur ce tableau quen minimisant
la fonction objectif f obj ( f obj = ( f1 ) + R X ), PSO-2S obtient les meilleurs rsultats dans les
ci
six cas. De plus, les simulations SPICE prouvent que PSO-2S obtient les meilleurs valeurs
pour R x et f ci dans la plupart des cas.
Les figures 4.7 4.12 montrent les rsultats correspondants la simulation SPICE, pour
les volutions de f ci et R X en fonction de la frquence, avec les dimensions optimales dtermines partir de lalgorithme PSO-2S.
4.3.5
Conclusion
Dans cette application, nous avons russi dmontrer comment un convoyeur de courant de seconde gnration positif boucle translinaire CMOS (CCII+) peut tre conu de
manire optimale pour donner de meilleures performances. En effet, la conception consiste
minimiser la rsistance dentre X-port (R X ) et en mme temps maximiser la frquence
de coupure f ci du CCII+. Ce problme a t trait et rsolu correctement laide de PSO-2S.
Une srie dexpriences de simulation, ralise avec plusieurs courants de polarisation
I0 , a dmontr que lalgorithme propos obtient de meilleurs rsultats, en comparaison de
ceux obtenus par les algorithmes PSO, DE et BFO.
4.4
Conclusion
Dans la premire partie de ce chapitre (section 4.2), une mthode permettant dapprocher lhistogramme par une somme de fonctions gaussiennes a t prsente. Une telle
opration nous a permis dobtenir une expression analytique approche de lhistogramme,
et donc de calculer beaucoup plus facilement les seuils optimaux. Puis, nous avons montr
comment PSO-2S peut tre utilis pour rsoudre un problme de segmentation dimages.
Les rsultats proposs pour des images de test standard, ainsi que pour des images mdicales, montrent que cette mthode, couple lutilisation de PSO-2S, offre une plus grande
stabilit, par rapport SPSO-07.
Dans la deuxime partie (section 4.3), nous avons prsent une application de loptimisation au problme de dimensionnement de circuits lectroniques analogiques. Ce type de
problme est crucial lors de la conception de circuits analogiques, car les performances
113
114
115
116
des circuits sont fortement dpendantes des dimensions des transistors. Cette application montre comment lutilisation des mtaheuristiques permet de trouver rapidement
des solutions convenables, en termes de performance des circuits. Le problme est prsent comme un problme doptimisation bi-objectif minimiser. Ce problme a t trait
laide de PSO-2S et a donn des rsultats comptitifs, par rapport aux autres algorithmes
utiliss pour la comparaison.
Nous avons montr dans ce chapitre que les deux problmes (i.e. la segmentation
dimages et le dimensionnement de circuits lectroniques) sont correctement rsolus. En
effet, les rsultats obtenus pour les deux applications montrent lintrt de lutilisation de
PSO-2S sur ce type de problmes.
117
Conclusion et perspectives
Les ingnieurs se heurtent quotidiennement des problmes technologiques de complexit grandissante, qui surgissent dans des domaines trs divers, comme dans les transports, le traitement dimages, llectronique, etc. La plupart de ces problmes peuvent
tre formuls comme des problmes doptimisation. Les mtaheuristiques forment un ensemble dalgorithmes utiliss en recherche oprationnelle pour rsoudre ce type de problmes. En effet, lutilisation des mtaheuristiques a fait lobjet dun intrt croissant du
fait de leurs applications (notamment en traitement dimages et en lectronique) qui ont
connu un succs particulier ces dernires annes grce laugmentation de la puissance
des ordinateurs.
Les travaux prsents dans cette thse apportent des contributions dans diffrents domaines de recherche tels que la recherche oprationnelle et les applications des mtaheuristiques en traitement dimages et en lectronique.
Dans cette thse, nous avons abord le sujet de loptimisation mono-objectif continue,
puis nous avons expos quelques-unes des mtaheuristiques les plus connues dans la
littrature. Parmi les mtaheuristiques prsentes, un intrt particulier a t port la
mthode dOptimisation par Essaim Particulaire (OEP, ou PSO en anglais). PSO est une
mthode doptimisation stochastique qui est inspire du comportement social danimaux
voluant en essaim. Ce comportement social est modlis par une quation mathmatique
qui revient guider les particules durant le processus de dplacement. Le dplacement
dune particule est influenc par trois composantes : la composante dinertie, la composante cognitive et la composante sociale. Chacune de ces composantes correspond une
partie de lquation.
Dans PSO, les particules sont initialises alatoirement dans lespace de recherche. Cependant, une telle initialisation peut entraner un manque de diversit dans lessaim ds
le premier pas de temps, ce qui favorise une convergence prmature vers un optimum
local. La convergence prmature est considre comme un problme majeur de PSO.
La premire tape de ce travail de thse a t dlaborer un nouvel algorithme qui per118
Conclusion et perspectives
met de remdier au problme de la convergence prmature et damliorer les performances de lalgorithme PSO. Un nouvel algorithme doptimisation, dnomm PSO-2S, a
t propos. Dans cet algorithme, trois ides principales ont t ajoutes lalgorithme
standard de PSO, sans introduire doprations complexes. La premire ide consiste utiliser deux types dessaims : un essaim principal, not S1, et S essaims auxiliaires, nots S2i ,
o 1 i S. La deuxime ide consiste partitionner lespace de recherche en S zones o
les essaims auxiliaires sont initialiss. La dernire ide consiste utiliser le concept de la
rpulsion lectrostatique, qui permet de couvrir plus largement chaque zone de lespace de
recherche. Ces trois ides sont appliques dans la premire phase de lalgorithme PSO-2S,
qui est la phase de construction de lessaim principal, dont le but est dexplorer au mieux
les diffrents optima locaux de la fonction objectif. Une recherche locale a t galement
ajoute PSO-2S afin damliorer la prcision des solutions trouves. A partir des analyses
et des exprimentations faites sur de nombreuses fonctions de test, nous avons conclu que
les ides utilises dans PSO-2S ont pu limiter le phnomne de convergence prmature
de lalgorithme PSO. Elles ont galement amlior les performances de PSO dune manire
significative pour la plupart des fonctions de test.
Une des perspectives considres comme intressantes dans de nombreux travaux est
lintgration dides en provenance de diverses mtaheuristiques, gnralement sous la
forme dhybridations. En effet, tirer partie des avantages spcifiques de mtaheuristiques
diffrentes en les combinant peut conduire une amlioration des performances et des
solutions trouves. Nous avons alors choisi dhybrider PSO-2S avec lalgorithme DE (Differential Evolution), qui possde un oprateur de croisement facile contrler et efficace
pour lexploration, permettant la gnration de nouvelles configurations par recombinaison de solutions existantes. Cette hybridation (PSO-2S avec DE) est implmente dans un
nouvel algorithme, dnomm DEPSO-2S. DEPSO-2S est une variante de PSO-2S qui utilise
les trois ides principales sur lesquelles se base PSO-2S et qui sont prsentes dans le paragraphe prcdent. Par contre, dans DEPSO-2S, lalgorithme DE est utilis pour construire
lessaim principal la place de lalgorithme PSO. Ainsi, dans DEPSO-2S, une variante de
DE modifie des fins dadaptation PSO-2S est utilise. Lalgorithme DEPSO-2S a t
valu sur les mmes fonctions de test que PSO-2S. Il obtient galement de bons rsultats, lhybridation des deux algorithmes ayant contribu amliorer lancienne version de
PSO-2S.
Ensuite, toujours dans le cadre de lamlioration de lalgorithme PSO, nous nous
119
Conclusion et perspectives
120
Conclusion et perspectives
121
Annexe
A - Principales fonctions de test
Les principales fonctions de test sont classes en quatre groupes en fonction de leurs
proprits [Suga 05, Tu 04, Yao 99]. Ceux-ci sont dfinis comme suit :
Groupe A : Fonctions unimodales
1. Sphere function
d
f1 (x) =
xi2.
(4.4.1)
i =1
2. Quadric function
f2 (x) =
i =1
j =1
xj
!2
(4.4.2)
d 1
i =1
100( xi2 xi+1 )2 + ( xi 1)2 .
(4.4.3)
4. Ackleys function
v
u d
u1
f 4 ( x ) = 20 exp 0,2t xi2 exp
d i =1
1
cos(2xi )
d i
=1
+ 20 + e.
(4.4.4)
5. Rastrigins function
f5 (x) =
i =1
xi2 10cos(2xi ) + 10 .
(4.4.5)
6. Weierstrasss function
d
f6 (x) =
i =1
k max h
k =0
i
k max h
k =0
i
ak cos 2bk .0,5
(4.4.6)
Conclusion et perspectives
sin (3x1 )
f 7 ( x ) = 0,1
+ id=11 ( xi 1)2 1 + sin2 (3xi+1 )
k ( xi a ) m ,
u( xi ,a,k,m) =
0,
k ( x a)m ,
i
+ u( xi , 5, 100, 4) (4.4.7)
i =1
xi > a
a xi a
xi < a
8. Griewanks function
d
x2
f 8 ( x ) = i cos
4000 i=1
i =1
d
x
i
i
+ 1.
9. Tripods function
1sign( x2 )
(| x1 | + | x2 + 50|)
( x2 ) 1sign( x1 )
f9 (x) =
(1 + | x1 + 50| + | x2 50|)
+ 1+sign
2
2
sign( x ) = 1 si
sign( x ) = 1
(4.4.8)
(4.4.9)
x0
sinon.
utilise pour calculer la valeur de f itness, sachant que x est la variable originale. Le
fait de faire tourner les fonctions ajoute une grande complexit sur les fonctions, qui
deviennent trs difficiles rsoudre par les algorithmes doptimisation. Ces fonctions
sont dfinies comme suit :
123
Conclusion et perspectives
i =1
j =1
yj
f 10 ( x ) =
!2
(4.4.10)
d 1
i =1
100(y2i yi+1 )2 + (yi 1)2 .
u d
u1
f 12 ( x ) = 20 exp 0,2t y2i exp
d i =1
1 d
cos(2yi )
d i
=1
(4.4.11)
+ 20 + e. (4.4.12)
f 13 ( x ) =
i =1
y2i
10cos(2yi ) + 10 .
(4.4.13)
k max
i =1
k =0
i
k max
k =0
a cos 2b .0,5
i
(4.4.14)
sin (3y1 )
f 15 ( x ) = 0.1
)
+ id=11 (yi 1)2 1 + sin2 (3y
i
+
1
avec :
k ( yi a )m
0
u(yi ,a,k,m) =
k (yi a)
124
+ u(yi , 5, 100, 4)
i =1
yi > a
a yi a
yi < a
(4.4.15)
Conclusion et perspectives
d 1
i =1
100(z2i
z i +1 ) + ( z i 1)
+ f bias2
(4.4.16)
zi = xi o2i .
17. Shifted Ackleys function
v
u d
u1
f 17 ( x ) = 20exp 0,2t z2i exp
d i =1
1 d
cos(2zi )
d i
=1
+ 20 + e + f bias3
(4.4.17)
zi = xi o3i .
18. Shifted Rastrigins function
d
f 18 ( x ) =
i =1
z2i 10cos(2zi ) + 10 + f bias4
(4.4.18)
zi = xi o4i .
19. Shifted Griewanks function
d
z2
f 19 ( x ) = i cos
4000 i=1
i =1
d
z
i
i
+ 1 + f bias5
(4.4.19)
zi = xi o5i .
20. Shifted Sphere function
d
f 20 ( x ) =
xi2 + f bias1
i =1
zi = xi o1i .
125
(4.4.20)
Conclusion et perspectives
B - Problmes rels
F1 : problme Lennard-Jones atomic cluster
Le problme Lennard Jones ( LJ ) consiste, tant donn un agrgat de K atomes, repr-
sentant une molcule, trouver les positions relatives de ces atomes dont lnergie potentielle globale est minimale dans un espace euclidien trois dimensions. Nous prsentons
le problme LJ comme suit : la molcule est constitue de K atomes, xi = ( x1i , x2i , xi 3 ) reprsente les coordonnes de latome i dans lespace trois dimensions, sachant que les K
atomes sont situs aux positions (( x1 ), . . . , ( x K )), o xi IR3 et i = 1, 2, . . . , K. La formule
de lnergie potentielle de LJ pour une paire datomes (i, j) est donne par :
v(rij ) =
1
1
6 tels que 1 i,j K
12
rij
rij
o rij =
xi x j
.
Lnergie potentielle globale est la somme des nergies rsultant des interactions entre
chaque couple datomes de la molcule. La configuration la plus stable de la molcule
correspond un minimum global dnergie potentielle que lon peut avoir en minimisant
la fonction Vk ( x ) dans lquation suivante :
Min Vk ( x ) = i< j v
xi x j
= iK=11 Kj=i+1
1
12
k xi x j k
1
6
k xi x j k
(4.4.21)
Dans notre travail, nous utilisons 9 atomes dans un espace de recherche [2, 2]27 . La
valeur de loptimum global dans ce cas est f = 24,113360.
F2 : problme Gear train design
Min f ( x ) =
TT
1
d b
6,931 Ta T f
)2
x x
1
1 2
6,931 x3 x4
2
(4.4.22)
o :
12 xi 60 avec i = 1, 2, 3, 4 et xi doit tre entier ;
Conclusion et perspectives
(4.4.24)
o :
Min f ( X ) = max { f 1 ( X ), . . . , f 2m ( X )}
X = ( x1 , . . . , xn ) Rn | 0 x j 2, j = 1,2, . . . ,n et m = 2n 1,
f 2i1 ( x ) =
f 2i ( x ) =
nj=i
cos
j
k=|2i j1|+1
j
k=|2i j|+1
i = 1,2, . . . , n ;
i = 1,2, . . . , n 1 ;
xk
xk
(4.4.25)
f m+i ( X ) = f i ( X ), i = 1, 2, . . . , m.
F5 : problme Compression spring design
Min f ( x ) = 2
x2 x32 ( x1 + 1)
4
(4.4.26)
( x1 , x2 , x3 ) connue est
Conclusion et perspectives
F6 : Perm function
5
Min f ( x ) =
"
k =1
i =1
ik +
n
( xi /i )k 1
#2
(4.4.27)
o x [5, 5] et est une constante fixe 10 [Cler 12]. Loptimum global de cette fonction
(4.4.28)
avec une granularit 0,0625, x3 ]0, 240] et x4 ]0, 240]. La meilleure solution est
(4.4.29)
Conclusion et perspectives
g1 ( x ) = ( x ) 13000 0, g2 ( x ) = ( x ) 30000 0, g3 ( x ) = x1 x4 0
g4 ( x ) = 6000 Pc ( x ) 0, g5 ( x ) = 0,125 x1 0, g6 ( x ) = ( x ) 0,25 0
g7 ( x ) = 0,10471x12 + 0,04811x3 x4 (14,0 + x2 ) 5,0 0
o :
(x) =
x2
( )2 + 2 2R
+ ( )2 , =
M = 6000(14 +
Pc ( x ) =
x2
2 ),
4,013(30106 )
196
R=
x32 x6
4
36
x22
4
6000 ,
2x1 x2
+ ( x1 +2 x3 )2 , J = 2
x3
30106
4(12106 )
28
=
n
MR
J
2x1 x2
, ( x) =
x22
12
504000
,
x4 x32
+ ( x1 +2 x3 )2
( x ) =
io
2,1952
x33 x4
+7,4777( x63
(4.4.30)
x5 x72 )
27
x1 x22 x3
1,0
110x63
1,0
85x73
0, g2 ( x ) =
r
r
745x4
x2 x3
745x5
x2 x3
1,5x6 +1,9
x4
2
2
397,5
x1 x22 x32
0, g3 ( x ) =
1,93x43
x2 x3 x64
0, g4 ( x ) =
1,93x53
x2 x3 x74
+ 16,9 106 1 0, g6 ( x ) =
x2 x3
40
1 0, g7 ( x ) =
+ 157,5 106 1 0, g9 ( x ) =
x1
12x2
1 0
1 0, g11 ( x ) =
1,1x7 +1,9
x5
5x2
x1
1 0
1 0
8,3; 2,9 x6 3,9; 5,0 x7 5,5, x = (3,5; 0,7; 17; 7,3; 7,8; 3,350214; 5,286683) et
f = 2,996.348165 [Goli 73].
129
Conclusion et perspectives
13
i =1
i =1
i =1
Min f ( x ) = 5 xi 5 xi 2 xi
(4.4.31)
(1, 1, 1, 1, 1, 1, 1, 1, 1, 3, 3, 3, 1) et f = 15.
(4.4.32)
Conclusion et perspectives
o :
10 xi 10 pour tout (i = 1, 2, . . . , 10),
131
Rfrences bibliographiques
[Alba 05]
E. Alba. Parallel Metaheuristics : A New Class of Algorithms. John Wiley & sons, 2005.
[Ali 10]
[Ange 98] P. Angeline. Evolutionary optimization versus particle swarm optimization : Philosophy and performance differences. pp. 601610, 1998.
[Avri 76]
[Bask 04]
[Bast 09]
[Ben 06]
[Berg 04]
[Bert 95]
[Beye 01]
[Boya 98]
[Bran 02]
[Bran 12]
J.
Branke.
BrainWeb
:
Simulated
http://brainweb.bic.mni.mcgill.ca/brainweb, 2012.
132
Brain
Database.
RFRENCES BIBLIOGRAPHIQUES
[Bres 06]
[Bres 07]
[Cern 85]
V. Cerny. Thermodynamical Approach to the Travelling Salesman Problem : An Efficient Simulation Algorithm. Journal of Optimization Theory and Applications, Vol. 45,
pp. 4151, 1985.
[Chak 06] U. K. Chakraborty, A. Konar, and S. Das. Differential Evolution with Local Neighborhood. pp. 20422049, IEEE Press, Vancouver, BC, Canada, July 2006.
[Chat 06]
A. Chatterjee and P. Siarry. Nonlinear inertia weight variation for dynamic adaptation
in particle swarm optimization. Computers and Operations Research, Vol. 33, pp. 859
871, 2006.
[Chat 10]
[Chen 10] D. Chen, C. Zhao, and H. Zhang. An improved cooperative particle swarm optimization and its application. Neural Computing and Applications, Vol. 20, No. 2, pp. 171182,
2010.
[Cler 02]
M. Clerc and J. Kennedy. The particle swarm : explosion, stability, and convergence
in multi-dimensional complex space. IEEE Transactions on Evolutionary Computation,
Vol. 6, pp. 5873, 2002.
[Cler 03]
M. Clerc. TRIBES - Un exemple doptimisation par essaims particulaires sans paramtres de contrle. In : Confrence OEP03, Paris, France, Octobre 2003.
[Cler 06]
[Cler 12]
[Coll 02]
[Coll 98]
[Colo 91]
133
RFRENCES BIBLIOGRAPHIQUES
[Coor 08]
Y. Cooren. Perfectionnement dun algorithme adaptatif dOptimisation par Essaim Particulaire. Applications en gnie mdical et en lectronique. PhD thesis, Universit Paris-Est Crteil, 2008.
J. P. Courat, G. Raynaud, I. Mrad, and P. Siarry. Electronic component model minimization based on Log Simulated Annealing. pp. 790795, 1994.
[Creu 83]
M. Creutz. Microcanonical Monte Carlo simulation. Physical Review Letters, Vol. 50,
No. 19, pp. 14111415, 1983.
S. Das, A. Abraham, and A. Konar. Particle swarm optimization and differential evolution algorithms : technical analysis, applications and hybridization perspectives. Studies in Computational Intelligence (SCI), Vol. 116, No. , pp. 138, 2008.
[DeVo 96] R. A. DeVore and V. N. Temlyakov. Some remarks on greedy algorithms. Advances in
Computational Mathematics, Vol. 5, No. 1, pp. 173187, 1996.
[Dori 05]
M. Dorigo and C. Blum. Ant colony optimization theory : a survey. Theoretical Computer Science, Vol. 344, No. 2-3, pp. 243278, 2005.
[Dori 96]
[Dro 03]
J. Dro, A. Ptrowski, P. Siarry, and E. Taillard. Mtaheuristiques pour lOptimisation Difficile. Eyrolles, 2003.
[Eber 00]
R. Eberhart and Y. Shi. Comparing inertia weights and constriction factors in particle
swarm optimization. In : Proceedings of the 6th IEEE Congress on Evolutionary Computation, pp. 8488, IEEE Press, 2000.
[Eber 01]
R. C. Eberhart and Y. Shi. Tracking and optimizing dynamic systems with particle
swarms. In : Proceedings of the 2001 IEEE Congress on Evolutionary Computation, pp. 94
100, IEEE Press, Piscataway, NJ, 2001.
[Eber 96]
[El D 12a] A. El Dor, M. Clerc, and P. Siarry. A multi-swarm PSO using charged particles in a
partitioned search space for continuous optimization. Computational Optimization and
Applications, Vol. 53, No. 1, pp. 271295, 2012.
[El D 12b] A. El Dor, M. Clerc, and P. Siarry. Hybridization of Differential Evolution and Particle Swarm Optimization in a New Algorithm : DEPSO-2S. In : Proceedings of the
2012 International Conference on Swarm and Evolutionary Computation, ICAISC (SIDE-EC),
pp. 5765, Springer-Verlag, Zakopane, Poland, April 29-May 3, 2012.
134
RFRENCES BIBLIOGRAPHIQUES
[El S 09]
A. A. El-Saleh, M. Ismail, R. Viknesh, C. C. Mark, and M. L. Chan. Particle swarm optimization for mobile network design. IEICE Electronics Express, Vol. 6, No. 17, pp. 1219
1225, 2009.
[Fabr 98]
A. Fabre, O. Saaid, W. F., and C. Boucheron. High-frequency high-Q BiCMOS currentmode bandpass filter and mobile communication application. IEEE Journal of Solid
State Circuits, Vol. 33, No. 4, pp. 614625, 1998.
[Fan 04]
S. Fan, Y. Liang, and E. Zahara. Hybrid simplex search and particle swarm optimization for the global optimization of multimodal functions. Engineering Optimization,
Vol. 36, pp. 401418, 2004.
[Fish 22]
[Foge 62]
[Foge 66]
[Fras 57]
[Giel 91]
G. Gielen and W. Sansen. Symbolic Analysis for Automated Design of Analog Integrated
Circuits. Kluwer Academic Publishers, 1991.
[Glov 86]
F. Glover. Future paths for integer programming and links to artificial intelligence.
Computers and Operations Research, Vol. 13, pp. 533549, 1986.
[Glov 97]
[Gold 87]
[Goli 73]
[Gonz 07] R. C. Gonzalez and R. E. Woods. Digital image processing. Prentice Hall, third Ed., 2007.
[Goss 89]
[Grae 01]
H. E. Graeb, S. Zizala, J. Eckmueller, and K. Antreich. The Sizing Rules Method for
Analog Integrated Circuit Design.. pp. 343349, 2001.
[Hast 70]
W. K. Hastings. Monte-Carlo sampling method using Markov chains and their applications. Biometrika, Vol. 57, 1970.
[Holl 75]
[Homa 94] A. Homaifar, C. X. Qi, and S. H. Lai. Constrained Optimization Via Genetic Algorithms. Simulation, Vol. 62, No. 4, pp. 242253, 1994.
135
RFRENCES BIBLIOGRAPHIQUES
[Hsie 09]
[Iqba 06]
[Jans 05]
S. Janson and M. Middendorf. A hierarchical particle swarm optimizer and its adaptive variant. IEEE Transactions on Systems, Man, and Cybernetics, Part B, Vol. 35, No. 6,
pp. 12721282, 2005.
[Kann 94] B. Kannan and S. Kramer. An augmented Lagrange multiplier based method for
mixed integer discrete continuous optimization and its applications to mechanical design. Journal of Mechanical Design, Vol. 116, No. 2, pp. 318320, 1994.
[Kapu 85] J. N. Kapur, P. K. Sahoo, and A. C. K. Wong. A new method for gray-level picture
thresholding using the entropy of the histogram. Computer Vision, Graphics and Image
Processing, Vol. 29, No. 3, pp. 273285, 1985.
[Kenn 01] J. Kennedy, R. Eberhart, and Y. Shi. Swarm Intelligence. Morgan Kaufmann Academic
Press, 2001.
[Kenn 02] J. Kennedy and R. Mendes. Population Structure and Particle Swarm Performance.
In : Proceedings of the 2002 IEEE Congress on Evolutionary Computation, CEC02, pp. 1671
1676, Honolulu, HI, USA, 2002.
[Kenn 95] J. Kennedy and R. C. Eberhart. Particle Swarm Optimization. In : Proceedings of
the IEEE International Conference on Neural Networks IV, pp. 19421948, Perth, Australia,
November 1995.
[Kenn 98] J. Kennedy. The behavior of particles. In : Proceedings of the 7th Conference on Evolutionary Computation, pp. 581589, LNCS, Springer, 1998.
[Kenn 99] J. Kennedy. Small worlds and mega-minds : effects of neighborhood topology on particle swarm performance. In : Proceedings of the 1999 Congress on Evolutionary Computation, CEC99, pp. 19311938, Washington, DC USA, 1999.
[Kirk 83]
[Kitt 86]
J. Kittler and J. Illingworth. Minimum error thresholding. Pattern Recognition, Vol. 19,
No. 1, pp. 4147, 1986.
T. Krink, J. S. Vesterstrom, and J. Riget. Particle swarm optimisation with spatial particle extension. In : Proc. IEEE Congress on Evolutionary Computation, pp. 14741479,
Honolulu, Hawaii USA, May 2002.
136
RFRENCES BIBLIOGRAPHIQUES
[Lamp]
J. Lampinen and I. Zelinka. Mixed Integer-Discrete-Continuous Optimization By Differential Evolution - Part 1 : the optimization method. In : Proceedings of MENDEL99 5th International Mendel Conference on Soft Computing.
[Lane 08]
J. Lane, A. Engelbrecht, and J. Gain. Particle swarm optimization with spatially meaningful neighbours. In : Proceedings of the 2008 IEEE Swarm Intelligence Symposium.
Piscataway, NJ : IEEE, pp. 18, Press, 2008.
[Lepa 10]
J. Lepagnot, A. Nakib, H. Oulhadj, and P. Siarry. A new multiagent algorithm for dynamic continuous optimization. International Journal of Applied Metaheuristic Computing,
Vol. 1, No. 1, pp. 1638, 2010.
[Lian 06]
[Liu 05]
[Loul 02]
[Mann 47] H. B. Mann and D. R. Whitney. On a Test of Whether one of Two Random Variables
is Stochastically Larger than the Other. The Annals of Mathematical Statistics, Vol. 18,
No. 1, pp. 5060, 1947.
[Mede 94] F. Medeiro, R. Rodrguez-Macas, F. V. Fernndez, R. Domnguez-Castro, J. L. Huertas,
and A. Rodrguez-Vzquez. Global design of analog cells using statistical optimization
techniques. Analog Integrated Circuits and Signal Processing, Vol. 6, No. 3, pp. 179195,
1994.
[Mend 03] R. Mendes, J. Kennedy, and J. Neves. Watch thy neighbor or how the swarm can learn
from its environment. In : Proceedings of the 2003 IEEE Swarm Intelligence Symposium,
pp. 8894, Indianapolis, Indiana, USA, 2003.
[Mend 04] R. Mendes, J. Kennedy, and J. Neves. The Fully Informed Particle Swarm : Simpler,
Maybe Better. IEEE Trans. Evolutionary Computation, Vol. 8, No. 3, pp. 204210, 2004.
[Metr 53]
N. Metropolis, A. W. Rosenbluth, M. N. Rosenbluth, A. H. Teller, and E. Teller. Equation of State Calculations by Fast Computing Machines. The Journal of Chemical Physics,
Vol. 21, No. 6, pp. 10871092, 1953.
[Mira 02]
[Naki 07]
A. Nakib. Conception de mtaheuristiques doptimisation pour la segmentation dimages. Application des images biomdicales. PhD thesis, Universit Paris-Est Crteil, Dcembre
2007.
[Neld 65]
J. A. Nelder and R. Mead. A Simplex Method for Function Minimization. The Computer Journal, Vol. 7, No. 4, pp. 308313, 1965.
[Niu 07]
B. Niu, Y. Zhu, X. He, and H. Wu. MCPSO : A multi-swarm cooperative particle swarm
optimizer. Applied Mathematics and Computation, Vol. 185, 2007.
137
RFRENCES BIBLIOGRAPHIQUES
N. A. Otsu. A Threshold Selection Method from Gray Level Histograms. IEEE Transactions on Systems, Man, and Cybernetics, Vol. 9, No. 1, pp. 6266, 1979.
[Ozca 99]
[Pars 04]
[Pass 02]
[Peer 03]
E. S. Peer, A. P. Engelbrecht, and F. Van Den Bergh. Using neighborhoods with the
guaranteed convergence PSO. In : Proceedings of the IEEE Swarm Intelligence Symposium
2003 (SIS03), pp. 235242, IEEE Press, Indianapolis, Indiana, USA, 2003.
[Pera 03]
[Pric 05]
[Qin 05]
A. K. Qin and P. N. Suganthan. Self-adaptive differential evolution algorithm for numerical optimization. In : 2005 IEEE Congress on Evolutionary Computation CEC2005,
pp. 17851791, IEEE Press, 2005.
[Rags 76]
[Rajp 07]
[Rech 65]
I. Rechenberg. Cybernetic solution path of an experimental problem. Tech. Rep., Library translation 1122, Ministry of Aviation, Royal Air Force Establishment (UK), 1965.
[Rich 03]
[Robi 02]
[Safa 09]
E. Safavieh, A. Gheibi, M. Abolghasemi, and A. Mohades. Particle swarm optimization with Voronoi neighborhood. In : Proceedings of the 14th International CSI Computer
Conference (CSICC2009), pp. 397402, Tehran, Iran, 2009.
138
RFRENCES BIBLIOGRAPHIQUES
[Saho 88]
P. K. Sahoo, S. Soltani, A. K. C. Wong, and Y. Chen. A survey of thresholding techniques. Computer Vision, Graphics, and Image Processing, Vol. 41, No. 2, pp. 233260,
1988.
[Salo 96]
[Schm 00] H. Schmid. Approximating the universal active element. IEEE Transactions on Circuits
and Systems-II : Analog and Digital Signal Processing, Vol. 47, No. 11, pp. 11601169, 2000.
[Schr 98]
[Sedr 70]
A. Sedra and K. Smith. A second generation current conveyor and its applications.
IEEE Transactions on Circuits Theory, Vol. 17, pp. 132134, 1970.
[Sedr 90]
A. Sedra, G. Robert, and F. Gohln. The current conveyor : History, progress and new
results. In : IEEE Proc. Part G, pp. 7887, 1990.
[Seev 00]
[Sezg 04]
M. Sezgin and B. Sankur. Survey over image thresholding techniques and quantitative
performance evaluation. Journal of Electronic Imaging, Vol. 13, No. 1, pp. 146165, 2004.
[Shel 07]
P. Shelokar, P. Siarry, V. Jayaraman, and B. Kulkarni. Particle swarm and ant colony
algorithms hybridized for improved continuous optimization. Applied Mathematics and
Computation, Vol. 188, No. 1, pp. 129142, 2007.
[Shi 99]
Y. Shi and E. R. C. Empirical study of particle swarm optimization. Vol. 3, pp. 1945
1950, 1999.
[Silv 96]
[Stor 97]
R. Storn and K. Price. Differential Evolution - A Simple and Efficient Heuristic for
global Optimization over Continuous Spaces. Journal of Global Optimization, Vol. 11,
No. 4, pp. 341359, 1997.
[Suga 05]
[Suga 99]
P. N. Suganthan. Particle swarm optimiser with neighbourhood operator. In : Proceedings of the 1999 Congress on Evolutionary Computation, CEC 99, pp. 19581962, Washington, DC USA, 1999.
[Synd 90] W. Synder and G. Bilbro. Optimal thresholding : A new approach. Pattern Recognition
Letters, Vol. 11, No. 12, pp. 803810, 1990.
[Talb 02]
139
RFRENCES BIBLIOGRAPHIQUES
[Teo 06]
[Tlel 10]
[Toum 93] C. Toumazou, F. Lidgey, and D. Haigh. Analog Integrated Circuits : The current mode
approach. IEEE Transactions on circuits and systems, series, Vol. 2, 1993.
[Trel 03]
[Tu 04]
Z. G. Tu and L. Yong. A robust stochastic genetic algorithm (StGA) for global numerical optimization. IEEE Trans. Evol. Comput., Vol. 8, No. 5, pp. 456470, 2004.
[Van 01]
F. Van Den Bergh. An Analysis of Particle Swarm Optimizers. PhD thesis, Faculty of
Natural and Agricultural Sciences, University of Pretoria, South Africa, 2001.
[Vent 05]
G. Venter and J. Sobieszczanski-Sobieski. A parallel particle swarm optimization algorithm accelerated by asynchronous evaluations. In : 6th World Congresses of Structural
and Multidisciplinary Optimization, Rio de Janeiro, Brazil, 30 May - 03 June 2005.
[Wang 08] Y. X. Wang and Q. L. Xiang. Particle Swarms with dynamic ring topology. In : Proceedings of the IEEE Congress on Evolutionary Computation, pp. 419423, IEEE, 2008.
[Watt 98]
[Watt 99]
D. J. Watts. Small worlds : The dynamics of networks between order and randomness. Princeton University Press, Princeton, NJ, 1999.
[Wilc 45]
[Yao 99]
X. Yao, Y. Liu, and G. M. Lin. Evolutionary programming made faster. IEEE Trans.
Evol. Comput., Vol. 3, No. 2, pp. 82102, 1999.
[Yen 08]
[Zhan 09] C. Zhang, J. Ning, S. Lu, D. Ouyang, and T. Ding. A novel hybrid differential evolution
and particle swarm optimization algorithm for unconstrained optimization. Oper. Res.
Lett., Vol. 37, No. 2, pp. 117122, March 2009.
[Zhen 03] Y. Zheng, L. Ma, L. Zhang, and J. Qian. On the convergence analysis and parameter
selection in particle swarm optimization. In : Proceedings of International Conference on
Machine Learning and Cybernetics 2003, pp. 18021807, 2003.
[Zhon 04] W. C. Zhong, J. Liu, Z. Xue, and L. C. Jiao. A multiagent genetic algorithm for global
numerical optimization. IEEE Transactions on Systems, Man and Cybernetics, Vol. 34,
No. 2, pp. 11281141, 2004.
140