Académique Documents
Professionnel Documents
Culture Documents
N° d’ordre: 2493
THÈSE DE DOCTORAT
Présentée par :
Lamia Benameur
Devant le jury
Président :
D. Aboutajdine, Professeur, Faculté des Sciences de Rabat.
Examinateurs :
A.A. El Imrani, Professeur, Faculté des Sciences de Rabat
B. El Ouahidi, Professeur, Faculté des Sciences de Rabat
A. Sekkaki, Professeur, Faculté des Sciences Ain Chock de Casablanca
J. Benabdelouahab, Professeur, Faculté des Sciences de Tanger
Y. El Amrani, Professeur Assistant, Faculté des Sciences de Rabat
Faculté des Sciences, 4 Avenue Ibn Battouta B.P. 1014 RP, Rabat – Maroc
Tel +212 (0) 37 77 18 34/35/38, Fax : +212 (0) 37 77 42 61, http://www.fsr.ac.ma
Avant-Propos
Les travaux présentés dans ce mémoire ont été effectués au Laboratoire Conception
et Systèmes (LCS) de la Faculté des Sciences de Rabat (Equipe de Soft Computing
et aide à la décision) sous la direction du Professeur A. A. El Imrani.
i
Je tiens à remercier tous les membres du Laboratoire Conception et Systèmes,
Professeurs et Doctorants, pour leur esprit de groupe. Qu’ils trouvent ici le témoi-
gnage de toute mon estime et ma sincère sympathie.
"Durant les trois dernières années de mes études doctorales, j’ai bénéficié d’une
bourse d’excellence octroyée par le Centre National de Recherche Scientifique et
Technique (CNRST) et ce dans le cadre du programme des bourses de recherche
initié par le ministère de l’Education Nationale de l’Enseignement Supérieur, de la
Formation des Cadres et de la Recherche Scientifique".
ii
Table des matières
Introduction générale 1
iii
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.2 Problématique de l’optimisation multimodale . . . . . . . . . . . . . . 54
3.3 Techniques de l’optimisation multimodale . . . . . . . . . . . . . . . . 55
3.3.1 Les méthodes de niche . . . . . . . . . . . . . . . . . . . . . . 55
3.3.2 Les systèmes basés sur l’intelligence des essaims particulaires
(PSO) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.3.3 Les systèmes immunitaires artificiels . . . . . . . . . . . . . . 62
3.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.5 Conception d’un nouveau modèle d’optimisation multimodale (MPSO) 64
3.5.1 Le principe du modèle . . . . . . . . . . . . . . . . . . . . . . 64
3.5.2 La couche de classification automatique floue . . . . . . . . . . 64
3.5.3 La couche de séparation spatiale . . . . . . . . . . . . . . . . . 67
3.5.4 Le concept de migration . . . . . . . . . . . . . . . . . . . . . 68
3.5.5 Fonctionnement du modèle . . . . . . . . . . . . . . . . . . . . 68
3.5.6 Complexité temporelle de l’algorithme . . . . . . . . . . . . . 69
3.6 Etude expérimentale . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.6.1 Fonctions tests . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.6.2 Résultats numériques . . . . . . . . . . . . . . . . . . . . . . . 71
3.6.3 Comparaisons avec d’autres techniques . . . . . . . . . . . . . 79
3.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
iv
4.7.1 Problèmes tests . . . . . . . . . . . . . . . . . . . . . . . . . . 113
4.7.2 Résultats numériques . . . . . . . . . . . . . . . . . . . . . . . 115
4.7.3 Comparaisons avec d’autres techniques . . . . . . . . . . . . . 115
4.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
v
Introduction générale
L’optimisation est actuellement un des sujets les plus en vue en " soft computing ".
En effet, un grand nombre de problèmes d’aide à la décision peuvent être décrits sous
forme de problèmes d’optimisation. Les problèmes d’identification, d’apprentissage
supervisé de réseaux de neurones ou encore la recherche du plus court chemin sont,
par exemple, des problèmes d’optimisation.
1
– Certains problèmes d’optimisation à variables continues, pour lesquels on ne
connaît pas d’algorithme permettant de repérer un optimum global (c’est-à-
dire la meilleure solution possible) à coup sûr et en un nombre fini de calculs.
Des efforts ont longtemps été menés pour résoudre ces deux types de problèmes,
dans le domaine de l’optimisation continue, il existe ainsi un arsenal important de
méthodes classiques dites d’optimisation globales, mais ces techniques sont souvent
inefficaces si la fonction objectif ne possède pas une propriété structurelle particu-
lière, telle que la convexité. Dans le domaine de l’optimisation discrète, un grand
nombre d’heuristiques, qui produisent des solutions proches de l’optimum, ont été
développées ; mais la plupart d’entre elles ont été conçues spécifiquement pour un
problème donné.
Par ailleurs, les techniques de calcul "intelligent" peuvent être vues comme un
ensemble de concepts, de paradigmes et d’algorithmes, permettant d’avoir des ac-
tions appropriées (comportements "intelligents") pour des environnements variables
et complexes.
Selon Fogel, ces nouvelles techniques représentent, de façon générale, des mé-
thodes, de calculs "intelligents", qui peuvent être utilisées pour adapter les solutions
aux nouveaux problèmes et qui ne requièrent pas d’informations explicites. Par la
suite, Zadeh a introduit le terme Soft Computing qui désigne également les mêmes
techniques [Zadeh, 1994].
2
(algorithmes culturels), ou du comportement collectif des insectes (colonies de four-
mis, oiseaux migrateurs), etc., sont très utilisées dans le domaine de l’optimisation
difficile.
Une autre richesse de ces métaheuristiques est qu’elles se prêtent à toutes sortes
d’extensions. Citons, en particulier :
– L’optimisation multiobjectif [Collette et Siarry, 2002], où il s’agit d’optimiser
simultanément plusieurs objectifs contradictoires ;
– L’optimisation multimodale, où l’on s’efforce de repérer tout un jeu d’optima
globaux ou locaux ;
– L’optimisation dynamique, qui fait face à des variations temporelles de la
fonction objectif.
Dans ce contexte, les travaux présentés dans ce mémoire présentent dans un pre-
mier temps l’adaptation de l’une des techniques de calcul évolutif, qui s’inspire du
comportement collectif des insectes : l’optimisation par essaims particulaires (Par-
ticle Swarm Optimization PSO), à l’optimisation de problèmes réels tels que machine
synchrone à aimant permanent et le problème d’affectation de fréquences à spectre
fixe.
Dans cet ordre d’idée, le présent travail propose une nouvelle méthode d’opti-
misation multimodale par essaims particulaires, le modèle MPSO (Multipopulation
Particle Swarms Optimization).
3
Les travaux présentés dans ce mémoire sont structurés selon quatre chapitres :
Nous évoquerons dans le premier chapitre un concis rappel sur les différentes tech-
niques de calcul "intelligent". Un intérêt tout particulier est destiné aux techniques
de calcul évolutif qui s’inscrivent dans le cadre de l’optimisation globale.
Le troisième chapitre présente, dans un premier temps, l’état de l’art dans le do-
maine d’optimisation multimodale, et s’intéresse particulièrement aux techniques
de niche, basées sur les algorithmes génétiques, les algorithmes culturels et sur les
essaims particulaires. Les différentes couches du modèle présenté (MPSO) seront en-
suite décrites plus en détail. Enfin, les performances du modèle MPSO sont validées
sur plusieurs fonctions tests et comparées à d’autres modèles.
Dans le quatrième chapitre nous commencerons par présenter les différentes tech-
niques d’optimisation multiobjectif proposées dans la littérature. Le modèle proposé
FC-MOPSO (Fuzzy Clustering Multi-objective Particle Swarm Optimizer) est en-
suite présenté et décrit en détail. Les performances du modèle seront enfin évaluées
sur plusieurs fonctions tests et comparées à d’autres modèles.
4
Première partie
Application de l’algorithme
d’optimisation par essaims
particulaires à des problèmes réels
5
Résumé
Cette partie introduit les différentes techniques de calcul "Intelligent". Les tech-
niques de calcul évolutif tels que les systèmes immunitaires artificiels, les algorithmes
évolutifs et les systèmes basés sur l’intelligence collective sont décrites. Dans un
deuxième temps, nous présentons l’application de l’algorithme d’optimisation par
essaims particulaires sur deux problèmes réels, un problème continu : la commande
d’une machine synchrone à aimant permanent (MSAP), et un autre discrèt : le
problème d’affectation de fréquences dans les réseaux cellulaires (PAF).
6
Chapitre 1
7
1.1 Introduction
La recherche de la solution optimale d’un problème est une préoccupation im-
portante dans le monde actuel, qu’il s’agisse d’optimiser le temps, le confort, la
sécurité, les coûts ou les gains. Beaucoup de problèmes d’optimisation sont difficiles
à résoudre, la difficulté ne vient pas seulement de la complexité du problème mais
également de la taille excessive de l’espace des solutions. Par exemple, le problème
du voyageur de commerce a une taille de l’espace de solutions qui varie en factorielle
(n-1) où n est le nombre de villes où il faut passer ; On s’aperçoit qu’à seulement
100 villes, il y a ∼ 9 · 10153 solutions possibles. Il est alors impensable de pouvoir les
tester toutes pour trouver la meilleure [Amat et Yahyaoui, 1996].
Le terme "Soft Computing", a été également proposé par Zadeh [Zadeh, 1994] qui
se réfère à un ensemble de techniques de calcul (Computational techniques) utilisées
dans plusieurs domaines, notamment l’informatique, l’intelligence artificielle et dans
certaines disciplines des sciences de l’ingénieur.
8
L’objectif visé dans ce chapitre est de présenter les différentes techniques de cal-
cul "intelligent". Un intérêt tout particulier est adressé aux techniques évolutives
utilisées dans le cadre de l’optimisation.
9
1.2 Techniques de Calcul "Intelligent"
Le principe de base des méthodes de Calcul "Intelligent" consiste à considérer
les êtres vivants comme modèles d’inspiration, le but étant de simuler à l’aide des
machines leur comportement.
En général, ces techniques peuvent être regroupées en trois grandes classes : les
réseaux de neurones artificiels qui utilisent l’apprentissage pour résoudre des pro-
blèmes complexes tels que la reconnaissance des formes ou le traitement du langage
naturel, la logique floue utilisée dans des applications d’intelligence artificielle, dans
lesquelles les variables ont des degrés de vérité représentés par une gamme de valeurs
situées entre 1 (vrai) et 0 (faux), et les méthodes de calcul évolutif pour la recherche
et l’optimisation (figure 1.1). Ces différentes classes seront présentées dans les sec-
tions suivantes.
10
formel. Ils montrèrent également théoriquement que des réseaux de neurones for-
mels simples peuvent réaliser des fonctions logiques, arithmétiques et symboliques
complexes.
Le neurone calcule la somme de ses entrées puis cette valeur passe à travers la
fonction d’activation pour produire sa sortie. La fonction d’activation (ou fonction
de seuillage) sert à introduire une non linéarité dans le fonctionnement du neurone.
11
En général, un réseau de neurone est composé d’une succession de couches dont
chacune prend ses entrées à partir des sorties de la couche précédente. Chaque
couche i est composée de Ni neurones, prenant leurs entrées sur les Ni−1 neurones
de la couche précédente. À chaque synapse est associé un poids synaptique, de
sorte que les Ni−1 sont multipliés par ce poids, puis additionnés par les neurones de
niveau i, ce qui est équivalent à multiplier le vecteur d’entrée par une matrice de
transformation. Mettre l’une derrière l’autre, les différentes couches d’un réseau de
neurones, reviendrait à mettre en cascade plusieurs matrices de transformation et
pourrait se ramener à une seule matrice, produit des autres, s’il n’y avait à chaque
couche, la fonction de sortie qui introduit une non linéarité à chaque étape. Ceci
montre l’importance du choix judicieux d’une bonne fonction de sortie : un réseau
de neurones dont les sorties seraient linéaires n’aurait aucun intérêt.
Plusieurs types de réseaux de neurones ont été reportés dans la littérature, no-
tamment le perceptron proposé par Rosenblatt [Rosenblatt, 1958], les cartes auto-
organisatrices de Kohonen [Kohonen, 1989], le modèle neural-gas [Martinez et Schul-
ten, 1991] et les réseaux basés sur le modèle de Hopfield [Hopfield, 1982], etc, [Jedra,
1999].
La logique floue s’appuie sur la théorie mathématique des sous ensembles flous.
Cette théorie, introduite par Zadeh, est une extension de la théorie des ensembles
classiques pour la prise en compte des sous ensembles définis de façon imprécise.
C’est une théorie formelle et mathématique dans le sens où Zadeh, en partant du
concept de fonction d’appartenance pour modéliser la définition d’un sous-ensemble
d’un univers donné, a élaboré un modèle complet de propriétés et de définitions
formelles. Il a aussi montré que la théorie des sous-ensembles flous se réduit ef-
fectivement à la théorie des sous-ensembles classiques dans le cas où les fonctions
d’appartenance considérées prennent des valeurs binaires (0, 1).
12
À l’inverse de la logique booléenne, la logique floue permet à une condition d’être
en un autre état que vrai ou faux. Il y a des degrés dans la vérification d’une condi-
tion. La logique floue tient compte de l’imprécision de la forme des connaissances et
propose un formalisme rigoureux afin d’inférer de nouvelles connaissances.
Ainsi, la notion d’un sous ensemble flou permet de considérer des classes d’objets,
dont les frontières ne sont pas clairement définies, par l’introduction d’une fonction
caractéristique (fonction d’appartenance des objets à la classe) prenant des valeurs
entre 0 et 1, contrairement aux ensemble "booléens" dont la fonction caractéristique
ne prend que deux valeurs possibles 0 et 1.
La capacité des sous ensembles flous à modéliser des propriétés graduelles, des
contraintes souples, des informations incomplètes, vagues, linguistiques, les rend
aptes à faciliter la résolution d’un grand nombre de problèmes tels que : la commande
floue, les systèmes à base de connaissances, le regroupement et la classification floue,
etc.
13
ayant ainsi reconnu une cellule "étrangère" va être stimulé à proliférer (en produi-
sant des clones de lui-même) et à se différencier en cellule permettant de garder en
mémoire l’antigène, ou de combattre les agressions. Dans le premier cas, il sera ca-
pable de réagir plus rapidement à une nouvelle attaque à l’antigène. Dans le second
cas, le combat contre les agressions est possible grâce à la production d’anticorps. Il
faut également noter que la diversité des récepteurs dans l’ensemble de la population
des lymphocytes est quant à elle produite par un mécanisme d’hyper-mutation des
cellules clonées [Forrest et al., 1993], [Hofmeyr et Forrest, 1999].
L’approche utilisée dans les algorithmes AIS est voisine de celle des algorithmes
évolutionnaires, mais a également été comparée à celle des réseaux de neurones. On
peut, dans le cadre de l’optimisation difficile, considérer les AIS comme une forme
d’algorithme évolutionnaire présentant des opérateurs particuliers. Pour opérer la
sélection, on se fonde par exemple sur une mesure d’affinité entre le récepteur d’un
lymphocyte et un antigène ; la mutation s’opère quant à elle via un opérateur d’hy-
permutation directement issu de la métaphore.
14
allons décrire par la suite. La structure générale d’un AE est donnée par le pseudo
code (7).
15
Dans leur version canonique, les AG présentent des limites qui conduisent le plus
souvent à des problèmes de convergences lente ou prématurée. Pour pallier à ces
inconvénients, des améliorations ont été apportées : e.g, codage, opérateurs bio-
logiques, stratégie élitiste, etc. les détails de fonctionnement de ces algorithmes
peuvent être trouvés dans plusieurs références principalement : [El Imrani, 2000],
[Michalewicz, 1996].
16
b. recombiner les parents pour former un unique individu,
c. muter l’individu ainsi crée,
3. sélectionner les µ meilleurs individus.
17
Notons que l’environnement dans lequel évolue le système de classifieurs peut
changer au cours de l’évolution. Le système s’adapte alors remettant éventuellement
en cause des règles. D’une manière générale, les systèmes classifieurs sont capables
d’induire de nouvelles règles par généralisation à partir d’exemples [Holland et al,
1986]. Les systèmes de classifieurs sont utilisés pour résoudre des problèmes réels en
biologie, en médecine, en sciences de l’ingénieur, etc.
Les formes d’intelligence collective sont très diverses selon les types de commu-
nauté et les membres qu’elles réunissent. Les systèmes collectifs sont en effet plus ou
moins sophistiqués. Les sociétés humaines en particulier n’obéissent pas à des règles
aussi mécaniques que d’autres systèmes naturels, par exemple du monde animal.
Pour des systèmes simples les principales caractéristiques sont :
L’intelligence collective est observée notamment chez les insectes sociaux (fourmis,
termites et abeilles) et les animaux en mouvement (oiseaux migrateurs, bancs de
poissons). En conséquence, plusieurs algorithmes basés sur le principe d’intelligence
collective ont été introduits : on peut citer les colonies de fourmis et les essaims
particulaires [Hoffmeyer, 1994], [Ramos et al., 2005].
Une colonie de fourmis, dans son ensemble, est un système complexe stable et
autorégulé capable de s’adapter très facilement aux variations environnementales
les plus imprévisibles, mais aussi de résoudre des problèmes, sans contrôle externe
ou mécanisme de coordination central, de manière totalement distribuée.
18
L’optimisation par colonies de fourmis (ACO "Ants Colony Optimisation") s’ins-
pire du comportement des fourmis lorsque celles-ci sont à la recherche de nourriture
[Deneubourg et al, 1983], [Deneubourg et Goss, 1989], [Goss et al, 1990]. Il a ainsi
été démontré qu’en plaçant une source de nourriture reliée au nid par une passerelle,
formée d’une branche courte et d’une branche longue, les fourmis choisissaient toutes
le chemin le plus court après un certain laps de temps [Beckers et al, 1992]. En effet,
chaque fourmi se dirige en tenant compte des traces de phéromone déposées par les
autres membres de la colonie qui la précèdent.
D’une façon générale, les algorithmes de colonies de fourmis sont considérés comme
des métaheuristiques à population, où chaque solution est représentée par une fourmi
se déplaçant dans l’espace de recherche. Les fourmis marquent les meilleures solu-
tions, et tiennent compte des marquages précédents pour optimiser leur recherche.
La différence qui existe entre les algorithmes de colonies de fourmis et les autres
métaheuristiques proches (telles que les essaims particulaires) réside dans leur aspect
constructif. En effet, dans le cas des problèmes combinatoires, il est possible que la
meilleure solution soit trouvée, alors même qu’aucune fourmi ne l’aura découverte
effectivement. Ainsi, dans l’exemple du problème du voyageur de commerce, il n’est
pas nécessaire qu’une fourmi parcoure effectivement le chemin le plus court, i.e.,
celui-ci peut être construit à partir des segments les plus renforcés des meilleures
solutions. Cependant, cette définition peut poser problème dans le cas des problèmes
à variables réelles, où aucune structure de voisinage n’existe.
19
Ainsi, grâce à des règles de déplacement très simples (dans l’espace de solutions),
les particules peuvent converger progressivement vers un optimum. Cette métaheu-
ristique semble cependant mieux fonctionner pour des espaces en variables continues.
La mise à jour des deux vecteurs vitesse et position, de chaque particule p dans
l’essaim, est donnée par les équations (1.1) et (1.2) :
vjp (t + 1) = τ (t)vjp (t) + µω1j (t)(Pji (t) − xpj (t)) + νω2j (t)(Pjg (t) − xpj (t)) (1.1)
20
le plus fréquent est le confinement d’intervalle. Supposons, par simplicité, que l’es-
pace de recherche soit [xmin , xmax ]D . Alors ce mécanisme stipule que si une coordon-
née xj , calculée selon les équations de mouvement, sort de l’intervalle [xmin , xmax ],on
lui attribue en fait la valeur du point frontière le plus proche. En pratique, celà re-
vient donc à remplacer la deuxième équation de mouvement (équation 1.2) par :
xj (t + 1) = min(max(xj (t) + vj (t + 1), xmin ), xmax ) (1.3)
Principales caractéristiques
– il est facle à programmer, quelques lignes de code suffisent dans n’importe quel
langage évolué,
– il est robuste (de mauvais choix de paramètres dégradent les performances,
mais n’empêchent pas d’obtenir une solution).
21
1.2.3.5. Les algorithmes culturels (Cultural Algorithms CA)
a. Principes de base
Ces algorithmes agissent donc sur deux espaces : l’espace de population qui
contient un ensemble d’individus qui évoluent grâce à un modèle évolutif, et l’espace
de connaissances qui contient les informations et les connaissances, spécifiques au
problème à résoudre, utilisées pour guider et influencer l’évolution des individus des
populations au cours des générations. De ce fait, un protocole de communication est
indispensable pour établir une interaction entre ces deux espaces (figure 1.3).
Ce protocole a, en fait, une double mission, il détermine d’une part quels indi-
vidus de la population peuvent influencer l’espace de connaissances (fonction d’ac-
ceptance), et d’autre part quelles connaissances peuvent influencer l’évolution des
populations (fonction d’influence). Le pseudo code (4) représente la structure de
base d’un AC [Zhu et Reynolds, 1998].
Plusieurs versions d’algorithmes culturels ont été développées avec différentes im-
plémentations des deux espaces évolutifs. VGA (Version space guided Genetic Algo-
rithm) se sert d’un algorithme génétique comme modèle micro-évolutif et de "Version
22
algorithme 4 Structure de base d’un Algorithme Culturel
t←0
Initialiser la population P (t) ;
Initialiser l’espace de connaissances B(t) ;
Répéter
Evaluer P(t) ;
Ajuster (B(t), acceptance P(t)) ;
Evaluer (P(t), influence B(t)) ;
t ← t + 1;
Jusqu’à (condition d’arrêt valide) ;
23
1.3 Conclusion
Dans ce chapitre, nous avons présenté les différentes techniques de calcul "intel-
ligent". Ces méthodes s’avèrent utiles dans divers domaines de recherche : l’appren-
tissage, la classification, l’optimisation, etc. Un intérêt tout particulier est adressé
aux problèmes d’optimisation, qui constitue l’un des principaux objectifs de cette
étude.
Dans ce contexte, nous avons choisi de nous intéresser aux techniques de calcul
évolutif (Evolutionary Computation EC) en raison de leur efficacité dans le cadre
de l’optimisation globale. Ces techniques qui s’inspirent des métaphores biologiques
(Programmation Evolutive, Stratégie d’Evolution, Programmation Génétique, Algo-
rithmes Génétiques), de l’évolution culturelle des populations (Algorithmes Cultu-
rels), ou du comportement collectif (Colonies de Fourmis et Essaims particulaires),
etc., offrent la possibilité de trouver des solutions optimales en un temps de calcul
raisonnable.
En général, les techniques EC ont été conçues initialement, dans leur version de
base, pour traiter un certain type de problèmes. Par exemple, les AG canoniques
ont été proposés pour l’optimisation de fonctions, les algorithmes d’optimisation par
colonies de fourmis pour les problèmes de parcours de graphe, etc. En général, ces
méthodes ont prouvé leur efficacité à résoudre des problèmes analogues à ceux pour
lesquelles elles ont été conçues à l’origine.
24
Chapitre 2
Application de l’algorithme
d’optimisation par essaims
particulaires aux problèmes MSAP
et PAF
25
2.1 Introduction
La résolution d’un problème d’optimisation consiste à explorer un espace de
recherche afin de maximiser (ou minimiser) une fonction objectif. En effet, dans la vie
courante nous sommes fréquemment confrontés à des problèmes réels d’optimisation
plus ou moins complexes.
Des efforts ont été longtemps menés, séparément, pour résoudre ces deux types de
problèmes. Dans le domaine de l’optimisation continue, il existe un arsenal de mé-
thodes classiques, mais ces techniques se trouvent souvent limitées. Cette limitation
est due soit à l’absence de modèles analytiques, soit à l’inadéquation des techniques
de résolution. Dans le domaine de l’optimisation discrète, un grand nombre d’heuris-
tiques, qui produisent des solutions proches de l’optimum, ont été développées, mais
la plupart d’entre elles ont été conçues spécifiquement pour un problème donné.
26
2.2 Commande en vitesse des machines synchrones
à aimant permanent (MSAP)
Les machines synchrones à aimant permanent (MSAP) sont de grand intérêt,
particulièrement dans les applications industrielles de faible et moyenne puissance,
puisqu’elles possèdent de bonnes caractéristiques telles que la compacité de la di-
mension, bons rapports couple/poids et couple/inertie et l’absence des pertes dans
le rotor [Slemon, 1994]. Cependant, la performance de MSAP est très sensible aux
variations de paramètres et aux perturbations externes de charge dans le système.
Dans les sections suivantes nous décrivons la modélisation des MSAP, nous pré-
sentons les résultats de simulation relatifs à l’utilisation d’un PI basé sur les essaims
particulaires (PIPSO) [Benameur et al, 2007] et nous comparons enfin les résultats
avec ceux obtenus par l’utilisation des algorithmes génétiques (PIGA) [Loukdache
et al, 2007].
θr représente la position du rotor, ωr est la vitesse actuelle, i∗a , i∗b , i∗c , sont les
courants de phase de référence et ew désigne l’erreur en vitesse. ew est la différence
entre la vitesse de référence ωr∗ et la vitesse actuelle ωr . Utilisant l’erreur en vitesse
ew , le contrôleur de vitesse génère un courant appelé courant de référence ou courant
de contrôle I ∗ .
27
Fig. 2.1 – Schéma de la commande en vitesse de MSAP
28
Les équations de tension au niveau du stator de la MSAP sous forme matricielle
sont données par l’équation (2.1).
Va Rs 0 0 ia Ls 0 0 ia ea
Vb = 0 Rs 0 ib 0 Ls 0 d ib + eb (2.1)
dt
Vc 0 0 Rs ic 0 0 Ls ic ec
Les équations d’état associées à l’équation (3.1) peuvent être écrites selon la formule
(2.2) :
· ¸ · ¸−1 ½· ¸· ¸ · ¸ · ¸¾
d ia Ls 0 0 −Rs 0 0 ia ea Va
ib = 0 Ls 0 0 −Rs 0 ib − eb + Vb (2.2)
dt ic 0 0 Ls 0 0 −Rs ic ec Vc
La vitesse du rotor et le couple électrique Te peuvent être formulés selon les équations
(2.3) et (2.4) : µ µ ¶ ¶
d p 2
ωr = Te − TL − B ωr /J (2.3)
dt 2 p
Te = KI ∗ (2.4)
−3p
Où K = λf
et λf est le flux dû à l’aimant permanent du rotor. L’équation du
4
contrôleur de courant de bande d’hystérésis est donnée par l’équation (2.5).
(
1 si i∗x − ix ≤ 0.5hrb
hx = (2.5)
0 si i∗x − ix ≥ −0.5hrb
Où, x représente a, b, c respectivement. hx désigne la fonction du contrôleur de
courant à bande d’hystérésis ha , hb , hc . hrb est le rang du contrôleur de courant à
bande d’hystérésis. En utilisant la fonction hx , l’équation (2.2) peut être formulée
de la façon donnée en équation (2.6) :
½ i h ia i h ea i · (2ha −h3 b −hc ) ¸ ¾
d h ia i h Ls 0 0 i−1 h −Rs 0 0
ib = 00 L0s L0 0 −Rs 0 ib − eeb + (−h −h3 +2h ) [vdc ]
(−ha +2hb −hc )
dt ic s 0 0 −Rs ic c a
3
b c
(2.6)
29
Fig. 2.3 – Contrôleur PI basé sur PSO pour la commande de MSAP
La figure (2.3) montre que le bloc (PSO) reçoit l’erreur en vitesse eω et fournit les
paramètres optimaux (Kp , Ki ) au bloc suivant PI. Ce bloc exploite ces paramètres
pour générer les courants de référence optimaux iabcr . Une boucle de courants, com-
posée d’un onduleur triphasé, produit ensuite les courants optimaux iabc qui vont
être injectés dans le bloc de la machine MSAP pour qu’elle puisse atteindre la vitesse
ω ∗ requise.
– Taille de l’essaim : la première étape d’un algorithme PSO est de créer l’essaim
de particules initial. La taille de l’essaim utilisée est de 50. La position et la
vitesse de chaque particule sont représentées par des valeurs réelles ;
– Intervalle de variables : l’algorithme PSO est utilisé pour chercher les valeurs
des gains du Kp et Ki contrôleur PI. Par conséquent, chaque particule aura
deux positions associées à ces deux gains. Chaque position doit appartenir à
un intervalle de recherche spécifique. Pour cette application, le premier para-
mètre (Kp ) peut varier dans l’intervalle [50, 100], alors que les valeurs permises
de (Kp ) appartiennent à l’intervalle [1, 10] ;
30
2.2.3 Résultats de simulation
Dans cette section, les résultats de simulation relatifs au contrôleur proposé
PIPSO pour la commande en vitesse d’une machine synchrone à aimant perma-
nent seront présentés et comparés avec ceux obtenus par l’utilisation du contrôleur
conventionnel PI et des algorithmes génétiques (PIGA) [Loukdache et al, 2007].
Les paramètres, de la MSAP étudiée dans cette application, sont les suivants :
– Inductance Ld = Lq = 8.5e−3 H ;
– Inertie = 0.8e−3 kg · m2 ;
L’objectif principal de cette application étant de fournir comme entrée une vitesse
de référence que la MSAP doit asservir. Pour cela, deux cas d’exemple sont étudiés.
Dans le premier cas, la vitesse de référence est définie par un échelon qui varie entre
200 et 700 rd/s (figure 2.4), le couple de charge mécanique varie entre 0 et 6 N.m
(figure 2.5). Pour le deuxième cas, la vitesse de référence est représentée par séquence
répétitive de trapézoïdes (figure 2.6), le couple de charge mécanique étant maintenu
constant durant le temps de simulation (Tm = 4 N.m) (figure 2.7).
31
Fig. 2.6 – Vitesse de référence
32
(a)
(b)
(c)
33
(a)
(b)
(c)
34
tout le temps de simulation. Dans la figure (2.9(b)), les oscillations sont presque atté-
nuées à l’instant t ≈ 0.221s utilisant le contrôleur PIGA, tandis qu’avec la stratégie
de commande PIPSO, ces oscillations se réduisent à t ≈ 0.218s (figure 2.9(c)). Dans
ce cas, le rapport du temps de réponse est donné par : P IGA/P IP SO = 101.4%.
La figure (2.10) représente les réponses en vitesse relatives aux trois stratégies de
commande utilisées.
Comme illustré dans la figure (2.10), la stratégie de commande par essaims par-
ticulaires PIPSO est plus appropriée que les autres stratégies (PI Conventionnel
et PIGA), dans les différentes phases de la commande de la MSAP, en termes de
stabilité et de temps de réponse requis.
De ce fait, le contrôleur basé sur les essaims particulaires est proposé et comparé
avec celui basé sur les algorithmes génétiques. Selon les résultats de simulation ob-
tenus, il est clair que la stratégie PIPSO fournie de meilleures réponses en vitesse et
de précision que les autres stratégies.
35
(a)
(b)
(c)
36
(a)
(b)
(c)
37
2.3 Problème d’affectation de fréquences (PAF)
La gestion efficace, du spectre de fréquences disponibles, est d’une importance
capitale pour les opérateurs des systèmes de téléphonie cellulaire. Le coût d’exploi-
tation du réseau et par conséquent la marge de profit dépendent en grande partie,
de la capacité à réutiliser de façon optimale les canaux.
2.3.1 Problématique
Le problème d’allocation de fréquences (FS-FAP) est classé dans la catégorie des
problèmes NP-Complets [Kunz, 1991], [Mathar et Mattfeldt, 1993]. Ce problème
peut être modélisé en un problème d’optimisation ayant la forme suivante : étant
donné une bande de fréquence [fmin , fmax ] subdivisée en un ensemble m de canaux
(de même largeur de bande ∆) numérotés de 1 à un nombre maximum m donné, où
m = (fmax − fmin )/∆ et un ensemble de cellules auxquelles on doit attribuer des fré-
quences, il s’agit de trouver une affectation qui satisfait un ensemble de contraintes et
qui minimise le niveau global d’interférence des affectations de fréquences proposées.
L’allocation de canaux, aux domaines cellulaires dans un réseau radio mobile, est
susceptible d’engendrer des interférences radio de sources internes. Ces interférences
apparaissent entre deux canaux proches d’un point de vu spectral dans le domaine
fréquentiel et émettant à partir d’émetteurs géographiquement proches. Les types
d’interférences internes considérées dans le problème d’affectation de fréquences sont
les suivantes :
38
– Interférence co-cellule : représente l’interférence entre deux canaux identiques
alloués à la même cellule.
Ces interférences peuvent être représentées par une matrice appelée matrice de
compatibilités électromagnétiques C de taille n × n, où n est le nombre de cellules
dans un réseau. Les éléments cij de la matrice indiquent la contrainte de séparation
spectrale des canaux alloués aux cellules i et j. Les éléments diagonaux cii de la
matrice de la compatibilité représentent les interférences co-cellules et les éléments
non diagonaux cij représentent soit les interférences co-canal soit les interférences
de canaux adjacents.
39
Le problème FS-FAP est décrit par le triplet (X, R, C), où X est le système cel-
lulaire, R est le vecteur de demande et C la matrice de compatibilité. Supposons
que N = 1, 2, . . . , m représente l’ensemble de canaux disponibles et Hi un sous en-
semble de N assigné à la cellule xi . L’objectif principal de FS-FAP est d’identifier la
meilleure affectation H = H1 , H2 , . . . , Hn satisfaisant les trois conditions suivantes :
|Hi | = ri , ∀1 ≤ i ≤ n (2.9)
0 0
|h − h | ≥ cij , ∀h ∈ Hi , h ∈ Hj , ∀1 ≤ i, j ≤ n, i 6= j (2.10)
0 0 0
|h − h | ≥ cii , ∀h, h ∈ Hi , ∀1 ≤ i ≤ n, h 6= h (2.11)
Où |Hi | désigne le nombre de canaux présents dans l’ensemble Hi .
où : (
0 si |a − b| ≥ cij
²(i, a, j, b) = (2.13)
1 sinon
et (
1 si le canal a est assigné à la cellule i,
p(i, a) = (2.14)
0 sinon
²(i, a, j, b) est égal à 1 si l’assignation du canal a à la ième celule et le canal b à la
j ème cellule viole les contraintes de compatibilité électromagnétique.
PSO a été à l’origine conçu pour traiter des problèmes dont l’espace de recherche
est réel multidimensionnel. Pour pouvoir appliquer PSO à la résolution de FS-FAP,
le modèle utilisé doit être adapté à ce type de représentation de solution (c-à-d. la
position d’une particule est maintenant une séquance ordonnée de nombres entiers).
40
Le codage utilisé nécessite la redéfinition des éléments (position et vitesse) et des
opérations (multiplication externe d’un coefficient par une vitesse, la somme de
vitesses et la somme d’une vitesse et une position) des équations (1.1) et (1.2) du
chapitre 1. En plus, il est nécessaire de déterminer comment la population initiale
doit être choisie et de définir les critères d’arrêt les plus adéquats.
X1 = (A1 , B1 , C2 , C1 , B2 , C4 , A2 , C3 )
(C1 /2) → (A1 , C1 , C2 , B1 , B2 , C4 , A2 , C3 )
(B2 /3) → (A1 , C1 , B2 , B1 , C2 , C4 , A2 , C3 )
(C2 /4) → (A1 , C1 , B2 , C2 , B1 , C4 , A2 , C3 )
(A2 /5) → (A1 , C1 , B2 , C2 , A2 , C4 , B1 , C3 )
(B1 /7) → (A1 , C1 , B2 , C2 , A2 , C4 , B1 , C3 ) = X2
41
vitesse résultante de la multiplication est donc [(B2 /3), (A2 /5), (B1 /7)], qui, comme
précédemment indiqué, représente une liste de mouvements qu’on va appliquer à un
point.
42
Fig. 2.12 – Vecteurs caractéristiques des problèmes étudiés
Les résultats de simulation obtenus pour quelques instances des problèmes spé-
cifiés ci-dessus sont présentés. Il faut noter que les paramètres de l’algorithme sont
donnés par la taille de population et le nombre maximum de générations.
Problème #1
43
Problème #2
Problème #3
Ce problème est plus compliqué que les autres instances en termes du nombre
total de demande en fréquences (= 481 canaux requis). En plus, les contraintes co-
cellule, données par les éléments diagonaux de la matrice, sont peu élevées (=5).
Le nombre d’individus utilisé dans ce cas est fixé à 40 et le nombre maximum de
générations égal à 30. Le tableau (2.4) présente les canaux affectés à chacune des 21
44
cellules. Les fréquences allouées à chaque cellule valident toutes les contraintes de
compatibilités électromagnétiques.
On peut constater que la 9ème cellule (tableau 2.4), caractérisée par le plus grand
nombre de demande en fréquences (=77), exploite l’ensemble du spectre disponible
sans violer les contraintes de compatibilités. En effet, la complexité de ce problème
réside dans le fait que pour la neuvième cellule, il existe une solution unique qui évite
toute violation de contraintes de type co-cellule, alors que le reste des contraintes
doivent être validées par les autres cellules.
45
Problème #6
Pour ce problème, Le nombre de cellules est 21, le spectre disponible est [0...220],
le nombre total de demande en canaux est 470. L’algorithme DPSO est appliqué à
une population de 60 individus évoluant durant 30 générations. La solution finale
obtenue à la convergence de DPSO est présentée dans le tableau (2.5).
46
Problème #8
47
Pour pouvoir comparer les performances des techniques employées, deux critères
de performances sont utilisés. Ces critères incluent le nombre d’itérations requis pour
la convergence ainsi que le taux de convergence à la solution optimale. Le tableau
(2.7) illustre la moyenne de ces deux critères obtenue à la suite de 100 exécutions
des différentes techniques.
Tab. 2.7 – Comparaison des performances des différentes techniques pour les 8
problèmes
Méthodes Problème # 1 2 3 4 5 6 7 8
DPSO # d’itérations 1 5 30 40 55 60 50 60
Taux de 100 100 100 100 100 100 100 100
Convergence%
[Cheng et # d’itérations 1 5 3 1 5 8.6 4 5
al, 2005] Taux de 100 100 100 100 100 100 100 100
Convergence%
[Alami et # d’itérations 1 2 2 2 2.25 2.75 3.52 4
El Imrani, Taux de 100 100 100 100 100 100 100 100
2008] Convergence%
[Funabiki # d’itérations 212 294 147.8 117.5 100.3 234.8 85.6 305.6
et Takefuji, Taux de 100 9 93 100 100 79 100 24
1992] Convergence%
[Kim et al, # d’itérations - 279.9 67.4 64.2 126.8 62.4 127.7 151.9
1997] Taux de - 62 99 100 98 97 99 52
Convergence%
Le tableau (2.7) montre que l’implémentation de l’algorithme DPSO sur les dif-
férentes instances du problème étudié est exploitable. En effet, l’algorithme de base
DPSO converge, à chaque exécution, vers une solution pour les différentes instances
du problème.
48
2.4 Conclusion
L’objectif principal de ce chapitre étant d’appliquer l’algorithme d’optimisation
par essaims particulaires à des problèmes d’optimisation réels, à savoir un problème
continu : la commande d’une machine synchrone à aimant permanent (MSAP), et
un autre discret : le problème d’affectation de fréquences dans les réseaux cellulaires.
D’autre part, l’algorithme PSO a été utilisé pour la résolution de problème d’al-
location de fréquences, qui est classé dans la catégorie des problèmes NP-Complets.
Du fait de la nature discrète de FS-FAP, les paramètres du modèle PSO doivent
être adapter à la résolution de ce problème. Les résultats de simulation montrent
que l’algorithme DPSO a donné de meilleurs résultats pour les différentes instances
du problème étudié (en termes du nombre de taux de convergence qui est égal à
100% pour toutes les instances et en terme de temps de calcul).
Nous pouvons conclure que l’algorithme PSO est très utile dans l’optimisation
globale de problèmes continu ou discret plus ou moins compliqués. Ces performances
peuvent être expliquées par la nature stochastique de cette méthode et par l’équilibre
qu’elle assure entre exploration/exploitation de l’espace de recherche.
49
Deuxième partie
50
Résumé
Dans la plupart des cas réels, on est confronté à deux types de problèmes dif-
ficiles : les problèmes d’optimisation multimodale, caractérisés par des domaines
multimodaux, la résolution de ces problèmes requière la recherche de toutes les so-
lutions, aussi bien locales que globales, et les problèmes multiobjectifs, caractérisés
par la présence simultanée de plusieurs objectifs, souvent contradictoires. Dans ce
contexte, nous avons conçu de nouvelles approches basées sur PSO et la classification
floue pour résoudre ces deux types de problèmes d’optimisation difficile.
51
Chapitre 3
52
3.1 Introduction
Dans la pratique, on est souvent confronté à des problèmes où on désire identifier
tous les optima. Les problèmes réels, généralement caractérisés par des domaines
multimodaux, requièrent, de ce fait, la recherche de toutes les solutions, aussi bien
locales que globales.
L’algorithme PSO standard ne permet de localiser qu’un seul optimum dans l’es-
pace de recherche [Kennedy et Eberhart, 1995]. Afin d’adapter l’algorithme PSO à
la résolution de ce genre de problèmes, nous avons conçu un nouveau modèle MPSO
(Multipopulation Particle Swarms Optimization) qui permet de créer et de main-
tenir des sous-populations d’essaims, de sorte que chaque sous-essaim effectue une
recherche locale dans son propre espace de recherche afin de localiser la meilleure
position globale qui représente un optimum.
53
3.2 Problématique de l’optimisation multimodale
Lorsqu’une fonction admet plusieurs optima locaux, elle est dite multimodale
(elle est unimodale dans le cas contraire). Le plus petit (respectivement le plus
grand) optimum local d’une fonction multimodale, est appelé optimum global.
La figure (3.1) présente, à titre d’exemple, une distribution possible des optima
d’une fonction unidimensionnelle et multimodale, ainsi que certains points particu-
liers, tels que les points d’inflexion et de discontinuité, pouvant poser des difficultés
aux méthodes de résolution.
Lorsqu’un tel problème est traité par des techniques d’optimisation (chapitre
1), l’un des optima sera découvert. Cependant, dans la pratique, on est souvent
confronté à des problèmes où on désire identifier tous les optima. Les problèmes
réels, généralement caractérisés par des domaines multimodaux, requièrent, de ce
fait, la recherche de toutes les solutions, aussi bien locales que globales. Dans ce
contexte, plusieurs techniques ont été développées, soit pour améliorer les techniques
de base en intégrant des procédures de recherche multimodale, soit en concevant de
nouvelles heuristiques.
54
approximativement par [Beasley et al, 1993] :
p
X 1
p ≈ p(γ + logp) (3.1)
i=1
i
Par ailleurs, dans la pratique, les optima n’ont pas la même chance d’être trouvés,
de sorte que le nombre d’exécutions indépendantes est beaucoup plus élevé. D’autre
part, dès que le nombre d’optima devient important, cette méthode devient très
coûteuse en temps de calcul.
D’autres méthodes ont été développées utilisant d’autres concepts, telles que les
systèmes immunitaires artificiels [De Castro et Timmis, 2002] et les systèmes basés
sur des stratégies financières [Goldberg et Wang, 1997].
En principe, les techniques de niche utilisent deux stratégies. La première est basée
sur la modification de la structure de certaines régions de l’espace de recherche pour
prévenir la convergence de l’algorithme vers ces sections. Cette approche englobe les
techniques de surpeuplement, de remplissage ou de partage. La seconde approche
55
impose des contraintes géographiques à la population pour prévenir la prolifération
rapide d’individus très performants. Les modèles des ’îlots’ et de populations isolées
utilisent en général cette seconde stratégie [El Imrani, 2000].
Plusieurs méthodes de niche ont été reportées dans la littérature, incluant les
méthodes : de partage [Goldberg et Richardson, 1987] et de sa version améliorée [El
Imrani et al, 1999a], [El Imrani et al, 1999b], de niche séquentielle [Beasley et al,
1993], de niche dynamique [Miller et Shaw, 1996] ou de procédure d’éclaircissement
(clearing) [Petrowski, 1996], de surpeuplement (Crowding) [Mahfoud, 1994], [Qing
et al, 2008]. D’autres méthodes ont été développées utilisant d’autres concepts, telles
que les systèmes immunitaires artificiels [De Castro et Timmis, 2002] et les systèmes
basés sur des stratégies financières [Goldberg et Wang, 1997].
L’adaptation brute f (i) d’un individu i est réduite d’un facteur correspondant
approximativement au nombre d’éléments, qui lui sont similaires, qui représente son
compteur de niche. La fonction d’adaptation réajustée fsh (i) d’un individu i s’écrit
alors :
f (i)
fsh (i) = PN (3.2)
j=1 sh(d(i, j))
56
individus sont identiques et 0 si la distance d(i, j) est plus grande qu’un certain seuil
de dissimilarité [Säreni et Krähenbühl, 1998].
(
1 − ( d(i,j)
σs
)α si d(i, j) < σs
sh(d(i, j)) = (3.3)
0 autrement
La distance d(i, j) peut être caractérisée par une similarité métrique génotypique
(distance de Hamming) dans le cas binaire ou phénotypique (distance euclidienne
par exemple) reliée directement aux paramètres réels de l’espace de recherche. Deb
et Goldberg [Deb et Goldberg, 1989] montrent que l’utilisation de distance phéno-
typique donne des résultats légèrement meilleurs.
le nichage dynamique (Dynamic Niching) a été proposé par Miller et Shaw [Miller
et Shaw, 1996]. Elle consiste à faire précéder le partage d’une phase de regroupement
(Clustering), qui a pour rôle de rassembler et de classer les individus similaires à
l’intérieur de groupes (ou niches) représentant une même sous-population. Une fois
la séparation explicite des niches est effectuée, chaque individu se trouve affecté à
une sous-population donnée. Le partage est alors réalisé en prenant un facteur ni-
chage défini à partir des caractéristiques des sous-populations qui est égal au nombre
d’individus appartenant à la même sous-population.
57
Cette méthode consiste à réajuster la fonction objectif à l’aide d’une fonction
de pénalisation lorsque l’algorithme converge. L’algorithme est ensuite relancé en
écartant l’optimum trouvé avec une nouvelle fonction objectif.
Cependant, cette technique n’offre aucune garantie de détecter tous les optima de
la fonction objectif, puisque plusieurs sous-populations distinctes peuvent converger
vers le même optima. Cela impose le choix d’un nombre de sous-populations très
supérieur au nombre d’optima requis.
58
3.3.1.6. Méthode de surpeuplement (Crowding Method)
Cette méthode insère de nouveaux éléments dans la population en remplaçant
des éléments similaires. Dans sa version standard, une fraction seulement de la po-
pulation spécifiée par un pourcentage G se reproduit et meurt à chaque génération.
Dans ce schéma, un individu remplace l’individu le plus similaire à partir d’une
sous-population aléatoire de taille CF (Crowding factor). A cause des nombreuses
erreurs de remplacement, cette technique a montré ses limites, l’inconvénient majeur
est qu’elle retarde l’exploration de domaines qui ne sont pas proches (similaires) de
la distribution initiale. D’autre part, cette méthode ne permet pas de maintenir plus
de 2 niches [Mahfoud, 1992] et donc de découvrir plus de deux optima.
Cette méthode présente un avantage du fait qu’elle est caractérisée par une com-
plexité linéaire d’ordre N. Toutefois, elle souffre du problème de dérive génétique
due aux éventuelles erreurs de remplacement.
59
Le principe de cette technique repose sur différents concepts. D’une part, elle
intègre une procédure de classification floue afin d’identifier les différentes classes,
pouvant exister dans une population, correspondant à des niches. D’autre part,
elle utilise une stratégie de séparation spatiale dont l’objectif est de créer des sous
populations stables et de guider la recherche vers de multiples niveaux d’exploration
et d’exploitation de l’espace de recherche. Pour promouvoir une certaine diversité au
sein des sous populations, ce modèle implémente le concept de migration d’individus
entre sous populations voisines.
Quoique le modèle AGCoCF ait fourni des performances de recherche plus élevées
que le schéma de partage standard, aussi bien en terme de qualité des solutions
identifiées, que par sa capacité à localiser de nouvelles solutions, il présente toutefois
une complexité de l’ordre O(N 2 ), où N est le nombre d’individus de la population.
60
3.3.2 Les systèmes basés sur l’intelligence des essaims parti-
culaires (PSO)
Les méthodes de niche ont été étendues récemment pour pallier aux limitations
que présente la méthode de base PSO, dans le contexte d’optimisation multimodale.
De ce fait, plusieurs techniques ont été proposées dans la littérature.
61
différentes directions sera négatif, alors que deux vecteurs ayant la même direction
auront un produit scalaire positif.
Puisque la technique de base PSO exploite les meilleurs vecteurs de position locale
et du voisinage, le produit scalaire des deux vecteurs est donc calculé pour déterminer
si la particule va se diriger ou s’éloigner de la meilleure position. En outre, un rayon
de niche est calculé en cherchant la distance entre la meilleure position du voisinage
et la particule la plus proche, qui assure un produit scalaire négatif.
Dans la version VPSO, les niches sont séquentiellement optimisées une fois qu’elles
sont identifiées durant l’évolution du processus. Lorsque les niches ne sont pas sy-
métriques, par rapport au meilleur voisinage, des niches auxiliaires peuvent être
formées entre les niches déjà identifiées. De ce fait, et vue la nature des espaces de
recherche qui ne sont pas nécessairement symétriques, le nombre de niches, pouvant
être identifié, peut être supérieur au nombre de niches requis. Pour cela, une autre
version a été introduite pour pallier aux limites de VPSO.
Il est clair que le nombre de sous-essaims, qui vont effectuer la recherche des
solutions, dépend du nombre d’optima (globaux et locaux) de la fonction à optimiser.
Cependant, pour des problèmes réels, on ne dispose pas du nombre de solutions
optimales.
62
Le principe du modèle proposé par Mitchell et Forrest est le suivant : tous les
individus possèdent initialement une fitness égale à zéro. Un antigène et un ensemble
d’individus sont ensuite aléatoirement choisis. L’individu le plus similaire à l’antigène
remportera la compétition et sa fitness sera incrémentée [Smith et al, 1993]. L’effet
de cette technique est analogue à celui du partage dans le sens où les individus les
plus similaires devraient souvent partager le coût fourni par les antigènes qui leur
sont parfaitement similaires.
3.4 Synthèse
L’efficacité des méthodes de niche requiert souvent des connaissances a priori
du rayon de niche et de la disposition spatiale des optima. Ces limitations peuvent
influencer le nombre d’optima recherchés et dégrader la qualité des solutions dési-
rées. On peut par exemple, choisir un rayon de niche assez petit pour séparer les
niches, mais cela nécessite une taille de population très grande et peut conduire par
conséquent à définir un grand nombre de niches sans grande importance.
La section suivante, présente les principes de base du modèle proposé basé sur
l’algorithme d’optimisation par essaims particulaires et une méthode de classification
floue. Cette approche surmonte les problèmes que présentent les méthodes de niches.
En effet, elle ne requiert aucune information a priori sur l’espace de recherche.
63
3.5 Conception d’un nouveau modèle d’optimisa-
tion multimodale (MPSO)
3.5.1 Le principe du modèle
L’idée principale de ce modèle est d’encourager et maintenir la formation de
sous populations d’essaims, le modèle proposé intègre une technique de classification
floue permettant d’identifier les differentes sous populations. Ainsi, chaque classe
de particule (ou essaim) effectue une recherche locale dans son propre espace de
recherche et cherche à localiser les differents optima.
Le principe du modèle MPSO est basé sur une stratégie à trois-couches (figure
3.3) [Alami et al, 2009]. La première couche intègre un algorithme d’optimisation
par essaims particulaires de base. La sortie de ce niveau constitue l’entrée de la
deuxième couche (FC). Cette couche est basée sur un algorithme de classification
floue non supervisé, qui permet de partitionner la population en un ensemble de
(C) classes. Chaque classe identifiée correspond à un essaim (sous-population). La
dernière couche implémente le principe de la séparation spatiale pour créer les dif-
férents sous-essaims à partir des caractéristiques fournies par la couche FC, i.e.,
centre, rayon et cardinal de chaque classe identifiée. Une fois les sous essaims sont
crées, une stratégie de migration est appliquée afin de promouvoir un certain degré
de diversité au sein des essaims et d’améliorer la qualité des solutions trouvées. Les
sous-essaims ainsi engendrés vont co-évoluer en utilsant l’algorithme de base PSO.
64
Rp , de structure totalement inconnue a priori. Elle ne fait aucune hypothèse préa-
lable sur le nombre de classes à détecter et suppose que les données sont entièrement
non étiquetées.
Cette méthode est constituée de deux étapes [Bouroumi et al, 2000]. La pre-
mière étape est une procédure d’apprentissage flou qui explore les données de X,
moyennant une mesure de similarité inter-objets et un seuil associé Smin , en vue
d’y détecter la présence éventuelle de classes plus au moins séparées. Elle fournit,
en plus du nombre c de classes détectées dans X, une bonne estimation des proto-
types V = {v1 , v2 , . . . , vc } ⊂ Rc × Rp et de la matrice des degrés d’appartenance
U = {µ1 , µ2 , . . . , µc } ⊂ Rc × Rn . La seconde étape est une procédure d’optimisa-
tion qui applique l’algorithme des C-moyens flous, initialisé avec les résultats de la
première étape, notamment le nombre de classes c et la matrice des prototypes V.
Phase d’apprentissage
Cette procédure cherche à exploiter l’information, apportée par les vecteurs de
X, dans le but de détecter la présence éventuelle de groupements homogènes au sein
de X. Pour cela, elle commence par générer une première classe dont le prototype
(centre) est initialisé avec le premier vecteur objet analysé. Ensuite, les (n−1) autres
vecteurs objets sont séquentiellement examinés. Une nouvelle classe est automati-
quement créée chaque fois que l’objet traité présente un faible degré de similarité,
i.e., inférieur à un seuil donné Smin , par rapport aux différents centres de classes
déjà créées.
Pour mesurer la similarité entre deux vecteurs xi et xj de Rp , l’expression (3.4) est
utilisée : pPp
2
d(xi , xj ) k=1 kxik − xjk k
s(i, j) = 1 − √ =1− √ (3.4)
p p
où d(xi , xj ) est une mesure de distance Euclidienne, calculée à partir des valeurs
normalisées de xi et xj . Pour normaliser la K ème composante de chaque vecteur (1 ≤
k ≤ p), où p est la dimension de l’espace des objets (nombre total de paramètres),
la relation suivante a été utilisée :
xki − min(k)
xki → (3.5)
max(k) − min(k)
xki représente le K ème composante (valeur) du ième vecteur objet, max(k) et min(k)
désignent respectivement les valeurs maximale et minimale prises par cette compo-
sante sur l’ensemble des vecteurs de X.
d(xi , vj )
µij = 1 − √ (3.6)
p
65
Lors du processus d’apprentissage, l’équation (3.6) est effectivement utilisée à chaque
itération pour évaluer le degré d’appartenance de l’objet courant à chacune des c
classes existantes (avec c variable). La condition de création d’une nouvelle classe
peut alors s’exprimer sous la forme :
Lorsque la condition (3.7) n’est pas vérifiée, les C prototypes des classes précé-
demment créées sont actualisés selon la règle d’apprentissage donnée par l’équation
(3.8) :
µik
vi (k) = vi (k − 1) + [xk − vi (k − 1)] (3.8)
ηi (k)
où ηi (k) dénote le cardinal flou de la ième classe à l’itération k, soit :
k
X
ηi (k) = µij (3.9)
j=1
Il est clair que le choix du paramètre Smin joue un rôle essentiel dans le processus
d’apprentissage. Théoriquement, si à la limite Smin est très faible (≈ 0%), une seule
classe, formée des n objets de X, peut être obtenue (C = 1). Inversement, si Smin est
trop élevé (≈ 100%), chaque objet peut former une classe à part et on aura (C = n).
S1 = min{S(xi , xk )} (3.10a)
i6=k
S2 = max{S(xi , xk )} (3.10b)
i6=k
Pour valider les résultats de classification, plusieurs critères de validité ont été
testés. Ceux-ci incluent le coefficient de partition [Bezdek, 1981], l’indice de Xie et
de Beni [Xie et Beni, 1991], l’indice de Fukuyama et de Sugeno, l’indice de Bensaid
et le critère d’entropie [Bezdek, 1981]. Les résultats expérimentaux ont prouvé que,
dans cette étude, le critère de l’entropie (h) est l’index le plus fiable. Ce critère
66
dépend uniquement de la matrice des degrés d’appartenance U et est donné par la
formule (3.11) :
1 1 C
h(U ) = − Σ µij log(µij ) (3.11)
log(C) n j=1
Phase d’optimisation
67
Dans le modèle que nous avons proposé, l’objectif principal de cette couche est
d’induire une géographie locale dans l’essaim et de forcer une coopération locale au
sein de cette structure. Elle consiste en la formation de sous-essaims en utilisant les
résultats de la procédure de classification. À chaque cycle, un sous-essaim est formé
en utilisant le centre et le rayon de la classe correspondante.
68
SC
les itérations intermédiaires, S(t + 1) = i=1 Si (t) où C est le nombre de classes
déterminées.
Le pseudo code du modèle proposé est donné par l’algorithme 7 [Alami et al, 2009]
69
Pour pouvoir comparer les performances du modèle proposé à d’autres modèles,
trois critères sont utilisés. Ces critères incluent :
– Le rapport maximum de pics détectés (Maximum Peaks Ratio :
MPR) : détermine le nombre et la qualité des optima. Il est défini par la
somme des optima identifiés divisée par la somme des optima réels.
PC
f (i)
M P R = Pqi=1 (3.12)
k=1 f (k)
70
La fonction F1 admet 5 maxima uniformément espacés ayant une même valeur
1, la fonction F2 admet cinq pics de hauteurs différentes dans l’intervalle [0,1]. Les
pics sont localisés approximativement aux valeurs de x : 0.1, 0.3, 0.5, 0.7 et 0.9.
Les maxima sont respectivement 1.0, 0.917, 0.707, 0.459 et 0.250. La fonction F3 a
cinq pics de hauteurs identiques (= 1). La fonction F4 admet cinq pics de hauteurs
différentes dans l’intervalle [0, 1]. Les pics sont localisés approximativement aux
valeurs de x : 0.08, 0.247, 0.451, 0.681 et 0.934. Les maxima sont respectivement
1.0, 0.948, 0.770, 0.503 et 0.250. F5 a deux maxima globaux de hauteurs 1, aussi
bien qu’un maximum local localisé en x = 3 et dont la valeur est 0.64. La fonction
modifiée d’Himmelblau F6 est une fonction bidimensionnelle, les variables (x et y)
sont définies dans l’intervalle [-6,6]. La fonction modifiée de Himmelblau F6 contient
quatre pics de hauteurs identiques (= 1) localisés approximativement en (3.58, -
1.86), (3.0, 2.0), (- 2.815, -3.125) et (- 3.78, 3.28). F7 (Shekel’s Foxholes) est une
fonction bidimensionnelle ayant 25 pics, où les variables (x et y) [- 65.536, 65.536].
Les maxima de F7 sont situés en (x, y) dont les coordonnées sont (16i, 16j) où i et
j représentent tous les nombres entiers compris dans [- 2, 2], les 25 optima ont tous
différentes valeurs, s’étendant de 476.191 à 499.002, l’optimum global est localisé en
(- 32, 32). Enfin, la fonction de Rastrigin F8 , où −5.12 ≤ xi ≤ 5.12, i = 1, . . . , 30, a
un seul minimum global ((0, 0) pour une dimension= 2), et plusieurs minima locaux.
F8 avec des dimensions (de 2 à 6) est utilisée pour tester la capacité de l’approche
proposée.
Fonction F1
Le tableau (3.2) montre l’évolution des optima détectés, il faut noter que les
centres des classes sont définis par leurs coordonnés et leurs fitness, C représente le
nombre de classes identifiées.
71
Tab. 3.1 – Evolution de la valeur d’entropie et du nombre de classes pour les diffé-
rentes valeurs de similarité
Smin (%) C h
31.6 2 0.417
40.6 3 0.392
50.6 5 4.11E-02
57.6 6 6.67E-02
60.6 7 4.14E-02
64.6 8 6.03E-02
67.6 10 0.138
Tab. 3.2 – Evolution de la valeur d’entropie, des centres et des rayons de classes de
la fonction F1 .
1er Cycle(C = 5) 2ème Cycle(C = 5) 3ème Cycle(C = 5) 4ème Cycle(C = 5)
Centre Rayon Centre Rayon Centre Rayon Centre Rayon
(0.097, 0.917) 0.037 (0.101,0.985) 0.009 (0.1, 0.999) 0.0016 (0.1,1) 0
(0.301,0.961) 0.038 (0.299,0.989) 0.016 (0.3, 0.998) 0.004 (0.3,1) 0
(0.501,0.982) 0.010 (0.500,0.999) 0.002 (0.5,1) 0 (0.5,1) 0
(0.697, 0.955) 0.073 (0.699, 0.94) 0.019 (0.7, 0.997) 0.005 (0.7,1) 0
(0.899,0.953) 0.027 (0.899,0.992) 0.006 (0.9,0.999) 0.003 (0.9,1) 0
h 0.041 0.010 0.002 3E-06
MRP 0.954 0.981 0.999 1
L’analyse de ces résultats montre que les cinq classes détectées, au premier cycle,
ne sont pas chevauchée et chaque classe contient un seul optimum. Même si les cinq
optima ont été trouvés au premier cycle, les cycles suivants du processus permettent
un ajustement local fin de ces optima, cet effet tend évidemment à améliorer la
qualité des solutions. Ceci est confirmé par la valeur de MRP, qui vaut 0.954 au
premier cycle et 1 au dernier.
La figure (3.4) représente la distribution des particules dans l’espace de recherche
durant chaque cycle du processus d’évolution.
Fonction F2
Les résultats de simulation obtenus sont présentés dans le tableau (3.3).
Tab. 3.3 – Evolution de la valeur d’entropie, des centres et des rayons de classes de
la fonction F2 .
1er Cycle(C = 6) 2ème Cycle(C = 5) 3ème Cycle(C = 5) 4ème Cycle(C = 5)
Centre Rayon Centre Rayon Centre Rayon Centre Rayon
(0.144,0.122) 0.009 (0.104,0.939) 0.028 (0.101,0.988) 0.008 (0.1,1) 0
(0.298,0.889) 0.019 (0.298,0.913) 0.006 (0.299,0.916) 0.002 (0.3,0.917) 0
(0.499,0.678) 0.054 (0.499,0.691) 0.014 (0.499,0.707) 0.003 (0.5,0.707) 0
(0.698,0.440) 0.031 (0.698,0.457) 0.006 (0.698,0.459) 0.002 (0.7,0.459) 0
(0.962,0.942) 0.067 (0.897,0.251) 0.002 (0.9,0.25) 0 (0.9,0.250) 0
(0.897,0.241) 0.013 - - -
h 0.076 0.014 2.7 E-06 1E-05
L’analyse des classes et des rayons montre que la cinquième et la dernière classe
sont chevauchées, et toutes les deux contient le même optimum au point x = 0.9.
72
Fig. 3.4 – Placement des individus dans l’espace de recherche durant l’évolution de
MPSO pour la fonction F1
Ces deux classes se recouvrent et forment une classe unique à l’itération suivante. A
ce stade, même si les cinq optima sont déjà identifiés, la valeur d’entropie continue
à diminuer, l’algorithme converge au quatrième cycle (h = 1E − 05). Dans ce cas,
toutes les particules de même sous-essaim sont identiques et ont la même fitness
(figure 3.5), ce qui correspond à un rayon de classe égal à zéro.
Fonction F3
73
Fig. 3.5 – Distribution des individus dans l’espace de recherche durant l’évolution
de MPSO pour la fonction F2
Fig. 3.6 – Placement des individus dans l’espace de recherche durant l’évolution de
MPSO pour la fonction F3
74
Fonction F4
Le processus converge à la quatrième itération quand la valeur d’entropie est
égale à 9.82E − 04. La figure (3.7) représente la distribution des particules dans
l’espace de recherche durant l’évolution de MPSO pour la fonction F4 .
Fig. 3.7 – Placement des individus dans l’espace de recherche durant l’évolution de
MPSO pour la fonction F4
Fonction F5
La figure (3.8) représente la distribution des particules dans l’espace de recherche
durant les différentes itérations. A la première itération, la valeur d’entropie est
proche de 0.13E − 01, quand l’algorithme converge, l’entropie prend une valeur plus
petite que 2E − 04.
75
Fig. 3.8 – Placement des individus dans l’espace de recherche durant l’évolution de
MPSO pour la fonction F5
Fonction d’Himmelblau F6
Les résultats obtenus sont récapitulés dans le tableau (3.4). On peut noter que
le centre de chaque classe détectée est décrit par ses coordonnées (x, y).
L’analyse de ces résultats montre que, dans la première itération, les quatre classes
identifiées ne se chevauchent pas et que la valeur de l’entropie est relativement
grande. Dans la dernière itération, les optima identifiés sont proche des optima
réel (entropie = 1E − 04). Ceci est confirmé également en suivant l’évolution de la
distribution des particules dans l’espace de recherche au cours des différents cycles
(figure 3.9).
Tab. 3.4 – Evolution de la valeur d’entropie, des centres et des rayons de classes de
la fonction F6 .
1er Cycle(C = 6) 2ème Cycle(C = 5) 3ème Cycle(C = 5) 4ème Cycle(C = 5)
Centre Rayon Centre Rayon Centre Rayon Centre Rayon
(2.50,2.49) (2.25,1.62) (3.03, 1.95) (0.59,0.07) (3.02,1.99) (0.16, 0.01) (3.0, 2.00) (0.04, 0)
(3.52,-1.91) (2.28,0.56) (3.64,-1.84) (0.31,0.01) (3.58,-1.80) (0.08, 0.00) (3.58, -1.80) (0, 0)
(-3.42,-2.53) (3.33,0.69) (-3.77,-3.11) (0.62,0.07) (-3.78,-3.19) (0.12,0.01) (-3.77,-3.28) (0, 0)
(-2.39,3.00) (1.98,2.67) (-2.79, 3.17) (0.22,1.05) (-2.81,3.12) (0.02, 0.23) (-2.8, 3.10) (0, 0.02)
h 0.387 0.05 6.2E-03 1E-04
76
Fig. 3.9 – Placement des individus au cours les différents cycles du processus d’évo-
lution pour la fonction F6
Fonction de Shekel F7
Le tableau (3.5) représente les résultats obtenus durant l’évolution du processus.
L’analyse de ces résultats montre que 38 classes ont été détectées à la première
itération, ces classes sont chevauchées et la valeur de l’entropie est relativement
élevée. Au cours de la deuxième itération, 35 classes sont détectées et l’entropie
continue à décroître. A partir de cinquième itération, les 25 optima sont localisés.
L’évolution des populations, durant chaque cycle du processus, est illustrée par
la figure (3.10). Au premier cycle, les particules sont aléatoirement distribuées dans
l’espace de recherche, durant l’évolution du processus, les particules du sous-essaim
sont progressivement groupées autour de plus grand pic de la fonction F7 (figure
3.11).
77
Fig. 3.10 – Placement des individus au cours les différents cycles du processus
d’évolution pour la fonction F7
Fig. 3.11 – Représentation 3-D de la distribution finale des individus dans l’espace
de recherche de la fonction F7
78
3.6.3 Comparaisons avec d’autres techniques
Dans cette section, la comparaison entre les résultats obtenus par le modèle
proposé MPSO, le modèle MCAFC et les techniques de partage, Nichage séquentiel
SNGA (Sequential Niched Genetic Algorithm) [Beasley et al, 1993], SPSO (Species
Particle Swarm Optimization) [Li, 2004] , Niche PSO [Brits et al 2007], nbestPSO
[Brits et al 2002a] et SCGA (Species Conserving Genetic Algorithm) [Li et al, 2002]
est présentée.
Le tableau (3.6) montre que la technique de partage est capable d’identifier tous
les optima de F4 à chaque exécution. Cependant, pour quelques exécutions, elle
n’arrive pas à localiser toutes les solutions possibles de F5 , F6 et F7 . Par contre, la
moyenne du critère NPM indique que les modèles MPSO et MCAFC ont pu localiser
tous les optima des 4 fonctions tests pour les différentes exécutions.
De plus, la valeur moyenne du critère MPR relative aux trois techniques, indique
que la qualité des optima identifiés par les approches PMSO et MCAFC est meilleure
que celle obtenue par la technique de partage.
Il est évident que les deux approches PMSO et MCAFC convergent plus rapide que
la technique de partage pour toutes les fonctions. On peut remarquer que MCAFC
converge légèrement plus rapide que PMSO pour les fonctions F5 , F6 et F7 .
79
3.6.3.2. Comparaison entre les modèles MPSO, MCAFC, SNGA et SCGA
Pour permettre la comparaison entre le modèle proposé, MCAFC, SNGA [Beas-
ley et al, 1993] et SCGA [Li et al, 2002], cette section présente les résultats obtenus
relatifs aux fonctions F1 et F6 . Le tableau (3.7) présente la valeur moyenne, calculée
après 30 exécutions, du critère NFE et le taux de réussite des quatre méthodes à
identifier tous les optima.
Comme montré dans le tableau (3.7), les deux techniques MCAFC et MPSO sont
capables d’identifier toutes les solutions optimales des fonctions F1 et F6 avec un
taux de 100% à chaque exécution. Toutefois, le nombre d’évaluations, requis pour la
convergence du modèle MCAFC est inférieur à celui requis par la technique MPSO.
Selon le tableau (3.8), nous constatons que le modèle proposé et NichePSO sont
capables d’identifier toutes les solutions des fonctions F1 ,F2 et F6 avec un taux
de 100% pour toutes les exécutions. de plus, le nombre d’évaluations, requis pour
la convergence, du modèle MPSO est inférieur à celui requis par les techniques
NichePSO et nbestPSO.
80
La performance du modèle proposé est également confirmée par les résultats ob-
tenus pour la fonction F8 (avec une dimension variante entre 2 et 6).
D’après le tableau (3.9), l’efficacité de la nouvelle approche MPSO est validée par
la valeur moyenne du nombre d’évaluations nécessaire pour la convergence, ainsi que
par le nombre d’optima localisés, aussi bien globaux que locaux, et ce même lorsque
la dimension de la fonction augmente. Cependant, la technique SPSO cherche seule-
ment les minimums globaux et elle n’arrive pas à les localiser quand la dimension
de la fonction augmente. Par exemple, pour la fonction F8 de dimension 6, MPSO
identifie 22 optima avec un taux de succès de 85% tandis que SPSO ne localise aucun
optima.
81
3.7 Conclusion
Dans ce chapitre, nous avons présenté une nouvelle technique d’optimisation
multimodale basée sur l’intelligence collective des essaims particulaires. Cette nou-
velle technique est proposée pour deux raisons : 1) soit pour pallier aux limitations
des algorithmes de base, soit 2) pour résoudre les problèmes liés au réglage des
paramètres, lorsqu’on est confronté à un problème d’optimisation multimodale.
Les résultats de simulation montre que l’algorithme MPSO accompli les meilleurs
performances par rapport aux autres méthodes de nichage basées sur PSO, celà est
expliqué par le fait que cette approche utilise un mécanisme qui permet de sub-
diviser l’essaim en des sous-essaim sans avoir aucune information préalable sur la
distribution de données, et ainsi, le rayon de niche est automatiquement calculé.
L’algorithme MPSO permet donc de surmonter le problème majeur des autres tech-
niques de nichage, basées sur PSO, qui réside dans l’estimation de rayon de niche.
82
Chapitre 4
83
4.1 Introduction
Les problèmes d’optimisation multiobjectifs (POMs) sont très fréquents dans le
monde réel. Dans un tel problème, les objectifs à optimiser sont normalement en
conflit entre eux, ce qui signifie qu’il n’y a pas une seule solution de ce problème.
Un POM est résolu lorsque toutes ses solutions Pareto optimales sont trouvées. Ce-
pendant, il est impossible de trouver l’ensemble total de solutions Pareto-optimales,
parce que le nombre de solutions, non-dominées, augmente très rapidement avec
l’augmentation des objectives [Deb, 2001 ; DiPierro et al, 2007 ; Farina et Amato,
2004]. En pratique, l’utilisateur n’a besoin que d’un nombre limité de solutions bien
distribuées le long de la frontière optimale de Pareto, ce qui rend la tâche d’un POM
relativement plus facile.
84
4.2 Principe de l’optimisation multiobjectif
Dans la vie quotidienne, nous résolvons des problèmes d’optimisation plus ou
moins complexes. Nos achats, notre organisation, nos déplacements ne sont pas faits
sans avoir réfléchi au préalable aux multiples options dont nous disposons pour
aboutir à la décision nous semblant la plus appropriée. Par exemple, en prévision
d’un trajet en véhicule, nous pouvons être amenés à résoudre la problématique
présentée à la figure (4.1). Ces raisonnements, même s’ils paraissent anodins, font
appel au concept de compromis, en ce sens que les décisions prises le sont rarement
dans un contexte d’objectif unique.
85
que des contraintes d’inégalité. En effet, sans perte de généralité, on remarque qu’une
contrainte d’égalité de type h(X) = 0 est équivalente à deux contraintes d’inégalité
h(X) ≤ 0 et −h(X) ≤ 0. Par ailleurs, tout problème défini en terme de maximi-
sation peut aisément se ramener à la formulation précédente au prix de quelques
transformations mathématiques.
L’union des domaines de définition de chaque variable et les contraintes forment un
ensemble E qu’on appelle l’ensemble des actions réalisables. F est l’ensemble des
objectifs réalisables.
Les deux fonctions à optimiser sont tracées sur la figure (4.2), par rapport à
la variable x. Comme on peut le constater, les deux objectifs du problème sont
antagonistes, dans la mesure où il n’existe aucune zone de l’espace de recherche pour
laquelle leur minimisation simultanée est possible. A l’intérieur de l’intervalle [0, 2],
nous notons qu’une des fonctions (F1 (x)) s’éloigne de sa valeur minimale (obtenue
pour x = 0) tandis que la deuxième décroit vers sa valeur optimale, en x = 2. Il
n’est donc pas possible, dans cet intervalle, de minimiser un critère sans détériorer
l’autre.
86
Fig. 4.2 – Problème multicritère de Schaffer
les méthodes dites a priori, pour lesquelles l’utilisateur définit le compromis qu’il
désire réaliser avant de lancer la méthode de résolution. On trouve dans cette famille
la plupart des méthodes agrégatives, ou méthodes scalaires. Elles transforment le
problème multicritère en un problème monocritère, en pondérant l’ensemble des
critères initiaux.
Les méthodes progressives, pour lesquelles l’utilisateur affine son choix des com-
promis au fur et à mesure du déroulement de l’optimisation. Comme cela est signalé
dans [Colette, 2002], ces méthodes ont l’inconvénient de monopoliser l’attention du
décideur tout au long du processus d’optimisation. Cet aspect peut être pénalisant
si l’évaluation, des fonctions objectifs est longue et que les sollicitations imposées au
concepteur sont fréquentes.
Les méthodes dites a posteriori, pour lesquelles il n’est plus nécessaire, pour
le concepteur, de modéliser ces préférences avant l’optimisation. Ces méthodes se
contentent de produire un ensemble de solutions directement transmises au déci-
deur. Il pourra alors a posteriori choisir une solution de compromis parmi celles
obtenues lors de la résolution du problème.
87
– Les méthodes agrégées : Ces méthodes transforment un problème multiobjectif
en un problème simple objectif.
– Les méthodes fondées sur Pareto : Ces méthodes sont fondées sur la notion
de dominance au sens de Pareto qui privilégie une recherche satisfaisant au
mieux tous les objectifs.
- le modèle additif
k
X
U= Ui (fi ) (4.3)
i=1
- le modèle multplicatif
k
Y
U= Ui (fi ) (4.4)
i=1
L’utilisation de ces modèles impose que les objectifs soient commensurables. Il est
donc très difficile d’utiliser ces techniques lorsque l’ensemble des critères est composé
à la fois de critères qualitatifs et quantitatifs.
88
4.3.3.2. Le modèle "Goal programming"
Cette méthode est également appelée "Target Vector Optimisation" [Coello 1996,
Van Veldhuizen 1999]. Le décideur fixe un but Ti à atteindre pour chaque objectif fi
[Charnes 1961]. Ces valeurs sont ensuite ajoutées au problème comme des contraintes
supplémentaires. La nouvelle fonction objectif est modifiée de façon à minimiser la
somme des écarts entre les résultats et les buts à atteindre :
Xk
min |fi (x) − Ti | avec x ∈ F (4.6)
i=1
Dans cette approche le décideur spécifie l’ensemble des buts Ti qu’il souhaite
atteindre et les poids associés wi . La solution optimale est trouvée en résolvant le
problème suivant :
minmiser α tel que (4.8)
Ti + α · wi ≥ fi (x)
Xk
avec wi = 1
i=0
Cette méthode est basée sur la minimisation d’un objectif fi en considérant que
les autres objectifs fj avec j 6= i qui doivent être inférieurs à une valeur ²j . En
général, l’objectif choisi est celui que le décideur souhaite optimiser en priorité.
minimiser fi (x) avec (4.9)
fj (x) ≤ ²j , ∀j 6= i
89
De cette manière, un problème simple objectif sous contraintes peut être résolu. Le
décideur peut ensuite réitérer ce processus sur un objectif différent jusqu’à ce qu’il
trouve une solution satisfaisante. Cette méthode a été testée avec un algorithme
génétique dans [Ritzel, 1994] avec différentes valeurs de ²j pour générer différentes
valeurs Pareto-optimales.
Cette méthode a été introduite par Schaffer en 1985 dans la perspective d’adap-
ter un algorithme génétique canonique à la résolution d’un problème multiobjectif
[Schaffer, 1985]. Appelée Vector Evaluated Genetic Algorithm, cette technique se
différencie de l’algorithme de base uniquement par le type de sélection utilisé. L’idée
est simple, si nous avons k objectifs et une population de n individus, une sélec-
tion de n/k individus est effectuée pour chaque objectif. Ainsi K sous-populations
vont être crées, chacune d’entre elles contenant les n/k meilleurs individus pour un
objectif particulier. Une nouvelle population de taille n est ensuite formée à partir
des K sous populations. Le processus se termine par l’application des opérateurs
génétiques de base (croisement et mutation).
Cette méthode introduite par Allenson [Allenson, 1992] utilise la notion de genre
et d’attracteur sexuel pour traiter un problème à deux objectifs. Une des applica-
tions de ce modèle consiste à minimiser la longueur d’un pipeline tout en réduisant
l’impact écologique de sa construction. En affectant un objectif à chaque genre, l’au-
teur espère minimiser les deux objectifs simultanément car un genre sera toujours
jugé d’après l’objectif qui lui a été associé.
90
mais leur genre est choisi aléatoirement et leur attracteur est crée en fonction de
plusieurs heuristiques différentes (aléatoire, clonage ou croisement).
En 1996, Lis et Eiben ont également réalisé un algorithme basé sur l’utilisation
des genres, mais dans ce cas l’algorithme n’est pas limité à deux genres [Lis et Eiben
1996]. Il peut y avoir autant de genres que d’objectifs du problème. Ils ont également
modifié le principe de croisement. Pour générer un enfant, un parent de chaque genre
est sélectionné. Ensuite un croisement multipoint est effectué et le parent ayant
participé le plus, en nombre de gènes, à l’élaboration de l’enfant transmet son genre.
En cas d’égalité le choix s’effectue aléatoirement entre les parents égaux. L’opérateur
de mutation effectue un simple changement de genre.
Soient les fonctions objectifs fi avec i = 1, ..., k, supposons un ordre tel que :
f1 Â f2 Â ... Â fk
Il faut :
minimiser f1 (x)
avec gj (x) satisfait ∀j = 1, ..., m
Soit x∗1 , la meilleure solution trouvée avec f1∗ = f1 (x∗1 ). f1∗ devient alors une nou-
velle contrainte.
L’expression du nouveau problème est donc :
minimiser f2 (x)
avec gj (x) satisfait ∀j = 1, ..., m
et f1 (x) = f1∗
minimiser fi (x)
avec gj (x) satisfait ∀j = 1, ..., m
∗
et f1 (x) = f1∗ , f2 (x) = f2∗ , ..., f(i−1) (x) = f(i−1)
La procédure est répétée jusqu’à ce que tous les objectifs soient traités. La solution
obtenue à l’étape k sera la solution du problème.
91
Fourman a proposé une autre version de cet algorithme qui choisit aléatoirement
la fonction objectif devant être prise en compte. Il en déduit que cela marche aussi
bien. Cette façon de procéder équivaut à une somme pondérée dans laquelle un poids
correspond à la probabilité que la fonction objectif associée soit sélectionnée.
Valenzuela et Uresti ont proposé une méthode de sélection des individus non gé-
nérationnelle dans laquelle la fitness est calculée de façon incrémentale [Valenzuela
et Uresti, 1997]. La méthode est appliquée pour la conception de matériel électro-
nique, l’objectif de cette application est de maximiser la performance du matériel,
minimiser le temps moyen entre deux erreurs et minimiser le coût de revient. Le
principe retenu consiste à utiliser un algorithme non générationnel comme dans le
cas des systèmes de classifieurs [Goldberg, 1989b].
L’algorithme proposé dans [Ishibuchi et Murata, 1996] est basé sur une sélection
de type min-max, les solutions non dominées trouvées à chaque génération forment
une population externe. Les auteurs utilisent également une méthode de recherche
locale pour générer de meilleurs individus.
Dans les paragraphes suivants, nous définissons tout d’abord la notion de do-
minance au sens de Pareto et la frontière de Pareto, ensuite, nous présentons les
techniques évolutionnaires utilisant cette notion.
92
4.3.5.1. Optimum de Pareto
Au XIX ème siècle, Vilfredo Pareto, formule le concept suivant [Pareto, 1896] :
dans un problème multiobjectif, il existe un équilibre tel que l’on ne peut pas amé-
liorer un critère sans détériorer au moins un des autres critères.
Cet équilibre a été appelé optimum de Pareto. Un point x est dit Pareto-optimal
s’il n’est dominé par aucun autre point appartenant à l’espace de recherche E. Ces
points sont également appelés solutions non inférieures ou non dominées.
Dans l’exemple (figure 4.3), les points 1, 3 et 5 ne sont dominés par aucun autre
point. Alors que le point 2 est dominé par le point 3, et le point 4 est dominé par 3
et 5.
0
Un point x ∈ E est dit faiblement non dominé, s’il n’existe pas de point x ∈ E
tel que :
0
fi (x ) < fi (x), ∀i = 1, ..., k
0
Un point x ∈ E est dit fortement non dominé, s’il n’existe pas de point x ∈ E
tel que :
0
fi (x ) ≤ fi (x), ∀i = 1, ..., k avec
0
au moins un i tel que, fi (x ) < fi (x)
93
4.3.5.3. Frontière de Pareto
En 1993 Fonseca et Fleming ont proposé une méthode, dans laquelle chaque indi-
vidu de la population est rangé en fonction du nombre d’individus qui le dominent
[Fonseca et Fleming, 1993]. Ensuite ; ils utilisent une fonction de notation permet-
tant de prendre en compte le rang de l’individu et le nombre d’individus ayant le
même rang.
Tous les individus non dominés sont de rang 1. Les auteurs calculent la fitness de
chaque individu de la façon suivante :
94
L’utilisation de la sélection par rang a tendance à répartir la population autour
d’un même optimum. Or cela n’est pas satisfaisant pour un décideur car cette mé-
thode ne lui proposera qu’une seule solution. Pour éviter cette dérive, les auteurs
utilisent une fonction de partage. L’objectif est de répartir la population sur l’en-
semble de la frontière de Pareto.
La technique de partage agit sur l’espace des objectifs. Cela suppose que deux
actions qui ont le même résultat dans l’espace des objectifs ne pourront pas être
présentes dans la population.
Cette méthode obtient des solutions de bonne qualité et son implémentation est
facile. Mais les performances dépendent de la valeur du paramètre σshare utilisé
dans la technique de partage. Dans leur article Fonseca et Flaming proposent une
méthode de sélection de la meilleure valeur de σshare .
Dans la méthode proposée par [Srivinas et Deb 1993], le calcul de fitness s’effectue
en séparant la population en plusieurs groupes en fonction du degré de domination
au sens de Pareto de chaque individu.
1. Dans la population entière, on recherche les individus non dominés. Ces der-
niers constituent la première frontière de Pareto.
2. On leur attribue une valeur de fitness factice, cette valeur est supposée donner
une chance égale de reproduction à tous ces individus. Cependant pour main-
tenir la diversité dans la population, il est nécessaire d’appliquer une fonction
de partage sur cette valeur.
Cette méthode proposée par Horn et Napfliotis utilise un tournoi basé sur la
95
notion de dominance de Pareto [Horn et Napfliotis, 1993]. Elle compare deux indi-
vidus pris au hasard avec une sous-population de taille tdom également choisie au
hasard. Si un seul de ces deux individus domine le sous-groupe, il est positionné dans
la population suivante. Dans les autres cas une fonction de partage est appliquée
pour sélectionner l’individu.
En 1998 Zitzler et Thiele ont proposé une nouvelle méthode d’optimisation mul-
tiobjectif qui possède les caractéristiques suivantes [Zitzler et Thiele, 1998] :
96
Knowles et Corne ont montré que cette méthode simple objectif fournissait des ré-
sultats supérieurs aux méthodes de recherche basées sur une population [Knowles et
Corne, 1999]. Par conséquent, les auteurs ont adapté cette méthode aux problèmes
multiobjectifs. Les particularités de cette méthode sont les suivantes :
– Elle n’est pas basée sur une population. Elle n’utilise qu’un seul individu à la
fois pour la recherche des solutions.
– Elle utilise une population annexe de taille déterminée permettant de stocker
les solutions temporairement Pareto-optimales.
– L’algorithme utilisé est plus simple et inspiré d’une stratégie d’évolution [Re-
chenberg, 1973].
– Elle utilise une technique de remplissage basée sur un découpage en hypercubes
de l’espace des objectifs.
Dans cette deuxième version de NSGA [Deb, 2000] ; l’auteur tente de résoudre
les problèmes liés à l’approche NSGA : complexité, non élitisme et utilisation du
partage.
Enfin, le modèle proposé utilise une sélection par tournoi pour permettre la conser-
vation des meilleurs individus d’une génération à l’autre.
97
4.3.7.5. Modèle PESA II (Region-based Selection)
PESA II est une technique de sélection basée sur l’utilisation d’hypercubes dans
l’espace des objectifs [Corne, 2001]. Au lieu d’effectuer une sélection en fonction de
la fitness des individus comme dans PESA, cette méthode effectue une sélection par
rapport aux hypercubes occupés par au moins un individu. Après avoir sélectionné
l’hypercube, on choisit aléatoirement l’individu dans l’hypercube. Cette méthode se
montre plus efficace à repartir les solutions sur la frontière de Pareto. Cela est dû à
sa capacité de choisir avec une plus grande probabilité que le tournoi classique, des
individus situés dans des zones désertiques.
Coello trouve que les recherches actuelles n’accordent pas assez d’importance à
l’efficience des méthodes d’optimisation multiobjectifs. Dans [Coello et al., 2001],
il propose une méthode basée sur une population avec un nombre très faible d’in-
dividus. Cette technique se base sur les résultats théoriques obtenus par Goldberg
[Goldberg, 1989b].
Les tests effectués par l’auteur montrent que cette approche est capable de conver-
ger plus rapidement vers la surface de Pareto (en terme de temps CPU). Mais pour
le cas de fonctions avec contraintes, la méthode a été moins bonne que NSGA II.
Dans quelque cas, cette méthode produit une meilleure distribution des points sur
la surface de Pareto.
98
4.3.8 Difficultés des méthodes d’optimisation multiobjectif
Un processus d’optimisation multiobjectif doit résoudre les deux tâches sui-
vantes :
L’accomplissement de ces tâches est très délicat car les difficultés rencontrées dans
un problème multiobjectif sont identiques à celles d’un problème simple objectif mais
elles sont amplifiées par la présence d’objectifs dépendants les un des autres.
Le processus de recherche est souvent ralenti ou totalement dérouté par des fonc-
tions possédant une des caractéristiques suivantes : multimodalité, isolation d’un
optimum ou optimum trompeur.
-La multimodalité : Comme déjà sité dans le chapitre 3, Une fonction est dite
multimodale si elle possède plusieurs optima-globaux. Dès lors, chaque optimum
exerce sur les individus d’une population une attraction différente qui peut piéger le
processus de convergence de l’algorithme. Ce problème peut être éviter en utilisant
une technique de répartition des individus de type partage ou remplissage [Mahfoud,
1995].
99
- non convexité de la frontière de Pareto : Certains problèmes ont une fron-
tière de Pareto non convexe. Les méthodes dont le calcul de la fitness est basé sur
le nombre d’individus dominés (MOGA, SPEA) vont être moins efficaces.
1. Comment choisir les particules (employées comme leader) afin de donner plus
de préférence aux solutions non-dominées.
100
2. Comment maintenir les solutions non-dominées trouvées pendant le processus
de recherche afin de rapporter les solutions non-dominées, en tenant compte de
toutes les anciennes populations et non seulement de la population courante.
Aussi, il est souhaitable que ces solutions soient bien réparties sur le front de
Pareto.
3. Comment maintenir la diversité dans l’essaim afin d’éviter la convergence pré-
maturée vers une seule solution.
Comme nous l’avons déjà vu, en résolvant les problèmes d’optimisation à un seul
objectif, pour chaque particule, le leader qui a la meilleure des meilleures perfor-
mances dont elle a connaissance, est complètement déterminé une fois une topologie
de voisinage est établie. Cependant, dans le cas des problèmes d’optimisation mul-
tiobjectif, chaque particule pourrait communiquer avec différents leaders, un seul
étant choisi afin de mettre à jour sa position. Un tel ensemble de leaders est habi-
tuellement stocké dans une mémoire appelée archive externe. Les solutions conte-
nues dans les archives externes sont employées comme leaders quand les positions
des particules de l’essaim doivent être mises à jour. En outre, le contenu des archives
externes est souvent rapporté comme résultat final de l’algorithme.
L’algorithme général de MOPSO est décrit par le pseudo code (6). Nous avons
marqué en italique les processus qui rendent cet algorithme différent de l’algorithme
PSO de base de l’optimisation à un seul objectif.
101
l’ensemble de leaders est souvent stocké dans des archives externes. Ensuite, une
mesure de qualité est calculée pour tous les leaders afin de choisir (souvent) un leader
pour chaque particule de l’essaim. A chaque génération, pour chaque particule, un
leader est choisi et le vol est exécuté. La plupart des MOPSOs existants applique un
opérateur de mutation après l’exécution du vol. La particule est ensuite évaluée et
la valeur de pbest (la meilleure position qu’elle a atteinte jusqu’ici) correspondante
est mise à jour. Une nouvelle position de particule remplace sa pbest habituellement
quand cette position de particule domine sa pbest ou si elles sont toutes les deux
non-dominée l’une de l’autre. Après la mise à jour de toutes les particules, l’ensemble
de leaders est mise à jour aussi. Finalement, la mesure de qualité de l’ensemble de
guides est recalculée. Ce processus est répété pour un certain nombre d’itérations.
– Comment choisir les particules qui devraient demeurer dans les archives ex-
ternes d’une itération à l’autre.
Comme mentionné plus haut, le choix d’un leader est une composante importante
dans la conception de MOPSO. L’approche la plus directe est de considérer chaque
solution non-dominée comme un nouveau leader et puis, un seul leader étant choisi.
De cette façon, une mesure de qualité qui indique la qualité d’un leader est très im-
portante. Evidemment, une telle approche peut être définie de différentes manières.
Des différentes propositions, pour traiter ce problème, seront présentées plus loin.
102
Une manière possible de définir une telle mesure de qualité peut être les mesures
de densité. La promotion de la diversité peut être faite par ce processus au moyen
de mécanismes basés sur quelques mesures de qualité qui indiquent la proximité des
particules dans l’essaim. Plusieurs auteurs ont proposé des techniques de choix de
leader qui sont basées sur des mesures de densité, nous présentons ici deux des plus
important mesures de densité utilisées dans le domaine de l’optimisation multiob-
jectif :
103
4.4.2 Conservation et propagation des solutions non-dominées
Comme déjà mentionné, il est important de maintenir les solutions non-dominées
trouvées le long de tout le processus de recherche et ainsi pouvoir retourner à la fin
ces solutions non-dominées en tenant compte de toutes les populations précédentes.
Ceci est important non seulement pour des raisons pragmatiques, mais également
pour les raisons théoriques [Rudolph, 1998].
Il faut noter qu’on doit utiliser trois archives pour adapter PSO à l’optimisa-
tion multiobjectif : une pour stocker les meilleures solutions globales, une pour
les meilleures valeurs pbest et une troisième pour stocker la meilleure solution lo-
cale. Cependant, dans la pratique, quelques auteurs rapportent l’utilisation de plus
d’une archive dans leur MOPSOs. Plus récemment, d’autres chercheurs ont proposé
l’utilisation de formes relaxées de dominance. La plus principale a été la méthode
²-dominance [Laumanns et al, 2002]. Le but était de sauvegarder les solutions non
dominées dans des archives externes. En utilisant le paramètre ², on définit un en-
semble de cases de taille epsilon, une seule solution non-dominée est maintenue pour
chaque case (située à la limite gauche et inférieure de chaque case). Comme illustré
dans la figure (4.7).
104
Fig. 4.7 – Exemple d’utilisation de ² dominance dans un archive externe
La convergence prématurée est provoquée par la perte rapide de diversité dans l’es-
saim. Ainsi, le maintien de la diversité dans PSO est un point très important afin de
contrôler sa convergence (normalement rapide). Comme mentionné précédemment,
en adoptant PSO pour résoudre des problèmes d’optimisation multiobjectifs, il est
possible de favoriser la diversité par le choix de leaders. Cela peut être également
fait par les deux principaux mécanismes utilisés pour créer de nouvelles solutions :
105
a. Mise à jour des positions
D’autre part, la diversité peut également être favorisée par le facteur d’inertie
(τ (t) de l’équation (1.1)). Le facteur d’inertie est utilisé pour contrôler l’impact
des vitesses antérieures sur la vitesse courante. Ainsi, le poids d’inertie influence
la différence entre les capacités d’exploration globales et locales [Shi et Eberhart,
1998]. Un grand facteur d’inertie facilite l’exploration globale tandis qu’un plus petit
facteur d’inertie tend à faciliter l’exploration locale. La valeur du facteur d’inertie
peut varier pendant le processus d’optimisation. Shi [Shi et Eberhart, 1998] a montré
qu’en diminuant linéairement le poids d’inertie d’une valeur relativement grande à
une petite valeur durant l’exécution de PSO, l’algorithme favorise une recherche
globale au début de son exécution et une recherche locale à la fin.
Quand une particule met à jour sa position, une mutation se produit. Parfois,
une turbulence est aussi nécessaire. La turbulance reflète le changement du vol des
particules qui est hors de son control [Fieldsend et Singh, 2002].
En général, quand un essaim stagne, c-à-d., quand les vitesses des particules sont
pratiquement nulles, il devient incapable de produire de nouvelles solutions qui pour-
raient mener l’essaim hors de cet état. Ce comportement peut mener l’essaim entier
à être emprisonné dans un optimum local duquel il est impossible de s’échapper.
Puisque le meilleur individu global attire tous les membres de l’essaim, il est pos-
sible de mener l’essaim loin d’un endroit courant grâce à la mutation d’une particule
simple si la particule mutée devient le nouveau leader. Ce mécanisme permet à la
fois de s’échapper des optima locaux et d’accélérer la recherche [ Stacey et al, 2003].
106
De cette façon, l’utilisation d’un opérateur de mutation est très importante afin de
s’échapper des optima locaux et d’améliorer les capacités d’exploration de PSO. En
fait, différents opérateurs de mutation ont été proposés qui permettent la mutation
des composants de la position ou de la vitesse d’une particule.
Le choix d’un bon opérateur de mutation est une tâche difficile qui a un impact
significatif sur l’exécution. D’autre part, une fois un opérateur spécifique de mutation
est choisi, une autre tâche difficile est de savoir le nombre de mutation à appliquer :
avec quelle probabilité, dans quelle étape du processus, dans quel élément spécifique
d’une particule, etc.
– Approches agrégées.
– Ordre lexicographique.
– Approches de sous-population.
– Approches basées sur Pareto.
– Approches combinées.
Sous cette catégorie nous considérons les approches qui combinent tous les ob-
jectifs du problème en un seul objectif. En d’autres termes, le problème à multiples
objectifs est transformé en un seul-objectif.
107
4.4.4.2. Ordre lexicographique
Dans cette méthode, l’utilisateur est invité à ranger les objectifs par ordre d’im-
portance. La solution optimale est alors obtenue par minimisation des fonctions
objectifs séparément, commençant par la plus importante et procédant selon l’ordre
d’importance assigné aux objectifs [ Miettinen, 1999]. L’ordre lexicographique tend
à être utile seulement quand peu d’objectifs sont employés (deux ou trois), et il peut
être sensible à l’ordre choisi des objectifs [Coello, 1999].
Ces approches utilisent des techniques, de choix de leader, basées sur la domi-
nance de Pareto. L’idée fondamentale de toutes ces approches est de choisir comme
leaders les particules non-dominées de l’essaim. Cependant, plusieurs variations de
la sélection de leader sont possibles puisque la plupart des auteurs adoptent des
informations supplémentaires pour choisir les leaders (par exemple, l’information
fournie par un estimateur de densité) afin d’éviter un choix aléatoire d’un leader de
l’ensemble courant de solutions non-dominées.
108
a. L’Algorithme de Ray et Liew : Cet algorithme utilise la dominance de
Pareto et combine le concept de techniques évolutionnaires avec les essaims parti-
culaires. Cette approche utilise l’estimateur de densité de voisin le plus proche pour
maintenir la diversité. L’ensemble de leaders maintenus est sauvegarder dans une
archive externe [Ray et Liew, 2002].
b. L’optimisation multiobjective par essaims particulaires (Multiple
Objective Particle Swarm Optimization) : Cette approche est basée sur l’idée
d’avoir une archive externe dans laquelle chaque particule déposera son expérience
après chaque itération. Le système basé sur la position géographique des particules
est appliqué lors de la mise à jour d’archive. L’espace de recherche est divisé en des
hypercubes. Cette approche emploie également un opérateur de mutation [Coello et
al, 2004].
c. Approche AMOPSO (Another Multi-objective Particle Swarm Op-
timization ) : Cette approche utilise : (1) le rang de Pareto, (2) une technique
de classification qui permet une subdivision de l’espace de recherche en plusieurs
sous-essaims , afin de fournir une meilleure distribution des solutions dans l’espace
de recherche. Dans chaque sous-essaim, un algorithme de PSO est exécuté et, au
même temps, les différents sous-essaims échangent l’information [Pulido et Coello,
2004].
4.5 Synthèse
Plusieurs algorithmes d’optimisation multiobjectif par essaims particulaires ont
été proposés, les inconvénients majeurs de ces differents algorithmes sont :(1) le
nombre élevé de paramètres de réglages, (2) l’utilisation des archives. Cependant,
l’utilisation des archives introduit des complexités temporelles et spatiales addition-
nelles, ce qui dégrade les performances de ces algorithmes.
109
4.6 Optimisation multiobjectif par essaims particu-
laires basée sur la Classification Floue
FC-MOPSO (Fuzzy Clustering Multi-objective Particle Swarm Optimizer) est
un nouveau modèle d’optimisation multiobjectif par essaims particulaires basé sur
Pareto dominance et classification floue [Benameur et al, 2009c]. La nouveauté prin-
cipale de cette méthode est l’utilisation de la classification floue afin d’identifier les
différentes classes de l’essaim. Ainsi, chaque classe de particules (ou essaim) a son
propre ensemble de leaders et évolue utilisant l’algorithme PSO et le concept de do-
minance de Pareto, le concept de migration est intégré afin de maintenir la diversité
des sous-essaims et d’améliorer en conséquence la qualité des solutions trouvées.
Le principe du modèle FC-MOPSO est basé sur une stratégie à trois-couches (fi-
gure 4.8). La première couche intègre un algorithme d’optimisation multiobjectif par
essaims Particulaires (PSOMO) qui n’utilise pas d’archives externes pour mainte-
nir les solutions non-dominées trouvées le long de tout le processus de recherche.
La sortie de ce niveau constitue l’entrée de la deuxième couche (FC), cette couche
est basée sur un algorithme de classification floue non supervisé, qui permet de
partitionner la population en un ensemble de (C) classes, chaque classe identifiée
correspond à un sous essaim. Cette couche permet de calculer automatiquement
le nombre de classes (C), le cardinal (Ni ), le centre (Vi ) et le rayon (ri ) de chaque
classe. La dernière couche implémente le principe de la séparation spatiale pour créer
les différentes sous essaims à partir des caractéristiques fournies par la couche FC.
Les sous-essaims ainsi engendrés vont co-évoluer en utilisant l’algorithme de base
PSOMO.
Dans le paragraphe suivant, la première couche du modèle est présentée, les autres
couches sont détaillées dans le chapitre 3, le fonctionnement du modèle est ensuite
décrit plus en détail. Un ensemble de fonctions tests permet enfin de valider le
modèle et de comparer les résultats obtenus avec d’autres méthodes d’optimisation
multiobjectif par essaim particulaire.
110
de leaders est également initialisé avec les particules non-dominées de l’essaim. À
chaque génération, pour chaque particule, un leader est aléatoirement choisi parmi
l’ensemble de leaders et le vol est exécuté. Ensuite, la fitness de particule est évaluée
et la valeur de pbest correspondante est mise à jour. Une nouvelle particule rem-
place sa pbest particule quand cette pbest est dominée ou si toutes les deux sont
incomparables. Après la mise à jour de toutes les particules, l’ensemble de leaders
est mis à jour aussi. Le principe de PSOMO est décrit par le pseudo code (7).
111
Le principe du modèle proposé est donné par le pseudo code (8).
Pour pouvoir comparer les performances du modèle proposé avec d’autres mo-
dèles, deux critères sont utilisés. Ces critères incluent :
112
qui mesure la variance de distance entre les solutions voisines de l’ensemble
des solutions non-dominées trouvée. Cette métrique est définie par :
v
u n
u 1 X
SP = t (d¯ − di )2 (4.13)
n − 1 i=1
Dans la suite, nous utilisons le générateur de tests de Deb [Deb, 1999]. L’idée
consiste à construire des tests à M objectifs, pour M ≥ 2. Nous commençons par
partitionner le vecteur des variables de décision en M groupes.
x ≡ (x1 , x2 , · · · , xM )
fM = g ∗ h(f1 , · · · , fM −1 , g ∗ )
Dans les paragraphes qui suivent nous présentons quatre fonction tests bi-objectif
113
ZDT1, ZDT2, ZDT3, ZDT6 et une à quatre objectif DTLZ7 que nous utilisons pour
valider l’approche proposée. Notre choix s’est fixé sur ces fonctions tests car elles ont
servi comme une base commune pour la comparaison des algorithmes evolutionnaires
multi-Objectifs existants et pour l’évaluation des nouvelles techniques.
Fonction ZDT1
La fonction ZDT1 est la plus simple de cette ensemble, le front de Pareto cor-
respondant étant continu, convexe et avec la distribution uniforme des solutions le
long du front.
f1 (x) = x1 9 Pn
ZDT 1 : g(x2 ) = 1 + n−1q i=2 xi (4.14)
h(f1 , g) = 1 − f1
g
Fonction ZDT2
La difficulté de cette fonction se présente dans la non-convexité du front de
Pareto.
f1 (x) = x1 Pn
9
ZDT 2 : g(x2 ) = 1 + n−1 i=2 xi (4.15)
f1 2
h(f1 , g) = 1 − ( g )
Fonction ZDT3
La difficulté de cette fonction réside dans la discontinuité du front de Pareto.
f1 (x) = x1 9 Pn
ZDT 3 : g(x2 ) = 1 + n−1q i=2 xi (4.16)
h(f1 , g) = 1 − f1 − ( f1 ) sin(10πf1 )
g g
Fonction ZDT6
La particularité de ce problème est que les solutions optimales ne sont pas uni-
formément distribuées le long du front de Pareto. Cet effet est due à la non-linéarité
de la fonction f1 .
6
f1 (x) = 1 − exp(−4x
Pn 1x)i sin (4πx1 )
1/4
ZDT 6 : g(x2 ) = 1 + 9( i=2 n−1 ) (4.17)
h(f1 , g) = 1 − ( fg1 )2
114
Fonction DTLZ7
Dans cette étude, nous utilisons une fonction DTLZ7 à 4 objectifs, le front de
Pareto de cette fonction est discontinu et formé de 8 régions séparées dans l’espace
de recherche,
f1 (x1 ) = x1
f2 (x2 ) = x2
DT LZ7 : f3 (x3 ) = x3 Pn (4.18)
g(x ) = 1 + 9
x
4 |x4 | i=4 i
P
h(f1 , f2 , f3 , g) = 4 − 3i=1 [ 1+g
fi
(1 + sin(3πfi ))]
τ (t + 1) = τ (t)cτ (4.19)
cτ est une constante entre 0 et 1, la valeur de cτ utilisée est 0.975, τ est intialisé à
1.4 et la taille de l’essaim est 200.
La figure (4.9) représente les fronts de Pareto des quatre fonctions tests ZDT1,
ZDT2, ZDT3 et ZDT6 trouvés en utilisant l’algorithme FC-MOPSO. Il est clair que
l’algorithme proposé peut produire presque un front de Pareto uniforme et complet
pour chaque fonction.
115
(a) ZDT1 (b) ZDT2
116
Tab. 4.2 – La moyenne et l’écart type de la valeur de SP
Puisque le front de Pareto de ZDT3 n’est pas uniformément distribué, cette fonction
peut être utilisée pour étudier la capacité de l’algorithme à maintenir une bonne
distribution de solution. D’après les résultats obtenus pour la fonction ZDT3, on
peut conclure que la distribution des solutions est améliorée par l’utilisation de FC-
MOPSO. En fait, la vaeur de SP est égal à 6.3E − 04 pour le modèle FC-MOPSO et
égal à 4.2E −03, 2.3E −02 et 1.6E −02 pour interactive multi-swarm PSO, MOPSO
et MOPSO-CD respectivement. La même analyse peut être faite pour les fonctions
ZDT1, ZDT2, ZDT6 et DTLZ7.
Les résultats de simulation montre que l’algorithme proposé accompli les meilleurs
performances par rapport aux autres méthodes en terme de la qualité des solutions
trouvées, prouvée par les valeurs de GD et de SP.
117
4.8 Conclusion
Dans ce chapitre, une nouvelle approche d’optimisation multiobjectif par essaims
particulaires basé sur classification floue est présentée. Cette approche incorpore la
dominance de Pareto, la classification floue, la séparation spatiale et la procédure
de migration.
L’avantage principal de cette approche est qu’elle permet de former des sous-
essaims sans information à priori sur la distribution de données en employant la
technique de classification floue, un mécanisme de séparation spatiale est implé-
menté afin d’introduire une géographie locale dans l’espace de recherche permettant
à chaque sous essaim une recherche locale dans son propre sous espace, une procé-
dure de migration est également implémenté pour maintenir une diversité au sein
des sous essaims, permettant ainsi l’amélioration de la qualité des solutions.
Cette approche surmonte les problèmes que présentent les méthodes d’optimisa-
tion multiobjectif par essaims particulaires, en effet, elle n’utilise aucune archive
externe et ainsi les complexités temporelles et spatiales sont réduites.
118
Conclusion générale
Dans un premier temps, une étude exhaustive des différentes techniques de calculs
’intelligent’, notamment les techniques de calcul évolutif qui s’inscrivent dans le cadre
de l’optimisation, a été effectuée. Cela nous a permis de maîtriser le fonctionnement
de ces techniques et de les implémenter pour résoudre des problèmes réels.
L’application de PSO, pour l’optimisation globale, n’était pas une tâche évidente.
En effet, elle a nécessité une phase préliminaire d’adaptation de la méthode utilisée
au problème étudiée, notamment, pour le problème d’affectation de fréquence dans
les réseaux cellulaires qui a nécessité une adaptation de l’algorithme à l’optimisation
discrète. De plus, un bon réglage des paramètres est toujours indispensable pour
l’obtention de bonnes solutions.
Les performances de PSO ont été aussi validées sur un problème continu, qui
consistait à optimiser la commande d’une machine synchrone à aimant permanent.
Les résultats obtenus montrent que la maitrise de ces différents modèles et un bon
réglage des paramètres permettent de fournir de très bonnes performances.
Cependant, dans leur version de base, les techniques d’optimisation sont inca-
pables de gérer efficacement des domaines caractérisés par plusieurs optima (ce qui
est le cas généralement dans la plupart des applications réelles), puisque à l’origine
119
elles ont été conçues pour l’optimisation globale. Par ailleurs, il est souvent indis-
pensable d’identifier toutes les solutions possibles, aussi bien globales que locales.
En effet, l’utilisateur a généralement besoin de l’ensemble de solutions possibles afin
de choisir la meilleure solution qui fournit un bon rapport qualité/prix.
Pour localiser les différentes solutions, une procédure de classification floue non
supervisée a été intégrée. Cette procédure permet, en effet, de regrouper les solutions
en différentes classes. Le représentant de chaque classe identifiée étant l’optimum
requis. L’intérêt de cette stratégie réside dans le fait qu’elle n’a besoin d’aucune
information a priori sur le problème à résoudre, notamment le nombre d’optima
recherché, la séparabilité des classes, etc.
Une stratégie de migration, qui permet d’avoir un échange entre les sous-essaims
dans la structure multi-essaims, est appliquée afin de promouvoir un certain degré
de diversité au sein des essaims et d’améliorer la qualité des solutions trouvées.
Les résultats d’optimisation relatifs aux différentes fonctions tests, et les compa-
raisons avec d’autres modèles montrent l’efficacité du modèle proposé, plus spécifi-
quement, en termes de la qualité des solutions identifiées et du nombre d’évaluations
de la fonction fitness requis pour la convergence. Cela peut être expliqué par le fait
que ce modèle fournit un bon équilibre entre exploitation/exploration des différentes
régions prometteuses de l’espace de recherche.
120
propre ensemble de leaders (les particules non-dominées) et évolue en utilisant l’al-
gorithme PSO et le concept de la dominance de Pareto. Le concept de migration est
également implémenté pour maintenir la diversité des sous-essaims, et améliorer la
qualité des solutions trouvées.
Les résultats de simulation obtenus ont prouvé les performances du modèle pro-
posé. Cependant, la plupart des techniques d’optimisation multiobjectif basées sur
PSO, reportées dans la littérature, ont été limitées au choix de paramètres de réglage,
et l’utilisation d’archives externes, ce qui introduit des complexités temporelles et
spatiales additionnelles.
121
Références Bibliographiques
1. Aardal K. I., Hipolito A., Van Hoesel S., Jansen B., (1995). A Branch-and-Cut
Algorithm for the Frequency Assignment Problem, Technical Report Annex
T-2.2.1 A, CALMA project, T.U. Eindhoven and T.U. Delft.
2. Akcayol M. A., Cetin A., Elmas C., (2002). An Educational Tool for Fuzzy
Logic-Controlled BDCM, IEEE Transactions On Education, Vol. 45, No. 1,
pp. 33-42.
3. Alami J., Benameur L., El Imrani A., (2007). Fuzzy clustering based parallel
cultural algorithm. International Journal of Soft Computing Vol.2(4), 562-571.
4. Alami J., Benameur L., El Imrani A. (2009) A Fuzzy Clustering based Par-
ticle Swarms for Multimodal Function Optimization. International Journal of
Computational Intelligence Research, ISSN 0974-1259. Vol.5, No.2 (2009), pp.
96-107.
5. Alami J., El Imrani A., Bouroumi A., (2007). A multipopulation cultural algo-
rithm using fuzzy clustering. In journal of Applied Soft Computing Vol.7 (2),
506-519.
6. Alami J., El Imrani A., (2006). A Hybrid Ants Colony Optimization for Fixed-
Spectrum Frequency Assignment Problem, Colloque International sur l’Infor-
matique et ses Applications IA 2006, 231-235, Oujda, Maroc.
7. Alami J., El Imrani A., (2007). Using Cultural Algorithm for the Fixed-
Spectrum Frequency Assignment Problem. in the Journal of Mobile Commu-
nications.
8. Allenson R., (1992). Cenetic Algorithm with Gender for Multi-Function Op-
timisation, TR. EPCC-SS92-01, Edinburgh Parallel Computing Center, Edin-
burgh, Scotland.
122
Conference on Evolutionary Multi-Criterion Optimization, EMO2005, pp 459-
473, Guanajuato, México, LNCS3410, Springer-Verlag.
12. Bäck T., Hammel U., Schweffel F-P., (1997). Evolutionary Computation :
Comments on the history and current state. IEEE transactions on Evolutio-
nary Computation, 1(1), 3-17.
13. Bartz T.B., Limbourg P., Parsopoulos K. E., Vrahatis M. N., Mehnen J.,
Schmitt K., (2003). Particle swarm optimizers for pareto optimization with
enhanced archiving techniques. In Congress on Evolutionary Computation
(CEC’2003), volume 3, pages 1780-1787, Canberra,Australia,December.
14. Baumgartner U., Magele Ch., Renhart W., (2004). Pareto optimality and par-
ticle swarm optimization. IEEE Transactions on Magnetics, 40(2) :1172-1175,
March.
15. Beasley D., Bull D.R., Martin R.R., (1993 ). A sequential niche technique for
multimodal function optimization. Evolutionary Computation 1(2), 101-125.
16. Beckers R., Deneubourg. J.L. Goss. S., (1992). Trails and U-turns in the se-
lection of the shortest path by the ant Lasius Niger. Journal of Theoretical
Biology, vol. 159, pp. 397-415.
17. Benameur L., Alami J., Loukdache A., El Imrani A., (2007). Particle Swarm
Based PI Controller for Permanent Magnet Synchronous Machine. Journal of
Engineering and Applied Sciences 2 (9) : 1387-1393.
18. Benameur L., Alami J., El Imrani A. (2009a). Frequency Assignment Problem
Using Discrete Particle Swarm model. International Conference on Multime-
dia Computing and Systems ICMCS/IEEE 09. Avril 02-04 Ouarzazate.
19. Benameur L., Alami J., El Imrani A. (2009b). A New Discrete Particle Swarm
model for the Frequency Assignment Problem. In proced. of IEEE/AICCSA
2009, pp. 139-144. Rabat, Morocco, May 10-13.
20. Benameur L., Alami J., El Imrani A., (2009c). A New Hybrid Particle Swarm
Optimization Algorithm for Handling Multiobjective Problem Using Fuzzy
123
Clustering Technique. In proced. of the International Conference on Compu-
tational Intelligence, Modelling and Simulation, Brno,czech republic : 48-53.
21. Benameur L., Alami J., El Imrani A., (2009d). Using fuzzy clustering Tech-
niques to improve the performance of a multiobjective particle swarm optimi-
zer.International Journal of Computational Science 3(4) : 436-455. .
22. Benameur L., Alami J., El Imrani A., (2010). A hybrid discrete particle swarm
algorithm for solving the fixed-spectrum frequency assignment problem. Inter-
national Journal of Computational Science and Engineering. 5(1) :68-73.
23. Bezdek J. C., (1981). Pattern recognition with fuzzy objective function algo-
rithms. (Plenum Press, New York).
24. Bezdek J. C., (1992). On the relationship between neural networks, pattern
recognition and intelligence. International journal of approximate reasoning,
(6), 85-107.
25. Bezdek K., (1994). On affine subspaces that illuminate a convex set, Contri-
butions to Alg. and Geom. 35/1, 131-139.
26. Bouroumi A., Limouri M., Essaid A., (2000). Unsupervised fuzzy learning and
cluster seeking. Intelligent Data Analysis journal 4 (3-4), 241-253.
27. Brits R., Engelbrecht A., Van den Bergh F., (2002a). Solving systems of un-
constrained equations using particle swarm optimization. Proceedings of the
IEEE Conf. on Systems, Man, and Cybernetics, Tunisa, Vol.3, no.pp.6.
28. Brits R., Engelbrecht A., Van den Bergh F., (2002b). A niching particle swarm
optimizer. Wang, L., Tan, K.C., Furuhashi, T., Kim, J.H., Yao, X., eds., Pro-
ceedings of the 4th Asia-Pacific Conf. on Simulated Evolution and Learning,
Vol. 2, (Singapore) 692-696.
29. Brits R., Engelbrecht A., van den Bergh F.,(2007). Locating multiple optima
using particle swarm optimization, Applied Mathematics and Computation,
189, pp 1859-1883.
30. Charnes A., Cooper W., (1961). Management Models and Industrial Applica-
tions of Linear Programming, vol 1, John Wiley, New-york.
31. Cheng R-H., Yu C. W., Wu T-K., (2005). A Novel Approach to the Fixed
Channel Assignment Problem. Journal of Information Science and Enginee-
ring 21, 39-58.
124
32. Chow C.k. , Tsui H.t., (2004). Autonomous agent Response learning by a
multi-species particle swarm optimization. In Congress on Evolutionary Com-
putation (CEC’2004), volume 1, pp 778-785, Portland, Oregon,USA, June.
IEEE Service Center.
39. Coello C. A. C., Lechuga M. S, (2002). MOPSO : A proposal for multiple ob-
jective particle swarm optimization. InCongressonEvolutionary Computation
(CEC’2002), volume 2, pp. 1051-1056, Piscataway, New Jersey, May.
40. Coello, C. A., Pulido, G. T., Lechuga, M. S, (2004). Handling Multiple Objec-
tives with Particle Swarm Optimization, IEEE Transactions on Evolutionary
Computation 8(3), pp. 256-279.
41. Colette Y., Siarry P., (2002). Optimisation multiobjectif, Edition Eyrolles.
125
43. Crompton W., Hurley S., Stephens N. M., (1994). A parallel genetic algorithm
for frequency assignment problems, in Proceedings of the IMACS, IEEE Confe-
rence on Signal Processing, Robotics and Neural Networks, Lille, France, pp.
81 -84.
44. Deb K., Goldberg D. E. (1989). An investigation of niche and species formation
in genetic function optimization. In J. David Schaffer, editor, Proceedings of
the Third International Conference on Genetic Algorithms, pp. 42-50, San Ma-
teo, California, June. George Mason University, Morgan Kaufmann Publishers.
46. Deb, K., (2000). A Fast Elitist Non-Dominated Sorting Genetic Algorithm
for Multiobjective Optimization : NSGA II, Parallel problem Solving form
Nature-PPSN VI, Springer lecture Notes in computing Science, p. 849-858.
48. Deb K., Jain S., (2002). Running Performance Metrics for Evolutionary Multi-
objective Optimization, Tech. rep, KanGAL Report.
49. Deb K., Pratap A., Agarwal S., Meyarivan T., (2002). A fast and elitist mul-
tiobjective genetic algorithm : NSGA-II. IEEE Transactions on Evolutionary
Computation, 6(2), pp. 182-197, April.
50. De Castro L. N, Von Zuben F., (1999). Artificial Immune Systems : Part I : Ba-
sic Theory and Applications. Technical Report TR-DCA 01/99, Department
of Computer Engineering and Industrial Automation, School of Electrical and
Computer Engineering, State University of Campinas, Brazil.
51. De Castro L. N, Von Zuben F., (2000). Artificial Immune Systems : Part II :
A Survey of Applications. Technical Report DCA-RT 02/00, Department of
Computer Engineering and Industrial Automation, School of Electrical and
Computer Engineering, State University of Campinas, Brazil.
52. De Castro L. N., Timmis J., (2002). An artificial Immune Network for mul-
timodal function optimization. The IEEE World Congress on Computational
Intelligence.
53. De Falco I., Della Cioppa A., Tarantino E., (2007). Facing classification pro-
blems with Particle Swarm Optimization. Applied Soft Computing 7, pp. 652-
126
658.
55. Deneubourg J.L., Pasteels J.M., Verhaeghe J.C. (1983). Probabilistic beha-
viour in ants : A strategy of errors, Journal of Theoretical Biology, 105, pp.
259-271.
56. DiPierro F., Khu S., Savi D., (2007). An Investigation on Preference Order
Ranking Scheme for Multiobjective Evolutionary Optimization, IEEE Tran-
sactions on Evolutionary Computation 11(1), pp. 17-45.
57. Duque-Anton M., Kunz D., Ruber B., (1993). Channel assignment for cellular
radio using simulated annealing. IEEE Trans.Vehicular Technol.42, pp. 14 -21.
58. Durham W. H., (1994). Co-evolution : Genes, Culture, and Human Diversity.
Stanford University Press, Stanford, California.
59. Eberhart, R. Kennedy, J. (1995). New optimizers using particle swarm theory.
In Proceedings of the 6th International Sysmposium on Micro Machine and
Human Science, pp. 39-43.
61. El Imrani A. A., Bouroumi A., Zine El Abidine H., Limouri M., Essaïd A.,
(1999a). A Fuzzy Clustering-based Niching Approach to Multimodal Function
Optimization. Journal Cognitive Systems research, Volume (1) issue (2) 2000,
pp. 119-133.
62. El Imrani A. A., Bouroumi A., Limouri M., Essaïd A., (1999b). A Coevolu-
tionary Genetic Algorithm using Fuzzy Clustering. International Journal of
Intelligent Data Analysis, Vol 4(2000), pp. 183-193.
63. Farina M., Amato P., (2004). A Fuzzy Definition of Optimality for Many-
criteria Optimization Problems, IEEE Transactions on Systems, Man and Cy-
bernetics, Part A 34 (3), pp. 315-326.
64. Fieldsend J. E., Singh S., (2002). A multiobjective algorithm based upon par-
ticle swarm optimisation, an efficient data structure and turbulence. In Pro-
ceedings of the 2002 U.K. Workshop on Computational Intelligence, pp. 37-44,
127
Birmingham, UK, September.
66. Fogel, L. J., Owens, A. J., Walsh, M. J., (1966). Artificial Intelligence through
Simulated Evolution.
67. Fonseca C.M., Fleming P.J, (1993). Genetic Algorithms for Multiobjective Op-
timization : formulation, discussion and Generalization, In Proceeding of the
Fifth International Conference on Genetic Algorithms. San Mateo, California,
pp. 416-423.
68. Forrest S., Javornik B., Smith R.E., Perelson A.S.,(1993). Using genetic algo-
rithms to explore pattern recognition in the immune system, Evol. Comput. 1
(3) 191-211.
70. Funabiki N., Takefuji Y., (1992). A neural network parallel algorithm for chan-
nel assignment problems in cellular radio networks. IEEE Transactions on Ve-
hicular Technology, Vol. 41, pp. 430-436.
71. Goldberg D. E., (1989a). Genetic Algorithms in search, optimization and ma-
chine learning. Addison-wesley Publishing Inc.
72. Goldberg D.E, (1989b). Sizing Populations for Serial and Parallel Genetic Al-
gorithms, Proceedings of the Third International Conference on Genetic Al-
gorithm, pp. 70-97, San-Mateo, California.
73. Goldberg D.E, Deb D., Horn H., (1992). Massive multiomodality and genetic
algorithms, Ed. R. Manner, B. Manderick, parallel problem solving from na-
ture 2, Brussels, pp. 37-46.
74. Goldberg D. E., Richardson J., (1987). Genetic algorithms with sharing for
multimodal function optimization. Proceedings of the Second International
Conference on Genetic Algorithms, pp. 41-49.
75. Goldberg D. E., Wang L., (1997). Adaptative niching via coevolutionary sha-
ring. Quagliarella et al.(Eds.). Genetic Algorithms in Engineering and Com-
puter Science (John Wiley and Sons, Ltd). pp. 21-38.
128
76. Goss S., Beckers R., Deneubourg J.L., Aron S., Pasteels J.M. (1990). How trail
lying and trail following can solve foraging problems for ant colonies. In : Be-
havioural Mechanisms of Food Selection, R.N. Hughes ed., NATO-ASI Series,
vol. G20, Berlin : Springer verlag.
77. Hale W. K., (1981). New spectrum management tools. Proceedings IEEE Int.
Symp. Electromag. Compatibility, pp. 47- 53, Aug.
78. Ho S.L, Shiyou Y., Guangzheng N., Lo E. W.C., Wong H.C, (2005). A particle
swarm optimization based method for multiobjective design optimizations.
IEEE Transactions on Magnetics, 41(5), pp. 1756-1759, May.
79. Hoffmeyer J.,(1994). The Swarming Body. In I. Rauch and G.F. Carr, editors,
Semiotics Around the World, Proceedings of the Fifth Congress of the Inter-
national Association for Semiotic Studies, pp. 937-940.
80. Hofmeyr S.A., Forrest S., (1999). Immunity by Design : An Artificial Immune
System, in : Proceedings of the Genetic and Evolutionary Computation Confe-
rence (GECCO), Morgan Kaufmann, San Francisco, CA, pp. 1289-1296.
81. Holland, J. H. , (1962). Outline for logical theory of adaptive systems. J. As-
soc. Comput. March, 3, pp. 297-314.
83. Holland J.H., Holyoak K.J., Nisbett R.E., Thagard P.R., (1986). Induction :
Processes of Inference, learning and discovery. MIT Press, Cambridge, MA,
USA.
84. Hopfield J. J., (1982). Neural networks and physical systems with emergent
collective computational abilities. Proceedings of the national academy of
sciences, USA, pp. 2554-2558.
85. Horn J., Nafpliotis N., (1993). Multiobjective Optimization using the Niched
Pareto Genetic Algorithm, Illigal TR. 93005, July.
87. Hu X., Eberhart R., Shi Y, (2003). Particle swarm with extended memory for
multiobjective optimization. In Proceedings of the 2003 IEEE Swarm Intelli-
gence Symposium, pp. 193-197, Indianapolis, Indiana,USA, April.
129
88. Hurley S., Smith D. H., Thiel S. U., (1997). FASoft : A system for discrete
channel frequency assignment. Radio Science, vol. 32, no. 5, pp. 1921- 1939.
89. Ignizio J.P., (1981). The Determination of a Subset of Efficient Solutions via
Goal Programming, Computing and Operations Research 3, pp. 9-16.
90. Ishibuchi H., Murata T., (1996). Multi-objective Genetic Local Search Algo-
rithm. In Toshio Fukuda and Takesshi Furuhashi editors, Proceedings of the
1996 International conference on Evolutionary Computation, pp. 119-124, Na-
goya, Japan.
91. Janson S., Merkle D., (2005). A new multiobjective particle swarm optimi-
zation algorithm using clustering applied to automated docking. In Maria J.
Blesa, Christian Blum, Andrea Roli, and Michael Sampels, editors, Hybrid
Metaheuristics, Second International Workshop, HM2005, pp. 128-142, Barce-
lona, Spain, August. Springer. Lecture Notes in ComputerScience Vol.3636.
93. Kennedy J., Eberhart R. C., (1995). Particle swarm optimization. In Procee-
dings of the IEEE International Conference on Neural Networks, pages 1942-
1948, Piscataway, New Jersey, 1995. IEEE Service Center.
94. Kennedy J., (2000). Stereotyping : Improving particle swarm performance with
cluster analysis. Proceedings of the IEEE Congress on Evol. Comput. (San
Diego, California, U.S.A.), pp. 1507-1512.
95. Kim J. S., Park S. H., Dowd P. W., Nasrabadi N. M., (1997). Cellular radio
channel assignment using a modified Hopfield network. IEEE Transactions on
Vehicular Technology, Vol. 46, pp. 957-967.
96. Knowles J.D., Corne D.W., (1999). The Pareto Archived Evolution Strategy :
A New Baseline Algorithm for Multiobjective Optimisation, Congress on Evo-
lutionary Computation, pp. 98-105, Washington, July.
97. Knowles J.D., Corne D.W., Oates M.J., (2000). The Pareto-Envelope based Se-
lection Algorithm for Multiobjective Optimization, In Proceeding of the Sixth
International Conference on Parallel Problem Solving from Nature (PPSN VI),
pp.839-848, Berlin, September.
98. Kohonen T., (1989). Self organization and associative memory. Springer series
in information sciences, springer verlag, 3rd edition.
130
99. Koza J.R., (1992). Genetic Programming. MIT Press, ISBN : 0-262-11170-5.
100. Kunz D., (1991). Channel assignment for cellular radio using neural network.
IEEE Transactions on Vehicular Technology, Vol. 40, pp. 188-193.
101. Kurwase F., (1984). A variant of Evolution Strategies for Vector optimization,
Ph. D Thesis, Vanderbilt University, Nashville, Tennessee.
102. Laumanns M., Thiele L., Deb K., Zitzler E, (2002). Combining convergence
and diversity in Evolutionary multi-objective optimization. Evolutionary Com-
putation, 10(3), pp. 263-282.
103. Lechuga M.S, Rowe J, (2005). Particle swarm optimization and fitness sharing
to solve multi-objective optimization problems. In Congresson Evolutionary
Computation (CEC’2005), pp. 1204- 1211,Edinburgh,Scotland,UK,September.IEEE
Press.
104. Lee C.C., (1990). Fuzzy logic in control systems : Fuzzy logic controller, Part
I, Part II. IEEE Trans. on Syst., Man, and Cyber., Vol. 20, No.2, pp. 404- 435.
105. Li S. Z., (1995). Markov Random Field, Modeling in computer vision. Spring
Verlag, 1995.
106. Li J. P., Balazs M. E., Parks G., Clarkson P. J., (2002). A species conserving
genetic algorithm for multimodal function optimization, Evolutionary Com-
putation, 10(3), pp. 207-234.
107. Li X., (2003). A non-dominated sorting particle swarm optimizer for mul-
tiobjective optimization. In Erick Cantu-Paz et al., editor, Proceedings of the
Genetic and Evolutionary Computation Conference (GECCO’2003), pp 37-48.
Springer. Lecture Notes in Computer Science Vol.2723, July.
108. Li X., (2004). Adaptively choosing neighborhood bests using species in swarm
optimizer for multimodal function optimization. GECCO, pp. 105-116.
109. Lin C.T., Lee C.S.G., (1991). Neural-network-based Fuzzy logic control and
decision system. IEEE Trans. On Comp., Vol.40, No. 12, pp. 1320-1336.
110. Lis J., Eiben A.E., (1996). A Multi-Sexual Genetic Algorithm for Multiob-
jective Optimization, In T.Fukuda and T. Furuhashi ed., Proceedings of the
1996 International Conference on Evolutionary Computation, Nagoya, Japan,
pp.59-64.
111. Loukdache A., Alami J., El Belkacemi M., El Imrani A., (2007). New control
approach for permanent magnet synchronous machine. International Journal
131
of Electrical and Power Engineering 1(4), pp. 455 -462.
112. Mahfoud, S. W., (1992). Crowding and preselection revisited. Parallel Problem
Solving from Nature. North-Holland, Amsterdam, (2), pp. 27-36.
114. Mahfoud S. W, (1995). Niching Methods for Genetic Algorithms. PhD Thesis,
University of Illinois.
115. Mahfouf, M., Chen, M. Y., Linkens, D. A., (2004). Adaptive Weighted Particle
Swarm Optimization for Multi- objective Optimal Design of Alloy Steels, Pa-
rallel Problem Solving from Nature - PPSN VIII, pp. 762-771, Birmingham,
UK, Springer-Verlag. Lecture Notes in Computer Science Vol. 3242.
116. Maniezzo V., Montemanni R., (1999). An exact algorithm for the radio link
frequency assignment problem. Report CSR 99-02, Computer Science, Univ.
of Bologna.
117. Martinez T. M., Schulten K. J., (1991). A "neural-gas" network learns topo-
logies. Artificial neural network, Rédacteurs : T. Kohonen, K. Mäkisara, O.
Simula et J. Kanges, pp. 397-402, Elsevier Science Publishers, B. V(North
Holland).
118. Mathar R., Mattfeldt J., (1993). Channel assignment in cellular radio net-
works. IEEE Transactions on Vehicular Technology, Vol. 42, pp. 647-656.
119. McCulloch W. S., Pitts W., (1943). A logical calculus of the ideas immanent
in nervous activity. Bulletin of Mathematical Biophysics, 5, pp. 115-133.
122. Miller B.L., Shaw M.J., (1996). Genetic Algorithms with Dynamic Niche Sha-
ring for Multimodal Function Optimization. IlliGAL Report no. 95010.
123. Mitchell M., Forrest S., (1993). Genetic Algorithms and Artificial Life. Paper
93-11-072.
132
124. Montemanni R., Moon Jim N. J., Smith D. H., (2003). An improved Tabu
search algorithm for the fixed spectrum frequency assignment problem. IEEE
Transactions on Vehicular Technology, vol. 52, No.3, May.
125. Moore J., Chapman R., (1999). Application of particle swarm to multiobjec-
tive optimization. Department of Computer Science and Software Engineering,
Auburn University.
126. Mostaghim S., Teich J., 2003(a). Strategies for finding good local guides in
multi-objective particle swarm optimization (MOPSO). In Proceedings of the
2003 IEEE Swarm Intelligence Symposium, pp. 26-33, Indianapolis, Indiana,
USA, April.
127. Mostaghim S., Teich J., 2003(b). The role of ²− dominance in multi objective
particle swarm optimization methods. In Congress on Evolutionary Computa-
tion (CEC’2003), volume 3, pp. 1764-1771, Canberra, Australia, December.
128. Mostaghim S., Teich J., (2004). Covering pareto-optimal fronts by subswarms
in multi-objective particle swarm optimization. In Congress on Evolutionary
Computation (CEC’2004), volume 2, pp. 1404- 1411, Portland, Oregon, USA,
June.
129. Pareto V., (1896). Cours d’économie politique, vol. 1 et 2, F. Rouge, Lausanne.
130. Parsopoulos K. E., Vrahatis M. N., (2002). Particle swarm optimization me-
thod in multiobjective problems. In Proceedings of the 2002 ACM Symposium
on Applied Computing (SAC’2002), pp. 603-607, Madrid, Spain.
131. Parsopoulos K. E., Tasoulis D., Vrahatis M. N., (2004). Multiobjective optimi-
zation using parallel vector evaluated particle swarm optimization. In Procee-
dings of the IASTED International Conference on Artificial Intelligence and
Applications (AIA 2004), volume 2, pp. 823-828, Innsbruck, Austria, February.
132. Pelikan M., Goldberg D. E., (2001). Escaping hierarchical traps with com-
petent genetic algorithms. In Proceeding. of the Genetic and Evolutionary
Computation Conference, pp. 511- 518.
133. Petrowsky A., (1996). A clearing procedure as a niching method for Gene-
tic Algorithms. Proceedings of IEEE International Conference of Evolutionary
Computation, (Nagoya-Japan), pp. 798-803.
134. Pulido G. T., (2005). On the Use of Self-Adaptation and Elitism for Multiob-
jective Particle Swarm Optimization. PhD thesis, Computer Science Section,
Department of Electrical Engineering, CINVESTAV-IPN, Mexico, September.
133
135. Pulido, G. T., Coello, C. A., (2004). Using Clustering Techniques to Improve
the Performance of a Particle Swarm Optimizer, In Kalyanmoy Deb et al.,
editor, Proceedings of the Genetic and Evolutionary Computation Conference
(GECCO’2004), pp. 225-237, Seattle, Washington, USA, Springer-Verlag, Lec-
ture Notes in Computer Science Vol. 3102.
136. Qing L., Gang W., Zaiyue Y., Qiuping W., (2008). Crowding clustering genetic
algorithm for multimodal function optimization, Applied Soft Computing 8,
pp. 88-95.
137. Rahman M.A., Hoque M. A., (1998). On-line adaptive artificial neural network
based vector control of permanent magnet synchronous motors. IEEE Trans.
On Energy Conversion, Vol.13, No. 4, pp. 311-318, 1998.
138. Ramos V., Fernandes C., Rosa A.C., (2005). Social Cognitive Maps, Swarm
Collective Perception and Distributed Search on Dynamic Landscapes. Techni-
cal report, Instituto Superior Técnico, Lisboa, Portugal, http ://alfa.ist.utl.pt/ cvrm/staff/vram
58.html.
139. Raquel C. R., Naval Jr. P. C., (2005). An effective use of crowding distance
in multiobjective particle swarm optimization. In Proceedings of the Genetic
and Evolutionary Computation Conference (GECCO2005), pp 257-264, Wa-
shington, DC, USA, June.
140. Ray T., Liew K.M., (2002). A swarm metaphor for multiobjective design op-
timization. Engineering Optimization, 34(2), pp. 141-153, March.
143. Renfrew A. C., (1994). Dynamic Modeling in Archaeology : What, When, and
Where ? In S. E. van der Leeuw, editor, Dynamical Modeling and the Study
of Change in Archaelogy. Edinburgh University Press, Edinburgh, Scotland.
134
Conference on Evolutionary Programming, pp. 131- 139. World Scientific.
147. Reynolds R. G., Zannoni E., (1994). Learning to Understand Software Using
Cultural Algorithms. In Antony V, Sebald and Lawrence J. Fogel, editors,
Proceedings of the Third Annual Conference on Evolutionary Programming.
World Scientific.
148. Ritzel B., (1994). Using Genetic Algorithms to Solve a Multiple Objective
Groundwater Pollution Containment Problem. Water Resources Research 30,
pp. 1589-1603.
149. Rosenblatt F., (1958). The perceptron : a probabilistic model for information
storage and organization in the brain. Psychological review, 65, pp. 386-408.
150. Rudolph G., (1998). On a multi-objective evolutionary algorithm and its conver-
gence to the Pareto set. In Proceedings of the 5th IEEE Conference on Evo-
lutionary Computation, pp. 511-516, Piscataway, New Jersey.
151. Säreni B., Krähenbühl L., (1998). Fitness sharing and niching methods revisi-
ted. IEEE transactions on Evolutionary Computation vol. 2, No. 3, pp. 97-106.
153. Schaffer J.D., (1985). Multiple objective optimization with vector evaluated
genetic algorithms, In J.J. Grefenstette ed., Proceedings of the First Interna-
tional Conference on Genetic Algorithms and Their Applications, Pittsburgh,
PA, pp. 93-100.
154. Schoeman, I.L., Engelbrecht, A.P., (2004). Using vector operations to iden-
tify niches for particle swarm optimization. Proceedings of the conference on
cybernetics and intelligent systems.
155. Schoeman I.L., Engelbrecht A., (2005). A parallel vector-based particle swarm
optimizer. International Conf. on Artificial Neural Networks and Genetic Al-
gorithms (ICANNGA), Portugal.
135
157. Schott J. R., (1995). Fault tolerant design using single and multi-criteria gene-
tic algorithms. Master’s thesis, Departement of Aeronautics and Astronautics,
Boston.
158. Shi Y., Eberhart R., (1998). Parameter selection in particle swarm optimi-
zation. In Evolutionary Programming VII : Proceedings of the Seventh an-
nual Conference on Evolutionary Programming, pp. 591-600, NewYork, USA.
Springer-Verlag.
159. Shirazi S. A. G., Amindavar H., (2005). Fixed channel assignment using new
dynamic programming approach in cellular radio networks. Computers and
Electrical Engineering 31, pp. 303-333.
160. Sierra, M. R., Coello C., (2006). Multi-objective Particle Swarm Optimizers :
A Survey of the State-of-the-art, Inter-national Journal of Computational In-
telligence Research 2 (3), pp. 287-308.
161. Slemon G. R., (1994). Electrical machines for variable-frequency drives. Pro-
ceeding of IEEE, Vol.82, No.8, pp. 1123-1139.
162. Smith R., Forrest S., Perelson A. S., (1993). Searching for diverse, coopera-
tive populations with genetic algorithms. Evolutionary Computation 1(2), pp.
127-149.
163. Spears W.M., (1994). Simple sub-populations schemes. Proceedings of the 3rd
Annual Conference on Evolutionary Programming, World Scientific, pp. 296-
307.
164. Srivinas N., Deb K., (1993). Multiobjective Optimization using Non dominated
Sorting in Genetic Algorithms, technical Report, Departement of Mechanical
Engineering, Institute of Technology, India.
165. Stacey A., Jancic M., Grundy I., (2003). Particle swarm optimization with
mutation. In Proceedings of the Congress on Evolutionary Computation, pp.
1425-1430,Camberra, Australia.
136
168. Ursem R.K., (1999). Multinational evolutionary algorithms. Proceedings of
Congress of Evolutionary Computation (CEC-99), vol. 3, Washington, DC,
USA, pp. 1633-1640.
170. Valenzuela M., Uresti-Charre E., (1997). A Non- Cenerational Genetic Algo-
rithm for Multiobjective Optimization, Proceedings of the Seventh Internatio-
nal Conference on Genetic Algorithms, pp. 658-665.
171. Wang, Y., Yang, Y., (2008). Handling Multiobjective Problem with a Novel
Interactive Multi-swarm PSO, Proceedings of the 4th International Conference
on Intelligent Computing : Advanced Intelligent Computing Theories and Ap-
plications 5227, pp. 575-582.
173. Xie L. X, BENI G., (1991). A Validity Measure for Fuzzy Clustering. IEEE
Transactions on Pattern Analysis and Machine Intelligence, Vol 13 No 8.
174. Xiao-hua Z, Hong-yun M., Li-cheng J., (2005). Intelligent particle swarm op-
timization in multiobjective optimization. In Congress on Evolutionary Com-
putation (CEC’2005), pp. 714-719, Edinburgh, Scotland,UK, September.
175. Zadeh L.A., (1965). Fuzzy Sets. Information and control, 8, pp. 338-353.
177. Zannoni E., Reynolds R. G., (1997). Extracting Design Knowledge from Gene-
tic Programs Using Cultural Algorithms. Full version in Journal Evolutionary
Computation.
178. Zhang J., Huang De-Shuang, Lok T., Lyu M. R., (2006). A novel adaptive
sequential niche technique for multimodal function optimization. Neurocom-
puting 69, pp. 2396-2401.
179. Zhang L.B., Zhou C.G., Liu X.H., Ma Z.Q., Liang Y.C., (2003). Solving
multi objective optimization problems using particle swarm optimization. In
Congress on Evolutionary Computation (CEC’2003), volume 3, pp. 2400-2405,
137
Canberra, Australia, December.
180. Zhao B., Cao Y., (2005). Multiple objective particle swarm optimization tech-
nique for economic load dispatch. Journal of Zhejiang University SCIENCE,
6A (5), pp. 420-427.
181. Zhu. S., Reynolds. R.G., (1998). The Design of Fully Fuzzy Cultural Algo-
ritms with Evolutionary Programming for Function Optimization. Internatio-
nal Conference GP May.
182. Zitzler E.,. Deb k., Thiele L., (2000).Comparison of Multiobjective Evolutio-
nary Algorithms : Empirical Results. Evolutionary Computation, 8(2), pp.
173-195.
183. Zitzler E., Thiele L., (1998). An Evolutionary Algorithm for Multiobjective
optimization : The Strength Pareto Approach, TIK-Report 43.
138
Discipline : Sciences de l’ingénieur
Spécialité : Informatique et Télécommunications
UFR : Informatique et Télécommunications
Responsable de l’UFR : Driss Aboutajdine
Période d’accréditation : 2005- 2008
Résumé
Les travaux de recherche présentés dans ce mémoire consistent en l’étude des
techniques de calcul “Intelligent”, et tout particulièrement les algorithmes basés sur
l’intelligence collective des agents.
L’algorithme d’optimisation par essaims particulaires PSO de base est ensuite mis en
œuvre pour l’optimisation globale de problèmes réels. Les problèmes étudiés, dans ce
mémoire, sont: le problème d’affectation de fréquences dans les réseaux cellulaires et
la commande en vitesse d’une machine synchrone à aimant permanent.
L’implémentation de cette technique nécessitait une phase d’adaptation et un réglage
fin de paramètres.
Dans un deuxième temps, le modèle de base n’étant pas adapté à l’optimisation de
problème nécessitant la localisation de plusieurs optima, un nouveau modèle MPSO
(Multipopulation Particle Swarms Optimization) est proposé. Ce modèle permet de
créer et de maintenir des sous-populations d’essaims, afin d’effectuer des recherches
locales dans différentes régions de l’espace de recherche dans le but de localiser la
meilleure position globale qui représente un optimum. L’intégration d’une procédure
de classification floue permet, dans ce contexte, d’échantillonner la population en
différentes classes constituant les différents sous-essaims.
Dans le cadre de l’optimisation multiobjectif, où il s’agit d’optimiser simultanément
plusieurs objectifs contradictoires, une nouvelle approche, basée sur l’algorithme
PSO, la dominance de Pareto et la classification floue FCMOPSO (Fuzzy Clustering
Multi-objective Particle Swarm Optimizer), est également proposée. Le but principal
de cette approche est de surmonter la limitation associée à l’optimisation multiobjectif
par essaims particulaires standard. Cette limitation est liée à l’utilisation des archives
qui fournit des complexités temporelles et spatiales additionnelles.
Mots-clefs
Techniques de calcul “Intelligent”, Optimisation multimodale, Optimisation
multiobjectif, Algorithme d’optimisation par essaims particulaires, Classification floue.