Académique Documents
Professionnel Documents
Culture Documents
Optimisation Multiobjectif1 PDF
Optimisation Multiobjectif1 PDF
multiobjectif
Optimisation
multiobjectif
DITIONS EYROLLES
61, Bld Saint-Germain
75240 Paris Cedex 05
www.editions-eyrolles.com
Le code de la proprit intellectuelle du 1er juillet 1992 interdit en effet expressment la photocopie usage collectif sans autorisation des ayants droit. Or, cette
pratique sest gnralise notamment dans les tablissement denseignement,
provoquant une baisse brutale des achats de livres, au point que la possibilit
LE
PHOTOCOPILLAGE mme pour les auteurs de crer des uvres nouvelles et de les faire diter corTUE LE LIVRE
rectement est aujourdhui menace.
En application de la loi du 11 mars 1957, il est interdit de reproduire intgralement ou partiellement le prsent ouvrage, sur quelque support que ce soit, sans autorisation de lditeur ou du
Centre Franais dExploitation du Droit de Copie, 20, rue des Grands-Augustins, 75006 Paris.
DANGER
Optimisation Multiobjectif
Professeur agrg,
ancien lve de lENS de Cachan
doctorant
Electricit de France,Clamart
Professeur lUniversit de
Paris XII Val-de-Marne
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15
15
16
17
18
18
19
19
21
24
24
26
28
30
30
30
30
31
32
34
35
35
36
37
38
39
40
.
.
.
.
.
.
.
.
.
.
.
.
41
41
47
48
52
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
13
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
55
57
61
63
64
67
69
70
70
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
73
73
73
76
82
84
88
91
94
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
95
95
95
96
98
102
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
105
105
105
105
107
108
110
114
114
118
119
121
129
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
131
131
133
133
134
135
135
135
136
II
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6.4
II
7
6.3.1.1 Notations . . . . . .
6.3.1.2 La reprsentation .
6.3.2 La mthode ELECTRE I . . .
6.3.3 La mthode ELECTRE IS . .
6.3.4 La mthode ELECTRE II . .
6.3.5 La mthode ELECTRE III . .
6.3.6 La mthode ELECTRE IV . .
6.3.7 La mthode ELECTRE TRI .
6.3.8 La mthode PROMETHEE I .
6.3.9 La mthode PROMETHEE II
Bibliographie commente . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
136
136
138
145
146
153
159
161
164
168
168
171
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
173
173
174
176
177
178
180
182
184
184
185
186
186
187
188
188
190
191
192
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
193
193
193
194
196
197
198
199
199
201
203
205
206
207
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
III
Etudes de cas
209
209
210
210
210
212
212
212
213
213
215
215
217
218
219
223
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
225
225
225
227
229
.
.
.
.
.
.
.
233
234
234
234
235
235
235
235
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
236
236
236
236
236
236
237
237
237
237
238
238
239
239
239
239
. . . . . .
rapport au
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. 239
.
.
.
.
.
.
.
241
242
242
242
243
244
244
Conclusion
263
Bibliographie
267
Index
280
Avant-propos
Les ingnieurs se heurtent quotidiennement des problmes technologiques de complexit grandissante, qui surgissent dans des secteurs trs divers, comme dans le traitement
des images, la conception de systmes mcaniques, la recherche oprationnelle et llectronique. Le problme rsoudre peut frquemment tre exprim sous la forme gnrale dun
problme doptimisation, dans lequel on dfinit une fonction objectif, ou fonction de cot
(voire plusieurs), que lon cherche minimiser par rapport tous les paramtres concerns.
Par exemple, dans le clbre problme du voyageur de commerce, on cherche minimiser
la longueur de la tourne dun voyageur de commerce, qui doit visiter un certain nombre
de villes, avant de retourner la ville de dpart. La dfinition du problme doptimisation
est souvent complte par la donne de contraintes : tous les paramtres (ou variables de
dcision) de la solution propose doivent respecter ces contraintes, faute de quoi la solution
nest pas ralisable.
Il existe de nombreuses mthodes doptimisation classiques pour rsoudre de tels problmes, applicables lorsque certaines conditions mathmatiques sont satisfaites : ainsi, la programmation linaire traite efficacement le cas o la fonction objectif, ainsi que les contraintes,
sexpriment linairement en fonction des variables de dcision. Malheureusement, les situations rencontres en pratique comportent souvent une ou plusieurs complications, qui mettent
en dfaut ces mthodes : par exemple, la fonction objectif peut tre non linaire, ou mme
ne pas sexprimer analytiquement en fonction des paramtres ; ou encore, le problme peut
exiger la considration simultane de plusieurs objectifs contradictoires.
Pour clarifier lanalyse, on peut sintresser sparment deux domaines, loptimisation
multiobjectif et loptimisation difficile, qui mettent laccent sur deux sources diffrentes de
complications. Le premier domaine, auquel cet ouvrage est consacr, traite le cas de la prsence simultane de plusieurs objectifs, tandis que le second analyse les difficults inhrentes
aux proprits mmes de chaque fonction objectif. Nous verrons que les deux aspects sont
souvent lis en pratique. Avant de se focaliser sur loptimisation multiobjectif, il est ncessaire dexpliciter maintenant davantage le cadre de loptimisation difficile.
Optimisation difficile
On distingue en ralit deux types de problmes doptimisation : les problmes combinatoires (ou problmes discrets) et les problmes variables continues. Pour clarifier, citons
quelques exemples : parmi les problmes combinatoires, on trouve le problme du voyageur
de commerce mentionn plus haut, ou encore celui de lordonnancement de tches concourant
un mme projet. Deux exemples de problmes continus sont les suivants : lidentification
des paramtres dun modle associ un composant lectronique, partir de donnes exprimentales caractrisant celui-ci ; la restauration optimale dune image, partir dune image
brouille.
1
Avant-propos
Cette diffrenciation est ncessaire pour cerner le domaine de loptimisation difficile. En
effet, deux sortes de problmes reoivent, dans la littrature, cette appellation, non dfinie
strictement (et lie, en fait, ltat de lart en matire doptimisation) :
certains problmes doptimisation combinatoire, pour lesquels on ne connat pas dalgorithme exact rapide. Cest le cas, en particulier, des problmes dits NP-difficiles,
cest--dire - schmatiquement - dont la rsolution exacte nest pas possible en un
temps de calcul proportionnel N n , o N dsigne le nombre de paramtres inconnus
du problme, et n est un entier.
certains problmes doptimisation variables continues, pour lesquels on ne connat
pas dalgorithme permettant de reprer un optimum global coup sr et en un nombre
fini de calculs.
Des efforts ont longtemps t mens, sparment, pour rsoudre ces deux types de problmes
difficiles. Dans le domaine de loptimisation continue, il existe ainsi un arsenal important
de mthodes classiques dites doptimisation globale, mais ces techniques sont souvent inefficaces si la fonction objectif ne possde pas une proprit structurelle particulire, telle que la
convexit. Dans le domaine de loptimisation combinatoire, un grand nombre dheuristiques,
qui produisent des solutions proches de loptimum, ont t dveloppes ; mais la plupart
dentre elles ont t conues spcifiquement pour un problme donn.
Mtaheuristiques
Larrive dune nouvelle classe de mthodes, nommes mtaheuristiques, marque une rconciliation des deux domaines : en effet, celles-ci sappliquent toutes sortes de problmes
combinatoires, et elles peuvent galement sadapter aux problmes continus. Ces mthodes,
qui comprennent notamment la mthode du recuit simul, les algorithmes gntiques, la mthode de recherche tabou, les algorithmes de colonies de fourmis, etc. sont apparues, partir
des annes 1980, avec une ambition commune : rsoudre au mieux les problmes doptimisation difficile. Elles ont en commun, en outre, les caractristiques suivantes :
elles sont, au moins pour partie, stochastiques : cette approche permet de faire face
lexplosion combinatoire des possibilits ;
elles sont dorigine combinatoire : elles ont lavantage, dcisif dans le cas continu,
dtre directes, cest--dire quelles ne recourent pas au calcul, souvent problmatique,
des gradients de la fonction objectif ;
elles sont inspires par des analogies : avec la physique (recuit simul, diffusion simule, etc.), avec la biologie (algorithmes gntiques, recherche tabou, etc.) ou avec
lthologie (colonies de fourmis, essaims de particules, etc.) ;
elles sont capables de guider, dans une tche particulire, une autre mthode de recherche spcialise (par exemple, une autre heuristique, ou une mthode dexploration
locale) ;
elles partagent aussi les mmes inconvnients : les difficults de rglage des paramtres
mmes de la mthode, et le temps de calcul lev.
Les mtaheuristiques ne sexcluent pas mutuellement : en effet, dans ltat actuel de la recherche, il est le plus souvent impossible de prvoir avec certitude lefficacit dune mthode
donne, quand elle est applique un problme donn. De plus, la tendance actuelle est
lmergence de mthodes hybrides, qui sefforcent de tirer parti des avantages spcifiques
dapproches diffrentes en les combinant. Nous verrons que les mtaheuristiques jouent un
rle important dans cet ouvrage, car elles ont largement contribu au renouvellement de loptimisation multiobjectif.
Avant-propos
Il nous parat intressant, pour clore ces considrations prliminaires sur loptimisation
monobjectif difficile, danalyser brivement la source de lefficacit des mtaheuristiques,
puis de souligner quelques unes des extensions de ces mthodes. Cette tude nous permettra
desquisser une classification gnrale des mthodes doptimisation monobjectif.
Fonction objectif
c0 c1 cn cn
Configuration
Avant-propos
Pour amliorer lefficacit de la mthode, on peut, bien entendu, lappliquer plusieurs
fois, avec des conditions initiales diffrentes choisies arbitrairement, et retenir comme solution finale le meilleur des minima locaux obtenus ; cependant, cette procdure augmente
sensiblement le temps de calcul de lalgorithme, et ne garantit pas de trouver la configuration
optimale c .
Paralllisation
De multiples modes de paralllisation ont t proposs pour les diffrentes mtaheuristiques. Certaines techniques se veulent gnrales ; dautres, en revanche, tirent avantage des
particularits du problme. Ainsi, dans les problmes de placement de composants, les tches
peuvent tre rparties naturellement entre plusieurs processeurs : chacun deux est charg
doptimiser une zone gographique donne et des informations sont changes priodiquement entre processeurs voisins.
Optimisation multimodale
Il sagit cette fois de dterminer tout un jeu de solutions optimales, au lieu dun optimum unique. Les algorithmes gntiques sont particulirement bien adapts cette tche,
de par leur nature distribue. Les variantes de type multipopulation exploitent en parallle
plusieurs populations, qui sattachent reprer des optima diffrents.
4
Avant-propos
Classification
monobjectif
gnrale
des
mthodes
doptimisation
Pour tenter de rcapituler les considrations prcdentes, nous proposons la figure 2 une
classification gnrale des mthodes doptimisation monobjectif.
Avant-propos
On retrouve, dans ce graphe, les principales distinctions opres plus haut :
On diffrencie, en premier lieu, loptimisation combinatoire de loptimisation continue.
Pour loptimisation combinatoire, on a recours aux mthodes approches lorsquon est
confront un problme difficile ; dans ce cas, le choix est parfois possible entre une
heuristique spcialise, entirement ddie au problme considr, et une mtaheuristique.
Pour loptimisation continue, on spare sommairement le cas linaire (qui relve notamment de la programmation linaire) du cas non linaire, o lon retrouve le cadre
de loptimisation difficile ; dans ce cas, une solution pragmatique peut tre de recourir
lapplication rpte dune mthode locale qui exploite, ou non, les gradients de la
fonction objectif. Si le nombre de minima locaux est trs lev, le recours une mthode globale simpose : on retrouve alors les mtaheuristiques, qui offrent une alternative aux mthodes classiques doptimisation globale, celles-ci requrant des proprits
mathmatiques restrictives de la fonction objectif.
Parmi les mtaheuristiques, on peut diffrencier les mtaheuristiques de voisinage,
qui font progresser une seule solution la fois (recuit simul, recherche tabou, etc.), et
les mtaheuristiques distribues, qui manipulent en parallle toute une population de
solutions (algorithmes gntiques, etc.).
Enfin, les mthodes hybrides associent souvent une mtaheuristique et une mthode
locale. Cette coopration peut prendre la simple forme dun passage de relais entre
la mtaheuristique et la technique locale, charge daffiner la solution. Mais les deux
approches peuvent aussi tre entremles de manire plus complexe.
Citons quelques exemples de mthodes illustrant ces diffrentes catgories :
Mthode exacte : cette mthode va rechercher loptimum global. Pour cela, elle effectue, en
gnral, une numration des solutions de lespace de recherche. Par exemple la
mthode de Branch and Bound (voir [Hillier et al. 95]) dans laquelle on effectue les tapes suivantes :
on divise lespace de recherche en sous-espaces,
on cherche une borne minimale en terme de fonction objectif associe chaque
sous-espace de recherche,
on limine les mauvais sous-espaces,
on reproduit les tapes prcdentes jusqu obtention de loptimum global.
Cette mthode permet dobtenir loptimum global de manire exacte, sur certains types de problmes. Il nest pas possible dappliquer cette mthode des
problmes dont lespace de recherche est de taille trop importante.
Mthodes approches :
Mthodes Heuristiques : elles sont dveloppes pour rsoudre un type de problme en particulier. Elles ne fonctionnent que sur le type de problme pour lequel
elles
ont
t
dveloppes,
par
exemple
(voir
[Ausiello et al. 99]) lalgorithme de type First Fit ddi au problme de Bin
packing (ou problme de rangement).
Mthodes Mtaheuristiques : elles sont fondes sur une ide gnrale (le parallle avec un processus naturel, comme le recuit dun mtal, dans le cas du
recuit simul). Elles peuvent sadapter nimporte quel type de problme et
donnent de bons rsultats. Par exemple : le recuit simul ou les algorithmes
gntiques, qui seront prsents plus loin dans cet ouvrage.
Mthodes non-linaires :
Globale :
6
Avant-propos
Minimisation
^
dun cout
Identification
Caractrisation
Problme
inverse
Optimisation
Combinatoire
Continue
optimisation difficile
Mthode
APPROCHEE
Mthode
EXACTE
(spcialise)
NON LINEAIRE
et souvent non connue
analytiquement
Mthode
GLOBALE
HEURISTIQUE
spcialise
METAHEURISTIQUE
de VOISINAGE
LINEAIRE
Programmation
linaire
Mthode
LOCALE
CLASSIQUE
(souvent avec gradients)
AVEC
GRADIENTS
SANS
GRADIENTS
DISTRIBUEE
Mthode
HYBRIDE
SIMPLE
COMPLEXE
Avant-propos
Les mthodes stochastiques : elles reposent sur un processus alatoire.
Par exemple, on peut citer la mthode de marche alatoire. Dans cette
mthode, on tire un point situ dans le voisinage dun point courant et
ce point devient alors le point courant, quelle que soit la valeur de la
fonction objectif.
Optimisation multiobjectif
La principale difficult que lon rencontre en optimisation monobjectif vient du fait que
modliser un problme sous la forme dune quation unique peut tre une tche difficile.
Avoir comme but de se ramener une seule fonction objectif peut aussi biaiser la modlisation.
Loptimisation multiobjectif autorise ces degrs de libert qui manquaient en optimisation monobjectif. Cette souplesse nest pas sans consquences sur la dmarche suivre pour
chercher un optimum notre problme enfin modlis. La recherche ne nous donnera plus
une solution unique mais une multitude de solutions. Ces solutions sont appeles solutions
de Pareto et lensemble de solutions que lon obtient la fin de la recherche est la surface de
compromis.
Cest aprs avoir trouv les solutions du problme multiobjectif que dautres difficults
surviennent : il faut slectionner une solution dans cet ensemble. La solution qui sera choisie
par lutilisateur va reflter les compromis oprs par le dcideur vis--vis des diffrentes
fonctions objectif.
Le dcideur tant humain, il va faire des choix et lun des buts de loptimisation multiobjectif va tre de modliser les choix du dcideur ou plutt ses prfrences. Pour modliser
ces choix, on pourra sappuyer sur deux grandes thories :
la thorie de lutilit multi-attribut (voir [Keeney et al. 93]) ;
la thorie de laide la dcision (voir [Roy et al. 93]).
Ces deux thories ont des approches diffrentes.
La premire approche va chercher modliser les prfrences du dcideur, en postulant
quimplicitement chaque dcideur cherche maximiser une fonction appele fonction dutilit. Cette approche naccepte pas quil y ait, en fin de slection, des solutions ex-aequo.
La seconde approche, elle, va chercher reproduire le processus de slection du ou des
dcideurs. Pour cela, on sappuiera sur des outils permettant doprer des slections de solutions parmi un ensemble de solutions. Cette approche accepte que lon obtienne des solutions
ex-aequo.
Lautre difficult laquelle on sera confront avant deffectuer une optimisation sera la
slection de la mthode doptimisation. En effet, on peut rpartir les mthodes doptimisation
multiobjectif en trois grandes familles. Ces familles sont dfinies en fonction de linstant o
lon prend la dcision deffectuer ou non un compromis entre fonctions objectif. Nous avons
les familles suivantes :
Les mthodes doptimisation a priori :
Dans ces mthodes, le compromis que lon dsire effectuer entre les diffrentes fonctions objectif a t dtermin avant lexcution de la mthode doptimisation. Pour
obtenir la solution de notre problme, il suffira de faire une et une seule recherche
et, en fin doptimisation, la solution obtenue refltera le compromis que lon dsirait
effectuer entre les fonctions objectif avant de lancer la recherche.
Cette mthode est intressante dans le sens o il suffit dune seule recherche pour trouver la solution. Cependant, il ne faut pas oublier le travail de modlisation du compromis qui a t effectu avant dobtenir ce rsultat. Il ne faut pas, non plus, oublier que le
8
Avant-propos
dcideur est humain et quil sera susceptible de constater que la solution obtenue en
fin doptimisation ne le satisfait finalement pas et quil souhaite maintenant, aprs avoir
examin cette solution, une solution qui opre un autre compromis entre les fonctions
objectif.
Les mthodes doptimisation progressive :
Dans ces mthodes, on cherchera questionner le dcideur au cours de loptimisation
afin que celui-ci puisse rorienter la recherche vers des zones susceptibles de contenir
des solutions qui satisfassent les compromis quil souhaite oprer entre les fonctions
objectif.
Ces mthodes, bien quappliquant une technique originale pour modliser les prfrences du dcideur, prsentent linconvnient de monopoliser lattention du dcideur
tout au long de loptimisation.
Cet inconvnient nest pas majeur lorsque lon a affaire des problmes doptimisation pour lesquels la dure dune valuation de la fonction objectif nest pas importante. Pour les autres problmes, lutilisation dune telle mthode peut tre dlicate. Il
est en effet difficile de monopoliser lattention du dcideur pendant une priode qui
peut stendre sur plusieurs heures en lui posant, de plus, des questions toutes les dix
minutes, voire mme toutes les heures.
Les mthodes a posteriori :
Dans ces mthodes, on va chercher un ensemble de solutions bien rparties dans lespace de solutions. Le but sera ensuite de proposer ces solutions au dcideur pour quil
puisse slectionner la solution qui le satisfait le plus en jugeant les diffrentes solutions
proposes.
Ici, il nest plus ncessaire de modliser les prfrences du dcideur. On se contente de
produire un ensemble de solutions que lon transmettra au dcideur. Il y a donc un gain
de temps non ngligeable vis--vis de la phase de modlisation des prfrences de la
famille des mthodes a priori.
Linconvnient quil nous faut souligner est que, maintenant, il faut gnrer un ensemble de solutions bien rparties. Cette tche est non seulement difficile, mais, en
plus, peut requrir un temps dexcution prohibitif.
Par rapport loptimisation monobjectif, on remarque que lon a gagn des degrs de libert
supplmentaires pour modliser notre problme. Par contre, alors que la slection dune mthode doptimisation monobjectif tait dj difficile du fait de la diversit des mthodes doptimisation disponibles, nous nous trouvons, en optimisation multiobjectif, face une difficult
encore plus importante.
Ce nouveau type doptimisation a cependant permis de rsoudre avec succs de nombreux
problmes doptimisation :
dimensionnement de rseaux,
optimisation de structure,
problmes dordonnancement,
etc.
Le dynamisme de la communaut de loptimisation multiobjectif montre que le domaine est
en pleine expansion :
de nouvelles confrences ddies loptimisation multiobjectif voient le jour ;
le nombre de publications relatives loptimisation multiobjectif crot rapidement ;
lintrt port ce domaine par les industriels est dsormais patent.
Dans cet ouvrage, nous prsentons un panorama dtaill, mais non exhaustif, des mthodes
doptimisation multiobjectif et de la thorie sy rapportant, et nous prsentons quelques applications.
Avant-propos
Plan de louvrage
Partie I :
10
Avant-propos
Chapitre 8 : Les fonctions de test des mthodes doptimisation multiobjectif.
Tout comme loptimisation monobjectif, loptimisation multiobjectif a besoin
de problmes permettant dvaluer lefficacit des mthodes. Nous prsentons
dabord la famille des problmes tests de Deb. Ceux-ci, trs rpandus, permettent
de rgler de nombreux paramtres de lespace de recherche et illustrent trs
bien les difficults spcifiques que lon est susceptible de rencontrer en optimisation multiobjectif. Nous prsentons aussi une famille de problmes tests
contraints qui est, lheure actuelle, la seule famille cohrente de problmes
tests contraints.
Chapitre 9 : Tentatives de classification des mthodes doptimisation multiobjectif.
La diversit des mthodes est un atout. Cependant, elle soulve la question suivante : comment choisir une mthode adapte la rsolution dun problme
donn ?
Ce chapitre propose quelques techniques permettant de lever partiellement
cette difficult.
Partie III : Etudes de cas
Chapitre 10 : Etude de cas n1 : qualification de code scientifique par optimisation multiobjectif.
Nous commenons ici une prsentation dapplications illustrant lutilisation concrte
des mthodes doptimisation multiobjectif dans divers domaines.
Ce chapitre traite de la qualification des codes scientifiques, cest--dire de la
manire de rgler les paramtres dun code scientifique pour que les rsultats
fournis par celui-ci soient le plus proches possible de la ralit. Le problme
est ici rsolu dans lespace des paramtres et non dans lespace des fonctions
objectif comme on le fait classiquement.
Ce chapitre a t rdig en collaboration avec M. Dumas du CEA.
Chapitre 11 : Etude de cas n2 : tude multicritre de lextension dun rseau de tlcommunications.
Lapplication illustre dans ce chapitre concerne le dimensionnement dun rseau de tlcommunications. Cest un champ dapplication majeur de loptimisation multiobjectif et particulirement dactualit.
Ce chapitre a t rdig par C. Decouchon-Brochet, France Tlcom - Recherche
et Dveloppement.
Chapitre 12 : Etude de cas n3 : outils dcisionnels multicritres utiliss par EADS Launch
Vehicles pour traiter les appels doffres.
Dans ce chapitre, une application dune mthode daide la dcision (la mthode
ELECTRE TRI) est prsente. Cette application concerne le classement dappels
doffres en diffrentes catgories :
les appels doffres que lon est sr de gagner,
les appels doffres dont lissue est incertaine,
les appels doffres que lon est sr de perdre.
Ce chapitre a t rdig par J.-M. Contant, J.-L. Bussire et G. Piffaretti de la
socit EADS Launch Vehicles.
Conclusions : En conclusion, nous rcapitulons les atouts et les difficults de loptimisation multiobjectif, avant de passer en revue quelques perspectives dvolution du
domaine.
11
Avant-propos
Plan de lecture
Plusieurs lectures sont possibles :
La lecture linaire de louvrage.
Nous conseillons ce mode de lecture aux lecteurs dsirant dcouvrir le domaine de
loptimisation multiobjectif.
La lecture spcifique de certaines parties de louvrage.
Si le lecteur est plutt intress par certains domaines particuliers comme loptimisation interactive, ou les mthodes doptimisation multiobjectif utilisant des mtaheuristiques, il est possible de faire une lecture au plus court de cet ouvrage. Certains
chapitres sont toutefois ncessaires la bonne comprhension dautres chapitres. Nous
avons reprsent les plus courts chemins de lecture possibles sur la figure suivante :
Chapitre 1
Chapitre 2
Sections 2.1 2.8
Chapitre 2
Section 2.9 la fin
Chapitre 3
Chapitre 4
Chapitre 5
Chapitre 6
Chapitre 10
Chapitre 11
Chapitre 12
Chapitre 7
Chapitre 8
Chapitre 9
Remerciements
Les auteurs tiennent remercier Electricit de France, Recherche et Dveloppement, qui a
accueilli Yann Collette pour la prparation de son doctorat, et qui a autoris la publication de
cet ouvrage. Ils adressent galement leurs remerciements toutes les personnes qui ont permis
dillustrer louvrage par la prsentation de trois applications industrielles : en particulier, M.
Dumas, du CEA, pour sa contribution la rdaction du chapitre 10 ; C. Decouchon-Brochet,
de France Tlcom, pour sa rdaction complte du chapitre 11 ; J.-M. Contant, J.-L. Bussire
et G. Piffaretti, dEADS Launch Vehicles, pour leur rdaction complte du chapitre 12.
Yann Collette tient galement remercier Isabelle et Marie Collette qui lont soutenu
constamment, et ont accept avec le sourire les longues heures consacres louvrage. Il
souhaite aussi remercier ses collgues de travail de lquipe SINETICS/I29 dEdF R&D,
Clamart, pour leur constante bonne humeur, ainsi que pour leurs commentaires toujours
pertinents.
12
Premire partie
Chapitre 1
Introduction : optimisation
multiobjectif et dominance
1.1
f (
x)
g (
x)0
h (x)=0
(fonction optimiser)
(m contraintes dingalit)
(p contraintes dgalit)
On a
x Rn ,
g (
x ) Rm et h (
x ) Rp.
Chapitre 1.
S1
x2
B2sup
B2in f
B1in f
S2
x2
B2sup
B1sup
B2in f
x1
B1in f
B1sup
x1
1.2
Vocabulaire et dfinitions
Fonction objectif :
Cest le nom donn la fonction f (on lappelle encore fonction de cot ou critre doptimisation). Cest cette fonction que lalgorithme doptimisation va devoir
optimiser (trouver un optimum).
Sauf mention explicite contraire, on supposera dans la suite que la fonction objectif est
minimiser.
Variables de dcision :
Un point
x est un minimum global de la fonction f si on a :
f ( x ) < f (
x ) quel que soit
x tel que
x 6=
x . Cette dfinition correspond au
point M3 de la figure 1.2.
Minimum local fort :
Un point
x est un minimum local fort de la fonction f si on a :
f ( x ) < f (
x ) quel que soit
x V (
x ) et
x 6=
x , o V (
x ) dfinit un voisi
Un point
x est un minimum local faible de la fonction f si on a :
f ( x ) f (
x ) quel que soit
x V (
x ) et
x 6=
x , o V (
x ) dfinit un voisi
16
f (x)
M1
M2
M4
M3
x
F IG . 1.2 Les diffrents minima.
1.3
On peut classer les diffrents problmes doptimisation que lon rencontre dans la vie
courante en fonction de leurs caractristiques :
1. Nombre de variables de dcision :
Une monovariable.
Plusieurs multivariable.
Voici un exemple dutilisation de cette classification. Si lon considre le problme de loptimisation des plans de rechargement de combustible nuclaire, on constate que ce problme
est :
non linaire on na pas de reprsentation explicite du problme. On est oblig dutiliser un code de calcul numrique pour calculer le plus prcisment possible les diffrentes valeurs optimiser ;
contraint les lments de combustible ne peuvent pas tre placs nimporte o ;
multivariable un plan de rechargement est compos de plusieurs lments de combustible dont les caractristiques sont diffrentes ;
combinatoire pour passer un autre plan de rechargement, on permute des lments
de combustible dun plan de rechargement.
17
Chapitre 1.
1.4
Loptimisation multiobjectif
minimiser
f (
x)
avec
g (
x)0
et
h (x)=0
o
x Rn , f (
x ) Rk ,
g (
x ) Rm et h (
x ) Rp.
Comme on peut le voir ici, on na plus un seul objectif atteindre, mais k (le vecteur f
regroupe k fonctions objectif).
Le but que lon se fixe dans la rsolution dun problme doptimisation multiobjectif est
de minimiser au mieux les diffrents objectifs. Comme on va le voir dans le paragraphe
suivant, dans un problme doptimisation multicritre, on rencontre souvent des objectifs
contradictoires. Deux objectifs sont contradictoires lorsque la diminution dun objectif entrane une augmentation de lautre objectif.
1.5
Lorsque lon cherche obtenir une solution optimale un problme doptimisation multiobjectif donn, on sattend souvent trouver une solution et une seule. En fait, on rencontre
rarement ce cas de figure. La plupart du temps, on trouve une multitude de solutions, du fait
que certains des objectifs sont contradictoires.
En effet, si lon prend lexemple du dimensionnement dune poutre devant supporter une
charge donne, on va vouloir obtenir une poutre de section la plus petite possible, produisant
la plus petite dformation possible, lorsque la charge repose sur le milieu de la poutre. Dans
cet exemple (reprsent la figure 1.3), de manire intuitive, on saperoit que rpondre
lobjectif poutre de petite section ne va pas du tout dans le sens de rpondre lobjectif
petite dformation (voir [Coello et al. 99] pour la modlisation mathmatique de ce problme).
1.6 La dominance
Donc, quand on rsoudra un problme doptimisation multiobjectif, on obtiendra une
grande quantit de solutions. Ces solutions, comme on peut sen douter, ne seront pas optimales, au sens o elles ne minimiseront pas tous les objectifs du problme.
Un concept intressant, qui nous permettra de dfinir les solutions obtenues, est le compromis. En effet, les solutions que lon obtient lorsque lon a rsolu le problme sont des
solutions de compromis. Elles minimisent un certain nombre dobjectifs tout en dgradant
les performances sur dautres objectifs.
1.6
La dominance
1.6.1
Introduction et dfinitions
Lorsque nous avons rsolu notre problme doptimisation multiobjectif, nous avons obtenu une multitude de solutions. Seul un nombre restreint de ces solutions va nous intresser.
Pour quune solution soit intressante, il faut quil existe une relation de dominance entre la
solution considre et les autres solutions, dans le sens suivant :
Dfinition : la relation de dominance
x1 est au moins aussi bon que x2 dans tous les objectifs, et,
x1 est strictement meilleur que
x2 dans au moins un objectif.
Les solutions qui dominent les autres mais ne se dominent pas entre elles sont appeles
solutions optimales au sens de Pareto (ou solutions non domines). On dfinit comme suit
loptimalit locale et loptimalit globale au sens de Pareto.
Dfinition : optimalit locale au sens de Pareto
Un vecteur
x Rn est optimal localement au sens de Pareto sil existe un rel > 0
Un vecteur
x est donc optimal localement au sens de Pareto sil est optimal au sens de
Pareto sur une restriction de lensemble Rn . Cette dfinition est illustre par la figure 1.4.
Dfinition : optimalit globale au sens de Pareto
Un vecteur
x est optimal globalement au sens de Pareto (ou optimal au sens de
C =
x | f (
x ) Rk et f (
x)0
19
Chapitre 1.
f2
B
f1
F IG . 1.4 Loptimalit locale au sens de Pareto.
Un vecteur
x est optimal au sens de Pareto pour un problme doptimisation multiobjectif donn si
C +
x F = {
x}
111111
000000
000000
111111
000000
111111
C +
x
000000
111111
000000
111111
000000
111111
11111
00000
00000
11111
C
00000
11111
00000
11111
00000
11111
f1
20
1.6 La dominance
Cne C
f2
Zone
Zone de
dindiffrence
prfrence
111111111
000000000
000000000
111111111
Zone de
000000000
111111111
000000000
111111111
dominance
000000000
111111111
000000000
111111111
000000000
111111111
3
000000000
111111111
f1
Zone
dindiffrence
1.6.2
Exemple
Pour mieux comprendre ce quest une relation de dominance, nous allons traiter un
exemple (voir [Deb 99]).
On considre un problme deux objectifs : maximiser f1 et minimiser f2 .
Pour ce problme, on trouve un ensemble de solutions. Cet ensemble de solutions est
reprsent dans le tableau 1.1.
Point
A
B
C
D
E
Objectif f1
8
9
12
11
16
Objectif f2
5
2
1
2
2
Chapitre 1.
5
4
3
B
2
C
1
2
10
12
14
16 f1
(+,+)
(+,+)
(+,+)
(+,+)
B
(-,-)
(+,+)
(+,=)
(+,=)
C
(-,-)
(-,-)
(-,-)
(+,-)
D
(-,-)
(-,=)
(+,+)
E
(-,-)
(-,=)
(-,+)
(-,=)
A
A
B
D
(+,+)
(+,+)
B
(-,-)
D
(-,-)
(-,=)
(+,=)
(+,=)
Remarque : Dvidence, les couples situs dans des cases du tableau 1.2 symtriques par
rapport la diagonale principale sont complmentaires.
Nous allons maintenant chercher extraire les solutions non domines.
1. Considrons le point A,
ce point est domin par les points suivants :
B(couple (-,-) lintersection de la ligne A et de la colonne B),
22
1.6 La dominance
C (couple (-,-) lintersection de la ligne A et de la colonne C),
D (couple (-,-) lintersection de la ligne A et de la colonne D) et
E (couple (-,-) lintersection de la ligne A et de la colonne E).
2. Considrons le point B,
ce point est domin par les points suivants :
C (couple (-,-) lintersection de la ligne B et de la colonne C),
D (couple (-,=) lintersection de la ligne B et de la colonne D) et
E (couple (-,=) lintersection de la ligne B et de la colonne E),
il domine le point A (couple (+,+) lintersection de la ligne B et de la colonne A).
On peut dire que le point A ne fera pas partie des solutions non domines de rang 1 car
il est possible de trouver un point (B en loccurrence) qui est meilleur que le point A
sur tous les objectifs.
3. Considrons le point C,
ce point nest pas domin par le point E (couple (+,-) lintersection de la ligne E
et de la colonne C),
et il ne domine pas, non plus, le point E (couple (-,+) lintersection de la ligne C et
de la colonne E) :
les points C et E sont donc non domins ;
il domine les points suivants :
A (couple (+,+) lintersection de la ligne C et de la colonne A),
B (couple (+,+) lintersection de la ligne C et de la colonne B) et
D (couple (+,+) lintersection de la ligne C et de la colonne D).
On peut dire que les points A, B et D ne feront pas partie des solutions non domines
de rang 1 car il est possible de trouver un point (C en loccurrence) qui soit meilleur
que ces deux points sur tous les objectifs.
4. Le point D tant domin, il nest pas ncessaire de le comparer aux autres points.
5. Considrons le point E,
ce point nest pas domin par le point C (couple (-,+) lintersection de la ligne C et
de la colonne E),
et il ne domine pas non plus le point C (couple (+,-) lintersection de la ligne E et
de la colonne C),
il domine les points suivants :
A (couple (+,+) lintersection de la ligne E et de la colonne A),
B (couple (+,=) lintersection de la ligne E et de la colonne B) et
D (couple (+,=) lintersection de la ligne E et de la colonne D).
On constate que les points E et C sont non domins. Ils dominent les points A, B et D
mais ne se dominent pas entre eux.
On va, maintenant, sortir ces deux points (E et C) du tableau : ils forment lensemble des
points non domins. On peut tablir un classement des solutions en fonction du rang de
domination. Dans notre exemple, on attribue le rang 1 (car on a fini la premire comparaison)
aux points E et C, parce quils dominent tous les autres points mais ne se dominent pas entre
eux. Ces points sont donc des solutions optimales au sens de Pareto de rang 1.
On recommence appliquer la rgle sur les lments restants du tableau.
Les solutions restantes aprs suppression des points E et C sont reprsentes dans le
tableau 1.3.
Ce processus sarrte lorsque lensemble des points comparer est vide. La figure 1.8
reprsente les diffrents points et leur rang.
23
Chapitre 1.
5
4
Rang 3
Rang 2
Rang 1
1
2
10
12
14
16 f1
1.6.3
1.6.3.1
Nous allons maintenant traiter plus en dtail notre exemple dintroduction : le dimensionnement dune barre de longueur donne (1 m), reprsente la figure 1.9.
On recherche le ct a de la section carre, permettant de minimiser le poids de la barre
ainsi que sa dformation lorsquelle est soumise une force de 1000 N applique en son
centre.
24
1.6 La dominance
1 mtre
111
000
000
111
000
111
000
111
S (a) = a
1103
d (a) = 1000 +
4
192+2105 + a12
a 0.1
(pour les caractristiques de la barre explicites dans [Spenle et al. 96])
La seule contrainte que nous nous fixons est que le ct de la section ne dpasse pas
10 cm.
Pour visualiser lallure de lensemble des valeurs ralisables, nous allons choisir un certain nombre de valeurs de a, au hasard, puis nous allons calculer les valeurs des deux objectifs
et les tracer dans un plan (S, d). Cette allure est reprsente la figure 1.10.
La barre pleine
Plan S, d
0.3853
Dformation d
0.3
0.2
0.1
0.003139
0.001
0.003
0.005
0.007
0.009
Section S
F IG . 1.10 Lensemble des valeurs des objectifs pour une barre pleine de section carre.
La premire chose que nous pouvons constater sur cette figure est que les deux objectifs
sont antagonistes. La minimisation des valeurs dun objectif entrane la maximisation de
lautre objectif. En revanche, sur cette figure, on peut voir que toutes les solutions sont non
25
Chapitre 1.
domines. Ceci vient du fait que le problme doptimisation, tel que nous lavons crit, se
ramne une simple courbe paramtrique.
Le second point que nous pouvons souligner est lintrt de loptimisation multiobjectif
par rapport loptimisation monobjectif. En effet, si nous avions effectu une optimisation
monobjectif sur ce problme de dimensionnement, nous aurions cherch soit optimiser le
volume de la barre, soit optimiser la dformation de cette mme barre. Dans les deux cas,
nous aurions obtenu une valeur absurde :
une longueur de ct nulle pour la section de la barre (le volume est ainsi minimis
outrance) ;
une longueur de ct dmesure par rapport la longueur de la barre, dans le cas de
loptimisation de la dformation de la barre. En effet, plus la section est importante,
moins la barre se dforme.
Ce problme de dimensionnement montre que, dans certains cas, un problme doptimisation
ne peut pas se ramener un seul objectif.
1.6.3.2
1 mtre
111
000
000
111
000
111
000
111
b
S (a, b) = a2 b2
1103
d (a, b) = 1000 +
4 b4
192+2105 + a 12
a 0.1
b + 0.04 a
Pour visualiser lallure de lensemble des solutions ralisables, nous allons choisir un certain nombre de valeurs du couple (a, b), au hasard pour a, b [0, 0.1], puis nous allons calculer
les valeurs des deux objectifs et les tracer dans un plan (S, d). Cette allure est reprsente
la figure 1.12.
Pour cet exemple, on peut maintenant remarquer que la situation est plus complique. Les
diffrentes solutions ne forment plus une simple courbe, nous avons dsormais un vritable
ensemble de solutions. La diffrence avec lexemple prcdent est que, maintenant, toutes les
solutions de cet ensemble ne se valent pas. Un groupe de solutions dominent les autres. Pour
extraire ces solutions, nous allons appliquer la relation de dominance et liminer les points
domins. On obtient alors lensemble reprsent la figure 1.13.
26
1.6 La dominance
La barre creuse
Plan S, d
0.13
0.12
0.11
Dformation d
0.1
0.09
0.08
0.07
0.06
0.05
0.04
0.03152
0.004048
0.005
0.006
0.007
0.008
0.009
Section S
F IG . 1.12 Lensemble des valeurs des objectifs pour une barre creuse de section carre.
0.12
0.11
Dformation d
0.1
0.09
0.08
0.07
0.06
0.05
0.04
0.03152
0.004048
0.005
0.006
0.007
0.008
0.009
Section S
F IG . 1.13 Les solutions non domines pour le dimensionnement dune barre creuse de
section carre.
On peut remarquer que, aprs filtrage des solutions domines, seule une frontire de lensemble de dpart subsiste. Il sagit de la surface de compromis et cest sur cette surface de
compromis que lon trouve les meilleures solutions, celles que lon ne pourra pas amliorer
sur les deux objectifs.
27
Chapitre 1.
1.7
On peut comprendre lintrt deffectuer une optimisation multiobjectif par rapport une
optimisation monobjectif en visualisant lamlioration relative dun objectif par rapport un
autre sur un problme test simple.
Ce problme est le suivant :
minimiser
minimiser
avec
et
f1 (, x) = 1 cos () + x
f2 (, x) = 1 sin () + x
0 2
0x1
Le problme test
La surface de compromis
Plan f1, f2
Plan f1, f2
1
f2
f2
f1
f1
28
0
9
18
27
36
45
54
63
72
81
90
1.0
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0.0
f1 = 1 cos()
f2 = 1 sin()
f1 ()
0
0.0123
0.0489
0.109
0.191
0.293
0.412
0.546
0.691
0.843
1
1.0
0.8
0.6
0.4
0.2
0.0
-0.2
-0.4
-0.6
-0.8
-1.0
+
+
+
+
f2 ()
1
0.843
0.691
0.546
0.412
0.293
0.191
0.109
0.0489
0.0123
0
f1
f2
+
+
+
+
+
+
+
F IG . 1.15 Lvolution des valeurs des fonctions objectif sur la surface de compromis.
Comme on peut le voir la figure 1.15-a, suivant la position du point sur la surface
de compromis, on peut esprer une bonne rduction du niveau dune fonction objectif sans
avoir daugmentation trs importante du niveau de lautre fonction objectif. Cest le cas, par
exemple, de la fonction objectif f1 pour des valeurs de proches de 0. Pour cette position, si
lon augmente la valeur de de 0.2 radian (on passe ainsi de 0 radian 0.2 radian), la valeur
de la fonction objectif f1 passe de 1 0.843 alors que la fonction objectif f2 passe elle de 0
0.0123.
Le gain que lon peut esprer en un point prcis peut tre reprsent par la drive de
la fonction objectif par rapport la variable en ce point. Une drive positive signifie une
amlioration de la fonction objectif alors quune drive ngative signifie une dtrioration
de la valeur de la fonction objectif.
Ce comportement typique de loptimisation multiobjectif reflte assez bien le but poursuivi par cette discipline : minimiser un groupe de fonctions objectif sans trop dgrader les
valeurs des optima obtenus par rapport ceux obtenus lors dune optimisation monobjectif
effectue objectif par objectif.
29
Chapitre 1.
1.8
1.8.1
Introduction
La relation de dominance noffre pas de degrs de libert dans sa dfinition. Par exemple,
il nest pas possible dinclure dans la dfinition de la relation de dominance une prfrence
dun objectif par rapport un autre. Cest pour contrecarrer ce manque de flexibilit que
des relations drives de la relation de dominance ont t dveloppes. Les solutions que
permettent de trouver ces relations drives de la dominance sont toutes optimales au sens
de Pareto. La grande diffrence que lon rencontre avec ces relations est que lensemble des
solutions que lon obtient avec ces relations est un sous-ensemble de lensemble des solutions
obtenues avec la relation de dominance de Pareto.
Dans cette section, lensemble Sk dsigne lensemble des solutions ralisables dun problme doptimisation k fonctions objectif.
1.8.2
Optimalit lexicographique
Cette dfinition de loptimalit permet dinclure une prfrence entre objectifs [Ehrgott 97].
Dfinition : optimalit au sens lexicographique
k
x lex x , x S x .
Si
x ,
y Sk , on dit que
x lex
y sil existe une valeur dindex q telle que xq = yq pour
=
=
(1, 2, 3, 4, 5, 6)
(1, 2, 3, 9, 4, 9)
1.8.3
Optimalit extrme
Comme pour la relation doptimalit lexicographique, cette relation permet dtablir une
prfrence entre critres. Cette prfrence est tablie en utilisant des poids. Plus un objectif
sera important, plus son poids sera lev [Ehrgott 97].
30
tel que i i = 1, x est une solution optimale du problme de minimisation monocritre ayant pour fonction objectif
k
xi
i
(1.1)
i=1
donc :
k
xi ,
x Sk
i xi i
i=1
i=1
n
o
x
(1.2)
Illustrons la notion dextrme-dominance en reprenant lexemple prcdent. Ici, on considre lobjectif 6 comme objectif de rfrence. On considre aussi que les objectifs 1, 3 et 5
sont 20 % plus importants que lobjectif de rfrence et que les objectifs 2 et 4 sont quivalents lobjectif de rfrence. On calcule maintenant les poids de chaque objectif :
w1 = w3 = w5 = 1.2 w6
w2 = w4 = w6
6i=1 wi = 1
La rsolution de ces quations nous donne :
w1 = w3 = w5 =
w2 = w4 = w6 =
0.2
1.1
1
6.6
= 0.18
= 0.15
1.8.4
Optimalit maximale
Cette relation, contrairement aux prcdentes, ne permet pas dintroduire une prfrence
entre objectifs [Ehrgott 97].
Dfinition : optimalit maximale
Une solution x Sk est max-optimale si la valeur du pire objectif est aussi petite que
possible :
max xq
q{1, ,k}
max
xq
q {1, n, k} o
x S k x
(1.3)
Illustrons cette relation en prenant lexemple prcdent. On peut dire que la solution A
max-domine la solution B car :
max A = 6 < max B = 9
31
Chapitre 1.
1.8.5
La cne optimalit
2
C (x1 , x2 ) = x R | x1 0, x2 0, x1 x2 x1
(1.4)
C (x1 , x2 ) =
x R2 | x1 x2 et x2 x1
Si = 0 :
(1.5)
C (x1 , x2 ) =
x R2 | x1 0 et x2 0
111111111
000000000
000000000
111111111
000000000
111111111
000000000
111111111
000000000
111111111
000000000
111111111
111111111
000000000
000000000
111111111
(a) Cas positif
x
111111111111
000000000000
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
x
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
2
x2
x1
Cette relation peut tre tendue au cas multidimensionnel. On trouvera dans [Deb 01] une
relation diffrente permettant aussi de rgler la forme du cne de domination.
Dfinition : le cne multidimensionnel
Un cne de pente est dfini de la manire suivante :
C =
{
x Rn | i {1, , n} , j {1, , n} , j > i,
xi , x j C (xi , x j )
(1.6)
La projection du cne multidimensionnel sur des plans est reprsente la figure 1.17.
32
1111111111
0000000000
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
000000
111111
0000000000
1111111111
000000
111111
0000000000
1111111111
000000
111111
0000000000
1111111111
000000
111111
000000
111111
0000000000 x
1111111111
000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
x3
Dfinition : la cne-dominance
111111111
000000000
000000000
111111111
000000000
111111111
000000000
111111111
111111111
000000000
000000000
111111111
Cne D
111111111
000000000
000000000
111111111
000000000
111111111
y
111111111
000000000
000000000
111111111
000000000
111111111
000000000
111111111
000000000
111111111
000000000
111111111
000000000
111111111
000000000
111111111
11111111
00000000
y
00000000
11111111
00000000
11111111
00000000
11111111
00000000
11111111
00000000
11111111
11111111
00000000
Cne D
11111111
00000000
00000000
11111111
00000000
11111111
00000000
11111111
11111111
00000000
00000000
11111111
11111111
00000000
00000000
11111111
00000000
11111111
33
Chapitre 1.
111111111
000000000
111111111
000000000
000000000
111111111
000000000
111111111
000000000
111111111
000000000
111111111
111111111
000000000
000000000
111111111
000000000
111111111
111111111
000000000
000000000
111111111
000000000
111111111
x
000000000
111111111
000000000
111111111
111111111
000000000
000000000
111111111
Cne de domination
000000000
111111111
000000000
111111111
000000000
111111111
f1
F IG . 1.19 La relation de cne-dominance.
La relation de cne-dominance est quivalente la relation de dominance que nous avons
vue dans la section prcdente lorsque = 0.
1.8.6
La a-dominance
1. x
x pour tout j I
, et
j
(k+1a)
2. xj <
x j pour au moins un j I(k+1a) .
Pour illustrer cette dfinition, prenons un exemple. Considrons une famille de trois cri
{C2 ,C3 } o
F3 = n
I3 = {2, 3}
A
B
C1
1
1
C2
2
1
C3
3
2
Le point A 2-domine le point B car il domine le point B sur chaque famille de critres :
A domine B si lon considre les critres 1 et 2,
A domine B si lon considre les critres 1 et 3,
34
1.8.7
Une dernire forme de dominance importante dans le monde de loptimisation multiobjectif est la dominance au sens de Geoffrion (voir [Ehrgott 00] et [Miettinen 99]). Les solutions optimales obtenues par ce type de dominance sont appeles les solutions Pareto optimales propres.
Dfinition : la dominance au sens de Geoffrion
Une solution x S est appele solution Pareto optimale propre si :
elle est Pareto optimale,
il existe un nombre M > 0 tel que i et x S vrifiant fi (x) < fi (x ), il existe un
index j tel que f j (x ) < f j (x) et :
fi (x ) fi (x)
M
f j (x) f j (x )
Cette relation nest quasiment jamais utilise telle quelle. En gnral, on utilise plutt un
rsultat qui dcoule de cette dfinition. En effet, linterprtation de ce thorme faite dans
[Ehrgott 00] est la suivante :
Les solutions Pareto optimales propres ont des compromis borns suivant leurs
objectifs.
Un thorme relatif la mthode de pondration des fonctions objectif utilisant ce rsultat
est le suivant :
Thorme :
Soit la mthode dagrgation des fonctions objectif suivantes :
N
feq (
x ) = i fi (
x)
i=1
Ni=1 i
1.8.8
Conclusion
Chapitre 1.
solutions, compare les valeurs des objectifs, jusqu ce quun objectif permette de dterminer
une prfrence entre les deux solutions considres. Une fois que la prfrence entre les deux
solutions est dtermine, on ne considre plus les objectifs restants. La comparaison sarrte
l.
La dominance est donc un outil, parmi dautres, permettant de reproduire une dmarche
de recherche doptimum. Elle nest pas la seule, bien sr, mais elle est un lment important
pour la rsolution dun problme.
1.9
La surface de compromis
contraintes g ( x ) et h ( x ).
On appelle P la surface de compromis.
On reprsente S et P sur la figure 1.20.
f2
P
f1
F IG . 1.20 Reprsentation de la surface de compromis.
Une proprit est remarquable : en fonction du type de problme que lon cherche rsoudre, on obtient une forme de surface de compromis. Les formes les plus courantes de surfaces de compromis sont runies la figure 1.21. Ces formes de surfaces de compromis sont
typiques dun problme doptimisation multiobjectif sur un ensemble de solutions convexe
(pour une dfinition de la convexit, voir section 1.10). Cest ce type densemble que lon
rencontre la plupart du temps.
On observe deux points caractristiques associs une surface de compromis :
Point idal :
Les coordonnes de ce point sont obtenues en optimisant chaque fonction objectif
sparment.
36
1.10 La convexit
f2
f2
f1
f1
f2
f2
f1
f1
F IG . 1.21 Formes les plus courantes de surfaces de compromis dans le cas de deux objectifs.
Point nadir :
Les coordonnes de ce point correspondent aux pires valeurs obtenues par chaque
fonction objectif lorsque lon restreint lespace des solutions la surface de compromis.
Le point idal est utilis dans beaucoup de mthodes doptimisation comme point de rfrence. Le point nadir, lui, sert restreindre lespace de recherche ; il est utilis dans certaines
mthodes doptimisation interactives.
Ces deux dfinitions sont illustres la figure 1.22.
1.10
La convexit
Comme nous le verrons plus loin, certaines mthodes doptimisation multiobjectif ncessitent de respecter certaines hypothses. Le plus souvent, la mthode rclame de travailler sur
37
Chapitre 1.
Point idal
A
f1
F IG . 1.22 Reprsentation du point idal et du point nadir.
f2
f2
01
1
0
0
1
0
1
0
1
00
1
1
11
00
000
111
00
11
000
111
000 S
111
000
111
000
111
000
111
00
11
000
111
00
11
f1
f1
1.11
38
f2
f2
f1
f1
1.12
des
problmes
Il existe un nombre important de mthodes et nous avons class celles-ci en cinq groupes :
les mthodes scalaires,
les mthodes interactives,
les mthodes floues,
les mthodes exploitant une mtaheuristique,
les mthodes daide la dcision.
Les mthodes de ces cinq groupes peuvent aussi tre ranges en trois familles de mthodes
doptimisation multiobjectif [Van Veldhuizen 99] :
Les mthodes prfrence a priori :
Dans ces mthodes, lutilisateur dfinit le compromis quil dsire raliser (il fait part
de ses prfrences) avant de lancer la mthode doptimisation.
On retrouve dans cette famille la plupart des mthodes par agrgation (o les fonctions
objectif sont fusionnes en une seule).
Les mthodes prfrence progressive :
Dans ces mthodes, lutilisateur affine son choix de compromis au fur et mesure du
droulement de loptimisation.
On retrouve dans cette famille les mthodes interactives.
Les mthodes prfrence a posteriori :
Dans ces mthodes, lutilisateur choisit une solution de compromis en examinant toutes
les solutions extraites par la mthode doptimisation.
Les mthodes de cette famille fournissent, la fin de loptimisation, une surface de
compromis.
Il existe des mthodes doptimisation multiobjectif qui nentrent pas exclusivement dans une
famille. Par exemple, on peut utiliser une mthode prfrence a priori en lui fournissant des
prfrences choisies au hasard. Le rsultat sera alors un grand nombre de solutions qui seront
prsentes lutilisateur pour quil dcide de la solution de compromis. Cette combinaison
forme alors une mthode prfrence a posteriori.
Cette classification permet donc seulement de se faire une ide sur la dmarche que lon
devra suivre pour obtenir notre rsultat. Une classification plus fine est dveloppe dans le
chapitre 12.
39
Chapitre 1.
1.13
Bibliographie commente
[Ehrgott 97] Cet article prsente diffrentes relations de dominance. Il est trs mathmatique
mais reste un bon point de dpart pour un tour dhorizon de ces relations.
[Hillier et al. 95] Ceci est un ouvrage anglophone dintroduction la recherche oprationnelle. Tous les domaines de la recherche oprationnelle sont introduits travers
un expos trs didactique (programmation linaire, thorie des jeux, programmation non linaire). Beaucoup dexemples bien comments agrmentent lexpos
de chaque mthode.
[Miettinen 99] Ce livre, comme son titre lindique, est entirement ddi loptimisation
multiobjectif. Les concepts de base y sont prsents travers un expos plutt
mathmatique. Cet ouvrage se centre plus sur les mthodes a priori et progressives. Les principales caractristiques mathmatiques des mthodes sont prsentes.
40
Chapitre 2
2.1.2
Prsentation de la mthode
minimiser
avec
et
feq (
x ) = wi fi (
x)
i=1
g (x)0
h (
x)=0
On a
x Rn ,
g (
x ) Rm et h (
x ) Rp.
Frquemment, les coefficients de pondration respectent la relation suivante :
wi 0 pour tous les i {1, , k} et :
k
wi = 1
(2.1)
i=1
41
Chapitre 2.
minimiser
minimiser
avec
et
f1 (
x)
f2 (
x)
g (
x)0
h (x)=0
feq (
x ) = w1 f1 (
x ) + w2 f2 (
x)
(2.2)
x ) +C
(2.3)
f2 (
x ) = f1 (
w2
Cette quation de droite correspond la courbe des isovaleurs de la fonction objectif
quivalente.
f2
L2
L1
f1
F IG . 2.1 La mthode de pondration des fonctions objectif.
Sur la figure 2.1, lensemble S correspond lensemble des valeurs du couple ( f1 , f2 )
2.1.3
42
L1
L2
f1
F IG . 2.2 Une difficult insurmontable pour la mthode de pondration des fonctions objectif.
minimiser
minimiser
avec
f1 (x) = x2
f2 (x) = (x 2)2
x [0, 2]
f1 (
x ) = x2
f2 (
x ) = (x 2)2
= x2 4 x + 4
= f1 (
x )+44x
On obtient finalement :
2
( f2 (
x ) f1 (
x ) 4) = (4 x)2
2
2
f1 + f2 2 f1 f2 8 f1 8 f2 + 16 = 0
De plus, comme on le verra lors de la rsolution du problme doptimisation, la surface
de compromis (qui correspond normalement une surface) est ici une portion de courbe et
lensemble des couples ( f1 , f2 ) est une courbe (une ellipse dans cet exemple).
Nous avons choisi cet exemple atypique car il permet dillustrer numriquement et simplement le fonctionnement de certaines mthodes doptimisation multiobjectif. Nous traitons
dans lexemple 2 un cas moins atypique de problme doptimisation multiobjectif. Dans le
reste du document, nous traiterons uniquement lexemple 1 par souci de simplicit, en sachant que le mme type de dmarche pourra tre appliqu un problme doptimisation
multiobjectif classique.
La nouvelle fonction objectif scrit :
feq (x) = w1 f1 (x) + w2 f2 (x)
Les coefficients de pondration w1 et w2 respectent les conditions suivantes :
w1 et w2 0,
w1 + w2 = 1
43
(2.4)
Chapitre 2.
On cherche le minimum de la fonction objectif feq (x). Il vrifie les conditions suivantes
ncessaires lexistence dun minimum :
d feq (x)
dx = 0,
d 2 feq (x)
dx2
>0
Cherchons les points de feq (x) qui vrifient ces conditions :
d feq (x)
dx
d2 f
= 2 x (w1 + w2 ) 4 w2 ,
eq (x)
dx2
2w2
w1 +w2
= 2 w2
0.2
0.8
1.6
2.56
0.16
0.4
0.6
1.2
1.44
0.64
0.6
0.4
0.8
0.64
1.44
0.8
0.2
0.4
0.16
2.56
1.44
0.64
0.16
0.16 0.64
1.44
2.56 f1
44
8
7
6
5
4
3
2
1
0
9 f1
(2.5)
feq (x1 , x2 )
= 2 x2 + 10 w2
x2
(2.6)
(2.7)
Lquation 2.7 nous indique que la recherche des points qui annulent les quations 2.5 et
2.6 donnera un minimum de la fonction objectif. Donc :
2 x1 + 10 w2 = 0 x1 = 5 w2
2 x2 + 10 w2 = 0 x2 = 5 w2
45
Chapitre 2.
f2
200
100
0
0
10
20
30
40
50
f1
feq (w2 )
0
4.5
8
10.5
12
12.5
12
10.5
8
4.5
0
f1 (w2 )
0
0.5
2
4.5
8
12.5
18
24.5
32
40.5
50
f2 (w2 )
50
40.5
32
24.5
18
12.5
8
4.5
2
0.5
0
46
f2
50
40
30
20
10
0
0
10
20
30
40
50
f1
2.1.4
Discussion
Cette mthode a t lune des premires utilises. Dun point de vue algorithmique, elle
est trs efficace. On peut, en faisant varier les coefficients de pondration, retrouver la surface
de compromis, si le domaine ralisable est convexe.
Cependant, cette mthode ne permet pas de trouver les solutions enfermes dans une
concavit. Dans certains problmes doptimisation de structures mcaniques, elle peut se
comporter de manire catastrophique [Koski 85].
2.2
2.2.1
La mthode de Keeney-Raiffa
Principe
Cette mthode utilise le produit des fonctions objectif pour se ramener un problme
doptimisation monobjectif. Lapproche utilise ici est semblable celle utilise dans la mthode de pondration des fonctions objectif. La fonction objectif ainsi obtenue sappelle la
fonction dutilit de Keeney-Raiffa.
On retrouve cette fonction dans la thorie de la fonction utilit multi-attribut expose dans
[Keeney et al. 93] (M.A.U.T, Multi Attribute Utility Theory). Cette thorie, issue des sciences
daide la dcision, traite des proprits et de la manire de crer une fonction dutilit.
2.2.2
Prsentation de la mthode
feq (
x ) = K (ki ui ( fi (
x )) + 1)
i=1
(2.8)
Chapitre 2.
ki
y )
ui (
est une fonction qui est strictement non dcroissante en fonction de y et qui
peut incorporer des non-linarits. Par exemple, ui (y) = y2 . Cest une fonction
strictement non dcroissante de y si y R+ .
feq (
x ) = ki=1 ( fi (
x )) + 1
g (
x)0
h (x)=0
Principe
2.3.2
Prsentation de la mthode
Dans les dfinitions suivantes, le vecteur F (de coordonnes Fi , i {1, , k}) est un
vecteur dont les coordonnes correspondent celles dun objectif idal (ou de rfrence) au
sens dfini par lutilisateur (cela peut tre le point idal, ou un autre point qui reprsente
avec 1 r < .
Par exemple :
r=1:
Lr f (
x) =
L1
"
x )|
|Fi fi (
i=1
#1
r
(2.9)
f (
x ) = |Fi fi (
x )|
(2.10)
i=1
r=2:
L2 f (
x) =
"
48
x )|
|Fi fi (
i=1
#1
2
(2.11)
x ))
f (
x ) = max (Fi fi (
i{1 ,k}
(2.12)
Pour cette dernire forme, la mthode se transforme en la mthode dite min-max (ou mthode de Tchebychev).
On peut aussi utiliser la distance relative. Voici la dfinition de cette distance :
LrRel
f (
x) =
r # 1r
Fi fi (
x )
Fi
i=1
"
(2.13)
avec 1 r < .
Par exemple, la mthode dite min-max relatif est obtenue pour r :
Fi fi (
x)
Lminmax f (
x ) = max
Fi
i{1, ,k}
(2.14)
Pour finir, on peut aussi utiliser des coefficients de pondration dans lexpression de la
distance. Ces coefficients de pondration permettent de chercher un point dans une certaine
direction, comme avec la mthode de pondration des fonctions objectif. On obtient alors
lexpression suivante :
LW
r
f (
x) =
"
x ))|
|wi (Fi fi (
i=1
#1
r
avec 1 r .
Pour la mthode min-max, on obtient :
Lminmax f (
x ) = max (wi (Fi fi (
x )))
i{1, ,k}
q
2
g (
x)0
h (
x)=0
On peut souligner que, lorsque lon utilise ces mthodes pour la recherche de solutions
optimales au sens de Pareto, il nest pas ncessaire dajouter le terme dans lexpression de
feq ( x ) car cet oprateur est monotone. Ceci autorise un certain gain de temps dans le calcul
de la fonction objectif quivalente.
La figure 2.7 illustre le fonctionnement de cette mthode.
Sur cette figure, on a reprsent notre point de rfrence (qui est diffrent du point idal)
par un point noir. La surface de compromis, elle, est reprsente par un trait noir pais.
Comme on peut le voir la figure 2.10, le choix de ce point de rfrence influe beaucoup
sur la qualit du rsultat. Cette mthode permet donc de trouver la surface de compromis
vue dun certain point de rfrence.
49
Chapitre 2.
F2
F1
f1
2.3.3
Pour tracer les courbes isovaleur de ces mthodes dagrgation des fonctions objectif, il
faut procder de la mme manire quavec la mthode de pondration des fonctions objectif :
minimiser feq (
x ) revient trouver une valeur de la variable
x telle que la constante C de
lexpression suivante soit minimale :
2
2
C = w1 ( f1 (
x ) F1 ) + w2 ( f2 (
x ) F2 )
(2.15)
q
Cest lexpression dune ellipse de centre (F1 , F2 ), de petit axe 2 wC1 et de grand
q
axe 2 wC2 .
Le but va donc tre de trouver le plus petit C tel que lellipse vienne tangenter lensemble des solutions S. Cette courbe isovaleur est reprsente la figure 2.8.
f2
S
A
(F1 , F2 )
f1
F IG . 2.8 Une courbe isovaleur de la mthode de la distance.
Pour la mthode de Tchebychev, lexpression de la courbe isovaleur est encore plus
simple :
50
f1 (
x )=C
f1 (
x )=C
si w1 ( f1 (
x ) F1 ) > w2 ( f2 (
x ) F2 )
si w1 ( f1 ( x ) F1 ) < w2 ( f2 (
x ) F2 )
(2.16)
f2
w1 ( f1 (
x ) F1 ) < w2 ( f2 (
x ) F2 )
ww21
S
A
w1 ( f1 (
x ) F1 ) > w2 ( f2 (
x ) F2 )
f1
F IG . 2.9 Une courbe isovaleur de la mthode de Tchebychev.
2.3.4
Discussion
Pour que cette mthode fonctionne bien, on doit tre capable de construire un bon point
de rfrence. Sinon, les solutions que lon trouvera ne seront pas forcment optimales, dans
le sens o elles ne rpondront pas ncessairement au problme initial.
La figure 2.10 illustre le dfaut de fonctionnement de cette mthode, lorsque lobjectif
idal est mal choisi. On cherche minimiser les deux objectifs ( f1 et f2 ) ; le bon positionnement du point de rfrence est indiqu la figure 2.7.
A la figure 2.10-a, le fait davoir positionn le point de rfrence dans le coin suprieur
gauche nous donne une surface de compromis quivalente un problme pour lequel
on minimise lobjectif f1 et on maximise lobjectif f2 .
A la figure 2.10-b, le fait davoir positionn le point de rfrence dans le coin suprieur
droit nous donne une surface de compromis quivalente un problme pour lequel on
maximise les objectifs f1 et f2 .
A la figure 2.10-c, le fait davoir positionn le point de rfrence dans le coin infrieur
droit nous donne une surface de compromis quivalente un problme pour lequel on
maximise lobjectif f1 et on minimise lobjectif f2 .
Pour finir, la figure 2.10-d, le fait davoir positionn le point de rfrence lintrieur
de lensemble des valeurs du couple ( f1 , f2 ) nous donne une solution unique qui ne
correspond ni une maximisation, ni une minimisation sur chacune des fonctions
objectif.
De plus, comme la mthode de pondration des fonctions objectif, cette mthode ne permet de trouver des points cachs dans des non-convexits que sous certaines conditions, prsentes dans [Messac et al. 00].
51
Chapitre 2.
f2
f2
f1
f1
f2
f2
Solution unique
f1
f1
2.4
2.4.1
La mthode du compromis
Principe
Aprs avoir tudi les mthodes qui permettent de fusionner les fonctions objectif en une
seule (on parle aussi d agrgation des fonctions objectif), nous allons tudier des mthodes
qui permettent de transformer un problme doptimisation multiobjectif en un problme doptimisation monobjectif comportant quelques contraintes supplmentaires.
La dmarche est la suivante :
on choisit un objectif optimiser prioritairement ;
on choisit un vecteur de contraintes initial ;
on transforme le problme en conservant lobjectif prioritaire et en transformant les
autres objectifs en contraintes dingalit.
On appelle aussi cette mthode la mthode de la contrainte [Miettinen 99].
2.4.2
Prsentation de la mthode
On part du problme P.
On suppose que la fonction objectif prioritaire est la fonction de rang 1.
52
et
f1 (
x)
f2 (
x ) 2
..
.
fk (
x ) k
g (
x)0
h (x)=0
f2
111111111111111
000000000000000
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
111111111111111
000000000000000
2
f1min
f1
2.4.3
Un exemple concret
f1 (x) = x2
f2 (x) = (x 2)2
x [0, 2]
Chapitre 2.
(x 2)2 2 x 2 +
0 < 2 2
Lorsque lon met en relation cette expression avec x [0, 2], on obtient la nouvelle
contrainte :
x [2 , 2]
0
1
2
3
Contrainte
x [2, 2]
x [1,2]
x [2 2, 2]
x [2 3, 2]
Solution x
2
1
2 2
2 3
f1 (x )
4
1
6 4 2
74 3
f2 (x )
0
1
2
3
f1
f2
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
4 111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
3 111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
2 111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
1 111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
0 111111111111
0
1
2
3
4 f1
f2
4
3
2
1
11111111111
00000000000
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
0
0
f1
f2
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
4 111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
3 111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
2 111111111111
f2
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
4 11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
3
0
0
f1
f1
2.4.4
Discussion
Dans [Eschenauer et al. 90], on montre que cette mthode peut se ramener la mthode
de pondration des fonctions objectif moyennant une lgre transformation.
Les principaux inconvnients de cette mthode sont les suivants : elle est gourmande en
temps de calcul et la programmation de lalgorithme peut tre extrmement difficile sil y a
trop de fonctions contraintes.
Cependant, la relative simplicit de lnonc de la mthode la rendue populaire.
2.5
2.5.1
Comme nous allons le voir, il est possible dexploiter plusieurs mthodes pour en former
une nouvelle. Dans ce cas, nous obtenons une mthode hybride.
55
Chapitre 2.
2.5.2
La mthode hybride la plus connue est la mthode de Corley. Cette mthode utilise la
mthode de pondration des fonctions objectif et la mthode du compromis.
On part du problme P. On le transforme de la manire suivante :
minimiser
avec
et
ki=1 wi fi ( x )
f j ( x ) j , j = 1, , k
g (
x)0
h (
x)=0
111111111111111111
000000000000000000
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
111111111111111111
2 000000000000000000
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
1
L
f1
Sur cette figure, on peut voir que lajout des deux contraintes ( f1 (
x ) 1 et f2 (
x ) 2 )
a permis de restreindre lespace de recherche. Ensuite, on applique la mthode de pondration
des fonctions objectif sur cet espace restreint de recherche. Pour un vecteur des poids
w =
(w1 , w2 ) auquel on fait correspondre la droite L, chercher une valeur optimale revient faire
tangenter la droite L avec lespace restreint de recherche.
2.5.3
Discussion
Cette mthode permet de combiner les avantages des deux mthodes cites prcdemment (la mthode de pondration des fonctions objectif et la mthode du compromis). Elle
est ainsi efficace sur diffrents types de problmes, quils soient convexes ou non convexes.
Cependant, une difficult survient : le nombre de paramtres dterminer a t multipli par
deux. Il sera beaucoup plus difficile lutilisateur dexprimer sa prfrence en jouant sur
lensemble des paramtres. Pour plus dinformations, voir [Miettinen 99].
56
2.6
2.6.1
2.6.2
Prsentation de la mthode
On part du problme P.
et
f1 (
x ) w1 F1
..
.
fk (
x ) wk Fk
g (
x)0
h (
x)=0
11
00
00
11
F2
F1
f1
Chapitre 2.
2.6.3
Un exemple concret
x2 w1 1
(x 2)2 w2 1
x [0, 2]
g1 ( f1 , f2 , A ) = 1
g2 ( f1 , f2 , A ) = 1
On rsout ce problme (on limine A et on trouve x) :
2
x w1 A = 1
(x 2)2 w2 A = 1
(x 2)2 ww12 x2 1 = 1
x2 1 ww21 4 x + 3 + ww12 = 0
On a alors :
= 4 + 8 ww12 + 4
w2
w1
ou
x1 =
4+ , x2
w
2 1 w2
1
4
w
2 1 w2
1
= 1, w1 , w2
58
Plan f2 = 1
Droite 1
f1
Plan f1 = 1
Droite 2
w2
0.95
0.9
0.85
0.8
0.79
0.78
0.77
0.76
0.75
0.7
0.6
0.5
0.4
0.3
0.2
0.1
1600
400
178
100
90.7
82.6
75.6
69.44
64
44.44
25
16
11.11
8.16
6.25
4.93
x1
1.78
1.5
1.14
0.67
0.55
0.42
0.29
0.15
0
1
6
14
9
7.33
6.5
x
1.78
1.5
1.14
0.67
0.55
0.42
0.29
0.15
0
1
1
1
1
1
1
1
f1
3.17
2.25
1.3
0.44
0.30
0.17
0.08
0.02
0
1
1
1
1
1
1
1
f2
0.04
0.25
0.74
1.77
2.10
2.49
2.92
3.42
4
1
1
1
1
1
1
1
le discriminant du polynme.
59
A
43.37
12.5
1.99
2.75
3.32
3.74
3.98
4.07
4
0
87.5
325
114
65.9
45.83
Chapitre 2.
x:
f1 (x) :
f2 (x) :
A (x) :
x2 1
w1
On reprsente les dix premires solutions obtenues dans le plan ( f1 , f2 ) (voir la figure 2.17).
f2
4
0
0
f1
2.6.4
Discussion
Le principal avantage de cette mthode est quelle permet de travailler avec un ensemble
de solutions S pas ncessairement convexe. Cependant, il peut exister des formes de domaines
pour lesquelles la solution dpend du choix du but initial. La figure 2.18-b reprsente un
exemple dun tel domaine. Heureusement, ce cas est extrme.
Cette conclusion peut tre tire pour tous les types de mthodes bases sur une distance.
De plus, lors de la rsolution de lexemple, si nous navions pas fait une deuxime optimisation en rglant mieux nos poids, nous aurions rencontr une difficult typique de loptimisation multiobjectif : la non-uniformit de la reprsentation des solutions sur la surface de
compromis.
f2
f2
A
S
f1
f1
objectifs initiaux.
B et B :
solutions optimales.
w et w : directions de recherche.
2.7
2.7.1
2.7.2
Prsentation de la mthode
On part du problme P.
61
Chapitre 2.
+
On associe aussi un ensemble de variables di et di chaque fonction objectif fi (
x ),
i {1, , k} (les dviations).
On obtient alors le problme suivant :
minimiser
avec
et
d1 ou d1 , , dk+ ou dk
f1 (
x ) = F1 + d1+ d1
..
.
fk (
x ) = Fk + dk+ dk
h (x)=0
g (
x)0
Les variables de dviation que lon cherche minimiser doivent respecter certaines contraintes :
di+ et di 0,
di+ di = 0 avec i {1, , k}.
Valeur de la dviation
Positive
Variable
di+
Ngative
di
Nulle
di+ + di
et
+
d1 , , dk+
f1 (
x ) = F1 + d1+
..
.
fk (
x ) = Fk + dk+
h (
x)=0
g (
x)0
2.7.3
Discussion
2.8
Lordonnancement lexicographique
2.8.1
Principe
Cette mthode est trs intuitive. En effet, elle consiste considrer les fonctions objectif
les unes aprs les autres et minimiser un problme doptimisation monobjectif, en compltant au fur et mesure lensemble des contraintes [Coello 98].
2.8.2
Prsentation de la mthode
On part du problme P.
On procde ensuite en k tapes (autant dtapes quil y a de fonctions objectif). Commenons avec la premire fonction objectif. On rsout :
minimiser
avec
et
f1 (
x)
g (
x)0
h (
x)=0
f2 (
x)
f1 (
x ) = f1
g (x)0
h (
x)=0
On rpte cette dmarche jusqu la fonction objectif k. Alors, pour finir, on aura :
63
Chapitre 2.
minimiser
avec
et
fk (
x)
f1 (
x ) = f1 , , f1 (
x ) = fk1
g (x)0
h (
x)=0
La dernire valeur de
x est celle qui minimise tous les objectifs.
2.8.3
Discussion
Cette mthode prsente un inconvnient : elle requiert un choix de la squence des objectifs minimiser. Ce choix est largement arbitraire, un peu comme celui des coefficients de
pondration, dans la mthode de pondration des fonctions objectif.
Deux ordonnancements diffrents de fonctions objectif naboutissent gnralement pas
la mme solution.
2.9
2.9.1
Cette mthode (Proper Equality Constraints ou contraintes dgalit propres) a t prsente dans [Lin 76]. On lappelle aussi la mthode des contraintes dgalit strictes. Elle est
trs lourde dun point de vue mathmatique, mais ne ncessite aucune hypothse de linaritconvexit.
2.9.2
Prsentation de la mthode
On part du problme P.
On le transforme de la manire suivante :
minimiser
avec
et
fk (
x)
f1 (
x ) = 1
..
.
fk1 (
x ) = k1
g (x)0
h (
x)=0
On note
= {1 , , k1 }. Cest le vecteur des bornes des contraintes.
On note X le domaine ralisable.
On note X = {
x X | f1 (
x ) = 1 , , fk1 (
x ) = k1 }.
k1
/ Cest lensemble des valeurs de
On note D = { R | X 6= 0}.
telles que les
contraintes additionnelles (obtenues aprs transformation du problme) ne soient pas
trop restrictives
des valeurs dans X .
et quil existe
On note
= inf{ fk (
x ) |
x X }. Cest la valeur minimale de la fonction objectif
en prenant en compte toutes les contraintes.
< et fk x =
, x X }. B est une restriction
On note B = {
D|
de D.
64
X
X
()
f1
F IG . 2.19 Reprsentation des diverses notions utilises par la mthode, dans le cas k = 2.
Cette mthode comprend cinq tapes :
Etape 1 :
Etape 2 :
Etape 3 :
Etape 4 :
Etape 5 :
fk (
x)
f1 (
x ) = 1 , , fk1 (
x ) = k1
g (x)0
h (
x)=0
Rsoudre ce problme et dterminer
, D et x
. Voici la signification du
dernier paramtre :
A chaque
D correspond un x = x
qui nest pas ncessairement dans
Dterminer lensemble B et la solution optimale du problme associ x
avec
B.
Voici maintenant deux propositions qui nous serviront vrifier quun vecteur est effectivement propre.
65
Chapitre 2.
Proposition 1 :
est propre si lune des assertions suivantes est vrifie :
Un vecteur
.
1. crot sur D et
6=
B tq
sur B.
2. crot sur D et est absolument croissante droite de
0
3. crot sur D et est absolument croissante sur B.
sur D.
4. est absolument croissante droite de
Proposition 2 :
B nest pas localement propre si
Un vecteur
que 1 i k 1.
+ (
0)
i
f2
B
D=B
f1
D=B
f1
2.9.3
Un exemple concret
f1 (x) = x2
f2 (x) = (x 2)2
x [0, 2]
66
f2 (x) = (x 2)2
f1 (x) = x2 =
0x2
relation : () =
2 = f2 (x) car x = .
Pour trouver x (), on cherche une relation du type x = f () (o f
est une fonction
quelconque de la variable ). On a cette relation facilement : x () = .
On passe maintenant ltape 3. On dtermine lensemble B = { D | f2 (x ()) = ()} ;
2
do B = { D | f2 (x ()) =
2 }.
On va maintenant raliser les trois dernires tapes en un coup. Pour cela, on vrifie que
d()
()
1
+
0
1
2
3
4
x ()
0
1
3
2
()
4
1
2
22
2
32
0
f1 (x ())
0
1
2
3
4
f2 (x ())
4
1
2
22
2
32
0
2.9.4
Discussion
Cette mthode est une mthode littrale. Elle nest pas facile implmenter. A cette fin,
il faut faire appel deux algorithmes que lon va prsenter dans les sections 2.11 et 2.12.
2.10
2.10.1
Principe
Chapitre 2.
f1
F IG . 2.21 Problme test de Schaffer trait par la mthode des contraintes dgalit propres.
2.10.2
Prsentation de la mthode
On part du problme P.
On le modifie de la manire suivante :
minimiser
avec
et
fk (
x)
f1 (
x ) 1
fk1 (
x ) k1
g (x)0
h (
x)=0
On notenzi = fi (
x ) et
= (1 , , k1 ).o
Z = f ( x ) | g ( x ) 0 et h (
x ) = 0 : cest lensemble des valeurs des fonctions
Z est la frontire de Z.
Z = {
z Z | zi i avec i 6= k} : cest lensemble des valeurs des fonctions objectif
z
telles quelles appartiennent la frontire de Z et que
.
Nous allons maintenant dfinir les ensembles
A
et
P
:
A =
Rk1 | Z est nonvide .
=
.
A
A |
0
0
= inf zk | z Z
: cest la valeur minimale de lobjectif fk (
x ) quand les
autres
objectifs
(
f
(
x
)
,
,
f
(
x
))
prennent
leurs
valeurs
sur
la
frontire
de Z .
1
k1
P = , | A .
Une fois que lon a dtermin lensemble P, il ne reste qu dterminer lensemble D qui
contient les solutions notre problme. Pour cela, on prend les valeurs de lensemble P et on
teste si ce sont des valeurs suprmum. A cette fin, on dispose dun certain nombre de tests.
Thorme
: quasi-suprmalit globale
,
D si et seulement si
6=
0 pour tout
A tel que
0
0
0
68
,
D si et seulement si, pour un voisinage N
, ,
6=
0
0
0
0
, A
tel que
.
pour tout
N
6=
0
0
0
2.10.3
Discussion
Cette mthode a t trs utilise et a donn naissance quelques algorithmes que nous
tudierons dans les sections 2.11 et 2.12.
2.11
Lalgorithme de Lin-Tabak
2.11.1
Principe
2.11.2
Prsentation de la mthode
On part du problme P.
On transforme le problme de la manire suivante :
minimiser
avec
et
fk (
x)
f1 (
x ) 1 , , fk1 (
x ) k1
g (x)0
h (
x)=0
On note = fk
x0 , o = [1 , , k1 ]t .
Lalgorithme se dcompose en cinq tapes :
Etape 1 :
Rsoudrele problme
avec une valeur initiale (0) , ce qui donne un optimum
(0)
(1)
Etape 2 :
tape 3 :
(1)
2. Si (1) 6= (0) alors accepter 1 et 1 . En fait, on doit avoir (1) < (0) .
Si lingalit est inverse, la solution du problme prcdent tait juste une
solution locale.
Etape 4 :
Etape 5 :
69
Chapitre 2.
2.12
Lalgorithme de Lin-Giesy
2.12.1
Principe
Cette mthode [Giesy 78] repose galement sur la mthode des contraintes dingalit
propres. Il existe, cependant, un thorme qui garantit, dans certains cas, la convergence de
lalgorithme.
2.12.2
Prsentation de la mthode
valeur doit tre donne par lutilisateur. Dans cet algorithme, le vecteur est de dimension
k.
Rsoudre le problme
minimiser
avec
et
fi (
x)
f j ( x ) j , j = {1, , k}, j 6= i
g (
x)0
h (x)=0
Etape i2 :
(0)
1 , alors un choix moins restrictif de (0) doit tre fait.
(i)
On pose = f x(i) .
(k)
(k)
itrations et x est la solution optimale au sens de Pareto et f x
(0) .
2.13
Bibliographie commente
[Azarm 96] Site Internet prsentant les mthodes multiobjectifs les plus courantes comme
la mthode de pondration des fonctions objectif par exemple. La prsentation
de ces mthodes est trs oriente utilisateur. Peu de dtails sont donns sur
70
71
Chapitre 3
Introduction
Les mthodes interactives permettent de chercher une et une seule solution. Elles forment
la famille des mthodes progressives et permettent lutilisateur de dterminer ses prfrences vis--vis dun compromis entre objectifs au cours de loptimisation. Ces mthodes
sont comparer aux mthodes :
prfrence a priori, o lutilisateur choisit le compromis raliser entre objectifs
avant de lancer loptimisation ;
prfrence a posteriori, o lutilisateur na pas choisir de compromis avant de lancer loptimisation. La mthode doptimisation calcule toutes les solutions efficaces et
lutilisateur peut ainsi les comparer et en choisir une.
Nous allons maintenant prsenter quelques mthodes interactives (ou plutt quelques principes dinteraction).
3.2
3.2.1
Cette mthode (Surrogate Worth Tradeoff (SWT) ou mthode du compromis par substitution) a t trs utilise pour loptimisation de ressource en eau
[Haimes et al. 75]. Elle est base sur la mthode du compromis, laquelle on a ajout un
processus interactif, pour que la mthode converge vers la solution la plus susceptible de
satisfaire lutilisateur.
3.2.2
Prsentation de la mthode
On part du problme P.
73
Chapitre 3.
Etape 2 :
Etape 3 :
f j (
x)
g (
x)0
h (x)=0
La solution ce problme devient la je composante du vecteur f min , qui regroupe les k 1 valeurs minimales de f j , j = {2, , k}. Si possible, on peut
chercher cette tape les composantes du vecteur f max , qui regroupe les k 1
valeurs maximales de f j , j = {2, , k}.
Choisir la valeur de dpart de j f jmin , j = {2, , k}.
Rsoudre le problme suivant :
minimiser
avec
et
f1 (
x)
f2 (
x ) 2 , , fk (
x ) k
g (x)0
h (
x)=0
pose j = f j (
x ) pour j correspondant aux index des contraintes non respectes (on relche les contraintes). Il faut ensuite recommencer cette tape. Si
Etape 5 :
Etape 6 :
Etape 7 :
74
f1 (
x)
f2 (
x ) = f2 , , fk (
x ) = fk
g (x)0
h (
x)=0
Le plus difficile dans cette mthode est de bien comprendre la signification du coefficient
W1 j . Pour cela, voici une procdure que lon peut suivre pour valuer W1 j :
Un point possible pour la rsolution du problme est le suivant :
f2 (
x ) [units de f2 ],
f3 ( x ) [units de f3 ] et
f1 (
x ) [units de f1 ].
On se pose alors les questions suivantes :
Pour W12 : A ce point de fonctionnement, seriez-vous prt augmenter f2 de 12 [units de
f2 ] pour une rduction de f1 de 1 [unit de f1 ] ? Donnez votre rponse sur une
chelle de -10 (pas daccord) +10 (daccord).
Pour W13 : A ce point de fonctionnement, seriez-vous prt augmenter f3 de 13 [units de
f3 ] pour une rduction de f1 de 1 [unit de f1 ] ? Donnez votre rponse sur une
chelle de -10 (pas daccord) +10 (daccord).
Cette mthode va permettre, dans un premier temps, de trouver une zone de satisfaction (entre
deux 0 de W12 ou de W13 , ou entre un 0 de W12 et un 0 de W13 . Voir les figures 3.1 et 3.2).
Une fois que lon a trouv cette zone de satisfaction, on peut rsoudre le problme pos en
utilisant la mthode du compromis, en se restreignant aux valeurs de la zone de satisfaction.
W12
+10
Zone de
satisfaction 1
Itration
-10
W13
+10
Zone de
Zone de
satisfaction 2 satisfaction 3
Itration
-10
fi
fj
(3.1)
75
(3.2)
Chapitre 3.
W12
+10
Itration
-10
Zone de
satisfaction
W13
+10
Itration
-10
3.2.3
Discussion
Dans cette mthode, il nest pas toujours vident de savoir quel prix on est prt payer
un accroissement de la valeur dune fonction. Dans la plupart des cas, on peut tre tent de
rpondre un peu au hasard. Ce type de rponse peut alors empcher la mthode de trouver le
ou les bons optima.
De plus, cette mthode nest applicable qu des problmes dont la fonction objectif de
rfrence est drivable ( cause du coefficient 1 j ).
3.3
3.3.1
La mthode de Fandel
Principe
Le but de cette mthode est daider lutilisateur dans le choix de ses coefficients de pondration [Eschenauer et al. 90].
3.3.2
Prsentation de la mthode
On part du problme P.
On modifie le problme de la manire suivante :
minimiser
avec
et
ki=1 wi fi ( x )
g (x)0
h (
x)=0
On a aussi wi 0 et ki=1 wi = 1. On retrouve cette condition dans la mthode de pondration des fonctions objectif (voir section 2.1.2).
Comme pour la mthode de pondration des fonctions objectif, la variation des coefficients wi permet de dterminer les points de la surface de compromis. En revanche, dans la
mthode de Fandel, on suppose que ces coefficients ne sont pas connus. On suppose aussi
76
f j (
x)
g (
x)0
h (
x)=0
On note
x j la solution de ce problme.
j
On note f = f xj la valeur du vecteur de fonctions objectif correspondant cette
solution.
Pour j = 4, ce vecteur aura pour composantes :
4 h
f = f1 x4 , , f3 x4 , f4 , f5 x4 , , fk x4
t
f = f 1, , f k
(3.3)
B=
t
f , , f k
(3.4)
f2max
f2min
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
1
000000000000000000
111111111111111111
f
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
f
000000000000000000
111111111111111111
0
000000000000000000
111111111111111111
f
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
2
000000000000000000
111111111111111111
f
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
000000000000000000
111111111111111111
f1min
f1max
f1
Le vecteur f reprsente donc un objectif idal pour lutilisateur mais quon ne peut
pas atteindre en ralit. Ce vecteur est le but que se fixe lutilisateur (il est prt tout
faire pour atteindre cet objectif).
77
Chapitre 3.
Reportez-vous la figure 3.3 pour une illustration des diffrentes notations introduites
jusquici. Sur cette figure, le domaine gris reprsente la partie du domaine de recherche qui nest pas accessible cause des contraintes. Les variables f1min , f1max , f2min
et f2max dlimitent les domaines de variation des fonctions objectif f1 et f2 dans la zone
ralisable.
A ltape M, lutilisateur va obtenir une solution qui sera proche de la solution idale.
M 1 k
f = f i
k i=1
(3.5)
Y M = f (
x ) Rk |
g (
x ) 0, h (
x ) = 0 et f (
x) f M
(3.6)
Dans ce nouvel espace de contraintes, on minimise nos fonctions objectif :
minimiser
avec
et
f j (
x ), j = {1, , k}
g (
x)0
h (
x)=0
f (x) f M
k t
(3.7)
B = f , , f
o f k dsigne le vecteur f x k .
Cette matrice B dfinit un hyperplan (une droite dans le cas dun problme deux
fonctions objectif) qui a pour quation :
avec
a = (a1 , , ak )t ,
k
a > 0, a j = 1,
B
a = c
e
(3.8)
i=1
c = constante,
e = (1, , 1)t
i
correspond une combinaison convexe des vecteurs f . Ce produit donne donc bien un
voir les deux vecteurs f 1 et f 2 qui correspondent aux vecteurs calculs lors de la rso
Exemple 1 :
Une solution du problme prcdent est la suivante :
f 1 = (1, 0)
f 2 = (0,
2)
0 2
a1
c
=
B a =
1 0
1 a1
c
on a donc :
2 2 a1 = c = a1
a1 = 32
Exemple 2 :
Une solution du problme prcdent est la suivante :
f 1 = (2, 3)
f 2 = (4,
1)
2 4
a1
c
B a =
=
3 1
1 a1
c
on a donc :
2 a1 + 4 4 a1 = c = 3 a1 + 1 a1
4 a1 + 3 = 0
a1 = 43
f2
Y 0
f2M
M
f
Y 1
1
f
2
f
f1M
f1
79
Chapitre 3.
f 2
f 1
f1M
f1
On dplace lhyperplan
pour venir tangenter
la courbe.
F IG . 3.5 La mthode de Fandel (tape 3).
f j (
x ), j = {1, , k}
g (
x)0
h (x)=0
f (
x )Y
i
lindex i dsignant toutes les fonctions objectif slectionnes pour restreindre lespace de
recherche.
n
o
On a Y i+1 = f (
x ) Rk |
g (
x ) 0, h (
x ) = 0, f j (
x )Y .
Lindex j dsigne toutes les fonctions objectif slectionnes pour restreindre lespace de
recherche.
k+1
Litration commence par le calcul dun nouveau point central f M (voir figure 3.6).
A la figure 3.6-a, on peut voir litration k de la mthode de Fandel. Un espace de re
mdian. On calcule ensuite un nouveau vecteur mdian f M k+1 qui va dfinir un nouvel espace
80
Mi
f
Y2i
i
f
Y1i
f1
(a) Itration k
f2
Y2i+1
M i+1
f
i+1
f
Y1i+1
Y i+1
f1
3.3.3
Discussion
Le problme de cette mthode, commun toutes les mthodes interactives, est que lon
ne peut trouver quun seul point solution, et non la totalit de la surface de compromis. On
voit aussi que cette mthode fait lhypothse que le vecteur solution qui satisfera lutilisateur
est le vecteur le plus proche de la solution idale. Cest une hypothse forte qui fait que
cette mthode peut ne pas convenir tous les utilisateurs. Pour finir, le mode dinteraction
(rduction de lespace de recherche par action sur des bornes de contraintes) fait que, pour
une bonne utilisation de la mthode, lutilisateur doit avoir une bonne connaissance a priori
du problme. Il doit tre capable de trouver de bonnes bornes pour restreindre son problme.
81
Chapitre 3.
3.4
3.4.1
La mthode STEP
Principe
Cette mthode est similaire la mthode de Fandel. Ici aussi, les informations sur la
prfrence de lutilisateur permettent de restreindre lespace de recherche tape par tape
[Eschenauer et al. 90].
3.4.2
Prsentation de la mthode
On part du problme P.
On transforme ce problme de la manire suivante :
minimiser
avec
et
it
w <
f (
x ) Y
g (x)0
h (
x)=0
f (x) Y
wj =
(3.9)
vi
i=1
et :
n o
j
maxi f ji f j
1
n o
vj =
j
i
f
mini f j
j
(3.10)
82
Exemple
A litration 10, on obtient les valeurs des cinq fonctions objectif suivantes :
f 1
f 2
f 3
f 4
f 5
{1, 4, 3, 6, 2}
{4, 1, 4, 3, 4}
{3, 2, 1, 2, 3}
{6, 3, 6, 2, 3}
{7, 5, 3, 2, 1}
6
19
4
19
5
19
1
19
3
19
= 0.315
= 0.210
= 0.263
= 0.052
= 0.158
Comme on peut le voir sur ces rsultats, la mthode S.T.E.P. attribue des poids plus importants aux fonctions objectif qui prsentent une diffrence entre le minimum de la fonction
f i et le maximum de la fonction f i la plus importante. Dans cet exemple, on a ce cas de
figure sur la fonction objectif f 1 .
On pourra aussi remarquer que ce mode de calcul des poids ne fonctionne pas avec des
fonctions objectif qui peuvent tre nulles.
On constate que, comme avec la mthode de Fandel, les coefficients de pondration ont
une importance moindre, car linteraction avec lutilisateur se fait par le choix des bornes su
prieures Y et non par le choix des coefficients. De plus, la mthode attribue des coefficients
plus petits aux fonctions objectif dont les valeurs sont les plus grandes.
Une fois les coefficients dtermins, on calcule une premire solution fe 0 de la manire
suivante :
minimiser
avec
et
t
f (
x )
w
g (x)0
h (
x)=0
Lutilisateur peut alors comparer la solution fe 0 avec la solution idale. Si certaines composantes du vecteur des fonctions objectif ne sont pas suffisamment satisfaites, lutilisateur
peut relcher la borne suprieure de la contrainte correspondante de la manire suivante :
Y j = fej + f j
(3.11)
it
f (
x ) Y
w
g (
x)0
h (
x)=0
f (x) Y
83
Chapitre 3.
Dans le cas dun problme deux dimensions, lextrmit du vecteur fe est situe
lintersection de la frontire du domaine Y et de la droite de pente ww21 passant par le point
w2
w1
Y
Y2
1
f
0
f
Y1
f1
3.4.3
Discussion
3.5
3.5.1
La mthode de Jahn
Principe
Cette mthode est compltement diffrente des deux autres. On commence par choisir
un point de dpart, puis le problme est rsolu pas pas travers lespace de recherche en
direction de la solution optimale au sens de Pareto [Eschenauer et al. 90].
Cette mthode est fonde sur une mthode de minimisation cyclique (aussi appele mthode doptimisation scalaire dans les directions ralisables de Zoutendjik).
3.5.2
Prsentation de la mthode
On part du problme P.
On transforme ce problme de la manire suivante :
84
it
h
f
w j
f
x j
t
u
vi [ x gi ] g
u t
tl
x hl h =
On a aussi f Rk , g Rm , h R p .
avec
i = {1, , m}
j = {1, , k}
l = {1, , p}
n = {1, , k}
A=
oprateur nabla de la variable
x (
x
x i ).
i x
i
wj :
vi :
tl :
La solution de notre nouveau problme commence par le choix dun vecteur de dpart rali
0
sable
x 0 et par le calcul du vecteur des fonctions objectif correspondant f
x .
Le choix du point de dpart influence les alternatives futures possibles, en supposant que
lespace de recherche Y 0 soit restreint :
n
0 o
Y 0 = f (
x ) | f (
x) f
x
(3.12)
On a reprsent la figure 3.8 un schma qui explique ce mcanisme. Sur cette figure, on
0
En fonction du vecteur objectif f (
x ), lutilisateur choisit une fonction objectif fi , qui
doit tre minimise prioritairement. A cet effet, un pas de direction et de longueur approprie doit tre dtermin, et il doit satisfaire la relation suivante :
xk+1 = xk + k k
On a utilis les notations suivantes :
k+1
x
:
variable de travail litration k + 1.
xk :
variable de travail litration k.
k :
85
(3.13)
Chapitre 3.
0
f
f10
f1
i I = {1, , k}
j J = {I | j 6= i}
Ces deux relations expriment que la valeur de la fonction objectif calcule litration
k + 1 doit dominer la valeur de la fonction objectif calcule litration k.
On obtient la direction du pas en rsolvant notre problme modifi (le problme de dpart
transform). En agissant ainsi, les coefficients de pondration w j , vi et tl choisis par lutilisateur influencent la direction du pas. Lutilisateur peut maintenant choisir la longueur du pas
k dans un intervalle [0, max ]. On trouve max en rsolvant le problme suivant :
maximiser
avec
et
max
fi xk + max k < fi xk
f j xk + max k f j xk
g xk + max k 0
h xk + max k = 0
i I = {1, , k}
j J = {I | j 6= i}
nes, est calcul ( f k+1 = f xk + k k ). Si ce vecteur objectif nest pas accept, on dtermine la prochaine itration une nouvelle direction, en rsolvant notre problme modifi.
La variation de la direction du pas, qui est faite en fonction des prfrences de lutilisateur
chaque itration, fournit des pas de minimisation lintrieur de lespace de recherche Y ,
f k nest pas forcment optimum au sens de Pareto, mais il rside lintrieur de lespace
de recherche Y k (lespace de recherche litration k). Aussi, un point optimum au sens
de Pareto est obtenu au voisinage de cette solution en rsolvant le problme de substitution
scalaire suivant :
86
ki=1 wi f ( x )
g (x)0
h (
x)=0
f ( x ) f xk
Un schma du processus itratif dans X et dans Y est dessin la figure 3.9. Sur cette
figure, on note fe (
x ) la solution du problme de substitution scalaire prcdent. On peut
k k
x k+1
xk
x1
(a) Reprsentation dans X
f2
f20
f2i
f2k
Y i
k+1
f
k
f
Y k
f1k
f1i
f10 f1
3.5.3
Discussion
On retrouve linconvnient signal dans la section 3.3.3, propos de la mthode de Fandel. De plus, cette mthode a besoin de connatre les gradients de certaines expressions
87
Chapitre 3.
f2k
Y k
k
f (x)
f1k
f1
3.6
La mthode de Geoffrion
3.6.1
Principe
Cette approche est similaire la mthode de Jahn. Elle repose sur un algorithme : lalgorithme de Franck-Wolfe [Eschenauer et al. 90].
3.6.2
Prsentation de la mthode
On part du problme P.
On transforme le problme de la manire suivante :
minimiser
avec
et
h
it
p
f
(
x
)
x
g (
x)0
h (
x)=0
problme P
avec Rk
h
i
La fonction de prfrence p f (
x ) nest pas forcment connue de lutilisateur. Pendant
le droulement de lalgorithme, lutilisateur devra fournir des informations sur les compromis
quil dsire raliser. Il doit aussi fournir la longueur de pas.
Deux mthodes sont possibles pour dterminer le point de dpart x0 . Soit lutilisateur
slectionne un vecteur en utilisant la mthode de Jahn, soit le vecteur est calcul en rsolvant
le problme de substitution suivant :
minimiser
avec
et
wi fi ( x )
i=1
g (
x)0
h (x)=0
88
h
i
k
p
p
f
(
x
)
=
fi
x
x fi ( x )
x
i=1
(3.14)
k t
ki=1 wi
x fi x
g (
x)0
h (
x)=0
On a :
wi =
avec i = {1, , k}
p
fi
h ix
p
f1
(3.15)
f1
fi
(3.16)
bi
b1
(3.17)
89
Chapitre 3.
minimiser
avec
et
i
p f x k + k k
g x k + k k 0
h x k + k k = 0
i
fe la solution trouve litration i. Le premier point sur cette figure (F 0 ) a t obtenu par
rsolution
du problme de substitution par pondration des fonctions objectif. On a F 0 =
f x0 .
f2
f 4
f 3
f 2
d fi
f 1
f 0
0
F
f1
f k+1 = f
x + k k
(3.18)
Lutilisateur value alors le rsultat, et dcide si le processus peut continuer, ou si la
solution peut tre accepte comme solution de compromis. Sil dcide de continuer, il peut
alors parcourir la surface de compromis (voir figure 3.11).
3.6.3
Discussion
On retrouve linconvnient habituel des mthodes interactives (voir section 3.3.3). Encore
une fois, soulignons la restriction de cette mthode des problmes pour lesquels on peut
calculer la drive.
90
3.7
3.7.1
La mthode du simplex
Principe
3.7.2
Prsentation de la mthode
Rgle 2 :
Sur la figure 3.13, on peut voir le cheminement de la mthode dans lespace des variables
de dcision, dans le cas dun exemple deux variables de dcision. Sur cette figure sont
reprsentes des courbes de niveau reprsentant la direction damlioration de la fonction
objectif optimiser. Dans cet exemple, loptimisation se droule de manire maximiser le
pourcentage correspondant la courbe de niveau.
Prsentons maintenant lalgorithme complet de la mthode du simplex. Nous utiliserons
les notations suivantes :
W:
B:
Chapitre 3.
x2
90%
80%
70%
60%
50%
x1
F IG . 3.13 Cheminement de la mthode du simplex.
N:
Arrt de loptimisation
oui
oui
Ranger les points dans
les variables B, N, W
Faire la rflexion R
Remplacer N par W
Ranger les autres
points dans B et N
la rgle de rvaluation
non
est-elle active ?
non
atteint ?
Remplacer W par R
Rgle 4 :
contracter le dplacement, si celui-ci a t fait dans une direction qui nest pas
favorable lamlioration des fonctions objectif.
Sur un problme deux variables de dcision, on obtient le schma situ la figure 3.15.
En reprenant les mmes notations que pour lalgorithme prcdent, nous obtenons la reprsentation de la figure 3.16.
Pour les diffrentes transformations, on a les expressions suivantes :
Rflexion : R = C + C W
Dilatation : E = C + C W
Contraction positive : C+ = C + + C W
92
C-
C+ R
Arrt de loptimisation
oui
oui
Ranger les points dans
les variables B, N, W
Remplacer N par W
Ranger les autres
points dans B et N
Faire la rflexion R
La rgle de rvaluation
non
est-elle active ?
atteints ?
Remplacer W par R
non
R>B ?
R>N ?
oui
non
R>W ?
oui
non
oui
Faire une contraction
positive C+
non
E>R ?
oui
Remplacer W par E
Remplacer W par R
Remplacer W par C+
Remplacer W par C-
Contraction ngative : C = C C W
o
W
C
93
Chapitre 3.
3.7.3
Discussion
Cette mthode est trs simple mettre en uvre. Elle a, dailleurs, fait lobjet dune
ralisation industrielle sous la forme du logiciel Multisimplex (voir lURL cit la rfrence
[Multisimplex]).
3.8
Bibliographie commente
[Eschenauer et al. 90] Cest un des rares ouvrages discutant de mthodes interactives. Lexpos de ces mthodes est trs mathmatique et ces mthodes ne sont pas illustres
travers des exemples simples. En revanche, on trouvera dans les derniers chapitres de nombreux exemples dapplications de loptimisation multiobjectif sur
des problmes industriels ; en particulier un problme de recherche de la structure optimale dune antenne parabolique visant minimiser les vibrations de la
structure.
[Miettinen 99] On trouvera aussi la description dun certain nombre de mthodes doptimisation multiobjectif interactives dans cet ouvrage.
94
Chapitre 4
4.1.1
Pour mieux comprendre le concept de la logique floue, nous allons transposer les concepts
de la logique classique en logique floue.
Tout dabord, la logique classique possde trois fonctions de base. Ces fonctions travaillent sur des paramtres binaires (0 ou 1, FAUX ou VRAI). Voici ces fonctions de base :
La fonction ET : C = A et B, ou, en termes plus mathmatiques, C = A B. La table de
vrit de cette fonction est reprsente dans le tableau 4.1.
HH
B
0
HH
A
H
0
0
1
0
1
0
1
HH
B
0
HH
A
H
0
0
1
1
1
1
1
95
A
0
1
C
1
0
Chapitre 4.
Logique floue
C = min (A, B)
C = max (A, B)
C = 1A
4.1.2
La fonction dappartenance
1.70
1.75
1.80
Taille
A
1
1.70
1.75
1.80
Taille
96
Logique floue
distributivit
min (max (A, B) ,C) = max (min (A,C) , min (B,C))
commutativit
max (max (A, B) ,C) = max (A, max (B,C))
rgle de De Morgan
1 min (A, B) = min (1 A, 1 B)
(A + B) C = A C + B C
(A + B) +C = A + (B +C)
AB = A+B
1.70
B : taille grande
Taille
1.80
1.75
C : taille moyenne
et grande
1.75
1.85
1.80
Taille
Taille
97
Chapitre 4.
1.70
B : taille grande
Taille
1.80
1.75
C : taille moyenne
ou grande
1.85
1.70
1.85
Taille
Taille
1.70
B : NON taille moyenne
1.80
Taille
1.70
1.80
Taille
4.2
4.2.1
La mthode de Sakawa
Principe
Cette mthode fait intervenir la logique floue tous les niveaux (sur les paramtres du
problme ainsi que sur les paramtres des contraintes). Lensemble de solutions que lon va
trouver, lui aussi, fera intervenir la logique floue. Ces solutions auront un niveau dappartenance. Ce seront des solutions qui auront une corrlation variable avec lobjectif initial
98
4.2.2
Prsentation de la mthode
Cette mthode doptimisation avec traitement par la logique floue est prsente en utilisant un problme doptimisation linaire (encore appel problme de programmation linaire). On part du problme suivant :
minimiser
avec
c 1
x t, ,
c k
xt
a
b
,
j
=
{1, , m}
i i j i
j
On a
x Rn ,
c Rn ,
a Rn et b Rm .
On dsigne par :
n:
k:
m:
X=
x Rn |
ai j xi b j , j = {1, , m}
i=1
(4.1)
t
c1
x t , ,ck
x
x X a,
b
Ici, on note :
X a,
b =
x Rn |
ai j xi b j , j = {1, , m}
i=1
(4.2)
Lensemble
L a,
b, c pour lequel le degr dappartenance des fonctions a,
b et c est suprieur
ou gal au niveau :
o
n
c = (a, b, c) | c (c jr ) , (b j ) et a (air )
L a,
b,
(4.3)
jr
ir
bj
99
Chapitre 4.
c L a,
1 2 si L1 a,
b,
2 b, c
(4.4)
Dfinition
2 : solution -optimale au sens de Pareto
x X a,
b est appel une solution -optimale au sens de Pareto du problme de
et de (a, b, c) L a,
b, c tels que c i x c i x , i = {1, , k} avec une ingalit stricte pour au moins un i. Les paramtres (a , b , c ) sont appels paramtres
optimaux de niveau .
(
i x ) est une valeur inacceptable pour ( c i x ) ;
1
1, ou tend vers 1 si ( c i x ) ( c i x )
1
0
i (
c i
x)=
di (
si (
c i
x ) (
c i
x ) (
c i
x)
i x)
0
0, ou tend vers 0 si (
c i x )( c i x )
(4.5)
o di (
c i
x ) est une fonction monotone strictement dcroissante, qui peut tre linaire
ou non linaire.
Maintenant que les fonctions dappartenance des fonctions objectif sont dfinies, nous
allons pouvoir rcrire notre problme, en utilisant le formalisme flou :
maximiser
avec
et
D (1 (
c 1
x ) , , k (
c i
x ))
x X a,
b
c
(a, b, c) L a,
b,
o D est une fonction dagrgation. D peut tre interprte comme le degr de satisfaction vis--vis du but fix par lutilisateur. Un exemple de fonction dagrgation utilise
est :
min (1 (
c i
x ) , , k (
c i
x ))
(4.6)
On obtient finalement le problme suivant (si lon utilise la fonction dagrgation cidessus) :
maximiser
avec
et
min (1(
c i
x ) , , k (
i x ))
b
x X ae, e
(a, b, c) L ae, e
b, ce
100
Etape 1 :
Etape 2 :
f1 (
x ) , , fk (
x)
g (x)0
sous la contrainte
g (
x ) 0, on minimise, puis on maximise, chaque fonction
objectif sparment, de manire obtenir la plage de variation de la fonction
dappartenance des fonctions objectif.
On dfinit les fonctions dappartenance de la manire suivante :
fi1 fi (
x)
i (
x)=
fi1 fi0
(4.7)
o
fi0 est la valeur de la fonction dappartenance la moins intressante,
fi1 est la valeur de la fonction dappartenance la plus intressante.
Etape 3 :
si i (
x)0
0
i ( x ) si 0 < i (
x)1
DMi ( x ) =
(4.8)
1
si 1 i (
x)
o
DMi (
x ) = 1 quand lobjectif est atteint,
DMi (
x ) = 0 quand lobjectif nest pas atteint.
Etape 4 :
Etape 5 :
Etape 6 :
4.2.3
Discussion
Cette mthode est trs intressante, car elle permet de prendre en compte lexigence de
lutilisateur vis--vis de la rponse fournie par lalgorithme de recherche. De cette manire,
lutilisateur peut obtenir un plus grand nombre de rponses sil est moins exigeant.
Cette exigence est symbolise par le niveau dappartenance . Si lutilisateur est trs
exigeant, il fixera un niveau minimum proche de 1.
Cependant, la mthode de Sakawa semble lourde mettre en uvre. Elle fait appel des
ensembles flous et des rgles mathmatiques difficiles appliquer. On prfrera lapproche
utilise dans la mthode de Reardon que nous allons dcrire maintenant.
101
Chapitre 4.
4.3
4.3.1
La mthode de Reardon
Introduction
4.3.2
Prsentation de la mthode
On part du problme P.
Pour chaque fonction objectif, on dfinit une fonction dappartenance, qui aura la forme
reprsente la figure 4.6.
Smax
f
Smin
fimin
Oi Ei Oi
Oi + Ei
fimax
fimax :
Oi :
Ei :
Smax
f ( fi ) =
( fi (Oi Ei ))
fimin (Oi Ei )
si (Oi Ei ) fi (Oi + Ei ) alors :
f ( fi ) = 0
102
f ( fi ) =
Smin
( fi (Oi + Ei ))
(Oi + Ei ) fimax
Ici, par rapport la mthode normale doptimisation floue, le niveau est invers. Au lieu
davoir 1 pour la fonction dappartenance quand fi appartient la plage de valeurs dsires
(entre Oi Ei et Oi + Ei ), la fonction dappartenance vaut 0. Cette inversion du niveau dappartenance permet dobtenir une fonction objectif globale plus simple, qui runit ou agrge
les fonctions objectif :
F=
1 N
fi ( fi )
N i=1
(4.9)
Comme on peut le voir sur cette formule, F est une simple moyenne des fonctions dappartenance des fonctions objectif.
Ces diffrentes fonctions dappartenance ont t normalises par lintermdiaire de Smin
et Smax . De cette manire, on a pu gommer linfluence de la diffrence entre les units de
mesure des diffrentes fonctions objectif, et aussi minimiser les effets dus aux diffrences
de plages de variation entre les fonctions objectif. On a, en quelque sorte, hirarchis les
diffrentes fonctions objectif.
Grce cet artifice, rsoudre notre problme revient trouver un point qui minimise F.
Cela revient donc trouver un point tel que les fi ( fi ) soient minimaux, donc tel que le niveau
dappartenance soit le plus lev possible.
4.3.3
Discussion
Cette mthode est simple mettre en uvre. Par exemple, elle donne de bons rsultats
sur deux problmes tests (le problme Schaffers F2 [Reardon 97a] et le problme simplifi
de Born-Mayer [Reardon 97b]).
103
Chapitre 5
5.2
5.3
Gnralits
105
Chapitre 5.
Variables de
sortie du systme
Systme
optimiser
Mtaheuristique
Mthode
Multiobjectif
Paramtres de
commande du
systme
Fonction cot
Variables de
sortie du systme
Systme
optimiser
Mthode
Multiobjectif
+
Mtaheuristique
Paramtres de
commande du
systme
106
f (x)
x0
x1
x2
x3
x0
x1
5.4
Le recuit simul
Cette mthode de recherche a t propose par des chercheurs dIBM qui tudiaient les
verres de spin. Ici, on utilise un processus mtallurgique (le recuit) pour trouver un minimum.
En effet, pour quun mtal retrouve une structure proche du cristal parfait (ltat cristallin
correspond au minimum dnergie de la structure atomique du mtal), on porte celui-ci une
temprature leve, puis on le laisse refroidir lentement de manire ce que les atomes aient
le temps de sordonner rgulirement (voir [Bonomi 88], [Siarry 94] et [Siarry 99]).
Ce processus mtallurgique a t transpos loptimisation et a donn une mthode
simple et efficace. Le pseudo-code du recuit simul est reprsent dans lalgorithme 5.1.
Le fonctionnement de cet algorithme est le suivant :
107
Chapitre 5.
f (x)
x0 x
F IG . 5.5 Mthode stochastique de recherche doptimum global.
Algorithm 5.1 Recuit simul.
init T (temprature initiale)
init x (point de dpart)
init T (temprature minimale)
while(not(end))
y = Voisin (x)
C = C (y) C (x)
if C < 0 then y = x
C
else if alea (0, 1) < e T then y = x
T = (T )
if T < T then end(while)
repeat(while)
5.4.1
5.4.1.1
Principe
Cette mthode, dveloppe EDF [Engrand et al. 98], utilise une fonction dagrgation
des fonctions objectif couple avec un systme darchivage de solutions non domines.
108
Prsentation de la mthode
On suppose que les fonctions objectif du problme doptimisation multiobjectif sont positives. Cette hypothse permet dutiliser la fonction dagrgation suivante, pour se ramener
un problme de minimisation monobjectif :
n
G (
x ) = ln ( fi (
x ))
(5.1)
i=1
G = G
x G (
x ) = ln
i=1
fi (
x )
fi (
x)
(5.2)
reprsente la variation relative moyenne des fonctions objectif entre le point courant (
x)
et le point tester ( x ) :
G
(5.3)
p = exp
T
o T dsigne la temprature de lalgorithme de recuit. Cette temprature a la mme signification que dans la mthode du recuit simul monobjectif.
Pour larchivage des solutions non domines, on utilise une archive de taille variable
(entre 0 et Nmax solutions dans larchive). La gestion de larchivage se conforme aux rgles
suivantes :
si la solution
x est domine par au moins une solution de larchive, alors la solution
si la solution
x domine une solution
y de larchive, alors la solution
x remplace la
si la solution
x nest pas domine par larchive, alors on place cette solution dans
larchive et on retire de larchive les solutions qui sont domines par la solution
x .
Certaines autres rgles peuvent tre ajoutes pour amliorer la gestion des individus de larchive. Par exemple, on peut ajouter un critre restrictif pour lajout dune solution dans larchive :
la solution
x doit dominer toutes les solutions de larchive et tre une distance
minimale de solutions adjacentes de larchive.
Pour que la recherche se fasse sur toute la surface de compromis, il est ncessaire de relancer
rgulirement la recherche partir dun point choisi au hasard, au sein de larchive. Cette
tape du choix de lindividu est appele return to base.
Lalgorithme de la mthode P.A.S.A est celui dcrit dans lalgorithme 5.2.
5.4.1.3
Discussion
Dans cet algorithme, la population initiale prsente dans larchive peut tre issue dune
premire optimisation multiobjectif. La qualit des solutions initialement prsentes dans larchive influencera la qualit du rsultat obtenu la fin de loptimisation courante.
109
Chapitre 5.
2. Soit
x un voisin de
x
n
3. Calcul de G (
xn ) et de G = G (
xn ) G (
xn )
x =
x avec une probabilit 1 p
n+1
si
x domine une des solutions archives
y ,
x remplace
y dans la population
n+1
n+1
archive ;
si
x
n+1 est domine par au moins une des solutions archives, alors on ne larchive
pas ;
si
x
n+1 nest pas domine par la population archive alors on lajoute la population
Un autre avantage de cette mthode est la facilit avec laquelle on peut inclure des rgles
heuristiques pour la gestion de larchive. Cette flexibilit peut permettre dintgrer un savoir ingnieur, qui est susceptible damliorer la qualit de la population obtenue la fin
de loptimisation, mais surtout la vitesse de convergence vers cette population dindividus
archivs.
Un dfaut de cette mthode que lon peut souligner est que la forme dagrgation de la
fonction objectif (lquation 5.1) utilise ne supporte que les valeurs positives de fonctions
objectif.
5.4.2
5.4.2.1
Principe
Cette mthode a t propose dans [Ulungu et al. 99]. Elle utilise le recuit simul pour
rechercher la surface de compromis.
5.4.2.2
Prsentation de la mthode
exp Tnfk
si fk > 0
k =
(5.4)
1
si fk 0
avec
110
fk
fk = fk ( y ) fk (
x n ),
Ensuite, une fois que toutes ces probabilits ont t calcules, on les agrge. Pour cela, il
existe plusieurs solutions :
on effectue le produit des probabilits :
N
t (, ) = (k )k
(5.5)
k=1
avec
t (, ) = min (k )k
k=1, ,N
(5.6)
feq (
x ) = wi fi (
x)
(5.7)
i=1
et feq = feq (
x
n+1 ) f eq ( xn )
x
n+1 = y avec la probabilit p
xn+1 =
xn avec la probabilit 1 p
Cette mthode de traitement multiobjectif peut paratre semblable la mthode de pondration des fonctions objectif ; cependant, une diffrence importante existe :
dans la mthode de pondration des fonctions objectif, on commence par effectuer une somme pondre des fonctions objectif (voir quation 5.7).
Lorsque cette somme pondre est traite par la mthode du recuit simul, elle est prise en
compte sous la forme dune exponentielle :
feq
p = exp
(5.8)
Tn
Cette probabilit dacceptation peut alors se dcomposer de la manire suivante :
Ni=1 wi ( fi ( x ) fi ( x n ))
p = exp
Tn
111
(5.9)
Chapitre 5.
wi ( fi (
x ) fi (
x n ))
p = exp
Tn
i=1
wi
N
fi
p = exp
Tn
i=1
N
(5.10)
(5.11)
p = wi i
(5.12)
i=1
si feq 0 alors
x
n+1 = y
si feq > 0 alors :
x
n+1 = y avec la probabilit p
xn+1 =
xn avec la probabilit 1 p
la diffrence avec la mthode MOSA rside dans le calcul de la probabilit dacceptation.
Dans la mthode MOSA, on commence par calculer des probabilits par fonction objectif :
fi
pi = exp
Tn
alors quavec la mthode de pondration des fonctions objectif, le calcul de la probabilit seffectue sur la fonction objectifquivalente
:
feq
p = exp
Tn
La mthode MOSA prend plus en considration laspect multiobjectif du problme doptimisation que la mthode de pondration des fonctions objectif traite par la mthode du
recuit simul.
5.4.2.3
Discussion
Dans [Ulungu et al. 99], la mthode MOSA est utilise de la manire suivante, pour un
problme doptimisation combinatoire biobjectif.
1. Deux couples de coefficients de pondration sont calculs.
2. Pour chaque couple, une population de solutions est calcule. Chaque couple va remplir une partie de la surface de compromis.
3. Les deux populations sont alors runies, puis les individus non dominants de la population totale sont limins.
Cette mthode fonctionne bien car, haute temprature, le recuit simul rpartit les individus sur toute une surface, et non sur un point. A la fin de loptimisation, la temprature de
fonctionnement est encore suffisamment leve pour quun effet stochastique distribue les
solutions potentielles sur un front.
Cet effet peut tre soulign par lexemple suivant, qui concerne un problme test biobjectif non convexe, le problme test de Deb :
1. On calcule 40 couples de coefficients de pondration,
2. Pour chaque couple, une solution au problme monobjectif quivalent est recherche,
en utilisant la mthode du recuit simul,
112
Plan f1, f2
2.788
Plan f1, f2
1.609
f2
f2
0.1196
0.1196
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
0.1
0.2
0.3
0.4
f1
0.6
0.7
0.8
0.9
Plan f1, f2
1.34
0.5
f1
Plan f1, f2
1
f2
f2
0.008522
0.008522
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
0.1
f1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
f1
113
Chapitre 5.
Ensuite, pour 106 itrations, on voit que les solutions se rpartissent autour de deux
points : cest lenveloppe convexe du problme test non convexe.
Donc, comme le montre cette figure, leffet stochastique a permis de trouver des solutions
dans des rgions non accessibles pour la mthode de pondration des fonctions objectif.
5.5
La recherche Tabou
Cette mthode, mise au point par F. Glover [Glover 86, Glover 90, Glover et al. 97], est
conue en vue de surmonter les minima locaux de la fonction objectif. Cest une technique
doptimisation combinatoire que certains prsentent comme une alternative au recuit simul.
A partir dune configuration initiale quelconque, Tabou engendre une succession de configurations qui doit aboutir la configuration optimale. A chaque itration, le mcanisme de
passage dune configuration, soit xn , la suivante, soit xn+1 , est le suivant :
on construit lensemble des voisins de xn , cest--dire lensemble des configurations
accessibles en un seul mouvement lmentaire partir de xn (si cet ensemble est trop
vaste, on en extrait alatoirement un sous-ensemble de taille fixe) : soit Voisinage (xn )
lensemble (ou le sous-ensemble) envisag ;
on value la fonction objectif f du problme pour chacune des configurations appartenant Voisinage (xn ). La configuration xn+1 , qui succde la configuration xn dans
la chane de Markov construite par Tabou, est la configuration de Voisinage (xn ) en
laquelle f prend sa valeur minimale.
Notons que la configuration xn+1 est adopte mme si f (xn+1 ) > f (xn ) : cest grce cette
particularit que Tabou permet dviter les minima locaux de f .
Cependant, telle quelle la procdure ne fonctionne gnralement pas, car il y a un risque
important de retourner une configuration dj retenue lors dune itration prcdente, ce
qui provoque lapparition dun cycle. Pour viter ce phnomne, on tient jour, chaque
itration, une liste Tabou de mouvements interdits ; cette liste - qui a donn son nom la
mthode - contient les mouvements inverses (xn+1 xn ) des m derniers mouvements (xn
xn+1 ) effectus (typiquement m = 7). La recherche du successeur de la configuration courante
xn est alors restreinte aux voisins de xn qui peuvent tre atteints sans utiliser un mouvement
de la liste tabou. La procdure peut tre stoppe ds que lon a effectu un nombre donn
ditrations, sans amliorer la meilleure solution atteinte jusquici.
Lalgorithme ainsi dcrit est dit Tabou simple. Selon [De Werra 90], il serait plus efficace que le recuit simul pour le problme modle du coloriage dun graphe. Cependant, le
mode de construction de la liste tabou - qui, pour une simple raison dconomie de place mmoire, contient des mouvements interdits, et non des configurations interdites - peut bloquer
laccs certaines solutions, pourtant non encore visites. Pour viter cet inconvnient, on
peut employer la mthode plus complexe dite Tabou gnralise, qui prvoit la possibilit
dannuler le statut tabou dun mouvement, lorsque le bnfice escompt est suffisant (cette
circonstance est apprcie laide de la notion de niveau daspiration, qui est prcise en
dtail dans les articles rfrencs).
Le pseudo-code de cette mthode est reprsent dans lalgorithme 5.3.
5.6
114
(voir
un chromosome est compos de gnes. Dans le codage binaire, un gne vaut soit
0 soit 1.
Phnotype : chaque gnotype reprsente une solution potentielle un problme doptimisation. La valeur de cette solution potentielle est appele le phnotype.
Tout ce vocabulaire est illustr la figure 5.7.
gnotype
phnotype
f (110010001) = 0.5
1 1 0 0 1 0 0 0 1
gne
1 0 1 0 1 1 0 0
(b) Individu 2
115
1 1 0 0 0 0 1 0
(c) Individu 3
Chapitre 5.
A chaque individu on associe une efficacit (on appelle aussi cette valeur l adaptation). Cette efficacit va correspondre la performance dun individu dans la rsolution dun problme donn. Par exemple, si lon considre un problme de maximisation dune fonction, lefficacit de lindividu crotra avec sa capacit maximiser cette
fonction.
Si lon prend lexemple de la maximisation dune fonction f (x), on a le tableau 5.1.
f (x)
Efficacit
Individu
10
2
1
20
4
2
5
1
3
2
1
3
F IG . 5.9 Roue servant slectionner un individu pour le croisement.
Pour notre exemple, on aura le tableau 5.2.
On va maintenant fusionner lindividu de dpart avec lindividu associ. Cette opration sappelle le croisement. Pour cela, on slectionne alatoirement une position dans
le codage de lindividu. A cette position, on spare le codage puis on change les morceaux de droite entre les deux individus. Un exemple de croisement est reprsent la
figure 5.10.
On peut rpter cette opration pour tous les individus du tableau prcdent. On obtient
alors le tableau 5.3.
116
Individu 2 :
1
11010110
1
10101100
2
10101100
2
10101100
2
10101100
3
11000010
Femelle
10101100
Position de croisement
1
2
11000010
11000010
11010110
10101100
10101100
10101100
10101100
10101100
11000010
11011100
10100110
11011100
10100110
3
10101100
2
10101100
2
11000010
3
11010110
1
10101100
Rsultat
10101100
11010110
2
TAB . 5.3 Le croisement, rsultat final.
Ici, on constate que lon a obtenu deux nouveaux lments dans la colonne rsultat. Notre
population sest diversifie. A ce moment, soit on conserve toute la population (mais on
supprime les doublons), soit on supprime les lments les moins performants, de manire
conserver le mme nombre dindividus dans la population. Dautres mthodes de rduction
117
Chapitre 5.
de population peuvent tre mises en uvre ici (par exemple, on slectionne au hasard les
individus qui vont tre supprims).
Pour finir, on peut procder une mutation au niveau des gnes dun individu.
Pour cela, on commence par choisir au hasard un certain nombre dindividus (en gnral, la probabilit de slection pour la mutation est faible).
Ensuite, pour chaque individu slectionn, on choisit au hasard le gne o aura lieu la
mutation.
Finalement, cette position, on change le 0 en 1 et rciproquement.
On recommence ce procd jusqu ce que lon atteigne un critre darrt (par exemple,
un nombre maximal ditrations).
Le pseudo-code dun algorithme gntique est donn dans lalgorithme 5.4.
Algorithm 5.4 Un algorithme gntique.
Initialisation de la population
Evaluation des fonctions objectif
Calcul de lefficacit
For i=1 to MaxIter
Slection alatoire,
Slection proportionnelle lefficacit
Croisement
Mutation
Evaluation des fonctions objectif
Calcul de lefficacit
End For
Lavantage de cette mthode est que, dans certains cas, elle peut procurer un jeu de solutions optimales.
5.7
Loptimisation
gntiques
multiobjectif
et
les
algorithmes
Les algorithmes gntiques sont trs bien adapts au traitement dun problme doptimisation multiobjectif. En tmoigne le nombre important darticles qui ont t publis sur ce
sujet. De plus, ce domaine est trs dynamique et ne cesse de se dvelopper.
Dans le paragraphe prcdent, nous avons vu lalgorithme gntique. Le schma de fonctionnement dun algorithme gntique pour la rsolution dun problme doptimisation monobjectif est reprsent la figure 5.11.
Boucle
Initialisation de la population.
Evaluation de lefficacit des individus de la population.
Croisement.
118
2a
2b
2a
5.7.1
5.7.1.1
(5.13)
5.7.1.1.1 Principe
Cette mthode permet de traiter un problme doptimisation multiobjectif sans avoir
agrger les fonctions objectif en une seule fonction [Coello 98, Deb 99].
119
Chapitre 5.
Diffrences
F IG . 5.13 La distance de Hamming.
5.7.1.1.2 Prsentation de la mthode
Lalgorithme V.E.G.A. considre une population de N individus. Ces N individus sont rpartis en k groupes (k tant le nombre de fonctions objectif de notre problme) de Nk individus
(avec N multiple de k). A chaque groupe, on associe une fonction objectif. Cette fonction objectif permet de dterminer lefficacit dun individu au sein du groupe. Ensuite, les individus
sont mlangs et les croisements sont oprs en tenant compte de lefficacit de chaque individu.
La figure 5.14 reprsente les diffrentes squences de fonctionnement de la mthode. Sur
cette figure, on a reprsent les diffrents types de populations que lon traite au cours du
droulement de la mthode V.E.G.A. (soit un ensemble dindividus, soit des groupes dindividus).
Individu 1
Individu 1
Individu 2
Groupe 1
Individu 2
Individu 2
Individu 3
Groupe 2
Individu 3
Individu 3
Individu N
Individu N
Etape 3
Etape 4
Individu 1
Groupe m
Individu N
Etape 1
Etape 2
Etape 2 :
Etape 3 :
Etape 4 :
5.7.1.1.3 Discussion
Le danger de cette mthode est dobtenir, en fin doptimisation, une population constitue
120
5.7.2
5.7.2.1
5.7.2.1.1 Principe
Cette mthode est prsente dans [Deb 99] et [Fonseca et al 93]. Elle utilise la relation de
dominance pour dterminer lefficacit dun individu.
5.7.2.1.2 Prsentation de la mthode
Cette mthode est base sur la dominance au sens de Pareto. Ici, le rang dun individu
(numro dordre qui permet de classer un individu par rapport aux autres) est donn par le
nombre dindividus qui dominent lindividu considr.
(t)
Par exemple, si lon considre un individu xi la gnration t qui est domin par pi
individus, le rang de lindividu considr est donn par :
(t)
(5.14)
A tous les individus non domins on affecte le rang 1. Les individus domins se voient
donc affects un rang important (une forte pnalit donc).
Pour le calcul de lefficacit, on peut suivre les tapes suivantes :
1. Classer les individus en fonction de leur rang.
2. Affecter une efficacit un individu en interpolant partir du meilleur (rang 1) jusquau
plus mauvais (rang n), en utilisant une fonction f (rang). Cette fonction est, le plus
souvent, linaire (voir figure 5.15).
Efficacit
1
f (n)
Rang
Chapitre 5.
(5.15)
5.7.2.2.1 Principe
Cette mthode reprend les grandes lignes de la mthode M.O.G.A prcdemment dcrite.
La diffrence principale intervient lors du calcul de lefficacit dun individu [Srinivas et al. 93].
5.7.2.2.2 Prsentation de la mthode
Cette mthode est base sur une classification en plusieurs niveaux des individus. Dans un
premier temps, avant de procder la slection, on affecte chaque individu de la population
un rang (en utilisant le rang de Pareto, voir section 1.6.2). Tous les individus non domins de
mme rang sont classs dans une catgorie. A cette catgorie, on affecte une efficacit factice,
qui est inversement proportionnelle au rang de Pareto de la catgorie considre.
On veut maintenant que les individus de la catgorie considre se rpartissent de manire
uniforme au sein de celle-ci. On veut donc une bonne reprsentation (voir section 1.11), ou
encore on veut quil y ait une diversit de solutions.
Pour maintenir la diversit de la population, ces individus classs se voient affects dune
nouvelle valeur defficacit. Pour cela, on utilise la formule suivante :
K
mi =
Sh (d (i, j))
(5.16)
(5.17)
j=1
Sh (d (i, j)) =
1
0
d(i, j)
share
122
= share
f2
m12
m13
Zone 1
m12
Zone 2
Zone 3
f1
dham (i, j) 2
1
Chapitre 5.
1
0
deuclid (i, j) 2
phen
(5.20)
on effectue le comptage de niches (de rayon phen ) dans lespace des phnotypes, la
distance que lon considre est la distance Euclidienne (si lon considre un problme
doptimisation continu)
les niches combines :
gen
phen
deuclid (i, j) 2
1
si deuclid (i, j) < phen
phen
Shcomb (d (i, j)) =
et dham (i, j) gen
d
(i,
j)
ham
1
si deuclid (i, j) phen
gen
0
sinon
on effectue le comptage de niches (de rayons gen et phen ) dans lespace des gnotypes
et des phnotypes.
Une niche phnotypique permet de rgler la diversit des solutions dans lespace des fonctions objectif alors que la niche gnotypique permet de rgler la diversit des solutions dans
lespace de dcision.
La niche combine, elle, permet dobtenir des solutions diversifies aussi bien dans lespace de dcision que dans lespace des fonctions objectif.
5.7.2.2.3 Discussion
Lefficacit de cette mthode tient dans le fait que les objectifs sont rduits une valeur
defficacit factice obtenue en utilisant le classement en fonction du rang de Pareto. Cette
mthode prsente linconvnient dtre sensible au choix de la valeur de share .
124
5.7.2.3.1 Principe
Cette mthode reprend les grandes lignes de la mthode N.S.G.A prcdemment dcrite.
La diffrence principale intervient lors du processus de slection [Horn et al. 93].
5.7.2.3.2 Prsentation de la mthode
Dans lalgorithme gntique classique, la mthode de slection entre deux individus utilise la roue de slection telle quelle a t dcrite dans la section 5.6. Dans cette mthode,
seule la manire de slectionner les individus change. Au lieu de comparer deux individus,
on utilise un groupe de I individus (typiquement dix). Si les individus sont soit domins,
soit non domins, on utilise le partage de la valeur defficacit tel quil a t dcrit dans la
section 5.7.2.2.
Le pseudo-code de la fonction slection pour un problme multiobjectif o tous les objectifs doivent tre maximiss est reprsent dans lalgorithme 5.7. Son implmentation dans
un algorithme gntique est reprsent dans lalgorithme 5.8.
Algorithm 5.7 Dtail de la fonction de slection.
function selection
Mlange(random_pop_index)
Candidat_1 = random_pop_index[1]
Candidat_2 = random_pop_index[2]
Candidat_1_domin = false
Candidat_2_domin = false
for Ensemble_index_comp = 3 to tdom + 3 do
/* slectionne tdom individus au hasard dans S */
begin
Indiv_comp = random_pop_index[Ensemble_index_comp]
if S[Indiv_comp] domine S[Candidat_1]
then Candidat_1_domin = true
if S[Indiv_comp] domine S[Candidat_2]
then Candidat_2_domin = true
end
if (Candidat_1_domin AND NOT Candidat_2_domin)
then return Candidat_2
else if (NOT Candidat_1_domin AND Candidat_2_domin)
then return Candidat_1
else
do Partage
end
La fonction de slection choisit un individu de la population S.
Les valeurs de tdom et share doivent tre fournies par lutilisateur.
5.7.2.3.3 Discussion
Comme cette mthode napplique pas la slection de Pareto sur toute la population, mais
125
Chapitre 5.
5.7.2.4.1 Principe
Cette mthode sinspire de la mthode MOGA. La diffrence principale rside dans la
manire dont la relation de dominance est tablie entre deux solutions.
5.7.2.4.2 Prsentation de la mthode
Dans cette mthode, le rang de dominance est calcul de la manire dcrite dans lalgorithme 5.9, nomme W.A.R. (Weighted Average Ranking) :
Algorithm 5.9 La relation W.A.R..
A solution comparer (vecteur de dimension n).
S ensemble de solutions (S ne contient pas A).
repeat
i=1
soit Ai la variable i du point A.
Ni =nombre de points de S meilleurs que Ai du point de vue de la variable i.
i = i+1
until i > n
Le rang de A vaut N = ni=1 Ni
Ensuite, lefficacit dun individu sera calcule de la mme manire que pour la mthode
MOGA.
Prenons un exemple. A la figure 5.17 ( f1 et f2 sont minimiser), on a :
126
f1
(5.21)
f1 (
x)
f2 (
x)
g (
x)0
h (x)=0
127
Chapitre 5.
f1 (
x)
g (
x)0
h (
x)=0
minimiser
avec
et
f2 (
x)
g (
x)0
h (
x)=0
minimiser
avec
et
Cette prcaution permet de garantir que la surface de compromis se rpartira entre ces
t N,
x Pt tel que Pt+1 (
x)>0
avec n
Pt =
x Pt | x Pt | x
x
Pt =
rt P
128
5.8
Bibliographie commente
[Sait et al. 99] On trouvera dans ce livre la description de certaines mtaheuristiques : Recuit
simul, recherche Tabou, algorithmes gntiques, etc. Les mthodes y sont dcrites clairement et la plupart des lments thoriques relatifs la convergence
de certaines de ces mthodes sont prsents. Chaque mthode fait aussi lobjet
dune prsentation de son utilisation dans un contexte industriel.
[Goldberg 94] Le livre dintroduction aux algorithmes gntiques de rfrence. Tout ce qui
a trait aux algorithmes gntiques y est prsent de manire didactique.
[Davis 91] Ce livre prsente un panorama des applications des algorithmes gntiques.
[Glover et al. 97] Le livre de rfrence sur la mthode de recherche Tabou. A la diffrence
du livre [Goldberg 94] sur les algorithmes gntiques, cet ouvrage est plus scientifique. Lexpos est un peu plus ardu. Nanmoins, nous conseillons la lecture de
ce livre avant toute utilisation de la mthode de recherche Tabou.
[Ausiello et al. 99] Un livre sur la complexit des algorithmes ainsi que sur les mthodes
dapproximation. Ce livre traite donc des performances des algorithmes. Le
niveau de cet ouvrage est assez lev mais il comporte une prsentation trs
claire des diffrents concepts mis en uvre dans ce domaine. Il contient aussi un
chapitre encyclopdique sur les diffrents problmes doptimisation, ainsi que
les principaux rsultats sy rattachant.
[Deb 01]
129
Chapitre 6
Introduction
Les mthodes que nous avons prsentes jusquici taient bases sur la relation de dominance. Cette relation (que lon peut dfinir de plusieurs manires : la dominance de Pareto, la
dominance lexicographique par exemple) permet de filtrer les lments dun ensemble, et de
ne retenir que les lments incomparables entre eux. Cependant, il existe une autre approche
pour obtenir un ensemble de solutions, qui repose sur ltablissement dune relation dordre
entre les diffrents lments. Ainsi, on peut, en fonction de la relation dordre dfinie, obtenir un ensemble de solutions (relation dordre partiel) ou une et une seule solution (ordre
complet). Lautre diffrence majeure, par rapport aux mthodes doptimisation multiobjectif
classiques, vient du fait que les mthodes daide la dcision ne travaillent que sur des
ensembles discrets de points (les mthodes doptimisation multiobjectif classiques peuvent
travailler, elles, sur des ensembles continus).
De plus, les mthodes daide la dcision permettent de rpondre plusieurs problmatiques, runies dans le tableau 6.1.
Problmatique
Choix dun sous-ensemble des
actions les meilleures ou, a
dfaut, les plus satisfaisantes.
Tri par affectation des actions
des catgories prdfinies.
Rangement de classes dquivalence composes dactions, ces
classes tant ordonnes de faon
complte ou partielle.
Rsultat
Choix
Procdure
Slection
Tri
Affectation
Rangement
Classement
131
Chapitre 6.
A
C
F IG . 6.1 Le paradoxe de Condorcet.
Un autre exemple refltant, lui, lintransitivit de lindiffrence, est celui des sandwichs
[Scharlig 85]. On vous propose deux sandwichs, le premier est constitu de pain et de jambon et le second est constitu dun peu plus de pain et un peu moins de jambon. Ces deux
sandwichs sont suffisamment semblables pour que vous nayez aucune prfrence entre les
deux. Vous prenez le sandwich avec un peu plus de pain (car vous prfrez avoir un peu plus
de pain que de jambon). On vous prsente alors, en plus du sandwich que vous avez dj
choisi, un autre sandwich avec encore un peu moins de jambon et un peu plus de pain. L,
vous choisirez encore le sandwich avec un peu plus de pain (on suppose que vous prfrez
toujours avoir un peu plus de pain que de jambon). Ce processus se rpte jusqu ce que
vous soyez en possession dun morceau de pain sans jambon.
Durant tout le processus, vous avez toujours eu une prfrence vis--vis de la solution qui
comportait un peu plus de pain. Maintenant, lorsque vous considrez le problme dans son
ensemble, il est clair que vous avez une prfrence trs nette pour le sandwich avec jambon
par rapport la baguette seule.
Donc, comme pour la relation de prfrence, la relation dindiffrence est elle aussi intransitive.
Cest cet ensemble de proprits qui a suscit le dveloppement de laide la dcision.
En effet, loptimisation multiobjectif classique ne prenait pas en compte ces proprits et,
dans certains cas, amenait des solutions incohrentes, lors de la rsolution de problmes
doptimisation multicritre (ce terme est souvent prfr au terme multiobjectif dans ce
contexte de laide la dcision).
Laide la dcision nous propose donc une prise en compte de ces proprits dintransitivit des relations dordre, et elle nous propose aussi des familles de mthodes destines
rsoudre des problmatiques diffrentes (Slection, Tri, Rangement) de celles traites par
loptimisation multiobjectif classique.
Lorsque lon est confront au domaine de laide la dcision, on remarque un certain
nombre de termes redondants :
action,
classement,
ordre complet ou partiel.
Une action dsigne un objet, une dcision, un candidat ou autre chose encore. Cest sur
cette entit que va soprer la slection (ou le tri, ou le classement).
Une mthode daide la dcision va donc permettre de choisir la meilleure action, ou de
classer des actions en fonction dun ou plusieurs critres.
En fonction du type de classement que lon dsirera effectuer, on pourra utiliser diffrents
types de rgles de classement ou de choix. Ces rgles vont dfinir un ordre complet (si toutes
132
6.2 Dfinitions
les actions sont classes) ou partiel (aprs le classement, il subsiste des actions incomparables,
donc non classes).
6.2
Dfinitions
6.2.1
On rappelle, pour commencer, les dfinitions des relations dordre, ainsi que des relations
dquivalence, qui permettront de classer les actions suivant certains critres.
Dfinition : la relation dquivalence
Une relation binaire R (relation entre deux lments) dfinie sur un ensemble A est
une relation dquivalence si cette relation est :
rflexive : x A, x R x
symtrique : (x, y) A A, x R y y R x
transitive : (x, y, z) A A A, x R y et y R z x R z
Lexemple le plus simple de relation dquivalence est la relation = sur lensemble N des
entiers naturels.
Rappelons maintenant la dfinition dune relation dordre.
Dfinition : la relation dordre
Une relation binaire R dfinie sur un ensemble A est une relation dordre si cette
relation est :
rflexive
antisymtrique : (x, y) A A, x R y et y R x x = y
transitive
Lexemple le plus simple de relation dordre est la relation sur lensemble N des entiers
naturels.
Ces diffrentes dfinitions vont nous permettre de construire des relations de comparaison
(on les appellera aussi des relations de prfrence). Ces relations nous permettront, ensuite,
dordonner les lments de lensemble sur lequel on effectue ces comparaisons.
Il existe plusieurs types dordres. Voici leurs dfinitions :
Dfinition : prordre
Un prordre est une relation rflexive et transitive.
Dfinition : ordre
Un ordre est un prordre antisymtrique (cest donc une relation dordre).
Dans un prordre, les ex-aequo sont possibles alors que dans un ordre, il ny a pas dexaequo possibles.
Voici quelques dfinitions complmentaires sur le prordre.
133
Chapitre 6.
6.2.2
Les diffrentes dfinitions prsentes ci-dessus vont nous permettre de dfinir des relations de prfrence, dindiffrence et dincomparabilit entre deux actions :
La relation de prfrence entre deux actions,
cette relation, que lon notera P, signifie une prfrence pour une des deux actions. On
a a P b si a est prfre b.
La relation dindiffrence entre deux actions,
cette relation, que lon notera I, signifie une indiffrence entre les deux actions. On a
a I b si il y a indiffrence entre a et b.
La relation dincomparabilit entre deux actions,
cette relation, que lon notera R, signifie que deux actions sont incomparables. On a
a R b si il y a incomparabilit entre a et b (ce qui signifie que lon na ni a P b, ni a I b,
ni b P a).
Ces trois relations {P, I, R} dfinissent ce que lon appelle une structure de prfrence.
Une structure de prfrence peut tre compltement caractrise par la dfinition dune
relation de prfrence au sens large :
a S b si a P b ou si a I b.
La relation de prfrence au sens large est donc la runion dune relation de prfrence
au sens strict (la relation P) et dune relation dindiffrence (la relation I). La relation de
prfrence au sens large est aussi appele relation de surclassement.
134
6.2.3
6.2.4
Analyse
6.3
135
Chapitre 6.
6.3.1
Introduction
Avant de commencer la prsentation de ces mthodes, nous allons prciser quelques notations, ainsi quune mthode de reprsentation des rsultats.
6.3.1.1
Notations
La reprsentation
a1
a2
a3
a4
a5
a6
a7
a1
a2
a3
S
S
S
S
S
S
a4
a5
a6
a7
136
a2
a6
a3
a5
a4
a1
a7
a6
a2
a3
a5
a4
137
Chapitre 6.
6.3.2
La mthode ELECTRE I
6.3.2.1
Principe
Cette mthode permet de choisir la meilleure action suivant un groupe de critres. Elle a
t dfinie par B. Roy en 1968 [Vincke 89, Maystre et al. 94].
Cette premire mthode sera applique un exemple concret : lidentification du meilleur
lve dune classe.
6.3.2.2
Prsentation de la mthode
J + (ai , ak ) = j F | g j (ai ) > g j (ak ) : cest lensemble des critres pour lesquels
laction ai estprfre laction ak .
J = (ai , ak ) = j F | g j (ai ) = g j (ak )
J (ai , ak ) = j F | g j (ai ) < g j (ak )
Ces diffrentes comparaisons sont effectues sur des couples dactions (ai , ak ) et par critre
g j . Le rsultat obtenu la fin de cette tape est un ensemble dindices reprsentant des critres
qui vrifient les relations dfinies ci-dessus pour le couple dactions donn.
Convertir les relations entre actions en valeurs numriques
Le but est, maintenant, de convertir les diffrents ensembles obtenus suite la comparaison sur les couples dactions (ai , ak ) en valeurs numriques.
Pour chaque ensemble, on dtermine donc la somme des poids des critres appartenant
chaque famille :
P+ (ai , ak ) = Pj avec j J + (ai , ak ) : cest la somme des poids des critres appartej
138
P+ (ai , ak ) + P= (ai , ak )
P (ai , ak )
(6.1)
On a 0 Cik 1.
Cet indice exprime combien lhypothse de dpart ai surclasse ak concorde avec la
ralit reprsente par les valuations des actions.
lensemble de concordance :
J (ai , ak ) = J + (ai , ak ) J = (ai , ak )
lindice de discordance : on le note Dik . Il est dfini de la manire suivante :
(
0
si J (ai , ak ) = 0/
Dik =
1
(6.2)
(6.3)
Cik c
ai S ak
(6.4)
Dik d
On a :
c:
seuil de concordance. Typiquement 0.7. Cest le seuil au del duquel lhypothse de dpart ai surclasse ak sera considre comme valable.
d:
seuil de discordance. Typiquement 0.3. Cest le seuil en de duquel lhypothse de dpart ai surclasse ak ne sera plus valable.
Cette dfinition nous indique que pour quune relation de surclassement soit considre
comme valable, il faut que celle-ci soit suffisamment concordante et aussi suffisamment non
discordante avec lhypothse de dpart ai surclasse ak .
Cette dernire tape nous permet dextraire, de lensemble des actions de dpart, les
meilleures actions (celles qui respectent la relation 6.4).
139
Chapitre 6.
6.3.2.3
Exemple
E1
E2
E3
E4
E5
M1
7
8
20
16
12
M2
13
11
2
14
12
M3
8
11
10
16
8
M4
12
12
3
14
8
M5
11
11
15
13
10
la moyenne des notes sur lensemble des matires doit tre la plus leve possible.
C2 :
C3 :
les variations des notes autour de la moyenne doivent tre les plus petites possible.
C1 (E) =
C2 (E) =
C3 (E) =
`
matiere
` Note (E, matiere)
5
`
>8
10 si minmatiere
` (Note (E, matiere))
0 sinon
q
` C1 (E))2
matiere
` (Note (E, matiere)
5
en dsignant par :
E:
matiere
` :
un index qui parcourt toutes les matires pour llve considr (cinq matires
en tout).
a2 :
a3 :
a4 :
Il nous faut maintenant choisir des poids pour les diffrents critres. Par ce choix, on dfinit
un ordre dimportance dans les critres. Par exemple, on veut que la moyenne soit le critre
principal et que les deux autres critres aient le mme poids.
Donc on fixe PC1 = 0.5, PC2 = PC3 = 0.25.
Dans un premier temps, on calcule la valeur de chaque critre pour chaque lve. Ces
valeurs sont runies dans le tableau 6.4.
E1
E2
E3
E4
E5
C1
10.2
10.6
10
14.6
10
C2
0
10
0
10
10
C3
1.035
0.606
3.08
0.5366
0.8
E1
E2
E3
E4
E5
C1
0.87
2.61
0
20
0
C2
0
20
0
20
20
C3
16.08
19.45
0
20
17.9
TAB . 6.4 Les valeurs des critres pourTAB . 6.5 Les valeurs recalibres des critres
chaque lve.
pour chaque lve.
Les chelles des diffrents critres ne nous conviennent pas, nous allons donc recalibrer
les diffrentes valeurs :
Pour le critre C1 , 10 on associe 0 et 14.6 on associe 20.
Pour le critre C2 , 0 on associe 0 et 10 on associe 20.
Pour le critre C3 , 0.5366 on associe 20 et 3.08 on associe 0.
Pour les valeurs intermdiaires de chaque critre, on effectue une interpolation linaire en
utilisant les informations que lon vient de fournir.
On obtient alors les valeurs contenues dans le tableau 6.5.
Ici, les valeurs des amplitudes des chelles (les variables j ) valent toutes 20 (les valeurs
de chaque critre sont rparties sur un intervalle [0, 20]).
Etablir des relations entre actions
Nous allons maintenant effectuer des comparaisons action par action pour chaque critre.
Ces comparaisons sont runies dans un tableau pour chaque critre (voir les tableaux 6.6, 6.7
et 6.8).
La prsence du symbole J lintersection de la ligne a1 et de la colonne a2 du tableau
relatif au critre C1 signifie que lindex 1 appartient lensemble J (a1 , a2 ). Si lon runit
les informations des trois tableaux relatifs ce couple dactions, on obtient :
J (a1 , a2 ) = {1, 2, 3}
141
Chapitre 6.
a1
a1
a2
a3
a4
a5
J+
J
J+
J
a2
J
a3
J+
J+
J
J+
J+
J=
a4
J
J
J
a5
J+
J+
J=
J+
a1
a1
a2
a3
a4
a5
J+
J=
J+
J+
a2
J
a3
J=
J+
J
J=
J=
J+
J+
a4
J
J=
J
a5
J
J=
J
J=
J=
TAB . 6.6 Comparaisons entre actions pour leTAB . 6.7 Comparaisons entre actions pour le
critre C1 .
critre C2 .
a1
a1
a2
a3
a4
a5
J+
J
J+
J+
a2
J
J
J+
J
a3
J+
J+
J+
J+
a4
J
J
J
a5
J
J+
J
J+
a2
0/
{1, 2, 3}
0/
{1, 2, 3}
{2, 3}
0/
{1, 3}
0/
a3
{1, 3}
{1, 2, 3}
a4
0/
0/
0/
{1, 2, 3}
{2, 3}
0/
a5
{1}
{1, 3}
0/
{1, 3}
0/
{2}
0/
0/
a2
0/
a3
{2}
0/
0/
{2}
{2}
0/
{1}
a4
0/
{2}
0/
{2}
a5
0/
{2}
{1}
{2}
0/
{1, 3}
0/
{1}
a2
{1, 2, 3}
a3
0/
0/
{1, 2, 3}
0/
{1, 3}
0/
0/
a4
{1, 2, 3}
{1, 3}
{1, 2, 3}
a5
{2, 3}
0/
{2, 3}
0/
{1, 3}
a2
0/
{1, 2, 3}
{2}
{1, 2, 3}
{1, 2, 3}
0/
{1, 2, 3}
{2}
a3
{1, 2, 3}
{1, 2, 3}
{1, 2, 3}
{1, 2, 3}
a4
0/
{2}
0/
{2}
a5
{1}
{1, 2, 3}
{1}
{1, 2, 3}
S =
J .
1
0
1
0.5
a2
0
0
0.75
0
a3
0.75
1
1
0.5
a4
0
0
0
a5
0.5
0.75
0
0.75
a1
a1
a2
a3
a4
a5
0
0.25
0
0
a2
0
0
0.25
0.25
a3
0.25
0
0
0.5
a4
0
0.25
0
a5
0
0.25
0.5
0.25
0.25
TAB . 6.13 Rsum concernant les coeffi-TAB . 6.14 Rsum concernant les coefficients Pik+ .
cients Pik= .
Pik+ + Pik=
Pik
avec Pik = 1, i et k.
Le tableau 6.16 contient les coefficients de discordance. On remarque que j vaut 20 pour
tous les critres.
Filtrer les actions
Nous avons maintenant toutes les informations ncessaires pour raliser un test de concordance et un test de non discordance. On fixe le seuil c du test de concordance 0.75. Ce test
143
Chapitre 6.
1
0.25
1
0.5
a2
0
0
0.75
0.25
a3
1
1
1
1
a4
0
0.25
0
a5
0.5
1
0.5
1
0.25
0
0.0435
0
0.0435
a2
0.087
0.1305
0
0.0775
a3
0
0
0
0
a4
0.196
0.13
1
a5
0.196
0
0.895
0
0.105
Discussion
Malgr le nombre important dtapes que lon doit franchir pour arriver au rsultat, on
constate que le choix que lon peut faire la fin de lanalyse est trs cohrent. Il correspond
tout fait au classement que lon aurait fait de manire naturelle en appliquant les critres
dfinis.
Cette mthode formalise donc le raisonnement humain. Ainsi, on peut appliquer cette
mthode de choix un grand nombre de donnes et obtenir des relations entre actions quil
aurait t laborieux dobtenir la main.
144
a5
a2
a3
a4
6.3.3
La mthode ELECTRE IS
6.3.3.1
Principe
Cette mthode correspond la mthode ELECTRE I laquelle on a ajout laspect logique floue [Maystre et al. 94].
6.3.3.2
Prsentation de la mthode
Nous allons dfinir lindice de concordance par critre, lindice de concordance global,
lindice de discordance par critre, lindice de discordance global et la relation de surclassement.
Les indices de concordance et de discordance
Lindice de concordance :
c j (ai , ak ) = 0
0 < c j (ai , ak ) < 1
c j (ai , ak ) = 1
Cet indice est similaire celui dfini dans la mthode ELECTRE III (voir paragraphe 6.3.5).
Lindice de concordance global :
m
Cik =
p j c j (ai , ak )
j=1
pj
j=1
Cet indice est similaire celui dfini dans la mthode ELECTRE III.
Lindice de discordance par critre ; cet indice est de type binaire :
145
Chapitre 6.
d j (ai , ak ) =
ik
0 si g j (ak ) g j (ai ) < vi (ai , ak ) q j (ai , ak ) 1C
1c
1 sinon
0 si d j (ai , ak ) = 0, j = 1, , m
1 sinon
6.3.3.3
1
0
si Cik c et Dik = 0
sinon
Discussion
Comme avec la mthode ELECTRE I, on peut tracer le graphe des actions et rechercher
le noyau.
Il ne faut pas oublier de remplacer le circuit maximal (circuit qui nest compris dans
aucun autre circuit) par une action fictive.
Lanalyse des rsultats est alors la mme quavec la mthode ELECTRE I.
Lavantage davoir ajout laspect flou la mthode ELECTRE I est que lon diminue la
sensibilit de la mthode vis--vis des paramtres que doit choisir lutilisateur. En effet, la
mthode floue permet de pouvoir choisir un paramtre de la mthode sur une plage, au lieu
de donner une valeur ponctuelle.
6.3.4
La mthode ELECTRE II
6.3.4.1
Principe
Cette mthode est trs similaire la mthode ELECTRE I. La diffrence rside dans la
dfinition de deux relations de surclassement :
le surclassement fort ;
le surclassement faible.
6.3.4.2
Prsentation de la mthode
Cik c+
et
g j (ak ) g j (ai ) D1 ( j) , j
et
Pik 1
P
ik
et/ou
146
(6.5)
Cik c0
et
g j (ak ) g j (ai ) D2 ( j) , j
et
Pik 1
P
(6.6)
ik
avec c+ c0 et D2 ( j) D1 ( j).
Cette relation permet de considrer quune action ai surclasse fortement une action ak
si :
la relation de surclassement est trs fortement concordante et moyennement discordante (quation 6.5),
la relation de surclassement est moyennement concordante et faiblement discordante
(quation 6.6).
La relation de surclassement faible : laction ai surclasse faiblement laction ak si :
Cik c
et
g j (ak ) g j (ai ) D1 ( j) , j
et
Pik 1
(6.7)
Pik
avec c0 c .
Cette relation permet de considrer quune action ai surclasse faiblement une action ak
si la relation de surclassement est faiblement concordante et moyennement discordante
(quation 6.7).
Les variables D1 ( j) et D2 ( j) sont des seuils de non discordance. Ces valeurs sont dfinies
pour chaque critre g j . Ces seuils sont choisis de manire avoir D2 ( j) D1 ( j).
En consquence :
si g j (ak ) g j (ai ) D2 ( j), la discordance est faible et le critre j ne prsente pas une
opposition majeure lhypothse laction ai surclasse laction ak ;
si D2 ( j) < g j (ak ) g j (ai ) D1 ( j), la discordance est moyenne et le critre j ne prsente pas une opposition majeure lhypothse de surclassement laction ai surclasse
laction ak .
Dfinition du coefficient de concordance
Les coefficients de concordance sont calculs de la mme manire que pour la mthode
ELECTRE I :
Cik =
Pik+ + Pik=
Pik
(6.8)
La diffrence rside dans le fait que lon aura trois seuils de concordance c+ , c0 et c qui
correspondent respectivement une concordance avec prsomption forte, moyenne et faible.
Le test de concordance sera accept si :
147
Chapitre 6.
Le processus de classement
et
Pik+
Pik
Une fois que lon a dtermin ces diffrents lments, il faut effectuer :
un classement direct,
un classement inverse.
On commence par reprsenter les relations entre actions dans deux graphes :
un graphe dit de surclassement fort not GF , dans lequel on lie deux sommets entre
eux sil existe une relation de surclassement fort entre les deux actions reprsentes par
ces deux sommets,
un graphe dit de surclassement faible not G f , dans lequel on lie deux sommets entre
eux sil existe une relation de surclassement faible entre les deux actions reprsentes
par ces deux sommets.
Il faut, dans un premier temps, modifier les deux graphes de manire liminer les circuits.
Dfinition : un circuit
Un circuit est un ensemble dactions dans lequel on a, par exemple, laction A domine
laction B, laction B domine laction C et laction C domine laction A.
Un exemple de suppression de circuit est reprsent la figure 6.5. Sur cette figure, on
peut voir la simplicit du traitement des circuits. En effet, un circuit correspond des relations
entre les actions correspondantes qui tiennent du paradoxe de Condorcet. Il nest pas possible
de dcider quelle action est la meilleure. Donc, pour lever cette ambigut, on remplace les
actions qui forment un circuit par une action fictive. Cette action symbolisera un groupe
dactions quivalentes pour le dcideur.
Circuit
D
A
148
Nous allons maintenant runir les informations obtenues dans le classement direct et dans
le classement inverse (il sagit, en fait, dune intersection entre les deux classements). Nous
obtiendrons alors un prordre partiel.
Il faut suivre les tapes suivantes :
149
Chapitre 6.
si ai est prfre ak dans les deux prordres complets (le classement direct et le
classement inverse), alors il en sera de mme pour le prordre partiel ;
si ai est quivalente ak dans un prordre complet, mais si elle lui est prfre dans le
deuxime, alors ai sera prfre ak dans le classement final ;
si, dans le premier prordre, ai est prfre ak et si, dans le deuxime prordre, ak est
prfre ai , alors les deux actions seront incomparables dans le prordre final.
6.3.4.3
Exemple
Pik+
Pik
a1
a1
a2
a3
a4
a5
a2
0
+
0
+
1
a3
+
+
0
+
0
+
+
a4
0
0
0
a5
1
+
0
+
Pik+
.
Pik
1.74
0.87
19.13
0.87
a2
1.74
2.61
17.39
2.61
a3
0.87
2.61
a4
19.13
17.39
20
20
0
20
a5
0.87
2.61
0
20
20
0
20
20
a2
20
20
0
0
a3
0
20
a4
20
0
20
20
20
a5
20
0
20
0
3.37
16.08
3.92
1.82
a2
3.37
19.45
0.55
1.55
a3
16.08
19.45
a4
3.92
0.55
20
20
17.9
2.1
a5
1.82
1.55
17.9
2.1
SF
SF
a2
a3
SF
SF
SF
SF
a4
a5
SF
SF
a1
a1
a4
a2
a5
a2
a5
a4
a3
a3
151
Chapitre 6.
Yl
{1, 2, 3, 4, 5}
{1, 2, 3, 5}
{1, 3, 5}
{3}
D
{4}
{2}
{1, 2}
{3}
U
0/
0/
0/
0/
B
{4}
{2}
{1, 5}
{3}
Al
{4}
{2}
{1, 5}
{3}
rl+1
1
2
3
4
Al
{1, 3}
{5}
{4}
{2}
rl+1
4
3
2
1
Yl
{1, 2, 3, 4, 5}
{2, 4, 5}
{2, 4}
{4}
D
{1, 3}
{5}
{4}
{2}
U
0/
0/
0/
0/
B
{1, 3}
{5}
{4}
{2}
Rang du classement
direct
4
3
2
3
2
1
0
Rang du classement
inverse
4
1
Classement
dcroissant
4
1
Rang du classement
inverse
Discussion
Cette mthode permet de classer les actions. Dans notre exemple, on a effectu deux
classements :
un classement direct (ou de la meilleure action la moins bonne) :
2, 4, 5, {3, 1}.
un classement inverse (ou de la moins bonne action la meilleure) :
4, 2, {5, 1}, 3.
Nous prsentons les actions de la meilleure la moins bonne pour que les diffrences
de classement puissent tre notes.
Le classement global, tel quil est donn la figure 6.7, donne :
{2, 4} , 5, 1, 3.
Ce classement a t obtenu en faisant glisser la droite
Rang du classement direct = Rang du classement inverse
de la droite vers la gauche. Les meilleures actions sont celles que lon rencontre en premier.
Cette mthode rpond bien la problmatique du rangement.
Cependant, cette mthode est complexe appliquer (lexemple le montre bien). La mthode travaille avec un nombre densembles important (Yl , D, B, U et Al ). De plus, elle pos152
6.3.5
6.3.5.1
Principe
Cette mthode reprend les mmes principes que la mthode ELECTRE II (voir [Vincke 89]
et [Maystre et al. 94]). La grande diffrence rside dans lintroduction de pseudo-critres la
place des critres classiques. Pour ces critres, deux seuils seront dfinis :
un seuil dindiffrence,
un seuil de prfrence stricte.
ELECTRE III introduit aussi un degr de crdibilit (ou degr de fiabilit) du surclassement.
La dcision finale nest plus un choix binaire entre lacceptation ou le rejet dune action.
6.3.5.2
Prsentation de la mthode
153
Chapitre 6.
Le paramtre p j (la fonction seuil p associe au critre j) est appel le seuil de prfrence stricte et le paramtre q j (la fonction seuil q associe au critre j) est appel le seuil
dindiffrence.
Par exemple, les fonctions seuil p et q peuvent tre dfinies comme :
une constante,
une fonction de laction considre, par exemple :
p (g (ai )) = + g (ai )
(6.9)
qq +q+q
g (a )
g (a)
q p
+p+q
+p
g (a )
g (a)
q +q
+p
p
q +q
+p
Lindice de concordance
Pour lindice de concordance, on utilise la formule suivante, illustre par la figure 6.9 :
g (a )+p j g j (ak )
c j (ai , ak ) = j i p j q
j
c j (ai , ak ) = 1
c j (ai , ak ) = 0
Cik =
p j c j (ai , ak )
j
pj
j
154
(6.10)
Sur laxe des abscisses de la figure 6.9, nous avons reprsent la diffrence entre deux
actions pour un critre donn g1 (a1 ) g1 (a2 ).
c j (ai , ak )
1
g j (ak ) g j (ai )
Lindice de discordance
On dfinit le seuil de veto v j . Cest la valeur de g j (ak ) g j (ai ) pour laquelle il apparat
prudent de refuser toute crdibilit de surclassement de laction ak par rapport laction ai .
Lindice de discordance est dfini par la formule suivante, illustre par la figure 6.10 :
d j (ai , ak ) = 1
g (a )g j (ai )p j
d j (ai , ak ) = j k v j p
j
d j (ai , ak ) = 0
On a q j < p j < v j .
d j (ai , ak )
1
gj aj
g j a j + p j
gj aj +qj
gj aj +vj
g j (ak ) g j (ai )
ik = Cik
(6.11)
Dans [Roy et al. 93], on trouvera les rgles que doit respecter la fonction ik donnant le
degr de crdibilit du surclassement.
Si F est lensemble des critres, alors on a :
(6.12)
Chapitre 6.
Cest lensemble des critres pour lesquels lindice de discordance est suprieur lindice
de concordance global.
Exploitation
Pour exploiter la relation de surclassement flou dfinie plus loin, on dfinit le seuil de
discrimination. Cest un seuil qui permettra de distinguer les relations de surclassement
prendre en compte lors du classement [Maystre et al. 94].
Seuil de discrimination : S () est une fonction dfinie pour toute valeur [0, 1].
On calcule ce seuil en considrant les couples dactions (ae , am ) et (ai , a j ) :
1. Calcul de :
= i j
= em
= i j em
2. Appliquer la discrimination :
si > S (), alors le surclassement de a j par ai est strictement plus crdible que le
surclassement de am par ae .
Exemple de calcul de la fonction seuil :
Nous prsentons ici un exemple tir de [Roy et al. 93].
Dans un premier temps, nous allons comparer des valeurs importantes de crdibilit de
surclassement.
On considre que le surclassement de crdibilit 0.99 est plus crdible que le surclassement de crdibilit 0.80. En revanche, on considre que le surclassement de crdibilit
0.99 nest pas forcment plus crdible que le surclassement de crdibilit 0.85.
Nous allons maintenant comparer deux classements de faible degr de crdibilit.
On considre que le surclassement de crdibilit 0.30 est plus crdible que le surclassement de crdibilit 0. En revanche, on considre que le surclassement de crdibilit
0.25 nest pas plus crdible que le surclassement de crdibilit 0.
Ceci se traduit par lensemble dquations suivant :
0.99 0.80 > S (0.99 0.80)
0.99 0.85 < S (0.99 0.85)
0.25 0 < S (0.25 0)
0.30 0 > S (0.30 0)
On fait maintenant lhypothse que S () a la forme suivante : S () = A B .
Les paramtres A = 0.3 et B = 0.15 permettent de vrifier toutes les inquations prcdentes.
Sil y avait eu beaucoup plus dinquations, il aurait peut-tre fallu choisir une autre
forme pour S () ; une forme du second degr par exemple. Il faut seulement que la
fonction S () soit monotone et non dcroissante.
Exemple dapplication :
Nous allons maintenant appliquer une autre fonction de seuil la vrification de la
crdibilit dun surclassement par rapport un autre.
S () = 0.2 0.15
Soit deux groupes dactions : (a1 , a2 ) et (a2 , a1 ). Les indices de crdibilit du surclassement : 12 = 0.12 et 21 = 0.33.
= 0.12 0.33 = 0.21
S () = S (0.12) = 0.2 0.15 0.12 = 0.182
< S () donc le surclassement de a2 par a1 nest pas plus crdible que le surclassement de a1 par a2 .
156
ik > 1
et
1
ai SA ak
ik > ki + S (ik )
(6.13)
Dfinition : la l -puissance
n
o
ak A | ai SAl ak
(6.14)
n
o
ak A | ak SAl ai
(6.15)
Dfinition : la l -faiblesse
fA l (ai ) = card
(6.16)
on pose An = A et n = 0.
Etape 2 :
on pose Dl = An et l = 0.
157
Chapitre 6.
Etape 3 :
Etape 4 :
Etape 5 :
Etape 6 :
tape 7 :
Cn+1 = Dl+1 et An+1 = An /Cn+1 (An+1 est gal lensemble An priv des lments de Cn+1 ).
Etape 8 :
An+1 = 0/ ?
Si oui, alors le classement est termin.
Si non, on incrmente n de 1 et on va ltape 2.
Rang issu de la
distillation ascendante
1
2
4
3
Rang issu de la
distillation descendante
3
2
4
1
6.3.5.3
Discussion
Cette mthode est trs paramtrable. Cest aussi un de ses principaux inconvnients. Il est
difficile, mme pour un expert, de trouver de bons coefficients et de justifier leurs choix.
158
4
3
a4
a2
a1
1
1
distillation
descendante
6.3.6
La mthode ELECTRE IV
6.3.6.1
Principe
Cest aussi une mthode destine au classement dactions. Elle est directement inspire
de la mthode ELECTRE III. La grande diffrence vient du fait que lon na plus donner de
poids pour chaque critre [Vincke 89, Maystre et al. 94].
6.3.6.2
Prsentation de la mthode
159
Chapitre 6.
g (ai )
g (ak ) g (ai )
g (ai ) + q g (ai ) + p g (ai ) + v
mo (ai , ak ) mo (ak , ai )
F IG . 6.12 Correspondance entre les notations des mthodes ELECTRE III et ELECTRE
IV.
Zone 1 :
Zone 2 :
Zone 3 :
Zone 4 :
Zone 5 :
Zone 6 :
Zone 7 :
Dfinition : quasi-dominance
On note cette
relation Sq : ai surclasse ak avec quasi-dominance si
m p (ak , ai ) + mq (ak , ai ) = 0
et
ai Sq ak
min (ak , ai ) 1 + min (ai , ak ) + m p (ai , ak ) + mq (ai , ak )
m p (ak , ai ) = 0
mq (ak , ai ) m p (ai , ak )
ai Sc ak
mq (ak , ai ) + min (ai , ak ) 1 + min (ai , ak ) +
mq (ai , ak ) + m p (ai , ak )
160
et
et
m p (ak , ai ) = 0
et
mq (ak , ai ) mq (ai , ak ) + m p (ai , ak )
Dfinition : veto-dominance
On note cette relation Sv : ai surclasse ak avec veto-dominance si
m p (ak , ai ) = 0
mq (ak , ai ) = 1
ai Sv ak
non ak Pv j ai , j
m p (ai , ak ) m2
ou
et
et
Exploitation de la mthode
Ensuite, une fois les relations de surclassement dtermines, on passe aux relations de
surclassement flou, en associant un degr de crdibilit Sq , Sc , S p et Sv .
Pour finir, on applique la mme mthode de classement (distillation ascendante et distillation descendante) que pour la mthode ELECTRE III.
6.3.6.3
Discussion
Cette mthode a pour principal avantage de faire disparatre les poids associs aux diffrents critres. En fin danalyse, on retrouve, mais de manire moins forte, linconvnient
des poids des critres, par lintermdiaire du choix du degr de crdibilit associ chaque
relation Sq , Sc , S p et Sv .
Lavantage rside dans le fait quil ny a que quatre coefficients choisir, alors que lon
peut avoir beaucoup plus de critres (et donc beaucoup plus de poids dterminer dans la
mthode ELECTRE III). Nanmoins, on retrouve la complexit de la mthode ELECTRE
III.
6.3.7
6.3.7.1
Principe
161
Chapitre 6.
6.3.7.2
Prsentation de la mthode
s (ai , bk ) = C (ai , bk )
(6.17)
(6.18)
et C (ai , bk ) Cik .
On tablit maintenant les relations de surclassement. La relation de surclassement entre
laction a et laction de rfrence b est tablie partir des degrs de crdibilit et dun seuil
de coupe constant. Le processus que lon doit suivre pour tablir la relation entre deux
actions a et b est reprsent la figure 6.13.
(a, b) >
non
non
aRb
(b, a) >
oui
a>b
oui
(b, a) >
non
oui
a<b
aIb
162
Procdure
Sens
Pessimiste
Optimiste
Discussion
La principale difficult de cette mthode rside dans le fait quil faut pouvoir comparer
chaque action avec les actions bornant les diffrentes catgories. Cette comparaison nest pas
toujours possible. Il est aussi assez difficile de dfinir des catgories a priori, car la dfinition
des catgories est trs lie au choix dactions de rfrence.
Une application industrielle de la mthode ELECTRE TRI est prsente dans le chapitre
12.
163
Chapitre 6.
C3
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
00000
11111
0000
1111
0000
1111
00000
11111
0000
1111
0000
1111
00000
11111
0000
1111
0000
1111
00000
11111
0000
0000
1111
000001111
11111
0000 affectation pessimiste
1111
0000
1111
00000
11111
0000
1111
0000
1111
00000
11111
0000
0000
1111
000001111
11111
0000
1111
C2
C1
C1
C2
C3
6.3.8
La mthode PROMETHEE I
6.3.8.1
Principe
Prsentation de la mthode
(6.19)
La fonction G (x) doit tre non dcroissante pour x > 0, et gale 0 pour x 0. Un
exemple de fonction G (x) est trac la figure 6.15.
La fonction g j (x) est appele critre gnralis. Elle peut prendre plusieurs formes.
Ces diffrentes formes sont runies dans le tableau 6.26.
164
Critre usuel
g j (x)
1
Quasi-critre
g j (x)
1
g j (x)
1
p q 0
Critre niveaux
g j (x)
1
p q 0
g j (x)
1
0.5
0
Critre gaussien
TAB . 6.26 Diffrents critres gnraliss.
Chapitre 6.
g j (x) =
0 si x = 0
1 si x 6= 0
(6.20)
Quasi-critre :
g j (x) =
0
1
si q x q
si x < q ou x > q
(6.21)
|x|
p
si p x p
si x < p ou x > p
(6.22)
si |x| q
si q < |x| p
si p < |x|
(6.23)
g j (x) =
Critre niveaux :
g j (x) =
1
2
g j (x) =
(|x|q)
(pq)
si |x| q
si q < |x| p
si p < |x|
(6.24)
(6.25)
Critre gaussien :
x2
g j (x) = 1 exp
2 2
P (a, b) =
i Pi (a, b)
i=1
i=1
166
(6.26)
b
(b, a)
(a) =
P (b, a)
(6.27)
P (a, b)
(6.28)
bA
+ (a) =
bA
(6.29)
167
(6.30)
Chapitre 6.
a P b
a I b
(6.31)
Pour finir, nous pouvons dfinir les prordres partiels de la mthode PROMETHEE I :
laction a surclasse laction b (not a PI b) :
si
ou
ou
a P+ b et
a P+ b et
a I + b et
a P b
a I b
a P b
(6.32)
Discussion
La mthode PROMETHEE I fournit donc lutilisateur un classement des diffrentes actions. Le problme est que cette mthode ne permet pas de classer toutes les actions. Certaines
actions peuvent rester incomparables.
La mthode PROMETHEE II permet de lever cette incomparabilit.
6.3.9
La mthode PROMETHEE II
6.3.9.1
Principe
Cette mthode permet de classer toutes les actions et ne laisse aucune action incomparable
avec les autres [Brans et al. 86].
Elle permet donc de raliser un prordre complet.
6.3.9.2
Prsentation de la mthode
Discussion
Il est plus simple pour lutilisateur de donner une rponse un problme de dcision en
utilisant un prordre complet. En revanche, le prordre partiel peut contenir plus dinformations. En effet, lincomparabilit dune action peut tre trs utile pour la prise de dcision.
6.4
Bibliographie commente
[Maystre et al. 94] Dans ce livre, on trouvera la description de toutes les mthodes daide
la dcision ELECTRE. On trouvera, en plus de la description dtaille de chaque
mthode, le traitement dun exemple o toutes les tapes de lapplication de la
168
169
Deuxime partie
Chapitre 7
Introduction
Pour mesurer les performances dune mthode doptimisation multiobjectif, il faut disposer d instruments de mesure. Nous avons principalement adopt les indices de performance
formuls par [Van Veldhuizen 99].
Pour illustrer chacune des formules nonces plus loin, nous allons prsenter deux exemples.
Le premier exemple est issu de [Van Veldhuizen 99]. Le second illustre la progression dune
mthode dans la rsolution dun problme biobjectif (on veut minimiser les objectifs f1 et
f2 ) ; nous avons reprsent la surface de compromis, ainsi que lvolution de lensemble des
solutions sur trois gnrations.
ensemble solution
surface de compromis
f2
10
8
f2
4
0 0
00
5 f1
surface de compromis
ensemble solution T = 10
ensemble solution T = 5
ensemble solution T = 1
4 f1
(b) Exemple 2
(a) Exemple 1
Chapitre 7.
PPF (T 1)
et
PPF (1) = PFcurrent (1)
en supprimant toutes les solutions domines de PPF (T ).
Dans ce chapitre, nous allons prsenter diffrentes grandeurs permettant de visualiser
des caractristiques des ensembles de solutions. Nous appellerons ces grandeurs des mtriques.
7.2
7.2.1
Rapport derreur
Dfinition
Ce rapport (Error ratio) permet de mesurer la non-convergence dune mthode doptimisation multiobjectif vers la surface de compromis. La dfinition de ce rapport derreur est la
suivante :
n
ei
E=
i=1
(7.1)
avec :
n:
7.2.2
Exemples
Exemple 1
Pour cet exemple, on a :
Pour le point de coordonnes (2.5, 9) : e1 = 1 car ce point nappartient pas la surface
de compromis.
Pour le point de coordonnes (3, 6) : e2 = 0 car ce point appartient la surface de
compromis.
Pour le point de coordonnes (5, 4) : e3 = 1 car ce point nappartient pas la surface
de compromis.
Lindex E vaut donc : E = 32 .
174
Exemple 2
Pour cet exemple, on ne calcule lindex derreur que pour lensemble des solutions obtenu pour T = 10. Dans ce cas, comme tous les points de cet ensemble des solutions nappartiennent pas la surface de compromis, on a ei = 1, pour i = 1, 2, 3.
Lindex E vaut donc : E = 1.
Discussion
Comme on peut le voir sur ces deux exemples, plus la mtrique E est proche de 1 moins
lensemble de solutions a converg vers la surface de compromis.
Pour savoir si un lment appartient ou non la surface de compromis, il suffit de runir
les deux ensembles (surface de compromis T PF + ensemble de solutions PPF), puis de
ranger les lments de ce nouvel ensemble en utilisant le classement de Pareto. Si le rang du
point considr est gal 1, alors il appartient la surface de compromis.
f2
f1
Surface de compromis pratique
Surface de compromis thorique
Zone domine par la surface de
compromis thorique
Zone domine par la surface de
compromis pratique
F IG . 7.2 Exemple pour lequel le rapport derreur vaut 1, mais la surface de compromis
pratique na pas pour autant converg vers la surface de compromis thorique.
Comme on peut le voir la figure 7.2, dans certains cas, le rapport derreur peut valoir 1
sans pour autant que la surface de compromis pratique ait converg vers la surface de compromis thorique. Il suffit seulement que les solutions de la surface de compromis pratique
rsident dans la zone de non-domination dfinie par les points de la surface de compromis
thorique. Ce problme est d au fait que, pour pouvoir calculer le rapport derreur, il a
175
Chapitre 7.
fallu discrtiser la surface de compromis thorique et, de cette manire, des zones de nondomination sont apparues.
7.3
7.3.1
Distance gnrationnelle
Dfinition
G=
di
i=1
(7.2)
En gnral, on choisit p = 2.
On a :
di :
n:
7.3.2
Exemples
Exemple 1
Appliquons la dfinition aux lments de lensemble de solutions :
1
G=
= 0.5
Exemple 2
Pour cet exemple, on calcule la mtrique pour les trois ensembles de solutions (T = 1,
T = 5, T = 10) :
Pour T = 1, on a :
1
[(42)2 +(42)2 ] 2
G1 =
= 2.82
1
Pour T = 5, on a :
1
[[(42)2 +(32)2 ]+[(32)2 +(42)2 ]] 2
= 1.58
G2 =
2
Pour T = 10, on a :
1
[[(34)2 +(12)2 ]+[(23)2 +(23)2 ]+[(12)2 +(34)2 ]] 2
G3 =
= 0.81
3
Discussion
Comme le montre lexemple 2, plus lensemble de solutions est loign de la surface de
compromis, plus la valeur de la distance gnrationnelle est grande.
Cette mtrique pourrait donc tre utilise comme critre darrt de la mthode doptimisation, condition de connatre la surface de compromis T PF par avance (ce qui est le cas
176
di
GD =
i=1
(7.3)
GD correspond une distance moyenne par rapport la surface de compromis. Elle est
exploite dans la mtrique prsente dans la section suivante.
7.4
7.4.1
Mtrique STDGD
Dfinition
Cette mtrique (Standard Deviation from the Generational Distance) permet de mesurer
la dformation de la surface de compromis calcule par rapport la surface de compromis
thorique. La dfinition est la suivante :
n
ST DGD =
2
(di GD)
i=1
(7.4)
f2
f2
STDGD
PPF
PPF
GD
GD
TPF
TPF
f1
f1
TPF :
GD :
Chapitre 7.
7.4.2
Discussion
Cette mtrique calcule lerreur au sens des moindres carrs entre la surface de compromis
thorique dcale de la distance GD et la surface de compromis pratique. Cette mesure traduit
donc la dformation de la surface de compromis pratique.
Cette mtrique a t conue dans le but de distinguer les mthodes qui calculent des surfaces de compromis dformes par rapport la surface de compromis thorique, des mthodes
qui calculent des surfaces de compromis respectant la forme thorique.
7.5
7.5.1
Cette mtrique (Maximum Pareto Front Error) permet de mesurer la distance entre la surface de compromis et lensemble de solutions. Sa dfinition est la suivante (pour un problme
deux objectifs) :
j p i
j p p
x ) f1 (
x ) + f2 (
ME = max min f1i (
x ) f2 (
x )
j
(7.5)
Il sagit, en fait, de la plus grande distance minimale entre les lments de lensemble de
solutions et leurs voisins les plus proches appartenant la surface de compromis.
7.5.2
Exemples
Exemple 1
Pour trouver les plus grandes distances minimales, on considre chaque point de lensemble solution et on calcule les diffrentes distances par rapport aux points de la surface de
compromis (voir tableau 7.1).
Pour le point de lensemble de solutions de coordonnes (2.5, 9), la distance minimale
vaut 1.12 ;
Pour le point de lensemble de solutions de coordonnes (3, 6), la distance minimale
vaut 0 ;
Pour le point de lensemble de solutions de coordonnes (5, 4), la distance minimale
vaut 1.
La plus grande distance minimale vaut 1.12 donc, ME = 1.12.
Exemple 2
Nous suivons la mme dmarche que pour lexemple 1.
Les plus grandes distances minimales valent :
pour lensemble de solutions avec T = 10 (voir tableau 7.2), ME = 1.41 ;
pour lensemble de solutions avec T = 5 (voir tableau 7.3), ME = 2.23 ;
178
Point de la surface
de compromis
(1.5, 10)
(2, 8)
(3, 6)
(4, 4)
(1.5, 10)
(2, 8)
(3, 6)
(4, 4)
(1.5, 10)
(2, 8)
(3, 6)
(4, 4)
Distance
1.41
1.12
3.04
5.22
4.27
2.23
0
2.23
6.94
5
2.82
1
Point de la surface
de compromis
(3, 1)
(2, 2)
(1, 3)
(3, 1)
(2, 2)
(1, 3)
(3, 1)
(2, 2)
(1, 3)
Distance
1.41
2
3.16
2
1.41
2
3.16
2
1.41
TAB . 7.2 Exemple 2 (pour T = 10) : calcul de lerreur maximale la surface de compromis.
Point de lensemble
de solutions
(4, 3)
(4, 3)
(4, 3)
(3, 4)
(3, 4)
(3, 4)
Point de la surface
de compromis
(3, 1)
(2, 2)
(1, 3)
(3, 1)
(2, 2)
(1, 3)
Distance
2.23
2.23
3
3
2.23
2.23
179
Chapitre 7.
Point de la surface
de compromis
(3, 1)
(2, 2)
(1, 3)
Distance
3.16
2.82
3.16
Discussion
Comme le montre lexemple 2, plus lensemble de solutions est loign de la surface
de compromis T PF, plus la mtrique ME est grande. Cette mtrique mesure donc la distance
entre la surface de compromis T PF et lensemble de solutions PPF.
7.6
7.6.1
Dfinition
Cette mtrique (Hyperarea and Ratio) permet de mesurer la surface occupe par lensemble de solutions PPF. Sa dfinition est la suivante :
H=
[
i
ai | vi PPF
(7.6)
avec :
ai :
surface occupe par la solution vi (se reporter la figure 7.4 pour une illustration
de cette surface).
Une faon de calculer cette mtrique dans le cas dun ensemble de solutions PPF en deux
dimensions est la suivante :
Etape 1 :
Etape 2 :
Etape 3 :
xi :
180
HR =
Hes
Hsc
(7.7)
avec :
Hes :
Hsc :
7.6.2
Exemples
Exemple 1
Pour cet exemple, on calcule les deux surfaces.
ensemble solution
Surface de compromis
f2
10
10
00000
11111
00000
11111
00000
11111
S4
00000
11111
0000000
1111111
00000
811111
0000000
1111111
0000000
1111111
0000000
1111111
S3
0000000
1111111
000000000
111111111
0000000
61111111
000000000
111111111
000000000
111111111
000000000
111111111
S2
000000000
111111111
000000000
4111111111
000000000000
111111111111
111111111111
000000000000
000000000000
111111111111
000000000000
111111111111
000000000000
S1
2111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
111111111111
000000000000
0111111111111
f2
00000000
11111111
00000000
00000000
11111111
811111111
00000000
11111111
S3
00000000
11111111
00000000
11111111
00000000
000000000
111111111
00000000
11111111
611111111
000000000
111111111
000000000
111111111
000000000
111111111
S2
000000000
111111111
000000000
111111111
411111111111111
00000000000000
11111111111111
00000000000000
00000000000000
11111111111111
00000000000000
11111111111111
00000000000000
S1
211111111111111
00000000000000
11111111111111
11111111111111
00000000000000
00000000000000
11111111111111
00000000000000
11111111111111
00000000000000
011111111111111
0
1
2
3
4
5
5 f1
f1
Exemple 2
On calcule les surfaces pour les trois ensembles de solutions, ainsi que pour la surface de
compromis.
Pour la surface de compromis :
Hsc = 3 1 + 2 (2 1) + 1 (3 2)
Hsc = 6
181
Chapitre 7.
Discussion
Comme les mtriques erreur maximale la surface de compromis et distance gnrationnelle, le rapport dhypersurface permet de mesurer la convergence de lensemble de
solutions PPF vers la surface de compromis T PF. Plus la valeur de cette mtrique est proche
de 1, meilleure est la surface de compromis.
Si la valeur du rapport dhypersurface est infrieure 1, la surface occupe sous la
surface de compromis pratique est infrieure la surface occupe sous la surface de
compromis thorique. On peut dire que les points de la surface de compromis pratique
ne se rpartissent pas sur toute la surface de compromis.
Si la valeur du rapport dhypersurface est suprieure 1, la surface de compromis
pratique est plutt loigne de la surface de compromis thorique. On na pas suffisamment converg pour que cette mtrique nous donne une information quant la
rpartition des points sur la surface de compromis.
7.7
Espacement
7.7.1
Dfinition
n
2
1
S=
d di
n 1 i=1
avec
j i
j
di = min f1i (
x ) f1 (
x ) + f2 (
x ) f2 (
x )
j
i, j = 1, , n et i 6= j.
et
d :
#1
182
(7.8)
(7.9)
7.7 Espacement
n:
7.7.2
Exemples
Exemple 1
Point i
(2.5, 9)
(2.5, 9)
(3, 6)
(3, 6)
(5, 4)
(5, 4)
Point j
(3, 6)
(5, 4)
(2.5, 9)
(5, 4)
(2.5, 9)
(3, 6)
Distance
3.5
7.5
3.5
4
7.5
4
Exemple 2
Nous suivons la mme dmarche pour lexemple 2.
Pour lensemble solution tel que T = 10, on a :
Point i
(4, 2)
(4, 2)
(3, 3)
(3, 3)
(2, 4)
(2, 4)
Point j
(3, 3)
(2, 4)
(4, 2)
(2, 4)
(4, 2)
(3, 3)
Distance
2
4
2
2
4
2
183
Chapitre 7.
Discussion
Comme le montrent ces deux exemples, la mtrique despacement permet de mesurer
luniformit de la rpartition des solutions dans un ensemble (PPF ou T PF). Plus celle-ci est
proche de 0, mieux les points sont rpartis.
Dans certains cas, cette mtrique peut tre difficile interprter. En effet, quand on travaille sur un problme test discontinu, la surface de compromis de ce problme possde dj
des trous (discontinuit introduite par la forme de la surface de compromis). Ces trous vont
augmenter la valeur calcule par cette mtrique. Il vaut mieux viter dutiliser cette mtrique
sur un problme test discontinu.
7.8
7.8.1
Mtrique HRS
Dfinition
La mtrique Spacing calculant une erreur moyenne par rapport un espacement idal,
elle a tendance dissimuler les carts importants. Cest pour cela que nous avons conu la
mtrique HRS (Hole Relative Size). Elle permet de mesurer la taille du plus grand trou dans
lespacement des points sur la surface de compromis. La dfinition de la mtrique HRS est la
suivante :
HRS =
maxi di
d
(7.10)
7.9
7.9.1
On cre un ensemble qui contient les meilleures solutions non domines obtenues aprs
chaque gnration (lensemble PPF donc). On dfinit ensuite une mtrique (Overall Nondominated Vector Generation) qui est le cardinal de cet ensemble :
ONV G = card (PPF)
(7.11)
ONV GR =
card (PPF)
card (T PF)
184
(7.12)
7.9.2
Exemples
Exemple 1
Pour cet exemple, la surface de compromis T PF est compose de quatre solutions non
domines et lensemble de solutions PPF est compos de trois solutions non domines. On a
donc :
ONV G = 3
ONV GR = 43 = 0.75
Exemple 2
Pour lensemble de solutions tel que T = 10, on a :
ONV G1 = 3
ONV GR1 = 33 = 1
Pour lensemble de solutions tel que T = 5, on a :
ONV G2 = 2
ONV GR2 = 32 = 0.66
Pour lensemble de solutions tel que T = 1, on a :
ONV G1 = 1
ONV GR = 31 = 0.33
Discussion
Le rapport de lensemble des vecteurs non domins ultimes permet de connatre la proportion de solutions non domines existant dans lensemble de solutions PPF par rapport
la surface de compromis T PF.
7.10
Mesure de la progression
7.10.1
Dfinition
P = ln
fimax (0)
fimax (k)
(7.13)
RP = ln
G0
Gk
185
(7.14)
Chapitre 7.
7.10.2
Exemple
Exemple 2
Pour lensemble solution PPF tel que T = 1, on a :
f2max (1) = 4 et f1max (1) = 4.
Ces deux valeurs vont servir de point de dpart pour le calcul de la mtrique de progression.
Pour lensemble de solutions PPF tel que T = 5, on a :
f2max (5) = 3 et f1max (5) = 3.
On a alors :
q
q
f
(1)
P11 = ln f1max (5) = ln 43 = 0.14
1max
q
q
f2max (1)
P21 = ln f (5) = ln 43 = P11
2max
Pour lensemble de solutions PPF tel que T = 10, on a :
f2max (10) = 2 et f1max (10) = 2.
On a alors :
q
q
f
(1)
P12 = ln f 1max(10) = ln 42 = 0.34
1max
q
q
f
(1)
P22 = ln f 2max(10) = ln 42 = P12
2max
Discussion
Cette mtrique permet de mesurer la progression de la mthode doptimisation multiobjectif vers la solution idale.
7.11
Cette mtrique (Generational Nondominated Vector Generation) permet de mesurer combien de solutions non domines sont gnres chaque tape.
GNV G = card (PFcurrent (i))
(7.15)
7.12
7.12.1
Dfinition
Cette mtrique permet de mesurer combien de nouveaux vecteurs non domins ont t
ajouts entre deux itrations. La dfinition de cette mtrique est la suivante :
NVA = card (PPF (i)) card (PPF (i 1))
186
(7.16)
7.13 Vagues
7.12.2
Exemple
Exemple 2
Pour lensemble de solutions tel que T = 1, on a card (PPF (1)) = 1.
Pour lensemble de solutions tel que T = 5, on a card (PPF (5)) = 2.
Donc, NVA1 = card (PPF (5)) card (PPF (1)) = 1.
Il y a eu ajout dune solution non domine entre litration 1 et litration 5.
Pour lensemble de solutions tel que T = 10, on a card (PPF (10)) = 3.
Donc, NVA2 = card (PPF (10)) card (PPF (5)) = 1.
Il y a eu ajout dune solution non domine entre litration 5 et litration 10.
Discussion
La mtrique NVA peut, dans certains cas, tre ngative. En effet, la mthode doptimisation peut perdre des solutions non domines au cours de sa progression. Cette mtrique peut
servir arrter une mthode doptimisation. Si la mtrique stagne sur la valeur 0 depuis un
certain nombre ditrations, cela veut dire quelle nest plus capable de trouver de nouvelles
solutions non domines. Cependant, il ne faut pas oublier quune mthode peut ne plus crer
de nouvelles solutions, mais tre encore capable de faire progresser les solutions existantes
vers la surface de compromis optimale T PF.
Cette mtrique peut tre vue comme un taux (elle ne procure pas des valeurs comprises
absolument entre 0 et 1) de production de solutions non domines.
7.13
Vagues
W = MaxRangPareto (PPF)
(7.17)
Dans lalgorithme 7.1, la fonction Pareto dtermine un ensemble contenant les solutions
non domines de lensemble donn en paramtre.
W permet de mesurer ltalement de lensemble de solutions PPF. Si W est grand, cela
signifie que la population nest pas regroupe au niveau de la surface de compromis T PF :
beaucoup dindividus ne sont pas efficaces.
Si la valeur de cette mtrique se rapproche de 1, cela signifie que les individus tendent
converger vers la surface de compromis. En gnral, cette mtrique est utilise au cours dune
187
Chapitre 7.
Itrations
F IG . 7.5 La mtrique W au cours dune optimisation.
optimisation afin de visualiser la convergence de lensemble vers la surface de compromis.
Lallure de la courbe ainsi obtenue est celle de vagues (voir figure 7.5).
Cette mtrique mesure lpaisseur de lensemble de solutions PPF en nombre de surfaces
de compromis que comporte cet ensemble.
7.14
Mtriques de Zitzler
Dans [Zitzler et al. 99], plusieurs mtriques de performance sont prsentes. Ces mtriques peuvent se rpartir en deux familles :
les mtriques relatives : elles permettent de comparer deux surfaces de compromis ;
les mtriques absolues : elles permettent de mesurer la qualit dune surface de compromis.
Les mtriques prsentes jusqu prsent sont des mtriques absolues, car elles ne permettent
pas de comparer deux surfaces de compromis pratiques.
7.14.1
Dans [Zitzler et al. 99], seule une mtrique relative est prsente. La dfinition de cette
mtrique est donne ci-dessous.
Soient F et F deux surfaces de compromis. La fonction C suivante transforme les deux
surfaces de compromis F et F en un rel compris dans lintervalle [0, 1] :
card
C F , F =
x F ; x F | x x
card (F )
(7.18)
188
Exemple 1
f2
f2
F
F
F
F
f1
f1
o
card x F ; x F | x x
=2
car deux solutions de lensemble F sont domines par des solutions de lensemble F .
Donc, C (F , F ) = 52 = 0.4.
Calculons maintenant C (F , F ) :
card n
(F ) = 5.
o
card
x F ; x F | x x
= 3.
Donc, C (F , F ) =
3
5
= 0.6.
0.6
C (colonne, ligne)
F
F
F
0.4
Exemple 2
Nous allons maintenant traiter les ensembles de la figure 7.6-b.
Nous allons commencer par calculer C (F , F ) :
) = 5.
card (F
n
o
card x F ; x F | x x
= 4.
Donc, C (F , F ) =
4
5
= 0.8.
Calculons maintenant C (F , F ) :
card n
(F ) = 5.
o
card
x F ; x F | x x
= 0.
189
Chapitre 7.
Donc, C (F , F ) =
0
5
= 0.
F
0.8
Discussion
Comme on peut le remarquer sur lexemple 2, on na pas ncessairement C (F , F ) +
C (F , F ) = 1. Lexpression 1 C (F , F ) C (F , F ) mesure le nombre de solutions des
ensembles F et F qui sont non domines entre elles. Le rsultat calcul par la mtrique
relative de Zitzler est une image de la proportion de la surface de compromis dun ensemble
F qui est domine par la surface de compromis dun ensemble F .
7.14.2
Dans [Zitzler et al. 99], trois mtriques absolues sont prsentes. La premire est strictement quivalente la distance gnrationnelle prsente dans la section 7.3. Elle a pour
dfinition :
M1 F =
x ; x F
min
x
card (F )
(7.19)
avec
F
card (F)
nombre dlments dans lensemble F ;
Cette mtrique mesure la distance moyenne entre une surface de compromis pratique (F ou
surface de compromis que lon vient de calculer) et une surface de compromis thorique (F ).
Une seconde mtrique est prsente. Elle permet de calculer un index image du nombre
de niches dune certaine taille que lon peut trouver dans une surface de compromis. La
dfinition de cette mtrique est la suivante :
M2 F , F =
n
o
card
y
F
|
x
y
>
card (F ) 1
(7.20)
x F
Cette mtrique a une valeur comprise dans lintervalle [0, card (F )].
Quand M2 (F , F ) = card (F ), cela signifie quaucun vecteur de F na de voisin situ
une distance infrieure .
190
max
i=1
kxi yi k , x , y F
(7.21)
7.15
Mtrique de Laumanns
Une mesure possible de la taille de lespace domin des fonctions objectif est la suivante :
Dfinition :
f
=
f RN |
f = f + Ni=1 ai f1 , , fi , , fN f
ai [0, 1]}
(7.22)
et :
D A , f =
f =F(
x )A
f = F x |
x x
(7.23)
(D)
()
(7.24)
191
Chapitre 7.
7.16
Bibliographie commente
[Van Veldhuizen 99] Cette thse fait linventaire dune grande partie des mtriques utilises
pour la mesure de performances des mthodes doptimisation multiobjectif.
[Zitzler et al. 99] Dans cet article est prsente une mtrique de performance qui est, depuis,
trs utilise pour la comparaison de mthodes doptimisation.
[Cooper et al. 00] Cest un livre sur lanalyse denveloppe de donnes. Ce domaine sintresse la mesure de performances de systmes conomiques en utilisant la
mthode DEA. Cest un domaine assez rcent, mais dont les mthodes peuvent
tre facilement transposes loptimisation multiobjectif. Cet ouvrage prsente
aussi les difficults que lon peut rencontrer lorsque lon essaie de mesurer les
performances dun systme.
[Hooker 95] Cet article critique les tests actuellement appliqus pour valuer les performances des mthodes doptimisation. Il propose une nouvelle voie pour lvaluation des performances des mthodes doptimisation.
192
Chapitre 8
Introduction
Nous avons vu que le domaine de loptimisation multiobjectif est foisonnant. Les mthodes que lon a notre disposition sont nombreuses.
Cependant, certaines mthodes ne sont efficaces que sur des problmes qui respectent
certaines contraintes. Or, dans certains cas, il est trs difficile, voire impossible, de dire si un
problme doptimisation multiobjectif respecte une hypothse ou non.
Cest pour pouvoir classer les diffrentes mthodes de traitement dun problme doptimisation multiobjectif que lon a introduit des problmes tests. Chaque problme permet de
tester une difficult bien particulire (surface de compromis discontinue, non convexe, etc.).
8.2
193
f1 (
x ) = f (x1 , , xm )
f2 (
x ) = g (xm+1 , , xN ) h ( f (x1 , , xm ) , g (xm+1 , , xN ))
g (
x)0
h (
x)=0
8.2.1
Comme on la vu avec la mthode de pondration des fonctions objectif, certaines mthodes ragissent trs mal face une non convexit. La plupart du temps, ces mthodes narrivent pas couvrir une zone non convexe.
La fonction non convexe de Deb suivante permet de tester cet aspect :
f (x1 ) =
4 x1
2
x2 0.2
4 3 exp 0.02
g (x2 ) =
2
x2 0.7
4 2 exp 0.2
(
f
si f g
1 g
h ( f , g) =
0
sinon
= 0.25 + 3.75 (g (x2 ) 1) et = 1.
si 0 x2 0.4
si 0.4 < x2 1
f1 (
x ) = f (x1 )
f2 (
x ) = g (x2 ) h ( f , g)
x1 , x2 [0, 1]
Lensemble des valeurs ralisables et la surface de compromis sont reprsents la figure 8.1.
Pour obtenir ce type de reprsentation de lensemble solution dun problme test, on a
appliqu lalgorithme 8.1.
Un avantage de ce type de problme est que lon peut obtenir lexpression analytique de
la surface de compromis. En effet, celle-ci se situe en (x1 , 0), avec x1 [0, 1].
Pour ce problme, lexpression analytique de la surface de compromis est :
194
f2
f2
10
f1
f1
Const f (x1 , x2 ) est une fonction qui vaut 1 si les contraintes du problme sont respectes
et 0 sinon
N est le nombre de points calculer pour la reprsentation de lensemble solution.
I = 0 est un index.
rand (A, B) est une fonction qui retourne un nombre au hasard, compris entre A et B.
while(I < N)
x1 = rand (x1min , x1max )
x2 = rand
(x2min , x2max)
4x1
h (x1 ) = 1 43exp(100)
si f (x1 ) g (x1 )
avec x1 [0, 1] et = 0.25 + 3.75 (3 (1 exp (100)))
donc,
195
4x1
(4 3 exp (100)) 1 43exp(100)
f2 (x1 ) =
0
avec x1 [0, 1] et = 0.25 + 3.75 (3 (1 exp (100)))
si f (x1 ) g (x1 )
sinon
si f (x1 ) g (x1 )
4 1 x111.5
f2 (x1 ) =
0
sinon
avec x1 [0, 1]
8.2.2
La grande majorit des mthodes doptimisation multiobjectif ne parviennent pas assurer luniformit de la rpartition des solutions sur la surface de compromis lorsquelles sont
confrontes une discontinuit.
La fonction discontinue de Deb est dfinie comme suit :
f (x1 ) = x1
g (x2 ) = 1 + 10 x2
h ( f , g) = 1
f
g
f
g
sin (2 q f )
Le paramtre q permet de dfinir le nombre de rgions discontinues dans lintervalle [0, 1].
Le plus souvent, le paramtre vaut 2.
Le problme est alors dfini comme suit :
minimiser f1 (
x ) = f (x1 )
minimiser f (
x ) = g (x ) h ( f , g)
2
avec
x1 , x2 [0, 1]
Lensemble des valeurs ralisables et la surface de compromis sont reprsents la figure 8.2.
Lexpression analytique de lenveloppe de la surface de compromis est :
f1 (x1 ) = x1
f2 (x1 ) = 1 x12 x1 sin (2 q x1 )
avec x1 [0, 1]
Donc, on a :
f2 = 1 f12 f1 sin (2 q f1 )
(8.1)
Il ne faut pas oublier dliminer les points de lenveloppe qui nappartiennent pas la
surface de compromis.
196
La fonction DEB V
Plan f1, f2
10
f2
f2
10
f1
f1
8.2.3
Une autre grande difficult que lon peut rencontrer est la multifrontalit. On la rencontre
lorsquun problme doptimisation multiobjectif possde une ou plusieurs surfaces de compromis fantmes.
Une surface de compromis fantme est, le plus souvent, due lexistence dun optimum
global isol et dun optimum local. Lors du processus doptimisation, les solutions convergent
vers loptimum local et forment ainsi une surface de compromis, qui est diffrente de la
surface de compromis optimale.
La fonction multifrontale de Deb est dfinie comme suit :
f (x1 ) = x1
2
2
x2 0.6
x2 0.2
0.8 exp 0.4
g (x2 ) = 2 exp 0.04
h ( f , g) =
1
f
minimiser f1 (
x ) = f (x1 )
minimiser f2 (
x ) = g (x2 ) h ( f , g)
avec
x1 , x2 [0, 1]
Lensemble des valeurs ralisables et la surface de compromis sont reprsents la figure 8.3.
Lexpression analytique de la surface de compromis est la suivante :
197
f2
f2
10
f1
f1
8.2.4
1.9156806
f1
(8.2)
Dans certains cas, du fait de la structure des fonctions objectif optimiser, les solutions
vont se concentrer autour de certains points. Dans ce cas, on a un problme de non-uniformit
de la reprsentation des solutions sur la surface de compromis.
La fonction test non uniforme de Deb est dfinie comme suit :
f (x1 ) = 1 exp (4 x1 ) sin4 (5 x1 )
g (x2 ) = 1
10 x2
h ( f , g) = 1 f
minimiser
minimiser
avec
f1 (
x ) = f (x1 )
f2 (
x ) = g (x2 ) h ( f , g)
x1 , x2 [0, 1]
198
f2
f2
0.9
0.8
0.7
0.6
0.5
0.4
f1
0.9
0.8
0.7
0.6
0.5
0.4
f1
8.3
p
f2 = 1 f1
(8.3)
La principale diffrence avec les problmes tests de Deb rside dans lintroduction dune
contrainte. Pour le reste, les problmes tests de Hanne couvrent peu prs le mme champ
que les problmes tests de Deb.
8.3.1
f1 (
x ) = x1
f2 (
x ) = x2
x1 0
x2 0
x1 + x2 5
199
La fonction HANNE 1
La fonction HANNE 1
Plan x, y
Plan f1, f2
12
10
10
f2
12
10
12
10
12
f1
de dcision
x . A la figure 8.5-b, on a reprsent lensemble de solutions dans lespace des
fonctions objectif. On obtient ces deux ensembles en appliquant lalgorithme 8.2.
A la figure 8.6-a, on a reprsent la surface de compromis du problme test dans lespace des variables de dcision. A la figure 8.6-b on a reprsent la surface de compromis
dans lespace des fonctions objectif. Ce type de reprsentation (espace de dcision - espace
des fonctions objectif) nous permet de visualiser des difficults possibles dans lespace de
dcision (lensemble solution peut tre morcel dans lespace des variables de dcision par
exemple).
200
Plan x, y
Plan f1, f2
f2
f1
Const f (x1 , x2 ) fonction qui vaut 1 si les contraintes du problme considr sont vrifies
et 0 sinon.
x1 = x1min
x2 = x2min
do
do
8.3.2
201
f1 (
x ) = x12
f2 ( x ) = x22
x1 0
x2 0
x1 + x2 5
Lensemble des valeurs ralisables et la surface de compromis sont reprsents sur les
figures 8.7 et 8.8.
La fonction HANNE 2
La fonction HANNE 2
Plan x, y
Plan f1, f2
12
144
10
f2
100
10
12
100
144
f1
202
Plan x, y
Plan f1, f2
25
20
f2
10
10
20
25
f1
8.3.3
f1 (
x ) = x1
f2 (
x ) = x2
x1 0
x2 0
x1 + x2 5
Lensemble des valeurs ralisables et la surface de compromis sont reprsents sur les
figures 8.9 et 8.10.
203
La fonction HANNE 3
La fonction HANNE 3
Plan x, y
Plan f1, f2
3.464
12
3
10
f2
10
12
3.464
f1
Plan x, y
Plan f1, f2
2.236
f2
1
2
2.236
f1
204
8.3.4
f1 (
x ) = x1
f2 (
x ) = x2
x1 0
x2 0
x2 5 + 0.5 x1 sin (4 x1 ) 0
Lensemble des valeurs ralisables et la surface de compromis sont reprsents sur les
figures 8.11 et 8.12.
La fonction HANNE4
La fonction HANNE4
Plan x, y
Plan f1, f2
12
10
10
f2
12
10
12
10
f1
205
12
Plan x, y
Plan f1, f2
12
12
10
f2
10
10
12
10
12
f1
8.3.5
f1 (
x ) = int (x1 ) + 0.5 + (x1 int (x1 )) sin (2 (x2 int (x2 )))
f2 (
x ) = int (x2 ) + 0.5 + (x1 int (x1 )) cos (2 (x2 int (x2 )))
x1 0
x2 0
x1 + x2 5
206
La fonction HANNE5
Plan f1, f2
4.5
f2
f2
2
2
1
1
0.5
0.5
4.5
f1
0.5
0.5
4.5
f1
8.4
Bibliographie commente
[Deb 98a] Cet article prsente une mthode pour construire des problmes tests. Cette expression gnrique permet de construire tous les types de problmes tests : convexe,
non convexe, avec optima locaux, etc. Ces problmes tests sont trs utiliss lors
de comparaisons entre mthodes.
[Whitley et al. 96] Cet article traite des problmes tests monobjectif. Lauteur souligne un
certain nombre dincohrences avec certains problmes tests actuels. Il propose
ensuite des rgles que devraient respecter tous les problmes tests.
207
Chapitre 9
Introduction
Comme on a pu le voir tout au long de cet ouvrage, il existe un trs grand nombre de
mthodes doptimisation multiobjectif. Cette situation pose problme lorsquil faut choisir
une de ces mthodes doptimisation pour rsoudre un problme concret. Aujourdhui, peu de
travaux existent sur la classification des mthodes doptimisation.
Cependant, on trouvera dans [Miettinen 99] un organigramme permettant de choisir une
mthode doptimisation multiobjectif en fonction du type de problme que lon souhaite rsoudre. Cet organigramme est trs compliqu et, comme on le verra par la suite, lapproche
propose nest peut-tre pas la meilleure pour ce genre de situation. Par ailleurs, on trouvera
dans [Talbi 98] une technique permettant de classer les mtaheuristiques hybrides.
Dans ce chapitre, nous prsentons deux approches dune telle classification :
une approche plus mathmatique, qui sefforce de dcrire le plus succinctement possible une mthode doptimisation ;
une approche graphique, o lon cherche une dcomposition hirarchique des mthodes
doptimisation.
Dans tout le chapitre, nous faisons la distinction entre les termes suivants :
mthode de traitement multiobjectif ;
mthode doptimisation ;
mthode doptimisation multiobjectif.
Nous dsignons par mthode de traitement multiobjectif la mthode utilise pour transformer le problme multiobjectif original en un problme multiobjectif adapt la rsolution.
Cette mthode peut tre, par exemple, la mthode de pondration des fonctions objectif.
Nous dsignons ensuite par mthode doptimisation la mthode de recherche utilise
pour rsoudre un problme multiobjectif. La mthode de recherche ninclut pas la mthode
de transformation du problme multiobjectif.
Pour finir, nous dsignons par mthode doptimisation multiobjectif un couple mthode
de traitement du problme multiobjectif + mthode doptimisation.
Nous allons maintenant tudier lapproche mathmatique de la classification, puis nous
nous intresserons lapproche graphique. Nous montrerons comment on obtient une d209
9.2
9.2.1
Classification
doptimisation
mathmatique
des
mthodes
Introduction
9.2.2
min f (
x)
x X
Ici, lexpression min devrait tre crite entre guillemets car, pour les problmes multiobjectifs, tant que la relation dordre na pas t spcifie, le sens de lexpression min nest pas
suffisamment prcis pour que loptimisation puisse tre effectue.
Si maintenant on prcise que la relation dordre que lon va considrer pour ce problme
est la dominance au sens de Pareto, alors le sens de lexpression min est prcis : nous cherchons le minimum, au sens de Pareto, sur lespace des variables de dcision X, du vecteur de
fonctions objectif f (
x ).
Les lments ncessaires la bonne spcification dun problme doptimisation multiobjectif sont les suivants :
lespace des variables de dcision (X dans notre exemple) ;
lespace des fonctions objectif (RN dans notre exemple) ;
un espace ordonn (RP avec la relation de dominance comme relation dordre, que
nous noterons ) ;
un modle de transformation (nous noterons ce modle dans notre exemple). Nous
prciserons par la suite la signification de ce terme.
M. Erghott [Ehrgott 00] se propose de rfrencer une mthode doptimisation en utilisant
lexpression suivante :
X, f , RN // RP ,
f
RN
RP ,
minimiser
f1 (
x)
minimiser f1 (
x)
maximiser f2 ( x )
minimiser f2 (
x)
maximiser f3 ( x )
minimiser f3 ( x )
avec
x X R4
avec
x X R4
Pour cette transformation du problme doptimisation multiobjectif, le modle de la transformation est le suivant :
(z1 , z2 , z3 ) = (z1 , z2 , z3 )
Lespace des variables de dcision est X.
Lespace des fonctions objectif est R3 .
Lespace des fonctions objectif aprs transformation est R3 .
Lordre que lon choisit sur cet espace est la relation de dominance sur lespace R3 que
nous noterons .
Par consquent, lexpression de la classification de cette mthode est la suivante :
X, ( f1 , f2 , f3 ) , R3 / (z1 , z2 , z3 ) / R3 ,
minimiser
f1 (
x)
maximiser f2 (
x ) minimiser max ( f1 (
x ) , f2 (
x ) , f3 (
x ))
maximiser f3 ( x )
avec
x X
avec
x X
Pour cette transformation du problme doptimisation multiobjectif, le modle de la transformation est le suivant :
(z1 , z2 , z3 ) = max (z1 , z2 , z3 )
Lespace des variables de dcision est X.
Lespace des fonctions objectif est R3 .
211
X, ( f1 , f2 , f3 ) , R3 / max / (R, )
minimiser
f1 (
x)
1 f1 (
x ) 2 f2 (
x)
maximiser f2 (
x ) minimiser
3 f3 ( x )
maximiser f3 (
x)
avec
x X
avec
x X
et
0
i
Pour cette transformation du problme doptimisation multiobjectif, le modle de la transformation est le suivant :
(z1 , z2 , z3 ) = 1 z1 2 z2 3 z3
Lespace des variables de dcision est X.
Lespace des fonctions objectif est R3 .
Lespace des fonctions objectif aprs transformation est R.
Lordre que lon choisit sur cet espace est la relation dordre classique : .
Lexpression de la classification de la mthode de Tchebychev est la suivante :
9.2.3
X, ( f1 , f2 , f3 ) , R3 /1 z1 2 z2 3 z3 / (R, )
Conclusion
Cette classification prsente le grand avantage dtre applicable aussi bien des problmes doptimisation qu des mthodes doptimisation (voir [Ehrgott et al. 00]).
Cette facult de description commune permet lutilisateur de comparer la description
du problme avec la description de la mthode de rsolution et ainsi de slectionner des
mthodes qui ont certains points communs avec la description du problme, car elles sont le
plus susceptibles dtre adaptes la rsolution de ce problme.
9.3
9.3.1
La classification hirarchique
doptimisation multiobjectif
des
mthodes
Introduction
Cette approche peut prsenter certains inconvnients comme, par exemple, une explosion du nombre de niveaux hirarchiques due au nombre important des lments distinctifs
dcrivant une mthode doptimisation. Il est cependant possible de limiter cet inconvnient
en choisissant soigneusement les lments descriptifs dune mthode doptimisation et en
limitant le domaine dintervention de la classification.
212
9.3.2
9.3.2.1
Approche
agrgative
A1
A11
Agrgation
avec contraintes
Mthode
couple
C1
C2
Agrgation
sans contraintes
A12
Mthode
dcouple
Rsolution a priori
du problme
Mthode
couple
Mthode
dcouple
C1
Agrgation
hybride
A13
C2
Mthode
couple
Mthode
dcouple
C1
C2
A2
Approche
non agrgative
Mthode
couple
C1
Mthode
dcouple
C2
R2
Rsolution a posteriori
du problme
Rsolution a priori
du problme
R1
R3
A1
A1
Rsolution progressive
du problme
A2
A2
A1
A2
214
Dans cette hirarchie, des lments manquent pour dcrire les mthodes progressives. En
effet, pour ces mthodes, le mode dinteraction est un lment discriminant.
Lorsque lon analyse les modes de fonctionnement des mthodes interactives, on peut les
classer en quatre catgories :
les interactions via la formulation des prfrences, nous noterons ce niveau de discrimination I1 ;
les interactions via la formulation des contraintes, nous noterons ce niveau I2 ;
les interactions hybrides via la formulation de prfrences et de contraintes, nous noterons ce niveau I3 ;
les interactions dun autre type (comme, par exemple, par la slection dune souspopulation de solutions intressantes), nous noterons ce niveau I4.
Il nous faut donc ajouter quatre branches supplmentaires dans notre hirarchie (voir figure 9.4).
9.3.2.3
215
R3
A1
Interaction via
prfrences
I1
Approche
agrgative
Interaction via
contraintes
I2
Rsolution progressive
du problme
Approche
non agrgative
Interaction
hybride
A2
Autre type
dinteraction
Interaction via
contraintes
Autre type
dinteraction
I4
I2
I4
I3
M1
Mthodes damlioration
par voisinage
M2
M3
Mthodes
volutionnaires
Autres
mthodes
Avec
litisme
Sans
litisme
M21
M22
Cest ce moment quun problme survient. En effet, sans une connaissance minimale
du problme et des mthodes, il est trs difficile de choisir une mthode doptimisation multiobjectif.
Lorsque lon choisit une mthode doptimisation multiobjectif, plusieurs facteurs entrent
en ligne de compte :
Des exigences quant la qualit de la solution :
certains problmes ont un optimum trs difficile trouver. Ces problmes seront trs
probablement mieux rsolus par une mtaheuristique du type recuit simul. Pour ces
problmes, on peut tre prt passer plusieurs heures ou plusieurs jours rechercher
une solution. Cest le cas de problmes stratgiques, tels que celui de loptimisation
de structure, o une structure avec une quantit moindre de matriau, mais rpondant
toujours au cahier des charges, pourra faire conomiser une somme importante sur le
cot de louvrage.
Pour dautres problmes, moins stratgiques, on pourra accepter une solution qui ne
sera quune amlioration du point initial. On pourra alors choisir une mthode de type
descente, ou un recuit simul avec une dcroissance rapide de la temprature.
Une structure particulire de lespace de recherche :
la prsence doptima locaux va influer sur le choix de la mthode doptimisation. Il
faut admettre que, sur certains problmes trs difficiles, il est impossible de connatre
lavance la proportion doptima locaux et donc de juger de la difficult a priori du
problme.
Laspect convexe ou non convexe de la surface de compromis va influer sur le choix de
la mthode de traitement multiobjectif. L aussi, il est trs difficile de juger de lallure
de la surface de compromis a priori, et donc de choisir une mthode de traitement
multiobjectif adapte au problme.
Pour un problme convexe, on choisira une mthode de pondration des fonctions objectif, alors que, pour un problme non convexe, on choisira plutt une mthode de
Tchebychev.
La capacit exprimer prcisment ses prfrences :
si les prfrences sont bien dfinies, on choisit une mthode de rsolution de type a
priori. En effet, il faut bien avoir lesprit que chercher approcher une surface de
compromis est une tche qui peut tre longue et difficile.
Si les prfrences ne sont pas bien dfinies, on a deux solutions :
217
9.3.3
Nous allons maintenant classer les mthodes traites dans ce livre en utilisant la hirarchie
que nous venons de dterminer.
Pour les mthodes de Jahn et de Geoffrion, on remarque que linteraction se fait via
le choix de la longueur dun pas. Ce mode dinteraction ne permet pas lutilisateur de
modliser simplement ses prfrences.
218
Nous avons class ces mthodes dans les catgories R {1, 2} car, dans leur utilisation
courante, ces mthodes sont plutt R2, mais, en thorie, elles seraient plutt R1. La raison en
est quelles exploitent leffet stochastique du recuit simul.
9.3.4
Nous allons maintenant illustrer le choix dune mthode doptimisation travers deux
exemples :
Le dimensionnement dune poutre (voir section 1.6.3).
Ce problme est bien dfini. Nous avons deux fonctions objectif : minimiser la section
de la poutre et minimiser la dformation de la poutre.
Nous savons a priori que ce problme nest pas difficile. Il na pas doptima locaux et
la structure de la surface de compromis est convexe.
Cette poutre intervient dans une structure plus complexe (un pont par exemple). Nous
voulons donc pouvoir tester plusieurs solutions pour simuler le comportement global
de la structure complexe en fonction de la solution choisie pour la forme de la poutre.
219
220
221
Troisime partie
Etudes de cas
Chapitre 10
Introduction
Lorsque lon dveloppe un code scientifique ddi la simulation dun processus industriel (chane de distillation chimique (voir le lien [Ascend] vers le logiciel Ascend de simulation mathmatique), production dnergie au sein dun racteur nuclaire, etc.), on ne peut
pas prendre en compte tous les paramtres de ce processus. Lingnieur doit alors rduire la
complexit du modle du processus pour quil puisse tre simul. Les diffrentes approximations quil est amen faire entranent souvent un cart plus ou moins important entre
les rsultats obtenus par simulation et les rsultats rels. On dispose alors dun artifice qui
permet de combler cet cart : le calage du code de simulation sur les rsultats rels. Ce calage
se fait par action sur certains paramtres du modle de manire ce que les rsultats calculs
correspondent mieux aux rsultats rels.
10.2
Description du problme
Nous dcrivons le problme laide dun exemple. Le domaine physique concern est
celui de la thermo-hydraulique diphasique.
Les donnes exprimentales sont les mesures de taux de vide en dix points rpartis
uniformment le long de la section dun canal dont une des parois est chauffe. Ce canal
est le sige dun coulement deau sous forme dun mlange liquide vapeur. Un exemple
de courbe que lon peut obtenir est reprsent la figure 10.1. Le taux de vide est calcul
par un code dont un des modles mis en uvre pour simuler lcoulement dpend de deux
paramtres susceptibles de pouvoir modifier lallure de la courbe obtenue en sortie : C1 et
C . Le but du calage sera alors de trouver une ou plusieurs valeurs du couple de paramtres
(C1 ,C ) telles que la courbe exprimentale soit la plus voisine possible de la courbe calcule.
Le problme qui survient est alors le suivant : que veut dire le plus voisin de :
des carts nuls en tous les points ?
un cart nul sur le point dont le niveau est le plus important (le point n10 sur lexemple
de la figure 10.1) appel point chaud ?
des carts uniformment rpartis ?
1 Ce
225
0.7
Valeur exacte
10
0.6
9
0.5
8
2
0.4
1
0.3
0.2
1
2
3 4 5
6 7
8 9 10 11
Distance au bord gauche de la conduite (mm)
F IG . 10.1 Une mesure du taux de vide sur les dix points de mesure.
un cart quadratique moyen minimal ?
...
Comme on peut le voir, le choix du type de dfinition du voisinage est important et conditionne de manire importante le calage.
Une autre approche peut tre mene o lon considre les carts absolus entre calcul et
exprience sur chaque point comme des fonctions objectif. Dans ce cas, la faible discrimination que lon ressent entre les diffrentes dfinitions numres plus haut apparat sous un
nouveau jour. Ces dfinitions peuvent tre vues comme des solutions particulires dun problme multiobjectif. Ces solutions seront plus ou moins quivalentes, car elles feront partie
de la surface de compromis et seront non domines.
Proposer ltape du calage comme une tape doptimisation multiobjectif va permettre de
clarifier le problme : compte tenu du nombre de fonctions objectif mis en uvre, il nexiste
pas de solution unique ce problme (cest un problme multiobjectif) mais une infinit et,
parmi ces solutions, plusieurs vont se distinguer :
On trouvera des couples (C1 ,C ) permettant dobtenir des valeurs moyennes trs prcises.
On trouvera des couples (C1 ,C ) permettant de simuler avec prcision la valeur du
point chaud. Ces couples peuvent tre trs pratiques pour le dimensionnement de la
conduite.
...
Une diffrence importante est souligner par rapport la dmarche classique consistant
dfinir a priori une formule de composition des fonctions objectif puis effectuer le calage
en utilisant cette formule. Lapproche multiobjectif produit, dans le meilleur des cas, toutes
les solutions, et laisse lutilisateur le soin de faire un choix parmi ces solutions. Il pourra
favoriser certains comportements du simulateur plutt que dautres, ces comportements rpondant un besoin particulier (prcision accrue sur certaines valeurs). Lutilisateur doit faire
un compromis pour choisir une solution et il est alors plus conscient que ce compromis pourra
avoir une influence sur les rsultats de la simulation.
226
10.3
f2
Zone de Pareto
x1
Surface de compromisf1
227
0.45
0.4
0.35
Canal 1
0.3
0.25
0.2
0.15
0.1
0.05
0
2
2
1.5
1
1.5
0.5
1
0
0.5
C1
CANAL 7
0.9
0.8
Canal 7
0.7
0.6
0.5
0.4
0.3
0.2
2
2
1.5
1
1.5
0.5
1
0
0.5
C1
10.4 Conclusion
CANAL 10
1
0.9
0.8
Canal 10
0.7
0.6
0.5
0.4
0.3
0.2
2
2
1.5
1
1.5
0.5
1
0
0.5
C1
10.4
Conclusion
Cette dmarche peut tre gnralise par lutilisation dun algorithme gntique multiobjectif. En effet, ce type de mthode se prte bien lapproximation de la zone de Pareto via
lutilisation dapproximateurs neuronaux (pour la rapidit de simulation).
On peut utiliser un algorithme NSGA avec une gestion de la diversit des solutions dans
lespace des paramtres ou un algorithme gntique codage rel (voir [Perrin et al. 97]). De
cette manire, avec une population relativement petite, on peut esprer obtenir une approximation de la zone de Pareto rapidement.
La principale libert que permet cette mthode est le recalibrage dynamique en fonction
des besoins de simulation de lutilisateur.
229
C1
0.5
0.45
0.4
0.35
Point 10
0.3
Point 7
0.2
0.37488
0.5
83
72
0.25
0.15
0.2
0.1
80
69
0.05
Point 1
0
0.7
0.8
0.9
1.0
1.1
1.2
1.3
1.4
230
10.4 Conclusion
C1
0.5
0.45
0.4
0.35
0.3
0.25
0.2
0.15
B
A
0.1
0.05
0
10.7
0.8
0.9
1.0
1.1
1.2
1.3
1.4
(a) Des
0.7
Valeur exacte
A
B
C
0.6
0.5
0.4
0.3
0.2
1
10
11
231
Chapitre 11
233
11.1
Rseau
Un rseau est modlis par un graphe G non orient, dont les lments x sont les nuds
(x N) et les arcs (x A). Chacun de ces lments est caractris par sa capacit cx et son
cot dinstallation C (x, cx ).
La fonctionnalit du rseau tant de faire transiter de linformation, les caractristiques de
ces informations doivent tre spcifies. Ces caractristiques sont spcifies sous forme dun
ensemble de demandes (matrice de demandes) correspondant chacune une certaine quantit
devant tre achemine dun nud origine vers une destination (le routage).
Nous considrons que ces demandes ne sont pas concatnes, cest--dire quelles peuvent
tre scables et donc transmises de lorigine la destination par plusieurs chemins.
Dautre part, les arcs sont bidirectionnels, cest--dire quils peuvent faire transiter de
linformation indiffremment dans un sens ou un autre.
11.2
Critres de choix
11.2.1
La disponibilit dun rseau est caractrise par son aptitude faire face aux fluctuations
des demandes qui doivent y transiter.
Autrement dit, si une partie de la demande est non route, la disponibilit du rseau sen
voit dgrade. Par exemple :
La non-scurisation de tout ou partie du rseau diminue le taux de disponibilit, puisque
les cas de panne ne sont pas envisags.
Le non-surdimensionnement du rseau rduit sa disponibilit, puisquil ne pourra pas
faire face un ventuel accroissement de la demande.
234
11.2.2
Bien entendu, la considration de tous ces points garantissant une bonne disponibilit
du rseau est limite par le cot que leur mise en place implique. Si deux chemins disjoints
sont garantis pour chaque demande, cela implique un surdimensionnement du rseau qui
sera forcment coteux. A linverse, rduire la disponibilit offerte par le rseau permettrait
davoir un cot en infrastructures du rseau qui soit plus faible.
De manire gnrale, le problme de la disponibilit consiste donc trouver un compromis entre le cot global dinvestissement et la disponibilit du rseau rsultant, et chercher
sil est intressant de payer le prix fort en investissement pour garantir une disponibilit extrmement leve, ou sil ne vaut pas mieux payer des pnalits en cas dincident qui saturerait
le rseau, en des points o la disponibilit est normalement garantie.
Dans le paragraphe qui suit, nous dcrivons les cots intervenant dans cette tude.
11.2.3
Cots
Les cots apparaissant dans ltude du dploiement dun rseau peuvent tre classs en
trois parties.
11.2.3.1
Ce sont les cots lis aux travaux dinfrastructure du rseau, sachant que ces travaux
peuvent tre de types diffrents :
ajout dun arc ;
ajout dun nud ;
modification dun arc (extension de la capacit de larc, etc.) ;
modification dun nud (changement dquipement en ce nud pour des quipements
de nouvelle gnration, etc.) ;
etc.
Pour toutes ces modifications possibles, il existe plusieurs sortes de cots :
le cot li aux tudes pralables ;
le cot dachat des quipements ;
le cot des travaux dinstallation (cot li lactivit humaine).
11.2.3.2
Ces cots sont ceux qui permettent de faire vivre le rseau. Il sagit :
du cot de ramnagement de rseau (permettant par exemple de mettre jour les
routages obsoltes du fait de lvolution du rseau) ;
du cot de maintenance prventive ;
du cot de maintenance curative :
diagnostic ;
235
11.3
11.3.1
Problmatique
Comme nous lavons vu au dbut de cet exemple, loprateur souhaite tendre le rseau
quil exploite sur une zone voisine.
Le sous-rseau correspondant cette extension est reprsent la figure 11.2.
Les nuds de ce sous-rseau crer sont connus.
Des liens sont proposs.
Il sagit de dterminer si ces liens doivent tre mis en service, et dans laffirmative, avec
quelle capacit. Bien entendu, la mise en service de chaque lien a un cot qui crot avec sa
capacit.
Do la dfinition dune matrice contenant le cot de mise en service dun arc a de capacit ca : C (ca ). Les cots lis lactivit du rseau ayant t valus et additionns au cot
dinvestissement, le tout ramen chaque arc.
11.3.2
Modlisation
11.3.2.1
Variables
CT = C (ci )
(11.1)
i=1
Critres
11.3.2.3
minci CT
maxci T
Contraintes
Cette dtermination des liens mettre en service doit tre faite en respectant des contraintes :
le cot total dinvestissement sur le rseau doit tre infrieur un seuil maximal :
CT < Cseuil
pour les routages, les capacits des liens sont limites ;
le monoroutage de toutes les demandes doit tre au minimum garanti ;
la valeur minimale du paramtre caractrisant la disponibilit du rseau est impose :
0.5.
11.3.3
Donnes ncessaires
11.3.3.1
Linfrastructure dure de lextension du rseau doit tre connue. Dans notre cas :
le nombre de nuds est 10 ;
le nombre darcs potentiels est 15 ;
les caractristiques (position et lien) de chacun de ces lments sont dcrites plus loin.
Sur le graphe de la figure 11.2 les nuds sont identifis avec des lettres et les arcs sont
numrots (de 0 14).
F
6
G
7
14
B
12
13
3
C
11
1
D
10
9
J
11.3.3.2
237
Matrice de demandes
La matrice de demandes router sur ce nouveau sous-rseau doit galement tre connue.
Nous considrons quinze demandes reprsentes dans le tableau 11.1.
Code de la demande
Origine
Destination
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
G
G
A
B
B
B
F
B
G
A
J
E
E
E
E
J
C
I
J
H
I
D
G
A
C
A
H
I
F
C
4
8
12
16
4
4
4
8
4
16
12
4
8
4
12
11.4
Mthodologie de rsolution
238
11.4.1
Une solution admissible sera une combinaison des capacits placer sur chaque arc
{ci | i [1, Na ]} qui permettra linfrastructure ainsi dfinie de respecter les contraintes.
11.4.2
Algorithme
Rappelons que lorganigramme gnral dun algorithme gntique est celui reprsent
la figure 11.3.
Evaluation
Initialisation
Population
Slection
^ ?
Arret
Solution
Reproduction
11.4.2.1
Initialisation 1 : codage
B
E
E
I
D
C
C
J
(a) AB+BC+CD+DI
(b) AB+BE+ED+DI
(c) AB+BE+EH+HI
H
B
B
E
D
C
(e) AF+FE+ED+DI
(d) AF+FE+EH+HI
(f) AF+FG+GH+HI
F IG . 11.4 Routages de plus court chemin (en nombre de liens) pour une demande entre A
et I.
Remarque : ce routage peut tre un routage bicritre qui cherche privilgier les chemins de
plus bref dlai et de meilleure qualit.
Concernant lvaluation des critres, il faudra calculer :
le cot total dinvestissement li la solution courante,
la valeur du paramtre reprsentant la disponibilit du rseau.
Cette seconde valuation implique que, lors des dterminations de routage de plus court chemin prcites concernant toute la demande, il faudra chercher plus prcisment, pour chaque
demande, lexistence dun biroutage sur chemins disjoints (en termes de nuds et darcs),
afin de vrifier la disponibilit du rseau correspondant la solution courante.
Si lon considre nouveau la demande numro deux entre A et I, les deux chemins
disjoints pourront tre AB+BC+CD+DI et AF+FG+GH+HI. Ceux-ci sont reprsents la
figure 11.5.
240
B
H
E
C
Dans une utilisation multicritre, un individu est dautant plus performant que le nombre
dalternatives qui le dominent est faible. En pratique, on value ce nombre sur un ensemble
dalternatives spcifiques, puisquil nest pas possible de le connatre exactement. Il est frquent dutiliser pour cela la population courante de lalgorithme. Dans notre cas, nous avons
repris la fonction dvaluation propose
dans [Fleming 93] qui est la plus conomique en
temps de calcul (tri complet en O n2 ). Lvaluation dun individu est donc effectue de la
manire suivante :
comparaison de tous les individus entre eux, en sauvegardant le nombre dindividus
qui les dominent ;
renvoi de ces valeurs, la valeur maximale tant attribue aux individus non domins ;
mise lchelle pour obtenir la fitness finale des individus.
Par le fait que cette valuation utilise la population courante, les valeurs de performance des
individus varient au cours de lalgorithme, ce qui est un inconvnient gnral, mais incontournable, de ce genre de mthodes.
241
Slection
Cette phase dtermine la manire dont sont slectionns les individus qui engendreront
la gnration suivante. En gnral, il est prfrable de favoriser les individus les plus performants aux dpens des autres. Dans cette optique, plusieurs tudes rcentes [Deb et al. 00c]
ont montr limportance de dfinir une slection litiste. Nous nous sommes appuys sur ce
principe en crant une population archive regroupant les solutions non domines. Cette population est mise jour au cours de chaque gnration et cest en son sein que nous effectuons
une slection alatoire.
11.4.2.6
Reproduction
A partir de la slection effectue, la reproduction peut se drouler. Nous avons utilis les
deux types classiques doprateurs lmentaires :
un oprateur agissant sur un seul individu : mutation ;
un oprateur binaire : croisement ou crossover.
Lalgorithme doit effectuer un chantillonnage suffisamment large et rgulier du front de
Pareto. Pour ce faire, les oprateurs dfinis prcdemment ont t associs non seulement
une opration doptimisation visant amliorer la valeur de lindividu pour un critre donn,
mais galement une opration de diversification (voir figure 11.6) :
Opration doptimisation : cette premire opration est semblable une mthode alatoire doptimisation locale. Seules des mutations remplissent ce rle dans notre algorithme, et une mutation par critre a t dfinie :
Une premire mutation amliore la valeur du premier critre (cot total engendr
par la mise en place de son infrastructure) en diminuant les indices de modification
des gnes, puisque plus ces indices sont faibles, plus la capacit des arcs associs est
faible, et donc plus le cot dinfrastructure sera faible.
La seconde mutation tend amliorer la disponibilit du rseau en ajoutant des chemins de routage et en augmentant la capacit des arcs saturs.
Comme les critres quelles tentent doptimiser, ces mutations ont des effets contradictoires.
Opration de diversification : lobjectif de cette opration est dlargir et dchantillonner le plus rgulirement possible le front de Pareto. Pour ce faire, les mutations dfinies ci-dessus sont ncessaires. Mais, afin que lalgorithme ne converge pas trop tt,
un oprateur de perturbation alatoire et de croisement a t dfini.
Le mcanisme dutilisation de ces oprateurs et oprations est le suivant :
slection des parents ;
choix alatoire dutilisation ou non de loprateur de croisement ;
choix alatoire dutilisation ou non dune mutation : si oui, slection alatoire de la
mutation ;
si aucun oprateur na t dclench, un des deux individus est choisi alatoirement.
Remarque : les choix alatoires dutilisation ou non de loprateur de croisement et dutilisation ou non dune mutation sont respectivement lis une probabilit de croisement et une probabilit de mutation prdfinies.
11.4.2.7
Critre darrt
Fr
on
td
eP
Optimisation
Di
ve
ar
eto
rsi
fic
ati
on
Optimisation
F IG . 11.6 Diffrents oprateurs de reproduction.
11.4.2.8
Algorithme global
Lalgorithme global utilis est donc celui de la figure 11.7. Dans cette figure, le terme
dominateur dsigne une solution non domine.
Initialisation en deux temps
Population courante
Mise jour
des solutions
non domines
Mise
jour
Evaluation:
calcul du routage
calcul des critres
calcul du nombre de dominateurs
calcul de la fitness finale
Slection
Slection litiste
Modification
des probabilits
Reproduction:
diversification
optimisation locale
Mise jour
des statistiques
^
Arret ?
non
oui
Solution
243
11.5
Rsultats
Quels sont donc les arcs et les capacits de ces arcs qui permettront au rseau doffrir une
bonne disponibilit au moindre cot ?
Les solutions de Pareto obtenues pour ce problme sont au nombre de vingt et un.
Elles sont reportes dans le tableau 11.2.
Codage
232211111121112
232212111121112
232212122111112
232212112121112
232212111121113
222222013121122
232212122121112
232212212121112
232212222121112
232312222121112
232212222121113
232222222121113
232232222121113
232223222121113
232322222121113
232322222221113
232223223221113
232323222221113
232233223121113
232233223221113
232223223221313
Cot
48944
51072
53056
53184
53776
54336
55104
55264
57184
59872
59888
61680
63472
63808
64368
65488
67040
67616
67712
68832
71872
Disponibilit
0
0,1
0,133
0,17
0,23
0,29
0,31
0,37
0,57
0,74
0,77
0,81
0,83
0,84
0,86
0,88
0,89
0,9
0,92
0,93
0,96
11.6
Conclusion
Lalgorithme utilis fournit donc de manire assez rapide un front de Pareto suffisamment
diversifi et continu. Cet algorithme peut galement traiter un troisime critre, correspondant
244
11.6 Conclusion
Front de Pareto
Paramtre de disponibilit
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
1111111111111111111111111111
0 0000000000000000000000000000
0000000000000000000000000000
1111111111111111111111111111
50 000
60 000
70 000
0.5
Cot
245
Chapitre 12
Introduction
EADS LAUNCH VEHICLES (EADS LV), filiale 100 % du groupe EADS (European
Aeronautic Defence and Space Company) issu de la fusion le 10 juillet 2000 de Daimler
Chrysler Aerospace AG (DASA), de Construcciones Aeronauticas (CASA) et de Arospatiale Matra, utilise depuis le 1er janvier 1996 de faon oprationnelle un modle dcisionnel
multicritre fond sur la mthode Electre Tri pour rpondre ou non aux appels doffres. Ce
modle, qui sert galement pour dcider de faire ou non des offres commerciales spontanes,
amne consigner les rsultats commerciaux dans une base de donnes. EADS LV fait plusieurs centaines doffres commerciales chaque anne. Celles-ci sont faites soit de faon non
sollicite, soit dans le cadre dappels doffres ou de consultations officielles.
Depuis la cration dun modle de premire gnration neuf critres en 1996, de frquentes modifications ont t ralises. Elles ont amen en 2001 une refonte intgrale du
modle, qui ntait possible quavec lexprience dune premire priode et en particulier
lacquisition de donnes. Afin de prendre en compte la varit des offres commerciales de
produits ou de services, le modle de deuxime gnration cinq critres a conduit une
famille de modles affins sur mesure.
Les modles de premire et deuxime gnration sont prsents succinctement dans les
paragraphes suivants. Pour des raisons videntes de confidentialit, les valeurs numriques,
ainsi que les graphiques, ont t volontairement voils ou modifis.
12.2
12.2.1
Mission du modle
chapitre a t rdig par J.-M. Contant, J.-L. Bussire, G. Piffaretti, EADS Launch Vehicles.
247
12.2.2
Pendant de nombreuses annes, les dcisions de faire ou non des offres commerciales
se prenaient localement de manire empirique et intuitive. Il tait par ailleurs trs difficile
de consigner les donnes et rsultats. En effet, en cas de succs, lquipe tait absorbe par
les tches nouvelles et, en cas dchec, peu porte faire de la publicit sur le sujet. Un
comit dcideur des affaires nouvelles fut ensuite cr, mais il contrlait seulement 50 %
des offres, le reste tant dcid localement sans en rfrer au comit. Une des consquences
fut dignorer longtemps le volume budgtaire exact de cette activit.
La validation du premier modle a t faite en 1995, partir dun chantillon de onze
offres commerciales typologiques caractrisant les quatre classes : Oui, Oui dubitatif, Non
dubitatif, Non.
Le modle, mis en uvre en 1996, tait fond sur neuf critres, rpartis en trois familles,
qualifiant les dimensions suivantes :
probabilit de remporter laffaire ;
intrt stratgique de laffaire ;
intrt conomique de laffaire.
2 La problmatique du tri :
La problmatique du tri consiste affecter chacune des actions une catgorie en examinant la valeur intrinsque
de laction. Les catgories sont dtermines indpendamment des actions affecter.
Rappel : Relation de surclassement (Roy, 1974) :
Une relation de surclassement est une relation binaire S dfinie dans lensemble A des actions, telle que, aSb si,
tant donn la qualit des valuations des actions et la nature du problme, il y a suffisamment darguments pour
admettre que laction a est au moins aussi bonne que laction b, sans quil y ait de raison importante de refuser cette
affirmation.
248
Inconnu
2
Mal connu
3.5
Connu
6
Bonne relation
7
Excellente
8.5
Fragile
2.5
Rcente
5
Correcte
7.5
Assez bonne
11
Forte
12
Leader
16
Peu crdible
2
Douteux
3.5
Sans avis
5.5
Crdible
7.5
Trs crdible
9.5
Trs faible
6
Faible
7
Moyen
9.5
Fort
10.5
Trs fort
11
Obligatoire
14
En suractivit
3.5
Trs charg
6.5
249
Charg
10
Disponible
12
En sous-activit
14
12.2.3
Pendant deux annes, sachant que les appels doffres ntaient pas encore tous pris en
compte, le comit a trait :
en 1996, 104 offres commerciales ;
en 1997, 96 offres commerciales.
Il est utile de rappeler quEADS LV peut se trouver dans deux situations pour un appel
doffres, soit en comptition, soit en gr gr :
en comptition, EADS rpond un appel doffres ouvert la concurrence ;
en gr gr, EADS rpond un appel doffres en tant que client unique, ce qui ne
signifie pas pour autant que laffaire soit gagne davance. En effet, dans ce dernier
cas, lentreprise doit se battre pour tenir dans le budget du client ou le prix du march.
Au bout de deux ans de fonctionnement, une tude de performance fut conduite pour corrler
les prdictions avec les rsultats (succs ou checs) :
le taux derreur sur la prdiction des oui tait de 65 % ;
le taux derreur sur la prdiction des non tait de 15 %.
A cette poque, les bons critres entrant dans la dcision ntaient pas forcment imaginables,
et dautres taient difficilement rglables, car il fallait avoir du recul et de lexprience pour
les ajuster. Par exemple, un veto mrement rflchi sur le critre Effort de recherche autofinance entranait le refus des actions demandant un cofinancement de recherche suprieur
500 k=C, alors que le comit, en contradiction avec lui mme, a retenu et gagn des actions
demandant un cofinancement suprieur 1 M=
C.
Pour clarifier cela, une tude de sensibilit sur les donnes cumules 1996-1997 fut alors
effectue, en faisant varier uniquement les profils des actions de rfrence. Cinq scnarios ont
t envisags, parmi lesquels le scnario optimal retenu, qui devait nous conduire un taux
derreur de 15 % sur la prdiction des oui ayant une issue favorable (conomie potentielle
de 0.5 M=
C). A partir de janvier 1998, le nouveau rglage tait oprationnel.
Ds 1999, le comit dcideur voit ses pouvoirs considrablement renforcs. Il devient
le comit des affaires nouvelles (CAN). Il garde un fonctionnement hebdomadaire et dfinit
une nouvelle fiche daffaire nouvelle (FAN) sur tableur Excel, pour mieux caractriser les
actions candidates. Au demeurant, cette nouvelle FAN sert galement de fiche de suivi tout
au long de la prparation de loffre et permet de corrler les hypothses retenues au moment
du choix avec les paramtres de loffre finale envoye au client. Le nouveau comit limine
250
12.3
De nombreux critres supposs importants se sont avrs non discriminants pour les raisons suivantes :
les critres invrifiables autorisaient les notations plaidoyer et confinaient plus lenqute socio-culturelle qu la ralit de la comptition ;
les acteurs par nature ne voulaient pas laisser chapper une affaire ;
la routine induisait des dcisions rptitives peu rflchies.
Durant cette priode, le primtre et la nature de lentreprise volurent de manire considrable :
vente de ltablissement Arospatiale de Cannes (Satellites) Alcatel en 1999 ;
privatisation et entre en bourse mi-1999 ;
fusion Arospatiale Matra mi-1999 ;
fusion Arospatiale Matra, DASA (Allemagne) et CASA (Espagne) en juillet 2001.
Ces modifications ont engendr des perturbations importantes dans la base de donnes des
affaires et ont amen abandonner les affaires 1996-1997 dans les chantillons de rglage du
modle.
Afin de mieux comprendre les insuffisances du modle de premire gnration, ltude
suivante a rvl plusieurs types de dysfonctionnements :
des critres qui savrent non discriminants et donc ne servent jamais dans la dcision ;
des critres inoprants de par la mthode de notation et donc sans effet sur la dcision.
Ils doivent tre corrigs ou supprims ;
des critres qui sont, en fait, des contraintes et sont donc toujours satisfaits.
251
12.3.1
Nombre de FAN
140
120
1996
1997
1998
1999
2000
100
80
60
40
20
0
0
3 ,5
8 ,5
Notation Critre 1
Autres
24%
Excellente
8%
Bonne
68%
F IG . 12.2 Nombre daffaires perdues en fonction du type de relation avec les clients.
252
Nombre de FAN
1996
1997
1998
1999
2000
3 ,5
6 ,5
10
12
14
16
Notation Critre 6
12.3.2
Nombre de FAN
Ch a rg e <= 500
Ch a rg e > 1000
Echelle critre 9
12.3.3
254
Nombre de FAN
100
1996
1997
80
1998
60
1999
2000
40
20
0
0
9 ,5
1 0 ,5
11
Notation Critre 5
12
Nombre de FAN
10
8
1996
1998
1997
1999
2000
2
0
2 500
5 000
7 500
Critre 7 en k euros
255
Nombre de FAN
6
5
1996
1997
1998
1999
2000
1
0
10
15
20
25
30
35
40
12.4
12.4.1
12.4.2
Les affaires nouvelles tant trs disparates, chaque affaire sinscrit dans un environnement
spcifique (situation commerciale, concurrence, client institutionnel ou industriel), concerne
diffrents secteurs (missiles stratgiques, satellites, lanceurs, quipements, etc.) et des activits varies (fourniture dquipements, prestation de services, tudes, etc.).
Il est donc apparu de manire vidente au cours des annes dutilisation du modle que
lapproche par un modle unique et omnipotent tait beaucoup trop rustique et restait limite
en capacit damlioration. Il a donc t dcid de crer des familles de modles distincts,
chacun deux ayant des rglages et/ou des critres particuliers, en fonction des activits de
lentreprise. A travers le plan commercial, une segmentation des activits de la socit a t
impose avec succs dans lentreprise et un modle par segment a t ralis pour les produits
et pour les services. Les critres qualitatifs ont t remplacs par des critres quantitatifs bass
sur des donnes factuelles accessibles, et mesurs par des scores enregistrs par lentreprise,
segment par segment.
Cette dmarche a conduit construire tout dabord un modle quatre critres. Ce modle
nexpliquant pas la totalit du vaste chantillon utilis, une tude approfondie, fonde sur les
lois relatives aux familles cohrentes de critres de Bernard Roy, a permis didentifier un
5ime critre. Les chantillons de rglage du modle tant constitus de la totalit des affaires
disponibles pour un segment donn, il ny a pas de limite dans la prcision prvisible dun tel
modle, qui pourra samliorer par augmentation du nombre de critres ou par affinage des
ratios de mesure des critres.
12.4.3
Afin de simplifier lutilisation des outils daide la dcision, un nombre limit de modles
a t retenu :
le modle Electre Tri 2001 Produits, conu pour tre appliqu aux FAN dont lobjet
est la fourniture de produits ;
le modle Electre Tri 2001 Services, conu pour tre appliqu aux FAN dont lobjet
est une prestation de services (tudes, essais, etc.).
Les cinq critres retenus pour le modle ELECTRE 2001 Produits sont :
critre 1 : Positionnement technico-conomique du produit ;
critre 2 : Matrise technologique et maturit du produit ;
critre 3 : Positionnement des clients ;
critre 4 : Crdibilit financire de laffaire chez le client ;
critre 5 : Positionnement concurrentiel.
Les positionnements sont valus avec les nombres daffaires perdues ports en abscisse et les
nombres daffaires gagnes en ordonne. Les informations recueillies depuis 1996 permettent
257
12.4.4
Critres
4
Produit B
3
Produit D
2
Produit C
1
Produit E
0
0
100
75
50
25
0
Produit dpass
Produit en dveloppement
Produit non tudi
Temps
259
12.4.5
Paramtrage du modle
12.4.6
Performance du modle
260
12.5 Conclusion
pour les quatre types de prdictions, savoir les quatre classes : Oui, Oui dubitatif, Non
dubitatif, Non.
Pour faire simple, la prcision actuelle est remarquable, laide du modle Electre Tri
2001 cinq critres, le calcul des scores gagns - perdus est reconstitu avec une prcision
de 96 % 100 % pour les catgories C1 (Non) et C4 (Oui).
Le score obtenu sur le segment fluidique prsent titre dexemple la figure 12.10
montre une prcision de 100 % pour les catgories C1 (Non) et C2 (Non dubitatif), un taux
derreur de 12.5 % sur la catgorie C3 (Oui dubitatif) et une prcision de 100 % pour la
catgorie C4 (Oui).
100 %
90 %
80 %
70 %
60 %
50 %
40 %
30 %
20 %
10 %
0%
12
C1
14
C2
C3
C4
Perdu
Gagn
12.5
Conclusion
La matrise des donnes commerciales ncessaires pour mettre en uvre le modle a permis la diffusion mensuelle dun tableau de bord commercial, contribuant ainsi un meilleur
pilotage de lentreprise.
Ce tableau de bord se compose actuellement de :
statistiques consolides et par segment sur les affaires gagnes - perdues ;
dix-sept positionnements de produits ou de clients ;
un certain nombre de ratios pertinents.
Ce tableau de bord est reprsent la figure 12.11.
Le modle a eu un impact important sur llaboration du plan stratgique de la socit, en
introduisant la liste des priorits pour tous les produits et les services. Il a galement contribu
imposer une segmentation des activits, qui est devenue lossature du plan commercial, et
il a pouss la restructuration de la nomenclature des produits.
Les perspectives dvolution du modle sont tournes vers une homognit de la prcision dans tous les segments, vers une ventuelle modification des classes dquivalence, vers
la subdivision des problmes par une modlisation de plus en plus fine et vers une dcentralisation des outils daide la dcision lintrieur de lentreprise. A linstar des systmes
experts, la plupart des ratios servant la notation des critres cumulent lexprience. Ainsi
toute situation nouvelle, aprs une phase derreur de prdiction, sera automatiquement intgre dans les prdictions suivantes. Enfin, pour les produits rcurrents, il est possible de
261
1998
1999
2000
CA annonc en M=
C par anne
La surface du cercle reprsente la valeur du CA annonc en M=
C
F IG . 12.11 Exemple de ratio, taux de russite commercial, CA annonc en M=
C.
reconstituer le pass et de prvoir lavenir avec une trs grande prcision dans les cas dvolution linaire.
Compte tenu des rles fdrateur et planificateur des outils daide la dcision, qui
amnent lentreprise se doter de bases de donnes quantitatives, favorables au pilotage de
lentreprise, la gnralisation de ces outils tous les problmes dallocation budgtaire est
prvisible moyen terme.
Laide la dcision pour ce problme dallocation budgtaire dans les offres commerciales est dote dun avenir prometteur, car les conomies potentielles sont considrables et
ne concernent pas uniquement le monde spatial. En particulier, compte tenu des abus constats ces dernires annes, la tendance est nettement la gnralisation des appels doffres pour
lattribution de marchs, notamment en ce qui concerne les collectivits.
262
Conclusion
Comme nous avons pu le voir tout au long de cet ouvrage, loptimisation multiobjectif
nest pas une tche facile.
Tout commence par la dfinition dun optimum multiobjectif. Une dfinition gnrale et
bien tablie est celle de Pareto. Mais cette dfinition tant trop gnrale, des variantes ont t
introduites : optimalit lexicographique, optimalit maximale, etc.
Ensuite vient le mode de rsolution. En fonction de la connaissance que lon a du problme, on peut :
partir la recherche dune unique solution si les prfrences du dcideur sont bien
dtermines et si celui-ci ne souhaite pas choisir parmi un ventail de possibilits ;
prciser les prfrences du dcideur en cours doptimisation ;
approcher la surface de compromis par un nuage de solutions.
On a aussi une grande latitude quant au choix du traitement du problme multiobjectif. On
peut se ramener une seule et unique fonction objectif ou alors traiter vectoriellement le
problme.
Pour finir, il faut choisir une mthode doptimisation pour rsoudre le problme multiobjectif. Cette dernire tche est dj dlicate en optimisation monobjectif, alors, on conot
que loptimisation multiobjectif soit dune difficult plus grande encore.
Cependant, le jeu en vaut la chandelle. Loptimisation multiobjectif offre lutilisateur
davantage de degrs de libert pour modliser son problme. Elle souligne aussi certaines
difficults de modlisation que lon lude souvent en optimisation monobjectif. En effet,
avant de rsoudre un problme doptimisation monobjectif, on fait souvent un compromis
entre certains objectifs, linsu du concepteur du modle. Loptimisation multiobjectif porte
au grand jour ce compromis et cest aussi cela la difficult de loptimisation multiobjectif :
une gne occasionne par un compromis difficile raliser. Il faut bien garder lesprit que
loptimisation multiobjectif ne traitera pas dun coup de baguette magique ce compromis. Ce
sera toujours au dcideur de trancher et de choisir une solution plutt quune autre. Loptimisation multiobjectif offre, cependant, des outils permettant daider le dcideur effectuer son
choix.
263
Conclusion
Plusieurs domaines de loptimisation multiobjectif font lobjet, actuellement, dune attention particulire :
Le contrle de la diversit des solutions sur la surface de compromis :
Dans la mthode de rsolution a posteriori, on cherche obtenir une approximation de
la surface de compromis. Une bonne approximation correspond un nuage de points
uniformment rpartis sur celle-ci. Plusieurs mthodes (dont certaines en cours de dveloppement) sefforcent datteindre ce but.
On peut aussi chercher obtenir une bonne diversit des solutions dans lespace des
paramtres.
Llaboration de mthodes doptimisation multiobjectif permettant dobtenir une
approximation de la surface de compromis plus rapidement :
Il y a beaucoup de degrs de libert sur lesquels on peut jouer pour amliorer la vitesse
de convergence dune mthode doptimisation multiobjectif. Par exemple, on peut :
utiliser une mtaheuristique diffrente (recuit simul, algorithmes gntiques, etc.) ;
utiliser une mthode de traitement multiobjectif diffrente ;
utiliser un voisinage plus adapt au problme que lon traite ;
etc.
La mise au point de mthodes permettant dintgrer les prfrences dun utilisateur pour une rsolution a priori :
Depuis quelques annes, on voit paratre des articles traitant de la rsolution de problmes multiobjectifs de manire a priori, laide des outils de la thorie des prfrences ou de laide la dcision. On peut penser quune jonction entre loptimisation
multiobjectif et laide la dcision va soprer prochainement.
Ltude de mthodes de visualisation de donnes permettant de mieux apprhender les rsultats dune optimisation multiobjectif :
Il existe encore trs peu de mthodes de visualisation de donnes ddies la reprsentation de rsultats doptimisation multiobjectif. Pourtant, dans le domaine des statistiques, de nombreuses mthodes sont disponibles, par exemple :
lanalyse en composantes principales ;
la projection non linaire ;
etc.
Llaboration de nouvelles mtriques permettant de juger, en cours doptimisation, de la qualit des rsultats intermdiaires :
Certaines mtriques, bien que trs utiles, ont un domaine dapplication restreint. Dautres
ncessitent des informations quil est impossible dobtenir avec un problme rel, ce
qui restreint leur emploi des problmes de test.
Certaines techniques du domaine de lconomie sont applicables loptimisation multiobjectif, comme lanalyse denveloppe de donnes.
Loptimisation multiobjectif est donc appele se dvelopper dans le futur comme en tmoignent le nombre sans cesse croissant de publications et la cration de nouvelles confrences consacres ce sujet.
Ce dveloppement peut tre aussi suivi travers larrive des ides de loptimisation
multiobjectif dans les entreprises : celles-ci sont, de plus en plus, confrontes la quadrature
du cercle dun compromis ncessaire entre le cot, la scurit et la qualit.
264
Bibliographie
[Alexandrov et al. 94] N. Alexandrov, J. E. Dennis, Algorithms for bilevel optimization, Rapport Technique TR-9477, septembre 1994.
[Altenberg 97]
[Altschuler et al. 94] E. L. Altschuler, T. J. Williams, E. R. Ratner, F. Dowla, F. Wooter, Method of constrained
global optimization, Physical review letters, janvier 1994.
[Andreatta et al. 97] A. A. Andreatta, S. E. R. Carvalho, C. C. Ribeiro, A Framework for the Development of Local
Search Heuristics for Combinatorial Optimization Problems, PhD report, Catholic University of
Rio de Janeiro, 1997.
[Andreatta et al. 98] A. A. Andreatta, S. E. R. Carvalho, C. C. Ribeiro, An Object Oriented Framework for Local
Search Heuristics, Rapport Technique, University of Rio de Janeiro, 1998.
[Argaud 92]
J. P. Argaud, Une mthode doptimisation des plans de rechargement pour la gestion du combustible nuclaire, Note interne EDF-DER numro HI-072/96/013/0, janvier 1992.
[Ascend]
[Asselmeyer 96] T. Asselmeyer, W. Ebeling, Unified Description of Evolutionary Strategies over Continuous Parameter Spaces, mai 1996.
[Ausiello et al. 99] G. Ausiello, P. Crescenzi, G. Gambosi, V. Kann, A. Marchetti-Spaccamela, M. Protrasi, Complexity and Approximation Combinatorial Optimization Problems and their Approximability Properties, Springer Verlag, 1999. (document), 5.8
[Azarm 96]
[Azarm et al. 99] S. Azarm, B. J. Reynolds, S. Narayanan, Comparison of two Multiobjective Optimization Techniques with and within Genetic Algorithms, Proc. of the 1999 ASME Design Engineering Technical Conference, septembre 1999.
[Baldick et al.]
[Barda 87]
O. H. Barda, Etude comparative des mthodes multicritres dans le cadre dun problme de localisation, Universit Paris-Dauphine, 1987.
[Barnett 97]
L. Barnett, TANGLED WEB : Evolutionary Dynamics on Fitness Landscapes with Neutrality MSc
Dissertation, School of Cognitive Sciences, University of East Sussex, Brighton, 1997.
[Bartak 99]
R. Bartk, Constraint programming : in pursuit of the holy grail, Proceedings of WDS99, Prague,
juin 1999.
[Battiti 94]
R. Battiti, G. Tecchiolli, The reactive tabu search, ORSA Journal on computing, volume 6, numro
2, pages 126-140, 1994.
[Ben-Tal et al. 96] A. Ben-Tal, J. Tind, Duality with Multiple Criteria and Multiple Resources, 1996.
[Boese et al. 94] K. D. Boese, A. B. Kahng, Best-So-Far vs. Where-You-Are : Implications for Optimal Finite-Time
Annealing, Systems and Control Letters, volume 22, numro 1, pages 71-80, janvier 1994.
[Boese et al.]
[Bonomi 88]
E. Bonomi, J.-L. Lutton, Le recuit simul, Pour la Science, numro 129, pages 68-77, juillet 1988.
5.4
[Borges et al. 00] C. C. H. Borges, H. J. C. Barbosa, A Non-generational Genetic Algorithm for Multiobjective Optimization, 2000 Congress on Evolutionary Computation, volume 1, pages 172-179, juillet 2000.
[Bourles]
267
Bibliographie
[Bowlin 98]
[Boyan et al. 97] J. A. Boyan, A. W. Moore, Using Prediction to Improve Combinatorial Optimization Search, Sixth
International Workshop on Artificial Intelligence and Statistics (AISTATS), 1997.
[Brans et al. 86] J. P. Brans, Ph. Vincke, B. Mareschal, How to select and how to rank projects : The PROMETHEE
method, European journal of Op. Research, volume 24, pages 228-238, 1986. 6.3.8.1, 6.3.9.1
[Bruyere et al. 86] M. Bruyre, A. Valle, Ch. Collette, Extended fuel cycle length, Note Framatome, FRADOC 11,
septembre 1986.
[Burke et al. 92] L. I. Burke, J. P. Ignizio, Neural networks and operations research : an overview, Computer
Operations Research, volume 19, numro 3/4, pages 179-189, 1992.
[Cardon et al. 00] A. Cardon, T. Galinho, J.-P. Vacher, Genetic algorithms using multi-objectives in a multi-agent
system, Robotics and Autonomous Systems, volume 33, pages 179-190, 2000.
[Clerc 00]
M. Clerc, Discrete Particle Swarm Optimization Illustrated by the Travelling Salesman Problem,
fvrier 2000.
[Charon et al. 96] I. Charon, A. Germa, O. Hudry, Mthodes doptimisation combinatoire, ditions Masson, 1996.
[Chekroun 85]
[Coello 96]
[Coello 98]
[Coello 99]
C. A. Coello Coello, A survey of constraint handling techniques used with evolutionary computation methods, Rapport technique Lania-RI-99-04, Laboratorio Nacional de Informtica Avanzada,
Xalapa, Veracruz, Mexico, 1999.
[Coello et al. 98] C. A. Coello Coello, A. D. Christiansen, Two new GA-based Methods for Multiobjective optimization, Civil Engineering Systems, volume 15, numro 3, pages 207-243, 1998.
[Coello et al. 99] C. A. Coello Coello, A. D. Christiansen, MOSES : A Multiobjective Optimization Tool for Engineering Design, Engineering Optimization, volume 31, numro 3, pages 337-368, 1999. 1.5
[Coello et al. 00] C. A. Coello Coello, Handling Preferences in Evolutionary Multiobjective Optimization : A Survey, 2000 Congress on Evolutionary Computation, volume 1, pages 30-37, juillet 2000.
[Coello 01]
[Coleman et al. 93] T. Coleman, D. Shalloway, Z. Wu, Isotropic Effective Energy Simulated Annealing Searches for
Low Energy Molecular Cluster States, Comp. Opt. and App., numro 2 pages 145-170, 1993.
[Collette et al. 00] Y. Collette, P. Siarry, H.-I. Wong, A systematic comparison of performance of various multiple
objective metaheuristics using a common set of analytical test functions, Foundations of Computing and Decision Sciences, Volume 25, numro 4, pages 249-272, 2000.
[Collins 96]
[Cooper et al. 00] W. W. Cooper, L. M. Seiford, K. Tone, Data Envelopment Analysis : A comprehensive Text with
Models, Applications, References and DEA-Solver Software, Kluwer Academic Publishers, 2000.
7.16
[Corne et al. 00] D. W. Corne, J. D. Knowles, M. J. Oates, The Pareto Envelope-based Selection Algorithm for
Multiobjective Optimization, In 6th International Conference on Parallel Problem Solving from
Nature PPSN VI, pages 839-848, septembre 2000, Paris.
[C.S.E.P. 95]
The computer science education project, Mathematical optimization, Electronic book, 1995.
[Cvetkovic et al. 99] D. Cvetkovic, I. C. Parma, Use of preference G.A.-Based multi-objective optimization, Proceedings of the Genetic and Evolutionary Conference : GECCO99, volume 2, pages 1504-1509,
Orlando, Floride, USA, juillet 1999.
[Cvetkovic 00]
[Daniels 78]
268
Bibliographie
[Darwen et al. 95] P. Darwen, X. Yao, A dilemma for fitness sharing with a scaling function, Proceedings of the
second IEEE International Conference on Evolutionary Computation, Piscataway, New Jersey,
pages 166-171, 1995.
[Das et al. 98]
I. Das, J. Dennis, Normal boundary intersection : a new method for generating Pareto optimal
points in multicriteria optimization problems, SIAM J. on Optimization, volume 8, numro 3,
pages 631-657, aot 1998.
[Das 99]
I. Das, A Preference Ordering Among Various Pareto Optimal Alternatives, Structural Optimization, volume 18, number 1, pages 30-35, august 1999.
[Dauer et al. 80] J. P. Dauer, R. J. Krueger, A multiobjective optimization model for water resources planning,
Applied Mathematical Modelling, pages 171-175, juin 1980.
[Davis 91]
L. Davis, Handbook of Genetic Algorithms, ditions Van Nostrand Reinhold, 1991. 5.8
[Deb 98a]
K. Deb, Multiobjective genetic algorithms : problem difficulties and construction of test problems,
Technical Report CI-49/98, Dortmund, Department of Computer Science/LS11, University of
Dortmund, Allemagne, 1998. 8.2, 8.4
[Deb 98b]
K. Deb, Non-linear goal programming using multi-objective genetic algorithms, Rapport technique CI-60/98, Dortmund, Department of Computer science/LS11,University of Dortmund, Allemagne, octobre 1998.
[Deb 99]
K. Deb, An overview of multi-objective evolutionary algorithms, Journe J.E.T., Copie de transparents, mai 1999. 1.6.2, 5.7.1.1.1, 5.7.2.1.1
K. Deb, T. Goyal, Controlled Elitist Non-dominated Sorting Genetic Algorithms for Better
Convergence, Rapport Technique, KanGAL report 200004, Indian Institute of Technology, Kanpur, Inde, 2000.
[Deb 01]
K. Deb, Multi-Objective Optimization using Evolutionary Algorithms, John Wiley & Sons, 2001.
1.8.5, 5.7.2.3.3, 5.8
K. Deb, T. Goel, Controlled Elitist Non-dominated Sorting Genetic Algorithms for Better Convergence, In Eckart Zitzler, Kalyanmoy Deb, Lothar Thiele, Carlos A. Coello Coello, and David Corne, editors, First International Conference on Evolutionary Multi-Criterion Optimization,
pages 67-81. Springer-Verlag. Lecture Notes in Computer Science No. 1993, 2001.
K. Deb, S. Agrawal, A. Pratap, T. Meyarivan, A Fast Elitist Non-Dominated Sorting Genetic Algorithm for Multi-Objective Optimization : NSGA-II, In Marc Schoenauer, Kalyanmoy Deb, Gnter
Rudolph, Xin Yao, Evelyne Lutton, J. J. Merelo and Hans-Paul Schwefel (editors), Proceedings
of the Parallel Problem Solving from Nature VI Conference, pages 849-858. Springer, 2000.
[Delbos 75]
[Diamantaras et al. 99] K. I. Diamantaras, K. Hornik, M. G. Strintzis, Optimal Linear Compression Under Unreliable Representation and Robust PCA Neural Models, IEEE Trans. on Neural Networks, volume
10, numro 5, pages 1186-1195, 1999.
[Di Gaspero et al. 00] L. Di Gaspero, A. Schaerf, EasyLOCAL++ : An object oriented framework for flexible design
of local search algorithms, Rapport Technique UDMI/13/2000/RR, 2000.
[Dorigo et al. 96] M. Dorigo, V. Mariezzo, A. Colorni, The Ant system : optimization by a colony of cooperating
agents, IEEE Trans. on Systems, Man, and Cybernetics-part B, volume 26, numro 1, pages 1-13,
1996.
269
Bibliographie
[Doye et al.]
[Dozier et al. 98] G. Dozier, S. McCullough, A. Homaifar, L. Moore, Multi-objective evolutionary path planning
via fuzzy tournament selection, IEEE Internat. Conf. on Evolutionary Comp., pages 684-689, Piscataway, New Jersey, mai 1998.
[Dreyfus et al. 01] G. Dreyfus, J.-M. Martinez, M. Samuelides, M. B. Gordon, F. Badran, S. Thiria, L. Hrault,
Rseaux de neurones : mthodologie et applications, Eyrolles, 2001. 10.3
[Duch et al. 98]
W. Duch, J. Korczak, Optimization and Global minimization methods suitable for neural networks, Neural Computing Survey (submitted), 1998.
[Duch 99]
W. Duch, Alternative to Gradient Based Neural Training, In Fourth Conf. on Neural Networks
and their Applications, Zakopane, Poland, mai 1999.
[Duvivier et al. 96] D. Duvivier, Ph. Preux, E.-G. Talbi, Climbing up NP Hard Hills, Fourth Int. Conf. on Parallel
Problem Solving from Nature, septembre 1996.
[Edelman 97]
[Ehrgott 97]
M. Ehrgott, A characterization of Lexicographic Max-ordering Solutions, Methods of Multicriteria Decision Theory : Proceedings of the 6th Workshop of the DGOR Working Group Multicriteria
and Decision Theory, Egelsbach, Hsel-Hohenhausen, pages 193-202, 1997. 1.8.2, 1.8.3, 1.8.4,
1.13
[Ehrgott 00]
[Ehrgott et al. 00] M. Ehrgott, X. Gandibleux, An Annotated Bibliography of Multiobjective Combinatorial Optimization, Rapport Technique 62/2000, Fachbereich Mathematik, Universit de Kaiserslautern,
Germany, 2000. 9.2.3
[Elmohamed 97] S. Elmohamed, P. Coddington, G. Fox, A Comparison of Annealing Techniques for Academic
Course Scheduling, Rapport technique NPAC SCCS-777, janvier 1997.
[Engrand 97]
P. Engrand, Approche doptimisation multiobjectif base sur ladoucissement simul, et son application la gestion des combustibles nuclaires, Icone 5 - Int. Conf. on Nuclear Engineering,
volume 10, pages 1-8, 1997.
[Engrand et al. 98] P. Engrand, X. Mouney, Une mthode originale doptimisation multiobjectif, Note interne EDFDER numro HT-14/97/035/A, mars 1998. 5.4.1.1
[Eschenauer et al. 90] H. Eschenauer, J. Koski, A. Osyczka, Multicriteria design optimization : procedures and
applications, Springer-Verlag, 1990. 2.4.4, 3.3.1, 3.4.1, 3.5.1, 3.6.1, 3.8
[Ferber 95]
J. Ferber, Les systmes multi-agents : vers une intelligence collective, ditions InterEditions, 1995
[Fleming et al. 85] P. J. Fleming, A. P. Pashkevich, Computer aided control system design using a multiobjective
optimization approach, Proceedings of the IEEE Control 85 Conference, pages 174-179, janvier
1985.
[Fleming 93]
[Flexer 99]
A. Flexer, On the Self-Organizing Maps for Clustering and Visualization, Third European Conference on Principles of Data Mining and Knowledge Discovery, PKDD99, Prague, Lecture notes
in Artificial Intelligence, numro 1704, Springer-Verlag, pages 80-88, 1999.
[Fonseca et al 93] C. M. Fonseca, P. J. Fleming, Genetic Algorithms for Multiobjective Optimization : Formulation,
Discussion and Generalization, Proceedings of the Fifth International Conference on Genetic
Algorithms, pages 416-423, San Mateo, California, 1993. 5.7.2.1.1
[Fudenberg et al. 92] D. Fudenberg, J. Tirole, Game theory, The MIT Press, 1992.
[Gandibleux 99] X. Gandibleux, Journe de travail PM20 Programmation mathmatique multiobjectif, LAMIHROAD, Valenciennes, septembre 1999.
[Gandibleux 00] X. Gandibleux, Journe de travail PM2O Programmation mathmatique multiobjectif, Tours, novembre 2000. 5.7.2.5
[Gandibleux 01] X. Gandibleux, Journe de travail PM2O Programmation mathmatique multiobjectif, Paris, mai
2001.
[Gaudier 99]
270
Bibliographie
[Gert et al. 97]
I. P. Gert, J. L. Underwood, The Logic of Search Algorithms : Theory and Applications, Constraint
Programming Conference, CP97, 1997.
[Giesy 78]
D. P. Giesy, Calculation of Pareto optimal solutions to multiple objective problems using threshold
of acceptability constraints, IEEE Trans. on Autom. Contr., volume AC-23, numro 6, dcembre
1978. 2.12.1
[Glover et al.]
[Glover 86]
F. Glover, Future paths for integer programming and links to artificial intelligence, Comput. and
Ops. Res., volume 13, numro 5, pages 533-549, 1986. 5.5
[Glover 90]
F. Glover, Artificial intelligence, heuristic frameworks and tabu search, Managerial and decision
economics, volume 11, pages 365-375, 1990. 5.5
[Glover et al. 97] F. Glover, M. Laguna, Tabu search, Kluwer Academic Publishers, 1997. 5.5, 5.8
[Goicoechea et al. 79] A. Goicoechea, L. Duckstein, M. M. Fogel, Multiple objective under uncertainty : An illustrative application of PROTRADE, Water resources research, volume 15, numro 2, pages 203210, avril 1979.
[Goldberg 94]
D. Goldberg, Algorithmes gntiques, ditions Addison Wesley, juin 1994. 5.6, 5.8
Q. Han, J. Han, Revised Filled Function Methods for Global Optimization, Applied Math. and
Comp., numro 119, pages 217-228, 2001.
[Hansen 97a]
M. P. Hansen, Experiments on the usage of hashing vectors in multiobjective tabu search, aot
1997.
[Hansen 97b]
M. P. Hansen, Tabu search for multiobjective optimization : MOTS, MCDM97, janvier 1997.
[Hansen 97c]
[Hansen et al. 98] P. Hansen, N. Mladenovic, Variable neighborhood search : Principles and applications, Les
cahiers du GERAD G-98-20, mai 1998.
[Hansmann et al. 94] U. H. E. Hansmann, Y. Okamoto, Comparative Study of Multicanonical and Simulated Annealing Algorithms in the Protein Folding Problem, Rapport Technique SC-94-20-NWU-5/94,
juillet 1994.
[Hartmann 99]
S. K. Hati, R. G. Lamb, Application of game theory in the design of optimal air pollution control
measures, Atmospheric environment, volume 21, numro 8, pages 1833-1841, 1987.
[Henrion 74]
C. Henrion, Laide la dcision, tat de lart et des problmes, Informatiques et gestion, numro
60, 1974.
[Hillier et al. 95] F. S. Hillier, G. J. Lieberman, Introduction to Operations Research, McGraw-Hill International
Editions, 1995. (document), 1.13
[Hoffmann et al. 95] T. Hoffmann, J. Buhmann, Multidimensional scaling and data clustering, Advances in Neural
Information Processing 7, Morgan Kaufmann Publishers, pages 104-111, 1995.
[Hong et al. 86]
L. Hong, C. Ting, Group decision making with multiple objectives and its interactive solution
approach, IFAC Large scale systems : Theory and applications, 1986.
[Hooker 95]
J. N. Hooker, Testing Heuristics : We Have It All Wrong, Journal of Heuristics, pages 33-42, mai
1995. 7.16
[Hordijk]
J. Horn, N. Nafpliotis, D. E. Goldberg, Multiobjective optimization using the niched Pareto genetic algorithm, Rapport technique, IlliGAl Report 93005, universit de lIllinois, Urbana, Illinois,
1993. 5.7.2.3.1
[James 95]
[Jaszkiewicz 01] A. Jaszkiewicz, Multiple Objective Metaheuristic Algorithms for Combinatorial Optimization,
Thse dhabilitation, Poznan University of Technology, 2001.
271
Bibliographie
[Jimenez et al. 99] F. Jimnez, J. L. Verdegay, A. F. Gmez-Skarmeta, Evolutionary techniques for constrained
multiobjective optimization problems, Proceedings of the 1999 Genetic and Evolutionary Computation Conference, pages 115-116, Orlando, Floride, juillet 1999.
[Jin et al. 01]
Y. Jin, T. Okabe, B. Sendhoff, Adapting Weighted Aggregation for Multiobjective Evolution Strategies, EMO 2001, pages 96-110, 2001.
[Jones et al. 95] T. Jones, S. Forrest, Fitness Distance Correlation as a Measure of Problem Difficulty for Genetic
Algorithms, Proc. of the sixth Int. Conf. on GA, pages 184-192, 1995.
[Kahng et al. 97] A. B. Kahng, R. Sharma, Studies of Clustering Objectives and Heuristics for Improved StandardCell Placement, Manuscript, 1997
[Kanzow 98]
C. Kanzow, Global Optimization Techniques for Mixed Complementarity Problems, Technical
Report MP-TR-1998-09, juillet 1998.
[Keeney 82]
R. L. Keeney, Decision analysis : an overview, Operations Research, volume 30, numro 5, pages
803-837, septembre 1982
[Keeney et al. 93] R. L. Keeney, H. Raiffa, Decisions with multiple objectives : preferences and value tradeoff,
ditions Cambridge University Press, 1993/ (document), 2.2.1
[Keller]
P. M. Keller, FORMOSA-P Constrained Multiobjective Simulated Methodology
[Kennedy et al. 95] J. Kennedy, R. Eberhart, Particle Swarm Optimization, Proc. IEEE Int. Conf. on Neural Net.,
pages 1942-1948, 1995.
[Kermanshahi et al. 89] B. S. Kermanshahi, Y. Yasuda, R. Yokoyama, Environmental marginal cost evaluation by
non-inferiority surface for optimal power dispatching, Rapport technique PE-89-177, 1989.
[Kim et al.]
D. G. Kim, P. Husbands, Mapping based constraint handling for evolutionary search ; Thurstons
circle packing and grid generation, Preprint.
[Kingdon et al. 95] J. Kingdon, L. Dekker, The Shape of Space, Proceedings of the first IEE/IEEE International
Conference on Genetic Algorithms in Engineering Systems : Innovations and Applications, IEE,
London, pages 543-548, 1995.
[Klock et al. 97] H. Klock, J. M. Buhmann, Multidimensional scaling by deterministic annealing, Springer Lecture
notes in computer science, numro 1223, pages 246-260, mai 1997.
[Klock et al. 99] H. Klock, J. M. Buhmann, Data visualization by multidimensional scaling : A deterministic annealing approach, Pattern Recognition, volume 33, numro 4, pages 651-669, 1999.
[Knowles et al. 99] J. Knowles, D. W. Corne, The Pareto Archived Evolution Strategy : A new baseline algorithm for
Pareto multiobjective optimization, 1999 Congress on Evolutionary Computation, pages 98-105,
juillet 1999.
[Knowles et al. 00] J. D. Knowles, D. W. Corne, A comparison of Diverse Approaches to Memetic Multiobjective
Combinatorial Optimization, Proceedings of the 2000 Genetic and Evolutionary Computation
Conference Workshop Program, pages 103-108, Las Vegas, Nevada, USA, juillet 2000.
[Knowles et al. 01] J. D. Knowles, R. A. Watson, D. W. Corne, Reducing Local Optima in Single-Objective Problems by Multi-objectivization,First International Conference on Evolutionary Multi-Criterion
Optimization, pages 268-282, numro 1993, 2001
[Koppen et al. 98] M. Kppen, S. Rudlof, Multiobjective Optimization by Nessy Algorithm, Proceedings of the 3rd
Online Workshop on Soft Computing, pages 357-368, Londres, 1998.
[Koski 85]
J. Koski, Defectiveness of weighting method in multicriterion optimization of structures, Comm.
in Appl. Num. Math, volume 1, pages 333-337, 1985. 2.1.4
[Koza et al. 99] J. R. Koza, F. H. Bennett III, D. Andre, M. A. Keane, Genetic Programming III : Automatic
Programming and Automatic Circuit Synthesis, Morgan Kauffman Publishers, mai 1999.
[Krishnamachari et al. 00] B. Krishnamachari, X. Xie, B. Selman, S. Wicker, Performance Analysis of Neighborhood Search Algorithms, Preprint, janvier 2000.
[Kruskal 64a]
J. B. Kruskal, Nonmetric multidimensional scaling : a numerical method, Psychometrika, volume
29, numro 2, juin 1964.
[Kruskal 64b]
J. B. Kruskal, Multidimensional scaling by optimizing goodness of fit to a nonmetric hypothesis,
Psychometrika, volume 29, numro 1, mars 1964.
[Laguna et al. 99] M. Laguna, R. Marti, GRASP and path relinking for 2-layer straight line crossing minimization,
INFORMS Journal on computing, volume 11, numro 1, 1999.
[Lamagna 87]
E. A. Lamagna, Infeasible Computation : NP Complete Problems, ABACUS, volume 4, numro
3, pages 18-33, 1987.
[Laumanns et al. 00] M. Laumanns, E. Zitzler, L. Thiele, A Unified Model for Multi-Objective Evolutionary Algorithms with Elitism, 2000 Congress on Evolutionary Computation, volume 1, pages 46-53, Piscataway, New Jersey, USA, juillet 2000. 5.7.2.5, 7.15
272
Bibliographie
[Lauriere 78]
J. L. Laurire, A language for stating and solving combinatorial problems, Artificial intelligence,
numro 10, pages 29-127, 1978
Y.-H. Lee, B. J. Berne, Global Optimization : Quantum Thermal Annealing with Path Integral
Monte Carlo, J. Phys. Chem. A, volume 104, pages 86-95, 2000.
J. De Leeuw, Fitting distances by least squares, Rapport technique, UCLA Statistics Series 130,
LA, 1993.
[De Leeuw et al. 97] J. De Leeuw, P. J. F. Groenen, Inverse multidimensional scaling, Journal of Classification,
volume 14, pages 3-21, 1997.
[Levin]
M. S. Levin, Algorithm Systems for Combinatorial Optimization : Hierarchical Multistage Framework, Preprint.
[Lin 76]
[Lin 77]
J. G. Lin, Proper inequality constraints and maximization of index vectors, Journal of optimization
theory and applications, volume 21, numro 4, pages 505-521, avril 1977. 2.10.1
C. Lin, J. I. Yang, K. J. Lin, Z. D. Wang, Pressurized water reactor loading pattern design using
the simple tabu search, Nuclear science and engineering, volume SC1, pages 61-71, 1998.
[Lister 93]
R. Lister, Annealing Networks and Fractal Landscapes, IEEE Int. Conf. on Neural Networks,
volume 1, pp 257-262, San Francisco, mars 1993.
[Liu 01]
X. Liu, A Class of Generalized Filled Functions with Improved Computability, Journal of Comp.
and Applied Math., numro 137, pages 61-69, 2001.
[Liu 02]
X. Liu, A Computable Filled Function used for Global Minimization, Applied Math. and Comp.,
numro 126, pages 271-278, 2002.
[Lombard 79]
[Lootsma 87]
F. A. Lootsma, Modlisation du jugement humain dans lanalyse multicritre du moyen de comparaison par nos pairs, R.A.I.R.O. Recherche oprationnelle, volume 21, numro 3, pages 241-257,
aot 1987.
[Loukil et al. 00] T. Loukil, J. Teghem, Ph. Fortemps, Solving Multi-objective Production Scheduling Problems with
Tabu Search, Control and Cybernetics, volume 29, numro 3, pages 819-828, 2000.
[Ma et al. 94]
J. Ma, J. E. Straub, Simulated Annealing using the classical density distribution, J. Chem. Phys,
volume 101, numro 1, juillet 1994.
[Mathias et al. 94] K. E. Mathias, L. D. Whitley, Transforming the Search Space with Gray Coding, IEEE Conf. on
Ev. Comp., volume 1, pages 513-518, 1994.
[Mathieu et al. 96] P. Mathieu, J.-P. Delahaye, Expriences sur le dilemme itr des prisonniers, Publication Interne
du LIFL, numro IT-233, mars 1996.
[Maystre et al. 94] L.-Y. Maystre, J. Pictet, J. Simos, Mthodes multicritres ELECTRE, dition Presses Polytechniques et Universitaires Romandes, 1994. 6.2.4, 6.3.1.2, 6.3.1.2, 6.3.2.1, 6.3.3.1, 6.3.4.4, 6.3.5.1,
6.3.5.2, 6.3.6.1, 6.3.7.1, 6.4
[McAllester et al. 97] D. McAllester, B. Selman, H. Kautz, Evidence for Invariants in Local Search, Proceedings
of the Fourteenth National Conference on Artificial Intelligence, Providence, Rhode Island, pages
321-326, 1997.
[McReady et al. 95] W. G. McReady, D. H. Wolpert, What makes an Optimization Problem Hard ?, Rapport Technique, SFI-TR-95-0, Santa Fe Institute, avril 1995.
[Menon et al. 95] A. Menon, K. Mehrotra, C. K. Mohan, S. Ranka, Optimization Using Replicators, Proc. of the
sixth Int. Conf. on GA, pages 209-216, 1995.
[Menon et al. 97] A. Menon, K. Mehrotra, C. K. Mohan, S. Ranka, Replicators, Majorization and Genetic Algorithms : New Models and Analytical Tools, Foundations of GA, numro 4, 1997.
[Mertens]
[Merz 00]
P. Merz, Memetic Algorithms for Combinatorial Optimization Problems : Fitness Landscape ans
Effective Search Strategies, Thse, dcembre 2000.
P. Merz, B. Freisleben, On the Effectiveness of Evolutionary Search in High-Dimensional NKLandscapes, Proc. of the 1998 IEEE Int. Conf. on Ev. Comp., pages 741-745, 1998.
[Messac et al. 00] A. Messac, G. J. Sundararaj, R. V. Tappeta, J. E. Renaud, Ability of Objective Functions to Generate Points on Nonconvex Pareto Frontiers, AIAA Journal, volume 38, numro 6, pages 10841091, juin 2000. 2.3.4
273
Bibliographie
[Michalewicz 95a] Z. Michalewicz, A survey of constraint handling techniques in evolutionary computation methods, Proceedings of the Fourth Annual Conference on Evolutionary Programming, MIT Press,
Cambridge, pages 135-155, 1995
[Michalewicz 95b] Z. Michalewicz, Genetic algorithms, numerical optimization, and constraints, Proceedings of
the sixth International Conference on Genetic Algorithm, pages 151-158, San Mateo, Californie,
USA, juillet 1995.
[Miettinen et al. 98] K. M. Miettinen, M. M. Mkel, Proper Pareto optimality in nonconvex problems - characterization with tangent and normal cones, Rapport technique, Universit de Jyvskyl, novembre
1998.
[Miettinen 99]
[Mobius et al.]
[Monclar 95]
F.-R. Monclar, Rsolution cooprative de problmes : notes bibliographiques, Note interne EDFDER numro HT-37/95/019, 1995
[Monclar 98]
[Monclar 99]
F.-R. Monclar, Deux exemples dutilisation dalgorithmes "mta-heuristiques" pour des applications EDF, Note interne EDF-DER, 1999.
[MOPGP]
J. J. Mor, Z. Wu, Global Smoothing and Continuation for Large-Scale Molecular Optimization,
preprint MCS-P539-1095, octobre 1995.
[Morita et al. 01] H. Morita, X. Gandibleux, N. Katoh, Experimental Feedback on Biobjective Permutation Scheduling problems Solved with a Population Heuristic, FCDS, volume 26, numro 1, pp 43-50, 2001.
[Mouney 98]
X. Mouney, Implmentation dans le logiciel FORMOSA dune mthode multi-objectif base sur
le recuit simul, Rapport de stage EDF-DER, 1998.
[Muller 94]
C. Muller, Introduction aux mthodes neuronales doptimisation, Note interne EDF-DER numro
HI-23/94/012, dcembre 1994.
[Multisimplex]
[Munro et al. 86] J. Munro, P. H. Chaung, Optimal plastic design with imprecise data, Journal of engineering mechanics, volume 112, numro 9, pages 888-903, septembre 1986. 4.2.2
[Mynard 97]
L. Mynard, Exploration locale oscillante heuristiquement ordonne, Thse LAFORIA-LIP6, dcembre 1997.
[Nelder et al. 65] J. A. Nelder, R. Mead, A Simplex method for function minimization, Computer Journal, volume 7,
pages 308-313, 1965. 3.7.1
[Niimura et al.]
[Norbis et al. 88] M. I. Norbis, J. McGregor-Smith, A multiobjective, multi-level heuristic for dynamic resource
constrained scheduling problems, Eur. Journal of Op. Research, volume 33, numro 1, pages 3041, 1988.
[Opricovic]
[Osyczka 92]
A. Osyczka, Computer Aided Multicriterion Optimization System (CAMOS), International Software Publisher, 1992.
[Othmani 98]
G. T. Parks, A. Suppapitnarm, Multiobjective Optimization of PWR Reload Core Designs using Simulated Annealing, Mathematics and Computation, Reactor Physics and Environmental Analysis
in Nuclear Applications, Madrid, Espagne, pages 1435-1444, septembre 1999.
[Pasquier-Dorthe et al. 95] J. Pasquier-Dorthe, H. Raynaud, Un outil daide la dcision multicritre, Revue Franaise de Gestion, numro 106, pages 11-21, 1995.
274
Bibliographie
[Pentzaropoulos et al. 93] G. C. Pentzaropoulos, D. I. Giokas, Cost-performance modeling and optimization of network flow balance via linear goal programming analysis, Computer Communications, volume 16,
numro 10, pages 645-652, 1993. 2.6.2
[Peralska et al.]
[Peretto]
[Perrin et al. 97] E. Perrin, A. Mandrille, M. Oumoun, C. Fonteix, I. Marc, Optimisation globale par stratgie
dvolution : Technique utilisant la gntique des individus diplodes, Recherche Oprationnelle,
AFCET-Gauthier-Villars, volume 31, numro 2, pages 161-201, 1997. 10.4
[Peterson et al. 93] C. Peterson, B. Soderberg, A new method for mapping optimization problems onto neural networks, International journal of neural systems, volume 1, numro 1, pages 3-22, 1993.
[Pohlheim]
[Potter 02]
[Pouillot 92]
S. Pouillot, Etude comparative des techniques multi-agents et des blackboard, Note Interne EDF
numro HI-57/7959, mai 1992.
W. H. Press, S. A. Teukolsky, W. T. Vetterling, B. P. Flannery, Numerical Recipes in C++, Cambridge University Press, 2002.
[Preux et al. 99] Ph. Preux, E.-G. Talbi, Towards Hybrid Evolutionary Algorithms, Int. Trans. in Op. Res., volume
6, pages 557-570, 1999.
[Quentin 82]
R. Quentin, Quatre techniques daide la dcision, Cadrco, numro 63, pages 9-12, septembre
1982.
[Radcliff et al. 95] N. J. Radcliff, P. D. Surry, Fundamental Limitations on Search Algorithms : Evolutionary Computation in Perspective, Lecture Notes in Computer Science 1000, Springer-Verlag, 1995.
[Reardon 97a]
B. J. Reardon, Fuzzy logic vs niched Pareto multi-objective genetic algorithm optimization : Part
I : Schaffers F2 problem, Rapport technique LA-UR-97-3675, Los Alamos National Laboratory,
1997. 4.3.1, 4.3.3
[Reardon 97b]
B. J. Reardon, Fuzzy logic vs niched Pareto multi-objective genetic algorithm optimization : Part
II : a simplified Born-Mayer problem, Rapport technique LA-UR-97-3676, Los Alamos National
Laboratory, 1997. 4.3.1, 4.3.3
[Rebreyend 99]
[Reidys et al.]
[Remez 86]
[Reuss 85a]
[Reuss 85b]
[Robert 85]
[Roy 85]
B. Roy, P. Vincke, Multicriteria analysis : survey and new directions, European journal of Op.
Research, 1981.
B. Roy, D. Bouyssou, Aide la dcision, Encyclopdie des sciences de la gestion (AFCET/Interfaces), numro 65, pages 4-13, mars 1988.
[Rudolph 98]
G. Rudolph, On a Multiobjective Evolutionary Algorithm and its Convergence to the Pareto Set,
Proceedings of the 5th IEEE Conference on Evolutionary Computation, pages 511-516, Piscataway, New Jersey, USA, 1998.
[Sammon 69]
J. M. Sammon, A nonlinear mapping for data structure analysis, IEEE Transactions on Computers, volume C-18, numro 5, pages 401-409, 1969
[Sakawa et al. 77] N. Sakawa, Y. Sawaragi, Multiobjective optimization in water resources problem for a single
river basin - A case study of the Kakogawa river basin, Proceedings of the First KNKI IRDP
Workshop, pages 197-221, 1977.
275
Bibliographie
[Sakawa et al. 85] M. Sakawa, F. Seo, Interactive multiobjective decision making by the sequential proxy optimization technique (SPOT) and its application to environmental systems, I.F.A.C. control science and
technology, volume 10, numro 50-2, pages 119-124, 1985.
[Sakawa et al. 88] M. Sakawa, H. Yano, An interactive fuzzy satisficing method for multiobjective linear programming problems with fuzzy parameters, Fuzzy Sets and Systems, volume 28, pages 129-144, 1988.
4.2.1
[Sakawa 02]
M. Sakawa, Genetic Algorithms and Fuzzy Multiobjective Optimization, Kluwer Academic Publishers, 2002. 4.2.1
[Sarma et al. 96] J. Sarma, K. De Jong, An Analysis of the Effects of Neighborhood Size and Shape on Local Selection Algorithms, In Proc. 4th PPSN, LNCS 1141, Springer-Verlag, pages 236-244, 1996 .
[Sawaragi et al.] Y. Sawaragi, S. Ikeda, H. Nakayama, T. Tanino, C. Okumura, An interactive optimization method
for a water resource problem with multiple objectives, preprint.
[Schaerf et al. 99] A. Schaerf, M. Lenzerini, M. Cadoli, LOCAL++ : A C++ Framework for Local Search Algorithms, Rapport Technique 11-99, Dipartimento di Informatica e Sistemistica, Universit di Roma,
Italie, mai 1999.
[Schaffer et al. 89] J. D. Schaffer, R. A. Caruana, L. J. Eshelman, R. Das, A Study of Control Parameters Affecting
Online Performance of Genetic Algorithms for Function Optimization, ICGA-89, pages 51-60,
San Mateo, Californie, USA, 1989.
[Scharlig 85]
A. Scharlig, Dcider sur plusieurs critres : panorama de laide la dcision multicritre, ditions
Presses Polytechniques Romandes, 1985. 6.1, 6.4
[Scharlig 96]
[Sen]
[Serquin et al. 97] Y. Serquin, F. Beaudouin, B. Murier, Multi-attribute utility theory toward a more general framework, Note interne EDF-DER numro HP-28/97/042/A, avril 1997.
[Shao et al. 95]
C.-S. Shao, R. H. Byrd, E. Eskow, R. B. Schnabel, Global Optimization for Molecular Clusters
using a new Smoothing Approach, 1995.
[Sharpe 00]
O. J. Sharpe, Towards a Rational Methodology for Using Evolutionary Search Algorithms, Thse,
University of Sussex, England, janvier 2000.
[Shatilla et al. 99] Y. A. Shatilla, D. C. Little, J. A. Penkrot, R. A. Holland, Biased multi-objective function optimization in Westinghouse advanced loading pattern search code ALPS, Mathematics and Computation, Reactor Physics and Environmental Analysis in Nuclear Applications, volume 2, pages
282-295, Madrid, Espagne, septembre 1999.
[Siarry et al. 89] P. Siarry, G. Dreyfus, La mthode du recuit simul. Thorie et applications, ditions IDSET,
ESPCI, 1989.
[Siarry 94]
P. Siarry, La mthode du recuit simul en lectronique, Rapport dhabilitation diriger les recherches. Universit de Paris-Sud (Orsay), 1994. 5.4
[Siarry 99]
[Smith 95]
[Smith 99]
K. A. Smith, Neural networks for combinatorial optimization : A review for more than a decade
of research, INFORMS Journal on Computing, volume 11, numro 1, 1999.
[Spenle et al. 96] D. Spenl. R. Gourhant, Guide du calcul en mcanique, Hachette Technique, 1996. 1.6.3.1
[Spierenburg 97] J. A. Spierenburg, Dimension Reduction of Images using Neural Networks, Master Thesis, Department of Computer Science, Leiden University, juillet 1997.
[Srinivas et al. 93] N. Srinivas, K. Deb, Multiobjective optimization using non-dominated sorting in genetic algorithms, Rapport technique, Department of Technical Engineering, Indian Institute of Technology,
Kanput, India, 1993. 5.7.2.2.1
[Stadler et al. 92] P. F. Stadler, W. Schnabl, The Landscape of the Travelling Salesman Problem, 1992.
276
Bibliographie
[Steuer 76]
R. E. Steuer, Multiple objective linear programming with interval criterion weights, Management
science, volume 23, numro 3, pages 305-316, novembre 1976.
[Stutzle et al. 00] T. Stutzle, A. Grun, S. Linke, M. Ruttger, A Comparison of Nature Inspired Heuristics on the
Traveling Salesman Problem, 2000.
[Szidarowsky et al. 84] F. Szidarowsky, L. Duckstein, I. Bogardi, Multiobjective management of mining under water hazard by game theory, Journal of Op. Research, volume 15, pages 251-258, 1984.
[Tabak 79]
D. Tabak, Computer based experimentation with multicriteria optimization problems, IEEE Transactions on Systems Man and Cybernetics, volume SMC9, numro 10, pages 676-679, septembre
1979. 2.11.1
[Tagami et al. 99] T. Tagami, T. Kawabe, Genetic Algorithm based on a Pareto Neighborhood Search for Multiobjective Optimization, Proc. of the 1999 Int. Symp. of Nonlinear Th. and its Appl., pages 331-334,
1999.
[Taillard]
[Talbi 98]
E.-G. Talbi, A Taxonomy of Hybrid Metaheuristics, Rapport technique TR-183, LIFL, Universit
de Lille 1, mai 1998. 9.1
[Tarvainen 86]
K. Tarvainen, On the generating of Pareto optimal alternatives in large scale systems, IFAC Large
scale systems : Theory and applications, Pergamon Press, pages 519-524, aot 1986.
[Teghem et al. 00] J. Teghem, D. Tuyttens, E. L. Ulungu, An Interactive Heuristic Method for Multi-objective Combinatorial Optimization, Computer & Operations Research, volume 27, pages 621-634, 2000.
[Thiollet 99]
B. Thiollet, Mthode du gradient discret pour loptimisation de la recherche de plans de rechargement : recommandations pour la maquette, Note interne EDF-DER numro HI-72/99/002/A,
fvrier 1999.
[Tipping et al. 97] M. E. Tipping, C. M. Bishop, Mixtures of Principal Component Analysis, Rapport technique,
NCRG/97/003, Neural Computing Research Group, Universit dAston, Birmingham, UK, 1997.
[Tipping et al. 98] M. E. Tipping, D. Toux, Shadow Targets : A Novel Algorithm for Topographic Projections by
Radial Basis Functions, NeuroComputing, volume 19, pages 211-222, 1998.
[Tkindt et al. 00] V. Tkindt, J.-C. Billaut, Lordonnancement multicritre, Presses Universitaires de Tours, dcembre 2000.
[Toshinsky et al. 00] V. G. Toshinsky, H. Sekimoto, G. I. Toshinsky, A method to improve multiobjective genetic
algorithm optimization of a self-fuel-providing LMFBR by niche induction among nondominated
solutions, Annals of nuclear energy, volume 25, numro 5, pages 397-410, 2000.
[Turinsky 99]
P. J. Turinsky, Mathematical optimization of incore Nuclear fuel management Decisions : status and Trends, ATW. Atomwirtschaft-Atomtechnik - Internationale Zeitschrift Fur Kernenergie,
volume 44, numro 7, pages 454-458, 1999.
[Tuyttens et al. 00] D. Tuyttens, J. Teghem, Ph. Fortemps, K. Van Nieuwenhuyze, Performance of the MOSA Method for the Bicriteria Assignment Problem, Journal of Heuristics, volume 6, numro 3, pages
295-310, 2000.
[Ulungu et al. 94] E. L. Ulungu, J. Teghem, Multi-objective Combinatorial Optimization Problems : A Survey, Journal of Multi-criteria Decision Analysis, volume 3, pages 83-104, 1994.
[Ulungu et al. 95] E. L. Ulungu, J. Teghem, The Two Phases Method : An Efficient Procedure to Solve Bi-objective
Combinatorial Optimization Problems, Foundations of Computing and Decision Sciences, volume 20, numro 2, 1995.
[Ulungu et al. 99] E. L. Ulungu, J. Teghem, P. H. Fortemps, D. Tuyttens, MOSA Method : A Tool for Solving Multiobjective Combinatorial Optimization Problems, Journal of Multicriteria Decision Analysis, volume 8, numro 4, pages 221-236, 1999. 5.4.2.1, 5.4.2.3
[Vaessens et al. 92] R. J. M. Vaessens, E. H. L. Aarts, J. K. Lenstra, A Local Search Template, PPSN 2, 1992.
[Vallin et al. 00] P. Vallin, D. Vanderpooten, Aide la dcision : Une approche par les cas, Ellipses, 2000.
[Van Den Bergh et al.] F. Van Den Bergh, A. P. EngelBrecht, Effects of Swarm Size on Cooperativee Particle Swarm
Optimizers.
[Van Den Bergh et al. 00] F. Van Den Bergh, A. P. Engelbrecht, Cooperative Learning in Neural Networks using
Particle Swarm Optimizers, South African Computer Journal, numro 26, pages 84-90, 2000.
[Van Hentenryck et al. 96] P. Van Hentenryck, D. McAllester, D. Kapur, Solving polynomial systems using a branch
and prune approach, SIAM Journal of Numerical Analysis, volume 34, numro 2, 1996.
[Van Kemenade 98] C. H. M. Van Kemenade, Analysis of NK-XOR Landscape, 1998.
[Van Laarhoven et al. 92] P. J. M. Van Laarhoven, E. H. L. Aarts, Simulated Annealing : Theory and Applications,
Kluwer Academic Publishers, 1992.
277
Bibliographie
[Van Veldhuizen et al. 98] D. A. Van Veldhuizen, G. B. Lamont, Multiobjective evolutionary algorithm research :
A history and analysis, Rapport technique TR-98-03, Department of Electrical and Computer
Engineering, Graduate School of Engineering, Air Force Institute of Technology, Wright Patterson
AFB, Ohio, USA, octobre 1998.
[Van Veldhuizen 99] D. A. Van Veldhuizen, Multiobjective evolutionary algorithms : classifications, analyses and
new innovations, Ph. D., Graduate School of Engineering. Air Force Institute of Technology,
Wright Patterson AFB, Ohio, USA, janvier 1999. 1.12, 7.1, 7.10.1, 7.16
[Van Veldhuizen et al. 00] D. A. Van Veldhuizen, G. B. Lamont, On Measuring Multiobjective Evolutionary Algorithms Performances, 2000 Congress on Evolutionary Computation, volume 1, pages 205-211,
Piscataway, New Jersey, USA, juillet 2000.
[Varanelli 96]
J. M. Varanelli, On the Acceleration of Simulated Annealing, Thse, Faculty of the School of
Engineering and Applied Sciences, University of Virginia, mai 1996.
[Vavasis]
S. A. Vavasis, Complexity Issues in Global Optimization : A Survey, Preprint
[Vern 92]
J. L. Vern, La logique floue : concepts et dfinitions, Electronique Radio Plans, dcembre 1992
4.1
[Vincke 89]
Ph. Vincke, Laide multicritre la dcision, ditions Ellipses, ditions de lUniversit de
Bruxelles, 1989 6.2.3, 6.3.2.1, 6.3.4.4, 6.3.5.1, 6.3.6.1
[Visee et al. 98] M. Vise, J. Teghem, M. Pirlot, E. L. Ulungu, Two-phases Method and Branch and Bound Procedures to Solve the Bi-objective Knapsack Problem, Journal of Global Optimization, volume 12,
pages 139-155, 1998
[Weidl 96]
J. Weidl, The standard template library tutorial, juillet 1996
[Wendt 97]
O. Wendt, W. Konig, Cooperative Simulated Annealing ; How Much Cooperation is Enough ?,
Rapport Technique, 1997.
[Wenzel et al.]
W. Wenzel, K. Hamacher, A Stochastic Tunneling Approach for Global Minimization of Complex
Potential Energy Landscapes.
[De Werra 90]
D. De Werra, Heuristics for graph coloring, Computing Suppl., volume 7, pages 191-208, 1990.
5.5
[Westhoff et al. 96] F. H. Westhoff, B. V. Yarbrough, R. M. Yarbrough, Complexity, Organisation, and Stuart Kauffmans The Origin of Order, J. of Economic Behavior and Organization, volume 29, pages 1-25,
1996.
[Whales et al.]
D. J. Whales, J. P. K. Doye, Global Optimization by Basin-Hopping and the Lowest Energy Structures of Lennard-Jones Clusters Containing up to 110 Atoms.
[Whitley 91]
L. D. Whitley, Fundamental Principles of Deception in Genetic Search, Foundations of GA, pages
222-241, 1991.
[Whitley et al. 95] L. D. Whitley, K. Mathias, S. Rana, J. Dzubera, Building Better Test Functions, Int. Conf. on
GA, 1995.
[Whitley et al. 96] D. Whitley, K. Mathias, S. Rana, J. Dzubera, Evaluating Evolutionary Algorithms, Journal of
Artificial Intelligence, volume 85, numros 1-2, pages 245-276, 1996. 8.4
[Williamson 99] D. P. Williamson, IBM Research Report : Lecture Notes on Approximation Algorithms Fall 1998,
IBM Research Division, T. J. Watson Research Center, Yorktown Heights, New York, Rapport
Interne RC 21409, fvrier 1999.
[Wolpert et al. 95] D. H. Wolpert, W. G. McReady, No Free Lunch Theorem for Search, Rapport technique SFI-TR95-02-010, Santa Fe Institute, fvrier 1995.
[Wolpert et al. 96] D. H. Wolpert, W. G. McReady, No Free Lunch Theorem for Optimization, IEEE Trans. on
Evolutionary Computation, avril 1996.
[Wong et al. 98] H. I. Wong, S. Crouzet, Optimisation des plans de rechargement nuclaire, Note Interne EDFDER numro HI-14/98/034/A, dcembre 1998.
[Wu et al. 01]
J. Wu, S. Azarm, Metrics for Quality Assessment of a Multiobjective Design Optimization Solution
Set, Trans. of the ASME, volume 123, pages 18-25, mars 2001.
[Xu et al. 98]
J. Xu, S. Y. Chiu, F. Glover, Fine-Tuning a Tabu Search Algorithm with Statistical Tests, Int. Trans.
Op. Res., volume 5, numro 3, pages 233-244, 1998.
[Xu et al. 99]
H. Xu, B. J. Berne, Multicanonical jump walk annealing : An efficient method for geometric
optimization, Journal of Chem. Phys., pages 299-306, 1999.
[Yamamoto et al. 99] A. Yamamoto, H. Hashimoto, Applications of Temperature Parallel Simulated Annealing to
Loading Pattern Optimizations of Pressurized Water Reactors, Mathematics and Computation,
Reactor Physics and Environmental Analysis in Nuclear Applications, volume 2, pages 14451458, Madrid, Espagne, septembre 1999.
278
Bibliographie
[Yao 96]
X. Yao, An Overview of Evolutionary Computation, Chinese Journal of Advanced Software Research, volume 3, numro 1, pages 12-29, 1996.
[Zadeh 65]
L. A. Zadeh, Fuzzy Sets, Information and Control, volume 8, pages 338-353, 1965. 4.1
[Zionts et al. 76] S. Zionts, J. Wallenius, An interactive programming method for solving the multiple criteria problem, Management science, volume 22, numro 6, pages 652-653, fvrier 1976.
[Zitzler et al. 98] E. Zitzler, L. Thiele, An Evolutionary Algorithm for Multiobjective Optimization : the Strength
Pareto Approach, Rapport Technique 43, Computer Engineering and Communication Networks
Lab (TIK), Swiss Federal Institute of Technology, mai 1998. 5.7.2.5
[Zitzler et al. 99] E. Zitzler, K. Deb, L. Thiele, Comparison of Multiobjective Evolutionary Algorithms : Empirical
Results, Rapport Technique 70, Computer Engineering and Networks Laboratory (TIK), Swiss
Federal Institute of Technology (ETH) Zurich, dcembre 1999. 7.14, 7.14.1, 7.14.2, 7.16
279
Index
litisme, 127, 128
nergie, 15
a posteriori, 39, 73
a priori, 39, 73
a-dominance, 34
action, 132
aide la dcision, 39, 47, 131
algorithmes gntiques, 114, 118
-optimale, 100
analyse
de robustesse, 135
de sensibilit, 135
antisymtrique, 133
archivage, 128
binaire, 115
Binh, 45
Born-Mayer, 103
cne, 19
cne optimalit, 32
chromosome, 115
classement, 132
direct, 149
inverse, 149
cot, 15
coefficient de concordance, 147
combinatoire, 17
compromis, 19, 38
continu, 17
contradictoire, 18
contrainte, 15
, 52
contraintes dgalit propres, 64
convexe, 57
convexit, 37
Corley, 56
corrlation, 98
critre, 135
niveaux, 166
prfrence linaire, 166
zone dindiffrence, 166
gnralis, 164
gaussien, 166
usuel, 165
croisements, 116
dcouples, 105
dviation, 61, 84
Deb, 193
280
Index
interactive, 73
isovaleur, 42, 50
Jahn, 88
Keeney-Raiffa, 47
lordonnancement lexicographique, 63
l -faiblesse, 157
l -puissance, 157
l -qualification, 157
Laumanns, 191
linaire, 17
logique floue, 95
mtaheuristique, 39, 105
mthode
dterministe, 106
de Geoffrion, 88
de Jahn, 84
de la distance, 48
de Lin-Giesy, 70
de Lin-Tabak, 69
de pondration, 41, 56
de Reardon, 102
de Sakawa, 98
de Tchebychev, 49
du but atteindre, 57
du but programm, 61
du compromis, 52
du compromis par substitution, 73
du min-max, 49
du simplex, 91
floue, 39
hybride, 55
interactive, 39
MOGA, 121
MOSA, 110
NPGA, 125
NSGA, 122
PASA, 108
PIC, 67
scalaire, 39
SPEA, 127
STEP, 82
stochastiques, 106
WARGA, 126
mthodes
de rsolution, 39
mtrique
absolue, 190
relative, 188
MAUT, 47
minimum
global, 16
local, 16
multicritre, 18
multifrontale, 197
multiobjectif, 18
mutation, 118
Newton, 105
niches, 123
281
Index
recuit simul, 107
relation
dquivalence, 133
dordre, 131, 133
de prfrence, 134
return to base, 109
Schaffer, 42
STDGD, 177
suprmum, 65
surclasse, 136
surclassement, 139
faible, 148
flou, 157
fort, 148
surface de compromis, 36, 173
SWT, 73
symtrique, 133
tabou gnralise, 114
tabou simple, 114
thorme du contact, 19
transitive, 133
utilisateur, 15
utilit, 47
vague, 187
variable de dcision, 16
VEGA, 119
veto-dominance, 161
Zadeh, 95
Zitzler, 188
zone efficace, 206
Zoutendjik, 84
282