Vous êtes sur la page 1sur 23

Appunti delle Lezioni di Ottimizzazione Programmazione Multiobiettivo

a cura di G. Liuzzi a.a. 1999-2000

Introduzione

Un problema matematico di ottimizzazione pu` essere denito come la minimizzazione o o massimizzazione di una funzione a valori reali su un insieme specicato. Limportanza di questo modello matematico deriva ovviamente dal fatto che molti problemi reali vengono arontati facendovi ricorso. Tuttavia quasi ogni problema reale di ottimizzazione ` e caratterizzato dalla presenza contemporanea di pi` obiettivi, cio` funzioni a valori reali da u e massimizzare e/o minimizzare, tipicamente in contrasto tra loro. Nel seguito considereremo il seguente problema di ottimizzazione multiobiettivo: min (f1 (x)f2 (x) . . . fk (x)) xF (MOP)

ove k 2 e fi : IRn IR, per i = 1, . . . , k. Dora in avanti chiameremo IRk spazio degli obiettivi e IRn spazio delle variabili di decisione. Un vettore x IRn sar` pertanto un vettore di decisioni mentre z IRk un vettore di obiettivi. a Indicheremo, inoltre, con f (x) il vettore delle funzioni obiettivo (f1 (x)f2 (x) . . . fk (x)) e con Z = f (F) limmagine della regione ammissibile F nello spazio degli obiettivi (vedi gura) e cio` e Z = f (F) = z IRk : x F, z = f (x) . In particolare diremo che un vettore di obiettivi z IRk ` ammissibile quando risulti z Z. e Deniamo , inoltre, il vettore ideale degli obiettivi z id come il vettore di componenti
id zi =

Vettore ideale

min fi (x) xF

Quello che vogliamo fare ` minimizzare tutte le funzioni obiettivo simultaneamente. Se e non ci fossero conitti tra le funzioni obiettivo, una soluzione banale al problema sarebbe quella ottenibile risolvendo separatamente k problemi di ottimizzazione (uno per ogni funzione obiettivo) ottenendo quindi come soluzione proprio il vettore ideale z id . Non sarebbe pertanto necessario applicare nessuna tecnica specica di soluzione. Per evitare il sorgere di tale caso banale, supporremo che z id Z. Questo signica assumere che le funzioni f1 (x), f2 (x), . . . , fk (x) siano, almeno in parte, in contrasto tra loro.
liuzzi@dis.uniroma1.it,

http://www.dis.uniroma1.it/liuzzi

x2

z2

Z=f(S)

x1 x3

z1

Con B(x, ) = {y IRn | x y < } indicheremo la sfera aperta di centro x IRn e raggio > 0. Dato un insieme A, indicheremo con A la frontiera di A, con A linterno e con A la chiusura di A. Dati due insiemi A e B deniamo linsieme dierenza A\B come quellinsieme costituito da tutti e soli gli elementi di A che non appartengono a B, ovvero A\B = x A : x B . Dato un vettore b IRn ed un insieme A IRn , deniamo traslazione di A rispetto a b linsieme b + A = x IRn : x = b + a per ogni a A . In maniera del tutto analoga deniamo linsieme b A = x IRn : x = b a per ogni a A . Se I ` un insieme di indici e v un vettore, con vI indicheremo il sottovettore costituito dalle e componenti di v con indici in I. Sia inne IRk lortante positivo dello spazio degli obiettivi + cio` e IRk = z IRk : z 0 . +

Ottimalit` secondo Pareto a

Prima di procedere, ` necessario denire con chiarezza cosa si intende per soluzione ote tima di un problema di programmazione multiobiettivo. La denizione che adottiamo e che ` riportata nel seguito, ` stata proposta per la prima volta da Edgeworth nel 1881 e e e successivamente ripresa da Vilfredo Pareto nel 1896 [2] che la approfond` ulteriormente. Denizione 2.1 Dati due vettori z 1 , z 2 IRk , diciamo che z 1 domina z 2 secondo Pareto (z 1 P z 2 ) quando risulta
1 2 zi zi per ogni i = 1, 2, . . . , k e 1 2 zj < zj per almeno un indice j {1, . . . , k}.

La relazione binaria P ` un ordinamento parziale (non riessivo) nello spazio delle k-uple di e numeri reali. Sfruttando la relazione P possiamo dare la denizione di ottimalit` secondo a Pareto. e Denizione 2.2 Un vettore di decisioni x F ` un ottimo di Pareto se non esiste unaltro vettore x F tale che: f (x) P f (x ). 2
Ottimo di Pareto

Ottimi locali

Ottimi globali

Figure 1: Ottimi locali e globali di Pareto. Corrispondentemente diremo che un vettore di obiettivi z Z ` ottimo secondo Pareto e quando non esiste un altro vettore z Z tale che z P z . Quindi se ci troviamo in un punto ottimo secondo Pareto e vogliamo ulteriormente diminuire il valore di una o pi` funzioni obiettivo dobbiamo essere disposti ad accettare un conseguente u aumento in alcune (o tutte) le rimanenti funzioni del problema. In tal senso possiamo aermare che, nello spazio degli obiettivi, gli ottimi di Pareto sono punti di equilibrio che si trovano sulla frontiera dellinsieme Z. Denizione 2.3 Diciamo frontiera eciente linsieme degli ottimi di Pareto del problema (MOP) La denizione di ottimo secondo Pareto ` ovviamente, una denizione di ottimo globale dato e che si richiede la validit` di una certa propriet` su tutto linsieme ammissibile del problema a a ` (MOP). E evidentemente possibile, per`, dare una denizione di ottimo locale secondo o Pareto. Denizione 2.4 Un vettore di decisioni x F ` un ottimo locale di Pareto se esiste un e numero > 0 tale che x ` ottimo secondo Pareto in F B(x , ). e In gura 1 si riportano gli ottimi globali e locali di Pareto per un insieme Z. Ovviamente, ogni ottimo globale ` anche un ottimo locale di Pareto. Il viceversa ` vero solo e e se facciamo alcune ipotesi sulla struttura del problema (MOP). Se (MOP) ` convesso cio` e e se i- linsieme ammissibile F ` convesso e e ii- tutte le funzioni obiettivo fi (x) (con i = 1, 2, . . . , k) sono convesse. allora si pu` dimostrare che ogni ottimo locale di Pareto ` anche un ottimo globale. o e Teorema 2.5 Sia (MOP) un problema di programmazione multiobiettivo convesso. Allora, ogni ottimo locale di Pareto ` anche un ottimo globale. e Dim. Sia x F un ottimo locale secondo Pareto del problema (MOP). Dalla denizione di ottimo locale segue che esiste un numero > 0 tale che x F B(x , ) t.c. f (x) f (x ) fj (x) < fj (x ) e per qualche j {1, 2, . . . , k}. 3
Equivalenza tra ottimi locali e globali di Pareto Ottimo locale di Pareto Frontiera ciente e-

Z2

Ottimi deboli di Pareto

Ottimi di Pareto Z1

Figure 2: Gli ottimi di Pareto sono individuati dalla linea doppia a tratto continuo. La linea tratteggiata individua invece gli ottimi deboli che non sono ottimi di Pareto. Ragioniamo per contraddizione e supponiamo che x non sia un ottimo globale. Se x non ` ottimo globale allora esiste un vettore x F tale che e f (x ) f (x ) fj (x ) < fj (x ) e per qualche i {1, 2, . . . , k}.

` Poich F ` convesso, per ogni (0, 1), x = x + (1 )x ` ammissibile. E inoltre e e e possibile trovare un valore di tale che x F B(x , ). Dalle ipotesi di convessit` sulle funzioni obiettivo segue che a f () f (x ) + (1 )f (x ) f (x ). x Siccome x ` un ottimo locale di Pareto, si deve necessariamente avere f () = f (x ), dato e x che per nessun indice i {1, 2, . . . , k} pu` essere fi () < fi (x ). Quindi possiamo scrivere o x f () = f (x ) f (x ) + (1 )f (x ), x ovvero f (x ) f (x ). Ricordando, per`, lipotesi fatta si dovrebbe contemporaneamente o avere fj (x ) > fj (x ) per qualche indice j, il che ` ovviamente una contraddizione. e 2 La denizione di ottimo secondo Pareto pu` essere leggermente indebolita ottenendo cos` la o denizione di ottimo debole secondo Pareto. Denizione 2.6 Un vettore x F ` un ottimo di Pareto debole per il problema (MOP) e se non esiste un punto x F tale che f (x) < f (x ). Ovviamente, linsieme degli ottimi secondo Pareto ` contenuto nellinsieme degli ottimi e deboli di Pareto. Anche qui, come gia si era fatto per gli ottimi di Pareto, ` possibile dare una denizione di e ottimo locale debole. e Denizione 2.7 Un vettore di decisioni x F ` un ottimo locale debole (secondo Pareto) se esiste un numero > 0 tale che x ` ottimo debole di Pareto in F B(x , ). e In gura 2 sono riportati, per maggiore chiarezza, ottimi e ottimi deboli secondo Pareto. Anche per gli ottimi deboli secondo Pareto vale una propriet` analoga a quelle espressa dal a teorema 2.5 e cio` se il problema (MOP) ` convesso ogni ottimo locale (debole) ` anche e e e ottimo globale (debole) di Pareto.
Ottimo locale debole di Pareto Ottimalit` debole a secondo Pareto

2 1

f
2

1 -1

id

-2

Ottimi di Pareto

F
1 2

Figure 3: Esempio

2.1

Esercizio
min (x1 + x2 , x1 x2 ) x2 + x2 2 1 2 x 0 1 x2 x2 0 1

Sia dato il seguente problema di ottimizzazione vettoriale:

(1)

In questo caso, in cui il vettore delle decisioni ha dimensione due, ` semplicissimo tracciare e la regione ammissibile nello spazio delle variabili di decisione. Inoltre, poich il vettore degli e obiettivi ha dimensione due e le funzioni obiettivo sono lineari, possiamo determinare la rappresentazione graca di Z = f (F). Vediamo nel dettaglio come fare. Le relazioni che dobbiamo prendere in considerazione sono le seguenti due trasformazioni lineari: z1 = f1 (x1 , x2 ) = x1 + x2 z2 = f2 (x1 , x2 ) = x1 x2 (2)

La regione ammissibile degli obiettivi ` ottenibile da quella delle decisioni mediante rotazione e e scalatura, come messo in evidenza dalla gura 3 Sempre per via graca, ` facile risolvere i sottoproblemi ad un solo obiettivo associati al e problema (1) che sono:
id z1= min x1 + x2 x2 + x2 2 1 2 x2 x2 0 1 x 0 1 id z2= min x1 x2 x2 + x2 2 1 2 x2 x2 0 1 x 0 1

x1 = (0, 0)

x2 = (0, 5

2)

ricavando, in tal modo, il vettore ideale degli obiettivi z id = (0, 2) . Notiamo subito che non essendo z id contenuto in Z = f (F), il problema vettoriale non ` risolvibile semplicee mente minimizzando separatamente le due funzioni obiettivo. ` E altres` facile individuare, in gura 3, la frontiera eciente secondo Pareto dellinsieme Z. Come ci aspettavamo, essendo il problema (1) convesso, tutti gli ottimi locali di Pareto sono anche globali.

Punti Ecienti e Punti Dominati

` E bene ribadire il fatto che nell ambito della programmazione vettoriale esistono vari modi di denire il concetto di ottimalit`. Questo dipende dal fatto che nello spazio delle k-uple a di numeri reali non esiste nessun ordinamento completo. Daltra parte, esistono molteplici modi di denire un ordinamento parziale tra le k-uple. Ciascuno di questi ordinamenti parziali induce una dierente denizione di ottimalit`. a In sezione 2 abbiamo visto come, sfruttando la relazione P sia possibile denire un ordinamento parziale su IRk e conseguentemente il concetto di ottimo secondo Pareto. Tuttavia, ` e possibile dotare IRk di altri ordinamenti parziali e quindi dare altre denizioni di ottimalit` a per il problema (MOP). In particolare vedremo come, sfruttando il concetto di cono, sia possibile generalizzare le denizioni di ottimo e ottimo debole secondo Pareto. Denizione 3.1 Un vettore y IRn ` combinazione conica di m vettori {x1 , x2 , . . . , xm } e di IRn quando ` possibile trovare m numeri reali 1 , 2 , . . . , m tali che: e
m

i xi = y
i=1

i 0

i = 1, 2, . . . , m

Denizione 3.2 Un insieme D IRk ` un cono se la combinazione conica dei vettori di e un qualsiasi sottoinsieme nito di D appartiene a D. Sia, quindi, D un cono nello spazio degli obiettivi IRk . D induce un ordinamento parziale nello spazio delle k-uple di numeri reali. Denizione 3.3 Presi due vettori z 1 e z 2 in IRk , diciamo che z 1 domina z 2 (z 1 D z 2 ) se z 2 z 1 D\{0}. Dalla denizione precedente segue che z 1 D z 2 se e solo se z 2 z 1 +(D\{0}) ovvero quando z 1 z 2 (D\{0}). Ovviamente, essendo lordinamento cos` denito, solamente parziale, esistono certamente coppie di vettori (z 1 , z 2 ) che non sono in relazione tra loro (tali che cio` e z 2 z 1 D\{0} e z 1 z 2 D\{0}). A questo punto possiamo dare la denizione di punto eciente rispetto ad un cono D. e Denizione 3.4 Un vettore di obiettivi z Z ` eciente rispetto ad un cono D se non esiste alcun vettore z Z tale che z D z ovvero se e solo se (z D\{0}) Z = . Corrispondentemente diciamo che un vettore di decisioni x F ` eciente rispetto ad un e cono D IRk se e solo se non esiste alcun vettore x F tale che f (x) D f (x ). In gura 4 sono riportati i punti ecienti rispetto ad un cono D. Notiamo che ponendo D = IRk (ortante positivo dello spazio degli obiettivi) si ottiene + esattamente la denizione di ottimalit` secondo Pareto vista in precedenza. a e Denizione 3.5 Un vettore di decisioni x F ` debolmente eciente rispetto ad un cono D IR se non esiste alcun vettore x F tale che risulti f (x ) f (x) D. 6
k

Punto eciente rispetto ad un cono

Ecienza debole

cono D

Punti efficienti rispetto al cono D

Figure 4: Frontiera eciente In maniera analoga avremmo potuto denire x F debolmente eciente rispetto a D quando risulti (f (x ) D) Z = . Scegliendo D = IRk , ritroviamo nuovamente la denizione di ottimo debole secondo Pareto. + Anche per i punti ecienti valgono considerazioni analoghe a quelle fatte per gli ottimi di Pareto. Quindi, se le funzioni obiettivo fi (x) sono continue, essi si trovano sicuramente sulla frontiera della regione amissibile F.

Condizioni di Ottimalit` a

Nelle sezioni precedenti abbiamo dato delle denizioni fondamentali della programmazione multiobiettivo. In particolare, dato che lo spazio delle k-uple di numeri reali ` solo parziale mente ordinato, abbiamo dovuto denire cosa si intende per minimo di un vettore di funzioni. Abbiamo altres` visto che le denizioni di ottimo e di ottimo debole secondo Pareto non sono le uniche che ` possibile dare e che, anzi, queste sono un caso particolare di una denizione e pi` generale, quella di punto eciente rispetto ad un cono. u Quello che dobbiamo fare ora, ` dare una caratterizzazione analitica dei punti di ottimo e secondo Pareto. Come vedremo, tutte le condizioni di ottimo per la programmazione multiobiettivo, comprendono come caso particolare quelle per la programmazione nonlineare (con una sola funzione obiettivo). Per ulteriori approfondimenti sullargomento di questa sezione si rimanda al testo [3] citato in bibliograa. Nel seguito consideriamo un problema in cui F ` denito da vincoli di disuguaglianza; cio`: e e min f (x) g(x) 0 (P)

ove f : IRn IRk (k 2) e g : IRn IRm sono funzioni continuamente dierenziabili ed F assume la seguente struttura: F = {x IRn : g(x) 0}. Indichiamo con I0 (x) = {i : gi (x) = 0} linsieme degli indici dei vincoli attivi nel punto x. Sia, inoltre, L : IRnkm IR cos` denita L(x, , ) = f (x) + g(x), 7

la funzione Lagrangiana associata al problema (P). Per completezza richiamiamo brevemente il teorema dellalternativa di Gordan che utilizzeremo nel dare le condizioni necessarie di ottimo secondo Pareto. Teorema 4.1 (Gordan) Uno ed uno solo dei seguenti due sistemi ammette soluzione: Bz < 0, B y=0 y 0, y = 0 2

dove B IRsn , z IRn e y IRs .

4.1

Condizioni di Fritz-John

Denizione 4.2 (direzione ammissibile) Dato un punto x F, una direzione ammis sibile in x ` un vettore d IRn (d = 0) per cui esiste un > 0, tale che e x + d F (0, ). Quindi se dal punto x ci spostiamo di poco lungo la direzione individuata dal vettore d andiamo su punti che sono ancora ammissibili. Indichiamo con C() = d IRn | d = 0, x + d F (0, ) per qualche > 0 x linsieme di tutte le direzioni ammissibili in x. Denizione 4.3 (direzione eciente) Dato un punto x F, una direzione eciente in x ` un vettore d IRn (d = 0) per cui esiste un > 0, tale che e f ( + d) P f () (0, ). x x Pertanto, spostandoci da x lungo la direzione individuata dal vettore d e per spostamenti sucientemente piccoli, siamo certi di trovare punti che migliorano il valore di almeno una funzione obiettivo senza, al tempo stesso, peggiorare il valore delle rimanenti. Indichiamo con F () = d IRn | d = 0, f ( + d) P f () (0, ) e qualche > 0 x x x linsieme di tutte le direzioni ecienti in x. Evidentemente, se x ` un ottimo (locale o globale) di Pareto risulter` C() F () = cio` e a x x e nessuna direzione ammissibile porta a punti tali che f (x) P f (). x Fin qui abbiamo dato una caratterizzazione geometrica dei punti di ottimo secondo Pareto. Quello che adesso vogliamo fare ` caratterizzare analiticamente gli ottimi di Pareto. Per e fare questo deniamo i seguenti altri due insiemi: F0 () x = d IRn |
n

fi () d < 0, i = 1, 2, . . . , k , x gj () d < 0, j I0 ()}. x x

G0 () = d IR | x

` E facile dimostrare che, per ogni x F, risulta G0 (x) C(x) e F0 (x) F (x) (cfr. [3]) e quindi che: condizione necessaria anch il punto x F sia ottimo di Pareto (locale o e globale) ` che risulti: G0 () F0 () = . e x x Con queste premesse, possiamo facilmente dimostrare il teorema di Fritz-John per la programmazione multiobiettivo (cfr. [1], [3]). 8

Teorema 4.4 Condizione necessaria anch x F sia ottimo secondo Pareto ` che esie e stano dei vettori IRk e IRm tali che sia soddisfatto il seguente sistema:
k m

CN di Fritz-John

i fi () + x
i=1 j=1

j gj () = 0 x

(3a) (3b) (3c)

g() = 0, x (, ) 0, (, ) = (0, 0)

Esempio di punto che soddisfa le condizioni necessarie di ottimalit`. a

Esempio di punto che NON soddisfa le condizioni necessarie di ottimalit`. a

Dim. Essendo x un ottimo di Pareto del problema (P) risulta necessariamente G0 () x F0 () = cio` ` inammissibile il seguente sistema: x ee fi () d < 0 x gj () d < 0 x Ponendo B = i = 1, 2, . . . , k j I0 (). x e sfruttando il teorema dellalternativa di Gordan,
i = 1, . . . , k j I0 () x

fi () x gj () x

sappiamo che esistono dei numeri i 0 (i = 1, 2, . . . , k) e j 0 (j I0 ()) non tutti nulli x e tali che
k

i fi () + x
i=1 jI0 () x

j gj () = 0. x

(4)

Sia ora IRm un vettore cos` fatto: i = i 0 i I0 () x i I0 () x

Ovviamente, per come ` stato denito il vettore , risulta g() = 0. Quindi abbiamo e x dimostrato che esistono dei vettori e tali che ` soddisfatto il sistema (3). e 2 a Corollario 4.5 Le condizioni del teorema 4.4 sono necessarie anche per lottimalit` debole (secondo Pareto) di un punto x. 2 Denizione 4.6 (tripla di FJ) Una tripla (x, , ) IRnkm ` una tripla di Fritz-John e

quando soddisfa il sistema (3) cio`: e


x L(x, , )

=0

g(x) 0 g(x) = 0 (, ) 0 (, ) = (0, 0). Denizione 4.7 (punto di FJ) Un vettore di decisioni x IRn ` un punto di FJ se ese istono dei vettori IRk e IRm tali che (x, , ) ` una tripla di FJ. e

4.2

Condizioni di Karush-Kuhn-Tucker

In base alle denizioni precedenti e ricordando che il teorema di Gordan d` condizioni a necessarie e sucienti di ammissibilit` (o inammissibilit`), possiamo dire che sono punti di a a FJ tutti e soli i vettori x F tali che F0 (x) G0 (x) = . In particolare, questa condizione ` vera in ogni x ammissibile tale che G0 () = , indipendentemente dai valori delle funzioni e x obiettivo. Motivati da questa considerazione introduciamo in questo paragrafo le condizioni di KKT con le quali in pratica forziamo i gradienti di alcune funzioni obiettivo ad avere un peso non nullo nellespressione (3a). A questo proposito vale la seguente propriet`: a Proposizione 4.8 Sia x un punto di FJ per il problema (P) tale che G0 () = . Si x dimostra che i moltiplicatori di FJ associati alle funzioni obiettivo non possono essere tutti nulli ( = 0). Dim. Ragioniamo per contraddizione e supponiamo che risulti = 0. Sotto tali ipotesi, il teorema 4.4 ci assicura che esiste un vettore IRm tale che
m

j gj () = 0, x
j=1

(5a) (5b) (5c)

g() = 0, x 0, = 0.

Dalla (5b) segue che j = 0 per ogni indice j tale che gj () < 0 (cio` per ogni j I0 ()). x e x Possiamo dunque riscrivere il sistema (5) come j gj () = 0, x
jI0 () x

I0 0,

I0 = 0.

Ponendo B = gj () jI0 () e sfruttando il teorema dellalternativa di Gordan otteniamo x x G0 () = , il che ` ovviamente assurdo. x e 2 La condizione G0 () = ` una condizione sul comportamento dei vincoli del problema (P) x e nellintorno del punto di ottimo x. Proposizione 4.9 Condizione suciente anch nel punto x F risulti G0 () = ` che e x e siano linearmente indipendenti i gradienti dei vincoli attivi. Dim. Vedi appendice. 2
LICQ

Denizione 4.10 Un punto ammissibile x F ` un punto di regolarit` per i vincoli del e a problema (P) se in x risulta G0 (x) = . 10

La proposizione 4.9 ci permette di certicare la regolarit` di un punto ammissibile e dia mostrare (cfr. [1], [3]) il seguente Teorema 4.11 Sia x un punto ammissibile per il problema (P) e siano linearmente in dipendenti i gradienti dei vincoli attivi in x. Allora, condizione necessaria anch x sia un e ottimo di Pareto (locale o globale) ` che sia ammissibile il seguente sistema: e
k m

CN di KKT

i fi () + x
i=1 j=1

j gj () = 0, x

(6a) (6b) (6c) 2

g() = 0, x (, ) 0, = 0. Dim. La dimostrazione ` lasciata per esercizio al lettore (vedi appendice). e

Corollario 4.12 Le condizioni del teorema 4.11 sono necessarie anche per lottimalit` dea bole (secondo Pareto) di un punto x. 2 Le condizioni di KKT (come quelle di FJ) sono condizioni solo necessarie di ottimo il che ` vuol dire che potrebbero essere vericate anche in punti non ottimi secondo Pareto. E tuttavia possibile dare condizioni sucienti di ottimalit`, senza ricorrere alluso delle derivate a seconde, a patto per` di fare alcune ipotesi aggiuntive sulla struttura del problema (P). o Teorema 4.13 Siano le fi (x) (per ogni i = 1, 2, . . . , k) e gj (x) (per ogni j = 1, 2, . . . , m) convesse. Condizione suciente anch un punto x F sia ottimo secondo Pareto ` che e e esistano dei vettori di moltiplicatori IRk e IRm tali che x x L(, , ) = 0, g() = 0, x > 0, 0. (7a) (7b) (7c)
CS di ottimo secondo Pareto

Dim. Siano e dei vettori tali che sia soddisfatto il sistema (7). Deniamo, sfruttando i moltiplicatori i , la funzione ausiliaria
k

F (x) =
i=1

i fi (x).

Ovviamente, la funzione F (x) ` convessa (combinazione conica di funzione convesse). Seme pre dal sistema (7) otteniamo
m

F () + x
j=1

j gj () = 0, x

g() = 0, 0. x In pratica, sono vericate le condizioni sucienti anch la funzione F (x) abbia in x un e minimo globale e quindi risulta F () F (x) per ogni x F. x Supponiamo ora che il punto x non sia un minimo di Pareto per il problema (P). Se x non ` ottimo allora, dalla denizione, deve esistere un punto x F tale che e fi (x) fi () i = 1, 2, . . . , k x fj (x) < fj () per qualche j {1, 2, . . . , k}. x Siccome ogni i ` positivo per ipotesi, questo vuol dire che i=1 i fi (x) < e che contraddice il fatto che x ` un minimo globale della F (x). e
k k i=1

i fi () il x 2

11

Si noti che nelle condizioni sucienti di KKT appena viste si richiede che tutti i moltiplicatori delle funzioni obiettivo siano strettamente positivi mentre nelle condizioni necessarie almeno un i ` strettamente positivo. e Per quanto riguarda i punti di ottimo debole secondo Pareto, ` possibile stabilire, sempre e sotto le ipotesi di convessit`, un risultato ancora pi` forte. Per tali punti si possono dare a u condizioni necessarie e sucienti di ottimo. Teorema 4.14 Siano le fi (x) (per ogni i = 1, 2, . . . , k) e gj (x) (per ogni j = 1, 2, . . . , m) convesse. Condizione necessaria e suciente anch un punto x F sia ottimo debole e secondo Pareto ` che esistano dei moltiplicatori IRk e IRm tali che e x x L(, , ) = 0, g() = 0, x (, ) 0, = 0. Dim. La dimostrazione ` molto simile a quella del teorema 4.13, ed ` lasciata per esercizio e e al lettore (vedi appendice).
CNS di KKT

Metodi di Soluzione

Generare le soluzioni ottime secondo Pareto costituisce una parte essenziale della programmazione vettoriale ed anzi, matematicamente parlando, nella maggior parte dei casi, il problema (P) si considera risolto una volta che sia stato individuato linsieme degli ottimi di Pareto. Tuttavia, non sempre ci si pu` accontentare semplicemente di aver trovato linsieme o degli ottimi secondo Pareto. Alcune volte ` infatti necessario ordinare tutte le soluzioni e trovate e quindi selezionare la migliore rispetto a tale ordinamento. Per questo motivo abbiamo bisogno di un decisore cio` di qualcuno che ci dica, in base alle sue preferenze, come e ordinare linsieme degli ottimi di Pareto del problema (P). In base al ruolo svolto dal decisore nella strategia di soluzione del problema, i metodi risolutivi della programmazione multiobiettivo vengono spesso suddivisi in quattro grandi categorie. Metodi senza preferenze nei quali il decisore non ha nessun ruolo e si considera soddisfacente laver trovato un qualunque ottimo di Pareto. Metodi a posteriori nei quali si genera linsieme di tutti gli ottimi di Pareto e poi lo si presenta al decisore che sceglie la soluzione per lui migliore. Metodi a priori nei quali il decisore specica le sue preferenze prima che abbia inizio il processo risolutivo. In base alle informazioni avute dal decisore viene direttamente trovata la soluzione ottima migliore, senza dover dunque generare tutti gli ottimi di Pareto. Metodi interattivi nei quali il decisore specica le sue preferenze mano a mano che lalgoritmo procede, guidando in tal modo il processo risolutivo verso la soluzione per lui pi` soddisfacente. u Al di l` di questa distinzione, tutti i metodi di soluzione per la programmazione multioa biettivo si basano sulla medesima idea di fondo, ovvero quella di trasformare il problema originario in uno con una sola funzione obiettivo. La tecnica mediante la quale si ottiene il problema mono obiettivo a partire dal problema (P) ` nota come scalarizzazione. e

12

5.1

Metodi Senza Preferenze

Nei metodi senza preferenze ci si accontenta di generare una soluzione ottima di Pareto, qualunque essa sia, senza tenere in considerazione le indicazioni del decisore. Il metodo che presentiamo ` noto come metodo GOAL (cfr. [1, sez. 2.1]). Quello che e si fa ` cercare la soluzione che minimizza, nello spazio degli obiettivi, la distanza tra la e regione ammissibile (Z) e un qualunque punto di riferimento z ref Z = f (F). Il vettore di riferimento sar` costituito dai valori auspicabili per le singole funzioni obiettivo. In a particolare, una possibile scelta di z ref ` z ref = z id . Il problema che otteniamo ` perci` il e e o seguente: min f (x) z id g(x) 0
p

(Pp )

ove p indica la norma p di un vettore (con 1 p ). In particolare, se p = , il problema (Pp ) ` noto come problema di Tchebyche. Supponiamo di conoscere il vettore e ideale globale degli obiettivi. Sotto tali ipotesi, il problema (Pp ) ammette sempre soluzione. Valgono le seguenti propriet`. a Proposizione 5.1 Ogni soluzione globale del problema (Pp ) (con 1 p < ) ` un ottimo e globale di Pareto per il problema (P). Dim. Sia x una soluzione globale di (Pp ) e supponiamo, per assurdo, che non sia un ottimo globale di Pareto. Deve allora esistere un punto ammissibile x F tale che fi (x) fi (x ) i = 1, 2, . . . , k fj (x) < fj (x ) per qualche j {1, 2, . . . , k}. Dalle precedenti disuguaglianze otteniamo che fi (x) z id fi (x ) z id i = 1, 2, . . . , k fj (x) z id < fj (x ) z id per qualche j {1, 2, . . . , k}. e quindi, sommando ed elevando alla potenza p-esima
k p k p

fi (x) z id
i=1

<
i=1

fi (x ) z id 2

il che ` ovviamente assurdo, dovendo essere x minimo globale del problema (Pp ). e Estendiamo ora il risultato precedente al caso dei minimi locali (cfr. [1]).

Proposizione 5.2 Ogni ottimo locale del problema (Pp ) (con 1 p < ) ` un ottimo e locale di Pareto per il problema (P). 2 Nel caso in cui p = vale invece la seguente propriet` (cfr. [1]). a Proposizione 5.3 Ogni ottimo locale (globale) del problema di Tchebyche (P ) ` un ote timo locale (globale) debole di Pareto del problema (P). 2 Tuttavia, la seguente proposizione, ci assicura lesistenza di almeno una soluzione di (P ) ottima secondo Pareto per il problema (P). e Proposizione 5.4 Il problema di Tchebyche (P ) ha almeno una soluzione che ` ottima secondo Pareto. 2 13

Le scelte di p = 1 e p = sono particolarmente vantaggiose nel caso in cui il problema multiobiettivo originario ` lineare (fi (x), gj (x) lineari per ogni i e j). Mediante semplici e manipolazioni sul problema (Pp ) ` infatti possibile ottenere ancora un problema lineare e e quindi adottare le ben note tecniche della PL per la sua soluzione. Supponiamo che (P) sia lineare ovvero min (c1 x, c2 x, . . . , ck x) Ax b Norma p = 1. Il problema scalarizzato
k

min
i=1

id |ci x zi |

Ax b pu` essere facilmente trasformato in un problema di PL con laggiunta di k variabili ausiliarie, o i per i = 1, 2, . . . , k, ottenendo:
k

min
i=1

i
id |ci x zi | i

i = 1, 2, . . . , k

Ax b Norma p = . In questo caso, il problema scalarizzato min


i=1,...,k id max {|ci x zi |}

Ax b pu` essere facilmente trasformato in un problema di PL con laggiunta di una sola variabile o ausiliaria, , ottenendo: min
id |ci x zi |

i = 1, 2, . . . , k

Ax b 5.1.1 Esempio

Si consideri il seguente problema di programmazione multiobiettivo: min 1 , x2 ) (x x2 + x2 1 2 1 0 x1 2 0x 2


2

(Pes )

In questo esempio, vedi gura 5, le regioni ammissibili nello spazio delle variabili di decisione ed in quello degli obiettivi coincidono essendo z1 = x1 z2 = x2 14

x2

0000000000000000 1111111111111111 0000000000000000 1111111111111111 0000000000000000 1111111111111111 0000000000000000 1111111111111111 0000000000000000 1111111111111111 0000000000000000 1111111111111111 0000000000000000 1111111111111111 F 0000000000000000 1111111111111111 0000000000000000 1111111111111111 0000000000000000 1111111111111111 0000000000000000 1111111111111111 0000000000000000 1111111111111111 0000000000000000 1111111111111111 0000000000000000 1111111111111111 0000000000000000 1111111111111111 0000000000000000 1111111111111111 1111111111111111 0000000000000000
1

x1

Figure 5: Regione ammissibile

1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000
(a)

1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000
(b)

1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000
(c)

1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000
(d)

Figure 6: Dierenti soluzioni in corrispondenza a dierenti tipi di norme.

15

Possiamo inoltre facilmente calcolare il vettore ideale degli obiettivi ottenendo cos` z id = : (0, 0) . In gura 6a sono riportati gli ottimi di Pareto del problema (Pes ). A questo punto applichiamo il metodo GOAL con p = 1, 2, . p = 1. Il problema scalarizzato con questo tipo di norma ha due soluzioni (vedi gura 6b). p = 2. Il problema che otteniamo usando la norma euclidea ha innite soluzioni (come si vede in gura 6c) e cio` tutte le soluzioni del problema (Pes ). e p = . Il problema di Tchebyche ha una sola soluzione (vedi gura 6d)

5.2

Metodi a Posteriori

I metodi appartenenti a questa classe sono anche noti come metodi per generare linsieme delle soluzioni di Pareto. Infatti, siccome le preferenze del decisore vengono considerate solo al termine del processo risolutivo, quello che si fa ` generare tutti i punti ottimi sece ondo Pareto. Una volta che linsieme delle soluzioni di Pareto ` stato generato, esso viene e presentato al decisore che seleziona il o i vettori per lui migliori. Linconveniente principale di questa strategia sta nel fatto che il processo di generazione degli ottimi di Pareto `, molto spesso, computazionalmente oneroso. Inoltre, potrebbe non essere e semplice, per il decisore, scegliere una soluzione tra gli ottimi che gli vengono presentati, in special modo se questi sono numerosi. Per questo motivo, ` molto importante il modo con e il quale le soluzioni vengono presentate al decisore. 5.2.1 Metodo dei Pesi (cfr. [1, sez. 3.1])

Consideriamo il seguente problema


k

min
i=1

wi fi (x) g(x) 0

(Pw )

ove w IRk e i coecienti wi si intendono normalizzati cio` tali che e +


k

wi = 1.
i=1

Esiste una relazione tra le soluzioni di (Pw ) e i punti di Pareto di (P). La seguente proposizione mette in evidenza proprio questa relazione (cfr. [1]). Proposizione 5.5 Ogni soluzione locale (globale) del problema (Pw ) ` un ottimo debole e locale (globale) di Pareto per il problema (P). 2 Nel caso in cui il problema (Pw ) ammette una unica soluzione allora si pu` stabilire un o risultato un po pi` forte del precedente (cfr. [1]). u Proposizione 5.6 Se il problema (Pw ), ssato il vettore dei pesi w 0, ammette una unica soluzione allora essa ` un ottimo di Pareto per il problema (P). e

16

Dim. Sia x F lunica soluzione di (Pw ) e supponiamo, per assurdo, che x non sia un ottimo di Pareto di (P). In tal caso deve necessariamente esistere un altro punto x F tale che fi (x) fi (x ) i = 1, 2, . . . , k fj (x) < fj (x ) per qualche j {1, 2, . . . , k}. (8)

Ricordando che i pesi wi sono nonnegativi abbiamo, moltiplicando ciascuna delle (8) per wi e sommando tutto quanto, che
k k

wi fi (x)
i=1 i=1

wi fi (x ).

(9)

Siccome, per`, x ` lunico punto di minimo di (Pw ) risulta o e


k k

wi fi (x ) <
i=1 i=1

wi fi () F x x 2

che ` ovviamente in contrasto con la (9). e

Allo stesso modo, se i pesi wi sono tutti strettamente positivi ` possibile dimostrare la e seguente Proposizione 5.7 Se wi > 0 per ogni indice i, ogni soluzione locale (globale) del problema (Pw ) ` un ottimo locale (globale) di Pareto per il problema (P). e 2 Nellipotesi in cui il problema multiobiettivo (P) ` convesso, ` possibile stabilire la seguente e e propriet` di esistenza (cfr. [1]) a Proposizione 5.8 Sia x un ottimo di Pareto per il problema (P). Se (P) ` convesso allora e esistono dei pesi w IRk con +
k

wi = 1
i=1

e tali che x ` soluzione anche del problema (Pw ). e 5.2.2 Metodo degli -vincoli (cfr. [1, sez. 3.2])

Si seleziona una funzione obiettivo fl (x) tra gli obiettivi di (P) e poi si trasformano tutte le altre funzioni fi (x) (con i = 1, 2, . . . , k i = l) in vincoli, imponendo degli upper bound sui loro valori. Il problema che otteniamo ` allora il seguente: e min fl (x) fi (x) i g(x) 0 ove l {1, 2, . . . , k}. Proposizione 5.9 (cfr. [1]) Ogni soluzione di (P ) ` un ottimo debole secondo Pareto per e il problema (P). 2 La prossima proposizione fornisce condizioni necessarie e sucienti di ottimalit` (secondo a Pareto) per il problema (P) delle soluzioni di (P ). 17 i = 1, 2, . . . , k i = l (P )

Proposizione 5.10 Un vettore x F ` ottimo secondo Pareto di (P) se e solo se ` e e soluzione di (P ) per ogni scelta di l {1, 2, . . . , k} ed essendo i = fi (x ) con i = l. Dim. (Necessit`) Sia x un otimo di Pareto di (P) e supponiamo per assurdo che esso non a sia soluzione del problema (P ) per qualche l {1, 2, . . . , k} con i = fi (x ) (per ogni i = l). Se questo ` vero, allora deve esistere un punto x F tale che: e fl (x) < fl (x ) e fi (x) i = fi (x ) i = l. Pertanto abbiamo ottenuto che x non ` un ottimo di Pareto per (P), il che ` assurdo. e e (Sucienza) Sia ora x F una soluzione di (P ) per ogni l {1, 2, . . . , k}. Da questo fatto segue che allora non pu` esistere alcun vettore x F tale che o fl (x) < fl (x ) e fi (x) fi (x ) = i i = l. Il punto x ` quindi, in base alle precedenti relazioni, Pareto ottimo. e 2

Proposizione 5.11 (cfr. [1]) Se il punto x F ` lunica soluzione del problema (P ) per e qualche l {1, 2, . . . , k} e con j = fj (x ) per ogni j = l allora esso ` Pareto ottimo per il e problema (P). 2

5.3

Metodi a Priori

Nei metodi a priori il decisore ci fornisce le informazioni di cui abbiamo bisogno prima che il processo risolutivo abbia inizio. Una volta ottenute queste informazioni lalgoritmo si ferma solo quando ` stato individuato un ottimo di Pareto. Di seguito presentiamo due metodi a e priori e precisamente il metodo della Value Function e il metodo lessicograco. 5.3.1 Metodo della value function (cfr. [1, sez. 4.1])

Il decisore specica lespressione analitica di una funzione di utilit` degli obiettivi U (z). il a problema da risolvere ` pertanto il seguente e min U (f (x)) g(x) 0 (PU )

Notiamo che se la U (z) fosse una funzione lineare otterremmo nuovamente il problema (Pw ) del metodo dei pesi. Mentre per` il metodo dei pesi ` un metodo a posteriori, in cui o e si vogliono generare tutte le soluzioni di Pareto (cambiando di volta in volta i pesi wi ), il metodo della value function ` un metodo a priori, in cui cio` il decisore ci comunica le e e sue preferenze imponendo attraverso i pesi wi le utilit` relative delle funzioni obiettivo. La a funzione U (z), nel caso generale, potrebbe non essere lineare. 5.3.2 Metodo dellordinamento lessicograco (cfr. [1, sez 4.2])

Il decisore ordina le funzioni obiettivo in base alla loro importanza relativa. Una volta che le funzioni obiettivo siano state ordinate, il processo risolutivo inizia con la minimizzazione della prima funzione obiettivo sullinsieme ammissibile originario F, cio` si risolve e il problema min f1 (x) g(x) 0 18 (P1)

Se il problema (P1) ha ununica soluzione allora questa ` anche soluzione di (P) e e lalgoritmo termina. Altrimenti si minimizza la seconda funzione obiettivo nellordinamento lessicograco. Questa volta per` oltre ai vincoli originari, si aggiunge un ulteriore vincolo o il cui scopo ` quello di garantire che allottimo non peggiori il valore della prima funzione e obiettivo. Il problema ` quindi il seguente e min f2 (x) f1 (x) f1 (x1 ) g(x) 0 ove x1 ` la soluzione di (P1). Se (P2) ha ununica soluzione ci si ferma, altrimenti si procede e come prima, selezionando la successiva funzione obiettivo nellordinamento assegnato dal decisore. Al generico passo h k avremo il seguente problema min fh (x) fi (x) fi (xh1 ) i = 1, 2, . . . , h 1 g(x) 0 ove xi ` una soluzione del problema (Pi ). e e Proposizione 5.12 Ogni soluzione ottenuta con il metodo lessicograco ` ottima secondo Pareto per il problema (P). Dim. Supponiamo per assurdo che la soluzione x ottenuta con il metodo lessicograco non sia un ottimo di Pareto e che esista, quindi, un vettore x F tale che f (x) f (x ) fj (x) < fj (x ) per qualche j {1, 2, . . . , k}. Nel determinare la soluzione x ci sono due sole alternative possibili: e e il punto x viene determinato in una minimizzazione intermedia, cio` x ` lunico punto di minimo di (Pi ) per qualche i {1, 2, . . . , k}; tutte le minimizzazioni intermedie vengono eettuate senza mai trovare una unica soluzione. Nella seconda ipotesi, abbiamo che per ogni i = 1, 2, . . . , k fi (x ) fi (x) x F che insieme con la (10) ci da fi (x ) = fi (x) x F che ` in contrasto con la (11). e Nella prima ipotesi, invece, abbiamo che x ` lunico punto di minimo di un problema e intermedio, sia esso (Pi ). Quindi abbiamo che fi (x ) < fi (x) x = x che, ancora una volta, ` in contrasto con la (10). e 2 (10) (11) (Ph ) (P2)

19

5.4

Metodi Interattivi

Lo schema generale di un metodo interattivo ` il seguente e (1) Trova una soluzione ammissibile iniziale, (2) Presenta la soluzione trova al decisore, (3) Se la soluzione trovata va bene allora STOP. Altrimenti, sulla base delle indicazioni ottenute, trova una nuova soluzione e torna al punto (2). Il metodo che presentiamo di seguito ` noto con il nome di STEP method. e 5.4.1 STEP method (cfr. [1, sez. 5.5])

Supponiamo che in un punto ottimo secondo Pareto il decisore sappia indicare quali funzioni obiettivo hanno un valore accettabile e quali no. Supponiamo inoltre che tutte la funzioni obiettivo siano limitate sulla regione ammissibile. Ad ogni iterazione del metodo un ottimo di Pareto viene presentato al decisore che sulla base delle sue conoscenze e dei valori delle funzioni obiettivo nel punto corrente, specica le funzioni obiettivo per le quali ` accettabile un aumento del valore al ne di poter ulteriormente e ridurre i valori delle restanti funzioni. In sostanza, linsieme degli indici J = {1, 2, . . . , k} viene partizionato, ad ogni iterazione, in due sottoinsiemi 1. J< , insieme degli indici delle f.ob. i cui valori sono insoddisfacienti per il decisore e 2. J> = J\J< . Se J< = allora lalgoritmo si ferma avendo trovato lottimo di Pareto che meglio soddisfa il decisore. Altrimenti si chiede al decisore di specicare dei bounds i sulle funzioni obiettivo con indici in J> e quindi si risolve il problema min
iJ<
1 p

id |fi (x) zi |p

fi (x) i fi (x) fi (x ) g(x) 0

i J> i J<

ove 1 p < e x ` lottimo di Pareto trovato nella iterazione precedente. e Notiamo che lalgoritmo si deve fermare, al ne di evitare problemi di ciclaggio, anche quando ` vuoto linsieme J> cio` quando tutte le funzioni obiettivo hanno valori insoddisfacienti. e e Lalgoritmo ` quindi il seguente: e

20

Algoritmo STEP (1) Con il metodo GOAL (o un qualunque altro metodo) si trova un primo ottimo di Pareto x1 F e si pone h = 1.
h h h (2) Si chiede al decisore di partizionare linsieme J in J> e J< ; Se J> = oppure h J< = allora vai al punto (4).

(3) Risolvi il problema min


h iJ< 1 p

id |fi (x) zi |p h i J> h i J<

fi (x) h i fi (x) fi (xh ) g(x) 0

(12)

con 1 p < . Sia xh+1 la soluzione di (12). Si pone h = h + 1 e si torna al punto (2). (4) Si pone x = xh e STOP.

6
6.1

Appendice
Dimostrazione della proposizione 4.9

La dimostrazione ` per assurdo. Supponiamo, cio`, che nel punto x risulti G0 () = . Questo e e x vuol dire (semplicemente richiamando la denizione dellinsieme G0 (x)) che il sistema gj () d < 0 x j I0 () x

` inammissibile. Per il teorema di Gordan esistono dei numeri j non tutti nulli e tali che e j gj () = 0 x
jI0 () x

j 0

j I0 (). x gj () (con j I0 ()) sono x x

Questo fatto ` ovviamente assurdo dato che per ipotesi i vettori e linearmente indipendenti.

6.2

Dimostrazione del teorema 4.11

Per ipotesi abbiamo che x ` un ottimo di Pareto e che G0 () = (cio` x ` un punto di e x e e regolarit` per i vincoli del problema (P)). a La tesi segue banalmente sfruttando le condizioni necessarie di FJ e la proposizione 4.8.

6.3

Dimostrazione del teorema 4.14

La dimostrazione della necessit` ` banale se consideriamo il fatto che le condizioni necessarie ae di KKT valgono anche per punti di ottimo debole secondo Pareto. La dimostrazione della sucienza ` analoga a quella del teorema 4.13. Deniamo, infatti, e k sfruttando i moltiplicatori i la funzione F (x) = i=1 i fi (x) che, in quanto combinazione 21

conica di funzioni convesse ` a sua volta convessa. Ragionando come nel teorema 4.13 e abbiamo che valgono per la F (x) le condizioni sucienti di ottimalit`. Il punto x ` un a e ottimo globale per la F (x) e quindi risulta F () F (x) x F . x Supponiamo, per assurdo, che x non sia un ottimo debole di Pareto per il problema (P). In questo caso dovr` esistere un altro punto ammissibile x F tale che a fi (x) < fi () i = 1, 2, . . . , k. x A questo punto, esistendo almeno un indice j tale che j > 0 per ipotesi, dalle precedenti relazioni otteniamo
k k

i fi (x) <
i=1 i=1

i fi () x

che ` in contrasto con il fatto che la F (x) ha in x un punto di ottimo globale. e

Contents
1 Introduzione 2 Ottimalit` secondo Pareto a 2.1 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Punti Ecienti e Punti Dominati 1 2 5 6

4 Condizioni di Ottimalit` a 7 4.1 Condizioni di Fritz-John . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 4.2 Condizioni di Karush-Kuhn-Tucker . . . . . . . . . . . . . . . . . . . . . . . . 10 5 Metodi di Soluzione 5.1 Metodi Senza Preferenze . . . . . . . . . . . . . . . . . . . . . . 5.1.1 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Metodi a Posteriori . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1 Metodo dei Pesi (cfr. [1, sez. 3.1]) . . . . . . . . . . . . 5.2.2 Metodo degli -vincoli (cfr. [1, sez. 3.2]) . . . . . . . . . 5.3 Metodi a Priori . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.1 Metodo della value function (cfr. [1, sez. 4.1]) . . . . 5.3.2 Metodo dellordinamento lessicograco (cfr. [1, sez 4.2]) 5.4 Metodi Interattivi . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.1 STEP method (cfr. [1, sez. 5.5]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 13 14 16 16 17 18 18 18 20 20

6 Appendice 21 6.1 Dimostrazione della proposizione 4.9 . . . . . . . . . . . . . . . . . . . . . . . 21 6.2 Dimostrazione del teorema 4.11 . . . . . . . . . . . . . . . . . . . . . . . . . . 21 6.3 Dimostrazione del teorema 4.14 . . . . . . . . . . . . . . . . . . . . . . . . . . 21

22

References
[1] K. Miettinen, Nonlinear Multiobjective Optimization, Kluwer Academic Publishers, Boston, 1999. [2] V. Pareto, Cours deconomie Politique, Rouge, Lausanne, Switzerland, 1896. [3] M.S. Bazaraa, H.D. Sherali, C.M. Shetty, Nonlinear Programming: Theory and Algorithms , Wiley, New York, 1979.

23

Vous aimerez peut-être aussi