Vous êtes sur la page 1sur 35

Introduction

Analyse Multivoque
Set-Valued Optimization
Conclusion

Introduction à l’Optimisation Multivoque


Travaux d’Etude et de Recherche, Master 1

James LARROUY
Sous la direction du : Pr. Michel H. GEOFFROY

Université des Antilles


Département de Mathématiques et Informatique
U.F.R Sciences Exactes et Naturelles

Soutenance:
Vendredi 31 Mai 2019

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Analyse Multivoque
Set-Valued Optimization
Conclusion

Plan de la présentation

1 Introduction

2 Analyse Multivoque

3 Set-Valued Optimization

4 Conclusion

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Historique de l’Optimisation
Analyse Multivoque
Problème d’optimisation : formulation et classification
Set-Valued Optimization
Avantages de l’Optimisation linéaire
Conclusion

Rappel du plan

1 Introduction
Historique de l’Optimisation
Problème d’optimisation : formulation et classification
Avantages de l’Optimisation linéaire

2 Analyse Multivoque

3 Set-Valued Optimization

4 Conclusion

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Historique de l’Optimisation
Analyse Multivoque
Problème d’optimisation : formulation et classification
Set-Valued Optimization
Avantages de l’Optimisation linéaire
Conclusion

Historique de l’Optimisation

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Historique de l’Optimisation
Analyse Multivoque
Problème d’optimisation : formulation et classification
Set-Valued Optimization
Avantages de l’Optimisation linéaire
Conclusion

Exemple de formulation d’un problème d’Optimisation

On considère le problème d’optimisation avec contrainte suivant :


(
J(x ) = min J(x ) J : Ω −→ R
(P) : x ∈Ω
Ω = {x ∈ R|Hi (x ) ≤ 0, ∀i = J1 ; mK}
Un formulation pratique de ce problème est :

J : RP −→ R
(
J(x ) = min J(x )
(P) : x ∈Ω⊆RP
avec H(x ) ≤ 0 H : RP −→ Rm

Remarque : si Ω = Rp alors ce problème sera qualifié de Problème


d’Optimisation Convexe car Rp et Ω = {x ∈ RP | H(x ) ≤ 0} est sont
tout deux des ensembles convexes.

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Historique de l’Optimisation
Analyse Multivoque
Problème d’optimisation : formulation et classification
Set-Valued Optimization
Avantages de l’Optimisation linéaire
Conclusion

Exemple d’une fonction strictement convexe.


2
+y 2
On considère f (x , y ) = e x , strictement convexe.

Les fonctions linéaires sont convexes.


Minimum local =⇒ minimum global
Minimum unique en cas de stricte convexité.

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Éléments de théorie des ensembles
Analyse Multivoque
Fonction Multivoques
Set-Valued Optimization
Convexité et correspondances
Conclusion

Rappel du plan

1 Introduction

2 Analyse Multivoque
Éléments de théorie des ensembles
Fonction Multivoques
Convexité et correspondances

3 Set-Valued Optimization

4 Conclusion

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Éléments de théorie des ensembles
Analyse Multivoque
Fonction Multivoques
Set-Valued Optimization
Convexité et correspondances
Conclusion

Algèbre d’ensembles quelconques


Soit E un espace vectoriel.
On notera P(E ), l’ensemble des parties de E .
Définition 1
Soient F,G ∈ P(E ).
La somme de Minkowski de F par G est définie par,
F + G := { x + y | x ∈ F et y ∈ G}
De même, on définit la différence algébrique de F par G avec

F - G := { x − y | x ∈ F et y ∈ G }
Enfin, pour λ ∈ R on notera λF la multiplication par un scalaire
définie par
λF := { λx | x ∈ F }

avec par convention, F + ∅ = ∅ + F = λ∅ = ∅.


J. LARROUY Introduction à l’Optimisation Multivoque
Introduction
Éléments de théorie des ensembles
Analyse Multivoque
Fonction Multivoques
Set-Valued Optimization
Convexité et correspondances
Conclusion

Cône Convexe

Définition 2 (Ensemble Convexe)


Soit A ∈ P(E ). On dira que A est convexe, si pour tous x , y ∈A :
(1 - λ)x +λy ∈A, pour tout λ ∈[0,1].

Définition 3 (Cône)
Soit C ∈ P(E ), C 6= ∅. On dira dira que C est un cône, si :

λx ∈ C , pour tout x ∈ C et pour tout λ ≥ 0

Il est important de noter que la somme de Minkowski conserve les


convexes (i.e., si C1 et C2 sont convexes, alors C1 +C2 est convexe).

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Éléments de théorie des ensembles
Analyse Multivoque
Fonction Multivoques
Set-Valued Optimization
Convexité et correspondances
Conclusion

Propriété sur la convexité d’un cône

Proposition 1
Soit C un cône, C ⊂ E.
C est convexe si et seulement si C + C ⊂ C.

Nous nous proposons de démontrer cette proposition importante.


Démonstration.
Soit C , un cône. Soient x et y ∈ C et λ ∈ [0,1].
Supposons C convexe, alors a = x +y2 ∈ C =⇒ 2a = x +y ∈ C donc
C +C ⊂ C .
De façon réciproque, si C +C ⊂ C alors (1-λ)x + λy ∈ C .

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Éléments de théorie des ensembles
Analyse Multivoque
Fonction Multivoques
Set-Valued Optimization
Convexité et correspondances
Conclusion

Nouvel Opérateur de comparaison


On présente dans un premier temps, un nouvel opérateur utilisé par
Geoffroy qui va nous permettre de comparer deux ensembles.
Définition 4
Soient A,B ∈ P(E) et C ,un cône convexe
On définit, et on note C , la relation binaire ensembliste dite "inférieur
ou égal" par

A C B ⇔ B ⊂A+C

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Éléments de théorie des ensembles
Analyse Multivoque
Fonction Multivoques
Set-Valued Optimization
Convexité et correspondances
Conclusion

Dans la suite, C désigera un cône convexe (i.e., C +C ⊂ C ).

Proposition 2
C définit une relation d’ordre partiel.

Démonstration.
Soit A,B et D ∈ P(E).
(a) A ⊂ A + C, donc A C A
(b) Si A C B et B C D alors B ⊂ A + C et D ⊂ B + C. Il vient que :
D⊂B+C⊂A+C+C
Comme C est convexe, on a :
D ⊂ A +C ⇔ A C D

Ainsi, A C B et B C D ⇒ A C D.

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Éléments de théorie des ensembles
Analyse Multivoque
Fonction Multivoques
Set-Valued Optimization
Convexité et correspondances
Conclusion

Définition et exemple
Définition 5 (Fonction Multivoque)
Soient X,Y deux espaces vectoriels.
On appelle fonction multivoque), et on note F(x), la relation binaire qui
à tout élément x ∈ X associe un sous-ensemble F(x) tel que F(x) ⊂ Y.

"F : X ⇒ Y" désignera la fonction multivoque F de X dans P(Y).

Exemple 1. Représentation graphique d’une fonction multivoque


Soit F : R+ ⇒ R+ telle que x 7−→ [0,x ]. On a le graphe suivant :

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Éléments de théorie des ensembles
Analyse Multivoque
Fonction Multivoques
Set-Valued Optimization
Convexité et correspondances
Conclusion

Domaine et graphe

Dans la suite, on considérera que X et Y sont deux espaces vectoriels.


Nous reprenons ici les définitions d’Aubin et Frankowska.
Définition 6
On appelle domaine de F l’ensemble noté dom(F), et défini par

dom(F) = {x ∈ X | F(x) 6= ∅ }

Définition 7
On appelle graphe de F, et on notera graph(F), le sous-ensemble X × Y
suivant
graph(F) = {(x, y) ∈ X ×Y | y ∈ F(x) }

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Éléments de théorie des ensembles
Analyse Multivoque
Fonction Multivoques
Set-Valued Optimization
Convexité et correspondances
Conclusion

Nouvelle définition de l’épigraphe et des sous-niveaux

Définition 8
L’épigraphe de F sera noté épi(F), et caractérisé par le sous-ensemble
suivant

épi(F) = {(x, t) | x ∈X et {t} ⊂ F(x) + C}

= {(x, t) | x ∈X et F(x) C {t}}

Définition 9
Les sous-niveaux de F seront notés SF (A), et caractérisés par
SF (A) = {x ∈X | F(x) C A}

Rappel : D’après Rockafellar, on avait pour f : E −→ R :


épi(f )={(x, t) ∈ E × R | f (x) ≤ t} et Sf (β)={ x ∈ dom(f) | f (x) ≤ β}

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Éléments de théorie des ensembles
Analyse Multivoque
Fonction Multivoques
Set-Valued Optimization
Convexité et correspondances
Conclusion

Caractérisation d’un processus C -convexe

Définition 10
On dira que F est positivement homogène si
0 ∈F(x) et ∀x ∈X, ∀λ ∈ R?+ , F(λx) = λF(x)

Définition 11
On dira que F est C-sous-additive si
∀x,y ∈X, F(x + y) C F(x) + F(y)

Remarque : On dira que F est un processus C -convexe si F est


positivement homogène et C -sous-additive.

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Éléments de théorie des ensembles
Analyse Multivoque
Fonction Multivoques
Set-Valued Optimization
Convexité et correspondances
Conclusion

Convexité des fonctions multivoques

Soit F : X ⇒ Y , une fonction multivoque. Soit λ ∈ [0,1].

Définition 12
F est convexe si
∀x , y ∈X, (1-λ)F(x ) +λF(y ) ⊂ F((1-λ)x +λy )

Définition 13
On dira que F est C -convexe si
∀x , y ∈X, F((1-λ)x +λy ) C (1-λ)F(x ) +λF(y )

Rappel : D’après Rockafellar, f : E −→ R est convexe si :


∀(x , y ) ∈ Rn × Rn et ∀λ ∈[0,1], f ((1-λ)x +λy ) ≤ (1-λ)f (x ) +λf (y )

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Éléments de théorie des ensembles
Analyse Multivoque
Fonction Multivoques
Set-Valued Optimization
Convexité et correspondances
Conclusion

Cas particulier

• Soit F : X ⇒ Y , une fonction multivoque convexe.


On pose F ≡ f : R −→ R, univoque. On a alors, ∀x , y ∈ dom(F ) et λ ∈
[0,1] :
(1 -λ)f (x ) +λf (y ) ∈ f ((1 -λ)(x ) +λy )
⇔ (1 -λ)f (x ) +λf (y ) = f ((1 -λ)(x ) +λy )

Une fonction mutlivoque convexe correspond donc à une fonction affine


en univoque.
• Soit F : X ⇒ Y , une fonction multivoque C -convexe.
On pose F ≡ f : R −→ R, univoque et C = R+ . On a alors, ∀x , y ∈
dom(F ) et λ ∈ [0,1] :

(1 -λ)f (x ) +λf (y ) ∈ f ((1 -λ)(x ) +λy ) + R+


⇔ (1 -λ)f (x ) +λf (y ) ≥ f ((1 -λ)(x )+λy )
La C -convexité généralise alors la convexité dans le cadre multivoque.

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Éléments de théorie des ensembles
Analyse Multivoque
Fonction Multivoques
Set-Valued Optimization
Convexité et correspondances
Conclusion

Premiers théorèmes
Théorème 14
Soit F : X ⇒ Y , positivement homogène. F est C-convexe si et
seulement si F est C -sous-additive.

Théorème 15
F est C-convexe si et seulement si son épigraphe est convexe.

On constate donc que notre définition de l’épigraphe reste cohérente avec


les propriétés déjà connues en univoque.

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Éléments de théorie des ensembles
Analyse Multivoque
Fonction Multivoques
Set-Valued Optimization
Convexité et correspondances
Conclusion

On propose maintenant une démonstration pour un résultat naturel.


Proposition 3
Soit F : X ⇒ Y, C-convexe, alors F est à valeurs C-convexe.

Démonstration.
Soient x ∈X, y , y 0 ∈ F(x ), c, c 0 ∈ C et λ ∈[0,1]. On a :
(1 -λ)y ∈ (1 -λ)F(x ) et λy 0 ∈ λF(x )

Ainsi, on obtient :
(1 -λ)y +λy 0 + (1 -λ)c +λc 0 ∈ (1 -λ)F(x ) +λF(x ) + (1 -λ)C +λC
C’est immédiat,

(1 -λ)y +λy 0 + (1 -λ)c +λc 0 ∈ F(x ) + C

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Minimal elements
Analyse Multivoque
Minimizers : First résults
Set-Valued Optimization
Optimality Conditions : New properties on subgradients
Conclusion

Rappel du plan

1 Introduction

2 Analyse Multivoque

3 Set-Valued Optimization
Minimal elements
Minimizers : First résults
Optimality Conditions : New properties on subgradients

4 Conclusion

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Minimal elements
Analyse Multivoque
Minimizers : First résults
Set-Valued Optimization
Optimality Conditions : New properties on subgradients
Conclusion

Characterization of minimal elements

Definition 16
Let S ⊂ E.
x is called a Pareto minimal element of S if :
({x } - C) ∩ S ⊂ {x } + C

Definition 17
Let S ⊂ E.
x is called a strong minimal element of S if :
S ⊂ {x } + C

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Minimal elements
Analyse Multivoque
Minimizers : First résults
Set-Valued Optimization
Optimality Conditions : New properties on subgradients
Conclusion

A Set-Valued Optimization problem without constraints

We are now going to introduce the notion of minimizer. We will precede


this notion with a brief presentation of a Set-Valued Optimization
problem without constraints this time.
Definition 18
Let F : X ⇒ Y , such that dom(F ) 6= ∅.
We consider the following set-valued optimization problem without
constraints (
Find x ∈ X ,
(P) : F (x ) = min F (x )
x ∈X

such that an element x is called a minimizer of (P).

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Minimal elements
Analyse Multivoque
Minimizers : First résults
Set-Valued Optimization
Optimality Conditions : New properties on subgradients
Conclusion

Now, we define three types of minimizers. Let F : X ⇒ Y be a set-valued


mapping.
Definition 19
x is called a Pareto minimizer of F if
∀x ∈X, F(x ) C F(x ) ⇒ F(x ) C F(x )

Definition 20
x is a strong minimizer of F if
∀x ∈X, F(x ) C F(x )

Definition 21
We shall say that x is a local strong minimizer of F if
∃ U ∈ V(x ), F(x ) C F(x ) , ∀x ∈ U
with V(x ) representing all the neighbourhood of x .
J. LARROUY Introduction à l’Optimisation Multivoque
Introduction
Minimal elements
Analyse Multivoque
Minimizers : First résults
Set-Valued Optimization
Optimality Conditions : New properties on subgradients
Conclusion

First result
We are now able to show a new result that fits the convex optimisation
paradigm.
Proposition 4
Let F : X ⇒ Y be a C-convex set-valued mapping and x ∈ X be a strong
minimizer of F. We assume that ∃ y ∈ F (x ), F (x ) ⊂ {y } + C .
Then if x is local, then x is global.

Proof.
Let x ∈X such that x be a local strong minimizer of F.
∃ε > 0, F(x ) C F(x ), ∀x ∈ B(x ,ε).
∀x ∈ X, ∃t ∈]0,1], x +t(x -x ) =(1 -t)x +tx ∈ B(x ,ε)

Thus,
F(x ) C F((1 -t)x +tx )
wich implies
J. LARROUY Introduction à l’Optimisation Multivoque
Introduction
Minimal elements
Analyse Multivoque
Minimizers : First résults
Set-Valued Optimization
Optimality Conditions : New properties on subgradients
Conclusion

Proof.
F((1 -t)x +tx ) ⊂ F(x ) + C

As F is Convex, we have

(1 -t)F(x ) +tF(x ) ⊂ F(x ) + C


By assumption, there exists y ∈ F(x ) such that F(x ) ⊂ {y } + C . It
comes that
(1 -t)F(x ) +tF(x ) ⊂ F(x ) + C
⇒ (1 -t){y } +tF(x ) ⊂ F(x ) + C
⇒ tF(x ) ⊂ t{y } +F(x ) - {y } + C = t{y } + C
⇒ F(x ) ⊂ {y }+ C ⇒ F(x ) ⊂ F(x ) + C
Finally,
∀x ∈X, F(x ) C F(x )

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Minimal elements
Analyse Multivoque
Minimizers : First résults
Set-Valued Optimization
Optimality Conditions : New properties on subgradients
Conclusion

LB(A) : The set of all elements bounded from below

In this part, we will deal with a new type of set wich was use by
Goeffroy in his last paper, the set LB(E).
Let E be a non trivial real vectorial space partially ordered by a nonempty
pointed, convex and closed cone C ⊆ E through the binary relation ≤
defined by z1 ≤ z2 if and only if z1 − z2 ∈ C
Intoduction
We denote by P(E) the power set of any set E, i.e., the set of all subsets
of E while P ◦ (E) stands for the set of all nonempty subsets of E. An
element z ∈ E is called a lower bound of a set A ∈ P ◦ (E) if z ≤ a ∀a
∈ A,or in other words, if A ⊂ z+C . We call LB(E) the set of all elements
of P ◦ (E) bounded from below, i.e., admitting a lower bound.

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Minimal elements
Analyse Multivoque
Minimizers : First résults
Set-Valued Optimization
Optimality Conditions : New properties on subgradients
Conclusion

New tool for set comparison and new type of convexity


We introduce a new binary relation allowing us to state a new type of
convexity for set-valued mappings.
Définition 16
Let A,B ∈ LB(E). We define, and note ≺C , the set binary
relation"strictly lower" by
A ≺C B ⇔ B ⊂A+int(C)

where int(C) stands to the interior of the cone C .


It is important to note that≺C is transitive and irreflexive.

Définition 17
Let F : X ⇒ Y be a set-valued mapping.
We shall say that F is strictly convex if
∀λ ∈ ]0,1[, ∀x , y ∈X, F((1-λ)x +λy ) ≺C (1-λ)F(x ) +λF(y )

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Minimal elements
Analyse Multivoque
Minimizers : First résults
Set-Valued Optimization
Optimality Conditions : New properties on subgradients
Conclusion

If there is a minimum then it’s the only


Proposition 5
Let F : X ⇒ LB(Y) be a strictly convex set-valued mapping. Then F
admits at most one strong minimum.

Proof.
Let λ ∈]0,1[.
We assume that it exists x1 et x2 two distincts strong minimizers of F.
Then we have : F(x1 ) C F(x) et F(x2 ) C F(x).
Let’s note x = (1 -λ)x1 + λx2 . As F is strictly convex, it comes that :
F(x ) ≺C (1 -λ)F (x1 ) + λF(x2 ).
x1 being a strong minimizer of F, F(x1 ) C F(x2 ). We have,
F(x ) ≺C (1 -λ)F(x1 ) +λF(x2 ) C (1 -λ)F(x2 ) +λF(x2 ) C F(x2 ).
As x2 is a strong minimizer of F too, it follows that F(x2 ) C F(x ) and
then F(x ) ≺C F(x ).
What is absurd because ≺C is irreflexive.
J. LARROUY Introduction à l’Optimisation Multivoque
Introduction
Minimal elements
Analyse Multivoque
Minimizers : First résults
Set-Valued Optimization
Optimality Conditions : New properties on subgradients
Conclusion

Definition of a Set-Valued subgradient

Here we give the definition of a subgradient.


Définition 18
Let Lx : X ⇒ Y, positively homogeneous.
We shall say that Lx is a set-valued subgradient of F at x if
∀x ∈X, F(x ) +Lx (x -x )C F(x )

⇔ F(x ) ⊂ F(x ) +Lx (x -x ) + C

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Minimal elements
Analyse Multivoque
Minimizers : First résults
Set-Valued Optimization
Optimality Conditions : New properties on subgradients
Conclusion

New approach of the theorical representation of a


set-valued subgradient
Proposition 6
Let F : X ⇒ Y be positively homogeneous and C-subadditive.
Thus, if ∀x , y ∈ dom(F) F(x +y ) C F(x ) + F(y ), then a subgradient of
F at x is
Lx (x -x ) = -F(-(x -x )).

Proof.
Let x , y ∈ dom(F ). We have by assumption,
F(x +y ) C F(x ) + F(y ) ⇒ F(x ) + F(y) ⊂ F(x +y ) +C
We take y = x − x ∈ dom(F).We then obtain thanks to the lemma 3.2,

F(x ) + F(x − x ) ⊂ F(x ) + C ⇒ F(x ) ⊂ F(x ) -F(x - x ) + C


Finally, F(x ) -F(-(x - x )) C F(x ). F being positively homogeneous, we
are now able to assert that Lx (x -x ) = -F(-(x - x )).
J. LARROUY Introduction à l’Optimisation Multivoque
Introduction
Minimal elements
Analyse Multivoque
Minimizers : First résults
Set-Valued Optimization
Optimality Conditions : New properties on subgradients
Conclusion

Novel sufficient condition of optimality

Theorem 19 (Sufficient Optimality Condition)


Let Lx be a set-valued subgradient of F : X ⇒ Y at x ∈ dom(F).
∀x ∈X, if Lx (x -x ) ⊂ C then F(x ) C F(x ).

Proof.
Let Lx be a set-valued subgradient of F : X ⇒ Y at x ∈ dom(F).
By definition, we have ∀x ∈X,
F(x ) +Lx (x -x )C F(x )
⇔ F(x ) ⊂ F(x ) +Lx (x -x ) + C

By assumption, Lx (x -x ) ⊂ C and C is convex. Hence,


F(x ) ⊂ F(x ) + C thus F(x ) C F(x )

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Minimal elements
Analyse Multivoque
Minimizers : First résults
Set-Valued Optimization
Optimality Conditions : New properties on subgradients
Conclusion

An optimality sufficient condition


Theorem 20
Let F : X ⇒ Y be positively homogeneous, C-subadditive and Lx (x -x )
be a subgradient of F at x ∈ dom(F ).
If x is a strong minimizer of F then F (x ) C -Lx (x -x )

From this theorem follows the following corollary


Corollary 21
If x is a strong minimizer of F then F (x ) + Lx (x -x ) C {0}

Proof.
Let x be a strong minimizer of F .
We have, ∀x ∈ dom(F ) F (x ) C -Lx (x -x ). Thus :
-Lx (x -x ) ⊂ F(x ) + C =⇒ 0 ∈ F (x ) + Lx (x -x )

Hence ∀x ∈ dom(F ) : F (x ) + Lx (x -x ) C {0}


J. LARROUY Introduction à l’Optimisation Multivoque
Introduction
Analyse Multivoque
Set-Valued Optimization
Conclusion

Rappel du plan

1 Introduction

2 Analyse Multivoque

3 Set-Valued Optimization

4 Conclusion

J. LARROUY Introduction à l’Optimisation Multivoque


Introduction
Analyse Multivoque
Set-Valued Optimization
Conclusion

J. Jahn, Vector Optimization : Theory, Applications, and


Extensions, Second Edition, Springer, Berlin, 2011, p. 1 -311.
R. T. Rockafellar, R. J-B Wets, Variational Analysis,
Springer-Verlag, Berlin, 1998,
M. H. Geoffroy, A topological convergence on power sets
well-suited for set optimization, Journal of Global Optimization 73 ,
2018.
J-P. Aubin, H. Frankowska, Set-valued analysis, Boston
Birkhauser cop, 1990.
M. Köksalan, J. Wallenius, and S. Zionts, Multiple Criteria
Decision Making – From Early History to the 21st Century, World
Scientific Publishing, Singapore, 2011.
M. Ehrgott, Vilfredo Pareto and Multi-objective Optimization,
Documenta Mathematica · Extra Volume ISMP, New-Zeland, 2012
447–453.

J. LARROUY Introduction à l’Optimisation Multivoque

Vous aimerez peut-être aussi