Vous êtes sur la page 1sur 69

République Algérienne Démocratique et Populaire

Ministère de l’Enseignement Supérieur et de la Recherche Scientifique


Université M’hamed Bougara Boumerdes
Faculté des Sciences
Département de Mathématiques

Mémoire Présenté
Pour L’Obtention Du Diplôme De Master
En Recherche Opérationnelle
Option : Mathématique De Gestion (ROMAGE)

Par : BOUHAOUCHE Soumia


Et : TOUNSI Hanane

Optimisation des Portefeuilles : Résolution par L’approche


Multi-Objectif Non Linéaire.

Soutenu à l’UMBB, le 02/07/2017, devant le jury composé de :

Mme M.BENMENSOUR M.A. classe/ B Présidente du jury à l’UMBB - Boumerdes.


Mme W.DRICI M.A. classe/ B Encadreur à l’UMBB - Boumerdes.
Mme S.ZOUAOUI M.A. classe/ A Examinatrice à l’UMBB -Boumerdes.

Année Universitaire 2016 − 2017


Remerciements

T out d’abord, nous remercions ALLAH le tout puissant, de nous avoir

donné le courage et la volonté pour accomplir ce modeste travail.

N ous tenons à adresser nos plus sincères remerciements à

Mme DRICI Wassila, qui a accepté de nous encadrer, et qui nous a beaucoup

aidées et guidées pour réaliser ce travail. Nous la remercions pour son appui

scientifique et sa grande disponibilité qui a été essentielle pour notre progression.

Ses commentaires, remarques et suggestions ont donné une autre dimension à ce travail.

On adresse nos remerciements à Mme M. BENMENSOUR et

Mme S.ZOUAOUI, pour l’honneur qu’elles nous font, en acceptant de faire

part du jury, et d’avoir consacrer leurs temps à la lecture de ce mémoire.

Enfin, que toute personne qui d’une façon ou d’une autre, a contribué

à la réalisation de cette étude, trouve ici le témoignage de nos plus vives

gratitudes.
Je dédie ce travail,

À Mes très chers parents, la source de ma vie

À la mémoire de mes grands parents

À mes frères

À mes sœurs

À toute ma famille

À mon binôme, qui m’a supporté, pour la dost spéciale qu’elle était

À tous mes amis Pour une sincérité si merveilleuse, pour des moments jamais oubliables, en leur souhaitant
tout le succès, tout le bonheur

À toute personne qui m’a aidé à franchir un horizon dans ma vie.

Hanane
Je dédie ce travail,

À mes chers parents, pour leur soutien, sacrifices, et tous les efforts consentis pour mon éducation et ma
formation,

À Yemma, sans laquelle je ne serai jamais celle que je suis maintenant,

À ma sœur chérie Amina, son mari Mohammed, et ma source de bonheur Neila,

À mes chers frères : Amar, Ahmed, et ma moitié Mohammed,

À ma deuxième famille : Khtiti, Didou Azedine, et mes petits chers Sarah, Lily et Sadek,

À la mémoire de Yemma 3ziza, Didou et mes grands-parents,

À toute ma famille,

À mon binôme, ma partenaire de crime et ma Iris, malgré toutes les difficultés, we did it !

À tous mes amis, chacun de vous était une lueur d’espoir et de bonheur dans ma vie,

À Mr.BEZOUI, le meilleur enseignant de tous les temps,

À toute personne qui m’a aidée dans mon parcours, et m’a poussée à sortir le meilleur de moi-même,

Je tiens à vous témoigner ma reconnaissance, amour et affection.

Soumia
Table des matières

Table des figures 3

Liste des algorithmes 4

Introduction générale 5

1 Optimisation du portefeuille 7
1.1 Historique : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Éléments de l’optimisation du portefeuille : . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1 Un actif financier : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Un portefeuille : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.3 Le rendement : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.4 Analyse du risque : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 La théorie modèrne du portefeuille (Modèle de Markowitz) : . . . . . . . . . . . . 13
1.3.1 Principe du modèle de Markowitz : . . . . . . . . . . . . . . . . . . . . . . 13
1.3.2 Critères du choix d’un portefeuille optimal : . . . . . . . . . . . . . . . . . 14
1.3.3 Hypothèses du modèle : . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.4 Présentation mathématique du modèle : . . . . . . . . . . . . . . . . . . . 16
1.4 Le modèle simplifié de Sharpe : . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4.1 Principe du modèle simplifié de Sharpe : . . . . . . . . . . . . . . . . . . . 18
1.4.2 Critères du choix d’un portefeuille optimal : . . . . . . . . . . . . . . . . . 18
1.4.3 Hypothèses du modèle : . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.4.4 Présentation mathématique du modèle : . . . . . . . . . . . . . . . . . . . 20
1.5 Modélisation : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.6 Conclusion : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

2 Programmation Quadratique 25
2.1 Introduction : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Notions sur l’optimisation convexe : . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.1 Condition d’optimalité en optimisation non linéaire : . . . . . . . . . . . . 27
2.3 Programmation quadratique : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.1 Formulation du problème : . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4 Méthodes de résolution : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.5 Conclusion : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3 Optimisation Multi-Objectif 34
3.1 Problème d’optimisation multi-objectif (P M O) : . . . . . . . . . . . . . . . . . . . 34
3.1.1 Formulation d’un problème multi-objectif : . . . . . . . . . . . . . . . . . . 35
3.1.2 Concepts de base : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Méthodologie de résolution : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2.1 Classification des méthodes de résolution des PMO : . . . . . . . . . . . . 38

1
3.3 Problème multi-objectif en nombres entiers(M OILP ) : . . . . . . . . . . . . . . . 45
3.3.1 Formulation du problème : . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.4 Solutions supportées et non supportées : . . . . . . . . . . . . . . . . . . . . . . . 45
3.4.1 Complexité du problème : . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.4.2 Quelques méthodes de résolution d’un problème (M OILP ) : . . . . . . . . 47
3.5 Conclusion : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

4 Résolution et Implémentation 53
4.1 Introduction : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2 Méthode de résolution : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.1 Algorithme de la méthode : . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.2 Organigramme de la méthode : . . . . . . . . . . . . . . . . . . . . . . . . 55
4.3 Implémentation de la méthode : . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.3.1 Définition du langage : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.3.2 Expérience numérique : . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

Conclusion générale 60

Bibliographie 64

Résumé 65
Table des figures

1.1 Faible et forte volatilité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11


1.2 Frontière Efficiente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

3.1 Exemple de dominance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35


3.2 Représentation des différents types de solutions en bicritère . . . . . . . . . . . . . 46

4.1 Organigramme de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55


4.2 Exemple d’exécution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

3
Liste des Algorithmes

1 Klein & Hannan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48


2 Sylva & Crema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3 Abbas & Moulai . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

4 Méthode adaptée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

4
Introduction générale

La recherche opérationnelle (RO) peut se définir comme la mise en œuvre de méthodes


scientifiques, essentiellement mathématiques, en vue de prendre la meilleure décision possible.
Établir plus précisément quand entre en jeu la recherche opérationnelle dans un processus de prise
de décision est une tâche plus difficile. En effet, l’expert en recherche opérationnelle exploite des
connaissances provenant de sources particulièrement variées.

Le marché financier est un emplacement de compétition entre l’offre et la demande des actifs
économiques, dans lequel les investisseurs interviennent et ce par le biais de leurs portefeuilles.
L’accès à ce marché, les oblige à supporter un risque de sur ou sous-évaluation de leurs actifs. Pour
cet effet, le financement des entreprises ne peut pas étayer toutes les opportunités d’investissement
disponibles dans le marché financier.

La sélection d’un portefeuille de projets est donc importante. Le processus de sélection vise
à choisir un sous-ensemble de projets qui permette de maximiser les bénéfices (objectifs) de la
compagnie tout en respectant les restrictions budgétaires (contraintes). Mais toute fois, en plus de
toutes les considérations précédentes, la compagnie doit suivre une stratégie qui lui assurera un
meilleur rendement avec un minimum de risque. Plusieurs théoriciens se sont penchés sur l’analyse
et la modélisation de ces deux grands paramètres de mesure de performance de portefeuille, et donc
plusieurs modèles d’optimisation de portefeuille ont été proposés. Parmi les modèles développés à
cet effet, le modèle moyenne-variance élaboré au début des années cinquante par l’économiste amé-
ricain Harry Markowitz. C’est pour la première fois que Markowitz et ses successeurs s’attaquaient
à une rationalisation complète de tous les problèmes de sélection de portefeuille et construisaient
une théorie globale où rien apparemment n’était laissé dans l’ombre. C’est ce modèle qui est classé
comme la première modélisation mathématique de la relation " Risque/Rendement ".
Ainsi, selon la théorie moderne de portefeuille de Markowitz, les agents ont pour but ultime de
combiner un ensemble d’actifs, ayant un rendement maximum avec un niveau de risque donné ;
ou ce qui revient de même un risque minimum pour un niveau de rendement donné. Cependant
au cours des années, les praticiens ont reconnu les limites de ce modèle et ils ont développés, dès
lors, d’autres modèles pouvant mobilisés le mieux possible de la relation " Risque/Rendement ".
En effet, tous les modèles proposés sont de type mono-objectif, c’est-à-dire ne tiennent pas en
considération tous les critères que les responsables de compagnies souhaitent optimiser à la fois
et qui sont conflictuelles (maximisation de rendement et minimisation du risque simultanément)
, et donc on peut déduire que ces modèles sont mathématiquement bien formulés (relativement
faciles et à résoudre) mais économiquement mal formulés (ne reflètent pas toute la réalité). C’est
pour cela qu’on présente dans ce travail un modèle multi-objectif (bi-objectif) .
En plus du risque et du rendement on pourrai parler de dividendes, de liquidité, des responsabilités
sociales de l’inflation...etc. On constate ainsi que l’optimisation multicritère n’est plus une option
mais bien une obligation pour une bonne modélisation économique.
Un investisseur qui dispose d’un capital et qui a l’opportunité d’investir dans un certain nombre
d’actifs financiers, doit prendre une décision importante. Comment répartir son capital parmi les

5
Introduction générale 6

actifs ? La gestion de portefeuille nous apporte la réponse. Nous nous intéressons aux problèmes
de choix d’actifs financiers en présence de risque. Un problème permanent dans la finance est
"comment combiner les investissements pour former un portefeuille ?. Répondre à cette question,
serait faire de la "Sélection de portefeuille". A cet effet, nous allons structurer ce présent mémoire
en quatre chapitres.

Dans le premier chapitre, nous allons présenter un historique de l’optimisation de porte-


feuilles, on fait un rappel de quelques définitions et concepts de base, qu’on pense nécessaires pour
la suite de notre travail. Présenter après le modèle initiale du portefeuille (La théorie moderne du
portefeuille), puis le modèle simplifié de Sharpe.

Le deuxième chapitre expose les notions de base de la programmation quadratique, la forme


générale d’un problème de programmation quadratique, et à la fin, nous présentons les principales
approches de résolution proposées dans la littérature pour ce type de problèmes.

Le chapitre trois est consacré à une étude récapitulative menée sur les méthodes de ré-
solution des problèmes d’optimisation multi-objectif, tout en montrant la manière de définir un
problème pareil, ses contraintes, ses objectifs, tout en respectant le concept de compromis et les
frontières de Pareto. Nous allons parler de méthodes utilisées dans le domaine de l’optimisation
multi-objectif à savoir exactes, flous et méta-heuristiques.

Dans le quatrième chapitre, on va proposer une méthode exacte de résolution des problèmes
de programmation bi-objectif, ainsi que son implémentation.

Enfin une conclusion générale qui englobe le travail réalisé.


1 Optimisation du portefeuille

Introduction

D ans ce chapitre, nous allons présenter un historique de l’optimisation du portefeuille,


présenter La Théorie Moderne du Portefeuille, et le modèle simplifié de Sharp [36], ensuite on va
definir quelques concepts de base.

1.1 Historique :
Une ancienne sagesse capture l’optimisation de portefeuille sous-jacente idée fondamentale.
La sagesse se trouve essentiellement dans la caractéristique de moyenne des rendements de dif-
férent actifs, un bon portefeuille est celui qui donne un rendement maximum pour un niveau de
risque donnée ou celui qui donne le risque minimum pour un niveau de rendement donné. Ainsi,
un bon portefeuille doit comprend des actifs différencier non similaire.

D’où cette sagesse nécessite une modélisation mathématique pour l’optimisation de portefeuille
qui a été proposée par le fondateur de la théorie moderne du finance Harry Markowitz dans leur
article [35], par le modèle moyenne-variance. Markowitz modélisé la moyenne, comme rendement
attendu sur l’investissement, et la variance comme, mesure de risque. cause de probabilité d’exis-
tence d’un danger potentiel pour sacrifier trop de rendement attendu à éliminer le rendement
extrême bas et haut. Certains chercheurs ont proposé certain modèle de portefeuille basé sur les
risques alternatives tel que le modèle de sécurité d’abord [40], le modèle moyenne semi-variance
[38], le modèle de moyenne d’écart absolu(MAD) [26], le modèle moyenne de semi-écart absolu
[48] et le modèle minimax [53].

Dans la pratique, le problème d’optimisation de portefeuille doit prendre en compte des carac-
téristique réelles tel que les coûts de transaction, contrainte de cardinalité qui impose une limite sur
le nombre d’actif dans le portefeuille, les contraintes de quantité limitant la proportion de chaque
actif dans le portefeuille entre une borne inférieur et une borne supérieur et la transaction des
lots minimum. Ce qui ramène à un problème de programmation quadratique qui se classe dans la
catégorie des problèmes les plus difficiles (complicité) à résoudre NP-difficile. Pour cela, plusieurs
chercheurs en tenté à remédier à cette difficulté en utilisant plusieurs schémas d’approximation
tel que Sharpe [45] le premier qui a souligné que si le problème de sélection de portefeuille pour-
rait être formulé comme un problème de programmation-linéaire, les perspectives d’applications
pratiques serait grandement améliorées.
Après cela plusieurs chercheurs se sont concentré sur les algorithmes heuristiques pour les

7
Optimisation du portefeuille 8

problèmes d’optimisation des portefeuilles complexes : [19] ont utilisé, les Algorithme Génétique
(GA), recherche Tabou(TS), recherche Local(LS), [7] et le recuit simulé, [47] ont proposé une amé-
lioration de l’algorithme génétique pour le model moyenne-variance. [2], ont formulé le problème
de portefeuille comme un problème d’optimisation tri-objective afin de trouvé le seuil entre rende-
ment, risque et le nombre de portefeuille de sécurité, en utilisant cinq algorithmes évolutionnaires :
NSGA-2, SPEA2, NPGA2, PESA et e-MOEA. Ainsi, [15, 25, 3], qui ont utilisé les algorithmes
évolutionnaires. [16, 14], la colonie de fourmis. D’autres chercheurs ont dévié vers les heuristiques
basées sur l’optimisation des swarm particle [12, 22, 55]. Les algorithmes d’évolution différentielle
[30, 31].

Il arrive que, les attentes des investisseurs, au sujet des paramètres financiers, la base sur
laquelle ils choisissent leurs portefeuille, sont souvent vaguement précisées, alors les décisions de-
viendraient floue, [54] introduit le concept d’ensembles flous. De plus, plusieurs chercheurs ont
intégré la théorie floue aux choix de portefeuilles , [49, 51, 46, 8, 41, 52, 50]. D’autres chercheurs
[32, 6, 23, 33], ont appliqué les algorithmes génétiques, PSO, les algorithmes hybrides pour la
résolution du problème d’optimisation du portefeuille floue mono/multi-objective sous contraintes
de cardinalité, coût de transaction et lots de transaction minimale.

1.2 Éléments de l’optimisation du portefeuille :


1.2.1 Un actif financier :
C’est un titre ou un contrat produisant à son propriétaire des revenus ou un gain en capital
sur le marché financier. Cet actif produit une certaine prise de risques et peut être transmis ou
négocié sur le marché. Il est considéré comme un placement et est comptabilisé dans le patrimoine
de l’individu.

1.2.2 Un portefeuille :
C’est un ensemble d’actifs financiers détenus par un investisseur. Ces actifs peuvent provenir
de différentes classes : actions, obligations, produits dérivés, matières premières, fonds, cash, etc.
L’investisseur, pour diminuer son risque, procède souvent à une diversification de ses actifs. Ces
derniers possèdent chacun une volatilité qui leur est propre et sont plus ou moins corrélés entre eux.
La détention de plusieurs actifs différents tend donc, généralement, à diminuer la volatilité globale
du portefeuille. Le degré de risque (nature des titres détenus, volatilité historique, diversification),
le dynamisme de la stratégie (fréquence de réajustement de l’allocation) et le rendement obtenu
sont des caractéristiques importantes, servant à comparer les portefeuilles boursiers entre eux.

1.2.3 Le rendement :
Le rendement d’un actif est une variable aléatoire et, le rendement d’un portefeuille est une
combinaison linéaire pondérée des actifs qui le composent. Par conséquent, le rendement d’un
portefeuille est également une variable aléatoire et possède une espérance et une variance.
Optimisation du portefeuille 9

1.2.4 Analyse du risque :


L’utilisation d’outils de mesure du risque est devenu systématique et les professionnels ont dé-
veloppé des instruments très sophistiqués. Néanmoins, il existe bon nombre d’outils constituant la
base de la gestion du risque, à la portée de tous les investisseurs et ayant démontré leur efficacité.
Nous abordons ici les plus célèbres et utilisés d’entre eux :

La covariance et la variance :
La variance et la covariance sont deux des principales mesures utilisées pour mener à bien une
étude.
Ces deux instruments sont considérés comme la base de toute étude de risque qu’il faut
connaître à tout prix avant même d’entreprendre de manipuler un portefeuille.

La variance

Selon la définition classique, la moyenne des carrés des écarts par rapport à la moyenne. En
termes plus mathématiques elle peut être considérée comme une mesure servant à caractériser la
dispersion d’une distribution ou d’un échantillon.
Pn
2 i=1 (xi − X̄)2
V (X) = E((X − E(X)) ) =
n

avec :

- xi : le cours de l’actif x à l’instant i ;


- X̄ : moyenne du cours de l’actif x ;
- n : nombre de périodes.

Grossièrement on peut la voir comme la moyenne des carrés moins le carré des moyennes.
Cette formule intègre des carrés dans le but d’éviter que les écarts positifs et les écarts négatifs
par rapport à la moyenne ne s’annulent.

La dimension de cette mesure étant le carré de la dimension de la moyenne, on utilise plus


souvent l’écart-type qui n’est rien d’autre que la racine de la variance.

Propriétés de la variance :

- Étant calculée comme l’espérance d’un nombre au carré, la variance est toujours posi-
tive ou nulle,

- Si la variance est nulle, cela signifie que la moyenne des carrés des écarts par rapport à
la moyenne est nulle et donc que la variable aléatoire est une constante,

- V (aX + b) = a2 V (X) ;

- V (X + Y ) = V (X) + V (Y ) ;
Optimisation du portefeuille 10

- Plus la variance est proche de 0 cela signifie que les variable ne s’écartent pas énormément
de sa moyenne et donc que les variations ne sont pas trop importantes. Ainsi on dit que la variance
traduit la notion d’incertitude. Plus la variance est élevée et plus la variable est susceptible de
s’éloigner de sa moyenne.

La covariance

La covariance est légèrement différente. Si la variance permet d’étudier les variations d’une
variable par rapport à elle-même, la covariance va permettre d’étudier les variations simultanées
de deux variables par rapport à leur moyenne respective.

La covariance peut être vue comme le produit des valeurs de deux variables moins le produit
des deux moyennes. Mathématiquement, la formule est la suivante :
n
1X
Cov(X, Y ) = (xi − X̄)(yi − Ȳ )
n i=1

- xi : cours de l’actif x a l’instant i,


- yi : cours de l’actif y a l’instant i,
- X̄ : moyenne du cours de l’actif x,
- Ȳ : moyenne du cours de l’actif y,
- n : nombre de périodes.

Du résultat obtenu par cette mesure on en déduit que plus la covariance est faible et plus les
séries sont indépendantes et inversement plus elle est élevée et plus les séries sont liées.

Une covariance nulle correspondant à deux variables totalement indépendantes.

La volatilité et l’écart-type :
La volatilité

Est par définition une mesure des amplitudes des variations du cours d’un actif financier.
Ainsi, plus la volatilité d’un actif est élevée et plus l’investissement dans ce portefeuille sera consi-
déré comme risqué et par conséquent plus l’espérance de gain (ou risque de perte) sera important.A
l’inverse, un portefeuille sans risque ou très peu risqué aura une volatilité très faible.

La notion de volatilité concerne tous les horizons (court, moyen et long terme) et ne se
soucis pas du sens du mouvement (seule l’amplitude des mouvements est pris en compte).
Optimisation du portefeuille 11

Figure 1.1 – Faible et forte volatilité.

Alors que cette notion tient aujourd’hui une place primordiale dans l’étude des marchés,
elle est également énormément utilisée pour diversifier les portefeuilles, gérer le risque, calculer les
prix des options .
Les périodes de forte volatilité se traduisent souvent par des cours relativement bas ce qui
permet aux investisseurs d’anticiper une rentabilité plus élevée.

Calcul de l’écart type

Utilisé pour calculer la volatilité,l’écart type est relativement simple à comprendre et à ap-
pliquer. Il s’obtient en calculant la racine carré de la variance. La variance étant calculée en faisant
la moyenne des écarts à la moyenne, le tout au carré.

Ainsi après avoir récupéré l’historique des variations d’un actif, le calcul de l’écart type peut
se décomposer en plusieurs étapes :

1. On calcule la moyenne des variations de cet actif sur la durée totale de l’historique,
2. Pour chaque période, on détermine la différence entre le cours de clôture et cette moyenne
que l’on met au carré,
3. On somme tous ces résultats que l’on divise pas le nombre de périodes,
4. Enfin on calcule la racine carrée de la valeur obtenue à l’étape précédente.

Mathématiquement l’écart type se traduit par la formule suivante :


sP
n
q
i=1 (xi − X̄)2
σ(X) = V (X) =
n

Pn
i=1 xi
X̄ =
n
Est la moyenne des variances.

avec :

- V : la variance ;
- xi : variation du cours a l’instant i ;
Optimisation du portefeuille 12

- n : le nombre totale des périodes.

Frontière efficiente :
La frontière qui caractérise le polygone ou la courbe des contraintes s’appelle dans cette situa-
tion la "frontière efficiente de Markowitz" et dans le polygone/courbe se situent tous les portefeuilles
à rejeter dits "portefeuilles dominés". Une autre manière de formuler ceci consiste à dire que les
combinaisons (rendement, risque) de cette frontière forment un ensemble d’optima de Pareto,
c’est-à-dire que si l’un des éléments augmente, l’autre doit augmenter aussi.

Figure 1.2 – Frontière Efficiente

Chaque point sur la courbe bleue à partir du point rouge "Portefeuille à variance minimale"
correspond à un portefeuille efficient ; c’est ce que l’on appelle la frontière d’efficience ou frontière
de Markowitz. Si un portefeuille se trouve dans la zone hachurée, il n’est pas efficient car il existe :

1. un autre portefeuille apportant ce même niveau de rendement mais avec un risque plus
faible,

2. un autre portefeuille apportant un rendement supérieur pour le niveau de risque considéré.

Chaque investisseur peut ensuite choisir n’importe quel portefeuille sur la demi-courbe bleue, en
fonction du niveau de risque qu’il est prêt à supporter ou bien du rendement qu’il espère (maxi-
misation de l’utilité de l’investisseur).
Optimisation du portefeuille 13

On va présenter en ce qui suit les modèles principaux de la gestion du portefeuille,qui sont le


modèle de Markowitz, et le modèle de Sharpe.

1.3 La théorie modèrne du portefeuille (Modèle de Mar-


kowitz) :
Même si le concept de gestion du portefeuille était utilisé bien avant le milieu du siècle
dernier, la théorie du portefeuille est véritablement née au début des années cinquante à la suite
des travaux de Markowitz qui peut être considéré comme le Père de la Théorie Moderne du Porte-
feuille [34]. Avant lui, les investisseurs avaient comme objectif de maximiser le rendement de leur
portefeuille, tout en sachant qu’il existait un risque. L’apport principal de Markowitz (1952) a été
de modéliser le risque, mesuré par l’écart type des taux de rendement des titres, et de l’intégrer
dans le choix des titres d’un portefeuille.

Celui-ci s’opère dans le cadre d’un marché parfait, c’est-à-dire sur base de certaines hypothèses
concernant : la divisibilité des titres, l’absence de coût de transaction et de taxes, l’accès au prêt et
à l’emprunt sans limites, au même taux et, sans aucune influence d’un investisseur sur les prix. Les
principes fondamentaux de la constitution d’un portefeuille reposent donc constamment sur un
arbitrage entre le risque de celui-ci et sa rentabilité. Tout investisseur rationnel se doit de choisir
le portefeuille de risque minimum pour un niveau de rendement espéré.

Ce choix est lié au concept de la diversification qui consiste simplement pour un investisseur à
ne pas investir tout dans un seul titre, mais à répartir ses investissements sur plusieurs titres, ce
qui lui permet d’atteindre un meilleur rapport rendement/risque.

1.3.1 Principe du modèle de Markowitz :


En comparant deux portefeuilles par leurs rendements (supposés aléatoires), on retient :

– à risque identique, celui qui a l’espérance de rendement la plus élevée (gain maximal),
– à espérance de rendement identique, celui qui présente le risque le plus faible (aversion au
risque).
Ce principe conduit à éliminer un certain nombre de portefeuilles, moins efficients que d’autres.

La courbe qui relie l’ensemble des portefeuilles efficients s’appelle la frontière efficiente.

En dessous de cette courbe, tous les portefeuilles rejetés sont dits dominés.

Il est possible de diminuer le risque prévisionnel en diversifiant son portefeuille, si les actifs sont
parfaitement corrélés, en supposant un grand nombre d’actifs financiers et toutes les combinaisons
possibles, il est donc possible de calculer l’espérance et la variance du rendement prévisionnel d’un
très grand nombre de portefeuilles.
Optimisation du portefeuille 14

Chaque portefeuille aura donc des caractéristiques d’espérance et de variance différentes, en


fonction du choix des actifs, des pondérations et des corrélations entre les actifs. Il est alors pos-
sible d’obtenir un graphique représentant le risque et le rendement de chaque portefeuille, et de
déterminer une frontière d’efficience à partir des portefeuilles dominants/dominés.

1.3.2 Critères du choix d’un portefeuille optimal :

Structuration du modèle de gestion du portefeuille :

La structure fondamentale du modèle de gestion du portefeuille se différencie de la forme idéale


de résolution d’un problème de décision dans l’incertitude.

– Les événements qui peuvent influencés la distribution de probabilité de return de chacun des
actifs financiers sur le marché (l’état de l’économie, du marché. . . etc.).

– La ligne d’action c’est-à-dire le budget d’investissement prédéterminé a alloué entre les dif-
férents actifs financiers négociables ni=1 Xi = 1 .
P

Si Xi est la part du budget consacrée à l’achat de l’actif i ( i = 1, 2, ...., n ) chaque ligne d’action
peut être caractérisée par un vecteur Xi répondant aux conditions suivantes :

n
X
0 < Xi < 1 et Xi = 1
i=1
Optimisation du portefeuille 15

1.3.3 Hypothèses du modèle :


– Les hypothèses relatives aux actifs financiers :

H.1 : " tout investissement est une décision prise dans une situation de risque ; le return d’un
actif financier pour toute période future est par conséquent une variable aléatoire, dont on fait
l’hypothèse qu’elle est distribuée selon une loi normale ".

C’est-à-dire une distribution symétrique stable entièrement définie par les deux paramètres :

- E(Ri ) = µ : espérance mathématique de return.


- σ(Ri ) = σ : écart-type de la distribution de probabilité du return.

Tel que le " return on investment " (ROI) " Return " c’est l’accroissement de la fortune initiale
que l’investisseur cherche à maximiser.

rt = (Pt − Pt−1 ) + Ct
Où :

- rt = return de l’actif financier pour la période (se terminant au temps) t.


- Pt = prix de marche au temps t de l’actif financier.
- Ct = revenu liquide attaché à la détention de l’actif financier durant la période (se terminant
au temps) t.

La distribution de probabilité du return est :

– Soit une distribution de probabilité objective, établie à partir des fréquences relatives des
returns observés dans le passé.
– Soit une distribution de probabilité objective.

Ainsi, à partir de cette relation (du return) on peut déduire le taux de rentabilité de chaque
action calculé comme suit :

(Pt − Pt−1 ) + Ct
Rt =
Pt−1
H.2 : " Les returns des différents actifs financiers ne fluctuent pas indépendamment les uns
des autres : ils sont corrélés ou, ce qui revient au même, ont des covariances non nulles ".

– Les hypothèses relatives au comportement des investisseurs :

H.3 : " Le comportement de tous les investisseurs est caractérisé par un degré plus ou moins
prononcé d’aversion vis-à-vis du risque. Ce dernier est mesuré par l’écart-type de la distribution
de probabilité du return ".

H.4 : " Les investisseurs sont rationnels : bien que leur fonction de préférence soit purement
subjective, ils opèrent, en référence à celle-ci, des choix strictement transitifs ".
Optimisation du portefeuille 16

H.5 : " Tous les investisseurs ont le même horizon de décision, qui comporte une seule période ".

A partir des 5 hypothèses, Markowitz propose un modèle de décision qui tient compte du
caractère hautement combinatoire du portefeuille.

1.3.4 Présentation mathématique du modèle :


Soit Rp le rendement du portefeuille compose de n actifs caractérisés par leur rendement
respectif R1 ,R2 ,. . . Rn . On suppose, en outre, que chaque actif i entre pour une proportion Xi
dans la composition du portefeuille P .
n
X
Rp = Xi Ri
i=1

En d’autres termes :
n
X n
X
E(Rp ) = E( Xi R i ) = Xi E(Ri )
i=1 i=1
n X
X n
V (Rp ) = Ri Rj cov(Xi , Xj )
i=1 j=1

Sélectionner un portefeuille revient à choisir celui qui :

- Maximise E(Rp ).
- Minimise V (Rp ) .
Pn
- Sous la contrainte que i=1 Xi = 1

Il s’agit donc d’un problème de maximisation d’une fonction économique sous contrainte. Soit
Z cette fonction économique :
Z = ΦE(Ri ) − V (Rp )
Pn
Qui doit être maximisée sous la contrainte que : i=1 Xi = 1.

Où Φ est un paramètre qui représente le degré d’aversion au risque des investisseurs.

En d’autres termes, il s’agit du taux marginal de substitution du rendement et du risque qui


exprime dans quelle mesure l’investisseur est d’accord pour supporter un risque accru en contre-
partie d’un accroissement de son espérance de rendement.

En utilisant le Lagrangien de cette expression, le problème de maximisation sous contrainte


consiste à déterminer le maximum de la fonction Z définie par :
n
X n X
X n n
X
Z=Φ Xi E(Ri ) − Xi Xj cov(Ri , Rj ) + λ(1 − Xi )
i=1 i=1 j=1 i=1

Cette fonction de n + 1 variables (X1 , X2 , ..., Xn , λ) est maximisée si sa dérivée partielle par
rapport à chacune de ces variables est nulle, ce qui revient à poser le système suivant :
Optimisation du portefeuille 17

∂Z


 ∂X1
= ΦE(R1 ) − 2X1 cov(R1 , R1 ) − 2X2 cov(R1 , R2 ) − ... − 2Xn cov(R1 , Rn ) − λ = 0
∂Z

= ΦE(R2 ) − 2X1 cov(R2 , R1 ) − 2X2 cov(R2 , R2 ) − ... − 2Xn cov(R2 , Rn ) − λ = 0


∂X2



.





.



 .
∂Z
= ΦE(Rn ) − 2X1 cov(Rn , R1 ) − 2X2 cov(Rn , R2 ) − ... − 2Xn cov(Rn , Rn ) − λ = 0



 ∂X
 ∂Z n


∂λ
= 1 − X1 − X2 − ... − Xn = 0

Soit cov(Ri , Rj ) = σij

On peut alors écrire :





 2X1 σ11 + 2X2 σ12 + ... + 2Xn σ1n + λ = ΦE(R1 )
2X2 σ21 + 2X2 σ22 + ... + 2Xn σ2n + λ = ΦE(R2 )




..

 .
2Xn σn1 + 2X2 σn2 + ... + 2Xn σnn + λ = ΦE(Rn )





X1 + X2 + ... + Xn = 1

L’écriture matricielle sera alors :


    
2σ11 2σ13 . . . 2σ1n 1 X1 ΦE(R1 )
 2σ21 2σ22 . . . 2σ2n 1  X2   ΦE(R2 ) 
    
.. ... .. ..  ..  ..
    
 . =
  
 ...
 . . .
 

 . 

2σ
 n1 2σn2 . . . 2σnn 1 ΦE(R )
  Xn 
 
 n 
1 1 ... 1 0 λ 1
Alors,
     
2σ11 2σ13 . . . 2σ1n 1 ΦE(R1 ) X1
 2σ21 2σ22 . . . 2σ2n 1  ΦE(R2 )   X2 
     
.. ... .. ..  ..  . 
     
A= ,B=  , X =  .. 

 ...
 . . .

 .   
2σ
 n1 2σn2 . . . 2σnn 1 ΦE(R ) X 
  n   n
1 1 ... 1 0 1 λ

Dans ce cas, le système d’équations à résoudre peut se résumer sous la forme A.X = B.
Par conséquent : X = A−1 B.

La détermination du poids de chacun des n actifs susceptibles d’entrer dans la composition


d’un portefeuille passe donc par l’inversion d’une matrice carrée de n + 1 lignes et n + 1 colonnes.

Compte tenu de la lourdeur des calculs nécessaires à l’inversion de la matrice A, Sharpe a


proposé un modèle simplifié, décrit ci-après et qui trouve par ailleurs une application pratique
dans le cadre de la détermination du coût des capitaux propres.
Optimisation du portefeuille 18

1.4 Le modèle simplifié de Sharpe :


On a vu précédemment que la théorie de base de Markowitz portait essentiellement sur la
maximisation de l’utilité de richesse finale de l’investisseur, une théorie que certes a proposé une
solution au problème de choix de portefeuille d’un investisseur averse au risque où les portefeuilles
optimaux sont définies comme ceux de plus faible risque pour une rentabilité donnée, mais aussi a
présenté un problème majeur concernant le temps nécessaire pour calculer et inverser la matrice
des corrélations.

Suite à cette difficulté plusieurs algorithmes ont été proposé afin de résoudre ce problème on
peut citer à titre d’exemple la méthode de Wolf (1959) ainsi que d’autres méthodes qui s’enra-
cinent de la méthode simplifier de sélection de portefeuille qui s’inscrit dans le cadre du modèle
de marché de Sharpe (1963) qu’on va détaillé en ce qui suit.

1.4.1 Principe du modèle simplifié de Sharpe :


Le principe de W.Sharpe (1963) est basé sur le développement de la gestion du portefeuille
moyenne variance simplifiée, au lieu du modèle avancé par Markowitz pour le calcul de la frontière
d’efficience qu’est caractérisée par sa lourdeur. Ce modèle est dit " Modèle De Marché " il établit
une relation linéaire entre le rendement d’une action i et le rendement du marché, ou modèle a un
seul indice, il ne contient pas de notion d’équilibre et ne fait pas d’hypothèses particulières sur le
marché et les investisseurs il propose simplement une vision simplifier.

1.4.2 Critères du choix d’un portefeuille optimal :


En se basant sur le modèle de Markowitz et en prenant en considération les nouvelles hypo-
thèses de Sharpe qui affirment que les rentabilités des actifs dépendent linéairement des facteurs
communs à l’ensemble du marché (composante dite systémique : (βi Rm ) et de facteurs spécifique
à chaque entreprise (composante dite spécifique (αi + εit ), notre modèle devient :

Rit = αi + βi Rmt + εit


Avec :

- Rit : Le rendement de l’actif i sur la période t.


- Rmt : Le rendement du marché sur la période t.
- εit : Un paramètre spécifique à l’action i.
- αi : valeur espérée de Rit lorsqueRmt estnulle.
- βi : un paramètre propre à chaque actif i, mesurant l’influence du marché sur l’actif i. (βi <
1 actif peu volatile ; βi = 1 actif aussi volatile que le marché ; βi > 1 actif assez volatile)
Optimisation du portefeuille 19

Donc l’interprétation du bêta peut être résumée comme suit :

- Un investissement ne présentant aucun risque afficherait donc un bêta nul.

- Un bêta inférieur à 1 indique que si le marché est à la baisse, le titre sera susceptible de
baisser moins que le marché.

- Un bêta supérieur à 1 indiquera que si le marché est à la hausse, le titre sera susceptible de
suivre moins rapidement la tendance à la hausse.

Le concept de bêta ayant été introduit, passons maintenant à la théorie du modèle qui a pour
objectif donc de simplifier celui de Markowitz en utilisant ce fameux coefficient. Par définition,
le bêta global d’un portefeuille est déterminé à partir des bêta pondérés respectifs de chacun des
titres ou bêta sous-jacents qui le composent tel que :
n
X
βp = Xi βi
i=1

Avec βi étant le bêta du portefeuille global, Xi la proportion du titre i dans le portefeuille P , βi


le bêta du titre i et n le nombre d’actifs financiers présents dans le portefeuille.

1.4.3 Hypothèses du modèle :


Pour simplifier les procédures d’estimation dans ce modèle, deux hypothèses ont été relevées :

H.1 : les rendements des différentes valeurs sont exclusivement lie entre eux par une relation
avec un facteur de base sous-jacent, autrement dit que chaque valeur doit être estimée par un
seul facteur exogène, il s’agit du modèle uni factoriel ou modèle des indices. Le terme "unifac-
toriel" vient donc du fait qu’a la base le but du modèle de Sharpe est de définir le rendement
d’un placement financier en fonction de son risque non diversifiable, assimile au seul risque de
marche (ou risque systématique) donne par un nombre appelé "coefficient beta". Les investisseurs
et gestionnaires distinguent trois sortes de risques :

1. Le "risque spécifique" relatif (implicite) au titre lui-même (sa variance).


2. Le "risque systématique/non diversiable" relatif à l’économie/marché au sens le plus large
(variance du portefeuille de référence du marché).
3. Le "risque global" qui est en quelque sorte la somme des deux (c’est un peu plus subtil
qu’une simple somme).

Le facteur risque est difficilement quantifiable. L’élément qui aidera à le déterminer est la
variation du rendement de l’actif financier par rapport à la variation du rendement du marché
dans sa globalité. Un actif financier dont le cours fluctue souvent et dont la volatilité est grande
présente donc certainement un risque élevé.

Cette hypothèse est formalisée comme suit :

Rit = αi + βi I + εit
Optimisation du portefeuille 20

Avec :

- Ri : rendement de l’actif i sur la période t.


- I : rendement du marché sur la période I = αi + vn+1 (D’où vn+1 est une variable aléatoire
tel que (E(vn+1 ) = 0 et V (vn+1 ) = Qn+1 ).
- εit : paramètre spécifique à l’action i ( E(εit ) = 0 et V (εit ) = constante).
- αi : valeur espérée lorsque I est nul.
- βi : paramètre propre à chaque actif i , mesurant l’influence du marché sur l’actif i (βi =
variation attendue de la valeur du portefeuille/variation du niveau de l’indice).

H.2 : la corrélation entre les titres similaires est identique, et pour obtenir une bonne estima-
tion non biaisée des paramètres du modèle, le terme de l’erreur εit doit respecter les conditions
suivantes :

- Doit être d’espérance nulle, de variance constante et distribue selon une loi normale. On a :

E(εit ) = 0; σ 2 (εit ) = σ 2 ; et εit ∼ N (0, σ 2 (ε))

- Ne doit présenter aucune autocorrection, ou dépendance serielle. Il faut donc que :

Cov(εit , εit − s) = 0 pour tout s>0

- Terme d’erreur doit être indépendant du régresseur Rm , ce qui implique qu’aucun autre
facteur n’a une influence systématique sur Ri :

Cov(εit , Rit ) = 0

- Outre le modèle de marché suppose qu’il n’y a aucun lien entre les termes aléatoires d’une
régression à l’autre, c’est à dire entre paires de titres on a donc aussi : Cov(εit , εkt ) = 0.

1.4.4 Présentation mathématique du modèle :


En considérant la même hypothèse que dans le modèle de Markowitz, à savoir un portefeuille
dont le rendement Rp est défini par :

n
X
Rp = Xi Ri
i=1

Et selon l’hypothèse posé par Sharpe : le rendement Ri de chaque actif i est lié linéairement à un
indice de marché noté I. En d’autres termes :

Ri = αi + βi I + εi
Où I et εi constituent des variables aléatoires qui présentent les propriétés suivantes :

- I est donc le rendement d’un indice économique donné (indice boursier, indice du produit
national brut, indice des prix ou voir même rendement le rendement du portefeuille du marché
lui-même...) au temps t et est la variable expliquée de la régression (selon la terminologie utilisée
dans le chapitre de Méthodes Numériques) considérée comme une variable aléatoire.
Optimisation du portefeuille 21

- αi , βi sont des estimateurs non biaisés des paramètres propres à cette valeur. Le premier
terme appelée en finance "coefficient alpha" est simplement l’ordonnée à l’origine de la régression
(le rendement de l’actif lorsque le rendement de l’indice de référence est nul soit lorsque le marché
à un rendement nul) et le deuxième paramètre est pour rappel simplement le bêta du portefeuille
risqué i.

- εi une variable aléatoire supposée caractérisée par une espérance nulle, une variance égale à
une constante et les différents εi sont supposés non corrélés entre eux (covariance nulle).

Mathématiquement ceci se traduit comme suit :

- E(εi ) = 0,

- V (εi ) = constante,

- Cov(εi , εi ) = 0,

- I = αi+1 + vn+1 où vn+1 est une variable aléatoire telle que :

E(vn+1 ) = 0 et V (vn+1 ) = constante = Qn+1 .

De ce fait là il est possible de construire un modèle simplifié de l’algorithme de Markowitz,


donc soit :
n
X n
X n
X n
X
Rp = Xi Ri = Xi (αi + βi I + εi ) = Xi (αi + εi ) Xi βi I
i=1 i=1 i=1 i=1

- Risque micro : risque spécifique, relatif aux évènements spécifiques aux compagnies indi-
viduelles, risque diversifiable.

- Risque macro : risque systématique, il concerne les évènements macroéconomiques non


anticipées (chocs sur les taux d’intérêt, taux d’inflation, taux de chômage. . .) affectant l’ensemble
des titres risque non diversifiable.

Dès lors :

" n n
# n n n
X X X X X
E(Rp ) = E Xi (αi + εi ) + Xi βi I = Xi E(εi ) + Xi E(αi ) + Xi βi E(αn+1 + vn+1 )
i=1 i=1 i=1 i=1 i=1

Soit :
n
X
Xn+1 = Xi βi
i=1
Optimisation du portefeuille 22

Dans ce cas, comme E(εi ) = 0. Si les rendements sont explicitement données et donc connus,
l’espérance se calculera avec :
n
X n
X n+1
X
E(Rp ) = Xi αi + 0 + Xn+1 E(αn+1 + vn+1 ) = Xi αi + 0 + Xn+1 αn+1 = Xi αi
i=1 i=1 i=1

Car E(vn+1 ) = 0.

Finalement on obtient :
n+1
X
E(Rp ) = Xi αi
i=1

Comme le client va souvent chercher à maximiser l’espérance tout en minimisant la variance


(le risque), il nous reste à déterminer cette dernière.

Étant donné que maintenant supposons explicitement connus les rendements des actifs finan-
ciers du portefeuille et les rendements du portefeuille (indice) du marché nous avons :

" n n
# n n n
Xi2 V (αi ) + Xi2 V (εi ) + Xi2 βi2 V (αn+1 + vn+1 )
X X X X X
V (Rp ) = V Xi (αi + εi ) + Xi βi I =
i=1 i=1 i=1 i=1 i=1

Or, la variance d’une constante (comme αi ) est égale à 0.

En outre. Notons Qi = V (εi ). De plus on sait que : Qn+1 = V (vn+1 ).


Dès lors :
n
Xi2 Qi + Xn+1
2
X
V (Rp ) = Qn+1
i=1

Car V (αn+1 ) = V (constante) = 0.


Pn+1
Finalement on obtient : V (Rp ) = i=1 Xi2 Qi .

Ici on peut déduire que le risque d’un portefeuille bien diversifié est constitué donc uniquement
du risque de marché.

Dans ce contexte la maximisation de la fonction économique Z revient à déterminer :


n+1 n+1 n+1
" #
Xi2 Qi
X X X
M axZ = maxΦE(Rp − V (Rp ) = max Φ Xi α i − + λ(1 − Xi )
i=1 i=1 i=1
Pn
Sous la contrainte que i=1 Xi = 1.
Optimisation du portefeuille 23

Le calcul de chacune des dérivées partielles s’écrit :

∂Z



 ∂X1
= Φα1 − 2X1 Q1 − λ = 0
∂Z
= Φα2 − 2X2 Q2 − λ = 0



 ∂X2
..



.

∂Z


 ∂Xn
= Φαn − 2Xn Qn − λ = 0
∂Z

= Φαn+1 − 2Xn+1 Qn+1 − λ = 0


∂Xn+1



∂Z
= 1 − X1 − X 2 − . . . − X n = 0


∂λ

Soit sous forme matricielle :


    
2Q1 0 . . . 0 1 X1 Φα1
 0 2Q . . . 0 1 X2 Φα2
 
   
2    
. ... .. ..  .. ..
 
   

 ... .. . .

 .

 =

 .


    
 0 0 . . . 2Qn+1 1  + 1 Φα
 Xn
 
   n+1 
1 1 ... 1 0 λ 1

La résolution de ce système passe alors par l’inversion d’une matrice plus simple que celle du
modèle de Markowitz mais nécessite cependant des d’hypothèses relativement contraignantes.

Pour finir, signalons que les financiers utilisent souvent les indicateurs de rendement modéré
par le risque, le plus répandu au niveau international étant le "ratio de Sharpe". Il est déterminé
par le rapport entre le rendement (pour être plus exact il s’agit de son espérance) différentiel du
rendement d’un placement (actif) sans risque et le rendement du marché (appelé le "benchmark")
et la déviation standard du placement sans risque :
Rp − Rf
Sp =
σp
Relation qui exprime donc le niveau de rendement pur par unité de volatilité (ou par unité
de risque). Pour simplifier, c’est un indicateur de la rentabilité (marginale) obtenue par unité
de risque pris dans cette gestion. Il permet de répondre à la question suivante : le gestionnaire
parvient-il à obtenir un rendement supérieur au référentiel, mais avec davantage de risque ?
Optimisation du portefeuille 24

- Si le ratio est négatif, le portefeuille a moins performé que le référentiel et la situation est
très mauvaise.

- Si le ratio est compris entre 0 et 0.5, le sur-rendement du portefeuille considéré par rapport
au référentiel se fait pour une prise de risque trop élevée. Ou, le risque pris est trop élevé pour le
rendement obtenu.

- Si le ratio est supérieur à 0.5, le rendement du portefeuille surperforme le référentiel pour


une prise de risque ad hoc. Autrement dit, la surperformance ne se fait pas au prix d’un risque
trop élevé.

Ce qui donne en développant :

Pn Pn Pn
i=1 Xi (αi + βi I + εi ) − i=1 Xi (αi + εi ) i=1 βi I
Sp = q =q .
V ar(Xi (αi + βi I + εi )) V ar(Xi (αi + βi I + εi ))

1.5 Modélisation :
Une proposition d’un modèle multi-objectif, pour résoudre les problèmes d’optimisation de
portefeuilles, est présentée par le problème suivant, noté (P ) :

”min” Z1 = xT σx



”max” Z2 = rT x





t.q Ax ≥ b,


(P )


 Aeq x = beq ,
x ≥ 0,





xj ∈ N, ∀j ∈ J.

Tel que σ est une matrice symétrique, qui représente la variance (le risque). r ∈ Rn représente
le rendement. Quand aux contraintes linéaires Aeq x ≥ beq , elles peuvent représenter la satisfaction
des demandes. J est le nombre de variables de décision.

xj ∈ N , ∀j ∈ J. Cette contrainte est pour le cas où l’investisseur aura à choisir des lots discrets
d’actions dans un stock donné.

1.6 Conclusion :
Comme on a pu le voir, dans un modèle de gestion du portefeuille (Markowitz), l’un des
objectif est quadratique, donc on peut le résoudre avec l’une des méthodes de résolution des pro-
blèmes quadratiques existantes dans la littérature qu’on va citer dans ce qui suit.
2 Programmation Quadratique

2.1 Introduction :

U n programme non linéaire est beaucoup plus difficile à résoudre par rapport à un pro-
gramme linéaire, et la théorie du Simplexe ne peut être utilisée. Une solution optimale d’un
programme linéaire lorsqu’elle existe est un point extrême de l’ensemble des solutions réalisables.
Par contre une solution optimale d’un problème non linéaire peut être un point intérieur ou sur
la frontière de l’ensemble des solutions réalisables mais pas nécessairement un point extrême. La
principale difficulté de la programmation non linéaire est que l’on peut avoir des optimaux locaux
qui ne sont pas globaux. Cependant, il existe une classe de problèmes pour lesquels ce problème
ne se produit pas dans le sens que tous les optimums locaux sont des optimum globaux. Il s’agit
des problèmes convexes.

Les cas les plus fréquents de la programmation non linéaire convexe est la programmation
quadratique qui est une classe importante de programmation mathématique, de part sa vague
utilisation dans différents domaines comme la sélection de portefeuille [35].
Nous allons détailler dans ce qui suit, les différents outils pour résoudre ces types de pro-
grammes.

2.2 Notions sur l’optimisation convexe :


Pn Pn
Notons que xt Ax = i=1 j=1 aij xi xj est appelée "forme quadratique".

Propriétés : Soit A une matrice carrée d’ordre n, symétrique.


– A est définie positive si et seulement si (−A) est définie négatives.
– A est définie positive si et seulement si tous les mineurs principaux de A sont strictement
positifs. ie, ∇j (A) > 0 ∀j = 1, n.
– A est définie positive si et seulement si toutes les valeurs propres de A sont strictement
positives.
– A est semi-définie positive si et seulement si toutes les valeurs propres de A sont positives
ou nulles et il existe une valeur propre λ telle que λ = 0.
Ensemble convexe : On dit que l’ensemble S est convexe si et seulement si :

∀x, y ∈ S et ∀λ ∈ [0, 1], λx + (1 − λ)y ∈ S

25
Programmation Quadratique 26

D’un point de vue géométrique, un convexe est donc un ensemble qui, lorsqu’il contient deux
points, contient nécessairement le segment les reliant.

Combinaison linéaire convexe : Un vecteur y ∈ S est une combinaison linéaire convexe


des points {x1 , ..., xp } s’il existe des coefficients réels λi ; i ∈ {1, ..., p}, tels que :
p
X p
X
y= λi xi , avec λi ≥ 0 , ∀i ∈ {1, ..., p} et λi = 1.
i=1 i=1

Enveloppe convexe : L’enveloppe convexe d’un ensemble S ⊂ Rn ; est l’ensemble des points
de Rn qui s’écrivent comme combinaisons convexes des points de S.Elle est notée par :
p p
conv(S) = {x ∈n /x =
X X
λi xi , xi ∈ S, λi ≥ 0 i ∈ {1, ..., p} et λi = 1}
i=1 i=1

C’est le plus petit ensemble convexe contenant S.

– L’ensemble {x ∈ Rn /a0 x = b} représente un hyperplan de Rn ;


– L’ensemble {x ∈ Rn /a0 x ≤ b} représente un demi-espace fermé de Rn dont l’hyperplan
correspondant constitue la frontière.

Polyèdre :
– Un polyèdre S est l’intersection d’un nombre fini de demi-espaces fermés et/ou d’hyperplans.
– Un polyèdre est un ensemble convexe fermé.
– Un polyèdre S est born ? s’il existe une valeur β finie et positive telle que :

|xj | ≤ β ∀j ∈ {1, ..., n} et ∀x ∈ S.

– Un polytope est un polyèdre borné et non vide.

Fonction convexe : La fonction f : S → R est dite convexe sur l’ensemble S non vide de Rn
si et seulement si :

∀x, y ∈ S et ∀λ ∈ [0, 1] on a f (x + (1 − λ)y) ≤ λf (x) + (1 − λ)f (y)

Point extrême : Soit S un convexe non vide de Rn . x est dit point extrême ou sommet de S
si :
x = λx1 + (1 − λ)x2 ∀x1 , x2 ∈ S et λ ∈ ]0, 1[ alors x = x1 = x2 .

Fonction quasiconvexe : La fonction f est dite quasiconvexe sur S si et seulement si :

∀x, y ∈ S et ∀λ ∈ [0, 1] on a f (λx + (1 − λ)y) ≤ max{f (x), f (y)}


f est quasiconvexe sur S est ainsi équivalente à :

∀x, y ∈ S et ∀λ ∈ [0, 1] , f (x) ≤ f (y) ⇒ f (λx + (1 − λ)y) ≤ f (y)


Remarque : Une fonction convexe sur S convexe est quasiconvexe.
Programmation Quadratique 27

Fonction strictement quasiconvexe : La fonction f est strictement quasiconvexe sur S si :

∀x, y ∈ S avec f (x) 6= f (y)∀λ ∈ ]0, 1[ on a f (λx + (1 − λ)y) < max{f (x), f (y)}

Fonction différentiable : Soit S un ensemble non vide de Rn et f : S → R. f est dite


différentiable en x̄ ∈ S s’il existe une application linéaire L : Rn → R et une fonction α : Rn → R
tels que :
f (x) = f (x̄) + L(x − x̄) + kx − x̄k α(x̄; x − x̄); ∀x ∈ S
Dans ce cas L est spécifiée par la matrice C d’ordre 1 × n telle que C = ∇f (x̄)
δf (x̄) t
 
δf (x̄)
où limx→x̄ α(x̄; x − x̄) = 0 et ∇f (x̄) = δx1
, ..., δxn

Fonction pseudoconvexe : Soit f une fonction différentiable sur S un ouvert non vide de
Rn . f est pseudoconvexe sur S si :
0
∀x, y ∈ S, (y − x) ∇f (x) ≥ 0 ⇒ f (y) ≥ f (x)

Proposition : Si f est convexe alors f est quasiconvexe. Si de plus f est différentiable alors
elle est pseudoconvexe.

2.2.1 Condition d’optimalité en optimisation non linéaire :


Considérons le problème de minimisation (Pm ) suivant :



 min f (x)
(Pm ) sc
x ∈ S = {x ∈n |Ax ≤ b, x ≥ 0}

Minimum global : Une solution admissible x̄ est dite minimum global si et seulement si
f (x̄) ≤ f (x), ∀x ∈ S.

Minimum local : Une solution admissible x̄ est dite minimum local si et seulement si il existe
un voisinage V (x) de x tel que f (x̄) ≤ f (x), ∀x ∈ S ∩ V (x).

Tout minimum global est évidemment un minimum local.

Théorème : (Conditions nécessaire d’optimalité) Soit f : S ⊂ Rn → R est une fonction


convexe sur S un ensemble convexe non vide. Si x est un minimum local alors il est un minimum
global pour le problème (Pm ).

Théorème : Si f : S ⊂ Rn → R est une fonction convexe et différentiable sur S convexe non


vide et x̄ ∈ S tel que ∇f (x) = 0, alors x est un minimum global de f sur S.
Programmation Quadratique 28

Conditions de Kuhn-Tucker :
Considérons le problème de minimisation (P ) :


 min f (x)
(P ) sc
x∈S

où S est l’ensemble de solutions réalisables donné par :

S = {x ∈n |gi (x) ≤ 0, i = 1, ..., m; x ≥ 0}

On suppose que f et gi ; i = 1, m, sont différentiables sur un domaine de Rn .

Définition : On appelle Lagrangien associé au problème (P ) la fonction L : Rn × Rm → R


définie par :
m
X
L(x, λ) = f (x) + λi gi (x)
i=1
Les λi pour i = 1, m sont appelés multiplicateurs de Lagrange.

Définition :

– Les contraintes gi (x) = 0 sont dites actives (ou saturées) en x.


– Les contraintes gi (x) < 0 sont dites inactives (ou insaturées) en x.

Définition : Soit z ∈ Rn z 6= 0 et soit x ∈ S. On dit que z est une direction admissible en x


s’il existe ᾱ > 0 tel que x + αz soit une solution réalisable pour tout α ∈ [0, ᾱ].

Remarque : Si x est un minimum local du problème (P ) et z une direction admissible alors


f (x + αz) ≥ f (x) pour α > 0 suffisamment petit.

On définit les ensembles suivants :

I(x) = {i ∈ {1, ..., m}|gi (x) = 0} : ensemble des indices des contraintes actives en x.

Z(x) = {z ∈ Rn |∃ᾱ > 0, (x + αz) ∈ S, 0 < α < ᾱ} : ensembles des directions admissibles en
x.

Z(x) : fermeture de Z(x).

Y (x) = {z ∈ Rn z 6= 0|z t ∇gi (x) ≤ 0, ∀i ∈ I(x)}.

On a alors :

Lemme : Soit x ∈ S, on a Z(x) ⊂ Y (x).

Définition : On dit que S satisfait l’hypothèse de qualification des contraintes (QC) en x ∈ S


si Z(x) = Y (x)
Programmation Quadratique 29

La vérification de l’hypothèse de qualification des contraintes en x, signifie que les conditions


z t ∇gi (x) ≤ 0 ∀i ∈ I(x) sont nécessaires et suffisantes pour que z soit une direction admissible en
x.
La vérification directe de l’hypothèse de qualification des contraintes (QC) peut être très dif-
ficile en pratique, c’est pourquoi on a recherché des conditions suffisantes pour que (QC) soit
réalisée. Les résultats les plus importants sont rassemblés dans le lemme suivant :

Lemme :
1. Pour que l’hypothèse de (QC) soit vérifiée en un point x0 de S il suffit que ∇gi (x0 ) pour
i ∈ I(x0 ) soient linéairement indépendants
2. Pour que l’hypothèse de (QC) soit vérifiée en tout point x ∈ S, il suffit que l’une des deux
conditions suivantes soit vérifiée :
(a) toutes les fonctions gi sont linéaires,
(b) toutes les fonctions gi sont pseudoconvexes et il existe x̄ ∈ Stel que gi (x̄) < 0; ∀i = 1, m
(cette condition est connue sous le nom de condition de Slater).

Le théorème de Kuhn-Tucker s’énonce alors comme suit :

Théorème : Soit x∗ ∈ S et supposons que l’hypothèse de qualification des contraintes soit


vérifiée en x∗ , ie Z(x∗ ) = Y (x∗ ).

– Si x∗ est un optimum local pour le problème Pm , alors il existe λ ∈ Rm vérifiant le système


de Kuhn-Tucker suivant :

∇f (x∗ ) + m ∗

i=1 λi ∇gi (x ) = 0
P



(KT ) λi gi (x ) = 0 i = 1, m
λi ≥ 0, i = 1, m

– Si f est pseudoconvexe, gi quasiconvexe pour i = 1, ..., m une condition nécessaire et suffisante


pour que x∗ soit une solution optimale pour le problème (P ) est qu’il existe λ ∈ Rm vérifiant les
conditions du système (KT ).

2.3 Programmation quadratique :


Les programmes quadratiques sont les programmes non linéaires les plus proches de de la
programmation linéaires, ils représentent une transition naturelle de la théorie de la programma-
tion linéaire vers la théorie de la programmation non linéaire, cependant, il existent des différences
importantes entre les solutions des problèmes de programmation linéaire et celles des problèmes
de programmation quadratique.

Une solution optimale d’un programme linéaire lorsqu’elle existe est un point extrême de
l’ensemble des solutions réalisables (polyèdre des solutions réalisables). Par contre une solution
optimale d’un problème quadratique peut être un point intérieur ou sur la frontière de l’ensemble
des solutions réalisables mais pas nécessairement un point extrême.
Programmation Quadratique 30

2.3.1 Formulation du problème :


Le problème de la programmation quadratique (QP ) consiste à déterminer un élément x∗ op-
timisant la fonction 21 xt Gx + g t x sur un domaine réalisable S défini par le système de contraintes
linéaires. Il a donc la forme suivante :

optimiser 12 xt Gx + g t x



(QP ) sc
S = {x ∈ Rn /Ax ≤ 0, x ≥ 0}

où G est une matrice réelle symétrique d’ordre n × n, g et x deux vecteurs de Rn , A une


matrice réelle d’ordre m × n et b un vecteur de Rm . L’ensemble S est supposé borné non vide.

Lorsque la matrice G possède certaines propriétés, la fonction f peut prendre un nom particu-
lier. En effet, lorsque G est semi-définie (positive ou négative) le problème est appelé programme
quadratique semi-défini, sinon le problème est dit programme quadratique indéfini.

Si de plus, les variables sont astreintes à ne prendre que des valeurs entières, le programme
(QP ) est appelé programme quadratique en nombres entiers noté (IQP ).

Un problème de programmation quadratique semi-définie est un programme qui peut se mettre


sous la forme suivante :

min(max) f (x) = 21 xt Gx + g t x



(QPD )  sc

S = {x ∈ Rn /Ax ≤ b, x ≥ 0}

où G est une matrice réelle symétrique d’ordre n × n qui a la particularité d’être semi-définie
positive (resp négative), g et x deux vecteurs de Rn , A une matrice réelle d’ordre m × n et b un
vecteur de Rm . L’ensemble S est supposé borné non vide.

Théorème : Une forme quadratique semi-définie positive est une fonction convexe.

Comme la fonction f (x) est convexe, les contraintes sont linéaire alors, des conséquences pour
un problème de programmation quadratique (P QD ) peuvent être cités :

Conséquences :

– Un minimum local du problème (QPD ) est un minimum global.


– Une condition nécessaire et suffisante pour que x soit une solution optimale du problème
(QPD ) est qu’il existe λ ≥ 0 tel que (x, λ) vérifie les conditions du système (KT ).
Programmation Quadratique 31

2.4 Méthodes de résolution :


Il existe plusieurs méthodes pour résoudre les problèmes de programmation quadratique,
parmi elles, citons :

Méthode d’activation de contraintes (ASM) :


La méthode d’activation des contraintes (Active-set method, ASM) est une méthode classique,
développée au début des années soixante-dix pour la résolution des problèmes de programmation
linéaire et quadratique. Elle s’applique pour des problèmes d’optimisation avec des contraintes
linéaires de type inégalités ou mixtes (égalités et inégalités).

Le principe général de la méthode consiste à écarter temporairement un certain nombre


de contraintes d’inégalités et de résoudre à chaque itération un problème avec uniquement des
contraintes d’égalité, correspondant aux contraintes actives. Par la suite, l’ensemble des indices
actifs est ajusté en ajoutant ou/et en supprimant une contrainte à la fois jusqu’à l’obtention de la
solution optimale.

La méthode ASM pour le cas linéaire est facile à appliquer par rapport au cas quadratique
puisque cela dépend du nombre de contraintes actives à l’optimum. D’après la théorie de la pro-
grammation linéaire, on sait à l’avance que la solution optimale correspond à un sommet du
polyèdre du domaine admissible, contrairement à un problème quadratique où la solution peut
être un sommet, une face ou un point de l’intérieur du polyèdre.

Méthode du point intérieur :


Les méthodes de points intérieurs forment une classe d’algorithmes qui permettent de résoudre
des problèmes d’optimisation convexe (linéaires ou non).

Les méthodes de points intérieurs se répartissent en plusieurs familles :

– La méthode "affine scaling" (optimisation sur des ellipsoides ).


– La méthode de réduction du potentiel (notion de barrière, chemin central, relaxation).

La méthode du chemin central est le représentant le plus important de cette famille.

Toutes ces méthodes trouvent leur origine (historique) dans les travaux d’un élève du mathé-
maticien soviétique Andrei Kolmogorov : Dikin. C’est, en effet, à Dikin que l’on doit la méthode
des ellipsoides sur laquelle se fondent plus ou moins toutes les méthodes de points intérieurs.
Arkadi Nemirovski, David B. Yudin, Shor développent, en 1972, la méthode des ellipsoides pour
des problèmes d’optimisation (non linéaires) convexe. En 1979, Leonid Khachiyan démontre que
la méthode des ellipsoides, appliquée à la P L a une complexité, dans le pire des cas, polynomiale.
Cependant, l’algorithme qu’il propose est beaucoup plus lent que le simplexe. Cette approche, qui
s’étend de façon très élégante à des problèmes non linéaires convexes peut être considéré comme
l’idée germinale des méthodes de points intérieurs développées par la suite. Les algorithmes déve-
loppés par la suite ont été inspirés par l’Algorithme de Karmarkar, développé en 1984 par Narendra
Kamarkar [63] pour l’optimisation linéaire. L’idée de base de la méthode est d’utiliser des fonc-
tions barrières pour décrire l’ensemble des solutions qui est convexe par définition du problème.
A l’opposé de l’algorithme du simplexe, cette méthode atteint l’optimum du problème en passant
par l’intérieur de l’ensemble des solutions réalisables. Toutefois, on trouve quelques unes des plus
importantes contributions dans les travaux de Nesterov et Nemirovski [64], qui stipulent que la
Programmation Quadratique 32

méthode peut être appliquée sur d’autres classes de problèmes comme les problèmes quadratiques
convexes.

Méthode du simplexe quadratique de Wolfe (1959) :


Durant ces dernières années beaucoup d’algorithmes ont été conçus pour résoudre des pro-
blèmes quadratiques convexe, la méthode classique pour la résolution de ce type de problème est
celle de Wolfe [67, 68, 69] qui est une modification légère de la méthode du simplexe [65, 66, 67].

Son principe consiste à résoudre le système d’optimalité de "Karush-Kuhn-Tucker" (KT ) , en


ajoutant la condition de complémentarité. l’algorithme de la méthode nécessite une solution réa-
lisable de départ. Elle est obtenue en utilisant la première phase du simplexe.

Considérons le problème de programmation quadratique sous la forme standard suivante :

min 21 xt Gx + g t x



sc (QP’)
S = {x ∈ Rn /Ax = b, x ≥ 0}

où G est une matrice réelle semi-définie positive d’ordre n × n, g et x deux vecteurs de Rn ,


A ∈ Rm×n et b ∈ Rm . L’ensemble S est supposé borné non vide.

Le Lagrangien associé au problème (QP 0 ) précédent est :


1
L(x, λ, γ) = xt Gx + g t x + λt (Ax − b) − γ t x
2
Le m-vecteur λ représente le multiplicateur de Lagrange associé à la contrainte d’égalité, et le
n-vecteur γ représente le multiplicateur de (KT ) associé à la contrainte d’inégalité du problème
(QP 0 ).

Comme le problème (QP 0 ) est convexe alors les contraintes d’optimalité de (KT ) sont à la fois
nécessaires et suffisantes, formulées de cette manière :

x∗ est une solution optimale du problème (QP 0 ) si et seulement si il existe deux vecteurs
λ∗ ∈ Rm et γ ∗ ≥ 0, appartenant à Rn vérifiant les relations suivantes :

= Gx + g + At λ∗ − γ ∗ = 0 L1
 ∂L

 ∂x∗
 ∂L = Ax∗ − b = 0, x∗ ≥ 0 L2 (KT)

∂λ∗
∗t ∗

 γ x = 0 L3
 ∗
λ ∈ Rm , γ ∗ ≥ 0

L4

– la relation L1 est appelée condition de stationnarité,


– la relation L2 est la faisabilité de la solution,
– la relation L3 est la condition de complémentarité,
– la relation L4 est la non négativité des multiplicateurs de (KT ).
Programmation Quadratique 33

Le système (KT ) contient (n + m) équations linéaires à (2n + m) inconnues, définies par L1


et L2 , et n équations non linéaires définies par L3 :

γj∗t x∗j = 0 ∀j = 1, n (L3)

Pour trouver une solution au système tel que (L3) soit vérifiée, il suffit d’obtenir une solution
réalisable de base du système linéaire {(L1 ), (L2 )}, tout en s’assurant que x∗j soit basique et γj∗ est
non basique, ou vice versa.

Pour appliquer la méthode du simplexe, il faut alors écrire le système {(L1 ), (L2 )} sous forme
standard, ce qui veut dire que le second membre doit être positif ou nul ainsi que le vecteur λ∗ ,
on peut dans ce cas écrire le vecteur λ∗ sous la forme suivante :

λ∗i = αi∗ − αm+i


∗ ∗
, αm+i ≥ 0, αi∗ ≥ 0, i = 1, m.

2.5 Conclusion :
Dans ce chapitre, nous nous somme intéressés aux problèmes de l’optimisation non linéaire à
savoir l’optimisation quadratique, nous avons présenté les notions de bases de ce type de problèmes,
et nous avons aussi, parcouru quelques méthodes consacrées aux programmes quadratiques.
3 Optimisation Multi-Objectif

Introduction

L ’optimisation multi-objectif trouve ses racines dans les travaux en économie de Ed-
geworth et de W.Pareto 1906 sur l’économie politique, dans lesquels l’apparition de l’optimum
multi-objectif.

Un problème d’optimisation mono-objectif implique une seule fonction objectif. En revanche,


l’optimisation multi-objectif considère plusieurs objectifs souvent contradictoires à optimiser si-
multanément.

L’optimisation multi-objectif consiste donc à optimiser plusieurs fonctions objectifs spécifiées


en satisfaisant toutes les contraintes (s’il y en a). Dans un tel cas, il n’y a habituellement pas
qu’une seule solution optimale, mais un ensemble d’alternatives avec différentes valeurs de fonc-
tions cout, appelées solutions Pareto optimales, ou solutions non-dominées c-à-d, il faut trouver
les meilleurs compromis possibles entre les fonctions objectifs. Ce chapitre est consacré au rap-
pel de quelques notions de l’optimisation multi-objectif ainsi que quelques méthodes de résolution.

3.1 Problème d’optimisation multi-objectif (P M O) :

La phrase "Optimisation multi-objectif" [5, 18], est synonyme avec "Optimisation multicritères"
ou "Optimisation multi performances", l’optimisation multi-objectif a été définie comme un pro-
blème de recherche d’un vecteur de variables de décisions qui satisfait les contraintes et optimise
un vecteur ayant comme éléments les fonctions objectifs [9] .Ces fonctions sont souvent en conflit,
d’où le terme "Optimise" veut dire trouver une solution qui puisse donner les valeurs de toutes les
fonctions objectifs acceptables au décideur [39].

34
Optimisation Multi-Objectif 35

3.1.1 Formulation d’un problème multi-objectif :


La formulation générale d’un problème d’optimisation multi-objectif est la suivante :

”Optimiser”F (x) = (f1 (x), f2 (x), ..., fp (x)).


tel que x ∈ S.
Où p ≥ 2 représente le nombre d’objectifs à optimiser, x représente un vecteur de variables
de décision, S = {x ∈ R/gj (x) < 0, x ≥ 0} est l’ensemble de solutions réalisables associé à des
contraintes d’inégalité, d’inégalité et des bornes explicites (espace des décisions) et f (x) est le
vecteur des objectifs à optimiser. fk et gj (k = 1, 2, ..., p.j = 1, 2, ..., m), des fonctions à valeurs
réelles du vecteur de décision.

Dans le cadre de l’optimisation multi-objectif, le plus souvent le décideur raisonne plutôt en


termes d’évaluation d’une solution sur chaque critère. L’ensemble Y = F (S) représente les points
réalisables dans l’espace des critères, et F = (f1 , f2 , ..., fp ) avec Yk = fk (x) représente un point de
l’espace des critères.

3.1.2 Concepts de base :


Notion de dominance :
Comme la solution optimale est une multitude de points dans Rn , il est vital pour identifier ces
meilleurs compromis de définir une relation d’ordre entre ces éléments. Dans ce cas cette relation
est appelée relation de dominance au sens de Pareto.

Figure 3.1 – Exemple de dominance

Le point noir est dominé par chacun des triangles, domine chacun des étoiles et équivalents
aux anneaux aux sens de la dominance.
Optimisation Multi-Objectif 36

Dominance faible :
La solution Y = (y1 , . . . , ym ) domine faiblement une solution Z = (z1 , .., zm ) si :

- Z est au moins aussi bon que Y dans tous les objectifs, et,

- Y est strictement meilleur que Z dans au moins un objectif.

Mathématiquement, cela est expliqué comme suit :

1. fi (Y ) ≤ fi (Z), ∀i ∈ 1, ..., p .

2. ∃j telque : fj (Y ) < fj (Z).

Si la solution Y domine faiblement la solution Z ,nous allons noter : Y  Z.

Dominance forte :
La solution Y = (y1 , . . . , ym ) domine fortement une solution Z = (z1 , .., zm ) , (si Y domine
fortement Z , alors Y est meilleure que Z sur tous les critères) si et seulement si :

fi (Y ) < fi (Z), ∀i ∈ {1, ..., p}.


et on note : Y ≺ Z.

Notons que pour toute paire de solution Y et Z, une et seulement une des affirmations sui-
vantes est vraie :

1. Y domine Z.
2. Y est dominé par Z.
3. Y et Z sont équivalentes au sens de la dominance de Pareto.

Les solutions équivalentes au sens de la dominance sont appelée solutions équivalentes au sens
de Pareto ou solutions Pareto équivalentes ou, encore, solutions non-dominées.

- Efficacité :
Une solution x̄ ∈ S est dite solution efficace (ou Pareto optimale) si et seulement s’il n’existe
pas de solution x ∈ S telle que f (x) domine f (x̄).

Un point est efficace si son image par f est un vecteur critère non dominé. Une définition
équivalente de l’efficacité est :

Une solution x̄ ∈ S est dite solution efficace si et seulement s’il n’existe pas de solution x ∈ S
telle que
fi (x) ≥ fi (x̄), ∀ i ∈ {1, ..., r} et ∃ j ∈ {1, ..., r} avec fj (x) > fj (x̄).

A partir d’un point efficace, il est impossible d’augmenter la valeur d’un des critères sans di-
minuer la valeur d’au moins un autre critère.
Optimisation Multi-Objectif 37

Une solution x̄ ∈ S est dite solution faiblement efficace si et seulement s’il n’existe pas de
solution x ∈ S telle que :
fi (x) > fi (x̄), ∀ i ∈ {1, ..., r}.

Il est clair qu’une solution efficace est faiblement efficace, mais l’inverse est faux.

Points particuliers :
En vue d’avoir certains points de références permettant de discuter de l’intérêt des solutions
trouvées, des points particuliers ont été définis dans l’espace objectif. Ces solutions spéciales sont
souvent utilisées dans les algorithmes de l’optimisation multi-objectifs. Ces points peuvent repré-
senter des solutions réalisables ou non.

Point idéal :

Le point idéal z i est le vecteur qui optimise chacune des fonctions objectifs tel que :

fi (z i ) = ”Optimiser”fi (x) / x ∈ S, ∀i ∈ {1, ..., n}

Ce point ne correspond pas à une solution réalisable car si c’était le cas, cela sous-entendrait
que les objectifs ne sont pas contradictoires et qu’une solution optimisant un objectif , optimise
simultanément tous les autres, ce qui ramènerait le problème à un problème ayant une solution
Pareto optimale.

Point nadir :

A la différence du vecteur idéal qui représente les bornes inférieures de chaque objectif dans
l’espace faisable, le vecteur Nadir Z n correspond à leurs bornes supérieures sur la surface de Pareto
et non pas dans tout l’espace faisable. Ce vecteur sert à restreindre l’espace de recherche ; il est
utilisé dans certaines méthodes d’optimisation interactives.

3.2 Méthodologie de résolution :


En présence d’un problème d’optimisation concret, le chercheur est confronté à la principale
difficulté du choix d’une méthode "efficace", capable de produire une solution "optimale" - ou de
qualité acceptable - au prix d’un temps de calcul "raisonnable". Face à ce souci un grand nombre de
méthodes ont été développées pour tenter d’apporter une réponse satisfaisante à ces problèmes. Il
existe un nombre important de méthodes utilisées pour la résolution des problèmes d’optimisation
multi-objectif.
Optimisation Multi-Objectif 38

3.2.1 Classification des méthodes de résolution des PMO :


Nous rencontrons dans les différentes publications trois classifications différentes des méthodes
de résolution des problèmes multi-objectif, le premier classement adopte un point de vue utili-
sateur, les méthodes sont classées en fonction de l’usage que l’on désire en faire. Le deuxième
classement est plus théorique, plus conceptuel, les méthodes sont triées en fonction de leur façon
de traiter les fonctions objectifs. Le dernier classement est basé sur les principes mathématiques.

Classement 1 :
Cette classification est essentiellement utilisée en recherche opérationnelle. Les décisions
étant considérées comme un compromis entre les objectifs et les choix spécifiques du décideur
(contrainte de coût, de temps . . . etc), un décideur choisit une méthode en fonction de l’aide
qu’elle va lui apporter.

Les méthodes d’optimisation à priori : (décideur −→ recherche)

Dans ces méthodes, l’utilisateur définit le compromis qu’il désire réaliser entre les objectifs
(il fait part de ses préférences) avant de lancer la méthode d’optimisation. Ainsi une seule exécution
permettra d’obtenir la solution recherchée. Cette approche est donc rapide, mais il faut cependant
prendre en compte le temps de modélisation du compromis et le possibilité pour le décideur de ne
pas être satisfait de la solution trouvée et de relancer la recherche avec un autre compromis.
On retrouve dans cette famille la plupart des méthodes par agrégation (ou les fonctions objectif
sont fusionnées en une seule).

Les méthodes d’optimisation à priori : (recherche −→ décideur)

Dans ces méthodes, il n’est plus nécessaire de modéliser les préférences du décideur, l’utili-
sateur choisit une solution de compromis en examinant toutes les solutions bien réparties extraites
par la méthode d’optimisation. Les méthodes de cette famille fournissant, à la fin de l’optimisa-
tion, une surface de compromis.

Les méthodes à préférence progressive : (décideur ⇐⇒ recherche)

Dans ces méthodes, l’utilisateur affine son choix de compromis au fur et à mesure du dé-
roulement de l’optimisation, le décideur intervient dans le processus de recherche de solutions
en répondant à différentes questions afin d’orienter la recherche. Cette approche permet donc de
bien prendre en compte les préférences du décideur, mais nécessite sa présence tout au long du
processus de recherche. On retrouve dans cette famille les méthodes interactives.

Il existe des méthodes d’optimisation multi-objectif qui n’entrent pas exclusivement dans une
famille. Par exemple, on peut utiliser une méthode à préférence a priori en lui fournissant des
préférences choisies au hasard. Le résultat sera alors un grand nombre de solutions qui seront
présentées à l’utilisateur pour qu’il décide de la solution de compromis. Cette combinaison forme
alors une méthode à préférence a posteriori [10].
Optimisation Multi-Objectif 39

Classement 2 :
Ce classement adopte un point de vue plus théorique, articulé autour des notions d’agrégation
et l’optimum de Pareto.

(a) Les méthodes agrégées : ces méthodes transforment un PMO en un problème


mono-objectif.

(b) Les méthodes fondées sur Pareto : ces méthodes sont fondées sur la notion de
dominance au sens de Pareto, qui privilégie une recherche satisfaisant au mieux tous les objectifs.

(c) Les méthodes non agrégées et non Pareto : certaines méthodes n’utilisent
aucun des deux concepts précédents. Alors que l’agrégation ou l’utilisation de la dominance de
Pareto traitent les objectifs simultanément, en générale, les méthodes dites non agrégées et non
Pareto possèdent un processus de recherche qui traitent séparément les objectifs.

Classement 3 :
Les méthodes d’optimisation multi-objectif sont classées selon les principes mathématiques.
Quelques auteurs les classifient en cinq groupes :

- Les méthodes scalaires,


- Les méthodes interactives,
- Les méthodes floues,
- Les méthodes exploitant une métaheuristiques,
- Les méthodes d’aide à la décision.

Dans notre travail on s’intéresse au classement le plus connu qui les classifient en deux grandes
parties selon les résultats fournis en utilisant ses méthodes, on va développer quelques méthodes
des deux types.

A.Les Méthodes exactes :

1.La Méthode de pondération des fonctions objectifs :

Cette approche du résolution des problèmes d’optimisation multi-objectif est la plus évidente.
D’ailleurs, on appelle aussi cette méthode" l’approche naïve" de l’optimisation multi-objectif [27].
Le but, ici, est de revenir à un problème d’optimisation mono-objectif, pour lequel existent de
nombreuses méthodes de résolution. La manière la plus simple de procéder consiste à prendre
chacune des fonctions objectifs, à leur appliquer un coefficient de pondération et à faire la somme
pondérée des fonctions objectif. On obtient alors une nouvelle fonction objectif [10].

Minimiserfeq (→

x ) = ki=1 ωi fi (→

 P
x)

− →



et que g ( x ) ≤ 0 (P)

− −
avec h (→

x)=0

Fréquemment, les poids doivent respecter la relation suivante :


Pk
ωi ≥ 0 pour tout i ∈ {1, ..., k} et i=1 ωi = 1.
Optimisation Multi-Objectif 40

Cette méthode n’est applicable qu’à des ensembles S convexes. Dans le cas contraire, elle ne
permet pas de trouver la totalité de la surface de compromis.

2.Méthode de compromis : (L’approche par ε − contrainte)

Une autre façon de transformer un problème d’optimisation multi-objectif en un problème


simple objectif est de convertir m − 1 des m objectifs du problème en contraintes et d’optimiser
séparément l’objectif restant [10].
La démarche est la suivante :

- On choisit un objectif initial (prioritaire) à optimiser,


- On choisit un vecteur de contraintes initial ,
- On transforme le problème conservant l’objectif prioritaire et on transforme les autres
objectifs en contraintes d’inégalité.

On appelle aussi cette méthode la méthode de la ε-contrainte [37]. Le problème peut être re-
formulé de la manière suivante [4].

Minimiserfi (→ −

 x)




T el que f1 ( x ) ≤ ε1




..





 .
fi−1 (→


x ) ≤ ε1−1







fi+1 ( x ) ≤ ε1+1

 ..
.



fm (→





 x ) ≤ εm



 →
− →

et que gi ( x ) ≤ 0

− −

avec →−
x ∈ Rn , f (→ x ) ∈ Rm , →

g (→



x ) ∈ Rq .

L’approche par ε-contrainte doit aussi être appliquée plusieurs fois en faisant varier le vecteur


ε pour trouver un ensemble de points Pareto optimaux.

Cette approche a l’avantage par rapport aux autres de ne pas être trompée par les problèmes
non convexes. En transformant des fonctions objectifs en contraintes, elle diminue la zone réali-
sable par paliers. Ensuite, le processus d’optimisation trouve le point optimal sur l’objectif restant,
la relative simplicité de l’énoncé de la méthode l’a rendue populaire.

L’inconvénient de cette approche réside dans le fait qu’il faille lancer un grand nombre de
fois le processus de résolution. elle est gourmande en temps de calcul et la programmation de
l’algorithme peut être extrêmement difficile s’il y a trop de fonctions contraintes.
Optimisation Multi-Objectif 41

3.Les méthodes hybrides :

Il est possible d’exploiter plusieurs méthodes pour en former une nouvelle. Dans ce cas, nous
obtenons une "Méthode Hybride". La méthode hybride la plus connue est la méthode de Corley.
Cette méthode utilise la méthode de pondération des fonctions objectifs et la méthode du com-
promis. On part du problème P . On le transforme de la manière suivante :

Minimiser ki=1 ωi fi (→

 P
 x)
avec fi (→



x ) ≤ εj , j ∈ {1, ..., k}.




−g (→
−x)≤0


 →
− → −

h(x)=0

Cette méthode permet de combiner les avantages des deux méthodes citées précédemment (la
méthode de pondération des fonctions objectif et la méthode du compromis). Elle est ainsi efficace
sur différents types de problèmes, qu’ils soient convexes ou non convexes. Cependant, une difficulté
survient : le nombre de paramètres à déterminer a été multiplié par deux. Il sera beaucoup plus
difficile à l’utilisateur d’exprimer sa préférence en jouant sur l’ensemble des paramètres.

4.Méthode de programmation de but (Goal programming method) :

Cette méthode est proche de la méthode de but à atteinte. La différence principale est que,
aprés avoir transformé le problème d’optimisation, nous avons des contraintes d’égalité au lieu des
contraintes d’inégalité. Cette approche est la suivante [10] :


- Nous choisissons un vecteur initial des fonctions objectif F .

- A chaque objectif, nous associons deux nouvelles variables d+ i et di liées au vecteur
initial des fonctions objectif que nous avons choisi.
- Nous minimisons une des deux variables.

 
Minimiser d+ +


 1 ou d1 , ..., dk ou dk
Avec fi (→



x ) = Fi + d+ i − di , i ∈ {1, ..., k}.


 →
− →

g(x)≤0

− →

h (−


x)=0

Les variables de déviation que l’on cherche à minimiser doivent respecter certaines contraintes :

- d+
i et di ≥ 0
- d+
i .di = 0, i ∈ {1, ..., k}.

La méthode du but programmé, semblable à la méthode du but à atteindre, soulève les mêmes
critiques. Dans certains cas, on peut "rater" des solutions cachées dans des concavités.
Optimisation Multi-Objectif 42

5.La méthode STEP :

Cette méthode est interactive. Ici, les informations sur la préférence de l’utilisateur permettent
de restreindre l’espace de recherche étape par étape. On transforme le problème p de la manière
suivante :



 Minimiser β
 h→
− → →
− it −
f (−
x)− Y →




 Avec ω <β

− →


g(x)≤0

− →
h (−



 x)=0

− → →





f (x)≤ Y



Où le vecteur Y correspond à un vecteur de bornes supérieures servant à restreindre l’espace
de recherche. Le vecteur →

ω est l’ensemble des coefficients de pondération.

B.Les méthodes approchées (exploitant une métaheuristique) :

Les méthodes approchées constituent une alternative indispensable et complémentaire. Le but


d’une telle méthode n’est plus de fournir une solution optimale au problème donné. Elle cherche
avant tout à produire une solution sous-optimale de meilleure qualité possible avec un temps de
calcul raisonnable. En général, une méthode approchée examine seulement une partie de l’espace
de recherche.

Les métaheuristiques, sont des méthodes générales de recherche dédiées aux problèmes d’opti-
misation difficiles [42]. Ces méthodes sont, en général, présentées sous la forme de concept d’ins-
piration, elles reprennent des idées que l’on retrouve parfois dans la vie courante. Ces méthodes
ont des inspirations de l’´ethologie comme les colonies de fourmis, de la physique comme le recuit
simulé, et de la biologie comme les algorithmes évolutionnaires.

Ce type de méthodes est particulièrement utile pour les problèmes nécessitant une solution en
temps réel (ou très court) ou pour résoudre des problèmes difficiles sur des instances numériques
de grande taille. Elles peuvent aussi être utilisées afin d’initialiser une méthode exacte (Branch
and Bound par exemple).

Chaque métaheuristique utilise au moins l’un de ces trois éléments.

- La structure de voisinage permettant de modifier une solution,


- La mémoire des solutions déjà obtenues,
- La construction de solutions entièrement nouvelles.

De plus, l’hybridation de différentes métaheuristiques est une pratique de plus en plus courante
permettant d’obtenir des heuristiques performantes [13].
Une métaheuristique est donc une méthode très générale, qui nécessite quelques transforma-
tions (mineure en générale) avant de pouvoir être appliquée à la résolution d’un problème parti-
culier.
Optimisation Multi-Objectif 43

On va citer quelques méthodes les plus utilisées.

1.Le recuit simulé :

Cette méthode de recherche a été proposée par les chercheurs qui étudiaient les verres de
spin. Ici, on utilise un processus métallurgique (le recuit) pour trouver un minimum. En effet,
pour qu’un métal retrouve une structure proche du cristal parfait (l’état cristallin correspond au
minimum d’énergie de la structure atomique du métal), on porte celui-ci à une température élevée,
puis on le laisse refroidir lentement de manière à ce que les atomes aient le temps de s’ordonner
régulièrement.
Ce processus métallurgique a été transposé à l’optimisation et a donné une méthode simple et
efficace. Le fonctionnement de cet algorithme est le suivant :

- On commence par choisir un point de départ au hasard ;


- On calcule un voisin de ce point (γ = ϑ(x)) ;
- On évalue ce point voisin et on calcule l’écart par rapport au point d’origine (∆C =
C(γ) − C(x)) ;
- Si cet écart est négatif, on prend le point γ comme nouveau point de départ, s’il est
positif on peut quand même accepter le point γ comme nouveau point de départ,
mais avec une probabilité ε−∆c/T (qui varie en sens inverse de la température T ) ;
- Au fur et a mesure du déroulement de l’algorithme, on diminue la température
(T = α(T )), souvent par paliers ;
- On répète toutes ces étapes tant que le système n’est figé (par exemple, tant que la
température n’a pas atteint un seuil minimal).

Au début de la simulation, les points ont une grande capacité d’exploration de l’espace d’état
car l’algorithme accepte des déplacements très importants. Au fur à mesure que T diminue P
augmente, la capacité de déplacement d’un point diminue et les points améliorant leur valeur sont
de plus en plus nombreux, la chance d’une solution négative d’être acceptée diminue. Quand T
est proche de zéro, seuls les points dont les valeurs sont améliorées seront acceptés. A la fin il y a
une probabilité nulle que n’importe quel changement négatif de température peut être réalisé. A
ce point de "refroidissement", le système doit converger vers la solution optimale.

Dans la littérature des méthodes d’optimisation multi-objectif, on trouve deux importantes


extensions de la méthode Recuit Simulé basées sur les frontières de Pareto, La méthode P.A.S.A
(Pareto Archived Simulated et La méthode M.O.S.A (Multiple objectif Simulated Annealing).

2.La recherche tabou :

Cette méthode, mise au point par Fred GLOVER [21] est conçue en vue de surmonter les mi-
nima locaux de la fonction objectif. C’est une technique d’optimisation combinatoire que certains
présentent comme une alternative au recuit simulé.
A partir d’une configuration initiale quelconque, Tabou engendre une succession de configura-
tions qui doivent aboutir à la configuration optimale. A chaque itération, le mécanisme de passage
d’une configuration −→, à la suivante −
x n x−→
n+1 , est le suivant :
Optimisation Multi-Objectif 44

- On construit l’ensemble des "voisins" de −


→, c’est-à-dire l’ensemble des configurations ac-
x n
cessibles en un seul "mouvement" élémentaire à partir de −→ (si cet ensemble est trop vaste, on en
x n
extrait aléatoirement un sous-ensemble de taille fixée) : soit le Voisinage (−
→ ) l’ensemble (ou le
x n
sous-ensemble) envisagé ;

- On évalue la fonction objectif f du problème de chacune des configurations appartenant


au Voisinage (−
→). La configuration −
x n x− → −

n+1 , qui succède à la configuration xn dans la chaine de
Markov construite par Tabou, est la configuration de Voisinage −→ en laquelle f prend sa valeur
x n
minimale.

Notons que la configuration −


x− → −
→ −

n+1 est adoptée même si : f (xn ) > f (xn ), c’est grâce à cette
particularité que Tabou permet d’éviter les minima locaux de f .

Cependant, telle qu’elle est la procédure ne fonctionne généralement pas, car il y a un risque
important de retourner à une configuration déjà retenue lors d’une itération précédente, ce qui
provoque l’apparition d’un cycle. Pour éviter ce phénomène, on met à jour, à chaque itération, une
liste tabou de mouvements interdits ; cette liste qui a donné son nom à la méthode contient les
mouvements inverses (−x− → −
→ −
→ −−→
n+1 −→ xn ) des m derniers mouvements (xn −→ xn+1 ) effectues (typique-


ment m = 7). La recherche du successeur de la configuration courante xn est alors restreinte aux
voisins de −
→ qui peuvent être atteints sans utiliser un mouvement de la liste tabou. La procédure
x n
peut être stoppée dés que l’on effectue un nombre donné d’itérations, sans améliorer l’actuelle
meilleure solution.

3.Colonie de fourmis :

La recherche guidée par Marco Dorigo [17] produit un nouveau membre de cette classe d’algo-
rithmes : l’algorithme de "système de fourmis" Le point de départ de cet algorithme se base sur
l’observation des fourmis qui construisent des chemins entre une source de nourriture et leur nid.
Les fourmis sont capables de déposer sur le sol une certaine quantité d’une substance chimique
volatile (phéromone) qu’elles peuvent détecter ensuite. Les fourmis se déplacent au hasard, dans
ce cas, on peut dire qu’elles sont aveugles, mais sont attirées par les chemins de phéromone déposé
par d’autres fourmis. Ainsi, plus les fourmis empruntent un chemin, plus il y aura des fourmis
attirées par cet itinéraire.

4.Les algorithmes génétiques :

Les algorithmes génétiques (AGs) ont été introduits par Holland [28] comme un modèle de
méthode adaptative. Ils s’appuient sur un codage de l’information sous forme de chaînes binaires
de longueur fixe et d’un ensemble d’opérateurs génétiques : la sélection, la mutation, le croise-
ment,...,Etc.Un individu sous ce codage, appelé un chromosome, représente une configuration du
problème [4].
L’évaluation de cet individu consiste à transformer la chaine 0/1 du chromosome en une valeur
réelle, appelée valeur d’adaptation. La fonction d’évaluation dépend principalement de l’objectif
du problème. Si cette fonction est uniquement basée sur la fonction objectif du problème, on
utilisera le terme de fonction de cout pour la désigner.
La valeur d’adaptation obtenue pour chaque chromosome lors de l’évaluation est utilisée, no-
tamment lors des opérations de sélection, pour choisir les individus amener à se reproduire par des
croisements ou à être utilisés par d’autres opérateurs génétiques. Le croisement permet de pro-
duire deux nouveaux individus, appelés les enfants, à partir de deux individus, appelés les parents.
La mutation consiste à changer la valeur de certaines variables du chromosome. Les variables à
Optimisation Multi-Objectif 45

modifier sont le plus souvent choisies aléatoirement.


Ainsi, la nouvelle population construite à partir des opérateurs génétiques présentés devient
la population de référence de la prochaine génération. Ce cycle d’opérations continue tant que la
méthode n’a pas rencontré une condition d’arrêt définie préalablement, un nombre maximal de
générations par exemple.

3.3 Problème multi-objectif en nombres entiers(M OILP ) :


En pratique, très souvent, la présence de variables discrètes (ou entières) est inévitable dans la
modélisation en optimisation et ces variables modifient considérablement la structure mathéma-
tique du problème multi objectif. Il en résulte que des méthodes spécifiques à cette situation sont
nécessaires et pour cela, on va définir le problèmes multi-objectif en nombre entiers sous contraintes
linéaires qui représente le cadre générale de notre travail, et présenter quelques méthodes exactes
permettant de caractériser totalement ou partiellement l’ensemble de solutions efficaces du pro-
blème.

3.3.1 Formulation du problème :


Un problème de la programmation linéaire multi-objectif en nombres entiers est défini comme
suit :
max Z1 (x) = c1 x



max Z2 (x) = c2 x




.

 ..




(P ) max Zr (x) = cr x

sc





n
 x ∈ S = {x ∈ R |Ax ≤ b, x ≥ 0}




x vecteur entier

où r ≥ 2, ci ∈ Rn pour tout i = {1, ..., r} ; A est une m × n-matrice et b un m-vecteur à


coefficients entiers.

3.4 Solutions supportées et non supportées :


Considérons le problème (PR ) relaxation continue du problème (P) :
max Z1 (x) = c1 x



max Z2 (x) = c2 x






 ..
.

(PR )




max Zr (x) = cr x
sc






x∈S

Le théorème suivant s’applique à un programme avec objectifs linéaires et domaine réalisable


convexe.
Optimisation Multi-Objectif 46

Théorème (Geoffrion [20]) : Soit le problème unicritère linéaire suivant :

max ri=1 λi fi (x)


 P


(Pλ )  sc

x ∈ S et λi ∈ Λ, ∀i ∈ {1, ..., r}

La solution x∗ est optimale au sens de Pareto si et seulement si x∗ est une solution optimale
du problème paramétrique (Pλ ) où Λ = {λi : ri=1 λi ≥ 0, ∀i ∈ {1, ..., r}}
P

D’après ce théorème, l’ensemble des solutions efficaces du problème (PR ) sans les contraintes
d’intégrité est bien caractérisé par les solutions du problème paramétrique (Pλ ). Ces solutions se
trouvent sur la frontière de S, elles sont appelées solutions supportées.

Différemment du cas continu, la difficulté principale rencontrée lorsqu’on traite les problèmes
multi-objectif à variables discrètes est l’existence de solutions efficaces pour (P ) qui ne sont pas
optimales pour (Pλ ) et ce en raison de la non-convexité du domaine réalisable, ces solutions ef-
ficaces sont dites solutions non supportées (le front Pareto de (P ) est l’union de l’ensemble des
solutions supportées et de l’ensemble des solutions non supportées de (P )).

Figure 3.2 – Représentation des différents types de solutions en bicritère

3.4.1 Complexité du problème :


La nature des problèmes de programmation linéaire en variables continues et les problèmes de
programmation linéaire en variables discrètes est différente. Contrairement à la programmation
linéaire continue où on s’intéresse seulement aux solutions sommets du polyèdre, les solutions
optimales du problème discret peuvent se trouver à l’intérieur du polyèdre et par conséquent la
recherche d’une solution optimale d’un problème de la programmation en nombres entiers est sou-
vent NP-difficile et peut être même NP-complet [44].

Il faut noter cependant que, si un problème d’optimisation combinatoire est facile à résoudre,
il n’est pas de même pour sa version multi-objectif.

Dans le paragraphe suivant, nous donnons un bref aperçu sur des méthodes générales pour
la résolution d’un M OILP . Rappelons que la résolution d’un problème multi-objectif consiste
à déterminer soit l’ensemble des solutions efficaces dans l’espace des décisions noté Ef f , soit
l’ensemble des solutions non dominées dans l’espace des critères noté SN D. Dans la littérature,
Optimisation Multi-Objectif 47

l’accent est mis sur la recherche de l’ensemble des solutions non dominées compte tenu de son
cardinal qui est généralement moins important que celui des solutions efficaces ; plusieurs solutions
efficaces pouvant donner lieu à un même vecteur non dominé. Il arrive que deux solutions efficaces
différentes dans l’espace de décisions ont exactement les mêmes valeurs pour tous les objectifs. Si
on garde les deux solutions dans Ef f , on parle alors de l’ensemble complet, sinon c’est juste un
ensemble minimal.

3.4.2 Quelques méthodes de résolution d’un problème (M OILP ) :


En pratique, très souvent, la présence de variables discrètes (ou entières) est inévitable dans
la modélisation en optimisation et ces variables modifient considérablement la structure mathé-
matique du problème. Il en résulte que des méthodes spécifiques à cette situation sont nécessaires
et pour cela, on va présenter quelques méthodes exactes permettant de caractériser totalement ou
partiellement l’ensemble de solutions efficaces du problème.
Optimisation Multi-Objectif 48

1.Méthode de D.Klein E.Hannan :

La technique proposée par D.Klein & E.Hannan [29] peut être utilisée aussi bien pour identi-
fier l’ensemble de toutes les solutions efficaces que pour en caractériser une partie seulement. Elle
consiste à résoudre progressivement une séquence de programmes linéaires unicritère en nombres
entiers avec des contraintes ajoutées à chaque étape. Les contraintes supplémentaires éliminent les
solutions efficaces déjà trouvées, et font en sorte que les nouvelles solutions générées soient efficaces.

Algorithme 1: Klein & Hannan


Étape 1 : Résoudre le problème (P1 ) définit comme suit (L’indice i est pris
arbitrairement dans 1, ..., r) :

(P1 ) : max{Zi = ci , x ∈ D}

tel que D est l’ensemble des solutions réalisables.

Si la solution optimale de (P1 ), soit x1 , est unique, Alors elle est efficace pour (P ). Sinon,
déterminer toutes les solutions alternatives et à x1 et par comparaison deux à deux des
vecteurs critères associés, garder uniquement celles qui sont efficaces pour construire
l’ensemble Ef f (P1 ) des solutions efficaces générées à l’étape 1.
Étape générale j : A l’étape j, on résout le problème (Pj ) qui est définit comme suit :

max Zi = ci x







 sc
(Pj ) x∈D !


 Tq Sr
ci x ≥ ci y l + f i


 l=1
 i=1
i6=s

Avec fi ≥ 1 entier, y l (l = 1, ..., q) les points efficaces obtenus jusqu’à l’étape j − 1.


Si Ef f (Pj ) est l’ensemble des solutions efficaces obtenues à l’étape j et Y j l’ensemble des
points efficaces accumulés à la fin de l’étape j, Alors Y j = Y j−1 ∪ Ef f (Y j ) pour j ≥ 2
avec Y 1 = Ef f (P1 ).
Étape finale n : La procédure s’arrête lorsque le problème (Pn ) est irréalisable.

Si à chaque étape j, fi = 1 ; ∀i = {1, ..., r} ; i 6= s, la procédure trouve l’ensemble de toutes les


solutions efficaces du problème (P ). Cependant, si pour certaines valeurs de i, fi > 1 seulement
un sous ensemble de solutions efficaces sera généré.
Optimisation Multi-Objectif 49

2.Méthode A.Sylva et J.Crema :

La méthode développée par Crema et Sylva [11] est une variante de celle de Klein et Hannan
étudiée précédemment. Son principe repose sur la résolution d’une succession de programmes li-
néaires en nombres entiers optimisant à chaque étape une combinaison positive des critères. Un
ensemble de contraintes est rajouté à chaque fois assurant la détection d’une nouvelle solution
efficace. A la fin, la méthode fournit l’ensemble de toutes les solutions non dominées du problème
de programmation linéaire discrète à objectifs multiples.

Les auteurs considèrent que les données du problème (P ) sont entières, aussi bien la matrice
des contraintes A, le vecteur second membre b que les coefficients cij de tous les critères.

Algorithme 2: Sylva & Crema


Étape 1 : Après avoir fixer le vecteur poids (λ1 , λ2 , ..., λr ) à des valeurs strictement
positives, la première étape consiste à résoudre le problème (P1 ) définit comme suit :
r
λi ci x, x ∈ D}
X
(P1 ) : max{
i=1

Si (P1 ), n’admet pas solution, Alors (P ) l’est aussi.


Sinon, Une solution x1 est trouvée et elle est efficace.
Ensuite, une suite de programmes linéaires en nombres entiers augmentés par certaines
contraintes sont résolus progressivement.
Après k étapes du processus : Si (Pk ), n’admet pas solution, Alors l’algorithme s’arrête.
Sinon, une nouvelle solution efficace xk est trouvée et le nouveau problème (Pk+1 ) est
définit à partir de (Pk ) en éliminant toutes les solutions vérifiant ci x ≤ ci xk , ∀i = 1, r ceci
peut être traduit par le rajout de contraintes suivantes :
(
C i x ≥ (C i xk + fi )yik − Mi (1 − yik ) i = 1, r
Pr k k
i=1 yi = 1. yi ≥ 0 i = 1, r.

où −M i est un minorant pour toute valeur réalisable de la ième fonction objectif et fi ≥ 1 ;


entier, représente la plus petite augmentation possible du ième critère.
Étape générale k : A l’étape k, on résout le problème (Pk ) qui est définit comme suit :

max ri=1 λi ci x
P



sc





x∈D


(Pk )

 C i x ≥ (C i xj + fi )yij − Mi (1 − yij ), i = 1, r; j = 1, k − 1
j
 Pr
i=1 yi = 1. i = 1, r, j = 1, k − 1




yij ∈ {0, 1} i = 1, r, j = 1, k − 1.


Étape finale n : La procédure s’arrête lorsque le problème (Pn ) est irréalisable.

Pour fi = 1, ∀i = 1, ..., r, la méthode génère toutes les solutions non dominées. Lorsque fi > 1 ;
elle prend une valeur permettant d’atteindre la valeur minimale souhaitait par le décideur pour le
ième critère. Dans ce cas, seul un sous ensemble de solutions non dominées est trouvé.
Optimisation Multi-Objectif 50

3.Méthode de M.Abbas et M.Moulaï :

Cette méthode a été proposée par M. Abbas & M. Moulai [1] pour la détermination de toutes
les solutions efficaces du problème de programmation linéaire multi-objectif en nombres entiers.
Elle peut être vue comme une alternative à celle de Gupta & Malhotra [24] (première procédure)
, où les auteurs ont proposé un autre test d’arrêt permettant à l’algorithme de fournir toutes les
solutions efficaces.

On considère le problème :

(P1 ) : max{Z1 = c1 , x ∈ D}
dont le problème relaxé est :

(P1 ) : max{Z1 = c1 , x ∈ S}
avec S = {x ∈ Rn |Ax ≤ b, x ≥ 0}.

Pour les besoins de la description de la méthode, on définit les paramètres suivants pour k ≤ 1 :

– Sk = {x ∈ Rnk |Ak x ≤ bk , Ak ∈ Rmk ×nk , bk ∈ Rmk x ≥ 0} comme étant la région courante


tronquée de S obtenue par application de la coupe :
X
xj ≥ 1.
j∈Nk−1\{jk−1 }

et éventuellement des coupes successives de Gomory, avec jk−1 un indice hors base quel-
conque.
– xk : la k ième solution optimale entière du problème (P1 ) obtenue sur Sk .
– Bk : une base de Sk .
– Nk : ensemble des indices des variables hors base hors base de xk .
– Abk = (ABk )−1 Ak .
– Cbk = (Ck ) − πk Ak avec πk = (CBk )(ABk )−1 .
– Γk = {j ∈ Nk |(cc1k )j < 0 et (cbik )j > 0 pour au moins un critère i, i = 2, r}.
– Ωk = {j ∈ Nk |(cc1k )j = 0}.
– Ψk = {j ∈ Nk |(cc1k )j < 0 et (cbik )j < 0 pour au moins un critère i, i = 2, r}.

Définition : Une arête E jk , jk ∈ Nk incidente à xk est définie comme étant l’ensemble :

xi = xki − θjk abjlig(i)


  

 

k
k
i ∈ Bk 

nk

X ∈ R | 
x jk = θjk 
xl = 0 ∀l ∈ Nk \jk
  

( )
xki
où 0 ≤ θjk ≤ θ = mini∈Bk jk |abjlig(i)
k
k
>0 .
alig(i)
b
k

Les points entiers se trouvant sur l’arête Ejk sont identifiés de telle sorte que θjk soit entier et
θjk × abjlig(i)
k
k
entier ∀i ∈ Bk .

Remarque : Si x0 , solution optimale du problème (P1 ), n’est pas unique alors il existe une
autre solution x1 6= x0 tel que Z1 (x1 ) = Z1 (x0 ). On dit alors que x1 est une solution optimale
Optimisation Multi-Objectif 51

alternative de x0 .

La relation précédente permet de déterminer ces solutions alternatives.

On note par nbjk le nombre de solutions entières se trouvant sur l’arête Ejk y compris xk .

Notons par SN D(P ) l’ensemble des solutions potentiellement non dominées générées jusqu’à
l’étape k, k ≥ 1.

Algorithme 3: Abbas & Moulai


Étape 1 : Résoudre le problème (P1 ) définit par :

(P1 ) : max{Z1 = c1 , x ∈ D}

et trouver la solution optimale entière x1 sur S1 . Construire l’ensemble Ω1 .


Étape 2 : Tester l’ensemble Ω1 .
Cas 1 : Ω = ∅, alors x1 est l’unique solution optimale sur S1 .
Soit (z11 , z12 , ..., z1r ) le vecteur critère correspondant, il est enregistré dans SN D(P ) comme
étant le premier r-uplet non dominé.
Tronquez le point x1 par la coupe de Dantzig :
X
xj ≥ 1.
j∈N1

et par application de la méthode dual de simplexe et des coupes successives de Gomory si


nécessaire, on obtient une solution entière, soit x2 dans la région tronquée S2 . Mettre à
jour SN D(P ).
Cas 2 : Si Ω 6= ∅, Alors choisir un indice quelconque j1 ∈ Ω1 et calculer le nombre θ de
l’opération pivot.
Si θ ≥ 1, Alors déterminer toute les solutions entière alternatives à x1 , y1q , q = 2, nbj1 , le
long de l’arête E j1 et mettre à jour SN D(P ).
Comme les solutions alternatives ont la même valeur de z 1 que celle de x1 , le premier
point potentiellement non dominé est choisit comme le r-uplet ayant la plus grande
valeur de z 2 , sinon choisir celui qui a la plus grande valeur de z 3 et ainsi de suite
jusqu’à l’obtention du premier r-uplet potentiellement non dominé.
Tronquer l’arête E j1 par la coupe :
X
xj ≥ 1.
j∈N1 \{j1 }

L’algorithme dual du simplexe et des coupes successives de Gomory éventuelles,


permettant d’obtenir une solution entière x2 dans la région tronquée S2 . Mettre à jour
SN D(P ).
Si pour tous j1 ∈ Ω1 , on a θ < 1, Alors choisir un indice quelconque j1 ∈ Ω1 et appliquer
la coupe : j∈N1 \{j1 } xj ≥ 1.
P

De la même manière (appliquer la méthode dual du simplexe et des coupes de


Gomory éventuelles), on obtient une solution entière x2 dans la région tronquée S2 .
Mettre à jour SN D(P ).
Optimisation Multi-Objectif 52

Étape k : (k ≥ 3) Choisir un indice jk−1 ∈ Γk−1 , déterminer toutes les solutions entières
q
yk−1 , q = 2, nbjk−1 alternatives à xk−1 se trouvant sur l’arête E jk−1 , lorsqu’elles existent et mettre
à jour l’ensemble SN D(P ).
Tronquer l’arête E jk−1 par la coupe :
X
xj ≥ 1.
j∈Nk−1 \{jk−1 }

et chercher de nouveau une solution entière dans la région tronquée Sk , soit xk . Mettre à jour
l’ensemble SN D(P ).
Après application de la méthode dual du simplexe et éventuellement, des coupes successives de
Gomory, la solution optimale entière obtenue sur la région Sk sera xk . Ceci marque le début de
l’étape k + 1.
Étape finale : Le processus se termine quand l’impossibilité de l’opération pivot de la
méthode dual du simplexe apparaît, indiquant que la région courante ne contient aucun point
entier et que l’ensemble des solutions efficaces est complètement déterminé.

3.5 Conclusion :
Nous avons présenté dans ce chapitre, les principaux concepts de l’optimisation multiob-
jectif, tels que la modélisation d’un problème multi-objectif, la notion de la dominance de Pareto
et la structure de la surface de compromis. Une classification des méthodes de résolution a été
introduite tout en essayant de présenter plusieurs approches utilisées pour aborder les problèmes
de l’optimisation multi-objectif, ces méthodes sont passées en revue et les avantages et les incon-
vénients de chacune sont mentionnées. Nous nous sommes astreints à cerner le cadre de notre
étude à l’optimisation "à posteriori" (cherchant à générer l’ensemble du front Pareto) à l’aide de
méthodes exactes.
4 Résolution et Implémentation

4.1 Introduction :

D ans ce chapitre, nous allons présenter la méthode de résolution exacte adaptée à notre
problème, et l’implémenter par la suite en utilisant le langage de programmation MATLAB, et en
dernier on discute les résultats avec un exemple d’application.

4.2 Méthode de résolution :


4.2.1 Algorithme de la méthode :
On propose ici une nouvelle approche, qui est une adaptation de la méthode Klein et Hannan
présentée dans la section 3.4.2, qui consiste à résoudre progressivement, une séquence de pro-
grammes mono-objectif en nombres entiers, ayant comme critère principale la fonction du risque,
à minimiser (qui est quadratique), avec des contraintes ajoutées à chaque étape.

Chaque séquence de programme mono-objectif, sera résolue en utilisant une des méthodes
de résolution des problèmes quadratiques, présentées dans la section 2.4, avec une stratégie de
séparation-évaluation, en utilisant l’algorithme de Branch and Bound [43], pour assurer l’intégrité
des variables de décisions.

Nous représentons dans ce qui suit, l’Algorithme de la méthode :

53
Résolution et Implémentation 54

Algorithme 4: Méthode adaptée


Étape 0 : Initialisation Ef f = {};
tel que : Ef f est l’ensemble des solutions efficaces ;

Étape 1 : Résoudre le problème (P1 )


(P1 ) est définit comme suit :




M in Z1 = xT σx
t.q Ax ≥ b,




(P1 )  Aeq x = beq ,



 x ≥ 0,
xj ∈ N, ∀j ∈ J.

Dans ce modèle la fonction objectif est quadratique, pour cela la résolution est faite par
l’une des méthodes de résolution quadratique 2.4.

Si (P1 ) n’admet pas de solution : Stop.


S
Sinon Soit x1 la solution optimale entière trouvée ; Ef f = Ef f x1 ; j = j + 1.

Étape j : A l’étape j, on résout le problème (Pj ) qui est définit comme suit :

M in Z1 = xT σx



(Pj ) t.q x ∈ D,
T
r x ≥ M + f.

Avec :

M = M axi={0,..,j−1} { rT yi , avec yi les points ef f icaces obtenus jusqu0 à l0 étape j − 1}

.
Mise à jour de l’ensemble des solutions efficaces Ef f

j = j + 1 ; aller à l’étape j ;

Étape finale n : La procédure s’arrête lorsque (Pn ) est irréalisable.


Résolution et Implémentation 55

4.2.2 Organigramme de la méthode :

Figure 4.1 – Organigramme de la méthode


Résolution et Implémentation 56

L’algorithme a été mis en œuvre sous le language de programmation Matlab R2013a. L’ap-
plication à été déployée sur une machine équipé d’un processus IntelCore i5 − 3230M CP U ,
2.60GHZ et 4Go de mémoire.

4.3 Implémentation de la méthode :


4.3.1 Définition du langage :
MATLAB (M AT rixLABoratory), est un langage de calcul numérique basé sur les ma-
trices, ne nécessitent ni dimensionnement ni déclaration de type. Contrairement aux langages de
programmation classiques, les opérateurs Matlab permettent de manipuler directement et interac-
tivement ces données matricielles. Doté d’un vaste ensemble de fonctions mathématiques intégrées,
qui répond aux besoins en matière d’analyse scientifique et technique, et permet de réaliser des
opérations d’ingénierie courantes sans avoir à programmer, rendant ainsi le logiciel particulière-
ment efficace en calcul numérique, analyse et visualisation de données.

4.3.2 Expérience numérique :


Pour les besoins de la programmation de la méthode, on a utilisé et programmer les sous fonc-
tions suivantes :

- Quadprog : Pour la résolution du problème quadratique.

- Branch and bound : Pour assurer l’intégrité des variables.

- UpdateEff : Pour la mise à jour de l’ensemble des solutions efficaces, en utilisant la défi-
nition de l’efficacité.

- Randi : Fonction prédéfinit pour la génération aléatoire du problème.

Nous avons testé les algorithmes sur des instances générées aléatoirement suivant une loi uni-
forme à l’aide de la fonction redéfinie en Matlab Randi([vmin ; vmax ], n, m) qui renvoie une n×m ma-
trice à coefficient entiers indépendamment uniformément distribuées dans l’intervalle [vmin ; vmax ].

Pour chaque instance (n, m) une séquence de 5 problèmes a été résolue par l’algorithme pro-
posé, les résultats de l’experience sont présentés dans le tableau suivant, tel que :

- m : nombre de lignes de la matrice des contraintes,


- n : nombre de variables de décision,

On désigne aussi pour chaque valeur de m, n, les notations suivantes :

- T-Moy : Le temps moyen de calcul estimé en secondes,

- [T-min ; T-max] : L’intervalle représentant le temps maximal et minimal de la durée


d’exécution,

- S-Moy : Le nombre moyen des solutions efficaces trouvées,


Résolution et Implémentation 57

- [S-min ; S-max] : L’intervalle représentant le nombre maximal et minimal de solutions


efficaces trouvées.

Temps d’exécution (seconde) Nombre de solutions efficaces


m n T-Moy [T-Min ; T-Max] S-Moy [S-Min ; S-Max]
3 3 1.47 [0.68 ; 3.7] 2.4 [1 ; 6]
5 10 2.05 [2.3 ; 4.8] 3.5 [2 ; 7]
30 3.73 [3.23 ; 4.19] 5.25 [2 ; 10]
50 4.56 [3.24 ; 6.18] 4.5 [2 ; 8]
100 9.84 [7.3 ; 12.4] 3.75 [3 ; 6]
10 20 4.62 [3.87 ; 6.24] 8 [5 ; 14]
50 2.91 [1.98 ; 4.67] 2.25 [1 ; 3]
100 5.93 [4.25 ; 7.4] 3 [2 ; 5]
20 100 7.72 [6.41 ; 12.1] 7.5 [4 ; 11]
150 7.75 [7.04 ; 11.05] 5 [3 ; 8]

On a exécuter l’application avec l’exemple suivant : en se référant au problème (P ) défini pré-


cedemment dans la séquence 1.5, soient :

r = [0.1 ; 0.2 ; 0.15] ;

Q = [0.005 -0.010 0.004

-0.010 0.040 -0.002

0.004 -0.002 0.023] ;

A=[1 2 2 ; 2 4 2 ; 1 1 1] ;

b = [7; 11; 3];

Aeq = [];

beq = [];

Pour cet exemple on a fixé f = 0.01;

Aprés exécution, on a les résultats suivants :

Nombre de solutions efficaces :

6
Résolution et Implémentation 58

Les solutions efficaces sont :

Eff =

0 0 0

1 0 0

2 1 0

1 1 1

0 1 2

0 2 1

Valeurs des fonctions objectif sont :

VND =

0. 0

0.0100 0.1000

0.0400 0.4000

0.1040 0.4500

0.2480 0.5000

0.3500 0.5500

L’algorithme a pris 0.330570 secondes, pour la résolution.


Résolution et Implémentation 59

Figure 4.2 – Exemple d’exécution

Discussion des résultats :

L’expérimentation de la méthode nous a permis de conclure les résultats suivants :

- Les résultats fournis par l’exécution de la méthode adaptée, prouvent son efficacité, l’algo-
rithme converge en un temps très acceptable, et on a une multitude de solutions efficaces.

- La complexité algorithmique de la méthode dépend fortement du nombre de variables n et


de contraintes m utilisées.

- Le modèle qu’on propose dans ce travail donne plus de choix au décideur, le décideur aura
à choisir son portefeuille directement parmi les solutions efficaces.
Conclusion générale

Dans ce travail, nous avons étudié le problème d’optimisation de portefeuille, coté théorie
et pratique, sous un aspect multi-objectif quadratique. Cela nous a conduits à faire une étude de
l’optimisation multi-objectif, et de même l’optimisation quadratique pour fournir aux décideurs
une bonne politique de gestion prudentielle, permet d’assurer le rendement optimal du portefeuille
et de réduire les risques financiers.

La modélisation du problème posé nous a amené à résoudre, un modèle multi-objectif quadra-


tique convexe pour le choix d’un portefeuille optimal.

Dans le but de réaliser ce travail, on a suivi le processus suivant :

Dans le premier chapitre nous avons commencé par quelques définitions de base et concepts
nécessaires de la gestion de portefeuille, on a cité la théorie moderne de Markowitz et le modèle
simplifié de Sharpe, puis, dans le deuxième chapitre, c’est les concepts de la programmation qua-
dratique ainsi que les méthodes de résolution associées, dans le troisième chapitre une présentation
de notions de base de l’optimisation multi-objectif, et de quelques méthodes de résolution exactes
et approchées.

Enfin dans le dernier chapitre, on a présenté une méthode de résolution exacte adaptée pour
notre problème (bi-objectif quadratique), on l’a implémenté sous le langage de programmation
Matlab. D’après les résultats obtenus, on déduit que notre méthode de résolution est efficace et
fournit les meilleurs résultats et donne plus de choix aux décideurs.

Comme perspectives :

– Faire coopérer quelques méthodes exactes entre elles, afin de profiter aux mieux les qualités
de chacune d’elle.

– Améliorer la complexité de l’algorithme.

– Développer d’autres mécanismes de diversification plus performants, et l’approfondissement


de notre étude en cherchant d’autres pistes plus poussées, en vue de déterminer le seuil optimum
de diversification des portefeuilles.

60
Bibliographie

[1] M. Abbas et M. Moulaï. “Solving multiple objective integer linear programming”. Dans :
Journal of the Italian Operations Research Society - Ricerca Operativa Volume 29.89 (1999),
p. 15–38.
[2] K. P. Anagnostopoulos et G. Mamanis. “A portfolio optimization model with three
objectives and discrete variables”. Dans : Computers Operations Research Volume 37.7
(July. 2010), p. 1285–1297. doi : 10.1016/j.cor.2009.09.009.
[3] S. Babaei, M. M. Sepehri et E. Babaei. “Multi-objective portfolio optimization consi-
dering the dependence structure of asset returns”. Dans : European Journal of Operational
Research Volume 244.2 (July. 2015), p. 525–539. doi : 10.1016/j.ejor.2015.01.025.
[4] V. Barichard. Approches hybrides pour les problèmes multi-objectifs. 2, Bd Lavoisier, 49045
Angers Cedex 01 : École Doctorale d’Angers, Novembre 2003.
[5] H.P. Benson. “Optimization over the efficient set”. Dans : Journal of Mathematical Analysis
and Applications Volume 98.2 (February. 1984), p. 562–580. doi : 10.1016/0022-247X(84)
90269-5.
[6] J. D. Bermúdez, J. V. Sergura et E. Vercher. “A multi-objective genetic algorithm for
cardinality constrained fuzzy portfolio selection”. Dans : Fuzzy Sets and Systems Volume
188.1 (February. 2012), p. 16–26. doi : 10.1016/j.fss.2011.05.013.
[7] C. Carlsson, R. Fuller et P. Majlender. “A possibilistic approach to selecting port-
folios with highest utility score”. Dans : Fuzzy Sets and Systems Volume 131.1 (October.
2002), p. 13–21. doi : 10.1016/S0165-0114(01)00251-2.
[8] W. Chen, Y. Yang et H. Ma. “Fuzzy Portfolio Selection Problem with Different Borrowing
and Lending Rates”. Dans : Mathematical Problems in Engineering Volume 2011 (July.
2011), p. 15. doi : 10.1155/2011/263240.
[9] C.A.C. Coello et R.L. Becerra. “Evolutionary Multiobjective Optimization using a
Cultural Algorithm”. Dans : Swarm Intelligence Symposium, 2003. SIS ’03. Proceedings
of the 2003 IEEE (April. 2003), p. 6–13. doi : 10.1109/SIS.2003.1202240.
[10] Y. Collette et P. Siarry. Multiobjective Optimization. Cranfield Bedford MK43 0AL
UK : Springer, 2003.
[11] A. Crema et J. Sylva. “A method for finding the set of nondominated vectors for multiple
objective integer linear programs”. Dans : European Journal of Operational Research Volume
158.1 (October. February. 2004), p. 46–55. doi : 10.1016/S0377-2217(03)00255-8.
[12] T. Cura. “Particle swarm optimization approach to portfolio optimization”. Dans : Non-
linear Analysis : Real World Applications Volume 10.4 (August 2009), p. 2396–2406. doi :
10.1016/j.nonrwa.2008.04.023.
[13] X. Delorme. Modélisation et résolution de problèmes liés à l’exploitation d’infrastructures.
Université de Valenciennes et du Hainaut-Cambrésis, 2003.

61
BIBLIOGRAPHIE 62

[14] G. F. Deng et W. T. Lin. “Ant Colony Optimization for Markowitz Mean-Variance Port-
folio Model”. Dans : Panigrahi B.K., Das S., Suganthan P.N., Dash S.S. (eds) Swarm,
Evolutionary, and Memetic Computing Volume 6466 (December. 2010), p. 238–245. doi :
10.1007/978-3-642-17563-3_29.
[15] L. Diosan. “A multi-objective evolutionary approach to the portfolio optimization pro-
blem”. Dans : Computational Intelligence for Modelling, Control and Automation, 2005
and International Conference on Intelligent Agents, Web Technologies and Internet Com-
merce, International Conference on (2005) Volume 2 (November. 2005), p. 183–187. doi :
10.1109/CIMCA.2005.1631465.
[16] K. Doerner et al. “Pareto Ant Colony Optimization : A Metaheuristic Approach to Mul-
tiobjective Portfolio Selection”. Dans : Annals of Operations Research Volume 131.1 (Octo-
ber. 2004), p. 79–99. doi : 10.1023/B:ANOR.0000039513.99038.c6.
[17] M. Dorigo et G. D. Caro. The Ant Colony Optimization Meta-Heuristic. McGraw-Hill
Ltd., UK Maidenhead, UK, England : New ideas in optimization , 11-32, 1999.
[18] M. Ehrgott. Multicriteria Optimization. Berlin, Heidelberg : Lecture Notes in Economics
et Mathematical Systems, numéro 491, Springer Verlag, 2000.
[19] M. Ehrgott, K. Klamroth et C. Schwehm. “An MCDM approach to portfolio opti-
mization”. Dans : European Journal of Operational Research Volume 155.3 (June. 2004),
p. 752–770. doi : 10.1016/S0377-2217(02)00881-0.
[20] A.M. Geoffrion. “Proper Efficiency and the Theory of Vector Maximization”. Dans :
Journal of Mathematical Analysis and Applications Volume 22.3 (June. 19684), p. 618–630.
doi : 10.1016/0022-247X(68)90201-1.
[21] F. Glover et M. Laguna. Tabu Search. University of Colorado, U.S.A : Kluwer Academic
Publishers, 1997.
[22] H. R. Golmakani et M. Fazel. “Constrained Portfolio Selection using Particle Swarm
Optimization”. Dans : Expert Systems with Applications Volume 38.7 (July. 2011), p. 8327–
8335. doi : 10.1016/j.eswa.2011.01.020.
[23] P. Gupta, G. Mittal et M. K. Mehlawat. “Multiobjective expected value model for
portfolio selection in fuzzy environment”. Dans : Journal of Computational and Applied
Mathematics Volume 7.8 (July. 2012), p. 1765–1791. doi : 10.1016/j.cam.2008.09.008.
[24] R. Gupta et R. Malhotra. “Multi-criteria integer linear programming problem”. Dans :
A Journal of Mathematical Programming and Operations Research Volume 35.4 (January.
1995), p. 373–389. doi : 10.1080/02331939508844157.
[25] W.J. Gutjahr et al. “Multi-objective decision analysis for competence-oriented project
portfolio selection”. Dans : European Journal of Operational Research Volume 205.3 (2010),
p. 670–679. doi : 10.1016/j.ejor.2010.01.041.
[26] H. Konno H. et H. Yamazaki. “Mean-Absolute Deviation Portfolio Optimization Model
and Its Application to Tokyo Stock Market”. Dans : Management Science Volume 37.5 (May.
1991), p. 519–531. doi : 10.1287/mnsc.37.5.519.
[27] Y. Y. Haimes, W. A. Hall et H. T. Freedman. Multiobjective Optimization in Water
Resources Systems. 52 Vanderbilt Avenue, New York : Elsevier Science, 1975.
[28] J. H. Holland. Adaptation in Natural and Artificial Systems. MIT Press Cambridge, MA,
USA : University of Michigan Press., 1975.
[29] D. klein et E. Hannan. “An algorithm for multiple objective integer linear programming
problem”. Dans : European Journal of Operational Research Volume 9.4 (April. 1982), p. 378–
385. doi : 10.1016/0377-2217(82)90182-5.
BIBLIOGRAPHIE 63

[30] T. Krink, S. Mittnik et S. Paterlini. “Differential evolution and combinatorial search for
constrained index-tracking”. Dans : Annals of Operations Research Volume 172.1 (November.
2009), p. 153–176. doi : 10.1007/s10479-009-0552-1.
[31] T. Krink et S. Paterlini. “Multiobjective optimization using differential evolution for
real-world portfolio optimization”. Dans : Computational Management Science Volume 8.1
(October. 2009), p. 157–179. doi : 10.1007/s10287-009-0107-6.
[32] C. C. Lin et Y. T. Liu. “Genetic algorithms for portfolio selection problems with minimum
transaction lots”. Dans : European Journal of Operational Research Volume 185.1 (February.
2008), p. 393–404. doi : 10.1016/j.ejor.2006.12.024.
[33] Y. J. Liu et W. G. Zhang. “A multi-period fuzzy portfolio optimization model with mi-
nimum transaction lots”. Dans : European Journal of Operational Research Volume 242.3
(May. 2015), p. 933–941. doi : 10.1016/j.ejor.2014.10.061.
[34] A. Corhay et M. Mbangala. Fondements de gestion financière : manuel et applications.
Boulevard Frère-Orban, Belgique : Editions de l’Université de Liège, 2007.
[35] H. Markowitz. “Portfolio Selection”. Dans : The Journal of Finance 7 Volume 7.1 (March.
1952), p. 77–91. doi : 10.1111/j.1540-6261.1952.tb01525.x.
[36] H. Markowitz. Portfolio selection : efficient diversification of investments. New York :
Basil Blackwall, 1959.
[37] K. M. Miettinen et M. M. Mäkelä. Proper Pareto Optimality In Nonconvex Problems
- Characterization With Tangent And Normal Cones. UNIVERSITY OF JYVÄSKYLÄ,
DEPT : Technical report, November 1998.
[38] W. Ogryczak et A. Ruszczynski. “From Stochastic Dominance to Mean-Risk Models :
Semideviations as Risk Measures”. Dans : European Journal of Operational Research Volume
116.1 (July. 1999), p. 35–50. doi : 10.1016/S0377-2217(98)00167-2.
[39] A. Osyczka. “An approach to multicriterion optimization problems for engineering design”.
Dans : Computer Methods in Applied Mechanics and Engineering Volume 15.3 (September.
1978), p. 309–333. doi : 10.1016/0045-7825(78)90046-4.
[40] A. D. Roy. “Safety First and the Holding of Assets”. Dans : Econometrica Volume 20.3
(July. 1952), p. 431–449. doi : 10.2307/1907413.
[41] A. Sadeghi et M. Zandieh. “A game theory-based model for product portfolio management
in a competitive market”. Dans : Expert Systems with Applications Volume 38.7 (July. 2011),
p. 7919–7923. doi : 10.1016/j.eswa.2010.11.054.
[42] S. M. Sait et H. Youssef. Iterative Computer Algorithms with Applications in Engineering :
Solving Combinatorial Optimization Problems. IEEE Computer Society Press, 1999.
[43] M. Sakarovitch. Optimisation combinatoire, Graphes et programmation linéaire. 293 rue
Lecourbe, 75015 Paris : Hermann, 1984.
[44] A. Schrijver. Theory of Linear and Integer Programming. New York : John Wiley et Sons,
1986.
[45] W. F. Sharpe. “A simplified model for portfolio analysis”. Dans : Management Science
Volume 9.2 (January. 1963), p. 277–293. doi : 10.1287/mnsc.9.2.277.
[46] K. Smimou, C. R. Bector et G. Jacoby. “Portfolio selection subject to experts’ judg-
ments”. Dans : International Review of Financial Analysis Volume 17.5 (December. 2008),
p. 1036–1054. doi : 10.1016/j.irfa.2008.04.004.
BIBLIOGRAPHIE 64

[47] H. Soleimani, H. R. Golmakani et M. H. Salimi. “Markowitz-based portfolio selection


with minimum transaction lots, cardinality constraints and regarding sector capitalization
using genetic algorithm”. Dans : Expert Systems with Applications Volume 36.3 Part 1 (April.
2009), 5058–5063. doi : 10.1016/j.eswa.2008.06.007.
[48] M. G. Speranza, R. Mansini et W. Ogryczak. Linear and Mixed Integer Programming
for Portfolio Optimization. New York : Springer International Publishing, 1993.
[49] H. Tanaka et P. Guo. “Portfolio selection based on upper and lower exponential possibility
distributions”. Dans : European Journal of Operational Research Volume 114.1 (April. 1999),
p. 115–126. doi : 10.1016/S0377-2217(98)00033-2.
[50] R. C. Tsaur. “Fuzzy portfolio model with different investor risk attitudes”. Dans : European
Journal of Operational Research Volume 227.2 (June. 2013), p. 385–390. doi : 10 . 101
6/j.ejor.2012.10.036.
[51] E. Vercher, J. D. Bermúdez et J. V. Segura. “Fuzzy portfolio optimization under
downside risk measures”. Dans : Fuzzy Sets and Systems Volume 158.7 (April. 2007), p. 769–
782. doi : 10.1016/j.fss.2006.10.026.
[52] B. Wang, S. Wang et J. Watada. “Fuzzy-Portfolio-Selection Models With Value-at-Risk”.
Dans : IEEE Transactions on Fuzzy Systems Volume 19.4 (August. 2011), p. 758–769. doi :
10.1109/TFUZZ.2011.2144599.
[53] M. R. Young. “A Minimax Portfolio Selection Rule with Linear Programming Solution”.
Dans : Management Science Volume 44.5 (May. 1998), p. 673–683. doi : 10.1287/mnsc.4
4.5.673.
[54] L. A. Zadeh. “Fuzzy sets”. Dans : Information and Control Volume 8.3 (June. 1965), p. 338–
353. doi : 10.1016/S0019-9958(65)90241-X.
[55] H. Zhu et al. “Particle Swarm Optimization (PSO) for the constrained portfolio optimization
problem”. Dans : Expert Systems with Applications Volume 38.8 (August. 2011), p. 10161–
10169. doi : 10.1016/j.eswa.2011.02.075.
Résumé

Résumé

L’objectif de ce travail est l’´étude de problème de l’optimisation de portefeuille et l’éla-


boration d’une méthode d’optimisation multi-objectif. Il s’ensuit d’une adaptation de la mé-
thode au problème d’optimisation de portefeuilles basé sur un modèle ”Moyenne-Variance”
initié par Markowitz (1959) avec une implémentation sur un problème test.

Mots clés : Problèmes d’optimisation multi-objectif, programmation quadratique, sélec-


tion de portefeuilles, modèle de Markowitz.

Abstract

T he objective of this work is the study of portfolio optimization Problems,and the devel-
opment of a method of Multiobjective optimization.It follows an adaptation of the method
to the problem of portfolio optimization based on a ”Mean-Variance” model initiated by
Markowitz (1959) with an implementation on a test problem.

Keywords : Multiobjective optimization problems, quadratic programming, portfolio se-


lection, Markowitz model.

65

Vous aimerez peut-être aussi