Académique Documents
Professionnel Documents
Culture Documents
1. Introduction
Dans tous ces exemples, il est nécessaire d'avoir modélisé (c'est à dire mis en équations) la
grandeur qu'on cherche à minimiser ou maximiser. En fait, on retrouve des problèmes
d'optimisation dans de nombreuses applications telles que les problèmes de conception de
nouveaux systèmes (dimensionnement), d'optimisation des conditions de fonctionnement de
procédés, commande des systèmes (stabilisation, suivi de trajectoires), surveillance et
supervision (maintenance, diagnostic), de planification de production, de transport, de
localisation, mais également dans les domaines économiques et financiers, comme la gestion
de ressources et la rentabilisation des investissement.
Identifier d’abord les variables (inconnues) qui seront les variables de décision et les
représenter par des symboles.
Identifier la fonction objectif et l’exprimer en fonction des variables de décision.
Identifier toutes les contraintes ou restrictions du problème et les exprimer comme
des équations ou inéquations linéaires ou non linéaires en fonction des variables de
décision.
Choisir une méthode de résolution.
Exemple :
Un jardinier dispose de 100 Mètres de fil de fer qu’il va utiliser pour la clôture de trois cotés
d’une parcelle rectangulaire d’un jardin.
On analysant ce problème, on remarque que la parcelle est rectangulaire, c.à.d elle possède
une Langueur Y et une largeur X, alors X et Y sont les variables de décision.
On a aussi une contrainte (le périmètre P à clôturer est limité), car le jardinier ne
possède que de 100 mettre de fil de fer.
L’objectif du jardinier c’est de clôturer une parcelle d’un jardin, cette parcelle
représente une surface. Alors la fonction objectif doit être la maximisation de la
surface S à clôturer (la question à poser donc qu’elle est la surface maximum à
clôturer).
S=X(100-2X) (4)
f(X)=100X-2X2 (5)
f’(X*)=100-4X=0 (6)
Pour résoudre un problème d'optimisation, il est important de bien identifier à quelle catégorie
ce problème appartient. En effet, les algorithmes développés sont conçus pour résoudre un
type de problème donné et sont peu efficaces pour un type différent. La classification des
problèmes d'optimisation change d'un auteur à l'autre. Par exemple, on distingue :
Dans certains cas, les variables de décision sont discrètes, le plus souvent sous la forme
d'entiers ou de binaires. Le problème d'optimisation est dit discret. Au contraire, dans les
problèmes d'optimisation continus, les variables peuvent prendre n'importe quelle valeur, ce
sont des réels. Les problèmes d'optimisation continus sont généralement plus simples à
résoudre. Un problème d’optimisation mêlant variable continue et variable discrètes est dit
mixte.
Il est important de bien distinguer les problèmes où des contraintes existent sur les variables
de décision. Ces contraintes peuvent être simplement des bornes et aller jusqu'à un ensemble
d'équations de type égalité et de type inégalité. Il est parfois possible d'éliminer une contrainte
égalité par substitution dans la fonction objectif. Naturellement, les problèmes avec
contraintes sont plus compliqués à résoudre et utilisent des algorithmes dédiés.
Les problèmes mono-objectif sont définis par une unique fonction objectif. Les problèmes
multi-objectifs existent quand un compromis est à rechercher entre plusieurs objectifs
contradictoires. Il est éventuellement possible (mais pas nécessairement efficace) de
reformuler un problème multi-objectif avec une seule fonction objectif sous forme d'une
combinaison des différents objectifs ou en transformant des objectifs sous forme de
contraintes.
Les problèmes d'optimisation déterministe considèrent que les données sont connues
parfaitement, alors que dans les problèmes d'optimisation stochastique, ce n'est pas le cas ; par
exemple une approche stochastique peut être pertinente dans le cas où les variables d'un
problème sont les ventes futures d'un produit. Dans ce cas, l'incertitude peut être introduite
dans le modèle.
hj(x) ≤ 0 , j = 1, . . . , p ,
x ∈ D ⊂ Rn,
Où f est la fonction (scalaire) à minimiser, appelée fonction coût ou fonction objectif, x
représente le vecteur des variables d’optimisation, gi sont les contraintes d’égalité et hj les
contraintes d’inégalité, et D est l’espace des variables (appelé aussi espace de recherche). D
indique quel type de variables sont considérées : réelles, entières, mixtes (réelles et entières
dans un même problème), discrètes, continues, bornées, etc.
On appelle solution optimale, x*, une solution admissible qui minimise (ou maximise) f(x).
4.2. Minimum global (absolu) et minimum local (relatif)
∂f ∂f ∂f
∇f ( x1, x 2,..., xn) = ( , ,..., ) T (1.2)
x1 x 2 xn
Si ∇f ( x1, x 2,..., xn ) = 0 pour le point (x1*, x2*,.., xn*) alors ce point est minimum (maximum)
local. Ce point est appelé également point stationnaire.
5.1.2. Le Hessien (Matrice Hessienne): le Hessien est une façon d’écrire les dérivées
d’un gradient à l'aide d’une matrice symétrique. pour une fonction
f(x1,x2,…,xn), le Hessein est calculé en utilisant la formule suivante :
∂f
H ( x1, , x 2,..., xn) = ∇ 2 f ( x1, , x 2,..., xn) = pour i=1..n,j=1..n. (1.3)
∂xi∂xj
(1.4)
Pour le cas d’une fonction à deux variables : Soit f ( x, y ) une fonction deux fois dérivable,
alors le Hessien est :
a b
• Soit A = , une matrice symétrique de taille 2x2.
b c
A est définie positive (définie négative) si ces valeurs propres sont strictement positives
(strictement négatives)
Pour une matrice symétrique définie positive A de taille nxn, les énoncés suivants sont
équivalents :
La matrice symétrique A est définie négative si son opposée (-A) est définie positive.
Exemples :
10 8
• M1 = → det(M 1 ) = 10 ⋅ 6 − 8 ⋅ 8 = −4 < 0 ; M 1 est non définie.
8 6
2 3 a = 2
• M2 = → M 2 est définie positive.
3 6 det( M 2 ) = (2)(6) − 3 ⋅ 3 = 3 > 0
− 2 3 a = −2
• M3 = → M 3 est définie négative.
3 − 6 det( M 3 ) = (−2)(−6) − 3 ⋅ 3 = 3 > 0
0 det( M 4 ( x, y )) = x y ≥ 0
2 2
x 2
• M 4 ( x, y ) = → M 4 est semi–définie positive.
0 y 2 a = x 2 ≥ 0
10 10 a = 10
• M5 = → M 5 est semi–définie positive.
10 10 det( M 5 ) = 10 ⋅ 10 − 10 ⋅ 10 = 0
0 0 det( M 6 ) = 0
• M6 = →
0 0 a = 0
M 6 est à la fois semi–définie positive et semi-définie négative; c’est en fait le Hessien d’une
fonction linéaire.
• Si det( H ( X * )) = 0 , il faut utiliser d'autres techniques (calculer par exemple les valeurs
propres.
16 3
Exemple : f ( x, y ) = 2 x 2 − 8 xy 2 − y + 8y 2 − 8, où ( x, y ) ∈ ℜ 2 .
3
4x − 8 y 2 4 − 16 y
1- ∇f ( x, y ) = ; H ( x, y ) = .
− 16 xy − 16 y + 16 y − 16 y − 16 x − 32 y + 16
2
0
2- ∇f ( x, y ) = ⇔ x = 2 y 2 et xy + y 2 − y = 0 = 2 y 3 + y 2 − y = y (2 y − 1)( y + 1) .
0
Les points stationnaires sont : (0, 0),(1/2, 1/2) et (2, -1).
4 0
H (0, 0) = ; 4 > 0 et det( H (0, 0)) > 0; ⇒ (0,0) est un minimum local.
0 16
1 1 4 − 8 1 1 1 1
H( , ) = ; det( H ( , )) < 0 ⇒ ( , ) est un point selle.
2 2 − 8 − 8 2 2 2 2
4 16
H (2, − 1) = ; det( H (2, − 1)) < 0; ⇒ (2, − 1) est un point selle.
16 16
Définition 1 : L’ensemble D est convexe, si quels que soient les deux points a, b ∈D, tout le
segment ab ∈ D. (voir figure2)
Définition 2 : Une fonction f ( x, y ) à deux variables est dite convexe sur un ensemble
convexe si et seulement si tout segment de droite reliant deux points sur la surface de f ( x, y )
est toujours au-dessus de cette surface. (voir figure3)
Définition 3 : Une fonction f ( x, y ) à deux variables est dite concave sur un ensemble
convexe si et seulement si tout segment de droite reliant deux points sur la surface de f ( x, y )
est toujours au-dessous de cette surface. (voir figure4 )
Pour une fonction convexe ou concave, la condition du premier ordre (gradient nul) est
nécessaire et suffisante pour caractériser la nature d’un point stationnaire.
Exemple : f ( x, y) = 4 x 2 + 2 y 2 − 8 x − 2 y + 1 .
8x − 8 0 8 x * − 8 = 0 ⇔ 8 x * = 8 ⇒ x * = 1
∇ f ( x, y ) = ; ∇f ( x , y ) = 0 ⇔ *
* *
4 y − 2 4 y − 2 = 0 ⇔ 4 y = 2 ⇒ y = 1 / 2
* *
8 0
H ( x, y ) = . a=8 et det( H ( x* , y * )) = 8 ⋅ 4 − 0 ⋅ 0 = 32 > 0 , ∀(x, y).
0 4
Le Hessien H ( X * ) est défini positif ∀(x, y), donc f ( x, y ) est strictement convexe.