Académique Documents
Professionnel Documents
Culture Documents
PROBLÈMES D’OPTIMISATION -
CONDITIONS D’OPTIMALITÉ
L’optimisation signifie trouver la meilleure solution parmi les nombreuses solutions réalisables qui
s’offrent à nous. Les solutions réalisables sont celles qui satisfont toutes les contraintes d’un problème
d’optimisation. La meilleure solution pourrait être de minimiser le coût d’un processus ou de maximiser
l’efficacité d’un système.
2x1 + x2 ≤ 8, x1 + 2x2 ≤ 7, x2 ≤ 3.
17
CHAPITRE 2. PROBLÈMES D’OPTIMISATION - CONDITIONS D’OPTIMALITÉ
f (x̄) ≤ f (x) ∀x ∈ C.
• Tout point réalisable x̄ de (P) est dit solution locale de (P) s’il existe V ∈ v(x̄) tel que
f (x̄) ≤ f (x) ∀x ∈ V ∩ C.
La figure ci-dessous illustre, sur une fonction à une seule variable, les notions d’optimums global et
d’optimum local.
minimum local
minimum global
Comme nous le verrons, il est souvent possible de caractériser les optimums locaux d’un problème, c’est
à dire de donner des conditions nécessaires et / ou suffisantes pour qu’une solution x soit un optimum
local. Par contre, il est généralement impossible de caractériser les optimums globaux d’un problème
d’optimisation sauf dans le cas très particulier des programmes mathématiques convexes. Ceci explique
la difficulté de résolution des programmes mathéamatiques non convexes.
On a
inf f (x) = 0
x∈R
Mais
@x ∈ R / f (x) = 0.
i.e., ArgminR f = ∅.
2) On a
sup (−f (x)) = − inf (f (x)).
x∈C x∈C
En effet, Posons
inf f (x) = f (x̄).
x∈C
i.e.,
f (x̄) ≤ f (x) ∀x ∈ C
Donc
−f (x̄) ≥ −f (x) ∀x ∈ C
Ainsi,
−f (x̄) = sup (−f (x)).
x∈C
i.e.,
− inf f (x) = sup (−f (x)).
x∈C x∈C
Donc, si on pose
(P) min f (x) et (Q) max −f (x)
x∈C x∈C
Par suite, (P) et (Q) ont même ensemble de solutions et des valeurs optimales opposées.
3) Par convention, inf f (x) = +∞ et sup f (x) = −∞.
x∈∅ x∈∅
Dans ce qui suit, nous n’envisageons que le cas de minimisation. Ceci n’est par restrictif dans la mesure
où la recherche du maximum d’une fonction f se ramène immédiatement au problème de la minimisation
de g = −f.
La classification des différents types de problèmes d’optimisation que l’on peut rencontrer en pra-
tique, se fait suivant les propriétés de la fonction f , celle des fonctions hi , gi et suivant la définition du
sous-ensemble S de Rn .
Le problème (P) est dit problème :
→ Sans contraintes : Si C = Rn .
→ Linéaire : Si f est linéaire, f (x) = hc, xi = c> x et C est de la forme
0 0
C = {x ∈ Rn / a> >
i x = bi , i = 1, ..., m, aj x ≤ bj , j = 1, ...p}.
On suppose que C est compact et f est continue sur C, alors f atteint son infimum sur C. i.e.,
Ainsi,
lim f (xn ) = l = inf f (x).
n→+∞ x∈C
On a donc
∃(xn )n ⊆ C t.q. lim f (xn ) = inf f (x).
n→+∞ x∈C
Ainsi,
∀ > 0 ∃N ∈ N t.q. ∀n ∈ N (n ≥ N ⇒ l − ≤ f (xn ) ≤ l + ).
On a donc,
∀n ∈ N, n ≥ N f (xn ) ≤ inf f (x) + .
x∈C
Puisque (xn )n ⊆ C et C est compact (en dimension finie). Alors, on peut extraire une suite qui converge
dans C, i.e.,
∃K ⊆ N, Kinfini t.q lim xk = x̄ ∈ C.
k→+∞
k∈K
Pour k ∈ K, k ≥ N, on a
f (xk ) ≤ inf f (x) + .
x∈C
Or
l = inf f (x) ≤ f (x) ∀x ∈ C.
x∈C
Ainsi,
f (x̄) ≤ l ≤ f (x) ∀x ∈ C
Donc,
f (x̄) ≤ l ≤ f (x̄).
Par suite,
f (x̄) = l = inf f (x).
x∈C
D’où
∃x̄ ∈ C t.q. f (x̄) ≤ f (x) ∀x ∈ C.
2
Le corollaire suivant du théorème 2.1 est immédiat, mais est souvant utile dans les applications, par
exemple dans le cas de l’optimisation sans contraintes où l’on cherche un optimum sur Rn tout entier.
Corollaire 2.1.
Soit f : Rn → R une fonction réelle continue sur Rn . On suppose que f est coersive, i.e.,
Alors le problème
min f (x)
x∈Rn
f (xn ) ≤ λ
Ainsi, puisque f est continue, par passage à la limite lorsque n → +∞, on obtient
f (x) ≤ λ.
i.e.,
x ∈ Sλ (f ).
• Montrons que Sλ (f ) est borné
Supposons que Sλ (f ) est non borné, donc
∃(xk )k ⊆ Sλ (f ) t.q. kxk k → +∞.
Or, f est coersive, alors lim f (xk ) = +∞. D’autre part, (xk )k ⊆ Sλ (f ). Alors
kxk k→+∞
f (xk ) ≤ λ.
Par passage à la limite lorsque kxk k → +∞, on obtient +∞ ≤ λ. Absurde (λ ∈ R). Par suite
Sλ (f ) est borné. Ainsi, Sλ (f ) est compact et puisque f est continue, alors le problème
min f (x)
x∈Sλ (f )
Corollaire 2.2.
min f (x)
x∈C∩Bf (0,r)
Exercice 2.1.
(P 0 ) min f (x).
x∈Rn
f (x̄) ≤ f (x) ∀x ∈ Rn , x̄ 6= x∗
Page
2.3.
22 OPTIMISATION
sur 35 NON LINÉAIRE SANS CONTRAINTES : CONDITIONS D’OPTIMALITÉ
CHAPITRE 2. PROBLÈMES D’OPTIMISATION - CONDITIONS D’OPTIMALITÉ
On a
f (x̄) ≤ f (x) ∀x ∈ Rn
Pour x = x∗ ,
f (x̄) ≤ f (x∗ )
D’autre part, on a
f (x∗ ) < f (x) ∀x ∈ Rn , x 6= x∗ .
On a donc
f (x̄) ≤ f (x∗ ) < f (x) ∀x ∈ Rn , x 6= x∗ .
Pour x = x̄, on obtient
f (x̄) ≤ f (x∗ ) < f (x̄).
Donc,
f (x̄) < f (x̄).
Absurde.
Néanmoins, il existe aussi bien des situations dans lesquelles le minimum global n’est pas unique (voir
figure 2.3)
Page
2.3.
23 OPTIMISATION
sur 35 NON LINÉAIRE SANS CONTRAINTES : CONDITIONS D’OPTIMALITÉ
CHAPITRE 2. PROBLÈMES D’OPTIMISATION - CONDITIONS D’OPTIMALITÉ
Figure 2.3 – Tous les points du segement [x1 , x2 ] sont des optimums globaux.
Pour beaucoup de problèmes d’optimisation sans contraintes, les principales méthodes de résolution
connues ne permettent pas la détermination d’un minimum global : Il faut alors se contenter d’optimums
locaux, c’est à dire de points qui vérifient (4) seulement dans un voisinage de x∗ . Nous allons voir
maintenant comment de tels points peuvent être caractérisés.
Soit x̄ un minimum local de (P 0 ). On suppose que f est différentiable en x̄, alors ∇f (x̄) = 0.
Soient h ∈ Rn , t > 0, on a
lim x̄ + th = x̄ ∈ B(x̄, r).
t→0
Ainsi,
∃β > 0 ∀t ∈]0, β[ x̄ + th ∈ B(x̄, r).
Par suite,
f (x̄) ≤ f (x̄ + th).
Donc,
f (x̄ + th) − f (x̄) ≥ 0.
Alors,
f (x̄ + th) − f (x̄)
≥ 0.
t
Page
2.3.
24 OPTIMISATION
sur 35 NON LINÉAIRE SANS CONTRAINTES : CONDITIONS D’OPTIMALITÉ
CHAPITRE 2. PROBLÈMES D’OPTIMISATION - CONDITIONS D’OPTIMALITÉ
Définition 2.1.
Remarque 2.2 La stationnarité n’est pas une condition suffisante d’optimalité locale (voir figure 2.4.).
Page
2.3.
25 OPTIMISATION
sur 35 NON LINÉAIRE SANS CONTRAINTES : CONDITIONS D’OPTIMALITÉ
CHAPITRE 2. PROBLÈMES D’OPTIMISATION - CONDITIONS D’OPTIMALITÉ
Soit x̄ un minimum local de (P 0 ). On suppose de plus que f est deux fois différentiable en x̄.
Alors
h∇2 f (x̄)h, hi ≥ 0 ∀h ∈ Rn .
(∇2 f (x̄) est semi-définie positive).
• Si h = 0, inégalité vérifiée.
• Si h 6= 0. Soit t > 0, puisque f est deux fois différentiable, alors on a la formule de Taylor
t2 2
f (x̄ + th) = f (x̄) + th∇f (x̄), hi + h∇ f (x̄)h, hi + t2 khk2 βx̄ (th)
2
avec βx̄ : Rn → R t.q. lim βx̄ (h) = 0. Ainsi,
h→0
On a
lim x̄ + th = x̄ ∈ B(x̄, r).
t→0
Ainsi,
∃t̄ > 0 ∀t ∈]0, t̄[ x̄ + th ∈ B(x̄, r).
Par suite,
f (x̄) ≤ f (x̄ + th).
Donc,
f (x̄ + th) − f (x̄) ≥ 0.
De (8) on obtient
1 2
h∇ f (x̄)h, hi + khk2 βx̄ (th) ≥ 0
2
En faisant tendre t → 0+ , on obtient
1 2
h∇ f (x̄)h, hi ≥ 0.
2
i.e.,
h∇2 f (x̄)h, hi ≥ 0 ∀h ∈ Rn
2
Page
2.3.
26 OPTIMISATION
sur 35 NON LINÉAIRE SANS CONTRAINTES : CONDITIONS D’OPTIMALITÉ
CHAPITRE 2. PROBLÈMES D’OPTIMISATION - CONDITIONS D’OPTIMALITÉ
Soit x̄ ∈ Rn . On suppose que f est deux fois différentiable en x̄. Si ∇f (x̄) = 0 et ∇2 f (x̄) est
définie positive sur Rn . Alors, x̄ est un minimum local strict de f sur Rn .
Preuve 19 Soit x̄ ∈ Rn . Puisque f est deux fois différentiable, alors on a la formule de Taylor
1
f (x) = f (x̄) + h∇f (x̄), x − x̄i + h∇2 f (x̄)(x − x̄), x − x̄i + kx − x̄k2 β(x̄, x − x̄) (9)
2
avec lim β(x̄, h) = 0. Montrons que
h→0
Supposons que
∀r > 0 ∃xr ∈ B(x̄, r) t.q. xr 6= x̄ et f (x̄) ≥ f (xr ).
1
Donc, pour r = k > 0,
1
∃xk ∈ B(x̄, ) t.q. xk 6= x̄ et f (x̄) ≥ f (xk ).
k
De (9), on a
1
f (xk ) = f (x̄) + h∇f (x̄), xk − x̄i + h∇2 f (x̄)(xk − x̄), xk − x̄i + kxk − x̄k2 β(x̄, xk − x̄).
2
Puisque ∇f (x̄) = 0, alors on a
1
f (xk ) = f (x̄) + h∇2 f (x̄)(xk − x̄), xk − x̄i + kxk − x̄k2 β(x̄, xk − x̄).
2
Donc,
xk − x̄ xk − x̄
Å ≠ ∑ ã
1
f (xk ) = f (x̄) + kxk − x̄k2 ∇2 f (x̄) , + β(x̄, xk − x̄) .
2 kxk − x̄k kxk − x̄k
Ainsi,
f (xk ) − f (x̄) xk − x̄ xk − x̄
≠ ∑
1 2
= ∇ f (x̄) , + β(x̄, xk − x̄).
kxk − x̄k2 2 kxk − x̄k kxk − x̄k
Puisque f (xk ) ≤ f (x̄), alors
xk − x̄ xk − x̄
≠ ∑
1
∇2 f (x̄) , + β(x̄, xk − x̄) ≤ 0. (10)
2 kxk − x̄k kxk − x̄k
xk −x̄
Posons dk = kxk −x̄k . On a kdk k = 1, ainsi dk ∈ Bf (0, 1) qui est compact. Alors,
i.e.,
1
∇2 f (x̄)dkj , dkj + β(x̄, xkj − x̄) ≤ 0.
2
Par passage à la limite lorsque j → +∞, on obtient
1
∇2 f (x̄)d, d ≤ 0 avec d 6= 0.
2
Absurde avec le fait que ∇2 f (x̄) est définie positive. 2
Page
2.3.
27 OPTIMISATION
sur 35 NON LINÉAIRE SANS CONTRAINTES : CONDITIONS D’OPTIMALITÉ