Académique Documents
Professionnel Documents
Culture Documents
à Borj Cédria
Chapitre2 :
Optimisation sous contraintes
Y. BOUKARI
5 avril 2020
Plan du chapitre :
Remarque
K est appellé ensemble des solutions admissibles.
K est fermé, si toute suite convergente délèments de K, sa limite est
aussi dans K.
Existence et unicité de minimum
Existence et unicité de minimum
Remarque :
La notion de la convexité de la fonction J sur K est identique à celle
d’une fonction définie sur tout le domaine.
Lorsque K est convexe et la fonction J est convexe, (P1) est un problème
d’optimisation convexe.
T H ÉOR ÈME
Soient K un fermé non vide de Rn et J : K −→ R continue. On suppose que J
est coercive ou que K est non borné, alors le problème de minimisation (P1)
admet au moins une solution. Si de plus K est convexe et J est strictement
convexe sur K, ce minimum est unique.
Existence et unicité de minimum
P ROPOSITION
Soit J : Rn −→ R une fonction différentiable en x̄ et soit K un convexe fermé
de Rn . Si x̄ est un minimum de J sur K, alors
h∇J(x̄), x − x̄i ≥ 0, ∀x ∈ K
Preuve :
pour tout x ∈ K, on a :
d’autre part on a :
tx + (1 − t)x̄ = x̄ + t(x − x̄)
Comme x̄ est un minimum de J sur K, alors
Par conséquent
J(x̄ + t(x − x̄)) − J(x̄)
lim = h∇J(x̄), x − x̄i ≥ 0
t−→0 t
Cas de contrainte d’égalité linéaire
Nous rappelons que le problème de minimisation avec contraintes d’égalités
linéaire s’écrit sous la forme suivante :
(P2) min J(x)
x∈K
n
avec K = {x ∈ R , tel que Cx = d}, C ∈ Mm,n (R) et d ∈ Rm .
P ROPOSITION
On suppose que J est différentiabe en x̄. Si x̄ est solution de (P2), il existe
alors λ̄ ∈ Rm tel que :
∇J(x̄) + Ct λ̄ = 0 (1)
Le multiplicateur λ̄ est unique si la matrice C est de rang m.(rg(C) = m).
Preuve :
Il est claire K est convexe. x̄ est une solution de P2, on a alors :
h∇J(x̄), x − x̄i ≥ 0, ∀x ∈ K
D’autre part on a :
Cx = Cx̄ = d ⇒ C(x − x̄) = 0
Ainsi x − x̄ ∈ Ker(C).
Rappel sur l’algèbre linéaire
Cas de contrainte d’égalité linéaire
On a alors
h∇J(x̄), yi ≥ 0, ∀y ∈ Ker(C)
Comme Ker(C) est un sous espace vectoriel, on a alors :
y ∈ Ker(C) ⇒ −y ∈ Ker(C)
On endéduit alors
h∇J(x̄), yi = 0, ∀y ∈ Ker(C)
Par conséquent :
∇J(x̄) ∈ (Ker(C))⊥
D’autre part on sait
(ker(C))⊥ = Im(Ct )
Ainsi, il existe λ̄ ∈ Rm , tel que :
∇J(x̄) + Ct λ̄ = 0
Cas de contrainte linéaire
Cas de fonction quadratiques
P ROPOSITION
Si A est symétrique définie positive, alors le problème (P3) admet une
solution unique x̄ caractérisée par :
A Ct
x̄ b
∃λ̄ ∈ Rm tel que =
C 0 λ̄ d
Cas de fonction quadratique
Ax̄ − b + Ct λ̄ = 0
D’autre part, on a Cx̄ = d, ainsi on a le système suivant :
A Ct
x̄ b
=
C 0 λ̄ d
Remarque
min J(x)
x∈K
avec
1 2 1 2 1 2
J(x) = x + y + z − xy − x − 2y − z
2 2 2
et
K = (x, y, z)t ∈ Rn
tel que x + y − z = 1, 2z + y = 2
Il s’agit d’un problème quadratique avec,
1 −1 0 1
A = −1 1 0 et b= 2
0 0 1 1
Ainsi
1 0
1 1 −1 t
C= et C = 1 1
0 1 2
−1 2
D’ou x̄ et λ̄ vérifient :
1 −1 0 1 0 x 1
−1 1 0 1 1 y 2
0 0 1 −1 2 z = 1
λ¯1
1 1 −1 0 0 1
0 1 2 0 0 λ¯2 2
Remarque
Si J est convexe et le Lagrangien s’annule en x̄ alors x̄ est le minimum.
Dans notre cas, si J est C2 il suffit de chercher le zéro du Lagrangien, de
Calculer la hessienne en ce point et de vérifier qu’elle est définie et
positive.
Dans l’exemple précédent, nous avons
1
x̄ = 1 .
0
Hess(J) = ∇(∇t J) = A
avec
h : Rn −→ Rm
7−→ (h1 (x), h2 (x), ..., hm (x))
Si les points de K sont réguliers alors K est de dimension (n − m).
Une courbe C sur la surface K est un ensemble de points paramétrés :
C = {t ∈ R, x(t) ∈ K}
∗
dx(t )
Le vecteur dt
est tangent à C en x∗ = x(t∗ ). Il est claire qu’on a :
dx(t∗ )
J(x∗ ), =0
dt
Cas de contraintes non linéaire
dk −→ d, tk & 0, x + tk dk ∈ X
Exemple :
n o
X = x ∈ R2 : x12 ≤ x2 ≤ 2x12
Si x = 0 alors Tx X = R × {0}
∀d ∈ Tx X; hp, di ≤ 0
Nx X = {Tx X}−
autrement dit :
Exemple
F IGURE – Cône tangent (bleu clair) et normal (en rose) à quelques ensembles
Cas de contrainte nonlinéaire
Theorem (CN1)
Si x∗ est un minimum local de (PX ) et si f est différentiable en x∗ , on a :
∀d ∈ Tx X; h∇Jx∗ , di ≥ 0
Ceci s’écrit aussi
P ROPOSITION (CNS1)
Soit x∗ une solution locale de (P1 ). Supposons que J et h soient deux fois
différentiable en x∗ alors, il existe un vecteur λ∗ ∈ F tel que :
∇J(x∗ ) + ∇h(x∗ )t λ = 0
et on a
(∇∇t Jx∗ + ∇∇t h(x∗ )t )d, d ,
∀d ∈ Tx∗ X
Condition nécéssaire et suffisante
P ROPOSITION
x∗ est le minimum de J sous la contrainte h(x) = 0 ssi