Académique Documents
Professionnel Documents
Culture Documents
DJEGHALI
Département Automatique
UMMTO, 2021/2022
∂L
∂x
g1 ( x ) 1
. ∂L
∂x
Soient : g ( x ) = . et ∇ x L( x , λ ) = 2 , avec ∇ x L( x, λ ) est le gradient de L par
.
.
.
g m ( x ) ∂L
∂x
n
rapport à x.
djeghalinadial2csp@gmail.com
Chapitre 4. Programmation non linéaire N. DJEGHALI
Solution :
La fonction de Lagrange de ce problème est :
L( x , λ ) = f ( x ) + λg ( x ) = x12 + x 22 + λ ( x12 + 2 x 22 − 1)
2
Chapitre 4. Programmation non linéaire N. DJEGHALI
[ ]
y y
J g ( x1 ) y = 0 2 2 1 = 0 ⇒ y = 1
y 2 0
1 0
∇ 2x L( x1 , λ1 ) = ⇒ y T ∇ 2x L( x1 , λ1 ) y = y12 > 0 , alors x1 est un point de minimum local de f.
0 0
b.2) La nature du deuxième point: x 2 = (0,−1 / 2 ) , λ2 = −1 / 2
[ y
] y
J g (x 2 )y = 0 − 2 2 1 = 0 ⇒ y = 1
y 2 0
1 0
∇ 2x L( x 2 , λ2 ) = ⇒ y T ∇ 2x L( x 2 , λ2 ) y = y12 > 0 , alors x 2 est un point de minimum local de
0 0
f.
b.3) La nature du troisième point : x 3 = (1,0) , λ3 = −1
y 0
J g ( x 3 ) y = [2 0] 1 = 0 ⇒ y =
y2 y2
0 0
∇ 2x L( x 3 , λ3 ) = ⇒ y ∇ x L( x , λ ) y = −2 y 2 < 0 , alors x est un point de maximum
T 2 3 3 2 3
0 − 2
local de f.
b.4) La nature du quatrième point : x 4 = (−1,0) , λ4 = −1
y 0
J g ( x 4 ) y = [− 2 0] 1 = 0 ⇒ y =
y2 y2
0 0
∇ 2x L( x 4 , λ4 ) = ⇒ y T ∇ 2x L( x 4 , λ4 ) y = −2 y 22 < 0 , alors x 4 est un point de maximum
0 − 2
local de f.
3
Chapitre 4. Programmation non linéaire N. DJEGHALI
m p
L( x , λ, µ ) = f ( x ) + ∑ λ i g i ( x ) + ∑ µ j h j ( x )
i =1 j=1
x* est un point du minimum (resp. maximum) local de f(x) sous les contraintes
g i ( x ) = 0, i = 1,..., m et h j ( x ) ≤ 0, j = 1,..., p , si :
µ*j ≥ 0 , j = 1,..., p (resp. µ*j ≤ 0)
∇ x L( x*, λ*, µ*) = 0
g i ( x*) = 0, i = 1,..., m
1°.
h j ( x*) ≤ 0, j = 1,..., p
µ*j h j ( x*) = 0, j = 1,..., p
J g ( x*) y = 0
2°. y T ∇ 2x L( x*, λ*, µ*) y > 0 (resp. < 0) ∀y ≠ 0 tel que : T
y ∇h j ( x*) = 0, ∀j ∈ I( x*)
où : I( x * ) est l’ensemble des indices des contraintes actives.
J g ( x*) est la matrice jacobienne (mxn) de g(x).
Exemple 4.2
Min ( x1 − 1) 2 + x 2 − 2
s.c :
g ( x ) = x 2 − x1 − 1 = 0
h (x ) = x1 + x 2 − 4 ≤ 0
Solution :
La fonction de Lagrange
L( x , λ, µ) = f ( x ) + λg ( x ) + µh ( x ) = ( x 1 − 1) 2 + x 2 − 2 + λ ( x 2 − x 1 − 1) + µ( x 1 + x 2 − 4)
a) Calcul des points critiques
µ ≥ 0 (1)
2( x − 1) − λ + µ = 0 ( 2)
1
1 + λ + µ = 0 (3)
x 2 − x1 − 1 = 0 ( 4)
x1 + x 2 − 4 ≤ 0 (5)
µ( x1 + x 2 − 4) = 0 ( 6)
De (6), on obtient : µ = 0 ou x 1 + x 2 − 4 = 0
4
Chapitre 4. Programmation non linéaire N. DJEGHALI
x1 + x 2 − 4 = 0 (5)'
2 0 ∂g ∂g
∇ 2x L( x , λ, µ) = ; J g (x) = = [− 1 1]
0 0 ∂x1 ∂x 2
J g ( x1 ) = [− 1 1]
y y
J g ( x1 ) y = 0 ⇒ [− 1 1] 1 = 0 ⇒ y1 = y 2 ⇒ y = 1
y2 y1
2 0 y1
y T ∇ 2x L( x1 , λ1 , µ1 ) y = [y1
y1 ] = 2 y12 > 0 ⇒ x 1 = (1 / 2,3 / 2) est un point de
0 0 y1
1
minimum de f. Min(f)=f(x )= - 0.25.
Min f (x)
s.c : (4.3)
g i ( x ) = 0, i = 1,..., m
Soit la fonction de Lagrange:
m
L( x , λ ) = f ( x ) + ∑ λ i g i ( x )
i =1
5
Chapitre 4. Programmation non linéaire N. DJEGHALI
λ1
.
Avec : λ = . .
.
λ m
Le problème revient à chercher le minimum de L( x , λ ) en utilisant la méthode itérative de
x 0
Newton, en partant d’un point initial 0 .
λ
x
Soit : X = , l’algorithme de Newton est comme suit :
λ
X 0 point initial
k=0,1,2,….
X k +1 = X k − (∇ 2 L(X k )) −1 ∇L(X k )
2 / 5 2 / 10 − 2 / 5 4
6
Chapitre 4. Programmation non linéaire N. DJEGHALI
Itération 1 : k=0
0 1 / 10 − 2 / 10 2 / 5 0 − 8 / 5
X = X − (∇ L(X )) ∇L(X ) = 0 − − 2 / 10
1 0 2 0 −1 0
2/5 2 / 10 0 = − 4 / 5
0 2 / 5 2 / 10 − 2 / 5 4 8 / 5
0
∇L(X1 ) = 0 et ∇L(X1 ) = 0 < ε ⇒ X1 est le point de minimim.
0
− 8 / 5
Min f(x)=f(x1)= 16/5, avec x1 = .
− 4 / 5
4.5 Méthode de pénalisation (ou de pénalité)
Il existe deux types de pénalisation : la pénalisation extérieure et la pénalisation intérieure.
Min f (x )
s.c :
g i ( x ) = 0, i = 1,..., m (4.4)
h j ( x ) ≤ 0, j = 1,..., p
Une fonction de pénalisation extérieure est nulle dans l’espace admissible D et positive
quand les contraintes ne sont pas satisfaites.
Soit P( x ) : R n → R , la fonction de pénalisation extérieure. Alors, le problème (4.4) est
transformé en un problème d’optimisation sans contrainte suivant:
Min f ( x ) + µP( x ) (4.5)
où : µ > 0 est le paramètre de pénalisation.
• Exemples de fonction de pénalisation extérieure : Pour un problème de type (4.4),
une fonction de pénalisation extérieure peut prendre les formes suivantes :
P( x ) = ∑ g i2 ( x ) + ∑ (max{h j ( x ),0}) 2
m p
i =1 j=1
P( x ) = ∑ g i ( x ) + ∑ max{h j ( x ),0}
m p
i =1 j=1
7
Chapitre 4. Programmation non linéaire N. DJEGHALI
Min x 12 + x 22 + µ( x1 + x 2 − 2) 2
Soit : f µ ( x1 , x 2 ) = x12 + x 22 + µ( x1 + x 2 − 2) 2
2 + 2µ 2µ
On a : ∇ 2 f µ ( x 1 , x 2 ) =
2µ 2 + 2µ
2µ 2µ
La matrice hessicnne ∇ 2 f µ ( x1 , x 2 ) au point critique x = , est définie positive
2µ + 1 2µ + 1
∀ µ > 0 , alors le point critique est un point de minimum à chaque itération.
8
Chapitre 4. Programmation non linéaire N. DJEGHALI
k µk xk Pµ ( x k )
4.5.2 Méthode de pénalisation intérieure : Cette méthode est aussi appelée méthode de
barrière. Dans le cas d’une pénalisation intérieure, la fonction de pénalisation B(x) est
positive dans l’espace admissible D et tend vers l’infini lorsque x s’approche de la frontière
du domaine admissible D.
La méthode de pénalisation intérieure considère uniquement des problèmes avec des
contraintes d’inégalité :
Min f (x )
s.c : (4.6)
h j ( x ) ≤ 0, j = 1,..., p
9
Chapitre 4. Programmation non linéaire N. DJEGHALI
Remarque 4.3 L’appellation pénalisation intérieure est employée car le minimum est
approché depuis l’intérieur du domaine admissible D. Les méthodes de pénalisation extérieure
approchent le minimum depuis l’extérieur de ce domaine.
C D
( x ) = max{x i ,0}i=1,...,n
-Pour des contraintes de type a ≤ x ≤ b , l’operateur de projection est défini comme suit :
b si x > b
CD ( x) = x si a ≤ x ≤ b
a si x < a
10
Chapitre 4. Programmation non linéaire N. DJEGHALI
A. JUTARD
M
11