Académique Documents
Professionnel Documents
Culture Documents
en
optimisation avec contraintes
Multiplicateurs de Lagrange
Considérons le problème de programmation mathématique suivant
Min f ( x )
Sujet à fi ( x ) = 0 i = 1,… , m (5.1)
x∈ X
où X ⊂ R n et les fonctions f : X → R1 , fi : X → R1 , i = 1,… , m.
Preuve. La preuve se fait par contradiction en supposant que x* n'est pas une
solution optimale de (5.1). Alors il existe un x tel que f i ( x ) = 0 pour tout
( )
i = 1, … , m, et f ( x ) < f x* .
Théorème 5.1: Supposons que le lagrangien associé au problème (5.1)
m
L (λ, x ) = f ( x) + ∑ λ f ( x)
i =1
i i
*
possède un minimum global x sur X lorsque le vecteur de multiplicateurs
( )
λ = λ * . Si fi x* =0 pour tout i = 1,…, m, alors x* est une solution optimale
globale de (5.1).
Preuve. La preuve se fait par contradiction en supposant que x* n'est pas une
solution optimale de (5.1). Alors il existe un x tel que f i ( x ) =0 pour tout
i = 1, … , m, et f ( x ) < f x* . ( )
Par conséquent, pour tout λ
m m
∑
i =1
λi fi ( x ) = ∑ i =1
λi fi ( x* ) = 0
et ainsi
m m
f (x)+ ∑ i =1
λi fi ( x ) < f ( x* ) + ∑ i =1
λi fi ( x* ).
( )
L ( λ , x, y ) = x 2 + 2 y 2 + λ ( x + y − b )
2 x + λ 0 λ = −2 x
∇ x , y L ( λ , x, y ) = = ⇔ ⇔ x = 2y
4 y + λ 0 λ = − 4 y
b
x + y − b = 2 y + y − b = 3y − b = 0 ⇔ y =
3
2b
Donc x = 2y =
3
4b
λ = −2 x = −
3
Considérons maintenant le problème de programmation mathématique suivant
Min f ( x )
Sujet à fi ( x ) ≤ 0 i = 1,…, m (5.2)
x∈ X
Preuve. La preuve se fait par contradiction en supposant que x* n'est pas une
solution optimale de (5.2). Alors il existe un x tel que fi ( x ) ≤ 0 pour tout
( )
i = 1,…, m, et f ( x ) < f x* .
Théorème 5.2: Supposons que le lagrangien associé au problème (5.2)
m
L (λ, x) = f ( x) + ∑ λ f ( x)
i =1
i i
*
possède un minimum global x sur X lorsque le vecteur de multiplicateurs
( ) ( )
λ = λ * . Si fi x* ≤ 0 , λi* ≥ 0 et λi* fi x* = 0 pour tout i = 1, …, m, alors x* est
une solution optimale globale de (5.2).
Preuve. La preuve se fait par contradiction en supposant que x* n'est pas une
solution optimale de (5.2). Alors il existe un x tel que fi ( x ) ≤ 0 pour tout
i = 1,… , m, et f ( x ) < f x* . ( )
Par conséquent, pour λ = λ * ≥ 0
m m
∑i =1
λ f (x) ≤ 0
∗
i i et ∑i =1
λi* fi ( x* ) = 0
et ainsi
m m
f (x)+ ∑ i =1
λi* fi ( x ) < f ( x* ) + ∑
i =1
λi* fi ( x* ).
*
La relation précédente contredit le fait que x est un minimum global du
lagrangien sur X lorsque λ = λ * .
Exemple:
Min f ( x ) = x 2
Sujet à f1 ( x ) = 2 x + 5 ≤ 0.
L ( λ , x ) = x2 + λ ( 2 x + 5)
∇ x L ( λ , x ) = 2 x + 2λ = 0 ⇔ x = −λ
5 5
2 x + 5 = −2λ + 5 = 0 ⇔ λ = λ= ≥0
2 2
2 x + 5 = 0 ⇒ ( 2 x + 5) λ = 0
5
Donc x = −λ = −
2
Conditions d’optimalite de
Karush-Kuhn-Tucker (KKT) de premier ordre
Pour obtenir des conditions plus facilement vérifiables, il faut poser des
hypothèses sur X et sur les fonctions f et f i .
Si X est convexe, si f et fi sont différentiables et convexes dans le
problème (5.2)
Min f ( x )
Sujet à fi ( x ) ≤ 0 i = 1,… , m (5.2)
x∈ X
m
alors le lagrangien L (λ, x) = f ( x) + ∑ λ f ( x)
i =1
i i
( )
∇ x L λ * , x = ∇f ( x ) + ∑
i =1
λi*∇fi ( x ) = 0.
Alors le Théorème 5.2 peut s'écrire:
K-K-T
Théorème 5.2: Supposons que
le lagrangien associé au problème (5.2) S'il existe un λ * tel que
m m
L ( λ, x ) = f ( x ) + ∑ λ f ( x)
i =1
i i ( )
∇ x L λ * , x * = ∇f x * + ( ) ∑ λ ∇f ( x ) = 0
i =1
*
i i
*
*
possède un minimum global x sur X *
i i
*
λ f (x ) = 0 i = 1,… , n
lorsque le vecteur de multiplicateur λ * . *
f (x ) ≤ 0 i = 1,… , n
( ) ( )
i
Si fi x* ≤ 0 , λi* ≥ 0 et λi* fi x* = 0
λi* ≥ 0 i = 1,… , n
pour tout i = 1,…, m,
alors x* est une solution optimale globale de (5.2).
Exemple.
Min 2 x12 + 2 x1 x2 + x22 − 10 x1 − 10 x2
( ) ( ) ∑ λ ∇f ( x ) = 0
∇ x L λ * , x * = ∇f x * + *
i i
*
λ1 ( x12 + x22 − 5 ) = 0 i =1
λ2 ( 3x1 + x2 − 6 ) = 0 λ f (x ) = 0
*
i i
*
i = 1,… , n
2 2 f (x ) ≤ 0
*
i = 1,… , n
x + x −5 ≤ 0
1 2
i
λ1 , λ2 ≥ 0
Exemple.
Min 2 x12 + 2 x1 x2 + x22 − 10 x1 − 10 x2
Sujet à x12 + x22 ≤ 5 ⇔ x12 + x22 − 5 ≤ 0 λ1
3 x1 + x2 ≤ 6 ⇔ 3x1 + x2 − 6 ≤ 0 λ2
4 x1 + 2 x2 − 10 + λ 2 x1 + λ 3 = 0
2 x1 + 2 x2 − 10 1 2 x2 2 1 Nous pouvons faire différentes
hypothèses sur quelle contrainte
λ1 ( x12 + x22 − 5 ) = 0 est active dans le but d'identifier
λ2 ( 3x1 + x2 − 6 ) = 0 des valeurs de x1 , x2 , λ1 , λ2
satisfaisant les conditions KKT.
x12 + x22 − 5 ≤ 0
3x1 + x2 − 6 ≤ 0 Supposons que la première est
λ1 , λ2 ≥ 0 active et que la seconde ne l'est pas:
x12 + x22 − 5 = 0
3 x1 + x2 − 6 < 0 ⇒ λ2 = 0.
Exemple.
Min 2 x12 + 2 x1 x2 + x22 − 10 x1 − 10 x2
Sujet à x12 + x22 ≤ 5 ⇔ x12 + x22 − 5 ≤ 0 λ1
3 x1 + x2 ≤ 6 ⇔ 3x1 + x2 − 6 ≤ 0 λ2
Théorème 5.3: Supposons que X est convexe et que les fonctions f et f i sont
différentiables et convexes. Si les conditions de K-K-T sont vérifiées à x* ,
alors x* est un minimum global du problème ( 5.2 ) .
i =1
*
( ) (x − x )
*
λ i ∇f i x
*
Théorème 5.3: Supposons que X est convexe et que les fonctions f et f i sont
différentiables et convexes. Si les conditions de K-K-T sont vérifiées à x* ,
alors x* est un minimum global du problème ( 5.2 ) .
Note. Il est facile de vérifier que tous ces ensembles sont convexes.
Définition. Hyperplan de séparation.
L'hyperlan H ( a, β ) sépare deux ensembles non vides X et Y si
(
a T x ≥ β pour tout x ∈ X i.e., X ⊂ H + [ a, β ] )
a T y ≤ β pour tout y ∈ Y ( i.e., Y ⊂ H [a, β ]) .
−
(
H a1 , β1 ) ( ) hyperplan de séparation
H a1 , β1
Y H ( a , β ) hyperplan de séparation stricte
2
2
(
H a2 , β2 )
Définition. Étant donné un ensemble non vide X ⊂ R n l'hyperplan H ( a, β )
est un support de X si
H ( a, β ) ∩ X ≠ Φ et
+ −
X ⊂H [ a, β ] ou X ⊂ H [ a, β ]
( où X dénote la fermeture de l'ensemble X ) .
X
H ( a, β ) support
Théorème 5.4: Soient les vecteurs x, y, a ∈ R n . Si a T y < a T x, alors pour tout
θ ∈ ( 0,1) ,
a T y < a T (θ x + (1 − θ ) y ) < a T x.
Preuve. a T (θ x + (1 − θ ) y ) < a T (θ x + (1 − θ ) x ) = a T x.
a T (θ x + (1 − θ ) y ) > a T (θ y + (1 − θ ) y ) = a T y.
Théorème 5.5: (Théorème de séparation) Si X ⊂ R n est un ensemble
convexe non vide et si y ∉ X , alors il existe un hyperplan qui sépare
(strictement) X et y. x•
0
Preuve. Il existe un point x ∈ X tel que X x0
•
0 X •y
x − y = min x − y
x∈ X
( où zNous T
z dénote
= zallons la norme
construire un euclédienne
hyperplan dedeséparation
z . stricte )
Il est facile de vérifier que X est un ensemble convexe, et par conséquent le
( )
segment de droite ℑ x 0 , x ⊂ X pour tout x ∈ X . Donc pour tout θ ∈ [ 0,1]
(
x 0 − y ≤ θ x + (1 − θ ) x 0 − y . )
Ainsi pour tout θ ∈ [ 0,1]
T T
( 0
x −y )( 0
) ((
x − y ≤ θ x + (1 − θ ) x ) )( 0
−y (θ x + (1)− θ ) x 0
)− y
T T
(x 0
− y) ( x − y ) ≤ (( x − y ) + θ ( x − x )) (( x − y ) + θ ( x − x ))
0 0 0 0 0
T T T
(x 0
− y) ( x − y ) ≤ ( x − y ) ( x − y ) + 2θ ( x − x ) ( x − y ) +
0 0 0 0 0
T
(α + β )(α + β ) = αα + 2αβ + ββ θ (x − x ) (x − x ) 2 0 0
Ainsi pour tout θ ∈ [0,1]
T T
(x −y0
)( 0
) ((
x − y ≤ θ x + (1 − θ ) x ) )( 0
−y ) (θ x + (1 − θ ) x 0
)− y
T T
(x 0
− y) (x 0
− y ) ≤ (( x − y ) + θ ( x − x )) (( x − y ) + θ ( x − x ))
0 0 0 0
T T T
(x 0
− y) (x 0
− y ) ≤ ( x − y ) ( x − y ) + 2θ ( x − x ) ( x − y ) +
0 0 0 0
T
θ ( x − x ) ( x − x ). 2 0 0
T
Mais alors ceci implique que ( x − x ) ( x − y ) ≥ 0. En effet si 0 0
T
( x − x ) ( x − y ) < 0, alors pour θ >0 suffisemment petit
0 0
T T
2θ ( x − x ) ( x − y ) > θ ( x − x ) ( x − x )
0 0 2 0 0
T T
− 2θ ( x − x ) ( x − y ) > θ ( x − x ) ( x − x )
0 0 2 0 0
x ( x − y ) ≤ x ( x − y ).
0T 0 T
( 5.3) 0
2 T
Puisque y ∉ X , x − y = ( x − y ) ( x − y ) > 0, ou encore
0 0 0
y ( x − y ) < x ( x − y ).
T 0 0T
( 5.4 ) 0
x ( x − y ) ≤ x ( x − y ).
0T 0 T 0
( 5.3)
2 T
Puisque y ∉ X , x − y = ( x − y ) ( x − y ) > 0, ou encore
0 0 0
y ( x − y ) < x ( x − y ).
T 0 0T 0
( 5.4 )
Alors en appliquant le Théorème 5.4 avec les vecteurs ( x − y ) , 0
2 a y < a (θ x + (1 − θ ) y ) < a x.
T T T
1 0 T
T 0
(
y x −y < x +y
2
) ( )(
x 0 − y < x 0T x 0 − y . ) ( )
En utilisant maintenant la relation ( 5.3) ,
1 0 T
y T
( 0
)
x −y < x +y
2
( )( ) ( ) (
x 0 − y < x 0T x 0 − y ≤ x T x 0 − y . )
En utilisant maintenant la relation ( 5.3) ,
1 0 T
T
( 0
y x −y < x +y)2
( )( ) ( ) (
x 0 − y < x 0T x 0 − y ≤ x T x 0 − y . )
Par conséquent nous avons que
1 0 T
T 0
(
y x −y < x +y
2
) ( )( ) (
x0 − y < xT x0 − y . )
Puisque cette relation est valable pour tout x ∈ X , il s'ensuit
(
que l'hyperplan H ( a, β ) où a = x 0 − y et )
1 0 T
β=
2
x +y( )( )
x 0 − y sépare (strictement) X et y.
Dans le Théorème 5.5, la convexité de X est une condition
suffisante pour assurer l'existence d'un hyperplan le séparant
(strictement) de y ∉ X .
y
X X
y
Théorème 5.6:(Théorème de Farkas) Étant donné les vecteurs
a1,… ,a n et b ∈ R m , une condition suffisante pour que b
s'exprime comme une combinaison linéaire non négative des a j
(i.e., une condition suffisante pour qu'il existe des scalaires non
négatifs x1,… , xn tels que b = a1 x1 + … + a n xn ) est que tout
y ∈ R m tel que y T a j ≥ 0 pour tout j = 1,… , n, vérifie
nécessairement la relation y T b ≥ 0.
c T d = c d cos θ
a•1
a•1 x1 a•1T y ≥ 0
T
b et
b y<0
a•2 x2 a•2T y ≥ 0
a•2
Le système AT y ≥ 0, bT y < 0
ne possède pas de solution
Illustration du cas où le système Ax = b, x ≥ 0 ne possède pas de solution.
b a•1
a•1T y ≥ 0
T
b et
b y<0
a•2T y ≥ 0
a•2
bT y < 0
Le système AT y ≥ 0, b T y < 0
possède une solution
Considérons maintenant le problème m de programmation mathématique suivant
Le lagrangien L ( λ , x ) = f (Min ∑
x ) + f (λxi)fi ( x ) étant une fonction différentiable
Sujet à if=i1( x ) ≤ 0 i = 1,… , m *
(5.2)
et convexe en x, il s'ensuit qu'il possède un minimum global en x sur X
*
x∈ X
lorsque ≥ 0 si
λ =lesλ hypothèses
sous supplémentaires que mX est
convexe et que les fonctions
x ( ) ( ) ∑
∇ L λ * , x* =f∇etf fix*sont + convexes
λ *∇f sur
i
x* X=. 0.
i ( )
i =1
Alors le Théorème 5.2 peut s'écrire:
K-K-T
Théorème 5.2: Supposons que
S'il existe un λ * tel que
le lagrangien associé au problème (5.2) m
L ( λ, x ) = f ( x ) +∑
m
λi fi ( x ) ( )
∇ x L λ * , x * = ∇f x * + ( ) ∑ ( )
λi*∇fi x* = 0
i =1
i =1
possède un minimum global x sur X * λ f (x ) = 0
*
i i
*
i = 1,… , n
lorsque le vecteur de multiplicateur λ * . i
*
f (x ) ≤ 0 i = 1,… , n
( ) ( )
Si fi x* ≤ 0 , λi* ≥ 0 et λi* fi x* = 0 λi* ≥ 0 i = 1,… , n
pour tout i = 1,… , m, x* ∈ X
alors x* est une solution optimale globale de (5.2).
Min f ( x )
Sujet à fi ( x ) ≤ 0 i = 1,… , m (5.2)
x∈ X
convexité ⇑ ⇓ conditions...
K-K-T
m
( ) = ∇f ( x ) + ∑ λ ∇f ( x ) = 0
∇x L λ , x * * * *
i i
*
i =1
λ f (x ) = 0
*
i i
*
i = 1,… , n
f (x ) ≤ 0
i
*
i = 1,… , n
λi* ≥ 0 i = 1,… , n
x* ∈ X
Théorème 5.6:(Théorème de Farkas) Étant donné les vecteurs
a1 ,… ,a n et b ∈ R m , une condition suffisante pour que b
s'exprime comme une combinaison linéaire non négative des a j
(i.e., une condition suffisante pour qu'il existe des scalaires non
négatifs x1 ,… , xn tels que b = a1 x1 + … + a n xn ) est que tout
y ∈ R m tel que y T a j ≥ 0 pour tout j = 1,… , m, vérifie
nécessairement la relation y T b ≥ 0.
( )
Supposons que x* ∈ X , f i x* ≤ 0, i = 1,… , m, est une solution locale du
problème ( 5.2 ) . Min f ( x )
Sujet à fi ( x ) ≤ 0 i = 1,… , m (5.2)
x∈ X
Notation: Dénotons l'ensemble des contraintes actives
( ) { ( ) }
A x* = i : f i x* = 0 = {i1 ,… , ik } ⊂ {1,… , m} .
∇f ( x )
*
T
d < 0.
( )
∇f ik x* d ≤0 ( )
∇fik x
*
Ainsi le système
T T
∇fi x* ,… , ∇fi x* d ≤ 0,
( ) ( ) ∇f x ( )
*
d <0
1 k
ne possède pas de solution.
Appliquons maintenant le Corollaire 5.7:
{ ( ) ( )
T
( )
T
II : − ∇fi1 x* ,… , ∇fik x* d ≥ 0, ∇f x* d < 0 n'as pas de solution d ∈ R n }
implique que
{I: − ∇fi1 x* ,… , ∇fik x* λ* =∇f x* , λ* = λi1* ,… , λi*k ≥ 0 possède une solution
( ) ( ) ( ) }
Corollaire 5.7: (Théorème d'alternatives) Soit A une matrice
m × n. Exactement une des deux alternatives suivantes est vérifiée:
I Le système Ax = b, x ≥ 0 possède une solution x ∈ R n
II Le système AT y ≥ 0, bT y < 0 possède une solution y ∈ R m .
Appliquons maintenant le Corollaire 5.7:
{ ( ) ( )
T
( )
T
II : − ∇fi1 x* ,… , ∇fik x* d ≥ 0, ∇f x* d < 0 n'as pas de solution d ∈ R n }
implique que
{I: − ∇fi1 x* ,… , ∇fik x* λ* =∇f x* , λ* = λi1* ,… , λi*k ≥ 0 possède une solution .
( ) ( ) ( ) }
Ceci s'écrit également sous la forme
I: −
∑ ( ) ( )
λi*∇fi x* =∇f x* , λ* = λi1* ,… , λik* ≥ 0 possède une solution
i∈ A( x* )
( )
Posons λi* = 0 pour tout i ∉ A x* . Alors
∑ λ ∇f ( x ) = 0
i
*
i
*
( )
i∉ A x*
λi* fi ( x* ) = 0 ( )
pour tout i ∉ A x* .
Ceci s'écrit également sous la forme
I: − ∑ λi
*
( )
∇ f i x *
=∇ f( )
x *
,
λ *
= λ
i1
*
, … , λ *
ik ≥ 0 possède une solution
i∈ A( x* )
( )
Posons λi* = 0 pour tout i ∉ A x* . Alors
∑ λ ∇f ( x ) = 0
i
*
i
*
( )
i∉ A x*
λi* f i ( x* ) = 0
pour tout i ∉ A x* . ( )
Par conséquent nous retrouvons les conditions K-K-T
m
( ) ∑
∇f x * + λi*∇fi ( x* ) = 0
i =1
λ f (x ) = 0
*
i i
*
i = 1,… , n
f (x ) ≤ 0
i
*
i = 1,… , n
λi* ≥ 0 i = 1,… , n
Malheureusement
HYPOTHÈSE À VÉRIFIER : Supposons que nous pouvons démontrer
qu'il n'existe pas de vecteur d ∈ R n tel que
T
( )
∇f i x *
d ≤0 ( )
i ∈ A x* ( 5.6 )
T
∇f ( x )
*
d <0
x1
Min f ( x1 , x2 ) = − x1
3
Sujet à f1 ( x1 , x2 ) = ( x1 − 1) + x2 ≤ 0
f 2 ( x1 , x2 ) = − x1 ≤ 0
f3 ( x1 , x2 ) = − x2 ≤ 0.
L'ensemble des solutions réalisables de ce problème est
représentée par la region en-dessous de la courbe de f1 ( x1 , x2 )
au-dessus de l'axe des x1 et à droite de l'axe des x2 .
x2 Il est facile de vérifier que
* T
x = [1, 0] est une solution
optimale globale de ce problème.
• ( )
De plus A x* = {1,3}.
x* x1
Min f ( x1 , x2 ) = − x1
3
Sujet à f1 ( x1 , x2 ) = ( x1 − 1) + x2 ≤ 0
f 2 ( x1 , x2 ) = − x1 ≤ 0
f3 ( x1 , x2 ) = − x2 ≤ 0.
T
( )
Or ∇f x* = [ −1, 0] ,
T
∇f1 ( x ) = 3 ( x1 − 1) ,1 et ∇f1 x* = [ 0,1]
2 T
( )
T
x2 ∇f 3 x( ) = [0, −1]
*
•
x* x1
T
( )
Or ∇f x* = [ −1, 0] ,
2 *
( )
∇f1 ( x ) = 3 ( x1 − 1) ,1 et ∇f1 x = [ 0,1]
T
T
( ) = [0, −1]
∇f 3 x *
* x1
x
Ainsi le système
T
( ) d = −d < 0
∇f x *
1
T
∇f ( x ) d = d ≤ 0
1
*
2
T
∇f ( x ) d = − d ≤ 0
3
*
2
x2
pointe directement à l'extérieur du domaine réalisable.
Nous allons donc imposer certaines
restrictions sur les contraintes des
problèmes considérés pour éliminer
d
•
de telles situations.
x1
x*
Restrictions sur les fonctions de contraintes de
Kuhn-Tucker
Interprétation géométrique.
x2
∇f1 ( x ) dˆ ≤ 0
T
∇f1 ( x )
∇f 2 ( x )
T
dˆ ≤ 0 α ( λ ) = x + λσ dˆ
• x ∇f 2 ( x ) α (0) = x
α ′ ( 0 ) = σ dˆ
x + σ dˆ f2 ( x ) = 0 f1 ( x ) = 0
x1
Définition. Étant donné un point x ∈ δ R , f1 , … , f m satisfont les restrictions
sur les fonctions de contraintes au point x si pour tout vecteur dˆ solution du
T
système ∇fi ( x ) d ≤ 0, i ∈ A ( x ) , il existe une fonction différentiable
α :[ 0,1] → R tel que α ( 0 ) = x et α ′ ( 0 ) = σ dˆ , σ > 0.
Interprétation
T
Se référant à la notion de direction de descente, lorque ∇fi ( x ) d < 0, alors pour
un faible déplacement τ > 0 dans la direction d , fi ( x + τ d ) < fi ( x ) = 0. Ainsi, ce
déplacement nous garde dans le domaine réalisable par rapport à cette contrainte.
Les restrictions sur les fonctions de contraintes prolongent en quelque sorte cette
T
propriété même si ∇fi ( x ) d = 0 puisque la fonction α prend ses valeurs dans le
domaine réalisable R .
Théorème 5.8: (Nécessité des conditions K-K-T) Soit x* ∈ X une solution
optimale locale du problème (5.2) où X est ouvert. Supposons de plus que
si x* ∈ δ R , alors f1 ,… , f m satisfont les restrictions sur les fonctions
de contraintes au point x* . Alors il existe un vecteur de multiplicateurs
λ * = λ1* ,… , λm* ≥ 0 tel que
m
( ) ∑
∇f x * + λi*∇fi ( x* ) = 0
i =1
λi* fi ( x* ) = 0 i = 1,… , m.
( ) = ∇f
f (α (θ ) ) − f x* T T
dˆ < 0,
lim
θ →0 θ
(x )
*
( )
α ′ ( 0 ) = σ∇f x*
n
Sujet à ∑a x
j =1
ij j ≥ bi i = 1,… , m
xj ≥ 0 j = 1,… , n.
Soit le problème de programmation linéaire suivant:
n
Min ∑c x
j =1
j j
n
Sujet à ∑a x
j =1
ij j ≥ bi i = 1,… , m
xj ≥ 0 j = 1,… , n.
Ce problème s'écrit également
n
Min ∑c x
j =1
j j
n
Sujet à − ∑a x
j =1
ij j + bi ≤ 0 i = 1,… , m λi
− xj ≤ 0 j = 1,… , n. λm + j
Associons un multiplicateur λi à chacune des m premières contraintes et un
multiplicateur λm + j à chacune des n dernières contraintes.
n
Min ∑c x
j =1
j j
n
Sujet à − ∑a x
j =1
ij j + bi ≤ 0 i = 1,… , m λi
− xj ≤ 0 j = 1,… , n. λm + j
Associons un multiplicateur λi à chacune des m premières contraintes et un
multiplicateur λm + j à chacune des n dernières contraintes.
m
Les conditions K-K-T s'écrivent comme suit: ∇f ( x ) + ∑ λi*∇fi ( x* ) = 0
*
∂f ( x ) m ∂fi ( x ) m + n ∂fi ( x ) m i =1
∂x j
+ ∑
i =1
λi
∂x j
+ ∑
i = m +1
λi
∂x j i =1
∑
= c j − λi aij −λm + j = 0 j = 1,… , n
n
λi −
∑ aij x j + bi = 0
i = 1,… , m
j =1
(
λm + j − x j = 0 ) j = 1,… , n
n
− ∑a xj =1
ij j + bi ≤ 0 i = 1,… , m
− xj ≤ 0 j = 1,… , n
λj ≥ 0 j = 1,… , m + n.
Considérons maintenant le problème dual:
n m
Primal Min ∑c x
j =1
j j Dual Max ∑b y
i =1
i i
n m
Sujet à ∑a x
j =1
ij j ≥ bi i = 1,… , m Sujet à ∑a y ≤ c
i =1
ij i j j = 1,… , n
xj ≥ 0 j = 1,… , n yi ≥ 0 i = 1,… , m.
Conditions K-K-T
m
cj − ∑λ a
i =1
i ij −λm + j = 0 j = 1,… , n
n
λi −
∑ aij x j + bi = 0
i = 1,… , m
j =1
(
λm + j − x j = 0 ) j = 1,… , n
n
− ∑a x
j =1
ij j + bi ≤ 0 i = 1,… , m
− xj ≤ 0 j = 1,… , n
λi ≥ 0 i = 1,… , m + n
Considérons maintenant le problème dual:
n m
Primal Min ∑c x
j =1
j j Dual Max ∑b y
i =1
i i
n m
Sujet à ∑a x
j =1
ij j ≥ bi i = 1,… , m Sujet à ∑a y ≤ c
i =1
ij i j j = 1,… , n
xj ≥ 0 j = 1,… , n yi ≥ 0 i = 1,… , m.
Conditions K-K-T Le vecteur λ1 ,… , λm est solution
m
réalisable pour le dual: pour j = 1,… , n
cj − ∑λ a i ij −λm + j = 0 j = 1,… , n m
i =1
n
cj − ∑λ a i ij −λm + j = 0
λi −
∑ aij x j + bi = 0
i = 1,… , m i =1
m
j =1 cj − ∑λ a i ij = λm + j ≥ 0
(
λm + j − x j = 0 ) j = 1,… , n
m
i =1
∑λ a
n
− ∑j =1
aij x j + bi ≤ 0 i = 1,… , m
i =1
i ij ≤cj
De plus
− xj ≤ 0 j = 1,… , n
λi ≥ 0 i = 1,… , m.
λi ≥ 0 i = 1,… , m + n
Considérons maintenant le problème dual:
n m
Primal Min ∑c x
j =1
j j Dual Max ∑b y i =1
i i
n m
Sujet à ∑a x
j =1
ij j ≥ bi i = 1,… , m Sujet à ∑a y ≤ c
i =1
ij i j j = 1,… , n
xj ≥ 0 j = 1,… , n yi ≥ 0 i = 1,… , m.
Conditions K-K-T
m
cj − ∑λ a
i =1
i ij −λm + j = 0 j = 1,… , n
n
λi −
∑ aij x j + bi = 0
i = 1,… , m
j =1
(
λm + j − x j = 0 ) j = 1,… , n
n
− ∑a x
j =1
ij j + bi ≤ 0 i = 1,… , m
− xj ≤ 0 j = 1,… , n
λi ≥ 0 i = 1,… , m + n
Considérons maintenant le problème dual:
n m
Primal Min ∑c x
j =1
j j Dual Max ∑b y
i =1
i i
n m
Sujet à ∑a x
j =1
ij j ≥ bi i = 1,… , m Sujet à ∑a y ≤ c
i =1
ij i j j = 1,… , n
xj ≥ 0 j = 1,… , n yi ≥ 0 i = 1,… , m.
Conditions K-K-T Le vecteur λ1 ,… , λm est solution
m
cj − ∑λ a i ij −λm + j = 0 j = 1,… , n optimale pour le dual: pour j = 1,… , n
m
i =1
n
x j c j − ∑ λi aij −λm + j = 0
λi −
∑ aij x j + bi = 0
i = 1,… , m i =1
m
j =1 cj xj − ∑λ a x i ij j = λm + j x j = 0
(
λm + j − x j = 0 ) j = 1,… , n n
i =1
n m
n
∑ c x = ∑∑ λ a x
∑
j j i ij j
− aij x j + bi ≤ 0 i = 1,… , m j =1 j =1 i =1
j =1
− xj ≤ 0 j = 1,… , n
λj ≥ 0 j = 1,… , m + n
Considérons maintenant le problème dual:
n m
Primal Min ∑c x
j =1
j j Dual Max ∑b y
i =1
i i
n m
Sujet à ∑a x
j =1
ij j ≥ bi i = 1,… , m Sujet à ∑a y ≤ c
i =1
ij i j j = 1,… , n
xj ≥ 0 j = 1,… , n yi ≥ 0 i = 1,… , m.
Conditions K-K-T Le vecteur λ1 ,… , λm est solution
m
optimale pour le dual:
cj − ∑λ a i ij −λm + j = 0 j = 1,… , n n n m
i =1
n
∑ c x = ∑∑ λ a x
j =1
j j
j =1 i =1
i ij j
λi −
∑ aij x j + bi = 0
i = 1,… , m Pour i = 1,… , m
j =1 n
(
λm + j − x j = 0 ) j = 1,… , n ∑
λi − aij x j + bi = 0
j =1
n
∑a x
n
−
j =1
ij j + bi ≤ 0 i = 1,… , m λi bi = λi ∑a x
j =1
ij j
− xj ≤ 0 j = 1,… , n m m n
λj ≥ 0 j = 1,… , m + n ∑ λ b = ∑∑ λ a x
i =1
i i
i =1 j =1
i ij j
Considérons maintenant le problème dual:
n m
Primal Min ∑c x
j =1
j j Dual Max ∑b y
i =1
i i
n m
Sujet à ∑a x
j =1
ij j ≥ bi i = 1,… , m Sujet à ∑a y ≤ c
i =1
ij i j j = 1,… , n
xj ≥ 0 j = 1,… , n yi ≥ 0 i = 1,… , m.
Conditions K-K-T Le vecteur λ1 ,… , λm est solution
m
cj − ∑λ a i ij −λm + j = 0 j = 1,… , n optimale pour le dual:
n n m
i =1
n ∑ c x = ∑∑ λ a x
j j i ij j
∑
j =1 j =1 i =1
λi − aij x j + bi = 0 i = 1,… , m m m n
j =1 ∑ λ b = ∑∑ λ a x
i i i ij j
(
λm + j − x j = 0 ) j = 1,… , n i =1
Par conséquent
i =1 j =1
∑a x
n m
−
j =1
ij j + bi ≤ 0 i = 1,… , m
∑ c x =∑ λ b
j =1
j j
i =1
i
n m
Sujet à ∑a x
j =1
ij j ≥ bi i = 1,… , m Sujet à ∑a y ≤ c
i =1
ij i j j = 1,… , n
xj ≥ 0 j = 1,… , n yi ≥ 0 i = 1,… , m.
Conditions K-K-T
m
cj − ∑λ a
i =1
i ij −λm + j = 0 j = 1,… , n
n
λi −
∑ aij x j + bi = 0
i = 1,… , m
j =1
(
λm + j − x j = 0 ) j = 1,… , n
n
− ∑a x
j =1
ij j + bi ≤ 0 i = 1,… , m
− xj ≤ 0 j = 1,… , n
λi ≥ 0 i = 1,… , m + n
Considérons maintenant le problème dual:
n m
Primal Min ∑c x
j =1
j j Dual Max ∑b y
i =1
i i
n m
Sujet à ∑a x
j =1
ij j ≥ bi i = 1,… , m Sujet à ∑a y ≤ c
i =1
ij i j j = 1,… , n
xj ≥ 0 j = 1,… , n yi ≥ 0 i = 1,… , m.
Conditions K-K-T Pour j = 1,… , n
m m
cj − ∑λ a
i =1
i ij −λm + j = 0 j = 1,… , n cj − ∑λ a i ij −λm + j = 0
i =1
n m
λi −
∑ aij x j + bi = 0
i = 1,… , m xj cj −
∑λi aij −λm + j = 0
j =1 i =1
(
λm + j − x j = 0 ) j = 1,… , n m
n
xj cj −
∑λi aij = x j λm + j = 0.
− ∑a x
j =1
ij j + bi ≤ 0 i = 1,… , m i =1
Pour i = 1,… , m
− xj ≤ 0 j = 1,… , n n
λj ≥ 0 j = 1,… , m + n ∑
λi − aij x j + bi = 0.
j =1