Vous êtes sur la page 1sur 66

Conditions d’optimalité

en
optimisation avec contraintes
Multiplicateurs de Lagrange
Considérons le problème de programmation mathématique suivant
Min f ( x )
Sujet à fi ( x ) = 0 i = 1,… , m (5.1)
x∈ X
où X ⊂ R n et les fonctions f : X → R1 , fi : X → R1 , i = 1,… , m.

Le lagrangien associé au problème (5.1) est obtenu comme suit en associant


un multiplicateur de lagrange λi à chaque fonction de contrainte fi :
m
L (λ, x) = f ( x) + ∑ λ f ( x).
i =1
i i

Sans faire d'hypothèse particulière sur X ou sur les fonctions f et fi , nous


pouvons obtenir des conditions suffisantes très générales pour qu'un point x *
soit une solution optimale globale du problème (5.1).
Considérons le problème de programmation mathématique suivant
Min f ( x )
Sujet à fi ( x ) = 0 i = 1, … , m (5.1)
x∈ X

Théorème 5.1: Supposons que le lagrangien associé au problème (5.1)


m
L (λ, x ) = f ( x) + ∑ λ f ( x)
i =1
i i

possède un minimum global x* sur X lorsque le vecteur de multiplicateurs


( )
λ = λ * . Si fi x* =0 pour tout i = 1,…, m, alors x* est une solution optimale
globale de (5.1).

Preuve. La preuve se fait par contradiction en supposant que x* n'est pas une
solution optimale de (5.1). Alors il existe un x tel que f i ( x ) = 0 pour tout
( )
i = 1, … , m, et f ( x ) < f x* .
Théorème 5.1: Supposons que le lagrangien associé au problème (5.1)
m
L (λ, x ) = f ( x) + ∑ λ f ( x)
i =1
i i

*
possède un minimum global x sur X lorsque le vecteur de multiplicateurs
( )
λ = λ * . Si fi x* =0 pour tout i = 1,…, m, alors x* est une solution optimale
globale de (5.1).

Preuve. La preuve se fait par contradiction en supposant que x* n'est pas une
solution optimale de (5.1). Alors il existe un x tel que f i ( x ) =0 pour tout
i = 1, … , m, et f ( x ) < f x* . ( )
Par conséquent, pour tout λ
m m


i =1
λi fi ( x ) = ∑ i =1
λi fi ( x* ) = 0
et ainsi
m m
f (x)+ ∑ i =1
λi fi ( x ) < f ( x* ) + ∑ i =1
λi fi ( x* ).

En prenant λ = λ * la relation précédente contredit le fait que x* est un


minimum global du lagrangien sur X lorsque λ = λ * . 
Exemple:
Min f ( x, y ) = x 2 + 2 y 2
Sujet à f1 ( x, y ) = x + y − b = 0.

( )
L ( λ , x, y ) = x 2 + 2 y 2 + λ ( x + y − b )

L convexe en ( x, y ) .Donc minimum atteint lorsque ∇ x , y L ( λ , x, y ) = 0

 2 x + λ  0 λ = −2 x 
∇ x , y L ( λ , x, y ) =   =   ⇔  ⇔ x = 2y
 4 y + λ   0 λ = − 4 y 

b
x + y − b = 2 y + y − b = 3y − b = 0 ⇔ y =
3

2b
Donc x = 2y =
3
4b
λ = −2 x = −
3
Considérons maintenant le problème de programmation mathématique suivant
Min f ( x )
Sujet à fi ( x ) ≤ 0 i = 1,…, m (5.2)
x∈ X

Théorème 5.2: Supposons que le lagrangien associé au problème (5.2)


m
L (λ, x ) = f ( x ) + ∑ λ f ( x)
i =1
i i

possède un minimum global x* sur X lorsque le vecteur de multiplicateurs


( ) ( )
λ = λ * . Si fi x* ≤ 0 , λi* ≥ 0 et λi* fi x* = 0 pour tout i = 1,…, m, alors x* est
une solution optimale globale de (5.2).

Preuve. La preuve se fait par contradiction en supposant que x* n'est pas une
solution optimale de (5.2). Alors il existe un x tel que fi ( x ) ≤ 0 pour tout
( )
i = 1,…, m, et f ( x ) < f x* .
Théorème 5.2: Supposons que le lagrangien associé au problème (5.2)
m
L (λ, x) = f ( x) + ∑ λ f ( x)
i =1
i i

*
possède un minimum global x sur X lorsque le vecteur de multiplicateurs
( ) ( )
λ = λ * . Si fi x* ≤ 0 , λi* ≥ 0 et λi* fi x* = 0 pour tout i = 1, …, m, alors x* est
une solution optimale globale de (5.2).

Preuve. La preuve se fait par contradiction en supposant que x* n'est pas une
solution optimale de (5.2). Alors il existe un x tel que fi ( x ) ≤ 0 pour tout
i = 1,… , m, et f ( x ) < f x* . ( )
Par conséquent, pour λ = λ * ≥ 0
m m

∑i =1
λ f (x) ≤ 0

i i et ∑i =1
λi* fi ( x* ) = 0
et ainsi
m m
f (x)+ ∑ i =1
λi* fi ( x ) < f ( x* ) + ∑
i =1
λi* fi ( x* ).
*
La relation précédente contredit le fait que x est un minimum global du
lagrangien sur X lorsque λ = λ * . 
Exemple:
Min f ( x ) = x 2
Sujet à f1 ( x ) = 2 x + 5 ≤ 0.

L ( λ , x ) = x2 + λ ( 2 x + 5)

L convexe en ( x ) .Donc minimum atteint lorsque ∇ x L ( λ , x ) = 0

∇ x L ( λ , x ) = 2 x + 2λ = 0 ⇔ x = −λ

5 5
2 x + 5 = −2λ + 5 = 0 ⇔ λ = λ= ≥0
2 2
2 x + 5 = 0 ⇒ ( 2 x + 5) λ = 0
5
Donc x = −λ = −
2
Conditions d’optimalite de
Karush-Kuhn-Tucker (KKT) de premier ordre
Pour obtenir des conditions plus facilement vérifiables, il faut poser des
hypothèses sur X et sur les fonctions f et f i .
Si X est convexe, si f et fi sont différentiables et convexes dans le
problème (5.2)
Min f ( x )
Sujet à fi ( x ) ≤ 0 i = 1,… , m (5.2)
x∈ X
m
alors le lagrangien L (λ, x) = f ( x) + ∑ λ f ( x)
i =1
i i

est aussi une fonction convexe sur X si λ ≥ 0 puisque


λi ≥ 0 et fi ( x ) convexe ⇒ λi fi ( x ) convexe
m
f ( x) + ∑ λ f ( x ) somme de fonctions convexes.
i =1
i i
Si f et fi sont differentiables et convexes et si λ ≥ 0, alors le lagrangien
m
L (λ, x ) = f ( x) + ∑ λ f ( x ) est une fonction différentiable et convexe en x,
i =1
i i

et il s'ensuit qu'il possède un minimum global en x* sur X lorsque λ = λ * si


m

( )
∇ x L λ * , x = ∇f ( x ) + ∑
i =1
λi*∇fi ( x ) = 0.
Alors le Théorème 5.2 peut s'écrire:
K-K-T
Théorème 5.2: Supposons que
le lagrangien associé au problème (5.2) S'il existe un λ * tel que
m m
L ( λ, x ) = f ( x ) + ∑ λ f ( x)
i =1
i i ( )
∇ x L λ * , x * = ∇f x * + ( ) ∑ λ ∇f ( x ) = 0
i =1
*
i i
*

*
possède un minimum global x sur X *
i i
*
λ f (x ) = 0 i = 1,… , n
lorsque le vecteur de multiplicateur λ * . *
f (x ) ≤ 0 i = 1,… , n
( ) ( )
i
Si fi x* ≤ 0 , λi* ≥ 0 et λi* fi x* = 0
λi* ≥ 0 i = 1,… , n
pour tout i = 1,…, m,
alors x* est une solution optimale globale de (5.2).
Exemple.
Min 2 x12 + 2 x1 x2 + x22 − 10 x1 − 10 x2

Sujet à x12 + x22 ≤ 5 ⇔ x12 + x22 − 5 ≤ 0 λ1


3 x1 + x2 ≤ 6 ⇔ 3x1 + x2 − 6 ≤ 0 λ2

 4 x1 + 2 x2 − 10  + λ  2 x1  + λ 3 = 0 S'il existe un λ * tel que


 2 x1 + 2 x2 − 10   2 x2  2 1 
1
m

( ) ( ) ∑ λ ∇f ( x ) = 0
∇ x L λ * , x * = ∇f x * + *
i i
*

λ1 ( x12 + x22 − 5 ) = 0 i =1

λ2 ( 3x1 + x2 − 6 ) = 0 λ f (x ) = 0
*
i i
*
i = 1,… , n
2 2 f (x ) ≤ 0
*
i = 1,… , n
x + x −5 ≤ 0
1 2
i

3x1 + x2 − 6 ≤ 0 λi* ≥ 0 i = 1,… , n

λ1 , λ2 ≥ 0
Exemple.
Min 2 x12 + 2 x1 x2 + x22 − 10 x1 − 10 x2
Sujet à x12 + x22 ≤ 5 ⇔ x12 + x22 − 5 ≤ 0 λ1
3 x1 + x2 ≤ 6 ⇔ 3x1 + x2 − 6 ≤ 0 λ2

 4 x1 + 2 x2 − 10  + λ  2 x1  + λ 3 = 0
 2 x1 + 2 x2 − 10  1  2 x2  2 1  Nous pouvons faire différentes
hypothèses sur quelle contrainte
λ1 ( x12 + x22 − 5 ) = 0 est active dans le but d'identifier
λ2 ( 3x1 + x2 − 6 ) = 0 des valeurs de x1 , x2 , λ1 , λ2
satisfaisant les conditions KKT.
x12 + x22 − 5 ≤ 0
3x1 + x2 − 6 ≤ 0 Supposons que la première est
λ1 , λ2 ≥ 0 active et que la seconde ne l'est pas:
x12 + x22 − 5 = 0
3 x1 + x2 − 6 < 0 ⇒ λ2 = 0.
Exemple.
Min 2 x12 + 2 x1 x2 + x22 − 10 x1 − 10 x2
Sujet à x12 + x22 ≤ 5 ⇔ x12 + x22 − 5 ≤ 0 λ1
3 x1 + x2 ≤ 6 ⇔ 3x1 + x2 − 6 ≤ 0 λ2

 4 x1 + 2 x2 − 10  + λ  2 x1  + λ 3 = 0 Supposons que la première est


 2 x1 + 2 x2 − 10  1  2 x2  2 1  active et que la seconde ne l'est pas:
2 2
x1 + x2 − 5 = 0
λ1 ( x12 + x22 − 5 ) = 0 3 x1 + x2 − 6 < 0 ⇒ λ2 = 0.
λ2 ( 3x1 + x2 − 6 ) = 0
Nous retrouvons alors le système
2 2
x + x −5 ≤ 0
1 2
avec 3 équations et 3 inconnus suivant:
3x1 + x2 − 6 ≤ 0
4 x1 + 2 x2 − 10 + 2λ1 x1 = 0
λ1 , λ2 ≥ 0
2 x1 + 2 x2 − 10 + 2λ1 x2 = 0
x12 + x22 = 5
Donc Nous pouvons vérifier que
x1 = 1, x2 = 2, λ1 = 1, λ2 = 0 x1 = 1, x2 = 2, λ1 = 1
satisfont le système précédent.
satisfont les conditions KKT.
Conditions K-K-T suffisantes
En utilisant le Théorème 5.2 nous venons de démontrer que les conditions
K-K-T sont suffisantes sous les hypothèses supplémentaires que X est
convexe et que les fonctions f et fi sont convexes sur X .
Nous pouvons démontrer ce résultat en utilisant plutôt l'inégalité du gradient.

Théorème 5.3: Supposons que X est convexe et que les fonctions f et f i sont
différentiables et convexes. Si les conditions de K-K-T sont vérifiées à x* ,
alors x* est un minimum global du problème ( 5.2 ) .

Preuve. Le lagrangien étant convexe si λ * ≥ 0 (démontrer précédemment),


alors par l'inégalité du gradient il s'ensuit que pour tout x ∈ X
T
m m
 m

f ( x) + ∑
i =1
λi* fi ( x ) ≥ f ( x* ) + ∑
i =1
( ) 
( ) ∑
λ i f i x +  ∇f x * +
* *

i =1
*
( ) (x − x )
*
λ i ∇f i x 

*
Théorème 5.3: Supposons que X est convexe et que les fonctions f et f i sont
différentiables et convexes. Si les conditions de K-K-T sont vérifiées à x* ,
alors x* est un minimum global du problème ( 5.2 ) .

Preuve. Le lagrangien étant convexe si λ * ≥ 0 (démontrer précédemment),


alors par l'inégalité du gradient il s'ensuit que pour tout x ∈ X
T
m m
 m

f ( x) + ∑ *
( ) ∑ * * *
( )
* *
( ) ∑
λ i f i ( x ) ≥ f x + λ i f i x +  ∇f x + λ i ∇f i x  x − x *
*
( ) ( )
i =1 i =1
   i =1
 


0 0
K-K-T Alors, pour tout x ∈ X
m m
( ) = ∇f ( x ) + ∑ λ ∇f ( x ) = 0
∇x L λ , x * * * *
i i
*
( )
f x* − f ( x ) ≤ ∑ λi* fi ( x ) ≤ 0
i =1
i =1
λ f (x ) = 0
*
i i
*
i = 1,… , n et
f (x ) ≤ 0
*
i i = 1,… , n
( )
f x* ≤ f ( x ) . 
λi* ≥ 0 i = 1,… , n
x* ∈ X
Conditions K-K-T nécessaires
L'analyse de la nécessité des conditions K-K-T est plus complexe et requiert
l'introduction de notions et de résultats préliminaires reliés aux théorèmes
d'alternatives. a β
a1 x1 + a2 x2 = β ⇔ x2 = − 1 x1 +
a2 a2
Définitions.
L' hyperplan spécifié par le point a ∈ R n et le scalaire β est l'ensemble de R n
{
H ( a, β ) = x ∈ R n : a T x = β . }
Les demis espaces (fermés) associés a l'hyperplan H ( a, β ) sont les ensembles
suivants de R n :
H − [ a, β ]
{ T
H [ a, β ] = x ∈ R : a x ≥ β
+ n
}
H− [ a, β ] = { x ∈ R n
: aT x ≤ β }. H ( a, β )
H + [ a, β ]

Note. Il est facile de vérifier que tous ces ensembles sont convexes.
Définition. Hyperplan de séparation.
L'hyperlan H ( a, β ) sépare deux ensembles non vides X et Y si
(
a T x ≥ β pour tout x ∈ X i.e., X ⊂ H + [ a, β ] )
a T y ≤ β pour tout y ∈ Y ( i.e., Y ⊂ H [a, β ]) .

La séparation est stricte si les inégalités dans les relations précédentes


sont strictes.

(
H a1 , β1 ) ( ) hyperplan de séparation
H a1 , β1
Y H ( a , β ) hyperplan de séparation stricte
2
2

(
H a2 , β2 )
Définition. Étant donné un ensemble non vide X ⊂ R n l'hyperplan H ( a, β )
est un support de X si
H ( a, β ) ∩ X ≠ Φ et
+ −
X ⊂H [ a, β ] ou X ⊂ H [ a, β ]
( où X dénote la fermeture de l'ensemble X ) .

X
H ( a, β ) support
Théorème 5.4: Soient les vecteurs x, y, a ∈ R n . Si a T y < a T x, alors pour tout
θ ∈ ( 0,1) ,
a T y < a T (θ x + (1 − θ ) y ) < a T x.

Preuve. a T (θ x + (1 − θ ) y ) < a T (θ x + (1 − θ ) x ) = a T x.
a T (θ x + (1 − θ ) y ) > a T (θ y + (1 − θ ) y ) = a T y. 
Théorème 5.5: (Théorème de séparation) Si X ⊂ R n est un ensemble
convexe non vide et si y ∉ X , alors il existe un hyperplan qui sépare
(strictement) X et y. x•
0
Preuve. Il existe un point x ∈ X tel que X x0

0 X •y
x − y = min x − y
x∈ X

( où zNous T
z dénote
= zallons la norme
construire un euclédienne
hyperplan dedeséparation
z . stricte )
Il est facile de vérifier que X est un ensemble convexe, et par conséquent le
( )
segment de droite ℑ x 0 , x ⊂ X pour tout x ∈ X . Donc pour tout θ ∈ [ 0,1]
(
x 0 − y ≤ θ x + (1 − θ ) x 0 − y . )
Ainsi pour tout θ ∈ [ 0,1]
T T
( 0
x −y )( 0
) ((
x − y ≤ θ x + (1 − θ ) x ) )( 0
−y (θ x + (1)− θ ) x 0
)− y
T T
(x 0
− y) ( x − y ) ≤ (( x − y ) + θ ( x − x )) (( x − y ) + θ ( x − x ))
0 0 0 0 0

T T T
(x 0
− y) ( x − y ) ≤ ( x − y ) ( x − y ) + 2θ ( x − x ) ( x − y ) +
0 0 0 0 0

T
(α + β )(α + β ) = αα + 2αβ + ββ θ (x − x ) (x − x ) 2 0 0
Ainsi pour tout θ ∈ [0,1]
T T
(x −y0
)( 0
) ((
x − y ≤ θ x + (1 − θ ) x ) )( 0
−y ) (θ x + (1 − θ ) x 0
)− y
T T
(x 0
− y) (x 0
− y ) ≤ (( x − y ) + θ ( x − x )) (( x − y ) + θ ( x − x ))
0 0 0 0

T T T
(x 0
− y) (x 0
− y ) ≤ ( x − y ) ( x − y ) + 2θ ( x − x ) ( x − y ) +
0 0 0 0

T
θ ( x − x ) ( x − x ). 2 0 0

Par consequent pour tout θ ∈ [0,1]


T T
() ( x − y ) + θ ( x − x ) ( x − x ) ≥ 0.
2θ x − x 0 0 2 0 0

T
Mais alors ceci implique que ( x − x ) ( x − y ) ≥ 0. En effet si 0 0

T
( x − x ) ( x − y ) < 0, alors pour θ >0 suffisemment petit
0 0

T T
2θ ( x − x ) ( x − y ) > θ ( x − x ) ( x − x )
0 0 2 0 0

T T
− 2θ ( x − x ) ( x − y ) > θ ( x − x ) ( x − x )
0 0 2 0 0

et alors nous aurions que


T T
2θ x − x 0 ( )( )
x − y + θ 2 x − x 0
0
( ) ( x − x ) < 0. 0
0 T
Nous avons donc que x − x )( ) ( x 0 − y ≥ 0 ou encore

x ( x − y ) ≤ x ( x − y ).
0T 0 T
( 5.3) 0

2 T
Puisque y ∉ X , x − y = ( x − y ) ( x − y ) > 0, ou encore
0 0 0

y ( x − y ) < x ( x − y ).
T 0 0T
( 5.4 ) 0

Alors en appliquant le Théorème 5.4 avec les vecteurs ( x − y ) , 0

0 Si a T y < a T x, alors pour tout


x , y, et utilisant la relation ( 5.4 ) θ ∈ ( 0,1) ,
a T y < a T (θ x + (1 − θ ) y ) < a T x.
T
y T
(x 0
) ( 0
− y < θ x + (1 − θ ) y ) (x 0
) (
− y < x 0T x 0 − y . )
En utilisant maintenant la relation ( 5.3) ,
1 0 T
y T
( 0
)
x −y < x +y
2
( )( ) ( )
x 0 − y < x 0T x 0 − y ≤ x T x 0 − y . ( )
0 T
Nous avons donc que x − x (
) ( x − y ) ≥ 0 ou encore 0

x ( x − y ) ≤ x ( x − y ).
0T 0 T 0
( 5.3)
2 T
Puisque y ∉ X , x − y = ( x − y ) ( x − y ) > 0, ou encore
0 0 0

y ( x − y ) < x ( x − y ).
T 0 0T 0
( 5.4 )
Alors en appliquant le Théorème 5.4 avec les vecteurs ( x − y ) , 0

0 1 Si a y < a x, alors pour tout T T

x , y , et avec θ = , et utilisant la relation ( 5.4 ) θ ∈ ( 0,1) ,

2 a y < a (θ x + (1 − θ ) y ) < a x.
T T T

1 0 T
T 0
(
y x −y < x +y
2
) ( )(
x 0 − y < x 0T x 0 − y . ) ( )
En utilisant maintenant la relation ( 5.3) ,
1 0 T
y T
( 0
)
x −y < x +y
2
( )( ) ( ) (
x 0 − y < x 0T x 0 − y ≤ x T x 0 − y . )
En utilisant maintenant la relation ( 5.3) ,
1 0 T
T
( 0
y x −y < x +y)2
( )( ) ( ) (
x 0 − y < x 0T x 0 − y ≤ x T x 0 − y . )
Par conséquent nous avons que
1 0 T
T 0
(
y x −y < x +y
2
) ( )( ) (
x0 − y < xT x0 − y . )
Puisque cette relation est valable pour tout x ∈ X , il s'ensuit
(
que l'hyperplan H ( a, β ) où a = x 0 − y et )
1 0 T
β=
2
x +y( )( )
x 0 − y sépare (strictement) X et y. 
Dans le Théorème 5.5, la convexité de X est une condition
suffisante pour assurer l'existence d'un hyperplan le séparant
(strictement) de y ∉ X .

y
X X

y
Théorème 5.6:(Théorème de Farkas) Étant donné les vecteurs
a1,… ,a n et b ∈ R m , une condition suffisante pour que b
s'exprime comme une combinaison linéaire non négative des a j
(i.e., une condition suffisante pour qu'il existe des scalaires non
négatifs x1,… , xn tels que b = a1 x1 + … + a n xn ) est que tout
y ∈ R m tel que y T a j ≥ 0 pour tout j = 1,… , n, vérifie
nécessairement la relation y T b ≥ 0.

Preuve. Il faut démontrer que


 pour tout y ∈ R m , 
 T j  ∃ x1,… , xn ≥ 0 tels que 
si y a ≥ 0 pour tout j = 1,… , n, ⇒ 1 n 
 T   b = a x1 + … + a xn 
 alors nécessairement y b≥0 
Preuve. Il faut démontrer que
 pour tout y ∈ R m , 
 T j  ∃ x1,…, xn ≥ 0 tels que 
si y a ≥ 0 pour tout j = 1,…, n,  ⇒  1 n 
 T   b = a x1 + … + a xn 
alors nécessairement y b ≥ 0 
Nous allons plutôt démontrer la contraposé de l'implication:
 pour tout y ∈ R m , 
 T j  ∃ x1 ,… , xn ≥ 0 tels que 
¬ si y a ≥ 0 pour tout j = 1,…, n,  ⇐ ¬ 1 n 
 T   b = a x1 + … + a xn 
 alors nécessairement y b≥0 
c'est-à-dire
∃ y ∈ R m , tel que 
 ∃ x1,… , xn ≥ 0 tels que   T j 
 1 n  ⇒  y a ≥ 0 pour tout j = 1,… , n, 
 b = a x1 + … + a xn   T 
 et y b<0 
Pour démontrer que
∃ y ∈ R m , tel que 
 ∃ x1 ,… , xn ≥ 0 tels que   T j 
 1 n  ⇒  y a ≥ 0 pour tout j = 1,… , n, 
 b = a x1 + … + a xn   T 
 et y b<0 
considérons l'ensemble
{
Z = z ∈ R m : ∃x1 ,…, xn ≥ 0 tel que z = a1 x1 + … + a n xn . }
Il est facile de démontrer que Z est convexe. Il est aussi possible
de démontrer que Z est un ensemble fermé ( i.e. Z = Z ) .
z1 = a1 x11 + … + a n x1n z 2 = a1 x12 + … + a n x 2n
θ z1 + (1 − θ ) z 2 = a1 θ x11 + (1 − θ ) x12  + … + a n θ x1n + (1 − θ ) xn2 
et alors θ z1 + (1 − θ ) z 2 ∈ Z
Pour démontrer que
∃ y ∈ R m , tel que 
 ∃ x1 ,… , xn ≥ 0 tels que   T j 
 1 n  ⇒  y a ≥ 0 pour tout j = 1,… , n, 
 b = a x1 + … + a xn   T 
 et y b<0 
considérons l'ensemble
{ }
Z = z ∈ R m : ∃x1 ,…, xn ≥ 0 tel que z = a1 x1 + … + a n xn .
Il est facile de démontrer que Z est convexe. Il est aussi possible
de démontrer que Z est un ensemble fermé ( i.e. Z = Z ) .
Puisque par hypothèse de la contraposé b ∉ Z = Z , alors
par le théorème 5.5 il existe un hyperplan H ( p, β ) qui sépare
strictement Z et b :
pTb < β < pT z pour tout z ∈ Z . (5.5)
{
Z = z ∈ R m : ∃x1 ,… , xn ≥ 0 tel que z = a1 x1 + … + a n xn . }
Puisque par hypothèse de la contraposé b ∉ Z = Z , alors
par le théorème 5.5 il existe un hyperplan H ( p, β ) qui sépare
strictement Z et b :
p Tb < β < p T z pour tout z ∈ Z . (5.5)
Or 0 ∈ Z , ce qui implique que β < 0 et par conséquent que
p T b < 0. ∃ y ∈ R m , tel que 
 T j 
 y a ≥ 0 pour tout j = 1,…, n, 
Également, p T z ≥ 0 pour tout z ∈ Z . En effet,
 T
s'il existait un z ∈Z
et y b < 0 
tel que p T z < 0, alors puisque Z est un cône (i.e., si z ∈ Z alors
λ z ∈ Z pour tout λ ≥ 0), nous aurions que p T ( λ z ) → − ∞
λ →∞
contredisant (5.5).
Or 0 ∈ Z , ce qui implique que β < 0 et par conséquent que
p T b < 0.
Également, p T z ≥ 0 pour tout z ∈ Z . En effet, s'il existait un z ∈ Z
tel que p T z < 0, alors puisque est un cône (i.e., si z ∈ Z alors
λ z ∈ Z pour tout λ ≥ 0) nous aurions que p T ( λ z ) → − ∞
λ →∞
contredisant (5.5).
Comme il est facile de vérifier que a j ∈ Z , j = 1,… , n,
{
Z = z ∈ R m : ∃x1 ,… , xn ≥ 0 tel que z = a1 x1 + … + a n xn }
il s'ensuit que p T a j ≥ 0, j = 1,… , n.
m
Nous avons donc démontré la contraposé puisque

R ∈
∃ y ∈p que est
, telR
T j
m


 y a ≥ 0 pour tout j = 1,…, n, 
tel que p T a j ≥ 0, j = 1,… , n et p T b < 0.  T
et y b < 0  

Corollaire 5.7: (Théorème d'alternatives) Soit A une matrice
m × n. Exactement une des deux alternatives suivantes est vérifiée:
I Le système Ax = b, x ≥ 0 possède une solution x ∈ R n
II Le système AT y ≥ 0, bT y < 0 possède une solution y ∈ R m .

Preuve. Il est facile de vérifier que les deux alternatives ne


peuvent tenir en même temps, car autrement la relation
suivante serait satisfaite:
0 > bT y = x T AT y ≥ 0
une contradiction.
I Le système Ax = b, x ≥ 0 possède une solution x ∈ R n
II Le système AT y ≥ 0, bT y < 0 possède une solution y ∈ R m .

Dénotons par a• j , j = 1,… , n, la j ième colonne de A.


Considérant l' alternative II, celle-ci est vérifée ou elle ne l'est pas.
Dans le cas où elle ne l'est pas, il s'ensuit que le système
AT y ≥ 0, bT y < 0 ne possède pas de solution y ∈ R m ;
i.e., le système a• j T y ≥ 0, j = 1,… , n, bT y < 0 ne possède pas
de solution y ∈ R m . Ainsi pour tout y ∈ R m ,
si a• j T y ≥ 0, j = 1,… , n, alors nécessairement bT y ≥ 0.
Donc par le Théorème 5.6, il existe un vecteur x ∈ R n , x ≥ 0 tel
que Ax = a•1 x1 + … + a• n xn = b, et l'alternative I tient. 
Illustration du cas où le système Ax = b, x ≥ 0 possède une solution.

c T d = c d cos θ

a•1

a•1 x1 a•1T y ≥ 0
T
b et
b y<0
a•2 x2 a•2T y ≥ 0
a•2

Le système AT y ≥ 0, bT y < 0
ne possède pas de solution
Illustration du cas où le système Ax = b, x ≥ 0 ne possède pas de solution.

b a•1
a•1T y ≥ 0
T
b et
b y<0
a•2T y ≥ 0
a•2
bT y < 0
Le système AT y ≥ 0, b T y < 0
possède une solution
Considérons maintenant le problème m de programmation mathématique suivant
Le lagrangien L ( λ , x ) = f (Min ∑
x ) + f (λxi)fi ( x ) étant une fonction différentiable
Sujet à if=i1( x ) ≤ 0 i = 1,… , m *
(5.2)
et convexe en x, il s'ensuit qu'il possède un minimum global en x sur X
*
x∈ X
lorsque ≥ 0 si
λ =lesλ hypothèses
sous supplémentaires que mX est
convexe et que les fonctions
x ( ) ( ) ∑
∇ L λ * , x* =f∇etf fix*sont + convexes
λ *∇f sur
i
x* X=. 0.
i ( )
i =1
Alors le Théorème 5.2 peut s'écrire:
K-K-T
Théorème 5.2: Supposons que
S'il existe un λ * tel que
le lagrangien associé au problème (5.2) m

L ( λ, x ) = f ( x ) +∑
m
λi fi ( x ) ( )
∇ x L λ * , x * = ∇f x * + ( ) ∑ ( )
λi*∇fi x* = 0
i =1
i =1
possède un minimum global x sur X * λ f (x ) = 0
*
i i
*
i = 1,… , n
lorsque le vecteur de multiplicateur λ * . i
*
f (x ) ≤ 0 i = 1,… , n
( ) ( )
Si fi x* ≤ 0 , λi* ≥ 0 et λi* fi x* = 0 λi* ≥ 0 i = 1,… , n
pour tout i = 1,… , m, x* ∈ X
alors x* est une solution optimale globale de (5.2).
Min f ( x )
Sujet à fi ( x ) ≤ 0 i = 1,… , m (5.2)
x∈ X

convexité ⇑ ⇓ conditions...

K-K-T
m

( ) = ∇f ( x ) + ∑ λ ∇f ( x ) = 0
∇x L λ , x * * * *
i i
*

i =1

λ f (x ) = 0
*
i i
*
i = 1,… , n
f (x ) ≤ 0
i
*
i = 1,… , n
λi* ≥ 0 i = 1,… , n
x* ∈ X
Théorème 5.6:(Théorème de Farkas) Étant donné les vecteurs
a1 ,… ,a n et b ∈ R m , une condition suffisante pour que b
s'exprime comme une combinaison linéaire non négative des a j
(i.e., une condition suffisante pour qu'il existe des scalaires non
négatifs x1 ,… , xn tels que b = a1 x1 + … + a n xn ) est que tout
y ∈ R m tel que y T a j ≥ 0 pour tout j = 1,… , m, vérifie
nécessairement la relation y T b ≥ 0.

Preuve. Il faut démontrer que


pour tout y ∈ R m , 
 T j  ∃ x1 ,… , xn ≥ 0 tels que 
si y a ≥ 0 pour tout j = 1,… , m, ⇒  1 n 
 T   b = a x1 + … + a xn 
 alors nécessairement y b≥0 
Corollaire 5.7: (Théorème d'alternatives) Soit A une matrice
m × n. Exactement une des deux alternatives suivantes est vérifiée:
I Le système Ax = b, x ≥ 0 possède une solution x ∈ R n
II Le système AT y ≥ 0, bT y < 0 possède une solution y ∈ R m .

Preuve. Il est facile de vérifier que les deux alternatives ne


peuvent tenir en même temps, car autrement la relation
suivante serait satisfaite:
0 > bT y = x T AT y ≥ 0
une contradiction.
Revenons à l'analyse de la nécessité des conditions K-K-T en exploitant le
Corollaire 5.7.

( )
Supposons que x* ∈ X , f i x* ≤ 0, i = 1,… , m, est une solution locale du
problème ( 5.2 ) . Min f ( x )
Sujet à fi ( x ) ≤ 0 i = 1,… , m (5.2)
x∈ X
Notation: Dénotons l'ensemble des contraintes actives
( ) { ( ) }
A x* = i : f i x* = 0 = {i1 ,… , ik } ⊂ {1,… , m} .

HYPOTHÈSE À VÉRIFIER : Supposons que nous pouvons démontrer


qu'il n'existe pas de vecteur d ∈ R n tel que
T
( )
∇f i x *
d ≤0 ( )
i ∈ A x* ( 5 .6 )
T
∇f ( x )
*
d <0
HYPOTHÈSE À VÉRIFIER : Supposons que nous pouvons démontrer
qu'il n'existe pas de vecteur d ∈ R n tel que T
 T

T
*
( )
∇f i1 x d ≤0
 ( )
∇fi1 x*

( )
∇f i x * d ≤0 i ∈ A x* ( )
T


d ≤ 0
T

∇f ( x )
*
T
d < 0.
( )
∇f ik x* d ≤0 ( )
∇fik x
*


Ainsi le système
T T
∇fi x* ,… , ∇fi x*  d ≤ 0,
( ) ( ) ∇f x ( )
*
d <0
 1 k 
ne possède pas de solution.
Appliquons maintenant le Corollaire 5.7:

{  ( ) ( ) 
T
( )
T
II : − ∇fi1 x* ,… , ∇fik x*  d ≥ 0, ∇f x* d < 0 n'as pas de solution d ∈ R n }
implique que
{I: − ∇fi1 x* ,… , ∇fik x*  λ* =∇f x* , λ* = λi1* ,… , λi*k  ≥ 0 possède une solution
 ( ) ( )  ( ) }
Corollaire 5.7: (Théorème d'alternatives) Soit A une matrice
m × n. Exactement une des deux alternatives suivantes est vérifiée:
I Le système Ax = b, x ≥ 0 possède une solution x ∈ R n
II Le système AT y ≥ 0, bT y < 0 possède une solution y ∈ R m .
Appliquons maintenant le Corollaire 5.7:

{  ( ) ( )
T
( )
T
II : − ∇fi1 x* ,… , ∇fik x*  d ≥ 0, ∇f x* d < 0 n'as pas de solution d ∈ R n }
implique que
{I: − ∇fi1 x* ,… , ∇fik x*  λ* =∇f x* , λ* = λi1* ,… , λi*k  ≥ 0 possède une solution .
 ( ) ( ) ( ) }
Ceci s'écrit également sous la forme
 
 
I: −

∑ ( ) ( )
λi*∇fi x* =∇f x* , λ* = λi1* ,… , λik*  ≥ 0 possède une solution 

i∈ A( x* )
 
( )
Posons λi* = 0 pour tout i ∉ A x* . Alors

∑ λ ∇f ( x ) = 0
i
*
i
*

( )
i∉ A x*

λi* fi ( x* ) = 0 ( )
pour tout i ∉ A x* .
Ceci s'écrit également sous la forme
 
 


I: − ∑ λi
*
( )
∇ f i x *
=∇ f( )
x *
, 
λ *
=  λ
 i1
*
, … , λ *

ik  ≥ 0 possède une solution 

i∈ A( x* )
 
( )
Posons λi* = 0 pour tout i ∉ A x* . Alors

∑ λ ∇f ( x ) = 0
i
*
i
*

( )
i∉ A x*

λi* f i ( x* ) = 0
pour tout i ∉ A x* . ( )
Par conséquent nous retrouvons les conditions K-K-T
m

( ) ∑
∇f x * + λi*∇fi ( x* ) = 0
i =1

λ f (x ) = 0
*
i i
*
i = 1,… , n
f (x ) ≤ 0
i
*
i = 1,… , n
λi* ≥ 0 i = 1,… , n
Malheureusement
HYPOTHÈSE À VÉRIFIER : Supposons que nous pouvons démontrer
qu'il n'existe pas de vecteur d ∈ R n tel que
T
( )
∇f i x *
d ≤0 ( )
i ∈ A x* ( 5.6 )
T
∇f ( x )
*
d <0

ne l'est pas nécessairement pour toute solution locale x* de tout


problème tel que l'illustre l'exemple suivant..
Min f ( x1 , x2 ) = − x1
3
Sujet à f1 ( x1 , x2 ) = ( x1 − 1) + x2 ≤ 0
f 2 ( x1 , x2 ) = − x1 ≤ 0
f3 ( x1 , x2 ) = − x2 ≤ 0.
L'ensemble des solutions réalisables de ce problème est
représenté par la region en-dessous de la courbe de f1 ( x1 , x2 )
au-dessus de l'axe des x1 et à droite de l'axe des x2 .
x2

x1
Min f ( x1 , x2 ) = − x1
3
Sujet à f1 ( x1 , x2 ) = ( x1 − 1) + x2 ≤ 0
f 2 ( x1 , x2 ) = − x1 ≤ 0
f3 ( x1 , x2 ) = − x2 ≤ 0.
L'ensemble des solutions réalisables de ce problème est
représentée par la region en-dessous de la courbe de f1 ( x1 , x2 )
au-dessus de l'axe des x1 et à droite de l'axe des x2 .
x2 Il est facile de vérifier que
* T
x = [1, 0] est une solution
optimale globale de ce problème.
• ( )
De plus A x* = {1,3}.
x* x1
Min f ( x1 , x2 ) = − x1
3
Sujet à f1 ( x1 , x2 ) = ( x1 − 1) + x2 ≤ 0
f 2 ( x1 , x2 ) = − x1 ≤ 0
f3 ( x1 , x2 ) = − x2 ≤ 0.
T
( )
Or ∇f x* = [ −1, 0] ,
T
∇f1 ( x ) = 3 ( x1 − 1) ,1 et ∇f1 x* = [ 0,1]
2 T
  ( )
T
x2 ∇f 3 x( ) = [0, −1]
*


x* x1
T
( )
Or ∇f x* = [ −1, 0] ,
 2  *
( )
∇f1 ( x ) = 3 ( x1 − 1) ,1 et ∇f1 x = [ 0,1]
T
 
T
( ) = [0, −1]
∇f 3 x *

On aimerait que le système


Mais le système
T
( ) d = −d < 0
∇f x *
1
T
∇f ( x ) d = d ≤ 0
1
*
2
x2
T
∇f ( x ) d = − d ≤ 0
3
*
2

ne possède pas une solution d = [1, 0] .

* x1
x
Ainsi le système
T
( ) d = −d < 0
∇f x *
1
T
∇f ( x ) d = d ≤ 0
1
*
2
T
∇f ( x ) d = − d ≤ 0
3
*
2

possède une solution d = [1, 0].

Notons qu'au point x* la direction d = [1,0]

x2
pointe directement à l'extérieur du domaine réalisable.
Nous allons donc imposer certaines
restrictions sur les contraintes des
problèmes considérés pour éliminer
d

de telles situations.
x1
x*
Restrictions sur les fonctions de contraintes de
Kuhn-Tucker

Notation: R dénote le domaine réalisable du problème ( 5.2 )


{ }
δ R = x ∈ R : ∃i,1 ≤ i ≤ m, tel que f ( x ) = 0 .
i

Définition. Étant donné un point x ∈ δ R , f1 , … , f m satisfont les restrictions


sur les fonctions de contraintes au point x si pour tout vecteur dˆ solution du
T
système ∇f i ( x ) d ≤ 0, i ∈ A ( x ) , il existe une fonction différentiable
α :[ 0,1] → R tel que α ( 0 ) = x et α ′ ( 0 ) = σ dˆ , σ > 0.
Notation: R dénote le domaine réalisable du problème ( 5.2 )
{ }
δ R = x ∈ R : ∃i,1 ≤ i ≤ m, tel que f ( x ) = 0 .
i

Définition. Étant donné un point x ∈ δ R , f1 , … , f m satisfont les restrictions


sur les fonctions de contraintes au point x si pour tout vecteur dˆ solution du
T
système ∇fi ( x ) d ≤ 0, i ∈ A ( x ) , il existe une fonction différentiable
α :[ 0,1] → R tel que α ( 0 ) = x et α ′ ( 0 ) = σ dˆ , σ > 0.

Dans l'exemple précédent, les contraintes f1 , f 2 , f3


ne satisfont pas les restrictions sur les fonctions de
x2 contraintes au point x* ∈ δ R .
En effet, il n'existe pas de fonction
différentiable α prenant ses valeurs
dans R dont la pente à 0 est un
multiple positif de d , puisque d pointe
• d à l'extérieur de R .
* x1
x
Définition. Étant donné un point x ∈ δ R , f1 , … , f m satisfont les restrictions
sur les fonctions de contraintes au point x si pour tout vecteur dˆ solution du
T
système ∇fi ( x ) d ≤ 0, i ∈ A ( x ) , il existe une fonction différentiable
α :[ 0,1] → R tel que α ( 0 ) = x et α ′ ( 0 ) = σ dˆ , σ > 0.

Interprétation géométrique.
x2
∇f1 ( x ) dˆ ≤ 0
T

∇f1 ( x )
∇f 2 ( x )
T
dˆ ≤ 0 α ( λ ) = x + λσ dˆ
• x ∇f 2 ( x ) α (0) = x
α ′ ( 0 ) = σ dˆ

x + σ dˆ f2 ( x ) = 0 f1 ( x ) = 0
x1
Définition. Étant donné un point x ∈ δ R , f1 , … , f m satisfont les restrictions
sur les fonctions de contraintes au point x si pour tout vecteur dˆ solution du
T
système ∇fi ( x ) d ≤ 0, i ∈ A ( x ) , il existe une fonction différentiable
α :[ 0,1] → R tel que α ( 0 ) = x et α ′ ( 0 ) = σ dˆ , σ > 0.

Interprétation
T
Se référant à la notion de direction de descente, lorque ∇fi ( x ) d < 0, alors pour
un faible déplacement τ > 0 dans la direction d , fi ( x + τ d ) < fi ( x ) = 0. Ainsi, ce
déplacement nous garde dans le domaine réalisable par rapport à cette contrainte.
Les restrictions sur les fonctions de contraintes prolongent en quelque sorte cette
T
propriété même si ∇fi ( x ) d = 0 puisque la fonction α prend ses valeurs dans le
domaine réalisable R .
Théorème 5.8: (Nécessité des conditions K-K-T) Soit x* ∈ X une solution
optimale locale du problème (5.2) où X est ouvert. Supposons de plus que
si x* ∈ δ R , alors f1 ,… , f m satisfont les restrictions sur les fonctions
de contraintes au point x* . Alors il existe un vecteur de multiplicateurs
λ * = λ1* ,… , λm*  ≥ 0 tel que
m

( ) ∑
∇f x * + λi*∇fi ( x* ) = 0
i =1

λi* fi ( x* ) = 0 i = 1,… , m.

Preuve. Si x* est un point intérieur du domaine réalisable R (i.e., fi x* < 0 ( )


pour tout i ), il suffit de prendre λi* = 0 pour tout i = 1,… , m. En effet dans ce
( )
cas si ∇f x* prenait une valeur différente de 0, il suffirait de considérer la
( )
direction d = −∇f x* qui serait une direction de descente de f à x* . Ainsi,
( )
il existerait un τ >0 suffisemment petit pour que x* + τ d ∈ B x* ∩ R avec
ε ( )
( ) ( )
f x* + τ d < f x* , une contradiction.
Soit x* ∈ δ R . Démontrons alors que
HYPOTHÈSE À VÉRIFIER : Supposons que nous pouvons démontrer
qu'il n'existe pas de vecteur d ∈ R n tel que
T
( )
∇f i x *
d ≤0 i ∈ A x* ( ) ( 5.6 )
T
∇f ( x )*
d <0
est effectivement vérifiée sous les hypothèses du théorème. En effet, pour
fin de contradiction, supposons qu'un tel vecteur dˆ existerait. Puisque
f1 ,… , f m satisfont les restrictions sur les fonctions de contraintes au point
x* , alors il existe une fontion différentiable α : [ 0,1] → R telle que α ( 0 ) = x*
et α ′ ( 0 ) = σ dˆ , σ > 0. Mais ainsi,
f ( x +θ d ) − f ( x) T
lim = ∇f ( x ) d
θ →0
θ

( ) = ∇f
f (α (θ ) ) − f x* T T
dˆ < 0,
lim
θ →0 θ
(x )
*
( )
α ′ ( 0 ) = σ∇f x*

ce qui implique l'existence d'un θˆ ∈ [ 0,1] assez petit pour que α θˆ ∈ Bε x* () ( )


( ( ))
tel que f α θˆ < f x* , une contradiction puisque α θˆ ∈ R .
( ) ()
Le reste de la preuve se fait comme précédemment lorsque nous supposions que
l'hypothèse était vérifiée.
Conditions K-K-T pour la programmation linéaire

Conditions K-K-T ↔ résultats de dualité et d'écarts complémentaires.


Pour la programmation linéaire,
− conditions K-K-T sont suffisantes puisque les fonctions linéaires sont
convexes.
− conditions K-K-T sont nécessaires puisque les fonctions linéaires
satisfont toujours les restrictions sur les fonctions de contraintes.

Soit le problème de programmation linéaire suivant:


n
Min ∑c x
j =1
j j

n
Sujet à ∑a x
j =1
ij j ≥ bi i = 1,… , m

xj ≥ 0 j = 1,… , n.
Soit le problème de programmation linéaire suivant:
n
Min ∑c x
j =1
j j

n
Sujet à ∑a x
j =1
ij j ≥ bi i = 1,… , m

xj ≥ 0 j = 1,… , n.
Ce problème s'écrit également
n
Min ∑c x
j =1
j j

n
Sujet à − ∑a x
j =1
ij j + bi ≤ 0 i = 1,… , m λi

− xj ≤ 0 j = 1,… , n. λm + j
Associons un multiplicateur λi à chacune des m premières contraintes et un
multiplicateur λm + j à chacune des n dernières contraintes.
n
Min ∑c x
j =1
j j

n
Sujet à − ∑a x
j =1
ij j + bi ≤ 0 i = 1,… , m λi

− xj ≤ 0 j = 1,… , n. λm + j
Associons un multiplicateur λi à chacune des m premières contraintes et un
multiplicateur λm + j à chacune des n dernières contraintes.
m
Les conditions K-K-T s'écrivent comme suit: ∇f ( x ) + ∑ λi*∇fi ( x* ) = 0
*

∂f ( x ) m ∂fi ( x ) m + n ∂fi ( x ) m i =1

∂x j
+ ∑
i =1
λi
∂x j
+ ∑
i = m +1
λi
∂x j i =1

= c j − λi aij −λm + j = 0 j = 1,… , n

 n 
λi  −
 ∑ aij x j + bi  = 0

i = 1,… , m
 j =1 
(
λm + j − x j = 0 ) j = 1,… , n
n
− ∑a xj =1
ij j + bi ≤ 0 i = 1,… , m

− xj ≤ 0 j = 1,… , n
λj ≥ 0 j = 1,… , m + n.
Considérons maintenant le problème dual:
n m
Primal Min ∑c x
j =1
j j Dual Max ∑b y
i =1
i i

n m
Sujet à ∑a x
j =1
ij j ≥ bi i = 1,… , m Sujet à ∑a y ≤ c
i =1
ij i j j = 1,… , n

xj ≥ 0 j = 1,… , n yi ≥ 0 i = 1,… , m.
Conditions K-K-T
m
cj − ∑λ a
i =1
i ij −λm + j = 0 j = 1,… , n

 n 
λi  −
 ∑ aij x j + bi  = 0

i = 1,… , m
 j =1 
(
λm + j − x j = 0 ) j = 1,… , n
n
− ∑a x
j =1
ij j + bi ≤ 0 i = 1,… , m

− xj ≤ 0 j = 1,… , n
λi ≥ 0 i = 1,… , m + n
Considérons maintenant le problème dual:
n m
Primal Min ∑c x
j =1
j j Dual Max ∑b y
i =1
i i

n m
Sujet à ∑a x
j =1
ij j ≥ bi i = 1,… , m Sujet à ∑a y ≤ c
i =1
ij i j j = 1,… , n

xj ≥ 0 j = 1,… , n yi ≥ 0 i = 1,… , m.
Conditions K-K-T Le vecteur λ1 ,… , λm  est solution
m
réalisable pour le dual: pour j = 1,… , n
cj − ∑λ a i ij −λm + j = 0 j = 1,… , n m


i =1
n 
cj − ∑λ a i ij −λm + j = 0
λi  −
 ∑ aij x j + bi  = 0

i = 1,… , m i =1
m
 j =1  cj − ∑λ a i ij = λm + j ≥ 0
(
λm + j − x j = 0 ) j = 1,… , n
m
i =1

∑λ a
n
− ∑j =1
aij x j + bi ≤ 0 i = 1,… , m
i =1
i ij ≤cj

De plus
− xj ≤ 0 j = 1,… , n
λi ≥ 0 i = 1,… , m.
λi ≥ 0 i = 1,… , m + n
Considérons maintenant le problème dual:
n m
Primal Min ∑c x
j =1
j j Dual Max ∑b y i =1
i i

n m
Sujet à ∑a x
j =1
ij j ≥ bi i = 1,… , m Sujet à ∑a y ≤ c
i =1
ij i j j = 1,… , n

xj ≥ 0 j = 1,… , n yi ≥ 0 i = 1,… , m.
Conditions K-K-T
m
cj − ∑λ a
i =1
i ij −λm + j = 0 j = 1,… , n

 n 
λi  −
 ∑ aij x j + bi  = 0

i = 1,… , m
 j =1 
(
λm + j − x j = 0 ) j = 1,… , n
n
− ∑a x
j =1
ij j + bi ≤ 0 i = 1,… , m

− xj ≤ 0 j = 1,… , n
λi ≥ 0 i = 1,… , m + n
Considérons maintenant le problème dual:
n m
Primal Min ∑c x
j =1
j j Dual Max ∑b y
i =1
i i

n m
Sujet à ∑a x
j =1
ij j ≥ bi i = 1,… , m Sujet à ∑a y ≤ c
i =1
ij i j j = 1,… , n

xj ≥ 0 j = 1,… , n yi ≥ 0 i = 1,… , m.
Conditions K-K-T Le vecteur λ1 ,… , λm  est solution
m
cj − ∑λ a i ij −λm + j = 0 j = 1,… , n optimale pour le dual: pour j = 1,… , n
 m


i =1
n 
x j  c j − ∑ λi aij −λm + j  = 0
λi  −
 ∑ aij x j + bi  = 0

i = 1,… , m  i =1
m

 j =1  cj xj − ∑λ a x i ij j = λm + j x j = 0
(
λm + j − x j = 0 ) j = 1,… , n n
i =1
n m
n
∑ c x = ∑∑ λ a x

j j i ij j
− aij x j + bi ≤ 0 i = 1,… , m j =1 j =1 i =1
j =1
− xj ≤ 0 j = 1,… , n
λj ≥ 0 j = 1,… , m + n
Considérons maintenant le problème dual:
n m
Primal Min ∑c x
j =1
j j Dual Max ∑b y
i =1
i i

n m
Sujet à ∑a x
j =1
ij j ≥ bi i = 1,… , m Sujet à ∑a y ≤ c
i =1
ij i j j = 1,… , n

xj ≥ 0 j = 1,… , n yi ≥ 0 i = 1,… , m.
Conditions K-K-T Le vecteur λ1 ,… , λm  est solution
m
optimale pour le dual:
cj − ∑λ a i ij −λm + j = 0 j = 1,… , n n n m


i =1
n 
∑ c x = ∑∑ λ a x
j =1
j j
j =1 i =1
i ij j

λi  −
 ∑ aij x j + bi  = 0

i = 1,… , m Pour i = 1,… , m
 j =1   n 
(
λm + j − x j = 0 ) j = 1,… , n ∑
λi  − aij x j + bi  = 0
 j =1 
n  
∑a x
n

j =1
ij j + bi ≤ 0 i = 1,… , m λi bi = λi ∑a x
j =1
ij j

− xj ≤ 0 j = 1,… , n m m n

λj ≥ 0 j = 1,… , m + n ∑ λ b = ∑∑ λ a x
i =1
i i
i =1 j =1
i ij j
Considérons maintenant le problème dual:
n m
Primal Min ∑c x
j =1
j j Dual Max ∑b y
i =1
i i

n m
Sujet à ∑a x
j =1
ij j ≥ bi i = 1,… , m Sujet à ∑a y ≤ c
i =1
ij i j j = 1,… , n

xj ≥ 0 j = 1,… , n yi ≥ 0 i = 1,… , m.
Conditions K-K-T Le vecteur λ1 ,… , λm  est solution
m
cj − ∑λ a i ij −λm + j = 0 j = 1,… , n optimale pour le dual:
n n m


i =1
n  ∑ c x = ∑∑ λ a x
j j i ij j


j =1 j =1 i =1
λi  − aij x j + bi  = 0 i = 1,… , m m m n
 
 j =1  ∑ λ b = ∑∑ λ a x
i i i ij j

(
λm + j − x j = 0 ) j = 1,… , n i =1
Par conséquent
i =1 j =1

∑a x
n m

j =1
ij j + bi ≤ 0 i = 1,… , m
∑ c x =∑ λ b
j =1
j j
i =1
i

− xj ≤ 0 j = 1,… , n et le résultat découle du théorème


λj ≥ 0 j = 1,… , m + n de dualité faible.
Considérons maintenant le problème dual:
n m
Primal Min ∑c x
j =1
j j Dual Max ∑b y
i =1
i i

n m
Sujet à ∑a x
j =1
ij j ≥ bi i = 1,… , m Sujet à ∑a y ≤ c
i =1
ij i j j = 1,… , n

xj ≥ 0 j = 1,… , n yi ≥ 0 i = 1,… , m.
Conditions K-K-T
m
cj − ∑λ a
i =1
i ij −λm + j = 0 j = 1,… , n

 n 
λi  −
 ∑ aij x j + bi  = 0

i = 1,… , m
 j =1 
(
λm + j − x j = 0 ) j = 1,… , n
n
− ∑a x
j =1
ij j + bi ≤ 0 i = 1,… , m

− xj ≤ 0 j = 1,… , n
λi ≥ 0 i = 1,… , m + n
Considérons maintenant le problème dual:
n m
Primal Min ∑c x
j =1
j j Dual Max ∑b y
i =1
i i

n m
Sujet à ∑a x
j =1
ij j ≥ bi i = 1,… , m Sujet à ∑a y ≤ c
i =1
ij i j j = 1,… , n

xj ≥ 0 j = 1,… , n yi ≥ 0 i = 1,… , m.
Conditions K-K-T Pour j = 1,… , n
m m
cj − ∑λ a
i =1
i ij −λm + j = 0 j = 1,… , n cj − ∑λ a i ij −λm + j = 0
i =1
 n   m

λi  −
 ∑ aij x j + bi  = 0

i = 1,… , m xj cj −
 ∑λi aij −λm + j  = 0
 j =1   i =1 
(
λm + j − x j = 0 ) j = 1,… , n  m

n
xj cj −


∑λi aij  = x j λm + j = 0.

− ∑a x
j =1
ij j + bi ≤ 0 i = 1,… , m i =1
Pour i = 1,… , m
− xj ≤ 0 j = 1,… , n  n 
λj ≥ 0 j = 1,… , m + n ∑
λi  − aij x j + bi  = 0.
 
 j =1 

Vous aimerez peut-être aussi