Académique Documents
Professionnel Documents
Culture Documents
Kunh Tacker Modifie
Kunh Tacker Modifie
Kunh Tacker Modifie
Ƥ : max 𝑓(𝑥̃ )
s.c 𝑔𝑗 (𝑥̃) ≤ 𝑐𝑗 ∀ 𝑗 = 1, … … . , 𝑚
xi 0 ∀ 𝑖 = 1, … … . , 𝑛
En réalité, le programme Ƥ n’est qu’un cas particulier du programme d’optimisation étudié dans
la section précédente (il suffit de réécrire les contraintes xi 0 sous la forme − xi 0 ). Toutefois, la
résolution de ce programme selon la méthode exposée précédemment exigerait de travailler avec n + m
multiplicateurs de Lagrange, ce qui est peu commode lorsque n est grand. C’est la raison pour laquelle
on préférera, pour ce type de programmes, de travailler à partir d’un Lagrangien dit « modifié », à partir
duquel on peut dériver des conditions de Kuhn et Tucker plus simples à manipuler.
( x, ) = 𝑓(𝑥̃) - ∑𝑚
𝑗=1 λ𝑗 (𝑔𝑗 (𝑥
̃ ) + 𝑐𝑗 )
On remarquera que ce Lagrangien ne contient pas explicitement les contraintes de non négativité
xi 0 ∀ 𝑖 = 1, … … . , 𝑛
✓ Remarque
Les conditions de qualification des contraintes sont les mêmes que dans le cas des programmes
d’optimisation sous contraintes prenant la forme d’inéquations.
variables xi : elles sont strictement positives à l’équilibre, toutes sauf une, deux,..., toutes sont nulles à
l’optimum. Pour trouver la bonne solution, il faut ensuite procéder par élimination en montrant que
parmi l’ensemble de ces possibilités, certaines aboutissent à des contradictions. Une solution pour
laquelle un ou plusieurs xi sont nuls à l’optimum est appelée « solution en coin ».
1.2. Note sur les programmes de minimisation : de même que dans la section précédente le
passage d’un programme de minimisation sous contraintes prenant la forme d’inéquations à
un programme de maximisation se fait comme suit :
Soit le programme de minimisation Ƥ suivant :
Ƥ : min 𝑓(𝑥̃)
s.c 𝑔𝑗 (𝑥̃) ≥ 𝑐𝑗 ∀ 𝑗 = 1, … … . , 𝑚
xi 0 ∀ 𝑖 = 1, … … . , 𝑛
Pour pouvoir appliquer les conditions de Kuhn et Tucker modifié, il suffit de transformer le
programme Ƥ en un programme de maximisation Ƥ∗ sans changer les conditions de positivités :
Ƥ∗ : max − 𝑓(𝑥̃)
s.c −𝑔𝑗 (𝑥̃) ≤ − 𝑐𝑗 ∀ 𝑗 = 1, … … . , 𝑚
xi 0 ∀ 𝑖 = 1, … … . , 𝑛
̃ λ̃)= −𝑓(𝑥̃)- ∑𝑚
L(𝑥, 𝑗=1 λ𝑗 (−𝑔𝑗 (𝑥
̃ ) + 𝑐𝑗 )
=−𝑓(𝑥̃)+ ∑𝑚
𝑗=1 λ𝑗 (𝑔𝑗 (𝑥
̃ ) − 𝑐𝑗 )
max ( xy )
sc x+ y 6
x0
y0
• Solution
( x, y, ) = xy − ( x + y − 6)
❖ Condition de qualification des contraintes
x 0 y* − * 0
x* 0 x* 0
x* = 0 x* ( y * − * ) = 0
x
0 x* − * 0
y
y 0 y* 0
*
y* =0 y * ( x* − * ) = 0
y
0 x* + y * 6
*
0 * 0
* =0 * ( x* + y* − 6) = 0
– Si y = 0 , alors
*
* = 0 , donc x* 6 d’après la quatrième condition, ce qui est
contradictoire avec l’hypothèse de départ ( x 0 ).
*
❖ Cas : x = 0 . Alors :
*
contredit l’hypothèse y 0 .
*
Finalement, on en déduit que les conditions de Kuhn et Tucker admettent deux solutions
pour ( x , y , ) : (3, 3, 3) et (0, 0, 0).
* * *
CSO : La fonction f est deux fois dérivable et quasi-concave et les contraintes sont
linéaires. Par conséquent, si les dérivées partielles f de f évaluées en ( x , y , ) sont non
' * * *
nulles, alors ( x , y , ) est un maximum global. C’est le cas pour la solution ( x , y ) = (3,3) . En
* * * * *
revanche, comme les dérivées partielles de f s’annulent en (0,0), on peut savoir à ce stade si
Pour déterminer lequel de ces deux points est le maximum global du programme Ƥ, il
faut alors comparer les valeurs de f en ces deux points : comme f (3,3) f (0,0) , le point
( x* , y* ) = (3,3) est le maximum global du programme.