Vous êtes sur la page 1sur 30

Optimisation Non Linéaire

Sous Contraintes

© Pr. Rafik Djemili. Dept. Génie Electrique, Univ. 20 Août 1955-Skikda


SOMMAIRE
I. Optimisation avec contraintes. Conditions d’optimalité
1. Introduction
2. Conditions nécessaires & suffisantes dans le cas de contraintes de
type égalité. Conditions de Lagrange.
3. Conditions nécessaires & suffisantes dans le cas de contraintes de
type inégalités. Conditions de Kuhn & Tucker.
II. Méthodes d’optimisation avec contraintes
1. Introduction
2. Méthodes primales
a. Méthode des directions admissibles
b. Méthode du gradient projeté.
I. Optimisation avec contraintes.
Conditions d’optimalité
1. INTRODUCTION
 On s’intéresse ici au problème suivant:
𝐌𝐚𝐱. 𝐟(𝐱)
𝐠𝐣 𝐱 ≤ 𝟎
𝐢 ∈ 𝐈 = 𝟏, 𝟐, … . , 𝐧 , 𝐱 ∈ ℝ𝐧
𝐣 ∈ 𝐉 = 𝟏, 𝟐, … , 𝐦
 Toutes les fonctions f et gj sont supposées continues et
différentiables, on note X l’ensemble des solutions
𝑿 = {𝒙 ∈ ℝ𝒏/ 𝒈𝒋 𝒙 ≤ 𝟎, ∀ 𝒋 ∈ 𝑱}

 X est appelé ensemble des solutions réalisables ou


admissibles.
I. Optimisation avec contraintes.
Conditions d’optimalité
 Dans le cas de contraintes de type égalité, le problème s’écrit:
𝑴𝒊𝒏. (𝑴𝒂𝒙. ) 𝒇(𝒙)
𝒉𝒋 𝒙 = 𝟎, ∀ 𝒋 = 𝟏…𝒎
𝒙 ∈ ℝ𝒏

 Aussi, d’une manière générale, on aura:


𝑴𝒊𝒏. 𝑴𝒂𝒙. 𝒇 𝒙
𝒉𝒋 𝒙 = 𝟎, 𝟏≤𝒋≤𝒑
𝒈𝒋 𝒙 ≤ 𝟎, 𝒑+𝟏≤ 𝒋≤𝒎
𝒙 ∈ ℝ𝒏
 Pour le problème qu’on désigne par (P), notons l’ensemble des
indices des contraintes saturées (actives) en un point x0 par:
𝑱𝟎 = {𝒋 ∈ 𝑱 / 𝒈𝒋 𝒙𝟎 = 𝟎}
I. Optimisation avec contraintes.
Conditions d’optimalité
 Définition: soit d une direction admissible en x0 , alors
nécessairement , d vérifie la relation:
𝛁𝒈𝒋 (𝒙𝟎 )𝒕. 𝒅 ≤ 𝟎

 Cette relation exprime que partant d’un point appartenant à


X pour minimiser f, aucune direction de déplacement ne peut
rendre une contrainte positive.
 Exemple 1:
2
Considérons dans , l'ensemble X défini par les contraintes:
 g ( x)   x  0
 1 1

 g 2 ( x)   x2  0

g
 3 ( x )  (1  x1  x2  0
)3
I. Optimisation avec contraintes.
Conditions d’optimalité
 Par conséquent, pour éliminer de telles situations analogues à
celles de l’exemple précédent, il faut donc introduire des
conditions supplémentaires sur X (c’est-à-dire sur l’ensemble
des contraintes gj(x)) .
 Les conditions supplémentaires sur X sont connues sous le nom
d’hypothèse de Qualification des Contraintes.
 Exemple 2:
Soit à résoudre les 02 problèmes suivants:
𝑴𝒊𝒏 𝒇 𝒙, 𝒚 = 𝒙𝟐 + 𝒚𝟐 𝑴𝒊𝒏 𝒇 𝒙, 𝒚 = 𝒙𝟐 + 𝒚𝟐
𝒙𝟐 + 𝒚𝟐 ≤ 𝟒 𝒙𝟐 + 𝒚𝟐 ≥ 𝟒
I. Optimisation avec contraintes.
Conditions d’optimalité
 Les contraintes changent les conditions d’optimalité.

 les contraintes doivent apparaître dans les conditions


d’optimalité.
I. Optimisation avec contraintes.
Conditions d’optimalité
2. CONDITIONS NÉCESSAIRES & SUFFISANTES DANS LE CAS DE
CONTRAINTES DE TYPE ÉGALITÉ. CONDITIONS DE LAGRANGE
 On considère l’optimisation d’une fonction f à n variables avec m contraintes de la
forme:
g j ( x1 ,....., xn )  c j ; j  1: m

 On s’intéresse au problème mathématique suivant :


 Max. f(x)

g j ( x)  c j ; j=1...m
 t
 x=(x1,..., xn )

 Le Lagrangien pour ce problème s’écrit :


m
L( x,  )  f ( x)    j ( g j ( x)  c j )
j 1
Où les  j sont les multiplicateurs de Lagrange.
I. Optimisation avec contraintes.
Conditions d’optimalité
 Conditions de qualification des contraintes : Pour pouvoir utiliser le
Lagrangien dans un problème d’optimisation avec contraintes
d’égalités, il suffit que l’une des conditions suivantes soit vérifiée :
a.
 Cas une seule contrainte (j=1) : Les dérivées partielles de la fonction g
évaluées à l’optimum x* ne sont pas simultanément nulles:
g *
( x )  0, pour au moins un x i , i  1..n
xi

 Cas à plusieurs contraintes : La matrice Jacobienne des fonctions


contraintes gj (j=1..m) notée JG de taille (m,n) est de rang m lorsqu’elle est
évaluée à l’optimum.

b. Les fonctions gj sont toutes linéaires.


I. Optimisation avec contraintes.
Conditions d’optimalité
 Conditions du Premier ordre (CPO): On suppose que les
conditions de qualification des contraintes (QC) sont vérifiées, si
le vecteur x*=(x1*, x2*,….., xn*) est solution du problème
d’optimisation, alors il existe un unique vecteur λ tel que x*
vérifie les (n+m) équations suivantes :
𝒎
𝝏𝑳(𝒙∗ , 𝝀∗ ) 𝝏𝒇(𝒙∗ ) 𝝏𝒈𝒋 (𝒙∗ )
= 𝟎; ⟺ − 𝝀𝒋 = 𝟎, ∀ 𝒊 = 𝟏. . 𝒏
𝝏𝒙𝒊 𝝏𝒙𝒊 𝝏𝒙𝒊
𝒋=𝟏

𝝏𝑳(𝒙∗ , 𝝀∗ )
= 𝟎; ⟺ 𝒈𝒋 𝒙∗ = 𝒄𝒋 , ∀ 𝒋 = 𝟏 . . 𝒎
𝝏𝝀𝒋
I. Optimisation avec contraintes.
Conditions d’optimalité
 Matrice Hessienne bordée du Lagrangien dans le cas à m
contraintes:
I. Optimisation avec contraintes.
Conditions d’optimalité
 Conditions du Second Ordre (CSO) pour un optimum local :
Supposons qu’il existe un vecteur x* qui vérifie les CPO :
 Les (n - m) derniers mineurs diagonaux principaux de la
matrice hessienne bordée du Lagrangien H L évaluée à
l’optimum sont de signes alternés, le dernier d’entre-eux
Dm+n est de même signe que (-1)n ; alors x* est un max.
local.
 Les (n - m) derniers mineurs diagonaux principaux de la
matrice hessienne bordée du Lagrangien H L évaluée à
l’optimum sont tous strictement de même signe que (-1)m ;
alors x* est un min. local.
I. Optimisation avec contraintes.
Conditions d’optimalité
 Conditions du Second Ordre (CSO) pour un optimum global :
Supposons qu’il existe un vecteur x* qui vérifie les CPO :
 Si le Lagrangien L est une fonction concave ; alors x* est un
maximum global.
 Si le Lagrangien L est une fonction convexe ; alors x* est un
minimum global.
I. Optimisation avec contraintes.
Conditions d’optimalité
3. CONDITIONS NECESSAIRES & SUFFISANTES D’OPTIMALITE DANS LE
CAS DE CONTRAINTES DE TYPE INEGALITES : CONDITIONS DE KUHN &
TUCKER
On considère le programme mathématique suivant :
 Max. f ( x)


 g j ( x)  c j ;  j=1.. m
 t

 x=(x 1 ,..., xi ,... xn ) ; i=1.. n

Soit x* la solution de ce problème ; alors deux cas sont envisageables :


 Si gj(x*) = cj ; dans ce cas on dit que la contrainte j est saturée à
l’optimum (active).
 Si gj(x*) < cj ; dans ce cas on dit que la contrainte j n’est pas saturée
à l’optimum.
I. Optimisation avec contraintes.
Conditions d’optimalité
m
L( x,  )  f ( x)    j ( g j ( x)  c j )
j 1
Où les  j sont les multiplicateurs de Lagrange associés aux contraintes g j .

 Conditions de qualification des contraintes :


Pour pouvoir utiliser le Lagrangien dans un problème
d’optimisation avec contraintes de type inégalités, il suffit que
l’une des conditions suivantes soit vérifiée :
a. Les fonctions contraintes gj, j=1..m ; sont toutes linéaires.
b. Soit s le nombre de contraintes saturées à l’optimum x*, il faut que la
matrice Jacobienne de ces s contraintes notée JG de taille (s,n) soit de
rang s lorsqu’elle est évaluée à l’optimum x*.
I. Optimisation avec contraintes.
Conditions d’optimalité
 Conditions du Premier ordre (CPO) ou Conditions de Kuhn & Tucker:
On suppose que la condition de qualification des contraintes (QC) sont
vérifiée, si le vecteur x*=(x1*, x2*,….., xn*) est solution du problème
d’optimisation, alors il existe un unique vecteur µ* tel que x* vérifie les
relations suivantes :
 L( x* ,  * ) f ( x*
) m g j ( x* )

 xi
0 
xi   j
j 1  xi
 0, i=1.. n

 L( x ,  )  0  g ( x* )  c , j=1..m
* *
  j j j

  *  0, j=1..m
 j
  ( g ( x* )  c )  0    0 ou bien g ( x* )  c ; j=1..m
 j j j j j j
I. Optimisation avec contraintes.
Conditions d’optimalité
 Conditions suffisantes du Second Ordre (CSO) pour un
optimum local :
Supposons qu’il existe un x* qui vérifie les CPO, soit s le nombre de
contraintes saturées à l’optimum, soit la matrice hessienne bordée
par les dérivées premières des seules s contraintes saturées, cette
matrice est symétrique d’ordre s+n.
 Les (n - s) derniers mineurs diagonaux principaux de la matrice H L ( x* ,  * )
évaluée à l’optimum sont de signes alternés, le dernier d’entre-eux
Dn+s étant de même signe que (-1)n , alors x* est un max. local.
 Les (n – s) derniers mineurs diagonaux principaux de la matrice
évaluée à l’optimum sont tous strictement de même signe que (-1)s,
alors x* est un min. local.
I. Optimisation avec contraintes.
Conditions d’optimalité
 Conditions du Second Ordre (CSO) pour un optimum global :
Supposons qu’il existe un vecteur x* qui vérifie les CPO :
 Si f est concave et les contraintes gj sont convexes pour tout j;
alors x* est un max. global.
 Si f est quasi-concave* et les contraintes gj sont quasi-convexes
f ( x )
pour tout j avec x  0,  i=1..n alors x* est un max. global.
i
 Si f est convexe et les contraintes gj sont concaves pour tout j ;
alors x* est un min. global.
 Si f est quasi-convexe* et les contraintes gj sont quasi-concaves
pour tout j avec f ( x )  0,  i=1..n alors x* est un min. global.
xi
I. Optimisation avec contraintes.
Conditions d’optimalité
 Exemple: Etablir pour le problème de programmation suivant
les conditions de Kuhn & Tucker

𝐌𝐢𝐧. 𝐱 𝟏 𝟐 + 𝐱 𝟐 𝟐
𝟐𝐱 𝟏 + 𝐱 𝟐 ≤ −𝟒
II. Méthodes d’optimisation sous contraintes

1. INTRODUCTION
 La plupart des méthodes existantes en programmation non linéaire
sous contraintes sont de 02 types:
― Méthodes directes ou primales.
― Méthodes utilisant la notion de dualité.
 les méthodes primales de caractérisent par le fait qu’elles opèrent
directement sur le problème donné appelé problème primal, elles
engendrent une séquence de solutions en assurant une décroissance
monotone de la fonction à minimiser, elles présentent donc un
avantage important: si le processus itératif est interrompu, elles
procurent une solution approchée satisfaisant les contraintes. Par
contre, elles ont l’inconvénient d’être de mise au point délicate et la
propriété de convergence est souvent difficile à atteindre.
II. Méthodes d’optimisation sous contraintes

 Par opposition, les méthodes duales sont plus robustes et la


convergence globale est souvent plus facile à atteindre, en
contre partie elles présentent l’inconvénient de ne fournir une
solution réalisable du problème qu’en fin de convergence.
II. Méthodes d’optimisation sous contraintes
Méthode des directions admissibles
1. MÉTHODES PRIMALES
a. MÉTHODE DES DIRECTIONS ADMISSIBLES
 L’idée consiste à adapter le principe des méthodes
d’optimisation sans contraintes pour tenir compte des limitations
imposées par la présence des contraintes.
 En fait, on choisit un point de départ x0 satisfaisant les
contraintes et on cherche une direction admissible d c’est-à-dire,
telle que:
― (i) la fonction f(x) diminue strictement.
― (ii) Un petit déplacement dans cette direction ne fait pas
sortir de l’ensemble X des solutions.
II. Méthodes d’optimisation sous contraintes
Méthode des directions admissibles
 Considérons le problème suivant:
𝑴𝒊𝒏. 𝒇(𝒙)
𝑷 𝒈𝒋 𝒙 ≤ 𝟎, ∀ 𝒋 = 𝟏. . 𝒎
𝒙 ∈ ℝ𝒏

 Soit aussi :
𝑿 = {𝒙 / 𝒈𝒋 (𝒙) ≤ 𝟎, ∀ 𝒋 = 𝟏 . . 𝒎}
𝑱𝟎 = 𝒋 ∈ 𝑱 / 𝒈𝒋 𝒙𝟎 = 𝟎

 J0 étant l’ensemble des indices des contraintes saturées


(actives) au point x0 .
II. Méthodes d’optimisation sous contraintes
Méthode des directions admissibles
 Pour trouver une direction d qui satisfait les points (i) et (ii), il
suffit de poser le problème suivant:
𝛁𝒇(𝒙𝟎 )𝒕. 𝒅 < 𝟎
𝛁𝒈𝒋 (𝒙𝟎 )𝒕. 𝒅 ≤ 𝟎, (𝒋 ∈ 𝑱𝟎 )
𝑰 𝒏

𝒅𝒊 = 𝟏
𝒊=𝟏

 Cependant, on peut remarquer que dans le cas de contraintes


non linéaires, la direction d peut être qu’un déplacement dans
cette direction fasse sortir immédiatement de l’ensemble des
contraintes X.
II. Méthodes d’optimisation sous contraintes
Méthode des directions admissibles
 Aussi, dans le problème précédent n’intervenait que les
contraintes saturées en x0, par conséquent dés que par suite
d’un déplacement une nouvelle contrainte devient saturée, la
direction d peut subir une discontinuité brusque.
 Pour cela, une nouvelle formulation de la méthode consisterait
à résoudre le problème suivant:
𝛁𝐟(𝐱 𝟎 )𝐭 . 𝐝 < 𝟎
𝐈𝐈 𝐠𝐣 𝐱 𝟎 + 𝛁𝐠 𝐣 (𝐱 𝟎 )𝐭 . 𝐝 ≤ 𝟎, ∀𝐣 ∈ 𝐉
𝐝𝐭 . 𝐝 ≤ 𝛂

 la contrainte de normalisation dans II, le rend néanmoins un


problème non linéaire.
II. Méthodes d’optimisation sous contraintes
Méthode du gradient projeté
b. MÉTHODE DU GRADIENT PROJETÉ
 Une autre idée pour adapter les méthodes d’optimisation sans
contraintes aux problèmes sous contraintes, est de projeter à
chaque étape le déplacement sur la frontière du domaine, afin
de s’assurer que le nouveau point appartient à l’ensemble des
solutions admissibles.
 Par exemple, pour une méthode de gradient, on est amené à
projeter le gradient sur la frontière du domaine.
 Cette méthode est intéressante lorsque les contraintes sont
linéaires.
 Soit donc, le problème de programmation suivant:
II. Méthodes d’optimisation sous contraintes
Méthode du gradient projeté
𝑴𝒊𝒏. 𝒇(𝒙)
𝒂𝒋 𝒙 ≤ 𝒃𝒋 , 𝒋 ∈ 𝑱𝟏
𝒂𝒋 𝒙 = 𝒃𝒋 , 𝒋 ∈ 𝑱𝟐

𝑱𝟎 𝒙 = 𝒋 𝒋 ∈ 𝑱𝟏 ; 𝒂𝒋 𝒙 = 𝒃𝒋 ∪ 𝑱𝟐

 Si on veut chercher une direction d qui fasse diminuer la


fonction f et reste dans l’ensemble admissible, cette direction
doit satisfaire la relation suivante:
𝒂𝒋 . 𝒅 = 𝟎, ∀ 𝒋 ∈ 𝑱𝟎 𝒙 ; (𝑰𝑰. 𝒃. 𝟏)
 Posons:
𝑨𝟎 : 𝑺𝒐𝒖𝒔 𝒎𝒂𝒕𝒓𝒊𝒄𝒆 𝒅𝒆 𝑨 𝒄𝒐𝒏𝒔𝒕𝒊𝒕𝒖é𝒆 𝒑𝒂𝒓 𝒍𝒆𝒔 𝒍𝒊𝒈𝒏𝒆𝒔 𝒋 ∈ 𝑱𝟎 𝒙 𝒅𝒆 𝑨, 𝒂𝒗𝒆𝒄
𝒓𝒂𝒏𝒈 𝑨𝟎 = 𝑱𝟎 (𝒙) = 𝒒
II. Méthodes d’optimisation sous contraintes
Méthode du gradient projeté
 On voit que l’ensemble des vecteurs d satisfaisant la relation
(II.b.1) est le sous-espace vectoriel S0 défini par:
𝑺𝟎 = 𝒚 𝑨𝟎 . 𝒚 = 𝟎
 Il s’agit donc de chercher la direction d telle que:
𝒅 ∈ 𝑺𝟎 𝛁𝐟 𝐱 𝐭.𝐝 𝐬𝐨𝐢𝐭 𝐦𝐢𝐧𝐢𝐦𝐚𝐥 𝐞𝐭 𝐝 = 𝟏
 ceci est donné par la théorème suivant:
𝐓𝐡é𝐨𝐫è𝐦𝐞: 𝐒𝐢 𝐀𝟎 𝐞𝐬𝐭 𝐮𝐧𝐞 𝐦𝐚𝐭𝐫𝐢𝐜𝐞 𝐪 𝐗 𝐧 𝐝𝐞 𝐫𝐚𝐧𝐠 𝐩𝐥𝐞𝐢𝐧 𝐪 ≤ 𝐧,
𝐥𝐚 𝐬𝐨𝐥𝐮𝐭𝐢𝐨𝐧 𝐨𝐩𝐭𝐢𝐦𝐚𝐥𝐞 𝐝𝐮 𝐩𝐫𝐨𝐛𝐥è𝐦𝐞:
𝐌𝐢𝐧. 𝐟(𝐱)
𝐀𝟎 . 𝐝 = 𝟎
𝐝 =𝟏
𝐲
𝐞𝐬𝐭: 𝐝 = , 𝐨ù 𝐲 𝐞𝐬𝐭 𝐥𝐚 𝐩𝐫𝐨𝐣𝐞𝐜𝐭𝐢𝐨𝐧 − 𝛁𝐟 𝐱 𝐬𝐮𝐫 𝐒 𝟎 𝐝𝐨𝐧𝐧é𝐞 𝐩𝐚𝐫:
𝐲
𝐲 = −𝐏 𝟎 . 𝛁𝐟 𝐱 = − 𝐈 − 𝐀𝐨𝐭 𝐀𝟎 𝐀𝟎𝐭 −𝟏 . 𝐀𝟎 𝛁𝐟(𝐱)
𝐏 𝟎 𝐞𝐬𝐭 𝐚𝐩𝐩𝐞𝐥é 𝐦𝐚𝐭𝐫𝐢𝐜𝐞 𝐝𝐞 𝐩𝐫𝐨𝐣𝐞𝐜𝐭𝐢𝐨𝐧 𝐬𝐮𝐫 𝐒 𝟎
II. Méthodes d’optimisation sous contraintes
Méthode du gradient projeté
 Algorithme du gradient projeté
𝑬𝒕𝒂𝒑𝒆 𝟏 ∶ à 𝒍′ 𝒊𝒕é𝒓𝒂𝒕𝒊𝒐𝒏 𝒌 = 𝟎, 𝒐𝒏 𝒆𝒔𝒕 𝒆𝒏 𝒙𝟎
𝑬𝒕𝒂𝒑𝒆 𝟐: à 𝒍′ 𝒊𝒕é𝒓𝒂𝒕𝒊𝒐𝒏 𝒌, 𝒐𝒏 𝒆𝒔𝒕 𝒆𝒏 𝒙𝒌
− 𝑫é𝒕𝒆𝒓𝒎𝒊𝒏𝒆𝒓 𝒍′ 𝒆𝒏𝒔𝒆𝒎𝒃𝒍𝒆 𝑱𝟎 (𝒙𝒌 )
− 𝑷𝒐𝒔𝒆𝒓 𝑳𝟎 = 𝑱𝟎 𝒙𝒌
𝑬𝒕𝒂𝒑𝒆 𝟑: 𝑺𝒐𝒊𝒕 𝑨𝟎 𝒍𝒂 𝒎𝒂𝒕𝒓𝒊𝒄𝒆 𝒅𝒐𝒏𝒕 𝒍𝒆𝒔 𝒍𝒊𝒈𝒏𝒆𝒔
𝒄𝒐𝒓𝒓𝒆𝒔𝒑𝒐𝒏𝒅𝒆𝒏𝒕 𝒂𝒖𝒙 𝒄𝒐𝒏𝒕𝒓𝒂𝒊𝒏𝒕𝒆𝒔 𝒋 ∈ 𝑳𝟎
− 𝑪𝒂𝒍𝒄𝒖𝒍𝒆𝒓 𝒍𝒂 𝒎𝒂𝒕𝒓𝒊𝒄𝒆 𝒅𝒆 𝒑𝒓𝒐𝒋𝒆𝒄𝒕𝒊𝒐𝒏:
𝐏 𝟎 = 𝐈 − 𝐀𝐨𝐭 𝐀𝟎 𝐀𝟎𝐭 −𝟏 . 𝐀𝟎
− 𝒚𝒌 = − 𝑷𝟎 . 𝛁𝒇 𝒙𝒌
− 𝑺𝒊 𝒚𝒌 = 𝟎, 𝒂𝒍𝒍𝒆𝒓 𝑬𝒕𝒂𝒑𝒆 𝟓
𝑬𝒕𝒂𝒑𝒆 𝟒: 𝑺𝒊 𝒚𝒌 ≠ 𝟎, 𝒅é𝒕𝒆𝒓𝒎𝒊𝒏𝒆𝒓 𝜶𝒎𝒂𝒙 = 𝑴𝒂𝒙{𝜶/ 𝒙𝒌 + 𝜶𝒚𝒌 ∈ 𝑿}
𝑴𝒊𝒏
− 𝑫é𝒕𝒆𝒓𝒎𝒊𝒏𝒆𝒓 𝜶, 𝒕𝒆𝒍 𝒒𝒖𝒆 𝒇 𝒙𝒌+𝟏 = 𝟎≤𝜶≤𝜶 𝒎𝒂𝒙
𝒇(𝒙𝒌 + 𝜶𝒚𝒌 )
− 𝒙𝒌+𝟏 = 𝒙𝒌 + 𝜶𝒐𝒑𝒕𝒚𝒌
− 𝒌 = 𝒌 + 𝟏 𝒆𝒕 𝒓𝒆𝒕𝒐𝒖𝒓 𝑬𝒕𝒂𝒑𝒆 𝟐
𝑬𝒕𝒂𝒑𝒆 𝟓: 𝑺𝒐𝒊𝒕 𝒖 = − 𝑨𝟎𝑨𝟎𝒕 −𝟏 . 𝑨𝟎 . 𝛁𝒇 𝒙
− 𝑺𝒊 𝒖 ≥ 𝟎, 𝑻𝒆𝒓𝒎𝒊𝒏𝒆𝒓 𝒙𝒌 𝒔𝒂𝒕𝒊𝒔𝒇𝒂𝒊𝒕 𝒍𝒆𝒔 𝒄𝒐𝒏𝒅𝒊𝒕𝒊𝒐𝒏𝒔 𝑲𝑻
− 𝑺𝒊𝒏𝒐𝒏, 𝒔𝒐𝒊𝒕 𝒖𝒋 𝒍𝒂 𝒄𝒐𝒎𝒑𝒐𝒔𝒂𝒏𝒕𝒆 𝒍𝒂 𝒑𝒍𝒖𝒔 𝒏é𝒈𝒂𝒕𝒊𝒗𝒆 𝒅𝒆 𝒖,
𝑭𝒂𝒊𝒓𝒆 𝑳𝟎 ← 𝑳𝟎 − 𝒋 𝒆𝒕 𝒓𝒆𝒕𝒐𝒖𝒓𝒏𝒆𝒓 𝑬𝒕𝒂𝒑𝒆 𝟑
II. Méthodes d’optimisation sous contraintes
Méthode du gradient projeté
 Des difficultés apparaissent dans le cas de contraintes non
linéaires, comme le fait que la direction de déplacement fasse
sortir immédiatement du domaine X des solutions réalisables.
 Toutefois, on pourrait dans la ces de contraintes non linéaires,
appliquer les relations suivantes:
 Soit le problème de programmation suivant:
𝑴𝒊𝒏. 𝒇(𝒙)
𝒈𝒋 𝒙 ≤ 𝟎, 𝒋 ∈ 𝑱𝟏
𝒈𝒋 𝒙 = 𝟎, 𝒋 ∈ 𝑱𝟐

𝑺𝒐𝒊𝒕 𝑱𝟎𝒈 𝒙 :𝒍𝒆 𝑱𝒂𝒄𝒐𝒃𝒊𝒆𝒏 𝒅𝒆𝒔 𝒄𝒐𝒏𝒕𝒓𝒂𝒊𝒏𝒕𝒆𝒔 𝒔𝒂𝒕𝒖𝒓é𝒆𝒔 é𝒗𝒂𝒍𝒖é 𝒂𝒖 𝒑𝒐𝒊𝒏𝒕 𝒄𝒐𝒖𝒓𝒂𝒏𝒕 𝒙
𝑶𝒏 𝒑𝒐𝒖𝒓𝒓𝒂 𝒑𝒐𝒔𝒆𝒓:
𝒚 = − 𝑷𝟎 . 𝛁𝒇(𝒙)
−𝟏
𝑷𝟎 =𝑰− [𝑱𝟎𝒈 (𝒙)𝒕] 𝑱𝟎𝒈 𝒙 . 𝑱𝟎𝒈 𝒙 𝒕 . 𝑱𝟎𝒈 (𝒙)

Vous aimerez peut-être aussi