Académique Documents
Professionnel Documents
Culture Documents
Sous Contraintes
𝝏𝑳(𝒙∗ , 𝝀∗ )
= 𝟎; ⟺ 𝒈𝒋 𝒙∗ = 𝒄𝒋 , ∀ 𝒋 = 𝟏 . . 𝒎
𝝏𝝀𝒋
I. Optimisation avec contraintes.
Conditions d’optimalité
Matrice Hessienne bordée du Lagrangien dans le cas à m
contraintes:
I. Optimisation avec contraintes.
Conditions d’optimalité
Conditions du Second Ordre (CSO) pour un optimum local :
Supposons qu’il existe un vecteur x* qui vérifie les CPO :
Les (n - m) derniers mineurs diagonaux principaux de la
matrice hessienne bordée du Lagrangien H L évaluée à
l’optimum sont de signes alternés, le dernier d’entre-eux
Dm+n est de même signe que (-1)n ; alors x* est un max.
local.
Les (n - m) derniers mineurs diagonaux principaux de la
matrice hessienne bordée du Lagrangien H L évaluée à
l’optimum sont tous strictement de même signe que (-1)m ;
alors x* est un min. local.
I. Optimisation avec contraintes.
Conditions d’optimalité
Conditions du Second Ordre (CSO) pour un optimum global :
Supposons qu’il existe un vecteur x* qui vérifie les CPO :
Si le Lagrangien L est une fonction concave ; alors x* est un
maximum global.
Si le Lagrangien L est une fonction convexe ; alors x* est un
minimum global.
I. Optimisation avec contraintes.
Conditions d’optimalité
3. CONDITIONS NECESSAIRES & SUFFISANTES D’OPTIMALITE DANS LE
CAS DE CONTRAINTES DE TYPE INEGALITES : CONDITIONS DE KUHN &
TUCKER
On considère le programme mathématique suivant :
Max. f ( x)
g j ( x) c j ; j=1.. m
t
x=(x 1 ,..., xi ,... xn ) ; i=1.. n
𝐌𝐢𝐧. 𝐱 𝟏 𝟐 + 𝐱 𝟐 𝟐
𝟐𝐱 𝟏 + 𝐱 𝟐 ≤ −𝟒
II. Méthodes d’optimisation sous contraintes
1. INTRODUCTION
La plupart des méthodes existantes en programmation non linéaire
sous contraintes sont de 02 types:
― Méthodes directes ou primales.
― Méthodes utilisant la notion de dualité.
les méthodes primales de caractérisent par le fait qu’elles opèrent
directement sur le problème donné appelé problème primal, elles
engendrent une séquence de solutions en assurant une décroissance
monotone de la fonction à minimiser, elles présentent donc un
avantage important: si le processus itératif est interrompu, elles
procurent une solution approchée satisfaisant les contraintes. Par
contre, elles ont l’inconvénient d’être de mise au point délicate et la
propriété de convergence est souvent difficile à atteindre.
II. Méthodes d’optimisation sous contraintes
Soit aussi :
𝑿 = {𝒙 / 𝒈𝒋 (𝒙) ≤ 𝟎, ∀ 𝒋 = 𝟏 . . 𝒎}
𝑱𝟎 = 𝒋 ∈ 𝑱 / 𝒈𝒋 𝒙𝟎 = 𝟎
𝒅𝒊 = 𝟏
𝒊=𝟏
𝑱𝟎 𝒙 = 𝒋 𝒋 ∈ 𝑱𝟏 ; 𝒂𝒋 𝒙 = 𝒃𝒋 ∪ 𝑱𝟐
𝑺𝒐𝒊𝒕 𝑱𝟎𝒈 𝒙 :𝒍𝒆 𝑱𝒂𝒄𝒐𝒃𝒊𝒆𝒏 𝒅𝒆𝒔 𝒄𝒐𝒏𝒕𝒓𝒂𝒊𝒏𝒕𝒆𝒔 𝒔𝒂𝒕𝒖𝒓é𝒆𝒔 é𝒗𝒂𝒍𝒖é 𝒂𝒖 𝒑𝒐𝒊𝒏𝒕 𝒄𝒐𝒖𝒓𝒂𝒏𝒕 𝒙
𝑶𝒏 𝒑𝒐𝒖𝒓𝒓𝒂 𝒑𝒐𝒔𝒆𝒓:
𝒚 = − 𝑷𝟎 . 𝛁𝒇(𝒙)
−𝟏
𝑷𝟎 =𝑰− [𝑱𝟎𝒈 (𝒙)𝒕] 𝑱𝟎𝒈 𝒙 . 𝑱𝟎𝒈 𝒙 𝒕 . 𝑱𝟎𝒈 (𝒙)