Académique Documents
Professionnel Documents
Culture Documents
Cours-Optimisation Non Lineaire
Cours-Optimisation Non Lineaire
Position du problème
On aborde pour commencer le problème d’optimisation non linéaire posé dans
D R
n
Min f ( x )
x D
Où f : D R est une fonction non linéaire.
D R ; optimsatio
n
n sans contrainte s
D x R n
h ( x ) 0 ; optimsatio n avec contrainte s égalités
D x R g ( x ) 0 ; optimsatio
n
n avec contrainte s inégalités
Optimisation unidimensionnelle
Position du problème
Étude des minima et maxima de fonctions réelles d’une variable réelle.
• Toute la problématique du cas multivarié est déjà présente;
• Méthodes utilisées en recherche linéaire comme sous-problème dans les
méthodes destinées au cas des fonctions à plusieurs variables.
Principe général
La fonction f(x) est supposée deux fois continûment différentiable.
La recherche d’un minimum de f(x) se fait en recherchant un point
stationnaire c-à-d x* vérifiant l’équation : f ’(x*) = 0 par l’une des méthodes
de résolution des équations à une inconnue.
Optimisation unidimensionnelle
Interprétation :
Si xk est e point obtenu à l’étape k, la fonction f(x) est
approximée par sa tangente d’équation :
y = f (xk) + (x - xk) f ’(xk)
et le point xk+1 est choisi comme l’intersection de cette
droite avec l’axe des x.
Optimisation unidimensionnelle
La méthode de la sécante :
Pour éviter le calcul de la dérivée de la fonction f on peut utiliser l’approximation
suivante : k 1
) f (x )
k
f (x
f '(x) k 1
x
k
x
Cela revient à utiliser la droite sécante passant par les points (xk, f(xk)) et
(xk+1, f(xk+1)) plutôt que la tangente à la courbe f.
Algorithme :
Étant donné x0 et x1 deux valeurs initiales de la solution
A l‘itération k effectuer : k 1 f ( x
k
)( x
k
x
k 1
)
x
k
x k 1
f (x ) f (x
k
)
Position du problème :
R qui a tout x R
n n
Soit f :R associe la valeur réelle f(x) .
On cherche à résoudre :
Min f (x)
x R
n
n
Il s' agit donc de déterminer un point x * de R tel que :
x R : f ( x *) f ( x ) c - à - d un minimum
n n
global de f sur R
Les conditions d’optimalité que l’on peut établir dépendent des hypothèses
que l’on peut formuler. La différentiabilité et la convexité permettent de poser
des conditions nécessaires et suffisantes.
Le gradient d' une fonction f est le vecteur de ses dérivées partielles premières :
f(x)
f(x)
xi
On appelle Hessien d' une fonction f en x, la matrice symétrique des dérivées
partielles secondes, notée :
2 f(x)
f(x)
2
x i x j
2
(b) le hessien f(x * ) est une matrice semi - définie positive.
2
(b) le hessien f(x * ) est une matrice définie positive.
Cas convexe :
La convexité permet de passer d’une caractérisation locale d’optimalité à
une caractérisation globale;
Elle est aussi utile dans le cas de fonctions non différentiables.
Définition 1 :
Définition 2 :
x 1 et x 2 D et 0 , 1 on a :
f( x 1 (1 ) x 2 ) f ( x 1 ) (1 ) f ( x 2 )
f( λ( 1
(1 ) x 2 ) f ( x 1 ) (1 ) f ( x 2 )
La matrice hessien 2
f ( x ) est semi - définie positive
1
Théorème 3 : Si f est une fonction convexe de classe C , une condition
n
nécessaire et suffisant e pour que x * soit un minimum global de f sur R
est que f(x * ) 0 .
Autrement dit :
(a) dans le cas convexe, la stationna rité à elle seule constitue une CNS;
(b) si f est stricteme nt convexe alors le minimum global est unique;
: d k - f(x
k k
- soit le gradient de f en x );
f(x
k
- soit calculée à partir du gradient );
( f(x 0).
k t
- soit une direction de descente arbitraire ) .d k
Soit d D(x), s' il existe un tel que pour tout t 0, , on a f(x t.d) f(x), alors
la direction amissible d est dite direction de descente.
Définition :
R , une fonction
n n
Soit f :R contin uˆ ment différenti able, et x un vecteur de R .
d R de f en x f(x) .d 0.
n T
Le vecteur est appelé direction de descente
Soit x D. En développan
0 0
t f en série de Taylor au premier ordre autour de x ,
on obtient :
x - . f(x
1 0 0
d' une quantité λ et on définit le point : x );
) f(x
1 0
en choisissan t λ positif et suffisamm ent petit on aura : f(x ).
k1
x - k . f(x
k k
L' algorithme du gradient se présente comme suit : x )
x - 0 . f(x
1 0 0
x ),
: g( ) f(x - . f(x
0 0
λ 0 est choisi de façon à minimiser la fonction ))
f(x
1 0
le point x sera le meilleur possible dans la direction ). C' est la raison
pour laquelle on appelle cette méthode gradient à pas optimal, λ 0 étant le pas
k 1
A l' étape k, connaissan
k
t x , on calcule x par :
k1
x - k . f(x k arg min f(x - . f(x
k k k k
x ), avec ))
0
Méthode de Newton :
2
On suppose que la fonction f est de classe C . La méthode consiste à remplacer,
k
au voisinage de l' estimée x , la fonction f par son approximat ion quadratiqu e:
- ² f(x )
k1 1
x . f(x
k k k
x )
² f(x
k
- La méthode n' est pas définie si la matrice ) n' est pas inversible ;
- La méthode ne permet pas de discerner les minima des maxima et points de selle;
Améliorations de la méthode :
Il existe des modifications de la méthode de Newton permettant d’assurer
une convergence globale et ne vitesse de convergence quadratique dans le
voisinage de la solution. Plusieurs variantes de la méthode existent.
Modification de Levenberg :
² f(x
k
Lorsque la matrice ) n' est pas définie positive (on le constate lorsque
la direction de Newton s' avère ne pas étre une direcion de descente), on résout
avec 0 juste assez grand pour que la matrice modifiée soit définie positive.
k1 1
x - k ² f(x . f(x
k k k
x ) )
Position du problème :
Soit le problème d' optimisati on Min f(x) sous les contrainte s h(x) 0 et g(x) 0,
n
xR
nm p
R et R , la fonction
R définie
m p
et soient les vecteurs L :R par :
h i ( x ) 0, i 1, ..., m
T
et d
Soit le problème d' optimisati on min f(x) sous les contrainte s h(x) 0 et g(x) 0,
n
x R
et soit un vecteur admissible x . Nous dirons que la condition d' indépendan ce linéaire
des contrainte s est vérifiée en x si les gradients des contrainte s d' égalité et les gradients
Position du problème :
Min f (x)
x
sous h(x) 0
h1 (x)
R , m n : h(x)
n m
h est une ap plication de R
Théorème : Multiplica teurs de Lagrange h m ( x )
Soit x * un minimum local du problème Min f(x) sous les contrainte s h(x) 0,
n
xR
* R
m
idépendant es alors il existe un vecteur unique tel que :
L(x , ) 0
* *
y . , ). y 0 y D(x
T 2 * * *
différenti ables, alors : xx
L(x )
* *
où D(x ) est le c oˆ ne des directions en x .
Bel Hadj Ali Nizar 20
ENIG – Mastère ATI Algorithmes d’Optimisation en Commande
et g(x) 0 avec f, h et g contin uˆ ment différenta ibles. Si les contrainte s sont linéaireme nt
* R R
m * p
idépendant es alors il existe un vecteur unique et un vecteur unique
*
) 0
*
et μ j
.g j (x j 1, ..., p
y . , , ). y 0 y 0
T 2 * * *
différenti ables, alors : xx
L(x tel que
y . h i (x ) 0 i 1, ..., m
T *
y . g i (x ) 0 i 1, ..., p ) 0
T * *
tel que g i (x
Remarques :
x L(x , , ) 0 ; λ L(x , , ) 0
* * * * * *
μ L(x , , ) 0 . μ L(x , , ) 0
* * * T * * *
et ;
* les
*
j
sont appelés les paramètres de Kuhn et Tucker associés aux contrainte s
d' inégalités , on a :
) 0), alors on a 0;
ième * * *
- si la j contrainte n' est pas active en x (g j (x j
- si 0; alors la j ) 0;
* ième * *
j
contrainte est nécessaire ment active en x : g j (x