Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
Max CERF
2018
1
Max CERF
Techniques d’optimisation 2018
Sommaire
1. Bases théoriques
4. Optimisation discrète
5. Optimisation fonctionnelle
Sommaire
1. Bases théoriques
1.1 Définitions
1.2 Contraintes linéaires
1.3 Contraintes non linéaires
1.4 Conditions d’optimalité
4. Optimisation discrète
5. Optimisation fonctionnelle
3
1 Bases théoriques Max CERF
1.1 Définitions
Techniques d’optimisation 2018
Sommaire
1. Bases théoriques
1.1 Définitions
1.1.1 Problème d’optimisation
1.1.2 Solution
1.1.3 Différentiabilité
1.1.4 Convexité
1.1.5 Conditionnement
1.1.6 Direction de déplacement
1.2 Contraintes linéaires
1.3 Contraintes non linéaires
1.4 Conditions d’optimalité
4
1 Bases théoriques Max CERF
1.1 Définitions
1.1.1 Problème d’optimisation
Techniques d’optimisation 2018
Norme sur Rn
- Norme vectorielle
- Norme matricielle
Suite dans Rn
- Limite
- Vitesse de convergence
5
1 Bases théoriques Max CERF
1.1 Définitions
1.1.1 Problème d’optimisation
Techniques d’optimisation 2018
1.1.1 Classification
Optimisation fonctionnelle / paramétrique
• Inconnues = fonctions Optimisation fonctionnelle
Optimisation en dimension infinie
Commande optimale
Programmation mathématique
• Inconnues = entiers Optimisation combinatoire
Programmation en nombres entiers
6
1 Bases théoriques Max CERF
1.1 Définitions
1.1.1 Problème d’optimisation
Techniques d’optimisation 2018
1.1.1 Formulation
Formulation mathématique
c E (x) 0
minn f(x) sous c I (x) 0 formulation standard
x R
x X problème noté (PO)
Notations
• x : n variables ou paramètres vecteur de Rn
ou inconnues
7
1 Bases théoriques Max CERF
1.1 Définitions
1.1.1 Problème d’optimisation
Techniques d’optimisation 2018
Rappels d’analyse
• Norme
• Suite - Convergence
8
1 Bases théoriques Max CERF
1.1 Définitions
1.1.1 Problème d’optimisation
Techniques d’optimisation 2018
1.1.1 Norme
Norme vectorielle sur Rn
x 0
• Fonction . : Rn R vérifiant x 0 x 0
x y x y
n
αx α x
p
• Norme p : x p
p xi
i 1
x2
• Norme : x max x i x
i 1,..., n
x
• Norme 2 = norme euclidienne
x 2
Norme matricielle
x1
. x
• Norme induite sur Rm n par la norme vectorielle 1
Ax
• Fonction . :R m n
R définie par A m n
max
m n x R n ,x 0 x
9
1 Bases théoriques Max CERF
1.1 Définitions
1.1.1 Problème d’optimisation
Techniques d’optimisation 2018
1.1.1 Suite
Suite dans Rn
• Suite : xk , k=0,1,2,… = x0 , x1 , x2 ,…, xn, …
Vitesse de convergence
• Convergence linéaire : xk 1 x* c xk x* avec 0 c 1
lent à partir d’un certain rang k0
10
1 Bases théoriques Max CERF
1.1 Définitions
1.1.2 Solution
Techniques d’optimisation 2018
1.1.2 Solution
Solution admissible
Minimum
- Minimum local
- Minimum global
- Infimum
Problèmes équivalents
- Transformations simples
Contrainte active
Point intérieur
11
1 Bases théoriques Max CERF
1.1 Définitions
1.1.2 Solution
Techniques d’optimisation 2018
Illustration dans R2
• c1(x) = 0 courbe
• c2(x) 0 région du plan
• c3(x) 0 région du plan
Dans Rn
• c(x) = 0 hypersurface
(dimension n-1)
• aTx = 0 hyperplan a Rn
(linéaire)
12
1 Bases théoriques Max CERF
1.1 Définitions
1.1.2 Solution
Techniques d’optimisation 2018
1.1.2 Minimum
Minimum global (= meilleure solution dans l’absolu)
• x* minimum global de (PO) x X adm , f(x*) f(x)
• x* minimum global strict x X adm , f(x*) f(x) si x x*
x Xadm x
13
1 Bases théoriques Max CERF
1.1 Définitions
1.1.2 Solution
Techniques d’optimisation 2018
1.1.2 Infimum
Borne inférieure
f : Rn R f bornée inférieurement sur Y Rn
M R / x Y , M f(x)
Infimum
• Infimum de f sur Y = plus grande borne inférieure
x Y , inf Y f f(x)
• Propriété : et
M inf Y f , x Y / f(x) M
Théorème de Weierstrass
• f atteint son infimum si f continue, Y compact : x* Y / f(x*) inf Y f
14
1 Bases théoriques Max CERF
1.1 Définitions
1.1.2 Solution
Techniques d’optimisation 2018
x1 X1adm x2 X2adm
f1(x1) f1(x1)=f2(x2) f2(x2)
(PO1) et (PO2) ont alors des solutions de même coût : f1(x1*) = f2(x2*)
Transformations simples
• Changement de variable : y= (x) avec strictement croissante sur X
Une contrainte du problème (PO) est active (ou saturée) en x si elle s’annule en x.
• Le problème (PO) est équivalent au problème (PO)act réduit aux contraintes actives
prises comme des contraintes égalité.
c E (x) 0
min f(x) sous min f(x) sous c j (x) 0, j C act (x*) noté min f(x) sous c(x) 0
x Rn c I (x) 0 x Rn x Rn
16
1 Bases théoriques Max CERF
1.1 Définitions
1.1.2 Solution
Techniques d’optimisation 2018
1.1.2 Exemple
Contrainte active
2 x 1 f(x) f(x)=x2
min x 1 sous x* 1
x R x 2
• Respecte la contrainte x 2
• Ne respecte pas la contrainte x 1
Activation de la contrainte x = 1
admissible
2. Minimum avec contrainte active x = 1 0 1 2 x
min x 2 1 sous x 1 x* 1
x R
x*
x*
18
1 Bases théoriques Max CERF
1.1 Définitions
1.1.2 Solution
Techniques d’optimisation 2018
1.1.2 Exemple
Point intérieur
f(x) f(x)=x2
min x 2 1 sous x 1 x* 0
x R
1. Ensemble admissible
X adm x R/x 1 ] ,1]
2. Ensemble intérieur à la contrainte
X int x R/x 1 ] ,1[
admissible
X int X adm 1
0 1 x
x Xint voisinage de x inclus dans Xint
intervalle ouvert
Minimum avec contrainte
3. Solution : x*=0
19
1 Bases théoriques Max CERF
1.1 Définitions
1.1.3 Différentiabilité
Techniques d’optimisation 2018
1.1.3 Différentiabilité
Définitions
- Dérivée partielle
- Dérivée directionnelle
- Gradient – Hessien – Jacobien
Théorème de Taylor
- Ordre 1 et 2
- Modèle quadratique-linéaire
- Ligne de niveau
Dérivées numériques
- Différences finies
- Erreurs numériques
- Incrément
- Dérivée complexe
- Méthode d’extrapolation
20
1 Bases théoriques Max CERF
1.1 Définitions
1.1.3 Différentiabilité
Techniques d’optimisation 2018
1.1.3 Gradient
Différentiabilité ordre 1
f fonction continue de Rn dans R
Fonction différentiable
f différentiable en x f admet une dérivée directionnelle pour tout d Rn
21
1 Bases théoriques Max CERF
1.1 Définitions
1.1.3 Différentiabilité
Techniques d’optimisation 2018
1.1.3 Hessien
Différentiabilité ordre 2
f fonction deux fois différentiable de Rn dans R
2 2
Hessien f(x) f(x)
2 ...
Hessien de f en x : H(x) f(x) 2
2
x1 x1 x n
n f(x)
H(x) : R Rn n
H(x) ... ... ...
xi x j 2
f(x) 2
f(x)
i, j 1,..., n
... 2
x n x1 xn
Courbure
On définit pour une direction d Rn au point x la fonction à une variable : (s) = f(x+sd)
variation de f dans la direction d
22
1 Bases théoriques Max CERF
1.1 Définitions
1.1.3 Différentiabilité
Techniques d’optimisation 2018
1.1.3 Jacobien
Matrice gradient
c fonction continue de Rn dans Rm
Gradient de c en x : c(x) : R n Rn m
c1 (x) c m (x)
...
c j (x) x1 x1
c(x) c1 (x) ,..., c m (x) ... ... ...
xi i 1,..., n c1 (x) c m (x)
j 1,..., m ...
xn xn
Matrice jacobienne (« jacobien » = déterminant de Jc)
c1 (x) c1 (x)
c1 (x) T ...
x1 xn
c i (x)
J c (x) c(x) T ... ... ... ...
xj i 1,..., n c m (x) c m (x)
c m (x) T j 1,..., m ...
x1 xn
Contraintes du problème (PO)
Matrice jacobienne regroupant les contraintes égalité cE et les contraintes inégalité cI
J E (x) c E (x) T
J(x) : R n
R ( p q) n
J(x)
J I (x) c I (x) T
23
1 Bases théoriques Max CERF
1.1 Définitions
1.1.3 Différentiabilité
Techniques d’optimisation 2018
• Ordre 1
f continument différentiable 1 fois au voisinage de x
• Ordre 2
f continument différentiable 2 fois au voisinage de x
1 T 2
f(x d) f(x) f(x) T d d 2
f(x)d o d
2
1 T
Il existe s [0,1] tel que : f(x d) f(x) f(x) T d d 2
f(x sd)d
2
24
1 Bases théoriques Max CERF
1.1 Définitions
1.1.3 Différentiabilité
Techniques d’optimisation 2018
Fonction modèle
• Application du théorème de Taylor au point x0 Rn
1
• Modèle quadratique du critère : f̂ 0 (x) f(x 0 ) f(x 0 ) T (x x 0 ) (x x 0 ) T 2
f(x 0 )(x x 0 )
2
• Modèle linéaire des contraintes : ĉ 0 (x) c(x 0 ) c(x 0 ) T (x x 0 )
25
1 Bases théoriques Max CERF
1.1 Définitions
1.1.3 Différentiabilité
Techniques d’optimisation 2018
1.1.3 Exemple
Modèle quadratique : fonction de 1 variable
1.1.3 Exemple
Modèle quadratique : fonction de 2 variables
2 2
• Fonction : f ( x 1 , x 2 ) 100 x 2 x 12 1 x1 fonction de Rosenbrock
400 x 2 x 12 x 1 2 1 x 1
• Gradient : f ( x)
200 x 2 x 12
0 2 802 400
• Modèle quadratique en x0 = (1,1) : f ( x 0 ) 0 , f ( x 0 ) , f ( x0 )
0 400 200
T
1 x1 1 802 400 x 1 1
f̂ 0 ( x 1 , x 2 )
2 x2 1 400 200 x 2 1
2 2
f̂ 0 ( x 1 , x 2 ) 401 x 1 1 400 x 1 1 x 2 1 100 x 2 1
27
1 Bases théoriques Max CERF
1.1 Définitions
1.1.3 Différentiabilité
Techniques d’optimisation 2018
Gradient
x L0 f(x) f(x 0 ) f(x 0 ) T (x x 0 ) 0 hyperplan tangent à L0 en x0
Le gradient de f est orthogonal aux lignes de niveaux.
f(x1,x2)
x2
x2
x*
x*
f
f
x1 x1 29
1 Bases théoriques Max CERF
1.1 Définitions
1.1.3 Différentiabilité
Techniques d’optimisation 2018
1.1.3 Exemple
Ligne de niveau : fonction quadratique
f (x1 , x 2 ) x 12 25x 22
x2
0.2
f=0 0,5 1 x1
30
1 Bases théoriques Max CERF
1.1 Définitions
1.1.3 Différentiabilité
Techniques d’optimisation 2018
1.1.3 Exemple
Ligne de niveau : fonction de Rosenbrock
2 2
f ( x1 , x 2 ) 100 x 2 x12 1 x1
5,0
4,0
Lignes de niveau
f=0.5 , 1 , 4 , 7 , 10
3,0
2,0
1,0
Minimum en x*=(1,1)
0,0
-2,5 -2,0 -1,5 -1,0 -0,5 0,0 0,5 1,0 1,5 2,0 2,5
-1,0
31
1 Bases théoriques Max CERF
1.1 Définitions
1.1.3 Différentiabilité
Techniques d’optimisation 2018
Hessien
2
f f(x he i he j ) f(x he i ) f(x he j ) f(x)
• Différence finie simple : (x) o( h )
xi x j h2
n(n+1)/2+n appels fonction pour évaluer 2f(x)
32
1 Bases théoriques Max CERF
1.1 Définitions
1.1.3 Différentiabilité
Techniques d’optimisation 2018
Erreur d’arrondi
Les réels sont représentés en mémoire machine calcul avec une précision finie.
La précision machine m est le plus petit réel tel que : 1 + m 1
erreur relative m=10-16 sur la valeur d’un réel x en double précision
erreur relative r sur la valeur évaluée de f(x)
r >> m par cumul des erreurs au cours des opérations pour passer de x à f(x)
f eval (x) f exact (x)(1 ε r ) f exact (x) ε f f = erreur absolue sur f
Erreur de troncature
L’ évaluation d’une dérivée par différence finie tronque le développement de Taylor à l’ordre 1.
1 2
• f(x 0 h) f(x 0 ) hf' (x 0 ) h f' ' (x 0 sh) avec s 0,1
2
1 2
• f(x 0 h) f(x 0 ) hf' (x 0 ) h εt avec ε t M majorant de f ' ' ( x ) sur x 0 , x 0 d
2
33
1 Bases théoriques Max CERF
1.1 Définitions
1.1.3 Différentiabilité
Techniques d’optimisation 2018
34
1 Bases théoriques Max CERF
1.1 Définitions
1.1.3 Différentiabilité
Techniques d’optimisation 2018
hopt
• Règle empirique de réglage de l’incrément
En supposant que l’ordre de grandeur de la dérivée seconde est de l’ordre de 1 :
35
1 Bases théoriques Max CERF
1.1 Définitions
1.1.3 Différentiabilité
Techniques d’optimisation 2018
1.1.3 Exemple
Dérivée numérique
f (x) x 4 x 2 f ' (x) 4x 3 2x
Exemple
f (x) x 2 f ' (x) 2x
h) f (x 0 ) (x 0 h)2 (x 0 )2
f (x 0
• Différence finie réelle : 2x 0 h erreur = h
h h
f ( x 0 ih ) f ( x 0 ) ( x 0 ih ) 2 ( x 0 ) 2
• Différence finie imaginaire : 2ix 0 h 2
h h
f ( x 0 ih ) f ( x 0 )
Im 2x 0 valeur exacte
h
38
1 Bases théoriques Max CERF
1.1 Définitions
1.1.3 Différentiabilité
Techniques d’optimisation 2018
A(h ) a 0 a 1h a 2 h 2 anhn o( h n )
39
1 Bases théoriques Max CERF
1.1 Définitions
1.1.3 Différentiabilité
Techniques d’optimisation 2018
1.1.3 Extrapolation
Développement de Taylor
• On choisit un incrément h > 0 et un rapport r : 0 < r < 1.
La fonction A est évaluée en m+1 points h0 , h1 , … , hm définis par : h k rkh
1 h h h
Pour r (valeur usuelle) : h0 h , h1 , h2 , h3 ,
2 2 4 8
A m,0 A(r m h ) a0 a 1r m h a 2 r 2m h 2 a n r mn h n o( h n )
• Les m+1 valeurs Ak,0 de rang 0 sont ensuite combinées pour éliminer les termes en h.
→ m valeurs Ak,1 de rang 1
40
1 Bases théoriques Max CERF
1.1 Définitions
1.1.3 Différentiabilité
Techniques d’optimisation 2018
1.1.3 Extrapolation
Elimination des termes en h
• On définit les m valeurs Ak,1 de rang 1 à partir des m+1 valeurs Ak,0 de rang 0.
A k ,0 rA k 1, 0
A k ,1 pour k = 1 à m
def 1 r
• Ces combinaisons gardent le terme a0 et éliminent les termes en h du développement de Taylor.
A1,1 a0 b2h 2 bn h n o( h n )
A 2,1 a0 b2r 2h 2 bn r n h n o( h n )
A 3,1 a0 b2r 4h 2 b n r 2n h n o( h n )
A m ,1 a0 b 2 r 2m h 2 b n r mn h n o( h n )
Les termes d’ordre supérieur en h2, … , hn ont les mêmes coefficients b2, … , bn.
1.1.3 Extrapolation
Elimination des termes jusqu’à hm
• On applique la formule de récurrence entre le rang j 1 et le rang j.
A k, j 1 r jA k 1, j 1
A k, j j
pour k = j à m , et j = 1 à m
def 1 r
• En pratique on dispose les calculs en colonnes.
Am 1,0 Am,1
Am,0
42
1 Bases théoriques Max CERF
1.1 Définitions
1.1.3 Différentiabilité
Techniques d’optimisation 2018
1.1.3 Extrapolation
Dérivée première et seconde
• Pour évaluer les dérivées premières et secondes de f en x0, on définit 2 fonctions A(h) et B(h).
f (x 0 rh ) f ( x 0 h)
A(h )
(r 1)h
f (x 0 rh ) rf ( x 0 h ) (r 1)f ( x 0 )
B(h ) 2
r (r 1)h 2
1 r2 1 1 r n 1 n 1 (n)
A(h ) f ' (x 0 ) hf ' ' ( x 0 ) h f (x 0 )
2 r 1 n! r 1
1 r2 1 2 r n 1 1 n 2 (n)
B(h ) f ' ' (x 0 ) hf ' ' ' ( x 0 ) h f (x 0 )
3 r 1 n! r 1
43
1 Bases théoriques Max CERF
1.1 Définitions
1.1.3 Différentiabilité
Techniques d’optimisation 2018
1.1.3 Extrapolation
Dérivée première et seconde
• On choisit un incrément initial h, un rapport r entre 0 et 1 et un ordre d’extrapolation m.
• Les termes de rang 0 des fonctions A(h) et B(h) sont calculés à partir des valeurs fk.
fk 1 fk fk 1 rf k (r 1)f ( x 0 )
A k ,0 A(h k ) Bk ,0 B(h k ) 2
(r 1)h k r (r 1)h 2k
• Les termes Am,m et Bm,m de rang m sont des approximations de f (x0) et f (x0).
1.1.3 Exemple
Dérivée par extrapolation
1 1 2
f (x) x2 f ' ( x ) 2x f ' ' (x) 2
x x2 x3
• Dérivée première et seconde en x=1 : f (1) = 1 , f (1) = 4
• Incrément initial : h = 0.1 → ordre d’extrapolation m = 6
hk x+hk f(x+hk)
0,10000000 1,10000000 2,11909091
0,05000000 1,05000000 2,05488095
0,02500000 1,02500000 2,02623476
0,01250000 1,01250000 2,01281057
0,00625000 1,00625000 2,00632788
0,00312500 1,00312500 2,00314450
0,00156250 1,00156250 2,00156738
A0 A1 A2 A3 A4 A5
1,2841991342 1,0074965685 1,0001968322 1,0000025180 1,0000000159 1,0000000000 → f (1) = 1
1,1458478513 1,0020217662 1,0000268073 1,0000001723 1,0000000005
1,0739348088 1,0005255470 1,0000035017 1,0000000113
1,0372301779 1,0001340130 1,0000004476
1,0186820955 1,0000338389
1,0093579672 approximations de f (1)
45
1 Bases théoriques Max CERF
1.1 Définitions
1.1.3 Différentiabilité
Techniques d’optimisation 2018
1.1.3 Exemple
Dérivée par extrapolation
1 1 2
f (x) x2 f ' ( x ) 2x f ' ' (x) 2
x x2 x3
• Dérivée première et seconde en x=1 : f (1) = 1 , f (1) = 4
• Incrément initial : h = 0.1 → ordre d’extrapolation m = 6
hk x+hk f(x+hk)
0,10000000 1,10000000 2,11909091
0,05000000 1,05000000 2,05488095
0,02500000 1,02500000 2,02623476
0,01250000 1,01250000 2,01281057
0,00625000 1,00625000 2,00632788
0,00312500 1,00312500 2,00314450
0,00156250 1,00156250 2,00156738
B0 B1 B2 B3 B4 B5
3,7316017316 3,9850068631 3,9996063356 3,9999949640 3,9999999683 4,0000000000 → f (1) = 4
3,8583042973 3,9959564675 3,9999463855 3,9999996555 3,9999999990
3,9271303824 3,9989489060 3,9999929968 3,9999999775
3,9630396442 3,9997319741 3,9999991049
3,9813858091 3,9999323222
3,9906590657 approximations de f (1)
46
1 Bases théoriques Max CERF
1.1 Définitions
1.1.4 Convexité
Techniques d’optimisation 2018
1.1.4 Convexité
Ensemble convexe
Fonction convexe
47
1 Bases théoriques Max CERF
1.1 Définitions
1.1.4 Convexité
Techniques d’optimisation 2018
1.1.4 Convexité
Ensemble convexe
X Rn convexe x, y X , λ 0,1 , λx (1 λ)y X
Interprétation géométrique : Segment inclus dans X
x x
y y
Non connexe Non convexe Convexe
Fonction convexe
f fonction de Rn dans R
• f convexe x, y R n , λ 0,1 , f λx (1 λ)y λf(x) (1 λ)f(y)
• f strictement convexe x, y R n , λ 0,1 , f λx (1 λ)y λf(x) (1 λ)f(y)
• f concave f convexe
x y
48
1 Bases théoriques Max CERF
1.1 Définitions
1.1.4 Convexité
Techniques d’optimisation 2018
1.1.4 Convexité
Convexité et gradient
f fonction différentiable de X Rn dans R, X ensemble convexe ouvert
x y
Convexité et hessien
f fonction deux fois différentiable de X Rn dans R, X ensemble convexe ouvert
49
1 Bases théoriques Max CERF
1.1 Définitions
1.1.4 Convexité
Techniques d’optimisation 2018
1.1.4 Exemple
Fonction convexe f(x)=x3
f(x)
• Fonction : f(x) = x2 f(x)=x2
f’’(x) = 2 convexe sur R
• Fonction : f(x) = x3 x
f’’(x) = 6x convexe sur R+
non convexe sur R
x2
Ensemble convexe
• Ensemble : X ( x 1, x 2 ) / x 12 x 22 1
convexe
• Ensemble : X ( x 1, x 2 ) / x 12 x 22 1 x1
non convexe
50
1 Bases théoriques Max CERF
1.1 Définitions
1.1.5 Conditionnement
Techniques d’optimisation 2018
1.1.5 Conditionnement
Préconditionnement
Mise à l’échelle
51
1 Bases théoriques Max CERF
1.1 Définitions
1.1.5 Conditionnement
Techniques d’optimisation 2018
1.1.5 Conditionnement
Conditionnement d’une matrice
A matrice symétrique semi-définie positive
Valeurs propres de A : σ1 σn A 2
σ1
σ1
Nombre de conditionnement de A : κ(A) A A -1 1
2 2 σn
Conditionnement d’une fonction
f fonction deux fois différentiable
Conditionnement de f en x = nombre de conditionnement de A=H(x)
Interprétation
Vecteur propre dk associé à la valeur propre k : Akdk σkdk
d Tk H(x)d k
Courbure de f en x dans la direction dk : σk
d Tk d k
Théorème de Rayleigh-Ritz
d1 = direction de plus forte courbure (courbure = 1)
dn = direction de plus faible courbure (courbure = n)
52
1 Bases théoriques Max CERF
1.1 Définitions
1.1.5 Conditionnement
Techniques d’optimisation 2018
1.1.5 Exemple
Matrice 2 2
a b 1 1 d b
• Inverse : A A avec det(A) ad bc
c d det(A) c a
2
• Valeurs propres : det(A I) 0 a d bc 0 a d det(A) 0
Conditionnement
0.1 1
• A
0.20002 2
2 2.10001
• Valeurs propres : 2.1 0.00002 0 1
2 0.00001
A σ1 σ1
• Conditionnement : -1
2 (A) 210001
A 1/ σ2 σ2
2
53
1 Bases théoriques Max CERF
1.1 Définitions
1.1.5 Conditionnement
Techniques d’optimisation 2018
1.1.5 Préconditionnement
Changement de variable
~
x Mx
• Variable : ~ (M Rn n inversible = matrice de préconditionnement)
~ -1~
• Fonction : f (x) f(x) f(M x)
~~ ~
• Gradient : f (~x) M -T f(M -1~ x) g(~
x) M -T g(x)
2 ~ -T 2 -1~ -1 ~~
• Hessien : f (x ) M f(M x )M H (x) M -T H(x)M -1
Préconditionnement de f
• Factorisation de Cholesky (si H(x) définie positive) : H(x)=LLT
~ ~ ~
• Conditionnement optimal (minimal) de f en x pour : x LT x H(~
x) I κ(H) 1
x2 ~
x2
x* ~
x*
f ~
f
x1 ~
x1 54
1 Bases théoriques Max CERF
1.1 Définitions
1.1.5 Conditionnement
Techniques d’optimisation 2018
Ax * b Ax * b b Ax *
A(x * Δx b ) b Δb A.Δ x b Δb Δx b A 1Δb
(A ΔA)(x * Δx A ) b A.Δ x A ΔA.x* 0 Δx A A 1. A . x *
• Majoration de la perturbation
1 A
b Ax * b A . x*
x* b
Δx b 1
Δb
1 A .A .
Δx b 1
A Δb Δx b A . Δb x* b
Δx A A 1. A . x * Δx A A 1
. ΔA . x * Δx A 1
ΔA
A .A .
x* A
55
1 Bases théoriques Max CERF
1.1 Définitions
1.1.5 Conditionnement
Techniques d’optimisation 2018
1.1.5 Exemple
Système perturbé 2 2
• Système non perturbé
0.1x 1 x2 2 0.1 1 x1 2 x 1 10
0.20002x 1 2x 2 4.0002 0.20002 2 x 2 4.0002 x2 1
0.101 1 x1 0.101
• Perturbation A : A x2 2.010
0.20002 2
2.01 x1 990
• Perturbation b : b
4.0002 x2 101.01
x2
Conditionnement : (A) 210001
10 x1
56
1 Bases théoriques Max CERF
1.1 Définitions
1.1.5 Conditionnement
Techniques d’optimisation 2018
Difficultés
• On ne peut pas simultanément mettre toutes les quantités à l’échelle choix expérimental
• Le facteur d’échelle dépend du point x à adapter au cours des itérations
(mise à l’échelle dynamique)
57
1 Bases théoriques Max CERF
1.1 Définitions
1.1.6 Direction de déplacement
Techniques d’optimisation 2018
Direction de descente
- Définition
- Point de Newton
- Point de Cauchy
Direction admissible
Contraintes linéaires
58
1 Bases théoriques Max CERF
1.1 Définitions
1.1.6 Direction de déplacement
Techniques d’optimisation 2018
x2 d1
f(x)
x*
d2
x0
x1
59
1 Bases théoriques Max CERF
1.1 Définitions
1.1.6 Direction de déplacement
Techniques d’optimisation 2018
d2
x*
x0 d2(s)
Point de Newton
1 T g0
T
min f̂(x 0 d) f(x 0 ) g d d H 0d
0
d Rn 2
dn H 0 1g 0 si H 0 0 xc
xc existe si f est convexe suivant g0 (condition moins forte que H0 définie positive).
61
1 Bases théoriques Max CERF
1.1 Définitions
1.1.6 Direction de déplacement
Techniques d’optimisation 2018
Ensemble convexe
Xadm convexe, y x, x,y Xadm [x,y] Xadm
d=y x est une direction admissible à partir de x
Point intérieur
x point intérieur à Xadm x d
Toute direction d Rn est admissible à partir de x
62
1 Bases théoriques Max CERF
1.1 Définitions
1.1.6 Direction de déplacement
Techniques d’optimisation 2018
Direction admissible
Ad 0
d Rn direction admissible à partir de x point admissible
d i 0 si x i 0
Preuve :
A(x sd) b Ad 0 car Ax b
Pour s>0 petit, on doit avoir :(x sd) X adm
x sd 0 x sd 0
Si xi 0, alors xi sd i 0 pour s assez petit
Si xi 0, alors xi sd i 0 si d i 0
63
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
Techniques d’optimisation 2018
Sommaire
1. Bases théoriques
1.1 Définitions
1.2 Contraintes linéaires
1.2.1 Rappels d’algèbre linéaire
1.2.2 Direction admissible
1.2.3 Réduction
1.2.4 Projection
1.3 Contraintes non linéaires
1.4 Conditions d’optimalité
64
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.1 Rappels d’algèbre linéaire
Techniques d’optimisation 2018
Application linéaire
- Matrice d’une application linéaire
- Espace nul
- Espace image
Matrice
- Valeurs et vecteurs propres
- Matrices particulières
- Factorisations
Système linéaire
- Solutions
- Contraintes redondantes
Inversion matricielle
- Formule de Sherman-Morrison-Woodbury
65
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.1 Rappels d’algèbre linéaire
Techniques d’optimisation 2018
Espace image
• L’espace image de A est défini par : Im(A) y Ax, x Rn
• Si A est non singulière : Im(A) R n
1.2.1 Matrice
Valeurs et vecteurs propres
Une matrice A Rn n admet la valeur propre R
s’il existe un vecteur non nul v Rn tel que : Av = v
v est un vecteur propre associé à la valeur propre .
Matrices particulières
• A non singulière Aucune valeur propre de A n’est nulle.
• A symétrique AT = A
A admet n valeurs propres réelles (distinctes ou non)
A admet une base orthonormée de vecteurs propres
67
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.1 Rappels d’algèbre linéaire
Techniques d’optimisation 2018
1.2.1 Exemple
Valeurs propres d’une matrice 2 2
a 11 a 12
• Matrice A : A
a 21 a 22
a 11 a 12
• Valeurs propres : det(A I) 0 0 (a 11 )(a 22 ) a 12 a 21 0
a 21 a 22
2
(a 11 a 22 ) a 11a 22 a 12 a 21 0
1
a 11 a 22 (a 11 a 22 ) 2 4(a 11a 22 a 12 a 21 )
2
68
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.1 Rappels d’algèbre linéaire
Techniques d’optimisation 2018
1.2.1 Exemple
Diagonalisation matrice symétrique 2 2
a b
• Matrice Q : Q avec b c
c d
cos sin
• Base orthonormée de vecteurs propres : v1 , v2
sin cos
cos sin
• Matrice de passage orthogonale : P
sin cos
69
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.1 Rappels d’algèbre linéaire
Techniques d’optimisation 2018
1.2.1 Permutation
Permutation de colonnes
1 j k n
1
n 0 0 0 1
70
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.1 Rappels d’algèbre linéaire
Techniques d’optimisation 2018
1.2.1 Factorisation
Factorisation de matrice
A Rm n, matrice à m lignes, n colonnes avec m < n
A de rang plein : rang(A) = m < n
1 j k n
1
A
m
71
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.1 Rappels d’algèbre linéaire
Techniques d’optimisation 2018
1.2.1 Factorisation LU
Factorisation LU 1 j k n
1
L1T LT2
• Base de l’espace nul : Z E T
U T
Méthode de factorisation LU
Méthode d’élimination de Gauss (ou méthode du pivot de Gauss)
72
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.1 Rappels d’algèbre linéaire
Techniques d’optimisation 2018
1.2.1 Factorisation QR
Factorisation QR 1 j k n
1
• Matrice rectangulaire m n
Q m m orthogonale QQT = I
AE QR
R m n triangulaire supérieure
Méthode de factorisation QR
Méthode de Householder ou méthode de Givens
73
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.1 Rappels d’algèbre linéaire
Techniques d’optimisation 2018
AE QR E T A T AE R T Q T QR R TR car Q orthogonale
R L
1
Q AER
74
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.1 Rappels d’algèbre linéaire
Techniques d’optimisation 2018
1.2.1 Exemple
Factorisation LDLT d’une matrice 3 3
A L D LT
a 11 a 21 a 31 1 0 0 d1 0 0 1 l 21 l 31
a 21 a 22 a 32 l 21 1 0 0 d2 0 0 1 l 32
a 31 a 32 a 33 l 31 l 32 1 0 0 d3 0 0 1
• Résolution directe
d1 a 11 d1 , d2 , d3 > 0
a 11 d1 si A est définie positive
a 21
a 21 d1l 21 l 21
d1 sinon on modifie dj
a 31 d1l 31 a 31 en cours de factorisation
l 31
d1 dj = max( , dj) , > 0
a 22 d1l 221 d 2 d2 a 22 d1l 221
1.2.1 Exemple
Factorisation LDLT d’une matrice 2 2
A L D LT d1 a 11
a 11 a 21 1 0 d1 0 1 l 21 a 21
l 21
a 21 a 22 l 21 1 0 d 2 0 1 d1
d2 a 22 d1l 221
• Exemple
1 1001.60
Valeurs propres de A :
2 0.39936
76
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.1 Rappels d’algèbre linéaire
Techniques d’optimisation 2018
• Algorithme
Pour j = 1,2,…,n Modification pour rendre dj > 0
j 1 (si A n’est pas définie positive)
c jj a jj d s l 2js
s 1 Si dj 2
j
dj c jj dj max c jj , , avec j max c ij
j i n
Pour i = j+1,…,n
j 1 dj
c ij a ij d s l is l js
s 1
m ij l ij d j , i j 1,..., n
c ij
l ij Paramètres : > 0 petit ( = 10-3)
dj >0 ( = 1)
Fin boucle i
Fin boucle j
77
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.1 Rappels d’algèbre linéaire
Techniques d’optimisation 2018
A Rm n
matrice de rang r : rang(A) = r
Ax b avec b Rm m équations
x Rn n inconnues
Solutions possibles
• Pas de solution : système incompatible (m>n : plus d’équations que d’inconnues)
• Solution unique : système non singulier (m=n : autant d’équations que d’inconnues)
• Infinité de solutions : système sous-déterminé (m<n : moins d’équations que d’inconnues)
Problème d’optimisation
Contraintes linéaires Ax=b système sous-déterminé (m<n)
n-m inconnues «libres» permettant de minimiser le critère
78
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.1 Rappels d’algèbre linéaire
Techniques d’optimisation 2018
A Ã
1 n 1 n
1 l1
lr
lr 1
m lm
79
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.1 Rappels d’algèbre linéaire
Techniques d’optimisation 2018
I UV T A 1
U(I V T A 1U ) 1V T A 1
UV T A 1U(I V T A 1U ) 1V T A 1
I UV T A 1
U(I V T A 1U) (I V T A 1U ) 1V T A 1
en factorisant
I UV T A 1
UV T A 1
I
80
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.2 Direction admissible
Techniques d’optimisation 2018
Polytope
Forme standard
Sommet
Base
Solution de base
Direction de base
81
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.2 Direction admissible
Techniques d’optimisation 2018
1.2.2 Polytope
Définition
Polytope P dans Rn P x R n / Ax b A Rm n , b Rm
Interprétation géométrique
A j,. x bj
Chaque hyperplan j sépare Rn en 2 sous-espaces :
A j,. x bj
P
P = ensemble de points de Rn délimité par m hyperplans
82
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.2 Direction admissible
Techniques d’optimisation 2018
1.2.2 Exemple
Mise sous forme standard
• Problème linéaire (P)
x 1 3x 2 5
min x 1 2x 2 3x 3 sous 2x 1 x 2 3x 3 6
x1 , x 2 , x 3
x 1 R, x 2 1, x 3 4
84
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.2 Direction admissible
Techniques d’optimisation 2018
1.2.2 Sommet
Sommet
Polytope P dans Rn sous forme standard
A Rm n , b Rm
P x R n / Ax b , x 0
A de rang plein : rang(A)=r=m n
Définition
x P est un sommet de P
sommets
On ne peut pas trouver y,z P, différents de x
tels que x soit combinaison convexe de y et z non sommets
i.e. x = y + (1- )z avec 0< <1
Existence
Tout polytope non vide possède au moins un sommet.
85
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.2 Direction admissible
Techniques d’optimisation 2018
1.2.2 Base
Base
Polytope P dans Rn sous forme standard
P x R n / Ax b , x 0 A Rm n , b Rm
B N
1 m m 1 k 1 k k 1 n
1
m n m
AE B N
m
86
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.2 Direction admissible
Techniques d’optimisation 2018
m n m xB
AE B N ET x
xN
• xB Rm = variables en base (ou liées ou dépendantes)
xN Rn-m = variables hors base (ou libres ou indépendantes)
1
Ax b Bx B Nx N b xB B b Nx N
• Point admissible : x P
x 0 x 0 x 0
« solutions de base »
87
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.2 Direction admissible
Techniques d’optimisation 2018
• A partir de y P : Ay b By B Ny N b yB B 1b yB xB
A partir de z P : Az b Bz B Nz N b zB B 1b zB xB
B 1b
• On obtient y z x en contradiction avec l’hypothèse que x n’est pas un sommet de P
0
88
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.2 Direction admissible
Techniques d’optimisation 2018
• m contraintes égalité : Ax * b
• n-m contraintes inégalité : x *N 0
Les m contraintes inégalité sur xB peuvent être actives ou non :
x *B B 1b 0 dégénérescence
90
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.2 Direction admissible
Techniques d’optimisation 2018
1.2.2 Exemple
Recherche des solutions de base
Polytope P dans R4 sous forme standard
1 1 1 0 1
P x 1 , x 2 , x 3 , x 4 / Ax b, x 0 avec A , b
1 1 0 1 1
x1 x x2 1 x1 0
P' / 1 ,
x2 x1 x 2 1 x2 0
x1
x2 x1
• Les polytopes P dans R4 et P’ dans R2 sont équivalents : P P'
x3 x2
x4
Remarque : P = forme standard de P’
92
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.2 Direction admissible
Techniques d’optimisation 2018
1.2.2 Exemple
Recherche des solutions de base
• Représentation de P’ dans R2 x2
x1 x x2 1 x1 0 1 C
P' / 1 ,
x2 x1 x 2 1 x2 0
x1+x2=1
représentation des valeurs possibles de (x1,x2)
pour (x1,x2,x3,x4) P
x1 P
1 1 1 0 x2 1
• Contraintes de P : Ax b A B
1 1 0 1 x3 1
4 variables 2 contraintes x4 0 1 x1
• Base de P
choisir 2 colonnes indépendantes de A
6 combinaisons possibles
x1 x2=1
• Solution de base
fixer les 2 variables hors base xN à 0
calculer les 2 variables de base xB pour vérifier Ax=b D
base admissible si xB 0
93
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.2 Direction admissible
Techniques d’optimisation 2018
1.2.2 Exemple
Recherche des solutions de base
Examen des 6 bases possibles de P x2
1 1 1 0 1 1 C
A , b xB B 1b
1 1 0 1 1
x1+x2=1
1 1 0,5 0,5 1
• Base (x1,x2) : B , B -1 , xB
1 1 0,5 0,5 0
x = (1 0 0 0) admissible point B P
A B
1 1 0 1 1 0 1 x1
• Base (x1,x3) : B , B -1 , xB
1 0 1 1 0
x = (1 0 0 0) admissible point B
1 0 1 0 1 x1 x2=1
• Base (x1,x4) : B , B -1 , xB
1 1 1 1 0
x = (1 0 0 0) admissible point B D
94
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.2 Direction admissible
Techniques d’optimisation 2018
1.2.2 Exemple
Recherche des solutions de base
Examen des 6 bases possibles de P x2
1 1 1 0 1 1 C
A , b xB B 1b
1 1 0 1 1
x1+x2=1
1 1 0 1 1
• Base (x2,x3) : B , B -1 , xB
1 0 1 1 2
x = (0 1 2 0) non admissible point D P
A B
1 0 1 0 1 0 1 x1
• Base (x2,x4) : B , B -1 , xB
1 1 1 1 2
x = (0 1 0 2) admissible point C
1 0 1 0 1 x1 x2=1
• Base (x3,x4) : B , B -1 , xB
0 1 0 1 1
x = (0 0 1 1) admissible point A D
95
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.2 Direction admissible
Techniques d’optimisation 2018
dB
d Rn direction de déplacement : ETd
dN
Direction admissible
Ad 0
d direction admissible en x (contraintes linéaires)
d i 0 si x i 0
Ad 0 Bd B Nd N 0 dB B 1 Nd N
dB B 1 Nd N
d direction admissible en x dN 0 car x N 0
d Bi 0 si x Bi 0 (solution de base dégénérée)
« directions de base »
96
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.2 Direction admissible
Techniques d’optimisation 2018
• Définition d kB B 1A ., k 1 m m 1 k 1 k k 1 n
T
T k
La kème direction de base en x est : E d ek d1 dm 0 0 1 0 0
d kN 0
• Interprétation géométrique : directions de base = arêtes du polytope en x
97
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.2 Direction admissible
Techniques d’optimisation 2018
98
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.2 Direction admissible
Techniques d’optimisation 2018
k B 1 A.,k
avec d = kème direction de base d = combinaison linéaire des dk
ek
99
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.2 Direction admissible
Techniques d’optimisation 2018
1.2.2 Exemple
Recherche des directions de base
Polytope P dans R4 sous forme standard x2
P x1 , x 2 , x 3 , x 4 / Ax b, x 0 1 C
1 1 1 0 1 x1+x2=1
avec A , b
1 1 0 1 1
• Direction de base en une solution de base admissible
choisir une variable hors base (k) P
fixer la composante hors base correspondante dNk à 1 A B
fixer les autres composantes hors base dN à 0
calculer les composantes en base dB par B 1A.,k 0 1 x1
100
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.2 Direction admissible
Techniques d’optimisation 2018
1.2.2 Exemple
Recherche des directions de base
Examen de directions de base de P x2
1 1 1 0 1 C
A
1 1 0 1
x1+x2=1
• Base admissible (x2,x4) : x = (0 1 0 2) point C
1 0 1 0 d3 d1
B , B -1
1 1 1 1 P
• Direction de base d1 correspondant à la variable hors base x1 A B
1 0 1 1 0 1 x1
dB B -1A .,1
1 1 1 2
d1 = (1 1 0 2) admissible
1.2.2 Exemple
Recherche des directions de base
Examen de directions de base de P x2
1 1 1 0 1 C
A
1 1 0 1
x1+x2=1
• Base admissible (x1,x4) : x = (1 0 0 0) point B
base dégénérée d2
1 0 1 0
B , B -1
1 1 1 1 P
• Direction de base d2 correspondant à la variable hors base x2 A B
1 0 1 1 0 1 x1
dB B -1A ., 2 d3
1 1 1 2
d2 = ( 1 1 0 2) admissible
1.2.2 Exemple
Recherche des directions de base
Examen de directions de base de P x2
1 1 1 0 1 C
A
1 1 0 1
x1+x2=1
• Base admissible (x1,x2) : x = (1 0 0 0) point B
1 1 0,5 0,5 base dégénérée d4
B , B -1
1 1 0,5 0,5 P
• Direction de base d3 correspondant à la variable hors base x3 A B
0,5 0,5 1 0,5 0 1 x1
dB B -1A .,3
0,5 0,5 0 0,5
d3 = ( 0,5 0,5 1 0) non admissible (base dégénérée)
d3
• Direction de base d4 correspondant à la variable hors base x4 x1 x2=1
-1 0,5 0,5 0 0,5
dB B A ., 4
0,5 0,5 1 0,5 D
d4 = ( 0,5 0,5 0 1) admissible
103
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.3 Réduction
Techniques d’optimisation 2018
1.2.3 Réduction
Principe
Méthode générale
Interprétation géométrique
104
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.3 Réduction
Techniques d’optimisation 2018
1.2.3 Réduction
Problème sous contraintes linéaires
minn f(x) sous Ax b , A Rm n, b Rm, A de rang plein r=m n
x R
Principe de réduction
On utilise les m contraintes pour réduire le problème à n m variables.
Le déplacement p est décomposé en 2 termes : p = plibre + plié , plibre Rn , plié Rn
• plibre dépend de n m variables libres (ou indépendantes) pour minimiser le critère f
• plié dépend de m variables liées (ou dépendantes) pour restaurer l’admissibilité
• Les composantes liées et libres du déplacement p = plié + plibre sont définies par
plié = YpY Rn m variables liées (pY)
plibre = ZpZ Rn n m variables libres (pZ)
106
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.3 Réduction
Techniques d’optimisation 2018
• Coût réduit
1 1
f (x) f (x 0 p) f x0 Y AY b b0 I Y AY A Zp Z
107
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.3 Réduction
Techniques d’optimisation 2018
Problème réduit
1
min f(x 0 p) sous A(x 0 p) b min (p Z ) f x0 Y AY b b0 Zp Z
p Rn p Z R n -m
108
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.3 Réduction
Techniques d’optimisation 2018
Problème réduit
1
minn f(x 0 p) sous A(x 0 p) b minn-m (p N ) f x 0B B b b 0 Np N , x 0N pN
p R pN R
109
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.3 Réduction
Techniques d’optimisation 2018
• Factorisation QR de A
T
ATE = QR avec Q orthogonale (QQ =I) méthode de Householder
R triangulaire
m
T
m n m
R m Y Q1
A E n Q1 Q2
Z Q2
0 n m
• Conditionnement de AY
A T E Q1R A ER T Q1T AY ER T Q1T Q1 ER T
110
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.3 Réduction
Techniques d’optimisation 2018
x2
pZ
pN
Ax=b
pB
x1
111
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.4 Projection
Techniques d’optimisation 2018
1.2.4 Projection
112
1 Bases théoriques Max CERF
1.2 Contraintes linéaires
1.2.4 Projection
Techniques d’optimisation 2018
1.2.4 Projection
Projection orthogonale sur un hyperplan
La projection orthogonale de x0 Rn sur l’hyperplan d’équation Ax=b est le point x solution de
Sommaire
1. Bases théoriques
1.1 Définitions
1.2 Contraintes linéaires
1.3 Contraintes non linéaires
1.3.1 Direction admissible
1.3.2 Déplacement admissible
1.4 Conditions d’optimalité
114
1 Bases théoriques Max CERF
1.3 Contraintes non linéaires
1.3.1 Direction admissible
Techniques d’optimisation 2018
Indépendance linéaire
115
1 Bases théoriques Max CERF
1.3 Contraintes non linéaires
1.3.1 Direction admissible
Techniques d’optimisation 2018
• x0 point admissible : c E (x 0 ) 0
c(x 0 ) 0 (contraintes actives en x0)
c I (x 0 ) 0
• Contraintes actives linéarisées : ĉ 0 (x) c(x 0 ) c(x 0 ) T (x x 0 ) avec c(x0)=0
ĉ 0 (x) 0 c(x 0 ) T x c(x 0 ) T x 0 Ax b
On se ramène au cas de contraintes linéaires avec A = c(x0)T (gradient des contraintes actives)
116
1 Bases théoriques Max CERF
1.3 Contraintes non linéaires
1.3.1 Direction admissible
Techniques d’optimisation 2018
1.3.1 Exemple
Indépendance linéaire
• 1 contrainte égalité + 1 contrainte inégalité dans R2
x1 2 c1 ( x ) x 2 x 12 0
x R 2
x2 c 2 ( x ) x 12 x 2 1 1 0
2,0
1
• En x
1
1,5
2 2
c1 c2
1 0 1,0
linéairement indépendants
0,5
0
• En x
0 0,0
-2,0 -1,5 -1,0 -0,5 0,0 0,5 1,0 1,5 2,0
0 0
c1 c2
1 2 -0,5
117
1 Bases théoriques Max CERF
1.3 Contraintes non linéaires
1.3.1 Direction admissible
Techniques d’optimisation 2018
Applicabilité
• Applicable aux contraintes inégalité et aux contraintes égalité linéaires
d
d
118
1 Bases théoriques Max CERF
1.3 Contraintes non linéaires
1.3.1 Direction admissible
Techniques d’optimisation 2018
x
d
119
1 Bases théoriques Max CERF
1.3 Contraintes non linéaires
1.3.1 Direction admissible
Techniques d’optimisation 2018
Propriété
Toute direction admissible à la limite en x appartient au cône des directions en x
Preuve :
c E (xk ) 0 xk x
(xk) suite admissible de limite x directions dk
c I (xk ) 0 xk x
c contrainte active en x : c(x)=0 c(xk ) c(x) c(x)T (xk x) o xk x
c(xk ) c(x) o xk x c(xk ) 0 (égalité)
c(x)T d k c(x)T d lim
xk x xk x k xk x 0 (inégalité)
120
1 Bases théoriques Max CERF
1.3 Contraintes non linéaires
1.3.1 Direction admissible
Techniques d’optimisation 2018
1.3.1 Qualification
Caractérisation des directions admissibles
• Le cône des directions D(x) au point x admissible est simple à manipuler en pratique.
c E (x) T d 0 pour toutes les contraintes égalité
d D( x )
c I (x) T d 0 pour les contraintes inégalité actives en x
Principes
Elimination directe
Réduction généralisée
Restauration
122
1 Bases théoriques Max CERF
1.3 Contraintes non linéaires
1.3.2 Déplacement admissible
Techniques d’optimisation 2018
• Réduction généralisée
On linéarise les contraintes en x0.
On applique la méthode de réduction des contraintes linéaires (matrices Y et Z).
On corrige le déplacement pour prendre en compte les non-linéarités.
123
1 Bases théoriques Max CERF
1.3 Contraintes non linéaires
1.3.2 Déplacement admissible
Techniques d’optimisation 2018
le problème devient : min (x libre ) avec ( x libre ) f ( x lié , x libre ) f ( ( x libre ), x libre )
x libre R n m
def
Difficultés
• Il faut faire attention au domaine de définition des variables (contraintes implicites)
voir exemples
124
1 Bases théoriques Max CERF
1.3 Contraintes non linéaires
1.3.2 Déplacement admissible
Techniques d’optimisation 2018
1.3.2 Exemples
3,0
contrainte
Elimination directe lignes de f2,0
• Exemple 1 : min x 12 x 22 sous x 12 x 22 1
x1 , x 2
1,0
2 2 2 2
Elimination de x1 : x 1 x 2 1 x 1 1 x 2 x*
0,0
min 1 2x 22 x2 0 -3,0 -2,0 -1,0 0,0 1,0 2,0 3,0
x2 -1,0
x1 1
Solution correcte : x2 0
-2,0
-3,0
1,5
• Exemple 2 : min x 2
1
2
x sous x
2
2
1 4x 2
2 1 contrainte
x1 , x 2
lignes de f 1,0
2 2 2 2
Elimination de x1 : x 1 4x 2 1 x 1 1 4x 2 x*
0,5
min 1 3x 22 x2
x2
0,0
Solution incorrecte -1,5 -1,0 -0,5 0,0 0,5 1,0 1,5
2 2
Contrainte implicite : x 1 1 4x 00 2 -0,5
1 1
x2 -1,0
2 2
à prendre en compte explicitement dans la résolution -1,5
125
1 Bases théoriques Max CERF
1.3 Contraintes non linéaires
1.3.2 Déplacement admissible
Techniques d’optimisation 2018
x1
• Etape de restauration
Les contraintes actives (non linéaires) ne sont pas respectées en x1. p1
Le déplacement p2 restaure un point admissible à partir du point x1.
linéarisation des contraintes en x1 x0
résolution d’un système sous-déterminé c(x)=0
On obtient un nouveau point : x2 = x1 + p2
c(x)=c1
• Le point x2 doit être : - admissible pour l’ensemble des contraintes (actives et inactives en x0)
- meilleur que x0 (f(x2) < f(x0))
126
1 Bases théoriques Max CERF
1.3 Contraintes non linéaires
1.3.2 Déplacement admissible
Techniques d’optimisation 2018
• Le nouveau point x1 = x0 + p1 x0 p1 x1
- est meilleur que x0 : f(x1) < f(x0)
- ne vérifie pas les contraintes : c(x1) = c1 0
127
1 Bases théoriques Max CERF
1.3 Contraintes non linéaires
1.3.2 Déplacement admissible
Techniques d’optimisation 2018
128
1 Bases théoriques Max CERF
1.3 Contraintes non linéaires
1.3.2 Déplacement admissible
Techniques d’optimisation 2018
1.3.2 Restauration
Résolution du système
p2
c(x)=0
p1 x1
x0
c(x)=c1
c(x1)
c(x0) 129
1 Bases théoriques Max CERF
1.3 Contraintes non linéaires
1.3.2 Déplacement admissible
Techniques d’optimisation 2018
1.3.2 Restauration
Itérations
• La résolution est basée sur une linéarisation du système en x 1.
130
1 Bases théoriques Max CERF
1.3 Contraintes non linéaires
1.3.2 Déplacement admissible
Techniques d’optimisation 2018
1.3.2 Restauration
Illustrations
Restauration en plusieurs itérations : p2 , p3 Restauration infructueuse (non linéarité)
c(x)=0 p3 c(x)=0 p2
c(x)=c1 x0 p2 c(x)=c1 x0
p1 p1
x1 x1
p2
c(x)=0 lignes de f
x0 p1 x1
131
1 Bases théoriques Max CERF
1.3 Contraintes non linéaires
1.3.2 Déplacement admissible
Techniques d’optimisation 2018
Correction d’ordre 2
• On corrige la direction de déplacement pour prendre en compte la non-linéarité des contraintes.
p1 = pas d’ordre 1 (en supposant des contraintes linéaires)
p2 = pas d’ordre 2 (correction des non linéarités constatées en x1 = x0 + p1)
T
A1p 2 b1 avec A 1 c(x 0 ) p 2 A1T A1A1T b1
1
b1 c(x 0 p1 )
c(x0) 132
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
Techniques d’optimisation 2018
Sommaire
1. Bases théoriques
1.1 Définitions
1.2 Contraintes linéaires
1.3 Contraintes non linéaires
1.4 Conditions d’optimalité
1.4.1 Dualité
1.4.2 Problème sans contraintes
1.4.3 Problème avec contraintes
1.4.4 Problème linéaire
1.4.5 Problème quadratique
133
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
1.4.1 Dualité
Problème dual
- Dualité faible
- Saut de dualité
- Point col
- Dualité forte
Programmation linéaire
- Problème primal
- Problème dual
134
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
1.4.1 Dualité
Problème avec contraintes égalité
minn f(x) sous c(x) 0 m contraintes d’égalité (= contraintes actives)
x R
Dualité
Difficulté de résolution due aux 2 objectifs antagonistes :
• Minimiser le critère f(x) min f ( x )
x
Méthodes duales
Prise en compte des contraintes avec pondération dans la fonction coût
• Critère augmenté pondération = pénalisation des contraintes
• Lagrangien pondération = multiplicateurs de Lagrange
• Lagrangien augmenté pondération = pénalisation + multiplicateurs
135
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
Critère augmenté
1 2
f ρ (x) f(x) ρ c(x)
2
= coefficient de pénalisation > 0 Pénalise la violation des contraintes
Pondération critère-contraintes
136
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
1.4.1 Exemple
Critère augmenté
1 2 1 2 1 2
min x 2 x 12 sous x 1 1 f x1 , x 2 x2 x 12 x1 1 x *( ) 0
x ,x 2
1 2 2 2 1
1 2 =1 =10
f (x) x 2 x 12 x* 1 0 2,0 2,0
2 1,5 1,5
c( x ) x 1 1 1,0 1,0
0,5 0,5
=0 0,0 0,0
2,0
-1,0 -0,5
-0,5 0,0 0,5 1,0 1,5 2,0 2,5 -1,0 -0,5
-0,5 0,0 0,5 1,0 1,5 2,0 2,5
1,5
-1,0 -1,0
1,0
-1,5 -1,5
0,5
-2,0 -2,0
0,0
-1,0 -0,5 0,0 0,5 1,0 1,5 2,0 2,5
=2 =100
-0,5 2,0 2,0
1.4.1 Exemple
Problème de la boîte
• Réaliser une boîte cylindrique de volume donné V0 et de surface S minimale
r
Dimensions : hauteur = h , rayon = r
Surface : S 2 r 2 2 rh
Volume : V r 2 h
h
• Formulation avec contrainte (en divisant S et V par )
min f (h, r ) 2r 2 2rh sous c(h, r ) r 2 h 2v 0 0 avec V0 2 v0
h ,r
Solution exacte
2v 0
• La contrainte permet d’éliminer h : h
r2
2 4v 0 1
3
1
En reportant dans la fonction coût : min 2r r v0 h 2v 0 3
r r
2
• Valeur optimale du coût : f 6v 0 3
138
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
1.4.1 Exemple
Solution par pénalisation
• Formulation avec contrainte
r
min f (h, r ) 2r 2 2rh sous c(h, r ) r 2 h 2v 0 0
h ,r
• Formulation pénalisée h
1
min f (h, r ) 2r 2 2rh (r 2 h 2v 0 ) 2
h ,r 2
f
0 2r r 2 (r 2 h 2v 0 ) 0
Conditions de minimum : h
f
0 4r 2h 2 rh (r 2 h 2v 0 ) 0
r
139
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
1.4.1 Exemple
Application numérique
• Volume : v0 = 1000
r
r h f c
0.001 9.641582 19.28316 557.761 792.565 Pénalisation faible
0.01 9.966442 19.93288 595.980 979.933 Contrainte mal respectée
0.1 9.996664 19.99333 599.600 997.999 Écart important à la solution exacte
1 9.999667 19.99933 599.960 999.800
10 9.999967 19.99993 599.996 999.980
100 9.999997 19.99999 600.000 999.998 Pénalisation forte
Contrainte bien respectée
Écart faible à la solution exacte
140
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
1.4.1 Lagrangien
Problème avec contraintes égalité et inégalité
Multiplicateurs de Lagrange
1 multiplicateur par contrainte
• Rp multiplicateurs des contraintes d’égalité
• Rq multiplicateurs des contraintes d’inégalité
141
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
142
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
1.4.1 Exemple
Lagrangien augmenté
• Fonction de 2 variables
1 minimum en x* = (1 0)
min x 22 x12 sous x1 1
x1 , x 2 2
*=1
• Critère augmenté
1 2 1 2 minimum en x * ( )
f x1 , x 2 x 2 x 12 x1 1 0
2 2 1
• Lagrangien augmenté
1 2 1 2
minimum en x * ( , )
L x1 , x 2 , x 2 x12 x1 1 x1 1 0
2 2 1
=2 =1
1,5
1,0
0,5
=0
0,0
2,0 4,0 6,0 8,0 10,0 12,0 14,0 143
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
1.4.1 Exemple
Lagrangien augmenté
1 2 1 2 1 2
min x 2 x 12 sous x 1 1 L x1 , x 2 , x2 x 12 x1 1 x1 1 x *( ) 0
x ,x 2
1 2 2 2 1
1 2 =1 , =1 =10 , =1
f (x) x 2 x 12 x* 1 0 2,0 2,0
2 1,5 1,5
c( x ) x 1 1 * 1 1,0 1,0
0,5 0,5
=0 0,0 0,0
2,0
-1,0 -0,5
-0,5 0,0 0,5 1,0 1,5 2,0 2,5 -1,0 -0,5
-0,5 0,0 0,5 1,0 1,5 2,0 2,5
1,5
-1,0 -1,0
1,0
-1,5 -1,5
0,5
-2,0 -2,0
0,0
-1,0 -0,5 0,0 0,5 1,0 1,5 2,0 2,5
=2 , =1 =100 , =1
-0,5 2,0 2,0
-1,0 1,5 1,5
1,0 1,0
-1,5
0,5 0,5
-2,0
0,0 0,0
-1,0 -0,5
-0,5 0,0 0,5 1,0 1,5 2,0 2,5 -1,0 -0,5
-0,5 0,0 0,5 1,0 1,5 2,0 2,5
-1,0 -1,0
-1,5 -1,5
-2,0 -2,0
144
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
1.4.1 Exemple
Lagrangien augmenté
=10 2,0
=10 =10
2,0 2,0
1,5 1,5 1,5
1,0 1,0 1,0
0,5 0,5 0,5
0,0 0,0 0,0
-1,0 -0,5
-0,5 0,0 0,5 1,0 1,5 2,0 2,5 -1,0 -0,5
-0,5 0,0 0,5 1,0 1,5 2,0 2,5 -1,0 -0,5
-0,5 0,0 0,5 1,0 1,5 2,0 2,5
-1,0 -1,0 -1,0
-1,5 -1,5 -1,5
-2,0 -2,0 -2,0
145
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
Concavité - Convexité
Preuve : on note : =( , )
• L(x, 1+(1 ) 2) = L(x, 1) + (1 )L(x, 2) car L linéaire en et
w( 1+(1 ) 2) w( 1) + (1 )w( 2) pour le minimum/x de chaque membre
w concave
• Si 1et 2 Xw, w( 1+(1 ) 2) w( 1) + (1 )w( 2) >
1+(1 ) 2 Xw
Xw convexe
146
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
L(x, λ , μ) 0 x(λ , μ)
max L(x, λ , μ) sous x
dual de Wolfe
x R n , λ R p ,μ R q (λ , μ) X w , μ 0
1.4.1 Exemple
Fonction duale
1 2
• Problème primal : min x2 x12 sous x1 1
x ,x
1 2 2
1 2
• Lagrangien : L( x , ) x2 x 12 x1 1
2
1
• Solution : x* , * 1
0
L x1 0 x1
• Fonction duale : w(λ ) min L(x, λ) 0
x x x2 0 x2 0
1 2 x1
w( ) avec
2 x2 0
max w ( ) w
• Problème dual : 0 1
1
• Solution : * 1 , x*
0
148
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
Dualité et admissibilité
• Si le problème primal est non borné, le problème dual est non admissible.
• Si le problème dual est non borné, le problème primal est non admissible.
Saut de dualité
Le saut de dualité est la différence entre la solution du problème primal et du problème dual.
f(x*) w(λ * , μ*) 0
Dans le cas général n’est pas nul, il n’est pas équivalent de minimiser f ou maximiser w.
149
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
Caractérisation
L(x*, λ*, μ*) min L(x, λ*, μ*)
x
(x*, *, * 0) est un point col du lagrangien si et seulement si c E (x*) 0
c I (x*) 0
μ * c I (x*) 0
Théorème de la dualité forte
Le lagrangien admet un point col (x*, *, *) si et seulement si le saut de dualité est nul.
150
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
L(x, )
(x*, *)
151
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
(λ, μ) X w c ATλ μ 0
T
L(x, λ, μ) b w(λ , μ) λTb
153
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
154
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
• Pour un problème linéaire, il est équivalent de résoudre le problème primal ou problème dual.
Les solutions du problème primal et du problème dual ont le même coût dualité forte
155
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
n
bi yi
• Une contrainte = de niveau bi donne une variable yj R de coût bi : a ij x j bi
j 1
yi R
généralisation à un problème linéaire quelconque (signe des variables, sens des contraintes)
156
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
A1 x 1 B1 x 2 C1 x 3 b1 , b1 R m 1
m1 égalités
A 2 x1 B2 x 2 C 2 x 3 b 2 , b 2 R m 2
m2 inégalités inférieur
m
sous A 3 x 1 B3 x 2 C 3 x 3 b 3 , b 3 R m3 inégalités supérieur
3
min c1T x 1 c T2 x 2 c 3T x 3
x 1 R n1 x1 0 n1 variables positives
x 2 R n2
x 3 R n3 x2 0 n2 variables négatives
n
x3 R 3
n3 variables libres
A1T y1 A T2 y 2 A 3T y 3 c1 , c1 R n 1
n1 inégalités inférieur
B1T y1 B T2 y 2 B3T y 3 c 2 , c 2 R n 2
n2 inégalités supérieur
T T T n
T
max b y1 b y 2 T T
b y3 sous C1 y 1 C 2 y 2 C 3 y 3 c 3 , c 3 R 3
n3 égalités
1 2 3
y1 R m1 y1 R m 1
m1 variables libres
y 2 R m2
y 3 R m3 y2 0 m2 variables négatives
y3 0 m3 variables positives
157
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
• La fonction duale est définie par : w(λ , μ) min L(x, λ, μ) bornée si les coefficients
x
de x1,x2,x3 sont nuls
158
1 Bases théoriques Max CERF
1.4 Conditions d’optimalité
1.4.1 Dualité
Techniques d’optimisation 2018
y1 1
A1T y1 A2T y 2 A3T y3 c1 1 c1 car 1 0
• En posant : y2 2 0 B1T y1 B2T y 2 B3T y3 c2 2 c2 car 2 0
y3 3 0 C1T y1 C 2T y 2 C3T y3 c3
1.4.1 Exemple
Correspondance primal-dual
• Problème primal (P)
x 1 3x 2 5
2x 1 x 2 3x 3 6
(P) min x 1 2x 2 3x 3 sous
x1 , x 2 , x 3 x3 4
x 1 0, x 2 0, x 3 R
160