Académique Documents
Professionnel Documents
Culture Documents
Jean-Pol Guillement
Departement de Mathematiques
Nantes 2010/2011
2
Table des matieres
Introduction 5
1 Rappels 7
1.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Formules de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Condition dordre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.1 Equation dEuler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Conditions dordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.1 Condition de Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.2 Condition suffisante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5 Extrema lies, multiplicateurs de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . 8
2 Programmation lineaire 9
2.1 Generalites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Probleme sous forme standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3 Caracterisation des sommets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.4 Methode du simplexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3 Programmation en dimension 1 11
3.1 Generalites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.2 Methode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.3 Interpolation quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.4 Methode par decoupage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Bibliographie 24
Introduction
Ceci un resume des principaux resultats du cours doptimisation. Il est autorise aux controles.
6 Introduction
Chapitre 1
Rappels
1.1 Notations
Si f est une fonction reguliere de E = Rn R, on note sa derivee en x0 par fx0 0 ou f 0 (x0 )( L(E, R)),
sa derivee seconde en x0 par fx000 ou f 00 (x0 )( B(E, R)), son gradient en x0 par fx0 ou f (x0 )( E),
sa matrice hessienne par 2 fx0 . La matrice Hessienne peut etre vue comme une matrice symetrique
n n, comme un operateur lineaire de E dans E ou comme une forme bilineaire symetrique sur E.
1
f (x0 + h) = f (x0 ) + f 0 (x0 )h + f (x0 )(h, h) + (h)khk2 .
2
Si f est de classe C 2 on a :
Z 1
1
f (x0 + h) = f (x0 ) + ht .f x0 + ht .2 fx0 .h + (1 t)ht .2 f (x0 + th).h dt
2 0
f (x ) + 1 1 (x ) + ... + m m (x ) =0
Chapitre 2
Programmation lineaire
2.1 Generalites
2.2 Probleme sous forme standard
2.3 Caracterisation des sommets
2.4 Methode du simplexe
10 Programmation lineaire
Chapitre 3
Programmation en dimension 1
3.1 Generalites
3.2 Methode de Newton
3.3 Interpolation quadratique
3.4 Methode par decoupage
12 Programmation en dimension 1
Chapitre 4
3. On suppose que f est deux fois derivable dans . Alors f est convexe sur K si et seulement si
f (x)(y x, y x) 0, x, y K
f (x)(y x, y x) > 0, x, y K, x 6= y
f 0 (x )(x) = 0, x K.
f 0 (x ) = 0
(fx fy , x y) kx yk2 x, y E
(2 fx0 x, x) kxk2 , x, x0 E
fx = 0
(P ) f (x ) = inf f (x)
xE
Rx = P Qt v
(x Px , y Px ) 0, y K.
kPx Py k kx yk
16 Prise en compte de la convexite
Chapitre 5
Les algorithmes operent generalement pour des fonctionnelles assez generales, mais la convergence
(theorique) nest assuree que pour des fonctionnelles de classe C 1 ou C 2 , convexes ou elliptiques.
Les solutions de (P ) etant aussi solution de fx = 0, les algorithmes peuvent se voir comme des
algorithmes de resolution de cette equation.
Note
1
Si f est une fonctionnelle quadratique f (x) = (Ax, x) (b, x) dont la matrice A est symetrique
2
definie positive, la methode de la relaxation converge et ses iterations sont identiques a celles de la
methode de Gauss-Seidel pour la resolution de lequation Ax = b.
Description
On part de u0 quelconque. Connaissant uk , on calcule fuk et uk+1 = uk k fuk avec k solution
de f (uk k fuk ) = inf (uk fuk ). En principe on trouve k > 0.
18 Optimisation sans contrainte
Remarque
Cette methode ne peut pas etre optimale car le cheminement des uk est celui dune ligne brisee faisant
des angles droits. En effet, deux gradients consecutifs sont orthogonaux car uk+1 correspondant au
minimum de f (uk fuk ), la derivee de f dans cette direction sannule en uk+1 . Et donc le gradient
de f en uk+1 lui est orthogonal.
Remarque
Cette methode est penalisante pour les grands systemes du fait de la necessite de calculer 2 f , de la
stocker, et de resoudre le systeme
2 fuk dk = fuk
Description generale
On part de u0 quelconque. On suppose qua letape k, on a calcule u1 , . . . , uk tels que ful 6= 0, l=
0, . . . , k. (sinon on a trouve la solution de fx = Ax b = 0). On pose
Formules diterations
On part de u0 quelconque. On pose d0 = f (u0 ).
Si d0 = 0, cest termine, on a x = u0 .
Sinon on pose
(fu0 , d0 )
0 =
(Ad0 , d0 )
et
u1 = u0 0 d0 .
De facon generale, si u1 , d1 , . . . , uk , dk sont calcules, alors ou bien f (uk ) = 0, et alors cest termine,
x = uk , ou alors on pose :
kf k2
dk
= fuk + kfuuk k2 dk1
k1
(f ,d )
k = (Adukk,dkk)
uk+1 = uk k dk
f (uk dk )
ouvert convexe,
K = {x , i (x) 0, i = 1, . . . , m} =
6
i : R convexes, derivables en x .
1. Si x est solution de (
f (x ) = inf f (x)
(P ) xK
x K
et si les contraintes sont qualifiees au sens suivant :
les i sont affines ou K tel que i () < 0 pour les i non affines
alors il existe des multiplicateurs de Lagrange i 0, verifiant les relations dites de Kuhn-Tucker
Pm
f 0 (x ) + i 0i (x )
1 =0
i i (x ) = 0, i = 1, . . . , m
(fx , x x ) 0 x K
qui implique que fx fait un angle avec les directions interieures x x .
2
Les relations de Kuhn-Tucker precisent que
X
fx = i i (x ), i 0
Dautre part, les relations de Kuhn-Tucker expriment que x est solution du probleme de minimisation
sans contrainte de la fonctionnelle
x f (x) + m
1 i (x )i (x)
dont la solution correspond a lannulation de la derivee. On verra plus loin que cette propriete est a
la base des methodes de dualite.
f (x1 , x2 ) = x1
1 (x1 , x2 ) =x2
x2 si x1 0
2 (x1 , x2 ) =
x2 + x21 si x1 0
K = {x, 1 0, 2 0} = {x, x1 0, x2 = 0}
Les contraintes ne sont pas qualifiees, le minimum de f est en (0, 0), et en ce point,
6.3 Point-selles
Soient E et M deux espaces normes et L : E M R.
(x , ) E M est un point-selle si x est un minimum pour x L(x, ) et si est un maximum
pour L(x , ).
En un tel point on a
inf sup L(x, ) = sup L(x , ) = L(x , ) = inf L(x, ) = sup inf L(x, )
xE M M xE M xE
6.4 Lagrangien
Le Lagrangien associe au probleme (P ) est la fonction de E Rm
+ R definie par
m
X
L(x, ) = f (x) + i i (x)
1
6.7.1 Demarche
Partant de 0 Rm
+ quelconque , on calcule une double suite (x , xk ) de la facon suivante :
6.7.3 Calcul de Gk
Lors de la demonstration du theoreme precedent on etablit que G est derivable et que
G = (i (x ))i .
Pour calculer Gk , on doit donc calculer au prealable xk . On posera xk = xk . Ce point est obtenu
par une methode doptimisation sans contrainte comme solution de
X X
f (xk ) + ki i (xk ) = inf (f (x) + ki i (x))
xE
Convergence : Si tout se passe bien la suite ((xk , k ))k converge vers un point-selle de L, (x , ), x
etant la solution de (P ).
K = {x E, Cx d}
Alors si
2
0<<
kCk2
la suite (xk ) de la methode dUzawa converge vers lunique solution de (P ).
En plus, si le rang de C est m, la suite (k ) converge egalement vers lunique solution du probleme
dual (Q).
Bibliographie