Vous êtes sur la page 1sur 10

Mini-cours d’optimisation

G. Vial 2 d ecembre´

2008

R´esum´e

Le but de ces quelques pages est de rassembler, de maniere` synthetique,´ les princi- paux r esultats´ g en´ eraux´ d’optimisation en dimension finie (avec ou sans contrainte). Il ne s’agit pas de donner des preuves compl etes` des resultats´ dans le cadre le plus g en´ eral,´ mais plutotˆ des id ees´ de d emonstration´ dans des cas particuliers, ainsi que des interpr etations´ g eom´ etriques´ des resultats.´ Ce texte s’adresse a` un large public, de formation en math ematiques´ ou dans d’autres sciences. Pour une pr esentation´ plus detaill´ ee´ et des preuves completes,` on renvoie a` la bibliographie [1, 2, 3, 4].

1 Quelques rappels de calcul diff erentiel´

On rappelle ici les formules de Taylor a` l’ordre 1 et 2 pour une fonction f : R d R.

Ordre 1 : si f est de classe C 1 , alors

f ( x + h )

= f ( x ) + f ( x ) , h + O( h ) .

Ordre 2 : si f est de classe C 2 , alors

f

1

( x + h ) = f ( x ) + f ( x ) , h + 2 2 f ( x ) h , h + O( h 2 ) .

Remarque 1 Ces formules sont valides des` que le segment reliant x a` x + h est contenu dans l’ensemble de definition´ de la fonction f . Il est d’ailleurs int eressant´ de remarquer que la fonction d’une variable r eelle´ t f ( x + th ) a pour d eriv´ ee´ en t = 0 la quantit e´ f ( x ) , h et sa deriv´ ee´ seconde en t = 0 s’ ecrit´ 2 f ( x ) h , h . Ce constat permet de rame- ner l’etude´ des probl emes` multi-dimensionnels a` des probl emes` mono-dimensionnels via les deriv´ ees´ directionnelles. Il faut cependant garder a` l’esprit que la connaissance de f dans chaque direction n’est parfois pas suffisante pour comprendre pleinement son com- portement (on se convaincra par exemple que la fonction ( x , y ) → | xy | est convexe dans chaque direction autour du point ( 0, 0 ) mais qu’elle n’est convexe dans aucun voisinage de ce point).

Remarque 2 Le vecteur gradient f ( x ) R d est defini´ comme le vecteur des d eriv´ ees´

partielles. La matrice hessienne est la matrice sym etrique´ condes :

de taille d × d des d eriv´ ees´ se-

(1)

f ( x ) =

i ( x ) 1 i d

f

x

et 2 f ( x ) =

2 f x i

x j ( x ) 1 i , j d

.

En fait, la notion de gradient n’est pas intrinseque,`

la d efinition´

elle d epend´

du produit scalaire choisi :

de Riesz applique´ a`

g en´ erale´

de f ( x ) resulte´

du theor´ eme`

de representation´

2

Mini-cours d’optimisation

la differentielle´ de f en x . Toutefois, en dimension finie, on fixe le plus souvent le produit scalaire canonique et les formules (1) definissent´ le gradient et la hessienne tout aussi bien. Il en va de m emeˆ pour la hessienne.

2 Remarques sur l’existence et l’unicit e´

( )

On considere` le probleme`

de minimisation suivant :

Trouver x dans A tel que f ( x ) = min f ( x ) ,

x A

ou` A R d est un sous-ensemble de R d et f : A R une fonction continue. La question de l’existence et de l’unicit e´ d’un minimiseur x pour le probleme` ( ) est delicate.´ On peut retenir comme principe g en´ eral´ que la compacit e´ fournit des r esultats´ d’existence, et la convexite´ un cadre favorable pour l’unicite.´

Th eor´ eme` tion.

1 Si f est continue et A est compact, alors le probl`eme ( ) admet au moins une solu-

Preuve. On considere` ( x n ) une suite minimisante, i.e. x n A et f ( x n ) converge vers la borne inf erieure´ inf A f de f sur A ( eventuellement´ egale´ a` ). Par compacit e,´ on peut supposer que ( x n ) est convergente, quitte a` extraire ; notons x la limite. Par continuite´ de f , il vient que inf A f = f ( x ) = min A f .

que inf A f = f ( x ∗ ) = min A f . Th

Th eor´ eme`

2 Si f est continue et coercive, i.e. infinie a` l’infini :

f ( x ) = +,

lim

x

alors le probl`eme ( ) admet au moins une solution.

Preuve. Soit x 0 A et m = f ( x 0 ) . Par coercivit e´ de f , il existe une boule B centree´ en x 0 en dehors de laquelle f est strictement superieure´ a` m . Ainsi les bornes inf erieures´ de

f sur A et sur A B sont les m emes.ˆ Le r esultat´ pr ec´ edent´ appliqu e´ a` A B , compact,

permet de conclure.

appliqu e´ a` A ∩ B , compact, permet de conclure. Th eor´ eme` solution. 3

Th eor´ eme` solution.

3 Si A est convexe et f strictement convexe, alors le probl`eme ( ) admet au plus une

Preuve. Supposons que x et x soient deux solutions distinctes, alors x = ( x

1

2

A et, par stricte convexite´ de f ,

f ( x ) < f ( x

1

)

+ f ( x )

2

2

= min f ,

A

qui fournit une contradiction.

∗ 1 ∗ + x ) /2 ∈ 2
1 ∗ + x ) /2 ∈
2

3 Optimisation sans contrainte

Dans ce paragraphe, on suppose que l’ensemble des contraintes A est R d tout entier.

On dispose alors de conditions necessaires´

d’optimalite´ locale :

Mini-cours d’optimisation

3

Th´eor`eme 4 ( Equation d’Euler) Soit f C 1 (R d , R) et x R d . Si f admet en x un mini-

mum local sur R d , alors

´

(2)

f ( x ) = 0.

L’´equation pr´ec´edente est appel´ee equation´ critique de f .

d’Euler et toute solution de (2) est appel´ee point

Preuve. Fixons u R d et posons h = tu pour t > 0. La formule de Taylor s’ecrit´ a` l’ordre 1 autour de x :

f

( x + h ) = f ( x )

+ f ( x ) , h + O( h ) ,

soit encore

f ( x + tu ) f ( x )

t

= f ( x ) , u + O( 1 ) .

Comme x est un minimiseur local de f , la quantite´ pr ec´ edente´ En faisant tendre t vers 0, il vient

est positive pour t petit.

(3)

u R d ,

f ( x ) , u 0.

Le vecteur u etant´

quelconque, on en d eduit´

f ( x ) = 0.

quelconque, on en d eduit´ ∇ f ( x ∗ ) = 0. Remarque 3 L’in

Remarque 3 L’in egalit´

tions autour de x dans toutes les directions. On verra que cette in egalit´

en presence´

e´ (3) est valable pour tout u car il est permis d’effectuer des varia-

e´ est encore valable

de contraintes, mais seulement pour les directions admissibles.

local, qui ne distingue pas les minima

locaux du minimum global. Par ailleurs, minima et maxima ne sont pas discrimines´ (ni des points cols/selles ou des points d’inflexion). Toutefois, on a la condition d’ordre 2 suivante :

Notons que l’ equation´

d’Euler est un resultat´

Th´eor`eme 5 (Condition n´ecessaire d’ordre 2) Soit f C 2 (R d , R) et x R d . Si f admet en x un minimum local sur R d , alors

(4)

2 f ( x ) est semi-d´efinie positive.

Preuve. On reprend la preuve du theor´ eme` prec´ edent.´ On a d ej´ a` f ( x ) = 0 et la formule

de Taylor a` l’ordre 2 permet d’ ecrire´

pour toute direction u R d ,

0 2 f ( x ) u , u + O( 1 ) ,

d’ou` le resultat´

par passage a` la limite t 0.

, d’ou` le resultat´ par passage a` la limite t → 0. Les conditions n ecessaires´

Les conditions n ecessaires´ prec´ edentes´ ne fournissent malheureusement pas de con-

dition suffisante, le cas ou` la hessienne est semi-d efinie´ positive sans etreˆ d efinie´ positive

restant indetermin´

e´ :

Th´eor`eme 6 (Condition suffisante d’optimalit´e) Soit f C 2 (R d , R) et x R d . On sup- pose

f ( x ) = 0 et 2 f ( x ) est d´efinie positive,

alors f admet en x un minimum local.

4

Mini-cours d’optimisation

Preuve. La formule de Taylor a` l’ordre 2 permet d’ ecrire´

f ( x + h ) f ( x ) = 2 f ( x ) h , h + O( h 2 ) .

Or 2 f ( x ) h , h λ min h 2 ou` λ min > 0 designe´ la plus petite valeur propre de la matrice hessienne. On en deduit´ que pour h assez petit, f ( x + h ) f ( x ) 0.

f ( x ∗ + h ) − f ( x ∗ ) ≥ 0. Exemple

Exemple 1 On consid ere` le probl eme` de la r egression´ polynomiale au sens des moindres

carres.´ Etant donne´ un nuage de points ( x i , y i ) 1 i N et un entier n , on cherche un po-

lyn omeˆ p n de degre´ inf erieur´ ou egal´ a` n qui l’approche au mieux au sens suivant :

´

N

i = 1

| y i p n ( x i )| 2 est minimale.

Si l’on recherche le polyn omeˆ p n sous la forme p n = a 0 + a 1 X + · · · + a n X n , alors le probleme` de minimisation se recrit´

(5)

a

min + 1 Φ( a ) avec Φ( a ) = Va y 2

R n

2

,

ou` la matrice de Vandermonde V et les vecteurs a , y sont d efinis´

V =

1

1

.

.

.

.

.

.

1

x

x

.

.

1

2

x

x

.

.

2

1

2

2

·

·

·

·

·

·

x N x 2 N · · ·

x

x

.

.

n

1

n

2

x

n

N

a =

a

a

.

.

.

.

.

.

a

0

1

n

par

y =

y

y

.

.

.

.

.

.

1

2

y

N

.

Le probleme` (5) est un probleme` d’optimisation sans contrainte, et releve` des resultats´ des paragraphes prec´ edents.´

La fonction Φ est continue et coercive :

Φ( a ) = Va 2 2 Va , y + y 2 α a 2 2 β a + γ ,

o u` α est la plus petite valeur propre de la matrice d efinie´

et γ = y 2 . On est donc assure´ de l’existence pour le probleme`

positive 1 V T V , β = V y

(5).

La fonction Φ est de classe C 2 et

Φ( a ) = 2 ( V T Va V T y ) ,

2 Φ( a ) = 2 V T V .

La hessienne de Φ est definie´

positive pour tout a R n + 1 , donc Φ est strictement

convexe sur R n + 1 , ce qui assure l’unicite´ pour (5).

L’ equation´

d’Euler s’ecrit´

V T Va = V T y ,

qu’on appelle syst`eme des equations´ normales. Signalons qu’on peut aussi resoudre´ le probl eme` (5) a` l’aide de la d ecomposition´ QR .

1 La matrice V T V est d efinie´

positive d es` que V est injective, i.e. d es` qu’au moins n + 1 valeurs des x i sont

distinctes. Ce n’est pas une forte restriction quand N est tr es` grand devant n , qui est la situation courante.

Mini-cours d’optimisation

5

4 Optimisation sous contraintes

Afin de pouvoir ecrire´ A sous la forme g en´ erale´

des conditions d’optimalite,´ on ecrit´

d’ egalit´´

es-in´egalit´es :

l’ensemble des contraintes

A = { x R d ; g 1 ( x ) = 0,

, g p ( x ) = 0 et h 1 ( x ) 0,

, h q ( x ) 0 } ,

ou` les fonctions g i et h j sont d efinie´

de R d dans R.

4.1 Contraintes de type egalit´

On se place dans ce paragraphe dans le cas q = 0 et donc

A = { x R d ; g 1 ( x ) = 0,

, g p ( x ) = 0 } .

Th´eor`eme 7 (extr´ema li´es) Soit f , g i : R d R des fonctions de classe C 1 . On suppose que f admet en x A un minimum local sur A et que

(6)

la famille g 1 ( x ) ,

,

g p ( x ) est libre.

Alors il existe des multiplicateurs de Lagrange λ 1 ,

, λ p R tels que

(7)

f ( x ) +

p

i = 1

λ i g i ( x ) = 0.

L’´equation (7) est appel´ee equation´ tion des contraintes.

d’Euler-Lagrange , la condition (6) condition de qualifica-

Preuve. On presente´ ici une preuve dans le cas p = 1 et d = 2, pour en limiter la technicite,´

mais aucune difficult e´ conceptuelle suppl ementaire´ note donc

A = { x R d ; g ( x ) = 0 } .

L’idee´ de la preuve est de param etrer´

tion d’Euler en le param etre`

e,´ on supposera que sa seconde composante

(non contraint !). La condition (6) indique ici que le vecteur

l’equa-´

On

n’apparaˆıt pour le cas gen´ eral.´

l’ensemble A au voisinage de x et d’ecrire´

g ( x ) est non-nul. Sans perte de gen´ eralit´ est non-nulle :

g

x

2

( x ) = 0.

Le theor´ eme`

boule centree´ en x :

des fonctions implicites permet d’ecrire´

A comme un graphe dans une petite

A B ( x , ε) = { x = ( x 1 , x 2 ) B ( x , ε) , x 2 = α( x 1 )} .

La fonction ϕ( x 1 ) = f ( x 1 , α( x 1 )) admet ainsi un minimum relatif autour de x . N’ayant

plus de contraintes sur x 1 , on peut ecrire´

1

l’equation´

d’Euler (2) :

f

x

1

f

( x

1

,

α( x

1

)) +

x

2

( x

1

,

α( x

1

)) α ( x ) = 0

1

Par ailleurs, on a g ( x 1 , α( x 1 )) 0 d’o u,` par derivation,´

g

x

1

( x

1

,

α( x

1

)) +

g

x

2

( x

1

,

α( x

1

)) α ( x ) = 0

1

6

Mini-cours d’optimisation

En remarquant que α( x

1

) = x

2

et en posant

on

obtient immediatement´

λ =

g

x

2

( x ) 1 f

x

2

f ( x ) + λg ( x ) = 0.

( x ) ,

) + λ ∇ g ( x ∗ ) = 0. ( x ∗ ) ,

Remarque 4 On peut interpreter´ g eom´ etriquement´

le resultat´

prec´ edent´

:

x ∗ •
x ∗ •

g ( x )

Le vecteur g ( x ) – quand il est non-nul – fournit la direction normale a` la courbe A (sous-variet´ e´ de dimen- sion d p dans le cas g en´ eral)´ en x . Par ailleurs, la d eriv´ ee´ par rapport a` x 1 de la fonc- tion ϕ introduite dans la demonstration´ pr ec´ edente´ s’in- terprete` comme la d´eriv´ee tangentielle de f en x . Ainsi, le fait que la deriv´ ee´ tangentielle soit nulle implique que le gradient est parallele` a` la normale, ce qu’exprime exac- tement l’equation´ d’Euler-Lagrange.

Exemple 2 Soit A R d × d une matrice sym etrique.´ sation sous contrainte :

On consid ere` le probl eme`

de minimi-

(8)

min 1 Ax , x .

x 2 =

Il entre dans le cadre prec´ edent´

avec

f ( x ) = Ax , x et

g ( x ) = x 2 1.

Bien sur,ˆ les fonctions f et g sont de classe C 1 et

f ( x ) = ( A + A T ) x = 2 Ax

et g ( x ) = 2 x .

Le probleme` (8) admet au moins une solution par compacit e,´ notee´ x . Par ailleurs, la condition de qualification des contraintes (6) est trivialement verifi´ ee.´ On peut donc ecrire´ l’equation´ d’Euler-Lagrange en x : il existe λ R tel que

2 Ax + 2 λ x = 0,

soit encore Ax = λ x . On a ainsi montre´ l’existence d’un couple propre pour toute matrice sym etrique´ 2 .

4.2 Contraintes de type in egalit´

On ne considere` ici que des contraintes de type inegalit´

e´ : p = 0 et

A = { x R d ; h 1 ( x ) 0,

, h q ( x ) 0 } .

2 Cela constitue le point de depart´

de la preuve du theor´ eme`

spectral : il suffit de proceder´

sur la dimension d en travaillant dans l’orthogonal de x , stable par A car A est sym etrique´

!

par r ecurrence´

Mini-cours d’optimisation

7

Th´eor`eme 8 (Karush-Kuhn-Tucker) Soit f , h j : R d R des fonctions de classe C 1 . On suppose que f admet en x A un minimum local sur A et qu’il existe un vecteur z R d tel que

(9)

j h j ( x ) = 0 = h j ( x ) , z < 0 .

Alors il existe des multiplicateurs de Kuhn et Tucker µ 1 ,

, µ q R tels que

(10)

f ( x ) +

q

j = 1

µ j h j ( x ) = 0,

avec µ j 0 (positivit´e) et µ j h j ( x ) = 0 (relations d’exclusion).

L’´equation (10) est appel´ee condition KKT , la condition (9) condition de qualification des contraintes.

Preuve. Ici encore, on se place dans le cas particulier d’une seule contrainte en dimen- sion 2 :

A = { x R d ; h ( x ) 0 } .

Si h ( x ) < 0, alors le point minimiseur x est situe´ a` l’interieur´ de l’ensemble A , si bien qu’on peut effectuer des petites variations autour de x dans toutes les directions, et l’ equation´ d’Euler (2) est encore valable. On vient d’exprimer la relation d’exclusion

µ h ( x ) = 0.

On est donc ramene´ au cas h ( x ) = 0. Signalons que l’utilisation du theor´ eme` des extrema´ lies´ est possible car x minimise a fortiori f sur l’ensemble fronti ere` A defini´ par h ( x ) = 0. On obtient bien la condition (10), mais pas la positivite´ des multiplicateurs.

h ≤ 0 • x ∗
h ≤ 0
x ∗

h ( x )

En pointilles´ sont represent´

sibles, i.e. les vecteurs u pour lesquels x + tu est dans l’ensemble A quand t > 0 est proche de 0. Dans le

cas o u` h ( x ) = 0, ce dernier fournit la direction

normale ext erieure´

les

ees´ les directions admis-

en x et on peut caract eriser´

directions admissibles comme les vecteurs u R d tels que

h ( x ) , u 0.

La m emeˆ

met d’ ecrire´

que dans le cas non contraint per-

m ethode´

que pour de tels u , on a l’inegalit´

e´ (3) :

f ( x ) , u 0.

On obtient donc le resultat´

suivant :

(11)

u R d

h ( x ) , u 0 = f ( x ) , u 0,

d’ou` on deduit´

facilement qu’il existe µ 0 tel que f ( x ) = µh ( x ) .

∇ f ( x ∗ ) = − µ ∇ h ( x ∗ ) .

Remarque 5 Contrairement au cas des contraintes de type egalit´ e,´ la g en´ eralisation´ de cette demonstration´ dans le cas p > 1 et d > 2 est plus delicate.´ Le demi-plan tangent est remplace´ par un c oneˆ tangent et, de la memeˆ mani ere,` la condition de qualification des contraintes traduit le fait qu’il soit non vide. Par ailleurs, la relation (11) devient :

u R d

j

h j ( x ) , u 0 = f ( x ) , u 0 .

8

Mini-cours d’optimisation

On peut encore en d eduire´

qu’il existe des reels´ positifs µ j tels que

f ( x ) =

q

j = 1

µ j h j ( x ) .

C’est le lemme de Farkas-Minkowski et la preuve en est non-triviale, voir [3, 1].

Remarque 6 On introduit souvent le Lagrangien du probleme`

; il s’agit ici de la fonction

L( x , µ 1 ,

,

µ q ) = f ( x ) +

q

j = 1

µ j h j ( x ) .

La condition (10) traduit le fait qu’il existe des multiplicateurs µ j tels que x soit un point critique du Lagrangien :

x L( x , µ 1 ,

,

µ q ) = 0.

Exemple 3 Soit a` maximiser x sur le sous-ensemble A de R 2 :

A = ( x , y ) ∈ R 2 ; y ≥ x 2
A = ( x , y ) ∈ R 2
;
y ≥ x 2
et
x + y ≤ 1 .
y
• M 2
1
A
• M 1
0
x
1

Le Lagrangien du probl eme`

s’ecrit´

L( x , µ 1 , µ 2 ) = f ( x , y ) + µ 1 h 1 ( x , y ) + µ 2 h 2 ( x , y ) ,

avec

f ( x , y ) = x ,

h 1 ( x , y ) = x 2 y

et h 2 ( x , y ) = x + y 1.

(Noter la definition´ f ( x , y ) = x car il s’agit d’un probleme` de maximisation).

´

Etude de la condition de qualification des contraintes : les gradients des fonctions de

contraintes s’ecrivent´

h 1 ( x , y ) = ( 2 x , 1 ) T

et h 2 ( x , y ) = ( 1, 1 ) T .

Ces vecteurs ne s’annulent jamais, il reste donc seulement a` v erifier´ qu’ils ne sont pas opposes´ en les sommets M 1 et M 2 , ce qui est effectivement le cas. En cons equence,´ la condition de qualification des contraintes est partout verifi´ ee´ 3 .

3 Ici, l’ensemble A est convexe et la condition de qualification est equivalente´

a` la non vacuit e´ de A , cf. [4].

Mini-cours d’optimisation

9

Conditions de Kuhn et Tucker : les contraintes etant´ qualifiees,´ tout point de minimum est point critique du Lagrangien et les conditions KKT s’ecrivent´

1 + 2 x µ 1 + µ 2 = 0

µ 1 + µ 2 = 0

avec

µ 1 ( x 2 y ) = 0,

µ 2 ( x + y 1 ) = 0.

S’ensuit une etude´

est ( x , y ) = M 1 avec µ 1 = µ 2 = 1/ ( 1

L’existence d’une solution au probleme`

rer que le point critique M 1 en est bien l’unique solution (ce qui est evident´

de cas selon que µ 1 = 0 ou µ 1 = 0. On en d eduit´

+ 2 x ) .

que la seule solution

de maximisation, par compacite,´ permet d’assu-

“a` la main”).

5 Contraintes et m ethodes´

numeriques´

d’optimisa-

tion, elle pose aussi des difficult es´ au niveau num erique.´ Par exemple, les methodes´ de

gradient ne peuvent etreˆ utilisees´ telles quelles car une iteration´

Si la pr esence´

de contraintes complique l’ etude´

th eorique´

des probl emes`

x n + 1 = x n ρf ( x n )

n’est pas assur ee´ de rester dans l’ensemble des contraintes. Une solution consiste a` proje-

ter x n + 1 sur l’ensemble des contraintes ; on parle de methode´

cet algorithme est difficilement utilisable en pratique car – en g en´ eral´ – on ne sait pas cal- culer la projection.

les points critiques

a` l’aide des equations´

de gradient projet´e . Toutefois,

Dans le cas de contraintes “ egalit´

es”,´ il est possible de d eterminer´

d’Euler-Lagrange. En effet, si l’ensemble des contraintes est

A = { x R d ; g ( x ) = 0 } ,

alors les conditions d’optimalite´ s’ ecrivent´

f ( x ) + λg ( x )

= 0,

g ( x ) = 0.

dont l’inconnue est

de Newton pour

determiner´ ( x ,

Citons enfin une methode´ tres` utilisee´ dans les applications, qui ram ene` un probleme` sous contraintes a` un probl eme` sans contrainte. Il s’agit de la m ethode´ de p´enalisation. Toujours dans l’exemple d’une contrainte de type “egalit´ e”,´ on pose pour ε > 0,

Il s’agit d’un syst eme`

le couple ( x , λ) R d + 1 . On peut, par exemple, utiliser une methode´

de d + 1 equations´

(en gen´ eral´

non-lin eaires)´

λ ) num eriquement.´

f ε ( x )

= f ( x ) + ε 1 [ g ( x )] 2 .

La methode´ s’appuie sur le constat suivant : si x minimise f ε sur R d tout-entier, alors g ( x ) doit etreˆ proche de 0. En effet, un point x R d tel que g ( x ) est “grand” n’a que peu

de chance de fournir un minimiseur de f ε car le terme ε 1 [ g ( x )] 2 – tres` grand – le p´enalise.

Plus precis´ ement,´

sur f et g , on peut montrer que x tend vers

ε

ε

sous certaines hypotheses`

ε

10

Mini-cours d’optimisation

Quelques mathematiciens´

de l’optimisation

Leonhard Euler [1707-1783] math ematicien´

Joseph-Louis Lagrange [1736-1813] math ematicien´

William Karush [1917-1997] math ematicien´

Harold W. Kuhn [1925-] math ematicien´

Albert W. Tucker [1905-1995] math ematicien´

Gyula Farkas [1847-1930] math ematicien´

Hermann Minkowski [1864-1909] math ematicien´

et physicien suisse.

franc¸ais.

americain.´

et economiste´

americain.´

americano-canadien.´

et physicien hongrois.

et physicien allemand.

R ef´ erences´

´ ´

[1] G. A LLAIRE . Analyse num´erique et optimisation . Editions de l’ Ecole Polytechnique.

Ellipses, Paris 2005.

[2] V. B ECK , J. M ALICK , G. P EYR E . Objectif Agr´egation. H&K 2004.

[3] P. G. C IARLET . Introduction a` l’analyse num´erique matricielle et a` l’optimisation. Collec- tion Math ematiques´ Appliqu ees´ pour la Maˆıtrise. [Collection of Applied Mathematics for the Master’s Degree]. Masson, Paris 1982.

[4] J.-B. H IRIART -U RRUTY . L’optimisation. Que sais-je ? PUF, Paris 1996.

´