Vous êtes sur la page 1sur 11

Q UELQUES EXERCICES CORRIGS D OPTIMISATION

EXERCICE I (Calcul diffrentiel)

1. Montrer que la fonction f : R2 R2 dfinie par


( 2
y
f ( x, y) = x si x 6= 0
y si x = 0

admet des drives partielles au point (0, 0), mais nest pas continue en (0, 0).
2. Soit E, un R-espace vectoriel muni dun produit scalaire h, i. Montrer la continuit,
puis la diffrentiabilit et calculer la diffrentielle de lapplication produit scalaire
: E2 R dfinie par ( x, y) = h x, yi pour tous ( x, y) E2 .
3. Soit A Mn,m (R), avec (n, m) N 2 .
(a) Montrer que lapplication J : Rm R dfinie par J ( X ) = k AX k2 , o la notation k k
dsigne la norme euclidienne de Rn , est diffrentiable et calculer sa diffrentielle.
(b) Soit f C 1 (R). Montrer que lapplication G : Rm R dfinie par G ( X ) = f ( J ( X ))
est diffrentiable et calculer sa diffrentielle.

Corrig de lexercice

02 f (t, 0) f (0, 0)
1. On a pour tout t R , f (t, 0) f (0, 0) = t = 0, ce qui montre que lim = 0,
t 0 t
f
donc f admet une drive en (0, 0) selon le vecteur (1, 0), et que x (0, 0) = 0. De mme, f (0, t) =
f
t pour tout t R, donc f est drivable en (0, 0) selon le vecteur (0, 1) et y (0, 0) = 1.
2. Lapplication tant bilinaire, sa continuit sur E2 est quivalente sa continuit en (0, 0). De
plus, daprs
p lingalit de Cauchy-Schwarz, |( x, y)| k x k kyk pour tous ( x, y) E2 , o
k x k = h x, x i.
tudions la diffrentiabilit de . Fixons ( x, y) E2 et (h, k) E2 . On a :

( x + h, y + k) = ( x, y) + ( x, k) + (h, y) + (h, k),

donc si L(h, k) = ( x, k ) + (h, y), on a

k( x + h, y + k) ( x, y) L(h, k)k = k(h, k)k khk kkk = o( N (h, k)),

en prenant par exemple N (h, k ) = max{khk, kkk}. De plus, L est linaire et continue car

| L(h, k)| k x k kkk + khk kyk N ( x, y) N (h, k) 0,


N (h,k )0

en vertu de lingalit de Cauchy-Schwarz. On en dduit simultanment que est diffrentiable,


et que d( x,y) (h, k) = L(h, k) = h x, k i + hy, hi.
3. (a) Lapplication X Rn 7 k X k2 est C donc diffrentiable sur Rn , car polynmiale. Lap-
plication X 7 AX est linaire, donc diffrentiable. Par consquent, lapplication J est dif-
frentiable en tant que compose de fonctions qui le sont. De plus, pour tout X Rm , on
a
J ( X ) = h AX, AX i = h A> AX, X i,
avec A> A Sm (R). On en dduit que la diffrentielle de J en X est lapplication linaire
d X J : h Rm 7 2A> Ah.
(b) Utilisons le thorme de composition des diffrentielles. On obtient

d X G (h) = d J (X ) f d X J (h) = 2 f 0 ( J ( X )) A> Ah.

pour tout h Rm .

EXERCICE II (Calcul diffrentiel)

x 3 + y3
(
si ( x, y) 6= (0, 0)
On considre la fonction f : R2 R dfinie par f ( x, y) = x 2 + y2 .
0 sinon
La fonction f est-elle continue sur R2 ? de classe C 1 sur R2 ?

Corrig de lexercice

La fonction f est C sur R2 \{(0, 0)} en tant que produit, quotient ne sannulant pas etc. de fonctions
qui le sont. Reste tudier la rgularit en (0, 0). On a

| x |3 | y |3
( x, y) R2 \{(0, 0)}, | f ( x, y)| + 2 = | x | + |y| 0.
x2 y ( x,y)(0,0)

f est donc continue en (0, 0). En revanche, f nest pas C1 en ce point car elle nest mme pas diffrentiable
en (0, 0). En effet, soit t 6= 0 et ( x, y) 6= (0, 0). On a

f (tx, ty) f (0, 0) t3 ( x 3 + y3 ) x 3 + y3


= 3 2 .
t t ( x + y2 ) ( x,y)(0,0) x2 + y2

Or, si f tait diffrentiable en (0, 0), cette limite conciserait avec d(0,0) f ( x, y) et serait en particulier
linaire par rapport ( x, y) ce qui nest pas le cas.

EXERCICE III (optimisation sans contrainte)

On considre la fonction f dfinie sur R2 par

f ( x, y) = x4 + y4 2( x y)2 .

1. Montrer quil existe (, ) R2+ (et les dterminer) tels que

f ( x, y) k( x, y)k2 +

pour tous ( x, y) R2 , o la notation k k dsigne la norme euclidienne de R2 .


En dduire que le problme
inf f ( x, y) (P )
( x,y)R2

possde au moins une solution.


2. La fonction f est-elle convexe sur R2 ?
3. Dterminer les points critiques de f , et prciser leur nature (minimum local, maximum
local, point-selle, ...). Rsoudre alors le problme (P ).
Corrig de lexercice
1. f est polynmiale donc de classe C (R2 ). En utilisant le fait que xy 12 ( x2 + y2 ), on crit

f ( x, y) x4 + y4 2x2 2y2 + 4xy x4 + y2 4x2 4y2 ,

pour tout ( x, y) R2 . En utilisant le fait que pour tout ( X, ) R2 , X 4 + 4 2X 2 0, il vient

f ( x, y) (2 4) x2 + (2 4)y2 24 .

Choisissons par exemple = 3, on en dduit

f ( x, y) 2( x2 + y2 ) 162 +,
k( x,y)k+

ce qui prouve que f est coercive sur R2 qui est ferm et de dimension finie. Daprs le thorme
du cours, le problme (P ) admet au moins une solution.
 2C sur R ), calculons
2. Pour tudier la convexit de f (qui est de classe 2 2 sa matrice hessienne en

3x 1 1
tout point ( x, y) de R2 . On a Hess f ( x, y) = 4 .
1 3y2 1
Rappelons que f est convexe sur R2 si, et seulement si sa matrice hessienne est semi-dfinie
positive en tout point. Or, on vrifie aisment que les valeurs propres de Hess f (0, 0) sont 0 et
2. Par consquent, f nest pas convexe.
3. Les points critiques de f sont donns par les solutions de f ( x, y) = (0, 0), autrement dit, les
points critiques sont solutions du systme :
 3  3
x + y3 = 0

x ( x y) = 0 y = x

y3 + ( x y ) = 0 y3 + ( x y ) = 0 x3 2x = 0

On en dduit que f admet trois points critiques : O(0, 0), A( 2, 2) et B( 2, 2).
f tant de classe C 2 , on va utiliser la caractrisation des points critiques laide de la hessienne
calcule la question prcdente.
 
20 4
Point A : Hess f ( A) = donc la trace de Hess f ( A) vaut 40 et son dterminant 384.
4 20
On en dduit que Hess f ( A) possde deux valeurs propres strictement positives donc que A
est un minimiseur local pour f .
Point B : Hess f ( B) = Hess  f ( A ), donc la mme conclusion que pour le point A simpose.
4 4
Point O : Hess f (O) = , donc la trace de Hess f (O) vaut 8 et son dterminant
4 4
est nul. Il vient que ses valeurs propres sont 0 et 8. On ne peut donc rien conclure dans ce
cas laide de la matrice hessienne. En revanche, on peut donner un argument la main : soit
x R tel que | x | < 2. On a f ( x, x ) = 2x4 8x2 = 2x2 (4 x4 ). Or, | x | < 2 donc 4 x2 > 0
et on en dduit que f ( x, x ) < 0. De mme, soit x R. On a f ( x, x ) = 2x4 0. Puisque
les ingalits prcdentes sont obtenues pour des x arbitrairement petits, on en dduit que le
point (0, 0) est un point-selle pour f .
En conclusion, puisque le problme (P ) possde une solution, la caractrisation des points cri-
tiques de f nous assure que

inf f ( x, y) = f ( A) = f ( B) = 8.
( x,y)R2

EXERCICE IV (optimisation quadratique, moindres carres)

Soit N N . On considre un nuage de points {(ti , xi )}1i N , et on cherche mettre en uvre


une rgression parabolique, autrement dit, on recherche la parabole P dquation y = at2 + bt + c,
o a, b et c sont trois rels dterminer, telle que la somme sur tous les indices i variant de 1
N du carr de la distance du point (ti , xi ) au point de mme abscisse sur P soit minimale.
1. crire ce problme comme un problme de minimisation quadratique, cest--dire un
problme de la forme

1
inf n J ( X ) avec J (X) = h AX, X i hb, X i, (Q)
X R 2
avec A Sn (R), b Rn . On devra donc expliciter n, A et b.
On utilisera la notation Sk = iN=1 tik .
2. Discuter de lexistence des solutions dun tel problme.
3. On suppose que la matrice A est dfinie positive. Dmontrer que (Q) possde une
unique solution.

Corrig de lexercice
1. Le problme scrit

a N
inf J ( X )
X R3
avec X = b et J (X) = (xi at2i bti c)2 .
c i =1

t21

t1 1 x1
crivons J ( X ) = k MX k k2 avec M = ... .. .. et k = .. . Daprs le cours sur la

. . .
t2N tN 1 xN
mthode des moindres carrs, on a
1
J (X) = h AX, X i hb, X i
2

S4 S3 S2
avec n = 3, A = M> M S3 (R) et b = M> k R3 . On calcule A = S3 S2 S1 .
S2 S1 N
2. Ce problme est quivalent au problme de minimiser la distance euclidienne de k au sous es-
pace vectoriel (de dimension finie) Im( M ). Cest donc un problme de projection orthogonale, et
il admet une solution.
3. Dans ce cas, on sait que Hess J ( X ) = A qui est dfinie positive. Par consquent, J est strictement
convexe, et J possde au plus un minimum dans R N . Comme on a vu quelle en possde au
moins un, on conclut lexistence et lunicit.

EXERCICE V (optimisation quadratique, moindres carrs)

On considre la fonction f dfinie sur lintervalle [1, 1] par f ( x ) = x3 . Lespace C0 ([1, 1]) des
R1
fonctions continues sur [1, 1] est muni du produit scalaire dfini par hh, gi = 1 h( x ) g( x ) dx
p
et on note k k la norme associe, dfinie par k hk = hh, hi, pour tous (h, g) (C0 ([1, 1])2 .
On souhaite dterminer le polynme P de degr infrieur ou gal 1 qui approche le mieux f
au sens des moindres carrs, cest--dire qui minimise k f Pk2 parmi tous les polynmes de
degr infrieur ou gal 1 (sous rserve quil existe et soit unique).
1. Mettre ce problme sous la forme dun problme de moindres carrs de dimension finie.
Quelle est cette dimension ?
2. tudier lexistence/lunicit des solutions de ce problme.
3. Rsoudre ce problme.
Corrig de lexercice
1. Le problme doptimisation sous-jacent scrit
Z 1
inf J ( a, b), avec J ( a, b) = ( x3 ax b)2 dx.
( a,b)R3 1

On calcule alors
Z 1
1 X i + c,
J ( a, b) = ( x6 + a2 x2 + b2 2ax4 2bx3 + 2abx ) dx = h AX, X i hb,
1 2
   
4/3 0 4/5
avec X = ( a, b)> ,
A = ,b = et c = 27 . On sest ainsi ramen un problme
0 4 0
doptimisation de dimension 2.
2. Le problme doptimisation prcdent est un problme doptimisation quadratique donc la ma-
trice hessienne associe est dfinie positive (cela se retrouve dailleurs en utilisant le formalisme
des problmes de moindres carrs menant lquation normale). On en dduit que la fonction J
est coercive sur R2 qui est ferm et de dimension finie donc ce problme possde une solution
unique.
 
3/5
3. Lquation normale scrit AX = b qui se rsout directement. On obtient : X =
0

EXERCICE VI (convexit, optimisation quadratique)

Soit a R. On dfinit f a : ( x, y) 7 x2 + y2 + axy 2x 2y.


1. Pour quelles valeurs de a, la fonction f a est-elle convexe ? Et strictement convexe ?
2. Discuter en fonction des valeurs du paramtre a de lexistence de solutions au problme
doptimisation inf{ f a ( x, y), ( x, y) R2 }.
3. Lorsque a ] 2, 2[, rsoudre le problme prcdent.

Corrig de lexercice
1. La fonction f a est C sur R2 car polynmiale. Pour  tudier
 la convexit de f , calculons sa hes-
2 a
sienne : pour tous ( x, y) R , hess f ( x, y) =
2 . Cette matrice ne dpend pas de x et
a 2
y. Etant symtrique relle, elle est diagonalisable et on note 1 et 2 ses valeurs propres. On a
tr(hess f a ( x, y)) = 1 + 2 = 4 > 0, donc f a nest jamais concave. De plus, det(hess f a ( x, y)) =
1 2 = 4 a2 . On en dduit que f a est convexe si, et seulement si a [2, 2], strictement convexe
si, et seulement si a ] 2, 2[ et nest ni convexe, ni concave sinon.
2. Souvenons-nous du cours sur loptimisation de fonctions quadratiques :
si a ] 2, 2[, hess f a est constante et appartient Sn++ (R). Par consquent, f a est strictement
convexe et coercive (cf. cours) sur R2 qui est ferm et de dimension finie. Par consquent, le
problme infR2 f a a une unique solution.
si a R\[2, 2], la matrice hess f a a une valeur propre strictement ngative , et il existe une
direction ~e R2 (vecteur propre associ ) dans laquelle f (t~e) quand t +. Par
consquent, le problme infR2 f a na pas de solution.
Cas a {2, 2}. Dans ce cas, la matrice hess f a est semi-dfinie positive, mais pas dfinie
positive. Daprs le cours, le problme infR2 f a a une solution si, et seulement si (2, 2)>
Im(hess f a ). Or, puisque a = 2,
         
h1 2h1 + ah2 2 a 2
hess f a = = h1 + h2 Im hess f a = vect .
h2 ah1 + 2h2 a 2 a

Par consquent, si a = 2, (2, 2)> Im(hess f a ) et le problme infR2 f a a une infinit de


solutions. Si a = 2, (2, 2)>
/ Im(hess f a ) et le problme infR2 f a na pas de solution.
3. Dterminons les points critiques de f a :
     
2x + ay 2 x 2 1
f a ( x, y) = 0 =0 = .
2y + ax 2 y 2+a 1
Daprs ltude prcdente, dans le cas considr, le problme infR2 f a a une unique solution qui
2 4
est donc donne par x = y = 2+ a et linfimum vaut alors 2+ a

EXERCICE VII (Optimisation sans contrainte, quotient de Rayleigh)

Soit A Sn+ (R). On considre la fonction f : Rn \{0Rn } R dfinie par


h Ax, x i
f (x) = ,
k x k2
o h, i est le produit scalaire euclidien de Rn et k k la norme induite.
1. Montrer que f est C sur son ensemble de dfinition.
2. Montrer que les problmes doptimisation
inf f (x) et sup f (x)
x Rn \{0Rn } x Rn \{0Rn }

possdent une solution.


3. Dterminer lensemble des points critiques de la fonction f .
4. Rsoudre les deux problmes ci-dessus.
5. Dmontrer que la matrice hessienne de f en un point critique x Rn \{0Rn } est
2
Hess f ( x ) = ( A f ( x ) In ),
k x k2
o In dsigne la matrice identit de taille n.
6. En dduire que tous les points critiques qui ne sont pas solution dun des problmes
ci-dessus sont des points-selles.

Corrig de lexercice
1. f est C sur Rn \{0Rn } en tant que quotient de fonctions polynmiales dont le dnominateur ne
sannule quen 0Rn .
2. Remarquons que, pour tout x Rn , f ( x ) = h A k xxk , k xxk i et que lapplication x Rn \{0Rn } 7
x
kxk
est une surjection de Rn \{0Rn } dans la sphre unit Sn1 = {y Rn | kyk = 1}. Il sensuit
que
inf f ( x ) = inf h Ay, yi et sup f ( x ) = sup h Ay, yi.
x Rn \{0Rn } y S n 1 x Rn \{0Rn } y S n 1

La fonction y 7 h Ay, yi est continue sur Sn1 qui est compact. Ces problmes ont donc une
solution.
3. Pour x 6= 0Rn , on a :
2Ax 2h Ax, x i x
f ( x ) = 0 = 0 Ax f ( x ) x = 0.
k x k2 k x k4
Or, daprs le thorme spectral, la matrice A est diagonalisable dans une base orthonorme de
vecteurs propres. On note ( A) = {1 , . . . , n } son spectre, avec 1 n . Si lquation
Ax = f ( x ) x possde une solution, alors ncessairement x est un vecteur propre de A. Rcipro-
quement, si x est un vecteur propre associ ( A), alors f ( x ) = et donc Ax f ( x ) x = 0.
On en dduit que lensemble des points critiques de f est lensemble des vecteurs propres x
Rn \{0Rn } de A.
4. Puisque les deux problmes ont une solution, on cherche les minimiseurs (resp. maximiseurs)
parmi les points critique. Si x est un vecteur propre de A associ la valeur propre , on vrifie
que f ( x ) = . Par consquent, les minimiseurs de f sont les vecteurs propres de Rn \{0Rn }
associs 1 et les maximiseurs de f sont les vecteurs propres de Rn \{0Rn } associs n . De
plus,
min f ( x ) = 1 et max f ( x ) = n .
x Rn \{0Rn } x Rn \{0Rn }

5. Question difficile. Puisque f est C 2 sur Rn \{0Rn }, on va crire un dveloppement limit de f


lordre deux, et on identifiera la hessienne laide du terme dordre 2. Soit v Rn et t R. On
a:
h Ax, x i + 2th Ax, vi + t2 h Av, vi
f ( x + tv) =  2

k x k2 1 + k x2tk2 h x, vi + k xt k2 kvk2
h Ax, x i + 2th Ax, vi + t2 h Av, vi 2th x, vi t2 kvk2 4t2 h x, vi2
 
2
= 1 + + o ( t )
k x k2 k x k2 k x k2 k x k4
h Ax, vi
 
= f ( x ) + 2t f ( x )h x, vi
k x k2
h x, vi2 h Ax, vih x, vi
 
2 f (x) 2
+t kvk + 4 f ( x ) 4 + h Av, vi + o(t2 )
k x k2 k x k4 k x k4

1
en utilisant que 1+ u = 1 u + u2 + o(u2 ). On retrouve lexpression de la diffrentielle de f et on
en dduit que

h x, vi2 h Ax, vih x, vi


 
f (x) 2
hHess f ( x )v, vi = 2 kvk + 4 f ( x ) 4 + h Av, vi .
k x k2 k x k4 k x k4
Or, en un point critique x (vecteur propre associ la valeur propre ), on a f ( x ) = et par
consquent,  
f ( x ) 2
hHess f ( x )v, vi = 2 kvk + h Av, vi ,
k x k2
do lexpression de la hessienne annonce.
6. Choisissons x de norme 1. Choisissons v = x0 un autre vecteur propre de A de norme 1, associ
la valeur propre 0 . Alors,
hHess f ( x )v, vi = 2 0 .


Si nest pas la plus petite ou la plus grande valeur propre de A, il suffit alors de choisir 0 valeur
propre strictement infrieure puis suprieure , et on montre que lexpression ci-dessus peut
tre strictement ngative ou positive selon le choix de v. On en dduit que x est un point-selle.

EXERCICE VIII (extrema lis)

Dterminer les points les plus proches et les plus loigns de lorigine (sils existent) de la
courbe dquation x6 + y6 = 1. On illustrera la rponse laide dun dessin.

Corrig de lexercice

On note H = {( x, y) R2 | h( x, y) = 0} avec h( x, y) = x6 + y6 1. Les points de H les plus proches et


loigns de lorigine sont respectivement solutions des problmes

inf J ( x, y) et sup J ( x, y), avec J ( x, y) = d(( x, y), (0, 0))2 = x2 + y2


( x,y) H ( x,y) H

Lensemble H est compact (en effet, il est ferm en tant quimage rciproque du ferm {1} par la fonction
continue ( x, y) 7 x6 + y6 , born car pour tout ( x, y) H, | x | 1 et |y| 1 et inclus dans R2 de
dimension finie) et J est continue sur R2 car polynmiale. Par consquent, les deux problmes ci-dessus
admettent une solution.
Caractrisons-la en crivant les conditions doptimalit. On a : h( x, y) = 0 ( x, y) = (0, 0) / H, donc
les contraintes sont qualifies en tout point. Soit ( x, y), une solution de lun ou lautre des problmes
ci-dessus. Daprs le thorme des extrema lis, il existe R tel que J ( x, y) = h( x, y), soit

2x = 6x5 x (1 3x4 ) = 0 ( x, y) = (0, 1), = 31



2y = 6y 5 4
y(1 3y ) = 0 ou ( x, y) = (1, 0), = 13
6 6 6 6 2/3
x +y = 1 x +y = 1 ou ( x, y) = (21/6 , 21/6 ) ' (0.89, 0.89), = 2 3

Or, J (0, 1) = J (1, 0) = 1 et J ((21/6 , 21/6 )) = 2.21/3 ' 1.59. Par consquent, le problme inf H J
a pour solutions (0, 1) et (1, 0) et linfimum vaut 1, tandis que le problme sup H J a pour solutions
(21/6 , 21/6 ) et linfimum vaut 2.21/3 .

EXERCICE IX (problmes doptimisation avec contraintes, thorme de Kuhn-Tucker)

Une entreprise fabrique deux modles de petites voitures, les modles X et Y. Le modle X, le
plus abordable, se vend 1 e pice. Quant au modle Y, beaucoup plus sophistiqu, il se vend
3 e. Le cot de fabrication, exprim en e, est donn par la fonction suivante :
C ( x, y) = 5x2 + 5y2 2xy 2x 1000.
o x est le nombre de petites voitures du modle X et y est le nombre de petites voitures du
modle Y. On suppose que les jouets fabriqus sont tous couls sur le march.
Dans tout lexercice, on notera C+ = (R+ )2 .

1. Soit ( x, y) C+ . Dterminer le profit P( x, y) ralis par lentreprise lorsquelle a vendu


x jouets de modle X et y jouets de modle Y.
2. tudier la convexit de la fonction P sur C+ .
3. La capacit de production de lentreprise est au total de 20 jouets par jour. En supposant
que lentreprise tourne plein rgime, trouver la rpartition optimale entre les modles
de type X et Y permettant de maximiser le profit quotidien. Calculer dans ce cas le profit
ralis.
Indication : dans cette question et la suivante, on ne tiendra pas compte des contraintes (pourtant
naturelles) x 0 et y 0. On expliquera pourquoi cela ne change en ralit rien.
4. Le conseil dadministration de lentreprise sinterroge sur la pertinence de vouloir pro-
duire pleine capacit. Il se demande sil ne peut pas augmenter le profit en produisant
autrement. Pouvez-vous aider le conseil dadministration ?

Corrig de lexercice
1. Le profit est la diffrence entre le gain et le cot de production, donc P( x, y) = x + 3y C ( x, y),
puis
P( x, y) = 5x2 5y2 + 2xy + 3x + 3y + 1000.
 
10 2
2. P tant C , on peut tudier sa convexit laide de sa hessienne. On a hess P( x, y) = .
2 10
De plus, tant symtrique relle, la matrice hess P est diagonalisable de valeurs propres 1 et 2
telles que 1 + 2 = Tr hess P = 20 et 1 2 = det(hess P) = 96. On en dduit que 1 et 2 sont
strictement ngative et P est donc concave sur R2 .
3. La contrainte sur la capacit de production scrit x + y = 20. On est donc amen rsoudre le
problme doptimisation sous contrainte suph( x,y)=0 P( x, y) avec h( x, y) = x + y 20. Puisque P
est quadratique et strictement concave, P est coercive (cf. cours), et lensemble {( x, y) R2 |
h( x, y) = 0} est un ferm de dimension finie (image rciproque de {0} par h qui est continue).
Par consquent, le problme prcdent a une solution.
tudions les conditions doptimalit (qui sont donc des CNS). Puisque pour tous ( x, y) R2 ,
h( x, y) 6= 0, les contraintes sont qualifies en tout point. Le thorme des extrema lis fournit
alors lexistence de R tel que P( x, y) = h( x, y), soit

10x + 2y + 3 = 
x = y = 10
10y + 2x + 3 =
= 77
x + y = 20

On obtient ainsi la rpartition optimale de voitures X et Y produire et le profit ralis vaut


P(10, 10) = 260.
Remarque : en thorie, il faudrait galement ajouter les contraintes x > 0 et y > 0. Cependant,
puisquelles sont naturellement vrifies loptimum, on constate a posteriori quil ntait pas
ncessaire de les inclure dans le calcul.
4. Le problme que lon peut rsoudre afin de satisfaire le conseil dadministration devient suph( x,y)0 P( x, y).
Lexistence sobtient par le mme argument. tudions les conditions doptimalit. Le thorme
de Kuhn-Tucker fournit lexistence de 0 tel que

10x + 2y + 3 =
x = y = 38



10y + 2x + 3 = ( x, y) = (10, 10) ,  = 77
x 10
x + y 20 ou ( x, y) = 38 , 38 , = 0
( x + y 20) = 0


( x + y 20) = 0

Or, P (10, 10) = 260 < P( 38 , 83 ) = 8009


8 ' 1001.125. En conclusion, compte tenu des cots de
production, il est prfrable de moins produire de voitures X et Y et les proportions optimales
sont ( x, y) = 83 , 38 .


EXERCICE X (mthode du gradient)

1. Soit n N . On dsigne par h, i le produit scalaire euclidien de Rn . Soit A Sn++ (R),


b Rn et c R. On considre le problme doptimisation quadratique
1
inf J ( x ) avec J (x) = h Ax, x i et K = { x Rn | h x, bi = c}.
x K 2
Proposer une approche numrique de rsolution que vous dcrirez trs prcisment. On
explicitera notamment ltape de modlisation et lalgorithme retenu.
2. Soit k > 0. On dfinit sur R2 la fonction appele Rosenbrock banana, par la relation

f ( x, y) = ( x 1)2 + k ( x2 y)2 .

On souhaite minimiser f sur R2 laide de la mthode du gradient pas optimal partir


de linitialisation x0 = (0, 0).
Dcrire cet algorithme. Montrer quil existe un choix optimal de pas la premire itra-
tion et quil appartient ]0, 1[. De faon plus gnrale, comment feriez-vous pour dter-
miner numriquement le pas optimal chaque itration ?
votre avis, quel type de problme numrique rencontre cet algorithme lorsque k prend
des valeurs trop grandes ?

Corrig de lexercice
1. Une possibilit est de traiter la contrainte laide dune pnalisation, en traitant le problme sans
contrainte :
1
infn J ( x ) avec J ( x ) = J ( x ) + (h x, bi c)2 ,
x R
o le paramtre est choisi petit. On peut alors mettre en uvre une mthode de gradient sur ce
problme. De plus, J ( x ) = Ax + 2 (h x, bi c)b. Lalgorithme scrit alors :
- on se donne R, a priori assez petit et une initialisation x (0)
- poser k =
0
tant que ( x (k+1) x (k) n ) et (k kmax ) :

R
calculer d(k) = J ( x (k) )
poser x (k+1) = x (k) + d(k)
fin tant que
2. On pose X = ( x, y). Lalgorithme du gradient pas optimal scrit :
- on se donne une initialisation X (0)
- poser k =
0
tant que ( X (k+1) X (k) 2 ) et (k kmax ) :

R
calculer d(k) = f ( X (k) )
calculer (k) = argmin f ( X (k) + d(k) )
poser X (k+1) = X (k) + (k) d(k)
fin tant que

Choix optimal du pas literation 1 : on calcule :

2( x 1) + 4kx ( x2 y)
   
2
f ( x, y) = et donc f (0, 0) = .
2k( x2 y) 0
Puisque
f ((0, 0)> f (0, 0)) = f (2, 0) = (2 1)2 + 16k4 ,
le pas optimal est solution du problme infR () avec () = (2 1)2 + 16k4 . On vrifie
aisment que cette fonction est coercive sur R qui est ferm de dimension finie, donc le pro-
blme prcdent une solution. De plus, les points critiques de rsolvent lquation 2(2
1) + 64k3 = 0. Or, en tant que somme de deux fonctions strictement croissantes, la fonction 7
2(2 1) + 64k3 est strictement croissante, vaut 2 en = 0 et lquation 2(2 1) + 64k3 = 0
possde donc une unique solution sur R qui est de surcrot positive. Cette solution est donc la
valeur du pas optimale du pas. Notons dailleurs que daprs le thorme des valeurs interm-
diaires, cette solution est dans ]0, 1[.
De faon plus gnrale, on peut implmenter numriquement un algorithme de dichotomie ou
de la section dore pour rsoudre le problme (k) = argmin f ( X (k) + d(k) ) (problme dopti-
misation de dimension 1).
Lorsque k prend des valeurs trop importantes, on rencontre des soucis numriques car le terme
k( x2 y)2 est prdominant devant le terme ( x 1)2 . Donc, numriquement, tout se passe comme
si on rsolvait inf( x,y)R2 ( x2 y)2 au lieu du problme souhait (on dit alors que le problme est
mal conditionn, ce qui dpasse largement le cadre de ce cours).