Académique Documents
Professionnel Documents
Culture Documents
Durée : 2 heures
Les documents ainsi que les calculatrices ne sont pas autorisés.
**********************
1. Calculer la transformée de Fenchel de φ(v) = (1/2) kvk22 où kvk2 est la norme `d2 de v ∈ Rd .
2. On considère la fonction suivante : pour tout v = (vj )dj=1 ∈ Rd ,
d
X
φ(v) = exp(vj ).
j=1
**********************
kuk22 kuk22
φ∗ (u) = u, v ∗ − φ(v ∗ ) = u, u − = = φ(u).
2 2
2.1 Soit u ∈ Rd un vecteur à coordonnées strictement positives. On a
Xd d
X d
X
φ∗ (u) = sup u, v − exp(vj ) = sup uj vj − exp(vj ) = sup (uj vj − exp(vj )) .
v∈Rd j=1 v∈Rd j=1 j=1 vj ∈R
Par ailleurs, comme g : x ∈ R → tx − exp(x) atteint son maximum en x = log(t) dès que t > 0 et vaut en
ce point t(log(t) − 1), on a
d
X
φ∗ (u) = uj (log(uj ) − 1).
j=1
1
ENSAE Optimisation différentiable
**********************
Exercice 0.2
Soit le problème d’optimisation suivant
min yz + y 2 + z 2 : z ≤ −1 . (1)
min f (t)
t∈K
K = {t : g(t) ≤ 0}
**********************
2
ENSAE Optimisation différentiable
**********************
Exercice 0.3
Résoudre
min x21 + x22 + x23 + x24 : x1 + x2 + x3 + x4 = 1
(2)
**********************
Correction de l’exercice 0.3 La fonction de Lagrange associée à (2) est définie en tout point x =
(xj )4j=1 ∈ R4 et λ ∈ R par
Comme x ∈ R4 → L(x, λ) est convexe et deux fois différentiable, L(·, λ) atteint son minimum sur R4 en un
point x∗ si et seulement si ∇L(x∗ , λ) = 0 càd pour 2x∗i + λ = 0 pour i = 1, 2, 3, 4. On a alors
3
ENSAE Optimisation différentiable
i) x∗ ∈ K
ii) ∇x L(x∗ , λ∗ ) = 0
(Il n’y a pas de “complementary slackness condition” pour ce problème vu qu’il n’y a pas de contraintes
d’inégalité).
On en déduit donc que x∗ est solution de (2) si et seulement si
1. x1 + x2 + x3 + x4 = 1
2. 2x∗i + λ∗ = 0 pour i = 1, 2, 3, 4 et λ∗ = −1/2.
Ainsi l’unique solution de (2) est (1/4)4i=1 .
Rem. : On aurait pu ne pas utiliser le fait que λ∗ est solution du problème dual ici car la valeur de λ∗
aurait pu être déduite de l’équation “x1 + x2 + x3 + x4 = 1”.
**********************
**********************
Par ailleurs, on a
T
X a
∇f (a) = ∇ft (a) + .
η
t=1
On a donc a ∈ argmina∈Rd f (a) si et seulement si
T
X
a = −η ∇ft (a).
t=1
4
ENSAE Optimisation différentiable
De plus, les fonctions ft , t = 1, . . . , T sont linéaires, on a ft (a) = gt , a pour un certain gt , on obtient que
a ∈ argmina∈Rd f (a) si et seulement si
T
X T
X
a = −η ∇ft (a) = −η gt .
t=1 t=1
Par ailleurs, l’algorithme de descente de gradient pour des fonctions linéaires est tel que
T
X
aT +1 = aT − η∇fT (aT ) = aT − ηgT = −η gt
t=1
car a0 = 0.