Académique Documents
Professionnel Documents
Culture Documents
TD 1
Exercice 1 :
1. Montrer que l’application norme x 7→ ||x||p est convexe.
2. Pour toute fonction convexe f : y ∈ Rm 7→ f (y), montrer que g : x ∈ Rd 7→ f (Ax−b)
est une fonction convexe avec A ∈ Rn×d et b ∈ Rn .
3. pour i = 1, ..., m soit yi ∈ R et ai ∈ Rd , prouvez que la fonction de régression
logistique f (x) = n1 ni=1 ln 1 + e−yi hx,ai i est convexe.
P
5. Calculer la dérivées de la fonction quadratique f (x) =< Ax, x > − < b, x > avec
x, b ∈ Rn et A ∈ Rn×n .
Exercice 2 : La régression Ridge est peut-être l’exemple le plus simple d’un problème
d’apprentissage automatique. Considérez la tâche d’apprentissage qui permet de trouver la
relation entre un vecteur de caractéristiques x ∈ Rd et un vecteur d’observation y ∈ R. De
plus, vous disposez d’un ensemble d’observations étiquetées (xi , yi ) pour i = 1, ..., n. Nous
désirons résoudre le problème :
n
∗ 1X1 > 2 λ
w = arg min xi w − yi + kwk22 ,
w n 2 2
i=1
def
X w − y
2 +
1
>
1. Montrer que le problème s’écrit de la manière suivante f (w) = 2n 2
λ
2
kwk22 en précisant la matrice A et le vecteur y.
2. Déduire que la fonction f est convexe.
3. On considère le schéma de descente :
wt+1 = wt − α∇f wt
def 1
avec α = 1
σmax (A)
et A = n
XX > + λI.
(a) calculer le ∇f (w).
1
ENSA Khouribga 2020 − 2021 Recherche Opérationnelle 2
xk+1 = xk + αk dk
Dans ce qui précède, pour k ∈ N,
- αk > 0 est le pas de la méthode,
- dk ∈ Rn est une direction de descente, c’est-à-dire un vecteur de Rn tel que
2
ENSA Khouribga 2020 − 2021 Recherche Opérationnelle 2
rk+1 = rk + αk Adk , ∀k ≥ 0
H. KHALFI