C ALCUL SCIENTIFIQUE
Thème n°1
Initiation à l’optimisation et l’estimation
de paramètres
Préambule
2019 – 2020
Initiation à l’optimisation
2 Outils mathématiques 6
3 Conditions d’optimalité 6
⋆⋆⋆⋆⋆⋆⋆
3
Initiation à l’optimisation
Dans ce problème, sont recherchés tous les vecteur x̃ ∈ Rn tels que f (x̃) = infx∈Rn f (x). Ces vecteurs
forment l’ensemble des minima de f sur Rn . Lorsque cet ensemble est non vide, on dit que le (PSC)
admet une solution optimale ; tout élément x̃ de cet ensemble est un minimum de f sur Rn .
La fonction f peut être constituée par une fonction-objectif ou fonction-coût. Par exemple, dans le
problème consistant à rechercher la droite de régression d’équation y = ax + b où (a, b) sont deux para-
mètres inconnus, à partir de la connaissance des ordonnées y i , i = 1, 2, . . ., n de n points du plan d’abs-
cisses xi , i = 1, 2, . . ., n, la fonction-coût f : R2 → R s’écrit :
n £
X ¤2
f (a, b) = y i − axi − b . (1)
i =1
Lorsque la fonction f est bornée inférieurement, le réel α = infx∈Rn f (x) est appelé valeur minimale de
f . Si f n’est pas bornée inférieurement, alors on pose α = −∞.
sup f (x)
,
t.q. x ∈ Rn
inf(− f (x))
.
t.q. x ∈ Rn
En réalité, il est assez rare qu’un problème d’optimisation soit sans contrainte. En général, la structure
du problème modélisé impose des contraintes à la variable x recherchée telles que la positivité ou l’ap-
partenance à un ensemble borné. L’ensemble C ⊂ Rn dans lequel doit se trouver x constitue l’ensemble
des points admissibles. Le problème de minimisation avec contrainte s’écrit alors :
5
Calcul scientifique
2 Outils mathématiques
L’optimisation fait appel au calcul différentiel des fonctions et à la convexité des fonctions et des en-
sembles. Nous allons rappeler ici uniquement des résultats de calcul différentiel.
Soit f une fonction de Rn dans R, deux fois différentiable au point x ∈ Rn . On appelle respectivement
gradient ∇ f (x) et matrice hessienne ∇2 f (x) en x, le vecteur de Rn et la matrice carrée de dimension n
définis par :
∂2 f ∂2 f
∂f
(x) ∂x1 ∂x1 (x) · · · ∂x1 ∂xn (x)
∂x1. 2 .. ..
..
∇ f (x) = et ∇ f (x) = . . . (2)
∂f ∂2 f ∂2 f
∂xn (x) ∂xn ∂x1 (x) ··· ∂xn ∂xn (x)
∂2 f ∂2 f
= ,
∂xi ∂x j ∂x j ∂xi
pour i , j = 1, 2, . . ., n et i 6= j .
Lorsque f est deux fois différentiable dans tout un voisinage V de x, elle admet un développement de
Taylor au second ordre en x, qui s’écrit, pour tout h ∈ Rn tel que x + h ∈ V :
1
f (x + h) = f (x) + (∇ f (x)).h + [(∇2 f (x))h].h + k h k2 ε(h) (3)
2
où ε(h) est une fonction qui tend vers 0 lorsque h → 0.
Remarque II Les applications D f (x) : h 7→ ∇ f (x).h et D 2 f (x) : h 7→ (∇2 f (x)h).h sont appelées respec-
tivement différentielle première et différentielle seconde de f en x.
3 Conditions d’optimalité
Nous donnons ci-après trois conditions d’optimalité ainsi qu’une méthode systématique de recherche
des extrema d’une fonction numérique. Soit f une fonction numérique de Rn dans R.
Compte-tenu des théorèmes précédents, la recherche des extrema d’une fonction f dans un problème
de minimisation sans contrainte doit comporter les étapes suivantes :
6
Initiation à l’optimisation
Exercice 1 Résumer par un schéma tous les cas possibles d’optimum en fonction du signe des valeurs
propres de la matrice hessienne.
Le réel ε > 0 détermine la précision dans le critère d’arrêt choisi. Ce dernier peut être couplé avec une
condition portant sur le nombre maximum d’itérations.
La méthode du gradient consiste à remplacer la minimisation d’une fonction à n variables par une suite
de minimisations de fonctions d’une seule variable. Ces fonctions correspondent à la restriction de f
sur la droite issue de xk et de direction d k = −∇ f (xk ), dite direction de descente. Ainsi, la méthode du
gradient est-elle une méthode de descente.
7
Calcul scientifique
1 1 x − µ1 2 1 1 x − µ2 2
µ µ ¶ ¶ µ µ ¶ ¶
h(x) = (1 − α) p exp − + α p exp −
σ1 2π 2 σ1 σ2 2π 2 σ2
Fin du document