Vous êtes sur la page 1sur 16

Introduction à l’optimisation numérique.

Optimiser: rendre optimal, donner à quelque chose les meilleures conditions


d’utilisation, de fonctionnement ou de rendement au regard de certaines
circonstances.
Qu’est-ce qu’un problème d’optimisation ?

Soit X est un sous-ensemble non vide de Rn .

min f (x) s.c. x ∈ X,


x∈Rn

où:
f : Rn → R fonction coût / objectif / critère.
x ∈ Rn variables de l’optimisation.
X ensemble ou domaine des contraintes.

2 / 11
Exemple : Mise au point d’un moteur (Renault)

Objectif : minimiser la consommation sur un cycle de conduite


Variables d’optimisation : les 6= réglages moteur
Contraintes : seuils tolérés pour les 6= polluants émis
Chaque proposition de solution requiert essais et mesures sur le banc moteur

3 / 11
Ex: Conception avion - Thèse de Sylvain Prigent (CIFRE AIRBUS)

4 / 11
Ex: Conception avion - Thèse de Sylvain Prigent (CIFRE AIRBUS)

4 / 11
Ex: Conception avion - Thèse de Sylvain Prigent (CIFRE AIRBUS)

4 / 11
Ex: Evitement de collision en orbite

Credit CNES
Formulation générale du problème d’évitement de collision
Variables de l’optimisation: manoeuvres/poussées
Fonction objectif: consommation en fuel du satellite actif
Contraintes:
1 Réduire le risque de collision sous un seuil ε ∈]0, 1[ donné.
2 Contraintes opérationnelles (e.g. retour sur l’orbite nominale)
5 / 11
De quoi a-t-on besoin pour résoudre un problème
d’optimisation donné ?

min f (x) s.c. x ∈ X.

1 D’informations sur la nature de l’ensemble des contraintes


• Optimisation numérique: X ⊂ Rn .
• Optimisation discrète (ou combinatoire): X fini ou dénombrable.
• Commande optimale: X est un ensemble de fonctions.
• Optimisation stochastique: données aléatoires.
(à ne pas confondre avec les méthodes stochastiques d’optimisation).
• Optimisation multicritères: plusieurs fonctions objectifs.

6 / 11
De quoi a-t-on besoin pour résoudre un problème
d’optimisation donné ?

min f (x) s.c. x ∈ X.

1 D’informations sur la nature de l’ensemble des contraintes


• Optimisation numérique: X ⊂ Rn .
• Optimisation discrète (ou combinatoire): X fini ou dénombrable.
• Commande optimale: X est un ensemble de fonctions.
• Optimisation stochastique: données aléatoires.
(à ne pas confondre avec les méthodes stochastiques d’optimisation).
• Optimisation multicritères: plusieurs fonctions objectifs.

6 / 11
De quoi a-t-on besoin pour résoudre un problème
d’optimisation donné ?

(P) min f (x).


x∈X

3 Résultats d’existence (et d’unicité) de solutions.


,→ Cf cours de 3MIC/Chapitre 2 du polycopié 4GMM

7 / 11
De quoi a-t-on besoin pour résoudre un problème
d’optimisation donné ?

(P) min f (x).


x∈X

3 Résultats d’existence (et d’unicité) de solutions.


,→ Cf cours de 3MIC/Chapitre 2 du polycopié 4GMM
4 D’équations/inéquations à résoudre pour calculer ces solutions
,→ Conditions d’optimalité (Chapitre 3).
,→ Dualité Lagrangienne (Chapitre 4).

7 / 11
De quoi a-t-on besoin pour résoudre un problème
d’optimisation donné ?

(P) min f (x).


x∈X

3 Résultats d’existence (et d’unicité) de solutions.


,→ Cf cours de 3MIC/Chapitre 2 du polycopié 4GMM
4 D’équations/inéquations à résoudre pour calculer ces solutions
,→ Conditions d’optimalité (Chapitre 3).
,→ Dualité Lagrangienne (Chapitre 4).
5 D’algorithmes adaptés pour résoudre les conditions d’optimalité.
Sans contrainte (Chapitre 5)
,→ Algorithmes de descente de gradient.
,→ Algorithmes de type Newton.
,→ Algorithme de Gauss-Newton pour la résolution de pb de moindres carrés.
Avec contrainte (Chapitre 6)
,→ Algorithmes du gradient projeté.
,→ Algorithme SQP.
7 / 11
Prérequis
Quelques notations

Soit n ∈ N et x ∈ Rn .
On note: x = (x1 , . . . , xn ) pour désigner le vecteur colonne:
 
x1
 . 
x =  ..  .
xn
Différentes normes sur Rn :
v
n
u n 2
X uX
kxk1 = |xj |, kxk2 = t xj , kxk∞ = max |xj |.
j=1,...,n
j=1 j=1

Par défaut, on notera le produit scalaire euclidien:


n
X
hx, y i = xj yj = x > y = y > x.
j=1
p √
associé à la norme 2: kxk2 = hx, xi = x > x. Un résultat connu et utile est
l’inégalité de Cauchy-Schwartz:
∀(x, y ) ∈ Rn × Rn , |hx, y i| ≤ kxkky k.
8 / 11
Prérequis

Rappels d’algèbre linéaire/bilinéaire


I Notions de valeur propre et vecteur propre.
I Matrice (semi-)définie positive/négative.

Rappels de calcul différentiel


I Calcul de gradient et de matrice hessienne.

9 / 11
Rappels de calcul différentiel

Cas des fonctions différentiables de Rn dans Rp .


f : Rn → Rp
x = (x1 , . . . , xn ) 7 → f (x) = (f1 (x), . . . , fp (x))

I Dérivées d’ordre 1: matrice jacobienne de f en x: unique matrice Jf (x) de


Rp×n vérifiant:

∀h ∈ Rn , f (x + h) = f (x) + Jf (x)h + o(khk).

En pratique:
∂f1 ∂f1
 
∂x1
... ∂xn
 .. .. .. 
Jf (x) = 
 . . .


∂fp ∂fp
∂x1
... ∂xn
I Formule de dérivation des fonctions composées:

J(g ◦f ) (x) = Jg (f (x)) × Jf (x).

10 / 11
Rappels de calcul différentiel
Cas des fonctions différentiables de Rn dans R.
f : Rn → R
x = (x1 , . . . , xn ) 7 → f (x)

I Dérivées d’ordre 1: vecteur gradient de f en x: unique vecteur ∇f (x) de Rn


vérifiant:
∀h ∈ Rn , f (x + h) = f (x) + h∇f (x), hi + o(khk).
En pratique:
∂f
 
(x)
 ∂x1
 ..

∇f (x) = 

.
.
 ∂f 
(x)
∂xn
I Dérivées d’ordre 2: matrice Hessienne de f en x:
 2 
∂ f
Hf (x) = (x) .
∂xi xj 1≤i,j≤n

Si f est de classe C 2 , alors la matrice Hf (x) est symétrique réelle, donc


diagonalisable (théorème de Schwartz).
11 / 11

Vous aimerez peut-être aussi