Académique Documents
Professionnel Documents
Culture Documents
Techniques d'Optimisation
Filière :
Génie Civil
Coordinateur de lière :
Pr.
Pr.Mohammed Derouich
Mohamed Derouich
Généralités
Notions et Rappels Mathématiques
Loubna BOUDJAJ
ENSA OUJDA
Université Mohammed Premier
14 Février 2022
L.B
2
Sommaire
1 Généralités
Motivation
Vocabulaire d'optimisation
Classication
Formulation d'un problème d'optimisation (PO)
1 Généralités
Motivation
Vocabulaire d'optimisation
Classication
Formulation d'un problème d'optimisation (PO)
L.B
4
Motivation
Généralités Vocabulaire d'optimisation
Notions et Rappels Mathématiques Classication
Formulation d'un problème d'optimisation (PO)
Pourquoi l'optimisation ?
Les techniques d'optimisation sont aujourd'hui utilisées dans nombreux domaines
dont la logistique, la gestion de production, la nance, les protocoles de transport
d'information des réseaux informatiques, le transport d'énergie dans les réseaux
électriques, les stratégies militaires, les transports aériens et ferroviaires entre
autres...Et ces outils sont utilisés dans les bureaux d'études mécaniques en génie
civil. Il est important de mettre à disposition, et de manière simple, la
connaissance des méthodes d'optimisation.[1]
L.B
5
Motivation
Généralités Vocabulaire d'optimisation
Notions et Rappels Mathématiques Classication
Formulation d'un problème d'optimisation (PO)
L.B
6
Motivation
Généralités Vocabulaire d'optimisation
Notions et Rappels Mathématiques Classication
Formulation d'un problème d'optimisation (PO)
L.B
7
Motivation
Généralités Vocabulaire d'optimisation
Notions et Rappels Mathématiques Classication
Formulation d'un problème d'optimisation (PO)
1 Généralités
Motivation
Vocabulaire d'optimisation
Classication
Formulation d'un problème d'optimisation (PO)
L.B
8
Motivation
Généralités Vocabulaire d'optimisation
Notions et Rappels Mathématiques Classication
Formulation d'un problème d'optimisation (PO)
Remarque
Dans ce cours on s'intèresse à l'optimisation en dimension nie, et si la valeur du
minimum est atteinte, le (PO) devient
(PO) :Trouver u, tel que u ∈ U et f (u) = minv ∈U f (v )
L.B
Motivation
Généralités Vocabulaire d'optimisation
Notions et Rappels Mathématiques Classication
Formulation d'un problème d'optimisation (PO)
Remarque
Puisque maximiser une quantité revient à minimiser son opposé, alors les
problèmes de minimisation englobent les problèmes de maximisation
Remarque
Si le (PO) possède une solution, on cherchera à la caractériser, à la
déterminer lorsque ce sera possible et pour cela on exploitera les conditions
nécessaires d'optimalité.
Si le (PO) ne possède pas de solution, on cherchera à exhiber une suite
minimisante (c'est à dire ) une suite des élèments de l'ensemble U
convergeant vers inf{f (x), x ∈ U}.
L.B
10
Motivation
Généralités Vocabulaire d'optimisation
Notions et Rappels Mathématiques Classication
Formulation d'un problème d'optimisation (PO)
1 Généralités
Motivation
Vocabulaire d'optimisation
Classication
Formulation d'un problème d'optimisation (PO)
L.B
11
Motivation
Généralités Vocabulaire d'optimisation
Notions et Rappels Mathématiques Classication
Formulation d'un problème d'optimisation (PO)
∗Programmation mathématique
Optimisation combinatoire
Inconnues = entiers →
Programmation en nombres
Optimisation continue
1 Généralités
Motivation
Vocabulaire d'optimisation
Classication
Formulation d'un problème d'optimisation (PO)
L.B
13
Motivation
Généralités Vocabulaire d'optimisation
Notions et Rappels Mathématiques Classication
Formulation d'un problème d'optimisation (PO)
L.B
14
Motivation
Généralités Vocabulaire d'optimisation
Notions et Rappels Mathématiques Classication
Formulation d'un problème d'optimisation (PO)
Exemple
Une entreprise qui fabrique des tables et des chaises utilise une même machine
pour fabriquer ses produits.
- Fabriquer une chaise nécessite 8 heures, tandis qu'une table nécessite 10 h à la
machine, et cette machine peut être utilisé au maximum de 140 heures par
semaine.
- Pour répondre à la demande, l'entreprise veut fabriquer au moins 5 tables par
semaine.
- Fabriquer une table requière 5 employés tandis qu'une chaise requière 3 employés.
Pour être ecace, le nombre d'employés nécessaire à la fabrication des tables doit
être au maximum 35 employées de plus que le nombre nécessaire d'employés à la
fabrication des chaises.
En considérant toutes ces contraintes, si la vente d'une table apporte un prot de
51 dollars et celle d'une chaise un prot de 48 dollars.
Combien de tables et de chaises devrait produire l'entreprise en une semaine pour
maximiser ses prots ?
L.B
Motivation
Généralités Vocabulaire d'optimisation
Notions et Rappels Mathématiques Classication
Formulation d'un problème d'optimisation (PO)
Solution
les variables
On pose :
X : le nombre des tables
Y : le nombre des chaises
la fonction objectif
maximiser 51X + 48Y
les contraintes
10X + 8Y ≤ 140
X ≥5
5X ≤ 35 + 3Y
Y ≥0
On trace les droites données par ces équations D1 : 10X + 8Y = 140, D4 : Y = 0,
D3 : 5X = 35 + 3Y et D2 : X = 5
L.B
16
Motivation
Généralités Vocabulaire d'optimisation
Notions et Rappels Mathématiques Classication
Formulation d'un problème d'optimisation (PO)
L.B
17
Motivation
Généralités Vocabulaire d'optimisation
Notions et Rappels Mathématiques Classication
Formulation d'un problème d'optimisation (PO)
L.B
Généralités Norme et suite minimisante
Notions et Rappels Mathématiques Minimum local, minimum global
Rappel de calcul diérentiel
1 Généralités
Motivation
Vocabulaire d'optimisation
Classication
Formulation d'un problème d'optimisation (PO)
L.B
19
Généralités Norme et suite minimisante
Notions et Rappels Mathématiques Minimum local, minimum global
Rappel de calcul diérentiel
Dénition
Soit E un R -espace vectoriel. On appelle produit scalaire sur E toute application
de E × E dans R notée ⟨·, ·⟩ vériant
-⟨·, ·⟩est bilinèaire
-⟨·, ·⟩ est symétrique : ∀x, y ∈ E , ⟨x, y ⟩ = ⟨y , x⟩ .
- pour tout x ∈ E , ⟨x, x⟩ ≥ 0. De plus si ⟨x, x⟩ = 0, alors x = 0.
Exemple
Dans l'espace Rn , on introduit le produit scalaire canonique, c'est-à-dire celui
qu'on utilisera de maniére standard dans Rn . Il s'agit du produit scalaire suivant :
⟨(x1 , ..., xn ), (y1 , ..., yn )⟩Rn =Pni=1 xi yi
L.B
Généralités Norme et suite minimisante
Notions et Rappels Mathématiques Minimum local, minimum global
Rappel de calcul diérentiel
Dénition
Soit une application dénie par ∥.∥ : Rn → R+ vériant les proprietés suivantes :
∥x∥ = 0 =⇒ x = 0.
∥λx∥ = |λ|∥x∥.
∥x + y ∥ ≤ ∥x∥ + ∥y ∥ (Inégalité triangulaire).
alors cette application s'appelle norme sur Rn
On dénit les normes
Psuivantes1:
Norme p : ∥x∥p = ( ni=1 |xi |p ) p
Norme ∞ : ∥x∥∞ =Pmaxi=1:n |x1i |
Norme 2 : ∥x∥2 = ( ni=1 |xi |2 ) 2 (la norme euclidienne)
L.B
Généralités Norme et suite minimisante
Notions et Rappels Mathématiques Minimum local, minimum global
Rappel de calcul diérentiel
Dénition
Soit A une partie minorée non vide de R. On dit que m = inf{x, x ∈ A} si et
seulement si ∀ϵ > 0, ∃x ∈ A, m ≤ x < m + ϵ
Proposition
Soit A une partie minorée non vide de R. Alors les assertions suivantes sont
équivalentes :
m = inf{x, x ∈ A},
m est un minorant de A et il existe (xn )n∈N ∈ An , appelée suite
minimisante convergeant vers m.
Exemple
Soit A = { n1 , n ∈ N∗ }, inf A = 0
L.B
Généralités Norme et suite minimisante
Notions et Rappels Mathématiques Minimum local, minimum global
Rappel de calcul diérentiel
1 Généralités
Motivation
Vocabulaire d'optimisation
Classication
Formulation d'un problème d'optimisation (PO)
L.B
23
Généralités Norme et suite minimisante
Notions et Rappels Mathématiques Minimum local, minimum global
Rappel de calcul diérentiel
Dénition
Soit f : U → R une fonction et U un ouvert de Rn .
a est un minimum local de f si :
∀x ∈ U, f (a) ≤ f (x)
L.B
24
Généralités Norme et suite minimisante
Notions et Rappels Mathématiques Minimum local, minimum global
Rappel de calcul diérentiel
Graphes d'illustrations
Cas 1d
4
maximum global
maximum local
3
2
Y
1
minimum local
minimum global
0
2 4 6 8 10 12 14 16 18
X
Cas 2d
maximum global
10 maximum local
−5
−10
4
L.B 2
minimum global
4
0 2
0 25
Généralités Norme et suite minimisante
Notions et Rappels Mathématiques Minimum local, minimum global
Rappel de calcul diérentiel
Théorème
(Théorème de Weierstrass)
Soit f une fonction continue sur U ⊂ Rn avec U fermé borné. Alors :
∃x0 ∈ U tel que f (x0 ) = minx∈U f (x)
∃x1 ∈ U tel que f (x1 ) = maxx∈U f (x)
C'est à dire que f est bornée sur U (f (x0 ) ≤ f (x) ≤ f (x1 )) et atteint ses bornes.
L.B
26
Généralités Norme et suite minimisante
Notions et Rappels Mathématiques Minimum local, minimum global
Rappel de calcul diérentiel
1 Généralités
Motivation
Vocabulaire d'optimisation
Classication
Formulation d'un problème d'optimisation (PO)
L.B
27
Généralités Norme et suite minimisante
Notions et Rappels Mathématiques Minimum local, minimum global
Rappel de calcul diérentiel
Dénition
Soit U un ouvert de Rn , f : U → R une application et a ∈ U .
On dit que f est diérentiable en a s'il existe une application linéaire de Rn vers R
notée dfa (continue), telle que ∀h ∈ Rn , avec a + h ∈ U
f (a + h) = f (a) + dfa (h) + o(∥h∥)
Autrement dit :
limh→0 f (a+h)−f (a)−dfa (h)
∥h∥ =0
Théorème
Soient U ⊂ Rn ,V ⊂ R.
Soient f , g deux fonctions de classe C 1 , f : U → R et g : V → R telle que
f (U) ⊂ V alors :
Dénition
Soit f : U → R une application, a ∈ U et h ∈ Rn \{0}. On dit que f admet une
dérivée en a suivant le vecteur h si
limt→0 f (a+th)−f (a)
t existe dans R
si cette limite existe on la note Dh f (a)
Proposition
Si f : U → R est diérentiable en un point a ∈ U , alors f admet une dérivée en a
suivant tout vecteur h de Rn \{0} de plus Dh f (a) = dfa (h)
preuve
au séance de cours
L.B
Généralités Norme et suite minimisante
Notions et Rappels Mathématiques Minimum local, minimum global
Rappel de calcul diérentiel
Dénition
On dit que f : U → R est de classe C r sur U si toutes ses dérivées partielles
jusqu'à l'ordre r existent et continues.
Si f est de classe C 2 , alors pour j, k ∈ [[1, n]] on note
∂2f ∂2f
∂ ∂f ∂ ∂f
= si j ̸= k, = si j = k
∂xj ∂xk ∂xj ∂xk ∂xj2 ∂xj ∂xj
On a également des notations analogues pour les dérivées partielles à tout ordre.
L.B
Généralités Norme et suite minimisante
Notions et Rappels Mathématiques Minimum local, minimum global
Rappel de calcul diérentiel
Théorème
On suppose que f est de classe C 2 sur U . Alors pour tous j, k ∈ [[1, n]] on a
∂2f ∂2f
=
∂xj ∂xk ∂xk ∂xj
Dénition
Soit f : U → R. Pour r ∈ N∗ et des indices i1 , . . . , ir ∈ {1, . . . , n}, on appelle le
vecteur r
∂ f (x)
:= Dei1 . . . Deir f (x)
∂xi1 , . . . , ∂xir
une dérivée partielle d'ordre r de f en x .
Exercices (Travaux Dirigés)
L.B
Généralités Norme et suite minimisante
Notions et Rappels Mathématiques Minimum local, minimum global
Rappel de calcul diérentiel
Dénition
Soit f : U ⊂ Rn → Rp . Si f est diérentiable sur U , la matrice des dérivées
partielles de f s'appelle la matrice jacobienne ou la Jacobienne de f . On la note
J(f )a , elle a n colonnes et p lignes :
∂f1 (a) ∂f1 (a)
∂x1 ... ∂xn
.. ..
J(f )a =
. . ∈ Mp,n (R)
∂fp (a) ∂fp (a)
∂x1 ... ∂xn
Dénition
et la transposée de ce vecteur est la matrice colonne
t
∂f (x) ∂f (x)
grad(f )(x1 ,...,xn ) = ,...,
∂x1 ∂xn
grad est appelé gradient de f et il est noté ∇f (x) (qui se lit nabla f de x ).
L.B
33
Généralités Norme et suite minimisante
Notions et Rappels Mathématiques Minimum local, minimum global
Rappel de calcul diérentiel
Dénition
Soit f : U ⊂ Rn → R. Si f est deux fois diérentiable sur l'ouvert U alors pour
tout x ∈ E , pour tous i, j ∈ {1, . . . , n}
∂2f ∂ ∂f
(x) = (x)
∂xi ∂xj ∂xi ∂xj
Alors la matrice
∂2f ∂2f
∂x12
(x) ··· ∂x1 ∂xn (x)
Hess f (x) =
.. ..
. .
∂2f ∂2f
∂xn ∂x1 (x) ··· ∂xn2 (x)
Remarque
la matrice hessienne est symétrique.
L.B
Exercices (Travaux Dirigés)
Généralités Norme et suite minimisante
Notions et Rappels Mathématiques Minimum local, minimum global
Rappel de calcul diérentiel
Formule de Taylor-Young
Soient U un ouvert de Rn , f : U → R, f ∈ C r (U, R). Soit a ∈ U et h ∈ Rn avec
a+h ∈U .
Alors f admet un développement de Taylor-Young en tout point a ∈ U ,on a
r
X 1 k
f (a + h) = f (a) + D f (a) · hk + o(∥h∥r )
k!
k=1
En particulier
1. Si r = 1,
f (a + h) = f (a) + Df (a)(h) + o(∥h∥)
= f (a) + ⟨∇f (a), (h)⟩ + o(∥h∥)
2. Si r = 2, on a
f (a + h) = f (a) + Df (a)(h) + 12 D 2 f (a)(h, h) + o(∥h∥2 )
= f (a) + ⟨∇f (a), (h)⟩ + 12 ⟨Hf (a)(h), (h)⟩ + o(∥h∥2 )
L.B
35
Généralités Norme et suite minimisante
Notions et Rappels Mathématiques Minimum local, minimum global
Rappel de calcul diérentiel
Formule de Taylor−Lagrange
Soient U un ouvert de Rn , f : U → R une application p + 1 fois diérentiable,
a ∈ U et h ∈ Rn tels que le segment [a, a + h] ⊂ U . Alors il existe θ ∈] 0, 1[ tel
que :
1 k 1
p
D p+1 f (a + θh)hp+1
X
f (a + h) = f (a) + D f (a) · hk +
k! (p + 1)!
k=1
En particulier
1. Si p = 0, on a
f (a + h) = f (a) + Df (a + θh) · h
= f (a)+ < ∇f (a + θh), h >
2. Si p = 1, on a
f (a + h) = f (a) + Df (a) · h + 21 D 2 f (a + θh) · h2
= f (a)+ < ∇f (a), h > + 12 < ∇2 f (a + θh)h, h >
L.B
36
Généralités Norme et suite minimisante
Notions et Rappels Mathématiques Minimum local, minimum global
Rappel de calcul diérentiel
1 k 1 1
p Z
(1 − t)p D p+1 f (a + th) · hp+1 dt
X
k
f (a + h) = f (a) + D f (a) · h +
k! p! 0
k=1
En particulier
1. Si p = 0, on a R
1
f (a + h) = f (a) + 0 Df (a + th) · h dt
R1
= f (a) + 0 < ∇f (a + th), h > dt
2. Si p = 1, on a
f (a + h) = f (a) + Df (a) · h + 01 (1 − t)D 2 f (a + th) · h2 dt
R
R1
= f (a)+ < ∇f (a), h > + 0 (1 − t) < ∇2 f (a + th)h, h > dt
L.B
37
Généralités Norme et suite minimisante
Notions et Rappels Mathématiques Minimum local, minimum global
Rappel de calcul diérentiel
Remarque
La formule la plus utilisée est la formule de Taylor-Young à l'ordre 2 pour la
recherche d'extrema.
Exercices (Travaux Dirigés)
L.B
38
Existence et unicité de minimum : Cas de dimension nie
Existence et unicité de minimum : Cas général
caractérisation du minimum
Chapitre 2:
Loubna BOUDJAJ
Pr. Loubna BOUDJAJ
ENSA OUJDA
Université Mohammed Premier
3 caractérisation du minimum
Équation d'Euler
Inéquation d'Euler
Le théorème de Kuhn Tucker exprimé par le Lagrangien
Existence et unicité de minimum : Cas de dimension nie
Existence et unicité de minimum : Cas général
caractérisation du minimum
L.B
3
Existence et unicité de minimum : Cas de dimension nie Existence de minimum
Existence et unicité de minimum : Cas général Unicité de minimum
caractérisation du minimum
3 caractérisation du minimum
Équation d'Euler
Inéquation d'Euler
Le théorème de Kuhn Tucker exprimé par le Lagrangien
L.B
4
Existence et unicité de minimum : Cas de dimension nie Existence de minimum
Existence et unicité de minimum : Cas général Unicité de minimum
caractérisation du minimum
Théorème
Soit f une fonction continue sur un sous ensemble U fermé de Rn . On suppose
que
ou bien U est borné,
ou bien U est non borné et lim∥x∥→+∞ f (x) = +∞ (on dit alors que f est
coercive),
alors f posséde un minimum sur U .
Démonstration.
au séance de cours
L.B
Existence et unicité de minimum : Cas de dimension nie Existence de minimum
Existence et unicité de minimum : Cas général Unicité de minimum
caractérisation du minimum
3 caractérisation du minimum
Équation d'Euler
Inéquation d'Euler
Le théorème de Kuhn Tucker exprimé par le Lagrangien
L.B
6
Existence et unicité de minimum : Cas de dimension nie Existence de minimum
Existence et unicité de minimum : Cas général Unicité de minimum
caractérisation du minimum
On dit que f est strictement convexe si l'inégalité ci-dessus est stricte pour
x ̸= y , t ∈]0, 1[
On dit que f est concave (respectivement strictement concave) si −f est
convexe (respectivement strictement convexe).
L.B
7
Existence et unicité de minimum : Cas de dimension nie Existence de minimum
Existence et unicité de minimum : Cas général Unicité de minimum
caractérisation du minimum
Théorème
Si f : Rn −→ R est diérentiable, on a les équivalences entre
1 f est convexe sur Rn ;
2 f (y ) ⩾ f (x) + ⟨∇f (x), y − x⟩, ∀(x, y ) ∈ [Rn ]2
3 ⟨∇f (y ) − ∇f (x), y − x⟩ ⩾ 0, ∀(x, y ) ∈ [Rn ]2
On a équivalence entre convexité stricte et les inégalités (2) et (3)
précédentes rendues strictes, pour x ̸= y .
Si f : Rn −→ R est deux fois diérentiable, on a les équivalences entre
1 f est convexe ;
2 pour tout x ∈ Rn , Hess f (x) est semi-dénie positive.
L.B
8
Existence et unicité de minimum : Cas de dimension nie Existence de minimum
Existence et unicité de minimum : Cas général Unicité de minimum
caractérisation du minimum
Théorème
Soit le problème (PO) avec f convexe et U convexe (éventuellement de dimension
innie). Alors,
-Tout minimum local est un minimum global.
-Si f est strictement convexe, il y a au plus un minimum.
Exemple
-Dans R les ensembles convexes sont les intervalles.
- Une droite reliant deux éléments de Rn est un ensemble convexe.
-Les sous-espaces vectoriels de Rn sont convexes.
-la fonction f (x) = x 2 est strictement convexe sur R.
L.B
Existence et unicité de minimum : Cas de dimension nie Existence de minimum
Existence et unicité de minimum : Cas général Unicité de minimum
caractérisation du minimum
Exercice d'application
Convexité d'une fonction quadratique
f : Rn −→ R
1
x 7−→ f (x) = ⟨Ax, x⟩ − ⟨b, x⟩ + c,
2
avec A une matrice réelle symétrique, b un vecteur de Rn et c une constante
donnée.
L.B
Existence et unicité de minimum : Cas de dimension nie Fonction α−elliptique
Existence et unicité de minimum : Cas général Existence et Unicité de minimum
caractérisation du minimum
3 caractérisation du minimum
Équation d'Euler
Inéquation d'Euler
Le théorème de Kuhn Tucker exprimé par le Lagrangien
L.B
11
Existence et unicité de minimum : Cas de dimension nie Fonction α−elliptique
Existence et unicité de minimum : Cas général Existence et Unicité de minimum
caractérisation du minimum
Dénition
Soit U ⊂ V , un convexe. Une fonction f : U −→ R est dite α−elliptique s'il existe
α > 0 tel que, pour tous (x, y ) ∈ U 2 , t ∈ [0, 1],
α
f (tx + (1 − t)y ) ⩽ tf (x) + (1 − t)f (y ) − t(1 − t)∥x − y ∥2
2
Remarque
la convexité correspond au cas α = 0
il est clair qu'une fonction α−elliptique est strictement convexe, et donc
convexe.
L.B
12
Existence et unicité de minimum : Cas de dimension nie Fonction α−elliptique
Existence et unicité de minimum : Cas général Existence et Unicité de minimum
caractérisation du minimum
Corollaire
Si f : U −→ R est diérentiable, on a les équivalences
1 f est α-elliptique ;
2 f (y ) ⩾ f (x) + ⟨∇f (x), y − x⟩ + α2 ∥y − x∥2 , ∀(x, y ) ∈ U 2
3 ⟨∇f (y ) − ∇f (x), y − x⟩ ⩾ α∥y − x∥2 , ∀(x, y ) ∈ U 2 .
Si f : U −→ R est deux fois diérentiable, on a les équivalences
1 f est α-elliptique ;
2 ⟨ Hess f (x)h, h⟩ ⩾ α∥h∥2 , ∀x ∈ U, ∀h ∈ U .
Remarque
f est α -elliptique alors elle est strictement convexe et coercive
Démonstration.
au séance de cours
L.B
Existence et unicité de minimum : Cas de dimension nie Fonction α−elliptique
Existence et unicité de minimum : Cas général Existence et Unicité de minimum
caractérisation du minimum
3 caractérisation du minimum
Équation d'Euler
Inéquation d'Euler
Le théorème de Kuhn Tucker exprimé par le Lagrangien
L.B
14
Existence et unicité de minimum : Cas de dimension nie Fonction α−elliptique
Existence et unicité de minimum : Cas général Existence et Unicité de minimum
caractérisation du minimum
Théorème
Soit U , un convexe fermé non vide d'un espace de Hilbert V et f , une fonction
α-elliptique continue sur U . Alors, il existe un unique minimum x ∗ de f sur U et
on a :
∗ 2 4 ∗
∥x − x∥ ⩽ [f (x) − f (x )] , ∀x ∈ U
α
En particulier, toute suite minimisante de f sur l'ensemble U converge vers x ∗ .
L.B
15
Existence et unicité de minimum : Cas de dimension nie Fonction α−elliptique
Existence et unicité de minimum : Cas général Existence et Unicité de minimum
caractérisation du minimum
Exemple
une fonction α-elliptique
f : V −→ R
1
x 7−→ f (x) =
⟨Ax, x⟩ − ⟨b, x⟩ + c,
2
avec A une matrice réelle symétrique, b un vecteur de V et c une constante
donnée. On a déjà prouvé dans l'exemple précedent que f est strictement convexe
sur V si, et seulement si A est dénie positive, et que de plus Hess f (x) = A pour
tout x ∈ V . Étant donné que A est symétrique réelle, on peut la diagonaliser dans
une base orthonormée réelle de vecteurs propres notée {ei }1≤i≤n . Le spectre de A
rangé par ordre croissant est :
λ1 ≤ · · · ≤ λn
L.B
16
Existence et unicité de minimum : Cas de dimension nie Fonction α−elliptique
Existence et unicité de minimum : Cas général Existence et Unicité de minimum
caractérisation du minimum
Exemple
A suivre...
On peut alors écrire que A = PDP −1 , avec P inversible. P est la matrice telle que
P = [e1 · · · en ], où les vecteurs e1 , · · · , en , sont écrits en colonne, et
D = diag (λ1 , · · · , λn ) . Posons u = P −1 h. Alors,
n n
λi ui2 ≥ λ1 ui2 = λ1 | u
2 = λ1
h∥2 .
X X
⟨Ah, h⟩ =
i=1 i=1
L.B
Existence et unicité de minimum : Cas de dimension nie Équation d'Euler
Existence et unicité de minimum : Cas général Inéquation d'Euler
caractérisation du minimum Le théorème de Kuhn Tucker exprimé par le Lagrangien
3 caractérisation du minimum
Équation d'Euler
Inéquation d'Euler
Le théorème de Kuhn Tucker exprimé par le Lagrangien
L.B
18
Existence et unicité de minimum : Cas de dimension nie Équation d'Euler
Existence et unicité de minimum : Cas général Inéquation d'Euler
caractérisation du minimum Le théorème de Kuhn Tucker exprimé par le Lagrangien
Théorème
Soit f une fonction diérentiable dans V et u un point de V tel que ∇f (u) = 0.
Si f est deux fois diérentiable dans un voisinage de u et s 'il existe un
voisinage Ω de u tel que ∀v ∈ Ω, ∀w ∈ V , ≺ ∇2 f (v )w .w ≻⩾ 0, alors u est
minimum local de f .
Si f est deux fois diérentiable,et s'il existe α > 0 tel que
∀w ∈ V , ≺ ∇2 f (u)w .w ≻⩾ α∥w ∥2 ,
3 caractérisation du minimum
Équation d'Euler
Inéquation d'Euler
Le théorème de Kuhn Tucker exprimé par le Lagrangien
L.B
20
Existence et unicité de minimum : Cas de dimension nie Équation d'Euler
Existence et unicité de minimum : Cas général Inéquation d'Euler
caractérisation du minimum Le théorème de Kuhn Tucker exprimé par le Lagrangien
On suppose que U est un convexe fermé non vide de V et que f est diérentiable.
Théorème
Si u est solution optimale on a l'inéquation d'Euler
u∈U
∀v ∈ U, ≺ ∇f (u) · (v − u) ≻⩾ 0.
Cas U = V
Théorème
Si f est convexe diérentiable, alors u réalise le minimum de f sur V si et
seulement si ∇f (u) = 0.
Remarque
En particulier si f est α-elliptique, il existe une unique solution optimale,
caractérisée par ∇f (u) = 0.
L.B
Existence et unicité de minimum : Cas de dimension nie Équation d'Euler
Existence et unicité de minimum : Cas général Inéquation d'Euler
caractérisation du minimum Le théorème de Kuhn Tucker exprimé par le Lagrangien
3 caractérisation du minimum
Équation d'Euler
Inéquation d'Euler
Le théorème de Kuhn Tucker exprimé par le Lagrangien
L.B
22
Existence et unicité de minimum : Cas de dimension nie Équation d'Euler
Existence et unicité de minimum : Cas général Inéquation d'Euler
caractérisation du minimum Le théorème de Kuhn Tucker exprimé par le Lagrangien
On considère le problème
(P) : minx∈K f (x) où K = {x ∈ Rn | g1 (x) ≤ 0, . . . , gl (x) ≤ 0}.
On suppose que les applications f , g1 , . . . , gl sont convexes et de classe C 1 .
Le lagrangien est une application L de Rn × Rl dans R dénie par
l
X
L(x, λ) = f (x) + λT g (x) = f (x) + λi gi (x)
i=1
L.B
23
Existence et unicité de minimum : Cas de dimension nie Équation d'Euler
Existence et unicité de minimum : Cas général Inéquation d'Euler
caractérisation du minimum Le théorème de Kuhn Tucker exprimé par le Lagrangien
Théorème
Théorème de dualité
On suppose que la contrainte est qualiée et que le problème (P) admet au moins
une solution. Alors
min f (x) = sup inf n L(x, λ)
x∈K λ∈R1+ x∈R
L.B
24
Optimisation sans contraintes (sans restrictions)
Optimisation avec contraintes (sous restrictions)
Loubna BOUDJAJ
ENSA OUJDA
Université Mohammed Premier
xk+1 = xk + ρk dk
L.B
3
Méthode de relaxation
Optimisation sans contraintes (sans restrictions) Méthode de gradient
Optimisation avec contraintes (sous restrictions) Méthode du gradient conjugué
Méthode de Newton
L.B
Méthode de relaxation
Optimisation sans contraintes (sans restrictions) Méthode de gradient
Optimisation avec contraintes (sous restrictions) Méthode du gradient conjugué
Méthode de Newton
Si tous les axes ont été testés et que la méthode n'a pas convergé,
4
recommencer à e1 .
L.B
5
Méthode de relaxation
Optimisation sans contraintes (sans restrictions) Méthode de gradient
Optimisation avec contraintes (sous restrictions) Méthode du gradient conjugué
Méthode de Newton
Algorithme :
1 Initialisation k = 0 :
choix de X0 dans Rn et calcul de g0 = ∇f (x0 ).
2 Itération k
pour i = 1 à n
calcul de la solution xik+1 de
min f x1k+1 , x2k+1 , . . . , xi−
k+1
1 , x, xi+1 , . . . , xn , x ∈ R. end for
k k
alors
STOP
Sinon
on pose k = k + 1, et on retourne à (2) n si
Exemple,illustration graphique :Séance de cours
Théorème
Si f est α-convexe C 1 sur Rn , l'algorithme de relaxation est bien déni et converge
vers la solution optimale.
L.B
Méthode de relaxation
Optimisation sans contraintes (sans restrictions) Méthode de gradient
Optimisation avec contraintes (sous restrictions) Méthode du gradient conjugué
Méthode de Newton
L.B
Méthode de relaxation
Optimisation sans contraintes (sans restrictions) Méthode de gradient
Optimisation avec contraintes (sous restrictions) Méthode du gradient conjugué
Méthode de Newton
Principe :
On veut construire un point critique de manière Itérative
xk → x̄ ∇f (x̄) = 0
L.B
Méthode de relaxation
Optimisation sans contraintes (sans restrictions) Méthode de gradient
Optimisation avec contraintes (sous restrictions) Méthode du gradient conjugué
Méthode de Newton
Algorithme :
Initialisation :
1
k = 0 : choix de x0 et de ρ0 > 0
Itération k :
2
xk+1 = xk − ρk ∇f (xk ) ;
Critère d'arrêt :
3
L.B
9
Méthode de relaxation
Optimisation sans contraintes (sans restrictions) Méthode de gradient
Optimisation avec contraintes (sous restrictions) Méthode du gradient conjugué
Méthode de Newton
Remarque
Si ρk = ρ, l'algorithme est dit à pas constant (méthode de gradient à pas
xe).
Si ρk = minρ f (xk − ρ∇f (xk )) (c'est pas facile en général) On peut parler de
la méthode de gradient à pas optimale
Remarque
Critère d'arrêt :
Etant donné que ∇f (xk ) → ∇f (x̄) = 0, on pose
∥xk+1 − xk ∥ < ϵ2
L.B
Méthode de relaxation
Optimisation sans contraintes (sans restrictions) Méthode de gradient
Optimisation avec contraintes (sous restrictions) Méthode du gradient conjugué
Méthode de Newton
Algorithme :
1 Initialisation - k = 0 :
choix de x0 ∈ Rn et calcul de r0 = Ax0 − b.(le résidu)
2 Itération k
Si rk = 0 alors
STOP
Sinon
r0 si k = 0
dk = avec αk = − (Ad (rk ,Adk−1 )
.
rk + αk dk−1 si k ⩾ 1 k−1 ,dk−1 )
(rk ,dk )
ρk = (Ad k ,dk )
xk+1 = xk − ρk dk ,
rk+1 = Axk+1 − b.
Fin si
3 k =k +1
Exemple,illustration graphique :Séance de cours
Exercice,code et interface graphique :Séance de TD
L.B
13
Méthode de relaxation
Optimisation sans contraintes (sans restrictions) Méthode de gradient
Optimisation avec contraintes (sous restrictions) Méthode du gradient conjugué
Méthode de Newton
L.B
Méthode de relaxation
Optimisation sans contraintes (sans restrictions) Méthode de gradient
Optimisation avec contraintes (sous restrictions) Méthode du gradient conjugué
Méthode de Newton
Principe :
La méthode de Newton en optimisation est une application directe de l'algorithme
de Newton pour la résolution d'équations du type : F (x) = 0.
On cherche les solutions de l'équation :
∇f (x) = 0,
L.B
Méthode de relaxation
Optimisation sans contraintes (sans restrictions) Méthode de gradient
Optimisation avec contraintes (sous restrictions) Méthode du gradient conjugué
Méthode de Newton
Algorithme :
1 Initialisation k = 0 :
choix de x0 dans un voisinage de x̄ .
2 Itération k :
−1
xk+1 = xk − [H (xk )] ∇f (xk )
Critère d'arrêt :
3
Si ∥xk+1 − xk ∥ < ε
Alors
STOP
Sinon
on pose k = k + 1, et on retourne à (2) n si
Exemple,illustration graphique :Séance de cours
Exercice,code et interface graphique :Séance de TD
L.B
16
Problème avec contraintes d'égalité
Optimisation sans contraintes (sans restrictions)
Problème avec contraintes : cas général
Optimisation avec contraintes (sous restrictions)
Méthode de gradient projeté
L.B
Problème avec contraintes d'égalité
Optimisation sans contraintes (sans restrictions)
Problème avec contraintes : cas général
Optimisation avec contraintes (sous restrictions)
Méthode de gradient projeté
L.B
18
Problème avec contraintes d'égalité
Optimisation sans contraintes (sans restrictions)
Problème avec contraintes : cas général
Optimisation avec contraintes (sous restrictions)
Méthode de gradient projeté
k=1
Remarque
-(x ⋆ , Λ⋆ ) est un point stationnaire de L si DL (x ⋆ , Λ⋆ ) = 0
- les (λ1 , λ2 , . . . , λℓ ) ∈ Rℓ sont appelées les multiplicateurs de lagrange
L.B
19
Problème avec contraintes d'égalité
Optimisation sans contraintes (sans restrictions)
Problème avec contraintes : cas général
Optimisation avec contraintes (sous restrictions)
Méthode de gradient projeté
Proposition
Soient f , g1 , g2 , . . . , gℓ deux fois continûment dérivables au voisinage de x ⋆ telles
que le Lagrangien L(x, Λ) est stationnaire en (x ⋆ , Λ⋆ ).
Si HL(x ⋆ ,Λ⋆ ) est dénie positive sur Tx S i.e. si ∆xT HLx,⋆ ∆x > 0 ∀∆x ̸= 0
tel que ∆x ∈ Tx S alors f admet un minimum sous contrainte en x ⋆ .
Si HL(x ⋆ ,Λ⋆ ) est dénie négative sur Tx S , i.e. si ∆xT HLx,⋆ ∆x < 0 ∀∆x ̸= 0
tel que ∆x ∈ Tx S alors f admet un maximum sous contrainte en x ⋆
Si HL(x ⋆ ,Λ⋆ ) est indénie sur Tx S , i.e. si ∃∆x1 , ∆x2 ̸= 0 tels que
∆x1 , ∆x2 ∈ Tx S et
∆x T
1 HLx,⋆ ∆x1 < 0, ∆x T
2 HLx,⋆ ∆x2 > 0
L.B
20
Problème avec contraintes d'égalité
Optimisation sans contraintes (sans restrictions)
Problème avec contraintes : cas général
Optimisation avec contraintes (sous restrictions)
Méthode de gradient projeté
Exemple :
fonction f (x, y ) = xy sous la contrainte x 2 + y 2 = 1.(g (x, y ) =
Optimiser la
x +y −1
2 2
Domaines de dénitions : Df = R2 et Dg = R2
1
Lagrangien : L(x, y , λ) = xy − λ x 2 + y 2 − 1
2
∂L
=0 y − 2λx = 0 λ = +/ − 12
∂x (x, y , λ)
∂L
=0 ⇔ x − 2λy = 0 ⇔
∂y (x, y , λ) y = 2λx
x + y2 = 1 x = y 2 = 12
2 2
x + y2 = 1
2
L.B
21
Problème avec contraintes d'égalité
Optimisation sans contraintes (sans restrictions)
Problème avec contraintes : cas général
Optimisation avec contraintes (sous restrictions)
Méthode de gradient projeté
L.B
22
Problème avec contraintes d'égalité
Optimisation sans contraintes (sans restrictions)
Problème avec contraintes : cas général
Optimisation avec contraintes (sous restrictions)
Méthode de gradient projeté
L.B
Problème avec contraintes d'égalité
Optimisation sans contraintes (sans restrictions)
Problème avec contraintes : cas général
Optimisation avec contraintes (sous restrictions)
Méthode de gradient projeté
L.B
24
Problème avec contraintes d'égalité
Optimisation sans contraintes (sans restrictions)
Problème avec contraintes : cas général
Optimisation avec contraintes (sous restrictions)
Méthode de gradient projeté
Théorème
(F. John)
Soit x ∗ , un minimum local du problème (P). Alors, il existe (λ1 , · · · , λp ) ∈ Rp et
1
(µ0 , µ1 , · · · , µq ) ∈ Rq+
+ tels que
p q
µj ∇gJ (x ∗ ) = 0,
X X
µ0 ∇f (x ∗ ) + λl ∇hl (x ∗ ) +
l=1 j=1
et
h (x ∗ ) = 0 et g (x ∗ ) ⩽ 0,
µj gj (x ∗ ) = 0, ∀j ∈ {1, · · · , q} (condition de complémentarité).
L.B
Problème avec contraintes d'égalité
Optimisation sans contraintes (sans restrictions)
Problème avec contraintes : cas général
Optimisation avec contraintes (sous restrictions)
Méthode de gradient projeté
Dénitions
Contrainte active, qualication des contraintes
Soit x ∈ K .
L'ensemble I (x) = {i ∈ {1, · · · , l}, gi (x) = 0} est appelé ensemble des
contraintes actives en x .
On dit que les contraintes sont qualiées en x ∈ K si, et seulement si il existe
une direction d ∈ Rn telle que I'on ait pour tout i ∈ {1, · · · , p} et j ∈ I (x),
L.B
26
Problème avec contraintes d'égalité
Optimisation sans contraintes (sans restrictions)
Problème avec contraintes : cas général
Optimisation avec contraintes (sous restrictions)
Méthode de gradient projeté
Théorème
(Karush-Kuhn-Tucker) Soit x ∗ , un minimum local du problème (P).
On suppose que les contraintes sont qualiees en x . Alors, il existe
(λ1 , · · · , λp ) ∈ Rp et (µ1 , · · · , µq ) ∈ Rq+ tels que
p q
µj ∇gj (x ∗ ) = 0
X X
∇f (x ∗ ) + λl ∇hl (x ∗ ) +
l=1 j=1
et
h (x ∗ ) = 0 et g (x ∗ ) ⩽ 0,
µj gj (x ∗ ) = 0, ∀j ∈ {1, · · · , q} (condition de complémentarité).
L.B
27
Problème avec contraintes d'égalité
Optimisation sans contraintes (sans restrictions)
Problème avec contraintes : cas général
Optimisation avec contraintes (sous restrictions)
Méthode de gradient projeté
Exemple
Minimiser
min f (x, y ) = x 4 + 3y 4
x2 + y2 ⩾ 1
- Des deux premières équations, on tire que les minimiseurs sont à choisir parmi
r r r r
µ µ µ µ
(x1 , y1 ) = 0, ± , (x2 , y2 ) = ± , 0 et (x3 , y3 ) = ± ,±
6 2 2 6
- Pour (x1 , y1 ). Puisque x 2 + y 2 = 1, on obtient µ = 6 dans ce cas, et
(x1 , y1 ) = (0, ±1) et f (x1 , y1 ) = 3.
Exemple
Minimiser
2 2
min f (x, y ) =f(x)=(x1 + 1) + (x2 + 2)
g (x) = −x1 + x2 ≤ 0,
2
1
g2 (x) = −x2 ≤ 0
L.B
Problème avec contraintes d'égalité
Optimisation sans contraintes (sans restrictions)
Problème avec contraintes : cas général
Optimisation avec contraintes (sous restrictions)
Méthode de gradient projeté
L.B
Problème avec contraintes d'égalité
Optimisation sans contraintes (sans restrictions)
Problème avec contraintes : cas général
Optimisation avec contraintes (sous restrictions)
Méthode de gradient projeté
algorithme
1 Initialisation :
choisir x0 ∈ X et un pas λ > 0
2 Itérations k :
Calculer la direction de descente dk = −∇f (xk )
xek+1 = xk + λdk
3 projeter xek+1
xk+1 = ΠX (e xk+1 )
test de convergence :
4
Si ∥xk+∥x10−x
∥
k∥
⩽ ε ou |f (xk+f1(x)−f
0)
(xk )|
⩽ε
Alors
STOP
Sinon
on pose k = k + 1, et on retourne à (2) n si
Exemple,illustration graphique :Séance de cours
Exercice, interface graphique :Séance de TD
L.B
33
Références