Académique Documents
Professionnel Documents
Culture Documents
Filière :
Génie Civil
Coordinateur de filière :
Pr. Mohammed Derouich
Table des matières
1 Généralités 3
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.2 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.4 Classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1.2 Norme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2
ENSAO Techniques d’Optimisation
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3
Chapitre 1
Généralités
1.1 Introduction
1.1.2 Motivation
En mathématiques, l’optimisation est une science cherchant à modéliser, à
analyser et à résoudre analytiquement ou numériquement les problèmes qui
consistent à minimiser ou maximiser une fonction sur un ensemble donné.
Son objectif principal est la construction d’algorithmes permettant d’appro-
cher une solution d’un problème sous la forme:
(PO):Trouver u, tel que u ∈ U et f (u) = inf f (v)
v∈U
4
Techniques d’Optimisation ENSAO
Remarque 1.1.3.
– Si le (PO) possède une solution, on cherchera à la caractériser, à la dé-
terminer lorsque ce sera possible et pour cela on exploitera les conditions
nécessaires d’optimalité.
– Si le (PO) ne possède pas de solution, on cherchera à exhiber une suite
minimisante (c’est à dire ) une suite des él‘ements de lensemble U
convergeant vers inf{f (x), x ∈ U }.
1.1.4 Classification
Généralités 5
Techniques d’Optimisation ENSAO
Optimisation paramétrique
– Inconnues = entier ou réels → Optimisation en dimension finie
Programmation mathématique
∗Programmation mathématique
Optimisation combinatoire
– Inconnues = entiers →
Programmation en nombres
Optimisation continue
Inconnues = rels→ Programmation linéaire
Programmation non linéaire
Exemple 1.1.1. Une entreprise qui fabrique des tables et des chaises uti-
lise une même machine pour fabriquer ses produits. - Fabriquer une chaise
nécessite 8 heures, tandis qu’une table nécessite 10 h à la machine, et cette
machine peut être utilisé au maximum de 140 heures par semaine. - Pour
répondre à la demande, l’entreprise veut fabriquer au moins 5 tables par se-
maine.
- Fabriquer une table requière 5 employés tandis qu’une chaise requière 3 em-
ployés.
Pour être efficace, le nombre d’employés nécessaire à la fabrication des tables
doit être au maximum 35 employées de plus que le nombre nécessaire d’em-
ployés Ãă la fabrication des chaises.
Généralités 6
Techniques d’Optimisation ENSAO
Solutions
– les variables
On pose:
X: le nombre des tables
Y : le nombre des chaises
– la fonction objectif
maximiser 51X + 48Y
– les contraintes
10X + 8Y ≤ 140
X≥5
5X ≤ 35 + 3Y
Y ≥0
On trace les droites donnés par ces équations D1 : 10X + 8Y = 140, D2 :
Y = 0, D3 : 5X = 35 + 3Y et D4 : X = 5
Polygone des contraintes avec A(5; 11, 25), B(10; 5), C(7; 0), D(5; 0).
Tout les points sur le contour bleu sont des solutions â l’exemple.
−On cherche le point qui maximise le profit.
−Pour maximiser ou minimiser,la solution doit être toujours un des points
des sommets du polygône des contraintes.
La solution sera au sommet de polygône:
X désigne le nombre de chaises, donc on va choisir le point entier le plus
près qui est A(5;11)
On calcule le proift associè â chacun des sommets de polygône:
f(A)=783
f(B)=750
f(C)=357
Généralités 7
Techniques d’Optimisation ENSAO
f(D)=255
Donc le point A qui maximise la fonction f et la réponse est: 5 tables et 11
chaises
1.2.1.2 Norme
Definition 1.2.2. Soit une fonction définie par k.k : Rn → R+ vérifiant les
proprietés suivantes:
– kxk = 0 =⇒ x = 0.
– kλxk = |λ|kxk.
– kx + yk ≤ kxk + kyk (InégalitÃľ triangulaire).
alors cette fonction s’appelle norme sur Rn
Généralités 8
Techniques d’Optimisation ENSAO
Definition 1.2.3. Soit X une partie minorée non vide de R. On dit que
m = inf{x, x ∈ X} si et seulement si ∀ > 0, ∃x ∈ X, m ≤ x < m +
Proposition 1.2.1. Soit X une partie minorée non vide de R. Alors les
assertions suivantes sont équivalentes:
– m = inf{x, x ∈ X},
– m est un minorant de X et il existe (xn )n∈N ∈ X n , appelée suite
minimisante convergeant vers m.
1
Exemple 1.2.2. Soit A = { , n ∈ N∗ }, inf A = 0
n
∀x ∈ U, f (a) ≤ f (x)
Généralités 9
Techniques d’Optimisation ENSAO
2
Y
1
minimum local
minimum global
0
2 4 6 8 10 12 14 16 18
X
Cas 2d
maximum global
10 maximum local
−5
−10
4
2 4
minimum global
0 2
0
−2 −2
−4 −4
C’est à dire que f est bornée sur U (f (x0 ) ≤ f (x) ≤ f (x1 )) et atteint ses
bornes.
Généralités 10
Techniques d’Optimisation ENSAO
Autrement dit :
f (a + h) − f (a) − dfa (h)
lim =0
h→0 khk
Généralités 11
Techniques d’Optimisation ENSAO
∂ 2f ∂ 2f
∂ ∂f ∂ ∂f
= si j 6= k, = si j = k
∂xj ∂xk ∂xj ∂xk ∂x2j ∂xj ∂xj
Theorème 1.2.3. On suppose que f est de classe C 2 sur U . Alors pour tous
j, k ∈ [[1, n]] on a
∂ 2f ∂ 2f
=
∂xj ∂xk ∂xk ∂xj
Généralités 12
Techniques d’Optimisation ENSAO
Généralités 13
Techniques d’Optimisation ENSAO
En particulier
1. Si r = 1,
2. Si r = 2, on a
1
f (a + h) = f (a) + Df (a)(h) + D2 f (a)(h, h) + o(khk2 )
2
1
= f (a) + h∇f (a), (h)i + hHf (a)(h), (h)i + o(khk2 )
2
Formule de Taylor−Lagrange
Soient U un ouvert de Rn , f : U → R une application p+1 fois diffÃľrentiable,
a ∈ U et h ∈ Rn tels que le segment [a, a + h] ⊂ U . Alors il existe θ ∈] 0, 1[
tel que :
p
X 1 k 1
f (a + h) = f (a) + D f (a) · hk + Dp+1 f (a + θh)hp+1
k=1
k! (p + 1)!
En particulier
1. Si p = 0, on a
f (a + h) = f (a) + Df (a + θh) · h
= f (a)+ < ∇f (a + θh), h >
2. Si p = 1, on a
1
f (a + h) = f (a) + Df (a) · h + D2 f (a + θh) · h2
2
1
= f (a)+ < ∇f (a), h > + < ∇2 f (a + θh)h, h >
2
Formule de Taylor avec reste intégral
Soient U un ouvert de Rn , f : U → R de classe C p+1 , a ∈ U et h ∈ Rn tels
que le segment [a, a + h] ⊂ U . Alors on
p
1 1
Z
X 1 k k
f (a + h) = f (a) + D f (a) · h + (1 − t)p Dp+1 f (a + th) · hp+1 dt
k=1
k! p! 0
En particulier
1. Si p = 0, on a
Généralités 14
Techniques d’Optimisation ENSAO
Z 1
f (a + h) = f (a) + Df (a + th) · h dt
0
Z 1
= f (a) + < ∇f (a + th), h > dt
0
2. Si p = 1, on a Z 1
f (a + h) = f (a) + Df (a) · h + (1 − t)D2 f (a + th) · h2 dt
0 Z 1
= f (a)+ < ∇f (a), h > + (1 − t) < ∇2 f (a + th)h, h > dt
0
Généralités 15
CHAPITRE 2
ETUDE THÉORIQUE DES
PROBLÈMES D’OPTIMISATION
(PO): EXISTENCE ET UNICITÉ
DES SOLUTIONS DE (PO)
2.1 Introduction
Tout au long de ce chapitre, on considère le problème d’optimisation (PO)
min f (x)
(P O) (2.1)
x ∈ U.
avec f : U ⊂ V −→ R est continue et V un espace de Hilbert.
16
Techniques d’Optimisation ENSAO
Etude théorique des problèmes d’optimisation (PO): Existence et Unicité des solutions de17
(PO)
Techniques d’Optimisation ENSAO
Exercice d’application
Convexité d’une fonction quadratique
f : Rn −→ R
1
x 7−→ f (x) = hAx, xi − hb, xi + c,
2
avec A une matrice réelle symétrique, b un vecteur de Rn et c une constante
donnée. On peut montrer que pour tout x ∈ Rn , ∇f (x) = Ax − b et Hess
f (x) = A. En particulier, on déduit immédiatement de ce calcul et du théo-
rème que f est convexe si, et seulement si A est semi-définie positive, et
strictement convexe si, et seulement si A est définie positive.
Etude théorique des problèmes d’optimisation (PO): Existence et Unicité des solutions de18
(PO)
Techniques d’Optimisation ENSAO
f : V −→ R
1
x 7−→ f (x) = hAx, xi − hb, xi + c,
2
avec A une matrice réelle symétrique, b un vecteur de V et c une constante
donnée. On a déjà prouvé dans l’exemple précedent que f est strictement
convexe sur V si, et seulement si A est définie positive, et que de plus Hess
f (x) = A pour tout x ∈ V . Étant donné que A est symétrique réelle, on peut
la diagonaliser dans une base orthonormée réelle de vecteurs propres notée
{ei }1≤i≤n . Le spectre de A rangé par ordre croissant est :
λ1 ≤ · · · ≤ λn
Etude théorique des problèmes d’optimisation (PO): Existence et Unicité des solutions de19
(PO)
Techniques d’Optimisation ENSAO
Etude théorique des problèmes d’optimisation (PO): Existence et Unicité des solutions de20
(PO)
CHAPITRE 3
OPTIMISATION SANS OU AVEC
CONTRAINTES: QUELQUES
MÉTHODES NUMÉRIQUES
xk+1 = xk + ρk dk
∇f (x) = 0
21
Techniques d’Optimisation ENSAO
ou encore
xk,1 = xk1 − ρ1 , xk2 , . . . , xkn
On note xk+1
1 = xk1 − ρ1
2. à l’étape i on a
k+1
xk,i = xk+1 , xki , .., xkn
1 , .., xi
3. xk+1 = xk,n
Theorème 3.1.1. Si J est α−elliptique C 1 sur Rn , l’algorithme de relaxation
est bien défini el converge vers la solution optimale.
dk = −∇f (xk )
– x0 ∈ Rn donné
– xk+1 = xk − ρk ∇f (xk ) où ρk > 0
Si ρk = ρ, l’algorithme est dit à pas constant (méthode de gradient à pas
fixe). On peut parler aussi de la méthode de gradient à pas optimale(ρ) c’est-
à-dire calculer exactement la valeur ρ qui minimise min f (xk − ρ∇f (xk )) ce
ρ
qui n’est pas facile en général.
Critère d’arrêt:
On peut utiliser un (ou une combinaison) des critères suivants pour arrÃłter
les itérations d’un algorithme de descente.
– Etant donné que ∇f (xk ) → ∇f (x̄) = 0, on pose
kxk+1 − xk k < 2
descente.
2. U est de la forme
U = {x ∈ Rn , ϕi (x) ≤ 0, i = 1, 2, . . . , m} (∗)
avec m ∈ Nn et ϕ1 , ϕ2 , . . . ϕm des fonctions par des contraintes d’inéga-
lités .
on peut toujours se ramener à des problèmes avec contraintes d’inégalités
larges, ceci par deux méthodes:
1. Soit en éliminant des contraintes à l’aide des égalités
2. En écrivant une égalité φi (x) = 0 comme une double inégalité φi (x) ≤ 0
et −φi (x) ≤ 0
Proposition 3.2.1. Soit U donné par (∗) , si toutes les fonctions φ1 , φ2 , φ3 , ..., φm
sont convexes alors U un ensemble convexe.
Remarque 3.2.1. Si on suppose que U est un pavé l’algorithme dans ce cas
ressemble à celui pour minimisation sans contraintes.
∂L
1
∂x (x, y, λ) = 0 λ = +/ −
y − 2λx = 0
2
∂L ⇔ x − 2λy = 0 ⇔ y = 2λx
(x, y, λ) = 0
∂y x2 + y 2 = 1 x2 = y 2 = 1
2 2
x +y =1
2
Finalement les points stationnaires sur D sont:
quatre
1 1 1
− (x1 , y1 ) = √ , √ associé au multiplicateur λ1 = .
2 2 2
1 1 1
− (x2 , y2 ) = − √ , − √ associé au multiplicateur λ2 = .
2 2
2
1 1 1
− (x3 , y3 ) = √ , − √ associé au multiplicateur λ3 = − .
2 2 2
1 1 1
− (x4 , y4 ) = − √ , √ associé au multiplicateur λ4 = − .
2 2 2
3. Par le Théorème de Weierstrass, f posséde parmi ces points station-
naires an moins un point de minimum global sur D et un point de
maximum global. II suffit d’évaluer f en ces points stationnaires :
1 1
f (x1 , y1 ) = f (x2 , y2 ) = , f (x3 , y3 ) = f (x4 , y4 ) = −
2 2
f possède donc deux point de maximums globaux sur D : (x1 , y1 ) et
(x2 , y2 ) et deux point de minimums globaux sur D : (x3 , y3 ) et (x3 , y3 )
28