Académique Documents
Professionnel Documents
Culture Documents
Programme:
Introduction
1. Analyse convexe.
2. Optimisation unidimensionnelle.
3. Optimisation sans contraintes.
4. Optimisation avec contraintes.
5. Cas particuliers et approximation.
Introduction:
Min 𝑓 (𝑥 ) Function-objective
𝑠. 𝑐
( )
(PNL) 𝑔𝑖 𝑥 ≤ 0 𝑝𝑜𝑢𝑟 𝑖 = 1,2, … , 𝑚 Constraints d’inégalité
ℎ𝑗 (𝑥 ) = 0 𝑝𝑜𝑢𝑟 𝑗 = 1,2, … , 𝑝 Constraints d’égalité
{ 𝑥∈𝐾 K: domaine des solutions réalisables
K est donné par : K={𝑥 ∈ 𝐼𝑅𝑛 /𝑔𝑖 (𝑥) ≤ 0, 𝑖 = 1,2, … , 𝑚; ℎ𝑗 (𝑥 ) = 0, 𝑗 = 1,2, … , 𝑝}.
x* est appelée solution optimale du problème (PNL) et f(x*) est la valeur optimale (minimum) du
problème (PNL).
Puisque K IRn et dim(IRn) est finie, on dit que (PNL) est un problème d’optimisation en
dimension finie.
1
Exercice 1 : 2 r=2
La notion de courbes de niveau qui constitue le lieu géométrique des points admettant une valeur
commune de l’objectif.
x1
Courbes de niveau.
La direction du gradient est la direction de plus grande pente (ascendante). Une direction d est
une direction de montée au point x si le produit scalaire f(x)Td est positif, et une direction de
descente si f(x)Td est négatif.
La géométrie d’un programme non linéaire est beaucoup plus complexe que celle d’un
programme linéaire.
En particulier :
la solution n’est pas forcément extrémale ; celle-ci peut se situer à l’intérieur du domaine
réalisable (x* K ), c.-à-d là où aucune contrainte n’est satisfaite à égalité.
Il peut exister des optimums locaux. max
En conséquence, voici les questions qu’on se posera lorsqu’on local
veut résoudre un problème d’optimisation:
Ce problème possède t-il une solution ?
1ercas: si ce problème possède une solution, on cherchera à la min min
caractériser (par exemple, set-elle unique ?) et la déterminer local global
lorsque ce sera possible. On exploitera pour cela les conditions nécessaires d’optimalité (de
premier et second ordres).
2èmecas : lorsqu’on ne sait pas déterminer explicitement les solutions du problème d’optimisation,
minimum.
2
Exercice 2 :
Résoudre le probleme linéaire suivant :
𝑚𝑖𝑛 𝑍 = −𝑥1 − 2𝑥2
𝑠. 𝑐
(PL) −𝑥1 + 𝑥2 ≤ 2 ;
𝑥1 + 𝑥2 ≤ 4
{ 𝑥1 ≥ 0, 𝑥2 ≥ 0
Approche graphique :
-x1+x2 = 2 (D1) (contrainte 1)
x1+x2 = 4 (D2) (contrainte 2) x2 (D1)
−1
𝑛⃗ = Z = ( ) vecteur normal a la courbe de niveau
−2
de Z= 4
2
𝑣 =( ) vecteur directeur de Z 3 X*
−1
2 Z*=-7
1 K
(D2)
1 4 x1
𝑣 Z=0
Z Courbe de niveau =0
Présentation en tableau :
𝑚𝑖𝑛 𝑍 = −𝑥1 − 2𝑥2
𝑠. 𝑐
Standardisation : −𝑥 1 + 𝑥 2 + 𝑥3 = 2 ; x3 et x4 sont les variables d’écart.
𝑥1 + 𝑥2 + 𝑥4 = 4
{𝑥1 ≥ 0, 𝑥2 ≥ 0𝑥3 ≥ 0, 𝑥4 ≥ 0
Min {𝑐𝑗 − 𝑧𝑗 }=-2
VDB/VHB x1 x2 x3 x4 b RT L1=Lp x2 variable entrante dans la base
x3 -1 1 1 0 2 2 X3 est la variable sortante
x4 1 1 0 1 4 4 x1=0, x2=0 ,correspond au sommet (0,0).
Cj-zj -1 -2 0 0 0 Le tableau n’est pas optimal
Itération 1 :
VDB/VHB x1 x2 x3 x4 b RT Min {𝑐𝑗 − 𝑧𝑗 }=-3
x2 -1 1 1 0 2 -2 L2=Lp x1variable entrante dans la base
x4 2 0 -1 1 2 1 x4 variable sortante
Cj-zj -3 0 2 0 4
x1=0, x2=2, correspond au sommet (0,2)
Iteration 2 : Le tableau n’est pas optimal
VDB/VHB x1 x2 x3 x4 b Le tableau est optimal
x2 0 1 1/2 1/2 3 𝑥∗ 1
X*= ( 1∗ ) = ( ) solution optimale, correspond au
x1 1 0 -1/2 1/2 1 𝑥2 3
Cj-zj 0 0 1/2 3/2 7 sommet (1,3)
Z*=Z(X*)=-7 la valeur optimale.
3
Exercice 3 : Représenter ce problème graphiquement. On utilise les ellipses.
2 4
La fonction-objectif est linéaire et le domaine des solutions réalisables K est convexe. C’est un
modèle de problème d’optimisation convexe. La solution optimale est sur la frontière de K
(x* K), mais ce n’est pas un sommet (intersection de 2 contraintes).
Exercice 6 :
7
min 𝑍 = −3𝑥 − 5𝑦
Z*=-35
𝑠. 𝑐
𝑥≤4
; 3 K Z=-27
2𝑦 ≤ 14
8𝑥 − 𝑥 2 + 14𝑦 − 𝑦 2 ≤ 49
{ 𝑥 ≥ 0, 𝑦 ≥ 0
4
Devoir (révisions), à rendre le 10 Jan.2021 : dans la boite aux lettres de la Fac de Math.
Donner la définition d’une boule ouverte B o(x0,r) et d’une boule fermée Bf(x0,r).
On prend E=IR2. Dessiner B0((0,0),1) et Bf((0,0),1)(boules unités) pour les normes II.II 1 et II.II2.
2) Formes quadratiques
Forme matricielle : donner la définition du signe d’une matrice associée à une forme
quadratique.
Définition d’une matrice D.P (définie positive), D.N (définie négative), s-D.P (semi-définie
positive), s-D.N (semi-définie négative).
3) Différentiabilité.
Définition du gradient.
Indications :
La procédure de Gram-Schmidt :