Vous êtes sur la page 1sur 23

Chapitre I : Notions fondamentales sur l’optimisation 25

Figure 1.11 – Résolution graphique de l’exemple 7

1.8 Série d’exercices


1.8.1 Exercice 1
Une entreprise de logistique et de transport envisage de réaliser un nouvel entrepôt
de stockage afin d’étendre ses activités pour l’année prochaine. Les positions dans le plan
xy (en km) de quatre clients et le nombre d’expéditions faites annuellement pour chacun
des clients sont données dans le tableau suivant.L’entreprise veut localiser l’entrepôt pour
réduire au minimum toutes les distances parcourues par ses camions de l’entrepôt aux
quatre clients.

Coordonnées
Clients x y Nombre d’expéditions
1 5 10 200
2 10 5 150
3 0 12 200
4 12 0 300
Modéliser ce problème sous forme d’un programme non linéaire puis le résoudre par
LINGO.

1.8.2 Exercice 2
Parmi les fonctions suivantes, les-quelles sont convexes ou concaves ou non ?
– f (x) = 2x − 3 sur R
– f (x) = ex sur R
– f (x1 , x2 ) = x1 e−(x1 +x2 ) sur sur R2

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chapitre I : Notions fondamentales sur l’optimisation 26

– f (x) = x2 − 6x + 5 sur R

– f (x) = x sur [0, + inf[
– f (x1 , x2 ) = x31 + 3x1 x2 + x22 ; sur R2
– f (x1 , x2 ) = −x21 + x1 x2 − x22 ; sur R2
– f (x1 , x2 , x3 ) = x21 + 3x22 + 9x23 − 2x1 x2 + 6x2 x3 + 2x1 x3 ; sur R2
– f (x1 , x2 , x3 ) = −x21 − x22 − 2x23 + 0.5x1 x2 sur R3
– f (x1 , x2 , x3 , x4 ) = x21 + x22 + 2x23 + x3 − x1 x2 − x3 x4 sur R4

1.8.3 Exercice 3
Discuter la convexité selon les paramètre indiqués des fonctions suivantes :
– f (x) = αx2 sur R
– f (x1 , x2 ) = αx21 + 8x1 x2 + αx22 sur R2
– f (x1 , x2 ) = αx21 − βx1 x2 + γx22 sur R2
– f (x1 , x2 , x3 ) = 12 α(x21 + x22 + x23 ) + x1 x2 + x2 x3 sur R3
– f (x1 , x2 , x3 , x4 ) = αx21 + βx22 + γx23 + x3 x4 sur R4

1.8.4 Exercice 4
Résoudre
 graphiquement les PNLs  suivants :

 2 2 
 min f = (x1 − 2)2 + (x2 − 3)2 

 max f = x 1 + x 2 


 x +x ≥4 
 3x1 + 2x2 ≤ 18 
 min f = x1
3
1 2
(P 1) (P 2) x1 ≤ 4 (P 3) x1 + x2 ≥ 4

 x1 ≤ 4 
 
 x2 ≥ x

 
 x2 ≤ 6 2

 2 x ≤ 4 

1

 x 1 , x
2 ≥ 0
 max f = 3x + 5x  min f = x21 + x22 + 2x2 

 1 2 
 
 x ≤4  x + x − 0.5 ≥ 0  max f = x1 + x2
1 1 2
(P 4) 2 2
(P 5) 2 2
(P 6) x21 + x22 ≥ 9

 9x 1 + 5x 2 ≤ 216 
 x 1 + x 2 − 1 = 0 
 x2 ≤ 4

 
 1
x 1 , x2 ≥ 0 x 1 , x2 ≥ 0
 

 min f = x1 
 min f = x1
2 2
(P 7) x1 + x2 ≤ 4 (P 8) (x1 − 1)2 + x22 = 1

 x2 ≥ 1 
 (x + 1)2 + x2 = 1
1 1 2

1.9 Corrigé des exercices


Corrigé exercice 1
On trace les positions des clients C1 : (5, 10),C2 : (10, 5),C3 : (0, 12) et C4 : (12, 0)
dans un plan R2 x0y comme il est indiqué dans la figure (Fig.1.12)
Soit E(x, y) la position de l’entrepôt que l’entreprise souhaite à réaliser et notons par
d1 ,d2 ,d3 et d4 les distances en Km respectivement de l’entrepôt vers les clients.

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chapitre I : Notions fondamentales sur l’optimisation 27

L’objectif de cette entreprise est de trouver un emplacement idéal pour implémenter cet
entrepôt afin de minimiser la distance totale parcourue par ses camions. Cette situation
peut être modélisée sous la forme suivante :

min f = 200d1 + 150d2 + 200d3 + 300d4 ..............(1)

En utilisant le théorème de Pythagore,


p on obtient p
2 2 2
(x − 5) + (y − 10) ⇒ d1 = (x − 5)2 + (y − 10)2 d2 = (x − 10)2 + (y − 5)2
d1 = p
d3 = px2 + (y − 12)2
d4 = (x − 12)2 + y 2

Figure 1.12 – Représentation graphique de l’instalation de l’entrepôt

L’équation
p(1) devient p
minpf = 200 (x − 5)2 + (yp− 10)2 + 150 (x − 10)2 + (y − 5)2 +
200 (x2 + (y − 12)2 + 300 (x − 12)2 + y 2
Ce modèle mathématique appartient à la classe d’optimisation non linéaire sans contraintes,
i Il s’agit d’optimiser une fonction à deux variables sans contraintes.

Corrigé exercice 2
Parmi les fonctions suivantes, les-quelles sont convexes ou concaves ou non ?
– f (x) = 2x − 3 sur R : En utilisant la définition
– f (x) = ex sur R : f ′ (x) = ex , f ”(x) = ex ∀x ∈ R ex > 0 alors f est strictement
convexe.
– f (x) = x2 − 6x + 5 sur R on f ”(x) = 2 > 0 donc f est strictement convexe.

– f (x) = x sur [0, + inf[ f ′ (x) = 1/2x−1/2 et f ”(x) = −1/4x−3/2 , on a x−3/2 est
toujours ≥ 0 ∀x ∈ [0, + inf[ d’où f ”(x) ≤ 0 en déduit que f est concave.

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chapitre I : Notions fondamentales sur l’optimisation 28

– f (x1 , x2 ) = x31 + 3x1 x2 + x22 ; sur R2


!
6x1 3
▽2 f (x) =
3 2
Cette matrice est semi-définie positif si les mineurs d’ordre 1 6x1 et 2 et le mineur
6x1 3
d’odre 2 ▽2 f (x) = = 6x1 − 9 sont positifs, on a 6x1 ≥ 0 et 12x1 − 9 ≥ 0
3 2
d’où si x ∈ [3/4, + inf[ f (x1 , x2 ) est convexe. En dehors de cet intervalle la fonction
est non vonvexe ni concave.
– f (x1 , x2 ) = −x21 + x1 x2 −!x22 ; sur R2
−2 1
on a ▽2 f (x) = les deux mineurs d’odre 1 sont (-2) et (-2) ont le même
−1 −2
−2 1
signe que (−1)1 et le mineur d’ordre 2 est = 3 ayant le même signe que
−1 −2
(−1)2 alors f est strictement concave.
2 2
− 2x23 + 0.5x1 x2 sur R3
3 ) = −x1 − x2 
– f (x1 , x2 , x
−2 0.5 0
f  
▽ (x) = 0.5 −2 0  les mineurs d’ordre 1 sont (-2), (-2) et (-4) sont négatifs,
0 0 −4
−2 0 −2 0 −2 0.5
les mineurs d’ordre 2 sont =8, = 8 et = 15/4 sont
0 −4 0 −4 0.5 −2
−2 0.5 0
positifs et le mineur d’ordre 3 est 0.5 −2 0 = −15 qui est négatif, alors la
0 0 −4
fonction est strictement concave (Tous les mineurs sont différent de zéro)
= x21 + x22 + 2x23 + x3 − x1 x2 − x3 x4 sur R4
– f (x1 , x2 , x3 , x4 )
2 −1 0 0
−1 2 0 0 
 
Le Hessien est   les mineurs d’ordre 1 sont 2,2,4,0 sont ≥ 0.
0 0 4 −1
0 0 −1 0
4 −1
les mineurs d’ordre 2 sont = −1 ≤ 0 puisque ce mineur est négatif, cette
−1 0
fonction n’est ni convexe ni concave.

Corrigé exercice 4


 max f = x21 + x22

 x +x ≥4
1 2
(P 1)

 x1 ≤ 4


x2 ≤ 4

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chapitre I : Notions fondamentales sur l’optimisation 29

Le domaine réalisable X du PNL (P 1) est un polyèdre borné convexe, f = x21 + x22 est

l’équation d’un cercle de rayon f et du centre (0, 0. Maximiser f revient à maximiser
le rayon de ce cercle. La figure (1.13)) montre la résolution graphique de ce PNL avec la
solution optimale x∗ = (4, 4) et f ∗ = 32

Figure 1.13 – Exercice 4 :Résolution graphique de P1



 min f = (x1 − 2)2 + (x2 − 3)2



 3x1 + 2x2 ≤ 18
(P 2) x1 ≤ 4



 x2 ≤ 6


x 1 , x2 ≥ 0

Le domaine réalisable X du PNL (P 2) est un polyèdre borné convexe, l’équation de la



fonction objectifs est un cercle de rayon f et du centre (2, 3. La figure représentatif
(1.14)) de ce PNL montre que l’augmentation du rayon de ce cercle augmente aussi la
valeur de f d’où le point qui minimise le rayon est le centre du cercle qui est la solution
optimale x∗ = (2, 3) et f ∗ = 0


 min f = x1
3

(P 3) x1 + x2 ≥ 4

 x2 ≥ x
1 2

Comme il est montré dans la figure (1.15)) le domaine X n’est pas borné et non convexe.
La fonction objectif f = x31 est toujours positif puisque dépends uniquement de x1 qui est
toujours positif. On ne peut pas représenter f . Le point réalisable qui minimise x31 est le
point x∗ = 1.56, 2.43 et f ∗ = 3.8081


 max f = 3x1 + 5x2

 x ≤4
1
(P 4)

 9x21 + 5x22 ≤ 216


x 1 , x2 ≥ 0

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chapitre I : Notions fondamentales sur l’optimisation 30

Figure 1.14 – Exercice 4 :Résolution graphique de P2

Figure 1.15 – Exercice 4 :Résolution graphique de P3

x21 x22
Après simplification, l’équation 9x21 + 5x22 = 216 devient 216 + 216 =1
9 5
x1 x2
et( 4.8990 )2 + ( 6.5727 )2
= 1 qui est l’équation d’une ellipse de centre (0, 0) et de deux rayons
4.8990 et 4.6.5727. La figure (1.16)) montre que le domaine X est borné et convexe. La
fonction objectif est linéaire traçons alors sa droite pour f = 0 puis on la glisse dans le
sens indiqué jusqu’à atteindre le dernier point réalisable car f est à maximiser ce qui nous
donne la solution optimale en point x∗ = (2, 6) qui est un optimum global.

 2 2
 min f = x1 + x2 + 2x2

 x + x − 0.5 ≥ 0
1 2
(P 5) 2 2

 x1 + x2 − 1 = 0


x 1 , x2 ≥ 0

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chapitre I : Notions fondamentales sur l’optimisation 31

Figure 1.16 – Exercice 4 :Résolution graphique de P4

L’expression de la fonction objectif f devient f = x21 + (x2 + 1)2 − 1 minimiser f reviens


à minimiser le rayon du cercle x21 + (x2 + 1)2 du centre (0, −1). Dans la figure (1.17)) lLe
domaine réalisable est le segment de cercle délimité par les points A(1, 0) et B(0, 1) qui
est non convexe. On trace la courbe du cercle x21 + (x2 + 1)2 pour valeur = 1 puis on l’a
grandit progressivement jusqu’à atteindre le premier du domaine réalisable. Le minimum
de f est atteint au point A(1, 0).
La solution optimale de ce problème est x∗ = (1, 0) qui est un minimum local car le
domaine X est non convexe et f ∗ = 1.

Figure 1.17 – Exercice 4 :Résolution graphique de P5

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chap II : Conditions d’optimalités 47

⇒ x∗1 = 2.5, x∗2 = −1.5, x∗3 = −1, λ∗ = −3


(x∗1 = 2.5, x∗2 = −1.5, x∗3 = −1) est un point stationnaire pour le problème considéré.
 
2 0 0
 
∇2 L(x∗ , λ∗ ) =  0 2 0 
0 0 −2
Remarquons que ∇2 L(x∗ , λ∗ ) ne dépends pas des xi .
Calculons l’ensemble C(x∗ ) = {d : ∇g(x∗ )d = 0 avec kdk 6= 0} avec g(x) = x1 − x2 +
2x3 − 2 alors g(x) = (1, −1, 2) ce qui donne g(x∗ ) = (1, −1, 2) donc C(x∗ ) = {(d1 , d2 , d3 ) :
d1 − d2 + 2d3 = 0 avec kdk = 6 0}

Il suffit de vérifier ∀d ∈ C(x∗ ), dt ▽2 L(x∗ , λ∗ )d > 0 avec kdk =


6 0. soit d = (d1 , d2 , d3 )t .
dt ▽2 L(x∗ , λ∗ )d = 2d21 + 2d22 − 2d23 et d1 − d2 + 2d3 = 0
soit d3 = 12 (d2 − d1 ) ⇒ dt ▽2 L(x∗ , λ∗ )d = 2d21 + 2d22 − 2d23 = 2d21 + 2d22 − (d2 − d1 )2

dt ▽2 L(x∗ , λ∗ )d = 2d21 + 2d22 − 2d23


= 2d21 + 2d22 − (d2 − d1 )2
(2.3.2)
= 2d21 + 2d22 − d22 + 2d1 d2 − d21
= d21 + d22 + 2d1 d2 = (d1 + d2 )2 > 0

Alors ∀d ∈ C(x∗ ), dt ▽2 xf (x∗ )d > 0 ||d|| =


6 0.
∗ ∗ ∗
Donc (x1 = 2.5, x2 = −1.5, x3 = −1) est un minimum local pour f

2.4 Série d’exercices


Exercice 1
Soit la fonction f (x) = x3 − 2x2 − x + 2
– Montrer que ∃a, b, c ∈ R tels que f (x) = (x − a)(x − b)(x − c)
– Déduire les optimums locaux de f (x) = 41 x4 − 32 x3 − 12 x2 + 2x

Exercice 2
Trouver algébriquement les optimums locaux des fonctions suivantes :
– f (x) = x3
– g(x) = x4
– h(x) = x4 − 32x
2
– k(x) = x2 − ex

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chap II : Conditions d’optimalités 48

Exercice 3
Déterminer les optimums locaux de la fonction suivantes

f (x) = 12x5 − 45x4 + 40x3 + 5

Exercice 4
Un industriel produit simultanément 2 produits A et B dont il a le monopole de la
production et de la vente dans un pays. Soit x1 la quantité produit A et x2 la quantité
produit B.Les prix de vente des deux produits sont des fonctions PA = f (x1 ) et PB = g(x2 )
en dinar qui sont en fonction des quantités écoulées.
Le coût de production total des quantités x1 et x2 est une fonction c(x1 , x1 ) en dinar.
Le Bénéfice de l’entreprise si elle vend les quantités x1 et x2 est donc la fonction

π(x1 , x2 ) = x1 f (x1 ) + x2 g(x2 ) − c(x1 , x2 )

Dans chacun des cas suivants, trouvez les quantités qui maximisent le bénéfice de l’entre-
prise et la valeur du bénéfice π :


 PA = 1 − x 1
(a) PB = 1 − x2

 c(x , x ) = x x
1 2 1 2



 PA = 28 − 3x1
(b) PB = 22 − 2x2

 c(x , x ) = x2 + 3x2 + 4x x
1 2 1 2 1 2


 PA = 33 − 4x1
(c) PB = 27 − x2

 c(x , x ) = x2 + 3x2 + x x
1 2 1 2 1 2

Exercice 5
On considère la fonction f suivante :

f (x1 , x2 ) = x31 + 3x1 x22 + 3x21 x2 + 3x2

1. Calculez le gradient et le Hessien de f


2. Évaluez le gradient et le Hessien f aux points a = (1, −1), b = (−1, 1) les deux
points a et b sont ils des points stationnaires de f ?
3. Déterminer la nature de ces points (maximum, minimum local, point selle)

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chap II : Conditions d’optimalités 49

Exercice 6
Trouver les optimums locaux des fonctions suivantes
1. f (x1 , x2 ) = x1 x2 − x21
2. f (x1 , x2 ) = 10 − x21 − 5x22 + 3x1 x2 − x1 + 2x2
3. f (x1 , x2 ) = 8x21 + 3x1 x2 + 7x22 − 25x1 + 31x2 − 29.
4. f (x1 , x2 ) = x31 + x22 − 3x1 − 12x2 + 10
5. f (x1 , x2 ) = 31 x31 + 12 x21 + 2x1 x2 + 21 x22 − x2 + 9
6. f (x1 , x2 , x3 ) = −x21 − x22 − 2x23 + 0.5x1 x2
7. f (x1 , x2 ) = x21 + x1 x2 + 1.5x22 − 2 log x1 − log x2

Exercice 7
1. Soit la fonction suivante : f (x1 , x2 ) = βx21 + x22 − 2x1 x2 − 2x2 et β ∈ R
Trouver l’optimum de f selon les valeurs de β
2. Trouver α tel que x = (1, 0) est min ou max de la fonction suivante

f (x1 , x2 ) = α3 x1 ex2 + 2α2 log(x1 + x2 ) − (α + 2)x1 + 8αx2 + 16x1 x2

Exercice 8
Soit la fonction f : R2 → R définie par

f (x; y) = (1 − x)(1 − y)(x + y − 1)

1. Déterminer les points stationnaires de f .


2. Donner l’expression de la matrice hessienne de f (x; y).
3. Pour chaque point stationnaire de f , dire s’il s’agit d’un maximum local, d’un mi-
nimum local ou d’un point selle.
4. Quels sont les extremums locaux de f sur R2 ?

Exercice 9
On considère la fonction suivante de R2 dans R :

f (x1 ; x2 ) = 2x31 + 6x1 x2 − 3x22 + 2

1. Déterminer les points stationnaires de f .


2. Pour chaque point stationnaire obtenu, dire si f présente un minimum local ou un
maximum local en ce point, ou s’il s’agit d’un point selle.
3. Déterminer les maxima et minima globaux de f .

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chap II : Conditions d’optimalités 50

Exercice 10
Soit la fonction suivante de R2 dans R : Considérons la fonction f : R2 → R définie
par
f (x1 ; x2 ) = x21 + 2βx1 x2 + x22 − 2x1
avec β un nombre réel quelconque.
1. Étudier la convexité de f selon les valeurs de β.
2. Écrire le gradient de f
3. Déterminer les points stationnaires de f en fonction de β.
4. Pour quelles valeurs de β, les points stationnaires de f sont des optimums locaux
5. Que peut-on dire des optimums de f pour les trois cas : β = 0 ; β = 1 ; β = −1

Exercice 11
Soit la fonction suivante de R2 dans R : Considérons la fonction f : R2 → R définie
par
f (x1 ; x2 ) = (x21 − x22 )(x1 − x2 )
1. Écrire le gradient de f
2. Montrer que les points suivants :

(−1; −1); (0; 0); (1; 1); (2; 2)


sont des points stationnaires pour f
3. Écrire la matrice Hessienne de f .
4. Que peut-on dire des points stationnaires ? sont des optimums locaux ? points selle

Exercice 12
Soit la fonction suivante :

f (x1 , x2 ) = x41 + x42 − 2(x1 − x2 )2

1. Montrer qu’il existe deux réels α et β positifs tel que

f (x1 , x2 ) ≥ α||(x1 , x2 )||2 + β

2. Déduire que le problème


min f (x1 , x2 )
admet une solution.
3. Étudier la convexité de f .
4. Déterminer les optimums de f .

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chap II : Conditions d’optimalités 51

Exercice 13

 2 2 2
 min f (x) = x1 + x2 + x3 + x1 − x2
(P N L) x1 − x3 = 0

 −x + 2x = 2
2 3

1. Transformer ce PNL vers un PNL à une seul variables sans contraintes et trouver
x∗ .
2. Écrire les conditions d’optimalité K.K.T.
3. Montrer que x∗ trouvé dans la 1ère question est optimale.

Exercice 14
Soient le PNL suivant


 min / max f (x) = (x1 − 3)2 + (x2 − 2)2

 x2 + x2 ≤ 5
1 2
(P )

 x1 + 2x2 = 4


x 1 , x2 ≥ 0
1. Trouver graphiquement le minimum x∗ et le maximum x∗
2. Vérifier ces solutions en utilisant les conditions d’optimalité K.K.T

Exercice 15
Soit le PNL suivant
(
min f (x) = (x1 − 1)2 + x22
(P )
−x1 + αx22 = 0

1. Montrer que x = (0, 0)t vérifier les conditions d’optimalité du 1ère ordre.
2. Discuter par deux méthodes différentes selon les valeurs de α l’optimalité de ce
point.

Exercice 16
Soit le problème non linaire suivant
(
min f (x) = x21 + αx22 + x1 x2 + x1
(P )
x1 + x2 ≤ 1

1. Montrer que f peut s’écrire sous forme quadratique


1
f (x) = xt Hx + dt + c
2
en déterminant H, d et c

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chap II : Conditions d’optimalités 52

2. Selon les valeurs de α, montrer que f est convexe si et seulement si H est définie
positif.
3. Écrire les conditions d’optimalité de ce problème selon α et trouver sa solution
optimale.

Exercice 17
Résoudre selon les valeurs de α le PNL suivant
(
min f (x) = (x1 − 1)2 + x2
(P )
2αx1 − x22 ≤ 0

Exercice 18
Écrire les conditions K.K.T et vérifier que le point x∗ = (1, 2, 5) est optimale pour le
PNL suivant


 min f (x) = 2x21 + x22 + 2x23 + x1 x3 − x1 x2 + x1 + 2x3


 2 2
 x1 + x2 − x3 = 0
(P ) x1 + x2 + 2x3 = 13



 x1 + x2 ≥ 3


x1 , x2 , x3 ≥ 0.

Exercice 19
Écrire les conditions K.K.T et vérifier que le point x∗ = (3, 3) est optimale pour le
PNL suivant

 4 4 2 2
 min f (x) = x1 + x2 + 12x1 + 6x2 − x1 x2 − x1 − x3

 x +x ≥6
1 2
(P )

 2x 1 − x 2 ≥ 3


x1 , x2 ≥ 0.

Exercice 20
Soit le PNL suivant :


 min f (x) = (x1 − 49 )2 + (x2 − 2)2

 x − x2 ≥ 0
2 1
(P )

 x 1 + x 2 ≤ 6


x1 , x2 ≥ 0.
1. Résoudre graphiquement ce problème.
2. Montrer que f et le contraintes sont convexes.
3. Écrire les conditions d’optimalité.
4. Déterminer sa solution optimale local ? est elle unique ? est elle globale ?

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chap II : Conditions d’optimalités 53

2.5 Corrigés des exercices


Corrigé de l’exercice 1
Soit la fonction f (x) = x3 − 2x2 − x + 2
– a = −1, b = 1, c = 2
– On déduit facilement que g ′ (x) = f (x)
g ′ (x) = 0 ⇒ x∗ = −1, x∗ = 1, x∗ = 2 sont des points stationnaires

g ′′ (x) = 3x2 − 4x − 1
On a g ′′ (−1) = 6 > 0 ,g ′′ (1) = −2 < 0 et g ′′ (2) = 3 > 0 ⇒ −1 et 2 sont des mins et
1 est un max

Corrigé de l’exercice 2
Trouvons les optimums locaux des fonctions suivantes :
– f (x) = x3 ⇒ f ′ (x) = 3x2 :f ′ (x) = 0 ⇒ x∗ = 0 et f ′′ (x) = 6x, f ′′ (0) = 0 de plus
f 3 (0) = 6 on en déduit que x∗ = 0 n’est pas ni min ni max, il s’agit d’un point
d’inflexion.
– f (x) = x4 −32x ⇒ f ′ (x) = 4x3 −32 = 4(x3 −8),f ′ (x) = 0 ⇒ x∗ = 2 et f ′′ (x) = 12x2 ,
f ′′ (2) = 24 > 0 ⇒ x∗ = 2 est un min local.
2 2 2
– f (x) = x2 − ex ⇒ f ′ (x) = 2x − 2xex = 2x(1 − ex ) si f ′ x) = 0 alors x∗ = 0 est un
point stationnaire.
2 2
On a f ′′ (x) = 2 − 2ex − 4x2 ex et f ′′ (0) = 0
2 2 2
f (3) (x) = −4ex − 8xex − 8x3 ex et f 3 (0) = 0
2 2 2 2 2 2
f (4) (x) = −4ex − 8x2 ex − 8ex − 16x2 ex − 24x2 ex − 16x4 ex et f (4) (0) = −12 <
0 ⇒ x∗ = 0 est un max local.

Corrigé de l’exercice 4



 PA = 1 − x 1
♣ Cas (a) PB = 1 − x2 ⇒ π(x1 , x2 ) = x1 (1 − x1 ) + x2 (1 − x2 ) − x1 x2

 c(x , x ) = x x
1 2 1 2

Alors π(x1 , x2 ) = −x21 − x22 − x1 x2 + x1 + x2 Le gradient de la fonction du profit est


∇π(x1 , x2 ) = (−2x1 − ( x2 + 1; −2x2 − x1 + 1). (
−2x1 − x2 + 1 = 0 x1 = 31
∇π(x1 , x2 ) = (0; 0) ⇒ ⇒
−2x2 − x1 + 1 = 0 x2 = 13
le point x∗ = ( 13 ; 31 ) est un point stationnaire pour la fonction π(x1 , x2 ).
Calculons le Hessien de π(x1 , x2 ).

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chap II : Conditions d’optimalités 54

!
2 −2 −1
∇ π(x1 , x2 ) = Cette matrice est symetrique, d’après le critère de Sylvestre,
−1 −2
on peut définir sa nature (positif, négatif) en utilisant la notion de mineurs.
Les mineurs d’ordres 1 sont −2 et −2 ont le même signe que (−1)1 et le mineur d’ordre 2
−2 −1
est = 3 qui le même signe que (−1)2 alors ∇2 π(x1 , x2 ) est une matrice définie-
−1 −2
positif quelque soit (x1 ; x2 ) ∈ R2 .
x∗ = ( 13 ; 31 ) est le point qui maximise le profit total avec π( 31 ; 13 ) = 0.333



 PA = 28 − 3x1
♣ Cas (b) PB = 22 − 2x2 ⇒ π(x1 , x2 ) = −4x21 −5x22 −4x1 x2 −28x1 +22x2

 c(x , x ) = x2 + 3x2 + 4x x
1 2 1 2 1 2

Le gradient est ∇π(x1 , x2 ) = (−8x1 − 4x2 + 28; −10x1 − 4x2 + 22).


∇π(x1 , x2 ) = (0; 0) ⇒ x1 = 3, x2 = 1
le point x∗ = (3, 1) est stationnaire pour π.
Calculons le Hessien de π(x ! 1 , x2 ).
−8 −4
∇2 π(x1 , x2 ) = Cette matrice est symétrique, d’après le critère de Sylvestre,
−4 −10
on peut définir sa nature (positif, négatif) en utilisant la notion de mineurs.
Les mineurs d’ordres 1 sont −8 et −10 ont le même signe que (−1)1 et le mineur d’ordre 2
−8 −4
est = 66 qui le même signe que (−1)2 alors ∇2 π(x1 , x2 ) est une matrice définie
−4 −10
positif quelque soit (x1 ; x2 ) ∈ R2 .
x∗ = (3; 1) est le point qui maximise le profit total avec π(3; 1) = 53


 PA = 33 − 4x1
♣ Cas (c) PB = 27 − x2 ⇒ π(x1 , x2 ) = −5x21 − 4x22 − x1 x2 + 33x1 + 27x2

 c(x , x ) = x2 + 3x2 + x x
1 2 1 2 1 2

Le gradient est ∇π(x1 , x2 ) = (−10x1 − x2 + 33; −x1 − 8x2 + 27).


∇π(x1 , x2 ) = (0; 0) ⇒ x1 = 3, x2 = 3
le point x∗ = (3, 3) est stationnaire pour π.
Calculons le Hessien de π(x ! 1 , x2 ).
−10 −1
∇2 π(x1 , x2 ) = Cette matrice est symétrique, d’après le critère de Sylvestre,
−1 −8
on peut définir sa nature (positif, négatif) en utilisant la notion de mineurs.
On voit aisément que ∇2 π(x1 , x2 ) est une matrice définie positif quelque soit (x1 ; x2 ) ∈ R2 .
Alors x∗ = (3; 3) est le point qui maximise le profit total avec π(3; 3) = 90

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chap II : Conditions d’optimalités 55

Corrigé de l’exercice 5
On considère la fonction f suivante :

f (x1 , x2 ) = x31 + 3x1 x22 + 3x21 x2 + 3x2

Le gradient de f est ∇f (x1 , x2 ) = (3x21 + 3x22 + 6x1 x2 ; 6x1 x2 + 3x21 + 3)


Calculons le Hessien de f (x1 , x2 ).
!
6x 1 + 6x 2 6x 1 + 6x 2
∇2 f (x1 , x2 ) =
6x1 + 6x2 6x1
On peut facilement vérifier que :
∇f (a) = ∇f (1, −1) = 0
∇f (b) = ∇f (−1, 1) = 0
Les deux points a = (1, −1) et b = (−1, 1) sont deux points stationnaires pour f .
Calculons le Hessien!de f en point a et b. !
0 0 0 0
∇2 f (1, −1) = et ∇2 f (−1, 1) =
0 6 0 −6
2 2
∇ f (1, −1) et ∇ f (−1, 1) sont deux matrices symetriques, par le critère de Sylvestre on
peut connaitre leur nature.
Comme on peut le voir que ∇2 f (1, −1) est semi-définie positif et ∇2 f (−1, 1) est semi-
définie négatif alors on peut rien dire sur ces deux points stationnaires.

Corrigé de l’exercice 6
Cherchons les optimums locaux des fonctions suivantes
1. f (x1 , x2 ) = x1 x2 − x21
Le vecteur gradient de(f est ∇f (x1 , x2 ) = (−2x
( 1 + x2 ; x1 )
−2x1 + x2 = 0 x1 = 0
∇f (x1 , x2 ) = (0; 0) ⇒ ⇒
x1 = 0 x2 = 0

Le point x = (0; 0) est stationnaire pour f! .
−2 1
Le Hessien de f est ∇2 f (x1 , x2 ) = Matrice symétrique, d’après Sylvestre
1 0
cette matrice n’est pas définie car les deux mineurs (-2) et (0) ont le même signe
−2 1
que (−1)1 et le mineur = −1 qui n’a pas le même signe que (−1)2 . Alors le
1 0
point (0 ;0) n’est pas ni minimum ni maximum, il s’agit d’un point selle.
2. f (x1 , x2 ) = 10 − x21 − 5x22 + 3x1 x2 − x1 + 2x2
Le vecteur gradient de(f est ∇f (x1 , x2 ) = (−2x1 + ( 3x2 − 1; 3x1 − 10x2 + 2)
−2x1 + 3x2 − 1 = 0 x1 = −4
11
∇f (x1 , x2 ) = (0; 0) ⇒ ⇒ 1
3x1 − 10x2 + 2 = 0 x2 = 11

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chap II : Conditions d’optimalités 56

Le point x∗ = ( −4 ; 1 ) est stationnaire pour f . !


11 11
−2 3
Le Hessien de f est ∇2 f (x1 , x2 ) = Matrice symétrique, d’après Syl-
3 −10
vestre ; les deux mineurs (−2) et (−10) ont le même signe que (−1)1 et le mineur
−2 3
= 11.
3 −10
alors ∇2 f (x1 , x2 ) est une matrice définie négatif donc le point x∗ = ( −4 ; 1 ) est un
11 11
maximum local de f , de plus la fonction f (x1 , x2 ) = 10 − x21 − 5x22 + 3x1 x2 − x1 + 2x2
est strictement concave car ∇2 f (x1 , x2 ) une matrice définie négatif quelque soit
x 1 , x2 ∈ R 2 .
3. f (x1 , x2 ) = 8x21 + 3x1 x2 + 7x22 − 25x1 + 31x2 − 29. (Facile).
4. f (x1 , x2 ) = x31 + x22 − 3x1 − 12x2 + 10.
∇f (x1 , x2 ) = (3x21 − 3;( 2x2 − 12) (
3x21 − 3 = 0 x1 = 1 où x1 = −1
∇f (x1 , x2 ) = (0; 0) ⇒ ⇒
2x2 − 12 = 0 x2 = 6
D’où la fonction f admet deux points stationnaire
! x∗a = (1; 6) et x∗b = (−1; 6).
6x1 0
Le Hessien de f est ∇2 f (x1 , x2 ) = Matrice symétrique, on peut appliquer
0 2
le critère de Sylvestre. !
6 0
Pour le point x∗a = (1; 6) on a :∇2 f (1, 6) = qui est définie positif car
0 2
ces 3 mineurs principaux sont strictement positif, alors le point x∗a = (1; 6) est un
minimum local pour f . !
∗ 2 −6 0
Pour le point xb = (−1; 6) on a :∇ f (−1, 6) = qui n’est pas définie alors
0 2
x∗b = (−1; 6) est un point selle.
5. f (x1 , x2 ) = 13 x31 + 12 x21 + 2x1 x2 + 21 x22 − x2 + 9.
∇f (x1 , x2 ) = (x21 + x1 + ( 2x2 ; 2x1 + x2 − 1)
x21 + x1 + 2x2 = 0 · · · (1)
∇f (x1 , x2 ) = (0; 0) ⇒
2x1 + x2 − 1 = 0 · · · (2)
Faisons (2)-2*(1), nous obtenons :x21 − 3x1 + 2 = 0 ⇒ x1 = 1 où x1 = 2 si on
remplace ces deux valeurs de x1 dans (2) on aura x2 = −1 et x2 = −3.
Alors cette fonction admet deux points stationnaires ! x∗a = (1; −1) et x∗b = (2; −3).
2x1 + 1 2
Le Hessien de f est ∇2 f (x1 , x2 ) = Matrice symétrique, on peut ap-
2 1
pliquer le critère de Sylvestre. !
3 2
Pour le point x∗a = (1; −1) on a :∇2 f (1, −1) = qui n’est pas définie ni
2 1
positif ni négatif car ces mineurs d’ordre 1 sont (3) et (1) >0 et le mineur d’ordre 2

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chap II : Conditions d’optimalités 57

3 2
= −1 < 0, alors le point x∗a = (1; −1) est point selle pour f .
2 1
!
5 2
Pour le point x∗b = (2; −3) on a :∇2 f (2, −3) = qui est définie positif alors
2 1
x∗b = (2; −3) est un minimum local pour f ..
6. f (x1 , x2 , x3 ) = −x21 − x22 − 2x23 + 0.5x1 x2 .
∇f (x1 , x2 , x3 ) = (−2x1+ 0.5x2 ; −2x2 + 0.5x1 ; −6x3 )

 −2x1 + 0.5x2 = 0
∇f (x1 , x2 ) = (0; 0) ⇒ −2x2 + 0.5x1 = 0 ⇒ x1 = x2 = x3 = 0

 −6x3 = 0

Le point x = (0; 0; 0) est un point stationnaire
 pour f.
−2 0.5 0
 
Le Hessien de f est ∇2 f (x1 , x2 , x3 ) = 0.5 −2 0  les mineurs d’ordre 1 sont
0 0 −4
(-2), (-2) et (-4) sont négatifs ont le même signe que (−1)1 , les mineurs d’ordre 2
−2 0 −2 0 −2 0.5
sont =8, = 8 et = 15/4 sont positifs ont même signe
0 −4 0 −4 0.5 −2
−2 0.5 0
2
que (−1) et le mineur d’odre 3 est 0.5 −2 0 = −15 qui est négatif ayant le
0 0 −4
3 ∗
même signe que (−1) , alors le point x = (0; 0; 0) est un mximum global pour la
fonction f car cette fonction est strictement concave.

Corrigé de l’exercice 7
1. Soit la fonction suivante : f (x1 , x2 ) = βx21 + x22 − 2x1 x2 − 2x2 et β ∈ R La question
est de trouver l’optimum de f selon les valeurs de β Calculons le gradient de f en
fonction de β.
∇f (x1 , x2 ) = (2βx1 − 2x2 ; 2x2 − 2x1 − 2).
Cherchons le point stationnaire
( en fonction de β.
2βx1 − 2x2 = 0 · · · (1)
∇f (x1 , x2 ) = (0; 0) ⇒
2x2 − 2x1 − 2 = 0 · · · (2)
de l’équation (1) on obtient x2 = βx1 si on remplace dans (2), on aura x1 =
1 β
1−β
et x2 = 1−β avec β 6= 1.
1 β
Alors si β 6= 1 le point x∗ = ( 1−β ; 1−β ) est un point stationnaire pour f .
maintenant, vérifiant est ce que ce point s’agit ! d’un maximum, minimum :
2β −2
Le Hessien de f est ∇2 f (x1 , x2 ) = Matrice symétrique, on peut appli-
−2 2
quer le critère de Sylvestre.
Les mineurs d’ordre 1 sont (2β) et (2) qui sont positifs si β > 0, le mineur d’ordre 2

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chap II : Conditions d’optimalités 58

2β −2
est = 4β − 4 qui est positif si β > 1, On conclut que si β ∈]1, ∞[ le point
−2 2
1 β
x∗ = ( 1−β ; 1−β ) est un minimum local pour f .
2. Cherchons les valeurs de α pour que x = (1, 0) est min ou max de la fonction suivante
f (x1 , x2 ) = α3 x1 ex2 + 2α2 log(x1 + x2 ) − (α + 2)x1 + 8αx2 + 16x1 x2
Calculons le gradient de f en fonction de α.
1 1
∇f (x1 , x2 ) = (α3 ex2 + 2α2 x1 +x 2
− α − 2 + 16x2 ; α3 x1 ex2 + 2α2 x1 +x 2
+ 8α + 16x1 ).
Si x = (1, 0) est minimum ou maximum pour f alors ∇f (1, 0) = (0; 0).
∇f (1, 0) = (α3 + 2α( − α − 2; α3 + 2α + 8α + 16).
α3 + 2α2 − α − 2 = 0
∇f (1, 0) = (0; 0) ⇒ ⇒ α = −2
α3 + 2α2 + 8α + 16 = 0.
Si α = −2 le point x∗ = (1, 0) est stationnaire pour f .
Calculons la matrice Hessienne de f . !
−2α2 3 x2 2α2
(x1 +x2 ) 2 α e − (x1 +x2 ) 2 + 16
∇2 f (x1 , x2 ) = 2 2
α3 ex2 − (x12α
+x2 ) 2 + 16 α 3
x 1 e x2
− (x12α+x 2)
2
!
−2α2 α3 − 2α2 + 16
∇2 f (1, 0) = .
α3 − 2α2 + 16 α3 − 2α2
!
2 −8 0
si on remplace α = −2, on obtient :∇ f (1, 0) = . qui est une matrice
0 −16
symetrique, alors on peut calculer le critère de sylvestre.
On voit facilement que cette matrice est définie négatif, alors pour α = −2 le point
est un maximum local pour f .

Corrigé de l’exercice 8
Soit la fonction f : R2 → R définie par
f (x; y) = (1 − x)(1 − y)(x + y − 1)
1. Déterminons les points stationnaires de f .
Le gradient de f est :
∇f (x, y) = ((1 − y)(2
(− 2x − y); (1 − x)(2 − 2y − x))
(
(1 − y)(2 − 2x − y) = 0 1 − y = 0 où 2 − 2x − y = 0
∇f (x, y) = (0; 0) ⇒ ⇒
(1 − x)(2 − 2y − x) = 0 1 − x = 0 où 2 − 2y − x = 0
⇒ la fonction admet les 4 points stationnaires suivants :
(1; 1); (0; 1); (1; 0)et(2/3; 2/3).
2. On donne l’expression de la matrice Hessienne de f (x; y).
!
−2(1 − y) −(2 − 2x − y) − (1 − y)
∇2 f (x, y) =
−(2 − 2x − y) − (1 − y) −2(1 − x)

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chap II : Conditions d’optimalités 59

3. Pour chaque point stationnaire de f , nous définissons s’il s’agit d’un maximum local,
d’un minimum local ou d’un point selle.

– Pour le point (1; 1),!on a :


0 1
∇2 f (1, 1) = cette matrice n’est pas défini alors le point (1; 1) est un point
1 0
selle.
– Pour le point (0; 1), on!a :
0 −1
∇2 f (0, 1) = cette matrice n’est pas défini alors le point (0; 1) est un
−1 −2
point selle.
– Pour le point (1; 0), on!a :
−2 −1
∇2 f (1, 0) = cette matrice n’est pas défini alors le point (1; 0) est un
−1 0
point selle.
– Pour le point (2/3; 2/3), on a : !
−2/3 −1/3
∇2 f (2/3; 2/3) = On peut vérifier facilement que cette matrice est
−1/3 −2/3
défini négatif alors le point (2/3; 2/3) est un maximum local pour f .
4. Déduisant que f a un unique extremum local R2 qui un maximum local.

Corrigés de l’exercice 14
Soient le PNL suivant


 min / max f (x) = (x1 − 3)2 + (x2 − 2)2

 x2 + x2 ≤ 5
1 2
(P )

 x 1 + 2x 2 = 4


x 1 , x2 ≥ 0
1. Résolution graphique Le graphe de c e PNL est donné dans la figure (2.4), Le
domaine de solutions réalisables X est le segment de droite [A, B] tel que A = (3, 1)
et B = (0, 2).
Comme f est le rayon du cercle de centre (3, 2) , ce point représente la borne
inférieure de f mais il n’est pas réalisable. Si on trace f pour une valeur quelconque
f = 1 puis on la glisse dans le sens du domaine réalisable on trouve le minimum
x∗ = (2, 1) avec f (x∗ ) = 2 et le maximum x∗ = (0, 2) et f (x∗ ) = 9.
2. Vérifier ces solutions en utilisant les conditions d’optimalité K.K.T.
On pose g(x) = x21 + x22 − 5 et h(x) = x1 + 2x2 − 4
La fonction de Lagrange
Lx (x, λ, µ) = f (x) + λg(x) + µh(x)
= (x1 − 3)2 + (x2 − 2)2 + λ(x21 + x22 − 5) + µ(x1 + 2x2 − 4)

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chap II : Conditions d’optimalités 60

Figure 2.4 – Résolution graphique exercice 2

Le gradient de la fonction de Lagrange

▽Lx (x, λ, µ) = (2(x1 − 3) + 2λx1 + µ; 2(x2 − 2) + 2λx2 + 2µ)


= ((2 + 2λ)x1 + µ − 6; (2 + 2λ)x2 + 2µ − 4)

Le Hessien de la fonction de Lagrange


!
2 + 2λ 0
▽ Lx (x, λ, µ) =
2
0 2 + 2λ

Nous écrivons les conditions d’optimalité K.K.T


Les conditions nécessaires


 il existe deux paramètres λ∗ , µ∗



 et ils sont unique tels que



 ▽Lx (x , λ , µ ) = (0; 0)
 ∗ ∗ ∗

x∗ est optimal local pour ce PNL ⇒ λ∗ g(x∗ ) = 0





 h(x∗ ) = 0



 λ∗ > 0


 x∗ ≥ 0

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chap II : Conditions d’optimalités 61

Après simplification, on aura




 il existe deux paramètres λ∗ , µ∗



 et ils sont unique tels que



 (2 + 2λ∗ )x1 + µ∗ − 6 = 0 · · · (1)


 (2 + 2λ∗ )x + 2µ∗ − 4 = 0 · · · (2)
2
x∗ est optimal local pour ce PNL ⇒

 λ ((x1 ) + (x∗2 )2 − 5) = 0 · · · (3)
∗ ∗ 2



 x∗1 + 2x∗2 − 4 = 0 · · · (4)



 λ∗ > 0 · · · (5)


 ∗ ∗
x1 , x2 ≥ 0 · · · (6)

Les conditions d’optimalité suffisantes


(
∗ ▽2 Lx (x∗ , λ∗ , µ∗ )
x est optimal local pour ce PNL ⇒
est définie sur le cône tangent C(x∗ )

Tels que le cône tangent de x∗

C(x∗ ) = {d : ▽g(x∗ )d = 0, ▽g(x∗ )d < 0, ▽h(x∗ )d = 0, ||d|| =


6 0}

Vérifiant que x∗ = (2, 1) est un minimum local Les conditions nécessaires deviennent
alors  ∗

 4λ + µ∗ − 2 = 0 · · · (1)



 2λ∗ + 2µ∗ − 2 = 0 · · · (2)
 ∗
 λ 0 = 0 · · · (3)
 0 = 0 · · · (4)




 λ∗ > 0 · · · (5)

 ∗ ∗
x1 , x2 ≥ 0 · · · (6)
On trouve facilement des l’équation (1) et (2) λ∗ = 13 et µ∗ = 32 . De ce fait, le point
x∗ = (2, 1) est un point stationnaire.
Soit ▽gx (x) = (2x1 ; 2x2 ) et ▽hx (x) = (1; 2)
Et ▽gx (x∗ ) = (4; 2) et ▽hx (x∗ ) = (1; 2)
La contrainte g(x) ≤ 0 est saturée au point x∗ = (2, 1), donc le cône tangent de x∗
devient

C(x∗ ) = {d : ▽gx (x∗ )d = 0, ▽hx (x∗ )d = 0, ||d|| =


6 0}
= {d : d = (d1 ; d2 ), (4; 2)(d1 ; d2 ) = 0, (1; 2)(d1 ; d2 ) = 0; ||d|| =
6 0}
= {d : 4d1 + 2d2 = 0, d1 + 2d2 = 0; ||d|| =
6 0}
= {d : d1 = d2 = 0; ||d|| =
6 0}
=∅

C(x∗ ) étant un ensemble vide, alors d’après le théorème de Fritz John 23 il faut
donc étudier la nature de ▽2 Lx (x∗ , λ∗ , µ∗ ) sur R2 .

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani


Chap II : Conditions d’optimalités 62

!
5
0
▽ Lx (x , λ , µ ) ==
2 ∗ ∗ ∗ 3
5
0 3

D’après le critère de sylvestre, cette matrice est définie positif ce qui conclut que le
point x∗ = (2, 1) est un minimum local pour le (P N L) en question.

Cours d’optimisation non linéaire, Université de BBA : Par Z.Ramdani

Vous aimerez peut-être aussi