Vous êtes sur la page 1sur 31

OPTIMISATION 2

Dr KEITA Kolé
UNIVERSITE MUSULMANE AFRICAINE (UMA)
UFR Sciences Économiques et de Gestion

Année Universitaire 2021-2022

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 1 / 31


Rappels de l'optimisation libre (sans contraintes)

Sommaire

1 Rappels de l'optimisation libre


(sans contraintes)

2 Optimisation avec les


contraintes d'égalités

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 2 / 31


Rappels de l'optimisation libre (sans contraintes)

Condition nécessaire d'optimalité


Dans ce cours, nous désignons par f une fonction numérique de n ∈ N
variables réelles, dénie sur une partie Ω de Rn .
Condition nécessaire d'existence d'extremum local ou relatif : Soit
X0 = (x0,1 , x0,2 , · · · , x0,n ) un point intérieur du domaine Ω.
Si f présente un extremum (minimum ou maximum) local au point X0
alors les dérivées partielles de f sont dénies au point X0 et
∂f
∀i ∈ {1, · · · , n}, (X0 ) = 0 ∇f (X0 ) = 0Rn .

∂xi
X0 est un point critique de la fonction f .

Exemple : Déterminer les points critiques des fonctions suivantes


1 f (x, y ) = (x − 2)3 + (y + 1)2 ;
2 g (x, y , z) = 3x 2 y + 2z 2 − x 3 z − y 3 .

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 3 / 31


Rappels de l'optimisation libre (sans contraintes)

Condition susante d'optimalité


Soit X0 = (x0,1 , x0,2 , · · · , x0,n ) un point critique de la fonction f de C 2 sur
l'ensemble Ω ⊂ Rn . Notons par Hf (X0 ) la matrice Hessienne de la fonction
f au point X0 .

Condition susante d'existence d'extremum local ou relatif :


1 Si Hf (X0 ) est dénie positive alors f admet un minimum local au
point X0 .
2 Si Hf (X0 ) est dénie négative alors f admet un maxmum local au
point X0 .
3 Si Hf (X0 ) est non dénie alors f n'admet pas d'extremum local au
point X0 (existence d'un point selle ou point col).
4 Si Hf (X0 ) est semi-dénie, on ne peut pas conclure. On étudie le signe
de ∆f (X0 ) = f (X0 + (h1 , h2 , · · · , hn )) − f (X0 ) au voisinage de X0 .

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 4 / 31


Rappels de l'optimisation libre (sans contraintes)

Notation de Monge
Soient f une fonction numérique de deux variables et X0 un point critique
de f . On suppose que f est de classe C 2 sur l'ensemble Ω ⊆ R2 . La
matrice hessienne de f au point X0 est notée par
!
∂2f ∂2f  
∂x 2
(X0 ) ∂y ∂x (X0 ) r s
Hf (X0 ) = ∂2f ∂2f = .
∂x∂y (X0 ) ∂y 2
(X0 ) s t

Propriétés :
1 Si det(Hf (X0 )) = rt − s 2 < 0 alors Hf (X0 ) est non dénie et X0 est
un point de selle ou un point de col.
2 Si det(Hf (X0 )) = rt − s 2 > 0 et r > 0 alors Hf (X0 ) est dénie
positive et f présente un minimum local au point X0 .
3 Si det(Hf (X0 )) = rt − s 2 > 0 et r < 0 alors Hf (X0 ) est dénie
négative et f présente un maximum local au point X0 .
4 Si det(Hf (X0 )) = rt − s 2 = 0 alors Hf (X0 ) est semi-dénie. On ne
peut pas conclure. On étudie le signe de ∆f (X0 )
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 5 / 31
Rappels de l'optimisation libre (sans contraintes)

Application
Un individu consomme deux types de biens X et Y en quantités x et y aux
prix respectifs de 2 unités monétaire et 1 unité monétaire. Sa satisfaction
est exprimée par sa fonction Utilité. Cette dernière dépend des quantités
consommées des deux biens. Elle est sous la forme U(x, y ) = −x 2 + xy .
C'est un problème d'optimisation sans contraintes. Nous allons vérier s'il
existe un extremum (maximum) à ce problème.
Condition nécessaire d'optimalité : ∇U(x, y ) = ( ∂U(x,y
∂x , ∂y ) = (0, 0).
) ∂U(x,y )

(
∂U(x,y )
∂x = −2x + y = 0,
∂U(x,y )
∂y = x = 0.
Le point critique est M0 = (0, 0).
La matrice hessienne :
−2 1
 
Hf (M0 ) = .
1 0
det(Hf (M0 )) = −1 < 0 alors M0 n'est pas un extremum local.
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 6 / 31
Rappels de l'optimisation libre (sans contraintes)

Autre approche (Trinôme du second degré)


Soient f une fonction numérique de deux variables et X0 un point critique
de f . On suppose que f est de classe C 2 sur l'ensemble Ω ⊆ Rn . On a
n n
1 XX ∂2f
∆f (X0 ) = f (X0 + (h1 , h2 , · · · , hn )) − f (X0 ) ≃ hi hj (X0 )
2 ∂xi ∂xj
i=1 j=1

Le signe du trinôme de second degré permet de déterminer la nature du


point critique.
Cas où n = 2 :

1 2 ∂2f ∂2f 2
2∂ f
2

∆f (X0 ) ≃ h (X0 ) + hk (X0 ) + k (X0 )
2 ∂x 2 ∂x∂y ∂y 2

Exemple : Étudier les extremums locaux de la fonction


f (x, y ) = (x − 2)2 + (y + 1)2 avec l'approche du trinôme de second degré.

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 7 / 31


Rappels de l'optimisation libre (sans contraintes)

Proposition 1
Notons par Hf (x) la matrice Hessienne de f au point x ∈ Ω. On dit que
1 f est convexe sur Ω si et seulement si ∀x ∈ Ω, Hf (x) est semi-dénie
positive.
2 f est concave sur Ω si et seulement si ∀x ∈ Ω, Hf (x) est semi-dénie
négative.
3 f est strictement convexe sur Ω si et seulement si ∀x ∈ Ω, Hf (x) est
dénie positive.
4 f est strictement concave sur Ω si et seulement si ∀x ∈ Ω, Hf (x) est
dénie négative.

Proposition 2
1 Si f est convexe sur Ω et ∇f (X0 ) = 0 alors f admet un minimum
global au point X0 . Ce minimum est strict si la convexité est stricte.
2 Si f est concave sur Ω et ∇f (X0 ) = 0 alors f admet un maximum
global au point X0 . Ce maximum est strict si la concavité est stricte.
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 8 / 31
Rappels de l'optimisation libre (sans contraintes)

Exercice : On considère la fonction f (x, y ) = x 2 − xy + 12 y 4 + 12 y 2 .


1 Déterminer les points critiques de la fonction f et Montrer qu'elle est
strictement convexe. Déterminer les extremums de f .
2 Calculer lim f (0, y ). Existe t-il un maximum global?
y →+∞

Existence d'extremum global


Soit f une fonction numérique dénie sur Ω ⊂ Rn . Pour savoir si elle
admet un minimum global (respectivement un maximum global), nous
avons trois cas possibles :
1 f n'est pas minorée sur Ω (respectivement majorée sur Ω) alors elle
n'admet pas de minimum global (respectivement maximum global).
2 f est minorée mais n'atteint pas sa borne inférieure (respectivement
majorée mais n'atteint pas sa borne supérieure) sur Ω alors il n'existe
pas un minimum global (respectivement maximum global) sur Ω.
3 f est minorée et atteint sa borne inférieure (respectivement majorée et
atteint sa borne supérieure) sur Ω alors il existe un minimum global
(respectivement un maximum global).
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 9 / 31
Optimisation avec les contraintes d'égalités

Sommaire

1 Rappels de l'optimisation libre


(sans contraintes)

2 Optimisation avec les


contraintes d'égalités
Méthode de substitution
Méthode du multiplicateur
de Lagrange

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 10 / 31


Optimisation avec les contraintes d'égalités

Dénition 1
Soient f , C1 , C2 , · · · et Cp des fonctions numériques dénies sur Ω ⊂ Rn
(avec p < n). Le problème d'optimisation de la fonction f sous les
contraintes d'égalités C1 (x) = C2 (x) = · · · = Cp (x) = 0 se présente ainsi
(
max f (x)
x∈Ω
s.c C1 (x) = C2 (x) = · · · = Cp (x) = 0
ou (
min f (x)
x∈Ω
s.c C1 (x) = C2 (x) = · · · = Cp (x) = 0

f est la fonction cible ou la fonction objectif,


les points x ∈ Ω qui vérient les contraintes, sont appelés les points
admissibles.
Déterminer le minimum d'une fonction f revient à déterminer le maximum
de −f .
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 11 / 31
Optimisation avec les contraintes d'égalités

Dénition 2
Soient f une fonction numérique dénie sur Ω ⊂ Rn et x0 ∈ Ω. On dit que
f admet un minimum local au point x0 sous la contrainte A ⊂ Rn si

∀x ∈ Ω ∩ A, f (x) ≥ f (x0 ).

f admet un maximum local au point x0 sous la contrainte A ⊂ Rn si

∀x ∈ Ω ∩ A, f (x) ≤ f (x0 ).

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 12 / 31


Optimisation avec les contraintes d'égalités Méthode de substitution

Méthode de substitution
Soient f , C1 , C2 , · · · et Cp des fonctions numériques dénies sur Ω ⊂ Rn
(avec p < n). On veut résoudre le problème suivant
(
min f (x)
x∈Ω
s.c C1 (x) = C2 (x) = · · · = Cp (x) = 0

La méthode de substitution consiste


1 à exprimer p composantes du vecteur variable x en fonction des n − p
autres composantes,
▶ vérication avec le théorème des fonctions implicites.
2 résoudre un problème d'optimisation sans contraintes (optimisation
libre).
▶ Condition nécessaire d'optimalité,
▶ Condition susante d'optimalité.

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 13 / 31


Optimisation avec les contraintes d'égalités Méthode de substitution

Théorème des fonctions implicites


Si les contraintes Ci (i ∈ {1, · · · , p}) sont de classe Ck (k ≥ 1) et la
matrice des dérivées partielles dénie par
 ∂C1 ∂C1 
∂xn−p+1 ··· ∂xn
 ∂C2 ··· ∂C2 
 ∂xn−p+1 ∂xn 
 .. .. .. 
. . . 
 

∂Cp ∂Cp
∂xn−p+1 ··· ∂xn

est inversible alors il existe deux ouverts O ∈ Rn−p et I ∈ Rp et une


application ϕ : O → I dénie par

∀(x1 , · · · , xn−p ) ∈ O, ∀(xn−p+1 , · · · , xn ) ∈ I,

ϕ(x1 , · · · , xn−p ) = (xn−p+1 , · · · , xn ).

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 14 / 31


Optimisation avec les contraintes d'égalités Méthode de substitution

Exemple : on considère l'équation C (x, y ) = 2xy − 2x + y − 2. Montrons


qu'il existe une application dénie sur un domaine O ⊂ R telle que

∀(x, y ) ∈ R2 , C (x, y ) = 0 ⇔ ∀y ∈ O, ϕ(x) = y .

La fonction C est polynomiale donc elle est de classe C ∞ sur R2 . On a


∂y (x, y ) = 2x + 1 ̸= 0 si x ̸= − 2 .
∂C 1

Avec le théorème des fonctions implicites, il existe une application


ϕ : R \ {− 21 } → R.

2x + 2
C (x, y ) = 0 ⇔ y = ϕ(x) = .
2x + 1

Application : Un individu consomme deux types de biens X et Y en


quantités x et y aux prix respectifs de 2 unités monétaire et 1 unité
monétaire. Sa satisfaction est exprimée par sa fonction Utilité. Cette
dernière dépend des quantités consommées des deux biens. Elle est sous la
forme U(x, y ) = −x 2 + xy . Il désire maximiser sa satisfaction sachant qu'il
ne détient que 20 unités monétaires pour l'achat des biens X et Y .
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 15 / 31
Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

Idée
La méthode du multiplicateur de Lagrange permet de ramener un problème
d'optimisation d'une fonction de n variables soumise à p contraintes à un
problème d'optimisation à n + p variables.
Soient f , C1 , C2 , · · · et Cp des fonctions numériques dénies sur Ω ⊂ Rn
(avec p < n). On dénit le lagragien :
p
X
L(x, λ1 , λ2 , · · · , λp ) = f (x) + λi Ci (x).
i=1

Les paramètres λi (i ∈ {1, · · · , p}) sont appelés les multiplicateurs de


Lagrange.
La méthode du multiplicateur de Lagrange est utilisée lorsque toutes les
contraintes sont qualiées.

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 16 / 31


Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

Soient f , C1 , C2 , · · · et Cp des fonctions numériques dénies sur Ω ⊂ Rn


(avec p < n).
Conditions de qualication
Soit x ∈ Ω, les contraintes Ci sont dites qualiées au point x si
1 La matrice jacobienne JC (x) est de rang plein ou maximal.
C'est-à-dire le rang de
 ∂C ∂C1
(x) · · ·

∂xn (x)
1
∂x1
.. .. ..
. . .
 
 
∂Cp ∂Cp
∂x1 (x) ··· ∂xn (x)

est p .
2 ∀i ∈ {1, · · · , p}, Ci (x) = 0.

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 17 / 31


Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

Condition nécessaire
Condition nécessaire
Si f admet un extremum local X0 sous les contraintes Ci (i ∈ {1, · · · , p})
alors ∀j ∈ {1, · · · , n}, ∀i ∈ {1, · · · , p}, ∃Λ = (λ0,1 , · · · , λ0,p ) tel que
∂xj (X0 , Λ) = 0 et ∂λi (X0 , Λ) = 0
∂L ∂L

On a p
∂L ∂f ∂ci
(X0 , Λ) = 0 ⇒ (X0 ) = 0
X
(X0 ) + λ0,i
∂xj ∂xj ∂xj
i=1
∂f ∂C
⇒ (X0 ) + Λ · (X0 ) = 0, ∀j ∈ {1, · · · , n}.
∂xj ∂xj
La seconde condition nécessaire montre que les points critiques sont
admissibles
∂L
(X0 , Λ) = 0 ⇒ Ci (X0 ) = 0, ∀i ∈ {1, · · · , p}
∂λi
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 18 / 31
Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

Condition susante
Dénition
Soient f , C1 , C2 , · · · et Cp des fonctions numériques dénies sur Ω ⊂ Rn
(avec p < n) et X0 ∈ Ω (X̄0 = (X0 , Λ)). On appelle matrice hessienne
bordée d'ordre (n + p) du lagrangien L au point X̄0 , la matrice dénie par
 ∂2L ∂2L ∂2L ∂2L 
∂x12
(X0 ) ··· ∂xn ∂x1 (X̄0 ) ∂λ1 ∂x1 (X̄0 ) ··· ∂λp ∂x1 (X̄0 )
 .. .. .. .. .. ..

 . . . . . .

2
 ∂ L ∂2L ∂2L ∂ L 2
 ∂x (X̄0 ) ··· (X̄0 ) ∂λ1 ∂xn (X̄0 ) ··· ∂λp ∂xn (X̄0 ) 

2
∂xn2
HL (X̄0 ) =  n
2
 ∂ L (X̄ ) · · · ∂2L ∂2L ∂ L 2

 ∂x ∂λ1
0 1 ∂xn ∂λ1 (X̄0 ) ∂λ21
(X̄0 ) ··· ∂λp ∂λ (X̄01
)

 .
.. .. .. .. .. .. 
. . . . .
 
 
2
∂ L ∂2L ∂2L ∂ L 2

∂x ∂λp (X̄0 ) · · ·
1 ∂xn ∂λp (X̄0 ) ∂λ1 ∂λp (X̄0 ) ··· ∂λ
(X̄0 )
2
p

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 19 / 31


Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

La matrice bordée devient


 ∂Cp

∂2L ∂2L ∂C1
∂x12
(X̄0 ) ··· ∂xn ∂x1 (X̄0 ) ∂x1 (X0 ) ··· ∂x1 (X0 )

.. .. .. .. .. .. 
. . . . . .
 
 
 ∂2L ∂2L ∂C1 ∂Cp 

 ∂xn2
(X̄0 ) ··· ∂xn2
(X̄0 ) ∂xn (X0 ) ··· ∂xn (X 0 ) 

HL (X̄0 ) = 



∂C1
∂x1 (X0 ) ··· ∂C1
∂xn (X0 ) 0 ··· 0
 
 
 .. .. .. .. .. .. 
. . . . . .
 
 
∂Cp ∂Cp
∂x1 (X0 ) ··· ∂xn (X0 ) 0 ··· 0

HL (X̄0 ) JCT (X0 )


 

HL (X̄0 ) =  
JC (X0 ) 0
Exemple : Écrire la matrice hessienne bordée de la fonction
f (x, y ) = x 2 + 2y 2 − x sur le cercle unité.

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 20 / 31


Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

Calcul des déterminants


Déterminants
À partir de la matrice hessienne bordée d'ordre n + k , on dénit les
déterminants Dp+k des sous-matrices bordées d'ordre p + k avec
k ∈ {p + 1, p + 2, · · · , n}.

Cas particuliers :
pour n = 2 et p = 1, la matrice bordée est
∂2L ∂2L
 ∂C

∂x 2 ∂y ∂x ∂x
 ∂2L ∂2L ∂C  .
HL =  ∂x∂y ∂2y ∂y 
∂C
∂x
∂C
∂y 0

On a k = 2 et D3 = det(HL ).
pour n = 3 et p = 1, la matrice bordée est

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 21 / 31


Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

 
∂2L ∂2L ∂2L ∂C
∂x 2 ∂y ∂x ∂z∂x ∂x
 ∂2L ∂2L ∂2L ∂C 
 ∂x∂y 
HL =  2 ∂2y ∂z∂y ∂y  .
∂ L ∂2L ∂2L ∂C 
 ∂x∂z ∂y ∂z ∂z 2 ∂z 
∂C
∂x
∂C
∂y
∂C
∂z 0
2 2
∂ L ∂ L ∂C
∂x 2 ∂y ∂x ∂x
On a k ∈ {2, 3}, D3 = ∂2L
∂x∂y
∂2L
∂2y
∂C
∂y
et D4 = det(HL ).
∂C
∂x 0 ∂C
∂y
pour n = 3 et p = 2, la matrice bordée est
∂2L ∂2L ∂2L
 ∂C1 ∂C2

∂x 2 ∂y ∂x ∂z∂x ∂x ∂x
 ∂2L ∂2L ∂2L ∂C1 ∂C2 
∂2y
 ∂x∂y ∂z∂y ∂y ∂y 

 2
HL = ∂ L ∂2L ∂2L ∂C1 ∂C2  .
 ∂x∂z ∂y ∂z ∂z 2 ∂z ∂z 
0 0 
 ∂C1 ∂C1 ∂C1 
 ∂x ∂y ∂z
∂C2
∂x
∂C2
∂y
∂C2
∂z 0 0
On a k = 3 et D5 = det(HL ).
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 22 / 31
Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

Théorème
Soient f , C1 , C2 , · · · et Cp des fonctions numériques dénies sur Ω ⊂ Rn
(avec p < n) et X̄0 = (X0 , Λ) ( X0 ∈ Ω) est un point critique du
lagrangien.
1 Si tous les déterminants Dp+k (k ∈ {p + 1, · · · , n}) sont du même
signe que (−1)p alors f présente un minimum local au point X0 sous
les contraintes Ci (i ∈ {1, · · · , p}).
2 Si les déterminants Dp+k (k ∈ {p + 1, · · · , n}) sont de signes
alternés. C'est-à-dire (−1)p+1 D2p+1 > 0, (−1)p+1 D2p+2 < 0,
(−1)p+1 D2p+3 > 0, · · · alors f présente un maximum local au point
X0 sous les contraintes Ci .
3 Si les deux premiers points ne sont pas vériés, on étudie le signe de
∆f (X0 ) = f (X0 + (h1 , · · · , hn ) − f (X0 ) en tenant compte des
contraintes Ci (X0 ).

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 23 / 31


Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

Exemple 1 : déterminer les extremums de la fonction


f (x, y ) = x 2 + 2y 2 − x sur le cercle unité.
La fonction objectif est f (x, y ) = x 2 + 2y 2 − x et on a une seule contrainte
C (x, y ) = x 2 + y 2 − 1.
Méthode du multiplicateur de Lagrange : le lagrangien est
L(x, y , λ) = x 2 + 2y 2 − x + λ(x 2 + y 2 − 1).
 ∂x = 0  2x − 1 + 2xλ = 0
 ∂L 

Condition nécessaire : on a ∂L
∂y = 0 ⇒ 4y + 2y λ = 0
0 2
+ y2 − 1 = 0
 ∂L
x

∂λ =
Les points critiques de L sont M̄0 (1, 0, − 12 ), M̄1 (−1, 0, − 32 ),
√ √
M̄2 (− 21 , − 2
3
, −2) et M̄3 (− 21 , 2
3
, −2)
Conditions de qualications des points critiques : la matrice
jacobienne associée à la contrainte au point (x, y ) est JC (x, y ) = (2x, 2y ).
Au point M0 : JC (1, 0) = (2, 0) est de rang 1 et C (1, 0) = 0 alors le point
est qualié.
Au point M1 : JC (−1, 0) = (−2, 0) est de rang 1 et C (−1, 0) = 0 alors le
point est qualié.
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 24 / 31
Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange
√ √
Au point M2 : JC (− 21 , − 23 ) = (−1, − 3) est de rang 1 et

C (− 12 , − 23 ) = 0 alors le point est qualié.
√ √ √
Au point M3 : JC (− 21 , 23 ) = (−1, 3) est de rang 1 et C (− 12 , 23 ) = 0
alors le point est qualié.

Condition susante : la matrice hessienne bordée d'ordre 3 est


2(1 + λ) 0 2x
 

HL (x, y , λ) =  0 2(2 + λ) 2y  .
2x 2y 0
1 0 2
 

Au point M̄0 : HL = 0 3 0 et D3 = −12 < 0. Alors f présente un


2 0 0
minimum local en M0sur le cercle unité.
−1 0 −2

Au point M̄1 : HL =  0 1 0  et D3 = −4 < 0. Alors f présente


−2 0 0
un minimum local en M1 sur le cercle unité.
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 25 / 31
Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

−2 0 −√1
 

Au point M̄2 : HL =  0 0
√ − 3 et D3 = 6 > 0. Alors f
−1 − 3 0
présente un maximumlocal en M2 surle cercle unité.
−2 0 √ −1
Au point M̄3 : HL = 0 √0
 3 et D3 = 6 > 0. Alors f présente
−1 3 0
un maximum local en M3 sur le cercle unité.
Exemple : Étudier les extremums locaux de la fonction
f (x, y , z) = 8x 3 + 8y 3 − 12xyz + 10z 3 − 3z sous la contrainte
C (x, y , z) = x + y − z = 0

Méthode de substitution : la dérivée partielle = −1 ̸= 0 alors il ∂C


∂z
existe un ouvert O ⊂ R et une application ϕ dénie sur O tels que
2

z = ϕ(x, y ) = x + y .
On remplace z par x + y dans la fonction f et on obtient

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 26 / 31


Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

g (x, y ) = f (x, y , x + y ) = 3(6x 3 + 6y 3 + 6x 2 y + 6xy 2 − x − y ).


Condition nécessaire :
18x 2 + 12xy + 6y 2 − 1 = 0

∇g (x, y ) = (0, 0) ⇒
18y 2 + 6x 2 + 12xy − 1 = 0
√ √
Les points
√ √
critiques sont A0 ( 16 , 61 ), A1 (− 16 , − 16 ), A2 ( 63 , − 6
3
) et
A3 (− 63 , 63 ).
Condition susante : la matrice hessienne de g est
3x + y
 
x +y
Hg (x, y ) = 36
x +y x + 3y

Au point A0 : on a det(Hg (A0 )) = 36 > 0 et ∆1 = 24 > 0 alors f admet


un minimum local au point A¯0 = ( 16 , 16 , 13 ) sous la contrainte.
Au point A1 : on a det(Hg (A1 )) = 36 > 0 et ∆1 = −24 < 0 alors f admet
un maximum local au point A¯1 = (− 16 , − 16 , − 13 ) sous la contrainte.
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 27 / 31
Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

√ √
Au point A2 : on a det(Hg (A2 )) = −12 < 0 alors A¯2 = ( 63 , − 63 , 0) est
un point selle. √ √
Au point A3 : on a det(Hg (A3 )) = −12 < 0 alors A¯3 = (− 63 , 63 , 0) est
un point selle.

Méthode de multiplicateur de Lagrange : le lagrangien est


L(x, y , z, λ) = 8x 3 + 8y 3 − 12xyz + 10z 3 − 3z + λ(x + y − z).

Condition nécessaire :
24x 2 − 12yz + λ = 0


24y 2 − 12xz + λ = 0


∇L(x, y , z, λ) = (0, 0, 0, 0) ⇒
 −12xy + 30z 2 − 3 − λ = 0
x +y −z = 0

Les √
points√critiques sont A0 ( 16√, 61 ,√31 , 0), A1 (− 16 , − 61 , − 13 , 0),
A2 ( 63 , − 63 , 0, −2) et A3 (− 63 , 63 , 0, −2).
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 28 / 31
Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

Condition de qualication : pour tout point (x, y , z), la matrice


jacobienne JC (x, y , z) = (1, 1, −1) est de rang 1 et les points critiques
sont admissibles.
Condition susante : la matrice hessienne bordée
48x −12z −12y 1
 
−12z 48y −12x 1 
HL (x, y , z, λ) = 
−12y −12x 60z −1

1 1 −1 0

8 −4 −2 1
 
−4 8 −2 1 
Au point A0 : on a HL (A0 ) = 
−2 −2 20 −1,

1 1 −1 0
8 −4 1
D3 = −4 8 1 = −24 < 0 et D4 = det(HL (A0 )) = −432 < 0 alors f
1 1 0
présente un minimum local au point A0 sous la contrainte.
Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 29 / 31
Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

−8 4 2 1
 
4 −8 2 1
Au point A1 : on a HL (A1 ) =  ,
 2 2 −20 −1
1 1 −1 0
−8 4 1
D3 = 4 −8 1 = 24 > 0 et D4 = det(HL (A1 )) = −432 < 0 alors f
1 1 0
présente un maximum local au point
√ A0 sous la contrainte.

8 3 0√ −2√3 1

 0
Au point A2 : on a HL (A2 ) =  √ −8√3 −2 3 1 ,

2 3 −2 3 0 −1
1 1 −1 0

8 3 0√ 1
D3 = 0 −8 3 1 = 0. On ne peut rien conclure à priori. On étudie
1 1 0
le signe de ∆f (A3 ).

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 30 / 31


Optimisation avec les contraintes d'égalités Méthode du multiplicateur de Lagrange

√ √
−8 3 0 −2√ 3 1
 

0√ 8√3 2 3 1
Au point A3 : on a HL (A3 ) =  ,

 −2 3 2 3 0 −1
1 1 −1 0

−8 3 0 1

D3 = 0 8 3 1 = 0. On ne peut rien conclure à priori. On étudie
1 1 0
le signe de ∆f (A3 ).

Application : On veut maximiser la production, à coût donné. La fonction


1 2
de production est f (x, y ) = x y où x la quantité de capital utilisé et y
3 3

est la quantité de travail. Le coût de production est C (x, y ) = p1 x + p2 y


où p1 et p2 sont les prix unitaires de capital et de travail. Le problème
d'optimisation est le suivant

max f (x, y )
s.c C (x, y ) = C0

Dr KEITA (UMA) ECUE 2 : Optimisation 2 Mai 2022 31 / 31

Vous aimerez peut-être aussi