Vous êtes sur la page 1sur 2

Chapitre XI - Complément A : La méthode des multiplicateurs de

Lagrange ; une explication géométrique

I) Position du problème

La méthode des multiplicateurs de Lagrange est une procédure mathématique qui permet
de rechercher les minima (ou maxima ou extrema) possibles d’une fonction de plusieurs
variables lorsque ces variables ne sont pas totalement indépendantes mais sont reliées entre
elles par une ou plusieurs relations (on dit aussi contraintes). On parle alors d’une
minimisation de la fonction f(x1,x2,…xn) sous contraintes. Cette procédure a été décrite et
utilisée au chapitre XI. Nous allons ici en donner une justification géométrique qui permet de
visualiser simplement ce que l’on fait dans ce calcul.

II) Minimisation d’une fonction f(x1,…,xn)

On cherche à trouver les minima possibles d’une fonction f(x1,…,xn). Pour cela, une
condition nécessaire mais non suffisante sera d’avoir :

∂f ∂f ∂f
df = dx 1 + ... + dx i + ... + dx n ≡ 0 (1)
∂x 1 ∂x i ∂x n
∂f
Pour simplifier les notations on pose A i = et on réécrit (1) : df = ∑ A i dx i ≡ 0 (1)
∂x i i

où ≡ 0 veut dire = 0 ∀x i . En d’autres termes, on peut dire que l’on cherche un vecteur
r
A d’un espace vectoriel euclidien à n dimensions, de composantes Ai, qui soit perpendiculaire
au vecteur dr , dr pouvant être n’importe quel vecteur de cet espace. La seule réponse est
r ∂f
évidemment : A = 0 ⇒ = 0 ∀i (2)
∂x i

Remarque : ceci ne garantit pas que l’on ait un minimum. Il faut ensuite considérer les
dérivées secondes pour savoir si l’on a un minimum, un maximum ou ni l’un ni l’autre (par
exemple une structure de type « selle »). Ce que l’on peut dire c’est que l’on a un plan tangent
(de dimension n) qui, au point considéré, est horizontal (voir le complément A du chapitre IX,
minimum de G* et stabilité d’un système homogène).

III) Minimisation d’une fonction f(x1,…,xn) sous contraintes

On cherche toujours à trouver les minima possibles de f mais maintenant les variables xi
doivent obéir à des contraintes ; elles ne sont pas toutes indépendantes. On a n variables xi et
p contraintes, donc (n – p) variables indépendantes réellement. La contrainte n° j impose la
condition ∑ B dx
i
j
i i = 0 soit B j ⋅ dr = 0 (3) . Le vecteur dr ne peut plus être choisi

totalement librement. Il doit être perpendiculaire au vecteur B j .

 Supposons qu’il y ait une seule contrainte (voir figure) ; dr doit être perpendiculaire à
r r
B et la condition A ⋅ dr = 0 ∀dr sera donc vérifiée pourvu que l’on choisisse A = λ 1 B1 où
1

1
λ1 est une constante quelconque. Cette constante, que l’on peut choisir comme on veut,
s’appellera le multiplicateur de Lagrange.
r
 Si maintenant il y a p contraintes imposées aux variables xi, la condition A ⋅ dr = 0
r p
sera satisfaite si l’on choisit A = ∑ λ j B j où les λj sont p constantes arbitraires, les p
j=1

multiplicateurs de Lagrange.

 On voit ainsi qu’une nouvelle contrainte supplémentaire diminue d’une unité la


dimension de l’espace accessible à dr et, de ce fait, augmente d’une unité la dimension de
r
l’espace des solutions pour A . Dans le problème de la minimisation d’une fonction
f(x1,…,xi,…xn) sous contrainte, la première étape de la recherche des minima par la méthode
des multiplicateurs de Lagrange sera donc de chercher les solutions du système d’équations :

∂f
= λ 1 B1i + ... + λ j B ij + ... + λ p B ip pour i = 1,....,n (4)
∂x i

Il faudra s’assurer ensuite que les solutions trouvées correspondent bien à des minima en
considérant les dérivées secondes.

A B1
A

B1 dr

dr B2

Une seule contrainte : B1 Deux contraintes : B1 , B 2


dr est dans le plan perpendiculaire à B1 dr est perpendiculaire au plan ( B1 , B 2 )
A doit être colinéaire à B1 A doit être dans le plan ( B1 , B 2 )

Vous aimerez peut-être aussi