Vous êtes sur la page 1sur 10

TABLE DES MATIÈRES TABLE DES MATIÈRES

Chapitre 2 : Fonctions de plusieurs variables

Table des matières


I Fonctions de deux variables 2

II Représentations graphiques 3
II.1 Représention en trois dimensions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
II.2 Représentation des courbes de niveau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
CHAP :Fonctions de plusieurs variables

III Dérivées partielles 4


III.1 Dérivées partielles d’ordre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
III.2 Différentielle et Gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
III.3 Dérivées partielles d’ordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

IV Convexité 6

V Optimisation 6
V.1 Généralité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
V.1.1 Optimisation d’une fonction (Extremums libres) . . . . . . . . . . . . . . . . . . . . . 6
V.1.2 Optimisation sous contrainte (Extremums liés) . . . . . . . . . . . . . . . . . . . . . . 7
V.2 Optimisation sans contrainte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
V.2.1 Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
V.2.2 Extremum local . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
V.2.3 Extremum global . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
V.3 Optimisation sous contrainte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
COURS

V.3.1 Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
V.3.2 extremum local . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
V.3.3 Extremum global . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

Le recours aux fonctions réelles d’une variable réelle est souvent insuffisant pour rendre compte des relations
économiques. Une variable économique dépend souvent de plusieurs variables économiques et non d’une
seule.

En générale, les fonctions réelles de plusieurs variables réelles sont de la forme :

z = f (x1 , x2 , ..., xn ) , où x1 , x2 , ..., xn et z sont des nombres réels.

L’étude ci-après se fera généralement sur des fonctions ayant seulement des variables x et z. Ce cas capte
l’essentiel de la théorie. L’étude du cas général est similaire et ne présente pas plus de difficultés.

ESSEC - Chap. 2 - -1- - M. Bellalah -


I FONCTIONS DE DEUX VARIABLES

I Fonctions de deux variables

On considère l’espace produit R2 = R × R. Un élément de R2 est un couple noté (x, y) où (x1 , x2 ). La somme
de deux éléments de R2 est
(x, y) + (x′ , y ′ ) = (x + x′ , y + y ′ )
Le produit par un réel λ est
λ(x, y) = (λx, λy)

Définition 1.

On dit que (x, y) tend vers (x0 , y0 ) si x tend vers x0 et y tend vers y0 . On note (x, y) → (x0 , y0 ).
CHAP :Fonctions de plusieurs variables

Définition 2.

On appelle fonction de deux variables une fonction f de R2 dans R. L’ensemble Df des éléments de R2 qui
ont une image par f s’appelle le domaine de définition de f .

p
Par exemple, La fonction f définie par : f (x, y) = 1 − x2 − y 2 est une fonction de deux variables dont Df
est le disque de centre (0, 0) et de rayon 1 : Df = (x, y) ∈ R2 : x2 + y 2 ≤ 1.

Définition 3.

Soit f : R2 −→ R et (x0 , y0 ) ∈ R2 . On dit que f admet ℓ ∈ R pour limite lorsque (x, y) tend vers (x0 , y0 ) si
COURS

f (x; y) est aussi proche que l’on veut de ℓ dès que (x; y) est sufisamment proche de (x0 ; y0 ).

On note ℓ = lim f (x, y).


(x;y)→(x0 ,y0 )

Définition 4.

Soit f : R2 −→ R et (x0 , y0 ) ∈ R2 . On dit que f est continue en (x0 , y0 ) si f admet une limite en (x0 , y0 ) et
si cette limite est égale à f (x0 , y0 ).

f continue en (x0 , y0 ) ⇐⇒ lim f (x, y) = f (x0 , y0 )


(x;y)→(x0 ,y0 )

On dit que f est continue sur D ⊂ R2 si elle est continue en tout point de D.

ESSEC - Chap. 2 - -2- - M. Bellalah -


II REPRÉSENTATIONS GRAPHIQUES

II Représentations graphiques

II.1 Représention en trois dimensions

Soit f une fonction de deux variables définie sur D ∈ R2 . La fonction f fait correspondre à tout point (x, y)
de D un réel z = f (x, y). Le graphe de f est une partie de R2 × R = R3

Cf = {(x, y, z) ∈ R3 | z = f (x, y), (x, y) ∈ D}

Cf est appelé surface.

II.2 Représentation des courbes de niveau

Le plus souvent la surface d’une fonction à deux variables est difficile à visualiser. On a alors recours à des
représentations graphiques "partielles", comme le font les géographes pour les reliefs.
CHAP :Fonctions de plusieurs variables

Définition 5.

Soit f une fonction de deux variables définie sur D ⊂ R2 . On appelle courbe de niveau Ck de f l’ensemble :

Ck = {(x, y) ∈ D | f (x, y) = k}, k ∈ R.

Il y a une infinité de courbes de niveau, autant que de valeurs possibles pour k. On représente fréquemment
quelques-unes de ces courbes de niveau dans le plan (x, y). En microéconomie on recourt souvent aux courbes
de niveau.

Exemple 1 Soit f (x, y) = x2 + y 2 . Les courbes de niveau k > 0 de f sont des cercles de centre O(0, 0) et de rayon k.
COURS

2
0.2
0.4

0.5
0.6

0.6

1.5

0 1 0.6

0.4
1 0.5
−0.5 0 0.2 0.2
−2 −1 0 1 2 −1 1 2 3

Courbe de f (x, y) = x exp(−x2 − y 2 ) Courbe de niveau

ESSEC - Chap. 2 - -3- - M. Bellalah -


III DÉRIVÉES PARTIELLES

III Dérivées partielles

III.1 Dérivées partielles d’ordre 1

Définition 6.

Soit f : R2 −→ R et (x0 , y0 ) ∈ R2 . On appelle la dérivée partielle de f en (x0 , y0 ) par rapport à


• x la dérivée de l’application x 7−→ f (x, y0 ) en x0 .
∂f f (x, y0 ) − f (x0 , y0 )
On la note : fx′ (x0 , y0 ) = (x0 , y0 ) = lim .
∂x x→x0 x − x0
• y la dérivée de l’application y 7−→ f (x0 , y) en y0 .
∂f f (x0 , y) − f (x0 , y0 )
On la note : fy′ (x0 , y0 ) = (x0 , y0 ) = lim .
∂y y→y 0 y − y0
CHAP :Fonctions de plusieurs variables

∂f ∂f
Exemple 2 ➔ Si f (x, y) = x2 + y 2 , on a : = 2x et = 2y .
∂x ∂y
∂f ∂f ∂f
➔ Si f (x, y, z) = 3xy + y 2 − z 3 , on a : = 3y, = 3x + 2y et = −3z 2 .
∂x ∂y ∂z

III.2 Différentielle et Gradient

Définition 7.

Soit f : R2 −→ R et D ⊂ R2 . On dit que f est de classe C 1 sur D, si f admet des dérivées partielles
continues sur D. On définit alors la différentielle de f en (x0 , y0 ) ∈ D

df (x0 , y0 ) = fx′ (x0 , y0 ) dx + fy′ (x0 , y0 ) dy


COURS

On appelle gradient de f en (x0 , y0 ) le vecteur


 
f ′ (x , y )
 x 0 0 
gradf (x0 , y0 ) = ∇f (x0 , y0 ) = 
 

 
 ′ 
fy (x0 , y0 )

Le gradient en un point (x0 , y0 ) est orthogonal à la courbe de niveau passant par ce point.

ESSEC - Chap. 2 - -4- - M. Bellalah -


III.3 Dérivées partielles d’ordre 2 III DÉRIVÉES PARTIELLES

III.3 Dérivées partielles d’ordre 2

Définition 8.

Soit f : R2 −→ R admettant des dérivées partielles :

fx′ : (x, y) 7−→ fx′ (x, y) fy′ : (x, y) 7−→ fy′ (x, y)

Si ces fonctions admettent des dérivées partielles par rapport à x et y, elles sont appelées dérivées partielles
secondes ou d’ordre 2 de f . On les note :

∂2f ∂ ∂f ∂2f ∂ ∂f
   
′′
fx′′2 = = fxy = =
∂x2 ∂x ∂x ∂x∂y ∂x ∂y
∂2f ∂ ∂f ∂2f ∂ ∂f
   
′′
fyx = = fy′′2 = =
∂y∂x ∂y ∂x ∂y 2 ∂y ∂y

On dit que f est de classe C 2 sur U ⊂ R2 , si elle admet des dérivées partielles secondes continues sur U .
CHAP :Fonctions de plusieurs variables

Théorème 9 (Théorème de Schwartz).

Si f : R2 −→ R est de classe C 2 au voisinage de (x0 , y0 ) ∈ R2 , alors


′′ ′′
fxy (x0 , y0 ) = fyx (x0 , y0 ).

Définition 10.
COURS

Soit f : R2 −→ R de classe C 2 sur U . On appelle matrice Hessienne de f en (x0 , y0 ) ∈ U , la matrice


 
f ′′ (x , y ) ′′ (x , y )
fxy
 x2 0 0 0 0 
Hf (x0 , y0 ) = 
 

 
 ′′
fyx (x0 , y0 ) fy′′2 (x0 , y0 )

Définition 11.

On appelle Hessien de f en (x0 , y0 ) ∈ U , le déterminant de la matrice Hessienne de f en (x0 , y0 ) :


h i2
′′
defHf (x0 , y0 ) = fx′′2 (x0 , y0 ) × fy′′2 (x0 , y0 ) − fxy (x0 , y0 )

ESSEC - Chap. 2 - -5- - M. Bellalah -


V OPTIMISATION

IV Convexité

Proposition 12.

Si f est de classe C 2 sur R2 , alors :






DetHf ≥0









f est convexe ⇐⇒ fx′′2 ≥ 0 ⇐⇒ Hf est semi-définie positive en tout (x, y) ∈ R2 .








fy′′2 ≥ 0



et
CHAP :Fonctions de plusieurs variables





DetHf ≥0









f est concave ⇐⇒ fx′′2 ≤ 0 ⇐⇒ Hf est semi-définie négative en tout (x, y) ∈ R2 .








fy′′2



 ≤0

Remarque 13.

1. La somme de fonctions convexes (resp. concaves) sur R2 est convexe (resp. concave) R2 .
2. Si f (x, y) = g(x) + h(y) avec g et h convexes (resp. concaves) sur R, alors f est convexe (resp. concave)
COURS

sur R2 .

V Optimisation

V.1 Généralité

V.1.1 Optimisation d’une fonction (Extremums libres)

Théorème 14.

Soit f : R2 −→ R2 une fonction de classe C 1 au voisinage de (x0 , y0 ) ∈ R2 .


Si f admet un extremum en (x0 , y0 ), on a nécessairement

fx′ (x0 , y0 ) = 0 et fy′ (x0 , y0 ) = 0. (*)

ESSEC - Chap. 2 - -6- - M. Bellalah -


V.1 Généralité V OPTIMISATION

Un point vérifiant (*) est appelé point stationnaire ou critique pour f .

V.1.2 Optimisation sous contrainte (Extremums liés)

Soit f, g : R2 −→ R2 deux fonctions. On considère le problème d’optimisation suivant :






 Optimiser f (x, y)


(P )



 sous la contrainte g(x, y) = 0.

On cherche (x0 , y0 ) vérifiant g(x0 , y0 ) = 0 tel qu’on ait


• f (x, y) ≤ f (x0 , y0 ) pour un maximum,
• f (x, y) ≥ f (x0 , y0 ) pour un minimum,
pour tout (x, y) ∈ V (x0 , y0 ) vérifiant g(x, y) = 0. Pour résoudre le problème (P ), on introduit une nouvelle
CHAP :Fonctions de plusieurs variables

fonction appelée lagrangien associé à (P ) :

L(x, y, λ) = f (x, y) + λg(x, y).

Théorème 15.

Soit f, g : R2 −→ R2 deux fonctions de classe C 1 au voisinage de (x0 , y0 ) ∈ R2 .


Si (P ) admet une solution en (x0 , y0 ), en général, il existe λ0 ∈ R tel que



L′x (x0 , y0 , λ0 )

=0











L′y (x0 , y0 , λ0 ) =0


COURS





 ′
 Lλ (x0 , y0 , λ0 ) =0

La variable λ0 est appelée multiplicateur de Lagrange associé à (P ).

Méthode de substitution

Lorsque la contrainte g(x, y) = 0 permet d’exprimer y en fonction de x (y = y(x)), le problème d’optimisation


sous contrainte (P ) est équivalent au problème d’optimisation d’une fonction d’une variable :

Optimiser h(x) = f (x, y(x)).

ESSEC - Chap. 2 - -7- - M. Bellalah -


V.2 Optimisation sans contrainte V OPTIMISATION

V.2 Optimisation sans contrainte

V.2.1 Rappels

Soit f : R2 −→ R de classe C 1 . On cherche les extremums de f sur R2 . Les points critiques (ou candidats)
sont donnés par les conditions nécessaires d’optimalité (CNO) :



 ′
 fx (x, y) = 0,


∇f (x, y) = 0 ⇐⇒


 fy′ (x, y)

= 0.

Reste à étudier la nature de chaque point candidat.

V.2.2 Extremum local


CHAP :Fonctions de plusieurs variables

Théorème 16.

Soit f : R2 −→ R de classe C 2 au voisinage de (x0 , y0 ) ∈ R2 . On suppose que ∇f (x0 , y0 ) = 0. On note


detHf (x0 , y0 ) le hessien de f en ce point.
• Si detHf (x0 , y0 ) > 0 et fx′′2 (x0 , y0 ) > 0, alors f admet un minimum local en (x0 , y0 ).
• Si detHf (x0 , y0 ) > 0 et fx′′2 (x0 , y0 ) < 0, alors f admet un maximum local en (x0 , y0 ).
• Si detHf (x0 , y0 ) < 0, alors f n’admet pas d’extremum en (x0 , y0 ) (point col ou selle).
• Si detHf (x0 , y0 ) = 0, cette méthode ne permet pas de conclure. Il faut faire une étude directe.

V.2.3 Extremum global


COURS

Théorème 17 (Le cas convexe/concave).

Soit C ⊂ R2 convexe f : C −→ R de classe C 1 sur C.


• Si f est convexe sur C, f admet un minimum global en (x0 , y0 ) SSI ∇f (x0 , y0 ) = 0.
• Si f est concave sur C, f admet un maximum global en (x0 , y0 ) SSI ∇f (x0 , y0 ) = 0.

Exemple 3 Soit f : R2 −→ R définie par : f (x, y) = αx2 + βy 2 . Le point (0, 0) est un point critique de f .

f (x, y) = −x2 − y 2 f (x, y) = x2 + y 2 f (x, y) = x2 − y 2

0 4
2
5
0
−5
−2
2 2 2
0 −4
−2 0 −2 0 −2 0
−1 0 1
−1 0 1
−1 0 1
2 −2 y 2 −2 y 2 −2 y
x x x

Cas α = β = −1 < 0 Cas α = β = 1 > 0 Cas α = 1 > 0 et β = −1 < 0

l’origine est un maximum l’origine est un minimum pas d’extremum, l’origine est un point col.

ESSEC - Chap. 2 - -8- - M. Bellalah -


V.3 Optimisation sous contrainte V OPTIMISATION

V.3 Optimisation sous contrainte

V.3.1 Rappels

Les points candidats du problème d’optimisation :






 Optimiser f (x, y)


(P )



 sous la contrainte g(x, y) = 0,

sont donnés par les CNO 




L′x (x, y, λ)

=0









∇L(x, y, λ) = 0 ⇐⇒ L′y (x, y, λ) =0


CHAP :Fonctions de plusieurs variables







 ′
 Lλ (x, y, λ) =0

où L(x, y, λ) = f (x, y) + λg(x, y).

Définition 18.

Si f et g sont de classe C 2 , la matrice hessienne de L est


   
 ′′
L′′xy L′′xλ 
  ′′
 Lx2 L L′′xy gx′ 

   x2 
   
   
HL (x, y, λ) = L′′ =  ′′ .
   
 yx L′′y2 ′′
 Lyx
Lyλ  L′′y2 ′
gy 

   
   
   
COURS

 ′′
Lλx L′′λy ′′   ′
Lλ2 gx gy′ 0

Son hessien est : h i h i


detHL (x, y, λ) = gx′ gy′ L′′yx − gx′ L′′y2 − gy′ gy′ L′′x2 − gx′ L′′xy .

V.3.2 extremum local

Théorème 19.

Soit f, g : R2 −→ R de classe C 2 au voisinage de (x0 , y0 ) ∈ R2 . On suppose que (x0 , y0 ) est un poiont


candidat avec λ0 ∈ R.
• Si detHL (x0 , y0 , λ0 ) > 0, alors (P ) admet un maximum local en (x0 , y0 ).
• Si detHL (x0 , y0 , λ0 ) < 0, alors (P ) admet un minimum local en (x0 , y0 ).
• Si detHL (x0 , y0 , λ0 ) = 0, cette méthode ne permet pas de conclure. Il faut faire une étude directe.

ESSEC - Chap. 2 - -9- - M. Bellalah -


V.3 Optimisation sous contrainte V OPTIMISATION

V.3.3 Extremum global

Théorème 20 (Le cas convexe/concave).

Soit C ⊂ R2 convexe f, g : C −→ R de classe C 1 sur C. On suppose que g est affine : g(x, y) = ax + by + c.


• Si f est convexe sur C, (P ) admet un minimum global en (x0 , y0 ) SSI ∇L(x0 , y0 , λ0 ) = 0.
• Si f est concave sur C, (P ) admet un maximum global en (x0 , y0 ) SSI ∇L(x0 , y0 , λ0 ) = 0.
CHAP :Fonctions de plusieurs variables
COURS

ESSEC - Chap. 2 - -10- - M. Bellalah -

Vous aimerez peut-être aussi