Vous êtes sur la page 1sur 65

Mathématiques 3

Chapitre 7 : Récurrences linéaires à plusieurs


variables

Erwann Aubry

Université de Nice - Sophia Antipolis

4 Mars 2020

1/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Objectifs

Dans ce chapitre, nous étudions les extrema de fonctions de


plusieurs variables à valeurs réelles. Après avoir rappelé que ces
extrema sont nécessairement atteints en des points critiques de la
fonction, nous énonçons les conditions nécessaires et les conditions
suffisantes vérifiées par la matrice Hessienne un extremum local.
Cette matrice est symétrique et ces conditions portent sur le signe
de ses valeurs propres. Il s’agit de la généralisation à un nombre
quelconque de variables des résultats vus pour les fonctions de 2
variables en L1.

2/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Rappels sur les fonctions d’une variable

Soit I une sous partie de R et f : I → R une fonction.


Définition
On dit que a ∈ I est un maximum global de f sur I si on a
f (x ) 6 f (a) pour tout x ∈ I.

Définition
On dit que a ∈ I est un maximum local de f sur I si il existe ε > 0
tel qu’on ait f (x ) 6 f (a) pour tout x ∈ I vérifiant |x − a| < ε.

3/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Rappels sur les fonctions d’une variable

Définition
On dit que a ∈ I est un maximum global de f sur I si on a
f (x ) 6 f (a) pour tout x ∈ I.

Exemple 1. On pose f1 : R → R définie par f1 (x ) = 3 − (x − 1)2 .


Cette fonction admet en a = 1 un maximum global. Comme le
montre son graphe.

3/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Rappels sur les fonctions d’une variable
Définition
On dit que a ∈ I est un maximum local de f sur I si il existe ε > 0
tel qu’on ait f (x ) 6 f (a) pour tout x ∈ I vérifiant |x − a| < ε.

Exemple 2. On pose f2 : R → R définie par f2 (x ) = (x 2 − 1)2 . Cette


fonction admet en a = 0 un maximum local (prendre par exemple
ε = 1 pour vérifier la définition). Comme le montre son graphe.

3/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Rappels sur les fonctions d’une variable

Notez qu’un maximum global est aussi un maximum local, mais


qu’un maximum local n’est pas toujours un maximum global.

3/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Rappels sur les fonctions d’une variable

Définition
On dit que a ∈ I est un minimum global de f sur I si on a
f (x ) > f (a) pour tout x ∈ I.

Définition
On dit que a ∈ I est un minimum local de f sur I si il existe ε > 0
tel qu’on ait f (x ) > f (a) pour tout x ∈ I vérifiant |x − a| < ε.

3/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Rappels sur les fonctions d’une variable

Définition
On dit que a ∈ I est un minimum global de f sur I si on a
f (x ) > f (a) pour tout x ∈ I.

Définition
On dit que a ∈ I est un minimum local de f sur I si il existe ε > 0
tel qu’on ait f (x ) > f (a) pour tout x ∈ I vérifiant |x − a| < ε.

Exemple 3. Pour tout x ∈ [0, 1], on pose f3 (x ) = x . Alors on a


f3 (x ) > f3 (0) pour tout x ∈ [0, 1] et donc 0 est un minimum de f3
sur I = [0, 1].

3/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Rappels sur les fonctions d’une variable

Définition
On dit que a ∈ I est un extremum (local) de f sur I si c’est un
maximum (local) ou un minimum (local) de f sur I.

3/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Rappels sur les fonctions d’une variable

Définition
On dit que a ∈ I est un extremum (local) de f sur I si c’est un
maximum (local) ou un minimum (local) de f sur I.

Définition
On dit que a ∈ I est un point critique de f si f est dérivable en a
et si f 0 (a) = 0.

3/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Rappels sur les fonctions d’une variable

Définition
On dit que a ∈ I est un extremum (local) de f sur I si c’est un
maximum (local) ou un minimum (local) de f sur I.

Définition
On dit que a ∈ I est un point critique de f si f est dérivable en a
et si f 0 (a) = 0.

Exemple 4. La fonction f1 (x ) = 3 − (x − 1)2 est dérivable en tout


point x de R et on a f10 (x ) = 2(x − 1). Donc 1 est un point
critique de f1 .

3/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Rappels sur les fonctions d’une variable

Définition
On dit que a ∈ I est un extremum (local) de f sur I si c’est un
maximum (local) ou un minimum (local) de f sur I.

Définition
On dit que a ∈ I est un point critique de f si f est dérivable en a
et si f 0 (a) = 0.

Théorème
On suppose que I est un intervalle ouvert. Si a est un maximum
(local) de f sur I et si f est dérivable en a, alors f 0 (a) = 0 (i.e. a
est un point critique de f ). Si de plus f est deux fois dérivable en
a, alors on a f 00 (a) 6 0.

3/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Rappels sur les fonctions d’une variable

Théorème
On suppose que I est un intervalle ouvert. Si a est un maximum
(local) de f sur I et si f est dérivable en a, alors f 0 (a) = 0 (i.e. a
est un point critique de f ). Si de plus f est deux fois dérivable en
a, alors on a f 00 (a) 6 0.

Théorème
On suppose que I est un intervalle ouvert. Si a est un minimum
(local) de f sur I et si f est dérivable en a, alors f 0 (a) = 0 (i.e. a
est un point critique de f ). Si de plus f est deux fois dérivable en
a, alors on a f 00 (a) > 0.

3/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Rappels sur les fonctions d’une variable

Dans ce théorème, il est important que I soit une partie ouverte de


R pour que le théorème s’applique. Par exemple, R est un ouvert
et donc 1 qui est un maximum de f1 sur R est aussi un point
critique de f1 . En revanche, [0, 1] n’est pas un ouvert et 0 qui est
un minimum de f3 sur [0, 1] n’est pas un point critique de f3 , bien
que f3 y soit dérivable.

3/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Rappels sur les fonctions d’une variable

Donc, pour les fonctions partout dérivables, les extrema sur un


ouvert sont nécessairement aussi des points critiques. En revanche,
le fait d’être un point critique d’une fonction n’est pas suffisant
pour être un extremum de cette fonction. Comme le montre la
fonction f4 (x ) = x 3 qui admet en x = 0 un point critique qui n’est
pas un extremum de f4 comme le montre son graphe.

3/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Rappels sur les fonctions d’une variable

Les théorèmes suivants fournissent une condition suffisante


d’existence d’un maximum ou d’un minimum local de f en un
point a.
Théorème
Si f est deux fois dérivable en a, si f 0 (a) = 0 et si f 00 (a) > 0, alors
a est un minimum local de f .

Théorème
Si f est deux fois dérivable en a, si f 0 (a) = 0 et si f 00 (a) < 0, alors
a est un maximum local de f .

3/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Rappels sur les fonctions d’une variable

La fonction f4 est C ∞ en 0 et vérifie f40 (0) = f400 (0) = 0. Pour


autant 0 n’est pas un extremum local de f4 en 0. Cela montre que
dans les théorèmes précédents, on a bien besoin d’une inégalité
stricte sur la dérivée seconde de f en a pour pouvoir conclure à
l’existence d’un extremum en a.

3/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Fonctions de plusieurs variables (rappels du L1)
dérivées partielles

Nous rappelons ici rapidement les notions nécessaires à l’étude des


fonctions de plusieurs variables et qui ont déjà étaient étudiées
dans le cours de math 1 (nous avons mis dans ce document des
liens vers les vidéos ou les polycopié du cours de Math1 en rapport
avec les notions utilisées dans ce cours pour vous aider à réviser
plus rapidement votre cours de L1).
Nota Bene : Dans ce chapitre nous adoptons les mêmes notations
qu’en L1, qui sont plus simples a manier pour les fonctions de
plusieurs variable.
Les vecteurs de Rn seront donc notés sous forme de vecteurs lignes
~x = (x1 , · · · , xn ).

4/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Fonctions de plusieurs variables (rappels du L1)
dérivées partielles

Définitions
~ = (x1 , · · · , xn ) un vecteur de Rn , on appelle norme de X
Soit X ~ le
qP
réel défini par kX~k= n
x 2.
i=1 i
Soit X~1 et X~2 deux vecteurs de Rn , on appelle distance entre X1 et
X2 le réel kX~1 − X~2 k.
Soit a un vecteur de Rn et r > 0. On appelle boule de centre a et
de rayon r l’ensemble B(a, r ) des vecteurs de Rn qui sont à une
distance strictement plus petite que r .

4/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Fonctions de plusieurs variables (rappels du L1)
dérivées partielles

Définitions
Une partie U de Rn est dite ouverte (ou appelée un ouvert) si pour
tout point a de U, il existe un ra > 0 tel que B(a, ra ) soit inclue
dans U.
Une partie U de Rn est dite fermée si son complémentaire Rn \ U
est un ouvert de Rn .
Une partie U de Rn est dite bornée s’il existe M > 0 tel qu’on ait
kx k 6 M pour tout élément x de U.

4/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Fonctions de plusieurs variables (rappels du L1)
dérivées partielles

Définitions
Soit U une partie de Rn et f : U → R une fonction.
Soit a un point de U. On dit que f est continue en a si "f (x ) est
proche de a lorsque x est proche de a". On dit que f est continue
sur U si f est continue en tout point de U.

4/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Fonctions de plusieurs variables (rappels du L1)
dérivées partielles

Définitions
Soit U une partie de Rn et f : U → R une fonction et
a = (a1 , · · · , an ) un point de Rn .
On dit que f admet une dérivée partielle par rapport à sa i-ème
variable en a si la fonction d’une seule variable
xi 7→ f (a1 , · · · , ai−1 , xi , ai+1 , · · · , an ) admet une dérivée en ai . On
∂f
note alors ∂x i
(a) cette dérivée partielle. C’est un réel. Notez que la
fonction à dériver est obtenue en gelant toutes les variables de f
sauf la i-ème.

4/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Fonctions de plusieurs variables (rappels du L1)
Point critique

Définition
Soit U une partie de Rn et f : U → R une fonction.
On dit que x est un point critique de f si les dérivées partielles de
f en x par rapport à toutes les variables s’annulent.

Exemple. Soit f (x , y , z) = x 2 − yz + z 2 − 2x + y − z + 3. Comme


f est un polynôme, f admet des dérivées partielles d’ordre 1 par
∂f
rapport à chacune de ses variables. On a ∂x (x , y , z) = 2x − 2,
∂f ∂f
∂y (x , y , z) = −z + 1 et ∂z (x , y , z) = −y + 2z − 1. Donc
a= (a1 , a2 , a3 ) est un point critique de f si et seulement si on a
∂f
 0 = ∂x (a1 , a2 , a3 ) = 2a1 − 2

∂f
0 = ∂y (a1 , a2 , a3 ) = −a3 + 1 et donc a = (1, 1, 1) est le
∂f


0 = ∂z (a1 , a2 , a3 ) = −a2 + 2a3 − 1
seul point critique de f .

5/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Fonctions de plusieurs variables (rappels du L1)
Point critique

Définition
Soit U une partie de Rn et f : U → R une fonction.
On dit que x est un point critique de f si les dérivées partielles de
f en x par rapport à toutes les variables s’annulent.

Théorème (déjà vu en L1)


Soit U une partie ouverte de Rn et f : U → R une fonction. Si f
admet un extremum local en x et si toutes les dérivées partielles de
f existent en x , alors x est un point critique de f .

Remarque : On a déjà vu dans les rappels sur les fonctions d’une


seule variable que l’hypothèse U ouverte est important et ne doit
pas être oubliée. On a vu aussi qu’un point critique n’est pas
toujours un extremum de la fonction.

5/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Fonctions de plusieurs variables (rappels du L1)
Matrice Hessienne

Définitions
Soit U un ouvert de Rn n a un point de U et f : U → R une
∂f
fonction. On suppose que la dérivée partielle ∂x i
de f par rapport à
∂f
sa i-ème variable existe en tout point de U et que ∂x i
admet elle
même une dérivée partielle par rapport à sa j-ème variable au point
2f
a. On note cette dérivée ∂x∂j ∂xi
(a) et on l’appelle la
dérivée partielle d’ordre 2 (ou seconde) de f par rapport à xj et xi
en a.

6/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Fonctions de plusieurs variables (rappels du L1)
Matrice Hessienne

Exemple. Soit f (x , y , z) = x 2 − yz + z 2 − 2x + y − z + 3. Comme


f est un polynôme, f admet des dérivées partielles d’ordre 2 par
rapport à chacune de ses variables. On rappelle que
∂f ∂f
∂x (x , y , z) = 2x − 2, ∂y (x , y , z) = −z + 1 et
∂f ∂2f
∂z (x , y , z) = −y + 2z − 1. Ce qui nous donne ∂x 2 (x , y , z) = 2,
∂2f ∂2f ∂2f
∂y ∂x (x , y , z) = 0, ∂z∂x (x , y , z) = 0 ∂x ∂y (x , y , z) = 0,
∂2f ∂2f ∂2f
∂y 2
(x , y , z) = 0, ∂z∂y (x , y , z) = −1 et ∂x ∂z (x , y , z) = 0,
∂2f ∂2f
∂y ∂z (x , y , z) = −1 et ∂z 2 (x , y , z) = 2.

6/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Fonctions de plusieurs variables (rappels du L1)
Matrice Hessienne

Définition
Soit U un ouvert de Rn , f : U → R une fonction et a ∈ U un point.
La matrice Hessienne de f en a est la matrice de taille n × n dont
le coefficient sur la i-ème ligne et la j-ème colonne est la dérivée
seconde de f par rapport aux variables xi et xj évaluée au point a.

6/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Fonctions de plusieurs variables (rappels du L1)
Matrice Hessienne

Définition
Soit U un ouvert de Rn , f : U → R une fonction et a ∈ U un point.
La matrice Hessienne de f en a est la matrice de taille n × n dont
le coefficient sur la i-ème ligne et la j-ème colonne est la dérivée
seconde de f par rapport aux variables xi et xj évaluée au point a.

Exemple : La matrice Hessienne de


f (x , y , z) = x 2 − yz + 2
z − 2x + y− z + 3 en tout point (x , y , z)
2 0 0
de R3 est la matrice 0 0 −1. On remarque que la matrice
 
0 −1 2
Hessienne de cette fonction est une matrice symétrique. C’est un
fait général découlant du théorème de Schwarz.

6/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Fonctions de plusieurs variables (rappels du L1)
Matrice Hessienne

Définition
Soit U un ouvert de Rn , f : U → R une fonction et a ∈ U un point.
La matrice Hessienne de f en a est la matrice de taille n × n dont
le coefficient sur la i-ème ligne et la j-ème colonne est la dérivée
seconde de f par rapport aux variables xi et xj évaluée au point a.

Théorème de Schwarz
Soit U un ouvert de Rn et f : U → R une fonction. Si les dérivées
2f
partielles d’ordre 2 associées aux même couple de variables ∂x∂i ∂xj
2 ∂2f ∂2f
et ∂x∂j ∂x
f
i
existent et sont continues sur U, alors on a ∂xi ∂xj = ∂xj ∂xi
sur U.

6/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Fonctions de plusieurs variables (rappels du L1)
Matrice Hessienne

Théorème de Schwarz
Soit U un ouvert de Rn et f : U → R une fonction. Si les dérivées
2f
partielles d’ordre 2 associées aux même couple de variables ∂x∂i ∂xj
2 ∂2f ∂2f
et ∂x∂j ∂x
f
i
existent et sont continues sur U, alors on a ∂xi ∂xj = ∂xj ∂xi
sur U.
Conséquence : la matrice Hessienne d’une fonction assez régulière
x est toujours une matrice symétrique.

6/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques
Rappelons un résultat déjà vu au chapitre précédent.
Théorème
Toute matrice symétrique réelle est diagonalisable.
!
a b
Exemple : Pour une matrice 2 × 2 symétrique A = , le
b d
polynôme caractéristique vaut PA (λ) = λ2 − (a + d)λ + ad − b 2 .
C’est un polynôme de degré 2 dont le discriminant vaut
(a + d)2 − 4ad + 4b 2 = a2 + 2ad + d 2 − 4ad + 4b 2 =
a2 − 2ad + d 2 + 4b 2 = (a − d)2 + 4b 2 . Le discriminant est donc
toujours positif. S’il est strictement positif alors la matrice a deux
valeurs propres distinctes et donc est diagonalisable. Si le
discriminant est nul, alors la matrice n’a qu’une valeur propre, mais
alors on a a − d = 0 et b = 0. On en déduit que la matrice est
diagonale et donc la base canonique de R2 fournit une base de
vecteur propre de notre matrice. La matrice est donc bien toujours
diagonalisable.
7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7
Diagonalisation des matrices symétriques

Nous allons raffiner ce résultat. Pour cela, nous avons besoin de


quelques définitions.
Définitions
Soit ~x = (x1 , · · · , xn ) et ~y = (y1 , · · · , yn ) des vecteurs de Rn . On
pose h~x , ~y i = x1 × y1 + x2 × y2 + · · · + xn × yn et on appelle ce réel
le produit scalaire des vecteurs ~x et ~y .
On dit que ~x et ~y sont orthogonaux si on a h~x , ~y i = 0.

7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques

Nous allons raffiner ce résultat. Pour cela, nous avons besoin de


quelques définitions.
Définitions
Soit ~x = (x1 , · · · , xn ) et ~y = (y1 , · · · , yn ) des vecteurs de Rn . On
pose h~x , ~y i = x1 × y1 + x2 × y2 + · · · + xn × yn et on appelle ce réel
le produit scalaire des vecteurs ~x et ~y .
On dit que ~x et ~y sont orthogonaux si on a h~x , ~y i = 0.

Propriété
Soit ~x et ~y des vecteurs de Rn , on a h~x , ~y ip= ~x × t ~y .
De plus, pour tout vecteur ~x , on a k~x k = h~x , ~x i.

7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques

Propriété
Soit ~x et ~y des vecteurs de Rn , on a h~x , ~y ip= ~x × t ~y .
De plus, pour tout vecteur ~x , on a k~x k = h~x , ~x i.
2 2
q On a h~x , ~x i = x1 + · · · + xn et donc
Démonstration.
x12 + · · · + xn2 = k~x k.
p
h~x , ~x i =
y1
 
t  .. 
~x × ~y = (x1 · · · xn ) ×  .  = x1 y1 + · · · + xn yn = h~x , ~y i.
yn

7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques

Définition
Une famille (x~1 , · · · , x~k ) de vecteurs de Rn est dite orthogonale si
on a h~xi , x~j i = 0 pour tout couple d’indices i 6= j (autrement dit si
les vecteurs de la famille sont orthogonaux deux à deux).
La famille est dite orthonormée si elle est orthogonale et si de plus,
on a k~xi k = 1 pour tout i (autrement dit si les vecteurs de la
famille sont orthogonaux deux à deux et de norme 1).

7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques

Définition
Une famille (x~1 , · · · , x~k ) de vecteurs de Rn est dite orthogonale si
on a h~xi , x~j i = 0 pour tout couple d’indices i 6= j (autrement dit si
les vecteurs de la famille sont orthogonaux deux à deux).
La famille est dite orthonormée si elle est orthogonale et si de plus,
on a k~xi k = 1 pour tout i (autrement dit si les vecteurs de la
famille sont orthogonaux deux à deux et de norme 1).

Exemples. La base canonique de Rn est une famille


√ √ orthonormée.
La base de R2 constituée des vecteurs x~1 = ( 22 , 22 ) et
√ √
x~2 = ( 22 , − 22 ) est une base orthonormée.

7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques

Proposition
Soit (x~1 , · · · , x~n ) une famille de vecteurs de Rn et P la matrice
associée. Alors la famille est orthonormée si et seulement si la
matrice P vérifie l’équation t P × P = In .

7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques

Proposition
Soit (x~1 , · · · , x~n ) une famille de vecteurs de Rn et P la matrice
associée. Alors la famille est orthonormée si et seulement si la
matrice P vérifie l’équation t P × P = In .
√ √ √ √
2 2 2 2
Exemple. La famille de vecteurs x~1 = ( 2 , 2√ ) et ~
x 2 = (− 2 , 2 )
√ !
2
−√ 22
a pour matrice P associée la matrice P = √22 2
. Et on a
√ √ ! √ √ ! 2 2 !
2 2 2
tP 2√ √2 √2
−√ 22 1 0
bien ×P = 2 2
× 2 2
= = I2 .
− 0 1
2 2 2 2

7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques

Proposition
Soit (x~1 , · · · , x~n ) une famille de vecteurs de Rn et P la matrice
associée. Alors la famille est orthonormée si et seulement si la
matrice P vérifie l’équation t P × P = In .

Définition
Une matrice P qui est carrée et vérifie la relation tP × P = In est
appelée une matrice orthogonale.

7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques

Définition
Une matrice P qui est carrée et vérifie la relation tP × P = In est
appelée une matrice orthogonale.

Proposition
Une famille orthonormée constituée de n vecteurs de Rn est
toujours une base de Rn .

7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques

Proposition
Une famille orthonormée constituée de n vecteurs de Rn est
toujours une base de Rn .

En effet, la matrice P associée à cette famille de vecteur est alors


une matrice orthogonale. On a donc
(det P)2 = det( t P) × det(P) = det( t P × P) = det(In ) = 1, et
donc det P 6= 0. On en déduit que la famille de vecteurs est bien
une base de Rn .

7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques

Nous pouvons maintenant énoncé une version renforcée du résultat


de diagonalisation des matrices symétriques.
Théorème
Soit A une matrice symétrique à coefficients réels. Alors il existe
une base orthonormée de Rn constituée de vecteurs propres de A.
Autrement dit, si A est une matrice symétrique, alors il existe une
matrice orthogonale P et d’une matrice diagonale D telles que
A = P × D × (t P).

7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques

Nous pouvons maintenant énoncé une version renforcée du résultat


de diagonalisation des matrices symétriques.
Théorème
Soit A une matrice symétrique à coefficients réels. Alors il existe
une base orthonormée de Rn constituée de vecteurs propres de A.
Autrement dit, si A est une matrice symétrique, alors il existe une
matrice orthogonale P et d’une matrice diagonale D telles que
A = P × D × (t P).

Remarque 1 : Ce théorème découle essentiellement du fait que


pour une matrice symétrique A, les vecteurs propres associés à des
valeurs propres distinctes sont toujours orthogonaux entre eux. Du
coup, la construction d’une famille orthonormée de vecteur propre
consiste à construire une base orthonormée de chaque espace
propre puis à les rassembler toutes en une base de Rn .

7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques

Nous pouvons maintenant énoncé une version renforcée du résultat


de diagonalisation des matrices symétriques.
Théorème
Soit A une matrice symétrique à coefficients réels. Alors il existe
une base orthonormée de Rn constituée de vecteurs propres de A.
Autrement dit, si A est une matrice symétrique, alors il existe une
matrice orthogonale P et d’une matrice diagonale D telles que
A = P × D × (t P).

Remarque 2 : Dans la version matricielle, la matrice P est la


matrice associée à la base orthonormée de vecteurs propres et D
est la matrice diagonale dont les valeurs diagonale sont les valeurs
propres de A dans le même ordre que les vecteurs propres dans la
matrice P. Comme la base est orthonormée, P est orthogonale et
donc P −1 = t P.

7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques

Méthode : dans la pratique, on sait déjà comment trouver une base


de chaque espace propre en résolvant le système d’équations
linéaires associé par la méthode du pivot de Gauss. Toutefois, la
base trouvée ainsi n’est pas une base orthonormée en général.

7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques

On obtient une base orthonormée de l’espace propre en appliquant


la procédure d’orthonormalisation de Schmidt décrite maintenant.
Étant donnée une base (v~1 , · · · , v~k ) d’un espace propre, on obtient
une base orthonormée (u~1 , · · · , u~k ) du même espace en appliquant
les étapes suivantes :

7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques

On obtient une base orthonormée de l’espace propre en appliquant


la procédure d’orthonormalisation de Schmidt décrite maintenant.
Étant donnée une base (v~1 , · · · , v~k ) d’un espace propre, on obtient
une base orthonormée (u~1 , · · · , u~k ) du même espace en appliquant
les étapes suivantes :
1
on pose u~1 = kv~1 k v~1 pour obtenir un vecteur de norme 1,

7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques

On obtient une base orthonormée de l’espace propre en appliquant


la procédure d’orthonormalisation de Schmidt décrite maintenant.
Étant donnée une base (v~1 , · · · , v~k ) d’un espace propre, on obtient
une base orthonormée (u~1 , · · · , u~k ) du même espace en appliquant
les étapes suivantes :
1
on pose u~1 = kv~1 k v~1 pour obtenir un vecteur de norme 1,
on pose w~2 = v~2 − hv~2 , u~1 iu~1 pour obtenir un vecteur
orthogonal à u~1 ,

7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques

On obtient une base orthonormée de l’espace propre en appliquant


la procédure d’orthonormalisation de Schmidt décrite maintenant.
Étant donnée une base (v~1 , · · · , v~k ) d’un espace propre, on obtient
une base orthonormée (u~1 , · · · , u~k ) du même espace en appliquant
les étapes suivantes :
1
on pose u~1 = kv~1 k v~1 pour obtenir un vecteur de norme 1,
on pose w~2 = v~2 − hv~2 , u~1 iu~1 pour obtenir un vecteur
orthogonal à u~1 ,
on pose u~2 = kw~12 k w~2 pour obtenir un vecteur de norme 1 qui
reste orthogonal à u~1 ,

7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques

On obtient une base orthonormée de l’espace propre en appliquant


la procédure d’orthonormalisation de Schmidt décrite maintenant.
Étant donnée une base (v~1 , · · · , v~k ) d’un espace propre, on obtient
une base orthonormée (u~1 , · · · , u~k ) du même espace en appliquant
les étapes suivantes :
1
on pose u~1 = kv~1 k v~1 pour obtenir un vecteur de norme 1,
on pose w~2 = v~2 − hv~2 , u~1 iu~1 pour obtenir un vecteur
orthogonal à u~1 ,
on pose u~2 = kw~12 k w~2 pour obtenir un vecteur de norme 1 qui
reste orthogonal à u~1 ,
on pose w~3 = v~3 − hv~3 , u~1 iu~1 − hv~3 , u~2 iu~2 pour obtenir un
vecteur orthogonal à u~1 et u~2 ,

7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques

On obtient une base orthonormée de l’espace propre en appliquant


la procédure d’orthonormalisation de Schmidt décrite maintenant.
Étant donnée une base (v~1 , · · · , v~k ) d’un espace propre, on obtient
une base orthonormée (u~1 , · · · , u~k ) du même espace en appliquant
les étapes suivantes :
1
on pose u~1 = kv~1 k v~1 pour obtenir un vecteur de norme 1,
on pose w~2 = v~2 − hv~2 , u~1 iu~1 pour obtenir un vecteur
orthogonal à u~1 ,
on pose u~2 = kw~12 k w~2 pour obtenir un vecteur de norme 1 qui
reste orthogonal à u~1 ,
on pose w~3 = v~3 − hv~3 , u~1 iu~1 − hv~3 , u~2 iu~2 pour obtenir un
vecteur orthogonal à u~1 et u~2 ,
on pose u~3 = kw~13 k w~3 pour obtenir un vecteur de norme 1 qui
reste orthogonal à u~1 et u~2 ,

7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques

On obtient une base orthonormée de l’espace propre en appliquant


la procédure d’orthonormalisation de Schmidt décrite maintenant.
Étant donnée une base (v~1 , · · · , v~k ) d’un espace propre, on obtient
une base orthonormée (u~1 , · · · , u~k ) du même espace en appliquant
les étapes suivantes :

On continue ainsi en construisant de proche en proche tous les


vecteurs de la famille (~ ui ) jusqu’à u~k . Pour construire u~i , on doit
déjà avoir construits tous les u~j pour j 6 i − 1. On pose alors
w~i = v~i − h~ vi , u~1 iu~1 − · · · − h~ ~ iui−1
vi , ui−1 ~ , puis on pose
1
u~i = kw~i k w
~i .

7/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques
Un exemple

 
1 2 −1
Exemple. Considérons la matrice A =  2 4 −2.
 
−1 −2 1
Calculons son polynôme caractéristique en développant par rapport
à la première
colonne
1 − λ 2 −1

PA (λ) = 2 4 − λ −2 =

−1 −2 1 − λ


4 − λ −2 2 −1 2 −1
(1 − λ) − 2 − =

−2 1 − λ −2 1 − λ 4 − λ −2

(1 − λ) (4 − λ)(1 − λ) − 4 − 2(2 − 2λ − 2) − (−4 + 4 − λ) =
(1 − λ)(λ2 − 5λ) + 5λ = −λ3 + 6λ2 = λ2 (6 − λ)
On en déduit que A admet pour valeur propre 0 et 6.

8/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques
Un exemple

L’espace propre associée


 à la valeur propre 6 est l’ensemble des

 x + 2y − z = 6x
solutions du système 2x + 4y − 2z = 6y ↔
 −x − 2y + z = 6z

 
 −5x + 2y − z = 0
  −x − 2y − 5z = 0

2x − 2y − 2z = 0 ↔ −5x + 2y − z = 0 ↔
 −x − 2y − 5z = 0
  2x − 2y − 2z = 0

 
 −x − 2y − 5z = 0
  −x − 2y − 5z = 0

−5x + 2y − z = 0 ↔ 12y + 24z = 0 ↔
−6y − 12z = 0 −6y − 12z = 0

 


 −x − 2y − 5z = 0
 (
x = −z
y + 2z = 0 ↔
 y = −2z
 0 = 0

8/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques
Un exemple

(
x = −z
↔ Ce qui donne
y = −2z
       
x −z −1 −1
EA (6) = {y  = −2z  = z −2 , z ∈ R}. v~1 = −2 est
       
z z 1 1
−1
 

v~1
 −26 
une base de EA (6) et u~1 = = √  est base orthonormée de
kv~1 k  6
√1
6
EA (6).

8/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques
Un exemple

L’espace propre associée à la valeur propre 0 est l’ensemble des


solutions
 du système 

 x + 2y − z = 0 
 x + 2y − z = 0
2x + 4y − 2z = 0 ↔ 2x + 4y − 2z = 0 ↔
 −x − 2y + z = 0
 
 0 = 0
(
x + 2y − z = 0 n
↔ x = −2y + z Ce qui donne
0 = 0
       
x −2y + z −2 1
EA (0) = {y  =  y = y 1 + z 0 , (y , z) ∈ R2 }.
       
  
z z 0 1
   
−2 1
Donc v~2 =  1 , v~3 = 0 est une base de EA (0).
   
0 1

8/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques
Un exemple
   
−2 1
Donc v~2 =  1 , v~3 = 0 est une base de EA (0) mais cette
   
0 1
 −2 

v~2  5
base n’est pas orthonormée. On pose u~2 = kv~2 k =  √15 , qui est
0
 
1
 52 
unitaire et w~3 = v~3 − hv~3 , u~2 iu~2 =  5 , qui est orthogonal à u~2 et
1
 
√1
w~3
 230 
u~3 = =  √ . Alors la famille (u~2 , u~3 ) est une base
kw~3 k  30 
√5
30
orthonormée de EA (0) et (u~1 , u~2 , u~3 ) est une base orthonormée de
R3 formée de vecteurs propres de A.

8/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Diagonalisation des matrices symétriques
Un exemple

−1 −2
 
√ √ √1
 −26 5 30 
Si on pose P = √ √1 √2 , alors P est orthogonale et on a
 6 5 30 
√1 0 √5
  6 30
6 0 0
A = P 0 0 0 (t P).
 
0 0 0

8/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Application à l’étude des extrema locaux

La diagonalisation des matrices symétriques à plusieurs


applications intéressantes. Par exemple, elle intervient de façon
centrale en Analyse par Composantes Principales (ACP) en
statistique. Dans ce cours, nous exposons seulement ses
applications au problèmes d’extremum.

9/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Application à l’étude des extrema locaux
Soit U un ouvert de Rn et f : U → R une fonction. On a vu qu’un
point critique de f n’est pas toujours un extremum de f . Pour
savoir ce qu’il en ait, on peut considérer les valeurs propres de la
matrice Hessienne de la fonction f .
Théorème
On suppose que toutes les dérivées partielles d’ordre 2 de f
existent et sont continues sur U.
Si x est un point critique de f , alors f (y ) − f (x ) est du signe de
(y − x ) × H × t (y − x ) où H est la hessienne de f en x .
Plus précisément,
si toutes les valeurs propres de H sont > 0, alors f admet un
minimum local en x ,
si toutes les valeurs propres de H sont < 0, alors f admet un
maximum local en x ,
si H admet au moins une valeur propre > 0 et au moins une
valeur propre < 0, alors x est un point selle (ou point col).
9/11 Erwann Aubry L2EG, Maths3 , Chapitre 7
Application à l’étude des extrema locaux

Nota bene. Tous ces résultats sont locaux. On ne peut déduire que
x est un extremum global des seuls signes des valeurs propres de la
Hessienne de f en x .
Dire que x est un point col signifie que le graphe de f traverse son
plan tangent en x au voisinage de x . Autrement dit f (y ) − f (x )
prend des valeurs > 0 et des valeurs < 0 dans toute boule centrée

en x .

9/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Déterminer le signe des valeurs propres d’une matrice
symétrique

Dans l’application aux problèmes d’extremum il est nécessaire de


trouver le signe des valeurs propres de la matrice Hessienne. Pour
cela, on peut calculer les valeurs propres, mais c’est long. Dans la
pratique, on peut appliquer les critères suivants qui sont plus
efficaces :
1) Dans le cas d’une fonction de deux variables, le déterminant de
la matrice Hessienne est le produit des valeurs propres et la trace
(somme des éléments diagonaux) de la matrice Hessienne est la
somme des valeurs propres. Du coup, si le déterminant de la
matrice Hessienne est > 0 alors les 2 valeurs ont le même signe
que la trace de la matrice Hessienne. Si le déterminant est < 0
alors la matrice a une valeur propre > 0 et une valeur propre < 0.

10/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Déterminer le signe des valeurs propres d’une matrice
symétrique
2) Dans le cas d’une fonction de trois variables ou plus, on calcul
le polynôme caractéristique PA de la matrice et on applique la
règle de Descartes à PA :
i) On ordonne le polynôme PA par ordre décroissant des puissances
de λ. Alors le nombre de valeurs propres strictement positives
(comptées avec multiplicité) de A est égal au nombre de
changements de signes entre deux coefficients non nuls consécutifs
de PA .
ii) pour déterminer le nombre de valeurs propres négatives, on a
applique i) à PA (−λ).
N.B. dire qu’on compte le nombre de valeurs propres avec
multiplicité revient a dire qu’une valeur propre donnée est
comptées un nombre fois égal à la dimension de son espace propre.
Une matrice diagonalisable de taille n × n a un nombre de valeur
propre compté avec multiplicité égal à n.
10/11 Erwann Aubry L2EG, Maths3 , Chapitre 7
Déterminer le signe des valeurs propres d’une matrice
symétrique

Exemples.
Si PA = −λ3 − λ2 + λ + 1, alors PA n’a qu’un seul changement de
signes des coefficients, entre le deuxième et le troisième terme. La
règle de Descartes affirme donc que A possède exactement une
valeur propre > 0. Comme PA (−λ) = λ3 − λ2 − λ + 1 a deux
changements de signes, A a deux valeurs propres < 0. Comme PA
est de degré 3, A est de taille 3 × 3 et donc a 3 valeurs propres
comptées avec multiplicités. A a donc 1 valeur propre > 0, 2
valeurs propres < 0 et donc pas de valeur propre nulle.
Si PA = −λ3 + 6λ2 , alors PA a une valeur propre > 0 et comme
PA (−λ) = λ3 + 6λ2 , PA n’a pas de valeur propre < 0. Enfin,
comme PA est de degré 3, 0 doit être une valeur propre double
(donc son espace propre doit être un plan).

10/11 Erwann Aubry L2EG, Maths3 , Chapitre 7


Exemple d’extremum de fonction

Voici un exemple de détermination de la nature des points critiques


d’une fonction Cliquez ici.

11/11 Erwann Aubry L2EG, Maths3 , Chapitre 7

Vous aimerez peut-être aussi