IV.1. Présentation
Les valeurs propres d’une matrice carrée constituent la clef de l’étude de la stabilité
d’une évolution linéaire et celle des extrema d’une fonction. 1
Les valeurs propres ainsi que les vecteurs propres jouent également un rôle important
dans de nombreux aspects de la théorie économique puisqu’ils constituent les
éléments des solutions explicites des modèles linéaires dynamiques. Les signes des
valeurs propres déterminent également la stabilité de l’équilibre dans les modèles
dynamiques non linéaires. Ces signes sont également l’élément clé pour déterminer
la nature d’une matrice symétrique.
1
Les valeurs propres et les vecteurs propres jouent un rôle important dans de nombreux aspects de la théorie
économique puisqu’ils constituent les éléments des solutions explicites des modèles linéaires dynamiques. En outre,
les signes de valeurs propres déterminent la stabilité de l’équilibre dans le modèle dynamique non linéaire. Ces signes
sont également l’élément clés pour déterminer la nature d’une matrice symétrique.
𝑥′ =𝑥 + 2𝑦 = (𝑥 + 2𝑦 ) + (2𝑥 + 𝑦 ) = 3𝑥 + 3𝑦 = 3𝑥 ′
(2)
𝑦′ =𝑥 − 𝑦 + 2𝑦 = (𝑥 + 2𝑦 ) − (2𝑥 + 𝑦 ) = −𝑥 + 𝑦 = −𝑦 ′
C’est un système de deux équations indépendantes que l’on sait résoudre. Le passage
du système (1) qui s’écrit sous forme matricielle 𝑋 = 𝐴𝑋 au système (2) 𝑋 ′ =
𝐴′𝑋′ correspond à un changement de base dans ℝ .
Le problème ainsi posé de manière générale est celui d’un est celui d’un
changement de base transformant une matrice donnée en une matrice plus simple
qui définit des équations d’évolution que l’on sait résoudre.
On considère :
2
(3) 𝑓 𝑉 = 𝑎 𝑉 + 𝑎 𝑉 + ⋯ + 𝑎 𝑉 + ⋯ + 𝑎 𝑉 1 ≤ 𝑗 ≤ 𝑛
𝑎 𝑎 … 𝑎 … 𝑎
𝑎 𝑎 … 𝑎 … 𝑎
⎛ ⎞
⋮
(4) 𝐴=⎜
⎜𝑎 𝑎 … 𝑎 …
⎟
𝑎 ⎟
⎜ ⎟
⋮
⎝𝑎 𝑎 … 𝑎 … 𝑎 ⎠
(5) 𝑉 = 𝛼 𝑉 + 𝛼 𝑉 + ⋯ + 𝛼 𝑉 , 1≤𝑘≤𝑛
Définition : La matrice
𝛼 𝛼 … 𝛼 ⋯ 𝛼
𝛼 𝛼 … 𝛼 ⋯ 𝛼
⎛ ⋮ ⎞
(6) 𝑃 = ⎜ 𝛼 𝛼 ⋯ 𝛼 ⎟
⎜ 𝛼 ⋯ ⎟
⋮ ⋮ ⋮ ⋮ ⋱ ⋮
⎝𝛼 𝛼 ⋯ 𝛼 ⋯ 𝛼 ⎠
(6)
3
Théorème : P étant la matrice de passage d’une base B à une base B’, les matrices
A et A’ associées respectivement dans ces bases à un endomorphisme f de E
vérifient :
IV.4.1. Définitions
𝜆 ⋯ 0
𝐴 = ⋮ ⋱ ⋮
0 ⋯ 𝜆
4
Un scalaire 𝜆 ∈ 𝐾 est une valeur propre de f s’il existe un vecteur non nul V de E
dont l’image f(V) est égal à 𝜆𝑉. On dit alors que V est un vecteur propre de f associé
à la valeur 𝜆2
IV.4.2. Propriétés
Théorème : Les sous espaces propres associés à deux valeurs propres distinctes 𝜆1
et 𝜆2 n’ont en commun que le vecteur nul;
2
En d’autres termes, f étant un endomorphisme d’un espace vectoriel E sur K=IR ou C, on appelle vecteur propre de
f tout vecteur V#0 tel qu’il existe un élément 𝜆𝜖𝐾 avec 𝑓(𝑉) = 𝜆. 𝑉. On appelle vecteur propre tout élément 𝜆 tel
qu’il existe V satisfaisant 𝑓(𝑉) = 𝜆. 𝑉
5
Corollaire 1: Si E est de dimension n, tout endomorphisme a au plus n valeurs
propres distinctes deux à deux.
IV.5.1. Théorème
Si A est la matrice de l’endomorphisme f dans une certaine base alors pour tout 𝜆 ∈
𝐾 les propriétés suivantes sont équivalentes :
𝑎 −𝜆 𝑎 ⋯ 𝑎
𝑎 𝑎 −𝜆 ⋯ 𝑎
(9) (𝐴 − 𝜆𝐼) =
⋮
𝑎 𝑎 … 𝑎 −𝜆
6
Si le polynôme caractéristique𝑃 (𝜆) = det(𝐴 − 𝜆𝐼) défini sur K est appelé le
polynôme caractéristique de la matrice A (où de l’endomorphisme f). La somme des
élément de la diagonale principale de A est appelée trace de A (ou trace de f) et le
déterminant de A est appelé déterminant de f.
avec 𝑡𝑟(𝐴) = ∑ 𝑎
(2)
Le produit des valeurs propres 𝜆 , … , 𝜆 est égal au déterminant de A. Les
propriétés sont toujours vérifiées lorsque 𝜆 est le corps ℂ des nombres complexes.
Complément du cours
𝑎 −𝜆 𝑎 ⋯ 𝑎
𝑎 𝑎 −𝜆 ⋯ 𝑎
𝑃 (𝜆) = det(𝐴 − 𝜆𝐼) = =0
⋮
𝑎 𝑎 … 𝑎 −𝜆
(−1) 𝜆 + 𝑎 𝜆 + ⋯+ 𝑎 𝜆 + 𝑎 = 0
7
Le terme (−1)𝜆 apparaît lors du développement du produit des éléments
diagonaux :
4 4
𝐴= est :
1 4
4−𝜆 4
𝑃 (𝜆) = det(𝐴 − 𝜆𝐼) = =0
1 4−𝜆
= (4 − 𝜆) − 4 = 0
(4 − 𝜆 − 2)(4 − 𝜆 + 2) = 0
→ 𝜆 = 2 𝑒𝑡 𝜆 = 6
(3) A partir de là, on peut énoncer les résultats simples suivants où toutes les
matrices envisagées sont carrées :
1. Une matrice et sa transposée ont les mêmes valeurs propres.
Ce résultat découle du fait que le déterminant d’une matrice est égal à celui de sa
transposée.
2. Une matrice et son inverse si elles ont les mêmes vecteurs propres et de valeurs
propres inverses.
8
A est inversible, elle ne peut avoir 0 comme valeurs propre (la solution de AP=0 est
P=0). Le résultat découle de 𝐴𝑃 = 𝜆𝑃 → 𝐴 𝐴𝑃 = 𝜆𝐴 𝑃 → 𝑃 = 𝜆𝐴 𝑃
IV.6.1. Définition
On dit qu’un endomorphisme f est diagonalisable s’il existe une base de E telle que
la matrice associée à f relativement à cette base soit diagonale.
On dit qu’une matrice A est diagonalisable s’il existe une matrice P (matrice de
passage) telle que D = P-1AP soit diagonale. On parle encore de diagonalisation de
A ou encore A = PDP-1.
Soit A une matrice de f exprimée dans une base B. Si 𝐵 = (v , … , v ) est une base
de vecteurs propres de, et si X1,…,Xn désignent les vecteurs colonnes des
coordonnées des vecteurs v , … , v dans la première base B, la matrice de passage P
est donnée par la juxtaposition des vecteurs colonnes
9
(i) Le polynôme caractéristique P(λ) a ses n racines (distinctes ou confondues)
dans K : (Il existe m nombres λ , … , λ de K et m entiers strictement
positifs k , k , … , k tels que k + ⋯ + k = n et
(12) P(λ) = (λ − λ ) , … , (λ − λ ) , aϵK.
(ii) Pour chaque racine λ , on a dim (V( λ )) = ki
Pour qu’une matrice soit diagonalisable, il faut et il suffit que toutes les racines de
son polynôme caractéristique soient des racines simples. Autrement dit, la matrice A
est diagonalisable dans ℝ (𝑜𝑢ℂ) si et seulement si 𝑃 (𝜆)admet n racines dans
ℝ (𝑜𝑢ℂ) distinctes ou confondues telles que la dimension du sous-espace propre
associée à chacune des valeurs propres 𝜆 soit égale à l’ordre de multiplicité de la
racine 𝜆 de PA. Dans le cas où le polynôme caractéristique admet des racines
multiples, la matrice peut être diagonalisable ou ne pas l’être.
Le théorème IV.3 est important car il permet de donner une méthode pratique de
diagonalisation des matrices à éléments réels. On procède comme suit :
10
Si ces tentatives aboutissent, les vecteurs ainsi déterminés constituent une base de
vecteurs propres. Si elles n’aboutissent pas, la matrice n’est pas diagonalisable.
Si certaines valeurs propres sont des nombres complexes, alors il faut faire l’étude
dans ℂ.
1 0
Exemples : La matrice 𝐴 = est évidemment diagonalisable et sa valeur
0 1
propre 1 est racine double de son polynôme caractéristique ( 𝜆 = 1) . Par contre, la
1 0
matrice n’est pas diagonalisable. La valeur propre 𝜆 est racine double du
0 1
polynôme caractéristique ( 𝜆 = 1) et le sous-espace propre 𝐹(1) = {(𝑥, 𝑦) ∈
ℝ /𝑦 = 0} est de dimension 1 ; il n’y a donc pas de base de ℝ composée de
vecteurs propres.
𝜆 0 ⋯ 0 𝜆 0 ⋯ 0 𝜆 0 ⋯ 0
0 𝜆 ⋯ 0 ⎛0 𝜆 ⋯ 0⎞=⎛ 0 𝜆 ⋯ 0 ⎞
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮
0 0 ⋯ 𝜆 ⎝0 0 ⋯ 𝜆 ⎠ ⎝ 0 0 ⋯ 𝜆 ⎠
Donc, par récurrence, la puissance kième d’une matrice diagonale 𝐴 est égale à la
matrice diagonale dont les termes sont les puissances kième de ceux de la matrice 𝐴 .
Si une matrice A est diagonalisable, il existe une base de vecteurs propres et par le
changement de base correspondant (matrice P), on obtient une matrice
diagonale 𝐴 = 𝑃 𝐴𝑃. On a donc :
𝐴 = 𝑃𝐴 𝑃
11
𝐴 = (𝑃𝐴 𝑃 )(𝑃𝐴 𝑃 ) = 𝑃𝐴 (𝑃 𝑃)𝐴 𝑃 = 𝑃𝐴 𝑃
Supposons alors 𝐴 = 𝑃𝐴 𝑃 alors :
𝐴 = 𝐴 𝐴 = (𝑃𝐴 𝑃 )(𝑃𝐴 𝑃 ) = 𝑃𝐴 ( )
𝑃
Ainsi, par récurrence, on obtient pour tout entier 𝑘 ≥ 1 :
(13) 𝐴 = 𝑃𝐴 𝑃
Pour résoudre un système récurrent linéaire qui représente une évolution séquentielle
dans ℝ , on transforme ce système en un système équivalent plus simple à l’aide des
transformations matricielles : diagonalisation, forme réduite des matrices. On est
ramené par transformation, à résoudre des équations récurrentes linéaires d’ordre un.
𝑥 , =𝑎 𝑥 , +𝑎 𝑥 , + ⋯+ 𝑎 𝑥 , 𝑏
(14) ⋮
𝑥 , =𝑎 𝑥 , +𝑎 𝑥 , + ⋯+ 𝑎 𝑥 , 𝑏
Ce système défini les suites de manière unique dès que les conditions
initiales𝑥 , ; 𝑥 , ; … ; 𝑥 , sont données.
𝑋 = 𝐴𝑋 + 𝐵 𝑡∈ℕ
(15) 𝑋 = 𝑍 + (𝑋 − 𝑍 )
13
𝑋 = 𝐴𝑋 𝑒𝑡 𝑋 = ∑ 𝜆 𝑉 𝑎𝑣𝑒𝑐 ∑ 𝛼𝑉 =𝑋 .
𝑋 =𝐴 𝑋 𝑝𝑜𝑢𝑟 𝑡𝜖ℕ
𝑢 −𝑎 𝑢 − ⋯ − 𝑎 𝑢 = 0 𝑝𝑜𝑢𝑟 𝑡𝜖ℕ
𝑢 =𝑎 𝑢 + ⋯+ 𝑎 𝑢
𝑢 =𝑢
𝑢 =𝑢
C’est-à-dire
𝑋 = 𝐴𝑋
14
𝑎 𝑎 𝑎
⋯
1 0 0
Où 𝑋 = ⋮ 𝐴= ⋮ ⋱ ⋮ 𝑒𝑡 𝑋 = ⋮
0 ⋯ 1 0
Pour toute valeur propre non réelle 𝜆, on peut comparer les solutions complexes
𝜆 𝑉 𝑒𝑡 𝜆̅ 𝑉 et déterminer une base de l’espace des solutions composées des suites
réelles.
Si A n’est pas diagonalisable, on peut choisir une base de forme réduite ou une base
de JORDAN.
Exemple 𝑢 +𝑢 − 6𝑢 = 0
𝑋 = 𝐴𝑋 𝑜ù 𝑋 = 𝑝𝑎𝑟 𝑑é𝑓𝑖𝑛𝑖𝑡𝑖𝑜𝑛
−1 6
→𝐴=
1 0
−3𝑥 + 6𝑦 = 0 𝑥 = 2𝑘
Pour 𝜆 = 2 → → → 𝑉 = (2,1)
𝑥 − 2𝑦 = 0 𝑦=𝑘
2𝑥 + 6𝑦 = 0 𝑥 = −3𝑘
Pour 𝜆 = −3 → → → 𝑉 = (−3,1)
𝑥 + 3𝑦 = 0 𝑦=𝑘
2 −3 2 0 1 3
Diagonalisation de A : 𝑃 =
1 1 0 3 −1 2
2 −3 2 0 1 3
𝐴 =
1 1 0 (−3) −1 2
2 − (−3) 3. 2 + 2(−3)
=
2 − (−3) 3.2 + 2(−3)
Ce cas est évident parce que ces matrices sont toujours diagonalisables dans ℝ et que
leurs sous espaces propres sont diagonaux.
𝑋 = (𝑥 , … , 𝑥 ) 𝑒𝑡 𝑦 = (𝑦 , … , 𝑦 )
16
〈𝑥, 𝑦〉 = ∑ 𝑥 𝑦 est appelé produit scalaire euclidien de x et y.
𝑋 𝑜𝑟𝑡ℎ𝑜𝑔𝑜𝑛𝑎𝑙 à 𝑌 ↔ 𝑋𝑌 = 0
‖𝑥‖ = 𝑋𝑋
Théorème :
𝑉 ⊥ 𝑉 (𝑉 𝑜𝑟𝑡ℎ𝑜𝑔𝑜𝑛𝑎𝑙 à 𝑉 ) ↔ 𝑉𝑉 = 𝑉𝑉 =0
(ii) On peut toujours trouver une base orthonormée de vecteurs propres. Autrement
dit, il existe une matrice de passage orthogonale 𝑃 = 𝑃 qui est une base
orthonormée de vecteurs propres.
𝐷= 𝑃𝐴𝑃 𝐴 = 𝑃𝐷 𝑃 éléments de la D : 𝑤 = ‖ ‖
17
- Exemple :
1 −1 0
𝐴 = −1 1 0
2 −1 −1
2. Si on reprend le même exemple de tout à l’heure, on aurait donc
0 1 1
𝐴= 1 0 1
1 1 0
18