Vous êtes sur la page 1sur 18

Chapitre 4 : Diagonalisation des Matrices Carres

IV.1. Présentation

Les valeurs propres d’une matrice carrée constituent la clef de l’étude de la stabilité
d’une évolution linéaire et celle des extrema d’une fonction. 1

Les valeurs propres ainsi que les vecteurs propres jouent également un rôle important
dans de nombreux aspects de la théorie économique puisqu’ils constituent les
éléments des solutions explicites des modèles linéaires dynamiques. Les signes des
valeurs propres déterminent également la stabilité de l’équilibre dans les modèles
dynamiques non linéaires. Ces signes sont également l’élément clé pour déterminer
la nature d’une matrice symétrique.

Soit un espace vectoriel E de dimension n sur 𝐼𝐾 = ℝ𝑜𝑢 ℂ et soit f une application


linéaire de E dans E. On cherche à associer à f la matrice la plus simple possible :
la matrice diagonale. Pour cela, on cherche à déterminer une base de E formée de n
vecteurs 𝑥 , … , 𝑥 tels que 𝑓(𝑥 ) = 𝜆 𝑥 , où 𝜆 ∈ 𝐼𝐾. La matrice de f par rapport à
une telle base est alors dite diagonale.

IV.2. Exemple introductif

On considère l’évolution séquentielle dans ℝ définie par les deux équations


linéaires suivantes : (1) 𝑥 = 𝑥 + 2𝑦 et 𝑦 = 2𝑥 + 𝑦 , 𝑡𝜖ℕ.
La transformation 𝑥 ′ = 𝑥 + 𝑦 et 𝑦 ′ = 𝑥 − 𝑦 conduit au système
équivalent :

1
Les valeurs propres et les vecteurs propres jouent un rôle important dans de nombreux aspects de la théorie
économique puisqu’ils constituent les éléments des solutions explicites des modèles linéaires dynamiques. En outre,
les signes de valeurs propres déterminent la stabilité de l’équilibre dans le modèle dynamique non linéaire. Ces signes
sont également l’élément clés pour déterminer la nature d’une matrice symétrique.
𝑥′ =𝑥 + 2𝑦 = (𝑥 + 2𝑦 ) + (2𝑥 + 𝑦 ) = 3𝑥 + 3𝑦 = 3𝑥 ′
(2)
𝑦′ =𝑥 − 𝑦 + 2𝑦 = (𝑥 + 2𝑦 ) − (2𝑥 + 𝑦 ) = −𝑥 + 𝑦 = −𝑦 ′

C’est un système de deux équations indépendantes que l’on sait résoudre. Le passage
du système (1) qui s’écrit sous forme matricielle 𝑋 = 𝐴𝑋 au système (2) 𝑋 ′ =
𝐴′𝑋′ correspond à un changement de base dans ℝ .

Le problème ainsi posé de manière générale est celui d’un est celui d’un
changement de base transformant une matrice donnée en une matrice plus simple
qui définit des équations d’évolution que l’on sait résoudre.

Une autre manière d’aborder le problème est de remarquer que la solution de

X = AX est X = A X . Et le problème devient celui du calcul des puissances


d’une matrice. C’est la même méthode qui permet de calculer les puissances d’une
matrice et de résoudre les problèmes d’évolution linéaires, qu’ils soient séquentiels
(systèmes récurrents) ou en temps continu systèmes différentiels).

IV.3. Rappels : Matrice d’un endomorphisme : changement de base

On considère :

 Un corps IK (ce sera en pratique ℝ 𝑜𝑢 ℕ)


 Un espace vectoriel E sur K de dimension n (par exemple Kn)
Soit B = (V1, V2,…,Vn) une base de E (la base canonique par exemple) et un
endomorphisme f de E, c'est-à-dire une application linéaire de E dans E.
Dans la base B (V1,…,Vn), la matrice associée 𝐴(𝑎 ) à f est définie par les
coordonnées des images 𝑓 𝑣 , 1 ≤ 𝑗 ≤ 𝑛, dans cette

2
(3) 𝑓 𝑉 = 𝑎 𝑉 + 𝑎 𝑉 + ⋯ + 𝑎 𝑉 + ⋯ + 𝑎 𝑉 1 ≤ 𝑗 ≤ 𝑛
𝑎 𝑎 … 𝑎 … 𝑎
𝑎 𝑎 … 𝑎 … 𝑎
⎛ ⎞

(4) 𝐴=⎜
⎜𝑎 𝑎 … 𝑎 …

𝑎 ⎟
⎜ ⎟

⎝𝑎 𝑎 … 𝑎 … 𝑎 ⎠

Si X désigne une matrice colonne composée des coordonnées d’un vecteur


quelconque 𝑣 dans la base B, les coordonnées Y de 𝑓(𝑣)) dans la base B sont données
par Y = AX. On considère une seconde base 𝐵 = (𝑉 , … , 𝑉 ) de E définie par
l’expression𝑉 , 1 ≤ 𝑘 ≤ 𝑛 dans la base V1, V2,…,Vn.

(5) 𝑉 = 𝛼 𝑉 + 𝛼 𝑉 + ⋯ + 𝛼 𝑉 , 1≤𝑘≤𝑛

Définition : La matrice

𝛼 𝛼 … 𝛼 ⋯ 𝛼
𝛼 𝛼 … 𝛼 ⋯ 𝛼
⎛ ⋮ ⎞
(6) 𝑃 = ⎜ 𝛼 𝛼 ⋯ 𝛼 ⎟
⎜ 𝛼 ⋯ ⎟
⋮ ⋮ ⋮ ⋮ ⋱ ⋮
⎝𝛼 𝛼 ⋯ 𝛼 ⋯ 𝛼 ⎠
(6)

est appelée matrice de changement de base et plus précisément matrice de passage


de la base B à la base B’’.

Lemme : Si X et X’’ désignent respectivement les matrices colonnes des


coordonnées d’un vecteur V de E dans les bases B et B’, on a alors les relations
suivantes :

(7) X = PX’ et X’ = P-1X

3
Théorème : P étant la matrice de passage d’une base B à une base B’, les matrices
A et A’ associées respectivement dans ces bases à un endomorphisme f de E
vérifient :

(8) A’ = P-1AP et A = PA’P-1

Remarque : On dit que deux matrices carrées d’ordre n à éléments dans K, A et A’


sont semblables si elles correspondent au même endomorphisme de Kn dans des
bases qui peuvent être différentes. D’après le théorème, il est équivalent de dire qu’il
existe une matrice inversible P telle que A et A’ vérifient la relation (8).

IV.4. Valeurs propres et vecteurs propres d’un endomorphisme

IV.4.1. Définitions

Un endomorphisme f de E est diagonalisable s’il existe une base de E dans laquelle


la matrice A’ associée à f est une matrice diagonale.

𝜆 ⋯ 0
𝐴 = ⋮ ⋱ ⋮
0 ⋯ 𝜆

Une telle base 𝐵 = (𝑉 , … , 𝑉 ) est caractérisée par les conditions :𝑓(𝑉 ) = 𝜆 𝑉 ,


pour 1 ≤ 𝑘 ≤ 𝑛

Un vecteur 𝑉 de E est un vecteur propre de f si son image f(V) est colinéaire à V,


c'est-à-dire s’il existe un 𝜆 ∈ 𝐾 tel que 𝑓(𝑉) = 𝜆𝑉.

4
Un scalaire 𝜆 ∈ 𝐾 est une valeur propre de f s’il existe un vecteur non nul V de E
dont l’image f(V) est égal à 𝜆𝑉. On dit alors que V est un vecteur propre de f associé
à la valeur 𝜆2

Théorème : Si K est un corps commutatif alors :

a. à tout vecteur propre 𝑉 ≠ 0 correspond une valeur propre unique 𝜆 appelée


valeur propre associée à 𝑉
b. à toute valeur propre λ de f correspond un sous espace V(λ) appelé sous espace
propre associé à λ. Il est décrit par les vecteurs V de E vérifiant f(V) = λV.
V(λ) est distinct de {0}) et est stable par f . Si V est un vecteur de V(λ) , f(V)
l’est aussi.

Les propriétés suivantes résultent des définitions.

IV.4.2. Propriétés

Théorème : Pour 𝜆 ∈ 𝐾, les propriétés suivantes sont équivalentes :

(i) 𝜆 est une valeur propre de f ;


(ii) (𝑓 − 𝜆. 𝑖𝑑) n’est pas inversible ;

Théorème : Les sous espaces propres associés à deux valeurs propres distinctes 𝜆1
et 𝜆2 n’ont en commun que le vecteur nul;

Théorème : Si f admet m valeurs propres distinctes deux à deux 𝜆 , … , 𝜆 alors si


pour tout i Vi est un vecteur propre associée à 𝜆 , alors la famille de vecteurs (V1,
…,Vn) est libre.

2
En d’autres termes, f étant un endomorphisme d’un espace vectoriel E sur K=IR ou C, on appelle vecteur propre de
f tout vecteur V#0 tel qu’il existe un élément 𝜆𝜖𝐾 avec 𝑓(𝑉) = 𝜆. 𝑉. On appelle vecteur propre tout élément 𝜆 tel
qu’il existe V satisfaisant 𝑓(𝑉) = 𝜆. 𝑉

5
Corollaire 1: Si E est de dimension n, tout endomorphisme a au plus n valeurs
propres distinctes deux à deux.

Corollaire 2: Si 𝜆 , 𝜆 , … , 𝜆 ont des valeurs propres distinctes deux à deux, et


si 𝑉 = 𝑉(𝜆 ) + ⋯ + 𝑉(𝜆 ) alors

𝑑𝑖𝑚𝑉 = 𝑑𝑖𝑚𝑉(𝜆 ) + 𝑑𝑖𝑚𝑉(𝜆 ) + ⋯ + 𝑑𝑖𝑚𝑉(𝜆 )

IV.5. Polynôme caractéristique d’un endomorphisme

Soit f un endomorphisme d’un espace vectoriel E de dimension n sur 𝐼𝐾 = ℝ𝑜𝑢 ℂ.

IV.5.1. Théorème

Si A est la matrice de l’endomorphisme f dans une certaine base alors pour tout 𝜆 ∈
𝐾 les propriétés suivantes sont équivalentes :

(i) 𝜆 est une valeur propre de A ;


(ii) 𝐴 − 𝜆𝐼 n’est pas une matrice inversible (𝐼 est une matrice identité en
dimension n) diagonalisable ;
(iii) det(𝐴 − 𝜆𝐼 ) = 0

Théorème : Les valeurs propres de f et de la matrice A associée à f sont les racines


du polynôme :

(9) 𝑃 (𝜆) = det (𝐴 − 𝜆𝐼) et le polynôme caractéristique est donné par :

IV.5.1. Définition : Le polynôme 𝐴 − 𝜆𝐼 est donnée par :

𝑎 −𝜆 𝑎 ⋯ 𝑎
𝑎 𝑎 −𝜆 ⋯ 𝑎
(9) (𝐴 − 𝜆𝐼) =

𝑎 𝑎 … 𝑎 −𝜆

6
Si le polynôme caractéristique𝑃 (𝜆) = det(𝐴 − 𝜆𝐼) défini sur K est appelé le
polynôme caractéristique de la matrice A (où de l’endomorphisme f). La somme des
élément de la diagonale principale de A est appelée trace de A (ou trace de f) et le
déterminant de A est appelé déterminant de f.

De manière générale, si le polynôme caractéristique 𝑃 (𝜆) de A admet n racines


distinctes ou non alors on aura,

(10) 𝑃 (𝜆) = (−1) 𝜆 + (−1) 𝑡𝑟(𝐴)𝜆 + ⋯ + det (𝐴)

avec 𝑡𝑟(𝐴) = ∑ 𝑎

(2)
Le produit des valeurs propres 𝜆 , … , 𝜆 est égal au déterminant de A. Les
propriétés sont toujours vérifiées lorsque 𝜆 est le corps ℂ des nombres complexes.

Complément du cours

(1) En d’autres termes, f étant un endomorphisme d’un espace vectoriel E sur


IK = ℝouℂ, on appelle vecteur propre de f tout vecteur V#0 tel qu’il existe un
élément λϵIK avec f(V) = λ. V. On appelle vecteur propre tout élément λ tel
qu’il existe V satisfaisant f(V) = λ. V
(2) Le problème de la recherche de valeurs et vecteurs propres de A se ramène
donc à celui de la détermination des racines de l’équation

𝑎 −𝜆 𝑎 ⋯ 𝑎
𝑎 𝑎 −𝜆 ⋯ 𝑎
𝑃 (𝜆) = det(𝐴 − 𝜆𝐼) = =0

𝑎 𝑎 … 𝑎 −𝜆

Equation de degré n en 𝜆 de la forme :

(−1) 𝜆 + 𝑎 𝜆 + ⋯+ 𝑎 𝜆 + 𝑎 = 0
7
Le terme (−1)𝜆 apparaît lors du développement du produit des éléments
diagonaux :

(𝑎 − 𝜆)(𝑎 − 𝜆)… (𝑎 − 𝜆), en prenant −𝜆 dans chaque facteur de ce produit).

Par exemple le polynôme caractéristique de la matrice

4 4
𝐴= est :
1 4

4−𝜆 4
𝑃 (𝜆) = det(𝐴 − 𝜆𝐼) = =0
1 4−𝜆

= (4 − 𝜆) − 4 = 0

(4 − 𝜆 − 2)(4 − 𝜆 + 2) = 0

→ 𝜆 = 2 𝑒𝑡 𝜆 = 6

(3) A partir de là, on peut énoncer les résultats simples suivants où toutes les
matrices envisagées sont carrées :
1. Une matrice et sa transposée ont les mêmes valeurs propres.

Ce résultat découle du fait que le déterminant d’une matrice est égal à celui de sa
transposée.

𝑃 (𝜆) = det(𝐴 − 𝜆𝐼) = det(𝐴 − 𝜆𝐼)′ = det(𝐴′ − 𝜆𝐼) = 𝑃 (𝜆)

𝐴 𝑒𝑡 𝐴′ Ayant le même polynôme caractéristique, elles ont les mêmes valeurs


propres.

2. Une matrice et son inverse si elles ont les mêmes vecteurs propres et de valeurs
propres inverses.

8
A est inversible, elle ne peut avoir 0 comme valeurs propre (la solution de AP=0 est
P=0). Le résultat découle de 𝐴𝑃 = 𝜆𝑃 → 𝐴 𝐴𝑃 = 𝜆𝐴 𝑃 → 𝑃 = 𝜆𝐴 𝑃

Théorème : si f est un endomorphisme de E, un espace vectoriel sur un corps


commutatif K, les valeurs propres de f et de la matrice A associée à f sont les racines
de son polynôme caractéristique. Il y en a n au plus.

Théorème : Si f est un endomorphisme de E, si son polynôme caractéristique admet


une racine multiple d’ordre k, on a alors la dimension de 1 ≤ dim (V(λ)) ≤ k.

IV.6. Diagonalisation des matrices

IV.6.1. Définition

On dit qu’un endomorphisme f est diagonalisable s’il existe une base de E telle que
la matrice associée à f relativement à cette base soit diagonale.

On dit qu’une matrice A est diagonalisable s’il existe une matrice P (matrice de
passage) telle que D = P-1AP soit diagonale. On parle encore de diagonalisation de
A ou encore A = PDP-1.

Théorème : un endomorphisme f de E est diagonalisable si et seulement s’il est


possible de trouver une base formée de n vecteurs propres de f.

Soit A une matrice de f exprimée dans une base B. Si 𝐵 = (v , … , v ) est une base
de vecteurs propres de, et si X1,…,Xn désignent les vecteurs colonnes des
coordonnées des vecteurs v , … , v dans la première base B, la matrice de passage P
est donnée par la juxtaposition des vecteurs colonnes

X1,…,Xn. P = (X1, …, Xn)

Théorème : un endomorphisme est diagonalisable si et seulement si :

9
(i) Le polynôme caractéristique P(λ) a ses n racines (distinctes ou confondues)
dans K : (Il existe m nombres λ , … , λ de K et m entiers strictement
positifs k , k , … , k tels que k + ⋯ + k = n et
(12) P(λ) = (λ − λ ) , … , (λ − λ ) , aϵK.
(ii) Pour chaque racine λ , on a dim (V( λ )) = ki

Condition suffisante de diagonalisation :

Théorème : si f est un endomorphisme de E avec dim (E) = n qui possède n valeurs


propres distinctes dans le corps K, alors f est diagonalisable.

Pour qu’une matrice soit diagonalisable, il faut et il suffit que toutes les racines de
son polynôme caractéristique soient des racines simples. Autrement dit, la matrice A
est diagonalisable dans ℝ (𝑜𝑢ℂ) si et seulement si 𝑃 (𝜆)admet n racines dans
ℝ (𝑜𝑢ℂ) distinctes ou confondues telles que la dimension du sous-espace propre
associée à chacune des valeurs propres 𝜆 soit égale à l’ordre de multiplicité de la
racine 𝜆 de PA. Dans le cas où le polynôme caractéristique admet des racines
multiples, la matrice peut être diagonalisable ou ne pas l’être.

IV.7. Méthode pratique de diagonalisation

Le théorème IV.3 est important car il permet de donner une méthode pratique de
diagonalisation des matrices à éléments réels. On procède comme suit :

1. On détermine les valeurs propres qui sont les racines du polynôme


caractéristique
𝑃 (𝜆) = det(𝐴 − 𝜆𝐼)
2. Pour chaque valeur propre 𝜆 d’ordre km, de 𝑃 (𝜆), on cherche à déterminer
km vecteurs propres linéairement indépendants et donc solutions de (𝐴 −
𝜆𝐼)𝑉 = 0.

10
Si ces tentatives aboutissent, les vecteurs ainsi déterminés constituent une base de
vecteurs propres. Si elles n’aboutissent pas, la matrice n’est pas diagonalisable.

Si certaines valeurs propres sont des nombres complexes, alors il faut faire l’étude
dans ℂ.

1 0
Exemples : La matrice 𝐴 = est évidemment diagonalisable et sa valeur
0 1
propre 1 est racine double de son polynôme caractéristique ( 𝜆 = 1) . Par contre, la
1 0
matrice n’est pas diagonalisable. La valeur propre 𝜆 est racine double du
0 1
polynôme caractéristique ( 𝜆 = 1) et le sous-espace propre 𝐹(1) = {(𝑥, 𝑦) ∈
ℝ /𝑦 = 0} est de dimension 1 ; il n’y a donc pas de base de ℝ composée de
vecteurs propres.

IV.8. Calcul des puissances d’une matrice diagonale

La puissance k-ième d’une matrice diagonale se calcule aisément. Elle résulte de la


définition du produit des matrices tel que :

𝜆 0 ⋯ 0 𝜆 0 ⋯ 0 𝜆 0 ⋯ 0
0 𝜆 ⋯ 0 ⎛0 𝜆 ⋯ 0⎞=⎛ 0 𝜆 ⋯ 0 ⎞
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮
0 0 ⋯ 𝜆 ⎝0 0 ⋯ 𝜆 ⎠ ⎝ 0 0 ⋯ 𝜆 ⎠

Donc, par récurrence, la puissance kième d’une matrice diagonale 𝐴 est égale à la
matrice diagonale dont les termes sont les puissances kième de ceux de la matrice 𝐴 .

Si une matrice A est diagonalisable, il existe une base de vecteurs propres et par le
changement de base correspondant (matrice P), on obtient une matrice
diagonale 𝐴 = 𝑃 𝐴𝑃. On a donc :

𝐴 = 𝑃𝐴 𝑃

11
𝐴 = (𝑃𝐴 𝑃 )(𝑃𝐴 𝑃 ) = 𝑃𝐴 (𝑃 𝑃)𝐴 𝑃 = 𝑃𝐴 𝑃
Supposons alors 𝐴 = 𝑃𝐴 𝑃 alors :
𝐴 = 𝐴 𝐴 = (𝑃𝐴 𝑃 )(𝑃𝐴 𝑃 ) = 𝑃𝐴 ( )
𝑃
Ainsi, par récurrence, on obtient pour tout entier 𝑘 ≥ 1 :

(13) 𝐴 = 𝑃𝐴 𝑃

Cette relation permet de calculer la puissance kième de A.

IV.9. Systèmes d’équations de récurrence linéaire

Pour résoudre un système récurrent linéaire qui représente une évolution séquentielle
dans ℝ , on transforme ce système en un système équivalent plus simple à l’aide des
transformations matricielles : diagonalisation, forme réduite des matrices. On est
ramené par transformation, à résoudre des équations récurrentes linéaires d’ordre un.

Soit un système linéaire équations récurrentes avec second membre :

𝑥 , =𝑎 𝑥 , +𝑎 𝑥 , + ⋯+ 𝑎 𝑥 , 𝑏
(14) ⋮
𝑥 , =𝑎 𝑥 , +𝑎 𝑥 , + ⋯+ 𝑎 𝑥 , 𝑏

(t entier positif)Il peut s’écrire sous la forme matricielle :

Ce système défini les suites de manière unique dès que les conditions
initiales𝑥 , ; 𝑥 , ; … ; 𝑥 , sont données.

𝑋 = 𝐴𝑋 + 𝐵 𝑡∈ℕ

Où A est la matrice des coefficients 𝑎 1 ≤ 𝑖 ≤ 𝑛, 1 ≤ 𝑗 ≤ 𝑛

𝑋 est la matrice colonne de termes : 𝑋 , … , 𝑋 𝐵 est la matrice colonne de termes :


𝑏 ,…,𝑏 .
12
Les appellations usuelles « avec second membre » et sans « second membre » se
réfèrent aux expressions : 𝑋 − 𝐴𝑋 = 𝐵 𝑒𝑡𝑋 − 𝐴𝑋 = 0 respectivement.

Remarque : Le problème est de résoudre le système dans le cas de coefficients


réels. Toutefois, cette résolution peut faire appel aux nombres complexes et on est
amené à calculer les solutions complexes du système. De manière générale, on
considère les cas où les coefficients appartiennent à un corps K et on étudie les
solutions qui sont des suites 𝑋 de vecteurs K.

Un système récurrent linéaire dans 𝐾 : 𝑋 = 𝐴𝑋 + 𝐵 𝑡 ∈ ℕ admet une solution


et une seule (𝑋 ) de premier terme 𝑋 (les données initiales).

Si 𝑍 est une solution particulière, la solution générale est :

(15) 𝑋 = 𝑍 + (𝑋 − 𝑍 )

Ce système est équivalent au système transformé 𝑌 =𝐴 + 𝐶 où 𝐴 =


𝑃 𝐴𝑃 𝑒𝑡 𝐶 = 𝑃 𝐵 . Les solutions se correspondent par : 𝑌 = 𝑃 𝑋 𝑒𝑡 𝑋 =
𝑃𝑌

L’ensemble des solutions du système sans second membre 𝑋 = 𝐴𝑋 est un espace


vectoriel sur K de dimension n.

Si A est diagonalisable dans 𝐼𝐾 = ℝ𝑜𝑢 ℂ, il existe une base de vecteurs V1 ,…, Vn


et P étant la matrice de vecteurs V1 ,…, Vn , 𝐴 = 𝑃 𝐴𝑃 est la matrice diagonale
des valeurs propres colonnes leurs propre 𝜆 , … , 𝜆 de A. Le système transformé se
compose de n 2quations récurrentes linéaires d’ordre 1. 𝑌 =𝜆 𝑌 +𝐶 1≤
𝑖≤𝑛

Si A est diagonalisable, la solution générale du système sans second membre

13
𝑋 = 𝐴𝑋 𝑒𝑡 𝑋 = ∑ 𝜆 𝑉 𝑎𝑣𝑒𝑐 ∑ 𝛼𝑉 =𝑋 .

Les coefficients 𝛼 , … , 𝛼 sont définis par décomposition de 𝑋 sur la base de


vecteurs propres.

Remarque : En considérant 𝐵 = 0 𝑋 = 𝐴𝑋 𝑎𝑣𝑒𝑐 𝑋 𝑑𝑜𝑛𝑛é.

On en déduit par récurrence immédiatement que :

𝑋 =𝐴 𝑋 𝑝𝑜𝑢𝑟 𝑡𝜖ℕ

La résolution des n équations de récurrence se ramène donc au calcul des puissances


successives de A qui est grandement simplifiée lorsque la matrice A est
diagonalisable.

Ce résultat permet également de résoudre les équations de récurrence linéaire


homogène d’ordre n en observant que :

𝑢 −𝑎 𝑢 − ⋯ − 𝑎 𝑢 = 0 𝑝𝑜𝑢𝑟 𝑡𝜖ℕ

Cette équation peut encore s’écrire,

𝑢 =𝑎 𝑢 + ⋯+ 𝑎 𝑢

𝑢 =𝑢

𝑢 =𝑢

C’est-à-dire

𝑋 = 𝐴𝑋

14
𝑎 𝑎 𝑎

1 0 0
Où 𝑋 = ⋮ 𝐴= ⋮ ⋱ ⋮ 𝑒𝑡 𝑋 = ⋮

0 ⋯ 1 0

On est ramené à une équation de récurrence d’ordre 1 portant sur Xt et sa résolution


peut-être faite selon la méthode décrite ici si la matrice est diagonalisable.

On peut démontrer que le polynôme caractéristique de A est au signe près


« éventuellement » égal à l’équation caractéristique associée à l’équation de
récurrence d’ordre n initial. Les racines de cette équation sont les valeurs propres de
A. Leur puissance tième interviennent dans le calcul de Dt si A est diagonalisable.

Pour toute valeur propre non réelle 𝜆, on peut comparer les solutions complexes
𝜆 𝑉 𝑒𝑡 𝜆̅ 𝑉 et déterminer une base de l’espace des solutions composées des suites
réelles.

Si A n’est pas diagonalisable, on peut choisir une base de forme réduite ou une base
de JORDAN.

Exemple 𝑢 +𝑢 − 6𝑢 = 0

La forme matricielle est :

𝑋 = 𝐴𝑋 𝑜ù 𝑋 = 𝑝𝑎𝑟 𝑑é𝑓𝑖𝑛𝑖𝑡𝑖𝑜𝑛

−1 6
→𝐴=
1 0

La solution est 𝑋 = 𝐴 𝑋 𝑝𝑜𝑢𝑟 𝑛 ≥ 0

Le polynôme caractéristique de A est :

𝑃 (𝜆) = 𝜆(−1 − 𝜆) − 6 = 𝜆 + 𝜆 − 6 = (𝜆 − 2)(𝜆 + 3)


15
Les valeurs propres 𝜆 = 2 𝑒𝑡 𝜆 = −3 sont distinctes, la matrice A est donc
diagonalisable.

−3𝑥 + 6𝑦 = 0 𝑥 = 2𝑘
Pour 𝜆 = 2 → → → 𝑉 = (2,1)
𝑥 − 2𝑦 = 0 𝑦=𝑘

2𝑥 + 6𝑦 = 0 𝑥 = −3𝑘
Pour 𝜆 = −3 → → → 𝑉 = (−3,1)
𝑥 + 3𝑦 = 0 𝑦=𝑘

2 −3 2 0 1 3
Diagonalisation de A : 𝑃 =
1 1 0 3 −1 2

2 −3 2 0 1 3
𝐴 =
1 1 0 (−3) −1 2

2 − (−3) 3. 2 + 2(−3)
=
2 − (−3) 3.2 + 2(−3)

Et 𝑈 = ⟦𝑈 2 − (−3) + 𝑈 (3. 2 + 2(−3) )⟧

IV.10. Cas particuliers des matrices symétriques

Ce cas est évident parce que ces matrices sont toujours diagonalisables dans ℝ et que
leurs sous espaces propres sont diagonaux.

On dit qu’une matrice est symétrique si et seulement si 𝐴=𝐴


0 1 1
Exemple : 𝐴= 1 0 1 est symétrique.
1 1 0
IV.10.1. Produit scalaire euclidien et norme euclidienne dans ℝ

Etant donné 2 vecteurs de ℝ

𝑋 = (𝑥 , … , 𝑥 ) 𝑒𝑡 𝑦 = (𝑦 , … , 𝑦 )

 L’application de ℝ ∗ ℝ dans ℝ définie par :

16
〈𝑥, 𝑦〉 = ∑ 𝑥 𝑦 est appelé produit scalaire euclidien de x et y.

 L’application de ℝ dans ℝ définie par

‖𝑥‖ = 〈𝑥, 𝑦〉 = ∑ 𝑥 est appelée norme euclidien de x

 𝑥 𝑒𝑡𝑦 sont dits orthogonaux si 〈𝑥, 𝑦〉 = 0


 Notation matricielle : Si on note X la colonne des coordonnées de 𝑥𝜖ℝ dans
la base canonique, on peut écrire matriciellement :

𝑋 𝑜𝑟𝑡ℎ𝑜𝑔𝑜𝑛𝑎𝑙 à 𝑌 ↔ 𝑋𝑌 = 0

‖𝑥‖ = 𝑋𝑋

IV.10.2. Diagonalisation des matrices symétriques

Si A est une matrice à coefficients réels alors :

Théorème :

(i) Toutes les valeurs propres sont réelles


(ii) Deux espaces propres associés à des valeurs propres distinctes sont
orthogonaux

Si A est symétrique, et on a 2 valeurs propres :

𝜆 𝑒𝑡 𝜆 𝑎𝑣𝑒𝑐 𝜆 ≠ 𝜆 𝑉 𝜖𝑉(𝜆 )𝑒𝑡 𝑉 𝜖𝑉(𝜆 )

𝑉 ⊥ 𝑉 (𝑉 𝑜𝑟𝑡ℎ𝑜𝑔𝑜𝑛𝑎𝑙 à 𝑉 ) ↔ 𝑉𝑉 = 𝑉𝑉 =0

IV.10.3. Théorème : Si A est une matrice symétrique

(i) A est une matrice diagonalisable dans ℝ

(ii) On peut toujours trouver une base orthonormée de vecteurs propres. Autrement
dit, il existe une matrice de passage orthogonale 𝑃 = 𝑃 qui est une base
orthonormée de vecteurs propres.

𝐷= 𝑃𝐴𝑃 𝐴 = 𝑃𝐷 𝑃 éléments de la D : 𝑤 = ‖ ‖

17
- Exemple :

1 −1 0
𝐴 = −1 1 0
2 −1 −1
2. Si on reprend le même exemple de tout à l’heure, on aurait donc
0 1 1
𝐴= 1 0 1
1 1 0

18

Vous aimerez peut-être aussi