Vous êtes sur la page 1sur 8

Université de Versailles-Saint Quentin 2022-2023

Licence de mathématiques 2 ième année LSMA300 - Analyse et Algèbre linéaire 2

5 Diagonalisation de matrices carrées et d’endomorphismes


Introduction : exercice traité en amphi
Soit f : R2 → R2 l’application linéaire définie par
   
x 1 3x + 4y
f = .
y 5 4x − 3y

1) Écrire la matrice
  de f dans  la base
 canonique de R . On la notera A.
2

2 −1
2) Soit ~v1 = et ~v2 = deux vecteurs de IR2 . Calculer f (v1 ) et f (v2 ).
1 2
3) Montrer que la famille B = {~v1 , ~v2 } forme une base de R2 .
4) Quelle est la matrice de f dans la base {~v1 , ~v2 } ?
On a donc trouvé une base B de IR2 telle que la matrice de f dans cette base est diagonale.

L’application f étant un endomorphisme de E (espace de dimension finie), le but


de ce chapitre est de trouver, lorsque cela est possible, une base B de E telle que
la matrice de f dans cette base soit diagonale
K = R ou C.

5.1 Eléments propres d’endomorphismes


Définition 5.1. Soit f ∈ L(E) où E est un K-espace vectoriel.
• On dit que λ ∈ K est une valeur propre de f ⇔ ∃x ∈ E, tq. x 6= 0E et
f (x) = λx.
• On dit que x ∈ E est un vecteur propre de f ⇔ x 6= 0E et si f (x) et x
sont colinéaires , c’est-à-dire ∃λ ∈ K tq. f (x) = λx.
On dit alors que x est associé à la valeur propre λ.
• On pose Sp (f ) l’ensemble des valeurs propres de f , appelé spectre ponctuel de f .

Propriété 5.1. et définition


Soit λ ∈ Sp (f ) alors Eλ = Ker(f − λId ) est appelé sous-espace propre de f associé à λ. Eλ
est le sous-espace vectoriel de E constitué du vecteur nul et des vecteurs propres de f associés
à λ.

Preuve. • f et Id ∈ L(E) donc f −λId est un endomorphisme et le noyau d’un endomorphisme


est un s.e.v. de E.
• x ∈ Eλ ⇔ (f − λId )(x) = 0E ⇔ f (x) − λx = 0E ⇔ f (x) = λx ⇔ x = 0E ou (x 6= 0E
et x est un vecteur propre de f associé à λ).

Théorème 5.1. Soient f ∈ L(E) et λ1 , · · · , λp p valeurs propres distinctes de f . Soient


x1 , · · · , xp p vecteurs propres de f associés respectivement à λ1 , · · · , λp . Alors la famille {x1 , · · · , xp }
est une famille libre de E.

Preuve. Preuve à connaître - Preuve par récurrence sur p, faite en amphi.

Corollaire 5.1. Soient f ∈ L(E) et λ1 , · · · , λp p valeurs propres distinctes de f . Alors la


somme E1 ⊕ · · · ⊕ Ep est directe.

1
Preuve. Preuve à connaître, faite en amphi
Soient x1 ∈ Eλ1 , · · · , xp ∈ Eλp tels que (*) : x1 + · · · + xp = 0E . On souhaite montrer que tous
les xi sont nuls.
Supposons par l’absurde que le sous-ensemble {xi1 , · · · , xir } des vecteurs non nuls de {x1 , · · · , xp }
soit non vide, c’est-à-dire r ≥ 1, alors
(*) ⇒ 1 · xi1 + · · · + 1 · xir = 0E et xi1 , · · · , xir sont r vecteurs propres de f associés aux valeurs
propres distinctes λi1 , · · · , λip donc la famille {xi1 , · · · , xir } n’est pas libre (car 1 6= 0), ce qui
contredit le théorème 5.1.
Donc nécessairement tous les vecteurs x1 , · · · , xp sont nuls, d’où la somme E1 + · · · + Ep est
directe.

5.2 Polynôme caractéristique d’un endomorphisme en dimension finie


On suppose que f ∈ L(E) et que E est un K-espace vectoriel de dimension finie.

Théorème 5.2. λ ∈ Sp (f ) ⇔ f − λId n’est pas bijective ⇔ det(f − λId ) = 0.

Preuve.
λ ∈ Sp(f ) ⇔ ∃x ∈ E tq. x 6= 0E tq. f (x) = λx
⇔ ∃x ∈ E tq. x 6= 0E tq. f (x) − λx = 0E
⇔ ∃x ∈ E tq. x 6= 0E tq. (f − λId )(x) = 0E
⇔ ∃x ∈ E tq. x 6= 0E tq. x ∈ Ker(f − λId ) .
⇔ Ker(f − λId ) 6= {0E }
⇔ f − λId n’est pas injective
⇔ det(f − λId ) = 0

Théorème 5.3. et définition :


L’application, notée Pf : λ → det(f −λId ) est une application polynomiale, appelée polynôme
caractéristique de f .
Si B est une base de E et si A est la matrice de f relativement à la base B alors

Pf (λ) = det(A − λIn ).

De plus λ est une valeur propre de f ⇔ λ est racine de Pf .

Preuve. En amphi.

On obtient donc le résultat suivant :

Théorème 5.4. Expression de Pf : On suppose que dim(E) = n avec n ∈ IN⋆ .


Alors le polynôme caractéristique, Pf de f est de degré n et

Pf (λ) = (−1)n λn + (−1)n−1 tr(f )λn−1 + · · · + det(f )


n
X
où tr(f ) appelée trace de f = trace(A) = Aii tel que A est la matrice de f relativement à
i=1
une base B de E donnée (la trace de f ne dépend donc pas de la base B choisie).

2
5.3 Diagonalisation d’endomorphisme en dimension finie
dim(E) = n avec n ∈ IN⋆ .
Définition 5.2. Soit f ∈ L(E). On dit que f est diagonalisable si il existe une base de E dans
laquelle la matrice de f est diagonale.
Théorème 5.5. Soit a une valeur propre de f et Ea = Ker(f −aId ) alors Pf (λ) = (λ−a)ma Q(λ)
avec Q(a) 6= 0, où Q est un polynôme.
ma s’appelle la multiplicité de la racine a du polynôme caractéristique Pf et

dim(Ea ) ≤ ma .

Remarque 5.1. Soit a ∈ Sp (f ). Si la multiplicité de la racine a de Pf est égale à 1 alors on dit


que la valeur propre est une racine simple de Pf et 1 ≤ dim(Ea ) ≤ ma = 1 donc dim(Ea ) = 1.
Preuve. du théorème en amphi.
Théorème 5.6. Soit f ∈ L(E).
(i) - f est diagonalisable ⇔
(ii) - Il existe une base B de E formée de vecteurs propres de E ⇔
(iii) - E est somme directe des sous-espace propres de f ⇔
(iv) - dim(E) = la somme des dimensions des sous-espaces propres de f .
Preuve. En amphi.
Théorème 5.7. Soit f ∈ L(E).
- Condition nécéssaire pour que f soit diagonalisable : Pf doit être un polynôme scindé,
c’est-à-dire : il existe p ∈ {1, · · · , n} tel que
p
Y
(CN) Pf (λ) = (λi − λ)αi
i=1

(Pf est scindé signifie que Pf est le produit de n polynômes de degré 1).
- Condition nécessaire et suffisante : Supposons que (CN) est vérifiée alors Sp (f ) 6= ∅ et
posons Sp (f ) = {λ1 , · · · , λp } alors :
(i) f est diagonalisable ⇔
(ii) ∀1 ≤ i ≤ p, dim(Eλi ) = αi où Eλi = Ker(f − λi Id )
Preuve. en amphi

5.4 Diagonalisation de matrices carrées d’ordre n dans Kn,n



Kn → Kn
Définition 5.3. Soit A ∈ Kn,n et soit f : .
x → Ax
On dit que λ est valeur propre de A si λ est valeur propre de f .
On dit que u est vecteur propre de A si u est vecteur propre de f .
On note Sp (A) l’ensemble des valeurs propres de A et on l’appelle spectre ponctuel de A.
De plus, posons C la base canonique de Kn alors mat(f, C) = A et ∀λ ∈ K, mat(f −λId , C) =
(A − λIn ), d’où
Pf (λ) = det(f − λId ) = det(A − λIn ).
On appellera donc de façon équivalente polynôme caractéristique de A, le polynôme carac-
téristique de f , que l’on notera indifféremment, PA ou Pf .
On a aussi, si λ ∈ Sp (A), Eλ = Ker(f − λId ) = Ker(A − λIn ).
On dira donc que Eλ est le sous-espace propre de A associé à la valeur propre de λ.

3
5.4.1 Quelques rappels ou compléments sur les matrices semblables
Définition 5.4. Soient A et B deux matrices carrées d’ordre n. On dit que B est semblable à
A si il existe P inversible telle que
B = P −1 AP.

Propriété 5.2. On appelle R la relation définie par A R B ⇔ A est semblable à B. Alors R


est une relation d’équivalence.

Définition 5.5. Soit F un ensemble non vide. Soit R une relation binaire sur F définie par
G ⊂ F × F , c’est-à-dire pour tout (x, y) ∈ F × F, xRy si et seulement si (x, y) ∈ G. Alors R
est une relation d’équivalence si elle vérifie les 3 propriétés suivantes :
(1) R est réflexive c’est-à-dire ∀x ∈ F, xRx
(2) R est symétrique c’est-à-dire ∀x, y ∈ F, xRy ⇒ yRx
(3) R est transitive c’est-à-dire ∀x, y, z ∈ F, xRy et yRz ⇒ xRz.
Preuve. de la propriété 5.2 - à faire chez soi
• (1) ∀A ∈ Kn,n , A = In−1 AIn donc A R A. Donc R est réflexive.

• (2) ∀A, B ∈ Kn,n , A R B ⇒ ∃P inversible tq. A = P −1 BP ⇒ P A = BP ⇒


P AP −1 = B ⇒ B R A car B = Q−1 AQ où Q = P −1 . Donc R est symétrique.

• (3) ∀A, B, C ∈ Kn,n

A R B et B R C ⇒
∃P, Q inversibles tq. A = P −1 BP et B = Q−1 CQ ⇒
A = P −1 (Q−1 CQ)P = (P −1Q−1 ) C(QP ) ⇒
| {z }
=(QP )−1
A =M −1
CM avec M = QP ⇒
ARC

Donc R est transitive.

Propriété 5.3. Soit f ∈ L(E) où dim(E) = n ∈ IN⋆ .


Soit B une base de E alors pour toute base B′ de E

mat(f, B′ ) est semblable à mat(f, B)

Preuve. faite en amphi. cf. processus de changement de base.

Propriété 5.4. Deux matrices carrées de Kn,n sont semblables si et seulement si elles repré-
sentent la même application linéaire f dans deux bases différentes.

Preuve. faite en amphi

5.4.2 Propriétés de matrices diagonalisables :


Définition 5.6. On dit que la matrice carrée A est diagonalisable si elle est semblable à une
matrice diagonale.

Propriété 5.5. Soit A ∈ Kn,n . Si A est diagonalisable alors toute matrice semblable à A est
aussi diagonalisable.

Preuve. faite en amphi.

4
Théorème 5.8. Soit f ∈ L(E) où E est un espace vectoriel de dimension finie (dim(E) = n ∈
IN⋆ ) et soit B une base de E, alors

f est diagonalisable ⇔ mat(f, B) est diagonalisable

On obtient donc le résultat suivant, en faisant le parallèle avec la diagonalisation d’endo-


morphismes :

Corollaire 5.2. Soit A ∈ Kn,n .


(i) Si le polynôme caractéristique de A, PA , n’est pas scindé dans K alors A n’est pas diagona-
lisable dans K.
(ii) Si PA est scindé alors il existe p ∈ IN⋆ valeurs propres de A et on pose Sp (A) = {λ1 , · · · , λp }.
On pose aussi Eλi = Ker(A − λi In ) le sous-espace propre associé à λi . Alors
(1) A est diagonalisable ⇔
p
X
(2) dim(E) = dim(Eλi ) ⇔
i=1
(3) ∀1 ≤ i ≤ p, dim(Eλi ) = αi .

Propriété 5.6. - Si A est semblable à une matrice triangulaire T alors les valeurs propres de
A sont les coefficients diagonaux de T , comptées avec leur multiplicité.
Yn Xn
n,n
- Soit A ∈ C alors det(A) = λi et tr(A) = λi où les λi sont les valeurs propres de A
i=1 i=1
comptées avec leur ordre de multiplicité.

Preuve. En TD. à connaître pour le CC3

5.5 Application de la diagonalisation aux suites récurrentes linéaires


d’ordre 2 :
L’objectif de ce paragraphe est de déterminer le sous-espace vectoriel F des suites numé-
riques (à valeurs dans R ou C) tel que :

F = {(un )n∈IN tq. (E) a un+2 + b un+1 + c un = 0 ∀n ∈ IN}. (1)

où a, b, c sont des complexes tels que a 6= 0.

Théorème 5.9. On appelle équation caractéristique de (E), l’équation (∗) : ar 2 +br +c =


0 (r ∈ C est l’inconnue).
Soient r1 et r2 les solutions complexes de (∗).

i)
• Si r1 6= r2 alors (un )n∈IN ∈ F ⇐⇒ ∃c1 , c2 ∈ C tq. ∀n ∈ N,

un = c1 (r1 )n + c2 (r2 )n .
• Si r1 = r2 6= 0 alors (un )n∈IN ∈ F ⇐⇒ ∃c1 , c2 ∈ C tq. ∀n ∈ N,

un = c1 (r1 )n + c2 n(r1 )n .
• A noter que si r1 = r2 = 0 alors la suite (un ) est la suite nulle à partir de n = 2.

5
ii) Si a, b, c ∈ R et si on cherche les suites (un )n∈IN de F uniquement à coefficients
réels, on a le résultat suivant :
• Si b2 − 4ac > 0, alors (un )n∈IN ∈ F ⇐⇒ ∃c1 , c2 ∈ R tq. ∀n ∈ N,

un = c1 (r1 )n + c2 (r2 )n .
• Si b2 − 4ac = 0 et b 6= 0, alors (un )n∈IN ∈ F ⇐⇒ ∃c1 , c2 ∈ R tq. ∀n ∈ N,

un = c1 (r1 )n + c2 n(r1 )n .
• Si b2 − 4ac < 0 alors r2 = r1 et r1 = |r1 |eiθ . Alors (un )n∈IN ∈ F ⇐⇒ ∃c1 , c2 ∈
R tq. ∀n ∈ N,

un = |r1 |n (c1 cos(nθ) + c2 sin(nθ)) .

Preuve. faite de façon détaillée en amphi.

5.6 Quelques résultats complémentaires hors programme :


Définition 5.7.
- On dit qu’une matrice carrée A ∈ Rn,n est une matrice symétrique si AT = A.
T
- On dit qu’une matrice carrée A ∈ Cn,n est une matrice hermitienne si A = A ( c’est-à-dire ∀i, j ∈
{1, · · · , n} Aij = Aji où x désigne le conjugué du complexe x.)

Théorème 5.10.
- Toute matrice à coefficients réels symétrique est diagonalisable dans IR.
- Toute matrice A à coefficients complexes hermitienne est diagonalisable dans C et ses valeurs
propres sont toutes réelles.

Définition 5.8. On dit qu’une matrice est trigonalisable (ou triangularisable) si elle est sem-
blable à une matrice triangulaire supérieure ou inférieure.

Théorème 5.11. Une matrice carrée est trigonalisable ⇔ son polynôme caractéristique est
scindé.

Corollaire 5.3. Dans C, tout polynôme non nul est scindé (on dit aussi que C est algébrique-
ment clos), donc toute matrice A ∈ Cn,n est trigonalisable dans C.

5.6.1 Polynôme annulateur - Polynôme minimal (Hors programme au semestre


3)
p
X
Définition 5.9. Si P = ai X i est un polynôme d’une variable à coefficients dans IK, la
i=0
matrice carré d’ordre n, P (A), est la matrice
p
X
P (A) = ai Ai , où A0 = In .
i=0

De même, si f ∈ L(E), alors P (f ) est l’endomorphisme de E tel que


n
X
P (f ) = ai f i , où f i = f ◦ f.. ◦ f et f 0 = Id.
| {z }
i=0
i fois

6
Propriété 5.7. Soient f un endomorphisme de E, P, Q deux polynômes à coefficients dans IK.
Alors
(1) P (f ) + Q(f ) = (P + Q)(f ).
(2) P (f ) ◦ Q(f ) = (P Q)(f ) = Q(f ) ◦ P (f ).

Définition 5.10. Soit f ∈ L(E).


• On appelle polynôme annulateur de f tout polynôme P tel que P (f ) = 0.
• On appelle polynôme minimal de f (ou A), que l’on note µf (ou µA ) le polynôme annulateur
de f (ou de A) unitaire et de plus bas degré.
Exemple 5.1. 1) On rappelle que p ∈ L(E) est un projecteur si et seulement si p ◦ p = p si
et seulement si Q(p) = 0 où Q(X) = X 2 − X = X(X − 1) si et seulement Q est un polynôme
annulateur de p. Donc le polynôme minimal de p divise X(X − 1) donc
- soit µp (X) = X et dans ce cas p = 0
- soit µp (X) = X − 1 et dans ce cas p = Id
- soit p est un endomorphisme distinct de l’application nulle et de l’identité et alors son polynôme
minimal est µp (X) = X 2 − X.
2) Un endomorphisme u est nilpotent si il existe un entier k ∈ IN⋆ tel que uk = 0. Alors le
polynôme minimal de u est de la forme X d où d est appelé indice de nilpotence de u, c’est-à-dire
tel que ud = 0 et ud−1 6= 0.
On démontre le théorème fondamental suivant :

Théorème 5.12. Cayley-Hamilton :

PA (A) = 0, où PA est le polynôme caractéristique de A.

Preuve. La démonstration repose sur la formule

∀B ∈ Kn,n , Com(B)T · B = det(B) · In (2)

(cf. cours sur les déterminants : preuve du théorème 3.8 (iii) et (iv))
Xn
On a PA (λ) = det(A − λIn ) = pk λk donc d’après la formule (2) qui précède :
k=0

Com(A − λIn )T · (A − λIn ) = PA (λ)In (3)


Or (Com(A − λIn ))Tij = (−1)i+j ∆ji (A − λIn ) où ∆ji (A − λIn ) = le déterminant
de la matrice (A − λIn ) à laquelle on a enlevé la j e ligne et la ie colonne.
En développant ∆ji (A − λIn ) on montre que ∀i, j, ∆ji (A − λIn ) est un polynôme
en λ de degré inférieur ou égal à n − 1. Donc Com(A − λIn )T s’écrit :
Xn−1
Com(A − λIn ) =T
Bk λk où Bk ∈ Kn,n
k=0
(n−1) n
X X
k
et d’après (3), on a : ( Bk λ )(A − λIn ) = ( pk λk )In
k=0 k=0
(n−1) (n−1) n
X X X
Bk Aλk − Bk λk+1 = p k In λ k
k=0 k=0 k=0
n−1
X n
X
k
n
−λ Bn−1 + (Bk A − Bk−1 )λ + B0 A = p k In λ k
k=1 k=0

7
Par identification des n2 polynômes à gauche et à droite de l’égalité matricielle
précédente, on obtient :
−Bn−1 = pn In et Bk A − Bk−1 = pk In ∀k ∈ {1, · · · , n − 1} et B0 A = p0 In
Xn n−1
X
Ainsi : PA (A) = pk Ak = p0 In + pk Ak + pn An
k=0 k=1
n
X n−1
X
PA (A) = pk Ak = B0 A + (Bk A − Bk−1 )Ak + −Bn−1 An
k=0 k=1
n−1
X n−1
X
k+1
PA (A) = B0 A + Bk A − Bk−1 Ak − Bn−1 An
k=1 k=1
n
X n−1
X
PA (A) = B0 A + Bk−1 Ak − Bk−1 Ak − Bn−1 An
k=2 k=1
n
X n
X
PA (A) = Bk−1 Ak − Bk−1 Ak
k=1 k=1
PA (A) = 0
La preuve ne fait pas intervenir les valeurs propres de A, c’est-à-dire qu’on n’utilise pas le fait
que le polynôme caractéristique de A a des racines ou pas.

Corollaire 5.4. deg(µA ) ≤ n.

Preuve. Comme PA est un polynôme de degré n qui annule A, µA divise PA donc le degré de
µA est inférieur ou égal au degré de PA .

Vous aimerez peut-être aussi