Vous êtes sur la page 1sur 23

Lycée Laetitia Bonaparte Spé PT – 2022/2023

Chapitre 7 – Réduction des endomorphismes et des matrices carrées

I. Éléments propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
II. Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
III. Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
IV. Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
V. Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

I. Éléments propres

a) Éléments propres d’un endomorphisme

K désigne le corps R ou C, E est un K-espace vectoriel (de dimension finie ou non) et f un endomorphisme de E.

Définition
Un scalaire λ est dit valeur propre (vp) de f lorsque

∃x ∈ E , x 6= 0E et f (x) = λx .

Si λ est une valeur propre de f , un vecteur x ∈ E \ {0E } tel que f (x) = λx est appelé vecteur propre (Vp) de f
associé à la valeur propre λ.

Remarques
– On retient déjà que, par définition, un vecteur propre n’est jamais nul.
– Si x est un Vp de f , alors tout multiple de x par un scalaire non nul est encore un Vp de f , et pour la même vp.
– On rappelle qu’un sous-espace vectoriel G de E est dit stable par f si on a f (G) ⊂ G, c’est-à-dire ∀ x ∈ G , f (x) ∈ G.
On voit que, pour un vecteur x non nul de E, on a
x est un vecteur propre de f ⇐⇒ Vect(x) = Kx est stable par f .
Chercher les vecteurs propres de f , c’est donc chercher les droites stables par f .

Exemples
Soit E un R-ev de dimension 2 et de base β = (e1 , e2 ).
⋆ Soit f l’unique élément de L(E) défini par f (e1 ) = e1 − e2 et f (e2 ) = −e1 + e2 . Posons v = e1 − e2 et w = e1 + e2 .
On a f (v) = f (e1 ) − f (e2 ) = 2e1 − 2e2 = 2v et puisque v 6= 0E on peut conclure que 2 est vp de f et v est un Vp associé.
De même f (w) = f (e1 ) + f (e2 ) = 0E = 0R × w et comme w 6= 0E on conclut que f admet la vp 0 et un Vp associé est w.
⋆ Soit g l’unique élément de L(E) défini par g(e1 ) = e2 et g(e2 ) = −e1 .
Montrons que g ne possède pas de valeur propre en raisonnant par l’absurde.
Si λ ∈ R est une vp de g et x = ae1 + be2 ∈ E \ {0E } est un Vp associé, on a g(x) = λx donc ae2 − be1 = λ(ae1 + be2 ) d’où
(λa + b)e1 + (λb − a)e2 = 0E mais puisque (e1 , e2 ) est libre cela entraîne a = λb et b = −λa donc a = −λ2 a , c’est-à-dire
(1 + λ2 )a = 0 et ainsi a = 0 (car λ ∈ R), puis b = 0 et finalement x = 0E , ce qui est une contradiction.

Théorème 1
Soit λ ∈ K. Les propositions suivantes sont équivalentes :
(i) λ est valeur propre de f ;
(ii) Ker (f − λidE ) 6= {0E } ;

1
(iii) f − λidE n’est pas injectif.
Si E est de dimension finie, on peut ajouter à cette liste les propositions suivantes :
(iv) f − λidE n’est pas un automorphisme de E ;
(v) det(λidE − f ) = 0.

Preuve
Montrons que (i) ⇔ (ii). On a

λ est valeur propre de f ⇐⇒ ∃ x ∈ E \ {0E } , f (x) = λx ⇐⇒ ∃ x ∈ E \ {0E } , f (x) = λidE (x)


⇐⇒ ∃ x ∈ E \ {0E } , (f − λidE )(x) = 0E ⇐⇒ ∃ x ∈ E \ {0E } , x ∈ Ker (f − λidE )
⇐⇒ Ker (f − λidE ) 6= {0E } .

Pour toute application linéaire u définie sur E on connaît l’équivalence u injectif ⇔ Ker (u) = {0E } et on l’applique à
u = f − λidE , donc (ii) ⇔ (iii).
De même, si E est de dimension finie on a u injectif ⇔ u bijectif ⇔ det(u) 6= 0 ce qui prouve les autres équivalences.

Remarques
– En particulier on voit que 0 est vp de f ⇐⇒ f n’est pas injectif.

– On remarque, une fois pour toutes, que si n = dim(E), on a

det(f − λidE ) = (−1)n det(λidE − f ),

donc, en particulier, det(f − λidE ) = 0 ⇐⇒ det(λidE − f ) = 0 .

Définition
On appelle spectre de f , et on note Sp(f ), l’ensemble des valeurs propres de f .

Si λ ∈ Sp(f ), on appelle sous-espace propre de f associé à la valeur propre λ le sous-espace vectoriel de E suivant :

Eλ = Ker (f − λidE ) = x ∈ E , f (x) = λx .

Remarques
– Les notations Sp(f ) et Eλ ne sont pas universelles, on rencontrera par exemple σ (f ) pour le spectre de f et sepf,λ pour
le sous-espace propre associé à λ.

– Sp(f ) est une partie de K, éventuellement vide.

– Soit λ ∈ Sp(f ). Pour tout x ∈ E on a f (x) = λx ⇔ x ∈ Eλ , donc Eλ est l’ensemble des vecteurs propres de f associés à
la vp λ, auquel on ajoute le vecteur nul 0E . Autrement dit, l’ensemble des Vp de f associés à la vp λ est Eλ \ {0E }.
 
G −→ G
– On rappelle que si G est un sous-ev de E stable par f , l’endomorphisme induit par f sur G est fG = .
x 7−→ f (x)
Si x ∈ Eλ on a f (x) = λx ∈ Eλ car Eλ est un espace vectoriel. Ainsi, Eλ est stable par f . De plus, l’endomorphisme induit
par f sur Eλ est λidEλ c’est-à-dire l’homothétie de Eλ de rapport λ.
En d’autres termes, Eλ est un sous-espace vectoriel de E sur lequel f agit comme l’homothétie de rapport λ.

Exemple
Soit E un K-ev (non réduit à l’élément nul) et f = k.idE l’homothétie de rapport k ∈ K.
On voit que k est valeur propre de f et l’espace propre associé est E lui-même. De plus k est l’unique vp de f car si λ est
une vp de f et x un Vp associé, on a kx = f (x) = λx et donc λ = k car x 6= 0E . Ainsi, Sp(f ) = {k} et Ek = E.

2
Exercice 1
Soient f et g deux endomorphismes de E tels que f ◦ g = g ◦ f .
Montrer que les espaces propres de f sont stables par g.

Soit λ ∈ Sp(f ) et x ∈ Eλ . Il s’agit de montrer que g(x) ∈ Eλ . Or f (g(x)) = g(f (x)) = g(λx) = λg(x) ce qui montre qu’on a
bien g(x) ∈ Eλ . Bien sûr les espaces propres de g sont aussi stables par f comme on le voit en échangeant les lettres f et g.

Exercice 2
Soit f ∈ L(E), n un entier naturel non nul et α ∈ K∗ . Montrer que
 
(a) Sp(f − αidE ) = λ − α , λ ∈ Sp(f ) (c) Sp(αf ) = αλ , λ ∈ Sp(f )

(b) λ ∈ Sp(f ) =⇒ λn ∈ Sp(f n ) (réciproque ?) (d) Sp(f −1 ) = λ1 , λ ∈ Sp(f ) si f inversible

(b) Soit λ ∈ Sp(f ) et x un vecteur propre associé. On a f (x) = λx donc f 2 (x) = f (f (x)) = f (λx) = λf (x) = λ2 x.
Par une récurrence évidente on a f n (x) = λn x pour tout entier n ∈ N∗ . Puisque x 6= 0E on peut conclure que λn ∈ Sp(f n ).
La réciproque est fausse : avec E un R-ev de base (e1 , e2 ) et g défini par g(e1 ) = e2 et g(e2 ) = −e1 , on a vu que g ne possède
aucune valeur propre : Sp(g) = ∅. Pourtant g 2 (e1 ) = −e1 d’où g 4 (e1 ) = e1 et donc 14 ∈ Sp(g 4 ) mais pourtant 1 6∈ Sp(g).
(d) Supposons f inversible. f et f −1 étant tous deux injectifs, 0 n’est valeur propre ni de f ni de f −1 . On peut alors écrire

µ ∈ Sp(f −1 ) ⇐⇒ ∃ x ∈ E \ {0E } , f −1 (x) = µx ⇐⇒ ∃ x ∈ E \ {0E } , x = f (µx) = µf (x)


1 1

⇐⇒ ∃ x ∈ E \ {0E } , f (x) = µ x ⇐⇒ λ = µ ∈ Sp(f ) ⇐⇒ µ ∈ λ1 , λ ∈ Sp(f )

d’où l’égalité des ensembles.

Exercice 3
Soit E = C[X] et f ∈ L(E) défini par f (P ) = XP ′ . Déterminer les éléments propres de f .

Procédons par analyse-synthèse.


n
X
Analyse : soit λ ∈ C une vp de f et P ∈ E \ {0E } un Vp associé. Notons n ∈ N le degré de P , et P (X) = pi X i .
i=0
n
X n
X n
X
i i
On a f (P ) = λP soit ipi X = λpi X ou encore (i − λ)pi X i = 0. Un polynôme est nul si et seulement si tous ses
i=0 i=0 i=0
coefficients sont nuls, donc on a ∀ i ∈ {0, . . . , n} , (i − λ)pi = 0. Avec i = n on obtient (n − λ)pn = 0 mais pn 6= 0 car P est
de degré n, et donc λ = n.
Ensuite, pour tout i ∈ {0, . . . , n − 1} on a (i − λ)pi = 0 mais i − λ 6= 0 donc pi = 0. Ainsi, on a obtenu λ = n et P = pn X n .
Synthèse : pour tout n ∈ N le polynôme X n est bien un vecteur propre de f pour la valeur propre n car f (X n ) = nX n .
Conclusion : le spectre de f est Sp(f ) = N et pour tout n ∈ N, l’espace propre associé est la droite En = C.X n .

Théorème 2
Soient λ1 , . . . , λp des valeurs propres distinctes de f et x1 , . . . , xp des vecteurs propres associés respectivement (xi est
un Vp de f associé à la vp λi ).

La famille (x1 , . . . , xp ) est libre.

Autrement dit, toute famille de vecteurs propres de f associés à des valeurs propres distinctes est libre.

Preuve
On procède par récurrence sur l’entier p. La propriété est vraie lorsque p = 1 : la famille (x1 ) est libre car x1 6= 0E .
Supposons la propriété vraie au rang p − 1 (p > 2) et montrons-la au rang p.
Soit (α1 , . . . , αp ) ∈ Kp tel que α1 x1 + · · · + αp xp = 0E . On applique f qui est linéaire et on utilise que f (xi ) = λi xi :

α1 λ1 x1 + · · · + αp λp xp = 0E . (1)

3
D’autre part, en multipliant la relation de départ par λp il vient

α1 λp x1 + · · · + αp λp xp = 0E . (2)

D’où, en soustrayant (1) et (2) membre à membre,

(λ1 − λp )α1 x1 + · · · + (λp−1 − λp )αp−1 xp−1 = 0E .

Or la famille (x1 , . . . , xp−1 ) est libre par hypothèse de récurrence, donc pour tout i ∈ {1, . . . , p − 1} on a (λi − λp )αi = 0.
De plus λi − λp 6= 0 car les valeurs propres λi sont supposées distinctes, et ainsi pour tout i ∈ {1, . . . , p − 1} on a αi = 0.
Il reste αp xp = 0E mais comme xp 6= 0E c’est que αp = 0. On a montré que (x1 , . . . , xp ) est libre, ce qui achève la
récurrence.

Remarque
Il s’ensuit qu’un endomorphisme d’un espace vectoriel de dimension finie n possède au plus n valeurs propres.

Corollaire
Soient λ1 , . . . , λp des valeurs propres distinctes de f .
Les espaces propres Eλ1 , . . . , Eλp sont en somme directe.

Autrement dit, toute somme finie de sous-espaces propres de f associés à des valeurs propres distinctes est directe.

Preuve
Il s’agit de démontrer que les relations ∀ i ∈ {1, . . . , p} , xi ∈ Eλi et x1 + · · · + xp = 0E entraînent x1 = · · · = xp = 0E .
On raisonne par l’absurde en supposant que tous les xi ne sont pas nuls. Notons m le nombre de ces vecteurs qui sont
non nuls. Quitte à réindexer, on peut supposer que x1 , . . . , xm sont tous non nuls et xm+1 = · · · = xp = 0E . Alors on a
encore x1 + · · · + xm = 0E , ce qui est une contradiction car (x1 , . . . , xm ) est une famille de vecteurs propres de f associés
à des valeurs propres distinctes, donc cette famille est libre d’après le théorème précédent.

b) Éléments propres d’une matrice

On adapte ici aux matrices carrées le langage géométrique du paragraphe précédent.

Définition
Soient n > 1 et A ∈ Mn (K).

Un scalaire λ est dit valeur propre de A lorsque ∃ X ∈ Mn,1 (K) , X 6= 0 et AX = λX .


Si λ est une vp de A, un vecteur X ∈ Mn,1 (K) \ {0} tel que AX = λX est dit vecteur propre de A associé à la vp λ.
On appelle spectre de A, et on note Sp(A), l’ensemble des valeurs propres de A.
Si λ ∈ Sp(A), on appelle sous-espace propre de A associé à la valeur propre λ le sous-espace vectoriel de Mn,1 (K)

Eλ = Ker (A − λIn ) = X ∈ Mn,1 (K) , AX = λX .

Si E est de dimension finie, le passage des vecteurs/endomorphismes de E aux vecteurs colonnes/matrices via une base de E
conserve les éléments propres :

Proposition 3
 
Soient E un K-ev de dimension n, β une base de E, f ∈ L(E) et A = f β ∈ Mn (K).
(i) Les valeurs propres de f sont celles de A : Sp(f ) = Sp(A) .
 
(ii) x est Vp de f pour la vp λ ⇐⇒ X = x β est Vp de A pour la vp λ.
n  o
(iii) Ker(A − λ In ) = x β , x ∈ Ker(f − λ idE ) .

4
Preuve
     
C’est dû aux propriétés de la représentation matricielle : pour tout x ∈ E on a f (x) β = f β x β = AX, et
   
λx β = λ x β = λX, donc f (x) = λx ⇐⇒ AX = λX.
 
De même, pour tout scalaire λ ∈ K, on a f − λidE β = A − λIn .

Ainsi, toutes les propriétés déjà vues sur les endomorphismes restent valables pour les matrices, par exemple :

— λ est vp de A ⇐⇒ det(A − λIn ) = 0 .


— Toute somme d’espaces propres de A associés à des valeurs propres distinctes est directe.

Remarque
Si A est une matrice carrée à coefficients réels, elle peut être considérée comme un élément de Mn (R) ou comme un élément
de Mn (C), et donc on peut être amené à distinguer l’ensemble de ses valeurs propres réelles, noté SpR (A) de l’ensemble de
ses valeurs propres complexes, noté SpC (A).

Exemple
 
  0 −1
Soit E un R-ev de base β = (e1 , e2 ) et g défini par g(e1 ) = e2 et g(e2 ) = −e1 . On a A = g β = .
1 0
−λ −1
On retrouve le fait Sp(g) = SpR (A) = ∅ car pour tout λ ∈ R, det(A − λI2 ) = = λ2 + 1 6= 0.
1 −λ
Par contre, ce même calcul prouve que A possède deux valeurs propres complexes : SpC (A) = { i, −i }.

II. Polynôme caractéristique

Dans tout ce paragraphe, n désigne un élément de N∗ et E un K-ev de dimension finie n.

Définition
Soit f ∈ L(E). On appelle polynôme caractéristique de f l’application χf : K −→ K définie par
∀λ ∈ K, χf (λ) = det(λidE − f ) .

Soit A ∈ Mn (K). On appelle polynôme caractéristique de A l’application χA : K −→ K définie par


∀λ ∈ K, χA (λ) = det(λIn − A) .

Le polynôme caractéristique permet de déterminer les valeurs propres de A ou f :

Théorème 4
(i) Le polynôme caractéristique d’un endomorphisme est celui de sa matrice dans n’importe quelle base.
(ii) Pour A ∈ Mn (K), Sp(A) est l’ensemble des racines de χA . Pour f ∈ L(E), Sp(f ) est l’ensemble des racines de χf .

Preuve
    
(i) Pour f ∈ L(E), β base de E et A = f β on a χf (λ) = det(λidE −f ) = det λidE − f β = det(λIn −A) = χA (λ)
donc χf = χA .
(ii) Selon le théorème 1, λ ∈ Sp(f ) ⇐⇒ det(λidE − f ) = 0 ⇐⇒ χf (λ) = 0. Idem pour A ∈ Mn (K).

Corollaire
Le spectre d’une matrice triangulaire est l’ensemble de ses termes diagonaux.

5
Preuve  
a11 (⋆)
Soit A une matrice triangulaire (par exemple supérieure) A =  .. . Son polynôme caractéristique est
.
(0) ann

λ − a11 (⋆)
χA (λ) = det(λIn − A) = .. = (λ − a11 ) · · · (λ − ann ) ,
.
(0) λ − ann

donc Sp(A) = {a11 , . . . , ann }.

On dit dans ce cas que « les valeurs propres de A sont en évidence sur la diagonale ».
C’est le cas en particulier si A est une matrice diagonale.

Théorème 5
Pour A ∈ Mn (K), χA est un polynôme de degré n, de coefficient dominant 1 et de terme constant (−1)n det(A).
Autrement dit, il existe des scalaires α1 , . . . , αn−1 tels que

∀λ ∈ K, χA (λ) = λn + αn−1 λn−1 + · · · + α1 λ + (−1)n det(A) .

Idem pour f ∈ L(E).

Preuve
• On commence par démontrer la propriété suivante par récurrence sur n :
« Si M ∈ Mn (K) est une matrice dont tous les coefficients sont des polynômes de degré au plus 1 de la variable λ, alors
det(M ) est un polynôme en λ de degré au plus n » .
C’est immédiat si n = 1 et si on suppose le résultat acquis au rang n − 1 (n > 2) alors, par développement par rapport
à la première ligne,
n
X
det(M ) = m1j (−1)1+j ∆1,j est un polynôme en λ de degré au plus n .
j=1
|{z} |{z}
deg 61 deg 6n−1

• On prouve alors par récurrence sur n que « ∀ A ∈ Mn (K) , χA est un polynôme de degré n, de coefficient dominant 1 » .
C’est évident si n = 1 car χA (λ) = λ − a11 . Si le résultat est démontré au rang n − 1 (n > 2) alors, par développement
par rapport à la première ligne,
n
X
χA (λ) = det(λIn − A) = (λ − a11 ) × χA′ (λ) + a1j (−1)1+j ∆′1,j ,
j=2

où A′ est la matrice obtenue à partir de A en supprimant les première ligne et première colonne, et ∆′1,j est le mineur de
place (1, j) de λIn − A, qui est un polynôme de degré au plus n − 1 d’après le résultat précédent. On peut donc écrire,
d’après l’hypothèse de récurrence appliquée à A′ , que

χA (λ) = (λ − a11 ) λn−1 + Q(λ) + R(λ) = λn + S(λ) ,

où Q ∈ Kn−2 [X] et R, S ∈ Kn−1 [X], d’où la propriété au rang n.

• Enfin, le terme constant de χA est χA (0) = det(0In − A) = det(−A) = (−1)n det(A).

Exemple
 
a b λ−a −b
Avec n = 2 et A = on a χA (λ) = = λ2 − (a + d)λ + ad − bc = λ2 − tr(A)λ + det(A) .
c d −c λ−d

Remarque
Les valeurs propres de A ∈ Mn (K) étant les racines d’un polynôme de degré n, on retrouve le fait qu’une matrice de taille n
(ou un endomorphisme en dimension n) possède au plus n valeurs propres.
De plus, si K = C alors χA est scindé (théorème de d’Alembert-Gauss) donc A possède au moins une valeur propre complexe.

6
Théorème 6
Soient A, B ∈ Mn (K). Si A et B sont semblables, alors elles ont même polynôme caractéristique.

Preuve
Supposons A ∼ B. Il existe P ∈ GLn (K) telle que A = P BP −1 et donc pour tout λ ∈ K,

χA (λ) = det(λIn − A) = det(λIn − P BP −1 ) = det P (λIn − B)P −1
= det(P ) det(λIn − B) det(P −1 ) = det(λIn − B) = χB (λ) ,

1
car det(P −1 ) = .
det(P )

Remarques
– Le polynôme caractéristique est donc un invariant de similitude, tout comme le rang, la trace et le déterminant.
 
1 1
– La réciproque de ce théorème est fausse. Par exemple les matrices A = 0 1 et B = I2 ont même polynôme carac-
téristique : χA (λ) = χB (λ) = (λ − 1)2 (ainsi que même rang, même trace et même déterminant) mais elles ne sont pas
semblables car A = P I2 P −1 ⇒ A = I2 absurde.

Exercice 1
 0 (0) −a0 
.. ..
 1 . . 
Déterminer le polynôme caractéristique de la « matrice compagnon » A =  .
 .. 
. 0 −an−2
(0) 1 −an−1

On l’a déjà calculé dans le chapitre 6, on avait obtenu :


χA (λ) = λn + an−1 λn−1 + · · · + a1 λ + a0 .

Exercice 2
Soient A, B dans Mn (K). Montrer que si A ou B est inversible, alors χAB = χBA .

Si A est inversible on peut écrire AB = A(BA)A−1 ce qui montre que AB ∼ BA et donc AB et BA ont même polynôme
caractéristique. De même si B est inversible.

Définition
On appelle ordre de multiplicité (algébrique) d’une valeur propre λ de A ∈ Mn (K) (ou de f ∈ L(E), dimension finie) la
multiplicité de λ en tant que racine du polynôme χA (ou χf ).

On rappelle la caractérisation suivante de l’ordre de multiplicité d’une racine d’un polynôme P :

λ est racine de P de multiplicité m


⇐⇒ P (X) = (X − λ)m Q(X) avec Q ∈ K[X] et Q(λ) 6= 0
⇐⇒ P (λ) = P ′ (λ) = · · · = P (m−1) (λ) = 0 et P (m) (λ) 6= 0 .

Exemple
Si A ∈ M3 (R) a pour polynôme caractéristique χA (X) = (X − 3)2 (X + 1) alors Sp(A) = {−1, 3} et on dit que −1 est une
valeur propre simple de A et 3 est une valeur propre double de A.

Remarque
A et AT ont le même polynôme caractéristique, donc les mêmes valeurs propres avec les mêmes multiplicités.

7
Théorème 7
Soit f ∈ L(E) (E de dimension finie) et λ une valeur propre de f . On note

d la dimension du sous-espace propre Eλ ,

m la multiplicité algébrique de la valeur propre λ.

On a 1 6 d 6 m . Même résultat pour les matrices.

Preuve
Puisque λ est valeur propre de f , Eλ = Ker(f − λidE ) 6= {0E } et donc cet espace vectoriel est de dimension d > 1.
Soit G un supplémentaire de Eλ dans E, et β = (e1 , . . . , ed , ed+1 , . . . , en ) une base adaptée à la décomposition en somme
directe E = Eλ ⊕ G. Comme Eλ est stable par f , la matrice de f dans β est de la forme suivante :

f (e1 ) · · · f (ed ) f (ed+1 ) · · · f (en )


 
e1 λ (0)
..  . . 
. 
 . M 

 
f β= ed   (0) λ 
 où N ∈ Mn−d (K) et M ∈ Md,n−d (K) .
 
ed+1  
.. 
 
.  (0) 
N 
en

On en déduit que
(X − λ)Id −M
  
χf (X) = det(XidE − f ) = det XIn − f β = = (X − λ)d × χN (X) .
(∗)
(0) XIn−d − N

(∗) en développant par rapport à la 1re colonne, et en répétant l’opération d fois.


Or χN (X) est un polynôme, donc (X − λ)d divise χf (X) ce qui montre que λ est racine de χf de multiplicité supérieure
ou égale à d, c’est-à-dire m > d.

Corollaire
Soit f ∈ L(E) et λ une valeur propre simple de f .
L’espace propre Eλ est une droite vectorielle.

Preuve
1 6 d 6 m et m = 1 donc d = 1.

III. Diagonalisation

a) Définition et premières constatations

Dans tout ce paragraphe, n désigne un élément de N∗ et E un K-ev de dimension finie n.

Définition
 
f ∈ L(E) est dit diagonalisable s’il existe une base β de E telle que f β soit diagonale.

A ∈ Mn (K) est dite diagonalisable si A est semblable à une matrice diagonale. Autrement dit, si

∃ P ∈ GLn (K) , ∃ D ∈ Mn (K) , D diagonale , A = P DP −1 .

8
Remarques
– Toute matrice diagonale est diagonalisable car A = In A(In )−1 .
 
0 1
– Il existe des matrices non diagonalisables. Par exemple, A = 0 0 ne l’est pas. Si on raisonne par l’absurde en
 
α 0
supposant l’existence de P ∈ GL2 (C) et D = 0 β ∈ M2 (C) telles que A = P DP −1 alors on a D = P −1 AP donc
D2 = P −1 A2 P = 02 car A2 = 02 . Donc α2 = β 2 = 0 ce qui montre que D = 02 et finalement A = 02 , absurde.
Autre preuve : si A ∼ D alors X 2 = χA (X) = χD (X) = (X − α)(X − β) donc α = β = 0 ⇒ D = 02 ⇒ A = 02 .
De manière générale, le raisonnement précédent montre que toute matrice de Mn (K) nilpotente (c.-à-d. dont une des
puissances est la matrice nulle) et non nulle, ne peut être diagonalisable.

Proposition 8
(i) Soit f ∈ L(E) et β = (v1 , . . . , vn ) une base de E. On a
!
  λ1 (0)
f β= .. ⇐⇒ ∀ i ∈ {1, . . . , n} , λi est une valeur propre de f et vi un vecteur propre associé .
.
(0) λn
 
(ii) Soit A ∈ Mn (K) et P = V1 . . . Vn ∈ GLn (K). On a
!
λ1 (0)
A=P .. P −1 ⇐⇒ ∀ i ∈ {1, . . . , n} , λi est une valeur propre de A et Vi un vecteur propre associé .
.
(0) λn

Preuve
Notons D = diag(λ1 , . . . , λn ).
 
(i) D’après la définition de la matrice de f dans β, on a f β = D ⇐⇒ ∀ i ∈ {1, . . . , n} , f (vi ) = λi vi et puisque vi ne
peut être nul, ça équivaut à dire que ∀ i ∈ {1, . . . , n} , λi est une valeur propre de f et vi un vecteur propre associé.
   
(ii) On a A = P DP −1 ⇐⇒ AP = P D, or AP = AV1 . . . AVn et P D = λ1 V1 . . . λn Vn et donc A = P DP −1 si
et seulement si ∀ i ∈ {1, . . . , n} , AVi = λi Vi et comme Vi n’est pas nul, on a le résultat.

Remarque
 
De manière plus générale, pour une matrice inversible P = V1 . . . Vn , la matrice « réduite » R telle que A = P RP −1
s’obtient en décomposant les colonnes AV1 , . . . , AVn dans la base V1 , . . . , Vn ) de Mn,1 (K) :

AV1 ··· AVn


 
V1
A = P × ...  ∗

×P
−1
.
Vn

Ceci est la version matricielle de la formule de changement de base pour un endomorphisme.

Proposition 9
 
(i) Soit f ∈ L(E) et β une base de E telle que f β = D soit diagonale.
Alors D porte sur sa diagonale les valeurs propres de f , chacune étant écrite autant de fois que sa multiplicité.
(ii) Même chose pour A ∈ Mn (K) telle que A = P DP −1 .

On dit parfois que D porte sur sa diagonale le spectre étendu de f ou de A.

Preuve
 
Notons D = diag(λ1 , . . . , λn ). Puisque f β = D, on a vu que f a le même polynôme caractéristique que D (théorème 4)
donc χf (X) = (X − λ1 ) · · · (X − λn ).

9
De même si A = P DP −1 , les matrices A et D sont semblables, donc elles ont le même polynôme caractéristique.
Remarque
On voit que si A ∈ Mn (K) possède une unique valeur propre λ et A 6= λIn alors A n’est pas diagonalisable.
En effet, si A était diagonalisable on aurait A = P (λIn )P −1 = λIn .
 
1 −1
Par exemple, A = 1 3 n’est pas diagonalisable car elle possède l’unique valeur propre 2 et n’est pas égale à 2I2 .

Il est équivalent de dire qu’un endomorphisme est diagonalisable ou que sa matrice représentative dans une base quelconque
de E l’est :

Proposition 10
 
Soit f ∈ L(E), B une base quelconque de E et A = f B .
f est diagonalisable ⇐⇒ A est diagonalisable.

Preuve
 
• Supposons f diagonalisable, et notons β une base de E telle que D = f β soit diagonale.
On considère la matrice de passage P = P B,β de B à β . On sait que P est inversible et que P −1 = Pβ,B donc, d’après
   
la formule de changement de base, on a A = f B = P B,β × f β ×Pβ,B = P DP −1 , donc A est diagonalisable.
• Réciproquement, supposons que A s’écrive A = P DP −1 avec P inversible et D diagonale. Il existe une base β de E
telle que P = P B,β (il suffit de lire colonnes de P , qui sont
 les composantes
  des vecteurs de β dans B), donc d’après la
formule du changement de base, D = P −1 AP = Pβ,B × f B ×P B,β = f β donc f est diagonalisable.

b) Caractérisation des matrices et endomorphismes diagonalisables

Rappelons qu’un polynôme P est dit scindé sur K s’il est un produit de facteurs de degrés 1 à coefficients dans K.
Il s’écrit alors P (X) = c(X − λ1 )m1 · · · (X − λp )mp , où λ1 , . . . , λp sont ses racines distinctes, m1 , . . . , mp sont leurs multi-
plicités respectives et c 6= 0.
Par exemple, le polynôme P (X) = (X − 2)2 (X 2 + 1) n’est pas scindé sur R.
On rappelle aussi que lorsque K = C, tous les polynômes sont scindés d’après le théorème de d’Alembert-Gauss.

Théorème 11
Soit f ∈ L(E). Les propositions suivantes sont équivalentes :
(i) f est diagonalisable ;
(ii) il existe une base de E formée de vecteurs propres de f ;
(iii) E est la somme (directe) des espaces propres de f ;
(iv) la somme des dimensions des espaces propres de f est égale à n ;
(v) χf est scindé et la dimension de chaque espace propre est égale à la multiplicité de la vp correspondante.

Si c’est le cas, on obtient une base de diagonalisation de f par recollement de bases de chaque sous-espace propre de f .

Preuve
Notons λ1 , . . . , λp les valeurs propres distinctes de f ; m1 , . . . , mp leurs multiplicités respectives et d1 , . . . , dp les di-
mensions des espaces propres associés.
• (i) ⇔ (ii) d’après la proposition 8.
 
• (i) ⇒ (v) Supposons qu’il existe une base β de E telle que f β = D soit diagonale.
On a déjà χf = χD donc χf est scindé et de plus, on a vu que D porte sur la diagonale les vp de f écrites autant de
fois que leur multiplicité. Dans la base β, pour tout i ∈ {1, . . . , p}, il y a donc mi vecteurs propres de f associés à la
valeur propre λi . Cette famille de mi vecteurs est une famille libre (car extraite de β qui est une base de E) d’éléments
de Eλi et de cardinal mi , ce qui montre que di = dim(Eλi ) > mi . L’inégalité contraire di 6 mi étant toujours vraie,
c’est bien que di = mi .

10
• (v) ⇒ (iv) Supposons que χf est scindé sur K et ∀ i ∈ {1, . . . , p} , di = mi . On a alors

d1 + · · · + dp = m1 + · · · + mp = deg (X − λ1 )m1 · · · (X − λp )mp = deg(χf (X)) = n .

p
X
• (iv) ⇒ (iii) Supposons que d1 + · · · + dp = n. On sait (corollaire du théorème 2) que la somme Eλi est directe. Si
i=1
p
X 
on note F cette somme, qui est un sous-espace vectoriel de E, on a donc dim(F ) = dim Eλi = d1 + · · · + dp = n
i=1
donc F = E et E est bien somme directe des sous-espaces propres de f .
p
M
• (iii) ⇒ (ii) Supposons que E = Eλi . On sait qu’on obtient une base de E par recollement des bases des divers
i=1
espaces en somme directe, il existe donc bien une base de E formée de vecteurs propres de f .

Le même théorème est valable pour les matrices carrées :

Théorème 12
Soit A ∈ Mn (K). Les propositions suivantes sont équivalentes :
(i) A est diagonalisable ;
(ii) il existe une base de Mn,1 (K) formée de vecteurs propres de A ;
(iii) Mn,1 (K) est la somme (directe) des espaces propres de A ;
(iv) la somme des dimensions des espaces propres de A est égale à n ;
(v) χA est scindé et la dimension de chaque espace propre est égale à la multiplicité de la vp correspondante.

Si c’est le cas, on obtient une base de diagonalisation de A par recollement de bases de chaque sous-espace propre de A.

Remarque
On reprend les notations de la preuve précédente. Pour tout endomorphisme f on a

d1 + · · · + dp 6 m1 + · · · + mp 6 n .

La première inégalité vient de ∀ i , di 6 mi et la seconde vient de ce que (X − λ1 )m1 · · · (X − λp )mp divise χf .


La première inégalité est une égalité ssi ∀ i , di = mi , et la seconde inégalité est une égalité ssi χf est scindé sur K.

Corollaire
Une matrice de taille n (ou un endo. en dimension n) qui possède n valeurs propres distinctes est diagonalisable.

On peut rajouter que dans ce cas, les n espaces propres sont tous des droites vectorielles.
Le fait de posséder n valeurs propres distinctes est une condition suffisante (mais pas nécessaire) pour être diagonalisable.

Preuve
En effet, avec les notations précédentes, on a d1 + · · · + dn > n (et donc égalité).

Exemple
!
2 0 1
Diagonaliser la matrice A = 1 1 1 ∈ M3 (R).
−2 0 −1
• Étape 1 : valeurs propres.
On calcule le polynôme caractéristique de A (ici en développant par rapport à la 2e colonne)

λ−2 0 −1 λ−2 −1
χA (λ) = −1 λ−1 −1 = (λ − 1) = (λ − 1)(λ2 − λ) = λ(λ − 1)2 .
2 0 λ+1 2 λ+1

11
On en déduit que χA est scindé sur R et SpA = {0, 1}.
Plus précisément : 0 est vp simple de A, donc E0 est une droite, et 1 est vp double de A, donc dim(E1 ) ∈ {1, 2}.
À ce stade, on ne sait pas encore si A est diagonalisable ou non (ça dépend de dim(E1 )).
• Étape 2 : espaces propres.
On détermine une base de chaque espace propre de A.
!
1 0 1
◦ E1 = Ker(A − I3 ) = Ker(B) où on a posé B = A − I3 = 1 0 1 . On voit que B est de rang 1, donc d’après le
−2 0 −2
théorème du rang, son noyau E1 est de dimension 3 − 1 = 2, ce qui prouve que A est diagonalisable (théorème 11).
Pour déterminer une base de E1 on résout le système :
 
x+z =0 x=α
! ! ! !
x   x 1 0
B y = 0 ⇐⇒ x+z =0 ⇐⇒ x + z = 0 ⇐⇒ y=β ⇐⇒ y =α 0 +β 1 ,
z 

−2x − 2z = 0


z = −α z −1 0
! !
1 0
où (α, β) ∈ R . Si on pose V1 =
2 0 et V2 = 1 , on a donc E1 = Vect(V1 , V2 ) = RV1 ⊕ RV2 .
−1 0

◦ Pour déterminer la droite E0 = Ker(A) on peut résoudre de même le système AX = 0 ou bien se rappeler le résultat
de calcul matriciel suivant :  
  x1
si M = C1 · · · Cn et X =  ...  alors M X = x1 C1 + · · · + xn Cn .
xn

Ici on repère que les colonnes C1 , C2 , C3 de A vérifient la relation C1 + C2 = 2C3 donc 1 × C1 + 1 × C2 + (−2) × C3 = 0
!
1
et donc AV3 = 0 où on a posé V3 = 1 . Comme E0 est une droite et RV3 ⊂ E0 , on a l’égalité E0 = RV3 .
−2

• Étape 3 : conclusion.
La famille (V1 , V2 , V3 ) est une base de M3,1 (R) car obtenue par recollement de bases des espaces propres de A, donc
! !
  1 0 1 1 0 0
P = V1 V2 V3 = 0 1 1 est inversible (inutile de calculer det(P )) et on a A = P 0 1 0 P −1 .
−1 0 −2 0 0 0
Il reste éventuellement à calculer P −1
, ce qu’on fait si besoin par la méthode du système.

Remarque
Il n’y a pas unicité de la matrice D dans l’écriture A = P DP −1 puisqu’on voit qu’on peut ranger les vp de A dans un ordre
quelconque sur la diagonale (il suffit de ranger les vecteurs propres V1 , . . . , Vn trouvés dans l’ordre correspondant).
Par exemple si A ∈ Mn (K) possède n vp distinctes, il y a n! matrices diagonales D semblables à A. On peut dire cependant
que « D est unique à l’ordre près des termes diagonaux » .
Même si D est imposée, il n’y a pas unicité d’une matrice inversible P réalisant A = P DP −1 , puisqu’on peut choisir une
base quelconque dans chaque espace propre.
Par exemple, si A = In on a A = P In P −1 avec n’importe quelle matrice P inversible.

Exercice
0 1 (0) 
.. ..
 . . 
Diagonaliser A =   ∈ Mn (C).
 .. 
(0) . 1
1 0

On calcule le polynôme caractéristique de A en développant par rapport à la première colonne :


λ −1 (0) λ −1 (0) −1 (0)
.. .. .. .. ..
. . . . λ .
χA (λ) = ..
= λ ..
− (−1)n+1 .. ..
(0) . −1 . −1 . .
−1 λ n (0) λ n−1 (0) λ −1 n−1

12
donc χA (λ) = λn − 1. Ainsi, les valeurs propres de A sont les racines nes de l’unité : Sp(A) = {1, ω, . . . , ω n−1 } où on a noté
ω = e2iπ/n . A possède n valeurs propres distinctes et est de taille n, donc A est diagonalisable. De plus, les valeurs propres
de A étant simples, les espaces propres correspondants sont des droites.
Soit j ∈ {0, . . . , n − 1}. L’espace propre associé à la vp ω j se détermine en résolvant le système AX = ω j X :

 x2 = ω j x1 
x1 = α
 
1
    
   
 x3 = ω x2
 j 
x1 x1   x1

..
 x2 = ω j α
 ωj
A  ...  = ω j  ...  ⇐⇒ ⇐⇒  ...  = α 
 
⇐⇒ .. ..  où α ∈ C.
.

 nj
(ω =1) 
 .
 . 
xn xn  x = ω j xn−1  x n
ω (n−1)j

 n 


 xn = ω (n−1)j α
x1 = ω j xn
 
Ainsi, on obtient Eωj = C Vj où Vj est le vecteur ω (i−1)j .
16i6n
   
Finalement on a A = P DP −1 où D = diag(1, ω, . . . , ω n−1 ) et P = V0 · · · Vn−1 = ω (i−1)(j−1) .
16i,j6n

c) Exemples : symétries et projections

Soit E un K-ev de dimension quelconque et F, G deux sous-ev de E supplémentaires.


G
On a E = F ⊕ G et tout vecteur x de E se décompose
de manière unique suivant cette somme directe : g f +g =x
x = f + g avec f ∈ F et g ∈ G.
On rappelle que le projecteur sur F parallèlement à G
est l’application linéaire
 
E −→ E
pF,G = , 0E f = pF,G (x)
x = f + g 7−→ f

et que la symétrie par rapport à F parallèlement à G est F


l’application linéaire
 
E −→ E
sF,G = . −g f − g = sF,G (x)
x = f + g 7−→ f − g

On peut voir que ces endomorphismes sont diagonalisables :

Proposition 13
Soit E de dimension n, s une symétrie et p un projecteur de E. s et p sont diagonalisables. Plus précisément,
 
  Ir 0
(i) Il existe une base β de E telle que p β = où r = rg(p) = dim(Ker(p − idE )).
0 0n−r
 
  Id 0
(ii) Il existe une base β de E telle que s β = où d = dim(Ker(s − idE )).
0 −In−d

Preuve
Dans les deux cas on peut écrire E = F ⊕ G donc on obtient une base β de E en recollant une base de F et une base
de G. On a ∀ x ∈ F , p(x) = x et ∀ x ∈ G , p(x) = 0E d’où la forme de p β . De plus r = dim(F ) = rg(p).
 
De même, ∀ x ∈ F , s(x) = x et ∀ x ∈ G , s(x) = −x d’où la forme de s β .

On rappelle qu’une telle base est dite base adaptée à la décomposition en somme directe E = F ⊕ G.

Remarque
  
On voit ainsi que pour tout projecteur p de E on a tr(p) = tr p β = r = rg(p). On retient que tr(p) = rg(p) .
Pour une symétrie on a tr(s) = 2d − n où d = dim(Ker(s − idE )).

13
IV. Trigonalisation

Lorsqu’une matrice A ∈ Mn (K) n’est pas diagonalisable, on peut quand même chercher une matrice semblable à A qui soit
d’une forme simple. Dans ce paragraphe on cherche une matrice triangulaire supérieure semblable à A.

Définition
 
f ∈ L(E) est dit trigonalisable s’il existe une base β de E telle que f β soit triangulaire supérieure.

A ∈ Mn (K) est dite trigonalisable si A est semblable à une matrice triangulaire supérieure. Autrement dit, si

∃ P ∈ GLn (K) , ∃ T ∈ T S n (K) , A = P T P −1 .

Remarques
– Une matrice diagonale étant triangulaire supérieure, toute matrice ou endomorphisme diagonalisable est bien sûr tri-
gonalisable. Ainsi la trigonalisation, bien que moins intéressante que la diagonalisation, concerne plus de matrices ou
endomorphismes.

– On rappelle que T S n (K) désigne le sev de Mn (K) constitué des matrices triangulaires supérieures et que T I n (K) désigne
celui des matrices triangulaires inférieures. Ils sont tous deux de dimension n(n+1)
2 .
!
(0) . 1
– Soit T ∈ T I n (K). Si on pose P = .. alors on vérifie facilement que T ′ = P T P −1 ∈ T S n (K).
1 (0)
Si A est semblable à une matrice triangulaire inférieure, alors A ∼ T et T ∼ T ′ montre que A ∼ T ′ (transitivité de la
similitude matricielle) et donc A est encore trigonalisable.
 
De même, si f ∈ L(E) et β = (e1 , . . . , en ) est une base de E telle que T = f β soit triangulaire inférieure, alors en posant
 
β ′ = (en , . . . , e1 ) on voit que f β ′ = T ′ est triangulaire supérieure. Autrement dit, pour la trigonalisation, on pourra
considérer indifféremment des matrices triangulaires supérieures ou inférieures.

– On voit que f ∈ L(E) est trigonalisable si et seulement si il existe une base β = (e1 , . . . , en ) de E telle que
∀ k ∈ {1, . . . , n} , f (ek ) ∈ Vect(e1 , . . . , ek ) .

On admet le théorème suivant, qui caractérise les matrices ou endomorphismes trigonalisables :

Théorème 14
(i) f ∈ L(E) est trigonalisable ⇐⇒ χf est scindé sur K.
(ii) A ∈ Mn (K) est trigonalisable ⇐⇒ χA est scindé sur K.

Preuve
Le sens direct (⇒) est évident. En effet, si par exemple A ∈ Mn (K) est trigonalisable alors on a
 
λ1 (∗)
A∼T = .. donc χA (X) = χT (X) = (X − λ1 ) · · · (X − λn ) ,
. 
(0) λn

qui est bien scindé sur K. La réciproque se prouve par récurrence sur n et est admise (voir la preuve en appendice).

Corollaire
Soit A ∈ Mn (K) telle que χA est scindé sur K. Alors

tr(A) = λ1 + · · · + λn et det(A) = λ1 · · · λn ,

où λ1 , . . . , λn désignent les valeurs propres de A, répétées autant de fois que leur multiplicité. De même pour f ∈ L(E) .

14
Preuve
Dans la preuve précédente on a écrit χA (X) = χT (X) = (X − λ1 ) · · · (X − λn ), donc les scalaires λ1 , . . . , λn sont bien
les valeurs propres de A répétées autant de fois que leur multiplicité. La trace et le déterminant étant des invariants de
similitude, on a tr(A) = tr(T ) et det(A) = det(T ).

Remarques
– Tout polynôme étant scindé sur K = C (théorème de d’Alembert-Gauss), on voit que toute matrice de Mn (C) est
trigonalisable, de même que tout endomorphisme sur un C-ev de dimension finie.
Une matrice de Mn (R) qui n’est pas trigonalisable sur R peut être considérée comme un élément de Mn (C) et alors on
peut la trigonaliser sur C mais dans ce cas P et T sont complexes, même si A est réelle.

– Soit A ∈ M3 (K) possédant une valeur propre double λ et une valeur propre simple µ. Déjà A est trigonalisable car χA est
scindé. On sait aussi que dim(Eµ ) = 1 et, dans le cas où A n’est pas diagonalisable, c’est que dim(Eλ ) = 1.
Alors, en choisissant V1 un Vp associé à la vp µ, V2 un
 Vp associé
 à la vp λ et V3 un vecteur quelconque tel que (V1 , V2 , V3 )
soit une base M3,1 (K), on obtient une matrice P = V1 V2 V3 ∈ GL3 (R) telle que

AV AV2 AV3
 1 
V1 µ 0 a
A = P × V2  0 λ b  × P −1 = P T P −1 ,
V3 0 0 λ
et T est bien triangulaire supérieure.
!
a
Pour déterminer les coefficients inconnus dans T , on peut utiliser que AP = P T donc AV3 = P b .
λ
En réalité, on peut toujours trouver un vecteur V3 tel que a = 0 et b = 1, et donc on le cherchera sous forme indéterminée
!
µ 0 0
vérifiant AV3 = V2 + λV3 , et on obtiendra que A = P 0 λ 1 P −1 .
0 0 λ

Exemple
!
2 −1 1
Trigonaliser la matrice A = 1 0 2 ∈ M3 (R) en utilisant la remarque précédente.
1 −1 3
• Étape 1 : valeurs propres.
On obtient χA (λ) par la règle de Sarrus et on voit que 1 est racine évidente :

λ−2 1 −1
χA (λ) = −1 λ −2 = λ3 − 5λ2 + 8λ − 4 = (λ − 1)(λ2 − 4λ + 4) = (λ − 1)(λ − 2)2 .
−1 1 λ−3

χA est scindé sur R donc A est trigonalisable. 1 est vp simple de A et 2 est vp double.

• Étape 2 : espaces propres.


!
1 −1 1
◦ E1 est une droite car la vp 1 est simple. On a E1 = Ker(A − I3 ) = Ker(B) où B = 1 −1 2 . On voit que les
1 −1 2
!
1
colonnes de B vérifient C1 + C2 = 0 donc V1 = 1 ∈ E1 et donc E1 = R V1 .
0
!
0 −1 1
◦ E2 = Ker(A − 2I3 ) = Ker(C) où C = 1 −2 2 . On voit que C est de rang 2 donc Ker(C) = E2 est de dimension
1 −1 1
3 − 2 = 1 ce qui montre que A n’est pas diagonalisable
! (théorème 11). Les colonnes de C vérifient C2 + C3 = 0 donc,
0
puisque E2 est une droite, E2 = R V2 où V2 = 1 .
1

• Étape 3 : conclusion.
Il reste à déterminer un vecteur V3 tel que AV3 = 2V3 + V2 et tel que (V1 , V2 , V3 ) soit une base de M3,1 (R).
!
x
On écrit AV3 = 2V3 + V2 ⇐⇒ (A − 2I3 )V3 = V2 ⇐⇒ CV3 = V2 et on cherche V3 sous forme indéterminée V3 = y .
z

15

 −y + z = 0
( !

z=y 1
On a donc le système x − 2y + 2z = 1 ⇐⇒ et on choisit par exemple le vecteur V3 = 0 qui convient.
 x=1 0
x−y+z =1

! !
  1 0 1 1 0 0
Enfin, P = V1 V2 V3 = 1 1 0 est bien inversible car det(P ) = 1 6= 0 et on peut affirmer que A = P 0 2 1 P −1 .
0 1 0 0 0 2
On peut alors calculer P −1 si besoin.

Exercice
Soit E un K-ev de dimension n > 1 et u ∈ L(E).
On suppose que χu (X) = X n . Montrer que un = u ◦ · · · ◦ u est l’endomorphisme nul.

 
χu est scindé sur K donc u est trigonalisable : il existe une base β = (e1 , . . . , en ) de E telle que A = u β soit triangulaire
supérieure. De plus la diagonale de A porte les racines de χu avec leur multiplicité, donc la diagonale de A est nulle. Ainsi,
on voit que u(e1 ) = 0E et pour tout i ∈ {2, . . . , n}, u(ei ) s’exprime à l’aide de e1 , . . . , ei−1 . Notons alors
F0 = {0E } et ∀ i ∈ {1, . . . , n} , Fi = Vect(e1 , . . . , ei ) .
On constate que pour tout i ∈ {1, . . . , n}, u(Fi ) ⊂ Fi−1 . En composant par u on obtient u2 (Fi ) ⊂ u(Fi−1 ) ⊂ Fi−2 , etc.
Im(un ) = un (E) = un (Fn ) ⊂ F0 = {0E } ,
donc un est l’endomorphisme nul : u est nilpotent.
Matriciellement : la diagonale principale de A est nulle, et chaque multiplication par A ajoute une diagonale de 0 : An = 0n .

V. Applications

a) Calcul des puissances d’une matrice

On convient que si A ∈ Mn (K), alors A0 = In .


 Si A est diagonalisable, A = P DP −1 avec P ∈ GLn (K) et D = diag(λ1 , . . . , λn ) alors on a A2 = P DP −1 P DP −1 =
P D2 P −1 et par une récurrence évidente,
 k 
λ1 (0)
∀k ∈ N, Ak = P Dk P −1 avec Dk =  .. .
.
(0) λkn

On peut alors calculer explicitement les coefficients de Ak en effectuant le produit matriciel P Dk P −1 .


 Si A est seulement trigonalisable, A = P T P −1 avec P ∈ GLn (K) et T ∈ T S n (K), on a encore ∀ k ∈ N , Ak = P T k P −1
mais cette fois T k n’est pas aussi simple à calculer que Dk . On peut quand même affirmer que
   k 
λ1 ∗ λ1 ∗
si T =  .. alors ∀ k ∈ N , Tk =  ..
.  . 
(0) λn (0) λkn

(mais les coefficients indéterminés ont changé) ce qui se démontre par récurrence sur l’entier k.

On peut déterminer les puissances des matrices triangulaires supérieures intéressantes de petites tailles :

Proposition 15
 n  n(n−1) n−2

 n   λ 1 0 λn nλn−1 λ
λ 1 λn nλn−1 2
∀n ∈ N, = ; 0 λ 1 = 0 λn nλn−1  .
0 λ 0 λn
0 0 λ 0 0 λn

Preuve
Montrons par exemple la seconde formule, la première se prouvant de manière identique ou bien par récurrence sur n.
! ! !
λ 1 0 0 1 0 0 0 1
On peut écrire T = 0 λ 1 = λI3 + N où N = 0 0 1 . On voit que N 2 = 0 0 0 et N 3 = 03 .
0 0 λ 0 0 0 0 0 0

16
De plus les matrices N et λI3 commutent, c.-à-d. N × λI3 = λI3 × N et donc on a droit à la formule du binôme :
n      
n n
X n k n−k n n n−1 n n−2 2
T = (λI3 + N ) = N × (λI3 ) = λ I3 + λ N+ λ N + 03 + · · · + 03
k 1 2
k=0

n n−1 n(n − 1) n−2 2


= λ I3 + nλ N+ λ N d’où le résultat.
2
Remarque  
µ 0 0
! µn 0 0
On calcule les puissances de la matrice T = 0 λ 1 par la même méthode : ∀ n ∈ N , T n = 0 λn nλn−1 .
0 0 λ 0 0 λn

Exemple !
2 −1 1
Calculons les puissances de A = 1 0 2 .
1 −1 3
! ! !
1 0 1 1 0 0 0 1 −1
On a déjà obtenu A = P T P −1
avec P = 1 1 0 et T = 0 2 1 . On obtient facilement P −1
= 0 0 1 ,
0 1 0 0 0 2 1 −1 1
donc ! ! !
1 0 1 1 0 0 0 1 −1
n n −1
∀n ∈ N, A = PT P = 1 1 0 0 2n n2n−1 0 0 1 .
0 1 0 0 0 2n 1 −1 1
Il est alors inutile d’aller plus loin dans la plupart des exercices d’applications comme on va le voir par la suite.

Exercice
Soit A ∈ Mp (K) telle que A2 − 3A + 2Ip = 0p . Déterminer les puissances de A.

Ici on ne peut pas réduire la matrice indéterminée A, on utilise l’une des méthodes classiques suivantes :
◮ 1re méthode : pour tout entier n, An est une combinaison linéaire des matrices A et Ip .
Autrement dit, il existe deux suites de réels (αn ) et (βn ) telles que ∀ n ∈ N , An = αn A + βn Ip .
C’est vrai pour n = 0 en posant α0 = 0 et β0 = 1 et si la relation est vérifiée au rang n ∈ N alors on a

An+1 = A.An = A(αn A + βn Ip ) = αn A2 + βn A = αn (3A − 2Ip ) + βn A = (3αn + βn )A − 2αn Ip ,


(
αn+1 = 3αn + βn
et donc la relation est vérifiée au rang n + 1 en posant (attention à ne pas faire d’identification abusive
βn+1 = −2αn
car A et Ip peuvent ne pas être linéairement indépendantes, par exemple A peut être égale à Ip ).
On en déduit que ∀ n ∈ N , αn+2 = 3αn+1 − 2αn , ce qui est une relation de récurrence linéaire d’ordre 2, et avec les conditions
initiales α0 = 0 et α1 = 1, on peut déterminer (αn ) puis (βn ) comme on le verra au paragraphe suivant.

◮ 2de méthode : on effectue la division euclidienne du polynôme X n par le polynôme annulateur de A, c’est-à-dire le polynôme
X 2 − 3X + 2 = (X − 2)(X − 1). Puisque le diviseur est de degré 2, le reste est de degré 6 1, on peut donc écrire

∀n ∈ N, X n = (X − 2)(X − 1)Qn (X) + αn X + βn


où (αn , βn ) ∈ R2 .
(
αn + βn = 1
On détermine αn et βn en remplaçant successivement X par 1 puis 2, ce qui donne d’où on tire αn = 2n −1
2αn + βn = 2n
et βn = 2 − 2n . Enfin, on peut substituer A à X dans la relation obtenue (réfléchir) ce qui donne

An = αn A + βn Ip = (2n − 1)A + (2 − 2n )Ip .

b) Systèmes de récurrences linéaires homogènes du premier ordre à coefficients constants

Ce qui suit n’est pas exigible, il faut le considérer comme un exercice.


Par commodité d’écriture, on présente ici la méthode pour un système de taille 3, la méthode vaut bien sûr pour un système
de taille quelconque.

17
Il s’agit de déterminer les suites u, v et w d’éléments de K vérifiant le système

 un+1 = a11 un + a12 vn + a13 wn

∀n ∈ N, vn+1 = a21 un + a22 vn + a23 wn (S)

wn+1 = a31 un + a32 vn + a33 wn

où les aij sont des scalaires, et où u0 , v0 et w0 sont éventuellement donnés dans K.


!
un
Pour tout entier n on pose Xn = vn de sorte que (S) ⇐⇒ Xn+1 = AXn où A = (aij )16i,j63 .
wn
Par une récurrence évidente il vient
∀n ∈ N, Xn = An X0 ,
donc il suffit d’obtenir la matrice An . On réduit A en A = P T P −1 où T est diagonale ou triangulaire supérieure, suivant si
A est diagonalisable ou non (dans le pire des cas on peut toujours trigonaliser A sur C) et alors on a Xn = P T n P −1 X0 .

Exemple

 un+1 = 2un − vn + wn

Déterminer les suites u, v et w définies par u0 = 1, v0 = 0, w0 = 0 et ∀ n ∈ N , vn+1 = un + 2wn

wn+1 = un − vn + 3wn

!
2 −1 1
Ici (S) ⇐⇒ Xn+1 = AXn où A = 1 0 2 et on a déjà obtenu An plus haut, il vient donc
1 −1 3
! ! ! !
1 0 1 1 0 0 0 1 −1 1
Xn = An X0 = P T n P −1 X0 = 1 1 0 0 2n n2n−1 0 0 1 0
0 1 0 0 0 2n 1 −1 1 0
! ! !
1 0 1 1 0 0 0
= 1 1 0 0 2n n2n−1 0
0 1 0 0 0 2n 1
! !
1 0 1 0
= 1 1 0 n2n−1
0 1 0 2n
!
2n
= n2n−1
n2n−1

d’où ∀ n ∈ N , un = 2n , vn = n2n−1 et wn = n2n−1 .


Remarquer qu’on a commencé le calcul par la droite pour éviter d’avoir à multiplier les matrices carrées entre elles, ce qui
peut être fastidieux.

c) Récurrences linéaires homogènes d’ordre 2 à coefficients constants

De même, ça n’est pas exigible et la méthode vaut pour une récurrence linéaire d’ordre quelconque.
On cherche ici à déterminer les suites d’éléments de K vérifiant une relation de récurrence de la forme

∀n ∈ N, un+2 = aun+1 + bun (E)

où a et b sont des scalaires, b 6= 0, et où u0 et u1 sont éventuellement donnés dans K.


 
u
On se ramène à un système de récurrences linéaires en posant ∀ n ∈ N , Xn = u n et alors
n+1

      
un+1 0 1 un 0 1
(E) ⇐⇒ Xn+1 = un+2
= b a un+1
= AXn , où A = b a
,

et ainsi on est ramené au paragraphe précédent, c’est-à-dire au calcul des puissances de la matrice A car Xn = An X0 .
(
un+1 = vn
On pouvait aussi introduire la suite auxiliaire v définie par vn = un+1 et résoudre le système
vn+1 = aun+1 + bun .

Remarques
– Le polynôme caractéristique de la matrice « compagnon » A est χA (X) = X 2 − aX − b et il s’obtient à la lecture de (E).

18
– L’équation X 2 − aX − b = 0 s’appelle équation caractéristique de la relation (E). Ses racines sont donc les valeurs propres
de la matrice A qui apparaît en écrivant (E) sous la forme Xn+1 = AXn .

– L’équation caractéristique intervient naturellement lorsqu’on cherche des solutions de (E) géométriques, c’est-à-dire de la
forme un = xn .

La solution générale de (E) est donnée par le théorème suivant :

Théorème 16
Soit S l’ensemble des suites u d’éléments de K vérifiant la relation ∀ n ∈ N , un+2 = aun+1 + bun (E)
(i) S est un K-espace vectoriel de dimension 2.
(ii) Soit u ∈ S. Si l’équation caractéristique X 2 − aX − b = 0 possède :
 deux racines distinctes r1 et r2 dans K alors

∃ (α, β) ∈ K2 , ∀ n ∈ N , un = αr1n + βr2n ;

 une racine double r dans K alors

∃ (α, β) ∈ K2 , ∀ n ∈ N , un = (α + nβ)rn ;

 deux racines complexes conjuguées (non réelles) reiθ et re−iθ avec K = R alors

∃ (α, β) ∈ R2 , ∀ n ∈ N , un = α cos nθ + β sin nθ rn .

On détermine ensuite les scalaires α et β en fonction des données initiales u0 et u1 le cas échéant.

Preuve
(i) S est clairement un sous-espace vectoriel de KNet, de plus, un élément  de S est déterminé de manière unique par
S −→ K2
la donnée de u0 et u1 . Ainsi, l’application linéaire est un isomorphisme, ce qui montre que
(un )n∈N 7−→ (u0 , u1 )
dim(S) = dim(K2 ) = 2.
   
un 0 1
(ii) Soit u ∈ S. On a vu que Xn = vérifie Xn+1 = AXn où A = et χA (X) = X 2 − aX − b. Alors,
un+1 b a
 
r1 0
 Si A possède 2 vp distinctes r1 et r2 dans K, elle est diagonalisable et semblable à la matrice D = .
0 r2
 
r1n 0
Il existe donc une matrice P ∈ GL2 (K) telle que Xn = A X0 = P D P n n −1
X0 = P P −1 X0 .
0 r2n

Comme P et P −1 sont à coefficients constants (indépendants de n), la première ligne de l’égalité matricielle précédente
montre que la suite (un ) s’exprime comme une combinaison linéaire des deux suites (r1n ) et (r2n ).
 
Ainsi, S ⊂ Vect (r1n ), (r2n ) = F , et comme dim(S) = 2 et dim(F ) 6 2, il s’ensuit que dim(F ) = 2 et que S = F .
not

Si A possède une vp double r, A ne peut être diagonalisable car sinon elle serait égale à rI2 ce qui n’est pas le cas.
 
r 1
A est trigonalisable : il existe P ∈ GL2 (K) telle que A = P P −1 et on a
0 r
     
un n rn nrn−1 −1 u0
= Xn = A X0 = P P ,
un+1 0 rn u1

donc (un ) est combinaison linéaire à coefficients


 dans K des suites (r ) et (nr
n n−1
), donc des suites (rn ) et (nrn ) car
r 6= 0 (car b 6= 0). Ainsi, S ⊂ Vect (r ), (nr ) et comme dim(S) = 2 cette inclusion est une égalité.
n n

 Si K = R et A possède 2 vp complexes (conjuguées car χA est à coefficients réels) reiθ et re−iθ le premier point
s’applique : il existe deux complexes γ et δ tels que un = γrn einθ + δrn e−inθ . Mais (un ) est réelle donc
 
un = ℜe(un ) = rn ℜe γeinθ + δe−inθ = rn α cos nθ + β sin nθ

où α et β sont des réels. Ainsi, S ⊂ VectR (rn cos(nθ)), (rn sin(nθ)) et cette inclusion est une égalité car dim(S) = 2 .

19
Exemple
La suite de Fibonacci est la suite (Fn )n∈N définie par F0 = 0, F1 = 1 et ∀ n ∈ N , Fn+2 = Fn+1 + Fn .
√ √
1+ 5 1− 5
Ici l’équation caractéristique X − X − 1 = 0 admet deux racines réelles distinctes ϕ =
2
(nombre d’or) et ψ =
2 ( 2
α+β =0
donc il existe deux réels α et β tels que ∀ n ∈ N , Fn = αϕn + βψ n . Puis F0 = 0 et F1 = 1 donnent le système
αϕ + βψ = 1
1 1
d’où on tire facilement α = √ et β = − √ . On en déduit la formule de Binet :
5 5
1 
∀n ∈ N, Fn = √ ϕn − ψ n ,
5
qu’on démontre aussi bien par récurrence une fois connue.

20
Annexe – preuve du théorème 14
Cette preuve est hors programme. Montrons le résultat par récurrence sur n ∈ N∗ .

Le résultat est évident si n = 1 puisqu’une matrice de taille 1 est triangulaire supérieure. On suppose le résultat acquis au
rang n − 1 (n > 2) et on le démontre au rang n.
Soit E un K-ev de dimension n et f ∈ L(E) dont le polynôme caractéristique est scindé.
Puisque χf est scindé, il possède au moins une racine λ dans K. Considérons un vecteur propre e1 de f pour la vp λ et une
famille (e2 , . . . , en ) telle que β = (e1 , . . . , en ) soit une base de E (possible d’après le théorème de la base incomplète).
La matrice de f dans β est de la forme suivante
 
λ L
   0 
A = f β = 
 ..

, où B ∈ Mn−1 (K) et L ∈ M1,n−1 (K) .
 . B 
0

Or χf (X) = χA (X) = (X − λ)χB (X), ce qui s’obtient en développant le déterminant par rapport à la première colonne.
Puisque χf est scindé, on en déduit que χB est scindé donc, par hypothèse de récurrence, la matrice B est trigonalisable.
Si on écrit B = P T P −1 avec P ∈ GLn−1 (K) et T ∈ T Sn−1 (K) , on a donc
       
λ L 1 0 ··· 0 λ LP 1 0 ··· 0
 0   0   0   0 
A = 
 ..  = 
 
..
 
× ..
 
× ..

.
 . P T P −1   . P   . T   . P −1 
0 0 0 0
| {z } | {z } | {z }
Q ∈ T Sn (K) Q−1

La matrice A est trigonalisable, donc f également, ce qui achève la récurrence.

21
Appendice – programme (2022)

Après avoir introduit le vocabulaire des éléments propres en dimension quelconque, cette partie s’intéresse de manière plus appro-
fondie au cas de la dimension finie, et à la question de la diagonalisabilité d’un endomorphisme ou d’une matrice carrée.
Tout développement sur les polynômes d’endomorphisme est hors programme.

Contenus Capacités & commentaires


a) Éléments propres d’un endomorphisme, d’une matrice carrée

Droite stable par un endomorphisme.


Valeur propre, vecteur propre (non nul), sous-espace propre Équation aux éléments propres f (x) = λx.
d’un endomorphisme en dimension quelconque.
Spectre d’un endomorphisme en dimension finie. Notation Sp(f ).
La somme d’une famille finie de sous-espaces propres d’un en- Toute famille de vecteurs propres associés à des valeurs propres
domorphisme est directe. distinctes est libre.
Valeur propre, vecteur propre, sous-espace propre et spectre Équation aux éléments propres AX = λX.
d’une matrice carrée. Notation Sp(A).

b) Polynôme caractéristique

Pour A ∈ Mn (K), la fonction x 7→ det(x In − A) est polyno- La démonstration n’est pas exigible pour n > 4.
miale, unitaire, de degré n.
Polynôme caractéristique d’une matrice carrée, d’un endomor- Notations χA , χf .
phisme d’un espace vectoriel de dimension finie.
Les valeurs propres d’un endomorphisme de dimension finie sont
les racines de son polynôme caractéristique.
Multiplicité d’une valeur propre. Majoration de la dimension Deux matrices semblables ont le même polynôme caractéris-
d’un sous-espace propre par la multiplicité. tique, donc les mêmes valeurs propres avec mêmes multiplici-
tés.

c) Endomorphismes et matrices diagonalisables

Un endomorphisme d’un espace vectoriel de dimension finie est Interprétation : existence d’une base de vecteurs propres.
dit diagonalisable s’il existe une base dans laquelle sa matrice Cas des projecteurs, des symétries.
est diagonale.
Une matrice carrée est dite diagonalisable si elle est semblable Interprétation en termes d’endomorphisme.
à une matrice diagonale. Calcul des puissances d’une matrice diagonalisable.
Dans la pratique des cas numériques, on se limite à n = 2 ou
n = 3.
Un endomorphisme d’un espace vectoriel E de dimension finie
est diagonalisable si et seulement si la somme de ses sous-
espaces propres est égale à E, si et seulement si la somme des
dimensions de ses sous-espaces propres est égale à la dimension
de E.
Un endomorphisme est diagonalisable si et seulement si son
polynôme caractéristique est scindé sur K et si, pour toute
valeur propre, la dimension du sous-espace propre associé est
égale à sa multiplicité.
Un endomorphisme d’un espace vectoriel de dimension n ayant Cas où χf est scindé à racines simples.
n valeurs propres distinctes est diagonalisable. Traduction matricielle des résultats précédents relatifs aux en-
domorphismes.

d) Endomorphismes et matrices trigonalisables

Un endomorphisme d’un espace vectoriel de dimension finie est


dit trigonalisable s’il existe une base dans laquelle sa matrice
est triangulaire.
Une matrice carrée est dite trigonalisable si elle est semblable
à une matrice triangulaire.
Un endomorphisme est trigonalisable si et seulement si son La démonstration est hors programme.
polynôme caractéristique est scindé. Traduction matricielle.

22
Contenus Capacités & Commentaires
Toute matrice de Mn (C) est trigonalisable. Aucune technique de trigonalisation effective n’est au pro-
gramme.
Expressions du déterminant et de la trace d’un endomorphisme
trigonalisable, d’une matrice trigonalisable en fonction de ses
valeurs propres.

23

Vous aimerez peut-être aussi