Vous êtes sur la page 1sur 31

Chapitre 1

Réduction des endomorphismes

Motivation
Point de vue matriciel
Transformer une matrice carrée A en une matrice semblable B la “plus simple possible”.
Dans la situation idéale, la matrice B sera diagonale, et on dira alors que A est diagonalisable.
Dans les cas moins favorables, on pourra seulement transformer A en une matrice B trian-
gulaire (et on dira que A est trigonalisable) voire triangulaire par blocs.

Point de vue endomorphisme


Décomposer un endomorphisme u en une somme finie u = pi=1 ui d’endomorphismes ui
P
“plus simples”.
Dans les cas les plus favorables, les ui seront, à un facteur multiplicatif près, des projections
sur un sous-espace vectoriel de E.

1.1 Rappels et notations


Dans tout ce qui suit, K désigne R ou C, et E est un K-espace vectoriel de dimension finie
n ≥ 1.
Si u ∈ End(E), on note u0 = Id où Id est l’application identité, u1 = u, u2 = u ◦ u puis,
up+1 = u ◦ up = up ◦ u.
Si u et v sont deux éléments de End(E), on notera souvent uv au lieu de u◦v l’endomorphisme
composé.
On notera diag(λ1 , · · · , λn ) la matrice carrée diagonale de taille n suivante :
 
λ1 0 · · · 0
. 
 0 λ2 . . . .. 

diag(λ1 , · · · , λn ) =  . .
 .
 .. .. ... 0  
0 · · · 0 λn

Sommes de sous-espaces vectoriels : Considérons deux sous-espaces vectoriels 1 F et G de


E. On définit un troisième sous-espace vectoriel F + G par
déf
F + G = {x ∈ E | ∃(y, z) ∈ F × G, x = y + z}.
1. ou s.e.v. en abrégé

1
2 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

On dit que F et G sont en somme directe si F ∩ G = {0}. On note alors F ⊕ G la somme


F + G, et tout élément x de F ⊕ G se décompose de façon unique en x = y + z avec y ∈ F et
z ∈ G.
Homothéties : Soit λ ∈ K. L’application

E −→ E
x 7−→ λx

est un endomorphisme sur E appelé homothétie de rapport λ.


L’homothétie de rapport 1 est appelée identité et notée Id.
Projecteurs : Soient F et G deux s.e.v. de E tels que E = F ⊕ G. Tout x ∈ E se décompose
alors de manière unique en x = y + z avec avec y ∈ F et z ∈ G. On appelle projecteur sur F
parallèlement à G l’endomorphisme définit par p(x) = y. On rappelle que p2 = p, Im p = F et
Ker p = G.
Réciproquement, tout endomorphisme p tel que p2 = p est le projecteur sur Im p pa-
rallèlement à ker p.
Symétries : Soient F et G deux s.e.v. de E tels que E = F ⊕ G. Pour x ∈ E se décomposant
en x = y + z, on pose s(x) = y − z. L’endomorphisme s obtenu est appelé symétrie par rapport
à F parallèlement à G, et vérifie s2 = Id. On dit que s est une involution.
Réciproquement, toute involution est une symétrie.
Matrice d’un endomorphisme : Notons B = (e1 , · · · , en ) une base de E. Soit u un endomor-
phisme de End(E). Alors il existe des scalaires aij de K tels que
n
X
∀j ∈ {1, · · · , n}, u(ej ) = aij ei .
i=1

La matrice A = (aij )1≤i,j≤n est appelée matrice de u par rapport à la base B.


Exemple : La matrice d’une homothétie de rapport λ est
 
λ 0 ··· 0
.. .
. .. 

0 λ
A=  .. .. ..
.

. . . 0
0 ··· 0 λ

Dans le cas λ = 1 cette matrice est notée In , et appelée matrice identité.


0
Matrice dePnpassage : Soient B = (e1 , · · · , en ) et B = (f1 , · · · , fn ) deux bases de E. Supposons
que fj = i=1 pij ei . La matrice P = (pij )1≤i,j≤n est appelée matrice de passage de la base B
vers la base B 0 . Une telle matrice est toujours inversible.
Effet d’un changement de base : Soient B = (e1 , · · · , en ) et B 0 = (f1 , · · · , fn ) deux bases de
E, et P la matrice de passage correspondante. Soit u un endomorphisme de End(E) de matrice
A par rapport à la base B et de matrice B par rapport à la base B 0 . Alors on a la formule

B = P −1 AP.

On dit que les matrices A et B sont semblables, et l’on note A ∼ B.


Matrices par blocs : Il est souvent pratique de décomposer une matrice M de Mn (K) en blocs
plus petits : par exemple
 
A B
M= avec A ∈ Mp (K), B ∈ Mp,n−p (K), C ∈ Mn−p,p (K) et D ∈ Mn−p (K).
C D
1.2. SOUS-ESPACES STABLES 3

Pour faire le produit de matrices par blocs, on procède comme pour faire un produit habituel :
 0
A B0 AA0 + BC 0 AB 0 + BD0
   
A B
= .
C D C 0 D0 CA0 + DC 0 CB 0 + DD0
Tout ceci se généralise sans difficultés à des matrices comportant plus de blocs.
Attention : Les produits ci-dessus sont des produits de matrices. Il est interdit de permuter
l’ordre des termes.
Calcul du déterminant :
• Si A ∈ Mn (K) et B ∈ Mn (K), alors det AB = det A det B.
• Si A ∈ Mn (K) et B ∈ Mn (K) sont semblables alors det A = det B.
• Si A ∈ Mp (K), B ∈ Mp,n−p (K) et C ∈ Mn−p (K), on a
 
A B
det = det A det C.
0 C

1.2 Sous-espaces stables


Définition 1.2.1 Soit u ∈ End(E) et F un s.e.v de E. On dit que F est un sous-espace
stable de u si u(F ) ⊂ F .
Remarque : Les sous-espaces {0} et E sont stables par tout endomorphisme. De même, Im u
et Ker u est toujours stable par u.
Définition 1.2.2 Soit u ∈ End(E) et F stable par u. On appelle endomorphisme induit par
u sur F l’élément uF de End(F ) défini pour tout x de F par uF (x) = u(x).
Lorsque l’on parvient à trouver deux sous-espaces stables par u, F et G tels que E = F ⊕ G,
alors il existe une base de E par rapport à laquelle la matrice de E est diagonale par blocs. Avant
d’énoncer le résultat précis, donnons la définition de base adaptée :
Définition 1.2.3 Soit F et G deux s.e.v de E tels que E = F ⊕ G. On dit que (e1 , · · · , en )
est une base de E adaptée à la décomposition E = F ⊕ G si (e1 , · · · , em ) est une base de F et
(em+1 , · · · , en ) est une base de G.
Proposition 1.2.4 Soit F , G, deux s.e.v de E tels que E = F ⊕ G, et u ∈ End(E). Soit
déf
B = (e1 , · · · , en ) une base de E adaptée à la décomposition E = F ⊕ G. Alors on a l’équivalence
entre les deux énoncés suivants :
i) Les s.e.v F et G sont stables par u,
ii) La matrice de u par rapport à la base B est de la forme
 
A 0
matB f = ,
0 B
avec A ∈ Mm (K) et B ∈ Mn−m (K).
Preuve : Pour le sens direct, on utilise simplement que u(ei ) ∈ F = Vect(e1 , · · · , em ) pour
i ∈ {1, · · · , m} et que u(ei ) ∈ G = Vect(em+1 , · · · , en ) pour i ∈ {m + 1, · · · , n}.
Réciproquement, si la matrice de f par rapport à la base B est donnée par
 
A 0
matB f = ,
0 B
alors u(ei ) ∈ F pour tout i ∈ {1, · · · , m} et u(ei ) ∈ G pour i ∈ {m + 1, · · · , n}. Comme
F = Vect(e1 , · · · , em ) et G = Vect(em+1 , · · · , en ), on en déduit la stabilité de F et de G
par u.
4 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Remarque : Généralisation au cas de E = E1 ⊕ · · · ⊕ Ep .


Considérons une base B adaptée à la décomposition ci-dessus. Alors u ∈ End(E) laisse tous
les sous-espaces Ei invariants si et seulement si sa matrice est diagonale par blocs :
 
A1 0 · · · 0
 0 A2 · · · 0 
matB f =  . . ,
 
. . . .
 . . . 0
0 0 · · · Ap

où le k-ième bloc diagonal est une matrice carrée de taille dim Ek .
Exemples : Considérons F et G de dimension respective m et n − m, et tels que E = F ⊕ G.
Soit B une base adaptée à la décomposition E = F ⊕ G.
1. Soit p le projecteur sur F parallèlement à G. Alors
 
Im 0
matB p = .
0 0

2. Soit s la symétrie par rapport à F parallèlement à G. Alors


 
Im 0
matB s = .
0 −In−m

1.3 Valeurs propres, vecteurs propres


1.3.1 Le cas des endomorphismes
Définition 1.3.1 Soit u ∈ End(E). On dit que λ ∈ K est valeur propre de u s’il existe un
élément x non nul de E tel que
u(x) = λx.
Si λ est une valeur propre de u, tout élément x de E vérifiant la relation ci-dessus est appelé
vecteur propre de u associé à la valeur propre λ.
L’ensemble des valeurs propres de u est appelé spectre de u, et noté Sp(u). C’est un sous-
ensemble (éventuellement vide) de K.

Définition 1.3.2 Si λ est une valeur propre de l’endomorphisme u de End(E), on appelle sous-
espace propre associé à λ l’ensemble des vecteurs propres de u pour λ. Ce sous-espace se note
Eλ (u) (ou simplement Eλ en l’absence d’ambiguı̈té).

Proposition 1.3.3 Si λ est une valeur propre de u, l’ensemble Eλ est un sous-espace vectoriel
de E non réduit à {0}, et l’on a
Eλ = Ker (u − λId).

Remarque : En particulier, 0 est valeur propre de u si et seulement si Ker u n’est pas réduit
à 0, c’est-à-dire si et seulement si u n’est pas injectif. Dans ce cas E0 n’est autre que Ker u.
Proposition 1.3.4 On a les propriétés suivantes :
i) Si λ est une valeur propre de u alors Eλ est stable par u. L’endomorphisme uEλ induit par
u sur Eλ est égal à λ IdEλ .
ii) Si λ et µ sont deux valeurs propres distinctes de u, alors Eλ et Eµ sont en somme directe.
iii) Soit (x1 , · · · , xp ) une famille de p vecteurs propres non nuls de E associés à des valeurs
propres λ1 , · · · , λp deux à deux distinctes. Alors (x1 , · · · , xp ) est une famille libre.
1.3. VALEURS PROPRES, VECTEURS PROPRES 5

Preuve : Prouvons i). Soit x ∈ Eλ . On a u(u(x)) = u(λx) = λu(x) par linéarité de u. Par
conséquent, u(x) ∈ Eλ , et Eλ est donc stable par u. On peut donc parler d’endomorphisme
induit par u sur Eλ , et il est trivial que uEλ = λ IdEλ .
Si maintenant x est vecteur propre pour λ et pour µ, on a u(x) = λx = µx, donc (λ−µ)x =
0. On en déduit que λ = µ ou x = 0, ce qui prouve ii).
Pour prouver iii), considérons un p-uplet (α1 , · · · , αp ) de Kp tel que
p
X
αi xi = 0.
i=1

En appliquant successivement u, u2, · · · , up à l’égalité ci-dessus, on obtient le système


suivant :


 α1 x1 + α2 x2 + · · · + αp xp = 0
 λ α x
1 1 1 + λ 2 α2 x2 + · · · + λp αp xp = 0
(S) :

 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... ..
 p−1 p−1 p−1
λ1 α1 x1 + λ2 α2 x2 + · · · + λp αp xp = 0.

Si l’on considère (α1 x1 , · · · , αp xp ) comme les inconnues du système, la matrice de (S)


n’est autre que la matrice de Vandermonde associée au p-uplet (λ1 , · · · , λp ). Comme les
λi sont deux à deux distincts, on en déduit que (S) est de Cramer. Son unique solution
est clairement
α1 x1 = α2 x2 = · · · = αp xp = 0.
Comme tous les xi sont distincts de 0, on conclut que tous les αi sont nuls.

Proposition 1.3.5 Si u et v sont deux endomorphismes de End(E) qui commutent 2 alors tout
sous-espace propre de u est stable par v. De même Im u est stable par v.

Preuve : Soit λ une valeur propre de u, et x un vecteur propre associé. On a u(v(x)) =


v(u(x)) = v(λx) = λv(x), donc v(x) ∈ Eλ .
Si maintenant y ∈ Im u, alors il existe x ∈ E tel que y = u(x). Par conséquent, v(y) =
v(u(x)) = u(v(x)) ∈ Im u.

Proposition 1.3.6 Soit u ∈ End(E), et F un sous-espace stable par u. Notons v l’endomor-


phisme induit par u sur F . Alors toute valeur propre de v est valeur propre de u, et l’on a
Eλ (v) = Eλ (u) ∩ F .
Réciproquement, si Eλ (u) ∩ F n’est pas réduit à {0}, alors λ est valeur propre de v.

Preuve : Il suffit de prouver Eλ (v) = Eλ (u) ∩ F . L’inclusion Eλ (v) ⊂ Eλ (u) découle de la


définition de v. Et bien sûr, on doit avoir Eλ (v) ⊂ F puisque v est défini sur F !
Réciproquement, si x ∈ Eλ (u) ∩ F , alors v(x) est bien défini puisque x ∈ F , et vaut
u(x) = λx puisque x ∈ Eλ (u).
Exemples :
1. Projecteurs :
Supposons que E = F ⊕ G avec F et G non réduits à {0}. Soit p le projecteur sur F
parallèlement à G. Alors

Sp(p) = {0, 1}, E0 = Ker p = G et E1 = Im p = F.


2. c’est-à-dire que uv = vu
6 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

2. Symétries :
Si l’on considère maintenant la symétrie s par rapport à F parallèlement à G, alors on a

Sp(s) = {−1, 1}, E−1 = G et E1 = F.

3. Endomorphismes nilpotents :
Définition 1.3.7 On dit que u ∈ End(E) est un endomorphisme nilpotent s’il existe
un p ∈ N tel que up = 0. Le plus petit p vérifiant cette propriété est appelé indice de
nilpotence de u.
Proposition 1.3.8 Si u est un endomorphisme nilpotent alors Sp(u) = {0}.
Preuve : Si Sp(u) ne contenait pas 0, alors Ker u serait réduit à {0}. Soit maintenant
x ∈ E arbitraire. Alors up (x) = 0 donc u(up−1 (x)) = 0 d’où up−1 (x) = 0. Une
récurrence élémentaire permet de montrer que up (x) = up−1 (x) = · · · = u(x) = x = 0,
ce qui est absurde puisque E n’est pas réduit à {0} ! Donc Sp(u) ⊃ {0}.
Montrons Sp(u) ⊂ {0}. Soit λ ∈ Sp(u) et x un vecteur propre (non nul) associé. On
établit aisément que uk (x) = λk x pour tout k ≥ 1. En particulier up (x) = λp x = 0.
Donc λp = 0, d’où λ = 0.
4. Deux exemples “pathologiques” en dimension infinie : Considérons l’espace vec-
déf
toriel réel E = C ∞ (R; R) et 
E −→ E
u :
f 7−→ f 0 .
Alors tout λ ∈ R est valeur propre de u avec pour vecteur propre associé la fonction
fλ : x 7→ eλx . On conclut que Sp(u) = R.
Prenons maintenant E = K[X] et

E −→ E
u :
P 7−→ XP.

Dire que u(P ) = λP signifie que (X − λ)P = 0. Comme X − λ n’est pas le polynôme nul,
l’intégrité de K[X] entraı̂ne que P = 0. Donc Sp(u) = ∅.
Ces quelques exemples montrent que le spectre de u peut prendre des formes très diverses lorsque
E est un espace vectoriel quelconque.
Nous supposons désormais que E est un espace vectoriel de dimension finie n ≥ 1. Nous
allons alors établir que Sp(u) contient au plus n éléments. Lorsque K = C, nous verrons que
Sp(u) ne peut pas être vide.

1.3.2 Le cas des matrices


Définition 1.3.9 Soit A ∈ Mn (K). On dit que λ ∈ K est valeur propre de A si la matrice
A − λIn n’est pas inversible. L’ensemble des valeurs propres de A est appelé spectre de A, et
noté Sp(A).

Proposition 1.3.10 Soit A ∈ Mn (K). Les propriétés suivantes sont équivalentes :


i) λ ∈ Sp(A),
ii) rg (A − λIn ) < n,
iii) il existe un vecteur colonne non nul X de Kn tel que AX = λX.
1.4. POLYNÔME CARACTÉRISTIQUE 7

Preuve : i) ⇒ ii) : Comme λ ∈ Sp(A), la matrice A − λIn n’est pas inversible. Son rang est
donc strictement inférieur à n.
ii) ⇒ iii) : Soit u l’endomorphisme de matrice A par rapport à la base canonique
(1 , · · · , n ) de Kn . On a donc rg (u − λ Id) < n. Donc, d’après le théorème du rang,
Ker (u − λ Id) n’est pas réduit à {0} et l’on peut trouver x = x1 1 + · · · + xn n tel que
u(x) = λx. Le vecteur colonne de composantes (x1 , · · · , xn ) répond à la question.
iii) ⇒ i) : Si u désigne l’endomorphisme défini ci-dessus, et x = x1 1 + · · · + xn n où les
xi sont les composantes de X, alors x ∈ Ker (u − λ Id). Donc u − λIn n’est pas inversible,
et la matrice (par rapport à la base canonique) correspondante A − λIn non plus.

Définition 1.3.11 Si λ est valeur propre de A, tout vecteur colonne X tel que AX = λX est
appelé vecteur propre de A.

Proposition 1.3.12 Si A et B sont deux matrices semblables, alors Sp(A) = Sp(B)

Preuve : Il suffit de remarquer que si A et B sont semblables, alors A − λIn et B − λIn


également. Par conséquent A − λIn et B − λIn sont inversibles simultanément.

Proposition 1.3.13 Soit u ∈ End(E), B = (e1 , · · · , en ) une base de E et A la matrice de


u parPrapport à B. Alors Sp(A) = Sp(u). De plus, si λ est valeur propre de A ou u alors
n
x = i=1 xi ei est vecteur propre de u pour la valeur propre λ si et seulement si le vecteur
déf
colonne X = t (x1 , · · · , xn ) est vecteur propre de A pour λ.

Preuve : La définition de Sp(A) et Sp(u) entraı̂ne que Sp(A) = Sp(u). Par ailleurs, si l’on
utilise les notations de la proposition, l’égalité u(x) = λx est équivalente à AX = λX.

Définition 1.3.14 On dit que A ∈ Mn (K) est une matrice nilpotente s’il existe un p ∈ N
tel que Ap = 0. Le plus petit p vérifiant cette propriété est appelé indice de nilpotence de A.

Exemple : Toute matrice triangulaire supérieure avec des 0 sur la diagonale est nilpotente.
Proposition 1.3.15 Une matrice A est nilpotente si et seulement si l’endomorphisme u ∈
End(Kn ) de matrice A par rapport à la base canonique est nilpotent.
 k
Preuve : On utilise simplement la formule matB (uk ) = matB (u) vraie pour tout k ∈ N.

Proposition 1.3.16 Si A est une matrice nilpotente alors Sp(A) = {0}.

Preuve : On considère l’endormorphisme u ∈ End(Kn ) de matrice A par rapport à la base


canonique, et on applique la proposition 1.3.8.

1.4 Polynôme caractéristique


Le calcul du polynôme caractéristique (défini dans la proposition qui suit) va nous permettre
de déterminer les valeurs propres d’une matrice ou d’un endomorphisme.
Proposition 1.4.1 Soit A ∈ Mn (K). La fonction
déf
λ 7→ χA (λ) = det(A − λIn )
coı̈ncide avec un polynôme de degré n et de coefficient dominant (−1)n , noté χA . Ce polynôme
est appelé polynôme caractéristique de A. De plus, on a

χA = (−1)n X n + (−1)n−1 X n−1 tr A + · · · + det A.


8 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Preuve : On développe l’expression suivante



a11 − λ a12 ··· a1n

a21 a22 − λ ··· a2n
det(A − λIn ) = .

..
···
··· . ···

an1 an2 ··· ann − λ

Exemples :
1. Dans le cas n = 2, on a χA = X 2 − X tr A + det A.
2. Si χA est scindé avec χA = ni=1 (λi − X), alors tr A = ni=1 λi et det A = ni=1 λi .
Q P Q

Donnons quelques propriétés importantes des polynômes caractéristiques :

Proposition 1.4.2 Soient A et B deux matrices de Mn (K). On a :


i) χA = χt A ,
ii) si A et B sont semblables alors χA = χB ,
iii) χAB = χBA .

Preuve : La preuve de i) résulte de l’identité suivante valable pour tout λ ∈ K :

det(A − λIn ) = det t (A − λIn ) = det(t A − λIn ).




Considérons deux matrices semblables A et B. Alors il existe P ∈ GLn (K) telle que
B = P −1 AP . On a visiblement

B − λIn = P −1 AP − λIn = P −1 (A − λIn )P.

Donc B − λIn et A − λIn sont semblables, et leur déterminant est donc égal.
La façon la plus élémentaire de prouver iii) consiste à passer dans M2n (K). On remarque
alors que     
λIn A −In 0 AB − λIn A
= ,
B In B In 0 In
    
λIn A In A λIn 0
= .
B In 0 −λIn B BA − λIn
Par conséquent
   
n λIn A n λIn A
(−1) det = det(AB − λIn ) et (−λ) det = λn det(BA − λIn ).
B In B In
 
λIn A
La fonction λ 7→ det est visiblement une fonction polynôme de terme dominant
B In
λn , donc non nulle. Grâce à la relation ci-dessus, on peut donc conclure que det(AB −
λIn ) = det(BA − λIn ) pour tout λ ∈ K. D’où χAB = χBA .
Voici maintenant un résultat fondamental :

Théorème 1.4.3 Soit A ∈ Mn (K). Alors λ ∈ Sp(A) si et seulement si χA (λ) = 0.

Preuve : D’après la proposition 1.3.10, λ ∈ Sp(A) si et seulement si (A − λIn ) n’est pas


inversible, donc si et seulement si det(A − λIn ) = 0.
1.4. POLYNÔME CARACTÉRISTIQUE 9

Corollaire 1.4.4 i) Si A ∈ Mn (K) avec K = R ou C, alors Sp(A) a au plus n éléments.


ii) Si A ∈ Mn (C), alors Sp(A) n’est pas vide.
iii) Si A ∈ Mn (R) alors le spectre de A dans R est inclus dans le spectre de A dans C.
Preuve : Pour i), on utilise le fait qu’un polynôme de degré n a au plus n racines.
La propriété ii) résulte du théorème fondamental de l’algèbre.
Comme l’ensemble des racines réelles d’un polynôme est inclus dans l’ensemble de ses
racines complexes, on obtient iii).
Exemples :
 
0 1
1. Soit A = .
−1 0
On a χA = X 2 + 1. Donc d’après le théorème 1.4.3, le spectre de A dans C est {−i, i}.
Mais comme χA n’a pas de racine réelle, le même théorème montre que A n’a pas de valeur
propre dans R.
2. Matrices triangulaires : Le polynôme caractéristique d’une matrice triangulaire supé-
rieure A de termes diagonaux λ1 , · · · , λn est

λ1 −X ? ··· ?

. . .
. n
0 λ2 −X . . Y
χA =
.. .. .. =
(λi − X).
. . . ? i=1

0 ··· 0 λn −X
Résultat identique pour une matrice triangulaire inférieure.
3. Matrice de Frobenius (ou matrice compagnon) : C’est le nom que l’on donne a une
matrice A ∈ Mn (K) du type
 
0 0 · · · 0 a0
1 0 · · · 0 a1 
 
A = 0 1 · · · 0 a2  .
 
 .. . . .. . .. 
. . . .. . 
0 ··· 0 1 an−1
Par définition de χA , on a

−X 0 ··· 0 a0

1
−X ··· 0 a1

..
χA = 0 1 . 0 a2 .

.. . .. . .. .. ..
.
. .

0 ··· 0 1 an−1 −X
Notons (Li ) la i-ème ligne de ce déterminant. Changer (L1 ) en (L1 ) + X(L2 ) + · · · +
X n−1 (Ln ) ne modifie pas le déterminant. Par conséquent,
· · · 0 −X n + n−1

i
P

0 0 i=0 ai X



1 −X · · · 0 a1

..
χA = 0 1 . 0 a2 .

.. . . .. .. ..

. . . . .

0 ··· 0 1 an−1 −X
En faisant un
 développement de Laplace par rapport à la première ligne, on conclut que
n n
Pn−1 k
χA = (−1) X − k=0 ak X .
10 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

De même, à tout endomorphisme défini sur un espace vectoriel E de dimension finie n, on


peut associer un polynôme caractéristique :
Définition 1.4.5 Soit u ∈ End(E) avec E de dimension finie, B une base de E, et A la matrice
déf
de u par rapport à B. On appelle polynôme caractéristique de u, le polynôme χu = χA .
Remarque : D’après la proposition 1.4.2, deux matrices semblables ont même polynôme ca-
ractéristique. La définition ci-dessus ne dépend donc pas de la base B choisie.
On dispose bien sûr du résultat fondamental suivant :
Théorème 1.4.6 Soit u ∈ End(E). Alors λ ∈ Sp(u) si et seulement si χu (λ) = 0.
Exemples :
1. Projecteurs
Supposons que E = F ⊕G avec dim F = m et dim G = n−m, et considérons p le projecteur
sur F parallèlement à G. On sait que l’on peut trouver une base B par rapport à laquelle
la matrice de p est  
Im 0
matB (p) = .
0 0
 
(1 − X)Im 0
Donc χp = det = (−1)n (X − 1)m X n−m .
0 −XIn−m
2. Symétries
Soit s la symétrie par rapport à F parallèlement à G. On peut trouver une base B par
rapport à laquelle la matrice de s est
 
Im 0
matB (s) = .
0 −In−m
 
(1 − X)Im 0
Donc χs = det = (−1)n (X − 1)m (X + 1)n−m .
0 (−1 − X)In−m
3. Endomorphismes nilpotents
On a vu que le spectre d’un endomorphisme nilpotent u était réduit à {0}. Par conséquent
χu est un polynôme de degré n et de coefficient dominant (−1)n ayant pour unique racine
0 dans C. Comme tout polynôme (non constant) est scindé sur C, on en déduit que
χu = (−X)n .

Proposition 1.4.7 Soit u un endomorphisme de End(E).


i) Soit F un sous-espace stable pour u. Notons uF l’endomorphisme induit par u sur F . Alors
χuF divise χu .
ii) Supposons que E = F ⊕ G avec F et G stables par u. Alors χu = χuF χuG .

Preuve : Pour i), considérons une base (e1 , · · · , em ) de F que l’on complète en une base
B = (e1 , · · · , en ) soit une base de E. Alors
 
A C
(1.1) matB (u) = .
0 B

Remarquons que A est la matrice de uF par rapport à la base (e1 , · · · , em ). Donc χuF =
det(A − XIm ). Or, d’après (1.1), on a

A − XIm C
χu = .
0 B − XIn−m
1.5. ENDOMORPHISMES DIAGONALISABLES 11

Le déterminant à calculer est triangulaire par blocs. Donc


χu = det(A − XIm ) det(B − XIn−m ) = χuF det(B − XIn−m ).
Pour prouver ii), on choisit une base B = (e1 , · · · , en ) adaptée à la décomposition E =
F ⊕ G de telle sorte que  
A 0
matB (u) = .
0 B
Or, A (resp. B) est la matrice de uF (resp. uG ) par rapport à la base (e1 , · · · , em ) (resp.
(em+1 , · · · , en )). En procédant comme précédemment, on trouve donc
χu = det(A − XIm ) det(B − XIn−m ) = χuF χuG .

Corollaire 1.4.8 Si λ est racine de χu de multiplicité α alors 1 ≤ dim Eλ ≤ α. Le nombre


entier α est appelé multiplicité de la valeur propre λ. En particulier, si λ est racine simple
alors dim Eλ = 1. Résultat identique pour les matrices.

Preuve : Si λ est racine de χu alors λ est valeur propre de u (cf th. 1.4.6) et donc Eλ n’est
déf
pas réduit à {0}, d’où β = dim Eλ ≥ 1.
De plus, d’après la proposition 1.3.4, l’endomorphisme induit par u sur Eλ coı̈ncide avec
λIdEλ . Son polynôme caractéristique est donc (λ−X)β . D’après la proposition précédente,
(λ − X)β divise donc χu , ce qui montre (cf. théorème de Gauss) que β ≤ α.
Attention : En général dim Eλ = 1 n’implique pas que λ est racine simple de χu . En effet,
considérons un espace vectoriel E de dimension 2, et soit (e1 , e2 ) une base de E. On définit
u ∈ End(E) par
u(e1 ) = 0 et u(e2 ) = e1 .
Alors E0 = Ker u = Ke1 donc est de dimension 1. Mais comme u est nilpotent, on a χu = X 2
donc 0 est valeur propre de multiplicité 1 bien que 0 soit racine double de χu .

1.5 Endomorphismes diagonalisables


1.5.1 Résultats théoriques
Dans toute cette section, E est un K-espace vectoriel de dimension finie n.
Définition 1.5.1 On dit que u ∈ End(E) est diagonalisable si u admet une famille de vecteurs
propres (x1 , · · · , xn ) qui est une base de E.

Définition 1.5.2 On dit que A ∈ Mn (K) est diagonalisable si A est semblable à une matrice
B diagonale.

La proposition suivante fait le lien entre les deux définitions.


Proposition 1.5.3 i) Un endomorphisme u ∈ End(E) est diagonalisable si et seulement si il
existe une base B de E par rapport à laquelle matB (u) est une matrice diagonale.
ii) Une matrice A est diagonalisable si et seulement si l’endomorphisme u de matrice A par
rapport à la base canonique de Kn est diagonalisable. Dans ce cas, si (e1 , · · · , en ) est une
base de vecteurs propres de u, et (λ1 , · · · , λn ) les valeurs propres associées, on a
A = P diag(λ1 , · · · , λn )P −1
où P est la matrice de passage de la base canonique à la base (e1 , · · · , en ).
12 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Preuve : Si u est diagonalisable, alors sa matrice dans une base de vecteurs propres est
diagonale. Réciproquement, si dans une base B = (e1 , · · · , en ) donnée la matrice de u est
diagonale, alors tous les ei sont vecteurs propres pour u. On a donc prouvé i).
Pour prouver ii), il suffit de remarquer que si A = P diag(λ1 , · · · , λn )P −1 et si l’on note
(1 , · · · , n ) la base canonique de Kn , on a

AP i = P diag(λ1 , · · · , λn )i = λi P i .

Par conséquent dire que A est diagonalisable équivaut à dire que l’endomorphisme u de
matrice A par rapport à la base canonique admet (P 1 , · · · , P n ) comme base de vecteurs
propres.
Exemples :
1. Projecteurs : Soit p le projecteur sur F parallèlement à G. Alors n’importe quelle base
(e1 , · · · , en ) adaptée à la décomposition E = F ⊕ G est une base de vecteurs propres pour
p. Plus précisément, si dim F = m, ei est associé à la valeur propre 1 si 1 ≤ i ≤ m, et à la
valeur propre 0 si m + 1 ≤ i ≤ n.
En conclusion, tout projecteur est diagonalisable.
2. Symétries : Soit s la symétrie par rapport à F parallèlement à G. Alors n’importe quelle
base (e1 , · · · , en ) adaptée à la décomposition E = F ⊕ G est une base de vecteurs propres
pour s. Plus précisément, si dim F = m, ei est associé à la valeur propre 1 si 1 ≤ i ≤ m,
et à la valeur propre −1 si m + 1 ≤ i ≤ n.
En conclusion, toute symétrie est diagonalisable.
3. Endomorphismes nilpotents : Soit u un endomorphisme nilpotent. On sait que Sp(u) =
{0}. Par conséquent, dire que E admet une base de vecteurs propres pour u revient à dire
qu’il existe une base (e1 , · · · , en ) de E telle que u(ei ) = 0 pour tout i ∈ {1, · · · , n}. Donc
u est nul.
En conclusion, un endomorphisme nilpotent est diagonalisable si et seulement si il est nul.

Proposition 1.5.4 Considérons p sous-espaces propres (Eλi )1≤i≤p de u associés à des valeurs
propres deux à deux distinctes. Alors les (Eλi )1≤i≤p sont en somme directe.

Preuve : Il s’agit de de prouver que tout x ∈ Eλ1 + · · · + Eλp se décompose de façon unique
en x = x1 + · · · + xp avec xi ∈ Ei .
Supposons qu’il existe deux décompositions de ce type

x = x1 + · · · + xp = y1 + · · · + yp .

Alors pi=1 (xi − yi ) = 0 ce qui signifie qu’il existe une relation de dépendance linéaire
P
entre les p vecteurs propres x1 − y1 , · · · xp − yp . En vertu de la proposition 1.3.4, l’un de
ces vecteurs doit être nul. Par récurrence descendante, on conclut qu’ils sont tous nuls.

Théorème 1.5.5 Soit u ∈ End(E). Notons Sp(u) = {λ1 , · · · , λp }. Les quatre propriétés sui-
vantes sont équivalentes :
i) u est diagonalisable,
ii) E = pi=1 Eλi .
L

iii) dim E = pi=1 dim Eλi .


P
1.5. ENDOMORPHISMES DIAGONALISABLES 13

iv) Il existe p entiers non nuls γ1 , · · · , γp tels que γ1 + · · · + γp = n, et une base B de E par
rapport à laquelle la matrice de u est
 
λ1 Iγ1 0 ··· 0
 0 λ2 Iγ2 ··· 0 
matB (u) =  . .
 
.. .. ..
 .. . . . 
0 0 ··· λp Iγp

Preuve : Sachant que les Eλi sont en somme directe et inclus dans E, on a ii) ⇐⇒ iii).
i) ⇒ iii) : Soit u diagonalisable. On considère une base (e1 , · · · , en ) de vecteurs propres
de u que l’on ordonne de telle sorte que les γ1 premiers P
vecteurs soient associés à λ1 , les
γ2 suivants à λ2 . On a bien évidemment dim Eλ1 = γi et pi=1 γi = n, ce qui entraı̂ne iii).
ii) ⇒ iv) : Supposons que E = pi=1 Eλi . La matrice de u par rapport à une base adaptée
L
à cette décomposition est clairement du type voulu.
iv) ⇒ i) : Immédiat.

Corollaire 1.5.6 Si u a n valeurs propres deux à deux distinctes, λ1 , · · · , λn alors u est dia-
gonalisable et tous ses sous-espaces propres sont de dimension 1. De plus, la matrice de u dans
une base de vecteurs propres (x1 , · · · , xn ) associés à λ1 , · · · , λn est

matB (u) = diag(λ1 , · · · , λn ).

Preuve : Comme les Eλi sont en somme directe et tous de dimension au moins 1, on a
n
M n
X
dim Eλi = dim Eλi ≥ n
i=1 i=1

avec égalité L
si et seulement si tous les sous-espaces propres sont de dimension 1. Mais
n
par ailleurs
Lp i=1 Eλi est inclus dans E donc est de dimension au plus n. On conclut que
E = i=1 Eλi , et donc u est diagonalisable en vertu du théorème 1.5.5.

Théorème 1.5.7 Un endomorphisme u ∈ End(E) est diagonalisable si et seulement si


χu est scindé dans K[X] et la dimension γi de chaque sous-espace propre Eλi de u est
égale à la multiplicité αi de λi dans χu . Dans ce cas, on a
p
Y
χu = (−1)n (X − λi )γi où Sp(u) = {λ1 , · · · , λp }.
i=1

Preuve : Grâce au corollaireP 1.4.8, on sait déjà que pour tout i ∈ {1, · · · , p}, on a γi ≤ αi .
Puisque deg χu = n, on a pi=1 αi = n.
Supposons u diagonalisable. Alors d’après le théorème 1.5.5, on a pi=1 γi = n, et donc
P
nécessairement αi = γi pour tout i.
Réciproquement, si γi = αi pour tout i, alors pi=1 γi = n, et donc u est diagonalisable
P
d’après le théorème 1.5.5.

Attention : L’hypothèse χu scindé n’entraı̂ne pas toujours u diagonalisable. On a vu par


exemple que le polynôme caractéristique d’un endomorphisme nilpotent était scindé : χu =
(−X)n . Mais si u est nilpotent non nul alors u n’est pas diagonalisable.
14 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

1.5.2 Méthode pratique de diagonalisation


Pour les endomorphismes : Soit u ∈ End(E) avec E de dimension n. On donne une méthode
systématique permettant de déterminer les valeurs propres et les sous-espaces propres de u.
1. Calcul de χu .
2. Calcul des racines λ1 , · · · , λp de χu .
Si χu a n racines deux à deux distinctes (i.e p = n), on peut tout de suite conclure que u
est diagonalisable.
3. On détermine les sous-espaces propres de u.
Le sous-espace propre Eλi est l’ensemble des vecteurs x de E tels que

(1.2) u(x) − λi x = 0.

Si on note (x1 , · · · , xn ) les coordonnées de x par rapport à une base donnée, résoudre
(1.2) revient à résoudre un système homogène de n équations dont les n inconnues sont
les coordonnées de x. La dimension γi de Eλi est le nombre d’inconnues non principales
de ce système linéaire. La résolution du système linéaire permet de trouver γi vecteurs
indépendants x1i , · · · , xγi i de Eλi .
4. Conclusion.
L’endomorphisme u est diagonalisable si et seulement si γi est égal à la multiplicité αi de
γ
λi pour tout i. Dans ce cas, la famille (x11 , · · · , xγ11 , x12 , · · · , xγ22 , · · · , x1p , · · · , xpp ) est une
base de vecteurs propres pour u.
Pour les matrices : Soit A ∈ Mn (K). Donnons une méthode systématique permettant de
déterminer valeurs propres et vecteurs propres de A.
1. Calcul de χA .
2. Calcul des racines λ1 , · · · , λp de χA . Si χu a n racines deux à deux distinctes (i.e p = n),
on peut tout de suite conclure que u est diagonalisable.
3. Pour chaque λi , on résout le système linéaire homogène (A − λi In )X = 0. L’ensemble de
ses solutions est Eλi . La dimension γi de Eλi est le nombre d’inconnues non principales.
On peut extraire γi vecteurs colonnes Xi1 , · · · , Xiγi formant une base de Eλi .
4. Conclusion.
La matrice A est diagonalisable si et seulement si γi est égal à la multiplicité αi de λi pour
tout i. Dans ce cas, on a
 
λ1 Iγ1 0 ··· 0
 .. .. 
 0 λ2 Iγ2 . . 
 P −1 ,
A=P .
. .
 .. .. .. 
0 
0 ··· 0 λp Iγp
γ
où P est la matrice de colonnes (X11 , · · · , X1γ1 , X21 , · · · , X2γ2 , · · · , Xp1 , · · · , Xp p ).

1.6 Endomorphismes trigonalisables


Définition 1.6.1 On dit que u ∈ End(E) est trigonalisable s’il existe une base B de E
par rapport à laquelle matB (u) est triangulaire supérieure.
On dit que A ∈ Mn (K) est trigonalisable s’il existe B ∈ Mn (K) triangulaire supérieure
telle que A ∼ B.
1.6. ENDOMORPHISMES TRIGONALISABLES 15

Théorème 1.6.2 Un endomorphisme u est trigonalisable si et seulement si son polynôme


caractéristique χuQest scindé.
De plus, si χu = ni=1 (λi − X) alors on peut trouver une base B de E telle que
 
λ1 ? · · · ?
.
 0 λ2 . . . .. 

(1.3) matB (u) =  . .

.
.
.. . . . 
. ?
0 · · · 0 λn

De même, uneQmatrice A ∈ Mn (K) est trigonalisable si et seulement si χA est scindé. De


plus, si χA = ni=1 (λi − X), alors A est semblable à une matrice triangulaire supérieure
du type (1.3).

Preuve : Traitons le cas d’un endomorphisme. Si u est trigonalisable, alors la matrice


Qn T de u
dans une base bien choisie est triangulaire supérieure. Par conséquent χu = i=1 (tii − X),
et donc χu est scindé.
La preuve de la réciproque se fait par récurrence sur n = dim E. On considère la propriété
(Pn ) suivante :
∀E t. q. dim E = n, ∀u ∈ End(E),
 n
Y   
χu = (λi − X) ⇒ ∃B base t.q. matB (u) est du type (1.3) .
i=1

• Cas n = 1. Il n’y a rien à prouver. Un endomorphisme de polynôme caractéristique


λ1 − X dans un e.v. de dimension 1 est forcément l’homothétie de rapport λ1 .
• Supposons (Pn ) vraie et montrons (Pn+1 ). Considérons un e.v. E de dimension n + 1 et
n+1
Y
u ∈ End(E) tel que χu = (λi − X).
i=1
Soit e1 un vecteur propre non nul de u pour la valeur propre λ1 . On complète (e1 ) en
une base B 0 = (e1 , e02 , · · · , e0n+1 ) de E. Clairement, il existe A0 ∈ Mn (K) telle que
 
λ1 ?
matB0 (u) = .
0 A0
déf
Soit p le projecteur sur F = Vect(e02 , · · · , e0n+1 ) parallèlement à Ke1 . On définit u0 ∈
End(F ) en posant u0 (x) = p(u(x)) pour x ∈ F . On constate que A0 est la matrice de u0
par rapport à la base (e02 , · · · , e0n+1 ) de F . On a donc
χu = (λ1 − X) det(A0 − XIn ) = (λ1 − X)χu0 .
n+1
Y
Donc χu0 = (λi − X).
i=2
On peut donc appliquer (Pn ) à l’espace F et à l’endomorphisme u0 et trouver une base
(e2 , · · · , en+1 ) de F par rapport à laquelle la matrice de u0 est
 
λ2 ? ··· ? ?
 .. 
 0 λ3
 . ? ? 
T =  ... . . .
0 .. .. ..  .

. . . 
 ..
 
.. 
. . λn ? 
0 · · · · · · 0 λn+1
16 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

déf
Si l’on choisit B = (e1 , e2 , · · · , en+1 ), on trouve
 
λ1 ?
matB (u) = ,
0 T0
donc matB (u) est du type voulu.

Corollaire 1.6.3 Toute matrice est trigonalisable dans C. De même, si E est un C-espace
vectoriel de dimension finie, tout élément de End(E) est trigonalisable.

Preuve : Conséquence immédiate du théorème de d’Alembert-Gauss.

Corollaire 1.6.4 Les quatre assertions suivantes sont équivalentes :


i) u est nilpotent,
ii) Sp(u) = {0},
iii) χu = (−1)n X n ,
iv) Il existe une base B par rapport à laquelle la matrice de u est du type
 
0 ? ··· ?
.. 
0 0 . . .

.
matB (u) =   .. . . ..
.

. . . ?
0 ··· 0 0

Preuve : On a déjà vu dans la proposition 1.3.8 que i) ⇒ ii), puis que ii) ⇒ iii).
iii) ⇒ iv) : Supposons que χu = (−X)n . D’après le théorème 1.6.2, on peut trouver une
base par rapport à laquelle la matrice de u est triangulaire supérieure avec des 0 sur la
diagonale.
iv) ⇒ i) : Si la matrice de u par rapport à une base donnée est triangulaire supérieure
avec des 0 sur la diagonale, alors elle nilpotente. Donc u est nilpotent.

Corollaire 1.6.5 Si F est stable par u alors u trigonalisable entraı̂ne uF trigonalisable.

Preuve : En vertu de la proposition 1.4.7, χuF divise χu . Donc χuF est également scindé ce
qui, grâce au théorème 1.6.2 montre que uF est trigonalisable.
Méthode pratique de trigonalisation des matrices :
1. Calcul de χA
2. Détermination des racines de χA .
3. On détermine les sous-espaces propres de A en résolvant AX = λX pour λ ∈ Sp(A).
On obtient ainsi p vecteurs colonnes propres linéairement indépendants (X1 , · · · , Xp ). Si
p = n, A est en fait diagonalisable, et on conclut comme dans le paragraphe précédent.
Sinon, on complète (X1 , · · · , Xp ) en une base (X1 , · · · , Xn ) de Kn . Soit P la matrice de
colonnes (X1 , · · · , Xn ). On a
  
λ1 0
 ..  ?

.


 
A=P 0 λp  −1
P .

 
 
 
0 B
1.7. POLYNÔMES D’ENDOMORPHISMES ET DE MATRICES 17

Si l’on note u l’endomorphisme de matrice A par rapport à la base canonique de Kn , et π le


déf
projecteur sur F = Vect(Xp+1 , · · · , Xn ), la matrice B est la matrice de l’endomorphisme
u0 : x 7→ π(u(x)) de End(F ) par rapport à la base (Xp+1 , · · · , Xn ).
L’étape suivante consiste à trigonaliser B (qui est une matrice carrée de taille n − p seule-
ment). Comme χB est scindé (car divise χA qui est scindé), la matrice B est trigonali-
sable. Donc on peut trouver q vecteurs propres Y1 , · · · , Yq de B linéairement indépendants
et associés à q valeurs propres µ1 , · · · , µq de B. On complète cette famille en une base
(Y1 , · · · , Yn−p ) de Kn−p . Si l’on note R la matrice de colonnes (Y1 , · · · , Yn−p ), on a
  
µ1 0
 ..  ?

.


 
B = R 0 µq  −1
R .

 
 
 
0 C

On peut aisément revenir à la matrice initiale A en interprétant la matrice par blocs


 
I 0
Q= p
0 R

comme la matrice de passage de (X1 , · · · , Xn ) à (X1 , · · · , Xp , Y1 , · · · , Yn−p ). Finalement,


on a donc
  
λ1 0
 .. 
? ?
 .  
 
 0 λ p 
 
   
Ip 0     Ip 0 −1
A=P  µ1 0  0 R−1 P .

0 R  ..
0  ?
   


 . 

 0 µq 

 
0 0 C

A ce stade, si C est triangulaire supérieure, le processus de trigonalisation est terminé,


sinon, on applique la méthode précédente à C qui est de taille n − p − q.
Remarque : Si l’on excepte le cas où A est la matrice d’une homothétie, une matrice trigona-
lisable (resp. diagonalisable) est semblable à plusieurs matrices triangulaires (resp. diagonales)
différentes.

1.7 Polynômes d’endomorphismes et de matrices


Pour tout endomorphisme u ∈ End(E), on sait définir les puissances entières de u. Les
combinaisons linéaires de ces puissances sont encore des éléments de End(E). Cela motive la
définition suivante :

Définition 1.7.1 Soit P = ap X p + · · · + a0 un polynôme et u un endomorphisme. On note P (u)


l’endomorphisme obtenu en remplaçant X par u dans l’expression de P avec la convention que
le terme constant a0 est remplacé par a0 Id. On dit que P (u) est un polynôme d’endomor-
phisme.
18 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Attention : Un polynôme d’endomorphisme est un endormorphisme.


Exemple : Soit P = X 2 − X + 1 et u ∈ End(E). L’endomorphisme P (u) est par définition égal
à u2 − u + Id.
On dispose du résultat fondamental suivant (dont la preuve est immédiate) :
Proposition 1.7.2 Pour u ∈ End(E), l’application

K[X] −→ End(E)
Φ :
P 7−→ P (u),

(où K[X] désigne l’ensemble des polynômes à coefficients dans K) vérifie


1. ∀P ∈ K[X], ∀Q ∈ K[X], Φ(P + Q) = Φ(P ) + Φ(Q),
2. ∀P ∈ K[X], ∀λ ∈ K, Φ(λP ) = λΦ(P ),
3. ∀P ∈ K[X], ∀Q ∈ K[X], Φ(P Q) = Φ(P )Φ(Q),
4. Φ(1) = Id.
On dit que Φ est un morphisme d’algèbre.
De même, pour toute matrice carrée A ∈ Mn (K) et tout polynôme P = ap X p + · · · + a0 de
K[X], on peut définir la matrice P (A) = ap Ap + · · · + a0 In . On a bien sûr la
Proposition 1.7.3 Pour A ∈ Mn (K), l’application

K[X] −→ Mn (K)
Ψ :
P 7−→ P (A),

est un morphisme d’algèbre.


Exemple : Soit A une matrice triangulaire supérieure :
 
λ1 ? ··· ?
 .. .. 
0 λ2 . . 
A=  .. .. ..
.

. . . ?
0 ··· 0 λn

Alors pour tout P ∈ K[X], on a


 
P (λ1 ) ? ··· ?
. ..
P (λ2 ) . .
 
 0 . 
P (A) = 
 .. .. ..
.

 . . . ? 
0 ··· 0 P (λn )

Il y a un rapport étroit entre polynômes d’endomorphismes et polynômes de matrices :


Proposition 1.7.4 Soit E e.v de dimension n, B base de E et u ∈ End(E). Notons A =
matB (u). Alors, pour tout polynôme P , on a

matB (P (u)) = P (A).

En plus d’être des morphismes d’algèbre, les applications Φ et Ψ ont d’autres propriétés utiles :
Proposition 1.7.5 Soit u ∈ End(E) et A ∈ Mn (K). On a pour tout P ∈ K[X] et Q ∈ K[X],
t
P (u)Q(u) = Q(u)P (u) = (P Q)(u), P (A)Q(A) = Q(A)P (A) = (P Q)(A) et [P (A)] = P (t A).
1.7. POLYNÔMES D’ENDOMORPHISMES ET DE MATRICES 19

Preuve : Résulte d’une part de la commutativité de K[X], d’autre part de la formule t (A2 ) =
t At A = (t A)2 qui s’étend en t (Ap ) = (t A)p pour tout p ∈ N.

Proposition 1.7.6 Si u ∈ End(E) et P ∈ K[X] alors Im P (u) et Ker P (u) sont stables par u.

Preuve : Comme u et P (u) commutent, le résultat découle de la proposition 1.3.5.

Proposition 1.7.7 Soit P ∈ K[X]. Soit u ∈ End(E) tel que χu soit scindé. Alors χP (u) est
également scindé.
Plus précisément, si χu = ni=1 (λi − X), alors on a χP (u) = ni=1 (P (λi ) − X). Résultat
Q Q
analogue pour les matrices.
Qn
Preuve : Si χu = i=1 (λi − X), le théorème 1.6.2 assure l’existence d’une base B de E telle
que  
λ1 ? ··· ?
 .. .. 
0 λ2 . . 
matB (u) = 
 .. .. ..
.

. . . ?
0 ··· 0 λn
De ce fait,  
P (λ1 ) ? ··· ?
. ..
P (λ2 ) . .
 
 0 . 
matB (P (u)) =  .

.. ..
.
 ..

. . ? 
0 ··· 0 P (λn )
Qn
Il est donc immédiat que χP (u) = i=1 (P (λi ) − X).

Corollaire 1.7.8 Pour u ∈ End(E) et P ∈ K[X], on a toujours P (Sp(u)) ⊂ Sp(P (u)). Si de


plus χu est scindé alors P (Sp(u)) = Sp(P (u)). En particulier, si E est un espace vectoriel de
dimension finie sur C, on a P (Sp(u)) = Sp(P (u)).

Preuve : Soit λ ∈ Sp(u) et x un vecteur propre non nul de u associé à λ. Alors u(x) = λx,
puis par récurrence, uk (x) = λk x pour tout k ∈ N. On en déduit que

P (u)(x) = P (λ)x,

ce qui permet de conclure que P (λ) ∈ Sp(P (u)). D’où P (Sp(u)) ⊂ Sp(P (u)).
que χu soit scindé. D’après la proposition 1.7.7, si χu = ni=1 (λi − X),
Q
Supposons de plus Q
alors on a χP (u) = ni=1 (P (λi ) − X). On en déduit que µ ∈ Sp(P (u)) si et seulement si il
existe λ ∈ Sp(u) tel que P (λ) = µ, ce qui est exactement le résultat voulu.
Pour les matrices, on a le résultat suivant :

Corollaire 1.7.9 Soit A ∈ Mn (K) trigonalisable et P ∈ K[X]. Alors P (Sp(A)) = Sp(P (A)). En
particulier, pour toute matrice A ∈ Mn (C) et P ∈ C[X], on a P (Sp(A)) = Sp(P (A)).

Définition 1.7.10 Soit u ∈ End(E) (resp. A ∈ Mn (K)). On appelle polynôme annulateur


de u (resp. de A) tout polynôme P tel que P (u) = 0 (resp. P (A) = 0).

Proposition 1.7.11 Soit A et B, deux matrices semblables, et R ∈ K[X]. Alors R(A) ∼ R(B).
En particulier R(A) = 0 si et seulement si R(B) = 0.
20 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Preuve : Soit P ∈ GLn (K) telle que B = P −1 AP . On a donc B 2 = P −1 AP P −1 AP =


P −1 A2 P , puis par une récurrence élémentaire,
(1.4) ∀k ∈ N, B k = P −1 Ak P.
En faisant des combinaisons linéaires d’expressions du type ci-dessus, on obtient
(1.5) ∀R ∈ K[X], R(B) = P −1 R(A)P.
Comme P est inversible, on en déduit que R(A) = 0 si et seulement si R(B) = 0.
La recherche de polynômes annulateur est d’une importance capitale dans le processus de
réduction des matrices ou des endomorphismes. On dispose du résultat fondamental suivant :
Théorème 1.7.12 (Cayley-Hamilton) Soit u un endomorphisme sur un espace vectoriel E
de dimension finie. Alors χu (u) = 0. De même, si A ∈ Mn (K) alors χA (A) = 0.
Preuve :
1. Cas d’une matrice de Frobenius
On veut montrer que χA est un polynôme annulateur de A dans le cas où A est une
matrice de Frobenius. Soit donc
 
0 · · · · · · 0 a0

1 0 .. 
 . a1  
A = 0 . . . . . . ... ..  .

. 
 .. . . .. 
 
..
. . . 0 . 
0 · · · 0 1 an−1
Notons Ei le vecteur colonne dont la i-ème composante vaut 1 et dont les autres
composantes sont nulles. On a clairement
∀i ∈ {1, · · · , n−1}, AEi = Ai E1 = Ei+1 et AEn = An E1 = a0 E1 + · · · + an−1 En .
On a par ailleurs établi que
n−1
X
χA = (−1)n (X n − ai X i )
i=0

donc, d’après les relations ci-dessus,


 n−1
X   n−1
X 
n n i n
χA (A)E1 = (−1) A E1 − ai A E1 = (−1) AEn − ai Ei = 0.
i=0 i=0

puis, pour i ∈ {2, · · · , n},


χA (A)Ei = χA (A)Ai−1 E1 = Ai−1 χA (A)E1 = 0,
ce qui montre que χA (A) = 0.
2. Plus petit sous-espace stable contenant un élément donné.
Soit x ∈ E non nul. On cherche à déterminer le plus petit sous espace stable F de
u qui contient x. Un tel espace doit contenir aussi u(x), puis u2 (x), etc. On pose
donc F = Vect(x, u(x), · · · , uk (x), · · · ). C’est clairement un sous-espace stable de
u. De plus, comme F est un sous-espace de E qui est de dimension n, la famille
x, u(x), · · · , up (x) est forcément liée dès que p ≥ n. On en déduit aisément le lemme
suivant :
1.8. POLYNÔME MINIMAL 21

Lemme 1.7.13 Il existe un entier p ≤ n unique tel que  x, u(x), · · · , up−1 (x) soit


une famille libre et la famille x, u(x), · · · , up−1 (x), up (x) soit liée. On a alors

F = Vect(x, u(x), · · · , up−1 (x)).

En particulier, F est de dimension p.


déf déf
Notons v l’endomorphisme induit par u sur F , ei = ui−1 (x) et B = (e1 , · · · , ep ). On
a u(ei ) = ei+1 pour i < p. De plus la famille x, u(x), · · · , up (x) étant liée, il existe
p coefficients a0 , · · · , ap−1 tels que

u(ep ) = up (x) = a0 x + · · · + ap−1 up−1 (x) = a0 e1 + · · · + ap−1 ep .

On en déduit que la matrice de v dans la base B est une matrice de Frobenius. En


particulier, d’après la première étape, χv (v) = 0.
3. Preuve dans le cas général
Soit x ∈ E. On cherche à montrer que χu (u)(x) = 0. Si x = 0, c’est évident. Sinon,
on considère le plus petit sous-espace stable F contenant x, et l’endomorphisme v
induit par u sur F .
On sait d’une part que χv (v) = 0 (et donc χv (v)(x) = χv (u)(x) = 0 puisque x ∈ F ),
d’autre part que χv divise χu (cf prop. 1.4.7). Donc χu (u)(x) = 0.

1.8 Polynôme minimal


Nous avons vu dans la section précédente que tout endomorphisme u admettait au moins
un polynôme annulateur non nul : χu . On peut se demander s’il en existe d’autres et si certains
polynômes annulateurs sont d’un intérêt particulier. Pour répondre à ces questions, il convient
d’abord de rappeler ce qu’est un idéal 3 de K[X].

Définition 1.8.1 On dit que A est un idéal de K[X] si les propriétés suivantes sont vérifiées :
1. A est un sous-groupe de (K[X], +),
2. A est stable par multiplication (i.e ∀P ∈ A, ∀Q ∈ K[X], P Q ∈ A).

On dispose alors du résultat fondamental suivant :

Théorème 1.8.2 Pour tout idéal A de K[X] non réduit à {0}, il existe un unique polynôme
unitaire 4 I tel que A = IK[X]. Ce polynôme I est appelé générateur de l’idéal A et on dit que
K[X] est un anneau principal.

Mais revenons aux polynômes annulateurs. On a le

Théorème 1.8.3 Soit u ∈ End(E). Alors l’ensemble des polynômes annulateurs de u est Ker Φ
(où Φ a été définie à la proposition 1.7.2). Cet ensemble est un idéal de K[X] non réduit à {0}.
Son générateur est appelé polynôme minimal de u et noté mu .

Preuve : Il est clair que l’ensemble des polynômes annulateurs de u est ker Φ. Cet ensemble
est stable par combinaison linéaire et par produit. C’est donc un idéal de K[X]. De plus
il contient χu (cf th. de Cayley-Hamilton) qui n’est pas nul, donc ker Φ n’est pas réduit à
{0}. Le théorème 1.8.2 assure l’existence de mu .
3. Pour plus de détails, consulter un cours de 1ère année, par exemple [?].
4. C’est-à-dire à coefficient dominant égal à 1
22 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

La proposition suivante qui découle facilement de la définition du générateur d’un idéal, permet
de caractériser le polynôme minimal.
Proposition 1.8.4 Soit u ∈ End(E) et P un polynôme unitaire. Les propriétés suivantes sont
équivalentes :
i) P = mu ,
   
ii) P (u) = 0 et Q(u) = 0 ⇒ P | Q ,
   
iii) P (u) = 0 et Q(u) = 0 avec Q 6= 0 ⇒ deg P ≤ deg Q .

De façon analogue, pour toute matrice carrée A, ker Ψ est l’ensemble des polynômes annula-
teurs de A. C’est un idéal non trivial de K[X], ce qui permet de définir le polynôme minimal
mA de A. Il y a bien sûr une correspondance étroite entre polynôme minimal de matrices et
d’endomorphismes :
Proposition 1.8.5 Soit u ∈ End(E) de matrice A par rapport à une base B donnée. Alors
mu = mA .
D’après le théorème de Cayley-Hamilton, le polynôme caractéristique est un polynôme annula-
teur. De la proposition précédente, on déduit la
Proposition 1.8.6 Le polynôme minimal divise le polynôme caractéristique. En particulier,

1 ≤ deg mu ≤ n.

De plus, si χu (resp. χA ) est scindé alors mu (resp. mA ) aussi.


Voilà quelques propriétés élémentaires satisfaites par le polynôme minimal :
Proposition 1.8.7 Soit A ∈ Mn (K). On a
i) mA = m tA ,
ii) Si A est semblable à B ∈ Mn (K) alors mA = mB .
Preuve : La preuve de i) découle de la formule P (t A) = t (P (A)).
Si A et B sont semblables, alors elles ont les mêmes polynômes annulateurs (cf. prop.
1.7.11), ce qui donne iii).
Comme pour le calcul du polynôme caractéristique (cf. prop. 1.4.7), connaı̂tre des sous-
espaces stables donne des renseignements sur le polynôme minimal :
Proposition 1.8.8 Soit u ∈ End(E).
i) Si F est un sous-espace stable de u alors muF divise mu .
ii) Si E = F ⊕ G avec F et G sous-espaces stables de u alors mu = P P CM (muF , muG ).
Preuve : Soit F un sous-espace stable de u et soit P un polynôme annulateur de u. On a
P (u)(x) = 0 pour tout x ∈ E, donc a fortiori pour tout x ∈ F . Donc P (uF ) = 0. Donc
muF divise P . En particulier, muF divise mu , ce qui prouve i).
Si u possède deux sous-espaces stables F et G tels que E = F ⊕ G, on sait déjà d’après i)
déf
que muF et muG divisent mu . Donc M = P P CM (muF , muG ) divise mu .
Pour montrer l’égalité, considérons x ∈ E que l’on décompose en x = y + z avec y ∈ F
et z ∈ G. Le polynôme M est un multiple de muF (resp. muG ) donc est un polynôme
annulateur de uF (resp. uG ). En conséquence M (uF )(y) = M (u)(y) = 0 et M (uG )(z) =
M (u)(z) = 0, d’où M (u)(x) = 0.
1.8. POLYNÔME MINIMAL 23

Proposition 1.8.9 Soit u ∈ End(E) et λ ∈ K. Les propriétés suivantes sont équivalentes :


i) λ est valeur propre de u,
ii) λ est racine de χu ,
iii) λ est racine de mu .
Résultat analogue pour les matrices.

Preuve : i) ⇐⇒ ii) a déjà été prouvé (cf. th. 1.4.6).


i) ⇒ iii) : Soit λ une valeur propre de u et x un vecteur propre non nul associé à λ. On a

0 = mu (u)(x) = mu (λ)x.

Donc mu (λ) = 0.
iii) ⇒ i) : Soit λ une racine de mu . Alors mu peut être factorisé par (X − λ) : il existe
Q ∈ K[X] tel que mu = (X − λ)Q. Or Q ne peut pas être un polynôme annulateur de u.
Donc il existe x ∈ E tel que Q(u)(x) 6= 0.
Par ailleurs,
0 = mu (u)(x) = (u − λ Id)[Q(u)(x)].
Donc ker(u − λ Id) contient un vecteur non nul, ce qui montre que λ est valeur propre de
u.
Exemples :
1. Homothéties
Si u ∈ End(E) est l’homothétie de rapport λ alors mu = X − λ.
En effet, par définition même de u, le polynôme X − λ est un polynôme annulateur de u.
Mais comme deg mu ≥ 1, on en déduit que mu = X − λ.
2. Projections
On suppose que E = F ⊕ G (avec F et G non réduits à {0}). Soit p le projecteur sur F
parallèlement à G. On sait que Sp(p) = {0, 1} donc 0 et 1 doivent être racines de mp . Donc
X 2 − X doit diviser mp . Mais tout projecteur vérifie p2 − p = 0. Donc

mp = X 2 − X.

3. Symétries
On suppose que E = F ⊕ G (avec F et G non réduits à {0}). Soit s la symétrie par rapport
à F parallèlement à G. On sait que Sp(s) = {−1, 1} donc X 2 − 1 doit diviser ms . Mais
toute symétrie vérifie s2 − Id = 0. Donc

ms = X 2 − 1.

4. Endomorphismes nilpotents
Soit u nilpotent d’indice p. Par définition même de p, on sait que X p est un polynôme
annulateur de u, et que X p−1 ne l’est pas. Donc mu doit diviser X p mais pas X p−1 . Cela
entraı̂ne
mu = X p .

Remarque : Comme mu doit diviser χu = (−1)n X n , on a montré au passage que l’indice


de nilpotence d’un endomorphisme nilpotent sur E est inférieur ou égal à la dimension de
E.
24 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

5. Matrice de Frobenius
Soit A une matrice de Frobenius de taille n. On a vu dans la preuve du théorème de
Cayley-Hamilton que
∀i ∈ {1, · · · , n − 1}, Ai E1 = Ei+1 .
Donc les vecteurs colonnes (E1 , AE1 , · · · , An−1 E1 ) sont linéairement indépendants. On en
déduit qu’il n’existe pas de polynôme P non nul de degré strictement inférieur à n et tel
que P (A)E1 = 0. Mais on sait que χA (qui est de degré n) annule A. Donc,
n−1
X
n n
mA = (−1) χA = X − ai X i .
i=0

Lemme 1.8.10 (Lemme des noyaux) Soit P et Q deux polynômes premiers entre eux. Alors
ker(P Q)(u) = ker P (u) ⊕ ker Q(u).
Preuve : D’après le théorème de Bezout 5 , il existe deux polynômes U et V tels que
(1.6) P U + QV = 1.
Soit x ∈ Ker P (u) ∩ Ker Q(u). D’après (1.6), on a
x = U (u)[P (u)(x)] + V (u)[Q(u)(x)] = 0
| {z } | {z }
y z

puisque P (u)(x) = Q(u)(x) = 0. Donc Ker P (u) ∩ Ker Q(u) = {0}.


Si maintenant x ∈ Ker (P Q)(u) alors, la décomposition x = y + z ci-dessus donne
Q(u)(y) = (QU P )(u)(x) = (U P Q)(u)(x) = U (u)[(P Q)(u)](x) = 0,
donc y ∈ Ker Q(u).
De même, on montre que z ∈ Ker P (u), d’où
Ker (P Q)(u) ⊂ ker P (u) ⊕ ker Q(u).
Il est par ailleurs clair que ker P (u) ⊂ ker(P Q)(u) et que ker Q(u) ⊂ ker(P Q)(u), d’où le
résultat voulu.
Remarque : Si P Q est un polynôme annulateur de u, alors le lemme des noyaux donne une
décomposition de E en somme de deux sous-espaces stables de u.
Remarque 1.8.11 Une récurrence élémentaire permet de prouver la généralisation suivante du
lemme des noyaux. Soit Q1 , · · · , Qk k polynômes premiers entre eux dans leur ensemble. Alors
on a
Yk M k
ker( Qi )(u) = ker Qi (u).
i=1 i=1

Théorème 1.8.12 Soit u ∈ End(E) de spectre Sp(u) = {λ1 , · · · , λp }. Les propriétés


suivantes sont équivalentes.
i) u est diagonalisable,
Yp
ii) mu = (X − λi ),
i=1
iii) mu est scindé à racines simples,
iv) u admet un polynôme annulateur scindé à racines simples.
Résultat analogue pour les matrices.
5. Voir le cours de 1ère année [?].
1.8. POLYNÔME MINIMAL 25

Preuve : i) ⇒ ii) : D’après la proposition 1.8.9, les racines de mu sont les valeurs propres de
p
déf
Y
u. Donc le polynôme M = (X − λi ) divise mu .
i=1
Si xi est un vecteur propre associé à λi , alors il est clair que (u − λi Id)(xi ) = 0, et donc
Y 
(1.7) M (u)(xi ) = (λj Id −u) (λi Id −u)(xi ) = 0.
j6=i

Si u est diagonalisable alors en vertu du théorème 1.5.5, E = pi=1 Eλi . Donc tout x ∈ E
L
se décompose en x = x1 + · · · + xp avec xi ∈ Eλi puis, grâce à (1.7),
p
X
M (u)(x) = M (u)(xi ) = 0.
i=1

ii) ⇒ iii) et iii) ⇒ iv) : Trivial.


iv) ⇒ i) : Soit P un polynôme annulateur de u scindé à racines simples (que l’on peut
toujours supposer unitaire) :
q
Y
P = (X − µi ) avec les µi deux à deux distincts.
i=1

Comme les polynômes X −µi sont premiers entre eux dans leur ensemble, on peut appliquer
le lemme des noyaux généralisé (remarque 1.8.11), ce qui donne
q
M
E = ker P (u) = ker(u − µi Id).
i=1

Si, dans cette décomposition, on ne garde que les µi tels que ker(u − µi Id) ne soit pas
réduit à {0}, on a obtenu une décomposition de E en somme de sous-espaces propres de
u. Donc u est diagonalisable.

Corollaire 1.8.13 Soit u un endomorphisme diagonalisable et F un sous-espace stable de u.


Alors l’endomorphisme uF induit par u sur F est diagonalisable.

Preuve : Si u est diagonalisable, alors, d’après le théorème 1.8.12, il existe P ∈ K[X] scindé à
racines simples tel que P (u) = 0. On a bien sûr aussi P (uF ) = 0. Donc, à nouveau d’après
le théorème 1.8.12, uF est diagonalisable.

Théorème 1.8.14 (Réduction simultanée) Soit u et v deux endomorphismes diagonalisa-


bles de E qui commutent. Alors il existe une base de diagonalisation commune pour u et v.
De même, si A et B sont deux matrices diagonalisables qui commutent, alors il existe P ∈
GLn (K) et deux matrices diagonales D et D0 telles que

A = P DP −1 et B = P D0 P −1 .

Preuve : Traitons le cas des endomorphismes. Soit donc u et v diagonalisables qui commutent.
En vertu du théorème 1.5.5, on peut écrire
p
M
(1.8) E= Eλi (u).
i=1
26 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Comme u et v commutent, chaque Eλi (u) est stable par v, et on peut donc définir l’en-
domorphisme vi induit par v sur Eλi (u). D’après le corollaire 1.8.13, vi est diagonalisable.
Donc on peut trouver une base (ei1 , · · · , eiγi ) de Eλi (u) qui est une base de vecteurs propres
pour vi . Bien sûr, chaque eik est également vecteur propre de u pour λi .
En rassemblant les bases obtenues pour chaque Eλi (u), on obtient une base de E (grâce à
(1.8)) qui est une base commune de vecteurs propres pour u et v.
Remarque : Ce théorème de réduction simultanée s’étend sans difficulté majeure au cas de p
endomorphismes diagonalisables qui commutent.

1.9 Sous-espaces caractéristiques


Lemme 1.9.1 Soit u ∈ End(E) et λ une valeur propre de u. Notons β la multiplicité de λ dans
mu . Alors la suite de sous-espaces vectoriels {ker(u − λ Id)m }m∈N est croissante (au sens de
l’inclusion) et stationnaire à partir du rang β.

déf
Preuve : Notons v = u − λ Id. Il est clair que v m (x) = 0 entraı̂ne v m+1 (x) = 0. On a donc
bien ker v m ⊂ ker v m+1 . De plus, il n’est pas difficile de vérifier que
   
ker v m = ker v m+1 ⇒ ker v m+1 = ker v m+2 .
 
Par conséquent la suite dim(kerv m ) est une suite croissante d’entiers qui devient
m∈N
stationnaire dès que deux termes consécutifs sont égaux. Comme elle est visiblement ma-
jorée par n = dim E, on conclut qu’il existe un p ≤ n tel que (ker v m )m∈N soit strictement
croissante pour m ≤ p − 1 et stationnaire à partir du rang p.
Le polynôme minimal mu de u peut se décomposer en

mu = Q(X − λ)β .

avec Q et (X − λ)β premiers entre eux. A fortiori Q et X −λ sont premiers entre eux, et
donc, d’après le lemme des noyaux,

(1.9) ker Q(u) ∩ ker(u − λ Id) = {0}.

déf
Par définition de p, il existe x ∈ ker(u − λ Id)p tel que y = (u − λ Id)p−1 (x) 6= 0. Comme
de plus y ∈ ker(u − λ Id), la relation (1.9) assure que y 6∈ Ker Q(u). Donc

Q(u)(y) = Q(u)(u − λ Id)p−1 (x) 6= 0.

On conclut que Q(X − λ)p−1 n’est pas un polynôme annulateur de u, et donc p ≤ β.


A ce point, on peut affirmer que ker(u − λ Id)β = ker(u − λ Id)p . Appliquons le lemme des
noyaux :
E = ker Q(u) ⊕ ker(u − λ Id)β = ker Q(u) ⊕ ker(u − λ Id)p .

On conclut que Q(X − λ)p est un polynôme annulateur de u, d’où β ≤ p.

Définition 1.9.2 Soit u ∈ End(E) et λ une valeur propre de u de multiplicité β dans mu .


déf
L’espace Eλ0 (u) = ker(u − λ Id)β (noté simplement Eλ0 en l’absence d’ambiguı̈té) est appelé sous-
espace caractéristique de u associé à la valeur propre λ.
1.9. SOUS-ESPACES CARACTÉRISTIQUES 27

Remarque : Si λ est valeur propre de u, on a toujours Eλ ⊂ Eλ0 . De plus, si l’on note α la


multiplicité de λ dans χu , on a β ≤ α ≤ n et de ce fait,

Eλ0 = ker(u − λ Id)β = ker(u − λ Id)α = ker(u − λ Id)n .

Exemples :
1. Endomorphismes diagonalisables : Si u est diagonalisable, pour chaque valeur propre
λ de u, on a Eλ = Eλ0 .
2. Endomorphismes nilpotents : Si u est nilpotent alors u a un seul sous-espace ca-
ractéristique : E00 = E.

Théorème 1.9.3 Soit λ une valeur propre de u de multiplicité α dans χu et β dans mu . Alors
Eλ0 est un sous-espace stable de u de dimension α. De plus, l’endomorphisme vλ induit par
u − λ Id sur Eλ0 est nilpotent d’indice β.

Preuve : La stabilité découle de la proposition 1.7.6.


Notons uλ (resp. vλ ) l’endomorphisme induit par u (resp. u − λ Id) sur Eλ0 .
D’après le lemme 1.9.1, vλβ = 0 et vλβ−1 6= 0. Donc vλ est nilpotent d’indice β. D’après la
proposition 1.4.7, χuλ divise χu , et en revenant à la définition du polynôme caractéristique,
on montre facilement que

∀x ∈ K, χuλ (x) = χvλ (x − λ).

Mais χvλ = (−X)p avec p = dim Eλ0 (cf corollaire 1.6.4), donc χuλ = (λ − X)p .
Par ailleurs, il existe un polynôme Q premier avec (X − λ)α et tel que χu = Q(X − λ)α .
D’après le lemme des noyaux, on a

(1.10) E = ker Q(u) ⊕ ker(u − λ Id)α ,

et l’on sait que ker Q(u) est stable par u (cf prop. 1.7.6), et que ker(u − λ Id)α = Eλ0
(puisque β ≤ α). Soit w l’endomorphisme induit par u sur ker Q(u). Remarquons tout de
suite que λ n’est pas valeur propre de w (cela contredirait (1.10)). Par ailleurs, d’après la
proposition 1.4.7, on a

χu = χuλ χw = (λ − X)p χw = Q(X − λ)α .

Les polynômes (λ−X)p et χw (resp. Q et (X −λ)α ) sont premiers entre eux. En appliquant
le théorème de Gauss, on conclut que α = p.

Théorème 1.9.4 Soit u ∈ End(E) à polynôme caractéristique scindé et de spectre Sp(u) =


{λ1 , · · · , λp }. Notons αi la multiplicité de λi dans χu . Alors on a
p
M
E= Eλ0 i
i=1

et il existe une base B de E telle que


 
T1 0 ··· 0
 .. .. 
0 T2 . .
matB (u) = 
 .. .. ..
,

. . . 0
0 ··· 0 Tp
où Tk est une matrice triangulaire supérieure de taille αk avec des λk sur la diagonale.
28 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Preuve : Comme χu est scindé, on a


p
Y
χu = (−1)n (X − λi )αi .
i=1

Les polynômes (X −λi )αisont premiers entre eux dans leur ensemble. Le lemme des noyaux
généralisé assure donc que les sous-espaces caractéristiques sont en somme directe. Mais
on sait grâce au théorème précédent que dim Eλ0 i = αi . Donc
p
X p
X
dim Eλ0 i = αi = n,
i=1 i=1
Lp
d’où E = i=1 Eλ0 i .
Grâce au théorème précédent, l’endomorphisme ui induit par u sur Eλ0 i peut s’écrire

ui = λi IdEλ0 + vi avec vi nilpotent,


i

et donc χui = (λi − X)αi . Le théorème 1.6.2 assure l’existence d’une base Bi par rapport
à laquelle la matrice Ti de ui est triangulaire supérieure de taille αi avec des λi sur la
diagonale.
En prenant la réunion de toutes ces bases Bi pour i décrivant {1, · · · , p}, on obtient une
base B de E par rapport à laquelle la matrice de u est du type voulu.

Théorème 1.9.5 (Décomposition de Dunford) Soit u ∈ End(E) à polynôme ca-


ractéristique scindé. Alors il existe un endomorphisme d diagonalisable et un endomor-
phisme ν nilpotent tels que
u = d + ν et dν = νd.
Cette décomposition est unique.

Preuve : Notons Sp(u) = {λ1 , · · · , λp }.


Existence de la décomposition : Soit pi le projecteur sur Eλ0 i parallèlement à i6=j Eλ0 j .
L
Posons
Xp
d= λi pi et ν = u − d.
i=1
Remarquons que, par construction, chaque Eλ0 i est stable par d, u et ν.
De plus, il est clair que d(x)
L= λi x pour tout x ∈ Eλ0 i . On en déduit que toute base adaptée
p 0
à la décomposition E = i=1 Eλi est une base de vecteurs propres pour d. Donc d est
diagonalisable.
Par ailleurs, l’endomorphisme induit par u − d sur Eλ0 i n’est autre que uEλ0 − λi IdEλ0 qui
i i
est nilpotent (cf th. 1.9.3). En utilisant une fois de plus que E = pi=1 Eλ0 i , il est alors aisé
L
déf
d’établir que ν = u − d est nilpotent.
Reste à vérifier que ν et d commutent. Soit x ∈ E. On peut décomposer x de façon unique
en
Xp
x= xi avec x1 ∈ Eλ0 1 , · · · , xp ∈ Eλ0 p .
i=1
Comme d(xi ) = λi xi , on a
p
X  p
X p
X
νd(x) = (νd) xi = ν(d(xi )) = λi ν(xi ).
i=1 i=1 i=1
1.9. SOUS-ESPACES CARACTÉRISTIQUES 29

Mais comme chaque ν(xi ) est dans Eλ0 i , on a également d(ν(xi )) = λi ν(xi ), d’où
p
X p
X p
X 
λi ν(xi ) = d(ν(xi )) = (dν) xi = dν(x).
i=1 i=1 i=1

Unicité de la décomposition : Supposons que l’on puisse trouver un deuxième couple


(d0 , ν 0 ) tel que u = d0 + ν 0 avec d0 diagonalisable, ν 0 nilpotent et d0 ν 0 = ν 0 d0 .
On constate que

ud0 = (d0 + ν 0 )d0 = (d0 )2 + ν 0 d0 = (d0 )2 + d0 ν 0 = d0 (d0 + ν 0 ) = d0 u.

De même u et ν 0 commutent. De ce fait, d0 et ν 0 commutent avec tout polynôme en u,


donc en particulier avec tous les (u − λi Id)βi . En appliquant la proposition 1.7.6, on en
déduit que tous les Eλ0 i sont stables par d0 et ν 0 .
Dès lors, les arguments qui ont servi à prouver que dν = νd permettent également de
montrer que dd0 = d0 d et dν 0 = ν 0 d. Comme ν = u−d, on en déduit que d0 et ν 0 commutent
aussi avec ν.
Le théorème de réduction simultanée assure que d et d0 admettent une base commune de
vecteurs propres. Donc d − d0 est diagonalisable. Par ailleurs, comme ν et ν 0 commutent,
on peut appliquer la formule du binôme de Newton pour calculer (ν − ν 0 )p :
p
X
0 p
(ν − ν ) = Cpk ν k (−1)p−k (ν 0 )p−k .
k=0

Pour p ≥ 2n et k ∈ {0, · · · , p}, l’un des deux entiers k et p − k est forcément supérieur
ou égal à n, donc le produit ν k (−1)p−k (ν 0 )p−k est nul. Donc (ν − ν 0 )p est nul et ν − ν 0 est
nilpotent.
Mais ν 0 − ν = d − d0 donc ν 0 − ν est à la fois nilpotent et diagonalisable. C’est donc
l’endomorphisme nul. Cela entraı̂ne évidemment que d0 = d.
Voici la version matricielle de la décomposition de Dunford :

Théorème 1.9.6 Soit A ∈ Mn (K) telle que χA soit scindé. Alors il existe une matrice
D diagonalisable, et une matrice N nilpotente telles que

A=D+N et DN = N D.

Cette décomposition est unique.

Remarque : En particulier toute matrice A de Mn (C) admet une décomposition de Dunford


dans Mn (C).
Attention : Dans la section 1.6, on a vu une méthode de trigonalisation des matrices. La
matrice triangulaire supérieure obtenue peut bien sûr se décomposer en D + N avec D diagonale
et N triangulaire supérieure avec des 0 sur la diagonale, donc nilpotente. Mais il n’y a aucune
raison pour que D et N commutent.
Trouver la décomposition de Dunford d’une matrice de Mn (C) :
On note u l’endomorphisme de matrice A par rapport à la base canonique de Cn . Voilà
comment procéder pour trouver la décomposition de Dunford de A.
1. Calcul de χA
2. Détermination des racines (λ1 , · · · , λp ) de χA et de leur multiplicité α1 , · · · , αp .
30 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

L 0
3. Détermination d’une base particulière adaptée à la décomposition E = Eλi .
Soit ui l’endomorphisme induit par u sur Eλ0 i . On sait déjà que ui = λi IdEλ0 +νi avec νi
i
nilpotent d’indice βi (multiplicité de λi dans le polynôme minimal de A).
On veut trouver une base de Eλ0 i par rapport à laquelle la matrice de νi est triangulaire
supérieure avec des 0 sur la diagonale. Pour cela, on détermine une base (ei1 , · · · , eip1 ) de
ker(u − λi Id), que l’on complète en une base (ei1 , · · · , eip1 +p2 ) de ker(u − λi Id)2 , que l’on
complète ensuite en base de ker(u − λi Id)3 , etc, jusqu’à obtention d’une base (ei1 , · · · , eiαi )
de ker(u − λi Id)βi tout entier. Il est facile de vérifier que la matrice de νi par rapport à
(ei1 , · · · , eiαi ) est triangulaire supérieure avec des 0 sur la diagonale.
La base de Cn cherchée est la réunion de toutes les bases (ei1 , · · · , eiαi ) déterminées précé-
demment.
Remarque : Il n’est pas toujours évident de connaı̂tre βi d’avance. En pratique, on trouve
cet indice au cours de la procédure de recherche d’une base de Eλ0 i comme ci-dessus : c’est
le plus petit indice vérifiant ker(u − λi Id)βi = ker(u − λi Id)βi +1 .
4. Décomposition de Dunford
On forme la matrice P dont les colonnes sont les vecteurs de la base obtenue à l’étape
précédente. On calcule T = P −1 AP . Cette matrice T est triangulaire supérieure. On la
décompose en T = ∆ + Θ où ∆ est la matrice diagonale dont les termes diagonaux sont
ceux de T . Il ne reste plus qu’à poser

D = P ∆P −1 et N = P ΘP −1 .

Application : Calcul des puissances d’une matrice


1. Cas diagonalisable : Dans ce cas, il existe P ∈ GLn (C) et D diagonale telles que A =
P DP −1 . On constate que A2 = P DP −1 P DP −1 = P D2 P −1 . Une récurrence élémentaire
donne
∀k ∈ N, Ak = P Dk P −1 .
Or, Dk se calcule très facilement :

D = diag(λ1 , · · · , λn ) =⇒ Dk = diag(λk1 , · · · , λkn ).

Finalement, dans le cas A diagonalisable, le calcul de Ak est immédiat pourvu que l’on
connaisse les valeurs propres de A et la matrice de passage de la base canonique de Kn
vers une base de vecteurs propres.
Remarque : Si A est diagonalisable dans C mais pas dans R, rien n’empêche de diago-
naliser dans Mn (C). Le résultat final doit bien sûr être réel !
2. Cas non diagonalisable : Quitte à travailler dans C, on peut toujours supposer que A
est trigonalisable. C’est alors que la décomposition de Dunford va s’avérer particulièrement
utile.
En effet, on peut écrire A = D + N avec D diagonalisable, N nilpotente, et DN = N D.
Comme D et N commutent, on peut appliquer la formule du binôme de Newton :
k
Ckj N j Dk−j .
X
k
A =
j=0

En fait, comme N est nilpotente, on a N j = 0 pour j ≥ p avec p indice de nilpotence de


N . La somme ci-dessus comporte donc au plus p termes 6 même si k est très grand.
6. et l’on sait de plus que p ≤ n.
1.9. SOUS-ESPACES CARACTÉRISTIQUES 31

Pour effectuer le calcul le plus simplement possible, on peut utiliser les matrices ∆, Θ et P
obtenues au cours du processus de détermination de la décomposition de Dunford. Comme
par construction ∆ et Θ commutent, on a
k
X 
Ak = (D + N )k = P (∆ + Θ)k P −1 = P Ckj Θj ∆k−j P −1 .
j=0

Les puissances de ∆ sont immédiates à calculer puisque ∆ est diagonale. Par ailleurs Θ
est nilpotente donc Θj = 0 pour j ≥ n. Donc au pire, il faudra calculer les n − 1 premières
puissances de Θ.

Vous aimerez peut-être aussi