Vous êtes sur la page 1sur 35

Réduction des endomorphismes et des matrices

Mohammed Issoual
20 octobre 2021

Table des matières


1 Sous-espaces stables 3
1.1 Définition et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2 Polynômes d’endomorphismes et de matrices, polynômes annulateurs 6


2.1 Polynômes d’endomorphismes et de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Polynômes annulateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.1 Définition et existence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.2 Premières applications des polynômes annulateurs . . . . . . . . . . . . . . . . . . . . . . 8
2.3 L’idéal annulateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3.1 Idéaux de K[X] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.4 L’idéal annulateur et polynôme minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3 L’algèbre K[u] 11
3.1 L’algèbre K|u] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.2 Endomorphismes cycliques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

4 Valeurs propres, vecteurs propres, sous-espaces propres 12


4.1 Valeurs propres, vecteurs propres d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . 12
4.1.1 Les éléments propres d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

5 Polynôme caractéristique d’un endomorphisme 16


5.1 Polynôme caractéristique d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

6 Multiplicités des valeurs propres et polynôme caractéristique 19


6.1 La dimension du sous-espace propre et multiplicité d’une valeur propre . . . . . . . . . . . . . . . 19
6.2 Cas où χu est scindé :valeur de Tr(u) et det(u) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

7 Théorème de Cayley-Hamilton 20

8 Relation entre polynôme caractéristique et polynôme minimal 21

9 Diagonalisation des endomorphismes et matrices carrées 21


9.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
9.2 Diagonalisation des matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

10 Théorèmes de diagonalisation 22

11 Applications de diagonalisation 26
11.0.1 Calcul des puissances des matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
11.1 Suites récurrentes linéaires simultanées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
11.2 Suites récurrentes linéaires à coefficients constant . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

12 Endomorphismes trigonalisables 28
12.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
12.1.1 Endomorphismes trigonalisables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
12.1.2 Interprétation géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

1
MP-MP*

13 Complément : Trigonalisation simultanée 30

14 Complément : Nilpotents 31

15 Complément : Endomorphismes à polynôme minimal scindé 31

16 Compléments : Commutant d’un endomorphisme 32

17 Complément : Diagonalisation d’une matrice circulante 33

18 Complément : Diagonalisation simultanée 33

19 Complément : Sous-espaces caractéristiques-Réduction de Jordan 33


19.1 Sous-espaces caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

2 M.ISSOUAL
MP-MP*

Réduction des endomorphismes et des matrices


carrées
1 Sous-espaces stables
1.1 Définition et propriétés
Définition 1.1.1. Soit u ∈ L(E) et F un sous-espace de E. On dit que F est stable par u si u(F ) ⊂ F. Si F
est un sous-espace de E stable par u alors la restriction de u à F induit sur F un endomorphisme noté v = u|F .
Exemples
1. Soit E = R[X],pour tout entier n ∈ N∗ , En = Rn [X], et u l’endomorphisme de E définie par :

∀P ∈ E, u(P ) = P (X + 1) − P (X).

On a : ∀P ∈ En , deg(P ) = deg(P ) − 1.
On déduit que les En sont donc stables par u.
2. Si E un K-espace vectoriel et u ∈ L(E), alors ker u et Imu sont stables par u.
En effet soit y ∈ u(Imu), il existe alors y 0 ∈ Imu tel que y = u(y), or il existe x ∈ E tel que y 0 = u(x),
donc y = u(u(x)) ∈ Imu.
Pour y ∈ u(ker u), il existe x ∈ ker u tel que y = u(x), ainsi u(y) = 0 et donc y ∈ ker u.
3. Soit E = R[X],pour tout entier n ∈ N, En = Rn [X], et soit D l’endomorphisme définit sur E par :

∀P ∈ E, D(P ) = P 0 .

Il est clair que les En = Rn [X] sont stables par D.


Soit maintenant F un sous-espace de E de dimension n + 1 stable par D. Notons B = (P1 , P2 , ..., Pn+1 )
une base de F et notons m = max degPi , on a :
1≤i≤n+1

∀P ∈ F, degP ≤ m.

on déduit que :
∀P ∈ E, Dm+1 (P ) = 0.
ainsi l’endomorphisme induit par D sur F est nilpotent et d’après un résultat classique Dn+1 (P ) = 0, ∀P ∈
F. On en déduit alors que :
∀P ∈ F, degP ≤ n.
d’où F ⊂ Rn [X] et comme ils ont la même dimension on conclut que F = Rn [X].
On déduit que les sous-espaces stables par D sont les (En , n ∈ N), {0}, E.

Stabilité de l’image et du noyau d’un endomorphisme par un autre


Théorème 1.1.2.
endomorphisme
Soit u et v deux endomorphismes tels que u ◦ v = v ◦ u, alors Im(u) et ker(u) sont stables par v.
Démonstration. Montrons que :

∀y ∈ Imv, u(y) ∈ Imv et ∀x ∈ ker v, u(x) ∈ ker v.

• Soit y ∈ Imv, il existe alors x ∈ E tel que y = v(x), on a donc u(y) = u(v(x)) = v(u(x)) ∈ Imv. Donc
u(y) ∈ Imv.
• Soit x ∈ ker v, on a : v(u(x)) = u(v(x)) = u(0) = 0. Donc u(x) ∈ ker v.

3 M.ISSOUAL
MP-MP*

Théorème 1.1.3. Théorème :Trigonalisation par blocs


Soit u ∈ L(E), E de dimension finie et F un sous-espace de E.Alors F est stable par u si et seulement si il
existe une base adaptée à F telle que la matrice de u dans cette base est
 
A C
.
O D

Démonstration. Soit G un sous-espace de E supplémentaire de F. L


• Supposons que F soit stable par u, soit B = BF , BG une base E adaptée à la décomposition E = F G.
Notons v l’endomorphisme induit par u sur F. Comme F est stable par u il est clair u(BF ) ∈ vect(B F ), et que

A C
u(BG ) ∈ vect(B) et si A = MatBF (v) ∈ MdimF (K) Alors la matrice de u dans la base B est donc .
O D
Où B ∈ MdimG (K). et C une matrice triangulaire dans MdimF,dimG (K).
 • Réciproquement
 supposons qu’il existe une base de E adaptée à F dans la quelle la matrice de u est
A C
. Alors A = matBF (u|F ), on déduit que u(BF ) ⊂ F et donc u(F ) ⊂ F.
O D

Remarque 1.1.4. Soit E un espace vectoriel de dimension n, Soit AF l’ensemble des endomorphismes qui
laissent stable un sous-espace F de E de dimension p. Il est clair(que A est une sous-algèbre de L(E) cherchons
 
A C
la dimension de AF . Soit B une base de E adaptée à F ,et MF = ; A ∈ Mp (K), B ∈ Mn−p (K), C ∈
O B
)
Mp,n−p (K) . On considère l’application :


AF → MF
Ψ:
u 7→ MatB

On voit que Ψ est un isomorphisme d’espaces vectoriels d’après le théorème précédent, on déduit que
dimAF = p2 + p(n − p) + (n − p)2 = n2 + p2 − np.

Corollaire 1.1.5. Corollaire :Diagonalisation par blocs


Soit E un K -espace vectoriel de dimension finie, F et G deux sous-espaces vectoriels supplémentaires de E
alors :

F et G sont stables par u ⇔ il existe une base de E telle la matrice de u dans cette base est de la forme
 
A O
.
O D
 
A O
Démonstration. • Supposons qu’il existe une base B de E telle la matrice de u dans cette base est .
O D
Si dimF = p et dimG = q,quitte à réordonner les éléments de la base B on peut supposer que les p premiers
éléments de B forment la base de BF de F et les q derniers forment la base BG de G , la forme géométrique de
la matrice de u permet de conclure que u(BF ) ∈ F et u(BG ∈ G ainsi F et G sont stables par u.
• La réciproque est évidente.

Par récurrence on a le :

Théorème 1.1.6. Soit (E1 , ..., Er ) une famille de sous-espaces de somme directe égale à E ;u ∈ L(E) laisse
stable les sous-espaces Ei si et seulement
 toute base adaptée à la décomposition E = E1 ⊕ ... ⊕ Er , la
si dans 
A1 O
matrice de u dans cette base est 
 ..  où Ai = MatBi (u|E ).

. i

O Ar

4 M.ISSOUAL
MP-MP*

Exemple 1.1.7. Soit E un R-espace vectoriel de dimension finie n > 0. Et soit u ∈ L(E) tel que u2 = −IdE . Soit
x1 un vecteur non nul, la famille F1 = (x1 , u(x1 )) est libre, en effet si a et b deux réels tels que ax1 +bu(x1 )) = 0
en composant par u on obtient au(x1 ) − bx1 = 0, d’où (a2 + b2 )x1 = 0 et comme x1 6= 0 on déduit que
a2 + b2 = 0 et puisque a et b sont des réels on déduit que  a = b = 0. Notons E1 = vect(F∞ ) si E = F1
0 −1
on déduit que la matrice de u dans la base F1 est A1 = . Si F1 E il existe x2 ∈ E tel que
1 0
x2 ∈/ F1 , alors la famille F2 = (x1 , u(x1 ), x2 , u(x2 )) estL
libre et on pose F2 = vect(F2 ),on a Fi sont stables
par
 u car u(F
 i ) = vect(−x i , u(x i )) = Fi et si E = F1 F2 alors la matrice de u dans la base F1 , F2 ) est
A1 O L L
. Supposons qu’il existe p vecteurs non nuls x1 , ..., xp tel que ∀i ∈ {2, ..., p}, xi ∈/ F1 ... Fi−1
O A2
[p
L L
alors par construction Fi = (xi , u(xi ) libre et la famille Fi est libre. Si F1 ... Fp E alors il existe
i=1
p+1
[
L L
xp+1 ∈ E et xp+1 ∈
/ F1 ... Fp alors la famille Fi , en effet soit a1 , ..., ap+1 , b1 , ..., bp+1 des réels tels que
i=1
p+1
X p+1
X p+1
X p+1
X
ak xk + bk u(xk ) = 0 (1) en composant par u on obtient ak u(xk ) − bk xk = 0 (2) en calculant
k=1 k=1 k=1 k=1
ap+1 .(1) − bp+1 .(2) on obtient
p+1
X p+1
X p+1
X p+1
X
ap+1 ak xk + ap+1 bk u(xk ) − bp+1 ak u(xk ) + bp+1 bk xk = 0
k=1 k=1 k=1 k=1

c’est à dire :
p
X p
X
(ap+1 ak + bp+1 bk )xk + (ap+1 bk − bp+1 ak )u(xk ) + (a2p+1 + b2p+1 )xp+1 = 0.
k=1 k=1

si a2p+1 + bL
2
p+1 6=
L0 alors xp+1 sera combinaison linéaire des x1 , ..., xp , u(x1 ), .., u(xp ) ce qui est impossible
car xp+1 ∈/ F1 ... Fp , donc on a forcément ap+1 = bp+1 = 0 et par la liberté des x1 , ..., xp , u(x1 ), .., u(xp ) et
p+1
[
par hypoesthésie de récurrence on a1 = ... = ap = b1 = ... = bp = 0 et la famille Fi est libre , ainsi il existe
i=1
p
[ p+1
[
un rang p pour le quel Fi est une base de E si non pour tout p ∈ N on aura Fi est libre et donc 2p ≤ n
i=1 i=1
ce qui est absurde. Dans ce cas on a
M M
E = F1 ... Fp et tout Fi est stable par u.
 
A1 O ··· O
p
 [ O A2 O  
0 −1

la matrice de u dans la base Fi est   où Ai = .
 
.. .. 1 0
i=1
 . . O 
O ··· O Ap

5 M.ISSOUAL
MP-MP*

2 Polynômes d’endomorphismes et de matrices, polynômes annula-


teurs
2.1 Polynômes d’endomorphismes et de matrices
p
X
Définition 2.1.1. Soit E un K-espace vectoriel,u ∈ L(E), P ∈ K[X], P = ak X k . On définit l’endomor-
k=1
phisme (dit polynôme de u)
P (u) := a0 IdE + a1 u + ... + ap up .
Les règles de calculs pour les polynômes d’endomorphismes sont, pour P, Q dans K[X] et u ∈ L(E), λ ∈ K.

1(u) = IdE , (λP)(u) = λP(u), (P + Q)(u) = P(u) + Q(u), (P.Q)(u) = P(u) ◦ Q(u).
de même pour les matrices M ∈ Mn (K).

1(M ) = In , (λP )(M ) = λP (u), (P + Q)(M ) = P (M ) + Q(M ), (P.Q)(M ) = P (M ).Q(M ).

Soit λ ∈ K, P ∈ K[X], P (λIdE ) = P(λ)IdE .


Théorème 2.1.2. Soit P ∈ K[X] et u ∈ L(E), on sait que u ◦ P (u) = P (u) ◦ u, alors ker P (u) et ImP (u) sont
stables par u. On a de même pour tout (P, Q) ∈ K[X]2 , ker P (u) et ImP (u) sont stables par Q(u).
p
X
Démonstration. Soit P (X) = ak X k , on a P (u) est un endomorphisme qui commute avec u car pour tout
k=0
entier naturel k, on ak uk ◦ u = u ◦ ak uk et par sommation on obtient P (u) ◦ u = u ◦ P (u). On déduit aussi que
Xq
pour tout entier naturel j,P (u) ◦ uj = uj ◦ P (u) et si Q(X) = alors Q(u) ◦ P (u) = P (u) ◦ Q(u).
j=0

Exemple
m
X
Soit P (X) = ak X k , et p un projecteur de E.
k=0
Alors P (p) = P (1)p + P (0)(IdE − p).
Théorème 2.1.3. • Soit u ∈ L(E), v ∈ GL(E) et P ∈ K[X]. Alors

P (u−1 ◦ v ◦ u) = u−1 ◦ P (v) ◦ u.

• Soit M ∈ Mn (K), A ∈ GLn (K). Alors

P (A−1 M A) = A−1 P (M )A.

Démonstration. • Il suffit de remarquer que pour tout entier k ∈ N, on a :(u−1 ◦ v ◦ u)k = u−1 ◦ v k ◦ u, et si
Xm m
X m
X m
X
ak X k , alors P (u−1 ◦ v ◦ u) = ak (u−1 ◦ v ◦ u)k = ak u−1 ◦ v k ◦ u = u−1 ◦ ak v k ◦ u par

P (X) =
k=0 k=0 k=0 k=0
linéarité de u et u−1 .
• Pour une matrice carrée M et toute matrice inversible P on pour tout entier k ∈ N, (A−1 M A)k = A−1 M k A
m
X Xm
ak (A−1 M A)k = A−1 ak M k A. c’est à dire P (A−1 M A) = A−1 P (M )A.

et par sommation on obtient :
k=0 k=0

Théorème 2.1.4. Soit P ∈ K[X], u ∈ L(E) et F un sous-espace de E stable par u, alors :

P (u)|F = P (u|F ).

Démonstration. Il est clair que F est uk pour tout entier naturel k, car ∀x ∈ F, uk (x) = u(uk−1 )(x) et une
récurrence simple sur k permet de conclure puisque ∀x ∈ F, u(x) ∈ F. Ainsi P (u)(F ) ⊂ F. D’autre part
∀k ∈ N, uk|F = (u|F )k , et donc P (u)|F = P (u|F ).

6 M.ISSOUAL
MP-MP*

Théorème 2.1.5. Théorème de décomposition des noyaux


Soit u ∈ L(E),et P et Q sont deux polynômes premiers entre eux alors :
ker P Q(u) = ker P (u) ⊕ ker Q(u).
Démonstration. D’prés l’identité de Bézout il existe deux polynômes A et B tels que AP + BQ = 1,d’ou
A(u) ◦ P (u) + B(u) ◦ Q(u) = IdE . Soit x ∈ E on a : x = A(u) ◦ P (u)(x) + B(u) ◦ Q(u)(x) .
| {z } | {z }
  =x2 =x1

On a :P (u)(x1 ) = P (u) B(u) ◦ Q(u)(x) = B(u) ◦ (P (u) ◦ Q(u)(x)) = 0. de même on a Q(u)(x2 ) = 0.


On déduit que ker(P.Q)(u) = ker P (u) + ker Q(u). Soit mantenant x ∈ ker P (u) ∩ ker Q(u) en appliquant
x = Q(u)(P (u)(x)) + P (u)(Q(u)(x)) = 0. D’ou ker P Q(u) = ker P (u) ⊕ ker Q(u).

Par récurrence on a le corollaire suivant

Corollaire 2.1.6. Si P1 , ..., Pr sont premiers entre eux deux à deux alors
r
Y r
M
ker( Pk (u)) = ker Pk (u).
k=1 k=1

Exemples :
1. Les polynômes X et X − 1 sont premiers entre eux. Si u est un projecteur d’un K-espace vectoriel, alors :
M
E = ker u ker(IdE − u).

2. Les polynômes X − 1 et X + 1 sont premiers entre eux, et si s est une symétrie de E alors :
M
E = ker(s + IdE ) ker(s − IdE ).

3. Soit E un C-espace vectoriel , u ∈ L(E) et P un polynôme tel P (u) = 0, alors ker P (u) = E, ainsi si
λ1 , ..., λp sont les racines de P deux à deux distincts avec leurs ordres de multiplicités respectives m1 , ..., mp
on a la décomposition en facteurs premiers de P.
p
Y
P (X) = (λ − Xk )mk .
k=1

En appliquant le corollaire on obtient :


p
M
E= ker(u − λk IdE )mk .
k=1

2.2 Polynômes annulateurs


2.2.1 Définition et existence
Définition 2.2.1. On dit que P annulateur de u(resp de M ∈ Mn (K)) si P (u) = 0 (resp P (M ) = O la matrice
nulle)
 
a b
Exemple 2.2.2. Si A = , alors X 2 − tr(A)X + detA est annulateur de A.
c d
Exemple 2.2.3. Soit u un projecteur de E, c’est à dire u2 = u, alors le polynôme X 2 − X est annulateur de u.
Soit u une symétrie de E c’est à dire u2 = IdE , alors le polynôme X 2 − 1 est annulateur de u.
 
1 ··· ··· 1
 .. . 
 . 1 · · · ..  2
Exemple 2.2.4. Soit J =  . .  ∈ Mn (R), on remarque que J = nJ, ainsi le polynôme
 
 .. · · · . . . .. 
1 ··· ··· 1
X 2 − nX est annulateur de J. On remarque aussi que :
∀p ∈ N∗ , J p = np−1 J.

7 M.ISSOUAL
MP-MP*

Exemple 2.2.5. Matrice compagnon


Soit P (X) = X n + an−1 X n−1 + · · · + a1 X + a0 un polynôme de K|X], on considère la matrice d’ordre n
 
0 ··· 0 −a0
 .. 
 1 . 0 −a1 
CP =  ..

 .. 
 0 . 0 . 
0 0 1 −an−1

Montrons que P est un polynôme annulateur de CP .


Soit u l’endomorphisme canoniquement associé à CP si on B = (e1 , ..., en ) la base canonique de Kn on
remarque que : 

 u(e1 ) = e2
 ..

.


 u(en−1 ) = en
u(en ) = −a0 e1 − ... − an−1 en

ainsi ei = ui−1 (e1 ), 2 ≤ i ≤ n, et donc un (e1 ) = −a0 e1 − a1 u(e1 )... − an−1 un−1 (e1 ). Et donc P (u)(e1 ) = 0, on
déduit que pour tout indice i ∈ {2, ..., n}, P (u)(ei ) = P (u)(ui−1 )(e1 ) = ui−1 P (u) (e1 ) = 0.
Donc l’endomorphisme P (u) s’annule sur les éléments de la base, par suite P (u) = 0,or la matrice de P (u)
dans la base B et suivant les règles de calculs citées plus haut est P (CP ) et donc P (CP ) = O.
Théorème 2.2.6. Existence d’un polynôme annulateur
• Soit E un K-espace vectoriel de dimension n et u ∈ L(E), alors il existe un polynôme non constant
annulateur de u.
• Pour toute matrice A ∈ Mn (K) il existe un polynôme non constant annulateur de A.
2
Démonstration. • Puisque dimL(E) = n2 , alors la famille (IdE , u, ..., un ) qui est de cardinal n2 + 1 est liée, il
2
existe donc a0 , a1 , ..., an2 des scalaires non tous nuls tels que a0 IdE + a1 u + ... + an2 un = 0 ainsi le polynôme
2
n
X
P (X) = ak X k annule u.
k=0
• Pour les matrices c’est la même preuve.

2.2.2 Premières applications des polynômes annulateurs


 L’inverse d’une matrice inversible
Théorème 2.2.7. Inversibilité d’une matrice
Soit M ∈ Mn (K) et soit P un polynôme non constant dont 0 n’est pas racine et tel que P est un polynôme
annulateur de A,alors A est inversible et il existe un polynôme Q tel que A−1 = Q(A).
Démonstration. Soit P (X) = a0 + a1 X + ... + ap X p on a P (0) = a0 6= 0 et P (A) = a0 In + a1 A + ... + ap Ap = O,
1 
alors A(−a1 In − ... − ap Ap−1 ) = a0 In ce qui donne que A. −a1 In − ... − ap Ap−1 = In . On conclut que la
a0
−1 1 
matrice A est inversible et d’inverse A = −a1 In − ... − ap Ap−1 .
a0

Exemple
Soit M ∈ Mn (K) telle que (M − In )2 (M − 2In ) = O, on alors M 3 − 4M 2 + 5M − 2In = 0, ce qui donne
1
M −1 =

M 2 − 4M + 5In .
2
 Calcul des puissances d’une matrice
p
X
Si P = pk X k un polynôme annulateur d’une matrice carrée M ∈ Mn (K), on veut calculer les puissances
k=0
M q , pour cela on fait la division euclidienne X q par P.

X q = QP + R, degR < p ou R = 0.

8 M.ISSOUAL
MP-MP*

D’où :
M q = R(M ).

Exemple 2.2.8. Soit M ∈ Mn (K) telle que (A − In )2 (A − 2In ) = O. La division euclidienne de X q , q ∈ N par
(X − 1)2 (X − 2) donne :
X q = Qq (X)(X − 1)2 (X − 2) + aq X 2 + bq X + cq .
Il est facile de voir, en prenant les valeurs en 1 et 2 que :

 aq + bq + cq = 1
4aq + 2bq + cq = 2q
2aq + bq = q.

D’où
aq = 2q − q − 1, bq = −2q+1 + 3q + 2, cq = 2q − 2q.
On obtient alors :
M q = (2q − q − 1)M 2 + (−2q+1 + 3q + 2)M + (2q − 2q)In .

2.3 L’idéal annulateur


2.3.1 Idéaux de K[X]
Définition 2.3.1. Idéal de K[X]
Soit I une partie de K[X], I est dit idéal de K[X] si :

(I, +) est un sous-groupe de K[X]
∀(A, P ) ∈ I × K[X], P A ∈ I

Exemple 2.3.2. 1. Soit π un polynôme,l’ensemble πK[X] des polynômes multiples de π(X) est un idéal de
K[X]
2. Soit I un idéal de K[X] tel que 1 ∈ I, alors I = K[X].
En effet, soit A ∈ K[X] puisque 1 ∈ I, alors A.1 = A ∈ I ainsi I = K[X].
De même si I contient une constante non nulle λ, alors λ1 .λ = 1 ∈ I, d’où I = K[X].
Théorème 2.3.3. Classification des idéaux de K[X]
Soit I un idéal de K[X], il existe un polynôme π(X) tel que :

I = πK[X].

Démonstration. Si I = {0}, alors π = 0.


Si I =
6 {0}, notons I = {degP |P ∈ I}.
On a I est non vide puisque I est non nul,en plus I est une partie de N, elle admet donc un plus petit
élément, notons d = min I et π ∈ I tel que degπ = d. Montrons que I = πK[X]. Comme π ∈ I, on déduit que
pour tout A ∈ K[X] on a πA ∈ I ainsi πK[X] ⊂ I. pour l’inclusion inverse, soit P ∈ I la division euclidienne de
P par π donne :∃(Q, R) ∈ K[X]2 , P = Qπ + R tel que 0 ≤ degR < d. Si R 6= 0 on conclut que P − Qπ = R ∈ I
et par suite degR ∈ I ce qui contredit la définition de d. D’où R = 0 et donc P ∈ πK[X]. On déduit que
I = πK[X].

2.4 L’idéal annulateur et polynôme minimal


Théorème 2.4.1. L’idéal annulateur d’un endomorphisme
Soit u ∈ L(E), E espace vectoriel de dimension finie n > 0. Alors l’ensemble Iu = {P ∈ K[X], P (u) = 0}
est un idéal non nul de K[X]
Démonstration. Il est clair que Iu est non nul, car on déjà vu qu’il existe un polynôme annulateur de u non
nul, d’autre part si P et Q sont deux éléments de Iu , on a : (P − Q)(u) = P (u) − Q(u) = 0 et pour tout
A ∈ K[X], (A.P )(u) = A(u) ◦ P (u) = 0, donc P − Q ∈ Iu et A.P ∈ Iu . Donc Iu est un idéal de K[X] non
nul

9 M.ISSOUAL
MP-MP*

Définition 2.4.2. Polynôme minimal


Le polynôme unitaire noté πu (X) de plus bas degré qui vérifie :

Iu = πK[X].

est dit polynôme minimal de u. noté πu .


On a donc :

∀P ∈ K[X], P (u) = 0 ⇒ πu (X)|P (X).

Théorème 2.4.3. Soit u ∈ L(E) et F un sous-espace stable par u, alors πu|F |πu .

Démonstration. Le polynôme πu annule u|F et on a le polynôme minimal de u|F est πu|F ainsi πu|F divise πu .

Remarque 2.4.4. De la même manière on définit le polynôme minimal d’une matrice carrée A, c’est exacte-
ment le polynôme minimal de l’endomorphisme u associé dans la base canonique de Kn .

πA (X) = πu (X).

πA (X) est donc le polynôme unitaire de plus bas degré qui annule A, on a donc

∀P ∈ K[X], (P (A) = O ⇒ πA divise P).

Exemples 2.4.5. 1. Soit J ∈ Mn (R) la matrice dont tous ses coefficients valent 1, on a J 2 = nJ. Donc
X − −nX annule J; comme J 6= 0 et J 6= nIn , on déduit πJ (X) = X 2 − nX.
2

2. Soit E un K-espace vectoriel, et u ∈ L(u) nilpotent d’indice p ∈ N∗ c’est dire :


 p
u =0
up−1 6= 0

Alors X p est un polynôme annulateur,donc πu divise X p par suite il existe k ∈ N∗ tel que πu (X) = X k
or up−1 6= 0 donc πu (X) = X p−1 .
3. Matrice compagnon
Soit P (X) = X n + an−1 X n−1 + · · · + a1 X + a0 un polynôme de K|X], on considère la matrice d’ordre n
 
0 ··· 0 −a0
 1 ... 0
 
−a1 
CP =  
..

 0 ... 0

. 
0 0 1 −an−1

On déjà vu que P est un polynôme annulateur de CP . Ainsi πCP divise P (X) si degπCP = d < n en notons
u l’endomorphisme canoniquement associé dans la base canonique B = (e1 , ..., en ) de Kn et en notant :

πCp (X) = X d + bd−1 X d−1 + ... + b1 X + b0 .

on aura :
ud − bd−1 ud−1 − ...b1 u − b0 IdE = 0.
en appliquant ceci à e1 on trouve :

ed+1 − bd−1 e − d − ...b1 e2 − b0 e1 = 0.

d’ou la famille (ed+1 , ed , ..., e1 ) est liée ce qui est absurde car c’est une sous-famille de B donc libre, par
suite degπCP = n et on déduit que πCp et P sont associés et puisque sont unitaires ils sont égaux.

10 M.ISSOUAL
MP-MP*

3 L’algèbre K[u]
3.1 L’algèbre K|u]
Soit u un endomorphisme de E. On note ϕu le morphisme d’algèbres suivant :

K[X] → L(E)
ϕu :
P (X) 7−→ P (u)
Le noyau Im(ϕu ) est noté K[u].
c’est à dire
K[u] = {P (u)|P ∈ K[X]}.
De même si M est une matrice carrée de Mn (K), alors

K[M ] := {P (M )|P ∈ K[X]}

Théorème 3.1.1. K[u] est une sous-algèbre de L(E).


Démonstration. Évident
Théorème 3.1.2. Si E est de dimension finie, alors

dim (K[u]) = degπu .

Démonstration. Il est clair que {idE , u, · · · , ud−1 } est une famille libre donc K[u] avec deg(πu ) = d. Soit F =
Vect idE , u, · · · , ud−1 , on a dimF = d et F un sous-espace vectoriel de K[u]. Soit maintenant v ∈ K[u], il
existe un polynôme P tel que v = P (u). La division euclidienne de P par πu donne un polynôme R de degré
≤ d − 1 tel que P = πu Q + R, d’où v = R(u) ∈ F. Finalement

K[u] = Vect idE , u, · · · , ud−1 .




3.2 Endomorphismes cycliques


Soit u un endomorphisme d’un K-espace vectoriel de dimension finie n > 0.
Définition 3.2.1. u est dit cyclique, s’il existe x0 ∈ E tel que B = {x0 , · · · , f n−1 (x0 )} est une base de E.
Théorème 3.2.2. Soit u un endomorphisme cyclique de E, alors
1. deg(πu ) = n.
2. Si v ∈ C[u] := {h ∈ L(E)|h ◦ u = u ◦ h}, alors il existe un polynôme P tel que v = P (f ).
3. C|u] = K[u].
n
X
Démonstration. 1. La famille F = (idE , u, ..., un−1 ) est libre, car si α0 , ..., αn−1 de scalaires tels que αk uk =
k=0
n
X
0, alors αk uk (x0 ) = 0. Comme B = (x0 , u(x0 ), ...; un−1 (x0 )) est une base, on conclut que αi = 0 pour
k=0
tout indice i. Or F ⊂ K[u] ce qui montre n ≤ d.
Montrons maintenant que d ≤ n. Comme B une base, il existe a0 , · · · , an−1 des scalaires tels que

un (x0 ) = an−1 un−1 (x0 ) + · · · + a0 x0 .

Soit
P (X) = X n − an−1 X n−1 + ... − a1 X − a0 .
On P (u)(x0 ) = 0 d’autre part si 1 ≤ j ≤ n − 1, alors P (u)(uj (x0 )) = uj (P (u)(x0 )) = 0. Donc P (u) est
un endomorphisme qui s’annule sur les éléments de la base ; il est donc nul. Ainsi P est un polynôme
annulateur, et par suite πu divise P ; Donc d ≤ n et finalement d = n.

11 M.ISSOUAL
MP-MP*

n
X
2. Soit v ∈ C[u], comme B est une base, il existe des scalaires α0 , ..., αn−1 tels que v(x0 ) = αk uk (x0 ).
k=0
n
X n
X
k j
j
Puisque v ◦ u = u ◦ v, il vient que v(u (x0 )) = αk u (u (x0 )). On conclut que v et αk uk coı̈ncident
k=0 k=0
n
X
sur la base B de E, ils sont donc égales, c’est à dire v = αk uk = P (u).
k=0
3. D’après la question précédente on a C[u] ⊂ K[u] et puisque pour tout polynôme P on P (u) commute avec
u, on conclut que K[u] ⊂ C[u]. D’où l’égalité C[u] = K[u].

4 Valeurs propres, vecteurs propres, sous-espaces propres


4.1 Valeurs propres, vecteurs propres d’un endomorphisme
Définition 4.1.1. Soit E un K-espace vectoriel ,u ∈ L(E), λ ∈ K est dite valeur propre de u s’il existe un
vecteur x non nul tel que u(x) = λx, x est dit un vecteur propre associé à λ.
Théorème 4.1.2. Soit u ∈ L(E), x un vecteur non nul de E. x est vecteur propre si l’une des trois propriétés
suivantes est satisfaite
• (x, u(x)) est lié.
• vect(x) est stable par u.
Démonstration. La famille (x, u(x)) est liée si et seulement si il existe λ ∈ K tel que u(x) = λx,c’est à dire
u(vect(x)) ⊂ vect(x).

Théorème 4.1.3. Soit u ∈ L(E).


λ est valeur propre si et seulement si u − λIdE est non injectif.
Démonstration. Supposons que λ est valeur propre de u, alors il existe un vecteur propre x tel que u(x) = λx
autrement dit x ∈ ker(u − λIdE ), d’où ker(u − λIdE ) 6= {0}, donc u − λIdE est non injectif. Réciproquement si
u − λIdE est non injectif, il existe alors un vecteur non nul x tel que (u − λIdE )(x) = 0 c’est à dire u(x) = λx.

Corollaire 4.1.4. Si E est de dimension finie, et u ∈ L(E). Alors :

λ est valeur propre si et seulement si det(u − λIdE ) = 0.

Démonstration. Ceci car :

u − λIdE est injectif si et seulement si u − λIdE estbijectif si et seulement si det(u − λIdE ) 6= 0.

On note SpK (u) l’ensemble des valeurs propres de u

Remarque 4.1.5. Remarques importantes


1. Soit u ∈ L(E) où E un K-espace vectoriel de dimension finie, alors :

u est inversible ⇔ 0 ∈
/ SpK (u)

2. Si λ ∈ SpK (u), alors tout polynôme P , on a P (λ) ∈ SpK (P (u))


Démonstration. Soit x un vecteur propre associé à λ c’est à dire u(x) = λx, alors pour tout entier naturel k,
p
X
on a uk (x) = λk x. Si P (X) = ak X k , alors :
k=0

12 M.ISSOUAL
MP-MP*

p
X
ak uk (x)

P (u)(x) =
k=0
p
X
= ak λk (x)
k=0
= P (λ)x.

Théorème 4.1.6. Indépendance des vecteurs propres


Soit u ∈ L(E), on note λ1 , ..., λp des valeurs propres deux à deux distinctes associées respectivement aux
vecteurs propres x1 , ..., xp , alors la famille (x1 , ..., xp ) est libre.
Démonstration. On va démontrer le théorème par récurrence sur p,soit Hp la proposition du théorème.
pour p = 1 le théorème est vraie
Supposons Hp vrai pour un p ≥ 1, soit λ1 , ..., λp , λp+1 des valeurs propres de u deux à deux distinctes
et soit x1 , ..., xp , xp+1 des vecteurs propres associés respectivement, soit α1 , ..., αp+1 des scalaires tels que :
p+1
X p+1
X
αk xk = 0, en appliquant u on obtient λk αk xk = 0, en particulier
k=0 k=0

p
X
λp+1 αp+1 xp+1 + λk αk xk = 0
k=0

or
p
X
λp+1 αp+1 xp+1 + λp+1 αk xk = 0
k=0

en faisant la soustraction des deux équations on obtient :


p
X 
αk λk − λp+1 xk = 0.
k=0

on applique l’hypothèse de récurrence, on obtient :

∀k ∈ {1, ..., p} (λk − λp+1) )αk = 0

or k 6= p + 1 ⇒ λk 6= λp+1 ⇒ αk = 0, ∀1 ≤ k ≤ p. on déduit alors que αp+1 = 0 et par suite Hp+1 est


vraie, d’où le théorème.

Définition 4.1.7. Sous-espace propre


Si λ est une valeur propre de u le sous-espace Eλ (u) = ker(u − λIE ) est appelé sous-espace propre de u
associé à λ.

Théorème 4.1.8. Soit u ∈ L(E), λ ∈ SpK (u), alors le sous-espace propre Eλ (u) est stable par u.
Démonstration. Il suffit de remarquer que u et u − λIdE commutent, et donc ker(u − λIdE ) est stable par u.

Théorème 4.1.9. Somme directe des sous-espaces propres


Soit p ∈ N∗ ,E un K-espace vectoriel,et u ∈ L(E). Soit λ1 , ..., λp des valeurs propres de u deux à deux
distinctes alors les sous-espaces propres Eλ1 (u), ..., Eλp (u) sont en somme directe.
Démonstration. La démonstration se fait par récurrence sur p
Le théorème est évident pour p = 1.

13 M.ISSOUAL
MP-MP*

Supposons le résultat Hp vraie pour p et soit λ1 , ..., λp , λp+1 des valeurs propres de u deux à deux distinctes,
p+1
X p+1
X
soient (x1 , ..., xp+1 ) ∈ Eλ1 (u)×...×Eλp (u)×Eλp+1 (u) tels que xk = 0 en appliquant u on obtient λk xk =
k=1 k=1
0. On a ainsi :
p+1
X p+1
X p
X
λp+1 xk − λ k xk = (λp+1 − λk )xk = 0
k=1 k=1 k=1

et par hypothèse de récurrence Hp qui est vraie pour p on déduit que :

∀k ∈ {1, ..., p} (λp+1 − λk )xk = 0.

or k 6= p + 1 ⇒ λk 6= λp+1 ⇒ xk = 0, ∀1 ≤ k ≤ p. on déduit alors que xp+1 = 0 et par suite Hp+1 est


vraie, d’où le théorème.

Théorème 4.1.10. Valeurs propres et polynôme annulateur


Soit E un K-espace vectoriel et u ∈ L(E). Soit P un polynôme annulateur de u, alors :

λ ∈ SpK (u) ⇒ λ racine de P

Démonstration. On sait que si λ est valeur propre de u alors P (λ) est valeur propre de P (u) or si P (u) = 0
alors P (λ) = 0.
Remarque 4.1.11. Ainsi si P est un polynôme annulateur de u alors les valeurs propres sont à chercher parmi
les racines de P.

4.1.1 Les éléments propres d’une matrice carrée


Définition 4.1.12. Soit A ∈ Mn (K), n ∈ N∗ .
Un scalaire λ est valeur propre de A, s’il existe un vecteur X ∈ Mn,1 (K) non nul tel que AX = λX. On
note SpK (A) l’ensemble des valeurs propres de A
Si λ est une valeur propres de A, le sous-espace propre associé est :

ker(A − λIn ) = {X ∈ Mn,1 (K)|AX = λX}.

ainsi on :
λ ∈ SpK (A) ⇔ det(A − λIn ) = 0.

0 ∈ SpK (A) ⇔ A est non inversible.

λ ∈ SpK (A) ⇒ λk ∈ SpK (Ak ).

Théorème 4.1.13. Soit A et B deux matrices semblables, alors A et B ont les mêmes valeurs propres
Démonstration. Il existe une matrice inversible P telle que B = P −1 AP. Soit λ une valeur propre de A, il existe
alors un vecteur propre X tel que AX = λX, posons Y = P −1 X puisque X est non nul et P −1 inversible alors
Y est non nul et on a :

BY = P −1 AP P −1 X = P −1 AX
= λP −1 X.
= λY.

Donc λ est valeur propre de B et par symétrie toute valeur propre de B est une valeur propre de A
Remarque 4.1.14. Si A et B sont deux matrices semblables alors :

SpK (A) = SpK (B).

Si B = P −1 AP, P ∈ GLn (K) on plus :

14 M.ISSOUAL
MP-MP*

X ∈ ker(A − λIn ) ⇔ P −1 X ∈ ker(B − λIn ).



ker(A − λIn ) → ker(B − λIn )
Ainsi l’application : est un isomorphisme d’espaces vectoriels et par suite
X 7→ P −1 X

dim ker(A − λIn ) = dim ker(B − λIn )

et donc
rg(A − λIn ) = rg(B − λIn ).

Exemple 4.1.15. Soit E un R-espace vectoriel et p un projecteur de E différent de l’identité et de l’application


nulle, comme p2 = p. Les valeurs propres de p sont les λ tels que λ2 = λ ainsi λ ∈ {0, 1} or ker p est non nul,il
existe x non nul tel que p(x) = 0 ainsi 0 est valeur propre d’autre part ker(p − IdE ) est non nul,il existe x non
nul tel que p(x) = x et donc 1 est valeur propre de p d’où SpR = {0, 1}.
Exemple 4.1.16. Soit u l’endomorphisme de Mn (R) définit par :

Mn (R) −→ Mn (R)
u:
M 7→ M + trM In

Il est clair que u est un endomorphisme.


Soit λ une valeur propre de u, il existe alors une matrice A non nulle telle que u(A) = λA, ce qui donne
Tr(A)In + A = λA, en prenant la trace on obtient (n + 1)Tr(A) = λA.
Tr(A)
Si Tr(A) 6= 0, alors λ = n + 1, ce qui donne A = In . Donc n + 1 est valeur propre et on a
n
En+1 (u) = vect(In ).

Si Tr(A) = 0, alors λ = 1 est valeur propre et le sous-espace propre associé est

E1 (u) = ker Tr.

Exemple 4.1.17. Soit E = Cn [X], α ∈ C et soit u l’endomorphisme de E défini par :


0
∀P ∈ E, u(P ) = (X + α)P

Soit λ une valeur propre de u et P un vecteur propre associé,c’est à dire u(P ) = λP , il vient alors que

(X + α)P 0 (X) + (1 − λ)P (X) = 0 (1).

• Si λ 6= 1. Alors P (−α) = 0, soit k l’ordre de multiplicité de −α pour P , on alors P (X) = (X + α)k Q(X)
tel que Q(−α) 6= 0. En transportant ceci dans l’équation (1), on trouve :

X + α)Q0 (X) + (k + 1 − λ)Q(X) = 0 (2)

Or Q(−α) 6= 0, ce qui donne λ = k + 1 et Q0 = 0 donc Q(X) = c ∈ C. D’où :

λ = k + 1, P = c(X + α)k .

• Si λ = 1, alors P 0 (X) = 0 et donc P = c ∈ C.


par suite les valeurs propres de u sont {k + 1, k ∈ {0,
 1, ..., n}} et pour chaque valeur propre λk = k + 1, le
sous-espace propre associé est Eλk (u) = vect (X + α)k .
Remarque 4.1.18. Soit M ∈ Mn (K) et u l’endomorphisme de Kn canoniquement associé à M.
Les éléments propres de M sont ceux de u
Remarque 4.1.19. Soit M ∈ Mn (K).
 
M ∈ GLn (K) ⇔ ∀X ∈ Mn1 (K) M X = 0 ⇒ X = 0 .

Donc M est inversible si et seulement si 0 n’est pas valeur propre de M.

15 M.ISSOUAL
MP-MP*

5 Polynôme caractéristique d’un endomorphisme


5.1 Polynôme caractéristique d’une matrice carrée
Définition 5.1.1. Soit n ∈ N∗ , A ∈ Mn (K),on définit :

χA (X) = det(XIn − A).

Théorème 5.1.2. 1. χA (X) est un polynôme unitaire de degré n.


2. χA = X − T r(A)X n−1 + ... + (−1)n det(A).
n

Démonstration. 1. Par récurrence sur n, le résultat est vraie pour n = 1 et n = 2. Supposons le résultat vraie
jusqu’au rang n,Soit A ∈ Mn+1 (K). Le développement de det(XIn+1 − A) suivant la première colonne
donne :
n+1
X
det(XIn+1 − A) = (a1j − Xδ1j )(−1)j+1 det(X(In+1 )1j − A1,j ).
j=1

où A1j la matrice carrée d’ordre n obtenue en supprimant de A la première colonne et la j-ème ligne,et
comme (In+1 )1j = In , on a det(X(In+1 )1j −A1j ) est donc un polynôme de degré ≤ n d’après la récurrence,
or :

n+1
X
det(XIn+1 − A) = (a1j − Xδ1j )(−1)j+1 det(X(In+1 )1,j − A1,j )
j=1
Xn
= a1,j (−1)j+1 det(XIn − A1,j ) + (a11 − X)det(XIn − A1,1 ).
j=2

et comme deg(X − a11 )det(XIn − A11 ) = 1 + det(XIn − A11 ) = n + 1. Ce qui termine la récurrence et
conclut le résultat.
2. On raisonne par récurrence.
Le résultat est évident pour n = 1.
Si le résultat est vraie pour n ≥ 1. Soit A ∈ Mn (K) le développement suivant la dernière colonne de
det(XIn+1 − A) donne :
n
X
det(XIn+1 − A) = (X − an+1,n+1 )Cnn (X) + an+1,j Cn+1j (X).
j=1

Cn+1,j (X) le cofacteur d’indice (n+1, ) de XIn+1 −A, or pour 1 ≤ j ≤ n−1, Cn+1,j (X) est un déterminant
d’ordre n dont la j-ième ligne est constante, en développant suivant cette ligne on aura deg(Cn+1,j )(X) ≤
n − 1. Donc les coefficients de X n+1 et de X n de det(XIn+1 − A) son ceux de X n+1 et de X n dans
(X − an+1,n+1 )det(XIn − A1 ) où A1 la matrice obtenue en supprimant la dernière ligne et la dernière
colonne de A. En appliquant la récurrence les coefficients de X n+1 et de X n sont dans l’expression
(X − an+1,n+1 )(X n − Tr(A1 )) c’est à dire X n+1 − (an+1,n+1 − Tr(A1 ))X n = X n+1 − Tr(A1 ))X n . car
an+1,n+1 + Tr(A1 ) = Tr(A).
Le coefficient constant est χ(0) = det(−M ) = (−1)n+1 det(M ).

Définition 5.1.3. On pose :


χA (X) = det(XIn − A).
χA (X) est appelé le polynôme caractéristique de A.
Théorème 5.1.4. 1. Deux matrices semblables ont même polynôme caractéristique.
2. Deux matrices semblables ont le même spectre et on a :

∀(M, P ) ∈ Mn (K) × GLn (K), ∀λ ∈ K, Eλ (P M P −1 ) = P Eλ (A) = {P X, X ∈ Eλ (A)}.

3. ∀A ∈ Mn (K), on a : χA (X) = χt(A) (X).

16 M.ISSOUAL
MP-MP*

Démonstration. 1. Soient A et B deux éléments de Mn (K) et P ∈ GLn (K) telle que B = P −1 AP. On a :
XIn − B = P −1 (XIn − A)P d’où det(XIn − B) = det(XIn − A).
2. On a : ∀x ∈ K, det(xIn − A) = dett (xIn − A) = det(xIn −t A).
Donc deux matrices semblables ayant le même polynôme caractéristique , ont les mêmes valeurs propres,
puisque sont les racines du polynôme caractéristique. D’autre part, soit Y ∈ Eλ (P −1 M P ) c’est à dire
P AP −1 Y = λY, ce qui donne AP −1 Y = λP Y ce qui est équivaut à P −1 Y ∈ Eλ (A) c’est à dire Y ∈
P Eλ (A)

Définition 5.1.5. Polynôme caractéristique d’un endomorphisme en dimension finie


Soit E un Kespace vectoriel de dimension finie et u ∈ Ln (E),si B et B 0 deux bases de E et A et B les matrices
de u relativement respectivement aux bases B et B 0 ,ces deux matrices sont semblables et donc ont le même
polynôme caractéristique, on définit alors χu (X) le polynôme caractéristique de u le polynôme caractéristique
de sa matrice dans une base donnée. On alors :

χu (X) = X n − Tr(u)Xn−1 + ... + (−1)n detu.

Théorème 5.1.6. polynôme caractéristique d’une matrice triangulaire  par blocs



∗ A C
Soit n ∈ N , et p, q des entiers naturels non nuls tels que n = p + q, M = , où A ∈ Mp (K), B ∈
O B
Mq (K), alors on a :
χM (X) = χA (X).χB (X).
Démonstration. Pour tout x ∈ K, on a :
 
xIp − A −C
xIn − M =
O xIq − B

xIp − A −C
d’où χM (X) = = det(xIp − A)det(xIq − B) = χA (X)χB (X).
0 xIq − B

Théorème 5.1.7. Soit u ∈ L(E), dimK E = n. Soit F un sous-espace de E stable par u, alors

χu|F (X) divise χu (X).

Démonstration. Puisque F est stable par u, il existe une base B = (BF , BG ), de G ⊕ F = E adaptée à F telle
que la matrice de u dans cette base est :  
A C
M=
O B
où A est la matrice de u|F dans une base de F , ainsi :

xIp − A −C
χM (X) = = χu (X)χB (X).
0 xIq − B |F

par suite χu|F (X) divise χu (X).

Exemple 5.1.8. Soit u un endomorphisme d’un K-espace vectoriel de dimension fine E. On suppose que
rgu = 1, on a alors dim ker u = n − 1, soit B = (e1 , ..., en−1 , en ) une base de E telle que (e1 , ..., en−1 ) est une
base de ker u. La matrice de u dans cette base est :
 
0 · · · α1
M =  ... . . . .. 

. 
0 ··· αn

ainsi χu (X) = X n−1 (αn − X), αn = Tru.

17 M.ISSOUAL
MP-MP*

Exemple 5.1.9. Soit E un R-espace vectoriel de dimension n ≥ 2. Soit uinL(E) tel que u2 + u + IdE = 0.
Montrons que X 2 + X + 1 divise χu (X).
En effet, soit x un vecteur non nul de E et soit F = (x, u(x)), la famille F est libre car : si a et b deux réels
tels que ax + bu(x) = 0 en appliquant u on trouve au(x) + bu2 (x) = −bx + (a − b)u(x) = 0, on en multipliant la
première équation par a−b et l’additionner à la deuxième multipliée par −b,on obtient a(a−b)+b2 = a2 +b2 −ab =
b 3b2
(a − ) + = 0 et puisque les coefficients sont réels, on obtient a = b = 0. Notons F = vect(x, u(x)) c’est un
2 4
sous-espace vectoriel de dimension 2 et stable
  puisque u(F ) = vect(u(x), −x − u(x)) = F , la matrice de
par u,
0 −1
l’endomorphisme induit par u sur F est , d’où χu|F (X) = X 2 + X + 1, donc daprés la proposition
1 0
précédente X 2 + X + 1 divise χu (X).
Exemple 5.1.10. polynôme caractéristique de la matrice compagnon
Soit n ∈ N∗ ,et an−1 , · · · , a0 des scalaires, on pose P (X) = X n + an−1 X n−1 + · · · + a0 . Soit
 
0 ··· 0 −a0
 1 ... 0
 
−a1 
CP =  
..

 0 ... 0

. 
0 0 1 −an−1

la matrice compagnon de P , déterminons χCp (X).


On a :
−X ··· 0 −a0

..
1 . 0 −a1
χCp (X) = (−1)n


.. ..
0
. −X .

0 0 1 −an−1 − X
n
X
En utilisant le codage L1 ← L1 + X i−1 Li on obtient le déterminant suivant :
i=2


0 ··· 0 −P (X)

..
1 . 0 −a1
χCp (X) = (−1)n

.. ..
0 . −X .


0 0 1 −an−1 − X

en développant suivant la première ligne, on trouve :




1 −X 0 0


0 1 −X 0

n n+1
χCp (X) = (−1) (−1) (−P (X)) = P (X).

.. ..

. ··· . −X
0 ··· 0 1

Exemple 5.1.11. Soit A, B deux matrices carrés de Mn (C), montrons que :

χAB (X) = χBA (X).

• Si A est inversible. Alors AB = A(BA)A−1 ainsi AB et BA sont semblables et donc admettent le même
polynôme caractéristique.
• Si A n’est allure inversible, on a déjà vu que χA (X) est un polynôme de degré n, d’après le théorème de
D’Alembert-Gauss χA (X) admet n racines notés {z1 , · · · , zn }, supposons qu’il existe des indices i pour les quels
zi 6= 0, posons alors α = min{|zi |; zi 6= 0}, ainsi ∀z ∈ C, on a :

|z| < α ⇒ A − zIn est inversible.

D’après le premier cas on a :

∀z, |z| < α, χA−zIn B (X) = χB(A−zIn (X).

18 M.ISSOUAL
MP-MP*

On définit pour tout t ∈ C, P (t) = χA−tIn B (a) − χB(A−tIn (a) où a ∈ C. On a P (t) est un polynôme en t de
degré ≤ n et on a :
|z| < α ⇒ P (z) = 0.
Ainsi P admet une infinité de racines c’est donc nul,en particulier P (0) = χAB (a) − χBA (a) = 0, et par suite
χAB (a) = χBA (a) pour tout a ∈ C.
Si pour tout indice i on zi = 0, alors ∀z ∈ C∗ , A−zIn est inversible, on continue alors comme précédemment.
Remarque 5.1.12. On peut utiliser la densité des matrices inversibles dans Mn (C) et la continuité du
déterminant pour conclure sur l’exemple précédent.

6 Multiplicités des valeurs propres et polynôme caractéristique


6.1 La dimension du sous-espace propre et multiplicité d’une valeur propre
Soit λ une valeur propre de u ou de A, c’est donc une racine de χu ou χA , on peut donc parler de l’ordre de
multiplicité de λ en tant que racine de ce polynôme, on la note m(λ) on a par définition :

1 ≤ m(λ) ≤ deg(χu ).

On a alors :
χu (X) = (λ − X)m(λ) Q(X), Q(λ) 6= 0.
Théorème 6.1.1. On a :
∀λ ∈ SpK (u), 1 ≤ dimEλ (u) ≤ m(λ).
Démonstration. On sait que Eλ (u) est stable par u, posons v = u|Eλ (u) , on χv divise χu . Or v(x) = λx, ∀x ∈
Eλ (u) et par suite χv (X) = (X − λ)dim(Eλ (u)) , comme λ n’est pas racine de Q alors Q et(λ − X)dim(Eλ (u))
sont premiers entre eux, or (Xλ)dim(Eλ (u)) divise χu (X) = (X − λ)m(λ )Q(X) d’après le théorème de Gauss,
(X − λ)dim(Eλ (u)) divise (X − λ)m(λ) et donc dimEλ (u) ≤ m(λ).

6.2 Cas où χu est scindé :valeur de Tr(u) et det(u)


On suppose ici que χu est scindé de degré n, soit {λ1 , · · · , λn } l’ensemble des racines de χu , on a alors :
n
Y
χu (X) = (X − λk ). (1)
k=1

D’autre part on a :
χu (X) = X n − Tr(u)X n−1 + · · · + (−1)n det(u). (2)
n
Y
Le développement de (λk − X) est
k=1

n
X n
Y
Xn − λk X n−1 + · · · +

λk . (3)
k=1 k=1

En identifiant les deux relations (2) et (3), on obtient :


n
X n
Y
Tr(u) = λk , detu = λk .
k=1 k=1

ce qui peut s’écrire encore sous la forme :


X Y
Tr(u) = m(λ)λ, detu = λm(λ) .
λ∈SpK (u) λ∈SpK (u)

On a ainsi démontrer le Théorème suivant

19 M.ISSOUAL
MP-MP*

Théorème 6.2.1. 1. Soit u ∈ L(E), de polynôme caractéristique scindé sur K, alors on a :


X Y
Tr(u) = m(λ)λ, detu = λm(λ) .
λ∈SpK (u) λ∈SpK (u)

n
X
2. Si A ∈ Mn (R); soit λ1 , · · · , λn les racines complexes du polynôme caractéristique ; alors Tr(u) = λk , detu =
k=1
n
Y
λk .
k=1

Démonstration. 1. Voir plus haut


2. Ceci à cause du fait que la trace et le déterminant ne dépendent pas du corps de base.

Exemple 6.2.2. Soit n ∈ N∗ , A ∈ Mn (C) telle que

A3 − 3A − 5In = O

Alors det(A) > 0.


On a P (X) = X 3 − 3X − 5 est un polynôme annulateur de A. Puisque X 3 − 3x − 5 est degré impair et
continue, d’après le Théorème des valeurs intermédiaires il existe un réel λ tel P (λ) = 0. Or P (0) = −5, donc
λ ∈]0, +∞[. D’autre par dans C admet deux racines conjugués z et z de même ordre de multiplicité α notons β
celui de λ. Alors SpC (A) ⊂ {λ, z, z}, ce qui donne det(A) = λβ |z|2α > 0. Si P n’admet que des racines réelles,
alors elles sont strictement positives et aussi dans ce cas det(A) > 0.

Exemple 6.2.3. Soit n ∈ N∗ , M ∈ Mn (C) telle que

M 4 − 7M 3 − 12M 2 = O

Alors tr(M ) ∈ N et tr(M ) ≤ 4n.


Le polynôme P (X) = X 4 − 7X 3 + 12X 2 annule M, donc SpC (M ) ⊂ {0, 3, 4} de multiplicité respectives
p, q, r ∈ N. Donc tr(M ) = 3p + 4r ∈ N, d’autre part on a 3p + 4r ≤ 4(p + r) ≤ 4n. Donc tr(M ) ≤ 4n.

7 Théorème de Cayley-Hamilton
Théorème 7.0.1. Théorème de Cayley-Hamilton
1. Soit u ∈ L(E), où E un K-espace vectoriel de dimension finie n > 0. Alors χu (u) = 0.
2. Soit A ∈ M(K), alors χA (A) = O.
Démonstration. Soit x un vecteur non nul de E. Soit L’ensemble {k ∈ N; (x, u(x), ..., uk (x)) libre} est une
partie non vide de E car il contient 0 et majoré par n, soit donc :

p = max{k ∈ N; (x, u(x), ..., uk (x)) libre}.

Notons Fp la famille (x, u(x), ..., up (x)) est libre par contre Fp+1 est liée, comme Fp+1 = Fp ∪ {up+1 (x)} et que
Fp est libre, alors up+1 (x) ∈ vect(Fp ). Notons F = vectFp ) et il est clair que F est stable par u, soit v = u|F ,
on sait alors χv divise χu , mais la matrice de v dans la base Fp est :
 
0 · · · 0 a0
 1 . . . 0 a1 
 
C=  
.. 
. .
 0 . 0 . 
0 0 1 ap

où up+1 (x) = ap up (x) + ... + a0 x. On reconnait C c’est une matrice compagnon, son polynôme caractéristique
est χC (X) = ((X p − X p−1 − ... − a0 ) et on déjà vu que P (v) = 0 où P (X) = X p − ap X p−1 − ... − a0 . Or Il existe
un polynôme Q tel que χu (X) = Q(X)χv (X), d’où χu (u) = Q(u) ◦ χv (v) = 0. Ce qui démontre le théorème.

20 M.ISSOUAL
MP-MP*

8 Relation entre polynôme caractéristique et polynôme minimal


Soit u un endomorphisme d’un espace vectoriel de dimension finie n, on sait que l’idéal annulateur de u est

Iu = πu K[X].

ainsi si P est un polynôme annulateur de u alors le polynôme minimal πu divise P.


d’aprés le théorème de Cayley-Hamilton le polynôme caractéristique χu est un polynôme annulateur de u,
donc :
πu (X) divise χu (X).
Exemples
1. Matrice compagnon
Soit P (X) = X n + an−1 X n−1 + · · · + a1 X + a0 un polynôme de K|X], on considère la matrice d’ordre n
 
0 ··· 0 −a0
 1 ... 0
 
−a1 
CP =  ..

 0 ... 0
 
. 
0 0 1 −an−1

Montrons que P est un polynôme annulateur de CP .


Soit u l’endomorphisme canoniquement associé à CP si on B = (e1 , ..., en ) la base canonique de Kn on
remarque que : 
 u(e1 ) = e2

 ..

.


 u(en−1 ) = en
u(en ) = −a0 e1 − ... − an−1 en

ainsi ei = ui−1 (e1 ), 2 ≤ i ≤ n, et donc un (e1 ) = −a0 e1 − a1 u(e1 )... − an−1 un−1 (e1 ). Et donc P (u)(e1 ) = 0,
on déduit que pour tout indice i ∈ {2, ..., n}, P (u)(ei ) = P (u)(ui−1 )(e1 ) = ui−1 P (u) (e1 ) = 0.
Donc l’endomorphisme P (u) s’annule sur les éléments de la base, par suite P (u) = 0,or la matrice de
P (u) dans la base B et suivant théorème 1 et les règles de calculs citées plus haut est P (CP ) et donc
P (CP ) = O.
Soit d = degπCp , posons πCp (X) = X d + bd−1 X d−1 + ... + b0 , puisque πCp (u) = 0, alors ud (e1 ) +
bd−1 ud−1 (e1 + ... + b0 e1 = 0, ce qui veut dire que la famille (ud (e1 ), ...., e1 ) est liée, ce qui est absurde,
car c’est une sous-famille libre de la base (e1 , ..., un−1 (e1 ). Donc d = n Or πCp divise χCp et ont le même
degré, donc sont associés, mais πCp (X) est unitaire, ainsi χCp (x) = πCp (X) et par suite

πCp (X) = P (X) = χCp (x).

Remarque 8.0.1. Soient n ∈ N∗ , A ∈ Mn (C); on dit que A est non-dérogatoire si πCp (X) = χCp (x).
par exemple les matrices compagnon.

Exemple 8.0.2. Soit u un endomorphisme d’un K-espace vectoriel de dimension finie n > 0.
Alors
deg(πu ) = n ⇔ {idE , u, ..., un−1 } est libre

9 Diagonalisation des endomorphismes et matrices carrées


9.1 Définition
Définition 9.1.1. On dit u est diagonalisable si il existe une base B de E telle que la matrice de u dans B est
diagonale.
Soit u diagonalisable, notons D = diag(α1 , · · · , αn ) la matrice de u dans la base B = (e1 , · · · , en ), on voit
alors que :
∀i ∈ {1, ..., n} u(ei ) = αi ei .

21 M.ISSOUAL
MP-MP*

ainsi B est une base de vecteurs propres.


réciproquement si B = (e1 , · · · , en ) est une base de vecteurs propre de u, alors la matrice de u dans cette
base est diagonale et on :  
α1 0 0
MatB (u) =  0 . . .
 .. 
. 
0 ··· αn
La diagonale est constituée des valeurs propres de u.

9.2 Diagonalisation des matrices carrées


Définition 9.2.1. Soit A ∈ Mn (K), on dit que A est diagonalisable si elle est semblable à une matrice diagonale,
c’est à dire :
∃P ∈ GLn (K), D ∈ Dn (K), A = P DP −1 .
En liaison avec ce qui précéde A est diagonalisable si et seuelment si l’endomorphisme canoniquement associé
est diagonalisable.

10 Théorèmes de diagonalisation
Théorème 10.0.1. Caractérisation de la diagonalisation avec les éléments propres
Soit u ∈ L(E), dimE = n, alors on l’équivalence enter les propriétés suivantes :
1. u est diagonalisable
2. E est la somme de ses sous-espaces propres.
X
3. dimE = dimEλ (u).
λ∈SpK (u)

Démonstration. 1 ⇒ 2 Si u est diagonalisable, soit B une base de vecteurs propres et SpK = {α1 , · · · , αn } où
u(ei ) = αi ei . Notons λ1 , .., λr les valeurs propres deux à deux distincts, on sait que les sous-espaces associés
sont en somme directe, or B ⊂ Eλ1 ⊕ · · · ⊕ Eλr , donc E = Eλ1 ⊕ · · · ⊕ Eλr .
2 ⇒ 3 dimEλ1 ⊕ · · · ⊕ Eλr = dimE.
3 ⇒ 1 la condition 3 entraine que E = Eλ1 ⊕ · · · ⊕ Eλr , on considère alors une base B adaptée à cette
décomposition, elle est donc formée de vecteurs propres, d’où u est diagonalisable.

Exemple 10.0.2. Soit A la matrice carrée d’ordre 3.


 
2 0 1
A =  1 1 1  ∈ M3 (R).
−2 0 −1
2
Le polynôme caractéristique
   −X(X − 1) . Les valeurs propres de A sont 0 simple et 1 double.
de A est
x  2x + z = 0 
z = −2x
Soit X =  y  ∈ E0 (A) ⇔ x+y+z =0 ⇔ Donc E0 (A) est une droite de dimension
y=x
z −2x − z = 0

 
1
1, de base V1 =  1  .
 −2
x
Soit X =  y  ∈ E1 (A) ⇔ x + z = 0.
z     
0 1
Donc E1 (A) est un plan de dimension 2 de base V2 =  1  , V3 =  0  D’où dimE0 (A)+dimE1 (A) =
 0  −3   
1 0 1 0 0 0 −1 0 −1
3. Et par suite A est diagonalisable, soit P =  1 1 0  et D =  0 1 0  et P −1 =  1 1 1 .
−2 0 −1 0 0 1 2 0 1
On a alors
A = P DP −1 .

22 M.ISSOUAL
MP-MP*

 
1 ··· 1
 .. . . ..  ∈ M (C) Le rang de J est 1, donc 0 est valeur propre de
Exemple 10.0.3. Soit n > 1, J =  . . .  n
1 ··· 1
J.  
x1 n
X =  ...  ∈ E0 (J) ⇔
X
xk = 0.
 

xn k=1
 
x1 n
Or le sous-espace vectoriel {X =  ... 
X
∈ Mn1 (C); xk = 0} est un hyperplan puisque c’est le noyau
 

xn k=1

de la forme linéaire non nulle :


n
X
ϕ : Mn1 (C) → C, X 7→ xk .
k=1
     
1 0 0
 −1   1   .. 
     . 
Donc dimE0 (J) = n − 1. Les vecteurs V1 = 
 0  , V2 = 
  −1  , · · · , Vn−1

=  0  forment une
 
 ..   0   
 .  
..
  1 
0 . −1
 
1
 1 
..
 
 
base de E0 (J). D’autre part Vn = 
 .  est un vecteur propre de J associé à la valeur propre n. D’où

 .. 
 . 
1
dimE0 (J) + dimEn 
(J) = n, et donc J est diagonalisable.
0 ···

1 0 1
..
 

 −1 1 . ..  0 ··· 0 0
. 1 
 .. .. .. 
 ..
En notant P =  0 −1 . . . 0 , on a P −1 JP =  . . . . 
.
  
1 

 .

.. 
 0 ··· 0 0 
 .. .. ..
. ... . .  0 ··· 0 n
0 ··· 0 −1 1
Exemple 10.0.4. Soit n ∈ N∗ . Et soit

Rn [X] → Rn [X]
u:
P (X) 7→ (X 2 − 1)P 00 (X)

Il est clair que u est un endomorphisme, soit λ une valeur propre et p un vecteur propre associé. On a :

u(P ) = λP ⇔ (X 2 − 1)P 00 (X) = λP (X).

Si λ = 0. Alors nécessairement P 00 (X) = 0, c’est à dire P ∈ R1 [X] et inversement, d’où 0 est valeur propre
de sous-espace propre E0 (u) = R1 [X].
Si λ 6= 0. Alors si on pose degP = k, alors par identification on obtient λ = k(k − 1), k > 1, donc pour
Xn
2 ≤ k ≤ n les k(k − 1) sont des valeurs propres non nulles de u, comme dimEk(k−1) (u) ≥ n − 1 et
k=2
n
X n
X
dimE0 (u) = 2 alors dimE0 (u) + dimEk(k−1) (u) ≥ n + 1 d’où dimRn [X] = dimE0 (u) + dimEk(k−1) (u) et
k=2 k=2
donc u est diagonalisable.
Exemple 10.0.5. Soit 
Mn (C) → Mn (C)
u:
A 7→ A + Tr(A)In
Il est clair que u est un endomorphisme.

23 M.ISSOUAL
MP-MP*

Soit λ une valeur propre de u, il existe alors une matrice A non nulle telle que u(A) = λA, ce qui donne
Tr(A)In + A = λA, en prenant la trace on obtient (n + 1)Tr(A) = λA.
Tr(A)
Si Tr(A) 6= 0, alors λ = n + 1, ce qui donne A = In . Donc n + 1 est valeur propre et on a
n
En+1 (u) = vect(In ).

Si Tr(A) = 0, alors λ = 1 est valeur propre et le sous-espace propre associé est

E1 (u) = ker Tr.

E1 (u)) est un hyperplan de dimension n2 −1 ainsi dimE1 (u)+dimEn+1 (u) = n2 . Et donc u est diagonalisable.

Théorème 10.0.6. Diagonalisation et polynôme caractéristique



χu est scindé
u est diagonalisable ⇔
∀λ ∈ SpK (u), dimEλ (u) = m(λ)
Démonstration. ⇒ Supposons que u est diagonalisable, notons λ1 , · · · , λp les valeurs propres deux à deux
distinctes, on a :
p
X Xp Xp
Qp
χu (X) = k=1 (λk − X)m(λk ) , on a n = dimEλk (u) ≤ m(λk ) = n ce qui donne dimEλk (u) =
k=1 k=1 k=1
p
X p
X 
m(λk ) d’où dimEλk (u) − m(λk ) = 0 et comme chaque terme de la somme est négatif, alors tous les
k=1 k=1
termes sont nuls et donc dimEλk (u) = m(λk ), pour tout entier k.
⇐Réciproquement
X supposons que χu est scindé et que dimEλ (u) = m(λ) pour toute valeur propre de u.
Alors on a :n = dimEλ (u) = dimE, ce qui donne que u est diagonalisable.
λ∈SpK (u)

Théorème 10.0.7. Très important : cas où les valeurs propres sont simples
1. Soit u un endomorphisme de E de dimension n, si u admet n valeurs propres deux à deux distinctes, alors
il est diagonalisable.
2. Toute matrice carrée d’ordre n ayant n valeurs propres deux à deux distinctes est diagonalisable
Démonstration. Supposons que u admet n valeurs propres distinctes {λ1 , · · · , λn } alors ∀1 ≤ i ≤ n, m(λi ) = 1,
par suite dimEλi (u) = 1. Le polynôme caractéristique étant scindé, car de dimension n ayant n racines et
Xn
dimEλi (u) = n, ainsi u est diagonalisable.
i=1

Théorème 10.0.8. 1. Si u est diagonalisable et si SpK (u) = {λ} alors u est une homothétie de rapport λ.
2. Soit A ∈ Mn (K). Si A est diagonalisable et si SpK = {λ}, alors A = λIn .
En particulier toute matrice diagonalisable ayant 0 pour seule valeur propre est nulle

Démonstration. D’après le théorème précédent, χu est scindé, donc χu (X) = (λ−X)n et dimEλ (u) = n = dimE,
par la suite E = Eλ (u) et donc u − λIdE = 0.
Remarque 10.0.9.  La réciproque est fausse, une matrice ayant 0 pour seule valeur propre n’est forcément
nulle, par exemple les matrices nilpotentes.
 
0 1 0
Exemple 10.0.10. Soit A =  1 0 1 , le polynôme caractéristique de A est −X(X 2 − 2), ainsi A
0 1 0
√ √
admet trois  propres distinctes 1, 2, − 2, donc A estdiagonalisable,
 valeurs  un vecteur propre associé à 0
0 √ 1 √
est V1 =  1 , un vecteur propre associé à 2 est V2 =  1  , et un vecteur V3 associé à − 2 est
1 −1

24 M.ISSOUAL
MP-MP*

     
2 0 1 2 2 √0 −2
1
V3 =  −1  . Ainsi si P =  1 1 −1  et P −1 =  1 √2 1  , on a alors P −1 AP = D =
4
1 1 −1 1 1 − 2 1
 
0 √0 0
 0 2 0 .

0 0 − 2
Exemple 10.0.11. Soit a et b deux nombres complexes tels que a 6= 0. Soit E un C-espace vectoriel de dimension
n et u ∈ L(E) représenté dans une base B de E par la matrice :

..
 
 b a . 
A =  a ... a 
 
 
..
. a b

..


b−x a .

n
. Déterminons la polynôme caractéristique de A. On a χA (x) = (−1) a . .. a = (b−x+(n−1)a) =


.
..

a b − x
.. n
1 a . X
par le codage C1 ← C1 + Cj puis par le codage Li ← Li − L1 , 2 ≤ i ≤ n, on

1 b−x−a a

1 a b−x−a j=2

obtient :
χA (x) = (−1)n (b + (n − 1)a − x)(b − a − x)n−1 .
Ainsi le polynôme caractéristique χA est scindé et les valeurs propres de A sont b + (n − 1)a simple et b − a
d’ordre n − 1. Or A − (b − a)In = aJ ce qui donne rg(A − (b − a)In ) = 1, d’où dimEb−a (u) = n − 1. par suite
dimEb+(n−1)a (u) = 1 et donc u est diagonalisable
 
0 1 0 ···
 .. .. 
Exemple 10.0.12. Soit n ∈ N − {0, 1} et A =  .
 0 . 0   ∈ Mn (C) on aχA (X) = X n − 1. La
 0 ··· 0 1 
1 0 ··· 0
matrice A admet donc n valeurs propres distinctes deux à deux qui sont les racines nème de l’unité. Ainsi A
est diagonalisable.
Exemple 10.0.13. Soit E un K-espace vectoriel de dimension n > 1, et soit u ∈ L(E) tel que rg(u) = 1. 0
est une valeur propre de u, comme dim ker u = n − 1 alors la multiplicité de 0 vérifie m(0) ≥ n − 1,supposons
que tru 6= 0, alors,il existe une valeur propre λ 6= 0 de u, puisque Tru = m(0).0 + m(λ).λ = m(λ)λ. Or
m(λ) = 1, car χu est scindé dans C, par suite χu (X) = X n−1 (X − Tru). Réciproquement supposons que u
est diagonalisable, comme 0 est valeur propre de u d’ordre au moins n − 1,si λ est une autre valeur propre,
alors sa multiplicité est au plus égal à 1, si cette multiplicité était nulle, alors 0 est la seule valeur propre de u
comme ce dernier est diagonalisable ,alors u sera nul ce qui est absurde car il est de rang 1, ainsi λ 6= 0 et on
a Tru = 0.m(0) + 1λ = λ 6= 0. D’où :
Si u est de rang 1, alors :
u est diagonalisable ⇔ Tru 6= 0.
Théorème 10.0.14. Diagonalisation et polynôme annulateur Très important
1. Soit u ∈ L(E), où E un K-espace vectoriel de dimension finie n > 0. Alors :
u est diagonalisable si et seulement si il existe un polynôme scindé à racines simples P tel que P (u) = 0.
2. Soit A ∈ Mn (K).
A est diagonalisable si et seulement si il existe un polynôme scindé à racines simples P tel que
P (A) = 0.
Démonstration. On ferra la preuve pour les endomorphismes c’est la même preuve pour les matrices.

25 M.ISSOUAL
MP-MP*

⇒ Si u est diagonalisable, soit λ1 , · · · , λr les valeurs propres deux à deux distinctes de u. Soit Q le polynôme
défini par :
Yr
Q(X) = (λ − Xi ).
i=1

La matrice de u dans une base de vecteurs propre est diagonale , on constate aisément que Q(D) = 0, et par
suite Q(u) = 0 avec Q scindé à racines simples.
Yr
⇐ Soient Q(X) = (X − αi ) un polynôme scindé à raines simples qui annule u.
i=1
Si r = 1, alors u = α1 IdE .
Si r > 1, comme les αi sont deux à deux distinctes, alosr X − αi ∧ X − αj = 1 pour i 6= j, le théorème des
noyaux donne :
Mr
ker Q(u) = ker(u − αi IdE ).
i=1

En considérant une base adaptée à la décomposition précédente, on constate que u est diagonalisable.

Théorème 10.0.15. Soit u ∈ L(E), F un sous-espace de E stable par u.


Alors :u diagonalisable ⇒ u|F est diagonalisable.

Démonstration. Il existe un polynôme scindé P à racines simples tel que

P (u) = 0.

Or
P (u|F ) = P (u)|F .
on conclut que (u|F ) = 0, c’est à dire que u|F est annulé par un polynôme scindé à racines simples, donc
diagonalisable.

Exemples
1. Soit A ∈ Mn (C) telle que A3 − 7A + 6In = O, alors le polynôme X 3 − 7X + 6 = (X − 1)(X − 2)(X + 3)
est scindé à racines simples et annule A, donc A est diagonalisable.
2. Un projecteur en dimension finie est annulé par X(X − 1), donc ce projecteur est diagonalisable.
3. Soit la matrice J d’ordre n > 1 dont tous ses ermes sont égaux à 1, on a J 2 = nJ, alors J est annulée par
le polynôme X(X − n), donc diagonalisable
Remarque 10.0.16. Le théorème précédent est important, il permet de montrer la diagonalisation, sans
déterminer les éléments propres.

Théorème 10.0.17. Diagonalisation et polynôme minimal


1. u est diagonalisable si et seulement si πu est scindé à racines simples.
2. Soit M ∈ Mn (K), A est diagonalisable si et seulement si π est scindé à racines simples.
Démonstration. ⇒ Si u est diagonalisable, alors il existe un polynôme scindé à racines simples P tels que
P (u) = 0, or π divise P donc π est scindé à racines simples.
⇐ Si πu est scindé à racines simples, puisque πu annule u alors u est diagonalisable.

11 Applications de diagonalisation
11.0.1 Calcul des puissances des matrices carrées
Soit A ∈ Mn (K).
Supposons A diagonalisable, il existe P ∈ GLn (K), D ∈ Dn (K) telles que :

A = P DP −1 .

26 M.ISSOUAL
MP-MP*

Par récurrence on a :
∀k ∈ N, Ak = P Dk P −1 .
D’autre part on a :
λk1
 
O
Dk = 
 .. .

.
O λkn

11.1 Suites récurrentes linéaires simultanées


Soient n ∈ N∗ , A = (aij )1≤i,j≤n ∈ Mn (K), (α1 , · · · , αn ) ∈ Kn .
On considère les suites récurrentes linéaires simultanées du premier ordre à coefficients constants,
définies par :

 ∀j ∈ {1, · · · , n}, xj,0 = αj

n
(E) X

 ∀j ∈ {1, · · · , n}, ∀k ∈ N, xj,k+1 = aij xi,k
i=0
  
  α1
x1,k


  .. 
X0 =  . 

En notant X =  ...  (E) se ramène à :
 
 αn
xn,k


Xk+1 = AXk , ∀k ∈ N

On a donc Xk = Ak X0 ainsi le calcul se ramène au calcul de Ak .
Exemple

11.2 Suites récurrentes linéaires à coefficients constant


Soit p ∈ N∗ , (a0 , · · · , ap−1 ) ∈ Kp . On considère la suite récurrente (un )n∈N définie par :
p

 (u0 , · · · , up−1 ) ∈ Kp−1

X
 ∀n ∈ N, un+p =
 ai un+i
i=0

Il s’agit de calculer
 pour tout n ∈ N.
un en fonction de n  
0 1 0 0 un
 .. . . .. ..   un+1 
Notons A =  .
 . . .  ∈ Mp (K), on pose pour tout entier n ∈ N, Xn = 

 . On

..
 0 ··· 0 1   . 
a0 · · · ap−2 ap−1 un+p−1
a pour tout n ∈ N, Xn+1 = AXn . On se ramène donc au calcul de An . La matrice t A est la matrice compagnon
du polynôme :
P (X) = X p − ap−1 X p−1 − · · · − a0 .
Donc le polynôme caractéristique de A est (−1)p P (X).
Exemple
Déterminons la suite (un )n∈N telle que :

u0 = 1, u1 = 1, u2 = 1
∀n ∈ N, un+3 = 45un − 39un+1 + 11un+2
 
0 1 0
Soit A =  0 0 1  ainsi χA (X) = −X 3 + 11X 2 − 39X + 45 = −(X − 3)2 (X − 5).
45 −39 11
A admet une valeur propre double
 3 et une valeur propresimple5.
1 1
Deux vecteurs propres V1 =  3  , associé à 3 et V3 =  5  associé à 5.
9 25

27 M.ISSOUAL
MP-MP*

On a E3 (A) = vect(V1 ), par suite A n’est pas diagonalisable, onva la  trigonaliser. Pour cela cherchons un
0
vecteur V2 tel que AV2 − 3V2 = V1 . On trouve par calcul que V2 =  1  .
6
     
1 0 1 3 1 0 −5 6 −1
1
Posons P =  3 1 5  , T =  0 3 0  on a donc P −1 =  −30 16 −2  . On a A =
4
9 6 25 0 0 5 9 −6 1
 n n−1

3 n3 0
P −1 T P, d’où An = P T n P −1 , par récurrence on a T n =  0 3n 0 .
n
 0 0 5
n−1 n
 −4n3 +5
D’où Xn = An X0 = −4(n + 1)3n + 5n+1 Par suite ∀n ∈ N, un = −4n3n−1 + 5n .
n+1 n+2
−4(n + 2)3 +5

12 Endomorphismes trigonalisables
12.1 Introduction
12.1.1 Endomorphismes trigonalisables
Un endomorphisme u d’ un espace vectoriel E de dimension finie est dit trigonalisable s’il existe une base
de E dans laquelle la matrice de u est triangulaire supérieure.

12.1.2 Interprétation géométrique


Soit u ∈ LC(E); soit B = (e1 , · · · , en ) une base de E; notons pour 1 ≤ k ≤ n,

Ek = Vect(e1 , · · · , ek ).

Alors la matrice de u dans B est triangulaire supérieure si et seulement si ces n sous-espaces vectorielles sont
stables par u.
si et seulement si
∀1 ≤ j ≤ k ≤ n, f (ej ) ∈ Ek
Définition 12.1.1. • Soit E un K-espace vectoriel de dimension n. On dit que u est trigonalisable s’il existe
une base B de E telle que la matrice de u dans B est triangulaire supérieure.
• Une matrice carrée A d’ordre n est dite trigonalisable s’il existe P ∈ GLn (K) telle que P −1 AP est
triangulaire supérieure.
Remarque 12.1.2. • On a toute matrice triangulaire supérieure est semblable à une matrice triangulaire
inférieure, en effet soit T = (tij )1≤i,j≤n tels que tij = 0 si i < j une matrice triangulaire inférieure et soit
u l’endomorphisme canoniquement associé à A dans la basecanonique B = (e1 , · · · , en ),considérons
 la base
tnn tn,n−1 ··· tn,1
 0 tn−1,n−1 · · · tn−1,1 
B 0 = (en , · · · , e1 ), la matrice de u dans cette base est T 0 =  .  qui est triangu-
 
.. ..
 .. 0 . . 
0 ··· 0 t11
 
0 ··· 0 1
 0 0 1 0 
laire supérieure, ainsi T et T 0 sont semblables,si P = Pass(B, B 0 ) =  . ..  . Pour cela on ne
 
 .. 1 0 . 
1 0 ··· 0
considérera ici que les matrices triangulaires supérieures.
n(n + 1)
• On note Tn,s (K) l’espace vectoriel des matrices triangulaires supérieures, il est de dimension .
2
Théorème 12.1.3. Caractérisation des endomorphismes trigonalisables
1. Soit u ∈ L(E), où E un K-espace vectoriel de dimension n.
u est trigonalisable si et seulement χu est scindé .
2. Soit A ∈ Mn (K), A est trigonalisable si et seulement si χA est scindé.

28 M.ISSOUAL
MP-MP*

Démonstration. ⇒ Supposons qu’il existe une base B de E telle que T = MatB(u) est triangulaire supérieure,
n
Y
notons α1 , · · · , αn la diagonale de T , on a alors χu (X) = (αk − X).
k=1
⇐ Le résultat se démontre par récurrence sur n
Le théorème est vraie pour n = 1.
Supposons le théorème vraie pour n, et soit A ∈ Mn+1 (K) telle que χA soit scindé sur K, alors A admet au
moins une valeur propre  λ1 de vecteur
 propre v1 ∈ Mn+1,1 (K), il existe donc L ∈ Mn,1 (K), B ∈ Mn (K) tels
λ1 L
que A est semblable à d’où χA (λ) = (λ1 − λ)χB (λ).
0 B
Comme χA est scindé, alors χB est scindé sur K, d’après l’hypothèse de récurrence, il existe Q ∈ GLn (K), T ∈
−1
Tn,s (K) telles que
 B = QTQ .  
1 0 −1 1 0
Notons R = ∈ Mn+1 (K) c’est une matrice inversible d’inverse R = .
0 Q   0 Q−1
λ1 X
Cherchons un X ∈ M1,n (K) telle qu’en notant T1 = , on ait
0 T
 
λ1 L
= RT1 R−1 .
0 B

XQ−1
 
−1 λ1
Or RT1 R = , il suffit de prendre X = LQ. D’où le théorème.
0 B

Corollaire 12.1.4. 1. Soit E un C-espace vectoriel de dimension n > 0. tout endomorphisme de E est
trigonalisable.
2. Toute matrice carrée A ∈ Mn (C) est trigonalisable.
Démonstration. D’après le théorème de D’Alembert-Gauss , tout polynôme non constant est scindé.Donc tout
endomorphisme(toute matrice carrée) est diagonalisable.

Exemples
1. trigonalisons la matrice suivante :
 
2 0 1
A= 1 1 0  ∈ M3 (R).
−1 1 3

Le polynôme caractéristique est χA (X) = (2 − X)3 .


Donc χA est scindé sur R et A admet une racine 2 triple.
  
x  z=0 
x=y
X =  y  ∈ E2 (A) ⇔ x−y =0 ⇔
z=0
z −x + y + z = 0

 
1
Donc E2 (A) est de dimension 1, admet V1 =  1  pour base.
0
Cherchons V2 et V3 tels que B = (V1 , V2 , V3 ) soit une base de M3,1 (R) telle que la matrice de l’endomor-
phisme f canoniquement associé à A soit triangulaire supérieure de la forme :
 
2 • •
 0 2 • .
0 0 2

f (V2 ) − 2V2 ∈ vect(V1 )
Ceci équivaut à
f (V3 ) − 2V3 ∈ vect(V1 , V2 )

29 M.ISSOUAL
MP-MP*

   
x z
Soit V2 =  y , f (V2 ) − 2V2 =  x−y  ∈ vect(V1 ) ⇔ x − y = z. On prend par exemple
  z −x + y + z
1
V2 =  0  .
1
 
1
Pour V3 on e choisit de manière à former une famille libre avec V1 et V2 , on prend par exemple V3 =  0  .
      0
1 1 1 0 1 0 2 1 1
Posons P =  1 0 0  , on P −1 =  0 0 1  et T = P −1 AP =  0 2 −1  .
0 1 0 1 −1 −1 0 0 2
 
5 −4 −3
2. Soit A =  2 −1 −1  . On a χA (X) = −(X − 1)2 (X − 2), ainsi A admet une valeur propre 1 double
1 −1 0
et une valeur propre simple qui est 2.
  
x  4x − 4y − 3z = 0 
x=y
X=  y  ∈ E1 (A) ⇔ 2x − 2y − z = 0 ⇔
z=0
z x−y−z =0

 
1
Donc E1 (A) est de dimension 1 et admet V1 =  1  pour base.
0
  
x  3x − 4y − 5z = 0  
x = y + 2z x = 5z
X=  y  ∈ E1 (A) ⇔ 2x − 3y − z = 0 ⇔ ⇔
−y + 3z = 0 y = 3z
z x − y − 2z = 0

Donc E2 (A) est de dimension 1 et admet pour




5
V3 =  3  .
1
 
x
Cherchons un vecteur V2 =  y  tel que B = (V1 , V2 , V3 ) soit une base de M3 (R) et que MatB (f ) =
z
 
1 • •
 0 1 • .
0 0 2
c’est à dire : 
B une base de M3 (R)
f (V2 ) − V2 ∈ vect(V1 )
  
4x − 4y − 3z  4x − 4y − 3z = λ
On a : f (V2 ) − V2 =  2x − 2y − z  ∈ vect(V1 ) ⇔ ∀λ ∈ R 2x − 2y − z = λ D’ou :
x−y−z x−y−z =0


2x − 2y − 2z = 0
f (V2 ) − V2 ∈ vect(V1 ) ⇔ ⇔ x − y − z = 0.
x−y−z =0

    
2 1 2 5 1 1 0
On peut ainsi prendre V2 =  1  . En notant P =  1 1 3 , T = 1 1 0  , on a donc
1 0 1 1 0 0 2
−1
A = PTP .

30 M.ISSOUAL
MP-MP*

13 Complément : Trigonalisation simultanée


Si f et g ∈ L(E) sont trigonalisables et commutent, alors il existe une base de trigonalisation commune de
f et g.
Démonstration. Remarquons que f et g ont un vecteur propre commun. En effet, f admet une valeur propre
λ ∈ K (puisque f est trigonalisable). Le sous espace propre Eλ (f ) est stable par g, et g|Eλ (f ) est trigonalisable,
donc admet un vecteur propre x ∈ Eλ (f ). finalement, x est un vecteur propre commun à f et g.
On procède maintenant par récurrence sur n. Pour n = 1, c’est évident. Supposons
 le résultat vrai au rang
α × ··· ×
 0 M 
n − 1. On complète x en B = (x, e2 , · · · , en ) une base de E. On a [f ]B =  .  et [g]B =
 
 .. 
0
 
β × ··· ×
 0 N 
 Comme χf = (X − α)χM , χM est comme χf scindé sur K, donc M est trigonalisable. De
 
 ..
 . 
0
même N est trigonalisable. Or f g = gf, donc [f ]B [g]B = [g]BB [f ]BB , ce qui s’écrit
   
α × ··· × α × ··· ×
 0 MN   0 NM 
 =  ..
   
 .. 
 .   . 
0 0

Donc M N = N M. Soit B1 = (e2 , · · · , en ) et H = vect(B1 ), hyperplan de E. On note p la projection sur


H parallèlement à Kx. Soit f1 = p ◦ g|H ∈ L(H). Comme [f1 ]B1 = M et [g1 ]B1 = N1 , f1 et g1 commutent
donc d’après l’hypothèse de récurrence, il existe une base B2 qui trigonalise en même temps f1 et g1 . Soit
B 0 = {x} ∪ B2 , qui est une base de E et
 
α × ··· ×
 0 [f1 ]B2 
[f ]B0 =  . .
 
 .. 
0

Ce qui montre que [f ]B0 est triangulaire supérieure. De même [g]B0 est triangulaire supérieure.

14 Complément : Nilpotents
Définition 14.0.1. Soit u ∈ L(E); on dit que u est nilpotent s’il existe un entier q ≥ 1 tel que uq = 0.
On appelle indice de nilpotence :
p := min{q ≥ 1|uq = 0}
Caractérisation
Théorème 14.0.2. Soit u ∈ L(E) avec E un K-espace vectoriel de dimension finie n > 0.
Alors, u est nilpotent si et seulement s’il est trigonalisable avec pour seule valeur propre 0. Son polynôme
caractéristique est donc X n .
Démonstration. Soit u un endomorphisme nilpotent de E, alors 0 est la seule valeur propre de u, en effet, soit
λ ∈ K une valeur propre de u, alors λq est valeur propre de uq = 0 avec q l’indice de nilpotence de u, donc λ = 0.
Donc χu (X) = X n qui est scindé, donc u est trigonalisable. Réciproquement si u est trigonalisable avec 0 pour
seule valeur propre, alors comme χu (X) est scindé, on a χ(X) = X n . Par le Théorème de Cayley-Hamilton, on
conclut que un = 0. Donc u est nilpotent.

Corollaire 14.0.3. Soit u ∈ L(E) avec E un C-espace vectoriel de dimension n > 0, alors on a l’équivalence
entre :

31 M.ISSOUAL
MP-MP*

i) u est nilpotent.
ii) un = 0.
iii) χu (X) = X n .

15 Complément : Endomorphismes à polynôme minimal scindé


Théorème 15.0.1. Soit u ∈ L(E); on suppose qu’il existe un polynôme scindé P tel que P (u) = 0. Alors :
— u est trigonalisable
— plus précisément, E est somme directe de sous-espaces stables par u sur chacun desquels u induit la somme
d’une homothétie et d’un endomorphisme nilpotent.
Démonstration. Soit
r
Y
πu (X) = (λ − Xj )pj
j=1

où les λj sont supposés distincts ; notons

Fj = ker(u − λj .Id)pj

Alors
r
M
F = Fj
j=1

Ceci d’après le Théorème des noyaux, et comme u commute avec (u − λj .Id)pj = Pj (u), alors Fj sont stables
p
par u. Notons uj l’endomorphisme induit par u sur Fj . On a uj = λj .Id + uj − λj .Id . On a ker nj j = Fj , donc
| {z }
=nj
nj est un endomorphisme nilpotent de Fj .
Caractérisation matricielle
Théorème 15.0.2. Soit A ∈ Mn (K); on suppose qu’il existe un polynôme scindé tel que P (A) = 0. Alors
— A est trigonalisable.
— plus précisément, il existe une matrice B semblable à A, diagonale par les blocs Bj = λj .I + Nj
et les Nj étant nilpotentes.

16 Compléments : Commutant d’un endomorphisme


Soit E un K-espace vectoriel de dimension n ≥ 1. Soit f ∈ L(E). On note :

Γf = {g ∈ L(E)|f g = gf }.

• On suppose que f est diagonalisable, déterminons dimΓf .


Soit λ1 , · · · , λr les valeurs propres de f, Eλ1 , · · · , Eλr les sous-espaces propres correspondants.
Soit g ∈ Γf , lors pour tout i, Eλi est stable par g.
Réciproquement, si Eλi est stable par g pour tout indice i. Alors

∀x ∈ Eλi , f ◦ g(x) = λi g(x) = g ◦ f (x).

Donc comme E = Eλ1 ⊕ Eλ2 ⊕ · · · ⊕ Eλr , on a g ∈ Γf .


Donc Γf = {g ∈ L(E)|∀i, Eλi stable par g} . Pour tout indice i, soit Bi une base de Eλi , de sorte que
B = B1 ∪ ... ∪ Br est une base de E. Les matrices des endomorphismes de Γf dans la base B sont celles de la
forme  
M1
 ..  avec ∀i, Mi ∈ MdimEλi (K).

 .
0 Mr

32 M.ISSOUAL
MP-MP*

r
X
On voit donc que dimΓf = (dimEi )2 .
i=1
• Cas des valeurs propres distinctes deux à deux
On suppose que f admet n valeurs propres distinctes deux à deux, donc dimEi = 1 pour tout i. Donc
dimΓf = n. Comme f est diagonalisable à racines simples, alors πf (X) = (X − λ1 )...(X − λn ), et donc
dimK[f ] = deg(πf ) = n. Comme K[f ] ⊂ Γf , on conclut que Γf = K[f ].

17 Complément : Diagonalisation d’une matrice circulante


 
a0 a1 a2 ··· an−1
 an−1 a0 a1 ··· an−2 
Soit M =  .  ∈ Mn (C)
 
.. .. .. ..
 .. . . . . 
a1 a2 ··· an−1 a0
 
0 1 0 0 ···
 ..  ..
 0 0 1 .  .
• On considère la matrice W =  . .
  ∈ Mn (C)
 .. .. · · ·

0 1 
1 0 ··· 0 0
C’est la matrice associée à la permutation circulaire (n, n − 1, n − 2, ..., 2, 1).
Son polynôme caractéristique est χW (X) = X n − 1.
W admet n valeurs propres distinctes qui sont racines nième de l’unité,elle est donc diagonalisable, et il existe
−1
une 
matrice P ∈ GLn (C) telle que W = P DP où D = diag(ω0 , ω1 , · · · , ωn−1 ) avec ∀0 ≤ k ≤ n − 1, ωk =
2ikπ
exp .
n !
n−1
X
k
2
• Or M = a0 In +a1 W +a2 W +· · ·+an−1 W n−1
= Q(W ). On en déduit M = P ak D P −1 = P ∆P −1
k=0
Donc M est diagonalisable avec ∆ = diag(Q(ω0 ), · · · , Q(ωn−1 )).
Yn
Donc det(M ) = Q(ωk ).
k=0

18 Complément : Diagonalisation simultanée


Soit (fi )i∈I une famille d’endomorphismes diagonalisables dans E et commutent deux à deux, alors il existe
une base de E diagonalisante pour tous les fi .
Démonstration. On va raisonner par récurrence sur n = dim(E).
Supposons : ∀(i, j) ∈ I 2 , fi ◦ fj = fj ◦ fi . Si n = 1 dans une base quelconque de E toutes les matrices sont
diagonales.
Supposons n ≥ 2 et la propriété est assurée pour tous les espaces de dimension k avec 1 ≤ k ≤ n − 1, et
considérons un espace vectoriel de dimension n.
• Si tous les fi sont des homothéties, alors ils sont simultanément diagonalisables.
L
• Si l’un au moins des fi notons le fk n’est pas une homothétie, donc E = λ Eλ (fk ) avec λ des valeurs
propres de fk . On a dimEλ (fk ) = kλ ≤ n − 1, et les restrictions fbk des endomorphismes fi à Eλ (fk ) sont
diagonalisables et commutent. Par hypothèse de récurrence, il existe une base de Eλ (fk ) diagonalisant tous les
fbi .
La réunion de ces bases, quand λ parcourt les valeurs propres de fk , constitue une base de E, dans laquelle
chaque fi est diagonalisé. La propriété est vrai à l’ordre n.

33 M.ISSOUAL
MP-MP*

19 Complément : Sous-espaces caractéristiques-Réduction de Jor-


dan
19.1 Sous-espaces caractéristiques
Définition 19.1.1. Soit f ∈ L(E) de polynôme caractéristique χf (X) = (X − λ1 )α1 · · · (X − λr )λr scindé sur
K. Posons
Ni = ker(u − λi idE )αi
pour tout indice i. Alors Ni est un sous-espace vectoriel de E dit sous-espace caractéristique de f.
Théorème 19.1.2. On a les propriétés suivantes :
— Pour tout indice i, Ni est stable par f.
— E = N1 ⊕ · · · ⊕ Nr .
— Pour tout i dimNi = αi .
Démonstration. Les Ni sont stables par f car f commute avec (f − λi IdE )αi .
Comme pour tout i 6= j, on a (X −λi )αi et (X −λj )αj sont premiers entre eux, le Théorème de décomposition
des noyaux permet d’écrire E = N1 ⊕ · · · ⊕ Nr .
X r Xr X r
Comme E = N1 ⊕ · · · ⊕ Nr , il vient que n = dimNi = αi , ce qui donne (dimNi − αi ) = 0.
i=1 i=1 i=1
D’autre part, si on pose pour tout i, gi = (f − λi )|Ni , il vient que giαi = 0, le polynôme caractéristique de gi
est donc X dimNi donc celui de fi = f|Ni est (X − λi )dimNi ce dernier divise χf et donc dimNi ≤ αi . Et puisque
Xr
(dimNi − αi ) = 0 et chaque terme de la somme est négative, on conclut que αi = dimNi .
i=1

Théorème 19.1.3. (Indice d’un endomorphisme)


Soit f ∈ L(E). Il existe un unique entier naturel r tel que

{0} = ker f 0 ker f ··· ker f r = ker f r+1 = ... = ker f q = ..

L’entier r s’appelle l’indice de f. C’est aussi le plus petit entier naturel r tel que ker f r = ker f r+1 .
Démonstration. On part du fait que
∀p ∈ N, ker f p ⊆ ker f p+1
On en déduit que pour tout p, dimkerf p ≤ dim ker f p+1 . Autrement dit, la suite (xp )p∈N définie par
xp = dim ker f p est croissante. Cette suite est à valeurs dans I = {0, 1, ..., n}. L’ensemble I étant fini donc
r = inf{p ∈ N|xp = xp+1 } existe On a alors
— Pour tout p < r, ker f p ker f p+1 .
r r+1
— ker f = ker f .
— Pour tout p ≥ r, ker f p = ker f r .
L’unicité est évidente.
Théorème 19.1.4. Soit f ∈ L(E) tel que son polynôme caractéristique χf soit scindé sur K : χf (X) =
Yd
(X − λi )αi . Alors
i=1
1. Le polynôme minimal πf de f est de la forme
d
Y
πf (X) = (X − λi )ri avec ∀, 1 ≤ ri αi .
i=1

2. L’ordre de multiplicité ri de λi dans πf est l-indice de l’endomorphisme (f − λi IdE ).


Démonstration. 1. D’après le Théorème de Cayley-Hamilton χf est un polynôme annulateur de f et donc
divisble par πf .

34 M.ISSOUAL
MP-MP*

2. Pour simplifier les notations, on supposei = 1, donc π(X) = (X − λ1 )r1 Q(X) avec (X − λi )ri et Q sont
premiers entre eux, par le Théorème de décomposition des noyaux, on obtient,

E = ker(f − λ1 IdE )r1 ⊕ M avec M = ker Q(f ).

On en déduit dim ker(f − λ1 IdE )r1 + dimM = n.


Soit q un entier naturel. On pose P = (X − λ1 )q Q. En appliquant le Théorème de décomposition des
noyaux on a :
ker P (f ) = (f − λ1 IdE )q ⊕ ker Q(f ) = (f − λ1 IdE )q ⊕ M.
• Si q ≥ r1 , alors πf divise P donc P (f ) = 0, on déduit alors que dim(f − λ1 IdE )r1 = dim(f − λ1 IdE )q .
• Si q < r1 , alors πf ne divise pas P et donc P (f ) 6= 0 et ker P (f ) 6= E, ce qui implique que dim(f −
λ1 IdE )r1 > (f − λ1 IdE )q . On en déduit que l’indice de l’endomorphisme f − λ1 IdE est r1 .

35 M.ISSOUAL

Vous aimerez peut-être aussi