Académique Documents
Professionnel Documents
Culture Documents
1
Table des matières
1. Préface 3
2. Polynômes d’endomorphismes 4
2.1. Valeurs et vecteurs propores 4
2.2. Polynômes d’endomorphismes 6
2.3. Polynôme minimal 8
2.4. Polynôme caractéristique 11
2.5. Théorème de Cayley-Hamilton 15
3. Diagonalisation et trigonalisation 16
3.1. Diagonalisation 16
3.2. Trigonalisation 20
4. Réduction du Jordan 23
4.1. Base et matrice de Jordan 23
4.2. Techniques pratiques de jordanisation en petites dimensions 31
5. Applications 39
5.1. Calcul de la puissance d’une matrice 39
5.2. Résolution d’un système de suites récurrentes 39
5.3. Système différentiel linéaire à coefficients constants 40
Références 42
2
1. Préface
Ces notes de cours sont destinées en premier lieu aux étudiants de la faculté pluri-
disciplinaire de Nador, de la filière SMA semestre 3.
Généralement, la réduction des matrices et des endomorphismes occupe une place
prépondérante dans tout cours d’algèbre linéaire. Toutefois, ce terme de réduction cache
de nombreuses réalités et perspectives.
D’une part, réduire un endomorphisme f d’un espace de dimension finie, c’est trouver
une base dans laquelle l’endomorphisme f est « bien compris » et « facilement manipu-
lable ». En pratique, cela revient à pouvoir déterminer une matrice de l’endomorphisme
avec une forme particulière : diagonale (dans le meilleur des cas), diagonale par blocs,
triangulaire . . .
Pour une matrice carrée M , l’équivalent de cette démarche consiste à chercher une
matrice d’une forme particulière semblable à M : en effet, la formule de changement de
bases pour la matrice d’un endomorphisme n’est autre que la traduction de la similitude
de deux matrices.
D’autre part, réduire un endomorphisme (respectivement une matrice) c’est com-
prendre l’ensemble de toutes les matrices qui lui sont associées (respectivement sa classe
de similitude) ; pour ce faire, on cherche une matrice réduite qui décrit simplement, qui
caractérise cet ensemble.
Pour ceux qui s’intéressent ou veulent approfondir l’un ou l’autre des sujets traités,
je recommande les références citées à la fin de ce polycopié. Prière à toute personne
utilisant ce document de bien vouloir signaler toute erreur ou remarque pertinente
au auteur de ce polycopié à l’e-mail : staoufik.fpn@gmail.com, et ce dans le but de
l’améliorer.
3
2. Polynômes d’endomorphismes
Dans toute la suite, E désigne un espace vectoriel, non réduit à zéro, sur un corps
commutatif K.
2.1.1. Définitions.
Proposition 1. Des vecteurs propres associés à des valeurs propres deux à deux dis-
tinctes forment une famille libre.
Preuve
Procédons par récurrence sur le cardinal N de la famille de vecteurs propres consi-
dérée.
• Si N = 1, alors la famille ne contient qu’un vecteur qui est non nul (car vecteur
propre) donc la famille est libre.
• Soit N ∈ N∗ , supposons que toute famille de N vecteurs propres associés à des
valeurs propres deux à deux distinctes soit libre et considérons {x1 , . . . , xN +1 }
une famille de N + 1 vecteurs propres associées aux valeurs propres deux à deux
distinctes λ1 , . . . , λN +1 .
Soit (α1 , . . . ,αN +1 ) ∈ KN +1 .
N
X +1
Si αi xi = 0E ,
i=1
4
alors :
N
X +1
f( αi xi ) = 0E ,
i=1
c’est à dire que
N
X +1
λi αi xi = 0E .
i=1
En combinant ces deux relations,
N
X
(λN +1 − λi )αi xi = 0E .
i=1
Preuve
Une famille constituée de vecteurs propres associés à chacune des valeurs propres est
libre (d’après la proposition précédente) et de cardinal le nombre de valeurs propres
distinctes. Or, le cardinal d’une famille libre est inférieur ou égal à la dimension de
l’espace, d’où le résultat.
Remarque 1.
Exemple 1.
Proposition 2. Des sous-espaces propres associés à des valeurs propres deux à deux
distinctes sont en somme directe.
5
Preuve
Soit Eλ1 , . . . , EλN des sous-espaces propres associés à des valeurs propres deux à
deux distinctes λ1 , . . . , λN . Soit x un élément de la somme de ces sous-espaces propres ;
supposons que x admette deux décompositions distinctes sur cette somme
N
X N
X
x= xi = x0i .
k=1 k=1
PN
Alors k=1 (xi − x0i ) = 0E , or chacun des termes de cette somme est soit nul, soit un
vecteur propre. D’après le résultat précédent, xi − x0i = 0 pour tout i ∈ J1 ; N K (sinon
on aurait trouvé une combinaison linéaire nulle non triviale de vecteurs propres associés
à des valeurs propres deux à deux distinctes). On obtient l’unicité de la décomposition
de x et, par conséquent, les espaces Eλ1 , . . . , EλN sont en somme directe.
Φ : K[X] −→ L(E)
.
P 7−→ P (f )
est à la fois un morphisme d’anneaux et une application linéaire.
Preuve
Soient P (X) = α0 +α1 X+. . .+αp X p et Q(X) = β0 +β1 X+. . .+βq X q deux polynômes
de K[X]. On peut supposer que q ≤ p et on écrit Q(X) = β0 + β1 X + . . . + βp X p avec
βj = 0 pour (q < j ≤ p). On a :
p
X
(P + Q)(X) = P (X) + Q(X) = (αi + βi )X i .
i=0
X
(P Q)(X) = P (X)Q(X) = αi βi X i+j .
0≤i,j≤p
Alors :
p p p
X X X
Φ(P + Q) = (αi + βi )f i = αi f i + βi f i = P (f ) + Q(f ) = Φ(P ) + Φ(Q).
i=0 i=0 i=1
6
et
p p
X X X
i+j i
Φ(P Q) = (αi βi )f =( αi f ) ◦ ( βj f j ) = P (f ) ◦ Q(f ) = Φ(P ) ◦ Φ(Q).
0≤i,j≤p i=0 j=0
et :
Φ(λP ) = (λP )(f ) = λα0 + λα1 f + . . . + λαp f p = λΦ(P ).
Ce qui montre que Φ est une application linéaire.
Remarque 2.
Preuve
D’après la proposition précédente, Φ est à la fois une application linéaire et un mor-
phisme d’anneaux, alors Im(Φ) = K[f ] est à la fois un sous-espace vectoriel de L(E)
et un sous-anneau de L(E).
Montrons maintenant que K[f ] est un commutatif : Soient g, h ∈ K[f ], et P, Q ∈ K[X]
tels que g = Φ(P ) et h = Φ(Q), on a :
Remarque 3.
7
Théorème 1 (Lemme des noyaux). Soient Pi ∈ K[X], 1 6 i 6 k, des polynômes deux
à deux premiers entre eux, P = P1 P2 . . . Pk et f ∈ L(E). Alors :
Preuve
Par récurrence sur k, on a :
Pour k = 1, il n’y a rien à démontrer.
Pour P = P1 P2 . . . Pk Pk+1 , posons Q = P1 P2 . . . Pk et supposons par la suite que
Ker(Q(f )) = Ker(P1 (f )) ⊕ Ker(P2 (f )) ⊕ . . . ⊕ Ker(Pk (f )). Comme Q | P et Pk+1 | P
alors : Ker(Q(f )) ⊆ Ker(P (f )) et Ker(Pk+1 (f )) ⊆ Ker(P (f ))) par conséquent :
D’autre part, comme Q et Pk+1 sont premiers entre eux, le théorème de Bézout assure
l’existence de deux pôlynomes U et V vérifiant 1 = V Pk+1 + U Q. Alors :
D’après (∗) et (∗ ∗ ∗) on a :
d’où :
Exemple 2.
8
Soit Π ∈ L(E) une projection (c.à.d Π2 = Π), alors Π est annulée par le polynôme
X 2 − X = X(X − 1).
Exemple 3.
On considère l’endomorphisme :
f : K[X] → K[X]
Q 7→ XQ
Preuve
Soit f un endomorphisme d’un K-espace vectoriel E de dimension n. Alors, la famille
(f )k∈J0,n2 K comporte n2 + 1 vecteurs de l’espace L(E), lequel est de dimension n2 , cette
k
2 +1
famille est donc liée. Il existe alors une famille de (αk )k∈J0,n2 K ∈ Kn de scalaires non
tous nuls telle que
n
X
αk f k = 0.
k=0
Par conséquent, le polynôme
n 2
X
αk X k
k=0
est annulateur de f .
La connaissance d’un polynôme annulateur donne immédiatement des renseignements
sur le spectre de f . Si on note Z(P ) l’ensemble des racines d’un polynôme P ∈ K[X],
alors on a le résultat suivant :
Sp(f ) ⊆ Z(P ).
Preuve
Soient λ une valeur propore de f et x un vecteur propore associé à λ.
9
En posant P (X) = α0 + α1 X + . . . + αp X p , on obtient :
Preuve
L’ensemble If est clairement un sous-groupe additif de K[X].
Si P ∈ If et Q ∈ K[X], alors QP ∈ If car :
Comme l’anneau K[X] est euclidien, il est en particulier principal, donc chaque idéal
de K[X] peut être engendré par un unique polynôme unitaire. Ceci justifie la définition
suivante (conjointement avec l’hypothèse que l’espace E est de dimension finie donc
que l’idéal des polynômes annulateurs est non réduit au seul polynôme nul).
Théorème 2. Soit f ∈ L(E), µf son polynôme minimal. Alors, pour tout polynôme
P ∈ K[X] : P (f ) = 0 ⇔ µf divise P . En particulier µf (f ) = 0.
En tenant compte du fait que toute matrice possède un polynôme minimal, on aura
aussi le résultat suivant :
10
annulateur de h est donc un multiple de X − λ, c’est-à-dire un polynôme admettant λ
comme racine.
Preuve
Soit f ∈ L(E) de polynôme annulateur de degré N et m ∈ N. Or K[X] est euclidien,
alors il existe (Qm ,Rm ) ∈ K[X]2 tel que :
Preuve
D’après la proposition 6, il suffit de montrer que Z(µf ) ⊆ Sp(f ). Soint λ ∈ Z(µf ) et
Q ∈ K[X] tels que µf (X) = (X − λ)Q(X). Comme deg(Q) < deg(µf ) alors Q(f ) n’est
pas nul, donc il existe un vecteur x tel que Q(f )(x) 6= 0. Or (f − λIdE ) ◦ Q(f )(x) =
µf (f )(x) = 0, alors λ ∈ Sp(f ).
Exemple 7. Soit !
1 2
A= ∈ Mn (R).
−1 4
11
On a :
1−X 2
χA (X) = det(A − XI2 ) =
−1 4−X
X 2 − 5X + 6 = (X − 2)(X − 3).
Preuve :
Si n = 1 et A = (a) est une matrice de taille 1 × 1. Alors χA (X) = det(A − XIn ) =
a − X et a = det(A). supposons que l’égalité est vraie pour toute matrice de Mn−1 (K),
n ≥ 2, et soit A = (aij )1≤i,j≤n . Alors, il vient :
a22 − X · · · a2n
a32 ··· a3n
= (a11 − X) .. ... .. + Q0 (X),
. .
an2 · · · ann − X
où Q0 est le polynôme de degré inférieur ou égale à n − 2 donné par :
a12 a13 ··· a1n a12 a13 · · · a1n
a32 a33 − X · · · a3n a22 − X a23 · · · a2n
Q0 (X) = −a21 .. ... .. + a31 .. .. .. + ···
. . . . .
an2 · · · ann − X an2 · · · ann − X
L’hypothèse de récurrence implique :
χA (X) = (a11 − X)((−1)n−1 X n−1 + (−1)n−2 (a22 + a33 + · · · + ann )X n−2 ) + Q1 (X)
12
D’autre part, on a : χA (0) = det(A), par conséquent :
Z(χf ) = Sp(f ).
Preuve
Le scalaire λ est une racine de χf (X) si seulement si det(f − λIdE ) = 0, c’est-à-dire
si, et seulement si, f − λIdE n’est pas inversible, ce qui est équivalent à f − λIdE n’est
pas injectif, puisque E est de dimension finie, ce qui est la définition de λ valeur propre.
Définition 7 (Polynômes scindés). Soit P ∈ K[X] de degré n. On dit que P est scindé
dans K si P admet n racines dans K (en comptant chaque racine avec sa multiplicité).
13
Exemple 9. P (X) = X 2 − 5X + 6 = (X − 2)(X − 3) est scindé dans R. De même,
P (X) = X 3 − 4X + 5X − 2 est scindé dans R, car : P (X) = (X − 1)2 (X − 2), donc il
a trois racines {1, 1, 2}.
En revanche P (X) = X 2 + 1 est scindé dans C (car P (X) = (X − i)(X + i)) mais
pas dans R.
En d’autres termes, un polynôme est scindé si et seulement si il peut s’écrire sous la
forme :
P (X) = a(X − a1 )α1 . . . (X − ap )αp ,
avec a ∈ K, ai 6= aj pour i 6= j et α1 + . . . + αp = deg(P ).
Proposition 12. Soit A ∈ Mn (K). Si son polynôme caractéristique χA est scindé dans
K, avec λ1 , . . . ,λn pour racines, on a :
n
Y n
X
det(A) = λk et tr(A) = λk .
k=1 k=1
Preuve
En développant χA , on obtient :
Définition 8. Une valeur propore λ d’un endomorphisme est dite d’ordre de multipli-
cité m(λ) si elle est racine d’ordre m(λ) du polynôme caractéristique.
Fλ = Ker(f − λIdE )m .
1 ≤ dim(Eλ (f )) ≤ m(λ)
14
Preuve
On pose p = dim(Eλ (f )) et χf (X) = (X − λ)m(λ) Q(X) avec Q(λ) 6= 0. Il est clair
que p ≥ 1. On pose F = Ker(f − λId.) Soit g = f|F ∈ L(E). Alors g = λId. En effet,
x ∈ F ⇒ g(x) = f (x) = λx ∈ F.
Par suite,
En utilisant le fait que, χg divise χf , on obtient que (λ − X)p divise χf (X) et donc
divise (X − λ)p puisque Q(λ) 6= 0. D’où p ≤ m(λ).
χf (f ) = 0 et χA (A) = 0.
Preuve
Voir [2]
15
3. Diagonalisation et trigonalisation
3.1. Diagonalisation.
Définition 10. Un endomorphisme f ∈ L(E) est dit diagonalisable s’il existe une base
dans laquelle sa matrice est diagonale. Une matrice A ∈ Mn (K) est dite diagonalisable
si, et seulement si, elle est semblable à une matrice diagonale.
Exemple 10.
Soit f ∈ L(R2 ) donné!par : f (x,y) = (3x − 4y,2x − 3y), la matrice de f dans la base
3 −4
canonique est : . On considère une autre base B 0 de R2 formée des vecteurs
2 −3
e1 = (1,1) et e2 = (2,1), on!obtient f (e01 ) = −e01 et f (e02 ) = e02 . Ainsi la matrice de f
0 0
−1 0
dans la base B 0 est est diagonale donc f est diagonale.
0 2
Exemple 11.
!
−1 2
La matrice A = est diagonalisable. En effet, A est semblable à la matrice
−3 4
! !
1 0 1 2
B= puisque B = P −1 AP où P = .
0 2 1 3
3.1.1. Critères de diagonalisation.
Preuve
Si B = {v1 , v2 , . . . , vn } est une base formée de vecteurs propres correspondants aux
valeurs propres λ1 , λ2 , . . . , λn on a :
f (v1 ) = λ1 v1 , . . . , f (vn ) = λn vn .
16
et donc f est diagonalisable.
Réciproquement, s’il existe une base B = {e1 , e2 , . . . , en } où la matrice de f est
diagonale :
a11 0 ··· 0
.. ..
0 a22 . .
.
.. .. ...
. . 0
0 0 · · · ann
En regardant les colonnes de la matrice, on voit que f (e1 ) = a11 e1 , f (e2 ) = a22 e2 , . . . , f (en ) =
ann en ce qui signifie que les vecteurs ei sont des vecteurs propres.
Preuve
(1) ⇒ (2), soit B une base de E formée de vecteurs popores de f. On pose :
Par suite, B est une base de E. Ce qui montre que f est diagonalisable.
Preuve
Si f admet n valeurs propres deux à deux distinctes, alors une famille de vecteurs
propres associés à chacune de ces valeurs propres est libre et de cardinal n, donc c’est
une base. On a trouvé une base de vecteurs propres de f , donc f est diagonalisable.
17
Exemple 12.
Une matrice triangulaire avec des coefficients diagonaux deux à deux distincts est
diagonalisable (car ses valeurs propres sont précisément ces coefficients diagonaux).
Preuve
Les racines de χf sont les valeurs propres de f . L’hypothèse implique que f admet n
valeurs propres distinctes, donc est diagonalisable d’après la proposition précédente.
Preuve
(⇒) Si f est diagonalisable, il existe une base (e1 , . . . , en ) de vecteurs propres de f ;
notons (λk )k∈J1 ; mK les valeurs propres distinctes. Le polynôme P (X) = m
Q
k=1 (X − λk )
est annulateur de f . En effet, pour tout i ∈ J1 ; nK, en notant λki la valeur propre
associée à ei , on obtient :
m
Y m
Y
P (f )(ei ) = (f − λk IdE )(ei ) = (f − λk IdE ) ◦ (f − λki IdE )(ei ) = 0.
k=1 k=1, k6=ki
(⇐) Soit
m
Y
P (X) = (X − λk ), avec λk 6= λj si k 6= j,
k=1
un polynôme annulateur de f scindé à racines simples. Puisque les (λk )k∈J1 ; mK sont
deux à deux distincts, les polynômes (X − λk )k∈J1 ; mK sont premiers entre eux. En
appliquant le lemme des noyaux, on obtient la décomposition :
m
M
E= Ker(f − λk IdE )
k=1
18
Théorème 10. Soit f ∈ L(E). Alors :
(
χf est scindé sur K,
f est diagonalisable ⇔
m(λ) = dim Eλ (f ) pour tout λ ∈ Sp(f ).
Preuve
Posons
k
Y
χf (X) = (X − λi )m(λi ) ,
i=1
où λi ∈ Sp(f ), pour 1 ≤ i ≤ k.
(⇒) Supposons que f est diagonalisable, alors E = Eλ1 (f ) ⊕ Eλ2 (f ) ⊕ . . . ⊕ Eλk (f ) et
χf (X) = χf|Eλ (f )
(X) . . . χf|Eλ (f )
(X), or f|Eλi (f ) = λi IdE , donc χf|Eλ (f )
(X) = (X − λi )ni
1 k i
où ni = dim(Eλi (f )) pour 1 ≤ i ≤ k. D’où,
k
Y
χf (X) = (X − λi )ni ,
i=1
Exemple 13.
1 0 0
Soit f ∈ L(R3 ) donné par la matrice 0 1 0 dans la base canonique B =
1 −1 2
{e1 , e2 , e3 }. Le polynôme caractéristique de f est χf (X) = −(X − 1)2 (X − 2), donc χf
est scindé sur R et de plus on a : Sp(f ) = {1, 2}, avec m(1) = 2 et m(2) = 1.
Comme 1 6 dimE2 (f ) 6 m(2) = 1, donc dimE2 (f ) = m(2) = 1.
D’autre part, soit u = (x, y, z) ∈ R3 . Alors :
Il vient que e01 = (1, 0, − 1) et e02 = (0, 1, 1) est une base de E1 (f ), donc dim(E1 (f )) =
m(1) = 2, par la suite, f est diagonalisable.
19
3.2. Trigonalisation.
Définition 11. Un endomorphisme f ∈ L(E) est dit trigonalisable s’il existe une base
dans laquelle sa matrice est triangulaire. Une matrice A ∈ Mn (K) est dite trigonalisable
si, et seulement si, elle est semblable à une matrice triangulaire.
Exemple 14.
! ! !
5 −1 3 −1 1 1
Soient A = ,B= , et P = , or B = P −1 AP, la matrice
4 1 0 3 2 3
A est trigonalisable.
Exemple 15.
Soit f ∈ L(R2 ) donné par : f! (x,y) = (−3x + 2y, − 8x + 5y), la matrice de f dans
−3 2
la base canonique est : . On considère une autre base B 0 de R2 formée des
−8 5
vecteurs e01 = (1, 2) et e02 = (1, 3), on obtient
! f (e01 ) = e01 et f (e02 ) = 2e01 + e02 . Ainsi, la
1 2
matrice de f dans la base B 0 est est triangulaire donc f est trigonalisable.
0 1
3.2.1. Critères de trigonalisation.
Preuve
Si l’endomorphisme f est trigonalisable, il existe une base dans laquelle sa matrice
est triangulaire. En calculant le polynôme caractéristique de f écrit dans cette base, on
trouve que celui-ci est scindé : il est égal au produit des termes (aii − X) où les aii sont
les termes diagonaux de la matrice de f dans cette base.
Réciproquement, supposons que f admet un polynôme annulateur scindé
m
Y
P (X) = (X − λi )αi .
i=1
D’après le lemme des noyaux, l’espace E est la somme directe des Fλi = Ker(f −
λi IdE )αi , et il suffit donc de montrer que l’endomorphisme induit par f sur chacun de
ces sous-espaces Fλi est trigonalisable.
Chacun de ces endomorphismes induits est la somme d’une homothétie λi IdE et d’un
endomorphisme nilpotent f − λi IdE . Il existe donc une base de Fλi telle que f − λi IdE
20
s’écrit sous la forme d’une matrice triangulaire supérieure : l’endomorphisme induit par
f sur Fλi est donc trigonalisable. En concaténant les bases obtenues pour chacun de ces
sous-espaces, on obtient une base de E dans laquelle la matrice de f est triangulaire
supérieure.
Preuve
C’est une application directe du résultat ci-dessus en remarquant que C est algé-
briquement clos (théorème de D’Alembert-Gauss), donc que tous les polynômes non
constants de C[X] sont scindés.
Preuve
Il suffit de remarquer que χf|F divise le polynôme scindé χf donc est scindé.
Remarque 5.
Exemple 16.
Voir TD.
21
Preuve
On pose
m
Y
P (X) = (X − λi )αi ,
i=1
d’après le lemme des noyaux :
m
M
E= Ker(f − λk IdE )αk .
k=1
x1 + . . . + xm 7→ xi .
Soit Bi une base de Ker(f − λi IdE )αi , 1 ≤ i ≤ m. Posons d = λ1 p1 + . . . + λm pm . Pour
S
e ∈ Bi , on a d(e) = λi e. Alors, B = Bi est une base de E formée de vecteurs propres
de d, d’où d est diagonalisable.
On a pi ∈ K[f ] pour tout i, donc d ∈ K[f ] et n = f − d ∈ K[f ]. Or K[f ] est un
sous-anneau commutatif, alors n ◦ d = d ◦ n.
Montrons que n est nilpotent. Soit x = x1 + . . . + xm avec xi ∈ Ker(f − λi IdE )αi .
On a d(xi ) = λi xi et ndim(E) (xi ) = (f − λi IdE )dim(E) (xi ) = 0 puisque dim(E) ≥ ki pour
tout i ∈ {1, . . . , m}, d’où ndim(E) (x) = ndim(E) (x1 + . . . + xm ) = 0.
Soit (d, n) le couple construit précédemment et (d0 , n0 ) un couple satisfaisant aux
conditions de la proposition. Chacun de ces quatre endomorphismes commute avec f
donc laisse stable les sous-espaces Ker(f − λi IdE )αi pour k ≤ m. Notons (dk , nk ) et
(d0k , n0k ) les endomorphismes induits par ces endomorphismes sur le sous-espace Ker(f −
λi IdE )αi . Les endomorphismes nk et n0k commutent (le premier est un polynôme en f
et le second commute avec f = n0 + d0 ) et sont tous les deux nilpotents, donc leur
différence est nilpotente (d’indice inférieur au égal à la somme de leurs indices). Or,
nk − n0k = d0k − λk IdE est diagonalisable. Le seul endomorphisme diagonalisable et
nilpotent est l’endomorphisme nul ; d’où d0 = λk IdE et nk = n0k et par conséquent
d = d0 et n = n0 .
22
4. Réduction du Jordan
Définition 12. On appelle matrice (ou bloc) de Jordan une matrice carrée de la forme :
λ 1 0 ··· 0
0 λ 1 · · ·
0
. . ..
Jk (λ) = 0 0 . . . . . ∈ Mk (K), où λ ∈ K et k ∈ N∗ .
. .
. . ...
. . λ 1
0 0 ··· 0 λ
où λi ∈ K et ki ∈ N∗ pour 1 ≤ i ≤ r, et n = k1 + k2 + · · · + kr .
Définition 14. Un endomorphisme f ∈ L(E) est dit jordanisable s’il existe une base
dans laquelle sa matrice est une matrice réduite de Jordan. Une matrice A ∈ Mn (K)
est dite jordanisable si, et seulement si, elle est semblable à une matrice réduite de
Jordan.
23
il existe alors une base B de E telle que :
J1 (λ) 0
J2 (λ)
M at(f )B = ..
= J(λ),
e
.
0 Jγ (λ)
où :
• les Jk (λ) sont des blocs de Jordan,
• l’ordre du plus grand bloc est β,
• le nombre des blocs est γ.
(2) Si f admet les valeurs propores λ1 , · · · , λp de multiplicité α1 , · · · , αp , c’est à
dire si :
0 0 0 0 λ
Si dim E = 5, χf (X) = −(X − λ)5 , µf (X) = (X − λ)3 et dim Eλ = 3, il existe une
base B de E telle que :
λ 1 0 0 0
0 λ 1 0 0
M at(f )B =
0 0 λ 0 0.
0 0 0 λ 0
0 0 0 0 λ
24
Remarque 6.
Une matrice sous la forme de Jordan est diagonalisable si et seulement si elle est déja
sous forme diagonale.
En effet, si elle n’est pas diagonale il y a un bloc de Jordan d’ordre β > 1, ce qui
implique que dans le ploynôme minimal il y a au moins un facteur de type (X − λ)β ,
donc µf (X) n’a pas toutes ses racines simples.
Preuve
Soit χf (X) = (−1)n (X − λ)n . Puisque χf est scindé, f est trigonalisable. Il existe
donc une base B 0 telle que :
λ ∗
λ
notation
M atB0 (f ) = ..
= A.
.
0 λ
u est nilpotent. Puisque la matrice λI de λId est la même en toute base, le problème
revient à étudier la réduction des endomorphismes nilpotents.
Soit donc u un endomorphisme nilpotent et β son indice de nilpotence. On a µu (X) =
X β . Donc u n’est pas diagonalisable que si β = 1, c’est à dire u = 0. Par la suite on
supposera donc que u 6= 0.
(2) Il existe un vecteur x ∈ E, x 6= 0, tel que {x, u(x), u2 (x), · · · , un−1 (x)} est une
base de E (on dit que u est cyclique).
25
(3) Il existe une base B de E telle que :
0 1 0
. ...
. .
M atB (u) =
. . . 1
0 0
(c’est à dire que u est représentable par un bloc de Jordan).
Preuve
L’équivalence de 2. et 3. est immédiate : B est justement la base {x, u(x), u2 (x), · · · , un−1 (x)}.
Si 3. est vérifiée. Puisque un−1 6= 0, il existe x ∈ E, x 6= 0, tel que un−1 (x) 6= 0.
Posons :
vn = x,
vn−1 = u(x),
· · ·
vk = un−k (x),
···
v = un−1 (x)
1
On voit facilement que cette famille {v1 , v2 , · · · , vn } est libre et donc elle est une
base. En effet, soit :
n
X
λk vk = 0
k=1
c’est à dire :
λ1 un−1 (x) + λ2 un−2 (x) + · · · + λn−1 u(x) + λn x = 0.
En prenant l’image par un−1 , un−2 , · · · , u on trouve successivement : λn = 0, λn−1 =
0, · · · , λ2 = 0; d’où λ1 un−1 (x) = 0, et puisque un−1 (x) 6= 0, λ1 = 0. Donc la famille
{v1 , v2 , · · · , vn } est une base et
0 1 0
. .
.. ..
M atvi (u) =
. . . 1
0 0
Le théorème est ainsi démontré pour β = n.
26
Lemme 2. Soit E = E1 ⊕ · · · ⊕ Ep , où les Ei sont des sous-espaces vectoriels stables
par f. Si B1 , · · · , Bp sont des bases de E1 , · · · , Ep , la matrice de f dans la base B =
{B1 , . . . , Bp } de E est :
M1 0
M2
M atB (f ) = où Mi = M atB (f |E ).
... i i
0 Mp
Preuve
En effet, soit B1 = {e1 , . . . , en1 }, ... Bp = {ε1 , . . . , εnp }. Puisque f (Ei ) ⊂ Ei , on a :
f (e ) = a11 e1 + · · · + a1n1 en1
1
···
f (e ) = a e + · · · + a
n1 n1 1 1 n1 n1 en1 ,
···
f (ε ) = b11 ε1 + · · · + b1np εnp
1
···
f (ε ) = b ε + · · · + b
np np 1 1 np np εnp ,
donc
M1 0
M2
M atB (f ) =
...
où Mi = (aij ), . . . , Mp = (blm ).
0 Mp
d’après les lemmes 1 et 2, le problème revient à démontrer que : si u est un endo-
morphisme nilpotent, E est somme directe de sous-espaces stables par u, tels que la
restriction de u à chacun de ces sous-espaces est un endomorphisme cyclique.
La construction de ces sous-espaces stables se fait comme dans le lemme 1 en choi-
sissant certains vecteurs et en prenant leurs itérés par u.
27
Preuve
En effet, Kp ⊂ Kp+1 , car up (x) = 0 implique up+1 (x) = 0. D’autre part, s’il existe
p ∈ {1, 2, . . . , β − 1} tel que Kp = Kp+1 , on aurait :
Kp = Kp+1 = Kp+2 = · · · = Kβ = E.
Preuve
Par récurrence (descendante) sur p.
• Si p = β, on choisit pour Mβ un supplémentaire quelconque de Kβ−1 dans Kβ .
• Supposons avoir construit les sous-espaces Mβ , Mβ−1 , . . . , Mp vérifiant 1) et 2)
et montrons que l’on peut construire Mp−1 vérifiant ces mêmes proprités.
Remarquons tout d’abord que Mp vérifie :
– u(Mp ) ⊂ Kp−1
– u(Mp ) ∩ Kp−2 = {0}
En effet, soit x ∈ Mp . Puisque Mp ⊂ Kp , on a up (x) = 0, d’où up−1 (u(x)) = 0, c’est
à dire u(x) ∈ Kp−1 , d’où u(Mp ) ⊂ Kp−1 .
Soit y ∈ u(Mp )∩Kp−2 : y = u(x) avec x ∈ Mp et up−2 (y) = 0. On aura : up−1 (x) = 0,
c’est à dire x ∈ Kp−1 et par conséquent x ∈ Mp ∩ Kp−1 = {0}, d’où x = 0 et donc y = 0.
Ainsi u(Mp ) et Kp−2 sont en somme directe et Kp−2 ⊕ u(Mp ) ⊂ Kp−1 .
Il s’ensuit qu’il existe un supplémentaire Gp−1 de Kp−2 ⊕ u(Mp ) dans Kp−1 :
28
Mp−1 vérifie 1) et 2).
Lemme 5.
E = M1 ⊕ M2 ⊕ · · · ⊕ Mβ .
Preuve
En effet :
···
= M1 ⊕ M2 ⊕ M3 ⊕ · · · ⊕ Mβ .
Nous allons maintenant construire une base de E en choisissant, par un procédé itératif,
une base sur chaque espace Mi : cela permet de mettre en évidence les sous-espaces
stables sur lesquels u est cyclique.
Remarquons tout d’abord que u(Mp ) ⊂ Mp−1 et que l’on a :
Lemme 6. L’image par u d’une base de Mp est une famille libre de Mp−1 (pour p ≥ 2).
Preuve
En effet, soit {v1 , . . . , vr } une base de Mp et soient λ1 , . . . , λr , tels que :
λ1 u(v1 ) + . . . + λr u(vr ) = 0
on a u(λ1 v1 + . . . + λr vr ) = 0, donc :
λ1 v1 + . . . + λr vr ∈ ker(u) = K1 ⊂ Kp−1 .
29
Bβ−2 = {u2 (v1 ), . . . , u2 (vnβ ), u(w1 ), . . . , u(wnβ−1 ), z1 , . . . , znβ−2 }
| {z }
Gβ−2
···
B1 = {uβ−1 (v1 ), . . . , uβ−1 (vnβ ), uβ−2 (w1 ), . . . , uβ−2 (wnβ−1 ), . . . , u(y1 ), . . . , u(yn2 ) , x1 , . . . , xn1 }
| {z } | {z }
u(G2 ) G1
Introduisons la notation suivante : pour k = β, β − 1, . . . , 2, 1 et x ∈ Gk , soit :
Lemme 7. On a :
• dim(Ik (x)) = k,
• Ik (x) est stable par u.
• La restriction de u à Ik (x) est cyclique.
Preuve
La démonstration de ce lemme est une simple vérification.
Il est clair que E est somme directe de
30
On a alors :
Preuve
En effet, comme dans la démonstration du théorème, on peut se limiter à démontrer
cela pour un endomorphisme nilpotent. Dans ce cas, np (0) = dim(Gp ).
Or Kp = Kp−1 ⊕ Mp , Mp = u(Mp+1 ) ⊕ Gp et u |Mp+1 est injective. Ainsi :
et
dim(Mp ) = dim(Kp ) − dim(Kp−1 ),
d’où la formule.
Corollaire 6. Pour toute matrice carrée A à coefficients dans C, il existe une matrice
réduite de Jordan J et une matrice inversible P , telles que J = P −1 AP.
31
• Si χf (X) = (X − λ)3 , on commence par déterminer le sous-espace propre Eλ
associé à λ, alors deux cas sont possibles :
– Si dim(Eλ ) = 1, alors (f − λIdE )2 6= 0, donc on peut choisir x0 , tel que
(f − λIdE )2 (x0 ) 6= 0. On pose v1 = (f − λIdE )2 (x0 ), v2 = (f − λIdE )(x0 )
et v3 = x0 , alors {v1 , v2 , v3 } est une base de Jordan, dans laquelle f est
représenté sous la forme :
λ 1 0
J = 0 λ 1 .
0 0 λ
0 0 λ
• Si χf (X) = (X − λ1 )2 (X − λ2 ), avec λ1 6= λ2 alors on commence par déterminer
les sous-espaces propres Eλ1 et Eλ2 . Deux cas sont donc possibles :
– Si dim(Eλ1 ) = 2, alors f est diagonalisable.
– Si dim(Eλ1 ) = 1, alors f n’est pas diagonalisable, on choisit x0 , tel que
(f −λ1 IdE )2 (x0 ) = 0, et (f −λ1 IdE )(x0 ) 6= 0. On pose v1 = (f −λ1 IdE )(x0 ),
v2 = x0 et on choisit un vecteur non nul v3 de Eλ2 . Alors {v1 , v2 , v3 } est
une base de Jordan, dans laquelle f est représenté sous la forme :
λ1 1 0
J = 0 λ1 0 .
0 0 λ2
32
χf (X) = (X − λ1 )2 (X − λ2 )2 ,
χf (X) = (X − λ1 )2 (X − λ2 )(X − λ3 ),
χf (X) = (X − λ1 )(X − λ2 )(X − λ3 )(X − λ4 ).
• Si χf (X) = (X −λ)4 , on commence par chercher le sous-espace propre Eλ , alors
trois cas sont possibles :
– Si dim(Eλ ) = 1, alors (f − λIdE )3 6= 0, on choisit x0 tel que
(f − λIdE )3 (x0 ) 6= 0. On pose v1 = (f − λIdE )3 (x0 ), v2 = (f − λIdE )2 (x0 ),
v3 = (f − λIdE )(x0 ) et v4 = x0 , alors {v1 , v2 , v3 , v4 } est une base de Jordan,
dans laquelle f est représenté sous la forme :
λ 1 0 0
0 λ 1 0
J = 0
.
0 λ 1
0 0 0 λ
33
– Si dim(Eλ ) = 3, alors (f −λIdE )2 = 0, on choisit x0 tel que (f −λIdE )(x0 ) 6=
0, et on choisit deux vecteurs y et z dans Eλ tels que {(f − λIdE )(x0 ), y, z}
soit une base Eλ . On pose v1 = (f − λIdE )(x0 ), v2 = x0 , v3 = y et v4 = z,
alors {v1 , v2 , v3 , v4 } est une base de Jordan, dans laquelle f est représenté
sous la forme :
λ 1 0 0
0 λ 0 0
J =
0 0 λ 0 .
0 0 0 λ
• Si χf (X) = (X − λ1 )3 (X − λ2 ), avec λ1 6= λ2 . on commence par chercher le
sous-espace propre Eλ1 , alors trois cas sont possibles :
– Si dim(Eλ1 ) = 3, alors f est diagonalisable.
– Si dim(Eλ1 ) = 2, on choisit x0 tel que, (f − λ1 IdE )2 (x0 ) = 0 et (f −
λ1 IdE )(x0 ) 6= 0. On choisit aussi y ∈ Eλ1 , tel que {(f − λ1 IdE )(x0 ), y} soit
une base de Eλ1 , puis on pose v1 = (f − λ1 IdE )(x0 ), v2 = x0 , v3 = y et
v4 ∈ Eλ2 , v4 6= 0. Alors {v1 , v2 , v3 , v4 } est une base de Jordan, dans laquelle
f est représenté sous la forme :
λ1 1 0 0
0 λ1 0 0
J = .
0 0 λ1 0
0 0 0 λ2
– Si dim(Eλ1 ) = 1, on choisit x0 tel que, (f − λ1 IdE )3 (x0 ) = 0 et (f −
λ1 IdE )2 (x0 ) 6= 0. En posant v1 = (f − λ1 IdE )2 (x0 ), v2 = (f − λ1 IdE )(x0 ),
v3 = x0 et v4 ∈ Eλ2 , v4 6= 0. Alors {v1 , v2 , v3 , v4 } est une base de Jordan,
dans laquelle f est représenté sous la forme :
λ1 1 0 0
0 λ1 1 0
J = 0 0 λ
.
1 0
0 0 0 λ2
• Si χf (X) = (X − λ1 )2 (X − λ2 )2 , avec λ1 6= λ2 . On cherche les sous-espaces
propres Eλ1 et Eλ2 , alors trois cas sont possibles :
– dim(Eλ1 ) = dim(Eλ2 ) = 2, alors f est diagonalisable.
– dim(Eλ1 ) = 1 et dim(Eλ2 ) = 2. On choisit x0 tel que, (f − λ1 IdE )2 (x0 ) = 0
et (f − λ1 IdE )(x0 ) 6= 0. Aussi, on choisit une base {v3 , v4 } de Eλ2 , puis, en
34
posant v1 = (f − λ1 IdE )(x0 ) et v2 = x0 , on obtient {v1 , v2 , v3 , v4 } une base
de Jordan, dans laquelle f est représenté sous la forme :
λ1 1 0 0
0 λ1 0 0
J =
0
.
0 λ2 0
0 0 0 λ2
Exemple 18.
35
On considère f un endomorphisme de R4 dont la matrice relativement à la base
canonique est :
1 0 0 0
−1 4 1 −2
A=
∈ M4 (R).
2 1 2 −1
1 2 1 0
On a :
λ1 = 1 est une valeur propre simple, tandis que λ2 = 2 est une valeur propre de
multiplicité 3. On détermine les sous-espaces propres Eλ1 et Eλ2 associés aux valeurs
propre 1 et 2.
x
y
Pour Eλ1 , On commence par chercher v1 = z ∈ Ker(A − I) ; un tel v1 vérifie
t
(A − I)v1 = 0 et donc le système d’équations suivant :
0.x =0
−2t − x − 3y + z = 0
−t + 2x + y + z = 0
−t + x + 2y + z = 0
1
1
On a donc Eλ1 = V ect , d’où dim(Eλ1 ) = 1.
−4
−1
x
y
Pour Eλ2 , On commence par chercher w1 = z ∈ Ker(A − 2I) ; un tel w1 vérifie
t
(A − 2I)w1 = 0 et donc le système d’équations suivant :
36
− x
=0
−2t − x + 2y + z = 0
−t + 2x + y =0
−2t + x + 2y + z = 0
0
1
On a donc Eλ2 = V ect 0, d’où dim(Eλ2 ) = 1.
1
Or dim(Eλ2 ) = 1 6= m(2) = 3, l’endomorphisme associé à A n’est pas diagonalisable.
χf (X) est scindé, alors la matrice A trigonalisable, mieux encore, elle est jordanisable.
Dans ce cas, la formule à l’origine de ce fait est :
On sait que :
Cherchons une famille libre de Ker(f −2Id)3 qui est de dimension 3, or w1 ∈ Ker(f −
2Id) ( Ker(f − 2Id)3 , on a déja un vecteur dans la base, on va compléter avec les deux
vecteurs restants. Le Deuxième vecteur w2 on va le chercher dans Ker(f − 2Id)2 (
Ker(f − 2Id)3 . Il vérifie (f − 2Id)2 (w2 ) = 0, (et (f − 2Id)3 (w2 ) 6= 0,) c’est à dire
(f − 2Id)((f − 2Id)(w2 )) = 0. Il suffit donc
de prendre (f − 2Id)(w2 ) = w1 (car
x
y 2
(f − 2Id)(w1 ) = 0). Notons encore w2 = z ∈ Ker(A − 2I) . On doit résoudre le
t
système :
− x
=0
−2t − x + 2y + z = 1
−t + 2x + y =0
−2t + x + 2y + z = 1
37
0
2
On prend w2 = 1 .
2
Reste le troisième vecteur w3 que l’on va chercher dans Ker(f − 2Id)3 . On a donc
(f − 2Id)2 [(f − 2Id)(w3 )] = 0; donc (f − 2Id)(w3 ) ∈ Ker(f − 2Id)2 ; or on sait que
w2 ∈ Ker(f − 2Id)2 , il suffit donc de résoudre (f − 2Id)(w3 ) = w2 et donc
− x
=0
−2t − x + 2y + z = 2
−t + 2x + y =1
−2t + x + 2y + z = 2
0
1 4
0 . La famille {v1 , w1 , w2 , w3 } est une base de R .
ce qui permet de prendre w3 =
0
Remarquons qu’on a :
38
5. Applications
Ak = (P DP −1 )(P DP −1 ) · · · (P DP −1 ) = P Dk P −1 .
| {z }
k f ois
λ1 0 λk1 0
D’autre part, si D =
...
on a Dk =
...
, et donc Ak se calcule
k
0 λn 0 λn
facilement par la formule :
λk1 0
Ak = P
... −1
P .
k
0 λn
Exemple 19.
! !
1 −1 2 0
Soit A = , donc χA (λ) = λ2 − 5λ + 6 = (λ − 2)(λ − 3). Alors, D = .
2 4 0 3
Pour les valeurs propres 2 et 3 on trouve :
!
1
• E2 est définie par −x − y = 0 donc v1 = .
−1
!
1
• E3 est définie par −2x − y = 0 donc v2 = .
−2
! !
1 1 2 1
Ainsi, P = et P −1 = . En effectuant les calculs, on obtient :
−1 −2 −1 −1
!
2k+1 − 3k 2k − 3k
Ak = .
−2k+1 + 2.3k −2k + 2.3k
5.2. Résolution d’un système de suites récurrentes.
Exemple 20.
Illustrons cela sur un exemple. Il s’agit de déterminer deux suites (Un )n∈N et (Vn )n∈N
telles que : ( (
Un+1 = Un − Vn U0 = 2
(1) et telles que .
Vn+1 = 2Un + 4Vn V0 = 1
39
!
Un
On pose Xn = . Le système (1) s’écrit :
Vn
!
1 −1
Xn+1 = AXn avec A = ,
2 4
d’où, par récurrence : !
2
Xn = An X0 avec X0 = .
1
On est ainsi ramené au calcul de An . Dans notre cas, compte tenu du résultat ci-dessus :
! ! ! !
Un 2n+1 − 3n 2n − 3n 2 5.2n − 3n+1
= = ,
Vn −2n+1 + 2.3n −2n + 2.3n 1 −5.2n + 2.3n+1
c’est à dire :
Un = 5.2n − 3n+1
(
.
Vn = −5.2n + 2.3n+1
5.3. Système différentiel linéaire à coefficients constants. Soit à résoudre de
système différentiel suivant :
dx1
= a11 x1 + . . . + a1n xn
dt .
.. avec aii ∈ R, xi : R → R dérivables.
dxn
dt
= an1 x1 + . . . + ann xn
Ce système s’écrit sous forme matricielle comme suite :
x1
dX .
.
= AX, où A = (aii ) et X =
. .
dt
xn
Supposons que A est diagonalisable, il existe alors, une matrice diagonale D et une
matrice inversible P telles que : D = P −1 AP. Si A est la matrice d’un endomorphisme
f dans la base canonique B, D sa matrice dans la base des vecteurs propores B 0 , X est
la matrice d’un vecteur x dans B et X 0 sa matrice dans B 0 , alors on a : X 0 = P −1 X.
En dérivant cette relation, on obtient :
dX 0 dX
= P −1 = P −1 AX = P −1 AP X 0 = DX 0 .
dt dt
Ce système s’intègre facilement, car D est diagonale.
dX
Ainsi, on peut résoudre le système dt
= AX de la manière suivante :
• On diagonalise A si D = P −1 AP est diagonale semblable à A.
40
dX 0
• On intègre le système dt
= DX 0 .
• On revient à X par X = P X 0 .
Exemple 21.
41
Références
[1] Xavier Gourdon, Les maths en tête, Algèbre, Ellipse (1996).
[2] Roger Mansuy, Réduction des endomorphismes, Vuibert (2012).
42