Vous êtes sur la page 1sur 4

Lycée Louis-Le-Grand, Paris Pour le 02/04/2015

MPSI 4 – Mathématiques
A. Troesch

DM no 15 : Matrices

Le problème 2 utilise un résultat démontré dans le le problème 1 ; ce résultat est rappelé en début d’énoncé.

Problème 1 – Trigonalisation et quasi-trigonalisation

Soit n ∈ N∗ . Nous montrons dans ce problème que toute matrice de Mn (C) est trigonalisable (ou triangularisable),
c’est-à-dire semblable à une matrice triangulaire supérieure. Nous montrons ensuite que dans Mn (R), toute matrice
est semblable à une matrice de Hessenberg, c’est-à-dire une matrice M = (mi,j )16i,j6n telle que mi,j = 0 dès lors
que i > j + 1. Ainsi, une matrice M est une matrice de Hessenberg si et seulement si tous ses coefficients situés
strictement sous sa diagonale sont nuls, à l’exception eventuelle des coefficients situés sur la première sous-diagonale.
Pour terminer nous étudions le cas particulier des matrices symétriques S : dans ce cas, la classe de similitude de S
contient au moins une matrice tridiagonale M = (mi,j )16i,j6n , c’est-à-dire telle que mi,j = 0 dès lors que |i − j| > 1.

Question préliminaire
Soit K = R ou C. Justifier que toute matrice M ∈ Mn (K) est équivalente à une matrice triangulaire supérieure.

Partie I – Autour du polynôme minimal


Soit K = R ou C. Soit u un endomorphisme d’un K-espace vectoriel E de dimension finie.
1. Justifier l’existence d’un polynôme Q non nul annulateur de u, c’est-à-dire tel que Q(u) = 0.
2. Justifier l’existence d’un unique polynôme unitaire P divisant tout polynôme annulateur de u. Ce polynôme P
est appelé polynôme minimal de u.
3. Soit P le polynôme minimal de u.
(a) Justifier que si λ ∈ K est racine de P , alors u − λId n’est pas un automorphisme.
(b) En déduire que λ est racine de P si et seulement s’il existe x ∈ E non nul tel que u(x) = λx. On dit dans
ce cas que λ est une valeur propre de u, et que x est un vecteur propre associé à la valeur propre λ.
4. On suppose ici K = R, et on considère P0 un facteur irréductible de degré 2 de P .
(a) Montrer que Ker(P0 (u)) est non réduit à {0}, et est stable par u.
(b) En considérant la famille (x, u(x)), pour un vecteur x bien choisi, montrer qu’il existe un plan P de E,
stable par u.

Partie II – Trigonalisation dans Mn (C)


Soit E un C-espace vectoriel de dimension n, et u ∈ L(E).
1. (a) Montrer qu’il existe une base (b1 , . . . , bn ) de E relativement à laquelle la matrice de u n’a que des coefficients
nuls sur sa première colonne, à l’exception éventuelle du coefficient en position (1, 1).
(b) En déduire que toute matrice de Mn (C) est trigonalisable dans Mn (C).
(c) Soit B une base relativement à laquelle la matrice M de u soit triangulaire. En étudiant le noyau de M −λIn ,
montrer que les coefficients diagonaux de M sont des valeurs propres de u (notion définie en partie 1), donc
des racines du polynôme minimal.
2. On recherche maintenant une forme plus spécifique de matrice triangulaire représentant u.

1
(a) (Lemme des noyaux)
Soit A et B deux polynômes premiers entre eux. Montrer que

Ker(A(u) ◦ B(u)) = Ker(A(u)) ⊕ Ker(B(u)).

(b) En considérant une décomposition en facteurs irréductibles du polynôme minimal de u, en déduire qu’il
existe une décomposition
E = E1 ⊕ E2 ⊕ · · · ⊕ Ek

de E en somme directe de k sous-espaces Ei , i ∈ [[1, k]], telle que :


(i) chaque Ei est stable par u
(ii) pour tout i ∈ [[1, k]], l’endomorphisme ui de Ei induit par u admet une unique valeur propre λi (notion
définie en partie 1)
(iii) Les λi , i ∈ [[1, k]] sont deux à deux distincts.
3. En déduire que toute matrice de Mn (C) est semblable à une matrice diagonale par blocs, chaque bloc étant
une matrice triangulaire supérieure à diagonale constante, deux blocs différents ayant des coefficients diagonaux
différents.
4. On dit qu’une matrice M est diagonalisable si et seulement si elle est semblable à une matrice diagonale.
Montrer qu’une matrice M est diagonalisable dans Mn (C) si et seulement si son polynôme minimal est à racines
simples.

Partie III – Matrices de Hessenberg


On note Hn l’ensemble des matrices de Hessenberg de Mn (R), définies en début de problème.
1. (a) Montrer que Hn est un sous-espace de Mn (R). Quelle est sa dimension ? Est-ce une sous-algèbre ?
(b) Soit M ∈ Hn et T une matrice triangulaire supérieure. Montrer que M T et T M appartiennent à Hn .
2. (a) Soit E un R-espace vectoriel de dimension finie n, et soit u ∈ L(E). En adaptant la preuve de II-1, montrer
qu’il existe une base relativement à laquelle la matrice de u est triangulaire par blocs, les blocs diagonaux
étant des blocs carrés 1 × 1 ou 2 × 2.
(b) En déduire que toute matrice réelle est sembable à une matrice de Hessenberg.
3. Dans cette question, on redémontre le même résultat par une méthode purement algorithmique. Cet algorithme
donne une façon effective de trouver une matrice de Hessenberg semblable à une matrice M donnée. Soit M ∈
Mn (R).
(a) À l’aide d’opérations élémentaires sur les lignes et les colonnes, montrer qu’il existe P ∈ GLn (R) telle que
les coefficients de P M P −1 en position (i, 1) pour i > 3 soient tous nuls.
(b) Conclure une nouvelle fois que toute matrice de Mn (R) est semblable à une matrice de Hessenberg.
(c) On suppose définies en Python les 4 fonctions suivantes :
• echange_lignes(A,i,j),
• echange_colonnes(A,i,j),
• combine_lignes(A,i,j,a),
• combine_colonnes(A,i,j,a)
retournant une matrice obtenue de A, respectivement par l’échange des lignes i et j, par l’échange des
colonnes i et j, par l’opération sur les lignes Li ← Li +aLj , et par l’opération sur les colonnes Ci ← Ci +aCj .
Écrire une fonction hessenberg(A) retournant une matrice de Hessenberg équivalente à la matrice A.

Partie IV – Méthode de Householder


Soit k ∈ [[1, n]].
1. Soit X ∈ Mk,1 (R) une matrice colonne non nulle.

2
(a) Montrer que tXX est un réel strictement positif.

La norme de X est définie par kXk = tXX.
2
(b) Vérifier que la matrice SX = Ik − X tX est une matrice de symétrie, ainsi que la matrice TX définie
kXk2
par blocs : !
In−k 0n−k,k
TX = ,
0k,n−k SX
où 0i,j désigne la matrice nulle de Mi,j
2. Soit E1 la première matrice de la base canonique de Mk,1 (R), Y ∈ Mk,1 (R) non colinéaire à E1 et X =
Y + kY kE1 .
Montrer que la matrice SX Y est colinéaire à E1 .
3. Soit M une matrice de Mn (R).
(a) Montrer que pour tout r ∈ [[1, n − 1]], il existe une matrice Pr obtenue comme produit de matrices de
symétrie telle que Pr M Pr−1 soit de la forme par blocs
 

Hr Ar 
 

 
 
 ,
 
 
 0n−r,r−1 Y Br 
 

avec Hr ∈ Hr , Ar ∈ Mr,n−r (R), Br ∈ Mn−r,n−r (R) et Y ∈ Mn−r,1 (R).


(b) Retrouver que toute matrice de Mn (R) est semblable à une matrice de Hessenberg.
4. Montrer que toute matrice symétrique de Mn (R) est semblable à une matrice tridiagonale.

Problème 2 – Réduction de Jordan


Soit u un endomorphisme d’un C-espace vectoriel de dimension finie n. On admet sans preuve le résultat suivant, vu
par ailleurs :
Soit P = (X − λ1 )α1 · · · (X − λk )αk le polynôme minimal de u, les λi étant deux à deux distincts. On a
alors : M
E= Ker((u − λi id)αi ).
i∈[[1,k]]

Le but du problème est de montrer qu’il existe une base B relativement à laquelle la matrice de u s’écrit par blocs :
 
  λ 1 0 ··· 0
J1 0 ··· 0  .. .. 
 .. .. 
0 λ 1 . .
. . 
 0  
J2 
. .
.. ..
 
MatB (u) =  .  , où tout bloc Jℓ est de la forme Jℓ =  0 0

0
 
 . .. ..
 . . . 0  .

.. ..

.
. . . 1

0 ··· 0 Jℓ
0 ··· 0 0 λ

On notera au passage que la preuve permettrait de retrouver le théorème des noyaux itérés, indissociable de ce résultat.

Partie I – Réduction du problème

1. Soit, avec les notations de l’introduction, pour tout i ∈ [[1, k]], Ei = Ker((u − λi id)αi ). Montrer que Ei est stable
par u et u − λi id.
2. Soit pour tout i ∈ [[1, k]], ui l’endomorphisme de Ei induit par u sur Ei . Justifier que si pour tout i ∈ [[1, k]], Bi
est une base de Ei , et si B est la base de E obtenue en juxtaposant dans cet ordre les bases, B1 , B2 , . . . , Bk , alors

3
on a la représentation par blocs :
 

 MatB1 (u1 ) 0 ··· 0


 

 
 
 
 
.. ..
 
. .
 
 0 MatB2 (u2 ) 
MatB (u) =  .
 
 
 .. .. ..

. . . 0
 
 
 
 
 
0 ··· 0 MatBk (uk ) 
 

3. Soit vi l’endomorphisme de Ei induit par u − λi id sur Ei . Montrer que vi est nilpotent.


4. Montrer que si tout endomorphisme nilpotent de tout C-ev de dimension finie admet une réduction de Jordan,
alors tout endomorphisme de tout C-ev de dimension finie admet une réduction de Jordan.

Partie II – Réduction de Jordan d’un endomorphisme nilpotent


D’après la partie précédente, on peut donc se limiter à l’étude de la réduction de Jordan d’un endomorphisme nilpotent.
Soit donc u ∈ L(E) un endomorphisme nilpotent.
1. Soit p l’indice de nilpotence de u, c’est-à-dire le plus petit entier positif tel que up = 0. En particulier,
up−1 6= 0. Soit S un supplémentaire de Ker(up−1 ) dans E. Soit x non nul dans S. Montrer que la famille
(up−1 (x), up−2 (x), . . . , u(x), x) est libre. On note F le sous-espace engendré par cette famille.
2. Montrer que F est stable par u.
3. Montrer que pour tout k ∈ [[1, p]], on a Ker(uk−1 ) ⊕ Vect(up−k (x)) ⊂ Ker(uk )
4. Soit Sp un supplémentaire de Ker(up−1 ) ⊕ Vect(x) dans Ker(up ). Montrer qu’il existe un supplémentaire Sp−1
de Ker(up−2 ) ⊕ Vect(u(x)) dans Ker(up−1 ) contenant u(Sp ).
5. Montrer plus généralement qu’on peut construire une suite (Sk )k∈[[1,p]] , Sk étant un supplémentaire de Ker(uk−1 )⊕
Vect(up−k (x)) dans Ker(uk ), et tel que u(Sk+1 ) ⊂ Sk , pour tout k ∈ [[1, p − 1]]
6. Montrer que T = S1 + · · · + Sp est un supplémentaire de F dans E, stable par u.
7. Terminer la preuve de l’existence d’une décomposition de Jordan, par récurrence.

Vous aimerez peut-être aussi