Vous êtes sur la page 1sur 12

Lycée Louis-Le-Grand, Paris Pour le 26/05/2023

MP2I – Mathématiques
A. Troesch

DM no 22 : Algèbre linéaire

Corrigé du problème 1 – Réduction de Jordan

Partie I – Réduction du problème

1. On a u ˝ pu ´ λi idqαi “ pu ´ λi qαi ˝ u, donc, pour tout x P Kerppu ´ λi idqαi q,

pu ´ λi idqαi pupxqq “ u pu ´ λi idqαi pxqq “ up0q “ 0.

Ainsi, upxq P Kerpu ´ λi idqαi . On en déduit que Kerppu ´ λi idqαi q est stable par u .
Plus généralement, le même raisonnement prouverait que pour tous polynômes P et Q, KerpP puqq est stable
par Qpuq. En particulier, Kerppu ´ λi idqαi q est aussi stable par u ´ λi id.
2. Soit A la matrice de u dans la base B, et A “ pAi,j q1ďi,jďk le découpage de A par blocs correspondant à la
à
décomposition de E en somme des Ei . En notant pi la projection sur Ei parallèlement à Ej , le bloc Ai,j
j‰i
représente alors
Ai,j “ MatBj ,Bi pi ˝ u|Ej .

Or, si i ‰ j, par stabilité des Ej par u, Impu|Ej q Ă Ej , donc pi ˝ u|Ej “ 0. Ainsi, tous les blocs Ai,j situés
ailleurs que sur la diagonale sont nuls. Les blocs diagonaux, quant à eux, représentent pi ˝ u|Ei (c’est-à-dire ui )
relativement à la base Bi ; on a la représentation par blocs :
¨ ˛

˚ MatB1 pu1 q 0 ¨¨¨ 0


˚ ‹

˚ ‹
˚ ‹
˚ ‹
˚ ‹
.. ..
˚ ‹
. .
˚ ‹
˚ 0 MatB2 pu2 q ‹
MatB puq “ ˚
˚ ‹

˚ ‹
˚ .. .. ..

. . . 0
˚ ‹
˚ ‹
˚ ‹
˚ ‹
˚ ‹
0 ¨¨¨ 0 MatBk puk q ‚
˚ ‹
˝

3. Puisque Ei “ Kerppu ´ λi idqαi q, pour tout x P Ei , viαi pxq “ 0. Ainsi, l’endomophisme viαi de Ei est nul. On en
déduit que vi est nilpotent.
4. Si tout endomorphisme nilpotent d’un C-ev de dimension finie admet une décomposition de Jordan, alors les
vi admettent une décomposition de Jordan. Ainsi, il existe une base Bi relativement à laquelle
¨ MatBi pvi q est
˛
0 1 0 0
˚0 . . . . . . 0‹
˚ ‹
diagonale par blocs, chaque bloc diagonal étant une matrice de Jordan de diagonale nulle ˚ . ‹.
˚ ‹
˚. .. ..
˝. . . 1‚

0 ¨¨¨ 0 0
base, MatBi pui q est˛également diagonale par blocs, chaque bloc étant une matrice de Jordan
Ainsi, dans cette ¨
λi 1 0 0
˚
˚0 . .. . .. 0 ‹

de diagonale λi : ˚ . ‹.
˚ ‹
˚ . .. ..
˝. . . 1‚

0 ¨ ¨ ¨ 0 λi

1
La question 2 nous assure alors que dans la base obtenue par concaténation des Bi , la matrice de u est diagonale
par blocs, chaque bloc étant une matrice de Jordan ; il peut y avoir plusieurs blocs de même diagonale λi (et
de taille éventuellement différentes), correspondant aux différents blocs de la décomposition de ui .
Ainsi, si le résultat est acquis pour les endomorphismes nilpotents,
tout endomorphisme d’un C-ev de dimension finie admet une réduction de Jordan .

Partie II – Réduction de Jordan d’un endomorphisme nilpotent

1. Argument classique. Soit λ0 , . . . , λp´1 tels que

λ0 x ` ¨ ¨ ¨ ` λp´1 up´1 pxq “ 0.

Supposons les λi non tous nuls. Soit i le plus petit indice tel que λi ‰ 0. En composant par up´1´i , il vient
alors :
λi up´1 ` λi`1 up ` ¨ ¨ ¨ ` λp´1 u2p´2´i pxq “ 0

Comme up “ 0 et up´1 pxq ‰ 0, il vient

λi up´1 pxq “ 0 puis: λi “ 0,

d’où une contradiction. Ainsi, les λi sont tous nuls, ce qui signifie que :
la famille pup´1 pxq, up´2 pxq, . . . , upxq, xq est libre.
On note F le sous-espace engendré par cette famille.
2. Il suffit de montrer que l’image par u des éléments de la base pup´1 pxq, . . . , upxq, xq de F est dans F . Or, pour
tout i P v0, p ´ 1w, upui pxqq “ ui`1 pxq P F , puisqu’il s’agit d’un autre élément de la base si i ‰ p ´ 1, et de
0 P F si i “ p ´ 1. Ainsi, F est stable par u.
3. Soit k P v1, pw.
‚ La somme est directe car up´k pxq R Kerpuk´1 q, puisque up´1 pxq ‰ 0.
‚ Clairement et classiquement, Kerpuk´1 q Ă Kerpuk q, et uk pup´k pxqq “ up pxq “ 0, donc Vectpup´k pxqq Ă
Kerpuk q.
Ainsi : Kerpuk´1 q ‘ Vectpup´k pxqq Ă Kerpuk q
4. Soit Sp un supplémentaire de Kerpup´1 q ‘ Vectpxq dans Kerpup q. On a alors :

Kerpup´2 q ‘ Vectpupxqq ‘ upSp q Ă Kerpup´1 q.

En effet :
‚ La première somme est directe d’après la question précédente.
‚ Soit y P pKerpup´2 q ‘ Vectpupxqqq X upSp q. Il existe donc x1 P Kerpup´2 q, λ P C, et x2 P Sp tels que

y “ x1 ` λupxq et y “ upx2 q, donc: upx2 q “ x1 ` λupxq.

En appliquant up´2 , il vient donc :


up´1 px2 q “ λup´1 pxq.

Or, up´1 est injective sur Sp ‘ Vectpxq, supplémentaire de Kerpup´1 q dans Kerpup q “ E, et x2 et x sont
dans Sp ‘ Vectpxq. Ainsi, x2 “ λx. Comme Sp X Vectpxq “ t0u, on en déduit que x2 “ 0, puis y “ 0.
Ainsi, la somme Kerpup´2 q ‘ Vectpupxqq ‘ upSp q est directe.
‚ On a Kerpup´2 q‘Vectpupxqq Ă Kerpup´1 q d’après la question précédente, et upSp q Ă Kerpup´1 q (car up “ 0).
Donc
Kerpup´2 q ‘ Vectpupxqq ‘ upSp q Ă Kerpup´1 q.

Soit Tp´1 un supplémentaire de Kerpup´2 q ‘ Vectpupxqq ‘ upSp q dans Kerpup´1 q. On a donc

Kerpup´2 q ‘ Vectpupxqq ‘ upSp q ‘ Tp´1 “ Kerpup´1 q,

donc, Sp´1 “ Tp´1 ‘ upSp q est un supplémentaire de Kerpup´2 q ‘ Vectpupxqq dans Kerpup´1 q contenant upSp q.

2
5. Le raisonnement est le même. Supposons Sp , . . . , Sk`1 construits.
‚ On a Kerpuk´1 q ‘ Vectpup´k q Ă Kerpuk q d’après la question 3.
‚ Soit y P pKerpuk´1 q ‘ Vectpup´k qq X upSk`1 q. Il existe x1 P Kerpuk´1 q, λ P C et x2 P Sk`1 tels que

y “ upx2 q “ x1 ` λup´k pxq.

En appliquant uk´1 à cette égalité, il vient

uk px2 q “ uk pλup´k´1 pxqq.

Or, uk est injective sur Sk`1 ‘ Vectpup´k´1 q (car cet espace est en somme directe avec Kerpuk`1 q, d’après
la construction de Sk`1 ). Ainsi, x2 “ λup´k´1 pxq. Comme Sk`1 X Vectpup´k´1 pxqq “ t0u, il vient x2 “ 0,
puis y “ 0.
Ainsi, la somme Kerpuk´1 q ‘ Vectpup´k q ‘ upSk`1 q est directe.
‚ Comme Sk`1 Ă Kerpuk`1 q, on a upSk`1 q Ă Kerpuk q. Les autres inclusions ayant déjà été montrées, il vient
donc :
Kerpuk´1 q ‘ Vectpup´k q ‘ upSk`1 q Ă Kerpuk q.
Soit Tk un supplémentaire de Kerpuk´1 q ‘ Vectpup´k q ‘ upSk`1 q dans Kerpuk q et Sk “ Tk ‘ upSk`1 q.
Alors Sk est un supplémentaire de Kerpuk´1 q ‘ Vectpup´k q dans Kerpuk q, contenant upSk`1 q.
6. Soit T “ S1 ` ¨ ¨ ¨ ` Sp .
‚ Par définition de S1 , on a Vectpup´1 pxqq ‘ S1 “ Kerpuq.
‚ On a ensuite Kerpuq ‘ Vectpup´2 pxqq ‘ S2 “ Kerpu2 q, donc d’aprè le point précéent :

Vectpup´1 pxq, up´2 pxqq ‘ S1 ‘ S2 “ Kerpu2 q.

‚ Plus généralement, pour tout k P v1, pw,

Vectpup´1 pxq, . . . , up´k pxqq ‘ S1 ‘ ¨ ¨ ¨ ‘ Sk “ Kerpuk q.

En effet, si le résultat est aquis pour k ´ 1 ě 1, il vient :

Vectpup´1 pxq, . . . , up´k pxqq ‘ S1 ‘ ¨ ¨ ¨ ‘ Sk


“ Vectpup´1 pxq, . . . , up´k`1 pxqq ‘ S1 ‘ ¨ ¨ ¨ ‘ Sk´1 ‘ Vectpup´k pxqq ‘ Sk
“ Kerpuk´1 q ‘ Vectpup´k pxqq ‘ Sk “ Kerpuk q.

‚ En particulier, pour k “ p, on trouve que T est un supplémentaire de F dans E “ Kerpup q.


‚ Par ailleurs,
upT q Ă upS1 q ` ¨ ¨ ¨ ` upSp q Ă t0u ` S1 ` ¨ ¨ ¨ ` Sp´1 Ă T.
Ainsi, T est stable par u.
7. On montre alors le résultat par récurrence forte sur la dimension n de l’espace E.
Lorsque dim E “ 0, il n’y a rien à montrer.
Soit n P N˚ . Supposons que tout endomorphisme nilpotent d’un C-ev de dimension k ă n admet une décom-
position de Jordan. Soit u un endomorphisme nilpotent d’un C-ev E de dimension n, d’indice de nilpotentce
p. Soit x R Kerpup´1 q, et F et T construits comme ci-dessus. Alors F et T sont des sous-espaces stables par u.
Soient u1 et u2 les endomorphismes de F et T induits par u.
‚ Comme dimpF q ą 0, on a dimpT q ă n, et on peut appliquer l’hypothèse de récurrence à T : il existe une
base B2 de T relativement à laquelle MatB2 pu2 q est diagonale par bloc, chaque bloc étant une matrice de
Jordan de diagonale nulle.
‚ On ne peut pas appliquer l’hypothèse de récurrence à F (car rien n’assure que dimpF q ă n : T peut être
nul). En revanche, il est facile de trouver une base relativement à laquelle la matrice de u1 est une matrice
de Jordan : B1 “ puk´p pxq, . . . , upxq, xq.
‚ Soit B la juxtaposition des bases B1 et B2 . Alors la matrice de u relativement à la base B est diagonale par
blocs : ˜ ¸
MatB1 pu1 q 0
MatB puq “ .
0 MatB2 pu2 q
D’après les deux points précédents, cette matrice est constituée de blocs diagonaux égaux à des matrices de
Jordan, ce qui achève la preuve.

3
Ainsi, toute matrice nilpotente admet une réduction de Jordan.

Corrigé du problème 2 – Trigonalisation et quasi-trigonalisation

Question préliminaire
D’après le cours, toute matrice carrée est équivalente à une matrice In,n,r , définie par blocs :
˜ ¸
Ir 0r,n´r
In,n,r “ .
0n´r,r 0r,r

Cette matrice étant diagonale, donc triangulaire supérieure, on peut conclure :


toute matrice M est équivalente à une matrice triangulaire supérieure.
On peut aussi remarquer qu’obtenir algorithmiquement une matrice triangulaire équivalente à M peut se faire par la
méthode du pivot de Gauss.

Partie I – Autour du polynôme minimal


Soit K “ R ou C. Soit u un endomorphisme d’un K-espace vectoriel E de dimension finie.
1. Soit n la dimension de E. Alors LpEq est de dimension n2 . Par conséquent, pour des raisons de cardinalité, la
2
famille pu0 , u1 , . . . , un q est liée, d’où l’existence d’une relation non triviale :
2
λ0 u0 ` ¨ ¨ ¨ ` λn2 un “ 0.
2
Ainsi, le polynôme (non nul) Q “ λ0 ` λ1 X ` ¨ ¨ ¨ ` λn2 X n est un polynôme annulateur de u.
2. Soit Ipuq l’ensemble des polynômes annulateurs de u. Comme 0 est un polynôme annulateur de u, et que de façon
triviale, une différence de polynômes annulateurs est un polynôme annulateur de u, Ipuq est un sous-groupe de
KrXs. Par ailleurs, si P est un polynôme annulateur de u, et Q un polynôme quelconque, alors

P Qpuq “ QP puq “ Qpuq ˝ P puq “ Qpuq ˝ 0 “ 0,

car Qpuq est une application linéaire. Ainsi, P Q est encore un polynôme annulateur.
On en déduit que Ipuq est un idéal (non nul) de KrXs. Puisque KrXs est principal, Ipuq est engendré par un
certain polynôme R. Or, il existe un unique P ‰ 0 dans Ipuq (s’écrivant donc P “ RQ), de même degré que
R (condition nécessaire pour pouvoir diviser R, puisqu’il ne peut pas être de degré strictement plus petit), et
unitaire (cela correspond au choix de Q “ a1 , où a est le coefficient dominant de R). Ce polynôme, différant de
R d’une constante, engendre aussi l’idéal Ipuq.
Ainsi il existe un unique polynôme unitaire P divisant tout polynôme annulateur de u.
Remarquez (on s’en servira par la suite) que P ne peut pas être constant non nul (car la fonction λId n’est pas
nulle si λ ‰ 0 !)
3. (a) Soit λ une racine de P . On factorise P “ pX ´ λqQpXq. On a alors

0 “ P puq “ pu ´ λIdq ˝ Qpuq.

Si u ´ λId est un automorphisme, alors u ´ λId est régulier dans l’anneau LpEq, donc Qpuq “ 0, et Q est
un polynôme annulateur non nul de degré strictement inférieur à celui de P , donc non divisible par P . Cela
contredit la définition de P .
Ainsi, u ´ λId n’est pas un automorphisme.
(b) ‚ Si λ est racine de P , alors u ´ λid n’est pas un automorphisme, donc, d’après la caractérisation des
isomorphismes en dimension finie, u ´ λid n’est pas injective, d’où Kerpu ´ λidq ‰ t0u. Il en résulte qu’il
existe x ‰ 0 tel que pu ´ λidqpxq “ 0, et donc upxq “ λx .
‚ Réciproquement, s’il existe x ‰ 0 tel que upxq “ λx, alors une récurrence immédiate amène, pour
tout k P N, uk pxq “ λk x, et donc, par combinaison linéaire de ces expressions, pour tout polynôme Q,
Qpuqpxq “ Qpλq ¨ x. En particulier, pour le polynôme P , puisque P puq “ 0, on obtient :

0 “ P pλq ¨ x,

4
et x étant un vecteur non nul, on en déduit que P pλq “ 0.
Ainsi, λ est racine de P si et seulement s’il existe x ‰ 0 tel que upxq “ λx.
4. (a) ‚ Pour les mêmes raisons que plus haut, en factorisant P “ P0 Q, soit P puq “ P0 puq˝Qpuq, si KerpP0 puqq “
t0u, alors KerpP0 q est injective, donc c’est un automorphisme (caractérisation des automorphismes en
dimension finie), donc est régulier, ce qui entraînerait que Q est un polynôme annulateur, ce qui contredit
la définition de P .
Ainsi, KerpP0 puqq ‰ t0u.
‚ Deux polynômes d’un même endomorphisme commutant, on a u ˝ P0 puq “ P0 puq ˝ u. Soit alors x P
KerpP0 puqq. On a :
P0 puqpupxqq “ P0 puq ˝ upxq “ u ˝ P0 puqpxq “ up0q “ 0.

Ainsi, upxq P KerpP0 puqq.


On en déduit que KerpP0 puqq est stable par u.
(b) Quitte à normaliser P0 , on peut noter P0 “ X 2 ` aX ` b.
Soit x P KerpP0 puqq, non nul (cela existe d’après la question précédente). Alors upxq et x ne sont pas
colinéaire. Sinon, on aurait l’existence de λ P R tel que upxq “ λx, et comme x P KerpP0 puqq, on obtient

0 “ P0 puqpxq “ u2 pxq ` aupxq ` bx “ pλ2 ` aλ ` bqx,

et on conclut que λ est racine de P0 (x étant non nul), ce qui est impossible, puisque P0 est irréductible.
Ainsi, px, upxqq est libre. Notons P “ Vectpx, upxqq . Il s’agit bien d’un plan (sev de dimension 2).
Montrons que P est stable par u. Pour cela il suffit de vérifier que les images par u des éléments de la base
px, upxqq sont dans P . Par définition upxq P P , et de plus,

0 “ P0 puqpxq “ u2 pxq ` aupxq ` bx, donc: u2 pxq “ ´aupxq ´ bx P Vectpx, upxqq.

Ainsi, P est stable par u.

Partie II – Trigonalisation dans Mn pCq


Soit E un C-espace vectoriel de dimension n, et u P LpEq.
1. (a) Trouver une telle base revient à trouver un premier vecteur b1 tel que upb1 q “ λb1 , pour un certain scalaire
λ P C (qui sera le terme en position p1, 1q). On reconnaît les notions de valeur propre et de vecteur propre
introduits dans la partie I. Cela nous incite à considérer une racine du polynôme minimal.
Soit P le polynôme minimal de u. Comme C est algébriquement clos, et que P n’est pas constant, il admet
une racine λ, valeur propre de u, et un vecteur propre b1 ‰ 0 associé. Comme b1 ‰ 0, la famille pb1 q est
libre, on peut donc la compléter en une base B “ pb1 , . . . , bn q de E. Puisque upb1 q “ λb1 , on a alors la forme
suivante pour la matrice de u relativement à cette base :
˜ ¸
λ A
MatB puq “ .
0 B

(b) On effectue une récurrence sur la taille de la matrice.


‚ L’initialisation, pour M P M1 pCq, est triviale !
‚ Soit n P N telle que la triangularisabilité soit aquise pour les matrices d’ordre n´1, et soit M une matrice
d’ordre M . Soit u l’endomorphisme de Cn canoniquement associé à M , et pb1 , . . . , bn q la base construite
dans la question précédente. On reprend les notations introduites dans cette question, en particulier les
sous-matrices A et B. La matrice B est d’ordre n ´ 1, et est donc trigonalisable dans Mn´1 pCq par
hypothèse de récurrence. Autrement dit, si v est l’endomorphisme de F “ Vectpb2 , . . . , bn q représenté
dans la base B 1 “ pb2 , . . . , bn q par B, il existe une base C 1 “ pc2 , . . . , cn q de F telle que MatC 1 pvq soit
triangulaire. Notons T cette matrice. Dans la base D “ pb1 , c2 , . . . , cn q, on aura alors
˜ ¸
λ A1
MatD puq “ .
0 T

5
En effet, v étant égal à p ˝ u|F , où p est la projection sur F parallèlement à Vectpe1 q, pour tout i P v2, nw,
upbi q et vpbi q ne diffèrent que d’un terme en b1 , donc la matrice de u|F est égale à la matrice de v avec une
ligne en plus en haut.
Ainsi, MatD puq est triangulaire. Notons T 1 cette matrice. D’après la formule de changement de base, on en
déduit que M est semblable à T 1 , ce qui prouve la propriété au rang n.
D’après le principe de récurrence, on en déduit que toute matrice de Mn pCq est trigonalisable.
Voici une autre façon de construire l’argument, purement matricielle (pour l’hérédité de la récurrence) :
D’après la question précédente, il existe P P GLn pCq telle que
˜ ¸
λ A
P M P ´1 “ .
0 B

D’après l’hypothèse de récurrence, il existe Q et une matrice triangulaire T telle que Q´1 BQ “ T . On
définit ˜ ¸
1 0
Q1 “ .
0 Q
Les règles de produit matriciel par blocs permettent facilement de conclure que Q1 P GLn´1 pCq et
˜ ¸
1 ´1 1 0
Q “ .
0 Q´1

Toujours les règles de produit matriciel par blocs amènent :


˜ ¸ ˜ ¸ ˜ ¸
1 ´1 λ A λ A1 λ A1
Q Q“ ´1
“ .
0 B 0 Q BQ 0 T

Ainsi, Q1´1 P ´1 M P Q1 (aussi égal à pP Q1 q´1 M pP Q1 q) est triangulaire, d’où le résultat escompté.
(c) La matrice M ´ λIn est triangulaire, et ses coefficients diagonaux sont égaux aux mi,i ´ λ, où les mi,i sont les
coefficients diagonaux de M . Ainsi, par caractérisation de l’inversibilité des matrices triangulaires, M ´ λIn
est non inversible si et seulement si l’un des coefficients mi,i ´ λ est nul, si et seulement si λ est égal à l’un
des coefficients mi,i . Or, d’après la définition donnée en I-3(b), et par caractérisation des isomorphismes
en dimension finie, puis par caractérisation de l’injectivité par les noyaux, la non inversibilité de M ´ λIn
équivaut au fait que λ soit valeur propre de M (c’est-à-dire de u).
Ainsi, en mettant bout-à-bout les deux équivalences montrées :
λ est valeur propre de u si et seulement si λ est un des coefficients diagonaux de M .
2. On recherche maintenant une forme plus spécifique de matrice triangulaire représentant u.
(a) (Lemme des noyaux)
‚ Soit A et B deux polynômes premiers entre eux. D’après le théorème de Bézout, il existe U et V deux
polynômes tels que

AU ` BV “ 1, donc: U puq ˝ Apuq ` V puq ˝ Bpuq “ Id. (1)

‚ Soit x P KerpApuqq X KerpBpuqq. On a donc Apuqpxq “ 0 et Bpuqpxq “ 0, soit, en utilisant la relation


(1), x “ U puqp0q ` V puqp0q “ 0. Ainsi,

KerpApuqq X KerpBpuqq “ t0u,

donc la somme KerpApuqq ` KerpBpuqq est directe.


‚ Soit x P KerpApuqq ` KerpBpuqq. Décomposons x “ x1 ` x2 , où x1 P KerpApuqq et x2 P KerpBpuqq. On a
alors

Apuq ˝ Bpuqpx2 q “ Apuqp0q “ 0 et Apuq ˝ Bpuqpx1 q “ Bpuq ˝ Apuqpx1 q “ Bpuqp0q “ 0.

Ainsi, x1 et x2 , donc aussi x, sont dans KerpApuq ˝ Bpuqq.

6
‚ Soit x P KerpApuq ˝ Bpuqq. On a alors, d’après la relation (1) :

x “ Apuq ˝ U puqpxq ` Bpuq ˝ V puqpxq.

Soit x1 “ Bpuq ˝ V puqpxq et x2 “ Apuq ˝ U puqpxq. On a alors

Apuqpx1 q “ Apuq ˝ Bpuq ˝ V puqpxq “ V puq ˝ Apuq ˝ Bpuqpxq “ V puqp0q “ 0,

donc x1 P KerpApuqq, et de même x2 P KerpBpuqq. On en déduit que x P KerpApuqq ` KerpBpuqq.


Des 3 points précédents, il découle que KerpApuq ˝ Bpuqq “ KerpApuqq ‘ KerpBpuqq.
(b) Soit P le polynôme minimal, que l’on factorise dans CrXs :
k
ź
P “ pX ´ λi qα1 ,
i“1

les λi étant deux à deux distincts. Les polynômes pX ´ λi qαi étant deux à deux premiers entre eux, une
récurrence immédiate à partir de la question précédente amène :
k
Kerppu ´ λi Idqαi q,
à
E “ KerpP puqq “
i“1

la première égalité provenant du fait que P est un polynôme annulateur de E.


On définit donc, pour tout i P v1, kw, Ei “ Kerppu ´ λi Idqαi q.
‚ L’argument donné en I-4(a) pour la stabilité de KerpP0 puqq par u se généralise immédiatement à tout
noyau du type KerpQpuqq. Ainsi, les Ei sont stables par u .
‚ Par définition de Ei , l’endomorphisme ui de Ei induit par u vérifie pu ´ λi idqαi “ 0. Ainsi, pX ´ λqαi est
un polynôme annulateur. Puisque le polynôme minimal Pi de ui divise pX ´ λi qαi et est non constant,
il admet une et une seule racine λi . D’après I-3(b), λi est l’unique valeur propre de ui .
‚ Les λi sont deux à deux distincts d’après leur définition.
3. On choisit, pour tout i P v1, kw, une base Bi de Ei relativement à laquelle la matrice Ti de ui est triangulaire (ce
qui est possible d’après II-1). Ses coefficients diagonaux sont constitués de valeurs propres de ui d’après 1(c),
donc sont tous égaux à λi (unique valeur propre de ui ). Par ailleurs, la famille B obtenue en concaténant, dans
cet ordre, les bases B1 , . . . , Bk , est une base de E (car E “ E1 ‘ E1 ‘ ¨ ¨ ¨ ‘ Ek ). Relativement à cette base, on
a alors la description par blocs :
¨ ˛
T1 0 ¨ ¨ ¨ 0
˚ .. .. ‹
˚0 T
2 . .‹
MatB puq “ ˚ .
˚ ‹
˚. .. ..

˝. . . 0‚

0 ¨¨¨ 0 Tk

Par ailleurs, les λi étant deux à deux distincts, les Ti sont bien à diagonales constantes, deux à deux distinctes
pour deux Ti différents.
Pour répondre à la trigonalisation sous cette forme d’une matrice M P Mn pCq, il suffit alors de considérer
l’endomorphisme u de LpCn q canoniquement associé à M , et d’appliquer ensuite la formule de changement de
base.
4. ‚ Si M est diagonalisable, il existe une matrice diagonale D et une matrice inversible P telle que

P ´1 M P “ D.

Notons λ1 , . . . , λk les coefficients diagonaux deux à deux distincts de D (si D possède deux coefficients égaux,
on ne le considère qu’une fois). Alors pour tout i P v1, nw, il existe une matrice parmi D ´ λ1 , . . . , D ´ λk Ik
tel que le coefficient diagonale en position pi, iq de cette matrice soit nul. Ainsi, en effectuant le produit de
ces matrices (ce qui revient à effectuer le produit des coefficients diagonaux), on aura au moins un terme
nul dans chaque produit définissant les coefficients diagonaux du produit, d’où :

pD ´ λ1 In q ¨ ¨ ¨ pD ´ λk In q “ 0.

7
Les matrices M et D représentant un même endomorphisme relativement à des bases différentes, M vérifie
la même relation, donc le polynôme pX ´ λ1 q ¨ ¨ ¨ pX ´ λk q est un polynôme annulateur. Comme il est à
racines simples, le polynôme minimal qui le divise est aussi à racines simples. Il n’est en fait pas difficile
de remarquer que le polynôme obtenu est le polynôme minimal, puisque les valeurs propres de M sont les
coefficients diagonaux de D (question 1(c)) et que toute valeur propre de M est racine du polynôme minimal
(question I-3(b)).
‚ Réciproquement, si le polyôme minimal P est à racines simples, et si u est l’endomorphisme canoniquement
associé alors les sous-espaces Ei de la question 2(b) sont égaux à :

Ei “ Kerpu ´ λi Idq,

donc ui “ λi IdEi . Il s’agit d’une homothétie, représentée, quelle que soit la base choisie, par la matrice λIni ,
où ni est la dimension de Ei . La matrice triangulaire obtenue dans la question 3 est alors diagonale. Ainsi,
u est diagonalisable, donc M aussi.
Ainsi, M est diagonalisable si et seulement si son polynôme minimal est à racines simples.

Partie III – Matrices de Hessenberg


On note Hn l’ensemble des matrices de Hessenberg de Mn pRq, définies en début de problème.
1. (a) ‚ Hn est un sous-ensemble non vide (0 P Hn ) de Mn pRq. Par ailleurs, étant donnés A “ pai,j q et B “ pbi,j q
2
deux éléments de Hn , et λ P K, on a, pour tout pi, jq P v1, nw tel que i ą j ` 1 :

ai,j “ 0 et bi,j “ 0 donc: λai,j ` bi,j “ 0,

d’où on conclut que λA ` B P Hn .


Ainsi, Hn est un sous-espace vectoriel de Mn pRq.
‚ Considérons Jn la matrice de Jordan d’ordre n, constituée de 1 sur sa première sur-diagonale, et nulle
ailleurs. Alors tJn P Hn , mais p tJn q2 R Hn (sauf si n ď 2), puisqu’il s’agit de la matrice constituée de 1
sur sa deuxième sous-diagonale et de 0 partout ailleurs.
Ainsi, si n ě 2, Hn n’est pas une sous-algèbre de Mn pRq , car n’est pas stable par produit.
Si n “ 1 ou n “ 2, toute matrice est de Hessenberg, donc H1 et H2 sont des sous-algèbres de Mn pRq.
(b) Soit T “ pti,j q une matrice triangulaire et M P Hn , dont on notera les colonnes Cj et les lignes Li .
‚ La colonne Cj1 du produit M T est :

n
ÿ j
ÿ
Cj1 “ tk,j Cj “ tk,j Ci .
k“1 k“1

Or, les colonnes Ck , pour k ď j, ont tous leurs coefficients nuls sur les lignes i ą j ` 1, donc il en est de
même de Cj1 .
On en déduit que M T est de Hessenberg .
‚ Le même raisonnement tient pour T M , en raisonnant cette fois sur les lignes de M : la ligne L1i du
produit T M est
ÿn ÿn
L1i “ ti,k Lk “ ti,k Lk .
k“1 k“j

Or, les lignes Lk , pour k ě j, sont nulles sur leurs colonnes j ă i ´ 1, donc il en est de même de L1i .
Ainsi, T M est de Hessenberg.
2. (a) Ici, on n’a plus nécessairement de droite stable (fournie par un vecteur propre), mais il existe toujours soit
une droite stable, soit un plan stable, suivant qu’il existe un facteur irréductible de degré 1 ou de degré 2
dans le polynôme minimal (voir partie I). Suivant qu’on travaille avec un plan stable ou une droite stable,
on se retrouvera avec un bloc diagonal d’ordre 1 ou d’ordre 2. La récurrence se construit de la même façon
qu’en II-1, mais il faut cette fois faire une récurrence d’ordre 2. L’initialisation, pour n “ 1 ou n “ 2, est
triviale dans les deux cas. Si la propriété est aquise aux rangs n ´ 2 et n ´ 1,
‚ si le polynôme minimal admet une racine réelle, on se ramène au rang n ´ 1 de la même façon qu’en II-1,

8
‚ sinon, il admet un facteur irréductible P0 de degré 2, donc un plan stable P , d’après I-4. En considérant
une base pb1 , b2 q de P , complétée en une base B “ pb1 , . . . , bn q de E, on se retrouve avec :
˜ ¸
M0 A
MatB puq “ ,
0 B

où M0 P M2 pRq est la matrice de l’endomorphisme v induit par u sur P , relativement à la base pb1 , b2 q.
On applique alors l’hypothèse de récurrence au rang n ´ 2 à B, les détails étant grosso modo similaires
à II-1.
Ainsi, il existe une base relativement à laquelle la matrice de u est triangulaire par blocs , les blocs diago-
naux étant des blocs carrés 1 ˆ 1 ou 2 ˆ 2.
(b) Soit M P Mn pRq. On considère u P LpRn q canoniquement associé, et une base B telle que la matrice H de
u dans cette base soit de la forme de la question précédente. Les blocs diagonaux étant de taille au plus
2, ils ne « débordent » sur la partie inférieure de la matrice que d’au plus un terme (situé sur la première
sous-diagonale). Ainsi, la matrice H est de Hessenberg. Comme H et M représente le même endomorphisme,
elles sont semblables.
Ainsi, toute matrice M P Hn est semblable à une matrice de Hessenberg.
3. (a) Puisqu’on veut effectuer des opérations sur les lignes pour trouver une matrice semblable, il faut faire en
même temps des opérations sur les colonnes, revenant à multiplier à droite par les inverses des matrices de
codage des opérations sur les lignes effectuées. Ainsi (inversez les matrices élémentaires !) :
‚ toute opération Li Ð λLi doit être accompagnée d’une opération Ci Ð λ1 Ci
‚ toute opération Li Ø Lj doit être accompagnée d’une opération Ci Ø Cj
‚ toute opération Li Ð Li ` λLj doit être accompagnée d’une opération Cj Ð Cj ´ λCi .
On remarque que ce faisant, si toutes les opérations effectuées portent sur les lignes L2 à Ln , les opérations
sur les colonnes correspondantes n’affectent pas la colonne 1. Ainsi, si le but est uniquement de modifier la
colonne 1, à notre guise sans se préoccuper du reste, si nous n’utilisons pas la ligne 1, nous pouvons nous
contenter de décrire les opérations sur les lignes.
Or, si seul le coefficient en position p1, 1q est non nul, il n’y a rien à faire, et sinon, on peut ramener un
coefficient non nul en position p2, 1q par un échange L2 Ø Lk , où k ‰ 1.
À la manière du pivot de Gauss, on peut alors effectuer des opérations Lk Ð Lk ` αL2 pour k ě 3, de sorte
à annuler le coefficient en position pk, 1q.
À l’issue de ces opérations, la première colonne est nulle, sauf éventuellement ses deux premiers coefficients.
Les opérations effectuées n’utilisant pas la ligne 1, en faisant les opérations associées sur les colonnes, la
première colonne vérifiera toujours ces conditions.
Ainsi, M est semblable à une matrice M 1 “ pm1i,j q telle que m1i,1 “ 0 pour i ą 2.
(b) En itérant ce procédé (ou par récurrence) : on applique le même procédé sur pmi,j q2ďi,jďn . En utilisant la
notation globale sur M , les opérations effectuées n’utilisent que les lignes L3 à Ln (et donc les colonnes C3
à Cn ), donc n’affectent plus la première colonne (les seuls coefficients non nuls de C1 n’étant pas utilisés
dan ces opérations). Une fois l’idée comprise, le reste est de la mise en forme que je vous laisse faire.
Ainsi, toute matrice est semblable à une matrice de Hessenberg .
(c) On obtient le programme suivant (les définitions des opérations sur les lignes et colonnes n’étaient pas
demandées)

import numpy as np

# Attention, toutes les indexations des lignes et colonnes commencent à 0

def echange_lignes(A,i,j): # Attention, ces fonctions modifient


# la valeur de A. Pour éviter cela
# on peut utiliser copy comme plus loin
for k in range(np.shape(A)[1]):
A[i,k], A[j,k]= A[j,k], A[i,k]

9
return A

def echange_colonnes(A,i,j):
for k in range(np.shape(A)[0]):
A[k,i], A[k,j]= A[k,j], A[k,i]
return A

def combine_lignes(A,i,j,a): # Attention, ces fonctions modifient


# la valeur de A. Pour éviter cela
# on peut utiliser copy comme plus loin
for k in range(np.shape(A)[1]):
A[i,k] += a * A[j,k]
return A

def combine_colonnes(A,i,j,a):
for k in range(np.shape(A)[0]):
A[k,i] += a * A[k,j]
return A

def choix_pivot(A,j): #choix du pivot sur la i-ième colonne


pivot = j+1 # on commence la recherche strictement sous la diagonale
# (en position (j+1,j),
for i in range(j+2,np.shape(A)[0]):
if abs(A[pivot,j]) < abs(A[i,j]):
pivot = i
return pivot #choix du pivot le plus grand.

def hessenberg(A):
B = np.copy(A) #afin de régler les problèmes de dépendance
#(sinon A est modifié)
(n, p) =np.shape(A)
if n != p:
raise ValueError(’Erreur␣de␣format’)
for j in range(n-2): #rien à faire sur les deux dernières colonnes!
indice_pivot = choix_pivot(B,j)
echange_lignes(B,j+1,indice_pivot)
#pas besoin d’affectation, la fonction modifie B
echange_colonnes(B,j+1,indice_pivot)
pivot = B[j+1,j]
if abs(pivot) > 1e-15:
for i in range(j+2,n):
coeff = B[i,j]
combine_lignes(B,i,j+1,- coeff / pivot)
combine_colonnes(B,j+1,i, coeff / pivot)
return(B)

Partie IV – Méthode de Householder


Soit k P v1, nw.

10
¨ ˛
x1
˚ . ‹
˝ .. ‚. On a alors
1. (a) On note X “ ˚ ‹
xn
n
ÿ
t
XX “ x2i ě 0.
i“1

De plus, X ‰ 0, donc un terme au moins de cette somme de termes positifs est strictement positif, donc

XX>0.
t

(b) On vérifie que SX


2
“ In :
ˆ ˙2
2 4 4
SX “ Ik ´ X tX “ Ik ´ X tX ` X tXX tX.
}X}2 }X}2 }X}4

Or, X tXX tX “ Xp tXXq tX “ }X}2 tXX, et on trouver bien SX


2
“ In , donc SX est une matrice de symétrie.
Les règles de produit par blocs amènent alors :
˜ ¸ ˜ ¸
2
2 In´k 0 n´k,k In´k 0n´k,k
TX “ 2
“ “ TX ,
0k,n´k SX 0k,n´k SX

donc TX est aussi une matrice de symétrie.


¨ ˛ ¨ ˛
y1 x1
˚.‹ ˚ .‹
˝ .. ‚. On a alors X “ ˝ .. ‚, où pour tout i ě 2, xi “ yi , et xi “ y1 ` }Y }. La matrice SX est alors
2. Soit Y “ ˚ ‹ ˚ ‹
yk xk
donnée par :
2
SX “ psi,j qi,j , si,j “ δi,j ´ xi xj ,
}X}2
où δi,j “ 1 si et seulement si i “ j, et 0 sinon (symbole de Kronecker). Soit pzi q les coordonnées de SX Y . On a
alors, pour i ě 2,
n n
ÿ ÿ 2
zi “ si,j yj “ δi,j yj ´ yi xj yj
j“1 j“1
}X}2
˜ ¸
n
2yi ÿ
“ yi ´ yj2 ` y1 }Y }
}X}2 j“1

Ainsi,
˜ ¸
n
ÿ
}X}2 zi “ yi x2j ´ 2}Y }2 ` 2y1 }Y }
j“1

“ yi }Y }2 ´ y12 ` py1 ` }Y }q2 ´ 2}Y }2 ` 2y1 }Y } “ 0


` ˘

Ainsi, toutes les composantes de SX Y , à part peut-être la première, sont nulles, donc SX Y et E1 sont colinéaires .
3. Soit M une matrice de Mn pRq.
(a) On effectue une récurrence sur r P v1, n ´ 1w. Pour r “ 1, il n’y a rien à démontrer (l’énoncé de la propriété
n’impose aucune condition sur Pr M Pr´1 , il suffit alors de prendre Pr “ In .)
Soit r P v1, n ´ 2w tel qu’il existe Pr , produit de matrices de symétries, telle que
¨ ˛

Hr Ar ‹
˚ ‹
˚
˚ ‹
Kr “ Pr M Pr´1
˚ ‹
“˚
˚


˚ ‹
Br ‚
˚ ‹
˝ 0n´r,r´1 Y

11
On considère alors, pour le vecteur Y de cette description par blocs, et le vecteur X associé selon les questions
précédentes, la symétrie SX , envoyant Y sur un vecteur colinéaire à E1 dans Mn´r,1 pRq. On considère la
symétrie TX associée à la façon de la question 1(b). L’opération Kr TX n’affecte pas les colonnes 0 à r de la
matrice Kr (en particulier la colonne r, contenant la sous-colonne Y :
¨ ˛

Hr A1r ‹
˚ ‹
˚
˚ ‹
˚ ‹
Kr TX “˚
˚
‹.

˚ ‹
1 ‹
Y Br ‚
˚
˝ 0n´r,r´1

De même, les règles d’opération par blocs montre que l’opération TX Kr TX n’affecte pas les r premières
lignes de Kr TX : il restera donc toujours la matrice Hr dans le coin supérieur gauche. Par ailleurs, soit Er
le r-ième vecteur de la˜base
¸ canonique de Mn,1 pKq. Vu ce qu’on a dit plus haut, Kr TX Er est de la forme
F
par blocs Kr TX Er “ , et donc
Y
˜ ¸
Ir F
TX Kr TX Er “ .
SX Y
¨ ˛

˚0‹
˚ ‹
Comme SX Y est de la forme ˚ ˚ .. ‹, il en résulte que sur la colonne r, les coefficients des lignes r ` 2 jusqu’à

˝.‚
0
´1
n sont nuls. On obtient donc la description voulue au rang r ` 1. Par ailleurs, TX “ TX , la matrice Pr`1
est donc définie par Pr`1 “ TX Pr .
Le principe de récurrence permet de conclure.
(b) Pour r “ n ´ 1, on retrouve la similitude à une matrice de Hessenberg.
4. D’après la question précédente, il existe P , obtenue comme produit de matrice de symétries (P “ S1 ¨ ¨ ¨ Sk )
telle que H “ P M P ´1 soit de Hessenberg. Or,

P ´1 “ Sk´1 ¨ ¨ ¨ S1´1 “ Sk ¨ ¨ ¨ S1 ,

car Si2 “ In . Ainsi,


H “ S1 ¨ ¨ ¨ Sk M Sk ¨ ¨ ¨ S1 .

On remarque aussi que les matrices de symétrie introduites dans cet arguemnt sont symétriques, et M l’étant
aussi :
t
H “ tS1 ¨ ¨ ¨ tSk tM tSk ¨ ¨ ¨ tS1 “ S1 ¨ ¨ ¨ Sk M Sk ¨ ¨ ¨ S1 “ H.

Ainsi, H est une matrice de Hessenberg symétrique, ce qui impose que H est tridiagonale.
Ainsi, toute matrice symétrique M est semblable à une matrice tridiagonale.

12

Vous aimerez peut-être aussi