Académique Documents
Professionnel Documents
Culture Documents
MP2I – Mathématiques
A. Troesch
DM no 22 : Algèbre linéaire
Ainsi, upxq P Kerpu ´ λi idqαi . On en déduit que Kerppu ´ λi idqαi q est stable par u .
Plus généralement, le même raisonnement prouverait que pour tous polynômes P et Q, KerpP puqq est stable
par Qpuq. En particulier, Kerppu ´ λi idqαi q est aussi stable par u ´ λi id.
2. Soit A la matrice de u dans la base B, et A “ pAi,j q1ďi,jďk le découpage de A par blocs correspondant à la
à
décomposition de E en somme des Ei . En notant pi la projection sur Ei parallèlement à Ej , le bloc Ai,j
j‰i
représente alors
Ai,j “ MatBj ,Bi pi ˝ u|Ej .
Or, si i ‰ j, par stabilité des Ej par u, Impu|Ej q Ă Ej , donc pi ˝ u|Ej “ 0. Ainsi, tous les blocs Ai,j situés
ailleurs que sur la diagonale sont nuls. Les blocs diagonaux, quant à eux, représentent pi ˝ u|Ei (c’est-à-dire ui )
relativement à la base Bi ; on a la représentation par blocs :
¨ ˛
3. Puisque Ei “ Kerppu ´ λi idqαi q, pour tout x P Ei , viαi pxq “ 0. Ainsi, l’endomophisme viαi de Ei est nul. On en
déduit que vi est nilpotent.
4. Si tout endomorphisme nilpotent d’un C-ev de dimension finie admet une décomposition de Jordan, alors les
vi admettent une décomposition de Jordan. Ainsi, il existe une base Bi relativement à laquelle
¨ MatBi pvi q est
˛
0 1 0 0
˚0 . . . . . . 0‹
˚ ‹
diagonale par blocs, chaque bloc diagonal étant une matrice de Jordan de diagonale nulle ˚ . ‹.
˚ ‹
˚. .. ..
˝. . . 1‚
‹
0 ¨¨¨ 0 0
base, MatBi pui q est˛également diagonale par blocs, chaque bloc étant une matrice de Jordan
Ainsi, dans cette ¨
λi 1 0 0
˚
˚0 . .. . .. 0 ‹
‹
de diagonale λi : ˚ . ‹.
˚ ‹
˚ . .. ..
˝. . . 1‚
‹
0 ¨ ¨ ¨ 0 λi
1
La question 2 nous assure alors que dans la base obtenue par concaténation des Bi , la matrice de u est diagonale
par blocs, chaque bloc étant une matrice de Jordan ; il peut y avoir plusieurs blocs de même diagonale λi (et
de taille éventuellement différentes), correspondant aux différents blocs de la décomposition de ui .
Ainsi, si le résultat est acquis pour les endomorphismes nilpotents,
tout endomorphisme d’un C-ev de dimension finie admet une réduction de Jordan .
Supposons les λi non tous nuls. Soit i le plus petit indice tel que λi ‰ 0. En composant par up´1´i , il vient
alors :
λi up´1 ` λi`1 up ` ¨ ¨ ¨ ` λp´1 u2p´2´i pxq “ 0
d’où une contradiction. Ainsi, les λi sont tous nuls, ce qui signifie que :
la famille pup´1 pxq, up´2 pxq, . . . , upxq, xq est libre.
On note F le sous-espace engendré par cette famille.
2. Il suffit de montrer que l’image par u des éléments de la base pup´1 pxq, . . . , upxq, xq de F est dans F . Or, pour
tout i P v0, p ´ 1w, upui pxqq “ ui`1 pxq P F , puisqu’il s’agit d’un autre élément de la base si i ‰ p ´ 1, et de
0 P F si i “ p ´ 1. Ainsi, F est stable par u.
3. Soit k P v1, pw.
‚ La somme est directe car up´k pxq R Kerpuk´1 q, puisque up´1 pxq ‰ 0.
‚ Clairement et classiquement, Kerpuk´1 q Ă Kerpuk q, et uk pup´k pxqq “ up pxq “ 0, donc Vectpup´k pxqq Ă
Kerpuk q.
Ainsi : Kerpuk´1 q ‘ Vectpup´k pxqq Ă Kerpuk q
4. Soit Sp un supplémentaire de Kerpup´1 q ‘ Vectpxq dans Kerpup q. On a alors :
En effet :
‚ La première somme est directe d’après la question précédente.
‚ Soit y P pKerpup´2 q ‘ Vectpupxqqq X upSp q. Il existe donc x1 P Kerpup´2 q, λ P C, et x2 P Sp tels que
Or, up´1 est injective sur Sp ‘ Vectpxq, supplémentaire de Kerpup´1 q dans Kerpup q “ E, et x2 et x sont
dans Sp ‘ Vectpxq. Ainsi, x2 “ λx. Comme Sp X Vectpxq “ t0u, on en déduit que x2 “ 0, puis y “ 0.
Ainsi, la somme Kerpup´2 q ‘ Vectpupxqq ‘ upSp q est directe.
‚ On a Kerpup´2 q‘Vectpupxqq Ă Kerpup´1 q d’après la question précédente, et upSp q Ă Kerpup´1 q (car up “ 0).
Donc
Kerpup´2 q ‘ Vectpupxqq ‘ upSp q Ă Kerpup´1 q.
donc, Sp´1 “ Tp´1 ‘ upSp q est un supplémentaire de Kerpup´2 q ‘ Vectpupxqq dans Kerpup´1 q contenant upSp q.
2
5. Le raisonnement est le même. Supposons Sp , . . . , Sk`1 construits.
‚ On a Kerpuk´1 q ‘ Vectpup´k q Ă Kerpuk q d’après la question 3.
‚ Soit y P pKerpuk´1 q ‘ Vectpup´k qq X upSk`1 q. Il existe x1 P Kerpuk´1 q, λ P C et x2 P Sk`1 tels que
Or, uk est injective sur Sk`1 ‘ Vectpup´k´1 q (car cet espace est en somme directe avec Kerpuk`1 q, d’après
la construction de Sk`1 ). Ainsi, x2 “ λup´k´1 pxq. Comme Sk`1 X Vectpup´k´1 pxqq “ t0u, il vient x2 “ 0,
puis y “ 0.
Ainsi, la somme Kerpuk´1 q ‘ Vectpup´k q ‘ upSk`1 q est directe.
‚ Comme Sk`1 Ă Kerpuk`1 q, on a upSk`1 q Ă Kerpuk q. Les autres inclusions ayant déjà été montrées, il vient
donc :
Kerpuk´1 q ‘ Vectpup´k q ‘ upSk`1 q Ă Kerpuk q.
Soit Tk un supplémentaire de Kerpuk´1 q ‘ Vectpup´k q ‘ upSk`1 q dans Kerpuk q et Sk “ Tk ‘ upSk`1 q.
Alors Sk est un supplémentaire de Kerpuk´1 q ‘ Vectpup´k q dans Kerpuk q, contenant upSk`1 q.
6. Soit T “ S1 ` ¨ ¨ ¨ ` Sp .
‚ Par définition de S1 , on a Vectpup´1 pxqq ‘ S1 “ Kerpuq.
‚ On a ensuite Kerpuq ‘ Vectpup´2 pxqq ‘ S2 “ Kerpu2 q, donc d’aprè le point précéent :
3
Ainsi, toute matrice nilpotente admet une réduction de Jordan.
Question préliminaire
D’après le cours, toute matrice carrée est équivalente à une matrice In,n,r , définie par blocs :
˜ ¸
Ir 0r,n´r
In,n,r “ .
0n´r,r 0r,r
car Qpuq est une application linéaire. Ainsi, P Q est encore un polynôme annulateur.
On en déduit que Ipuq est un idéal (non nul) de KrXs. Puisque KrXs est principal, Ipuq est engendré par un
certain polynôme R. Or, il existe un unique P ‰ 0 dans Ipuq (s’écrivant donc P “ RQ), de même degré que
R (condition nécessaire pour pouvoir diviser R, puisqu’il ne peut pas être de degré strictement plus petit), et
unitaire (cela correspond au choix de Q “ a1 , où a est le coefficient dominant de R). Ce polynôme, différant de
R d’une constante, engendre aussi l’idéal Ipuq.
Ainsi il existe un unique polynôme unitaire P divisant tout polynôme annulateur de u.
Remarquez (on s’en servira par la suite) que P ne peut pas être constant non nul (car la fonction λId n’est pas
nulle si λ ‰ 0 !)
3. (a) Soit λ une racine de P . On factorise P “ pX ´ λqQpXq. On a alors
Si u ´ λId est un automorphisme, alors u ´ λId est régulier dans l’anneau LpEq, donc Qpuq “ 0, et Q est
un polynôme annulateur non nul de degré strictement inférieur à celui de P , donc non divisible par P . Cela
contredit la définition de P .
Ainsi, u ´ λId n’est pas un automorphisme.
(b) ‚ Si λ est racine de P , alors u ´ λid n’est pas un automorphisme, donc, d’après la caractérisation des
isomorphismes en dimension finie, u ´ λid n’est pas injective, d’où Kerpu ´ λidq ‰ t0u. Il en résulte qu’il
existe x ‰ 0 tel que pu ´ λidqpxq “ 0, et donc upxq “ λx .
‚ Réciproquement, s’il existe x ‰ 0 tel que upxq “ λx, alors une récurrence immédiate amène, pour
tout k P N, uk pxq “ λk x, et donc, par combinaison linéaire de ces expressions, pour tout polynôme Q,
Qpuqpxq “ Qpλq ¨ x. En particulier, pour le polynôme P , puisque P puq “ 0, on obtient :
0 “ P pλq ¨ x,
4
et x étant un vecteur non nul, on en déduit que P pλq “ 0.
Ainsi, λ est racine de P si et seulement s’il existe x ‰ 0 tel que upxq “ λx.
4. (a) ‚ Pour les mêmes raisons que plus haut, en factorisant P “ P0 Q, soit P puq “ P0 puq˝Qpuq, si KerpP0 puqq “
t0u, alors KerpP0 q est injective, donc c’est un automorphisme (caractérisation des automorphismes en
dimension finie), donc est régulier, ce qui entraînerait que Q est un polynôme annulateur, ce qui contredit
la définition de P .
Ainsi, KerpP0 puqq ‰ t0u.
‚ Deux polynômes d’un même endomorphisme commutant, on a u ˝ P0 puq “ P0 puq ˝ u. Soit alors x P
KerpP0 puqq. On a :
P0 puqpupxqq “ P0 puq ˝ upxq “ u ˝ P0 puqpxq “ up0q “ 0.
et on conclut que λ est racine de P0 (x étant non nul), ce qui est impossible, puisque P0 est irréductible.
Ainsi, px, upxqq est libre. Notons P “ Vectpx, upxqq . Il s’agit bien d’un plan (sev de dimension 2).
Montrons que P est stable par u. Pour cela il suffit de vérifier que les images par u des éléments de la base
px, upxqq sont dans P . Par définition upxq P P , et de plus,
5
En effet, v étant égal à p ˝ u|F , où p est la projection sur F parallèlement à Vectpe1 q, pour tout i P v2, nw,
upbi q et vpbi q ne diffèrent que d’un terme en b1 , donc la matrice de u|F est égale à la matrice de v avec une
ligne en plus en haut.
Ainsi, MatD puq est triangulaire. Notons T 1 cette matrice. D’après la formule de changement de base, on en
déduit que M est semblable à T 1 , ce qui prouve la propriété au rang n.
D’après le principe de récurrence, on en déduit que toute matrice de Mn pCq est trigonalisable.
Voici une autre façon de construire l’argument, purement matricielle (pour l’hérédité de la récurrence) :
D’après la question précédente, il existe P P GLn pCq telle que
˜ ¸
λ A
P M P ´1 “ .
0 B
D’après l’hypothèse de récurrence, il existe Q et une matrice triangulaire T telle que Q´1 BQ “ T . On
définit ˜ ¸
1 0
Q1 “ .
0 Q
Les règles de produit matriciel par blocs permettent facilement de conclure que Q1 P GLn´1 pCq et
˜ ¸
1 ´1 1 0
Q “ .
0 Q´1
Ainsi, Q1´1 P ´1 M P Q1 (aussi égal à pP Q1 q´1 M pP Q1 q) est triangulaire, d’où le résultat escompté.
(c) La matrice M ´ λIn est triangulaire, et ses coefficients diagonaux sont égaux aux mi,i ´ λ, où les mi,i sont les
coefficients diagonaux de M . Ainsi, par caractérisation de l’inversibilité des matrices triangulaires, M ´ λIn
est non inversible si et seulement si l’un des coefficients mi,i ´ λ est nul, si et seulement si λ est égal à l’un
des coefficients mi,i . Or, d’après la définition donnée en I-3(b), et par caractérisation des isomorphismes
en dimension finie, puis par caractérisation de l’injectivité par les noyaux, la non inversibilité de M ´ λIn
équivaut au fait que λ soit valeur propre de M (c’est-à-dire de u).
Ainsi, en mettant bout-à-bout les deux équivalences montrées :
λ est valeur propre de u si et seulement si λ est un des coefficients diagonaux de M .
2. On recherche maintenant une forme plus spécifique de matrice triangulaire représentant u.
(a) (Lemme des noyaux)
‚ Soit A et B deux polynômes premiers entre eux. D’après le théorème de Bézout, il existe U et V deux
polynômes tels que
6
‚ Soit x P KerpApuq ˝ Bpuqq. On a alors, d’après la relation (1) :
les λi étant deux à deux distincts. Les polynômes pX ´ λi qαi étant deux à deux premiers entre eux, une
récurrence immédiate à partir de la question précédente amène :
k
Kerppu ´ λi Idqαi q,
à
E “ KerpP puqq “
i“1
0 ¨¨¨ 0 Tk
Par ailleurs, les λi étant deux à deux distincts, les Ti sont bien à diagonales constantes, deux à deux distinctes
pour deux Ti différents.
Pour répondre à la trigonalisation sous cette forme d’une matrice M P Mn pCq, il suffit alors de considérer
l’endomorphisme u de LpCn q canoniquement associé à M , et d’appliquer ensuite la formule de changement de
base.
4. ‚ Si M est diagonalisable, il existe une matrice diagonale D et une matrice inversible P telle que
P ´1 M P “ D.
Notons λ1 , . . . , λk les coefficients diagonaux deux à deux distincts de D (si D possède deux coefficients égaux,
on ne le considère qu’une fois). Alors pour tout i P v1, nw, il existe une matrice parmi D ´ λ1 , . . . , D ´ λk Ik
tel que le coefficient diagonale en position pi, iq de cette matrice soit nul. Ainsi, en effectuant le produit de
ces matrices (ce qui revient à effectuer le produit des coefficients diagonaux), on aura au moins un terme
nul dans chaque produit définissant les coefficients diagonaux du produit, d’où :
pD ´ λ1 In q ¨ ¨ ¨ pD ´ λk In q “ 0.
7
Les matrices M et D représentant un même endomorphisme relativement à des bases différentes, M vérifie
la même relation, donc le polynôme pX ´ λ1 q ¨ ¨ ¨ pX ´ λk q est un polynôme annulateur. Comme il est à
racines simples, le polynôme minimal qui le divise est aussi à racines simples. Il n’est en fait pas difficile
de remarquer que le polynôme obtenu est le polynôme minimal, puisque les valeurs propres de M sont les
coefficients diagonaux de D (question 1(c)) et que toute valeur propre de M est racine du polynôme minimal
(question I-3(b)).
‚ Réciproquement, si le polyôme minimal P est à racines simples, et si u est l’endomorphisme canoniquement
associé alors les sous-espaces Ei de la question 2(b) sont égaux à :
Ei “ Kerpu ´ λi Idq,
donc ui “ λi IdEi . Il s’agit d’une homothétie, représentée, quelle que soit la base choisie, par la matrice λIni ,
où ni est la dimension de Ei . La matrice triangulaire obtenue dans la question 3 est alors diagonale. Ainsi,
u est diagonalisable, donc M aussi.
Ainsi, M est diagonalisable si et seulement si son polynôme minimal est à racines simples.
n
ÿ j
ÿ
Cj1 “ tk,j Cj “ tk,j Ci .
k“1 k“1
Or, les colonnes Ck , pour k ď j, ont tous leurs coefficients nuls sur les lignes i ą j ` 1, donc il en est de
même de Cj1 .
On en déduit que M T est de Hessenberg .
‚ Le même raisonnement tient pour T M , en raisonnant cette fois sur les lignes de M : la ligne L1i du
produit T M est
ÿn ÿn
L1i “ ti,k Lk “ ti,k Lk .
k“1 k“j
Or, les lignes Lk , pour k ě j, sont nulles sur leurs colonnes j ă i ´ 1, donc il en est de même de L1i .
Ainsi, T M est de Hessenberg.
2. (a) Ici, on n’a plus nécessairement de droite stable (fournie par un vecteur propre), mais il existe toujours soit
une droite stable, soit un plan stable, suivant qu’il existe un facteur irréductible de degré 1 ou de degré 2
dans le polynôme minimal (voir partie I). Suivant qu’on travaille avec un plan stable ou une droite stable,
on se retrouvera avec un bloc diagonal d’ordre 1 ou d’ordre 2. La récurrence se construit de la même façon
qu’en II-1, mais il faut cette fois faire une récurrence d’ordre 2. L’initialisation, pour n “ 1 ou n “ 2, est
triviale dans les deux cas. Si la propriété est aquise aux rangs n ´ 2 et n ´ 1,
‚ si le polynôme minimal admet une racine réelle, on se ramène au rang n ´ 1 de la même façon qu’en II-1,
8
‚ sinon, il admet un facteur irréductible P0 de degré 2, donc un plan stable P , d’après I-4. En considérant
une base pb1 , b2 q de P , complétée en une base B “ pb1 , . . . , bn q de E, on se retrouve avec :
˜ ¸
M0 A
MatB puq “ ,
0 B
où M0 P M2 pRq est la matrice de l’endomorphisme v induit par u sur P , relativement à la base pb1 , b2 q.
On applique alors l’hypothèse de récurrence au rang n ´ 2 à B, les détails étant grosso modo similaires
à II-1.
Ainsi, il existe une base relativement à laquelle la matrice de u est triangulaire par blocs , les blocs diago-
naux étant des blocs carrés 1 ˆ 1 ou 2 ˆ 2.
(b) Soit M P Mn pRq. On considère u P LpRn q canoniquement associé, et une base B telle que la matrice H de
u dans cette base soit de la forme de la question précédente. Les blocs diagonaux étant de taille au plus
2, ils ne « débordent » sur la partie inférieure de la matrice que d’au plus un terme (situé sur la première
sous-diagonale). Ainsi, la matrice H est de Hessenberg. Comme H et M représente le même endomorphisme,
elles sont semblables.
Ainsi, toute matrice M P Hn est semblable à une matrice de Hessenberg.
3. (a) Puisqu’on veut effectuer des opérations sur les lignes pour trouver une matrice semblable, il faut faire en
même temps des opérations sur les colonnes, revenant à multiplier à droite par les inverses des matrices de
codage des opérations sur les lignes effectuées. Ainsi (inversez les matrices élémentaires !) :
‚ toute opération Li Ð λLi doit être accompagnée d’une opération Ci Ð λ1 Ci
‚ toute opération Li Ø Lj doit être accompagnée d’une opération Ci Ø Cj
‚ toute opération Li Ð Li ` λLj doit être accompagnée d’une opération Cj Ð Cj ´ λCi .
On remarque que ce faisant, si toutes les opérations effectuées portent sur les lignes L2 à Ln , les opérations
sur les colonnes correspondantes n’affectent pas la colonne 1. Ainsi, si le but est uniquement de modifier la
colonne 1, à notre guise sans se préoccuper du reste, si nous n’utilisons pas la ligne 1, nous pouvons nous
contenter de décrire les opérations sur les lignes.
Or, si seul le coefficient en position p1, 1q est non nul, il n’y a rien à faire, et sinon, on peut ramener un
coefficient non nul en position p2, 1q par un échange L2 Ø Lk , où k ‰ 1.
À la manière du pivot de Gauss, on peut alors effectuer des opérations Lk Ð Lk ` αL2 pour k ě 3, de sorte
à annuler le coefficient en position pk, 1q.
À l’issue de ces opérations, la première colonne est nulle, sauf éventuellement ses deux premiers coefficients.
Les opérations effectuées n’utilisant pas la ligne 1, en faisant les opérations associées sur les colonnes, la
première colonne vérifiera toujours ces conditions.
Ainsi, M est semblable à une matrice M 1 “ pm1i,j q telle que m1i,1 “ 0 pour i ą 2.
(b) En itérant ce procédé (ou par récurrence) : on applique le même procédé sur pmi,j q2ďi,jďn . En utilisant la
notation globale sur M , les opérations effectuées n’utilisent que les lignes L3 à Ln (et donc les colonnes C3
à Cn ), donc n’affectent plus la première colonne (les seuls coefficients non nuls de C1 n’étant pas utilisés
dan ces opérations). Une fois l’idée comprise, le reste est de la mise en forme que je vous laisse faire.
Ainsi, toute matrice est semblable à une matrice de Hessenberg .
(c) On obtient le programme suivant (les définitions des opérations sur les lignes et colonnes n’étaient pas
demandées)
import numpy as np
9
return A
def echange_colonnes(A,i,j):
for k in range(np.shape(A)[0]):
A[k,i], A[k,j]= A[k,j], A[k,i]
return A
def combine_colonnes(A,i,j,a):
for k in range(np.shape(A)[0]):
A[k,i] += a * A[k,j]
return A
def hessenberg(A):
B = np.copy(A) #afin de régler les problèmes de dépendance
#(sinon A est modifié)
(n, p) =np.shape(A)
if n != p:
raise ValueError(’Erreur␣de␣format’)
for j in range(n-2): #rien à faire sur les deux dernières colonnes!
indice_pivot = choix_pivot(B,j)
echange_lignes(B,j+1,indice_pivot)
#pas besoin d’affectation, la fonction modifie B
echange_colonnes(B,j+1,indice_pivot)
pivot = B[j+1,j]
if abs(pivot) > 1e-15:
for i in range(j+2,n):
coeff = B[i,j]
combine_lignes(B,i,j+1,- coeff / pivot)
combine_colonnes(B,j+1,i, coeff / pivot)
return(B)
10
¨ ˛
x1
˚ . ‹
˝ .. ‚. On a alors
1. (a) On note X “ ˚ ‹
xn
n
ÿ
t
XX “ x2i ě 0.
i“1
De plus, X ‰ 0, donc un terme au moins de cette somme de termes positifs est strictement positif, donc
XX>0.
t
Ainsi,
˜ ¸
n
ÿ
}X}2 zi “ yi x2j ´ 2}Y }2 ` 2y1 }Y }
j“1
Ainsi, toutes les composantes de SX Y , à part peut-être la première, sont nulles, donc SX Y et E1 sont colinéaires .
3. Soit M une matrice de Mn pRq.
(a) On effectue une récurrence sur r P v1, n ´ 1w. Pour r “ 1, il n’y a rien à démontrer (l’énoncé de la propriété
n’impose aucune condition sur Pr M Pr´1 , il suffit alors de prendre Pr “ In .)
Soit r P v1, n ´ 2w tel qu’il existe Pr , produit de matrices de symétries, telle que
¨ ˛
Hr Ar ‹
˚ ‹
˚
˚ ‹
Kr “ Pr M Pr´1
˚ ‹
“˚
˚
‹
‹
˚ ‹
Br ‚
˚ ‹
˝ 0n´r,r´1 Y
11
On considère alors, pour le vecteur Y de cette description par blocs, et le vecteur X associé selon les questions
précédentes, la symétrie SX , envoyant Y sur un vecteur colinéaire à E1 dans Mn´r,1 pRq. On considère la
symétrie TX associée à la façon de la question 1(b). L’opération Kr TX n’affecte pas les colonnes 0 à r de la
matrice Kr (en particulier la colonne r, contenant la sous-colonne Y :
¨ ˛
Hr A1r ‹
˚ ‹
˚
˚ ‹
˚ ‹
Kr TX “˚
˚
‹.
‹
˚ ‹
1 ‹
Y Br ‚
˚
˝ 0n´r,r´1
De même, les règles d’opération par blocs montre que l’opération TX Kr TX n’affecte pas les r premières
lignes de Kr TX : il restera donc toujours la matrice Hr dans le coin supérieur gauche. Par ailleurs, soit Er
le r-ième vecteur de la˜base
¸ canonique de Mn,1 pKq. Vu ce qu’on a dit plus haut, Kr TX Er est de la forme
F
par blocs Kr TX Er “ , et donc
Y
˜ ¸
Ir F
TX Kr TX Er “ .
SX Y
¨ ˛
‚
˚0‹
˚ ‹
Comme SX Y est de la forme ˚ ˚ .. ‹, il en résulte que sur la colonne r, les coefficients des lignes r ` 2 jusqu’à
‹
˝.‚
0
´1
n sont nuls. On obtient donc la description voulue au rang r ` 1. Par ailleurs, TX “ TX , la matrice Pr`1
est donc définie par Pr`1 “ TX Pr .
Le principe de récurrence permet de conclure.
(b) Pour r “ n ´ 1, on retrouve la similitude à une matrice de Hessenberg.
4. D’après la question précédente, il existe P , obtenue comme produit de matrice de symétries (P “ S1 ¨ ¨ ¨ Sk )
telle que H “ P M P ´1 soit de Hessenberg. Or,
P ´1 “ Sk´1 ¨ ¨ ¨ S1´1 “ Sk ¨ ¨ ¨ S1 ,
On remarque aussi que les matrices de symétrie introduites dans cet arguemnt sont symétriques, et M l’étant
aussi :
t
H “ tS1 ¨ ¨ ¨ tSk tM tSk ¨ ¨ ¨ tS1 “ S1 ¨ ¨ ¨ Sk M Sk ¨ ¨ ¨ S1 “ H.
Ainsi, H est une matrice de Hessenberg symétrique, ce qui impose que H est tridiagonale.
Ainsi, toute matrice symétrique M est semblable à une matrice tridiagonale.
12