Académique Documents
Professionnel Documents
Culture Documents
Algèbre linéaire
Réduction des
3
e
édition
endomorphismes
LICENCE 2 & 3
S
MATHÉMATIQUE
CPGE
ATION
CAPES & AGRÉG
• Cours complet
• Commentaires et développements
• Plus de 170 exercices corrigés
ROGER MANSUY • RACHED MNEIMNÉ
Algèbre linéaire
Réduction des
3
e
édition
endomorphismes
Pour toute information sur notre fonds et les nouveautés dans votre domaine
de spécialisation, consultez notre site web :
www.deboecksuperieur.com
Dépôt légal :
Bibliothèque royale de Belgique : 2022/13647/006
Bibliothèque nationale, Paris : février 2022
I. Polynômes d’endomorphismes 1
1. Un morphisme d’algèbres . . . . . . . . . . . . . . . . . . . . . . . . . 1
2. Idéal des polynômes annulateurs . . . . . . . . . . . . . . . . . . . . . 2
3. Polynôme minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
4. Utilisation pratique d’un polynôme annulateur . . . . . . . . . . . . . 5
5. Commentaires et développements . . . . . . . . . . . . . . . . . . . . 8
6. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
III. Commutation 27
1. Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2. Calculs de commutants . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3. Endomorphisme ad u . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4. Commentaires et développements . . . . . . . . . . . . . . . . . . . . 32
5. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
VIII. Diagonalisation 89
1. Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
2. Critères de diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . 90
3. Critère de co-diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . 94
4. Commentaires et développements . . . . . . . . . . . . . . . . . . . . 95
5. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
Notations 243
Index 245
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:9782807336612_Algebre_lineaire_3e chapitre:0
Avant-propos
Qu’apporte ce livre ?
Il existe de nombreux livres pour les étudiants de premiers cycles qui traitent
certains des aspects de la réduction mais peu présentent toute la richesse du
sujet de manière accessible pour des étudiant·e·s des premiers cycles (et dans
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:9782807336612_Algebre_lineaire_3e chapitre:0
viii Avant-propos
Avant-propos ix
nous avons choisi d’en détailler une autre application classique avec les chaînes
de Markov homogènes finies. L’application du théorème de Perron & Frobenius
est alors assez élémentaire et pourtant parlante sur l’importance de ce résultat.
. Le chapitre XVI est consacré aux exponentielles de matrices. Après avoir in-
troduit ce concept, nous montrons comment la réduction des matrices permet
de calculer ou de décrire les propriétés de l’exponentielle.
Voilà pour le contenu du livre. Passons maintenant à la forme.
Le contenu des chapitres est présenté de manière didactique dans une dé-
marche très conventionnelle parsemant de nombreux exemples (certains étant
très élémentaires) l’enchaînement des propositions et leurs preuves détaillées.
Certaines preuves sont délicates et il peut être astucieux de les sauter lors d’une
première lecture afin de comprendre correctement les énoncés puis d’y revenir
plus tard à tête reposée.
Toutefois, à la fin de chaque chapitre, une section intitulée « Commentaires et
développements » détonne : il s’agit de remarques moins détaillées mais néan-
moins profondes, d’ouvertures pour permettre d’aller plus loin, il ne s’agit plus
de faire cours mais de suggérer un travail personnel.
La dernière partie de chaque chapitre est bien évidemment constituée d’exer-
cices ; les corrections sont détaillées pour pouvoir être lues facilement même
si nous préconisons plutôt de ne pas les lire trop rapidement. Certains exer-
cices sont relativement classiques, d’autres plus originaux : nous avons choisi
de ne pas indiquer la difficulté pour ne pas biaiser le lecteur dans son effort de
recherche.
Remerciements
Un grand remerciement va aux relectrices et relecteurs des précédentes édi-
tions qui nous ont signalé coquilles et autres imprécisions. Les éventuelles er-
reurs restantes sont bien entendu la responsabilité des auteurs.
Conventions – à lire !
L’ensemble des notations est détaillé dans l’index en fin d’ouvrage. Précisons
quelques conventions.
Dans tout l’ouvrage, sauf précisions contraires, E désigne un K-espace vectoriel
de dimension finie où K désigne le corps R ou C.
Nous pratiquons abusivement l’identification d’une matrice de Mn (K) à l’en-
domorphisme de Kn canoniquement associé ; cela nous amène par exemple
quelquefois à dire qu’une matrice est injective ou qu’elle laisse stable un sous-
espace.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:9782807336612_Algebre_lineaire_3e chapitre:0
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap03 chapitre:I
Chapitre I
Polynômes
d’endomorphismes
Objectifs du chapitre
— Comprendre l’importance de l’algèbre K[u] des polynômes en un endo-
morphisme u donné.
— Calculer, sur des exemples simples, le polynôme minimal d’un endo-
morphisme.
— Utiliser les polynômes annulateurs pour calculer les puissances ou l’in-
verse (s’il existe).
1. Un morphisme d’algèbres
1.1. Définition. Soit u un endomorphisme d’un espace vectoriel E .
. Les puissances (de composition) de u sont les endomorphismes de E définis
récursivement par u 0 = IdE et, pour tout k ∈ N, par la relation
u k+1 = u ◦ u k = u k ◦ u.
PN
. Pour tout polynôme P = k=0 αk X k , l’endomorphisme P (u) de E est défini
par
XN
P (u) = αk u k .
k=0
2 I. Polynômes d’endomorphismes
u m ◦ u n = u m+n = u n ◦ u m .
l’espace L (E ), lequel est de dimension n 2 : elle est par conséquent liée. Il existe
donc des scalaires α0 , α1 , . . . , αn 2 non tous nuls tels que
X
n2
αk u k = 0L (E ) .
k=0
Pn 2
Par conséquent, le polynôme k=0
αk X k est annulateur de u. ä
2.4. Remarque. Nous verrons plus loin (avec le théorème de Cayley & Hamil-
ton) qu’en dimension n, on peut déterminer un polynôme annulateur de de-
gré n (le polynôme caractéristique).
4 I. Polynômes d’endomorphismes
3. Polynôme minimal
Comme l’anneau K[X ] est euclidien, il est en particulier principal, donc chaque
idéal (non réduit à 0) de K[X ] peut être engendré par un unique polynôme uni-
taire. Ceci justifie la définition suivante (conjointement avec l’hypothèse que
l’espace E est de dimension finie donc que l’idéal des polynômes annulateurs
est non réduit au seul polynôme nul).
En considérant l’endomorphisme
X
N ¡ ¢
v = − α10 αk u k−1 ∈ Vect IdE , u, . . . , u N −1 ,
k=1
6 I. Polynômes d’endomorphismes
Calculs de puissances
Lorsque le polynôme annulateur est scindé mais avec des racines multiples,
le problème est à peine plus compliqué et se ramène encore à un problème
d’interpolation.
X m = Q · (X − a)2 + αm X + βm .
Reste à déterminer les valeurs des complexes αm et βm . Pour cela, nous spé-
cifions cette relation en a puis dérivons cette relation avant de spécifier en a
(tous les termes où apparaît Q s’annulent, car a est racine double de (X − a)2 ).
Ainsi,
½
am = aαm + βm
ma m−1 = αm
8 I. Polynômes d’endomorphismes
5. Commentaires et développements
5.1. La donnée d’une matrice A met en évidence le morphisme d’algèbres
½
K[X ] → Mn (K)
ΦA :
P 7→ P (A)
Son noyau, l’idéal ker Φ A , est non nul, pour des raisons de dimension. Il est
engendré par le polynôme minimal µ A ; l’image im Φ A = K[A] est une sous-
algèbre de Mn (K), dont la dimension se déduit aisément de l’isomorphisme de
K-algèbres
'
Φ A : K[X ]/(µ A ) −→ K[A].
Ainsi, la dimension de l’algèbre K[A] est égale à celle de l’espace vectoriel quo-
tient K[X ]/(µ A ). C’est donc le degré d A du polynôme minimal µ A de la ma-
trice A. En effet, les classes des polynômes 1, X , . . . , X d A −1 forment une base de
cet espace quotient. Le fait que ces vecteurs soient générateurs provient d’une
simple division euclidienne par le polynôme µ A et le fait qu’ils soient libres
provient du caractère minimal de µ A .
Au niveau de l’algèbre K[A], cela se traduit par le fait que les matrices In , A, . . . ,
A d A −1 forment une base de l’algèbre des polynômes en A.
5.2. La structure de l’algèbre K[A] est donc celle d’un quotient d’un anneau de
polynômes en une seule variable. Elle dépend uniquement du polynôme mi-
nimal de A. La structure de ces quotients-là, comme celle des anneaux Z /n Z,
est bien connue et son étude se trouve grandement simplifiée par le théorème
des restes chinois, qui montre que cette algèbre est produit d’algèbres locales,
c’est-à-dire d’algèbres ayant chacune un idéal maximal unique (et pour une
telle algèbre le treillis de leurs idéaux est alors une liane...).
5.3. Précisons donc que si le polynôme minimal est une puissance d’un po-
lynôme irréductible, soit µ A = πm avec π un polynôme irréductible, l’algèbre
quotient K[X ]/(µ A ), tout comme l’algèbre K[A], est une algèbre locale et son
idéal maximal est l’idéal engendré par la classe du polynôme π. La démonstra-
tion est calquée sur celle de la mise en évidence des idéaux de l’anneau quo-
tient Z /p n Z avec p est premier (il est bon de savoir en général que les idéaux
d’un quotient R/a, où a est un idéal de l’anneau commutatif (unitaire) R, sont
en correspondance bijective avec les idéaux de R qui contiennent l’idéal a par
lequel on a quotienté.).
5.4. Comme autre application, remarquons que l’algèbre K[A] est réduite (au
sens qu’elle n’a d’autres nilpotents que 0n ) si, et seulement si, le polynôme mi-
nimal de A est sans facteur carré.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap03 chapitre:I
6. Exercices 9
Quand K = C, cela revient à dire que l’algèbre K[A] est un produit de corps
isomorphes à C. On verra une autre démonstration de ce fait ultérieurement
(chapitre XI) avec la décomposition de Jordan & Dunford.
5.5. Nous avons vu que l’algèbre K[A] contenait l’inverse de A si A est inver-
sible. On verra plus tard que les composantes semi-simple et nilpotente dans la
décomposition de Jordan & Dunford de A sont aussi dans K[A], tout d’ailleurs
comme la comatrice de A oules opérateurs de projection sur les facteurs di-
rects de la décomposition de E en somme d’espaces caractéristiques. Tout cela
pour dire qu’au delà de sa structure elle-même, l’algèbre K[A] contient de par
ses divers éléments des renseignements précieux.
5.7. Le groupe des inversibles de l’algèbre K[A] est l’ensemble des matrices
Q(A), où Q est un polynôme premier avec µ A .
6. Exercices
6.1. Exercice. Soit A, B ∈ Mn (K) deux matrices semblables et P ∈ K[X ]. Montrer
que les matrices P (A) et P (B ) sont semblables.
▷ Éléments de correction. Par définition, il existe une matrice U ∈ GLn (R) telle
que A = U diag(λ1 , λ2 , . . . , λn )U −1 et donc
¡ ¢
A 3 = U diag λ31 , . . . , λ3n U −1 .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap03 chapitre:I
10 I. Polynômes d’endomorphismes
X k = Q · µM + tr(M )k−1 X .
6. Exercices 11
nôme de degré au plus 1, qui est nul en 0 et qui vaut tr(M )k en tr(M ). On
en déduit que, pour tout k Ê 1, M k = tr(M )k−1 M .
Remarquons que ce dernier résultat peut aussi être déduit par une simple
récurrence.
◁
12 I. Polynômes d’endomorphismes
6.9. Exercice. Soit A = diag(λ1 , . . . , λn ). Déterminer les vecteurs X ∈ Mn,1 (K) tels
que µ A,X = µ A où µ A,x désigne comme dans l’exercice précédent, le plus petit
polynôme P unitaire tel que P (A)X = 0n,1 .
6. Exercices 13
6.12. Exercice. Soit A, B ∈ Mn (K) et un polynôme P ∈ K[X ] non constant tel que
P (0) 6= 0 et AB = P (A). Montrer que A est inversible puis que A et B commutent.
▷ Éléments de correction. Soit Q ∈ K[X ] tel que P = P (0) + XQ. Avec cette nota-
tion, la condition AB = P (A) se récrit A(B − Q(A)) = P (0)In : par conséquent, A
est inversible d’inverse
1
P (0) (B −Q(A)).
14 I. Polynômes d’endomorphismes
1. Montrer qu’il existe une base (H1 , . . . , H2n ) de K2n−1 [X ] telle que
. pour tout k ∈ 1, n et tout i ∈ 1, n,
▷ Éléments de correction.
1. L’application
½
K2n−1 [X ] → ¡ K2n ¢
P 7 → P (λ1 ), . . . , P (λn ), P 0 (λ1 ), . . . , P 0 (λn )
est linéaire et injective (si P est dans son noyau, alors il admet n racines
doubles et est de degré au plus 2n − 1 donc est nul) : c’est donc un iso-
morphisme.
On obtient la famille désirée en prenant les antécédents de la base cano-
nique de K2n .
Ces polynômes sont appelés polynômes interpolateurs de Hermite. On
peut en obtenir une expression explicite à partir des polynômes inter-
polateurs élémentaires de Lagrange L 1 , . . . , L n associés aux λ1 , . . . , λn :
pour tout k ∈ 1, n,
¡ ¢
Hk = 1 − 2L 0k (λk )(X − λk ) L 2k , Hn+k = (X − λk )L 2k .
◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap01 chapitre:II
Chapitre II
Sous-espaces stables
Objectifs du chapitre
— Ne pas confondre les restrictions et les endomorphismes induits.
— Déterminer dans des cas simples les sous-espaces stables.
— Utiliser les espaces cycliques associés à un endomorphisme.
im v = im u k ∩ ker u.
donc
dim ker u ∩ im u k+1 É dim ker u ∩ im u k .
Avec le corollaire précédent que la suite des sauts de dimension dans la suite
des noyaux itérés
¡ ¢
dim ker u k+1 − dim ker u k k
est décroissante.
1.6. Exemple. Soit u un endomorphisme. Remarquons que dim ker u 2 = 2 dim ker u
si, et seulement si, ker u ⊂ im u. En effet, d’après le corollaire précédent, la
condition dim ker u 2 = 2 dim ker u équivaut à
2. Sous-espaces stables 17
2. Sous-espaces stables
2.5. Remarque. L’intérêt des sous-espaces stables est qu’ils permettent d’obte-
nir une première description plus simple d’un endomorphisme u de E : si l’on
dispose d’une décomposition de E en somme directe de sous-espaces F 1 , F 2 ,
. . . , F p stables par u, alors l’étude de u est équivalente à l’étude des endomor-
phismes induits par u sur chacun de ces sous-espaces.
Dans une base associée à une décomposition E = F 1 ⊕ F 2 ⊕ · · · ⊕ F p en somme
directe de sous-espaces stables par u, la matrice de u est diagonale par blocs :
mat(u F1 )
mat(u F2 )
..
.
mat(u F p )
Démonstration. . Comme les polynômes µuF et µuG divisent µu , leur PPCM di-
vise aussi µu .
. Montrons désormais que µuF ∨ µuG est annulateur de u (et donc un multiple
de µu ). Soit x ∈ E , x F ∈ F et xG ∈ G tels que x = x F + xG . Alors,
car µuF ∨µuG est annulateur à la fois de u F et de uG en tant que multiple de µuF
et µuG . ä
4.1. Exemple. Tous les sous-espaces sont stables par une homothétie.
5. Sous-espaces cycliques 19
4.3. Remarque. De même, les sous-espaces stables par une symétrie vecto-
rielle s sont obtenus comme somme directe d’un sous-espace de ker(s − IdE )
et d’un sous-espace de ker(s + IdE ).
Or, les noyaux itérés de u forment une suite strictement croissante jusqu’au
rang n donc, pour tout k ∈ 0, n, dim ker u k = k. En particulier, dim ker u p = p
donc dim F É p. Mais comme u F est d’indice p, alors dim F Ê p (même résultat
sur la suite des noyaux itérés). En conclusion, F = ker u p .
5. Sous-espaces cycliques
¡ ¢
Démonstration. . Comme Vect u k (x) k∈N est un sous-espace de E contenant x
et stable par u, alors
¡ ¢
E u,x ⊂ Vect u k (x) k∈N .
6. Commentaires et développements
6.1. Soit u un endomorphisme d’un espace vectoriel E , et F ⊂ E un sous-
espace stable pour u. Aux côtés de l’endomorphisme u F , il existe un autre en-
domorphisme induit apparaissant dans ce cadre : l’endomorphisme u E /F in-
duit par u sur le quotient de E par F
½
E /F → E /F
u E /F :
x 7→ u(x)
D : {0E } ⊂ F1 ⊂ F2 ⊂ · · · ⊂ F p ⊂ E .
Un drapeau complet de E est un drapeau formé de dim E + 1 sous-espaces F k
vérifiant dim F k = k. Un drapeau est u-stable si tous ses sous-espaces sont
stables par u.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap01 chapitre:II
6. Commentaires et développements 21
Un endomorphisme n’a pour seuls sous-espaces stables que les deux sous-
espaces triviaux si, et seulement si, son polynôme caractéristique est irréduc-
tible.
Dans le cas général, un endomorphisme est semi-simple si, et seulement si, son
polynôme minimal est sans facteur carré (la notion de semi-simplicité se com-
porte, de ce fait, bien par rapport aux extensions de corps, puisque le polynôme
minimal ne dépend pas du corps de base). Cela revient à dire que l’algèbre K[u]
est réduite (sans éléments nilpotents non nuls) ou encore qu’elle est produit de
corps.
Le gradué associé à un endomorphisme semi-simple relativement à un dra-
peau stable est à son tour semi-simple.
une fois que l’on a identifié E ? /F ⊥ avec le dual F ? de F , comme il résulte na-
turellement de l’écriture
ρF
F ⊥ ,→ E ? ↠ F ? ,
6.6. Un exercice amusant ici est le suivant, lequel est un cas particulier de ce
qui précède : montrer que si le polynôme minimal de u est irréductible, alors
tout sous-espace stable par u admet un supplémentaire stable. L’idée c’est de
munir E d’une structure d’espace vectoriel E F sur le corps F = K[u], de caracté-
riser le sous-espaces stables par u comme étant les sous-espaces du F-espace
vectoriel E F et d’appliquer le fait élémentaire que tout sous-espace vectoriel
d’un espace vectoriel admet un supplémentaire.
7. Exercices
7.1. Exercice. Soit u un endomorphisme d’un espace vectoriel E . Montrer que
ker u et im u sont supplémentaires dans E si, et seulement si, ker u = ker u 2 .
7. Exercices 23
dim ker u k = k.
¡ ¢
(⇐) La suite des « sauts de dimensions » dim ker u k+1 − dim ker u k k est
décroissante de premier terme 1. Ainsi, si un noyau itéré ker u k est de
dimension n, alors k Ê n. Comme un indice de nilpotence est inférieur
ou égal à n, l’indice de nilpotence de u est exactement n.
2. . Remarquons tout d’abord que dim ker u Ê 2 d’après la première ques-
tion donc dim im u É n − 2.
. L’endomorphisme induit v = u im u est nilpotent d’indice n−2, car u est
d’indice de nilpotence n −1. Ainsi, dim im u = n −2 et d’après la question
précédente, dim ker v = 1. Or, ker v = ker u ∩ im u d’où
dim ker u ∩ im u = 1.
7.4. Exercice. Soit A ∈ Mn (K) non nulle. Déterminer les sous-espaces stables de
l’endomorphisme
½
Mn (K) → Mn (K)
u:
M 7→ tr(AM )In
7. Exercices 25
7.8. Exercice. Déterminer les endomorphismes pour lesquels tous les sous-espaces
sont stables.
▷ Éléments de correction. Si tous les sous-espaces sont stables pour un endo-
morphisme u, alors toutes les droites sont stables et donc u est une homothé-
tie (comme on l’a démontré dans l’exercice précédent). Réciproquement, tous
les sous-espaces sont stables par une homothétie. ◁
d’où β = δ.
Réciproquement, si un endomorphisme u admet dans la base B une matrice
de la forme
λ α γ
0 β 0 ,
0 0 β
alors il laisse stable tous les plans contenant D car, pour tous a, b ∈ R,
Chapitre III
Commutation
Objectifs du chapitre
— Déterminer le commutant de quelques endomorphismes simples.
— Comprendre les sous-espaces stables fournis par une relation de com-
mutation.
— Effectuer des calculs avec l’endomorphisme ad u associé à un endomor-
phisme u.
1. Définitions
1.1. Définition. . Deux endomorphismes u et v d’un même espace vectoriel E
commutent si u ◦ v = v ◦ u.
. Soit u un endomorphisme d’un espace vectoriel E . Le commutant de u est
l’ensemble, noté C (u), des endomorphismes de E qui commutent avec u.
. Soit u un endomorphisme d’un espace vectoriel E . Le bicommutant de u
est l’ensemble des endomorphismes qui commutent avec tous les éléments
de C (u).
1.2. Remarque. Encore une fois, ces notions s’étendent pour définir le commu-
tant puis le bicommutant d’une matrice.
28 III. Commutation
(v + λw) ◦ u = v ◦ u + λw ◦ u = u ◦ v + λu ◦ w
= u ◦ (v + λw),
(v ◦ w) ◦ u = v ◦ (w ◦ u) = v ◦ u ◦ w
= (v ◦ u) ◦ w = u ◦ v ◦ w.
w ◦ v ◦ u ◦ v −1 = v ◦ u ◦ v −1 ◦ w,
soit
v −1 ◦ w ◦ v ◦ u = u ◦ v −1 ◦ w ◦ v,
1.6. Proposition. Les seuls endomorphismes qui commutent avec tous les auto-
morphismes sont les homothéties.
2. Calculs de commutants 29
2. Calculs de commutants
2.1. Exemple. Déterminons l’ensemble des matrices qui commutent avec la
matrice D = diag(λ1 , λ2 , . . . , λn ) avec λ1 , . . . , λn des scalaires deux à deux dis-
tincts.
. Si M = (m i , j )i , j commute avec D, alors en calculant les produits matriciels,
on obtient que, pour tout (i , j ), λi m i , j = λ j m i , j . Par conséquent, pour tout
i 6= j , m i , j = 0 : la matrice M est diagonale. Réciproquement, les matrices dia-
gonales commutent avec D.
. On peut aborder différemment le problème en remarquant que si M com-
mute avec D alors M laisse stable tous les droites ker(D − λk In ) avec k ∈ 1, n
donc est diagonale.
30 III. Commutation
3. Endomorphisme ad u
Introduisons ici un exemple d’endomorphisme qui nous servira tout au long
de cet ouvrage.
3. Endomorphisme ad u 31
32 III. Commutation
4. Commentaires et développements
on a une bijection canonique entre les classes (à gauche) de GLn (K) modulo
Stab(M ) et l’orbite OM ,
'
GLn (K)/Stab(M ) −→ OM .
Les stabilisateurs sont des sous-groupes de GLn (K), et il est clair que les stabili-
sateurs de deux matrices conjuguées (entendre par là, semblables) sont conju-
gués, c’est-à-dire
¡ ¢
Stab P 0 M P 0−1 = P 0 Stab(M ) P 0−1 .
Le sous-groupe Stab(M ) de GLn (K) coïncide avec le groupe des éléments in-
versibles de l’algèbre C (M ) des matrices commutant avec M . Certains auteurs
notent alors z(M ) l’algèbre C (M ) et Z (M ) le groupe Stab(M ) de ses éléments
inversibles.
4.2. L’algèbre associative C (M ) est plus difficile à étudier que l’algèbre K[M ], ne
serait-ce que parce que la première n’est pas en général commutative alors que
la seconde l’est toujours. Ces deux sous-algèbres coïncident pourtant généri-
quement ; plus précisément, elles sont égales si, et seulement si, la matrice M
est semblable à une matrice compagnon... Lorsque M est, par exemple, diago-
nale (avec des valeurs propres de multiplicité k i ), il est facile de voir que C (M )
est un produit d’algèbres de matrices, en l’occurrence l’algèbre des matrices
diagonales en blocs de tailles k 1 , . . . , k l , avec k 1 + · · · + k l = n (laquelle est de
dimension k 12 + · · · + k l2 ). On voit déjà ici deux faits, d’autant plus intéressants à
relever qu’ils sont valables pour toute matrice M , diagonale, diagonalisable ou
pas : le centre de l’algèbre C (M ) est réduit à K[M ] et la codimension de C (M )
dans Mn (K) est paire !
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap02 chapitre:III
5. Exercices 33
5. Exercices
5.1. Exercice. Soit u un endomorphisme de E . Déterminer une condition néces-
saire et suffisante pour qu’un projecteur p commute avec u.
u ◦ p(x F + xG ) = u(x F ),
p ◦ u(x F + xG ) = p(u(x F ) + u(xG )) = u(x F ).
donc u ◦ p = p ◦ u. ◁
5.3. Exercice. Soit u et n deux endomorphismes de E tels que u est non nul, n est
nilpotent et u ◦ n = n ◦ u. Montrer que rg(u ◦ n) < rg u.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap02 chapitre:III
34 III. Commutation
5. Exercices 35
avec a, b, c, d , e, f , g , h et i ∈ K.
La dimension du commutant est donc 9.
Il existe un résultat général exprimant la dimension du commutant d’une ma-
trice nilpotente comme la somme des carrés des longueurs des colonnes de
son tableau de Young (voir chapitre XI) : ici, 22 + 22 + 12 = 9. ◁
5.6. Exercice. Soit A, B ∈ Mn (K) telles qu’il existe P ∈ K[X ] vérifiant P (0) 6= 0 et
AB = P (A). Montrer que A et B commutent.
A −1 = 1
P (0) (B −Q(A)).
5.7. Exercice. Soit A ∈ M2 (K) une matrice non scalaire. Montrer que le commu-
tant de A est K[A].
Alors,
M AX = AM X = A(αIn + βA)X = (αIn + βA)AX .
36 III. Commutation
5.8. Exercice. Déterminer l’ensemble des matrices qui commutent avec toutes les
matrices triangulaires supérieures strictes.
▷ Éléments de correction. Une matrice M = (m i , j ) commute avec toutes les ma-
trices triangulaires supérieures strictes si, et seulement si, M E i , j = E i , j M pour
tout i < j . En effectuant ce calcul matriciel, on trouve, pour tous i < j ,
m k,i = 0 si k 6= i , m j ,k = 0 si k 6= j , m j , j = m i ,i .
La première condition entraîne que tous les coefficients hors diagonale des
n − 1 dernières lignes sont nuls ; la deuxième que tous les coefficients hors dia-
gonale des n − 1 premières colonnes sont nuls ; la dernière que tous les coeffi-
cients diagonaux sont égaux. En conclusion, M ∈ Vect(In , E 1,n ).
La réciproque s’obtient par simple vérification. ◁
5.9. Exercice.
1. Existe-t-il une matrice A ∈ Mn (R) telle que
0 1 0 ··· 0
.. . . .. .. ..
. . . . .
. .. ..
A 2 = .. . . 0 ?
.. .
. . . 1
0 ··· ··· ··· 0
▷ Éléments de correction.
1. Proposons deux solutions pour cette question.
. Soit A une solution de l’équation. Notons J n la matrice du membre
de droite. La matrice A commute avec A 2 = J n donc est un polynôme
en J n d’après l’exemple III -2.3. Ainsi, il existe P ∈ K[X ] tel que A = P (J n ) ;
en reportant dans l’équation, on obtient (P 2 − X )(J n ) = 0n . Comme le
polynôme minimal µ J n = X n divise tout polynôme annulateur de J n , on
en déduit qu’il existe Q ∈ K[X ] tel que P 2 = X + X n Q. Alors, 0 est racine
d’ordre pair dans le membre de gauche et racine simple du membre de
droite : contradiction.
. Notons encore J n la matrice du membre de droite et remarquons que
cette matrice est nilpotente d’indice n. Une matrice A qui vérifie l’équa-
tion est nilpotente. Comme 2(n − 1) Ê n, A 2(n−1) = 0n et donc J nn−1 = 0n
ce qui contredit la valeur de l’indice de nilpotence de J n .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap02 chapitre:III
5. Exercices 37
5.10. Exercice. Soit A, B ∈ Mn (R) telles que AB −B A est de rang 1. Montrer que B
laisse stable ker A ou im A.
AB X = AB X − B AX ∈ im A ∩ im(AB − B A).
38 III. Commutation
car F = im p. Ainsi, tous les éléments de F sont fixes par g ◦ p ◦ g −1 donc par q ;
par conséquent, F ⊂ im(q).
Par ailleurs, pour tout x ∈ E , il existe x 0 ∈ F et x 00 ∈ S tels que g −1 (x) = x 0 + x 00 ,
donc
g ◦ p ◦ g −1 (x) = g ◦ p(x 0 + x 00 ) = g (x 0 ) ∈ g (F ) = F.
En conclusion, im q ⊂ F , d’où im q = F .
. De plus, q est un projecteur. En effet, pour tout x ∈ E , q(x) ∈ F et l’on a vu que
les éléments de F sont fixes par q donc q 2 (x) = q(x). Ainsi, q 2 = q.
. Pour tout h ∈ G ,
1 X
h◦q = h ◦ g ◦ p ◦ g −1
|G | g ∈G
1 X
= k ◦ p ◦ k −1 ◦ h en posant k = h ◦ g
|G | k∈G
= q ◦ h.
5. Exercices 39
▷ Éléments de correction.
1. Soit k ∈ N∗ . Comme 2A = C A − AC , 2A k = A k−1C A − A k C et donc
40 III. Commutation
5.13. Exercice. Déterminer les matrices A ∈ Mn (K) telles que l’algèbre C (A) soit
isomorphe à une algèbre de matrice Mp (K) pour un entier p.
Chapitre IV
Objectifs du chapitre
— Comprendre la finitude de l’ensemble des sous-espaces ker P (u) avec P
un polynôme.
— Utiliser le lemme des noyaux pour obtenir une décomposition en sous-
espaces stables (et savoir ensuite l’exploiter).
— Comprendre l’existence d’un vecteur x tel que le polynôme minimal lo-
cal en x soit le polynôme minimal (µu,x = µu ).
Cela prouve ker P (u) ∩ kerQ(u) ⊂ ker D(u) et le résultat annoncé par double-
inclusion. ä
Cette proposition est complétée par un résultat analogue pour la somme (voir
Exercice IV -5.1).
. Comme P (u) ◦ Q(u) = µu (u) = 0L (E ) , imQ(u) ⊂ ker P (u) = F . Ainsi, pour tout
x ∈ E , Q(x) ∈ F et donc
avec U1 (u) ◦ P 1 (u)(x) ∈ ker P 2 (u) et U2 (u) ◦ P 2 (u)(x) ∈ ker P 1 (u) (en utilisant la
commutation des polynômes en u).
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap05 chapitre:IV
où les P k sont des polynômes irréductibles deux à deux distincts et les αk des
entiers non nuls. Le lemme des noyaux entraîne
M
p
α
E = ker P (u) = ker P k k (u).
k=1
Rappelons les résultats pour la suite des noyaux itérés utile pour décrire les
espaces apparus dans cette décomposition.
où les P k sont des polynômes irréductibles deux à deux distincts et les αk des
entiers non nuls. D’après le résultat de croissance de la suite des noyaux itérés,
α α −1
on dispose, pour tout k ∈ 1, p, d’un vecteur x k ∈ ker P k k \ ker P k k . Considé-
rons le vecteur x = x 1 + x 2 + · · · + x p ∈ E . Alors,
X
p
0E = µu,x (u)(x) = µu,x (u)(x k ).
k=1
α α
Pour tout k ∈ 1, p, µu,x (u)(x k ) ∈ ker P k k (u). Or, les sous-espaces ker P k k (u)
sont en somme directe : ainsi, pour tout k ∈ 1, p, µu,x (u)(x k ) = 0E et donc
α
P k k , polynôme minimal de x k , divise µu,x . Le lemme d’Euclide entraîne que
µu divise µu,x : ainsi, µu,x = µu .
ä
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap05 chapitre:IV
4. Commentaires et développements
4.1. Ce chapitre est l’occasion d’une ouverture plus marquée de l’algèbre li-
néaire sur l’arithmétique. Les propriétés de divisibilité dans l’anneau principal
R = K[X ], pour K corps commutatif, jouent ici un rôle crucial. Les deux pro-
priétés fondamentales d’intersection et de somme de noyaux
ker P (u) ∩ kerQ(u) = ker(P ∧Q)(u), ker P (u) + kerQ(u) = ker(P ∨Q)(u),
où l’identité de Bezout joue un rôle primordial sont à comparer avec les rela-
tions concernant les idéaux de l’anneau R (noter l’inversion des cas correspon-
dants)
aR + bR = (a ∧ b)R, aR ∩ bR = (a ∨ b)R.
4.2. Les sous-espaces de la forme ker P (u) (mais aussi deux de la forme im P (u))
sont des exemples prioritaires de sous-espace stables sous l’action de l’endo-
morphisme u. Leur nombre est fini, comme on l’a vu dans la propriété de début
du chapitre.
Il existe en général d’autres sous-espaces stables par u que ceux-là. Toutefois, il
est bon de noter que tout sous-espace stable sous l’action de u est de la forme
ker P (u) si, et seulement si, l’endomorphisme u est cyclique, soit encore s’il
n’existe qu’un nombre fini de sous-espace stables sous l’action de u. Voir le
chapitre VI. Ainsi, lorsque u est cyclique, chacun des sous-espaces im P (u) est
donc de la forme ker P (u).
À titre d’exemple, pour le bloc de Jordan J n , im J n = ker J nn−1 .
Attention, un sous-espace quelconque im P (u) peut être de la forme kerQ(u)
sans que u ne soit cyclique. En fait, une condition nécessaire et suffisante pour
que tous les im u k , où u est endomorphisme nilpotent, soient des kerQ(u) pour
un polynôme Q adéquat est que le tableau de Young de u soit rectangulaire.
Voir page 121 du livre
Réduction des endomorphismes, Rached Mneimné, Calvage & Mounet, 2006.
4.3. Il est intéressant de savoir quels sont les ker P (u) qui ont un supplémen-
taire stable, et aussi d’en calculer le nombre. Le lemme suivant est facile et im-
portant.
Nous savons déjà que le cardinal des idempotents dans l’algèbre K[u] est une
puissance de 2. En effet, avec le lemme chinois, l’algèbre K[u] s’écrit comme
¡ ¢
produit d’algèbres quotients K[u]/ P k , où P est un polynôme irréductible.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap05 chapitre:IV
5. Exercices 47
¡ ¢
Une algèbre K[u]/ P k est alors locale (au sens qu’elle a un seul idéal maxi-
mal, à savoir l’idéal engendré par la classe de P , ou encore que l’ensemble des
éléments non inversibles est un idéal). Dans ce cas, il y a seulement deux idem-
potents, 0 et 1.
Calculons maintenant le nombre de sous-espaces ker P (u). On sait que ce qui
compte, ce sont les ker P (u) où P est un diviseur du polynôme minimal
Y α
µu = P i i .
i
Une fois l’on a écrit l’espace comme somme directe des sous-espaces caracté-
ristiques, ker P (u) se décompose bien et l’on est ramené à calculer le nombre
α
de sous-espaces ker P (u) ∩ ker P i i (u). Mais, ce dernier sous-espace est de la
βi
forme ker P i (u), avec 0 É βi É αi ; par stricte croissance des noyaux itérés, il
en existe exactement αi + 1. En conclusion, le nombre de sous-espaces de la
forme ker P (u) est égal au produit des αi + 1, autrement dit, il y a autant de
sous-espaces ker P (u) que de diviseurs du polynôme minimal.
En particulier, le nombre de sous-espaces ker P (u) est impair si, et seulement
si, le polynôme minimal µu est un carré.
5. Exercices
U Qe + V Pe = 1.
Enfin,
e
P (u)(U (u) ◦ Q(u)(x)) e
= P (u) ◦U (u) ◦ Q(u)(x)
e
= U (u) ◦ (P (u) ◦ Q(u))(x)
= U (u) ◦ M (u)(x) = 0E ,
Q(u)(V (u) ◦ Pe(u)(x)) = Q(u) ◦ V (u) ◦ Pe(u)(x))
= V (u) ◦ M (u)(x) = 0E .
e
Ainsi, U (u) ◦ Q(u)(x) ∈ ker P (u) et V (u) ◦ Pe(u)(x) ∈ kerQ(u) ; par conséquent,
x ∈ ker P (u) + kerQ(u). ◁
E = ker u m ⊕ im u m .
Mais alors, kerQ(u) est un supplémentaire de ker u m stable par u m , qui est
donc égal, d’après l’exercice II -7.5, à im u m .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap05 chapitre:IV
5. Exercices 49
Le sous-espace ker u m qui intervient ici est le nilespace de u ; on verra plus loin
qu’il s’agit simplement du sous-espace caractéristique de u associé à la valeur
propre 0. Le sous-espace im u m est parfois appelé cœur de u . ◁
▷ Éléments de correction.
1. . S’il existe λ ∈ K tel que u F = λIdF , alors F ⊂ ker(u − λIdE ).
. Sinon, il existe x ∈ F tel que la famille (x, u(x)) est libre donc est une
base de F . Mais alors, u 2 (x) ∈ F , car F est stable par u ; il existe donc
a, b ∈ K tels que u 2 (x) = au(x) + bx. On vérifie immédiatement que x
et u(x) appartiennent à ker(u 2 −au −bIdE ) donc F ⊂ ker(u 2 −au −bIdE ).
2. . S’il existe λ ∈ K tel que u ker P (u) = λIdker P (u) , alors deux vecteurs linéai-
rement indépendants de ker P (u) engendrent un plan stable.
. Sinon, il existe x ∈ ker P (u) tel que la famille (x, u(x)) est libre et définit
un plan F de ker P (u). Par ailleurs, F est stable car P (u)(x) = 0E et donc
◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:IV
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:V
Chapitre V
Éléments propres,
caractéristiques
Objectifs du chapitre
— Définir les éléments propres d’un endomorphisme.
— Calculer le polynôme caractéristique et en connaître le lien avec les va-
leurs propres.
1. Définitions
1.1. Définition. Soit u un endomorphisme de E .
. Une valeur propre λ de u est un scalaire tel que u − λIdE n’est pas injective,
c’est-à-dire tel qu’il existe x ∈ E non nul qui satisfait u(x) = λx. L’ensemble des
valeurs propres de l’endomorphisme u est appelé spectre de u et noté Sp(u).
. Un vecteur propre de u associé à la valeur propre λ est un vecteur x non nul
tel que u(x) = λx.
. Le sous-espace propre de u associé à la valeur propre λ est le sous-espace
E λ (u) = ker(u − λIdE ). On le note E λ s’il n’y a pas ambiguïté sur l’endomor-
phisme considéré. La dimension de ce sous-espace propre est notée m g (λ) et
appelée multiplicité géométrique de la valeur propre λ.
1. Définitions 53
avec, pour tout i ∈ 1, N , x i ∈ E λi . Chacun des termes de cette somme est soit
nul, soit un vecteur propre. D’après le résultat précédent, x i = 0E pour tout
i ∈ 1, N (sinon on aurait trouvé une combinaison linéaire nulle non triviale
de vecteurs propres associés à des valeurs propres deux à deux distinctes). Par
conséquent, les espaces E λ1 , . . . , E λN sont en somme directe. ä
1.10. Remarque. La réciproque est bien évidemment fausse. En effet, tout mul-
tiple d’un polynôme annulateur est encore annulateur : on peut trouver un po-
lynôme annulateur admettant des racines autres que les valeurs propres en le
multipliant par des facteurs bien choisis.
2. Polynôme caractéristique
2.1. Définition. Le polynôme caractéristique d’une matrice A ∈ Mn (K) est le
polynôme unitaire χ A de degré n défini par
χP −1 AP = det(X In − P −1 AP )
= det(X P −1 In P − P −1 AP )
= det(P −1 ) det(X In − A) det(P ) = χ A .
2. Polynôme caractéristique 55
2.13. Remarque. On verra plus loin que la multiplicité m a (λ) est exactement la
dimension du sous-espace caractéristique.
Démonstration. Ces sous-espaces sont stables par u, car ce sont les noyaux de
polynômes en u, qui commutent donc avec u. ä
Les relations entre coefficients et racines donnent pour les coefficients du po-
lynôme caractéristique les résultats suivants.
3. Commentaires et développements
3.1. La réunion de tous les sous-espaces propres est la réunion de toutes les
droites stables par l’endomorphisme. Cette réunion définit une configuration
remarquable de sous-espaces vectoriels en somme directe : les intersections
de chacun de ces sous-espaces avec le sous-espace engendré par la réunion
des autres sont réduites à {0E }.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:V
3. Commentaires et développements 57
3.3. L’existence de valeurs propres sur un corps K est liée à la « scindabilité » sur
le corps K du polynôme minimal ou du polynôme caractéristique, puisqu’ils
ont les mêmes racines (aux multiplicités près).
3.4. Dans ce chapitre et les suivants, on met en évidence trois multiplicités re-
latives aux valeurs propres. Il s’agit des multiplicités géométrique, algébrique
et minimale. Ces trois multiplicités jouent un rôle important dans l’étude de la
similitude, mais ne sont pas suffisantes pour caractériser une classe de simili-
tude. Elles vérifient différentes inégalités dont les cas extrêmes correspondent
au cas de la cyclicité et de la diagonalisabilité d’un endomorphisme.
3.5. Les endomorphismes nilpotents n’ont qu’une seule valeur propre, en l’oc-
currence la valeur propre 0 ; cela rend leur étude identique indépendamment
du corps de base. Ces endomorphismes réunissent le gros des difficultés dans
l’étude des cas de réduction délicats. En écrivant la suite des noyaux itérés
3.8. L’ensemble des polynômes complexes unitaires de degré n admet deux pa-
ramétrages. D’une part, il s’agit d’un sous-espace affine de dimension n, quand
on écrit un tel polynôme comme X n + a n−1 X n−1 + · · · + a 1 X + a 0 ; d’autre part,
c’est l’ensemble des orbites sous l’action du groupe symétrique S n opérant par
permutation sur Cn , quand on écrit un tel polynôme comme
(X − λ1 ) · · · (X − λn ).
Le passage entre les deux situations se faisant grâce aux relations entre fonc-
tions symétriques élémentaires et sommes de Newton (voir section IX -3).
est réunion finie de classes de similitude, dont l’une seulement contient des
matrices diagonales. On peut calculer le nombre de ces classes, en utilisant les
invariants de similitude, l’aide des partitions en nombres entiers des multipli-
cités αi .
4. Exercices
4.1. Exercice. Soit u un endomorphisme de E , des scalaires λ et µ ∈ K tels que
Montrer que λ = µ.
◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:V
4. Exercices 59
on obtient
¡ ¢
χu = X n−2 X 2 − tr(u)X + 12 (tr(u))2 − 12 tr(u 2 ) .
. Revenons au cas général. Le produit matriciel par blocs donne alors l’ana-
logue µ ¶µ ¶µ ¶µ ¶ µ ¶
0n In In X In X In −A In X In In 0n
= .
−In 0n 0n In −In X In 0n In 0n X 2 In − A
▷ Éléments de correction.
1. Il suffit de remarquer que le vecteur colonne dont tous les coefficients
valent 1 est vecteur propre de A associé à λ.
2. En appliquant la première question à A > , on obtient que λ ∈ Sp(A > ). Or,
A et A > ont les mêmes polynômes annulateurs donc le même polynôme
minimal et puis les mêmes valeurs propres. En conclusion, λ ∈ Sp(A). ◁
4.7. Exercice. Soit A ∈ Mn (C). Notons, pour tout I ⊂ 1, n, A I = (a i , j )i , j ∈I la ma-
trice de M|I | (C) extraite de A en ne conservant que les colonnes et lignes d’indices
dans I puis, pour k ∈ 1, n, X
∆k (A) = det(A I ).
I ∈P k (1,n)
¡ ¢
1. Montrer que, pour tout k ∈ 1, n, ∆k P AP −1 = ∆k (A)
(a) pour toute matrice de dilatation P ,
(b) pour toute matrice de transvection P ,
(c) pour toute matrice inversible P .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:V
4. Exercices 61
▷ Éléments de correction.
1. (a) Soit P = D i ,λ la matrice de dilatation de paramètres i ∈ 1, n et λ 6= 0.
Alors, P AP −1 est la matrice déduite de A en multipliant la ligne i par
¡ ¢
λ et la colonne i par λ1 . On en déduit que P AP −1 I = A I si i ∉ I et,
sinon,
¡ ¢
det P AP −1 I = λ λ1 det A I = det A I .
¡ ¢
Par conséquent, pour tout k É n, ∆k P AP −1 = ∆k (A).
(b) Soit P = Ti , j ,λ la matrice de transvection de paramètres i 6= j et λ ∈ C.
¡ ¢
. Si i , j ∈ I , alors det P AP −1 I = det A I .
¡ ¢ ¡ ¢
. Si i , j ∉ I , alors P AP −1 I = A I donc det P AP −1 I = det A I .
. Si i ∈ I , j ∉ I , notons J = I ∪ { j } \ {i }. Soit B la matrice déduite de A I
en remplaçant la ligne i par la ligne j (ou de manière équivalente, la
matrice déduite de A J en remplaçant la colonne j par la colonne i ).
Un rapide calcul donne
¡ ¢ ¡ ¢
det P AP −1 I + det P AP −1 J = det A I + α det B + det A J − α det B
= det A I + det A J .
En sommant les trois cas, on obtient que, pour tout k ∈ 1, n,
¡ ¢
∆k P AP −1 = ∆k (A).
▷ Éléments de correction.
4.9. Exercice. Soit A ∈ Mn (C). Préciser les valeurs propres de Com A, la coma-
trice de A.
Indication : on pourra discuter selon le rang de A.
À ce stade, nous avons établi que 0 est valeur propre de multiplicité au moins
n −1. La dernière valeur propre est alors tr Com A d’après la proposition V -2.15.
Notons λ1 , . . . , λn−1 , λn = 0 les valeurs propres de A.
Pour t > 0 suffisamment petit, la matrice A+t In est inversible et l’on est ramené
à l’étape précédente avec la formule de la comatrice
¡ ¢ X n det(A + t I )
tr Com(A + t In ) = det(A + t In ) tr (A + t In )−1 =
n
.
k=1 λk + t
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:V
4. Exercices 63
X Y
n−1 n Y
n−1
= (λ j + t ) + (λ j + t ), en isolant le dernier terme
k=1 j =1 j =1
j 6=k
X n−1
n−1 Y Y
n−1
=t (λ j + t ) + (λ j + t ), car λn = 0
k=1 j =1 j =1
j 6=k
Y
n−1
−→ λj .
t →0 j =1
est un sous-espace vectoriel de Mn,1 (C). Montrer que A admet une seule valeur
propre.
η(X + Y ) = A(X + Y ) = AX + AY = λX + µY .
Par récurrence, on déduit que, pour tout ℓ, c ℓ (σ) = c ℓ (ρ) ce qui équivaut classi-
quement à la conjugaison de σ et ρ. ◁
4.12. Exercice. Soit A, B ∈ Mn (C). Montrer l’équivalence entre les propriétés sui-
vantes :
1. les matrices A et B ont une valeur propre commune ;
2. il existe une matrice M ∈ Mn (C) non nulle telle que AM = M B ;
3. la matrice µ A (B ) n’est pas inversible.
4. Exercices 65
n’est pas inversible. Ainsi, il existe un indice i tel que la matrice B −λi In est non
inversible : λi est donc une valeur propre commune à A et B . ◁
4.13. Exercice. Soit A, B ∈ Mn (C) et r ∈ 1, n. Montrer l’équivalence entre les
propriétés suivantes :
1. les matrices A et B ont au moins r valeurs propres communes comptées
avec leurs multiplicités ;
2. il existe une matrice M ∈ Mn (C) de rang au moins r telle que AM = M B .
Cet exercice est bien entendu une généralisation du précédent et l’on peut se
poser la question de l’analogue de la troisième propriété.
▷ Éléments de correction. (1 ⇒ 2) Soit λ1 , . . . , λr des valeurs propres communes,
(X 1 , . . . , X r ) (respectivement (Y1 , . . . , Yr )) une famille libre de vecteurs propres
de A (respectivement de B > ). Alors, la matrice
X
r
M= X i Yi>
i =1
4.15. Exercice. Soit A ∈ Mn (C) telle que, pour tout X ∈ Mn,1 (C), µ A,X est de degré
au plus 2. Montrer que A admet au plus deux valeurs propres distinctes.
▷ Éléments de correction. Raisonnons par l’absurde et considérons X 1 , X 2 et X 3
des vecteurs propres associés à des valeurs propres distinctes λ1 , λ2 et λ3 .
Comme µ A,X 1 +X 2 +X 3 est de degré au plus 2, il existe a, b ∈ C tels que
A 2 (X 1 + X 2 + X 3 ) + a A(X 1 + X 2 + X 3 ) + bX 1 + X 2 + X 3 = 0n,1 ,
soit
(λ21 + aλ1 + b)X 1 + (λ22 + aλ2 + b)X 2 + (λ23 + aλ3 + b)X 3 = 0n,1 .
Chapitre VI
Endomorphismes cycliques
Objectifs du chapitre
— Définir les endomorphismes cycliques.
— Caractériser les endomorphismes cycliques en termes de polynôme mi-
nimal ou de commutant.
— Manipuler les matrices compagnons.
— Montrer qu’un espace cyclique maximal admet un supplémentaire stable.
1. Définitions
1.1. Rappel. Soit u un endomorphisme de E et x ∈ E . Rappelons que le sous-
espace cyclique E u,x est le plus petit sous-espace stable par u contenant x. Cet
¡ ¢
espace est engendré par la famille u j (x) j ∈N et, si dim E u,x = p, alors une base
¡ ¢
de E u,x est donnée par x, u(x), . . . , u p−1 (x) .
Par conséquent, Q(u) s’annule sur une base, donc est l’endomorphisme nul.
Ainsi, Q est annulateur de u et deg µu É degQ = n.
. En combinant les deux résultats, deg µu = n. ä
2.2. Remarque. Si l’on sait que le degré du polynôme minimal est au plus n,
alors on peut donner une preuve plus rapide : le polynôme µu,x est de degré
dim E u,x = n et divise le polynôme minimal µu , donc deg µu = n.
X
p−1
y= a k u k (x).
k=0
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap07 chapitre:VI
Ensuite, pour j = 1,
³ p−2
X ´
0 = e p∗ (u(y)) = e p∗ a k u k+1 (x) = a p−2 .
k=0
© \
ª p−1 ¡ ¢
F = y ∈ E , ∀ j ∈ 0, p − 1, e p∗ (u j (y)) = 0 = ker e p∗ ◦ u j .
j =0
¡ ¢
Montrons que la famille de formes linéaires e p∗ ◦ u 0 , e p∗ ◦ u 1 , . . . , e p∗ ◦ u p−1 est
libre. Soit a 0 , a 1 , . . . , a p−1 des scalaires tels que
X
p−1
a j e p∗ ◦ u j = 0E ∗ .
j =0
Alors,
X
p−1
a j u j (x) ∈ E u,x ∩ F = {0E }.
j =0
¡ ¢
Par conséquent, a 0 = a 1 = · · · = a p−1 = 0 car la famille x, u(x), . . . , u p−1 (x) est
libre.
Le sous-espace F est ainsi l’intersection de p hyperplans associées à des formes
linéaires indépendantes donc (de codimension p et) de dimension n − p.
. En conclusion, F est un supplémentaire stable de E u,x . ä
4. Matrices compagnons 71
4. Matrices compagnons
4.1. Définition. La matrice compagnon ou matrice de Frobenius d’un poly-
P
nôme unitaire P = X n − n−1 a X k ∈ K[X ] est la matrice
k=0 k
0 ··· ··· 0 a0
..
1 . . . . a1
. ..
C P = 0 . . . . . . .. . .
.. . . ..
. . . 0 a n−2
0 ··· 0 1 a n−1
4.4. Remarque. L’idée de cette preuve est que si l’on connaît l’action d’une ma-
trice M de C (A) sur le premier vecteur de la base E 1 , alors on la connaît sur les
autres vecteurs de la base puisque, pour tout k ∈ 0, n − 1,
M Ak E1 = Ak M E1.
Montrons par un calcul simple un résultat de similitude pour les matrices com-
pagnons.
5. Polynôme caractéristique 73
[QC P ]i , j = [Q]i , j +1 = b i + j −n .
5. Polynôme caractéristique
5.1. Proposition. Soit P ∈ K[X ] unitaire. Alors, le polynôme caractéristique de la
matrice compagnon de P est le polynôme P .
donne l’expression
0 0 ··· ··· 0 P (λ)
.. ..
−1 λ . . −a 1
.. .. .. .. ..
0 . . . . .
χC P (λ) =
.. ..
.
. .. .. ..
. . . 0 .
. .. ..
.. . . λ −a n−2
0 ··· ··· 0 −1 λ − a n−1
Il suffit alors de développer par rapport à la première ligne pour obtenir
Le mineur ∆k,n est le déterminant d’une matrice diagonale par blocs triangu-
laires : l’un de taille k − 1 avec −X sur la diagonale, l’autre de taille n − k avec
des 1 sur la diagonale. Ainsi, ∆k,n = (−X )k−1 , d’où l’on déduit le résultat pour le
polynôme caractéristique. ä
Démonstration. Il suffit de
¡ considérer la matrice ¢ (qui est une matrice compa-
gnon) de u dans la base x, u(x), . . . , u n−1 (x) pour se ramener au calcul précé-
dent. ä
Un corollaire direct de ce calcul est que tout polynôme unitaire de degré n est
le polynôme caractéristique d’une matrice de taille n × n.
On obtient également le résultat plus profond suivant qui est un cas particulier
du théorème de Cayley & Hamilton traité au chapitre suivant.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap07 chapitre:VI
6. Commentaires et développements 75
Donc,
X
n−1
χu (u)(x) = u n (x) − a k u k (x) = 0E .
k=0
6. Commentaires et développements
6.1. La décomposition de E en somme de sous-espaces caractéristiques met
en évidence les endomorphismes induits par u sur ces sous-espaces, qui sont
quand u est cyclique à leur tour cycliques ! De plus, un sous-espace stable F
par un endomorphisme se découpe bien sur la décomposition de E en sous-
espaces caractéristiques, car les projecteurs sont des polynômes en u, et laissent
donc stable F .
Pour déterminer les sous-espaces stables d’un endomorphisme cyclique, on
est ramené à chercher les sous-espaces stables d’un endomorphisme cyclique u
ayant comme polynôme minimal la puissance d -ième d’un polynôme irréduc-
tible P . L’affirmation est alors que les sous-espaces stables par u sont les sous-
espaces
ker P 0 (u), ker P (u), . . . , ker P d (u).
7. Exercices 77
7. Exercices
7.1. Exercice. Soit u ∈ L (E ), x, y ∈ E tels que les polynômes µu,x et µu,y soient
premiers entre eux. Montrer que E u,x+y = E u,x ⊕ E u,y .
7.2. Exercice. Déterminer une condition nécessaire et suffisante pour qu’une ma-
trice diagonale soit cyclique.
7.3. Exercice. Déterminer une condition nécessaire et suffisante pour qu’un en-
domorphisme nilpotent soit cyclique.
P 7→ P 0 , P 7→ P (X + 1) − P (X ).
▷ Éléments de correction. Une telle rotation R n’est pas une homothétie donc
son polynôme minimal est de degré au moins 2.
Supposons que le polynôme minimal µR soit de degré 2. Alors, 1 est racine de
µR (car 1 est valeur propre avec pour sous-espace propre l’axe de la rotation) et
donc µR admet une autre valeur propre réelle. Cette dernière valeur propre ne
peut être que 1 ou −1 car R conserve la norme (endomorphisme orthogonal).
Ce résultat est contradictoire avec la condition sur l’angle.
En conclusion, le polynôme minimal de R est de degré 3 : R est cyclique. ◁
7.6. Exercice. Montrer que deux matrices A, B ∈ M2 (R) de trace nulle et qui com-
mutent sont proportionnelles.
7.7. Exercice.
1. Soit u un endomorphisme cyclique, x ∈ E tel que E = E u,x et F un sous-
espace stable par u. Montrer qu’il existe un polynôme D diviseur de µu tel
que F = E u,D(u)(x) .
Indication : on pourra considérer l’idéal
© ª
P ∈ K[X ], P (u)(x) ∈ F .
7. Exercices 79
▷ Éléments de correction.
© ª
1. On vérifie rapidement que l’ensemble IF = P ∈ K[X ], P (u)(x) ∈ F est
bien un idéal de K[X ] car F est stable par u. Soit D un générateur de cet
idéal.
. Comme µu ∈ IF , D divise µu .
. Comme D(u)(x) appartient à F (par définition de D) et que F est stable
par u, E u,D(u)(x) ⊂ F .
. Soit y ∈ F et P ∈ K[X ] tel que y = P (u)(x) (qui existe car E = E u,x ).
Effectuons la division euclidienne de P par D : il existe des polynômes Q
et R tels que P = QD + R avec deg R < deg D. Alors, avec le morphisme
d’algèbres associés à u,
¡ ¢
R(u)(x) = P (u)(x) −Q(u) ◦ D(u)(x) = y −Q(u) D(u)(x) ∈ F.
Montrer que, pour tout P ∈ U à coefficients entiers, φ(P ) est également à coeffi-
cients entiers.
Chapitre VII
Théorème de Cayley
& Hamilton
Objectifs du chapitre
— Démontrer le théorème de Cayley & Hamilton.
— Comprendre les conséquences du théorème de Cayley & Hamilton sur
les sous-espaces caractéristiques.
— Explorer les liens entre les différentes multiplicités associées à une va-
leur propre.
1. Énoncé et conséquences
Pour comprendre le rôle important des sous-espaces caractéristiques pour la
réduction, expliquons que le polynôme caractéristique est annulateur.
4. Sous-espaces caractéristiques 83
En identifiant les coefficients, on obtient, pour tout k ∈ 0, n, l’identité matri-
cielle
M k−1 − M k M = a k In .
= M −1 M 0 − M n M n+1 = 0n ,
d’après la convention M −1 = M n = 0n . ä
4. Sous-espaces caractéristiques
4.1. Corollaire. Soit u un endomorphisme de E de polynôme caractéristique
scindé. Alors, E est la somme directe des sous-espaces caractéristiques de u.
En particulier, la dimension d’un sous-espace caractéristique est égale à la mul-
tiplicité algébrique de la valeur propre.
Pour tout i ∈ 1, p, la seule racine du polynôme scindé χui est λi (car, u i annu-
lant (X − λi )mi n’admet que λi comme valeur propre). En utilisant l’unicité de
la décomposition en facteurs irréductible de χu , on obtient deg χui = m i .
On conclut en précisant que, pour tout i ∈ 1, p, deg χui est la dimension du
sous-espace caractéristique associé à λi . ä
5. Multiplicités
Il est temps de comparer les trois notions de multiplicité que nous avons intro-
duites.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap08 chapitre:VII
0 0 0 1
6. Commentaires et développements
6.1. En dimension 2, le théorème de Cayley & Hamilton peut être mis en évi-
dence dès le début d’un cours de calcul matriciel : il suffit de calculer directe-
ment A 2 − (tr A)A.
6. Commentaires et développements 85
en page 19 et en pages 26-27. Cette dernière preuve repose sur l’argument pour
la matrice générale X = (X i , j ) ayant pour coefficients les n 2 indéterminées X i , j ,
qui est diagonalisable, puis sur un argument de spécialisation.
Il suffit de la vérifier pour une matrice diagonale puis pour une matrice diago-
nalisable puis d’exploiter la densité.
6.5. Si l’on dispose d’une preuve du théorème de Cayley & Hamilton ne passant
pas par les endomorphismes cycliques, le calcul du polynôme caractéristique
d’une matrice compagnon C P s’avère immédiat.
On écrit en effet que le polynôme minimal de C P en le dernier vecteur e n de
la base divise le polynôme minimal lequel divise le polynôme caractéristique.
Mais, il est immédiat de donner l’expression du polynôme minimal en le vec-
teur e n , lequel est P , et donc en particulier de degré n. C’est donc le polynôme
caractéristique de C P .
1 É m g (λ) É m a (λ),
1 É m m (λ) É m a (λ).
Alors,
. il y a égalité à droite dans la première si, et seulement si, il y a égalité à gauche
dans la seconde (voir l’exercice VII -7.8) ; si cela se produit pour toutes les va-
leurs propres d’une matrice complexe, alors elle est diagonalisable.
. il y a égalité à gauche dans la première si, et seulement si, il y a égalité à
droite dans la seconde ; si cela se produit pour toutes les valeurs propres d’une
matrice complexe, alors elle est cyclique.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap08 chapitre:VII
7. Exercices
7.1. Exercice. Soit A ∈ M2 (K) de trace non nulle. Montrer qu’une matrice com-
mute avec A si, et seulement si, elle commute avec A 2 .
Le résultat est-il toujours vrai si l’on ôte l’hypothèse sur la trace de A ?
▷ Éléments de correction. . Le sens direct est évident. Pour le sens retour, il suf-
fit de remarquer que, d’après le théorème de Cayley & Hamilton, A ∈ Vect(A 2 , I2 ).
. Le résultat n’est plus vrai comme on peut le voir avec la matrice
µ ¶
0 1
A= .
0 0
7.2. Exercice. Soit A, B ∈ M2 (K). Montrer que la matrice (AB −B A)2 est scalaire.
Alors,
AB + B A = (A + B )2 − A 2 − B 2
= (tr(A + B ))(A + B ) − (tr A)A − (tr B )B + (det A + det B − det(A + B ))I2
= (tr B )A + (tr A)B + (det A + det B − det(A + B ))I2 .
tr M 2 = (tr M )2 − 2 det M .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap08 chapitre:VII
7. Exercices 87
7.4. Exercice.
1. Soit A ∈ Mn (C) nilpotente. Montrer que son indice de nilpotence est infé-
rieur ou égal à n.
2. Soit p et n des entiers tels que 2p −2 Ê n, A ∈ Mn (C) nilpotente d’indice p.
Montrer qu’il n’existe pas de matrice B ∈ Mn (C) telle que B 2 = A.
▷ Éléments de correction.
1. Comme A est nilpotente, elle admet 0 comme unique valeur propre. Le
polynôme caractéristique χ A est scindé dans C[X ], unitaire, de degré n
et ses racines sont les valeurs propres de A. Ainsi, χ A = X n . D’après le
théorème de Cayley & Hamilton, A n = 0n . Par la minimalité de sa défini-
tion, l’indice de nilpotence de A est inférieur ou égal à n.
2. Raisonnons par l’absurde et supposons qu’une telle matrice B existe.
Alors, B 2p = A p = 0n et B 2p−2 = A p−1 6= 0n : l’indice de nilpotence de
B est soit 2p − 1, soit 2p. Dans les deux cas, l’indice de nilpotence est
strictement supérieur à n ce qui contredit le résultat de la question pré-
cédente et achève le raisonnement par l’absurde.
◁
7.5. Exercice. Montrer qu’il n’existe pas de matrice M ∈ M5 (R) de polynôme mi-
nimal µM = (X 2 + 1)2 .
▷ Éléments de correction. Supposons qu’une telle matrice M existe. Son poly-
nôme caractéristique χM est de degré 5, donc admet une racine réelle ; par
conséquent, M admet une valeur propre réelle.
Comme toutes les valeurs propres sont racines du µM , il faudrait que µM ad-
mette une racine réelle ce qui n’est pas le cas. ◁
7.6. Exercice. Soit M ∈ Mn (R). Montrer que µM et χM ont les mêmes facteurs
irréductibles.
▷ Éléments de correction. . Le polynôme χM est annulateur de M d’après le
théorème de Cayley & Hamilton donc µM divise χM ; ainsi, les facteurs irré-
ductibles de µM sont des facteurs irréductibles de χM .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap08 chapitre:VII
Chapitre VIII
Diagonalisation
Objectifs du chapitre
— Maîtriser les critères de diagonalisation et choisir celui qui est adapté à
un problème donné.
— Comprendre l’importance de l’hypothèse de commutation pour la co-
diagonalisation.
1. Définitions
Comme les vecteurs colonnes d’une matrice sont les images des vecteurs de
la base, si la matrice M est diagonale, alors la base canonique est une base de
vecteurs propres de l’endomorphisme canoniquement associé.
90 VIII. Diagonalisation
1.3. Exemple. Si une matrice M est diagonalisable et n’admet qu’une seule va-
leur propre, alors M est scalaire (car elle est semblable à la matrice scalaire).
En particulier, la seule matrice à la fois nilpotente et diagonalisable est la ma-
trice nulle.
2. Critères de diagonalisation
L’objectif de ce paragraphe est d’obtenir des conditions nécessaires et/ou suf-
fisantes pour la diagonalisabilité d’un endomorphisme. Commençons par un
résultat simple.
2.2. Exemple. Une matrice triangulaire avec des coefficients diagonaux deux à
deux distincts est diagonalisable (car ses valeurs propres sont précisément ces
coefficients diagonaux).
2. Critères de diagonalisation 91
En effet, pour tout vecteur propre x, il existe i ∈ 1, m tel que x soit associé à la
valeur propre λi et donc
Y
m
P (u)(x) = (u − λk IdE )(x)
k=1
³Ym ´
= (u − λk IdE ) ◦ (u − λi IdE )(x) = 0E .
k=1
k6=i
92 VIII. Diagonalisation
P (G A )(M ) = P (A)M = 0n ,
2. Critères de diagonalisation 93
Remarquons en effet que, pour tout P ∈ K[X ], les calculs sur une matrice dia-
gonale par blocs donnent
µ ¶
P (A) 0n
P (B ) = .
0n P (A)
Ainsi, P (B ) = 02n si, et seulement si, P (A) = 0n . Les deux matrices A et B ad-
mettent donc les mêmes polynômes annulateurs, donc admettent simultané-
ment un polynôme annulateur scindé à racines simples.
94 VIII. Diagonalisation
3. Critère de co-diagonalisation
3.1. Définition. Une famille finie d’endomorphismes (u 1 , . . . , u N ) d’un espace
vectoriel E est co-diagonalisable s’il existe une base de E dans laquelle chacun
des endomorphismes u k pour k ∈ 1, N admet une matrice diagonale.
3.2. Remarque. D’après les résultats sur les sous-espaces stables déjà montrés,
on sait que les sous-espaces propres d’un endomorphisme sont stables pour
tous les endomorphismes qui commutent avec lui.
En fait, ce résultat s’inscrit dans un cadre plus général et la commutativité entre
endomorphismes diagonalisables est une condition nécessaire et suffisante pour
la co-diagonalisabilité.
4. Commentaires et développements 95
est diagonalisable.
D’après l’exemple VIII -2.9, les deux endomorphismes de Mn (K)
G A : M 7→ AM , et D B : M 7→ M B
sont diagonalisables ; or, ces endomorphismes commutent, car pour toute ma-
trice M ∈ Mn (K),
G A ◦ D B (M ) = D B ◦ G A (M ) = AM B.
4. Commentaires et développements
4.1. Il existe d’autres critères de diagonalisabilité comme le théorème spectral
pour les matrices symétriques réelles ; toutefois, ce résultat relève de l’algèbre
bilinéaire même si sa conclusion semble le faire appartenir au domaine de l’al-
gèbre linéaire. On le développera dans le chapitre X.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap09 chapitre:VIII
96 VIII. Diagonalisation
est « diagonalisable au sens de la similitude » (car ses valeurs propres sont dis-
tinctes), mais pas « diagonalisable au sens de la congruence » (car elle n’est pas
symétrique).
On peut facilement montrer qu’il existe une base de Mn (R) ou de Mn (C) faite
de matrices diagonalisables (on peut remarquer à cet effet que les matrices à
valeurs propres distinctes forment un ouvert).
5. Exercices
5. Exercices 97
5.3. Exercice. Déterminer une condition nécessaire et suffisante sur les com-
plexes a 1 , . . . , a n , b 1 , . . . , b n pour la diagonalisabilité de la matrice
0 . . . 0 a1
.. .. ..
.
M = . . ∈ Mn+1 (K).
0 . . . 0 an
b1 ... bn 0
98 VIII. Diagonalisation
5.4. Exercice. Exhiber une base de l’hyperplan de M3 (C) des matrices de trace
nulle qui soit constituée de matrices diagonalisables.
▷ Éléments de correction. Considérons les huit matrices suivantes de cet hyper-
plan :
1 0 0 0 1 0 1 1 0 1 0 1
0 −1 0 , 1 0 0 , 0 2 0 , 0 2 0 ,
0 0 0 0 0 0 0 0 −3 0 0 −3
1 0 0 1 0 0 1 0 0 1 0 0
0 2 1 , 1 2 0 , 0 2 0 , 0 2 0 .
0 0 −3 0 0 −3 1 0 −3 0 1 −3
On vérifie que chacune de ces matrices est diagonalisable car elle admet trois
valeurs propres distinctes, puis que la famille de ces huit matrices est libre donc
une base de l’hyperplan considéré. ◁
5.5. Exercice. Soit a 1 , . . . , a n−1 ∈ K tous non nuls. Montrer que la matrice « sous-
triangulaire »
? ... ... ... ?
..
a 1 . . . .
. . ..
M = 0 .. .. . ∈ Mn (K)
.. . . . .
. .. .. .. ..
0 . . . 0 a n−1 ?
est diagonalisable si, et seulement si, elle admet n valeurs propres distinctes.
▷ Éléments de correction. Le sens retour est évident.
Pour le sens direct, remarquons que, pour tout λ ∈ K, rg(M − λIn ) Ê n − 1 (car la
matrice déduite de M −λIn en enlevant la première ligne et la dernière colonne
est triangulaire à coefficients diagonaux non nuls donc inversible) et donc que
les sous-espaces propres sont de dimension 1. Pour que M soit diagonalisable,
il faut donc qu’il y ait n valeurs propres distinctes.
Cette matrice « sous-triangulaire » est cyclique (le sous-espace cyclique engen-
dré par le premier vecteur de la base canonique de Mn,1 (K) est Mn,1 (K)).
Un cas particulier de cet exercice est le critère suivant : la matrice
a 0 0 0
1 b 0 0
0 1 c 0 ∈ M4 (K)
0 0 1 d
est diagonalisable si, et seulement si, les scalaires a , b , c et d sont deux à deux
distincts. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap09 chapitre:VIII
5. Exercices 99
5.10. Exercice. Soit u un endomorphisme d’un C-espace vectoriel tel que l’endo-
morphisme u 2 est diagonalisable. Montrer que u est diagonalisable si, et seule-
ment si, ker u = ker u 2 .
▷ Éléments de correction. L’endomorphisme u 2 est diagonalisable donc son po-
lynôme minimal µu 2 est scindé à racines simples.
(⇒) Si ker u 6= ker u 2 , alors le sous-espace propre associé à la valeur 0 n’est pas
égal au sous-espace caractéristique associé à 0 : u n’est pas diagonalisable.
(⇐) Comme u 2 est diagonalisable, il existe Q scindé à racines simples vérifiant
Q(0) 6= 0 tel que XQ(X ) annule u 2 , c’est-à-dire u 2 ◦ Q(u 2 ) = 0L (E ) .
Alors, pour tout x ∈ E , Q(u 2 )(x) ∈ ker u 2 ; or ker u 2 = ker u par hypothèse donc
Q(u 2 )(x) ∈ ker u soit u ◦ Q(u 2 )(x) = 0E .
Ainsi, XQ(X 2 ) est un polynôme annulateur de u. Il suffit de remarquer que ce
polynôme est scindé à racines simples (car les racines complexes de Q sont
deux à deux distinctes et non nulles) pour conclure avec le critère algébrique
de diagonalisabilité que u est diagonalisable.
Un démonstration alternative consiste à montrer que, pour tout λ ∈ C∗ de ra-
cines carrées distinctes µ et µ0 , le sous-espace propre de u 2 associé à λ se dé-
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap09 chapitre:VIII
5. Exercices 101
Une version en calcul matriciel de cet exercice fait l’objet de l’exemple III -2.1.
On remarque que tous ces sous-espaces stables sont cycliques car Vect(e i )i ∈I
P
est le sous-espace cyclique associé au vecteur i ∈I e i . Si l’on considère une ma-
trice diagonale avec des coefficients non distincts, on peut montrer que le sous-
espace associé à une valeur propre multiple est stable sans être cyclique. ◁
5. Exercices 103
5.18. Exercice. Soit G un sous-groupe fini abélien de GLn (C). Montrer que toutes
les matrices de G sont co-diagonalisables.
5.19. Exercice. Soit G un sous-groupe fini de GLn (R) composé de matrices dia-
gonalisables sur R.
1. Montrer que G est abélien.
2. En déduire que l’ordre de G est inférieur ou égal à 2n .
▷ Éléments de correction.
1. . Soit A ∈ G. Comme G est fini, on dispose de m tel que A m = In . Ainsi,
les valeurs propres de A sont des racines m-ièmes de l’unité. Or, par hy-
pothèse, elles sont réelles donc appartiennent à {±1}. Par suite A 2 = In .
. Pour toutes matrices A, B ∈ G, (AB )2 = In donc en multipliant par A à
gauche et par B à droite : B A = AB . Ainsi, G est abélien.
2. Les matrices de G sont diagonalisables par hypothèse et commutent
d’après la première question, donc sont co-diagonalisables. Il existe donc
une matrice U ∈ GLn (R) telle que, pour tout M ∈ G, P M P −1 est diago-
nale à coefficients diagonaux 1 ou −1 : il y a 2n telles matrices diagonales
donc l’ordre de G est majoré par 2n .
◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX
Chapitre IX
Trigonalisation
Objectifs du chapitre
— Maîtriser le critère de trigonalisation.
— Savoir utiliser la trigonalisation pour retrouver les fonctions symétriques
des racines.
1. Critères de trigonalisation
Commençons par rappeler le cas simple des endomorphismes nilpotents.
1.1. Proposition. Tout endomorphisme nilpotent admet dans une base adaptée
une matrice triangulaire strictement supérieure.
1.2. Théorème. Soit u une endomorphisme d’un espace vectoriel E . Alors, u est
trigonalisable si, et seulement si, il admet un polynôme annulateur scindé.
Démonstration. (⇒) Si l’endomorphisme u est trigonalisable, il existe une base
dans laquelle sa matrice est triangulaire. Le polynôme caractéristique χu cal-
culé dans cette base est égal au produit des termes X − a i ,i où les a i ,i sont les
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX
1.3. Corollaire. Soit u une endomorphisme d’un espace vectoriel E . Alors, u est
trigonalisable si, et seulement si, son polynôme minimal µu est scindé.
2. Critère de co-trigonalisation
Utilisons ce lemme pour établir les formules de Newton qui relient fonctions
symétriques et somme de Newton.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX
Comme dans l’exemple précédent, ces formules résulteront d’un judicieux cal-
cul de trace avec le théorème de Cayley & Hamilton.
X
k
a n−k+ j s j = (n − k)a n−k .
j =0
X
n−k X
n−k−1
Q k − XQ k+1 = a k+ j X j − a k+ j +1 X j +1
j =0 j =0
X
n−k X
n−k
= a k+ j X j − a k+ j X j = a k .
j =0 j =1
Or,
¡ ¢ X
n 1
P (x) tr (xIn −C P )−1 = P (x) = P 0 (x).
j =1 x − λj
ä
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX
3.7. Proposition. Soit N ∈ Mn (C). Alors, N est nilpotente si, et seulement si, pour
¡ ¢
tout k ∈ 1, n, tr N k = 0.
3.8. Théorème de Kronecker. Soit P ∈ Z[X ] unitaire dont les racines complexes
sont de module inférieur ou égal à 1. Alors, les racines non nulles de P sont des
racines de l’unité.
4. Commentaires et développements
4.1. La théorie de la dimension fait peu de cas des propriétés propres du corps
de base. Il en est de même des questions relatives à l’étude des systèmes li-
néaires. La réduction, quant à elle, dépend de la nature du corps, notamment
à travers l’existence ou non dans K de valeurs propres. L’arithmétique du corps
intervient essentiellement peu, et se limite à la nature des polynômes irréduc-
tibles. Quand on cherche à réduire une matrice, et plus précisément à la trigo-
naliser, la scindabilité ou non du polynôme caractéristique (ou ce qui revient
au même du polynôme minimal) est la seule donnée essentielle dont il importe
de tenir compte.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX
4.4. L’ensemble des matrices trigonalisables réelles est un fermé : c’est l’adhé-
rence de l’ensemble des matrices diagonalisables. Cela résulte intuitivement
de ce que le polynôme caractéristique dépend continûment des coefficients de
la matrice et que la limite d’une suite de polynômes scindés est scindée.
Cela met en évidence malgré tout l’importance de travailler avec le polynôme
caractéristique, et que l’usage du polynôme minimal n’est pas adaptée à cette
situation puisqu’il ne définit pas une application continue.
5. Exercices
5.1. Exercice. Soit A ∈ Mn (C) de valeurs propres λ1 , λ2 , . . . , λn ∈ C et P ∈ C[X ].
Déterminer le polynôme caractéristique χP (A) de la matrice P (A).
▷ Éléments de correction. La matrice complexe A est semblable à une matrice
triangulaire dont les coefficients diagonaux sont λ1 , λ2 , . . . , λn . Par conséquent,
la matrice P (A) est semblable à une matrice triangulaire dont les coefficients
diagonaux sont P (λ1 ), P (λ2 ), . . . , P (λn ). En conclusion,
Y
n
χP (A) = (X − P (λk )).
k=1
◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX
5. Exercices 113
n = tr A = b + c( j + j 2 ) = b − c.
Or, a + b + 2c = n (la somme des multiplicités est n). Combinant ces deux ré-
sultats, on obtient c = 0, b = n puis a = 0. Ainsi, la seule valeur propre de A
est 1.
Repartons de la relation P (A) = 0n et simplifions successivement par les ma-
trices inversibles A 2 , A − j In et A − j 2 In (car les complexes 0, j et j 2 ne sont pas
valeurs propres) : on obtient finalement A = In . ◁
5.4. Exercice.
1. Montrer que l’ensemble des matrices admettant n valeurs propres dis-
tinctes est dense dans Mn (C).
▷ Éléments de correction.
1. Soit A ∈ Mn (C). Comme A est trigonalisable, il existe P ∈ GLn (C) telle
que P AP −1 est triangulaire. Par ailleurs, pour p suffisamment grand, la
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX
matrice
P AP −1 + p1 diag(1, 2, . . . , n)
5.5. Exercice. Soit A ∈ Mn (C) telle que tr(A) = tr(A 2 ) = · · · = tr(A n−1 ). Montrer
que A est diagonalisable ou nilpotente.
▷ Éléments de correction. D’après les formules des sommes de Newton et les
relations coefficients-racines, le polynôme caractéristique est
χ A = X n + (−1)n det(A).
Si det(A) = 0, le théorème de Cayley & Hamilton assure que A est nilpotente.
Sinon, le polynôme caractéristique est scindé à racines simples donc A est dia-
gonalisable (et d’ailleurs, toutes les valeurs propres ont le même module). ◁
5. Exercices 115
Y
n Y
n ¡
(p) (p) ¢ Y
n Y
n ¡ ¢
χad A = lim X − (λk − λl ) = X − (λk − λl ) .
p
k=1 l =1 k=1 l =1
▷ Éléments de correction.
1. . Si α = 0, c’est la proposition IX -2.2.
. Supposons α 6= 0. Une récurrence donne que, pour tout k ∈ N,
A k B − B A k = αk A k .
ÃB − B Ã = α Ã.
◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX
5. Exercices 117
5.9. Exercice. Soit A, B ∈ Mn (C). Notons E l’ensemble des X ∈ Mn,1 (C) tels que,
¡ ¢
pour tous j , k Ê 1, X ∈ ker A j B k − B k A j . Montrer que A et B admettent un
vecteur propre commun si, et seulement si, E 6= {0n,1 }.
= A j +1 B k X − B k A j +1 X car B k AX = AB k X puisque X ∈ E ,
= 0n,1 .
¡ ¢
Ainsi, AX ∈ ker A j B k − B k A j pour tous j , k ∈ N∗ et donc AX ∈ E .
. Par symétrie, le sous-espace E est aussi stable par B .
. Soit u et v les endomorphismes canoniquement associés à A et B puis ũ
et ṽ les endomorphismes de E induits par u et v (qui sont correctement définis
d’après les propriétés de stabilité ci-dessus).
Pour tout X ∈ E , X ∈ ker(AB − B A) donc AB X = B AX . Par conséquent, les en-
domorphismes ũ et ṽ commutent et ils sont donc co-trigonalisables. Ainsi, il
existe un vecteur propre commun à ũ et ṽ (car E n’est pas réduit au sous-espace
nul) donc à u et v. En considérant le vecteur colonne associé à ce vecteur, on
obtient un vecteur propre commun à A et B . ◁
N1 N2 · · · Nn = P T1 T2 · · · Tn P −1 = 0n .
5.11. Exercice. Montrer que tout hyperplan de M3 (C) contient au moins cinq
matrices nilpotentes linéairement indépendantes.
Chapitre X
Objectifs du chapitre
On considère ici connus les rudiments sur les espaces euclidiens, R-espaces
vectoriels de dimension finie munis d’un produit scalaire, de l’existence des
bases orthonormées, des calculs relativement à celles-ci, de la manipulation
des projections orthogonales... pour se concentrer sur des résultats de réduc-
tion d’endomorphismes particuliers d’un espace euclidien.
— Comprendre la réduction des isométries/endomorphismes orthogonaux.
— Maîtriser le théorème spectral et ses applications directes.
〈x|u(y)〉 = 〈u ∗ (x)|y〉.
¡ ¢∗
. Pour tout automorphisme u de E , u −1 = (u ∗ )−1 .
〈u ∗ (x)|y〉 = 〈x|u(y)〉 = 0,
2. Endomorphismes orthogonaux
2.1. Définition. Un endomorphisme u d’un espace euclidien E est orthogonal
s’il vérifie l’une des conditions équivalentes suivantes :
1. l’endomorphisme u préserve la norme euclidienne.
2. l’endomorphisme u préserve le produit scalaire.
3. l’endomorphisme u est inversible d’inverse u ∗ .
(1. ⇒ 2.) Par hypothèse, les formes quadratiques x 7→ ku(x)k2 et x 7→ kxk2 sont
égales ; d’après les identités de polarisation, les formes bilinéaires associées
sont elles aussi égales.
(2. ⇒ 3. ) La condition de préservation du produit scalaire devient avec la défi-
nition de l’adjoint : pour tous x, y ∈ E ,
〈u ∗ ◦ u(x)|y〉 = 〈x|y〉.
Par conséquent, u ∗ ◦ u(x) = x pour tout x ∈ E .
(3. ⇒ 1.) Pour tout x ∈ E ,
kxk2 = 〈x|x〉 = 〈u ∗ ◦ u(x)|x〉 = 〈u(x)|u(x)〉 = ku(x)k2 .
ä
〈u(x)|u(y)〉 = 〈x|y〉 = 0.
Donc u(y) ∈ u(F )⊥ . Or, u(F ) ⊂ F et u bijective, donc u(F ) = F . Ainsi, u(y) ∈ F ⊥ .
En conclusion, F ⊥ est stable par u. ä
〈x|u(y)〉 = 〈u(x)|y〉.
3.2. Proposition. Tout projecteur orthogonal d’un espace euclidien E est symé-
trique.
〈x F + x F ⊥ |p(y F + y F ⊥ )〉 = 〈x F + x F ⊥ |y F 〉 = 〈x F |y F 〉,
〈p(x F + x F ⊥ )|y F + y F ⊥ 〉 = 〈x F |y F + y F ⊥ 〉 = 〈x F |y F 〉.
Démonstration. Ce résultat est une simple conséquence du fait que les matrices
de u et u ∗ en base orthonormée sont transposées (Proposition X -1.5). ä
3.6. Exemple. Déterminons une propriété analogue pour les valeurs propres
d’une matrice A ∈ An (R). Soit λ ∈ C une valeur propre de A et X ∈ Mn,1 (C) un
vecteur propre associé. Alors,
> >
λX X = X AX = −X > AX = −λX > X .
>
Ainsi, λ = −λ (car X X = X > X > 0) : les valeurs propres complexes de A sont
des imaginaires purs (et donc la seule valeur propre réelle possible est 0).
3.9. Théorème spectral. Soit S ∈ S n (R). Alors, il existe une matrice O ∈ O n (R) et
des réels λ1 , . . . , λn tels que S = O > diag(λ1 , . . . , λn )O.
3.10. Remarque. Remarquons que ce résultat n’est plus vrai pour les matrices
symétriques complexes comme par exemple pour la matrice complexe sui-
vante qui admet pour seule valeur propre 0 donc n’est pas diagonalisable :
µ ¶
1 i
.
i −1
4. Décomposition polaire
4.1. Définition. Une matrice S ∈ S n (R) est positive, respectivement définie po-
sitive, si la forme bilinéaire symétrique (X , Y ) 7→ X > SY est positive, respective-
ment définie positive.
L’ensemble des matrices symétriques positives, respectivement définies posi-
tives, est noté S n+ (R), respectivement S n++ (R).
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X
¡ ¢
4.2. Remarque. Soit S ∈ S n++ (R). Alors, (X , Y ) 7→ X > SY , et (A, B ) 7→ tr A > SB
définissent des produits scalaires sur Mn,1 (R) et sur Mn (R) respectivement :
la bilinéarité vient de la bilinéarité du produit matriciel et de la linéarité de la
trace ; la symétrie repose sur la symétrie de S et le caractère défini positif de ces
applications provient de la propriété de même nom pour S.
4.3. Proposition. Soit S ∈ S n (R). Alors, S est positive, respectivement définie po-
sitive, si, et seulement si, ses valeurs propres sont toutes positives, respectivement
strictement positives.
Écrivons la démonstration dans la cas d’une matrice positive : l’autre cas est
analogue.
Démonstration. Soit S ∈ S n (R) et S = O > diag(λ1 , . . . , λn )O une diagonalisation
obtenue avec le théorème spectral X -3.9. Alors,
4.5. Proposition. Soit S ∈ S n+ (R). Alors, il existe une unique R ∈ S n+ (R) telle que
S = R 2 . De plus, si S ∈ S n++ (R), alors R ∈ S n++ (R).
Démonstration. . D’après le théorème spectral, il existe une matrice O ∈ O n (R)
et des réels positifs λ1 , . . . , λn tels que
4.6. Décomposition polaire. Soit M ∈ GLn (R). Alors, il existe une unique dé-
composition M = OS avec O ∈ O n (R) et S ∈ S n++ (R).
X > M > M X = kM X k2 Ê 0,
et ce terme est nul si, et seulement si, M X = 0n,1 donc X = 0n,1 par inversibilité
de M .
Avec le résultat précédent pour M > M ∈ S n++ (R), il existe une unique matrice
S ∈ S n++ (R) telle que M > M = S 2 . En multipliant à gauche et à droite par la
matrice symétrique S −1 on en déduit que la matrice O = M S −1 vérifie O > O = In
donc O est orthogonale. ä
4.7. Remarque. Cette décomposition est appelée « polaire » par analogie à l’écri-
ture des complexes non nuls sous la forme du produit d’un réel strictement
positif par une exponentielle complexe. Pour bien le comprendre, assimilons
un complexe a + i b avec a, b ∈ R à la similitude s : z 7→ (a + i b)z du R-espace
vectoriel C ; dans la base canonique, la matrice de s est
µ ¶
a −b
= OS,
b a
5.4. Lemme. Soit u un endomorphisme normal d’un plan euclidien de base or-
thonormée B qui n’admet pas de valeur propre réelle. Alors, il existe a, b ∈ R tels
que la matrice de u dans B est de la forme
µ ¶
a −b
.
b a
Démonstration. Notons cette matrice
µ ¶
a c
.
b d
La relation u ◦ u ∗ = u ∗ ◦ u se réécrit avec les conditions (b − c)(a − d ) = 0 et
b 2 = c 2 . Ce système est satisfait si b = c (mais ce cas est impossible car, alors, la
matrice serait symétrique donc diagonalisable sur R) ou si b = −c et a = d . ä
5.6. Proposition. Soit A ∈ Mn (R) normale. Alors, il existe O ∈ O n (R) telle que la
matrice O AO > = O AO −1 est diagonale par blocs avec des blocs parmi ceux de la
forme λIp avec λ ∈ R ou de la forme
µ ¶
a −b
b a
avec a ∈ R et b ∈ R∗ .
On retrouve les cas particuliers déjà traités des matrices orthogonales ou symé-
triques. Voici un autre cas particulier intéressant.
5.7. Corollaire. Soit A ∈ An (R). Alors, il existe O ∈ O n (R) telle que la matrice
O AO > = O AO −1 est diagonale par blocs avec des blocs parmi ceux de la forme 0p
ou de la forme
µ ¶
0 −a
a 0
avec a ∈ R∗ . En particulier, le rang de la matrice A est pair.
5.8. Proposition. Soit A ∈ Mn (R). Alors, A est normale si, et seulement si, il existe
un polynôme P ∈ R[X ] tel que A > = P (A).
Démonstration. (⇐) Le sens retour est immédiat : si la matrice A > est un poly-
nôme en A, elle commute avec A.
(⇒) . Remarquons tout d’abord que pour le bloc
µ ¶
a −b
S a,b =
b a
Un polynôme P ∈ R[X ] vérifie A > = P (A) si, et seulement si, il vérifie la condi-
tion analogue pour chacun des blocs de la réduite. D’après les deux premiers
points, cette conditions équivaut à un système de congruences. On remarque
que les différents modulos sont deux à deux premiers entre eux (comparer par
exemple les racines complexes de ces polynômes).
D’après le théorème des restes chinois, il existe un polynôme P ∈ R[X ] qui sa-
tisfait l’ensemble de ces congruences donc qui vérifie A > = P (A). ä
6. Commentaires et développements
6.1. Un espace hermitien E est un C-espace vectoriel de dimension finie muni
d’un produit scalaire hermitien, c’est à dire d’une application (x, y) 7→ 〈x|y〉 à
symétrie hermitienne (c’est-à-dire telle que 〈x|y〉 = 〈y|x〉), linéaire en la pre-
mière variable, semi-linéaire en la seconde, et définie positive. On définit en-
suite, comme dans le cas réel, la norme associée au produit scalaire et les dif-
férentes notions d’orthogonalité. Dans ce qui suit, l’expression base orthonor-
mée désigne une base orthonormée pour le produit scalaire hermitien.
Étant donné un espace hermitien E , on définit l’adjoint u ∗ d’un endomor-
phisme u de E par la relation
∀x, y ∈ E , 〈x|u(y)〉 = 〈u ∗ (x)|y〉.
>
La matrice en base orthonormée de l’adjoint u ∗ est alors M ∗ = M , la transpo-
sée de la conjuguée de la matrice M de u dans cette base.
6.2. Le groupe qui gère la géométrie d’un espace hermitien E est le groupe
unitaire, composé des endomorphismes u ∈ L (E ) vérifiant u◦u ∗ = u ∗ ◦u = IdE .
On vérifie immédiatement qu’un endomorphisme est unitaire si, et seulement
si, il satisfait l’une des conditions équivalentes suivantes
— il conserve le produit scalaire hermitien,
— il conserve la norme hermitienne,
— il transforme une base orthonormée en base orthonormée,
— sa matrice M en base orthonormée satisfait la relation M M ∗ = In (ou de
manière équivalente M ∗ M = In ).
6.3. Le théorème de Schur exprime que toute matrice de Mn (C) est trigonali-
sable en base orthonormée. Précisons les résultats de réduction pour les diffé-
rentes matrices considérées dans le cas complexe.
— Une matrice M est hermitienne, c’est-à-dire M ∗ = M , si, et seulement
si, elle est diagonalisable en base orthonormée avec des valeurs propres
réelles.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X
6.4. L’action du groupe unitaire par multiplication à gauche sur Mn (C) est fa-
cile à caractériser : deux matrices M et N appartiennent à la même orbite si, et
seulement si, M ∗ M = N ∗ N .
En particulier, une matrice M est normale si, et seulement si, M et M ∗ appar-
tiennent à la même orbite pour cette action.
Rappelons que les orbites de l’action du groupe linéaire par multiplication à
gauche sur Mn (C) sont caractérisées par le noyau.
7. Exercices
7.1. Exercice. Soit u un endomorphisme d’un espace euclidien E . Montrer que
ker u ∗ = (im u)⊥ et im u ∗ = (ker u)⊥ .
x ∈ ker u ∗ ⇔ u ∗ (x) = 0E
⇔ ∀y ∈ E , 〈u ∗ (x)|y〉 = 0
⇔ ∀y ∈ E , 〈x|u(y)〉 = 0
⇔ x ∈ (im u)⊥ .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X
7. Exercices 133
puis, avec le résultat de cet exercice, que ker u et im u sont des supplémen-
taires orthogonaux. Cela entraîne classiquement que 0 est valeur propre de u
avec la multiplicité minimale 1. On peut alors poursuivre en remarquant que,
pour tout λ ∈ R, u − λIdE est normal et obtenir le même résultat pour toutes les
valeurs propres (réelles). ◁
▷ Éléments de correction.
1. Soit X ∈ Vk un vecteur unitaire. Écrivons ses coordonnées dans la base
P
orthonormée (X 1 , . . . , X k ) : X = kj=1 α j X j . Alors,
X
k X
k
X > AX = αi α j X i > AX j
i =1 j =1
X
k X
k
= αi α j λ j X i > X j
i =1 j =1
X
k
= α2j λ j É λk kX k2 = λk .
j =1
⊥
. Soit V ∈ E k . L’orthogonal Vk−1 est de dimension n−dimVk−1 = n−k+1.
⊥
Par conséquent, V et Vk−1 ne sont pas en somme directe. Considérons X
⊥ ⊥
vecteur unitaire dans V ∩Vk−1 . Comme Vk−1 = Vect(X k , . . . , X n ), un calcul
analogue à celui de la première question donne
X > AX Ê λk kX k2 = λk ,
et donc, © ª
max X > AX , X ∈ V, kX k = 1 Ê λk .
En conclusion,
© ª
λk = min max X > AX , X ∈ V, kX k = 1 .
V ∈E k
◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X
7. Exercices 135
7.5. Exercice. Soit S ∈ S n++ (R). Montrer que S −1 est symétrique définie positive
puis que, pour tout X ∈ Mn,1 (R), kX k4 É X > S X · X > S −1 X .
= X > S X · X > S −1 X .
◁
7.6. Exercice. Soit S ∈ S n (R) de valeurs propres λ1 É · · · É λn . Montrer que
X
n X
n X
n
[S]2i , j = λ2k .
i =1 j =1 k=1
◁
7.7. Exercice. Déterminer les matrices de Mn (R) nilpotentes et antisymétriques.
▷ Éléments de correction. Pour une telle matrice A ∈ Mn (R), A 2 est symétrique
et nilpotente donc diagonalisable et nilpotente. Ainsi, A 2 = 0n . On conclut alors
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X
7.8. Exercice. Soit A ∈ Mn (R) nilpotente telle que A > A = A A > . Montrer que A
est la matrice nulle.
▷ Éléments de correction.
1. Vérifions les conditions. D’une part d’après le théorème de Pythagore,
° ° ° ° ° °
° Xp±Y °2 ° pX °2 ° pY °2 1
° ° = ° ° + ° ° = + 12 = 1.
2 2 2 2
D’autre part, d’après une identité remarquable,
D ¯ −Y E °
+Y ¯ Xp
Xp
° ° °
° °2 ° °2
= ° pX ° − ° pY ° = 0.
2 2 2 2
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X
7. Exercices 137
+Y
2. . Soit (X , Y ) ∈ A . Posons U = Xp
et V = Xp−Y . En inversant ces rela-
2 2
Up+V
tions, on obtient X = et Y = Up−V puis
2 2
Alors, S est clairement une matrice symétrique et, pour tout Y ∈ Mn,1 (R),
X
k ¡ ¢2
Y > SY = Y > X l Ê 0.
l =1
(⇐) Soit S ∈ S n+ (R) de rang k telle que AS = S A > . D’après le théorème spectral,
on dispose de O ∈ O n (R) et de k réels positifs λ1 , . . . , λk tels que
7.12. Exercice. Soit A ∈ Mn (R). Montrer que A est diagonalisable si, et seulement
si, il existe S ∈ S n++ (R) et S 0 ∈ S n (R) telles que A = SS 0 .
R −1 AR = R −1 R 2 S 0 R = RS 0 R.
7. Exercices 139
7.14. Exercice. Soit p un projecteur d’un espace euclidien E qui est un endomor-
phisme normal. Montrer que p est un projecteur orthogonal, c’est-à-dire associé
à une décomposition en somme orthogonale.
7.15. Exercice. Soit A ∈ Mn (R). Montrer que A est normale si, et seulement si, il
existe O ∈ O n (R) telle que A > = O A.
Chapitre XI
Réduction de Jordan
Objectifs du chapitre
— Comprendre la décomposition de Jordan & Dunford, en particulier le ca-
ractère polynomial de cette décomposition.
— Savoir construire et exploiter les tableaux de Young d’un endomorphisme
nilpotent.
— Caractériser la similitude avec la réduction de Jordan.
est A = I3 + N avec
0 1 0
N = 0 0 1 .
0 0 0
0 0 0 2
est diagonalisable, car elle admet trois valeurs propres distinctes (qui se lisent
sur la diagonale de cette matrice triangulaire), donc est sa propre décomposi-
tion de Jordan & Dunford : A = A + 0n .
Nous allons établir que toute matrice nilpotente admet une unique (à permuta-
tion des blocs près) écriture sous la forme d’une diagonale par blocs de Jordan.
Commençons par l’unicité.
2.3. Proposition. Soit u un endomorphisme (nilpotent) tel qu’il existe des entiers
d 1 = deg µu Ê d 2 Ê · · · Ê d r et une base dans laquelle la matrice de u est diago-
nale par blocs avec les blocs J d1 , . . . , J dr . Alors, pour tout k ∈ N∗ , le nombre de
blocs de Jordan de taille k de u, c’est-à-dire, le nombre d’indices j ∈ 1, r tels que
d j = k, est
2 dim ker u k − dim ker u k−1 − dim ker u k+1 .
Démonstration. Calculons, pour tout k É d 1 , le rang de la puissance k-ième de
la matrice diagonale par blocs avec les blocs J d1 , . . . , J dr : il s’agit donc du rang
de la matrice diagonale par blocs avec les blocs J dk , . . . , J dk qui est d’après la
1 r
remarque précédente
Xr
(d j − k)+ .
j =1
Alors, la quantité ∆k = 2 dim ker u k − dim ker u k−1 − dim ker u k+1 vaut
¡ ¢ ¡ ¢ ¡ ¢
∆k = rg u k+1 + rg u k−1 − 2 rg u k
X
r ¡ ¢
= (d j − k − 1)+ + (d j − k + 1)+ − 2(d j − k)+ .
j =1
Cette preuve est efficace, mais elle dissimule un aspect important : le lien avec
la suite des noyaux itérés. Donnons une seconde démonstration plus explicite
¡ ¢
sur ce point. Rappelons que la suite ker u k k est strictement croissante puis
stationnaire à partir d’un rang noté p (l’indice de nilpotence). Commençons la
construction de la base avec le lemme suivant.
2.6. Remarque. Essayons de voir les différences entre ces deux preuves à l’aide
d’une matrice semblable à la réduite de Jordan diag(J 3 , J 3 , J 2 ) ∈ M8 (C).
. Dans la première preuve, on commence par construire un sous-espace cy-
clique maximal c’est-à-dire par déterminer les vecteurs de la base de réduction
correspondant à l’un des plus « gros » blocs de taille 3 ; encadrons les colonnes
correspondantes dans la matrice réduite.
0 1 0 0 0 0 0 0
0 0 1 0 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 1 0 0 0
.
0 0 0 0 0 1 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 1
0 0 0 0 0 0 0 0
Ensuite, on ajoute les images des vecteurs déjà choisis (qui correspondent ici
aux colonnes 2 et 5) et l’on complète en une base d’un supplémentaire de ker u
dans ker u 2 (qui donne la colonne 8).
0 1 0 0 0 0 0 0
0 0 1 0 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 1 0 0 0
.
0 0 0 0 0 1 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 1
0 0 0 0 0 0 0 0
2.8. Exemple. Les tableaux de Young à une seule ligne ou une seule colonne
correspondent respectivement aux classes de similitude d’un bloc de Jordan et
de la matrice nulle.
2.9. Exemple. Le tableau de Young d’une matrice N ∈ M17 (K) vérifiant les condi-
tions dim ker N = 7, dim ker N 2 = 12, dim ker N 3 = 14, dim ker N 4 = 16, et enfin
dim ker N 5 = 17 est alors
• • •
• • •
• • •
• • •
• • •
• •
• •
De même, les sous-espaces im u, im u 2 et im u 3 sont localisés
• • • • • • • • •
• • • • • •
•
•
•
4.2. Remarque. Étant donné que la matrice diagonale par blocs en conclusion
de cette proposition admet un polynôme scindé, l’hypothèse sur le polynôme
caractéristique est bien nécessaire.
Cette proposition permet la caractérisation complète des classes de similitude
sur un corps algébriquement clos (donc, en particulier, sur C) mais ne permet
pas de conclure sur R.
4.3. Proposition. Deux endomorphismes d’un même espace vectoriel qui ad-
mettent des polynômes caractéristiques scindés sont semblables si, et seulement
si, ils admettent la même réduite de Jordan.
5. Commentaires et développements
5.1. L’ensemble des matrices nilpotentes est appelé cône nilpotent : la matrice
nulle est son sommet et il est stable par homothétie : si N est nilpotente, λN
l’est aussi.
De surcroît, en dimension 2, cet ensemble se voit bien, car il est contenu dans
l’hyperplan (de dimension 3) des matrices de trace nulle ; et là, c’est un véri-
table cône quadratique, c’est-à-dire c’est l’ensemble des zéros d’un polynôme
homogène de degré 2 (indifféremment ici, le déterminant det M ou bien la
¡ ¢
trace tr M 2 . Cette description est détaillée dans le chapitre XIII.
5.2. Un des résultats fondamentaux, qui irradie ensuite sur le reste, est que le
cône nilpotent contient un nombre fini de classes de similitude, et plus préci-
sément p(n) classes, où p(n) est le nombre de partitions de l’entier n.
Q
Pour un polynôme caractéristique donné scindé, il y a i p(αi ) classes de simi-
litude où les αi sont les multiplicités des racines du polynôme caractéristique.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI
5.3. Dans C, on peut paramétrer les classes de similitude : d’abord avec le po-
lynôme caractéristique puis avec la succession des tableaux de Young associés
à chaque valeur propre.
5.4. La décomposition de Jordan & Dunford est une façon compacte, incisive
et élégante de résumer l’essentiel de ce que l’on peut tirer de la décomposition
en sous-espaces caractéristiques. Elle présente en outre l’avantage qu’elle sur-
vit au cadre matriciel propre, puisqu’elle est encore valable pour les algèbres
de Lie (comme l’espace des matrices triangulaires ou celui des matrices antisy-
métriques).
Ainsi, si A est une matrice triangulaire (respectivement antisymétrique com-
plexe) de décomposition de Jordan & Dunford A = D + N sa décomposition de
Jordan & Dunford, alors D et N sont encore triangulaires (respectivement anti-
symétriques complexes).
5.6. La décomposition de Jordan & Dunford est effective au sens qu’il existe
un algorithme permettant de l’obtenir (ce qui contraste avec la question diffi-
cile de la recherche des racines du polynôme caractéristique). Voici les grandes
lignes de cet algorithme pour un endomorphisme u :
— Calculons le polynôme P unitaire dont les racines complexes sont celles
de χu mais avec la multiplicité 1. On l’obtient algorithmiquement en di-
visant χu par le PGCD χu ∧ χ0u .
— On définit une suite de polynômes (Q k )k par la premier terme Q 0 = X et,
pour tout k, il existe U ∈ C[X ] tel que χu divise P 0 (Q k )U − 1 et
P (Q k+1 ) = Q k − P (Q k )U .
— La suite (Q k (u))k est stationnaire et sa limite est la partie d de la décom-
position de Jordan & Dunford de u.
La relation de récurrence est l’analogue dans C[X ]/(χu ) de la méthode de New-
ton pour la recherche de zéro d’une fonction réelle.
5.7. L’application qui à une matrice A associe sa partie nilpotente dans la dé-
composition de Jordan & Dunford n’est pas en général continue ! Elle n’est conti-
nue en M que si M admet au plus deux valeurs propres égales. En particulier,
elle n’est continue en 0n que si n É 2. On pourra consulter l’exercice 11-18 page
257 de
Éléments de géométrie, Rached Mneimné, Cassini, 1997
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI
5.8. Pour exploiter au mieux les tableaux de Young, il peut être intéressant de
les remplir avec des vecteurs correspondant à la base de réduction de Jordan.
La « localisation » indiquée à la section 3 permet alors d’extraire de cette base
de réduction des bases des différents sous-espaces ker u p ∩ im u q .
6. Exercices
6.1. Exercice. Déterminer la décomposition de Jordan & Dunford d’une matrice
de M2 (C) de trace nulle.
▷ Éléments de correction. Le polynôme caractéristique d’une matrice A ∈ M2 (C)
de trace nulle est χ A = X 2 + det A. Deux cas se présentent :
. si det A 6= 0, alors χ A est annulateur scindé à racines simples donc A est dia-
gonalisable ;
. sinon, A 2 = 02 donc A est nilpotente.
Dans tous les cas, A est sa propre décomposition de Jordan & Dunford. ◁
6. Exercices 153
l’induit sur l’espace engendré par les deux premiers vecteurs). La relation de
ce
commutation entre N et D entraîne alors γ = e et β = d − a−b . ◁
6.5. Exercice. Soit M ∈ Mn (C). Montrer que la seule matrice nilpotente de l’al-
gèbre C[M ] est la matrice nulle si, et seulement si, M est diagonalisable.
diag(λ1 , . . . , λn ).
¡ ¢
Pour tout polynôme P tel que P (M ) est nilpotente, diag P (λ1 ), . . . , P (λn ) est
nilpotente donc P (λ1 ) = · · · = P (λn ) = 0. Par conséquent, P (M ) = 0n . Ainsi, la
seule matrice nilpotente de C[M ] est la matrice nulle. ◁
Q(X ) = P (X ) − µP (0)
(0) µM (X ).
M
. Sinon, P n est annulateur de M donc est divisible par µM . Ainsi, 0 est racine
de µM donc de P et il n’y a rien à établir.
Le résultat est également vrai pour D avec le polynôme X −Q(X ).
On peut alors facilement obtenir que, pour tout vecteur X ∈ ker M 2 , N X ∈ ker M .
Ce résultat découle directement de la remarque simple suivante : N et M coïn-
cident sur le sous-espace caractéristique de M associé à 0. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI
6. Exercices 155
▷ Éléments de correction.
1. . Commençons par montrer le résultat sur J n . Il suffit de considérer la
matrice M = diag(1, 2, . . . n), ou toute autre matrice diagonale avec des
coefficients diagonaux en progression arithmétique de raison 1, pour
avoir J n M − M J n = J n .
. Par conséquent, pour tout sous-espace caractéristique F λ associé à la
valeur propre λ, il existe v λ ∈ L (F λ ),
n Fλ = n Fλ ◦ v λ − v λ ◦ n Fλ = u Fλ ◦ v λ − v λ ◦ u Fλ
car u Fλ = λIdFλ + n Fλ .
Définissons alors, v comme l’unique endomorphisme de E coïncidant
sur chaque sous-espace caractéristique F λ avec l’endomorphisme v λ cor-
respondant. Alors, n = u ◦ v − v ◦ u.
2. (⇒) La condition ker ad u = ker ad u2 est équivalente à
ker ad u ∩ im ad u = {0E }.
Or, la partie nilpotente n appartient à la fois à ker ad u (en tant que poly-
nôme en u, elle commute avec u) et à im ad u (d’après la question précé-
dente). Ainsi, n est l’endomorphisme nul et u est diagonalisable.
(⇐) Si l’endomorphisme u est diagonalisable, alors ad u est diagonali-
sable : ainsi ker ad u = ker ad u2 .
◁
6.10. Exercice. Montrer que N ∈ Mn (C) est nilpotente si, et seulement si, N et 2N
sont semblables.
Ainsi, toutes les matrices vérifiant ces conditions ont le même tableau de Young
donc sont semblables. ◁
6. Exercices 157
▷ Éléments de correction.
1. Il suffit pour ces petites dimensions de dresser la liste des tableaux de
Young puis de vérifier que si on fixe le degré du polynôme minimal (donc
le nombre de colonnes) et le rang (donc le nombre de lignes car on fixe
la dimension du noyau), on n’a qu’un seul tableau correspondant.
.n=2 .n=3
.n=4
.n=5
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI
6. Exercices 159
.n=6
2. Avec les tableaux de Young suivants à sept cases qui ont le même nombre
de lignes et le même nombre de colonnes (donc même rang et même
polynôme minimal pour des endomorphismes associés)
d’où ¡ ¢ ¡ ¢2
dim ker Ti , j ,λ − In = n − 1, dim ker Ti , j ,λ − In = n.
Ainsi, le tableau de Young associé à cette unique valeur propre 1 est TY(n −1, 1).
Par conséquent, toutes les transvections ont la même valeur propre et le même
tableau de Young associé à cette valeur propre ; en conclusion, les matrices de
transvection sont toutes semblables. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XI
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XII
Chapitre XII
Réduction de Frobenius
Objectifs du chapitre
— Comprendre la réduction de Frobenius et identifier une forme réduite
d’une diagonale par blocs compagnons quelconque.
— Savoir passer de la réduite de Jordan à la réduite de Frobenius et récipro-
quement.
— Utiliser des calculs sur les matrices compagnons pour obtenir via la ré-
duite de Frobenius un résultat pour toutes les matrices.
1. Réduction de Frobenius
1.1. Proposition. Soit u un endomorphisme de E . Alors, il existe une unique suite
finie de polynômes unitaires P 1 , P 2 , . . . , P r et une décomposition
M
r
E= Ei
i =1
telles que
. pour tout i ∈ 1, r − 1, P i +1 divise P i ;
. pour tout i ∈ 1, r , l’induit u E i est cyclique de polynôme minimal P i .
1.2. Remarque. Remarquons tout d’abord que cette réduction ne requiert pas
l’hypothèse d’un polynôme annulateur scindé comme la réduction de Jordan.
telles que, pour tout i ∈ 2, r −1, P i +1 divise P i et l’induit u E i est cyclique
de polynôme minimal P i . On vérifie alors que µuF = P 2 divise µu (car µu
annule u F ). Ainsi, la suite P 1 = µu , P 2 , . . . , P r et la décomposition
M
r
E= Ei
i =1
M
r M
r j −1
M
P j (u)(E ) = P j (u)(E i ) = P j (u E i )(E i ) = P j (u)(E i ).
i =1 i =1 i =1
Or,
M
s
P j (u)(E ) = P j (u)(F i )
i =1
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XII
d’où
j −1
M M
s
P j (u)(E i ) = P j (u)(F i ).
i =1 i =1
1.4. Définition. Les invariants de similitude d’un endomorphisme sont les po-
lynômes qui lui sont associés par la proposition XII -1.1.
1.6. Corollaire. Deux endomorphismes sont semblables si, et seulement si, ils ont
les mêmes invariants de similitude.
Remarquons tout d’abord que cette forme n’est pas la réduite de Frobenius car
les polynômes X 2 et X 2 + 1 ne sont pas multiples l’un de l’autre. Par ailleurs, le
polynôme minimal de cette matrice est X 2 (X 2 +1) (de degré 4) donc la matrice
est cyclique et son seul invariant est X 2 (X 2 + 1).
dions les passages entre ces deux formes réduites. Pour cela commençons par
remarquer qu’il est facile d’obtenir la réduction de Jordan d’un nilpotent.
2I3 + J 3 , 2I3 + J 3
I3 + J 3 , I3 + J 3 , I1 + J 1 , I1 + J 1
J2, J1
(X − 2)3 (X − 2)3
(X − 1)3 (X − 1)3 X −1 X −1
X2 X
P1 P2 P3 P4
3. Commutants et bicommutants
contient un élément qui n’est pas diagonal par blocs. Cherchons une telle ma-
trice de la forme µ ¶
0
A
c’est-à-dire A ∈ Mp+q,p (K) non nulle telle que AC PQ = C P A. Pour cela considé-
rons les endomorphismes u ∈ L (Kp ) et v ∈ L (Kp+q ) canoniquement associés
à C P et C PQ . Par construction, la base canonique de Kp est de la forme
¡ ¢
e 1 , u(e 1 ), . . . , u p−1 (e 1 )
et celle de Kp+q de la forme
¡ ¢
e 2 , v(e 2 ), . . . , v p+q−1 (e 2 ) .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XII
— Si u est cyclique, le résultat est établi car v = Q 1 (u) ; sinon, il reste à voir
que les polynômes Q i peuvent être choisis égaux. Écrivons l’argument
pour r = 2 facteurs invariants (la récurrence est immédiate pour obtenir
le cas général). Nous venons de montrer que, dans une base bien choisie,
les matrices de u et v sont
µ ¶ µ ¶
C P1 Q 1 (C P 1 )
C P2 Q 2 (C P 2 )
4. Commentaires et développements
4.1. La réduction de Frobenius d’une matrice A est le résultat le plus fin sur la
réduction, de part sa généralité et l’essentiel de l’information qu’elle cumule
sur la réduction de la matrice A. La réduction de Frobenius traduit tout sim-
plement le théorème fondamental sur la structure des modules de type fini sur
un anneau principal. Ici, l’anneau est K[X ] et le module le K[X ]-module défini
par A.
La traduction de ce même théorème dans le cas des groupes abéliens finis,
nous dit qu’un tel groupe est produit (de manière unique) de groupes cycliques
Z /d 1 Z × · · ·×Z /d k Z, avec d 1 |d 2 | · · · |d k . Le cas crucial étant celui d’un p-groupe
abélien fini, comme on s’en aperçoit en se ramenant aux différents p-Sylow
de G. Pour ces groupes, l’examen de l’endomorphisme x 7→ px et de ses noyaux
itérés ramène la classification de ces groupes à des tableaux de Young.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XII
5. Exercices 171
De même que dans ce cas, on montrer que dans un groupe abélien fini, il y a
un élément dont l’ordre est le PPCM des ordres de tous les éléments du groupe
(l’exposant du groupe), de même grâce à la réduction de Frobenius, il est pos-
sible d’y voir l’existence d’un vecteur où est atteint le polynôme minimal.
De même que dans le cas des groupes abéliens, on peut calculer vite l’anneau
des endomorphismes d’un tel groupe, on peut ici déterminer le commutant
de A grâce à la biadditivité du foncteur Hom et l’on est ramené à calculer les
espaces d’entrelacement entre deux K[X ]-modules cycliques, c’est-à-dire entre
deux matrices compagnons dont le polynôme de l’une divise l’autre.
5. Exercices
5.1. Exercice. Déterminer les polynômes P , Q ∈ K[X ] pour lesquels la matrice
compagnon C PQ est semblable à la matrice
µ ¶
CP
.
CQ
Par construction, pour tout k ∈ 1, p −1, P k+1 divise P k . Les invariants de simi-
litude de la matrice
C P1
..
.
A= C Pi
..
.
C Pr
Qp
sont P 1 , . . . , P p donc µ A = P 1 = µ et χ A = k=1
P k = χ. ◁
5.5. Exercice.
1. Soit P ∈ K[X ] unitaire. Déterminer le rang de la matrice compagnon C P .
2. Soit A ∈ Mn (K). Montrer que deg µ A É rg A + 1.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XII
5. Exercices 173
Or, le premier membre est minoré par r − 1 (cas où tous les invariants
restants sont de degré 1) et le second membre est majoré par r − 1 (cas
où tous les invariants admettent 0 pour racine). Par conséquent, les deux
termes sont égaux à r − 1 et l’on en déduit
— deg P 2 = · · · = deg P r = 1,
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XII
P r = X , P r −1 = X , . . . , P 2 = X , P 1 = XQ,
▷ Éléments de correction. Le sens direct est immédiat. Pour établir le sens re-
tour, montrons que la suite des invariants de similitude d’une matrice A de
rang 2 est uniquement déterminée par le polynôme minimal µ A .
Notons P 1 = µ A , P 2 , . . . , P r les invariants de similitude de A. Comme
X
r
rg A = rgC P k Ê rgC P 1 = deg µ A − 1,
k=1
Chapitre XIII
Objectifs du chapitre
— Comprendre la géométrie des classes de similitude de M2 (R).
— Savoir interpréter en termes topologiques de la classe de similitude la
nilpotence ou la diagonalisabilité d’une matrice.
— Dériver les propriétés de connexité des classes de similitude des proprié-
tés correspondantes des groupes linéaires.
1.3. Exemple. La classe de similitude de λIn est réduite à λIn car, pour toute
matrice inversible P ∈ GLn (K),
P (λIn )P −1 = λP P −1 = λIn .
2.1. Lemme. Deux matrices cycliques de M2 (R) sont semblables si, et seulement
si, elles ont le même polynôme caractéristique ou, de manière équivalente, même
trace et même déterminant.
2.2. Proposition. Soit A ∈ M2 (R) une matrice non scalaire. Alors, une matrice
non scalaire de la forme
µ ¶
t +y x +z
M= ∈ M2 (R)
x −z t −y
Démonstration. D’après le lemme rappelé plus haut, il suffit d’identifier les po-
lynômes caractéristiques
2.3. Remarque. D’après ces équations, les classes de similitude des matrices
non scalaires sont donc (essentiellement) des quadriques incluses dans un hy-
perplan affine défini par la trace.
Pour tout A ∈ M2 (R), la classe de similitude de A est l’image de la classe de si-
militude de la matrice de trace nulle A − tr2A I2 par la translation de tr2A I2 . Ainsi,
il suffit d’étudier les classes de similitudes des matrices de trace nulle pour ob-
tenir la géométrie de toutes les classes à translation près.
A n (R) z •A
S n (R) y
x
• A⊤
2.6. Cas ∆ A < 0. Dans ce cas, la matrice n’admet pas de valeur propre réelle :
elle n’est donc pas diagonalisable. Réciproquement, une matrice non diagona-
lisable de trace nulle admet deux valeurs propres imaginaires pures conjuguées
donc vérifie bien ∆ A < 0.
La classe de similitude d’une telle matrice est donc un hyperboloïde à deux
nappes d’équation x 2 + y 2 − z 2 = α avec α < 0. Les deux composantes sont « in-
térieures » au cône nilpotent (représenté en grisé sur le dessin suivant). Cette
fois-ci, la classe est fermée mais n’est ni connexe, ni bornée.
Ces classes ne rencontrent pas le plan horizontal ce qui est cohérent avec le
théorème spectral : toute matrice symétrique réelle est diagonalisable et les
matrices de ces classes ne sont pas diagonalisables.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap13 chapitre:XIII
On remarque qu’au sein d’une telle classe, une matrice et sa transposée n’ap-
partiennent pas à la même composante connexe.
2.7. Cas ∆ A > 0. Dans ce cas, la matrice A admet deux valeurs propres réelles
distinctes donc est diagonalisable. Réciproquement, si A est diagonalisable de
trace nulle, alors elle admet deux valeurs propres réelles distinctes donc le dis-
criminant est strictement positif.
La classe de similitude d’une telle matrice est donc l’hyperboloïde à une nappe
d’équation x 2 + y 2 −z 2 = α avec α > 0, extérieur au cône nilpotent. Cette fois-ci,
la classe est à la fois fermée et connexe.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap13 chapitre:XIII
3.2. Proposition. Une matrice de Mn (C) est nilpotente si, et seulement si, la ma-
trice nulle est adhérente à sa classe de similitude.
T t = D −1
t T D t = t T.
3.3. Remarque. Dans le sens direct de cette preuve, on n’a pas besoin de consi-
dérer la forme réduite de Jordan. Toute matrice triangulaire strictement supé-
rieure semblable à A suffirait pour ce calcul.
3.5. Proposition. Une matrice de Mn (C) est diagonalisable si, et seulement si, sa
classe de similitude est fermée.
D −1 −1 −1
t DD t + D t T D t = D + D t T D t .
Or, lim D −1
t T D t = 0n donc D appartient à l’adhérence de la classe de similitude
t →0
de A qui est, par hypothèse de fermeture, la classe de similitude de A. Ainsi, la
matrice A est semblable à la matrice diagonale D, donc est diagonalisable. ä
3.6. Proposition. Soit A ∈ Mn (C) dont la décomposition de Jordan & Dunford est
A = D + N avec D diagonalisable, N nilpotente et D N = N D. Alors, la matrice D
appartient à l’adhérence de la classe de similitude de A.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap13 chapitre:XIII
4.3. Proposition. La classe de similitude d’une matrice de M2n+1 (R) est connexe.
On admet ici que l’ensemble GL+ n (R) = {A ∈ Mn (R), det A > 0} est connexe par
arcs (la décomposition polaire X -4.6 donne un homéomorphisme de ce groupe
avec S n++ (R) × S O n (R), S n++ (R) est convexe, et S O n (R) est connexe par arcs).
Démonstration. Soit M ∈ M2n+1 (R). Remarquons que si A est semblable à M
alors, il existe une matrice P ∈ GL2n+1 (R) telle que
5. Commentaires et développements
5.1. La classe de similitude de la matrice M est fermée si, et seulement si, la
matrice M est semi-simple. En général, elle est seulement localement fermée
dans Mn (R), autrement dit elle est ouverte dans son adhérence. L’exemple du
bloc de Jordan J n est assez suggestif. Sa classe est exactement l’intersection du
cône nilpotent (qui est manifestement un fermé, car caractérisé par la condi-
tion M n = 0n ) et de l’ouvert des matrices telles que M n−1 6= 0n .
Le cas général résulte tout simplement du théorème de Jordan & Weyr, Propo-
sition XI -4.4. En effet, une classe de similitude sur C est caractérisée parmi les
classes de similitude des matrices ayant un même polynôme caractéristique
par des conditions d’égalité sur le rang des puissances itérées de M − λi In et il
est bien connu que les matrices ayant un rang donné est localement fermé.
5.2. L’ensemble des matrices inversibles tout comme celui des matrices à va-
leurs propres distinctes sont les complémentaires de l’ensemble des zéros de
fonctions polynomiales non nulles des coefficients d’une matrice. Aussi sont-
ils des ensembles ouverts denses et connexes par arcs dans Mn (C). Les classes
de similitude de matrices complexes sont par conséquent des parties connexes
par arcs, car orbites sous l’action de GLn (C). L’ensemble des matrices diagona-
lisables complexes est à son tour clairement connexe et dense.
5.3. Deux classes de similitude de matrices nilpotentes qui ont même adhé-
rence sont égales, car, étant toutes deux ouvertes dans cette adhérence, elles
ont donc une intersection non vide et sont dès lors égales. Il est possible de dé-
crire, en termes de tableaux de Young, les matrices qui sont dans l’adhérence
de la classe de similitude d’une autre. La question est délicate, des exercices
fourniront quelques cas particuliers. La question étant délicate, on se contente
de quelques exemples simples : l’orbite du bloc de Jordan J n est dense dans
le cône nilpotent d’après l’Exemple XIII -3.4 ; l’adhérence de la classe de simi-
litude d’une matrice d’indice de nilpotence n − 1 est l’ensemble des matrices
dont la puissance (n − 1)-ième est nulle (Exercice XIII -6.8).
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap13 chapitre:XIII
6. Exercices
6.1. Exercice. Soit A une matrice diagonalisable. Montrer qu’une matrice B est
semblable à A si, et seulement si, elle a à la fois le même polynôme minimal et le
même polynôme caractéristique que A.
Le résultat reste-t-il vrai si l’on enlève l’hypothèse A diagonalisable ?
Pour ces deux matrices non semblables, le polynôme minimal est X 2 et le po-
lynôme caractéristique est X 4 . ◁
6. Exercices 185
6.3. Exercice.
1. Montrer que l’application
½
Mn (K) → K[X ]
A 7 → χA
est continue.
2. Montrer que l’application
½
Mn (K) → K[X ]
A 7 → µA
n’est pas continue.
▷ Éléments de correction.
1. Chaque coefficient du polynôme caractéristique de A est polynomial en
les coefficients de A donc définit une fonction continue. Par suite, l’ap-
plication A 7→ χ A est continue.
¡ ¢
2. Chaque matrice de la suite 2−p E 1,2 p admet X 2 comme polynôme mi-
nimal. Or, la limite de cette suite est la matrice nulle dont le polynôme
minimal est X . La suite (constante) (X 2 )p des polynômes minimaux ne
converge donc pas vers X , le polynôme minimal de la limite : l’applica-
tion A 7→ µ A n’est pas continue.
◁
6.4. Exercice. Montrer que la classe de similitude d’une matrice A est bornée si,
et seulement si, A est une matrice scalaire.
▷ Éléments de correction. (⇐) Si A est une matrice scalaire, alors la classe de
similitude de A est {A} donc est bornée.
(⇒) Supposons que A n’est pas une matrice scalaire. Montrons que sa classe de
similitude n’est pas bornée pour la norme définie comme la borne supérieure
des modules/valeurs absolues des coefficients. Comme A n’est pas scalaire, il
existe un vecteur X ∈ Mn,1 (K) tel que (X , AX ) est libre.
Pour tout t > 0, considérons une base obtenue en complétant la famille libre
(t X , AX ). Grâce à la formule de changement de bases, A est semblable à une
matrice dont la première colonne est
0
t
0
.
.
..
0
On peut donc trouver, dans la classe de similitude de A, des matrices de norme
supérieure ou égale à t : la classe n’est pas bornée. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap13 chapitre:XIII
6.6. Exercice. Déterminer les ouverts de Mn (C) contenant les matrices diago-
nales et stables par similitude.
est un fermé comme intersection des images réciproques du fermé {0} par cha-
cune des applications continues définies par un déterminant extrait de taille r .
. Soit A une matrice nilpotente de tableau de Young TY(n −2, 2). Alors, comme
calculé au chapitre XI, rg A 2 = n − 4 et A 2 ∈ An−3 . Ainsi, toute matrice M sem-
blable à A vérifie M 2 ∈ An−3 .
D’après le premier point, toute matrice M adhérente à la classe de similitude
de A vérifie donc M 2 ∈ An−3 .
Or, toute matrice M nilpotente de tableau de Young TY(n −1, 1) vérifie la condi-
tion rg M 2 = n −3 donc n’appartient pas à l’adhérence de la classe de similitude
de A. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap13 chapitre:XIII
6. Exercices 187
— pour j ∈ n − k + 1, n,
j
ker A p = Vect(e 1 , . . . , e n−k , e 2n−k− j , . . . , e n ).
La suite des sauts de dimension des noyaux itérés est (2, 1, . . . , 1) ; elle indique
donc que la matrice A p admet le tableau de Young TY(n −1, 1). Ainsi, A p appar-
tient à A .
¡ ¢
Par ailleurs, la suite de matrices A p p converge vers la matrice
à !
J n−k
Jk >
Chapitre XIV
Objectifs du chapitre
— Déterminer des propriétés de localisation des valeurs propres à partir
des coefficients de la matrice.
— Comprendre le disque spectral (centré en l’origine et de rayon le rayon
spectral).
— Démontrer les théorèmes de Perron et Perron & Frobenius sous diffé-
rentes hypothèses de positivité et d’irréductibilité.
1. Théorème de Hadamard
Pn
Alors, la i -ième ligne de l’égalité AX = 0n,1 donne j =1 a i , j x j = 0 soit
X
n
a i ,i x i = − ai , j x j .
j =1
j 6=i
2. Disques de Gerschgorin
D’après le théorème de Hadamard, A − λIn est alors inversible : λ n’est pas va-
leur propre. ä
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV
réunion de deux disques D(0, 2) ∪ D(i , 2) qui contient deux valeurs propres ; de
l’autre, un disque isolé D(4 + i , 1) qui contient une valeur propre. Sur le dessin
suivant, les valeurs propres sont marquées d’une croix.
4+i
×i ×
× 0
i 4+i
× ×
× 0
3. Rayon spectral
3.1. Définition. Soit A ∈ Mn (C). Le rayon spectral de A est le réel ρ(A) Ê 0 défini
comme le plus grand module d’une valeur propre de A.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV
3.2. Remarque. Attention, le rayon spectral d’une matrice n’est pas forcément
une valeur propre (par exemple, ρ(i In ) = 1). En revanche, par définition, toutes
les valeurs propres d’une matrice A appartiennent au disque fermé de centre 0
et de rayon ρ(A). Illustrons quelques situations très différentes.
. Le rayon spectral de la matrice de permutation associée à une permutation
σ ∈ S n est 1 et toutes les valeurs propres sont des racines de l’unité (car un
polynôme annulateur est X p − 1 avec p l’ordre de σ). Ainsi, toutes les valeurs
propres appartiennent au cercle de centre 0 et de rayon 1.
. Le rayon spectral de la matrice dont tous les coefficients sont égaux à 1 vaut n
et une seule valeur propre (qui plus est, simple) appartient au cercle de centre 0
et de rayon n.
3.5. Proposition. Soit A ∈ Mn (C) et k k une norme d’opérateur sur Mn (C). Alors,
ρ(A) É kAk.
Démonstration. Soit λ une valeur propre de A et X un vecteur propre associé.
Alors en prenant la norme dans la relation AX = λX , on obtient |λ| É kAk. Par
définition du rayon spectral comme maximum, ρ(A) É kAk. ä
3.6. Exemple. L’inégalité peut être stricte comme on le constate dans les cas
particuliers suivants.
— la matrice µ ¶
0 1
0 0
est de rayon spectral 0 (son unique valeur propre est nulle) mais n’est
pas de norme nulle (car elle est non nulle).
— la matrice µ ¶
0 2
0 1
est de rayon spectral 1 (ses valeurs propres sont 0 et 1) mais, pour la
norme d’opérateur
¡ ¢
A 7→ kAk = max |a 1,1 | + |a 1,2 |, |a 2,1 | + |a 2,2 | ,
est de norme 2.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV
3.7. Proposition. Soit A ∈ Mn (C). Alors, lim A k = 0n si, et seulement si, ρ(A) < 1.
3.8. Proposition. Soit A ∈ Mn (C) telle que ρ(A) > 1. Alors, limkA k k = +∞.
3.9. Théorème de Gelfand. Soit k k une norme d’opérateur sur Mn (C). Alors,
pour tout A ∈ Mn (C),
° °1
ρ(A) = lim ° A k ° k .
Alors, d’après la proposition XIV -3.8, à partir d’un certain rang, kA k−ε k Ê 1 ce
qui entraîne
° k°
1 ° A ° Ê 1,
(ρ(A)−ε)k
° °1
puis ° A k ° k Ê ρ(A) − ε.
. En combinant les deux inégalités, on obtient qu’à partir d’un certain rang,
¯° k ° 1 ¯
¯° A ° k − ρ(A)¯ É ε,
4. Théorème de Perron
4.1. Définition. Soit A ∈ Mn,p (C). La matrice A est positive (respectivement
strictement positive) si tous ses coefficients sont des réels positifs (respective-
ment strictement positifs).
1 3 3 1
4.3. Remarque. Soit A ∈ Mn (R) une matrice strictement positive et X ∈ Mn,1 (R)
un vecteur positif. Alors, en constatant qu’une somme de termes positifs est
nulle si, et seulement si, tous les termes sont nuls, on obtient l’alternative sui-
vante
— soit X est le vecteur nul et dans ce cas, AX = 0n,1 ,
— soit AX est un vecteur strictement positif.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV
4.4. Lemme. Soit A ∈ Mn (R) une matrice strictement positive, λ ∈ C une valeur
propre de module ρ(A) et X = (x i ) un vecteur propre associé. Alors,
. le rayon spectral ρ(A) est une valeur propre de A,
. le vecteur |X | = (|x i |) est un vecteur propre associé à ρ(A),
. il existe θ ∈ R tel que X = e i θ |X |.
Démonstration. . Montrons les deux premiers points simultanément. Posons
Y = A|X | et E = A|X | − ρ(A)|X |.
Par inégalité triangulaire, pour tout i ∈ 1, n,
¯Xn ¯ X n
¯ ¯
ρ(A)|x i | = |λx i | = ¯ a i ,k x k ¯ É a i ,k |x k |.
k=1 k=1
ρ k kY k É kA k Y k,
puis
° °1
ρ É lim ° A k ° k = ρ(A),
ce qui contredit la définition de ρ. Ainsi, E est nul et donc |X | est un vecteur
propre de A associé à ρ(A).
. Pour le dernier point, il suffit de remarquer que nous avons prouvé l’égalité
suivante pour tout i ∈ 1, n
|[AX ]i | = |[λX ]i | = ρ(A)[|X k]i = [A|X k]i ,
soit en écrivant les coefficients
¯Xn ¯ X n
¯ ¯
¯ a i ,k x k ¯ = a i ,k |x k |.
k=1 k=1
Ceci entraîne avec le cas d’égalité dans l’inégalité triangulaire sur C que tous
les complexes x k ont le même argument. ä
. le sous-espace propre associé E ρ(A) est une droite dirigée par un vecteur stric-
tement positif.
En conclusion, λ = ρ(A).
. Soit X un vecteur propre associé à ρ(A). D’après le lemme, |X | est aussi un
vecteur propre de A associé à ρ(A) et il existe θ ∈ R tel que X = e i θ |X |. Alors,
ρ(A)X = e i θ ρ(A)|X | = e i θ A|X |. Or, |X | est positif et A strictement positif donc
e i θ A|X | n’a pas de coordonnées nulles : ainsi, ρ(A) 6= 0 et X n’admet aucune
coordonnée nulle.
. Raisonnons par l’absurde et supposons dim E ρ(A) Ê 2 ; considérons mainte-
nant deux vecteurs propres indépendants X = (x i ) et Y = (y i ) associés à la va-
leur propre ρ(A). Le vecteur propre x 1 Y −y 1 X admet au moins une coordonnée
nulle ce qui contredit le point précédent de cette démonstration. ä
4.6. Corollaire. Soit A ∈ Mn (R) une matrice positive. Alors, le rayon spectral ρ(A)
est une valeur propre de A et le sous-espace propre associé E ρ(A) contient un vec-
teur positif.
4.7. Remarque. Attention, dans le cas d’une matrice positive, il peut exister plu-
sieurs valeurs propres de module maximal et le sous-espace propre associé au
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV
5.4. Proposition. Une matrice est irréductible si, et seulement si, il n’existe pas de
sous-espace stable non trivial engendré par des vecteurs de la base canonique.
Démonstration. Une matrice A = (a i , j ) ∈ Mn (C) est réductible si, et seulement
si, il existe une partie I ⊂ 1, n non triviale telle que
∀i ∈ I , ∀ j ∉ I , a i , j = 0,
ce qui équivaut à la stabilité du sous-espace Vect(E i )i ∉I . ä
5.5. Proposition. Une matrice admettant une puissance strictement positive est
irréductible.
Démonstration. Raisonnons par l’absurde et supposons qu’une telle matrice
A est réductible. Par définition, il existe une partie J ⊂ 1, n non triviale telle
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV
que Vect(E j ) j ∈J est stable par A. Ce sous-espace est par conséquent stable par
toutes les puissances de A : mais alors celles-ci admettent toutes des coeffi-
cients nuls en position (i , j ) ∈ J Ù × J ce qui contredit l’hypothèse. ä
5.7. Exemple. Une matrice de M2 (K) est irréductible si, et seulement si, ses co-
efficients hors diagonale sont tous non nuls. En effet, cette condition équivaut
à la non-stabilité des droites Vect(E 2 ) et Vect(E 1 ).
5.8. Proposition. Une matrice A ∈ Mn (R) positive est irréductible si, et seule-
ment si, la matrice (In + A)n−1 est strictement positive.
Démonstration. . Si la matrice A est réductible, alors la matrice In + A l’est aussi
(avec le même sous-espace stable). Par conséquent, la matrice (In + A)n−1 a des
coefficients nuls : par contraposition, le sens retour est établi.
. Supposons A irréductible et utilisons le lemme suivant démontré à l’exer-
cice XIV -7.9.
5.9. Lemme. Soit A ∈ Mn (R) une matrice positive et irréductible. Alors, pour tout
vecteur X ∈ Mn,1 (R) positif, le vecteur (In + A)X est soit strictement positif, soit
positif avec strictement moins de coordonnées nulles que X .
6. Commentaires et développements
6.1. Si la théorie de la réduction des endomorphismes est parfaitement com-
prise, la mise en pratique de la réduction se heurte très tôt au problème de
la détermination des valeurs propres, qui sont les racines du polynôme mini-
mal ou caractéristique. S’il est aisé de déterminer les racines d’un polynôme de
degré deux ou trois, on sait depuis Galois qu’il n’y a pas de méthode générale
pour écrire les racines d’une équation générale de degré supérieur ou égal à 5
en termes de radicaux dépendant des coefficients de l’équation. Aussi, il im-
porte en pratique d’obtenir des approximations de ces racines et de s’atteler en
conséquence à obtenir des approximations des vecteurs propres et au delà des
vecteurs figurant dans les différents noyaux itérés...
6.2. La dépendance des valeurs propres de la matrice M par rapport aux co-
efficients de M étant continue (idée difficile à mettre en vérité en forme de fa-
çon précise), il importe souvent d’avoir une idée des régions du plan complexe
où vivent les valeurs propres d’une matrice donnée. Le contrôle sur les valeurs
propres peut alors être extrêmement utile pour des questions de convergence
comme le montre en termes élémentaires le résultat suivant :
La suite (A p )p tend vers la matrice nulle si, et seulement si, ρ(A) < 1 si, et seule-
P
ment si, la série p A p est convergente.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV
7. Exercices 201
Le chapitre présent s’est ainsi appliqué à donner quelques résultats des plus
simples pour « localiser » les valeurs propres... Il existe des ouvrages entiers qui
traitent de ces questions de localisation et d’approximation... On appelle cela
l’analyse numérique matricielle...
6.4. Lemme. Soit A ∈ Mn (C) telle que N (A) < 1 (pour N une norme matricielle
quelconque). Alors, ρ(A) É N (A).
Si |λ| > N (A), la série de terme général λ−p A p est alors normalement conver-
gente dans l’espace complet Mn (C) donc convergente, et sa somme est (à peu
de choses près) l’inverse de A − λIn , ce qui prouve que λ ne peut être alors va-
leur propre de A.
6.5. Un autre aspect abordé dans ce chapitre est le théorème surprenant et re-
marquable de Perron, qui dit qu’une matrice à coefficients strictement positifs
admet son rayon spectral ρ comme valeur propre, avec une multiplicité algé-
brique égale à 1. De surcroît, le rayon spectral est la seule valeur propre ayant ρ
pour module, et les composantes d’un même vecteur propre pour ρ sont tous
non nuls et de même signe.
Il est bon de noter alors que si A vérifie les hypothèses du théorème de Perron,
il en est de même de sa transposée !
Il importe de saisir que l’information particulière liée à la positivité des coef-
ficients n’est aucunement une propriété invariante par similitude. Pourtant,
elle donne des informations sur l’endomorphisme que définit notre matrice
dans Kn . Cet endomorphisme a une nature contractante, puisque les vecteurs
de base sont envoyés par les puissances itérées de A sur des vecteurs qui font
ensemble des angles solides de plus en plus serrés dans la direction de la droite
propre ∆ associée à ρ(A).
Les puissances itérées de l’opérateur ρ(A)−1 A convergent vers l’opérateur de
projection sur ∆ parallèlement à l’hyperplan orthogonal (au sens de la dualité)
de la droite propre de A > associée à ρ(A).
7. Exercices
7.1. Exercice. Soit A = (a i , j ) ∈ Mn (C) une matrice telle que, pour tout i ∈ 1, n,
X
n
|a i , j | < 1.
j =1
|a i ,i + x| = |x − (−a i ,i )| Ê x − |a i ,i |
Ê 1 − |a i ,i |
X
> |a i , j |.
j 6=i
Par conséquent, pour tout x Ê 1, det(A + xIn ) 6= 0. D’après le théorème des ac-
croissements finis, la fonction polynomiale f : x 7→ det(A + xIn ) est de signe
constant sur [1, +∞[.
. D’après les règles de calcul du déterminant, le terme dominant dans f est x n
donc f est positive au voisinage de +∞. Par suite, f est strictement positive sur
[1, +∞[. En particulier, det(A + In ) = f (1) > 0. ◁
7.3. Exercice. Soit A = (a i , j ) ∈ Mn (C) telle que, pour tout i ∈ 1, n,
X
n
|a i ,i | > |a i , j |.
j =1
j 6=i
Montrer que
n ¯
Y X
n ¯
¯ ¯
| det A| Ê ¯a i ,i − |a i , j |¯.
i =1 j =1
j 6=i
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV
7. Exercices 203
¡ ¢
et D = diag |a 1,1 | − r 1 , |a 2,2 | − r 2 , . . . , |a n,n | − r n . La matrice D est inversible car
tous ses coefficients diagonaux sont non nuls. D’après le théorème de Gesch-
gorin, les valeurs propres de la matrice B = D −1 A appartiennent aux disques
a i ,i
de centre |a i ,i |−r i et de rayon
X
n ai , j ri
= .
j =1 |a i ,i | − r i |a i ,i | − r i
j 6=i
Y
n ¯ ¯
| det A| Ê ¯a i ,i − r i ¯.
i =1
X
n
|λ − a j , j ||x j | É |a j ,k ||x k | É r j |x i |.
k=1
k6= j
Ainsi,
|λ − a i ,i ||λ − a j , j ||x i ||x j | É r i r j |x i ||x j |.
Comme |x i | > 0, on peut simplifier par |x i |. Discutons selon le terme |x j |.
— Si |x j | = 0, alors |λ − a i ,i ||x i | = 0 donc λ = a i ,i ∈ O i , j .
— Sinon, alors on simplifie par |x j | et l’on obtient |λ − a i ,i ||λ − a j , j | É r i r j
donc λ ∈ O i , j .
◁
7.5. Exercice. Soit A ∈ Mn (C) une matrice dont le rayon spectral vérifie ρ(A) > 1.
Montrer que limkA k k = +∞.
▷ Éléments de correction. Par définition du rayon spectral, il existe une valeur
propre λ de A dont le module est strictement plus grand que 1. Quitte à consi-
dérer la norme ∞ dans la base de trigonalisation de A (toutes les normes sont
équivalentes sur Mn (C)), on obtient kA k k Ê |λ|k pour tout entier k. Le résultat
suit par comparaison. ◁
7.6. Exercice. Soit A 1 , . . . , A p ∈ Mn (C) des matrices qui commutent deux à deux.
Montrer que
ρ(A 1 · · · A p ) É ρ(A 1 ) · · · ρ(A p ).
7. Exercices 205
7.8. Exercice.
1. Soit A ∈ Mn (C) une matrice irréductible. Montrer que les valeurs propres
de A appartenant à la frontière de la réunion des disques de Gerschgorin
appartient en fait à l’intersection de tous les disques de Gerschgorin.
Ce résultat est connu sous le nom de théorème de Taussky.
2. En déduire que la matrice tridiagonale
2 1 0 ··· 0
..
1 . . . . . . . . . .
0 . . . . . . . . . 0 ∈ Mn (R)
.. . . .. ..
. . . . 1
0 ··· 0 1 2
est inversible.
▷ Éléments de correction.
1. Soit λ une valeur propre de A appartenant à la frontière de la réunion des
disques de Gerschgorin et X = (x i ) un vecteur propre associé. Considé-
rons la partie non vide
© ª
I = i ∈ 1, n, |x i | = max |x j | .
j
et donc
X
n ¡ ¢
|a i , j | |x i | − |x j | É 0.
j =1
j 6=i
Comme tous les termes de cette somme sont tous positifs, ils sont tous
nuls. Or, pour tout j ∉ I , |x i | − |x j | > 0 donc a i , j = 0.
Comme la matrice A est irréductible, cela entraîne I = 1, n. Avec le ré-
sultat du premier point, on conclut donc que λ appartient à la frontière
de tous les disques de Gerschgorin.
2. La matrice proposée est bien irréductible car un calcul rapide montre
que sa puissance (n − 1)-ième est strictement positive.
Elle admet deux disques de Gerschgorin centrés au point d’affixe 2 et
de rayon 1 et 2. Le complexe 0 appartient à la frontière de la réunion de
ces disques mais n’appartient pas à la frontière de tous les disques donc
n’est pas valeur propre d’après la question précédente.
0 2
7.9. Exercice. Soit A ∈ Mn (R) une matrice positive, irréductible et X ∈ Mn,1 (R)
un vecteur positif. Montrer que le vecteur (In + A)X est
— soit strictement positif,
— soit positif avec strictement moins de coordonnées nulles que X .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV
7. Exercices 207
Par conséquent, toute coordonnée de (In + A)X est positive et une coordonnée
de (In + A)X ne peut être nulle que si la coordonnée correspondante de X est
nulle.
. Raisonnons par l’absurde et supposons que X et (In +A)X ont le même nombre
(strictement positif) de coordonnées nulles (donc les mêmes coordonnées nulles
d’après le premier point) ; notons I l’ensemble des indices de ces coordonnées
nulles. Alors, pour tout i ∈ I ,
X
n X
n
ai , j x j = a i , j x j = x i = 0.
j =1 j =1
j ∉I
celles de A. Ainsi, pour toute valeur propre λ de A, il existe i ∈ 1, n tel que
|λ − a i ,i | É ρ(B ) − b i ,i .
Remarquons que le résultat peut être étendu au cas d’une matrice B seulement
positive en approchant B par des matrices strictement positives et en utilisant
la continuité du rayon spectral. ◁
7.11. Exercice. Soit A ∈ Mn (R) une matrice strictement positive. Montrer que le
rayon spectral ρ(A) est une valeur propre de multiplicité (algébrique) 1.
¡ ¢
Indication : on pourra montrer que la suite ρ(A)−k A k k est bornée et raisonner
par l’absurde en considérant un bloc de Jordan associé à ρ(A).
Chapitre XV
Objectifs du chapitre
On suppose connu le formalisme usuel des probabilités, la notion de mesure
de probabilité P, d’espérance E, les probabilités conditionnelles et la formule
des probabilités totales.
— Comprendre le lien entre la propriété de Markov et le calcul des puis-
sances d’une matrice.
— Appliquer le théorème de Perron & Frobenius pour la convergence vers
une loi de probabilité stationnaire.
1. Chaînes de Markov
1.2. Remarque. Informellement, une chaîne de Markov est une suite de va-
riables (X n )n telle que, pour tout p, le futur (X n )nÊp et le passé (X n )nÉp sont
indépendants conditionnellement au présent X p .
1.3. Remarque. Une chaîne de Markov (X n )n homogène et finie peut être dé-
crite par sa valeur initiale X 0 et le graphe orienté et étiqueté de ses transitions.
Les sommets de ce dernier sont les éléments de l’espace d’états et les arcs re-
présentent les transitions possibles : plus précisément, le graphe admet un arc
de e vers e 0 étiqueté par la valeur p > 0 si P(X 1 = e 0 |X 0 = e) = p.
1.5. Exemple. Soit (Yn )n une suite de variables indépendantes à valeurs dans E
identiquement distribuées. La suite (X n )n définie par
X
n
Xn = Yk
k=0
2. Matrice de transition
2.1. Définition. Soit E = {e 1 , . . . , e N } un ensemble fini et (X n )n une chaîne de
Markov homogène d’espace d’états E . La matrice de transition de (X n )n est la
matrice de A ∈ MN (R) telle que, pour tous i , j ∈ 1, N ,
[A]i , j = P(X 1 = e j |X 0 = e i ).
2.3. Remarque. On dispose ainsi de deux descriptions pour une chaîne de Mar-
kov homogène et finie de loi initiale donnée : d’un côté, la matrice de transition
et de l’autre, le graphe orienté des transitions.
e1 e2 e3 e4 e5 e6
Sa matrice de transition (en considérant les états dans l’ordre de leurs indices)
est
0 12 12 0 0 0
1 0 1 0 0 0
2 2
1 1
0 2 0 2 0 0
∈ M6 (R).
0 0 12 0 12 0
0 0 0 1 0 1
2 2
0 0 12 0 12 0
2.8. Exemple. La chaîne de Markov décrite par la graphe suivant (où, une fois
encore, chaque arc correspond à une transition de probabilité 12 ) n’est pas irré-
ductible.
En effet, il n’y a notamment pas de chemin de l’état e 1 vers l’état e 4 .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap15 chapitre:XV
e1 e2 e3 e4 e5 e6
Il faut bien considérer le graphe orienté (avec les arêtes étiquetées par des va-
leurs strictement positives). Dans ce cas, on observe que le graphe non orienté
correspond est connexe.
3. Probabilité invariante
3.1. Proposition. Le rayon spectral d’une matrice stochastique est égal à 1.
Démonstration. Soit A ∈ MN (R) une matrice stochastique.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap15 chapitre:XV
4. Théorème ergodique
4.1. Proposition. Soit A une matrice stochastique irréductible. Alors, il y a équi-
valence entre les propositions suivantes
. il existe p ∈ N tel que A p est strictement positive ;
. il existe i 0 ∈ 1, N tel que le PGCD des entiers n ∈ N tels que [A n ]i 0 ,i 0 > 0 vaut 1.
Dans ce cas, la matrice est dite ergodique ou apériodique.
[A p ]i , j Ê [A αi ]i ,i 0 [A p−αi −β j ]i 0 ,i 0 [A β j ]i 0 , j > 0.
© ª
Pour la valeur p = max αi + p 0 +β j , i , j ∈ 1, N , la matrice A p est strictement
positive. ä
e1 e2 e3 e4 e5
lim[A p ]i , j = π j .
p
5. Commentaires et développements
5.1. La majeure partie de notre étude repose sur l’hypothèse d’irréductibilité de
la chaîne de Markov. Il ne faut pas toutefois croire qu’une chaîne de Markov ré-
ductible soit tout à fait dénuée d’intérêts. Considérons, par exemple, la chaîne
de Markov dont la transition est décrite par le graphe suivant (où chaque arc
est étiqueté par l’inverse du nombre d’arcs issus de cet état) :
e2
e6 e5 e1 e3 e4
plutôt celle de la probabilité d’être absorbée par e 4 , celle du temps avant l’ab-
sorbtion par l’un de ces états. Ces calculs, souvent appelés calcul à un pas, sont
détaillés dans le joli petit livre suivant :
Processus aléatoires pour les débutants, Arthur Engel, Cassini, 2011.
5.2. Nous avons défini une chaîne de Markov ergodique avec la propriété d’apé-
riodicité. De manière générale, la période de l’état e i de la chaîne de Markov
finie homogène de matrice de transition A est le PGCD de l’ensemble
© ª
n ∈ N, [A n ]i ,i > 0 .
Si la chaîne de Markov est irréductible, il est facile de vérifier que tous les états
ont la même période. Lorsque cette période d est différente de 1, la conver-
gence de la suite ([A p ]i , j )p est remplacée par la convergence de suites extraites
avec des indices en progression arithmétique de raison d .
5.3. Une chaîne de Markov infinie homogène peut admettre une vecteur propre
(de taille infinie) à gauche positif associé à 1 sans qu’il existe une probabilité
stationnaire. Ceci amène à distinguer les chaînes dites récurrentes positives des
chaînes dites récurrentes nulles.
6. Exercices
6.1. Exercice. La chaîne de l’exemple XV -2.7 est-elle ergodique ? Déterminer son
éventuelle probabilité invariante.
6.2. Exercice.
1. Une probabilité réversible d’une matrice stochastique A = (a i , j ) est un
vecteur ligne π = (πi ) ∈ M1,n (R) positif et de somme 1 tel que,
∀i , j ∈ 1, n, πi a i , j = π j a j ,i .
6. Exercices 219
par
k
P(X n+1 = k + 1|X n = k) = 1 − P(X n+1 = k − 1|X n = k) = N.
2. On peut vérifier rapidement que cette chaîne est bien irréductible (mais
qu’elle n’est pas ergodique). Toutefois, ici nous allons exploiter la pre-
mière question et chercher une probabilité réversible, c’est-à-dire un
vecteur π positif de somme 1 tel que, pour tout k ∈ 0, N ,
¡ ¢
πk Nk = πk+1 1 − Nk ,
¡ ¢
avec la convention πN +1 = 0. Un rapide calcul donne alors πk = 2−N Nk
pour k ∈ 0, N .
◁
▷ Éléments de correction.
1. Soit X ∈ ker(In − A + M ). Alors, π(In − A + M )X = 0 mais aussi
π(In − A + M )X = (π − πA + πM )X
= (π − π + π)X = πX .
6.4. Exercice. Soit A ∈ Mn (R) une matrice stochastique, strictement positive. No-
tons d le plus petit coefficient de A et, pour tout vecteur X = (x i ) ∈ Mn,1 (R),
© ª
δ(X ) = max x i − x j , i , j ∈ 1, n .
1. Montrer que, pour tout vecteur X ∈ Mn,1 (R) positif, δ(AX ) É (1−2d )δ(X ).
2. En déduire que, pour tout vecteur X ∈ Mn,1 (R) positif, la suite (δ(A p X ))p
converge vers 0.
On retrouve une justification heuristique du premier point du Théorème XV -4.3
pour les matrices stochastiques strictement positives.
▷ Éléments de correction.
1. Soit X = (x i ) ∈ Mn,1 (R) un vecteur positif, i 0 et j 0 des indices tels que
© ª © ª
x i 0 = max x i , i ∈ 1, n , et x j 0 = min x i , i ∈ 1, n ,
É (1 − a i , j 0 )x i 0 + a i , j 0 x j 0 − (1 − a j ,i 0 )x j 0 − a j ,i 0 x i 0
É (1 − a i , j 0 − a j ,i 0 )x i 0 − (1 − a j ,i 0 − a i , j 0 )x j 0
É (1 − 2d )(x i 0 − x j 0 ) = (1 − 2d )δ(X ).
2. Par récurrence, on trouve, pour tout vecteur X ∈ Mn,1 (R) positif et tout
entier p,
0 É δ(A p X ) É (1 − 2d )p δ(X ).
Chapitre XVI
Exponentielle de matrices
Objectifs du chapitre
— Calculer une exponentielle de matrice dans des cas simples.
— Élucider le lien entre la diagonalisabilité d’une matrice et de son expo-
nentielle.
— Comprendre l’utilisation de l’exponentielle de matrice pour résoudre un
système différentiel à coefficients constants.
1. Définitions
¡ ¢> >
1.3. Proposition. Soit A ∈ Mn (K). Alors, e A = e A et e A = e A .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI
¡ ¢k ¡ ¢>
Démonstration. Il suffit de remarquer que, pour tout k ∈ N, A > = A k et
k
A = Ak . ä
π
1.5. Exemple. Considérons la matrice de rotation du plan d’angle 2
µ ¶
0 −1
A= .
1 0
e A = U e B U −1 .
1. Définitions 223
X
p−1
1 k
eN = N .
k=0 k!
2.3. Proposition. Soit N ∈ Mn (K) une matrice nilpotente. Alors, les matrices
ln(In + N ) et e N − In sont nilpotentes et
¡ ¢
e ln(In +N ) = In + N , ln e N = N .
X
p−1
1 k X
p−1
(−1)k−1 k
P= X , Q= X .
k=1 k! k=1 k
2.5. Remarque. Ce résultat aurait également pu être établi sans recours au lo-
garithme en exploitant la réduction de Jordan de la matrice N et en effectuant
le calcul de l’exponentielle sous la forme diagonale par blocs.
Une idée importante pour relier une matrice diagonalisable et son exponen-
tielle consiste à exploiter l’existence de polynômes interpolateurs bien choisis.
3.4. Remarque. Ce résultat n’est plus vrai dans Mn (C) comme on peut le consta-
ter avec la matrice A = diag(0, 2i π) dont l’exponentielle (et donc tous ses poly-
nômes) est scalaire.
A = U diag(λ1 , . . . , λn )U −1 , B = U diag(µ1 , . . . , µn )U −1 .
En calculant, les exponentielles e A et e B avec des décompositions, on obtient
que, pour tout k ∈ 1, n, e λk = e µk puis λk = µk avec l’injectivité de la fonction
exponentielle sur R. En conclusion, A = B . ä
3.6. Remarque. Le résultat n’est plus vrai dans Mn (C). Par exemple, les ma-
trices 2i πI2 et 02 diagonales donc, a fortiori diagonalisables, ont la même ex-
ponentielle mais ne sont pas égales.
4.2. Lemme. Soit A ∈ GLn (C). Alors, il existe P ∈ C[X ] tel que A = e P (A) .
A = D(In + D −1 N ).
5. Application exp
5.1. Proposition. L’application exp est surjective de Mn (C) dans GLn (C).
Démonstration. Soit A ∈ GLn (C). D’après le dernier lemme, on dispose d’un po-
lynôme P ∈ C[X ] tel que A = e P (A) . Ainsi, toute matrice complexe inversible est
atteinte par l’application exp. ä
5.2. Corollaire. Soit A ∈ GLn (C) et p ∈ N∗ . Alors, il existe une matrice R ∈ GLn (C)
telle que A = R p .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI
5.3. Remarque. Ceci est a priori faux si on enlève l’hypothèse d’inversibilité. Par
exemple, un bloc de Jordan J n ne peut être le carré d’une matrice R : en effet,
si c’était le cas, on aurait R 2n−2 6= 0n et R 2n = 0n donc une matrice de taille n,
nilpotence d’indice strictement plus grand que n, contradiction !
(⇐) Appliquons le lemme XVI -4.2 à R : on dispose d’un polynôme P ∈ C[X ] tel
que R = e P (R) . On remarque alors, en utilisant que R est à coefficients réels, que
5.5. Exemple. Soit n Ê 2. L’application exp n’est pas injective sur Mn (R) (donc
pas sur Mn (C) non plus). En effet, la matrice
µ ¶
0 −1
2π
1 0
Y 0 = A(t )Y + B (t )
6.3. Proposition. Soit A ∈ Mn (K) et Y0 ∈ Mn,1 (K). Alors, le système linéaire ho-
mogène à coefficients constants Y 0 = AY admet exactement une solution véri-
fiant la condition initiale Y (0) = Y0 et cette solution est t 7→ e t A Y0 .
Revenons à la proposition.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI
Cas λ = −3, µ = −1
Dans le cas de l’illustration, les deux droites propres de A sont l’axe des abs-
cisses et la droite dirigée par le vecteur (1, 2) (représentés en gris).
. Si l’une des deux valeurs propres est strictement négative et que l’autre est
strictement positive, la situation devient un peu plus délicate et l’origine (0, 0)
n’est plus un point attractif de toutes les trajectoires. En conservant les mêmes
conditions initiales et les mêmes conventions que ci-dessus, on observe un
schéma bien différent. Les deux droites propres de A sont l’axe des abscisses
(associé à la valeur propre λ > 0) et la droite dirigée par le vecteur (1, −2) (asso-
cié à la valeur propre µ < 0 où les trajectoires continuent donc à converger vers
l’origine).
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI
Cas λ = 1, µ = −1
Une discussion plus générale sur le signe des valeurs propres réelles et des
parties réelles des valeurs propres complexes permet d’élucider complètement
l’allure des courbes dans le diagramme de phase d’un tel système.
7. Commentaires et développements
7.1. Plusieurs calculs de ce chapitre font apparaître le rôle prépondérant de
l’ensemble des matrices unipotentes, c’est-à-dire des matrices qui s’écrivent
comme sommes de l’identité et d’une matrice nilpotente.
La proposition XVI -2.3 indique que l’exponentielle réalise une bijection entre
le cône des matrices nilpotentes et l’ensemble des matrices unipotentes. Avec
des considérations topologiques, on obtient que l’application ainsi définie est
un homéomorphisme.
7.2. Pour montrer que toute matrice inversible complexe est atteinte par l’ex-
ponentielle, il suffit, quitte à passer par une décomposition de Cn en sous-
espaces caractéristiques d’une matrice donnée, de montrer que les matrices
triangulaires supérieures à coefficients diagonaux égaux à une valeur (propre)
λ 6= 0 sont atteintes par l’exponentielle ; en divisant par λ, on est ramené au
résultat indiquant que les matrices triangulaires supérieures avec des 1 sur la
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI
diagonale, qui sont des matrices unipotentes particulières, sont bien atteintes
par l’exponentielle.
7.4. On peut montrer que exp(Mn (R)), l’image de Mn (R) par l’application ex-
ponentielle, est une partie de GLn (R) qui n’est ni ouverte, ni fermée. On peut
aisément comprendre le premier point en taille 2 en considérant l’exemple de
la suite de matrices définie, pour tout n ∈ N par
µ ¶
−1 2−n
0 −1
Aucune de ces matrices n’appartient à exp(Mn (R)) contrairement à la limite de
cette suite, −I2 .
La partie exp(Mn (R)) n’est pas un sous-groupe de GLn (R) : en effet, toute ma-
trice de déterminant strictement positif se décompose comme produit d’une
matrice de S n++ (R) et d’une matrice de S O n (R) (décomposition polaire) donc
de deux matrices qui appartiennent à exp(Mn (R)) ; ainsi, si exp(Mn (R)) est
stable par produit matriciel, alors cette partie contient toutes les matrices de
déterminant strictement positif ce qui est absurde.
7.5. Le résultat général d’appartenance à exp(Mn (R)) peut être énoncé de ma-
nière satisfaisante avec les tableaux de Young : une matrice A ∈ GLn (R) est une
exponentielle (ou de manière équivalente un carré) si, et seulement si, dans
chacun de ses tableaux de Young associé aux (éventuelles) valeurs propres né-
gatives, les lignes de même longueur sont en nombre pair. Ainsi, les matrices
µ ¶ −1 1 0
−1 1
A= , B = 0 −1 1 ,
0 −1
0 0 −1
n’appartiennent pas à exp(Mn (R)) puisqu’elles admettent pour la valeur propre
−1 les tableaux de Young suivants
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI
8. Exercices 233
8. Exercices
8.1. Exercice. Calculer l’exponentielle de la matrice diagonalisable
0 1 0
A = 0 1 1 .
0 0 2
8.3. Exercice. Montrer que la matrice diag(−1, −2) n’est pas l’exponentielle d’une
matrice réelle.
▷ Éléments de correction. Supposons qu’il existe une matrice réelle A telle que
e A = diag(−1, −2). Comme e A admet deux valeurs propres distinctes, la matrice
A qui commute avec e A (donc laisse stables les deux droites propres) est aussi
diagonale. En notant λ et µ les valeurs propres de A (éventuellement égales),
on obtient e λ = −1 ou e µ = −1 ce qui est impossible car exp(R) = R∗+ .
Cette matrice n’est pas l’exponentielle d’une matrice réelle bien qu’elle soit
de déterminant strictement positif : cette condition sur le déterminant est né-
cessaire mais non suffisante pour appartenir à exp(Mn (R)) (une caractérisa-
tion complète dans le cas général est la proposition XVI -5.4 ou le commen-
taire XVI -7.5). ◁
8.4. Exercice. Montrer que la matrice −I2 + E 1,2 n’est pas l’exponentielle d’une
matrice réelle.
▷ Éléments de correction. Supposons qu’il existe une matrice réelle A telle que
e A = −I2 + E 1,2 . Les valeurs propres complexes de A ont pour exponentielle −1
dont de la forme (2k + 1)i π. Or, elles sont conjuguées car A est réelle donc dis-
tinctes. Ainsi, la matrice A est diagonalisable et e A l’est également : contradic-
tion. ◁
8. Exercices 235
Dans ce cas, e A = I2 si, et seulement si, il existe un entier k non nul tel
que det A = 4k 2 π2 .
— Si det A = 0, c’est-à-dire si A est nilpotente, alors e A = I2 + A donc, dans
ce cas, e A = I2 si, et seulement si, A = 02 .
— Si det A < 0, alors
¡p ¢
¡p ¢ sh − det A
e A = ch − det A I2 + p A.
− det A
A
Dans ce cas, il est impossible d’obtenir e = I2 .
L’ensemble recherché est donc composé de la matrice nulle et de la réunion sur
k ∈ N∗ des ensembles des matrices de trace nulle et de déterminant 4k 2 π2 . ◁
8. Exercices 237
8.7. Exercice. Soit A ∈ Mn (R) tel que χ A est scindé dans R[X ]. Montrer que A est
diagonalisable si, et seulement si, e A est diagonalisable.
▷ Éléments de correction. (⇒) Le sens direct est déjà établi dans le cours.
(⇐) Supposons la matrice e A diagonalisable et considérons A = D + N la dé-
composition de Jordan & Dunford de A. Alors,
e A = e D e N = e D + e D (e N − In ).
Or, par hypothèse, e A est diagonalisable donc sa partie nilpotente est nulle
(unicité de la décomposition de Jordan & Dunford) : e D (e N − In ) = 0n . Comme
e D ∈ GLn (C), on en déduit e N = In . Ainsi, N = 0n et donc A = D est diagonali-
sable. ◁
8.8. Exercice. Montrer que exp réalise une bijection de S n (R) dans S n++ (R).
▷ Éléments de correction.
¡ ¢> > ¡ ¢ © ª
. Pour tout S ∈ S n (R), e S = e S = e S et Sp e S = e λ , λ ∈ Sp(S) ⊂ R∗+ donc
e S ∈ S n++ (R).
. Montrons la surjectivité de cette application. Soit A ∈ S n++ (R). D’après le
théorème spectral, il existe U ∈ O n (R) et λ1 , . . . , λn ∈ R∗+ tels que
A = U diag(λ1 , . . . , λn )U > .
8.9. Exercice.
1. Soit A ∈ Mn (K). Montrer que l’équation différentielle M 0 = AM d’incon-
nue M : R → Mn (K) admet une unique solution vérifiant la condition
initiale M (0) = In .
2. Soit A, B ∈ Mn (K) deux matrices qui commutent. Montrer que la fonction
t 7→ e t A e t B est solution de l’équation M 0 = (A + B )M .
Retrouver la relation e A+B = e A e B .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI
▷ Éléments de correction.
1. Une fonction M : R → Mn (K) est solution de l’équation M 0 = AM si, et
seulement si, pour tout t ∈ R, e −t A (M 0 − AM ) = 0n , c’est-à-dire si la fonc-
tion t 7→ e −t A M est constante (car le membre de gauche est sa dérivée).
Ainsi, la seule solution de l’équation vérifie e −t A M = e −0A M (0) = In pour
tout t ∈ R. Ainsi la seule solution est donc t 7→ e t A .
2. . La fonction t 7→ e t A e t B est dérivable comme produit de deux fonctions
dérivables. Sa dérivée est
t 7→ Ae t A e t B + e t A B e t B = (A + B )e t A e t B
car B commute avec A par hypothèse donc avec e t A qui est, à t fixé, un
polynôme en A.
Ainsi, la fonction t 7→ e t A e t B est solution de l’équation M 0 = (A + B )M
avec la condition initiale M (0) = In .
. D’après la première question, on sait que l’unique solution de l’équa-
tion M 0 = (A + B )M avec la condition initiale M (0) = In est t 7→ e t (A+B )
donc, pour tout t ∈ R, e t (A+B ) = e t A e t B .
En évaluant en t = 1, on retrouve l’identité annoncée : e A+B = e A e B .
◁
f 0 : t 7→ −A 1 e −t A 1 M (t )e −t A 2 + e −t A 1 M 0 (t )e −t A 2 + e −t A 1 M (t )(−A 2 )e −t A 2 ,
e −t A 1 M (t )e −t A 2 = f (0) = M (0).
Annexe A
Objectif du chapitre
— Rappeler quelques résultats de ce livre.
— Esquisser un parallèle entre la réduction d’un endomorphisme en di-
mension finie et l’étude d’un groupe abélien fini.
1. A-modules
1.1. Définition. Soit A un anneau unitaire abélien. Un ensemble M muni d’une
loi de composition interne + et d’une loi de composition externe · de A × M
dans M est un A-module si
— (M , +) est un groupe abélien,
— ∀a, b ∈ A, ∀x ∈ M , (a + b) · x = a · x + b · x,
— ∀a ∈ A, ∀x, y ∈ M , a · (x + y) = a · x + a · y,
— ∀a, b ∈ A, ∀x ∈ M , (ab) · x = a · (b · x),
— ∀x ∈ M , 1 A .x = x.
Notre but est de faire sentir comment cette structure traverse le livre. Toutefois,
il n’est pas envisageable de faire une étude raisonnable de la structure de A-
module en quelques pages. On renvoie donc le lecteur intéressé au livre
Modules : théorie, pratique... et un peu d’arithmétique ! Grégory Berhuy, Cal-
vage et Mounet, 2012.
Une simple vérification à l’aide de la définition amène les deux propositions
suivantes.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:annexe chapitre:A
1.2. Proposition. Un groupe abélien (G, +) est Z-module pour la loi externe dé-
finie par
½
Z ×G → G
(k, x) 7→ kx
1.3. Remarque. La réciproque est vraie : les Z-modules sont exactement les
groupes abéliens.
1.5. Remarque. Cette structure a déjà été abondamment exploitée dans les
commentaires et développements en fin de chaque chapitre. Pour davantage
de détails sur la réduction comprise au niveau de la structure de K[X ]-module,
on renvoie au chapitre 2A du livre
Histoires hédonistes de groupes et de géométrie (tome 2), Philippe Caldero et
Jérôme Germoni, Calvage et Mounet, 2015.
2. Lexique
Dans cette partie, on juxtapose (sans commentaire) quelques résultats de ce
livre avec des résultats de théorie des groupes. On lit donc les lignes suivantes
à la manière d’un lexique entre deux langues.
L’asymétrie dans le cadre (d’un côté G, de l’autre le couple (E , u)) casse un peu
la clarté du parallèle. On parle tantôt de E ou de u à gauche alors que l’on parle
toujours de G à droite.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:annexe chapitre:A
2. Lexique 241
est engendré par un unique polynôme est engendré par un unique entier po-
unitaire µu,x , le polynôme minimal de sitif, l’ordre de x.
u en x.
L’idéal L’idéal
© ª © ª
P ∈ K[X ], ∀x ∈ E , P (u)(x) = 0E k ∈ Z, ∀x ∈ G, kx = 0G
est engendré par un unique poly- est engendré par un unique entier po-
nôme unitaire µu , le polynôme mini- sitif, l’exposant de G.
mal de u.
u est cyclique s’il existe x ∈ E tel que G est cyclique s’il existe x ∈ G tel que
© ª © ª
E = P (u)(x), P ∈ K[X ] . G = kx, k ∈ Z .
E1 × E2 × · · · × Er Z /d 1 Z × Z /d 2 Z × · · · × Z /d r Z .
P 1 = µu d 1 est l’exposant de G.
P 1 · · · P r = χu d 1 · · · d r est l’ordre de G.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:annexe chapitre:A
Notations
244 Notations
Index
246 Index
spectre, 51 de Maschke, 37
système différentiel linéaire, 228 de Perron, 196, 208
de Perron & Frobenius, 199
tableau de Young, 147
de Taussky, 205
théorème
min-max de Courant-Fischer, 134
de Brauer, 64, 203
spectral, 126
de Cayley & Hamilton, 75, 81
de Gelfand, 194 trigonalisabilité, 105
de Hadamard, 189
de Jordan & Weyr, 150 valeur propre, 51
de Kronecker, 111 vecteur propre, 51
Algèbre linéaire
R
édigé pour les étudiants en licence de mathématiques et pour les élèves des classes
préparatoires scientifiques, ce manuel d’algèbre linéaire est consacré à la réduction des
matrices et des endomorphismes. Il rassemble – en 16 chapitres – tout ce que l’étudiant
doit maîtriser de cette partie spécifique du programme.
Afin d’aborder les différents aspects de la théorie de la réduction, les premiers chapitres détaillent
avec soin les objets et concepts de l’algèbre linéaire. Les chapitres suivants présentent aussi bien
les critères pratiques que leurs utilisations théoriques, à l’appui de nombreux exemples. Cette
approche pédagogique offre également une base solide de révision pour tous les candidats aux
concours de l’enseignement.
Cette troisième édition intègre deux nouveaux chapitres consacrés respectivement à la réduction
des endomorphismes particuliers d’un espace euclidien et à l’exponentielle de matrices. Plus de
50 exercices ont été ajoutés.
www.deboecksuperieur.com