Vous êtes sur la page 1sur 260

ROGER MANSUY • RACHED MNEIMNÉ

Algèbre linéaire
Réduction des
3
e

édition
endomorphismes
LICENCE 2 & 3
S
MATHÉMATIQUE
CPGE
ATION
CAPES & AGRÉG

• Cours complet
• Commentaires et développements
• Plus de 170 exercices corrigés
ROGER MANSUY • RACHED MNEIMNÉ

Algèbre linéaire
Réduction des
3
e

édition
endomorphismes

4658BOElimMansuy.indd 1 24/11/2021 14:59


Chez le même éditeur (extrait du catalogue)
Belhaj S., Mathématiques pour l’économie et la gestion
Belhaj S., Ben Aissa A., Mathématiques pour l’informatique
Briane M., Pagès G., Analyse. Théorie de l’intégration – 7e édition
Burg P., Mathématiques. Les fondamentaux en Licence 1
Canon É., Analyse numérique
Carassus L., Pagès G., Finance de marché. Modèles mathématiques à temps discret
Carton O., Langages formels. Calculabilité et complexité
Choulli M., Analyse fonctionnelle
Choulli M., Analyse complexe
Cottet-Emard F., 36 problèmes corrigés pour le CAPES de mathématiques
Cottet-Emard F., Probabilités et tests d’hypothèses
Cottet-Emard F., Algèbre linéaire et bilinéaire
Cottet-Emard F., Analyse
Cottet-Emard F., Toutes les maths – Analyse en 40 fiches
Cottet-Emard F., Toutes les maths – Algèbre et probabilités en 62 fiches
Darracq M.-C. & Rombaldi J.-É., Analyse pour la Licence
Darracq M.-C. & Rombaldi J.-É., Algèbre et géométrie pour la Licence
Darracq M.-C. & Rombaldi J.-É., Probabilités pour la Licence
Depauw J., Statistiques
Girardin V., Limnios N., Probabilités et introduction à la statistique
Pagès G., 101 quizz qui banquent. Mathématiques et finances sont-elles indépendantes ?
Wassef P., Algèbre., Arithmétique pour l’informatique

Pour toute information sur notre fonds et les nouveautés dans votre domaine
de spécialisation, consultez notre site web :
www.deboecksuperieur.com

En couverture : Coupe d’un nautile © AdrianHancu/Getty Images


Maquette intérieure : Hervé Soulard/Nexeme
Mise en pages de l’auteur
Maquette de couverture : Primo&Primo
Couverture : SCM, Toulouse

Dépôt légal :
Bibliothèque royale de Belgique : 2022/13647/006
Bibliothèque nationale, Paris : février 2022

Tous droits réservés pour tous pays.


Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie)
partiellement ou totalement le présent ouvrage, de le stocker dans une banque de données
ou de le communiquer au public, sous quelque forme ou de quelque manière que ce soit.

© De Boeck Supérieur SA, 2022 - Rue du Bosquet 7, B1348 Louvain-la-Neuve


De Boeck Supérieur - 5 allée de la 2e DB, 75015 Paris

4658BOElimMansuy.indd 2 24/11/2021 14:59


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:9782807336612_Algebre_lineaire_3e chapitre:0

Table des matières

I. Polynômes d’endomorphismes 1
1. Un morphisme d’algèbres . . . . . . . . . . . . . . . . . . . . . . . . . 1
2. Idéal des polynômes annulateurs . . . . . . . . . . . . . . . . . . . . . 2
3. Polynôme minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
4. Utilisation pratique d’un polynôme annulateur . . . . . . . . . . . . . 5
5. Commentaires et développements . . . . . . . . . . . . . . . . . . . . 8
6. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

II. Sous-espaces stables 15


1. Restriction d’une application linéaire . . . . . . . . . . . . . . . . . . . 15
2. Sous-espaces stables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3. Endomorphisme induit sur un sous-espace stable . . . . . . . . . . . 17
4. Exemples de sous-espaces stables . . . . . . . . . . . . . . . . . . . . . 18
5. Sous-espaces cycliques . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
6. Commentaires et développements . . . . . . . . . . . . . . . . . . . . 20
7. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

III. Commutation 27
1. Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2. Calculs de commutants . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3. Endomorphisme ad u . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4. Commentaires et développements . . . . . . . . . . . . . . . . . . . . 32
5. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

IV. Lemme des noyaux 41


1. Étude des sous-espaces ker P (u) . . . . . . . . . . . . . . . . . . . . . . 41
2. Lemme des noyaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3. Décomposition avec des sous-espaces stables . . . . . . . . . . . . . 44
4. Commentaires et développements . . . . . . . . . . . . . . . . . . . . 46
5. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:9782807336612_Algebre_lineaire_3e chapitre:0

iv Table des matières

V. Éléments propres, caractéristiques 51


1. Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2. Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3. Commentaires et développements . . . . . . . . . . . . . . . . . . . . 56
4. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

VI. Endomorphismes cycliques 67


1. Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2. Caractérisation avec le polynôme minimal . . . . . . . . . . . . . . . . 68
3. Caractérisation avec le commutant . . . . . . . . . . . . . . . . . . . . 69
4. Matrices compagnons . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5. Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . 73
6. Commentaires et développements . . . . . . . . . . . . . . . . . . . . 75
7. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

VII. Théorème de Cayley & Hamilton 81


1. Énoncé et conséquences . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2. Preuve par les sous-espaces cycliques . . . . . . . . . . . . . . . . . . 82
3. Preuve par la formule de la comatrice . . . . . . . . . . . . . . . . . . . 82
4. Sous-espaces caractéristiques . . . . . . . . . . . . . . . . . . . . . . . 83
5. Multiplicités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6. Commentaires et développements . . . . . . . . . . . . . . . . . . . . 84
7. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

VIII. Diagonalisation 89
1. Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
2. Critères de diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . 90
3. Critère de co-diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . 94
4. Commentaires et développements . . . . . . . . . . . . . . . . . . . . 95
5. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

IX. Trigonalisation 105


1. Critères de trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . 105
2. Critère de co-trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . 107
3. Fonctions symétriques des valeurs propres . . . . . . . . . . . . . . . 108
4. Commentaires et développements . . . . . . . . . . . . . . . . . . . . 111
5. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

X. Réduction dans un espace euclidien 119


1. Rappels sur l’adjoint d’un endomorphisme . . . . . . . . . . . . . . . 119
2. Endomorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . 120
3. Endomorphismes symétriques réels . . . . . . . . . . . . . . . . . . . 124
4. Décomposition polaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
5. Endomorphismes normaux réels . . . . . . . . . . . . . . . . . . . . . 128
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:9782807336612_Algebre_lineaire_3e chapitre:0

Table des matières v

6. Commentaires et développements . . . . . . . . . . . . . . . . . . . . 131


7. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

XI. Réduction de Jordan 141


1. Décomposition de Jordan & Dunford . . . . . . . . . . . . . . . . . . . 141
2. Réduction de Jordan : cas nilpotent . . . . . . . . . . . . . . . . . . . . 143
3. Interlude : lire un tableau de Young . . . . . . . . . . . . . . . . . . . . 148
4. Réduction de Jordan : cas général . . . . . . . . . . . . . . . . . . . . . 149
5. Commentaires et développements . . . . . . . . . . . . . . . . . . . . 150
6. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152

XII. Réduction de Frobenius 161


1. Réduction de Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
2. Retour sur la réduction de Jordan . . . . . . . . . . . . . . . . . . . . . 164
3. Commutants et bicommutants . . . . . . . . . . . . . . . . . . . . . . 167
4. Commentaires et développements . . . . . . . . . . . . . . . . . . . . 170
5. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171

XIII. Topologie des classes de similitude 175


1. Rappels sur la relation de similitude . . . . . . . . . . . . . . . . . . . 175
2. Classes de similitude dans M2 (R) . . . . . . . . . . . . . . . . . . . . . 176
3. Adhérence d’une classe de similitude . . . . . . . . . . . . . . . . . . . 180
4. Connexité d’une classe de similitude . . . . . . . . . . . . . . . . . . . 182
5. Commentaires et développements . . . . . . . . . . . . . . . . . . . . 183
6. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184

XIV. Localisation des valeurs propres 189


1. Théorème de Hadamard . . . . . . . . . . . . . . . . . . . . . . . . . . 189
2. Disques de Gerschgorin . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
3. Rayon spectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
4. Théorème de Perron . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
5. Théorème de Perron & Frobenius . . . . . . . . . . . . . . . . . . . . . 198
6. Commentaires et développements . . . . . . . . . . . . . . . . . . . . 200
7. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201

XV. Application aux chaînes de Markov finies 209


1. Chaînes de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
2. Matrice de transition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
3. Probabilité invariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
4. Théorème ergodique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
5. Commentaires et développements . . . . . . . . . . . . . . . . . . . . 217
6. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:9782807336612_Algebre_lineaire_3e chapitre:0

vi Table des matières

XVI. Exponentielle de matrices 221


1. Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
2. Exponentielle de matrices nilpotentes . . . . . . . . . . . . . . . . . . 224
3. Exponentielle de matrices diagonalisables . . . . . . . . . . . . . . . . 225
4. Exponentielle et décomposition de Jordan & Dunford . . . . . . . . . 226
5. Application exp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
6. Systèmes différentiels linéaires . . . . . . . . . . . . . . . . . . . . . . . 228
7. Commentaires et développements . . . . . . . . . . . . . . . . . . . . 231
8. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233

Annexe A. Parallèle avec les groupes abéliens finis 239


1. A-modules . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
2. Lexique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
2.1. Cadre d’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
2.2. Polynôme minimal . . . . . . . . . . . . . . . . . . . . . . . . . . 241
2.3. Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . 241
2.4. Endomorphisme cyclique . . . . . . . . . . . . . . . . . . . . . 242
2.5. Réduction de Frobenius . . . . . . . . . . . . . . . . . . . . . . . 242

Notations 243
Index 245
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:9782807336612_Algebre_lineaire_3e chapitre:0

Avant-propos

Qu’est-ce que la réduction ?


Dans tout cours d’algèbre linéaire, la réduction des matrices et des endomor-
phismes occupe une place importante. Toutefois, ce terme de réduction cache
différentes réalités et perspectives.
. D’une part, réduire un endomorphisme u d’un espace de dimension finie,
c’est trouver une base dans laquelle l’endomorphisme u est « bien compris » et
« facilement manipulable ». En pratique, cela revient à pouvoir déterminer une
matrice de l’endomorphisme avec une forme particulière : diagonale (dans le
meilleur des cas), diagonale par blocs, triangulaire...
Pour une matrice carrée M , l’équivalent de cette démarche consiste à chercher
une matrice d’une forme particulière semblable à M : en effet, la formule de
changement de bases pour la matrice d’un endomorphisme n’est autre que la
traduction de la similitude de deux matrices.
. D’autre part, réduire un endomorphisme (respectivement une matrice) c’est
comprendre l’ensemble de toutes les matrices qui lui sont associées (respecti-
vement sa classe de similitude) ; pour ce faire, on cherche une matrice réduite
qui décrit simplement, qui caractérise cet ensemble. En avançant dans cette di-
rection, on retrouve les invariants de similitude (pour la réduite de Frobenius)
ou les tableaux de Young (pour la réduite de Jordan).
Un cours complet comporte a priori les deux aspects imbriqués avec quelques
applications endogènes de l’algèbre linéaire mais aussi exogènes en provenance
de l’algèbre bilinéaire, de la topologie, de la géométrie, des probabilités...

Qu’apporte ce livre ?
Il existe de nombreux livres pour les étudiants de premiers cycles qui traitent
certains des aspects de la réduction mais peu présentent toute la richesse du
sujet de manière accessible pour des étudiant·e·s des premiers cycles (et dans
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:9782807336612_Algebre_lineaire_3e chapitre:0

viii Avant-propos

les préparations aux concours de recrutement de l’Éducation Nationale). Nous


avons donc cherché à fournir une introduction raisonnée à l’ensemble de la
réduction. Le livre se découpe grossièrement en parties avec des objectifs dis-
tincts.
. Tout d’abord, les sept premiers chapitres présentent dans un ordre assez
classique les outils de la suite du livre. L’algèbre des polynômes en un endo-
morphisme (respectivement une matrice carrée) joue évidemment un rôle es-
sentiel. Nous avons pris le parti de privilégier l’aspect élémentaire donc de ca-
cher, au moins en apparence, la structure de K[X ]-module. En revanche, nous
avons insisté sur l’étude des sous-espaces stables de la forme ker P (u) trop
souvent limitée au lemme des noyaux et aux sous-espaces propres et carac-
téristiques. Par exemple, le lemme IV -3.4 établit l’existence d’un sous-espace
cyclique maximal de dimension le degré du polynôme minimal : ce résultat
simple est riche pour la suite.
De même, nous avons choisi de mettre en exergue les endomorphismes cy-
cliques (chapitre VI) à la fois pour fournir une démonstration simple du théo-
rème de Cayley & Hamilton mais aussi pour le lemme VI -3.3, qui établit l’exis-
tence du supplémentaire stable d’un sous-espace cyclique maximal. L’idée est
bien évidemment de préparer le terrain aux réductions de Jordan et Frobenius
en se familiarisant avec l’argument des preuves par récurrence.
. Une fois tous ces outils mis en place, deux petits chapitres décrivent les cri-
tères simples de diagonalisation, de trigonalisation, de réduction simultanée...
Il s’agit simplement de combiner tout ce qui a été détaillé précédemment. Cela
constitue un objectif de nombreux cours de premiers cycles mais ce n’est ici
qu’un jalon dans le parcours.
. Même si l’algèbre bilinéaire est un tantinet exogène par rapport au propos de
ce livre, le chapitre X se focalise sur les endomorphismes particuliers d’un es-
pace euclidien : endomorphismes orthogonaux, autoadjoints ou, plus généra-
lement, normaux. Cela fournit également la possibilité de discuter de proprié-
tés de matrices réelles symétriques définies positives et de la décomposition
polaire.
. Les chapitres XI et XII présentent deux formes réduites normalisées : celle
de Jordan d’une part et celle de Frobenius d’autre part ; nous ne nous arrêtons
bien évidemment pas à l’existence de ces réductions mais nous cherchons à en
montrer l’utilité pratique avec de nombreux exercices sur les tableaux de Young
ou les algorithmes pour passer d’une forme réduite à l’autre.
. Le chapitre XIII exploite les différentes caractérisations de la similitude obte-
nue jusqu’à présent pour donner dans le cadre réel ou complexe des descrip-
tions géométriques et topologiques des classes de similitude.
. La séquence suivante répond à un problématique différente : il s’agit de cher-
cher approximativement où se trouvent les valeurs propres d’une matrice com-
plexe. Ce sujet est souvent une introduction au calcul matriciel numérique ;
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:9782807336612_Algebre_lineaire_3e chapitre:0

Avant-propos ix

nous avons choisi d’en détailler une autre application classique avec les chaînes
de Markov homogènes finies. L’application du théorème de Perron & Frobenius
est alors assez élémentaire et pourtant parlante sur l’importance de ce résultat.
. Le chapitre XVI est consacré aux exponentielles de matrices. Après avoir in-
troduit ce concept, nous montrons comment la réduction des matrices permet
de calculer ou de décrire les propriétés de l’exponentielle.
Voilà pour le contenu du livre. Passons maintenant à la forme.
Le contenu des chapitres est présenté de manière didactique dans une dé-
marche très conventionnelle parsemant de nombreux exemples (certains étant
très élémentaires) l’enchaînement des propositions et leurs preuves détaillées.
Certaines preuves sont délicates et il peut être astucieux de les sauter lors d’une
première lecture afin de comprendre correctement les énoncés puis d’y revenir
plus tard à tête reposée.
Toutefois, à la fin de chaque chapitre, une section intitulée « Commentaires et
développements » détonne : il s’agit de remarques moins détaillées mais néan-
moins profondes, d’ouvertures pour permettre d’aller plus loin, il ne s’agit plus
de faire cours mais de suggérer un travail personnel.
La dernière partie de chaque chapitre est bien évidemment constituée d’exer-
cices ; les corrections sont détaillées pour pouvoir être lues facilement même
si nous préconisons plutôt de ne pas les lire trop rapidement. Certains exer-
cices sont relativement classiques, d’autres plus originaux : nous avons choisi
de ne pas indiquer la difficulté pour ne pas biaiser le lecteur dans son effort de
recherche.

Remerciements
Un grand remerciement va aux relectrices et relecteurs des précédentes édi-
tions qui nous ont signalé coquilles et autres imprécisions. Les éventuelles er-
reurs restantes sont bien entendu la responsabilité des auteurs.

Conventions – à lire !
L’ensemble des notations est détaillé dans l’index en fin d’ouvrage. Précisons
quelques conventions.
Dans tout l’ouvrage, sauf précisions contraires, E désigne un K-espace vectoriel
de dimension finie où K désigne le corps R ou C.
Nous pratiquons abusivement l’identification d’une matrice de Mn (K) à l’en-
domorphisme de Kn canoniquement associé ; cela nous amène par exemple
quelquefois à dire qu’une matrice est injective ou qu’elle laisse stable un sous-
espace.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:9782807336612_Algebre_lineaire_3e chapitre:0
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap03 chapitre:I

Chapitre I

Polynômes
d’endomorphismes

Objectifs du chapitre
— Comprendre l’importance de l’algèbre K[u] des polynômes en un endo-
morphisme u donné.
— Calculer, sur des exemples simples, le polynôme minimal d’un endo-
morphisme.
— Utiliser les polynômes annulateurs pour calculer les puissances ou l’in-
verse (s’il existe).

1. Un morphisme d’algèbres
1.1. Définition. Soit u un endomorphisme d’un espace vectoriel E .
. Les puissances (de composition) de u sont les endomorphismes de E définis
récursivement par u 0 = IdE et, pour tout k ∈ N, par la relation

u k+1 = u ◦ u k = u k ◦ u.
PN
. Pour tout polynôme P = k=0 αk X k , l’endomorphisme P (u) de E est défini
par
XN
P (u) = αk u k .
k=0

1.2. Exemple. Par exemple, pour le polynôme P = X 3 + 2X − 1 et un endomor-


phisme u, l’endomorphisme P (u) vaut u 3 + 2u 1 − u 0 = u 3 + 2u − IdE .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap03 chapitre:I

2 I. Polynômes d’endomorphismes

1.3. Remarque. Pour toute matrice A ∈ Mn (K) et tout polynôme P ∈ K[X ], on


définit de même la matrice P (A) à partir des puissances de A. Il est important
de remarquer que si A est la matrice d’un endomorphisme u dans une base B,
alors P (A) est la matrice de l’endomorphisme P (u) dans cette même base B.

1.4. Remarque. Attention aux erreurs de notation entre polynômes et poly-


nômes en un endomorphisme u. Par exemple, on veille bien à ne pas mélanger
les écritures suivantes pour P , Q ∈ K[X ], u ∈ L (E ) et x ∈ E :
— P (u)(x), qui est un vecteur, et P (u(x)) qui n’est en général pas défini
(qu’est-ce qu’une puissance du vecteur u(x) ?) ;
— (P · Q)(u) = P (u) ◦ Q(u) et (P ◦ Q)(u) qui sont deux endomorphismes a
priori différents.

1.5. Proposition. Soit u un endomorphisme d’un espace vectoriel E et deux po-


lynômes P et Q ∈ K[X ]. Alors, les endomorphismes P (u) et Q(u) commutent.

Démonstration. Par linéarité, il suffit de noter que, pour tous m et n ∈ N,

u m ◦ u n = u m+n = u n ◦ u m .

1.6. Proposition. Soit u un endomorphisme d’un espace vectoriel E . L’applica-


tion qui à un polynôme P ∈ K[X ] associe l’endomorphisme P (u) est un mor-
phisme d’algèbres.
L’image de ce morphisme, notée K[u], est une sous-algèbre commutative de L (E ).

2. Idéal des polynômes annulateurs


2.1. Définition. Soit u un endomorphisme d’un espace vectoriel E et P ∈ K[X ].
Un polynôme P est annulateur de u si l’endomorphisme P (u) est l’endomor-
phisme nul.

2.2. Remarque. Comme précédemment, cette notion est définie de manière


analogue pour une matrice carrée A ∈ Mn (K) : un polynôme P est annulateur
de A si la matrice P (A) est nulle.

2.3. Proposition. Tout endomorphisme d’un espace vectoriel de dimension finie


admet un polynôme annulateur non nul.

Démonstration. Soit u un endomorphisme d’un K-espace vectoriel E de di-


¡ 2¢
mension n. Alors, la famille u 0 = IdE , u 1 , . . . , u n comporte n 2 + 1 vecteurs de
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap03 chapitre:I

2. Idéal des polynômes annulateurs 3

l’espace L (E ), lequel est de dimension n 2 : elle est par conséquent liée. Il existe
donc des scalaires α0 , α1 , . . . , αn 2 non tous nuls tels que

X
n2
αk u k = 0L (E ) .
k=0
Pn 2
Par conséquent, le polynôme k=0
αk X k est annulateur de u. ä

2.4. Remarque. Nous verrons plus loin (avec le théorème de Cayley & Hamil-
ton) qu’en dimension n, on peut déterminer un polynôme annulateur de de-
gré n (le polynôme caractéristique).

2.5. Exemple. Le seul endomorphisme qui admet aX + b comme polynôme


annulateur avec a 6= 0 est l’homothétie de rapport − ba .

En dimension infinie, il existe des endomorphismes qui n’admettent pas de


polynôme annulateur non nul.

2.6. Exemple. La dérivation usuelle D : P 7→ P 0 est un endomorphisme de K[X ]


qui n’admet pas de polynôme annulateur non nul.
En effet, raisonnons par l’absurde : si D admet un polynôme annulateur Q,
alors, pour tout polynôme P ∈ K[X ], Q(D)(P ) = 0. Or, avec P = X degQ+1 , le po-
lynôme Q(D)(P ) est de degré 1 donc non nul : contradiction.

2.7. Définition. Un endomorphisme est nilpotent s’il admet un monôme comme


polynôme annulateur.

2.8. Proposition. Soit u un endomorphisme d’un espace vectoriel E . L’ensemble


Iu ⊂ K[X ] des polynômes annulateurs de u est un idéal de l’anneau K[X ].

Démonstration. L’ensemble Iu est non vide : pour tous P , Q ∈ Iu , P − Q ∈ Iu


car
(P −Q)(u) = P (u) −Q(u) = 0L (E ) − 0L (E ) = 0L (E ) ,

Par ailleurs, pour tous P ∈ Iu et Q ∈ K[X ], QP ∈ Iu , car

(QP )(u) = Q(u) ◦ P (u) = Q(u) ◦ 0L (E ) = 0L (E ) .

2.9. Remarque. On aurait également pu remarquer que Iu est simplement le


noyau du morphisme d’algèbres associé à u.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap03 chapitre:I

4 I. Polynômes d’endomorphismes

2.10. Remarque. Pour u ∈ L (E ) et x ∈ E , on peut aussi définir l’ensemble


© ª
Iu,x = P ∈ K[X ], P (u)(x) = 0E .
C’est encore un idéal de K[X ] et il vérifie Iu ⊂ Iu,x .

3. Polynôme minimal
Comme l’anneau K[X ] est euclidien, il est en particulier principal, donc chaque
idéal (non réduit à 0) de K[X ] peut être engendré par un unique polynôme uni-
taire. Ceci justifie la définition suivante (conjointement avec l’hypothèse que
l’espace E est de dimension finie donc que l’idéal des polynômes annulateurs
est non réduit au seul polynôme nul).

3.1. Définition. Soit u un endomorphisme d’un espace vectoriel E . Le poly-


nôme minimal de u est l’unique polynôme unitaire, noté µu , qui engendre
l’idéal des polynômes annulateurs de u.

3.2. Remarque. Il est facile de voir que, pour un endomorphisme u, la dimen-


sion de l’algèbre K[u] est le degré du polynôme minimal µu . Ceci sera détaillé
avec la proposition I -4.4.

Déterminons l’idéal des polynômes annulateurs de quelques endomorphismes


remarquables.

3.3. Exemple. Si u est un endomorphisme nilpotent, il admet un polynôme


annulateur de la forme X p . Par conséquent, le polynôme minimal est donc un
monôme X k avec k ∈ ‚1, pƒ. Cet entier k est appelé indice de nilpotence de u.
Un polynôme est alors annulateur de u s’il est multiple de X k , c’est-à-dire si 0
en est une racine de multiplicité au moins k.

3.4. Exemple. Si h est une homothétie de E , il existe λ ∈ K tel que h = λIdE .


Par conséquent, X − λ est un polynôme annulateur de degré 1, donc minimal.
Un polynôme annulateur de h est donc un multiple de X − λ, c’est-à-dire un
polynôme admettant λ comme racine.

3.5. Exemples. . Si p est un projecteur, alors un polynôme annulateur de p est,


par définition, X 2 − X . Ce polynôme est le polynôme minimal de p sauf si p est
l’identité ou l’application nulle (en effet, s’il n’est pas minimal, alors p admet
un polynôme annulateur de degré 1, donc est une homothétie).
. De même, le polynôme minimal d’une symétrie vectorielle qui n’est pas une
homothétie, c’est-à-dire différente de ±IdE , est X 2 − 1.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap03 chapitre:I

4. Utilisation pratique d’un polynôme annulateur 5

3.6. Définition. Soit u un endomorphisme d’un espace vectoriel E et x ∈ E . Le


polynôme minimal local en x de u est l’unique polynôme unitaire, noté µu,x ,
qui engendre l’idéal Iu,x des polynômes P ∈ K[X ] tels que x ∈ ker P (u).

4. Utilisation pratique d’un polynôme annulateur


Calcul de l’inverse

4.1. Proposition. Soit u un endomorphisme d’un espace vectoriel E admettant


un polynôme annulateur P tel que P (0) 6= 0. Alors, u est inversible. De plus, son
inverse appartient à l’algèbre K[u].
PN
Démonstration. Écrivons P (X ) = k=0 αk X k avec N > 0 et α0 = P (0) 6= 0. Alors,
l’hypothèse P (u) = 0L (E ) se réécrit
X
N
αk u k = −α0 IdE .
k=1

En considérant l’endomorphisme
X
N ¡ ¢
v = − α10 αk u k−1 ∈ Vect IdE , u, . . . , u N −1 ,
k=1

on obtient u ◦ v = v ◦ u = IdE . Ainsi, u est inversible et que u −1 = v. ä

Donnons une seconde démonstration de ce résultat.


Démonstration. Comme P (0) 6= 0, les polynômes P et X n’ont pas de racine
complexe commune et sont donc premiers entre eux : par le théorème de Bé-
zout, il existe U , V ∈ C[X ] tels que U P + V X = 1. En appliquant le morphisme
d’algèbres associé à u, on obtient V (u) ◦ u = IdE . Ainsi, u est inversible et
¡ ¢
u −1 = V (u) ∈ Vect IdE , u, . . . , u N −1 .
ä

4.2. Exemple. Soit u un endomorphisme d’un espace vectoriel E qui vérifie


(u − 2IdE ) ◦ (u − 3IdE ) = 0L (E ) ,
sans être une homothétie. Cherchons les réels λ tels que v λ = u − λIdE soit non
inversible (nous verrons plus loin que ces réels sont, par définition, les valeurs
propres de u). Comme le polynôme (X − 2)(X − 3) est annulateur de u, on en
déduit que (X +λ−2)(X +λ−3) est annulateur de v λ . Donc, si λ ∉ {2, 3}, l’endo-
morphisme v λ est inversible, car son polynôme annulateur n’admet pas 0 pour
racine. En revanche, ni v 2 , ni v 3 ne sont inversibles, car sinon l’autre est nul (et
donc u est une homothétie) puisque v 2 ◦ v 3 = 0L (E ) .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap03 chapitre:I

6 I. Polynômes d’endomorphismes

La réciproque du résultat précédent est bien évidemment fausse avec un po-


lynôme annulateur quelconque : si P est un polynôme annulateur de l’endo-
morphisme u, alors X P est aussi annulateur et admet 0 pour racine, que u soit
inversible ou non. En revanche, la situation est plus claire avec le polynôme
minimal.

4.3. Proposition. Soit u un endomorphisme d’un espace vectoriel E . Alors, u est


inversible si, et seulement si, son polynôme minimal µu n’admet pas 0 comme
racine.

Démonstration. Avec la proposition précédente, il suffit d’étudier le sens direct.


Supposons que u est inversible et que 0 est racine du polynôme minimal µu
de u, c’est-à-dire µu = X P . On en déduit u ◦P (u) = 0L (E ) ; or, u inversible et par
conséquent P (u) = 0L (E ) , ce qui contredit la minimalité de µu . Par conséquent,
le polynôme minimal µu n’admet pas 0 comme racine. ä

Calculs de puissances

4.4. Proposition. Soit u un endomorphisme d’un espace vectoriel E admettant


un polynôme annulateur de degré N . Alors, pour tout entier m ∈ N,
¡ ¢
u m ∈ Vect IdE , u, . . . , u N −1 .

Démonstration. Soit m ∈ N. D’après la division euclidienne dans K[X ], il existe


(Q m , R m ) ∈ K[X ]2 tel que X m = Q m P + R m , avec deg R m < deg P = N . Alors, en
utilisant le morphisme d’algèbres associé à u et le fait que P (u) = 0L (E ) , on
trouve que

u m = Q m (u) ◦ P (u) + R m (u)


¡ ¢
= R m (u) ∈ Vect IdE , u, . . . , u N −1 .

En fait, on peut aussi utiliser en pratique la démonstration de ce résultat pour


obtenir l’expression explicite de u m pour tout entier m ∈ N. Il suffit pour cela
de savoir obtenir le reste dans une division de polynômes. Détaillons les calculs
dans quelques cas particuliers.

4.5. Exemple. Soit a, b ∈ C avec a 6= b et u un endomorphisme d’un espace


vectoriel E dont un polynôme annulateur est P = (X − a)(X − b).
Déterminons u m pour tout entier m ∈ N. Le reste de la division euclidienne
de X m par P est un polynôme de degré au plus 1, que nous noterons αm X +βm .
Reste à déterminer les valeurs des complexes αm et βm . Pour cela, spécifions la
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap03 chapitre:I

4. Utilisation pratique d’un polynôme annulateur 7

relation de division euclidienne en a et en b :


½ m
a = aαm + βm
b m = bαm + βm
a m −b m ba m −ab m
En conclusion, αm = a−b et βm = b−a donc
a m −b m ba m −ab m
um = a−b u+ b−a IdE .

4.6. Remarque. Plus généralement, la même méthode permet de traiter le cas


où l’endomorphisme u admet un polynôme annulateur P scindé avec des ra-
cines simples λ1 , . . . , λp .
Dans ce cas, pour tout m ∈ N, le reste de la division du monôme X m par ce
polynôme P est
X
p
λm
k Lk ,
k=0

où L 1 , . . . , L p désignent les polynômes interpolateurs de Lagrange associés aux


scalaires distincts λ1 , . . . , λp . On obtient, avec le morphisme d’algèbres associé
à u,
Xp
um = λmk L k (u).
k=0

Lorsque le polynôme annulateur est scindé mais avec des racines multiples,
le problème est à peine plus compliqué et se ramène encore à un problème
d’interpolation.

4.7. Exemple. Déterminons les puissances d’un endomorphisme u de poly-


nôme annulateur (X − a)2 .
Soit m un entier. Le reste de la division euclidienne de X m par (X − a)2 est un
polynôme de degré au plus 1 que nous noterons αm X + βm . On a donc :

X m = Q · (X − a)2 + αm X + βm .

Reste à déterminer les valeurs des complexes αm et βm . Pour cela, nous spé-
cifions cette relation en a puis dérivons cette relation avant de spécifier en a
(tous les termes où apparaît Q s’annulent, car a est racine double de (X − a)2 ).
Ainsi,
½
am = aαm + βm
ma m−1 = αm

En conclusion, αm = ma m−1 et βm = (1 − m)a m , donc

u m = ma m−1 u + (1 − m)a m IdE .


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap03 chapitre:I

8 I. Polynômes d’endomorphismes

5. Commentaires et développements
5.1. La donnée d’une matrice A met en évidence le morphisme d’algèbres
½
K[X ] → Mn (K)
ΦA :
P 7→ P (A)
Son noyau, l’idéal ker Φ A , est non nul, pour des raisons de dimension. Il est
engendré par le polynôme minimal µ A ; l’image im Φ A = K[A] est une sous-
algèbre de Mn (K), dont la dimension se déduit aisément de l’isomorphisme de
K-algèbres
'
Φ A : K[X ]/(µ A ) −→ K[A].

Ainsi, la dimension de l’algèbre K[A] est égale à celle de l’espace vectoriel quo-
tient K[X ]/(µ A ). C’est donc le degré d A du polynôme minimal µ A de la ma-
trice A. En effet, les classes des polynômes 1, X , . . . , X d A −1 forment une base de
cet espace quotient. Le fait que ces vecteurs soient générateurs provient d’une
simple division euclidienne par le polynôme µ A et le fait qu’ils soient libres
provient du caractère minimal de µ A .
Au niveau de l’algèbre K[A], cela se traduit par le fait que les matrices In , A, . . . ,
A d A −1 forment une base de l’algèbre des polynômes en A.

5.2. La structure de l’algèbre K[A] est donc celle d’un quotient d’un anneau de
polynômes en une seule variable. Elle dépend uniquement du polynôme mi-
nimal de A. La structure de ces quotients-là, comme celle des anneaux Z /n Z,
est bien connue et son étude se trouve grandement simplifiée par le théorème
des restes chinois, qui montre que cette algèbre est produit d’algèbres locales,
c’est-à-dire d’algèbres ayant chacune un idéal maximal unique (et pour une
telle algèbre le treillis de leurs idéaux est alors une liane...).

5.3. Précisons donc que si le polynôme minimal est une puissance d’un po-
lynôme irréductible, soit µ A = πm avec π un polynôme irréductible, l’algèbre
quotient K[X ]/(µ A ), tout comme l’algèbre K[A], est une algèbre locale et son
idéal maximal est l’idéal engendré par la classe du polynôme π. La démonstra-
tion est calquée sur celle de la mise en évidence des idéaux de l’anneau quo-
tient Z /p n Z avec p est premier (il est bon de savoir en général que les idéaux
d’un quotient R/a, où a est un idéal de l’anneau commutatif (unitaire) R, sont
en correspondance bijective avec les idéaux de R qui contiennent l’idéal a par
lequel on a quotienté.).

5.4. Comme autre application, remarquons que l’algèbre K[A] est réduite (au
sens qu’elle n’a d’autres nilpotents que 0n ) si, et seulement si, le polynôme mi-
nimal de A est sans facteur carré.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap03 chapitre:I

6. Exercices 9

Quand K = C, cela revient à dire que l’algèbre K[A] est un produit de corps
isomorphes à C. On verra une autre démonstration de ce fait ultérieurement
(chapitre XI) avec la décomposition de Jordan & Dunford.

5.5. Nous avons vu que l’algèbre K[A] contenait l’inverse de A si A est inver-
sible. On verra plus tard que les composantes semi-simple et nilpotente dans la
décomposition de Jordan & Dunford de A sont aussi dans K[A], tout d’ailleurs
comme la comatrice de A oules opérateurs de projection sur les facteurs di-
rects de la décomposition de E en somme d’espaces caractéristiques. Tout cela
pour dire qu’au delà de sa structure elle-même, l’algèbre K[A] contient de par
ses divers éléments des renseignements précieux.

5.6. L’idéal des polynômes annulateurs de A en le vecteur x est le noyau de


l’application
½
K[X ] → E
Φ A,x :
P 7→ P (A)(x)
Cette application est une simple application linéaire et, pourtant, son noyau
est un idéal ! En fait, cette application est K-linéaire, mais elle est aussi K[X ]-
linéaire, au sens que Φ A,x (PQ) = P (A)(Φ A,x (Q)). C’est en fait un morphisme de
K[X ]-modules et son noyau est donc un sous-K[X ]-module de K[X ], donc un
idéal de K[X ].

5.7. Le groupe des inversibles de l’algèbre K[A] est l’ensemble des matrices
Q(A), où Q est un polynôme premier avec µ A .

6. Exercices
6.1. Exercice. Soit A, B ∈ Mn (K) deux matrices semblables et P ∈ K[X ]. Montrer
que les matrices P (A) et P (B ) sont semblables.

▷ Éléments de correction. Par définition de la similitude, il existe U ∈ GLn (K)


telle que A = U BU −1 . Par une rapide récurrence, on obtient que A k = U B k U −1
pour tout k ∈ N ; ensuite, par linéarité, P (A) = U P (B )U −1 : les matrices P (A)
et P (B ) sont semblables. ◁

6.2. Exercice. Soit λ1 , . . . , λn ∈ R et A ∈ Mn (R) une matrice semblable à la ma-


trice diagonale
¡ diag(λ
¢ 1 , λ2 , . . . , λn ). Montrons qu’il existe un polynôme P ∈ R[X ]
tel que A = P A 3 .

▷ Éléments de correction. Par définition, il existe une matrice U ∈ GLn (R) telle
que A = U diag(λ1 , λ2 , . . . , λn )U −1 et donc
¡ ¢
A 3 = U diag λ31 , . . . , λ3n U −1 .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap03 chapitre:I

10 I. Polynômes d’endomorphismes

Considérons un polynôme P , obtenu¡ par¢ exemple avec l’interpolation de La-


grange tel que, pour tout k ∈ ‚1, nƒ, P λ3k = λk (ce qui est possible car λ3k = λ3j
entraîne λk = λ j car l’application x 7→ x 3 est injective sur R). Alors,
¡ ¡ ¢ ¡ ¢ ¡ ¢¢ ¡ ¡ ¢¢
diag(λ1 , λ2 , . . . , λn ) = diag P λ31 , P λ32 , . . . , P λ3n = P diag λ31 , λ32 , . . . , λ3n ,
¡ ¢
et donc, en multipliant à gauche par U et à droite par U −1 , A = P A 3 . ◁

6.3. Exercice. Soit A, B ∈ Mn (K) telles que AB = B A. Considérons la matrice


µ ¶
A B
M= ∈ M2n (K).
0n A

Pour tout P ∈ K[X ], exprimer P (M ) en fonction de P (A), P 0 (A) et B .


▷ Éléments de correction. . Par une récurrence rapide, on obtient que, pour
tout k ∈ N, µ ¶
kAk k A k−1 B
M = .
0n Ak
. Par linéarité, on obtient que, pour tout polynôme P ,
µ ¶
P (A) P 0 (A)B
P (M ) = .
0n P (A)

6.4. Exercice. Soit n Ê 2 et M ∈ Mn (K) une matrice de rang 1.


1. Montrer que µM = X 2 − tr(M )X .
2. En déduire les puissances de M en fonction de M et In .
▷ Éléments de correction. On montre classiquement qu’il existe un vecteur co-
lonne C ∈ Mn,1 (K) et un vecteur ligne L ∈ M1,n (K) non nuls tels que M = C L.
1. La matrice M n’est pas une homothétie, donc le polynôme minimal est
au moins de degré 2. De plus,

M 2 = C LC L = C (LC )L = (LC )C L = (LC )M ,


car LC est un scalaire. Or, LC = tr(LC ) = tr(C L) = tr(M ). Ainsi, le poly-
nôme X 2 −tr(M )X est annulateur de M , donc multiple de µM . En conclu-
sion, µM = X 2 − tr(M )X .
2. . Si tr(M ) = 0, alors M 2 = 0n , donc M k = 0n dès que k Ê 2.
. Sinon, effectuons la division euclidienne de X k par µM : il existe un
polynôme Q ∈ K[X ] tel que

X k = Q · µM + tr(M )k−1 X .

En effet, le reste dans la division euclidienne de X k par µM est un poly-


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap03 chapitre:I

6. Exercices 11

nôme de degré au plus 1, qui est nul en 0 et qui vaut tr(M )k en tr(M ). On
en déduit que, pour tout k Ê 1, M k = tr(M )k−1 M .
Remarquons que ce dernier résultat peut aussi être déduit par une simple
récurrence.

6.5. Exercice. Soit u un endomorphisme d’un espace vectoriel E ; définissons


l’endomorphisme de L (E ) associé par composition à gauche G u : v 7→ u ◦ v.
Comparer µu et µG u .

▷ Éléments de correction. . Remarquons tout d’abord que, pour tout P ∈ K[X ]


et tout v ∈ L (E ), P (G u )(v) = P (u) ◦ v (le résultat se montre par récurrence pour
les monômes puis par linéarité). Ainsi, µu est annulateur de G u : µG u divise µu .
. De plus, pour tout v ∈ L (E ), µG u (u) ◦ v = 0L (E ) donc µG u (u) = 0L (E ) et µG u
est annulateur de u : µu divise µG u .
Comme les polynômes minimaux sont unitaires, on conclut que µu = µG u . ◁

6.6. Exercice. Soit E un espace vectoriel de dimension n Ê 2. Déterminer le poly-


nôme minimal de l’endomorphisme
½
L (E ) → L (E )
Φ:
u 7→ u + tr(u)IdE

▷ Éléments de correction. L’endomorphisme Φ n’est pas une homothétie, donc


son polynôme minimal est de degré au moins 2.
Par ailleurs, pour tout u ∈ L (E ),

Φ2 (u) = Φ(u) + tr(Φ(u))IdE


= u + tr(u)IdE + tr(u)IdE + n tr(u)IdE
= u + (n + 2) tr(u)IdE
= (n + 2)Φ(u) − (n + 1)IdL (E ) (u).

En conclusion, le polynôme (unitaire de degré 2) X 2 − (n + 2)X + (n + 1) est an-


nulateur donc c’est le polynôme minimal µΦ . ◁

6.7. Exercice. Soit u un endomorphisme d’un espace vectoriel E et P ∈ K[X ].


Montrer que P (u) est inversible si, et seulement si, P est premier avec µu .
▷ Éléments de correction. Remarquons tout d’abord que, si un endomorphisme
de la forme P (u) est inversible, alors son inverse est dans l’algèbre K[P (u)] donc
dans l’algèbre K[u].
Soit P ∈ K[X ]. L’endomorphisme P (u) est inversible si, et seulement si, il existe
Q ∈ K[X ] tel que P (u) ◦ Q(u) = IdE , c’est-à-dire si PQ − 1 est annulateur de u
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap03 chapitre:I

12 I. Polynômes d’endomorphismes

donc un multiple de µu . D’après le théorème de Bézout, cette dernière condi-


tion équivaut à : P est premier avec µu .
On peut noter que l’algorithme d’Euclide (étendu) nous fournit ici l’inverse.
Une conséquence de cet exercice montre que l’anneau K[u] est un corps si, et
seulement si, le polynôme minimal µu est irréductible sur K. ◁

6.8. Exercice. Soit u un endomorphisme d’un espace vectoriel E . Notons, pour


tout x ∈ E , µu,x le polynôme minimal de u local en x, c’est-à-dire l’unique poly-
nôme unitaire engendrant l’idéal
© ª
Iu,x = P ∈ K[X ], P (u)(x) = 0E .

Montrer que l’ensemble {µu,x , x ∈ E } est fini.

▷ Éléments de correction. Remarquons que, pour tout x ∈ E ,


µu (u)(x) = 0L (E ) (x) = 0E .

Ainsi, µu ∈ Iu,x et par conséquent µu,x divise µu . Comme µu admet un nombre


fini de diviseurs unitaires (et l’on peut calculer ce nombre à partir de la décom-
position en facteurs irréductibles de µu ), l’ensemble {µu,x , x ∈ E } est fini. ◁

6.9. Exercice. Soit A = diag(λ1 , . . . , λn ). Déterminer les vecteurs X ∈ Mn,1 (K) tels
que µ A,X = µ A où µ A,x désigne comme dans l’exercice précédent, le plus petit
polynôme P unitaire tel que P (A)X = 0n,1 .

▷ Éléments de correction. Notons Sp(A) l’ensemble des valeurs de la diagonale


de A (on verra plus tard qu’il s’agit du spectre de A).
Remarquons que µ A est le produit des facteurs X − λ pour λ ∈ Sp(A) : ainsi,
µ A,X = µ A si, et seulement si, µ A,X (λ) = 0 pour tout λ ∈ Sp(A).
En notant X = (x i )i , pour tout polynôme P ∈ K[X ], P (A)X = (x i P (λi ))i . Ainsi,
P (A)X = 0n,1 si, et seulement si, pour tout i ∈ ‚1, nƒ, x i P (λi ) = 0 donc x i = 0 ou
P (λi ) = 0.
En conclusion, µ A,X = µ A si, et seulement si, pour toute valeur λ ∈ Sp(A), il
existe i ∈ ‚1, nƒ telle que λi = λ et x i 6= 0.
En termes plus avancés, un tel vecteur X est somme des vecteurs propres asso-
ciés à chacune des valeurs propres. ◁

6.10. Exercice. Soit u un endomorphisme d’un espace vectoriel E et


© ª
J = P ∈ K[X ], P (u) est nilpotent .

Montrer que J est un idéal puis déterminer, en fonction de µu , un élément gé-


nérateur.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap03 chapitre:I

6. Exercices 13

▷ Éléments de correction. . Soit P et Q ∈ J . Les endomorphismes P (u) et Q(u)


sont nilpotents et commutent donc l’endomorphisme (P −Q)(u) = P (u)−Q(u)
est nilpotent d’après la formule du binôme (appliquée avec pour exposant la
somme des indices de nilpotence de P (u) et Q(u)) : P −Q ∈ J .
. Soit P ∈ J et R ∈ K[X ]. L’endomorphisme P (u) est nilpotent, R(u) et P (u)
commutent donc (RP )(u) = R(u)n ◦ P (u)n = 0L (E ) . Ainsi, RP ∈ J .
En conclusion, J est un idéal de K[X ].
Enfin, notons que P appartient à J si, et seulement si, µu divise P n , c’est-à-dire
si µ̃u divise P où µ̃u est le produit des facteurs irréductibles distincts de µu . Un
générateur de J est donc ce polynôme µ̃u . ◁

6.11. Exercice. Soit N ∈ Mn (C) nilpotente et G l’ensemble des matrices de la


forme P (N ) avec P ∈ C[X ] tel que P (0) = 1. Montrer que G est un sous-groupe
de GLn (C).

▷ Éléments de correction. . Soit P ∈ C[X ] tel que P (0) = 1. Comme P et X n n’ont


pas de racine complexe commune, ils sont premiers entre eux : par le théorème
de Bézout, il existe U , V ∈ C[X ] tels que U P + V X n = 1.
En évaluant en 0, U (0) = 1 puis en appliquant le morphisme d’algèbres associé
à N , on obtient U (N )P (N ) = In .
Ainsi, la matrice P (N ) est inversible et son inverse U (N ) appartient à G.
. La partie G est stable par produit, car le produit de deux polynômes valant 1
en 0 vaut 1 en 0.
En conclusion, G est un sous-groupe de GLn (C). ◁

6.12. Exercice. Soit A, B ∈ Mn (K) et un polynôme P ∈ K[X ] non constant tel que
P (0) 6= 0 et AB = P (A). Montrer que A est inversible puis que A et B commutent.

▷ Éléments de correction. Soit Q ∈ K[X ] tel que P = P (0) + XQ. Avec cette nota-
tion, la condition AB = P (A) se récrit A(B − Q(A)) = P (0)In : par conséquent, A
est inversible d’inverse
1
P (0) (B −Q(A)).

Par suite, B s’écrit A −1 P (A), donc commute avec A. ◁

6.13. Exercice. Soit u un endomorphisme d’un espace vectoriel E dont le poly-


nôme minimal est de la forme
Y
p
µu = (X − λk )2 ,
k=1

avec λ1 , . . . , λp des scalaires deux à deux distincts.


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap03 chapitre:I

14 I. Polynômes d’endomorphismes

1. Montrer qu’il existe une base (H1 , . . . , H2n ) de K2n−1 [X ] telle que
. pour tout k ∈ ‚1, nƒ et tout i ∈ ‚1, nƒ,

Hk (λi ) = δk,i et Hk0 (λi ) = 0,

. pour tout k ∈ ‚1, nƒ et tout i ∈ ‚1, nƒ,


0
Hn+k (λi ) = 0 et Hn+k (λi ) = δk,i .

2. En déduire une expression des puissances de u en fonction de la famille


de polynômes (H1 , . . . , H2n ).

▷ Éléments de correction.
1. L’application
½
K2n−1 [X ] → ¡ K2n ¢
P 7 → P (λ1 ), . . . , P (λn ), P 0 (λ1 ), . . . , P 0 (λn )
est linéaire et injective (si P est dans son noyau, alors il admet n racines
doubles et est de degré au plus 2n − 1 donc est nul) : c’est donc un iso-
morphisme.
On obtient la famille désirée en prenant les antécédents de la base cano-
nique de K2n .
Ces polynômes sont appelés polynômes interpolateurs de Hermite. On
peut en obtenir une expression explicite à partir des polynômes inter-
polateurs élémentaires de Lagrange L 1 , . . . , L n associés aux λ1 , . . . , λn :
pour tout k ∈ ‚1, nƒ,
¡ ¢
Hk = 1 − 2L 0k (λk )(X − λk ) L 2k , Hn+k = (X − λk )L 2k .

2. Effectuons la division euclidienne de X m par µu : il existe Q ∈ K[X ] et


R ∈ K2n−1 [X ] tels que X m = Qµu + R.
On vérifie que, R(λk ) = λm
k
et R 0 (λk ) = mλm−1
k
pour tout k ∈ ‚1, nƒ. Ainsi,
X
n X
n
R= λm
k Hk + mλm−1
k Hn+k ,
k=1 k=1

car la différence de ces deux membres est le polynôme nul puisqu’elle


appartient au noyau de l’isomorphisme de la première question.
On applique ensuite le morphisme d’algèbres associé à u pour obtenir
l’expression
X
n X
n
u m = R(u) = λm
k Hk (u) + mλm−1
k Hn+k (u).
k=1 k=1


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap01 chapitre:II

Chapitre II

Sous-espaces stables

Objectifs du chapitre
— Ne pas confondre les restrictions et les endomorphismes induits.
— Déterminer dans des cas simples les sous-espaces stables.
— Utiliser les espaces cycliques associés à un endomorphisme.

1. Restriction d’une application linéaire


1.1. Définition. Soit u une application linéaire de E dans E 0 et F un sous-espace
vectoriel de E . La restriction de u à F est l’application linéaire u |F : F → E 0 défi-
nie par u |F (x) = u(x) pour tout x ∈ F .

1.2. Exemple. Soit F un sous-espace de E . L’injection canonique de F dans E


est la restriction de l’identité de E au sous-espace F .

1.3. Proposition. Soit u une application linéaire de E dans E 0 et F un sous-


espace vectoriel de E . Alors,
ker u |F = F ∩ ker u, im u |F = u(F ).
Démonstration. Il suffit d’appliquer les définitions.
ker u |F = {x ∈ F, u |F (x) = 0E }
© ª
= x ∈ F, u(x) = 0E = F ∩ ker u,
© ª
im u |F = y ∈ E , ∃x ∈ F, y = u |F (x)
© ª
= y ∈ E , ∃x ∈ F, y = u(x) = u(F ).
ä
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap01 chapitre:II

16 II. Sous-espaces stables

1.4. Corollaire. Soit u un endomorphisme d’un espace vectoriel E et k ∈ N. Alors,

dim ker u k+1 = dim ker u k + dim im u k ∩ ker u.

Démonstration. Considérons l’application linéaire v = u k et calculons con


|ker u k+1
noyau et son image. Remarquons que, par croissance de la suite des noyaux ité-
rés,
ker v = ker u k ∩ ker u k+1 = ker u k .
¡ ¢ ¡ ¢
Par ailleurs, im v = im u k ∩ u k ker u k+1 . Comme u k ker u k+1 ⊂ ker u, on en
déduit l’inclusion im v ⊂ im u k ∩ ker u. Montrons l’inclusion réciproque. Soit
y ∈ im u k ∩ ker u. Par définition, u(y) = 0E et il existe x ∈ E tel que y = u k (x) ;
¡ ¢
ensuite, u k+1 (x) = 0E et donc y ∈ u k ker u k+1 . En conclusion,

im v = im u k ∩ ker u.

La formule du rang appliquée à v donne alors directement

dim ker u k+1 = dim ker u k + dim ker u ∩ im u k .

1.5. Remarque. Cette propriété en apparence anodine permet de retrouver as-


sez facilement (en exploitant la décroissance de la suite des images itérées) que
la suite des « sauts de dimension dans la suite des noyaux » décroît.
En effet, pour un endomorphisme u de E , on sait déjà que la suite des noyaux
¡ ¢
itérés ker u k k est croissante pour l’inclusion (en fait strictement croissante
puis stationnaire). On remarque ainsi que, pour tout k ∈ N,

ker u ∩ im u k+1 ⊂ ker u ∩ im u k ,

donc
dim ker u ∩ im u k+1 É dim ker u ∩ im u k .

Avec le corollaire précédent que la suite des sauts de dimension dans la suite
des noyaux itérés
¡ ¢
dim ker u k+1 − dim ker u k k

est décroissante.

1.6. Exemple. Soit u un endomorphisme. Remarquons que dim ker u 2 = 2 dim ker u
si, et seulement si, ker u ⊂ im u. En effet, d’après le corollaire précédent, la
condition dim ker u 2 = 2 dim ker u équivaut à

dim ker u = dim ker u ∩ im u,

soit encore à ker u ∩ im u = ker u, et donc à ker u ⊂ im u.


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap01 chapitre:II

2. Sous-espaces stables 17

2. Sous-espaces stables

2.1. Définition. Soit u un endomorphisme d’un espace vectoriel E . Un sous-


espace vectoriel F de E est stable par u si u(F ) ⊂ F .

2.2. Exemple. Pour tout endomorphisme u, les sous-espaces im u et ker u (et,


plus généralement, ker P (u) pour tout P ∈ K[X ]) sont stables par u. Au chapitre
suivant, on relie cette propriété avec la propriété de commutation.

2.3. Proposition. Soit u et v deux endomorphismes d’un espace vectoriel E , F un


sous-espace de E stable par u et par v. Alors, F est stable par u + v et par u ◦ v.

Démonstration. Pour tout x ∈ F , u(x) ∈ F et v(x) ∈ F donc u(x) + v(x) ∈ F et


u(v(x)) ∈ F . ä

2.4. Proposition. Soit u un endomorphisme d’un espace vectoriel E , v un auto-


morphisme de E et F un sous-espace de E stable par u. Alors, v(F ) est un sous-
espace stable par v ◦ u ◦ v −1 .

Démonstration. Soit y ∈ v(F ) ; il existe x ∈ F tel que y = v(x). Alors, u(x) ∈ F et


donc v ◦ u ◦ v −1 (y) = v(u(x)) ∈ v(F ). ä

2.5. Remarque. L’intérêt des sous-espaces stables est qu’ils permettent d’obte-
nir une première description plus simple d’un endomorphisme u de E : si l’on
dispose d’une décomposition de E en somme directe de sous-espaces F 1 , F 2 ,
. . . , F p stables par u, alors l’étude de u est équivalente à l’étude des endomor-
phismes induits par u sur chacun de ces sous-espaces.
Dans une base associée à une décomposition E = F 1 ⊕ F 2 ⊕ · · · ⊕ F p en somme
directe de sous-espaces stables par u, la matrice de u est diagonale par blocs :
 
mat(u F1 )
 
 mat(u F2 ) 
 
 .. 
 . 
mat(u F p )

3. Endomorphisme induit sur un sous-espace stable

3.1. Définition. Soit u un endomorphisme d’un espace vectoriel E et F est un


sous-espace de E stable par u ; l’endomorphisme induit par u sur F est l’endo-
morphisme u F de F défini par u F (x) = u(x) pour tout x ∈ F .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap01 chapitre:II

18 II. Sous-espaces stables

3.2. Remarque. Soit u un endomorphisme d’un espace vectoriel E et F un sous-


espace de E stable par u. Il ne faut pas confondre la restriction u |F qui est à
valeurs dans E et l’induit u F qui est à valeurs dans F .

3.3. Proposition. Soit u un endomorphisme d’un espace vectoriel E et F un sous-


espace de E stable par u. Alors, le polynôme minimal de l’induit u F divise le
polynôme minimal de u.

Démonstration. Il suffit de remarquer que le polynôme minimal µu est annula-


teur de l’induit u F puisque, pour tout x ∈ F ,

µu (u F )(x) = µu (u)(x) = 0L (E ) (x) = 0E .

3.4. Proposition. Soit u un endomorphisme d’un espace vectoriel E . Supposons


que E = F ⊕ G avec F et G deux sous-espaces stables par u. Alors, le polynôme
minimal de u est le PPCM des polynômes minimaux de u F et uG .

Démonstration. . Comme les polynômes µuF et µuG divisent µu , leur PPCM di-
vise aussi µu .
. Montrons désormais que µuF ∨ µuG est annulateur de u (et donc un multiple
de µu ). Soit x ∈ E , x F ∈ F et xG ∈ G tels que x = x F + xG . Alors,

(µuF ∨ µuG )(u)(x) = (µuF ∨ µuG )(u)(x F ) + (µuF ∨ µuG )(u)(xG )


= (µuF ∨ µuG )(u F )(x F ) + (µuF ∨ µuG )(uG )(xG )
= 0E ,

car µuF ∨µuG est annulateur à la fois de u F et de uG en tant que multiple de µuF
et µuG . ä

4. Exemples de sous-espaces stables


Déterminons tous les sous-espaces stables dans quelques cas particuliers.

4.1. Exemple. Tous les sous-espaces sont stables par une homothétie.

4.2. Exemple. Soit p un projecteur, c’est-à-dire la projection sur ker(p − IdE )


parallèlement à ker p. Montrons qu’un sous-espace est stable par un projec-
teur p si, et seulement si, il est la somme directe d’un sous-espace de im p et
d’un sous-espace de ker p.
Soit F un sous-espace stable par p. L’endomorphisme p F induit par p sur F est
un projecteur de F ; par conséquent, F est la somme directe du noyau de p F et
de l’image de p F qui sont, respectivement, des sous-espaces de im p et de ker p.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap01 chapitre:II

5. Sous-espaces cycliques 19

Réciproquement, la somme directe d’un sous-espace de im p et d’un sous-


espace de ker p est bien un sous-espace stable, car p laisse invariant tous les
éléments de im p.

4.3. Remarque. De même, les sous-espaces stables par une symétrie vecto-
rielle s sont obtenus comme somme directe d’un sous-espace de ker(s − IdE )
et d’un sous-espace de ker(s + IdE ).

4.4. Exemple. Soit u un endomorphisme d’un espace vectoriel E , nilpotent


d’indice n = dim E (c’est-à-dire tel que u n = 0L (E ) et u n−1 6= 0L (E ) ). Montrons
que les sous-espaces stables sont exactement les ker u k pour k ∈ ‚0, nƒ. Nous
avons déjà établi que ces sous-espaces sont stables (comme tous les ker P (u)
avec P ∈ K[X ]).
Montrons la réciproque. Soit F un sous-espace stable par u. Alors, l’endomor-
phisme u F induit par u sur F est nilpotent. En notant p son indice, on obtient
p
F = ker u F = ker u p ∩ F ⊂ ker u p .

Or, les noyaux itérés de u forment une suite strictement croissante jusqu’au
rang n donc, pour tout k ∈ ‚0, nƒ, dim ker u k = k. En particulier, dim ker u p = p
donc dim F É p. Mais comme u F est d’indice p, alors dim F Ê p (même résultat
sur la suite des noyaux itérés). En conclusion, F = ker u p .

5. Sous-espaces cycliques

5.1. Remarque. Soit u un endomorphisme d’un espace vectoriel E et x ∈ E . Une


intersection de sous-espaces stables par u et qui contiennent x est encore un
sous-espace stable par u qui contient x.

5.2. Définition. Soit u un endomorphisme d’un espace vectoriel E et x ∈ E . Le


sous-espace cyclique de u associé au vecteur x est le plus petit (pour l’inclu-
sion) sous-espace stable par u contenant x, c’est-à-dire l’intersection de tous
les sous-espaces stables par u et qui contiennent x. On le note E u,x (ou, plus
simplement, E x s’il n’y a aucune ambiguïté sur l’endomorphisme considéré).

Par définition, si un sous-espace F de E stable par u contient x, alors E u,x ⊂ F .

5.3. Proposition. Soit u un endomorphisme d’un espace vectoriel E et x ∈ E .


Le sous-espace cyclique E u,x de u associé à x est le sous-espace engendré par la
¡ ¢
famille u k (x) k∈N .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap01 chapitre:II

20 II. Sous-espaces stables

¡ ¢
Démonstration. . Comme Vect u k (x) k∈N est un sous-espace de E contenant x
et stable par u, alors
¡ ¢
E u,x ⊂ Vect u k (x) k∈N .

. Réciproquement, pour tout k ∈ N, u k (x) ∈ E u,x (par récurrence, car x ∈ E u,x


¡ ¢
et E u,x est stable par u). D’où, E u,x = Vect u k (x) k∈N . ä

5.4. Remarque. Soit u un endomorphisme d’un espace vectoriel E et x ∈ E .


Il est facile de montrer que la dimension du sous-espace cyclique E u,x est en
fait le degré du polynôme minimal local de u en x, noté µu,x et que si cette
dimension est notée n, alors la famille
¡ ¢
x, u(x), . . . , u n−1 (x)

est une base de E u,x .

6. Commentaires et développements
6.1. Soit u un endomorphisme d’un espace vectoriel E , et F ⊂ E un sous-
espace stable pour u. Aux côtés de l’endomorphisme u F , il existe un autre en-
domorphisme induit apparaissant dans ce cadre : l’endomorphisme u E /F in-
duit par u sur le quotient de E par F
½
E /F → E /F
u E /F :
x 7→ u(x)

L’endomorphisme u E /F recèle, tout comme u F , de renseignements intéressants


sur le couple (u, F ). Par exemple, det u = det u F det u E /F .
Dans une base (e 1 , . . . , e p , e p+1 , . . . , e p+q ) adaptée à E = F ⊕G, la matrice M de u
est de la forme µ ¶
A B
.
0 C

La matrice de u E /F dans la base (e p+1 , . . . , e p+q ) de E /F est la matrice C qui


apparaît en bas à droite dans la matrice M .

6.2. La situation précédente se généralise comme suit. Un drapeau D de E est


une suite croissante de sous-espaces vectoriels de E , soit

D : {0E } ⊂ F1 ⊂ F2 ⊂ · · · ⊂ F p ⊂ E .
Un drapeau complet de E est un drapeau formé de dim E + 1 sous-espaces F k
vérifiant dim F k = k. Un drapeau est u-stable si tous ses sous-espaces sont
stables par u.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap01 chapitre:II

6. Commentaires et développements 21

Un endomorphisme u est ainsi trigonalisable si, et seulement si, il laisse stable


un drapeau complet ; une matrice est triangulaire en blocs si, et seulement si,
elle laisse stable un drapeau ayant au moins un sous-espace non trivial.
À un drapeau D dans E , on associe un espace vectoriel Grad(D , E ) (de même
dimension que E ), appelé le gradué associé, défini par
Grad(D , E ) = F 1 ⊕ (F 2 /F 1 ) ⊕ · · · ⊕ (F p /F p−1 ) ⊕ (E /F p ).
Si le drapeau D est u-stable, il s’induit naturellement sur le gradué associé un
endomorphisme
Grad(u) : Grad(D , E ) → Grad(D , E ),
qui est la « somme directe » des endomorphismes induits successivement dans
les quotients, soit
Grad(u) = u F1 ⊕ (u F2 )F2 /F1 ⊕ · · · ⊕ u E /F p .

On a également det(Grad(u)) = det u, tr(Grad(u)) = tr u, et plus généralement


l’égalité des polynômes caractéristiques respectifs.
Matriciellement, l’endomorphisme Grad(u) se pense dans une base convenable
comme la matrice diagonale en blocs sous-jacente à une matrice triangulaire
en blocs. Il résume en lui à la fois l’induit sur un sous-espace et l’induit sur le
quotient.
On peut vérifier que si u est diagonalisable, alors Grad(u) l’est également.

6.3. On verra ultérieurement qu’un endomorphisme u cyclique (voir le cha-


pitre VI pour la définition) admet un nombre fini de sous-espaces stables.
Quand K = C, ces sous-espaces forment un drapeau complet si, et seulement si,
l’algèbre C[u] est locale. L’endomorphisme gradué associé Grad(u) est dans ce
cas une homothétie, puisque le drapeau s’identifie alors à la suite des noyaux
itérés définis par l’unique valeur propre λ :

{0E } ⊂ ker(u − λIdE ) ⊂ ker(u − λIdE )2 ⊂ · · · ⊂ ker(u − λIdE )n−1 ⊂ E .

Un endomorphisme n’a pour seuls sous-espaces stables que les deux sous-
espaces triviaux si, et seulement si, son polynôme caractéristique est irréduc-
tible.

6.4. Un sous-espace stable n’admet pas en général de supplémentaire stable


(prendre par exemple un sous-espace stable non trivial du bloc de Jordan J n
pour n Ê 2). Les endomorphismes qui vérifient que leurs sous-espaces stables
ont tous des supplémentaires stables s’appellent les endomorphismes semi-
simples. Sur C, cela équivaut à dire que l’endomorphisme est diagonalisable.
Les endomorphismes semi-simples réels sont les endomorphismes dont le com-
plexifié est diagonalisable. Une matrice antisymétrique réelle est semi-simple.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap01 chapitre:II

22 II. Sous-espaces stables

Dans le cas général, un endomorphisme est semi-simple si, et seulement si, son
polynôme minimal est sans facteur carré (la notion de semi-simplicité se com-
porte, de ce fait, bien par rapport aux extensions de corps, puisque le polynôme
minimal ne dépend pas du corps de base). Cela revient à dire que l’algèbre K[u]
est réduite (sans éléments nilpotents non nuls) ou encore qu’elle est produit de
corps.
Le gradué associé à un endomorphisme semi-simple relativement à un dra-
peau stable est à son tour semi-simple.

6.5. Si F ⊂ E est un sous-espace stable par u, l’orthogonal F ⊥ de F dans l’es-


pace dual E ? est stable par l’endomorphisme u > : E ? → E ? transposé de u. La
recherche des hyperplans stables par u se ramène en particulier à la recherche
des droites stables par u > .
Une question naturelle vient maintenant à l’esprit, au vu du commentaire par
lequel a débuté cette section : quel est l’endomorphisme induit par u > dans le
quotient E ? /F ⊥ ? On a tout simplement
¡ >¢
u E ? /F ⊥ = (u F )> ,

une fois que l’on a identifié E ? /F ⊥ avec le dual F ? de F , comme il résulte na-
turellement de l’écriture
ρF
F ⊥ ,→ E ? ↠ F ? ,

où ρ F est l’endomorphisme de restriction à F .

6.6. Un exercice amusant ici est le suivant, lequel est un cas particulier de ce
qui précède : montrer que si le polynôme minimal de u est irréductible, alors
tout sous-espace stable par u admet un supplémentaire stable. L’idée c’est de
munir E d’une structure d’espace vectoriel E F sur le corps F = K[u], de caracté-
riser le sous-espaces stables par u comme étant les sous-espaces du F-espace
vectoriel E F et d’appliquer le fait élémentaire que tout sous-espace vectoriel
d’un espace vectoriel admet un supplémentaire.

7. Exercices
7.1. Exercice. Soit u un endomorphisme d’un espace vectoriel E . Montrer que
ker u et im u sont supplémentaires dans E si, et seulement si, ker u = ker u 2 .

▷ Éléments de correction. D’après le corollaire II -1.4, la condition ker u = ker u 2


équivaut à ker u ∩ im u = {0E }. D’après la formule du rang, cette dernière pro-
priété (ker u et im u en somme directe) se récrit encore en ker u ⊕ im u = E . ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap01 chapitre:II

7. Exercices 23

7.2. Exercice. Soit E un espace vectoriel de dimension n et u un endomorphisme


de E nilpotent.
1. Montrer que l’indice de nilpotence de u est n si, et seulement si,
dim ker u = 1.

2. Montrer que, si l’indice de nilpotence de u est n − 1, alors


dim ker u ∩ im u = 1.
▷ Éléments de correction.
¡ ¢
1. (⇒) La suite ker u k k est strictement croissante pour k ∈ ‚0, nƒ et à va-
leurs dans ‚0, nƒ. Par conséquent, pour tout k ∈ ‚0, nƒ,

dim ker u k = k.
¡ ¢
(⇐) La suite des « sauts de dimensions » dim ker u k+1 − dim ker u k k est
décroissante de premier terme 1. Ainsi, si un noyau itéré ker u k est de
dimension n, alors k Ê n. Comme un indice de nilpotence est inférieur
ou égal à n, l’indice de nilpotence de u est exactement n.
2. . Remarquons tout d’abord que dim ker u Ê 2 d’après la première ques-
tion donc dim im u É n − 2.
. L’endomorphisme induit v = u im u est nilpotent d’indice n−2, car u est
d’indice de nilpotence n −1. Ainsi, dim im u = n −2 et d’après la question
précédente, dim ker v = 1. Or, ker v = ker u ∩ im u d’où
dim ker u ∩ im u = 1.

. La réciproque à cette deuxième question est fausse comme on peut le


voir avec la matrice suivante d’indice de nilpotence 2 :
 
0 1 0 0
0 0 0 0 
 
0 0 0 0 
0 0 0 0

7.3. Exercice. Déterminer les sous-espaces stables de l’endomorphisme


½
Mn (K) → Mn (K)
M 7→ M>

▷ Éléments de correction. L’endomorphisme considéré est l’une des deux sy-


métries vectorielles associées à la décomposition Mn (K) = S n (K) ⊕ An (K).
Les sous-espaces stables sont donc les sommes (directes) quelconques d’un
sous-espace de S n (K) et d’un sous-espace de An (K) (remarque II -4.3). ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap01 chapitre:II

24 II. Sous-espaces stables

7.4. Exercice. Soit A ∈ Mn (K) non nulle. Déterminer les sous-espaces stables de
l’endomorphisme
½
Mn (K) → Mn (K)
u:
M 7→ tr(AM )In

▷ Éléments de correction. . Remarquons tout d’abord que tous les sous-espaces


F de Mn (K) contenant In sont stables puisque
u(F ) ⊂ im u ⊂ Vect(In ) ⊂ F.
. Soit F un sous-espace de Mn (K) ne contenant pas In . Le sous-espace F est
stable par cet endomorphisme si, et seulement si, pour tout M ∈ F , tr(AM ) = 0,
c’est-à-dire si F est inclus dans l’hyperplan
© ª
H = M ∈ Mn (K), tr(AM ) = 0 .
En conclusion, les seuls sous-espaces stables sont ceux qui contiennent In ou
qui sont inclus dans l’hyperplan H ci-dessus.
Dans cet exercice, l’endomorphisme considéré est de rang 1 (on peut même
vérifier que sa trace est égale à tr A ). De manière générale, un sous-espace F
est stable par un endomorphisme u de rang 1 si, et seulement si, im u ⊂ F ou
F ⊂ ker u . ◁

7.5. Exercice. Soit u un endomorphisme d’un espace vectoriel E . Montrer que si


ker u admet un supplémentaire F stable par u, alors F = im u.
▷ Éléments de correction. Comme ker u ∩ F = {0E }, u F est un endomorphisme
injectif de F donc un automorphisme de F . Ainsi, F = u(F ) ⊂ im u. Par ailleurs,
la formule du rang appliquée à u donne rg u = dim F. En conclusion, F = im u.◁

7.6. Exercice. Déterminer les endomorphismes de Kn laissant stables chacun des


axes de coordonnées et la droite engendrée par le vecteur (1, 1, . . . , 1).
▷ Éléments de correction. Notons (e 1 , e 2 , . . . , e n ) la base canonique de Kn et u un
endomorphisme de Kn qui vérifie les conditions de l’énoncé. Par définition, il
existe des scalaires λ1 , . . . , λn , λ ∈ K tels que u(e k ) = λk e k pour tout k ∈ ‚1, nƒ et
u(e 1 + · · · + e n ) = λ(e 1 + · · · + e n ). Par linéarité de u,
λ1 e 1 + · · · + λn e n = u(e 1 ) + · · · + u(e n )
= u(e 1 + · · · + e n )
= λ(e 1 + · · · + e n ).

Comme la famille (e 1 , e 2 , . . . , e n ) est libre, on en déduit λ1 = · · · = λn = λ. En


conclusion, les endomorphismes u et λIdE coïncident sur une base donc sont
égaux : u est une homothétie.
Réciproquement, les homothéties vérifient bien les conditions de l’énoncé. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap01 chapitre:II

7. Exercices 25

7.7. Exercice. Montrer qu’un endomorphisme u de E est une homothétie si, et


seulement si, pour tout x ∈ E non nul, dim E u,x = 1.
▷ Éléments de correction. Remarquons que la condition dim E u,x = 1 équivaut
à (x, u(x)) liée et l’on est ramené à un problème classique d’algèbre linéaire.
Comme ce résultat sera utilisé à plusieurs reprises, détaillons-le.
Pour tout x ∈ E non nul, il existe λx ∈ K tel que u(x) = λx x. Soit x et y deux
vecteurs non nuls de E . Alors, par linéarité de u,
λx x + λ y y = u(x) + u(y) = u(x + y) = λx+y (x + y).
— Si Vect(x) = Vect(y), alors x et y sont colinéaires non nuls et la relation
ci-dessus donne λx = λ y .
— Sinon, Vect(x) et Vect(y) sont en somme directe (ou de manière équiva-
lente, la famille (x, y) est libre) ; alors, par unicité de l’écriture,
λx = λx+y = λ y .
Ainsi, il existe λ ∈ K tel que, pour tout vecteur x ∈ E , u(x) = λx : l’endomor-
phisme u est une homothétie. ◁

7.8. Exercice. Déterminer les endomorphismes pour lesquels tous les sous-espaces
sont stables.
▷ Éléments de correction. Si tous les sous-espaces sont stables pour un endo-
morphisme u, alors toutes les droites sont stables et donc u est une homothé-
tie (comme on l’a démontré dans l’exercice précédent). Réciproquement, tous
les sous-espaces sont stables par une homothétie. ◁

7.9. Exercice. Soit D une droite vectorielle de R3 . Déterminer les endomorphismes


de R3 laissant stables tous les plans de R3 contenant D.
▷ Éléments de correction. Considérons u un endomorphisme laissant stable tous
les plans de R3 contenant D et e 1 un vecteur directeur de D et puis complétons-
le en une base B = (e 1 , e 2 , e 3 ) de R3 .
Remarquons que u laisse stable les plans Vect(e 1 , e 2 ) et Vect(e 1 , e 3 ) donc laisse
stable leur intersection D = Vect(e 1 ). La matrice de u dans B est donc de la
forme  
λ ? ?
 0 ? ? .
0 ? ?
Ensuite, u laisse stable le plan Vect(e 1 , e 2 ) donc u(e 2 ) ∈ Vect(e 1 , e 2 ). La matrice
de u dans B est donc de la forme
 
λ α ?
 0 β ? .
0 0 ?
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap01 chapitre:II

26 II. Sous-espaces stables

En procédant de même avec le plan Vect(e 1 , e 3 ), on obtient la forme


 
λ α γ
 0 β 0 .
0 0 δ
Enfin, u laisse stable le plan Vect(e 1 , e 2 + e 3 ) et, avec nos notations,

u(e 2 + e 3 ) = (α + γ)e 1 + βe 2 + δe 3 ∈ Vect(e 1 , e 2 + e 3 ),

d’où β = δ.
Réciproquement, si un endomorphisme u admet dans la base B une matrice
de la forme  
λ α γ
0 β 0 ,
0 0 β
alors il laisse stable tous les plans contenant D car, pour tous a, b ∈ R,

u(ae 2 + be 3 ) = (aα + bγ)e 1 + β(ae 2 + be 3 ) ∈ Vect(e 1 , ae 2 + be 3 ).

7.10. Exercice. Soit u un endomorphisme de R3 , nilpotent d’indice de nilpo-


tence 2. Montrer les sous-espaces de dimension 2 stables par u sont ceux qui
contiennent im u.

▷ Éléments de correction. . Si F contient im u, il contient u(F ) donc F est stable.


. Soit F un plan de R3 stable par u. Remarquons que la condition u 2 = 0L (R3 )
entraîne im u ⊂ ker u et donc dim im u É dim ker u. Or, par la formule du rang,
dim im u + dim ker u = 3 donc dim im u = 1 et dim ker u = 2.
— Si F = ker u, alors im u ⊂ ker u = F .
— Sinon, il existe x ∈ F tel que u(x) 6= 0R3 . Comme im u est une droite,

im u = Vect u(x) ⊂ u(F ) ⊂ F.


Dans les deux cas, F contient l’image de u. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap02 chapitre:III

Chapitre III

Commutation

Objectifs du chapitre
— Déterminer le commutant de quelques endomorphismes simples.
— Comprendre les sous-espaces stables fournis par une relation de com-
mutation.
— Effectuer des calculs avec l’endomorphisme ad u associé à un endomor-
phisme u.

1. Définitions
1.1. Définition. . Deux endomorphismes u et v d’un même espace vectoriel E
commutent si u ◦ v = v ◦ u.
. Soit u un endomorphisme d’un espace vectoriel E . Le commutant de u est
l’ensemble, noté C (u), des endomorphismes de E qui commutent avec u.
. Soit u un endomorphisme d’un espace vectoriel E . Le bicommutant de u
est l’ensemble des endomorphismes qui commutent avec tous les éléments
de C (u).

1.2. Remarque. Encore une fois, ces notions s’étendent pour définir le commu-
tant puis le bicommutant d’une matrice.

1.3. Proposition. Soit u un endomorphisme d’un espace vectoriel E . Alors, le


commutant C (u) est une sous-algèbre de L (E ).

Démonstration. Remarquons tout de suite que C (u) ⊂ L (E ) et que IdE ∈ C (u).


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap02 chapitre:III

28 III. Commutation

Pour tous v, w ∈ C (u) et tout λ ∈ K, v + λw ∈ C (u) et v ◦ w ∈ C (u), car

(v + λw) ◦ u = v ◦ u + λw ◦ u = u ◦ v + λu ◦ w
= u ◦ (v + λw),
(v ◦ w) ◦ u = v ◦ (w ◦ u) = v ◦ u ◦ w
= (v ◦ u) ◦ w = u ◦ v ◦ w.

1.4. Proposition. Soit u un endomorphisme de E et v un automorphisme de E .


Alors,
© ª
C (v ◦ u ◦ v −1 ) = vC (u)v −1 = v ◦ w ◦ v −1 , w ∈ C (u) .

Démonstration. Un endomorphisme w de E appartient au commutant de l’en-


domorphisme v ◦ u ◦ v −1 si, et seulement si,

w ◦ v ◦ u ◦ v −1 = v ◦ u ◦ v −1 ◦ w,

soit
v −1 ◦ w ◦ v ◦ u = u ◦ v −1 ◦ w ◦ v,

c’est-à-dire v −1 ◦ w ◦ v appartient au commutant de u. ä

Un des intérêts de la propriété de commutation est qu’elle permet de dégager


des sous-espaces stables assez facilement.

1.5. Proposition. Soit u et v deux endomorphismes de E tels que u ◦ v = v ◦ u.


Alors, le noyau et l’image de v sont des sous-espaces stables par u.

Démonstration. . Si x ∈ ker v, alors

v(u(x)) = u(v(x)) = u(0E ) = 0E ,

d’où u(x) ∈ ker v.


. Si y ∈ im v, alors il existe x ∈ E tel que y = v(x). Par conséquent,

u(y) = u(v(x)) = v(u(x)) ∈ im v.

On a déjà utilisé cette propriété au chapitre précédent avec v ∈ K[u].

1.6. Proposition. Les seuls endomorphismes qui commutent avec tous les auto-
morphismes sont les homothéties.

En particulier, le centre de GL(E ) est {λIdE , λ ∈ K∗ }.


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap02 chapitre:III

2. Calculs de commutants 29

Démonstration. Soit u un endomorphisme qui commute avec tous les auto-


morphismes.
Pour tout x ∈ E non nul, considérons F un supplémentaire de Vect(x) dans E
et s la symétrie vectorielle par rapport à Vect(x) parallèlement à F . Comme u
commute avec s donc avec s − IdE , u laisse stable ker(s − IdE ) = Vect(x). Ainsi,
pour tout x ∈ E , la famille (x, u(x)) est liée, donc u est une homothétie. ä

2. Calculs de commutants
2.1. Exemple. Déterminons l’ensemble des matrices qui commutent avec la
matrice D = diag(λ1 , λ2 , . . . , λn ) avec λ1 , . . . , λn des scalaires deux à deux dis-
tincts.
. Si M = (m i , j )i , j commute avec D, alors en calculant les produits matriciels,
on obtient que, pour tout (i , j ), λi m i , j = λ j m i , j . Par conséquent, pour tout
i 6= j , m i , j = 0 : la matrice M est diagonale. Réciproquement, les matrices dia-
gonales commutent avec D.
. On peut aborder différemment le problème en remarquant que si M com-
mute avec D alors M laisse stable tous les droites ker(D − λk In ) avec k ∈ ‚1, nƒ
donc est diagonale.

2.2. Remarque. Le calcul de l’exemple précédent se généralise à toutes les ma-


trices diagonales à coefficients diagonaux deux à deux distincts.

2.3. Exemple. Déterminons l’ensemble des matrices qui commutent avec le


bloc de Jordan
 
0 1 0 ··· 0
 .. . . . .. ... .. 
. . .
 
. .. .. 
J n =  .. . . 0 ∈ Mn (R).
 
 .. . 
. .. 1
0 ··· ··· ··· 0
Considérons M = (m i , j )i , j qui commute avec J n et écrivons les coefficients des
matrices M J n et J n M : pour tous i , j ∈ ‚1, nƒ,
½
0 si j = 1,
[M J n ]i , j =
m i , j −1 sinon.
½
0 si i = n,
[J n M ]i , j =
m i +1, j sinon.
Ainsi, d’une part,pour tout i ∈ ‚1, nƒ et tout j Ê i , m i , j = m 1, j −i +1 et, d’autre
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap02 chapitre:III

30 III. Commutation

part, la matrice M est triangulaire supérieure ; donc la matrice est de la forme


 
m 1,1 m 1,2 m 1,3 · · · m 1,n
 .. .. .. .. 
 0 . . . . 
 
 .. . . . .. m 
M = . .. .. .
 1,3 
 .. .. .. 
 . . . m 1,2 
0 ··· ··· 0 m 1,1
D’après le calcul des puissances de J n , on réécrit ce résultat sous la forme :
X
n
j −1
M= m 1, j J n .
j =1

Par conséquent, le commutant de J n est l’algèbre K[J n ] des polynômes en J n .

2.4. Remarque. Ce dernier exemple, où le commutant ne contient que des po-


lynômes en la matrice, est en fait assez générique et nous l’étudierons extensi-
vement au chapitre VI consacré aux endomorphismes cycliques.

3. Endomorphisme ad u
Introduisons ici un exemple d’endomorphisme qui nous servira tout au long
de cet ouvrage.

3.1. Définition. Soit u un endomorphisme de E . L’endomorphisme ad u de L (E )


est défini par
½
L (E ) → L (E )
ad u :
v 7→ u ◦ v − v ◦ u

3.2. Remarques. . Cet endomorphisme nous sert essentiellement à mesurer


le défaut de commutativité. Une première remarque dans ce sens est que le
commutant de u est C (u) = ker ad u .
. L’application
½
L (E ) → L (L (E ))
ad :
u 7 → ad u
s’appelle représentation adjointe de L (E ). Elle vérifie, outre la propriété de li-
néarité, la relation
ad u◦v−v◦u = ad u ◦ ad v − ad v ◦ ad u ,
pour tous endomorphismes u et v.

Calculons les puissances de l’endomorphisme ad u .


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap02 chapitre:III

3. Endomorphisme ad u 31

3.3. Proposition. Soit u, v deux endomorphismes de E . Alors, pour tout m ∈ N,


à !
m
Xm m
ad u (v) = (−1)k u m−k ◦ v ◦ u k ,
k=0 k

et, pour tout P ∈ K[X ],


¡ ¢ X (−1)k (k)
+∞
P ad u (v) = k! P (u) ◦ v ◦ u k .
k=0

On peut établir cette formule par récurrence sur m ∈ N.


Démonstration. . Les endomorphismes G u : v 7→ u ◦ v et D u : v 7→ v ◦ u com-
mutent, on peut donc appliquer la formule du binôme pour calculer les puis-
sances (pour la composition) de la différence ad u = G u − D u : pour tout endo-
morphisme v et tout m ∈ N,
à !
m
Xm m
ad u (v) = (−1)k D uk ◦ G um−k (v)
k=0 k
à !
Xm m
= (−1)k u m−k ◦ v ◦ u k .
k=0 k

. En notant P = X m , la formule du point précédent se réécrit,


¡ ¢ X
m
(−1)k m! m−k
P ad u (v) = k! (m−k)! u ◦ v ◦ uk
k=0
X
+∞
(−1)k
= k! P (k) (u) ◦ v ◦ u k .
k=0

On conclut par linéarité. ä

3.4. Corollaire. Si u est un endomorphisme nilpotent d’indice p, alors ad u est


nilpotent d’indice 2p − 1.
Démonstration. . Commençons par remarquer que la formule précédente avec
m = 2p − 1 donne l’endomorphisme nul puisque le terme u m−k ◦ v ◦ u k est nul
pour k Ê p et pour m − k Ê p, c’est-à-dire k É p − 1.
. Par ailleurs, pour tout v ∈ L (E ),
à !
2p−2 2p − 2
ad u (v) = (−1)p−1 u p−1 ◦ v ◦ u p−1 .
p −1

De plus, il existe x ∈ E tel que u p−1 (x) 6= 0E et v un endomorphisme tel que


¡ ¢ 2p−2 2p−2
v u p−1 (x) = x. Avec ces choix, ad u (v)(x) 6= 0E , donc ad u n’est pas l’en-
domorphisme nul.
En conclusion, l’indice de nilpotence de ad u est exactement 2p − 1. ä
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap02 chapitre:III

32 III. Commutation

4. Commentaires et développements

4.1. Le chapitre de la réduction des endomorphismes consiste comme rappelé


dans l’introduction en l’étude de la relation de similitude. Ce chapitre est l’exa-
men d’une relation d’équivalence définie par l’action du groupe linéaire GL(E )
sur L (E ) par conjugaison. Matriciellement, cela revient à examiner les classes
de similitude de matrices, une telle classe étant « l’orbite » OM d’une matrice M
sous « l’action » du groupe linéaire GLn (K)
© ª
OM = P M P −1 , P ∈ GLn (K) .
Or, on sait que, dans l’étude d’une action de groupe, il y a d’un côté les orbites,
et de l’autre les stabilisateurs. Plus précisément, si l’on pose
© ª
Stab(M ) = P ∈ GLn (K), P M P −1 = M ,

on a une bijection canonique entre les classes (à gauche) de GLn (K) modulo
Stab(M ) et l’orbite OM ,
'
GLn (K)/Stab(M ) −→ OM .

Les stabilisateurs sont des sous-groupes de GLn (K), et il est clair que les stabili-
sateurs de deux matrices conjuguées (entendre par là, semblables) sont conju-
gués, c’est-à-dire
¡ ¢
Stab P 0 M P 0−1 = P 0 Stab(M ) P 0−1 .

Le sous-groupe Stab(M ) de GLn (K) coïncide avec le groupe des éléments in-
versibles de l’algèbre C (M ) des matrices commutant avec M . Certains auteurs
notent alors z(M ) l’algèbre C (M ) et Z (M ) le groupe Stab(M ) de ses éléments
inversibles.

4.2. L’algèbre associative C (M ) est plus difficile à étudier que l’algèbre K[M ], ne
serait-ce que parce que la première n’est pas en général commutative alors que
la seconde l’est toujours. Ces deux sous-algèbres coïncident pourtant généri-
quement ; plus précisément, elles sont égales si, et seulement si, la matrice M
est semblable à une matrice compagnon... Lorsque M est, par exemple, diago-
nale (avec des valeurs propres de multiplicité k i ), il est facile de voir que C (M )
est un produit d’algèbres de matrices, en l’occurrence l’algèbre des matrices
diagonales en blocs de tailles k 1 , . . . , k l , avec k 1 + · · · + k l = n (laquelle est de
dimension k 12 + · · · + k l2 ). On voit déjà ici deux faits, d’autant plus intéressants à
relever qu’ils sont valables pour toute matrice M , diagonale, diagonalisable ou
pas : le centre de l’algèbre C (M ) est réduit à K[M ] et la codimension de C (M )
dans Mn (K) est paire !
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap02 chapitre:III

5. Exercices 33

4.3. Si M ∈ Mn (K), le sous-espace vectoriel C (M ) apparaît comme le noyau de


l’endomorphisme ad M . De son côté, l’image de ad M a une signification géo-
métrique inattendue : il donne dans le cas réel la direction de l’espace (affine)
tangent en M à l’orbite OM , qui s’avère ainsi être une sous-variété de Mn (R)
de dimension paire. Le noyau de l’application ad : Mn (K) → L (Mn (K)) est ré-
duit aux matrices scalaires ; quant à son image, on se contentera de dire qu’elle
est formée de dérivations de trace nulle de l’algèbre Mn (K) (une dérivation de
l’algèbre Mn (K) est un endomorphisme θ de Mn (K) vérifiant la propriété ad-
ditionnelle θ(M N ) = θ(M )N + M θ(N ), pour toutes matrices M , N ∈ Mn (K)).

5. Exercices
5.1. Exercice. Soit u un endomorphisme de E . Déterminer une condition néces-
saire et suffisante pour qu’un projecteur p commute avec u.

▷ Éléments de correction. Montrons qu’un projecteur p commute avec u si, et


seulement si, les sous-espaces ker(p − IdE ) et ker p sont stables par u.
. Si p commute avec u, alors ker(p − IdE ) et ker p sont stables par u.
. Réciproquement, si F = ker(p − IdE ) = im p et G = ker p sont stables par u,
alors, pour tout x F ∈ F et tout xG ∈ G,

u ◦ p(x F + xG ) = u(x F ),
p ◦ u(x F + xG ) = p(u(x F ) + u(xG )) = u(x F ).

donc u ◦ p = p ◦ u. ◁

5.2. Exercice. Soit u et v deux endomorphismes d’un espace vectoriel E vérifiant


u + v = u ◦ v. Montrer que u et v commutent.

▷ Éléments de correction. La relation se réécrit (u − IdE ) ◦ (v − IdE ) = IdE , donc


les endomorphismes u − IdE et v − IdE sont bijectifs et réciproques (car E est
toujours de dimension finie) .
Ainsi, (v − IdE ) ◦ (u − IdE ) = IdE et, par conséquent,

u ◦ v = (u − IdE ) ◦ (v − IdE ) + v + u − IdE


= (v − IdE ) ◦ (u − IdE ) + v + u − IdE
= v ◦ u.

5.3. Exercice. Soit u et n deux endomorphismes de E tels que u est non nul, n est
nilpotent et u ◦ n = n ◦ u. Montrer que rg(u ◦ n) < rg u.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap02 chapitre:III

34 III. Commutation

▷ Éléments de correction. Comme u et n commutent, n laisse stable im u. No-


tons ñ l’endomorphisme induit par n sur im u. Comme n est nilpotent, ñ est
également nilpotent et donc, en particulier, non inversible.
La formule du rang appliquée à ñ donne alors :

rg u = dim im u = rg ñ + dim ker ñ > rg ñ.

On conclut en remarquant que im ñ = n(im u) = im(n ◦ u). ◁

5.4. Exercice. Déterminer la dimension du commutant d’une matrice diagonale.

▷ Éléments de correction. Notons D la matrice diagonale, λ1 , λ2 , . . . , λr les va-


leurs distinctes sur la diagonale et d 1 , d 2 , . . . , d r le nombre de fois où chacune
d’elles apparaît. On peut, quitte à utiliser la proposition III -1.4, supposer la
matrice D = diag(λ1 Id1 , λ2 Id2 , . . . , λr Idr ). Une matrice M qui commute avec D
laisse stable les sous-espaces ker(D − λk In ), donc est diagonale par blocs avec
la même structure que D.
Réciproquement, une telle matrice commute bien avec D (dont la restriction à
chacun des sous-espaces est scalaire).
En conclusion, la dimension du commutant de D est celle du sous-espace des
matrices diagonales par blocs de taille d 1 , d 2 , . . . , d r soit :
X
r
d k2 .
k=1

5.5. Exercice. Déterminer le commutant de la matrice diagonale par blocs


 
0 1
 0 0 
 
 
 0 1 0 .
 
 0 0 1 
0 0 0

▷ Éléments de correction. Considérons une matrice M écrite par blocs sous la


forme µ ¶
A B
M= .
C D

Alors, M appartient au commutant si, et seulement si, A J 2 = J 2 A, D J 3 = J 3 D,


C J 2 = J 3C et B J 3 = J 2 B . On traduit les deux premières conditions à l’aide de
l’exemple III -2.3. On exploite les deux autres en effectuant le calcul des pro-
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap02 chapitre:III

5. Exercices 35

duits « à la main » et l’on obtient qu’une matrice du commutant s’écrit


 
a b 0 c d
0 a 0 0 c 
 
e f g h i 
 
0 e 0 g h
0 0 0 0 g

avec a, b, c, d , e, f , g , h et i ∈ K.
La dimension du commutant est donc 9.
Il existe un résultat général exprimant la dimension du commutant d’une ma-
trice nilpotente comme la somme des carrés des longueurs des colonnes de
son tableau de Young (voir chapitre XI) : ici, 22 + 22 + 12 = 9. ◁

5.6. Exercice. Soit A, B ∈ Mn (K) telles qu’il existe P ∈ K[X ] vérifiant P (0) 6= 0 et
AB = P (A). Montrer que A et B commutent.

▷ Éléments de correction. Notons P = P (0) + XQ avec Q ∈ K[X ]. L’hypothèse


AB = P (A) se réécrit alors AB = P (0)In + AQ(A) donc A(B − Q(A)) = P (0)In .
Ainsi, la matrice A est inversible et son inverse est

A −1 = 1
P (0) (B −Q(A)).

En écrivant la relation A −1 A = In , on obtient (B −Q(A))A = P (0)In soit en déve-


loppant B A = P (A). En conclusion, AB = B A. ◁

5.7. Exercice. Soit A ∈ M2 (K) une matrice non scalaire. Montrer que le commu-
tant de A est K[A].

▷ Éléments de correction. Comme la matrice A n’est pas scalaire, il existe un


vecteur X ∈ M2,1 (K) tel que la famille (X , AX ) est libre donc une base de M2,1 (K).
Soit M une matrice qui commute avec A. Posons α, β ∈ K tels que

M X = αX + βAX = (αIn + βA)X .

Alors,
M AX = AM X = A(αIn + βA)X = (αIn + βA)AX .

Ainsi, les endomorphismes associés aux matrices M et (αIn + βA) coïncident


sur une base donc les matrices sont égales : M = αIn + βA ∈ K[A].
L’inclusion K[A] ⊂ C (A) est évidente, d’où l’égalité.
Ce résultat indique seulement que les matrices de M2 (K) non scalaires sont
cycliques. On étudie cette notion au chapitre VI. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap02 chapitre:III

36 III. Commutation

5.8. Exercice. Déterminer l’ensemble des matrices qui commutent avec toutes les
matrices triangulaires supérieures strictes.
▷ Éléments de correction. Une matrice M = (m i , j ) commute avec toutes les ma-
trices triangulaires supérieures strictes si, et seulement si, M E i , j = E i , j M pour
tout i < j . En effectuant ce calcul matriciel, on trouve, pour tous i < j ,
m k,i = 0 si k 6= i , m j ,k = 0 si k 6= j , m j , j = m i ,i .
La première condition entraîne que tous les coefficients hors diagonale des
n − 1 dernières lignes sont nuls ; la deuxième que tous les coefficients hors dia-
gonale des n − 1 premières colonnes sont nuls ; la dernière que tous les coeffi-
cients diagonaux sont égaux. En conclusion, M ∈ Vect(In , E 1,n ).
La réciproque s’obtient par simple vérification. ◁

5.9. Exercice.
1. Existe-t-il une matrice A ∈ Mn (R) telle que
 
0 1 0 ··· 0
 .. . . .. .. .. 
. . . . .
 
. .. .. 
A 2 =  .. . . 0 ?

 .. . 
. . . 1
0 ··· ··· ··· 0

2. Déterminer les matrices A ∈ M3 (R) telles que


 
0 0 1
A 2 = 0 0 0  .
0 0 0

▷ Éléments de correction.
1. Proposons deux solutions pour cette question.
. Soit A une solution de l’équation. Notons J n la matrice du membre
de droite. La matrice A commute avec A 2 = J n donc est un polynôme
en J n d’après l’exemple III -2.3. Ainsi, il existe P ∈ K[X ] tel que A = P (J n ) ;
en reportant dans l’équation, on obtient (P 2 − X )(J n ) = 0n . Comme le
polynôme minimal µ J n = X n divise tout polynôme annulateur de J n , on
en déduit qu’il existe Q ∈ K[X ] tel que P 2 = X + X n Q. Alors, 0 est racine
d’ordre pair dans le membre de gauche et racine simple du membre de
droite : contradiction.
. Notons encore J n la matrice du membre de droite et remarquons que
cette matrice est nilpotente d’indice n. Une matrice A qui vérifie l’équa-
tion est nilpotente. Comme 2(n − 1) Ê n, A 2(n−1) = 0n et donc J nn−1 = 0n
ce qui contredit la valeur de l’indice de nilpotence de J n .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap02 chapitre:III

5. Exercices 37

Dans cette seconde solution, on a exploité de l’indice de nilpotence d’une


matrice de taille n était au plus n . Ce résultat est une simple consé-
quence de la croissance (plus précisément de la stricte croissance puis
du caractère stationnaire) de la suite des noyaux itérés.
2. Soit A une matrice qui vérifie l’équation. Comme A commute avec A 2 ,
on en déduit avec la stabilité de im A 2 et ker A 2 par A que A est de la
forme  
λ α β
 0 µ γ .
0 0 ν
Une fois cette simplification obtenue, on peut reporter dans l’équation
et trouver λ = µ = ν = 0 et αγ = 1.
Réciproquement, pour tout α ∈ R∗ et tout β ∈ R, les matrices
 
0 α β
A = 0 0 1 
α
0 0 0
vérifient l’équation.

5.10. Exercice. Soit A, B ∈ Mn (R) telles que AB −B A est de rang 1. Montrer que B
laisse stable ker A ou im A.

▷ Éléments de correction. Remarquons tout d’abord que la droite im(AB − B A)


est incluse dans im A ou en somme directe avec im A.
. Si im(AB − B A) ⊂ im A, alors, pour tout X ∈ Mn,1 (K), il existe Y ∈ Mn,1 (K) tel
que AB X − B AX = AY , donc B AX ∈ im A : l’image de A est stable par B .
© ª
. Si im(AB − B A) ∩ im A = 0n,1 , alors, pour tout vecteur X ∈ ker A,

AB X = AB X − B AX ∈ im A ∩ im(AB − B A).

Ainsi, AB X = 0n,1 et B X ∈ ker A : le noyau de A est stable par B . ◁

5.11. Exercice. (Théorème de Maschke) Soit G un sous-groupe fini de GL(E ) et F


un sous-espace vectoriel de E stable par tous les éléments de G . Montrer qu’il
existe un supplémentaire de F dans E stable par tous les éléments de G .
Indication : on pourra, pour un supplémentaire S de F , introduire le projecteur p
sur F parallèlement à S puis l’endomorphisme
1 X
q= g ◦ p ◦ g −1 .
|G | g ∈G

▷ Éléments de correction. Soit S un supplémentaire quelconque de F (qui existe


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap02 chapitre:III

38 III. Commutation

car E est de dimension finie) et p le projecteur sur F parallèlement à S. Posons q


conformément à l’indication.
. Soit g ∈ G . Remarquons que g (F ) = F donc, pour tout x ∈ F , il existe y ∈ F tel
que x = g (y). Alors,

g ◦ p ◦ g −1 (x) = g ◦ p(y) = g (y) = x,

car F = im p. Ainsi, tous les éléments de F sont fixes par g ◦ p ◦ g −1 donc par q ;
par conséquent, F ⊂ im(q).
Par ailleurs, pour tout x ∈ E , il existe x 0 ∈ F et x 00 ∈ S tels que g −1 (x) = x 0 + x 00 ,
donc
g ◦ p ◦ g −1 (x) = g ◦ p(x 0 + x 00 ) = g (x 0 ) ∈ g (F ) = F.

En conclusion, im q ⊂ F , d’où im q = F .
. De plus, q est un projecteur. En effet, pour tout x ∈ E , q(x) ∈ F et l’on a vu que
les éléments de F sont fixes par q donc q 2 (x) = q(x). Ainsi, q 2 = q.
. Pour tout h ∈ G ,
1 X
h◦q = h ◦ g ◦ p ◦ g −1
|G | g ∈G
1 X
= k ◦ p ◦ k −1 ◦ h en posant k = h ◦ g
|G | k∈G
= q ◦ h.

Ainsi, q commute avec tous les éléments de G .


En conclusion, le noyau de q est un supplémentaire de F = im q (car q est un
projecteur), stable par tous les éléments de G (d’après la propriété de commu-
tation). ◁

5.12. Exercice. Soit A, B et C ∈ M2 (C) non nulles telles que



 C A − AC = 2A
C B − BC = −2B

AB − B A = C

1. Montrer que, pour tout k ∈ N∗ , tr A k = 0.


2. En déduire que A est nilpotente (et donc de rang 1).
3. Vérifier que si ker A = ker B , alors il existe λ ∈ C tel que A = λB ; en déduire
une contradiction.
4. Montrer qu’il existe une matrice P ∈ GL2 (C) telle que
µ ¶ µ ¶ µ ¶
0 1 −1 0 0 −1 1 0
A=P P , B =P P , C =P P −1 .
0 0 1 0 0 −1
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap02 chapitre:III

5. Exercices 39

▷ Éléments de correction.
1. Soit k ∈ N∗ . Comme 2A = C A − AC , 2A k = A k−1C A − A k C et donc

2 tr A k = tr((A k−1C )A) − tr(A k C )


= tr(A k C ) − tr(A k C ) = 0.

2. Montrons de manière élémentaire que la matrice A est nilpotente. Ce


résultat sera évident avec le théorème de Cayley & Hamilton mais nous
en proposons ici une démonstration sans recours à ce théorème.
. Montrons tout d’abord que A n’est pas inversible en raisonnant par
l’absurde. Si A est inversible, alors A admet un polynôme annulateur P
tel que P (0) 6= 0 ; pourtant, 0 = tr P (A) = tr(P (0)I2 ) = 2P (0) (en utilisant la
première question) d’où la contradiction.
. En considérant une base construite en complétant une base du noyau
de A, la matrice A est semblable à une matrice de la forme
µ ¶
0 α
.
0 β
La condition tr A = 0 entraîne alors β = 0. La matrice A est donc sem-
blable à une matrice triangulaire supérieure donc nilpotente. Elle est de
rang 1 car ni nulle, ni inversible.
3. Supposons ker A = ker B et considérons une base de M2,1 (C) construite
à partir d’un vecteur directeur de ker A. Alors, il existe une matrice de
passage P ∈ GL2 (C) telle que
µ ¶ µ ¶
0 α −1 0 γ −1
A=P P , B =P P .
0 β 0 δ
La condition sur les traces nulles entraîne β = δ = 0. Ainsi, A et B sont
proportionnelles.
Enfin, notons que si A et B sont proportionnelles, AB − B A = 02 ce qui
entraîne C = 02 , cas explicitement exclu par l’énoncé.
4. Nous avons montré à la question précédente que les droites ker A et ker B
sont supplémentaires dans M2,1 (C). Considérons une base associée à
cette décomposition telle qu’il existe une matrice P ∈ GL2 (C) vérifiant
µ ¶ µ ¶
0 α −1 0 0 −1
A=P P , B =P P .
0 0 1 0
Il reste alors à vérifier les conditions de l’énoncé.
. Avec C = AB − B A, on trouve
µ ¶
α 0
C =P P −1 .
0 −α
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap02 chapitre:III

40 III. Commutation

. Avec 2A = C A − AC , on trouve α = 1. La condition 2B = BC − C B est


alors vérifiée et l’on a obtenu la forme désirée.

5.13. Exercice. Déterminer les matrices A ∈ Mn (K) telles que l’algèbre C (A) soit
isomorphe à une algèbre de matrice Mp (K) pour un entier p.

▷ Éléments de correction. Considérons une telle matrice A, et φ : C (A) → Mp (K)


un isomorphisme d’algèbres.
La matrice A commute avec tous les éléments de C (A), donc φ(A) commute
avec tous les éléments de φ(C (A)) = Mp (K) : il existe donc un scalaire α ∈ K tel
que φ(A) = αIp = φ(αIn ). Comme φ est injective, A = αIn .
Réciproquement, pour toute matrice A scalaire, C (A) = Mn (K). ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap05 chapitre:IV

Chapitre IV

Lemme des noyaux

Objectifs du chapitre
— Comprendre la finitude de l’ensemble des sous-espaces ker P (u) avec P
un polynôme.
— Utiliser le lemme des noyaux pour obtenir une décomposition en sous-
espaces stables (et savoir ensuite l’exploiter).
— Comprendre l’existence d’un vecteur x tel que le polynôme minimal lo-
cal en x soit le polynôme minimal (µu,x = µu ).

1. Étude des sous-espaces ker P (u)


Commençons par un résultat élémentaire.

1.1. Lemme. Soit P , Q deux polynômes tels que Q divise P et u un endomor-


phisme de E . Alors,
kerQ(u) ⊂ ker P (u).
Démonstration. Par hypothèse, il existe un polynôme A tel que P = AQ. En uti-
lisant le morphisme d’algèbres associé à u, on obtient P (u) = A(u)◦Q(u). Ainsi,
tout vecteur de kerQ(u) appartient à ker P (u). ä

1.2. Proposition. Soit P , Q deux polynômes de PGCD D et u un endomorphisme


de E . Alors,
ker P (u) ∩ kerQ(u) = ker D(u).
Démonstration. . Remarquons tout d’abord que D divise P et Q donc, avec le
lemme précédent,
ker D(u) ⊂ ker P (u) ∩ kerQ(u).
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap05 chapitre:IV

42 IV. Lemme des noyaux

. Pour l’autre inclusion, considérons une relation de Bézout des polynômes P


et V : il existe des polynômes U et V tels que U P + V Q = D. Ainsi, pour tout
x ∈ ker P (u) ∩ kerQ(u),

D(u)(x) = U (u) ◦ P (u)(x) + V (u) ◦ Q(u)(x) = 0E .

Cela prouve ker P (u) ∩ kerQ(u) ⊂ ker D(u) et le résultat annoncé par double-
inclusion. ä

Cette proposition est complétée par un résultat analogue pour la somme (voir
Exercice IV -5.1).

1.3. Corollaire. Soit u un endomorphisme de E et P ∈ K[X ]. Alors,

ker P (u) = ker(P ∧ µu )(u).

Démonstration. Il suffit d’appliquer la proposition avec Q = µu et de remarquer


que ker µu (u) = ker 0L (E ) = E :

ker P (u) = ker P (u) ∩ ker µu (u) = ker(P ∧ µu )(u).

1.4. Remarque. Ce corollaire permet de limiter l’étude des sous-espaces de la


forme ker P (u) aux seuls cas où P divise µu .
Par ailleurs, pour deux polynômes P et Q associés, ker P (u) = kerQ(u).
Combinées, ces remarques entraînent que l’ensemble des sous-espaces de la
forme ker P (u) avec P ∈ K[X ] est fini.

1.5. Exemple. Revisitons l’exercice I -6.7. Pour un endomorphisme u ∈ L (E ) et


un polynôme P ∈ K[X ], P (u) est inversible si, et seulement si, ker P (u) = {0E },
c’est-à-dire si ker(P ∧ µu )(u) = {0E }.
. Si P ∧ µu = 1, alors ker(P ∧ µu )(u) = ker IdE = {0E }.
. Si P ∧ µu 6= 1, alors il existe un polynôme Q tel que µu = (P ∧ µu )Q. Par mini-
malité de µu , Q n’est pas annulateur de u donc imQ(u) contient des vecteurs
non nuls. Or, imQ(u) ⊂ ker(P ∧ µu )(u) donc ker(P ∧ µu )(u) 6= {0E }.
En conclusion, on obtient P (u) est inversible si, et seulement si, P ∧ µu = 1.

1.6. Corollaire. Soit u un endomorphisme de E et P ∈ K[X ] un polynôme uni-


taire, diviseur de µu . Alors, le polynôme minimal de l’endomorphisme induit
par u sur le sous-espace F = ker P (u) est P .

Démonstration. Notons Q le polynôme tel que µu = PQ.


. Comme P (u F ) = 0L (F ) , µuF divise P .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap05 chapitre:IV

2. Lemme des noyaux 43

. Comme P (u) ◦ Q(u) = µu (u) = 0L (E ) , imQ(u) ⊂ ker P (u) = F . Ainsi, pour tout
x ∈ E , Q(x) ∈ F et donc

(µuF Q)(u)(x) = µuF (u)(Q(u)(x))


= µuF (u F )(Q(u)(x))
= 0L (F ) (Q(u)(x)) = 0E .

Par conséquent, µuF Q est un polynôme annulateur de u. Ensuite, le polynôme


minimal µu = PQ divise µuF Q, et donc P divise µuF .
En conclusion, les polynômes unitaires µuF et P sont associés donc égaux. ä

1.7. Remarque. Si l’on omet la condition P divise µu , le résultat de ce corollaire


devient : le polynôme minimal de l’endomorphisme induit par u sur ker P (u)
est le PGCD P ∧ µu .

2. Lemme des noyaux


Le résultat suivant est essentiel pour la suite, car il permet de « décomposer »
un espace vectoriel en une somme directe de sous-espaces vectoriels stables
adaptés à la réduction de l’endomorphisme considéré.

2.1. Lemme des noyaux. Soit (P 1 , P 2 , . . . , P N ) une famille de polynômes deux à


deux premiers entre eux et u un endomorphisme de E . Alors,
M
N
ker(P 1 P 2 · · · P N )(u) = ker P k (u).
k=1

De plus, le projecteur de ker(P 1 P 2 · · · P N )(u) sur l’un de ces sous-espaces paral-


lèlement à la somme des autres appartient à K[u].

Démonstration. . Montrons la décomposition par récurrence sur le cardinal


N Ê 2 de la famille de polynômes.
• Si P 1 et P 2 sont deux polynômes premiers entre eux, le théorème de Bézout
garantit l’existence de polynômes U1 et U2 tels que U1 P 1 + U2 P 2 = 1, et donc,
après application du morphisme d’algèbres associé à u, tels que

U1 (u) ◦ P 1 (u) +U2 (u) ◦ P 2 (u) = IdE .

Ainsi, pour tout x ∈ ker(P 1 P 2 )(u),

x = U1 (u) ◦ P 1 (u)(x) +U2 (u) ◦ P 2 (u)(x),

avec U1 (u) ◦ P 1 (u)(x) ∈ ker P 2 (u) et U2 (u) ◦ P 2 (u)(x) ∈ ker P 1 (u) (en utilisant la
commutation des polynômes en u).
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap05 chapitre:IV

44 IV. Lemme des noyaux

Par ailleurs, si x ∈ ker P 1 (u) ∩ ker P 2 (u), alors


x = U1 (u) ◦ P 1 (u)(x) +U2 (u) ◦ P 2 (u)(x) = 0E .
On déduit de ces deux résultats que ker P 1 (u) et ker P 2 (u) sont supplémentaires
dans ker(P 1 P 2 )(u).
• Soit N Ê 2. Supposons que le théorème est établi pour toute famille de N
polynômes deux à deux premiers entre eux. Soit (P 1 , P 2 , . . . , P N +1 ) une famille
de polynômes deux à deux premiers entre eux. Alors, P 1 P 2 · · · P N et P N +1 sont
premiers entre eux et l’on peut appliquer le théorème à cette famille de deux
polynômes ; d’où,
ker(P 1 P 2 · · · P N P N +1 )(u) = ker((P 1 P 2 · · · P N )P N +1 )(u)
= ker(P 1 P 2 · · · P N )(u) ⊕ ker P N +1 (u).

Il suffit désormais d’appliquer l’hypothèse de récurrence à (P 1 , P 2 , . . . , P N ) pour


conclure à la décomposition en somme directe.
. Passons à la démonstration de la propriété sur les projecteurs associés à cette
décomposition. Par symétrie, il suffit de l’établir avec le projecteur sur le pre-
mier sous-espace. Revenons à une famille (P 1 , P 2 , . . . , P N ) de polynômes deux à
deux premiers entre eux.
Puisque P 1 et P 2 · · · P N sont premiers entre eux, il existe des polynômes U et V
tels que
U P 1 + V P 2 · · · P N = 1.
Posons p = (V P 2 · · · P N )(u) et vérifions que p est bien le projecteur de l’espace
ker(P 1 P 2 · · · P N )(u)
L
sur ker P 1 (u) parallèlement à kÊ2 ker P k (u) = ker(P 2 · · · P N )(u) (d’après le pre-
mier point). En effet,
— pour tout x ∈ ker P 1 (u),
x = (U P 1 )(u)(x) + (V P 2 · · · P N )(u)(x)
= 0E + p(x) = p(x),

— pour tout x ∈ ker(P 2 · · · P N )(u), p(x) = 0E par construction de p.


L’endomorphisme p est donc le projecteur recherché. ä

3. Décomposition avec des sous-espaces stables


3.1. Remarque. Soit u un endomorphisme de E ; écrivons la décomposition en
facteurs irréductibles d’un polynôme annulateur P
Y
p
α
P= Pk k ,
k=1
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap05 chapitre:IV

3. Décomposition avec des sous-espaces stables 45

où les P k sont des polynômes irréductibles deux à deux distincts et les αk des
entiers non nuls. Le lemme des noyaux entraîne
M
p
α
E = ker P (u) = ker P k k (u).
k=1

On a ainsi obtenu une décomposition de E comme somme de sous-espaces


stables par u et donc, dans une base adaptée à cette décomposition, une écri-
ture matricielle de u diagonale par blocs.

3.2. Remarque. On retrouve ainsi la décomposition de l’espace naturellement


associée aux projecteurs ou aux symétries vectorielles qui admettent respecti-
vement les polynômes annulateurs X (X − 1) et (X − 1)(X + 1).

Rappelons les résultats pour la suite des noyaux itérés utile pour décrire les
espaces apparus dans cette décomposition.

3.3. Proposition. Soit u un endomorphisme de E et P un polynôme. Alors, la


¡ ¢ ¡ ¢
suite ker(P (u))k k = ker P k (u) k est strictement croissante pour l’inclusion puis
stationnaire. Si, de plus, P est irréductible, alors le polynôme minimal local de u
en x ∈ ker P k (u) \ ker P k−1 (u) est P k .

Donnons une application en terme de polynôme minimal local.

3.4. Proposition. Soit u un endomorphisme de E . Alors, il existe x ∈ E tel que le


polynôme minimal local µu,x en x est le polynôme minimal µu .
Démonstration. Écrivons une nouvelle fois la décomposition en facteurs irré-
ductibles de son polynôme minimal
Y
p
α
µu = Pk k ,
k=1

où les P k sont des polynômes irréductibles deux à deux distincts et les αk des
entiers non nuls. D’après le résultat de croissance de la suite des noyaux itérés,
α α −1
on dispose, pour tout k ∈ ‚1, pƒ, d’un vecteur x k ∈ ker P k k \ ker P k k . Considé-
rons le vecteur x = x 1 + x 2 + · · · + x p ∈ E . Alors,
X
p
0E = µu,x (u)(x) = µu,x (u)(x k ).
k=1
α α
Pour tout k ∈ ‚1, pƒ, µu,x (u)(x k ) ∈ ker P k k (u). Or, les sous-espaces ker P k k (u)
sont en somme directe : ainsi, pour tout k ∈ ‚1, pƒ, µu,x (u)(x k ) = 0E et donc
α
P k k , polynôme minimal de x k , divise µu,x . Le lemme d’Euclide entraîne que
µu divise µu,x : ainsi, µu,x = µu .
ä
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap05 chapitre:IV

46 IV. Lemme des noyaux

4. Commentaires et développements
4.1. Ce chapitre est l’occasion d’une ouverture plus marquée de l’algèbre li-
néaire sur l’arithmétique. Les propriétés de divisibilité dans l’anneau principal
R = K[X ], pour K corps commutatif, jouent ici un rôle crucial. Les deux pro-
priétés fondamentales d’intersection et de somme de noyaux

ker P (u) ∩ kerQ(u) = ker(P ∧Q)(u), ker P (u) + kerQ(u) = ker(P ∨Q)(u),

où l’identité de Bezout joue un rôle primordial sont à comparer avec les rela-
tions concernant les idéaux de l’anneau R (noter l’inversion des cas correspon-
dants)
aR + bR = (a ∧ b)R, aR ∩ bR = (a ∨ b)R.

4.2. Les sous-espaces de la forme ker P (u) (mais aussi deux de la forme im P (u))
sont des exemples prioritaires de sous-espace stables sous l’action de l’endo-
morphisme u. Leur nombre est fini, comme on l’a vu dans la propriété de début
du chapitre.
Il existe en général d’autres sous-espaces stables par u que ceux-là. Toutefois, il
est bon de noter que tout sous-espace stable sous l’action de u est de la forme
ker P (u) si, et seulement si, l’endomorphisme u est cyclique, soit encore s’il
n’existe qu’un nombre fini de sous-espace stables sous l’action de u. Voir le
chapitre VI. Ainsi, lorsque u est cyclique, chacun des sous-espaces im P (u) est
donc de la forme ker P (u).
À titre d’exemple, pour le bloc de Jordan J n , im J n = ker J nn−1 .
Attention, un sous-espace quelconque im P (u) peut être de la forme kerQ(u)
sans que u ne soit cyclique. En fait, une condition nécessaire et suffisante pour
que tous les im u k , où u est endomorphisme nilpotent, soient des kerQ(u) pour
un polynôme Q adéquat est que le tableau de Young de u soit rectangulaire.
Voir page 121 du livre
Réduction des endomorphismes, Rached Mneimné, Calvage & Mounet, 2006.

4.3. Il est intéressant de savoir quels sont les ker P (u) qui ont un supplémen-
taire stable, et aussi d’en calculer le nombre. Le lemme suivant est facile et im-
portant.

4.4. Lemme. Le sous-espace ker u admet un supplémentaire stable si, et seule-


ment si, ker u = ker u 2 , auquel cas ce supplémentaire est im u.

Nous savons déjà que le cardinal des idempotents dans l’algèbre K[u] est une
puissance de 2. En effet, avec le lemme chinois, l’algèbre K[u] s’écrit comme
¡ ¢
produit d’algèbres quotients K[u]/ P k , où P est un polynôme irréductible.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap05 chapitre:IV

5. Exercices 47

¡ ¢
Une algèbre K[u]/ P k est alors locale (au sens qu’elle a un seul idéal maxi-
mal, à savoir l’idéal engendré par la classe de P , ou encore que l’ensemble des
éléments non inversibles est un idéal). Dans ce cas, il y a seulement deux idem-
potents, 0 et 1.
Calculons maintenant le nombre de sous-espaces ker P (u). On sait que ce qui
compte, ce sont les ker P (u) où P est un diviseur du polynôme minimal
Y α
µu = P i i .
i

Une fois l’on a écrit l’espace comme somme directe des sous-espaces caracté-
ristiques, ker P (u) se décompose bien et l’on est ramené à calculer le nombre
α
de sous-espaces ker P (u) ∩ ker P i i (u). Mais, ce dernier sous-espace est de la
βi
forme ker P i (u), avec 0 É βi É αi ; par stricte croissance des noyaux itérés, il
en existe exactement αi + 1. En conclusion, le nombre de sous-espaces de la
forme ker P (u) est égal au produit des αi + 1, autrement dit, il y a autant de
sous-espaces ker P (u) que de diviseurs du polynôme minimal.
En particulier, le nombre de sous-espaces ker P (u) est impair si, et seulement
si, le polynôme minimal µu est un carré.

4.5. On comprend maintenant quelles sont les décompositions de l’espace


de la forme ker P (u) ⊕ kerQ(u). Il s’agit seulement des décompositions issues
des écritures P̃ Q̃ = µu avec ker P (u) = ker P̃ (u) et kerQ(u) = ker Q̃(u) : il y en a
donc 2s , où s est le nombre de facteurs irréductibles de µu .
Si ker P (u) ⊕ kerQ(u) = E , alors P et Q sont premiers entre eux et µu divise PQ.
Si l’on suppose, sans perte de généralité avec la proposition IV -1.3, que P et Q
sont des diviseurs de µ, le résultat est clair.

5. Exercices

5.1. Exercice. Soit P , Q deux polynômes de PPCM M = P ∨ Q et u un endomor-


phisme de E . Montrer que

ker P (u) + kerQ(u) = ker M (u).

▷ Éléments de correction. . Comme P divise M , ker P (u) ⊂ ker M (u). De même,


kerQ(u) ⊂ ker M (u) et, par conséquent,

ker P (u) + kerQ(u) ⊂ ker M (u).

. Notons P = D Pe, Q = D Qe ce qui entraîne donc M = P Qe = Q Pe ; remarquons


ensuite que les polynômes Pe et Qe sont premiers entre eux. D’après la propriété
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap05 chapitre:IV

48 IV. Lemme des noyaux

de Bézout, il existe U et V ∈ K[X ] tels que

U Qe + V Pe = 1.

Soit x ∈ ker M (u) ; on obtient la décomposition


e
x = U (u) ◦ Q(u)(x) + V (u) ◦ Pe(u)(x).

Enfin,
e
P (u)(U (u) ◦ Q(u)(x)) e
= P (u) ◦U (u) ◦ Q(u)(x)
e
= U (u) ◦ (P (u) ◦ Q(u))(x)
= U (u) ◦ M (u)(x) = 0E ,
Q(u)(V (u) ◦ Pe(u)(x)) = Q(u) ◦ V (u) ◦ Pe(u)(x))
= V (u) ◦ M (u)(x) = 0E .

e
Ainsi, U (u) ◦ Q(u)(x) ∈ ker P (u) et V (u) ◦ Pe(u)(x) ∈ kerQ(u) ; par conséquent,
x ∈ ker P (u) + kerQ(u). ◁

5.2. Exercice. Soit u un endomorphisme de E , P et Q deux polynômes unitaires,


divisant µu et tels que ker P (u) = kerQ(u). Montrer que P = Q.

▷ Éléments de correction. Appliquons le corollaire IV -1.6 : le polynôme mini-


mal de l’endomorphisme induit par u sur le sous-espace F = ker P (u) est P (car
P est un diviseur unitaire de µu ). Ce polynôme minimal est également Q en
utilisant le même corollaire avec cette fois-ci l’écriture F = kerQ(u).
Par unicité du polynôme minimal de u F , on obtient immédiatement que P = Q.
On déduit de ce petit exercice que pour deux polynômes P et Q , la condition
ker P (u) = kerQ(u) équivaut à P ∧ µu = Q ∧ µu . ◁

5.3. Exercice. (Décomposition de Fitting) Soit u un endomorphisme de E . Mon-


trer qu’il existe m ∈ N∗ tel que

E = ker u m ⊕ im u m .

Indication : on pourra utiliser le résultat, établi à l’exercice II -7.5, que le seul


supplémentaire du noyau d’un endomorphisme v stable par v est l’image de v.

▷ Éléments de correction. Soit P un polynôme annulateur non nul de u et m la


multiplicité de 0 comme racine de P . Notons Q le polynôme tel que Q(0) 6= 0 et
P = X m Q. D’après le lemme des noyaux avec les polynômes X m et Q premiers
entre eux,
E = ker u m ⊕ kerQ(u).

Mais alors, kerQ(u) est un supplémentaire de ker u m stable par u m , qui est
donc égal, d’après l’exercice II -7.5, à im u m .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap05 chapitre:IV

5. Exercices 49

Le sous-espace ker u m qui intervient ici est le nilespace de u ; on verra plus loin
qu’il s’agit simplement du sous-espace caractéristique de u associé à la valeur
propre 0. Le sous-espace im u m est parfois appelé cœur de u . ◁

5.4. Exercice. Soit E un espace vectoriel de dimension n Ê 2 et u un endomor-


phisme de E .
1. Soit F un plan de E stable par u. Montrer qu’il existe un polynôme P non
nul de degré au plus 2 tel que F ⊂ ker P (u).
2. Soit P un polynôme non nul de degré au plus 2 tel que dim ker P (u) Ê 2.
Montrer qu’il existe un plan stable inclus dans ker P (u).

▷ Éléments de correction.
1. . S’il existe λ ∈ K tel que u F = λIdF , alors F ⊂ ker(u − λIdE ).
. Sinon, il existe x ∈ F tel que la famille (x, u(x)) est libre donc est une
base de F . Mais alors, u 2 (x) ∈ F , car F est stable par u ; il existe donc
a, b ∈ K tels que u 2 (x) = au(x) + bx. On vérifie immédiatement que x
et u(x) appartiennent à ker(u 2 −au −bIdE ) donc F ⊂ ker(u 2 −au −bIdE ).
2. . S’il existe λ ∈ K tel que u ker P (u) = λIdker P (u) , alors deux vecteurs linéai-
rement indépendants de ker P (u) engendrent un plan stable.
. Sinon, il existe x ∈ ker P (u) tel que la famille (x, u(x)) est libre et définit
un plan F de ker P (u). Par ailleurs, F est stable car P (u)(x) = 0E et donc

u 2 (x) ∈ Vect(x, u(x)) = F.


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:IV
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:V

Chapitre V

Éléments propres,
caractéristiques

Objectifs du chapitre
— Définir les éléments propres d’un endomorphisme.
— Calculer le polynôme caractéristique et en connaître le lien avec les va-
leurs propres.

1. Définitions
1.1. Définition. Soit u un endomorphisme de E .
. Une valeur propre λ de u est un scalaire tel que u − λIdE n’est pas injective,
c’est-à-dire tel qu’il existe x ∈ E non nul qui satisfait u(x) = λx. L’ensemble des
valeurs propres de l’endomorphisme u est appelé spectre de u et noté Sp(u).
. Un vecteur propre de u associé à la valeur propre λ est un vecteur x non nul
tel que u(x) = λx.
. Le sous-espace propre de u associé à la valeur propre λ est le sous-espace
E λ (u) = ker(u − λIdE ). On le note E λ s’il n’y a pas ambiguïté sur l’endomor-
phisme considéré. La dimension de ce sous-espace propre est notée m g (λ) et
appelée multiplicité géométrique de la valeur propre λ.

1.2. Proposition. Soit u un endomorphisme de E . Alors, une famille de vecteurs


propres de u associés à des valeurs propres deux à deux distinctes est libre.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:V

52 V. Éléments propres, caractéristiques

1.3. Exemple. Le résultat est vrai indépendamment de l’hypothèse de dimen-


sion finie de l’espace E . Par exemple, pour tout réel a, la fonction f a : x 7→ e ax
est un vecteur propre de l’opérateur de dérivation (qui est un endomorphisme
de C ∞ (R, R)). Par conséquent, pour tous réels deux à deux distincts a 1 , . . . , a n ,
la famille ( f a1 , . . . , f an ) est libre.

Démonstration. Procédons par récurrence sur le cardinal N Ê 1 de la famille de


vecteurs propres considérée.
. Si N = 1, alors la famille ne contient qu’un vecteur, qui est non nul en tant
que vecteur propre, donc la famille est libre.
. Soit N ∈ N∗ ; supposons que toute famille de N vecteurs propres associés à
des valeurs propres deux à deux distinctes soit libre et considérons (x 1 , . . . , x N +1 )
une famille de N +1 vecteurs propres associées aux valeurs propres deux à deux
distinctes λ1 , . . . , λN +1 .
Soit α1 , . . . , αN +1 des scalaires tels que
NX
+1
αi x i = 0E .
i =1

En composant par u, on obtient


NX
+1 ³ NX
+1 ´
λi αi x i = u αi x i = 0E .
i =1 i =1

En combinant ces deux relations, on fait disparaître le terme en x N +1 :


X
N
(λN +1 − λi )αi x i = 0E .
i =1

D’après l’hypothèse de récurrence pour la famille (x 1 , . . . , x N ), on déduit, que,


pour tout i ∈ ‚1, N ƒ, (λN +1 − λi )αi = 0, soit αi = 0 (car λN +1 6= λi ). En reportant,
on obtient également que αN +1 = 0 car x N +1 est non nul. D’où la liberté de la
famille (x 1 , . . . , x N +1 ). ä

1.4. Corollaire. Un endomorphisme d’un espace vectoriel de dimension n admet


au plus n valeurs propres distinctes.

Démonstration. Une famille constituée de vecteurs propres associés à chacune


des valeurs propres distinctes est libre d’après la proposition précédente et de
cardinal le nombre de valeurs propres distinctes. Or, le cardinal d’une famille
libre est inférieur ou égal à la dimension de l’espace, d’où le résultat. ä

1.5. Remarque. Le nombre de valeurs propres d’un endomorphisme d’un es-


pace vectoriel de dimension infinie n’est pas forcément borné comme l’on peut
le voir avec les exemples suivants.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:V

1. Définitions 53

. L’endomorphisme φ de K[X ] défini par φ(P ) = X P 0 admet tous les entiers


naturels comme valeur propre puisque φ(X n ) = nX n pour tout entier n ∈ N.
. L’endomorphisme de dérivation sur C ∞ (R, R) admet tous les réels comme
valeur propre ; en effet, pour tout a ∈ R, t 7→ e at est un vecteur propre associé à
la valeur propre a.

1.6. Proposition. Soit u un endomorphisme de E . Alors, les sous-espaces propres


de u associés à des valeurs propres deux à deux distinctes sont en somme directe.
Démonstration. Soit E λ1 , . . . , E λN des sous-espaces propres associés à des va-
leurs propres deux à deux distinctes λ1 , . . . , λN . Considérons une décomposi-
tion de 0E sur la somme de ces sous-espaces propres :
X
N
0E = xi
k=1

avec, pour tout i ∈ ‚1, N ƒ, x i ∈ E λi . Chacun des termes de cette somme est soit
nul, soit un vecteur propre. D’après le résultat précédent, x i = 0E pour tout
i ∈ ‚1, N ƒ (sinon on aurait trouvé une combinaison linéaire nulle non triviale
de vecteurs propres associés à des valeurs propres deux à deux distinctes). Par
conséquent, les espaces E λ1 , . . . , E λN sont en somme directe. ä

1.7. Exemple. Dans E = C ∞ (R, R), le sous-espace vectoriel P des fonctions


paires et le sous-espace vectoriel I des fonctions impaires sont en somme di-
recte. En effet, ce sont les sous-espaces propres associés aux valeurs propres 1
et −1 de l’endomorphisme de E défini par f 7→ f˜ où f˜ : x 7→ f (−x).

1.8. Remarques. Remarquons quelques liens élémentaires entre sous-espaces


propres et sous-espaces stables.
. Un sous-espace propre est un sous-espace stable, et même plus générale-
ment, tout sous-espace vectoriel d’un sous-espace propre est un sous-espace
stable.
. La réciproque est évidemment fausse (il suffit de considérer tout l’espace, par
exemple). En revanche, une droite vectorielle est stable si, et seulement si, elle
est engendrée par un vecteur propre et donc, si, et seulement si, elle est incluse
dans un sous-espace propre.

1.9. Proposition. Soit u un endomorphisme et P un de ses polynômes annula-


teurs. Alors, les valeurs propres de u appartiennent à l’ensemble des racines de P .
Démonstration. Soit λ une valeur propre de u et x un vecteur propre associé
à λ. Pour tout k ∈ N, u k (x) = λk x par une récurrence immédiate. Par consé-
quent, P (u)(x) = P (λ)x. Comme P est annulateur de u, on trouve P (λ)x = 0E
puis P (λ) = 0, car le vecteur x est non nul en tant que vecteur propre. ä
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:V

54 V. Éléments propres, caractéristiques

1.10. Remarque. La réciproque est bien évidemment fausse. En effet, tout mul-
tiple d’un polynôme annulateur est encore annulateur : on peut trouver un po-
lynôme annulateur admettant des racines autres que les valeurs propres en le
multipliant par des facteurs bien choisis.

1.11. Proposition. Soit u un endomorphisme de E . Alors, les valeurs propres de u


sont exactement les racines de son polynôme minimal µu .

Démonstration. . D’après la proposition précédente, les valeurs propres ap-


partiennent à l’ensemble des racines de µu .
. Réciproquement, considérons λ une racine de µu et Q le polynôme tel que
µu = (X −λ)Q. Alors, (u −λIdE )◦Q(u) = 0L (E ) . Si λ n’est pas valeur propre de u,
alors l’endomorphisme u−λIdE est inversible et donc Q(u) = 0L (E ) , c’est-à-dire
Q est annulateur de u, ce qui contredit la minimalité de µu . ä

1.12. Définition. La multiplicité minimale d’une valeur propre λ d’un endo-


morphisme u est la multiplicité de λ en tant que racine du polynôme minimal
de u. On la note m m (λ).

2. Polynôme caractéristique
2.1. Définition. Le polynôme caractéristique d’une matrice A ∈ Mn (K) est le
polynôme unitaire χ A de degré n défini par

χ A = det(X In − A) = (−1)n det(A − X In ).

2.2. Proposition. Soit A ∈ Mn (K) et P ∈ GLn (K). Alors χP −1 AP = χ A .

Démonstration. D’après les propriétés du déterminant d’une matrice à coeffi-


cients dans K[X ],

χP −1 AP = det(X In − P −1 AP )
= det(X P −1 In P − P −1 AP )
= det(P −1 ) det(X In − A) det(P ) = χ A .

2.3. Corollaire. Les polynômes caractéristiques de deux matrices semblables sont


égaux.

2.4. Définition. Soit u un endomorphisme de E . Le polynôme caractéristique


de u est le polynôme caractéristique de n’importe laquelle de ses matrices.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:V

2. Polynôme caractéristique 55

2.5. Proposition. Soit u un endomorphisme de E puis F un sous-espace stable


par u. Alors, le polynôme caractéristique χuF de l’endomorphisme induit u F di-
vise le polynôme caractéristique χu de u.
Démonstration. Écrivons la matrice de u dans une base de E obtenue en com-
plétant une base de F . La matrice est alors triangulaire par blocs et le premier
bloc diagonal est une matrice de u F . Le résultat provient du calcul d’un déter-
minant par blocs. ä

2.6. Proposition. Soit u un endomorphisme de E . Supposons que E = F ⊕G avec


F , G des sous-espaces stables par u. Alors, le polynôme caractéristique de u vaut
χ u = χ u F χu G .
Démonstration. On procède comme précédemment avec une base de E obte-
nue en concaténant une base de F et une base de G. ä

2.7. Remarque. On peut comparer ce résultat à l’analogue pour le polynôme


minimal à la proposition II -3.4.

Un des intérêts du polynôme caractéristique est la recherche des valeurs propres


comme l’indique la proposition suivante.

2.8. Proposition. Soit u un endomorphisme de E . Alors, les racines de χu sont


exactement les valeurs propres de u.
Démonstration. Par définition du polynôme caractéristique, un scalaire λ est
racine de χu si, et seulement si, det(u − λIdE ) = 0, c’est-à-dire si, et seulement
si, u − λIdE n’est pas inversible, ce qui est la définition de λ valeur propre. ä

2.9. Remarque. D’après le calcul du déterminant, les racines du polynôme ca-


ractéristique, c’est-à-dire les valeurs propres, d’une matrice triangulaire sont
les coefficients diagonaux.

2.10. Corollaire. Un endomorphisme d’un C-espace vectoriel admet au moins


une valeur propre.
Démonstration. Le polynôme caractéristique est non constant donc admet une
racine d’après le théorème de D’Alembert & Gauss et cette racine est une valeur
propre d’après la proposition précédente. ä

Ce résultat implique en particulier que le polynôme minimal et le polynôme


caractéristique ont les mêmes racines. Il est donc important de comprendre la
multiplicité de celles-ci pour mettre en évidence la différence entre ces deux
polynômes dans l’étude de la réduction.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:V

56 V. Éléments propres, caractéristiques

2.11. Définition. Soit u un endomorphisme de E et λ une valeur propre de u.


. La multiplicité algébrique de la valeur propre λ, généralement abrégé en
multiplicité de λ, est sa multiplicité en tant que racine du polynôme caracté-
ristique χu ; on la note m a (λ).
. Le sous-espace caractéristique de u associé à la valeur propre λ est le sous-
espace
ker(u − λIdE )m a (λ) .

2.12. Remarque. La notation E λ (u) est relativement consacrée pour le sous-


espace propre de u associé à la valeur propre λ ; il n’y a pas vraiment d’analogue
reconnu pour noter le sous-espace caractéristique.

2.13. Remarque. On verra plus loin que la multiplicité m a (λ) est exactement la
dimension du sous-espace caractéristique.

2.14. Proposition. Soit u un endomorphisme de E et λ une valeur propre de u.


Alors, le sous-espace caractéristique de u associé à la valeur propre λ est stable
par u.

Démonstration. Ces sous-espaces sont stables par u, car ce sont les noyaux de
polynômes en u, qui commutent donc avec u. ä

Les relations entre coefficients et racines donnent pour les coefficients du po-
lynôme caractéristique les résultats suivants.

2.15. Proposition. Soit u un endomorphisme de E de polynôme caractéristique


scindé. Alors, la somme des valeurs propres (comptées avec leurs multiplicités)
est la trace de u, leur produit est le déterminant de u.

On généralisera cette proposition au chapitre IX.

3. Commentaires et développements
3.1. La réunion de tous les sous-espaces propres est la réunion de toutes les
droites stables par l’endomorphisme. Cette réunion définit une configuration
remarquable de sous-espaces vectoriels en somme directe : les intersections
de chacun de ces sous-espaces avec le sous-espace engendré par la réunion
des autres sont réduites à {0E }.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:V

3. Commentaires et développements 57

3.2. L’existence de n scalaires associés à une matrice carrée complexe A et qui


sont invariants (à l’ordre près) par similitude est un fait particulièrement frap-
pant. Ces scalaires sont les coefficients diagonaux communs à toutes les ma-
trices triangulaires de la classe de similitude de A. On verra plus loin que de
telles matrices existent dans la classe de similitude de A si, et seulement si, le
polynôme minimal de A est scindé.
Une manière rapide de les mettre en évidence est de constater que si A et B sont
semblables, alors rg(A − λIn ) = rg(B − λIn ) pour tout scalaire λ. Et, les rangs en
question sont toujours égaux à n, sauf pour un nombre fini de scalaires λ en
nombre inférieur ou égal à n. Ces scalaires sont les valeurs propres de A.

3.3. L’existence de valeurs propres sur un corps K est liée à la « scindabilité » sur
le corps K du polynôme minimal ou du polynôme caractéristique, puisqu’ils
ont les mêmes racines (aux multiplicités près).

3.4. Dans ce chapitre et les suivants, on met en évidence trois multiplicités re-
latives aux valeurs propres. Il s’agit des multiplicités géométrique, algébrique
et minimale. Ces trois multiplicités jouent un rôle important dans l’étude de la
similitude, mais ne sont pas suffisantes pour caractériser une classe de simili-
tude. Elles vérifient différentes inégalités dont les cas extrêmes correspondent
au cas de la cyclicité et de la diagonalisabilité d’un endomorphisme.

3.5. Les endomorphismes nilpotents n’ont qu’une seule valeur propre, en l’oc-
currence la valeur propre 0 ; cela rend leur étude identique indépendamment
du corps de base. Ces endomorphismes réunissent le gros des difficultés dans
l’étude des cas de réduction délicats. En écrivant la suite des noyaux itérés

{0E } ⊊ ker u ⊂ ker u 2 ⊊ · · · ⊊ ker u r = ker u r +1 ,


les multiplicités de la valeur propre 0 sont m g (0) = dim ker u, m m (0) = r et
m a (0) = n.
On verra plus tard que deux matrices nilpotentes sont semblables si, et seule-
ment si, les dimensions des noyaux itérés sont les mêmes. On voit alors com-
bien les trois multiplicités sont loin de caractériser une classe de similitude.

3.6. Les sous-espaces propre et caractéristique associés à la valeur propre λ


sont donc des sous-espaces de la forme ker P (u) avec P une puissance du po-
lynôme X − λ, et apparaissent à ce titre parmi les objets étudiés au chapitre
précédent.

3.7. L’application A 7→ χ A de Mn (C) dans l’ensemble des polynômes unitaires


de degré n est remarquable dans la mesure où ses fibres sont génériquement
des classes de similitude et, dans les cas singuliers, sont des réunions finies de
classes de similitude.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:V

58 V. Éléments propres, caractéristiques

3.8. L’ensemble des polynômes complexes unitaires de degré n admet deux pa-
ramétrages. D’une part, il s’agit d’un sous-espace affine de dimension n, quand
on écrit un tel polynôme comme X n + a n−1 X n−1 + · · · + a 1 X + a 0 ; d’autre part,
c’est l’ensemble des orbites sous l’action du groupe symétrique S n opérant par
permutation sur Cn , quand on écrit un tel polynôme comme

(X − λ1 ) · · · (X − λn ).

Le passage entre les deux situations se faisant grâce aux relations entre fonc-
tions symétriques élémentaires et sommes de Newton (voir section IX -3).

3.9. Les valeurs propres de ad A sont un peu délicates à déterminer. On pourra


se reporter à l’exercice 20-101 page 205 de
Réduction des endomorphismes, Rached Mneimné, Calvage & Mounet, 2006.

3.10. L’ensemble des matrices ayant même polynôme caractéristique


Y
p
P= (X − λi )αi
i =1

est réunion finie de classes de similitude, dont l’une seulement contient des
matrices diagonales. On peut calculer le nombre de ces classes, en utilisant les
invariants de similitude, l’aide des partitions en nombres entiers des multipli-
cités αi .

4. Exercices
4.1. Exercice. Soit u un endomorphisme de E , des scalaires λ et µ ∈ K tels que

im(u − λIdE ) + im(u − µIdE ) 6= E .

Montrer que λ = µ.

▷ Éléments de correction. Par contraposition, supposons λ 6= µ. Alors, pour tout


x ∈ E,
1
¡ ¢ 1
¡ ¢
x= λ−µu(x) − µx − λ−µ u(x) − λx
¡ 1 ¢ ¡ 1 ¢
= (u − µIdE ) λ−µ x + (u − λIdE ) λ−µ x
∈ im(u − µIdE ) + im(u − λIdE ).

L’autre inclusion étant immédiate, on conclut que

im(u − λIdE ) + im(u − µIdE ) = E .


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:V

4. Exercices 59

4.2. Exercice. Soit u un endomorphisme de E de rang 2. Calculer χu en fonction


de tr(u) et tr(u 2 ).

▷ Éléments de correction. Dans une base de E obtenue en complétant une base


de ker u, la matrice de l’endomorphisme u est de la forme
 
0 ... 0 ? ?
 .. .. .. .. 
. . . .
 
 .. .. 
. . ? ? 
 
 .. .. 
. . a b
0 ... 0 c d
¡ ¢
Alors χu = X n−2 (X − a)(X − d ) − bc . En remarquant que

tr(u) = a + d , et tr(u 2 ) = a 2 + d 2 + 2bc,

on obtient
¡ ¢
χu = X n−2 X 2 − tr(u)X + 12 (tr(u))2 − 12 tr(u 2 ) .

4.3. Exercice. Soit A ∈ GLn (K). Calculer χ A −1 .

▷ Éléments de correction. Pour tout λ ∈ K∗ ,


χ A −1 (λ) = det(A −1 − λIn )
¡ ¢ ¡ ¢
= det A −1 (−λ)n det − λ1 In + A
¡ ¢
= (−1)n det1 A λn χ A λ1 .
¡ ¢
En conclusion, χ A −1 = (−1)n det1 A X n χ A X1 . ◁

4.4. Exercice. Soit A ∈ Mn (K). Calculer en fonction de χ A le polynôme caracté-


ristique de la matrice par blocs
µ ¶
0n A
B= ∈ M2n (K).
In 0n

▷ Éléments de correction. Pour effectuer ce calcul, on va raisonner avec des opé-


rations élémentaires par blocs.
. Traitons le cas n = 1 (où la matrice A est remplacée par un scalaire a) par opé-
rations élémentaires pour comprendre le cas général. Le calcul avec les opéra-
tions successives L 1 ← L 1 + X L 2 , C 2 ← C 2 + XC 1 , L 2 ↔ L 1 , L 1 ← −L 1 donne
l’égalité
µ ¶µ ¶µ ¶µ ¶ µ ¶
0 1 1 X X −a 1 X 1 0
= .
−1 0 0 1 −1 X 0 1 0 X2−a
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:V

60 V. Éléments propres, caractéristiques

. Revenons au cas général. Le produit matriciel par blocs donne alors l’ana-
logue µ ¶µ ¶µ ¶µ ¶ µ ¶
0n In In X In X In −A In X In In 0n
= .
−In 0n 0n In −In X In 0n In 0n X 2 In − A

En passant au déterminant, on obtient χB = (−1)2n · 1 · χ A (X 2 ) · 1 = χ A (X 2 ). ◁

4.5. Exercice. Soit A = (a i , j ) ∈ Mn (K) une matrice et λ ∈ K.


P
1. Montrer que si, pour tout i ∈ ‚1, nƒ, nj=1 a i , j = λ, alors λ ∈ Sp(A).
P
2. Montrer que si, pour tout j ∈ ‚1, nƒ, ni=1 a i , j = λ, alors λ ∈ Sp(A).

▷ Éléments de correction.
1. Il suffit de remarquer que le vecteur colonne dont tous les coefficients
valent 1 est vecteur propre de A associé à λ.
2. En appliquant la première question à A > , on obtient que λ ∈ Sp(A > ). Or,
A et A > ont les mêmes polynômes annulateurs donc le même polynôme
minimal et puis les mêmes valeurs propres. En conclusion, λ ∈ Sp(A). ◁

4.6. Exercice. Soit A ∈ Mn (K) et B ∈ Mn−1 (K) la matrice déduite de A en enle-


vant la dernière ligne et la dernière colonne. Montrer que si A admet une valeur
propre λ avec multiplicité au moins 2, alors λ est valeur propre de B .

▷ Éléments de correction. Soit X , Y deux vecteurs propres de A associés à λ et


linéairement indépendants. Il existe des scalaires a et b non tous les deux nuls
tels que aX + bY admet une dernière coordonnée nulle.
Notons Z ∈ Mn−1,1 (K) le vecteur colonne déduit de ce vecteur en enlevant la
dernière coordonnée. Alors,
µ ¶ µ ¶
Z Z
A = A(aX + bY ) = λ(aX + bY ) = λ .
0 0
D’après les règles du calcul par blocs, on obtient B Z = λZ . ◁

4.7. Exercice. Soit A ∈ Mn (C). Notons, pour tout I ⊂ ‚1, nƒ, A I = (a i , j )i , j ∈I la ma-
trice de M|I | (C) extraite de A en ne conservant que les colonnes et lignes d’indices
dans I puis, pour k ∈ ‚1, nƒ, X
∆k (A) = det(A I ).
I ∈P k (‚1,nƒ)
¡ ¢
1. Montrer que, pour tout k ∈ ‚1, nƒ, ∆k P AP −1 = ∆k (A)
(a) pour toute matrice de dilatation P ,
(b) pour toute matrice de transvection P ,
(c) pour toute matrice inversible P .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:V

4. Exercices 61

2. Déterminer les coefficients du polynôme caractéristique χ A en fonction


des complexes ∆k (A).

▷ Éléments de correction.
1. (a) Soit P = D i ,λ la matrice de dilatation de paramètres i ∈ ‚1, nƒ et λ 6= 0.
Alors, P AP −1 est la matrice déduite de A en multipliant la ligne i par
¡ ¢
λ et la colonne i par λ1 . On en déduit que P AP −1 I = A I si i ∉ I et,
sinon,
¡ ¢
det P AP −1 I = λ λ1 det A I = det A I .
¡ ¢
Par conséquent, pour tout k É n, ∆k P AP −1 = ∆k (A).
(b) Soit P = Ti , j ,λ la matrice de transvection de paramètres i 6= j et λ ∈ C.
¡ ¢
. Si i , j ∈ I , alors det P AP −1 I = det A I .
¡ ¢ ¡ ¢
. Si i , j ∉ I , alors P AP −1 I = A I donc det P AP −1 I = det A I .
. Si i ∈ I , j ∉ I , notons J = I ∪ { j } \ {i }. Soit B la matrice déduite de A I
en remplaçant la ligne i par la ligne j (ou de manière équivalente, la
matrice déduite de A J en remplaçant la colonne j par la colonne i ).
Un rapide calcul donne
¡ ¢ ¡ ¢
det P AP −1 I + det P AP −1 J = det A I + α det B + det A J − α det B
= det A I + det A J .

En sommant les trois cas, on obtient que, pour tout k ∈ ‚1, nƒ,
¡ ¢
∆k P AP −1 = ∆k (A).

(c) On remarque d’après l’algorithme du pivot de Gauss que le groupe


linéaire est engendré par les dilatations et les transvections : les deux
questions précédentes permettent donc de conclure.
2. En utilisant la formule explicite du déterminant, on obtient que le coef-
ficient devant X k dans χ A est
X X Y
ε(σ) (−a i ,σ(i ) ) = (−1)n−k ∆n−k (A).
I ∈P k (‚1,nƒ) σ∈S n i ∉I
σ|I =Id

4.8. Exercice. Soit A ∈ M3 (R) et λ ∈ R une valeur propre de A associé à un sous-


espace propre de dimension 1.
1. Justifier qu’il existe L et L 0 deux lignes de la matrice A − λI3 non propor-
tionnelles.
2. Montrer que la transposée du produit vectoriel L ∧L 0 est un vecteur propre
de A associé à λ.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:V

62 V. Éléments propres, caractéristiques

▷ Éléments de correction.

1. D’après la formule du rang, rg(A −λI3 ) = 3−dim E λ (A) = 2. Il existe donc


deux lignes indépendantes dans la matrice A − λI3 .

2. Montrons que, pour chaque ligne L 00 de la matrice A − λI3 ,


¡ ¢>
L 00 L ∧ L 0 = 0.

Le résultat est évident si L 00 = L ou L 00 = L 0 (propriété d’orthogonalité


déduite du produit vectoriel).
Par ailleurs, la troisième ligne de A − λI3 est combinaison linéaire de L
et L 0 (car le rang de cette matrice est 2 et que la famille (L, L 0 ) est libre)
donc orthogonale à L ∧ L 0 .
¡ ¢> ¡ ¢>
En conclusion, (A − λI3 ) L ∧ L 0 = 03,1 et L ∧ L 0 6= 03,1 , c’est-à-dire
¡ ¢>
L ∧ L 0 ∈ E λ (A).

4.9. Exercice. Soit A ∈ Mn (C). Préciser les valeurs propres de Com A, la coma-
trice de A.
Indication : on pourra discuter selon le rang de A.

▷ Éléments de correction. . Si rg A É n −2, alors tous les mineurs de A sont nuls


(grâce à la caractérisation du rang comme la taille du plus grand déterminant
extrait non nul) donc Com A = 0n : la seule valeur propre est 0.
>
. Si rg A = n, alors A est inversible et Com A = (det A)A −1 . Les valeurs propres
de Com A sont donc les detλ A où λ est une valeur propre (non nulle car A est
inversible) de A donc de A > .
. Si rg A = n − 1, alors (Com A)A > = 0n . En particulier, im A > ⊂ ker Com A et
donc
dim ker Com A Ê rg A > = rg A = n − 1.

À ce stade, nous avons établi que 0 est valeur propre de multiplicité au moins
n −1. La dernière valeur propre est alors tr Com A d’après la proposition V -2.15.
Notons λ1 , . . . , λn−1 , λn = 0 les valeurs propres de A.
Pour t > 0 suffisamment petit, la matrice A+t In est inversible et l’on est ramené
à l’étape précédente avec la formule de la comatrice
¡ ¢ X n det(A + t I )
tr Com(A + t In ) = det(A + t In ) tr (A + t In )−1 =
n
.
k=1 λk + t
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:V

4. Exercices 63

Ensuite, on en déduit successivement :


X
n Y
n
tr Com(A + t In ) = (λ j + t )
k=1 j =1
j 6=k

X Y
n−1 n Y
n−1
= (λ j + t ) + (λ j + t ), en isolant le dernier terme
k=1 j =1 j =1
j 6=k

X n−1
n−1 Y Y
n−1
=t (λ j + t ) + (λ j + t ), car λn = 0
k=1 j =1 j =1
j 6=k

Y
n−1
−→ λj .
t →0 j =1

Or, l’application t 7→ tr Com(A + t In ) est continue donc


Y
n−1
tr Com A = λj .
j =1
Qn−1
En conclusion, les valeurs propres de Com A sont 0, 0, . . . , 0, j =1 λj . ◁

4.10. Exercice. Soit A ∈ Mn (C) une matrice telle que l’ensemble


© ª
E A = X ∈ Mn,1 (C), ∃λ ∈ C, AX = λX

est un sous-espace vectoriel de Mn,1 (C). Montrer que A admet une seule valeur
propre.

▷ Éléments de correction. Remarquons tout d’abord que A admet une valeur


propre car le corps de base est C qui est algébriquement clos.
Donnons deux solutions alternatives.
. Supposons par l’absurde que A admet au moins deux valeurs propres dis-
tinctes λ 6= µ et considérons deux vecteurs propres associés X et Y . Comme
X ∈ E A et Y ∈ E A , on obtient X + Y ∈ E A (car E A est un sous-espace vectoriel) :
il existe η tel que A(X + Y ) = η(X + Y ). Ainsi,

η(X + Y ) = A(X + Y ) = AX + AY = λX + µY .

Comme la famille (X , Y ) est libre, on obtient λ = η = µ : contradiction.


. L’espace E A est la réunion des sous-espaces propres de A. Or, si une réunion
finie de sous-espaces vectoriels est un espace vectoriel, alors l’un d’entre eux
contient tous les autres. Or, les sous-espaces propres associés à des valeurs
propres distinctes donc cette condition entraîne qu’il n’y a que A admet un
seul sous-espace et donc une seule valeur propre. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:V

64 V. Éléments propres, caractéristiques

4.11. Exercice. La matrice de permutation associée à σ ∈ S n est la matrice de


¡ ¢
Mn (C), notée P σ , définie par δi ,σ( j ) i , j . Montrer que deux permutations sont
conjuguées dans S n si, et seulement si, les matrices de permutations associées
sont semblables (ce résultat est issu d’une remarque de Brauer).

▷ Éléments de correction. (⇒) Soit σ, ρ ∈ S n des permutations conjuguées et


τ ∈ S n telle que σ = τ ◦ ρ ◦ τ−1 . Comme l’application
½
S n → GLn (C)
σ 7→ Pσ

est un morphisme de groupes, on en déduit que P σ = P τ P ρ P τ−1 donc que les


matrices P σ et P τ sont semblables.
(⇐) Soit des permutations σ, ρ ∈ S n telles que les matrices P σ et P τ sont sem-
blables. Alors, le polynôme caractéristique commun à ces deux matrices est
(en échangeant l’ordre des vecteurs de la base canonique de sorte à écrire P σ
diagonale par blocs)
Y¡ ℓ ¢c (σ) Y ¡ ℓ ¢c (ρ)
X −1 ℓ = X −1 ℓ ,
ℓ ℓ

où c ℓ (σ) (respectivement c ℓ (ρ)) désigne le nombre de cycles de longueur ℓ


dans la décomposition en cycles à supports disjoints de σ (respectivement celle
2i π
de ρ). Alors, en étudiant la multiplicité de e ℓ comme racine de ce polynôme,
on obtient que, pour tout ℓ,
X X
c d (σ) = c d (ρ).
ℓ|d ℓ|d

Par récurrence, on déduit que, pour tout ℓ, c ℓ (σ) = c ℓ (ρ) ce qui équivaut classi-
quement à la conjugaison de σ et ρ. ◁

4.12. Exercice. Soit A, B ∈ Mn (C). Montrer l’équivalence entre les propriétés sui-
vantes :
1. les matrices A et B ont une valeur propre commune ;
2. il existe une matrice M ∈ Mn (C) non nulle telle que AM = M B ;
3. la matrice µ A (B ) n’est pas inversible.

▷ Éléments de correction. (1 ⇒ 2) Soit λ ∈ C une valeur propre commune à A


et B . C’est aussi une valeur propre de B > puisque χB = χB > . Considérons X
et Y des vecteurs propres associés à λ pour A et B > respectivement et posons
M = X Y > . Alors,

AM = AX Y > = λX Y > et M B = X Y > B = λX Y > .

Par conséquent, la matrice M de rang 1 vérifie AM = M B .


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:V

4. Exercices 65

(2 ⇒ 3) Soit M une matrice non nulle telle que AM = M B . Remarquons que


cette relation entraîne avec une récurrence facile que P (A)M = M P (B ) pour
tout P ∈ C[X ]. Alors, pour P = µB , on obtient M µ A (B ) = 0n et donc µ A (B ) est
non inversible, car la matrice M est non nulle.
(3 ⇒ 1) Le polynôme µ A ∈ C[X ] est scindé. Écrivons donc
Y
p ¡ ¢αi
µA = X − λi .
i =1

L’hypothèse 3 indique que la matrice


Y
p ¡ ¢α
B − λi In i
i =1

n’est pas inversible. Ainsi, il existe un indice i tel que la matrice B −λi In est non
inversible : λi est donc une valeur propre commune à A et B . ◁

4.13. Exercice. Soit A, B ∈ Mn (C) et r ∈ ‚1, nƒ. Montrer l’équivalence entre les
propriétés suivantes :
1. les matrices A et B ont au moins r valeurs propres communes comptées
avec leurs multiplicités ;
2. il existe une matrice M ∈ Mn (C) de rang au moins r telle que AM = M B .

Cet exercice est bien entendu une généralisation du précédent et l’on peut se
poser la question de l’analogue de la troisième propriété.
▷ Éléments de correction. (1 ⇒ 2) Soit λ1 , . . . , λr des valeurs propres communes,
(X 1 , . . . , X r ) (respectivement (Y1 , . . . , Yr )) une famille libre de vecteurs propres
de A (respectivement de B > ). Alors, la matrice
X
r
M= X i Yi>
i =1

est de rang r et vérifie AM = M B .


(2 ⇒ 1) Réciproquement supposons qu’il existe une matrice M de rang r 0 Ê r
telle que AM = M B et écrivons
µ ¶
Ir 0 0r 0 ,n−r 0 −1
M =P Q .
0n−r 0 ,r 0 0n−r 0
Décrivons de la même manière les matrices A et B
µ ¶ µ ¶
A1 A2 B1 B2
P −1 AP = , Q −1 BQ = .
A3 A4 B3 B4
La relation AM = M B équivaut alors à A 3 = 0n−r 0 ,r 0 , B 2 = 0r 0 ,n−r 0 et A 1 = B 1 .
Ainsi, les matrices P −1 AP et Q −1 BQ sont triangulaires par blocs avec un bloc
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap06 chapitre:V

66 V. Éléments propres, caractéristiques

de taille r 0 en commun : leurs polynômes caractéristiques ont donc un facteur


commun de degré r 0 , ce qui traduit l’existence d’au moins r 0 valeurs propres
communes. ◁

4.14. Exercice. Montrer que le sous-espace F du R-espace vectoriel Mn (C) engen-


dré par les matrices M ∈ Mn (C) à polynôme caractéristique réel est l’hyperplan
des matrices de trace réelle.
▷ Éléments de correction. . Remarquons tout d’abord qu’une matrice à poly-
nôme caractéristique réel est de trace réelle (d’après l’expression du calcul de-
vant X n−1 ). Par conséquent, F est inclus dans l’hyperplan considéré.
. On obtient une famille libre de 2n 2 − 1 éléments de F en considérant
— les n matrices E k,k , dont le polynôme caractéristique est X n−1 (X − 1),
pour tout entier k ∈ ‚1, nƒ,
— les n(n − 1) matrices E k,l , dont le polynôme caractéristique est X n , pour
tous entiers distincts k, l ∈ ‚1, nƒ,
— les n(n −1) matrices i E k,l , dont le polynôme caractéristique est X n , pour
tous entiers distincts k, l ∈ ‚1, nƒ,
— les n − 1 matrices i (E k,k − E 1,1 ), dont le polynôme caractéristique est

X n−2 (X − i )(X + i ) = X n−2 (X 2 + 1),


pour tout entier k ∈ ‚2, nƒ.
Par conséquent,

dim F Ê n + n(n − 1) + n(n − 1) + n − 1 = 2n 2 − 1,


et F est égal à l’hyperplan annoncé. ◁

4.15. Exercice. Soit A ∈ Mn (C) telle que, pour tout X ∈ Mn,1 (C), µ A,X est de degré
au plus 2. Montrer que A admet au plus deux valeurs propres distinctes.
▷ Éléments de correction. Raisonnons par l’absurde et considérons X 1 , X 2 et X 3
des vecteurs propres associés à des valeurs propres distinctes λ1 , λ2 et λ3 .
Comme µ A,X 1 +X 2 +X 3 est de degré au plus 2, il existe a, b ∈ C tels que

A 2 (X 1 + X 2 + X 3 ) + a A(X 1 + X 2 + X 3 ) + bX 1 + X 2 + X 3 = 0n,1 ,
soit
(λ21 + aλ1 + b)X 1 + (λ22 + aλ2 + b)X 2 + (λ23 + aλ3 + b)X 3 = 0n,1 .

Par liberté de la famille (X 1 , X 2 , X 3 ), on obtient que le polynôme aX 2 + bX + c


de degré 2 admet trois racines distinctes λ1 , λ2 et λ3 : contradiction.
On aurait pu utiliser plus directement que le polynôme minimal de A est un
polynôme minimal de A en un vecteur d’après la proposition IV -3.4 : ainsi, µ A
est de degré au plus 2 donc admet au plus deux racines distinctes. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap07 chapitre:VI

Chapitre VI

Endomorphismes cycliques

Objectifs du chapitre
— Définir les endomorphismes cycliques.
— Caractériser les endomorphismes cycliques en termes de polynôme mi-
nimal ou de commutant.
— Manipuler les matrices compagnons.
— Montrer qu’un espace cyclique maximal admet un supplémentaire stable.

1. Définitions
1.1. Rappel. Soit u un endomorphisme de E et x ∈ E . Rappelons que le sous-
espace cyclique E u,x est le plus petit sous-espace stable par u contenant x. Cet
¡ ¢
espace est engendré par la famille u j (x) j ∈N et, si dim E u,x = p, alors une base
¡ ¢
de E u,x est donnée par x, u(x), . . . , u p−1 (x) .

1.2. Définition. Un endomorphisme u de E est cyclique s’il existe x ∈ E tel que


¡ ¢
E = E u,x = Vect u j (x) j ∈N .

1.3. Exemple. Un endomorphisme u d’un espace de dimension 2 est soit une


homothétie, soit un endomorphisme cyclique.
En effet, si u n’est pas une homothétie, alors il existe un vecteur x tel que la
famille (x, u(x)) de E u,x est libre donc dim E u,x Ê 2 ; en conclusion, E u,x = E .

1.4. Exemple. Un endomorphisme u d’un espace E de dimension n qui ad-


met n valeurs propres distinctes est cyclique.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap07 chapitre:VI

68 VI. Endomorphismes cycliques

Notons λ1 , λ2 , . . . , λn les valeurs propres de u et x 1 , x 2 , . . . , x n des vecteurs


propres associés puis x = x 1 + x 2 + · · · + x n .
¡ ¢
La famille x, u(x), . . . , u n−1 (x) est une base de E puisque le déterminant de
¡ ¢
la matrice de passage entre les familles x, u(x), . . . , u n−1 (x) et (x 1 , x 2 , . . . , x n )
est le déterminant de Vandermonde associé aux valeurs propres deux à deux
distinctes, donc non nul.

2. Caractérisation avec le polynôme minimal


2.1. Proposition. Soit u un endomorphisme cyclique d’un espace E . Alors, le de-
gré du polynôme minimal µu est dim E .

Démonstration. Considérons x ∈ E tel que E = E u,x .


. Supposons que le degré ¡de µu est strictement ¢ inférieur à n = dim E . Alors,
µu (u)(x) = 0E , et la famille x, u(x), . . . , u n−1 (x) est donc liée : contradiction.
Ainsi, deg µu Ê n.
¡ ¢
. Comme la famille x, u(x), . . . , u n−1 (x) est une base de E , il existe P ∈ Kn−1 [X ]
tel que u n (x) = P (u)(x). Montrons que Q = X n − P est annulateur de u. Pour
tout j ∈ ‚0, n − 1ƒ,
¡ ¢
Q(u) u j (x) = u j ◦ Q(u)(x)
¡ ¢
= u j u n (x) − P (u)(x)
= u(0E ) = 0E .

Par conséquent, Q(u) s’annule sur une base, donc est l’endomorphisme nul.
Ainsi, Q est annulateur de u et deg µu É degQ = n.
. En combinant les deux résultats, deg µu = n. ä

2.2. Remarque. Si l’on sait que le degré du polynôme minimal est au plus n,
alors on peut donner une preuve plus rapide : le polynôme µu,x est de degré
dim E u,x = n et divise le polynôme minimal µu , donc deg µu = n.

2.3. Proposition. Soit u un endomorphisme d’un espace E de dimension n. Si le


degré du polynôme minimal µu est n, alors u est cyclique.

Démonstration. Considérons x ∈ E tel que µu = µu,x (qui existe d’après la pro-


position IV -3.4). Alors,

dim E u,x = deg µu,x = deg µu = n,

c’est-à-dire E u,x = E et u est cyclique. ä


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap07 chapitre:VI

3. Caractérisation avec le commutant 69

3. Caractérisation avec le commutant


3.1. Proposition. Soit u un endomorphisme cyclique de E . Alors, C (u), le com-
mutant de u, est l’algèbre K[u].

Démonstration. . L’inclusion K[u] ⊂ C (u) est évidente.


¡ ¢
. Soit v ∈ C (u) et x ∈ E tel que E = E u,x . Comme x, u(x), . . . , u n−1 (x) est une
base de E , il existe des scalaires a 0 , a 1 , . . . , a n−1 ∈ K tels que
X
n−1
v(x) = a k u k (x).
k=0

Mais alors, pour tout j ∈ ‚0, n − 1ƒ,


X
n−1 X
n−1 ¡ ¢
v(u j (x)) = u j (v(x)) = a k u j +k (x) = a k u k u j (x) .
k=0 k=0
Pn−1 k
Ainsi, les endomorphismes v et k=0
a k u coïncident sur une base donc sont
égaux : v ∈ K[u].
. En combinant les deux résultats, C (u) = K[u]. ä

3.2. Proposition. Soit u un endomorphisme dont le commutant C (u) est K[u].


Alors, u est cyclique.

Commençons par un lemme technique fondamental indépendant de la notion


d’endomorphisme cyclique et qui repose sur un argument de dualité.

3.3. Lemme. Soit u un endomorphisme de E et x ∈ E tel que µu = µu,x . Alors, le


sous-espace E u,x admet un supplémentaire stable par u.

Démonstration. Notons p = dim E u,x et considérons la base


¡ ¢
e 1 = x, e 2 = u(x), . . . , e p = u p−1 (x)

de E u,x , que l’on complète en une base (e 1 , e 2 , . . . , e n ) de E . Soit e p∗ la p-ième


forme linéaire coordonnée dans cette base. Étudions le sous-espace
© \
ª +∞ ¡ ¢
F = y ∈ E , ∀ j ∈ N, e p∗ (u j (y)) = 0 = ker e p∗ ◦ u j .
j =0

. Remarquons tout d’abord que le sous-espace F est stable par u.


. Soit y ∈ E u,x ∩ F . Comme y ∈ E u,x , il existe des scalaires a 0 , . . . , a p−1 tels que

X
p−1
y= a k u k (x).
k=0
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap07 chapitre:VI

70 VI. Endomorphismes cycliques

Comme y ∈ F , pour tout j ∈ ‚0, p − 1ƒ, e p∗ (u j (y)) = 0. Pour j = 0, on obtient


³ p−1
X ´
0 = e p∗ (y) = e p∗ a k u k (x) = a p−1 .
k=0

Ensuite, pour j = 1,
³ p−2
X ´
0 = e p∗ (u(y)) = e p∗ a k u k+1 (x) = a p−2 .
k=0

Par récurrence, pour tout j ∈ ‚0, p − 1ƒ, a j = 0 et donc y = 0E .


Ainsi, les sous-espaces E u,x et F sont d’intersection nulle donc en somme di-
recte.
. Comme deg µu = p, K[u] = Vect(IdE , u, . . . , u p−1 ) et donc

© \
ª p−1 ¡ ¢
F = y ∈ E , ∀ j ∈ ‚0, p − 1ƒ, e p∗ (u j (y)) = 0 = ker e p∗ ◦ u j .
j =0
¡ ¢
Montrons que la famille de formes linéaires e p∗ ◦ u 0 , e p∗ ◦ u 1 , . . . , e p∗ ◦ u p−1 est
libre. Soit a 0 , a 1 , . . . , a p−1 des scalaires tels que

X
p−1
a j e p∗ ◦ u j = 0E ∗ .
j =0

Alors,
X
p−1
a j u j (x) ∈ E u,x ∩ F = {0E }.
j =0
¡ ¢
Par conséquent, a 0 = a 1 = · · · = a p−1 = 0 car la famille x, u(x), . . . , u p−1 (x) est
libre.
Le sous-espace F est ainsi l’intersection de p hyperplans associées à des formes
linéaires indépendantes donc (de codimension p et) de dimension n − p.
. En conclusion, F est un supplémentaire stable de E u,x . ä

Revenons à la preuve de la proposition VI -3.2.

Démonstration. On dispose de x ∈ E tel que µu = µu,x et, d’après le lemme, d’un


sous-espace F supplémentaire stable de E u,x .
Le projecteur π sur F parallèlement à E u,x commute avec u (car les deux sous-
espaces sont stables) donc est un polynôme en u (hypothèse C (u) = K[u]) :
considéront P ∈ K[X ] tel que π = P (u). Alors, P (u)(x) = π(x) = 0E , donc P est
annulateur de u en x et µu,x divise P . Comme µu,x = µu , P est multiple de µu
donc annulateur de u. Par conséquent, le projecteur π = P (u) est l’endomor-
phisme nul puis F = {0E } et E = E u,x : u est cyclique. ä
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap07 chapitre:VI

4. Matrices compagnons 71

4. Matrices compagnons
4.1. Définition. La matrice compagnon ou matrice de Frobenius d’un poly-
P
nôme unitaire P = X n − n−1 a X k ∈ K[X ] est la matrice
k=0 k
 
0 ··· ··· 0 a0
 .. 
1 . . . . a1 
 
 . .. 
C P = 0 . . . . . . .. . .
 
 .. . . .. 
. . . 0 a n−2 
0 ··· 0 1 a n−1

4.2. Remarque. Un endomorphisme u est cyclique si, et seulement si, il existe


une base dans laquelle sa matrice est une matrice de compagnon.
En effet, s’il existe x ∈ E tel que E u,x = E , on considère la base
¡ ¢
x, u(x), . . . , u n−1 (x) .

Réciproquement, si dans la base (e 1 , e 2 , . . . , e n ), la matrice de u est compagnon,


alors E u,e 1 = E .

4.3. Proposition. Soit A ∈ Mn (K) une matrice compagnon. Alors, le commutant


de A est C (A) = K[A].

On peut bien entendu déduire ce résultat de la proposition VI -3.1 mais nous


en proposons une démonstration alternative.

Démonstration. . Remarquons dans un premier temps que l’application linéaire


½
C (A) → Mn,1 (K)
(m i , j ) 7→ (m i ,1 )
qui, à une matrice associe sa première colonne, est injective. Pour cela, consi-
dérons M dans le noyau de cette application linéaire, ce qui se traduit par les
conditions sur les colonnes
X
n
C n (M A) = αk C k (M ),
k=1

et, pour tout k ∈ ‚1, n − 1ƒ, C k (M A) = C k+1 (M ).


. Montrons par récurrence sur k ∈ ‚1, nƒ que C j (M ) = 0n,1 pour j ∈ ‚1, kƒ.
— L’initialisation pour k = 1 provient de l’hypothèse sur M .
— Soit k ∈ ‚1, n − 1ƒ tel que C j (M ) = 0n,1 pour j ∈ ‚1, kƒ. Alors, d’après l’ex-
pression des premières colonnes de A,

C k+1 (M ) = C k (M A) = C k (AM ) = AC k (M ) = 0n,1 .


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap07 chapitre:VI

72 VI. Endomorphismes cycliques

La propriété au rang n indique que M = 0n . En conclusion, l’application li-


néaire considérée est injective et donc
dim C (A) É dim Mn,1 (R) = n.
Comme K[A] est inclus dans C (A) et de dimension n, on en déduit que ces
deux sous-espaces sont égaux. ä

4.4. Remarque. L’idée de cette preuve est que si l’on connaît l’action d’une ma-
trice M de C (A) sur le premier vecteur de la base E 1 , alors on la connaît sur les
autres vecteurs de la base puisque, pour tout k ∈ ‚0, n − 1ƒ,

M Ak E1 = Ak M E1.

Montrons par un calcul simple un résultat de similitude pour les matrices com-
pagnons.

4.5. Proposition. Une matrice compagnon est semblable à sa transposée.

Ce résultat sera généralisé à toutes les matrices dans un prochain chapitre.


Démonstration. Considérons la matrice compagnon suivante
 
0 ··· ··· 0 a0
 .. 
1 . . . . a1 
 
 . .. 
C P = 0 . . . . . . .. . .
 
 .. . . . 
. . .. 0 a
n−2

0 ··· 0 1 a n−1
Définissons des scalaires b 0 , . . . , b n−1 par b 0 = 1, puis, pour tout i ∈ ‚1, n − 1ƒ,
avec la relation de récurrence linéaire
iX
−1
bi = b l a n−i +l .
l =0

Considérons enfin la matrice Q ∈ Mn (C) dont les coefficients sont


½
0 si i + j É n,
[Q]i , j =
b k si i + j = n + 1 + k,
c’est-à-dire la matrice
 
0 ··· ··· 0 b0
 .. . . 
. .. .. b1 
 
. . . . .. 
Q =  .. .. .. .. .  .
 
 . . .. 
0 .. .. . 
b0 b1 ··· ··· b n−1
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap07 chapitre:VI

5. Polynôme caractéristique 73

. Calculons les coefficients de la matrice QC P .


— Pour tout i ∈ ‚1, nƒ,
X
n
[QC P ]i ,n = [Q]i ,k [C P ]k,n
k=n+1−i
Xn
= b i +k−n−1 a k−1 = b i .
k=n+1−i

— Pour tout i ∈ ‚1, nƒ et tout j ∈ ‚1, n − 1ƒ,

[QC P ]i , j = [Q]i , j +1 = b i + j −n .

Ainsi, la matrice QC P est symétrique.


. Comme la matrice Q est symétrique et inversible (de déterminant ±1), on
obtient
QC P = (QC P )> = C P >Q,

donc C P > = QC P Q −1 et les matrices C P et C P > sont semblables. ä

5. Polynôme caractéristique
5.1. Proposition. Soit P ∈ K[X ] unitaire. Alors, le polynôme caractéristique de la
matrice compagnon de P est le polynôme P .

Donnons trois preuves de ce résultat pour illustrer les différentes méthodes de


calculs de déterminant.

Démonstration. Pour tout λ ∈ K, l’opération élémentaire


X
n
L1 ← λi −1 L i
i =1

donne l’expression
 
0 0 ··· ··· 0 P (λ)
 .. .. 
−1 λ . . −a 1 
 
 .. .. .. .. .. 
0 . . . . . 
χC P (λ) = 
 .. ..
.

 . .. .. .. 
 . . . 0 . 
 . .. .. 
 .. . . λ −a n−2 
0 ··· ··· 0 −1 λ − a n−1
Il suffit alors de développer par rapport à la première ligne pour obtenir

χC P (λ) = (−1)n+1 P (λ)(−1)n−1 = P (λ).


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap07 chapitre:VI

74 VI. Endomorphismes cycliques

En conclusion, le polynôme caractéristique de C P est P . ä


Démonstration. Notons ∆(a 0 , . . . , a n−1 ) le polynôme caractéristique d’une telle
matrice et calculons-le en développant par rapport à la première ligne ou la
première colonne
¡ ¢
∆(a 0 , . . . , a n−1 ) = (−1)n − X ∆(a 1 , . . . , a n−1 ) + (−1)n+1 a 0
= −a 0 + X ∆(a 1 , . . . , a n−1 ).

D’où, par récurrence, ∆(a 0 , . . . , a n−1 ) = P . On a donc montré que le polynôme


caractéristique de la matrice compagnon de P est P . ä

Afin d’éviter la récurrence, on peut choisir de développer le polynôme caracté-


ristique autrement.
Démonstration. En développant par rapport à la dernière colonne, on obtient
que le polynôme caractéristique est
³ n−1
X ´
(−1)n (−1)k+n a k−1 ∆k,n + (a n−1 − X )∆n,n .
k=1

Le mineur ∆k,n est le déterminant d’une matrice diagonale par blocs triangu-
laires : l’un de taille k − 1 avec −X sur la diagonale, l’autre de taille n − k avec
des 1 sur la diagonale. Ainsi, ∆k,n = (−X )k−1 , d’où l’on déduit le résultat pour le
polynôme caractéristique. ä

En terme d’endomorphisme cyclique, cette proposition se récrit comme suit.

5.2. Proposition. Soit u un endomorphisme cyclique, x ∈ E tel que E u,x = E et


a 0 , a 1 , . . . , a n−1 des scalaires tels que
X
n−1
u n (x) = a k u k (x).
k=0

Alors, le polynôme caractéristique de u est


X
n−1
χu = X n − ak X k .
k=0

Démonstration. Il suffit de
¡ considérer la matrice ¢ (qui est une matrice compa-
gnon) de u dans la base x, u(x), . . . , u n−1 (x) pour se ramener au calcul précé-
dent. ä

Un corollaire direct de ce calcul est que tout polynôme unitaire de degré n est
le polynôme caractéristique d’une matrice de taille n × n.
On obtient également le résultat plus profond suivant qui est un cas particulier
du théorème de Cayley & Hamilton traité au chapitre suivant.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap07 chapitre:VI

6. Commentaires et développements 75

5.3. Théorème de Cayley & Hamilton (cas cyclique). Soit u un endomorphisme


cyclique. Alors, le polynôme caractéristique χu est annulateur de u.

Démonstration. Soit x ∈ E tel que E = E u,x . Il suffit de vérifier que l’endomor-


¡ ¢
phisme χu (u) est nul sur la base x, u(x), . . . , u n−1 (x) et même, comme χu (u)
commute avec u, d’avoir χu (u)(x) = 0E . Or, on a établi ci-dessus que si
X
n−1
u n (x) = a k u k (x),
k=0

alors le polynôme caractéristique de u est


X
n−1
χu = X n − ak X k .
k=0

Donc,
X
n−1
χu (u)(x) = u n (x) − a k u k (x) = 0E .
k=0

6. Commentaires et développements
6.1. La décomposition de E en somme de sous-espaces caractéristiques met
en évidence les endomorphismes induits par u sur ces sous-espaces, qui sont
quand u est cyclique à leur tour cycliques ! De plus, un sous-espace stable F
par un endomorphisme se découpe bien sur la décomposition de E en sous-
espaces caractéristiques, car les projecteurs sont des polynômes en u, et laissent
donc stable F .
Pour déterminer les sous-espaces stables d’un endomorphisme cyclique, on
est ramené à chercher les sous-espaces stables d’un endomorphisme cyclique u
ayant comme polynôme minimal la puissance d -ième d’un polynôme irréduc-
tible P . L’affirmation est alors que les sous-espaces stables par u sont les sous-
espaces
ker P 0 (u), ker P (u), . . . , ker P d (u).

Dans ce cas, les éléments de la preuve sont alors les suivants :


— un endomorphisme induit par un endomorphisme cyclique est cyclique
— si F est un sous-espace stable, et si le polynôme minimal de l’endomor-
phisme induit u F est P s alors F ⊆ ker P s (u) et la dimension de F est celle
du polynôme minimal, donc dim ker P s (u).
On détaille le premier point dans les commentaires suivants.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap07 chapitre:VI

76 VI. Endomorphismes cycliques

6.2. Un endomorphisme u cyclique de E fait de E un R = K[X ]-module engen-


dré par un seul élément (on dira aussi cyclique) ; autrement dit, le R-module E u
s’identifie à un quotient R/I , avec I l’idéal annulateur d’une vecteur x ∈ E tel
que E = E u,x . Le R-module R/I est engendré par la classe de 1, est donc bien
cyclique. L’action de X dessus correspond à l’action de l’endomorphisme u.
Il est alors immédiat qu’il existe une base (à savoir celle formée par les classes
des monômes 1, X , . . . , X d −1 ) de E où la matrice de u est une matrice compa-
gnon.
Par ailleurs, les sous-espaces stables par u correspondent aux sous-modules de
l’anneau R/I .

6.3. L’exercice VI -7.7 fournit une preuve élémentaire que l’endomorphisme


induit par un endomorphisme cyclique sur un sous-espace stable est cyclique.
Soit u un endomorphisme cyclique de E , x ∈ E tel que E u,x = E et F un sous-
espace stable par u. On considère l’idéal formé des polynômes P ∈ K[X ] tels
que P (u)(x) appartient à F . Si D est un générateur de cet idéal, alors D(u)(x)
est un vecteur cyclique pour l’endomorphisme induit u F .
C’est exactement la même démonstration qui permet d’obtenir que les idéaux
de Z /n Z sont principaux (cycliques). Pour un tel idéal I , on considère l’en-
semble π−1 (I ), où π : Z → Z /n Z est la surjection canonique, des entiers m tels
que m soit dans I . On conclut en disant que I = π(π−1 (I )), par surjectivité.
De manière plus générale, si A est un anneau principal et I un idéal de A, les
sous-modules du module cyclique A/I sont de la forme J /I où J est un idéal de
A contenant I . Comme J est principal, le sous-module J /I est cyclique (engen-
dré par la classe modulo I d’un générateur de J ).

6.4. La manière savante d’étudier la finitude de l’ensemble des sous-espaces


stables pour l’endomorphisme cyclique u de E , dans le cas où le polynôme
minimal est une puissance P m d’un polynôme irréductible P , est de dire que E
est un K[X ]/(P m )-module cyclique. L’anneau R = K[X ]/(P m ) est local, notre R-
module cyclique est donc isomorphe à un R-module de la forme R/I , où I est
un idéal. Les sous-modules de E sont les idéaux de l’anneau R/I , c’est-à-dire les
J /I où J est un idéal de R contenant I . Or, les idéaux de R sont respectivement
engendrés par P m , P m−1 , . . . , P , 1. Il y a donc m + 1 sous-modules donc autant
de sous-espaces stables par u et nous connaissons ces sous-espaces

{0E } ⊂ ker P (u) ⊂ · · · ⊂ ker P m−1 (u) ⊂ ker P m (u) = E .


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap07 chapitre:VI

7. Exercices 77

7. Exercices
7.1. Exercice. Soit u ∈ L (E ), x, y ∈ E tels que les polynômes µu,x et µu,y soient
premiers entre eux. Montrer que E u,x+y = E u,x ⊕ E u,y .

▷ Éléments de correction. . Remarquons tout d’abord que si z ∈ E u,x ∩ E u,y ,


alors µu,x (u)(z) = µu,y (u)(z) = 0E . En écrivant la relation de Bézout entre µu,x
et µu,y , on obtient que z = 0E . Les deux sous-espaces cycliques considérés sont
donc en somme directe.
. Soit z ∈ E u,x+y ; il existe un polynôme P ∈ K[X ] tel que

z = P (u)(x + y) = P (u)(x) + P (u)(y) ∈ E u,x ⊕ E u,y .

Ainsi, E u,x+y ⊂ E u,x ⊕ E u,y .


. Soit z ∈ E u,x ⊕ E u,y ; il existe P , Q ∈ K[X ] tels que z = P (u)(x) +Q(u)(y).
Comme µu,x et µu,y sont premiers entre eux, il existe un polynôme R ∈ K[X ]
(construit à partir de l’identité de Bézout par exemple) tel que
— R est congru à P modulo µu,x ,
— R est congru à Q modulo µu,y .
Avec un tel polynôme R et en utilisant le morphisme d’algèbres associé à u,
P (u)(x) = R(u)(x) et Q(u)(y) = R(u)(y) et donc,

z = P (u)(x) +Q(u)(y) = R(u)(x) + R(u)(y) = R(u)(x + y) ∈ E u,x+y .

En conclusion, E u,x+y = E u,x ⊕ E u,y . ◁

7.2. Exercice. Déterminer une condition nécessaire et suffisante pour qu’une ma-
trice diagonale soit cyclique.

▷ Éléments de correction. Pour une matrice A = diag(λ1 , . . . , λn ), le polynôme


minimal µ A est le produit des X − λ où λ décrit les coefficients distincts de la
diagonale de A. Ainsi, A est cyclique si, et seulement si, µ A est de degré n, c’est-
à-dire si les coefficients diagonaux de A sont tous distincts. ◁

7.3. Exercice. Déterminer une condition nécessaire et suffisante pour qu’un en-
domorphisme nilpotent soit cyclique.

▷ Éléments de correction. Si u est un endomorphisme nilpotent d’un espace E


de dimension n, alors µu = X p où p est l’indice de nilpotence de u. Or, on a vu
que u est cyclique si, et seulement si, deg µu = n. En conclusion, un endomor-
phisme nilpotent est cyclique si, et seulement si, son indice de nilpotence est
la dimension de l’espace. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap07 chapitre:VI

78 VI. Endomorphismes cycliques

7.4. Exercice. Montrer que les endomorphismes suivants de Rn [X ] sont cycliques :

P 7→ P 0 , P 7→ P (X + 1) − P (X ).

▷ Éléments de correction. Ces deux endomorphismes sont nilpotents d’indice


maximal n + 1 = dim Rn [X ] donc, avec l’exercice précédent, sont cycliques. ◁

7.5. Exercice. Montrer qu’une rotation de R3 d’angle θ ∉ π Z est un endomor-


phisme cyclique.

▷ Éléments de correction. Une telle rotation R n’est pas une homothétie donc
son polynôme minimal est de degré au moins 2.
Supposons que le polynôme minimal µR soit de degré 2. Alors, 1 est racine de
µR (car 1 est valeur propre avec pour sous-espace propre l’axe de la rotation) et
donc µR admet une autre valeur propre réelle. Cette dernière valeur propre ne
peut être que 1 ou −1 car R conserve la norme (endomorphisme orthogonal).
Ce résultat est contradictoire avec la condition sur l’angle.
En conclusion, le polynôme minimal de R est de degré 3 : R est cyclique. ◁

7.6. Exercice. Montrer que deux matrices A, B ∈ M2 (R) de trace nulle et qui com-
mutent sont proportionnelles.

▷ Éléments de correction. Utilisons qu’une matrice de taille 2 est soit scalaire,


soit cyclique.
. Si la matrice A est scalaire, elle est nulle car tr A = 0 ; le résultat est évident car
alors, A = 0B .
. Sinon, A est cyclique et la matrice B appartient à son commutant. D’après
la caractérisation de la cyclicité par le commutant, B est un polynôme en A : il
existe des scalaires α, β ∈ R tels que B = αA + βI2 .
D’après la condition tr B = tr A = 0, β = 0 et l’on obtient B = αA.

7.7. Exercice.
1. Soit u un endomorphisme cyclique, x ∈ E tel que E = E u,x et F un sous-
espace stable par u. Montrer qu’il existe un polynôme D diviseur de µu tel
que F = E u,D(u)(x) .
Indication : on pourra considérer l’idéal
© ª
P ∈ K[X ], P (u)(x) ∈ F .

2. En déduire qu’un endomorphisme cyclique n’admet qu’un nombre fini de


sous-espaces stables.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap07 chapitre:VI

7. Exercices 79

3. Montrer qu’un endomorphisme qui n’admet qu’un nombre fini de sous-


espaces stables est cyclique.
On rappelle que dans notre cadre d’étude, le corps de base K est supposé
infini.
Indication : on pourra exploiter qu’une réunion finie de sous-espaces stricts
ne peut être égale à l’espace tout entier.

▷ Éléments de correction.
© ª
1. On vérifie rapidement que l’ensemble IF = P ∈ K[X ], P (u)(x) ∈ F est
bien un idéal de K[X ] car F est stable par u. Soit D un générateur de cet
idéal.
. Comme µu ∈ IF , D divise µu .
. Comme D(u)(x) appartient à F (par définition de D) et que F est stable
par u, E u,D(u)(x) ⊂ F .
. Soit y ∈ F et P ∈ K[X ] tel que y = P (u)(x) (qui existe car E = E u,x ).
Effectuons la division euclidienne de P par D : il existe des polynômes Q
et R tels que P = QD + R avec deg R < deg D. Alors, avec le morphisme
d’algèbres associés à u,
¡ ¢
R(u)(x) = P (u)(x) −Q(u) ◦ D(u)(x) = y −Q(u) D(u)(x) ∈ F.

Par conséquent, R ∈ IF et par minimalité de D, R est le polynôme nul.


¡ ¢
En conclusion, y = Q(u) D(u)(x) ∈ E u,D(u)(x) .
Par double inclusion, F = E u,D(u)(x) .

2. Soit u un endomorphisme cyclique. Comme il n’y a qu’un nombre fini


de diviseurs de µu , il y a un nombre fini de sous-espaces stables, d’après
la description obtenue à la question précédente.

3. Soit u un endomorphisme admettant un nombre fini de sous-espaces


stables. Considérons l’ensemble A obtenu par réunion des sous-espaces
stables de u différents de E . Comme le corps est infini, A 6= E .
Le sous-espace E u,x pour x ∉ A est stable et n’est pas inclus dans A donc
n’est pas un sous-espace strict de E : par conséquent, E = E u,x et u est
cyclique.

. À la question 1, on a en particulier démontré que l’endomorphisme induit


par u sur F est cyclique (pour le vecteur D(u)(x)).
. Remarquons que si le corps K est fini, tous les endomorphismes n’admettent
qu’un nombre fini de sous-espaces stables, car il n’y a qu’un nombre fini de
sous-espaces. La question 3 n’est donc pas pertinente dans ce cas. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap07 chapitre:VI

80 VI. Endomorphismes cycliques

7.8. Exercice. Soit U l’ensemble des polynômes unitaires à coefficients complexes


et φ l’application de U dans U définie par
Y
n ¡ ¢ Y
n ¡ ¢
X − λk →7 X − λ2k .
k=1 k=1

Montrer que, pour tout P ∈ U à coefficients entiers, φ(P ) est également à coeffi-
cients entiers.

▷ Éléments de correction. Soit P ∈ U à coefficients entiers et C P la matrice com-


pagnon associée (dont le polynôme caractéristique est P ).
Quitte à trigonaliser C P et donc C P2 , on obtient que le polynôme caractéristique
de C P2 est φ(P ). Or, la matrice C P2 est le carré d’une matrice à coefficients entiers
donc à coefficients entiers. En conclusion, son polynôme caractéristique φ(P )
est à coefficients entiers. ◁

7.9. Exercice. Soit E un espace vectoriel de dimension n. Montrer que l’ensemble


des endomorphismes cycliques de E est un ouvert de L (E ).

▷ Éléments de correction. Par définition, un endomorphisme u de E est cyclique


s’il existe un vecteur x ∈ E tel que
¡ ¢
det x, u(x), . . . , u n−1 (x) 6= 0.
¡ ¢
Notons, pour tout x ∈ E , φx : u 7→ det x, u(x), . . . , u n−1 (x) puis remarquons que
ces fonctions sont continues de L (E ) dans K. Alors, l’ensemble des endomor-
phismes cycliques de E est la réunion d’ouverts
[ −1 ∗
φx (K ),
x∈E

donc est un ouvert de L (E ).


Soit u un endomorphisme cyclique de E et x ∈ E tel que E = E u,x ; on vient
d’établir que l’on a E = E v,x pour tout v dans un certain voisinage de u . ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap08 chapitre:VII

Chapitre VII

Théorème de Cayley
& Hamilton

Objectifs du chapitre
— Démontrer le théorème de Cayley & Hamilton.
— Comprendre les conséquences du théorème de Cayley & Hamilton sur
les sous-espaces caractéristiques.
— Explorer les liens entre les différentes multiplicités associées à une va-
leur propre.

1. Énoncé et conséquences
Pour comprendre le rôle important des sous-espaces caractéristiques pour la
réduction, expliquons que le polynôme caractéristique est annulateur.

1.1. Théorème de Cayley & Hamilton. Soit u un endomorphisme de E . Alors, le


polynôme caractéristique χu est annulateur de u, ou de manière équivalente,
le polynôme minimal µu divise le polynôme caractéristique χu .

Comme le degré du polynôme caractéristique est la dimension de l’espace, on


obtient immédiatement le corollaire suivant.

1.2. Corollaire. Soit u un endomorphisme de E . Alors, deg µu É dim E .


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap08 chapitre:VII

82 VII. Théorème de Cayley & Hamilton

2. Preuve par les sous-espaces cycliques


Commençons par une première preuve exploitant les notations de sous-espaces
cycliques.

Démonstration. Soit x ∈ E . Notons v l’endomorphisme induit par u sur le sous-


espace cyclique E u,x . On a déjà établi le théorème de Cayley & Hamilton dans le
cas de cet endomorphisme cyclique : χv (v)(x) = 0E (proposition VI -5.3) donc
χv (u)(x) = 0E . Or, χv divise χu donc χu (u)(x) = 0E .
Cette relation étant vraie pour tout x ∈ E , on a bien χu (u) = 0L (E ) . ä

3. Preuve par la formule de la comatrice


Donnons une nouvelle preuve en apparence plus naturelle, mais qui illustre la
difficulté à manipuler le morphisme d’algèbres qui à un polynôme P associe
l’endomorphisme P (u).
Commençons par rappeler la formule de la comatrice.

3.1. Proposition. Pour toute matrice M ∈ Mn (A) à coefficients dans un anneau


intègre A,
Com(M )> M = det(M )In .

Revenons à la démonstration du théorème de Cayley & Hamilton pour une ma-


trice M ∈ Mn (K).

Démonstration. Appliquons la formule de la comatrice à la matrice X In − M


à coefficients dans l’anneau intègre K[X ] ; pour cela, adoptons les notations
suivantes avec des a k ∈ K et des M k ∈ Mn (K) :
X
n
χM (X ) = a k X k ∈ K[X ],
k=0
X
n−1
Com(X In − M )> = M k X k ∈ Mn (K[X ]).
k=0

Alors, d’après la formule de la comatrice, le polynôme (à coefficients matriciels)


X
n
Com(X In − M )> (X In − M ) = (M k−1 − M k M )X k ,
k=0

avec la convention M −1 = M n = 0n , coïncide avec χM (X )In .


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap08 chapitre:VII

4. Sous-espaces caractéristiques 83

En identifiant les coefficients, on obtient, pour tout k ∈ ‚0, nƒ, l’identité matri-
cielle
M k−1 − M k M = a k In .

Mais alors, en reportant dans l’expression de χM (M ), on obtient


X
n
χM (M ) = ak M k
k=0
Xn
= (M k−1 − M k M )M k
k=0

= M −1 M 0 − M n M n+1 = 0n ,

d’après la convention M −1 = M n = 0n . ä

4. Sous-espaces caractéristiques
4.1. Corollaire. Soit u un endomorphisme de E de polynôme caractéristique
scindé. Alors, E est la somme directe des sous-espaces caractéristiques de u.
En particulier, la dimension d’un sous-espace caractéristique est égale à la mul-
tiplicité algébrique de la valeur propre.

Démonstration. . Le premier point est une application du théorème des noyaux


(théorème IV -2.1) au polynôme χu .
. Notons λ1 , . . . , λp les valeurs propres deux à deux distinctes de u, m 1 , . . . ,
m p les multiplicités (algébriques) associées, u 1 , . . . , u p les endomorphismes
induits par u sur les sous-espaces caractéristiques. Alors, d’après la décompo-
sition en somme directe déjà établie,
Y
p Y
p
(X − λi )mi = χu = χu i .
i =1 i =1

Pour tout i ∈ ‚1, pƒ, la seule racine du polynôme scindé χui est λi (car, u i annu-
lant (X − λi )mi n’admet que λi comme valeur propre). En utilisant l’unicité de
la décomposition en facteurs irréductible de χu , on obtient deg χui = m i .
On conclut en précisant que, pour tout i ∈ ‚1, pƒ, deg χui est la dimension du
sous-espace caractéristique associé à λi . ä

5. Multiplicités
Il est temps de comparer les trois notions de multiplicité que nous avons intro-
duites.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap08 chapitre:VII

84 VII. Théorème de Cayley & Hamilton

5.1. Rappel. Soit u un endomorphisme et λ une valeur propre de u.


. La multiplicité algébrique m a (λ) de λ est sa multiplicité en tant que racine
du polynôme caractéristique χu .
. La multiplicité minimale m m (λ) de λ est sa multiplicité en tant que racine du
polynôme minimal µu .
. La multiplicité géométrique m g (λ) de λ est la dimension du sous-espace
propre associé E λ (u).

5.2. Exemple. Le scalaire 1 est une valeur propre de la matrice


 
1 0 0 0
0 1 0 0 
A= 0 0 1 1 

0 0 0 1

Les multiplicités associées sont m m (1) = 2 (car µ A = (X − 1)2 ), m a (1) = 4 (car


χ A = (X − 1)4 ) et m g (1) = 3 (le sous-espace propre est engendré par les trois
premiers vecteurs de la base canonique).

5.3. Proposition. Soit u un endomorphisme et λ une valeur propre de u. Alors,

1 É m g (λ) É m a (λ), 1 É m m (λ) É m a (λ).

Démonstration. . Le scalaire λ est une valeur propre de u donc son sous-espace


propre associé est de dimension au moins 1. Ainsi, m g (λ) Ê 1.
. Le sous-espace propre associé à λ est inclus dans le sous-espace caractéris-
tique correspondant, soit en passant à la dimension, m g (λ) É m a (λ).
. Le polynôme minimal divise le polynôme caractéristique (car celui-ci est an-
nulateur d’après le théorème de Cayley & Hamilton) ; par conséquent, la mul-
tiplicité de λ en tant que racine de µu est inférieure ou égale à la multiplicité
de λ comme racine de χu : à savoir, m m (λ) É m a (λ). ä

6. Commentaires et développements
6.1. En dimension 2, le théorème de Cayley & Hamilton peut être mis en évi-
dence dès le début d’un cours de calcul matriciel : il suffit de calculer directe-
ment A 2 − (tr A)A.

6.2. On peut consulter d’autres preuves du théorème de Cayley & Hamilton


dans l’ouvrage
Réduction des endomorphismes, Rached Mneimné, Calvage & Mounet, 2006
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap08 chapitre:VII

6. Commentaires et développements 85

en page 19 et en pages 26-27. Cette dernière preuve repose sur l’argument pour
la matrice générale X = (X i , j ) ayant pour coefficients les n 2 indéterminées X i , j ,
qui est diagonalisable, puis sur un argument de spécialisation.

6.3. Le théorème de Cayley & Hamilton permet d’établir que la transposée de


la comatrice d’une matrice A appartient à l’algèbre K[A].

6.4. L’arrivée du polynôme caractéristique met en évidence un ouvert algé-


brique important, en l’occurrence l’ouvert des matrices à valeurs propres dis-
tinctes (c’est l’ensemble des matrices qui n’annule pas le discriminant du po-
lynôme caractéristique). Cet ensemble est un ouvert connexe dense de Mn (C).
On établit souvent les choses pour ces matrices et l’on passe au cas général par
densité.
Par exemple, on peut établir l’égalité suivante entre formes quadratiques,
¡ ¢
tr (ad M )2 = 2n tr(M 2 ) − 2 tr(M )2 .

Il suffit de la vérifier pour une matrice diagonale puis pour une matrice diago-
nalisable puis d’exploiter la densité.

6.5. Si l’on dispose d’une preuve du théorème de Cayley & Hamilton ne passant
pas par les endomorphismes cycliques, le calcul du polynôme caractéristique
d’une matrice compagnon C P s’avère immédiat.
On écrit en effet que le polynôme minimal de C P en le dernier vecteur e n de
la base divise le polynôme minimal lequel divise le polynôme caractéristique.
Mais, il est immédiat de donner l’expression du polynôme minimal en le vec-
teur e n , lequel est P , et donc en particulier de degré n. C’est donc le polynôme
caractéristique de C P .

6.6. Récrivons les inégalités de la proposition VII -5.3

1 É m g (λ) É m a (λ),
1 É m m (λ) É m a (λ).

Alors,
. il y a égalité à droite dans la première si, et seulement si, il y a égalité à gauche
dans la seconde (voir l’exercice VII -7.8) ; si cela se produit pour toutes les va-
leurs propres d’une matrice complexe, alors elle est diagonalisable.
. il y a égalité à gauche dans la première si, et seulement si, il y a égalité à
droite dans la seconde ; si cela se produit pour toutes les valeurs propres d’une
matrice complexe, alors elle est cyclique.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap08 chapitre:VII

86 VII. Théorème de Cayley & Hamilton

7. Exercices
7.1. Exercice. Soit A ∈ M2 (K) de trace non nulle. Montrer qu’une matrice com-
mute avec A si, et seulement si, elle commute avec A 2 .
Le résultat est-il toujours vrai si l’on ôte l’hypothèse sur la trace de A ?

▷ Éléments de correction. . Le sens direct est évident. Pour le sens retour, il suf-
fit de remarquer que, d’après le théorème de Cayley & Hamilton, A ∈ Vect(A 2 , I2 ).
. Le résultat n’est plus vrai comme on peut le voir avec la matrice
µ ¶
0 1
A= .
0 0

Comme A 2 = 02 , il suffit de remarquer que toutes les matrices ne commutent


pas avec A pour établir le contre-exemple.

7.2. Exercice. Soit A, B ∈ M2 (K). Montrer que la matrice (AB −B A)2 est scalaire.

▷ Éléments de correction. Remarquons tout d’abord que le théorème de Cayley


& Hamilton donne l’identité suivante, pour toute matrice M ∈ M2 (K),

M 2 = (tr M )M − (det M )I2 .

Or, tr(AB − B A) = 0 donc (AB − B A)2 = − det(AB − B A)I2 est scalaire. ◁

7.3. Exercice. Soit A, B ∈ M2 (K). Montrer que

AB + B A = (tr B )A + (tr A)B + (tr AB − tr A tr B )I2 .

En déduire que si tr A = tr B = 0, alors la matrice AB + B A est scalaire.

▷ Éléments de correction. . Remarquons, comme dans l’exercice précédent, que


le théorème de Cayley & Hamilton donne l’identité suivante, pour toute ma-
trice M ∈ M2 (K),
M 2 = (tr M )M − (det M )I2 .

Alors,

AB + B A = (A + B )2 − A 2 − B 2
= (tr(A + B ))(A + B ) − (tr A)A − (tr B )B + (det A + det B − det(A + B ))I2
= (tr B )A + (tr A)B + (det A + det B − det(A + B ))I2 .

Pour conclure, remarquons qu’en prenant la trace, l’identité déduite du théo-


rème de Cayley & Hamilton donne, pour toute matrice M ∈ M2 (K),

tr M 2 = (tr M )2 − 2 det M .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap08 chapitre:VII

7. Exercices 87

Ainsi, en remplaçant les déterminants par cette formule,


det A + det B − det(A + B ) = tr AB − tr A tr B,
et donc
AB + B A = (tr B )A + (tr A)B + (tr AB − tr A tr B )I2 .
. Il suffit d’appliquer la formule précédente dans le cas tr A = tr B = 0 pour
obtenir que AB + B A = (tr AB )I2 . ◁

7.4. Exercice.
1. Soit A ∈ Mn (C) nilpotente. Montrer que son indice de nilpotence est infé-
rieur ou égal à n.
2. Soit p et n des entiers tels que 2p −2 Ê n, A ∈ Mn (C) nilpotente d’indice p.
Montrer qu’il n’existe pas de matrice B ∈ Mn (C) telle que B 2 = A.
▷ Éléments de correction.
1. Comme A est nilpotente, elle admet 0 comme unique valeur propre. Le
polynôme caractéristique χ A est scindé dans C[X ], unitaire, de degré n
et ses racines sont les valeurs propres de A. Ainsi, χ A = X n . D’après le
théorème de Cayley & Hamilton, A n = 0n . Par la minimalité de sa défini-
tion, l’indice de nilpotence de A est inférieur ou égal à n.
2. Raisonnons par l’absurde et supposons qu’une telle matrice B existe.
Alors, B 2p = A p = 0n et B 2p−2 = A p−1 6= 0n : l’indice de nilpotence de
B est soit 2p − 1, soit 2p. Dans les deux cas, l’indice de nilpotence est
strictement supérieur à n ce qui contredit le résultat de la question pré-
cédente et achève le raisonnement par l’absurde.

7.5. Exercice. Montrer qu’il n’existe pas de matrice M ∈ M5 (R) de polynôme mi-
nimal µM = (X 2 + 1)2 .
▷ Éléments de correction. Supposons qu’une telle matrice M existe. Son poly-
nôme caractéristique χM est de degré 5, donc admet une racine réelle ; par
conséquent, M admet une valeur propre réelle.
Comme toutes les valeurs propres sont racines du µM , il faudrait que µM ad-
mette une racine réelle ce qui n’est pas le cas. ◁

7.6. Exercice. Soit M ∈ Mn (R). Montrer que µM et χM ont les mêmes facteurs
irréductibles.
▷ Éléments de correction. . Le polynôme χM est annulateur de M d’après le
théorème de Cayley & Hamilton donc µM divise χM ; ainsi, les facteurs irré-
ductibles de µM sont des facteurs irréductibles de χM .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap08 chapitre:VII

88 VII. Théorème de Cayley & Hamilton

. Remarquons que χM et µM ont les mêmes racines complexes (les valeurs


propres de M ). Les racines complexes d’un facteur irréductible P de χM sont
racines de µM donc P divise µM .
. Fournissons une alternative au second point qui n’utilise pas le caractère
Pp
scindé du corps C. Notons µ A = k=0 a k X k et écrivons
µM (x)In = µM (x)In − µM (M ) = µM (xIn ) − µM (M )
X
p ¡ ¢
= a k (xIn )k − M k .
k=1
n n
Exploitons alors la factorisation de A −B pour A et B deux matrices qui com-
mutent. Plus précisément, pour tout k ∈ ‚1, pƒ, il existe un polynôme P k à coef-
ficients matriciels tel que (xIn )k − M k = (x I n − M )P k (x). Par suite,
X
p
µM (x)In = a k (x I n − M )P k (x) = (xIn − M )Q(x).
k=1

En passant au déterminant, µM (x)n = χM (x) det(Q(x)), donc les facteurs irré-


ductibles de χM divisent µM . ◁

7.7. Exercice. Soit u un endomorphisme de rang r . Montrer que deg µu É r + 1.


▷ Éléments de correction. Par définition du polynôme minimal, il suffit de mon-
trer que u admet un polynôme annulateur de degré r + 1.
Le sous-espace im u est stable par u et de dimension r ; l’endomorphisme ũ
induit par u sur im u admet donc un polynôme annulateur P de degré r , son
polynôme caractéristique d’après le théorème de Cayley & Hamilton.
Pour tout x ∈ E , u(x) ∈ im u et, par suite
(P X )(u)(x) = P (u) ◦ u(x) = P (u)(u(x)) = P (ũ)(u(x)) = 0E .
En conclusion, le polynôme X P , de degré r + 1, est annulateur de u.
Cet exercice sera revisité avec les invariants de similitude à l’exercice XII -5.5.◁

7.8. Exercice. Soit u un endomorphisme et λ une valeur propre de u. Montrer


que m g (λ) = m a (λ) si, et seulement si, m m (λ) = 1.

▷ Éléments de correction. Décomposons l’espace E = Fλ ⊕ G où Fλ est le sous-


espace caractéristique associé à λ et G est la somme directe de tous les autres
sous-espaces caractéristiques. Par construction, le polynôme minimal de uG
n’admet pas λ comme racine donc le polynôme minimal de u Fλ est (X −λ)mm (λ) .
Alors, m m (λ) = 1 si, et seulement si, u Fλ = λIdFλ , c’est-à-dire si, u(x) = λx pour
tout x ∈ F λ : cette condition équivaut à l’égalité entre le sous-espace propre
et le sous-espace caractéristique associé à λ et donc étant donnée l’inclusion
naturelle entre ces deux espaces, à l’égalité des dimensions m g (λ) = m a (λ). ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap09 chapitre:VIII

Chapitre VIII

Diagonalisation

Objectifs du chapitre
— Maîtriser les critères de diagonalisation et choisir celui qui est adapté à
un problème donné.
— Comprendre l’importance de l’hypothèse de commutation pour la co-
diagonalisation.

1. Définitions
Comme les vecteurs colonnes d’une matrice sont les images des vecteurs de
la base, si la matrice M est diagonale, alors la base canonique est une base de
vecteurs propres de l’endomorphisme canoniquement associé.

1.1. Définition. . Un endomorphisme est diagonalisable s’il existe une base


dans laquelle sa matrice est diagonale, c’est-à-dire s’il existe une base de vec-
teurs propres pour cet endomorphisme ou encore si l’espace est la somme di-
recte des sous-espaces propres.
. Une matrice est diagonalisable si, et seulement si, elle est semblable à une
matrice diagonale.

1.2. Remarque. Avec cette définition et celle de la relation de similitude, on


vérifie immédiatement qu’une matrice est diagonalisable si, et seulement si,
l’application linéaire qui lui est canoniquement associée est diagonalisable.
Les valeurs propres d’un endomorphisme u sont alors les coefficients diago-
naux de toute matrice diagonale à laquelle la matrice de u est semblable.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap09 chapitre:VIII

90 VIII. Diagonalisation

1.3. Exemple. Si une matrice M est diagonalisable et n’admet qu’une seule va-
leur propre, alors M est scalaire (car elle est semblable à la matrice scalaire).
En particulier, la seule matrice à la fois nilpotente et diagonalisable est la ma-
trice nulle.

2. Critères de diagonalisation
L’objectif de ce paragraphe est d’obtenir des conditions nécessaires et/ou suf-
fisantes pour la diagonalisabilité d’un endomorphisme. Commençons par un
résultat simple.

2.1. Proposition. Soit u un endomorphisme d’un espace vectoriel de dimen-


sion n qui admet n valeurs propres deux à deux distinctes. Alors, u est diago-
nalisable.

Démonstration. Si u admet n valeurs propres deux à deux distinctes, alors une


famille de vecteurs propres associés à chacune de ces valeurs propres est libre
et de cardinal n donc c’est une base. On a ainsi trouvé une base de vecteurs
propres de u donc u est diagonalisable. ä

2.2. Exemple. Une matrice triangulaire avec des coefficients diagonaux deux à
deux distincts est diagonalisable (car ses valeurs propres sont précisément ces
coefficients diagonaux).

2.3. Corollaire. Soit u un endomorphisme d’un espace vectoriel E de polynôme


caractéristique χu scindé à racines simples. Alors, u est diagonalisable.

Démonstration. Les racines de χu sont les valeurs propres de u. L’hypothèse


implique que u admet dim E valeurs propres distinctes, donc est diagonalisable
d’après la proposition précédente. ä

Passons désormais à des critères (c’est-à-dire des conditions nécessaires et suf-


fisantes) de diagonalisabilité.

2.4. Théorème. Soit u un endomorphisme d’un espace vectoriel E . Alors, u est


diagonalisable si, et seulement si, u admet un polynôme annulateur scindé à
racines simples.

Démonstration. (⇒) Supposons u diagonalisable ; notons λ1 , . . . , λm les valeurs


Q
propres distinctes de u puis montrons que le polynôme P = m k=1
(X − λk ),
scindé à racines simples, est annulateur de u.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap09 chapitre:VIII

2. Critères de diagonalisation 91

En effet, pour tout vecteur propre x, il existe i ∈ ‚1, mƒ tel que x soit associé à la
valeur propre λi et donc
Y
m
P (u)(x) = (u − λk IdE )(x)
k=1
³Ym ´
= (u − λk IdE ) ◦ (u − λi IdE )(x) = 0E .
k=1
k6=i

Comme u est diagonalisable, il existe une base (e 1 , . . . , e n ) de E formée de vec-


teurs propres de u ; l’endomorphisme P (u) est nul sur cette base donc P est
annulateur de u.
(⇐) Considérons un polynôme P scindé à racines simples et annulateur de u :
Y
m
P= (X − λk ).
k=1

Puisque les complexes λ1 , . . . , λm sont deux à deux distincts, les polynômes


X −λ1 , . . . , X −λm sont deux à deux premiers entre eux. En appliquant le lemme
des noyaux à cette famille de polynômes et u, on obtient la décomposition de
M
m
E = ker P (u) = ker(u − λk IdE )
k=1

comme somme directe de sous-espaces propres de u. Par conséquent, u est


diagonalisable. ä

En remarquant que si un polynôme annulateur est scindé à racines simples


alors le polynôme minimal (qui le divise) l’est également, ce résultat admet la
réécriture immédiate suivante.

2.5. Théorème. Soit u un endomorphisme d’un espace vectoriel E . Alors, u est


diagonalisable si, et seulement si, son polynôme minimal µu est scindé à racines
simples.

2.6. Exemple. Les projecteurs et les symétries vectorielles sont diagonalisables


car ils admettent des polynômes annulateurs scindés à racines simples (res-
pectivement X 2 − X et X 2 − 1).

2.7. Exemple. Étudions la diagonalisabilité d’une matrice réelle A ∈ Mn (R) telle


que A 5 = In selon le corps de diagonalisabilité.
. Remarquons que A est diagonalisable en tant que matrice complexe (donc
avec une matrice diagonale et des matrices de passage à priori à coefficients
complexes) puisqu’elle annule le polynôme scindé à racines simples X 5 − 1.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap09 chapitre:VIII

92 VIII. Diagonalisation

. Si A est diagonalisable sur R, alors le polynôme minimal µ A divise X 5 −1 et est


scindé à racines simples sur R ; or X 5 − 1 admet 1 comme unique racine réelle
donc µ A = X − 1, puis A = In .

2.8. Exemple. Montrons qu’un endomorphisme de rang 1 est diagonalisable si,


et seulement si, sa trace est non nulle.
. Si u est un endomorphisme de rang 1, sa matrice dans une base quelconque
est de la forme M = X Y > avec X et Y des colonnes non nulles. Par conséquent,
¡ ¢ ¡ ¢
M 2 = X Y > X Y > = Y > X X Y > = tr(M )M ,
¡ ¢ ¡ ¢
car Y > X = tr Y > X = tr X Y > = tr(M ) ∈ K. Ainsi, si la trace est non nulle,
alors M annule un polynôme scindé à racines simples donc est diagonalisable ;
sinon, M est nilpotente (M 2 = 0n ) et la condition M diagonalisable entraîne
M = 0n ce qui contredit l’hypothèse rg(M ) = 1.
. On peut aussi voir, en notant n la dimension de l’espace, que le noyau, c’est-
à-dire le sous-espace propre associé à la valeur propre 0, est de dimension n−1 ;
alors u est diagonalisable si, et seulement si, u admet une autre valeur propre
(c’est-à-dire une valeur propre non nulle). On peut trouver cette valeur propre
en exploitant le résultat, précisé au chapitre suivant, que la trace est la somme
des valeurs propres dans ce cas.

2.9. Exemple. Soit A ∈ Mn (K) diagonalisable et G A l’endomorphisme de Mn (K)


défini par G A : M 7→ AM , multiplication à gauche par A. Montrons que G A est
diagonalisable.
Comme A est diagonalisable, il existe un polynôme P scindé à racines simples,
annulateur de A.
Le calcul des puissances de G A donne que, pour toute matrice M ∈ Mn (K),

P (G A )(M ) = P (A)M = 0n ,

c’est-à-dire P (G A ) = G P (A) = 0L (Mn (K)) , donc P est aussi annulateur de G A qui


est donc diagonalisable d’après la caractérisation précédente.

Traitons quelques exemples de diagonalisation pour des matrices définies par


blocs.

2.10. Exemple. Soit A ∈ Mn (K). Alors, la matrice


µ ¶
A 0n
B= ∈ M2n (K)
0n A

est diagonalisable si, et seulement si, A est diagonalisable.


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap09 chapitre:VIII

2. Critères de diagonalisation 93

Remarquons en effet que, pour tout P ∈ K[X ], les calculs sur une matrice dia-
gonale par blocs donnent
µ ¶
P (A) 0n
P (B ) = .
0n P (A)
Ainsi, P (B ) = 02n si, et seulement si, P (A) = 0n . Les deux matrices A et B ad-
mettent donc les mêmes polynômes annulateurs, donc admettent simultané-
ment un polynôme annulateur scindé à racines simples.

2.11. Exemple. Soit A, B et C ∈ Mn (K) telles que la matrice


µ ¶
A B
M= ∈ M2n (K)
0n C
est diagonalisable. Montrons que A et C sont diagonalisables.
En effet, M admet un polynôme annulateur scindé à racines simples P ∈ K[X ]
et, d’après les calculs par blocs, P (M ) est de la forme
µ ¶
P (A) ?
02n = P (M ) = .
0n P (C )
Par conséquent, P (A) = P (C ) = 0n : A et C sont diagonalisables (car elles ad-
mettent un polynôme annulateur scindé à racines simples).
En revanche, on ne peut rien dire de l’éventuelle diagonalisabilité de la ma-
trice B .

2.12. Proposition. Soit u un endomorphisme diagonalisable de E et F un sous-


espace stable par u. Alors, l’endomorphisme induit u F est diagonalisable.

Démonstration. Un polynôme scindé à racines simples annulateur de u est aussi


annulateur de u F (puisque ces deux applications coïncident sur F ), donc u F est
diagonalisable. ä

Après avoir détaillé un critère reposant essentiellement sur µu , revenons au po-


lynôme caractéristique χu .

2.13. Théorème. Soit u un endomorphisme d’un espace vectoriel E . Alors, u est


diagonalisable si, et seulement si, χu est scindé et la dimension de chaque sous-
espace propre est égale à la multiplicité de la valeur propre dans χu (c’est-à-dire
la multiplicité algébrique de la valeur propre correspondante).

Démonstration. D’après le lemme des noyaux et le théorème de Cayley & Ha-


milton, E est la somme directe des sous-espaces caractéristiques. Or chaque
sous-espace caractéristique contient le sous-espace propre associé à la même
valeur propre. Par conséquent, E est la somme directe des sous-espaces propres
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap09 chapitre:VIII

94 VIII. Diagonalisation

si, et seulement si, les sous-espaces propres et caractéristiques associés à une


même valeur propre sont égaux (c’est-à-dire s’ils ont même dimension). On
trouve le résultat annoncé en rappelant que la dimension d’un sous-espace ca-
ractéristique est égale à la multiplicité algébrique de la valeur propre associée
(corollaire VII -4.1). ä

2.14. Corollaire. Soit u un endomorphisme d’un espace vectoriel E . Alors u est


diagonalisable si, et seulement si, la somme des dimensions des sous-espaces
propres est égale à dim E .
Démonstration. La somme des dimensions des sous-espaces propres est infé-
rieure à la somme des dimensions des sous-espaces caractéristiques. L’éga-
lité n’est possible que si chaque espace propre a la même dimension que l’es-
pace caractéristique associé. Le résultat provient alors de la proposition précé-
dente. ä

3. Critère de co-diagonalisation
3.1. Définition. Une famille finie d’endomorphismes (u 1 , . . . , u N ) d’un espace
vectoriel E est co-diagonalisable s’il existe une base de E dans laquelle chacun
des endomorphismes u k pour k ∈ ‚1, N ƒ admet une matrice diagonale.

3.2. Remarque. D’après les résultats sur les sous-espaces stables déjà montrés,
on sait que les sous-espaces propres d’un endomorphisme sont stables pour
tous les endomorphismes qui commutent avec lui.
En fait, ce résultat s’inscrit dans un cadre plus général et la commutativité entre
endomorphismes diagonalisables est une condition nécessaire et suffisante pour
la co-diagonalisabilité.

3.3. Proposition. Soit u 1 , . . . , u N des endomorphismes diagonalisables de E .


Alors, la famille (u 1 , . . . , u N ) est co-diagonalisable si, et seulement si, les endo-
morphismes u i et u j commutent pour tous i , j ∈ ‚1, N ƒ.
Démonstration. . S’il existe une base dans laquelle chaque endomorphisme u k
pour k ∈ ‚1, N ƒ admet une matrice diagonale, alors les endomorphismes com-
mutent deux à deux car leurs matrices dans cette base sont diagonales donc
commutent.
. Réciproquement, montrons par récurrence sur N que si tous les endomor-
phismes d’une famille de N endomorphismes diagonalisables commutent deux
à deux, alors la famille est co-diagonalisable.
— Le résultat est évidemment vrai pour N = 1 : un endomorphisme diago-
nalisable forme une famille co-diagonalisable.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap09 chapitre:VIII

4. Commentaires et développements 95

— Soit N ∈ N∗ . Supposons que toute famille de N endomorphismes diago-


nalisables qui commutent deux à deux est co-diagonalisable et considé-
rons une famille (u 1 , . . . , u N +1 ) de N + 1 endomorphismes qui satisfont
ces conditions.
Si tous les u i sont des homothéties alors le résultat est établi ; sinon, il
existe au moins un endomorphisme (que nous supposerons être u N +1
quitte à réordonner la famille) qui admet au moins deux sous-espaces
propres et donc E = E N +1 ⊕ F avec E N +1 un sous-espace propre de u N +1
et F la somme des autres sous-espaces propres de u N +1 . Chacun de ces
deux sous-espaces est stable par (u 1 , . . . , u N ) : les N endomorphismes
induits sur E N +1 (respectivement sur F ) sont diagonalisables et com-
mutent deux à deux donc sont co-diagonalisables d’après l’hypothèse de
récurrence. En concaténant les bases ainsi déterminées de E N +1 et de F ,
on obtient une base de E où chacun des endomorphismes (u 1 , . . . , u N +1 )
admet une matrice diagonale.
ä

3.4. Exemple. Soit A, B ∈ Mn (K) diagonalisables. Montrons que l’endomor-


phisme
½
Mn (K) → Mn (K)
Θ A,B :
M 7→ AM B

est diagonalisable.
D’après l’exemple VIII -2.9, les deux endomorphismes de Mn (K)

G A : M 7→ AM , et D B : M 7→ M B

sont diagonalisables ; or, ces endomorphismes commutent, car pour toute ma-
trice M ∈ Mn (K),
G A ◦ D B (M ) = D B ◦ G A (M ) = AM B.

La proposition précédente assure l’existence d’une base commune de vecteurs


propres ; dans cette base, la matrice de Θ A,B = G A ◦D B est diagonale, donc Θ A,B
est diagonalisable.

4. Commentaires et développements
4.1. Il existe d’autres critères de diagonalisabilité comme le théorème spectral
pour les matrices symétriques réelles ; toutefois, ce résultat relève de l’algèbre
bilinéaire même si sa conclusion semble le faire appartenir au domaine de l’al-
gèbre linéaire. On le développera dans le chapitre X.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap09 chapitre:VIII

96 VIII. Diagonalisation

4.2. On vérifie facilement que si A = P B P −1 , alors les endomorphismes ad A et


ad B sont semblables avec l’automorphisme ΦP : X 7→ P X P −1 .
Par conséquent, si A est diagonalisable, ad A l’est aussi puisque pour une ma-
trice D diagonale, ad D est diagonale.
La réciproque est vraie comme on le verra plus tard avec la décomposition
de Jordan & Dunford. Toutefois, un argument élémentaire (laissé au lecteur)
peut être obtenu à partir de la remarque évidente suivante : si X est un vecteur
propre de A et M un vecteur propre pour ad A , alors M X est soit nul, soit un
vecteur propre de A.

4.3. Attention à ne pas confondre diagonalisation par similitude et diagonali-


sation par congruence ! Les matrices congruentes à une matrice diagonale sont
les matrices symétriques. La matrice
µ ¶
1 2
0 3

est « diagonalisable au sens de la similitude » (car ses valeurs propres sont dis-
tinctes), mais pas « diagonalisable au sens de la congruence » (car elle n’est pas
symétrique).

4.4. La somme ou la différence de deux matrices diagonalisables n’est pas en


général diagonalisable. Remarquons par exemple l’égalité suivante
µ ¶ µ ¶ µ ¶
0 1 1 0 1 1
+ = .
0 1 0 0 0 1

On peut facilement montrer qu’il existe une base de Mn (R) ou de Mn (C) faite
de matrices diagonalisables (on peut remarquer à cet effet que les matrices à
valeurs propres distinctes forment un ouvert).

5. Exercices

5.1. Exercice. Déterminer les matrices M ∈ Mn (R) vérifiant M 2 = M et tr M = 0.

▷ Éléments de correction. Le polynôme scindé à racines simples X (X − 1) est


annulateur de M , donc la matrice M est diagonalisable et ses valeurs propres
appartiennent à {0, 1}, l’ensemble des racines de ce polynôme annulateur ; sa
trace est la somme de ses valeurs propres (comptées avec leur multiplicité).
En conclusion, M est diagonalisable avec 0 pour seule valeur propre : M est la
matrice nulle. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap09 chapitre:VIII

5. Exercices 97

5.2. Exercice. Étudier la diagonalisabilité de la matrice M ∈ M2n (C) dont les


coefficients sont donnés par
½
0 si i = j [2],
[M ]i , j =
1 sinon.

▷ Éléments de correction. Un rapide calcul donne que M 2 = n A avec A ∈ M2n (C)


la matrice dont les coefficients sont donnés par
½
0 si i 6= j [2],
[A]i , j =
1 sinon.

puis que M A = nM . Par conséquent, M 3 = n 2 M . Comme le polynôme annula-


teur X 3 − n 2 X est scindé à racines simples, la matrice M est diagonalisable.
Avec le théorème spectral, le résultat est immédiat puisque M ∈ S n (R). ◁

5.3. Exercice. Déterminer une condition nécessaire et suffisante sur les com-
plexes a 1 , . . . , a n , b 1 , . . . , b n pour la diagonalisabilité de la matrice
 
0 . . . 0 a1
 .. .. .. 
 . 
M = . .  ∈ Mn+1 (K).
 0 . . . 0 an 
b1 ... bn 0

▷ Éléments de correction. Écrivons la matrice par blocs


µ ¶
0n A
M= > ,
B 0
avec A et B ∈ Mn,1 (C) les vecteurs de coordonnées a 1 , . . . , a n et b 1 , . . . , b n res-
pectivement. Alors, le calcul des puissances successives donne
µ > ¶ µ ¶
AB 0n,1 > 0n A
M =2
, 3
M =B A > = B > AM .
01,n B > A B 0
P
Ainsi, M admet pour polynôme annulateur X 3 − B > AX = X 3 − nk=1 a k b k X .
P
. Si nk=1 a k b k 6= 0, ce polynôme est annulateur et scindé à racines simples
donc M est diagonalisable.
. Sinon, M est nilpotente donc est diagonalisable si, et seulement si, M = 0n+1 .
En conclusion, M est diagonalisable si, et seulement si, M est nulle ou
X
n
a k b k 6= 0.
k=1

Une autre approche de l’exercice serait de considérer d’abord la condition plus


faible M 2 diagonalisable qui équivaut à la diagonalisabilité de la matrice AB >
de rang 1 puis de discuter pour se ramener à M . ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap09 chapitre:VIII

98 VIII. Diagonalisation

5.4. Exercice. Exhiber une base de l’hyperplan de M3 (C) des matrices de trace
nulle qui soit constituée de matrices diagonalisables.
▷ Éléments de correction. Considérons les huit matrices suivantes de cet hyper-
plan :
       
1 0 0 0 1 0 1 1 0 1 0 1
0 −1 0 , 1 0 0  , 0 2 0  , 0 2 0  ,
0 0 0 0 0 0 0 0 −3 0 0 −3
       
1 0 0 1 0 0 1 0 0 1 0 0
0 2 1  , 1 2 0  , 0 2 0  , 0 2 0  .
0 0 −3 0 0 −3 1 0 −3 0 1 −3
On vérifie que chacune de ces matrices est diagonalisable car elle admet trois
valeurs propres distinctes, puis que la famille de ces huit matrices est libre donc
une base de l’hyperplan considéré. ◁

5.5. Exercice. Soit a 1 , . . . , a n−1 ∈ K tous non nuls. Montrer que la matrice « sous-
triangulaire »
 
? ... ... ... ?
 .. 
a 1 . . . .
 
 . . .. 
M = 0 .. .. . ∈ Mn (K)
 
 .. . . . . 
 . .. .. .. .. 
0 . . . 0 a n−1 ?
est diagonalisable si, et seulement si, elle admet n valeurs propres distinctes.
▷ Éléments de correction. Le sens retour est évident.
Pour le sens direct, remarquons que, pour tout λ ∈ K, rg(M − λIn ) Ê n − 1 (car la
matrice déduite de M −λIn en enlevant la première ligne et la dernière colonne
est triangulaire à coefficients diagonaux non nuls donc inversible) et donc que
les sous-espaces propres sont de dimension 1. Pour que M soit diagonalisable,
il faut donc qu’il y ait n valeurs propres distinctes.
Cette matrice « sous-triangulaire » est cyclique (le sous-espace cyclique engen-
dré par le premier vecteur de la base canonique de Mn,1 (K) est Mn,1 (K)).
Un cas particulier de cet exercice est le critère suivant : la matrice
 
a 0 0 0
1 b 0 0 
 
 0 1 c 0  ∈ M4 (K)
0 0 1 d
est diagonalisable si, et seulement si, les scalaires a , b , c et d sont deux à deux
distincts. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap09 chapitre:VIII

5. Exercices 99

5.6. Exercice. Soit a, b, c et d ∈ K. Montrer que la matrice


 
a ab 0 0
1 b 0 0 
  ∈ M4 (K)
0 1 c cd 
0 0 1 d
n’est pas diagonalisable.
▷ Éléments de correction. On montre tout d’abord, comme dans l’exercice pré-
cédent en considérant la matrice extraite en enlevant la première ligne et la
dernière colonne, que les sous-espaces propres sont de dimension 1.
Par ailleurs, le polynôme caractéristique est
¯ ¯ ¯ ¯
¯ X − a −ab ¯ ¯ X − c −cd ¯
¯ ¯·¯ ¯ = X (X − a − b)X (X − c − d )
¯ −1 X − b ¯ ¯ −1 X − d¯
= X 2 (X − a − b)(X − c − d ).

Par conséquent, la multiplicité de 0 est au moins 2 donc ne coïncide pas avec


la dimension du sous-espace propre : la matrice n’est pas diagonalisable. ◁

5.7. Exercice. Montrer que, pour toute permutation σ ∈ S n , la matrice de per-


mutation P σ = (δi ,σ( j ) ) ∈ Mn (C) est diagonalisable.

▷ Éléments de correction. Remarquons tout d’abord que, pour toutes permuta-


tions σ, ρ ∈ S n , P σ P ρ = P σ◦ρ (en fait σ 7→ P σ est un morphisme de groupes du
groupe symétrique S n dans GLn (C)).
Soit σ ∈ S n et k son ordre ; alors P σk = P σk = In : le polynôme scindé à racines
simples (dans C[X ]) X k − 1 est annulateur de la matrice P σ qui est donc diago-
nalisable. ◁

5.8. Exercice. Soit u un endomorphisme d’un C-espace vectoriel E et P ∈ C[X ]


tels que l’endomorphisme P (u) est diagonalisable et l’endomorphisme P 0 (u) est
inversible. Montrer que u est diagonalisable.
▷ Éléments de correction. Quitte à se restreinte à chaque sous-espace propre
E µ (P (u)) et à remplacer P par P − µ, on est ramené au cas où P (u) est nul et
P 0 (u) inversible.
Toute racine λ du polynôme (scindé) P de multiplicité m λ Ê 2 est racine de P 0
et l’on peut factoriser P 0 (u) par u − λIdE ; comme P 0 (u) est inversible, u − λIdE
l’est également.
En factorisant P (u) par (u − λIdE )mλ pour chacune des racines multiples de P ,
on obtient un polynôme scindé à racines simples annulateur de u (le polynôme
unitaire dont les racines sont simples et coïncident avec les racines simples
de P ) : u est diagonalisable. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap09 chapitre:VIII

100 VIII. Diagonalisation

5.9. Exercice. Soit u un endomorphisme d’un C-espace vectoriel E . Montrer que


u est diagonalisable si, et seulement si, pour tout λ ∈ C,

dim ker(u − λIdE ) = dim ker(u − λIdE )2 .


▷ Éléments de correction. . Si u est diagonalisable, les sous-espaces propres et
caractéristiques sont confondus donc, pour toute valeur propre λ ∈ C,

dim ker(u − λIdE ) = dim ker(u − λIdE )2 .


De plus, si λ n’est pas valeur propre, les deux sous-espaces sont réduits à {0E }
car u − λIdE est injectif.
. Si, pour tout λ ∈ C,

dim ker(u − λIdE ) = dim ker(u − λIdE )2


alors la suite des noyaux itérés (ker(u −λIdE )k )kÊ1 est constante : en particulier
les sous-espaces propres et les sous-espaces caractéristiques coïncident : u est
diagonalisable.
Cet exercice permet de retrouver sans faire appel au polynômes annulateurs
que l’endormophisme induit par un endomorphisme diagonalisable u sur un
sous-espace stable F est diagonalisable puisque

ker(u F − λIdF )k = F ∩ ker(u − λIdE )k ,


pour tout λ ∈ C et tout k ∈ {1, 2}. ◁

5.10. Exercice. Soit u un endomorphisme d’un C-espace vectoriel tel que l’endo-
morphisme u 2 est diagonalisable. Montrer que u est diagonalisable si, et seule-
ment si, ker u = ker u 2 .
▷ Éléments de correction. L’endomorphisme u 2 est diagonalisable donc son po-
lynôme minimal µu 2 est scindé à racines simples.
(⇒) Si ker u 6= ker u 2 , alors le sous-espace propre associé à la valeur 0 n’est pas
égal au sous-espace caractéristique associé à 0 : u n’est pas diagonalisable.
(⇐) Comme u 2 est diagonalisable, il existe Q scindé à racines simples vérifiant
Q(0) 6= 0 tel que XQ(X ) annule u 2 , c’est-à-dire u 2 ◦ Q(u 2 ) = 0L (E ) .
Alors, pour tout x ∈ E , Q(u 2 )(x) ∈ ker u 2 ; or ker u 2 = ker u par hypothèse donc
Q(u 2 )(x) ∈ ker u soit u ◦ Q(u 2 )(x) = 0E .
Ainsi, XQ(X 2 ) est un polynôme annulateur de u. Il suffit de remarquer que ce
polynôme est scindé à racines simples (car les racines complexes de Q sont
deux à deux distinctes et non nulles) pour conclure avec le critère algébrique
de diagonalisabilité que u est diagonalisable.
Un démonstration alternative consiste à montrer que, pour tout λ ∈ C∗ de ra-
cines carrées distinctes µ et µ0 , le sous-espace propre de u 2 associé à λ se dé-
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap09 chapitre:VIII

5. Exercices 101

compose avec les sous-espaces propres de u :

ker(u 2 − λIdE ) = ker(u − µIdE ) ⊕ ker(u − µ0 IdE ).

La condition porte alors que le sous-espace propre de u 2 associé à 0, c’est-à-


dire ker u 2 . ◁

5.11. Exercice. Soit u, v deux endomorphismes diagonalisables de E vérifiant


que u 2 = v 2 et u 3 = v 3 . Montrer que u = v.

▷ Éléments de correction. Le résultat est immédiat si u et v sont inversibles et


l’on va chercher à se ramener à cette situation.
Remarquons en utilisant des décompositions de E comme somme de sous-
espaces propres de u ou de v que

E = ker u ⊕ im u = ker v ⊕ im v, ker u 2 = ker u, ker v 2 = ker v.

. Comme u 2 = v 2 , ker u = ker u 2 = ker v 2 = ker v, puis im u = im v.


. Les endomorphismes induits par u et v sur ker u = ker v sont nuls donc coïn-
cident.
. Les endomorphismes ũ et ṽ par u et v sur im u = im v sont bijectifs et véri-
fient ũ 2 = ṽ 2 et ũ 3 = ṽ 3 . Par conséquent,
¡ ¢−1 3 ¡ 2 ¢−1 3
ũ = ũ 2 ◦ ũ = ṽ ◦ ṽ = ṽ.

En conclusion, u et v coïncident sur les sous-espaces supplémentaires ker u et


im u donc sont égaux.
Remarquons que l’on n’a pas utilisé toute l’hypothèse de diagonalisabilité mais
simplement que 0 n’était pas racine multiple de µu et µv . ◁

5.12. Exercice. Déterminer les sous-espaces stables dans Kn de l’endomorphisme


canoniquement associé à la matrice diag(λ1 , λ2 , . . . , λn ) avec λ1 , λ2 , . . . , λn des
scalaires deux à deux distincts.

Une version en calcul matriciel de cet exercice fait l’objet de l’exemple III -2.1.

▷ Éléments de correction. Soit u l’endomorphisme associé à cette matrice dans


une base (e 1 , e 2 , . . . , e n ) et F un sous-espace stable par u. L’endomorphisme
induit u F est encore diagonalisable donc F est la somme (directe) des sous-
espaces propres de u F . Comme ces sous-espaces sont inclus dans les sous-
espaces propres de u et que ces derniers sont des droites, on en déduit que
F est somme directe de sous-espaces propres de u : en conclusion, il existe une
partie I ⊂ ‚1, nƒ telle que F = Vect(e i )i ∈I . Réciproquement, ces sous-espaces
conviennent.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap09 chapitre:VIII

102 VIII. Diagonalisation

On remarque que tous ces sous-espaces stables sont cycliques car Vect(e i )i ∈I
P
est le sous-espace cyclique associé au vecteur i ∈I e i . Si l’on considère une ma-
trice diagonale avec des coefficients non distincts, on peut montrer que le sous-
espace associé à une valeur propre multiple est stable sans être cyclique. ◁

5.13. Exercice. Soit u un endomorphisme de K4 tel qu’il existe


— une base (e 1 , e 2 , e 3 , e 4 ) de vecteurs propres
— un plan stable P en somme directe avec chacun des six plans engendrés
par des vecteurs de la base (e 1 , e 2 , e 3 , e 4 ).
Montrer que u est une homothétie.

▷ Éléments de correction. L’endomorphisme induit par u sur le plan P est dia-


gonalisable ; il existe une base (x, y) de P formée de vecteurs propres de u. Re-
marquons que les vecteurs x et y admettent chacun au plus une coordonnée
nulle dans la base (e 1 , e 2 , e 3 , e 4 ), car sinon, ils appartiendraient à P et à un plan
de coordonnées.
Notons λ, µ, λ1 , . . . , λ4 les valeurs propres associées à x, y, e 1 , . . . , e 4 .
. Si x admet quatre coordonnées non nulles x 1 , . . . , x 4 , alors,

λ(x 1 e 1 + · · · + x 4 e 4 ) = u(x) = x 1 u(e 1 ) + · · · + x 4 u(e 4 )


= λ1 x 1 e 1 + · · · + λ4 x 4 e 4 .

On en déduit que les valeurs propres associées à chaque vecteur de la base


(e 1 , e 2 , e 3 , e 4 ) sont toutes égales à la valeur propre associée à x.
On procède de même si y admet toutes ses coordonnées non nulles.
. Si la coordonnée de x selon e 1 est nulle, alors l’argument précédent donne
que les valeurs propres associées à e 2 , e 3 et e 4 sont toutes égales.
— Si la coordonnée de y selon e 1 est non nulle, alors la valeur propre asso-
ciée à e 1 est égale aux valeurs propres associées à deux autres vecteurs
de la base (e 1 , e 2 , e 3 , e 4 ) donc toutes sont égales : u est une homothétie.
— Sinon, il existe une combinaison linéaire non nulle de x et y dans P et le
plan de coordonnées Vect(e 3 , e 4 ) ce qui contredit l’hypothèse.

5.14. Exercice. Soit u un endomorphisme diagonalisable de E et F un sous-


espace de E . Montrer que F admet un supplémentaire stable par u.

▷ Éléments de correction. Considérons une base (e 1 , . . . , e p ) de F et complétons


cette famille libre en une base (e 1 , . . . , e n ) de E avec des vecteurs e p+1 , . . . , e n
issus d’une base de diagonalisation de u. Comme les vecteurs e p+1 , . . . , e n
sont des vecteurs propres associés à u, le sous-espace G = Vect(e p+1 , . . . , e n ) est
stable par u. Comme c’est un supplémentaire de F , il répond à la question. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap09 chapitre:VIII

5. Exercices 103

5.15. Exercice. Soit u un endomorphisme de E de dimension n. Montrer que


u est diagonalisable si, et seulement si, il existe n hyperplans H1 , . . . , Hn de E ,
stables par u et d’intersection {0E }.

▷ Éléments de correction. (⇒) Soit (e 1 , . . . , e n ) une base de diagonalisation de u.


Considérons, pour tout k ∈ ‚1, nƒ, Hk l’espace vectoriel engendré par (e i )i 6=k .
. Comme les e k sont des vecteurs propres, les hyperplans Hk sont stables.
. Soit x un vecteur de l’intersection des Hk . Pour chaque k, x ∈ Hk donc admet
une coordonnée nulle sur e k ; par suite, x = 0E .
(⇐) Rappelons tout d’abord qu’une dimension de p hyperplans est de dimen-
sion au moins n − p. Ainsi, pour tout i ∈ ‚1, nƒ,
\
n
dim Hk = 1.
k=1
k6=i

Considérons e i un vecteur engendrant cette intersection de n − 1 hyperplans.


. Soit i ∈ ‚1, nƒ. Pour tout k 6= i , e i ∈ Hk donc, par stabilité, u(e i ) ∈ Hk . Ainsi,
u(e i ) ∈ Vect(e i ) et donc e i est un vecteur propre de u.
P
. Soit a 1 , . . . , a n ∈ K tels que nk=1 a k e k = 0E . Pour tout i ∈ ‚1, nƒ,
X
n
ai e i = − a k e k ∈ Hi .
k=1
k6=i

Ainsi, a i e i appartient à l’intersection de tous les hyperplans Hk donc est le vec-


teur nul ; Comme e i est non nul, a i = 0.
Par conséquent, la famille (e 1 , . . . , e n ) est libre donc une base de E . Disposant
ainsi d’une base de vecteurs propres de u, on conclut que u est diagonali-
sable. ◁

5.16. Exercice. Déterminer les endomorphismes cycliques diagonalisables.

▷ Éléments de correction. Soit u un endomorphisme cyclique et diagonalisable


d’un espace vectoriel de dimension n. Alors, µu = χu et µu est scindé à racines
simples. Par conséquent, χu est scindé à racines simples : u admet n valeurs
propres distinctes. Réciproquement, cette condition caractérise ainsi les endo-
morphismes cycliques diagonalisables. ◁

5.17. Exercice. Soit A ∈ Mn (K) une matrice diagonalisable. Montrer que


½
Mn (K) → Mn (K)
ad A :
M 7→ AM − M A
est diagonalisable.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap09 chapitre:VIII

104 VIII. Diagonalisation

▷ Éléments de correction. D’après l’exemple VIII -2.9, les deux endomorphismes


G A : M 7→ AM et D A : M 7→ M A sont diagonalisables (car A l’est et qu’ils ad-
mettent les mêmes polynômes annulateurs que A) ; par ailleurs, ils commutent.
Par conséquent, ils sont diagonalisables simultanément dans une base B. Dans
la base B, la matrice de l’endomorphisme ad A = G A − D A est diagonale.
La réciproque est étudiée à l’exercice XI -6.8. ◁

5.18. Exercice. Soit G un sous-groupe fini abélien de GLn (C). Montrer que toutes
les matrices de G sont co-diagonalisables.

▷ Éléments de correction. Les éléments de G sont diagonalisables (si un élément


de G est d’ordre k, alors il annule le polynôme scindé à racines simples X k − 1)
et commutent (car G est abélien) donc sont co-diagonalisables d’après le théo-
rème de réduction simultanée. ◁

5.19. Exercice. Soit G un sous-groupe fini de GLn (R) composé de matrices dia-
gonalisables sur R.
1. Montrer que G est abélien.
2. En déduire que l’ordre de G est inférieur ou égal à 2n .

▷ Éléments de correction.
1. . Soit A ∈ G. Comme G est fini, on dispose de m tel que A m = In . Ainsi,
les valeurs propres de A sont des racines m-ièmes de l’unité. Or, par hy-
pothèse, elles sont réelles donc appartiennent à {±1}. Par suite A 2 = In .
. Pour toutes matrices A, B ∈ G, (AB )2 = In donc en multipliant par A à
gauche et par B à droite : B A = AB . Ainsi, G est abélien.
2. Les matrices de G sont diagonalisables par hypothèse et commutent
d’après la première question, donc sont co-diagonalisables. Il existe donc
une matrice U ∈ GLn (R) telle que, pour tout M ∈ G, P M P −1 est diago-
nale à coefficients diagonaux 1 ou −1 : il y a 2n telles matrices diagonales
donc l’ordre de G est majoré par 2n .

Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX

Chapitre IX

Trigonalisation

Objectifs du chapitre
— Maîtriser le critère de trigonalisation.
— Savoir utiliser la trigonalisation pour retrouver les fonctions symétriques
des racines.

0.1. Définition. . Un endomorphisme est trigonalisable s’il existe une base


dans laquelle sa matrice est triangulaire.
. Une matrice est trigonalisable si elle est semblable à une matrice triangulaire.

0.2. Remarque. Avec la formule de changement de bases, on vérifie immédia-


tement qu’un endomorphisme est trigonalisable si, et seulement si, sa matrice
est trigonalisable.

1. Critères de trigonalisation
Commençons par rappeler le cas simple des endomorphismes nilpotents.

1.1. Proposition. Tout endomorphisme nilpotent admet dans une base adaptée
une matrice triangulaire strictement supérieure.

1.2. Théorème. Soit u une endomorphisme d’un espace vectoriel E . Alors, u est
trigonalisable si, et seulement si, il admet un polynôme annulateur scindé.
Démonstration. (⇒) Si l’endomorphisme u est trigonalisable, il existe une base
dans laquelle sa matrice est triangulaire. Le polynôme caractéristique χu cal-
culé dans cette base est égal au produit des termes X − a i ,i où les a i ,i sont les
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX

106 IX. Trigonalisation

termes diagonaux de la matrice de u dans cette base. Ainsi, χu est scindé et il


est annulateur d’après le théorème de Cayley & Hamilton.
(⇐) Réciproquement, supposons que u admet un polynôme annulateur scindé
Y
m
(X − λi )αi .
k=1

D’après le lemme des noyaux appliqué à ce polynôme, l’espace E est la somme


directe des F λi = ker(u − λi IdE )αi et il suffit donc de montrer que l’endomor-
phisme induit par u sur chacun de ces sous-espaces F λi est trigonalisable.
Chaque endomorphisme induit est la somme d’une homothétie λi IdFλ et d’un
i
endomorphisme nilpotent u Fλ − λi IdFλ . Il existe donc une base de F λi telle
i i
que u Fλ − λi IdFλ s’écrit sous la forme d’une matrice triangulaire supérieure
i i
(Proposition IX -1.1) : l’endomorphisme induit u Fλ est donc trigonalisable. En
i
concaténant les bases obtenues pour chacun de ces sous-espaces, on obtient
une base de E dans laquelle la matrice de u est triangulaire supérieure (et même
diagonale par blocs triangulaires supérieurs). ä

Connaissant la structure de l’idéal des polynômes annulateurs d’un endomor-


phisme, on obtient le corollaire suivant.

1.3. Corollaire. Soit u une endomorphisme d’un espace vectoriel E . Alors, u est
trigonalisable si, et seulement si, son polynôme minimal µu est scindé.

1.4. Corollaire. Un endomorphisme d’un C-espace vectoriel est trigonalisable.


Démonstration. C’est une application directe du résultat ci-dessus en remar-
quant que, d’après le théorème de D’Alembert & Gauss, tous les polynômes
non constants de C[X ] sont scindés. ä

1.5. Corollaire. Soit u un endomorphisme trigonalisable d’un espace vectoriel E


et F un sous-espace stable par u. Alors, l’endomorphisme induit u F est trigona-
lisable.
Démonstration. Par hypothèse µu est scindé. Or, µuF divise µu donc est égale-
ment scindé : l’endomorphisme u F est trigonalisable. ä

En calculant le polynôme caractéristique dans une (éventuelle) base de trigo-


nalisation, on retrouve que les coefficients diagonaux sont exactement les va-
leurs propres (avec leurs multiplicités).

1.6. Corollaire. Soit u un endomorphisme trigonalisable d’un espace vectoriel E .


Alors, la trace et le déterminant de u sont respectivement la somme et le produit
des valeurs propres comptées avec leurs multiplicités.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX

2. Critère de co-trigonalisation 107

2. Critère de co-trigonalisation

2.1. Définition. Une famille finie d’endomorphismes (u 1 , . . . , u N ) d’un espace


vectoriel E est co-trigonalisable s’il existe une base de E dans laquelle chacun
des endomorphismes u k pour k ∈ ‚1, N ƒ admet une matrice triangulaire.

On peut également montrer l’analogue de la proposition VIII -3.3 pour la trigo-


nalisabilité.

2.2. Proposition. Soit u 1 , . . . , u N des endomorphismes trigonalisables de E tels


que u i et u j commutent pour tous i et j ∈ ‚1, N ƒ. Alors, la famille (u 1 , . . . , u N ) est
co-trigonalisable.

Prouvons-le dans le cas de deux matrices trigonalisables qui commutent.

Démonstration. Raisonnons par récurrence sur la dimension n de l’espace.


. Le résultat est évident pour les matrices de taille 1.
. Soit n ∈ N∗ tel que le résultat soit vrai au rang n, A et B ∈ Mn+1 (K) deux
matrices trigonalisables qui commutent. Comme B est trigonalisable, B admet
une valeur propre λ. Le sous-espace propre ker(B − λIn+1 ) est stable par A et
l’endomorphisme induit par A y admet un vecteur propre. En considérant une
base construite en complétant ce vecteur propre commun à A et B , on obtient
que les matrices A et B sont simultanément semblables à des matrices de la
forme
   
µ ? ··· ? λ ? ··· ?
0  0 
   
. , . .
.. Ã  .. B̃ 
0 0

Comme A et B commutent, les matrices à et B̃ ∈ Mn (K) commutent aussi. Par


ailleurs, Ã et B̃ sont aussi trigonalisables (corollaire IX -1.5). Par hypothèse de
récurrence, il existe une matrice P̃ ∈ GLn (K) telle que P̃ Ã P̃ −1 et P̃ B̃ P̃ −1 sont
triangulaires. En considérant la matrice inversible
 
1 0 ··· 0
0 
 
P = .  ∈ GLn+1 (K),
 .. P̃ 
0

et en effectuant les calculs par blocs, on obtient que P AP −1 et P B P −1 sont


toutes les deux diagonales : A et B sont donc simultanément trigonalisables. ä
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX

108 IX. Trigonalisation

3. Fonctions symétriques des valeurs propres

3.1. Définition. Soit λ1 , . . . , λn ∈ C.


. Soit k ∈ N∗ . La k-ième somme de Newton de λ1 , . . . , λn est le complexe
X
n
sk = λkj .
j =1

. Soit k ∈ ‚1, nƒ. La k-ième fonction symétrique élémentaire de λ1 , . . . , λn est


le complexe
X X Y
σk = λi 1 λi 2 · · · λi k = λi .
1Éi 1 <···<i k Én I ∈P k (‚1,nƒ) i ∈I

Rappelons les relations entre coefficients et racines.

3.2. Proposition. Soit λ1 , . . . , λn ∈ C. Les coefficients du polynôme


Y
n X
n−1
P= (X − λ j ) = X n + ak X k
j =1 k=0

s’expriment à l’aide des fonctions symétriques élémentaires. Plus précisément,


pour tout k ∈ ‚1, nƒ,
a n−k = (−1)k σk .

3.3. Lemme. Soit A ∈ Mn (C) et λ1 , . . . , λn ∈ C ses valeurs propres comptées avec


leur multiplicité. Alors,
¡
. La k-ième somme de Newton de λ1 , . . . , λn est tr A k ).
. La k-ième fonction symétrique élémentaire de λ1 , . . . , λn est (−1)n a n−k où
a n−k est le coefficient devant X n−k dans χ A .
Démonstration. La matrice A est semblable à une matrice T triangulaire dont
les coefficients diagonaux sont les λ1 , . . . , λn .
. Pour tout k ∈ N∗ , la matrice A k est semblable à T k , matrice triangulaire
dont les coefficients diagonaux sont les λk1 , . . . , λkn . Par conséquent, La k-ième
somme de Newton de λ1 , . . . , λn est tr(T k ) = tr(A k ).
. Les racines du polynôme caractéristique de A sont les λ1 , . . . , λn . Par consé-
quent, le résultat annoncé provient des relations entre coefficients et racines.ä

Utilisons ce lemme pour établir les formules de Newton qui relient fonctions
symétriques et somme de Newton.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX

3. Fonctions symétriques des valeurs propres 109

3.4. Exemple. Soit λ1 , . . . , λn ∈ C, (s k )k la suite des sommes de Newton asso-


ciées et
Yn Xn
P= (X − λ j ) = aj X j .
j =1 j =0

La matrice compagnon C P associée à P vérifie P (C P ) = 0n d’après le théorème


de Cayley & Hamilton et donc
³X
n ´ ¡ ¢
j
tr a j C P = tr P (C P ) = 0.
j =0
¡ j¢
En remarquant que tr C P = s j pour tout j ∈ ‚0, nƒ, on obtient la première for-
mule de Newton reliant fonctions symétriques et sommes de Newton :
X
n
a j s j = 0.
j =0

Cette première formule de Newton se généralise.

3.5. Proposition. Soit λ1 , . . . , λn ∈ C, (s k )k la suite des sommes de Newton asso-


ciées et
Y
n X
n
P= (X − λ j ) = aj X j .
j =1 j =0

Alors, pour tout k Ê n,


X
n
a j s k−n+ j = 0.
j =0

Comme dans l’exemple précédent, ces formules résulteront d’un judicieux cal-
cul de trace avec le théorème de Cayley & Hamilton.

Démonstration. Le polynôme P est annulateur de la matrice compagnon C P


d’après le théorème de Cayley & Hamilton (puisque P est le polynôme caracté-
¡ ¢
ristique de C P ) donc tr P (C P )C Pk−n = 0, c’est-à-dire par linéarité de la trace
X
n ¡ k−n+ j ¢
a j tr C P = 0.
j =0
¡ k−n+ j ¢
En remarquant que que tr C P = s k−n+ j . ä

3.6. Proposition. Soit λ1 , . . . , λn ∈ C, (s k )k la suite des sommes de Newton asso-


ciées et
Y
n X
n
P= (X − λ j ) = aj X j .
j =1 j =0
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX

110 IX. Trigonalisation

Alors, pour tout k ∈ ‚1, nƒ,

X
k
a n−k+ j s j = (n − k)a n−k .
j =0

Démonstration. Pour mettre en place un argument « de trace » comme dans la


P
preuve précédente, posons, pour tout k ∈ ‚0, nƒ, Q k = n−k j
j =0 a k+ j X . Remar-
quons que Q 0 = χC P , Q n = a n et que, pour tout k ∈ ‚0, n − 1ƒ,

X
n−k X
n−k−1
Q k − XQ k+1 = a k+ j X j − a k+ j +1 X j +1
j =0 j =0

X
n−k X
n−k
= a k+ j X j − a k+ j X j = a k .
j =0 j =1

Alors, pour tout x ∈ C, en utilisant ces expressions des coefficients de P et


Q 0 (C P ) = χC P (C P ) = 0n ,
X
n−1 X¡
n−1 ¢
P (x)In = a n x n In + a k x k In = Q n (C P )x n + Q k (C P ) −C P Q k+1 (C P ) x k
k=0 k=0
X
n−1 X
n−1
= Q k+1 (C P )x k+1 − Q k+1 (C P )C P x k
k=0 k=0
X
n−1
= (xIn −C P ) Q k+1 (C P )x k .
k=0

Pour tout x ∉ {λ1 , . . . , λn }, xIn −C P est inversible donc


X
n−1 ¡ ¢ ¡ ¢
tr Q k+1 (C P ) x k = P (x) tr (xIn −C P )−1 .
k=0

Or,
¡ ¢ X
n 1
P (x) tr (xIn −C P )−1 = P (x) = P 0 (x).
j =1 x − λj

Par rigidité des polynômes, on obtient l’égalité


X
n−1 ¡ ¢
tr Q k+1 (C P ) X k = P 0 .
k=0

Le résultat annoncé provient de l’identification des coefficients devant X n−k−1


X
k ¡ ¢
a n−k+ j s j = tr Q n−k (C P ) = (n − k)a n−k .
j =0

ä
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX

4. Commentaires et développements 111

3.7. Proposition. Soit N ∈ Mn (C). Alors, N est nilpotente si, et seulement si, pour
¡ ¢
tout k ∈ ‚1, nƒ, tr N k = 0.

Démonstration. (⇒) Si N est nilpotente, sa seule valeur propre est 0 donc N


et les puissances N k sont semblables à des matrices triangulaires supérieures
¡ ¢
strictes. Par conséquent, pour tout k ∈ ‚1, nƒ, tr N k = 0.
(⇐) D’après les formules de Newton, toutes les fonctions symétriques des va-
leurs propres de N sont nulles. Par conséquent, χN = X n et le théorème de
Cayley & Hamilton assure que N est nilpotente. ä

3.8. Théorème de Kronecker. Soit P ∈ Z[X ] unitaire dont les racines complexes
sont de module inférieur ou égal à 1. Alors, les racines non nulles de P sont des
racines de l’unité.

Démonstration. . Remarquons tout d’abord qu’il n’y a qu’un nombre fini de


polynômes unitaires de degré n, à coefficients entiers et racines dans le disque
unité : en effet, les fonctions symétriques des racines (donc les coefficients
d’après les relations coefficients-racines) sont des entiers majorés en module
par n!.
Ainsi, l’ensemble R n des racines des polynômes de degré n, à coefficients en-
tiers et racines dans le disque unité est fini.
. Notons n = deg P et considérons z une racine de P . Rappelons que z est
une valeur propre de C P , car P = χC P ; ainsi, pour tout k ∈ N, z k est une va-
leur propre de C Pk donc une racine de χC k . Or, les matrices C Pk sont à coef-
P
ficients entiers donc leurs polynômes caractéristiques appartiennent à Z[X ].
Ainsi, z k ∈ R n pour tout k ∈ N.
Comme R n est fini et contient {z k , k ∈ N}, il existe des entiers k > l tels que
z k = z l ; ainsi, z = 0 ou z est une racine (k − l )-ième de l’unité. ä

4. Commentaires et développements
4.1. La théorie de la dimension fait peu de cas des propriétés propres du corps
de base. Il en est de même des questions relatives à l’étude des systèmes li-
néaires. La réduction, quant à elle, dépend de la nature du corps, notamment
à travers l’existence ou non dans K de valeurs propres. L’arithmétique du corps
intervient essentiellement peu, et se limite à la nature des polynômes irréduc-
tibles. Quand on cherche à réduire une matrice, et plus précisément à la trigo-
naliser, la scindabilité ou non du polynôme caractéristique (ou ce qui revient
au même du polynôme minimal) est la seule donnée essentielle dont il importe
de tenir compte.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX

112 IX. Trigonalisation

En revanche, dans la réduction des formes quadratiques, ou de manière équi-


valente, dans l’étude des classes de congruence des matrices symétriques, de
nombreuses propriétés de nature arithmétique du corps sont essentielles et la
théorie est souvent bien dure.

4.2. Trigonaliser une matrice M , c’est trouver un drapeau complet de Kn stable


par M .

4.3. La mise en phase du lemme des noyaux et de la trigonalisation montre que


pour un endomorphisme de polynôme caractéristique scindé sur K, il existe
une base de Kn où la matrice de l’endomorphisme s’écrit comme matrice dia-
gonale en blocs, avec chaque bloc somme d’une matrice scalaire et d’une ma-
trice triangulaire supérieure stricte.
Ce résultat est ce que l’on peut faire de mieux à un niveau élémentaire, et mon-
trer le chemin qui reste à parcourir pour boucler ce qui reste : rechercher les
classes de similitude des matrices nilpotentes triangulaires supérieures.

4.4. L’ensemble des matrices trigonalisables réelles est un fermé : c’est l’adhé-
rence de l’ensemble des matrices diagonalisables. Cela résulte intuitivement
de ce que le polynôme caractéristique dépend continûment des coefficients de
la matrice et que la limite d’une suite de polynômes scindés est scindée.
Cela met en évidence malgré tout l’importance de travailler avec le polynôme
caractéristique, et que l’usage du polynôme minimal n’est pas adaptée à cette
situation puisqu’il ne définit pas une application continue.

4.5. On démontre que si deux matrices A et B sont co-trigonalisables. Alors,


pour tout P ∈ K[X , Y ], la matrice P (A, B )(AB −B A) est nilpotente. La réciproque
est vraie.

5. Exercices
5.1. Exercice. Soit A ∈ Mn (C) de valeurs propres λ1 , λ2 , . . . , λn ∈ C et P ∈ C[X ].
Déterminer le polynôme caractéristique χP (A) de la matrice P (A).
▷ Éléments de correction. La matrice complexe A est semblable à une matrice
triangulaire dont les coefficients diagonaux sont λ1 , λ2 , . . . , λn . Par conséquent,
la matrice P (A) est semblable à une matrice triangulaire dont les coefficients
diagonaux sont P (λ1 ), P (λ2 ), . . . , P (λn ). En conclusion,
Y
n
χP (A) = (X − P (λk )).
k=1


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX

5. Exercices 113

5.2. Exercice. Soit A ∈ Mn (R) qui admet le polynôme annulateur X 3 − X − 1.


Montrer que le déterminant de A est positif.

▷ Éléments de correction. Les valeurs propres de A sont parmi les racines du


polynôme annulateur X 3 − X − 1 et une rapide étude des variations de la fonc-
tion x 7→ x 3 − x − 1 indique une racine réelle λ strictement positive et deux ra-
cines complexes conjuguées µ et µ. Notons α la multiplicité de la valeur propre
λ et β la multiplicité des deux valeurs propres µ et µ (la multiplicité est la même
pour les deux valeurs propres puisque χ A est à coefficients réels).
Or, le déterminant est le produit des valeurs propres avec leur multiplicité donc

det A = λα µβ µβ = λα |µ|2β > 0.

5.3. Exercice. Déterminer les matrices A ∈ Mn (R) telles que A 5 = A 2 et tr A = n.

▷ Éléments de correction. Le polynôme P = X 5 − X 2 est annulateur de la ma-


trice A donc les valeurs propres de A sont parmi les racines de P , à savoir
{0, 1, j , j 2 }. Par ailleurs, χ A est à coefficients réels donc les éventuelles racines
complexes (conjuguées) j et j 2 ont même multiplicité. Notons a, b et c les mul-
tiplicités de 0, 1 et j dans χ A .
Quitte à trigonaliser A, la trace de A s’exprime comme

n = tr A = b + c( j + j 2 ) = b − c.

Or, a + b + 2c = n (la somme des multiplicités est n). Combinant ces deux ré-
sultats, on obtient c = 0, b = n puis a = 0. Ainsi, la seule valeur propre de A
est 1.
Repartons de la relation P (A) = 0n et simplifions successivement par les ma-
trices inversibles A 2 , A − j In et A − j 2 In (car les complexes 0, j et j 2 ne sont pas
valeurs propres) : on obtient finalement A = In . ◁

5.4. Exercice.
1. Montrer que l’ensemble des matrices admettant n valeurs propres dis-
tinctes est dense dans Mn (C).

2. Retrouver le théorème de Cayley & Hamilton dans Mn (C).

▷ Éléments de correction.
1. Soit A ∈ Mn (C). Comme A est trigonalisable, il existe P ∈ GLn (C) telle
que P AP −1 est triangulaire. Par ailleurs, pour p suffisamment grand, la
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX

114 IX. Trigonalisation

matrice
P AP −1 + p1 diag(1, 2, . . . , n)

est triangulaire avec des coefficients diagonaux deux à deux distincts


donc admettant n valeurs propres distinctes. Par conséquent, la suite
¡ ¢
A + P −1 p1 diag(1, 2, . . . , n)P p

est constituée, à partir d’un certain rang, de matrices à n valeurs propres


distinctes et converge vers A.
En conclusion, l’ensemble des matrices admettant n valeurs propres dis-
tinctes est dense dans Mn (C).
2. Le théorème de Cayley & Hamilton est évident pour les matrices admet-
tant n valeurs propres distinctes et l’application A 7→ χ A (A) est continue.
Ainsi, pour tout A ∈ Mn (C), χ A (A) = 0n .

5.5. Exercice. Soit A ∈ Mn (C) telle que tr(A) = tr(A 2 ) = · · · = tr(A n−1 ). Montrer
que A est diagonalisable ou nilpotente.
▷ Éléments de correction. D’après les formules des sommes de Newton et les
relations coefficients-racines, le polynôme caractéristique est
χ A = X n + (−1)n det(A).
Si det(A) = 0, le théorème de Cayley & Hamilton assure que A est nilpotente.
Sinon, le polynôme caractéristique est scindé à racines simples donc A est dia-
gonalisable (et d’ailleurs, toutes les valeurs propres ont le même module). ◁

5.6. Exercice. Soit A ∈ Mn (R) ; considérons l’endomorphisme ad A de Mn (R) dé-


fini par M 7→ AM − M A.
Q
1. Montrer que s’il existe λ1 , . . . , λn ∈ C tels que χ A = nk=1 (X − λk ), alors
Y
n Y
n ¡ ¢
χad A = X − (λk − λl ) .
k=1 l =1

Indication : on pourra établir le résultat pour des matrices diagonali-


sables puis utiliser un argument de densité.
2. En déduire que si ad A est trigonalisable dans L (Mn (R)), alors A est tri-
gonalisable dans Mn (R).
▷ Éléments de correction.
1. . Commençons par le cas où A est diagonalisable dans Mn (C) : considé-
rons (X 1 , . . . , X n ) et (Y1 , . . . , Yn ) des bases de Mn,1 (C) composées de vec-
teurs propres de A et A > respectivement, associés respectivement aux
valeurs propres λ1 , . . . , λn .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX

5. Exercices 115

On vérifie rapidement que les matrices X i Y j > pour tous i , j ∈ ‚1, nƒ


forment une base de Mn (C) et que, pour tous i , j ∈ ‚1, nƒ,
¡ ¢
ad A X i Y j > = AX i Y j > − X i Y j > A = (λi − λ j )X i Y j > .

Ainsi, on a exhibé une base de diagonalisation de ad A et l’on obtient


l’expression souhaitée du polynôme caractéristique en le calculant dans
cette base.
. Revenons au cas général : on dispose d’une suite (A p )p de matrices
(p)
diagonalisables de limite A et dont les suites de valeurs propres (λ1 )p ,
(p)
. . . , (λn )p convergent vers celles de A. Alors, χad A p → χad A et donc

Y
n Y
n ¡
(p) (p) ¢ Y
n Y
n ¡ ¢
χad A = lim X − (λk − λl ) = X − (λk − λl ) .
p
k=1 l =1 k=1 l =1

2. Décomposons χ A dans C[X ] : soit λ1 , . . . , λn ∈ C les racines (non néces-


sairement distinctes) de χ A . D’après la première question, on obtient la
décomposition en facteurs irréductibles de χad A dans C[X ]. Or, comme
ad A est trigonalisable dans Mn (R), χad A est scindé dans R[X ]. Ainsi,
pour tous k, l ∈ ‚1, nƒ, λk − λl ∈ R.
Ensuite, en sommant ces relations, on obtient, pour tout k ∈ ‚1, nƒ,
X
n
nλk − tr(A) = (λk − λl ) ∈ R .
l =1

Par conséquent, pour tout k ∈ ‚1, nƒ, λk ∈ R. En conclusion, χ A est scindé


dans R[X ] et A est trigonalisable dans Mn (R).

5.7. Exercice. Soit A et B ∈ Mn (C) telles que AB = 0n .


1. Montrer que A et B admettent un vecteur propre commun.
2. Montrer que A et B sont co-trigonalisables.

▷ Éléments de correction. La solution proposée suit la progression de la démons-


tration de la proposition IX -2.2.
1. . Si B admet un vecteur propre X associé à une valeur propre λ 6= 0, alors
B X est à la fois un vecteur propre de B associé à λ et de A associé à 0.
. Si la seule valeur propre de B est 0, alors B est nulle (auquel cas, il n’y
a rien à montrer) ou B est nilpotente (d’après le théorème de Cayley &
Hamilton). Si B est nilpotente d’indice p, il existe X tel que B p−1 X 6= 0n,1
et B p X = 0n−1 : le vecteur B p−1 X est alors vecteur propre de A et de B
associé à la valeur propre 0.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX

116 IX. Trigonalisation

2. En considérant une base construite en complétant un vecteur propre


commun à A et B , on obtient que les matrices A et B sont simultanément
semblables à
   
λ ? ... ? µ ? ... ?
0  0 
   
. , . .
 .. Ã   .. B̃ 
0 0

L’hypothèse AB = 0n entraîne à B̃ = 0n−1 . On conclut par récurrence.

5.8. Exercice. Soit A, B ∈ Mn (C).

1. Supposons qu’il existe α ∈ C tel que AB − B A = αA. Montrer que A et B


sont co-trigonalisables.

2. Supposons qu’il existe α, β ∈ C tel que AB −B A = αA +βB . Montrer que A


et B sont co-trigonalisables.

▷ Éléments de correction.
1. . Si α = 0, c’est la proposition IX -2.2.
. Supposons α 6= 0. Une récurrence donne que, pour tout k ∈ N,

A k B − B A k = αk A k .

L’endomorphisme de Mn (C) défini par M 7→ M B −B M admet un nombre


fini de valeurs propres donc il existe k ∈ N tel que A k = 0n : la matrice A
étant nilpotente, le noyau de A est un sous-espace non trivial et stable
par B . L’endomorphisme induit par B sur le sous-espace ker A est trigo-
nalisable donc admet un vecteur propre dans ker A. Il y a ainsi un vec-
teur propre commun à A et B . On conclut la preuve par récurrence sur
la dimension comme dans la preuve de la proposition IX -2.2 ou dans
l’exercice précédent.

2. Supposons α 6= 0 (sinon, on est dans le cas de la question précédente).


Posons à = αA + βB . Alors,

ÃB − B Ã = α Ã.

D’après la question précédente, Ã et B sont co-trigonalisables ; on en


déduit que A = α1 ( Ã − βB ) et B sont co-trigonalisables.


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX

5. Exercices 117

5.9. Exercice. Soit A, B ∈ Mn (C). Notons E l’ensemble des X ∈ Mn,1 (C) tels que,
¡ ¢
pour tous j , k Ê 1, X ∈ ker A j B k − B k A j . Montrer que A et B admettent un
vecteur propre commun si, et seulement si, E 6= {0n,1 }.

▷ Éléments de correction. (⇒) Soit X un vecteur propre commun à A et B puis λ


et µ les valeurs propres associées. Alors, pour tous j , k Ê 1,
¡ j k ¢ ¡ ¢
A B − B k A j X = A j µk X − B k λ j X = λ j µk − λ j µk X = 0n,1 .

Ainsi, X ∈ E donc E contient un vecteur non nul.


(⇐) . Montrons que le sous-espace E est stable par A.
Soit X ∈ E . Pour tous j , k Ê 1,
¡ j k ¢
A B − B k A j AX = A j B k AX − B k A j +1 X

= A j +1 B k X − B k A j +1 X car B k AX = AB k X puisque X ∈ E ,
= 0n,1 .
¡ ¢
Ainsi, AX ∈ ker A j B k − B k A j pour tous j , k ∈ N∗ et donc AX ∈ E .
. Par symétrie, le sous-espace E est aussi stable par B .
. Soit u et v les endomorphismes canoniquement associés à A et B puis ũ
et ṽ les endomorphismes de E induits par u et v (qui sont correctement définis
d’après les propriétés de stabilité ci-dessus).
Pour tout X ∈ E , X ∈ ker(AB − B A) donc AB X = B AX . Par conséquent, les en-
domorphismes ũ et ṽ commutent et ils sont donc co-trigonalisables. Ainsi, il
existe un vecteur propre commun à ũ et ṽ (car E n’est pas réduit au sous-espace
nul) donc à u et v. En considérant le vecteur colonne associé à ce vecteur, on
obtient un vecteur propre commun à A et B . ◁

5.10. Exercice. Soit N1 , N2 , . . . , Nn ∈ Mn (C) nilpotentes qui commutent deux à


deux. Montrer que N1 N2 · · · Nn = 0n .

▷ Éléments de correction. Comme les matrices N1 , N2 , . . . , Nn sont trigonali-


sables et commutent, elles sont co-trigonalisables : il existe donc T1 , T2 , . . . , Tn
triangulaires supérieures strictes et P inversible telles que Ni = P Ti P −1 pour
tout i ∈ ‚1, nƒ.
Montrons par récurrence sur k ∈ ‚1, nƒ que les coefficients en position (i , j )
avec i Ê j − k + 1 de la matrice T1 T2 · · · Tk sont nuls.
. Pour k = 1, il s’agit simplement de la définition d’une matrice triangulaire
supérieure stricte.
. Soit k ∈ ‚1, n − 1ƒ telle que les coefficients en position (i , j ) avec i Ê j − k + 1
de la matrice T1 T2 · · · Tk sont nuls.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap11 chapitre:IX

118 IX. Trigonalisation

Soit (i , j ) telle que i Ê j − k. Avec des notations évidentes,


X
n
[T1 T2 · · · Tk+1 ]i , j = [T1 T2 · · · Tk ]i ,l [Tk+1 ]l , j
l =1
−1
jX
= [T1 T2 · · · Tk ]i ,l [Tk+1 ]l , j
l =1
= 0, car i Ê l − k + 1.

La récurrence est terminée et l’on en déduit en considérant le cas k = n que la


matrice T1 T2 · · · Tn est nulle. En conclusion,

N1 N2 · · · Nn = P T1 T2 · · · Tn P −1 = 0n .

Une solution alternative repose sur l’exercice III -5.3. ◁

5.11. Exercice. Montrer que tout hyperplan de M3 (C) contient au moins cinq
matrices nilpotentes linéairement indépendantes.

▷ Éléments de correction. Soit H un hyperplan de M3 (C) et A ∈ M3 (C) telle que


© ª
H = M ∈ M3 (C), tr(AM ) = 0 .

La matrice A est trigonalisable donc il existe P inversible et T triangulaire su-


périeure telle que A = P T P −1 . Alors,
© ª
H = P M P −1 ∈ M3 (C), tr(T M ) = 0 .

Il suffit alors de montrer que


© ª
H 0 = M ∈ M3 (C), tr(T M ) = 0 .

contient au moins cinq matrices nilpotentes linéairement indépendantes. On


remarque déjà que les trois matrices nilpotentes de E i j de la base canonique
avec i < j appartiennent à H 0 ; en outre, la forme linéaire M 7→ tr(T M ) de l’es-
pace des matrices triangulaires inférieures strictes admet un noyau de dimen-
sion deux ce qui fournit deux matrices indépendantes des trois déjà choisies.
Ce résultat n’est pas optimal : l’hyperplan des matrices qui admettent un coef-
ficient nul en position (1, 3) admet sept matrices nilpotentes linéairement in-
dépendantes : E 1,2 , E 2,1 , E 2,3 , E 3,1 , E 3,2 ,
   
1 1 0 0 0 0
−1 −1 0 , 0 1 1 .
0 0 0 0 −1 −1

Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

Chapitre X

Réduction dans un espace


euclidien

Objectifs du chapitre
On considère ici connus les rudiments sur les espaces euclidiens, R-espaces
vectoriels de dimension finie munis d’un produit scalaire, de l’existence des
bases orthonormées, des calculs relativement à celles-ci, de la manipulation
des projections orthogonales... pour se concentrer sur des résultats de réduc-
tion d’endomorphismes particuliers d’un espace euclidien.
— Comprendre la réduction des isométries/endomorphismes orthogonaux.
— Maîtriser le théorème spectral et ses applications directes.

1. Rappels sur l’adjoint d’un endomorphisme


1.1. Définition. Soit u un endomorphisme d’un espace euclidien E . L’adjoint
de u est l’unique endomorphisme u ∗ de E qui vérifie, pour tous x, y ∈ E ,

〈x|u(y)〉 = 〈u ∗ (x)|y〉.

1.2. Remarque. D’après la définition, pour tout endomorphisme u d’un espace


euclidien E , (u ∗ )∗ = u.

1.3. Proposition. Soit E un espace euclidien.


. Pour tous endomorphismes u, v de E , et tout λ ∈ R, (u + λv)∗ = u ∗ + λv ∗ .
. Pour tous endomorphismes u et v de E , (u ◦ v)∗ = v ∗ ◦ u ∗ .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

120 X. Réduction dans un espace euclidien

¡ ¢∗
. Pour tout automorphisme u de E , u −1 = (u ∗ )−1 .

1.4. Remarque. D’après ces propriétés, un endomorphisme u d’un espace eu-


clidien E et son adjoint u ∗ ont les mêmes polynômes annulateurs (donc le
même polynôme minimal).

1.5. Proposition. Soit u un endomorphisme d’un espace euclidien E . Alors, la


matrice de u ∗ dans une base orthonormée est la transposée de la matrice de u
dans cette base.

Démonstration. Considérons B = (e 1 , . . . , e n ) une base orthonormée de E .


. D’après les calculs de coordonnées en base orthonormée, le coefficient de
matB (u) en position (i , j ) est 〈u(e j )|e i 〉.
. Par ailleurs, pour tout j ∈ ‚1, nƒ,
X
n X
n
u ∗ (e j ) = 〈u ∗ (e j )|e i 〉e i = 〈e j |u(e i )〉e i .
i =1 i =1

Ainsi, le coefficient de matB (u ∗ ) en position (i , j ) est donc 〈e j |u(e i )〉, c’est-à-


dire le coefficient en position ( j , i ) de la matrice de u. ä

1.6. Proposition. Soit u un endomorphisme d’un espace euclidien E et F un


sous-espace de E . Alors, F est un sous-espace stable par u si, et seulement si, F ⊥
est un sous-espace stable par u ∗ .

Démonstration. Comme l’application adjoint est involutive, il suffit de montrer


l’une des implications.
Supposons que F est stable par u. Alors, pour tous x ∈ F ⊥ et y ∈ F ,

〈u ∗ (x)|y〉 = 〈x|u(y)〉 = 0,

car u(y) ∈ F . Par conséquent, u ∗ (x) ∈ F ⊥ et F ⊥ est stable par u ∗ . ä

2. Endomorphismes orthogonaux
2.1. Définition. Un endomorphisme u d’un espace euclidien E est orthogonal
s’il vérifie l’une des conditions équivalentes suivantes :
1. l’endomorphisme u préserve la norme euclidienne.
2. l’endomorphisme u préserve le produit scalaire.
3. l’endomorphisme u est inversible d’inverse u ∗ .

Démonstration. Démontrons ces équivalences de manière circulaire.


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

2. Endomorphismes orthogonaux 121

(1. ⇒ 2.) Par hypothèse, les formes quadratiques x 7→ ku(x)k2 et x 7→ kxk2 sont
égales ; d’après les identités de polarisation, les formes bilinéaires associées
sont elles aussi égales.
(2. ⇒ 3. ) La condition de préservation du produit scalaire devient avec la défi-
nition de l’adjoint : pour tous x, y ∈ E ,
〈u ∗ ◦ u(x)|y〉 = 〈x|y〉.
Par conséquent, u ∗ ◦ u(x) = x pour tout x ∈ E .
(3. ⇒ 1.) Pour tout x ∈ E ,
kxk2 = 〈x|x〉 = 〈u ∗ ◦ u(x)|x〉 = 〈u(x)|u(x)〉 = ku(x)k2 .
ä

2.2. Remarque. En considérant la matrice A de u dans une base orthonormée,


la dernière condition se traduit par A > A = A A > = In . Les matrices vérifiant
cette condition sont appelées orthogonales et leur ensemble est noté O n (R).
. On notant C 1 , . . . , C n les colonnes d’une matrice A ∈ Mn (R), on vérifie que le
produit scalaire de C i et C j est [A > A]i , j : ainsi, une matrice est orthogonale si,
et seulement si, ses colonnes forment une base orthonormée de Mn,1 (R).
. De même en partant du calcul du produit A A > , on obtient qu’une matrice
est orthogonale si, et seulement si, ses lignes forment une base orthonormée
de M1,n (R).
. En prenant le déterminant dans cette relation, on obtient qu’une matrice
orthogonale est nécessairement de déterminant 1 ou −1. La réciproque est
fausse.

2.3. Proposition. Soit u un endomorphisme d’un espace euclidien E et B =


(e 1 , . . . , e n ) une base orthonormée de E . Alors, u est orthogonal si, et seulement
si, la famille (u(e 1 ), . . . , u(e n )) est une base orthonormée de E .
Démonstration. Le sens direct découle immédiatement de la conservation du
produit scalaire. Le sens retour provient des calculs de norme ou de produit
scalaire en base orthonormée. ä

2.4. Proposition. L’ensemble O (E ) des endomorphismes orthogonaux d’un es-


pace euclidien E est un sous-groupe de GL(E ), appelé groupe orthogonal.
Démonstration. Remarquons tout d’abord que IdE ∈ O (E ). Soit u, v ∈ O (E ).
. Pour tout x ∈ E , ku(x)k = kxk = ku −1 (x)k : ainsi, u −1 ∈ O (E ).
. Pour tout x ∈ E , ku ◦ v(x)k = kv(x)k = kxk ; ainsi, u ◦ v ∈ O (E ).
Ainsi, O (E ) est stable par composition et par passage à l’inverse donc un sous-
groupe de GL(E ). ä
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

122 X. Réduction dans un espace euclidien

Passons désormais à la réduction de ces endomorphismes en commençant par


quelques résultats élémentaires.

2.5. Proposition. Les valeurs propres d’un endomorphisme orthogonal sont de


module 1 ; en particulier, les valeurs propres réelles appartiennent à {±1}.

Démonstration. Soit x un vecteur propre d’un endomorphisme orthogonal u,


associé à la valeur propre λ. Alors, kxk = ku(x)k = |λ|kxk et donc |λ| = 1. ä

2.6. Exemple. . Soit θ ∈ R. La matrice


µ ¶
cos θ − sin θ
sin θ cos θ

est orthogonale de valeurs propres e i θ et e −i θ . Si θ est un multiple de π, cette


matrice est I2 ou −I2 ;
. Soit θ ∈ R. La matrice µ ¶
cos θ sin θ
sin θ − cos θ
est orthogonale de valeurs propres 1 et −1.

Cet exemple décrit en fait le cas général d’un endomorphisme orthogonal du


plan.

2.7. Lemme. Soit u un endomorphisme orthogonal d’un plan vectoriel eucli-


dien. Alors, la matrice de u en base orthonormée est d’une des deux formes sui-
vantes µ ¶ µ ¶
cos θ − sin θ cos θ sin θ
, ,
sin θ cos θ sin θ − cos θ
avec θ ∈ R. En particulier, si u n’admet pas de valeur propre réelle, alors la ma-
trice est de la première forme.

Démonstration. Écrivons la matrice de u dans une base orthonormée :


µ ¶
a b
.
c d

La condition d’orthogonalité entraîne a 2 +c 2 = b 2 +d 2 = 1 et ab +cd = 0. Ainsi,


d’après les deux premières conditions, on dispose de θ, θ 0 ∈ R tels que a = cos θ,
c = sin θ, d = cos θ 0 et b = sin θ 0 ; la dernière condition implique sin(θ + θ 0 ) = 0,
soit θ 0 = −θ mod π, d’où les formes annoncées pour la matrice de u. ä

2.8. Lemme. Soit u un endomorphisme d’un R-espace vectoriel de dimension


n Ê 2 sans valeur propre réelle. Alors, il existe un plan vectoriel stable par u.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

2. Endomorphismes orthogonaux 123

Démonstration. Le polynôme caractéristique de u est produit de polynômes de


degré 2 à discriminant négatif (sinon il y aurait des valeurs propres réelles).
Or, d’après le théorème de Cayley & Hamilton, le polynôme caractéristique est
annulateur donc il existe un polynôme de degré 2 à discriminant négatif Q tel
que Q(u) est non inversible.
Considérons x ∈ kerQ(u) non nul et notons F = Vect(x, u(x)). La famille (x, u(x))
est libre car sinon x serait un vecteur propre de u, donc F est un plan vectoriel.
Il est stable par u, car Q(u)(x) = 0 donc u 2 (x) est combinaison linéaire de x
et u(x) :
u(F ) = Vect(u(x), u 2 (x)) ⊂ Vect(x, u(x)) = F.

2.9. Lemme. Soit u un endomorphisme orthogonal d’un espace euclidien E et F


un sous-espace de E . Si F est stable par u, alors F ⊥ est stable par u.

Démonstration. Soit x ∈ F et y ∈ F ⊥ . Comme u est orthogonal,

〈u(x)|u(y)〉 = 〈x|y〉 = 0.

Donc u(y) ∈ u(F )⊥ . Or, u(F ) ⊂ F et u bijective, donc u(F ) = F . Ainsi, u(y) ∈ F ⊥ .
En conclusion, F ⊥ est stable par u. ä

Assemblons tous ces résultats pour obtenir le théorème suivant.

2.10. Proposition. Soit u un endomorphisme orthogonal d’un espace euclidien E .


Alors, il existe une base orthonormée de E dans laquelle la matrice de u est dia-
gonale par blocs avec des blocs parmi Ip , −Iq , R θ1 , . . . , R θk en notant, pour tout
θ ∈ R \π Z, µ ¶
cos θ − sin θ
Rθ = .
sin θ cos θ
Démonstration. Procédons par récurrence forte sur la dimension de E .
. L’initialisation est simple car le résultat en dimension 1 est évident et en di-
mension 2, il s’agit du lemme X -2.7.
. Soit n > 1. Supposons le résultat établi pour les endomorphismes orthogo-
naux des espaces euclidiens de dimension strictement inférieure à n et consi-
dérons u un endomorphisme d’un espace euclidien E de dimension n.
• Si u admet une valeur propre réelle (donc 1 ou −1), considérons le sous-
espace non nul
F = ker(u − Id) ⊕ ker(u + Id).

Le sous-espace F est stable par u (comme somme de sous-espaces propres)


donc, d’après le lemme X -2.9, F ⊥ est stable par u. L’endomorphisme ũ induit
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

124 X. Réduction dans un espace euclidien

par u sur F ⊥ est encore orthogonal (car il conserve la norme) et

dim F ⊥ = n − dim F < n.

Par hypothèse de récurrence, on dispose d’une base de F ⊥ telle que la ma-


trice de ũ dans cette base soit de la forme voulue. En concaténant des bases
de ker(u − Id) et ker(u + Id) avec cette base de F ⊥ , on obtient une base dans
laquelle u a une matrice de la forme recherchée.
• Si u n’admet pas une valeur propre réelle, alors il existe un plan vectoriel P
stable par u (d’après le lemme X -2.8) et il existe une base de P telle que la
matrice de l’endomorphisme induit par u sur P est de la forme R θ avec θ ∈ R
(d’après le lemme X -2.7). On applique alors l’hypothèse de récurrence à l’endo-
morphisme induit par u sur P ⊥ et on concatène les bases idoines de P et P ⊥ .ä

2.11. Remarque. Si un endomorphisme orthogonal est de déterminant 1, alors


le nombre de −1 sur la diagonale réduite est pair.

2.12. Remarque. Le nature géométrique d’une isométrie u en dimension 3 est


uniquement déterminée par les multiplicités géométriques (c’est-à-dire les di-
mensions des sous-espaces propres) des valeurs propres 1 et −1.
— Si m g (1) = 3 ou si m g (−1) = 3, alors u = Id ou u = −Id.
— Si m g (1) = 2 (et donc m g (−1) = 1), alors u est une réflexion par rapport
au plan E 1 (u).
— Si m g (1) = 1 (et donc m g (−1) = 2), alors u est symétrie orthogonale par
rapport à la droite E 1 (u).
— Si m g (1) = 1 et m g (−1) = 0, alors u est une rotation de paramètre θ ∉ π Z.
— Si m g (1) = 0 et m g (−1) = 1, alors u est la composée d’une réflexion est
d’une rotation de paramètre θ ∉ π Z.

3. Endomorphismes symétriques réels

3.1. Définition. Un endomorphisme u d’un espace euclidien E est symétrique


ou autoadjoint si u = u ∗ , c’est-à-dire si, pour tous x, y ∈ E ,

〈x|u(y)〉 = 〈u(x)|y〉.

3.2. Proposition. Tout projecteur orthogonal d’un espace euclidien E est symé-
trique.

Démonstration. Soit p un projecteur orthogonal sur un sous-espace F de E .


Considérons x et y deux vecteurs de E et x F + x F ⊥ et y F + y F ⊥ leurs décom-
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

3. Endomorphismes symétriques réels 125

positions selon E = F ⊕ F ⊥ . Alors,

〈x F + x F ⊥ |p(y F + y F ⊥ )〉 = 〈x F + x F ⊥ |y F 〉 = 〈x F |y F 〉,
〈p(x F + x F ⊥ )|y F + y F ⊥ 〉 = 〈x F |y F + y F ⊥ 〉 = 〈x F |y F 〉.

D’où 〈x|p(y)〉 = 〈p(x)|y〉. Ainsi, p est un endomorphisme symétrique. ä

3.3. Proposition. Un endomorphisme d’un espace euclidien E est symétrique si,


et seulement si, sa matrice dans une base orthonormée de E est symétrique.

Démonstration. Ce résultat est une simple conséquence du fait que les matrices
de u et u ∗ en base orthonormée sont transposées (Proposition X -1.5). ä

Rappelons le résultat suivant qui lie sous-espace stable par un endomorphisme


et son adjoint.

3.4. Lemme. Soit u un endomorphisme symétrique de E et F un sous-espace


vectoriel de E stable par u. Alors, F ⊥ est également stable par u.

3.5. Proposition. Soit u un endomorphisme symétrique d’un espace euclidien E .


Alors, toutes les valeurs propres de u sont réelles.

Démonstration. Notons S la matrice de u dans une base orthonormée de E ,


λ ∈ C une valeur propre de S et X ∈ Mn,1 (C) un vecteur propre associé. Alors,
> > > ¡ > ¢>
λX X = X λX = X S X = X S X = X > S X .
>
Or, S X = S X = λX car S est à coefficients réels. Par conséquent, λX X = λX > X ,
>
puis λ = λ (car X X = X > X > 0) et donc λ ∈ R. ä

3.6. Exemple. Déterminons une propriété analogue pour les valeurs propres
d’une matrice A ∈ An (R). Soit λ ∈ C une valeur propre de A et X ∈ Mn,1 (C) un
vecteur propre associé. Alors,
> >
λX X = X AX = −X > AX = −λX > X .
>
Ainsi, λ = −λ (car X X = X > X > 0) : les valeurs propres complexes de A sont
des imaginaires purs (et donc la seule valeur propre réelle possible est 0).

3.7. Proposition. Les sous-espaces propres d’un endomorphisme symétrique d’un


espace euclidien sont deux à deux orthogonaux.

Démonstration. Soit u un endomorphisme symétrique, x et y deux vecteurs


propres associés à des valeurs propres distinctes λ et µ. Alors,

λ〈x|y〉 = 〈λx|y〉 = 〈u(x)|y〉 = 〈x|u(y)〉 = 〈x|µy〉 = µ〈x|y〉.


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

126 X. Réduction dans un espace euclidien

Par conséquent, 〈x|y〉 = 0 d’où l’orthogonalité des sous-espaces propres asso-


ciés à λ et µ. ä

3.8. Théorème spectral. Un endomorphisme symétrique d’un espace eucli-


dien est diagonalisable en base orthonormée.

Démonstration. Soit F la somme des sous-espaces propres de u. Comme F est


stable par u, l’orthogonal F ⊥ est également stable par u (lemme X -3.4).
Si F ⊥ 6= {0}, c’est-à-dire si F 6= E , l’endomorphisme ũ, induit par u sur F ⊥ , ad-
met donc une valeur propre complexe et un vecteur propre dans F ⊥ . Or ũ est
symétrique donc cette valeur propre est réelle et ce vecteur propre appartient
à F ce qui contredit le fait que la somme de F et F ⊥ est directe. Ainsi, F = E et
u est diagonalisable.
Comme les sous-espaces propres sont deux à deux orthogonaux, il suffit de
concaténer des bases orthonormées de chacun des sous-espaces propres pour
avoir une base orthonomale de E constituée de vecteurs propres. ä

Traduisons le théorème spectral concernant les endomorphismes en termes de


matrices en remarquant qu’une matrice de passage entre deux bases orthonor-
mées est orthogonale.

3.9. Théorème spectral. Soit S ∈ S n (R). Alors, il existe une matrice O ∈ O n (R) et
des réels λ1 , . . . , λn tels que S = O > diag(λ1 , . . . , λn )O.

3.10. Remarque. Remarquons que ce résultat n’est plus vrai pour les matrices
symétriques complexes comme par exemple pour la matrice complexe sui-
vante qui admet pour seule valeur propre 0 donc n’est pas diagonalisable :
µ ¶
1 i
.
i −1

4. Décomposition polaire

4.1. Définition. Une matrice S ∈ S n (R) est positive, respectivement définie po-
sitive, si la forme bilinéaire symétrique (X , Y ) 7→ X > SY est positive, respective-
ment définie positive.
L’ensemble des matrices symétriques positives, respectivement définies posi-
tives, est noté S n+ (R), respectivement S n++ (R).
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

4. Décomposition polaire 127

¡ ¢
4.2. Remarque. Soit S ∈ S n++ (R). Alors, (X , Y ) 7→ X > SY , et (A, B ) 7→ tr A > SB
définissent des produits scalaires sur Mn,1 (R) et sur Mn (R) respectivement :
la bilinéarité vient de la bilinéarité du produit matriciel et de la linéarité de la
trace ; la symétrie repose sur la symétrie de S et le caractère défini positif de ces
applications provient de la propriété de même nom pour S.

Le théorème spectral permet de caractériser les matrices positives ou définies


positives à partir de leurs valeurs propres.

4.3. Proposition. Soit S ∈ S n (R). Alors, S est positive, respectivement définie po-
sitive, si, et seulement si, ses valeurs propres sont toutes positives, respectivement
strictement positives.

Écrivons la démonstration dans la cas d’une matrice positive : l’autre cas est
analogue.
Démonstration. Soit S ∈ S n (R) et S = O > diag(λ1 , . . . , λn )O une diagonalisation
obtenue avec le théorème spectral X -3.9. Alors,

S ∈ S n+ (R) ⇔ ∀X ∈ Mn,1 (R), X >S X Ê 0


⇔ ∀X ∈ Mn,1 (R), X > O > diag(λ1 , . . . , λn )OX Ê 0
⇔ ∀Y ∈ Mn,1 (R), Y > diag(λ1 , . . . , λn )Y Ê 0
Xn
⇔ ∀Y ∈ Mn,1 (R), λi [Y ]2i Ê 0
i =1
⇔ ∀i ∈ ‚1, nƒ, λi Ê 0.

Pour le sens direct de la dernière équivalence, il suffit de spécifier les colonnes Y


avec les vecteurs de la base canonique de Mn,1 (R). ä

4.4. Remarque. On retrouve bien qu’une matrice symétrique définie positive


est inversible puisqu’elle n’admet pas 0 comme valeur propre.

4.5. Proposition. Soit S ∈ S n+ (R). Alors, il existe une unique R ∈ S n+ (R) telle que
S = R 2 . De plus, si S ∈ S n++ (R), alors R ∈ S n++ (R).
Démonstration. . D’après le théorème spectral, il existe une matrice O ∈ O n (R)
et des réels positifs λ1 , . . . , λn tels que

S = O > diag(λ1 , . . . , λn )O.


¡p p ¢
La matrice R = O > diag λ1 , . . . , λn O est alors bien symétrique positive (ou
définie positive si aucun des λi n’est nul) et
¡p p ¢ ¡p p ¢
R 2 = O > diag λ1 , . . . , λn OO > diag λ1 , . . . , λn O
¡p p ¢2
= O > diag λ1 , . . . , λn O = S.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

128 X. Réduction dans un espace euclidien

. Passons à l’unicité : considérons R 0 ∈ S n+ (R) une autre racine carrée de S.


Remarquons que R 0 commute avec S (car R 0 S = R 03 = SR 0 ) donc avec tout poly-
nôme en S. Or, en considérant un polynôme interpolateur Q qui envoie chaque
p
λk sur λk , on obtient R = Q(S). Ainsi, R et R 0 commutent donc sont co-
diagonalisables. Comme leurs valeurs propres respectives sont positives et ont
le même carré, elles sont égales puis R = R 0 . ä

4.6. Décomposition polaire. Soit M ∈ GLn (R). Alors, il existe une unique dé-
composition M = OS avec O ∈ O n (R) et S ∈ S n++ (R).

Démonstration. Remarquons que la matrice M > M est symétrique définie posi-


tive car, pour tout X ∈ Mn,1 (R),

X > M > M X = kM X k2 Ê 0,

et ce terme est nul si, et seulement si, M X = 0n,1 donc X = 0n,1 par inversibilité
de M .
Avec le résultat précédent pour M > M ∈ S n++ (R), il existe une unique matrice
S ∈ S n++ (R) telle que M > M = S 2 . En multipliant à gauche et à droite par la
matrice symétrique S −1 on en déduit que la matrice O = M S −1 vérifie O > O = In
donc O est orthogonale. ä

4.7. Remarque. Cette décomposition est appelée « polaire » par analogie à l’écri-
ture des complexes non nuls sous la forme du produit d’un réel strictement
positif par une exponentielle complexe. Pour bien le comprendre, assimilons
un complexe a + i b avec a, b ∈ R à la similitude s : z 7→ (a + i b)z du R-espace
vectoriel C ; dans la base canonique, la matrice de s est
µ ¶
a −b
= OS,
b a

où O ∈ O 2 (R) est la matrice de la rotation d’angle θ = arg(a + i b) et S la matrice


p
a 2 + b 2 I2 de l’homothétie de paramètre |a + i b|.

4.8. Remarque. Soit M ∈ GLn (R). La décomposition polaire de M > donne la


décomposition M = SO avec O ∈ O n (R) et S ∈ S n++ (R).

5. Endomorphismes normaux réels


5.1. Définition. Un endomorphisme u d’un espace euclidien E est normal s’il
commute avec son adjoint u ∗ , c’est-à-dire s’il vérifie u ◦ u ∗ = u ∗ ◦ u.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

5. Endomorphismes normaux réels 129

5.2. Exemple. Les endomorphismes orthogonaux ou symétriques sont des cas


particuliers d’endomorphismes normaux.

5.3. Lemme. Soit u un endomorphisme normal d’un espace euclidien E et F un


sous-espace vectoriel de E . Alors, F ⊥ est stable par u.
Démonstration. Considérons une base orthonormée B obtenue par concaté-
nation d’une base orthonormée de F et d’une base orthonormée de F ⊥ . La
matrice de u dans cette base est donc de la forme
µ ¶
A B
.
0r,n−r C
Réécrivons matriciellement la relation u ◦ u ∗ = u ∗ ◦ u :
µ ¶µ ¶ µ > ¶µ ¶
A B A > 0n−r,r A 0n−r,r A B
> > = > > .
0r,n−r C B C B C 0r,n−r C

En considérant le bloc en haut à gauche, on obtient A A > + B B > = A > A ce qui


entraîne, en passant à la trace, tr(B B > ) = 0 soit encore la matrice B est nulle.
Ainsi, la matrice de u dans la base considérée est diagonale par blocs et donc
F ⊥ est stable par u. ä

5.4. Lemme. Soit u un endomorphisme normal d’un plan euclidien de base or-
thonormée B qui n’admet pas de valeur propre réelle. Alors, il existe a, b ∈ R tels
que la matrice de u dans B est de la forme
µ ¶
a −b
.
b a
Démonstration. Notons cette matrice
µ ¶
a c
.
b d
La relation u ◦ u ∗ = u ∗ ◦ u se réécrit avec les conditions (b − c)(a − d ) = 0 et
b 2 = c 2 . Ce système est satisfait si b = c (mais ce cas est impossible car, alors, la
matrice serait symétrique donc diagonalisable sur R) ou si b = −c et a = d . ä

Assemblons tous ces résultats pour obtenir le théorème suivant.

5.5. Proposition. Dans une base orthonormée convenablement choisie, un en-


domorphisme normal d’un espace euclidien admet une matrice diagonale par
blocs avec des blocs parmi ceux de la forme λIp avec λ ∈ R ou de la forme
µ ¶
a −b
b a
avec a ∈ R et b ∈ R∗ .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

130 X. Réduction dans un espace euclidien

La démonstration de ce résultat par récurrence sur la dimension est analogue


à celle de la réduction des endomorphismes orthogonaux.
Réécrivons ce résultat pour les matrices normales.

5.6. Proposition. Soit A ∈ Mn (R) normale. Alors, il existe O ∈ O n (R) telle que la
matrice O AO > = O AO −1 est diagonale par blocs avec des blocs parmi ceux de la
forme λIp avec λ ∈ R ou de la forme
µ ¶
a −b
b a
avec a ∈ R et b ∈ R∗ .

On retrouve les cas particuliers déjà traités des matrices orthogonales ou symé-
triques. Voici un autre cas particulier intéressant.

5.7. Corollaire. Soit A ∈ An (R). Alors, il existe O ∈ O n (R) telle que la matrice
O AO > = O AO −1 est diagonale par blocs avec des blocs parmi ceux de la forme 0p
ou de la forme
µ ¶
0 −a
a 0
avec a ∈ R∗ . En particulier, le rang de la matrice A est pair.

5.8. Proposition. Soit A ∈ Mn (R). Alors, A est normale si, et seulement si, il existe
un polynôme P ∈ R[X ] tel que A > = P (A).
Démonstration. (⇐) Le sens retour est immédiat : si la matrice A > est un poly-
nôme en A, elle commute avec A.
(⇒) . Remarquons tout d’abord que pour le bloc
µ ¶
a −b
S a,b =
b a

avec a ∈ R et b ∈ R∗ , la condition S a,b > = P (S a,b ) se réécrit avec la congruence


£ ¤
P = 2a − X X 2 − 2aX + a 2 + b 2 ,

car S a,b > + S a,b = 2aI2 et µS a,b = X 2 − 2aX + a 2 + b 2 .


. De même, pour λ ∈ R et p ∈ N∗ , la condition λIp = P (λI p ) se réécrit avec la
congruence
P = X [X − λ].
. Réduisons désormais la matrice A : il existe O ∈ O n (R) telle que la matrice
O AO > est diagonale par blocs avec des blocs de la forme λIp , et des blocs de la
forme S a,b .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

6. Commentaires et développements 131

Un polynôme P ∈ R[X ] vérifie A > = P (A) si, et seulement si, il vérifie la condi-
tion analogue pour chacun des blocs de la réduite. D’après les deux premiers
points, cette conditions équivaut à un système de congruences. On remarque
que les différents modulos sont deux à deux premiers entre eux (comparer par
exemple les racines complexes de ces polynômes).
D’après le théorème des restes chinois, il existe un polynôme P ∈ R[X ] qui sa-
tisfait l’ensemble de ces congruences donc qui vérifie A > = P (A). ä

6. Commentaires et développements
6.1. Un espace hermitien E est un C-espace vectoriel de dimension finie muni
d’un produit scalaire hermitien, c’est à dire d’une application (x, y) 7→ 〈x|y〉 à
symétrie hermitienne (c’est-à-dire telle que 〈x|y〉 = 〈y|x〉), linéaire en la pre-
mière variable, semi-linéaire en la seconde, et définie positive. On définit en-
suite, comme dans le cas réel, la norme associée au produit scalaire et les dif-
férentes notions d’orthogonalité. Dans ce qui suit, l’expression base orthonor-
mée désigne une base orthonormée pour le produit scalaire hermitien.
Étant donné un espace hermitien E , on définit l’adjoint u ∗ d’un endomor-
phisme u de E par la relation
∀x, y ∈ E , 〈x|u(y)〉 = 〈u ∗ (x)|y〉.
>
La matrice en base orthonormée de l’adjoint u ∗ est alors M ∗ = M , la transpo-
sée de la conjuguée de la matrice M de u dans cette base.

6.2. Le groupe qui gère la géométrie d’un espace hermitien E est le groupe
unitaire, composé des endomorphismes u ∈ L (E ) vérifiant u◦u ∗ = u ∗ ◦u = IdE .
On vérifie immédiatement qu’un endomorphisme est unitaire si, et seulement
si, il satisfait l’une des conditions équivalentes suivantes
— il conserve le produit scalaire hermitien,
— il conserve la norme hermitienne,
— il transforme une base orthonormée en base orthonormée,
— sa matrice M en base orthonormée satisfait la relation M M ∗ = In (ou de
manière équivalente M ∗ M = In ).

6.3. Le théorème de Schur exprime que toute matrice de Mn (C) est trigonali-
sable en base orthonormée. Précisons les résultats de réduction pour les diffé-
rentes matrices considérées dans le cas complexe.
— Une matrice M est hermitienne, c’est-à-dire M ∗ = M , si, et seulement
si, elle est diagonalisable en base orthonormée avec des valeurs propres
réelles.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

132 X. Réduction dans un espace euclidien

— Une matrice M est antihermitienne, c’est-à-dire M ∗ = −M , si, et seule-


ment si, elle est diagonalisable en base orthonormée avec des valeurs
propres imaginaires pures.
— Une matrice M est unitaire, c’est-à-dire M ∗ = M −1 , si, et seulement si,
elle est diagonalisable en base orthonormée avec des valeurs propres de
module 1.
— Une matrice M est normale, c’est-à-dire M M ∗ = M ∗ M , si, et seulement
si, elle est unitairement diagonalisable : il existe une matrice unitaire U
telle que U MU −1 est diagonale.

6.4. L’action du groupe unitaire par multiplication à gauche sur Mn (C) est fa-
cile à caractériser : deux matrices M et N appartiennent à la même orbite si, et
seulement si, M ∗ M = N ∗ N .
En particulier, une matrice M est normale si, et seulement si, M et M ∗ appar-
tiennent à la même orbite pour cette action.
Rappelons que les orbites de l’action du groupe linéaire par multiplication à
gauche sur Mn (C) sont caractérisées par le noyau.

6.5. Les matrices hermitiennes de taille n forment un R-espace vectoriel H n (C)


qui se décompose en la somme directe S n (R) ⊕ i An (R) de dimension n 2 . On a
immédiatement la décomposition Mn (C) = H n (C) ⊕ i H n (C).

6.6. Dans le cas hermitien, la décomposition polaire devient : toute matrice


complexe inversible se décompose de manière unique comme produit d’une
matrice unitaire et d’une matrice hermitienne définie positive. C’est une consé-
quence du caractère bijectif de l’application M 7→ M 2 de l’ensemble des ma-
trices hermitiennes positives sur lui-même.

7. Exercices
7.1. Exercice. Soit u un endomorphisme d’un espace euclidien E . Montrer que
ker u ∗ = (im u)⊥ et im u ∗ = (ker u)⊥ .

▷ Éléments de correction. En passant à l’orthogonal et en utilisant la propriété


d’involution de l’adjoint, il suffit de démontrer ker u ∗ = (im u)⊥ . Pour tout x ∈ E ,

x ∈ ker u ∗ ⇔ u ∗ (x) = 0E
⇔ ∀y ∈ E , 〈u ∗ (x)|y〉 = 0
⇔ ∀y ∈ E , 〈x|u(y)〉 = 0
⇔ x ∈ (im u)⊥ .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

7. Exercices 133

Si l’on considère un endomorphisme normal u , on obtient classiquement

ker u = ker u ∗ ◦ u = ker u ◦ u ∗ = ker u ∗ ,

puis, avec le résultat de cet exercice, que ker u et im u sont des supplémen-
taires orthogonaux. Cela entraîne classiquement que 0 est valeur propre de u
avec la multiplicité minimale 1. On peut alors poursuivre en remarquant que,
pour tout λ ∈ R, u − λIdE est normal et obtenir le même résultat pour toutes les
valeurs propres (réelles). ◁

7.2. Exercice. Déterminer les endomorphismes à la fois symétriques et orthogo-


naux.

▷ Éléments de correction. Si un endomorphisme u est à la fois symétrique et


orthogonal, alors u = u ∗ et u ◦ u ∗ = IdE . Par conséquent, u 2 = Id, c’est-à-dire u
est une symétrie. De plus, d’après l’exercice précédent,
¡ ¢⊥
ker(u − Id) = ker(u − Id)∗ = im(u − Id) .

En conclusion, u est une symétrie associée à une décomposition en somme


directe de deux espaces orthogonaux.
Réciproquement, toute symétrie orthogonale convient. ◁

7.3. Exercice. Soit E un espace euclidien, p et q des projecteurs orthogonaux.


Montrer que Sp(p + q) ⊂ [0, 2].

▷ Éléments de correction. Les projecteurs orthogonaux p et q sont des endo-


morphismes symétriques donc p + q est aussi symétrique. Ainsi, Sp(p + q) ⊂ R.
Soit λ une valeur propre de p + q et x un vecteur propre associé. Alors,

λkxk2 = λ〈x|x〉 = 〈x, (p + q)(x)〉 = 〈x|p(x)〉 + 〈x|q(x)〉 = kp(x)k2 + kq(x)k2 .

Par ailleurs, comme p et q sont des projecteurs orthogonaux, kp(x)k2 É kxk2 et


kq(x)k2 É kxk2 (inégalité de Bessel, conséquence du théorème de Pythagore).
Ainsi,
0 É λ〈x|x〉 É 2kxk2 ,

donc λ ∈ [0, 2]. ◁

7.4. Exercice. Soit A ∈ S n (R), λ1 É · · · É λn ses valeurs propres et (X 1 , . . . , X n ) une


base orthonormée de vecteurs propres associés. Fixons k ∈ ‚1, nƒ.
1. Posons Vk = Vect(X 1 , . . . , X k ). Montrer que
© ª
λk = max X > AX , X ∈ Vk , kX k = 1 .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

134 X. Réduction dans un espace euclidien

2. Notons E k l’ensemble des sous-espaces vectoriels de Mn,1 (R) de dimen-


sion k. Montrer que
© ª
λk = min max X > AX , X ∈ V, kX k = 1 .
V ∈E k

Indication : on pourra montrer que, pour tout V ∈ E k , le sous-espace



V ∩ Vk−1 n’est pas réduit à 0E .

▷ Éléments de correction.
1. Soit X ∈ Vk un vecteur unitaire. Écrivons ses coordonnées dans la base
P
orthonormée (X 1 , . . . , X k ) : X = kj=1 α j X j . Alors,

X
k X
k
X > AX = αi α j X i > AX j
i =1 j =1

X
k X
k
= αi α j λ j X i > X j
i =1 j =1

X
k
= α2j λ j É λk kX k2 = λk .
j =1

Ainsi, λk est bien un majorant de l’ensemble considéré. Or, il appartient


à cet ensemble pour le vecteur X = X k : c’est bien le plus grand élément
de celui-ci.
2. . D’après la première question,
© ª © ª
min max X > AX , X ∈ V, kX k = 1 É max X > AX , X ∈ Vk , kX k = 1 = λk .
V ∈E k


. Soit V ∈ E k . L’orthogonal Vk−1 est de dimension n−dimVk−1 = n−k+1.

Par conséquent, V et Vk−1 ne sont pas en somme directe. Considérons X
⊥ ⊥
vecteur unitaire dans V ∩Vk−1 . Comme Vk−1 = Vect(X k , . . . , X n ), un calcul
analogue à celui de la première question donne

X > AX Ê λk kX k2 = λk ,
et donc, © ª
max X > AX , X ∈ V, kX k = 1 Ê λk .
En conclusion,
© ª
λk = min max X > AX , X ∈ V, kX k = 1 .
V ∈E k

Ce résultat, appelé théorème de Courant-Fischer, admet une autre formula-


tion ; sous les mêmes hypothèses et avec les mêmes notations,
© ª
λk = max min X > AX , X ∈ V, kX k = 1 .
V ∈E n−k+1


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

7. Exercices 135

7.5. Exercice. Soit S ∈ S n++ (R). Montrer que S −1 est symétrique définie positive
puis que, pour tout X ∈ Mn,1 (R), kX k4 É X > S X · X > S −1 X .

▷ Éléments de correction. Considérons S = O > diag(λ1 , . . . , λn )O la décomposi-


tion obtenue avec le théorème spectral. Comme S est définie positive, ses va-
leurs propres λ1 , . . . , λn sont strictement positives.
¡ ¢
. On trouve immédiatement S = O > diag λ11 , . . . , λ1n O donc S −1 est symétrique
réelle avec valeurs propres strictement positives : S −1 ∈ S n++ (R).
On peut généraliser ce résultat par un passage à la limite : la comatrice d’une
matrice symétrique positive est symétrique positive.
. Soit X ∈ Mn,1 (R). Notons OX = (y i )i . Alors, en réécrivant le terme de gauche
puis en utilisant l’inégalité de Cauchy & Schwarz, on obtient
³X
n ´2
kX k4 = kOX k4 = y i2
i =1
³X
n p ´2
= λi y i · p1 y i
λi
i =1
³X
n ´ ³X
n ´
É λi y i2 · 1
λi y i2
i =1 i =1
¡ ´
= (OX ) diag(λ1 , . . . , λn )OX · (OX )> diag
> 1 1
λ1 , . . . , λn OX

= X > S X · X > S −1 X .

7.6. Exercice. Soit S ∈ S n (R) de valeurs propres λ1 É · · · É λn . Montrer que
X
n X
n X
n
[S]2i , j = λ2k .
i =1 j =1 k=1

▷ Éléments de correction. Appliquons le théorème spectral : il dispose d’une ma-


trice O ∈ O n (R) telle que S = O > diag(λ1 , . . . , λn )O. Alors,
X
n X
n ¡ ¢ ¡ ¢
[S]2i , j = tr S > S = tr O > diag(λ1 , . . . , λn )OO > diag(λ1 , . . . , λn )O
i =1 j =1
¡ ¢
= tr diag(λ1 , . . . , λn )2
X
n
= λ2k .
k=1


7.7. Exercice. Déterminer les matrices de Mn (R) nilpotentes et antisymétriques.
▷ Éléments de correction. Pour une telle matrice A ∈ Mn (R), A 2 est symétrique
et nilpotente donc diagonalisable et nilpotente. Ainsi, A 2 = 0n . On conclut alors
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

136 X. Réduction dans un espace euclidien

que A est nulle en remarquant que sa norme euclidienne est

kAk2 = tr(A > A) = − tr(A 2 ) = 0.

Ce résultat s’obtient directement avec le résultat de réduction X -5.7. ◁

7.8. Exercice. Soit A ∈ Mn (R) nilpotente telle que A > A = A A > . Montrer que A
est la matrice nulle.

▷ Éléments de correction. La matrice A > A est symétrique réelle donc diagona-


lisable. Par ailleurs, d’après l’hypothèse de commutation, elle est nilpotente car
¡ ¢n
(A > A)n = A > A n = 0n . Par suite, la matrice A > A est nulle.
En prenant la trace, on obtient que kAk2 = 0 donc A = 0n .
On a établi qu’une matrice nilpotente et normale est nulle. Pour obtenir ce
point, on aurait également pu utiliser le résultat de réduction de l’endomor-
phisme normal associé à A dans une base orthonormée. ◁

7.9. Exercice. Soit S ∈ S n+ (R) et O ∈ O n (R). Montrer que tr(SO) É tr S.

▷ Éléments de correction. D’après la proposition X -4.5, on dispose d’une ma-


trice R ∈ S n+ (R) telle que S = R 2 . Alors, l’inégalité de Cauchy & Schwarz pour le
produit scalaire canonique donne
¡ ¢ ¡ ¢
tr(SO)2 = tr(R · RO)2 É tr R > R tr (RO)> RO
¡ ¢ ¡ ¢
= tr R 2 tr R 2 OO >
¡ ¢2
= tr R 2 = (tr S)2 .

7.10. Exercice. Soit S ∈ S n (R) de valeurs propres λ1 É · · · É λn . Posons


© ª
A = (X , Y ) ∈ Mn,1 (R)2 , kX k = kY k = 1 et X > Y = 0 .

1. Soit X , Y ∈ Mn,1 (R) deux vecteurs unitaires et orthogonaux. Montrer que


¡ X +Y X −Y ¢
p , p appartient à A .
2 2
© ª
2. Montrer que λn − λ1 = 2 sup X > SY , (X , Y ) ∈ A .

▷ Éléments de correction.
1. Vérifions les conditions. D’une part d’après le théorème de Pythagore,
° ° ° ° ° °
° Xp±Y °2 ° pX °2 ° pY °2 1
° ° = ° ° + ° ° = + 12 = 1.
2 2 2 2
D’autre part, d’après une identité remarquable,
D ¯ −Y E °
+Y ¯ Xp
Xp
° ° °
° °2 ° °2
= ° pX ° − ° pY ° = 0.
2 2 2 2
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

7. Exercices 137

+Y
2. . Soit (X , Y ) ∈ A . Posons U = Xp
et V = Xp−Y . En inversant ces rela-
2 2
Up+V
tions, on obtient X = et Y = Up−V puis
2 2

2X > SY = (U + V )> S(U − V ) = U > SU −U > SV + V > SU − V > SV.

Or, U > SV = V > SU (par transposition de cette matrice de taille 1) donc

2X > SY = U > SU − V > SV.

Il ne reste alors plus qu’à constater que U > SU É λn kU k2 = λn puis que


V > SV Ê λkV k2 = λ1 en effectuant les calculs dans une base orthonor-
mée composée de vecteurs propres de S. En conclusion,
© ª
2 sup X > SY , (X , Y ) ∈ A É λn − λ1 .

. Soit X 1 et X n des vecteurs propres unitaires de S associés respective-


ment à λ1 et λn (en imposant l’orthogonalité si λ1 = λn ). Alors, d’après
¡ ¢
la première question, X np+X 1 , X np−X 1 ∈ A donc
2 2
© ª X n> +X 1> X n −X 1
2 sup X > SY , (X , Y ) ∈ A Ê 2 p S p
2 2
> >
= Xn S Xn − X1 S X1 = λn − λ1 .

7.11. Exercice. Soit A ∈ Mn (R). Montrer l’équivalence entre les propositions


— A admet une famille libre de k vecteurs propres,
— il existe une matrice S ∈ S n+ (R) de rang k telle que AS = S A > .

▷ Éléments de correction. (⇒) Soit (X 1 , . . . , X k ) une famille libre de k vecteurs


propres et λ1 , . . . , λk les valeurs propres associées. Posons
X
k
S= Xl Xl >.
l =1

Alors, S est clairement une matrice symétrique et, pour tout Y ∈ Mn,1 (R),
X
k ¡ ¢2
Y > SY = Y > X l Ê 0.
l =1

Ainsi S ∈ S n+ (R). Par ailleurs,


X
k ¡ ¢ Xk
rg(S) É rg X l X l > = 1 = k.
l =1 l =1

On remarque ensuite que, pour tout j ∈ ‚1, kƒ, X j ∈ im S en considérant un ar-


gument X orthogonal à (X i )i 6= j mais pas à X j (qui existe car (X 1 , . . . , X k ) est une
famille libre. En conclusion, im S contient (X 1 , . . . , X k ) d’où rg S = k.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

138 X. Réduction dans un espace euclidien

(⇐) Soit S ∈ S n+ (R) de rang k telle que AS = S A > . D’après le théorème spectral,
on dispose de O ∈ O n (R) et de k réels positifs λ1 , . . . , λk tels que

S = O > diag(λ1 , . . . , λk , 0, . . . , 0)O.

La condition AS = S A > se réécrit alors

O AO > diag(λ1 , . . . , λk , 0, . . . , 0) = diag(λ1 , . . . , λk , 0, . . . , 0)O A > O > .

En écrivant les matrices par blocs de la forme suivante


µ ¶ µ ¶
A1 A2 D2 0k,n−k
O AO > = , diag(λ1 , . . . , λk , 0, . . . , 0) = ,
A3 A4 0n−k,k 0n−k
¡p p ¢
avec notamment A 1 ∈ Mk (R) et D = diag λ1 , . . . , λk ∈ GLk (R) et en remar-
quant que O A > O > est la transposée de O AO > , on obtient que A 3 = 0n−k,k et
A1D 2 = D 2 A>
1 . Cette dernière condition indique alors que la matrice D
−1
A1D
est symétrique réelle donc diagonalisable et semblable à une matrice diago-
nale D 1 .
Ainsi, A est semblable à la matrice
µ ¶
A1 A2
O AO > =
0n−k,k A4

donc à une matrice de la forme


µ ¶
D1 ?
.
0n−k,k ?

Ainsi, A admet au moins k vecteurs propres. ◁

7.12. Exercice. Soit A ∈ Mn (R). Montrer que A est diagonalisable si, et seulement
si, il existe S ∈ S n++ (R) et S 0 ∈ S n (R) telles que A = SS 0 .

▷ Éléments de correction. (⇒) Considérons P ∈ GLn (R) et D ∈ Mn (R) diagonale


telles que A = P DP −1 . Alors,
¡ ¢−1 ¡ ¢¡¡ ¢−1 ¢
A = P P > P > DP −1 = P P > P > DP −1 .
¡ ¢−1
On conclut en vérifiant que P P > ∈ S n++ (R) et P > DP −1 ∈ S n (R).
(⇐) Considérons la matrice R ∈ S n++ (R) telle que S = R 2 (Proposition X -4.5).
On remarque alors que la matrice A est semblable à

R −1 AR = R −1 R 2 S 0 R = RS 0 R.

Par ailleurs, la matrice RS 0 R est symétrique réelle donc diagonalisable : par


suite, A est diagonalisable. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

7. Exercices 139

7.13. Exercice. Soit K un sous-groupe compact de GLn (R) contenant O n (R).


Montrer que K = O n (R).
Indication : on pourra considérer la décomposition polaire des éléments de K .

▷ Éléments de correction. Soit A ∈ K . Conformément à l’indication, introdui-


sons S ∈ S n++ (R) et O ∈ O n (R) telles que A = OS. Alors, S = O −1 A appartient
à K comme produit de deux éléments du groupe K . Ensuite, pour tout k ∈ Z,
S k ∈ K . Ainsi, la suite (S k )k∈Z est bornée et donc, pour tout λ ∈ Sp(S), (λk )k∈Z est
bornée. Par suite, |λ| = 1. Or, S est symétrique définie positive, donc diagonali-
sable sur R : 1 est donc son unique valeur propre et S = In , puis A = O ∈ O n (R).
En conclusion, K = O n (R). ◁

7.14. Exercice. Soit p un projecteur d’un espace euclidien E qui est un endomor-
phisme normal. Montrer que p est un projecteur orthogonal, c’est-à-dire associé
à une décomposition en somme orthogonale.

▷ Éléments de correction. Comme p ∗ commute avec p, im p ∗ est stable par p


donc s’écrit de la forme F ⊕ G avec F sous-espace de im p et G sous-espace
de ker p. Or im p ∗ = (ker p)⊥ donc G = {0E } et (ker p)⊥ = F ⊂ im p ; comme
dim(ker p)⊥ = dim im p, im p = (ker p)⊥ et p est un projecteur orthogonal. ◁

7.15. Exercice. Soit A ∈ Mn (R). Montrer que A est normale si, et seulement si, il
existe O ∈ O n (R) telle que A > = O A.

▷ Éléments de correction. (⇒) On vérifie le résultat pour la matrice de simili-


tude associée à a ∈ R et b ∈ R∗ , définie par
µ ¶
a −b
S a,b = ,
b a

avec la matrice orthogonale suivante


µ 2 ¶
1 a − b2 2ab
O a,b = a 2 +b .
2
−2ab a2 − b2

Comprenons ce résultat géométriquement : l’endomorphisme canoniquement


p
associé à S a,b est la composition de l’homothétie h de rapport a 2 + b 2 et d’une
rotation ρ θ (avec θ ∈ R qui dépend de a et b ) ; par suite, l’endomorphisme as-
socié à S a,b > est h ◦ ρ −θ et l’endomorphisme associé à O a,b est la rotation ρ −2θ .
Pour traiter le cas général d’une matrice normale A, on commence par la ré-
duire avec la proposition X -5.5 ; ensuite, on considère la matrice orthogonale
déduite de la réduite diagonale par blocs de A en remplaçant les blocs λIp
par Ip et les blocs S a,b par O a,b et l’on vérifie qu’elle convient.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap4 chapitre:X

140 X. Réduction dans un espace euclidien

(⇐) D’après la décomposition proposée pour la transposée, A > A = O A 2 . Par


ailleurs, en utilisant que la matrice AO A est symétrique, on obtient

A A > = AO A = (AO A)> = A > O −1 A > = O AO −1 O A = O A 2 ,

donc A > A = A A > : la matrice A est normale. ◁


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI

Chapitre XI

Réduction de Jordan

Objectifs du chapitre
— Comprendre la décomposition de Jordan & Dunford, en particulier le ca-
ractère polynomial de cette décomposition.
— Savoir construire et exploiter les tableaux de Young d’un endomorphisme
nilpotent.
— Caractériser la similitude avec la réduction de Jordan.

1. Décomposition de Jordan & Dunford


Dans les démonstrations de trigonalisabilité du chapitre précédent, on s’est
appuyé sur la décomposition de l’endomorphisme induit sur un sous-espace
caractéristique comme somme d’une homothétie et d’un endomorphisme nil-
potent. Si l’on considère l’endomorphisme dans sa globalité, on obtient la dé-
composition suivante.

1.1. Proposition. Décomposition de Jordan & Dunford. Soit u un endomor-


phisme annulant un polynôme scindé. Alors, il existe un unique couple d’en-
domorphismes (d , n) tel que
. u = n +d ;
. n et d commutent ;
. n est nilpotent ;
. d est diagonalisable.
De plus, les endomorphismes d et n sont des polynômes en u.
Démonstration. . Montrons dans un premier temps l’existence d’un tel couple.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI

142 XI. Réduction de Jordan

Sous ces hypothèses,


M
m
E= ker(u − λk IdE )αk ;
k=1

de plus, l’endomorphisme induit par u sur un sous-espace E k = ker(u−λk IdE )αk


est la somme d’une homothétie d k = λk IdE k et d’un endomorphisme nilpotent
n k = u E k −λk IdE k . Notons, enfin, que d’après le lemme des noyaux la projection
p k sur ker(u − λk IdE )αk parallèlement à
M
m
ker(u − λi IdE )αi
i =1
i 6=k
P
est un polynôme en u. Posons d = m λ p et n = u − d et vérifions les pro-
k=1 k k
priétés de la proposition.
— Par construction, u = d + n.
— L’endomorphisme d est un polynôme en u comme somme de polynômes
en u donc commute avec u et par conséquent avec n = u − d .
— L’endomorphisme n est nilpotent, car l’endomorphisme induit par n sur
chacun des sous-espaces E k est nilpotent.
— L’endomorphisme d est diagonalisable, car sa matrice est diagonale dans
Lm
une base adaptée à la décomposition E = k=1 ker(u − λk IdE )αk .
. Montrons maintenant l’unicité de cette décomposition.
Soit (d , n) le couple construit précédemment et (d˜, ñ) un couple satisfaisant
aux conditions de la proposition. Comme d˜ et ñ commutent, ils commutent
également avec u = n e + de et donc avec les polynômes en u que sont d et n.
Ainsi,
— l’endomorphisme n−n e est nilpotent comme somme d’endomorphismes
nilpotents qui commutent ;
— l’endomorphisme d − de est diagonalisable comme somme d’endomor-
phismes diagonalisables qui commutent
En conclusion, l’endomorphisme d − de = n e − n est à la fois nilpotent et diago-
nalisable donc est l’endomorphisme nul : ainsi, d = d˜ et n = ñ. ä

1.2. Remarque. Dans la preuve de cette décomposition, on a en particulier re-


trouvé que si un endomorphisme u est diagonalisable avec les valeurs propres
P
(λk )k∈‚1,mƒ , alors u = m λ p avec, pour chaque k, p k le projecteur sur le
k=1 k k
sous-espace propre associé à λk parallèlement à la somme des autres.

Traduisons l’énoncé matriciellement.

1.3. Proposition. Décomposition de Jordan & Dunford. Soit A ∈ Mn (K) à poly-


nôme caractéristique scindé. Alors il existe un unique couple (D, N ) ∈ Mn (K)2
tel que D est diagonalisable, N est nilpotente, D N = N D et A = D + N .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI

2. Réduction de Jordan : cas nilpotent 143

1.4. Exemple. La décomposition de Jordan & Dunford de la matrice


 
1 1 0
A = 0 1 1 
0 0 1

est A = I3 + N avec
 
0 1 0
N = 0 0 1 .
0 0 0

1.5. Exemple. Déterminons la décomposition de Jordan & Dunford de la ma-


trice
 
1 0 0 0
0 2 1 0
A= 0 0 2 1 .

0 0 0 2

Les valeurs propres de cette matrice sont 1 et 2 (avec multiplicité trois). La


décomposition de Jordan & Dunford de la matrice est A = D + N avec D =
diag(1, 2, 2, 2) et
 
0 0 0 0
0 0 1 0
N =0
.
0 0 1
0 0 0 0

1.6. Remarque. Attention, la décomposition de Jordan & Dunford d’une ma-


trice n’est pas simplement l’extraction des coefficients diagonaux (même si elle
est triangulaire). Par exemple, la matrice triangulaire
 
1 1 0
A = 0 2 1 
0 0 3

est diagonalisable, car elle admet trois valeurs propres distinctes (qui se lisent
sur la diagonale de cette matrice triangulaire), donc est sa propre décomposi-
tion de Jordan & Dunford : A = A + 0n .

2. Réduction de Jordan : cas nilpotent

2.1. Définition. Le bloc de Jordan de taille m ∈ N∗ est la matrice J m ∈ Mm (K)


dont les coefficients sont nuls sauf ceux en position (i , i + 1) pour i ∈ ‚1, m − 1ƒ
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI

144 XI. Réduction de Jordan

qui valent 1, c’est-à-dire


 
0 1 0 ··· 0
 .. .. .. .. .. 
. . . . .
 
. .. .. 
J m =  .. . . 0 .
 
 .. .. 
. . 1
0 ··· ··· ··· 0

2.2. Remarque. On vérifie immédiatement que J m est nilpotente d’ordre m et


m−1
que J m = E 1,m . Plus précisément, le calcul des puissances de J m donne que
k
le rang de J m est m − k pour tout k ∈ ‚0, mƒ et 0 si k > m.

Nous allons établir que toute matrice nilpotente admet une unique (à permuta-
tion des blocs près) écriture sous la forme d’une diagonale par blocs de Jordan.
Commençons par l’unicité.

2.3. Proposition. Soit u un endomorphisme (nilpotent) tel qu’il existe des entiers
d 1 = deg µu Ê d 2 Ê · · · Ê d r et une base dans laquelle la matrice de u est diago-
nale par blocs avec les blocs J d1 , . . . , J dr . Alors, pour tout k ∈ N∗ , le nombre de
blocs de Jordan de taille k de u, c’est-à-dire, le nombre d’indices j ∈ ‚1, r ƒ tels que
d j = k, est
2 dim ker u k − dim ker u k−1 − dim ker u k+1 .
Démonstration. Calculons, pour tout k É d 1 , le rang de la puissance k-ième de
la matrice diagonale par blocs avec les blocs J d1 , . . . , J dr : il s’agit donc du rang
de la matrice diagonale par blocs avec les blocs J dk , . . . , J dk qui est d’après la
1 r
remarque précédente
Xr
(d j − k)+ .
j =1

Alors, la quantité ∆k = 2 dim ker u k − dim ker u k−1 − dim ker u k+1 vaut
¡ ¢ ¡ ¢ ¡ ¢
∆k = rg u k+1 + rg u k−1 − 2 rg u k
X
r ¡ ¢
= (d j − k − 1)+ + (d j − k + 1)+ − 2(d j − k)+ .
j =1

Le terme général de la somme de droite vaut 0 pour d j 6= k et 1 si d j = k. Ainsi,


∆k est bien le nombre d’indices j tels que d j = k. ä

Maintenant que nous disposons de l’unicité de l’écriture d’une matrice nilpo-


tente sous la forme d’une diagonale par blocs de Jordan (le nombre de blocs de
chaque taille est intrinsèque à la matrice car défini à partir des noyaux de ses
puissances), passons à la propriété d’existence.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI

2. Réduction de Jordan : cas nilpotent 145

2.4. Proposition. Soit u un endomorphisme nilpotent. Alors, il existe des entiers


d 1 = deg µu Ê d 2 Ê · · · Ê d r et une base dans laquelle la matrice de u est dia-
gonale par blocs avec les blocs J d1 , . . . , J dr . Cette matrice est appelée réduite de
Jordan de u.
Démonstration. Démontrons ce résultat par récurrence.
. Le résultat est évident pour les endomorphismes d’un espace de dimension 1
ou 2.
. Soit n ∈ N∗ tel que le résultat soit établi pour tous les endomorphismes nil-
potents d’espaces vectoriels de dimension au plus n ; considérons alors un en-
domorphisme u d’un espace vectoriel E de dimension n + 1.
Soit x ∈ E tel que µu,x = µu (d’après la proposition IV -3.4) et F un supplémen-
taire stable de E u,x (d’après le lemme VI -3.3).
Appliquons l’hypothèse de récurrence à l’endomorphisme induit u F . Il existe
d 2 = deg µuF Ê · · · Ê d r
et une base de F dans laquelle la matrice de u F est diagonale par blocs avec les
blocs J d2 , . . . , J dr .
¡ ¢
Complétons la base de E u,x définie par u d1 −1 (x), . . . , u(x), x à l’aide de cette
base de F : la matrice de u dans cette base est alors diagonale par blocs avec
les blocs J d1 , . . . , J dr . Enfin, remarquons que d 1 = dim E u,x = deg µu,x = deg µu
et que d 2 = deg µuF É deg µu , car µuF divise µu , (puisque µu annule u F ) ainsi
d1 Ê d2 . ä

Cette preuve est efficace, mais elle dissimule un aspect important : le lien avec
la suite des noyaux itérés. Donnons une seconde démonstration plus explicite
¡ ¢
sur ce point. Rappelons que la suite ker u k k est strictement croissante puis
stationnaire à partir d’un rang noté p (l’indice de nilpotence). Commençons la
construction de la base avec le lemme suivant.

2.5. Lemme. Soit u un endomorphisme nilpotent d’indice r . Alors, il existe des


sous-espaces F r , . . . , F 1 tels que
— pour tout k ∈ ‚1, r ƒ, F k est un supplémentaire de ker u k−1 dans ker u k ;
— pour tout k ∈ ‚2, r ƒ, u(F k ) ⊂ F k−1 .
Démonstration. Construisons les sous-espaces F r , . . . , F r −k par récurrence.
. Pour l’initialisation à k = 0, il suffit de prendre pour F r un supplémentaire de
ker u r −1 .
. Soit k < r et supposons les sous-espaces F r , . . . , F r −k construits.
Alors, u(F r −k ) est un sous-espace de ker u r −k−1 en somme directe avec le noyau
itéré précédent ker u r −k−2 . Pour obtenir un sous-espace F r −k−1 , il suffit alors de
compléter u(F r −k ) en un supplémentaire de ker u r −k−2 dans ker u r −k−1 . ä
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI

146 XI. Réduction de Jordan

Revenons à la preuve de la proposition XI -2.4.

Démonstration. Construisons la base récursivement à l’aide des sous-espaces


F r , . . . , F 1 associés à u par le lemme XI -2.5. On commence par considérer une
base de F r notée (e j ,r ) j ∈‚1,mr ƒ ; alors (e j ,r −1 = u(e j ,r )) j ∈‚1,mr ƒ est une famille
libre de F r −1 (car la restriction de u à F k pour k Ê 2 est injective puisque F k et
ker u sont en somme directe) que l’on complète en une base (e j ,r −1 ) j ∈‚1,mr +mr −1 ƒ
de F r −1 .
De même, une fois construit une base (e j ,k ) j ∈‚1,mr +···+mk ƒ de F k , on considère
son image par u que l’on complète ensuite en une base de F k−1 .
On dispose ainsi, au bout de r étapes d’une base (e j ,k ) j ,k de E que l’on ordonne
selon l’ordre lexicographique des couples d’indices.
Dans cette base, la matrice de u est bien de la forme désirée. ä

2.6. Remarque. Essayons de voir les différences entre ces deux preuves à l’aide
d’une matrice semblable à la réduite de Jordan diag(J 3 , J 3 , J 2 ) ∈ M8 (C).
. Dans la première preuve, on commence par construire un sous-espace cy-
clique maximal c’est-à-dire par déterminer les vecteurs de la base de réduction
correspondant à l’un des plus « gros » blocs de taille 3 ; encadrons les colonnes
correspondantes dans la matrice réduite.
 
0 1 0 0 0 0 0 0
 0 0 1 0 0 0 0 0 
 
 0 0 0 0 0 0 0 0 
 
 
 0 0 0 0 1 0 0 0 
 .
 0 0 0 0 0 1 0 0 
 
 0 0 0 0 0 0 0 0 
 
 0 0 0 0 0 0 0 1 
0 0 0 0 0 0 0 0

Ensuite, on passe au bloc suivant.


. Dans la seconde preuve, on commence par construire un supplémentaire de
ker u 2 dans ker u 3 , c’est-à-dire les « derniers » vecteurs de chaque « gros » bloc
de taille 3 ; encadrons les colonnes correspondantes dans la matrice réduite.
 
0 1 0 0 0 0 0 0
 0 0 1 0 0 0 0 0 
 
 0 0 0 0 0 0 0 0 
 
 
 0 0 0 0 1 0 0 0 
 .
 0 0 0 0 0 1 0 0 
 
 0 0 0 0 0 0 0 0 
 
 0 0 0 0 0 0 0 1 
0 0 0 0 0 0 0 0
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI

2. Réduction de Jordan : cas nilpotent 147

Ensuite, on ajoute les images des vecteurs déjà choisis (qui correspondent ici
aux colonnes 2 et 5) et l’on complète en une base d’un supplémentaire de ker u
dans ker u 2 (qui donne la colonne 8).
 
0 1 0 0 0 0 0 0
 0 0 1 0 0 0 0 0 
 
 0 0 0 0 0 0 0 0 
 
 
 0 0 0 0 1 0 0 0 
 .
 0 0 0 0 0 1 0 0 
 
 0 0 0 0 0 0 0 0 
 
 0 0 0 0 0 0 0 1 
0 0 0 0 0 0 0 0

On termine en ajoutant les images de ces vecteurs.

2.7. Définition. . Le tableau de Young associé à la suite finie d’entiers stricte-


ment positifs δ1 Ê δ2 Ê · · · Ê δr est un tableau à r lignes (alignées à gauche), la
première comptant δ1 cases, la deuxième δ2 cases, . . . , la dernière δr cases. On
le note TY(δ1 , δ2 , . . . , δr ).
. Le tableau de Young conjugué à TY(δ1 , δ2 , . . . , δr ) est TY(d 1 , d 2 , . . . , d p ), avec
d 1 Ê d 2 Ê · · · Ê d p les longueurs des colonnes de TY(δ1 , δ2 , . . . , δr ). On le note
TY(δ1 , δ2 , . . . , δr )∗ .
. Le tableau de Young d’un endomorphisme nilpotent u est TY(d 1 , d 2 , . . . , d r ),
où d 1 Ê d 2 Ê · · · Ê d r sont les entiers associés à u dans la proposition XI -2.4 ou
de manière équivalente TY(δ1 , δ2 , . . . , δp )∗ où les entiers δ1 Ê δ2 Ê · · · Ê δp > 0
sont les valeurs distinctes non nulles de la suite décroissante
¡ ¢
dim ker u k+1 − dim ker u k k .

2.8. Exemple. Les tableaux de Young à une seule ligne ou une seule colonne
correspondent respectivement aux classes de similitude d’un bloc de Jordan et
de la matrice nulle.

2.9. Exemple. Le tableau de Young d’une matrice N ∈ M17 (K) vérifiant les condi-
tions dim ker N = 7, dim ker N 2 = 12, dim ker N 3 = 14, dim ker N 4 = 16, et enfin
dim ker N 5 = 17 est alors

Par transitivité de la relation de similitude et l’unicité de la réduction de Jordan,


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI

148 XI. Réduction de Jordan

on obtient la caractérisation suivante des classes de similitude.

2.10. Proposition. Deux endomorphismes nilpotents sont semblables si, et seule-


ment si, ils admettent les mêmes tableaux de Young.

2.11. Remarque. On pourrait croire un peu rapidement que deux endomor-


phismes nilpotents qui commutent peuvent être réduits simultanément au sens
de Jordan. Ceci est faux : les matrices J n et J n2 commutent mais ne peuvent être
simultanément des réduites de Jordan.

3. Interlude : lire un tableau de Young


On peut lire énormément d’informations sur le tableau de Young d’un endo-
morphisme nilpotent u.
. La dimension de l’espace est le nombre total de cases du tableau.
. Le nombre de lignes (c’est-à-dire le nombre de cases de la première colonne
puisque la suite des colonnes est décroissante en taille) est la dimension du
noyau de u : en effet, la première colonne correspond à la base du noyau. Au-
trement dit, le rang d’un endomorphisme nilpotent u est le nombre de cases
du tableau privé de sa première colonne. Ainsi, deux endomorphismes nilpo-
tents d’un même espace vectoriel qui ont des tableaux de Young avec le même
nombre de lignes ont le même rang.
Plus généralement, le nombre de cases des j premières colonnes est la dimen-
sion de ker u j .
. La dimension d’un sous-espace im u k est obtenue en dénombrant les cases
restantes une fois rognées les k dernières cases de chaque ligne du tableau. On
a ainsi « localiser » le sous-espace im u k sur le tableau de Young à l’aide de la
preuve du théorème de réduction.
De même, le tableau de Young de la restriction de u à im u est simplement le
tableau de Young de u privé de sa première colonne.
. Le nombre de colonnes est la taille du plus « gros » bloc de Jordan donc l’in-
dice de nilpotence, soit encore le degré du polynôme minimal.

3.1. Exemple. Reprenons l’endomorphisme nilpotent de l’exemple précédent


dont le tableau de Young est
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI

4. Réduction de Jordan : cas général 149

Les sous-espaces ker u et ker u 2 sont indiqués avec le symbole • ci-dessous :

• • •
• • •
• • •
• • •
• • •
• •
• •
De même, les sous-espaces im u, im u 2 et im u 3 sont localisés

• • • • • • • • •
• • • • • •


Ainsi, le sous-espace im u 2 ∩ ker u 2 est de dimension 4 comme on peut le com-


prendre avec
• •
• •

4. Réduction de Jordan : cas général


Dans la partie précédente, on a réduit les endomorphismes nilpotents. Pour
passer au cas d’un endomorphisme quelconque, il suffit de se ramener aux
composantes nilpotentes sur chaque sous-espace caractéristique ; notons tou-
tefois qu’une hypothèse additionnelle est alors nécessaire pour obtenir que
l’espace est somme des sous-espaces caractéristiques.

4.1. Proposition. Soit u un endomorphisme dont le polynôme caractéristique est


scindé, λ1 , . . . , λm les valeurs propres distinctes de u. Alors, il existe pour chaque
indice j ∈ ‚1, mƒ une suite finie d j ,1 Ê · · · Ê d j ,r j telles que, dans une certaine
base, la matrice de u soit diagonale par blocs avec les blocs

λ1 Id1,1 + J d1,1 , . . . , λ1 Id1,r 1 + J d1,r 1 , . . . , λm Idm,1 + J dm,1 , . . . , λm Idm,r m + J dm,r m

Cette matrice est appelée réduite de Jordan de u.


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI

150 XI. Réduction de Jordan

4.2. Remarque. Étant donné que la matrice diagonale par blocs en conclusion
de cette proposition admet un polynôme scindé, l’hypothèse sur le polynôme
caractéristique est bien nécessaire.
Cette proposition permet la caractérisation complète des classes de similitude
sur un corps algébriquement clos (donc, en particulier, sur C) mais ne permet
pas de conclure sur R.

En adaptant la remarque sur la réduite de Jordan pour les nilpotents, on obtient


le cas général.

4.3. Proposition. Deux endomorphismes d’un même espace vectoriel qui ad-
mettent des polynômes caractéristiques scindés sont semblables si, et seulement
si, ils admettent la même réduite de Jordan.

4.4. Théorème de Jordan & Weyr. Deux endomorphismes u et v d’un même


espace vectoriel E qui admettent des polynômes caractéristiques scindés sont
semblables si, et seulement si, pour tout λ ∈ C et tout k ∈ N,

rg(u − λIdE )k = rg(v − λIdE )k .

Démonstration. Les polynômes caractéristiques étant scindés, il suffit de véri-


fier que les réductions de Jordan sont les mêmes ce qui est le cas d’après la
remarque XI -3. ä

5. Commentaires et développements
5.1. L’ensemble des matrices nilpotentes est appelé cône nilpotent : la matrice
nulle est son sommet et il est stable par homothétie : si N est nilpotente, λN
l’est aussi.
De surcroît, en dimension 2, cet ensemble se voit bien, car il est contenu dans
l’hyperplan (de dimension 3) des matrices de trace nulle ; et là, c’est un véri-
table cône quadratique, c’est-à-dire c’est l’ensemble des zéros d’un polynôme
homogène de degré 2 (indifféremment ici, le déterminant det M ou bien la
¡ ¢
trace tr M 2 . Cette description est détaillée dans le chapitre XIII.

5.2. Un des résultats fondamentaux, qui irradie ensuite sur le reste, est que le
cône nilpotent contient un nombre fini de classes de similitude, et plus préci-
sément p(n) classes, où p(n) est le nombre de partitions de l’entier n.
Q
Pour un polynôme caractéristique donné scindé, il y a i p(αi ) classes de simi-
litude où les αi sont les multiplicités des racines du polynôme caractéristique.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI

5. Commentaires et développements 151

5.3. Dans C, on peut paramétrer les classes de similitude : d’abord avec le po-
lynôme caractéristique puis avec la succession des tableaux de Young associés
à chaque valeur propre.

5.4. La décomposition de Jordan & Dunford est une façon compacte, incisive
et élégante de résumer l’essentiel de ce que l’on peut tirer de la décomposition
en sous-espaces caractéristiques. Elle présente en outre l’avantage qu’elle sur-
vit au cadre matriciel propre, puisqu’elle est encore valable pour les algèbres
de Lie (comme l’espace des matrices triangulaires ou celui des matrices antisy-
métriques).
Ainsi, si A est une matrice triangulaire (respectivement antisymétrique com-
plexe) de décomposition de Jordan & Dunford A = D + N sa décomposition de
Jordan & Dunford, alors D et N sont encore triangulaires (respectivement anti-
symétriques complexes).

5.5. La décomposition de Jordan & Dunford permet de montrer facilement que


le rayon spectral de A est strictement inférieur à 1 si, et seulement si, la suite
des puissances (A p )p est de limite nulle.

5.6. La décomposition de Jordan & Dunford est effective au sens qu’il existe
un algorithme permettant de l’obtenir (ce qui contraste avec la question diffi-
cile de la recherche des racines du polynôme caractéristique). Voici les grandes
lignes de cet algorithme pour un endomorphisme u :
— Calculons le polynôme P unitaire dont les racines complexes sont celles
de χu mais avec la multiplicité 1. On l’obtient algorithmiquement en di-
visant χu par le PGCD χu ∧ χ0u .
— On définit une suite de polynômes (Q k )k par la premier terme Q 0 = X et,
pour tout k, il existe U ∈ C[X ] tel que χu divise P 0 (Q k )U − 1 et
P (Q k+1 ) = Q k − P (Q k )U .
— La suite (Q k (u))k est stationnaire et sa limite est la partie d de la décom-
position de Jordan & Dunford de u.
La relation de récurrence est l’analogue dans C[X ]/(χu ) de la méthode de New-
ton pour la recherche de zéro d’une fonction réelle.

5.7. L’application qui à une matrice A associe sa partie nilpotente dans la dé-
composition de Jordan & Dunford n’est pas en général continue ! Elle n’est conti-
nue en M que si M admet au plus deux valeurs propres égales. En particulier,
elle n’est continue en 0n que si n É 2. On pourra consulter l’exercice 11-18 page
257 de
Éléments de géométrie, Rached Mneimné, Cassini, 1997
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI

152 XI. Réduction de Jordan

5.8. Pour exploiter au mieux les tableaux de Young, il peut être intéressant de
les remplir avec des vecteurs correspondant à la base de réduction de Jordan.
La « localisation » indiquée à la section 3 permet alors d’extraire de cette base
de réduction des bases des différents sous-espaces ker u p ∩ im u q .

6. Exercices
6.1. Exercice. Déterminer la décomposition de Jordan & Dunford d’une matrice
de M2 (C) de trace nulle.
▷ Éléments de correction. Le polynôme caractéristique d’une matrice A ∈ M2 (C)
de trace nulle est χ A = X 2 + det A. Deux cas se présentent :
. si det A 6= 0, alors χ A est annulateur scindé à racines simples donc A est dia-
gonalisable ;
. sinon, A 2 = 02 donc A est nilpotente.
Dans tous les cas, A est sa propre décomposition de Jordan & Dunford. ◁

6.2. Exercice. Déterminer la décomposition de Jordan & Dunford d’une matrice


de M3 (C) antisymétrique.
▷ Éléments de correction. Une matrice A ∈ M3 (C) antisymétrique est de trace
nulle et de déterminant nul. Son polynôme caractéristique est donc de la forme
χ A = X 3 +αX ; on conclut comme dans l’exercice précédent : si α 6= 0, la matrice
est diagonalisable ; sinon, elle est nilpotente. Dans tous les cas, A est sa propre
décomposition de Jordan & Dunford. ◁

6.3. Exercice. Déterminer la décomposition de Jordan & Dunford de la matrice


 
a c d
A = 0 a e  ,
0 0 b
où a 6= b, c, d , e ∈ C.
▷ Éléments de correction. Notons A = D+N la décomposition de Jordan & Dun-
ford. Comme D et N sont des polynômes en A, ces matrices sont triangulaires
supérieures. Par ailleurs, la matrice N est nilpotente, donc est triangulaire stric-
tement supérieure. À ce stade, nous avons montré que les matrices sont de la
forme    
a α β 0 c −α d −β
D =  0 a γ  , N = 0 0 e −γ.
0 0 b 0 0 0
Comme D est diagonalisable, α = 0 (on peut le voir directement en considérant
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI

6. Exercices 153

l’induit sur l’espace engendré par les deux premiers vecteurs). La relation de
ce
commutation entre N et D entraîne alors γ = e et β = d − a−b . ◁

6.4. Exercice. Soit M antisymétrique complexe de décomposition de Jordan &


Dunford M = D + N . Montrer que D et N sont antisymétriques.

▷ Éléments de correction. La relation M = −M > se récrit D + N = −D > − N > .


Comme −D > et −N > sont des matrices qui commutent, respectivement dia-
gonalisable et nilpotente, on peut appliquer l’unicité de la décomposition de
Jordan & Dunford, ce qui entraîne le résultat annoncé. ◁

6.5. Exercice. Soit M ∈ Mn (C). Montrer que la seule matrice nilpotente de l’al-
gèbre C[M ] est la matrice nulle si, et seulement si, M est diagonalisable.

▷ Éléments de correction. (⇒) Il suffit d’écrire que les termes de la décomposi-


tion de Jordan & Dunford de M sont des polynômes en M . Par conséquent la
partie nilpotente est nulle et M est donc diagonalisable.
(⇐) Si M est diagonalisable, alors M est semblable à une matrice diagonale

diag(λ1 , . . . , λn ).
¡ ¢
Pour tout polynôme P tel que P (M ) est nilpotente, diag P (λ1 ), . . . , P (λn ) est
nilpotente donc P (λ1 ) = · · · = P (λn ) = 0. Par conséquent, P (M ) = 0n . Ainsi, la
seule matrice nilpotente de C[M ] est la matrice nulle. ◁

6.6. Exercice. Soit M ∈ Mn (C) de décomposition de Jordan & Dunford M = D+N


avec D diagonalisable et N nilpotente qui commutent. Montrer qu’il existe un
polynôme Q ∈ C[X ] tel que Q(0) = 0 et N = Q(M ).

▷ Éléments de correction. On sait déjà d’après la décomposition de Jordan &


Dunford qu’il existe un polynôme P ∈ C[X ] tel que N = P (M ).
. Si µM (0) 6= 0, il suffit de poser

Q(X ) = P (X ) − µP (0)
(0) µM (X ).
M

. Sinon, P n est annulateur de M donc est divisible par µM . Ainsi, 0 est racine
de µM donc de P et il n’y a rien à établir.
Le résultat est également vrai pour D avec le polynôme X −Q(X ).
On peut alors facilement obtenir que, pour tout vecteur X ∈ ker M 2 , N X ∈ ker M .
Ce résultat découle directement de la remarque simple suivante : N et M coïn-
cident sur le sous-espace caractéristique de M associé à 0. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI

154 XI. Réduction de Jordan

6.7. Exercice. Soit u un endomorphisme d’un C-espace vectoriel E de décom-


position de Jordan & Dunford u = n + d avec d diagonalisable et n nilpotent
qui commutent. Supposons qu’il existe des sous-espaces vectoriels G ⊂ F tels que
u(F ) ⊂ G. Montrer que n(F ) ⊂ G.
Indication : on peut utiliser l’exercice précédent.
▷ Éléments de correction. Comme n = Q(u) avec Q un polynôme à coefficient
constant nul, n(F ) ⊂ G.
Là encore, le résultat est également vrai avec la partie diagonalisable d . ◁

6.8. Exercice. Soit A ∈ Mn (C) telle que l’endomorphisme ad A : M 7→ AM − M A


est diagonalisable. Montrer que A est diagonalisable.
Indication : on pourra utiliser la décomposition de Jordan & Dunford de A.
▷ Éléments de correction. Considérons la décomposition A = D +N avec D dia-
gonalisable, N nilpotent et D N = N D.
Un calcul rapide donne alors ad A = ad D + ad N . On a déjà vérifié que ad D est
diagonalisable (Exercice XI -6.8) et ad N est nilpotent (Corollaire III -3.4). Par
ailleurs, pour tout M ∈ Mn (C), en utilisant que D N = N D,
ad D ◦ ad N (M ) = ad D (N M − M N )
= D(N M − M N ) − (N M − M N )D
= DN M −DMN − N MD + MDN,
ad N ◦ ad D (M ) = ad N (D M − M D)
= N (D M − M D) − (D M − M D)N
= DN M − N MD −DMN − MDN.

Ainsi, ad D et ad N commutent. La décomposition ad A = ad D + ad N est donc la


décomposition de Jordan & Dunford de l’endomorphisme ad A . Comme celui-
ci est diagonalisable par hypothèse et que la décomposition de Jordan & Dun-
ford est unique, on obtient ad D = ad A et surtout ad N = 0L (Mn (C)) .
Comme ad N est nul, N commute avec toutes les matrices donc est de la forme
λIn . Or, N est nilpotente, d’où λ = 0 et par conséquent, N = 0n . En reportant
dans la décomposition de Jordan & Dunford de A, on obtient A = D et donc A
est diagonalisable. ◁

6.9. Exercice. Soit u un endomorphisme d’un C-espace vectoriel E .


1. Montrer qu’il existe un endomorphisme v ∈ L (E ) tel que la partie nilpo-
tente n de u dans la décomposition de Jordan & Dunford vérifie
n = u ◦ v − v ◦ u.
Indication : on pourra commencer par un calcul matriciel pour montrer
qu’il existe une matrice M ∈ Mn (C) telle que J n = J n M − M J n .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI

6. Exercices 155

2. Montrer le critère de diagonalisabilité de Klarès : u est diagonalisable si,


et seulement si, ker ad u = ker ad u2 .

▷ Éléments de correction.
1. . Commençons par montrer le résultat sur J n . Il suffit de considérer la
matrice M = diag(1, 2, . . . n), ou toute autre matrice diagonale avec des
coefficients diagonaux en progression arithmétique de raison 1, pour
avoir J n M − M J n = J n .
. Par conséquent, pour tout sous-espace caractéristique F λ associé à la
valeur propre λ, il existe v λ ∈ L (F λ ),

n Fλ = n Fλ ◦ v λ − v λ ◦ n Fλ = u Fλ ◦ v λ − v λ ◦ u Fλ

car u Fλ = λIdFλ + n Fλ .
Définissons alors, v comme l’unique endomorphisme de E coïncidant
sur chaque sous-espace caractéristique F λ avec l’endomorphisme v λ cor-
respondant. Alors, n = u ◦ v − v ◦ u.
2. (⇒) La condition ker ad u = ker ad u2 est équivalente à

ker ad u ∩ im ad u = {0E }.

Or, la partie nilpotente n appartient à la fois à ker ad u (en tant que poly-
nôme en u, elle commute avec u) et à im ad u (d’après la question précé-
dente). Ainsi, n est l’endomorphisme nul et u est diagonalisable.
(⇐) Si l’endomorphisme u est diagonalisable, alors ad u est diagonali-
sable : ainsi ker ad u = ker ad u2 .

6.10. Exercice. Montrer que N ∈ Mn (C) est nilpotente si, et seulement si, N et 2N
sont semblables.

▷ Éléments de correction. (⇒) Il suffit de vérifier la propriété sur les blocs de


Jordan d’après la réduction de Jordan et le calcul par blocs. Or,
¡ ¢ ¡ ¢
diag 1, 2−1 , . . . , 2−(m−1) J m diag 1, 21 , . . . , 2m−1 = 2J m .

Ainsi, J m et 2J m sont semblables.


(⇐) Supposons les matrices N et 2N semblables et considérons une valeur
propre λ ∈ C de N . Ainsi 2λ est une valeur propre de 2N donc de N par si-
militude. Une récurrence immédiate donne que la suite (2k λ)k est une suite de
valeurs propres de N . Pour que cette suite soit finie (ce qui est nécessaire car le
nombre de valeurs propres de N est fini), il faut que λ = 0. Mais alors, comme
0 est l’unique valeur propre de N , χN = X n et donc N est nilpotente d’après le
théorème de Cayley & Hamilton. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI

156 XI. Réduction de Jordan

6.11. Exercice. Déterminer le tableau de Young correspondant à la matrice


 
0 1 2 3
0 0 4 5 
 
0 0 0 6  .
0 0 0 0

▷ Éléments de correction. La matrice proposée est nilpotente d’indice maximal,


c’est-à-dire égal à sa taille, donc son tableau de Young est la ligne à quatre
cases. ◁

6.12. Exercice. Déterminer le tableau de Young correspondant à une matrice vé-


rifiant ker A = im A. En déduire que toutes les matrices vérifiant cette condition
sont semblables.

▷ Éléments de correction. On trouve que A est nilpotente d’indice 2 et que, pro-


position II -1.4,

dim ker A 2 = dim ker A + dim ker A ∩ im A = 2 dim ker A.

Le tableau admet deux colonnes de même taille.


Ainsi, ces matrices ont le même tableau de Young donc sont semblables. ◁

6.13. Exercice. Déterminer le tableau de Young d’une matrice A ∈ M5 (C) nilpo-


tente telle que rg(A 2 ) = 2.

▷ Éléments de correction. Il y a 5 − 2 = 3 cases réparties sur les deux premières


colonnes donc ces colonnes sont

d’où l’on déduit que le tableau complet est

Ainsi, toutes les matrices vérifiant ces conditions ont le même tableau de Young
donc sont semblables. ◁

6.14. Exercice. Montrer qu’une matrice nilpotente M ∈ Mn (C) est semblable à la


¡ ¢
matrice diag J r +1 , 0n−r −1 si, et seulement si, rg M = r et rg M 2 = r − 1.

▷ Éléments de correction. . Pour le sens direct, il suffit de faire le calcul et de


remarquer que le rang est préservé sur une classe de similitude.
. Soit M nilpotente telle que rg M = r et rg M 2 = r − 1. La première colonne ta-
bleau de Young de la matrice M a n − r = dim ker M cases, les deux premières
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI

6. Exercices 157

ont ensembles n − r + 1 = dim ker M 2 cases. Par conséquent, la deuxième co-


lonne (et donc toutes les suivantes) ne compte qu’une case. Ainsi, le tableau de
Young est une « équerre ». Par exemple, pour n = 8 et r = 5, on obtient

Le résultat découle de la caractérisation des classes de similitude par la réduc-


tion de Jordan. ◁

6.15. Exercice. Soit A nilpotente de tableau de Young

Déterminer le tableau de Young correspondant à la matrice B = A 2 .

▷ Éléments de correction. Il suffit de remarquer que ker B k = ker A 2k et l’on ob-


tient donc le tableau de Young de B en regroupant les colonnes deux par deux,
d’où

6.16. Exercice. Déterminer le tableau de Young correspondant à la matrice


µ ¶
A A
B=
0n A

où la matrice A est nilpotente de tableau de Young

▷ Éléments de correction. Il suffit de remarquer que


µ ¶ µ ¶µ ¶
Ak k Ak In kIn Ak 0n
Bk = = ,
0n Ak 0n In 0n Ak
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI

158 XI. Réduction de Jordan

donc rg(B k ) = 2 rg(A k ), c’est-à-dire dim ker B k = 2 dim ker A k . En conclusion,


on obtient le tableau de Young de B en multipliant la longueur des colonnes
par deux. Dans ce cas particulier, le tableau de Young de B est

6.17. Exercice. Soit A, B ∈ Mn (C) nilpotentes ayant le même polynôme minimal


et le même rang.

1. Montrer que, si n É 6, alors A et B sont semblables.

2. Donner un contre-exemple à cette affirmation pour n = 7.

▷ Éléments de correction.
1. Il suffit pour ces petites dimensions de dresser la liste des tableaux de
Young puis de vérifier que si on fixe le degré du polynôme minimal (donc
le nombre de colonnes) et le rang (donc le nombre de lignes car on fixe
la dimension du noyau), on n’a qu’un seul tableau correspondant.

.n=2 .n=3

.n=4

.n=5
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap12 chapitre:XI

6. Exercices 159

.n=6

2. Avec les tableaux de Young suivants à sept cases qui ont le même nombre
de lignes et le même nombre de colonnes (donc même rang et même
polynôme minimal pour des endomorphismes associés)

on obtient le contre-exemple des matrices nilpotentes diag(J 3 , J 2 , J 2 ) et


diag(J 3 , J 3 , 0) non semblables (leurs carrés n’ont pas le même rang)

6.18. Exercice. Montrer que deux matrices de transvection sont semblables.

▷ Éléments de correction. Soit i 6= j , λ ∈ K∗ . La transvection Ti , j ,λ = In + λE i , j


admet 1 pour unique valeur propre. Par ailleurs,
¡ ¢2
Ti , j ,λ − In = 0n ,

d’où ¡ ¢ ¡ ¢2
dim ker Ti , j ,λ − In = n − 1, dim ker Ti , j ,λ − In = n.

Ainsi, le tableau de Young associé à cette unique valeur propre 1 est TY(n −1, 1).
Par conséquent, toutes les transvections ont la même valeur propre et le même
tableau de Young associé à cette valeur propre ; en conclusion, les matrices de
transvection sont toutes semblables. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XI
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XII

Chapitre XII

Réduction de Frobenius

Objectifs du chapitre
— Comprendre la réduction de Frobenius et identifier une forme réduite
d’une diagonale par blocs compagnons quelconque.
— Savoir passer de la réduite de Jordan à la réduite de Frobenius et récipro-
quement.
— Utiliser des calculs sur les matrices compagnons pour obtenir via la ré-
duite de Frobenius un résultat pour toutes les matrices.

1. Réduction de Frobenius
1.1. Proposition. Soit u un endomorphisme de E . Alors, il existe une unique suite
finie de polynômes unitaires P 1 , P 2 , . . . , P r et une décomposition
M
r
E= Ei
i =1

telles que
. pour tout i ∈ ‚1, r − 1ƒ, P i +1 divise P i ;
. pour tout i ∈ ‚1, r ƒ, l’induit u E i est cyclique de polynôme minimal P i .

1.2. Remarque. Remarquons tout d’abord que cette réduction ne requiert pas
l’hypothèse d’un polynôme annulateur scindé comme la réduction de Jordan.

Démonstration. . Prouvons l’existence par récurrence sur la dimension de l’es-


pace E .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XII

162 XII. Réduction de Frobenius

— Le résultat est évident pour les endomorphismes d’un espace de dimen-


sion 1 (qui sont tous cycliques).
— Soit n ∈ N∗ . Supposons le résultat établi pour les endomorphismes des
espaces de dimension inférieure ou égale à n et considérons u un endo-
morphisme d’un espace E de dimension n + 1.
Introduisons x ∈ E tel que µu,x = µu puis F un supplémentaire stable par
u du sous-espace E 1 = E u,x (qui existent d’après les propositions IV -3.4
et VI -3.3).
Appliquons alors l’hypothèse de récurrence à l’endomorphisme u F in-
duit par u sur F : il existe une suite de polynômes unitaires P 2 , . . . , P r et
une décomposition
Mr
F= Ei
i =2

telles que, pour tout i ∈ ‚2, r −1ƒ, P i +1 divise P i et l’induit u E i est cyclique
de polynôme minimal P i . On vérifie alors que µuF = P 2 divise µu (car µu
annule u F ). Ainsi, la suite P 1 = µu , P 2 , . . . , P r et la décomposition
M
r
E= Ei
i =1

vérifient les conditions de l’énoncé.


. Montrons désormais l’unicité de la suite de polynômes de cette proposition
en supposant qu’il existe deux telles suites finies distinctes de polynômes uni-
taires P 1 , P 2 , . . . , P r et Q 1 , Q 2 , . . . , Q s et notons
M
r M
s
E= Ei = Fi
i =1 i =1

des décompositions associées.


Remarquons que par construction P 1 = Q 1 = µu . Comme par ailleurs
X
r X
s
deg P i = degQ i ,
i =1 i =1

on ne peut avoir r 6= s et P i = Q i pour tout i ∈ ‚2, min(r, s)ƒ : ainsi, il existe un


indice minimal j ∈ ‚2, min(r, s)ƒ tel que P j 6= Q j .
Étudions l’endomorphisme P j (u). Pour tout i Ê j , P j est un multiple de P i
donc P j (u E i ) est l’endomorphisme nul. Ainsi,

M
r M
r j −1
M
P j (u)(E ) = P j (u)(E i ) = P j (u E i )(E i ) = P j (u)(E i ).
i =1 i =1 i =1

Or,
M
s
P j (u)(E ) = P j (u)(F i )
i =1
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XII

1. Réduction de Frobenius 163

d’où
j −1
M M
s
P j (u)(E i ) = P j (u)(F i ).
i =1 i =1

soit encore en considérant les dimensions


−1
jX X
s
dim P j (u)(E i ) = dim P j (u)(F i ).
i =1 i =1

Par définition de j , P i = Q i pour tout i < j donc les endomorphismes induits


u E i et u Fi sont semblables. Ainsi,

dim P j (u)(E i ) = rg P j (u E i ) = rg P j (u Fi ) = dim P j (u)(F i ).

En remplaçant dans l’égalité ci-dessus, on obtient alors


−1
jX X
s
dim P j (u)(F i ) = dim P j (u)(F i ).
i =1 i =1

Combinant ces résultats, on obtient que dim P j (u)(F j ) = 0 donc P j (u F j ) est


l’endomorphisme nul : Q j = µuF j divise P j .

Par symétrie, P j divise Q j et donc Q j = P j : contradiction. ä

Reformulons cette proposition.

1.3. Proposition. Soit u un endomorphisme de E . Alors, il existe une unique suite


finie de polynômes unitaires P 1 , P 2 , . . . , P r tels que
. pour tout i ∈ ‚1, r − 1ƒ, P i +1 divise P i ;
. il existe une base de E dans laquelle la matrice de u est diagonale par blocs et
les blocs diagonaux sont les matrices compagnons des polynômes P 1 , P 2 , . . . , P r :
 
C P1
 
 C P2 
 .
 .. 
 . 
C Pr

Cette matrice est appelée réduite de Frobenius de u.

1.4. Définition. Les invariants de similitude d’un endomorphisme sont les po-
lynômes qui lui sont associés par la proposition XII -1.1.

1.5. Remarque. Si les invariants de similitude de u sont P 1 , P 2 , . . . , P r (en gar-


dant l’ordre correspondant à la divisibilité de la proposition XII -1.1), alors, en
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XII

164 XII. Réduction de Frobenius

effectuant les calculs de la matrice de u diagonale par blocs, on trouve


Y
r
µu = P 1 , χu = Pi .
i =1

La justification de l’appellation invariants de similitude provient du corollaire


suivant (immédiat par transitivité de la relation de similitude).

1.6. Corollaire. Deux endomorphismes sont semblables si, et seulement si, ils ont
les mêmes invariants de similitude.

1.7. Exemple. Déterminons la forme réduite de la matrice diagonale par blocs


compagnons C X 2 +1 et C X 2 :
 
0 −1
 1 0 
 
 .
 0 0 
1 0

Remarquons tout d’abord que cette forme n’est pas la réduite de Frobenius car
les polynômes X 2 et X 2 + 1 ne sont pas multiples l’un de l’autre. Par ailleurs, le
polynôme minimal de cette matrice est X 2 (X 2 +1) (de degré 4) donc la matrice
est cyclique et son seul invariant est X 2 (X 2 + 1).

1.8. Exemple. Déterminons la forme réduite de la matrice diagonale par blocs


compagnons C X 2 +1 , C X et C X :
 
0 −1
 1 0 
 
 .
 0 
0

Le polynôme minimal de cette matrice est X (X 2 + 1) et son polynôme carac-


téristique est X 2 (X 2 + 1) donc les invariants sont X (X 2 + 1) et X d’après la re-
marque XII -1.5. La matrice est donc semblable à
 
0 0 0
 1 0 −1 
 
 .
 0 1 0 
0

2. Retour sur la réduction de Jordan


On dispose de deux caractérisations de la similitude : la forme réduite de Jor-
dan (si le polynôme minimal est scindé) ou la forme réduite de Frobenius. Étu-
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XII

2. Retour sur la réduction de Jordan 165

dions les passages entre ces deux formes réduites. Pour cela commençons par
remarquer qu’il est facile d’obtenir la réduction de Jordan d’un nilpotent.

2.1. Exemple. Soit u un endomorphisme nilpotent. D’après la réduction de


Frobenius, il existe des polynômes unitaires P 1 , . . . , P r vérifiant P i +1 divise P i
pour tout i ∈ ‚1, r − 1ƒ tels que u admet une matrice de la forme
 
C P1
 
 C P2 
 .
 .. 
 . 
C Pr

De plus, les P i sont des diviseurs du polynôme caractéristique χu = X n donc


sont des monômes. Alors, pour obtenir la réduction de Jordan, il suffit de re-
marquer que C X k = J k > et donc de renverser l’ordre des vecteurs pour obtenir
exactement la forme voulue.

Proposons une nouvelle preuve de la réduction de Jordan rappelée dans la pro-


position suivante.

2.2. Proposition. Soit u un endomorphisme dont le polynôme caractéristique


est scindé, λ1 , . . . , λm les valeurs propres de u. Alors, il existe pour tout j ∈ ‚1, mƒ
une suite d j ,1 Ê · · · Ê d j ,r j vérifiant que, dans une certaine base, la matrice de u
est diagonale par blocs avec les blocs

λ1 Id1,1 + J d1,1 , . . . , λ1 Id1,r 1 + J d1,r 1 , . . . , λm Idm,1 + J dm,1 , . . . , λm Idm,r m + J dm,r m .

Démonstration. Comme χu est scindé, on peut, via le lemme des noyaux, se


limiter à l’étude de l’endomorphisme induit par u sur chaque sous-espace ca-
ractéristique. Le résultat découle alors directement du calcul précédent sur les
endomorphismes nilpotents. ä

2.3. Exemple. Soit λ un scalaire. La réduite de Frobenius de la matrice cyclique


λIn + J n est C (X −λ)n .

2.4. Exemple. Soit λ1 , . . . , λp des scalaires deux à deux distincts. La réduite de


Frobenius de la matrice diagonale par blocs (et cyclique)
 
λ1 Ir 1 + J r 1
 
 λ2 Ir 2 + J r 2 
 
 .. 
 . 
λp Ir p + J r p

est C Qp (X −λi )r i (voir par exemple l’exercice XII -5.1).


i =1
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XII

166 XII. Réduction de Frobenius

Ces exemples laissent croire que le passage de la forme réduite de Jordan à la


forme réduite de Frobenius est élémentaire ; attention toutefois à bien com-
prendre les distinctions : la réduction de Jordan se fait valeur propre par valeur
propre alors que la réduction de Frobenius panache les valeurs propres.
Détaillons des algorithmes qui permettent de passer d’une réduite à l’autre en
utilisant l’exemple XII -2.4.

2.5. Algorithme. Considérons un endomorphisme qui admet un polynôme an-


nulateur scindé.
Pour passer de la forme réduite de Frobenius à la forme réduite de Jordan, il
suffit de remplacer chaque invariant de similitude (nécessairement scindé) par
des blocs de Jordan associés à chacune de ses racines et dont la taille est la
multiplicité de la racine.
On obtient ainsi une écriture matricielle de u diagonale par blocs de Jordan :
c’est donc la forme réduite de Jordan d’après l’unicité démontrée au chapitre
précédent.

2.6. Exemple. Par exemple, si les invariants sont P 1 = X 2 (X − 2)3 , P 2 = X (X − 2)


et P 3 = X , les blocs de Jordan dans la forme réduite seront
. J 2 et 2I3 + J 3 pour l’invariant P 1 ,
. J 1 et 2I1 + J 1 pour l’invariant P 2 ,
. J 1 pour l’invariant P 3 .
La forme réduite de Jordan est donc (en remettant les blocs dans un ordre plus
habituel)  
2 1 0
 0 2 1 
 
 
 0 0 2 
 
 2 
 
 0 1 
 
 
 0 0 
 
 0 
0

2.7. Algorithme. Considérons un endomorphisme qui admet un polynôme an-


nulateur scindé. Pour passer de la forme réduite de Jordan à la forme réduite
de Frobenius, on procède par étapes
. on écrit la liste des polynômes minimaux des blocs de Jordan,
. on retire de la liste les polynômes de plus haut degré pour chacune des va-
leurs propres : le produit de ces termes donne un invariant de similitude,
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XII

3. Commutants et bicommutants 167

. on recommence tant qu’il y a des polynômes dans la liste.


Notons que ceci correspond exactement à l’idée de l’exemple XII -2.4. On ob-
tient ainsi une écriture matricielle de u diagonale par blocs compagnons avec
des polynômes qui se divisent successivement (car les multiplicités des racines
décroissent au fur et à mesure) : c’est donc la forme réduite de Frobenius d’après
l’unicité démontrée.

2.8. Exemple. Considérons un endomorphisme dont les blocs dans la réduc-


tion de Jordan sont les suivants (en les triant par valeur propre puis par taille)

2I3 + J 3 , 2I3 + J 3

I3 + J 3 , I3 + J 3 , I1 + J 1 , I1 + J 1

J2, J1

Les polynômes correspondants sont

(X − 2)3 (X − 2)3
(X − 1)3 (X − 1)3 X −1 X −1
X2 X
P1 P2 P3 P4

Remarquons que la disposition a été choisie de sorte à simplifier l’étape sui-


vante : une ligne contient tous les termes associés à une valeur propre par ordre
de degré décroissant ; chaque invariant est alors le produit des facteurs sur une
colonne. Ainsi, on obtient pour cet exemple

P 1 = (X − 2)3 (X − 1)3 X 2 , P 2 = (X − 2)3 (X − 1)3 X , P 3 = P 4 = X − 1.

On déduit immédiatement de ce dernier algorithme la proposition suivante.

2.9. Corollaire. Soit u un endomorphisme à polynôme minimal scindé tel que


le nombre de blocs dans l’écriture réduite de Jordan soit égal au nombre d’inva-
riants de similitude. Alors, u admet une unique valeur propre.

3. Commutants et bicommutants

3.1. Proposition. Soit u un endomorphisme d’un espace de dimension n et C (u)


son commutant. Alors, dim C (u) Ê n.

Démonstration. D’après la réduction de Frobenius, il existe une base B dans


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XII

168 XII. Réduction de Frobenius

laquelle la matrice de u est de la forme


 
C P1
 .. 
 . 
 
 
 C Pi 
 
 .. 
 . 
C Pr

Alors, pour toute matrice A i commutant avec C P i , l’endomorphisme dont la


matrice dans la base B est
 
0
 .. 
 . 
 
 
 Ai 
 
 .. 
 . 
0
commute avec u. Par conséquent,
X
r X
r
dim C (u) Ê dim C (C P i ) = deg P i = n.
i =1 i =1

3.2. Corollaire. Soit u un endomorphisme d’un espace de dimension n et C (u)


son commutant. Alors, dim C (u) = n si, et seulement si, u est cyclique.
Démonstration. (⇐) Montrons que si u admet deux invariants de similitude
alors dim C (u) > n. Pour cela il suffit de montrer que pour P et Q deux poly-
nômes de degré respectif p > 0 et q > 0, le commutant de la matrice
µ ¶
C PQ
∈ M2p+q (K)
CP

contient un élément qui n’est pas diagonal par blocs. Cherchons une telle ma-
trice de la forme µ ¶
0
A

c’est-à-dire A ∈ Mp+q,p (K) non nulle telle que AC PQ = C P A. Pour cela considé-
rons les endomorphismes u ∈ L (Kp ) et v ∈ L (Kp+q ) canoniquement associés
à C P et C PQ . Par construction, la base canonique de Kp est de la forme
¡ ¢
e 1 , u(e 1 ), . . . , u p−1 (e 1 )
et celle de Kp+q de la forme
¡ ¢
e 2 , v(e 2 ), . . . , v p+q−1 (e 2 ) .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XII

3. Commutants et bicommutants 169

Définissons φ ∈ L (Kp+q , Kp ) par l’image suivante de la base canonique de Kp+q


¡ ¢
∀k ∈ ‚0, p + q − 1ƒ, φ v k (e 2 ) = u k (e 2 ).
¡ ¢ ¡ ¢ ¡ ¢
Alors, pour j ∈ ‚0, p + q −2ƒ, φ◦ v v j (e 2 ) = u j +1 (e 2 ) = u u j (e 2 ) = u ◦φ v j (e 2 ) .
¡ j ¢
Calculons φ◦v v (e 2 ) pour j = p +q −1. Pour cela, notons PQ = X p+q +R avec
R de degré au plus p + q − 1.
¡ ¢
φ ◦ v v p+q−1 (e 2 ) = φ ◦ v p+q (e 2 )
¡ ¢ ¡ ¢
= φ PQ(v)(e 2 ) − φ R(v)(e 2 )
¡ ¢
= −φ R(v)(e 2 ) car PQ est annulateur de v
= −R(u)(e 1 ) par définition de φ
p+q
=u (e 1 ) − PQ(u)(e 1 )
= u p+q (e 1 ) car P est annulateur de u.
¡ p+q−1 ¢ ¡ p+q−1 ¢
Par ailleurs, u ◦ φ v (e 2 ) = u u (e 1 ) = u p+q (e 1 ). En conclusion, les
applications linéaires φ ◦ v et u ◦ φ coïncident sur la base canonique de Kp+q
donc sont égales. La matrice A de φ dans les bases canoniques de Kp+q et Kp
(qui est de rang p car φ est surjective) vérifie AC PQ = C P A donc fournit une
solution du problème reformulé.
(⇒) Il s’agit d’utiliser les caractérisations des endomorphismes cycliques : d’une
part C (u) = K[u] ; d’autre part, dim K[u] = deg µu = n. ä

L’introduction de la matrice A de rang maximal qui « entrelace » deux matrices


compagnons associées à des polynômes en relation pour la divisibilité va être
reprise dans la démonstration de la proposition suivante.

3.3. Proposition. Soit u un endomorphisme d’un espace de dimension n. Alors,


le bicommutant de u est l’algèbre K[u] des polynômes en u.

Démonstration. . Il est évident que K[u] est inclus dans le bicommutant.


. Soit v un élément du bicommutant de u. Considérons une décomposition
M
r
E= Ei
i =1

telle que l’endomorphisme induit par u sur E i correspondent au i -ième inva-


riant de similitude P i .
— Chaque projecteur sur un espace E i parallèlement à la somme des autres
espaces appartient à C (u) (car E i est stable par u) donc commute avec v.
Par conséquent, v laisse stable les sous-espaces E i .
— L’endomorphisme induit v E i commute avec l’endomorphisme u E i qui
est cyclique : il existe donc un polynôme Q i tel que v E i = Q i (u E i ).
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XII

170 XII. Réduction de Frobenius

— Si u est cyclique, le résultat est établi car v = Q 1 (u) ; sinon, il reste à voir
que les polynômes Q i peuvent être choisis égaux. Écrivons l’argument
pour r = 2 facteurs invariants (la récurrence est immédiate pour obtenir
le cas général). Nous venons de montrer que, dans une base bien choisie,
les matrices de u et v sont
µ ¶ µ ¶
C P1 Q 1 (C P 1 )
C P2 Q 2 (C P 2 )

Considérons comme dans la preuve précédente A ∈ Md2 ,d1 (K) de rang d 2


telle que AC P 1 = C P 2 A (où d 1 et d 2 sont les degrés de P 1 et P 2 ) ce qui est
possible car P 2 divise P 1 .
Alors, la matrice
µ ¶
0
A

commute avec la matrice de u donc commute avec la matrice de v.


Le calcul par blocs de ces produits amène l’égalité Q 2 (C P 2 )A = AQ 1 (C P 1 )
et, en utilisant la relation AC P 1 = C P 2 A, Q 2 (C P 2 )A = Q 1 (C P 2 )A. Ainsi, la
matrice Q 2 (C P 2 ) − Q 1 (C P 2 ) ∈ Md2 (K) contient le sous-espace im A de di-
mension d 2 dans son noyau donc est nulle.
En conclusion, la matrice de v est
µ ¶
Q 1 (C P 1 )
Q 1 (C P 2 )

et donc v = Q 1 (u). On a ainsi établi que tout élément du bicommutant


de u appartient à K[u].
ä

4. Commentaires et développements
4.1. La réduction de Frobenius d’une matrice A est le résultat le plus fin sur la
réduction, de part sa généralité et l’essentiel de l’information qu’elle cumule
sur la réduction de la matrice A. La réduction de Frobenius traduit tout sim-
plement le théorème fondamental sur la structure des modules de type fini sur
un anneau principal. Ici, l’anneau est K[X ] et le module le K[X ]-module défini
par A.
La traduction de ce même théorème dans le cas des groupes abéliens finis,
nous dit qu’un tel groupe est produit (de manière unique) de groupes cycliques
Z /d 1 Z × · · ·×Z /d k Z, avec d 1 |d 2 | · · · |d k . Le cas crucial étant celui d’un p-groupe
abélien fini, comme on s’en aperçoit en se ramenant aux différents p-Sylow
de G. Pour ces groupes, l’examen de l’endomorphisme x 7→ px et de ses noyaux
itérés ramène la classification de ces groupes à des tableaux de Young.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XII

5. Exercices 171

De même que dans ce cas, on montrer que dans un groupe abélien fini, il y a
un élément dont l’ordre est le PPCM des ordres de tous les éléments du groupe
(l’exposant du groupe), de même grâce à la réduction de Frobenius, il est pos-
sible d’y voir l’existence d’un vecteur où est atteint le polynôme minimal.
De même que dans le cas des groupes abéliens, on peut calculer vite l’anneau
des endomorphismes d’un tel groupe, on peut ici déterminer le commutant
de A grâce à la biadditivité du foncteur Hom et l’on est ramené à calculer les
espaces d’entrelacement entre deux K[X ]-modules cycliques, c’est-à-dire entre
deux matrices compagnons dont le polynôme de l’une divise l’autre.

4.2. Les invariants de similitude d’un endomorphisme u de matrice M sont


les facteurs invariants différents de 1 de la matrice M − X In ∈ Mn (K[X ]). Ils
peuvent donc être obtenus en exploitant les opérations élémentaires (à coeffi-
cients dans K[X ]) sur les lignes et les colonnes.

5. Exercices
5.1. Exercice. Déterminer les polynômes P , Q ∈ K[X ] pour lesquels la matrice
compagnon C PQ est semblable à la matrice
µ ¶
CP
.
CQ

▷ Éléments de correction. . Si ces deux matrices sont semblables, elles ont le


même polynôme minimal : la première a pour polynôme minimal PQ car la
matrice est cyclique ; la seconde le PPCM de P et Q. Par conséquent, pour ob-
tenir l’égalité, il faut que P et Q soient premiers entre eux.
. Réciproquement, si P et Q sont premiers entre eux, la matrice par blocs ad-
met PQ comme polynôme minimal et est de taille deg P +degQ = deg PQ donc
est cyclique. D’après la réduction de Frobenius, elle est semblable à C PQ . ◁

5.2. Exercice. Soit λ ∈ K. Déterminer les invariants de similitude de l’homothétie


de rapport λ.

▷ Éléments de correction. La réduction de Jordan de cette homothétie est don-


née par λI1 + J 1 , . . . , λI1 + J 1 (n fois). D’après l’algorithme XII -2.7, les invariants
de similitudes sont P 1 = · · · = P n = X − λ. ◁

5.3. Exercice. Soit 0 É r É n des entiers. Déterminer les invariants de similitude


d’un projecteur p de rang r .

▷ Éléments de correction. Appliquons l’algorithme XII -5.1 : les polynômes mi-


nimaux des blocs de Jordan de p sont X − 1 (r fois) et X (n − r fois).
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XII

172 XII. Réduction de Frobenius

. Si r > n − r , alors il y a r invariants de similitude donnés par


½
X (X − 1) si i É n − r,
P i (X ) =
X −1 sinon.
. Si r É n − r , alors, il y a n − r invariants de similitude donnés par
½
X (X − 1) si i É r,
P i (X ) =
X sinon.

5.4. Exercice. Soit µ et χ ∈ K[X ]. Déterminer une condition nécessaire et suffi-


sante pour qu’il existe une matrice A telle que µ A = µ et χ A = χ.

▷ Éléments de correction. . Pour satisfaire la condition, χ et µ doivent avoir les


mêmes facteurs irréductibles et la multiplicité de chaque facteur dans χ doit
être supérieure ou égale à celle correspondante dans µ.
. Réciproquement, notons R 1 , . . . , R r les facteurs irréductibles unitaires de χ
et µ, α1 , . . . , αr leurs multiplicités dans χ et β1 , . . . , βr celles dans µ. On a par
hypothèse, pour tout i ∈ ‚1, r ƒ, βi ∈ ‚1, αi ƒ.
Les décompositions en facteurs irréductibles des polynômes χ et µ sont alors
Y
r
α Y
r
β
χ= Ri i , µ= Ri i .
i =1 i =1

Posons p = max{αi − βi + 1, i ∈ ‚1, r ƒ}, P 1 = µ puis, pour tout k ∈ ‚2, pƒ,


Y
r
Pk = Ri .
i =1
αi Êβi +k−1

Par construction, pour tout k ∈ ‚1, p −1ƒ, P k+1 divise P k . Les invariants de simi-
litude de la matrice
 
C P1
 .. 
 . 
 
 
A= C Pi 
 
 .. 
 . 
C Pr
Qp
sont P 1 , . . . , P p donc µ A = P 1 = µ et χ A = k=1
P k = χ. ◁

5.5. Exercice.
1. Soit P ∈ K[X ] unitaire. Déterminer le rang de la matrice compagnon C P .
2. Soit A ∈ Mn (K). Montrer que deg µ A É rg A + 1.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XII

5. Exercices 173

3. Déterminer les matrices A ∈ Mn (K) telles que deg µ A = rg A + 1.


▷ Éléments de correction.
1. Rappelons que la matrice compagnon de P est de la forme
 
0 · · · · · · 0 −P (0)
 .. 
1 . . . . ? 
 
 . .. 
C P = 0 . . . . . . .. .  ∈ Mdeg P (K).
 
 .. . . . .. 
.
. . .. 0 
0 ··· 0 1 ?
Par conséquent, si P (0) 6= 0, les lignes sont échelonnées non nulles ; si-
non, la première ligne est nulle et les deg P − 1 lignes suivantes sont in-
dépendantes. Ainsi,
½
deg P si P (0) 6= 0,
rgC P =
deg P − 1 sinon.

2. Considérons la réduite de Frobenius diag(C P 1 , . . . ,C P r ) de A avec, pour


tout k ∈ ‚1, r − 1ƒ, P k+1 qui divise P k . Rappelons que P 1 = µ A .
Alors le rang de A est la somme des rangs des différents blocs compa-
gnons et l’on déduit successivement
X
r
rg A = rgC P k
k=1
Xr © ª
= deg P k − # k ∈ ‚1, r ƒ, P k (0) = 0
k=1
© ª
Ê deg P 1 + (r − 1) − # k ∈ ‚1, r ƒ, P k (0) = 0
Ê deg µ A − 1,
© ª
en minorant deg P k par 1 et en majorant # k ∈ ‚1, r ƒ, P k (0) = 0 par r .
Ce résultat a déjà été établi par des moyens plus élémentaires à l’exer-
cice VII -7.7.
3. En reprenant les notations de la question précédente, on obtient que
l’égalité équivaut à
X
r © ª
deg P k = # k ∈ ‚1, r ƒ, P k (0) = 0 − 1.
k=2

Or, le premier membre est minoré par r − 1 (cas où tous les invariants
restants sont de degré 1) et le second membre est majoré par r − 1 (cas
où tous les invariants admettent 0 pour racine). Par conséquent, les deux
termes sont égaux à r − 1 et l’on en déduit
— deg P 2 = · · · = deg P r = 1,
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap16 chapitre:XII

174 XII. Réduction de Frobenius

— pour tout k ∈ ‚1, r ƒ, P k (0) = 0.


En conclusion, les invariants de similitude de 1 sont

P r = X , P r −1 = X , . . . , P 2 = X , P 1 = XQ,

avec Q un polynôme unitaire.


Réciproquement, si une matrice admet ces invariants de similitude, alors
son rang est degQ et son polynôme minimal est XQ de degré degQ + 1.

5.6. Exercice. Soit n Ê 4 et A, B ∈ Mn (K) de rang 2. Montrer que A et B sont


semblables si, et seulement si, µ A = µB .

▷ Éléments de correction. Le sens direct est immédiat. Pour établir le sens re-
tour, montrons que la suite des invariants de similitude d’une matrice A de
rang 2 est uniquement déterminée par le polynôme minimal µ A .
Notons P 1 = µ A , P 2 , . . . , P r les invariants de similitude de A. Comme
X
r
rg A = rgC P k Ê rgC P 1 = deg µ A − 1,
k=1

car 0 est racine de µ A , on obtient que deg µ A É 3.


Discutons alors selon la valeur de deg µ A en utilisant le calcul du rang d’une
matrice compagnon de l’exercice précédent.
. Si deg µ A = 1, alors µ A = X ; la matrice A est alors diagonalisable avec 0 comme
seule valeur propre donc A est nulle, contradiction.
. Si deg µ A = 2, alors µ A = X (X − α). Le polynôme P 2 divise µ A , est divisé par X
et
Xr
2 = rg(A) = 1 + rgC P k .
k=2

Par conséquent, les autres invariants sont


— P 2 = µ A car rgC P 2 = 1,
— P 3 = · · · = P n−2 = X car rgC P k = 0 pour k > 2.
. Si deg µ A = 3, alors µ A = XQ avec Q de degré 2 et donc rgC µ A = 2. Les autres
invariants sont P 2 = · · · = P n−3 = X car les matrices compagnons associées sont
de rang nul.
Dans tous les cas, les invariants de similitude (donc la classe de similitude)
d’une matrice de rang 2 sont uniquement déterminés par le polynôme mini-
mal. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap13 chapitre:XIII

Chapitre XIII

Topologie des classes


de similitude

Objectifs du chapitre
— Comprendre la géométrie des classes de similitude de M2 (R).
— Savoir interpréter en termes topologiques de la classe de similitude la
nilpotence ou la diagonalisabilité d’une matrice.
— Dériver les propriétés de connexité des classes de similitude des proprié-
tés correspondantes des groupes linéaires.

1. Rappels sur la relation de similitude


1.1. Rappel. . Deux matrices A, B ∈ Mn (K) sont semblables s’il existe une ma-
trice inversible P ∈ GLn (K) telle que B = P −1 AP .
. La classe de similitude d’une matrice A ∈ Mn (K) est l’ensemble des matrices
semblables à A.

1.2. Remarques. . Deux matrices semblables sont en particulier équivalentes


donc ont même rang (la réciproque est fausse).
. La similitude est une relation d’équivalence sur Mn (K) et les classes d’équi-
valence sont, par définition, les classes de similitude.
. D’après la formule de changement de bases, deux matrices sont semblables
si, et seulement si, elles représentent le même endomorphisme dans des bases
a priori différentes.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap13 chapitre:XIII

176 XIII. Topologie des classes de similitude

1.3. Exemple. La classe de similitude de λIn est réduite à λIn car, pour toute
matrice inversible P ∈ GLn (K),

P (λIn )P −1 = λP P −1 = λIn .

On a obtenu deux caractérisations de la relation de similitude. Deux matrices


sont semblables si, et seulement si,
. elles ont la même réduite de Jordan, c’est-à-dire les mêmes tableaux de Young
pour chaque valeur propre (chapitre XI),
. elles ont la même réduite de Frobenius, c’est-à-dire les mêmes invariants de
similitude (chapitre XII).

2. Classes de similitude dans M2 (R)


Commençons par l’étude « géométrique » des classes de similitude dans M2 (R).
Remarquons tout d’abord que les matrices scalaires sont seules dans leur classe
de similitude. Ce cas désormais écarté, les matrices considérées sont non sca-
laires donc cycliques. Rappelons le critère de similitude dans M2 (R).

2.1. Lemme. Deux matrices cycliques de M2 (R) sont semblables si, et seulement
si, elles ont le même polynôme caractéristique ou, de manière équivalente, même
trace et même déterminant.

Pour rédiger simplement les résultats, introduisons la base de M2 (R) composée


des vecteurs suivants,
µ ¶ µ ¶ µ ¶ µ ¶
1 0 0 1 1 0 0 1
, , , .
0 1 1 0 0 −1 −1 0

En notant t , x, y et z ∈ R les coordonnées de M ∈ M2 (R) dans cette base, on


obtient la forme µ ¶
t +y x +z
M= .
x −z t −y

2.2. Proposition. Soit A ∈ M2 (R) une matrice non scalaire. Alors, une matrice
non scalaire de la forme
µ ¶
t +y x +z
M= ∈ M2 (R)
x −z t −y

est semblable à A si, et seulement si, 2t = tr A, et x 2 + y 2 − z 2 = 14 ∆ A , où ∆ A est le


discriminant du polynôme caractéristique de A, c’est-à-dire (tr A)2 − 4 det A.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap13 chapitre:XIII

2. Classes de similitude dans M2 (R) 177

Démonstration. D’après le lemme rappelé plus haut, il suffit d’identifier les po-
lynômes caractéristiques

χ A = X 2 − (tr A)X + det A et χM = X 2 − 2t X + t 2 − y 2 + z 2 − x 2 .

2.3. Remarque. D’après ces équations, les classes de similitude des matrices
non scalaires sont donc (essentiellement) des quadriques incluses dans un hy-
perplan affine défini par la trace.
Pour tout A ∈ M2 (R), la classe de similitude de A est l’image de la classe de si-
militude de la matrice de trace nulle A − tr2A I2 par la translation de tr2A I2 . Ainsi,
il suffit d’étudier les classes de similitudes des matrices de trace nulle pour ob-
tenir la géométrie de toutes les classes à translation près.

Dorénavant, on suppose tr A = 0 et l’on discute selon le signe de ∆ A pour dé-


terminer la classe de similitude de A.
Tous les dessins sont réalisés dans l’hyperplan ker tr de M2 (R) (donc de dimen-
sion 3) privé de son origine qui correspond à la matrice (scalaire) nulle.
— Rappelons que les trois axes représentent les coordonnées x, y et z cor-
respondant respectivement aux vecteurs
µ ¶ µ ¶ µ ¶
0 1 1 0 0 1
, , .
1 0 0 −1 −1 0
— Le plan « horizontal » d’équation z = 0 correspond aux matrices symé-
triques de cet hyperplan, l’axe d’équations x = y = 0 aux matrices anti-
symétriques.

A n (R) z •A

S n (R) y
x

• A⊤

— La symétrie orthogonale par rapport au plan d’équation z = 0 est la trans-


position. Les classes de similitude sont toutes symétriques par rapport
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap13 chapitre:XIII

178 XIII. Topologie des classes de similitude

au plan d’équation z = 0 puisque une matrice est toujours semblable à


sa transposée.

2.4. Cas ∆ A = 0. Les matrices A telles que tr A = 0 et ∆ A = 0 sont exactement les


matrices nilpotentes. D’après la proposition précédente, la classe de similitude
d’une matrice nilpotente non nulle est donc le cône d’équation x 2 + y 2 − z 2 = 0
privé de l’origine (qui est la classe de similitude de 02 ). On remarque que cette
classe n’est ni bornée, ni fermée (à cause de l’origine), ni connexe (aussi à cause
de l’origine).

2.5. Remarque. L’adhérence de la classe de similitude d’une matrice nilpotente


non nulle est donc le cône complet (avec son sommet) des matrices nilpo-
tentes. En particulier, la matrice nulle est adhérente à la classe de similitude
d’une matrice nilpotente ; on verra à la section suivante que cette propriété est
en fait une caractérisation des matrices nilpotentes.

2.6. Cas ∆ A < 0. Dans ce cas, la matrice n’admet pas de valeur propre réelle :
elle n’est donc pas diagonalisable. Réciproquement, une matrice non diagona-
lisable de trace nulle admet deux valeurs propres imaginaires pures conjuguées
donc vérifie bien ∆ A < 0.
La classe de similitude d’une telle matrice est donc un hyperboloïde à deux
nappes d’équation x 2 + y 2 − z 2 = α avec α < 0. Les deux composantes sont « in-
térieures » au cône nilpotent (représenté en grisé sur le dessin suivant). Cette
fois-ci, la classe est fermée mais n’est ni connexe, ni bornée.
Ces classes ne rencontrent pas le plan horizontal ce qui est cohérent avec le
théorème spectral : toute matrice symétrique réelle est diagonalisable et les
matrices de ces classes ne sont pas diagonalisables.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap13 chapitre:XIII

2. Classes de similitude dans M2 (R) 179

On remarque qu’au sein d’une telle classe, une matrice et sa transposée n’ap-
partiennent pas à la même composante connexe.

2.7. Cas ∆ A > 0. Dans ce cas, la matrice A admet deux valeurs propres réelles
distinctes donc est diagonalisable. Réciproquement, si A est diagonalisable de
trace nulle, alors elle admet deux valeurs propres réelles distinctes donc le dis-
criminant est strictement positif.
La classe de similitude d’une telle matrice est donc l’hyperboloïde à une nappe
d’équation x 2 + y 2 −z 2 = α avec α > 0, extérieur au cône nilpotent. Cette fois-ci,
la classe est à la fois fermée et connexe.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap13 chapitre:XIII

180 XIII. Topologie des classes de similitude

3. Adhérence d’une classe de similitude


Reprenons quelques remarques dans le cas des matrices de taille n quelconque.

3.1. Proposition. L’adhérence de la classe de similitude d’une matrice est une


réunion des classes de similitude.

Démonstration. Soit A ∈ Mn (K) et B dans l’adhérence de la classe de similitude


de A. Par définition de l’adhérence, il existe une suite de matrices (A p )p sem-
blables à A qui converge vers B .
Pour tout P ∈ GLn (K), la matrice P B P −1 est la limite de la suite de matrices
¡ ¢
P A p P −1 p semblables à A (par continuité du produit matriciel) : toute matrice
semblable à B est donc dans l’adhérence de la classe de similitude de A.
En conclusion, l’adhérence de la classe de similitude de A est la réunion des
classes de similitude de ses éléments. ä

3.2. Proposition. Une matrice de Mn (C) est nilpotente si, et seulement si, la ma-
trice nulle est adhérente à sa classe de similitude.

Démonstration. (⇒) Soit A ∈ Mn (C) nilpotente et T sa réduite de Jordan. No-


¡ ¢
tons, pour tout t > 0, D t = diag 1, t , t 2 , . . . , t n−1 et

T t = D −1
t T D t = t T.

Par conséquent, 0n = lim T t est adhérente à la classe de similitude de A.


t →0
(⇐) Si la matrice nulle est limite d’une suite de matrices (A p )p semblables à A,
alors le polynôme caractéristique χ0n est la limite de la suite constante de po-
¡ ¢
lynômes caractéristiques χ A p p (par continuité de l’application A 7→ χ A ) ; par
conséquent, χ A = χ0n = X n et A est nilpotente d’après le théorème de Cayley &
Hamilton. ä

3.3. Remarque. Dans le sens direct de cette preuve, on n’a pas besoin de consi-
dérer la forme réduite de Jordan. Toute matrice triangulaire strictement supé-
rieure semblable à A suffirait pour ce calcul.

3.4. Exemple. L’adhérence de la classe de similitude de J n est l’ensemble N


des matrices nilpotentes.
. L’ensemble N est fermé comme image réciproque du singleton {0n } par l’ap-
plication continue M 7→ M n . Comme N contient la classe de similitude de J n ,
il contient l’adhérence de cet ensemble.
. Réciproquement, considérons une matrice N nilpotente et T une matrice
triangulaire strictement supérieure semblable à N . Considérons (T p )p la suite
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap13 chapitre:XIII

3. Adhérence d’une classe de similitude 181

de matrices où l’on a remplacé les éventuels coefficients nuls de T en position


(i , i + 1) par le coefficient p1 .
Chaque matrice T p est semblable à J n car nilpotente d’indice n (ou, de manière
équivalente, de rang n −1) et la suite (T p )p converge vers T . Ainsi, T appartient
à l’adhérence de la classe de similitude de J n . En conclusion, N appartient à
cette adhérence également.

3.5. Proposition. Une matrice de Mn (C) est diagonalisable si, et seulement si, sa
classe de similitude est fermée.

Démonstration. (⇒) Soit A diagonalisable et (A k )k une suite de matrices sem-


blables à A qui converge vers B ∈ Mn (C).
Comme A est diagonalisable, il existe un polynôme annulateur de A scindé à
racines simples ; ce polynôme est alors également annulateur de toutes les ma-
trices A k par la relation de similitude donc de B : la matrice B est diagonali-
sable.
Par ailleurs, toutes les matrices A k ont le même polynôme caractéristique que
A donc, par continuité du déterminant, B aussi. Ainsi B a les mêmes valeurs
propres que A avec les mêmes multiplicités.
En conclusion, A et B sont semblables à la même matrice diagonale donc sem-
blables entre elles.
(⇐) Soit A ∈ Mn (C) dont la classe de similitude est fermée. En utilisant la dé-
composition de Jordan & Dunford et le critère de co-trigonalisation pour les
deux termes de cette décomposition, on dispose d’une matrice D diagonale et
d’une matrice T triangulaire strictement supérieure telle que A est semblable
à D +T.
¡ ¢
En posant encore, pour tout t > 0, D t = diag 1, t , t 2 , . . . , t n−1 , on observe que la
matrice A est semblable à D −1
t AD t donc à

D −1 −1 −1
t DD t + D t T D t = D + D t T D t .

Or, lim D −1
t T D t = 0n donc D appartient à l’adhérence de la classe de similitude
t →0
de A qui est, par hypothèse de fermeture, la classe de similitude de A. Ainsi, la
matrice A est semblable à la matrice diagonale D, donc est diagonalisable. ä

En fait, un résultat un peu plus élaboré a été établi.

3.6. Proposition. Soit A ∈ Mn (C) dont la décomposition de Jordan & Dunford est
A = D + N avec D diagonalisable, N nilpotente et D N = N D. Alors, la matrice D
appartient à l’adhérence de la classe de similitude de A.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap13 chapitre:XIII

182 XIII. Topologie des classes de similitude

4. Connexité d’une classe de similitude


4.1. Proposition. La classe de similitude d’un matrice de Mn (C) est connexe.

Commençons par rappeler un résultat classique.

4.2. Lemme. Le groupe GLn (C) est connexe.


Démonstration. Montrons que GLn (C) est connexe par arcs (donc une propriété
plus forte). Soit A, B ∈ GLn (C). L’ensemble
Z = {z ∈ C, det(z A + (1 − z)B ) = 0}
est fini en tant qu’ensemble des racines d’un polynôme non nul et ne contient
ni 0, si 1. Par conséquent, C \Z est un ensemble connexe par arcs contenant
0 et 1 : l’image d’un chemin continu de C \Z joignant 0 et 1 par l’application
z 7→ z A + (1 − z)B fournit un chemin continu de GLn (C) joignant A et B . ä

Revenons à la preuve de la proposition.


Démonstration. L’application
½
GLn (C) → Mn (C)
P 7 → P M P −1
est continue et GLn (C) est connexe. Par conséquent, l’image de cette applica-
tion, c’est-à-dire la classe de similitude de M , est connexe. ä

Passons maintenant au cas réel.

4.3. Proposition. La classe de similitude d’une matrice de M2n+1 (R) est connexe.

On admet ici que l’ensemble GL+ n (R) = {A ∈ Mn (R), det A > 0} est connexe par
arcs (la décomposition polaire X -4.6 donne un homéomorphisme de ce groupe
avec S n++ (R) × S O n (R), S n++ (R) est convexe, et S O n (R) est connexe par arcs).
Démonstration. Soit M ∈ M2n+1 (R). Remarquons que si A est semblable à M
alors, il existe une matrice P ∈ GL2n+1 (R) telle que

A = P M P −1 = (−P )M (−P )−1 .


Comme l’une des matrices P et −P appartient à GL+ 2n+1 (R) (les déterminants
sont opposés car la dimension est impaire), on obtient que la classe de simili-
tude de M est l’image de l’application continue
½
GL+
2n+1 (R) → M2n+1 (R)
P 7→ P M P −1
donc est connexe par arcs. ä
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap13 chapitre:XIII

5. Commentaires et développements 183

4.4. Remarque. Le résultat de connexité n’est plus vrai en dimension paire. En


effet, d’après l’étude géométrique dans M2 (R), les matrices suivantes
µ ¶ µ ¶
0 1 0 −1
,
−1 0 1 0

appartiennent à deux composantes connexes distinctes de la même classe de


similitude.

5. Commentaires et développements
5.1. La classe de similitude de la matrice M est fermée si, et seulement si, la
matrice M est semi-simple. En général, elle est seulement localement fermée
dans Mn (R), autrement dit elle est ouverte dans son adhérence. L’exemple du
bloc de Jordan J n est assez suggestif. Sa classe est exactement l’intersection du
cône nilpotent (qui est manifestement un fermé, car caractérisé par la condi-
tion M n = 0n ) et de l’ouvert des matrices telles que M n−1 6= 0n .
Le cas général résulte tout simplement du théorème de Jordan & Weyr, Propo-
sition XI -4.4. En effet, une classe de similitude sur C est caractérisée parmi les
classes de similitude des matrices ayant un même polynôme caractéristique
par des conditions d’égalité sur le rang des puissances itérées de M − λi In et il
est bien connu que les matrices ayant un rang donné est localement fermé.

5.2. L’ensemble des matrices inversibles tout comme celui des matrices à va-
leurs propres distinctes sont les complémentaires de l’ensemble des zéros de
fonctions polynomiales non nulles des coefficients d’une matrice. Aussi sont-
ils des ensembles ouverts denses et connexes par arcs dans Mn (C). Les classes
de similitude de matrices complexes sont par conséquent des parties connexes
par arcs, car orbites sous l’action de GLn (C). L’ensemble des matrices diagona-
lisables complexes est à son tour clairement connexe et dense.

5.3. Deux classes de similitude de matrices nilpotentes qui ont même adhé-
rence sont égales, car, étant toutes deux ouvertes dans cette adhérence, elles
ont donc une intersection non vide et sont dès lors égales. Il est possible de dé-
crire, en termes de tableaux de Young, les matrices qui sont dans l’adhérence
de la classe de similitude d’une autre. La question est délicate, des exercices
fourniront quelques cas particuliers. La question étant délicate, on se contente
de quelques exemples simples : l’orbite du bloc de Jordan J n est dense dans
le cône nilpotent d’après l’Exemple XIII -3.4 ; l’adhérence de la classe de simi-
litude d’une matrice d’indice de nilpotence n − 1 est l’ensemble des matrices
dont la puissance (n − 1)-ième est nulle (Exercice XIII -6.8).
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap13 chapitre:XIII

184 XIII. Topologie des classes de similitude

6. Exercices
6.1. Exercice. Soit A une matrice diagonalisable. Montrer qu’une matrice B est
semblable à A si, et seulement si, elle a à la fois le même polynôme minimal et le
même polynôme caractéristique que A.
Le résultat reste-t-il vrai si l’on enlève l’hypothèse A diagonalisable ?

▷ Éléments de correction. . Le sens retour est évident.


Passons au sens direct. La matrice A est diagonalisable donc le polynôme mi-
nimal est scindé à racines simples. Comme µB = µ A , la matrice B est diagona-
lisable et ses valeurs propres sont celles de A (les racines de µ A ). Par ailleurs,
χB = χ A , donc les valeurs propres ont la même multiplicité pour A et B . En
conclusion, A et B sont semblables à la même matrice diagonale donc sont
semblables par transitivité.
. Avec les invariants de similitude, il est facile de réaliser un contre exemple.
Considérons d’une part la matrice dont les invariants de similitude sont X 2
et X 2 et celle dont les invariants de similitude sont X 2 , X et X . On peut, par
exemple, considérer les matrices suivantes
   
0 1 0 0 0 1 0 0
0 0 0 0 0 0 0 0 
   
0 0 0 1 0 0 0 0  .
0 0 0 0 0 0 0 0

Pour ces deux matrices non semblables, le polynôme minimal est X 2 et le po-
lynôme caractéristique est X 4 . ◁

6.2. Exercice. Montrer que les matrices


µ ¶ µ ¶
0 1 0 0
et
0 0 1 0
sont semblables mais que la matrice de passage est forcément de déterminant
strictement négatif.

▷ Éléments de correction. Ces deux matrices sont semblables car cycliques de


polynôme minimal X 2 .
En notant a, b, c et d les coefficients d’une matrice de passage (en particulier,
ad − bc 6= 0), µ ¶µ ¶ µ ¶µ ¶
0 1 a b a b 0 0
= .
0 0 c d c d 1 0
En identifiant les coefficients, on obtient b = c et d = 0 : la matrice de passage
est de déterminant −b 2 < 0. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap13 chapitre:XIII

6. Exercices 185

6.3. Exercice.
1. Montrer que l’application
½
Mn (K) → K[X ]
A 7 → χA
est continue.
2. Montrer que l’application
½
Mn (K) → K[X ]
A 7 → µA
n’est pas continue.
▷ Éléments de correction.
1. Chaque coefficient du polynôme caractéristique de A est polynomial en
les coefficients de A donc définit une fonction continue. Par suite, l’ap-
plication A 7→ χ A est continue.
¡ ¢
2. Chaque matrice de la suite 2−p E 1,2 p admet X 2 comme polynôme mi-
nimal. Or, la limite de cette suite est la matrice nulle dont le polynôme
minimal est X . La suite (constante) (X 2 )p des polynômes minimaux ne
converge donc pas vers X , le polynôme minimal de la limite : l’applica-
tion A 7→ µ A n’est pas continue.

6.4. Exercice. Montrer que la classe de similitude d’une matrice A est bornée si,
et seulement si, A est une matrice scalaire.
▷ Éléments de correction. (⇐) Si A est une matrice scalaire, alors la classe de
similitude de A est {A} donc est bornée.
(⇒) Supposons que A n’est pas une matrice scalaire. Montrons que sa classe de
similitude n’est pas bornée pour la norme définie comme la borne supérieure
des modules/valeurs absolues des coefficients. Comme A n’est pas scalaire, il
existe un vecteur X ∈ Mn,1 (K) tel que (X , AX ) est libre.
Pour tout t > 0, considérons une base obtenue en complétant la famille libre
(t X , AX ). Grâce à la formule de changement de bases, A est semblable à une
matrice dont la première colonne est
 
0
t 
 
0
 .
.
 .. 
0
On peut donc trouver, dans la classe de similitude de A, des matrices de norme
supérieure ou égale à t : la classe n’est pas bornée. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap13 chapitre:XIII

186 XIII. Topologie des classes de similitude

6.5. Exercice. Montrer qu’une classe de similitude est d’intérieur vide.

▷ Éléments de correction. La classe de similitude de M est incluse dans l’hyper-


plan affine M + ker tr qui est d’intérieur vide. ◁

6.6. Exercice. Déterminer les ouverts de Mn (C) contenant les matrices diago-
nales et stables par similitude.

▷ Éléments de correction. D’après les hypothèses, un tel ouvert O contient la


réunion des classes de similitudes des matrices diagonales donc toutes les ma-
trices diagonalisables.
Soit M ∈ Mn (C) de décomposition de Jordan & Dunford M = D + N avec D
diagonalisable, N nilpotent et D N = N D. La matrice D appartient à O et est
adhérente à la classe de similitude de M ; il existe donc une boule centrée sur D
incluse dans O et qui rencontre la classe de similitude de M : on dispose par
conséquent d’une matrice semblable à M qui appartient à O . Comme O est
stable par similitude, M appartient à son tour à O .
En conclusion, le seul ouvert qui convient est Mn (C). ◁

6.7. Exercice. Soit n Ê 4. Montrer qu’une matrice nilpotente de tableau de Young


TY(n −1, 1) n’appartient pas à l’adhérence de la classe de similitude d’un matrice
nilpotente de tableau de Young TY(n − 2, 2).
Indication : on pourra montrer que l’ensemble des matrices de rang strictement
inférieur à n − 3 est un fermé puis calculer le rang du carré de matrices nilpo-
tentes de tableau de Young TY(n − 1, 1) ou TY(n − 2, 2) .

▷ Éléments de correction. . Soit r ∈ ‚1, nƒ. L’ensemble


© ª
Ar = M ∈ Mn (K), rg M < r

est un fermé comme intersection des images réciproques du fermé {0} par cha-
cune des applications continues définies par un déterminant extrait de taille r .
. Soit A une matrice nilpotente de tableau de Young TY(n −2, 2). Alors, comme
calculé au chapitre XI, rg A 2 = n − 4 et A 2 ∈ An−3 . Ainsi, toute matrice M sem-
blable à A vérifie M 2 ∈ An−3 .
D’après le premier point, toute matrice M adhérente à la classe de similitude
de A vérifie donc M 2 ∈ An−3 .
Or, toute matrice M nilpotente de tableau de Young TY(n −1, 1) vérifie la condi-
tion rg M 2 = n −3 donc n’appartient pas à l’adhérence de la classe de similitude
de A. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap13 chapitre:XIII

6. Exercices 187

6.8. Exercice. Montrer que l’adhérence de la classe de similitude d’une matrice


nilpotente de tableau de Young TY(n−1, 1) est constituée des matrices nilpotentes
admettant au moins deux blocs de Jordan.

▷ Éléments de correction. Notons A la classe de similitude d’une matrice nil-


potente de tableau de Young TY(n − 1, 1).
. Remarquons tout d’abord que les matrices semblables à une matrice nilpo-
tente de tableau de Young TY(n −1, 1) sont nilpotentes et donc que l’adhérence
de A est constituée de matrices nilpotentes.
En adaptant l’exercice précédent, on vérifie que la matrice J n n’est pas adhé-
rente à A : une suite convergente de matrices de rang n − 2 ne peut avoir pour
limite une matrice de rang n − 1.
Par conséquent, l’adhérence de A est composée de matrices nilpotentes ad-
mettant au moins deux blocs de Jordan.
. Soit k Ê 2 tel que n − k Ê k. Montrons que l’adhérence de A contient une
matrice nilpotente de tableau de Young TY(n − k, k).
Pour cela, considérons, pour tout p ∈ N, la matrice nilpotente
à !
J n−k
Ap = + 2−p E n−k,n−1 .
Jk >

Fixons p ∈ N et calculons explicitement les noyaux itérés de la matrice A p par


des calculs par blocs. En notant (e 1 , . . . , e n ) la base canonique de Mn,1 (K), on
obtient
— pour tout j ∈ ‚1, n − kƒ,
j
ker A p = Vect(e 1 , . . . , e j , e n ),

— pour j ∈ ‚n − k + 1, nƒ,
j
ker A p = Vect(e 1 , . . . , e n−k , e 2n−k− j , . . . , e n ).
La suite des sauts de dimension des noyaux itérés est (2, 1, . . . , 1) ; elle indique
donc que la matrice A p admet le tableau de Young TY(n −1, 1). Ainsi, A p appar-
tient à A .
¡ ¢
Par ailleurs, la suite de matrices A p p converge vers la matrice
à !
J n−k
Jk >

nilpotente de tableau de Young TY(n − k, k) ; cette dernière appartient donc à


l’adhérence de A .
En conclusion, toute matrice nilpotente de tableau de Young TY(n − k, k) ap-
partient à l’adhérence de A .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap13 chapitre:XIII

188 XIII. Topologie des classes de similitude

. Terminons désormais l’exercice en montrant que toute matrice nilpotente


admettant au moins deux blocs de Jordan appartient à l’adhérence de A .
Considérons un tableau de Young TY(δ1 , . . . , δp ) avec p Ê 2. Comme l’adhé-
rence de la classe de similitude de J n−δp est l’ensemble des matrices nilpo-
¡ ¢
tentes de taille n − δp (d’après l’Exemple XIII -3.4), il existe une suite M l l de
matrices de Mn−δp (K) nilpotentes d’ordre n −δp qui converge vers une matrice
nilpotente de tableau de Young TY(δ1 , . . . , δp−1 ). La suite de matrices définies
pour tout l ∈ N par à !
Ml
J δp

de l’adhérence de A , car de tableau de Young TY(n −δp , δp ), converge vers une


matrice nilpotente de tableau de Young TY(δ1 , . . . , δp−1 , δp ). Par conséquent,
toute matrice nilpotente de tableau de Young TY(δ1 , . . . , δp ) appartient à l’adhé-
rence de A .
En conclusion, toutes les matrices nilpotentes avec au moins deux blocs de
Jordan sont dans l’adhérence de A .
Remarquons que cette adhérence est l’ensemble des matrices nilpotentes d’in-
dice de nilpotence inférieur ou égal à n −1, c’est-à-dire l’ensemble des matrices
dont la puissance (n − 1)-ième est nulle. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV

Chapitre XIV

Localisation des valeurs


propres

Objectifs du chapitre
— Déterminer des propriétés de localisation des valeurs propres à partir
des coefficients de la matrice.
— Comprendre le disque spectral (centré en l’origine et de rayon le rayon
spectral).
— Démontrer les théorèmes de Perron et Perron & Frobenius sous diffé-
rentes hypothèses de positivité et d’irréductibilité.

1. Théorème de Hadamard

1.1. Théorème de Hadamard. Soit A = (a i , j ) ∈ Mn (C) une matrice à diagonale


strictement dominante, c’est-à-dire telle que, pour tout i ∈ ‚1, nƒ,
X
n
|a i ,i | > |a i , j |.
j =1
j 6=i

Alors, A est inversible.

Démonstration. Soit X = (x i ) ∈ Mn,1 (C) un vecteur du noyau de A et i ∈ ‚1, nƒ


l’indice d’un coefficient de module maximal, c’est-à-dire tel que
© ª
|x i | = max |x j |, j ∈ ‚1, nƒ .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV

190 XIV. Localisation des valeurs propres

Pn
Alors, la i -ième ligne de l’égalité AX = 0n,1 donne j =1 a i , j x j = 0 soit

X
n
a i ,i x i = − ai , j x j .
j =1
j 6=i

En prenant le module et en utilisant l’inégalité triangulaire, on obtient


X
n X
n
|a i ,i ||x i | É |a i , j ||x j | É |x i | |a i , j |.
j =1 j =1
j 6=i j 6=i

Si X est non nul, x i 6= 0 et en simplifiant cette égalité, on obtient une contradic-


tion avec l’hypothèse du théorème. Par conséquent, X = 0n,1 et la matrice A est
injective donc inversible. ä

2. Disques de Gerschgorin

2.1. Définition. Soit A = (a i , j ) ∈ Mn (C) et i ∈ ‚1, nƒ. Le i -ième disque de Ger-


schgorin de A est le disque fermé de centre a i ,i et de rayon
X
n
ri = |a i , j |.
j =1
j 6=i

Le théorème de Hadamard se réécrit à l’aide de cette définition.

2.2. Théorème de Hadamard. Soit A ∈ Mn (C). Si 0 n’appartient à aucun des


disques de Gerschgorin de A, alors A est inversible.

Une translation de ce résultat donne la variante suivante.

2.3. Théorème de Gerschgorin. Les valeurs propres complexes d’une matrice


appartiennent à la réunion de ses disques de Gerschgorin.

Démonstration. Soit A = (a i , j ) ∈ Mn (C) et λ un complexe qui n’appartient à


aucun des disques de Gerschgorin de A, c’est-à-dire tel que, pour tout i ∈ ‚1, nƒ,
X
n
|a i ,i − λ| > r i = |a i , j |.
j =1
j 6=i

D’après le théorème de Hadamard, A − λIn est alors inversible : λ n’est pas va-
leur propre. ä
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV

2. Disques de Gerschgorin 191

2.4. Remarque. . Une matrice et sa transposée admettant les mêmes valeurs


propres, on peut dire que les valeurs propres de A appartiennent également à
P
la réunion des disques de centre a j , j et de rayon ni=1,i 6= j |a i , j | pour j ∈ ‚1, nƒ
(somme sur les colonnes cette fois-ci).
. Les valeurs propres réelles appartiennent à la fois à l’axe des abscisses et à
tous ces disques donc à l’intersection des deux domaines.

2.5. Théorème. Soit A ∈ Mn (C) une matrice dont r disques de Gerschgorin ne


rencontrent pas les n − r autres. Alors, la réunion de ces r disques contient exac-
tement r valeurs propres de A comptées avec leur multiplicité.

L’argument proposé pour la preuve suivante consiste à exploiter la connexité


par arcs de domaines du plan complexe.
Démonstration. Soit A la réunion des r disques de Gerschgorin de A considé-
rés et B la réunion des n − r autres disques de A. Comme ces deux ensembles
sont fermés (même compacts) et disjoints, d (A , B) > 0.
Notons D la matrice diagonale extraite de A, c’est-à-dire la matrice diagonale
dont les coefficients diagonaux sont ceux de A puis considérons l’application
½
[0, 1] → Mn (C)
B:
t 7→ D + t (A − D)
Les valeurs propres de B (0) = D sont exactement les centres des disques de
Gerschgorin de A : il y en a donc r dans A et n − r dans B.
Rappelons, enfin, que les valeurs propres de B (t ) définissent des fonctions conti-
nues de la variable t (résultat ici admis mais non trivial) et à valeurs dans A ∪B
(d’après le théorème de Gerschgorin). Soit f l’une de ces fonctions telle que
f (0) ∈ A ; si f (1) ∈ B, alors f joint continûment deux points n’appartenant pas
à la même composante connexe de A ∪ B : contradiction. Ainsi, f (1) ∈ A . De
même, si f (0) ∈ B, alors f (1) ∈ B).
En conclusion, la matrice A = B (1) admet elle-aussi r valeurs propres dans A
et n − r dans B. ä

2.6. Corollaire. Soit A ∈ Mn (C) et D un disque de Gerschgorin de A qui ne ren-


contre pas les autres. Alors, D contient exactement une valeur propre de A et
celle-ci est simple.

2.7. Exemple. En appliquant les résultats précédents à la matrice


 
0 0 2
−2 i 0  ∈ M3 (C),
1 0 4+i
on obtient trois disques de Gerschgorin en deux zones disjointes : d’une part, la
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV

192 XIV. Localisation des valeurs propres

réunion de deux disques D(0, 2) ∪ D(i , 2) qui contient deux valeurs propres ; de
l’autre, un disque isolé D(4 + i , 1) qui contient une valeur propre. Sur le dessin
suivant, les valeurs propres sont marquées d’une croix.

4+i
×i ×
× 0

Remarquons que la situation est bien différente en considérant les disques de


Gerschgorin de la matrice A > puisque la réunion des trois disques (l’un est ré-
duit à un point) est connexe.

i 4+i
× ×
× 0

2.8. Remarque. Il est possible qu’un disque de Gerschgorin ne contienne au-


cune valeur propre : le disque unité est un disque de Gerschgorin de la ma-
trice E 1,2 + 4E 2,1 ∈ M2 (C) dont les valeurs propres, 2 et −2, sont en dehors de ce
disque.

3. Rayon spectral
3.1. Définition. Soit A ∈ Mn (C). Le rayon spectral de A est le réel ρ(A) Ê 0 défini
comme le plus grand module d’une valeur propre de A.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV

3. Rayon spectral 193

3.2. Remarque. Attention, le rayon spectral d’une matrice n’est pas forcément
une valeur propre (par exemple, ρ(i In ) = 1). En revanche, par définition, toutes
les valeurs propres d’une matrice A appartiennent au disque fermé de centre 0
et de rayon ρ(A). Illustrons quelques situations très différentes.
. Le rayon spectral de la matrice de permutation associée à une permutation
σ ∈ S n est 1 et toutes les valeurs propres sont des racines de l’unité (car un
polynôme annulateur est X p − 1 avec p l’ordre de σ). Ainsi, toutes les valeurs
propres appartiennent au cercle de centre 0 et de rayon 1.
. Le rayon spectral de la matrice dont tous les coefficients sont égaux à 1 vaut n
et une seule valeur propre (qui plus est, simple) appartient au cercle de centre 0
et de rayon n.

3.3. Proposition. Soit A ∈ Mn (C) et λ ∈ C. Alors, ρ(λA) = |λ|ρ(A).

3.4. Remarque. Le comportement du rayon spectral vis à vis de la somme ma-


tricielle est plus délicat à appréhender comme on peut le comprendre avec ces
exemples :
— pour A = I2 , B = −I2 , ρ(A) + ρ(B ) = 1 + 1 > 0 = ρ(A + B ),
— pour A = E 1,2 , B = E 2,1 , ρ(A) + ρ(B ) = 0 + 0 < 1 = ρ(A + B ).

3.5. Proposition. Soit A ∈ Mn (C) et k k une norme d’opérateur sur Mn (C). Alors,
ρ(A) É kAk.
Démonstration. Soit λ une valeur propre de A et X un vecteur propre associé.
Alors en prenant la norme dans la relation AX = λX , on obtient |λ| É kAk. Par
définition du rayon spectral comme maximum, ρ(A) É kAk. ä

3.6. Exemple. L’inégalité peut être stricte comme on le constate dans les cas
particuliers suivants.
— la matrice µ ¶
0 1
0 0
est de rayon spectral 0 (son unique valeur propre est nulle) mais n’est
pas de norme nulle (car elle est non nulle).
— la matrice µ ¶
0 2
0 1
est de rayon spectral 1 (ses valeurs propres sont 0 et 1) mais, pour la
norme d’opérateur
¡ ¢
A 7→ kAk = max |a 1,1 | + |a 1,2 |, |a 2,1 | + |a 2,2 | ,
est de norme 2.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV

194 XIV. Localisation des valeurs propres

3.7. Proposition. Soit A ∈ Mn (C). Alors, lim A k = 0n si, et seulement si, ρ(A) < 1.

Démonstration. . Supposons lim A k = 0n . Alors, pour toute valeur propre λ ∈ C


et tout vecteur propre associé X , on obtient que A k X = λk X → 0n,1 et donc
λk → 0 : en conclusion, pour toute valeur propre λ, on obtient |λ| < 1.
Par définition du rayon spectral, ρ(A) < 1.
. Supposons ρ(A) < 1. Quitte à considérer la réduction de Jordan de A, il suffit
d’étudier la convergence de (λIr + J r )k avec λ une valeur propre de A (donc un
complexe de module strictement plus petit que 1) et J r un bloc de Jordan de
taille r .
Comme la matrice J r est nilpotente d’indice r , la formule du binôme donne
pour tout k Ê r ,
à !
rX−1 k
k
(λIr + J r ) = λk−l J rl .
l =0 l
¡k ¢
Pour tout l ∈ ‚0, r − 1ƒ, l λk−l → 0 car |λ| < 1. On en déduit, par combinaison
linéaire, que (λIr + J r )k → 0n . ä

L’analogue suivant fait l’objet de l’exercice XIV -7.5.

3.8. Proposition. Soit A ∈ Mn (C) telle que ρ(A) > 1. Alors, limkA k k = +∞.

Mentionnons une caractérisation du rayon spectral.

3.9. Théorème de Gelfand. Soit k k une norme d’opérateur sur Mn (C). Alors,
pour tout A ∈ Mn (C),
° °1
ρ(A) = lim ° A k ° k .

Démonstration. Soit A ∈ Mn (C) et ε > 0.


1 ρ(A)
. Considérons A ε = ρ(A)+ε A. Remarquons que ρ(A ε ) = ρ(A)+ε < 1. D’après la
proposition précédente, A kε → 0n . À partir d’un certain rang, kA kε k É 1 ce qui
entraîne
° k°
1 ° A ° É 1,
(ρ(A)+ε)k
° °1
puis ° A k ° k É ρ(A) + ε.
° °1
En particulier, si ρ(A) = 0, alors, à partir d’un certain rang, ° A k ° k É ε : c’est la
° °1
définition de lim ° A k ° k = 0 = ρ(A).
1
. Supposons ρ(A) > 0 et considérons A −ε = ρ(A)−ε A pour ε < ρ(A). Remar-
ρ(A)
quons que, dans ce cas ρ(A −ε ) = ρ(A)−ε > 1.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV

4. Théorème de Perron 195

Alors, d’après la proposition XIV -3.8, à partir d’un certain rang, kA k−ε k Ê 1 ce
qui entraîne
° k°
1 ° A ° Ê 1,
(ρ(A)−ε)k
° °1
puis ° A k ° k Ê ρ(A) − ε.
. En combinant les deux inégalités, on obtient qu’à partir d’un certain rang,
¯° k ° 1 ¯
¯° A ° k − ρ(A)¯ É ε,

ce qui achève la démonstration de ce théorème. ä

On admet le résultat de continuité suivant plus délicat à établir.

3.10. Proposition. L’application rayon spectral définie par


½
Mn (C) → R+
A 7→ ρ(A)
est continue.

4. Théorème de Perron
4.1. Définition. Soit A ∈ Mn,p (C). La matrice A est positive (respectivement
strictement positive) si tous ses coefficients sont des réels positifs (respective-
ment strictement positifs).

4.2. Exemple. Soit P ∈ M4 (R) la matrice de permutation associée à la permuta-


tion circulaire σ = (1 2 3 4) ∈ S 4 . La matrice I4 + P n’est pas strictement positive
(le coefficient en position (1, 2) est nul par exemple) mais admet une puissance
strictement positive
 
1 1 3 3
¡ ¢3 3 1 1 3
I4 + P = I3 + 3P + 3P 2 + P 3 =  3 3 1 1 .

1 3 3 1

4.3. Remarque. Soit A ∈ Mn (R) une matrice strictement positive et X ∈ Mn,1 (R)
un vecteur positif. Alors, en constatant qu’une somme de termes positifs est
nulle si, et seulement si, tous les termes sont nuls, on obtient l’alternative sui-
vante
— soit X est le vecteur nul et dans ce cas, AX = 0n,1 ,
— soit AX est un vecteur strictement positif.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV

196 XIV. Localisation des valeurs propres

4.4. Lemme. Soit A ∈ Mn (R) une matrice strictement positive, λ ∈ C une valeur
propre de module ρ(A) et X = (x i ) un vecteur propre associé. Alors,
. le rayon spectral ρ(A) est une valeur propre de A,
. le vecteur |X | = (|x i |) est un vecteur propre associé à ρ(A),
. il existe θ ∈ R tel que X = e i θ |X |.
Démonstration. . Montrons les deux premiers points simultanément. Posons
Y = A|X | et E = A|X | − ρ(A)|X |.
Par inégalité triangulaire, pour tout i ∈ ‚1, nƒ,
¯Xn ¯ X n
¯ ¯
ρ(A)|x i | = |λx i | = ¯ a i ,k x k ¯ É a i ,k |x k |.
k=1 k=1

Ainsi, le vecteur E est positif. Raisonnons par l’absurde et supposons que E


est non nul ; d’après la remarque précédente, le vecteur AE = AY − ρ(A)Y est
strictement positif. Par ailleurs, Y est strcitement positif donc il existe ρ > ρ(A)
tel que le vecteur
AY − ρY = AY − ρ(A)Y + (ρ − ρ(A))Y
est positif.
Par récurrence, pour tout k ∈ N∗ , A k Y − ρ k Y est positif et donc

ρ k kY k É kA k Y k,
puis
° °1
ρ É lim ° A k ° k = ρ(A),
ce qui contredit la définition de ρ. Ainsi, E est nul et donc |X | est un vecteur
propre de A associé à ρ(A).
. Pour le dernier point, il suffit de remarquer que nous avons prouvé l’égalité
suivante pour tout i ∈ ‚1, nƒ
|[AX ]i | = |[λX ]i | = ρ(A)[|X k]i = [A|X k]i ,
soit en écrivant les coefficients
¯Xn ¯ X n
¯ ¯
¯ a i ,k x k ¯ = a i ,k |x k |.
k=1 k=1

Ceci entraîne avec le cas d’égalité dans l’inégalité triangulaire sur C que tous
les complexes x k ont le même argument. ä

4.5. Théorème de Perron. Soit A ∈ Mn (R) une matrice strictement positive.


Alors,
. le rayon spectral ρ(A) est l’unique valeur propre complexe de A de module
maximal,
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV

4. Théorème de Perron 197

. le sous-espace propre associé E ρ(A) est une droite dirigée par un vecteur stric-
tement positif.

Démonstration. . Soit λ une valeur propre de module ρ(A) et X un vecteur


propre associé. D’après le lemme précédent, il existe θ ∈ R tel que X = e i θ |X | et
|X | est un vecteur propre associé à ρ(A). Ainsi,

λX = AX = Ae i θ |X | = e i θ A|X | = e i θ ρ(A)|X | = ρ(A)X .

En conclusion, λ = ρ(A).
. Soit X un vecteur propre associé à ρ(A). D’après le lemme, |X | est aussi un
vecteur propre de A associé à ρ(A) et il existe θ ∈ R tel que X = e i θ |X |. Alors,
ρ(A)X = e i θ ρ(A)|X | = e i θ A|X |. Or, |X | est positif et A strictement positif donc
e i θ A|X | n’a pas de coordonnées nulles : ainsi, ρ(A) 6= 0 et X n’admet aucune
coordonnée nulle.
. Raisonnons par l’absurde et supposons dim E ρ(A) Ê 2 ; considérons mainte-
nant deux vecteurs propres indépendants X = (x i ) et Y = (y i ) associés à la va-
leur propre ρ(A). Le vecteur propre x 1 Y −y 1 X admet au moins une coordonnée
nulle ce qui contredit le point précédent de cette démonstration. ä

4.6. Corollaire. Soit A ∈ Mn (R) une matrice positive. Alors, le rayon spectral ρ(A)
est une valeur propre de A et le sous-espace propre associé E ρ(A) contient un vec-
teur positif.

Démonstration. Définissons, pour tout k ∈ N, la matrice


 
1 1 ... 1
1 1 . . . 1 
 
A k = A + 2−k  . . ..  .
 .. .. .
1 1 ... 1
Alors, la suite (A k )k converge vers A et, pour tout k ∈ N, A k est strictement posi-
tive : d’après le théorème de Perron, il existe un vecteur propre X k strictement
positif, de norme 1, associé à la valeur propre ρ(A k ).
Par continuité du rayon spectral (proposition XIV -3.10), lim ρ(A k ) = ρ(A). De
plus, la suite (X k )k est à valeurs dans la sphère unité qui est compacte donc il
existe une sous-suite (X φ(k) )k qui converge vers un vecteur X de norme 1. Alors

AX = lim A φ(k) X φ(k) = lim ρ(A φ(k) )X φ(k) = ρ(A)X .

Comme le vecteur X est positif (comme limite de vecteurs strictement positifs),


le résultat est établi. ä

4.7. Remarque. Attention, dans le cas d’une matrice positive, il peut exister plu-
sieurs valeurs propres de module maximal et le sous-espace propre associé au
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV

198 XIV. Localisation des valeurs propres

rayon spectral peut être de dimension strictement supérieure à 1 comme on


peut le voir avec les exemples suivants de rayon spectral 1 :
— la matrice positive
µ ¶
0 1
1 0
admet deux valeurs propres 1 et −1 de module 1,
— la matrice positive I2 admet 1 comme valeur propre de multiplicité 2.

5. Théorème de Perron & Frobenius


5.1. Définition. Une matrice A = (a i , j ) ∈ Mn (C) est réductible s’il existe une
partie I ⊂ ‚1, nƒ non triviale telle que
∀i ∈ I , ∀ j ∉ I , a i , j = 0.
Dans le cas contraire, la matrice est irréductible.

5.2. Remarque. On remarque immédiatement qu’une matrice A est irréduc-


tible si, et seulement si, A > est irréductible (en inversant les rôles de I et I Ù ).

5.3. Exemple. Une matrice A ∈ Mn (C) de la forme triangulaire par blocs


µ ¶
A 1,1 A 1,2
,
0n−r,r A 2,2
avec A 1,1 ∈ Mr (C) pour r < n, est réductible avec la partie I = ‚r + 1, nƒ.

On peut généraliser cet exemple pour obtenir une caractérisation de l’irréduc-


tibilité d’une matrice.

5.4. Proposition. Une matrice est irréductible si, et seulement si, il n’existe pas de
sous-espace stable non trivial engendré par des vecteurs de la base canonique.
Démonstration. Une matrice A = (a i , j ) ∈ Mn (C) est réductible si, et seulement
si, il existe une partie I ⊂ ‚1, nƒ non triviale telle que
∀i ∈ I , ∀ j ∉ I , a i , j = 0,
ce qui équivaut à la stabilité du sous-espace Vect(E i )i ∉I . ä

5.5. Proposition. Une matrice admettant une puissance strictement positive est
irréductible.
Démonstration. Raisonnons par l’absurde et supposons qu’une telle matrice
A est réductible. Par définition, il existe une partie J ⊂ ‚1, nƒ non triviale telle
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV

5. Théorème de Perron & Frobenius 199

que Vect(E j ) j ∈J est stable par A. Ce sous-espace est par conséquent stable par
toutes les puissances de A : mais alors celles-ci admettent toutes des coeffi-
cients nuls en position (i , j ) ∈ J Ù × J ce qui contredit l’hypothèse. ä

5.6. Remarque. La réciproque est fausse : pour toute permutation circulaire


σ ∈ S n , la matrice P σ est irréductible mais aucune de ses puissances n’est stric-
tement positive.

5.7. Exemple. Une matrice de M2 (K) est irréductible si, et seulement si, ses co-
efficients hors diagonale sont tous non nuls. En effet, cette condition équivaut
à la non-stabilité des droites Vect(E 2 ) et Vect(E 1 ).

On obtient la caractérisation suivante de l’irréductibilité pour les matrices po-


sitives.

5.8. Proposition. Une matrice A ∈ Mn (R) positive est irréductible si, et seule-
ment si, la matrice (In + A)n−1 est strictement positive.
Démonstration. . Si la matrice A est réductible, alors la matrice In + A l’est aussi
(avec le même sous-espace stable). Par conséquent, la matrice (In + A)n−1 a des
coefficients nuls : par contraposition, le sens retour est établi.
. Supposons A irréductible et utilisons le lemme suivant démontré à l’exer-
cice XIV -7.9.

5.9. Lemme. Soit A ∈ Mn (R) une matrice positive et irréductible. Alors, pour tout
vecteur X ∈ Mn,1 (R) positif, le vecteur (In + A)X est soit strictement positif, soit
positif avec strictement moins de coordonnées nulles que X .

En itérant ce lemme, on obtient que, pour tout vecteur de la base canonique


E j , (In + A)n−1 E j est strictement positif ; ainsi, tous les coefficients de la ma-
trice (In + A)n−1 sont strictement positifs (on vient de le vérifier colonne après
colonne). ä

5.10. Théorème de Perron & Frobenius. Soit A ∈ Mn (R) irréductible et posi-


tive. Alors,
. ρ(A) est une valeur propre de A,
. le sous-espace propre E ρ(A) est une droite dirigée par un vecteur strictement
positif.
Démonstration. Comme la matrice A est positive, le corollaire XIV -4.6 s’ap-
plique : ainsi, ρ(A) est une valeur propre de A.
De plus, le sous-espace propre de A associé à ρ(A) est inclus dans le sous-
espace propre de (In + A)n−1 associé à (1 + ρ(A))n−1 . Or, la matrice (In + A)n−1
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV

200 XIV. Localisation des valeurs propres

est strictement positive donc l’espace propre associé à


¡ ¢
ρ (In + A)n−1 = (1 + ρ(A))n−1
est de dimension 1 dirigé par un vecteur propre strictement positif (d’après le
théorème XIV -4.5 de Perron). Par conséquent, le sous-espace propre de A as-
socié à ρ(A) est cette même droite dirigée par un vecteur strictement positif. ä

Dressons un petit bilan de tous ces théorèmes proches.

A strictement A positive A positive


positive irréductible
Il existe un vecteur propre ✓ ✓ ✓
positif
Le rayon spectral ρ(A) est ✓ ✓ ✓
valeur propre
Le rayon spectral ρ(A) est ✓ ✓ I2
valeur propre simple
µ ¶
0 1
Les autres valeurs propres ✓
1 0
λ vérifient |λ| < ρ(A)

6. Commentaires et développements
6.1. Si la théorie de la réduction des endomorphismes est parfaitement com-
prise, la mise en pratique de la réduction se heurte très tôt au problème de
la détermination des valeurs propres, qui sont les racines du polynôme mini-
mal ou caractéristique. S’il est aisé de déterminer les racines d’un polynôme de
degré deux ou trois, on sait depuis Galois qu’il n’y a pas de méthode générale
pour écrire les racines d’une équation générale de degré supérieur ou égal à 5
en termes de radicaux dépendant des coefficients de l’équation. Aussi, il im-
porte en pratique d’obtenir des approximations de ces racines et de s’atteler en
conséquence à obtenir des approximations des vecteurs propres et au delà des
vecteurs figurant dans les différents noyaux itérés...

6.2. La dépendance des valeurs propres de la matrice M par rapport aux co-
efficients de M étant continue (idée difficile à mettre en vérité en forme de fa-
çon précise), il importe souvent d’avoir une idée des régions du plan complexe
où vivent les valeurs propres d’une matrice donnée. Le contrôle sur les valeurs
propres peut alors être extrêmement utile pour des questions de convergence
comme le montre en termes élémentaires le résultat suivant :
La suite (A p )p tend vers la matrice nulle si, et seulement si, ρ(A) < 1 si, et seule-
P
ment si, la série p A p est convergente.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV

7. Exercices 201

Le chapitre présent s’est ainsi appliqué à donner quelques résultats des plus
simples pour « localiser » les valeurs propres... Il existe des ouvrages entiers qui
traitent de ces questions de localisation et d’approximation... On appelle cela
l’analyse numérique matricielle...

6.3. Un résultat fondamental en localisation est le suivant et dont la démons-


tration instructive tient en trois lignes.

6.4. Lemme. Soit A ∈ Mn (C) telle que N (A) < 1 (pour N une norme matricielle
quelconque). Alors, ρ(A) É N (A).

Si |λ| > N (A), la série de terme général λ−p A p est alors normalement conver-
gente dans l’espace complet Mn (C) donc convergente, et sa somme est (à peu
de choses près) l’inverse de A − λIn , ce qui prouve que λ ne peut être alors va-
leur propre de A.

6.5. Un autre aspect abordé dans ce chapitre est le théorème surprenant et re-
marquable de Perron, qui dit qu’une matrice à coefficients strictement positifs
admet son rayon spectral ρ comme valeur propre, avec une multiplicité algé-
brique égale à 1. De surcroît, le rayon spectral est la seule valeur propre ayant ρ
pour module, et les composantes d’un même vecteur propre pour ρ sont tous
non nuls et de même signe.
Il est bon de noter alors que si A vérifie les hypothèses du théorème de Perron,
il en est de même de sa transposée !
Il importe de saisir que l’information particulière liée à la positivité des coef-
ficients n’est aucunement une propriété invariante par similitude. Pourtant,
elle donne des informations sur l’endomorphisme que définit notre matrice
dans Kn . Cet endomorphisme a une nature contractante, puisque les vecteurs
de base sont envoyés par les puissances itérées de A sur des vecteurs qui font
ensemble des angles solides de plus en plus serrés dans la direction de la droite
propre ∆ associée à ρ(A).
Les puissances itérées de l’opérateur ρ(A)−1 A convergent vers l’opérateur de
projection sur ∆ parallèlement à l’hyperplan orthogonal (au sens de la dualité)
de la droite propre de A > associée à ρ(A).

7. Exercices
7.1. Exercice. Soit A = (a i , j ) ∈ Mn (C) une matrice telle que, pour tout i ∈ ‚1, nƒ,
X
n
|a i , j | < 1.
j =1

Montrer que det(A + In ) > 0.


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV

202 XIV. Localisation des valeurs propres

▷ Éléments de correction. . Montrons que, pour tout x Ê 1, la matrice A + xIn


vérifie l’hypothèse du théorème de Hadamard. En effet, pour tout i ∈ ‚1, nƒ,
l’inégalité triangulaire puis l’hypothèse de l’énoncé entraînent

|a i ,i + x| = |x − (−a i ,i )| Ê x − |a i ,i |
Ê 1 − |a i ,i |
X
> |a i , j |.
j 6=i

Par conséquent, pour tout x Ê 1, det(A + xIn ) 6= 0. D’après le théorème des ac-
croissements finis, la fonction polynomiale f : x 7→ det(A + xIn ) est de signe
constant sur [1, +∞[.
. D’après les règles de calcul du déterminant, le terme dominant dans f est x n
donc f est positive au voisinage de +∞. Par suite, f est strictement positive sur
[1, +∞[. En particulier, det(A + In ) = f (1) > 0. ◁

7.2. Exercice. Soit A ∈ Mn (C) et D la matrice diagonale extraite de A. Supposons


que D est inversible et qu’il existe une norme d’opérateur N sur Mn (C) telle que
¡ ¢
N D −1 A − In < 1. Montrer que A est inversible.

▷ Éléments de correction. Notons B = D −1 A −In . L’hypothèse sur la norme de B


entraîne que la matrice In + B est inversible d’inverse
X

(−1)k B k .
k=0

Par conséquent, A = D(In + B ) est inversible.


Avec la norme d’opérateur associée à la norme ∞ sur Mn,1 (C)
©X
n ª
A 7→ kAk = max |a i , j |, i ∈ ‚1, nƒ ,
j =1

cet exercice fournit une variante de la démonstration du théorème de Hada-


mard. ◁

7.3. Exercice. Soit A = (a i , j ) ∈ Mn (C) telle que, pour tout i ∈ ‚1, nƒ,
X
n
|a i ,i | > |a i , j |.
j =1
j 6=i

Montrer que
n ¯
Y X
n ¯
¯ ¯
| det A| Ê ¯a i ,i − |a i , j |¯.
i =1 j =1
j 6=i
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV

7. Exercices 203

▷ Éléments de correction. Notons, pour tout i ∈ ‚1, nƒ,


X
n
ri = |a i , j |
j =1
j 6=i

¡ ¢
et D = diag |a 1,1 | − r 1 , |a 2,2 | − r 2 , . . . , |a n,n | − r n . La matrice D est inversible car
tous ses coefficients diagonaux sont non nuls. D’après le théorème de Gesch-
gorin, les valeurs propres de la matrice B = D −1 A appartiennent aux disques
a i ,i
de centre |a i ,i |−r i et de rayon

X
n ai , j ri
= .
j =1 |a i ,i | − r i |a i ,i | − r i
j 6=i

Par conséquent, toute valeur propre λ de B vérifie


¯ |a i ,i | ¯
¯ ri ¯
|λ| Ê ¯ − ¯ = 1.
|a i ,i | − r i |a i ,i | − r i

Ainsi, quitte à trigonaliser B , | det B | Ê 1 et donc | det A| Ê | det D|. En conclusion,

Y
n ¯ ¯
| det A| Ê ¯a i ,i − r i ¯.
i =1

7.4. Exercice. Soit A = (a i , j ) ∈ Mn (C). Les ovales de Cassini de la matrice A sont


les ensembles pour i 6= j définis par
© ª
O i , j = z ∈ C, |z − a i ,i ||z − a j , j | É r i r j

où, pour tout i ∈ ‚1, nƒ,


X
n
ri = |a i ,k |.
k=1
k6=i

Montrer qu’une valeur propre λ de A appartient à au moins l’un des ovales de


Cassini.

Ce résultat est connu sous le nom de théorème de Brauer.

▷ Éléments de correction. Soit λ une valeur propre de A et X = (x i ) un vecteur


propre associé. Considérons i , j ∈ ‚1, nƒ distincts tels que
© ª © ª
|x i | = max |x k |, k ∈ ‚1, nƒ , |x j | = max |x k |, k ∈ ‚1, nƒ \ {i } .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV

204 XIV. Localisation des valeurs propres

Remarquons que les calculs des coefficients d’indices i et j de AX = λX donnent


X
n
|λ − a i ,i ||x i | É |a i ,k ||x k | É r i |x j |,
k=1
k6=i

X
n
|λ − a j , j ||x j | É |a j ,k ||x k | É r j |x i |.
k=1
k6= j

Ainsi,
|λ − a i ,i ||λ − a j , j ||x i ||x j | É r i r j |x i ||x j |.
Comme |x i | > 0, on peut simplifier par |x i |. Discutons selon le terme |x j |.
— Si |x j | = 0, alors |λ − a i ,i ||x i | = 0 donc λ = a i ,i ∈ O i , j .
— Sinon, alors on simplifie par |x j | et l’on obtient |λ − a i ,i ||λ − a j , j | É r i r j
donc λ ∈ O i , j .

7.5. Exercice. Soit A ∈ Mn (C) une matrice dont le rayon spectral vérifie ρ(A) > 1.
Montrer que limkA k k = +∞.
▷ Éléments de correction. Par définition du rayon spectral, il existe une valeur
propre λ de A dont le module est strictement plus grand que 1. Quitte à consi-
dérer la norme ∞ dans la base de trigonalisation de A (toutes les normes sont
équivalentes sur Mn (C)), on obtient kA k k Ê |λ|k pour tout entier k. Le résultat
suit par comparaison. ◁

7.6. Exercice. Soit A 1 , . . . , A p ∈ Mn (C) des matrices qui commutent deux à deux.
Montrer que
ρ(A 1 · · · A p ) É ρ(A 1 ) · · · ρ(A p ).

▷ Éléments de correction. Comme ces matrices commutent deux à deux, elles


sont co-trigonalisables : il existe P ∈ GLn (C), T1 , . . . , T p triangulaires supé-
rieures telles que A k = P Tk P −1 pour tout k ∈ ‚1, pƒ. Pour établir le résultat an-
noncé, il suffit de montrer
ρ(T1 · · · T p ) É ρ(T1 ) · · · ρ(T p ).
Or le résultat est immédiat pour des matrices triangulaires puisque les valeurs
propres se lisent sur la diagonale et que les coefficients diagonaux d’un pro-
duit de matrices triangulaires supérieures se calculent implement ; plus préci-
sément, pour tout i ∈ ‚1, nƒ,
¯ ¯ Y p ¯ ¯ Y p
¯[T1 · · · T p ]i ,i ¯ = ¯[Tk ]i ,i ¯ É ρ(Tk ).
k=1 k=1

Ainsi, ρ(T1 · · · T p ) É ρ(T1 ) · · · ρ(T p ). ◁


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV

7. Exercices 205

7.7. Exercice. Déterminer les permutations σ ∈ S n telles que la matrice de per-


mutation P σ est irréductible.

▷ Éléments de correction. Si σ admet au moins deux orbites, alors, pour l’une


de ses orbites I ⊊ ‚1, nƒ, l’espace Vect(e i )i ∈I est stable par P σ : la matrice P σ est
donc réductible.
Si σ est une permutation circulaire, alors le sous-espace cyclique engendré par
un vecteur de la base canonique contient tous les vecteurs de cette base. Par
conséquent, il n’existe pas de sous-espaces stables non triviaux engendré par
des vecteurs de la base canonique. La matrice P σ est donc irréductible. ◁

7.8. Exercice.
1. Soit A ∈ Mn (C) une matrice irréductible. Montrer que les valeurs propres
de A appartenant à la frontière de la réunion des disques de Gerschgorin
appartient en fait à l’intersection de tous les disques de Gerschgorin.
Ce résultat est connu sous le nom de théorème de Taussky.
2. En déduire que la matrice tridiagonale
 
2 1 0 ··· 0
 .. 
1 . . . . . . . . . .
 
 
0 . . . . . . . . . 0 ∈ Mn (R)
 
 .. . . .. .. 
. . . . 1
0 ··· 0 1 2
est inversible.

▷ Éléments de correction.
1. Soit λ une valeur propre de A appartenant à la frontière de la réunion des
disques de Gerschgorin et X = (x i ) un vecteur propre associé. Considé-
rons la partie non vide
© ª
I = i ∈ ‚1, nƒ, |x i | = max |x j | .
j

. Pour tout i ∈ I , on obtient en copiant les preuves des théorèmes de


Hadamard et de Gerschgorin,
¯Xn ¯ X n
¯ ¯
|λ − a i ,i ||x i | = ¯ ai , j x j ¯ É |a i , j ||x i |.
j =1 j =1
j 6=i j 6=i

Ainsi, en divisant par |x i |,


X
n
|λ − a i ,i | É |a i , j |.
j =1
j 6=i
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV

206 XIV. Localisation des valeurs propres

Autrement dit, λ appartient aux disques de Gerschgorin dont l’indice est


dans I donc à leur frontière d’après l’hypothèse sur λ.
. Alors, pour tout i ∈ I ,
X
n X
n
|a i , j ||x i | = |λ − a i ,i ||x i | É |a i , j ||x j |,
j =1 j =1
j 6=i j 6=i

et donc
X
n ¡ ¢
|a i , j | |x i | − |x j | É 0.
j =1
j 6=i

Comme tous les termes de cette somme sont tous positifs, ils sont tous
nuls. Or, pour tout j ∉ I , |x i | − |x j | > 0 donc a i , j = 0.
Comme la matrice A est irréductible, cela entraîne I = ‚1, nƒ. Avec le ré-
sultat du premier point, on conclut donc que λ appartient à la frontière
de tous les disques de Gerschgorin.
2. La matrice proposée est bien irréductible car un calcul rapide montre
que sa puissance (n − 1)-ième est strictement positive.
Elle admet deux disques de Gerschgorin centrés au point d’affixe 2 et
de rayon 1 et 2. Le complexe 0 appartient à la frontière de la réunion de
ces disques mais n’appartient pas à la frontière de tous les disques donc
n’est pas valeur propre d’après la question précédente.

0 2

Remarquons que cette matrice ne vérifie pas l’hypothèse du théorème


de Hadamard puisque |a 2,2 | = |a 2,1 | + |a 2,3 |.

7.9. Exercice. Soit A ∈ Mn (R) une matrice positive, irréductible et X ∈ Mn,1 (R)
un vecteur positif. Montrer que le vecteur (In + A)X est
— soit strictement positif,
— soit positif avec strictement moins de coordonnées nulles que X .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV

7. Exercices 207

▷ Éléments de correction. . Notons X = (x i ). Alors, pour tout i ∈ ‚1, nƒ,


X
n
[(In + A)X ]i = x i + a i , j x j Ê x i Ê 0.
j =1

Par conséquent, toute coordonnée de (In + A)X est positive et une coordonnée
de (In + A)X ne peut être nulle que si la coordonnée correspondante de X est
nulle.
. Raisonnons par l’absurde et supposons que X et (In +A)X ont le même nombre
(strictement positif) de coordonnées nulles (donc les mêmes coordonnées nulles
d’après le premier point) ; notons I l’ensemble des indices de ces coordonnées
nulles. Alors, pour tout i ∈ I ,
X
n X
n
ai , j x j = a i , j x j = x i = 0.
j =1 j =1
j ∉I

La somme du terme de gauche est composée de termes positifs et nulle : par


conséquent, pour tout j ∉ I , a i , j = 0 : ceci contredit l’irréductibilité de la ma-
trice A. ◁

7.10. Exercice. Soit A = (a i , j ) ∈ Mn (C) et B = (b i , j ) ∈ Mn (R) strictement positive


telles que
∀i , j ∈ ‚1, nƒ, |a i , j | É b i , j .
Montrer que les valeurs propres de A sont incluses dans la réunion des disques
fermés de centre a i ,i et de rayon ρ(B ) − b i ,i .
Indication : on pourra introduire un vecteur propre X = (x i ) strictement po-
sitif de B associé à ρ(B ) et appliquer le résultat de Gerschgorin à la matrice
¡ xj ¢
A 0 = x ai , j .
i

▷ Éléments de correction. . Soit X = (x i ) un vecteur propre de B associé à ρ(B ),


strictement positif (ce qui est possible d’après le théorème de Perron & Frobe-
nius). Alors, pour tout i ∈ ‚1, nƒ,
X
n X
n
|a i , j |x j É b i , j x j = (ρ(B ) − b i ,i )x i .
j =1 j =1
j 6=i j 6=i

. Appliquons le théorème de Gerschgorin à la matrice A 0 de l’indication : pour


toute valeur propre λ de A 0 , il existe i ∈ ‚1, nƒ tel que
¯ ¯ X n
¯ x ¯ xj
¯λ − xi a i ,i ¯ É
i x |a i , j | É ρ(B ) − b i ,i .
i
j =1
j 6=i

. Pour conclure, remarquons que la matrice A 0 est semblable à A avec la ma-


trice de passage diag(x 1 , x 2 , . . . , x n ) donc ses valeurs propres sont exactement
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap14 chapitre:XIV

208 XIV. Localisation des valeurs propres

celles de A. Ainsi, pour toute valeur propre λ de A, il existe i ∈ ‚1, nƒ tel que

|λ − a i ,i | É ρ(B ) − b i ,i .

Remarquons que le résultat peut être étendu au cas d’une matrice B seulement
positive en approchant B par des matrices strictement positives et en utilisant
la continuité du rayon spectral. ◁

7.11. Exercice. Soit A ∈ Mn (R) une matrice strictement positive. Montrer que le
rayon spectral ρ(A) est une valeur propre de multiplicité (algébrique) 1.
¡ ¢
Indication : on pourra montrer que la suite ρ(A)−k A k k est bornée et raisonner
par l’absurde en considérant un bloc de Jordan associé à ρ(A).

▷ Éléments de correction. Considérons la norme sur Mn (R)


©X
n ª
M 7→ kM k = max |[M ]i , j |, i ∈ ‚1, nƒ .
j =1

Il s’agit de la norme d’opérateur associée à la norme ∞ sur Mn,1 (R).


. Notons X = (x i ) un vecteur propre associé à ρ(A), strictement positif (qui
existe d’après le théorème de Perron) et α > 0 sa plus petite coordonnée.
Pour tout i ∈ ‚1, nƒ,
X
n
[X ]i = [ρ(A)−k A k X ]i = ρ(A)−k [A k ]i , j x j
j =1
X
n
Ê αρ(A)−k [A k ]i , j .
j =1
° ° ¡ ¢
Par conséquent, °ρ(A)−k A k ° É α1 kX k∞ . La suite ρ(A)−k A k k est donc bornée.
. Supposons que la valeur propre ρ(A) ne soit pas de multiplicité algébrique 1.
Comme le sous-espace propre associé à ρ(A) est de dimension 1 (d’après le
théorème de Perron), A admet un bloc de Jordan de taille r > 1 associé à ρ(A).
Alors, quitte à considérer un coefficient de la « surdiagonale »,
° ° ° ¡ ¢ °
°ρ(A)−k A k ° Ê °ρ(A)−k ρ(A)Ir + J r k ° Ê kρ(A)−1 .

Ceci contredit alors le point précédent. Ainsi, la multiplicité est 1.


Remarquons que cet argument s’adapte pour les matrices positives dont une
puissance est strictement positive. ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap15 chapitre:XV

Chapitre XV

Application aux chaînes de


Markov finies

Objectifs du chapitre
On suppose connu le formalisme usuel des probabilités, la notion de mesure
de probabilité P, d’espérance E, les probabilités conditionnelles et la formule
des probabilités totales.
— Comprendre le lien entre la propriété de Markov et le calcul des puis-
sances d’une matrice.
— Appliquer le théorème de Perron & Frobenius pour la convergence vers
une loi de probabilité stationnaire.

1. Chaînes de Markov

1.1. Définition. Soit E un ensemble au plus dénombrable.


. Une chaîne de Markov d’espace d’états E est une suite (X n )n de variables
aléatoires à valeurs dans E telle que, pour tout n ∈ N, et tous e, e 0 , . . . , e n ∈ E ,

P(X n+1 = e|X 0 = e 0 , . . . , X n = e n ) = P(X n+1 = e|X n = e n ).

. La chaîne (X n )n est homogène si, pour tout n ∈ N et tous e, e 0 ∈ E ,

P(X n+1 = e|X n = e 0 ) = P(X 1 = e|X 0 = e 0 ).

. La chaîne (X n )n est finie si son espace d’états E est fini.


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap15 chapitre:XV

210 XV. Application aux chaînes de Markov finies

1.2. Remarque. Informellement, une chaîne de Markov est une suite de va-
riables (X n )n telle que, pour tout p, le futur (X n )nÊp et le passé (X n )nÉp sont
indépendants conditionnellement au présent X p .

1.3. Remarque. Une chaîne de Markov (X n )n homogène et finie peut être dé-
crite par sa valeur initiale X 0 et le graphe orienté et étiqueté de ses transitions.
Les sommets de ce dernier sont les éléments de l’espace d’états et les arcs re-
présentent les transitions possibles : plus précisément, le graphe admet un arc
de e vers e 0 étiqueté par la valeur p > 0 si P(X 1 = e 0 |X 0 = e) = p.

1.4. Exemple. Une suite (X n )n de variables indépendantes à valeurs dans un


ensemble E est une chaîne de Markov.
En effet, pour tout n ∈ N, et tous e, e 0 , . . . , e n ∈ E ,

P(X n+1 = e|X 0 = e 0 , . . . , X n = e n ) = P(X n+1 = e)


= P(X n+1 = e|X n = e n ).

1.5. Exemple. Soit (Yn )n une suite de variables indépendantes à valeurs dans E
identiquement distribuées. La suite (X n )n définie par
X
n
Xn = Yk
k=0

est une chaîne de Markov.


En effet, pour tout n ∈ N, et tous e, e 0 , . . . , e n ∈ E ,

P(X n+1 = e|X 0 = e 0 , . . . , X n = e n ) = P(X n + Yn+1 = e|X 0 = e 0 , . . . , X n = e n )


= P(e n + Yn+1 = e)
= P(X n + Yn+1 = e|X n = e n )
= P(X n+1 = e|X n = e n ).

1.6. Exemple. Soit (Yn )n une suite de variables indépendantes identiquement


distribuées à valeurs dans F , X 0 une variable à valeur dans E indépendante
de cette suite et f : E × F → E une application. La suite (X n )n définie avec la
relation X n+1 = f (X n , Yn ) est une chaîne de Markov.
En effet, pour tout n ∈ N, et tous e, e 0 , . . . , e n ∈ E ,

P(X n+1 = e|X 0 = e 0 , . . . , X n = e n ) = P( f (e n , Yn ) = e|X 0 = e 0 , . . . , X n = e n )


= P( f (e n , Yn ) = e)
= P( f (e n , Yn ) = e|X n = e n )
= P(X n+1 = e|X n = e n ).
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap15 chapitre:XV

2. Matrice de transition 211

1.7. Exemple. Considérons une famille (Yi , j )i , j de variables aléatoires indépen-


dantes, et X 0 ∈ N ; définissons, pour tout n ∈ N,
X
Xn
X n+1 = Yn+1,k .
k=1

Alors, la suite (X n )n est une chaîne de Markov homogène.


En effet, pour tout n ∈ N, et tous e, e 0 , . . . , e n ∈ E ,
³X
Xn ´
P(X n+1 = e|X 0 = e 0 , . . . , X n = e n ) = P Yn+1,k = e|X 0 = e 0 , . . . , X n = e n
k=1
³X
en ´
=P Yn+1,k = e|X 0 = e 0 , . . . , X n = e n
k=1
³X
en ´
=P Yn+1,k = e .
k=1

2. Matrice de transition
2.1. Définition. Soit E = {e 1 , . . . , e N } un ensemble fini et (X n )n une chaîne de
Markov homogène d’espace d’états E . La matrice de transition de (X n )n est la
matrice de A ∈ MN (R) telle que, pour tous i , j ∈ ‚1, N ƒ,
[A]i , j = P(X 1 = e j |X 0 = e i ).

2.2. Remarque. Soit (X n )n une chaîne de Markov homogène d’espace d’états


fini E = {e 1 , . . . , e N } et A sa matrice de transition ; alors, la propriété d’homogé-
néité entraîne que, pour tout n ∈ N et tous i , j ∈ ‚1, N ƒ,
[A]i , j = P(X n+1 = e j |X n = e i ).

2.3. Remarque. On dispose ainsi de deux descriptions pour une chaîne de Mar-
kov homogène et finie de loi initiale donnée : d’un côté, la matrice de transition
et de l’autre, le graphe orienté des transitions.

2.4. Proposition. Soit (X n )n une chaîne de Markov homogène d’espace d’états


fini E = {e 1 , . . . , e N } et A sa matrice de transition. Alors, A est stochastique : posi-
tive et la somme des coefficients sur chaque ligne est égale à 1.
Démonstration. . Il est évident que la matrice de transition est positive car ses
coefficients sont définis comme des probabilités.
. Par ailleurs, la somme des coefficients de A sur la ligne i ∈ ‚1, N ƒ est
X
n X
n
[A]i , j = P(X 1 = e j |X 0 = e i ) = P(X 1 ∈ E |X 0 = e i ) = 1.
j =1 j =1
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap15 chapitre:XV

212 XV. Application aux chaînes de Markov finies

2.5. Définition. Une chaîne de Markov homogène finie est irréductible si sa


matrice de transition est irréductible au sens de la définition XIV -5.1.

2.6. Remarque. Traduisons la propriété d’irréductibilité sur la chaîne : il n’existe


pas de famille non triviale d’états qui soit « stable » par la chaîne. Par consé-
quent, l’ensemble des états accessibles depuis un état x fixé ne peut être dif-
férent de E : tous les états sont accessibles depuis chaque état ou, plus savam-
ment, le graphe orienté des transitions est fortement connexe.
Cette remarque fournit une définition alternative de l’irréductibilité.

2.7. Exemple. Considérons la chaîne de Markov décrite par la graphe suivant


où chaque arc correspond à une transition de probabilité 12 :

e1 e2 e3 e4 e5 e6

Sa matrice de transition (en considérant les états dans l’ordre de leurs indices)
est  
0 12 12 0 0 0
 1 0 1 0 0 0
2 2 
 1 1 
0 2 0 2 0 0
  ∈ M6 (R).
 0 0 12 0 12 0 
 
0 0 0 1 0 1 
2 2
0 0 12 0 12 0

On remarque immédiatement qu’elle est irréductible car le graphe est forte-


ment connexe.

2.8. Exemple. La chaîne de Markov décrite par la graphe suivant (où, une fois
encore, chaque arc correspond à une transition de probabilité 12 ) n’est pas irré-
ductible.
En effet, il n’y a notamment pas de chemin de l’état e 1 vers l’état e 4 .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap15 chapitre:XV

3. Probabilité invariante 213

e1 e2 e3 e4 e5 e6

Il faut bien considérer le graphe orienté (avec les arêtes étiquetées par des va-
leurs strictement positives). Dans ce cas, on observe que le graphe non orienté
correspond est connexe.

2.9. Proposition. Soit (X n )n une chaîne de Markov homogène d’espace d’états


fini E = {e 1 , . . . , e N } et A sa matrice de transition. Notons, pour tout n ∈ N, la loi
de X n avec la matrice ligne
¡ ¢
νn = P(X n = e 1 ) P(X n = e 2 ) · · · P(X n = e N ) .
Alors, pour tout n ∈ N, νn+1 = νn A, puis par récurrence νn = ν0 A n .
Démonstration. Soit n ∈ N et e ∈ E . Appliquons la formule des probabilités to-
tales avec le système complet d’événements (X n = e k )k :
X
N
P(X n+1 = e) = P(X n+1 = e|X n = e k )P(X n = e k ).
k=1

La propriété de Markov permet également d’obtenir d’autres résultats sur la loi


marginale d’une variable X n .

2.10. Proposition. Soit (X n )n une chaîne de Markov homogène finie d’espace


d’états E = {e 1 , . . . , e N } de matrice de transition A et f : E → R+ . Alors,
X
N
E( f (X n+1 )|X 0 , . . . , X n ) = [A] X n , j f (e j ).
j =1

3. Probabilité invariante
3.1. Proposition. Le rayon spectral d’une matrice stochastique est égal à 1.
Démonstration. Soit A ∈ MN (R) une matrice stochastique.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap15 chapitre:XV

214 XV. Application aux chaînes de Markov finies

. Remarquons tout d’abord que 1 est valeur propre de A car


   PN   
1 k=1
[A]1,k 1
   PN   
1     
   k=1 [A]2,k  1
A  
=  =  .
 .
 ...   ..
.   .. 
     
PN
1 k=1
[A] N ,k 1

. Soit λ une valeur propre de A, X = (x i ) un vecteur propre associé et i ∈ ‚1, N ƒ


tel que |x i | = max{|x k |, k ∈ ‚1, N ƒ}. Alors,
X
N X
N
|λx i | É [A]i ,k |x k | É [A]i ,k |x i | = |x i |.
k=1 k=1

Par conséquent, |λ| É 1. ä

3.2. Définition. Une probabilité invariante d’une matrice stochastique A est un


vecteur ligne π ∈ M1,n (R) positif et de somme 1 tel que πA = π.

3.3. Remarque. Une probabilité invariante d’une matrice stochastique A est


donc, à transposition près, un vecteur propre de A > associé à la valeur propre 1
(ce qui est légitime puisque 1 est valeur propre de A donc de A > ). La contrainte
forte est que ce vecteur doit être positif (et pas seulement non nul).

La proposition XV -2.9 permet d’interpréter la probabilité invariante de la ma-


trice de transition comme loi stationnaire de la chaîne.

3.4. Proposition. Soit (X n )n une chaîne de Markov homogène finie, et A sa ma-


trice de transition. Notons, pour tout n ∈ N, νn la loi de X n . Si ν0 est une proba-
bilité invariante de A, alors, pour tout n ∈ N, νn = ν0 .

3.5. Proposition. Toute matrice A stochastique et irréductible admet une unique


probabilité invariante π. De plus, cette probabilité invariante est strictement po-
sitive.

Démonstration. Appliquons le théorème XIV -5.10 de Perron & Frobenius à la


transposée A > . Alors, ρ(A > ) = 1 est une valeur propre (ce que l’on sait déjà) et
le sous-espace propre associé est une droite dirigée par un vecteur strictement
positif. En normalisant ce vecteur directeur, on obtient le vecteur π> recher-
ché. ä

3.6. Remarque. La condition d’irréductibilité est essentielle pour l’unicité.


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap15 chapitre:XV

4. Théorème ergodique 215

En effet, si A et A 0 sont des matrices stochastiques irréductibles de probabilités


invariantes π et π0 , alors la matrice stochastique réductible
µ ¶
A
A0

admet comme probabilités invariantes tous les vecteurs lignes


¡ ¢
λπ (1 − λ)π0

avec λ ∈ [0, 1].

4. Théorème ergodique
4.1. Proposition. Soit A une matrice stochastique irréductible. Alors, il y a équi-
valence entre les propositions suivantes
. il existe p ∈ N tel que A p est strictement positive ;
. il existe i 0 ∈ ‚1, N ƒ tel que le PGCD des entiers n ∈ N tels que [A n ]i 0 ,i 0 > 0 vaut 1.
Dans ce cas, la matrice est dite ergodique ou apériodique.

Démonstration. . Supposons qu’il existe p ∈ N tel que A p est strictement posi-


tive. Alors, A p+1 est strictement positive (car A n’admet pas de colonne nulle).
Par conséquent, pour tout i 0 ∈ ‚1, N ƒ, [A p ]i 0 ,i 0 > 0 et [A p+1 ]i 0 ,i 0 > 0 ; comme p
et p + 1 sont premiers entre eux : le PGCD recherché est 1.
. Supposons qu’il existe i 0 ∈ ‚1, N ƒ tel que le PGCD des entiers n ∈ N tels que
[A n ]i 0 ,i 0 > 0 vaut 1.
Une utilisation classique du théorème de Bézout permet de montrer qu’il existe
un rang p 0 ∈ N tel que, pour tout k Ê p 0 , [A k ]i 0 ,i 0 > 0.
Comme la matrice est irréductible, on dispose, pour tous i , j ∈ ‚1, N ƒ, d’entiers
αi et β j tels que
[A αi ]i ,i 0 > 0, [A β j ]i 0 , j > 0.

Par conséquent, pour tout p Ê αi + p 0 + β j ,

[A p ]i , j Ê [A αi ]i ,i 0 [A p−αi −β j ]i 0 ,i 0 [A β j ]i 0 , j > 0.
© ª
Pour la valeur p = max αi + p 0 +β j , i , j ∈ ‚1, N ƒ , la matrice A p est strictement
positive. ä

4.2. Exemple. La matrice de transition d’une chaîne représentée par le graphe


suivant est bien irréductible mais pas apériodique puisque le PGCD considéré
vaut 2 (il faut toujours un nombre pair de transition pour revenir à un sommet
donné).
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap15 chapitre:XV

216 XV. Application aux chaînes de Markov finies

e1 e2 e3 e4 e5

4.3. Théorème. Soit A ∈ MN (R) une matrice ergodique et π sa probabilité inva-


riante. Alors, pour tous i , j ∈ ‚1, N ƒ,

lim[A p ]i , j = π j .
p

Plus précisément, il existe r ∈]0, 1[ tel que


¯ ¯
lim r −p max ¯[A p ]i , j − π j ¯ = 0.
p (i , j )

Effectuons la preuve dans la cas d’une matrice strictement positive (l’adapta-


tion des arguments au cas d’une matrice ergodique est relativement immé-
diate).

Démonstration. . Remarquons tout d’abord qu’en vertu du théorème de Per-


ron (théorème XIV -4.5 et exercice XIV -7.11), la matrice A admet 1 comme seule
valeur propre de module 1, que sa multiplicité algébrique est 1 et que toutes les
autres valeurs propres sont de module strictement inférieur à 1.
Par conséquent, on dispose de P ∈ GLN (C) et B ∈ MN −1 (C), la matrice diago-
nale par blocs de Jordan associés aux valeurs propres de A de module stricte-
ment inférieur à 1, telles que
µ ¶
1
A=P P −1 .
B

Par construction, (B p )p est de limite nulle et


µ ¶
1
p
A →P P −1 = C 1 (P )L 1 (P −1 ).
0N −1

En utilisant que A p+1 = A A p = A p A, on obtient que le vecteur C 1 (P ) est constant


et que L 1 (P −1 ) est proportionnelle à π. Ainsi,
 
1
−1  .. 
C 1 (P )L 1 (P ) = λ  .  π
1

avec λ ∈ R. Comme les matrices A p et donc C 1 (P )L 1 (P −1 ) sont stochastiques


(l’ensemble des matrices stochastiques est fermé), λ = 1 et le résultat du pre-
mier point suit immédiatement.
. En conservant les mêmes notations, on remarque, pour tout r < 1 strictement
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap15 chapitre:XV

5. Commentaires et développements 217

supérieur aux modules des valeurs propres de A distinctes de ρ(A) = 1,


µ ¶
¡ ¢ 0
r −p A p −C 1 (P )L 1 (P −1 ) = P P −1 → 0n .
r −p B p

4.4. Remarque. Remarquons que la condition de matrice stochastique irréduc-


tible n’est pas suffisante pour cette conclusion.
Par exemple, si l’on considère la matrice stochastique irréductible
µ ¶
0 1
A= ,
1 0

alors, A 2n = I2 et A 2n+1 = A pour tout n ∈ N. Par conséquent, la suite (A p )p ne


converge pas (mais les deux suites extraites (A 2n )n et (A 2n+1 )n convergent). On
remarque que dans ce cas particulier,
© n
ª
PGCD n ∈ N, [A ]i ,i > 0 = 2.

5. Commentaires et développements
5.1. La majeure partie de notre étude repose sur l’hypothèse d’irréductibilité de
la chaîne de Markov. Il ne faut pas toutefois croire qu’une chaîne de Markov ré-
ductible soit tout à fait dénuée d’intérêts. Considérons, par exemple, la chaîne
de Markov dont la transition est décrite par le graphe suivant (où chaque arc
est étiqueté par l’inverse du nombre d’arcs issus de cet état) :

e2

e6 e5 e1 e3 e4

Cette chaîne est issue du paradoxe de Penney : la probabilité de voir apparaître


le motif FPP avant le motif PPF dans une suite de lancers d’une pièce équilibrée
est de 3/4.
La chaîne n’est pas irréductible car son graphe n’est pas fortement connexe.
Pire, les états e 4 et e 6 sont « absorbants » : une fois la chaîne dans l’un de ses
états, elle y reste. Les questions ne peuvent donc être celle de la probabilité sta-
tionnaire (il suffit qu’elle charge uniquement l’un des états absorbants) mais
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap15 chapitre:XV

218 XV. Application aux chaînes de Markov finies

plutôt celle de la probabilité d’être absorbée par e 4 , celle du temps avant l’ab-
sorbtion par l’un de ces états. Ces calculs, souvent appelés calcul à un pas, sont
détaillés dans le joli petit livre suivant :
Processus aléatoires pour les débutants, Arthur Engel, Cassini, 2011.

5.2. Nous avons défini une chaîne de Markov ergodique avec la propriété d’apé-
riodicité. De manière générale, la période de l’état e i de la chaîne de Markov
finie homogène de matrice de transition A est le PGCD de l’ensemble
© ª
n ∈ N, [A n ]i ,i > 0 .

Si la chaîne de Markov est irréductible, il est facile de vérifier que tous les états
ont la même période. Lorsque cette période d est différente de 1, la conver-
gence de la suite ([A p ]i , j )p est remplacée par la convergence de suites extraites
avec des indices en progression arithmétique de raison d .

5.3. Une chaîne de Markov infinie homogène peut admettre une vecteur propre
(de taille infinie) à gauche positif associé à 1 sans qu’il existe une probabilité
stationnaire. Ceci amène à distinguer les chaînes dites récurrentes positives des
chaînes dites récurrentes nulles.

6. Exercices
6.1. Exercice. La chaîne de l’exemple XV -2.7 est-elle ergodique ? Déterminer son
éventuelle probabilité invariante.

▷ Éléments de correction. . La chaîne est ergodique


©
car les entiers, premiers
ª
n
entre eux, 2 et 3 appartiennent à l’ensemble n ∈ N, [A ]1,1 > 0 .
. L’ensemble des solutions de l’équation π = πA est, après résolution par le pi-
¡¡ ¢¢
vot de Gauss, Vect 4 8 12 9 6 3 . La probabilité invariante est donc,
¡ ¢
1
en normalisant, 42 4 8 12 9 6 3 . ◁

6.2. Exercice.
1. Une probabilité réversible d’une matrice stochastique A = (a i , j ) est un
vecteur ligne π = (πi ) ∈ M1,n (R) positif et de somme 1 tel que,

∀i , j ∈ ‚1, nƒ, πi a i , j = π j a j ,i .

Montrer qu’une probabilité réversible est invariante.


2. Soit N ∈ N∗ . Considérons le modèle d’Ehrenfest, c’est-à-dire une chaîne de
Markov homogène finie (X n )n de transition donnée, pour tout k ∈ ‚0, N ƒ,
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap15 chapitre:XV

6. Exercices 219

par
k
P(X n+1 = k + 1|X n = k) = 1 − P(X n+1 = k − 1|X n = k) = N.

Déterminer la probabilité invariante pour cette chaîne.


▷ Éléments de correction.
1. Il suffit de calculer πA. En effet, pour tout i ∈ ‚1, nƒ,
X
n X
n X
n
πk a k,i = πi a i ,k = πi a i ,k = πi .
k=1 k=1 k=1

2. On peut vérifier rapidement que cette chaîne est bien irréductible (mais
qu’elle n’est pas ergodique). Toutefois, ici nous allons exploiter la pre-
mière question et chercher une probabilité réversible, c’est-à-dire un
vecteur π positif de somme 1 tel que, pour tout k ∈ ‚0, N ƒ,
¡ ¢
πk Nk = πk+1 1 − Nk ,
¡ ¢
avec la convention πN +1 = 0. Un rapide calcul donne alors πk = 2−N Nk
pour k ∈ ‚0, N ƒ.

6.3. Exercice. Soit A ∈ Mn (R) une matrice stochastique irréductible et π sa pro-


babilité invariante. Notons M la matrice dont toutes les lignes sont π, c’est-à-dire
telle que, pour tous i , j ∈ ‚1, nƒ, [M ]i , j = [π] j .
1. Montrer que la matrice In − A + M est inversible.
2. Vérifier que (In + A + · · · + A p−1 )(In − A + M ) = In − A p + pM .
3. En déduire que la suite (A p )p converge au sens de Cesàro vers M .

▷ Éléments de correction.
1. Soit X ∈ ker(In − A + M ). Alors, π(In − A + M )X = 0 mais aussi
π(In − A + M )X = (π − πA + πM )X
= (π − π + π)X = πX .

Ainsi, πX = 0 et donc M X = 0n,1 et AX = X . Comme le sous-espace


propre de A est de dimension 1 (d’après le théorème de Perron & Frobe-
nius pour la matrice A irréductible positive), le vecteur X est constant.
Mais alors, la condition µX = 0 entraîne que le vecteur X est nul. En
conclusion, ker(In − A +M ) = {0n,1 } et la matrice In − A +M est inversible.
2. Remarquons tout d’abord que AM = M car la somme des coefficients
sur une ligne de A vaut 1. Par conséquent,
¡ ¢ ¡ ¢
In + A + · · · + A p−1 (In − A + M ) = In − A p + In + A + · · · + A p−1 M
= In − A p + pM .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap15 chapitre:XV

220 XV. Application aux chaînes de Markov finies

3. On vérifie que (In − A + M )M = M et donc, (In − A + M )−1 M = M . D’après


la question précédente,
¡ ¢ 1 ¡ ¢
1
p In + A + · · · + A
p−1
= p (In − A + M )−1 In − A p + M .
¡ ¢
La suite kA p k p étant bornée, le second membre tend vers M .

6.4. Exercice. Soit A ∈ Mn (R) une matrice stochastique, strictement positive. No-
tons d le plus petit coefficient de A et, pour tout vecteur X = (x i ) ∈ Mn,1 (R),
© ª
δ(X ) = max x i − x j , i , j ∈ ‚1, nƒ .

1. Montrer que, pour tout vecteur X ∈ Mn,1 (R) positif, δ(AX ) É (1−2d )δ(X ).
2. En déduire que, pour tout vecteur X ∈ Mn,1 (R) positif, la suite (δ(A p X ))p
converge vers 0.
On retrouve une justification heuristique du premier point du Théorème XV -4.3
pour les matrices stochastiques strictement positives.
▷ Éléments de correction.
1. Soit X = (x i ) ∈ Mn,1 (R) un vecteur positif, i 0 et j 0 des indices tels que
© ª © ª
x i 0 = max x i , i ∈ ‚1, nƒ , et x j 0 = min x i , i ∈ ‚1, nƒ ,

de sorte que δ(X ) = x i 0 − x j 0 . Alors, pour tous i , j ∈ ‚1, nƒ distincts,


X
n X
n
[AX ]i − [AX ] j = a i ,k x k − a j ,k x k
k=1 k=1
X
n X
n
É a i ,k x i 0 + a i , j 0 x j 0 − a j ,k x j 0 − a j ,i 0 x i 0
k=1 k=1
k6= j 0 k6=i 0

É (1 − a i , j 0 )x i 0 + a i , j 0 x j 0 − (1 − a j ,i 0 )x j 0 − a j ,i 0 x i 0
É (1 − a i , j 0 − a j ,i 0 )x i 0 − (1 − a j ,i 0 − a i , j 0 )x j 0
É (1 − 2d )(x i 0 − x j 0 ) = (1 − 2d )δ(X ).

2. Par récurrence, on trouve, pour tout vecteur X ∈ Mn,1 (R) positif et tout
entier p,
0 É δ(A p X ) É (1 − 2d )p δ(X ).

Comme la matrice A est supposée strictement positive, d > 0 et donc


1 − 2d < 1. Le théorème d’encadrement donne que la suite (δ(A p X ))p
converge vers 0.

Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI

Chapitre XVI

Exponentielle de matrices

Objectifs du chapitre
— Calculer une exponentielle de matrice dans des cas simples.
— Élucider le lien entre la diagonalisabilité d’une matrice et de son expo-
nentielle.
— Comprendre l’utilisation de l’exponentielle de matrice pour résoudre un
système différentiel à coefficients constants.

1. Définitions

1.1. Définition. Soit A ∈ Mn (K). L’exponentielle de A est la somme de la série


1 k
de terme général k! A . On la note e A ou exp(A).

1.2. Remarque. La convergence de la série est immédiate puisque, quitte à


considérer une norme d’opérateur sur l’espace complet Mn (K), on obtient pour
tout k ∈ N,
° 1 k° 1
° A ° É kAkk ,
k! k!

et l’on est ramené par comparaison à la convergence de la série numérique de


l’exponentielle de paramètre kAk.

En effectuant directement les calculs des puissances, on obtient immédiate-


ment les propriétés élémentaires suivantes.

¡ ¢> >
1.3. Proposition. Soit A ∈ Mn (K). Alors, e A = e A et e A = e A .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI

222 XVI. Exponentielle de matrices

¡ ¢k ¡ ¢>
Démonstration. Il suffit de remarquer que, pour tout k ∈ N, A > = A k et
k
A = Ak . ä

1.4. Exemple. Considérons la matrice de réflexion du plan (par rapport à la


droite dirigée par le vecteur (1, 1)) suivante
µ ¶
0 1
A= .
1 0

Le calcul des puissances de A donne A 2n = I2 et A 2n+1 = A pour tout n ∈ N. Par


conséquent,
X
+∞ 1 X
+∞ 1
eA = I2 + A
k=0 (2k)! k=0 (2k + 1)!
= ch(1)I2 + sh(1)A.

En reprenant le calcul, on obtient, pour tout t ∈ R, e t A = ch(t )I2 + sh(t )A.

π
1.5. Exemple. Considérons la matrice de rotation du plan d’angle 2
µ ¶
0 −1
A= .
1 0

Alors, pour tout n ∈ N, A 4n = I2 , A 4n+1 = A, A 4n+2 = −I2 et A 4n+3 = −A. Par


conséquent,
X
+∞ (−1)k X (−1)k
+∞
eA = I2 + A
k=0 (2k)! k=0 (2k + 1)!
= cos(1)I2 + sin(1)A.

En reprenant le calcul, on obtient, pour tout t ∈ R, e t A = cos(t )I2 + sin(t )A.

1.6. Proposition. Soit A, B ∈ Mn (K) et U ∈ GLn (K) telles que A = U BU −1 . Alors,

e A = U e B U −1 .

Démonstration. Il suffit de remarquer que, pour tout k ∈ N, A k = U B k U −1 puis


d’appliquer la définition d’exponentielle, la linéarité et la continuité de l’appli-
cation M 7→ U MU −1 . ä

1.7. Corollaire. Soit A ∈ Mn (C). Alors, det e A = e tr A .

Démonstration. Trigonalisons la matrice A : on dispose de U ∈ GLn (C) et de T


triangulaire telle que A = U T U −1 . Alors, e A = U e T U −1 , donc
Y
n
det e A = det e T = e [T ]i ,i = e tr T = e tr A ,
i =1
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI

1. Définitions 223

en effectuant le calcul explicite des coefficients diagonaux de T k puis de e T . ä

1.8. Proposition. Soit A ∈ Mn (K). Alors, e A appartient à K[A].


Démonstration. L’espace vectoriel K[A] est de dimension finie (de dimension le
degré de µ A ) donc fermé. Comme il contient toutes les sommes partielles de la
série, il contient également sa somme. ä

1.9. Proposition. Soit A, B ∈ Mn (K) telles que AB = B A. Alors, e A e B = e A+B .


Démonstration. Les séries e A et e B convergent absolument donc le produit de
leurs sommes est obtenu par le produit de Cauchy
à !
A B
X∞ X n 1
k 1 n−k
X∞ 1 X n n
e e = A B = A k B n−k
n=0 k=0 k! (n − k)! n=0 n! k=0 k
X∞ 1
= (A + B )n = e A+B ,
n=0 n!
en utilisant la formule du binôme pour reconnaître (A +B )n (car les matrices A
et B commutent). ä

1.10. Corollaire. Soit A, B ∈ Mn (K) telles que AB = B A. Alors, e A et e B com-


mutent.
Démonstration. Comme A + B = B + A, e A+B = e B +A et on conclut avec la pro-
position précédente. ä

1.11. Remarque. On peut voir l’importance de l’hypothèse de commutation


avec l’exemple des matrices
µ ¶ µ ¶
1 0 0 1
A= , B=
0 −1 0 0
pour lesquelles
µ ¶ µ ¶ µ ¶ µ ¶
A e 0 B 1 1 A B e e e e −1
e = , e = , e e = 6 = = eB e A.
0 e −1 0 1 0 e −1 0 e −1

1.12. Corollaire. Soit A ∈ Mn (K). Alors, e A est inversible d’inverse e −A .


Démonstration. Il suffit de remarquer que A et −A commutent et d’appliquer
la proposition précédente. ä

1.13. Exemple. Avec ce résultat, on obtient immédiatement que l’exponentielle


d’une matrice antisymétrique réelle A est orthogonale puisque
¡ A ¢−1 > ¡ ¢>
e = e −A = e A = e A .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI

224 XVI. Exponentielle de matrices

2. Exponentielle de matrices nilpotentes

2.1. Exemple. Soit N ∈ Mn (K) une matrice nilpotente d’indice p. Alors,

X
p−1
1 k
eN = N .
k=0 k!

En particulier, pour le bloc de Jordan J n , on obtient


 1 1 1
1 1 2! 3! ··· n!
 . . . .. .. 
0 . . . . . . . .
 
 .. . . . . . 
. . . . . . . . 1
e Jn = 
 ..
3!  .

. . .. . .. . .. 1
 2! 
. . . 
 .. .. .. 1
0 ··· ··· ··· 0 1

Conjointement avec la proposition XVI -1.6 et l’obtention d’une forme réduite


de Jordan, ce résultat permet de calculer l’exponentielle d’une matrice nilpo-
tente.

2.2. Définition. Soit N ∈ Mn (K) une matrice nilpotente d’indice p. Le loga-


rithme de la matrice In + N est la matrice
X
p−1
(−1)k−1 k
ln(In + N ) = N .
k=1 k

2.3. Proposition. Soit N ∈ Mn (K) une matrice nilpotente. Alors, les matrices
ln(In + N ) et e N − In sont nilpotentes et
¡ ¢
e ln(In +N ) = In + N , ln e N = N .

Démonstration. . Les matrices ln(In + N ), exp N − In s’écrivent comme le pro-


duit (commutatif) de N et d’un polynôme en N (en factorisant N dans leurs
expressions comme sommes). Ainsi, elles sont nilpotentes d’indice inférieur à
celui de N .
. Notons p l’indice de nilpotence de N , puis considérons les polynômes

X
p−1
1 k X
p−1
(−1)k−1 k
P= X , Q= X .
k=1 k! k=1 k

D’après les développements limités usuels en 0,

e x = 1 + P (x) + O(x p ), ln(1 + x) = Q(x) + O(x p ).


Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI

3. Exponentielle de matrices diagonalisables 225

En composant ces développements,


p)
1 + x = e ln(1+x) = e Q(x)+O(x = 1 + P (Q(x)) + O(x p ),
x = ln e x = ln(1 + P (x) + O(x p )) = Q(P (x)) + O(x p ).

D’après l’unicité de la partie régulière d’un développement limité, ces égalités


indiquent que X p divise P ◦ Q − X et Q ◦ P − X . Ainsi, en utilisant que N p = 0n ,
on obtient P (Q(N )) = N et Q(P (N )) = N puis

exp(ln(In + N )) = (1 + P ) ◦ Q(N ) = In + N , ln(exp N ) = Q(P (N )) = N .

2.4. Corollaire. Soit N ∈ Mn (K) nilpotente vérifiant e N = In . Alors, N = 0n .

Démonstration. Avec la proposition précédente, il suffit de remarquer que


¡ ¢
N = ln e N = ln(In ) = 0n ,

d’après le calcul de ln(In ). ä

2.5. Remarque. Ce résultat aurait également pu être établi sans recours au lo-
garithme en exploitant la réduction de Jordan de la matrice N et en effectuant
le calcul de l’exponentielle sous la forme diagonale par blocs.

3. Exponentielle de matrices diagonalisables


3.1. Exemple. Soit λ1 , . . . , λn ∈ K. D’après le calcul des puissances, l’exponen-
¡ ¢
tielle de la matrice diagonale diag(λ1 , . . . , λn ) est diag e λ1 , . . . , e λn .

Avec cet exemple et la proposition XVI -1.6, on obtient facilement le calcul de


l’exponentielle d’une matrice diagonalisable dont on connaît une diagonalisa-
tion et on obtient notamment le résultat élémentaire suivant.

3.2. Proposition. Soit A ∈ Mn (R) diagonalisable. Alors, e A est diagonalisable et


© ª
Sp(e A ) = e λ , λ ∈ Sp(A) .

Une idée importante pour relier une matrice diagonalisable et son exponen-
tielle consiste à exploiter l’existence de polynômes interpolateurs bien choisis.

3.3. Lemme. Soit A ∈ Mn (R) diagonalisable. Alors, il existe un polynôme P tel


¡ ¢
que A = P e A .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI

226 XVI. Exponentielle de matrices

Démonstration. Écrivons A = U diag(λ1 , . . . , λn )U −1 puis considérons un poly-


nôme d’interpolation P ∈ R[X ] telle que P (e λk ) = λk pour tout k ∈ ‚1, nƒ. Alors,
¡ ¢
P (e A ) = P U diag(e λ1 , . . . , e λn )U −1
¡ ¢
= U diag P (e λ1 ), . . . , P (e λn ) U −1
= U diag(λ1 , . . . , λn )U −1 = A.
ä

3.4. Remarque. Ce résultat n’est plus vrai dans Mn (C) comme on peut le consta-
ter avec la matrice A = diag(0, 2i π) dont l’exponentielle (et donc tous ses poly-
nômes) est scalaire.

3.5. Proposition. Soit A, B ∈ Mn (R) deux matrices diagonalisables admettant la


même exponentielle e A = e B . Alors, A = B .
Démonstration. D’après le lemme précédent, A est un polynôme en e A = e B .
Or, e B est un polynôme en B donc A est un polynôme en B . Alors, les matrices A
et B commutent donc sont co-diagonalisables. On dispose ainsi d’une matrice
inversible U et de réels λ1 , . . . , λn , µ1 , . . . , µn tels que

A = U diag(λ1 , . . . , λn )U −1 , B = U diag(µ1 , . . . , µn )U −1 .
En calculant, les exponentielles e A et e B avec des décompositions, on obtient
que, pour tout k ∈ ‚1, nƒ, e λk = e µk puis λk = µk avec l’injectivité de la fonction
exponentielle sur R. En conclusion, A = B . ä

3.6. Remarque. Le résultat n’est plus vrai dans Mn (C). Par exemple, les ma-
trices 2i πI2 et 02 diagonales donc, a fortiori diagonalisables, ont la même ex-
ponentielle mais ne sont pas égales.

4. Exponentielle et décomposition de Jordan &


Dunford
Pour gérer des cas intermédiaires entre la nilpotence et la diagonalisabilité, on
va se ramener à la décomposition de Jordan & Dunford.

4.1. Proposition. Soit A ∈ Mn (C) et A = D + N sa décomposition de Jordan &


Dunford. Alors, la décomposition de Jordan & Dunford de la matrice e A = e D e N
est donnée par
e A = e D + e D (e N − In ).
Démonstration. La matrice e D est diagonalisable et la matrice e D (e N − In ) est
nilpotente car e N − In est nilpotente et e D et e N − In commutent. Enfin, e D et
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI

5. Application exp 227

e D (e N − In ) commutent car D et N commutent. On a donc trouvé la décompo-


sition de Jordan & Dunford de e A . ä

On peut aussi obtenir le lemme suivant.

4.2. Lemme. Soit A ∈ GLn (C). Alors, il existe P ∈ C[X ] tel que A = e P (A) .

Démonstration. Soit A = D + N la décomposition de Jordan & Dunford de A.


Rappelons notamment que D et N sont des polynômes en A. Comme A est
inversible, sa partie diagonalisable D l’est également et l’on peut obtenir la dé-
composition multiplicative suivante

A = D(In + D −1 N ).

. La matrice D est diagonalisable de valeurs propres λ1 , . . . , λn ∈ C non nulles.


Considérons un polynôme interpolateur P ∈ C[X ] qui associe à chaque λk un
antécédent de λk par exp (qui existe car exp : C → C∗ est surjective). Alors, pour
tout k ∈ ‚1, nƒ, λk = e P (λk ) puis D = e P (D) . Comme D est un polynôme en A, on
dispose de P 1 ∈ C[X ] tel que D = e P 1 (A) .
. La matrice D −1 N est nilpotente car N est nilpotente et D N = N D donc
−1 N )
In + D −1 N = e ln(In +D .

Or, ln(In + D N ) est par construction un polynôme en D −1 N . Comme N et


−1

D sont des polynômes en A, on obtient que D −1 N est un polynôme en A. Par


suite, il existe P 2 ∈ C[X ] tel que ln(In + D −1 N ) = P 2 (A).
. En combinant, on obtient

A = D(In + D −1 N ) = e P 1 (A) e P 2 (A) = e (P 1 +P 2 )(A) ,

et donc le résultat annoncé avec le polynôme P 1 + P 2 .


ä

5. Application exp
5.1. Proposition. L’application exp est surjective de Mn (C) dans GLn (C).

Démonstration. Soit A ∈ GLn (C). D’après le dernier lemme, on dispose d’un po-
lynôme P ∈ C[X ] tel que A = e P (A) . Ainsi, toute matrice complexe inversible est
atteinte par l’application exp. ä

5.2. Corollaire. Soit A ∈ GLn (C) et p ∈ N∗ . Alors, il existe une matrice R ∈ GLn (C)
telle que A = R p .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI

228 XVI. Exponentielle de matrices

Démonstration. D’après la propriété précédente, il existe une matrice B ∈ Mn (C)


¡ ¢
telle que A = e B . On obtient le résultat avec R = exp p1 B . ä

5.3. Remarque. Ceci est a priori faux si on enlève l’hypothèse d’inversibilité. Par
exemple, un bloc de Jordan J n ne peut être le carré d’une matrice R : en effet,
si c’était le cas, on aurait R 2n−2 6= 0n et R 2n = 0n donc une matrice de taille n,
nilpotence d’indice strictement plus grand que n, contradiction !

Les matrices inversibles réelles de déterminant strictement négatif ne sont pas


atteintes par exp sur Mn (R) d’après le Corollaire XVI -1.7. Examinons plus pré-
cisément l’ensemble des matrices atteintes avec la proposition suivante.

5.4. Proposition. Soit A ∈ Mn (R). Alors, il y a équivalence entre les propriétés


— il existe une matrice B ∈ Mn (R) telle que A = e B ,
— il existe une matrice R ∈ GLn (R) telle que A = R 2 .

Démonstration. (⇒) Il suffit de poser R = exp( 12 B ) pour obtenir


¡ ¢
R 2 = exp 12 B + 12 B = A.

(⇐) Appliquons le lemme XVI -4.2 à R : on dispose d’un polynôme P ∈ C[X ] tel
que R = e P (R) . On remarque alors, en utilisant que R est à coefficients réels, que

A = R 2 = RR = e P (R) e P (R) = e P (R)+P (R) .

La matrice (réelle) B = P (R) + P (R) satisfait donc la condition souhaitée. ä

5.5. Exemple. Soit n Ê 2. L’application exp n’est pas injective sur Mn (R) (donc
pas sur Mn (C) non plus). En effet, la matrice
µ ¶
0 −1

1 0

admet la même exponentielle que I2 (puis d’éventuellement compléter par des


blocs de 0 pour le cas n > 2).

6. Systèmes différentiels linéaires


6.1. Définition. Un système différentiel linéaire est une équation

Y 0 = A(t )Y + B (t )

d’inconnue Y : I → Mn,1 (K), de coefficients A : I → Mn (R) et de second membre


B : I → Mn,1 (R).
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI

6. Systèmes différentiels linéaires 229

Le système est à coefficients constants si l’application A est constante ; il est


homogène si l’application B est nulle.

6.2. Remarque. Une équation différentielle scalaire linéaire d’ordre n de la forme


X
n
a k (t )y (k) = b(t ),
k=0
0
se réécrit Y = AY + B avec
     
y 0 1 0 ··· 0 0
 y0   .. .. .. .. ..  0
   . . . . .   
 .    .
Y =  ..  , A= .
 .. .. .. , B =  ..  .
   . . 0   
 y (n−2)  0 0
··· ··· 0 1 
(n−1) b
y a0 a1 ··· ··· a n−1

Écrivons un résultat d’existence et d’unicité dans le cas simple d’un système


homogène à coefficients constants (mais qui peut s’étendre sans grande diffi-
culté à un cas plus général).

6.3. Proposition. Soit A ∈ Mn (K) et Y0 ∈ Mn,1 (K). Alors, le système linéaire ho-
mogène à coefficients constants Y 0 = AY admet exactement une solution véri-
fiant la condition initiale Y (0) = Y0 et cette solution est t 7→ e t A Y0 .

6.4. Lemme. Soit A ∈ Mn (K). Alors, la fonction vectorielle t 7→ e t A est dérivable


de dérivée t 7→ Ae t A = e t A A.
Démonstration. Il suffit d’appliquer le théorème de dérivation des séries de fonc-
tions à valeurs dans un espace vectoriel normé.
n
Posons, pour tout n, u n : t 7→ tn! A n . Alors, on obtient successivement
— la série de fonction de terme général u n converge simplement ;
n−1
— pour tout n, u n est dérivable de dérivée u n0 : t 7→ ntn! A n ;
— la série de terme général u n0 converge normalement sur tout segment
[a, b] ⊂ R car, avec une norme d’opérateur sur Mn (K),
(kAk max(|a|, |b|))n−1
∀n ∈ N∗ , ku n0 k∞ É .
(n − 1)!
Ainsi, la fonction t 7→ e t A est dérivable et sa dérivée est
X
∞ t n−1
t 7→ An .
n=1 (n − 1)!
On obtient les expressions souhaitées par un simple changement d’indice. ä

Revenons à la proposition.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI

230 XVI. Exponentielle de matrices

Démonstration. Une fonction Y vérifie l’équation Y 0 = AY si, et seulement si,


pour tout t ∈ R, e −t A (Y 0 (t ) − AY (t )) = 0n,1 , c’est-à-dire si, et seulement si, la
fonction t 7→ e −t A Y est constante (car sa dérivée est justement le membre de
gauche de la réécriture de l’équation). Ainsi, Y est solution si, et seulement si,
pour tout t ∈ R, e −t A Y (t ) = e −0A Y (0) = Y (0) d’où le résultat. ä

6.5. Exemple. D’après la proposition précédente, la résolution d’un système


différentiel Y 0 = AY se ramène au calcul de e A , qui lui même peut se ramener
à la réduction de la matrice A. Examinons le comportement des solutions de
l’équation Y 0 = AY dans le cas simple d’une matrice triangulaire de taille 2 :
µ ¶
λ 1
A=
0 µ

. Si les deux valeurs propres sont strictement négatives, alors la fonction Y


converge en +∞ vers le vecteur nul (car l’exponentielle de t A converge vers la
matrice nulle). Graphiquement, en représentant sur R+ la seconde coordonnée
de Y en fonction de la première, on obtient des courbes avec l’allure suivante
en partant de différentes conditions initiales :

Cas λ = −3, µ = −1

Dans le cas de l’illustration, les deux droites propres de A sont l’axe des abs-
cisses et la droite dirigée par le vecteur (1, 2) (représentés en gris).
. Si l’une des deux valeurs propres est strictement négative et que l’autre est
strictement positive, la situation devient un peu plus délicate et l’origine (0, 0)
n’est plus un point attractif de toutes les trajectoires. En conservant les mêmes
conditions initiales et les mêmes conventions que ci-dessus, on observe un
schéma bien différent. Les deux droites propres de A sont l’axe des abscisses
(associé à la valeur propre λ > 0) et la droite dirigée par le vecteur (1, −2) (asso-
cié à la valeur propre µ < 0 où les trajectoires continuent donc à converger vers
l’origine).
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI

7. Commentaires et développements 231

Cas λ = 1, µ = −1

Une discussion plus générale sur le signe des valeurs propres réelles et des
parties réelles des valeurs propres complexes permet d’élucider complètement
l’allure des courbes dans le diagramme de phase d’un tel système.

6.6. Remarque. Il n’est pas toujours nécessaire de résoudre un système diffé-


rentiel linéaire pour obtenir des informations sur ses solutions. Par exemple, si
la matrice A des coefficients est non inversible, alors chaque solution du sys-
tème Y 0 = AY demeure dans un hyperplan affine.
En effet, comme A n’est pas inversible, sa transposée A > ne l’est pas non plus
et il existe C ∈ ker A > non nul. Ainsi, A >C = 0n,1 donc C > A = 01,n . Par consé-
quent, pour toute solution Y du système Y 0 = AY , C > Y 0 = C > AY = 0 ; par suite,
il existe a ∈ R tel que C > Y = a. En conclusion, la solution Y demeure dans l’hy-
P
perplan affine d’équation nk=1 c k x k = a.

7. Commentaires et développements
7.1. Plusieurs calculs de ce chapitre font apparaître le rôle prépondérant de
l’ensemble des matrices unipotentes, c’est-à-dire des matrices qui s’écrivent
comme sommes de l’identité et d’une matrice nilpotente.
La proposition XVI -2.3 indique que l’exponentielle réalise une bijection entre
le cône des matrices nilpotentes et l’ensemble des matrices unipotentes. Avec
des considérations topologiques, on obtient que l’application ainsi définie est
un homéomorphisme.

7.2. Pour montrer que toute matrice inversible complexe est atteinte par l’ex-
ponentielle, il suffit, quitte à passer par une décomposition de Cn en sous-
espaces caractéristiques d’une matrice donnée, de montrer que les matrices
triangulaires supérieures à coefficients diagonaux égaux à une valeur (propre)
λ 6= 0 sont atteintes par l’exponentielle ; en divisant par λ, on est ramené au
résultat indiquant que les matrices triangulaires supérieures avec des 1 sur la
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI

232 XVI. Exponentielle de matrices

diagonale, qui sont des matrices unipotentes particulières, sont bien atteintes
par l’exponentielle.

7.3. En partant du calcul de l’exemple XVI -1.5 et de la réduction des matrices


orthogonales, on vérifie rapidement que l’application exponentielle est surjec-
tive du sous-espace vectoriel An (R) dans le sous-groupe S O n (R), ce qui, avec
la continuité de l’application exponentielle, amène notamment la connexité de
ce dernier.
De même, l’application exponentielle est surjective de l’espace des matrices
antihermitiennes dans le groupe unitaire.

7.4. On peut montrer que exp(Mn (R)), l’image de Mn (R) par l’application ex-
ponentielle, est une partie de GLn (R) qui n’est ni ouverte, ni fermée. On peut
aisément comprendre le premier point en taille 2 en considérant l’exemple de
la suite de matrices définie, pour tout n ∈ N par
µ ¶
−1 2−n
0 −1
Aucune de ces matrices n’appartient à exp(Mn (R)) contrairement à la limite de
cette suite, −I2 .
La partie exp(Mn (R)) n’est pas un sous-groupe de GLn (R) : en effet, toute ma-
trice de déterminant strictement positif se décompose comme produit d’une
matrice de S n++ (R) et d’une matrice de S O n (R) (décomposition polaire) donc
de deux matrices qui appartiennent à exp(Mn (R)) ; ainsi, si exp(Mn (R)) est
stable par produit matriciel, alors cette partie contient toutes les matrices de
déterminant strictement positif ce qui est absurde.

7.5. Le résultat général d’appartenance à exp(Mn (R)) peut être énoncé de ma-
nière satisfaisante avec les tableaux de Young : une matrice A ∈ GLn (R) est une
exponentielle (ou de manière équivalente un carré) si, et seulement si, dans
chacun de ses tableaux de Young associé aux (éventuelles) valeurs propres né-
gatives, les lignes de même longueur sont en nombre pair. Ainsi, les matrices
 
µ ¶ −1 1 0
−1 1
A= , B =  0 −1 1  ,
0 −1
0 0 −1
n’appartiennent pas à exp(Mn (R)) puisqu’elles admettent pour la valeur propre
−1 les tableaux de Young suivants
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI

8. Exercices 233

En revanche, la matrice diagonale par blocs diag(A, A, A, A, B, B ) y appartient


car le tableau de Young associé à son unique valeur propre négative −1 est

et il vérifie la condition énoncée ci-dessus.


On démontre facilement à partir de là que l’adhérence de exp(Mn (R)) est l’en-
semble des matrices de déterminant positif.

8. Exercices
8.1. Exercice. Calculer l’exponentielle de la matrice diagonalisable
 
0 1 0
A = 0 1 1 .
0 0 2

▷ Éléments de correction. Introduisons le polynôme d’interpolation P ∈ R2 [X ]


vérifiant P (0) = 1, P (1) = e et P (2) = e 2 , à savoir
2
P = 12 (X − 1)(X − 2) − e X (X − 2) + e2 X (X − 1)
¡ 2 ¢ ¡ 2 ¢
= e2 − e + 12 X 2 + − e2 + 2e − 32 X + 1.

Par ailleurs, A admet trois valeurs propres 0, 1 et 2 donc est diagonalisable : il


existe une matrice U ∈ GL3 (R) telle que A = U diag(0, 1, 2)U −1 . Alors,

e A = U diag(e 0 , e 1 , e 2 )U −1 = U diag(P (0), P (1), P (2))U −1 = P (A).

Pour conclure, il suffit de calculer A 2 puis de remplacer dans l’expression pré-


cédemment trouvée de P (A) :
   2 
0 1 1 1 e − 1 e2 − e + 12
A 2 = 0 1 3 , e A = P (A) = 0 e e2 − e  .
0 0 4 0 0 e2

¡ ¢k
8.2. Exercice. Soit A ∈ Mn (K). Montrer que In + k1 A → e A .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI

234 XVI. Exponentielle de matrices

▷ Éléments de correction. Considérons une norme d’opérateur sur Mn (K). Alors,


pour tout k ∈ N∗ ,
à !
° A ¡ ¢ ° °X k ³1 k 1´ l X 1 l°
+∞
°e − In + 1 A k ° = °
° − A + A °
°
k l ! l l l !
l =0 k l =k+1
à ! à !
X k ³1 k 1 ´ X 1
+∞ k 1 1
l
É − l
kAk + kAkl car É
l =0 l ! l k l =k+1 l ! l kl l !
à !
X 1
+∞ X k k 1
É kAkl − l
kAkl
l =0 l ! l =0 l k
kAk
¡ 1
¢k
Ée − 1 − k kAk .

Par convergence de l’exponentielle sur R puis par le lemme d’encadrement, on


° ¡ ¢k °
obtient que °e A − In + 1 A ° → 0.
k ◁

8.3. Exercice. Montrer que la matrice diag(−1, −2) n’est pas l’exponentielle d’une
matrice réelle.
▷ Éléments de correction. Supposons qu’il existe une matrice réelle A telle que
e A = diag(−1, −2). Comme e A admet deux valeurs propres distinctes, la matrice
A qui commute avec e A (donc laisse stables les deux droites propres) est aussi
diagonale. En notant λ et µ les valeurs propres de A (éventuellement égales),
on obtient e λ = −1 ou e µ = −1 ce qui est impossible car exp(R) = R∗+ .
Cette matrice n’est pas l’exponentielle d’une matrice réelle bien qu’elle soit
de déterminant strictement positif : cette condition sur le déterminant est né-
cessaire mais non suffisante pour appartenir à exp(Mn (R)) (une caractérisa-
tion complète dans le cas général est la proposition XVI -5.4 ou le commen-
taire XVI -7.5). ◁

8.4. Exercice. Montrer que la matrice −I2 + E 1,2 n’est pas l’exponentielle d’une
matrice réelle.
▷ Éléments de correction. Supposons qu’il existe une matrice réelle A telle que
e A = −I2 + E 1,2 . Les valeurs propres complexes de A ont pour exponentielle −1
dont de la forme (2k + 1)i π. Or, elles sont conjuguées car A est réelle donc dis-
tinctes. Ainsi, la matrice A est diagonalisable et e A l’est également : contradic-
tion. ◁

8.5. Exercice. Déterminer les matrices A ∈ M2 (R) vérifiant e A = I2 .


▷ Éléments de correction. . Remarquons tout d’abord que, pour une telle ma-
trice, 1 = det I2 = det e A = e tr A d’après la proposition XVI -1.7 donc tr A = 0.
. Calculons l’exponentielle d’une matrice A ∈ M2 (R) de trace nulle. D’après le
théorème de Cayley & Hamilton, A 2 = − det(A)I2 . Ensuite, par récurrence, on
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI

8. Exercices 235

obtient, pour tout n ∈ N, A 2n = (− det A)n I2 , et A 2n+1 = (− det A)n A, puis, en


séparant les termes d’indices pairs et ceux d’indices impairs,
X

(− det A)n
X

(− det A)n
eA = (2n)! I2 + (2n+1)! A.
n=0 n=0

Discutons dorénavant selon le signe de det A.


— Si det A > 0, alors
¡p ¢
¡p ¢ sin det A
e A = cos det A I2 + p A.
det A

Dans ce cas, e A = I2 si, et seulement si, il existe un entier k non nul tel
que det A = 4k 2 π2 .
— Si det A = 0, c’est-à-dire si A est nilpotente, alors e A = I2 + A donc, dans
ce cas, e A = I2 si, et seulement si, A = 02 .
— Si det A < 0, alors
¡p ¢
¡p ¢ sh − det A
e A = ch − det A I2 + p A.
− det A
A
Dans ce cas, il est impossible d’obtenir e = I2 .
L’ensemble recherché est donc composé de la matrice nulle et de la réunion sur
k ∈ N∗ des ensembles des matrices de trace nulle et de déterminant 4k 2 π2 . ◁

8.6. Exercice. Soit A ∈ GLn (R).


1. Montrer qu’il existe M ∈ Mn (C) telle que
µ ¶ µ ¶
A 0n M 0n
= exp .
0n A 0n M

2. Justifier que les matrices


µ ¶ µ ¶
M 0n Re(M ) −Im(M )
,
0n M Im(M ) Re(M )
sont semblables.
3. Conclure qu’il existe B ∈ M2n (R) telle que
µ ¶
A 0n
= eB .
0n A
Indication : on pourra utiliser que deux matrices réelles semblables sur C
sont semblables sur R.
▷ Éléments de correction.
1. L’application exp est surjective de Mn (C) dans GLn (C) donc on dispose
d’une matrice M ∈ Mn (C) vérifiant A = e M . Par ailleurs, comme A est
réelle, on a également A = A = e M . Enfin en effectuant les calculs des
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI

236 XVI. Exponentielle de matrices

puissances par blocs, on obtient


µ ¶ Ã M ! µ ¶
M 0n e 0n A 0n
exp = = .
0n M 0n eM 0n A

2. Rappelons que Re(M ) = 12 M + 12 M et Im(M ) = 1


2i M − 2i1 M .
. Dans un premier temps, obtenons la diagonalisation explicite de la
matrice réelle µ ¶
α −β
.
β α

Ses valeurs propres sont α + i β et α − i β et une base de diagonalisation


est (i E 1 + E 2 , E 1 + i E 2 ). Ainsi,
µ ¶−1 µ ¶µ ¶
i 1 α −β i 1
= diag(α + i β, α − i β),
1 i β α 1 i

soit en calculant l’inverse


µ ¶µ ¶µ ¶
1 −i 1 α −β i 1
= diag(α + i β, α − i β).
2 1 −i β α 1 i

. Dans un deuxième temps, revenons à la question en effectuant des


calculs par blocs :
µ ¶µ ¶µ ¶ µ ¶
1 −i In In Re(M ) −Im(M ) i In In M 0n
= .
2 In −i In Im(M ) Re(M ) In i In 0n M

Ainsi, les deux matrices proposées sont bien semblables.


3. En combinant le résultat des deux premières questions, on trouve que la
matrice réelle diag(A, A) est semblable dans M2n (C) à la matrice réelle
(en utilisant que les exponentielles de deux matrices semblables sont
semblables, proposition XVI -1.6)
µ ¶
Re(M ) −Im(M )
exp .
Im(M ) Re(M )
D’après le résultat rappelé en indication, cela entraîne que ces deux ma-
trices sont semblables dans M2n (R) : on dispose d’une matrice U réelle
inversible telle que
µ ¶ ³ µ ¶
A 0n −1 Re(M ) −Im(M ) ´
=U exp U
0n A Im(M ) Re(M )
³ µ ¶
Re(M ) −Im(M ) ´ ¡ ¢
= exp U −1 U ∈ exp M2n (R) .
Im(M ) Re(M )

Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI

8. Exercices 237

8.7. Exercice. Soit A ∈ Mn (R) tel que χ A est scindé dans R[X ]. Montrer que A est
diagonalisable si, et seulement si, e A est diagonalisable.

▷ Éléments de correction. (⇒) Le sens direct est déjà établi dans le cours.
(⇐) Supposons la matrice e A diagonalisable et considérons A = D + N la dé-
composition de Jordan & Dunford de A. Alors,

e A = e D e N = e D + e D (e N − In ).

Or, par hypothèse, e A est diagonalisable donc sa partie nilpotente est nulle
(unicité de la décomposition de Jordan & Dunford) : e D (e N − In ) = 0n . Comme
e D ∈ GLn (C), on en déduit e N = In . Ainsi, N = 0n et donc A = D est diagonali-
sable. ◁

8.8. Exercice. Montrer que exp réalise une bijection de S n (R) dans S n++ (R).

▷ Éléments de correction.
¡ ¢> > ¡ ¢ © ª
. Pour tout S ∈ S n (R), e S = e S = e S et Sp e S = e λ , λ ∈ Sp(S) ⊂ R∗+ donc
e S ∈ S n++ (R).
. Montrons la surjectivité de cette application. Soit A ∈ S n++ (R). D’après le
théorème spectral, il existe U ∈ O n (R) et λ1 , . . . , λn ∈ R∗+ tels que

A = U diag(λ1 , . . . , λn )U > .

On vérifie immédiatement que la matrice S = U diag(ln λ1 , . . . , ln λn )U > ∈ S n (R)


est un antécédent de A par exp.
. L’injectivité de l’application est une application de la proposition XVI -3.5 où
il est établi que deux matrices réelles diagonalisables (donc en particulier deux
matrices symétriques réelles en vertu du théorème spectral) et de même expo-
nentielle sont égales.
En considérant les aspects topologiques, on peut montrer que l’exponentielle
réalise même un homéomorphisme de S n (R) dans S n++ (R). ◁

8.9. Exercice.
1. Soit A ∈ Mn (K). Montrer que l’équation différentielle M 0 = AM d’incon-
nue M : R → Mn (K) admet une unique solution vérifiant la condition
initiale M (0) = In .
2. Soit A, B ∈ Mn (K) deux matrices qui commutent. Montrer que la fonction
t 7→ e t A e t B est solution de l’équation M 0 = (A + B )M .
Retrouver la relation e A+B = e A e B .
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:chap10 chapitre:XVI

238 XVI. Exponentielle de matrices

▷ Éléments de correction.
1. Une fonction M : R → Mn (K) est solution de l’équation M 0 = AM si, et
seulement si, pour tout t ∈ R, e −t A (M 0 − AM ) = 0n , c’est-à-dire si la fonc-
tion t 7→ e −t A M est constante (car le membre de gauche est sa dérivée).
Ainsi, la seule solution de l’équation vérifie e −t A M = e −0A M (0) = In pour
tout t ∈ R. Ainsi la seule solution est donc t 7→ e t A .
2. . La fonction t 7→ e t A e t B est dérivable comme produit de deux fonctions
dérivables. Sa dérivée est

t 7→ Ae t A e t B + e t A B e t B = (A + B )e t A e t B

car B commute avec A par hypothèse donc avec e t A qui est, à t fixé, un
polynôme en A.
Ainsi, la fonction t 7→ e t A e t B est solution de l’équation M 0 = (A + B )M
avec la condition initiale M (0) = In .
. D’après la première question, on sait que l’unique solution de l’équa-
tion M 0 = (A + B )M avec la condition initiale M (0) = In est t 7→ e t (A+B )
donc, pour tout t ∈ R, e t (A+B ) = e t A e t B .
En évaluant en t = 1, on retrouve l’identité annoncée : e A+B = e A e B .

8.10. Exercice. Soit A 1 , A 2 ∈ Mn (K), M 0 ∈ Mn (K). Montrer que l’équation diffé-


rentielle M 0 = A 1 M + M A 2 admet une unique solution vérifiant M (0) = M 0 .

▷ Éléments de correction. Considérons la fonction f : t 7→ e −t A 1 M (t )e −t A 2 . Elle


est dérivable comme produit de fonctions dérivables et sa dérivée est donnée
par

f 0 : t 7→ −A 1 e −t A 1 M (t )e −t A 2 + e −t A 1 M 0 (t )e −t A 2 + e −t A 1 M (t )(−A 2 )e −t A 2 ,

soit, en remarquant que A 1 commute avec e −t A 1 pour tout t ∈ R,


¡ ¢
f 0 : t 7→ e −t A 1 M 0 (t ) − A 1 M (t ) − M (t )A 2 e −t A 2 .

Ainsi, M vérifie l’équation M 0 = A 1 M + M A 2 si, et seulement si, f 0 est nulle,


c’est-à-dire si f est constante. Par conséquent, M vérifie l’équation si, et seule-
ment si, pour tout t ∈ R,

e −t A 1 M (t )e −t A 2 = f (0) = M (0).

En conclusion, l’unique solution de l’équation M 0 = A 1 M + M A 2 vérifiant la


condition initiale M (0) = M 0 est t 7→ e t A 1 M 0 e t A 2 . ◁
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:annexe chapitre:A

Annexe A

Parallèle avec les groupes


abéliens finis

Objectif du chapitre
— Rappeler quelques résultats de ce livre.
— Esquisser un parallèle entre la réduction d’un endomorphisme en di-
mension finie et l’étude d’un groupe abélien fini.

1. A-modules
1.1. Définition. Soit A un anneau unitaire abélien. Un ensemble M muni d’une
loi de composition interne + et d’une loi de composition externe · de A × M
dans M est un A-module si
— (M , +) est un groupe abélien,
— ∀a, b ∈ A, ∀x ∈ M , (a + b) · x = a · x + b · x,
— ∀a ∈ A, ∀x, y ∈ M , a · (x + y) = a · x + a · y,
— ∀a, b ∈ A, ∀x ∈ M , (ab) · x = a · (b · x),
— ∀x ∈ M , 1 A .x = x.

Notre but est de faire sentir comment cette structure traverse le livre. Toutefois,
il n’est pas envisageable de faire une étude raisonnable de la structure de A-
module en quelques pages. On renvoie donc le lecteur intéressé au livre
Modules : théorie, pratique... et un peu d’arithmétique ! Grégory Berhuy, Cal-
vage et Mounet, 2012.
Une simple vérification à l’aide de la définition amène les deux propositions
suivantes.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:annexe chapitre:A

240 A. Parallèle avec les groupes abéliens finis

1.2. Proposition. Un groupe abélien (G, +) est Z-module pour la loi externe dé-
finie par
½
Z ×G → G
(k, x) 7→ kx

1.3. Remarque. La réciproque est vraie : les Z-modules sont exactement les
groupes abéliens.

1.4. Proposition. Soit E un K-espace vectoriel et u un endomorphisme de E .


Alors, E est un K[X ]-module pour la loi externe définie par
½
K[X ] × E → E
(P, x) 7→ P (u)(x)

1.5. Remarque. Cette structure a déjà été abondamment exploitée dans les
commentaires et développements en fin de chaque chapitre. Pour davantage
de détails sur la réduction comprise au niveau de la structure de K[X ]-module,
on renvoie au chapitre 2A du livre
Histoires hédonistes de groupes et de géométrie (tome 2), Philippe Caldero et
Jérôme Germoni, Calvage et Mounet, 2015.

2. Lexique
Dans cette partie, on juxtapose (sans commentaire) quelques résultats de ce
livre avec des résultats de théorie des groupes. On lit donc les lignes suivantes
à la manière d’un lexique entre deux langues.

2.1. Cadre d’étude

Précisons le cadre de l’étude.

Soit E un K-espace vectoriel de di- Soit G un groupe abélien fini.


mension finie et u un endomor-
phisme de E .

L’asymétrie dans le cadre (d’un côté G, de l’autre le couple (E , u)) casse un peu
la clarté du parallèle. On parle tantôt de E ou de u à gauche alors que l’on parle
toujours de G à droite.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:annexe chapitre:A

2. Lexique 241

2.2. Polynôme minimal

Revenons tout d’abord sur la définition de polynôme minimal en un vecteur.

Soit x ∈ E . L’idéal Soit x ∈ G. L’idéal


© ª © ª
P ∈ K[X ], P (u)(x) = 0E k ∈ Z, kx = 0G

est engendré par un unique polynôme est engendré par un unique entier po-
unitaire µu,x , le polynôme minimal de sitif, l’ordre de x.
u en x.

Voici maintenant la définition du polynôme minimal et celle de l’exposant d’un


groupe.

L’idéal L’idéal
© ª © ª
P ∈ K[X ], ∀x ∈ E , P (u)(x) = 0E k ∈ Z, ∀x ∈ G, kx = 0G

est engendré par un unique poly- est engendré par un unique entier po-
nôme unitaire µu , le polynôme mini- sitif, l’exposant de G.
mal de u.

Écrivons à nouveau la proposition IV -3.4.

Il existe x ∈ E tel que µu,x = µu . Il existe x ∈ G dont l’ordre est l’expo-


sant de G.

2.3. Polynôme caractéristique

Soit χu le polynôme caractéristique Soit |G| l’ordre de G.


de u.

Le théorème de Cayley & Hamilton et le théorème de Lagrange sont dans la


ligne suivante.

Le polynôme minimal de u divise le L’exposant de G divise l’ordre de G.


polynôme caractéristique de u.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:annexe chapitre:A

242 A. Parallèle avec les groupes abéliens finis

2.4. Endomorphisme cyclique

Soit x ∈ E . Le plus petit sous-espace Soit x ∈ G. Le plus petit sous-groupe


stable contenant x est contenant x est
© ª © ª
E u,x = P (u)(x), P ∈ K[X ] . 〈x〉 = kx, k ∈ Z .

Le caractère cyclique se réécrit alors sans peine.

u est cyclique s’il existe x ∈ E tel que G est cyclique s’il existe x ∈ G tel que
© ª © ª
E = P (u)(x), P ∈ K[X ] . G = kx, k ∈ Z .

2.5. Réduction de Frobenius

Le théorème de Frobenius correspond au théorème de Kronecker. Pour assu-


rer un parallèle encore plus frappant, on a choisi d’éviter la somme directe au
profit d’un isomorphisme avec le produit cartésien des sous-espaces cycliques.

Il existe r polynômes unitaires P 1 , . . . , Il existe r entiers d 1 Ê 2, . . . , d r tels


P r tels que que
. pour tout i < r , P i +1 | P i , . pour tout i < r , d i +1 | d i ,
. E est isomorphe à . G est isomorphe à

E1 × E2 × · · · × Er Z /d 1 Z × Z /d 2 Z × · · · × Z /d r Z .

avec, pour tout i , l’induit u E i cyclique


de polynôme minimal P i .

P 1 = µu d 1 est l’exposant de G.
P 1 · · · P r = χu d 1 · · · d r est l’ordre de G.
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:annexe chapitre:A

Notations

ad u endomorphisme de L (E ) défini par v 7→ u ◦ v − v ◦ u


A> transposée de la matrice A
χu polynôme caractéristique de l’endomorphisme u
Com(A) comatrice de la matrice A
C (u) commutant de l’endomorphisme u
CP matrice compagnon du polynôme unitaire P
E K-espace vectoriel de dimension finie (sauf indication
contraire)
e A , exp A exponentielle de la matrice A
e k∗ forme linéaire coordonnée selon e k dans la base (e 1 , . . . , e n )
E u,x sous-espace cyclique de l’endomorphisme u associé au
vecteur x ; aussi noté E x s’il n’y a pas d’ambiguïté
E λ (u) sous-espace propre de l’endomorphisme u associé à λ ; aussi
noté E λ s’il n’y a pas ambiguïté
E(X ) espérance de la variable aléatoire réelle X
u |F restriction de l’application linéaire u au sous-espace F
uF endomorphisme induit par l’endomorphisme u sur le sous-
espace stable F
GL(E ) groupe linéaire sur l’espace E
GLn (K) groupe linéaire d’ordre n sur le corps K
Iu idéal des polynômes annulateurs de l’endomorphisme u
Iu,x idéal des polynômes annulateurs de l’endomorphisme u en x
Jm bloc de Jordan de taille m
K corps des scalaires, R ou C (sauf indication contraire)
K[X ] algèbre des polynômes à coefficients dans K
K[u] algèbre des polynômes en l’endomorphisme u ∈ L (E )
L (E , F ) espace des applications linéaires entre E et F
Mn (K) espace des matrices de taille n × n sur le corps K
Mn,p (K) espace des matrices de taille n × p sur le corps K
µu polynôme minimal de l’endomorphisme u
µu,x polynôme minimal local en x de l’endomorphisme u
m a (λ) multiplicité algébrique d’une valeur propre λ, c’est-à-dire la
multiplicité de λ comme racine du polynôme caractéristique ;
dimension du sous-espace caractéristique associé
m g (λ) multiplicité géométrique d’une valeur propre λ, c’est-à-dire
la dimension du sous-espace propre associé
m m (λ) multiplicité d’une valeur propre λ en tant que racine du
polynôme minimal
O (E ) groupe des endomorphismes orthogonaux d’un espace eu-
clidien E
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:annexe chapitre:A

244 Notations

O n (R) groupe des matrices orthogonales d’ordre n


P (A) ensemble des parties de l’ensemble A
P k (A) ensemble des parties de cardinal k de l’ensemble A
P ∧Q PGCD des polynômes P et Q
P ∨Q PPCM des polynômes P et Q
P(A) probabilité de l’événement A
ρ(A) rayon spectral de la matrice A
ρ(u) rayon spectral de l’endomorphisme u
Sp(A) spectre de la matrice A
Sp(u) spectre de l’endomorphisme u
Sn groupe symétrique d’indice n
S n (R) espace des matrices symétriques d’ordre n
S n+ (R) espace des matrices symétriques d’ordre n positives
S n++ (R) espace des matrices symétriques d’ordre n définies positives
TY(a, b, c, d ) tableau de Young de lignes de longueur a Ê b Ê c Ê d
〈x|y〉 produit scalaire des vecteurs x et y
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:annexe chapitre:A

Index

ad u ou ad A , 30, 103, 114, 154, 155 matrice


adjoint d’un endomorphisme, 119 compagnon, 71, 109, 163
de permutation, 64, 99, 193, 195, 205
bicommutant, 27, 167, 169 de transition, 211
bloc de Jordan, 29, 36, 144 de transvection, 60, 159
ergodique, 215
chaîne de Markov, 209 irréductible, 198
classe de similitude, 175 positive, 195
co-diagonalisabilité, 94 strictement positive, 195
co-trigonalisabilité, 107 symétrique positive, 126
comatrice, 62, 82 à diagonale dominante, 189
commutant, 27, 29, 34, 69, 167 modèle d’Ehrenfest, 219
critère de Klarès, 155 multiplicité
algébrique, 56, 84, 88, 93
décomposition géométrique, 51, 84, 88, 93, 124
de Fitting, 48 minimale, 54, 84, 88
de Jordan & Dunford, 141, 181, 226,
nilespace, 49
237
polaire, 128, 182 ovales de Cassini, 203
diagonalisabilité, 89
CNS, 90 polynôme
disques de Gerschgorin, 190 annulateur, 2, 53, 105, 120
drapeau, 20 caractéristique, 54, 73, 80, 81, 93
en un endomorphisme, 1
endomorphisme minimal, 4, 68, 88, 106, 173
cyclique, 67 minimal local, 5
induit, 17 probabilité
normal, 128 invariante, 214
orthogonal, 120 réversible, 218
symétrique, 124
rayon spectral, 192, 213
exponentielle d’une matrice, 221
réduite
de Frobenius, 161, 163
fonction symétrique élémentaire, 108 de Jordan, 145, 149, 165
formules de Newton, 108 restriction, 15

groupe sommes de Newton, 108


orthogonal, 121, 139 sous-espace
unitaire, 131 caractéristique, 56, 83
cyclique, 19
indice de nilpotence, 4 propre, 51
interpolation de Hermite, 14 stable, 17, 78
Algèbre linéaire
Roger Mansuy, Rached Mneimné
29 novembre 2021 [14:9] Fichier:annexe chapitre:A

246 Index

spectre, 51 de Maschke, 37
système différentiel linéaire, 228 de Perron, 196, 208
de Perron & Frobenius, 199
tableau de Young, 147
de Taussky, 205
théorème
min-max de Courant-Fischer, 134
de Brauer, 64, 203
spectral, 126
de Cayley & Hamilton, 75, 81
de Gelfand, 194 trigonalisabilité, 105
de Hadamard, 189
de Jordan & Weyr, 150 valeur propre, 51
de Kronecker, 111 vecteur propre, 51
Algèbre linéaire

R
édigé pour les étudiants en licence de mathématiques et pour les élèves des classes
préparatoires scientifiques, ce manuel d’algèbre linéaire est consacré à la réduction des
matrices et des endomorphismes. Il rassemble – en 16 chapitres – tout ce que l’étudiant
doit maîtriser de cette partie spécifique du programme.
Afin d’aborder les différents aspects de la théorie de la réduction, les premiers chapitres détaillent
avec soin les objets et concepts de l’algèbre linéaire. Les chapitres suivants présentent aussi bien
les critères pratiques que leurs utilisations théoriques, à l’appui de nombreux exemples. Cette
approche pédagogique offre également une base solide de révision pour tous les candidats aux
concours de l’enseignement.
Cette troisième édition intègre deux nouveaux chapitres consacrés respectivement à la réduction
des endomorphismes particuliers d’un espace euclidien et à l’exponentielle de matrices. Plus de
50 exercices ont été ajoutés.

1. Polynômes d’endomorphismes 10. Réduction dans un espace euclidien


2. Sous-espaces stables 11. Réduction de Jordan
3. Commutation 12. Réduction de Frobenius
4. Lemme des noyaux 13. Topologie des classes de similitude
5. Éléments propres, caractéristiques 14. Localisation des valeurs propres
6. Endomorphismes cycliques 15. Application aux chaînes de Markov finies
7. Théorème de Cayley & Hamilton 16. Exponentielle de matrices
8. Diagonalisation Annexe : Parallèle avec les groupes abéliens finis
9. Trigonalisation Notations – Index

Roger Mansuy est professeur de chaire supérieure au lycée Saint-Louis


LES PLUS (Paris) ; il intervient également en école d’ingénieur (ENSTA). Membre du
pp 174 exercices jury de l’agrégation externe de 2011 à 2015, il a écrit plusieurs ouvrages à
d’application avec destination des étudiants de classes préparatoires et des universités.
corrigés détaillés
Maître de conférences honoraire à l’Université de Paris, Rached Mneimné
pp Nombreux
a enseigné à tous les niveaux, depuis la L1 jusqu’au M2. Plusieurs fois
commentaires et
développements
membre du jury de l’agrégation externe, il est l’auteur de nombreux ouvrages
pour aller plus loin de référence en algèbre et géométrie. Il dirige également les éditions
Calvage & Mounet.
Conception graphique : Primo&Primo®

www.deboecksuperieur.com

Vous aimerez peut-être aussi