Vous êtes sur la page 1sur 171

Algèbre linéaire et bilinéaire

M1 MEEF parcours mathématiques

Université de Rouen Normandie/ESPE de Rouen

2019-2020

Nicolas Grenier-Boley
Table des matières

Introduction 1

1 Structures algébriques 7
1.1 Groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1 Les lois de composition interne et leurs propriétés . . . . . . . . . . . . . . . . . . . . 7
1.1.2 Structure de groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.3 Sous-groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.4 Morphismes de groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2 Anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.2 Inversibles d’un anneau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.3 Morphismes d’anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.4 Intégrité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2 Structure d’espace vectoriel 18


2.1 Quelques exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.1 Le plan vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.2 L’ensemble des solutions d’un système linéaire homogène . . . . . . . . . . . . . . . 19
2.1.3 L’ensemble des applications d’un ensemble E dans R . . . . . . . . . . . . . . . . . . 19
2.1.4 L’ensemble des solutions d’une équation différentielle linéaire homogène d’ordre 1 . . 20
2.2 Premières notions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.2 Exemples fondamentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.3 Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.3 Combinaisons linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.3.4 Sommes de sous-espaces vectoriels et somme directe . . . . . . . . . . . . . . . . . . 26
2.4 Système générateurs et libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.1 Systèmes générateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.2 Espaces vectoriels de type fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.4.3 Familles libres, familles liées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.4.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.5 Existence de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.5.1 Cas des espaces vectoriels de type fini . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.5.2 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.6 Théorie de la dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

1
2.6.1 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.6.2 Dimension des sous-espaces vectoriels et rang . . . . . . . . . . . . . . . . . . . . . . 36
2.7 Coordonnées et équations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.7.1 Systèmes de coordonnées, équations paramétrées d’un sous-espace vectoriel . . . . . 39
2.7.2 Systèmes d’équations linéaires d’un sous-espace vectoriel . . . . . . . . . . . . . . . . 40
2.7.3 Détermination pratique du rang d’une famille de vecteurs . . . . . . . . . . . . . . . 41

3 Applications linéaires 43
3.1 Définitions et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.1.1 Morphismes d’espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.1.2 Noyau et image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.1.3 Projections et symétries vectorielles . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.2 Structure des ensembles d’applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.2.1 Structure d’espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.2.2 Structure d’algèbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.3 Applications linéaires en dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3.1 Détermination par l’image des vecteurs d’une base . . . . . . . . . . . . . . . . . . . 49
3.3.2 Théorème du rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.3 Caractérisation des isomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3.4 Classification des espaces vectoriels à isomorphisme près . . . . . . . . . . . . . . . . 52
3.4 Formes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.1 Hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.2 Systèmes d’équations d’un sous-espace vectoriel . . . . . . . . . . . . . . . . . . . . . 53

4 Matrices 55
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.2 Différents types de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2.1 Matrice de type (n, p) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.2 Matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.3 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.3 Structure de K-espace vectoriel de Mn,p (K) . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.3.1 Structure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.3.2 Base canonique de Mn,p (K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.3.3 Matrices et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.4 Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.4.1 Matrice de la composée de deux applications linéaires . . . . . . . . . . . . . . . . . 62
4.4.2 Définition du produit de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.4.3 Structure d’algèbre de Mn (K) et propriétés du produit matriciel . . . . . . . . . . . 64
4.4.4 Puissances de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.5 Rang d’une matrice et matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.5.1 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.5.2 Groupe linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.6 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.6.1 Matrices de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.6.2 Effet des changements de bases sur les vecteurs . . . . . . . . . . . . . . . . . . . . . 69
4.6.3 Effets des changements de bases sur les applications linéaires . . . . . . . . . . . . . 69
4.6.4 Effets des changements de bases sur les endomorphismes . . . . . . . . . . . . . . . . 70
4.6.5 Équivalence et similitude de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.7 Matrices et systèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.7.1 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

2
4.7.2 Résolution théorique du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.7.3 Résolution pratique du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

5 Déterminants 76
5.1 Groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.1.2 Signature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.2 Introduction à la multilinéarité : le cas des formes bilinéaires . . . . . . . . . . . . . . . . . 78
5.2.1 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.2.2 Formes 2-linéaires alternées sur un espace vectoriel de dimension 2 . . . . . . . . . . 79
5.3 Formes n-linéaires alternées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.3.1 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.3.2 Formes n-linéaires alternées sur un espace vectoriel de dimension n . . . . . . . . . . 81
5.4 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.4.1 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.4.2 Règles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.5 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.5.2 Règles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.5.3 Développement par rapport à une ligne ou à une colonne . . . . . . . . . . . . . . . 89
5.6 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.6.1 Comatrice et inversibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.6.2 Système de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.6.3 Orientation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

6 Réduction des endomorphismes et des matrices carrées 93


6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
6.2.1 Valeurs propres, vecteurs propres, sous-espaces propres . . . . . . . . . . . . . . . . . 94
6.2.2 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
6.2.3 Trace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
6.2.4 Un exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.3 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.3.1 Propriétés des sous-espaces propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.3.2 Endomorphismes diagonalisables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
6.3.3 Dimension des sous-espaces propres . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
6.4 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
6.4.1 Un critère de trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
6.4.2 Un exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6.5 Polynômes d’endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6.5.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6.5.2 Théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
6.5.3 Polynôme minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
6.5.4 Espaces caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
6.6 Endomorphismes nilpotents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.6.1 Définitions et caractérisations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.6.2 Décomposition de Dunford . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.7 Quelques applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.7.1 Application au calcul des itérés d’un vecteur sous l’action d’un endomorphisme . . . 112
6.7.2 Puissances d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

3
6.7.3 Résolution de systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.7.4 Résolution de systèmes récurrents . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.7.5 Résolutions de systèmes différentiels à coefficients constants . . . . . . . . . . . . . . 114
6.7.6 Calcul de polynômes d’endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . 114

7 Formes bilinéaires et formes quadratiques 115


7.1 Le concept de dualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
7.1.1 Espace dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
7.1.2 Base duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
7.1.3 Application linéaire transposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
7.1.4 Bidual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
7.1.5 Le crochet de dualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
7.2 Formes bilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
7.2.1 Définitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
7.2.2 Matrice d’une forme bilinéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
7.2.3 Formes bilinéaires non dégénérées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
7.2.4 Formes bilinéaires sur E, matrice de Gram . . . . . . . . . . . . . . . . . . . . . . . 123
7.3 Formes bilinéaires symétriques et antisymétriques . . . . . . . . . . . . . . . . . . . . . . . . 125
7.3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
7.3.2 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
7.3.3 Isotropie d’une forme bilinéaire symétrique . . . . . . . . . . . . . . . . . . . . . . . 128
7.3.4 Bases orthogonales et orthonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
7.4 Formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
7.4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
7.4.2 Décomposition de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
7.4.3 Théorème de Sylvester . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
7.4.4 Un exemple d’application : étude locale de courbes . . . . . . . . . . . . . . . . . . . 136

8 Espaces euclidiens 137


8.1 Produit scalaire et norme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
8.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
8.1.2 Orthogonalité dans un espace euclidien . . . . . . . . . . . . . . . . . . . . . . . . . 139
8.1.3 Projection orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
8.1.4 Procédé d’orthonormalisation de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . 142
8.1.5 Dualité dans un espace euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
8.2 Endomorphismes d’un espace euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
8.2.1 Adjointe d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
8.2.2 Endomorphismes symétriques et antisymétriques . . . . . . . . . . . . . . . . . . . . 146
8.2.3 Diagonalisation des endomorphismes symétriques et antisymétriques . . . . . . . . . 147
8.2.4 Endomorphismes symétriques positifs et endomorphismes normaux . . . . . . . . . . 148
8.3 Isométries d’un espace euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
8.3.1 Isométries vectorielles et groupe orthogonal . . . . . . . . . . . . . . . . . . . . . . . 150
8.3.2 Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
8.3.3 Réduction des isométries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
8.3.4 Symétries orthogonales et réflexions . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
8.3.5 Isométries de R2 et de R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155

4
9 Espaces hermitiens 156
9.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
9.1.1 Formes sesquilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
9.1.2 Formes hermitiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
9.1.3 Produit scalaire hermitien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
9.2 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
9.2.1 Propriétés importantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
9.2.2 Projection orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
9.3 Adjoint, matrices unitaires et hermitiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
9.3.1 Adjoint . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
9.3.2 Matrices unitaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
9.3.3 Réduction des endomorphismes hermitiens . . . . . . . . . . . . . . . . . . . . . . . . 160

10 Décomposition de Jordan 162


10.1 Le cas des endomorphismes nilpotents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
10.2 Le cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
10.3 Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
10.4 Un exemple détaillé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169

5
Introduction
Ce cours est consacré au rappel des notions essentielles d’algèbre linéaire et bilinéaire pour les étudiants
préparant le CAPES externe de Mathématiques.
L’algèbre linéaire intervient de façon cruciale et multiple dans beaucoup de domaines mathématiques
et il n’est pas rare que l’on puisse ramener un problème mathématique à un problème équivalent au sein
de l’algèbre linéaire : on dit alors que l’on linéarise le problème.
Si l’algèbre linéaire peut être mise en valeur pour ses connexions avec des sujets divers au sein des
Mathématiques, des recherches en Didactique des Mathématiques ont pu montrer que la plupart des
notions d’algèbre linéaire ont un caractère formalisateur, unificateur et généralisateur.1 . En général, les
notions qui associent ces trois caractéristiques ont des caractères épistémologiques qui tiennent à une
genèse historique très longue et dont le développement a été long et sinueux : leur enseignement présente
donc des difficultés d’introduction.
Ces caractéristiques témoignent à la fois de la difficulté de cette théorie et de sa richesse. Le but de
ce cours est de faire entrevoir ces aspects au travers du rappel des notions et résultats principaux. Nous
avons aussi souhaité illustrer les notions le plus largement possible, d’une manière dont nous espérons
qu’elle éveille la curiosité des étudiants.
Finissons par une mise en garde : ce cours ne constitue qu’une base de travail préliminaire. La lecture
d’ouvrages spécialisés sur le sujet, la résolution d’exercices (qu’ils soient proposés dans le cadre de ce
module ou non) et la recherche de compléments à ce cours s’avèrent nécessaires à une préparation efficace
au concours du CAPES externe.

1 On parle de caractère formalisateur lorsqu’il y a introduction d’un formalisme nouveau qui pouvait être partiellement

utilisé antérieurement. Le caractère unificateur indique que ce qui est nouveau remplace plusieurs éléments anciens, traités
jusqu’ici individuellement. Cette unification s’accompagne d’une simplification mais éventuellement aussi d’une perte de
visibilité par rapport à ce qui est remplacé. Le caractère généralisateur apparaı̂t quand ce qui est nouveau a une portée plus
grande que ce que l’on avait déjà à disposition : le nouveau étend l’ancien, que ce soit par extension du domaine d’application
ou autrement, en introduisant de la généralité là où il y avait du particulier, par exemple.

6
Chapitre 1

Structures algébriques

Ce chapitre présente un panorama des structures dont nous aurons besoin dans la suite de ce cours. On
suppose que les étudiants sont familiarisés avec la notion d’ensemble, la logique élémentaire (notamment
le calcul des prédicats) et la résolution des systèmes linéaires par la méthode de Gauss.

1.1 Groupes
1.1.1 Les lois de composition interne et leurs propriétés
Applications et produit cartésien
Soient E et F deux ensembles. On dit que f est une application de E dans F si tout élément de E a par
f une image unique dans F , c’est à dire

∀x ∈ E, ∃ ! y ∈ F, y = f (x).

On note A(E, F ) l’ensemble des applications de E dans F .


Rappelons que si E et F sont deux ensembles, on note E × F l’ensemble de tous les couple (a, b) avec
a ∈ E et b ∈ F que l’on appelle produit cartésien des ensembles E et F . Lorsque E = F , le produit
cartésien est plutôt noté E 2 au lieu de E × E. Cette définition se généralise immédiatement au produit
cartésien d’un nombre fini d’ensembles.

Lois de composition interne


Définition 1.1.1. Soit E un ensemble. On appelle loi de composition interne sur E, toute application
de E 2 dans E.
Il résulte de la définition qu’une loi de composition interne permet d’associer un élément unique de E
à tout couple d’éléments de E. Au lieu de noter f ou g les lois de composition interne, nous utiliserons
plutôt des symboles tels que ∗, ., +, • et au lieu de noter f (a, b) = c, nous noterons par exemple a ∗ b = c.
Exemples 1.1.2. (1) +, × sont des lois de composition interne sur les ensembles N, Z, Q, R et C.
(2) La soustraction n’est pas une loi de composition interne sur N car 1 − 2 n’existe pas dans N. Par

7
contre, c’en est une dans Z.
(3) ∩, ∪ et ∆ sont des lois de composition interne1 sur l’ensemble P(E)2 .
(4) La composition des applications de E dans E est une loi de composition interne sur A(E, E).
(5) On peut définir deux lois de composition interne sur A(R, R), notées +
b et ×
b respectivement par

∀f ∈ A(R, R), ∀g ∈ A(R, R), f +g


b = h,

où h est l’application de R dans R définie par h(x) = f (x) + g(x) pour tout x ∈ E et

∀f ∈ A(R, R), ∀g ∈ A(R, R), f ×g


b = k,

où k est l’application de R dans R définie par k(x) = f (x).g(x) pour tout x ∈ E.
(6) L’application de (N \ {0})2 dans N \ {0} qui à deux entiers naturels associe leur pgcd positif est une
loi de composition interne parfois notée ∧.

Propriétés des lois de composition interne


Définition 1.1.3. Soit E un ensemble muni d’une loi de composition interne notée ∗.
(1) La loi ∗ est dite commutative si a ∗ b = b ∗ a pour tous a, b ∈ E.
(2) La loi ∗ est dite associative si a ∗ (b ∗ c) = (a ∗ b) ∗ c pour tous a, b, c ∈ E. Dans ce cas, on pourra
oublier le parenthésage.
Exemples 1.1.4. (1) Les lois + et × sont commutatives et associatives dans N, Z, Q, R et C.
(2) La soustraction n’est pas commutative ni associative dans R. Il en va de même pour la division dans
R∗ .
(3) Les lois ∩, ∪ et ∆ sont associatives et commutatives dans P(E).
(4) La loi de composition des applications est associative non commutative dans A(E, E).
Convention 1.1.5. Dans la suite de ce cours, nous désignerons souvent une loi commutative par +. Le
symbole × (ou ;) sera plutôt utilisée pour une loi non nécessairement commutative. Lorsque la loi sera
notée additivement, on utilisera la notation usuelle
n
X
ai := a1 + · · · an
i=1

et lorsqu’elle sera notée multiplicativement, on utilisera


n
Y
ai := a1 · · · an .
i=1

Éléments particuliers
Dans ce paragraphe, E est un ensemble muni d’une loi de composition interne ∗.
1 rappelons que ∆ désigne la différence symétrique : si A et B sont deux ensembles, A∆B est l’ensemble des éléments de

A qui ne sont pas dans B et des éléments de B qui ne sont pas dans A; c’est aussi l’ensemble des éléments qui sont dans
A ∪ B mais pas dans A ∩ B.
2 l’ensemble des parties de E.

8
Définition 1.1.6. Un élément e de E est élément neutre pour ∗ si l’on a

x∗e=x=e∗x

pour tout x ∈ E.
Exemples 1.1.7. (1) Le nombre 0 est élément neutre pour + dans R mais 0 n’est pas élément neutre
pour − (il l’est seulement à droite).
(2) ∅ est élément neutre pour ∩ dans P(E) et E est élément neutre pour ∪ dans P(E).
(3) IdE est élément neutre pour la composition des applications dans A(E, E).
b dans A(R, R) et l’application constante égale
(4) L’application constante nulle est élément neutre pour +
à 1 est élément neutre pour ×
b dans ce même ensemble.

Convention 1.1.8. Si une loi notée additivement a un élément neutre, celui-ci est en général noté 0. Si
une loi notée multiplicativement a un élément neutre, il est en général noté 1.
Proposition 1.1.9. S’il existe un élément neutre pour ∗ dans E, il est unique.
Preuve. En effet, si e et e0 désignent deux éléments neutres, on a e ∗ e0 = e d’une part et e ∗ e0 = e0
d’autre part donc e = e0 

Remarques 1.1.10. (1) Si une loi est commutative, il suffit de voir vérifier x ∗ e = x (ou e ∗ x = x)
pour tout x de E pour montrer que e est élément neutre de E pour ∗. Par contre, si la loi n’est pas
commutative, il faut bien vérifier les deux égalités de la définition pour conclure que e est élément neutre.
(2) La proposition précédente nous autorise à parler de l’élément neutre lorsque celui-ci existe.

Définition 1.1.11. Soit (E, ∗) possédant un élément neutre e. Un élément x de E est dit symétrisable
pour ∗ dans E s’il existe un élément x0 de E tel que

x ∗ x0 = x0 ∗ x = e.

Dans ce cas, on dit que x0 est le symétrique de x (sous-entendu pour ∗).


Proposition 1.1.12. Si la loi ∗ de E est associative, tout élément symétrisable pour ∗ possède un
symétrique unique.
Preuve. Si x0 et x00 sont symétriques de x, on a

x0 = x0 ∗ e = x0 ∗ (x ∗ x00 ) = (x0 ∗ x) ∗ x00 = e ∗ x00 = x00

par associativité de la loi ∗ 

Remarques 1.1.13. (1) Si une loi ∗ est commutative, associative et possède un élément neutre, il suffit
de vérifier que x ∗ x0 = e (ou x0 ∗ x = e) pour montrer que x0 est symétrique de x. Par contre, si la loi
n’est pas commutative, il faut bien vérifier les deux égalités de la définition pour conclure.
(2) La proposition précédente nous autorise à parler du symétrique d’un élément lorsque celui-ci existe.
Exemple 1.1.14. Les éléments symétrisables de A(E, E) pour la composition sont les bijections de E
sur lui-même, encore appelées permutations de E.

9
Définition 1.1.15. On dit qu’un élément a de E est régulier à droite pour la loi ∗ si :

∀(x, y) ∈ E 2 , (x ∗ a = y ∗ a) ⇒ (x = y);

On dit qu’un élément a de E est régulier à gauche pour la loi ∗ si :

∀(x, y) ∈ E 2 , (a ∗ x = a ∗ y) ⇒ (x = y);

Si un élément est à la fois régulier à droite et à gauche, on dit simplement qu’il est régulier.

Exemple 1.1.16. Tout élément de N est régulier pour l’addition. Tout élément de N \ {0} est régulier
pour la multiplication.
Proposition 1.1.17. Si la loi ∗ de E est associative et possède un élément neutre, tout élément symétrisable
est régulier.

Preuve. Supposons que a est symétrisable dans E et soit a0 son symétrique. Soient (x, y) ∈ E 2 . Alors :

x ∗ a = y ∗ a ⇒ (x ∗ a) ∗ a0 = (y ∗ a) ∗ a0 ⇒ x ∗ (a ∗ a0 ) = y ∗ (a ∗ a0 ) ⇒ x ∗ e = y ∗ e ⇒ x = y.

Donc a est régulier à droite et on montre de même qu’il est régulier à gauche. 

Remarque 1.1.18. Il est bien entendu que la réciproque de la proposition précédente est fausse puisque,
dans N par exemple, x + 2 = y + 2 ⇒ x = y pour tout (x, y) ∈ N2 et pourtant 2 n’a pas de symétrique
dans N.

1.1.2 Structure de groupe


Définitions, exemples
Définition 1.1.19. (1) On appelle groupe, un ensemble G muni d’une loi de composition interne ∗, asso-
ciative, possédant un élément neutre et telle que tout élément de G admet un symétrique qui appartienne
à G.
(2) Si de plus, la loi ∗ est commutative, (G, ∗) est qualifié de groupe commutatif ou de groupe abélien.
Remarques 1.1.20. (1) On désigne souvent une loi de groupe par “.”. Son élément neutre est noté e ou
1 et le symétrique d’un élément x est appelé inverse de x et noté x−1 .
(2) Une loi de groupe abélien est souvent notée +. Son élément neutre est appelé zéro et noté 0; le
symétrique d’un élément x est appelé opposé de x et noté −x.

Exemples 1.1.21. (1) (Z, +), (Q, +), (R, +), (C+), (R∗ , ×), (C∗ , ×) sont des groupes abéliens.
(2) ({−1, 1}, ×) est un groupe abélien.
(3) Si on note S(E) l’ensemble des permutations de E, (S(E), ◦) est un groupe non abélien dès que le
cardinal de E est strictement supérieur à 2.
b est un groupe mais (A(R, R), ◦) n’est pas un groupe. En revanche (S(R), ◦) est une partie
(4) (A(R, R), +)
de A(R, R) qui est un groupe.
(5) Si (P(E), ∪) et (P(E), ∩) ne sont pas des groupes, (P(E), ∆) est un groupe.

10
Propriétés
Proposition 1.1.22. Soit (G, ∗) un groupe. Alors :
(1) Il est non vide.
(2) Tout élément de G est régulier pour ∗.
(3) Pour tout (a, b) ∈ G2 , l’équation a ∗ x = b admet pour solution unique x = a−1 ∗ b.
(4) Pour tout (a, b) ∈ G2 , l’équation x ∗ a = b admet pour solution unique x = b ∗ a−1 .
(5) Pour tout a ∈ G, (a−1 )−1 = a.
(6) Pour tous a et b dans G, (a ∗ b)−1 = b−1 ∗ a−1 .
Preuve. (1) C’est évident puisque e ∈ G.
(2) Cela provient directement de la proposition 1.1.17.
(3) Si a ∗ x = b alors a−1 ∗ (a ∗ x) = (a−1 ∗ a) ∗ x = e ∗ x = x = a−1 ∗ b d’où l’existence et l’unicité de
la solution.
(4) La preuve est la même que pour (3).
(5) L’inverse de a est a−1 . En outre, comme a ∗ a−1 = e = a−1 ∗ a, on voit que a est l’inverse de a−1
ce qu signifie que (a−1 )−1 = a.
(6) Comme (a ∗ b) ∗ (b−1 ∗ a−1 ) = a ∗ (b ∗ b−1 ) ∗ a−1 = a ∗ a−1 = e et que, de même, (b−1 ∗ a−1 ) ∗ (a ∗ b),
on en déduit le résultat. 

Exponentiation
On souhaite adopter une notation particulière lorsque l’on calcule le composé d’un élément n fois par
lui-même pour n ∈ N. On pose par convention, a0 = e et a1 = a. Ensuite, a2 = a ∗ a puis par récurrence
an = an−1 ∗ a pour n ≥ 2.
Cette notation s’étend naturellement à tout entier relatif : si a−1 désigne l’inverse de a, on notera a−2
pour a−1 ∗ a−1 et a−(n+1) = a−n ∗ a−1 pour n ≥ 1.
Cette notation permet de retrouver les notations habituelles pour une loi multiplicative à savoir

a0 = 1, an = an−1 a, pour tout n ∈ Z.

Pour une loi additive, on note plutôt 0.a = 0 et n.a = (n − 1)a + a et −n.a = (−n + 1).a − a pour tout
n ∈ N.

1.1.3 Sous-groupes
Partie stable, loi induite
Définition 1.1.23. Soit (E, ∗) un ensemble muni d’une loi de composition interne et soit F une partie
de E. On dit que F est une partie stable de E si a ∗ b ∈ F pour tous a, b ∈ F . On dit aussi que F est
stable par ∗.
Proposition 1.1.24. Si F est stable par ∗, la restriction de ∗ à F × F est une application de F 2 dans
F . C’est donc une loi de composition interne appelée loi induite sur F par ∗.
Preuve. C’est clair par définition d’une partie stable. 

Exemple 1.1.25. R− est stable par la loi + mais n’est pas stable par la loi ×.

11
Définition 1.1.26. Soit (G, .) un groupe. On appelle sous-groupe de G toute partie H de G stable par .
et qui, munie de la loi de composition interne . est un groupe.

Exemples 1.1.27. (1) Pour tout n ∈ N, nZ est un sous-groupe de (Z, +).


(2) (Z, +) est un sous-groupe de (Q, +) qui est un sous-groupe de (R, +) qui est à son tour un sous-groupe
de (C, +).
(3) (Q∗ , .) est un sous-groupe de (R∗ , .) qui est à son tour un sous-groupe de (C∗ , .).
(4) Notons S1 le cercle unité de C : rappelons que l’on a S1 = {z ∈ C | |z| = 1}. Alors (S1 , .) est un
sous-groupe de (C∗ , .). L’ensemble des racines n-ièmes de l’unité (µn (C), .) est un sous-groupe de (C∗ , .) :
c’est aussi un sous-groupe de (S1 , .).
(5) Soit G un groupe. Alors {e} et G sont banalement des sous-groupes de G, parfois appelés sous-groupes
triviaux de G. Les sous-groupes non triviaux de G sont aussi appelés sous-groupes propres de G.
Attention. Une partie d’un groupe stable par la loi de ce groupe n’est pas nécessairement elle-même un
groupe pour la loi induite. Par exemple, N est une partie stable de Z par + mais (N, +) n’est pas un
groupe puisqu’aucun élément autre que 0 n’a d’opposé dans N. Ce n’est donc pas un sous-groupe de Z.

Caractérisation des sous-groupes


Proposition 1.1.28. Soit (G, .) un groupe. Les assertions suivantes sont équivalentes :
(1) H est un sous-groupe de G.
(2) L’élément neutre de G pour . est dans H et on a x.y ∈ H et x−1 ∈ H pour tous x, y ∈ H.
(3) H est non vide et x.y −1 ∈ H pour tous x, y ∈ H.
Preuve. On a (1) ⇒ (2) par définition de la structure de groupe. Pour (2) ⇒ (3), H est non vide puisque
l’élément neutre de G est dans H. En outre si x, y ∈ H alors y −1 ∈ H puis x.y −1 ∈ H. Enfin, on a
bien (3) ⇒ (1) : l’élément neutre de G pour . est élément neutre de H pour . (comme H est non vide,
soit x ∈ H alors e = x.x−1 ∈ H), tout élément x ∈ H a un symétrique dans H (on a e ∈ H et si x ∈ H
alors x−1 = e.x−1 ∈ H et x−1 est bien symétrique de x), la loi est interne (si x, y ∈ H alors y −1 ∈ H
donc x.(y −1 )−1 = x.y ∈ H) et la loi est associative sur H puisqu’elle est obtenue par restriction d’une loi
associative sur G. 

Exemples 1.1.29. (1) Soient (G, .) un groupe et a ∈ G. On considère l’ensemble {an | n ∈ Z} que l’on
note hai. Alors hai est un sous-groupe de G.
(2) Si n ∈ Z, nZ = {nk | k ∈ Z} sont des sous-groupes de (Z, +). Réciproquement soit H un sous-groupe
de (Z, +) distinct de {0} : il existe alors x ∈ H que l’on peut supposer strictement positif (quitte à prendre
−x ∈ H). Alors H ∩ (N \ {0}) 6= ∅. Ce sous-ensemble étant non vide et inclus dans N, il possède un
minimum noté a ∈ H. Puisque H est un sous-groupe aZ = hai ⊂ H. Si y ∈ H, il existe q, r ∈ Z tels que
x = aq + r avec 0 ≤ r < a. Ainsi, r = x − aq ∈ aZ et r = 0 par minimalité de a. On en déduit que y ∈ aZ
puis que H = aZ. Ainsi les sous-groupes de (Z, +) sont les nZ, n ∈ Z.

Opérations sur les sous-groupes


Proposition 1.1.30. (1) Soit G un groupe et soient H1 et H2 deux sous-groupes de G. Alors H1 ∩ H2
est un sous-groupe de G. Ceci se généralise à l’intersection d’un nombre quelconque de sous-groupes.
(2) Avec les notations du (1), H1 ∪ H2 est un sous-groupe de G si et seulement si H1 ⊂ H2 ou H2 ⊂ H1 .
(3) Soit (G, +) un groupe abélien noté additivement et soient H1 et H2 deux sous-groupes de G. Alors
l’ensemble H1 + H2 := {h1 + h2 | h1 ∈ H1 , h2 ∈ H2 } est un sous-groupe de G.

12
Preuve. (1) L’ensemble H1 ∩ H2 est non vide car l’élément neutre de G en est un élément. De plus si
x, y ∈ H1 ∩ H2 alors x.y −1 ∈ H1 et x.y −1 ∈ H2 puisque H1 et H2 sont des sous-groupes de G donc
x.y −1 ∈ H1 ∩ H2 .
(2) Le sens indirect est évident puisque dans ce cas H1 ∪ H2 = H2 ou H1 ∪ H2 = H1 . Pour le sens
direct, faisons un raisonnement par l’absurde et supposons que H1 n’est pas inclus dans H2 et que H2
n’est pas inclus dans H1 . Soient x1 ∈ H1 \ H2 et x2 ∈ H2 \ H1 . Puisque H1 ∪ H2 est un sous-groupe de G,
x1 x2 ∈ H1 ∪ H2 . On peut supposer que y1 = x1 x2 ∈ H1 . Mais alors x2 = x1 −1 y1 ∈ H1 ce qui est absurde.
(3) L’ensemble considéré est évidemment non vide (il contient H1 et H2 ). Si x, y ∈ H1 + H2 , on écrit
x = h1 + h2 , y = h01 + h02 avec h1 , h01 ∈ H1 et h2 , h02 ∈ H2 . Alors

x − y = (h1 + h2 ) − (h01 + h02 ) = (h1 − h01 ) + (h2 − h02 ) ∈ H1 + H2 .


| {z } | {z }
∈H1 ∈H2

Remarques 1.1.31. (1) Dans l’assertion (3) de la proposition précédente, le sous-groupe H1 + H2 est
appelé somme des sous-groupes H1 et H2 .
(2) On peut montrer que aZ + bZ = pgcd(a, b) et que aZ ∩ bZ = ppcm(a, b)Z.

1.1.4 Morphismes de groupes


Morphismes d’ensembles munis de lois
Définition 1.1.32. On appelle morphisme d’un ensemble E muni d’une loi de composition interne ∗ dans
un ensemble F muni d’une loi de composition interne ⊥ toute application f de E dans F qui vérifie

∀(a, b) ∈ E 2 , f (a ∗ b) = f (a)⊥f (b).

Remarque 1.1.33. En d’autres termes, un morphisme est une application entre deux ensembles munis
de lois de composition interne qui respectent la structure qu’elles leurs confèrent.

Exemples 1.1.34. (1) L’application logarithme népérien ln de (R+ , ×) dans (R, +) est un morphisme.
(2) Soit a ∈ R∗ . L’application fa de (N, +) dans (R∗ , ×) telle que fa (n) = an est un morphisme.
Théorème 1.1.35 (Transfert). (1) Si f est un morphisme de (E, ∗) dans (F, ⊥) alors f (E) est une
partie stable de F pour ⊥. De plus f transporte la commutativité et l’associativité éventuelles de ∗ dans
(f (E), ⊥). Si ∗ a un élément neutre e dans E alors f (e) est élément neutre pour ⊥ dans f (E). Si ∗ est
associative et a ∈ E a un symétrique a−1 pour ∗ dans E alors f (a) a un symétrique pour ⊥ dans f (E)
qui est f (a−1 ).
(2) Si (G, .) est un groupe et si f est un morphisme surjectif de (G, .) dans (E, ∗) alors (E, ∗) est un
groupe. De plus, si G est abélien, E est abélien.

Preuve. (1) Toutes ces propriétés proviennent du fait que f est un morphisme.
(2) Si de plus G est un groupe et f est surjectif alors E = f (G) et on vient de voir en (1) que (f (G), ∗)
est un groupe qui est abélien si G l’est. 

13
Morphismes de groupes
Définition 1.1.36. Soient (G, .) et (G0 , ∗) deux groupes. Une application f : G → G0 est un morphisme
de groupes (ou un homomorphisme de groupes) si f (x.y) = f (x) ∗ f (y) pour tous x, y ∈ G. Si f est un
morphisme de groupes et si e0 est l’élément neutre de G0 , on définit son noyau par

ker f = {x ∈ G | f (x) = e0 }

et son image par


Im f = f (G) = {f (x) | x ∈ G}.
Théorème 1.1.37. Soient (G, .) et (G0 , ∗) deux groupes. Soit f : G → G0 un morphisme de groupes.
(1) Si e (resp. e0 ) désigne l’élément neutre de G (resp. G0 ), on a f (e) = e0 et f (x−1 ) = f (x)−1 .
(2) L’image f (H1 ) d’un sous-groupe H1 de G et l’image réciproque f −1 (H10 ) d’un sous-groupe H10 de G0
sont des sous-groupes respectifs de G0 et G. En particulier, ker f est un sous-groupe de G et Im f est un
sous-groupe de G0 .
(3) Le morphisme f est injectif si et seulement si ker f = {e}.
(4) Le morphisme f est surjectif si et seulement si Im f = G0 .
(5) Si f est bijectif, l’application f −1 : G0 → G : y = f (x) 7→ x est un morphisme de groupe.
Preuve. (1) Soit x ∈ G alors f (x) = f (x.e) = f (x) ∗ f (e) d’où l’on déduit que f (e) = e0 en multipliant
l’égalité précédente par f (x)−1 à gauche.
Si x ∈ G, alors e0 = f (e) = f (x.x−1 ) = f (x)∗f (x−1 ) d’où l’on déduit le résultat annoncé en multipliant
l’égalité par f (x)−1 à gauche.
(2) Prouvons-le pour l’image directe d’un sous-groupe. Comme H1 est non vide, il en va de même de
f (H1 ). Si x0 , y 0 ∈ f (H1 ) alors on écrit x0 = f (x) et y 0 = f (y) avec x, y ∈ H1 . On a alors

x0 ∗ y 0−1 = f (x) ∗ f (y)−1 = f (x) ∗ f (y −1 ) = f (x.y −1 ) ∈ f (H1 ).

(on a utilisé (1) dans la deuxième égalité et le fait que H1 soit un sous-groupe).
(3) Si f est injectif, et si f (x) = e0 alors, comme on sait déjà que f (e) = e0 on en déduit forcément que
x = e puis que ker f = {e}. Réciproquement, si ker f = {e}, supposons que f (x) = f (y) pour x, y ∈ G.
Alors, f (x.y −1 ) = f (x) ∗ f (y −1 ) = f (x) ∗ f (y)−1 = e0 donc x.y −1 ∈ ker f ce qui implique que x = y et que
l’application f est injective.
(4) C’est évident par définition de la surjectivité.
(5) Si f est bijectif, f −1 est une application. Soient x0 , y 0 ∈ G0 et écrivons x0 = f (x) et y 0 = f (y). On
a alors

f −1 (x0 ).f −1 (y 0 ) = f −1 (f (x)).f −1 (f (y)) = x.y = f −1 (f (x.y)) = f −1 (f (x) ∗ f (y)) = f −1 (x0 ∗ y 0 ),

ce qui prouve bien que f −1 est un morphisme de groupes. 

Isomorphisme, automorphisme
Définition 1.1.38. Lorsque f : G → G0 est un morphisme de groupes bijectif, on dit que f est un
isomorphisme de groupes, que G et G0 sont isomorphes et on note G ' G0 . Si de plus G = G0 , on dit
que f est un automorphisme de groupes de G. L’ensemble des automorphismes de groupes de G est noté
Aut(G).

14
Remarque 1.1.39. La relation ' définie sur l’ensemble des groupes est une relation d’équivalence. Les
classes d’équivalence pour cette relation sont appelées classes d’isomorphie.

Proposition 1.1.40. Si G est un groupe, l’ensemble (Aut(G), ◦) est un groupe.


Preuve. L’ensemble proposé est de façon évidente un sous-groupe de (S(G), ◦) (par le théorème 1.1.37(5))
donc un groupe. 

Exemples
Exemples 1.1.41. (1) Si H est un sous-groupe du groupe G, l’inclusion H ⊂ G induit un morphisme de
groupes injectif non surjectif de H dans G (sauf si H = G).
(2) Si a ∈ R, alors x 7→ ax est un morphisme de groupes de (R, +) dans lui-même. C’est un automorphisme
si et seulement si a 6= 0. Ceci se généralise à n’importe quel corps.
(3) Si G est un groupe et a ∈ G, l’application x 7→ ax (resp. x 7→ xa) est appelée translation à gauche
(resp. translation à droite) par a. C’est une bijection de G dans G mais (sauf cas triviaux) ça n’est pas
un morphisme de groupes.
(4) Si G est un groupe abélien et n ∈ N \ {0}, l’application x 7→ xn est un morphisme de groupes mais, en
général, cela n’est pas le cas si G n’est pas abélien.

(5) L’application exponentielle exp : (R, +) → (R+ , .) est un isomorphisme de groupes. Le morphisme de

groupes réciproque est l’application logarithme népérien ln : (R+ , .) → (R, +). En revanche, l’application
z 7→ exp z est un morphisme de groupes surjectif mais non injectif de (C, +) dans (C∗ , .).
(6) L’application (C∗ , .) → (R+∗
, .) : z 7→ |z| est un morphisme de groupes. Ce morphisme est surjectif mais
non injectif : son noyau est en fait le cercle unité S1 de C (on retrouve ainsi que S1 est un sous-groupe de
C∗ d’après le théorème1.1.37(2)).
(7) (C∗ , .) est isomorphe à (R+
∗ z
, .) × (S1 , .) par l’application z 7→ (|z|, |z| ). Ce n’est pas autre chose que
la propriété habituelle “un nombre complexe est défini par son module et son argument; pour multiplier
deux nombres complexes, on multiplie leurs modules et on additionne leurs arguments modulo 2π”.
(8) L’ensemble A = {0, 1} est un groupe quand on le munit de la loi ∗ définie par la table suivante :
* 0 1
0 0 1
1 1 0

On peut montrer aisément que ce groupe est isomorphe µ2 (C).


(9) L’application s : (Z, +) → (Z/nZ, +) : x 7→ x est un morphisme de groupes surjectif appelé surjection
canonique. Son noyau est nZ := {n.k | k ∈ Z} : c’est donc un sous-groupe de Z.

1.2 Anneaux
1.2.1 Définitions
Définition 1.2.1. On appelle anneau tout ensemble A muni de deux lois de composition interne notées
en général + et . qui vérifient :
(1) (A, +) est un groupe abélien.

15
(2) La loi . est associative.
(3) La loi . est distributive par rapport à + c’est à dire,

x.(y + z) = x.y + x.z, (y + z).x = y.x + z.x

pour tout(x, y, z) ∈ A3 .
(4) . possède un élément neutre appelé élément unité ou unité de A et noté 1A .
Si de plus, la loi . est commutative, l’anneau (A, +, .) est qualifié d’anneau commutatif.

Exemples 1.2.2. (1) (Z, +, .) est un anneau commutatif.


(2) Q, R et C sont des anneaux commutatifs.
(3) (P(E), ∆, ∩) est un anneau commutatif.
(4) Si K = R ou C, l’ensemble K[X] muni de l’addition et de la multiplication des polynômes est un
anneau commutatif.
Remarque 1.2.3. Un sous-anneau d’un anneau commutatif est un sous-ensemble non vide tel que la
restriction des deux lois de l’anneau à ce sous-ensemble lui confère une structure d’anneau. On montrer
qu’un sous-ensemble d’un anneau est un sous-anneau si et seulement si il est stable par les deux lois de
l’anneau et s’il contient l’élément unité de l’anneau.

1.2.2 Inversibles d’un anneau


Dans un anneau, on n’exige pas que tout élément soit symétrisable pour la loi ×.

Définition 1.2.4. On appelle élément inversible d’un anneau A un élément x ∈ A qui a un symétrique
pour la loi . c’est à dire qu’il existe x0 ∈ A vérifiant

x.x0 = x0 .x = 1A .

Le symétrique de x, sil exisre, est appelé inverse de x et noté x−1 .


Définition 1.2.5. On appelle corps tout anneau commutatif tel que 0 6= 1 et tout élément distinct de 0
a un inverse (c’est à dire K \ {0} muni de la loi . est un groupe abélien).
Exemples 1.2.6. (1) (Z, +, .) n’est pas un corps car 2 n’a pas d’inverse pour “.”.
(2) Q, R et C sont des corps.
(3) Si K est un corps, K[X] muni de l’addition et de la multiplication des polynômes est un anneau
commutatif qui n’est pas un corps.
Proposition 1.2.7. L’ensemble des éléments inversibles d’un anneau est stable pour la deuxième loi.
Muni de la loi induite par ., c’est un groupe appelé groupe des inversibles de A. On le note A∗ .
Preuve. L’élément neutre pour la loi est 1A . Si on a xx0 = x0 x = 1A et yy 0 = y 0 y = 1A alors (xy)(y 0 x0 ) =
x(yy 0 )x0 = xx0 = 1A et (y 0 x0 )(xy) = 1A ce qui prouve la stabilité. De plus, x0−1 = (x−1 )−1 = x. Enfin
l’associativité demeure par restriction. 

Attention. Si Z∗ et R∗ ont un sens, N∗ n’en a en revanche aucun puisque N n’est pas un anneau.

16
1.2.3 Morphismes d’anneaux
Définition 1.2.8. Soient A et B deux anneaux. On appelle morphisme d’anneaux toute application f de
A dans B qui conserve la structure d’anneau, c’est à dire telle que
1. f (a + a0 ) = f (a) + f (a0 );

2. f (a.a0 ) = f (a).f (a0 );

3. f (1A ) = 1B ;
pour tous a, a0 ∈ A. Si de plus f est bijective, on dit que f est un isomorphisme d’anneaux.
Remarque 1.2.9. Ainsi, un morphisme d’anneaux est un morphisme de groupes pour la loi + et un
morphisme pour la loi × qui envoie l’élément unité de A sur celui de B.

1.2.4 Intégrité
Proposition 1.2.10. Dans tout anneau, on a les propriétés suivantes :
(1) a.0 = 0.a = 0 pour tout a ∈ A.
(2) a.(b − c) = ab − ac et (b − c).a = ba − ca pour tous a, , c ∈ A.
¯
Preuve. (1) En effet, a.(0 + 0) = a.0 = a.0 = a.0. Or (A, +) est un groupe donc tout élément est régulier
pour l’addition (1.1.22(2)) ce qui implique que a.0 = 0 et de même 0.a = 0.
(2) On a
0 = 0.a = (b + (−b))a = ba + (−b)a, 0 = ((−b) + b)a = (−b)a + ba.
ce qui signifie que (−b)a est l’opposé de ba. On en déduit les propriétés annoncées. 

Définition 1.2.11. On dit que deux éléments d’un anneau sont diviseurs de zéro si leur produit est nul
sans qu’aucun ne soit nul. On dit qu’un anneau est intègre s’il est différent de {0A } et s’il n’a pas de
diviseurs de zéro.
Exemples 1.2.12. (1) Z et K[X] sont des anneaux intègres.
(2) Tout corps est un anneau intègre.
(3) (P(E), ∆, ∩) n’est pas un anneau intègre.

17
Chapitre 2

Structure d’espace vectoriel

Beaucoup de grandeurs mathématiques se comportent comme les vecteurs de la géométrie usuelle : on


peut les additionner, les multiplier par un scalaire, et finalement calculer avec elles, les combiner comme
on le fait avec les vecteurs.
Nous avons vu au chapitre précédent les structures de groupes et d’anneaux qui sont délicates à étudier.
Dans ce chapitre, nous allons étudier la plus simple des structures mathématiques : la structure d’espace
vectoriel. Malgré cela, cette étude pose souvent problème aux étudiants de par l’effort d’abstraction qu’elle
demande. Pour essayer de remédier à cela, nous présentons dans un premier temps des exemples divers
d’ensembles qui possèdent une structure d’espace vectoriel avant d’en venir à leurs propriétés proprement
dites.
Ensuite, le but de ce chapitre est d’étudier les propriétés communes des ensembles possédant une
structure d’espace vectoriel, d’insister sur l’unification et la simplification qu’elle rend possible. Ce chapitre
important est assez long.

2.1 Quelques exemples


2.1.1 Le plan vectoriel
Le plan vectoriel a été défini dans l’enseignement secondaire comme suit : dans le plan R2 , dont les
éléments sont appelés des points, on définit une relation d’équivalence sur les couples de points appelés
bipoints : (A, B) est équipollent à (C, D) si et seulement si ABDC est un parallélogramme1 . Le vecteur
−−→
AB désigne la classe d’équivalence du bipoint (A, B).
−−→ −→ −−→
On peut additionner des vecteurs : AB + AC = AD où D est le point du plan tel que ABDC est un
parallélogramme. Cette addition vérifie la relation de Chasles. C’est une loi de composition interne.
L’ensemble des vecteurs est en bijection avec R2 (il suffit de fixer un point A du plan et d’envoyer le
−−→
point M sur le vecteur AM ).

− −→
Si O est le point (0, 0) et I et J sont respectivement les points (1, 0) et (0, 1), en notant i = OI et

− −→ →
− →
− −−→
j = OJ, tout vecteur s’exprime en fonction de i et de j . En particulier si M = (x, y) alors OM =

− →

x i + y j . Tout vecteur s’écrit donc en fonction de 2 vecteurs particuliers.
Si maintenant λ ∈ R, en appliquant à M = (x, y) l’homothétie de rapport λ, on obtient un nouveau
1 En effet, (A, B) est équipollent à (A, B) (réflexivité), si (A, B) est équipollent à (C, D) alors (C, D) est équipollent à

(A, B) (symétrie), si (A, B) est équipollent à (C, D) et (C, D) est équipollent à (E, F ) alors (A, B) est équipollent à (E, F ).

18
−−→ −−−→ →
− →

point M 0 = (λx, λy). Cela permet de définir λOM = OM 0 = λx i + λy j .
On a donc muni l’ensemble des vecteurs d’une loi notée + et d’une loi notée . qui satisfont entre autre

λ.(µ.→

u ) = (λ.µ).→

u , λ.(→

u +→

v ) = λ.→

u + λ.→

v , (λ + µ).→

u = λ.→

u + λ.→

u , 1.→

u =→

u (∗)

pour tous λ, µ ∈ R et pour tous vecteurs →



u et →

v.
La formalisation de ce qui précède passe par la notion d’espace affine et de son lien avec son espace
vectoriel sous-jacent. Cela sera étudié en Géométrie Affine.

2.1.2 L’ensemble des solutions d’un système linéaire homogène


Une équation à deux inconnues
Considérons le sous-ensemble S de R2 formé des solutions (x, y) de l’équation 3x − 2y = 0. Un couple de
réels (x, y) est solution de cette équation si et seulement si
3 3
2y = 3x ⇐⇒ y= x ⇐⇒ (x, y) = (x, x)
2 2
3
⇐⇒ ∃ λ ∈ R, (x, y) = (λ, λ)
2
⇐⇒ ∃ µ ∈ R, (x, y) = (2µ, 3µ)
⇐⇒ ∃ µ ∈ R, (x, y) = µ.(2, 3),

où on définit λ(z, t) := (λz, λt). Si on pose de plus (x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 ), on vérifie facilement
que + définit une loi de composition interne sur S et que la multiplication par un scalaire définit une
application de R × S dans S. Ces deux opérations vérifient encore les formules (∗), et toute solution s’écrit
en fonction de la solution particulière (2, 3).

Deux équations à trois inconnues


Considérons maintenant le sous-ensemble T de R3 formé des solutions (x, y, z) du système d’équations

 2x + 3y + z = 0
x − y + z = 0
3x + 2y + 2z = 0

En procédant par la méthode de Gauss, on trouve qu’un triplet (x, y, z) ∈ R3 est dans T si et seulement
si il existe un réel µ tel que (x, y, z) = (−4µ, µ, 5µ). En définissant la somme et la multiplication comme
ci-dessus, on voit une nouvelle fois que la somme de deux solutions est une solution et que le produit d’une
solution par un réel est encore une solution. Ces opérations sur l’ensemble T des solutions vérifient encore
(∗), et toute solution s’écrit en fonction de la solution particulière (−4, 1, 5).

2.1.3 L’ensemble des applications d’un ensemble E dans R


Soit E un ensemble. Considérons l’ensemble A(E, R). En 1.1.2(5), on a muni cet ensemble d’une loi de
composition interne notée +.b Si maintenant λ ∈ R et f ∈ A(E, R), on définit une application λb.f de E dans
R par [λb.f ](x) = λ.(f (x)) pour tout x ∈ E. Là encore, nous avons défini une loi de composition interne
et une loi externe qui vérifient (∗). En revanche, il ne semble pas y avoir, ici, d’éléments particuliers qui
permettent d’obtenir tous les autres.

19
2.1.4 L’ensemble des solutions d’une équation différentielle linéaire homogène
d’ordre 1
Considérons l’ensemble des fonctions y définies, continues et dérivables sur R qui avec les notations
précédentes vérifient y 0 = ay où a est un réel fixé.
Si y1 et y2 sont solutions et si λ ∈ R alors les fonctions y1 +y b 2 et λb.y1 sont des fonctions définies,
continues et dérivables sur R dont on vérifie aisément qu’elles sont solutions de l’équation différentielle.
Encore une fois, les opérations définies satisfont à (∗) et toute solution est produit de la solution particulière
x 7→ exp(ax) par un réel.

2.2 Premières notions


Dans toute la suite, K désignera un corps. On pourra penser à K = Q, R, C.

2.2.1 Définitions
Loi de composition externe
Définition 2.2.1. Une loi de composition externe par K sur un ensemble E est une application de K × E
dans E. Si E est muni d’une loi de composition externe par K notée . et si F est un sous-ensemble de
E, F est stable par la loi externe si λ.x ∈ F pour tout λ ∈ K et pour tout x ∈ F . La loi . est alors dite
induite par . sur F .
Exemple 2.2.2. Dans chacun des exemples de la section 2.1, la loi qualifiée de multiplication par un
scalaire est une loi de composition externe de R sur l’ensemble considéré.

Espace vectoriel et algèbres


Définition 2.2.3. Un ensemble E est un espace vectoriel sur K ou un K-espace vectoriel s’il est muni
d’une loi de composition interne qui lui confère une structure de groupe abélien et s’il possède une loi de
composition externe . par K qui vérifie :
∀λ ∈ K, ∀(u, v) ∈ E 2 , λ.(u + v) = λ.u + λ.v;
∀(λ, µ) ∈ K 2 , ∀u ∈ E, (λ + µ).u = λ.u + µ.u;
∀(λ, µ) ∈ K 2 , ∀u ∈ E, λ.(µ.u) = (λµ).u;
∀u ∈ E, 1K .u = u.
Dans ce cas, les éléments de K sont appelés scalaires et les éléments de E sont appelés vecteurs. L’élément
neutre de la loi de composition interne est appelé vecteur nul de E fréquemment noté 0E .
Exemple 2.2.4. Tous les exemples traités dans la section précédente sont des R-espaces vectoriels.
Définition 2.2.5. Un ensemble A est une K-algèbre s’il est muni de deux lois de composition internes +
et × et d’une loi de composition externe . telles que :
(1) (A, +, ×) est un anneau;
(2) (A, +, .) est un K-espace vectoriel;
(3) pour tous x, y ∈ A et pour tout λ ∈ K, on a a.(x × y) = (a.x) × y = x × (a.y).
Dans ce cas, on la note (A, +, ., ×).
Remarque 2.2.6. Une sous-algèbre d’une algèbre est un sous-ensemble non vide tel que la restriction de
ces trois lois confère à ce sous-ensemble une structure d’algèbre. On montre qu’un sous-ensemble est une
sous-algèbre si et seulement si il est stable par les trois lois.

20
2.2.2 Exemples fondamentaux
Le corps K
Le corps K muni de son addition et de sa multiplication habituelles est un espace vectoriel sur lui-même.
La loi de multiplication est bien une loi de composition externe par K puisque c’est une application de
K 2 dans K. On vérifie que les lois satisfont aux axiomes de la définition précédente.

Produit d’espaces vectoriels


Si E et F sont des espaces vectoriels sur le même corps K, on peut définir sur E × F une loi de
composition interne +
b et une loi de composition externe b. par

b (x0 , y 0 ) = (x + x0 , y + y 0 )
(x, y) + et λ b. (x, y) = (λ.x, λ.y),

pour tous (x, y), (x0 , y 0 ) ∈ E × F et λ ∈ K. Ces lois munissent E × F d’une structure d’espace vectoriel
appelé espace vectoriel produit. Le vecteur nul 0E×F est (0E , 0F ) et l’opposé de (x, y) est (−x, −y).
Cette construction se généralise naturellement à un produit cartésien de n espaces vectoriels E1 , · · · , En
sur le même corps K. En particulier, si E1 = · · · = En , on définit le K-espace vectoriel E n . Par exemple
Rn est un R-espace vectoriel et Cn est un C-espace vectoriel.

Applications à valeurs dans un espace vectoriel


Nous souhaitons généraliser ce que l’on a vu dans la sous-section 2.1.3 et dans l’exemple 1.1.2(5). Soit
X un ensemble quelconque et (E, +, .) un K-espace vectoriel. L’ensemble des applications de X dans E
A(X, E) (parfois noté X E ) peut être muni d’une structure de K-espace vectoriel héritée de celle de E.
Sur A(X, E), on définit une loi de composition interne +
b en posant f +b g = h pour f, g ∈ A(X, E) et où

X → E
h: ,
x 7→ f (x) + g(x)

et une loi de composition externe b. en posant λ b. f = k pour λ ∈ K,f ∈ A(X, E) où



X → E
k: .
x 7→ λ.f (x)

On vérifie aisément que (A(X, E), +


b , b. ) est un K-espace vectoriel. Le vecteur nul 0A(X,E) est l’application
nulle de X dans E qui à tout élément de X associe l’élément neutre de E. L’opposé d’un vecteur
f ∈ A(X, E) est l’application −f qui à tout x de X associe −f (x). Par exemple l’ensemble des suites
numériques réelles (resp. complexes) n’est autre que l’ensemble A(N, R) (resp. A(N, C)) et est donc un
R-espace vectoriel (resp. un C-espace vectoriel).
Dans le cas où X = E = K, on peut munir A(K, K) d’une structure de K-algèbre en définissant une
loi de composition interne ×
b comme en 1.1.2(5) par i = f ×
b g pour f, g ∈ A(K, K) où

X → E
i: .
x 7→ f (x)g(x)

b , b. , ×
Alors (A(K, K), + b ) est une K-algèbre.

21
Algèbre des polynômes
Définition 2.2.7. On appelle polynôme à coefficients dans K toute suite d’éléments de K nulle à partir
d’un certain rang. On note K[X] l’ensemble des polynômes à coefficients dans K.
Définissons une loi de composition interne + sur K[X] : si P = (an )n∈N , Q = (bn )n∈N sont deux
éléments de K[X], on pose P + Q = (an + bn )n∈N . Comme (an )n∈N et (bn )n∈N sont nulles à partir d’un
certain rang, il en va de même pour (an + bn )n∈N et la loi est bien interne. Avec les mêmes notations, on
peut P définir une autre loi de composition interne par P × Q = (cn )n∈N ∈ K[X] où pour chaque n ∈ N,
n
cn = p=0 ap bn−p .
On note X = (0, 1, 0, 0, · · · ) ∈ K[X] que l’on appelle indéterminée de K[X]. On constate alors que
X n = (0, · · · , 0, 1, 0, 0, · · · ) où le 1 est en n-ième position. Enfin on appelle degré de P = (an )n∈N 6= (0)n∈N
l’entier deg P := max{n ∈ N | an 6= 0} et on pose deg((0)n∈N ) = −∞ où −∞ est un symbole satisfaisant
−∞ < n et −∞ + n = −∞ pour tout entier n. On constate alors que l’on a
deg
XP
P = an X n ,
n=0

ce qui nous ramène à l’écriture usuelle des polynômes.


On définit une loi de composition externe par K sur K[X] par
deg
XP deg
XP
λ.P = λ.an X n si P = an X n
i=0 i=0

et λ ∈ K. On vérifie aisément que l’ensemble (K[X], +, .) est un K-espace vectoriel puis que (K[X], +, ., ×)
est une K-algèbre.

2.2.3 Premières propriétés


La proposition suivante montre que l’on peut utiliser la plupart des règles de calcul usuelles dans un espace
vectoriel.
Proposition 2.2.8. Soient E un K-espace vectoriel et λ, µ ∈ K, u, v ∈ E. Alors :
(1) 0K .u = 0E .
(2) λ.0E = 0E .
(3) λ.u = 0E ⇒ λ = 0K ou u = 0E .
(4) (−1).u = −u.
(5) (λ − µ).u = λ.u − µ.u.
(6) λ.(u − v) = λ.u − λ.v.
Preuve. (1) On a

0E = 0K .u − 0K .u = (0K + 0K ).u − 0K .u = 0K .u + 0K .u − 0K .u = 0K .u.

(2) On a, d’après (1),


λ.0E = λ.(0K .u) = (λ0K ).u = 0K .u = 0E .
(3) Supposons que x ∈ E et λ ∈ K vérifient λ.u = 0E alors ou bien λ = 0K ou bien λ est inversible et
on a, d’après (2)
u = 1.u = (λ−1 λ).u = λ−1 .(λ.u) = λ−1 .0E = 0E .

22
(4) Si u ∈ E alors
(−1).u + u = (−1).u + 1.u = (−1 + 1).u = 0K .u = 0E .
On en déduit que (−1).u = −u.
(5) Avec les notations de (4), on a, d’après (4), (−µ).u = (−1.µ).u = (−1).(µ.u) = −µ.u. Ainsi,
(λ − µ).u = λ.u + (−µ).u = λ.u − µ.u.
(6) On a :
λ.(u − v) = λ.u + λ.(−v) = λ.u + (λ.(−1)).v = λ.u + (−1).(λ.v) = λ.u − λ.v.


2.3 Sous-espaces vectoriels


2.3.1 Définition
Définition 2.3.1. Soit E un K-espace vectoriel. On appelle sous-espace vectoriel de E tout sous-ensemble
non vide de E tel que la restriction de la loi interne et externe de E à F confère à F une structure de
K-espace vectoriel.
Proposition 2.3.2. Soit E un K-espace vectoriel et soit F un sous-ensemble non vide de E. Alors, F
est un sous-espace vectoriel de E si et seulement si F est à la fois stable par la loi interne et par la loi
externe de E.
Preuve. Tout d’abord, si F est un sous-espace vectoriel de E, c’est un espace vectoriel pour les lois
induites par E qui sont en particulier stables sur F .
Réciproquement, si F est stable par +, alors la loi interne + demeure associative et commutative sur
F . Si de plus, F est stable par la loi externe ., les 4 axiomes concernant la loi externe sont encore vrais
pour des éléments de F . Il reste à vérifier que + a un élément neutre et que tout élément de F a un opposé
dans F .
Comme F est non vide soit x0 ∈ F . D’après la proposition 2.2.8(1), on a 0K .x0 = 0E mais comme
x0 ∈ F , 0K ∈ K et que la loi . est stable sur F , cela implique que 0E ∈ F . Évidemment c’est l’élément
neutre pour la loi interne dans F .
Si x ∈ F , comme (−1) ∈ K, on en déduit que −x = (−1).x ∈ F par stabilité (on a utilisé la proposition
2.2.8(4)). Or cet élément est clairement l’opposé de x dans F . 

Attention. On a vu en 1.1.3 qu’une partie stable par la loi interne d’un groupe n’est pas forcément un
groupe. En revanche, toute partie stable par les deux lois d’un espace vectoriel est un espace vectoriel :
pour prouver que F muni de la loi interne est un groupe, on se sert du fait qu’il est aussi muni d’une loi
externe stable.
Théorème 2.3.3. Une partie F d’un K-espace vectoriel est un sous-espace vectoriel si et seulement si
elle est non vide et stable par combinaison linéaire, c’est à dire si
∀λ, µ ∈ K, ∀x, y ∈ F, λ.x + µ.y ∈ F.
Cela équivaut encore à ce que F est non vide et
∀λ, ∈ K, ∀x, y ∈ F, λ.x + y ∈ F.

23
Preuve. Nous numérotons (1), (2) et (3) les trois propositions qui apparaissent chronologiquement dans
l’énoncé du théorème.
Si (1) est vraie alors λ.x ∈ F et µ.y ∈ F pour tous λ, µ ∈ K et pour tous x, y ∈ F (par stabilité de
la loi externe). Par stabilité de la loi interne, on a alors λ.x + µ.y ∈ F donc (2) est vraie.
Si (2) est vraie alors (3) est vraie (il suffit de prendre µ = 1).
Enfin, supposons que (3) est vraie. En prenant λ = 1, on en déduit que 1.x + y = x + y ∈ F pour tous
x, y ∈ F donc la loi interne est stable sur F . Comme F est non vide, si x ∈ F alors 0K .x = 0E ∈ F . Si
on prend alors y = 0E ∈ F , on en déduit que λ.x + 0E = λ.x ∈ F pour tout λ ∈ K et tout x ∈ F . Ainsi
F est un sous-espace vectoriel de E. 

2.3.2 Exemples
Il est bien plus facile de montrer qu’un ensemble est un sous-espace vectoriel d’un ensemble qu’on sait
déjà être un espace vectoriel plutôt que de montrer directement que c’est un espace vectoriel. Donnons
quelques exemples importants que l’on peut vérifier aisément.

Exemples 2.3.4. (1) Pour tout K-espace vectoriel E, {0E } et E sont des sous-espaces vectoriels de E
qui sont respectivement le plus petit et le plus grand sous-espace vectoriel inclus dans E.
(2) Dans les exemples 2.1.2, le premier exemple est un sous-espace vectoriel de R2 et le second de R3 .
Plus généralement, l’ensemble des solutions d’un système linéaire de n équations à p inconnues est un
sous-espace vectoriel de Rp .
(3) L’ensemble des fonctions continues d’un intervalle I dans R est un sous-espace vectoriel de A(I, R)
noté C(I, R). L’ensemble des fonctions dérivables sur I est un sous-espace vectoriel de C(I, R) de même
que l’ensemble des fonctions de classe C n ou de classe C ∞ sur I respectivement notés C n (I, R) et C ∞ (I, R).
(4) On montre aussi que l’espace des fonctions admettant une primitive sur un intervalle I, l’espace des
fonctions bornées sur I, l’espace des fonctions en escalier sur I ou l’espace des fonctions n fois continûment
dérivables saitisfaisant à une équation différentielle linéaire à l’ordre n sans second membre donnée sont
des sous-espaces vectoriels de A(I, R).
(5) On a vu que l’ensemble des suites réelles est un espace vectoriel (c’est A(N, R)). Alors l’espace C0
des suites convergentes, l’espace desP
suites arithmétiques, l’espace l∞ des suites bornées, les espaces lp des
suites (Un )n∈N telles que la somme n≥0 |Un |p soit finie (ce qui signifie que la suite SN des sommes finies
PN p
n=0 |Un | a une limite finie) sont des sous-espaces vectoriels de l’espace des suites réelles.

(6) L’ensemble des polynômes à coefficients dans K de degré inférieur ou égal à n, n fixé est un sous-espace
vectoriel de K[X] noté Kn [X].
(7) Si E1 et E2 sont des K-espaces vectoriels alors {0E1 }×E2 et E1 ×{0E2 } sont des sous-espaces vectoriels
de E1 × E2 . Plus généralement, si F1 et F2 sont des sous-espaces vectoriels respectifs de E1 et E2 alors
F1 × F2 est un sous-espace vectoriel de E1 × E2 , propriété qui se généralise immédiatement au produit de
n sous-espaces vectoriels respectifs de n espaces vectoriels sur K.

Intersection de sous-espaces vectoriels, sous-espace vectoriel engendré par une partie


Intersection
Proposition 2.3.5. L’intersection d’une famille quelconque de sous-espaces vectoriels d’un espace vecto-
riel est un sous-espace vectoriel.

24
Preuve. Soit (Ei )i∈I une famille de sous-espaces vectoriels de E. Alors 0E Test dans chaque Ei donc il
est dans l’intersection des Ei , qui est donc non vide. Soient λ ∈ K et x, y ∈ i∈I Ei . Pour chaque
T i ∈ I,
x, y ∈ Ei . Comme les lois + et . sont stables sur Ei pour tout i ∈ I, on en déduit que λ.x + y ∈ i∈I Ei
qui est donc un sous-espace vectoriel de E par le théorème 2.3.3. 

Sous-espace engendré par une partie


Proposition 2.3.6. Soit X une partie non vide d’un espace vectoriel E. Alors il existe un plus petit
sous-espace vectoriel (au sens de l’inclusion) contenant X
Preuve. On considère l’ensemble S des sous-espaces vectoriels de E qui contiennent X. Cet ensemble est
non vide car E est un sous-espace vectoriel de E contenant X. On peut donc considérer
\
F = G.
G∈S

D’après 2.3.5, F est un sous-espace vectoriel de E qui contient X puisque chaque G est un sous-espace
vectoriel qui contient X.
Si G0 est un sous-espace vectoriel qui contient X alors G ∈ S donc F ⊂ G. Ainsi F est plus petit que
tous les autres sous-espaces vectoriels de E qui contiennent X. 

Définition 2.3.7. Soit X une partie non vide d’un espace vectoriel E. Le plus petit sous-espace vectoriel
contenant X (qui existe et est unique d’après la proposition précédente) est appelé sous-espace vectoriel
engendré par X et noté hXi ou encore Vect(X). Si X = {x1 · · · , xn } est un ensemble fini, on note
hXi := hx1 , · · · , xn i.
Remarques 2.3.8. (1) Tout sous-espace vectoriel de E contient {0E } et c’est un sous-espace vectoriel de
E donc {0E } est le plus petit sous-espace vectoriel de E donc également le plus petit contenant la partie
vide. Ainsi, Vect(∅) = {0E }.
(2) Si x ∈ E alors hxi = K.x. En effet, K.x est un sous-espace vectoriel de E qui contient 1.x = x et si
G est un sous-espace vectoriel qui contient x, il contient tous les λ.x par stabilité de la loi externe donc il
contient K.x.
(3) Si A et B sont deux parties de E telles que A ⊂ B alors Vect(A) ⊂ Vect(B).

2.3.3 Combinaisons linéaires


L’espace vectoriel engendré par une partie est une notion très importante mais sa définition est peu
maniable dans la pratique. Pour remédier à cela nous allons nous intéresser aux combinaisons linéaires.
Définition 2.3.9. Soient n ∈ N \ {0} et (xi )1≤i≤n une famille d’éléments d’un K-espace vectoriel E. On
appelle combinaison linéaire de la famille (xi )1≤i≤n tout élément de E soit nul soit de la forme
n
X
λi .xi ,
i=1

où les λi sont des scalaires. Par convention, une combinaison linéaire de la famille à 0 élément ne peut être
que le vecteur nul. Si (xi )i∈I est une famille quelconque d’éléments de E, on appelle combinaison linéaire
de cette famille toute combinaison linéaire d’une sous-famille finie de (xi )i∈I .

25
Remarques 2.3.10. (1) S’il n’y a qu’un élément x dans la famille considérée, les combinaisons linéaires
de ce vecteur sont les λ.x, λ ∈ K, c’est à dire que l’ensemble des combinaisons linéaires de x est hxi = K.x.
Nous allons voir que ceci se généralise.
(2) Une partie de E est un sous-espace vectoriel de E si et seulement si elle est stable par combinaison
linéaire de familles finies. En effet, si elle est stable pour une famille finie quelconque de vecteurs, c’est
en particulier vrai pour deux vecteurs donc c’est un sous-espace vectoriel de E par le théorème 2.3.3.
Réciproquement, si c’est un sous-espace vectoriel, la partie est stable par combinaison linéaire de toute
famille de deux vecteurs par le théorème 2.3.3 et une récurrence immédiate prouve le résultat pour toute
famille finie (en utilisant l’associativité de la loi interne).
Proposition 2.3.11. Si X est une partie d’un K-espace vectoriel E, alors Vect(X) est l’ensemble des
combinaisons linéaires d’éléments de X.
Preuve. Tout sous-espace vectoriel de E contenant X contient toute combinaison linéaire d’un nombre
fini de vecteurs de X (puisqu’il est stable par combinaisons linéaires). Il suffit donc de montrer que
l’ensemble des combinaisons linéaires d’éléments de X est un sous-espace vectoriel de E (puisqu’alors c’est
un sous-espace vectoriel contenant X plus petit que tous les sous-espaces vectoriels contenant X).
Si x et y sont combinaisons linéaires d’éléments de X, on a
k
X k+r
X
x= λi .xi et y= λj xj ,
i=1 j=k+1

où λ1 , · · · , λk , λk+1 , · · · , λk+r ∈ K et x1 , · · · , xk , xk+1 , · · · , xk+r ∈ X. Si λ ∈ K alors


k+r
X k
X
x+y = λi xi , λ.x = (λλi )xi
i=1 i=1

sont des combinaisons linéaires d’éléments de X . Comme 0E est une combinaison linéaire, cet ensemble
est non vide, donc est un sous-espace vectoriel de E par 2.3.3. 

Exemples 2.3.12. (1) Dans la pratique, pour montrer qu’une partie d’un espace vectoriel est un sous-
espace vectoriel, on pourra très souvent montrer que c’est l’ensemble des combinaisons linéaires des
éléments d’une famille donnée.
(2) Dans l’espace vectoriel A(R, R), Vect({x 7→ xn , n ∈ N}) est l’ensemble des fonctions polynômiales qui
est donc un sous-espace vectoriel de A(R, R).
(3) Soit F = {(x, y, z) ∈ R3 | x + y + z = 0}. Alors
u = (x, y, z) ∈ F ⇐⇒ (x, y, z) = (x, y, −x − y) = x.(1, 0, −1) + y.(0, 1, −1).
Donc F = Vect(v, w) avec v = (1, 0, −1) et w = (0, 1, −1). C’est donc un sous-espace vectoriel de R3
puisque c’est l’ensemble des combinaisons linéaires de v et w. On peut évidemment montrer de façon
directe que F est un sous-espace vectoriel de R3 .

2.3.4 Sommes de sous-espaces vectoriels et somme directe


Sommes
On vient de voir qu’une intersection de sous-espaces vectoriels est un sous-espace vectoriel (2.3.5). C’est
faux en général pour une union : avec 1.1.30, on peut montrer que l’union de deux sous-espaces vectoriels
est un sous-espace vectoriel si et seulement si l’un est inclus dans l’autre. Il est donc intéressant de savoir
ce qu’est un sous-espace vectoriel engendré par une union. Soit E un espace vectoriel.

26
Proposition 2.3.13. Soient n ∈ N et (Fi )1≤i≤n une famille de sous-espaces vectoriels de E. Le sous-
espace vectoriel engendré
Pn par l’union des sous-espaces vectoriels Fi , i = 1, · · · , n est l’ensemble, noté
F1 + · · · + Fn ou i=1 Fi appelé somme, formé des combinaisons linéaires des familles finies d’éléments
des Fi .
Sn
Preuve. Il suffit d’appliquer la proposition 2.3.11 à la partie X = i=1 Fi . 

Plus précisément :
Proposition 2.3.14. Soit (Fi )i∈I une famille de sous-espaces vectoriels de EP alors le sous-espace vectoriel
engendré par l’union des sous-espaces vectoriels F i , i ∈ I est l’ensemble noté i∈I Fi des éléments de type
x = j∈I yj avec ∀j ∈ I, yj ∈ Fj et les yj presque tous nuls2 . Ce sous-espace est appelé somme des
P
sous-espaces Fi , i ∈ I. En particulier, si I = {1, · · · , n}, on a
n
X
Fi = F1 + · · · + Fn = {y1 + · · · + yn | yi ∈ Fi }.
i=1

Preuve. C’est toujours un corollaire immédiat de la proposition 2.3.11. 

Sommes directes
Définition 2.3.15. On reprend les notations de la proposition 2.3.14. La somme des sous-espaces P Fi , i ∈ I
est dite directe si l’écriture de tout élément de la somme est unique, c’est à dire si pour tout
P x ∈ i∈I Fi ,
il existe une unique famille (xi )i∈I avec xi ∈ Fi pour tout i ∈ I presque tous nuls et x = i∈I xi . Dans
ce cas, lorsque I = {1, · · · , n}, la somme est notée F1 ⊕ · · · ⊕ Fn .
Proposition 2.3.16. La somme F1 +· · ·+Fk est directe si et seulement si 0E a une unique décomposition
dans cette somme, c’est à dire si et seulement si

∀(x1 , · · · , xk ) ∈ F1 × · · · × Fk , ( 0E = x1 + · · · + xk =⇒ x1 = · · · = xk = 0E ).

Preuve. Si la somme est directe alors 0E a une unique décomposition qui est 0E = 0E + · · · + 0E (k fois).
Pk Pk
Réciproquement, soit x ∈ F1 + · · · + Fk ayant deux décompositions, x = i=1 xi et x = i=1 x0i avec
xi , x0i ∈ Fi pour i = 1, · · · , k. Mais alors
k
X
(xi − x0i ) = 0E ,
i=1

ce qui implique que xi = x0i pour i = 1, · · · , k d’où l’unicité de l’écriture. 

Donnons un critère de décomposition en somme directe.


Proposition 2.3.17.
T La somme F1 + · · · + Fk est directe si et seulement si pour tout 1 ≤ j ≤ k − 1
(F1 + · · · + Fj ) Fj+1 = {0E }.
T Pj
Preuve. Si la somme est directe, soient 1 ≤ j ≤ k − 1 et x ∈ (F1 + · · · + Fj ) Fj+1 . Alors x = i=1 xj ∈
Fj+1 avec xi ∈ Fi pour 1 ≤ i ≤ j. Par unicité de la décomposition, on en déduit que xi = 0E pour
1 ≤ i ≤ j donc x = 0E d’où l’on déduit le résultat.
Pk
Réciproquement, si 0TE a une décomposition dans la somme considérée 0E = i=1 xi , xi ∈ Fi alors,
xk ∈ (F1 + · · · + Fk−1 ) Fk donc xk = 0E . Par récurrence immédiate, xi = 0E pour tout i = 1, · · · , k
2 cela signifie que les yj sont tous nuls sauf un nombre fini d’entre eux. On dit aussi que (yj )j∈I est à support fini.

27
donc 0E a une unique décomposition ce qui signifie que la somme est directe d’après la proposition 2.3.16.


Corollaire 2.3.18. La somme F1 + F2 est directe si et seulement si F1 ∩ F2 = {0E }


Preuve. C’est un corollaire immédiat de la proposition précédente. 

Attention. Le corollaire précédent n’est pas vrai pour trois sous-espaces vectoriels : plus précisément, il
n’est pas vrai de dire que la somme F1 + F2 + F3 est directe si et seulement si les sous-espaces vectoriels
sont deux à deux d’intersection réduite au vecteur nul. Considérons F1 = h(1, 1, 0)i, F2 = h(1, 0, 0)i et
F3 = h(0, 1, 0)i qui sont des sous-espaces vectoriels de R3 . Ces sous-espaces vectoriels ont deux à deux
une intersection triviale et pourtant 0E a deux décompositions distinctes dans la somme de ces trois
sous-espaces qui n’est donc pas directe : 0E = 0E + 0E + 0E et 0E = (1, 1, 0) − (1, 0, 0) − (0, 1, 0).

Définition 2.3.19. Deux sous-espaces vectoriels E1 et E2 de E sont dits supplémentaires si E est somme
directe de E1 et E2 c’est à dire

E1 ⊕ E2 = E ⇐⇒ ∀x
 ∈ E, ∃x1 ∈ E1 , ∃x2 ∈ E2 uniques, x = x1 + x2
E1 + E2 = E .
⇐⇒
E1 ∩ E2 = {0E }

Attention. Le complémentaire d’un sous-espace n’en est jamais un supplémentaire. Du reste, ça n’est
même pas un sous-espace vectoriel puisqu’il ne contient pas 0E .

Exemples 2.3.20. (1) Les R-espaces vectoriels R et R.i sont supplémentaires dans le R-espace vectoriel
C. Le sous-espace vectoriel R.j est un autre supplémentaire de R dans C. Un sous-espace peut donc avoir
plusieurs supplémentaires : en fait, si le corps K est infini, il en existe toujours une infinité.
(2) K.(1, 0) et K.(1, 1) sont supplémentaires dans K 2 de même que K.(1, 0) et K.(1, 1).
(3) Les sous-espaces K.(1, 1, 0) et K.(0, 1, 0) sont en somme directe dans K 3 mais ne sont pas supplémentaires.
(4) h(1, 1, 0), (0, 1, 0)i + h(0, 1, 0), (0, 0, 1)i = K 3 mais la somme n’est pas directe : ils ne sont donc pas
supplémentaires dans K 3 .
(5) Les sous-espaces vectoriels P et I des fonctions paires et impaires sont supplémentaires dans A(R, R).
En effet, une fonction à la fois paire et impaire est la fonction nulle donc P ∩ I = {0A(R,R) }. De plus
P + I ⊂ A(R, R) et réciproquement si f ∈ A(R, R), on écrit f = g + h où

f (x) + f (−x) f (x) − f (−x)


g(x) = , h(x) = ,
2 2
pour tout x ∈ R.

2.4 Système générateurs et libres


On suppose que E est un K-espace vectoriel.

2.4.1 Systèmes générateurs


Définition 2.4.1. On dit qu’une famille de vecteurs de E est un système générateur de E si le sous-espace
vectoriel engendré par cette famille est E lui-même.

28
Remarque 2.4.2. Toute partie S de E est trivialement famille génératrice du sous-espace vectoriel qu’elle
engendre.
Proposition 2.4.3. Une famille S est un système générateur de E si et seulement si tout vecteur de E
est combinaison linéaire d’un nombre fini de vecteurs de S. Toute sur-famille d’un système générateur de
E est un système générateur de E.
Preuve. L’équivalence est une conséquence directe de la proposition 2.3.11. La seconde assertion est
claire. 

Traitons tout de suite quelques exemples :


Exemples 2.4.4. (1) Le système S = {e1 , e2 , e3 } où e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) est un
système générateur de R3 car tout vecteur (a, b, c) ∈ R3 s’écrit (a, b, c) = a.e1 + b.e2 + c.e3 . On montre
également que le système S 0 = {(1, 0, 0), (1, 1, 0), (1, 1, 1), (1, −1, −2)} est générateur de R3 . Par contre, le
système S 00 = {(1, 0, 0), (0, 0, 1)} n’est pas générateur de R3 puisque, par exemple, le vecteur (0, 1, 0) ne
peut s’écrire comme combinaison linéaire des vecteurs (1, 0, 0) et (0, 0, 1).
(2) Le système {1, i} est un système générateur du R-espace vectoriel C de même que le système {1, j, j 2 }.
Le système {1} est un système générateur du C-espace vectoriel C.
(3) Le système {1} engendre le R-espace vectoriel R, de même que le système {π} où tout système {u}
avec u 6= 0.
(4) Le système infini {1, X, X 2 , · · · } est un système générateur du K-espace vectoriel K[X].
(5) Soit a ∈ K. La famille {1, (X − a), (X − a)2 , (X − a)3 } engendre K3 [X] car tout polynôme P de degré
inférieur ou égal à 3 s’écrit

P 00 (a) P 000 (a)


P = P (a) + P 0 (a).(X − a) + .(X − a)2 + .(X − a)3 .
2! 3!
(6) En 2.1.4, on a indiqué que l’ensemble des solutions de l’équation différentielle y 0 = ay était engendré
par la partie {x 7→ exp(ax)}.

2.4.2 Espaces vectoriels de type fini


Définition 2.4.5. Un K-espace vectoriel E est dit de type fini s’il admet une famille génératrice finie.
Exemples 2.4.6. (1) Les espaces vectoriels suivants sont de type fini (cela sera conséquence de la théorie de
la dimension) : K n et tous ses sous-espaces vectoriels, l’ensemble des solutions d’une équation différentielle
linéaire sans second membre, tout produit d’un nombre fini d’espaces vectoriels de type fini, C vu comme
un R-espace vectoriel.
(2) Par contre, les espaces vectoriels suivants ne sont pas de type fini : A(R, R) ou plus généralement
A(X, E) où E est un espace vectoriel de cardinal infini, l’ensemble des suites réelles convergentes (qui
n’admet pas de famille génératrice dénombrable), K[X] qui admet une famille génératrice dénombrable.

2.4.3 Familles libres, familles liées


Définition 2.4.7. On dit qu’un système (comportant un nombre fini de vecteurs), est libre, si 0E a une
décomposition unique selon ce système :
n
X
∀n ∈ N, ∀(λ1 , · · · , λn ) ∈ K n , ( λi .ui = 0E ⇒ λ1 = · · · = λn = 0K ).
i=1

29
On dit aussi que les vecteurs de ce système sont linéairement indépendants. Une famille infinie de vecteurs
est libre si chacune de ces sous-familles finies est libre. Une famille qui n’est pas libre est dite liée.
Remarque 2.4.8. Un système de vecteurs est lié s’il n’est pas libre soit si et seulement si

∃m ∈ N \ {0}, ∃(λ1 , · · · , λm ) ∈ K m , (λ1 , · · · , λm ) 6= (0, · · · , 0) et λ1 .u1 + · · · + λm .um = 0E . (1)

Les vecteurs d’un système lié sont dits linéairement dépendants et la relation (1) est appelée une relation
de dépendance linéaire.
Exemples 2.4.9. (1) Si on considère les vecteurs u1 = (1, 2, −3), u2 = (−2, −4, 6) et u3 = (1, 0, 1) de
R3 , on remarque que u2 = −2u1 d’où 2u1 + u2 = 0E est une relation de dépendance linéaire. La famille
{u1 , u2 , u3 } est donc une famille liée.
(2) Soit w ∈ R∗ fixé. Montrons que le système {u, v} de l’espace vectoriel A(R, R) est libre où u(t) = cos(ωt)
et v(t) = sin(ωt) pour tout t ∈ R. Soient (λ, µ) ∈ R2 tels que λ.u + µ.v = 0. Cela signifie que, pour tout
t ∈ R, on a
λ cos(ωt) + µ sin(ωt) = 0.

En particulier, pour t = 0, on a λ = 0. Pour t = , on trouve µ = 0 et le système est libre.
ω
Proposition 2.4.10. (1) La famille {u} à un élément est libre si et seulement si u 6= 0E .
(2) Toute famille contenant une famille liée est liée.
(3) Toute famille incluse dans une famille libre est libre.
Preuve. (1) Pour tout λ ∈ K, λ.u = 0E si et seulement si λ = 0 ou u = 0E par 2.2.8(1). Si u 6= 0E alors
λ = 0 et {u} est libre. Sinon, u = 0E et comme 1.0E = 0E (2.2.8(2)) la famille {u} est liée.
(2) Soit la famille {u1 , · · · , up , up+1 , · · · , um } de E et supposons que la famille {u1 , · · · , up } soit liée.
Alors il existe α1 ∈ K, · · · , αp ∈ K non tous nuls (quitte à échanger les vecteurs, supposons α1 6= 0) tels
que α1 .u1 + · · · + αp .up = 0E . La combinaison α1 .u1 + · · · + αp .up + 0.up+1 + · · · + 0.um est nulle sans que
tous les coefficients soient nuls ce qui prouve que le système de départ est lié.
(3) D’après (2), la contraposée de (3) est vraie donc (3) est vraie. 

Théorème 2.4.11 (Caractérisation d’une famille liée). La famille {u1 , · · · , up } de vecteurs d’un K-espace
vectoriel E est liée si et seulement si un au moins des ui est combinaison linéaire des p − 1 autres.
Preuve. Le fait que la famille {u1 , · · · , up } est liée équivaut à l’existence de λi 6= 0 tel que λ1 .u1 + · · · +
1
λp .up = 0E . Quitte à renuméroter, supposons que λp 6= 0. Alors existe et
λp
λ1 λp−1
up = − .u1 − · · · − .up−1 .
λp λp
Réciproquement, si ui est combinaison linéaire des uj , j 6= i,

ui = α1 .u1 + · · · + αi−1 .ui−1 + αi+1 .ui+1 + · · · + αp .up ,

et α1 .u1 + · · · + αi−1 .ui−1 − ui + αi+1 .ui+1 + · · · + αp .up = 0E . Comme le coefficient de ui est −1, la famille
est liée. 

Exemples 2.4.12. (1) Toute famille contenant le vecteur nul est liée.
(2) La famille {(1, 1), (1, 0), (0, 1)} est liée mais ses sous-familles de deux vecteurs sont libres.

30
Proposition 2.4.13. Si {u1 , · · · , up } est une famille libre de E et {u1 , · · · , up , v} est une famille liée de
E alors v est combinaison linéaire des (ui )i=1,··· ,p .
Preuve. On peut écrire λ1 .u1 + · · · + λp .up + λ.v = 0E et l’un des λi est non nul ou λ est non nul. Si
λ = 0, l’un des λi est non nul, ce qui contredit l’hypothèse. Donc λ 6= 0 et
p
1X
v=− λi .ui .
λ i=1

Définition 2.4.14. (1) Deux vecteurs u et v de E sont dits colinéaires s’il existe λ ∈ K tel que v = λ.u.
(2) Trois vecteurs u, v et w de E sont coplanaires s’il existe (λ, µ) ∈ K 2 tels que w = λ.u + µ.v.
Corollaire 2.4.15. (1) Soient u et v deux vecteurs non nuls. Ils sont liés si et seulement si ils sont
colinéaires.
(2) Soient u, v et w trois vecteurs non nuls. Ils sont liés si et seulement si ils sont coplanaires.

Preuve. Cela provient directement de la proposition précédente. 

2.4.4 Bases
Par définition, si S est un système générateur, tout vecteur de E peut se décomposer selon les vecteurs de
S, mais la décomposition obtenue n’est pas nécessairement unique. Intéressons-nous à ce cas.
Définition 2.4.16. Un système générateur de E tel que tout vecteur de E ait une décomposition unique
selon ce système est appelé une base de E.
Proposition 2.4.17. Un système de E est une base si et seulement si c’est un système générateur et
libre.
Preuve. Si un système S est une base, il est générateur et 0E a une décomposition unique selon ce
système donc S est libre.
Réciproquement, si le système S = {xi | i ∈ I} est générateur et libre, 0E a une décomposition unique
selon les vecteurs de ce système. D’après la proposition 2.3.16, les espaces K.xi pour i ∈ I sont en somme
directe ce qui prouve que ce système est une base. 

Exemples 2.4.18. (1) Le système {1} est une K-base du K-espace vectoriel K.
(2) Soit ei le vecteur de K n dont toutes les composantes sont nulles, sauf la i-ième qui vaut 1. Alors
{e1 , · · · , en } est une base de K n appelée base canonique de K n .
(3) Le système {1, i} est une base du R-espace vectoriel C.
(4) Le système infini {1, X, X 2 , · · · , X m , · · · } est une base de K[X] appelée base canonique. Le système
{1, X, X 2 , · · · , X n } est une base du K-espace vectoriel Kn [X] encore appelée base canonique.
(5) On considère l’application numérique χa de A(R, R) qui est nulle en tout point de R sauf en a ∈ R où
elle vaut 1. Tout vecteur f ∈ A(R, R) s’écrit de manière unique
X
f= f (a).χa .
a∈R

Alors (χa )a∈R est une base (non dénombrable) de A(R, R).

31
Définition 2.4.19. Si B = (ei )i∈I est une base de E l’unique famille de scalaires (xij )j∈{1,··· ,m} telle que
m
X
u= x ij e ij
j=1

est appelée famille de coordonnées ou de composantes de u dans la base B et on note


 
x i1
 x i2 
u|B :  .  .
 
.
 . 
xim

Remarques 2.4.20. (1) Soient B la base canonique de R3 et B 0 = (u1 , u2 , u3 ) une autre base de R3 où
u1 = (1, 0, 0), u2 = (1, 1, 0) et u3 = (1, 1, 1) Alors le vecteur (1, 2, 3) a pour coordonnées
   
1 −1
(1, 2, 3)|B :  2  ; (1, 2, 3)|B0 :  −1  .
3 3

(2) Le vecteur 0E est générateur de {0E }. Mais il n’y a pas de base dans cet espace vectoriel car 0E admet
une infinité de décomposition selon lui-même, 0E = 1.0E = a.0E pour tout a ∈ K ∗ .
(3) Un système de vecteurs S est libre si et seulement si S est une base du sous-espace vectoriel Vect(S).

Définition 2.4.21. (1) Si u 6= 0E , D = Vect(u) s’appelle la droite vectorielle de base u.


(2) Si {u, v} est libre, P = Vect(u, v) s’appelle le plan vectoriel de base (u, v).

2.5 Existence de bases


Cette section est très importante. On y montre que tout espace vectoriel admet une base. Nous distinguons
deux cas, seul le premier étant au programme du CAPES externe de Mathématiques.

2.5.1 Cas des espaces vectoriels de type fini


Théorème 2.5.1 (Théorème de la base incomplète). Soient E 6= {0E } un espace vectoriel de type fini,
{g1 , · · · , gk } une famille génératrice de E et {l1 , · · · , lr } une famille libre non génératrice de E. Alors il
existe des indices i1 , · · · , is dans {1, · · · , k} tels que la famille {l1 , · · · , lr , gi1 , · · · , gis } soit une base de E
Preuve. Comme la famille {l1 , · · · , lr } n’est pas génératrice, il existe i1 ∈ {1, · · · , k} tel que gi1 ne soit
pas combinaison linéaire des li . En effet, sinon E = hg1 , · · · , gk i serait inclus dans hl1 , · · · , lr i et la famille
{l1 , · · · , lr } serait génératrice.
Pr
Mais alors {l1 , · · · , lr , gi1 } est libre : en effet
Psi 0E = i=1 λi .li + λr+1 .gi1 alors λr+1 est nul sinon
r
gi1 est combinaison linéaire des li . Donc 0E = i=1 λi .li . Mais comme la famille des (li ) est libre, cela
implique que tous les λi sont nuls.
Ou bien on a obtenu une famille libre et génératrice donc une base, ou bien cette famille est libre non
génératrice et on recommence le procédé.
Ce procédé s’arrête au bout de k opérations au plus car on ne reprend pas deux fois le même gi et que
la famille {l1 , · · · , lr , g1 , · · · , gk } est génératrice. On obtient donc in fine une base de E. 

32
Théorème 2.5.2 (Existence de base en type fini). Dans tout espace vectoriel de type fini distinct de {0E },
il existe une base.

Preuve. Il suffit d’appliquer le théorème précédent avec la famille génératrice finie de E et la famille libre
formée par un vecteur non nul quelconque. 

Corollaire 2.5.3. (1) De toute famille génératrice finie d’un espace vectoriel de type fini, on peut extraire
une base.
(2) Toute famille libre d’un espace vectoriel de type fini peut être complétée en une base.

2.5.2 Cas général


Nous donnons en complément une preuve de l’existence d’une base dans un espace vectoriel quelconque.
Pour cela, nous avons besoin du lemme de Zorn dont la preuve repose sur l’axiome du choix (il lui est
d’ailleurs équivalent).
Si P est un ensemble muni d’une relation d’ordre3 notée ≤. Un sous-ensemble Q ⊂ P est totalement
ordonné si pour tout couple a, b de Q on a (au moins) l’une des relations a ≤ b ou b ≤ a. Si Q ⊂ P , on
dit que c ∈ P est un majorant de Q si pour tout a ∈ Q, on a a ≤ c. On dit que m ∈ P est un élément
maximal de P si pour tout x ∈ P tel que m ≤ x, on a m = x. Enfin, on dit que P est inductif si tout
sous-ensemble totalement ordonné de P admet un majorant.

Lemme 2.5.4 (Lemme de Zorn). Tout ensemble ordonné, inductif, non vide admet un élément maximal.
Maintenant, on peut prouver le résultat annoncé :
Théorème 2.5.5 (Existence de bases). Tout espace vectoriel E 6= {0E } sur un corps K admet une base.

Preuve. Soit X une partie génératrice de E (par exemple l’espace tout entier). On note I l’ensemble
des parties K-libres de X. Soit L une partie totalement ordonnée de I (que l’on peut supposer être une
chaı̂ne d’éléments, c’est à dire une suite d’éléments croissante pour l’inclusion) et posons
[
L= L.
L∈L

On va montrer que L ∈ I
Pn
Si on a i=1 ai .xi = 0E pour xi ∈ L et ai ∈ K alors il existe i0 tel que Li ⊂ Li0 pour i = 1, · · · , n
avec xi ∈ Li . Cela signifie donc que a1 = · · · = an = 0K et on a bien L ⊂ I. Ainsi le sous-ensemble L
admet un majorant qui est L.
L’ensemble I est non vide, inductif donc admet un élément maximal B d’après le lemme de Zorn 2.5.4.
Tout d’abord, B ∈ I donc est K-libre. Pour montrer que B engendre l’espace E, il suffit de montrer qu’elle
engendre X (puisque X engendre E).
Soit x ∈ X. Si x ∈ B alors x = 1.x est une combinaison linéaire d’éléments de X. Sinon, B ∪ {x} ⊂ X
contient strictement B donc n’est pas dans I par maximalité : cela signifie que B ∪ {x} n’est pas K-libre
donc elle est liée. On a
m
X
λj .bj + λ.x, λ, λj ∈ K, bj ∈ B, j = 1, · · · , m, m ∈ N
j=1

3 c’est à dire une relation binaire réflexive, antisymétrique et transitive

33
et λ1 , · · · , λm , λ non tous nuls. Mais λ 6= 0 car sinon, on aurait aussi λ1 = · · · = λm = 0K puisque B est
K-libre. On peut donc écrire
Xm
x= (−λ−1 λj )bj ,
j=1

ce qui signifie que la partie B est génératrice : c’est une base de E. 

2.6 Théorie de la dimension


L’ordre d’exposé des résultats de cette section est délicat et primordial. Nous invitons les étudiants à y
prendre garde et à notamment à ne pas parler de dimension avant que celle-ci ne soit définie. Dans cette
section, E désigne, sauf mention contraire, un K-espace vectoriel de type fini.

2.6.1 Dimension
Le résultat fondamental est le suivant.

Lemme 2.6.1. Dans un espace vectoriel (quelconque), (p + 1) vecteurs qui sont combinaisons linéaires de
p vecteurs sont liés.
Preuve. La preuve se fait par récurrence sur p. Si p = 1, deux vecteurs u1 et u2 combinaisons linéaires
du même vecteur u sont colinéaires. En effet, si u1 ou u2 est nul alors la famille {u1 , u2 } est liée. Sinon
λ2
u1 , u2 6= 0E et u 6= 0E donc, u1 = λ1 .u et u2 = λ2 .u avec λ1 , λ2 6= 0 Enfin, u2 = .u. D’après le
λ1
corollaire 2.4.15, {u1 , u2 } est lié.
Supposons que pour p ∈ N \ {0}, tout système de (p + 1) vecteurs combinaisons linéaires des mêmes p
vecteurs est lié et considérons
v1 = λ1,1 .u1 + · · · + λ1,p .up + µ1 .v
..
.
vi = λi,1 .u1 + · · · + λi,p .up + µi .v
..
.
vp+1 = λp+1,1 .u1 + · · · + λp+1,p .up + µp+1 .v
w = ρ1 .u1 + · · · + ρp up + µ.v.

Si tous les µi sont nuls, {v1 , · · · , vp+1 } est un système de (p + 1) vecteurs combinaisons linéaires de
u1 , · · · , up donc est liée par hypothèse de récurrence. D’après la proposition 1.1.22(2), la famille {v1 , · · · , vp+1 , w}
est aussi liée.
Sinon, il existe un µi non nul, et on peut supposer que c’est µ quitte à renuméroter. On considère alors
les (p + 1) vecteurs suivants :
µi µi ρ1 µρ
wi = vi − .w = (λi,1 − ).u1 − · · · − (λi,p − i p ).up pour i ∈ {1, · · · , p + 1}.
µ µ µ

Les (p+1) vecteurs wi sont combinaisons linéaires de p vecteurs, donc sont liés par hypothèse de récurrence.
Il existe donc des scalaires non tous nuls α1 , · · · , αp+1 tels que

α1 .w1 + · · · + αp+1 .wp+1 = 0E ,

34
ou encore tel que
1
α1 .v1 + · · · + αp+1 .vp+1 − (α1 µ1 + · · · + αp+1 µp+1 ).w = 0E .
µ
Les αi n’étant pas tous nuls, le système {v1 , · · · , vp+1 , w} est lié. 

Théorème 2.6.2. Si E 6= {0E } est un espace vectoriel de type fini, une famille libre ne peut avoir plus
d’éléments qu’une partie génératrice de E.
Preuve. Supposons que E a un système générateur de r vecteurs avec r 6= 0. Tout système libre de E ne
peut avoir plus de r vecteurs, sinon il contiendrait au moins (r + 1) vecteurs combinaisons linéaires des r
vecteurs du système générateur. Donc, d’après le lemme 2.6.1, il contiendrait une partie liée donc serait
lié. 

Ceci nous permet de montrer le corollaire qui va nous permettre de définir la notion de dimension.
Corollaire 2.6.3. Dans un espace vectoriel de type fini E 6= {0E }, toutes les bases ont le même nombre
de vecteurs.
Preuve. Puisque E 6= {0E }, il a au moins une base B. Puisque E est de type fini, toute base a un nombre
fini de vecteurs d’après le théorème 2.6.2. Supposons que B ait n vecteurs et qu’une autre base B 0 ait n0
vecteurs. Comme B est un système générateur et B 0 est libre, on a n0 ≤ n d’après le théorème 2.6.2. Par
symétrie n = n0 . 

Définition 2.6.4. (1) On dit que l’espace vectoriel E est de dimension finie, s’il admet une base ayant
un nombre fini d’éléments. Sinon E est dit de dimension infinie.
(2) Le nombre commun d’éléments de toutes les bases, n, est appelé dimension de E et noté n = dimK (E)
(ou s’il n’y a pas d’ambigüité sur les scalaires, dim(E)). L’espace vectoriel nul {0E } n’a pas de base, on
convient donc qu’il est de dimension 0.
Remarque 2.6.5. Réciproquement, si un espace vectoriel de dimension finie E est tel que dim(E) = 0
alors E = {0E }, sinon il aurait une base d’au moins un vecteur non nul.
Exemples 2.6.6. (1) Si E = hui, u 6= 0E alors dim(E) = 1. Toute droite vectorielle est de dimension 1.
(2) Si E = hu, vi avec {u, v} libre alors dim(E) = 2. Tout plan vectoriel est de dimension 2.
(3) L’espace vectoriel K n est de dimension n car sa base canonique est de cardinal n.
(4) On a dimR (R) = 1 = dimC (C) mais dimR (C) = 2.
(5) L’espace vectoriel des fonctions numériques de R dans R est de dimension infinie de même que tous
les espaces vectoriels de l’exemple 2.3.4(3) et (4).
(6) L’espace vectoriel K[X] est de dimension infinie puisque sa base canonique contient un nombre infini
de vecteurs. Par contre l’espace Kn [X] est de dimension n + 1 puisque sa base canonique est de cardinal
n + 1.
(7) Soient E et F deux espaces vectoriels de dimension finie sur K . Alors E × F est de dimension finie et
dim(E × F ) = dim(E) + dim(F ) : en effet si {e1 , · · · , en } est une base de E et si {f1 , · · · , fp } est une base
de F , on vérifie aisément que {(e1 , 0F ) · · · , (en , 0F ), (0E , f1 ), · · · , (0E , fp )} est une base de E × F . Ceci se
généralise immédiatement au produit cartésien d’un nombre fini d’espaces vectoriels sur K.
Maintenant que l’on a la notion de dimension à notre disposition, on peut donner des précisions sur le
cardinal de certaines familles d’un espace de dimension finie.

35
Proposition 2.6.7. Soit E un espace vectoriel de dimension finie n 6= 0.
(1) Toute famille ayant plus de n éléments est liée.
(2) Toute famille ayant moins de n éléments n’est pas génératrice.
(3) Toute famille libre à n éléments est une base.
(4) Toute famille génératrice à n éléments est une base.
Preuve. (1) Une telle famille contient (n + 1) vecteurs combinaisons linéaires des mêmes n vecteurs d’une
base donc est liée d’après le lemme 2.6.1.
(2) C’est une conséquence du théorème 2.6.2.
(3) Supposons d’abord que S = {u1 , · · · , un } est libre et montrons qu’il est nécessairement générateur.
En effet, tout vecteur u de E adjoint à S donne un système lié car ayant plus de vecteurs que la dimension
d’après (1). Comme S est libre et S ∪ {u} est lié, la proposition 2.4.13 implique que u est combinaison
linéaire des éléments de S doù Vect(S) = E.
(4) Supposons maintenant que {u1 , · · · un } est générateur de E et montrons que ce système est libre.
Sinon, d’après le théorème 2.4.11, un des ui , par exemple un serait combinaison linéaire des autres et on
aurait E = hu1 , · · · , un−1 i. Mais alors une base aurait plus de vecteurs qu’un système générateur ce qui
est impossible d’après (2). 

Reformulons le théorème de la base incomplète 2.5.1.


Corollaire 2.6.8 (Théorème de la base incomplète et de la base trop complète). Toute famille génératrice
de E 6= {0E } contient une base de E. Toute famille libre peut être prolongée en une base de E.
Preuve. Soit E un espace vectoriel de dimension n ≥ 1. Une famille génératrice a au moins n éléments
d’après la proposition 2.6.7(2). Si cette famille est liée, un au moins de ses éléments est combinaison
linéaire des autres par le théorème 2.4.11 : on peut le retirer sans nuire au caractère générateur de la
famille. On procède ainsi jusqu’à ce que le système n’ait plus que n éléments. On a alors une base d’après
la proposition 2.6.7(4).
Une famille libre a au plus n éléments d’après la proposition 2.6.7(1). Si cette famille n’est pas
génératrice, il existe au moins un vecteur de E qui n’est pas combinaison linéaire des éléments de cette
famille : on peut le rajouter et la nouvelle famille reste libre d’après le théorème 2.4.11. On peut compléter
la famille jusqu’à ce qu’elle ait n éléments. On a alors une base d’après la proposition 2.6.7(3). 

2.6.2 Dimension des sous-espaces vectoriels et rang


Dimension des sous-espaces vectoriels
Proposition 2.6.9. Si E est un espace vectoriel de dimension n alors tout sous-espace vectoriel de E est
de dimension au plus n (donc finie). De plus, cette dimension est n si et seulement si E = F .
Preuve. Comme F est un espace vectoriel de type fini (puisqu’il est engendré par une partie génératrice
de E), il a une base qui est une partie libre de E. Ainsi, d’après la proposition 2.6.7(1), cette base est de
cardinal inférieur ou égal à n d’où dim(F ) ≤ n. Si une base de F a n vecteurs, comme c’est une partie
libre à n éléments de E qui est de dimension n, c’est une base de E d’après la proposition 2.6.7(3).Donc
F = E. La réciproque est triviale. 

Remarque 2.6.10. Ceci est faux en général pour un espace vectoriel et un sous-espace vectoriel de
dimension infinie. Par exemple si E = A(R, R) et F = P est le sous-espace vectoriel des fonctions paires,
alors E et F sont de dimension infinie et F 6= E.

36
Définition 2.6.11. On dit qu’un sous-espace vectoriel de E est une droite s’il est de dimension 1, un plan
s’il est de dimension 2 et un hyperplan s’il est de dimension dim(E) − 1.

Dimension et base de la somme


Théorème 2.6.12. Soient E un K-espace vectoriel de dimension finie, F et G deux sous-espaces vectoriels
de E, BF = {f1 , · · · , fr } une base de F et BG = {g1 , · · · , gs } une base de G. Alors la somme F + G est
directe si et seulement si {f1 , · · · , fr , g1 , · · · , gs } est une base de F + G. Ceci équivaut encore à dire que
dim(F ) + dim(G) = dim(F + G). En particulier, F et G sont supplémentaires dans E si et seulement si
on obtient une base de E par concaténation d’une base de F et d’une base de G ou encore si et seulement
si dim(E) = dim(F + G) = dim(F ) + dim(G).

Preuve. Supposons d’abord que F et G sont en somme directe. Posons B = {f1 , · · · , fr , g1 , · · · , gs }.


Soit x ∈ F + G alors il existe f ∈ F et g ∈ G tels que x = f + g donc il existe (α1 , · · · , αr ) ∈ K r et
(β1 , · · · , βs ) ∈ K s tels que x = α1 .f1 + · · · + αr .fr + β1 .g1 · · · + βs .gs . Cela signifie que B engendre F + G.
Montrons maintenant que B est libre. Pour tout (α1 , · · · , αr , β1 , · · · , βs ) ∈ K r+s ,
r
X s
X r
X s
X
αi .fi + βj .gj = 0E ⇒ αi .fi = − βj .gj ,
i=1 j=1 i1 j=1
Ps
donc l’élément w = − j=1 βj .gj ∈ F ∩ G = {0E } puisque la somme est directe (2.3.18). Donc tous les αi
et tous les βj sont nuls puisque BF et BG sont libres.
Supposons maintenant que B = BF ∪ BG soit une base de F + G et considérons w ∈ F ∩ G. D’après
2.3.18, il suffit de montrer que w = 0E pour conclure. Mais w est combinaison linéaire des éléments de BF
et combinaison linéaire des éléments de BG mais comme B est libre, on en déduit bien que w = 0E . 

Corollaire 2.6.13. Si F et G sont de dimension finie alors dim(F ⊕ G) = dim(F ) + dim(G). Si F et G


sont des sous-espaces vectoriels de E de dimension finie, alors dim(F ) + dim(G) = dim(E).
Remarque 2.6.14. La réciproque est fausse : on n’a pas dim(F ) + dim(G) = dim(E) implique que
E = F ⊕ G. Par exemple, dans K 2 , dim K.(1, 2) + dim K.(2, 4) = dim K 2 = 2 mais la somme n’est pas
directe.

La formule suivante, dite formule de Grassmann, donne la dimension de la somme de deux sous-espaces
vectoriels en fonction de la dimension de ces sous-espaces vectoriels et de leur intersection :
Proposition 2.6.15. Soient E un espace vectoriel de dimension finie et F , G deux sous-espaces vectoriels
de E. Alors
dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G).

Preuve. Si on a F ∩ G = {0E }, le résultat provient du théorème 2.6.12. Supposons donc F ∩ G 6=


{0E }. Soit {u1 , · · · , uk } une base de F ∩ G. D’après le corollaire 2.6.8, cette famille libre de F et
de G peut être prolongée en une base B = {u1 , · · · , uk , v1 , · · · , vs } de F et d’autre part en une base
C = {u1 , · · · , uk , w1 , · · · , wt } de G. La famille {u1 , · · · , uk , v1 , · · · , vs , w1 , · · · , wt } est clairement une
famille génératrice de F + G.
Montrons que cette famille est libre. Si pour tous λ1 , · · · , λk+s+t ∈ K, on a

0E = λ1 .u1 + · · · + λk .uk + λk+1 .v1 + · · · + λk+s .vs + λk+s+1 .w1 + · · · + λk+s+t .wt ,

37
on a une égalité entre un vecteur de F λ1 .u1 + · · · + λk .uk + λk+1 .v1 + · · · + λk+s .vs et un vecteur de G
−(λk+s+1 .w1 + · · · + λk+s+t .wt ). Ces deux vecteurs sont donc dans F ∩ G ce qui implique λk+1 = · · · =
λk+s = λk+s+1 = · · · = λk+s+t = 0. Les autres coefficients sont aussi nuls puisque {u1 , · · · , uk } est libre.
On vient donc de prouver que dim(F +G) = k +s+t, dim(F ) = k +s, dim(G) = k +t et dim(F ∩G) = k
d’où on déduit la formule annoncée. 

Corollaire 2.6.16. (1) On a E = F ⊕ G si et seulement si dim(F ) + dim(G) = dim(E) et F ∩ G = {0E }.


(2) On a E = F ⊕ G si et seulement si dim(F ) + dim(G) = dim(E) et F + G = E.
Preuve. Les sens directs sont évidents. Pour les sens indirects, on applique le théorème précédent. 

Terminons par un résultat important.


Corollaire 2.6.17. Soit E un espace vectoriel de dimension finie. Alors tout sous-espace vectoriel F 6=
{0E } de E admet un supplémentaire. Tous les supplémentaires de F dans E ont la même dimension
Preuve. Comme F est de type fini, il admet une base BF . D’après le corollaire 2.6.8, BF peut être
complétée en une base de E, B. Posons BG = B \ BF et soit G = Vect(BG ). Alors BG est une base de G
et d’après le théorème 2.6.12, F et G sont supplémentaires. La deuxième assertion provient du corollaire
précédent. 

Rang d’un système de vecteurs


Définition 2.6.18. Soit E un K-espace vectoriel de dimension finie. On appelle rang d’un système de p
vecteurs, la dimension du sous-espace vectoriel qu’il engendre.
Proposition 2.6.19. Soit E un espace vectoriel de dimension n et soient u1 , · · · , up ∈ E.
(1) On a rang{u1 , · · · up } ≤ min(p, n).
(2) On a rang{u1 , · · · up } = p si et seulement si {u1 , · · · up } est libre.
(3) On a rang{u1 , · · · up } = n si et seulement si {u1 , · · · up } engendre E.
Preuve. (1) On a rang{u1 , · · · up } ≤ p puisque {u1 , · · · up } est générateur de Vect({u1 , · · · up }). On a
rang{u1 , · · · up } ≤ n puisque Vect({u1 , · · · up }) est un sous-espace vectoriel de E.
(2) et (3) se déduisent immédiatement de la proposition 2.6.7(3) et (4). 

Proposition 2.6.20. Le rang d’un système S est le nombre maximal de vecteurs libres qu’on peut extraire
de ce système. De tels vecteurs constituent alors une base du sous-espace vectoriel engendré par S
Preuve. Soit S = {u1 , · · · up } et notons r = rang(S). Si r = p, Vect(S) est de dimension p et d’après
2.6.7(3), ces p vecteurs sont libres et engendrent Vect(S).
Sinon, on a r < p d’après la proposition précédente. Il existe une base de r vecteurs dans Vect(S).
Cela signifie que les vecteurs u1 , · · · , up sont liés (p ≥ r + 1) par 2.6.7(1). Donc, un des ui est combinaison
linéaire des autres d’après 2.4.11. On peut le retirer sans changer l’espace vectoriel engendré par le système
et on continue ainsi tant que le système reste lié. On arrive à trouver r vecteurs ui générateurs de Vect(S).
Ils sont donc libres puisque dim(Vect(S)) = r.
Réciproquement, si le nombre maximal de vecteurs libres qu’on peut extraire de {u1 , · · · up } est r,
supposons par exemple que {u1 , · · · ur } est libre, quitte à renuméroter. Alors le système {u1 , · · · ur , uj } est
lié pour tout j ∈ {r + 1, · · · , p} par maximalité. D’après 2.4.11, chacun de ces uj est combinaison linéaire
de {u1 , · · · ur }. Cela signifie que Vect(S) = Vect({u1 , · · · ur }). C’en est donc une base et on a rang(S) = r.


38
2.7 Coordonnées et équations
2.7.1 Systèmes de coordonnées, équations paramétrées d’un sous-espace vec-
toriel
Soient E un espace vectoriel de dimension finie et B = {e1 , · · · , en } une base
Pn de E. Soit x un vecteur de E
alors il existe une unique famille de scalaires (λ1 , · · · , λn ) telle que x = i=1 λi .ei . D’après la définition
2.4.19, la famille de coordonnées de x dans la base B, aussi appelées systèmes de coordonnées de x dans
la base B ou plus simplement coordonnées de x dans la base B est le vecteur colonne
 
λ1
 .. 
 . 
 
xB :  λi  .

 . 
 .. 
λn

Ce vecteur est aussi parfois écrit en ligne.


Remarque 2.7.1. On montre aisément que les coordonnées de la somme de deux vecteurs dans une base
sont les sommes des coordonnées des deux vecteurs dans cette base. De même, les coordonnées du produit
d’un vecteur par un scalaire dans une base sont les produits des coordonnées de ce vecteur par le scalaire
dans cette base.
Exemples 2.7.2. (1) (x1 , · · · , xn ) ∈ K n a pour système de coordonnées (x1 , · · · , xn ) dans la base canon-
ique de K n .
(2) Le vecteur (1, 0) a pour coordonnées (1, −1) dans la base {(1, 1), (0, 1)} de K 2 .
(3) Le polynôme 16X 5 − 9X 2 + 4 a pour coordonnées (16, 0, 0, −9, 0, 4) dans la base canonique de K5 [X].

Soit maintenant un sous-espace vectoriel F de E et {f1 , · · · , fr } une base (ou une famille génératrice
de F ). Chaque fi étant un élément de E, il a un système de coordonnées dans B. Notons (yi,1 , · · · , yi,n )
ce système de coordonnées. Le but est de décrire par leurs coordonnées les éléments de F .
Soit donc x ∈ E et soient (x1 , · · · , xn ) ses coordonnées dans la base B. Le vecteur x est élément de
et seulement si il est combinaison linéaire des fi si et seulement si il existe µ1 , · · · , µr ∈ K tels que
F si P
r
x = i=1 µi .fi . Ceci signifie exactement que ces deux vecteurs ont les mêmes coordonnées. On a donc
prouvé que

 x1 = µ1 y1,1 + µ2 y1,2 + · · · + µr y1,r

 x2 = µ1 y2,1 + µ2 y2,2 + · · · + µr y2,r

x ∈ F ⇐⇒ ∃(µ1 , · · · , µr ) ∈ K r , .. .. .. ..


 . . . .
xn = µ1 yn,1 + µ2 yn,2 + · · · + µr yn,r

On peut donc poser la définition suivante.

Définition 2.7.3. On appelle système d’équations paramétrées d’un sous-espace vectoriel F de E dans
une base donnée de E tout système du type précédent, c’est à dire tout système d’équations linéaires tel
que (x1 , · · · , xn ) sont les coordonnées d’un vecteur de F si et seulement si ce système a une solution si
l’on prend pour second membre les xi .
Remarque 2.7.4. Ceci équivaut à la donnée d’une famille génératrice par les coordonnées de ses vecteurs.

39
Exemple 2.7.5. On a vu au début de ce chapitre que le sous-espace vectoriel T de R3 du système
d’équations 
 2x + 3y + z = 0
x − y + z = 0
3x + 2y + 2z = 0

est l’ensemble des (x, y, z) ∈ R3 tel qu’il existe un réel µ tel que (x, y, z) = (−4µ, µ, 5µ). Donc

 x = −4 µ
y = µ
z = 5 µ

est un système d’équations paramétrées de T et cela signifie que {(−4, 1, 5)} en est une famille génératrice,
donc une base puisqu’elle est libre. Les systèmes
 
 x = −8 µ  x = −4 µ − 8 ν
y = 2 µ et y = µ + ν
z = 10 µ z = 5 µ + 10 ν
 

son aussi des systèmes d’équations paramétrées de T .


On va vouloir ensuite faire le travail inverse, c’est à dire à partir d’un système d’équations paramétrées
produire un système d’équations ne faisant pas intervenir de paramètres mais reliant les coordonnées
directement entre elles. Il va donc falloir éliminer les paramètres.

2.7.2 Systèmes d’équations linéaires d’un sous-espace vectoriel


On a vu précédemment que l’ensemble des solutions d’un système d’un nombre fini d’équations à n
inconnues et à coefficients dans K est un sous-espace vectoriel de K n . On peut constater de la même
manière que l’ensemble des vecteurs d’un espace vectoriel E dont le système de coordonnées dans une
base donnée est solution d’un système d’équations linéaires est un sous-espace vectoriel de E. On voudrait
maintenant observer la démarche inverse.
Définition 2.7.6. On appelle système d’équations linéaires d’un sous-espace vectoriel F d’un espace
vectoriel E de dimension finie n muni d’une base B tout système S formé d’un nombre fini p d’équations
linéaires à n inconnues (sans second membre) qui est tel que : si x ∈ E a pour coordonnées (x1 , · · · , xn )
dans B alors x ∈ F si et seulement si (x1 , · · · , xn ) est solution de S.
Donnons quelques exemples.
Exemples 2.7.7. (1) Dans K 2 muni de sa base canonique {e1 , e2 }, soit F1 = h(2, 3)i. On en connait un
système d’équations paramétrées :

x1 = 2 λ
x = (x1 , x2 ) ∈ F1 ⇐⇒ ∃λ ∈ K, .
x2 = 3 λ
x1
Si x ∈ F1 , on en déduit que λ = donc que 2x2 − 3x1 = 0. Réciproquement, si 2x2 − 3x1 = 0, en posant
2
x1
λ= , cela implique que x ∈ F1 . En conséquence, l’équation 2x2 − 3x1 = 0 est un système d’équations
2
linéaires de F1 .
(2) Dans K 3 muni de la base canonique, soit F2 = h(1, 2, 3)i. On en connait un système d’équations
paramétrées : 
 x1 = λ
x = (x1 , x2 , x3 ) ∈ F2 ⇐⇒ ∃λ ∈ K, x2 = 2 λ .
x3 = 3 λ

40
Si x ∈ F2 , on en déduit que λ = x1 , donc que x2 −2x1 = 0 et x3 −3x1 = 0. Réciproquement, si x2 −2x1 = 0
et x3 − 3x1 = 0, en posant λ = x1 , on voit que x ∈ F2 . Les équations x2 − 2x1 = 0 et x3 − 3x1 = 0 forment
donc un système d’équations linéaires de F2 .
(3) Dans K 4 muni de sa base canonique, soit F3 = h(1, 2, 3, 4), (−1, 4, 1, 2)i. On en connait un système
d’équations paramétrées :


 x1 = λ − µ
x2 = 2 λ + 4 µ

x = (x1 , x2 , x3 , x4 ) ∈ F3 ⇐⇒ ∃λ, µ ∈ K, .

 x3 = 3 λ + µ
x4 = 4 λ − 2 µ

Si x ∈ F3 , effectuons un pivot de Gauss sur la variable λ. On trouve :




 λ = x1 + µ (L1 )
6µ = x2 − 2 x1 (L2 − 2L1 )


 4µ = x3 − 3 x1 (L3 − 3L1 )
2µ = x4 − 4 x1 (L4 − 4L1 )

donc
x2 − 2x1 x3 − 3x1 x4 − 4x1
µ= = = ,
6 4 2
ou encore 2x2 −4x1 = 3x3 −9x1 et x3 −3x1 = 2x2 −6x1 , c’est à dire 5x1 +2x2 −3x3 = 0 et 3x1 +x3 −2x4 = 0.
x2 − 2x1
Réciproquement, si ce système est satisfait, en posant µ = et λ = x1 + µ, on montre que x ∈ F3 .
6
Ainsi 5x1 + 2x2 − 3x3 = 0 et 3x1 + x3 − 2x4 = 0 est un système d’équations linéaires de F3 .
Pour le moment, nous n’avons pas montré qu’un système d’équations linéaires existait pour un sous-
espace vectoriel d’un espace vectoriel donné. En fait, c’est le cas.
Théorème 2.7.8 (admis pour le moment). Tout sous-espace vectoriel F d’un espace vectoriel E de
dimension finie admet un système d’équations linéaires. On peut en trouver un en éliminant les paramètres
dans un système d’équations paramétrées. Il en existe toujours un formé de (dim(E) − dim(F )) équations
à dim(E) inconnues.
On pourrait montrer ce théorème maintenant en employant la méthode ci-dessus et une récurrence sur
les dimensions, mais cela se fera plus simplement au chapitre 4.
Remarques 2.7.9. (1) On peut déjà vérifier la véracité du théorème dans les trois exemples précédents.
(2) Si F 6= E admet un système de une équation linéaire à une inconnue, c’est un hyperplan. En effet,
soit α1 .x1 + · · · + αn .xn = 0 cette équation où les αi sont non tous nuls. Les vecteurs fi de coordonnées
(αi , 0, · · · , , 0, −α1 , 0, · · · , 0) où −α1 est à la i-ième place pour i = 2, · · · , n forment une famille libre de F
(car ils vérifient l’équation linéaire) à (n − 1) éléments. Or dim(F ) < n puisque F 6= E donc cette famille
est une base de F qui est de dimension n − 1.
(3) Si F 6= E admet un système de p équation linéaires à n inconnues, cela signifie que F est une
intersection de p hyperplans. Le théorème dit donc que tout sous-espace vectoriel de dimension r peut
être décrit comme l’intersection de n − r hyperplans et on dispose d’une méthode pratique pour trouver
ces hyperplans.

2.7.3 Détermination pratique du rang d’une famille de vecteurs


Considérons une famille de p vecteurs {u1 , · · · , up } d’un espace vectoriel E de dimension n muni d’une
base B.
Pour trouver le rang de cette famille, le principe de base est encore une fois le pivot de Gauss. On fait la
constatation suivante : soient α2 , · · · , αp et β2 , · · · , βp des scalaires tous non nuls et soit u0i = βi ui + αi u1

41
pour i = 2, · · · , p. Alors les deux familles {u1 , · · · , up } et {u1 , u02 · · · , u0p } engendrent le même sous-espace
vectoriel donc ont le même rang.
La méthode du pivot de Gauss consiste, à partir d’une famille donnée (par ses coordonnées), qui n’est
pas a priori libre, à choisir à chaque pas les scalaires αi pour obtenir une famille engendrant le même
sous-espace vectoriel mais dont un maximum de coordonnées sont nulles, ce qui permet finalement de voir
sur les coordonnées si la famille est libre ou non.
Exemple 2.7.10. Dans K 4 , on considère les 4 vecteurs f1 = (1, 2, −1, 3), f2 = (−1, 0, 2, 1), f3 = (3, 1, 0, 1)
et f4 = (−3, 1, 1, 3) qui sont donnés par leurs coordonnées dans la base canonique. La famille {f1 , f2 , f3 , f4 }
a même rang que la famille {f1 , g2 = f2 + f1 , g3 = f3 − 3f1 , g4 = f4 + 3f1 } avec g2 = (0, 2, 1, 4), g3 =
(0, −5, 3, −8) et g4 = (0, 7, −2, 12). On recommence avec un pivot sur g2 . La famille de départ a encore
le même rang que {f1 , g2 , h3 = 2g3 + 5g2 , h4 = 2g4 − 7g2 } avec h3 = −h4 = (0, 0, 11, 4). Le rang de la
famille est donc au plus 3. De plus la famille {f1 , g2 , h3 } est trivialement libre. Donc le rang cherché est
exactement 3.

Remarque 2.7.11. Si un sous-espace vectoriel est donné non pas par une famille génératrice mais par un
système d’équations linéaires, en le résolvant avec la méthode du pivot de Gauss, on trouve directement
une famille génératrice triangulaire : le deuxième vecteur a sa première coordonnée nulle, le troisième à
ses deux premières coordonnées nulles etc. On voit donc directement que la famille trouvée est libre. La
dimension de l’espace des solutions est encore appelé rang du système.

42
Chapitre 3

Applications linéaires

Étudier les ensembles n’a aucun intérêt si on ne peut les comparer. Pour ce faire, on utilise les applications
et on dit que deux ensembles se ressemblent si on peut les mettre en bijection.
Pour les espaces vectoriels, la simple notion d’application n’est pas suffisante puisqu’elle n’a aucun lien
avec la structure, c’est à dire avec les deux lois dont on a muni un espace vectoriel. Nous allons donc, dans
ce chapitre, développer une notion plus restrictive d’ application appelée application linéaire qui permettra
de savoir si deux espaces vectoriels se ressemblent ou non.
Dans ce chapitre, on désignera souvent par E et F deux espaces vectoriels sur le même corps K.

3.1 Définitions et premières propriétés


3.1.1 Morphismes d’espaces vectoriels
Définition 3.1.1. Une application f de E dans F est dite application linéaire, si c’est à la fois un
morphisme de groupes pour la loi interne et un morphisme pour la loi externe, c’est à dire
1) ∀ (u, v) ∈ E 2 , f (u + v) = f (u) + f (v) morphisme de groupes
2) ∀x ∈ E, ∀λ ∈ K, f (λ.u) = λ.f (u) morphisme de loi externe.
L’ensemble des applications linéaires de E dans F est noté L(E, F ).
Remarques 3.1.2. (1) Une application linéaire f étant en particulier un morphisme de groupes de E
dans F , on a f (0E ) = 0F et f (−u) = −f (u) pour tout u ∈ E.
(2) Un morphisme d’algèbre entre deux algèbre sur K est à la fois une application linéaire et un morphisme
d’anneaux.
Exemples 3.1.3. (1) Si E est un K-espace vectoriel, l’application identique ou identité, IdE : E → E qui
à x associe x est une application linéaire.
(2) L’application nulle (ou triviale) qui à tout x de E associe l’élément 0F de F est une application linéaire.
(3) L’application x 7→ a.x de R dans lui-même est une application linéaire. Par contre, si b 6= 0, l’application
de R dans R : x 7→ ax + b n’est pas une application linéaire puisque l’image de 0 n’est pas 0.
(4) Si C 1 (R) est l’espace vectoriel des fonctions de classe C 1 sur R et C(R) l’espace vectoriel des fonctions
continues sur R alors la dérivation
 1
C (R) → C(R)
D:
f 7→ D(f ) = f 0

43
est une application linéaire.
(5) On fixe deux points a et b de R. Soit I l’application de C(R) dans R définie par

C(R) → R

I: Rb
f 7→ I(f ) = a f (t)dt

est une application linéaire.

Proposition 3.1.4. L’application f de E dans F est une application linéaire si et seulement si pour tous
λ, µ ∈ K, pour tous u, v ∈ E, on a f (λ.u + µ.v) = λ.f (u) + µ.f (v).
Preuve. Pour le sens direct, il suffit d’utiliser à la suite le fait que f est un morphisme de groupes et de
loi externe. Réciproquement, on retrouve la définition d’application linéaire en prenant λ = µ = 1 d’une
part et µ = 0 d’autre part. 

Détaillons maintenant différents types d’applications linéaires


Définition 3.1.5. On appelle :
-endomorphisme de E, une application linéaire de E dans E. L’ensemble des endomorphismes de E
est noté End(E) (parfois L(E)).
-isomorphisme de E sur F , une application linéaire bijective de E sur F .
-automorphisme de E, une application linéaire bijective de E dans E (c’est à dire un endomorphisme
bijectif de E). L’ensemble des automorphismes de E est noté Aut(E).
-forme linéaire sur E une application linéaire de E dans K. L’ensemble des formes linéaires sur E est
noté E ∗ et appelé espace dual de E.
Exemples 3.1.6. (1) Dans les exemples 3.1.3, IdE est un automorphisme de E, x 7→ a.x de R dans R est
un endomorphisme de R (c’est un automorphisme de R si et seulement si a 6= 0) et l’application I de (5)
est une forme linéaire sur C(R).
(2) Si k est un scalaire non nul, l’application k.IdE est un endomorphisme de E appelé homothétie vecto-
rielle de rapport k. C’est un automorphisme de E.
(3) L’application de E dans K n qui à x ∈ E associe son système de coordonnées dans une base fixée de E
est un isomorphisme de E dans K n , celle qui à x associe sa i-ième coordonnée est un forme linéaire sur E.

3.1.2 Noyau et image


Dans la définition 1.1.36, on a défini le noyau et l’image d’un morphisme de groupes. Si on considère une
application linéaire de E dans F en tant que morphisme de groupes, on peut considérer son noyau

ker f = {u ∈ E | f (u) = 0F },

et son image
Im f = {v ∈ F | ∃u ∈ E, f (u) = v} = f (E).
Théorème 3.1.7. Soit f une application linéaire de E dans F .
(1) ker f est un sous-espace vectoriel de E.
(2) Im f est un sous-espace vectoriel de F .
(3) f est injective si et seulement si ker f = {0E }.
(4) f est surjective si et seulement si Im f = F .

44
Preuve. D’après le théorème 1.1.37(2), ker f et Im f sont des sous-groupes respectifs de E et F . Comme
ils sont de plus stables par loi externe, on en déduit (1) et (2). Les assertions (3) et (4) proviennent
respectivement de 1.1.37(3) et (4). 

Exemples 3.1.8. Reprenons les applications des exemples 3.1.3. L’application IdE est un automorphisme
donc son noyau est trivial et son image est E. L’application nulle a un noyau égal à E et une image qui
vaut {0F }. Si a 6= 0, l’application x 7→ a.x est un automorphisme donc son noyau est trivial et son
image est R. Si a = 0, c’est l’application nulle. L’application de dérivation a pour noyau les applications
constantes et pour image C(R) : elle est surjective.

3.1.3 Projections et symétries vectorielles


Deux types de projections
Considérons un premier type de projection.
Définition 3.1.9. Soient E1 , · · · , Ek des espaces vectoriels sur K. Pour i = 1, · · · , k, l’application de
E1 ×· · ·×Ek dans Ei qui à (x1 , · · · , xk ) associe xi est une application linéaire appelée projection du produit
sur sa i-ième composante.

On considère un second type de projection.


Définition 3.1.10. (1) Soient E un K-espace vectoriel et F , G deux sous-espaces vectoriels supplémentaires
de E : E = F ⊕ G. Alors, pour tout u ∈ E, il existe un unique u1 ∈ F , il existe un unique u2 ∈ G tels
que u = u1 + u2 (puisque la somme est directe). On appelle projection sur F parallèlement à G (resp.
projection sur G parallèlement à F ) l’application p (resp.q) de E dans E qui à tout u ∈ E associe u1 (resp.
u2 ).
(2) Si p est un endomorphisme de E qui vérifie p ◦ p = p, on dit que p est un projecteur.
Proposition 3.1.11. (1) Toute projection est un endomorphisme de E.
(2) Si p est la projection sur F parallèlement à G alors ker p = G et Im p = F .
(3) Si p est la projection sur F parallèlement à G alors pour tout x ∈ F , p(x) = x et p est un projecteur.

Preuve. On reprend les notations de la définition précédente.


(1) Si u, v ∈ E alors on a u = u1 + u2 et v = v1 + v2 avec u1 , u2 ∈ F et v1 , v2 ∈ G. Soient λ, µ ∈ K
Alors

p(λ.u+µ.v) = p(λ.u1 +λ.u2 +µ.v1 +µ.v2 ) = p((λ.u1 +µv1 )+(λ.u2 +µ.v2 )) = λ.u1 +µ.v1 = λ.p(u)+µ.p(v).

Donc p est un endomorphisme de E.


(2) On a évidemment G ⊂ ker p. Si u ∈ ker p alors p(u) = u1 = 0E donc u = 0E + u2 ∈ G et ker p = G.
Il est clair que Im p = F .
(3) C’est évident. 

Théorème 3.1.12. Un endomorphisme f de E est la projection d’un sous-espace vectoriel sur un autre
sous-espace vectoriel si et seulement si f est un projecteur. Dans ce cas E = ker f ⊕ Im f et f est la
projection sur Im f parallèlement à ker f .

45
Preuve. Si f est une projection, on a vu que f ◦ f = f et que dans ce cas, f est la projection sur Im f
parallèlement à ker f .
Réciproquement, si un endomorphisme f vérifie f ◦ f = f , notons F = Im f et G = ker f . Si
u ∈ F ∩ G, d’une part u ∈ F donc il existe v ∈ E tel que f (v) = u d’où u = f (v) = f (f (v)) = f (u) = 0E
car u ∈ G = ker f . Ainsi, F ∩ G = {0E }. De plus, si u ∈ E, on a u = f (u) + (u − f (u)) et f (u) ∈ F
tandis que (u − f (u)) ∈ G puisque f (u − f (u)) = f (u) − f (f (u)) = f (u) − f (u) = 0E . Cela prouve que
F + G = E puis que E = F ⊕ G par 2.3.18. Ainsi, f est bien la projection sur Im f parallèlement à ker f .


Remarques 3.1.13. (1) Si p est un projecteur, q = IdE −p est également un projecteur et on a p+q = IdE ,
ker q = Im p et Im q = ker p donc q est la projection sur ker p parallèlement à Im p.
(2) Plus généralement, si E est somme directe des Fi , 1 ≤ i ≤ n, ce que l’on vient de prouver Pnmontre qu’il
existe des projecteurs pi tels que pi (u) = pi (u1 + · · · + un ) = ui où ui ∈ Fi vérifient u = i=1 ui . On a
p1 + · · · + pn = IdE .
Exemples 3.1.14. (1) Si f est la projection sur F parallèlement à son supplémentaire G alors Im f = F
et ker f = G donc, en tant qu’application linéaire de E dans F , f est surjective non injective mais en tant
qu’endomorphisme de E, f n’est ni injective, ni surjective.
(2) Si F et G sont deux sous-espaces vectoriels de E, leur somme est directe si et seulement si l’application
Ψ : F × G → E qui à (x, y) associe x + y est injective. Comme l’image de Ψ est F + G, F et G sont
supplémentaires dans E si et seulement si Ψ est un isomorphisme; c’est alors un isomorphisme de F × G
sur F ⊕ G. Notons de plus que si E = F ⊕ G, la composée de Ψ et de la projection de F × G sur F est la
projection de E sur F parallèlement à G. A isomorphisme près, ces deux projections sont les mêmes.

Symétries vectorielles
Définition 3.1.15. (1) Soient E un K-espace vectoriel et F , G deux sous-espaces vectoriels supplémentaires
de E : E = F ⊕ G. Alors, pour tout u ∈ E, il existe un unique u1 ∈ F , il existe un unique u2 ∈ G tels
que u = u1 + u2 (puisque la somme est directe). On appelle symétrie par rapport à F parallèlement à G,
l’application s de E dans E qui, à u = u1 + u2 associe u1 − u2 .
(2) Un endomorphisme f de E qui vérifie f ◦ f = IdE est appelé une involution.

Proposition 3.1.16. Toute symétrie est un automorphisme de E. Si s est la symétrie par rapport à F
parallèlement à G, on a s(x) = x pour tout x ∈ F et s(x) = −x pour tout x ∈ G. De plus s ◦ s = IdE .
Preuve. Si u, v ∈ E alors on a u = u1 + u2 et v = v1 + v2 avec u1 , u2 ∈ F et v1 , v2 ∈ G. Soient λ, µ ∈ K
Alors

s(λ.u + µ.v) = s((λ.u1 + µ.v1 ) + (λ.u2 + µ.v2 )) = (λ.u1 − λ.u2 ) + (µ.v1 − µ.v2 ) = λ.s(u) + µ.s(v),

ce qui prouve que s est un endomorphisme de E. On a de plus s ◦ s = IdE ce qui prouve que s est injective
et surjective donc est un automorphisme de E. Les autres affirmations sont évidentes. 

Théorème 3.1.17. Un endomorphisme f de E est une symétrie par rapport à un sous-espace vectoriel
et parallèlement à un autre sous-espace vectoriel si et seulement si f est une involution. Dans ce cas,
E = ker(f −IdE )⊕ker(f +IdE ) et f est la symétrie par rapport à ker(f −IdE ) parallèlement à ker(f +IdE ).

46
Preuve. Si f est une symétrie par rapport à F parallèlement à G, on a vu que f ◦f = IdE . La proposition
précédente montre que F ⊂ ker(f − IdE ) et G ⊂ ker(f − IdE ). Enfin, si x ∈ ker(f − IdE ) alors f (x) = x
donc x ∈ F et F = ker(f − IdE ). De même G = ker(f − IdE ).
Réciproquement, si f est une involution, notons F = ker(f −IdE ) et G = ker(f +IdE ) et soit u ∈ F ∩G.
Alors 0E = (f + IdE )(u) = f (u) + u et 0E = (f − IdE )(u) = f (u) − u donc u = f (u) = −u puis 2.u = 0E
donc u = 0E ce qui prouve que F ∩ G = {0E }. Ensuite, si u ∈ E,

u + f (u) u − f (u)
u= + .
2 2
On a

(f −IdE )(u+f (u)) = f (u)+f (f u))−u−f (u) = 0E et (f +IdE )(u−f (u)) = f (u)+u−f (f (u))−f (u) = 0E ,

u + f (u)
donc E = F ⊕ G. Enfin, on écrit tout u ∈ E comme étant u = u1 + u2 avec u1 = ∈ F et
2
u − f (u)
u2 = ∈ G. Alors on a vu que f (u1 ) = u1 et f (u2 ) = −u2 donc f (u1 + u2 ) = u1 − u2 . Cela
2
signifie que f est la symétrie par rapport à ker(f − IdE ) parallèlement à ker(f + IdE ). 

Remarque 3.1.18. Si E est un espace vectoriel, si p est la projection sur F parallèlement à G et si s est
la symétrie par rapport à F parallèlement à G alors on a s = 2p − IdE . En effet, si u = u1 + u2 ∈ E avec
u1 ∈ F et u2 ∈ G alors

s(u) = s(u1 + u2 ) = u1 − u2 = 2u1 − (u1 + u2 ) = 2p(u) − IdE (u) = (2p − Ide )(u).

3.2 Structure des ensembles d’applications linéaires


3.2.1 Structure d’espace vectoriel
Les résultats de structure sont résumés dans la proposition suivante.

Proposition 3.2.1. Soient E et F deux espaces vectoriels sur K.


(1) L’ensemble (L(E, F ), +, .) est un sous-espace vectoriel de A(E, F ).
(2) L’ensemble (End(E), +, .) est un sous-espace vectoriel de A(E, E).
(3) L’ensemble E ∗ est un sous-espace vectoriel de A(E, K)
Preuve. (1) L’ensemble L(E, F ) est non vide puisqu’il contient l’application nulle. Soient λ ∈ K et
f, g ∈ L(E, F ). Il s’agit de montrer que λ.f + g est une application linéaire. Soient alors α, β ∈ K et
x, y ∈ E. On a

(λ.f + g)(α.x + β.y) = (λ.f )(α.x + β.y) + g(α.x + β.y) par définition de la loi interne
= λ.f (α.x + β.y) + g(α.x + β.y) par définition de la loi externe
= λ(αf (x) + βf (y)) + (αg(x) + βg(y)) par linéarité de f et g
= α(λf (x) + g(x)) + β(λf (y) + g(y)) par commutativité de +
= α(λ.f + g)(x) + β(λ.f + g)(y)

ce qui prouve bien que λ.f + g est une application linéaire donc que L(E, F ) est un sous-espace vectoriel
de A(E, F ). La preuve de (2) et (3) s’en déduit en prenant respectivement F = E et F = K. 

47
3.2.2 Structure d’algèbre
Nous avons vu que la somme des applications et le produit d’une application par un scalaire munit
End(E) d’une structure de K-espace vectoriel. Nous allons maintenant étudier une autre loi sur End(E)
: la composition.
Proposition 3.2.2. (1) La composée de deux applications linéaires, si elle existe, est une application
linéaire.
(2) La réciproque d’une application linéaire, si elle existe, est une application linéaire.
Preuve. (1) Soient f et g deux applications linéaires. Puisque la composée g ◦ f doit exister cela revient
à ce que f ∈ L(E, F ), g ∈ L(G, H) où E, F, G, H sont quatre espaces vectoriels sur K et où F ⊂ G.
Soient u, v ∈ E et λ, µ ∈ K. Alors

(g ◦ f )(λu + µv) = g(f (λu + µv)) = g(λf (u) + µf (v)) = λ(g ◦ f )(u) + µ(g ◦ f )(v),

ce qui prouve bien que g ◦ f est une application linéaire.


(2) Soit f ∈ L(E, F ) une application linéaire bijective, c’est à dire un isomorphisme. Soient f −1 son
application réciproque, λ, µ ∈ K et u, v ∈ F . Alors, par linéarité de f

f −1 (λu + µv) = f −1 (λf (f −1 (u)) + µf (f −1 (v))) = f −1 (f (λf −1 (u) + µf −1 (v))) = λf −1 (u) + µf −1 (v),

ce qui prouve que f −1 ∈ L(F, E). 

Remarque 3.2.3. La seconde assertion de la proposition précédente montre que l’application réciproque
d’un isomorphisme (d’espaces vectoriels) est un isomorphisme (d’espaces vectoriels).
Théorème 3.2.4. ( End(E), +, ., ◦)est une K-algèbre. Elle est non commutative si dim E ≥ 2.

Preuve. (1) On sait déjà que (End(E), +, .) est un espace vectoriel sur K. De plus la loi ◦ est une loi de
composition interne d’après la proposition 3.2.2(1).
Montrons que (End(E), +, ◦) est un anneau. Il est clair que ◦ est associative sur End(E) puisqu’elle
l’est déjà sur les applications. La loi ◦ est distributive par rapport à + et IdE ∈ End(E) est l’élément
unité de End(E) pour la loi ◦.
Enfin, si f, g ∈ End(E), λ ∈ K et x ∈ E,

((λ.f ) ◦ g)(x) = (λ.f )(g(x)) = λ(f (g(x))) = (λ.(f ◦ g))(x) (1)


= λ(f (g(x))) = f (λg(x)) = f ((λg)(x)) = (f ◦ (λg))(x) (2)

ce qui prouve que (λf ) ◦ g = λ(f ◦ g) par (1) et (λf ) ◦ g = f ◦ (λg) par (2) Donc (End(E), +, ., ◦) est une
K-algèbre.
Enfin, si dim E ≥ 2, soit {e1 , e2 , · · · } une base de E (éventuellement infinie). Définissons une application
f qui à x de coordonnées (x1 , x2 , · · · ) dans cette base associe x1 e1 et une application g qui à x associe x2 e2 .
Ce sont évidemment des endomorphismes de E. Alors (f ◦ g)(x) = x2 e1 et (g ◦ f )(x) = 0. En choisissant
x dont la seconde coordonnée soit non nulle, cela montre que f ◦ g 6= g ◦ f donc l’algèbre End(E) n’est pas
commutative. 

Proposition 3.2.5. L’ensemble GL(E) des éléments de End(E) inversibles pour la loi ◦ est un groupe.

48
Preuve. Cela a déjà été vu en 1.1.40. 

On termine cette section en déterminant le centre de End(E), c’est à dire l’ensemble des éléments de
End(E) qui commutent avec tous les autres éléments de End(E) pour la composition.
Théorème 3.2.6. Soit E un espace vectoriel de dimension finie. Le centre de End(E) est l’ensemble des
homothéties vectorielles. L’ensemble des homothéties vectorielles est une sous-algèbre de End(E) qui est
isomorphe (en tant qu’algèbre) à K.

Preuve. Par abus de langage, on incorpore aux homothéties vectorielles, l’homothétie de rapport nul.
Tout d’abord, si h est l’homothétie vectorielle de rapport α, qui à x ∈ E associe α.x ∈ E, et si f est un
endomorphisme, on a
(h ◦ f )(x) = αf (x) = f (αx) = (f ◦ h)(x),
ce qui prouve que h est dans le centre de End(E).
Réciproquement, si un endomorphisme h est dans le centre de E, montrons d’abord que si u ∈ E est
non nul alors il existe αu ∈ K tel que h(u) = αu .u. Soit p la projection sur K.u parallèlement à un
supplémentaire de K.u (qui existe d’après le corollaire 2.6.17). Alors on a (h ◦ p)(u) = h(u) = (p ◦ h)(u)
puisque h est dans le centre. Cela prouve que h(u) ∈ K.u, c’est à dire qu’il existe αu ∈ K tel que
h(u) = αu .u.
Si maintenant u et v sont non colinéaires, on a h(u) = αu u et h(v) = αv v et h(u + v) = αu+v (u + v) =
αu+v u + αu+v v d’une part et h(u + v) = h(u) + h(v) = αu u + αv v d’autre part. Comme la famille {u, v}
est libre, on en déduit que αu = αu+v = αv .
Si u et v sont colinéaires et non nuls alors v = λu pour λ ∈ K. Donc αv v = h(v) = λh(u) = αu (λu) =
αu v donc αu = αv . On a donc prouvé qu’il existe α ∈ K tel que pour tout u ∈ E, on a h(u) = αu donc h
est une homothétie vectorielle.
La suite de l’énoncé signifie que la somme de deux homothéties, le produit par un scalaire d’une
homothétie ou la composée de deux homothéties en est encore une, et que IdE est une homothétie ce
qui est clair. Enfin, on définit une application de l’ensemble H des homothéties vectorielles de E dans
l’ensemble K en associant à une homothétie son rapport. On vérifie aisément que cette application est un
morphisme d’algèbres bijectif donc un isomorphisme d’algèbres. 

3.3 Applications linéaires en dimension finie


On va maintenant utiliser la théorie de la dimension exposée au chapitre précédent pour étudier les
applications linéaires entre deux espaces vectoriels de dimension finie. Dans cette section, sauf mention
contraire, E et F sont des espaces vectoriels sur K de dimension finie.

3.3.1 Détermination par l’image des vecteurs d’une base


Une application de E dans F est entièrement déterminée par la donnée des images des vecteurs d’une base
de E. En effet :

Théorème 3.3.1. Soit E un K-espace vectoriel de dimension finie n muni d’une base B = {e1 , · · · , en }
et F un K-espace vectoriel quelconque. Pour toute famille {v1 , · · · , vn } il existe une application linéaire
f de E dans F et une seule telle que

∀i ∈ {1, 2, · · · , n}, f (ei ) = vi .

49
Preuve. Si f existe alors elle associe nécessairement au vecteur x = x1 .e1 + · · · xn .en le vecteur f (x) =
x1 .f (e1 ) + · · · + xp .f (ep ) = x1 .v1 + · · · + xp .vp par linéarité. Réciproquement, on vérifie que l’application
ainsi définie est linéaire. 

Regardons maintenant comment une application linéaire se comporte avec une famille génératrice et
une famille libre.
Proposition 3.3.2. (1) L’image par une application linéaire d’une famille génératrice est une famille
génératrice de l’image.
(2) L’image par une application linéaire injective d’une famille libre est une famille libre de l’image.
Preuve. (1) Si f : E → F est une application linéaire et si {g1 , · · · , gn } engendre
Pn E, soit y ∈ Im f . Alors
il existe x ∈ E telPque y = f (x) et il existe λ1 , · · · , λn ∈ K tels que x = u=1 λi .gi . Par linéarité, on a
n
donc y = f (x) = i=1 λi f (gi ). Cela prouve que {f (g1 ), · · · , f (gn )} est une famille génératrice de Im f .
(2) Soient f une application linéaire injective de E dans F et {l1 , · · · , ls } une famille libre de E. Pour
tous (λ1 , · · · , λs ) ∈ K s , si
s
X s
X
λi f (li ) = 0E alors f ( λi li ) = 0E ,
i=1 i=1
Ps
par linéarité de f . L’élément i=1 λi li est donc dans le noyau de f donc est égal à 0E par injectivité de
f . Comme la famille {l1 , · · · , ls } est libre, on a finalement λ1 = · · · = λs = 0 ce qui prouve l’assertion. 

Corollaire 3.3.3. Soit f une application linéaire de E dans F avec E de dimension finie.
(1) Im f est un espace vectoriel de type fini.
(2) En général dim(Im f ) ≤ dim(E). Si f est injective, l’image d’une base par f est une base de Im f et
dim(Im f ) = dim(E).
Preuve. (1) Même si F est de dimension infinie, la même preuve que la proposition précédente montre
que Im f est engendré par l’image d’une famille génératrice de E que l’on peut supposer finie puisque E
est de dimension finie.
(2) Soit B une base de E. Alors, par (1), f (B) engendre Im f qui est de type fini. Par le théorème
de la base incomplète 2.6.8, on peut en extraire une base donc dim(E) ≥ dim(Im f ). Si de plus f est
injective, par la proposition précédente, f (B) est à la fois libre dans Im f et génératrice de Im f . C’en est
donc une base. Ainsi, dim(E) = dim(Im f ). 

3.3.2 Théorème du rang


Le théorème du rang est un résultat primordial d’algèbre linéaire qui a de nombreuses applications dans
la pratique. Le corollaire 3.3.3 nous permet de poser la définition suivante :
Définition 3.3.4. Si f est une application linéaire de E dans F et si E est de dimension finie, on appelle
rang d’une application linéaire la dimension du K-espace vectoriel Im f . On le note rang(f ).
En fait, le rang d’une application linéaire est le rang d’un certain système de vecteurs.
Proposition 3.3.5. Si {e1 , · · · , en } est une base de E, le rang de f , application linéaire de E dans un
espace vectoriel quelconque F est le rang du système de vecteurs {f (e1 ), · · · , f (en )}.
Preuve. C’est clair d’après le corollaire 3.3.3 

50
Théorème 3.3.6 (Théorème du rang). Soient E un espace vectoriel de dimension finie, F un espace
vectoriel quelconque et f : E → F une application linéaire. Alors

dim(E) = dim(ker f ) + dim(Im f ) = dim(ker f ) + rang(f ).

Preuve. Puisque ker f est un sous-espace vectoriel de E, on a p = dim(ker f ) ≤ dim(E) = n d’après


la proposition 2.6.9. Soit C = {e1 , · · · , ep } une base de ker f . C’est un système libre de E donc, d’après
le théorème de la base incomplète 2.5.1, on peut trouver (n − p) vecteurs de E ep+1 , · · · , en tels que
B = {e1 , · · · , ep , ep+1 , · · · , en } soit une base de E.
Considérons alors le sous-espace vectoriel E 0 = hep+1 , · · · , en i. On sait que E = ker f ⊕ E 0 par le
théorème 2.6.12 puisque la réunion d’une base de ker f et d’une base de E 0 est une base de E.
Soit x ∈ E. Alors il existe un unique n-uplet (x1 , · · · , xn ) ∈ K n tel que x = x1 e1 + · · · + xn en (ce
n-uplet représente les coordonnées de x dans la base B). Par construction de B et par linéarité de f , on a

f (x) = x1 f (e1 ) + · · · + xp f (ep ) +xP


p+1 f (ep+1 ) + · · · + xn f (en )
n .
= 0 + i=p+1 xi f (ei )

Cela signifie donc que Im f est engendré par la famille {f (ep+1 ), · · · , f (en )}.
Montrons que la famille {f (ep+1 ), · · · , f (en )} est libre. Pour tous λp+1 , · · · , λn ∈ K supposons que
n
X
λp+1 f (ep+1 ) + · · · + λn f (en ) = 0F = f ( λi ei ).
i=p+1
Pn
Le vecteur i=p+1 λi ei est donc un élément de ker f mais c’est aussi un élément de E 0 par définition
Pn
donc il est dans ker f ∩ E 0 = {0E } (par somme directe). Ainsi i=p+1 λi ei = 0E mais comme la
famille{ep+1 , · · · , en } est libre on obtient λp+1 = · · · = λn = 0.
On obtient donc que la famille {f (ep+1 ), · · · , f (en )} est une base de Im f . Enfin,

dim(E) = n = p + (n − p) = dim(ker f ) + dim(Im f ).

Attention. Une erreur récurrente chez les étudiants est de déduire du théorème du rang que les espaces
vectoriels ker f et Im f sont supplémentaires, ce qui est faux puisgu’en général, ce ne sont pas des sous-
espaces vectoriels du même espace. Mais même quand E = F , c’est faux en général.

3.3.3 Caractérisation des isomorphismes


On donne dans cette sous-section des conséquences importantes du théorème du rang.
Théorème 3.3.7. Soient E et F deux K-espaces vectoriels de dimension finie et f une application linéaire
de E dans F .
(1) L’application f est surjective si et seulement si dim(Im f ) = dim(F ) ou encore si et seulement si
dim(ker f ) = dim(E) − dim(F ) ou encore si et seulement si l’image de toute base de E est une famille
génératrice de F .
(2) L’application f est injective si et seulement si dim(ker f ) = 0 ou encore si et seulement si dim(Im f ) =
dim(E) ou si et seulement si l’image d’une base de E est une famille libre de F .
(3) L’application f est bijective si et seulement si f est injective et dim(E) = dim(F ) ou encore si et
seulement si f est surjective et dim(E) = dim(F ) ou encore si et seulement si l’image d’une base de E est
une base de F .

51
Preuve. (1) L’application f est surjective si et seulement si Im f = F si et seulement si dim(Im f ) =
dim(F ) si et seulement si dim(ker f ) = dim(E) − dim(F ) par le théorème du rang 3.3.6. Si f est sur-
jective, Im f = F et d’après la proposition 3.3.2(1), l’image d’une base est une famille génératrice de F .
Réciproquement, si l’image d’une base de E est une famille génératrice de F , tout élément de F peut être
atteint par f donc f est surjective.
(2) L’application f est injective si et seulement si ker f = {0E } si et seulement si dim(ker f ) = 0 si et
seulement si dim(Im f ) = dim(E) par le théorème du rang 3.3.6. Si f est injective, la proposition 3.3.2(2)
montre que l’image d’une base est une famille libre. Réciproquement, si l’image d’une base est une famille
libre de F , f est injective puisque deux éléments distincts de E ne peuvent avoir pour image des éléments
ayant la même décomposition selon cette famille libre de F .
(3) L’application f est bijective si et seulement si elle est injective et surjective si et seulement si
dim(ker f ) = 0 et dim(F ) = dim(Im f ) si et seulement si f est injective (resp. f est surjective) et
dim(E) = dim(F ) d’après le théorème du rang 3.3.6. Par (1) et (2), f est bijective si et seulement si
l’image d’une base par f est une base. 

Corollaire 3.3.8. Soient E et F deux espaces vectoriels de dimension finie tels que dim(E) = dim(F )
et f une application linéaire de E dans F . Alors f est injective si et seulement si f est surjective si et
seulement si f est bijective. L’équivalence précédente est en particulier valable si f est un endomorphisme
d’un espace vectoriel de dimension finie.
Preuve. Cela provient du fait que la condition dim(E) = dim(F ) du théorème précédent est ici automa-
tique. 

Attention. Attention, les résultats précédents ne sont pas vrais en dimension infinie. En effet, considérons
la dérivation comme en 3.1.3(4). La dérivation induit un endomorphisme surjectif de l’espace vectoriel des
fonctions polynômiales dans lui-même mais n’est pas injectif puisque son noyau est le sous-espace vectoriel
des fonctions constantes.

3.3.4 Classification des espaces vectoriels à isomorphisme près


Théorème 3.3.9. Soient E et F eux espaces vectoriels de dimension finie. Alors E et F sont isomorphes
en tant que K-espaces vectoriels si et seulement si dim(E) = dim(F ).
Preuve. Si E et F sont isomorphes, il existe une application linéaire bijective f : E → F . D’après le
théorème du rang 3.3.6, on a donc dim(E) = dim(F ).
Réciproquement, supposons dim(E) = dim(F ) = n. Soient {e1 , · · · , en } une base de E et {e01 , · · · e0n }
une base de F . D’après le théorème 3.3.1, il existe une unique application linéaire telle que f (ei ) = e0i .
Puisque l’image d’une base de E par f est une base de F , on en déduit que f est bijective d’après le
théorème 3.3.7. C’est donc un isomorphisme de E sur F . 

Corollaire 3.3.10. E est un K-espace vectoriel de dimension finie n si et seulement si E est isomorphe
à K n .
Preuve. Le sens indirect est clair. Si E est de dimension n sur K, comme K n est un K-espace vectoriel
de dimension n, le théorème précédent assure l’existence d’un isomorphisme entre E et K n . 

Ces résultats signifient donc que la dimension classifie complètement les K-espaces vectoriels à iso-
morphisme près, c’est à dire que la classe d’équivalence d’un espace vectoriel sur K, pour la relation

52
d’équivalence entre deux espaces vectoriels sur K définie par l’existence d’un isomorphisme entre les deux,
ne dépend que de sa dimension. Pour les espaces vectoriels de dimension finie, la dimension est donc la
notion qui remplace le cardinal pour les ensembles finis.
On pourrait arrêter là la théorie des espaces vectoriels mais on a introduit au cours de l’étude un nouvel
objet : l’application linéaire ou le morphisme d’espaces vectoriels. Il nous faut maintenant classifier les
couples d’espaces vectoriels munis d’un morphisme entre l’un et l’autre. Lesquels se ressemblent ?
Un autre argument pour poursuivre l’étude est le suivant. Il n’existe pas toujours d’isomorphisme
canonique entre deux espaces vectoriels, c’est à dire ne dépendant pas du choix d’une base. Comme la
démonstration des résultats précédents reposent sur le choix d’une base, il va nous falloir affiner notre
critère de classification.

3.4 Formes linéaires


3.4.1 Hyperplans
Le but de cette sous-section est de caractériser les hyperplans en terme de formes linéaires. On a le résultat
suivant.
Proposition 3.4.1. Soit H un sous-espace vectoriel d’un K-espace vectoriel E de dimension finie. Alors
H est un hyperplan si et seulement si il existe une forme linéaire l non nulle sur E telle que H = ker l.
Preuve. Si l est une forme linéaire non nulle sur E alors dim(Im l) 6= 0. Or c’est un sous-espace vectoriel
de K qui est de dimension 1 sur K. Donc Im l = K. D’après le théorème du rang, dim(ker l) = dim(E) − 1
ce qui prouve que ker l est bien un hyperplan de E.
Réciproquement, soit H un hyperplan de E et soit W un supplémentaire de H dans E (qui existe
d’après 2.6.17). Alors W est de dimension 1 donc si w ∈ W , w 6= 0E alors {w} est une K-base de W .
Soit l l’application de E dans K qui à x associe la coordonnée dans la base {w} de sa projection sur
W parallèlement à H. L’application l est linéaire puisque composée de deux applications linéaires (la
projection et l’application coordonnée). C’est donc une forme linéaire, non nulle car w a pour image 1 et
dont le noyau est H. 

En conséquence, donnons l’équation d’un hyperplan dans une base. Soit H un hyperplan de E et
soit {e1 , · · · , en } une base de E. Soit l une forme linéaire non nulle dont H est le noyau. Pour chaque
1 ≤ i ≤ n, on pose ai = l(ei ). Si x ∈ E soient (x1 , · · · , xn ) ses coordonnées dans la base choisie.Alors, on
a
n
X n
X n
X
l(x) = l( xi ei ) = xi l(ei ) = ai xi .
i=1 i=1 i=1
Pn
Comme H = ker l, on en déduit que x ∈ H si et seulement si i=1 ai xi = 0. C’est une équation linéaire
de H.
Remarque 3.4.2. Deux formes linéaires partant de E ont pour noyau le même hyperplan si et seulement
si elles sont proportionnelles. Le sens indirect est évident. Pour le sens direct, si H = ker l = ker h a pour
supplémentaire W = hwi dans E, alors l et h ne dépendent que de leur valeur en w, et ces deux valeurs
(non nulles puisque le noyau est un hyperplan) sont proportionnelles, donc il en va de même pour l et h.

3.4.2 Systèmes d’équations d’un sous-espace vectoriel


Le but de cette sous-section est de donner une preuve du théorème 2.7.8 que l’on a admis à la fin du
chapitre précédent. Commençons par généraliser le résultat de la sous-section précédente.

53
Théorème 3.4.3. Tout sous-espace vectoriel F d’un espace vectoriel de dimension finie E est le noyau
d’une application linéaire de rang dim(E) − dim(F ).

Preuve. Si F = E alors l’application nulle convient. Sinon, soit G un supplémentaire de F dans E.


On considère la projection p sur G parallèlement à F . C’est une application linéaire et on a ker p = F
et Im p = G d’après la proposition 8.3.14. On en déduit que p est une application linéaire de rang
dim(E) − dim(F ) dont F est le noyau. 

On peut maintenant prouver le théorème attendu. Rappelons son énoncé.

Théorème. Tout sous-espace vectoriel F d’un espace vectoriel E de dimension finie admet un système
d’équations linéaires formé de (dim(E) − dim(F )) équations à dim(E) inconnues.
Preuve. Si E = F , il n’y a rien à montrer. Sinon, soit {f1 , · · · , fp } une base de F . Soit G un
supplémentaire de F dans E (il a pour dimension n − p) et {fp+1 , · · · , fn } une base de G. D’après
le théorème 2.6.12, la concaténation de la base de F et de G donne une base de E.
Un élément x ∈ E appartient à F si et seulement
Tn si ses (n − p) dernières coordonnées dans la base
{f1 , · · · , fn } sont nulles. On en déduit que F = i=p+1 ker(li ) où li est la forme linéaire de E qui à x ∈ E
associe sa i-ième coordonnée dans la base {f1 , · · · , fn }. Cela signifie que F est l’intersection de n − p
hyperplans. Le sous-espace vectoriel F est donc l’ensemble des éléments de E qui vérifient simultanément
les équations de chacun de ces hyperplans. Ainsi, x ∈ F si et seulement si il est solution d’un système
d’équations linéaires de n − p équations à n inconnues. 

54
Chapitre 4

Matrices

4.1 Introduction
Soient E et F deux K-espaces vectoriels de dimensions respectives p et n et soient B = {e1 , · · · , ep } une
base de E et B 0 = {f1 , · · · , fn } une base de F . Soit f une application linéaire de E dans F .
Dans le théorème 3.3.1, on a vu que f est uniquement déterminée par les e0j = f (ej ) pour j = 1, · · · , p.
En effet, si x a pour coordonnées (x1 , · · · , xp ) dans la base B, alors
p
X
f (x) = xj e0j ,
j=1

par linéarité.
Or, les coordonnées des e0j dans la base B 0 déterminent complètement les e0j = f (ej ) donc elles
déterminent complètement f . Désignons par (a1,j , a2,j , · · · , an,j ) les coordonnées de e0j = f (ej ) dans
la base B 0 . Pour connaı̂tre f , il suffit donc de connaı̂tre ces np scalaires et chaque np-uplet de scalaires
détermine ainsi une unique application linéaire f .
Plutôt que d’écrire ces scalaires sous formes de liste, il peut être plus pratique, puisqu’il y a deux
variables, de les mettre sous forme d’un tableau. Cela suggère la définition suivante.
Définition 4.1.1. Soient E un K-espace vectoriel de dimension p et F un K-espace vectoriel de dimension
n. Soient B = {e1 , · · · , ep } une base de E et B 0 = {f1 , · · · , fn } une base de F . On appelle matrice de
l’application linéaire f de E dans F par rapport aux bases B et B 0 et on note MatB,B0 (f ) le tableau à n
lignes et p colonnes tel que, pour 1 ≤ j ≤ p, la j-ième colonne contient les coordonnées du vecteur f (ej )
dans la base B 0 , c’est à dire
 
a1,1 · · · a1,j · · · a1,p
 a2,1 · · · a2,j · · · a2,p 
MatB,B0 (f ) =  . ..  ,
 
..
 .. . . 
an,1 · · · an,j · · · an,p

où  
a1,j
 a2,j 
f (ej )|B0 : 
 
.. 
 . 
an,j

55
sont les coordonnées de f (ej ) dans la base B 0 pour 1 ≤ j ≤ p.
Remarque 4.1.2. Dans ce tableau, les colonnes sont les coordonnées de f (ej ) dans la base B 0 et la i-ième
ligne représente les coordonnées de chacun des vecteurs f (ej ) sur fi .
On a prouvé :
Théorème 4.1.3. Une application linéaire d’un K-espace vectoriel E de dimension p dans un K-espace
vectoriel F de dimension n est entièrement déterminée par la donnée de sa matrice dans une base B de
E et une base B 0 de F .

Remarque 4.1.4. Si E = F et si B = B 0 , la matrice de f dans la base B et la base B est appelée la


matrice de f dans la base B et notée MatB (f ).
Reprenons les notations de la définition. Si x ∈ E a pour coordonnées (x1 , · · · , xp ) dans la base B, on
a
p
X p
X n
X p
X n
X n
X p
X
f (x) = xj e0j = xj ( ai,j fi ) = xj ai,j fi = ( ai,j xj )fi .
j=1 j=1 i=1 j=1 i=1 i=1 j=1

Ceci signifie donc que les coordonnées de f (x) dans la base B 0 sont
p
X p
X p
X
( a1,j xj , a2,j xj , · · · , an,j xj ).
j=1 j=1 j=1

Encore une fois, il est pratique de résumer cela par de tableaux de scalaires.

Définition 4.1.5. (1) On appelle matrice du vecteur X de E dans la base B le tableau à n lignes et 1
colonne formée de ses coordonnées dans la base B noté XB .
(2) On appelle matrice de la famille de vecteurs {u1 , · · · , um } de E dans la base B le tableau à n lignes et
m colonnes dont les colonnes sont les coordonnées des vecteurs ui , 1 ≤ i ≤ m dans la base B.
Ce qui précède montre que la connaissance dePpXB et de MatB,B0 (f ) induit celle de Y = f (X)B0 et
donne une règle de calcul : pour 1 ≤ i ≤ n, yi = j=1 ai,j xj .
Dans la suite de ce chapitre, nous allons définir un produit entre matrices qui permette d’écrire

f (X)B0 = MatB,B0 (f ).XB .(∗)

De plus, on a vu que l’application qui à f associe sa matrice dans des bases données est bijective.
Nous allons définir deux loi internes et une loi externe sur l’ensemble des matrices de façon à ce que cette
bijection soit un un isomorphisme d’espaces vectoriels en général et un isomorphisme d’algèbres dans le
cas où n = p.

4.2 Différents types de matrices


Cette section contient les définitions de différents types de matrices qui nous seront utiles tout au long de
ce cours. Nous donnons à chaque fois l’interprétation en terme d’application linéaire.

56
4.2.1 Matrice de type (n, p)
Définition 4.2.1. On appelle matrice de type (n, p) à coefficients dans K un tableau à n lignes et p
colones du type  
a1,1 · · · a1,j ··· a1,p
 a2,1 · · · a2,j ··· a2,p 
.
 
 .. .. ..
 . . . 
an,1 · · · an,j ··· an,p
où ai,j ∈ K pour 1 ≤ i ≤ n et 1 ≤ j ≤ p. Pour simplifier, cette matrice pourra être notée (ai,j )1≤i≤n,1≤j≤p
ou (ai,j ) si le type est sous-entendu. Le scalaire ai,j est appelée le terme d’indice (i, j) de la matrice.
L’ensemble des matrices de type (n, p) à coefficients dans K est noté Mn,p (K).
Exemple 4.2.2. Si on pose A = ((−1)i+j ) ∈ M3,4 (R) et B = (ikl ) ∈ M4,2 (C), on a
 
  i −1
1 −1 1 −1  −1 1 
A =  −1 1 −1 1  , B =   −i −1  .

1 −1 1 −1
1 1

Interprétation. Si f est une application linéaire d’un K-espace vectoriel de dimension m dans un K-
espace vectoriel de dimension q et si B est une base de l’espace de départ et B 0 une base de l’espace d’arrivée
alors sa matrice MatB,B0 (f ) est une matrice de type (q, m). Il faut faire attention : il y a autant de lignes
que la dimension de l’espace d’arrivée et autant de colonnes que la dimension de l’espace de départ.
Réciproquement toute matrice de type (q, m) peut être considère comme la matrice d’une application
linéaire de K m dans K q rapportés à leurs bases canoniques.
Définition 4.2.3. (1) On appelle matrice nulle et on note 0n,p la matrice dont tous les coefficients sont
nuls.
(2) On appelle matrice colonne (ou vecteur colonne), toute matrice de type (n, 1)
 
b1
 b2 
C =  . .
 
 .. 
bn

(3) On appelle matrice ligne (ou vecteur ligne), toute matrice de type (1, p)

L = (a1 a2 · · · ap ).

Interprétation. (1) La matrice nulle à est la matrice de l’application nulle de K p dans K n dans des
bases quelconques.
(2) Une matrice colonne à n lignes représente une application linéaire de K dans K n .
(3) Une matrice ligne à p lignes représente une application linéaire de K p dans K : c’est donc la matrice
d’une forme linéaire sur K.

4.2.2 Matrices carrées


Définition 4.2.4. On appelle matrice carrée de taille n une matrice A = (ai,j ) de type (n, n). Les termes
ai,i pour i = 1, · · · , n sont appelés termes de la diagonale principale. L’ensemble des matrices carrées de
taille n à coefficients dans K est noté Mn (K). La matrice carrée nulle de taille n est notée 0n .

57
Interprétation. Une matrice carrée de taille n à coefficients dans K peut être considérée comme la
matrice d’un endomorphisme de K n rapporté à sa base canonique.

Définition 4.2.5. On appelle matrice diagonale de taille n, toute matrice carrée A de taille n dont tous
les coefficients sont nuls, sauf peut-être ceux de la diagonale principale : A = (ai,j ) avec ai,j = 0 si i 6= j.
Parfois, on pourra la noter Diag(a1 , · · · , an ).
Définition 4.2.6. On appelle matrice scalaire de taille n, toute matrice diagonale de taille n dont tous
les coefficients diagonaux sont égaux. On la note Diag(a, a, · · · , a).

Interprétation. (1) Si a 6= 0, la matrice scalaire Diag(a, a, · · · , a) est celle de l’homothétie de rapport a


de K n .
(2) Si a = 0, c’est celle de l’endomorphisme nul de K n .
Définition 4.2.7. On appelle matrice unité de taille n ou matrice identité et on note In la matrice carrée
telle que1 ai i, j = δi,j :  
1 0 ··· 0
 0 1 ··· 0 
In =  . . . .
 
 .. .. . . ... 

0 0 ··· 1
Interprétation. In est la matrice de l’application identique de K n dans une base quelconque. La notation
In nous permet aussi de désigner une matrice scalaire par a.In au lieu de Diag(a, a, · · · , a).
Définition 4.2.8. (1) On appelle matrice triangulaire supérieure, toute matrice carrée T dont tous les
coefficients au dessous de la diagonale sont nuls : ∀(i, j) ∈ {1, · · · , n}2 , (i > j ⇒ ai,j = 0) :
 
a1,1 a1,2 a1,3 · · · a1,n
 0 a2,2 a2,3 · · · a2,n 
 .. .. 
 
.. ..
T =  . . . . .

 . . . .
 .. .. .. .. 

0 ··· ··· 0 an,n

(2) On appelle matrice triangulaire inférieure, toute matrice carrée T 0 dont tous les coefficients au dessus
de la diagonale sont nuls : ∀(i, j) ∈ {1, · · · , n}2 , (i < j ⇒ ai,j = 0) :

··· ···
 
a1,1 0 0
 .. .. 
 a2,1
 a2,2 . . 

T =  ...
0 .. .. ..
.
 
 . . . 
 . ..
 ..

. 0 
an,1 an,2 ··· ··· an,n

(3) L’ensemble des matrices triangulaires supérieures de taille n à coefficients dans K est noté Tn (K).
L’ensemble des matrices triangulaires supérieures de taille n à coefficients dans K est noté In (K).
Remarque 4.2.9. Une matrice diagonale de taille n est à la fois triangulaire supérieure et triangulaire
inférieure de taille n.
1 rappelons que δi,j est le symbole de Kronecker, c’est à dire que δi,i = 1 et δi,j = 0 pour i 6= j.

58
4.2.3 Transposée d’une matrice
Définition 4.2.10. Soit A ∈ Mn,p (K). On appelle transposée de A et on note t A, la matrice de Mp,n (K)
obtenue de la façon suivante

A = (ai,j )1≤i≤n,1≤j≤p ⇐⇒ t A = (a0i,j )1≤i≤p,1≤j≤n ,

avec a0i,j = aj,i pour tout i ∈ {1, · · · , p} et pour tout j ∈ {1, · · · , n}.

Exemple 4.2.11.  
  1 0
1 4 −6 t
A= , A= 4 8 .
0 8 3
−6 3

Remarques 4.2.12. (1) Si C est une matrice colonne à p colonnes alors t C est une matrice ligne à p
lignes et réciproquement.
(2) Si A est une matrice triangulaire supérieure alors t A est une matrice triangulaire inférieure et réciproquement.
Définition 4.2.13. (1) Une matrice A est dite symétrique si elle est égale à sa transposée : A = t A.
(2) Une matrice A est dite antisymétrique si elle est égale à l’opposée de sa transposée : t A = −A.
Proposition 4.2.14. Une matrice symétrique ou antisymétrique est nécessairement une matrice carrée.
Preuve. Si A ∈ Mn,p (K) alors t A ∈ Mp,n (K). Si elles sont égales ou opposées, on a nécessairement
n = p. 

4.3 Structure de K-espace vectoriel de Mn,p (K)


4.3.1 Structure
Pour munir l’ensemble Mn,p (K) d’une structure de K-espace vectoriel, nous allons l’identifier à un en-
semble dont on sait qu’il possède une structure de K-espace vectoriel.
Pour cela, remarquons qu’une matrice de Mn,p (K) est une application de {1, · · · , n} × {1, · · · , p} dans
K et réciproquement. On peut donc identifier les ensembles Mn,p (K) et A({1, · · · , n} × {1, · · · , p}, K).
Nous avons vu que ce dernier ensemble est naturellement un K-espace vectoriel pour la somme des appli-
cations et pour le produit d’une application par un scalaire. Nous allons donc pouvoir transporter ces lois
à l’ensemble Mn,p (K).

Égalité de deux matrices


Par définition de l’égalité de deux applications, deux matrices sont égales si et seulement si elles ont le
même type et si elles ont les mêmes coefficients.
Exemple 4.3.1.
   
1 a 3 5 α 2 β γ α = 1, β = 3, γ = 5
= ⇐⇒ .
b 2 c d 0 2 3 1 a = 2, b = 0, c = 3, d = 1

59
Addition des matrices
Par définition de la somme de deux applications, on peut définir la somme (notée +) de deux matrices
A = (ai,j ), B = (bi,j ) ∈ Mn,p (K) par

A + B = (ai,j ) + (bi,j ) = (ai,j + bi,j ) ∈ Mn,p (K).

Cette loi est, par définition, une loi de composition interne sur Mn,p (K).

Exemple 4.3.2.      
2 3 −5 9 1 2 11 4 −3
+ = .
7 0 −1 −6 5 −3 1 5 −4

Proposition 4.3.3. L’ensemble (Mn,p (K), +) est un groupe abélien.


Preuve. Tout vient du fait que (A({1, · · · , n} × {1, · · · , p}, K), +)
b est un groupe abélien. Précisons que
l’élément neutre de Mn,p (K) est la matrice nulle 0n,p et que l’opposé de A = (ai,j ) est −A := (−ai,j ). 

Multiplication d’une matrice par un scalaire


Soient λ ∈ K et A = (ai,j ) ∈ Mn,p (K). Par définition du produit d’une application par un scalaire, on a

λ.A = λ.(ai,j ) = (λai,j ).

C’est une loi de composition externe par K sur Mn,p (K). On a donc :

Théorème 4.3.4. L’ensemble (Mn,p (K), +, .) est un K-espace vectoriel.


Preuve. (A({1, · · · , n} × {1, · · · , p}, K), +
b , b. ) est un K-espace vectoriel. 

Nous pouvons donc utiliser dans Mn,p (K) tous les résultats que nous avons prouvé (à commencer par
les règles de calcul) pour les K-espaces vectoriels. Notre prochaine tâche va être d’en exhiber une K-base.

4.3.2 Base canonique de Mn,p (K)


Définition 4.3.5. On appelle matrice élémentaire de Mn,p (K) et on note Eij toute matrice à n lignes
et p colonnes dont tous les coefficients sont nuls sauf un coefficient ai,j qui vaut 1 :


 
0 0 ··· ··· 0
 .. .. 
 . . 
 
Eij = i → 
 0 ··· 1 ··· 0  .
 .. 
 0 . 
0 0 ··· ··· 0
Il y a donc np matrices élémentaires.
Proposition 4.3.6. Les np matrices élémentaires Eij de Mn,p (K) forment une K-base de Mn,p (K)
appelée base canonique.

60
Preuve. Si A = (ai,j ) ∈ Mn,p (K) alors se décompose de la façon suivante
A = a1,1 .E11 + a1,2 .E12 + · · · + ai,j .Eij + · · · + an,p .Enp .
Cela prouve que la famille proposée engendre Mn,p (K). Mais puisque deux matrices de même type sont
égales si et seulement si leurs coefficients sont égaux, la famille proposée est également libre : c’est donc
une base de Mn,p (K). 

Corollaire 4.3.7. Mn,p (K) est un K-espace vectoriel de dimension np. Il est isomorphe à K np . En
particulier, Mn (K) est un K-espace vectoriel de dimension n2 .
Preuve. La proposition précédente donne une K-base de Mn,p (K) : son cardinal est donc la dimension
de Mn,p (K). D’après le corollaire 3.3.10, on en déduit que Mn,p (K) est isomorphe à K np . 

Exemple 4.3.8. (1) On montre aisément que l’ensemble Sn (K) (resp. An (K)) des matrices symétriques
n(n + 1) n(n − 1
(resp. antisymétriques) est un sous-espace vectoriel de Mn (K) de dimension (resp. ).
0
2 2
(2) Les ensembles Tn (K) et Tn (K) des matrices triangulaires supérieures et inférieures sont aussi des
n(n + 1)
sous-espaces vectoriels de Mn (K) de dimension .
2

4.3.3 Matrices et applications linéaires


Nous allons maintenant relier les ensembles L(E, F ) et Mn,p (K) pour certains entiers n, p par le biais de
la matrice d’une application linéaire définie dans l’introduction de ce chapitre.
Soient E un K-espace vectoriel de dimension p et F un K-espace vectoriel de dimension n et fixons
une base B = {e1 , · · · , ep } de E et une base {f1 , · · · , fn } de F . On considère l’application :

L(E, F ) → Mn,p (K)
ΦB,B0 :
f 7→ MatB,B0 (f )
C’est effectivement une application puisque pour toute application linéaire f de E dans F il existe une
unique matrice de f dans les bases B et B 0 (théorème 4.1.3).
L’application ΦB,B0 est bijective car pour toute matrice A = (ai,j P) n∈ Mn,p (K), il existe une unique
application linéaire f ∈ L(E, F ) telle que pour j = 1, · · · , p, f (ej ) = i=1 ai,j fi (théorème 3.3.1).
Théorème 4.3.9. (1) La bijection ΦB,B0 de L(E, F ) dans Mn,p (K) possède les propriétés suivantes
(f = g) ⇐⇒ MatB,B0 (f ) = MatB,B0 (g);
Mat(f + g) = MatB,B0 (f ) + MatB,B0 (g);
MatB,B0 (λ.f ) = λ.MatB,B0 (f ),
pour tous f, g ∈ L(E, F ) et pour tout λ ∈ K.
(2) ΦB,B0 induit un isomorphisme de K-espaces vectoriels entre L(E, F ) et Mn,p (K). En particulier,
End(E) est un K-espace vectoriel isomorphe à Mp (K) de dimension p2 sur K.
Preuve. (1) On a déjà vu que ΦB,B0 est bijective. La première équivalence est évidente par définition de
l’égalité de deux applications et de deux matrices.
Soient λ, µ ∈ K, f, g ∈ L(E, F ) et notons MatB,B0 (f ) = (ai,j ) et MatB,B0 (g) = (bi,j ). Alors pour
j = 1, · · · , p,
n
X n
X n
X n
X n
X
f (ej ) = ai,j fi , g(ej ) = bi,j fi et (λ.f + µ.g)(ej ) = (λ.ai,j + µ.bi,j )fi = λ. ai,j fi + µ. bi,j fi .
i=1 i=1 i=1 i=1 i=1

61
Cela signifie bien que Mat(λ.f + µ.g) = λ.MatB,B0 (f ) + µ.MatB,B0 (g). On en déduit la seconde et la
troisième égalité.
(2) On a montré en (1) que ΦB,B0 est une application linéaire et elle est bijective donc c’est un isomor-
phisme de K-espaces vectoriels. 

Remarque 4.3.10. Au vu de ce théorème, on voit qu’on aurait également pu définir la somme de deux
matrices (resp. le produit par un scalaire d’une matrice) comme la matrice de la somme des deux applica-
tions linéaires représentées par ces matrices dans les bases canoniques (resp. par le produit par un scalaire
de la matrice du produit par un scalaire d’une application linéaire représentée par cette matrice dans les
bases canoniques).

4.4 Produit matriciel


Dans cette section, nous allons définir un produit matriciel de manière à ce que la matrice de la composée
de deux applications linéaires, quand cela existe, soit le produit des matrices qui les représentent. Cela
nous permettra d’aboutir au but que nous nous étions fixé à la fin de la section 4.1. Nous commençons
donc par étudier la composée de deux applications linéaires.

4.4.1 Matrice de la composée de deux applications linéaires


Soient E, F, G trois espaces vectoriels sur K de dimension finie, de bases respectives B = {e1 , · · · , ep },
B 0 = {f1 , · · · , fn }, B 00 = {g1 , · · · , gm }. Soient f : E → F et g : F → G. On a déjà vu que g ◦ f existe et
est une application linéaire (proposition 3.2.2).
Soient MatB,B0 (f ) = A = (ai,j )1≤i≤n,1≤j≤p et MatB0 ,B00 (g) = B = (bi,j )1≤i≤m,1≤j≤n . Soit MatB,B00 (g ◦
f ) = C = (ci,j )1≤i≤m,1≤j≤p . Exprimons les coefficients de C en fonction de ceux de A et de B.
Soit j ∈ {1, · · · , p}. Alors d’une part
n
X n
X n
X m
X m
X n
X
(g ◦ f )(ej ) = g ( ai,j fi ) = ai,j g(fi ) = ai,j ( bk,i gk ) = ( bk,i ai,j )gk
i=1 i=1 i=1 k=1 k=1 i=1

et d’autre part
m
X
(g ◦ f )(ej ) = ck,j gk .
k=1

Cela signifie donc que l’on a


n
X
ck,j = bk,i ai,j .
i=1

pour tous k ∈ {1, · · · , m}, j ∈ {1, · · · , p}.

4.4.2 Définition du produit de matrices


Définition 4.4.1. Le produit de la matrice B = (bi,j ) à m lignes et n colonnes par la matrice A = (ai,j )
à n lignes et p colonnes est la matrice C = (ci,j ) à m lignes et p colonnes telle que
p
X
pour 1 ≤ i ≤ m, 1 ≤ j ≤ p, ci,j = bi,k ak,j .
k=1

62
Remarques 4.4.2. (1) De même que l’on ne peut pas composer toutes les applications entre elles, on
ne peut pas multiplier toutes les matrices entre elles : le produit de deux matrices n’est possible que si
le nombre de colonnes de la première est égal au nombre de lignes de la seconde. En particulier, dans
Mn (K), tout produit de matrices est possible.
(2) Pour obtenir le coefficient situé à l’intersection de la i-ième ligne et de la j-ième colonne de la matrice
produit, on multiplie terme à terme la i-ième ligne de la matrice de gauche par la j-ième colonne de la
matrice de droite et on ajoute les produits : on fait ainsi le produit scalaire du i-ième vecteur ligne de la
matrice de gauche avec le j-ième vecteur colonne de la matrice de droite.
Exemples 4.4.3. (1) La produit de deux matrices triangulaires supérieures (resp. inférieures) de taille
n est possible et est une matrice triangulaire supérieure (resp. inférieure) de taille n. En conséquence, le
produit de deux matrices diagonales de taille n est une matrice diagonale de taille n.
(2) Le produit d’une matrice ligne de type (1, n) par une matrice colonne de type (n, 1) est une matrice
de type (1, 1), c’est à dire est un scalaire de K. Cela s’apparente au produit scalaire des vecteurs corre-
spondants.
(3) Le produit d’une matrice colonne par une matrice ligne peut toujours se faire et donne une matrice
rectangulaire.
D’après la sous-section précédente, on peut constater que :
Proposition 4.4.4. Soient f : E → F et g : F → G deux applications linéaires et B, B 0 , B 00 des bases
respectives des espaces vectoriels E, F et G. Soient A = MatB,B0 (f ) et B = MatB0 ,B00 (g). Alors
MatB,B00 (g ◦ f ) = BA.
Preuve. Voir sous-section précédente : le produit matriciel a été construit pour satisfaire ce résultat. 

Le produit matriciel tel qu’on l’a défini permet aussi de prouver la formule (∗) en fin de section 4.1.
Proposition 4.4.5. Soient f : E → F une application linéaire, B = {e1 , · · · , ep } et B 0 = {f1 , · · · , fn }
des bases respectives de E et F . Alors, si X ∈ E,
f (X)B0 = MatB,B0 (f ).XB .
Preuve. On pose MatB,B0 (f ) = (ai,j ) ∈ Mn,p (K). Comme XB est une matrice de type (p, 1) le produit
MatB,B0 (f ).XB est possible et donne une matrice de type (n, 1). Si X a pour coordonnées (x1 , · · · , xp )
dans la base B, alors pour 1 ≤ i ≤ n, si MatB,B0 (f ).XB = (bi,1 ) ∈ Mn,1 (K),
p
X
bi,1 = ai,j xj .
j=1

D’autre part, on a vu dans l’introduction que


n
X p
X n
X
f (X) = ( ai,j xj )fi = bi,1 fi ,
i=1 j=1 i=1

ce qui prouve la proposition. 

Proposition 4.4.6. Soient A, B ∈ Mn,p (K). Alors ces deux matrices sont égales si et seulement si pour
toute matrice colonne à p lignes X, on a AX = BX.
Preuve. Le sens direct est évident. Dans l’autre sens, soient f, g : K p → K n ayant pour matrice
respectivement A et B dans les bases canoniques. Alors, d’après la proposition précédente, AX = BX
équivaut à f (x) = g(x) pour tout x ∈ K p . Donc f = g et finalement A = B. 

63
4.4.3 Structure d’algèbre de Mn (K) et propriétés du produit matriciel
Reprenons les notations de la sous-section 4.3.3.
Proposition 4.4.7. Soient E, F, G trois espaces vectoriels sur K de dimension finie, de bases respectives
B = {e1 , · · · , ep }, B 0 = {f1 , · · · , fn }, B 00 = {g1 , · · · , gm }. Soient f : E → F et g : F → G. Alors
MatB,B0 (g ◦ f ) = MatB0 ,B00 (g) × MatB,B0 (f ),
soit
ΦB,B00 (g ◦ f ) = ΦB0 ,B00 (g) × ΦB,B0 (f ),
où × est le produit matriciel.
,
Preuve. Tout a été fait dans les sous-sections précédentes. 

Proposition 4.4.8. Si les produits de matrices suivants existent, pour des matrices A, A0 , B, B 0 , C et
λ ∈ K,
(A + A0 )B = AB + A0 B; A(B + B 0 ) = AB + AB 0 ; λ(AB) = (λA)B = A(λB); (AB)C = A(BC).
Preuve. Ce sont de simples vérifications. 

Théorème 4.4.9. (Mn (K), +, ., ×), où × est le produit matriciel est une K-algèbre.
Preuve. On sait déjà que (Mn (K), +, .)est un K-espace vectoriel d’après le théorème 4.3.4. Il reste à voir
que (Mn (K), +, ×)est un anneau ce qui est clair d’après la proposition précédente. Notons que l’élément
unité de cet anneau est la matrice identité In . 

Théorème 4.4.10. Soient E un K-espace vectoriel de dimension finie n et B une base de E. Alors il
existe un isomorphisme de K-algèbres ΦB : End(E) → Mn (K).
Preuve. On reprend les notations de la sous-section 4.3.3 et on pose ΦB ; = ΦB,B , c’est à dire que

End(E) → Mn (K)
ΦB ,
f 7→ MatB (f )
où MatB (f ) est la matrice de f dans les bases B et B. Alors, d’après le théorème 4.3.9, c’est un isomor-
phisme de K-espace vectoriels. Il reste à voir que c’est un morphisme d’anneaux. Mais, on a Φ(IdE ) = In
et d’autre part, d’après la proposition 4.4.7,
ΦB (f ◦ g) = ΦB (f ) × ΦB (g),
ce qui conclut la preuve. 

Attention. (1) Si dim(E) ≥ 2, les anneaux End(E) et Mn (K) sont non commutatifs : cela se déduit du
théorème 3.2.4 et du fait que deux anneaux isomorphes sont simultanément commutatifs ou non commu-
tatifs.
(2) Si dim(E) ≥ 2, l’anneau Mn (K) est non intègre. Autrement dit, dans Mn (K), on peut avoir AB = AC
et B 6= C comme on peut le vérifier pour n = 2 avec
     
1 3 −3 −3 6 −3
A= , B= , C= ,
2 6 1 1 −2 1
qui peut fournit un contre-exemple pour tout n naturellement. On en déduit que End(E) n’est pas intègre
non plus puisqu’il est isomorphe en tant qu’anneau à Mn (K).

64
4.4.4 Puissances de matrices
Nous souhaitons prendre des notations lorsque l’on veut multiplier une matrice avec elle-même. D’après
ce qui précède, cela impose que la matrice soit carrée.
Définition 4.4.11. Si k est un entier naturel, on appelle puissance k-ième de la matrice carrée A ∈
Mn (K) et on note Ak la matrice définie de la façon suivante : A0 = In , A1 = A et si k ≥ 2, Ak = Ak−1 .A.
Remarque 4.4.12. On peut avoir une matrice non nulle dont une puissance entière est nulle. Par exemple
   
0 0 2 0 0
A= , A = = 02 .
1 0 0 0

Définition 4.4.13. Une matrice carrée de taille n est dite nilpotente s’il existe k ∈ N tel que Ak = 0n .
Puisque End(E) et Mn (K) sont des K-algèbres, on peut faire dans ces deux ensembles des calculs
analogues à ceux de R, en faisant attention toutefois à la non commutativité et à la non intégrité. En
particulier, on peut parler de polynômes d’endomorphismes ou de matrices :

λm .Am + · · · + λ1 .A + λ0 .In = 0.

On verra que ces polynômes de matrices ou d’endomorphismes jouent un grand rôle dans la réduction des
endomorphismes au chapitre 6.

4.5 Rang d’une matrice et matrices inversibles


4.5.1 Rang d’une matrice
Définition 4.5.1. On appelle rang d’une matrice A ∈ Mn,p (K) le rang de la famille de l’espace vectoriel
n formée de ses vecteurs colonnes. Ce rang est noté rang(A).

Cette notion peut se relier naturellement au rang d’une application linéaire.


Proposition 4.5.2. Le rang d’une application linéaire est égal au rang de sa matrice dans des bases
quelconques.
Preuve. Soient f : E → F une application linéaire et B = {e1 , · · · , ep } (resp. B 0 ) une base de E (resp.
F ). Si A = MatB,B0 (f ) alors, par définition, les vecteurs colonnes de A sont les coordonnées des f (ej ) dans
la base B 0 . Or, une famille de vecteurs est libre si et seulement si la famille des vecteurs formés par leurs
coordonnées (dans une base quelconque) est libre. Cela signifie que le rang de A vaut celui du système
de vecteurs {f (e1 ), · · · , f (ep )}. Mais ce système engendre Im f puisque {e1 , · · · , ep } est une base de E
(proposition 3.3.2). On en déduit que le rang de A est égal au rang de f . 

4.5.2 Groupe linéaire


Caractérisation des automorphismes
Théorème 4.5.3. Soit E un espace vectoriel de dimension n. Alors f ∈ GL(E) si et seulement si il existe
g ∈ End(E) tel que
f ◦ g = IdE .

65
Preuve. Dans le sens direct, si f ∈ GL(E), il existe g ∈ GL(E), g = f −1 telle que f ◦ g = IdE (rappelons
que g est linéaire d’après la proposition 3.2.2).
Réciproquement, s’il existe g ∈ End(E) tel que f ◦ g = IdE alors g est injective donc bijective d’après
le corollaire 3.3.8. Donc g −1 existe et
f = f ◦ (g ◦ g −1 ) = (f ◦ g) ◦ g −1 = IdE ◦ g −1 = g −1 ,
d’où l’on déduit que f = g −1 . Donc f est inversible pour la composition et son inverse est g. 

Remarque 4.5.4. Il est assez remarquable de voir que, dans un espace vectoriel de dimension finie,
l’inversibilité à droite (ou à gauche) suffit pour avoir l’inversibilité malgré la non commutativité. Cela
provient du théorème du rang.

Matrices inversibles
Définition 4.5.5. Une matrice A est inversible s’il existe une matrice B et un entier n tel que AB =
BA = In . La matrice B est alors appelée l’inverse de A et notée A−1 .
Remarque 4.5.6. Supposons A ∈ Mn,p (K) inversible. Il existe alors B telle que AB = In ce qui impose
B ∈ Mp,n (K). Mais alors BA ∈ Mp (K) et comme BA = In , on en déduit que n = p. Donc si A est
inversible, c’est une matrice carrée.
Exemples 4.5.7. (1) La matrice nulle 0n n’est pas inversible car pour tout M ∈ Mn (K), 0n .M = M.0n =
0n .
(2) La matrice identité est inversible et est sa propre inverse.
(3) Une matrice M = (a) ∈ M1 (K) est inversible si et seulement si a 6= 0 et alors M −1 = (a−1 ).
 
a b
(4) Soit A = ∈ M2 (K) est inversible si et seulement si ad − bc 6= 0 et dans ce cas
c d
 
1 d −b
A−1 = .
ad − bc −c a
On peut montrer cela par un calcul mais nous verrons la raison profonde de ceci dans le chapitre suivant.
Définition 4.5.8. Le groupe des matrices inversibles à coefficients dans le corps K est noté GLn (K).
Théorème 4.5.9. Soit f ∈ L(E, F ) où E et F sont de dimension respectives p et n. Soient B une base
de E et B 0 une base de F . Alors
f est bijective ⇐⇒ (p = n) et MatB,B0 (f ) ∈ GLn (K).
Preuve. Supposons f bijective. Alors, d’après la proposition 3.2.2 et le théorème du rang, (n = p) et
f −1 ∈ L(F, E). Soient A = MatB,B0 (f ) et B = M atB0 ,B (f −1 ). D’après la proposition 4.4.7, on a
In = MatB (IdE ) = MatB (f ◦ f −1 ) = MatB0 ,B (f −1 )MatB,B0 (f )
soit BA = In . De même, AB = In ce qui prouve que A est inversible comme attendu.
Réciproquement si A = MatB,B0 (f ) est inversible, d’inverse B alors AB = In . Soit g ∈ L(F, E) une
application linéaire telle que MatB0 ,B (g) = B (elle existe puisque ΦB0 ,B est surjective). Alors, par 4.4.7
IdE = (ΦB )−1 (In ) = (ΦB )−1 (AB) = Φ−1 −1
B,B0 (A) ◦ ΦB0 ,B (B) = f ◦ g

et de même g ◦ f = IdE puisque BA = In . Cela prouve que f est bijective et f −1 = g. 

Nous pouvons maintenant caractériser les matrices inversibles.

66
Proposition 4.5.10. Si A ∈ Mn (K), les assertions suivantes sont équivalentes :
(1) A est inversible.
(2) A est inversible à droite (resp. à gauche).
(3) rang(A) = n.
(4) A est la matrice d’un isomorphisme d’espaces vectoriels.
Preuve. On va montrer (2) ⇒ (1) ⇒ (4) ⇒ (3) ⇒ (2).
Montrons que (2) ⇒ (1). Supposons A inversible à droite alors il existe B ∈ Mn (K) telle que AB = In .
Notons A = MatB (f ) et B = MatB (g) pour f, g ∈ End(E) et pour une certaine base B de E. Si on
applique (ΦB )−1 à l’égalité AB = In , on en déduit que f ◦ g = IdE . D’après le théorème 4.5.3, g est
bijective donc f aussi. D’après le théorème 4.5.9, on en déduit bien que A ∈ GLn (K).
Montrons que (1) ⇒ (4). Si A est inversible et si on pose A = MatB (f ) avec f ∈ End(E) alors le
théorème 4.5.9 montre que f est bijective donc c’est un automorphisme d’espaces vectoriels dont A est la
matrice.
Montrons que (4) ⇒ (3) et supposons que A = MatB (f ) où f ∈ L(E, F ) est un isomorphisme. D’après
la proposition 4.5.2, rang(A) = rang(f ). Mais comme f est un isomorphisme, d’après le théorème du rang,
rang(f ) = n.
Montrons enfin que (3) ⇒ (2) et supposons que rang(A) = n. Soit A = MatB (f ). Alors, d’après la
proposition 4.5.2, rang(f ) = n donc f est bijective par le théorème du rang. D’après le théorème 4.5.9, A
est inversible donc inversible à droite. 

Corollaire 4.5.11. On reprend les notations du théorème 4.4.10. Alors ΦB induit un isomorphisme de
groupes ΦB : GL(E) → GLn (K).
Preuve. Tout isomorphisme d’anneaux induit un isomorphisme de groupes entre les groupes des in-
versibles de chacun des anneaux. 

4.6 Changement de base


Cette section est primordiale pour la compréhension de la suite du cours.

4.6.1 Matrices de passage


Soit E un espace vectoriel de dimension n rapporté à une base B = {e1 , · · · , en }. Soit {u1 , · · · , un } une
famille de vecteurs de E.
Proposition 4.6.1. La famille {u1 , · · · , un } est une base de E si et seulement si il existe f ∈ Aut(E) tel
que
∀i ∈ {1, · · · , n}, f (ei ) = ui .
Preuve. On sait déjà (3.3.1) qu’il existe un unique endomorphisme f de E tel que f (ei ) = ui pour tout
i ∈ {1, · · · , n}.
Supposons que {u1 , · · · , un } est une famille libreP
et cherchons ker f . Soit x ∈ ker f alors, comme x se
n
décompose d’une unique manière sous la forme x = i=1 xi ei ,
n
X n
X
0E = f (x) = f ( xi ei ) = xi ui .
i=1 i=1

67
d’où x1 = · · · = xn = 0 puisque la famille {u1 , · · · , un } est libre. Cela prouve que f est injective. D’après
le théorème du rang, f est bijective donc f ∈ GL(E).
Pn
Supposons maintenant que f est bijective donc injective et considérons i=1 λi ui = 0 c’est à dire
n
X n
X
0E = λi f (ei ) = f ( λi ei ).
i=1 i=1
Pn Pn
Alors i=1 λi ei ∈ ker f d’où i=1 λi ei = 0 par injectivité. Puisque la famille {e1 , · · · , en } est libre,
λ1 = · · · λn = 0. Cela implique que la famille de cardinal n {u1 , · · · , un } est libre dans l’espace vectoriel
E de dimension n : c’en est donc une base. 

Définition 4.6.2. Soient B = {e1 , · · · , en } et B 0 = {e01 , · · · , e0n } deux bases de E. On appelle matrice de
passage de la base B à la base B 0 la matrice dans la base B de l’automorphisme f de E défini par

∀i ∈ {1, · · · , n}, f (ei ) = e0i .

Cette matrice est notée PasB,B0 .

Remarques 4.6.3. (1) L’automorphisme f de la définition existe et est unique d’après la proposition
4.6.1 et le théorème 3.3.1 donc la définition a un sens.
(2) La matrice de passage de la base B à la base B 0 est la matrice des coordonnées des nouveaux vecteurs
e0i exprimés à l’aide des anciens vecteurs ei : pour j = 1, · · · , n, on a
n
X
e0j = ai,j ej , PasB,B0 = (ai,j ).
i=1

(3) De façon alternative, la matrice de passage PasB,B0 est la matrice MatB0 ,B (IdE ).
Exemple 4.6.4. On considère E = R2 [X] rapporté à sa base canonique B = {1, X, X 2 }. On considère la
famille B 0 = {1, 1 + X, 1 + X 2 }. On montre facilement qu’elle est libre et de cardinal 3 avec dim(E) = 3
donc c’est une base de E. On a  
1 1 1
PasB,B0 =  0 1 0  .
0 0 1

Proposition 4.6.5. On reprend les notations de la définition précédente. Alors PasB,B0 ∈ GLn (K) et

P = PasB,B0 ⇐⇒ P −1 = PasB0 ,B .

Preuve. La matrice PasB,B0 est la matrice d’un automorphisme de E par définition donc elle est inversible
par la proposition 4.5.10. En outre puisque

f (ei ) = e0i ⇐⇒ e0i = f −1 (ei ),

on en déduit l’équivalence. 

68
4.6.2 Effet des changements de bases sur les vecteurs
Théorème 4.6.6. Si XB est le vecteur colonne des coordonnées du vecteur X de E dans la base B, XB0
celui des coordonnées de X dans la base B 0 alors

XB0 = PasB0 B .XB

ou
XB = PasB,B0 .XB0 .

Preuve. Soient B = {e1 , · · · , en } et B 0 = {e01 , · · · , e0n }. Soit f P


l’unique automorphisme de E qui fait
n Pn
passer de B à B 0 (il existe d’après 4.6.1). Si X ∈ E, écrivons X = i=1 xi ei = i=1 x0i e0i alors
n
X n
X
−1
X= xi f (e0i ) =f −1
( xi e0i ).
i=1 i=1
Pn
Notons alors Y = i=1 xi e0i ∈ E. On vient de voir que X = f −1 (Y ). D’après la proposition 4.4.5, cela
signifie que
XB0 = MatB0 (f −1 ).YB0 .
Or MatB0 (f −1 ) = PasB0 ,B d’après la proposition 4.6.5. De plus YB0 = XB d’où
−1
XB0 = PasB0 ,B .XB = (PasB,B0 ) .XB .

Proposition 4.6.7. Soient B = {e1 , · · · , en }, B 0 = {e01 , · · · , e0n } et B 00 = {e001 , · · · , e00n } trois bases de E.
Alors
PasB,B00 = PasB,B0 .PasB0 ,B00 .

Preuve. On utilise le théorème 4.6.6. Soit X ∈ E quelconque. Alors XB = PasB,B0 .XB0 et XB0 =
PasB0 ,B00 .XB00 donc XB = (PasB,B0 PasB0 ,B00 )XB00 . Comme d’autre part, XB = PasB,B00 .XB00 , on en déduit
que
(PasB,B0 PasB0 ,B00 )XB00 = PasB,B00 .XB00 ,
pour tout X ∈ E et donc, d’après la proposition 4.4.6,

PasB,B00 = PasB,B0 .PasB0 ,B00 .

4.6.3 Effets des changements de bases sur les applications linéaires


Soient E un espace vectoriel de dimension p, F un espace vectoriel de dimension n et f ∈ L(E, F ). On a
vu que la matrice de f dépend des bases choisies dans E et dans F . Nous allons étudier ce qu’il se passe
lorsque l’on change ces bases.
Soient B et B 0 deux bases de E, C et C 0 deux bases de F . Soient X ∈ E et Y = f (X). Matriciellement,
si f est munie de la base B au départ et de la base C à l’arrivée, cette égalité devient

YC = MatB,C (f ).XB .

69
De même si f est munie de la base B 0 au départ et de la base C 0 à l’arrivée,

YC 0 = MatB0 ,C 0 (f ).XB0

Mais,d’après le théorème 4.6.6, on a YC = PasC,C 0 .YC 0 et XB = PasB,B0 .XB0 donc

PasC,C 0 .YC 0 = YC = MatB,C (f ).XB = (MatB,C (f )PasB,B0 ).XB0 ,

d’où
YC 0 = (Pas−1
C,C 0 MatB,C (f )PasB,B0 )XB0 .

Comme d’autre part, YC 0 = MatB0 ,C 0 (f ).XB0 , on en déduit que

MatB0 ,C 0 (f ) = Pas−1
C,C 0 MatB,C (f )PasB,B0 ,

d’où le théorème suivant :


Théorème 4.6.8. Si f ∈ L(E, F ), B et B 0 deux bases de E, C et C 0 deux bases de F , A = MatB,C (f ),
A0 = MatB0 ,C 0 (f ), P = PasB,B0 et Q = PasC,C 0 , on a

A0 = Q−1 AP.

Définition 4.6.9. Deux matrices A, A0 ∈ Mn,p (K) sont dites équivalentes s’il existe une matrice in-
versible P de taille n et une matrice inversible Q de taille p telles que A0 = Q−1 AP . Etre équivalentes est
une relation d’équivalence sur Mn,p (K).
Proposition 4.6.10. Deux matrices équivalentes représentent la même application linéaire dans des bases
différentes.
Preuve. Cela provient du théorème précédent. 

4.6.4 Effets des changements de bases sur les endomorphismes


Corollaire 4.6.11. Soient E un espace vectoriel de dimension n, f ∈ End(E), B et B 0 deux bases de E,
A = MatB (f ), A = MatB0 (f ) et P = PasB,B0 alors

A0 = P −1 AP.

Preuve. On applique le théorème 4.6.8 avec C = B, C 0 = B 0 . Comme Q = PasB,B0 = P , on en déduit


immédiatement le résultat. 

Définition 4.6.12. Deux matrices A, A0 ∈ Mn (K) sont dites semblables s’il existe une matrice P
inversible de taille n telle que A0 = P −1 AP . Être semblables est une relation d’équivalence sur Mn (K).
Proposition 4.6.13. Deux matrices semblables représentent le même endomorphisme de K n dans des
bases différentes.

70
4.6.5 Équivalence et similitude de matrices
Dans la sous-section précédente, nous avons défini les notions de matrices équivalentes (resp. semblables).
On sait qu’elles représentent la même application linéaire (resp. le même endomorphisme) dans des
bases différentes. Être équivalentes (resp. être semblables) est une relation d’équivalence mais comment
reconnaı̂tre deux matrices qui sont dans la même classe d’équivalence (resp. de similitude) ? Nous allons
voir que le rang va nous y aider.
Théorème 4.6.14. Une matrice A ∈ Mn,p (K) est de rang r si et seulement si elle est équivalente à la
matrice bloc  
Ir 0
Mr = ∈ Mn,p (K),
0 0
c’est à dire la matrice (ai,j )1≤i≤n,1≤j≤p définie par ai,i = 1 si 1 ≤ i ≤ r et ai,j = 0 sinon.
Preuve. Dans le sens indirect, si A est équivalente à la matrice Mr de l’énoncé, ces matrices représentent
la même application linéaire f dans des bases différentes. Or, le rang de f est, par définition, la dimension
de Im f qui ne dépend pas des bases choisies. D’après la proposition 4.5.2, rang(A) = rang(f ) = rang(Mr ).
Or, on a clairement rang(Mr ) = r d’où le résultat.
Réciproquement, soient A une matrice de rang r. On peut supposer que A = MatB,B0 (f ) où f ∈
L(E, F ), dim(E) = p, dim(F ) = n et B et C sont les bases canoniques respectives de E et F . Comme
A est de rang r, dim(Im f ) = rang(f ) = r d’après la proposition 4.5.2. Soit {g1 , · · · , gr } une base de
Im f et soient e1 , · · · , er tels que f (ei ) = gi pour i = 1, · · · , r (ils existent puisque les gi sont dans l’image
2
de f ). Comme T la famille {g1 , · · · , gr } est libre, il en va de même pour la famille {e1 , · · · , er } . De plus,
he1 , · · · , er i ker f = {0} et d’après le théorème du rang, r + dim(ker f ) = dim(E). D’après le corollaire
2.6.16, he1 , · · · er i et ker f sont supplémentaires dans E. D’après le théorème 2.6.12, la concaténation d’une
base de he1 , · · · , er i et d’une base de ker f est une base de E. Soit alors {er+1 , · · · , ep } une base de ker f
et posons B 0 = {e1 , · · · , er , er+1 , · · · , ep } : c’est une base de E. D’après le théorème de la base incomplète,
on peut compléter la famille {g1 , · · · , gr } en une base C 0 = {g1 , · · · , gn } de F . D’après le théorème 4.6.8,
A et MatB0 ,C 0 (f ) sont équivalentes. Or, si i = 1, · · · , r, les coordonnées de f (ei ) dans la base C 0 sont
(0, · · · , 0, 1, 0, · · · , 0) avec un 1 à la i-ième position et si i ≥ r + 1, les coordonnées de f (ei ) dans la base
C 0 sont nulles puisque ei ∈ ker f . Ainsi, MatBb0 ,C 0 = Mr et on en déduit le résultat. 

Corollaire 4.6.15. Deux matrices sont équivalentes si et seulement si elles ont le même rang.

Preuve. Si deux matrices sont équivalentes, elles ont le même rang puisqu’elles représentent la même
application linéaire dans des bases différentes.
Réciproquement, si deux matrices ont le même rang, elles sont équivalentes à la matrice Mr du théorème
4.6.14 donc sont équivalentes entre elles par transitivité. 

Notons que si deux matrices sont semblables alors elles ont même rang (puisqu’elles sont en particulier
équivalentes). En revanche, la réciproque est fausse (trouver un contre-exemple !).3
2 puisqu’une relation de dépendance linéaire entre les les ei en donne une entre les gi par linéarité de f .
3 Une condition nécessaire est suffisante pour que deux matrices soient semblables est qu’elles aient mêmes facteurs invari-
ants : ce résultat fondamental est toutefois hors de portée du présent cours.

71
4.7 Matrices et systèmes
4.7.1 Discussion
Considérons un système S de n équations à p inconnues (avec second membre) à coefficients dans K.
L’ensemble des solutions de ce système est un sous-espace affine de l’espace affine K p de direction l’ensemble
des solutions du système sans le second membre (qui est un sous-espace vectoriel de l’espace vectoriel K p
d’après 2.3.4(2)). Nous allons maintenant utiliser l’outil matriciel pour résoudre ce système.
Pp
Pour cela, notons x1 , · · · , xp les inconnues de S et i=1 ai,j xj = bi la i-ième ligne de S.
Définition 4.7.1. Avec les notations précédentes, la matrice A = (ai,j )1≤i≤n,1≤j≤p est appelée matrice
du système S et la matrice colonne B = (bi )1≤i≤n de type (n, 1) est le second membre du système. La
matrice colonne X = (xj )1≤j≤p de type (p, 1) est la matrice des inconnues. Le rang du système S est, par
définition, le rang de la matrice A. On utilise parfois la notation (A|B) pour désigner la matrice augmentée
de S, c’est à dire la matrice de Mn,p+1 (K) construite en accolant la matrice colonne B à droite de la
matrice A.
Le système S s’écrit alors B = AX. Soient E un espace vectoriel de dimension p muni d’une base B,
F un espace vectoriel de dimension n muni d’une base C et f ∈ L(E, F ) telle que A = MatB,C (f ). Soient
b ∈ F tel que B = bC et x ∈ E tel que X = xB . Le système équivaut encore à f (x) = b.
On peut faire les constatations suivantes :
-Le système a une solution si et seulement si b ∈ Im f , c’est à dire si et seulement si le rang de la
matrice augmentée est égal au rang de A. Dans ce cas on dit que le système est compatible. C’est en
particulier le cas lorsque rang(A) = n car alors f est surjective.
-La dimension de l’espace affine des solutions est 0 si le système n’est pas compatible. Si le système
est compatible, la dimension de l’espace affine des solutions est, par définition, la dimension de l’espace
vectoriel des solutions du système sans second membre, c’est à dire la dimension de ker f . D’après le
théorème du rang, dim(E) = dim(ker f ) + rang(f ) = dim(ker f ) + rang(A) donc dim(ker f ) = dim(E) −
rang(A) = p − rang(A).
-Si Q ∈ GLn (K), B = AX équivaut à Q−1 B = Q−1 AX. Si de plus P ∈ GLp (K), et si on fait le
changement de variables Y = P −1 X, alors le système équivaut à B 0 = A0 Y où B 0 = Q−1 B et A0 = Q−1 AP .
D’après le théorème 4.6.8, cela signifie simplement que l’on change de base au départ et à l’arrivée.
-Si A ∈ GLn (K), c’est à dire si rang(A) = n = p d’après la proposition 4.5.10 alors on a un système
carré et quel que soit B, le système a une unique solution qui est X = A−1 B. Ceci n’est vrai pour tout B
que si A ∈ GLn (K).

4.7.2 Résolution théorique du système


Les résultats de ce chapitre vont nous permettre de résoudre le système en théorie. On conserve les
notations ci-dessus et on note r le rang de A. D’après le théorème 4.6.14, la matrice A est équivalente à
la matrice  
Ir 0
Mr = ∈ Mn,p (K).
0 0
D’après le théorème 4.6.8 et la définition des matrices équivalentes, il existe B 0 une base de E, C 0 une base
de F telles que MatB0 ,C 0 (f ) = Mr et on a

Mr = Q−1 AP, où Q = PasC,C 0 , P = PasB,B0 .

72
Comme le système s’écrit B = AX = QMr P −1 X, on a Q−1 B = Mr P −1 X. Or, d’après le théorème
4.6.6, Y = P −1 X est la matrice colonne des coordonnées de X dans la base B 0 et C = Q−1 B est la matrice
colonne des coordonnées de B dans le base C 0 . Le système équivaut alors à
   
y1 c1
 ..   .. 
 .   . 
   
C = Mr Y, où Y =  y
 r 
 , C =  cr  .
 
 .   . 
 ..   .. 
yp cn

Or,  
y1
 .. 
 . 
 
 yr 
 0 .
Mr Y =  
 
 . 
 .. 
0
Cela signifie donc que le système équivaut à

c1 = y1 , c2 = y2 , · · · , cr = yr , cr+1 = · · · = cn = 0.

Le système est donc compatible si et seulement si cr+1 = · · · = cn = 0 (conditions de compatibilité) et X


est solution du système si et seulement si
 
c1
 c2 
 .. 
 
 . 
 
X = PY = P   cr  .

 yr+1 
 
 . 
 .. 
yp

On trouve donc l’ensemble des solutions sous forme de système paramétré à p − r paramètres (ce sont les
yr+1 , · · · , yp ), appelées inconnues auxiliaires.

4.7.3 Résolution pratique du système


D’après la résolution théorique, il s’agit pratiquement de passer de la matrice A à la matrice Mr en
effectuant des opérations élémentaires. Rappelons ce que l’on entend par là.

Définition 4.7.2. Soit A une matrice. On appelle opération élémentaire une des opérations suivantes :
(1) Multiplication d’une ligne (resp. d’une colonne) par un scalaire non nul;
(2) Ajout d’un multiple quelconque d’une ligne (resp. colonne) à une autre ligne (resp. colonne);
(3) Échange de deux lignes (resp. colonnes).
En fait, on peut représenter les opérations élémentaires matriciellement. Rappelons ces trois types de
matrices.

73
Les matrices de dilatation
On appelle matrice de dilatation toute matrice bloc du type
 
Ii−1 0 0
Dn (i, λ) =  0 λ 0  ∈ Mn (K),
0 0 In−i

où λ 6= 0. Cette matrice est clairement inversible et son inverse est Dn (i, λ−1 ).
Si A ∈ Mn,p (K), multiplier A à gauche par Dn (i, λ) revient à multiplier la i-ième ligne de A par le
scalaire non nul λ. Multiplier à droite par Dp (i, λ) revient à multiplier la i-ième colonne de A par le
scalaire non nul λ.

Les matrices de transvection


On appelle matrice de transvection toute matrice du type

Tn (i, j, λ) := In + λEij ,

où i 6= j, λ ∈ K et Eij est une matrice élémentaire de Mn (K) (voir définition 4.3.5). Une matrice de
transvection est inversible et son inverse est Tn (i, j, −λ).
Si A ∈ Mn,p (K), multiplier A à gauche par Tn (i, j, λ) revient à ajouter à la i-ème ligne de A sa j-ième
ligne multipliée par λ. Multiplier A à droite par Tp (i, j, λ) revient à ajouter à la j-ième colonne de A sa
i-ième colonne multipliée par λ.

Les matrices de transposition


On appelle matrice de transposition toute matrice bloc du type
 
Ii−1 0 0 0 0
 0 0 0 1 0 
 
 0
Sn (i, j) =  0 Ij−i−1 0 0 

 0 1 0 0 0 
0 0 0 0 In−j

où j > i. En d’autres termes, Sn (i, j) est la matrice identité à ceci près qu’on a échangé la i-ième ligne et
la j-ième ligne. Une matrice de transposition est inversible d’inverse elle-même.
Si A ∈ Mn,p (K), multiplier A à gauche par Sn (i, j) revient à échanger la i-ième ligne et la j-ième ligne
de A. Multiplier A à droite par Sn (i, j) revient à échanger la i-ième colonne et la j-ième colonne.

Résolution pratique
Théorème 4.7.3. Lorsqu’on fait subir à une matrice A des opérations élémentaires sur ses lignes ou ses
colonnes, on obtient une matrice A0 équivalente à A.

Preuve. Faire une suite d’opérations élémentaires sur les lignes ou les colonnes de A revient à multiplier à
gauche ou à droite par des matrices de dilatation, de transvection ou de transposition. Puisqu’on a vu que
ces matrices sont inversibles, la matrice A0 obtenue au terme de ces opérations est forcément équivalente
à A. 

74
La résolution pratique passe par la méthode de Gauss. Rappelons que l’on veut passer de A à Mr
au moyen d’opérations élémentaires. On multiplie par des matrices à gauche pour transformer A en une
matrice équivalente du type
 
a1,1 , a1,2 · · · · · · · · · a1,p
 .. .. 
 0 a2,2 . . 
..  ,
 
 . . . .
 .. .. .. .. . 
0 ··· 0 an,n · · · an,p

si on suppose par exemple n > p. Ensuite, on multiplie par des matrices à droite pour aboutir à la matrice
équivalente  
b1,1 , 0 ··· ··· ··· 0
 .. .. 
 0 b2,2 . . 
..  ,
 
 . .. .. ..
 .. . . . . 
0 ··· 0 bn,n 0 0
puis en multipliant à gauche et à droite par des matrices convenables, on aboutit finalement à la matrice
−1
Mr . Si on suppose qu’au bout du compte on a multiplié à gauche par Q−1m · · · Q1 et à droite par P1 · · · Pq ,
−1 −1 −1 −1
alors en posant Q = Qm · · · Q1 et P = P1 · · · Pq , on a bien Q AP = Mr .
Ceci étant, la justification de la possibilité de cette résolution (c’est à dire le fait qu’on aboutira toujours
à la matrice Mr au bout du compte) est conséquence du difficile théorème suivant.
Théorème 4.7.4. Toute matrice inversible est produit de matrices de dilatation, de transvection et de
transposition.
Preuve. Voir le Corollaire 2.12 page 99 dans le livre de Daniel Perrin4 où il est même montré que les
matrices de dilatation et de transvection suffisent. 

Si on admet ce théorème, la résolution pratique précédente est possible. En effet, on sait qu’il existe
deux matrices inversibles Q et P telles que Q−1 AP = Mr . Or d’après le théorème précédent, on sait que
toute matrice inversible est produit de matrices d’opérations élémentaires, c’est à dire qu’on peut écrire
−1
Q−1 = Q−1m · · · Q1 , P = P1 · · · Pq où les Pi et les Qj sont des matrices de dilatation, de transvection ou
de transposition.

4 D. Perrin : Cours d’Algèbre, Ellipses (1996)

75
Chapitre 5

Déterminants

5.1 Groupe symétrique


5.1.1 Généralités
Proposition 5.1.1. Soient E un ensemble et S(E) l’ensemble des bijections de E dans E. Alors S(E)
muni de la composition des applications est un groupe.
Preuve. La composition munit l’ensemble S(E) d’une loi de composition interne associative (puisque la
composition est déjà associative pour les applications). L’élément neutre est IdE et l’inverse d’un élément
f ∈ S(E) est sa bijection réciproque f −1 . 

Définition 5.1.2. (1) Le groupe de la proposition précédente est appelé groupe symétrique et ses éléments
sont appelés permutations de E. Lorsque E = {1, · · · , n}, on note plutôt Sn pour S(E). On montre
aisément par récurrence que le cardinal de Sn est n !.
(2) Une transposition τ ∈ Sn est une permutation qui échange deux éléments de {1, · · · , n} et laisse fixe
tous les autres, c’est à dire τ (i) = j, τ (j) = i et τ (k) = k pour tous k 6= i, j. Cette transposition est notée
(i, j).
Les transpositions constituent les briques élémentaires de Sn puisqu’elles permettent de décrire tous
les éléments de Sn .
Proposition 5.1.3. Soit σ ∈ Sn . Alors il existe des transpositions τ1 , · · · , τr ∈ Sn telles que σ = τ1 ◦· · ·◦τr .
Preuve. On procède par récurrence sur n. La propriété est claire si n = 1, 2. Supposons donc que la
propriété soit vraie pour Sn et soit σ ∈ Sn+1 . Alors, de deux choses l’une : soit σ(n + 1) = n + 1, soit
σ(n + 1) 6= n + 1.
Dans le premier cas, si on pose σ 0 = σ|{1,··· ,n} alors σ 0 ∈ Sn . Par hypothèse de récurrence, on peut
écrire σ 0 = τ1 ◦ · · · ◦ τq où τ1 , · · · , τq ∈ Sn sont des transpositions. Mais on a aussi τ1 , · · · , τq ∈ Sn+1 et
σ = τ1 ◦ · · · ◦ τq .
Dans le second cas, notons τ = (n + 1, σ(n + 1)) ∈ Sn+1 . Alors, on a (τ ◦ σ)(n + 1) = n + 1 donc, d’après
le cas précédent, il existe τ1 , · · · , τq ∈ Sn+1 telles que τ ◦ σ = τ1 ◦ · · · ◦ τq . On conclut en remarquant que
τ est son propre inverse :
σ = τ ◦ τ ◦ σ = τ ◦ τ1 ◦ · · · ◦ τq .


76
Remarques 5.1.4. (1) En langage de théorie des groupes, la proposition précédente exprime le fait que
l’ensemble des transpositions engendre le groupe Sn .
(2) Dans la proposition précédente, la décomposition en composée de transpositions n’est pas unique.
Par exemple, si l’on se place dans S5 et si σ = (3, 5) ◦ (1, 2) ◦ (1, 4), alors on peut aussi écrire σ =
(3, 5) ◦ (2, 4) ◦ (1, 2).

5.1.2 Signature
Définition 5.1.5. Sur Sn , on définit une fonction ε appelée signature par la formule
Y σ(i) − σ(j)
ε(σ) = ,
i−j
(i,j)∈X

où X = {(i, j) | 1 ≤ i < j ≤ n} pour σ ∈ Sn .


Exemple 5.1.6. Montrons qu’une transposition quelconque a pour signature −1. Soit τ = (k, l) ∈ Sn .
τ (j) − τ (i)
Si {i, j} ∩ {k, l} = ∅, on a = 1. Si i < k, on a
j−i
τ (k) − τ (i) τ (l) − τ (i)
. = 1,
k−i l−i
τ (l) − τ (k)
et il en va de même de k < i < l ou si l < i. Enfin, puisque = −1, ε(τ ) = −1.
l−k
Théorème 5.1.7. (1) L’application ε de la définition 5.1.5 est à valeurs dans {±1}.
(2) L’application ε : Sn → {±1} est un morphisme de groupes, surjectif si n ≥ 2.
Preuve. (1) Soit σ ∈ Sn . On définit une fonction f : X → X par f (i, j) = (σ(i), σ(j)) si σ(i) < σ(j),
f (i, j) = (σ(j), σ(i)) sinon. On voit aisément que f est injective. Puisque X est un ensemble fini, f est
donc bijective. Par conséquent, on peut réordonner le numérateur de ε(σ) pour constater que
Y Y
| (σ(j) − σ(i))| = | (j − i)|,
(i,j)∈X (i,j)∈X

ce qui prouve que |ε(σ)| = 1.


(2) Si n ≥ 2, l’application ε est surjective puisque ε(IdE ) = 1 et ε(τ ) = −1 pour toute transposition τ .
Montrons maintenant que c’est un morphisme de groupes. Soient σ, σ 0 ∈ Sn . Alors
Y (σ 0 σ)(j) − (σ 0 σ)(i) Y σ 0 (σ(j)) − σ 0 (σ(i)) Y σ(j) − σ(i)
ε(σ 0 σ) = = . .
j−i σ(j) − σ(i) j−i
(i,j)∈X (i,j)∈X (i,j)∈X

Le second facteur est ε(σ). Montrons que le premier facteur est ε(σ 0 ). Quand les couples (i, j) décrivent
l’ensemble X, il en va de même des couples f (σ(j), σ(i)). En outre,
Y σ 0 (σ(j)) − σ 0 (σ(i)) Y σ 0 (σ(j)) − σ 0 (σ(i)) Y σ 0 (σ(j)) − σ 0 (σ(i))
= . ,
σ(j) − σ(i) σ(j) − σ(i) σ(j) − σ(i)
(i,j)∈X (i,j)∈X1 (i,j)∈X2

où X1 = {(i, j) ∈ X | σ(i) < σ(j)} et X2 = {(i, j) ∈ X | σ(j) < σ(i)}, d’où l’on déduit le résultat. 

On a vu précédemment que la décomposition d’une permutation en transpositions n’était pas unique.


On a tout de même :

77
Corollaire 5.1.8. Si σ ∈ Sn se décompose en produits de transpositions sous la forme σ = τ1 ◦ · · · ◦ τr =
τ10 ◦ · · · ◦ τs0 alors r et s ont même parité.

Preuve. Puisque σ est un morphisme de groupes et que la signature d’une transposition vaut −1, on a
ε(σ) = (−1)r = (−1)s ce qui prouve le résultat. 

Le corollaire précédent donne un sens à la définition suivante.


Définition 5.1.9. On dit qu’une permutation produit d’un nombre pair de transpositions est une per-
mutation paire. Sinon, on dit que c’est une permutation impaire. L’ensemble des permutations paires de
Sn est exactement le noyau du morphisme de signature : celui-ci est noté An et est appelé groupe alterné.
On montre aisément que c’est un sous-groupe de Sn .

5.2 Introduction à la multilinéarité : le cas des formes bilinéaires


Avant de passer au cas général, nous allons mettre en valeur la notion de déterminant d’un système de
deux vecteurs. Dans cette section, E désigne un K-espace vectoriel.

5.2.1 Cas général


Définition 5.2.1. On appelle forme bilinéaire sur E × E ou forme 2-linéaire sur E toute application f
de E × E dans K vérifiant :
(1) pour tout u ∈ E, v 7→ f (u, v) est une forme linéaire sur E;
0
2) pour tout v ∈ E, u 7→ f (u, v) est une forme linéaire sur E.
L’ensemble des formes 2-linéaires sur E est noté L2 (E).

Exemples 5.2.2. (1) On vérifie facilement que f : R3 × R3 → R : ((x1 , y1 , z1 ), (x2 , y2 , z2 )) 7→ x1 y2 +


2x1 x2 + y1 z2 est une forme 2-linéaire sur R3 .
(2) L’application h : R3 × R3 → R : ((x1 , y1 , z1 ), (x2 , y2 , z2 )) 7→ x1 x2 + y1 z2 + 5 n’est pas une forme
2-linéaire sur E = R3 : en effet

h(0E + 0E , 0E ) = 5 6= 10 = h(0E , 0E ) + h(0E , 0E ).

Définition 5.2.3. (1) Une forme 2-linéaire f sur E est dite antisymétrique si pour tous v, w ∈ E, on a
f (v, w) = −f (w, v).
(2) Une forme 2-linéaire f sur E est dite alternée si pour tout v ∈ E, f (v, v) = 0. L’ensemble des formes
2-linéaires alternées sur E est noté A2 (E).

Proposition 5.2.4. Une forme 2-linéaire alternée est antisymétrique. Si on suppose que K est un corps
de caractéristique différente de 2, une forme 2-linéaire antisymétrique est alternée.
Preuve. Soit f une forme 2-linéaire alternée. Alors, pour tous v, w ∈ E, on a

0 = f (v + w, v + w) = f (v, v + w) + f (w, v + w) = f (v, v) + f (v, w) + f (w, v) + f (w; w) = f (v, w) + f (w, v),

d’où l’on déduit le résultat.


Supposons maintenant que K soit un corps de caractéristique différente de 2 et soit f une forme 2-
linéaire antisymétrique. Alors, on a f (v, v) = −f (v, v) pour tout v ∈ E donc 2f (v, v) = 0 puis f (v, v) = 0
puisque la caractéristique de K est différente de 2. 

78
Proposition 5.2.5. L’ensemble L2 (E) est un K-espace vectoriel et l’ensemble A2 (E) en est un sous-
espace vectoriel.
Preuve. On sait que (A(E × E, K), + b , b. ) est un K-espace vectoriel (voir la sous-section 2.2.2). On
vérifie aisément que L2 (E) en est un sous-espace vectoriel et que A2 (E) est à son tour un sous-espace
vectoriel de L(E). 

5.2.2 Formes 2-linéaires alternées sur un espace vectoriel de dimension 2


Nous supposons maintenant que dim(E) = 2 et que {e1 , e2 } est une K-base de E. Soit f une forme
2-linéaire alternée.
Si v, w ∈ E, il existe a, b, c, d ∈ K uniques tels que v = ae1 + be2 et w = ce1 + de2 . Alors, par
bilinéarité,

f (v, w) = af (e1 , w) + bf (e2 , w) = acf (e1 , e1 ) + adf (e1 , e2 ) + bcf (e2 , e1 ) + bdf (e2 , e2 ).

Mais, puisque f est alternée (et donc antisymétrique) f (e1 , e1 ) = 0 = f (e2 , e2 ) et f (e2 , e1 ) = −f (e1 , e2 )
d’où
f (v, w) = (ad − bc)f (e1 , e2 ).
On en déduit le résultat suivant :
Théorème 5.2.6. Soient E un espace vectoriel de dimension 2 sur K et B = {e1 , e2 } une base de E.
(1) Pour tout λ ∈ K, il existe une unique forme 2-linéaire alternée telle que f (e1 , e2 ) = λ.
(2) A2 (E) est un espace vectoriel de dimension 1.

Preuve. (1) En reprenant les notations qui précèdent le théorème, si λ ∈ K on pose f (v, w) = (ad − bc)λ.
Alors f est une forme 2-linéaire alternée sur E telle que f (e1 , e2 ) = λ. L’unicité provient de ce que la
valeur de f (e1 , e2 ) détermine entièrement une forme 2-linéaire alternée (toujours d’après les calculs qui
précèdent le théorème).
(2) Soit f l’unique forme 2-linéaire alternée vérifiant f (e1 , e2 ) = 1 (elle existe d’après (1)). Alors si g
est une forme 2-linéaire alternée, soit λ = g(e1 , e2 ). D’après ce qui précède, on voit que g = λ.f ce qui
prouve que A2 (E) = hf i. La famille {f } est forcément libre donc c’est une base de A2 (E). 

Définition 5.2.7. On reprend les notations du théorème précédent. L’unique forme 2-linéaire alternée
qui vérifie f (e1 , e2 ) = 1 pour une base B = {e1 , e2 } fixée est appelée déterminant dans la base B et notée
detB .
Remarques 5.2.8. (1) Il faut faire attention : le raisonnement ci-dessus n’est vrai que si la dimension
de l’espace vectoriel E est 2. Dans ce cas, si f est une forme 2-linéaire alternée sur E, il existe un scalaire
λ tel que f = λ. detB .
(2) Si v = ae1 + be2 et w = ce1 + de2 alors detB (v, w) = ad − bc. Plus tard, cette relation sera notée

a b
detB (v, w) = = ad − bc.
c d

On a aussi :
Proposition 5.2.9. Si a1 , a2 ∈ E alors le système {a1 , a2 } est libre si et seulement si c’est une base de
E si et seulement si detB (a1 , a2 ) 6= 0.

79
Preuve. La première équivalence provient de la proposition 2.6.7(3).
Si {a1 , a2 } est une base de E, supposons que detB (a1 , a2 ) = 0. Comme {a1 , a2 } est une base de E,
elle engendre E et puisque detB est une forme 2-linéaire alternée, on en déduit que f (v, w) = 0 pour
tous v, w ∈ E (puisque detB (a1 , a2 ) = 0 = detB (a1 , a1 ) = detB (a2 , a2 )). Cela contredit le fait que
detB (e1 , e2 ) = 1 donc detB (a1 , a2 ) 6= 0.
Réciproquement, si {a1 , a2 } est liée, il existe α ∈ K tel que a1 = αa2 donc detB (a1 , a2 ) = detB (a1 , αa2 ) =
αdetB (a1 , a1 ) = 0. 

En fait, les résultats que l’on vient de prouver pour les formes 2-linéaires sur un espace vectoriel de
dimension 2 vont se généraliser au cadre de certaines formes (appelées formes n-linéaires) sur un espace
vectoriel de dimension n.

5.3 Formes n-linéaires alternées


Dans cette section, E désigne un K-espace vectoriel et n un entier supérieur ou égal à 1.

5.3.1 Cas général


Définition 5.3.1. On appelle forme n-linéaire toute application f de E n = E × · · · × E (n fois) dans
K telle que pour tout j ∈ {1, · · · , n} et toute famille de vecteurs (v1 , · · · , vj−1 , vj+1 , · · · , vn ) de E n ,
l’application qui à v ∈ E associe f (v1 , · · · , vj−1 , v, vj+1 , · · · , vn ) est une forme linéaire sur E. L’ensemble
des formes n-linéaires est noté Ln (E).
Remarque 5.3.2. Si n = 1, une forme n-linéaire n’est rien d’autre qu’une forme linéaire. Si n = 2, une
forme n-linéaire est une forme 2-linéaire au sens de la section précédente. Dorénavant, on suppose que
n ≥ 2.
Définition 5.3.3. (1) Une forme n-linéaire f sur E est dite antisymétrique si pour tout (v1 , · · · , vn ) ∈ E n ,

f (vσ(1) , · · · , vσ(n) ) = ε(σ)f (v1 , · · · , vn )

pour tout σ ∈ Sn .
(2) Une forme n-linéaire f sur E est dite alternée si pour tout (v1 , · · · , vn ) ∈ E n , le fait que vi = vj pour
i 6= j implique que f (v1 , · · · , vn ) = 0. L’ensemble des formes n-linéaires alternées de E est noté An (E).
Théorème 5.3.4. (1) Ln (E) est un K-espace vectoriel et An (E) en est un sous-espace vectoriel.
(2) Toute forme n-linéaire alternée est antisymétrique. Si la caractéristique de K est différente de 2, toute
forme n-linéaire antisymétrique est alternée.
(3) Une forme n-linéaire f est antisymétrique si et seulement si pour tous i, j ∈ {1, · · · , n} avec i 6= j, et
pour tout (v1 , · · · , vn ) ∈ E n , on a

f (v1 , · · · , vi−1 , vi , vi+1 , · · · , vj−1 , vj , vj+1 , · · · , vn ) = −f (v1 , · · · , vi−1 , vj , vi+1 , · · · , vj−1 , vi , vj+1 , · · · , vn ),

autrement dit, si et seulement si on a f (vτ (1) , · · · , vτ (n) ) = −f (v1 , · · · , vn ) pour toute transposition τ ∈ Sn
et tout (v1 , · · · , vn ) ∈ E n .
Preuve. (1) Ln (E) est de façon évidente un sous-espace vectoriel de (A(E n , K), +
b , b. ). On vérifie
ensuite que An (E) est un sous-espace vectoriel de Ln (E).
(2) Si f est une forme n-linéaire alternée, on a
0 = f (v1 , · · · , vi−1 , vi + vj , vi+1 , · · · , vj−1 , vi + vj , vj+1 , · · · , vn )
,
= f (v1 , · · · , vi−1 , vi , vi+1 , · · · , vj−1 , vj , vj+1 , · · · , vn ) + f (v1 , · · · , vi−1 , vj , vi+1 , · · · , vj−1 , vi , vj+1 , · · · , vn )

80
ce qui implique que f est antisymétrique.
Si f est une forme n-linéaire antisymétrique et si (v1 , · · · , vn ) ∈ E n avec vi = vj pour i 6= j, on a

f (v1 , · · · , vi−1 , v, vi+1 , · · · , vj−1 , v, vj+1 , · · · , vn ) = −f (v1 , · · · , vi−1 , v, vi+1 , · · · , vj−1 , v, vj+1 , · · · , vn ),

en appliquant la définition à la transposition de Sn qui échange i et j (et dont la signature est −1). Comme
la caractéristique de K est différente de 2, ces deux termes sont nuls.
(3) Si f est antisymétrique, elle vérifie les égalités de l’énoncé puisque toute transposition est un élément
de Sn .
Réciproquement, si σ ∈ Sn , il existe des transpositions τ1 , · · · , τp ∈ Sn telles que σ = τ1 ◦ · · · ◦ τp par
la proposition 5.1.3. On a

f (vσ(1) , · · · , vσ(n) ) = f (vτ1 ((τ2 ◦···◦τp )(1)) , · · · , vτ1 ((τ2 ◦···◦τp )(n)) )
= −f (vτ2 ◦···◦τp (1) , · · · , vτ2 ◦···◦τp (n) ) par hypothèse;
= ε(τ1 )f (vτ2 ◦···◦τp (1) , · · · , vτ2 ◦···◦τp (n) ) puisque la signature de τ1 est − 1;
= ε(τ1 )ε(τ2 )f (vτ3 ◦···◦τp (1) , · · · , vτ3 ◦···◦τp (n) )
= ε(τ1 ◦ τ2 )f (vτ3 ◦···◦τp (1) , · · · , vτ3 ◦···◦τp (n) ) car ε est un morphisme de groupes;
= ε(σ)f (v1 , · · · , vn ) par récurrence immédiate.

Remarque 5.3.5. Dans la section précédente, on a défini une forme 2-linéaire antisymétrique sur E
comme étant une forme 2-linéaire vérifiant f (v, w) = −f (w, v) pour tous v, w ∈ E. Cela équivaut aussi
au fait que f (σ(v), σ(w)) = ε(σ)f (v, w) pour tous v, w ∈ E et tout σ ∈ S2 . En effet, S2 est un ensemble
qui contient deux éléments (l’identité et une transposition τ qui envoie 1 sur 2 et 2 sur 1) et si f est
antisymétrique alors f (τ (v), τ (w)) = f (w, v) = −f (v, w) = ε(τ )f (v, w) pour tous v w ∈ E. La définition
générale de forme n-linéaire antisymétrique est donc bien une généralisation de celle donnée précédemment
dans le cas particulier des formes 2-linéaires.

5.3.2 Formes n-linéaires alternées sur un espace vectoriel de dimension n


Nous supposons maintenant que E est un K-espace vectoriel de dimension n sur K.
Théorème 5.3.6. Soit B = {e1 , · · · en } une base de E et soit λ ∈ K. Alors, il existe une unique
formePn-linéaire alternée sur E telle que f (e1 , · · · , en ) = λ. Plus précisément, si v1 , · · · , vn ∈ E avec
n
vk = i=1 ai,k ei pour k = 1, · · · , n, on a
X
f (v1 , · · · , vn ) = ( ε(σ)aσ(1),1 · · · aσ(n),n ).λ.
σ∈Sn

Preuve. Pour montrer l’existence, il s’agit de voir que l’application f définie dans l’énoncé est effective-
ment une forme n-linéaire alternée vérifiant f (e1 , · · · , en ) = λ. Le fait qu’elle soit n-linéaire est évident.
Ensuite, de la façon dont f est définie
X
f (e1 , · · · , en ) = ( ε(σ)δσ(1),1 · · · δσ(n),n ).λ,
σ∈Sn

81
où δi,j = 1 si i = j, 0 sinon. Ainsi pour qu’un terme de la somme ci-dessus soit non nul il faut et il suffit
que tous les δσ(i),i soit non nul, c’est à dire qu’il faut que pour tout i = 1, · · · , n on ait, σ(i) = i. Donc
σ = Id et la somme ci-dessus ne contient qu’un terme. On a f (e1 , · · · , en ) = λ.
Montrons enfin que f est une forme alternée. Supposons que vi = vj pour i 6= j, et soit τ = (i, j).
Montrons que l’on a Sn = An ∪ An τ où An τ = {σ ◦ τ | σ ∈ An }. On a évidemment An ∪ An τ ⊂ Sn .
Réciproquement, si σ ∈ Sn alors soit σ a pour signature 1, auquel cas elle est élément de An , soit σ a pour
signature −1 et σ ◦ τ = σ 0 ∈ An puis σ = σ 0 ◦ τ puisque τ ◦ τ = Id. Cela étant, on a
X X
f (v1 , . . . , vn ) = ε(σ)aσ(1),1 · · · aσ(n),n + ε(στ )aσ(τ (1)),1 · · · aσ(τ (n)),n .
σ∈An σ∈An

Par définition de τ et puisque vi = vj , on a aσ(τ (k)),k = aσ(k),k pour tout σ ∈ An , et tout k = 1, . . . , n.


Comme on a ε(στ ) = ε(σ)ε(τ ) = −ε(σ), les deux sommes s’annulent mutuellement, et on obtient bien
f (v1 , · · · , vn ) = 0 si vi = vj , i 6= j. Donc f est alternée.
Montrons maintenant l’unicité. Soit ϕ une forme n-linéaire alternée telle que ϕ(e1 , · · · , en ) = λ.
Puisque ϕ est n-linéaire, on a
n
X n
X n
X
ϕ(v1 , · · · , vn ) = ϕ( ai,1 ei , · · · , ai,n ei ) = ai1 ,1 · · · ain ,n ϕ(ei1 , · · · , ein ).
i=1 i=1 i1 ,··· ,in =1

Puisque ϕ est alternée, tous ces termes sont nuls, sauf si les indices i1 , . . . , in sont tous distincts, autrement
dit, sauf s’il existe une permutation σ ∈ Sn telle que ij = σ(j) pour tout j = 1, . . . , n. On a ainsi
Xn n
X X
ϕ(v1 , · · · , vn ) = ϕ( ai,1 ei , · · · , ai,n ei ) = aσ(1),1 · · · aσ(n),n ϕ(eσ(1) , · · · , eσ(n) ).
i=1 i=1 σ∈Sn

Comme ϕ est alternée, elle est antisymétrique et on obtient donc


X
ϕ(v1 , · · · , vn ) = ϕ(e1 , . . . , en ) ε(σ)aσ(1),1 · · · aσ(n),n .
σ∈Sn

Autrement dit, puisque ϕ(e1 , · · · , en ) = λ, on a ϕ = f ce qui prouve l’unicité. 

Définition 5.3.7. Soit E un K-espace vectoriel de dimension n et soit B = {e1 , · · · , en } une base de E.
(1) L’unique forme n-linéaire alternée f qui vérifie f (e1 , · · · , en ) = 1 (elle existe d’après le théorème
précédent) est appelée déterminant dans la base B et notée detB .
(2) Soient v1 , · · · , vn ∈ E. Alors le scalaire detB (v1 , · · · , vn ) ∈ K s’appelle Ple déterminant des vecteurs
n
v1 , · · · , vn ∈ E par rapport à la base B. Ainsi, si (v1 , · · · , vn ) ∈ E n et si vk = i=1 ai,k ei pour k = 1, · · · , n,
on a X
detB (v1 , · · · , vn ) = ε(σ)aσ(1),1 · · · aσ(n),n .
σ∈Sn

Corollaire 5.3.8. (1) L’espace vectoriel An (E) des formes n-linéaires alternées sur un espace vectoriel
E de dimension n de base B = {e1 , · · · , en } est de dimension 1 de base {detB }. De plus, pour toute forme
n-linéaire alternée ϕ, on a

ϕ(v1 , · · · , vn ) = detB (v1 , · · · , vn )ϕ(e1 , · · · , en ),

pour tout (v1 , · · · , vn ) ∈ E n .


(2) Avec les mêmes notations, si a1 , · · · , an ∈ E alors le système {a1 , · · · , an } est libre si et seulement si
c’est une base de E si et seulement si detB (a1 , · · · , an ) 6= 0.

82
Preuve. (1) D’après le théorème 5.3.6, toute forme n-linéaire alternée peut s’écrire ϕ = λ. detB où
λ = ϕ(e1 , · · · , en ). Donc An (E) = hdetB i est de dimension 1. L’autre formule s’en déduit immédiatement.
(2) La première équivalence provient de la proposition 2.6.7(3).
Si {a1 , · · · P
, an } est une base de E, supposons que detB (a1 , · · · , an ) = 0. Alors, on a des écritures
n
uniques ek = i=1 λi,k ai pour k = 1, · · · , n et on a
n
X
1 = detB (e1 , · · · , en ) = λi1 ,1 · · · λin ,n detB (ai1 , · · · , ain ).
i1 ,··· ,in =1

Comme detB est une forme alternée, detB (ai1 , · · · , ain ) = 0 dès qu’il existe ik = il pour k 6= l. Comme de
plus detB (a1 , · · · , an ) = 0, on a
1 = detB (e1 , · · · , en ) = 0,
ce qui est une contradiction. Ainsi, detB (a1 , · · · , an ) 6= 0.
Réciproquement, si la famille {a1 , · · · , an } est liée, l’un des ai (que l’on peut supposer être an quitte
Pn−1
à ré-indexer) est combinaison linéaire des autres éléments. Écrivons an = i=1 λi ai . Alors
n−1
X n−1
X
detB (a1 , · · · , an ) = detB (a1 , · · · , an−1 , λi ai ) = λi detB (a1 , · · · , an−1 , ai ) = 0,
i=1 i=1

puisque detB est alternée. 

5.4 Déterminant d’un endomorphisme


Dans cette section, nous voulons définir le déterminant d’un endomorphisme d’un K-espace vectoriel E
de dimension finie en nous basant des résultats que nous avons établi sur le déterminant d’un système de
vecteurs lors de la section précédente. Nous désignons par E un K-espace vectoriel de dimension n.

5.4.1 Changement de base


Pour définir le déterminant d’un endomorphisme, le résultat clé est le suivant. Sa preuve repose sur le
corollaire 5.3.8.
Proposition 5.4.1. Soit f ∈ End(E) et soient B = {e1 , · · · , en } et B 0 = {e01 , · · · , e0n } deux bases de E.
Alors
detB (f (e1 ), · · · , f (en )) = detB0 (f (e01 ), · · · , f (e0n )).
Preuve. Puisque detB et detB0 sont deux formes n-linéaires alternées sur E, le corollaire 5.3.8(1) nous
permet d’écrire l’égalité suivante :

detB = detB (e01 , · · · , e0n )detB0 .

En évaluant ces formes multilinéaires en (f (e01 ), · · · , f (e0n )), on en déduit que

detB (f (e01 ), · · · , f (e0n )) = detB (e01 , · · · , e0n ).detB0 (f (e01 ), · · · , f (e0n )) (1).

D’autre part on voit aisément que l’application


 n
E → K
g:
(x1 , · · · , xn ) 7→ detB (f (x1 ), · · · , f (xn ))

83
est une forme n-linéaire alternée (par linéarité de f et puisque detB est elle-même une forme n-linéaire
alternée). D’après le corollaire 5.3.8(1), on peut écrire g = g(e1 , · · · , en ) detB . Si on évalue cette forme en
(e01 , · · · , e0n ), on obtient

detB (f (e01 ), · · · , f (e0n )) = g(e01 , · · · , e0n ) = detB (e01 , · · · , e0n ).detB (f (e1 ), · · · , f (en )) (2).

Puisque B 0 est une base de E, le corollaire 5.3.8(2) nous indique que detB (e01 , · · · , e0n ) 6= 0 et on déduit des
égalités (1) et (2) que
detB (f (e1 ), · · · , f (en )) = detB0 (f (e01 ), · · · , f (e0n )).


La proposition précédente donne sens à la définition suivante

Définition 5.4.2. Soit E un K-espace vectoriel de dimension n, et soit f ∈ End(E). Le déterminant de


l’endomorphisme f noté det(f ), est l’élément de K défini par

det(f ) = detB (f (e1 ), · · · , f (en )),

où B = {e1 , · · · , en } est une base de E.

5.4.2 Règles de calcul


Nous regroupons quelques résultats concernant le déterminant d’un endomorphisme dans la proposition
suivante.
Proposition 5.4.3. Soit E un K-espace vectoriel de dimension n, et soient f, g ∈ L(E), λ ∈ K. Alors,
on a les propriétés suivantes :
(1) det(IdE ) = 1.
(2) det(f ◦ g) = det(f ). det(g) = det(g ◦ f ).
(3) det(λ.f ) = λn det(f ).
(4) On a det(f ) 6= 0 si et seulement si f est inversible. Dans ce cas, on a
1
det(f −1 ) = .
det(f )

(5) Soit B une base de E. Pour tout x1 , · · · , xn ∈ E, on a

det(f (x1 ), · · · , f (xn )) = det(f ).detB (x1 , · · · , xn ).

Preuve. Soit B = {e1 , · · · , en } une base de E.

(1) On a
det(IdE ) = detB (IdE (e1 ), · · · , IdE (en )) = detB (e1 , · · · , en ) = 1.
(2) L’application ϕ : E n → K : (x1 , · · · , xn ) 7→ detB (f (x1 ), · · · , f (xn )) est une forme n-linéaire
alternée. D’après le corollaire 5.3.8(1), on a

det(f ◦ g) = detB (f (g(e1 )), · · · , f (g(en )))


= ϕ(g(e1 ), · · · , g(en ))
= ϕ(e1 , · · · , en ).detB (g(e1 ), · · · , g(en ))
= detB (f (e1 ), · · · , f (en )).detB (g(e1 ), · · · , g(en )
= det(f ).det(g)

84
Par symétrie, on a l’autre égalité.
(3) On utilise la multilinéarité de detB :

det(λ.f ) = detB (λ.f (e1 ), · · · , λ.f (en ))


= λn detB (f (e1 ), · · · , f (en )) .
= λn det(f )

(4) D’après la proposition 4.6.1, un endomorphisme f de E est un automorphisme si et seulement si


pour toute base B = {e1 , · · · , en } de E, la famille {f (e1 ), · · · , f (en )} est une base de E. Ceci équivaut
encore au fait que detB (f (e1 ), · · · , f (en )) 6= 0 d’après le corollaire 5.3.8(2), c’est à dire à det(f ) 6= 0. Dans
ce cas, la propriété (2) de cette même proposition (appliquée à l’endomorphisme g = f −1 ) donne

1 = det(IdE ) = det(f ◦ f −1 ) = det(f )det(f −1 ),

d’où l’on déduit le résultat.


(5) Puisque ϕ : E n → K : (x1 , · · · , xn ) 7→ detB (f (x1 ), · · · , f (xn )) est une forme n-linéaire alternée, on
a ϕ = ϕ(e1 , · · · , en ) detB d’après le corollaire 5.3.8(1) d’où le résultat. 

Remarques 5.4.4. (1) La propriété (4) de la proposition précédente caractérise les automorphismes d’un
espace vectoriel E de dimension finie : un endomorphisme f de E est un automorphisme de E si et
seulement si son déterminant est non nul.
(2) La propriété (5) de la proposition précédente est connue sous le nom de formule du volume.

5.5 Déterminant d’une matrice carrée


Nous terminons par la définition du déterminant d’une matrice carrée. On prendra garde à comprendre
le lien qu’il existe entre les différentes notions de déterminant : déterminant d’un système de vecteurs,
déterminant d’un endomorphisme et déterminant d’une matrice carrée (ce lien est éclairci après la définition
ci-dessous).

5.5.1 Définition
Définition 5.5.1. Soient n un entier naturel non nul et A = (ai,j ) ∈ Mn (K). On appelle déterminant de
A et on note det(A) l’élément de K défini par
X
det(A) = ε(σ)aσ(1),1 · · · aσ(n),n .
σ∈Sn

Dans la suite de ce cours, on adoptera la notation



a1,1 · · · ··· ··· a1,n
.. ..


. .

det(A) = ak,1 · · · ··· ··· ak,n .

. ..
..

.

an,1 · · · ··· ··· an,n

IMPORTANT. (1) Expliquons d’abord le lien qu’il y a entre la notion de déterminant d’un système de
vecteurs et celle de déterminant de matrice. Pour cela, considérons le K-espace vectoriel K n et soit B =

85
Pn
{e1 , · · · , en } la base canonique de K n . Soient A = (ai,j ) ∈ Mn (K) et posons vk = i=1 ai,k ei pour k =
1, · · · , n. En comparant les définitions 5.3.7(2) et 5.5.1, on constate alors que det(A) = detB (v1 , · · · , vn ).
En d’autres termes, le déterminant d’une matrice de Mn (K) n’est rien d’autre que le déterminant de ses
vecteurs colonnes dans la base canonique de K n .
(2) Le déterminant d’un endomorphisme f de E est le déterminant dans la base B = {e1 , · · · , en } de la
famille de vecteurs {f (e1 ), · · · , f (en )} (voir la proposition 5.4.1 et la définition 5.4.2).
(3) Enfin, nous prétendons que le déterminant d’un endomorphisme f est le déterminant de sa matrice
dans une base B = {e1 , · · · , en } quelconque de E, soit

det(f ) = det(MatB (f )).

En effet, d’après la définition 5.4.2, le déterminant Pn de f est le déterminant dans la base B du système de
vecteurs {f (e1 ), · · · , f (en )}. Écrivons f (ek ) = i=1 ai,k ei pour k = 1, · · · , n. D’après la définition 5.3.7,
on a donc X
det(f ) = detB (f (e1 ), · · · , f (en )) = ε(σ)a1,σ(1) · · · an,σ(n) .
σ∈Sn

Par la définition précédente, ceci est égal au déterminant de la matrice M = (ai,j ) ∈ Mn (K). On conclut
en remarquant que M = MatB (f ).
Exemple 5.5.2. Lorsque n = 2, on retrouve
 
a b a b
det = = ad − bc.
c d c d

Proposition 5.5.3. Soient A, B ∈ Mn (K) et λ ∈ K. Alors, on a les propriétés suivantes :


(1) det(In ) = 1.
(2) det(AB) = det(A). det(B) = det(BA).
(3) det(λ.A) = λn det(A).
(4) On a det(A) 6= 0 si et seulement si la matrice A est inversible. Dans ce cas, on a
1
det(A−1 ) = .
det(A)

(5) det(A) = det(t A).


(6) Si A et B sont semblables, on a det(A) = det(B).
Preuve. Les propriétés (1), (2), (3) et (4) proviennent respectivement des propriétés (1), (2), (3) et (4) de
la proposition 5.4.3 et du fait que le déterminant d’un endomorphisme soit le déterminant de sa matrice
dans une base B de E quelconque. Plus précisément, puisque la matrice de IdE dans B est In , on obtient
(1). Soient f (resp. g) l’endomorphisme dont la matrice est A (resp. B) dans la base B. Alors

det(AB) = det(f ◦ g) = det(f ).det(g) = det(A).det(B),

d’où l’on déduit (2) et


det(λ.A) = det(λ.f ) = λn .det(f ) = λn .det(A),
d’où l’on déduit (3). Enfin, det(A) = det(f ) 6= 0 si et seulement si f est inversible si et seulement si A est
inversible d’où (4).
(5) Soit A = (ai,j ). Vu la définition de la transposée d’une matrice, il s’agit de montrer que
X X
ε(σ)aσ(1),1 · · · aσ(n),n = ε(σ)a1,σ(1) · · · an,σ(n) .
σ∈Sn σ∈Sn

86
On a X X
ε(σ)a1,σ(1) · · · an,σ(n) = ε(σ −1 )a1,σ−1 (1) · · · an,σ−1 (n) (∗)
σ∈Sn σ∈Sn

puisque l’application de Sn dans Sn qui à σ associe σ −1 est une bijection de Sn . En outre, si σ ∈ Sn , toute
permutation σ a un inverse σ −1 et comme σ ◦ σ −1 = Id et que la signature est un morphisme de groupes,
on en déduit que 1 = ε(Id) = ε(σ ◦ σ −1 ) = ε(σ)ε(σ −1 ). Comme la signature est à valeurs dans {−1, 1}, on
a ε(σ −1 ) = ε(σ) pour tout σ ∈ Sn . En faisant le changement de variable i ←→ σ(i), on en déduit que (∗)
est encore égal à X X
ε(σ −1 )aσ(1),1 · · · aσ(n),n = ε(σ)aσ(1),1 · · · aσ(n),n ,
σ∈Sn σ∈Sn

ce qu’il fallait démontrer.


(6) Si A et B sont semblables, il existe P ∈ GLn (K) telle que B = P −1 AP . Alors

det(B) = det(P −1 AP ) = det(P −1 ).det(A).det(P ) = det(A),

par les propriétés (2) et (4). 

5.5.2 Règles de calcul


Dans cette sous-section, nous regroupons des règles de calcul utiles pour le calcul du déterminant d’une
matrice carrée.
Proposition 5.5.4. (1) Si on échange deux colonnes d’une matrice, la valeur du déterminant de cette
matrice est multipliée par −1. S’il existe une combinaison linéaire de colonnes d’une matrice qui soit
nulle, le déterminant de cette matrice est nul.
(2) Si on multiplie une colonne d’une matrice par un scalaire, le déterminant de cette nouvelle matrice est
le produit de ce scalaire par le déterminant de la matrice initiale.
(3) On ne change pas la valeur du déterminant d’une matrice en ajoutant à une colonne un multiple
scalaire d’une autre colonne. Plus généralement, on ne change pas la valeur du déterminant d’une matrice
en ajoutant à une colonne une combinaison linéaire des autres colonnes.
(4) Les assertions (1), (2) et (3) restent valables en remplaçant “colonnes ”par “lignes”.

Preuve. Rappelons que le déterminant d’une matrice de Mn (K) est le déterminant de ses vecteurs
colonnes dans la base canonique B de K n . La première partie de l’assertion (1) provient alors du fait que
detB est antisymétrique et la seconde partie du corollaire 5.3.8(2). L’assertion (2) se déduit du fait que
detB est n-linéaire. L’assertion (3) se prouve aisément en utilisant le fait que detB est n-linéaire alternée.
Enfin, l’assertion (4) est conséquence de la proposition 5.5.3(5). 

Remarque 5.5.5. La proposition précédente montre que pour calculer le déterminant d’une matrice, on
peut utiliser des opérations élémentaires sur les lignes ou les colonnes de cette matrice (la proposition
décrivant l’effet de chaque opération élémentaire sur le valeur du déterminant), c’est à dire mettre en jeu
la méthode du pivot de Gauss.

Le déterminant des matrices triangulaires supérieures ou inférieures est aisé à calculer.

Qn 5.5.6. Soit A = (ai,j ) ∈ Mn (K) une matrice triangulaire supérieure ou inférieure. Alors
Proposition
det(A) = i=1 ai,i .

87
Preuve. Il suffit de prouver l’assertion pour une matrice triangulaire supérieure d’après la proposition
5.5.3. On a X
det(A) = ε(σ)aσ(1),1 · · · aσ(n),n .
σ∈Sn

On considère l’ensemble
n
Y
P = {σ ∈ Sn | aσ(i),i 6= 0}.
i=1

Supposons P non vide. Alors σ ∈ P si et seulement si aσ(i),i 6= 0 pour tout i = 1, · · · , n. Or aσ(1),1 est
non nul si et seulement si σ(1) = 1 puisque A est triangulaire supérieure. Ensuite aσ(2),2 est non nul si
et seulement si σ(2) = 1 ou σ(2) = 2 mais puisque σ est une bijection de {1, · · · , n} sur lui-même et que
l’on a déjà σ(1) = 1, cela implique forcément σ(2) = 2. Par une récurrence immédiate, on a σ(i) = i pour
i = 1, · · · , n. Donc σ = Id. Cela prouve que P = {Id} si P est non vide.
Maintenant de deux choses l’une, soit P est vide, soit P = {Id}. Dans le Qnpremier cas, on trouve
det(A) = 0. Comme Id ∈ / P , l’un des Q
ai,i est forcément nul donc det(A) = 0 = i=1 ai,i . Dans le second
n
cas, on trouve évidemment det(A) = i=1 ai,i . 

Exemple 5.5.7. On considère la matrice


 
1 2 −1 4
 1 3 2 −2 
A=
 2
.
0 1 1 
−1 0 0 2

On calcule son déterminant par opérations élémentaires sur les lignes pour essayer de se ramener à une
matrice triangulaire.
   
1 2 −1 4 L1 1 2 −1 4 L1
 1 3 2 −2  L2  0 1 3 −6  L2 − L1
A =    , B =   
2 0 1 1  L3 0 −4 3 −7  L3 − 2L1
−1 0 0 2 L4 0 2 −1 6 L4 + L1
.
−1
 
1

2 −1 4

L1 1 2 4 L1
 0 1 3 −6  L2
 0 1 3 −6  L2
C =  , D =
 

0 0

15 −31  L3 + 4L2
 0 0 15 −31  L3
53 7
 
0 0 −7 18 L4 − 2L2 0 0 0 L4 + L3
15 15
D’après les règles de calcul sur les déterminants, on a det(A) = det(B) = det(C) = det(D). D’après la
proposition 5.5.6, det(A) = det(D) = 53.
Attention si on était passé de la matrice C à la matrice
 
1 2 −1 4 L1
0
 0 1 3 −6  L2
D =   ,
 0 0 15 −31  L3
0 0 0 53 15L4 + 7L3

1
on aurait eu det(A) = det(B) = det(C) = det(D0 ) = 53.
15

88
5.5.3 Développement par rapport à une ligne ou à une colonne
Définition 5.5.8. Soit A ∈ Mn (K). Soient i, j ∈ {1, · · · , n}. On note Ai,j ∈ Mn−1 (K) la matrice
obtenue en enlevant la i-ième ligne et la j-ième colonne de A. Le déterminant de la matrice Ai,j est appelé
mineur d’indice (i, j). Le scalaire (−1)i+j . det(Ai,j ) est appelé cofacteur d’indice(i, j) et noté cof i,j (A).
La matrice des cofacteurs est appelée comatrice de A : elle est notée com(A) ∈ Mn (K).
Théorème 5.5.9. Soit A ∈ Mn (K).
(1) Soit j ∈ {1, · · · , n} fixé. Alors
n
X
det(A) = ai,j cof i,j (A).
i=1

(2) Soit i ∈ {1, · · · , n} fixé. Alors


n
X
det(A) = ai,j cof i,j (A).
j=1

Preuve. D’après la proposition 5.5.3(5), il suffit de prouver (1) (on obtient (2) en appliquant (1) à la
matrice t A).
Pn
Soit B = {e1 , · · · , en } une base de K n . Soient x1 , · · · , xn ∈ K n . Écrivons xk = l=1 al,k el pour
k = 1, · · · , n. On fixe j ∈ {1, · · · , n}. Pour tous k 6= j et tout i ∈ {1, · · · , n}, on écrit
n
X
xi,k = al,k el .
l=1, l6=i

Ainsi, si k 6= j et i ∈ {1, · · · , n}, les coordonnées du vecteur xi,k dans la base Bi := {e1 , · · · , ei−1 , ei+1 , · · · , en }
de K n−1 sont obtenues en enlevant la i-ième ligne du vecteur colonne xk .
Cela étant, soit
 n
K × · · · × Kn → P K
∆: n i+j .
(x1 , · · · , xn ) 7→ i=1 (−1) ai,j detBi (xi,1 , · · · , xi,j−1 , xi,j+1 , · · · , xi,n )

On vérifie facilement que ∆ est une forme n-linéaire alternée. D’après le corollaire 5.3.8(1), on a donc
∆ = ∆(e1 , · · · , en ). detB . Or
n
X
∆(e1 , · · · , en ) = (−1)i+j δi,j detBi (ei,1 , · · · , ei,j−1 , ei,j+1 , · · · , ei,n ),
i=1

où δi,j vaut 1 si i = j, 0 sinon. Ainsi

∆(e1 , · · · , en ) = detBj (ej,1 , · · · , ej,j−1 , ej,j+1 , · · · , ej,n ).

Mais la matrice dont les vecteurs colonnes sont ej,1 , · · · , ej,j−1 , ej,j+1 , · · · , ej,n est la matrice déduite de
In obtenue en lui enlevant sa j-ième ligne et sa j-ième colonne : c’est donc In−1 . On en déduit que
∆(e1 , · · · , en ) = det(In−1 ) = 1. Ainsi, ∆ = detB .
Soit A = (ai,j ) et conservons les notations ci-dessus. Rappelons que le déterminant de A est le
déterminant de ses vecteurs colonnes dans la base canonique B = {e1 , · · · , en }. Alors, la k-ième colonne
de A sont les coordonnées de xk dans la base B et si k 6= j et i ∈ {1, · · · , n} xi,k est le vecteur de K n−1
dont les coordonnées dans la base {e1 , · · · , ei−1 , ei , · · · , en } sont
Pn obtenues en enlevant la i-ième ligne de
A. On a donc det(A) = detB (x1 , · · · , xn ) = ∆(x1 , · · · , xn ) = i=1 ai,j cof i,j (A) par définition de la forme
n-linéaire alternée ∆. 

89
Remarques 5.5.10. (1) Dans le théorème précédent, quand on applique l’égalité de (1) (resp. (2)), on
dit que l’on développe le déterminant par rapport à la j-ième colonne (resp. la i-ième ligne).
(2) On obtient une autre preuve du théorème précédent par récurrence sur n en utilisant les régles de
calcul sur les déterminants d’une matrice. Cette preuve moins conceptuelle que la précédente est laissée
au lecteur.
Nous généralisons la proposition 5.5.6
Corollaire 5.5.11. Soit M une matrice carrée triangulaire supérieure par blocs, c’est à dire

M1,1 M1,2 · · · · · ·
 
M1,p
 . .. . .. .. 
 0 . 
 
 .. . . . . . . .
.
M = . ,

 . . . . 
 . . .
 .. .. .. M

p−1,p

0 ··· ··· 0 Mp,p

où les Mi,i sont des matrices carrées et les 0 sont des blocs de coefficients nuls de tailles compatibles. Alors
p
Y
det(M ) = det(Mi,i ).
i=1

Preuve. Si on prouve le corollaire, on aura aussi la formule pour les matrices triangulaires inférieures par
blocs en transposant. Il suffit de traiter le cas
 
A B
M= ,
0 C

le cas général s’obtenant par récurrence.


Soit p la taille de la matrice A. Considérons d’abord le cas A = Ip . Alors en développant successivement
par rapport aux colonnes 1, 2, · · · , p, on obtient det(M ) = det(C) = det(Ip ) det(C).
Passons au cas général. Soit B = {e1 , · · · , ep } une base de K p . Si X1 , · · · , Xp ∈ K p , soit X ∈ Mp (A)
la matrice dont les colonnes sont X1 , · · · , Xp . Alors l’application
 
X B
ϕ : K p × · · · × K p → K : (X1 , · · · , Xp ) 7→ det
0 C

est une forme p-linéaire alternée, et donc on a

ϕ = ϕ(e1 , · · · , ep )detB ,

par le corollaire 5.3.8(1). Par le cas précédemment traité, on a ϕ = det(C) detB . En appliquant ceci aux
colonnes A1 , · · · , Ap de A, on obtient

det(M ) = ϕ(A1 , · · · , Ap ) = det(C)detB (A1 , · · · , Ap ) = det(A). det(C).

90
Exemple 5.5.12. Considérons la matrice de l’exemple 5.5.7. Si on développe par rapport à la deuxième
colonne, on trouve

1 2 −2 1 −1 4

det(A) = (−1)1+2 .2. 2 1 1 + (−1)2+2 .3. 2 1 1
−1 0 2 −1 0 2

2 1 1 −2
= −2. (−1)1+2 .2. + (−1)2+2 .1.
 −1
2

−1 2  ,
−1 4 1 −1
+3. (−1)3+1 .(−1). + (−1)3+3 .2.
1 1 2 1
= −2.(−10) + 3.(5 + 6)
= 53
où on a développé le premier déterminant de la ligne 1 par rapport à la deuxième colonne et le second
déterminant de la ligne 1 par rapport à la troisième ligne. Bien entendu, on peut combiner les méthodes
de l’exemple 5.5.7 et de cet exemple pour calculer un déterminant.

5.6 Applications
5.6.1 Comatrice et inversibilité
Si A est une matrice carrée inversible, nous montrons que l’on peut calculer A−1 en fonction de det(A) et
de la comatrice de A.
Proposition 5.6.1. Soit A ∈ Mn (K). Alors
A.t com(A) = t com(A).A = det(A).In .
En particulier, si A est inversible, on a
1 t
A−1 = com(A).
det(A)
Preuve. Montrons A.t com(A) = det(A)In , l’autre égalité se montrant de manière analogue. Soient
i, j ∈ {1, · · · , n}. Par définition du produit matriciel, de la transposée et de la comatrice, le terme
d’indice (i, j) de la matrice S = A.t com(A) est
n
X n
X
ai,k cof j,k (A) = ai,k (−1)j+k det(Aj,k ).
k=1 k=1

Notons Si,j la quantité précédente et considérons deux cas. Si i = j, on reconnaı̂t en Si,j le développement
par rapport à la i-ième ligne du déterminant de A (théorème 5.5.9) et Si,i = det(A). Si i 6= j, Si,j est
la formule du développement par rapport à la j-ième ligne de A0 obtenue à partir de A en remplaçant la
j-ième ligne de A par la i-ième ligne de A (théorème 5.5.9). Comme A0 possède deux lignes identiques, son
déterminant est nul (proposition 5.5.4(1)) donc Si,j = 0. On en déduit que A.t com(A) = S = det(A)In .

   
1 3 −1 2 7 1
Exemple 5.6.2. Considérons la matrice A =  3 −1 1 . Alors com(A) =  8 −5 −7 
−2 1 −3 2 −4 −10
et  
2 8 2
1 
A−1 = 7 −5 −4  .
22
1 −7 −10

91
5.6.2 Système de Cramer
On appelle système de Cramer un système linéaire à n lignes et n colonnes à coefficients dans K dont la
matrice est inversible. Un tel système s’écrit matriciellement AX = Y où A ∈ GLn (K) est la matrice du
système, X est le vecteur colonne des inconnues et Y le vecteur colonne des seconds membres. L’unique
solution de ce système est donnée par
1 t
X = A−1 .Y = comA.Y.
det(A)

Plus précisément :
Proposition 5.6.3. Pour i = 1, · · · , n, si Xi (resp. Ai ) désigne la i-ième ligne du vecteur colonne X
(resp. de la matrice A), on a

detB (A1 , · · · , Ai−1 , Y, Ai+1 , · · · , An ) detB (A1 , · · · , Ai−1 , B, Ai+1 , · · · , An )


Xi = = ,
detB (A1 , · · · , An ) det(A)

pour toute base B de K n


Pn
Preuve. Montrons le pour i = 1. Comme on a i=1 Xi Ai = Y et que detB est une forme n-linéaire
alternée, on a
Xn n
X
detB (Y, A2 , · · · , An ) = detB ( Xi Ai , A2 , · · · , An ) = Xi detB (Ai , A2 , · · · , An ) = X1 detB (A1 , · · · , An ),
i=1 i=1

d’où le résultat. 

5.6.3 Orientation
On suppose ici que K = R. On dit que deux bases de E ont la même orientation si le déterminant de la
matrice de passage de l’une à l’autre est strictement positif. Le fait d’avoir même orientation définit une
relation d’équivalence sur l’ensemble des bases de E qui a deux classes d’équivalence. Orienter E c’est
choisir une base B de E : les bases de même orientation que B seront dites directes, les autres seront dites
indirectes.
On oriente E par le choix d’une base B = {e1 , · · · , en }. On dit qu’un automorphisme f de E est direct
si la base {f (e1 ), · · · , f (en )} est directe, indirect sinon. Ainsi, l’automorphisme f est direct si et seulement
si det(f ) > 0. Par exemple, les rotations sont des automorphismes directs.

92
Chapitre 6

Réduction des endomorphismes et


des matrices carrées

Dans ce chapitre, E désignera un K-espace vectoriel de dimension finie (sauf mention contraire) et u sera
le plus souvent un endomorphisme de E.

6.1 Introduction
Le but de la théorie de la réduction des endomorphismes est de trouver une base de E dans laquelle
la matrice de u soit la plus simple possible. Il y a bien entendu plusieurs façons de comprendre cette
expression, desquelles découlent plusieurs types de réductions. Dans ce chapitre, nous allons déterminer
des conditions nécessaires et suffisantes pour que certains types de réductions soient possibles.
Traduisons matriciellement notre but : étant donnée une matrice carrée M (qui joue le rôle de la
matrice de l’endomorphisme de u dans une certaine base B de E), peut-on trouver une matrice inversible
P (jouant le rôle de la matrice de passage de B à une base B 0 de E) telle que P −1 M P soit aussi simple
que possible ? Mais comment trouver la base B 0 ?
Dans ce cadre, les sous-espaces vectoriels stables jouent un rôle primordial.
Définition 6.1.1. Un sous-espace vectoriel F de E est dit stable par l’endomorphisme u de E, si l’image
par u de tout vecteur de F est un vecteur de F , autrement dit si u(F ) ⊂ F .
Supposons que F soit un sous-espace stable de E pour u. Soit alors G un supplémentaire de F dans
E. La matrice M de u dans une base de E constituée de la réunion d’une base BF de F et d’une base BG
de G est une matrice triangulaire par bloc, c’est à dire
 
A B
M= .
0 D

Ici, on vérifie aisément que A est la matrice dans la base BF de la restriction de u à F 1 . On voit ainsi que
la détermination d’un sous-espace stable de E par u constitue un début de réduction de u.
Supposons en outre que G soit également stable par u. Alors, la matrice B précédente est nulle et M
est diagonale par bloc, c’est à dire  
A 0
M= .
0 D
1 la restriction de u à F est encore un endomorphisme de F puisque u(F ) ⊂ F .

93
Nous pouvons maintenant préciser notre objectif : trouver une décomposition de E en somme directe
de sous-espaces stables tels que la restriction de u à ces sous-espaces soit la plus simple possible. Cela
étant, il s’agira également de déterminer des conditions nécessaires et suffisantes à l’existence d’une telle
décomposition.
Exemple 6.1.2. On considère E = R3 muni de sa base canonique B = {e1 , e2 , e3 }. On définit un
endomorphisme u de R3 par u(x, y, z) = (x + y, x − y, 2z). Alors les sous-espaces F := he1 , e2 i et G := he3 i
sont des sous-espaces stables de R3 . Ils sont supplémentaires (car F ∩ G = {0R3 } et dim(F ) + dim(G) =
2 + 1 = 3 = dim(E)). La matrice M de u dans la base B = {e1 , e2 , e3 } (qui est réunion de la base {e1 , e2 }
de F et de la base {e3 } de G) est  
1 1 0
M =  1 −1 0  ,
0 0 2
qui est diagonale par blocs.

6.2 Définitions
6.2.1 Valeurs propres, vecteurs propres, sous-espaces propres
Définition 6.2.1. Soit u un endomorphisme de E.
(1) Un scalaire λ ∈ K est appelé valeur propre s’il existe x ∈ E \ {0} tel que u(x) = λ.x.
(2) Si λ est une valeur propre de u, on appelle vecteur propre associé à λ tout vecteur x ∈ E \ {0} tel que
u(x) = λ.x.
(3) Si λ est une valeur propre de u, on appelle espace propre associé à λ l’ensemble que l’on notera

Eλ = {x ∈ E | x 6= 0E et u(x) = λ.x} ∪ {0E }.

IMPORTANT. (1) Soit u un endomorphisme de E. Supposons que u admette une valeur propre λ ∈ K.
Alors x est un vecteur propre associé à λ si et seulement si x ∈ ker(u − λ.IdE ) \ {0}. Ainsi, l’espace propre
Eλ associé à λ est ker(u − λ.IdE ) : tout espace propre est donc un sous-espace vectoriel de E.
(2) Essayons d’expliquer d’où viennent les définitions ci-dessus. L’endomorphisme le plus simple est une
homothétie et, suivant le principe exposé en Introduction à ce chapitre, on cherche donc un sous-espace
de E en restriction auquel l’endomorphisme u est une homothétie d’un certain rapport λ. Soit alors
λ ∈ K tel que ker(u − λ.IdE ) 6= {0E } (c’est à dire que λ est une valeur propre pour u puisque l’on
suppose qu’il existe un vecteur propre) si λ existe. Alors, si y ∈ ker(u − λ.IdE ), on a u(y) = λ.y et donc
u(u(y)) − λ.IdE (u(y)) = λu(y) − λ.u(y) = 0 ce qui signifie que u(ker(u − λ.IdE )) ⊂ ker(u − λ.IdE ), c’est
à dire que tout sous-espace propre est un sous-espace vectoriel stable de E. En outre, en restriction à ce
sous-espace vectoriel, u est encore un endomorphisme qui n’est autre que l’homothétie de rapport λ. Au
vu de notre objectif, la détermination des valeurs propres d’un endomorphisme (si elles existent) est donc
un problème crucial.
Remarque 6.2.2. En terme physique ou de théorie des opérateurs, un endomorphisme sur un espace
vectoriel de dimension quelconque normé et continu pour cette norme est appelé opérateur et l’ensemble
de ses valeurs propres constitue le spectre de l’opérateur. Calculer les valeurs propres d’un opérateur, c’est
en faire l’analyse spectrale.

Exemples 6.2.3. (1) Un endomorphisme n’admet pas forcément de valeur propre. Pour voir cela, con-
sidérons l’endomorphisme u de R2 défini par u : R2 → R2 : (x, y) 7→ (y, −x). Alors λ est une valeur propre
de u si et seulement si il existe (x, y) 6= (0, 0) tel que y = λ.x et x = −λ.y ce qui est impossible. Ainsi,

94
l’endomorphisme u n’admet pas de valeur propre (et donc pas de vecteur propre non plus).
(2) Si E est le R-espace vectoriel C ∞ (R, R), un vecteur propre de l’endomorphisme E → E : f 7→ f 0 (c’est
même un opérateur) associé à une valeur propre non nulle λ ∈ R∗ est par définition une fonction de E
telle que f 0 (t) = λ.f (t) quel que soit t ∈ R : un tel vecteur propre est donc une fonction t 7→ γ exp λt pour
γ ∈ R∗ . Le sous-espace propre associé à la valeur propre λ est Vect({t 7→ exp λt}) qui est de dimension
1. Le sous-espace propre associé à la valeur propre 0 (qui est le noyau de l’opérateur, par définition) est
l’ensemble des fonctions constantes : il est également de dimension 1.
(3) Si E désigne le R-espace vectoriel des polynômes à coefficients réels, l’opérateur de dérivation a pour
seule valeur propre 0 : le sous-espace propre associé est l’ensemble des polynômes constants.

Proposition 6.2.4. Soient E un espace vectoriel de dimension n et u un endomorphisme de E. Alors


les assertions suivantes sont équivalentes :
(1) λ est une valeur propre de u.
(2) ker(u − λ.IdE ) 6= {0E }.
(3) l’endomorphisme u − λ.IdE n’est pas inversible.
(4) det(u − λ.IdE ) = 0.

Preuve. Cela provient de ce que λ est une valeur propre de u si et seulement si ker(u − λ.IdE ) 6= {0E } si
et seulement si l’endomorphisme u − λ.IdE n’est pas injectif si et seulement si l’endomorphisme u − λ.IdE
n’est pas inversible si et seulement si det(u − λ.IdE ) = 0. La première équivalence provient de la définition
de vecteur propre, la seconde du théorème 3.1.7(3), la troisième de la définition d’un automorphisme et la
quatrième de la proposition 5.4.3(5). 

Exemple 6.2.5. Considérons l’endomorphisme u de l’exemple 6.1.2. Un réel λ est valeur propre de u si
et seulement si le système

 (1 − λ).x + y = 0
x − (1 + λ).y = 0
(λ − 2).z = 0

admet une solution (x, y, z) non nulle si et seulement si le déterminant de la matrice du système est
nul par la proposition précédente
√ si et seulement si λ = 2 (auquel cas l’espace propre
√ correspondant √ est
Vect{(0, 0, 1)}) ou λ = 2 (auquel cas l’espace propre correspondant
√ est Vect{(1 + 2, 1, 0)}) ou λ = − 2
(auquel cas l’espace propre correspondant est Vect{(1 − 2, 1, 0)}).

6.2.2 Polynôme caractéristique


Définition 6.2.6. Soit M ∈ Mn (K). Le polynôme caractéristique de la matrice M est le polynôme
χM ∈ K[X] défini par χM = det(M − X.In ).
Remarques 6.2.7. (1) Dans la définition précédente, pour définir le déterminant de M − X.In ∈
Mn (K[X]), on a besoin au sens strict de la notion de déterminant d’une matrice à coefficients dans
un anneau commutatif unitaire A (ici K[X]). La définition donnée en 5.5.1 s’étend sans problème à ce cas
là et les règles de calcul des déterminants de matrices données dans les propositions 5.5.3 et 5.5.4 restent
vraies dans ce cadre plus général.
(2) On vérifie sans difficulté que le polynôme caractéristique d’une matrice M ∈ Mn (K) est un polynôme
de degré n à coefficients dans K.
(3) Soit u ∈ End(E), et soient B, B 0 deux bases de E. Soient M = MatB (u) et M 0 = MatB0 (u). Ces

95
matrices étant semblables,il existe alors P ∈ GLn (K) telle que M = P M 0 P −1 . On a alors

χM = det(M − XIn )
= det(P M 0 P −1 − X.In )
= det(P (M 0 − XIn )P −1 ) .
= det(P ) det(M 0 − XIn ) det(P )−1
= χM 0

La remarque (3) ci-dessus montre que le polynôme caractéristique d’une matrice représentative de u ne
dépend pas de la base choisie, ce qui suggère la définition suivante.
Définition 6.2.8. Soit u ∈ End(E). Le polynôme caractéristique de u est le polynôme caractéristique
d’une matrice représentative de u dans une base arbitraire. On le note χu .
Corollaire 6.2.9. Soit u ∈ End(E) avec dim(E) = n. Alors λ est valeur propre de u si et seulement si
λ est racine du polynôme caractéristique de u. En particulier, u possède au plus n valeurs propres.

Preuve. D’après la proposition 6.2.4, on sait que λ est valeur propre de u si et seulement si det(u−λ.IdE ) =
0 ce qui équivaut à ce que χM (λ) = det(M − λ.In ) = 0 où M est la matrice de u dans une certaine base
de E. La dernière affirmation vient du fait que le degré de χM est n. 

Remarques 6.2.10. (1) Si E est un espace vectoriel de dimension infinie, un endomorphisme u de E


peut avoir une infinité de valeurs propres comme on l’a vu en 6.2.3(2).
(2) Le mot caractéristique peut prêter à ambigüité : le polynôme caractéristique
 de
 une caractérise
 pas u.
2 0 0 0 1
Par exemple les endomorphismes de R ayant pour matrices respectives , ont même
0 0 0 0
polynôme caractéristique mais sont évidemment différents (et même non semblables).
Exemple 6.2.11. Reprenons l’endomorphisme u de l’exemple 6.1.2. Le polynôme caractéristique de u est
2
le polynôme caractéristique de sa matrice dans la base canonique. On trouve √ = −(λ−2).(λ −2).On
√ χu (X)
déduit donc du corollaire précédent que les valeurs propres de u sont 2, 2 et − 2 ce que l’on avait déjà
remarqué en 6.2.5.

6.2.3 Trace
Proposition 6.2.12. Soit M = (ai,j ) ∈ Mn (K). Alors
n
X
n n n−1
χM (X) = (−1) X + ((−1) ai,i )X n−1 + · · · + det(M ).
i=1

Preuve. Le fait que le coefficient constant de χm (X) soit det(M ) est évident. La proposition se montre
par récurrence sur n. 

Définition 6.2.13. Si M = (ai,j ) ∈ Mn (K), onPappelle trace de M la somme des coefficients diagonaux
n
de M que l’on note tr(M ). On a donc tr(M ) = i=1 ai,i .
Proposition 6.2.14. Soient A, B ∈ Mn (K) et soit P ∈ GLn (K).
(1) On a tr(P −1 AP ) = tr(A).
(2) On a tr(AB) = tr(BA).

96
Preuve. (1) Cela provient directement de ce que deux matrices semblables ont même polynôme car-
actéristique et de la proposition 6.2.12.
(2) Notons A = (ai,j ), B = (Bi,j ). Alors, par définition du produit matriciel,
n
X n
X n
X n
X
tr(AB) = ( ai,k bk,i ) = ( bk,i ai,k ) = tr(BA).
i=1 k=1 k=1 i=1

Définition 6.2.15. D’après l’assertion (1) de la proposition précédente, on définit la trace d’un endomor-
phisme u et on note tr(u) la trace d’une de ses matrices dans une base quelconque de E.

6.2.4 Un exemple
Avant d’en venir à la théorie de la réduction des endomorphismes proprement dite, terminons cette section
en donnant un exemple.

Exemple 6.2.16. On considère un endomorphisme de R3 dont la matrice dans la base canonique est
 
2 −1 −1
A =  −1 2 −1  .
−1 −1 2

On calcule facilement χA (X) = −X 3 + 6X 2 − 9X = −X(X − 3)2 . On en déduit que les valeurs propres
de A sont 0 et 3. On a E0 = {(x, y, z) ∈ R3 | x = y = z} donc dim(E0 ) = 1 et si e1 = (1, 1, 1), on a
E0 = Vect({e1 }). Ensuite, on a E3 = {(x, y, z) ∈ R3 | x+y +z = 0} et dim(E3 ) = 2. Posons e2 = (1, −1, 0)
et e3 = (0, 1, −1). Alors {e2 , e3 } est une base de E3 . Comme e1 ∈ / E3 , on en déduit aisément que E0 et
E3 sont en somme directe ce qui signifie que la famille B = {e1 , e2 , e3 } est libre dans R3 . Comme elle est
de cardinal 3, c’est une base de R3 . Enfin, déterminons la matrice de u dans cette base. On voit aisément
que  
0 0 0
B := MatB (u) =  0 3 0  .
0 0 3
Si P est la matrice de passage de la base canonique à la base B, on a donc P −1 AP = B. Dans cet exemple,
nous avons donc trouvé une base de R3 constituée de vecteurs propres de u dans laquelle la matrice de u
est très simple puisqu’elle est diagonale. Dans la section suivante, nous dirons que A est diagonalisable
mais nous verrons également que cela n’est pas possible pour toute matrice. Remarquons également que la
matrice A est symétrique : nous verrons plus tard que toute matrice symétrique réelle est diagonalisable.

6.3 Diagonalisation
6.3.1 Propriétés des sous-espaces propres
Dans l’exemple qui termine la section précédente, nous avons vu que les espaces propres sont en somme
directe. Ceci est un fait général.

Proposition 6.3.1. Soit u un endomorphisme de E et soient λ1 , · · · , λp p valeurs propres distinctes de


u. Alors les espaces propres Eλ1 , · · · , Eλp sont en somme directe.

97
Preuve. On prouve cette proposition par récurrence sur le nombre de sous-espaces propres. S’il n’y en a
pas ou qu’il n’y en a qu’un, il n’y a rien à montrer. Supposons donc que pour tout k-uplet (λ1 , · · · , λk )
de valeurs propres distinctes de u, les sous-espaces propres Eλ1 , · · · , Eλk sont en somme directe.
Pk
Soient λ1 , · · · , λk+1 des valeurs propres distinctes de u et soit x ∈ Eλk+1 ∩ ( i=1 Eλi ). Écrivons
Pk
x = i=1 xi où xi ∈ Eλi pour i = 1, · · · , k. Comme x ∈ Eλk+1 , on a d’une part
k
X
u(x) = λk+1 x = λk+1 xi .
i=1

D’autre part,
k
X k
X
u(x) = u(xi ) = λ i xi .
i=1 i=1

En soustrayant la seconde égalité à la première, on en déduit que


k
X
(λk+1 − λi )xi = 0E .
i=1

Ce dernier élément appartient à la somme des sous-espaces propres Eλ1 , · · · , Eλk qui est directe par
Pk
hypothèse de récurrence. On en déduit donc que x1 = · · · = xk = 0E puis que Eλk+1 ∩ ( i=1 Eλk ) = {0E }.
D’après la proposition 2.3.17, puisque les sous-espaces propres Eλ1 , · · · , Eλk sont supposés être en somme
directe, il en va de même pour Eλ1 , · · · , Eλk , Eλk+1 . La proposition s’en déduit par l’axiome de récurrence.


Corollaire 6.3.2. Soient u un endomorphisme de E et λ1 , · · · , λp des valeurs propres distinctes de u.


Pour i = 1, · · · , p, soit xi ∈ Eλi . Alors la famille {x1 , · · · , xp } est une famille libre.
Preuve. Cela provient de la proposition précédente. 

Remarques 6.3.3. (1) S’il est exact que les espaces propres distincts d’un endomorphisme sont en
somme directe, il est en général faux que la somme des sous-espaces fasse l’espace tout entier. Pour
cela, considérons l’endomorphisme u de R3 dont la matrice dans la base canonique est
 2 1 2

3 3 3
 −2 2 1 .
3 3 3
− 13 − 23 2
3

Alors χu (X) = −(X − 1)(X 2 − X + 1) et la seule valeur propre de u est 1. On vérifie sans peine que
E1 = Vect({(1, 1, 1)} et E1 6= E.
(2) Profitons de l’exemple précédent pour une mise en garde concernant le corps sur lequel on travaille.
Dans le (1) si on considère l’endomorphisme v de C3 de même matrice dans la base canonique, v a 3
valeurs propres distinctes λ, µ, η. D’après la proposition 6.3.1, les espaces propres Eλ , Eµ et Eη sont en
somme directe et, pour une raison de dimension, on a C3 = Eλ ⊕ Eµ ⊕ Eη .

6.3.2 Endomorphismes diagonalisables


Définition 6.3.4. (1) Soit A ∈ Mn (K). On dit que A est diagonalisable si il existe P ∈ GLn (K) et une
matrice D diagonale telles que P −1 AP = D.

98
(2) Soit E un K-espace vectoriel de dimension n et soit u un endomorphisme de E. L’endomorphisme u
est dit diagonalisable s’il existe une base de E dans laquelle la matrice de u est une matrice diagonale. En
d’autres termes, un endomorphisme u est diagonalisable si et seulement si la matrice de u dans une base
quelconque de E est diagonalisable.
Donnons une première caractérisation de la diagonalisabilité.
Proposition 6.3.5. Soit E un K-espace vectoriel de dimension finie et soit u ∈ End(E). Les assertions
suivantes sont équivalentes.
(1) u est diagonalisable.
(2) L’espace vectoriel E admet une base formée de vecteurs propres de u.
(3) L’espace vectoriel E est somme directe des sous-espaces propres de u.
Preuve. Supposons tout d’abord que u est diagonalisable. Alors il existe une base B = {e1 , · · · , en } dans
laquelle la matrice de u est diagonale. Pour i = 1, · · · , n, il existe λi ∈ K tels que u(ei ) = λi ei donc ei est
un vecteur propre associé à la valeur propre λi et B est une base constituée de vecteurs propres de u.
Supposons maintenant que B = {e1 , · · · , en } soit une base de E formée de vecteurs propres. Soient
λ1 , · · · , λp les valeurs propres distinctes de u. Alors pour i = 1, · · · , n il existe 1 ≤ ji ≤ n unique tel
que ei ∈ Eλji (l’unicité provient de ce que les espaces propres sont en somme directe et en particulier
Eλ ∩ Eµ = {0E } pour λ 6= µ). Pour j = 1, · · · , p, notons Bj = {ei ∈ B | ei ∈ Eλj } : on sait que Bj est
non vide. En effet supposons par P exemple que pour tout i = 1, · · · , n, ei ∈ / EP
λ1 et soit fP1 ∈ Eλ1 . D’après
p p p
la proposition
Pp 6.3.1, on a E λ1 ∩ ( i=2 Eλ i ) = {0E } et comme e1 , · · · , en ∈ i=2 E λi , i=2 Eλi = E et
p
f1 ∈/ i=2 Eλi ce qui est une contradiction. On vient donc de montrer que ∪j=1 Bj = B et que B1 , · · · , Bj
est une partition de B. Enfin, d’après la proposition 6.3.1, les espaces propres Eλ1 , · · · , Eλp sont en somme
directe dans E. Mais
Mp X p
dim( Eλi ) = dim(Eλi ) = dim(E),
i=1 i=1
Lp
puisque chaque ei apparait une et une seule fois dans un Bj . Donc E = i=1 Eλi .

Lp
Supposons enfin que E = i=1 Eλi où les Eλi sont les espaces propres de u. Pour j = 1, · · · , p, soit
Bj une base de Eλj . Alors ∪pi=1 Bj = B est une base de E. Dans cette base, la matrice de u est diagonale
donc u est diagonalisable. 

Exemples 6.3.6. Regardons si les endomorphismes que nous avons donnés en exemple depuis le début
de ce chapitre sont diagonalisables ou non.
(1) Commençons avce l’endomorphisme de l’exemple 6.1.2. On a vu que cet endomorphisme admettait
trois valeurs propres distinctes et les espaces propres correspondant sont de dimension 1. Si on choisit
un vecteur propre associé à chaque vecteur propre la famille qu’ils forment est libre d’après le corollaire
6.3.2. Etant de cardinal 3, cette famille est une base de vecteurs propres de l’endomorphisme qui est donc
diagonalisable.
(2) Reprenons maintenant l’endomorphisme de l’exemple 6.2.16. La base que l’on a mise en valeur dans
cet exemple est une base de vecteurs propres de l’endomorphisme qui est donc diagonalisable.
(3) Considérons enfin l’endomorphisme de la remarque 6.3.3(1). On a vu que cet endomorphisme avait
une seule valeur propre et que l’espace propre associé est de dimension 1. Il ne peut donc exister de base
de vecteurs propres pour cet endomorphisme qui n’est donc pas diagonalisable. Par contre, si on considère
comme en 6.3.3(2) l’endomorphisme qui a la même matrice que le précédent dans la base canonique de
C3 , on a montré que cet endomorphisme est diagonalisable.

99
Le résultat précédent nous permet d’énoncer une condition suffisante de diagonalisabilité.
Corollaire 6.3.7. Soient E un K-espace vectoriel de dimension n et u un endomorphisme de E. Si u
admet n valeurs propres distinctes λ1 , · · · , λn ∈ K, u est diagonalisable.
Preuve. Pour i = 1, · · · , n, λi est une valeur propre de u donc dim(Eλi ) ≥ 1. En outre, d’après la
proposition 6.3.1, les espaces propres de u sont en somme directe. On a alors
Mn n
X
dim( Eλi ) = dim(Eλi ) ≥ n = dim(E).
i=1 i=1
Ln
On en déduit que E = i=1 Eλi donc u est diagonalisable par la proposition précédente. 

Remarques 6.3.8. (1) Le corollaire précédent montre à nouveau que l’endomorphisme u de l’exemple
6.1.2 est diagonalisable puisque c’est un endomorphisme de R3 qui possède 3 valeurs propres distinctes.
(2) La condition du corollaire précédent n’est qu’une condition suffisante à la diagonalisabilité. En général,
elle n’est pas nécessaire puisque l’endomorphisme de l’exemple 6.2.16 de R3 possède deux valeurs propres
distinctes et est pourtant diagonalisable.

6.3.3 Dimension des sous-espaces propres


Jusqu’à présent nous nous sommes intéressés aux sommes de sous-espaces propres. Nous allons maintenant
nous intéresser à la dimension des sous-espaces propres ce qui nous permettra d’énoncer une seconde
caractérisation de la diagonalisabilité (théorème 6.3.10).
Proposition 6.3.9. Soient E un K-espace vectoriel de dimension n et u un endomorphisme de E. Soit
λ une valeur propre de u dont l’ordre de multiplicité en tant que racine du polynôme caractéristique de u
est r. Alors 1 ≤ dim(Eλ ) ≤ r.
Preuve. La fait que 1 ≤ dim(Eλ ) provient du fait que λ est une valeur propre de u. Si dim(Eλ ) = n l’autre
inégalité est claire. Supposons maintenant que dim(Eλ ) = d < n et soit {e1 , · · · , ed } une base de Eλ . La
famille {e1 , · · · , ed } étant libre dans E, on peut la
 compléteren une base de E {e1 , · · · , ed , ed+1 , · · · , en }.
λ.Id C
La matrice de u dans cette base est de la forme . D’après le corollaire 5.5.11, on a
0 B
χu (X) = det(λ.Id − X.Id ). det(B − X.In−d ) = (λ − X)d . det(B − X.In−d ).
Or on a χu (X) = (λ − X)r .Q(X) avec Q(λ) 6= 0. Si d > r, on aurait Q(X) = (λ − X)d−r . det(B − X.In−d )
et Q(λ) = 0 ce qui n’est pas. On en déduit donc que d ≤ r. 

Théorème 6.3.10. Soient E un K-espace vectoriel de dimension n, u un endomorphisme de E et


λ1 , · · · , λp ∈ K les valeurs propres distinctes de u. Pour i = 1, · · · , p, notons ri l’ordre de multiplicité de
la valeur propre λi en tant que racine du polynôme caractéristique de u. Alors les assertions suivantes
sont équivalentes :
(1) u est diagonalisable.
(2) On a dim(Eλi ) = ri pour i = 1, · · · p.
Lp Pp
Preuve. Si u est diagonalisable, d’après la proposition 6.3.5, on P a E = i=1 Eλi donc n = i=1 dim(Eλi ).
p
Comme le polynôme caractéristique est de degré n, on a n = i=1 ri . Comme 1 ≤ dim(Eλi ) ≤ ri pour
i = 1, · · · , p par la proposition 6.3.9, la seule possibilité est que dim(Eλi ) = ri pour i = 1, · · · p.
Pp
Réciproquement, comme dim(Eλi ) = ri pour i = 1, · · · p, et i=1 ri = n, on a
Mp p
X p
X
dim( Eλi ) = dim(Eλi ) = ri = dim(E)
i=1 i=1 i=1

100
Lp
donc E = i=1 Eλi et u est diagonalisable d’après la proposition 6.3.5. 

Nous allons maintenant nous intéresser à un type de réduction plus général que la diagonalisation
et reviendrons à la diagonalisation dans la section 6.5 consacrée à l’étude du polynôme minimal d’un
endomorphisme.

6.4 Trigonalisation
6.4.1 Un critère de trigonalisation
Définition 6.4.1. (1) Soit A ∈ Mn (K). On dit que A est trigonalisable si il existe P ∈ GLn (K) et une
matrice T triangulaire (supérieure ou inférieure) telles que P −1 AP = T .
(2) Soit E un K-espace vectoriel de dimension n et soit u un endomorphisme de E. L’endomorphisme u
est dit trigonalisable s’il existe une base de E dans laquelle la matrice de u est une matrice triangulaire
(inférieure ou supérieure). En d’autres termes, un endomorphisme u est trigonalisable si et seulement si
la matrice de u dans une base quelconque de E est trigonalisable.

Remarques 6.4.2. (1) Pour une matrice A donnée, on montre aisément qu’il existe P ∈ GLn (K) telle
que P −1 AP = T où T est une matrice triangulaire supérieure si et seulement si il existe P ∈ GLn (K)telle
que P −1 AP = T où T est une matrice triangulaire inférieure. Sans perte de généralité, nous pouvons
donc supposer que l’on cherche un critère pour que A ait une matrice triangulaire supérieure qui lui soit
semblable (et idem pour les endomorphismes) et c’est ce que nous ferons dans la suite de cette section.
(2) Si un endomorphisme u est trigonalisable, il existe une base dans laquelle sa matrice Qn M = (ai,j ) est
triangulaire supérieure. D’après la proposition 5.5.6, on a χu (X) = det(M − X.In ) = i=1 (ai,i − X). On
en déduit que les coefficients diagonaux de M sont exactement les valeurs propres λ1 , · · · , λr de u et que
si l’ordre de multiplicité de λi est ri , la valeur propre λi apparaı̂t ri fois sur la diagonale de M .
Définition 6.4.3. Un polynôme P ∈ K[X] non nul est un polynôme scindé sur K s’il n’a que des facteurs
irréductibles de degré 1. Autrement dit, P est scindé sur K si et seulement si il peut s’écrire
r
Y
P =a (X − λi )mr ,
i=1

où a ∈ K × et λ1 , . . . , λr ∈ K sont distincts. Cela équivaut encore au fait que P admet des racines dans
K (les λi dans l’expression) dont la somme des ordres de multiplicité est égale au degré de P .
Exemple 6.4.4. Considérons le polynôme X 2 +1. Sur R[X] il n’est pas scindé. En revanche, ce polynôme
est scindé dans C[X]. Plus généralement, le corps C est algébriquement clos donc tout polynôme de C[X]
est scindé. Dans R[X], tout polynôme peut s’écrire comme un produit de facteurs irréductibles de degré
au plus 2.
Ces définitions nous permettent de donner un critère de trigonalisation d’un endomorphisme.

Théorème 6.4.5. Soient E un K-espace vectoriel de dimension n et u un endomorphisme de E. Alors,


les assertions suivantes sont équivalentes :
(1) u est trigonalisable.
(2) Le polynôme caractéristique de u est un polynôme scindé sur K.
Preuve. Si l’on suppose que u est trigonalisable, il existe une base B de E dans laquelle la matrice
M = (ai,j ) de u est triangulaire supérieure. Mais alors, la matrice M − X.I est également une matrice

101
triangulaire supérieure Q
et son déterminant est le produit de ses coefficients diagonaux d’après la proposition
n
5.5.6. Ainsi, χu (X) = i=1 (ai,i − X) est un polynôme scindé2 sur K.
Réciproquement, on va procéder par récurrence sur n = dimK (E). Si n = 1, c’est clair. Supposons
maintenant que pour tout K-espace vectoriel de dimension n sur K et pour tout endomorphisme u de
cet espace vectoriel dont le polynôme caractéristique est scindé sur K, u est trigonalisable. Soit E un
K-espace vectoriel de dimension n + 1, et soit u ∈ End(E) tel que χu soit scindé sur K. Écrivons
r
Y
χu = (λi − X)mi ,
i=1

où λi ∈ K sont tous distincts. Alors λ1 est une valeur propre de u, donc il existe x ∈ E \ {0} tel que
u(x) = λ1 .x. La famille {x} étant libre, on peut la compléter en une base B = {x, e1 , · · · , en } de E. Alors
M = MatB (u) est de la forme  
λ1 ∗
M= .
0 M0

Écrivons C = {e1 , · · · , en }. Soient F = Vect(C) et v l’unique endomorphisme de F dont la matrice dans


la base C est la matrice M 0 . D’après la proposition 5.5.11, on a

χu (X) = (λ1 − X). det(M 0 − X.In ) = (λ1 − X)χv (X).

On en déduit que
r
Y
χv (X) = (λ1 − X)m1 −1 . (λi − X)mi
i=2

est scindé sur K. Alors F est de dimension n, v ∈ End(F ) et χv est scindé sur K donc, par hypothèse de
récurrence, il existe une base C 0 = {e01 , · · · , e0n } de F telle que T = MatC 0 (v) soit triangulaire supérieure.
Soit P la matrice de passage de C à C 0 . Alors on a T = P −1 M 0 P . Soit B 0 = {x, e01 , · · · , e0n } : c’est une
base de E. Alors la matrice de passage de B à B 0 est
 
1 0
Q= ,
0 P

et on a  
−1 λ1 ∗
MatB0 (u) = Q MQ = ,
0 T
qui est triangulaire supérieure. Ainsi u est trigonalisable, et ceci achève la récurrence. 

Corollaire 6.4.6. Soient E un C-espace vectoriel de dimension finie et u un endomorphisme de E. Alors


u est trigonalisable.
Preuve. Étant donné que tout polynôme est scindé sur C, cela provient directement du théorème 6.4.5.


2 Attention
Qn
: les ai,i ne sont pas forcément distincts. En regroupant ceux qui sont distincts, on écrit χu (X) = i=1 (λi −
X)ni et les λi sont les valeurs propres de l’endomorphisme u.

102
6.4.2 Un exemple
Traitons concrètement un exemple de trigonalisation sur R; On considère l’endomorphisme u de R3 dont
la matrice dans la base canonique est
 
3 1 −1
A =  1 1 1 .
2 0 2

On trouve aisément que χu (X) = (2 − X)3 donc 2 est l’unique valeur propre de u. On trouve que E2 =
Vect{(0, 1, 1)} et dim(E2 ) = 1. D’après le théorème 6.3.10, on en déduit que u n’est pas diagonalisable.
Par contre, χu est scindé sur R donc u est trigonalisable. Il existe une base B = {e1 , e2 , e3 } de R3 dans
laquelle la matrice de u est  
2 ∗ ∗
M = 0 2 ∗ 
0 0 2
d’après 6.4.2.
On a alors u(e1 ) = 2e1 ce qui signifie que l’on peut choisir e1 ∈ E2 . Prenons donc e1 = (0, 1, 1). Il
s’agit donc de trouver e2 , e3 ∈ R3 tel que u(e2 ) = λ.e1 + 2e2 pour λ ∈ R et tels que {e1 , e2 , e3 } soit une
base de R3 . Si on écrit e2 = (x, y, z), λ étant donné, on trouve e2 comme solution d’un système linéaire de
trois équations à trois inconnues qui équivaut à x = λ2 et y − z = − λ2 . Il suffit donc de prendre λ non nul
quelconque et on a alors un vecteur e2 tel que u(e2 ) = λ.e1 + 2e2 avec {e1 , e2 } libre. Prenons donc y = 0
et λ = 2. On a alors e2 = (1, 0, 1). On complète avec n’importe quel vecteur e3 tel que {e1 , e2 , e3 } soit
libre, par exemple e3 = (0, 0, 1). Dans ce cas la matrice de u dans cette base est bien triangulaire comme
attendu :  
2 2 −1
M =  0 2 1 .
0 0 2

6.5 Polynômes d’endomorphismes


Dans cette section, nous nous intéressons aux polynômes d’endomorphismes qui vont nous permettre
de définir le polynôme minimal et les espaces caractéristiques d’un endomorphisme donné. Ces outils
serviront à la reformulation des critères de diagonalisation (resp. de trigonalisation) vus ci-dessus en
termes de polynômes annulateurs de l’endomorphisme considéré.

6.5.1 Définitions
Proposition 6.5.1. (1) Soient E un K-espace vectoriel, u ∈ End(E). Si P ∈ K[X] s’écrit P (X) =
P q k
k=0 ak X , on note
Xq
P (u) = ak uk ,
k=0
0 k
où u = IdE et u est l’endomorphisme u ◦ · · · ◦ u (k fois) pour k ≥ 1. Alors l’application ϕu : K[X] →
End(E) : P 7→ P (u) est un morphisme d’algèbres. SonP image est une sous-algèbre de End(E) notée K[u].
q
(2) Soient A ∈ Mn (K). Si P ∈ K[X] s’écrit P (X) = k=0 ak X k , on note
q
X
P (A) = ak Ak ,
k=0

103
où A0 = In et Ak est la puissance k-ième de A pour k ≥ 1. Alors l’application ϕA : K[X] → Mn (K) :
P 7→ P (A) est un morphisme d’algèbres. Son image est une sous-algèbre de Mn (K) notée K[A].
Preuve. C’est évident. 

Définition 6.5.2. On reprend les notations de la proposition précédente. Un élément de K[u] (resp. de
K[A]) est appelé un polynôme d’endomorphisme (resp. un polynôme de matrices).
Proposition 6.5.3. Soient E un K-espace vectoriel de dimension n et u un endomorphisme de E. Soit
A la matrice de u dans une certaine base. Alors si P ∈ K[X], les assertions suivantes sont équivalentes :
(1) P (u) = 0.
(2) P (A) = 0.
Preuve. Remarquons tout d’abord que pour tout k ≥ 1, si A est la matrice de u dans une base fixée de
E, Ak est la matrice de uk dans cette même base. On en déduit que P (A) est la matrice de P (u) dans
cette base (voir théorème 4.4.10).
Cela étant, l’endomorphisme P (u) est nul si et seulement si P (u)(x) = 0E quel que soit x ∈ E qui
équivaut au fait que P (A).x = 0E quel que soit x ∈ E, encore équivalent au fait que P (A) = 0Mn (K) . 

6.5.2 Théorème de Cayley-Hamilton


Le but de cette sous-section est de montrer que χu (u) = 0 (au sens de la sous-section précédente). Com-
mençons par deux exemples.
Exemples 6.5.4. (1) Soit u l’endomorphisme de R3 dont la matrice dans la base canonique est la matrice
A de l’exemple 6.2.16. On a vu que χu (X) = −X(X − 3)2 . Alors
     
−2 1 1 3 3 3 0 0 0
χu (A) = −A.(A − 3I3 )2 =  1 −2 1  .  3 3 3  =  0 0 0  .
1 1 −2 3 3 3 0 0 0

Ainsi χu (A) = 0 et d’après la proposition 6.5.3, χu (u) = 0.


(2) Montrons que χu (u) = 0 pour tout endomorphisme usur un K-espace
 vectoriel E de dimension 2. La
a b
matrice de u dans un base quelconque de E s’écrit A = . On a χu (X) = (a − X)(c − X) − bd.
c d
Alors
     
0 −b c − a −b bd 0
χu (A) = (a.I2 −A).(c.I2 −A)−bd.I2 = . −bd.I2 = +bd.I2 = 0,
−d a − c −d 0 0 bd

d’où χu (A) = 0 puis χu (u) = 0 par la proposition 6.5.3.


Théorème 6.5.5 (Cayley-Hamilton). Soit E un K-espace vectoriel de dimension finie et soit u un endo-
morphisme de E. Désignons par χu le polynôme caractéristique de u. Alors χu (u) = 0.
Preuve. Pour montrer que χu (u) est l’endomorphisme nul, il s’agit de montrer que χu (u)(v) = 0 quel que
soit v ∈ E. Clairement, on a χu (u)(0) = 0. Soit maintenant v ∈ E, v 6= 0. Puisque E est de dimension
finie, il existe un entier 1 ≤ d ≤ n tel que la famille {v, u(v), . . . , ud−1 (v)} soit libre et de cardinal maximal.
Alors la famille {v, u(v), . . . , ud (v)} est liée par maximalité, et donc il existe λ0 , . . . , λd ∈ K non tous nuls
tels que λ0 .v + . . . + λd .ud (v) = 0. On a évidemment λd 6= 0, sinon tous les λi seraient nuls, la famille
{v, u(v), . . . , ud−1 (v)} étant libre. Ainsi, la relation précédente se réécrit

ud (v) = −a0 v − a1 u(v) − . . . − ad−1 ud−1 (v), ai ∈ K.

104
Complétons {v, u(v), . . . , ud−1 (v)} en une base Bv de E. Soit M = MatBv (u). Alors M est une matrice
triangulaire supérieure par blocs de la forme
 
A B
M= ,
0 C
où A est la matrice compagnon
 
0 0 0 −a0

 1 0 −a1 

A=
 0 1 −a2 .

 .. .. 
 . . 
0 0 ··· 1 −ad−1
Par la proposition 5.5.11, on a χM = χA .χC , et donc
χu (u) = χM (u) = χA (u) ◦ χC (u) = χC (u) ◦ χA (u).
Pour montrer que χu (u)(v) = 0, il suffit donc de vérifier que χA (u)(v) = 0, puisqu’alors χu (u)(v) =
χC (u)(0) = 0. Pour ce faire, il suffit de montrer que l’on a χA (X) = (−1)d (ad X d + . . . + a1 X + a0 ). En
effet, dans ce cas on aura
χA (u)(v) = (−1)d (ud (v) + ad−1 ud−1 (v) + . . . + a1 u(v) + a0 v) = 0,
par choix des ai . On a
−X 0 −a0

1
−X −a1

χA (X) = 0
1 −a2 .

.. ..

. .

0 0 ··· 1 −X − ad−1
d d−1
Posons P = X + ad−1 X + . . . + a0 . En faisant l’opération L1 ↔ L1 + XL2 + . . . + X d−1 Ld , on obtient

0
0 −P

1 −X −a 1


χA =
0 1 −a 2 .

. .. .
..


0 0 · · · 1 −X − ad−1
En développant par rapport à la première ligne, on obtient

1 ∗ ∗ ∗

1 ∗ ∗
1+d
χA = (−1) (−P ) = (−1)d P,

..

. ∗
1
ce qui achève la démonstration. 

Remarque 6.5.6. Si E est un K-espace vectoriel de dimension n et si u est un endomorphisme de E, on


montre facilement qu’il existe un polynôme P de degré au plus n2 tel que P (u) = 0. Voici comment : on
2 2
a dim(End(E)) = n2 . La famille {Ide , u, u2 , · · · , un −1 , un } est une famille de End(E) de cardinal n2 + 1
donc elle est liée ce qui signifie exactement ce que nous annoncions. Le théorème de Cayley-Hamilton est
beaucoup plus précis : il montre qu’il existe un polynôme P de degré n tel que P (u) = 0 : il suffit de
prendre P = χu .

105
6.5.3 Polynôme minimal
Proposition 6.5.7. Soient E un K-espace vectoriel de dimension n et u un endomorphisme de E. Alors
il existe un unique polynôme unitaire µu ∈ K[X] tel que :
(1) µu (u) = 0.
(2) Si P ∈ K[X] \ {0} est tel que P (u) = 0 alors µu divise P .
Preuve. Soit ϕu : K[X] → K[u] : P 7→ P (u). D’après la proposition 6.5.1(1), ϕu est un morphisme
d’algèbres surjectif. Par ailleurs, ker(ϕu ) est un idéal de K[X]. Comme χu ∈ ker(ϕu ), ker(ϕu ) est un
idéal non nul3 de K[X]. Or K[X] est un anneau principal ce qui signifie exactement que tout idéal non
nul de cet anneau est engendré par un polynôme unitaire non nul uniquement déterminé que l’on note
µu . Par définition, µu ∈ ker(ϕu ) donc µu (u) = 0. Enfin, si P ∈ K[X] \ {0} est tel que P (u) = 0 alors
P ∈ ker(ϕu ) = µu K[X] donc µu divise P . 

Remarque 6.5.8. Pour prouver la proposition précédente, on peut également utiliser le fait que K[X]
est euclidien.
Définition 6.5.9. Soient E un K-espace vectoriel de dimension n et u un endomorphisme de E. Le
polynôme µu de la proposition précédente est appelé polynôme minimal de u.
Éclairons maintenant le rapport qu’il existe entre le polynôme minimal et le polynôme caractéristique.
Proposition 6.5.10. Soient E un K-espace vectoriel de dimension n et u un endomorphisme de E.
(1) Alors µu divise χu .
(2) Les valeurs propres de u sont exactement les racines dans K de son polynôme minimal.
Preuve. L’assertion (1) provient du fait que χu (u) = 0 d’après le théorème 6.5.5 de Cayley-Hamilton et
de la proposition 6.5.7.
Si λ ∈ K, effectuons la division euclidienne de µu (X) par (X − λ) : il existe un unique couple
(Q, R) ∈ K[X] tel que µu (X) = Q(X)(X − λ) + R(X) et 0 ≤ deg(R) < 1 ce qui signifie que R est constant
donc R(X) = µu (λ). Comme µu (u) = 0, on a
0 = µu (u) = Q(u) ◦ (u − λ.IdE ) + µu (λ).IdE .
Maintenant, si λ est une valeur propre de u, il existe x ∈ E \ {0} tel que u(x) = λ.x. Si on applique
l’égalité ci-dessus en x, on obtient
0 = Q(u)((u − λ.IdE )(x)) + µu (λ)x = µu (λ)x,
donc µu (λ) = 0 et λ est racine du polynôme minimal.
Inversement, si µu (λ) = 0, on a Q(u) ◦ (u − λ.IdE ) = 0 grâce à l’égalité ci-dessus. Le degré de Q est
strictement inférieur à celui de µu donc Q(u) 6= 0 par minimalité de µu . On en déduit donc que u − λ.IdE
n’est pas bijectif donc pas injectif et λ est une valeur propre de u. 

Exemples 6.5.11. (1) Le polynôme minimal de l’homothétie λ.IdE est X − λ.


(2) On a défini ci-dessus le polynôme minimal d’un endomorphisme u. On définit de manière similaire le
polynôme minimal d’une matrice M ∈ Mn (K).
(3) Trouvons le polynôme minimal de l’endomorphisme u de l’exemple 6.2.16. On a déjà vu que χu (X) =
−X(X − 3)2 . Or, µu divise χu . On en déduit que le polynôme minimal de u est X, (X − 3), X(X − 3),
(X − 3)2 ou χu lui-même. Ca n’est ni X, ni (X − 3), ni (X − 3)2 puisque les racines du polynôme minimal
sont 0 et 3. Mais A2 − 3A = 0 et on en déduit que µu (X) = X(X − 3).
3 on pouvait aussi dire que ϕ ne pouvait être injectif puisqu’alors ϕ serait un isomorphisme de K-algèbres ce qui est
u u
impossible puisque K[X] est de dimension infinie alors que End(E) (et donc K[u]) est de dimension finie.

106
Remarque 6.5.12. On peut montrer que le polynôme caractéristique et le polynôme minimal d’un en-
domorphisme ont les mêmes diviseurs irréductibles. Ceci est très important dans la pratique.

6.5.4 Espaces caractéristiques


Nous terminons cette section en exprimant la diagonalisabilité et la trigonalisabilité d’un endomorphisme
en termes de polynômes annulateurs et notamment du polynôme minimal. Avant cela, nous définissons
la notion d’espace caractéristique d’un endomorphisme et établissons un résultat connu sous le nom de
”lemme des noyaux”.
Définition 6.5.13. Soient E un K-espace vectoriel de dimension finie et u un endomorphisme de E. On
suppose que le polynôme minimal de u est scindé de sorte qu’il s’écrit sous la forme d’un produit fini
Y
µu (X) = (X − λ)qλ ,
λ∈K

On définit l’espace caractéristique associé à λ comme étant le sous-espace vectoriel Eλ0 = ker(u − λ.IdE )qλ .

Remarque 6.5.14. Sous les hypothèses de la définition ci-dessus, si λ est une valeur propre de u, le
sous-espace propre Eλ est inclus dans l’espace caractéristique Eλ0 . En outre, le sous-espace caractéristique
Eλ0 est un sous-espace vectoriel stable par u.
Lemme 6.5.15 (Lemme des noyaux). Soient P1 , · · · , Pm ∈ K[X] des polynômes premiers entre eux deux
à deux. On pose P = P1 · · · Pm . Alors, on a

ker(P (u)) = ker(P1 (u)) ⊕ · · · ⊕ ker(Pm (u)).

Preuve. Puisque les polynômes P1 · · · Pm−1 , Pm sont premiers entre eux deux à deux, il suffit de traiter
le cas m = 2, le cas général s’en déduisant par récurrence. Supposons donc m = 2.
Montrons tout d’abord que ker(P (u)) = ker(P1 (u)) + ker(P2 (u)). Rappelons que l’on a P (u) = P1 (u) ◦
P2 (u) = P2 (u) ◦ P1 (u). Pour i = 1, 2, si xi ∈ ker(Pi (u)), on a

P (u)(x1 + x2 ) = P (u)(x1 ) + P (u)(x2 )


= P2 (u)(P1 (u)(x1 )) + P1 (u)(P2 (u)(x2 ))
= P2 (u)(0) + P1 (u)(0)
= 0.

Ainsi, on a ker(P1 (u)) + ker(P2 (u) ⊂ ker(P (u)). Inversement, soit x ∈ ker(P (u)). Puisque P1 et P2
sont premiers entre eux, on peut leur appliquer le théorème de Bezout. Il existe U, V ∈ K[X] tels que
U P1 + V P2 = 1. On a alors IdE = U (u) ◦ P1 (u) + V (u) ◦ P2 (u). Posons

x1 = (V P2 )(u)(x), x2 = (U P1 )(u)(x).

On a donc x = x1 + x2 . Vérifions que x1 ∈ ker(P1 (u)). On a

P1 (u)(x1 ) = P1 (u)((V P2 )(u))(x) = (P1 (u) ◦ (V P2 )(u))(x) = (P1 V P2 )(u)(x).

On a donc
P1 (u)(x1 ) = (V P )(u)(x) = V (u)(P (u)(x)) = V (u)(0) = 0.
Ainsi x1 ∈ ker(P1 (u)). On montre de même que x2 ∈ ker(P2 (u)). On a ainsi l’égalité ker(P (u)) =
ker(P1 (u)) + ker(P2 (u)).

107
Il reste à montrer que la somme est directe Soit x ∈ ker(P1 (u)) ∩ ker(P2 (u)). On a alors

x = (U P1 )(u)(x) + (V P2 )(u)(x)
= U (u)(P1 (u)(x)) + V (u)(P2 (u)(x))
= U (u)(0) + V (u)(0)
= 0.

Ceci montre que la somme est directe et achève la démonstration. 

Théorème 6.5.16. Soient E un K-espace vectoriel de dimension finie et u un endomorphisme de E.


Alors, les assertions suivantes sont équivalentes :
(1) u est diagonalisable.
(2) Il existe un polynôme P scindé sur K à racines simples dans K tel que P (u) = 0.
(3) Le polynôme minimal de u est scindé sur K à racines simples dans K.
(4) Pour toute valeur propre λ de u, on a Eλ = Eλ0 .
Preuve. Montrons d’abord que (1) implique (2). Si u est diagonalisable et a pour valeurs propres
distinctes λ1 , · · · , λp ∈ K, on a
M p
E= Eλi ,
i=1
Qp
d’après la proposition 6.3.5. Posons alors P (X) = i=1 (X − λi ) et, pour tout i = 1, · · · , p, Pi (X) =
(X − λi ). Remarquons que ker(Pi (u)) = Eλi pour i = 1, · · · , p. Alors les polynômes P1 , · · · , Pp sont
premiers entre eux deux à deux donc, d’après le lemme 6.5.15, on a
p
M p
M
ker(P (u)) = ker(Pi (u)) = Eλi = E,
i=1 i=1

ce qui signifie que P (u) = 0. Ainsi, P est un polynôme scindé sur K à racines simples dans K tel que
P (u) = 0.
Montrons ensuite que (2) implique (3). Soit P un polynôme scindé à racines simples sur K tel que
P (u) = 0. Alors, par minimalité, µu divise P d’après la proposition 6.5.7 donc est également scindé sur
K à racines simples dans K.
Montrons maintenant que (3) implique (4). Si µu est un polynôme scindé sur K à racines simples
dans K, comme on sait que ses racines λ1Q , · · · , λp ∈ K sont exactement les valeurs propres distinctes de
p
u (voir proposition 6.5.10), on a µu (X) = i=1 (X − λi ). Par définition des espaces caractéristiques, on a
0
Eλi = ker(u − λi .IdE ) = Eλi .
Montrons enfin que (4) implique (1). Soient λ1 , · · · , λp les valeurs propres distinctes
Qpde u. Par définition
des espaces caractéristiques, comme Eλ0 i = Eλi pour i = 1, · · · , p, on a µu (X) = i=1 (X − λi ). Par le
lemme 6.5.15, on a
p
M Mp
ker(µu (u)) = ker(u − λi .IdE ) = Eλi .
i=1 i=1
Lp
En outre µu (u) = 0 donc E = i=1 Eλi ce qui signifie que u est diagonalisable par la proposition 6.3.5.


Exemple 6.5.17. Revenons sur l’exemple 6.2.16. En 6.5.11(3), on a vu que le polynôme minimal de
l’endomorphisme u considéré est µu (X) = X(X − 3). Il est scindé à racines simples donc on en déduit que

108
u est diagonalisable. Comme l’ordre de multiplicité de la valeur propre 0 est 1, on savait déjà que E0 = E00
est de dimension 1. Mais, l’ordre de multiplicité de la valeur propre 3 est 2 et comme u est diagonalisable,
E3 est de dimension 2 et on a E3 = E30 .

Voici l’analogue du théorème précédent pour la trigonalisabilité. La différence entre les deux résultats
réside dans l’ordre de multiplicité des valeurs propres.
Théorème 6.5.18. Soient E un K-espace vectoriel de dimension finie et u un endomorphisme de E.
Alors, les assertions suivantes sont équivalentes :
(1) u est trigonalisable.
(2) Il existe un polynôme scindé sur K tel que P (u) = 0.
(3) Le polynôme minimal de u est scindé sur K.
(4) Le polynôme caractéristique de u est scindé sur K.
Preuve. Montrons d’abord que (1) implique (2). Si u est trigonalisable, le polynôme caractéristique χu
de u est scindé sur K d’après le théorème 6.4.5 et χu (u) = 0 d’après le théorème de Cayley-Hamilton
6.5.5.
Montrons ensuite que (2) implique (3). Soit P un polynôme scindé sur K tel que P (u) = 0. Alors, le
polynôme minimal µu divise P d’après la proposition 6.5.7 donc est également scindé sur K.
Montrons que (3) implique (4). D’après la remarque 6.5.12, χu a les mêmes diviseurs irréductibles que
µu . Comme µu est scindé sur K,on en déduit qu’il en va de même pour χu .
Le fait que (4) implique (1) provient du théorème 6.4.5. 

On finit cette section par un théorème de diagonalisation simultanée. On commence par un lemme.
Lemme 6.5.19. Soit u ∈ End(E), et soit F un sous-espace vectoriel stable par u. Si u est diagonalisable,
alors u|F ∈ End(F ) est diagonalisable.
Preuve. Si u est diagonalisable, alors µu est scindé à racines simples par le théorème 6.5.16. Mais alors
on a
µu (u|F ) = µu (u)|F = 0,
et donc µu|F divise µu . Ainsi, µu|F est aussi scindé à racines simples, et u|F est diagonalisable en
conséquence du théorème 6.5.16. 

Théorème 6.5.20. Soient u, u0 ∈ End(E) tels que u ◦ u0 = u0 ◦ u. Si u et u0 sont diagonalisables, alors


ils sont diagonalisables dans une même base.
Preuve. Soit λ ∈ K une valeur propre de u. Alors Eλ est stable par u0 . En effet, si x ∈ Eλ , on a

u(u0 (x)) = u0 (u(x)) = u0 (λx) = λu0 (x).

Par le lemme précédent, u0|E est diagonalisable. Ainsi Eλ admet une base formée de vecteurs propres de
λ
u0|E , qui sont a fortiori des vecteurs propres de u0 . Mais les vecteurs de cette base sont aussi des vecteurs
λ
propres de u, puisque ce sont des éléments de Eλ . Comme u est diagonalisable, E est somme directe des
Eλ . En recollant les bases précédentes, on obtient alors une base de E qui est constituée de vecteurs qui
sont à la fois des vecteurs propres de u et de u0 . 

109
Remarques 6.5.21. (1) Le résultat précédent reste vrai en remplaçant ”diagonalisable” par ”trigonalis-
able”.
(2) On peut aussi montrer que si (fi )i∈I est une famille d’endomorphismes diagonalisables (resp. trigonal-
isables) telle que fi ◦ fj = fj ◦ fi pour tous i, j ∈ I alors il existe une base de E dans laquelle les matrices
des fi sont toutes diagonales (resp. triangulaires supérieures).
(3) On voit facilement que si u et u0 sont deux endomorphismes qui commutent, alors Im (u)et ker(u) sont
stables par u0 .

6.6 Endomorphismes nilpotents


Dans cette section, nous étudions les nilpotents de l’anneau End(E). De plus, nous établissons la
décomposition de Dunford qui est d’une grande utilité pratique.

6.6.1 Définitions et caractérisations


Définition 6.6.1. (1) Une matrice A ∈ Mn (K) est dite nilpotente s’il existe p ∈ N tel que Ap = 0.
(2) Un endomorphisme u ∈ End(E) est dit nilpotent s’il existe p ∈ N tel que up = 0.
Remarques 6.6.2. (1) On montre aisément qu’un endomorphisme est nilpotent si et seulement si sa
matrice dans une base quelconque de E est nilpotente.
(2) On prendra garde à la structure algébrique de l’ensemble N des endomorphismes nilpotents de End(E).
En général, la somme de deux endomorphismes nilpotents n’est pas un endomorphisme nilpotent (cela peut
quand même être le cas, par exemple si ces endomorphismes commutent). Par contre si u est nilpotent
alors λ.u est aussi nilpotent quel que soit λ ∈ K : on dit que N est un cône vectoriel.
Caractérisons maintenant les endomorphismes nilpotents en termes de polynômes annulateurs.

Théorème 6.6.3. Soient E un K-espace vectoriel de dimension finie n et u un endomorphisme de E.


Alors, les assertions suivantes sont équivalentes :
(1) u est un endomorphisme nilpotent.
(2) Il existe p ∈ N tel que µu (X) = X p .
(3) χu (X) = (−1)n X n .
(4) L’endomorphisme u est trigonalisable avec des zéros sur la diagonale.
(5) L’endomorphisme u est trigonalisable et sa seule valeur propre est zéro.
Preuve. Montrons d’abord que (1) implique (2). Si u est un endomorphisme nilpotent, il existe q ∈ N tel
que uq = 0 donc P (X) = X q est un polynôme annulateur de u et µu divise X q ce qui implique forcément
qu’il existe p ∈ N, p ≤ q, tel que µu (X) = X p .
Montrons ensuite que (2) implique (3). S’il existe p ∈ N tel que µu (X) = X p , étant donné que χu a
les mêmes facteurs irréductibles que µu d’après la remarque 6.5.12, on en déduit que χu (X) = (−1)n X n .
Montrons que (3) implique (4). Si χu (X) = (−1)n X n alors sa seule valeur propre est zéro et le
polynôme caractéristique de u est scindé donc u est trigonalisable d’après le théorème 6.4.5. Comme on
peut lire les valeurs propres d’un endomorphisme trigonalisable sur la diagonale de sa matrice triangulaire
supérieure dans une base de trigonalisation, on en déduit (4).
Le fait que (4) implique (5) est évident.
Montrons enfin que (5) implique (1). Supposons que u soit trigonalisable et que sa seule valeur propre
soit zéro. Dans une base de trigonalisation, la matrice de u est triangulaire supérieure avec des zéros sur la

110
diagonale donc χu (X) = (−1)n X n . Comme χu (u) = 0, on en déduit que un = 0 donc que u est nilpotent.


6.6.2 Décomposition de Dunford


Les études précédentes ont mis en valeur les endomorphisme diagonalisables et nilpotents (entre autres).
Le théorème suivant montre qu’un endomorphisme est uniquement décomposable en somme de tels endo-
morphismes.
Théorème 6.6.4 (Décomposition de Dunford). Soient E un K-espace vectoriel de dimension finie et
u un endomorphisme de E. Supposons que le polynôme caractéristique de u est scindé sur K. Alors il
existe une unique décomposition u = d + n telle que d est un endomorphisme diagonalisable, n est un
endomorphisme nilpotent et d ◦ n = n ◦ d. De plus, d et n sont des polynômes en u.

Preuve. Commençons par remarquer que, puisque χu est scindé sur K, il en va de même pour µu
(théorème 6.5.18). On peut donc écrire
Y
µu (X) = (X − λ)qλ .
λ∈K

D’après le lemme des noyaux, puisque les polynômes (X − λ)qλ sont premiers entre eux, on a
M
E = ker(µu (u)) = Eλ0 .
λ∈K

associe la projection pλ sur Eλ0 parallèlement à 0


L
A chaque valeur propre λ de u, on Q µ∈K,µ6=λ Eλ .
qλ qµ
Posons P1 (X) = (X − λ) et P2 (X) = µ∈K (X − µ) . Ces polynômes sont premiers entre eux donc il
existe U, V ∈ K[X] tels que U P1 + V P2 = 1 (comme dans la preuve du lemme des noyaux) ce qui signifie
que IdE = U (u) ◦ P1 (u) + V (u) ◦ P2 (u). Ainsi, pour tout x ∈ E,

x = P1 (u)(U (u)(x)) + P2 (u)(V (u)(x)), P1 (u)(U (u)(x)) ∈ ker(P2 (u)), P2 (u)(V (u)(x)) ∈ ker(P1 (u)) = Eλ0 .

Cela signifie donc que pλ = P2 (u)(V (u)) est un polynôme en u.


A chaque valeur
P propre λ de u, on a ainsi associé une projection pλ qui est un polynôme en u et on a,
par définition, λ∈K pλ = IdE . Écrivons alors
X X X
u = u ◦ IdE = u ◦ pλ = λpλ + (u − λIdE ) ◦ pλ ,
λ∈K λ∈K λ∈K
P P
et posons d = λ∈K λpλ et n = λ∈K (u − λIdE ) ◦ pλ . Alors, on a u = d + n et les endomorphismes
d et n sont des polynômes en u puisque c’est le cas des pλ . En outre, on voit que les valeurs propres de
l’endomorphisme d sont exactement les valeurs propres de u et que le sous-espace propre associé à λ pour
d est Eλ0 . Comme E = ⊕λ∈K Eλ0 , d est diagonalisable par le théorème 6.3.5. Remarquons ensuite que
pλ ◦ pµ = 0 si λ 6= µ, que pλ ◦ pλ = pλ puisque pλ est un projecteur et que (u − λIdE ) et pµ commutent
puisque pµ est un polynôme en u. Soit m le plus petit commun multiple des qλ . Alors, compte tenu de ce
que l’on a dit, la formule du binôme de Newton donne
X
vm = (u − λ.IdE )m ◦ pλ .
λ∈K

111
Mais puisque m est un multiple de qλ et que l’image de pλ est Eλ0 = ker(u − λ.IdE )qλ , on a v m = 0 et v
est nilpotent. Enfin, d et n commutent car les pλ sont des polynômes en u.
Montrons maintenant l’unicité de la décomposition de Dunford. Si l’on a une autre décomposition
u = d0 + n0 avec d0 diagonalisable, n0 nilpotent et d0 ◦ n0 = n0 ◦ d0 , les endomorphismes d0 et n0 commutent
avec u, donc avec tout polynôme en u, donc avec d et n. On peut écrire d − d0 = n0 − n. Comme n et
n0 commutent, l’endomorphisme n − n0 est un endomorphisme nilpotent d’après la formule du binôme de
Newton. Puisque d et d0 commutent, ils sont diagonalisables dans une base commune d’après le théorème
6.5.20 donc d − d0 est diagonalisable. Ainsi, l’endomorphisme d − d0 est à la fois diagonalisable et nilpotent.
On déduit des théorèmes 6.5.16 et 6.6.3 que son polynôme minimal est à la fois scindé à racines simples
et qu’il existe p ∈ N tel que µd−d0 (X) = X p . La seule solution est que p = 1 ce qui signifie que d = d0 puis
que n = n0 d’où l’unicité. 

Remarque 6.6.5. La décomposition


 deDunford comporte un certains nombres de pièges. Par exemple,
1 2
considérons la matrice A = . Un erreur classique consiste à dire que la décomposition de
0 −1
Dunford de A est    
1 0 0 2
A= + .
0 −1 0 0
Si la première matrice est bien diagonalisable (puisqu’elle est diagonale) et que la seconde est bien nilpo-
tente, on vérifie que ces matrices ne commutent pas donc cela n’est pas la décomposition de Dunford de A.
En fait, A est elle-même diagonalisable puisque son polynôme caractéristique est scindé à racines simples
donc la décomposition de Dunford de A est A = A + 0.

6.7 Quelques applications


La réduction des endomorphismes d’un K-espace vectoriel E de dimension finie a un certain nombres
d’applications. Dans cette dernière section, nous en évoquons certaines.

6.7.1 Application au calcul des itérés d’un vecteur sous l’action d’un endo-
morphisme
Les théorèmes que nous avons démontrés dans ce chapitre sont particulièrement intéressants pour calculer
l’orbite d’un vecteur v ∈ E sous l’action d’un endomorphisme u de E : par définition cette orbite est la
suite (up (v))p∈N .
Si l’on suppose que u est diagonalisable, sa matrice D dans une base convenable B = {e1 , · · · , en } est
diagonale. On écrit D = Diag(λ1 , · · · , λn ) ce qui signifie que D est diagonale, et que ses entrées diagonales
successives sont λ1 , · · · , λn . Dans ce cas,
Peni est un vecteur propre associé à la valeur propre λi . Supposons
que le vecteur v considéré s’écrive v = i=1 vi ei . Alors pour tout p ∈ N, on a
n
X
up (v) = vi λ i p e i .
i=1

Dans ce cas, le calcul de l’orbite est aisé.


Si u n’est pas diagonalisable, supposons que son polynôme caractéristique est scindé. Alors, d’après le
théorème 6.6.4, on peut écrire u = d + n avec d diagonalisable, n nilpotent et tels que d et n commutent.
Soit m l’entier tel que nm = 0 et nm−1 6= 0. Par la formule du binôme de Newton, on a
m−1
X k 
p
u = nk dp−k ,
p
k=0

112
pour tout p ≥ m (si p ≤ m, on a une formule similaire). Soit B = {e1 , · · · , en }Pune base de vecteurs
n
propres de d (notons λi la valeur propre à laquelle ei est associé) et écrivons v = i=1 vi ei . Alors, pour
tout p ≥ m
n m−1  
p−k k
X X
p
u (v) = λi nk (ei ).
i=1
p
k=0

6.7.2 Puissances d’une matrice


Si A ∈ Mn (K) est une matrice diagonalisable, il existe une matrice P ∈ GLn (K) et une matrice D =
Diag(λ1 , · · · , λn ) diagonale telles que A = P DP −1 . Alors, si m ∈ N, on a

Am = (P DP −1 )(P DP −1 ) · · · (P DP −1 ) = P Dm P −1 = P Diag(λ1 m , · · · , λn p )P −1 .

On notera que cette formule s’étend à m ∈ Z si l’on suppose que A est inversible.

6.7.3 Résolution de systèmes linéaires


On considère dans cette sous-section un endomorphisme u d’un K-espace vectoriel E de dimension finie
qui soit trigonalisable4 . On veut résoudre le système linéaire avec second membre u(v) = w.
Puisque u est trigonalisable, il existe une base B de E dans laquelle la matrice T de u est triangulaire
supérieure. Si (w1 , · · · , wn ) sont les coordonnées de w dans la base B, on est alors amené à résoudre le
système    
v1 w1
 v2   w 2 
T  .  =  . .
   
 ..   .. 
vn wn
Attention : l’endomorphisme u n’étant pas forcément injectif, il peut avoir des valeurs propres nulles et
donc T peut avoir des entrées diagonales nulles ce qui conduit à étudier des conditions de compatibilité.
En revanche, si u est injective, le système précédent a une unique solution puisqu’alors T est inversible.

6.7.4 Résolution de systèmes récurrents


On se pose le problème suivant : on recherche toutes les suites complexes U1 , · · · , Up solutions du système
récurrent suivant
p
X
Ui (n) = ai,j Uj (n − 1),
j=1

où ai,j ∈ C pour tout i, j ∈ {1, · · · , p}. Si on pose A = (ai,j ) ∈ Mp (C), le problème équivaut matricielle-
ment à ce que Xn = A.Xn−1 . Si A est diagonalisable, il existe P ∈ GLn (C) et D diagonale telles que
A = P DP −1 . Posons alors Yn = P −1 .Xn . Alors Xn = A.Xn−1 équivaut à Yn = DYn−1 soit à Yn = Dn Y0 .
Dans le cas des suites récurrentes, on se ramène à un système récurrent. Par exemple, si l’on étudie
Un+3 − 2Un+2 − Un+1 + 2Un = 0, en posant Vn = Un , Wn = Un+1 , Xn = Un+2 , on est ramené à
    
Vn+1 0 1 0 Vn
 Wn+1  =  0 0 1   Wn  .
Xn+1 −2 1 2 Xn
4 rappelons que c’est toujours le cas si K = C d’après le théorème 6.4.5

113
6.7.5 Résolutions de systèmes différentiels à coefficients constants
Soient I un intervalle de R et f1 , · · · , fn n fonctions continues sur I à valeurs dans C. Soit A ∈ Mn (C).
On cherche s’il existe des fonctions y1 , · · · , yn dérivables de I dans C solutions du système différentiel
suivant :  0     
y1 (t) y1 (t) f1 (t)
 y20 (t)   y2 (t)   f2 (t) 
0
Y (t) =  .  = A  .  +  .  = AY (t) + F (t),
     
 ..   ..   .. 
yn0 (t) yn (t) fn (t)
quel que soit t ∈ I. Comme A ∈ Mn (C), elle est trigonalisable, donc il existe Q ∈ GLn (C) et T une
matrice triangulaire supérieure telles que A = QT Q−1 .
Posons alors Z(t) = Q−1 Y (t) et G(t) = Q−1 F (t) alors Z 0 (t) = Q−1 Y 0 (t) (puisque Q est à coefficients
complexes) et le système différentiel équivaut à Z 0 (t) = T Z(t) + G(t).
Le cas des équations différentielles linéaires à coefficients constants se ramène au cas de la résolution
d’une système différentiel linéaire adapté. Par exemple, l’équation différentielle  y 00 + ay 0+ by = f où
y(t)
a, b ∈ C et f est une fonction continue de I dans C se traite en posant Y (t) = 0 . L’équation
   y (t)

0 1 0
différentielle équivaut alors au système différentiel Y 0 (t) = Y (t) + .
−b −a f (t)

6.7.6 Calcul de polynômes d’endomorphismes


Soient u un endomorphisme d’un K-espace vectoriel E de dimension n et P ∈ K[X]. On se donne une
base B de E dans laquelle on suppose que l’on connait la matrice M de u. Le problème que l’on se pose
est le calcul de la matrice de l’endomorphisme P (u) dans la base B.
La première étape consiste à effectuer la division euclidienne de P par le polynôme caractéristique χu
de u. Il existe un unique couple (Q, R) ∈ K[X]2 tels que P = χu Q + R avec p = deg(R) < n = deg(χu ).
D’après le théorème de Cayley-Hamilton 6.5.5, on a χu (u) = 0 donc P (u) = R(u), c’est à dire si R(X) =
P p i
i=0 ai X que
P (u) = a0 IdE + a1 u + · · · + ap up .
On voit donc qu’il suffit de connaı̂tre les matrices des endomorphismes ui (i ≤ p) pour connaı̂tre celle de
P (u).
Si on suppose que u est diagonalisable, il existe une matrice Q ∈ GLn (K) et une matrice D =
Diag(λ1 , · · · , λn ) telles que M = QDQ−1 . D’après la sous-section sur le calcul des puissances de matrice,
on en déduit que MatB (ui ) = QDi Q−1 pour tout 1 ≤ i ≤ p. On a donc MatB (ui ) = QDiag(λ1 i , · · · , λn i )Q−1 .
On en déduit que
MatB (P (u)) = QDiag(P (λ1 ), · · · , P (λn ))Q−1 .
Si on suppose que le polynôme caractéristique de u est scindé, d’après le théorème 6.6.4, on peut
écrire u = d + n où d est diagonalisable, n est nilpotent tels que d et n commutent. Soit m l’entier
vérifiant nm = 0 et nm−1 6= 0. On note N = MatB (n). Il existe Q ∈ GLn (K) tel que D = MatB (d) =
QDiag(λ1 , · · · , λn )Q−1 . Comme d et n commutent, la formule du binôme de Newton donne
m−1
X 
l
MatB (up ) = MatB (u)p = N l Dp−l
p
l=0

pour p ≥ l (mais il y a une formule similaire pour p < m) d’où l’on déduit la matrice de P (u) dans la base
B.

114
Chapitre 7

Formes bilinéaires et formes


quadratiques

Dans ce chapitre, E désignera un K-espace vectoriel. Les résultats de ce chapitre sont vrais sur un
corps K quelconque à l’exception des résultats concernant les formes bilinéaires symétriques et les formes
quadratiques pour lesquels on supposera explicitement que la caractéristique du corps est différente de 2.
Le lecteur pourra supposer que K = Q, R ou C.

7.1 Le concept de dualité


7.1.1 Espace dual
Dans la définition 3.1.5, on avait défini les notions de forme linéaire et d’espace dual. Rappelons les ici
pour le confort du lecteur.
Définition 7.1.1. On appelle forme linéaire sur E une application linéaire de E dans K. L’ensemble des
formes linéaires est appelé espace dual de E et est noté E ∗ au lieu de L(E, K).
Rappelons qu’une forme linéaire est soit nulle, soit surjective d’après le théorème du rang. En
conséquence, le noyau d’une forme linéaire non nulle est un hyperplan de E. Rappelons également que
l’espace dual est muni d’une structure de K-espace vectoriel (voir proposition 8.2.3).

7.1.2 Base duale


On suppose maintenant que le K-espace vectoriel E est de dimension finie n.
Définition 7.1.2. Soit B = {e1 , · · · , en } une base de E. Pour i = 1, · · · , n on définit une forme linéaire e∗i
de la façon suivante : si x ∈ E et si (x1 , · · · , xn ) sont ses coordonnées dans la base B, on pose e∗i (x) = xi .

Lemme 7.1.3. Avec les notations de la définition précédente, on a


n
X
x= e∗i (x)ei
i=1
.

115
Preuve. Cela vient de la définition des coordonnées d’un vecteur dans une base et de celle des e∗i :
n
X n
X
x= xi ei = e∗i (x)ei .
i=1 i=1

Remarque 7.1.4. En conservant les notations précédentes, on peut remarquer que l’on a e∗i (ej ) = δi,j ,
où δi,j est le symbole de Kronecker (qui vaut 1 si i = j et 0 sinon).
Proposition 7.1.5. Avec les notations précédentes, notons B ∗ = {e∗1 , · · · , e∗n }. Alors B ∗ est une base de
E∗.
Pn Pn
Preuve. Soit f une forme linéaire sur E. Si x ∈ E est tel que x = i=1 xi ei = i=1 e∗i (x)ei alors
n
X n
X
f (x) = e∗i (x)f (ei ) = ( f (ei )e∗i )(x),
i=1 i=1
Pn
ce qui signifie que les formes linéaires f et i=1 f (ei )e∗i sont égales. En conséquence le système B ∗ est un
système générateur de E ∗ .
Pn
Soient λ1 , · · · , λn ∈ K tels que i=1 λi e∗i = 0. En appliquant successivement cette dernière forme
linéaire aux vecteurs e1 , · · · , en , on trouve que λ1 = 0, · · · , λn = 0 ce qui signifie que B ∗ est libre. C’est
donc une base de E ∗ . 

Remarque 7.1.6. Avec les notations précédentes, Pnsi f est une forme linéaire dont les coordonnées dans
la base B ∗ sont (c1 , · · · , cn ) (autrement dit si f = i=1 ci e∗i ), on vient de montrer que ci = f (ei ) donc que
n
X
f= f (ei )e∗i .
i=1

Théorème 7.1.7. Soit E un K-espace vectoriel de dimension n. Alors il existe un isomorphisme non
canonique1 entre E et E ∗ .
Preuve. D’après la proposition précédente, on a dimK (E ∗ ) = n = dimK (E) donc E et E ∗ sont isomorphes
d’après le théorème 3.3.9. Plus précisément, si B = {e1 , · · · , en } est une base de E, on définit une
application linéaire ϕ : E → E ∗ : ei 7→ e∗i pour i = 1, · · · , n. Alors l’image d’une base de E est une base
de E ∗ donc ϕ est un isomorphisme d’après le théorème 3.3.7(3). 

Question 7.1.8. Nous venons donc de voir qu’à toute base de E, nous pouvions associer une base de
E ∗ dite base duale. Nous nous intéressons maintenant à la réciproque : étant donnée une base de E ∗ ,
existe-t-il une base de E donc cette base est la duale ?
Étudions tout d’abord les noyaux des formes linéaires.
Proposition 7.1.9. (1) Soit f une forme linéaire non nulle sur E et soit H = ker(f ). Si g est une forme
linéaire qui est nulle en tout point de H, il existe λ ∈ K tel que g = λ.f .
(2) Deux formes linéaires ayant le même noyau sont proportionnelles.
(3) Soit E un espace vectoriel de dimension finie. Quel que soit x ∈ E \ {0}, il existe une forme linéaire
f telle que f (x) 6= 0.
1 c’est à dire dépendant du choix d’une base

116
Preuve. (1) Puisque f est non nulle, soit x0 ∈ E tel que f (x0 ) 6= 0. Quitte à multiplier x0 par un scalaire
adapté, on peut supposer que f (x0 ) = 1. Alors, on a H ⊕ Vect(x0 ) = E. Posons λ = g(x0 ) et considérons
la forme linéaire g − λf . Cette forme linéaire est nulle sur H par hypothèse ainsi que sur Vect(x0 ) par
construction. En conséquence, elle est nulle sur E donc g = λ.f .
(2) Cela vient directement de l’assertion (1).
(3) Puisque x 6= 0E , la famille {x} est libre et on peut la compléter en une base B = {e1 , e2 , · · · , en }
de E par le théorème de la base incomplète (on a noté e1 = x). La forme linéaire e∗1 de la base duale est
alors une forme linéaire qui vérifie e∗1 (x) = 1 6= 0. 

Proposition 7.1.10. Soient f1 , · · · , fk des formes linéaires indépendantes sur un espace vectoriel E de
dimension finie n. Soit
k
\
M= ker(fi ).
i=1

Alors dim(M ) = dim(E) − k.

Preuve. Puisque la famille {f1 , · · · , fk } est une famille libre de l’espace dual, on peut la compléter en
une base {f1 , · · · , fn } de E ∗ . Soit u : E → K n : x 7→ (f1 (x), · · · , fn (x)). Si x ∈ ker(u), on a f (x) = 0
pour tout f ∈ E ∗ donc x = 0E par contraposée de la proposition 7.1.9(3). Il en résulte que u est
injective donc bijective puisque u est une application linéaire et que dim(E) = n = dim(K n ) : c’est donc
un isomorphisme. Alors M = u−1 (N ) où N = {(x1 , · · · , xn ) ∈ K n | x1 = · · · = xk = 0}. Puisque
dim(N ) = n − k et que u−1 est un isomorphisme, on en déduit que dim(M ) = n − k. 

Remarque 7.1.11. Avec les mêmes notations, la proposition s’énonce plus généralement de la façon suiv-
ante. Si f1 , · · · , fk sont des formes linéaires quelqonques sur E alors dim(M ) = dim(E)−rang({f1 , · · · , fk }).
Répondons maintenant à la question 7.1.8.

Proposition 7.1.12. Toute base de E ∗ est la base duale d’une base de E.


Preuve. Soit {f1 , · · · , fn } une base de E ∗ . Reprenons les notations de la preuve de la proposition
précédente. Soit {g1 , · · · , gn } la base canonique de K n . Pour i = 1, · · · , n, on pose ei = u−1 (gi ). Alors
n −1
{e1 , · · · , en } estPune base de E puisque c’est l’image d’une base Pn de K par l’isomorphisme Pn u . Si x ∈ E,
n ∗ −1
écrivons
Pn x = e
i=1 i (x)e i . Par définition, on a u(x) = i=1 f i (x)gi d’où x = i=1 fi (x)u (gi ) =

i=1 f i (x)e i . Puisque {e 1 , · · · , en } est une base de E, on en déduit que fi (x) = e i (x) pour tout 1 ≤ i≤n
et pour tout x ∈ E. Cela prouve que {f1 , · · · , fn } est la base duale de {e1 , · · · , en }. 

7.1.3 Application linéaire transposée


Dans cette sous-section, on désigne par E et F deux K-espace vectoriels.
Définition 7.1.13. Soit f une application linéaire de E dans F . On appelle application linéaire transposée
de f l’application t f : F ∗ → E ∗ définie par (t f )(x∗ ) = x∗ ◦ f pour tout x∗ ∈ F ∗ .
Dans la proposition suivante, nous avons regroupé quelque propriétés liées à l’application transposée.

Proposition 7.1.14. Soit f une application linéaire de E dans F .


(1) L’application t f est une application linéaire de F ∗ dans E ∗ .
(2) Si g est une application linéaire de F dans G, on a t (g ◦ f ) = t f ◦ t g.

117
(3) Si f est un isomorphisme, on a (t f )−1 = t (f −1 ).
(4) Supposons que dimK (E) = m et dimK (F ) = n, soient B = {e1 , · · · , em } et C = {f1 , · · · , fn } deux
bases de E, et soient B ∗ et C ∗ leurs bases duales respectives. Alors
MatC ∗ ,B∗ (t f ) = t MatB,C (f ).
(5) Supposons que E soit un K-espace vectoriel de dimension finie. Soient B et C deux bases de E et
PasB,C la matrice de passage de la base B à la base C. Alors,
PasB∗ ,C ∗ = (t PasB,C )−1 .
Preuve. (1) Si x∗ , x0∗ ∈ F ∗ , λ ∈ K et u ∈ E, on a
((t f )(λ.x∗ + x0∗ ))(u) = (λ.x∗ + x0∗ )(f (u)) = (λ.(x∗ )(f ) + x0∗ (f ))(u),
d’où le résultat.
(2) Si x∗ ∈ G∗ , on a
t
(g ◦ f )(x∗ ) = x∗ ◦ (g ◦ f ) = (x∗ ◦ g) ◦ f = t f (x∗ ◦ g) = (t f ◦ t g)(x∗ ),
d’où le résultat.
(3) Si f est un isomorphisme alors pour x∗ ∈ E ∗
(t f ◦ t (f −1 ))(x∗ ) = t f (x∗ ◦ f −1 ) = x∗ ◦ (f ◦ f −1 ) = x∗ ,
donc (t f )−1 = t (f −1 ).
(4) Il suffit de voir que la i-ième colonne de la matrice MatC ∗ ,B∗ (t f ) contient les coordonnées de la
forme linéaire t f (fi∗ ) dans la base B ∗ . Or, on a vu dans la remarque 7.1.6 que la j-ième coordonnée d’une
forme linéaire x∗ dans la base B ∗ est égale à x∗ (ej ). En appliquant ceci à la forme linéaire t f (fi∗ ), on
obtient que le coefficient d’indice (j, i) de la matrice de l’application transposée dans les bases considérées
est t f (fi∗ )(ej ) = fi∗ (f (ej )) qui est le coefficient d’indice (i, j) de la matrice de l’application linéaire f dans
les bases considérées.
(5) On voit aisément que t IdE = IdE ∗ . Comme PasB,C = MatC,B (IdE ), on a,d’après le (4),
t
PasB,C = t MatC,B (IdE ) = MatB∗ ,C ∗ (IdE ∗ ) = PasC ∗ ,B∗ = Pas−1
B∗ ,C ∗ .

7.1.4 Bidual
Dans cette sous-section, nous étudions (rapidement) le dual du dual d’un K-espace vectoriel E.
Définition 7.1.15. On appelle bidual de E l’ensemble E ∗∗ des formes linéaires sur E ∗ .
Proposition 7.1.16. Supposons que E soit un K-espace vectoriel de dimension finie. Alors il existe un
isomorphisme canonique jE : E ' E ∗∗ .
Preuve. Définissons l’application jE : E → E ∗∗ : x 7→ jE (x) où jE (x)(x∗ ) = x∗ (x) ∈ K pour tout
x∗ ∈ E ∗ . Alors jE est une application linéaire et on a dim(E) = dim(E ∗ ) = dim(E ∗∗ ). Pour montrer que
jE est un isomorphisme, il suffit donc de montrer que jE est injective. Soit x ∈ E \ {0}, alors il existe une
forme linéaire x∗ ∈ E ∗ telle que x∗ (x) 6= 0 d’après la proposition 7.1.9(3). Ainsi, jE (x)(x∗ ) = x∗ (x) 6= 0
et donc jE (x) 6= 0E ∗∗ . Donc jE est injective et on en déduit le résultat. 

118
Remarque 7.1.17. Remarquons que la proposition précédente permet de retrouver le fait que toute base
de E ∗ est la base duale d’une base de E. Pour cela, considérons une base {f1 , · · · , fn } de E ∗ . Alors elle
admet une base duale {f1∗ , · · · , fn∗ } qui est une base de E ∗∗ . Pour chaque i = 1, · · · , n, il existe un unique
ei ∈ E tel que jE (ei ) = fi∗ . Enfin, fi (ej ) = fj∗ (fi ) = δi,j ce qui signifie que la base duale de {e1 , · · · , en }
est {f1 , · · · , fn }.

7.1.5 Le crochet de dualité


La section suivante sera consacrée à un exposé systématique de la notion de forme bilinéaire. Le cadre
offert par la dualité nous permet d’en donner un premier exemple.
Soient E un K-espace vectoriel et E ∗ son dual. On considère le produit cartésien E = E × E ∗ dont on
rappelle qu’il est muni d’une structure de K-espace vectoriel induite par celles de E et de E ∗ .
Définition 7.1.18. Avec les notations ci-dessus, l’application de E dans K qui à (v, x∗ ) associe x∗ (v) est
appelée crochet de dualité. On la note souvent h , iE,E ∗ de sorte que l’on a

h , iE,E ∗ : E × E → K : (v, x∗ ) = hv, x∗ iE,E ∗ = x∗ (v).

On prendra garde à la notation du crochet de dualité : il n’y a pas de symétrie au sein de ce crochet.
Regardons particulièrement deux propriétés de cette application. Si v, v 0 ∈ E, λ ∈ K et x∗ , x0∗ ∈ E ∗ , on
a
hλ.v + v 0 , x∗ iE,E ∗ = x∗ (λ.v + v 0 ) = λx∗ (v) + x∗ (v 0 ) = λ.hv, x∗ iE,E ∗ + hv 0 , x∗ iE,E ∗ ,
de sorte que le crochet de dualité est linéaire en la première variable. De plus

hv, λ.x∗ + x0∗ iE,E ∗ = (λ.x∗ + x0∗ )(v) = λ.x∗ (v) + x0∗ (v) = λ.hv, x∗ iE,E ∗ + hv, x0∗ iE,E ∗ ,

et le crochet de dualité est linéaire en la seconde variable. Nous dirons que le crochet de dualité est une
forme bilinéaire sur E × E ∗ .

7.2 Formes bilinéaires


7.2.1 Définitions et exemples
Dans cette sous-section les espaces vectoriels considérés sont de dimension quelconque.
Définition 7.2.1. (1) On appelle application bilinéaire une application b définie sur le produit cartésien
E × F de deux K-espaces vectoriels, à valeurs dans un troisième K-espace vectoriel G, telle que pour tout
x0 ∈ E, l’application E → G : y 7→ b(x0 , y) est une application linéaire et pour tout y0 ∈ F , l’application
F → G : x 7→ b(x, y0 ) est une application linéaire.
(2) Lorsque G = K, une application b : E × F → K définie sur le produit cartésien de deux K-espaces
vectoriels est appelée une forme bilinéaire. L’ensemble des formes bilinéaires sur E × F est noté B(E × F ).
Remarques 7.2.2. (1) Une forme 2-linéaire telle qu’on l’a définie au chapitre 5 est donc une forme
bilinéaire particulière : c’est une forme bilinéaire sur E × E.
(2) On vérifie aisément que B(E × F ) est muni d’une structure de K-espaces vectoriel.
Donnons une liste d’exemples en dimension finie et infinie.
Exemples 7.2.3. (1) Posons E = F = Rn et K = R. On munit E de sa base canonique. Si x, y ∈ E soient
(x1 , · · · , xn ) et (y1 , · · · , yn )P
leurs coordonnées respectives dans la base canonique de E. Alors l’application
n
b : E × E → R : (x, y) 7→ i=1 xi yi est une forme bilinéaire : c’est le produit scalaire usuel sur Rn . De

119
même l’application R2 × R3 → R : ((x1 , x2 ), (y1 , y2 , y3 )) 7→ x1 y2 + x2 (y1 − 2y3 ) est une forme bilinéaire sur
R2 × R3 . Par contre, l’application R × R → R : (x, y) 7→ xy 2 n’est pas une forme bilinéaire.
(2) Comme on l’a vu précédemment, le crochet de dualité est une forme bilinéaire sur E × E ∗ .
(3) Si L1 est une forme linéaire sur E et si L2 est une forme linéaire sur F alors on montre aisément que
l’application E × F → K : (x, y) 7→ L1 (x)L2 (y) est une forme bilinéaire sur E × F .
(4) Si E désigne le R-espace vectoriel des fonctions continues sur un intervalle [a, b] de R à valeurs dans R
alors Z b
Θ : E × E → R : (f, g) 7→ f (t)g(t)dt,
a

est une forme bilinéaire. Si E désigne le C-espace vectoriel des fonctions continues sur un intervalle [a, b]
de R à valeurs dans C alors Z b
Φ : E × E → C : (f, g) 7→ f (t)g(t)dt,
a
est linéaire en la première variable mais non linéaire en la seconde variable : dans le chapitre 9, une telle
forme sera appelée forme sesquilinéaire : elle est linéaire en la première variable et semi-linéaire en la
seconde variable (elle conjugue les scalaires).
(5) Si E est l’espace temps R4 et c est la vitesse de la lumière, l’application

E × E → R : ((x, y, z, t), (x0 , y 0 , z 0 , t0 )) 7→ xx0 + yy 0 + zz 0 − ctt0 ,

est une forme bilinéaire appelée forme de Lorentz qui a une grande utilité en théorie de la relativité
restreinte.
Proposition 7.2.4. On a un isomorphisme d’espaces vectoriels L(F, E ∗ ) ' B(E × F ).
Preuve. On définit un morphisme de K-espaces vectoriels Ψ : L(F, E ∗ ) → B(E×F ) : si ϕ ∈ L(F, E ∗ ) alors
on pose Ψ(ϕ)(x, y) = ϕ(y)(x) pour tous (x, y) ∈ E × F . C’est évidemment un morphisme de K-espaces
vectoriels. Réciproquement, on définit un morphisme de K-espaces vectoriels Ψ0 : B(E × F ) → L(F, E ∗ )
de la façon suivante : si θ ∈ B(E × F ), on pose Ψ0 (θ)(y)(x) = θ(x, y) pour tous (x, y) ∈ E × F . On vérifie
aisément que Ψ et Ψ0 sont inverses l’une de l’autre ce qui termine la preuve. 

Remarque 7.2.5. De par la symétrie que jouent E et F dans la proposition précédente, on a aussi des
isomorphismes de K-espaces vectoriels L(F, E ∗ ) ' B(E × F ) ' B(F × E) ' L(E, F ∗ ).

7.2.2 Matrice d’une forme bilinéaire


Désignons par E et F deux K-espaces vectoriels de dimension finie. Comme pour les applications linéaires
entre espaces vectoriels de dimension finie, nous montrons dans cette sous-section que toute forme bilinéaire
a une et une seule représentation matricielle dans des bases de E et F données. Nous étudions ensuite ce
qu’il se passe du point de vue du changement de base.

Définitions et exemples
Supposons que E est de dimension m et que F est de dimension n. Soient B = {e1 , · · · , em } une base de
E et C = {f1 , · · · fn } une base de F .

120
Proposition 7.2.6. (1) Soit b une forme bilinéaire sur E ×PF . Alors il existe une
Pn unique matrice M =
m
(mi,j ) ∈ Mm,n (K) telle que pour tous x ∈ E, y ∈ F , si x = i=1 ai ei et si y = j=1 bj fj alors
m X
X n
b(x, y) = mi,j ai bj .
i=1 j=1

(2) Avec les mêmes notations, si X est le vecteur colonne des coordonnées de x dans la base B et si Y est
le vecteur colonne des coordonnées de y dans la base C, on a la relation matricielle
b(x, y) = t XM Y.
Preuve. (1) Tout d’abord l’application définie par la formule est une forme bilinéaire sur E × F . De plus,
par bilinéarité
Xm n
X m X
X n
b(x, y) = b( ai ei , bj fj ) = b(ei , fj )ai bj .
i=1 j=1 i=1 j=1
Pour i = 1, · · · , m et j = 1, · · · , n, on pose mi,j = b(ei , fj ) d’où l’existence de M ∈ Mm,n (K). On en
déduit également l’unicité puisque la donnée des b(ei , fj ) détermine entièrement la forme bilinéaire b.
(2) Conservons les notations de l’énoncé. On a
m X
X n m
X n
X
b(x, y) = b(ei , fj )ai bj = ai mi,j bj = t XM Y,
i=1 j=1 i=1 j=1

par définition du produit matriciel. 

Définition 7.2.7. Soit b une forme bilinéaire sur E × F . La matrice M de la proposition précédente
s’appelle matrice de la forme bilinéaire b dans les bases B et C. On la note MatB,C (b). Lorsque dim(E) =
dim(F ), cette matrice est une matrice carrée.
Reprenons les exemples de 7.2.3(1)
Pn
Exemples 7.2.8. (1) Si E = F = Rn , la forme bilinéaire définie par b(x, y) = i=1 xi yi où x =
(x1 , · · · , xn ) et y = (y1 , · · · ,n ) sont les coordonnées respectives de x et y dans la base canonique B de Rn
a pour matrice In dans les bases B et B.
(2) De même l’application R2 × R3 → R : ((x1 , x2 ), (y1 , y2 , y3 )) 7→ x1 y2 + x2 (y1 − 2y3 ) est une forme
bilinéaire. Sa matrice dans les bases canoniques de R2 et de R3 est
 
0 1 0
M= ∈ M2,3 (R).
1 0 −2
On a déjà vu que l’espace vectoriel des applications linéaires de E dans F est isomorphe à l’espace
vectoriel Mn,p (K). Il existe une propriété similaire pour l’espace des formes bilinéaires sur E × F .
Proposition 7.2.9. Supposons que E est de dimension m et que F est de dimension n. Il existe un
isomorphisme de K-espaces vectoriels non canonique Φ : B(E × F ) ' Mm,n (K).
Preuve. Nous donnons deux preuves de ce fait. La première est directe. Soient B (resp. C) une base de E
(resp. de F ) fixée. On définie l’application suivante : Φ : B(E × F ) → Mm,n (K) : b 7→ MatB,C (b). Alors
Φ est bien définie, est un morphisme de K-espace vectoriels et est bijective puisqu’une forme bilinéaire est
entièrement déterminée par la donnée de sa matrice dans deux bases données (proposition 7.2.6). C’est
donc un isomorphisme de K-espaces vectoriels.
Pour la seconde preuve, on a B(E ×F ) ' L(F, E ∗ ) d’après la proposition 7.2.4 et L(F, E ∗ ) ' Mm,n (K)
d’après le théorème 4.3.9 (puisque dim(E ∗ ) = dim(E) = m). La composée de ces deux isomorphismes
fournit l’isomorphisme désiré. 

121
Changement de base
Maintenant que l’on a défini la matrice d’une forme bilinéaire sur E × F dans certaines bases, regardons
ce qu’il se passe matriciellement lorsque l’on change ces bases.
Théorème 7.2.10. Soient b une forme bilinéaire sur E × F . Soient B, B 0 deux bases de E et C, C 0 deux
bases de F . Alors
MatB0 ,C 0 (b) = t PasB,B0 MatB,C (b)PasC,C 0 .

Preuve. Pour simplifier, utilisons les notations suivantes : M = MatB,C (b), M 0 = MatB0 ,C 0 (b), P =
PasB,B0 et Q = PasC,C 0 . Soient X (resp. X 0 ) le vecteur colonne des coordonnées d’un vecteur x dans la
base B (resp. B 0 ) et Y (resp. Y 0 ) le vecteur colonne des coordonnées d’un vecteur y dans la base C (resp.
C 0 ). Rappelons que l’on a X = P X 0 et Y = QY 0 d’après le théorème 4.6.6. De plus, b(x, y) = t XM Y
d’après la proposition 7.2.6(2). Donc

b(x, y) = t XM Y = t (P X 0 )M (QY ) = t X 0 (t P M Q)Y 0 ,

d’une part. Comme d’autre part, M 0 = t X 0 M 0 Y 0 , on en déduit que M 0 = t P M Q. 

Remarques 7.2.11. (1) En toute généralité, la formule du changement de base pour une forme bilinéaire
ne demande pas de calcul d’inverse de matrices.
(2) Si b est une forme bilinéaire sur E × E et si M est sa matrice dans une base B de E alors la matrice
M 0 de b dans un base B 0 de E vérifie M 0 = t P M P où P est la matrice de passage de B à B 0 .
Attention. Il faut faire attention aux nombres de lignes et de colonnes de la matrice d’une application
linéaire de E dans F et de la matrice d’une forme bilinéaire sur E × F . Si dim(E) = m et dim(F ) = n,
la matrice d’une application linéaire de E dans F est un élément de Mn,m (K) alors que la matrice d’une
forme bilinéaire sur E ×F est un élément de Mm,n (K). De même il faut prendre conscience des différences
entre le théorème précédent et le théorème 4.6.8 au niveau de la position des diverses matrices de passage.
Ces différences sont essentiellement dues au fait que B(E × F ) ' L(F, E ∗ ) : d’une part, cela explique
l’inversion du nombre de lignes et du nombre de colonnes pour les matrices d’une forme linéaire de E dans
F et d’une forme bilinéaire sur E × F . D’autre part, cela permet également d’interpréter les positions
relatives des matrices de passage dans les formules de changement de base évoquées.
Exemple 7.2.12. Supposons E = R2 et F = R3 . On considère la forme bilinéaire sur E × F définie par

b((x1 , x2 ), (y1, y2 , y3 )) = −5x1 y1 − 22x1 y2 + 17x1 y3 + 3x2 y1 + 13x2 y2 − 10x2 y3 .

Alors la matrice de cette forme bilinéaire dans les bases canoniques B et C de E et F est
 
−5 −22 17
M= .
3 13 −10

Soient B 0 = {(1, 2), (3, 5)} et C 0 = {(1, 0, 0), (0, 3, 4), (0, 4, 5)} : on voit aisément que ce sont des bases
respectives de E et F . Calculons M 0 = MatB0 ,C 0 (b). Pour cela, soient P = PasB,B0 et Q = PasC,C 0 . Alors
 
  1 0 0  
1 3 1 0 1
M 0 = tP M Q = t M 0 3 4 = .
2 5 0 1 1
0 4 5

122
7.2.3 Formes bilinéaires non dégénérées
Dans cette sous-section, b est une forme bilinéaire sur E × F .
Définition 7.2.13. Les applications linéaires db : F → E ∗ : y 7→ b(., y) et gb : E → F ∗ : x 7→ b(x, .) sont
appelées applications linéaires associées à b.
Remarque 7.2.14. En fait, les applications linéaires associées à b interviennent déjà dans la preuve de
la proposition 7.2.4 et dans la remarque qui suit. Par exemple, l’isomorphisme Ψ0 : B(E × F ) ' L(F, E ∗ )
est défini par Ψ0 (b) = db .
Définition 7.2.15. (1) Une forme bilinéaire sur E × F est dite non dégénérée ou régulière si b(x, y) = 0
pour tout y ∈ F implique que x = 0 et si b(x, y) = 0 pour tout x ∈ E implique que y = 0. Cela équivaut
à dire que ker(db ) = {0F } et ker(gb ) = {0E }.
(2) Une forme bilinéaire qui ne vérifie pas la propriété (1) est dite dégénérée ou singulière.
Exemple 7.2.16. Considérons la forme bilinéaire sur R2 × R2 définie par b((x1 , y1 ), (x2 , y2 )) = 2x1 y1 +
x1 y2 − x2 y2 . Cherchons ker(db ). Si y = (y1 , y2 ) ∈ ker(db ) alors b(x, (y1 , y2 )) = 0 pour tout x ∈ R2 . En
particulier, pour x1 = 0 et x2 = 1, on trouve y2 = 0. Pour x1 = 1 et x2 = 0, on trouve y1 = 0. Donc
ker(db ) = {0R2 }. De même, on montre que ker(gb ) = {0R2 }. Ainsi, b est non dégénérée.
Le fait qu’une forme bilinéaire sur E × F soit non dégénérée implique forcément que dim(E) = dim(F ).
Théorème 7.2.17. Soient E et F deux K-espaces vectoriels de dimension finie et b une forme bilinéaire
sur E × F . Si b est non dégénérée, on a dim(E) = dim(F ). De plus, si B = {e1 , · · · , en } est une base de
E, il existe une unique base C = {f1 , · · · , fn } de F telle que MatB,C (b) = In .
Preuve. Le fait que b soit non dégénérée implique que ker(db ) = {0F } donc db est injective et dim(F ) ≤
dim(E ∗ ) = dim(E). Puisque l’on a aussi ker(gb ) = {0E }, on en déduit que dim(E) ≤ dim(F ∗ ) = dim(F )
donc dim(E) = dim(F ).
Dans ce cas, soit B = {e1 , · · · , en } une base de E. Considérons l’application

f : F → K n : y 7→ (b(e1 , y), · · · , b(en , y)).

L’application f est linéaire (puisque b est bilinéaire). Comme b est non dégénérée, on a ker(f ) = {0F }
donc f est injective puis bijective pour une raison de dimension. Pour i = 1, · · · , n, il existe un unique
fi ∈ F tel que f (fi ) = (0, · · · , 0, 1, 0, · · · , 0) (le 1 étant en i-ième position). Alors la famille {f1 , · · · , fn }
est une base de F puisque c’est l’image par l’isomorphisme f −1 de la base canonique et on a b(ei , fj ) = δi,j
par définition. D’où MatB,C (b) = In . 

7.2.4 Formes bilinéaires sur E, matrice de Gram


Nous nous intéressons maintenant aux formes bilinéaires sur E × E que l’on a appelé formes 2-linéaires au
chapitre 5 : nous adaptons la terminologie.
Définition 7.2.18. (1) On appelle forme bilinéaire sur E ou forme 2-linéaire une forme bilinéaire sur
E × E. L’ensemble des formes bilinéaires sur E est noté L2 (E).
(2) Soient b ∈ L2 (E) et x1 , · · · , xp ∈ E. La matrice ((b(xi , xj )) ∈ Mp (K) est appelée matrice de Gram
de {x1 , · · · , xp } relativement à b. Le déterminant de cette matrice est le b-déterminant de Gram de
{x1 , · · · , xp } et noté Gramb ({x1 , · · · , xp }).
Pour terminer cette section, nous caractérisons les formes bilinéaires non dégénérées sur E × E au
moyen des notions de matrices de Gram et de déterminant de Gram.

123
Lemme 7.2.19. Si le système {x1 , · · · , xp } est lié, on a Gramb ({x1 , · · · , xp }) = 0 pour tout b ∈ L2 (E).
Preuve. Soit b ∈ P
L2 (E). Puisque le système considéré est lié, on peut suppose que l’on peut écrire non
p
trivialement x1 = i=2 λi xi quitte à ré-indexer. Alors pour i = 1, · · · , p,
p
X p
X
b(xi , x1 ) = b(xi , λ i xi ) = λi b(xi , x1 ).
i=2 i=2

Cela signifie que la première colonne de la matrice de Gram correspondante relativement à b est combi-
naison linéaires des autres colonnes de cette même matrice : on a donc Gramb ({x1 , · · · , xp }) = 0 par la
proposition 5.5.4. 

Proposition 7.2.20. Soient E un K-espace vectoriel de dimension finie n et b ∈ L2 (E). Alors, les
assertions suivantes sont équivalentes :
(1) b est non dégénérée.
(2) Il existe une base B de E telle que Gramb (B) 6= 0.
(3) Pour toute base B de E, Gramb (B) 6= 0.
Preuve. Montrons que (1) implique (2). Soit B une base quelconque de E. D’après le théorème 7.2.17,
il existe une unique base B 0 de E telle que MatB,B0 (b) = In . Si P est la matrice de passage de B à B,
Q est la matrice de passage de B à B 0 on a In = MatB,B0 (b) = t P MatB,B (b)Q = In MatB,B (b)Q, d’où
MatB,B (b) = Q−1 . Or la matrice MatB,B (b) n’est autre que la matrice de Gram de B relativement à b donc
son déterminant vaut det(Q)−1 6= 0.
Montrons ensuite que (2) implique (3). S’il existe une base B de E pour laquelle Gramb (B) 6= 0, soit
B 0 une autre base de E. Soit P la matrice de passage de B à B 0 . Alors

MatB0 ,B0 (b) = t P MatB,B (b)P,

donc Gramb (B 0 ) = (det(P ))2 Gramb (B) 6= 0.


Montrons enfin que (3) implique (1). Soit B = {e1 , · · · , en } une base de E alorsPGramb (B) 6= 0.
n
Supposons qu’il existe y ∈ E tel que b(x, y) = 0 pour tout x ∈ E et écrivons y = i=1 αi ei . Pour
i = 1, · · · , n, on a b(ei , y) = 0 donc
Xn
αj b(ei , ej ) = 0.
j=1

On a donc mis en valeur une combinaison linéaire des vecteurs colonnes de la matrice de Gram de B
relativement à b égale au vecteur nul. Puisque Gramb (B) 6= 0, la matrice de Gram est inversible donc
α1 = · · · = αn = 0 puis y = 0. Cela montre que ker(db ) = {0E }. De même, ker(gb ) = {0E } donc b est non
dégénérée. 

Exemples 7.2.21. (1) La forme bilinéaire qui définit le produit scalaire usuel de Rn est une forme
bilinéaire non dégénérée puisque la matrice de Gram de la base canonique relativement à cette forme est
l’identité donc a déterminant 1.
(2) Reprenons la forme bilinéaire sur R2 de l’exemple
 7.2.16.
 La matrice de Gram de la base canonique
2 1
relativement à cette forme est la matrice M = dont le déterminant est non nul : elle est donc
0 −1
non dégénérée.

124
7.3 Formes bilinéaires symétriques et antisymétriques
Pour tout le reste de ce chapitre, nous supposons que la caractéristique du corps K est différente de 2. No-
tons quil existe une théorie des formes bilinéaires symétriques et des formes quadratiques en caractéristique
2 mais que celle-ci est plus complexe et que la correspondance entre forme bilinéaire symétrique et forme
quadratique n’est plus vraie.

7.3.1 Définitions
Les définitions qui suivent ont déjà été données au chapitre 5. Nous les replaçons dans ce contexte.

Définition 7.3.1. (1) On dit que b ∈ L2 (E) est une forme bilinéaire symétrique si b(x, y) = b(y, x) pour
tous x, y ∈ E. L’ensemble des formes bilinéaires symétriques sur E est noté S2 (E).
(2) On dit que b ∈ L2 (E) est une forme bilinéaire antisymétrique si b(x, y) = −b(y, x) pour tous x, y ∈ E.
L’ensemble des formes bilinéaires antisymétriques est noté A2 (E).
Remarque 7.3.2. Puisque la caractéristique de K est supposée être différente de 2, une forme bilinéaire
est antisymétrique si et seulement si elle est alternée, c’est à dire b(x, x) = 0 pour tout x ∈ E (voir la
proposition 5.2.4).
Proposition 7.3.3. On a L2 (E) = S2 (E) ⊕ A2 (E).
Preuve. Il est immédiat que S2 (E) et A2 (E) sont des sous-espaces vectoriels de L2 (E). Ensuite, si
b ∈ S2 (E) ∩ A2 (E) alors, pour tous x, y ∈ E, on a −b(x, y) = b(y, x) = b(x, y) et, comme la caractéristique
de K est différente de 2, b(x, y) = 0 pour tous x, y ∈ E donc S2 (E) et A2 (E) sont en somme directe.
Soit b ∈ L2 (E). On définit s, a ∈ L2 (E) en posant
1 1
s(x, y) = (b(x, y) + b(y, x)), a(x, y) = (b(x, y) − b(y, x)),
2 2
pour tous x, y ∈ E. On vérifie alors facilement que s ∈ S2 (E), a ∈ A2 (E) et que b = s + a donc
L2 (E) = S2 (E) + A2 (E). Cela implique que S2 (E) et A2 (E) sont supplémentaires dans L2 (E). 

Lorsque l’espace vectoriel sous-jacent est de dimension finie, on peut faire le lien entre forme bilinéaire
symétrique (resp. antisymétrique) et matrice symétrique (resp. matrice antisymétrique).
Théorème 7.3.4. Soit E un K-espace vectoriel de dimension finie. Alors :
(1) b ∈ S2 (E) si et seulement si pour toute base B de E, la matrice de b relativement à B est symétrique.
(2) b ∈ A2 (E) si et seulement si pour toute base B de E, la matrice de b relativement à B est antisymétrique.

Preuve. Nous faisons la preuve de l’assertion (1), la seconde assertion se prouvant de manière similaire.
Soient B une base de E et A = MatB,B (b) où b est une forme bilinéaire sur E. Alors

La forme b est symétrique ⇐⇒ b(x, y) = b(y, x) ∀ x, y ∈ E


t
⇐⇒ XAY = t Y AX = t (t Y AX) ∀ X, Y ∈ E
t
⇐⇒ XAY = t X t AY ∀ X, Y ∈ E
t
⇐⇒ A=A
⇐⇒ A est une matrice symétrique,

la deuxième équivalence provenant du fait que t Y AX ∈ K donc est égal à son transposé. 

125
Remarque 7.3.5. Si dim(E) = n, on sait que dim(L2 (E)) = dim(Mn (K)) = n2 d’après la proposition
7.2.9. De plus, on montre facilement que

n(n + 1) n(n − 1)
dim(S2 (E)) = , dim(A2 (E)) = .
2 2
Exemples 7.3.6. (1) Revenons d’abord sur les exemples 7.2.3. Dans le (1), la forme bilinéaire qui définit
le produit scalaire usuel de Rn est une forme bilinéaire symétrique. La première forme bilinéaire en (4)
est une forme bilinéaire symétrique alors que la seconde est non symétrique (ni antisymétrique). La forme
de Lorentz en (5) est aussi une forme bilinéaire symétrique.
(2) Soit E le R-espace vectoriel des fonctions de classe C 1 sur un intervalle [a, b] de R à valeurs dans R et
telles que f (a) = f (b) = 0. On considère l’application
Z b
Θ : E × E → R : (f, g) 7→ f (t)g 0 (t)dt.
a

C’est une forme bilinéaire antisymétrique sur E puisque la relation Θ(f, g) = −Θ(g, f ) résulte de la formule
d’intégration par parties.
(3) Si E est le C-espace vectoriel des séries numériques absolument convergentes, les applications

X ∞
X k
X
E × E → R : ((un )n , (vn )n ) 7→ uk vk , E × E → R : ((un )n , (vn )n ) 7→ ( ul vk−l ),
k=0 k=0 l=0

sont des formes bilinéaires symétriques sur E.

7.3.2 Orthogonalité
Dans cette sous-section, nous définissons la notion d’orthogonalité relativement à une forme bilinéaire
symétrique ou antisymétrique et en tirons d’importantes conséquences2 . Soit E un K-espace vectoriel.
Commençons par quelques définitions.
Définition 7.3.7. Soit b une forme bilinéaire symétrique ou antisymétrique sur E.
(1) On dit que deux éléments x et y de E sont orthogonaux relativement à b si on a b(x, y) = 0. On pourra
parfois noter x⊥b y ou plus simplement x⊥y.
(2) Si A est une partie de E, on définit l’orthogonal de A relativement à b par

A⊥b = {y ∈ E | b(x, y) = 0 pour tout x ∈ A}.

On pourra noter A⊥ si la forme bilinéaire symétrique ou antisymétrique est clairement identifiée.


(3) On appelle noyau de b et on note E ⊥b l’orthogonal de E.

Remarques 7.3.8. (1) Puisque b est symétrique ou antisymétrique, on a x⊥y si et seulement si y⊥x.
(2) On montre aisément que pour une partie A quelconque de E, A⊥b est un sous-espace vectoriel de E.
(3) On voit aisément que b est non dégénérée si et seulement si E ⊥b = {0E }.
Étudions tout d’abord le comportement de l’orthogonalité vis à vis des opérations usuelles sur les
sous-espaces vectoriels dans le cas d’une forme bilinéaire symétrique ou antisymétrique quelconque.
2 Notons que la notion d’orthogonalité relativement à une forme bilinéaire quelconque peut être définie : il faut alors opérer

une distinction entre orthogonalité à droite et orthogonalité à gauche, ce que nous ne ferons pas ici.

126
Théorème 7.3.9. Soient F et G deux sous-espaces vectoriels de E. Soit b une forme bilinéaire symétrique
ou antisymétrique sur E.
(1) On a F ⊂ (F ⊥ )⊥ .
(2) On a F ⊥ ∩ G⊥ = (F + G)⊥ .
(3) On a F ⊥ + G⊥ ⊂ (F ∩ G)⊥ .
(4) Si E est supposé être de dimension finie, on a

dim(F ) + dim(F ⊥ ) ≥ dim(E).

Preuve. (1) Si x ∈ F alors b(x, y) = 0 pour tout y ∈ F ⊥ . Mais alors, x ∈ (F ⊥ )⊥ .


(2) Supposons tout d’abord que x ∈ F ⊥ ∩ G⊥ et soit y + z un élément quelconque de F + G avec y ∈ F ,
z ∈ G. Alors b(x, y + z) = b(x, y) + b(x, z) = 0 + 0. Ainsi x ∈ (F + G)⊥ .
Réciproquement, supposons x ∈ (F +G)⊥ . Alors b(x, y+z) = 0 pour tous y ∈ F , z ∈ G. En particulier,
cela est valable pour z = 0 ce qui implique que x ∈ F ⊥ et pour y = 0 ce qui implique que x ∈ G⊥ . On en
déduit l’inclusion réciproque.
(3) Soient x ∈ F ∩ G, y ∈ F ⊥ , z ∈ G⊥ . On a b(x, y + z) = b(x, y) + b(x, z). Puisque y ∈ F ⊥ et
x ∈ F ∩ G ⊂ F , on a b(x, y) = 0. De même b(x, z) = 0. Ainsi F ⊥ + G⊥ ⊂ (F ∩ G)⊥ .
(4) Supposons que E soit de dimension n et que F soit de dimension p ≤ n. Soit {e1 , · · · , ep } une base
de F . Pour k = 1, · · · , p, on considère la forme linéaire gb (ek ) : E → K : y 7→ b(ek , y). Alors y ∈ F ⊥ si et
seulement si y est élément du noyau de gb (ek ) pour k = 1, · · · , p. On a donc
p
\
F⊥ = ker(gb (ek )).
i=1

D’après la proposition 7.1.10 (ou plutôt d’après la remarque qui la suit), on a


p
\
dim(F ⊥ ) = dim ( ker(gb (ek ))) = dim(E) − rang{gb (e1 ), · · · , gb (ep )} ≥ n − p.
i=1

On en déduit que dim(F ) + dim(F ⊥ ) ≥ dim(E). 

Attention. Attention : les inclusions en (1) et en (3) et l’inégalité en (4) peuvent être strictes dans le
cas d’une forme bilinéaire symétrique ou antisymétrique quelconque. On va voir maintenant que cela n’est
pas le cas des formes non dégénérées sur un espace vectoriel de dimension finie.
Théorème 7.3.10. Soit E un K-espace vectoriel de dimension finie et b une forme bilinéaire symétrique
ou antisymétrique non dégénérée sur E. Soient F et G deux sous-espaces vectoriels de E.
(1) On a dim(F ) + dim(F ⊥ ) = dim(E).
(2) On a F = (F ⊥ )⊥ .
(3) On a F ⊥ + G⊥ = (F ∩ G)⊥ .
Preuve. (1) Soient {e1 , · · · , ep } une base de F que l’on complète en une base {e1 , · · · , ep , ep+1 , · · · , en }
de E. D’après le théorème 7.2.17, il existe une unique base {f1 , · · · , fn } de E telle que b(ei , fj ) = δi,j
pour i, j = 1, · · · , n. Montrons que {fp+1 , · · · , fn } est une base de F ⊥ . Tout Pn d’abord, on voit aisément
que Vect({fp+1 , · · · , fn }) ⊂ F ⊥ . Réciproquement, si y ∈ F ⊥ , on écrit y = i=1 αi fi . Pour i = 1, · · · , p,
on a 0 = b(ei , y) = αi d’où l’inclusion réciproque. La famille {fp+1 , · · · , fn } engendre F ⊥ et est libre donc
c’en est une base. On en déduit que dim(E) = dim(F ) + dim(F ⊥ ).
(2) D’après le théorème 7.3.9(1), on a l’inclusion F ⊂ (F ⊥ )⊥ . Si on applique le (1) à F ⊥ , on en déduit

127
que dim(F ⊥ )+dim((F ⊥ )⊥ ) = dim(E). Comme dim(F )+dim(F ⊥ ) = dim(E), on a dim(F ) = dim((F ⊥ )⊥ )
d’où F = (F ⊥ )⊥ .
(3) D’après le théorème 7.3.9(2) et le point (2) ci-dessus, on a

(F ⊥ + G⊥ )⊥ = (F ⊥ )⊥ ∩ (G⊥ )⊥ = F ∩ G.

D’où
F ⊥ + G⊥ = (F ⊥ + G⊥ )⊥ )⊥ = (F ∩ G)⊥ .


Remarque 7.3.11. En fait, on montre plus généralement que les assertions (1) et (2) du théorème
précédent sont vraies si on suppose seulement que F ∩ E ⊥ = {0E }. Si b est non dégénérée, cette condition
est satisfaite pour tout sous-espace vectoriel F .
Attention. On n’a pas forcément F ⊕F ⊥ = E, même si E est de dimension finie et si b est non dégénérée.
Par exemple, prenons E = R2 et b la forme bilinéaire
 surE définie par b((x1 , y1 ), (x2 , y2 )) = x1 y1 − x2 y2 .
1 0
Sa matrice dans la base canonique est M = dont le déterminant est −1 donc elle est non
0 −1
dégénérée d’après la proposition 7.2.20. On considère F = {(x1 , x2 ) ∈ E | x1 = x2 } et on voit aisément
que F ⊥ = F . Ainsi, la somme F + F ⊥ n’est pas directe et F + F ⊥ = F . Cette forme bilinéaire est qualifiée
d’hyperbolique.

7.3.3 Isotropie d’une forme bilinéaire symétrique


Dans cette sous-section, nous étudions l’isotropie d’une forme bilinéaire symétrique ce qui va nous perme-
ttre d’énoncer une condition nécessaire et suffisante pour que F ⊕ F ⊥ = E (voir théorème 7.3.15).
Définition 7.3.12. Soit b une forme bilinéaire symétrique sur E. Un vecteur x ∈ E est dit isotrope si on
a b(x, x) = 0. Une forme bilinéaire symétrique est dite définie si 0E est son seul vecteur isotrope.
Lemme 7.3.13. Soit b une forme bilinéaire symétrique sur E.
(1) Les éléments du noyau de b sont des vecteurs isotropes.
(2) Si b est définie alors b est non dégénérée.
(3) Si b est définie et si F est un sous-espace vectoriel de E, la restriction de b à F × F est définie donc
non dégénérée.
Preuve. (1) C’est évident.
(2) Puisque b est définie, le seul vecteur isotrope est 0E donc E ⊥ = {0E } et b est non dégénérée.
(3) Notons b0 la restriction de b à F × F . Si y ∈ F un vecteur isotrope de b0 alors c’est aussi un vecteur
isotrope de b donc y = 0F et b0 est définie. 

Définition 7.3.14. Soit b une forme bilinéaire symétrique sur E. Un sous-espace vectoriel F de E est dit
isotrope si F ∩ F ⊥ 6= {0E }, totalement isotrope si F ⊂ F ⊥ .
Attention. (1) Il ne faut pas confondre le noyau d’une forme bilinéaire symétrique avec l’ensemble des
éléments isotropes. Un élément du noyau est toujours isotrope mais l’inverse n’est pas vrai. Par exemple,
si on reprend l’exemple de la fin de la sous-section précédente, on voit que E ⊥ = {0E } alors que (1, 1) est

128
un vecteur isotrope. On voit que F = Vect{(1, 1)} = F ⊥ est un sous-espace totalement isotrope.
(2) Considérons la forme bilinéaire symétrique non dégénérée vérifiant
b((x1 , x2 , x3 , x4 ), (y1 , y2 , y3 ,4 )) = x1 y1 + x2 y2 + x3 y3 − x4 y4 .
On voit aisément que (1, 0, 0, 1) est un vecteur isotrope donc F = R.(1, 0, 0, 1) est constitué de vecteurs
isotropes de b. Ainsi, b0 = b|F ×F est nulle donc est dégénérée. Ainsi, une forme peut être non dégénérée
sur un certain espace et être nulle en restriction à un sous-espace.
(3) Dans le (1)et le (2), on voit que b peut être non dégénérée sans être définie.

Théorème 7.3.15. Soient E un K-espace vectoriel et b une forme bilinéaire symétrique sur E. On
considère un sous-espace vectoriel F de E qui soit de dimension finie. Alors F est non isotrope si et
seulement si E = F ⊕ F ⊥ .
Preuve. Si E = F ⊕ F ⊥ alors F ∩ F ⊥ = {0E } donc F est non isotrope.
Réciproquement, supposons que F est non isotrope. On a déjà F ∩ F ⊥ = {0E }. Il reste à montrer
que F + F ⊥ = E. Notons b0 la restriction de b à F × F . Puisque F est non isotrope, le noyau de b0 est
réduit à {0E } donc b0 est non dégénérée. En particulier l’application linéaire db0 : F → F ∗ : y 7→ b0 (., y)
est injective et comme, dim(F ) = dim(F ∗ ), c’est une bijection.
Soit z ∈ E. Considérons alors la forme linéaire ψz : F → K : x 7→ b(x, z). Puisque db0 est bijective, il
existe un unique y0 ∈ F tel que db0 (y0 ) = ψz ce qui signifie que b(t, y0 ) = b(t, z) pour tout t ∈ F . Ainsi,
quel que soit z ∈ E, il existe un unique y0 ∈ F tel que b(t, y0 − z) = 0 pour tout t ∈ F donc z − y0 ∈ F ⊥ .
Écrivant z = y0 + (z − y0 ), cela implique que E = F + F ⊥ comme attendu. 

En particulier :
Corollaire 7.3.16. Si b est une forme bilinéaire symétrique définie sur un K-espace vectoriel E de
dimension finie alors on a E = F ⊕ F ⊥ pour tout sous-espace vectoriel F de E.
Preuve. En effet, puisque b est définie, tout sous-espace vectoriel est non isotrope : il suffit alors
d’appliquer le théorème précédent. 

7.3.4 Bases orthogonales et orthonormales


On en arrive maintenant à un point crucial de la théorie des formes bilinéaires : l’étude de la notion de
famille orthogonale et de famille orthonormale. Soit E un K-espace vectoriel.

Familles orthogonales
Définition 7.3.17. Soit b une forme bilinéaire sur E.
(1) Une famille {x1 , · · · , xk } de vecteurs de E est dite orthogonale par rapport à b ou orthogonale si pour
tous i 6= j = 1, · · · , k, on a b(xi , xj ) = 0.
(2) Une famille {x1 , · · · , xk } de vecteurs de E est dite orthonormale par rapport à b ou orthonormale si
pour tous i, j = 1, · · · , k, b(xi , xj ) = δi,j .
Remarques 7.3.18. (1) Avec les notations de la définition, une famille orthonormale est une famille
orthogonale qui vérifie en outre b(xi , xi ) = 1 pour i = 1, · · · , k.
(2) Si E est de dimension finie, on voit facilement qu’une base B de E est orthogonale si et seulement si la
matrice de b relativement à B est diagonale, orthonormale si et seulement si la matrice de b relativement
à B est la matrice identité.

129
Nous voulons maintenant montrer l’existence d’une base orthogonale pour une forme bilinéaire symétrique
sur un espace vectoriel de dimension finie. Avant cela, nous avons besoin du lemme suivant.

Lemme 7.3.19. Une famille orthogonale de vecteurs dont aucun n’est isotrope pour b est une famille
libre.
Pk
Preuve. Soit {x1 , · · · , xk } une famille telle que décrite dans l’énoncé. Supposons que i=1 αk xk = 0E .
Soit 1 ≤ j ≤ k. Alors
k
X k
X
0 = b(0E , xj ) = b( αk xk , xj ) = αk b(xk , xj ) = αk .
i=1 i=1

On en déduit que la famille considérée est libre. 

Théorème 7.3.20. Soient E un K-espace vectoriel de dimension finie et b une forme bilinéaire symétrique
sur E. Alors E possède une base orthogonale relativement à b.
Preuve. On prouve ce résultat par récurrence sur la dimension de E. Si dim(E) = 1, on choisit x ∈ E\{0}.
Ce vecteur constitue une base de E orthogonale relativement à b.
Supposons maintenant n > 1 et supposons que le résultat est établi pour toute forme bilinéaire
symétrique sur un K-espace vectoriel G de dimension strictement inférieure à n. Soient E un K-espace
vectoriel de dimension n et b une forme bilinéaire symétrique sur E. Si b est la forme nulle, toute base de
E convient. Sinon, b n’est pas nulle. Si on suppose que b(x, x) = 0 pour tout x ∈ E alors puisque
1
b(x, y) = (b(x + y, x + y) − b(x, x) − b(y, y)),
2
pour tous x, y ∈ E, b serait nulle. On peut donc supposer qu’il existe e1 ∈ E tel que b(e1 , e1 ) 6= 0.
On pose F = Vect({e1 }). Puisque, b(e1 , e1 ) 6= 0, F est non isotrope donc E = F ⊕ F ⊥ d’après le
théorème 7.3.15. D’après le théorème 7.3.10, dim(F ⊥ ) = n − 1 : on peut donc appliquer l’hypothèse de
récurrence à F ⊥ et à la forme bilinéaire symétrique b0 obtenue par restriction de b à F ⊥ × F ⊥ . Il existe
donc une base orthogonale {e2 , · · · , en } de F ⊥ relativement à b0 . Puisque E = F ⊕ F ⊥ , {e1 , · · · , en } est
une base de E dont on vérifie aisément qu’elle est une base orthogonale relativement à b. 

Attention. Il ne s’agit pas ici d’une diagonalisation de matrice au sens de la théorie que nous avons
exposée au chapitre précédent. Si A est la matrice d’une forme bilinéaire symétrique dans une certaine
base et si A0 est la matrice de b dans une base orthogonale relativement à b, la matrice A0 est diagonale
mais les valeurs diagonales ne sont pas forcément des valeurs propres de A. Du reste, ces deux matrices
n’ont pas en général le même polynôme caractéristique.

Cas de R et de C
Supposons maintenant K = R et soit E un R-espace vectoriel de dimension finie que lequel on considère
une forme bilinéaire symétrique b. D’après le théorème 7.3.20, il existe une base orthogonale {e1 , · · · , en }
de E relativement à b. On ordonne les éléments de la base de sorte à avoir αi = b(ei , ei ) > 0 pour 1 ≤ i ≤ p,
αi = b(ei , ei ) < 0 pour p + 1 ≤ i ≤ r et b(ei , ei ) = 0 pour r + 1 ≤ i ≤ n. Posons alors
1 1
e0i = √ ei pour 1 ≤ i ≤ p, e0i = √ ei pour p + 1 ≤ i ≤ r, e0i = ei pour r + 1 ≤ i ≤ n.
αi −αi

130
Alors, la famille {e01 , · · · , e0p , e0p+1 , · · · , e0r , e0r+1 , · · · , e0n } est une base de E et dans cette base, la matrice
de b est  
Ip 0 0
M =  0 −Ir−p 0 .
0 0 0n−r
Si on suppose que K = C et si E est un C-espace vectoriel, toute forme bilinéaire symétrique admet
dans une certaine base3 une représentation matricielle du type
 
Ir 0
M= .
0 0
Dans le cas où K = R, nous verrons dans la section suivante consacrée aux formes quadratiques que
l’on peut classer les formes bilinéaires symétriques sur un espace vectoriel de dimension n suivant leur
signature : cette signature rend justement compte du nombre de termes positifs et du nombre de termes
négatifs sur la diagonale d’une représentation matricielle de la forme dans une base orthogonale. Le cas
où K = C sera également précisé à cette occasion.

7.4 Formes quadratiques


Rappelons que l’on suppose que la caractéristique du corps de base est différente de 2.

7.4.1 Définitions
Introduction
Avant d’en donner la définition, montrons sur deux exemples à quoi ressemblent les formes quadratiques.
Supposons E = R3 . On définit une application q : R3 → R : (x, y, z) 7→ x1 2 + 2x1 x3 + x2 2 . C’est une forme
quadratique dont on pourrait aussi dire que c’est un polynôme homogène de degré deux dans l’ensemble
des variables, mais cela ne couvre pas tous les cas.
Soit E l’espace vectoriel de dimension infinie des fonctions réelles de classe C 1 sur l’intervalle [0, 1] et
posons Z 1
q(f ) = (f (t)2 + 2f (t)f 0 (t))dt,
0
pour f ∈ E. Ce sera aussi une forme quadratique que l’on ne peut plus voir, cette fois, comme un
polynôme.

Définitions
En conséquence, on pose la définition suivante :
Définition 7.4.1. Soit E un K-espace vectoriel. On dit qu’une fonction q de E dans K est une forme
quadratique sur E s’il existe une forme bilinéaire b sur E × E telle que q(x) = b(x, x) pour tout x ∈ E.
Exemples 7.4.2. (1) Sur E = K 2 , on pose q(x1 , x2 ) = x1 x2 . Alors la forme b : K 2 × K 2 → K :
((x1 , x2 ), (y1 , y2 )) 7→ x1 y2 est une forme bilinéaire sur K 2 et b((x1 , x2 ), (x1 , x2 )) = q(x1 , x2 ) donc q est une
forme quadratique sur K 2 . Il y a une autre solution : prendre b : K 2 ×K 2 → K : ((x1 , x2 ), (y1 , y2 )) 7→ x2 y1 .
(2) Revenons aux exemples 7.2.3(1), (4) et (5). En (1) la forme bilinéaire issue du produit scalaire usuel
induit la forme quadratique
n
X
q : Rn → R : (x1 , · · · , xn ) 7→ xi 2 ,
i=1
3 une base orthogonale dont on a modifié certains vecteurs par multiplication par un scalaire bien choisi.

131
qui représente le carré de la distance euclidienne sur laquelle nous reviendrons dans le chapitre suivant.
En (4), si E désigne le R-espace vectoriel des fonctions continues sur un intervalle [a, b] de R à valeurs
dans R alors Z b
Θ : E × E → R : (f, g) 7→ f (t)g(t)dt,
a
est une forme bilinéaire qui induit la forme quadratique
Z b
q : E → R : f 7→ f 2 (t)dt,
a

qui est le carré de la norme L2 sur [a, b]. Enfin, en (5), la forme bilinéaire de Lorentz induit la forme
quadratique
q : R4 → R : (x, y, z, t) 7→ x2 + y 2 + z 2 − ct2 .
Lemme 7.4.3. Soit q une forme quadratique sur E. Alors, pour tout λ ∈ K, on a q(λ.x) = λ2 q(x).

Preuve. Soit b une forme bilinéaire sur E × E telle que b(x, x) = q(x). Alors

q(λ.x) = b(λx, λx) = λ2 b(x, x) = λ2 q(x).

En fait, on peut préciser la définition de forme quadratique de la façon suivante :


Proposition 7.4.4. Pour toute forme quadratique q sur E, il existe une unique forme bilinéaire symétrique
b sur E × E telle que b(x, x) = q(x) pour tout x ∈ E. Cette forme est appelée forme polaire de q. Elle est
donnée par
1
b(x, y) = (q(x + y) − q(x) − q(y)),
2
pour tous x, y ∈ E.

Preuve. La forme bilinéaire proposée est bien une forme bilinéaire symétrique. En outre, on a b(x, x) =
q(x) d’après le lemme précédent ce qui prouve l’existence. Soit b0 une forme bilinéaire symétrique telle que
b0 (x, x) = q(x) pour tout x ∈ E. Alors q(x + y) = q(x) + 2b0 (x, y) + q(y) pour tous x, y ∈ E d’où b = b0
ce qui prouve l’unicité. 

Définition 7.4.5. (1) Soit q une forme quadratique sur un K-espace vectoriel E de dimension n. On
appelle matrice de q dans une base B de E la matrice de la forme polaire de q dans la base B.
(2) Deux matrices A, A0 ∈ Sn (K) sont dites congruentes s’il existe P ∈ GLn (K) telle que A0 = t P AP .
Autrement dit, deux matrices symétriques sont congruentes lorsqu’elles représentent la même forme
bilinéaire symétrique sur E (ou la même forme quadratique) dans deux bases différentes.

Exemple 7.4.6. Revenons aux exemples de l’introduction à cette section. Dans le premier exemple, la
forme polaire de q est

b((x1 , x2 , x3 ), (y1 , y2 , y3 )) = x1 y1 + x1 y3 + x3 y1 + x2 y2 .

Dans le second exemple, la forme polaire est


Z 1
b(f, g) = (f (t)g(t) + f (t)g0 (t) + f 0 (t)g(t))dt.
0

132
7.4.2 Décomposition de Gauss
Dans le théorème 7.3.20, on a prouvé que pour toute forme bilinéaire symétrique b sur un K-espace
vectoriel E de dimension finie, il existe une base orthogonale {e1 , · · · , en } de E relativement à b. Si b est
la forme polaire de q, cela implique que pour tous x1 , · · · , xn ∈ K, on a
n
X n
X
q( xi ei ) = xi 2 q(ei ).
i=1 i=1

La méthode de Gauss est une méthode pratique très simple permettant de trouver explicitement une base
orthogonale relativement à b. En fait, c’est une méthode qui va permettre d’exprimer la forme quadratique
q comme combinaison linéaire de carrés de formes linéaires indépendantes. On pourra ensuite en déduire
une base orthogonale pour la forme polaire de q. Ceci sera expliqué après l’exposé de la méthode de Gauss.

Un exemple introductif
On considère la forme quadratique définie sur R2 par q(x1 , x2 ) = x1 2 + x1 x2 + x2 2 . On veut décomposer
son expression en somme de carrés. Pour cela, on reconnait le début d’une identité remarquable en écrivant

1 2 3 2 1 2 3 2
q(x1 , x2 ) = (x1 + x2 ) + x2 = (x1 + x2 ) + ( x2 ) .
2 4 2 2
Dans cet exemple, on voit que q est une somme de deux carrés de deux formes linéaires. Il en résulte
que q(x1 , x2 ) ≥ 0. En fait, on voit aisément que q(x1 , x2 ) > 0 sauf lorsque (x1 , x2 ) = (0, 0). La méthode
de Gauss permet donc également d’étudier le signe d’une forme quadratique réelle : elle a donc des
applications en calcul différentiel. Toutefois, nous allons voir qu’elle est vraie sur un corps quelconque (de
caractéristique différente de 2) sur lequel aucune notion de signe n’existe a priori.

La méthode de Gauss
Théorème 7.4.7 (Décomposition de Gauss). Soit q une forme quadratique sur K n . Alors il existe n
formes linéaires indépendantes l1 , · · · , ln sur K n et des coefficients c1 , · · · , cn ∈ K tels que pour tout
x ∈ Kn
n
X 2
q(x) = ci (li (x)) .
i=1

Preuve. Ce théorème se démontre par récurrence sur le nombre de variables. Soit q une forme quadratique
non nulle sur K n . Comme la dimension est finie, c’est un polynôme homogène de degré deux donc on peut
écrire
Xn X
q(x) = ai xi 2 + bi,j xi xj .
i=1 i<j

Supposons d’abord que l’un des coefficients ai soit non nul. Quitte à ré-indexer, on peut supposer
a1 6= 0. On peut alors écrire q sous la forme

q(x) = a1 x1 2 + l(y)x1 + q1 (y),

où a1 6= 0, y = (x2 , · · · , xn ), l est une forme linéaire qui ne dépend pas de x1 et q1 est une forme
quadratique qui ne dépend pas de x1 . On écrit
1 2 1
q(x) = a1 (x1 + l(y)) + (q1 (y) − l(y)2 ),
2a1 4

133
1
et on applique l’hypothèse de récurrence à la forme quadratique q 0 (y) = q1 (y) − l(y)2 , ce qui est licite
4
puisqu’elle ne dépend que des variables x2 , · · · , xn . Par hypothèse de récurrence, q 0 est combinaison
linéaire de carrés de formes linéaires indépendantes l2 , · · · , ln . On conclut en remarquant que les n formes
1
linéaires l1 , · · · , ln sont indépendantes où l1 (x) = x1 + l(y) (puisque l1 dépend de x1 et que ce n’est
2a1
pas le cas des n − 1 autres formes linéaires).
Sinon, tous les ai sont nuls. Il existe alors un couple (i, j) tel que bi,j soit non nul et on peut supposer
(i, j) = (1, 2). On écrit
q(x) = b1,2 x1 x2 + l(y)x1 + m(y)x2 + q1 (y),
où y = (x2 , · · · , xn ), l et m sont des formes linéaires qui ne dépendent pas de x1 et x2 et q1 est une forme
quadratique qui ne dépend pas de x1 , x2 . Posons u1 = x1 +x 2
2
, u2 = x1 −x
2
2
et on transforme l’expression
précédente en
q(x) = b1,2 (u1 2 − u2 2 ) + l(y)(u1 + u2 ) + m(y)(u1 − u2 ) + q1 (y).
On traite cette forme avec la méthode précédente appliquées aux variables (u1 , u2 , x3 , · · · , xn ) puis on
revient aux variables initiales. 

Attention. Dans la décomposition de Gauss d’une forme quadratique q sur K n , certains des coefficients
ci peuvent être nuls !
Maintenant que l’on a expliqué comment écrire une forme quadratique q sur K n comme somme de
n formes linéaires indépendantes, expliquons comment on en déduit une base orthogonale pour la forme
polaire de q. Écrivons donc
k
X 2
q(x) = ai (li (x)) ,
i=1

où li est une forme linéaire et où k ≤ n. La forme polaire de q est


k
X
b(x, y) = ai li (x)li (y).
i=1

Puisque la famille {l1 , · · · , lk } est libre, on peut la prolonger en une base {l1 , · · · , ln } de (K n )∗ . D’après
la proposition 7.1.12, il existe une base {e1 , · · · , en } dont {l1 , · · · , ln } est la base duale. On a alors,
li (ej ) = δi,j . Alors b(ei , ej ) = 0 si i 6= j donc {e1 , · · · , en } est une base orthogonale pour b.

7.4.3 Théorème de Sylvester


Dans cette sous-section, on supposera que E est un R-espace vectoriel ou un C-espace vectoriel. Son but
est de classer les formes quadratiques (ou bilinéaires symétriques) sur un R-espace vectoriel de dimension
donnée et sur un C-espace vectoriel de dimension donnée.

Formes quadratiques positives


Définition 7.4.8. Soit q une forme quadratique sur un R-espace vectoriel E. On dit que q est positive sur
E si q(x) ≥ 0 pour tout x ∈ E. On dit que q est définie positive sur E si q(x) > 0 pour tout x ∈ E \ {0}.
On dit que q est négative (resp. définie négative) si −q est positive (resp. définie positive). Les définitions
s’étendent à une forme bilinéaire symétrique de façon naturelle.

134
Lemme 7.4.9. Soient b une forme bilinéaire symétrique sur un R-espace vectoriel E de dimension finie
et soit {x1 , · · · , xn } une base orthogonale pour b.
(1) On a b(xi , xi ) ≥ 0 pour tout i = 1, · · · , n si et seulement si la forme b est positive sur E.
(2) On a b(xi , xi ) > 0 pour tout i = 1, · · · , n si et seulement si la forme b est définie positive sur E.

Preuve. Nous prouvons seulement le (2). Le sens indirect est évident. Supposons P donc que b(xi , xi ) > 0
n
pour tout i = 1, · · · , n. On décompose x ∈ E dans la base {x1 , · · · , xn } : on a x = i=1 ai xi . Alors
n
X
b(x, x) = ai 2 b(xi , xi ),
i=1

qui est évidemment une quantité positive. Cette quantité est nulle si et seulement si tous les termes de
cette somme sont nuls si et seulement si x = 0E . 

Signature d’une forme quadratique réelle


Théorème 7.4.10 (Théorème d’inertie de Sylvester). Soient E un R-espace vectoriel de dimension n et
q une forme quadratique sur E. Il existe un unique couple d’entier (r, s) tel que r + s ≤ n et qu’il existe
une base B de E dans laquelle la matrice de q est
 
Ir 0 0
M =  0 −Is 0 .
0 0 0n−r−s
Preuve. Soit b la forme polaire de q. L’existence de ce couple d’entiers (r, s) a déjà été remarqué à la fin
de la section 7.3.4 : il suffit de prendre pour B = {e1 , · · · , en } une base de b.
S’il existe (r0 , s0 ) tel que r0 + s0 ≤ n et une base B 0 = {e01 , · · · , e0n } tel que décrite dans l’énoncé, alors
la base B 0 est orthogonale pour b. Supposons donc que les bases B et B 0 sont ordonnées comme suit :
b(ei , ei ) > 0 pour i = 1, · · · , r, b(ei , ei ) ≤ 0 pour i > r, b(e0i , e0i ) > 0 pour i = 1, · · · , r0 et b(e0i , e0i ) ≤ 0
pour i > r0 . Soient F = Vect({e1 , · · · , ep }), G = Vect({ep+1 , · · · , en }), F 0 = Vect({e01 , · · · , e0p }) et
G0 = Vect({e0p+1 , · · · , e0n }). D’après le lemme 7.4.9, la forme b est définie positive sur F et F 0 et négative
sur G et G0 . Il en résulte que F ∩ G0 = {0E }. On en déduit que F et G0 sont en somme directe donc
dim(F + G0 ) = r + n − r0 ≤ dim(E) = n. Ainsi p ≤ p0 et, par symétrie du raisonnement, r = r0 . De même,
on montre que s = s0 , d’où l’unicité. 

Définition 7.4.11. On dit que la forme quadratique q définie sur un R-espace vectoriel E de dimension
finie a pour signature (r, s), si sa matrice dans une base orthogonale de la forme polaire de q contient r
coefficients strictement positifs et s coefficients strictement négatifs sur la diagonale.
Corollaire 7.4.12. Deux matrices symétriques réelles d’ordre n sont congrues si et seulement si elles ont
la même signature.

Cas des formes quadratiques complexes


On montre de même :
Théorème 7.4.13. Soient E un C-espace vectoriel de dimension n et q une forme quadratique sur E.
Alors il existe un unique entier r tel que r ≤ n et qu’il existe uen base B de E dans laquelle le forme
polaire de q a pour matrice  
Ir 0
M= .
0 0n−r

135
Définition 7.4.14. L’entier r du théorème précédent est appelé le rang de la forme quadratique q.
Corollaire 7.4.15. Deux matrices complexes d’ordre n sont congrues si et seulement si elles ont le même
rang.

7.4.4 Un exemple d’application : étude locale de courbes


La classification des formes quadratiques réelles joue un rôle important dans l’étude locale des fonctions
de plusieurs variables. Soit f une fonction de deux variables de classe C 2 sur un ouvert U de R2 à valeurs
dans R. Soit (x0 , y0 ) ∈ U et supposons que

∂f ∂f
(x0 , y0 ) = 0 = (x0 , y0 ).
∂x ∂y

On applique la formule de Taylor-Young à l’ordre deux au voisinage de (x0 , y0 ) et on a


1
f (x0 + x, y0 + y) = f (x0 , y0 ) + qx0 ,y0 (x, y) + o(|x|2 + |y|2 ),
2
où qx0 ,y0 désigne la forme quadratique définie comme suit

∂2f 2 ∂2f ∂2f


qx0 ,y0 (x, y) = (x 0 , y0 )x + 2 (x 0 , y0 )xy + (x0 , y0 )y 2 .
∂x2 ∂x∂y ∂y 2
Notons
∂2f ∂2f ∂2f
r= 2
(x0 , y0 ), s = (x0 , y0 ), t = (x0 , y0 .
∂x ∂x∂y ∂y 2
Il y a plusieurs cas :
(1) Si rt − s2 > 0 et r > 0 alors la signature de qx0 ,y0 est (2, 0) : elle est donc définie positive. Dans ce
cas, f admet un minimum local strict en (x0 , y0 ).
(2) Si rt − s2 > 0 et r < 0 alors la signature de qx0 ,y0 est (0, 2) : elle est donc définie négative. Dans ce
cas, f admet un maximum local strict en (x0 , y0 ).
(3) Si rt − s2 < 0 alors qx0 ,y0 est non dégénérée et sa signature est (1, 1). Dans ce cas, la fonction f n’a
pas d’extremum en (x0 , y0 ) : le point (x0 , y0 ) est un point col.
(4) Si rt − s2 = 0, la forme quadratique qx0 ,y0 est dégénérée et il faut étudier les termes suivants du
développement de Taylor (si f est de classe C 3 , par exemple).

136
Chapitre 8

Espaces euclidiens

8.1 Produit scalaire et norme


8.1.1 Définitions
Définition 8.1.1. Soit E un R-espace vectoriel.
(1) On appelle produit scalaire sur E tout forme bilinéaire symétrique b définie positive sur E. Dans la
suite, on notera plutôt hx, yi ou x.y au lieu de b(x, y).
(2) Si l’espace vectoriel E est muni d’un produit scalaire, on dit que E est un espace préhilbertien. Si en
outre, E est supposé de dimension finie, on dit que E est un espace euclidien.
Dans la suite de ce chapitre, sauf mention plus précise, on supposera toujours que E est un espace
préhilbertien ou euclidien.
Exemples 8.1.2. (1) L’exemple standard d’espace euclidien est E = Rn muni de son produit scalaire
usuel
n
X
b(x, y) = hx, yi = xi yi ,
i=1
pour deux vecteurs quelconques x = (x1 , · · · , xn ) et y = (y1 , · · · , yn ) de Rn .
(2) Pour a < b réels, considérons E l’ensemble des fonctions continues sur [a, b] à valeurs dans R que l’on
munit de la forme bilinéaire suivante
Z b
b(f, g) = f (t)g(t)dt,
a

pour f, g ∈ E. Alors on voit aisément que b est un produit scalaire sur E qui est donc un espace
préhilbertien.
2
(3) Prenons
P 2 pour E l’espace l (R) c’est à dire le R-espace vectoriel des suites réelles (xn )n∈N telles que la
série xn converge. Pour x = (xn )n∈N , y = (yn )n∈N ∈ E, on pose

X
b(x, y) = xn yn .
n=0

Alors b est un produit scalaire sur E : E est donc un espace préhilbertien. Cet exemple est l’extension
naturelle de l’exemple (1) à la dimension infinie.
(4) Si E est un espace préhilbertien (resp. euclidien) et si F est un sous-espace vectoriel de E, la restriction
du produit scalaire à F le munit d’une structure d’espace préhilbertien (resp. euclidien).

137
Avant de poursuivre, mentionnons l’importante inégalité de Cauchy-Schwarz.
Proposition 8.1.3 (Inégalité de Cauchy-Schwarz). Soient E un espace préhilbertien et h , i le produit
scalaire associé. Si x, y ∈ E, on a p p
|hx, yi| ≤ hx, xi. hy, yi.
En outre, il y a égalité si et seulement si la famille {x, y} est liée.
Preuve. Soit t un nombre réel; alors, htx + y, tx + yi ≥ 0 puisque h , i est positive. Par bilinéarité, cela
signifie que
t2 hx, xi + 2thx, yi + hy, yi ≥ 0.
Ce trinôme du second degré est de signe constant sur R ce qui implique que son discriminant est négatif
ou nul. On a donc
(hx, yi)2 ≤ hx, xi.hy, yi,
d’où le résultat. De plus, la famille {x, y} est liée si et seulement si il existe un réel t0 tel que t0 x + y = 0
si et seulement si t0 2 hx, xi + 2t0 hx, yi + hy, yi = 0 si et p
seulement
p si le discriminant considéré ci-dessus est
nul, c’est à dire (hx, yi)2 ≤ hhx, xi.hy, yi soit |hx, yi| = hx, xi. hy, yi. 

Ce résultat très important permet de montrer que tout espace préhilbertien est normé, donc est un
espace métrique.
Lemme p 8.1.4. Soient E un espace préhilbertien et h , i le produit scalaire associé. Pour x ∈ E, notons
||x|| = hx, xi. Alors ||.|| est une norme.

Preuve. Tout d’abord, puisque h , i est définie positive, on a hx, xi ≥ 0 donc l’application ||.|| : E → R+ :
x 7→ ||x|| est définie. De plus, pour la même raison, ||x|| = 0 équivaut au fait que hx, xi = 0 qui équivaut
à x = 0E . Ensuite, si λ ∈ R et x ∈ E, on a
p p
||λ.x|| = hλ.xλ.xi = λ2 hx, xi = |λ|.||x||.

Enfin, il reste à montrer l’inégalité triangulaire. Pour cela, on utilise l’inégalité de Cauchy-Schwarz. Soient
x, y ∈ E
p p
||x + y||2 = hx + y, x + yi = hx, xi + 2hx, yi + hy, yi ≤ hx, xi + 2 hx, xi. hy, yi + hy, yi = (||x|| + ||y||)2 ,

d’où ||x + y|| ≤ ||x|| + ||y||. 

Notation 8.1.5. Dans toute la suite de ce chapitre, si E est un espace préhilbertien, on notera h , i le
produit scalaire associé et ||.|| la norme associée.
Exemple 8.1.6. Revenons sur les exemples 8.1.2(1) à (3). Dans le (1), la norme issue du produit scalaire
Pn 1
est la norme euclidienne usuelle sur Rn définie par ||x|| = ( i=0 xn 2 ) 2 pour x = (x1 , · · · , xn ). Dans le
(2), la norme issue du produit scalaire est la norme L2 définie par
Z b 1
||f ||L2 = ( f (t)2 dt) 2 ,
a

pour f ∈ E. Enfin, dans le (3), on obtient la norme l2



X 1
||(xn )||l2 = ( xn 2 ) 2 .
i=0

138
Enfin, signalons l’identité du parallélogramme qui est souvent utile dans la pratique.
Lemme 8.1.7 (Identité du parallélogramme). Soient E un espace préhilbertien. Alors, si x, y ∈ E,
x + y 2 x − y 2 ||x||2 + ||y||2

+
2 = .

2 2
Preuve. On a
||x + y||2 = ||x||2 + 2hx, yi + ||y||2 et ||x − y||2 = ||x||2 − 2hx, yi + ||y||2 ,
d’où le résultat en ajoutant ces deux égalités et en divisant par 4. 

Attention. Tous les produits scalaires induisent une norme d’après le lemme 8.1.4 mais toutes les normes
ne sont pas issues d’un produit scalaire. Par exemple, sur E = Rn , on peut montrer que la norme définie
par
n
X
||x|| = |xi |,
i=1
pour x = (x1 , · · · , xn ) ∈ Rn n’est pas issue d’un produit scalaire. Plus précisément, on peut montrer qu’une
norme donnée est issue d’un produit scalaire si et seulement si elle satisfait l’identité du parallélogramme.

8.1.2 Orthogonalité dans un espace euclidien


Orthogonalité
La notion d’orthogonalité vis à vis d’une forme bilinéaire symétrique (ou antisymétrique) a été définie au
chapitre 7 dans la définition 7.3.7. Cela induit naturellement une notion d’orthogonalité dans un espace
préhilbertien que nous rappelons pour le confort du lecteur.
Définition 8.1.8. Soit E un espace préhilbertien.
(1) Deux vecteurs x et y de E sont dits orthogonaux si hx, yi = 0.
(2) Si A est une partie de E, on définit l’orthogonal de A relativement à b par
A⊥ = {y ∈ E | hx, yi = 0 pour tout x ∈ A}.
(3) Si E1 et E2 sont deux sous-espaces vectoriels de E, on dit qu’ils sont orthogonaux, si hx1 , x2 i = 0 pour
tous x1 ∈ E1 , x2 ∈ E2 . Cela équivaut à dire que E1 ⊂ E2 ⊥ et E2 ⊂ E1 ⊥ .
La terminologie ci-dessus permet d’énoncer un résultat qu’il est convenable d’appeler Théorème de
Pythagore.
Proposition 8.1.9 (Théorème de Pythagore). Soient x1 , · · · , xn n vecteurs d’un espace préhilbertien E
que l’on suppose deux à deux orthogonaux. Alors
n
X n
X
|| xi ||2 = ||xi ||2 .
i=1 i=1

Preuve. Ce résultat se prouve par récurrence sur n. Si n = 2, on a vu que


||x1 + x2 ||2 = ||x1 ||2 + 2hx1 , x2 i + ||x2 ||2 = ||x1 ||2 + ||x2 ||2 ,
si x1 et x2 sont orthogonaux. Supposons maintenant que la relation de l’énoncé est vraie pour n−1 vecteurs
deux à deux orthogonaux. Soient x1 , · · · , xn n vecteurs deux à deux orthogonaux de E. En particulier,
Pn−1
le vecteur i=1 xi est orthogonal à xn par bilinéarité et on déduit l’égalité annoncée en utilisant le cas
n = 2 pour ces deux vecteurs puis l’hypothèse de récurrence. 

139
Corollaire 8.1.10. (1) Si des vecteurs d’un espace préhilbertien sont deux à deux orthogonaux et non
nuls, ils sont linéairement indépendants.
(2) Si E est un espace préhilbertien et si E1 , · · · , Ek sont k sous-espace vectoriels de E deux à deux
orthogonaux, ils sont en somme directe.
Preuve. (1) Cela a déjà été prouvé enP7.3.19. On obtient une autre preuve comme conséquence du
n
théorème de Pythagore. Supposons que i=1 λi .xi = 0E alors les n vecteurs λ1 x1 , · · · , λn xn sont deux à
deux orthogonaux. D’après le théorème de Pyhthagore,
n
X n
X
0 = ||0E || = || λi xi ||2 = |λi |||xi ||2 ,
i=1 i=1

et comme x1 , · · · , xn sont non nuls et que ||.|| est une norme, la seule possibilité est que λ1 = · · · = λn = 0.
Pk
(2) Si 0E = i=1 xi avec xi ∈ Ei pour i = 1, · · · , k alors les vecteurs x1 , · · · , xk sont deux à deux
orthogonaux. S’ils sont non tous nuls, le (1) implique que la famille {x1 , · · · , xk } est libre, contradiction.
Donc ils tous non nuls et 0E a une unique décomposition dans E1 + · · · + Ek . D’après la proposition 2.3.16,
la somme de ces sous-espace vectoriels est directe. 

Bases orthonormales
Rappelons également la définition d’une famille orthonormale dans ce cadre.
Définition 8.1.11. (1) Si E est un espace préhilbertien, on dit que la famille {x1 , · · · , xn } est orthonormée
si les vecteurs x1 , · · · , xn sont deux à deux orthogonaux et si ||xi || = 1 pour i = 1, · · · , n.
(2) Si E est un espace euclidien de dimension n, on dit que la famille {x1 , · · · , xn est une base orthonormée
de E si c’est à la fois une base de E et une famille orthonormée de E.
Théorème 8.1.12. Tout espace euclidien admet une base orthonormée.
Preuve. Ce résultat découle du théorème de Sylvester 7.4.10 puisqu’une forme bilinéaire définie positive
est forcément de signature (n, 0) si dim(E) = n. Donnons-en une autre preuve. On procède par récurrence
sur la dimension de E. Si cette dimension vaut 1, le résultat est évident. Supposons donc que le résultat
est démontré pour tout espace euclidien F de dimension strictement inférieure à n et soit E un espace
euclidien de dimension n. Soit x1 ∈ E tel que ||x1 || = 1 ( il suffit de prendre x1 ∈ E \ {0} et de le diviser
par sa norme). L’ensemble
F = {y ∈ E | y orthogonal à x1 }
est un espace euclidien (voir exemple 8.1.2(4)). Il est en fait égal à Vect({x1 })⊥ et on a E = Vect({x1 })⊕F
d’après le théorème 7.3.15. Par hypothèse de récurrence, F admet une base orthonormée {x2 , · · · , xn }
donc la famille {x1 , · · · , xn } est une base orthonormée de E ce qui termine la preuve. 

Remarque 8.1.13. Le procédé d’orthonormalisation de Gram-Schmidt que nous verrons plus loin donnera
une preuve constructive du résultat précédent.
Pour finir cette section, intéressons-nous aux coordonnées d’un vecteur dans une base orthonormée.
Théorème 8.1.14. Soient E un espace euclidien et {e1 , · · · , en } une base orthonormée de E. Si X (resp.
Y ) représente le vecteur colonne des coordonnées de x (resp. y) dans cette base, on a
n
X n
X
hx, yi = t XY, x= hx, ei iei , ||x||2 = (hx, ei i)2 .
i=1 i=1

140
Preuve. Notons (x1 , · · · , xn ) et (y1 , · · · , yn ) les coordonnées respectives de x et de y dans la base or-
thonormée. Alors
n
X n
X n
X n
X n
X
hx, yi = h xi ei , yj ej i = xi yj hei , ej i = xi yj δi,j = xi yi = t XY,
i=1 j=1 i,j=1 i,j=1 i=1

d’où la première égalité. En appliquant cette égalité à y = ej pour 1 ≤ j ≤ n, on a hx, ej i = xj d’où l’on
déduit que
Xn
x= hx, ei iei .
i=1

Enfin, la dernière égalité provient du théorème de Pythagore. 

8.1.3 Projection orthogonale


Le résultat principal de cette sous-section est le suivant.
Théorème 8.1.15. Soient E un espace euclidien, F un sous-espace vectoriel de E et x ∈ E.
(1) Il existe un unique y noté PF (x) tel que y ∈ F et x − y orthogonal à F .
(2) L’application PF : E → E est un projecteur.
(3) Si {e1 , · · · , ek } est une base orthonormée de F , on a
k
X
PF (x) = hx, ei iei .
i=1

(4) On a
||x − PF (x)|| = miny∈F ||x − y||.
(5) Si x1 , x2 ∈ E, on a
||PF (x1 ) − PF (x2 )|| ≤ ||x1 − x2 ||.
Preuve. (1) Montrons tout d’abord l’unicité. Si y1 et y2 vérifient ces conditions alors les vecteurs x−y1 et
x − y2 sont orthogonaux à F donc y1 − y2 ∈ F ⊥ (car F ⊥ est un sous-espace vectoriel de E). Or y1 , y2 ∈ F
donc y1 − y2 ∈ F . Enfin, puisque E est euclidien, F et F ⊥ sont en somme directe : cela signifie que
y1 − y2 ∈ F ∩ F ⊥ = {0E }. Ainsi y1 = y2 .
Pk
Pour montrer l’existence, nous allons utiliser les notations et l’expression de (3). L’élément i=1 hx, ei iei
est un élément de F . Pour j = 1, · · · , n, calculons
k
X k
X
hx − hx, ei iei , ej i = hx, ej i − hx, ei ihei , ej i = hx, ej i − hx, ej i = 0.
i=1 i=1

Ainsi l’élément x − PF (x) est orthogonal à tous les vecteurs d’une base de F : par bilinéarité, il est
orthogonal à F d’où l’existence. Notons que l’on a montré (3) du même coup.
Pk
(2) Puisque PF (x) = i=1 hx, ei iei , on voit aisément que PF est un endomorphisme de E. En outre,
par définition, PF (PF (x)) = PF (x) ce qui implique que PF est un projecteur.
(4) Si y ∈ F , on écrit x − y = (x − PF (x)) + (PF (x) − y). Alors PF (x) − y ∈ F et on applique le
théorème de Pythagore
||x − y||2 = ||x − PF (x)||2 + ||PF (x) − y||2 ,

141
d’où ||x − y|| ≥ ||x − PF (x)|| quel que soit y ∈ F d’où le résultat.
(5) En prenant y = 0E dans le (4), on voit que ||x||2 ≥ ||PF (x)||2 d’où

||PF (x1 ) − PF (x2 )|| ≤ ||x1 − x2 ||,

par linéarité. 

Définition 8.1.16. On reprend les notations du théorème 8.1.15. Si x ∈ E l’élément PF (x) ∈ F est
appelé projection orthogonale de x sur F .

Remarque 8.1.17. En général, dans un espace préhilbertien E de dimension infinie, la projection or-
thogonale sur un sous-espace vectoriel n’existe pas. En revanche, si on suppose que cet espace est complet1
pour la distance d : E × E → R+ : (x, y) 7→ ||x − y|| ou que F est de dimension finie, la projection orthog-
onale existe et vérifie les propriétés du théorème ci-dessus (mais la preuve de ce résultat est différente).
La propriété (5) du théorème montre alors que PF est un opérateur linéaire et continu. Encore plus
généralement, on peut montrer que la projection orthogonale sur un sous-ensemble convexe fermé d’un
espace hilbertien existe et qu’elle vérifie encore les propriétés du théorème ci-dessus.
Nous allons retrouver le théorème 7.3.15 très facilement grâce à la notion de projection orthogonale.
Théorème 8.1.18. Soient E un espace préhilbertien et F un sous-espace vectoriel de E de dimension
finie. Alors on a E = F ⊕ F ⊥ et (F ⊥ )⊥ = F .

Preuve. Si x ∈ E, on écrit x = PF (x) + (x − PF (x)) ce qui montre que E = F + F ⊥ (en effet, PF (x) ∈ F
et (x − PF (x)) ∈ F ⊥ par définition de la projection orthogonale). De plus, F et F ⊥ sont en somme directe
d’après le corollaire 8.1.10 (ou plus directement, d’ailleurs) donc E = F ⊕ F ⊥ .
Pour la second propriété, on a toujours F ⊂ (F ⊥ )⊥ par définition. Réciproquement, si x ∈ (F ⊥ )⊥ ,
écrivons x = y + z avec y ∈ F et z ∈ F ⊥ . Comme x est orthogonal à F ⊥ , on a

0 = hx, zi = hy, zi + hz, zi = ||z||2 ,

donc z = 0E et x ∈ F d’où le résultat. 

Remarque 8.1.19. Le résultat précédent se généralise dans un espace hilbertien E : si F est un sous-
espace vectoriel fermé de E, on a E = F ⊕ F ⊥ .

8.1.4 Procédé d’orthonormalisation de Gram-Schmidt


Le but de cette sous-section est de donner une preuve constructive du théorème 8.1.12.

Théorème 8.1.20 (Procédé d’orthonormalisation de Gram-Schmidt). Soit {e1 , · · · , en } une base d’un
espace euclidien E. Il existe une unique base orthonormée {f1 , · · · , fn } de E qui vérifie la propriété
suivante : pour tout m ∈ {1, · · · , n}, il existe a1 , · · · , am ∈ R avec am > 0 tels que
m−1
X
fm = am .em + ai fi .
i=1
1 l’espace est alors dit hilbertien.

142
Preuve. Montrons d’abord l’existence qui se prouve par récurrence. Au premier rang, on pose f1 =
e1
||e1 || . Supposons donnée une famille orthonormée {f1 , · · · , fk−1 } telle que dans l’énoncé avec Fk−1 =
Vect({f1 , · · · , fk−1 }) = Vect({e1 , · · · , ek−1 }). Considérons le vecteur gk = ek − PFk−1 (ek ). Puisque
{e1 , · · · , en } est une base, ek ∈ / Fk−1 donc gk 6= 0E . Posons alors fk = ||ggkk || . D’après le théorème
Pk−1
8.1.15(3), il existe a1 , · · · , ak−1 ∈ R tels que PFk−1 (ek ) = i=1 ai ei . Alors, fk vérifie la condition de
l’énoncé. De plus, fk ∈ (Fk−1 )⊥ par construction donc la famille {f1 , · · · , fk } est orthonormée et on a
Vect({f1 , · · · , fk }) = Vect({e1 , · · · , ek }).
Supposons que {f10 , · · · , fn0 } soit une base orthonormée de E vérifiant les conditions de l’énoncé. Alors
f1 = a1 e1 et f10 = a01 e1 . Comme ||f1 || = 1 = ||f10 || et a1 , a01 > 0, on en déduit que a1 = a01 donc f1 = f10 .
Si on suppose que f1 = f10 , · · · , fk−1 = fk−10
, alors
k−1
X k−1
X
fk = ak ek + ai fi et fk0 = a0k ek + a0i fi .
i=1 i=1

Or 1 = hfk , fk i = ak hek , fk i et 1 = a0k hek , fk i d’où ak = a0k . Ensuite, pour j = 1, · · · , k − 1,


ak hek , fj i + aj = 0 = ak hek , fj i + a0j ,
et aj = a0j d’où l’unicité. 

Remarques 8.1.21. (1) Si on part d’une base orthonormée {f1 , · · · , fk } d’un sous-espace vectoriel F de
E, complétée par une famille {ek+1 , · · · , en } pour former une base de E, on peut appliquer le procédé
ci-dessus à partie de l’étape k + 1 de sorte que {f1 , · · · , fk , fk+1 , · · · , fn } soit une base orthonormée de
E. On sait ainsi construire une base orthonormée de E à partir d’une base orthonormée d’un de ses
sous-espaces vectoriels.
(2) Le procédé ci-dessus peut aussi s’appliquer en dimension infinie si on dispose au départ d’une suite
infinie f1 , · · · , fn , · · · de vecteurs telle que toute famille {f1 , · · · , fi } soit libre pour tout i : on produit
alors une base orthonormée de l’espace préhilbertien E.
Exemples 8.1.22. (1) Soit la base de R3 {(1, 1, 0), (−1, 3, 1), (−2, 4, 3)}. Si on applique le procédé de
Gram-Schmidt, on construit la base orthonormée {f1 , f2 , f3 } où
1 1 2 2 1 1 1 4
f1 = ( √ , √ , 0), f2 = (− , , ), f3 = (− √ , √ , − √ ).
2 2 3 3 3 3 2 3 2 3 2
(2) Si le procédé de Gram-Schmidt est constructif, les calculs deviennent très vite compliqués en général.
Ainsi, considérons l’espace préhilbertien E des fonctions continues sur [−1, 1] muni du produit scalaire
Z 1
hf, gi = f (t)g(t)dt,
−1

pour f, g ∈ E. Considérons la famille infinie {1, X, X 2 , · · · , X n , · · · }. Les polynômes obtenus par le


procédé de Gram-Schmidt sont
r r r
1 3 5 2 7
√ , X, (3X − 1), (5X 3 − 3X), · · ·
2 2 8 8
En travaillant un peu plus, on montre en fait que les polynômes
∂n
(X 2 − 1)n
Pn =
∂X n
sont deux à deux orthogonaux et de degré n. On obtient donc une base orthonormée de E en divisant
chacun de ces polynômes par sa norme.

143
8.1.5 Dualité dans un espace euclidien
Nous terminons cette section en donnant une nouvelle description du dual d’un espace euclidien.

Théorème 8.1.23 (Théorème de représentation de Riesz-Fréchet). Soit E un espace euclidien. Pour tout
f ∈ E ∗ il existe un unique y ∈ E tel que

f (x) = hx, yi, ∀x ∈ E.

En particulier E et E ∗ sont canoniquement isomorphes via ϕE : E → E ∗ : y 7→ (x 7→ hx, yi).


Preuve. Tout d’abord, si y ∈ E, l’application E → R : x 7→ hx, yi est une forme linéaire. Réciproquement,
soit f ∈ E ∗ . Si f = 0, il suffit de prendre y = 0. Sinon, soit x0 ∈ E tel que f (x0 ) 6= 0 : on peut supposer
que f (x0 ) = 1. Posons F = ker f et soit y0 = PF (x0 ) alors, si z0 = x0 − y0 , l(z0 ) = 1 et z0 ∈ F ⊥ . Soit
x ∈ E. On écrit
x = (x − f (x)z0 ) + f (x)z0 .
On voit aisément que x − f (x)z0 ∈ F donc z0 et x − f (x)z0 sont orthogonaux. Ainsi

hx, z0 i = f (x)hz0 , z0 i,
z0
quel que soit x ∈ E. Si on pose y = ||z0 ||2 , on a f (x) = hx, yi quel que soit x ∈ E.
Pour l’unicité, si hx, yi = f (x) = hx, y 0 i pour tout x ∈ E alors, en particulier hx, y − y 0 i = 0 pour tout
x ∈ E et en choisissant x = y − y 0 , cela implique que ||y − y 0 ||2 = 0 donc que y = y 0 .
Enfin, ϕE est clairement une application linéaire surjective entre deux espaces vectoriels de même
dimension : c’est donc un isomorphisme. 

Remarques 8.1.24. (1) Le théorème ci-dessus reste vrai dans un espace de Hilbert H quelconque : il dit
qu’il existe un isomorphisme isométrique entre H et son dual (dans ce cas, le dual est la dual topologique,
c’est à dire l’ensemble des formes linéaires continues sur H).
(2) Avec les notations ci-dessus, on a hx, (ϕE )−1 (f )i = f (x) pour tout x ∈ E.

8.2 Endomorphismes d’un espace euclidien


Après avoir développé le matériel important au sein des espaces euclidiens dans la section précédente, nous
étudions maintenant la spécificité des endomorphismes d’un espace euclidien.

8.2.1 Adjointe d’une application linéaire


L’existence de l’adjoint découle de la proposition suivante.
Proposition 8.2.1. Soient E et F deux espaces euclidiens et u ∈ L(E, F ). Il existe une unique application
linéaire u∗ ∈ L(F, E) telle que
hu(x), yi = hx, u∗ (y)i
pour tous x ∈ E, y ∈ F .
Preuve. Soit u ∈ L(E, F ). On considère son application transposée t u : F ∗ → E ∗ . En utilisant les
notations du théorème 8.1.23, on considère aussi les isomorphismes ϕE : E → E ∗ et ϕF : F → F ∗ . Posons

144
alors u∗ = (ϕE )−1 ◦ t u ◦ ϕF . Alors u∗ ∈ L(F, E) puisque c’est une composée d’applications linéaires.
Montrons qu’elle vérifie l’identité de l’énoncé : si x ∈ E, y ∈ F , on a

hx, u∗ (y)i = hx, (ϕE )−1 ◦ t u◦ϕF (y)i = hx, (ϕE )−1 (t u(ϕF (y)))i = (t u(ϕF (y))(x) = ϕF (y)(u(x)) = hu(x), yi,

d’après la remarque 8.1.24 et par définition de l’application transposée ce qui prouve l’existence de u∗ .
Pour l’unicité, si u1 ∈ L(F, E) est telle que hx, u1 (y)i = hu(x), yi = hx, u∗ (y)i pour tous x ∈ E, y ∈ F
alors, hx, u1 (y) − u∗ (y)i = 0 pour tous x ∈ E, y ∈ F . Puisque le produit scalaire est non dégénéré,
u1 (y) = u∗ (y) pour tout y ∈ F d’où l’unicité. 

Définition 8.2.2. Reprenons les définitions de la proposition précédente : si u ∈ L(E, F ), l’application


linéaire u∗ ∈ L(F, E) est appelée application linéaire adjointe de u ou plus simplement adjoint(e) de u. En
particulier, tout endomorphisme u d’un espace euclidien admet un adjoint qui est aussi un endomorphisme
de E.
Regardons maintenant quelques propriétés de l’application linéaire adjointe.
Proposition 8.2.3. Soient E, F et G des espaces euclidiens.
(1) Soient B (resp . C) une base orthonormée de E (resp. de F ). Alors

MatC,B (u∗ ) = t MatB,C (u).

(2) Si u, v ∈ L(E, F ) et λ ∈ K, on a (u∗ )∗ = u, (λ.u)∗ = λu∗ et (u + v)∗ = u∗ + v ∗ . Si u ∈ L(E, F ) et


v ∈ L(F, G), on a (w ◦ u)∗ = u∗ ◦ w∗ .
(3) Si u ∈ End(E), on a
(ker(u))⊥ = Im (u∗ ) et Im (u) = (ker(u∗ ))⊥ .
Preuve. (1) On pose B = {e1 , · · · , en } et C = {f1 , · · · , fp }. On note MatB,C (u) = A = (ai,j ) et
MatC,B (u∗ ) = (bi,j ). Soient 1 ≤ i ≤ n et 1 ≤ j ≤ p alors

bi,j = hu∗ (fj ), ei i = hei , u∗ (fj )i = hu(ei ), fj i = aj,i ,

ce qui prouve le résultat.


(2) Toutes ces propriétés se prouvent de la même manière à l’aide de l’unicité établie dans la proposition
précédente. Nous prouvons seulement (w ◦ u)∗ = u∗ ◦ w∗ . Pour tous x ∈ E, y ∈ G, on a

hx, (w ◦ u)∗ (y)i = h(w ◦ u)(x), yi = hw(u(x)), yi = hu(x), w∗ (y)i = hx, (u∗ ◦ w∗ )(y)i,

ce qui implique que (w ◦ u)∗ = u∗ ◦ w∗ par unicité.


(3) Il suffit de prouver la première égalité : on obtient la seconde en remplaçant u par u∗ dans la
première et en utilisant le fait que (u∗ )∗ = u. Soient y = u∗ (z) ∈ Im (u∗ ). Pour tout x ∈ ker(u), on a

hx, yi = hx, u∗ (z)i = hu(x), zi = 0,

d’où Im (u∗ ) ⊂ (ker(u))⊥ . Or, d’après le théorème du rang et le théorème 8.1.18,

dim(ker(u)⊥ ) = dim(E) − dim(ker(u)) = dim(Im (u)),

d’une part et

dim(Im (u)) = dim(Im ((u∗ )∗ )) ≤ dim(ker(u∗ )⊥ ) = dim(E) − dim(ker(u∗ )) = dim(Im (u∗ )),

d’autre part, donc (ker(u))⊥ = Im (u∗ ). 

145
8.2.2 Endomorphismes symétriques et antisymétriques
Définition 8.2.4. (1) Soient E un espace euclidien et u un endomorphisme de E. On dit que u est un
endomorphisme symétrique ou auto-adjoint si u∗ = u; cela équivaut à exiger que

hu(x), yi = hx, u(y)i,

quels que soient x, y ∈ E.


(2) Soient E un espace euclidien et u un endomorphisme de E. On dit que u est un endomorphisme
antisymétrique si u∗ = −u; cela équivaut à exiger que

hu(x), yi = −hx, u(y),

quels que soient x, y ∈ E.

Proposition 8.2.5. Soient E un espace euclidien. Alors u est un endomorphisme symétrique (resp. an-
tisymétrique) de E si et seulement si sa matrice par rapport à toute base orthonormée de E est symétrique
(resp. antisymétrique).
Preuve. Nous prouvons la proposition dans le cas symétrique, l’autre cas étant similaire. Supposons tout
d’abord que u soit un endomorphisme symétrique et soit B = {e1 , · · · , en } une base orthonormée de E.
Notons MatB (u) = A = (ai,j ). Pour 1 ≤, i, j ≤ n, on a

ai,j = hu(ej ), ei i = hej , u(ei )i = hu(ei ), ej i = aj,i ,

ce qui prouve que A est une matrice symétrique.


Réciproquement, soit B une base orthonormée de E et supposons que A = MatB (u) est symétrique.
Soient x, y ∈ E et X, Y les vecteurs colonnes de leurs coordonnées dans la base B. Alors

hu(x), yi = t (AX)Y = t X t AY = t X(AY ) = hx, u(y)i,

d’où le résultat. 

La proposition suivante est le ressort principal de tous les résultats de réduction prouvés par la suite.

Proposition 8.2.6. Soient E un espace euclidien et u un endomorphisme symétrique (resp. anti-


symétrique) de E.
(1) Si F est un sous-espace vectoriel de E et si u(F ) ⊂ F , alors u|F est un endomorphisme symétrique
(resp.antisymétrique) de F .
(2) Si F est un sous-espace vectoriel de E, le sous-espace vectoriel F ⊥ est stable par u.

Preuve. Nous faisons ces preuves dans le cas où u est symétrique.
(1) Posons u0 = u|F . Si x, y ∈ F , on a

hu0 (x), yi = hu(x), yi = hx, u(y)i = hx, u0 (y)i,

d’où l’on déduit le résultat.


(2) Soit x ∈ F ⊥ . Si x0 ∈ F , on a u(x0 ) ∈ F donc 0 = hu(x0 ), xi = hx0 , u(x)i ce qui prouve que
u(x) ∈ F ⊥ . 

146
8.2.3 Diagonalisation des endomorphismes symétriques et antisymétriques
Dans cette sous-section, nous voulons prouver des résultats de réduction concernant les endomorphismes
symétriques et antisymétriques. Pour ce faire, nous utilisons parfois des résultats du chapitre suivant
concernant la réduction des matrices hermitiennes que l’on consultera pour toute précision.

Endomorphismes symétriques
Théorème 8.2.7. Soient E un espace euclidien et u en endomorphisme symétrique de E. Alors, les
racines de son polynôme caractéristique sont réelles et les sous-espaces propres de u sont deux à deux
orthogonaux. En outre, u est diagonalisable : plus précisément, il existe une base orthonormée de E
formée de vecteurs propres.
Preuve. La matrice de u dans une base orthonormée de E est symétrique (proposition 8.2.5) donc
hermitienne : on déduit du théorème 9.3.6(1) que ses valeurs propres sont réelles.
Soient λ, µ deux valeurs propres distinctes de u et x, y ∈ E \ {0} deux vecteurs propres respectivement
associés à ces valeurs propres. Alors

λhx, yi = hλx, yi = hu(x), yi = hx, u(y)i = µhx, yi,

ce qui prouve que hx, yi = 0 puisque λ 6= µ. Ainsi, deux sous-espaces propres associés à deux valeurs
propres distinctes sont orthogonaux.
Soient E1 , · · · , Ek la liste des sous-espaces propres de u. Posons F = E1 ⊕ · · · ⊕ Ek . On a vu au
chapitre 6 que les espaces propres sont stables par u donc u(F ) ⊂ F . Supposons F ⊥ 6= {0E }. Alors,
d’après la proposition 8.2.6(2), on en déduit que F ⊥ est stable par u; de plus, u|F ⊥ est un endomorphisme
symétrique de F ⊥ d’après la proposition 8.2.6(1). Puisque F ⊥ 6= {0E } et que u|F ⊥ est un endomorphisme
symétrique, la première partie de la preuve montre qu’il admet forcément un vecteur propre qui est aussi
un vecteur propre de u. C’est une contradiction puisque tous les vecteurs propres de u sont dans F . Ainsi,
F ⊥ = {0E } et E = F est somme directe des sous-espaces propres de u donc est diagonalisable d’après la
proposition 6.3.5. Comme les sous-espace propres sont deux à deux orthogonaux, on peut même trouver
une base orthonormée de vecteurs propres de u. 

Nous prouvons un résultat analogue au théorème 6.5.20 pour les endomorphismes symétriques.
Théorème 8.2.8. Soient u et v deux endomorphismes symétriques d’un espace euclidien E tels que u◦v =
v ◦ u. Il existe une base orthonormée de E dans laquelle les endomorphismes u et v sont simultanément
diagonalisables.

Preuve. D’après le théorème 8.2.7, u est diagonalisable donc E = E1 ⊕· · ·⊕Ek où E1 , · · · , Ek sont les sous-
espaces propres de u. On considère E1 : comme u et v commutent, E1 est stable par v. Ainsi, la restriction
de v à E1 est un endomorphisme symétrique de E1 d’après la proposition 8.2.6(1) : cet endomorphisme
est diagonalisable et il existe donc une base orthonormée de E1 formée de vecteurs propres de v. De cette
façon on trouve une base orthonormée de E formée de vecteurs propres de v qui sont aussi, par définition,
des vecteurs propres de u : u et v sont donc simultanément diagonalisables. 

Endomorphismes antisymétriques
Théorème 8.2.9. Soient E un espace euclidien et u un endomorphisme antisymétrique de E. Alors les
racines du polynôme caractéristique2 de u sont imaginaires pures. Pour chaque racine µ = ic avec c réel,
2 considéré comme polynôme de C[X].

147
l’opposé de cette racine −ic est aussi racine du polynôme caractéristique. Il existe une base orthonormée
de E formée d’une famille {e1 , · · · , e2k } suivie d’une base orthonormée {e2k+1 , · · · , en } de ker(u) telle que
la partie de la matrice de u correspondant aux vecteurs {e1 , · · · , e2k } soit diagonale par blocs 2 × 2 de la
forme  
0 −c
,
c 0
où c ∈ R∗ est tel que ic est racine du polynôme caractéristique de u.
Preuve. Cette preuve utilise des résultats et notions du chapitre suivant que l’on consultera pour toute
précision.
On considère le sous-espace vectoriel F = ker(u) de E : il est stable par u donc son orthogonal G = F ⊥
est aussi stable par u d’après la proposition 8.2.6(2). Notons v = u|G . D’après la proposition 8.2.6(1), v
est un endomorphisme antisymétrique de G.
Montrons que v est inversible. Soit y ∈ G tel que v(y) = 0. Alors u(y) = v(y) = 0 et y ∈ ker(u) ∩ G =
F ∩ F ⊥ = {0E }. Cela prouve que v est injective donc inversible puisque c’est un endomorphisme de G.
Soit {g1 , · · · , gm } une base orthonormée de G et notons B la matrice de v dans cette base : par
hypothèse, cette matrice est antisymétrique à coefficients réels. On en déduit que la matrice A = iB est
hermitienne et, d’après le théorème 9.3.6(1), ses valeurs propres sont réelles et non nulles puisque B est
inversible. Les valeurs propres de B sont donc de la forme ic où c ∈ R∗ . Soit Z = X + iY un vecteur
propre (complexe) non nul associé à la valeur propre ic pour v où X et Y sont des vecteurs réels. On a
alors BZ = icZ puis AZ = −cZ donc

AZ = AZ = −AZ = cZ.

Ainsi Z (resp. Z) est un vecteur propre de A pour la valeur propre −c (resp. c). Puisque c 6= −c (c est
différent de 0), Z et Z sont orthogonaux et

0 = hZ, Zi = t ZZ = (t XX − t Y Y ) + 2it XY.

Ainsi, X et Y sont orthogonaux et ||X||, ||Y || =


6 0. On peut donc supposer que ||X|| = ||Y || = 1.
D’autre part,
B(X + iY ) = BX + iBY = −cY + icX,
d’où BX = −cY et BY = cX. On a donc trouvé deux vecteurs x, y ∈ G tels que v(x) = −cy, v(y) = cx,
hx, yi = 0 et ||x|| = ||y|| = 1. Le sous-espace G1 engendré par la famille {x, y} est stable par v et la matrice
de la restriction de v à G1 a la forme annoncé dans l’énoncé du théorème. En outre, l’orthogonal de G1
dans G est à son tour stable par v, ce qui prouve le résultat par récurrence. 

Remarque 8.2.10. La preuve du résultat précédent montre que la dimension de (ker(u))⊥ est paire.

8.2.4 Endomorphismes symétriques positifs et endomorphismes normaux


Nous terminons cette section par deux résultats qui complètent agréablement les résultats précédents.
Dans un premier temps, nous montrons l’existence d’une unique racine carrée pour un endomorphisme
symétrique positif. Dans un second temps, nous traitons la réduction des endomorphismes normaux.

148
Endomorphismes symétriques positifs
Définition 8.2.11. Soient E un espace euclidien et u un endomorphisme de E. L’endomorphisme u est
dit symétrique positif si
hu(x), xi ≥ 0,
pour tout x ∈ E. De façon équivalente, cela signifie que la forme quadratique q : E → R : x 7→ hu(x), xi
est positive ou encore que toutes les valeurs propres de u sont positives ou nulles.
Théorème 8.2.12. Soient E un espace euclidien et u un endomorphisme symétrique positif de E. Alors
il existe un unique endomorphisme symétrique positif v de E tel que v 2 = u.
Preuve. D’après le théorème 8.2.7, u est diagonalisable dans une base √ orthonormée {e1 , · · · , en }. On a
alors u(ei ) = λi ei avec λi ≥ 0 puisque u est positif. Les relations v(ei ) = λi ei permettent alors de définir
un endomorphisme v tel que v 2 = u et qui est évidemment symétrique positif.
Montrons maintenant l’unicité de v. Soit w un endomorphisme symétrique positif tel que w2 = u. On
en déduit immédiatement que u et w commutent donc les sous-espaces propres de u sont stables par w. On
sait que E est somme directe des sous-espaces propres de u. Nous allons donc montrer qu’en restriction à
chaque sous-espace propre de u, w√coı̈ncide avec v ce qui prouvera l’unicité.√Soit F = ker(u−λ.IdE ) un sous-
espace propre de u. Alors v|F = λIdF Montrons donc que w1 = w|F = λIdF . Déjà, w1 2 = u|F = λIdF .
Si λ = 0, w1 2 = 0 donc, pour tout x ∈ F ,

||w1 (x)||2 = hw1 (x), w1 (x)i = hw1 2 (x), xi = 0,

car w1 est un endomorphisme symétrique par la proposition 8.2.6. Ainsi, dans ce cas, w1 = v|F .

Sinon, λ > 0 et posant µ = λ, on a

0 = w1 2 − λIdF = (w1 + µIdF )(w1 − µIdF ).

Puisque w1 + µIdF est inversible (ses valeurs propres sont strictement positives donc non nulles car c’est
le cas de w1 et car µ > 0), on en déduit que w1 − µIdF = 0, ce qu’il fallait démontrer. 

Endomorphismes normaux
Définition 8.2.13. Soient E un espace euclidien et u un endomorphisme de E. On dit que u est un
endomorphisme normal de E si u ◦ u∗ = u∗ ◦ u.
Exemple 8.2.14. Par exemple, les endomorphismes symétriques et antisymétriques sont normaux. C’est
aussi le cas des rotations vectorielles.
Théorème 8.2.15. Soient E un espace euclidien et u un endomorphisme normal de E. Alors, il existe
une base orthonormée de E dans laquelle la matrice de u est diagonale par blocs. Ces blocs diagonaux sont
soit de taille 1 × 1, auquel cas ils correspondent à des valeurs propres réelles de u, soit de taille 2 × 2 et
ils sont de la forme  
λ −b
,
b λ
où λ est réel et b est un réel non nul.
Preuve. Puisque u est un endomorphisme normal, on peut écrire
u + u∗ u − u∗
u=v+w = + .
2 2

149
On constate alors que v est un endomorphisme symétrique, que w est un endomorphisme antisymétrique
et que v ◦ w = w ◦ v puisque u commute avec son adjoint. D’après le théorème 8.2.7, l’endomorphisme v est
diagonalisable. Si F est un sous-espace propre de v, il est stable par w puisque v et w commutent. D’après
la proposition 8.2.6, la restriction w0 de w à F est encore un endomorphisme antisymétrique auquel on
applique le théorème 8.2.9. On trouve alors une base orthonormée de F avec certains blocs de taille 1 × 1
(correspondant au noyau de w0 ) et d’autres de taille 2 × 2 ayant la forme annoncée quand on rajoute la
contribution de v. Puisque E est somme directe des sous-espaces propres de u, on en déduit le résultat. 

8.3 Isométries d’un espace euclidien


Nous terminons ce chapitre par l’étude des isométries vectorielles d’un espace euclidien.

8.3.1 Isométries vectorielles et groupe orthogonal


Définition 8.3.1. Soit E un espace préhilbertien. Un endomorphisme u de E est une isométrie vectorielle
de E ou simplement une isométrie de E si u conserve la norme, c’est à dire si ||u(x)|| = ||x|| pour tout
x ∈ E.

Proposition 8.3.2. Soit E un espace prébilbertien.


(1) Si u est une isométrie, u conserve le produit scalaire, c’est à dire

hu(x), u(y)i = hx, yi

pour tous x, y ∈ E.
(2) Si E est euclidien et que u est une isométrie, u est un automorphisme de E et u−1 est aussi une
isométrie de E.
(3) La composée de deux isométries de E est une isométrie de E.
Preuve. (1) Si x ∈ E, on a
hu(x), u(x)i = ||u(x)||2 = ||x||2 = hx, xi.
Par polarisation, on obtient facilement que hu(x), u(y)i = hx, yi.
(2) Si u(x) = 0E alors ||x|| = ||u(x)|| = 0 donc l’endomorphisme u est injectif donc bijectif puisque E
est supposé de dimension finie. Si y ∈ E, on a alors ||y|| = ||u(u−1 (y))|| = ||u−1 (y)|| donc u−1 est une
isométrie de E.
(3) C’est évident. 

D’après la proposition précédente, on peut poser la définition suivante :


Définition 8.3.3. Soit E un espace euclidien. L’ensemble des isométries de E est un groupe pour la
composition appelé groupe orthogonal de E et noté O(E).

Proposition 8.3.4. Soient E un espace euclidien. Alors u est une isométrie de E si et seulement si
u∗ = u−1 .
Preuve. Dans le sens direct, on sait que u conserve le produit scalaire donc si x, y ∈ E,

hx, yi = hu(x), u(y)i = hx, (u∗ ◦ u)(y)i.

150
Cela implique que u∗ ◦ u = IdE et comme E est de dimension finie on a aussi u ◦ u∗ = IdE donc u∗ = u−1 .
Réciproquement, si u∗ est l’inverse de E, soit x ∈ E :

||u(x)||2 = hu(x), u(x)i = hu∗ (u(x)), xi = hx, xi = ||x||2 ,

d’où l’on déduit que u st une isométrie de E. 

8.3.2 Matrices orthogonales


Définition 8.3.5. Une matrice carrée réelle M est dite orthogonale si t M est l’inverse de M c’est à dire
si t M M = M t M = In où n est la taille de M .

Lemme 8.3.6. Soit M une matrice orthogonale. Alors det(M ) = ±1.

Preuve. Puisque t M M = In et que det(t M ) = det(M ), on en déduit que (det(M ))2 = 1 donc det(M ) =
±1. 

Définition 8.3.7. L’ensemble des matrices orthogonales de Mn (R) est un groupe pour la multiplication
des matrices appelé groupe orthogonal et noté On (R). L’ensemble des matrices orthogonales dont le
déterminant vaut 1 est un sous-groupe du groupe orthogonal appelé groupe spécial orthogonal et noté
SOn (R).
Remarques 8.3.8. (1) En fait, le groupe SOn (R) est le noyau du morphisme de groupes surjectif det :
On (R) → {1, −1}.
(2) Attention : l’ensemble des matrices orthogonales de déterminant −1 ne forme pas un sous-groupe du
groupe orthogonal : en effet le produit de deux matrices de déterminant −1 est de déterminant 1.
Lemme 8.3.9. Soient E un espace euclidien et B = {e1 , · · · , en } une base orthonormée de E. Soit
C = {f1 , · · · , fn } une base de E. Alors C est une base orthonormée de E si et seulement si la matrice de
passage de B à C est une matrice orthogonale.
Preuve. Supposons d’abord que C est une base orthonormée de E. Soit P = pi,j la matrice de passage
de B à C. Alors pour 1 ≤ i, j ≤ n, on a pi,j = hfj , ei i. En outre, P −1 = (qi,j ) est la matrice de passage de
C à B donc pour 1 ≤ i, j ≤ n, qi,j = hej , fi i = hfi , ej i = pj,i . Il en résulte que P −1 = t P donc P est une
matrice orthogonale.
Supposons maintenant que la matrice de passage P = (pi,j ) de B à C est orthogonale. Notons P −1 =
(qi,j ). Soient 1 ≤ i, j ≤ n. On calcule
n
X n
X n
X n
X n
X n
X n
X
hfi , fj i = h pk,i ek , pl,j el i = ( pk,i pl,j hek , el i) = ( pk,i pl,j δk,l ) = pk,i pk,j ,
k=1 l=1 k=1 l=1 k=1 l=1 k=1
Pn
et hfi , fj i = k=1 qi,k pk,j = δi,j donc C est une base orthonormée de E. 

Faisons maintenant le lien entre les isométries et les matrices orthogonales.


Théorème 8.3.10. Soient E un espace euclidien et u un endomorphisme de E. Alors, u est une isométrie
de E si et seulement si la matrice de u dans toute base orthonormée de E est orthogonale.

151
Preuve. Si u est une isométrie de E, on sait que u∗ = u−1 d’après la proposition 8.3.4. D’après la
proposition 8.2.3, la matrice de u∗ dans une base orthonormée est la transposée de la matrice de u dans
cette même base : on en déduit donc que cette matrice est orthogonale.
Réciproquement, si la matrice de u dans une base orthonormée de E est orthogonale alors on a u∗ = u−1
et u est une isométrie d’après la proposition 8.2.3. 

La notion de matrice orthogonale nous permet de reformuler le théorème 8.2.7.


Théorème. Soient E un espace euclidien et u en endomorphisme symétrique de E. Alors, les racines de
son polynôme caractéristique sont réelles et les sous-espaces propres de u sont deux à deux orthogonaux.
En outre, si A est la matrice de u dans une base orthonormée, il existe une matrice orthogonale P et une
matrice diagonale D telles que A = P DP −1 = P Dt P .
Bien entendu, les théorèmes 8.2.9 et 8.2.15 peuvent également se reformuler de cette manière.

8.3.3 Réduction des isométries


Théorème 8.3.11. Soient E un espace euclidien et u une isométrie de E. Il existe une décomposition
de E en somme directe orthogonale de sous-espaces de dimension 1 ou 2 stables par l’endomorphisme u.
Preuve. Puisque u est une isométrie, on a u∗ ◦ u = u ◦ u∗ = IdE d’après la proposition 8.3.4. On en déduit
que u est un endomorphisme normal : on peut donc lui appliquer le théorème 8.2.15. Il existe une base
orthonormée {e1 , · · · , en } de E dans laquelle la matrice de u est diagonale par blocs. Ces blocs diagonaux
sont de deux types : soit ils sont de taille 1 × 1 et correspondent à des valeurs propres réelles de u, soit ils
sont de taille 2 × 2 et ils sont de la forme  
λ −b
,
b λ
où λ est réel et b est un réel non nul. Nous allons préciser un peu les choses.
Montrons que les seules valeurs propres possibles pour une isométrie réelle sont 1 et −1. Si λ est une
valeur propre de u, il existe x ∈ E \ {0} tel que u(x) = λx. Mais alors

|λ|||x|| = ||λx|| = ||u(x)|| = ||x||,

donc λ = ±1.
En conséquence, les blocs de taille 1 × 1 contiennent les valeurs 1 et −1. Occupons-nous maintenant
d’un bloc de taille 2 × 2  
λ −b
.
b λ
Par hypothèse, il existe {f1 , f2 } une sous-famille orthonormée de {e1 , · · · , en } telle que si F = Vect({f1 , f2 }),
la restriction de u à F a pour matrice ce bloc 2 × 2 dans la base {f1 , f2 }. Or, la restriction de u à F
est une isométrie de F . Puisque F est une famille orthonormée, cette matrice est orthogonale d’après le
théorème 8.3.10 donc son déterminant vaut ±1. Mais son déterminant vaut λ2 + b2 > 0 et l’on a donc
λ2 + b2 = 1. Il existe donc θ ∈ [0, 2π] tel que λ = cos(θ) et b = sin(θ). Ainsi, les blocs 2 × 2 sont des
matrices de rotation, c’est à dire du type
 
cos(θ) − sin(θ)
.
sin(θ) cos(θ)

152
Remarque 8.3.12. Dans la preuve du théorème précédent, on a mis en valeur le fait que pour toute
isométrie u d’un espace euclidien E, il existe une base orthonormée dans laquelle la matrice de u est de la
forme  
Ir 0 0
 0 −Is 0  ,
0 0 R
où r et s sont des entiers positifs ou nuls, et où R est une matrice diagonale par blocs 2 × 2 dans laquelle
chacun des blocs est une matrice de rotation.

8.3.4 Symétries orthogonales et réflexions


Symétries orthogonales
Définition 8.3.13. Soient E un espace euclidien et F, G deux sous-espace vectoriels supplémentaires
orthogonaux de E (c’est à dire que E = F ⊕ G avec G = F ⊥ ). On appelle symétrie orthogonale par
rapport à F l’application SF : E → E : x 7→ PF (x) − PG (x) pour tout x ∈ E où PF (resp. PG ) est la
projection orthogonale sur F (resp. sur G).
Donnons quelques propriétés des symétries orthogonales.
Proposition 8.3.14. On conserve les notations de la définition ci-dessus.
(1) SF est une isométrie involutive de E.
(2) On a SF = 2PF − IdE = IdE − 2PG .
(3) Il existe une base orthonormée de E dans laquelle la matrice de SF est diagonale de la forme
 
Idim(F ) 0
.
0 −Idim(G)

En particulier, det(SF ) = (−1)dim(G) .


Preuve. (1) Par définition, SF est un endomorphisme de E. Soit x ∈ E : on écrit x = y + z avec y ∈ F
et z ∈ G. Alors, puisque y et z sont orthogonaux, le théorème de Pythagore implique que

||SF (x)||2 = ||y||2 + ||z||2 = ||y + z||2 = ||x||2 ,

donc SF est une isométrie de E. Enfin, avec les mêmes notations SF (SF (x)) = SF (y − z) = y + z donc
SF est involutive.
(2) Tout cela vient du fait que PF + PG = IdE .
(3) Puisque SF (y) = y si y ∈ F et SF (z) = −z si z ∈ G, il suffit de prend une base orthonormée de E
qui soit union d’une base orthonormée de F et d’une base orthonormée de G. 

Réflexions
Les réflexions sont des symétries orthogonales particulières.
Définition 8.3.15. Soit E un espace euclidien et H un hyperplan de E. On appelle réflexion de E
d’hyperplan H la symétrie orthogonale par rapport à H.
Proposition 8.3.16. (1) Soit E un espace euclidien, et soit x ∈ E, x 6= 0. La réflexion orthogonale
d’hyperplan H = {x}⊥ est l’unique endomorphisme τx de E vérifiant

τx (x) = −x et τ|H = IdH .

153
Autrement dit, pour tout λ ∈ K, y ∈ H, on a τx (λx + y) = −λx + y.
(2) Pour tout x ∈ E, x 6= 0, on a τx est une isométrie de E. De plus, pour tout v ∈ E, on a
hx, vi
τx (v) = v − 2 x.
hx, xi
Enfin, τx2 = IdE .
Preuve. (1) Par définition, on a E = H ⊕Vect({x}). Soit u ∈ E : on écrit u = λx+y avec y ∈ H. Puisque
la réflexion τx de E d’hyperplan H est la symétrie orthogonale par rapport à H, on a τx (u) = −λx+y donc
τx vérifie les propriétés de l’énoncé. L’unicité provient du fait que les conditions de l’énoncé déterminant
uniquement un endomorphisme de E.
(2) Puisqu’une réflexion est une symétrie orthogonale particulière, c’est une isométrie involutive de E
d’après la proposition 8.3.14. Pour montrer le second point, il suffit de vérifier que l’application
hx, vi
E → E, v 7→ v − 2 x
hx, xi
est un endomorphisme, qui envoie x sur −x et qui se restreint à l’identité sur {x}⊥ , ce qui est clair. Par
l’unicité du (1), on en déduit que cet endomorphisme est τx . 

Lemme 8.3.17. Soit u ∈ O(E), et soit F un sous-espace de E stable par u. Alors F ⊥ est aussi stable
par u. De plus, on a u|F ∈ O(F ) et u|F ⊥ ∈ O(F ⊥ ).
Preuve. Soit x ∈ F ⊥ . Alors pour tout y ∈ F , on a
hu(x), yi = hx, u−1 (y)i = 0,
car F étant stable par u, il l’est aussi par u−1 . Ainsi u(x) ∈ F ⊥ . Le deuxième point vient du fait que si u
conserve le produit scalaire, il e, est de même pour u|F et u|F ⊥ . 

Théorème 8.3.18. Soit E un espace euclidien de dimension n. Alors O(E) est engendré par les réflexions.
Plus précisément, toute isométrie est la composée d’au plus n réflexions.
Preuve. Soient u une isométrie de E et Fu = ker(u − IdE ). On va montrer par récurrence que u est
produit d’au plus pu = n − dimR (Fu ) réflexions. Si pu = 0, alors u = IdE et est le produit de 0 réflexions.
Supposons que pu ≥ 1. Alors Fu⊥ est de dimension pu ≥ 1, donc il existe x ∈ Fu⊥ , x 6= 0. On a donc
x∈/ u(x) car Fu et Fu⊥ sont d’intersection nulle. Posons y = u(x). Comme Fu est stable par u, il en est
de même de Fu⊥ . Ainsi y ∈ Fu⊥ , et de plus y 6= x. On a donc x − y 6= 0, x − y ∈ Fu⊥ . Remarquons enfin
que l’on a
hx − y, x + yi = hx, xi − hy, yi = hx, xi − hu(x), u(x)i = 0,
car u est une isométrie. On a alors
1 1 1 1
τx−y (y) = − τx−y (x − y) + τx−y (x + y) = − (y − x) + (x + y) = x.
2 2 2 2
Soit z ∈ Fu (on a donc u(z) = z). Comme x − y ∈ Fu⊥ , z est alors orthogonal à x − y. On a alors
τx−y (u(z)) = τx−y (z) = z.
Ainsi Fu ⊂ Fτx−y u , et l’inclusion est stricte car x ∈
/ Fu mais τx−y (u(x)) = τx−y (y) = x, et donc x ∈ Fτx−y u .
On a donc dimR (Fτx−y u ) > dimR (Fu ) et par suite pτx−y u ≤ pu − 1. Par hypothèse de récurrence, τx−y u
est le produit d’au plus pτx−y u réflexions, et donc u = τx−y ◦ (τx−y u) est produit d’au plus pτx−y u + 1
réflexions, ce qui achève la récurrence, vu que pτx−y u + 1 ≤ pu . 

154
8.3.5 Isométries de R2 et de R3
Pour terminer ce chapitre, nous mettons en valeur la classification des isométries du plan et de l’espace.

Isométries de R2
Théorème 8.3.19. Soit u une isométrie de R2 . Alors :
(1) si det(u) = 1, u est une rotation ou l’identité.
(2) si det(u) = −1, u est une réflexion.
Preuve. On pourrait donner une preuve de ce résultat en utilisant les réductions précédentes. Donnons-en
une autre plus élémentaire.
(1) Le polynôme caractéristique de u est de degré 2. Si le déterminant de u vaut −1, le produit des racines
de ce polynôme est −1 et ce polynôme a forcément deux racines réelles distinctes. Puisque les valeurs
propres d’une isométrie valent 1 ou −1, u possède une valeur propre égale à −1 et une valeur propre égale
à 1. Puisque le polynôme caractéristique de u est scindé à racines simples, u est diagonalisable dans une
base de vecteurs propres {e1 , e2 } telle que u(e1 ) = e1 et u(e2 ) = −e2 . On voit aisément que les vecteurs
e1 et e2 sont orthogonaux puisque −he1 , e2 i = hu(e1 ), u(e2 )i = he1 , e2 i. Ainsi, u est la réflexion τe2 .
(2) Supposons maintenant que det(u) = 1. Alors, l’image du vecteur (1, 0) par u est un vecteur de
norme 1 : on peut l’écrire (cos(θ), sin(θ)) pour un certain θ. L’image de (0, 1) est aussi un vecteur de norme
1 qui est orthogonale au précédent : il s’écrit donc ±(− sin(θ), cos(θ)). Enfin, comme le déterminant vaut
1, ce second vecteur est forcément (− sin(θ), cos(θ)) donc la matrice de u dans la base canonique est
 
cos(θ) − sin(θ)
,
sin(θ) cos(θ)

donc u est une rotation ou l’identité. Notons que u peut se décomposer en la composée de deux réflexions
d’après le théorème 8.3.18. 

Isométries de R3
Théorème 8.3.20. Soit u une isométrie de R3 . Alors :
(1) si det(u) = 1, u est une rotation autour d’un axe ou l’identité.
(2) si det(u) = −1, u est la composée d’une rotation d’axe de vecteur directeur z et d’une symétrie
orthogonale par rapport au plan {z}⊥ .
Preuve. (1) Supposons det(u) = 1. Montrons que 1 est forcément racine du polynôme caractéristique
de u. En effet, étant de degré 3, si ce polynôme a une racine non réelle λ (forcément de module 1) alors
ses autres racines sont λ et µ ∈ R. Comme leur produit doit faire 1, on en déduit que µ = 1. Si les trois
racines sont réelles, ce sont des valeurs propres de u :elles valent donc ±1 mais comme leur produit fait 1,
l’une d’elles au moins vaut 1.
On vient de voir que 1 est forcément valeur propre de u donc il existe un vecteur e3 de norme 1 tel
que u(e3 ) = e3 . Alors l’orthogonal F de R.e3 est un plan stable par u et la restriction u0 de u à F est une
isométrie en dimension 2 dont le déterminant vaut 1. D’après le théorème 8.3.19, u0 est une rotation et
on en déduit que u est une rotation de R3 autour de l’axe Re3 .
(2) Si det(u) = −1, on peut considérer −u et appliquer le (1) pour en déduire qu’il existe e3 tel que
u(e3 ) = −e3 . Si v est la symétrie orthogonale par rapport à {e3 }⊥ , on en déduit par le (1) que u ◦ v = v ◦ u
est une rotation autour de l’axe Re3 . Puisque v est involutive, on en déduit le résultat. 

155
Chapitre 9

Espaces hermitiens

Dans ce chapitre, nous donnons quelques pistes dans l’étude des formes hermitiennes qui constituent le
pendant complexe des formes bilinéaires symétriques. Ce tour d’horizon sera plutôt rapide, étant donné
que la plupart des idées sont déjà présentes dans les deux chapitres précédents. Dans ce chapitre, les
espaces vectoriels considérés seront supposés être des C-espaces vectoriels.

9.1 Définitions
9.1.1 Formes sesquilinéaires
Définition 9.1.1. Une application s : E × F → C est une forme sesquilinéaire lorsque
(1) f est linéaire par rapport à la première variable, c’est à dire

s(λ.x + x0 , y) = λs(x, y) + s(x0 , y),

pour tous x, x0 ∈ E, y ∈ F et λ ∈ C;
(2) f est semi-linéaire par rapport à la second variable, c’est à dire

s(x, λ.y + y 0 ) = λs(x, y) + s(x, y 0 ),

pour tous x ∈ E, y, y 0 ∈ F , λ ∈ C (où λ désigné le conjugué du nombre complexe λ).


Comme dans le cas des formes bilinéaires, on peut parler de matrice d’une forme sesquilinéaire.
Proposition 9.1.2. Supposons que E est de dimension m et que F est de dimension n. Soient B =
{e1 , · · · , em } une base de E et C = {f1 , · · · fn } une base de F .
(1) Soit s une forme sesquilinéaire sur EP × F . Alors il existePune unique matrice M = (mi,j ) ∈ Mm,n (C)
m n
telle que pour tous x ∈ E, y ∈ F , si x = i=1 ai ei et si y = j=1 bj fj alors
m X
X n
s(x, y) = mi,j ai bj .
i=1 j=1

(2) Avec les mêmes notations, si X est le vecteur colonne des coordonnées de x dans la base B et si Y est
le vecteur colonne des coordonnées de y dans la base C, on a la relation matricielle

s(x, y) = t XM Y .

156
Preuve. La preuve est similaire à celle de la proposition 7.2.6 en tenant compte de la sesquilinéarité : on
pose mi,j = s(ei , fj ). 

Définition 9.1.3. Soit s une forme sesquilinéaire sur E × F . La matrice M de la proposition précédente
s’appelle matrice de la forme sesquilinéaire b dans les bases B et C. On la note MatB,C (s).

9.1.2 Formes hermitiennes


Définition 9.1.4. (1) Soit E un C-espace vectoriel. On dit qu’une application h : E × E → C est une
forme hermitienne sur E lorsque h est une forme sesquilinéaire sur E × E et

h(x, y) = h(y, x),

pour tous x, y ∈ E. Lorsque E est de dimension finie, la matrice de la forme hermitienne h dans une
base de E est la matrice de la forme sesquilinéaire h dans cette base.
(2) Comme dans le cas des formes bilinéaires, on peut naturellement parler de forme hermitienne non
dégénérée, définie, positive.
Remarque 9.1.5. Une application h : E × E → C est hermitienne si et seulement si h est linéaire par
rapport à la première variable et h(x, y) = h(y, x), pour tous x, y ∈ E.
Lemme 9.1.6. Soient E un C-espace vectoriel et h une forme hermitienne sur E.
(1) Pour tout x ∈ E, on a h(x, x) ∈ R.
(2) Si A est la matrice de h, dans des bases de E, on a t A = A.
Preuve. (1) Si x ∈ E, on a h(x, x) = h(x, x) donc h(x, x) ∈ R.
(2) Cela vient de la proposition 9.1.2 : avec les mêmes notations, et n = m, on a en effet h(ei , ej ) =
h(ej , ei ). 

Définition 9.1.7. Soit A ∈ Mn (C). On appelle matrice adjointe de A, la matrice t A que l’on note plutôt
A∗ . En particulier, d’après le lemme précédent, une forme h sur un C-espace vectoriel E de dimension
n est hermitienne si et seulement si sa matrice dans une base quelconque de E est égale à sa matrice
adjointe.

9.1.3 Produit scalaire hermitien


Définition 9.1.8. Soit E un C-espace vectoriel. On appelle produit scalaire hermitien ou produit scalaire
une forme hermitienne h : E × E → C définie positive. Si E est supposé de dimension finie et qu’il est
muni d’un produit scalaire hermitien, on dit que E est un espace hermitien et on note h., .i le produit
scalaire hermitien sous-jacent.
p
Proposition 9.1.9. Soit E un espace hermitien. Si on note ||x|| = hx, xi pour tout x ∈ E. Alors,

|hx, yi| ≤ ||x||.||y||,

pour tous x, y ∈ E En outre, il y a égalité si et seulement si la famille {x, y} est liée (sur C). En outre,
l’application ||.|| : E → R+ : x 7→ ||x|| est une norme sur E.
Preuve. La preuve est similaire à celle de la proposition 8.1.3 et du lemme 8.1.4 et est laissée au lecteur.


Terminons cette série de définitions par une série d’exemples prototypiques.

157
Exemples 9.1.10. (1) Si E = Cn , l’exemple standard d’espace hermitien est E = Cn muni de son produit
scalaire usuel
n
X
hx, yi = xi yi ,
i=1
pour deux vecteurs quelconques x = (x1 , · · · , xn ) et y = (y1 , · · · , yn ) de E. La norme associée est définie
par
n
X 1/2
||x|| = ( |xi |2 ) .
i=1
(2) Si E est l’ensemble des fonctions continues à valeurs complexes sur un intervalle [a, b] de R alors
Z b
hf, gi = f (t)g(t)dt,
a

est une forme hermitienne sur E.


(3) Si E est l’ensemble des fonctions de classe C 1 à valeurs complexes sur un intervalle [a, b] de R alors
Z b
hf, gi = f (t)g 0 (t)dt,
a

est une forme sesquilinéaire non hermitienne sur E du fait de la formule d’intégration par parties. Plus
précisément, on a hf, gi = −hg, f i : on dit que la forme est antihermitienne.
(4) Si E est le C-espace vectoriel des séries absolument convergentes, les applications

X ∞
X k
X
h(Un ), (Vn )i = Uk Vk , h(Un ), (Vn )i = ( Ul Vk−l ),
k=0 k=0 l=0

sont des formes hermitiennes sur E.

9.2 Orthogonalité
Dans cette section, nous nous contentons de lister explicitement ce qui reste vrai vis à vis de l’orthogonalité
pour les formes hermitiennes. On suppose que E est un espace hermitien.

9.2.1 Propriétés importantes


Définition 9.2.1. (1) Un vecteur x est orthogonal à un vecteur y ∈ E si on a hx, yi = 0. Si A est une
partie de E, l’orthogonal de A est le sous-espace vectoriel de E défini par
A⊥ = {y ∈ E | hx, yi = 0 ∀x ∈ A}.
(2) On définit les notions de famille orthogonale et orthonormée de même que dans la définition 8.1.11.
Proposition 9.2.2. (1) Si x, y ∈ E, on a
||x + y||2 = ||x||2 + 2Re(hx, yi) + ||y||2 .
En particulier, les vecteurs x et y sont orthogonaux si et seulement si ||x + y||2 = ||x||2 + ||y||2 .
(2) Soient x1 , · · · , xn n vecteurs appartenant à E que l’on suppose deux à deux orthogonaux. Alors
n
X n
X
|| xi ||2 = ||xi ||2 .
i=1 i=1

158
Preuve. (1) On a

||x + y||2 = ||x||2 + (hx, yi + hy, xi) + ||y||2 = ||x||2 + (hx, yi + hx, yi) + ||y||2 = ||x||2 + 2Re(hx, yi) + ||y||2 .

L’autre affirmation découle immédiatement de cette égalité.


(2) Cela est immédiat en faisant une récurrence sur n et en utilisant le (1). 

9.2.2 Projection orthogonale


Le théorème 8.1.15 reste vrai dans le cadre des espaces hermitiens : on peut donc parler de projection
orthogonale sur un sous-espace vectoriel d’un espace hermitien. Comme dans le cas euclidien, ce résultat
a de nombreuses conséquences.
Théorème 9.2.3. (1) Soient E un espace hermitien et F un sous-espace vectoriel de E. Alors on a
E = F ⊕ F ⊥ et (F ⊥ )⊥ = F .
(2) Tout espace hermitien admet une base orthonormée.
Preuve. (1) La preuve est similaire à celle du théorème 8.1.18 en utilisant la notion de projection
orthogonale dans les espaces hermitiens.
(2) Cela vient du fait que le procédé d’orthonormalisation de Gram-Schmidt se généralise aussi aux
espaces hermitiens. 

9.3 Adjoint, matrices unitaires et hermitiennes


On désigne par E un espace hermitien. Le but de cette section est de définir des analogues des endomor-
phismes symétriques, des isométries et des matrices orthogonales dans le cas des espaces hermitiens.

9.3.1 Adjoint
Le cadre des espaces hermitiens permet aussi de définir l’adjoint d’un endomorphisme u de E (voir propo-
sition 8.2.1) : rappelons que c’est l’unique endomorphisme u∗ de E vérifiant

hu(x), yi = hx, u∗ (y)i,

pour tous x, y ∈ E. La proposition 8.2.3 s’adapte au cas des espaces hermitiens : par exemple, la matrice
de l’endomorphisme adjoint de u dans une base orthonormée de E est la matrice adjointe de la matrice
de u dans cette même base.

Définition 9.3.1. (1) Un endomorphisme u de E est dit hermitien ou auto-adjoint si u = u∗ , c’est à dire
si on a
hu(x), yi = hx, u(y)i,
pour tous x, y ∈ E.
(2) Une matrice A ∈ Mn (C) est dite hermitienne si elle vérifie A = A∗ .
Remarque 9.3.2. La proposition 8.2.5 reste vraie dans ce cadre : un endomorphisme u de E est hermitien
si et seulement si sa matrice dans une base orthonormée quelconque de E est hermitienne.

159
9.3.2 Matrices unitaires
Définition 9.3.3. (1) Un endomorphisme u de E est une isométrie ou un endomorphisme unitaire s’il
conserve la norme, c’est à dire si ||u(x)|| = ||x|| pour tout x ∈ E. L’ensemble des isométries de E est un
groupe pour la composition appelé groupe unitaire de E et noté U(E).
(2) Une matrice M ∈ Mn (C) est dite unitaire si elle vérifie A∗ A = In . L’ensemble des matrices unitaires
est un groupe pour le produit matriciel noté Un (C).
Le lemme 8.3.9 se généralise aisément :
Lemme 9.3.4. Soient B une base orthonormée de E et C une base de E. Désignons par P la matrice de
passage de B à C. Alors C est une base orthonormée de E si et seulement si P est une matrice unitaire.
Théorème 9.3.5. Soient u un endomorphisme de E et A la matrice de u dans une base orthonormée de
E. Alors, les assertions suivantes sont équivalentes :
(1) u est une isométrie de E.
(2) Pour tous x, y ∈ E,on a
hu(x), u(y)i = hx, yi.
(3) u∗ ◦ u = IdE .
(4) A∗ A = In .
Preuve. Il s’agit de reformuler les théorèmes 8.3.10 et la proposition 8.3.4. 

9.3.3 Réduction des endomorphismes hermitiens


Théorème 9.3.6. Soient E un espace hermitien et u un endomorphisme hermitien de E. Alors :
(1) Les valeurs propres de u sont réelles.
(2) Les espaces propres de u sont deux à deux orthogonaux (sur C).
(3) E admet une base orthonormée de vecteurs propres de u.
(4) Si A est la matrice de u dans une base orthonormée, il existe une matrice P unitaire et une matrice
D diagonale à coefficients réels telles que A = P DP −1 .
Preuve. (1) Soit λ une valeur propre de u : il existe x ∈ E \ {0} tel que u(x) = λx. On peut supposer
que ||x|| = 1. On a alors
λ = hλx, xi = hu(x), xi = hx, u(x)i = λ,
ce qui prouve que λ ∈ R.
(2) Si λ et µ sont deux valeurs propres distinctes de u et si x et y sont deux vecteurs propres respec-
tivement associés à ces valeurs propres, on a

λhx, yi = hu(x), yi = hx, u(y)i = µhx, yi = µhx, yi,

car µ est réelle par (1). On en déduit que hx, yi = 0 ce qui implique que les espaces propres de u sont
deux à deux orthogonaux.
(3) On procède par récurrence sur la dimension k de E. Si k = 1, il n’y a rien à montrer. Supposons
que k > 1 et que le résultat est établi lorsque v est un endomorphisme hermitien d’un espace hermitien
F lorsque dim(F ) < k. Soient E un espace hermitien de dimension k et u un endomorphisme hermitien
de E. Puisque C est algébriquement clos, u admet forcément une valeur propre λ ∈ R : soit x un vecteur
propre associé à λ. On peut supposer que ||x|| = 1. Définissons

F = {y ∈ E | hx, yi = 0}.

160
Alors F est un espace hermitien de dimension k − 1 d’après le théorème 9.2.3. En outre, F est stable par
u, puisque si y ∈ F , on a
hu(y), xi = hy, u(x)i = λhy, xi = 0.
La restriction v de u à F est encore un endomorphisme hermitien sur F : on lui applique l’hypothèse de
récurrence. Il existe une base orthonormée {e2 , · · · , ek } de vecteurs propres de v. Pour finir, la famille
{x, e2 , · · · , ek } est une base orthonormée de E formée de vecteurs propres de u.
(4) Soit A la matrice de u dans une base orthonormée B. Notons C = {x, e2 , · · · , ek } la base mise en
évidence au point précédent. Puisque C est une base orthonormée, la matrice de passage P de B à C est
unitaire d’après le lemme 9.3.4. Dans la base C, la matrice D de u est diagonale à coefficients diagonaux
réels (puisque les valeurs propres de u sont réelles). On en déduit que A = P DP −1 . 

Remarques 9.3.7. (1) L’assertion (1) du théorème précédent implique en particulier que les valeurs
propres d’une matrice symétrique sont réelles : cela est utilisé dans la réduction des endomorphismes
symétriques (voir théorème 8.2.7).
(2) Le théorème 8.2.8 reste vrai dans le cas des espaces hermitiens.
Pour finir ce chapitre, intéressons-nous aux endomorphismes normaux d’un espace hermitien.

Définition 9.3.8. Soient E un espace hermitien et u un endomorphisme de E. On dit que u est un


endomorphisme normal de E si u ◦ u∗ = u∗ ◦ u.
Théorème 9.3.9. Soient E un espace hermitien et u un endomorphisme normal de E. Alors u est
diagonalisable.
Preuve. On écrit u = v + iw où
u + u∗ u∗ − u
v= , w=i .
2 2
On vérifie aisément que v et w sont des endomorphisme hermitiens de E qui commutent. D’après la
remarque 9.3.7(1), il existe alors une base orthonormée de vecteurs propres communs à v et w. Dans cette
base, u est diagonalisable. 

Attention. Le théorème précédent montre que les endomorphismes normaux d’un espace hermitien sont
diagonalisables. Ceci est un résultat purement complexe : on a en effet vu dans le théorème 8.2.15 qu’un
endomorphisme normal d’un espace euclidien n’était, en général, que diagonalisable par blocs.

161
Chapitre 10

Décomposition de Jordan

La décomposition de Jordan est un des théorèmes centraux pour la réduction des endomorphismes car :
• elle garantit que pour un endomorphisme nilpotent quelconque, il existe une base appelée base de
Jordan dans laquelle sa matrice est triangulaire supérieure et diagonale par blocs;
• elle garantit que pour un endomorphisme qui a un polynôme annulateur scindé, il en va de même.
Les théorèmes de Jordan font partie des résultats de réduction les plus généraux connus. Ils sont également
assez délicats à prouver. Nous suivrons la manière habituelle de prouver ces résultats, en commençant par
le cas des endomorphismes nilpotents pour en déduire le cas général.
Convention 10.0.1. Soient u un endomorphisme de E et λ une valeur propre de u. Alors on désignera
par Eλ l’espace propre associé à λ, par Eλ0 l’espace caractéristique associé à λ et si i est un entier positif
on posera Eλi := ker(u − λ IdE )i .

10.1 Le cas des endomorphismes nilpotents


On l’a dit, le théorème de Jordan garantit qu’un endomorphisme nilpotent se représente (dans une certaine
base) par une matrice triangulaire et diagonale par blocs. Ces blocs dits “de Jordan”sont tous d’une même
forme : ce sont les “briques élémentaires”pour la réduction des endomorphismes nilpotents.
Définition 10.1.1. Soit r ≥ 1 un entier, et soit λ ∈ K. La matrice
 
λ 1
.
λ ..
 
 
Jr,λ = 
  ∈ Mr (K)
 . .. 1 

est appelée une cellule de Jordan de taille r. Un bloc de Jordan de taille r associé à λ est une matrice
diagonale par blocs de la forme
 
Jr1 ,λ
 ..  ∈ Mr (K),

 .
Jrh ,λ

avec 1 ≤ r1 ≤ · · · ≤ rh ≤ r et r1 + . . . + rh = r.

162
Remarque 10.1.2. Avec les conventions ci-dessus, si r = 1, on a Jr,λ = (λ).
Soit u ∈ L(E) un endomorphisme nilpotent. Le but de cette section est de démontrer l’existence d’une
base, appelée base de Jordan, dans laquelle la matrice de u est de la forme
 
Jr1 ,0
 ..  ∈ Mr (K).

 .
Jrh ,0

Une telle matrice sera appelée une forme de Jordan de u.


Si u est un endomorphisme nilpotent, on a déjà vu que sa seule valeur propre est 0. Dans ce cas, la
suite des noyaux des itérés de u devient stationnaire comme le montre le lemme suivant.
Lemme 10.1.3. Soit u ∈ L(E) un endomorphisme nilpotent, et soit r ≥ 1 tel que son polynôme minimal
satisfasse µu (X) = X r . Alors r est l’indice de nilpotence de u (c’est à dire le plus petit entier tel que
ur = 0). De plus, on a
ker(ui−1 ) ( ker(ui ) pour tout i = 1, . . . , r
et
ker(ui ) = ker(ur ) = E pour tout i ≥ r.
Preuve. Par définition du polynôme minimal, µu (u) = ur = 0, donc l’indice de nilpotence nu de u est
≤ r. En outre, le polynôme X nu est un polynôme annulateur de u donc µu | X nu puis r ≤ nu . On a donc
nu = r comme annoncé.
Si maintenant i ≥ r, on a ui = 0 et donc ker(ui ) = E. Soit maintenant 1 ≤ i ≤ r. Il est clair que
ker(ui−1 ) ⊂ ker(ui ). Supposons que l’on ait égalité, et montrons que l’on a alors ker(ui ) = ker(ui+1 ).
Soit x ∈ E tel que ui+1 (x) = 0. Alors ui (u(x)) = 0 et donc u(x) ∈ ker(ui ) = ker(ui−1 ). On a alors
ui (x) = ui−1 (u(x)) = ui−1 (0) = 0 et donc x ∈ ker(ui ). Ainsi, par récurrence immédiate, on obtient

ker(ui ) = ker(ui+1 ) = . . . = ker(ur ) = E.

Mais alors ui−1 = 0, ce qui contredit de fait que r soit l’indice de nilpotence de u, puisque i−1 ≤ r −1 < r.


On est maintenant en mesure de démontrer le théorème de Jordan pour les endomorphismes nilpotents.
Théorème 10.1.4 (Théorème de Jordan nilpotent). Tout endomorphisme nilpotent admet une base de
Jordan, c’est à dire une base de E dans laquelle la matrice de u est de la forme
 
Jr1 ,0
 ..  ∈ Mr (K).

 .
Jrh ,0

Preuve. Soit µu (X) = X r . On sait que l’on a

ker(ui−1 ) ( ker(ui ) pour tout i = 1, . . . , r

et
ker(ui ) = ker(ur ) = E pour tout i ≥ r
par le Lemme 10.1.3. Nous allons construire des sous-espaces vectoriels F1 , . . . , Fr non nuls de E tels que

ker(ui ) = ker(ui−1 ) ⊕ Fi et u(Fi ) ⊂ Fi−1 pour tout i = 1, . . . , r.

163
On conviendra que F0 = {0}. Soit Fr un supplémentaire de ker(ur−1 ) dans E = ker(ur ). Ce supplémentaire
est non nul d’après ce qui précède. De plus, u(Fr ) ⊂ ker(ur−1 ). En effet, si x ∈ Fr , on a

ur−1 (u(x)) = ur (x) = 0.

De plus, u(Fr ) et ker(ur−2 ) sont en somme directe. En effet, soit x ∈ u(Fr ) ∩ ker(ur−2 ). On a donc
x = u(y), y ∈ Fr et ur−2 (x) = ur−1 (y) = 0. Ainsi, on a y ∈ ker(ur−1 ) ∩ Fr = {0}, car Fr et ker(ur−1 ) sont
en somme directe. Ainsi y = 0, et donc x = u(y) = 0. On peut alors choisir un supplémentaire Fr−1 de
ker(ur−2 ) dans ker(ur−1 ) contenant u(Fr ) (on colle une base de ker(ur−2 ) et une base u(Fr ). Cela fournit
une famille libre car ces deux sous-espaces sont en somme directe, et on complète en une base de ker(ur−1 ).
Les éléments de la base qui ne sont pas dans ker(ur−2 ) fournissent la base de Fr−1 ). Ce supplémentaire
est non nul d’après les considérations du début.
Supposons Fi construit, et construisons Fi−1 . On a

ker(ui ) = ker(ui−1 ) ⊕ Fi .

Pour tout x ∈ Fi , on a
ui−1 (u(x)) = ui (x) = 0,
car Fi ⊂ ker(ui ). Ainsi u(Fi ) ⊂ ker(ui−1 ). De plus, u(Fi ) et ker(ui−2 ) sont en somme directe. Si
x = u(y) ∈ u(Fi ) vérifie ui−2 (x) = 0, alors y ∈ Fi ∩ ker(ui−1 ) = {0} et donc x = u(y) = 0. On prend alors
pour Fi−1 un supplémentaire de ker(ui−2 ) dans ker(ui−1 ) contenant u(Fi ), supplémentaire qui est non
nul. On construit alors F1 , . . . , Fr de proche en proche par récurrence descendante. Remarquons que l’on
a ker(u) = F1 puisque le noyau de l’identité est nul, et donc u(F1 ) = {0}. On a donc bien les propriétés
annoncées.
Remarquons maintenant que la restriction de u à Fi est injective pour i ≥ 2. En effet, si x ∈ Fi vérifie
u(x) = 0, alors
x ∈ Fi ∩ ker(u) ⊂ Fi ∩ ker(ui−1 ) = {0}.
Remarquons aussi que l’on a
E = F1 ⊕ · · · ⊕ Fr .
On peut alors construire notre base de Jordan. On note di = dimK (ker(ui ))−dimK (ker(ui−1 ) = dimK (Fi ).
Soit
er,1 , . . . , er,dr
une base de Fr . Puisque la restriction de u à Fr est injective, la famille er−1,1 = u(er,1 ), . . . , er−1,dr =
u(er,dr ) est une famille libre de Fr−1 . On la complète alors en une base

er−1,1 , . . . , er−1,dr−1

de Fr−1 . Si ei,1 , . . . , ei,di est une base de Fi , on complète la famille libre ei−1,1 = u(ei,1 ), . . . , ei−1,di =
u(ei,di ) en une base
ei−1,1 , . . . , ei−1,di−1
de Fi−1 . Au bout du compte, on obtient une base e1,1 , . . . , e1,d1 de F1 = ker(u).
La famille
e1,1 , . . . , e1,d1 , . . . , er,1 , . . . , er,dr
est alors une base de E. Nous allons montrer qu’en ordonnant ces vecteurs de manière convenable, on
obtient une base de Jordan. On les dispose en tableau de r étages de la fao̧n suivante. Les étages sont

164
numérotés de bas en haut, et sur l’étage i, on dispose la base de Fi . On alors un tableau de la forme

Etage r • • •
Etage r − 1 • • • • •
.. ..
. .
Etage 1 • • • • • ··· •

Par construction de la base précédente, les vecteurs sur l’étage 1 ont une image nulle par u (puisque
F1 = ker(u)), et pour tout i ≥ 2, l’image d’un vecteur de l’étage i par u est le vecteur juste en dessous
dans l’étage i − 1. Remarquons que les vecteurs d’une colonne fixée, ordonnés en partant du bas, engendre
un sous-espace stable par u, et E est la somme directe de ces sous-espaces. La matrice de la restriction de
u à un de ces sous-espaces est une cellule de Jordan dont la taille est la hauteur de la colonne. En effet,
soient v1 , . . . , vs les vecteurs d’une colonne fixée. D’après ce qui précède, on a

u(v1 ) = 0 et u(vi ) = vi−1 , i = 2, . . . , s.

Pour avoir une base de Jordan, on ordonne donc les vecteurs de la base comme suit: on part de la
colonne la plus à droite, et on commence à numéroter les vecteurs de bas en haut, puis on passe à la
colonne suivante et on recommence le procédé. 

Etudions maintenant d’un peu plus près la structure d’une forme de Jordan de u.
Lemme 10.1.5. Soit u ∈ L(E) un endomorphisme nilpotent, d’indice de nilpotence r, et soit
 
Jr1 ,0
J0 = 
 .. 
. 
Jrh ,0

une forme de Jordan de u. Alors rh = r. En particulier, la taille d’une cellule de Jordan de J0 est
inférieure ou égale à r, et pour tout 1 ≤ k ≤ r, le nombre de cellules de Jordan de taille ≥ k de J0 est
égale à
dimK (ker(uk )) − dimK (ker(uk−1 )).
En particulier, le nombre de cellules de Jordan de taille k de J0 est égale à

2 dimK (ker(uk )) − dimK (ker(uk−1 )) − dimK (ker(uk+1 )).

Preuve. Soit J0,s une cellule de Jordan de taille s. Un simple calcul matriciel montrer que l’on a
k k
dimK (ker(J0,s )) = k, pour tout k = 1, . . . , s − 1 et dimK (ker(J0,s )) = s si k ≥ s.

En particulier, J0,s est d’indice de nilpotence s.


On en déduit facilement que l’indice de nilpotence de J0 est rh , et donc r = rh . Soit nk le nombre de
cellules de Jordan de taille k, et soit dk le nombre de cellules de Jordan de taille ≥ k. On a donc

dk = nk + . . . + nr .
k
Remarquons maintenant que si J0,s est une cellule de Jordan de taille 1 ≤ s ≤ k − 1, on a J0,s = 0, et donc
ker(J0,s ) est de dimension s. Si k ≤ s ≤ r, ker(J0,s ) est de dimension k. Alors la dimension de ker(J0k ) est
k k

égale à

n1 + 2n2 + . . . + (k − 1)nk−1 + k(nk + . . . + nr ) = n1 + 2n2 + . . . + (k − 1)nk−1 + kdk .

165
On a donc

dimK (ker(J0k ))−dimK (ker(J0k−1 )) = (k −1)nk−1 +kdk −(k −1)dk−1 = dk +(k −1)(nk−1 +dk −dk−1 ) = dk ,

car nk−1 + dk = nk−1 + . . . + rr = dk−1 . On a donc

nk = dk − dk+1 = 2 dimK (ker(J0k )) − dimK (ker(J0k−1 )) − dimK (ker(J0k+1 )).

On en déduit alors le lemme. 

10.2 Le cas général


Nous en venons maintenant au cas des endomorphismes quelconques. La proposition suivante va nous
permettre de nous réduire au cas des endomorphismes nilpotents.
Proposition 10.2.1. Soient u un endomorphisme de E et λ une valeur propre de u. Ecrivons

χu = (X − λ)mλ Q, µu = (X − λ)rλ S, 1 ≤ rλ ≤ mλ ,

où Q, S ∈ K[X] ne sont pas divisibles par (X − λ).


Alors la dimension de l’espace caractéristique Eλ0 est mλ , Eλ0 est stable par u et la restriction de u − λ IdE
à Eλ0 est nilpotente, d’indice de nilpotence rλ .
Preuve. Puisque (X − λ)mλ et Q sont premier entre eux par hypothèse, et que χu annule u, le lemme
des noyaux 6.5.15 et le théorème de Cayley-Hamilton 6.5.5 impliquent que

E = Eλ0 ⊕ ker(Q(u)).

D’autre part, Q(u) et (u − λ IdE ) étant des polynômes en u, ils commutent à u donc Eλ0 et ker(Q(u)) sont
stables par u.
Soit uλ la restriction de u à Eλ0 . Alors la seule valeur propre de uλ est λ. En effet, soit λ0 une telle
valeur propre, et soit x ∈ Eλ0 un vecteur propre associé. Alors on a

0 = (u − λIdE )mλ (x) = (u − λIdE )mλ −1 (u(x) − λx) = (λ0 − λ)(u − λIdE )mλ −1 (x) = . . . = (λ0 − λ)mλ x.

Comme x 6= 0 et mλ ≥ 1, on en déduit λ0 = λ.
Remarquons aussi que, puisque Eλ0 ⊕ ker(Q(u)) = {0}, alors Eλ ⊕ ker(Q(u)) = {0} car Eλ ⊂ Eλ0 . Ainsi,
les valeurs propres de la restriction de u à ker(Q(u)) sont distinctes de λ.
Soit e une base de E obtenue en recollant une base de Eλ0 et une base de ker(Q(u)). Alors la matrice
représentative de u dans cette base est de la forme
 
M1 0
M= ,
0 M2

où M est la matrice représentative de uλ dans la base de Eλ0 choisie et M ’ est la matrice représentative de
la restriction de u à ker(Q(u)). On a donc χu = χM1 χM2 . Or les considérations précédentes montrent que
χM1 = (X − λ)d , d = dimK (Eλ0 ), et que χM2 n’est pas divisible par X − λ. Par unicité de la décomposition
en facteurs irréductibles, on en déduit

d = dimK (Eλ0 ) = mλ .

166
Montrons maintenant la dernière partie. Puisque µu (u) = 0, on a en particulier µu (uλ ) = 0, et donc
µuλ | µu . Mais comme uλ n’a qu’une seule valeur propre, qui est λ, on a

µuλ = (X − λ)r , 1 ≤ r ≤ rλ .

En particulier, on obtient
(u − λIdE )r|E = (uλ − λIdEλ0 )r = 0,
λ

et donc la restriction de u − λ IdE à Eλ0 est nilpotente, d’indice de nilpotence r par le lemme précédent.
Il reste à voir que r = rλ . On sait déja que r ≤ rλ . Montrons que P = (X − λ)r S annule u. Le lemme
des noyaux implique que E = Eλrλ ⊕ker(S(u)). Soit x ∈ E. Écrivons x = x1 +x2 , x1 ∈ Eλrλ , x2 ∈ ker(S(u)).
On a alors

P (u)(x) = S(u)((u − λIdE )r (x1 )) + (u − λIdE )r (S(u)(x2 )) = S(u)((u − λIdE )r (x1 )).

Puisque rλ ≤ mλ , on a Eλrλ ⊂ Eλ0 . On a donc x1 ∈ Eλ0 , et par définition de r, on a alors (u−λ IdE )r (x1 ) = 0.
Ainsi P (u)(x) = 0 pour tout x ∈ E, et P annule u. En particulier, µu | P . Comme µu = (X − λ)rλ S, on
en déduit rλ ≤ r. Ainsi r = rλ le résultat est démontré. 

Remarque 10.2.2. Supposons maintenant que χu soit scindé, et soient λ1 , . . . , λr les différentes valeurs
propres de u. Soit Ei le sous-espace caractéristique de u associé à λi . Alors le lemme des noyaux 6.5.15
montre que
E = E1 ⊕ · · · ⊕ Er .
La proposition précédente montre alors que chaque Ei est stable par u, et que la restriction ui de u à
Ei est de la forme λi IdEi +νi , où νi ∈ L(Ei ) est nilpotent. Puisqu’il existe une base de Jordan pour les
endomorphismes nilpotents νi par le théorème de Jordan nilpotent 10.1.4, la matrice de ui dans cette base
sera un bloc de Jordan associé à λi (car la matrice de l’identité dans n’importe quelle base est la matrice
identité !). En recollant ces bases pour former une base de E, et puisque chaque Ei est stable par u, la
matrice de u dans cette base sera diagonale par blocs, dont les blocs diagonaux seront les blocs de Jordan
associés aux valeurs propres de u.
On en vient au théorème de Jordan général.
Théorème 10.2.3 (Théorème de Jordan). Soit u ∈ L(E) admettant un polynôme annulateur scindé.
Alors µu est aussi scindé, et u admet une base de Jordan. Écrivons
Y
µu = (X − λ)rλ .
λ

Alors la taille maximale d’une cellule de Jordan du bloc Jλ est rλ . De plus, pour tout 1 ≤ k ≤ rλ , le
nombre de cellules de Jordan de taille k est

2 dimK (Eλk ) − dimK (Eλk−1 ) − dimK (Eλk+1 ).

Enfin, u admet une unique forme de Jordan et deux endomorphismes u et u0 sont semblables si et seulement
si ils ont même forme de Jordan, tout ceci à permutation des blocs près.
Preuve. Si P est un polynôme annulateur scindé, alors µu | P est aussi scindé, et ses racines sont les
valeurs propres de u. Alors on a vu dans la remarque 10.2.2 que pour obtenir une base de Jordan pour
u, il suffisait d’obtenir une base de Jordan de la restriction de u − λ IdE à Eλ0 , qui est nilpotente, et ceci

167
pour toute valeur propre λ, ce qui est possible d’après la Proposition 10.1.4. On a donc l’existence d’une
base de Jordan pour u.
Soit λ une valeur propre de u et soit vλ = (u − λ IdE )|E0 . Remarquons que pour tout 0 ≤ i ≥ mλ , on a
λ

ker(vλi ) = Eλi .

L’inclusion ker(vλi ) ⊂ Eλi est claire, puisque vλi = (u − λ IdE )i| m


. Supposons maintenant que x ∈ Eλi .
E λ
λ
Alors, on a Eλi ⊂ Eλ0 car i ≤ λ. Mais alors on a

0 = (u − λIdE )i (x) = (u − λIdE )i|E0 (x) = vλi (x),


λ

d’où l’inclusion réciproque.


Par la Proposition 10.2.1, vλ est de nilpotente d’indice de nilpotence rλ . La deuxième partie du
théorème provient alors du Lemme 10.1.5 et de la remarque ci-dessus. Ceci montre également que la
structure de Jλ est entièrement déterminée par u, et donc u admet une unique forme de Jordan, une
fois une numérotation des valeurs propres choisies. Si u et u0 ont même forme de Jordan, alors ils sont
semblables puisqu’ils ont même matrice représentative dans des bases de E bien choisies. Enfin, si u et
u’ sont semblables, ils ont même polynôme minimal d’une part et les sous-espaces ker((u − λ IdE )i ) et
ker((u0 − λ IdE )i )) sont isomorphes pour tout i ≥ 0, donc de même dimension. Il en résulte que u et u0
ont même forme de Jordan. 

Remarque 10.2.4. On peut appliquer le théorème de Jordan à un endomorphisme si on sait qu’il a un


polynôme annulateur scindé. Réciproquement, si un endomorphisme a une base de Jordan comme dans
l’énoncé du théorème ci-dessus, λ1 , . . . , λr ∈ K sont des valeurs propres de u donc le polynôme χu est
scindé : u a donc un polynôme annulateur scindé d’après le théorème de Cayley-Hamilton.

10.3 Résumé
Résumons la méthode pratique pour obtenir la forme de Jordan de u ∈ L(E), ainsi qu’une base de Jordan,
que l’on peut extraire des démonstrations précédentes. On commence par calculer µu , et on écrit
Y
µu = (X − λ)rλ .
λ

Pour ce faire, on peut procéder ainsi. On calcule χu et on obtient ainsi la multiplicité mλ de la valeur
propre λ. Alors rλ est le plus petit entier tel que dimK (((u − λ IdE )r )) = mλ .
(1) Si l’on veut seulement la forme de Jordan de u: pour toute valeur propre λ et tout 1 ≤ k ≤ mλ , on
calcule
dk = dimK (ker((u − λIdE )k )) − dimK (ker((u − λIdE )k−1 )).
Le nombre de cellules de Jordan de taille 1 ≤ k ≤ rλ dans le bloc Jλ est alors dk − dk+1 . Pour lire ces
nombres facilement, on peut construire un tableau à rλ étages tel que pour 1 ≤ k ≤ rλ , l’étage k ait dk
cases. Alors dk − dk+1 est le nombre de colonnes de hauteur k (Remarquer que drλ +1 = 0). On en déduit
alors la structure de Jλ et on colle tous les blocs dans une matrice diagonale par blocs pour obtenir la
forme de Jordan de u.
(2) Si on veut une base de Jordan : pour toute valeur propre λ, on construit un tableau à rλ étages
formé de vecteurs de E comme suit. On choisit une base d’un supplémentaire de ker((u − λ IdE )r−1 )

168
dans ker((u − λ IdE )r ), et on les dispose en ligne au dernier étage. On applique ensuite u − λ IdE à
ces vecteurs, et on complète cette famille en une base d’un supplémentaire de ker((u − λ IdE )r−2 ) dans
ker((u − λ IdE )r−1 ), que l’on dispose à l’étage du dessous. On répète le procédé jusqu’à obtenir une base
de ker(u − λ IdE ) que l’on dispose au rez-de-chaussée.
On renumérote alors les vecteurs en parcourant le tableau de droite à gauche et de bas en haut. On
recolle alors toutes les familles de vecteurs obtenues ainsi pour chaque valeur propre, et on obtient une
base de Jordan de u.
Remarque 10.3.1. Tout ce qui précède a bien sûr un équivalent matriciel.

10.4 Un exemple détaillé


Soit M ∈ M6 (C) la matrice  
3 −1 −3 0 −1 3

 0 2 −3 0 0 3 

 0 0 −1 0 0 3 
M = .

 −1 1 −3 2 1 4 

 1 −1 0 0 1 0 
0 0 0 0 0 2
On vérifie que χM = (X + 1)(X − 2)5 . Alors ker(M + I6 ) est de dimension 1 (car −1 est une valeur
propre simple), engendré par  
1
 1 
 
 1 
e1 =  .
 1 

 0 
0
On a donc r−1 = 1 et le bloc de Jordan correspondant est (−1). On vérifie que l’on a

ker((M − 2I6 )) = {x ∈ C6 | x3 = x6 = 0, x5 = x1 − x2 } et ker((M − 2I6 )2 ) = {x ∈ C6 | x3 = x6 }.

On a donc dimK (ker(M − 2I6 )) = 3 et dimK (ker(M − 2I6 )2 ) = 5. On a donc r2 = 2, d1,−2 = 3, d2,−2 =
5 − 3 = 2 et on a le tableau suivant pour la valeur propre 2:

• •
.
• • •
La numérotation d’une base de Jordan pour le bloc J2 sera donc

e6 e4
.
e5 e3 e2

On a donc une cellule de taille 1, et deux cellules de taille 2, et le bloc correspondant est donc
 
2

 2 1 


 0 2 .

 2 1 
0 2

169
La forme de Jordan de M est ainsi
 
−1

 2 


 2 1 
.

 0 2 

 2 1 
0 2

Calculons une base de Jordan. Les vecteurs e6 et e4 doivent être une base d’un supplémentaire de
ker((M − 2I6 )) dans ker((M − 2I6 )2 ). On vérifie que les vecteurs
   
0 0
 0   0 
   
 1   1 
e6 =   et e4 = 
   
 0   0 

 0   −1 
1 1

conviennent. Attention, il ne suffit pas de prendre deux vecteurs libres de ker((M −2I6 )2 )−ker((M −2I6 )).
On calcule ensuite
   
0 1
 0   0 
   
 0   0 
e5 = (M − 2I6 )e6 =   et e3 = (M − 2I6 )e4 = 
 
 0 ,

 1  
 0   1 
0 0

que l’on complète en une base de ker(M − 2I6 ) en prenant


 
1
 1 
 
 0 
e2 =  .
 0 

 0 
0

170