Vous êtes sur la page 1sur 148

Cours d'algèbre linéaire, 2 ème année d'université.

Gérard Letac 1

1 Laboratoire de Statistique et Probabilités, Université Paul Sabatier, 31062, Toulouse, France


2

Ceci est le cours d'algèbre linéaire enseigné à Toulouse à un bon millier d'étudiants de
1996 à 2002, à raison de 24 heures dans le semestre. Un de ses principes est de n'utiliser
des coordonnées ou une structure euclidienne qu'au moment où elles sont nécessaires et
s'imposent après analyse. La seconde année d'université est d'une richesse extraordinaire :
en maitriser les contenus vous équipe intellectuellement pour le reste de l'existence, et vous
rend pratiquement apte à passer l'agrégation. Lisez les démonstrations pour trois raisons :
 Elles vous convaincront de la véracité des énoncés.
 Elles contiennent souvent des idées très originales.
 On est constamment amené à les imiter dans les exercices et les applications.
Ne sautez jamais une ligne, tout est essentiel. Partout où c'est possible, on mentionne
des choses élémentaires hors programme : formule de Laplace sur det(A + B), matrices de
Kac, de Hua ou d'Homann, angles d'Euler, l'exponentielle d'un endomorphisme et sa dif-
férentielle, semi groupes de matrices stochastiques, le cochonnet monstrueux de l'exercice
II 4.10, base de Schmidt du tétraèdre régulier, quaternions, simplicité de SO(3), ombres
d'un cube, algèbres de von Neumann de dimension nie, inégalité de Mar£enko Pastur,
décomposition de Cholewsky pour les arbres, graphes de Dynkin. J'espère qu'aucun exer-
cice ne laisse le lecteur indiérent. La moitié a été utilisée à l'oral du concours d'entrée à
l'Ecole Polytechnique.

G.L.
Table des matières
1 Réduction des endomorphismes 5
I Représentation matricielle d'un vecteur et d'une application linéaire . . . . 5
II Déterminant et trace d'un endomorphisme. . . . . . . . . . . . . . . . . . . 9
III Espaces et valeurs propres d'un endomorphisme. . . . . . . . . . . . . . . . 14
IV Cayley Hamilton et polynôme caractéristique . . . . . . . . . . . . . . . . . 17
V La diagonalisation et le polynôme minimal . . . . . . . . . . . . . . . . . . 20
VI Diagonalisation simultanée * . . . . . . . . . . . . . . . . . . . . . . . . . . 29
VII Triangularisation et nilpotence . . . . . . . . . . . . . . . . . . . . . . . . . 31
VIII Espaces caractéristiques et décomposition de Dunford* . . . . . . . . . . . 33
IX Exponentielle d'un endomorphisme* . . . . . . . . . . . . . . . . . . . . . . 38

2 Espaces euclidiens 47
I Particularités des espaces réels. . . . . . . . . . . . . . . . . . . . . . . . . 47
II Produit scalaire, polarisation, parallélogramme . . . . . . . . . . . . . . . . 49
III Inégalités de Schwarz et du triangle . . . . . . . . . . . . . . . . . . . . . . 52
IV Pythagore, Schmidt, Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
V Dual et adjoints . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
VI Le groupe orthogonal, les matrices orthogonales . . . . . . . . . . . . . . . 66
VII Le groupe orthogonal du plan ; dimensions supérieures. . . . . . . . . . . . 72
VIII Produit vectoriel en dimension 3 et quaternions . . . . . . . . . . . . . . . 76
IX Endomorphismes symétriques, positifs et dénis positifs . . . . . . . . . . . 83
X Racine carrée, décomposition polaire et valeurs singulières . . . . . . . . . . 98
XI Cholesky et les arbres à racines.* . . . . . . . . . . . . . . . . . . . . . . . 102

3 Espaces hermitiens. 107


I Produit hermitien, Schwarz. . . . . . . . . . . . . . . . . . . . . . . . . . . 107
II Orthogonalité, dualité et adjoints . . . . . . . . . . . . . . . . . . . . . . . 110
III Endomorphismes normaux. . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
IV Endomorphismes unitaires, SU(2) et SO(3) . . . . . . . . . . . . . . . . . . 114
V Théorème spectral hermitien et conséquences . . . . . . . . . . . . . . . . . 117
VI Burnside et von Neumann* . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

3
4 TABLE DES MATIÈRES

4 Formes quadratiques 129


I Matrices représentatives d'une forme bilinéaire ou quadratique . . . . . . . 129
II Orthogonalité, noyau, rang, diagonalisation . . . . . . . . . . . . . . . . . . 132
III La signature d'une forme quadratique réelle . . . . . . . . . . . . . . . . . 135
IV Formes quadratiques unitaires et racines * . . . . . . . . . . . . . . . . . . 138
V Graphes et formes quadratiques de Dynkin * . . . . . . . . . . . . . . . . . 140

5 Géométrie euclidienne ane 145


I Espaces et variétés anes, barycentre et parallélisme. . . . . . . . . . . . . 145
II Espace ane euclidien. Distance entre deux sous espaces . . . . . . . . . . 148
III Angles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
IV Polyèdres réguliers et sous groupes nis de SO(3) . . . . . . . . . . . . . . 148
V Coniques et quadriques de l'espace euclidien . . . . . . . . . . . . . . . . . 148
VI Homographie et inversion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
Chapitre 1
Réduction des endomorphismes
I Représentation matricielle d'un vecteur et d'une ap-
plication linéaire
On se xe un corps K. Si A = (aij )1≤i≤p,1≤j≤q est une matrice à éléments dans K
à p lignes et q colonnes, on note par AT sa matrice transposée, c'est à dire la matrice
(bij )1≤i≤q,1≤j≤p à q lignes et p colonnes dénie par bij = aji . 1 Ce symbole est souvent
utilisé pour écrire une matrice colonne dans un texte sous forme de transposée de matrice
ligne, pour économiser le papier.
Si E est un espace vectoriel de dimension nie q sur K , et si e = {e1 , . . . , eq } est une
base de E (c'est à dire une partie de E qui soit libre et génératrice), soit x un vecteur
de E. Comme e est une base, il existe une suite unique (x1 , . . . , xq ) d'éléments de K telle
que
x = x1 e1 + · · · + xq eq .
Nous allons noter par [x]e la matrice colonne [x1 , . . . , xn ]T . On l'appelle la matrice repré-
sentative du vecteur x dans la base e. Cette notation rappelle que la matrice représentative
de x dépend du vecteur x certes, mais aussi de la base dans laquelle on a choisi de le re-
présenter. Le plus simple des espaces vectoriels de dimension q sur K est l'espace K q des
matrices colonnes sur K d'ordre q. Les vecteurs

e1 = [1, 0, . . . , 0]T , e2 = [0, 1, . . . , 0]T , . . . , ep = [0, 0, . . . , 1]T

forment la base canonique de K q .


Soit ensuite un autre espace vectoriel F sur K de dimension nie p et soit f =
(f1 , . . . , fp ) une base de f . L'ensemble des applications linéaires de E vers F sera noté
L(E, F ). Soit maintenant a : E → F un élément de L(E, F ). Notons par A = [a]fe la
matrice (aij )1≤i≤p,1≤j≤q dont les q colonnes sont les [a(ej ]f j = 1, . . . , q , c'est à dire les
composantes dans la base f de l'espace F d'arrivée des images par a de chacun des vecteurs
de la base e de l'espace de départ E. La matrice [a]fe est appelée matrice représentative de
l'application a dans la base de départ e et la base d'arrivée f. Si on se donne une matrice A
1 D'autres notent t A ou At , et les statisticiens notent A0 .

5
6 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

arbitraire à coecients dans K à p lignes et q colonnes (on dira une matrice (p, q) ou p×q ,
et une matrice carrée d'ordre p pour une matrice (p, p)), on peut toujours l'interpréter
comme un [a]fe en prenant des espaces E et F sur K arbitraires et munis de bases arbi-
traires e et f. Cette remarque permet de montrer que dim L(E, F ) = dim E × dim F. Le
choix le plus simple pour cela serait E = K q et F = K p avec les bases e et f canoniques.
Dans le cas particulier où E = F on note L(E, E) = L(E). Les éléments de L(E)
s'appellent des endomorphismes. Si a est dans E et si on prend les mêmes bases e = f , la
matrice [a]ee est dit représentative de a dans la base e. Le plus célèbre des endomorphismes
de E est l'identité, notée idE et dénie par idE (x) = x pour tout x de E. Si e est une
base quelconque de E on a [idE ]ee = Iq où Iq est la matrice identité d'ordre q. Attention,
si on représente idE dans des bases e et e0 de E diérentes, comme on est amené à le
0
faire en cas de changement de base, alors il est toujours faux que [idE ]ee = Iq . Dans ce
cas, si e est appelée l'ancienne base et si e0 est appelée la nouvelle base, la matrice carrée
P = [idE ]ee0 est appelée matrice de changement de base. Elle est très facile à écrire : ses
colonnes sont les composantes de la nouvelle base e0 par rapport à l'ancienne base e. On
dit parfois que deux matrices carrées A et B d'ordre q sur K sont semblables s'il existe
une matrice carrée inversible P d'ordre q sur K telle que B = P −1 AP.
Résumons dans le théorème suivant tout ce qu'il faut savoir sur les notions ci dessus,
et qui a été démontré en 1 ère année :

Théorème 1.1. Soient (E, e), (F, f ) et (G, g) des espaces de dimension nie sur le corps
K équipés de bases.
1. Si a ∈ L(E, F ) et x ∈ E alors la matrice représentative de l'image de x par a dans
la base d'arrivée f est
[a(x)]f = [a]fe [x]e . (1.1)
2. Si a ∈ L(E, F ) et si b ∈ L(F, G) alors la matrice représentative de l'application
linéaire composée b ◦ a de E dans G avec pour base de départ e et base d'arrivée g
est
[b ◦ a]ge = [b]gf [a]fe . (1.2)

3. Si e0 et f 0 sont d'autres bases de E et F, soit P = [idE ]ee0 et Q = [idF ]ff 0 . Alors pour
tout x ∈ E on a
0 0
[x]e = [id]ee [idE ]e = P −1 [x]e . (1.3)
Ensuite, si a ∈ L(E, F ) on a
0 0
[a]fe0 = [idF ]ff [a]fe [idE ]ee0 = Q−1 [a]fe P. (1.4)

En particulier, si E = F et e = f et e0 = f 0 , si P = [idE ]ee0 et si a ∈ L(E) alors


0 0
[a]ee0 = [idE ]ee [a]ee [idE ]ee0 = P −1 [a]ee P. (1.5)

Disons un mot des matrices par blocs. Si p = p1 + · · · + pn et q = q1 + · · · + qm on


considère parfois les matrices de la forme

A = (Aij )1≤i≤n,1≤j≤m
I. REPRÉSENTATION MATRICIELLE D'UN VECTEUR ET D'UNE APPLICATION LINÉAIRE 7
où Aij est elle même une matrice sur K à pi lignes et qj colonnes. Ceci se prête au calcul
numérique des produits de matrices : si r = r1 + · · · + rl P
et B = (Bjk ) où la matrice Bjk a
qj lignes et rk colonnes, alors C = AB = (Cik ) où Cik = qj=1 Aij Bjk . Un résultat qui sert
souvent donne la condition nécessaire et susante pour que une matrice carrée commute
avec une matrice diagonale :

Proposition 1.2. Soit λ1 , . . . , λp des éléments distincts de K et soit

D = diag(λ1 Im1 , . . . , λp Imp ).

On considère la matrice carrée par blocs A = (Aij )1≤i,j≤p , où Aij a mi lignes et mj


colonnes. Alors DA = AD si et seulement si Aij = 0 pour i 6= j, c'est à dire si A est
diagonale par blocs :
A = diag(A11 , . . . , App ).

Démonstration : DA − AD = ((λi − λj )Aij )1≤i,j≤p = 0 entraîne Aij = 0 pour i 6= j


puisque les λ sont distincts.

A la n de cette première section, expliquons que nous traiterons dans ce cours les
coordonnées des vecteurs non avec répugnance mais avec précaution. Dans la vie pratique,
un vecteur est aussi souvent un objet géométrique (une force, une vitesse, où les coor-
données sont articielles ou inutiles) qu'une suite de nombres (le triplet (poids, hauteur,
âge) d'un individu). Beaucoup d'objets mathématiques familiers (polynômes, matrices)
sont souvent considérés comme des membres d'un espace vectoriel, comme des vecteurs,
donc. Même si ces derniers sont décrits par des nombres (les coecients du polynôme ou
de la matrice) et donc conduisant à une base plus naturelle que les autres (de l'espace des
polynômes de degré ≤ n, des matrices à p lignes et q colonnes) souvent cette base est mal
adaptée au problème à traiter (exercice 1.1) voire assez inutilisable et conduisant à des
calculs maladroits. Par exemple les matrices carrées symétriques d'ordre q ont une base
naturelle à q(q + 1)/2 éléments dont l'utilisation est très malaisée. Il est pathétique de
voir des statisticiens lorsqu'ils ont à manipuler une transformation linéaire de cet espace
des matrices symétriques (par exemple X 7→ AXAT où A est une matrice carrée d'ordre
q ) ne pouvoir se la représenter par sa simple dénition, de vouloir en expliciter la matrice
représentative et pour nir de vouloir absolument écrire la matrice carrée symétrique X
comme une matrice colonne de hauteur q(q + 1)/2. Il est vrai qu'ils ont une excuse in-
formatique : bien des logiciels recoivent la description d'une matrice comme une suite de
nombres où les lignes de la matrice sont séparées par des points virgules dans la suite .
Bien sûr les coordonnées sont utiles, mais elles le sont bien plus si une étude géométrique
préliminaire est faite pour déterminer s'il existe une base plus naturelle que les autres
dans laquelle les calculs seront plus simples.
Travailler géométriquement oblige à clarier les concepts. C'est un gros eort : on se
représente mentalement facilement un vecteur membre de l'espace vectoriel réel E , mais
l'étape suivante : se représenter une forme linéaire x 7→ f (x) c'est à dire une application
linéaire de E à valeurs dans R est important et plus dicile (L'ensemble E ∗ des formes
8 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

linéaires sur E s'appelle le dual de E ). Si on travaille uniquement en coordonnées, on


percevra seulement x ∈ E et f ∈ E ∗ comme des suites (x1 , . . . , xq ) et (f1 , . . . , fq ) avec
f (x) = f1 x1 + · · · + fq xq et la diérence entre E et son dual sera fortement gommée (C'est
toutefois normal pour les espaces euclidiens et hermitiens des chapitres 2 et 3). Pour
reprendre l'exemple de l'espace E des polynômes de degré ≤ n il n'est R 3 pas indispensable
quand on considère les formes linéaires f : P 7→ P (5) ou g : P 7→ −1 P (x)dx de se les
représenter par des suites. Faire un calcul où apparaissent simultanément des éléments
de E et E ∗ est grandement simplié si on garde conscience de l'espace auquel appartient
l'objet manipulé, pour ne rien dire du grand nombre d'erreurs de calcul ainsi évitées. De
même, il est important de se représenter une transformation linéaire d'un espace vectoriel
E vers un autre géométriquement, et non seulement à l'aide d'une matrice. Ainsi équipés
peut être pourrons nous mieux comprendre la physique théorique avec son cortège de
groupes, d'algèbres, de spineurs, de calcul extérieur et de "calcul tensoriel".

Exercice 1.1. Soit n un entier > 0. Pour k entier tel que 0 ≤ k ≤ n on dénit les fonctions
sur R ek et fk par

ek (x) = e(2k−n)x , fk (x) = (sinh x)k (cosh x)n−k .

Soit E l'espace vectoriel sur K = R formé par les fonctions sur R de la forme f = nk=0 ck ek
P
avec ck ∈ R. Montrer que P si f (x) = 0 pour tout x ∈ R alors ck = 0 pour tout k (Méthode :
Montrer qu'alors P (X) = nk=0 ck X k est un polynôme de degré ≤ n qui a plus de n racines).
En déduire que e = (e0 , . . . , en ) est une base de E. Quelle est la dimension de E? Montrer
que fk ∈ E. Montrer que f = (f0 , . . . , fn ) est une base de E (Méthode : montrer que
c'est une famille génératrice en utilisant la formule du binôme dans l'expression ek (x) =
(cosh x + sinh x)k (cosh x − sinh x)n−k ). Soit a le procédé qui à tout f de E fait correspondre
sa fonction dérivée : a(f ) = f 0 . Montrer que a est un endomorphisme de E et calculer
directement les matrices [a]ee et [a]ff (on ne demande pas la matrice de changement de base).
Voir aussi l'exercice 3.3.

Exercice 1.2. Il est connu que si a, b, c, d sont dans K avec a 6= 0, alors

1 ab
     
1 0 a 0 a b
c bc = .
a
1 0 d− a
0 1 c d

Plus généralement, si A et D sont des matrices carrées sur K d'ordre p et q telles que A soit
inversible, trouver les matrices B1 , C1 , D1 telles que
     
Ip 0 A 0 Ip B1 A B
= .
C1 Iq 0 D1 0 Iq C D
   
Ip 0 A B
Quel est l'inverse de la matrice ? Si D1 est inversible, quel est l'inverse de ?
C1 Iq C D

Exercice 1.3. Soit K un corps xé et (E, e), (F, f ) des espaces sur K de dimensions q et p
équipés de bases. Soit a ∈ L(E, K) une forme linéaire sur E et b ∈ F et ϕ ∈ L(E, F ) déni
II. DÉTERMINANT ET TRACE D'UN ENDOMORPHISME. 9
par ϕ(x) = ba(x). Quel est le rang de ϕ? Calculer M = [ϕ]fe en fonction de [a]1e = [a1 , . . . , aq ]
et [b]f = [b1 , . . . , bp ]T . Si e0 = (e01 , . . . , e0q ) et f 0 = (f10 , . . . , fp0 ) sont des bases telles que
0
a(e0j ) = 0 pour j = 2, . . . , q et b = f10 , calculer M1 = [ϕ]fe0 . Voir aussi les exercices 3.5 , 4.5
et 5.4.

Exercice 1.4. Soit a ∈ L(E) où E est de dimension nie q sur un corps K. Soit F ⊂ E un
sous espace vectoriel de dimension k tel que que a(F ) ⊂ F (on dit aussi que F est stable par
a). Montrer l'existence d'une base e de E tel que [a]ee s'écrive par blocs ainsi :
 
e A B
[a]e =
0 C

avec A matrice carrée d'ordre k (Méthode : prendre une base e1 , . . . , ek de F et la compléter


en une base quelconque e de E).

II Déterminant et trace d'un endomorphisme.


Si A est une matrice carrée sur le corps K on note son déterminant par det A et on
appelle la somme de ses éléments diagonaux la trace de A, notée trace A.

Proposition 2.1. Si A et B sont des matrices (p, q) et (q, p) sur K alors trace (AB) =
trace (BA). Si A, B, C sont des matrices (p, q), (r, p), (q, r) alors trace (ABC) = trace (CAB).

Démonstration : Soit A = (aij ) et B = (bjk ) alors M = AB = (mik )1≤i,k ≤ q satisfait


p
X
mik = aij bjk
j=1

et donc trace (AB) = qi=1 pj=1 aij bji . Comme i et j sont des variables muettes, si on les
P P
échange on trouve que trace (AB) = trace (BA). En remplacant dans cette égalité (A, B)
par (AB, C) on a le second résultat.

Remarque : Si on a un produit de plus de deux matrices carrées, il est faux qu'on puisse
permuter les facteurs sans changer la trace. Par exemple, si
     
1 0 1 0 1 1
A= , B= , C= ,
1 1 0 2 0 1

alors trace (ABC) = 3 et trace (ACB) = 5.

Proposition 2.2. Soit E un espace vectoriel de dimension nie sur K et soit e et e0 des
bases de E . Soit a ∈ L(E). Alors
0
1. det[a]ee = det[a]ee0 ,
0
2. trace [a]ee = trace [a]ee0 .
10 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Démonstration : On applique (1.5). Si A = [a]ee alors det(P AP −1 ) = det P det A det P −1 =


det A, et par la Proposition 2.1 on a trace (P AP −1 ) = trace (P −1 P A) = trace A.
A cause de la Proposition 2.2, on appelle respectivement déterminant et trace de
l'endomorphisme a de E le déterminant et la trace d'une matrice représentative A = [ae ]e
dans une base arbitraire. La proposition a servi à montrer que cette dénition est cohérente
car ces nombres ne dépendent pas de la base choisie.
On complète cette section par une remarque sur les déterminants des matrices trian-
gulaires par blocs :

Proposition 2.3. Soit A une matrice carrée d'ordre p = p1 + · · · + pn décomposée par


blocs A = (Aij ) où Aij est une matrice à pi lignes et pj colonnes. On suppose que A est
triangulaire supérieure 2 par blocs, c'est à dire que Aij = 0 si i > j. Alors
det A = det A11 det A22 . . . det Ann .


A11 A12
Démonstration : On le montre d'abord pour n = 2. On a alors A = 0 A .
22
D'autre part si A = (aij ), si Sp est le groupe des permutations σ de p objets et si (σ) est
la signature de σ , on a det A = σ∈Sp (σ)f (σ) avec
P

p1 p
Y Y
f (σ) = aiσ(i) aiσ(i) .
i=1 i=p1 +1

Si σ est tel que il existe i > p1 avec σ(i) ≤ p1 , alors f (σ) = 0, puisque A21 = 0. Donc,
si f (σ) 6= 0 alors σ(i) ≤ p1 si i ≤ p1 et σ(i) > p1 si i > p1 . C'est dire qu'alors σ est le
produit d'une permutation σ1 de {1, . . . , p1 } et d'une permutation σ2 de {p1 + 1, . . . , p}.
Comme (σ1 σ2 ) = (σ1 )(σ2 ) on arrive à
p1 p
X Y X Y
det A = ( (σ1 ) aiσ1 (i) )( (σ2 ) aiσ2 (i) ) = det A11 det A22 .
σ1 i=1 σ2 i=p1 +1

L'extension par récurrence au cas n quelconque se fait facilement : si


 
A11 A12 . . . A1n
 0 A22 . . . A2n 
A=  ... ... ...
.
... 
0 0 ... Ann
 
B11 B12
on applique le cas n = 2 à la décomposition en blocs de A = avec
0 B22
 
A11 A12 . . . A1,n−1
 0 A22 . . . A2,n−1 
B11 = 
 ... ... ... ...


0 0 . . . An−1,n−1
2 D'autres disent trigonale supérieure.
II. DÉTERMINANT ET TRACE D'UN ENDOMORPHISME. 11
et B22 = Ann . Comme l'hypothèse de récurrence donne det B11 = det A11 det A22 . . . det An−1,n−1
et que par le cas n = 2 on a det A = det B11 det B22 , la récurrence est étendue et la pro-
position est montrée.

Voici maintenant une formule plus dicile que nous utiliserons à la Proposition 9.4 du
chapitre 2. Il ne faut pas la confondre avec la formule de Cauchy-Binet de l'exercice 2.9

Théorème 2.4. * (Formule de Laplace) Soit A = (aij ) et B = (bij ) deux matrices


carrées d'ordre q sur le même corps K . Si T ⊂ {1, . . . , q} on note T 0 le complémentaire
de T et on note AT la matrice carrée d'ordre k = |T | qui est la restriction de A à T, c'est
à dire AT = (aij )i,j∈T . Si T est vide on convient det AT = 1. Alors det(A + B) s'exprime
comme une somme de 2q termes ainsi :
X
det(A + B) = det AT det BT 0 .
T ⊂{1,...,q}

Démonstration : Soit D = diag(λ1 , . . . , λq ) et notons C = DA + B = (cij ). On a


donc cij = λi aij + bij . Par dénition d'un déterminant, et en notant Sq le groupe des
permutations σ de {1, . . . , q} et (σ) la signature de σ, on sait que
q q
X Y X Y
det(DA + B) = (σ) ciσ(i) = (σ) (λi aiσ(i) + biσ(i) ). (2.6)
σ∈Sq i=1 σ∈Sq i=1

On considère alors det(DA+B) comme un polynôme à q variables (λ1 , . . . , λq ). On observe


que c'est un polynôme ane, c'est à dire que pour tout j = 1, . . . , q, si on le considère
comme une fonction de λj seul, alors il est de la forme αλj +β où α et β sont des fonctions
des autres λ : cela se voit avec (2.6). Par conséquent il est de la forme
X Y
det(DA + B) = cT λj
T ⊂{1,...,q} j∈T

où les cT sont dans K. Nous allons montrer que cT = det AT det BT 0 . En faisant alors
D = Ir cela établira la proposition.
Pour calculer cT , sans perte de généralité on peut supposer T = {1, . . . , k} et λk+1 =
. . . = λq = 0. La formule (2.6) devient
k q
X Y Y
det(DA + B) = (σ) (λi aiσ(i) + biσ(i) ) biσ(i) .
σ∈Sq i=1 i=k+1

Notons alors par Sk,q le sous groupe de Sq formé des σ tels que σ(i) ≤ k si et seulement
si i ≤ k. Il est clair que Sk,q est isomorphe à Sk × Sq−k : si σ ∈ Sk,q on écrit σ = (σ1 , σ2 )
où σ1 est dans Sk et est la restriction de σ à {1, . . . , k}, et où σ2 est la restriction de
σ à {k + 1, . . .Q
, q}. Notez aussi qu'on Qq a (σ) = (σ1 )(σ2 ). Maintenant, le coecient de
k
λ1 . . . λk dans i=1 (λi aiσ(i) + biσ(i) ) i=k+1 biσ(i) n'est pas nul si et seulement si σ est dans
Sk,q . Dans ces conditions il est égal à
k
Y k
Y
aiσ1 (i) biσ2 (i) .
i=1 i=k+1
12 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Multiplions cette expression par (σ) = (σ1 )(σ2 ) et sommons les résultats sur tous les
σ = (σ1 , σ2 ) ∈ Sk,q . Cela donne le coecient c{1,...,k} de λ1 . . . λk cherché. Il est clair que
le résultat est aussi
k
! q

X Y X Y
(σ1 ) aiσ1 (i)  (σ2 ) biσ2 (i)  = det A{1,...,k} det B{k+1,...,q}
σ1 ∈Sk i=1 σ2 ∈Sq−k i=k+1

et le théorème est démontré.

Exercice 2.1. Si A et D sont carrées avec A inversible, utiliser l'exercice 1.2 et la Proposition
2.3 pour montrer que
 
A B
det = det(A) det(D − CA−1 B).
C D

Application : si A et D sont de même ordre q , réelles ou complexes, et si AC = CA montrer


que  
A B
det = det(AD − CB).
C D
Méthode : supposer d'abord A inversible, puis sinon montrer qu'il existe une suite de n tendant
vers 0 tels que An = A + n Iq soit inversible et conclure par passage à la limite.

Exercice 2.2. Sur le corps K soit A une matrice (p, q), X et Y des matrices colonnes d'ordre
p et q. Montrer que X AY = trace (AY X ).
T T

Exercice 2.3. Si E est de dimension nie, on note F = L(E) et pour a ∈ F on dénit


l'élément ϕa ∈ L(F ) par b 7→ ϕa (b) = ab − ba. Montrer que det(ϕa ) = 0 (Méthode : montrer
à l'aide de la Proposition 2.1 que ϕa n'est pas surjectif en considérant la forme linéaire sur F
dénie par b 7→ trace b).

Exercice 2.4. Soit A et B des matrices carrées réelles d'ordre q . Montrer que
 
A −B
det = | det(A + iB)|2 .
B A

Méthode : calculer    −1


Iq iIq A −B Iq iIq
.
iIq Iq B A iIq Iq

Exercice 2.5. (Caractérisation de la trace) Soit n un entier ≥ 2 et soit E l'espace vectoriel


sur K des matrices carrées à éléments dans K et d'ordre n. Soit f : E → K une forme
linéaire sur E telle que de plus pour tous X et Y dans E on ait f (XY ) = f (Y X). Dans la
suite, pour k = 1, . . . , n Pk = (pij ) ∈ E est déni par pij = 0 si (i, j) 6= (k, k) et pkk = 1.
1. Soit X = (xij ) ∈ E. Montrer les armations suivantes : P1 + . . . + Pn = In , Pk2 = Pk ,
Pk XPk = xkk Pk et f (XPk ) = f (Pk XPk ) = xkk f (Pk ).
II. DÉTERMINANT ET TRACE D'UN ENDOMORPHISME. 13
2. Dans le cas particulier n = 2, trouver U ∈ E inversible telle que P2 U = U P1 . Même
question pour n quelconque. Enn, si k ≥ 2 trouver Uk ∈ E inversible telle que Pk =
Uk P1 Uk−1 .
3. On pose c = f (P1 ). Montrer à l'aide du 2) que c = f (Pk ) pour tout k = 1, . . . , n.
En écrivant X = X(P1 + . . . + Pn ) montrer à l'aide de la linéarité de f et du 1) que
f (X) = c trace X.

Exercice 2.6. Si Jq est la matrice carrée d'ordre q dont tous les coecients sont 1 et si a et b
sont réels, il existe bien des manières de montrer que det(aJq + bIq ) = bq + qabq−1 . Le montrer
avec la formule de Laplace appliquée à A = aJq et B = bIq et utilisant det AT = 1, a, 0 suivant
que |T | = 0, 1, ≥ 2.

Exercice 2.7. Soit D = diag(µ1 , . . . , µq ) et soit Jq la matrice (q, q) dont tous les coecients
sont égaux à 1. On suppose det D 6= 0. Montrer à l'aide de la formule de Laplace que
 
1 1
det(D − Jq ) = µ1 · · · µq 1 − − ··· − .
µ1 µq

Exercice 2.8. On xe un corps K. Soit a = (a1 , . . . , aq )T et b = (b1 , . . . , bq )TPdes matrices


colonnes sur K d'ordre q avec q ≥ 2. Si S ⊂ {1, . . . , q} on note aS = s∈S as . Soit
C = [c1 , . . . , cq ] une matrice carrée d'ordre q telle que cj ∈ {a, b} pour tout j. Soit enn
S = {j; cj = a} et S 0 = {j; cj = b}. Montrer que si λ ∈ K alors

det(λIq + C) = λq + (aS + bS 0 )λq−1 + (aS bS 0 − aS 0 bS )λq−2 .

Méthode : appliquer la formule de Laplace du Théorème 2.4 au couple (C, λIq )Pet utiliser le fait
que le rang de C est ≤ 2 pour écrire det(λIq + C) = λq + λq−1 trace C + λq−2 T ;|T |=2 det CT .

Exercice 2.9. (Formule de Cauchy-Binet) Soit 0 < q ≤ m des entiers, soit A = (aij ) une
matrice à q lignes et m colonnes et soit B = (bjk ) une matrice à m lignes et q colonnes. Soit
T l'ensemble des parties T de {1, . . . , m} de taille q et, pour T ∈ T on considère les matrices
carrées d'ordre q
AT = (aij )1≤i≤q, j∈T , BT = (bjk )j∈T, 1≤k≤q .
Montrer que X
det(AB) = det AT det BT .
T ∈T

Méthode : introduire des variables (λ1 , . . . , λm ) et la matrice


P D =Qdiag(λ1 , . . . , λm ). Montrer
que (λ1 , . . . , λm ) 7→ det ADB est un polynôme ane T ∈T cT j∈T λj . Montrer que cT =
det AT det BT en considérant sans perte de généralité le cas particulier T = {1, . . . , q} et
λq+1 = . . . = λm = 0 et en écrivant les matrices A, D, B par blocs. Conclure en prenant
D = Im . Remarque : la formule de Cauchy Binet est parfois énoncée avec une apparence de
plus grande généralité : on prend des entiers 0 < q ≤ n, m, p et et des matrices A = (aij ) à n
14 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

lignes et m colonnes et B = (bjk ) à m lignes et p colonnes. Soit S et R des parties de taille


q de {1, n} et {1, p} respectivement. Alors, avec des notations évidentes
X
det(AB)S×R = det AS×T det BT ×R .
T ∈T

III Espaces et valeurs propres d'un endomorphisme.


Dénition 3.1 : Soit E un espace vectoriel de dimension nie sur K, soit a ∈ L(E), soit
λ dans K et soit Eλ = ker(a − λidE ). Si Eλ 6= {0}, on dit que λ est une valeur propre de
a. Dans ce cas, Eλ est appelé l'espace propre associé à la valeur propre λ et les éléments
non nuls de Eλ sont appelés des vecteurs propres associés à λ. L'ensemble Λ de toutes les
valeurs propres de a est appelé le spectre de a.

Remarques : Les dénitions précédentes peuvent être reformulées ainsi : λ est une valeur
propre de a si et seulement si il existe un vecteur x de E non nul tel que a(x) = λx. Dans
ce cas un tel x est appelé un vecteur propre associé à λ, et l'espace propre associé à λ est
l'ensemble des vecteurs propres associés à λ complété par le vecteur nul. En eet, il est clair
que ker(a − λidE ) 6= {0} ⇔ ∃x ∈ E ; (a − λidE )(x) = 0 ⇔ ∃x ∈ E ; a(x) = λx. En gros,
un vecteur propre est un vecteur de E dont la direction est conservée après déformation
par a. Une chose surprenante est que le coecient de proportionalité, à savoir la valeur
propre, ait au moins autant d'importance que le vecteur propre lui même.

Avant de donner des exemples et des propriétés des ces nouvelles notions, et d'expliquer
en particulier comment les calculer, nous démontrons un théorème important. Rappelons
avant que si F1 , . . . , Fp sont des sous espaces vectoriels de l'espace vectoriel E , on dit que
la famille {F1 , . . . , Fp } est en somme directe si une suite de vecteurs (x1 , . . . , xp ) est telle
que xj ∈ Fj pour j = 1, . . . p et telle que x1 + · · · + xp = 0, alors ceci ne peut arriver que si
x1 = . . . = xp = 0. Dans ce cas le sous espace F de E égal à F = F1 + · · · + Fp est appelé
la somme directe des F1 , . . . , Fp . On écrit alors traditionnellement

F = F1 ⊕ · · · ⊕ Fp ,

Théorème 3.1. Soit E de dimension nie, a ∈ L(E) et soient λ1 , . . . , λp des valeurs


propres distinctes de a. Alors les espaces propres Eλ1 , . . . , Eλp sont en somme directe. En
particulier, le spectre de a est ni et a au plus dim E éléments.

Démonstration : Celle ci va nous faire introduire deux objets très intéressants :


 Les polynômes de Lagrange ;
 Les polynômes d'endomorphismes.
Si λ1 , . . . , λp sont des éléments distincts du corps K les p polynômes de Lagrange
L1 , . . . , Lp associés sont dénis par
III. ESPACES ET VALEURS PROPRES D'UN ENDOMORPHISME. 15

Q
i6=j (X − λi )
Lj (X) = Q .
i6=j (λj − λi )
Ils ont trois propriétés remarquables : deg Lj = p−1, Lj (λj ) = 1 et, pour i 6= j, Lj (λj ) = 0.
Ils sont utilisés en analyse numérique pour résoudre le problème suivant : étant donné
(a1 , . . . , ap ) ∈ K p trouver l'unique polynôme P de degré ≤ p − 1 tel que pour tout j on
ait P (λj ) = aj . Réponse : c'est P = a1 L1 + · · · + ap Lp : on laisse le lecteur vérier que P
convient et est unique.
Dénissons maintenant les polynômes d'endomorphismes. Si a ∈ E, on dénit la suite
(a )k≥0 d'éléments de L(E) par la récurrence suivante : a0 = idE , ak+1 = a ◦ ak . Notez
k

qu'à cause de l'associativité de la composition des fonctions on a ak+1 = ak ◦ a et plus


généralement aj+k = aj ◦ ak . Si e est une base quelconque, alors (1.2) implique que si
A = [a]ee alors [ak ]ee = Ak .
Si P (X) = c0 + c1 X + · · · + cn X n est un polynôme dont les coecients cj sont dans
K on dénit alors l'endomorphisme P (a) par
P (a) = c0 idE + c1 a + c2 a2 + · · · + cn an .
De même donc, si A = [a]ee alors
[P (a)]ee = P (A) = c0 Iq + c1 A + c2 A2 + · · · + cn An .

Exemple : Matrices circulantes. Soit P (X) = a0 + a1 X + · · · + aq−1 X q−1 un


polynôme sur le corps K . On considère aussi la matrice d'ordre q et ses puissances :
   
0 1 0 ... 0 0 0 1 ... 0
 0 0 1 ... 0   0 0 0 ... 0 
  2
 
R=  ... ... ... ... ... 
 R =  ... ... ... ... ...  ...
 
 0 0 0 ... 1   1 0 0 ... 1 
1 0 0 ... 0 0 1 0 ... 0
En d'autres termes si E = K q est muni de la base canonique e = (e1 , . . . , eq ) et si on
considère r ∈ L(E) tel que r(ej ) = ej−1 si j = 2, . . . , q et r(e1 ) = eq on a R = [r]ee . Alors
 
a0 a1 a2 . . . aq−1
 aq−1 a0 a1 . . . aq−2 
 . . . . . . . . . . . . . . .  . (3.7)
e q−1
 
[P (r)]e = P (R) = a0 Iq + a1 R + · · · + aq−1 R = 
 a2 a3 a4 . . . a1 
a1 a2 a3 . . . a 0
<

Nous résumons les propriétés de la correspondance P 7→ P (a) par l'énoncé suivant, dont
les démonstrations sont évidentes :

Proposition 3.2. Soit E de dimension nie sur K et a xé dans L(E). Soit K[X]
l'espace des polynômes à coecients dans K. L'application de K[X] dans L(E) dénie
par P 7→ P (a) a les propriétés suivantes : pour tous polynômes P et Q on a
16 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

1. (P + Q)(a) = P (a) + Q(a).


2. (P Q)(a) = P (a) ◦ Q(a) = Q(a) ◦ P (a).

Nous procédons maintenant à la démonstration du Théorème 3.1. Soit pour j = 1, . . . , p,


les vecteurs xj ∈ Eλj . On suppose que x1 + · · · + xp = 0 et on veut montrer qu'alors
xj = 0 pour tout j. Puisque a(xj ) = λj xj on a, en appliquant a aux deux membres de
cette égalité :
a2 (xj ) = a(a(xj )) = a(λj xj ) = λj a(xj ) = λ2j xj .
En fait on a plus généralement ak (xj ) = λkj xj , et plus généralement encore pour tout
polynôme P (a)(xj ) = P (λj )(xj ). Par conséquent :
0 = P (a)(0) = P (a)(x1 +· · ·+xp ) = P (a)(x1 )+· · ·+P (a)(xp ) = P (λ1 )(x1 )+· · ·+P (λp )(xp ).
Prenons en particulier P égal au polynôme de Lagrange Lj : l'égalité ci dessus donne
xj = 0, le résultat voulu : les Eλj sont bien en somme directe. Pour nir, considérons le
sous espace vectoriel de E suivant
F = Eλ1 ⊕ · · · Eλp .
Puisque tous les espaces propres sont de dimension strictement positive, on a
dim E ≥ dim F = dim Eλ1 + · · · + dim Eλp ≥ p.
Ceci montre que le spectre est ni et de taille inférieure ou égal à la dimension de E, et
la démonstration est complète.

Exercice 3.1. Soit E l'espace des polynômes sur R de degré ≤ n. Quelle est sa dimension ?
(chercher une base). Soit a ∈ L(E) déni par a(P )(X) = XP 0 (X). Trouver valeurs propres et
vecteurs propres de a (Méthode : chercher λ pour que les solutions de l'équation diérentielle
xy 0 = λy soient des polynômes). Soit b ∈ L(E) déni par b(P )(X) = P (X + 1) − P (X).
Montrer que la seule valeur propre de b est 0 avec les polynômes constants pour espace propre
(Méthode : observer que si deg P ≥ 1 alors deg b(P ) = (deg P ) − 1). En déduire les valeurs
et espaces propres de c = b + idE , satisfaisant donc c(P )(X) = P (X + 1).

Exercice 3.2. Soit E l'espace sur C des suites complexes z = (zn )n∈Z qui sont de période 3
(c'est à dire zn+3 = zn pour tout n ∈ Z). de degré ≤ n. Quelle est sa dimension ? (chercher
une base). On dénit a ∈ L(E) par a(z)n = zn+1 . Montrer que les trois racines cubiques de
l'unité 1, j, j 2 sont les valeurs propres de a.

Exercice 3.3. Soit n un entier > 0. Utiliser l'exercice 1.1 pour calculer les valeurs propres
de la matrice réelle d'ordre n + 1 suivante :
 
0 n 0 0 ... 0 0 0
 1 0 n−1 0 ... 0 0 0 
 
 0 2 0
 n − 2 . .. 0 0 0 
.
 ... ... ... ... ... ... ... ... 
 
 0 0 0 0 ... n − 1 0 1 
0 0 0 0 ... 0 n 0
IV. CAYLEY HAMILTON ET POLYNÔME CARACTÉRISTIQUE 17

Exercice 3.4. Soit M l'espace vectoriel sur R des matrices carrées réelles d'ordre q, soit S le
sous espace des matrices symétriques, c'est à dire des matrices A telles que A = AT et soit A
le sous espace des matrices antisymétriques, c'est à dire des matrices A telles que A = −AT .
Quelles sont les dimensions respectives de M, S et A? Montrer que S et A sont en somme
directe. Montrer que M = S ⊕ A soit par un argument de dimension, soit en écrivant
1 1
A = (A + AT ) + (A − AT ).
2 2
On considère enn l'endomorphisme a de M déni par a(A) = AT . Utiliser ce qui précède
pour trouver ses espaces et valeurs propres. Voir aussi l'exercice 5.2.

Exercice 3.5. Dans l'exercice 1.3 on particularise à E = F. On suppose a(b) 6= 0. Montrer


que a(b) et 0 sont les seules valeurs propres de ϕ, et trouver les espaces propres correspondants
en précisant leurs dimensions (Méthode : considérer ker a.) On suppose a(b) = 0 : trouver
valeurs propres et espaces propres. Voir aussi les exercices 4.5 et 5.4.

Exercice 3.6. Soit E et F des espaces vectoriels de dimension nie sur un même corps.
Soit a ∈ L(E, F ) et b ∈ L(F, E). (1) On suppose que (idF − ab)−1 existe. Montrer que
(idE − ba)−1 existe en montrant (idE − ba)−1 = idE + b(idF − ab)−1 a. (2) En déduire que
les valeurs propres non nulles de ab et de ba sont les mêmes (considérer les λ 6= 0 tels que
(λidF − ab)−1 = λ−1 (idF − λ−1 ab)−1 existe). Voir aussi les exercices 4.2 et 4.3.

IV Cayley Hamilton et polynôme caractéristique


Pour éviter quelques subtilités inintéressantes dans le maniement des polynômes nous
supposons désormais que le corps K a un nombre inni d'éléments. Ceci permet d'identier
la fonction sur K qui à λ ∈ K fait correspondre l'élément de K égal à P (λ) = c0 + c1 λ +
· · ·+cn λn avec le polynôme lui même, c'est à dire à la suite (c0 , . . . , cn ) de ses coecients. Si
le corps est ni, plusieurs polynômes donnent naissance à la même fonction : par exemple
avec le corps {0, 1} des informaticiens on a 1 + λ + λ2 = 1 pour λ = 0 et 1. Ceci ne peut
arriver avec un corps K inni : P (λ) = Q(λ) pour tout λ ∈ K entraîne que P − Q a une
innité de racines et est donc le polynôme dont tous les coecients sont nuls.

Dénition 4.1 : Soit E un espace vectoriel de dimension nie sur K et soit a ∈ L(E).
Le polynôme caractéristique de a est Pa (X) = det(a − XidE ). Si A est une matrice carrée
d'ordre q , le polynôme caractéristique de A est PA (X) = det(A − XIq ).
Pour calculer Pa , le moyen le plus simple est de prendre une base e et de considérer
la matrice [a]ee = A = (aij )1≤i,j≤q . On a alors
 
a11 − X a12 ... a1q
 a21 a22 − X . . . a2q
(4.8)

Pa (X) = det  ,
 ... ... ... ... 
aq1 aq2 . . . aqq − X
18 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

ce qui montre que Pa est un polynôme.

Proposition 4.1. Soit E de dimension nie q et a dans L(E). Alors


1. λ est valeur propre de a si et seulement si Pa (λ) = 0.
2. Pa est de degré q et Pa (X) = (−1)q X q + (−1)q−1 trace (a)X q−1 + · · · + det a. En
particulier, si q = 2 on a Pa (X) = X 2 − X trace a + det a.
3. Si m est la multiplicité de la valeur propre λ dans Pa , alors dim Eλ ≤ m.

Démonstration : (1) La première partie est basée sur le fait suivant vu en première
année : si b ∈ L(E) alors det b = 0 ⇔ ker b 6= {0}. Il sut d'appliquer cela à b = a − λidE .
(2) Pour la seconde on utilise (4.8) et on applique la dénition du déterminant à A−XIq =
B = (bij ). On obtient si Sq est le groupe des permutations de q objets et si (σ) est la
signature de σ :
q
X Y
Pa (X) = det B = (σ) biσ(i) .
σ∈Sq i=1

Comme les bij sont des polynômes de degré ≤ 1 en X ceci montre que deg Pa ≤ q.
Son terme constant est Pa (0) = det a. Pour les termes de degré q et q − 1, on observe
que Q si σ n'est pas la permutation identique, elle déplace au moins deux objets et donc
degQ qi=1 biσ(i) Q
≤ q −2. La contribution aux termes de degré q et q −1 vient donc seulement
de i=1 bii = qi=1 (aii − X) et est donc celle de l'énoncé.
q

(3) On prend une base e de E telle que (e1 , . . . , ek ) soit une base de Eλ . Alors la matrice
[a]ee s'écrit par blocs  
e λIk A
[a]e =
0 B
et donc Pa (X) = (λ − X)k det(B − XIq−k , ce qui montre que k ≤ m. La proposition est
montrée.
Voici alors la surprenante propriété de Cayley Hamilton de Pa : c'est que Pa (a) = 0.
Si e est une base de E , si A = [a]ee et si Pa (X) = c0 + c1 X + · · · + (−1)q X q , c'est dire
que la matrice carrée d'ordre
 q dénie par c0 Iq + c1 A + · · · + (−1)q Aq est la matrice nulle.
5 2
Ainsi si A = alors trace A = 4, det A = −1 et donc (d'après la Proposition
−2 −1  
21 8
4.1 (2)) Pa (X) = X − 4X − 1. Comme A =
2 2
on a bien
−8 −3
       
2 21 8 5 2 1 0 0 0
A − 4A − I2 = −4 + = .
−8 −3 −2 −1 0 1 0 0
Notons qu'on en tire pour les matrices d'ordre 2 un moyen rapide de calculer les premières
puissances : si Pa (X) = X 2 − tX + d, alors

A2 = tA − dI2 , A3 = tA2 − dA = (t2 − d)A − tdI2 , A4 = (t2 − 2dt)A − (t2 d − d2 )I4 .

Ce résultat est vrai pour un corps ni ou inni. Mais la démonstration que nous en
donnerons n'est valable que pour un corps inni. Enoncons cette propriété de Cayley
IV. CAYLEY HAMILTON ET POLYNÔME CARACTÉRISTIQUE 19
Hamilton dans un vocabulaire légèrement diérent qu'on aura à utiliser plus tard : si
a ∈ L(E) on dit que le polynôme P sur K est un polynôme annulateur de a si P (a) = 0.

Théorème 4.2. (Th. de Cayley-Hamilton) Soit a ∈ L(E) où E est un espace de dimen-


sion nie sur le corps K. Le polynôme caractéristique de a est un polynôme annulateur
de a.

Démonstration : La démonstration est basée sur le résultat acquis en première année : si


M est une matrice carrée et si C(M ) est la matrice de ses cofacteurs, alors (C(M ))T M =
(det M )Iq . Soit e une base de E et A = [a]ee . Soit B la matrice transposée de la matrice
des cofacteurs de la matrice M = A − XIq . Chacun de ces cofacteurs est un polynôme en
λ de degré au plus q − 1. En regroupant les facteurs de la puissance X k en une matrice
Bk , la matrice B s'écrit

B = B0 + XB1 + · · · + Bq−1 X q−1 (4.9)

Si Pa (X) = c0 + c1 X + · · · + cq X q et puisque B(A − XIq ) = Pa (X)Iq on obtient

B0 A + X(B1 A − B0 ) + X 2 (B2 A − B1 ) + · · · + X q−1 (Bq−1 A − Bq−2 ) − X q Bq−1


= c0 Iq + c1 XIq + · · · + cq X q Iq .

On identie alors les coecients des X k dans chaque membre (c'est ici qu'on utilise le fait
que le corps est inni) et on obtient

B0 A = c0 Iq B0 A = c0 Iq
2
B1 A − B0 = c1 Iq B1 A − B0 A = c1 A
B2 A − B1 = c2 Iq B0 A3 − B1 A2 = c 0 A2
··· = ··· ··· = ···
−Bq−1 = cq Iq −Bq−1 Aq = c q Aq
La colonne de gauche a été obtenue par identication. La colonne de droite s'obtient en
multipliant à droite par Ak la ligne k. Sommons la colonne de droite, on obtient 0 = Pa (A)
et le théorème est montré.

Exercice 4.1. Quel est le polynôme caractéristique d' une matrice triangulaire supérieure
(aij )?

Exercice 4.2. Si A et B sont des matrices carrées de même ordre et si B est inversible,
pourquoi A et BAB −1 ont ils le même polynôme caractéristique ? pourquoi AB et BA ont
ils le même polynôme caractéristique ?

Exercice 4.3. Si A et B sont des matrices carrées de même ordre q (cette fois ci B n'est
pas nécessairement inversible), montrer que AB et BA ont même polynôme caractéristique.
Méthode : les déterminants des deux matrices par blocs suivantes
     
A XIq B −XIq B −XIq A XIq
,
Iq 0 −Iq A −Iq A Iq 0
20 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

sont les mêmes. Appliquer alors la Proposition 2.3.

Exercice 4.4. On considère la matrice réelle


 
3 −2 −1
A =  3 −1 1 .
6 3 −2
Calculer son polynôme caractéristique et son carré. En utilisant Cayley Hamilton, trouver son
inverse.

Exercice 4.5. Soit C une matrice carrée d'ordre q. Montrer


P à l'aide de la formule
0
de Laplace
du Théorème 2.4 que son polynôme caractéristique est T ⊂{1,...,q} (−X)
|T |
det CT , où |T 0 |
est le nombre d'éléments du complémentaire T 0 de T.

Exercice 4.6. Soit (a1 , . . . , aq ) et (b1 , . . . , bq ) dans K qet la matrice


 
a1 b 1 a2 b 1 ... aq b1
 a1 b 2 a2 b 2 ... aq b2 
M =
 ... ...
.
... ... 
a1 b q a2 b q ... aq bq
Trouver sans calculs le polynôme caractéristique de cette matrice
 en l'interprétant comme la matrice représentative [ϕ]ee de l'endomorphisme ϕ de l'exercice
3.5 ;
 en appliquant la formule de Laplace du théorème 2.4 au couple (M, −XIq ) et en remar-
quant que M est de rang 1.

Exercice 4.7. Soit, pour j = 1, . . . , k ≤ q les kP


matrices colonnes aj = (a1j , . . . , aqj )T
de K . Si S ⊂ {1, . . . , q} on convient aj (S) =
q
i∈S aij . On considère alors la matrice
carrée C = [c1 , . . . , cq ] sur K dont les colonnes cj sont prises dans l'ensemble de colonnes
{a1 , . . . , ak }. On note Si = {j ; cj = ai }, mij = ai (Sj ) et M = (mij )1≤i,j≤k . Montrer que
det(C − XIq ) = (−X)q−k det(M − XIk ).
Méthode : pour k = 2, c'est une reformulation de l'exercice 2.8.

V La diagonalisation et le polynôme minimal


Voici la partie la plus utile du chapitre. Nous commencons par appliquer le Théorème
3.1 et la Proposition 4.1 à des exemples.

Exemple 5.1 : On prend K = R l'espace E de dimension 3, une base e et un endomor-


phisme a de E tel que A = [a]ee soit égal à
 
5 −6 −6
A =  −1 4 2 . (5.10)
3 −6 −4
V. LA DIAGONALISATION ET LE POLYNÔME MINIMAL 21
Nous allons rechercher les valeurs propres et espaces propres de a. Ceci repose sur des
techniques de première année, en particulier la résolution des systèmes linéaires homo-
gènes. On a par calcul Pa (X) = −X 3 + 5X 2 − 8X + 4. Une racine évidente est 1. Pour
trouver les autres racines on fait la division euclidienne de −X 3 + 5X 2 − 8X + 4 par X − 1
pour voir que le quotient est −X 2 + 4X − 4 = −(X − 2)2 . Donc a a deux valeurs propres
qui sont 1 et 2. Cherchons une base des espaces propres E1 et E2 . Pour E1 c'est donc
rechercher les vecteurs v de E avec v = xe1 + ye2 + ze3 où V = (x, y, z)T ∈ R3 satisfait
au système linéaire AV = V ou encore

5x −6y −6z = x
−x +4y +2z = y
3x −6y −4z = z
et, de facon équivalente
4x −6y −6z = 0
−x +3y +2z = 0
3x −6y −5z = 0
On a un système homogène, qui a évidemment une solution non triviale, car le déterminant
de A − I3 est nul (puisque 1 est valeur propre). Pour trouver toutes les solutions on
détermine d'abord le rang de la matrice A − I3 du système. Les deux premières lignes
4 −6
et colonnes fournissent le déterminant d'ordre 2 non nul = 18. Le rang est
−1 3
donc 2, et de plus on peut prendre pour équations principales les deux premières, et pour
inconnues principales les variables x et y . Poursuivant les techniques de première année
on fait passer au second membre l'inconnue non principale z et on résout le système de
Cramer
4x −6y = 6z
−x +3y = −2z
et on obtient x = z et y = −z/3. Nous avons ainsi paramétré l'espace propre par l'inconnue
non principale. On remarque que E1 est de dimension 1. Une base de E1 est obtenue
en prenant par exemple z = 3 et la base de E1 est formée de l'unique vecteur f1 =
3e1 − e2 + 3e3 .
Passons à E2 . On recherche donc les vecteurs v de E avec v = xe1 + ye2 + ze3 où
V = (x, y, z)T ∈ R3 satisfait au système linéaire AV = 2V ou encore (A − 2I3 )V = 0, ou
encore

3x −6y −6z = 0
−x +2y +2z = 0
3x −6y −6z = 0
Cette fois ci, le rang de A − 2I3 est 1. On peut prendre la première équation pour équation
principale, et x pour inconnue principale. Le système de Cramer se réduit à l'unique
équation
3x = 6y + 6z.
22 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

L'espace propre E2 est de dimension 2 et est paramétré par les deux inconnues non
principales y et z . C'est un plan d'équation x = 2(y + z). Une base de E2 est donc obtenue
par exemple en prenant (y, z) = (1, 0) et (0, 1), fournissant les vecteurs f2 = 2e1 + e2 et
f3 = 2e1 + e3 . Il est clair que f2 et f3 sont indépendants. Insistons sur le fait que le choix
d'une base d'un espace propre a un caractère arbitraire.
A ce point rappelons que le Théorème 3.1 garantit que E1 et E2 sont en somme directe.
Comme E1 est de dimension 1, E2 de dimension 2 et E de dimension 3 on a E = E1 ⊕ E2 .
Donc f = (f1 , f2 , f3 ) est une base de E , de matrice de changement de base
 
3 2 2
P = [idE ]ef =  −1 1 0  .
3 0 1

Si on décide de représenter a dans cette nouvelle base f, le résultat est immédiat : [a]ff
doit être diagonale et est égale à
 
1 0 0
[a]ff = D =  0 2 0  .
0 0 2

Si on calcule P −1 par les techniques standard on obtient


 
−1 2 2
P −1 = [idE ]fe =  −1 3 2 .
3 −6 −5

D'après le Théorème 1.1 (3) on a [a]ee = [idE ]ef [a]ff [idE ]fe = P −1 DP ou encore
   
3 2 2 1 0 0 −1 2 2
A =  −1 1 0   0 2 0   −1 3 2 .
3 0 1 0 0 2 3 −6 −5

Un des avantages de la représentation dans une base f de vecteurs propres est que le calcul
de la représentation matricielle [ak ]ff = Dk est immédiat, et donc [ak ]ee = Ak = P Dk P −1
se calcule moins péniblement.

Exemple 5.2 : On prend K = R l'espace E de dimension 2, une base e et un endomor-


phisme a de E tel que A = [a]ee soit égal à
 
0 1
A= . (5.11)
0 0

Ici, le polynôme caractéristique Pa (X) est X 2 , et la seule valeur propre est 0. Des calculs
conduits comme à l'exemple 5.1 montrent que l'espace propre E0 est de dimension 1 et
est engendré par e1 . Cet exemple montre que la somme directe des espaces propres n'est
pas forcément égale à tout E. Il montre aussi que l'armation B = P AP −1 ⇒ PA = PB
V. LA DIAGONALISATION ET LE POLYNÔME MINIMAL 23
a une réciproque fausse : Prendre A comme en (5.11) et prendre pour B la matrice nulle
d'ordre 2.

Exemple 5.3 : On prend pour K le corps C des complexes. On se xe un nombre réel
θ. On prend l'espace E de dimension 2, une base e et un endomorphisme a de E tel que
[a]ee soit égal à  
cos θ − sin θ
R(θ) = (5.12)
sin θ cos θ
On a Pa (X) = X 2 − 2 cos θX + 1 et les valeurs propres sont complexes et égales à cos θ ±
i sin θ = e±iθ . Si θ est un multiple de π alors a = ±idE n'a que la valeur propre ±1 et E
est l'espace propre. Si θ 6≡ 0 mod π, alors l'espace propre Eeiθ est de dimension 1 et est
engendré par f1 = e1 + ie2 et l'espace propre Ee−iθ est de dimension 1 et est engendré
par e1 − ie2 . Mais par souci de symétrie, nous prenons plutôt un vecteur f2 obtenu  en

1 i
multipliant le précédent par i, soit f2 = ie1 +e2 . Si f = (f1 , f2 ) alors P = [idE ]f =
e

  i 1
1 −i
et donc P −1 = [idE ]fe = 21 . Ici les vecteurs propres forment une base de E et
 iθ  −i 1
e 0
si [a]ff = D = on aura
0 e−iθ
   iθ  
1 1 i e 0 1 −i
R(θ) = .
2 i 1 0 e−iθ −i 1

Exemple 5.4 : On prend K = R. On se xe un nombre réel θ 6≡ 0 mod π. On prend


l'espace E de dimension 2, une base e et un endomorphisme a de E tel que [a]ee = R(θ)
déni par (7.12). Puisque qu'alors Pa (X) = X 2 − 2 cos θX + 1 n'a pas de racines réelles,
nous avons un exemple d'endomorphisme qui n'a pas de valeurs propres, et donc pas de
vecteurs propres. Au chapitre des espaces euclidiens, nous verrons que si e est une base
orthonormale alors a est une rotation d'angle θ et qu'il n'est pas surprenant de ne pas
avoir de vecteur dont la direction serait conservée par a.

Dénition 5.2 : Si E est de dimension nie, alors a dans L(E) est dit diagonalisable si
il existe une base f de E telle que [a]ff soit une matrice diagonale. On dit qu'une matrice
carrée A d'ordre q sur le corps K est diagonalisable si elle représente un endomorphisme
diagonalisable, c'est à dire si il existe E , a ∈ L(E) et une base e tels que A = [a]ee , avec a
diagonalisable.

Remarques : Il est évident que si [a]ff est diagonale, alors fj est un vecteur propre de a,
et qu'il est associé à la valeur propre dj , le j ième élément de la diagonale. Les exemples
5.1 et 5.3 sont diagonalisables. Comme on l'a vu, les endomorphismes diagonalisables sont
très faciles à manier une fois écrits dans une base de diagonalisation (celle ci n'est pas
unique). Nous allons donner dans la suite des conditions nécessaires et des conditions
susantes de diagonalisabilité. Par exemple, on se doute que les exemples 5.2 et 5.4 ne
sont pas diagonalisables.
24 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Dénitions 5.3 : On dit qu'un polynôme P sur le corps K est scindé3 si il est le produit
de polynômes de degré 1. En particulier, si K = R si deg P = q, alors P est scindé si P a
toutes ses racines réelles. On dit qu'un polynôme P non nul est monique 4 si le coecient
du terme de plus haut degré est 1.

Proposition 5.1. Soit E de dimension nie sur K et a ∈ L(E). Alors


1. a est diagonalisable ⇔ E a une base de formée de vecteurs propres de a ⇔ E est la
somme directe des espaces propres de E.
2. Si dim E = q et si Pa a q racines dans K distinctes, alors a est diagonalisable. De
plus, tous les espaces propres sont de dimension 1.
3. Si a est diagonalisable de spectre {λ1 , . . . , λp }, la dimension de l'espace propre Eλj
mp
est égale à la multiplicité mj de la racine λj de Pa . De plus det a = λm 1 . . . λp .
1

4. Si a est diagonalisable, alors Pa est scindé.

Démonstration : (1) Très facile. Le travail est fait par le Théorème 3.1.
(2) S'il y a q valeurs propres λj , et puisque tout espace propre est de dimension ≥ 1, alors

q = dim E ≥ dim(Eλ1 + · · · + dim Eλq ) ≥ q.

Ceci entraîne que ces inégalités deviennent des égalités. Donc E = Eλ1 ⊕ · · · Eλq et
dim Eλj = 1 pour tout j.
(3) et (4) Si f est une base de diagonalisation de a, alors D = [a]ff s'écrit par blocs :
 
λ1 Im1 ... 0
 0 ... 0
(5.13)

D=
 ...
.
... ... 
0 . . . λp Imp .

Pour (4) il sut d'écrire que Pa (X) = det([a]ff − XIq ).

La n de cette section et les sections suivantes sont relativement diciles (et consi-
dérées en partie comme hors du programme d'une classe de Mathématiques Spéciales au
lycée) et d'une utilité pratique plus modeste. Elles donnent une meilleure maitrise de l'al-
gèbre linéaire, et nous suivrons une tradition universitaire vénérable en les exposant. Le
Théorème 4.2 fournit une condition nécessaire et susante de diagonalisabilité de a en
termes du polynôme minimal de a. Nous allons réactiver la notion de polynômes annula-
teurs d'un endomorphisme a ∈ L(E) introduite avant le Théorème de Cayley Hamilton
3.2.

Théorème 5.2. Soit E de dimension nie sur K et a ∈ L(E). Soit I(a) l'ensemble des
polynômes sur K tels que P (a) = 0.
3 D'autres disent dissocié.
4 D'autres disent unitaire.
V. LA DIAGONALISATION ET LE POLYNÔME MINIMAL 25
1. Il existe un polynôme monique unique ma (appelé polynôme minimal de a) dans
I(a) tel que tout P de I(a) soit un multiple de ma .
2. Toute valeur propre de a est racine de ma .
3. a est diagonalisable si et seulement si ma est scindé et n'a que des racines simples.

Remarques : Le polynôme ma est dit minimal car c'est le polynôme monique de plus
bas degré de I(a). Le polynôme caractéristique Pa est dans I(a) d'après la propriété de
Cayley Hamilton et donc ma divise Pa . Le fait que I(a) ne soit pas réduit à 0 se déduit de
Cayley Hamilton certes, mais peut être montré d'une manière plus élémentaire : puisque
L(E) est un espace vectoriel de dimension nie n = (dim E)2 , alors les n + 1 vecteurs
de L(E) formés par idE , a, a2 , . . . , an sont dépendants, c'est à dire qu'on peut trouver des
éléments c0 , . . . , cn dans K non tous nuls tels que

c0 idE + c1 a + · · · + cn an = 0,

c'est à dire encore que P (X) = c0 + c1 X + · · · + cn X n dénit un élément non nul de I(a).
Il n'y a pas d'algorithme pour calculer ma en dehors de sa dénition : il faut rechercher
le diviseur ma non nul de Pa de plus bas degré tel que ma (a) = 0. Toutefois la recherche
de ma est plus ou moins simple suivant la base dans laquelle on représente a. L'exemple
4.1 est instructif. On sait que Pa (X) = −(X − 1)(X − 2)2 et le théorème précédent dit
que ma (X) = (X − 1)(X − 2) car a est diagonalisable (et donc les racines de ma sont
simples) et toutes les racines de Pa doivent être présentes. Enn, avec les bases e et f de
l'exemple 4.1, il est beaucoup plus facile de vérier que ([a]ff − I3 )(([a]ff − 2I3 ) = 0 que
([a]ee − I3 )(([a]ee − 2I3 ) = 0.
Une utilisation fréquente du Théorème 5.2 est la suivante : si a est tel qu'il existe un
polynôme scindé à racines simples satisfait P (a) = 0, alors a est diagonalisable. En eet
P ∈ I(a) et donc ma divise P. Comme P est scindé et à racines simples, il en va de même
pour ma et le théorème s'applique.
Un exemple important est celui des projections : Rappelons qu'en première année on a
dit que le sous espace vectoriel F 0 de E est un supplémentaire du sous espace vectoriel F
de E si F + F 0 = E et si F ∩ F 0 = {0}, autrement dit E = F ⊕ F 0 . Si x ∈ F et x0 ∈ F 0 le
procédé a qui envoie x+x0 sur x est appelé projection de E sur F parallèlement à F 0 . Il est
clair que a2 = a. Inversement soit a ∈ L(E) tel que a2 = a. Alors a est une projection. En
eet, d'après le Théorème 5.2 si a2 = a alors P (a) = 0 avec P (X) = X 2 − X = X(X − 1) :
les valeurs propres de a sont dans {0, 1} et a est diagonalisable. On prend alors pour F
l'espace propre de la valeur propre 1 et pour F 0 l'espace propre de la valeur propre 0. Le
cas où 0 n'est pas valeur propre est a = idE et celui où 1 n'est pas valeur propre est a = 0.

Exemple 5.5 : On reprend les notations de l'exemple des matrices circulantes de la


section 3. Il est facile de voir que Rq = Iq . Ce ci montre déjà que le polynôme X q − 1 est
dans l'idéal I(r). Pour en déduire que le polynôme minimal de r est mr (X) = X q − 1
observons que si mr est de degré plus petit alors la matrice mq (R) est nulle ce qui contredit
3.7. Donc polynômes minimal et caractéristique coïncident ici :

Pr (X) = mr (X) = X q − 1.
26 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

On en déduit si K est le corps de complexes C que les valeurs propres de r et R sont les
2ikπ
q racines de l'unité e q avec k = 0, . . . , q − 1.
Une conséquence très utile est que les valeurs propres de la matrice circulante P (R)
2ikπ
de 3.7 sont les q nombres complexes P (e q ) avec k = 0, . . . , q − 1.

Démonstration du Théorème 5.2 : (1) On observe que I(a) est un idéal de l'algèbre
K[X] des polynômes sur K , ce qui signie que I(a) est un sous espace vectoriel de K[X]
tel que de plus QP ∈ I(a) pour tout polynôme Q ∈ K[X] et tout polynôme P ∈ I(a).
Il a été vu en première année qu'alors il existe ma dans I(a) unique avec les propriétés
annoncées.
(2) Si λ est une valeur propre de a et si ma (λ) 6= 0, alors en écrivant

ma (X) = b0 + b1 (X − λ) + b2 (X − λ)2 + . . . + bp (X − λ)p

on a b0 6= 0. Comme ma (a) = 0 cela entraîne

0 = b0 idE + b1 (a − λidE ) + b2 (a − λidE )2 + . . . + bp (a − λidE )p ,


b1 b2 bp
(a − λidE )[− idE − (a − λidE ) + . . . − (a − λidE )p−1 ] = idE .
b0 b0 b0
Donc a − λidE est inversible et de noyau réduit à 0, ce qui contredit le fait que λ soit une
valeur propre.
(3) ⇒ Si a est diagonalisable, soit f une base de diagonalisation, soit λ1 , . . . , λp les valeurs
propres distinctes de a et soit m1 , . . . , mp les dimensions respectives des espaces propres
(c'est à dire les multiplicités des racines du polynôme caractéristique) On a q = dim E =
m1 + · · · + mp . Alors D = [a]ff s'écrit par blocs comme en (5.13). Alors on en déduit
 
(λ1 − λ1 )Im1 . . . 0
 0 ... 0 
D − λ1 Iq =  ,
 ... ... ... 
0 . . . (λp − λ1 )Imp

et on voit que (D − λ1 Iq ) . . . (D − λ1 Iq ) = 0. C'est dire que (X − λ1 ) . . . (X − λp ) est un


polynôme de I(a). D'après le (2), c'est ma .
(3) ⇐ Cette partie est plus coriace et utilise le résultat suivant, dit lemme des noyaux, et
qui resservira :

Théorème 5.3. Soit Q1 , . . . , Qp des polynômes sur K deux à deux premiers entre eux,
P = Q1 . . . Qp et a ∈ L(E). Alors les ker Qj (a) sont en somme directe et

ker P (a) = ker Q1 (a) ⊕ · · · ⊕ ker Qp (a).

Acceptons ce théorème quelques instants pour achever la démonstration du Théorème


5.2 : si ma (X) = (X − λ1 ) . . . (X − λp ) on applique le Théorème 5.3 aux Qj (X) = X − λj .
Comme ker ma (a) = E et que ker Qj (a) = Eλj on a E = Eλ1 ⊕ · · · ⊕ Eλp et E est somme
directe des espaces propres de a : c'est dire que a est diagonalisable.
V. LA DIAGONALISATION ET LE POLYNÔME MINIMAL 27
Démonstration du Théorème 5.3. On suppose d'abord p = 2. On applique le lemme
de Bézout (voir cours de 1 ère année) qui dit que puisque Q1 et Q2 sont premiers entre
eux alors il existe deux polynômes P1 et P2 tels que

1 = P1 (X)Q1 (X) + P2 (X)Q2 (X),


idE = P1 (a)Q1 (a) + P2 (a)Q2 (a),
x = P1 (a)Q1 (a)(x) + P2 (a)Q2 (a)(x). (5.14)

Dans (5.14) prenons x ∈ ker Q1 (a) ∩ ker Q2 (a) : (5.14) entraîne qu'alors x = 0 et
donc ker Q1 (a) et ker Q2 (a) sont en somme directe. Ensuite, si x ∈ ker Q1 (a)Q2 (a) =
ker(Q1 Q2 )(a), notons xj = Pj (a)Qj (a)(x). Alors x1 ∈ ker Q2 (a), puisque Q2 (a)(x1 ) =
Q2 (a)P1 (a)Q1 (a)(x) = P1 (a)Q1 (a)Q2 (a)(x) = 0 par dénition de x. De même x2 ∈
ker Q1 (a). Enn x = x1 + x2 par (5.14). Donc :
ker(Q1 Q2 )(a) ⊂ ker(Q1 )(a) ⊕ ker(Q2 )(a).
Pour montrer que cette inclusion est en fait une égalité, prenons xj = ker Qj (a) avec
j = 1, 2 et appliquons Q1 (a)Q2 (a) à x1 + x2 :
Q1 (a)Q2 (a)(x1 + x2 ) = Q2 (a)Q1 (a)(x1 ) + Q1 (a)Q2 (a)(x2 ) = 0 + 0.
Donc
ker(Q1 Q2 )(a) ⊃ ker(Q1 )(a) ⊕ ker(Q2 )(a),
et le théorème est montré pour p = 2.
Pour terminer, on procède par récurrence sur p. Rappelons d'abord le lemme de Gauss :
si P, Q, R sont des polynômes tels que R divise P Q et R soit premier avec Q, alors R
divise P (démonstration : par Bézout il existe Q1 et R1 tels que QQ1 + RR1 = 1; comme
P Q = RS alors QS1 = S avec S1 = SQ1 + P R1 ; d'où P Q = RQS1 et P = RS1 ).
Ensuite, on observe que si k ≤ p si R divise Q1 . . . Qk et si R est premier avec chaque Qj ,
j = 1, . . . , k, alors R est constant. En eet, en appliquant le lemme de Gauss au couple
(Q1 . . . Qk−1 , Qk ), R divise Q1 . . . Qk−1 . De même R divise Q1 . . . Qk−2 , etc jusqu'à Q1 ,
d'où le résultat. Ce résultat entraîne que Q1 . . . Qk−1 et Qk sont premiers entre eux.
Supposons alors le théorème vrai pour p−1 et montrons le pour p. Puisque Q1 . . . Qp−1
et Qp sont premiers entre eux, le cas p = 2 déjà traité entraîne

ker(Q1 . . . Qp )(a) = ker(Q1 . . . Qp−1 )(a) ⊕ ker Qp (a).


Il reste à appliquer l'hypothèse de récurrence à ker(Q1 . . . Qp−1 )(a) et la démonstration
du lemme des noyaux est achevée.

Exercice 5.1. Quel est le polynôme minimal de l' endomorphisme nul ? De a = λidE ?
Exercice 5.2. Montrer que l'endomorphisme A 7→ AT de l'exercice 3.4 est diagonalisable,
et calculer son déterminant en fonction de q au moyen de la Proposition 5.1, partie 3.

Exercice 5.3. Soit E et F des espaces de dimension nie sur K. Soit a ∈ L(E) diagonalisable
et ϕa l'application linéaire de L(E, F ) dans lui même dénie par b 7→ ϕa (b) = b◦a. Montrer que
28 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

ϕa est a les mêmes valeurs propres que a et en déduire que det ϕa = (det a)dim F (Méthode :
prendre une base e de diagonalisation de a et une base quelconque f de F , noter D = [a]ee et
B = [b]fe et examiner l'endomorphisme de l'espace des matrices (p, q) déni par B 7→ BD).

Exercice 5.4. Montrer que ϕ déni à l'exercice 3.5 est diagonalisable si et seulement si
a(b) 6= 0.

Exercice 5.5. Soit E un espace vectoriel complexe de dimension q et soit a et b dans L(E)
de spectres disjoints, c'est à dire que les polynômes caractéristiques Pa et Pb sont premiers
entre eux. Montrer que Pb (a) est inversible (appliquer le lemme des noyaux à a et à Pa Pb ). On
pose ensuite F = L(E) et on considère ϕ ∈ L(F ) déni pour tout x ∈ F par ϕ(x) = ax − bx.
Montrer que ker ϕ = {0} (Méthode : soit x0 ∈ F tel que ax0 = x0 b; montrer que pour tout
polynôme Q on a Q(a)x0 = x0 Q(b) et appliquer cela à Q = Pb ). Soit enn A et B des
matrices carrées complexes d'ordre q ayant une valeur propre commune λ et soit U et V des
matrices colonnes non nulles d'ordre q telles que AU = λU et B T V = λV. Si X = U V T
calculer AX − XB.. En déduire le théorème de Liapounov : pour tout c ∈ L(E) il existe un
unique x ∈ L(E) tel que ax − xb = c si et seulement si a et b ont des spectres disjoints.

Exercice 5.6. Soit M l'espace vectoriel des matrices (n, n) à coecients dans le corps de
complexes C. Si 1 ≤ k, l ≤ n, la matrice Ekl de M est la matrice (xij ) telle que xij = 0 si
(i, j) 6= (k, l) et xkl = 1. Donc e = (E11 , E12 , E13 , . . . , Enn ) forme une base de M. Si A est
xé dans M et si X ∈ M on pose ϕA (X) = AX − XA. Ceci dénit donc un endomorphisme
ϕA de M. Le but de l'exercice est de montrer que ϕA est diagonalisable si et seulement si A
est diagonalisable. On se xe une matrice diagonale D = Diag(c1 , c2 , . . . , cn ) de M . Calculer
ϕD (Ekl ) pour 1 ≤ k, l ≤ n. En déduire les valeurs propres de ϕD en fonction de c1 , c2 , . . . , cn ,
et en déduire que ϕD admet une base de diagonalisation. On se xe de plus P ∈ M inversible.
Calculer ϕP DP −1 (P Ekl P −1 ) pour 1 ≤ k, l ≤ 3. En déduire les valeurs propres de ϕP DP −1 et
en déduire que ϕP DP −1 admet une base de diagonalisation. On suppose ensuite que ϕA admet
une base de diagonalisation (F1 , . . . , Fn2 ) correspondant aux valeurs propres (λ1 , . . . , λn2 )
satisfaisant ϕA (Fk ) = λk Fk pour k = 1, . . . , n2 . Pourquoi existe t-il V ∈ Cn non nul et un
complexe λ tel que AV = λV ? Calculer ϕA (Fk )V et en déduire que Fk V = (λk + λ)V.
Montrer que le fait que les (F1 , . . . , Fn2 ) forment une famille génératrice de M entraîne que
les (F1 V, . . . , Fn2 V ) forment une famile génératrice de Cn . En déduire que A admet une base
de diagonalisation.

Exercice 5.7. 5 Soit n un entier ≥ 2, soit J la matrice (n, n) dont tous les coecients sont
1 et soit In la matrice identité d'ordre n. On considère une matrice (n, n) symétrique réelle
A dont les coecients sont 0 ou 1, telle que trace A = 0 et telle qu'il existe un entier d > 0
avec
A2 + A − (d − 1)In = J. (∗)
Montrer que les éléments de la diagonale de A2 sont tous égaux à d. Montrer en prenant la
trace de (∗) que n = d2 +1. Montrer que si 1 = (1, . . . , 1)T alors A1 = d1, que (A−dIn )J = 0
5 Source : A.J. Homann Eigenvalues of graphs Studies in Graph Theory II, 225-245, D. Fulkerson
ed. Mathematical Association of America (1975).
VI. DIAGONALISATION SIMULTANÉE * 29
et que (X − d)(X 2 + X − (d − 1)) est polynôme annulateur de A. Si α et β sont les racines
de X 2 + X − (d − 1) montrer qu'il existe une matrice inversible P et des entiers positifs ou
nuls (nd , nα , nβ ) tels que si
D = diag(dInd , αInα , βInβ )
alors A = P DP −1 . Montrer que (nd , nα , nβ ) satisfait au systême linéaire
nd + nα + nβ = d2 + 1, dnd + αnα + βnβ = 0, d2 nd + α2 nα + β 2 nβ = d(d2 + 1)
(Méthode : comparer trace A et trace A2 à trace D et trace D2 ). En déduire nd = 1 et nα =
1
β−α
d(dβ + 1). Montrer enn que d ∈ {1, 2, 5, 7, 57} (Méthode : observer que nα est entier,
que √
(2nα − d2 ) 4d − 3 = d(2 − d)

et que s = 4d − 3 doit être entier si d 6= 2, et en déduire que dans ce cas s divise 15.
Préciser dans les 5 cas les polynômes caractéristique et minimal de A. On ne sait pas si A
existe pour d=57 et n=3250.

VI Diagonalisation simultanée *
Cette section contient un résultat très utile6 .

Théorème 6.1. Soit E de dimension nie et soit A un sous ensemble de L(E) formé
d'endomorphismes tous diagonalisables et qui commutent deux à deux entre eux. Alors il
existe une base e de E telle que pour tout a de A la matrice [a]ee soit diagonale.

Remarques : Il est essentiel de supposer que les éléments de A sont diagonalisables : des
endomorphismes
  non diagonalisables peuvent commuter. Par exemple pour E = R les
2

1 t
At = satisfont At+s = At As . Pourtant At n'est pas diagonalisable pour t 6= 0 :
0 1
son polynôme minimal serait X − 1, ce qui n'est pas, puisque At − I2 6= 0. Très souvent on
applique le théorème au cas où A est une algèbre, c'est à dire un sous espace vectoriel de
L(E) qui est de plus fermé pour la composition des endomorphismes. Nous n'utiliserons
ce résultat qu'une fois dans la suite du cours, et seulement pour une famille A à deux
éléments, pour montrer l'unicité de la décomposition de Dunford au Théorème 8.2.

Démonstration : Elle se fait en deux parties : le cas où A est ni ; le cas où A est inni.
Si A = {a1 , . . . , aN } soit Λj le spectre de aj et soit
(j)
(Eλj )λj ∈Λj
la famille des espaces propres de aj . Pour k xé dans {1, . . . , N } on note Λk = Λ1 ×. . .×Λk ,
dont un élément typique est noté λk = (λ1 , . . . , λk ). Enn on note
k
\ (j)
Fλk = Eλj
j=1

6 Une section ou un énoncé marqués d'une étoile * ne sont pas traités en cours et sont là pour la
culture.
30 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

(Fλk peut être réduit à zéro) et on note par Bk la réunion de tous les espaces Fλk . Nous
montrons alors par récurrence sur k le résultat suivant
1. Il existe une base e contenue dans Bk ;
2. Pour toute base e contenue dans Bk , alors [a1 ]ee , . . . , [ak ]ee sont diagonales.
L'application à k = N donnera le résultat voulu dans le cas où A est ni. L'hypothèse
de récurrence est vériée pour k = 1, d'après la Proposition 5.1. Supposons la vérifée à
un ordre k < N xé et montrons qu'elle est vraie à l'ordre k + 1.
Pour simplier la notation, xons λk = (λ1 , . . . , λk ) dans Λk et notons F = Fλk . Alors
 F est stable par ak+1 , c'est à dire que ak+1 (F ) ⊂ F. En eet, si x ∈ F, alors pour
j ≤ k on a, puisque aj et ak+1 commutent :

aj ◦ ak+1 (x) = ak+1 ◦ aj (x) = λj ak+1 (x),

ce qui est dire que ak+1 (x) est un vecteur propre de aj pour la valeur propre λj .
(j)
Donc ak+1 (x) ∈ Eλj pour tout j ≤ k, donc ak+1 (x) ∈ F.
 Soit b la restriction de ak+1 à F et soit m = mak+1 le polynôme minimal de ak+1
(relativement à E, non au sous espace stable F ). Si x ∈ F, la dénition du polynôme
minimal entraîne
0 = m(ak+1 ), 0 = m(ak+1 )(x) = mb (x)
et donc m(b) = 0. On en déduit que le polynôme minimal mb divise m. Or m est
scindé et n'a que des racines simples (Théorème 5.2 appliqué à ak+1 diagonalisable).
Donc b est diagonalisable sur F par le même théorème. Enn, x ∈ F est un vecteur
propre de b si et seulement si x est dans
\ [
F = F ∩ Bk+1 .
λk+1 ∈Λk+1

F admet donc une base contenue dans Bk+1 , qui diagonalise b.


Revenons aux Fλk en général. D'après l'hypothèse de récurrence, partie 1), on a
M
E= Fλk .
λk ∈Λk

Comme chaque Fλk avait une base contenue dans Bk+1 , E a donc une base contenue dans
Bk+1 .
On a vu d'autre part que toute base contenue dans Bk+1 diagonalise ak+1 . Enn,
Bk ⊃ Bk+1 par dénition, et donc d'après l'hypothèse de récurrence partie 2), toute base
contenue dans Bk+1 diagonalise a1 , a2 , . . . , ak+1 , ce qui achève la démonstration quand A
est ni.
Si A est inni, soit A0 = {a1 , . . . , aN } ⊂ A tel que A0 soit une base du sous espace de
L(E) engendré par A. Appliquons la première partie à A0 : si e est une base qui diagonalise
les éléments de A0 , elle diagonalise les éléments de A, qui sont des combinaisons linéaires
de A0 , et la démonstration est complète.
VII. TRIANGULARISATION ET NILPOTENCE 31

VII Triangularisation et nilpotence


Il y a des des endomorphismes qu'il est impossible de diagonaliser (voir exemples 5.2
et 5.4). La prochaine catégorie d'endomorphismes à considérer sont ceux pour lesquels
il existe une base dans laquelle la matrice représentative est triangulaire supérieure : les
puissances successives d'une matrice triangulaire sont un peu plus diciles à calculer que
celles des matrices diagonales et beaucoup moins que celles d'une matrice quelconque.
La proposition suivante en donne la caractérisation attendue : il faut et il sut que le
polynôme caractéristique soit scindé : par exemple tout endomorphisme sur un espace
de dimension nie sur le corps K = C est triangularisable. La proposition recèle aussi un
algorithme relativement rapide pour construire une base de triangularisation.

Proposition 7.1. Si E est de dimension nie et si a ∈ L(E), alors il existe une base e
telle que [a]ee soit triangulaire supérieure si et seulement si le polynôme caractéristique Pa
est scindé.

Démonstration : ⇒ Si A = [a]ee = (aij ) est triangulaire supérieure alors il est clair (voir
la Proposition 2.3) que

Pa (X) = det(A − XIq ) = (a11 − X) . . . (aqq − X).

⇐ On procède par récurrence sur la dimension q de E. C'est trivial pour q = 1. Supposons


le résultat vrai pour q − 1. Puisque Pa est scindé, a a au moins une valeur propre qu'on
note a11 associée à un vecteur noté e1 . Complétons e1 en une base f = (e1 , f2 . . . , fq ).
Alors [a]ff s'écrit par blocs
 
f a11 B
[a]f =
0 A
avec A matrice carrée d'ordre q − 1 et B matrice ligne d'ordre q − 1. L'interprétation
géométrique de A et B est la suivante : soit F le sous espace vectoriel de E engendré par
f 0 = (f2 , . . . , fq ), soit p la projection de
 E sur F parallèlement à Keq et soit a1 : F → E
B 0
la restriction de a à F. Alors [a1 ]ef 0 = et [p ◦ a1 ]ff 0 = A. D'après la Proposition 2.3,
A
Pa (X) = (aqq − X) det(A − XIq−1 ). Donc

Pp◦a1 (X) = det(A − XIq−1 )

est scindé lui aussi et on peut appliquer l'hypothèse de récurrence. Il existe donc une
0 0
base e0 de F telle que [p ◦ a1 ]ee0 = T soit triangulaire. Notons P = [idF ]fe0 . On a donc
P −1 AP = T. La base e = {e1 } ∪ e0 satisfait alors (Théorème 1.1) :

     
1 0 a11 B 1 0 a11 BP
[a]ee = [idE ]ef [a]ff [idE ]fe = =
0 P −1 0 A 0 P 0 T

et la proposition est montrée.


32 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Dénition 7.1. Un endomorphisme n de l'espace de dimension nie E tel que il existe


un entier k > 0 avec n = 0 est dit nilpotent.
k

Remarques : Un endomorphisme nilpotent n d'un espace de dimension q a un polynôme


annulateur de la forme X k . Son polynôme minimal est donc de la forme X p et l'entier p
est appelé l'indice de nilpotence de n. On a donc np−1 6= 0 et np = 0. On a aussi p ≤ q et
donc toujours nq = 0.

Proposition 7.2. Soit n un endomorphisme d'un espace vectoriel E de dimension nie.


Alors n est nilpotent si et seulement si il existe une base f de E telle que [n]ff soit
triangulaire supérieure et telle que la diagonale de [n]ff soit nulle.

Démonstration : ⇒ Le polynôme minimal de mn est donc une puissance de X . Donc


le polynôme caractéristique de n est Pn (X) = (−1) X q , il est scindé et on peut appliquer
q

la proposition précédente. ⇐ Pour 0 ≤ k soit Tkq l'espace des matrices t = (tij )1≤i,j≤q
triangulaires supérieures sur K telles que tij 6= 0 entraîne i − j = k. Par exemple on
obtient les matrices diagonales si k = 0 et la matrice nulle si k ≥ q. Si A ∈ Tkq et A0 ∈ Tkq0
q f
on voit que AA0 ∈ Tk+k 0 Si alors N = [n]f est triangulaire supérieure avec diagonale nulle,

on écrit N = q−1 q Pq−1


k=1 Nk avec Nk ∈ Tk . Alors N = ( k=1 Nk ) est somme de termes de la
q q
P
forme Nk1 . . . Nkq . Si s = k1 + . . . + kq alors Nk1 . . . Nkq est dans Tsq . Comme kj ≥ 1 on
a s ≥ q, et on a vu que le seul élément de Tsq pour s ≥ q est 0. Donc N q = 0 et n est
nilpotent.

Pour conclure cette section, mentionnons une application de la triangulation à l'ana-


lyse :

Proposition 7.3. Si E est un espace complexe de dimension nie et soit a ∈ L(E).


Alors il existe une suite an ∈ L(E) telle que limn an = a et an est diagonalisable. De plus,
si a est inversible, on peut choisir les an inversibles.

Démonstration :
Si a est diagonalisable, on prend an = a. Sinon, soit f une base de triangularisation de
b (qui existe toujours, puisque K = C et donc Pb est scindé). Soit A = D + N = [a]ff avec
D diagonale et N triangulaire supérieure avec diagonale nulle. Soit J = diag(1, 2, . . . , q)
et An = A + n1 J. Alors les valeurs propres de An sont distinctes à partir d'un certain rang
et an déni par An = [an ]ff est diagonalisable. Il est clair que an tend vers a. De plus, la
construction montre que si a est inversible, alors les an ci dessus sont inversibles à partir
d'un certain rang.

Exercice 7.1. Utiliser la méthode de la démonstration de la Proposition


 7.1 pour triangulariser
1 −1
un endomorphisme a dont une matrice représentative est .
1 −1

Exercice 7.2. Soit b ∈ E et a ∈ L(E, K) = E ∗ tels que a(b) = 0. Calculer l'indice de


nilpotence de n ∈ L(E) déni par n(x) = ba(x).
VIII. ESPACES CARACTÉRISTIQUES ET DÉCOMPOSITION DE DUNFORD* 33
Exercice 7.3. Soit a ∈ L(E) et un entier k ≥ 1. Montrer que ker ak−1 ⊂ ker ak . Montrer
que si ker ak−1 = ker ak alors ker ak = ker ak+1 (Méthode : L'hypothèse entraîne que tout
y ∈ ker ak satisfait ak−1 (y) = 0. Appliquer cela à y = a(z) si z ∈ ker ak+1 ). Si n est nilpotent
d'indice de nilpotence p et Fk = ker nk , montrer que les (Fk )pk=0 sont tous distincts.

Exercice 7.4. 1) Utiliser la méthode de la démonstration de la Proposition


 7.1
 pour triangu-
4 −1
lariser un endomorphisme a dont une matrice représentative est A = . Une réponse
4 0
possible est
   
1 −1 2 −1 −1 1
A= .
2 −1 0 2 −2 1
   n 
2 −1 2 −an
Posant T = , calculer T =
n
. Méthode : montrer que an+1 = 2an +2n
0 2 0 2n
pour tout n avec a0 = 0. Pour en déduire an , faire le changement de suite inconnue an =
2n bn . et déterminer
 facilement bn . Calculer alors An à l'aide de tout ce qui précède. 2) Si
a b
M= est inversible on considère l'application hM de R ∪ {∞} dans lui même dénie
c d
par hM (x) = ax+bcx+d
avec les conventions h(M )(∞) = a/c et hM (−d/c) = ∞ si c 6= 0, et avec
h(M )(∞) = ∞ si c = 0. Vérier que hM (hM1 (x)) = hM M1 (x) si M et M1 sont inversibles,
et en déduire que si xn+1 = hM (xn ) alors xn = hM n (x0 ). 3) Si xn+1 = 1 − 4x1n calculer xn en
fonction de x0 . Méthode : appliquer le 2) à M = A et utiliser 1). Voir aussi la n de l'exercice
4.5 du chapitre 2.

VIII Espaces caractéristiques et décomposition de Dun-


ford*
Nous allons maintenant perfectionner la Proposition 7.1, qui était la triangularisation
du pauvre. Les bases de triangularisation sont loin d'être uniques. La décomposition de
Dunford que nous allons exposer maintenant met en évidence une triangularisation plus
intéressante. Voici d'abord une proposition technique :

Proposition 8.1. Soit E de dimension nie, a dans L(E) tel que Pa soit scindé, soit
n1 , . . . , np les multiplicités respectives des valeurs propres λ1 , . . . , λp dans le polynôme
minimal ma , et soit m1 , . . . , mp les multiplicités respectives des valeurs propres λ1 , . . . , λp
dans le polynôme caractéristique Pa . On considère les polynômes Qj de degré < nj dénis
par
p
1 X Qj (X)
= (8.15)
ma (X) j=1
(X − λj )nj

et on pose Pj (X) = Qj (X)(X − λj )−nj ma (X). Alors


34 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

1. Si δij = 0 pour i 6= j et δii = 1 on a


p
X
Pj (a) = idE , Pi (a)Pj (a) = δij idE , (a − λj idE )nj Pj (a) = 0. (8.16)
j=1

2. Les Fλj = ker(a − λj idE )nj , sont en somme directe et

E = Fλ1 ⊕ · · · ⊕ Fλj .

De plus, Pj (a) est la projection sur Fλj parallèlement à


L
i6=j Fλi .
3. Fλj = ker(a − λj idE ) mj
et dim Fλj = mj .

Remarques : L'existence des Qj est héritée de la décomposition en éléments simples de


la fraction rationnelle 1/ma vue en première année. En fait celle ci arme l'existence de
polynômes Ej de degrés nj et de valuation > 0 tels que
p
1 X 1
= Ej ( ).
ma (X) j=1
X − λj

On passe par réduction au même dénominateur de cette expression à (8.15).


Notons que mj ≥ nj par Cayley Hamilton et la dénition de ma . Notons que nj > 0
par le Théorème 5.2 partie 2. Le sous espace Fλj = ker(a − λj idE )nj est appelé l'espace
caractéristique associé à la valeur propre λj . Si on ne connait que le polynôme caractéris-
tique de a et non son polynôme minimal, la partie 3 de la Proposition permet de calculer
Fλj .

Démonstration : 1) En multipliant les deux côtés de (8.15) par ma on obtient pj=1 Pj (X) =
P
Pp
1 et donc j=1 Pj (a) = idE . Si i 6= j alors Pi (X)Pj (X) est divisible par ma et donc
Pp
Pi (a)Pj (a) = 0. Puisque Pi (a) = j=1 Pi (a)Pj (a) on en déduit Pi (a) = Pi (a) . Enn
2

(X − λj )nj Pj (X) est un multiple de ma et cela entraîne la troisième égalité de (8.16).


2) On applique le lemme des noyaux (Théorème 5.3) à ma (X) = (X −λ1 )n1 . . . (X −λp )np .
Ensuite si i 6= j, alors Pj (a)(F
P λi ) = {0} par dénition de Pj (a) et de Fλj . Enn si x ∈ Fλj
alors en appliquant idE = i Pi (a) à x on obtient Pj (a)(x) = x, ce qui montre que Pj (a)
est la projection indiquée.
3) On observe d'abord que Fλj est stable par a, c'est à dire que a(Fλj ) ⊂ Fλj . En eet si
x ∈ Fλj alors (a − λj idE )nj (x) = 0. Appliquons a aux deux membres de cette égalité, et
utilisons le fait que a et (a − λj idE )nj commutent : on obtient (a − λj idE )nj (a(x)) = 0.
C'est dire que a(x) ∈ Fλj . Appelons aj la restriction aj de a à Fλj . Choisissons alors une
e
base ej pour Fλj et notons Aj = [aj ]ejj . Si e = e1 ∪. . .∪ep alors [a]ee est la matrice diagonale
par blocs suivante :  
A1 0 . . . 0
 0 A2 . . . 0 
[a]ee =  ... ... ... ... .
 (8.17)
0 0 . . . Ap
VIII. ESPACES CARACTÉRISTIQUES ET DÉCOMPOSITION DE DUNFORD* 35
Notons aussi par dj la dimension de Fλj (rappelons qu'on cherche à montrer que dj = mj ).
n
Posons Bj = Aj −λi Idj . La dénition de Fλj entraîne que Bj j = 0 et donc que le polynôme
minimal de aj est une puissance de X − λj . Donc (Théorème 5.2, 2)) Paj (X) = (X − λj )dj .
Puisque d'après (8.17) on a Pa1 (X) . . . Pap (X) = Pa (X) on en tire

Pa (X) = (X − λ1 )d1 . . . (X − λp )dp = (X − λ1 )m1 . . . (X − λp )mp ,


mj
et on a bien dj = mj . Le fait que Fλj = ker(a − λj idE )mj vient de Bj = 0, qui vient de
n
Bj j = 0 puisque nj ≤ mj . La proposition est montrée.

Théorème 8.2. Soit E de dimension nie et a dans L(E) tel que Pa soit scindé. Alors
il existe un couple unique (d, n) d'endomorphismes de E tels que d soit diagonalisable, n
soit nilpotent, dn = nd et enn a = d + n. Dans ces conditions d et n sont des polynômes
d'endomorphismes de a, et il existe une base e de E telle que [d]ee soit diagonale et [n]ee
soit triangulaire supérieure.

Remarques : Cette décomposition unique a = d + n en diagonalisable plus nilpotent


qui commutent est de nos jours appelée la décomposition de Dunford de a. En fait elle est
plutôt due à Camille Jordan, né 100 ans plus tôt. Mais celui ci a encore beaucoup rané
son théorème en fournissant une description très précise des diérentes formes que peuvent
prendre les endomorphismes nilpotents, conduisant à ce qu'on appelle la décomposition de
Jordan. Toutefois, certains appellent Jordan ce que nous appelons Dunford ici. Finalement,
nous appelerons base de Dunford de a une base telle que [d]ee soit diagonale et [n]ee soit
triangulaire supérieure.
Si [a]ff est triangulaire supérieure, cela n'entraîne pas que f soit une base de Dunford.
En eet, supposons que D soit une matrice diagonale, que N soit une matrice triangulaire
supérieure et à diagonale nulle. La condition nécessaire et susante pour que DN = N D
est facile à obtenir. Sans perte de généralité, on peut supposer que D s'écrit par blocs,
avec des λj dans K tous distincts :
 
λ1 Im1 . . . 0
D= ... ... ... .
0 . . . λp Imp

Ecrivons aussi N = (Nij )1≤i,j≤p par blocs, tels que Nij a mi lignes et mj colonnes. Alors
DN − N D = (((λi − λj )Nij )1≤i,j≤p ). Par conséquent DN − N D = 0 si et seulement si
Nij = 0 pour i 6= j. Par exemple, si un endomorphisme a d'un espace réel de dimension 4
est représenté par
     
2 0 1 0 2 0 0 0 0 0 1 0
 0 2 0 1   0 2 0 0   0 0 0 1 
[a]ee = A = 
 0 0 2 0  =  0 0 2 0  +  0 0 0 0  = D + N,
     (8.18)
0 0 0 1 0 0 0 1 0 0 0 1

alors e n'est pas une base de Dunford : avec les notations précédentes on a p = 2, λ1 = 2,
λ2 = 1, m1 = 3, m2 = 1 et N12 = [0, 1, 0]T 6= 0, et donc D et N ne commutent pas.
36 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Démonstration : 1) Existence de la décomposition. On garde les notations de la Propo-


sition 8.1. On prend
p
X
d= λj Pj (a)
j=1

et n = a − d. Il est clair que d et n étant des polynômes en a, ils commutent. Pour voir
que d est diagonalisable, on prend une base ej pour Fλj et e = e1 ∪ . . . ∪ ep . Alors [d]ee est
la matrice diagonale par blocs suivante :
 
λ1 Im1 0 ... 0
 0 λ2 Im2 . . . 0 
[d]ee = 
 ...
. (8.19)
... ... ... 
0 0 . . . λp Imp
Pour voir que n est nilpotent on écrit grâce à la Proposition 8.1 partie 1 :
p p
X X
k
n= (a − λj idE )Pj (a), . . . , n = (a − λj idE )k Pj (a).
j=1 j=1

Comme (8.15) entraîne que si k ≥ mj pour tout j on a nk = 0, la nilpotence de n est


montrée.
2) Unicité de la décomposition. Si a = d+n, avec les d et n dénis ci dessus, et si a = d0 +n0
avec d0 diagonalisable, n0 nilpotent et d0 n0 − n0 d0 = 0, montrons qu'alors d = d0 (et donc
n = n0 ). D'abord, puisque d0 et n0 commutent, ils commutent avec leur somme a, et donc
avec tout polynôme en a, donc avec d et n, qui sont des polynômes en a. Puisque n et n0
commutent, et si q = dim E, on applique la formule du binôme :
2q
X
0 2q 0 2q k 2q−k 0k
(d − d) = (n − n ) = (−1)k C2q n n = 0;
k=0

la raison pour laquelle cette somme est nulle est amusante : si 0 ≤ k ≤ 2q , l'un des
deux entiers k et 2q − k est ≥ q et comme nq = n0q = 0 on a bien (d0 − d)2q = 0.
Invoquons maintenant le Théorème 6.1 : d et d0 sont des endomorphismes diagonalisables
qui commutent, il existe donc une base e telle que D = [d]ee et D0 = [d0 ]ee soient diagonales.
Comme D0 − D est diagonale et que (D0 − D)2q = 0 cela entraîne que D0 − D = 0 et
l'unicité s'ensuit.
3) Existence d'une base de Dunford. Il est clair que Fλj est stable par n. Notons par nj la
e
restriction de n à Fλj . Il ne sut pas que ej soit une base de l'espace Fλj pour que [n]ejj soit
triangulaire supérieure. Mais il sut pour terminer d'appliquer la Proposition 7.2 à nj :
f
on crée ainsi une base fj de Fλj telle que Nj = [nj ]fjj soit triangulaire supérieure. Puisque
f
la restriction dj de d à Fλj est λj idFλj on a [dj ]fjj = λj Imj . Finalement f = f1 ∪ . . . ∪ fp
est une base de Dunford, puisque [d]ff = [d]ee comme en (8.19) et que
 
N1 0 . . . 0
0 N2 . . . 0 
[n]ff = 

.
 ... ... ... ... 
0 0 ... Np
VIII. ESPACES CARACTÉRISTIQUES ET DÉCOMPOSITION DE DUNFORD* 37

Exemple 8.1. Traitons en détail la recherche des espaces caractéristiques, du polynôme


minimal et d'une base de Dunford f pour l'exemple (8.18). Ces trois problèmes sont
liés et se traitent simultanément. Il est clair que Pa (X) = (2 − X)3 (1 − X). L'espace
caractéristique F2 associé à la valeur propre 2 est de dimension 3. Pour en trouver une
base, il faut chercher successivement des bases de

ker(a − 2idE ) ⊂ ker(a − 2idE )2 ⊂ ker(a − 2idE )3 ,

et donc résoudre les systèmes linéaires homogènes gouvernés par les matrices A − 2I4 ,
(A − 2I4 )2 , (A − 2I4 )3 . On a
   
0 0 1 0 0 0 0 0
 0 0 0 1  , (A − 2I4 )2 =  0 0
 0 −1 
A − 2I4 = 
 0
.
0 0 0   0 0 0 0 
0 0 0 −1 0 0 0 1

En examinant le système linéaire homogène (A − 2I3 )V = 0, avec V = [x, y, z, t]T , on


voit que celui ci se réduit à z = t = 0. C'est dire qu'il est de rang 2 , que z et t sont les
inconnues principales et x et y sont les inconnues non principales. L'espace des solutions
est donc égal au nombre d'inconnues non principales et est de dimension 2. Au passage
nous avons montré que l'espace propre E2 est de dimension 2. Une base en est (e1 , e2 ).
En examinant le système linéaire homogène (A − 2I4 )2 V = 0, avec V = [x, y, z, t]T , on
voit que celui ci se réduit à t = 0. Il est de rang 1, t est l'inconnue principale et x, y, z sont
les inconnues non principales. L'espace des solutions est donc égal au nombre d'inconnues
non principales et est de dimension 3. Une base en est (e1 , e2 , e3 ).
Comme on vient de voir que dim ker(a − 2idE ) = 2 et que dim ker(a − 2idE )2 = 3
qui est la multiplicité m2 de la valeur propre 2, on en déduit que l'espace caractéristique
F2 = ker(a − 2idE )2 et que la multiplicité de 2 dans le polynôme minimal est n2 = 2. Il est
en particulier inutile de calculer (A−2I4 )3 , puisque a priori ker(a−2idE )2 = ker(a−2idE )3 .
On procède de même avec la valeur propre 1. C'est plus facile, car sa multiplicité
dans Pa est 1, et donc m1 = n1 : l'espace propre E1 coincide avec l'espace caractéristique
F1 . L'examen du système linéaire homogène (A − I4 )V = 0 montre que F1 = E1 est de
dimension 1 (on s'en doutait) et on peut prendre comme base f4 = −e2 + e4 . Le polynôme
minimal est ma (X) = (X − 2)2 (X − 1).
Si on note f1 = e1 , f2 = e2 , f3 = e3 alors f = (f1 , f2 , f3 , f4 ) est une base de Dunford.
On a

   
1 0 0 0 2 0 1 0
0 1 0 −1  0 2 0 0 
, [a]ff = P −1 AP = [d]ff + [n]ff = 
  
P = [idE ]ef = 
 0
.
0 1 0   0 0 2 0 
0 0 0 1 0 0 0 1
38 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Exercice 8.1. L'endomorphisme a d'un espace réel de dimension 3 est tel que dans une base
e on ait  
1 0 1
[a]ee =  0 1 1  .
0 0 0
Calculer le polynôme caractéristique Pa puis, en fonction de e, donner des bases des espaces
propres et des espaces caractéristiques de a. En déduire le polynôme minimal et une base de
Dunford de a.

Exercice 8.2. Soit E un espace complexe de dimension q et soit Z l'ensemble des entiers
relatifs. On dit qu'une suite (bk )k∈Z d'éléments de L(E) est bornée si pour toute base e de E
il existe une constante M > 0 telle que pour tout k ∈ Z, les modules des coecients de la
matrice [bk ]ee sont ≤ M. Soit a ∈ L(E) inversible.
1. Si a est diagonalisable et si ses valeurs propres sont de module 1, montrer que la suite
(ak )k∈Z est bornée.
2. Si a n'a qu'une valeur propre λ, et si la suite (ak )k∈Z est bornée montrer que a = λidE
et que λ est de module 1 (Méthode : si f est une base de Dunford pour a, montrer que
les coecients Pij (k) de la matrice [λ−k ak ]ff sont des polynômes en k. Utiliser le fait
que (ak )k∈Z est bornée pour montrer que les Pij (k) sont constants).
3. Si la suite (ak )k∈Z est bornée, montrer que a est diagonalisable et que ses valeurs propres
sont de module 1 (Méthode : introduire une base de Dunford pour a et appliquer le 2).
4. Dans le cas particulier où q = 2, où det a = 1 et où il existe une base e telle que [a]ee
soit réelle, montrer le théorème de Liapounov : (ak )k∈Z est bornée si et seulement si ou
bien a = ±idE ou bien trace a ∈] − 2, 2[.

IX Exponentielle d'un endomorphisme*


Cette section suppose que le cours de base K est C ou R et utilise l'analyse. On se
donne un espace E de dimension nie sur K et on munit l'algèbre L(E) sur K d'une
norme sous multiplicative, c'est à dire d'une application a 7→ kak de L(E) dans [0, ∞[
telle que
1. Pour tous a et b dans L(E) on a ka + bk ≤ kak + kbk (sous additivité).
2. Pour a ∈ L(E) et λ ∈ K on a kλak = |λ|kak (homogénéïté positive).
3. kak = 0 si et seulement si a = 0 (séparation).
4. Pour tous a et b dans L(E) on a kabk ≤ kakkbk (sous multiplicativité).
Les trois premiers axiomes sont ceux d'un espace normé ordinaire, le quatrième n'a de
sens que sur une algèbre. De telles normes existent. Pour le voir, par exemple, on munit E
d'une norme p quelconque (son existence étant renvoyée au cours d'analyse) et on dénit
kak = supx∈E\{0} p(a(x))/p(x). C'est un exercice facile que de vérier que les 4 axiomes
sont vériés.
IX. EXPONENTIELLE D'UN ENDOMORPHISME* 39
Théorème 9.1. Soit E un espace de dimension nie réel ou complexe et a ∈ E. Soit

1 1
Qn (X) = 1 + X + X 2 + . . . + X n . (9.20)
2 n!
Alors limn→∞ Qn (a) = exp(a) existe dans L(E) (On notera aussi ea = exp a). De plus si
a et b commutent on a exp(a + b) = exp a exp b. Enn limn→∞ (idE + n1 a)n = exp a.

Démonstration : On munit L(E) d'une norme sous multiplicative. Alors la suite (Qn (a))n≥0
a la propriété de Cauchy car si n ≤ n0 on a
n 0
X 1 k
kQn0 (a) − Qn (a)k = k a k
k=n+1
k!
n 0
X 1 k
≤ ka k
k=n+1
k!
n 0
X 1
≤ kakk = Qn0 (kak) − Qn (kak)
k=n+1
k!
P∞ 1
Comme la série k=0 k! kak converge par le critère de D'Alembert, (Qn (kak))n≥0 a la
k

propriété de Cauchy et donc (Qn (a))n≥0 aussi. Comme un espace normé de dimension nie
est toujours complet, la suite (Qn (a))n≥0 est donc convergente. Si alors a et b commutent
on peut écrire
X ai b j
Qn (a + b) = ,
i+j≤n,0≤i,0≤j
i! j!
X ai b j
Q2n (a + b) − Qn (a)Qn (b) = ,
i+j≤2n,n+1≤i,n+1≤j
i! j!
X ai b j
Q2n (a + b) − Qn (a + b) = .
n+1≤i+j≤2n,n+1≤i,n+1≤j
i! j!

Par conséquent

kQ2n (a + b) − Qn (a)Qn (b)k ≤ Q2n (kak + kbk) − Qn (kak)Qn (kbk)


≤ Q2n (kak + kbk) − Qn (kak + kbk).

Comme pour p = kak+kbk on a limn→∞ Q2n (p)−Qn (p) = 0, on en déduit que exp(a+b) =
exp a exp b si a et b commutent.
Finalement, si Rn (X) = (1 + Xn )n , on constate que Qn (X) − Rn (X) est à coecients
positifs : celui de X k est
 
1 1 2 k−1
1 − (1 − )(1 − ) . . . (1 − ) .
k! n n n
40 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Donc, en employant la sous multiplicativité de la norme on a

kQn (a) − Rn (a)k ≤ Qn (kak) − Rn (kak).

Comme on sait déjà que pour p ≥ 0 on a limn→∞ Qn (p) − Rn (p) = ep − ep = 0 on en


déduit que limn→∞ Qn (a) − Rn (a) = 0. Comme limn→∞ Qn (a) = ea , on en déduit que la
limite de Rn (a) = Qn (a) − (Qn (a) − Rn (a)) existe et est ea − 0 = ea .

Corollaire 9.2. Si a ∈ L(E) où E est un espace de dimension nie sur K = C ou R,


alors
1. (ea )−1 = e−a .
2. Si [a]ee = diag(µ1 , . . . , µq ) est diagonale, alors exp a = diag(eµ1 , . . . , eµq ).
3. Si a est nilpotent d'indice de nilpotence p alors

1 1
exp a = idE + a + a2 + . . . + ap−1 .
2 (p − 1)!

4. Si (d, n) est la décomposition de Dunford de a alors

1 1
ea = ed (idE + n + n2 + . . . + np−1 ).
2 (p − 1)!

et la décomposition de Dunford de ea est (ed , ed (en − idE ). De plus, si f est une


base de Dunford pour a, c'est une base de Dunford pour ea .
5. det ea = exp(trace a).
6. Si A et P sont des matrices carrées d'ordre q et si P est inversible, alors

exp(P AP −1 ) = P (exp A)P −1 .

Démonstration : Elle est très simple. 1) vient du fait que a et −a commutent. 2) et


3) sont évidents. 4) vient du fait que d et n commutent, ce qui entraîne en particulier
que ed et N = ed (en − idE ) commutent. Mais ed est diagonalisable par le 2) et N est
nilpotent car si q = dim E alors (en − idE )q = 0 et donc N q = eqd (en − idE )q = 0.
Enn 5) se voit si K = C à l'aide de la décomposition de Dunford, qui existe toujours
puisqu'alors Pa est scindé : si (d, n) est la décomposition de Dunford de a il est clair que
det a = det d et trace a = trace d (prendre une base de Dunford de a pour s'en convaincre).
Appliquons ce principe à ea et le 4) : cela entraîne que det ea = det ed qui est lui même
exp(trace d) d'après le 2) et donc exp(trace a). Pour traiter le cas K = R, on utilise
l'artice suivant : on prend une base quelconque e de E et on considère la matrice réelle
A = [a]ee comme la matrice d'un endomorphisme de Cq dans la base canonique. Le résultat
dans les complexes déjà obtenu entraîne det eA = exp trace A et la démonstration du 5)
est complète. Le 6) vient du fait que (P AP −1 )k = P Ak P −1 , donc que avec la notation
(9.20) on a Qn (P AP −1 ) = P Qn (A)P −1 d'où le résultat par passage à la limite.
IX. EXPONENTIELLE D'UN ENDOMORPHISME* 41
 
Exemple 9.1. Soit A = 01 −10 . Alors A2 = −I2 , et donc A3 = −A et A4 = I2 . Soit
θ ∈ R. Si Qn est déni par (9.20) on voit que
n−1 n−1
X (−1)k 2k X (−1)k 2k+1
Q4n−1 (θA) = ( θ )I2 + ( θ )A →n→∞ I2 cos θ + A sin θ.
k=0
(2k)! k=0
(2k + 1)!

D'où le résultat dont nous reparlerons au moment du groupe orthogonal (Chapitre 2,


section 7)    
0 −θ cos θ − sin θ
exp = = R(θ).
θ 0 sin θ cos θ

Exemple 9.2. Soit a, b ∈ (0, 1). Il existe α, β ≥ 0 tels que


   
a 1−a −α α
= exp
1−b b β −β

si et seulement si a + b > 1. En eet on écrit


   
a 1−a −α α
S= , A=
1−b b β −β

et on voit que les valeurs propres de A sont 0 et −α − β. Si α + β = 0 alors A = 0 et


S = I2 a des coecients nuls. Donc on peut supposer α + β > 0. Notons γ = e−α−β et
       
1 −α 1 β α 0 0 1 0
P = , P = , D= , exp D = .
1 β α + β −1 1 0 −α − β 0 γ

Nous obtenons A = P DP −1 , S = exp A = P (exp D)P −1 et donc


   
a 1−a 1 β + αγ α − αγ
S= =
1−b b α + β β − βγ α + βγ

Par conséquent
β + αγ β + αγ
a= , b= , a + b = 1 + γ > 1.
α+β α+β
Inversement, étant donnés a et b dans (0, 1) tels que γ = a + b − 1 ∈ (0, 1) on obtient

−(1 − a) log γ −(1 − b) log γ


α= , β= .
1−γ 1−γ

Si E est complexe, on peut montrer que l'image de L(E) par a 7→ ea est le groupe li-
néaire GL(E) des automorphismes de E. Nous omettrons la démonstration, assez délicate,
et l'étude de ea = b comme équation en a. Cette application n'est certes pas injective :
voici une agréable application de Dunford qui étudie le cas b = idE .
42 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Proposition 9.3. Si E est un espace complexe de dimension nie, alors ea = idE si et


seulement si a est diagonalisable et si ses valeurs propres sont dans 2iπZ.

Démonstration : Si ea = idE , soit (d, n) la décomposition de Dunford de a. D'après le


Corollaire 9.3 la décomposition de Dunford de ea est (ed , ed (en − idE )). Comme elle est
unique cela entraîne ed = idE et ed (en − idE ) = 0, ou en − idE = 0. Mais le Corollaire 9.3
entraîne que si n 6= 0, cad si son indice de nilpotence est p ≥ 2 alors en − idE = nm = 0
avec
1
m = idE + · · · + np−2 .
(p − 2)!
Mais la décomposition de Dunford de m est (idE , m − idE ) donc m est inversible et
nm = 0 entraîne n = 0 et a est diagonalisable. Soit e une base de diagonalisation de a,
soit [a]ee = D = diag(z1 , . . . , zq ). Alors eD = Iq . Les seules solutions de l'équation dans
les complexes ez = 1 sont les z de 2iπZ : pour le voir on écrit z = x + iθ avec x et θ
réels. Comme 1 = |ez |2 = ex+iθ ex−iθ = e2x , on a x = 1. D'après la formule de Moivre
ez = cos θ + i sin θ = 1, et donc cos θ = 1, ce qui conduit au résultat.

Mentionnons pour terminer le rôle joué par l'exponentielle des endomorphismes dans
la solution des systèmes diérentiels à coecients constants :

Proposition 9.4. Soit E un espace réel ou complexe de dimension nie et a ∈ L(E).


Alors la dérivée de l'application t 7→ eat de R dans L(E) est aeat = eat a. Si I est un
intervalle contenant 0 et Y : I → E est dérivable, alors Y 0 (t) = a(Y (t)) sur I si et
seulement si Y (t) = eat (Y (0)) sur I.

Démonstration : dtd eat aeat = eat a résulte de la dérivation de la série entière en t à valeurs
dans L(E) dénie par

X ak
tk .
k=0
k!

Pour la suite, ⇒ se montre en considérant Y1 (t) = e−at (Y (t)) et en vériant que sa dérivée
est nulle sur I :

Y10 (t) = −e−at a(Y (t)) + e−at (Y 0 (t)) = −e−at a(Y (t)) + e−at (a(Y (t))) = 0.

Comme I est un intervalle, Y1 (t) = Y1 (0) = Y (0). ⇐ se voit directement car si Y (t) =
eat (Y (0)) alors Y 0 (t) = aeat (Y (0)) = a(Y (t)).

L'analogie avec l'exponentielle réelle suggérée par l'énoncé précédent ne s'étend pas
très loin : la proposition suivante montre que la dérivée de t 7→ eat n'est certes pas eat (at )0 .

Proposition 9.5. Soit E un espace réel ou complexe de dimension nie, I un intervalle


ouvert et t 7→ at une fonction continûment dérivable de I à valeurs dans L(E). Alors
Z 1
d at dat uat
e = e(1−u)at ( )e du. (9.21)
dt 0 dt
IX. EXPONENTIELLE D'UN ENDOMORPHISME* 43
Démonstration : Commencons par observer que si a et h ∈ L(E) alors on a pour tout
s réel Z s
e−as (a+h)s
e − idE = e−au he(a+h)u du. (9.22)
0
Pour le voir, il sut de dériver chaque membre par rapport à s. En application de la
Proposition 9.4, la dérivée du premier membre est

−e−as ae(a+h)s + e−as (a + h)e(a+h)s = e−as he(a+h)s .


En application du théorème fondamental du calcul intégral, la dérivée du second membre
est aussi e−as he(a+h)s . Les deux membres ont la même dérivée dans R et coincident en
s = 0. Il y a donc égalité pour tout s dans (9.22). En faisant s = 1 dans (9.22) et en
multipliant à gauche par ea on obtient
Z 1
a+h a
e −e = ea(1−u) he(a+h)u du.
0

Soit maintenant t et t+k dans I et appliquons la dernière égalité à a = at et h = at+k −at .


Après division par k on obtient
Z 1
1 1
(exp at+k − exp at ) = e(1−u)at (at+k − at )euat+k du.
k 0 k
Faisons enn tendre k vers 0. Le second membre tend vers le second membre de (9.21) car
la fonction (u, k) 7→ e(1−u)at k1 (at+k −at )euat+k est continue sur [0, 1]×(I −t). La proposition
est donc montrée.
 
x −θ
Exercice 9.1. Calculer pour x et θ réels la matrice exp θ x (Méthode : écrire la
matrice sous la forme xI2 + θA où A est comme à l'exemple 9.1).

Exercice 9.2. Si a et b dans L(E) sont tels que pour tout t réel on a e(a+b)t = eat ebt
montrer que a et b commutent (Méthode : à l'aide de la Proposition 9.4, dériver deux fois et
faire t = 0).

Exercice 9.3. Si a ∈ L(E) montrer que


1
lim det(idE + ha) = trace a.
h→0 h

A partir de limn→∞ (idE + n1 a)n = exp a, en déduire une autre démonstration de det ea =
exp trace a.

Exercice 9.4. Si a ∈ L(E) soit y1 : R → L(E) et y2 : R → L(E) dérivables telles que


y10 (t) = ay1 (t) et y20 (t) = y2 (t)a pour tout t ∈ R. Montrer que y1 (t) = eat y1 (0) et que
y2 (t) = y2 (0)eat .

Exercice 9.5. (Matrices stochastiques et exponentielle) On note Sn l'ensemble des matrices


carrées d'ordre n réelles S = (sij ) telles que sij ≥ 0 pour tous i, j = 1, . . . , n et telles que
44 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
Pn
j=1 sij = 1 pour tout i = 1, . . . , n. (Ces matrices servent en Calcul des Probabilités et sont
dites stochastiques). On note An l'ensemble des matrices
Pn carrées réelles A = (aij ) telles que
aij ≥ 0 pour tous i 6= j = 1, . . . , n et telles que j=1 aij = 0 pour tout i = 1, . . . , n. On
note Pn les matrices eA avec A ∈ An .
1. Si 1n est le vecteur colonne d'ordre n formé de 1 montrer que S1n = 1n et A1n = 0
pour S ∈ Sn et A ∈ An .
2. Si S et S 0 sont dans Sn montrer à l'aide du 1 que SS 0 ∈ Sn .
3. Montrer que Pn ⊂ Sn . (Méthode : si A ∈ An prendre λ ≥ maxi (−aii ) et montrer que
eλIn +A et e−λIn eλIn +A sont à coecients positifs ou nuls).
4. Soit S ∈ S2 . Montrer à l'aide de l'exemple 9.2 que S ∈ P2 si et seulement si trace S > 1
(on ne connait pas de caractérisation simple de Pn pour n ≥ 3).
5. Soit St ∈ Sn pour tout t ≥ 0 de la forme S = etA pour une matrice carrée A. Montrer
qu'alors A ∈ An (Méthode : examiner A = limt→0 1t (St − In )).

Exercice 9.6. (Semi groupes de matrices stochastiques) On garde les notations de l'exercice
précédent. Soit l'application t 7→ St de [0, ∞[ dans Sn telle que St Ss = St+s pour tous t
et s ≥ 0, telle que t 7→ St soit continue et telle que S0 = In . On veut montrer qu'alors il
existe A ∈ An telle que St = etA pour tout t ≥ 0 (voir aussi les exercices 9.8 (3) et 9.7). On
considère pour cela pour tout λ > 0 la matrice à coecients ≥ 0
Z ∞
Rλ = e−tλ St dt.
0

1. Pourquoi l'intégrale dénissant Rλ est elle convergente ?


2. Montrer que Rλ − Rµ = (µ − λ)Rλ Rµ (Méthode : faire le changement de variable
(t, s) 7→ (t, u) = (t, t + s) dans l'intégrale double qui représente (µ − λ)Rλ Rµ ).
3. Notons Eλ ⊂ Rn l'espace image de Rλ . En écrivant Rλ = (In + (µ − λ)Rλ )Rµ montrer
que Eλ ⊂ Eµ . Comme symétriquement Eµ ⊂ Eλ en déduire que E = Eλ ne dépend
pas de λ.
4. Montrer que limλ→∞ λRλ = In . Pour cela on prend pour norme sur l'espace vectoriel
des matrices carrées d'ordre n le nombre kM k = maxij mij et un nombre arbitraire t0
pour écrire
Z ∞
kIn − λRλ k = k λe−tλ (In − St )dtk
Z t00 Z ∞
−tλ
≤ λe kIn − St kdt + λe−tλ dt.
0 t0

En déduire que E = Rn et donc que Rλ−1 existe.


5. Soit λ > 0 xé. Soit y ∈ Rn et x = Rλ (y). Montrer que
1
lim (St − In )x = λx − y.
t→0 t
IX. EXPONENTIELLE D'UN ENDOMORPHISME* 45
Ecrire pour cela
1 ∞ −sλ 1 ∞ −sλ
Z Z
1
(St − In )Rλ (y) = e St+s (y)ds − e Ss (y)ds
t t 0 t 0
etλ ∞ −sλ 1 ∞ −sλ
Z Z
= e St+s (y)ds − e Ss (y)ds
t t t 0
etλ − 1 ∞ −sλ 1 t −sλ
Z Z
= e St+s (y)ds − e Ss (y)ds.
t t t 0
En déduire que limt→0 1t (St − In ) = A avec A = λIn − Rλ−1 . Pourquoi A ne dépend il
pas de λ?
6. En écrivant
1 1 1
(Ss+t − St ) = (Ss − In )St = St (Ss − In ),
s s s
montrer que ASt = St A pour tout t. A l'aide de la question 4 montrer que t 7→ St est
dérivable et que dt
d
St = APt = Pt A. En déduire l'existence d'une matrice C telle que
St = Ce . Utiliser S0 = In pour montrer C = In . Utiliser l'exercice précédent pour
tA

montrer que A ∈ An .
 
a 1−a
Exercice 9.7. On pose S(a, b) = 1−b b
. Soit α, β ≥ 0 tels que α + β > 0. On
pose γ = e−α−β et
β + αγ t α + βγ t
St = S( , ).
α+β α+β
Montrer de deux manières que St Ss = St+s pour tous s, t ≥ 0 (calcul direct ou exemple 9.2).

Exercice 9.8. Soit E un espace vectoriel réel ou complexe de dimension nie. Soit b ∈ L(E).
On considère l'intégrale
Z ∞ Z t0
−tb
I(b) = e dt = lim e−tb dt
0 t0 →∞ 0

à valeurs dans L(E). Si cette limite dans L(E) n'existe pas, on dit que l'intégrale diverge.
1. Montrer que si b n'est pas inversible, l'intégrale diverge (considérer v ∈ E \ {0} tel que
b(v) = 0 et montrer que e−tb (v) = v).
Rt
2. Si b−1 existe montrer avec la proposition 9.4 que 0 0 e−tb dt = b−1 − b−1 e−t0 b . Avec le
corollaire 9.2 (4) montrer que limt0 →∞ e−t0 b existe dans E si et seulement si toutes les
valeurs propres de b ont une partie réelle strictement positive. Quelle est alors la valeur
de I(b)?
3. Avec les notations des exercices 9.5 et 9.6, déduire du (2) que si St = etA avec A ∈ An
alors Rλ = (λIn − A)−1 et que toutes les valeurs propres de A ont une partie réelle ≤ 0.
4. Plus généralement, pour p > 0 et pour b ∈ L(E) dont toutes les valeurs propres ont
une partie réelle strictement positive on considère
Z ∞
1
Ip (b) = e−tb tp−1 dt
Γ(p) 0
46 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
R∞
avec Γ(p) = 0 e−t tp−1 dt. Montrer que Ip (b) converge. Si de plus p est entier montrer
que Ip (b) = b−p . Si p et q > 0 ne sont pas nécessairement entiers montrer en imitant
le (2) de l'exercice 9.6 que Ip (b)Iq (b) = Ip+q (b) (Si p n'est pas entier on peut prendre
Ip (b) comme dénition de "puissance fractionnaire" de l'endomorphisme b).
Chapitre 2
Espaces euclidiens
I Particularités des espaces réels.
Dans le chapitre 1, nous avons obtenu des résultats d'une belle généralité, valables
pour des espaces vectoriels de dimension nie sur un corps quelconque. Jamais pourtant
nous n'y avons fait allusion à des objets d'intuition géométrique courante : distance entre
deux points, perpendicularité, angles : l'axiomatique était trop pauvre. Le présent cha-
pitre est beaucoup plus proche de l'espace physique. La présente section est un prélude
qui met en évidence trois particularités des espaces réels de dimension nie : un endomor-
phisme d'un espace vectoriel sur R de dimension impaire a toujours un vecteur propre ; un
endomorphisme d'espace réel a toujours un espace stable de dimension 1 ou 2 ; un espace
réel peut être orienté.

Proposition 1.1. Soit E un espace réel de dimension nie q et a ∈ L(E). Alors a a au


moins une valeur propre si q est impair, et au moins un espace stable de dimension 2 si q
est pair.

Démonstration : Si q est impair, le polynôme caractéristique Pa tend vers +∞ si X


tend vers −∞ et Pa tend vers −∞ si X tend vers ∞ : il a donc au moins une racine
réelle. Si q est pair, soit e une base quelconque de E et A = [a]ee . Considérons A comme
la matrice représentative d'un endomorphisme b de l'espace complexe Cq exprimé dans la
base canonique f . Alors Pa = PA = Pb . Comme Pb est scindé dans C, l'endomorphisme b
admet au moins une valeur propre λ = α + iβ avec α et β réels, à laquelle est associé un
vecteur propre v. Si V = X + iY = [v]ff avec X et Y matrices colonnes réelles d'ordre q
l'égalité b(v) = λv se traduit, en identiant parties réelle et imaginaire

AV = λV, A(X + iY ) = (α + iβ)(X + iY ), AX = αX − βY, AY = βX + αY.

Soit enn x et y dans E dénis par [x]ee = X et [y]ee = y. Les égalités ci dessus deviennent
a(x) = αx − βy, a(y) = βx + αy, ce qui est dire que le sous espace F de E engendré par x
et y est stable par a. Il ne peut être de dimension 0, car X = Y = 0 entraînerait V = 0, ce
qui n'est pas, car un vecteur propre est toujours non nul. Si x et y sont indépendants alors
F est de dimension 2 comme annoncé. Si x et y sont colinéaires, supposons x 6= 0. C'est

47
48 CHAPITRE 2. ESPACES EUCLIDIENS

dire que x est un vecteur propre de a et que β = 0. On prend une base g = (g1 , . . . , gq ) de
E telle que g1 = x. Alors, avec L matrice ligne d'ordre q − 1 et A1 matrice carrée d'ordre
q − 1 on écrit par blocs  
g α L
[a]g = .
0 A1
Comme A1 est d'ordre impair, elle a au moins une valeur propre réelle, et un vecteur
propre X1 correspondant. Si X1 = [t2 , . . . , tq ] alors x1 = t2 g2 + · · · + tq gq est un vecteur
propre de a indépendant de x. Le raisonnement quand x = 0 et y 6= 0 est similaire. La
proposition est montrée.

Dénition 1.1. Soit E un espace réel de dimension nie, et soit B l'ensemble de toutes
ses bases-ordonnées. On dit que e et e0 dans B ont même orientation , ce qu'on note e ∼ e0
si le déterminant de la matrice de changement de base P = [idE ]ee0 est positif.

Remarques : L'idée de base-ordonnée d'un espace vectoriel E de dimension nie mérite


un rappel. Une base (tout court) e = {e1 , . . . , eq } de E est une partie de E , libre et gé-
nératrice. Une base-ordonnée e = (e1 , . . . , eq ) est une suite d'éléments de E distincts telle
que l'ensemble associé {e1 , . . . , eq } est une base. L'ordre compte donc : si q = 3 la base-
ordonnée e = (e1 , e2 , e3 ) est distincte de (e2 , e1 , e3 ) alors que {e1 , e2 , e3 } = {e2 , e1 , e3 }. Il
faut remarquer que si on a besoin d'écrire une matrice représentative, on utilise implici-
tement plutôt une base-ordonnée.

Proposition 1.2. La relation ∼ sur B est une relation d'équivalence, et l'ensemble


quotient B/ ∼ a deux éléments si dim E > 0.

Démonstration : Réexivité : e ∼ e trivialement car [idE ]ee = Iq et det Iq = 1 > 0.


Symétrie : si e ∼ e0 , alors det[idE ]ee0 > 0 par dénition. Mais [idE ]ee = ([idE ]ee0 )−1 et donc
0

det[idE ]ee = (det[idE ]ee0 )−1 > 0, d'où e0 ∼ e. Transitivité : Si e ∼ e0 et e0 ∼ e00 alors d'après
0

le Théorème 1.1
0
det[idE ]ee00 = det[idE ]ee0 det[idE ]ee00 > 0 (1.1)
et donc e ∼ e00 .
Pour voir qu'il y a au plus deux classes d'équivalence, on suppose que e et e0 sont dans
0
deux classes diérentes. Donc det[idE ]ee0 < 0 Si alors e00 6∼ e0 alors det[idE ]ee00 < 0 aussi et
(1.1) est encore vrai, ce qui montre e00 ∼ e : il n'y a pas plus de deux classes. Enn il y en
a toujours deux, car (−e1 , e2 , . . . , eq ) 6∼ e si q > 0.

Dénition 1.2. Soit E un espace réel de dimension nie. On dit qu'il est orienté si
on a sélectionné une des deux classes de B. Les éléments de cette classe sont appelés
bases-ordonnées directes, les autres sont les bases-ordonnées indirectes.

Remarques : L'orientation d'un espace a un caractère arbitraire. On a réalisé que la


communication avec des civilisations extra terrestres ne permettrait pas d'expliquer nos
notions de droite et de gauche, qui sont culturelles et transmises par la tradition : elles
concernent l'orientation d'un espace réel de dimension 1. Considérons ensuite le cas q = 2
et soit donc une base ordonnée (e1 , e2 ) du plan E. La droite Re1 partage E en deux
II. PRODUIT SCALAIRE, POLARISATION, PARALLÉLOGRAMME 49
parties. Plus précisément, si a est une forme linéaire non nulle sur E telle que a(e1 ) = 0,
appelons E+ le demi plan des x ∈ E tels que a(x) > 0 et E− le demi plan des x ∈ E
tels que a(x) < 0. C'est un exercice de voir que (e1 , e2 ) ∼ (e1 , e02 ) si et seulement si
a(e2 ) et a(e02 ) ont même signe, autrement dit si e2 et e02 sont tous deux dans E+ ou tous
deux dans E− . Traditionnellement, on regarde le plan de sorte que e1 soit horizontal
et soit dirigé vers la droite et on place e2 dans le demi plan supérieur pour avoir une
base directe. Toutefois, il faut réaliser que ces choix utilisent des notions non dénies
mathématiquement : "regarder", "horizontal", "la droite". Dans le cas q = 3, l'orientation
traditionnelle est fournie par la règle du bonhomme d'Ampère : adossé à e3 , qui lui rentre
par les pieds et ressort par la tête, le bonhomme voit e1 à sa droite et e2 à sa gauche si
(e1 , e2 , e3 ) est directe. D'autres règles comme celle des trois doigts (pouce = e1 , index =e2 ,
et majeur =e3 de la main droite fournissent un trièdre positif) ou celle du tirebouchon de
Maxwell fournissent la même orientation.
Exercice 1.1. Soit e = (e1 , . . . , eq ) une base-ordonnée de E , soit σ ∈ Sq une permutation
de q objets et soit eσ = (eσ(1) , . . . , eσ(q) ). Montrer que e ∼ eσ si et seulement si la signature
(σ) est 1 (Méthode : Utiliser la dénition du déterminant par signatures).
 
a b
Exercice 1.2. Soit la matrice réelle M = c d telle que bc > 0. Montrer que l'endo-
morphisme de R2 associé est diagonalisable.

II Produit scalaire, polarisation, parallélogramme


Pour quelques pages (sections 2,3,4), nous n'allons plus nous limiter aux les espaces
réels de dimension nie, pour considérer aussi des espaces vectoriels de dimension innie.
Les notions de produit scalaire et de projection orthogonale qu'on va introduire sont très
utiles même en dimension innie, par exemple dans l'étude des séries de Fourier. Il y a
tellement de dénitions au début qu'il vaut mieux les donner toutes et les commenter
ensuite.

Dénitions 2.1. Soit E et F des espaces vectoriels sur un corps K . Une forme bilinéaire
B sur E × F est une application de E × F dans K :

(x, y) 7→ B(x, y),

telle que pour tout x ∈ E xé l'application y 7→ B(x, y) soit une forme linéaire sur
F , et telle que pour tout y ∈ F xé l'application x 7→ B(x, y) soit une forme linéaire
sur E. Si de plus E = F , la forme bilinéaire est dite symétrique si pour tous x et y
de E on a B(x, y) = B(y, x). Par abus de langage, on parle alors de forme bilinéaire
symétrique sur E plutôt que sur E × E. Dans ces conditions, la fonction QB sur E dénie
par x 7→ QB (x) = B(x, x) est appelée la forme quadratique associée à la forme bilinéaire
symétrique B. Si de plus K = R, la forme bilinéaire symétrique B est dite positive si
pour tout x ∈ E on a QB (x) ≥ 0. Elle est dite dénie positive si pour tout x ∈ E\ on
a QB (x) > 0. Une forme bilinéaire symétrique dénie positive sur E × E est dite plus
50 CHAPITRE 2. ESPACES EUCLIDIENS

brièvement produit scalaire1 sur l'espace réel E. Un espace vectoriel réel dans lequel on a
p est appelé un espace préhilbertien réel. Si B est ce produit scalaire,
xé un produit scalaire
le nombre kxk = QB (x) s'appelle la norme du vecteur x. Le produit scalaire B(x, y)
vecteurs x et y est plus souvent noté hx, yi. Un espace préhilbertien réel de dimension
nie s'appelle un espace euclidien.

Exemples 2.1. Si E = K 2 et F = K 3 , alors B1 (x, y) = B1 (x1 , x2 ; y1 , y2 , y3 ) = 3x1 y1 −


5x2 y3 est bilinéaire sur E × F. Si E = F = K 2 alors B2 (x, y) = 3x1 y1 − 5x2 y1 est bilinéaire
sur E × E mais non symétrique car B(y, x) = 3x1 y1 − 5y2 x1 6= 3x1 y1 − 5x2 y1 . Soit
maintenant E = R2 . Alors B3 (x, y) = 3x1 y1 − 5x2 y1 − 5x1 y2 est bilinéaire symétrique sur
E ×E et la forme quadratique associée est QB3 (x) = QB3 (x1 , x2 ) = 3x21 −10x1 x2 . Toutefois
B3 n'est pas positive car QB3 (1, 4) = −37 < 0. La forme B4 (x, y) = x1 y1 −x2 y1 −x1 y2 +x2 y2
est une forme bilinéaire symétrique qui est positive car QB4 (x1 , x2 ) = x21 − 2x1 x2 + x22 =
(x1 − x2 )2 ≥ 0. Toutefois, B4 n'est pas dénie positive, car QB4 (1, 1) = 0 alors que
(1, 1) 6= (0, 0). Enn B5 (x, y) = x1 y1 − x2 y1 − x1 y2 + 5x2 y2 est une forme bilinéaire
symétrique qui est dénie positive car QB4 (x1 , x2 ) = (x1 − x2 )2 + 4x22 est toujours ≥ 0 et
ne peut être nul que si x1 − x2 = 2x2 = 0, c'est à dire si x = 0.

Exemple 2.2. On prend E = Rq et la forme bilinéaire B(x, y) = hx, yi = x1 y1 + · · · +


xq yq . Alors la forme quadratique associée est QB (x) = x21 + · · · + x2q . Il est clair que
B est symétrique dénie positive. La forme B dénit donc un produit scalaire sur Rq ,
qui est ainsi muni de ce qu'on appelle le produit scalaire canonique 2 (ou encore de la
structure euclidienne canonique) parce que c'est le plus simple et le plus naturel des
produits scalaires possibles sur Rq . Il faut noter qu'alors kxk = (x21 + · · · + x2q )1/2 .
Il y a un cas particulier intéressant dans cet exemple : si p et q sont des entiers positifs,
soit E l'espace des matrices réelles à p lignes et q colonnes. Alors la forme bilinéaire sur
E × E dénie par (A, B) 7→ trace (AB T ) est symétrique, d'après la Proposition 2.1 du
Chapitre 1. Si A = (aij ) on aura
p q
X X
trace (AA ) =
T
a2ij ≥ 0.
i=1 j=1

On voit que cette forme dénit un produit scalaire sur E. Il est clair que E s'identie à
Rpq euclidien canonique.

Exemple 2.3. Soit E l'espace des polynômes trigonométriques réels, c'est à dire l'espace
de dimension innie des fonctions f dénies sur R telles qu'il existe un entier n ≥ 0 et
des nombres réels a0 , . . . , an , b1 , . . . , bn tels que
n
X
f (x) = a0 + (ak cos kx + bk sin kx).
k=1

1 D'autres disent produit intérieur.


2 Dans la littérature nord américaine, qui a parfois du mal à concevoir un espace vectoriel sans recours
à des coordonnées, Euclidean space signie Rq avec son produit scalaire canonique. Notre espace euclidien
s'appelle alors nite dimensional inner product space.
II. PRODUIT SCALAIRE, POLARISATION, PARALLÉLOGRAMME 51
Alors c'est un espace préhilbertien réel pour le produit scalaire
Z 2π
1
(f, g) 7→ f (x)g(x)dx.
2π 0
La bilinéarité,
R 2π la symétrie et la positivité sont évidentes. La dénie positivité découle du
fait que si 0 f 2 (x)dx = 0 alors f (x) = 0 pour tout x ∈ [0, 2π] car f est continue (voir
cours de première année) et est donc nulle sur tout R car de période 2π : nous avons bien
un produit scalaire.
Terminons cette section en expliquant que la connaissance de la forme quadratique
associée QB à la forme bilinéaire symétrique B sur un espace E sur le corps K donne la
connaissance de B lui même, au moyen des égalités de polarisation ci dessous.

Proposition 2.1. Soit K un corps tel que x + x = 0 entraîne x = 0. Soit E un espace


vectoriel sur K et soit B et B 0 deux formes bilinéaires symétriques sur E telles que les
formes quadratiques associées soit les mêmes. Alors B = B 0 . De plus pour tous x, y ∈ E
on a
1
B(x, y) = (QB (x + y) − QB (x) − QB (y)) (2.2)
2
1
= (QB (x + y) − QB (x − y))
4
1
= (QB (x) + QB (y) − QB (x − y)).
2
On a aussi l'égalité du parallélogramme :

QB (x + y) + Q(x − y) = 2Q(x) + 2Q(y).

Démonstration : Contentons nous de montrer (2.2), les autres sont semblables. Par
dénition, le second membre de (2.2) est, en utilisant lentement la bilinéarité :
1
(B(x + y, x + y) − B(x, x) − B(y, y))
2
1
= (B(x, x + y) + B(y, x + y) − B(x, x) − B(y, y))
2
1
= (B(x, x) + B(x, y) + B(y, x) + B(y, y) − B(x, x) − B(y, y)) = B(x, y).
2
Donc QB détermine B .

Remarques : Cette étrange condition sur le corps K est faite pour avoir le droit de diviser
par 2 dans le corps : on ne peut le faire par exemple dans le corps à deux éléments. On dit
aussi que K n'est pas de caractéristique 2. Enn on peut dénir une forme quadratique
sur l'espace vectoriel E sur un corps K, (non de caractéristique 2) comme une fonction Q
sur E telle que BQ (x, y) = 12 (Q(x + y) − Q(x) − Q(y)) soit une forme bilinéaire. BQ est
52 CHAPITRE 2. ESPACES EUCLIDIENS

alors appelée la forme polaire ou polarisée de la forme quadratique Q. Nous étudierons


les formes quadratiques au chapitre 4.
Finalement, le lecteur avec des objectifs à court terme peut se contenter du résumé
suivant :

Résumé. Un espace euclidien E est un espace vectoriel de dimension nie sur le corps des
réels muni d'une fonction réelle sur E × E notée (x, y) 7→ hx, yi, appelée produit scalaire
et satisfaisant aux axiomes suivants
 Pour tous x, y dans E on a hx, yi = hy, zi (Symétrie).
 Pour tous λ et µ réels et pour tous x, y, z dans E on a hλx+µz, yi = λhx, yi+µhz, yi
(Bilinéarité).
 Pour tout x 6= 0 on a hx, xi > 0 (Dénie-positivité).
Dans ces conditions, le nombre positif kxk déni par kxk2 = hx, xi est appelé norme de x
et on a les identités de polarisation et du parallélogramme
1 1
hx, yi = (kx + yk2 − kxk2 − kyk2 ) = (kx + yk2 − kx − yk2 ),
2 4
kx + yk2 + kx − yk2 = 2kxk2 + 2kyk2 .
Il est conseillé quand on manipule les normes dans un espace euclidien de les élever au
carré, les propriétés algébriques du carré de la norme euclidienne étant nombreuses.
Exercice 2.1. Soit E un espace euclidien et a ∈ E. Montrer que la fonction sur E dénie
par x 7→ kxk − 2ha, xi est minimum en a. Application : si a1 , . . . , an sont dans E trouver le
2

minimum de
x 7→ kx − a1 k2 + · · · + kx − an k2 .

Exercice 2.2. Soit E un espace euclidien. Montrer que pour tous x et y dans E et pour tout
λ ∈ [0, 1] on a

λkxk2 + (1 − λ)kyk2 − kλx + (1 − λ)yk2 = λ(1 − λ)kx − yk2

et en déduire que la fonction x 7→ kxk2 est convexe.

III Inégalités de Schwarz et du triangle


Proposition 3.1. Soit E un espace vectoriel réel et B une forme linéaire sur E symé-
trique et positive et soit QB la forme quadratique associée. Alors pour tous x et y de
E:
1. B(x, y)2 ≤ QB (x)QB (y) (Inégalité de Schwarz).
2. QB (x + y) ≤ QB (x) + QB (y) (Inégalité du triangle)
p p p

3. F = {x ∈ E ; QB (x) = 0} est un sous espace vectoriel de E.


III. INÉGALITÉS DE SCHWARZ ET DU TRIANGLE 53
4. L'inégalité de Schwarz est une égalité si et seulement si il existe des réels (λ, µ) 6=
(0, 0) tels que λx − µy ∈ F. Dans ces conditions, B(x, y) est du signe 3 de λµ.
5. L'inégalité du triangle est une égalité si et seulement si si il existe des réels (λ, µ) 6=
(0, 0) tels que λx − µy ∈ F avec λµ ≥ 0.

Démonstration : 1) Soit λ ∈ R. Alors


QB (λx + y) = λ2 QB (x) + 2λB(x, y) + QB (y) (3.3)
en utilisant la bilinéarité de B. Comme B est positive alors le polynôme de degré ≤ 2
déni par (3.3) est positif pour tout λ réel.
 Si QB (x) = 0 le polynôme ane (3.3) en λ ne peut être positif sur tout R sans être
constant, cad qu'on a B(x, y) = 0. Dans ce cas l'inégalité de Schwarz est vériée et
est même une égalité, et les conditions du 4) sont remplies avec (λ, µ) = (1, 0). La
reciproque du 4) est triviale dans ce cas QB (x) = 0.
 Si QB (x) > 0 le trinôme du second degré (3.3) en λ ne peut être positif pour tout
λ réel que si il n'a pas de racines réelles distinctes, c'est à dire si son discrimi-
nant simplié ∆0 = B(x, y)2 − QB (x)QB (y) est ≤ 0, ce qui est une reformulation
de l'inégalité de Schwarz. Si QB (x) > 0 toujours, l'inégalité est une égalité si et
seulement si ∆0 = 0, cad si le trinôme a une racine double, disons λ0 . Dans ce
cas QB (λ0 x + y) = 0, cad que λ0 x + y ∈ F. Les conditions du 4) sont remplies
avec (λ, µ) = (λ0 , −1). L'égalité −2λ0 B(x, y) = λ20 QB (x) + QB (y) > 0 montre que
B(x, y) est du signe de −λ0 . Quant à la réciproque du 4) si (λ, µ) 6= (0, 0) est tel
que QB (λx − µy) = 0 on obtient
λ2 QB (x) − 2λµB(x, y) + µ2 QB (y) = 0.
Si µ = 0 alors λ 6= 0 et donc QB (x) = 0 : contradiction. Si µ 6= 0 alors λ0 = −λ/µ
est racine d'un trinôme du second degré toujours positif ou nul, donc une racine
double. Donc le trinôme a un discriminant simplié ∆0 qui est nul : l'inégalité de
Schwarz est une égalité. L'égalité 2λµB(x, y) = λ2 QB (x) + µ2 QB (y) montre que
B(x, y) a le signe de λµ.
Pour l'inégalité du triangle on a par Schwarz :

hp p i2 hp p i
QB (x) + QB (y) − QB (x + y) = 2 QB (x) QB (y) − B(x, y) ≥ 0. (3.4)

Il est clair qu'il y a égalité si et seulement si il y a égalité dans l'inégalité de Schwarz avec
B(x, y) ≥ 0. D'après 4), ceci est équivalent à l'armation du 5).
Reste à montrer le 3). Pour voir que F est un sous espace vectoriel, on constate
aisément que si λ est réel et si x est dans F alors QB (λx) = λ2 QB (x) = 0 et donc λx est
dans F. De même si x et y sont dans F, l'inégalité du triangle entraîne que x + y est dans
F, qui est donc un sous espace de E.

Proposition 3.2. Si E est un espace préhilbertien réel alors


3 Signe a=1 si a > 0, Signe a = −1 si a < 0, Signe 0 = 0.
54 CHAPITRE 2. ESPACES EUCLIDIENS

1. Pour tous x et y de E on a
|hx, yi| ≤ kxkkyk.

De plus hx, yi = kxkkyk avec  = ±1 si et seulement si il existe un couple (λ, µ)


non nul de réels ≥ 0 tels que λx = µy. Enn, si x et y sont non nuls le nombre de
[0, π] égal à θ = arccos(hx, yi/(kxkkyk) est bien déni (et est appelé angle de x et
de y).
2. Pour tous x1 , . . . , xn de E on a kx1 + · · · + xn k ≤ kx1 k + . . . + kxn k, avec égalité si
et seulement si il existe un vecteur u 6= 0 et des réels λj ≥ 0 tels que xj = λj u pour
tout j = 1, . . . , n.

Démonstration : La partie 1) est une application immédiate de la Proposition 3.1 parties


1) et 4) à la forme bilinéaire dénie-positive B(x, y) = hx, yi. L'existence de l'angle vient
du fait que hx, yi/(kxkkyk est dans [−1, 1] c'est à dire le domaine de dénition d' arccos .
Pour la partie 2) l'inégalité se déduit de l'inégalité du triangle de la Proposition 3.1 par
une récurrence facile qu'on ne va pas faire. En revanche l'étude du cas d'égalité se fait par
une récurrence plus délicate que nous détaillons.
Par la Proposition 3.1 partie 5) le résultat est vrai pour n = 2 : en eet puisque B est
dénie positive, ici F = {0}. Supposons le résultat du 2) vrai pour n ≥ 2 et montrons le
pour n + 1. Notons y = xn + xn+1 . Alors

kx1 k+. . .+kxn−1 k+kxn k+kxn+1 k = kx1 +. . .+xn−1 +yk ≤ kx1 k+. . .+kxn−1 k+kyk. (3.5)

Donc kxn k + kxn+1 k ≤ kyk et donc kxn k + kxn+1 k = kxn + xn+1 k. D'après le cas n = 2 il
existe un vecteur v 6= 0 et λn , λn+1 ≥ 0 tels que xn = λn v et xn+1 = λn+1 v. Donc l'inégalité
dans (3.5) est devenue une égalité, à laquelle on applique l'hypothèse de récurrence. Il
existe donc un vecteur u 6= 0 est des scalaires λj et λ0n positifs ou nuls, et tels que xj = λj
avec j = 1, . . . , n − 1, et y = λ0n u. Si λ0n = 0, alors y = 0 et donc λn = λn+1 = 0. Si λ0n > 0,
on peut prendre évidemment u = v.

Corollaire 3.3. Inégalité de Cauchy-Schwarz. Soit (a1 , . . . , aq ) et (b1 , . . . , bq ) deux


suites de nombres réels de longueur q. Alors
q q q
X X X
2 2
( ai b i ) ≤ ( ai )( b2i ).
i=1 i=1 i=1

Démonstration : Il sut d'appliquer la proposition 3.2 partie 1 à l'espace Rq muni de


sa structure euclidienne canonique et aux vecteurs x = (a1 , . . . , aq ) et y = (b1 , . . . , bq ).
Pour la discussion des cas d'égalité il faut se reporter à la proposition.

Exercice 3.1. Si a, b et c sont réels, montrer que |6a + 3b + 2c| ≤ 7 a2 + b2 + c2 . Cas
d'égalité ?
IV. PYTHAGORE, SCHMIDT, BESSEL 55

Exercice 3.2. Donner une autre démonstration de l'inégalité de Schwarz dans un espace
euclidien basée sur l'inégalité 2
x y
kxk kyk ≥ 0.

Exercice 3.3.
Pn Pn
Soient p1 , q1 , . . . , pn , qn des nombres > 0 tels que i=1 pi = i=1 qi = 1.
Montrer n
X
i p2
1≤ .
i=1
q i
√ √
Méthode : appliquer Cauchy- Schwarz à ai = pi / qi et bi = qi .

IV Pythagore, Schmidt, Bessel


Dénition 4.1. Soit E un espace préhilbertien réel et x et y dans E. On dit que x et y
sont orthogonaux si hx, yi = 0. Une partie V de E est dite orthogonale si tout couple x, y
de vecteurs distincts de V est orthogonal. Enn U est dite orthonormale si de plus tous
les vecteurs de V sont de norme 1.

Proposition 4.1. Soit V une famille orthogonale de E ne comprenant pas 0. Alors


1. La famille V est libre.
2. Si x est dans l'espace vectoriel engendré par la famille V, avec x = λ1 v1 + . . . λk vk
et {v1 , . . . , vk } ⊂ V, alors

hx, vj i (hx, v1 i)2 (hx, vk i)2


λj = 2
, kxk = + ··· + (4.6)
kvj k2 kv1 k2 kvk k2

3. En particulier, pour la famille orthogonale V = {v1 , . . . , vk } on a le Théorème de


Pythagore :
kv1 + · · · + vk k2 = kv1 k2 + · · · + kvk k2 .
4. Si E est de dimension nie, si e = (e1 , . . . , eq ) est une base orthonormale, si [x]e =
[x1 , . . . , xq ]T et si [y]e = [y1 , . . . , yqT alors xj = hx, ej i et yj = hy, ej i et

hx, yi = x1 y1 + x2 y2 + . . . + xq yq .

Démonstration : Montrons simultanément 1) et 2). Soit {v1 , . . . , vk } ⊂ V, soit des


nombres λj réels, j = 1, . . . k et soit x = λ1 v1 + . . . λk vk . Formons le produit scalaire
hx, vj i. Comme les {v1 , . . . , vk } sont orthogonaux on a donc hx, vj i = λj kvj k2 . Comme V
ne comprend pas le vecteur nul, kvj k2 6= 0. Dans ces conditions, si x = 0 alors λj = 0
pour tout j : ceci montre le 1). Pour terminer le 2) on forme

kxk2 = hx, xi = hx, λ1 v1 + . . . λk vk i


56 CHAPITRE 2. ESPACES EUCLIDIENS

et on conclut facilement avec hx, vj i = λj kvj k2 . Le 3) est le cas particulier λj = 1 pour


tout j. Le 4) est évident.

Théorème 4.2. (Procédé d'orthonormalisation de Schmidt). Soit E un espace préhil-


bertien réel et f = (fk )qk=1 une suite nie de q vecteurs de E indépendants. Soit Fk le
sous espace vectoriel de dimension k engendré par {f1 , f2 , . . . , fk }. Alors il existe une suite
(appelée base de Schmidt associée à f ) orthonormale unique ef = (e1 , . . . , eq ) telle que
 Pour tout k , la suite (e1 , . . . , ek ) est une base de Fk .
 Le nombre hek , fk i est strictement positif.
De plus, si E est euclidien de dimension q , de bases f et e où e est orthonormale, alors
e est la base de Schmidt associée à f si et seulement si [idE ]ef est triangulaire supérieure
avec diagonale formée d'éléments > 0.

Démonstration : On procède par récurrence. L'indépendance de f entraîne que f1 6= 0.


On prend e1 = f1 /kf1 k et il est clair que c'est le seul choix possible pour satisfaire 1) et 2)
avec k = 1. Supposons (e1 , . . . , en−1 ) déterminés de sorte que 1) et 2) sont satisfaits avec
k = 1, . . . , n − 1 et supposons qu'on ait montré que cette propriété entraînait l'unicité de
(e1 , . . . , en−1 ). Nous étendons cela à l'ordre n ainsi : soit
n−1
X
gn = fn − hfn , ek iek . (4.7)
k=1

Existence. Il est impossible que gn = 0 car alors fn ∈ Fn−1 , ce qui contredit l'indépendance
de (f1 , . . . , fn ). On remarque alors que gn est orthogonal à Fn−1 . En eet pour j =
1, . . . , n − 1 on a
n−1
X
hgn , ej i = hfn , ej i − hfn , ek ihek , ej i = 0,
k=1

car (e1 , . . . , en−1 ) est orthonormale et donc hek , ej i = 0 si j 6= k et hej , ej i = 1. Puisque


gn est orthogonal à chacun des vecteurs ej et que ceux ci forment une base de Fn−1 , gn
est donc orthogonal à chacun des vecteurs de Fn−1 . De plus
n−1
X
hgn , fn i = hgn , gn + hfn , ek iek i = kgn k2 > 0.
k=1

En prenant en = gn /kgn k on a montré l'existence.


Unicité. Pour voir l'unicité de en , on considère
V = {x ∈ Fn ; hx, yi = 0 ∀y ∈ Fn−1 }.

Il est clair que V est un sous espace de Fn et que V ∩ Fn−1 = {0}, car un vecteur de
cette intersection est orthogonal à lui même. Donc V et Fn−1 sont en somme directe et
Fn−1 ⊕ V ⊂ Fn . Toutefois dim V ≥ 1 puisque V contient en . Donc comme dim Fk = k on
a dim V = 1. Or si un autre e0n convenait, il serait dans V, de norme 1. Si e0n 6= en alors
e0n = −en , mais puisque hfn , e0n i = −hfn , en i < 0 la condition 2 n'est pas remplie. Donc
e0 n = en et l'unicité est montrée.
IV. PYTHAGORE, SCHMIDT, BESSEL 57

Changement de base. Si e = ef alors avec les notations ci dessus on a pour n = 1, . . . q :

fn = hfn , e1 ie1 + . . . + hfn , en−1 ien−1 + kgn ken ,


 
kg1 k hf2 , e1 i . . . hfq , e1 i
 0 kg2 k . . . hfq , e2 i 
[idE ]ef = 
 ...
.
... ... ... 
0 0 . . . kgq k
La réciproque est facile.

Remarques : La démonstration précédente contient un algorithme pour calculer la base


de Schmidt. En pratique on calcule à l'étape n le vecteur gn apparaissant en (4.7) puis sa
norme par la formule
n−1
X
2
kgn k = hgn , gn i = hfn , fn i − (hfn , ek i)2 . (4.8)
k=1

Notez que si e = ef , alors [idE ]fe est aussi triangulaire supérieure avec diagonale positive,
comme inverse d'une matrice de ce type.
La première conséquence du théorème est que tout espace euclidien a une base ortho-
normale (qu'on abréviera désormais par bon) : si E est un tel espace, en tant qu'espace
de dimension nie il a une base f , et la base de Schmidt ef est orthonormale. Ensuite,
ce théorème a plusieurs versions voisines. L'une d'entre elles part de f et fabrique g or-
thogonale telle que pour tout k (g1 , . . . , gk ) est une base de Fk et telle que gk − fk soit
dans Fk−1 . L'autre suppose que E est de dimension innie et part d'une suite f = (fk )k≥1
innie de vecteurs indépendants de E. . On fabrique alors une suite e = (fk )k≥1 avec les
propriétés 1) et 2) du théorème. Ceci est particulièrement utilisé quand E est l'espace des
polynômes à coecients réels, qu'on le munit d'un produit scalaire et qu'on applique le
théorème à la suite f = (fk )k≥0 dénie par f0 (X) = 1, f1 (X) = X, . . . , fk (X) = X k . Alors
ek est un polynôme de degré k. Ceci conduit à la riche théorie des polynômes orthogonaux.
Les ek dépendent du produit scalaire choisi. Un exemple fréquent est
Z ∞
hP, Qi = P (x)Q(x)f (x)dx
−∞

où f est une fonction positive, mais il y en a d'autres très diérents. Les polynômes
orthogonaux interviennent dans beaucoup de domaines, des mathématiques pures à la
physique.

Voici maintenant l'important théorème de projection orthogonale sur un sous espace


de dimension nie :

Théorème 4.3. Soit E un espace préhilbertien réel, F un sous espace de E de dimension


nie, et soit F ⊥ l'ensemble de tous les vecteurs de E orthogonaux à tous les éléments de
F. Alors
58 CHAPITRE 2. ESPACES EUCLIDIENS

1. F ⊥ est un sous espace, F et F ⊥ sont en somme directe et E = F ⊕ F ⊥ .


2. Soit pF la projection de E sur F parallèlement à F ⊥ . Si x ∈ E et y0 ∈ F alors il y a
équivalence entre les trois propriétés suivantes : (a) y0 = pF (x); (b) kx−y0 k ≤ kx−yk
pour tout y ∈ F ; (c) hx − y0 , yi = 0 pour tout y ∈ F.

Remarques : Donc la projection orthogonale pF (x) est aussi caractérisée par le fait que
c'est le vecteur de F qui minimise la distance entre x et F, et par le fait que x − pF (x) est
orthogonal à F. L'endomorphisme de E déni par x 7→ 2pF (x) − x est appelé la symétrie
orthogonale par rapport à F.
Démonstration : 1) 0 ∈ F ⊥ , qui est donc non vide. Si x et x1 sont dans F ⊥ et si λ et
λ1 sont dans R, alors pour tout y de F on a

hλx + λ1 x1 , yi = λhx, yi + λ1 hx1 , yi = 0

et donc F ⊥ est bien un sous espace vectoriel. Ensuite, y dans F ∩ F ⊥ est orthogonal à lui
même et est donc nul. Enn soit f = (f1 , . . . , fn ) une bon de F. Notons alors
n
X
pF (x) = hfj , xifj ∈ F.
j=1

Alors x − pF (x) ∈ F ⊥ , car hfj , x − pF (x)i = 0 pour tout j = 1, . . . , n. Donc pour tout x
de E on a
x = (x − pF (x)) + pF (x) ∈ F ⊥ + F
et donc F ⊥ est un supplémentaire de F. De plus x 7→ pF (x) est la projection de x sur F
parallèlement à F ⊥ .
2) (a) ⇒ (c) : par dénition de pF . (c) ⇒ (a) : notons z = pF (x) − y0 ∈ F. Alors

0 = hx − y0 , zi = hx − pF (x) + z, zi = hx − pF (x), zi + kzk2 .

Donc z = 0. (a) ⇒ (b) : notons z = pF (x) − y. Alors, d'après Pythagore

kx − yk2 = kx − pF (x) + zk2 = kx − pF (x)k2 + kzk2 ≥ kx − pF (x)k2 .

(b) ⇒ (a) : c'est la partie la plus délicate. Posons X = x − y0 et Y = x − pF (x).


D'après (a) ⇒ (b) on a kXk2 = kY k2 . Ensuite, si nous notons y1 = 21 (y0 + pF (x)), par
hypothèse on a
1
kXk2 = kY k2 ≤ kx − y1 k2 = k (X + Y )k2 .
2
Appliquons alors l'égalité du parallélogramme à (X, Y ). On obtient

1
kX − Y k2 = 2kXk2 + 2kY k2 − kX + Y k2 = 4(kXk2 − k (X + Y )k2 ) ≤ 0.
2
On en déduit que X = Y et donc que y0 = PF (x). Le théorème est montré.
IV. PYTHAGORE, SCHMIDT, BESSEL 59

Corollaire 4.4. (Inégalité de Bessel) Soit e = (e1 , . . . , en ) une suite orthonormale nie
d'un espace préhilbertien réel E , soit F le sous espace engendré par e et soit x dans E.
Alors n
X
2
kxk ≥ (hx, ej i)2 ,
j=1

avec égalité si et seulement si x est dans F.

Démonstration : Ecrivons x = y + z, avec y ∈ F et z ∈ F ⊥ . Ensuite, hx, ej i =


hy, ej i + hz, ej i = hy, ej i et d'après la Proposition 4.1 :
n
X
2
kyk = (hx, ej i)2 ≤ kyk2 + kzk2 = kxk2 ,
j=1

avec égalité si et seulement si z = 0, c'est à dire si x ∈ F.

Exercice 4.1. Soit e0 , e1 , . . . , en la base canonique de l'espace Rn+1 muni de sa structure


euclidienne canonique. On pose
1 1
h= (e1 + · · · + en ), g = (e0 + e1 + · · · + en ).
n n+1
1. Calculer ke0 − gk2 et ke0 − hk2 .
2. Montrer que e0 − h est orthogonal au sous espace vectoriel de Rn+1 engendré par les n
vecteurs ei − h, i = 1, 2, . . . , n.
3. Les vecteurs e0 , e1 , . . . , en forment les sommets d'un tétraèdre régulier situé dans l'hy-
perplan d'équation x0 + x1 + . . . + xn = 1. Quelle est la longueur de l'arête de ce
tétraèdre ? Quelle est sa hauteur ? Quel est le rayon de la sphère de ce plan qui passe
par tous les sommets ? Si n = 3 et si un tétraèdre régulier est d'arête a, quelle est sa
hauteur en fonction de a? Quel est le rayon de sa sphère circonscrite en fonction de a?

Exercice 4.2. Dans R3 euclidien canonique, on considère le plan vectoriel


F = {(x, y, z); 6x + 3y − 2z = 0}.

Donner une base orthonormale de F ⊥ . Calculer le projeté orthogonal du vecteur ~v = (7, 7, 7)


sur F ⊥ , puis en déduire le projeté orthogonal de ~v sur F.

Exercice 4.3. L'espace R5 est muni de sa structure euclidienne canonique. Soit E le sous
espace de R des (x1 , · · · , x5 ) tels que x1 + · · · + x5 = 0. E est donc également un espace
5

euclidien, dont les vecteurs

f~1 = (1, −1, 0, 0, 0), f~2 = (1, 0, −1, 0, 0), f~3 = (1, 0, 0, −1, 0), f~4 = (1, 0, 0, 0, −1)

forment une base f ordonnée. Calculer la base orthonormale de E associée à f par le procédé
de Schmidt.
60 CHAPITRE 2. ESPACES EUCLIDIENS

Exercice 4.4. Dans R2 , soient n points Pi = (xi , yi ), où les xi ne sont pas tous égaux.
et
Pnsoit D la droite2 d'équation y = ax + b, avec (a, b) 6= (0, 0). On veut trouver D tel que
i=1 (yi −axi −b) soit minimum (droite des moindres carrés). Pour cela on considère l'espace
euclidien E = Rn muni de son produit scalaire canonique et les trois vecteurs colonnes 1 X et
Y de E dénis par 1T = (1, . . . , 1), X T = (x1 , . . . , xn ), Y T = (y1 , . . . , yn ), et le sous espace
vectoriel F de E engendré par 1 et X . Quelle est la dimension de F ? Calculer en fonction
de X et Y les nombres a et b tels que Z = aX + b1 soit la projection orthogonale de Y sur
F. Dans le cas particulier où n = 4 et où P1 = (1, 3), P2 = (2, 4), P3 = (4, 3), P4 = (5, 6),
donner l'équation de la droite des moindres carrés.

Exercice 4.5. (Base de Schmidt du tétraèdre régulier). Une suite de vecteurs de l'espace
euclidien E (vk )nk=0 est dite régulière si v0 = 0 et si, pour 0 ≤ i < j ≤ n on a ||vi − vj ||2 = 1.
Montrer qu'alors (v1 , · · · , vn ) est une suite indépendante ( Méthode : calculer hvi , vj i). Montrer
qu'il existe des suites régulières. (Par exemple, dans un espace euclidien F de dimension n + 1
muni d'une base orthonormale f = (f~0 , · · · , f~n ), considérer vk = √12 (fk − f0 )). Soit (vk )nk=0
une suite régulière de l'espace euclidien E et soit e = (e1 , · · · , en ) la base de Schmidt associée
à (v1 , · · · , vn ). Montrer qu'il existe des nombres réels (a1 , · · · , an ) et (b1 , · · · , bn−1 ) tels que
pour tout k = 1, · · · , n on ait X
vk = ak ek + bi ei .
i<k

(Méthode : procéder par récurrence sur k . Si c'est vrai pour k , soit

vk+1 = c1 e1 + · · · + ck ek + ak+1 ek+1 .

Pour montrer que b1 = c1 , . . . , bk−1 = ck−1 , montrer que vk+1 − vk est orthogonal à Fk−1 , le
sous espace engendré par v1 , · · · , vk−1 ). Calculer les (a1 , · · · , an ) et (b1 , · · · , bn−1 ). Méthode :
utiliser kvk k2 , hvk , vk+1 i et kvk+1 k2 pour montrer que

1
a2k+1 = 1 − .
4a2k

Exercice 4.6. Soit E un espace euclidien de dimension d+1. Soit H un sous espace vectoriel
de dimension d et soit (v0 , . . . , vd ) des vecteurs de H tels que hvi , vj i = −1 si i 6= j.
1. Montrer que dj=0 1+kv1 j k2 = 1. Méthode : soit u un vecteur de norme 1 orthogonal à H.
P

Montrer que wj = vj + u dénit une suite orthogonale de E. Si aj = 1/kwj k montrer


que ej = aj wj dénit une suite orthonormale de E. Exprimer alors les composantes de
u dans la bon e = (e0 , e1 , . . . , ed ) et conclure.
v
2. Montrer que dj=0 1+kvjj k2 = 0. Méthode : multiplier scalairement les deux membres par
P

vi avec i = 0, . . . , d.
3. Si a et b sont des vecteurs
Pde E l'endomorphisme de E déni par x 7→ ahb, xi est
d vj ⊗vj
noté a ⊗ b. Montrer que j=0 1+kvj k2 = idH . Méthode : montrer au préalable que
idH = idE − u ⊗ u.
IV. PYTHAGORE, SCHMIDT, BESSEL 61

Exercice 4.7. (Réciproque de l'exercice 4.6) Soit H un espace euclidien de dimension d, un


ensemble V = {v0 , . . . , vd } de vecteurs de H et une suite (p0 , . . . , pd ) de nombres strictement
positifs. On suppose que
d
X d
X d
X
pj = 1, pj vj = 0, pj vj ⊗ vj = idH .
j=0 j=0 j=0

Montrer qu'alors hvi , vj i = −1 si i 6= j et que pj = 1/(1 + kvj k2 ). Méthode :


1. Montrer que la famille V \ {v0 } est indépendante (sinon les v1 , . . . , vd sont orthogonaux
à un même vecteurP non nul h de H , et par la condition 2, v0 aussi. Appliquer alors
l'endomorphisme dj=0 pj vj ⊗ vj au vecteur h pour obtenir une contradiction).
2. Par la condition 2, calculer les composantes de v0 dans la base (v1 , . . . , vd ) en fonction
des (p0 , . . . , pd ).
3. Appliquer l'endomorphisme dj=0 pj vj ⊗vj au vecteur v0 , en déduire une autre expression
P
des composantes de v0 dans la base (v1 , . . . , vd ) et comparer les résultats.
4. Répéter la procédure en remplaçant v0 par vi et en déduire l'existence d'un nombre λ
tel que hvi , vj i = −λ si i =
6 j.
5. Utiliser la condition 2 pour montrer que λ > 0. Appliquer l'exercice 4.6 à la suite
vj0 = λ−1/2 vj et la condition 1 pour voir que λ = 1.

Exercice 4.8. On garde les notations et les hypothèses de l'exercice 4.7. Montrer que le
carré de la distance de 0 à l'hyperplan ane engendré par v1 , . . . , vd est égaleP
à p0 /(1 − p0 ).
d
(Méthode : tout point x de cet hyperplan ane étant de la forme x = i=1 λi vi avec
λ1 + · · · + λd = 1, montrer à l'aide de hvi , vj i = −1 puis de Cauchy-Schwarz que

d
2
X λ2 i 1
kxk = −1 + ≥ −1 +
i=1
pi 1 − p0

et que l'égalité est atteinte en x0 déni par λi = pi /(1 − p0 ) pour i = 1, . . . , d). Montrer
aussi que x0 et v0 sont colinéaires. En déduire par symétrie que les hauteurs du tétraèdre de
sommets v0 , . . . , vd passent toutes par 0. Autrement dit, fait exceptionnel, le tétraèdre a un
orthocentre, qui est ici 0.

Exercice 4.9. Calculer B T B si


1 1
1
 
√2 √2
3
B= 0

2
− √63 .
6
0 0 3

Soit (fi )3i=1 une base ordonnée de l'espace euclidien de dimension 3 telle que kfi k2 = 1 pour
tout i et telle
P3 que si i 6= j on ait hfi , fj i ≥ 0. Soit (ei )i=1 la base de Schmidt engendrée, et
3

soit fj = i=1 bij ei . Est il vrai que bij soit toujours positif ?
62 CHAPITRE 2. ESPACES EUCLIDIENS

Exercice 4.10. Le cochonnet monstrueux. Soit e = (e1 , . . . , eq ) une bon de l'espace


euclidien E de dimension q. Si a ∈ E et r > 0 le cube C(a, r) est l'ensemble des x =
a + λ1 e1 + . . . + λq eq avec les λj dans [−1, 1], et la boule B(a, r) est l'ensemble des x tels
que kx − ak2 ≤ r2 .
1. Montrer que B(a, r) ⊂ C(a, r).
2. Si ε = ε1 , . . . , εq ) ∈ {−1, 1}q notons a(ε) = ε1 e1 + · · · , εq eq . Dans le cube C(0, 2)
on place les 2q boules B(a(ε), 1). Par exemple si q = 3 le cube C(0, 2)est la boite qui
contient huit boules de pétanque de diamètre 2. Il reste de la place au centre pour y
loger le cochonnet, c'est à dire la plus grosse boule possible B(0, r) telle que B(0, r)
soit tangente aux 2q boules B(a(ε), 1). Calculer r pour les diérentes valeurs de q.
3. Si q = 9 montrer que r = 2 c'est dire que le cochonnet est tangent aux parois de la
boîte C(0, 2). Si q ≥ 10 montrer que le cochonnet sort de la boîte C(0, 2).

Exercice 4.11. Si p et q sont des entiers strictement positifs, on note par Jp,q la matrice à
p lignes et q colonnes dont tous les coecients sont égaux à 1. Soit a et b des réels. Le but
de l'exercice est de trouver le polynôme caractéristique de la matrice carrée d'ordre p + q
 
aJp,p bJp,q
M= .
bJq,p aJq,q

par choix d'une base adaptée. Soit E et F deux sous espaces vectoriels orthogonaux de l'espace
euclidien G tels que G = E ⊕ F. Soit e = (e1 , . . . , ep ) et f = (f1 , . . . , fq ) des bon de E et F
et soit g = e ∪ f. On note s = e1 + · · · + ep et t = f1 + · · · + fq et on dénit l'endomorphisme
m de G par m(ei ) = as + bt pour i = 1, . . . , p et m(fj ) = bs + at pour j = 1, . . . , q.
1. Montrer que M = [m]gg .
2. Si x ∈ E et y ∈ F montrer que

m(x + y) = hx, si(as + bt) + hy, ti(bs + at).

3. Soit e01 = √1p s et f10 = √1q t et soit e0 = (e01 , . . . , e0p ) et f 0 = (f10 , . . . , fq0 ) des bon de E
et F . Calculer les m(e0i ) et m(fj0 ) à l'aide du 2.
 √ 
ap b pq
4. Soit la bon g 0 = (e01 , f10 , e02 , . . . , e0p , f20 , . . . , fq0 ) de G. Si S = √ montrer
b pq aq  
g0 S 0
à l'aide du 3 que par blocs 2 × 2 et (p + q − 2) × (p + q − 2) on a [m]g0 = .
0 0
Calculer le polynôme caractéristique de S. En déduire le polynôme caractéristique de m
et de M.

Exercice 4.11. Soit U et V des sous espaces vectoriels de l'espace euclidien E, pas néces-
sairement orthogonaux mais en somme directe et tels que E = U + V. Soit p la projection
de E sur U parallèlement à V (c'est à dire que si x = u + v avec u ∈ U et v ∈ V alors
p(x) = u). Montrer que U et V sont orthogonaux si et seulement si pour tout x ∈ E on a
kp(x)k2 ≤ kxk2 . Méthode pour ⇐ : si il existait (u, v) ∈ U × V tel que 0 6= hu, vi considérons
V. DUAL ET ADJOINTS 63

pour tout t ∈ R le vecteur de E x(t) = u + tv. Explicitez le polynôme du second degré P


déni par
P (t) = kx(t)k2 − kp(x(t))k2 = ku + tvk2 − kuk2
et utilisez le fait que son discriminant doit être ≤ 0 puisque P (t) ≥ 0 pour tout t ∈ R.

V Dual et adjoints
Nous ne considérons plus les espaces préhilbertiens réels en général, mais seulement
les espaces euclidiens. Si E est un espace de dimension nie q sur un corps K , l'espace
E ∗ = L(E, K) des applications linéaires de E dans le corps de base est appelé le dual de E
et ses éléments sont appelés des formes linéaires. Puisque dim L(E, F ) = dim E × dim F,
on a donc dim E ∗ = dim E. Toutefois les deux espaces E et E ∗ sont isomorphes seulement
au sens où deux espaces de même dimension sur K le sont, sans que parmi les nombreux
isomorphismes possibles -paramétrés par les matrices carrées d'ordre q inversibles- l'un
d'entre se distingue et se montre plus utile4 . Quand K = R et que E est euclidien il en va
diéremment et il y a un isomorphisme canonique, c'est à dire plus naturel que les autres,
entre un espace euclidien et son dual :

Proposition 5.1. Soit E un espace euclidien et soit E ∗ son dual. Si y ∈ E , on note


par Fy l'élément de E ∗ déni par Fy (x) = hx, yi. Alors ϕ : y 7→ Fy = ϕ(y) est un
isomorphisme entre E et E ∗ .

Démonstration : Soient y et y1 dans E , λ et λ1 dans R. Le fait que pour tout x de E


on ait
hx, λy + λ1 y1 i = λhx, yi + λ1 hx, y1 i
se traduit par Fλy+λ1 y1 = λFy + λ1 Fy1 , et donc ϕ est bien une application linéaire de E
dans E ∗ . Soit ensuite une bon e = (e1 , . . . , eq ) de E. Si y ∈ E est tel que Fy est la forme
linéaire nulle, cela entraîne hx, yi
P= 0 pour tout x ∈ E , et en particulier hej , yi = 0 pour
q
tout j = 1, . . . , q, et donc y = j=1 hy, ej iej = 0 (Proposition 4.1). Donc le noyau de ϕ
est {0} et ϕ est injective. Comme E et E ∗ ont même dimension, on en déduit que ϕ est
surjective et que c'est un isomorphisme.

Exemples. Si une bon e de E est donnée, et si f ∈ E ∗ est donné pour [x]e = [x1 , . . . , xq ]T
par
f (x) = a1 x1 + · · · + aq xq ,
alors le y ∈ E tel que f = Fy , c'est à dire y = ϕ−1 (f ), est donné par [y]e = [a1 , . . . , aq ]T .
Ce peut être plus pénible si une bon n'a pas été explicitée. Ainsi considérons le cas où E
est l'espace des polynômes réels de degré ≤ 2 muni du produit scalaire
Z 1
hP, Qi = P (x)Q(x)dx,
0

4 L'étude du dual sur un espace quelconque sera reprise au chapitre 4.


64 CHAPITRE 2. ESPACES EUCLIDIENS

et considérons la forme linéaire f sur E dénie par f (P ) = P (2). Pour trouver le polynôme
R1
Q = ϕ−1 (f ) tel que pour tout p de E on ait P (2) = 0 P (x)Q(x)dx, on peut utiliser la base
non orthogonale dénie par e0 (x) = 1, e1 (x) = x, e2 (x) = x2 , noter Q(x) = q0 +q1 x+q2 x2 ,
et faire successivement P = e0 , e1 , e2 pour obtenir un systême linéaire en (q0 , q1 , q2 ) : la
proposition précédente garantit que c'est un systême de Cramer.
1 1 1 1 1 1 1 1
1 = q0 + q1 + q2 , 2 = q0 + q1 + q2 , 4 = q0 + q 1 + q2 .
2 3 2 3 4 3 4 5
Son déterminant est 1/2160. La solution est q0 = 57, q1 = −372, q2 = 390.

Nous introduisons maintenant la notion fondamentale d'adjoint d'une application li-


néaire a entre deux espaces euclidiens5 E et F.

Proposition 5.2. Soit E et F deux espaces euclidiens. Alors pour tout a ∈ L(E, F ) il
existe un unique a ∈ L(F, E) appelé adjoint de a tel que pour tout x ∈ E et tout y ∈ F

on ait

ha(x), yi = hx, a∗ (y)i. (5.9)


Dans ces conditions, a 7→ a∗ est un isomorphisme entre les espaces vectoriels L(E, F )
et L(F, E) et a∗∗ = a. De plus, si e et f sont des bon de E et F , alors [a∗ ]ef = ([a]fe )T .
Ensuite, si dim E = dim F et si a−1 existe, alors (a−1 )∗ = (a∗ )−1 . Si G est euclidien, si
a ∈ L(E, F ), si b ∈ L(F, G) alors (b ◦ a)∗ = a∗ ◦ b∗ . Enn si a ∈ L(E) alors det a∗ = det a
et (exp a)∗ = exp(a∗ ).

Remarques : L'énoncé ci dessus est compliqué par le fait qu'on ne suppose pas nécessai-
rement E = F. Par exemple, dans (2.3), il faut réaliser que le produit scalaire de gauche
est celui de F et celui de droite est celui de E. En principe, il n'y a pas d'ambiguité, mais
certains auteurs préfèrent écrire ha(x), yiF = hx, a∗ (y)iE . Le cas le plus important est celui
où E = F et où on parle d'adjoint d'un endomorphisme d'espace euclidien. Notez que
[a∗ ]ee = ([a]ee )T n'est pas vrai en général si e n'est pas une bon. Notez que l'adjoint d'un
produit d'endomorphismes n'est pas le produit des adjoints, mais le produit renversé.

Démonstration : Existence de l'adjoint. Soit a ∈ L(E, F ). Fixons des bon e et f aux


espaces euclidiens E et F et soit
A = [a]fe = (aij )1≤i≤p,1≤j≤q .
Dénissons a∗ ∈ L(F, E) par sa matrice représentative [a∗ ]ef = AT . Alors si x ∈ E et y ∈ F
ont pour matrices représentatives [x]e = [x1 , . . . , xq ] et [y]f = [y1 , . . . , yp ] on a puisque les
bases sont orthonormales
p q q p
X X X X
ha(x), yi = yi ( aij xj ) = xj ( aij yi ) = hx, a∗ (y)i.
i=1 j=1 j=1 i=1

5 Une notion d'adjoint pour des espaces quelconques qui généralise le cas euclidien est faite au chapitre
4. Elle est plus abstraite.
V. DUAL ET ADJOINTS 65

Unicité de l'adjoint. Si a0 satisfait aussi ha(x), yi = hx, a0 (y)i, alors


0 = hx, a∗ (y)i − hx, a0 (y)i = hx, (a∗ − a0 )(y)i.
En prenant x = (a∗ − a0 )(y), cela entraîne k(a∗ − a0 )(y)k2 = 0 pour tout y ∈ F et donc
a∗ − a0 = 0.
Autres propriétés. Elles découlent de l'isomorphisme entre L(E, F ) et l'espace Mpq (R)
des matrices réelles à p lignes et q colonnes.

Exercice 5.1. L'espace vectoriel Rréel E des polynômes réels de degré ≤ n est muni de
1
la structure euclidienne hP, Qi = 0 P (t)Q(t)dt. Soit f la forme linéaire sur E dénie par
f (P ) = P (1/3). (a) Dans le cas où n = 1, trouver Q dans E tel que pour tout P de E on
ait f (P ) = hP, Qi. (b) Dans le cas d'un n quelconque, montrer l'existence et l'unicité d'un Q
dans E tel que pour tout P de E on ait f (P ) = hP, Qi.

Exercice 5.2. Soit a = (a0 , . . . , an ) ∈ Rn+1 tel que a0 6= 0. Soit E le sous espace de
l'espace R n+1
euclidien canonique formé par les suites x = (x0 , x1 , . . . , xn ) de réels tels que
a0 x0 + a1 x1 + · · · + an xn = 0. Quelle est la dimension de E? On considère la forme linéaire
g sur E dénie par g(x) = x0 . Trouver l'unique y = (y0 , y1 , . . . , yn ) dans E tel que pour
tout x ∈ E on ait g(x) = hx, yi (Voir Proposition 5.1. Méthode : Trouver le réel v0 tel que
v = (v0 , a1 , . . . , an ) soit dans E et chercher ensuite y sous la forme y = λv ). Application :
montrer que
x20 a20
max = 1 − .
x∈E\{0} kxk2 kak2
(Méthode : appliquer l'inégalité de Schwarz à x20 = hy, xi2 ).

Exercice 5.3. Soit y dans E euclidien et Fy (x) = hy, xi. Donc (Fy )∗ est une application
linéaire de R dans E qu'on demande de préciser en termes de y.

Exercice 5.4. Soit a un endomorphisme de l'espace euclidien E et b = aa∗ − a∗ a. Montrer


que b = 0 (c'est à dire que a et a commutent) si et seulement si pour tout x ∈ E on a

ka(x)k2 = ka∗ (x)k2 . Méthode pour ⇐ : en utilisant une identité de polarisation (Proposition
2.1) montrer que pour tous x et y ∈ E on a
ha(x), a(y)i = ha∗ (x), a∗ (y)i, hx, b(y)i = 0
puis choisir x = b(y). Autre méthode quand on a lu le Théorème spectral 9.1 plus bas : sans
polarisation, montrer que pour tout x ∈ E on a hx, b(x)i = 0 et utiliser le fait que b = b∗
pour voir que b est diagonalisable, puis en déduire b = 0 (Comparer cet exercice avec le Th.
3.1 du chapitre 3).

Exercice 5.5. Soit U et V des sous espaces vectoriels de l'espace euclidien E, pas néces-
sairement orthogonaux mais en somme directe et tels que E = U + V. Soit p la projection
de E sur U parallèlement à V. On veut décrire p∗ . Montrer que U ⊥ ∩ V ⊥ = {0} et, par un
argument de dimension, que U ⊥ + V ⊥ = E. Montrer que pour tout u ∈ U , v ∈ V et x ∈ E
on a hu + v, p∗ (x)i = hu, xi et donc
hu, x − p∗ (x)i = hv, p∗ (x)i.
66 CHAPITRE 2. ESPACES EUCLIDIENS

En déduire que les deux membres sont nuls. De l'égalité x = p∗ (x) + (x − p∗ (x) déduire que
p∗ est la projection sur V ⊥ parallèlement à U ⊥ . Montrer que p = p∗ si et seulement si U et
V sont orthogonaux.

VI Le groupe orthogonal, les matrices orthogonales


Théorème 6.1. Soit E un espace euclidien et soit a un endomorphisme de E. Alors les
propriétés suivantes sont équivalentes
1. Pour tous x et y de E on a ha(x), a(y)i = hx, yi (Conservation du produit scalaire).
2. Pour tout x ∈ E on a ka(x)k2 = kxk2 (Conservation de la norme).
3. a−1 existe et a−1 = a∗ (L'adjoint égale l'inverse).
4. Il existe une bon e = (e1 , . . . , eq ) de E telle que (a(e1 ), . . . , a(eq )) soit aussi une bon.
5. Pour toute bon e = (e1 , . . . , eq ) de E alors (a(e1 ), . . . , a(eq )) est aussi une bon
(Conservation des bon).

Remarques : Un endomorphisme a satisfaisant une des propriétés équivalentes ci dessus


est dit orthogonal. On l'appelle aussi parfois une isométrie vectorielle. On prend en général
le 1), la préservation du produit scalaire, comme dénition. Les autres sont alors appelées
propriétés caractéristiques. Certains auteurs prennent toutefois a−1 = a∗ comme déni-
tion (rappel : a−1 = a∗ ⇔ aa∗ = idE ⇔ a∗ a = idE ). L' ensemble des endomorphismes
orthogonaux de l'espace euclidien E est noté O(E). Un exemple important d'endomor-
phisme orthogonal est la symétrie orthogonale x 7→ 2pF (x) − x par rapport à un sous
espace F de E (rappelons que pF (x) est la projection orthogonale de x sur F et que donc
x−pF (x) est orthogonal à pF (x)). En eet, cet endomorphisme conserve la norme puisque
d'après Pythagore on a

k2pF (x) − xk2 = kpF (x)k2 + kpF (x) − xk2 = kpF (x)k2 + kx − pF (x)k2 = kxk2 .

Démonstration : 1) ⇒ 2) est trivial en faisant x = y dans 1). Ensuite, 2) ⇒ 1) est clair


par polarisation. 3) ⇒ 1) vient de

ha(x), a(y)i = hx, a∗ a(y)i = hx, a−1 a(y)i = hx, yi.

1) ⇒ 3) : d'après le 1) on a que pour tous x et y de E : hx, (a∗ a − idE )(y)i = 0.


Appliquons cela à x = (a∗ a − idE )(y) pour obtenir k(a∗ a − idE )(y)k2 = 0 pour tout y et
donc a∗ a − idE = 0. Comme E est de dimension nie, cela entraîne aussi aa∗ = idE et 3)
est vrai.
5) ⇒ 4) est évident. 1) ⇒ 5) : en eet ha(ej ), a(ej )i = hej , ej i = 1, et pour i 6= j
ha(ei ), a(ej )i = hei , ej i = 0. Donc a(e) = (a(e1 ), . . . , a(eq )) est aussi une bon. Montrons
enn 4) ⇒ 1).
VI. LE GROUPE ORTHOGONAL, LES MATRICES ORTHOGONALES 67

Avec [x]e = [x1 , . . . , xq ] et [y]e = [y1 , . . . , yq ] on a puisque les bases sont orthonormales
q q q q
X X X X
ha(x), a(y)i = ha( xi ei ), a( yj ej )i = xi yj ha(ei ), a(ej )i.
i=1 j=1 i=1 j=1

Comme
Pq la base a(e) est orthogonale alors (ha(ei ), a(ej )i) = Iq et on en tire ha(x), a(y)i =
i=1 xi yi = hx, yi. Le théorème est démontré.

Corollaire 6.2. Si E est euclidien, alors O(E) est un sous groupe (appelé groupe or-
thogonal de E ) pour la composition du groupe GL(E) des automorphismes de E (appelé
groupe linéaire de E ). De plus, si a ∈ O(E) alors det a = ±1 et les seules valeurs propres
de a sont ±1. Enn, si O+ (E) est l'ensemble des a ∈ O(E) tels que det a = 1 (appelés
rotations) et si O− (E) est l'ensemble des a ∈ O(E) tels que det a = −1 alors O+ (E) est
un sous groupe de O(E) (appelé groupe spécial orthogonal de E et aussi noté SO(E)),
et pour a xé dans O− (E) l'application de O− (E) dans O+ (E) dénie par b 7→ ab est
bijective.
Démonstration : a et b dans O(E) implique (ab)∗ = b∗ a∗ = b−1 a−1 = (ab)−1 et donc
ab ∈ O(E). Ensuite, idE ∈ O(E) trivialement. Enn a ∈ O(E) implique (a−1 )∗ = (a∗ )∗ =
a = (a∗ )−1 et donc a−1 ∈ O(E). Donc O(E) est bien un sous groupe de GL(E). Ensuite,
si a ∈ O(E), alors aa∗ = idE entraîne det a det a∗ = 1 et donc (det a)2 = 1. Si a ∈ O(E)
toujours, et si λ est une valeur propre de a, soit v 6= 0 un vecteur propre associé. Puisque
a(v) = λv et que a conserve la norme on a λ2 kvk2 = ka(v)k2 = kvk2 et donc en simpliant
par le nombre non nul kvk2 on a λ2 = 1 et λ = ±1. Il est clair que O+ (E) est un sous
groupe de O(E) (et que O− (E) n'est pas un). Enn, si a ∈ O− (E) et b ∈ O− (E) il est clair
que ab ∈ O+ (E). Cette application b 7→ ab de O− (E) dans O+ (E) est injective puisque
ab = ab0 entraîne b = b0 par multiplication à gauche par a−1 . Elle est surjective, car si
c ∈ O+ (E) alors b = a−1 c est dans O− (E) et donc ab = c.

Dénition 6.1. Une matrice carrée réelle A est dite orthogonale si elle est inversible et
si A−1 = AT . L'ensemble des matrices orthogonales d'ordre q est noté O(q), l'ensemble
des matrices orthogonales d'ordre q à déterminant positif est noté O+ (q) ou SO(q) et
l'ensemble des matrices orthogonales d'ordre q à déterminant négatif est noté O− (q).
Commentons cette dénition. D'après le cours de première année, la dénition A−1 =
AT des matrices orthogonales est équivalente à chacune des propriétés suivantes
AAT = Iq , AT A = Iq .
Si A = (aij )1≤i,j≤q , alors AAT = Iq est équivalent à
q
X
aik ajk = 0 si i 6= j
k=1
= 1 si i = j. (6.10)

C'est dire que si on considère les lignes de la matrice A comme des vecteurs de Rq muni
de sa structure euclidienne et de sa bon canonique, alors ces lignes forment une autre bon
68 CHAPITRE 2. ESPACES EUCLIDIENS

de Rq . De la même manière, AT AT = Iq est équivalent à


q
X
aki akj = 0 si i 6= j
k=1
= 1 si i = j. (6.11)

C'est dire que si on considère les colonnes de la matrice A comme des vecteurs de Rq ,
alors ces colonnes forment une autre bon de Rq .

Théorème 6.3. Soit E un espace euclidien de dimension q et soit A une matrice carrée
réelle d'ordre q. Alors les propriétés suivantes sont équivalentes :
1. A ∈ O(q).
2. Il existe une bon e de E et a ∈ O(E) tels que [a]ee = A.
3. Pour toute bon e de E il existe a ∈ O(E) tel que [a]ee = A.
4. Il existe deux bon e et f de E telles que [idE ]ef = A.
5. Pour toute bon e de E il existe une bon f de E telle que [idE ]ef = A.
6. Pour toute bon f de E il existe une bon e de E telle que [idE ]ef = A.

Remarque : La philosophie de ce théorème est que les matrices orthogonales ont deux
interprétations bien distinctes :
 Elles sont les matrices représentatives des endomorphismes orthogonaux dans une
base orthonormale ; de cela il découle du Corollaire 6.2 que O(q) et SO(q) sont des
groupes, et qui sont isomorphes à O(E) et SO(E) si dim E = q.
 Elles sont les matrices de passage d'une bon vers une autre.

Démonstration : 3) ⇒ 2) est évident. 2) ⇒ 1), car AT = ([a]ee )T = [a∗ ]ee et A−1 =


([a]ee )−1 = [a−1 ]ee = [a∗ ]ee et donc A−1 = AT . Enn 1) ⇒ 3), car

[a∗ − a−1 ]ee = [a∗ ]ee − [a−1 ]ee = AT − A−1 = 0.

5) ⇒ 4) est évident. 4) ⇒ 1) : dénissons a ∈ L(E) par a(ej ) = fj pour tout j = 1, . . . , q.


Alors [a]ee = [idE ]ef = A. D'après le Théorème 6.1 on a a ∈ O(E) et d'après la partie
1) ⇒ 3) on a le résultat. 1) ⇒ 5) : dénissons a ∈ L(E) par [a]ee = A. D'après 1) ⇔ 3)
on a a ∈ O(E). Donc f = a(e) est une bon d'après le Théorème 6.1. Enn [a]ee = [idE ]ef .
L'équivalence 1) ⇔ 6) si montre comme 1) ⇔ 5) et le théorème est montré.
On complète cette section par quelques résultats utiles.

Corollaire 6.4. Soit M une matrice carrée inversible d'ordre q. Alors il existe un couple
unique (A, T ) avec A ∈ O(q) et T matrice triangulaire supérieure à diagonale positive tel
que M = AT. Mêmes armations avec M = T A.

Remarques : C'est une proposition fort utile en analyse numérique, qui relie Schmidt
et O(q). En prenant des transposées dans le résultat précédent on obtient un résultat
analogue avec les triangulaires inférieures. En écrivant dans le résultat précédent T = DN
VI. LE GROUPE ORTHOGONAL, LES MATRICES ORTHOGONALES 69

avec D diagonale positive et N triangulaire supérieure avec des 1 sur la diagonale, on


obtient encore des décompositions uniques : M = ADN, ou N DA, DN A, AN D.

Démonstration : Soit E un espace euclidien de dimension q et e une bon de E. Puisque


M est inversible, il existe une base unique f , non nécessairement orthonormale, telle que
M = [idE ]ef . Soit alors e0 = ef la bon de Schmidt associée à f. Alors
0
M = [idE ]ef = [idE ]ee0 [idE ]ef = AT
0
avec A = [idE ]ee0 ∈ O(q) par le Théorème 6.3 et T = [idE ]ef triangulaire supérieure à
diagonale positive par le Théorème 4.2. De même, pour avoir plutôt M = T A on part
d'un f tel que
0
M = [idE ]fe = [idE ]fe0 [idE ]ee = T A.
0
Si T = [idE ]fe0 alors T −1 = [idE ]ef est triangulaire supérieure à diagonale positive par le
Théorème 4.2 et il en est donc de même pour T. L'unicité dans les deux cas est facile à
montrer, à partir de l'unicité du procédé de Schmidt.

Proposition 6.5. Soit a ∈ O(E) et F un sous espace de E stable par a, c'est à dire tel
que a(F ) ⊂ F. Alors a(F ) = F et a(F ⊥ ) = F ⊥ .

Démonstration : La restriction aF de a est un endomorphisme de F dont le noyau


ker aF = ker a ∩ F est réduit à {0} puisque a est inversible. Donc aF est surjectif. Ensuite,
soit y ∈ F ⊥ . On veut montrer que a(y) ∈ F ⊥ . Pour cela on utilise la surjectivité de aF :
tout élément de F est de la forme a(x) pour un x ∈ F. Donc

ha(x), a(y)i = hx, yi = 0

montre que F ⊥ est stable par a, et par la première partie a(F ⊥ ) = F ⊥ .

Proposition 6.6. (Déterminant d'un système de vecteurs dans un espace euclidien orienté).
Soit E un espace euclidien orienté de dimension q. Soit v = (v1 , . . . , vq ) une suite de q
vecteurs et soit e une bon directe. Alors le nombre

det([v1 ]e , . . . , [vq ]e )

ne dépend pas de la bon directe e choisie.

Remarques : Dans un espace de dimension nie quelconque, même sur le corps K = R,


la notion de déterminant de système de vecteurs n'a pas de sens intrinsèque car le nombre
det([v1 ]e , . . . , [vq ]e ) varie avec la base e. Dans le cas d'un espace euclidien, si on se limite
aux bases orthonormales et directes, on a une invariance. Si on considère le parallélépipède
engendré par v :

P (v) = {x = λ1 v1 + · · · + λq vq ; 0 ≤ λj ≤ 1, j = 1, . . . , q},
alors le nombre | det([v1 ]e , . . . , [vq ]e )| est appelé le volume de P (v). Si q = 2 on voit facile-
ment en partitionnant le parallélogramme P (v) en un triangle plus un trapèze que ceci est
70 CHAPITRE 2. ESPACES EUCLIDIENS

l'aire d'un rectangle convenable. Si q = 3 le fait que | det([v1 ]e , [v2 ]e , [v3 ]e )| soit le volume
au sens intuitif de la physique est en fait plus dicile à justier rigoureusement et relève
de la troisième année d'université. Le nombre relatif det([v1 ]e , . . . , [vq ]e ) est appelé volume
algébrique de P (v), une notion que nous n'allons pas approfondir puisqu'elle nécessite de
dénir une orientation de P (v).

Démonstration : Si f est une autre bon directe, soit P = [idE ]ef la matrice de changement
de base. Alors det P > 0 car e et f ont même orientation, P ∈ O(q) car e et f sont des
bon et le Théorème 6.3 s'applique. Donc det P = 1. Ensuite pour tout x de E on a
[x]e = [idE ]ef [x]f = P [x]f . Par conséquent, en écrivant la matrice carrée des vecteurs
colonnes [vj ]e on a
[[v1 ]e , . . . , [vq ]e ] = [P [v1 ]f , . . . , P [vq ]f ] = P [[v1 ]f , . . . , [vq ]f ],
det([v1 ]e , . . . , [vq ]e ) = det P det([v1 ]f , . . . , [vq ]f ) = det([v1 ]f , . . . , [vq ]f ).

Voici pour terminer une curiosité sans grand intérêt qu'adorent les jurys de concours :
la caractérisation des endomorphismes orthogonaux sans hypothèse de linéarité :

Proposition 6.7. Soit E un espace euclidien et a une application de E dans E telle que
a(0) = 0 et telle que pour tous x et y de E on ait
ka(x) − a(y)k2 = kx − yk2 .
Alors a ∈ O(E).

Démonstration : Par polarisation on a


1
ha(x), a(y)i = (ka(x)k2 + ka(y)k2 − ka(x) − a(y)k2 ).
2
De plus, comme a(0) = 0 on a ka(x)k2 = kxk2 . Donc ha(x), a(y)i = hx, yi. Reste donc à
montrer que a est linéaire. Soit λ et µ des réels. On veut donc montrer que
z = a(λx + µy) − λa(x) − µa(y)
est nul. On écrit pour cela pour tout v ∈ E :

hz, a(v)i = ha(λx + µy), a(v)i − λha(x), a(v)i − µha(y), a(v)i


= hλx + µy, vi − λhx, vi − µhy, vi = 0
Appliquant alors successivement cette égalité à v = λx + µy, à v = x et à v = y, on en
tire hz, zi = 0 et donc z = 0, ce qui achève la démonstration.

Exercice 6.1. Trouver les nombres réels a, b, c, pour que la matrice suivante
 −1

√1 √ a
3 2
U = √1 √1 b 

3 2 
√1 0 c
3
VI. LE GROUPE ORTHOGONAL, LES MATRICES ORTHOGONALES 71

soit dans SO(3), c'est à dire telle que U soit orthogonale de déterminant positif.

Exercice 6.2. (Suites stationnaires dans un espace euclidien) Soit E un espace euclidien de
dimension q et soit (bn )n∈Z une suite de E indexée par l'ensemble Z des entiers relatifs non
concentrée sur un sous espace ane de E , c'est à dire qu' il existe n0 < n1 < n2 < . . . < nq
tels que (bn1 − bn0 , . . . , bnq − bn0 ) est une base de E . On suppose qu'il existe u ∈ O(E) et
t ∈ E tels que si f est la transformation ane de E dénie par f (x) = u(x) + t alors pour
tout n ∈ Z on a bn = f n (b0 ). Montrer que c'est équivalent au fait que pour tout k ∈ Z le
nombre ψ(k) = kbn+k − bn k2 ne dépend pas de n ∈ Z. Montrer dans ces conditions qu'il
existe des nombres p0 , p1 , . . . , pr ≥ 0 et des nombres réels θ1 , . . . , θr tels que
r
X
ψ(k) = k 2 p0 + (1 − cos kθj )pj .
j=1

Exercice 6.3. Soit F un sous espace vectoriel d'un espace euclidien E et soit sF la symétrie
orthogonale par rapport à F. Si e est une bon contenue dans F ∪ F ⊥ calculer [sF ]ee et montrer
que −sF = sF ⊥ .

Exercice 6.4. Soit a un endomorphisme de l'espace euclidien tel que kxk ≤ kyk entraine
ka(x)k ≤ ka(y)k. Montrer qu'il existe u ∈ O(E) et λ ∈ [0, 1] tels que a = λu. Méthode :
montrer que kxk = kyk entraine ka(x)k = ka(y)k et que λ = ka(x)k/kxk ne dépend pas de
x. Si λ > 0 montrer que x 7→ a(x)/λ est orthogonal.

Exercice 6.5. Une similitude vectorielle de l'espace euclidien E est un endomorphisme f


de E de la forme x 7→ λu(x) avec λ > 0 et u ∈ O(E) (le nombre λ est appelé rapport de
similitude). Soit alors f ∈ GL(E). On suppose que pour tous x et y de E orthogonaux alors
f (x) et f (y) sont orthogonaux. Montrer qu'alors f est une similitude vectorielle. Méthode :
on prend une bon e = (e1 , . . . , eq ) de E quelconque on montre que pour i 6= 1 alors f (e1 + ei )
et f (e1 − ei ) sont orthogonaux. On en déduit que λ = kf (ei )k ne dépend pas de i. Pour
terminer on démontre que la matrice λ1 [f ]ee est orthogonale en utilisant la dénition d'une
matrice orthogonale.

Exercice 6.6. Soit H le sous espace de l'espace R3 euclidien canonique déni par H = {x =
(x1 , x2 , x3 ) ; x1 + x2 + x3 = 0} et soit f l'endomorphisme de H déni par

1
f (x) = f (x1 , x2 , x3 ) = √ (x1 − x2 , x2 − x3 , x3 − x1 ).
3

Montrer que kf (x)k2 = kxk2 (méthode : expliciter (x1 + x2 + x3 )2 ).

Exercice 6.7. Soit U = (uij )1≤i,j≤q ∈ O(q). Montrer que


X
| uij | ≤ q.
i,j
72 CHAPITRE 2. ESPACES EUCLIDIENS

Méthode : dans E = Rq euclidien canonique considérer la bon canonique e = (~e1 , . . . , ~eq ) et


la suite de vecteurs s = (~u1 , . . . , ~uq ) avec ~ui = (ui1 , . . . , uiq ). Montrer à l'aide de (6.11) que
s est une bon de E. Former ensuite f~ = ~e1 + · · · + ~eq et ~g = ~u1 + · · · + ~uq , montrer que
P ~ g i et calculer les normes de f~ et ~g . Conclure avec l'inégalité de Schwarz. Autre
i,j uij = hf , ~
méthode, utilisant le Théorème spectral 9.1 ci dessous : Si J est la matrice carrée d'ordre q
dont tous les coecients sont 1 soitPu et j les endomorphismes de E tels que [u]ee = U et
[j]ee = J. Observer que trace (uj) = i,j uij et montrer qu'il existe une bon f de E telle que
[j]ff = diag(q, 0, . . . , 0) (c'est à dire que la matrice J de rang 1 a q pour unique valeur propre
non nulle). Notant [u]ff = (vij )1≤i,j≤q ∈ O(q) montrer que trace (uj) = qv11 et conclure.

VII Le groupe orthogonal du plan ; dimensions supé-


rieures.
Théorème 7.1. Soit E euclidien de dimension 2 et a dans O(E). Alors  
1 0
 ou bien a ∈ O− (E). Alors il existe une bon e = (e1 , e2 ) telle que = [a]ee .
0 −1
Dans ce cas, a est une symétrie orthogonale par rapport à la droite du plan Re1 .
 ou bien a ∈ O+ (E). Si de plus E est orienté, alors il existe un nombre θ tel que pour
toute bon directe e on ait
 
cos θ − sin θ
e
[a]e = R(θ) = , (7.12)
sin θ cos θ

et pour toute bon indirecte on ait [a]ee = R(−θ).

Remarques : Le nombre θ apparaissant quand a ∈ SO(E) est appelé angle orienté de la


rotation a. Il n'est pas unique en ce sens qu'on peut le remplacer par θ + 2kπ pour k ∈ Z.
Il est remarquable qu'il ne dépende pas de la bon directe e. Il dépend de l'orientation :
changer l'orientation du plan euclidien changerait θ en −θ. L'angle orienté est relié à
la notion d'angle introduite à la Proposition 3.2 ainsi : si a ∈ SO(E) et si [a]ee = R(θ)
dans une bon directe alors pour x 6= 0 on a ha(x), xi = kxk2 cos θ. Bien que θ ne soit pas
nécessairement dans [0, π], il existe certainement un θ1 ∈ [0, π] tel que cos θ = cos θ1 . Ce θ1
est l'angle des deux vecteurs a(x) et x. Il n'est pas orienté, il ne change pas si on échange
a(x) et x, il ne dépend pas de l'orientation du plan euclidien. Cette notion d'angle orienté
est spéciale au plan euclidien et ne généralise pas aux dimensions supérieures.

Démonstration : Si det a = −1 alors le polynôme caractéristique de a est Pa (X) =


X 2 − trace aX − 1. Il a donc deux racines réelles distinctes, qui sont donc −1 et 1 d'après
le Corollaire 6.2. a est donc diagonalisable car q = 2 et il y a 2 valeurs propres distinctes.
Soit e1 un vecteur propre associé à la valeur propre 1 et e2 un vecteur propre associé à la
valeur propre −1. On les prend de norme 1. Ils sont orthogonaux car

he1 , e2 i = ha(e1 ), a(e2 )i = he1 , −e2 i = −he1 , e2 i.


VII. LE GROUPE ORTHOGONAL DU PLAN ; DIMENSIONS SUPÉRIEURES. 73
Le résultat s'ensuit.  
α β
Si maintenant det a = 1, soit e une bon directe et = [a]ee . Comme c'est une
γ δ
matrice orthogonale on a α2 + β 2 = γ 2 + δ 2 = 1, et le cours de première année entraîne
l'existence de nombres θ et θ1 tels que

α = cos θ, β = − sin θ, γ = sin θ1 , δ = cos θ1 .

De plus
1 = det a = αδ − βγ = cos(θ − θ1 ),
et donc θ = θ1 mod 2π : donc [a]ee = R(θ). Au passage, nous venons de montrer que si P
est une matrice orthogonale de SO(2) alors il existe un nombre t tel que P = R(t).
Observons ensuite que R(θ)R(θ0 ) = R(θ + θ0 ) par les formules de trigonométrie. Si
alors f est une autre bon directe, alors P = [idE ]ef est dans SO(2) et il existe un réel t tel
que P = R(t). Donc P −1 = R(−t) et

[a]ff = [idE ]fe [a]ee [idE ]ef = R(−t)R(θ)R(t) = R(−t + θ + t) = R(θ).

Finalement, si f = (f1 , f2 ) est une bon indirecte alors e = (f1 , −f2 ) est une bon directe
et donc    
f f e e 1 0 1 0
[a]f = [idE ]e [a]e [idE ]f = R(θ) = R(−θ).
0 −1 0 −1

Théorème 7.2. Soit E un espace euclidien de dimension q et soit a ∈ O(E). Alors il


existe une bon e, des entiers positifs ou nuls r, p et n tels que p + n + 2r = q et des
nombres réels θ1 , . . . , θr dans tels que [a]ee s'écrive par blocs :

[a]ee = diag(R(θ1 ), . . . , R(θr ), Ip , −In ).

De plus, si a ∈ SO(E) on peut prendre n = 0. Finalement, pour a ∈ L(E) alors a ∈ SO(E)


si et seulement si il existe b ∈ L(E) tel que b + b∗ = 0 et a = eb .

Remarques : Il n'y pas tout à fait unicité de (p, n, r) avec l'énoncé précédent puisque
I2 = R(0) et −I2 = R(π). On pourrait arriver à cette unicité en imposant que les θj
soient dans ]0, π[ mais nous ignorons ce ranement, laissé en exercice. L'énoncé montre
que SO(E) est connexe par arcs, un terme déni dans le cours d'analyse : si a ∈ SO(E)
soit b ∈ L(E) tel que b∗ = −b (on dit que b est antisymétrique) et tel que a = eb . Soit
at = ebt . Alors t 7→ at est une application continue de [0, 1] dans SO(E), ce qui conduit
facilement à la connexité annoncée.

Démonstration : On procède par récurrence sur q. C'est évident pour q = 1 et c'est un


conséquence du Théorème 7.1 si q = 2. Si c'est vrai pour tous les entiers inférieurs à q
on utilise le Théorème 1.2 : puisque E est un espace réel, il y a un sous espace F de E
de dimension 1 ou 2 qui est stable par a. On utilise alors la Proposition 6.5 qui dit que
F ⊥ est stable par a. Comme dim F ⊥ < q on peut trouver une bon e0 de F ⊥ telle que la
74 CHAPITRE 2. ESPACES EUCLIDIENS

restriction aF ⊥ de a à F ⊥ ait la forme voulue. De même il y a une bon f de F pour que


aF ait aussi la forme voulue, et la bon e = e0 ∪ f convient : la récurrence est étendue. Si
a ∈ SO(E) il est clair qu'alors n = 2m doit être pair. En écrivant −I2 = R(π) on a la
forme annoncée.
Enn si a ∈ SO(E), pour voir qu'il existe b ∈ L(E)  tel que b + b = 0 et a = e on
∗ b

0 −1
utilise l'exemple 9.1 du chapitre 1 qui dit que si A = alors exp(θA) = R(θ).
1 0
Donc pour a ∈ SO(E) on peut écrire dans une certaine bon e

[a]ee = diag(R(θ1 ), . . . , R(θr ), Ip ) = exp B

avec B = diag(θ1 A, . . . , θr A, 0p ). Dénissons b ∈ L(E) par [b]ee = B. On a bien a = exp b.


Puisque e est une bon, alors [b∗ ]ee = B T . Comme AT = −A on a donc B T = −B et
b∗ = −b. Inversement, a = exp b satisfait a∗ = exp b∗ par dénition de l'exponentielle. Si
alors b∗ = −b alors a∗ = a−1 et donc a ∈ O(E). Mais det exp b > 0 (ou bien parce que
det exp b = exp trace b, ou bien plus simplement parce que exp b = exp(b/2) exp(b/2) et
donc det exp b = (det exp(b/2))2 ). Donc a ∈ SO(E).

Corollaire 7.3. Soit E un espace euclidien orienté de dimension 3 et a ∈ SO(E). Alors


1 est valeur propre, a a une droite Re3 de vecteurs xes (appelée axe de rotation) et il
existe un nombre θ tel que pour toute bon directe e = (e1 , e2 , e3 ) on ait
 
R(θ) 0
[a]ee = .
0 1

En particulier, cos θ = 21 (trace a−1). Si a ∈ O− (E) alors −1 est valeur propre. Si e3 est tel
que a(e3 ) = −e3 alors il existe un nombre θ tel que pour toute bon directe e = (e1 , e2 , e3 )
on ait  
e R(θ) 0
[a]e = .
0 −1

Remarques : On pourrait énoncer un résultat voisin sans orienter E, mais la présente


version est plus utile. Notez qu'on ne peut pas parler d'angle algébrique de rotation en 3
dimensions, même à 2π près. En eet si a ∈ SO(E) le choix de e3 a une ambiguité de signe
qui se reporte sur θ. On peut quand même visualiser un élément de SO(E) comme une
rotation autour d'un axe, et un élément de O− (E) comme la donnée d'un plan vectoriel
F par rapport auquel on fait une symétrie orthogonale suivie d'une rotation autour de
l'axe perpendiculaire au plan F. Si a ∈ SO(E), on parlera de sa représentation a = eb à
la Proposition 8.2 plus loin.

Démonstration : Il sut d'appliquer le Théorème 7.2 : si a ∈ SO(E) alors il existe une


bon e telle que [a]ee = diag(R(θ), 1) ou [a]ee = I3 , puisque 2r + p = 3 n'a que les solutions
(r, p) = (1, 1) ou (0, 3). Si a ∈ O− (E) alors il faut n impair, et donc n = 1 correspond à
[a]ee = diag(R(θ), −1) ou [a]ee = diag(I2 , −1), et n = 3 correspond à [a]ee = −I3 .
VII. LE GROUPE ORTHOGONAL DU PLAN ; DIMENSIONS SUPÉRIEURES. 75
Proposition 7.4. Si θ ∈ R notons
   
R(θ) 0 1 0
P (θ) = , Q(θ) = .
0 1 0 R(θ)

Alors pour tout A ∈ SO(3) il existe trois nombres (ψ, θ, ϕ) tels que A = P (ϕ)Q(θ)P (ψ).

Démonstration : L'espace R3 est muni de sa structure euclidienne et de sa bon ordonnée


e = (e1 , e2 , e3 ) canoniques et il est orienté pour que e soit directe. Soit a ∈ SO(R3 ) tel
que A = [a]ee . Soit f = (f1 , f2 , f3 ) la bon directe dénie par a(ej ) = fj . Le résultat est
trivial si e3 = f3 : il sut de prendre alors θ = ψ = 0. Si f3 = −e3 il sut de prendre
θ = π et ψ = 0. Si e3 6= ±f3 , soit D la droite d'intersection des plans (e1 , e2 ) et (f1 , f2 ) et
soit u celui des deux vecteurs de D de norme 1 tel que la base (u, e3 , f3 ) soit directe. On
considère alors a1 , a2 et a3 dans SO(R3 ) dénis par a1 (e1 ) = u et a1 (e3 ) = e3 qui satisfait
donc [a1 ]ee = P (ψ) pour un ψ convenable ; a2 (u) = u et a2 (e3 ) = f3 , qui satisfait donc
[a2 ◦ a1 ]ee = Q(θ)P (ψ) pour un θ convenable ; a3 (f3 ) = f3 a3 (u) = f1 qui satisfait donc
[a3 ◦ a2 ◦ a1 ]ee = P (ϕ)Q(θ)P (ψ) pour un ψ convenable. Reste à vérier a = a3 ◦ a2 ◦ a1 .
Pour cela on calcule a3 ◦ a2 ◦ a1 sur e1 et e3 et on trouve f1 et f3 . Comme a3 ◦ a2 ◦ a1
est dans SO(R3 ) qui respecte les bon directes cela entraîne que a3 ◦ a2 ◦ a1 (e2 ) = f2 et le
résultat est montré.

Remarques : L'angle ψ est dit de précession, l'angle θ est dit de nutation et l'angle ϕ
est dit de rotation propre. Ce sont les trois angles d'Euler d'une rotation, qui fournissent
le paramétrage de SO(E) qu'utilisent les mécaniciens. La construction ci dessus montre
que ces angles ne sont pas tout à fait uniques, mais on peut les rendre uniques si on
reste pour A dans un voisinage de I3 assez petit. Ce paramétrage en fait ne renseigne pas
directement sur l'axe de rotation et l'angle de rotation.

Exercice 7.1. Soit D et D0 deux droites vectorielles d'un plan euclidien orienté E. Soit ~u et
u~0 des vecteurs de norme 1 qui engendrent D et D0 , et on suppose que (~u, u~0 ) est une base
directe. On note h~u, u~0 i = cos α, avec 0 < α < π. Soit sD et sD0 les symétries orthogonales
par rapport à D et D0 . (a) Calculer l'angle des rotations sD ◦ sD0 et sD0 ◦ sD par rapport à
α. (b) Soit pD et pD0 les projections orthogonales sur D et D0 . Soit e1 un vecteur de norme
1 proportionnel à u + u0 . Soit e2 orthogonal à e1 de norme 1, et soit la bon e = (e1 , e2 ).
Exprimer [pD ]ee et [pD0 ]ee . Montrer que ±(pD − pD0 )/ sin α sont des symétries orthogonales par
rapport aux droites R(e1 ± e2 ), les bissectrices des axes engendrés par e1 et e2 .
 
a b
Exercice 7.2. Soit E l'espace vectoriel sur R des matrices x = c d réelles (2, 2). On
note par x∗ la transposée de x. On note par P+ le sous espace vectoriel de E formé des x tels
que d = a et c = −b, et par P− le sous espace vectoriel de E formé des x tels que d = −a et
c = b. On note par O+ le sous groupe du groupe orthogonal O(2) des x tels que det x = 1.
On note par O− le sous ensemble du groupe orthogonal O(2) des x tels que det x = −1.
Montrer que hx, x0 i = trace (x∗ x0 ) est un produit scalaire sur E, qu'on considère désormais
comme un espace euclidien de dimension 4. Montrer que P+ et P− sont orthogonaux et que
76 CHAPITRE 2. ESPACES EUCLIDIENS


E = P+ ⊕ P− . Soit S la sphère de E centrée en 0 et de rayon 2. Montrer que O+ = S ∩ P+
et que O− = S ∩ P− .

Exercice 7.3. Soit a un endomorphisme antisymétrique de l'espace euclidien E. Montrer que


si y : R → L(E) est dérivable et satisfait y 0 = ay, alors y(t) ∈ SO(E) pour tout t (Méthode :
utiliser l'exercice 9.4 du chapitre 1).

Exercice 7.4. Soit a un endomorphisme orthogonal de l'espace euclidien E de dimension


n. Montrer à l'aide du Théorème 7.2 et de l'exercice 7.1 a) que a est le produit d'au plus n
symétries orthogonales par rapport à des hyperplans (c'est à dire des sous espaces vectoriels
de dimension n − 1).

Exercice 7.5. L'endomorphisme orthogonal du plan H de l'exercice 6.6 est-il une symétrie
orthogonale ? (méthode : chercher s'il y a des vecteurs propres).

VIII Produit vectoriel en dimension 3 et quaternions


Nous donnons d'abord une dénition intrinsèque du produit vectoriel, c'est à dire libre
d'un système de coordonnées. Rappelons que le déterminant d'un système de q vecteurs
dans un espace euclidien orienté de dimension q a été déni à la Proposition 6.6.

Dénition 8.1. Soit E un espace euclidien de dimension 3 orienté. Le produit vectoriel


u ∧ v des vecteurs u et v de E est l'unique vecteur6 de E tel que pour tout w ∈ E on ait
hu ∧ v, wi = det(u, v, w). En d'autres termes, u ∧ v est le vecteur associé (voir section 5)
à la forme linéaire sur E dénie par w 7→ det(u, v, w). Le nombre det(u, v, w) est appelé
produit mixte des vecteurs u, v, w.
Proposition 8.1. Soit E euclidien orienté de dimension 3. On a les propriétés suivantes :
1. (u, v) 7→ u ∧ v est bilinéaire.
2. (u, v) 7→ u ∧ v est antisymétrique : u ∧ v = −v ∧ u.
3. Soit e = (i, j, k) une bon directe de E, [u]e = [a, b, c]T et [v]e = [x, y, z]T . Alors

[u ∧ v]e = [bz − cy, cx − az, ay − bx]T .

En particulier
i ∧ j = k, j ∧ k = i, k ∧ i = j. (8.13)

4. hu ∧ v, ui = 0 et hu ∧ v, vi = 0.
5. Si u 6= 0 et v 6= 0, soit θ l'angle entre u et v, c'est à dire le nombre de [0, π] déni
par θ = arccos(hu, vi/(kukkvk). Alors ku ∧ vk2 = kuk2 kvk2 sin2 θ.
6. Double produit vectoriel : (u ∧ v) ∧ w = hu, wiv − hv, wiu.
7. Si u et v sont indépendants, alors (u, v, u ∧ v) est une base directe.
6 Noté u×v et appelé cross product dans les ouvrages anglo-saxons.
VIII. PRODUIT VECTORIEL EN DIMENSION 3 ET QUATERNIONS 77

Démonstration : 1) et 2) découlent du fait que le déterminant est une forme multilinéaire


alternée. 3) s'obtient par exemple avec la règle de Sarrus : si [w]e = [X, Y, Z]T alors
 
a x X
det  b y Y  = (bz − cy)X + (cx − az)Y + (ay − bx)Z.
c z Z

4) découle du fait que det(u, v, u) = det(u, v, v) = 0. 5) peut se montrer par la méthode


peu élégante suivante : si e est une bon directe et [u]e = [a, b, c]T et [v]e = [x, y, z]T alors 7

ku ∧ vk2 − kuk2 kvk2 (1 − cos2 θ) = ku ∧ vk2 − kuk2 kvk2 + hu, vi2 =


(bz − cy)2 + (cx − az)2 + (ay − bx)2 − (a2 + b2 + c2 )(x2 + y 2 + z 2 ) + (ax + by + cz)2 = 0.

Une autre méthode plus rapide, mais moins symétrique consiste à choisir d'abord la bon
directe e = (e1 , e2 , e3 ) en fonction de u et v en posant u = ae1 et v = xe1 + ye2 comme
dans le procédé de Schmidt. Alors [u ∧ v]e = [0, 0, ay]T et le calcul ci dessus est très
facile. C'est cette méthode que nous suivons pour le 6) : Si u = ae1 , v = xe1 + ye2 et
w = Xe1 + Y e2 + Ze3 . Alors

[u ∧ v]e = [0, 0, ay]T , [(u ∧ v) ∧ w]e = [−ayY, ayX, 0]T ,

[hu, wiv − hv, wiu]e = [aXx, aXy, 0]T − [(xX + yY )a, 0, 0]T = [−ayY, ayX, 0]T .
De même pour le 7), avec u = ae1 , v = xe1 + ye2 alors ay 6= 0 si u et v sont indépendants,
et il est clair que f = (u, v, u ∧ v) est une base puisque, d'après le 4) le vecteur u ∧ v
est orthogonal au plan engendré par u et v . Comme [idE ]ef est triangulaire supérieure
de diagonale (a, y, ay) son déterminant a2 y 2 est > 0 et f est directe : la proposition est
montrée.

Proposition 8.2. Soit E euclidien orienté de dimension 3 et soit A le sous espace


vectoriel de L(E) formé des endomorphismes antisymétriques. Soit u ∈ E et ϕu (x) = u∧x.
Alors ϕu est dans A et l'application u 7→ ϕu est un isomorphisme entre E et A. Si e est
une bon directe et si [u]e = [a, b, c]T , alors
 
0 −c b
[ϕu ]ee =  c 0 −a  , (8.14)
−b a 0

Enn, si θ = kuk > 0, si f = (f1 , f2 , f3 ) est une bon directe telle que f3 = u/θ, alors on a
 
R(θ) 0
[exp ϕu ] = ,
0 1

c'est à dire que exp ϕu est une rotation d'axe u et d'angle θ.


7 On a ici une nouvelle démonstration de l'inégalité de Schwarz en dimension 3, avec représentation
explicite de la diérence par ku ∧ vk2 = kuk2 kvk2 − hu, vi2 .
78 CHAPITRE 2. ESPACES EUCLIDIENS

Démonstration : D'après la Proposition 8.1, partie 1), ϕu est bien linéaire. Calculons
son adjoint :
hv, ϕ∗u (w)i = hϕu (v), wi = det(u, v, w) = − det(u, w, v) = −hϕu (w), vi = −hv, ϕu (w)i.
Donc ϕ∗u = −ϕu et ϕu est bien antisymétrique. La Proposition 8.1 partie 3) montre que
[ϕu ]ee a bien la forme indiquée en (8.14). Il est clair que u 7→ ϕu est linéaire de E dans A
et que toute matrice rélle (3, 3) antisymétrique a la forme du second membre de (8.14).
Donc dim A = 3 et u 7→ ϕu est un isomorphisme.
Ensuite,
 si la bon f est comme indiquée, alors [a, b, c]T = [0, 0, θ]T , avec θ = kuk. Si
0 −1
A= alors (8.14) devient [ϕu ]ee = diag[θA, 1] et avec l'exemple 9.1 du chapitre
1 0
1 qui arme exp(θA) = R(θ), on a le résultat annoncé.

Corollaire 8.3. Soit E euclidien orienté de dimension 3 et u ∈ E tel que θ = kuk > 0.
Soit a = exp ϕu et v ∈ E déni par ϕv = a − a∗ . Alors v = 2 sinθ
θ
u. En particulier si
θ 6≡ π/2 mod π, u est proportionnel à v.

Démonstration : L'existence de v découle de la proposition et du fait que b = a − a∗


est antisymétrique. Soit f = (f1 , f2 , f3 ) une bon directe telle que f3 = u/θ. Alors d'après
la Proposition 8.2
 
0 −2 sin θ 0
[ϕv ]ff = [a − a∗ ]ff =  2 sin θ 0 0 , (8.15)
0 0 0
et donc d'après (8.14) on a [v]f = [0, 0, 2 sin θ]T . Comme [u]f = [0, 0, θ]T , on a le résultat.

Remarque. L'intérêt du corollaire est qu'il permet de calculer rapidement l'axe de ro-
tation d'un élément a ∈ SO(E) quand celui ci est connu par sa matrice représentative
A = [a]ee dans une bon directe quelconque, et d'avoir avec kvk = 2| sin θ| un renseigne-
ment partiel sur l'angle de rotation. En eet le vecteur v dans la base e est donné par
[v]e = [a, b, c]T avec  
0 −c b
A − AT =  c 0 −a  .
−b a 0

Expliquons maintenant le lien qui existe entre ces questions et l'axe instantané de
rotation des mécaniciens. Quand on considère le mouvement d'un solide gardant un point
xe O dans l'espace euclidien E à trois dimensions, on considère en fait une application
continuement dérivable t 7→ at d'un intervalle [0, t1 ] dans SO(E) telle que a0 = idE . Si on
veut, si s est une bon directe attachée au solide, soit et la position de s à l'instant t. C'est
encore une bon directe, le mouvement du solide se faisant sans déformation et de facon
continue. L'endomorphisme orthogonal at est déni par at (e0 ) = et .

Proposition 8.4. Soit E un espace euclidien de dimension quelconque, I un intervalle


ouvert et t →
7 at une application continûment dérivable de I dans SO(E) et soit (at )0 ∈
VIII. PRODUIT VECTORIEL EN DIMENSION 3 ET QUATERNIONS 79

L(E) la dérivée de at au point t. Alors


1
bt = (at )0 a∗t = lim (at+h a−1
t − idE )
h→0 h

est antisymétrique. En particulier, si dim E = 3, il existe un vecteur vt ( et Rvt est alors


appelé axe instantané de rotation) tel que pour tout x ∈ E on a
1
lim (at+h a−1
t − idE )(x) = vt ∧ x.
h→0 h

Démonstration : Dérivons par rapport à t l'égalité at a∗t = idE . On obtient at (a∗t )0 +


(at )0 a∗t = 0. Notons que (a∗t )0 est l'adjoint de (at )0 . Donc (bt )∗ + bt = 0. Dans le cas
dim E = 3 on applique alors la Proposition 8.2 à bt = ϕvt .

Pour terminer cette section sur les liens entre le produit vectoriel et le groupe des rotations
en dimension 3, nous présentons l'algèbre des quaternions, qui sert en particulier à para-
métrer SO(3) et SO(4) comme on va le voir au Théorème 8.6. Nous dénissons l'algèbre
H des quaternions comme un espace euclidien orienté de dimension 4 dans lequel on a
sélectionné un vecteur de norme 1 appelé unité et noté 1. On note alors E l'espace de
dimension 3 orthogonal à 1. On oriente enn E de sorte que (1, e) soit une base directe de
H si e est une base directe de E. On identiera H = R1 ⊕ E avec (R, E) et nous noterons
alors les éléments x de H par x = (x0 , ~x) avec <x = x0 ∈ R et ~x ∈ E. Cette notation est
plus commode que x = x0 1 + ~x pour les calculs. Le produit scalaire dans E sera noté par
~x · ~y si bien que le produit scalaire dans H est

h(x0 , ~x), (y0 , ~y )i = x0 y0 + ~x · ~y .

Les quaternions de la forme (x0 , 0), c'est à dire les multiples de 1 sont dits réels, les
quaternions de la forme (0, ~x) sont dits purs. Le quaternion x = (x0 , −~x) est dit conjugué
de x = (x0 , ~x). On dénit enn le produit des quaternions x = (x0 , ~x) et y = (y0 , ~y ) par

xy = (x0 y0 − ~x · ~y , x0 ~y + y0~x + ~x ∧ ~y ). (8.16)

On voit immédiatement que xy = yx si et seulement si ~x ∧ ~y = ~0, ce qui n'est pas le


cas général. La proposition suivante centralise les propriétés algébriques du produit des
quaternions.

Proposition 8.5. Soit x, y, z des quaternions. Alors


1. (xy)z = x(yz).
2. kxyk2 = kxk2 kyk2 .
3. xx = xx = kxk2 1. En particulier si x 6= 0 et x−1 = x/kxk2 alors xx−1 = x−1 x = 1.
De plus hxy, zi = hy, xzi, hyx, zi = hy, zxi, xy = yx et hx, yi = <(xy).
4. Si (~i, ~j, ~k) est une bon directe de l'espace E des quaternions purs alors
~i~j = −~j~i = ~k, ~j~k = −~k~j = ~i, ~k~i = −~i~k = ~j, ~i2 = ~j 2 = ~k 2 = ~i~j~k = −1.
80 CHAPITRE 2. ESPACES EUCLIDIENS

De plus, si   
a b
A= ; a, b ∈ C
−b a
alors l'application x 7→ A(x) de H dans A dénie par
 
~ x0 + ix1 i(x2 + ix3 )
~ ~
A(x0 1 + x1 i + x2 j + x3 k) = (8.17)
i(x2 − ix3 ) x0 − ix1

est un isomorphisme d'algèbres, c'est à dire que A est linéaire bijective et A(xy) =
A(x)A(y).

Remarques. Le 1) montre que l'application bilinéaire (x, y) 7→ xy de H × H dans H


fait de H une algèbre associative. Le 2) montre que si kxk2 = 1 alors y 7→ xy et y 7→ yx
sont des endomorphismes orthogonaux de l'espace euclidien H. Le 3), qui dit que tout
élément non nul de H a un inverse, montre que H est un corps non commutatif (ou corps
gauche). Le 3) montre aussi que les adjoints de y 7→ xy et y 7→ yx sont z 7→ xz et
z 7→ zx. Le 4) a une importance historique car c'est sous cette forme avec coordonnées
que William Hamilton a découvert les quaternions. Comme dans le reste de ce cours,
nous avons préféré une exposition avec un minimum de coordonnées lorsque celles ci ne
s'imposent pas géométriquement. Le 4) montre que H peut être paramétré par C2 . Le
4) implique aussi que si p ∈ E est de norme 1 alors R1 + Rp est une sous algèbre de
H de dimension 2 isomorphe au corps des nombres complexes qu'Hamilton cherchait à
généraliser.

Démonstration : Pour le 1) on le vérie d'abord en supposant que (x, y, z) sont des


quaternions purs. Dans ces conditions on a

(xy)z − x(yz) = (~x · ~y , ~x ∧ ~y )z − x(~y · ~z, ~y ∧ ~z)


= ((~x ∧ ~y ) · ~z, (~x · ~y )~z + (~x ∧ ~y ) ∧ ~y ) ∧ ~z
−(~x · (~y ∧ ~z), ~x ∧ (~y · ~z) + ~x ∧ (~y ∧ ~z) = (0, ~0),

la dernière égalité étant héritée des propriétés du produit mixte (pour la composante réelle)
et de la formule du double produit vectoriel de la Proposition 8.1 (pour la composante
quaternions purs). Pour passer au cas général, on observe que 1) est trivial si un des
(x, y, z) est un quaternion réel, ce qui permet de constater facilement que (xy)z − x(yz) =
(~x~y )~z − ~x(~y~z) = 0.
Pour le 2) rappelons que d'après la Proposition 8.2

k~x ∧ ~y k2 = k~xk2 k~y k2 − (~x · ~y )2 .

Donc

kxyk2 = (x0 y0 − ~x · ~y )2 + x20 |~y k2 + y02 |~xk2 + 2x0 y0~x · ~y + k~x ∧ (~y k2
= (x20 + |~xk2 )(y02 + |~y k2 ) = kxk2 kyk2 .
VIII. PRODUIT VECTORIEL EN DIMENSION 3 ET QUATERNIONS 81

Le 3) et le 4) sont des conséquences immédiates de la dénition (8.16) du produit des qua-


ternions. Pour l'isomorphisme avec l'algèbre A, la linéarité et la bijectivité sont évidentes.
La vérication de A(xy) = A(x)A(y) est un peu laborieuse, mais élémentaire.
Voici maintenant deux extraordinaires paramétrisations des groupes SO(3) et SO(4)
par la sphère unité des quaternions.

Théorème 8.6. Soit S la sphère unité de l'algèbre H des quaternions et soit E l'ensemble
des quaternions purs. Alors
1. S est un groupe pour la multiplication.
2. Si s ∈ S alors E est stable pour x 7→ sxs−1 . Si ϕs est la restriction de x 7→ sxs−1 à
E alors s 7→ ϕs est un homomorphisme surjectif du groupe S sur le groupe SO(E)
de noyau ±1.
3. Si s et t sont dans S et si ψs,t (x) = sxt−1 alors (s, t) 7→ ψs,t est un homomorphisme
surjectif du groupe8 S × S sur le groupe SO(H) de noyau ±(1, 1).

Démonstration : Le 1) est évident avec la Proposition 8.5. Pour le 2), on observe que
x 7→ sxs−1 est dans O(H) puisque linéaire et puisque préservant la norme (d'après le 2) de
la Proposition 8.5). De plus s1s−1 = 1 et donc R1 est stable. Donc d'après la Proposition
6.5 son orthogonal E est stable. La restriction ϕs à E est donc un élément de O(E).
Explicitement :
ϕs (~x) = (s20 − k~sk2 )~x + 2s0 (~s ∧ ~x) + 2(~s · ~x)~s. (8.18)
Si ~s = ~0 alors s = ±1 et ϕs = idE . Si ~s 6= ~0 et si e = (i, j, k) est une bon directe de E
telle que k = ~s/k~sk, alors
[ϕs ]2e = diag(R(θ), 1) (8.19)
avec cos θ = s20 − k~sk2 et sin θ = 2s0 k~sk, et det ϕs = 1 est clair. En fait, (8.18) et (8.19)
permettent de voir que tout élément a de SO(E) est de la forme ϕs pour un s ∈ S
convenable. En eet si a ∈ SO(E) alors il existe une bon directe e = (i, j, k) telle que
[a]ee = diag(R(θ), 1) pour un θ ∈ [0, 2π[. On prend alors α = θ/2 et s = (cos α, k sin α).
Enn s 7→ ϕs est un homomorphisme car

ϕt ◦ ϕs (x) = ϕt (sxs−1 ) = tsxs−1 t−1 = (ts)x(ts)−1 = ϕts (x).

On a vu qu'il est surjectif. Son noyau est l'ensemble des s ∈ S tels que s~xs−1 = ~x pour
tout ~x ∈ E c'est à dire tels que ~s ∧ ~x = ~0 pour tout ~x ∈ E. Ceci n'est possible que si
~s = ~0, c'est à dire si s = ±1. La partie 2) est donc montrée.
Pour le 3) il est clair que ψs,t est dans O(H) par le 2) de la Proposition 8.7. Pour
voir que det ψs,t = 1 on peut écrire ψs,t = ψs,1 ◦ ψ1,t , calculer la matrice représentative de
ψs,1 dans une bon (1, i, j, k) telle que ~s est proportionnelle à k et calculer le déterminant
de cette matrice d'ordre 4 pas trop compliquée. On procède ensuite de même pour ψ1,t .
Toutefois une méthode moins élémentaire mais plus rapide utilise la connexité : il est clair
que s 7→ det ψs,1 est une application polynomiale, donc continue sur S. La sphère unité
d'un espace euclidien étant une partie connexe par arc, l'ensemble des valeurs prises sur
8 muni du produit (s, t)(s1 , t1 ) = (ss1 , tt1 ).
82 CHAPITRE 2. ESPACES EUCLIDIENS

S par s 7→ det ψs,1 est connexe. Cet ensemble est une partie de {−1, 1}, et il contient 1
comme on le voit en faisant s = 1. Il est donc réduit au singleton {1} et donc ψs,1 ∈ SO(H).
Le point plus ingénieux de la démonstration est de montrer que tout élément a de
SO(H) est de la forme ψs,t pour quelque (s, t) de S × S. Pour cela on note r = a(1), qui
est de norme 1. On introduit ensuite b = ψr,1 ∈ SO(H). Alors b−1 a est dans SO(H) et
préserve 1. Donc sa restriction à E est un élément de SO(E). D'après le 2) il existe donc
t ∈ S tel que b−1 a(x) = txt−1 , ce qui montre que a = ψrt,t . Vérier que (s, t) 7→ ψs,t est
bien un homomorphisme de S × S dans SO(H) est facile. Pour voir que ψs,t = idH si et
seulement si (s, t) = ±(1, 1), on exploite sx = xt pour tout x ∈ H en faisant x = s−1 ce
qui montre t = s. Le 2) permet de conclure.

Exercice 8.1. Si c = 1/ 2 soit la matrice de SO(3) suivante
 
−c c2 c2
A =  c c2 c 2  .
0 c c

A l'aide du corollaire 8.3 donner l'axe de rotation dans R3 correspondant. A l'aide du corollaire
7.3 donner le cosinus de l'angle de rotation correspondant.

Exercice 8.2. Calculer (u ∧ v) ∧ (w ∧ x).


Exercice 8.3. Soit (~i, ~j, ~k) une bon directe de l'espace des quaternions purs et e = (1,~i, ~j, ~k).
Si [x]e = (x0 , x1 , x2 , x3 )T calculer les matrices carrées d'ordre 4 représentatives dans la base
e de l'espace H des quaternions des endomorphismes y 7→ xy et y 7→ yx.

Exercice 8.4. Soit (~i, ~j, ~k) une bon directe de l'espace des quaternions purs. Montrer que
pour tout quaternion x on a

1
x = − (x + ~ix~i + ~jx~j + ~kx~k)
2

Exercice 8.5. Trouver tous les quaternions x tels que x2 + 1 = 0.


Exercice 8.6. Soit (~i, ~j, ~k) une bon directe de l'espace des quaternions purs. Montrer que
les 24 éléments de la sphère S unité des quaternions

1
±1, ±~i, ±~j, ±~k, (±1 ± ~i ± ~j ± ~k)
2
forment un sous groupe G du groupe multiplicatif S. Ecrire les 12 matrices des rotations de
l'espace E des quaternions purs dans la base (~i, ~j, ~k) qui sont l'image de G par l'application
s 7→ ϕs du théorème 8.6 partie 2. Soit G1 l'image de G . Montrer que si on note

s = ~i + ~j + ~k, s1 = 2~i − s, s2 = 2~j − s, s3 = 2~k − s


IX. ENDOMORPHISMES SYMÉTRIQUES, POSITIFS ET DÉFINIS POSITIFS 83
alors T = {s, s1 , s2 , s3 } forme un tétraèdre régulier et que g(T ) = T pour toute rotation g de
G1 .

Exercice 8.7. Imiter l'exercice 8.6 quand le tétraèdre est remplacé par le cube C dont les
huit sommets sont ±~i±~j ±~k. On admet que le groupe I(C) des isométries g de E qui préserve
C est ici formé des 48 g dont la matrice représentative dans la base (~i, ~j, ~k) est de la forme
P D où P est une des 6 matrices de permutation de 3 éléments et D = diag(±1, ±1, ±1).
Le sous groupe G1 formé des seules rotations a donc 24 éléments. Trouver les 48 éléments du
sous groupe G de S tel que G1 soit l'image de G par l'homomorphisme s 7→ ϕs . Méthode :
utiliser la formule 8.18 pour trouver les deux s de S tels que ϕs = g.

Exercice 8.8. Soit s = (s0 , −


→ des quaternions tel que −
s ) dans la sphère unité S →
s 6= 0. Soit
θ →

θ tel que s0 = cos et k s k = sin Montrer que x 7→ sxs est une rotation de l'espace
θ
. −1
2 2
E des quaternions purs d'axe −

s /k−

s k et d'angle θ. Méthode : analyser la démonstration du
théorème 8.6 partie 2.

IX Endomorphismes symétriques, positifs et dénis po-


sitifs
Si A est une matrice carrée réelle, elle est dite symétrique si A = AT . Si E est euclidien
et si a ∈ L(E) on dit que a est symétrique si a = a∗ . Puisque si e est une bon on a
[a∗ ]ee = ([a]ee )T , il est clair que les trois propriétés suivantes sont équivalentes :
 L'endomorphisme a de l'espace euclidien E est symétrique.
 Il existe une bon e de E telle que A = [a]ee soit symétrique.
 Pour toute bon e de E , alors A = [a]ee est symétrique
Il est évident aussi qu'une matrice diagonale est symétrique : la propriété 2) ci dessus
entraîne donc que si a dans L(E) est diagonalisable en base orthonormale alors a est
symétrique. Le théorème le plus important de l'algèbre linéaire dit que la réciproque est
vraie. C'est le 2) du théorème ci dessous. On l'appelle aussi souvent le théorème spectral.

Théorème 9.1. Soit a ∈ L(E) avec E euclidien tel que a soit symétrique. Alors
1. Si F est un sous espace vectoriel de E tel que a(F ) ⊂ F, alors a(F ⊥ ) ⊂ F ⊥ . En
particulier, les espaces propres sont deux à deux orthogonaux.
2. Il existe une bon e telle que [a]ee soit diagonale.
3. On a ha(x), xi ≥ 0 pour tout x ∈ E si et seulement si les valeurs propres de a sont
≥ 0.
4. On a ha(x), xi > 0 pour tout x ∈ E \ {0} si et seulement si les valeurs propres de a
sont > 0.

Démonstration : Pour le 1) soit y ∈ F ⊥ . Donc pour tout x ∈ F on a ha(y), xi =


hy, a(x)i = 0 car a = a∗ et car F est stable par a. Pour le 2), on procède par récurrence
sur q = dimE . C'est trivial pour q = 1. Pour q = 2, on prend une bon e quelconque et on
84 CHAPITRE 2. ESPACES EUCLIDIENS
 
r s
écrit [a]ee = . Alors le polynôme caractéristique Pa (X) = X 2 − (r + t)X + (rt − s2 )
s t
a pour discriminant ∆ = (r − t)2 + 4s2 ≥ 0 et donc a a au moins un vecteur propre e1 ,
avec e1 de norme 1. Appliquons le 1) à F = Re1 . Donc avec e2 de norme 1, F ⊥ = Re2 est
aussi un espace stable et e = (e1 , e2 ) est une base de diagonalisation. Supposons enn le
résultat montré pour tout entier inférieur à q > 2. On sait d'après la Proposition 1.1 que
tout endomorphisme d'un espace réel de dimension nie a au moins un espace stable F
de dimension 1 ou 2. Appliquons ceci à a. D'après le 1), F ⊥ est stable par a, et notons a1
et a2 les restrictions respectives de a à F et F ⊥ . Il est clair que a1 et a2 sont symétriques.
Appliquons l'hypothèse de récurrence et soit e1 et e2 des bon de diagonalisation de a1 et
a2 . Alors e = e1 ∪ e2 est une bon de diagonalisation de a et la récurrence est étendue.
3) et 4) : Appliquons le 2) et soit e une bon de diagonalisation de a. Notons [a]ee =
diag(µ1 , . . . , µq ). La suite (µ1 , . . . , µq ) est donc celle des valeurs propres de a répétées en
fonction de leurs multiplicités. Alors ha(ej ), ej i = µj . Si ha(x), xi ≥ 0 pour tout x comme
dans 3) alors µj ≥ 0. Si ha(x), xi > 0 pour tout x 6= 0 comme dans 4) alors µj > 0.
Inversement si [x]e = [x1 , . . . , xq ] alors
ha(x), xi = µ1 x21 + µ2 x22 + · · · + µq x2q . (9.20)
Si µj ≥ 0 pour tout j = 1, . . . , q comme dans 3), alors pour tout (x1 , . . . , xq ) le second
membre de (9.20) est ≥ 0. Si µj > 0 pour tout j = 1, . . . , q comme dans 4), alors pour tout
(x1 , . . . , xq ) 6= (0, . . . , 0) le second membre de (9.20) est > 0 et le théorème est montré.

Corollaire 9.2. Soit A une matrice réelle symétrique d'ordre q. Alors il existe des ma-
trices diagonale D et orthogonale P d'ordre q telles que A = P DP −1 = P DP T .

Démonstration : Considérons A comme la matrice représentative d'un endomorphisme


a de Rq espace euclidien canonique dans la base e canonique. Celle ci étant orthonormale,
alors a est symétrique et il existe une bon f telle que D = [a]ff soit diagonale. Puisque
P = [idE ]ef est la matrice de changement de la bon e vers la bon f, alors P ∈ O(q).
L'égalité [a]ee = [idE ]ef [a]ff [idE ]ef se traduit donc A = P DP −1 , ou A = P DP T puisque
P P T = Iq .
 
0 1
Exemple 9.1. Si t ∈ R et soit A = 1 et − e−t . Pour l'écrire A = P DP T avec D
diagonale et P orthogonale, on calcule les valeurs propres de A, qui vont donner D. On
et 0
obtient facilement que les valeurs propres sont et et −e−t et donc D = . Dans
0 −e−t
la base canonique e de E = R2 , un vecteur propre pour et est [v1 ]e = [1, et ]T et un vecteur
propre pour −e−t est [v2 ]e = [−et , 1]T . Ces vecteurs propres sont orthogonaux, mais ne
sont pas de norme 1 et la matrice de changement de base [idE ]ev n'est pas orthogonale.
Pour fabriquer une bon f de vecteurs propres il faut encore normaliser v1 et v2 . On obtient
en posant c = (1  + e ) t  les vecteurs propres normalisés f1 = cv1 et f2 = cv2 . Alors
2t −1/2

1 e
P = [idE ]ef = c . L'égalité A = [a]ee = [idE ]ef [a]ff [idE ]fe = P AP −1 = P AP T se
−et 1
traduit par
IX. ENDOMORPHISMES SYMÉTRIQUES, POSITIFS ET DÉFINIS POSITIFS 85

     
0 1 c −cet et 0 c cet
= .
1 et − e−t cet c 0 −e−t −cet c

Dénition 9.1. Un endomorphisme symétrique a de l'espace euclidien est dit positif s'il
satisfait la propriété suivante : pour tout x ∈ E on a ha(x), xi ≥ 0. Il est dit déni-positif
s'il satisfait la propriété suivante : pour tout x ∈ E \ {0} on a ha(x), xi > 0. Une matrice
symétrique A d'ordre q est dite positive9 si elle satisfait la propriété suivante : pour tout
X ∈ Rq on a X T AX ≥ 0. Elle est dite dénie-positive si elle satisfait la propriété suivante :
pour tout X ∈ Rq \ {0} on a X T AX > 0.

Remarques. Il est clair que si a est symétrique et si e est une bon, alors A = [a]ee est
positive ou dénie positive en même temps que a. Par le Théorème 9.1 parties 3) et
4), l'endomorphisme symétrique a (ou la matrice A = [a]ee ) est positif si et seulement
si ses valeurs propres sont toutes ≥ 0, et il est déni-positif si et seulement si ses va-
leurs propres sont toutes > 0. Ces propriétés caractéristiques sont parfois prises comme
dénition par certains auteurs. Une matrice positive n'a pas nécessairement ses coe-
2 −1
cients ≥ 0 : exemple . Une matrice symétrique à coecients positifs n'est pas
−1 3  
1 2
nécessairement positive : exemple .
2 3
Voici un ensemble de propriétés simples des endomorphismes positifs et dénis positifs.

Proposition 9.3. Soit E et F euclidiens. Alors


1. Si a ∈ L(E) est symétrique alors la forme bilinéaire sur E × E dénie par Ba (x, y) =
ha(x), yi est symétrique. Inversement si B est une forme biliéaire symétrique E il
existe un unique a ∈ L(E) symétrique tel que B = Ba . Elle est positive ou dénie-
positive si et seulement si a l'est.
2. Si λ > 0 et µ > 0 et si a et b dans L(E) sont symétriques positifs (ou dénis positifs),
alors λa + µb sont positifs (ou dénis positifs).
3. Si a ∈ L(E) est symétrique positif, alors det a ≥ 0. Si a est symétrique déni-positif,
alors det a > 0. Si a est positif, alors a est déni-positif si et seulement si det a 6= 0.
4. Si a ∈ L(E) est symétrique, alors a est déni-positif si et seulement si il existe
b ∈ L(E) tel que a = exp b.
9 En parlant d'endomorphismes positifs et de matrices positives, nous nous conformons aux termes
utilisés dans les programmes des classes de mathématiques supérieures et spéciales des lycées, très soi-
gneusement rédigés. Cependant, il faut reconnaître que les utilisateurs ont souvent d'autres noms et
parlent de matrices symétriques "semi-dénies positives" ou "dénies non-négatives". Et les mêmes utili-
sateurs réservent alors le nom de matrices positives à des matrices réelles non nécessairement symétriques
ni même carrées, mais dont tous les coecients sont ≥ 0. Leur théorie est certainement utile, mais leur
étude est loin de l'esprit de ce cours, car la géométrie des applications linéaires correspondantes est alors
liée à un systême de coordonnées particulier. Il est sage que le lecteur s'assure du contexte quand il
rencontrera le terme "matrice positive" dans la littérature.
86 CHAPITRE 2. ESPACES EUCLIDIENS

5. Si a ∈ L(E, F ) alors aa∗ dans L(F ) et a∗ a dans L(E) sont symétriques positives.
De même si A est une matrice réelle alors AAT et AT A sont positives.
6. Si a ∈ GL(E) alors aa∗ et a∗ a sont symétriques dénis positifs. De même si A est
carrée inversible, AAT et AT A sont symétriques dénies positives.

Démonstration : Le 1) est clair, sauf pour l'existence de a tel que B = Ba . Fixons


y ∈ E et considérons la forme linéaire x 7→ B(x, y). D'après la Proposition 5.1 il existe un
vecteur a(x) ∈ E unique tel que B(x, y) = ha(x), yi. Puisque x 7→ B(x, y) est linéaire alors
x 7→ a(x) est linéaire. Enn a = a∗ vient de B(x, y) = B(y, x). Le 2) et le 5) découlent
des dénitions. Le 3) découle du Théorème 9.1 parties 3) et 4). Montrons le 4) ⇐: si e est
une bon de diagonalisation de b alors

[b]ee = diag(µ1 , . . . , µq ), [a]ee = diag(eµ1 , . . . , eµq )

et un tel a est donc bien symétrique (car diagonalisable en bon) et déni positif car à
valeurs propres >0. Le 4) ⇒ est analogue. En fait b est unique : voir exercice 10.6. Le 6)
découle du 3) et du 5).
Voici des caractérisations des matrices positives et des matrices dénies-positives.

Théorème 9.4. Soit A = (aij )1≤i,j≤q et B des matrices carrées symétriques réelles
d'ordre q. On pose Ak = (aij )1≤i,j≤k pour k = 1, . . . q et AS = (aij )i,j∈S pour S ⊂
{1, . . . , q}. On suppose qu'il existe une matrice inversible P d'ordre q telle que A = P T BP.
Alors
1. On suppose que A est positive. Alors AS est positive pour tout S. En particulier
aii ≥ 0, et si aii = 0 alors aij = aji = 0 pour tout j. De plus B est positive.
2. Si A est dénie- positive alors AS est dénie-positive pour tout S. En particulier les
éléments de la diagonale de A sont > 0. De plus B est dénie-positive.
3. A est dénie-positive si et seulement si det Ak > 0 pour tout k = 1, . . . q.
4. A est positive si et seulement si det AS ≥ 0 pour tout S ⊂ {1, . . . , q}. Le rang de A
est alors le maximum des S tels que det AS > 0.
5. A est positive si et seulement si le polynôme

det(A + XIq ) = X q + c1 X q−1 + · · · + cq

satisfait cj ≥ 0 pour tout j = 1, . . . , q.


6. Avec cette notation, il y a équivalence entre
(a) A est dénie positive,
(b) cj ≥ 0 pour tout j = 1, . . . , q et cq > 0,
(c) cj > 0 pour tout j = 1, . . . , q et cq > 0.

Démonstration : 1) prenons X ∈ Rq avec X = [x1 , . . . , xq ]T tel que xj = 0 si j 6∈ S, et


notons XS la restriction de X à S. Alors 0 ≤ X T AX = XST AS XS et le résultat est clair.
IX. ENDOMORPHISMES SYMÉTRIQUES, POSITIFS ET DÉFINIS POSITIFS 87
Si on applique cela à S = {i} on obtient aii ≥ 0. Si on applique cela à S = {i, j} quand
aii = 0, alors det AS = −a2ij ≥ 0 et donc aij = 0. Pour voir que B est positive, on observe
que Y T BY = X T AX ≥ 0 en prenant Y = P X. On procède de même pour 2). Pour le 3)
⇒, cela découle du 2) et de la Proposition 9.3 partie 3).
Le 3) ⇐ est plus délicat. Observons qu'en général on a si A et C sont carrées symé-
triques d'ordre p et n avec A inversible

Ip A−1 B
     
A B Ip 0 A 0
= . (9.21)
BT C B T A−1 In 0 C − B T A−1 B 0 In

Ip A−1 B
   
A B
D'après les 1) et 2) appliqués à P = , la matrice T est positive
0 In  B C 
A 0
(respectivement dénie positive) si et seulement si la matrice est
0 C − B T A−1 B
positive (respectivement dénie positive).
Nous montrons le résultat 3) ⇐ par récurrence sur q. C'est trivial pour q = 1. Si c'est
vrai pour q − 1, alors Aq−1 est inversible et (9.21) est applicable, avec p = q − 1 et n = 1 :

Ip A−1
     
Aq−1 b Iq−1 0 Aq−1 0 q−1 b
A= = . (9.22)
bT c bT A−1
q−1 Iq 0 c − bT A−1
q−1 b 0 Iq

En prenant le déterminant des deux membres on constate que si c0 = c − bT A−1 q−1 b alors
det A = c det Aq−1 et l'hypothèse entraîne c > 0.
0 0

On écrit ensuite X ∈ Rq en blocs X T = [Xq−1 T


, xq ], puis Y T = [Xq−1
T
+ xq bT A−1
q−1 , xq ].
Ceci conduit à
X T AX = Yq−1
T
Aq Yq−1 + x2q c0 .
Si X 6= 0 alors ou bien xq 6= 0 et X T AX ≥ x2q c0 > 0. Ou bien xq = 0, alors Yq−1 =
Xq−1 6= 0 et, comme par l'hypothèse de récurrence Aq−1 est dénie positive on a bien
X T AX = Yq−1
T
Aq−1 Yq−1 > 0.
Le 4) ⇒ est facile. Montrons le 4) ⇐ . D'après le 2) si aii = 0 quel que soit i alors
A = 0 et A est donc positive. Supposons donc qu'il existe i tel que aii > 0. Sans perte de
généralité on suppose a11 > 0. La démonstration du 4) ⇐ est alors basée sur la formule
de Laplace (Théorème 2.4 du chapitre 1) appliquée au couple (A, B) = (A, XIq ) : si
det(A + XIq ) = qj=0 cj X q−j alors
P

X
cj = det AS , (9.23)
S;|S|=j

qui généralise les cas déjà connus j = 1 et j = q. Appliquons la au cas X > 0. Donc,
puisque par hypothèse det AS ≥ 0 on en déduit cj ≥ 0. Donc comme a11 > 0 on a
det(A + XIq ) > 0. De la même manière on démontre que det(Ak + XIk ) > 0. La partie 3
entraîne donc que A + XIq est dénie positive. Donc A = limX→0 (A + XIq ) est positive.
Pour terminer, soit r le rang de A et k la taille maximum des S tels que det AS > 0.
D'après le résultat de première année qui dit que le rang est la taille du plus grand
determinant non nul extrait on a k ≤ r. Or cj déni par 9.23 est nul si j > k et donc le
88 CHAPITRE 2. ESPACES EUCLIDIENS

polynôme en X égal à det(A + XIq ) a zéro pour racine d'ordre au moins égal à q − k. En
diagonalisant dans une bon l'endomorphisme symétrique a de Rq dont A est la matrice
représentative dans la base canonique, on voit donc que le rang r de a est ≤ k ce qui
montre que r = k et achève la démonstration du 4).
5) Soit (λ1 , . . . , λq ) une énumération des valeurs propres de la matrice symétrique
réelle. Alors, par dénition du polynôme caractéristique de A on a

(A + XIq ) = (X + λ1 ) . . . (X + λq ) = X q + c1 X q−1 + · · · + cq (9.24)

Si A est positive alors λj ≥ 0 pour tout j et les cj sont trivialement positifs ou nuls.
Inversement, si une valeur propre était strictement négative (disons λ1 = −a avec a > 0)
alors en faisant X = a on obtient la contradiction

0 = aq + c1 aq−1 + · · · + cq ≥ aq .

La réciproque est donc montrée.


6) (c) ⇒ (b) est évident. (b) ⇒ (a) vient du fait que A est positive par le 5). De plus
cq = det A > 0 et donc A est dénie positive, par la Proposition 9.3, partie 3. Finalement
(a) ⇒ (c) vient de 9.24 qui montre que cj ≥ λ1 . . . λj > 0.

Remarque. Les nombres cj = cj (A) apparaissant au 5) du théorème précédent sont


parfois appelés les invariants de la matrice symétrique A. En eet d'après 9.24 ils ne
dépendent que des valeurs propres de A, donc de l'endomorphisme symétrique associé
et de sa représentation particulière par une base. C'est familier pour deux d'entre eux :
c1 = λ1 + · · · + λq = trace A et cq = λ1 · · · λq = det A. Pour les autres, ce sont les fonctions
symétriques élémentaires des (λ1 , . . . , λq ), à savoir
X Y
cj = λi .
T ;|T |=j i∈T

où la somme est prise pour tous les sous ensembles T de {1, . . . , q} de taille |T | = j. Par
exemple si q = 4 alors

c 3 = λ 1 λ 2 λ3 + λ1 λ 2 λ 4 + λ1 λ3 λ4 + λ 2 λ 3 λ4 .

On peut facilement montrer à partir de la dénition de cj que si AT = (aij )i,j∈T alors


X
cj = det AT . (9.25)
T ;|T |=j

Attention toutefois, il ne faut pas croire que det AT = i∈T λi .


Q
Finalement, si on normalise les cj = cj (A) en les divisant par le nombre de sous
ensembles T ⊂ {1, . . . , q} de taille j on obtient les nombres pj = j!(q−j)!
q!
cj qui satisfont
aux inégalités de Maclaurin : pour k = 1, . . . , q − 1 on a

p2k ≥ pk−1 pk+1


IX. ENDOMORPHISMES SYMÉTRIQUES, POSITIFS ET DÉFINIS POSITIFS 89
ou k(q − k)c2k ≥ (k + 1)(q − k + 1)ck−1 ck+1 . La démonstration se fait en considérant le
polynôme de deux variables
q
X q!
Q(x, y) = (x + λ1 y) . . . (x + λq y) = pj xj y q−j
j=0
j!(q − j)!

et en observant que
∂ q−2 Q q!
k−1 q−k−1
(x, y) = (pk+1 x2 + 2pk xy + pk−1 y 2 ).
∂x ∂y 2
On applique alors le principe suivant : soit le polynôme réel X 7→ P (X) de degré n à une
variable ayant toutes ses racines réelles distinctes et non nulles, soit Q(x, y) = y n P (x/y)
soit Q1 (x, y) = ∂Q∂x
(x, y), Q2 (x, y) = ∂Q ∂y
(x, y) et soit P1 (X) = Q1 (X, 1) et P2 (X) =
Q2 (X, 1). Alors d'après le théorème de Rolle P1 et P2 ont toutes leurs racines réelles
distinctes et non nulles. En itérant ce principe on voit que le trinôme du second degré
pk+1 X 2 + 2pk X + pk−1 a ses racines réelles et distinctes. Il a donc un discriminant positif
ce qui entraîne le résultat désiré si tous les λj sont distincts non nuls. Le cas où certains
sont nuls ou non distincts se traite par un passage à la limite. (Attention la réciproque
est fausse : si un polynôme à coecients réels satisfait les inégalités de Maclaurin, cela
n'entraîne pas que ses racines soient réelles : ainsi (X + 2)(X 2 + 2X + 1 + ) avec 0 < 
assez petit satisfait p22 > p1 p3 et p21 > p2 p0 ).
 
a b
Corollaire 9.5. Soit la matrice symétrique réelle d'ordre 2 A = b c . Alors
1. A est positive si et seulement si trace A ≥ 0 et det A ≥ 0.
2. A est dénie-positive si et seulement si trace A > 0 et det A > 0.

Démonstration : Pour la première partie en appliquant le Théorème 9.1 partie 5, puis-


qu'alors c1 = trace A et c2 = det A. Pour la seconde partie, appliquer la partie 6.

Un moyen populaire de fabriquer des matrices positives ou dénies-positives est de


considérer la matrice de Gram d'une suite nie de vecteurs d'un espace préhilbertien
réel :

Proposition 9.6. Soit (v1 , . . . , vp ) une suite de vecteurs de l'espace préhilbertien réel
E. Alors la matrice A = (hvi , vj i)1≤i,j≤p est symétrique positive. De plus, A est dénie
positive si et seulement si les (v1 , . . . , vp ) sont indépendants.

Démonstration : Si X = [x1 , . . . , xp ]T alors


p p p
X X X
T
X AX = xi xj hvi , vj i = k xi vi k2 ≥ 0.
i=1 j=1 i=1
Pp
De plus, donc, X T AX = 0 si et seulement si i=1 xi vi = 0. Si les vi sont indépendants
ceci ne peut arriver que si x1 = . . . = xp = 0, et donc A est alors dénie-positive. La
réciproque est du même genre.
90 CHAPITRE 2. ESPACES EUCLIDIENS

Les matrices de Gram ont de nombreuses applications, comme on le verra au chapitre


5. Elles fournissent déjà un moyen de trouver les projections orthogonales d'une bon :

Proposition 9.7. Soit E un espace euclidien de dimension q, soit (v1 , . . . , vq ) une suite
de vecteurs de E , soit F le sous espace vectoriel de E qu'ils engendrent et soit p ∈ L(E)
la projection orthogonale de E sur F. Alors il existe une bon e = (e1 , . . . , eq ) de E telle
que p(ei ) = vi pour i = 1, . . . , q si et seulement si la matrice de Gram A = (hvi , vj i)1≤i,j≤
a ses valeurs propres dans {0, 1}. De plus, la multiplicité de 1 est la dimension de F.

Démonstration : =⇒ . Pour tous x et y dans E on a ([x]e )T A[y]e = hp(x), p(y)i. C'est


dire que A = [p Donc A est la matrice représentative dans e de l'endomorphisme p∗ p

p]]ee .
de E. Soit alors f = (f1 , . . . , fq ) une bon de E telle que (f1 , . . . , fk ) soit une base de F,
avec k = dim F. Alors
[p]ff = [p∗ ]ff = diag(Ik , 0) = [p∗ p]ff .
Donc les valeurs propres de A sont 0 et 1 et k est la multiplicité de 1.
⇐= . D'après le théorème spectral, il existe une matrice orthogonale U d'ordre q telle
que si Q = diag(Ik , 0) alors A = U T Q U, où k est la multiplicité de 1. Si X = (x1 , . . . , xq )T
et Y = (y1 , . . . , yq )T sont dans Rq alors
q q
X X
I=h xi vi , yj vj i = X T AY = X T U T Q U Y = (X 0 )T Q Y 0
i=1 j=1

avec X 0 = U X = (x01 , . . . , x0q )T et Y 0 = U Y = (y10 , . . . , yq0 )T . Dénissons alors e0 =


(e01 , . . . , e0q ) = (v1 , . . . , vq )U T . Notons que par dénition tous les e0i sont dans F et que
(e01 , . . . , e0q ) engendre F. Alors I s'écrit

q q
X X
0
I=h xi ei , yj0 e0j i = x01 y10 + · · · + x0k yk0
i=1 j=1

Puisque c'est vrai pour tous X 0 et Y 0 ceci montre que la matrice de Gram de e0 est Q.
Donc (e01 , . . . , e0k ) forme une bon de F et e0j = 0 si j > k. Complétons (e01 , . . . , e0k ) en une
bon e00 de E et dénissons enn e = (e1 , . . . , eq ) = (e001 , . . . , e00k , e00k+1 , . . . , e00q )U. C'est une
bon comme e00 car U est orthogonale. On a alors

(v1 , . . . , vq ) = (e01 , . . . , e0q )U = (e001 , . . . , e00k , 0, . . . , 0)U


= (e001 , . . . , e00k , e00k+1 , . . . , e00q )QU = (e001 , . . . , e00k , e00k+1 , . . . , e00q )U U T QU
= (e1 , . . . , eq )U T QU = (e1 , . . . , eq )A.

Dénissons alors l'endomorphisme p de E par p(ei ) = vi . L'égalité précédente entraîne que


[p]ee = A, ce qui montre que p est symétrique comme A, et est une projection orthogonale
puisque ses valeurs propres sont 0 et 1 comme celles de A. Son image est tout F , par
dénition de F comme espace engendré par les (vi ). La proposition est montrée.
IX. ENDOMORPHISMES SYMÉTRIQUES, POSITIFS ET DÉFINIS POSITIFS 91
Ombres d'un cube. Si C est un cube d'arête unité dans l'espace euclidien de dimension
3, on l'écrit à l'aide d'une bon e = (e1 , e2 , e3 ) par

C = {x ∈ E; 0 ≤ x1 , x2 , x3 ≤ 1}.

Si on projette orthogonalement C sur un plan, on obtient un hexagone symétrique par


rapport à un point ou un parallélogramme. Inversement, soit un hexagone symétrique
par rapport à un point, ou un parallélogramme. Quand peut on dire que c'est l'ombre
d'un cube unité ? Notons par v1 , v2 , v3 les vecteurs formés par trois cotés consécutifs de
l'hexagone orientés arbitrairement. Si on a un parallélogramme on prend par exemple
v3 = 0. La proposition 9.7 entraîne que l'hexagone est l'ombre d'un cube unité si et
seulement si la matrice de Gram
   
kv1 k2 hv1 , v2 i hv1 , v3 i a1 b 3 b 2
A =  hv2 , v1 i kv2 k2 hv2 , v3 i  =  b3 a2 b1 
hv3 , v1 i hv3 , v2 i kv3 k2 b 2 b 1 a3

a pour valeurs propres 0, 1, 1 ou que son polynôme caractéristique est

PA (X) = X(X − 1)2 = X 3 − 2X 2 + X.

Comme d'après la proposition 9.6 le déterminant de A est toujours nul puisque (v1 , v2 , v3 )
sont coplanaires, une condition nécessaire et susante est donc le couple d'égalités

a1 + a2 + a3 = 2, (a1 a2 − b23 ) + (a2 a3 − b21 ) + (a3 a1 − b22 ) = 1.

Si on cherche l'ombre d'un cube pas nécessairement unité, par homénéité la condition sur
la matrice de Gram devient
(a1 a2 − b23 ) + (a2 a3 − b21 ) + (a3 a1 − b22 ) 1
2
= .
(a1 + a2 + a3 ) 4

Voici enn quelques considérations géométriques sur la place des endomorphismes


positifs ou dénis-positifs dans l'espace des endomorphismes symétriques :

Proposition 9.8. Soit E un espace euclidien, V l'espace des endomorphismes symé-


triques sur E , V+ l'ensemble des endomorphismes symétriques dénis-positifs de E et V+
l'ensemble des endomorphismes symétriques positifs de E. Alors
 V+ est un cône convexe ouvert.
 V+ est un cône convexe fermé qui est la fermeture de V+ .

Démonstration : On en donne trois démonstrations, toutes instructives.


Première méthode. Cette méthode s'appuie seulement sur la dénition des endomor-
phismes positifs et dénis positifs. Le fait que V+ soit un cône convexe vient du fait que
si a et b sont dans V+ alors pour tout x ∈ E \ {0} on a ha(x), xi > 0, hb(x), xi > 0 et donc
h(a + b)(x), xi > 0, ce qui donne a + b ∈ V+ . De plus si λ > 0 et a ∈ V+ alors ha(x), xi > 0
92 CHAPITRE 2. ESPACES EUCLIDIENS

implique hλa(x), xi > 0 et donc λa ∈ V+ . La démonstration du fait que V+ est un cône


convexe est semblable. Montrer que V+ est ouvert est plus créatif :
Observons que l'application (a, x) 7→ ha(x), xi de V × E dans R est continue. En eet
pour x xé elle est linéaire en a, pour a xé elle est quadratique en x. Elle est donc
polynomiale, donc continue d'après le cours d'analyse.
Montrons que le complémentaire de V+ par rapport à V est un fermé. Pour cela on
considère une suite (an )n≥0 d'éléments de V \ V+ qui converge vers un élément a de V
et on a à montrer que a ∈ / V+ . Dire que an n'est pas dans V+ est dire qu'il existe un
vecteur x non nul tel que han (x), xi ≤ 0. En fait, ce vecteur x dépend de n, et on le note
xn . De plus, puisque xn 6= 0, sans perte de généralité on peut le prendre dans la sphère
unité S de E. Cette sphère S est bornée par dénition, et est fermée, car c'est l'image
inverse du fermé {1} de R par l'application continue x 7→ kxk2 de E dans R (continue,
parce qu'une norme est toujours continue, ou plus simplement ici parce que x 7→ kxk2 est
polynomiale). Donc S est compacte, et d'après un important théorème du cours d'analyse
on peut trouver une suite strictement croissante d'entiers (nk )k≥0 et un x ∈ S tels que la
suite extraite (xnk )k≥0 converge vers x. Comme
hank (xnk ), xnk i ≤ 0,
et que (a, x) 7→ ha(x), xi est continue on en déduit que ha(x), xi ≤ 0 et donc V+ est ouvert.
Montrons que V+ est la fermeture de V+ : si a est symétrique positif, ses valeurs
propres sont positives ou nulles, et celles de an = a + n1 idE sont supérieures ou égales à
1/n. Donc an est dans V+ et converge vers a. Donc V+ est contenu dans la fermeture de
V+ . Inversement si an est une suite convergente de V+ , soit a sa limite. Alors pour tout
x ∈ E \ {0} on a han (x), xi > 0 et donc ha(x), xi ≥ 0. Donc a est dans V+ , qui contient
donc la fermeture de V+ . La démonstration est complète.
Seconde méthode. Elle s'appuie sur les parties 3) et 4) du Théorème 9.1. Les matrices
positives A sont caractérisées dans l'espace V des matrices symétriques par le fait que
det AT ≥ 0 pour tout T ⊂ {1, . . . , q}. Soit FT = {A ∈ V ; det AT ≥ 0}. Comme A 7→
det AT est polynomiale, elle est continue et donc FT est fermé dans V. Donc V + = ∩T FT est
fermé, comme intersection de fermés. Les matrices dénies-positives A sont caractérisées
dans l'espace V des matrices symétriques par le fait que det Ak > 0 pour tout k ∈
{1, . . . , q}. Soit Uk = {A ∈ V ; det Ak > 0}. Alors de même Uk est ouvert dans V. Donc
V+ = ∩k Uk est ouvert comme intersection d'un nombre ni d'ouverts.
Troisième méthode. Elle s'appuie sur les parties 5) et 6) du Théorème 9.1. et sur le fait
que d'après 9.25 les cj = cj (A) sont des fonctions polynomiales de A donc continues. V+ est
ouvert comme intersection nie des ouverts cj (A) > 0, V+ est fermé comme intersection
des fermés cj (A) ≥ 0.

Exercice 9.1. Soit a > 0. Montrer que la matrice symétrique d'ordre n + 1


A = ((a + i + j)−1 )0≤i,j≤n
est dénie-positive (Méthode : appliquer la Proposition 9.6 à l'espace préhilbertien des poly-
R1
nômes sur R muni du produit scalaire hP, Qi = 0 xa−1 P (x)Q(x)dx et à une suite (P0 , . . . , Pn )
convenable.
IX. ENDOMORPHISMES SYMÉTRIQUES, POSITIFS ET DÉFINIS POSITIFS 93
Exercice 9.2. Soit f une fonction continue positive
R∞
R sur [0, ∞[ telle que l'intégrale
∞ −sx
f (x)dx 0
converge et soit, pour s ≥ 0 le nombre L(s) = Soit (s1 , . . . , sq ) une suite
0
e f (x)dx.
de [0, ∞[. Montrer que la matrice A = (L(si + sj ))1≤i,j≤q est symétrique positive. Méthode :
siPX = (x1 , . . . , xq )T ∈ Rq exprimer X T AX comme une intégrale utilisant la fonction x 7→
( qj=1 xj e−sj x )2 .

Exercice 9.3. Soit θ ∈]0, π[. On considère les deux matrices d'ordre n :
   
0 1 0 ··· 0 0 2 cos θ 1 0 ··· 0 0

 1 0 1 ··· 0 0 


 1 2 cos θ 1 ··· 0 0 

 0 1 0 ··· 0 0   0 1 2 cos θ ··· 0 0 
A= ,B =  

 ··· ··· ··· ··· ··· ··· 


 ··· ··· ··· ··· ··· ··· 

 0 0 0 ··· 0 1   0 0 0 ··· 2 cos θ 1 
0 0 0 ··· 1 0 0 0 0 ··· 1 2 cos θ

Montrer par récurrence que det B = sin(n+1)θ


sin θ
(Méthode : développer par rapport à la dernière
ligne). Montrer que det B s'annule pour n valeurs distinctes de θ de ]0, π[, et les déterminer.
Si PA est le polynôme caractéristique de A, calculer PA (−2 cos θ) et déduire de ce qui précède
les valeurs propres de A. Montrer que les matrices 2In + A et 2In − A sont dénies positives.

Exercice 9.4. Soit θ ∈]0, π[. On considère les deux matrices d'ordre n ≥ 1 :
   
0 1 0 ··· 0 0 2 cos θ 1 0 ··· 0 0

 1 0 1 ··· 0 0 


 1 2 cos θ 1 ··· 0 0 

 0 1 0 ··· 0 0   0 1 2 cos θ ··· 0 0 
An =   , Bn =  

 ··· ··· ··· ··· ··· ··· 


 ··· ··· ··· ··· ··· ··· 

 0 0 0 ··· 0 1   0 0 0 ··· 2 cos θ 1 
0 0 0 ··· 1 1 0 0 0 ··· 1 1 + 2 cos θ

(en convenant que pour n = 1 on a A1 = [1] et B1 = [1 + 2 cos θ]). Montrer que pour n ≥ 2
on a det Bn+1 = 2 cos θ det Bn − det Bn−1 (Méthode : développer par rapport à la première
ligne : la récurrence n'est pas nécessaire). Montrer par récurrence que

sin(n + 1)θ sin nθ sin(n + 21 )θ


det Bn = + =
sin θ sin θ sin 2θ

(Voir Szegö "Orthogonal polynomials" page 29). Montrer que det Bn s'annule pour n valeurs
distinctes de θ de ]0, π[, et les déterminer. Si PAn est le polynôme caractéristique de An ,
calculer PAn (−2 cos θ) et déduire de ce qui précède les valeurs propres de An . La matrice An
est elle diagonalisable ? Montrer que 2In − An est dénie positive.

Exercice 9.5. Ombres d'un parallélépipède : Montrer que tout hexagone symétrique par rap-
port à un point est l'ombre d'un parallélépipède. Méthode : considérer les vecteurs w1 , w2 , w3
engendrés par trois cotés consécutifs et montrer qu'on peut trouver trois nombres λ1 , λ2 , λ3
tels que si vi = λi wi alors la matrice de Gram de (v1 , v2 , v3 ) a pour valeurs propres (0, 1, 1).
94 CHAPITRE 2. ESPACES EUCLIDIENS

Exercice 9.6. Matrice de Hua. Si n est un entier ≥ 1 soit Jn la matrice (n, n) dont tous
les coecients sont 1. Soit 1n = (1, 1, . . . , 1). Soit p ≥ 0. Montrer que la matrice symétrique
d'ordre n + 1 dénie par blocs
 n 
n+p
1n
H=
1Tn pIn + Jn

est positive. Première méthode : interpréter H comme la matrice représentative [h]ee d'un
endomorphisme symétrique h de l'espace euclidien canonique E = Rn+1 dans sa base ca-
nonique e = (e0 , e1 , . . . , en ) et calculer [h]ff si f est une bon de E telle que f0 = e0 et
f1 = √1n (e1 + · · · + en ). On trouve
 n √ 
n 0

n+p
[h]ff =  n n + p 0 ,
0 0 pIn−1

ce qui permet de calculer par exemple les valeurs propres de h. Plus généralement si a ∈ R
donner par cette méthode les valeurs propres de A + pIn+1 avec
 
1 + a 1n
A=
1Tn Jn

et dire pour quels (a, p) cette matrice est positive ou dénie-positive. Deuxième méthode :
appliquer la formule 9.21 à A = n/(n + p)I1 et C = pIn + Jn et montrer que C est dénie
positive. Troisième méthode : appliquer la formule 9.21 à C = n/(n + p)I1 et A = pIn + Jn .
Pour ces deux dernières méthodes, il faut observer que Jn2 = nJn et que (aIn + bJn )−1 =
a1 In + b1 Jn pour des a1 et b1 convenables si l'inverse existe.

Exercice 9.7. Soit D = diag(µ1 , . . . , µq ) et soit Jq la matrice (q, q) dont tous les coecients
sont égaux à 1. Montrer que D − Jq est positive si et seulement si µj ≥ 1 pour tout j et si
1 − µ11 − · · · − µ1q ≥ 0. Méthode : utiliser le théorème 9.4 partie 4 et le résultat de l'exercice
2.7 du chapitre 1. Donner de même une condition nécessaire et susante de dénie positivité.
Application : soit (v1 , . . . , vq ) des vecteurs de l'espace euclidien tels que hvi , vj i = −1 si i 6= j.
Alors q
X 1
2
≤1
j=1
1 + kv j k

(voir exercice 4.6). Méthode : introduire µj = 1 + kvj k2 . Discuter le cas d'égalité.

Exercice 9.8. Soit a1 , . . . , an des


Pnendomorphismes d'un espace E de dimension q tels que
a1 + · · · + an = idE et tels que i=1 rang(ai ) = q. Montrer que ai = a2i et que ai aj = 0
pour tous i 6= j. Méthode : notons V = L(E), de dimension q 2 et soit Ai ⊂ V l'image de
l'endomorphisme de V déni par x 7→ ai x. Montrer que dim Ai = q rang(ai ) et déduire de
l'hypothèse sur les ai que V est la somme directe des Ai . De l'égalité

ai = a1 ai + a2 ai + . . . + an ai
IX. ENDOMORPHISMES SYMÉTRIQUES, POSITIFS ET DÉFINIS POSITIFS 95
qui donne la décomposition dans cette somme directe de ai de deux manières, déduire alors
le résultat. Application : Théorème de Cochran : Soit a1 , . . . , an des endomorphismes
symétriques d'un espace euclidien E de dimension q tels que a1 + · · · + an = idE et tels que
n
i=1 rang(ai ) = q. Montrer qu'il existe une décomposition en somme directe orthogonale
P
E = E1 ⊕ · · · ⊕ En telle que ai soit la projection orthogonale sur Ei . Méthode : ai est
symétrique avec a2i = ai et est donc la projection orthogonale sur quelque espace Ei . Utiliser
ai aj = 0 pour voir que Ei et Ej sont orthogonaux et montrer E = E1 ⊕ · · · ⊕ En à l'aide de
a1 + · · · + an = idE .

Exercice 9.9. Soit a et b des endomorphismes symétriques positifs d'un espace euclidien.
Montrer que trace (ab) ≥ 0 et discuter le cas d'égalité. Méthode : choisir une bon e de
diagonalisation de a et écrire explicitement trace (ab) en fonction des matrices A = [a]ee =
diag(a1 , . . . , aq ) et B = [b]ee = (bij )1≤i,j≤q . Utiliser le fait que bii ≥ 0, dû au Th. 9.4 partie
4 appliquée à S = {i}, ainsi que le fait qu'un endomorphisme positif a ses valeurs propres
positives ou nulles. Pour étudier le cas trace (ab) = 0 observer que bii = 0 entraîne bij si la
matrice B est positive. Voir aussi l'exercice 10.9 pour une autre méthode.

Exercice 9.10. On considère la matrice réelle


 
1 c b
M (a, b, c) =  c 1 a 
b a 1
et on la suppose positive.
1. Est il toujours vrai que M (a, b, −c) est aussi positive ? Même question avec M (a, −b, −c)
et M (−a, −b, −c) (Méthode : utiliser le théorème 9.4 partie 3).
2. On considère l'unique matrice B telle que M (a, b, c) = B T B et telle que B soit trian-
gulaire supérieure à coecients ≥ 0. On suppose que a, b, c sont ≥ 0. Montrer que B
est à coecients positifs si et seulement si a ≥ bc.

Exercice 9.11. Soit a un endomorphisme symétrique de l'espace euclidien E tel que idE − a
soit déni positif (et donc (idE − a)−1 existe).
1. Montrer par récurrence sur n que
(idE − a)−1 = idE + a + a2 + · · · + a2n−1 + an (idE − a)−1 an
et montrer que l'endomorphisme an (idE − a)−1 an est symétrique positif (il est expéditif
de se placer dans une bon de diagonalisation de a).
2. Déduire de 1 que la suite n 7→ 2n−1 k=0 trace a est bornée supérieurement.
k
P

3. On
P∞suppose de plus que trace ak ≥ 0 pour tout entier k ≥ 0. Déduire du 2 que la série
k=0 trace a converge, et que limn→∞ trace a = 0. Pourquoi les valeurs propres de
k n

a sont elles dans ] − 1, 1[? Pourquoi alors a-t-on limn→∞ an = 0? (pensez à considérer
trace a2n = trace an (an )T ). A l'aide du 1 montrer que

X
−1
(idE − a) = ak .
k=0
96 CHAPITRE 2. ESPACES EUCLIDIENS

4. Application : Lemme de Stieltjes. Soit A une matrice symétrique réelle d'ordre q à


coecients ≥ 0 telle que Iq −A soit dénie positive. Montrer à l'aide du 3 que (Iq −A)−1
est à coecients ≥ 0.

Exercice 9.12. Soit (fi )qi=1 une base ordonnée de l'espace euclidien telle que kfi k2 = 1 pour
tout i et telle que si i 6= j on ait hfi , fj i ≤ 0. Soit (ei )qi=1 la base de Schmidt engendrée, et
soit
j
X
ej = cij fi
i=1

Montrer que cij ≥ 0 pour tous 1 ≤ i ≤ j ≤ q (Comparer avec l'exercice 4.8). Méthode :
Si αj = hej , fj i, qui est positif d'après la dénition de la base de Schmidt et si Ij − Aj =
(hfi , fk i)1≤i,k≤j , observer que
(c1j , . . . , cjj )(Ij − Aj ) = (0, . . . , 0, αj )
Appliquer alors le lemme de Stieltjes de l'exercice 9.11 à la matrice Ij − Aj pour conclure que
c1j ≥ 0, . . . , cjj ≥ 0. Cette application du lemme de Stieltjes est due à Wilson, Proc.A.M.S.
1971.

Exercice 9.13. Si a et b sont des endomorphismes positifs de l'espace euclidien E , montrer


qu'il est faux en général que l'endomorphisme symétrique ab+ba soit encore positif. Méthode :
prendre E = R2 euclidien canonique, prendre une matrice (2,2) positive A arbitraire non
diagonale and B = diag(λ, 1). Vérier qu'alors det(AB + BA) < 0 si λ est assez grand.

Exercice 9.14. (Entrelacement des valeurs propres). Soit A la matrice symétrique réelle
d'ordre q ≥ 2 écrite par blocs  
Aq−1 b
A=
bT c
avec Aq−1 d'ordre q − 1. Soit λ1 ≤ λ2 ≤ . . . ≤ λq et µ1 ≤ µ2 ≤ . . . ≤ µq−1 les valeurs propres
de A et de Aq−1 . En appliquant la formule 9.22 à A − λIq montrer que
λ1 ≤ µ1 ≤ λ2 ≤ µ2 ≤ . . . ≤ µq−1 ≤ λq .
Méthode : écrire Aq−1 = U T DU avec U ∈ O(q − 1) et D = diag(µ1 , µ2 , . . . , µq−1 ) et tracer
le graphe de la fonction
q−1
X pi
λ 7→ c − λ − bT (Aq−1 − λIq−1 )−1 b = c − λ −
i=1
µi − λ

avec pi = [(U b)i ]2 ≥ 0. La place des zéros de cette fraction rationnelle par rapport à ses pôles
permet de répondre immédiatement quand les valeurs propres de A sont distinctes, et un peu
de réexion permet de passer au cas général.

Exercice 9.15. Soit A = (aij )1≤i,j≤q une matrice symétrique réelle d'ordre q. Si S ⊂
{1, . . . , q} avec S =
6 ∅ on note AS = (aij )i,j∈S . Montrer alors l'équivalence des deux pro-
priétés suivantes
IX. ENDOMORPHISMES SYMÉTRIQUES, POSITIFS ET DÉFINIS POSITIFS 97
1. Pour tout S ⊂ {1, . . . , q} avec S 6= ∅ on a det AS < 0.
2. Pour tout S ⊂ {1, . . . , q} avec S 6= ∅ la matrice AS a une valeur propre strictement
négative et toutes les autres strictement positives.
Méthode : 2 ⇒ 1 est facile. Pour 1 ⇒ 2 procéder par récurrence sur q en utilisant l'exercice
précédent 9.14 : on appliquera l'hypothèse de récurrence à Aq−1 .

Exercice 9.16.10 Si S = (sij )1≤i,j≤n est une matrice réelle symétrique d'ordre n on note
λ(S) sa plus petite valeur propre. Soit −b < a < b. Le but de l'exercice est de trouver une
borne inférieure à λ(S) sous la contrainte a ≤ sij ≤ b pour tous i, j = 1, . . . , n, ce qu'on
suppose dans toute la suite.
1. Soit M = Mp dénie à l'exercice 4.11 avec p+q = n. A l'aide de l'exercice 4.11 montrer
que λ(Mp ) est la plus petite racine de X 2 − naX + pq(a2 − b2 ).
2. Calculer explicitement le nombre minp=0,...,n λ(Mp ) = mn (a, b) (on montrera mn (a, b) =
λ(Mr ) quand n = 2r ou 2r + 1 avec r entier).
3. Soit x = (x1 , . . . , xn )T ∈ Rn un vecteur propre de S pour la valeur propre λ(S) tel que
kxk2 = x21 + · · · + x2n = 1. On note par p le nombre de i = 1, . . . , n tels que xi ≥ 0, et
on va montrer que λ(Mp ) ≤ λ(S). Sans perte de généralité on suppose que xi ≥ 0 si
i = 1, . . . , p et xi < 0 si i = p + 1, . . . , n. Montrer que
xT Mp x ≤ xT Sx = λ(S).
Méthode : montrer que xi mij xj ≤ xi sij xj pour chaque 1 ≤ i, j ≤ n, en notant
Mp = (mij )1≤i,j≤n pour simplier.
4. Montrer que λ(Mp ) ≤ xT Mp x (Méthode : si f est une bon de diagonalisation de Mp ,
si ([x]f )T = (c1 , . . . , cn ) et si λ1 ≥ . . . ≥ λn = λ(Mp ) sont les valeurs propres de Mp
alors c21 + · · · + c2n = 1 et xT Mp x = c21 λ1 + · · · + c2n λn ).
5. A l'aide du 3 et du 4 montrer que λ(S) ≥ mn (a, b). Pour quelles valeurs de S a- t- on
λ(S) = mn (a, b)?
Remarque : si a < b mais avec |a| ≥ b (et donc a < 0) on montre de la même manière que
λ(S) ≥ na si a ≤ sij ≤ b pour tous i, j = 1, . . . , n. Cela vient du fait qu'au contraire de 2 on
a mn (a, b) = λ(Mn ). Ceci permet de donner aussi pour tout intervalle [a, b] ⊂ R une borne
supérieure à la plus grande valeur propre µ(S) = −λ(−S), à savoir −mn (−b, −a)

Exercice 9.16. Soit a un endomorphisme positif de l'espace euclidien E et soit x dans E .


Montrer que hx, a(x)i = 0 si et seulement si a(x) = 0. Méthode : prendre une bon de a et
utiliser λi x2i = 0 ⇔ λi xi = 0.

Exercice 9.17. On considère la matrice réelle symétrique


 
a c b
S =  c b a .
b a c
10 Source : X. Zhan "Extremal values of real symmetric matrices with entries in an interval" (2006) :
http ://www.siam.org/journals/simax/2è-3/62781.html
98 CHAPITRE 2. ESPACES EUCLIDIENS

Trouver ses trois valeurs propres. Méthode : montrer que la trace de S est une valeur propre
de S et en déduire que les deux autres sont opposées. Si on les note ±r montrer que

r2 = − det S/trace S = a2 + b2 + c2 − ab − bc − cd.

Exercice 9.18.11 On munit E = Rn de sa structure euclidienne canonique. Soit A =


(aij )1≤i,j≤n une matrice symétrique à coecients 0 ou 1. On considère la matrice colonne 1 =
(1, . . . , 1)T d'ordre n et on suppose qu'il existe d tel que A1 = d1. On note a l'endomorphisme
associé. 1. Montrer que d est un entier tel que 0 ≤ d ≤ n. 2. Si λ est une valeur propre de
A montrer que |λ| ≤ d (Méthode : si x = (x1 , . . . , xn )T est le vecteur propre correspondant,
soit i0 ∈ {1, . . . , n} tel que |xi0 | ≥ xi pour tout P i = 1, . . . . Soit S l'ensemble des d entiers
j ∈ {1, . . . , n} tels que ai0 ,j = 1. Utiliser λxi0 = j∈S xP j ). 3. Montrer que d est une valeur
propre simple de A (Méthode : si λ = d montrer que 0 ≤ j∈S (|xj | − |xi0 |) ≤ 0 pour voir que
l'espace propre est formé des matrices colonnes proportionnelles à 1). 4. Si P ⊂ {1, . . . , n}
soit vP = (v1 , . . . , vn )T avec vi = 1 si i ∈ P et vi = 0 sinon. Calculer kvP k en fonction de
la cardinalité
√ |P | def P. 5. Soit une bon de diagonalisation f = (f1 , . . . , fn ) de a telle que
f1 = 1/ n, soit [a]f = diag(d, λ2 , . . . , λn ), soit [vP ] = (p1 , . . . , pn )T soit Q ⊂ {1, . . . , n}
f
√ √
et soit [vQ ]f = (q1 , . . . , qn )T . Montrer que p1 = hvP , f1 i = |P |/ n, que q1 = |Q|/ n et que
n
d|P ||Q| X
hvQ , a(vP )i − = λi p i qi .
n j=2

6. Si m = max{|λ2 |, . . . , |λn |} montrer à l'aide du 5, de l'inégalité de Schwarz et du 4 que




hvQ , a(vP )i − d|P ||Q| p
≤ m |P ||Q|.
n
7. Montrer que
nd ≤ trace A2 ≤ d2 + m2 (n − 1).
Commentaires : On interprète A comme la matrice d'un graphe non orienté de sommets
{1, . . . , n} avec une arête entre i et j si aij = 1. Le nombre hvQ , a(vP )i est le nombre d'arêtes
reliant un élément de P à un élément de Q.

X Racine carrée, décomposition polaire et valeurs sin-


gulières .
Théorème 10.1. Soit a un endomorphisme symétrique positif de l'espace euclidien E.
Alors il existe un unique endomorphisme symétrique positif b, appelé racine carrée de a,
tel que b2 = a.
11 Source : N. Alon et F. R. K. Chung. (1989) 'Explicit construction of linear sized tolerant networks,
Discrete Mathematics 72, 15-19
X. RACINE CARRÉE, DÉCOMPOSITION POLAIRE ET VALEURS SINGULIÈRES . 99
Démonstration : Soit e une bon de diagonalisation de a et
D = [a]ee = diag(λ1 Im1 , . . . , λp Imp )
avec 0 ≤ λ1 < . . . < λd . Il est clair que b déni par
p p
[b]ee = diag( λ1 Im1 , . . . , λp Imp )
convient. Pour montrer l'unicité, soit b1 symétrique et positif tel que b21 = a. Soit µ
une valeur propre de b1 et soit Fµ l'espace propre de b1 correspondant. Si x ∈ Fµ alors
b1 (x) = µx et a(x) = b21 (x) = µ2 x. Donc µ2 est une valeur propre de a et si Eλ est l'espace
propre associé à la valeur propre λ pour a on a Fµ ⊂ Eµ2 . Or E est égal à la somme
directe de tous les espaces propres de b1 . Cela entraîne que les valeurs propres de b1 sont
exactement les µj = λj , que les espaces propres sont F√λj = Eλj et donc que b1 égale
p

b.

Théorème 10.2. Soit a un endomorphisme inversible de l'espace euclidien E. Alors il


existe un couple unique (p, u) d'endomorphismes appelé décomposition polaire de a, tel
que a = pu, p est symétrique déni-positif et u est orthogonal.

Démonstration : Existence : Puisque d'après la Proposition 9.3 aa∗ est déni-positif, soit
p sa racine carrée. Comme (det p)2 = det p2 = det(aa∗ ) = (det a)2 6= 0, alors p−1 existe.
Dénissons u par u = p−1 a. Alors u∗ = a∗ p−1 et donc uu∗ = p−1 aa∗ p−1 = p−1 p2 p−1 = idE .
Donc u est un endomorphisme orthogonal et a = pu.
Unicité : si a = p1 u1 est une autre décomposition, alors a∗ = u∗1 p1 et donc aa∗ =
p1 u1 u∗1 p1 = p21 . Donc p1 = p par l'unicité de la racine carrée. Et donc u = u1 .

Corollaire 10.3. Soit A une matrice réelle inversible d'ordre q. Alors il existe un triplet
(U, D, V ) tel que A = V DU avec D diagonale et U et V dans O(q).

Démonstration : Appliquons le théorème précédent à E = Rq euclidien canonique,


muni de sa base e canonique, et à a ∈ GL(E) déni par [a]ee = A. Soit f une bon de
diagonalisation de p. Alors a = pu s'écrit
A = [a]ee = [p]ee [u]ee = [idE ]ef [p]ff [idE ]fe [u]ee = V DU

avec U = [idE ]fe [u]ee , D = [p]ff et V = [idE ]f . Comme e et f sont des bon, U et V sont
bien orthogonales.

Remarque : Ceci est appelé décomposition polaire par analogie avec l'écriture z = reiθ
des nombres complexes non nuls. Si en particulier det a > 0 alors a = peb où p est déni-
positif et b antisymétrique. Il y a de nombreuses versions voisines, dans lesquelles on
décompose en up plutôt qu'en pu, ou qui n'exigent pas a inversible ; p est alors positif
seulement et est toujours unique, u ∈ O(E) tel que a = pu existe mais n'est plus unique.

Dénition 10.1. Soit a un endomorphisme de l'espace euclidien E. Les valeurs propres


de la racine carrée de a∗ a sont appelées les valeurs singulières de a (L'exercice 4.3 du
chapitre 1 montre que aa∗ et a∗ a ont les mêmes valeurs propres.)
100 CHAPITRE 2. ESPACES EUCLIDIENS

Proposition 10.4. Soit a un endomorphisme de l'espace euclidien E. Alors la norme


induite de a par la norme euclidienne de E , c'est à dire le nombre

ka(x)k
kak = sup
x∈E\{0} kxk

est égal à la plus grande valeur singulière de a. Si a est symétrique, kak est en particulier
le maximum des |λj | où les λj sont les valeurs propres. Si a est symétrique positif kak est
la plus grande valeur propre.

Démonstration : Soit e une bon de diagonalisation de la racine carrée p de a∗ a. Notons


[p]ee = diag[µ1 , . . . , µq ], avec µ1 ≥ . . . ≥ µq ≥ 0. Donc

[a∗ a]ee = diag[µ21 , . . . , µ2q ].

Notons S(E) la sphère unité de l'espace euclidien E. On a alors

kak2 = sup{ha(x), a(x)i; x ∈ S(E)}


= sup{ha∗ a(x), xi; x ∈ S(E)}
q
X
= sup{ µ2k x2k ; x21 + · · · + x2q = 1}.
k=1

Ce sup est µ21 et est atteint pour x1 = ±1, ce qui donne le résultat. Dans le cas symétrique,
les valeurs singulières sont les valeurs absolues des valeurs propres. Dans le cas positif, les
valeurs singulières sont les valeurs propres.

Exercice 10.1. Dans R2 euclidien canonique, on considère l'endomorphisme symétrique a


dont la matrice représentative dans la base canonique e = (e1 , e2 ) est
 
73 −36
A= ,
−36 52

de trace 125 et de déterminant 2500. Trouver une base orthonormale f = (f1 , f2 ) telle que la
matrice représentative de a dans cette base soit diagonale (on précisera donc les coordonnées
de f1 et f2 dans la base e). En déduire une matrice orthogonale U et une matrice diagonale
D telles que A = U DU −1 . À l'aide
√ des résultats précédents, montrer que A est une matrice
dénie positive et calculer B = A, c'est à dire la matrice symétrique dénie positive telle
que B 2 = A.

Exercice 10.2. (Inégalité de Minkowski) Soit a et b des endomorphismes symétriques dénis


positifs de l'espace euclidien E de dimension q. Montrer que

(det a)1/q + (det b)1/q ≤ (det(a + b))1/q ,

et préciser les cas d'égalité (Méthode : le démontrer d'abord pour a = idE en se placant dans
une bon de diagonalisation de b. Puis se ramener à ce cas en considérant b 0 = a−1/2 ba−1/2 ).
X. RACINE CARRÉE, DÉCOMPOSITION POLAIRE ET VALEURS SINGULIÈRES . 101
Exercice 10.3. Soit a et b des endomorphismes symétriques de l'espace euclidien E. On
suppose que a est déni positif et que c = b − a est positif. Montrer que b est déni positif.
Montrer que a−1 − b−1 est positif (Méthode : le démontrer d'abord pour a = idE en se
placant dans une bon de diagonalisation de b. Puis se ramener à ce cas en considérant c0 =
a−1/2 ca−1/2 ).

Exercice 10.4. Soit a un endomorphisme positif du plan euclidien E et soit

a + (det a)1/2 idE


b= .
trace a + 2(det a)1/2

Montrer que b est symétrique et positif et, à l'aide de Cayley Hamilton montrer que b2 = a.

Exercice 10.5. Si E est euclidien et si L(E) est muni de la structure euclidienne dénie
par ha, bi = trace (a∗ b), montrer que la norme euclidienne sur L(E) qui en découle est sous
multiplicative. Méthode : écrire kabk2 = trace (a∗ abb∗ ) et introduire une bon de diagonalisa-
tion e de l'endomorphisme symétrique positif a∗ a. Montrer que si a est positif non nul et b
déni positif alors ha, bi > 0 (observer qu'alors b1/2 ab1/2 est positif non nul et donc de trace
strictement positive).

Exercice 10.6. Imiter la démonstration de l'unicité dans le Théorème 10.1 pour montrer que
si b et b1 sont des endomorphismes symétriques d'un espace euclidien tels que exp b = exp b1 ,
alors b = b1 .

Exercice 10.7. On considère la matrice d'ordre n ≥ 2 :


 
0 1 0 ··· 0 0

 0 0 1 ··· 0 0 

 0 0 0 ··· 0 0 
Nn =  .

 ··· ··· ··· ··· ··· ··· 

 0 0 0 ··· 0 1 
0 0 0 ··· 0 0

Soit a l'endomorphisme de Rn euclidien canonique dont la matrice représentative est Nn dans


la bon canonique. Calculer la norme de a (Méthode : utiliser la Proposition 10.4 et l'exercice
9.4).

Exercice 10.8. Soit E + l'ensemble des endomorphismes symétriques positifs de l'espace


euclidien de dimension q. On veut montrer que x 7→ y = x2 + x trace x est une bijection de
E + sur lui même. 1) Montrer que
1/2
trace x (trace x)2

x+ idE = y+ idE .
2 4

2) En prenant la trace des deux côtés de 1) montrer que la fonction h sur les réels dénie par
2
h(t) = −t(1 + 2q ) + trace (y + t4 idE )1/2 s'annule en t = trace x. 3) Montrer que la fonction h
102 CHAPITRE 2. ESPACES EUCLIDIENS

est strictement croissante, que trace x est son seul zéro et en déduire que t(y) = trace x est
une fonction de y. 4) Déduire du 1) et du 3) le résultat annoncé.

Exercice 10.9. Soit a et b des endomorphismes symétriques positifs d'un espace euclidien.
Montrer que trace (ab) ≥ 0. Méthode : utiliser trace (ab) = trace (a1/2 ba1/2 ).

Exercice 10.10. Soient a et b des endomorphismes positifs de l'espace euclidien E. Montrer


l'inégalité de Mar£enko-Pastur :
trace ((idE + a)−1 − (idE + a + b)−1 ) ≤ rang(b).
Méthode :
1. Poser c = (idE + a)−1/2 et dire pourquoi les valeurs propres de c2 sont dans ]0, 1].
2. Poser d = cbc et dire pourquoi rang(b) = rang(d).
3. Montrer que
(idE + a)−1 − (idE + a + b)−1 = cd(idE + d)−1 c.
4. Montrer que
∗ ∗∗
trace (cd(idE + d)−1 c) = trace (c2 d(idE + d)−1 ) ≤ trace (d(idE + d)−1 ) ≤ rang(d).
Pour ∗ utiliser l'exercice 10.9 ou 9.9 appliqué à idE − c2 et d(idE + d)−1 . Pour ∗∗ écrire
d dans une bon de diagonalisation.

XI Cholesky et les arbres à racines.*


Si P est une matrice symétrique dénie positive d'ordre q la décomposition de Cho-
lesky consiste écrire P = T ∗ T où T est une matrice triangulaire supérieure et T ∗ est la
transposée de T. Une telle décomposition est unique. Nous avons vu ce résultat comme
une conséquence du théorème d'orthonormalisation de Schmidt. Nous allons le retrouver
comme cas particulier d'un théorème général qui considère un certain ordre partiel sur
{1, . . . , q}. Pour cela, expliquons avant ce qu'est un arbre et un arbre à racine.
Un arbre est un ensemble ni A muni d'un ensemble E de parties de A à deux éléments
avec la propriété suivante : pour tous x et y dans A il existe un unique entier n ≥ 0 et
une unique suite (x1 , . . . , xn ) de points distincts de A tels que, en convenant x0 = x on
ait {xi−1 , xi } ∈ E pour tout i = 1, . . . , n et xn = y. Si x = y notez que cela entraîne
n = 0. On appelle parfois les éléments de A les sommets et les éléments de E les arêtes
de l'arbre, bien que ce vocabulaire de théorie générale des graphes soit peu imagé dans le
cas des arbres. La suite (x0 , . . . , xn ) est appelée le chemin de x à y. Exemple :

•@ •
@@ ~~
@@ ~~
@@ ~
~~
• • •@
~ @@
~~~ @@
~ @@
~~
• •
XI. CHOLESKY ET LES ARBRES À RACINES.* 103
Si on sélectionne maintenant un sommet quelconque w de l'arbre A et qu'on l'appelle
racine, le couple (A, w) est un arbre à racine. Le choix d'une racine équipe alors natu-
rellement l'ensemble A des sommets de la structure d'ordre partiel  suivante : on écrit
x  y si l'unique chemin de x à w contient y. Il est clair que cette relation binaire entre
les éléments de A satisfait aux deux propriétés
 Si x  y et y  x alors x = y .
 Si x  y et y  z alors x  z .
Notez ce n'est pas nécessairement un ordre total : il peut exister des couples tels que à la
fois x  y et y  x soient faux. Voici l'exemple précédent où on a choisi une racine. On a
x  y si on peut voyager de x à y en suivant les èches.

• CC •
CC ~
CC ~~~
CC ~
! ~~
• / •w o • _@
={ @@
{{ @@
{{{ @@
{{
• •

Notons que si A a q sommets, il est possible de numéroter ceux ci (1, . . . , q) de sorte


que i  j implique i ≤ j. Cela implique évidemment q = w. Voici une numérotation
acceptable parmi d'autres pour l'exemple précédent :

•1 BB •4
BB |
BB ||
BB |||
! |} |
•2 / •7 o •6 aBB
=|
| BB
|| BB
||| BB
|
•5 •3

Voici le théorème concernant la décomposition de Cholesky :

Théorème 11.1. Soit (A, w) un arbre à racine tel que A = {1, . . . , q}. Soit G l'ensemble
des matrices T = (t(x, y))x,y∈A telles que si t(x, y) 6= 0 alors x  y et telles que t(x, x) > 0
pour tout x ∈ A. Soit P = (p(x, y))x,y∈A une matrice symétrique réelle d'ordre q. Alors
les deux propriétés suivantes sont équivalentes
1. P est dénie positive et est telle que si p(x, y) 6= 0 alors ou bien x  y ou bien
y  x.
2. Il existe une matrice T dans G telle que T ∗ T = P.
Dans ces conditions, la matrice T est unique. De plus G est un groupe pour la multipli-
cation des matrices. Enn si w1 ∈ A soit

A1 = {x ∈ A; x  w1 },

et soit P1 et T1 les restrictions respectives de P et T à A1 × A1 . Alors P1 = T1∗ T1 .


104 CHAPITRE 2. ESPACES EUCLIDIENS

Démonstration. 2 ⇒ 1. Il est d'abord clair que P = T ∗ T est une matrice positive,


puisque pour tout vecteur colonne X on a X ∗ P X = (T X)∗ (T X) ≥ 0. Pour voir qu'elle
est dénie positive on numérote A tel que x  y implique x ≤ y. Avec un tel choix la
matrice T = (t(x, y))x,y∈A
Q est triangulaire supérieure car t(x, y) 26= 0 ⇒ x  y ⇒ x ≤ y.
Cela entraîne det T = x∈A t(x, x) > 0 , donc det P = (det T ) > 0 et donc la dénie
positivité de P.
Pour tous x et y de A, par dénition
P du produit des matrices et par dénition de la
matrice transposée T on a p(x, y) = z∈A t(z, x)t(z, y). Par dénition de T cela entraîne

X
p(x, y) = t(z, x)t(z, y). (11.26)
zx; zy

Si il existait un couple (x, y) tel que p(x, y) 6= 0 et tel que x 6 y et y 6 x l'égalité 11.26
entraînerait l'existence d'un z ∈ A tel que t(z, x)t(z, y) 6= 0 donc tel que z  x et z  y.
Le chemin de z à la racine w étant unique, il passerait par x et par y et donc x et y
seraient comparables : contradiction.
1 ⇒ 2. Nous procédons par récurrence sur la taille q de l'arbre. C'est évident pour
q = 1. Supposons le résultat acquis pour tout arbre de taille ≤ q − 1. Numérotons A tel
que x  y implique x ≤ y. Alors il n'y a aucun x 6= 1 tel que x  1, c'est à dire que 1 est
minimal. Notons A0 = A \ {1} : c'est un arbre de racine w. Ecrivons alors la matrice P
par blocs

1 a−1 b
     
a b 1 0 a 0
P = =
b∗ c b∗ a−1 Iq−1 0 c − b∗ a−1 b 0 Iq−1
où a est un nombre et où c est carrée d'ordre q − 1. Quant à b c'est un vecteur ligne
b = (b(y))y∈A0 qui par dénition de P est tel que b(y) 6= 0 seulement si 1  y. Le fait
que P soit dénie positive entraîne que a > 0 et que la matrice symétrique c − b∗ a−1 b
est dénie positive. La remarque importante est maintenant que si l'entrée (x, y) de la
matrice carrée b∗ a−1 b est non nulle, alors b(x)b(y) 6= 0 et donc 1  x et 1  y. Comme
A est un arbre à racine, cela entraine que ou bien x  y ou bien y  x. Par conséquent
on peut appliquer l'hypothèse de récurrence à l'arbre à racine A0 et à la matrice dénie
positive c − b∗ a−1 b. On écrit celle ci (T 0 )∗ T 0 où T 0 = (t(x, y))x,y∈A0 satisfait t(x, x) 6= 0.
On dénit enn  1/2 −1/2 
a a b
T = 0
0 T
qui satisfait P = T ∗ T par un calcul immédiat ainsi que les autres propriétes demandées.
Il y a ensuite à montrer l'unicité de T. Montrons la d'abord dans le cas particulier
P = Iq . Alors T ∗ T = Iq implique que T est orthogonale et triangulaire supérieure (si on a
numéroté pour que x  y implique x ≤ y). Une telle matrice T ne peut être que diagonale
avec des entrées ±1 sur la diagonales. Cependant t(x, x) > 0 pour tout x entraine que T
est la matrice identité Iq et l'unicité est montrée dans ce cas P = Iq .
Pour passer au cas général nous considérons l'ensemble G de l'énoncé. Nous montrons
que G est un groupe, c'est à dire que T S ∈ G et que T −1 ∈ G si T et S sont dans G.
Ceci permettra de conclure, car P = S ∗ S = T ∗ T implique (ST −1 )∗ ST −1 = Iq et donc
ST −1 = Iq par la remarque précédente.
XI. CHOLESKY ET LES ARBRES À RACINES.* 105
On a avec des notations évidentes
X X
(T S)(x, y) = T (x, z)S(z, y) = T (x, z)S(z, y)
z∈A xzy

et (T S)(x, x) = T (x, x)S(x, x) ce qui montre que T S est dans G. Ensuite S = T −1 existe
puisque nous avons vu que det T 6= 0. Mais vérier que S est dans G n'est nullement
évident. En fait on le voit par récurrence en écrivant si 1 est minimal alors
 −1
a−1 b
  
a b −1 a
T = , S=T = .
0 T0 0 (T 0 )−1
Ceci permet de faire la récurrence et achève la démonstration de l'unicité de T en même
temps que le fait que G est un groupe.
Finalement si w1 , A1 , P1 et T1 sont comme dans l'énoncé, écrivons par blocs corres-
pondants à A1 et A \ A1 les matrices P et T :
   
P1 P12 T1 T12
P = , T = .
P21 P2 T21 T2
On constate que si x ∈
/ A1 et y ∈ A1 alors t(x, y) = 0 par dénition de T et de A1 . C'est
dire que T21 = 0. Donc
 ∗   ∗
T1∗ T12
 
∗ T1 0 T1 T12 T1 T1
P =T T = ∗ =
T12 T2∗ 0 T2 ∗
T12 ∗
T1 T12 T12 + T2∗ T2

ce qui démontre P1 = T1∗ T1 et achève la démonstration du théorème.

Remarques. On trouve le cas classique de la décomposition de Cholesky : si P est une


matrice dénie positive d'ordre q alors il existe une matrice triangulaire supérieure T à
diagonale positive et telle que P = T ∗ T. Il sut d'appliquer le théorème précédent à
l'arbre à racine particulier
•1 − •2 − . . . − •q = w
On peut se demander si dans le théorème 11.1 l'arbre à racine ne pourrait pas être remplacé
par un ensemble partiellement ordonné quelconque. Il n'en est rien : si cet ensemble
ordonné est par exemple

•3O / •4
||= O
||
|||
|
•1 / •2

l'ensemble G est alors celui des matrices


 
t11 t12 t13 t14
 0 t22 0 t24 
T = 0 0 t33

t34 
0 0 0 t44
106 CHAPITRE 2. ESPACES EUCLIDIENS

telles que tii > 0 pour i = 1, 2, 3, 4. C'est toujours un groupe pour la multiplication des
matrices, mais l'entrée (2,3) de T ∗ T est t12 t13 et n'est en général pas nulle.

Exercice 11.1. Soit l'arbre à racine de sommets A = {1, 2, . . . , q}, d'arêtes {i, q} pour
i = 1, . . . , q − 1 et de racine q. Soit P = (P (x, y))x,y∈A une matrice symétrique réelle d'ordre
q telle que si p(x, y) 6= 0 alors ou bien x  y ou bien y  x. Si P est dénie positive calculer
l'unique T = (t(x, y))x,y∈A telle que si t(x, y) 6= 0 alors x  y , telle que t(x, x) > 0 pour
tout x ∈ A et telle que T ∗ T = P. En déduire que P est dénie positive si et seulement si
det P > 0 et si P (x, x)P (q, q) − P (x, q)2 > 0 pour tout x = 1, . . . , q − 1.
Chapitre 3
Espaces hermitiens.
I Produit hermitien, Schwarz.
Soit H un espace vectoriel complexe, pas nécessairement de dimension nie. Un produit
scalaire-hermitien sur H est la donnée d'une application de H ×H à valeurs dans C, notée
(x, y 7→ hx, yi et satisfaisant aux axiomes suivants :
1. Pour x ∈ H xé, l'application y 7→ hx, yi est une forme linéaire sur H .
2. Pour y ∈ H xé l'application x 7→ hx, yi satisfait la propriété de semi linéarité, c'est
à dire que hx + x1 , yi = hx, yi + hx1 , yi et pour λ ∈ C, que hλx, yi = λhx, yi.
3. hy, xi = hx, yi (symétrie hermitienne).
4. Pour tout x ∈ H \ {0} on a hx, xi > 0 (dénie positivité).
Un espace complexe H muni d'un produit scalaire-hermitien xé est appelé un espace
préhilbertien complexe.1 Si de plus H est de dimension nie, il est dit hermitien 2 . Le
nombre kxk = (hx, xi)1/2 est appelé la norme de x. Il y a un certain arbitraire à décider
que le produit scalaire hermitien hx, yi sera semi linéaire par rapport à x plutôt qu'à
y, mais il faut faire un choix. C'est celui du programme ociel des classes de spéciales
et c'est celui dont on a besoin pour les représentations de groupes évoquées ci dessous.
Toutefois, dans un texte concernant les espaces hermitiens, il est prudent de s'assurer que
l'auteur n'a pas fait le choix inverse.

Exemples : Si H = Cq on dénit pour x = (x1 , . . . , xq ) et y = (y1 , . . . , yq ) dans H le


nombre complexe
hx, yi = x1 y1 + x2 y2 + · · · + xq yq .
Il est clair que H est hermitien. Avec cette structure, Cq s'appelle l'espace hermitien
canonique de dimension q.
1 D'autres disent espace unitaire.
2 Une fonction de H × H dans C satisfaisant les deux premiers axiomes est dite sesquilinéaire, le préxe
sesqui signiant une fois et demie. Si elle satisfait les trois premiers axiomes, elle est souvent appelée forme
hermitienne dans la littérature.

107
108 CHAPITRE 3. ESPACES HERMITIENS.

Si H est l'espace des polynômes trigonométriques, c'est à dire des combinaisons li-
néaires complexes des fonctions θ 7→ einθ avec n ∈ Z, dénissons pour P et Q dans H le
nombre Z 2π
1
hP, Qi = P (θ)Q(θ)dθ, (1.1)
2π 0
qui se calcule facilement à l'aide de la formule essentielle
Z 2π
1
eikθ einθ dθ = 1 si n = k (1.2)
2π 0
= 0 si n 6= k.

Il est à peu près évident que les axiomes du produit scalaire-hermitien sont vériés,
y compris le fait que hP, P i = 0 ne peut arriver que si P = 0, car P est continue et de
période 2π. Nous avons donc un espace préhilbertien complexe.

Remarques. Le mot "hermitien" vient du francais Charles Hermite. L'espace hermitien


est indispensable en physique, pas seulement quantique. C'est également l'outil essentiel
en mathématiques pour étudier les groupes nis et les groupes compacts. Il peut être utile
au lecteur de savoir que les endomorphismes des espaces hermitiens sont aussi appelés des
opérateurs, et pas seulement par les physiciens.
L'étude de l'espace hermitien est très analogue à celle de l'espace euclidien, mais
comprend des pièges en ce qui concerne l'intuition géométrique. Pour cette raison, nous
n'insistons pas autant sur l'utilité qu'il y a à travailler sans coordonnées. Il est souvent
utile de considérer aussi un espace complexe de dimension nie q comme un espace réel
de dimension 2q. Appliquant cela à l'espace hermitien, on voit que l'espace hermitien
H de dimension q peut être canoniquement considéré comme un espace euclidien HR de
dimension 2q pour la norme x 7→ kxk. On laisse en exercice le fait de montrer que le produit
scalaire de HR est alors hx, yiR = <hx, yi. Attention donc : si les normes coincident, ce
n'est pas vrai des produits scalaires : les identités de polarisation ne sont pas les mêmes
dans le cas euclidien et le cas hermitien : voir la Proposition 1.1. Si a ∈ L(Cq ) on lui associe
naturellement un élément ϕa ∈ L(R2q ). Considérons par exemple le cas minimal q = 1. Si
s + it et z = x + iy sont des complexes, soit a(z) = (s + it)(x + iy) (tout endomorphisme
de C est de cette forme). Alors ϕa (x, y) = (sx − ty, tx + sy) est l'endomorphisme de R2
associé, de matrice dans la base canonique
 
s −t
.
t s

Ceci montre que l'image de L(Cq ) dans L(R2q ) de a 7→ ϕa n'est pas surjective. La dimen-
sion complexe de L(Cq ) est q 2 et donc sa dimension comme espace réel est 2q 2 , alors que
dim L(R2q ) = 4q 2 .
Beaucoup de démonstrations sont proches du cas réel, et on se contentera de signaler
les points plus délicats. Attention aux démonstrations des cas d'égalité dans les inégalités
de Schwarz et du triangle ci dessous, auxquelles les jurys de concours sont très attentifs.
I. PRODUIT HERMITIEN, SCHWARZ. 109

Proposition 1.1. (Polarisation) Si x et y sont dans un espace préhilbertien complexe,


alors
3
1 X −k
hx, yi = i kx + ik yk2 .
4 k=0
Démonstration. On écrit d'abord

kx + ik yk2 = kxk2 + kyk2 + ik hx, yi + i−k hy, xi.

On observe ensuite que 3k=0 i−k = 0 et que 3k=0 i−2k = 0. En rassemblant le tout on a
P P
le résultat.

Proposition 1.2. Si x et y sont dans l'espace préhilbertien complexe H alors on a


1. l'inégalité de Schwarz :
|hx, yi| ≤ kxkkyk,
avec égalité si et seulement si un des deux vecteurs x ou y est nul, ou bien si les
vecteurs x et y sont proportionnels ;
2. l'inégalité du triangle :
kx + yk ≤ kxk + kyk
avec égalité si et seulement si un des deux vecteurs x ou y est nul, ou bien si les
vecteurs x et y sont tels que y = λx avec λ > 0.

Démonstration : Si x ou y est nul, ou si hx, yi = 0, c'est évident. Si x, y et hx, yi sont


non nuls, soit θ ∈ R. Alors
2
x y
−iθ = h x − e−iθ y , x − e−iθ y i

0 ≤ kxk − e
kyk kxk kyk kxk kyk
1 2
= 2− (hx, e−iθ yi + he−iθ y, xi) = 2 − <hx, e−iθ yi,
kxkkyk kxkkyk

la dernière égalité venant du fait que si z = hx, e−iθ yi, alors z + z = 2<z. Choisissons
maintenant θ tel que <z soit égal au module ρ de hx, yi. Cela est possible, car si hx, yi =
ρeiα alors z = e−iθ ρeiα et il sut de prendre θ = α. L'inégalité devient 0 ≤ 2 − kxkkyk

, ce
qui est l'inégalité de Schwarz voulue. En cas d'égalité, on a nécessairement
x y
= e−iα
kxk kyk
et x et y sont bien proportionnels. Réciproquement, il est évident que l'inégalité de Schwarz
devient une égalité si y = λx pour un nombre complexe λ.
Pour l'inégalité du triangle on écrit

(kxk + kyk)2 − kx + yk2 = kxk2 + kyk2 + 2kxkkyk − hx + y, x + yi


= 2kxkkyk − 2<hx, yi ≥ 2kxkkyk − 2khx, yi| ≥ 0,
110 CHAPITRE 3. ESPACES HERMITIENS.

la dernière inégalité étant celle de Schwarz, et la précédente venant de <z ≤ |z| si z =


hx, yi. En cas d'égalité dans l'inégalité du triangle, la chaîne précédente d'inégalités devient
une chaîne d'égalités. Egalité dans Schwarz implique ou bien x = 0 ou bien l'existence
d'un nombre complexe λ tel que y = λx. L'égalité √ <z = |z| implique que z est un réel
≥ 0 (pour le voir on écrit z = a + ib et a = a + b2 ). Puisque z = hx, yi = λkxk2 alors
2

λ ≥ 0 et la proposition est montrée.

Exercice 1.1. 1) Si a et b sont deux nombres complexes, montrer que |a + b|2 ≤ 2|a|2 + 2|b|2
et que |ab| ≤ P2 (|a| +2 |b| ). 2) Soit H l'ensemble des suites complexes z = (zn )n≥0 0telles
1 2 2

que la série n≥0 |zn | converge (on note par S(z) sa somme). Montrer que λz + λ z =
0

(λzn + λ0 zn0 )n≥0 munit H d'une structure d'espace vectoriel complexe (Méthode : à l'aide du
1), montrer que S(z + z 0 ) ≤ 2S(z) + 2S(zP )). 3)0 Si z = (zn )n≥0 et z = (zn )0n≥0 sont dans
0 0 0

H montrer à l'aide du 1) que la série n≥0 zn zn converge (on note par hz, z i sa somme).
Montrer que hz, z 0 i munit H d'une structure d'espace préhilbertien complexe.

Exercice 1.2. Si x et y sont dans un espace préhilbertien complexe, calculer


Z 2π
1
e−iθ kx + eiθ yk2 dθ.
2π 0

En déduire une autre démonstration que celle donnée par la Proposition 1.1 du fait que la
connaissance de la norme donne la connaissance du produit scalaire.

II Orthogonalité, dualité et adjoints


Cette section dit à peu près les mêmes choses que les analogues euclidiens, et nous
n'allons même pas faire les démonstrations.

Dénition : Dans un espace préhilbertien complexe H, on dit que deux vecteurs x et


y de H sont orthogonaux si hx, yi = 0. Une partie U de H est dite orthogonale si tout
couple de U de vecteurs distincts est orthogonal, et elle est dite orthogonale si de plus
tous les vecteurs de U sont de norme 1. Une base orthonormale est abréviée en bon.

Proposition 2.1. Soit H préhilbertien complexe et V ⊂ H telle que V soit orthogonale


et ne contienne pas 0. Alors V est libre. Si V = {v1 , . . . , vk } et si x = λ1 v1 + . . . + λk vk
alors λj kvj k2 = hvj , xi et on a le théorème de Pythagore :

kv1 + · · · + vk |k2 = kv1 k2 + · · · + kvk k2 .


Enn si H est de dimension nie q , si e est une bon et si [x]e = [x1 , . . . , xq ]T , [y]e =
[y1 , . . . ,q ]T alors xj = hx, ej i et
hx, yi = x1 y1 + x2 y2 + · · · + xq yq .

Proposition 2.2. (Procédé d'orthonormalisation de Schmidt) Soit H un espace préhil-


bertien complexe et f = (fk )qk=1 une suite nie de q vecteurs de H indépendants. Soit Fk
II. ORTHOGONALITÉ, DUALITÉ ET ADJOINTS 111
le sous espace vectoriel de dimension k engendré par {f1 , f2 , . . . , fk }. Alors il existe une
suite (appelée base de Schmidt associée à f ) orthonormale unique ef = (e1 , . . . , eq ) telle
que
 Pour tout k , la suite (e1 , . . . , ek ) est une base de Fk .
 Le nombre hek , fk i est strictement positif.
De plus, si H est hermitien de dimension q , de bases f et e où e est orthonormale, alors
e est la base de Schmidt associée à f si et seulement si [idH ]ef est triangulaire supérieure
avec diagonale formée d'éléments > 0.

Proposition 2.3. (Projection orthogonale) Soit H un espace préhilbertien complexe, F


un sous espace de H de dimension nie, et soit F ⊥ l'ensemble de tous les vecteurs de E
orthogonaux à tous les éléments de F. Alors
1. F ⊥ est un sous espace, F et F ⊥ sont en somme directe et H = F ⊕ F ⊥ .
2. Soit pF la projection de H sur F parallèlement à F ⊥ . Si x ∈ H et y0 ∈ F alors il y a
équivalence entre les trois propriétés suivantes : (a) y0 = pF (x); (b) kx−y0 k ≤ kx−yk
pour tout y ∈ F ; (c) hx − y0 , yi = 0 pour tout y ∈ F.

Proposition 2.4. (Dualité) Soit H un espace hermitien et soit H ∗ son dual. Si y ∈ H ,


on note par Fy l'élément de H ∗ déni par Fy (x) = hy, xi. Alors ϕ : y 7→ Fy = ϕ(y) est
une bijection entre H et H ∗ telle que ϕ(y + y 0 ) = ϕ(y) + ϕ(y 0 ) et ϕ(λy) = λϕ(y).

Pour la dernière proposition on introduit la notion de matrice adjointe, qui est l'outil
correspond à la transposée quand on passe de l'euclidien à l'hermitien. Si

A = (aij )1≤i≤p,1≤j≤q

est une matrice complexe à p lignes et q colonnes, la matrice adjointe de A est A∗ = (A)T ,
parfois dite transposée-conjuguée. Elle a donc q lignes et p colonnes soit, si bij = aji :

A∗ = (bij )1≤i≤q,1≤j≤p .

Proposition 2.5. (Adjoint) Soit H et F deux espaces hermitiens. Alors pour tout a ∈
L(H, F ) il existe un unique a∗ ∈ L(F, H) appelé adjoint de a tel que pour tout x ∈ E et
tout y ∈ F on ait

ha(x), yi = hx, a∗ (y)i. (2.3)

Dans ces conditions, a 7→ a∗ est une bijection entre les espaces vectoriels L(H, F ) et
L(F, H) telle que (a + b)∗ = a∗ + b∗ , λa = λa∗ et a∗∗ = a. De plus, si e et f sont des
bon de H et F , alors [a∗ ]ef = ([a]fe )∗ . Ensuite, si dim H = dim F et si a−1 existe, alors
(a−1 )∗ = (a∗ )−1 . Si G est hermitien, si a ∈ L(H, F ), si b ∈ L(F, G) alors (b ◦ a)∗ = a∗ ◦ b∗ .
Enn si a ∈ L(H) alors det a∗ = det a et (exp a)∗ = exp(a∗ ).
112 CHAPITRE 3. ESPACES HERMITIENS.

III Endomorphismes normaux.


Théorème 3.1. Soit H un espace hermitien de dimension q et a ∈ L(H). Les propriétés
suivantes sont équivalentes
1. aa∗ = a∗ a.
2. a est diagonalisable en base orthonormale.
3. Pour tout x ∈ H on a ka(x)k2 = ka∗ (x)k2 .
4. a∗ est un polynôme en a.
5. Si µ1 , . . . , µq sont les q racines du polynôme caractéristique Pa alors
q
X
trace (aa ) =

|µj |2 .
j=1

Remarques. Les endomorphismes de H qui commutent avec leur adjoint sont dits nor-
maux. Le théorème ci dessus en donne donc 4 propriétés caractéristiques. Les 4) et 5) sont
des curiosités moins importantes que les 2) et 3), et dont les démonstrations sont plus
instructives que les énoncés.

Démonstration : 2) ⇒ 1) est évident. 1) ⇒ 3) vient de


ka(x)k2 = ha(x), a(x)i = hx, a∗ a(x)i = hx, aa∗ (x)i = ha∗ (x), a∗ (x)i = ka∗ (x)k2 .

3) ⇒ 1) vient de la polarisation (Proposition 1.1) :


3
1 X −k ∗
∗ ∗ ∗
hx, aa (y)i = ha (x), a (y)i = i ka (x + ik y)k2 (3.4)
4 k=0
3
1 X −k

hx, a a(y)i = ha(x), a(y)i = i ka(x + ik y)k2 . (3.5)
4 k=0

Si 3) est vrai, les deux membres de droite de (3.4) et de (3.5) sont donc égaux. Donc
hx, aa∗ (y) − a∗ a(y)i = 0 pour tous x et y de H. Donc aa∗ − a∗ a = 0 (rappel : si b ∈ L(H)
et si hx, b(y)i = 0 pour tous x et y, en prenant x = b(y) on voit que kb(y)k2 = 0 pour
tout y et donc b = 0). 1) ⇒ 2) est plus créatif et se montre par récurrence sur q. C'est
trivial pour q = 1. Supposons que 1) ⇒ 2) soit vrai pour dim H < q. Soit maintenant
dim H = q. Alors a a au moins une valeur propre, soit λ. Soit alors une bon e1 de l'espace
propre Eλ , de dimension p avec 1 ≤ p ≤ q. Soit e2 une bon quelconque de son orthogonal
et soit e = e1 ∪ e2 . Alors
   
e λIp B ∗ λIp 0
[a]e = A = , A = .
0 C B∗ C ∗
III. ENDOMORPHISMES NORMAUX. 113

Comme e est une bon, on a A∗ = [a∗ ]ee . Comme 1) est vrai on a

BB ∗ B(C − λIp )∗
 
∗ ∗
0 = AA − A A = .
(C − λIp )B CC ∗ − C ∗ C − B ∗ B

On en déduit que BB ∗ = 0 et donc que B = 0 (pour vérier ce point, observer que si


(bi,1 , bi,2 , . . . , bi,q−p ) est la i ème ligne de B, avec i = 1, . . . p,
 alors le coecient (i, i) de
q−p λIp 0
BB ∗ est j=1 |bi,j |2 = 0). Donc nalement [a]ee = avec CC ∗ − C ∗ C = 0. Donc
P
0 C
Eλ⊥ est stable par a et la restriction c de a à Eλ⊥ est un endomorphisme normal puisque
[c]ee22 = C, [c∗ ]ee22 = C ∗ (car e2 est une bon) et 0 = CC ∗ − C ∗ C = [cc∗ − c∗ c]ee22 . Comme
dim Eλ⊥ = q − p < q on peut appliquer l'hypothèse de récurrence et 1) ⇒ 2) est montré.
4) ⇒ 1) est évident. Montrons 2) ⇒ 4). Soit {λ1 , . . . , λp } le spectre de a. A l'aide des
polynômes de Lagrange (Chap.1 section 4) on voit qu'il existe un polynôme P de degré
p−1 tel que P (λj ) = λj pour tout j = 1, . . . , p. Montrons que P (a) = a∗ . Il sut d'utiliser
le fait que H est la somme directe des espaces propres Eλj . Si donc x = x1 + . . . + xp avec
xj ∈ Eλj alors

P (a)(x) = P (λ1 )x1 + · · · + P (λp )xp = λ1 x1 + · · · + λp xp = a∗ (x).

Donc 2) ⇒ 4) est montré.


2) ⇒ 5) est évident. Montrons 5) ⇒ 2). D'après le Chap. 1 section 7 il existe une base
f de triangulation pour a. Appliquant le procédé de Schmidt à f, on obtient une bon e
telle que A = [a]ee soit triangulaire supérieure. Soit D = diag(µ1 , . . . , µq ) la diagonale de
A, qui est aussi formée des racines du polynôme caractéristique Pa . Soit N = A − D.
Comme N est triangulaire supérieure et nilpotente alors les diagonales de N D∗ et DN ∗
sont nulles. Donc, puisque 5) est vrai

trace DD∗ = trace AA∗ = trace (D + N )(D + N )∗ = trace DD∗ + trace N N ∗ .

Par conséquent trace N N ∗ = 0 et donc N = 0 par un raisonnement analogue à celui fait


pour 1) ⇒ 2). Donc A = D, ce qui montre que a est diagonalisable dans une bon et achève
la démonstration du théorème.

Dénitions. Soit H un espace hermitien et a ∈ L(H). On dit que a est


 unitaire (ou isométrie vectorielle) si aa∗ = a∗ a = idE ;
 hermitien (ou autoadjoint) si a = a∗ ;
 hermitien positif s'il est hermitien et tel que ha(x), xi ≥ 0 pour tout x ∈ H.
 hermitien déni-positif s'il est hermitien et tel que ha(x), xi > 0 pour tout x ∈
H \ {0}.
 antihermitien si a∗ = −a.
On remarque que toutes ces dénitions entraînent qu'il s'agit alors d'endomorphismes
normaux et le théorème de diagonalisation 3.1 simplie beaucoup leur étude. Commencons
par celle des endomorphismes unitaires.
114 CHAPITRE 3. ESPACES HERMITIENS.

IV Endomorphismes unitaires, SU(2) et SO(3)


Théorème 4.1 Soit H un espace hermitien et soit a un endomorphisme de H. Alors les
propriétés suivantes sont équivalentes
1. Pour tous x et y de H on a ha(x), a(y)i = hx, yi (Conservation du produit scalaire).
2. Pour tout x ∈ H on a ka(x)k2 = kxk2 (Conservation de la norme).
3. a−1 existe et a−1 = a∗ (L'adjoint égale l'inverse).
4. a est diagonalisable dans une bon de H et les valeurs propres de a sont toutes de
module 1.
5. Il existe une bon e = (e1 , . . . , eq ) de H telle que (a(e1 ), . . . , a(eq )) soit aussi une bon.
6. Pour toute bon e = (e1 , . . . , eq ) de H alors (a(e1 ), . . . , a(eq )) est aussi une bon
(Conservation des bon).

Démonstration : C'est la copie conforme du Théorème 6.1 du chapitre 2 à l'exception


du 4). Nous nous contentons donc de montrer 4) ⇔ 3). Si 3) est vrai alors a est normal
donc diagonalisable dans une bon e. Si D = [a]ee = diag(z1 , . . . , zq ) et puisque 3) est vrai
alors DD∗ = Iq et donc zj zj = 1. La partie 4 ⇒ 3) est semblable.

Corollaire 4.2 Soit U(H) l'ensemble des endomorphismes unitaires de l'espace her-
mitien H et soit SU(H) l'ensemble de ceux qui de plus sont de déterminant 1. Alors
| det u| = 1 si u ∈ U(H), et U(H) et SU(H) sont des sous groupes connexes de GL(H).
Enn, si u ∈ L(H), alors u est dans SU(H) si et seulement si il existe un endomorphisme
antihermitien b de trace nulle tel que u = exp b.

Démonstration : | det u| = 1 vient du 4) du Théorème 4.1. Que U(H) et SU(H) soient


des sous groupes de GL(H) est standard. Pour voir qu'ils sont connexes, on montre qu'ils
sont connexes par arc encore grâce au 4) du Théorème 4.1 : si u ∈ U(H) est diagonalisable
dans la bon e on a
[u]ee = diag(exp(iθ1 ), . . . , exp(iθq )), (4.6)
Pour 0 ≤ t ≤ 1, dénissons ut ∈ U(H) par

[ut ]ee = diag(exp(itθ1 ), . . . , exp(itθq )).

Il est clair que t 7→ ut est continu et dénit un chemin de idH à u. De plus, si u ∈ SU(H)
alors on peut prendre (θ1 , . . . , θq ) tel que θ1 + . . . + θq = 0, donc tθ1 + . . . + tθq = 0 et
ut ∈ SU(H). Donc SU(H) est aussi connexe. Enn si u ∈ SU (H) est de la forme (4.6)
avec θ1 + . . . + θq = 0, dénissons l'endomorphisme antihermitien b par

[b]ee = diag(iθ1 , . . . , iθq ).

Il est clair u = exp b. La réciproque est immédiate.


IV. ENDOMORPHISMES UNITAIRES, SU(2) ET SO(3) 115
Dénition. Une matrice carrée complexe U est dite unitaire si elle est inversible et si
U−1
= U . L'ensemble des matrices unitaires d'ordre q est noté U(q), l'ensemble des

matrices unitaires d'ordre q à déterminant 1 est noté SU(q).

Théorème 4.3. Soit H un espace hermitien de dimension q et soit U une matrice carrée
complexe d'ordre q. Alors les propriétés suivantes sont équivalentes :
1. U ∈ U(q).
2. Il existe une bon e de H et u ∈ U(E) tels que [u]ee = U.
3. Pour toute bon e de H il existe u ∈ U(E) tel que [u]ee = U.
4. Il existe deux bon e et f de H telles que [idH ]ef = U.
5. Pour toute bon e de E il existe une bon f de H telle que [idH ]ef = U.
6. Pour toute bon f de H il existe une bon e de E telle que [idH ]ef = U.
7. Il existe une matrice unitaire V et une matrice diagonale D dont les éléments dia-
gonaux sont de module 1, telles que U = V DV ∗ .

Démonstration : C'est la copie du Théorème 6.3 du chapitre 2, à l'exception du 7). Pour


voir 7) ⇒ 1) on écrit U ∗ = V ∗ D∗ V ∗∗ = V ∗ D∗ V et donc U U ∗ = Iq . Pour voir 2) ⇒ 7) on
prend H = Cq muni de sa base canonique e et on prend u déni par U = [u]ee .

Théorème 4.4. (Description de SU(2).) Les matrices de SU(2) sont les matrices de la
forme  
a b
Ua,b =
−b a
où a et b sont deux nombres complexes tels que |a|2 + |b|2 = 1. En particulier, si θ ∈ [0, π]
est tel que cos θ = <a alors il existe V ∈ SU(2) tel que
 iθ 
e 0
Ua,b = V V∗ (4.7)
0 e−iθ

De plus, si S est la sphère unité des quaternions, si (~i, ~j, ~k) est une bon directe de l'espace
E des quaternions purs, soit a = a0 + ia1 et b = b0 + ib1 et A : S → SU (2) déni par

A(a0 1 + a1~i + b0~j + b1~k) = Ua,ib .


Alors x 7→ A(x) est un homomorphisme bijectif entre les groupes S et SU(2).
 
a b
Démonstration : Soit U = c d une matrice carrée complexe d'ordre 2. Si elle est
dans SU(2) elle est inversible, et comme son déterminant ad − bc est 1 on a :
   
−1 d −b ∗ a c
U = , U = ,
−c a b d

et on voit que d = a et c = −b. Enn ad − bc = 1 entraîne |a|2 + |b|2 = 1. La réciproque


est immédiate.
116 CHAPITRE 3. ESPACES HERMITIENS.

Pour la seconde partie, on voit que le polynôme caractéristique de Ua,b est X 2 −


2X cos θ + 1 et donc que les valeurs propres sont e±iθ . Comme Ua,b est unitaire, il est
normal et diagonalisable en base orthonormale et V dans U(E) satisfaisant (4.7) existe.
Mais on peut multiplier V par λ tel que λ2 = (det V )−1 pour qu'il soit dans SU(2) et on
a (4.7).
Pour montrer la dernière partie on utilise l'isomorphisme x 7→ A(x) déni au
 Chapitre
a b
2 (8.17) entre l'algèbre des quaternions H et l'algèbre A. Si A(x) = il est clair
−b a
que kxk2 = |a|2 + |b|2 et sa restriction à S a bien les propriétés voulues.

On voit que SU(2) est isomorphe au groupe S des quaternions de norme 1. Comme on a vu
qu'il existe un homomorphisme surjectif entre les groupes S et SO(3) de noyau ±1 on voit
que SO(3) est isomorphe à SU(2)/ ± 1. Pour étoer ce chapitre, qui n'est jusqu'ici qu'une
copie un peu pâle du précédent, donnons un résultat substantiel sur SU(2) et SO(3). Il
est algébrique, mais sa démonstration utilise l'analyse :

Théorème 4.5. Soit N un sous groupe de SU(2) tel que pour tout U ∈ N et tout
V ∈ SU(2) alors V U V −1 est dans N. Alors N est égal à {I2 , −I2 }, à {I2 } ou à SU(2).

Démonstration : On suppose que N contient U 6= ±I2 et on cherche à montrer qu'alors


N = SU(2). Soit t 7→ Vt une application continue de [0, 1] dans SU(2) telle que V0 = I2 et
V1 satisfasse V1 U V1−1 6= U (ce qui est possible parce que U 6= ±I2 ) et posons Ut = Vt U Vt−1 .
Par dénition de N , Ut ∈ N. Comme N est un groupe, alors Pt = U −1 Ut est dans N pour
tout t ∈ [0, 1] avec P0 = I2 et P1 6= I2 . Donc en appliquant (4.7), trace P1 < 2. Puisque
la fonction t 7→ trace Pt est continue sur [0, 1] son image est donc un intervalle [c, 2] avec
−2 ≤ c < 2. Par conséquent, pour tout θ dans [0, π] tel que c ≤ 2 cos θ ≤ 2 il existe un
élément de N de valeurs propres e±iθ . Soit Nθ l'ensemble des éléments de SU(2) de la
forme (4.7). La dénition de N montre que si c ≤ 2 cos θ ≤ 2 alors Nθ ⊂ N. Notons par
V la réunion de ces Nθ : elle contient I2 dans son intérieur. On voit alors que N est un
ouvert de SU(2). En eet pour tout U ∈ N alors U V ⊂ N. On peut en fait visualiser V
ainsi : d'après le Théorème 4.4, les éléments de SU(2) sont de la forme
 
a0 + ia1 b0 + ib1
Ua,b =
−b0 + ib1 a0 − ia1

où a0 , a1 , b0 , b1 sont des nombres réels tels que a20 + a21 + b20 + b21 = 1. La trace de Ua,b est
alors 2a0 . L'ensemble V n'est autre que l'ensemble des Ua,b de SU(2) tels que 2a0 ≥ c, une
sorte de calotte sphérique sur une sphère de R4 dont le pôle est I2 .
D'autre part,
SU(2) \ N = ∪V ∈N / VN

est ouvert comme réunion d'ouverts. Or SU (2) est connexe (Corollaire 4.2). Donc N =
SU(2) et le théorème est montré.

Corollaire 4.6. Soit N0 un sous groupe de SO(3) tel que pour tout U ∈ N0 et tout
V ∈ SO(3) alors V U V −1 est dans N0 . Alors N0 est égal à {I3 } ou à SO(3).
V. THÉORÈME SPECTRAL HERMITIEN ET CONSÉQUENCES 117
Démonstration : Elle utilise une technique classique en algèbre. On a vu en conséquence
du Théorème 4.4 qu'il existe un homomorphisme surjectif ϕ du groupe SU(2) vers le
groupe SO(3) tel son noyau soit ±I2 , c'est à dire que ϕ(U ) = I3 entraîne U = ±I2 . Soit
N l'image inverse de N0 par ϕ :

N = {U ∈ SU(2) ; ϕ(U ) ∈ N0 }.

Alors si V ∈ SU(2) et U ∈ N on a ϕ(V U V −1 ) = ϕ(V )ϕ(U )(ϕ(V ))−1 car ϕ est un


homomorphisme. Donc N satisfait les hypothèses du Théorème 4.5. Que N soit égal à
{I2 , −I2 } ou à {I2 }, il est clair que son image N0 par ϕ est {I3 }. Si en revanche N = SU(2)
alors l'image est tout SO(3). Le corollaire est montré.

Remarques. En général, si N est un sous groupe d'un groupe G on dit que N est normal
(ou distingué) si pour tout x ∈ N et tout y ∈ G alors yxy −1 est dans N. Les cas où N est
G ou est réduit à l'identité sont des exemples triviaux de sous groupes distingués. On dit
que G est simple s'il n'a pas de sous groupes normaux non triviaux.
Avec ces dénitions, une manière plus compacte d'énoncer le Théorème 4.5 et son
corollaire est alors de dire que le seul sous groupe normal de SU(2) non trivial est {±I2 },
et de dire que SO(3) est un groupe simple.

Exercice 4.1. Soit λ un nombre complexe de module 1. Trouver tous les U de U(2) de
déterminant λ. En déduire que si U ∈ U(2) alors
1. U = U ∗ si et seulement si det U = −1.
 
0 −1
2. Si J = alors U T JU = (det U )J.
1 0

V Théorème spectral hermitien et conséquences


La suite de ce chapitre est sans surprise et continue de copier le cas euclidien. Les
démonstrations des 5.1 et 5.2 sont triviales parce qu'un endomorphisme hermitien est
normal, donc diagonalisable dans une bon. Les théorèmes 5.3 et 5.4 sont un exercice
d'imitation.

Théorème 5.1. Soit H hermitien et a ∈ L(H) hermitien. Alors


1. Il existe une bon e telle que [a]ee soit diagonale réelle (théorème spectral hermitien).
2. Pour tout x ∈ E ha(x), xi est réel ≥ 0 si et seulement si les valeurs propres de a
sont ≥ 0.
3. Pour tout x ∈ E \ {0} on a ha(x), xi est réel strictement positif si et seulement si
les valeurs propres de a sont > 0.

On dit qu'une matrice carrée complexe A est hermitienne si A = A∗ .

Corollaire 5.2. Soit A une matrice hermitienne d'ordre q. Alors il existe des matrices
diagonale D et unitaire U d'ordre q telles que A = U DU −1 = P DU ∗ .
118 CHAPITRE 3. ESPACES HERMITIENS.

Dénition. Un endomorphisme hermitien a de l'espace hermitien H est dit positif s'il


satisfait la propriété suivante : pour tout x ∈ H on a ha(x), xi ≥ 0. Il est dit déni-positif
s'il satisfait la propriété suivante : pour tout x ∈ H \ {0} on a ha(x), xi > 0. Une matrice
hermitienne A d'ordre q est dite positive si elle satisfait la propriété suivante : pour tout
X ∈ Cq on a X ∗ AX ≥ 0. Elle est dite dénie-positive si elle satisfait la propriété suivante :
pour tout X ∈ Cq \ {0} on a X ∗ AX > 0.

Remarques. Il est clair que si a est hermitien et si e est une bon, alors A = [a]ee est
positive ou dénie positive en même temps que a. Par le Théorème 5.1 parties 3) et 4),
l'endomorphisme hermitien a (ou la matrice A = [a]ee ) est positif si et seulement si ses
valeurs propres sont toutes ≥ 0, et il est déni-positif si et seulement si ses valeurs propres
sont toutes > 0. Le Théorème 9.4 du chapitre 2 reste valable. Par exemple si on considère
la matrice hermitienne  
x c b
 c y a 
b a z
avec x, y, z réels et a, b, c complexes alors elle est positive si et seulement si x, y, z ≥ 0 et

xy ≥ |c|2 , yz ≥ |a|2 , zx ≥ |b|2 , xyz + 2<(abc) − (x|a|2 + y|b|2 + z|c|2 ) ≥ 0.

Notons aussi que l'analogue hermitien de la Proposition 9.6 du chapitre 2 sur les ma-
trices de Gram est vrai : (hfi , fj i)1≤i,j≤k est positive, et est dénie positive si et seulement
si les f1 , . . . , fk sont indépendants.

Théorème 5.3. (Racine carrée) Soit a un endomorphisme hermitien positif de l'espace


hermitien H. Alors il existe un unique endomorphisme hermitien positif b, tel que b2 = a.

Théorème 5.4. (Décomposition polaire) Soit a un endomorphisme inversible de l'espace


hermitien H. Alors il existe un couple unique (p, u) d'endomorphismes tel que a = pu, p
est hermitien déni-positif et u est unitaire.

Exercice 5.1. Soit z = ρeiθ avec


 ρ > 0 et θ réel. Trouver D diagonale et U unitaire carrées
0 z
d'ordre 2 telles que U DU ∗ = .
z 0

Exercice 5.2. Soit a un endomorphisme de l'espace hermitien H . Montrer que a est hermitien
si et seulement si pour tout x ∈ H le nombre ha(x), xi est réel. Méthode : si B(x, y) =
ha(x), yi montrer que B(x, y) + B(y, x) et iB(x, y) − iB(y, x) sont égaux à leur conjugués
pour voir que B(x, y) = B(x, y).

Exercice 5.3. Soit f une fonction continue positive


R∞
sur R telle que l'intégrale −∞ f (x)dx
R∞
converge et soit, pour t ∈ R le nombre ϕ(t) = −∞ eitx f (x)dx. Soit (t1 , . . . , tq ) une suite de
[0, ∞[. Montrer que la matrice A = (ϕ(tj − tk ))1≤j,k≤q est hermitienne positive. Méthode :
si X = (x1 , . . . , xq )T ∈ Cq exprimer X ∗ AX comme une intégrale utilisant la fonction x 7→
V. THÉORÈME SPECTRAL HERMITIEN ET CONSÉQUENCES 119
Pq
| j=1 xj eitj x |2 . Applications : en admettant que

1 ∞ eitx dx
Z
−|t|
e = ,
π −∞ 1 + x2
montrer que pour y ∈]0, 1[ la matrice (y |j−k| )1≤j,k≤q est dénie positive (Méthode : considérer
(t1 , . . . , tq ) tels que tj = j log y). Montrer que pour a > 0 la matrice
 
1
a + |j − k| 1≤j,k≤q
R1
est dénie positive (Méthode : considérer 0 y |j−k| y a−1 dy).

Exercice 5.4. (Suites stationnaires dans un espace hermitien). Soit H un espace hermitien de
dimension q et soit (zn )n∈Z une suite de H indexée par l'ensemble Z des entiers relatifs et qui
engendre H , c'est à dire qu' il existe n1 < n2 < . . . < nq tels que f = (zn1 , . . . , znq ) est une
base de H (non nécessairement orthonormale). Montrer qu'il existe u ∈ U(H) tel que pour
tout n ∈ Z on a zn = un (z0 ) si et seulement si pour tout k ∈ Z le nombre ϕ(k) = hzn+k , zn i
ne dépend pas de n ∈ Z. Montrer dans ces conditions qu'il existe des nombres p1 , . . . , pr ≥ 0
et des nombres réels θ1 , . . . , θr tels que
r
X
ϕ(k) = eikθj pj .
j=1

(Méthode pour ⇐ : montrer que f 0 = (zn1 +1 , . . . , znq +1 ) est aussi une base en montrant
qu'elle a la même matrice de Gram que f. Dénir alors u ∈ L(H) par u(znj ) = znj +1 pour
j = 1, . . . , q, montrer que le fait que f 0 soit une base entraîne que u−1 existe, et déduire
de hu(znj ), znk +1 i = hznj , u−1 (znk +1 )i que u−1 = u∗ . Montrer que pour tout n ∈ Z on a
hu(zn ), znk +1 i = hzn+1 , znk +1 i et en déduire u(zn ) = zn+1 .)

Exercice 5.5. On considère une matrice circulante complexe P (R) comme dénie au chapitre
1 section 3. A quelle condition sur P la matrice P (R) est elle hermitienne ? A l'aide de l'exemple
5.3 du chapitre 1, si P (R) est hermitienne, montrer qu'elle est positive si et seulement si
2ikπ
P (e q ) ≥ 0 pour tout k = 0, . . . , q − 1.

Exercice 5.6. En considérant le polynôme X 5 − 1 montrer que


P4 2ikπ
e 5 = 0. En déduire
k=0
cos 5 et cos 5 par considération de la partie réelle de cette égalité. Utiliser alors l'exercice
2π 4π

5.5 pour donner la condition nécessaire et susante sur le nombre complexe z = u + iv pour
que la matrice  
1 z 0 ... z
 z 1 z ... 0 
 
 0 z 1 z 0 
 
 0 0 z 1 z 
z 0 0 z 1
soit positive. Dessiner la partie correspondante du plan complexe (c'est le pentagône régulier
circonscrit au cercle u2 +v 2 = 1/4 dont un côté est u = −1/2, plus l'intérieur du pentagône).
120 CHAPITRE 3. ESPACES HERMITIENS.

VI Burnside et von Neumann*


Dans cette section 3 nous étudions des "algèbres d'opérateurs ". Plus précisément, nous
nous donnons un espace hermitien H (insistons sur le fait qu'il est de dimension nie) et
un sous espace vectoriel A de L(H). On dit que A est une algèbre si de plus le produit ab
est dans A pour tous a et b dans A. On dit que A est une algèbre de von Neumann si A
est une algèbre telle que de plus l'adjoint a∗ est dans A pour tout a de A et si A contient
l'identité idH .

Exemple 6.1 Si H est somme directe orthogonale de sous espaces :

H = H1 ⊕ . . . ⊕ Hp

de dimensions respectives q1 , . . . , qp et si aj ∈ L(Hj ) notons par a = (a1 , . . . , ap ) l'en-


domorphisme de H qui a x = x1 + . . . + xp (avec xj ∈ Hj ) fait correspondre a(x) =
a1 (x1 ) + . . . + ap (xp ). Alors l'ensemble A de tous les a construits de cette manière pour la
somme directe H = H1 ⊕ . . . ⊕ Hp est une algèbre de von Neumann. On note un tel A par

A = L(H1 ) ⊕ . . . ⊕ L(Hp ). (6.8)

Si on prend des bon ej pour chaque Hj alors e = e1 ∪ . . . ∪ ek est une bon de H et a est
dans A si et seulement si [a]ee est diagonale par blocs :

[a]ee = diag(A1 , . . . , Ap )

où la matrice carrée complexe Aj est d'ordre qj .

Exemple 6.2 Soit a un endomorphisme normal de l'espace hermitien H (rappelons que


cela signie aa∗ = a∗ a) et soit A l'ensemble des endomorphismes de L(H) de la forme
P (a, a∗ ) où P est un polynôme à coecients complexes à deux variables. Il est clair
que A est une algèbre de von Neumann commutative. Soit alors H = E1 ⊕ . . . ⊕ Ek
la décomposition en somme directe orthogonale par les espace propres Ej de a et soit
(λ1 , . . . , λk ) la suite des valeurs propres correspondantes de a, de multiplicités respectives
p1 = dim E1 , . . . , pr = dim Ek . Soit ej une bon de Ej . Alors e = e1 ∪ . . . ∪ ek est une base
de diagonalisation de a et plus généralement de l'élément typique P (a, a∗ ) de A. Plus
précisément on a

[P (a, a∗ )]ee = diag(P (λ1 , λ1 )Ip1 , . . . , P (λk , λk )Ipk ).

Autrement dit les b ∈ A sont les éléments de L(H) tels qu'il existe des complexes µ1 , . . . , µk
tels que [b]ee = diag(µ1 Ip1 , . . . , µr Ipk ). Cet exemple est important : dans une algèbre de von
Neumann quelconque A, il y a beaucoup d'éléments normaux puisque si b ∈ A alors a =
bb∗ est hermitien positif, donc diagonalisable en base orthonormale, c'est à dire normal.
L'exemple montre que dès que a ∈ A est normal alors les projections orthonormales sur
les espaces propres de a font partie de A.
3 Ma reconnaissance va à Hari Bercovici pour l'organisation de cette section.
VI. BURNSIDE ET VON NEUMANN* 121
Plus généralement on peut concevoir une algèbre de von Neumann A qui généralise
les deux exemples précédents, en ce sens qu'il existe une bon e de H , des entiers k ,
p1 , q1 , . . . , pk , qk tels que p1 q1 + · · · + pk qk = dim H de sorte que les éléments b de A soient
de la forme

[b]ee = diag(A1 , . . . , A1 , A2 , . . . , A2 , . . . , Ak , . . . , Ak ) (6.9)


où les matrices carrées complexes Aj sont arbitraires d'ordre qj et reproduites pj fois dans
6.9. L'exemple 6.1 correspend à k = 1, l'exemple 6.2 correspond à q1 = . . . = qk = 1. Le
but de cette section est de montrer la réciproque, c'est à dire que toute algèbre de von
Neumann est de cette forme. Ce résultat non trivial s'appuie sur le théorème de Burnside
(1903), le théorème 6.6 ci dessous. Réglons auparavant le cas simple des algèbres de von
Neumann commutatives : nous allons voir qu'elles coïncident avec l'exemple 6.2.

Proposition 6.1. Soit H un espace hermitien et soit A une algèbre de von Neumann
c'est à dire un sous espace vectoriel de L(H) contenant idH tel que ab ∈ A si a et b sont
dans A et telle que a∗ ∈ A pour tout a de A. Alors A est commutative (c'est à dire que
ab = ba pour tous a et b de A) si et seulement si il existe une base orthonormale e de H
telle que la matrice [a]ee soit diagonale pour tout a de A.
Dans ces conditions si la dimension de l'espace vectoriel A est k il existe k entiers
pj > 0 tels que q = p1 + . . . + pk et il est possible de numéroter e de sorte que si a ∈ L(H)
alors a ∈ A si et seulement si il existe une suite de complexes (µ1 , . . . , µk ) telle que

[a]ee = diag[µ1 Ip1 , . . . , µk Ipk ].

Démonstration. La partie ⇐ est évidente. Pour voir ⇒ on remarque que pour tout
a ∈ A on a aa = a∗ a et donc a est donc diagonalisable dans une base orthonormale

d'après le théorème 3.1 sur les endomorphismes normaux. Le fait qu'il existe une même
bon universelle e qui diagonalise chaque a de A résulte du théorème 6.1 du chapitre 1 de
diagonalisation simultanée.
Montrons la seconde partie. Si T ⊂ {1, . . . , q} on note eT l'élément de L(H) telle que
[eT ]ee = diag[1 , . . . , q ] avec j = 1 si j ∈ T et j = 0 sinon. Si T est non vide et si eT ∈ A
on dit que T est un ensemble idempotent. Un ensemble idempotent T est dit minimal si
S ⊂ T et S idempotent entraine S = T.
On remarque que deux ensembles idempotents T et S satisfont eT eS = eT ∩S et donc
T ∩S est ou vide ou idempotent. Cela entraîne que deux ensembles idempotents minimaux
distincts sont nécessairement disjoints. Soit {T1 , . . . , Tp } l'ensemble des idempotents mi-
nimaux. Alors ∪pj=1 Tj = {1, . . . , q}. Sinon T0 = {1, . . . , q} \ ∪pj=1 Tj ne serait pas vide et
serait un ensemble idempotent. En eet idH est dans A, ce qui entraine que
p
X
eT0 = idH − eTj ∈ A.
j=1

L'ensemble idempotent T0 contiendrait un ensemble idempotent minimal, ce qui contredit


la dénition de {T1 , . . . , Tp }.
122 CHAPITRE 3. ESPACES HERMITIENS.

On a donc déjà que A contient la sous algèbre A1 des a de la forme pj=1 µj eTj où
P
(µ1 , . . . , µp ) ∈ Cp est arbitraire. Pour voir qu'en fait A = A1 et que p = k montrons qu'un
élément quelconque a ∈ A déni par [a]ee = diag(a1 , . . . , aq ) est dans A1 . Supposons qu'il
n'en soit pas ainsi. Alors il existerait un j et deux éléments i1 et i2 de Tj tels que ai1 6= ai2 .
Soit T = {i; ai = ai1 }. Soit alors le polynôme de Lagrange L tel que L(ai1 ) = 1 et tel
que L(b) = 0 pour toutes les valeurs b prises par les ai quand i ∈ / T. Alors L(a) = eT
et donc T est un ensemble idempotent qui contient i1 et pas i2 pourtant situés dans le
même ensemble idempotent minimal Tj : contradiction. Donc A = A1 . Le fait que k = p
découle de dim A1 = p. Pour terminer, on note par pj la taille de Tj et on numérote la
bon e pour que T1 ∪ . . . ∪ Tj = {1, . . . , p1 + · · · + pj } pour tout j = 1, . . . , k. La proposition
est montrée.

Nous attaquons la description des algèbres de von Neumann générales par plusieurs dé-
nitions. Soit A ⊂ L(H) une algèbre de von Neumann. L'algèbre de von Neumann suivante

A0 = {x ∈ L(H); ax = xa ∀a ∈ A}

est appelée le commutant de A. L'algèbre de von Neumann commutative C(A) = A ∩ A0


est appelée le centre de A. Si C(A) est simplement formée des multiples de l'identité on
dit que c'est un facteur. Voici des exemples de facteur :

Proposition 6.2. Si H est un espace hermitien alors L(H) est un facteur. Si H est
la somme directe orthogonale de k espaces identiques à H1 et si A est l'algèbre de von
Neumann des a = diag(a1 , . . . , a1 ) tels que a1 ∈ L(H1 ) alors A est un facteur.

Démonstration. Il sut donc de montrer que si une matrice carrée A = (aij ) d'ordre
commute avec toute matrice B alors A est un multiple de Iq . Notons par Eij la matrice
carrée d'ordre q dont le coecient (i, j) est 1 et dont tous les autres sont nuls. Comme la
matrice AEii − Eii A = 0 on voit immédiatement que ligne et colonne i de A sont nulles
en dehors de (i, i). Comme c'est vrai pour tout i, A est diagonale. Pour voir enn que
aii = a11 , écrire AB − BA = 0 pour B = E11 + Eii .
Pour la seconde partie, on cherche les x ∈ L(H) tels que x = diag(x1 , . . . , x1 ) satisfasse
xa = ax pour tout a ∈ A et donc x1 a1 = a1 x1 pour tout a1 ∈ L(H1 ). La première partie
montre que x1 est multiple de l'identité de donc que A est un facteur.

En fait un long travail va consister à montrer au théorème 6.9 que tous les facteurs sont
de la forme indiquée par la proposition 6.2. Cette proposition permet aussi de trouver que
le commutant A0 de l'exemple 6.1 est contenu dans A et est formé des x de la forme

[x]ee = diag(λ1 Iq1 , . . . , λp Iqp ).

Pour le voir on écrit x par blocs, c'est à dire x = (xij ) avec xij ∈ L(Hi , Hj ). L'égalité
xa = ax se traduit par (xij )diag(a1 , . . . , ap ) = diag(a1 , . . . , ap )(xij ) qui se traduit par
xij aj = ai xij . Pour i 6= j ceci entraine xij = 0 (prendre ai = 0 et aj arbitraire). Pour
i = j on applique la proposition 6.5 pour voir que xii est un multiple de l'identité. En
revanche le commutant A0 de l'exemple 6.2 est formé des x = diag(x1 , . . . , xq ) avec xj
VI. BURNSIDE ET VON NEUMANN* 123
élément arbitraire de L(Ej ). Cela se voit par une méthode de blocs analogue. Finalement,
la même méthode de blocs montre que le commutant du facteur A de la proposition 6.2
est formé des x = (xij )1≤,j≤p tels que xij = λij idH avec (λij )1≤,j≤p matrice de nombres
complexes arbitraire. On utilise pour cela la première partie de la proposition 6.2. Voici
enn l'origine du mot facteur :

Proposition 6.3. Soit H un espace hermitien et A ⊂ L(H) une algèbre de von Neu-
mann. Alors il existe une décomposition en somme directe orthogonale H = E1 ⊕ · · · ⊕ Ek
et des facteurs Aj ⊂ L(Ej ) tels que A est formé des a = diag(a1 , . . . , ak ) tels que aj ∈ Aj .

Démonstration. Le centre C(A) étant une algèbre de von Neumann commutative, on


lui applique la proposition 6.1 pour garantir qu'il existe une décomposition en somme
directe orthogonale H = E1 ⊕ · · · ⊕ Ek telle que les éléments de C(A) sont de la forme
µ1 p1 + . . . + µk pk en notant pj ∈ L(H) la projection orthogonale de H sur Ej et où
(µ1 , . . . , µk ) est arbitraire dans Ck . Dénissons Aj ⊂ L(Ej ) comme l'ensemble des pj apj
quand a parcourt A. Alors Aj est une algèbre de von Neumann puisque pj commute avec
les éléments de A. De plus si i 6= j et a et b sont dans A alors pi api pj bpj = 0 car pi pj = 0.
On le résume en disant Ai Aj = 0. Reste à vérier que Aj est un facteur. Si x ∈ A est
tel que on a pour tout a ∈ A l'égalité pj apj pj xpj = pj xpj pj apj alors comme pj commute
avec tout A on a apj xpj = pj xpj a ce qui est dire que pj xpj ∈ C(A) et donc que pj xpj
est proportionnel à l'identité idEj . L'algèbre Aj est donc un facteur et la proposition est
montrée.

Proposition 6.4. Soit H un espace hermitien et soit A ⊂ L(H) une algèbre de von
Neumann. Si F est un sous espace vectoriel de H soit pF la projection orthogonale de H
sur F. Alors il y a équivalence entre les trois faits suivants :
1. F est invariant par A
2. pF est dans A0
3. I = pF ApF est tel que AI et IA sont contenus dans I.
En particulier si pF ∈ A alors F est invariant par A si et seulement si pF ∈ C(A) et si et
seulement si I = pF ApF est tel que AI et IA sont contenus dans I ⊂ A.
Finalement, A est un facteur si et seulement si il ne contient pas de sous espace
vectoriel I non trivial tel que AI et IA sont contenus dans I et tel que I soit stable par
a 7→ a∗ .

Démonstration. 1 ⇒ 2 : Pour tout a ∈ A on a pF a = pF apF = (pF a∗ pF )∗ = (pF a∗ )∗ =


apF . 2 ⇒ 3 : puisque pF commute avec tout élément de A on a pour a et b dans A que
apF bpF = pF abpF ∈ I et que pF apF b = pF abpF ∈ I. Enn 3 ⇒ 1 car si v ∈ F et si a ∈ A
alors a(v) = apF (v) ∈ I(v) ⊂ F. L'application au cas particulier pF ∈ A est immédiate.
Montrons maintenant la dernière partie. ⇐: Si A n'est pas un facteur, son centre C(A)
est non trivial. D'après la proposition 6.1 C(A) contient donc une projection orthogonale
pF sur un sous espace vectoriel non trivial F de H . En considérant I = pF ApF et la
première partie de la proposition on a la contradiction voulue. La partie ⇒ est moins
simple. S'il existe un sous espace vectoriel non trivial I de A stable par a 7→ a∗ et avec
124 CHAPITRE 3. ESPACES HERMITIENS.

AI ⊂ I et IA ⊂ I alors I est une algèbre qui ne contient pas idH . Elle contient cependant
des projections orthogonales pF . Fixons F de dimension maximale telle que pF ∈ I. Alors
idH − pF 6= 0 et il existe a ∈ A tel que (idH − pF )a 6= 0 (sinon A = pF A ⊂ I et I ne serait
pas un sous espace vectoriel strict de A). Par conséquent l'endomorphisme symétrique
positif b = (idH − pF )aa∗ (idH − pF ) appartient à I et est non nul. Soit G un des espaces
propres de b : il est dans l'orthogonal de F et pourtant pF +G = pF + pG est dans I. Cela
contredit la maximalité de la dimension de F et achève la démonstration.

Voici maintenant le théorème du double commutant qui dit que A = A00 pour une algèbre
de von Neumann. Quand on veut étendre la présente théorie aux espaces H de dimension
innie, ce résultat doit être pris comme axiome supplémentaire de la dénition des algèbres
de von Neumann 4 .

Théorème 6.5. Soit H un espace hermitien et soit A ⊂ L(H) une algèbre de von
Neumann. Alors A = A00 .

Démonstration. Rappelons les dénitions du commutant et du double commutant :


A0 = {x ∈ L(H); ax = xa ∀ a ∈ A} A00 = {y ∈ L(H); yx = xy ∀ x ∈ A0 }.

Cela montre clairement que A ⊂ A00 . Soit alors y ∈ A00 . Montrons que y ∈ A. J'observe
d'abord que pour tout v ∈ H alors il existe au moins un a ∈ A tel que a(v) = y(v). En
eet F = Av est un sous espace invariant et donc la projection orthogonale pF est dans A0
(voir Proposition 6.4). Donc pF commute avec y et donc pF y(v) = ypF (v) = y(v). Donc
y(v) est dans A(v).
Il ne reste plus qu'à montrer que le a ∈ A que nous avons trouvé ne dépend pas de
v , c'est à dire qu'en fait y ∈ A. Pour cela on utilise une astuce appelée dilatation de
von Neumann. Si n = dim H je forme H1 = H ⊕n de dimension n2 et je forme l'algèbre
de von Neumann A1 ⊂ L(H1 ) des a1 = diag(a, a, . . . , a) avec a ∈ A. Son commutant
A01 est formé des x = (xij )1≤i,j≤n avec xij ∈ A0 , et son double commutant est formé des
y1 = diag(y, y, . . . , y) avec y ∈ A00 . Appliquons alors la première partie de la démonstration
à A1 et à v = e ∈ H1 quand e = (e1 , . . . , en ) est une bon de H. Pour tout y1 ∈ A001 il existe
donc a1 ∈ A1 tel que y1 (e) = a1 (e) et donc y(ei ) = a(ei ) pour tout i = 1, . . . , n. C'est dire
y = a et le résultat est montré.

Nous attaquons maintenant la seconde partie de cette section, en montrant d'abord le


théorème de Burnside 6.6 et en développant les conséquences pour classer les facteurs
(c'est à dire pour montrer la réciproque de la proposition 6.2) et donc avec la proposition
6.3 trouver toutes les algèbres de von Neumann.

Théorème 6.6. Soit H un espace hermitien et soit A une algèbre, c'est à dire un sous
espace vectoriel de L(H) tel que ab ∈ A si a et b sont dans A. On suppose de plus que si
F est un sous espace vectoriel de H tel que A(F ) ⊂ F (c'est à dire que a(F ) ⊂ F pour
tout a ∈ A) alors F = {0} ou H. Dans ces conditions on a toujours A = L(H).
4 Voir J. Dixmier, (1969) Les algèbres d'opérateurs dans l'espace Hilbertien Gauthier-Villars, Paris.
VI. BURNSIDE ET VON NEUMANN* 125
Remarques. Notez que les algèbres générales sont plus diciles à classer que les algèbres
de von Neumann . Dans l'énoncé du théorème de Burnside ci dessus, il n'y a rien d'hermi-
tien mais seulement une structure sur les complexes, alors que la dénition d'une algèbre
de von Neumann utilise l'adjoint et donc une structure hermitienne. Toutefois l'apport
un peu articiel de cette structure hermitienne simpliera la démonstration qui est plutôt
rosse, en évitant le recours à l'espace dual. L'idée de cette démonstration (l'ingénieuse
étape 3 ci dessous) est due à Halperin et Rosenthal (Amer. Math. Monthly (1980) page
810). Insistons enn sur le fait qu'on ne suppose pas dans le théorème que idH ∈ A.

Démonstration du Théorème 6.6. Convenons de dire que le sous espace vectoriel F


de H est invariant si A(F ) ⊂ F. De plus, sans perte de généralité on suppose dim H ≥ 2
car le résultat est trivial si dim H = 0 ou 1.
Etape 1. Soit x0 ∈ H \ {0} et F = A(x0 ) = {a(x0 ); a ∈ A}. Je dis que F = H. En eet F
est invariant. L'espace F n'est pas {0} car sinon F1 = Cx0 satisferait A(F1 ) = {0} ⊂ F1
et serait donc invariant et diérent de {0} et de H : c'est contraire à l'hypothèse. Par
conséquent l'espace invariant F est égal à H.
Etape 2. Soit y0 ∈ H \ {0} et G = A (x0 ) = {a (x0 ); a ∈ A}. Je dis que G = H. En eet
∗ ∗

soit F l'orthogonal de G. Alors F est invariant, car dire x0 ∈ F est équivalent à dire que
pour tout a ∈ A on a
0 = ha∗ (y0 ), x0 i = hy0 , a(x0 )i. (6.10)
Il est bien clair que b(x0 ) a la même propriété pour tout b ∈ A et donc que b(F ) ⊂ F : d'où
l'invariance de F. Ensuite, si F comprend un vecteur x0 non nul alors F ⊃ A(x0 ) = H
d'après l'étape 1, et l'égalité 6.10 entraîne la contradiction y0 = 0. Donc F = {0} et son
orthogonal G est H.
Etape 3. Rappelons que le rang d'un endomorphisme d'un espace vectoriel de dimension
nie est la dimension de son image. Nous montrons que A contient nécessairement un
élément de rang 1, c'est à dire un endomorphisme de la forme x0 ⊗ y0 . Par cette notation,
où x0 et y0 sont dans H \ {0}, nous signions l'application de H dans H dénie par

x 7→ x0 hy0 , xi.

C'est bien de rang 1 comme on le voit en considérant sa matrice représentative dans une
bon. Il est aussi facile de voir que tout endomorphisme de H de rang 1 est de cette forme.
Si r(a) désigne le rang de a ∈ A, soit r0 = min{r(a); a ∈ A\{0}}. Il existe certainement
a0 ∈ A \ {0} tel que r(a0 ) = r0 et nous cherchons à montrer r0 = 1. Si c'est faux, alors
r0 ≥ 2 et il existe donc x1 et x2 dans H tels que a0 (x1 ) et a0 (x2 ) soient indépendants.
D'après l'étape 1 appliquée à x0 = a0 (x1 ), il existe a1 ∈ A tel que a1 a0 (x1 ) = x2 . Par
conséquent a0 a1 a0 (x1 ) et a0 (x1 ) sont indépendants, et donc pour tout λ ∈ C le vecteur
de H égal à a0 a1 a0 (x1 ) − λa0 (x1 ) est non nul. Cela entraîne enn que pour tout λ ∈ C
l'élément de A égal à a0 a1 a0 − λa0 est non nul.
Soit alors F = a0 (H) l'image de a0 . On a dim F = r0 par dénition. On observe que
a0 a1 (F ) ⊂ F et on note par b ∈ L(F ) la restriction de a0 a1 à F. L'endomorphisme b de
l'espace complexe F a une valeur propre λ0 associée au vecteur propre f0 (Ce point est
crucial : le théorème serait faux pour des espaces vectoriels réels). Le rang de b − λ0 idF
126 CHAPITRE 3. ESPACES HERMITIENS.

étant ≤ r0 − 1 on en déduit que le rang de a0 a1 a0 − λ0 a0 est ≤ r0 − 1. Or A étant une


algèbre, a0 a1 a0 − λ0 a0 est un élément de A. On a vu qu'il est non nul. Comme il est de
rang ≤ r0 − 1 cela contredit la dénition de r0 . Par conséquent r0 ≥ 2 est impossible et
l'étape 3 est montrée.
Etape 4. A contient tous les éléments de L(H) de rang 1. En eet on a vu à l'étape 3
qu'il existait un a0 = x0 ⊗ y0 dans A, avec x0 6= 0 et y0 6= 0. Si x1 ∈ H on a vu à l'étape 1
qu'il existait a1 ∈ A tel que a1 (x0 ) = x1 . Si y1 ∈ A on a vu à l'étape 2 qu'il existait a ∈ A
tel que a∗ (y0 ) = y1 . par conséquent x 7→ a1 a0 a(x) est l'endomorphisme

a1 a0 a(x) = a1 (x0 hy0 , a(x)i) = a1 (x0 ha∗ (y0 ), xi) = a1 (x0 hy1 , xi) = x1 hy1 , xi = (x1 ⊗ y1 )(x).

Donc a1 a0 a = x1 ⊗ y1 ∈ A.
Etape 5. Nous montrons enn que tout élément de L(H) est somme d'éléments de
rang 1, ce qui acchèvera la démonstration d'après l'étape 4 et le fait que A est un sous
espace vectoriel de L(H). En eet si c'était faux il existerait un b ∈ L(H) \ {0} tel que
trace (bx1 ⊗ y1 ) = 0 pour tous les x1 et y1 de H et donc

0 = trace (bx1 ⊗ y1 ) = hy1 , b(x1 )i.

Appliquant cela à y1 = b(x1 ) on obtient kb(x1 )k2 = 0. Comme c'est vrai pour tout x1 c'est
dire que b = 0, ce qui est une contradiction. Le théorème de Burnside est démontré.

Corollaire 6.7. Toute sous algèbre A de L(H) distincte de L(H) admet au moins un
sous espace invariant diérent de {0} et H. De plus, si F est un sous espace invariant de
A minimal (en ce sens que si F1 ⊂ F est aussi invariant alors F1 = F ou {0}) alors la
restriction de A à F est L(F ).

Remarques. La première partie du corollaire ci dessous est équivalente au théorème 6.6


et est aussi appelée théorème de Burnside par certains auteurs. Le corollaire se concentre
sur la notion de sous espace F invariant de H par l'algèbre A ainsi que sur celle de sous
espace invariant minimal. Il est utile de tester les exemples 6.1 et 6.2 : les sous espaces
invariants minimaux de l'exemple 6.1 sont les Hj , alors que ceux de l'exemple 6.2 sont les
sous espaces vectoriels de dimension 1 de chaque Ei .

Démonstration du corollaire 6.7. Si A n'avait pas de sous espace invariant non trivial,
le théorème 6.3 entraînerait que l'algèbre est égale à L(H). Ensuite la restriction de A
au sous espace invariant F est une algèbre pour l'espace F. Comme elle n'a pas de sous
espace invariant non trivial elle est égale à L(F ).

Corollaire 6.8. Si A ⊂ L(H) est une algèbre de von Neumann alors son commutant A0
est formé des multiples de l'identité si et seulement si A = L(H).

Démonstration. ⇐ découle de la première partie de la proposition 6.2. ⇒ Si A 6= L(H)


alors A admet un espace invariant F non trivial (corollaire 6.7). Soit pF la projection
orthogonale de H sur F : ce n'est pas un multiple de l'identité puisque F est non trivial.
Ensuite, observons que puisque A est non seulement une algèbre, mais une algèbre de von
VI. BURNSIDE ET VON NEUMANN* 127
Neumann, alors F ⊥ est aussi invariant par A : si a ∈ A, puisque F est aussi conservé par
a∗ , pour tous w ∈ F ⊥ et v ∈ F on a ha(w), vi = hw, a∗ (v)i = 0. Nous en déduisons que pF
est dans A0 ce qui apportera la contradiction désirée. Pour v ∈ F on a a(v) ∈ F et donc
pF a(v) = a(v) = apF (v). Même raisonnement si v ∈ F ⊥ d'où pF a = apF . Le corollaire est
montré.
Nous sommes maintenant en mesure de terminer la classication des algèbres de von
Neumann, c'est à dire de montrer qu'il n'y a pas d'autres facteurs que ceux qui sont décrits
dans la proposition 6.2. Couplé avec la proposition 6.3 cela donne l'armation faite en
6.9.

Théorème 6.9. Soit A ⊂ L(H) un facteur. Alors H est la somme directe orthogonale
de r espaces isomorphes telle que si H = H1⊕r alors A est formé des a = diag(a1 , . . . , a1 )
où a1 est un élément arbitraire de L(H1 ).

Démonstration. Appliquons la proposition 6.3 au commutant A0 , qui est aussi une


algèbre de von Neumann. Il existe donc une décomposition en somme directe orthogonale
H = H1 ⊕· · ·⊕Hk et des facteurs Bj ⊂ L(Hj ) tels que A0 est formé des x = diag(x1 , . . . , xk )
tels que xj ∈ Bj . Notons pour simplier par pj la projection orthogonale de H sur Hj .
Puisque pj est dans A0 on peut dire que Aj = pj Apj ⊂ L(Hj ) est une algèbre de von
Neumann sur Hj et que l'application ϕ de A dans A1 dénie par ϕ(a) = p1 ap1 satisfait
ϕ(ab) = ϕ(a)ϕ(b) pour tous a et b de A. De plus le sous espace vectoriel de A suivant

I = {a ∈ A; p1 ap1 = 0},

c'est à dire le noyau de l'application linéaire ϕ, satisfait AI ⊂ I et IA ⊂ I et est stable


par a 7→ a∗ . Comme A est un facteur, d'après la proposition 6.4, I est ou bien égal à A
(ce qui donnerait l'absurdité p1 = 0 puisque A contient idH ) ou bien I = {0}. Donc ϕ
est injectif. Comme ϕ est surjectif par dénition de A1 on en déduit que A et A1 sont
isomorphes -aussi bien que A et Aj .
Dernière étape : arriver à montrer que A1 = L(H1 ). Pour cela on écrit

p1 A0 p1 = (p1 A0 p1 )00 = (p1 Ap1 )0 = A01

La première égalité est le théorème 6.5 du double commutant appliqué à l'algèbre de von
Neumann p1 A0 p1 ⊂ L(H1 ). La deuxième résulte de (p1 A0 p1 )0 = p1 Ap1 = A1 qui résulte à
son tour de A00 = A. Maintenant supposons que p1 A0 p1 contienne un x1 ∈ L(H1 ) qui ne
soit pas un multiple de idH1 . Alors x1 x∗1 a un espace propre F ⊂ H1 non trivial, et donc
pF est dans p1 A0 p1 . Cela contredit le fait que H = H1 ⊕ · · · ⊕ Hk est la décomposition
de la proposition 6.3 pour l'algèbre A0 . Par conséquent A01 = p1 A0 p1 n'est formée que de
multiples de l'unité. Appliquant alors le corollaire 6.8 du théorème de Burnside on en
déduit que A1 = L(H1 ) et la démonstration est achevée.

Exercice 6.1 Si H = C2 est l'espace hermitien canonique de dimension 2, on identie L(H)


aux matrices complexes (2,2). Quelle est la plus petite algèbre de von Neumann qui contient
128 CHAPITRE 3. ESPACES HERMITIENS.
 
0 1
a= ? Considérons ensuite avec H = C3
0 0
   
0 1 0 0 1 0
a =  0 0 0 , b =  0 0 1 .
0 0 0 0 0 0

Quelle est la plus petite algèbre de von Neumann qui contient a? Méthode : puisque a2 = 0
former toutes les combinaisons linéaires de id, a, a∗ , aa∗ , a∗ a. Est ce que b est normal ? Montrer
que L(H) est la plus petite algèbre de von Neumann qui le contienne. Méthode : calculer
b2 , b2 b∗ , bb∗ , bb∗ b∗ .
Chapitre 4
Formes quadratiques
Ce chapitre est court, abstrait et dicile. Historiquement, les formes quadratiques
sont apparues comme des polynômes homogènes à q variables à coecients dans R ou C,
comme pour q = 2 ou 3
Q(x1 , x2 ) = ax21 + 2bx1 x2 + cx22 , (0.1)
Q(x1 , x2 , x3 ) = a1 x21 + a2 x22 + a3 x23 + 2b3 x1 x2 + 2b1 x3 x1 + 2b2 x2 x3 . (0.2)
Mais dans 4 cas sur 5 on les voyait apparaitre dans un contexte euclidien traité à la
facon du XIX ème siècle, c'est à dire avec coordonnées. Nous avons appris au chapitre
2 section 9 à les étudier avec le théorème spectral en leur associant un endomorphisme
symétrique. Toutefois cette méthode ne permet pas l'étude dans le cas complexe et dans
d'autres corps. Ensuite, même dans le cas réel imposer une structure euclidienne peut
être articiel : le médecin qui collecte des données de patients du genre (poids en kilos,
taille en
p cm)= (x, y) n'a que faire d'une structure euclidienne avec une norme de la
forme ax2 + 2bxy + cy 2 . Enn les formes quadratiques apparaissent de facon naturelle
en géométrie diérentielle, en théorie des nombres, en mathématiques appliquées et en
informatique (codes correcteurs d'erreur). En résumé, bien que les formes quadratiques
ne forment pas une industrie aussi importante que celle des endomorphismes, leur étude
est utile et intéressante.

I Matrices représentatives d'une forme bilinéaire ou


quadratique
On sait (Chapitre 2, section 2) que si E et F sont des espaces vectoriels sur un même
corps K , une forme bilinéaire est une application (x, y) 7→ B(x, y) de E × F dans K telle
que x 7→ B(x, y) est linéaire sur E pour y ∈ F xé, et telle que y 7→ B(x, y) est linéaire
sur F pour x ∈ E xé. On pourrait interpréter B comme la donnée d'une application ϕB
linéaire de E à valeurs dans le dual F ∗ dénie par B(x, y) = ϕB (x)(y), un point de vue
fécond qui est développé en licence pour introduire les produits tensoriels d'espaces.
Si E = F et si de plus B(x, y) est symétrique, c'est à dire que B(x, y) = B(y, x) alors
la fonction x 7→ QB (x) sur E à valeurs dans K est appelée forme quadratique associée à

129
130 CHAPITRE 4. FORMES QUADRATIQUES

B. En fait, la connaissance de QB donne la connaissance de B par polarisation si on a le


droit de diviser par 2 dans le corps K :

Proposition 1.1. Soit K un corps tel que si λ ∈ K est tel que λ + λ = 0 alors λ = 0.
Soit E un espace de dimension nie sur K et soit Q : E → K telle que
 Pour tout λ ∈ K et tout x ∈ E on a Q(λx) = λ2 Q(x).
 B(x, y) = 12 (Q(x + y) − Q(x) − Q(y)) est une forme bilinéaire symétrique sur E.
Alors Q est la forme quadratique associée à B (et B s'appelle la polarisée de Q). De plus
si B1 est une autre forme bilinéaire symétrique telle que QB = QB1 alors B = B1 .

Démonstration. La première propriété joue un rôle crucial :


1 1
B(x, x) = (Q(2x) − 2Q(x)) = (4Q(x) − 2Q(x)) = Q(x).
2 2
Ensuite, on voit facilement que puisque B1 est bilinéaire symétrique alors
1
B1 (x, y) = (B1 (x + y, x + y) − B1 (x, x) − B1 (y, y))
2
et donc B = B1 .

Soit à nouveau E et F des espaces vectoriels sur K , et de dimensions nies p et q , équipés


de bases e et f. Soit B une forme bilinéaire sur E × F. Alors la matrice

e [B]f = (B(ei , fj ))1≤i≤p,1≤i≤p

est appelée matrice représentative de B dans les bases (e, f ). Elle permet de calculer
immédiatement B(x, y) connaissant les matrices de composantes X = [x]e et Y = [y]f :

B(x, y) = X T e0 [B]f 0 Y,

et le changement de base se fait immédiatement : si e0 et f 0 sont de nouvelles bases de E


et F avec P = [idE ]ee0 et Q = [idF ]ff 0 pour matrices de changement de base, alors

e [B]f = P T e [B]f Q. (1.3)

Remarques. Il est inutile d'apprendre cette égalité par coeur, mais il faut savoir la

retrouver. Il est important de noter qu'elle est diérente de la formule de changement de


base pour une application linéaire vue au chapitre 1, section 1. En mathématiques pures ou
appliquées on rencontre souvent des matrices carrées ou rectangulaires : il est important de
savoir s'il faut les interpréter comme des matrices représentatives d'applications linéaires
(cas le plus fréquent) ou comme des matrices représentatives de formes bilinéaires.
Finalement, bien que le présent chapitre se concentre sur les formes quadratiques et
donc les formes bilinéaires symétriques, il faut savoir que la prochaine catégorie intéres-
sante est celle des formes bilinéaires antisymétriques (ou alternées) sur E × E satisfaisant
B(x, y) = −B(y, x) à la base de la géométrie symplectique et de la mécanique moderne.
I. MATRICES REPRÉSENTATIVES D'UNE FORME BILINÉAIRE OU QUADRATIQUE 131
Supposons maintenant E = F de dimension q muni de la base e et soit B une forme
bilinéaire. Alors B est symétrique si et seulement si la matrice représentative A = e [B]e =
(B(ei , ej ) = (aij ) l'est. Dans ce cas, e [B]e est appelée aussi la matrice représentative de
la forme quadratique Q = QB et on a pour X = [x]e = (x1 , . . . , xq )

q
X
T
Q(x) = X e [B]e X = aij xi xj .
i,j=1

Par exemple les matrices représentatives des formes quadratiques sur K 2 et K 3 en base
canonique des exemples (0.1) et (0.2) sont respectivement
 
  a1 b 3 b 2
a b
,  b 3 a2 b 1  .
b c
b 2 b 1 a3

Quant à la formule de changement d'une base e à une base f de E, si P = [idE ]ef c'est
donc
T
e [B]e = P f [B]f P.

On utilise parfois le vocabulaire suivant : on dit que deux matrices carrées d'ordre q
symétriques A et B sur K sont congruentes si il existe une matrice inversible P d'ordre
q telle que A = P BP T . C'est à distinguer des matrices semblables pour lesquelles A =
P BP −1 . La congruence est liée à la représentation d'une même forme quadratique dans
diérentes bases, la similitude est liée à la représentation d'un même endomorphisme dans
diérentes bases.
Dans le corps K introduisons la relation d'équivalence suivante λ ∼ λ0 si et seulement
si il existe µ 6= 0 dans K tel que λ = µ2 λ0 . Par exemple si K = R il y a trois classes
d'équivalence, celles de 1, de 0 et de -1. Si K = C il n'y a que celles de 1 et de 0 et si
K = Q il y a celles de 0, de n et de −n où n est un entier positif produit de nombres
premiers distincts.
On remarque alors que le déterminant de e [B]e dépend de la base puisque det( e [B]e ) =
(det P )2 (det f [B]f ). Ce qui est intrinsèque à la forme quadratique Q indépendamment de
la base dans ce déterminant est donc seulement sa classe d'équivalence pour la relation
d'équivalence précédente. Cette classe d'équivalence est appelée discriminant de Q.

Exercice 1.1 Soit A une matrice symétrique d'ordre q inversible sur le corps K. Si X ∈ K q
est écrit comme une matrice colonne on considère la forme quadratique
 
A X
Q(X) = − det .
XT 0

Montrer que la matrice représentative de Q dans la base canonique de K q est A−1 det A ,
c'est à dire la matrice des cofacteurs de A. Méthode : pour calculer Q(X) utiliser l'exercice
2.1 du chapitre 1 appliqué à B = X , C = X T et D = 0.
132 CHAPITRE 4. FORMES QUADRATIQUES

II Orthogonalité, noyau, rang, diagonalisation


Soit Q une forme quadratique dans E espace de dimension nie sur K. On suppose
désormais que si λ ∈ K est tel que λ + λ = 0 alors λ = 0. Soit B la forme polaire de
Q dénie à la Proposition 1.1. On dit que x et y dans E sont orthogonaux pour Q si
B(x, y) = 0. On dit qu'une base e = (e1 , . . . , eq ) est orthogonale si B(ei , ej ) = 0 (c'est à
dire que e [B]e est diagonale). On dit que x ∈ E est isotrope si Q(x) = 0.
Notez que l'ensemble des vecteurs isotropes n'est pas un sous espace vectoriel en gé-
néral. Exemples : E = R2 et Q(x1 , x2 ) = x1 x2 ; l'ensemble des vecteurs isotropes est ici
la réunion de deux droites. Si E = R3 et Q(x1 , x2 , x3 ) = x21 + x32 − x33 l'ensemble des
vecteurs isotropes est ici la réunion de deux cônes de révolution. L'ensemble des x tels
que Q(x) = 0 est un espace vectoriel dans le cas très exceptionnel où K = R et Q est
dénie positive, comme vu au chapitre 2, section 3.
Ce mot "orthogonal" est un choix malheureux qui n'indique qu'une vague analogie
avec le cas euclidien. Si U est une partie de E on appelle orthogonal de U pour la forme
quadratique Q l'ensemble

U 0 = {x ∈ E ; B(x, y) = 0 ∀y ∈ U }.

Cette fois, U 0 est un sous espace vectoriel de E, c'est facile à vérier. Le sous espace E 0
est alors appelé le noyau1 de Q. Il ne faut pas le confondre avec l'ensemble des vecteurs
isotropes. Le rang de Q est l'entier dim E − dim E 0 . On dit que Q est non dégénérée si
E 0 = {0}. Q est alors de rang q = dim E.

Proposition 2.1. Le rang de Q est égal au rang de sa matrice représentative A = e [B]e


dans une base quelconque e de E. En particulier Q est non dégénérée si et seulement si
det A 6= 0.

Démonstration : Par dénition y ∈ E 0 si et seulement si B(x, y) = 0 pour tout x ∈ E.


Passant à la base e avec Y = [y]e on a X T AY = 0 pour tout X et donc AY = 0, ce qui
montre que Y est dans le noyau de l'application linéaire de K q de matrice A dans la base
canonique. Le rang de A est donc bien q − dim E 0 .

Théorème 2.2. Soit Q une forme quadratique sur E de dimension nie q. Alors il existe
une base e de E telle que la matrice représentative de Q dans E soit diagonale, c'est à
dire telle que e soit orthogonale pour Q.

Démonstration : On procède par récurrence sur q. C'est trivial pour q = 1. Supposons


que ce soit vrai pour q − 1 et prenons E de dimension q. Si Q(x) = 0 pour tout x alors
toute base est orthogonale. Sinon il existe un vecteur e1 non isotrope. Soit F l'orthogonal
de Ke1 . Il ne contient pas e1 , qui est non isotrope. C'est le noyau de l'application linéaire
x 7→ B(x, e1 ) et il est donc de dimension q −1. Donc E = Ke1 ⊕F. Appliquons l'hypothèse
de récurrence à F : il possède donc une base orthogonale f et donc e = {e1 } ∪ f est une
base orthogonale pour Q.
1 Certains auteurs disent radical.
II. ORTHOGONALITÉ, NOYAU, RANG, DIAGONALISATION 133
Corollaire 2.3. Si Q est une forme quadratique de rang p sur un espace E de dimension
q alors il existe des nombres non nuls a1 , . . . , ap et des formes linéaires sur E indépendantes
f1 , . . . , fp tels que
Q(x) = a1 (f1 (x))2 + · · · + ap (fp (x))2 . (2.4)

Démonstration : En eet, si e est une base de diagonalisation de Q, si A = e [B]e =


diag(a1 , . . . , aq ) et si X = [x]e = (x1 , . . . , xq )T alors Q(x) = a1 x21 + · · · + aq x2q . Puisque le
rang p de la matrice représentative de Q ne dépend pas de la base, il y a donc exactement
p nombres parmi les (ai ) qui ne sont pas nuls. Sans perte de généralité on suppose que ce
sont les p premiers. Donc Q(x) = a1 x21 + · · · + ap x2p . Enn, soit fj la forme linéaire dénie
par fj (x) = xj . Le fait que e soit une base entraîne que les f1 , . . . , fq sont indépendants
et le corollaire est montré.

Remarque. Il est important de noter que si la base de diagonalisation e de Q est telle


que
e [B]e = diag(a1 , . . . , ap , 0, . . . , 0)
avec a1 a2 . . . ap 6= 0 alors (ep+1 , . . . , eq ) est une base de E 0 . En eet si p < j alors ej est
orthogonal à tous les ei y compris lui même. Comme e est une base de E cela entraîne
que ej est dans E 0 . Comme les (ep+1 , . . . , eq ) sont indépendants et que dim E 0 = q − p on
a le résultat.

L'algorithme de Gauss de décomposition d'une forme quadratique en carrés.


Cet algorithme, sur lequel on peut baser une seconde démonstration au Théorème 2.2,
considère une forme quadratique Q sur l'espace K q (où le corps K est tel que 2λ = 0
entraîne λ = 0) dénie par une matrice symétrique A = (aij ) d'ordre q à coecients dans
K ainsi :
q
X
Q(x1 , . . . , xq ) = aij xi xj = C + R
i,j=1

où les sommes C et R, dites des carrés et des rectangles, sont respectivement


q
X X
C= aii x2i xj R = 2 aij xi xj .
i=1 1≤i<j≤q

Cet algorithme calcule le rang p et construit des formes linéaires fj indépendantes telles
que (2.4) soit vrai. Nous n'allons pas expliquer le programme informatique, mais nous
contenter d'explications informelles.
1. Ou bien C 6= 0. Dans ce cas il existe un i tel que aii 6= 0. Prenons i = 1 sans
perte de généralité. Alors Q(x) = a11 x21 + 2x1 f (x2 , . . . , xq ) + S(x2 , . . . , xq ) où f
est une forme linéaire et S est une forme quadratique sur K q−1 . On pose alors
f1 (x1 , . . . , xq ) = x1 + a111 f2 et Q1 = S − a111 f 2 . Alors Q = a11 f12 + Q1 et la forme
quadratique Q1 est par rapport aux variables x2 , . . . , xq . Tout cela n'est que la bonne
vieille technique consistant à compléter le carré dans un trinôme du second degré.
134 CHAPITRE 4. FORMES QUADRATIQUES

2. Ou bien C = 0. Le cas R = 0 étant trivial, supposons R 6= 0. Sans perte de généralité


on suppose a12 6= 0. Alors

Q(x) = 2a12 x1 x2 + 2x1 g(x3 , . . . , xq ) + 2x2 f (x3 , . . . , xq ) + S(x3 , . . . , xq )

où f et g sont des formes linéaires et S est une forme quadratique sur K q−2 . L'astuce
est alors d'introduire les deux formes linéaires sur K q suivantes
1 1
f1 (x1 , . . . , xq ) = (x1 + x2 ) + (f + g), (2.5)
2 2a12
1 1
f2 (x1 , . . . , xq ) = (x1 − x2 ) + (f − g) (2.6)
2 2a12

et la forme quadratique Q2 = S − a212 f g. On obtient alors Q = 2a12 f12 − 2a12 f22 + Q2 .

Pratiquons quelques exemples : si Q(x1 , x2 , x3 ) = x21 + x22 + 2x23 − 4x1 x2 + 6x2 x3 on est
dans le cas 1) et on obtient

Q = (x21 − 4x1 x2 + 4x22 ) − 3x22 + 2x23 + 6x2 x3 = (x1 − 2x2 )2 + Q1

avec Q1 = −3x22 +2x23 +6x2 x3 . On réapplique la procédure 1) : Q1 = −3(x2 −2x3 )2 +14x23 .


et on a la décomposition de Q en une combinaison linéaire de carrés de formes linéaires
indépendantes
Q = (x1 − 2x2 )2 − 3(x2 − 2x3 )2 + 14x23 .
Autre exemple, où il faut utiliser la procédure 2) : Q(x1 , x2 , x3 ) = 2x1 x2 + 2x2 x3 + 2x1 x3 .
Ici f = g = x3 et l'application des formules (2.5) et (2.6) donne, cette fois ci en une seule
étape
1 1
Q = (x1 + x2 + 2x3 )2 − (x1 − x2 )2 − 2x23 .
2 2
Dans ces deux exemples le rang est 3.

Exercice 2.1 Diagonaliser les formes quadratiques suivantes dans R4 et R3 par l'algorithme
de Gauss : Q = 2(x1 x2 + x2 x3 + x3 x4 ); Q = x21 + x22 + x23 − 2(x1 x2 + x2 x3 + x3 x1 ).

Exercice 2.2 Diagonaliser par l'algorithme de Gauss la forme quadratique dans Rn avec
n ≥ 2, dont la matrice représentative dans la base canonique est :
 
0 0 ... 0 1 1
 0 0 ... 1 1 0 
 
 0 0 ... 1 0 0 
 
 ... ... ... ... ... ... 
 
 0 1 ... 0 0 0 
 
 1 1 ... 0 0 0 
1 0 ... 0 0 0
III. LA SIGNATURE D'UNE FORME QUADRATIQUE RÉELLE 135
III La signature d'une forme quadratique réelle
Le corollaire 2.3 montre qu' une forme quadratique est combinaison linéaire d'un
nombre xe p de carrés de formes linéaires indépendantes, bien qu'il y ait de nombreuses
manières diérentes de le faire. Dans cette section, nous allons supposer que K = R et
montrer une invariance plus forte appelée loi d'inertie de Sylvester.

Théorème 3.1. Soit Q une forme quadratique de rang p sur l'espace réel E de dimension
nie q. Si e est une base de diagonalisation de Q soit e [B]e = diag(a1 , . . . , aq ). Soit r le
nombre de j tels que aj > 0, soit s = p − r le nombre de j tels que aj < 0 et t = q − p le
nombre de j tels que aj = 0. Alors le triplet d'entiers (r, s, t), appelé signature de Q, est
indépendant de la base de diagonalisation e choisie.

Démonstration : On a déjà vu que r+s = p ne dépend pas de e puisque c'est le rang de Q.


Il sut donc de montrer que r est constant. Soit e0 une autre base de diagonalisation avec
e0 [B]e0 = diag(a1 , . . . , aq ) correspondant au triplet (r , s , t) avec, sans perte de généralité
0 0 0 0

r0 ≥ r, avec aj > 0 pour j = 1, . . . , r, avec a0j > 0 pour j = 1, . . . , r0 et avec ap+1 = . . . =


aq = a0p+1 = . . . = a0q = 0.
Montrons qu'alors e01 , . . . , e0r0 , er+1 , . . . , eq sont linéairement indépendants. En eet, s'ils
ne le sont pas on peut trouver des nombres λ1 , . . . , λr0 , µr+1 , . . . , µq tels que

λ1 e01 + · · · + λr0 e0r0 = −µr+1 er+1 − · · · − µq eq . (3.7)


Notons par x la valeur commune des deux membres de l'égalité précédente et calculons
de deux manières le nombre Q(x) = B(x, x) : à cause de l'orthogonalité des ej entre eux
et des e0j entre eux on obtient

Q(x) = a01 (λ1 )2 + + · · · + a0r0 (λr0 )2 = ar+1 (µr+1 )2 + · · · + ap (µp )2 .


Le membre de gauche est ≥ 0, le membre de droite est ≤ 0, ils sont donc tous deux
nuls. Donc λ1 = . . . = λr0 = µr+1 = . . . = µp = 0. Donc (3.7) se transforme en 0 =
−µp+1 ep+1 − · · · − µq eq . Comme les (ep+1 , . . . , eq ) sont indépendants, les derniers µ sont
nuls et donc les e01 , . . . , e0r0 , er+1 , . . . , eq sont indépendants. En conséquence r0 + (q − r) ≤ q
et donc r0 ≤ r. Comme nous avions choisi r0 ≥ r on a bien r = r0 et le théorème de
Sylvester est montré.

Proposition 3.2. Soit Q quadratique sur un espace réel E, de signature (r, s, t). Alors
il existe p = r + s formes linéaires indépendantes sur E telles que

Q(x) = (f1 (x))2 + · · · + (fr (x))2 − (fr+1 (x))2 · · · − (fp (x))2 .

Démonstration : On sait déjà qu'il existe une base e telle que


e [B]e = diag(a1 , . . . , ap , 0, . . . , 0)
avec a1 , . . . , ar > 0 et ar+1 , . . . , ap < 0. Si [x]e = (x1 , . . . , xq )T , considérons les formes
linéaires gj dénies par gj (x) = xj : elles sont indépendantes puisque e est une base. Il
136 CHAPITRE 4. FORMES QUADRATIQUES

sut maintenant de dénir fj (x) = |aj |1/2 gj (x) pour j = 1, . . . , p. Les fj ont la propriété
annoncée.

Remarques. Pour comprendre ce chapitre, assez abstrait, il est tout à fait essentiel de
comparer les résultats de cette section avec ce qu'on sait déjà des formes quadratiques sur
un espace euclidien étudiées au chapitre 2 section 9. On y a vu que si Q est quadratique
sur l'espace euclidien E alors il est associé à Q un endomorphisme symétrique a tel que
Q(x) = ha(x), xi. Si on applique à a le théorème spectral, on révèle une bon (au sens
euclidien) de diagonalisation de a. Soit [a]ee = diag(µ1 , . . . , µq )). Si [x]e = (x1 , . . . , xq )T on
a
Q(x) = µ1 x21 + · · · + µq x2q ,
c'est à dire que e est aussi une base de diagonalisation au sens des formes quadratiques.
Mais il y a beaucoup plus de bases de diagonalisation de la forme quadratique Q que
de bases de diagonalisation pour l'endomorphisme a associé par la structure ambiante
d'espace euclidien. Par exemple si E = R3 euclidien canonique et Q(x) = 2x1 x2 + 2x2 x3 +
2x1 x3 , alors l'endomorphisme associé a a pour matrice A dans la base canonique e
 
0 1 1
A= 1 0 1 
1 1 0

de polynôme caractéristique (X + 1)2 (X − 2). La signature est bien (r, s, t) = (1, 2, 0). Ce
n'est pas une surprise, car on avait vu en exemple à la section 2 de l'algorithme de Gauss
que
1 1
2x1 x2 + 2x2 x3 + 2x1 x3 = (x1 + x2 + 2x3 )2 − (x1 − x2 )2 − 2x23 .
2 2
Parfois même l'étude de la forme quadratique donne des renseignements sur les valeurs
propres : l'algorithme de Gauss est de nature élémentaire alors que la recherche de va-
leurs propres ne l'est pas, puisqu'il faut chercher les racines d'un polynôme. Reprenons
l'exemple Q(x) = x21 + x22 + 2x23 − 4x1 x2 + 6x2 x3 toujours dans R3 euclidien canonique.
L'endomorphisme associé a a pour matrice A dans la base canonique e
 
1 −2 0
A =  −2 1 3 .
0 3 2

Ici les racines du polynôme caractéristique sont compliquées. Pourtant, comme on a vu


que Q = (x1 − 2x2 )2 − 3(x2 − 2x3 )2 + 14x23 . on voit que la signature est (2, 1, 0) et donc que
il y a 2 valeurs propres positives et une négative. En particulier, l'algorithme de Gauss
permet de dire si un endomorphisme symétrique est déni positif, ou positif.

Exercice 3.1 Quelle est la signature de la forme quadratique de l'exercice 2.2 ?


Exercice 3.2 Soit a un nombre réel. Discuter suivant a la signature de la forme quadratique
(x1 + · · · + xn )(y1 + · · · + yn ) − a(x1 y1 + · · · + xn yn )
III. LA SIGNATURE D'UNE FORME QUADRATIQUE RÉELLE 137
en lui associant un endomorphisme symétrique de l'espace euclidien canonique Rn . Si e =
(e1 , . . . , en ) est la bon canonique de Rn , il est intéressant de diagonaliser cet endomorphisme
dans une base orthonormale dont un des vecteurs est proportionnel à f = e1 + · · · + en .

Exercice 3.3 Soit F le sous espace vectoriel de Rn formé par les x = (x1 , . . . , xn ) tels que
x1 + · · · + xn = 0.
1. Soit a1 , . . . , an ∈ R. Soit la forme quadratique sur Rn
n
1X
Q(x) = − |ai − aj |xi xj .
2 i,j=1

Montrer que la restriction de Q à F est positive, c'est à dire que Q(x) ≥ 0 pour tout
x de E. Méthode : supposer sans perte de généralité que a1 = 0 ≤ a2 ≤ . . . ≤ an ,
introduire p2k = ak − ak−1 et montrer
n
X n
X
Q(x) = p2k ( xj )2 .
k=2 j=k

A quelle condition sur les aj la restriction de Q à F est elle dénie positive ?


2. Soit E un espace euclidien quelconque et soit v1 , . . . , vn ∈ E. Montrer que la restriction
à F de la forme quadratique sur Rn
n
1X
Q(x) = − kvi − vj k2 xi xj .
2 i,j=1

est positive. Méthode : montrer Q(x) = k nj=1 xj vj k2 . Montrer que la restriction de Q


P
à F est dénie positive si et seulement si les vecteurs v1 , . . . , vn engendrent un espace
ane de dimension n − 1 (voir chapitre 5).
3. Soit A = (aij )1≤i,j≤n une matrice symétrique Pn réelle telle que aii = 0 pour tout i.
On suppose que la restriction de Q(x) = i,j=1 aij xi xj à F est positive. On veut
montrer la réciproque du 2, c'est à dire qu'il existe un espace euclidien E et des vecteurs
v1 , . . . , vn ∈ E tels que aij = − 12 kvi − vj k2 . En fait on va le montrer avec E = Rn
euclidien canonique. Pour cela, on introduit une base e = (e1 , . . . , en−1 ) de F qui
diagonalise Q c'est à dire que si x = f1 (x)e1 + · · · + fn−1 (x)en−1 où les fj sont des
formes linéaires sur F, alors

Q(x) = λ1 (f1 (x))2 + · · · + λn−1 (fn−1 (x))2 ,

avec par hypothèse λi ≥ 0. On considère l'endomorphisme ϕ de F déni par


1/2 1/2
ϕ(x) = λ1 f1 (x)e1 + · · · + λn−1 fn−1 (x)en−1 ,

qui satisfait Q(x) = kϕ(x)k2 . Prendre alors v1 , . . . , vn−1 dans F tels que ϕ(x) =
x1 v1 + . . . + xn−1 vn−1 et montrer que v1 , . . . , vn−1 complété par vn = 0 répond à la
question.
138 CHAPITRE 4. FORMES QUADRATIQUES

4. Avec les notations de la question 1 et vi = (0, p2 , . . . , pi , 0, . . . , 0) ∈ Rn montrer que


|ai − aj | = kvi − vj k2 .

Exercice 3.3 Soit F le sous espace vectoriel de Rn formé par les x = (x1 , . . . , xn ) tels que
x1 + · · · + xn = 0. L'espace F est muni du produit scalaire hx, yi = x1 y1 + · · · + xn yn . Soit
(a1 , . . . , an ) ∈ Rn et soit la forme quadratique sur F

Q(x) = a1 x2 + · · · + an x2n .

Montrer que l'endomorphisme de F associé à Q est


1
(x1 , . . . , xn ) 7→ ((n−1)a1 x1 −a2 x2 −· · ·−an xn , . . . , (n−1)an xn −a1 x1 −a2 x2 −· · ·−an−1 xn−1 ).
n

IV Formes quadratiques unitaires et racines *


Comme le lecteur risque de s'ennuyer dans un chapitre un peu technique, complétons
celui ci par une étude des formes quadratiques Psur les réels à coecients entiers pour
la partie des termes rectangles et de la forme ni=1 x2i pour la partie des termes carrés.
La section suivante sur les graphes de Dynkin et leurs formes quadratiques associées fera
rencontrer pour la première fois une des grandes divisions des objets mathématiques,
la classication A, D, E qui se rencontre dans des parties des mathématiques aussi dié-
rentes que la théorie des catastrophes, la classication des 5 polyèdres réguliers de l'espace
euclidien de dimension 3, les algèbres de Lie ou les fronts d'onde. 2
Adoptons le vocabulaire suivant : une forme quadratique unitaire est une forme qua-
dratique q : Zn → Z
X n X
x 7→ x2i + qij xi xj
i=1 i<j

avec qij ∈ Z. Son extension canonique à R est notée q. Nous noterons


n

n
X X
(x, y) 7→ q(x|y) = q(x + y) − q(x) − q(y) = 2 xi yi + qij xi yj (4.8)
i=1 i6=j

ainsi que q(x|y) les formes bilinéaires correspondantes. Attention donc : q(x|x) = 2q(x).
A une forme quadratique unitaire on associe un bigraphe dont les sommets sont les
entiers {1, 2, . . . , n} et tel que entre le sommet i et le sommet j 6= i il y ait |qij | arêtes
(non orientées). Ces arêtes sont pleines si qij < 0 et en pointillé si qij > 0. On laisse le
lecteur par exemple dessiner les bigraphes des formes unitaires suivantes
5
X X5
q1 = x2i − x1 ( xi )
i=1 i=2

2 Voir V.I. Arnold Catastrophe theory page 103, Springer 1992.


IV. FORMES QUADRATIQUES UNITAIRES ET RACINES * 139
7
X X7
q2 = x2i − x1 ( xi ) + x2 x3 + x4 x5 + x6 x7
i=1 i=2
X8 X8
q3 = x2i − x1 ( xi ) + (x2 x3 + x3 x4 + x4 x2 ) + (x5 x6 + x6 x7 + x7 x5 )
i=1 i=2
9 9
X X 1 X
q4 = x2i − x1 ( xi ) + x7 x8 + xi xj
i=1 i=2
2 i6=j,i,j=2,...,6
9 9
X X 1 X X
q5 = x2i − x1 ( xi ) + xi xj + xi xj . (4.9)
i=1 i=2
2 i6=j,i,j=2,...,5 6≤i<j≤9

On remarque qu'il n'y a pas d'arêtes multiples sur ces exemples. En revanche, si s est un
entier > 0 alors le bigraphe correspondant à

q (s) (x1 , x2 ) = x21 + x22 − sx1 x2 (4.10)

a s arêtes pleines entre les sommets 1 et 2.


Expliquons ensuite ce que sont les composantes connexes d'un bigraphe. Ignorons le
fait que certaines arêtes soient pleines et d'autres pointillées. Un chemin de longueur m
du sommet i au sommet j d'un bigraphe est la donnée d'une suite de sommets i0 =
i, i1 , . . . , im = j telle que ik−1 , ik soit une arête pour tout k = 1, . . . , m. Ceci a du sens
même pour m = 0. Ceci introduit une relation d'équivalence ∼ sur les sommets, en
convenant i ∼ j si il existe un chemin allant de i à j. Les composantes connexes du
bigraphe sont précisément les classes d'équivalence de cette relation. Trivialement, chaque
composante connexe est naturellement muniPd'une structure de bigraphe. Par exemple le
bigraphe associé à la forme unitaire q(x) = 5i=1 x2i − 2x1 x2 + x3 x4 − 3x4 x5 − x3 x5 a deux
composantes connexes. On dit qu'un bigraphe est connexe s'il n'a qu'une composante
connexe. Un sous bigraphe B 0 d'un bigraphe B est le bigraphe obtenu en prenant un
sous ensemble S des sommets et en gardant toutes les arêtes qui reliaient entre eux deux
sommets de S. On dit aussi que le bigraphe B contient le bigraphe B 0 . Si le bigraphe n'a
que des arêtes pleines, on parle plutôt de graphe et de sous graphe pour alléger.
Ensuite, une racine de la forme quadratique unitaire q est un élément x de Zn tel que
q(x) = 1. Il est clair que si e = (e1 , . . . , en ) est la base canonique de Rn alors chaque ei
est une racine. Par exemple q (1) déni par (4.10) a six racines qui sont (±1, 0), (0, ±1) et
±(1, 1), alors que q (2) en a une innité. L'étude des racines de x21 + x22 + x33 − x1 x2 − x1 x3 se
fait par l'algorithme de Gauss et conduit à la discussion de l'équation 3a2 + b2 + 8c2 = 12
où les entiers a, b, c satisfont

a = 2x1 − x2 − x3 , b = 3x2 − x3 , c = x3 .

On voit alors qu'ici il y a 8 racines : les ±ei avec i = 1, 2, 3 et ±(1, 1, 1).


Remarquons maintenant que si r = (r1 , . . . , rm ) est une suite de m racines de q , on crée
une nouvelle forme quadratique unitaire qr , sur Zm cette fois, dénie par qr (y1 , . . . , ym ) =
140 CHAPITRE 4. FORMES QUADRATIQUES

q(y1 r1 + · · · ym rm ). En eet
m
X X
1 m
q(y1 r + · · · ym r ) = q(yi ri ) + q(yi ri |yj rj )
i=1 i<j
Xm X
= yi2 + yi yj q(ri |rj )
i=1 i<j

et on utilise le fait que q(ri |rj ) est un entier d'après (4.8).

V Graphes et formes quadratiques de Dynkin *


Une forme quadratique unitaire q est dite positive si q(x) > 0 pour tout x ∈ Zn \ {0}.
C'est équivalent à dire que q est dénie positive sur Rn . C'est trivial dans un sens. Dans
l'autre, si q est positive, on en déduit aisément que q(x) > 0 pour tout x ∈ Qn \ {0}
(ici Q est le corps des rationnels). Par densité on en déduit que q est positive. Si q
n'était pas dénie positive, alors le sous espace de Rn égal à {x ∈ Rn ; q(x) = 0} est
déni par des équations à coecients entiers (en tant que noyau de la forme bilinéaire
(x, y) 7→ q(x|y) ) Ce noyau contient donc des points à coordonnées rationnelles diérents
de 0 : contradiction. On déduit de cela que si q est positive alors elle n'a qu'un nombre
ni de racines.
Nous dénissons le graphe de Dynkin Gk,n pour k = 1, 2, 3 et n ≥ 2k comme le graphe
de sommets {1, . . . , n} et dont les arêtes sont :

{1, k + 1}, {2, 3}, {3, 4}, {4, 5}, . . . {n − 1, n},

avec la restriction n = 6, 7, 8 pour k = 3. Il est traditionnel d'appeler les graphes G1,n


plutôt An , les G2,n plutôt Dn et les G3,n plutôt En . E6 , E7 et E8 sont dits exceptionnels.
Par conséquent

G1,n = An •1 •2 •3 •4 n−1
• •n

G2,n = Dn •1

•2 •3 •4 n−1
• •n

G3,6 = E6 •1

•2 •3 •4 •5 •6
V. GRAPHES ET FORMES QUADRATIQUES DE DYNKIN * 141

G3,7 = E7 •1

•2 •3 •4 •5 •6 •7

G3,8 = E8 •1

•2 •3 •4 •5 •6 •7 •8

Proposition 5.1. Les graphes de Dynkin sont des bigraphes de formes quadratiques
unitaires positives.

Démonstration. Pour An il faut montrer que la forme quadratique


n
X n
X
qAn (x) = x2i − xi−1 xi
i=1 i=2

est dénie positive, ou encore que la matrice symétrique MAn d'ordre n formée de 2 sur
la diagonale, de −1 sur les deux diagonales voisines et de 0 ailleurs est dénie positive.
Le polynôme caractéristique Pn de MAn satisfait à la relation de récurrence

Pn (x) − (2 − x)Pn−1 (x) + Pn−2 (x) = 0 (5.11)

comme on le voit en développant le déterminant par rapport à la première ligne. De plus


si on convient P0 (x) = 1 et P1 (x) = 2 − x, en posant x = 2 − 2 cos θ on découvre que
sin(n + 1)θ
Pn (x) = .
sin θ
Cela montre que les n racines de Pn sont 2 − 2 cos n+1jπ
avec j = 1, . . . , n. Donc elles sont
dans ]0, 4[ et donc la dénie positivité de la matrice MAn est montrée.
Pour les autres graphes de Dynkin Dn , E6 , E7 , E8 nous allons exploiter le calcul pré-
cédent en numérotant les sommets de la manière qui nous a servi à dénir les graphes de
Dynkin. Notons Mk,n la matrice de la forme quadratique correspondante. Par exemple
 
2 0 0 −1 0 0 0 0
 0
 2 −1 0 0 0 0 0 
 0 −1 2 −1 0 0 0 0 
 
 −1 0 −1 2 −1 0 0 0 
M3,8 = ME8 =  
 0
 0 0 −1 2 −1 0 0 

 0
 0 0 0 −1 2 −1 0 
 0 0 0 0 0 −1 2 −1 
0 0 0 0 0 0 −1 2
142 CHAPITRE 4. FORMES QUADRATIQUES

En développant par rapport à la première colonne on voit que

det(Mk,n − xIn ) = (2 − x) det(MAn−1 − xIn−1 ) − det(MAn−1−k − xIn−1−k ) det(MAk−1 − xIk−1 )


= P1 (x)Pn−1 (x) − Pn−1−k (x)Pk−1 (x)
1
= (sin 2θ sin nθ − sin(n − k)θ sin kθ),
sin2 θ
avec 2 − x = 2 cos θ comme d'habitude. Pour MDn = M2,n on obtient

2 cos θ 1
det(M2,n − xIn ) = (sin nθ − sin(n − 2)θ) = (sin(n + 1)θ − sin(n − 3)θ)
sin θ sin θ
ce qui permet facilement de calculer les racines de det(M2,n − xIn ), de voir qu'elles sont
dans ]0, 4[ et de montrer la dénie positivité pour MDn .
Pour k = 3 et n = 6, 7, 8 il n'est pas facile de vérier que l'équation

sin 2θ sin nθ − sin(n − 3)θ sin 3θ = 0

a n racines dans ]0, π[3 . Aussi prenons nous une méthode voisine pour montrer que MEn
est dénie positive. Du calcul précédent, en y faisant θ = 0 on tire que

det Mk,n = 2n − k(n − k) = (2 − k)n + k 2 .

On remarque d'ailleurs que ce nombre est positif si et seulement si (n, k) correspond aux
graphes An , Dn , E6 , E7 , E8 (en tenant compte du fait que (k, n) et (n − k, n) donnent le
même graphe).
De plus la matrice extraite de Mk,n en supprimant les ligne et colonne 1 est MAn−1 ,
qui est dénie positive. Donc Mk,n l'est aussi si et seulement si det Mk,n > 0. Cela est une
conséquence immediate de la caractérisation de la dénie positivité par les déterminants
principaux (Chap 2, Th. 9.4 (3)).

On dit que b = (b1 , . . . , bn ) est une base de Zn si c'est une base de Rn formée d'éléments
de Zn telle que de plus si P = [b1 , . . . , bn ] alors det P = ±1. Ceci entraîne que P −1 est aussi
à coecients entiers. Nous sommes maintenant en position de montrer le remarquable
résultat suivant, qui montre comment sont faites toutes les formes unitaires positives :

Théorème 5.2. Si la forme quadratique unitaire q sur Zn est positive, alors il existe
une base b = (b1 , . . . , bn ) de Zn formée de racines de q telle que les composantes connexes
du bigraphe de qb soient des graphes de Dynkin.

Démonstration. La base canonique e est une base de racines. On remarque d'abord que
si b est une base de racines

0 < q(bi ± bj ) = q(bi ) + q(bj ) ± q(bi |bj ) = 2 ± qij .


3 Par exemple, on peut montrer que les huit racines pour det(M
3,8 −xI8 ) sont données par 2−x = 2 cos θ
où 30θ/π parcourt les 8 entiers k premiers avec 30 avec 0 ≤ k ≤ 30 à savoir {1, 7, 11, 13, 17, 19, 23, 29}.
V. GRAPHES ET FORMES QUADRATIQUES DE DYNKIN * 143
Donc qij = −1, 0, 1 et le bigraphe de qb n'a pas d'arêtes multiples quand b est une base de
racines. A unePtelle base de racines, associons alors l'ensemble E(b) formé des racines de
q de la forme i=1 xi bi où les xi sont des entiers entiers ≥ 0. Puisque q est positive, il n'y
a qu'un nombre ni de racines et le le nombre π(b) d'éléments de E(b) est ni. De plus il
existe donc une base de racines b qui maximise π(b). Je dis que ce b maximal n'a pas de
racines en pointillé dans son bigraphe. En eet, si (qb )ij > 0 c'est dire que 1 = q(bi |bj ) ;
donc en posant b0j = bi − bj on voit que b0j est une racine (car q(b0j ) = 2 − q(bi |bj ) = 1).
Considérons alors la base de racines b0 obtenue en remplacant dans b la racine bj par
la racine b0j . Alors E(b0 ) ⊃ E(b). De plus b0j ∈ E(b0 ) \ E(b). Donc π(b0 ) > π(b), ce qui
contredit le fait que b est maximal.
On est donc maintenant assuré qu'il existe une base de racines telle que son bigraphe
n'a que des arêtes à la fois simples et pleines.
On montre alors le lemme suivant :

Lemme 5.3. Si un bigraphe connexe a arêtes simples a un graphe de Dynkin comme sous
graphe et n'est pas lui même un graphe de Dynkin, alors la forme quadratique unitaire
qui lui est associée n'est pas positive.

Démonstration du Lemme 5.3. Considérons les bigraphes suivants G̃k,n à arêtes pleines
et simples, parfois appelés graphes-étendus de Dynkin. Les entiers à coté de chaque sommet
ne sont pas le numéro du sommet mais les valeurs d'une certaine fonction δ dénie sur les
sommets de G̃k,n . On remarque que G̃k,n a n + 1 sommets. On n'a pas représenté le graphe
G̃1,n : il a n + 1 sommets, disons 0, 1, . . . , n et pour arêtes les {i − 1, i} avec i = 1, . . . , n
plus l'arête {0, n} : c'est avec un polygône à n + 1 cotés qu'on pourrait commodément
dessiner ce graphe. La fonction δ est prise égale à 1 pour chaque sommet de G̃1,n .

G̃2,n •1 •1

2
•2 •2 •2 • •1

•1

G̃3,6 •2

•1 •2 •3 •2 •1

G̃3,7 •2

•1 •2 •3 •4 •3 •2 •1
144 CHAPITRE 4. FORMES QUADRATIQUES

G̃3,8 •3

•2 •4 •6 •5 •4 •3 •2 •1

On constate avec patience que si un bigraphe satisfait à l'hypothèse du lemme, alors


il contient comme sous graphe un graphe-étendu de Dynkin. Considérons alors la forme
quadratique unitaire q associée à ce graphe-étendu de Dynkin et calculons q(δ). On trouve
dans les 5 cas que q(δ) = 0, ce qui montre que q n'est pas positive et achève la démons-
tration du lemme.

Fin de la démonstration du Théorème 5.2. Comme la forme quadratique unitaire


associée est positive, on peut alors appliquer le Lemme 5.3 et la démonstration est achevée.

Remarque. On peut voir ce Théorème 5.2 sous un autre angle. Convenons de dire que
les formes quadratiques unitaires q et q1 sont équivalentes s'il existe une base b de Zn
formée de racines de q telle que q1 = qb . Si P = [b1 , . . . , bn ] c'est dire que les matrices
représentatives Mq et Mq1 sont liées par Mq1 = P Mq P T . Le fait que P −1 soit à coecients
entiers permet de voir que c'est bien une relation d'équivalence. Le Théorème 5.2 montre
donc que toute forme quadratique unitaire positive est équivalente à une somme directe
de formes de Dynkin.
Chapitre 5
Géométrie euclidienne ane
Ce chapitre est le plus concret de tous puisqu'il traite de géométrie élémentaire, celle
du collège et du lycée, vue avec les outils déjà rassemblés. Nous commençons par dénir
l'espace ane, un outil qui connait des fortunes diverses suivant les modes. C'est en gros
un espace vectoriel dans lequel l'origine perd toute importance. Si de plus l'espace vectoriel
est de dimension 3 et est euclidien, c'est notre espace physique newtonien, dans lequel
il n'y a a priori ni coordonnées ni origine, mais dans lequel parallélisme, orthogonalité,
distance entre deux points et angles ont du sens.

I Espaces et variétés anes, barycentre et parallélisme.


Soit K un corps quelconque. Un espace ane est la donnée d'un ensemble A dont les
éléments sont appelés points et les éléments de A × A sont appelés bipoints, d'un espace
vectoriel E sur K appelé espace vectoriel associé et d'une application de A × A dans E
−→
notée (A, B) 7→ AB qui satisfait aux axiomes suivants
−→
1. Pour tout A ∈ A l'application de A dans E dénie par B 7→ AB est bijective.
2. Pour tous A, B, C ∈ A on a la relation de Chasles
−→ −→ −−→
AC = AB + BC.

Remarques.
1. Compte tenu de ce qui a été appris, où l'éducation universitaire du lecteur a été
faite d'abord en dénissant un corps puis un espace vectoriel, si l'espace vectoriel
E est donné, une manière de fabriquer un espace ane A d'espace vectoriel associé
E est de prendre A = E en dénissant pour deux vecteurs x et y de E l'élément

→ = y − x. Cette application de E × E dans E satisfait clairement aux deux
xy
axiomes : si x est xé alors quel que soit z ∈ E il existe un et un seul y ∈ E tel
que z = y − x, qui est y = z + x. Quant à −→=−
xz →+−
xy → c'est dire la chose évidente
yz
(z − x) = (y − x) + (z − y).

145
146 CHAPITRE 5. GÉOMÉTRIE EUCLIDIENNE AFFINE

2. Inversement choisissons dans l'espace ane A un point arbitraire A : la correspon-


−→
dance B 7→ AB entre A et E permet de voir alors A comme un espace vectoriel
d'origine A.
−→ −→
3. Bien entendu AA = 0 et AB = −BA comme on le déduit de la relation de Chasles.
4. Soit x ∈ E. Alors d'après l'axiome 1 pour tout point A il existe un unique B tel que
−→
AB = x. Nous notons B = τx (A) et nous l'appelons le translaté du point A par le
vecteur x.
5. La dimension de E est appelée la dimension de l'espace ane A. Elle n'est pas
nécessairement nie.
Le prochain concept important est celui de barycentre.

Proposition 1.1. Soit A un espace ane, soit A1 , . . . , An des points de A pas nécessaire-
ment distincts et soit la suite de scalaires (λ1 , . . . , λn ) dans K n telle que λ1 + · · · + λn = 1.
Alors
1. (Existence) Il existe un unique point B ∈ A appelé barycentre des A1 , . . . , An pour
les poids λ1 , . . . , λn tel que pour tout point O ∈ A on ait
−−→ −−→ −−→
OB = λ1 OA1 + · · · + λn OAn . (1.1)

2. (Propriété d'associativité) Si 1 ≤ k < n est tel que p = λ1 + · · · + λk et p0 = 1 − p


sont non nuls, soit B1 et B2 les barycentres de λ1 , . . . , λk et λk+1 , . . . , λn pour les
poids respectifs p1 λ1 , . . . , p1 λk et p10 λk+1 , . . . , p10 λn . Alors B est barycentre de (B1 , B2 )
pour les poids (p, p0 ).
−−−→
3. (Repère ane) Si E est de dimension nie q et si A0 , . . . , Aq sont tels que A0 Ai
i = 1, . . . , q est une base de E alors tout point B de A est barycentre de A0 , . . . , Aq
pour un système unique de poids.

Démonstration. Soit un point O xé. D'après l'axiome 1 il existe certainement un point


BO ∈ A satisfaisant 1.1. Il s'agit de montrer que B0 ne dépend pas de O. Si P est un
autre point alors par la relation de Chasles et le fait que λ1 + · · · + λn = 1 on a

−−→ −→ −−→
P BO = P O + OB0
−→ −−→ −→ −−→
= λ1 (P O + 0A1 ) + · · · + λn (P O + OAn )
−−→
= P BP

ce qui par l'axiome 1 entraîne B0 = BP . La seconde partie est à peu près évidente. Pour
la troisième on dénit l'unique système de scalaires (λ1 , . . . , λq ) par
−−→ −−−→ −−−→
A0 B = λ 1 A0 A 1 + . . . + λ q A 0 Aq

et on dénit enn λ0 = 1 − λ1 + · · · + λq .

Remarques :
I. ESPACES ET VARIÉTÉS AFFINES, BARYCENTRE ET PARALLÉLISME. 147
1. On note par convention le barycentre B de A1 , . . . , An pour les poids λ1 , . . . , λn par

B = λ 1 A1 + · · · + λ n An .

C'est une sténographie commode pour dire 1.1, puisque B ne dépend pas de O.
Toutefois il faut se rappeler que ni la multiplication du point A1 par le scalaire λ1
ni la somme de points n'ont de sens dans l'espace ane.
2. Quand les poids sont tous égaux on parle d'isobarycentre. L'isobarycentre de (A1 , A2 )
est donc calculé avec (λ1 , λ2 ) = (1/2, 1/2). Il est appelé le milieu du bipoint (A1 , A2 ).
−−−→
3. Si E est de dimension nie q et si A0 , . . . , Aq sont tels que A0 Ai i = 1, . . . , q est
une base de E, alors (A0 , . . . , Aq ) est appelé un repère ane. L'unique système
(λ0 , . . . , λq ) de scalaires tel que λ0 +· · ·+λq = 1 et B = λ0 A0 +· · ·+λq Aq s'appelle les
coordonnées barycentriques de B . Il faut mentionner qu'alors que pour un 0 ≤ j ≤ q
−−−→
xé, alors Aj Ai i 6= j est aussi une base de E : Par exemple pour j = q si c'était
faux il existerait une suite non nulle de scalaires (λ0 , . . . , λq−1 ) telle que
q−1 q−1 q−1 q−1
X −−−→ X −−−→ −−−→ X −−−→ X −−−→
0= λ i Aq A i = λi (Aq A0 + A0 Ai ) = −( λi )A0 Aq + λ i A0 Ai .
i=0 i=0 i=0 i=0

−−−→
Comme
Pq−1 A0 Ai i = 1, . . . , q est une base cela entraîne que 0 = λ1 = . . . = λq−1 =
−( i=0 λi ), et on tire λ0 = 0 de la dernière égalité. D'où la contradiction.

Dénition. Soit A un espace ane. Une variété ane de A est une partie V de A telle
que pour tout n et pour toute famille A1 , . . . , An de V alors tous les barycentres possibles
de A1 , . . . , An sont dans V. En particulier l'ensemble vide est une variété ane.

Proposition 1.2. Soit A un espace ane associé à un espace vectoriel E de dimension


nie q.
1. Si ∅ =
6 V ⊂ A alors V est une variété ane si et seulement si il existe un sous espace
−→
vectoriel EV de E tel que pour tout A, B ∈ V on a AB ∈ EV . Un tel EV est unique
et est appelé la direction de V et V est un espace ane associé à EV .
2. L'intersection de deux variétés anes est une variété ane.

Démonstration. 1) ⇒ . Puisque V est non vide xons A ∈ V. Je dis que


−→
EV = {AB; B ∈ V}

est un sous espace vectoriel de E. En eet si B1 et B2 sont dans V alors le barycentre


B = λ1 B1 + λ2 B2 + (1 − λ1 − λ2 )A est dans V (pour les poids λ1 , λ2 , 1 − λ1 − λ2 donc).
−→ −−→ −−→
En prenant O = A dans 1.1 c'est dire que AB = λ1 AB1 + λ2 AB2 et donc EV est un sous
espace vectoriel de E. Reste à vérier que EV ne dépend pas du point A particulier choisi.
−−→ −−→ −→ −−→
Si EV0 = {A0 B; B ∈ V} alors A0 B = AB − AA0 ∈ EV et donc EV0 ⊂ EV . Par symétrie
EV ⊂ EV0 . et on a le résultat.
148 CHAPITRE 5. GÉOMÉTRIE EUCLIDIENNE AFFINE

La réciproque de 1) et l'unicité et le 2) sont faciles.

Dénitions. La dimension d'une variété ane non vide est la dimension de sa direction.
On convient de dire que −1 est la dimension de la variété vide.
Deux variétés anes non vides V1 et V2 de l'espace ane A sont dites parallèles elles
sont disjointes et si EV1 ⊂ EV2 ou si EV2 ⊂ EV1

Proposition 1.3. Soit deux variétés anes non vides V1 et V2 de l'espace ane A telles
que
dim V1 + dim V2 ≥ dim A.
Alors elles sont parallèles si elles sont disjointes.

Démonstration. Rappelons la formule de première année


dim EV1 + dim EV2 = dim EV1 ∩ EV2 + dim(EV1 + EV2 ).

II Espace ane euclidien. Distance entre deux sous es-


paces
III Angles
IV Polyèdres réguliers et sous groupes nis de SO(3)
V Coniques et quadriques de l'espace euclidien
VI Homographie et inversion

Vous aimerez peut-être aussi