Académique Documents
Professionnel Documents
Culture Documents
Gérard Letac 1
Ceci est le cours d'algèbre linéaire enseigné à Toulouse à un bon millier d'étudiants de
1996 à 2002, à raison de 24 heures dans le semestre. Un de ses principes est de n'utiliser
des coordonnées ou une structure euclidienne qu'au moment où elles sont nécessaires et
s'imposent après analyse. La seconde année d'université est d'une richesse extraordinaire :
en maitriser les contenus vous équipe intellectuellement pour le reste de l'existence, et vous
rend pratiquement apte à passer l'agrégation. Lisez les démonstrations pour trois raisons :
Elles vous convaincront de la véracité des énoncés.
Elles contiennent souvent des idées très originales.
On est constamment amené à les imiter dans les exercices et les applications.
Ne sautez jamais une ligne, tout est essentiel. Partout où c'est possible, on mentionne
des choses élémentaires hors programme : formule de Laplace sur det(A + B), matrices de
Kac, de Hua ou d'Homann, angles d'Euler, l'exponentielle d'un endomorphisme et sa dif-
férentielle, semi groupes de matrices stochastiques, le cochonnet monstrueux de l'exercice
II 4.10, base de Schmidt du tétraèdre régulier, quaternions, simplicité de SO(3), ombres
d'un cube, algèbres de von Neumann de dimension nie, inégalité de Mar£enko Pastur,
décomposition de Cholewsky pour les arbres, graphes de Dynkin. J'espère qu'aucun exer-
cice ne laisse le lecteur indiérent. La moitié a été utilisée à l'oral du concours d'entrée à
l'Ecole Polytechnique.
G.L.
Table des matières
1 Réduction des endomorphismes 5
I Représentation matricielle d'un vecteur et d'une application linéaire . . . . 5
II Déterminant et trace d'un endomorphisme. . . . . . . . . . . . . . . . . . . 9
III Espaces et valeurs propres d'un endomorphisme. . . . . . . . . . . . . . . . 14
IV Cayley Hamilton et polynôme caractéristique . . . . . . . . . . . . . . . . . 17
V La diagonalisation et le polynôme minimal . . . . . . . . . . . . . . . . . . 20
VI Diagonalisation simultanée * . . . . . . . . . . . . . . . . . . . . . . . . . . 29
VII Triangularisation et nilpotence . . . . . . . . . . . . . . . . . . . . . . . . . 31
VIII Espaces caractéristiques et décomposition de Dunford* . . . . . . . . . . . 33
IX Exponentielle d'un endomorphisme* . . . . . . . . . . . . . . . . . . . . . . 38
2 Espaces euclidiens 47
I Particularités des espaces réels. . . . . . . . . . . . . . . . . . . . . . . . . 47
II Produit scalaire, polarisation, parallélogramme . . . . . . . . . . . . . . . . 49
III Inégalités de Schwarz et du triangle . . . . . . . . . . . . . . . . . . . . . . 52
IV Pythagore, Schmidt, Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
V Dual et adjoints . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
VI Le groupe orthogonal, les matrices orthogonales . . . . . . . . . . . . . . . 66
VII Le groupe orthogonal du plan ; dimensions supérieures. . . . . . . . . . . . 72
VIII Produit vectoriel en dimension 3 et quaternions . . . . . . . . . . . . . . . 76
IX Endomorphismes symétriques, positifs et dénis positifs . . . . . . . . . . . 83
X Racine carrée, décomposition polaire et valeurs singulières . . . . . . . . . . 98
XI Cholesky et les arbres à racines.* . . . . . . . . . . . . . . . . . . . . . . . 102
3
4 TABLE DES MATIÈRES
5
6 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
arbitraire à coecients dans K à p lignes et q colonnes (on dira une matrice (p, q) ou p×q ,
et une matrice carrée d'ordre p pour une matrice (p, p)), on peut toujours l'interpréter
comme un [a]fe en prenant des espaces E et F sur K arbitraires et munis de bases arbi-
traires e et f. Cette remarque permet de montrer que dim L(E, F ) = dim E × dim F. Le
choix le plus simple pour cela serait E = K q et F = K p avec les bases e et f canoniques.
Dans le cas particulier où E = F on note L(E, E) = L(E). Les éléments de L(E)
s'appellent des endomorphismes. Si a est dans E et si on prend les mêmes bases e = f , la
matrice [a]ee est dit représentative de a dans la base e. Le plus célèbre des endomorphismes
de E est l'identité, notée idE et dénie par idE (x) = x pour tout x de E. Si e est une
base quelconque de E on a [idE ]ee = Iq où Iq est la matrice identité d'ordre q. Attention,
si on représente idE dans des bases e et e0 de E diérentes, comme on est amené à le
0
faire en cas de changement de base, alors il est toujours faux que [idE ]ee = Iq . Dans ce
cas, si e est appelée l'ancienne base et si e0 est appelée la nouvelle base, la matrice carrée
P = [idE ]ee0 est appelée matrice de changement de base. Elle est très facile à écrire : ses
colonnes sont les composantes de la nouvelle base e0 par rapport à l'ancienne base e. On
dit parfois que deux matrices carrées A et B d'ordre q sur K sont semblables s'il existe
une matrice carrée inversible P d'ordre q sur K telle que B = P −1 AP.
Résumons dans le théorème suivant tout ce qu'il faut savoir sur les notions ci dessus,
et qui a été démontré en 1 ère année :
Théorème 1.1. Soient (E, e), (F, f ) et (G, g) des espaces de dimension nie sur le corps
K équipés de bases.
1. Si a ∈ L(E, F ) et x ∈ E alors la matrice représentative de l'image de x par a dans
la base d'arrivée f est
[a(x)]f = [a]fe [x]e . (1.1)
2. Si a ∈ L(E, F ) et si b ∈ L(F, G) alors la matrice représentative de l'application
linéaire composée b ◦ a de E dans G avec pour base de départ e et base d'arrivée g
est
[b ◦ a]ge = [b]gf [a]fe . (1.2)
3. Si e0 et f 0 sont d'autres bases de E et F, soit P = [idE ]ee0 et Q = [idF ]ff 0 . Alors pour
tout x ∈ E on a
0 0
[x]e = [id]ee [idE ]e = P −1 [x]e . (1.3)
Ensuite, si a ∈ L(E, F ) on a
0 0
[a]fe0 = [idF ]ff [a]fe [idE ]ee0 = Q−1 [a]fe P. (1.4)
A = (Aij )1≤i≤n,1≤j≤m
I. REPRÉSENTATION MATRICIELLE D'UN VECTEUR ET D'UNE APPLICATION LINÉAIRE 7
où Aij est elle même une matrice sur K à pi lignes et qj colonnes. Ceci se prête au calcul
numérique des produits de matrices : si r = r1 + · · · + rl P
et B = (Bjk ) où la matrice Bjk a
qj lignes et rk colonnes, alors C = AB = (Cik ) où Cik = qj=1 Aij Bjk . Un résultat qui sert
souvent donne la condition nécessaire et susante pour que une matrice carrée commute
avec une matrice diagonale :
A la n de cette première section, expliquons que nous traiterons dans ce cours les
coordonnées des vecteurs non avec répugnance mais avec précaution. Dans la vie pratique,
un vecteur est aussi souvent un objet géométrique (une force, une vitesse, où les coor-
données sont articielles ou inutiles) qu'une suite de nombres (le triplet (poids, hauteur,
âge) d'un individu). Beaucoup d'objets mathématiques familiers (polynômes, matrices)
sont souvent considérés comme des membres d'un espace vectoriel, comme des vecteurs,
donc. Même si ces derniers sont décrits par des nombres (les coecients du polynôme ou
de la matrice) et donc conduisant à une base plus naturelle que les autres (de l'espace des
polynômes de degré ≤ n, des matrices à p lignes et q colonnes) souvent cette base est mal
adaptée au problème à traiter (exercice 1.1) voire assez inutilisable et conduisant à des
calculs maladroits. Par exemple les matrices carrées symétriques d'ordre q ont une base
naturelle à q(q + 1)/2 éléments dont l'utilisation est très malaisée. Il est pathétique de
voir des statisticiens lorsqu'ils ont à manipuler une transformation linéaire de cet espace
des matrices symétriques (par exemple X 7→ AXAT où A est une matrice carrée d'ordre
q ) ne pouvoir se la représenter par sa simple dénition, de vouloir en expliciter la matrice
représentative et pour nir de vouloir absolument écrire la matrice carrée symétrique X
comme une matrice colonne de hauteur q(q + 1)/2. Il est vrai qu'ils ont une excuse in-
formatique : bien des logiciels recoivent la description d'une matrice comme une suite de
nombres où les lignes de la matrice sont séparées par des points virgules dans la suite .
Bien sûr les coordonnées sont utiles, mais elles le sont bien plus si une étude géométrique
préliminaire est faite pour déterminer s'il existe une base plus naturelle que les autres
dans laquelle les calculs seront plus simples.
Travailler géométriquement oblige à clarier les concepts. C'est un gros eort : on se
représente mentalement facilement un vecteur membre de l'espace vectoriel réel E , mais
l'étape suivante : se représenter une forme linéaire x 7→ f (x) c'est à dire une application
linéaire de E à valeurs dans R est important et plus dicile (L'ensemble E ∗ des formes
8 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
Exercice 1.1. Soit n un entier > 0. Pour k entier tel que 0 ≤ k ≤ n on dénit les fonctions
sur R ek et fk par
Soit E l'espace vectoriel sur K = R formé par les fonctions sur R de la forme f = nk=0 ck ek
P
avec ck ∈ R. Montrer que P si f (x) = 0 pour tout x ∈ R alors ck = 0 pour tout k (Méthode :
Montrer qu'alors P (X) = nk=0 ck X k est un polynôme de degré ≤ n qui a plus de n racines).
En déduire que e = (e0 , . . . , en ) est une base de E. Quelle est la dimension de E? Montrer
que fk ∈ E. Montrer que f = (f0 , . . . , fn ) est une base de E (Méthode : montrer que
c'est une famille génératrice en utilisant la formule du binôme dans l'expression ek (x) =
(cosh x + sinh x)k (cosh x − sinh x)n−k ). Soit a le procédé qui à tout f de E fait correspondre
sa fonction dérivée : a(f ) = f 0 . Montrer que a est un endomorphisme de E et calculer
directement les matrices [a]ee et [a]ff (on ne demande pas la matrice de changement de base).
Voir aussi l'exercice 3.3.
1 ab
1 0 a 0 a b
c bc = .
a
1 0 d− a
0 1 c d
Plus généralement, si A et D sont des matrices carrées sur K d'ordre p et q telles que A soit
inversible, trouver les matrices B1 , C1 , D1 telles que
Ip 0 A 0 Ip B1 A B
= .
C1 Iq 0 D1 0 Iq C D
Ip 0 A B
Quel est l'inverse de la matrice ? Si D1 est inversible, quel est l'inverse de ?
C1 Iq C D
Exercice 1.3. Soit K un corps xé et (E, e), (F, f ) des espaces sur K de dimensions q et p
équipés de bases. Soit a ∈ L(E, K) une forme linéaire sur E et b ∈ F et ϕ ∈ L(E, F ) déni
II. DÉTERMINANT ET TRACE D'UN ENDOMORPHISME. 9
par ϕ(x) = ba(x). Quel est le rang de ϕ? Calculer M = [ϕ]fe en fonction de [a]1e = [a1 , . . . , aq ]
et [b]f = [b1 , . . . , bp ]T . Si e0 = (e01 , . . . , e0q ) et f 0 = (f10 , . . . , fp0 ) sont des bases telles que
0
a(e0j ) = 0 pour j = 2, . . . , q et b = f10 , calculer M1 = [ϕ]fe0 . Voir aussi les exercices 3.5 , 4.5
et 5.4.
Exercice 1.4. Soit a ∈ L(E) où E est de dimension nie q sur un corps K. Soit F ⊂ E un
sous espace vectoriel de dimension k tel que que a(F ) ⊂ F (on dit aussi que F est stable par
a). Montrer l'existence d'une base e de E tel que [a]ee s'écrive par blocs ainsi :
e A B
[a]e =
0 C
Proposition 2.1. Si A et B sont des matrices (p, q) et (q, p) sur K alors trace (AB) =
trace (BA). Si A, B, C sont des matrices (p, q), (r, p), (q, r) alors trace (ABC) = trace (CAB).
et donc trace (AB) = qi=1 pj=1 aij bji . Comme i et j sont des variables muettes, si on les
P P
échange on trouve que trace (AB) = trace (BA). En remplacant dans cette égalité (A, B)
par (AB, C) on a le second résultat.
Remarque : Si on a un produit de plus de deux matrices carrées, il est faux qu'on puisse
permuter les facteurs sans changer la trace. Par exemple, si
1 0 1 0 1 1
A= , B= , C= ,
1 1 0 2 0 1
Proposition 2.2. Soit E un espace vectoriel de dimension nie sur K et soit e et e0 des
bases de E . Soit a ∈ L(E). Alors
0
1. det[a]ee = det[a]ee0 ,
0
2. trace [a]ee = trace [a]ee0 .
10 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
A11 A12
Démonstration : On le montre d'abord pour n = 2. On a alors A = 0 A .
22
D'autre part si A = (aij ), si Sp est le groupe des permutations σ de p objets et si (σ) est
la signature de σ , on a det A = σ∈Sp (σ)f (σ) avec
P
p1 p
Y Y
f (σ) = aiσ(i) aiσ(i) .
i=1 i=p1 +1
Si σ est tel que il existe i > p1 avec σ(i) ≤ p1 , alors f (σ) = 0, puisque A21 = 0. Donc,
si f (σ) 6= 0 alors σ(i) ≤ p1 si i ≤ p1 et σ(i) > p1 si i > p1 . C'est dire qu'alors σ est le
produit d'une permutation σ1 de {1, . . . , p1 } et d'une permutation σ2 de {p1 + 1, . . . , p}.
Comme (σ1 σ2 ) = (σ1 )(σ2 ) on arrive à
p1 p
X Y X Y
det A = ( (σ1 ) aiσ1 (i) )( (σ2 ) aiσ2 (i) ) = det A11 det A22 .
σ1 i=1 σ2 i=p1 +1
Voici maintenant une formule plus dicile que nous utiliserons à la Proposition 9.4 du
chapitre 2. Il ne faut pas la confondre avec la formule de Cauchy-Binet de l'exercice 2.9
où les cT sont dans K. Nous allons montrer que cT = det AT det BT 0 . En faisant alors
D = Ir cela établira la proposition.
Pour calculer cT , sans perte de généralité on peut supposer T = {1, . . . , k} et λk+1 =
. . . = λq = 0. La formule (2.6) devient
k q
X Y Y
det(DA + B) = (σ) (λi aiσ(i) + biσ(i) ) biσ(i) .
σ∈Sq i=1 i=k+1
Notons alors par Sk,q le sous groupe de Sq formé des σ tels que σ(i) ≤ k si et seulement
si i ≤ k. Il est clair que Sk,q est isomorphe à Sk × Sq−k : si σ ∈ Sk,q on écrit σ = (σ1 , σ2 )
où σ1 est dans Sk et est la restriction de σ à {1, . . . , k}, et où σ2 est la restriction de
σ à {k + 1, . . .Q
, q}. Notez aussi qu'on Qq a (σ) = (σ1 )(σ2 ). Maintenant, le coecient de
k
λ1 . . . λk dans i=1 (λi aiσ(i) + biσ(i) ) i=k+1 biσ(i) n'est pas nul si et seulement si σ est dans
Sk,q . Dans ces conditions il est égal à
k
Y k
Y
aiσ1 (i) biσ2 (i) .
i=1 i=k+1
12 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
Multiplions cette expression par (σ) = (σ1 )(σ2 ) et sommons les résultats sur tous les
σ = (σ1 , σ2 ) ∈ Sk,q . Cela donne le coecient c{1,...,k} de λ1 . . . λk cherché. Il est clair que
le résultat est aussi
k
! q
X Y X Y
(σ1 ) aiσ1 (i) (σ2 ) biσ2 (i) = det A{1,...,k} det B{k+1,...,q}
σ1 ∈Sk i=1 σ2 ∈Sq−k i=k+1
Exercice 2.1. Si A et D sont carrées avec A inversible, utiliser l'exercice 1.2 et la Proposition
2.3 pour montrer que
A B
det = det(A) det(D − CA−1 B).
C D
Exercice 2.2. Sur le corps K soit A une matrice (p, q), X et Y des matrices colonnes d'ordre
p et q. Montrer que X AY = trace (AY X ).
T T
Exercice 2.4. Soit A et B des matrices carrées réelles d'ordre q . Montrer que
A −B
det = | det(A + iB)|2 .
B A
Exercice 2.6. Si Jq est la matrice carrée d'ordre q dont tous les coecients sont 1 et si a et b
sont réels, il existe bien des manières de montrer que det(aJq + bIq ) = bq + qabq−1 . Le montrer
avec la formule de Laplace appliquée à A = aJq et B = bIq et utilisant det AT = 1, a, 0 suivant
que |T | = 0, 1, ≥ 2.
Exercice 2.7. Soit D = diag(µ1 , . . . , µq ) et soit Jq la matrice (q, q) dont tous les coecients
sont égaux à 1. On suppose det D 6= 0. Montrer à l'aide de la formule de Laplace que
1 1
det(D − Jq ) = µ1 · · · µq 1 − − ··· − .
µ1 µq
Méthode : appliquer la formule de Laplace du Théorème 2.4 au couple (C, λIq )Pet utiliser le fait
que le rang de C est ≤ 2 pour écrire det(λIq + C) = λq + λq−1 trace C + λq−2 T ;|T |=2 det CT .
Exercice 2.9. (Formule de Cauchy-Binet) Soit 0 < q ≤ m des entiers, soit A = (aij ) une
matrice à q lignes et m colonnes et soit B = (bjk ) une matrice à m lignes et q colonnes. Soit
T l'ensemble des parties T de {1, . . . , m} de taille q et, pour T ∈ T on considère les matrices
carrées d'ordre q
AT = (aij )1≤i≤q, j∈T , BT = (bjk )j∈T, 1≤k≤q .
Montrer que X
det(AB) = det AT det BT .
T ∈T
Remarques : Les dénitions précédentes peuvent être reformulées ainsi : λ est une valeur
propre de a si et seulement si il existe un vecteur x de E non nul tel que a(x) = λx. Dans
ce cas un tel x est appelé un vecteur propre associé à λ, et l'espace propre associé à λ est
l'ensemble des vecteurs propres associés à λ complété par le vecteur nul. En eet, il est clair
que ker(a − λidE ) 6= {0} ⇔ ∃x ∈ E ; (a − λidE )(x) = 0 ⇔ ∃x ∈ E ; a(x) = λx. En gros,
un vecteur propre est un vecteur de E dont la direction est conservée après déformation
par a. Une chose surprenante est que le coecient de proportionalité, à savoir la valeur
propre, ait au moins autant d'importance que le vecteur propre lui même.
Avant de donner des exemples et des propriétés des ces nouvelles notions, et d'expliquer
en particulier comment les calculer, nous démontrons un théorème important. Rappelons
avant que si F1 , . . . , Fp sont des sous espaces vectoriels de l'espace vectoriel E , on dit que
la famille {F1 , . . . , Fp } est en somme directe si une suite de vecteurs (x1 , . . . , xp ) est telle
que xj ∈ Fj pour j = 1, . . . p et telle que x1 + · · · + xp = 0, alors ceci ne peut arriver que si
x1 = . . . = xp = 0. Dans ce cas le sous espace F de E égal à F = F1 + · · · + Fp est appelé
la somme directe des F1 , . . . , Fp . On écrit alors traditionnellement
F = F1 ⊕ · · · ⊕ Fp ,
Q
i6=j (X − λi )
Lj (X) = Q .
i6=j (λj − λi )
Ils ont trois propriétés remarquables : deg Lj = p−1, Lj (λj ) = 1 et, pour i 6= j, Lj (λj ) = 0.
Ils sont utilisés en analyse numérique pour résoudre le problème suivant : étant donné
(a1 , . . . , ap ) ∈ K p trouver l'unique polynôme P de degré ≤ p − 1 tel que pour tout j on
ait P (λj ) = aj . Réponse : c'est P = a1 L1 + · · · + ap Lp : on laisse le lecteur vérier que P
convient et est unique.
Dénissons maintenant les polynômes d'endomorphismes. Si a ∈ E, on dénit la suite
(a )k≥0 d'éléments de L(E) par la récurrence suivante : a0 = idE , ak+1 = a ◦ ak . Notez
k
Nous résumons les propriétés de la correspondance P 7→ P (a) par l'énoncé suivant, dont
les démonstrations sont évidentes :
Proposition 3.2. Soit E de dimension nie sur K et a xé dans L(E). Soit K[X]
l'espace des polynômes à coecients dans K. L'application de K[X] dans L(E) dénie
par P 7→ P (a) a les propriétés suivantes : pour tous polynômes P et Q on a
16 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
Exercice 3.1. Soit E l'espace des polynômes sur R de degré ≤ n. Quelle est sa dimension ?
(chercher une base). Soit a ∈ L(E) déni par a(P )(X) = XP 0 (X). Trouver valeurs propres et
vecteurs propres de a (Méthode : chercher λ pour que les solutions de l'équation diérentielle
xy 0 = λy soient des polynômes). Soit b ∈ L(E) déni par b(P )(X) = P (X + 1) − P (X).
Montrer que la seule valeur propre de b est 0 avec les polynômes constants pour espace propre
(Méthode : observer que si deg P ≥ 1 alors deg b(P ) = (deg P ) − 1). En déduire les valeurs
et espaces propres de c = b + idE , satisfaisant donc c(P )(X) = P (X + 1).
Exercice 3.2. Soit E l'espace sur C des suites complexes z = (zn )n∈Z qui sont de période 3
(c'est à dire zn+3 = zn pour tout n ∈ Z). de degré ≤ n. Quelle est sa dimension ? (chercher
une base). On dénit a ∈ L(E) par a(z)n = zn+1 . Montrer que les trois racines cubiques de
l'unité 1, j, j 2 sont les valeurs propres de a.
Exercice 3.3. Soit n un entier > 0. Utiliser l'exercice 1.1 pour calculer les valeurs propres
de la matrice réelle d'ordre n + 1 suivante :
0 n 0 0 ... 0 0 0
1 0 n−1 0 ... 0 0 0
0 2 0
n − 2 . .. 0 0 0
.
... ... ... ... ... ... ... ...
0 0 0 0 ... n − 1 0 1
0 0 0 0 ... 0 n 0
IV. CAYLEY HAMILTON ET POLYNÔME CARACTÉRISTIQUE 17
Exercice 3.4. Soit M l'espace vectoriel sur R des matrices carrées réelles d'ordre q, soit S le
sous espace des matrices symétriques, c'est à dire des matrices A telles que A = AT et soit A
le sous espace des matrices antisymétriques, c'est à dire des matrices A telles que A = −AT .
Quelles sont les dimensions respectives de M, S et A? Montrer que S et A sont en somme
directe. Montrer que M = S ⊕ A soit par un argument de dimension, soit en écrivant
1 1
A = (A + AT ) + (A − AT ).
2 2
On considère enn l'endomorphisme a de M déni par a(A) = AT . Utiliser ce qui précède
pour trouver ses espaces et valeurs propres. Voir aussi l'exercice 5.2.
Exercice 3.6. Soit E et F des espaces vectoriels de dimension nie sur un même corps.
Soit a ∈ L(E, F ) et b ∈ L(F, E). (1) On suppose que (idF − ab)−1 existe. Montrer que
(idE − ba)−1 existe en montrant (idE − ba)−1 = idE + b(idF − ab)−1 a. (2) En déduire que
les valeurs propres non nulles de ab et de ba sont les mêmes (considérer les λ 6= 0 tels que
(λidF − ab)−1 = λ−1 (idF − λ−1 ab)−1 existe). Voir aussi les exercices 4.2 et 4.3.
Dénition 4.1 : Soit E un espace vectoriel de dimension nie sur K et soit a ∈ L(E).
Le polynôme caractéristique de a est Pa (X) = det(a − XidE ). Si A est une matrice carrée
d'ordre q , le polynôme caractéristique de A est PA (X) = det(A − XIq ).
Pour calculer Pa , le moyen le plus simple est de prendre une base e et de considérer
la matrice [a]ee = A = (aij )1≤i,j≤q . On a alors
a11 − X a12 ... a1q
a21 a22 − X . . . a2q
(4.8)
Pa (X) = det ,
... ... ... ...
aq1 aq2 . . . aqq − X
18 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
Démonstration : (1) La première partie est basée sur le fait suivant vu en première
année : si b ∈ L(E) alors det b = 0 ⇔ ker b 6= {0}. Il sut d'appliquer cela à b = a − λidE .
(2) Pour la seconde on utilise (4.8) et on applique la dénition du déterminant à A−XIq =
B = (bij ). On obtient si Sq est le groupe des permutations de q objets et si (σ) est la
signature de σ :
q
X Y
Pa (X) = det B = (σ) biσ(i) .
σ∈Sq i=1
Comme les bij sont des polynômes de degré ≤ 1 en X ceci montre que deg Pa ≤ q.
Son terme constant est Pa (0) = det a. Pour les termes de degré q et q − 1, on observe
que Q si σ n'est pas la permutation identique, elle déplace au moins deux objets et donc
degQ qi=1 biσ(i) Q
≤ q −2. La contribution aux termes de degré q et q −1 vient donc seulement
de i=1 bii = qi=1 (aii − X) et est donc celle de l'énoncé.
q
(3) On prend une base e de E telle que (e1 , . . . , ek ) soit une base de Eλ . Alors la matrice
[a]ee s'écrit par blocs
e λIk A
[a]e =
0 B
et donc Pa (X) = (λ − X)k det(B − XIq−k , ce qui montre que k ≤ m. La proposition est
montrée.
Voici alors la surprenante propriété de Cayley Hamilton de Pa : c'est que Pa (a) = 0.
Si e est une base de E , si A = [a]ee et si Pa (X) = c0 + c1 X + · · · + (−1)q X q , c'est dire
que la matrice carrée d'ordre
q dénie par c0 Iq + c1 A + · · · + (−1)q Aq est la matrice nulle.
5 2
Ainsi si A = alors trace A = 4, det A = −1 et donc (d'après la Proposition
−2 −1
21 8
4.1 (2)) Pa (X) = X − 4X − 1. Comme A =
2 2
on a bien
−8 −3
2 21 8 5 2 1 0 0 0
A − 4A − I2 = −4 + = .
−8 −3 −2 −1 0 1 0 0
Notons qu'on en tire pour les matrices d'ordre 2 un moyen rapide de calculer les premières
puissances : si Pa (X) = X 2 − tX + d, alors
Ce résultat est vrai pour un corps ni ou inni. Mais la démonstration que nous en
donnerons n'est valable que pour un corps inni. Enoncons cette propriété de Cayley
IV. CAYLEY HAMILTON ET POLYNÔME CARACTÉRISTIQUE 19
Hamilton dans un vocabulaire légèrement diérent qu'on aura à utiliser plus tard : si
a ∈ L(E) on dit que le polynôme P sur K est un polynôme annulateur de a si P (a) = 0.
On identie alors les coecients des X k dans chaque membre (c'est ici qu'on utilise le fait
que le corps est inni) et on obtient
B0 A = c0 Iq B0 A = c0 Iq
2
B1 A − B0 = c1 Iq B1 A − B0 A = c1 A
B2 A − B1 = c2 Iq B0 A3 − B1 A2 = c 0 A2
··· = ··· ··· = ···
−Bq−1 = cq Iq −Bq−1 Aq = c q Aq
La colonne de gauche a été obtenue par identication. La colonne de droite s'obtient en
multipliant à droite par Ak la ligne k. Sommons la colonne de droite, on obtient 0 = Pa (A)
et le théorème est montré.
Exercice 4.1. Quel est le polynôme caractéristique d' une matrice triangulaire supérieure
(aij )?
Exercice 4.2. Si A et B sont des matrices carrées de même ordre et si B est inversible,
pourquoi A et BAB −1 ont ils le même polynôme caractéristique ? pourquoi AB et BA ont
ils le même polynôme caractéristique ?
Exercice 4.3. Si A et B sont des matrices carrées de même ordre q (cette fois ci B n'est
pas nécessairement inversible), montrer que AB et BA ont même polynôme caractéristique.
Méthode : les déterminants des deux matrices par blocs suivantes
A XIq B −XIq B −XIq A XIq
,
Iq 0 −Iq A −Iq A Iq 0
20 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
5x −6y −6z = x
−x +4y +2z = y
3x −6y −4z = z
et, de facon équivalente
4x −6y −6z = 0
−x +3y +2z = 0
3x −6y −5z = 0
On a un système homogène, qui a évidemment une solution non triviale, car le déterminant
de A − I3 est nul (puisque 1 est valeur propre). Pour trouver toutes les solutions on
détermine d'abord le rang de la matrice A − I3 du système. Les deux premières lignes
4 −6
et colonnes fournissent le déterminant d'ordre 2 non nul = 18. Le rang est
−1 3
donc 2, et de plus on peut prendre pour équations principales les deux premières, et pour
inconnues principales les variables x et y . Poursuivant les techniques de première année
on fait passer au second membre l'inconnue non principale z et on résout le système de
Cramer
4x −6y = 6z
−x +3y = −2z
et on obtient x = z et y = −z/3. Nous avons ainsi paramétré l'espace propre par l'inconnue
non principale. On remarque que E1 est de dimension 1. Une base de E1 est obtenue
en prenant par exemple z = 3 et la base de E1 est formée de l'unique vecteur f1 =
3e1 − e2 + 3e3 .
Passons à E2 . On recherche donc les vecteurs v de E avec v = xe1 + ye2 + ze3 où
V = (x, y, z)T ∈ R3 satisfait au système linéaire AV = 2V ou encore (A − 2I3 )V = 0, ou
encore
3x −6y −6z = 0
−x +2y +2z = 0
3x −6y −6z = 0
Cette fois ci, le rang de A − 2I3 est 1. On peut prendre la première équation pour équation
principale, et x pour inconnue principale. Le système de Cramer se réduit à l'unique
équation
3x = 6y + 6z.
22 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
L'espace propre E2 est de dimension 2 et est paramétré par les deux inconnues non
principales y et z . C'est un plan d'équation x = 2(y + z). Une base de E2 est donc obtenue
par exemple en prenant (y, z) = (1, 0) et (0, 1), fournissant les vecteurs f2 = 2e1 + e2 et
f3 = 2e1 + e3 . Il est clair que f2 et f3 sont indépendants. Insistons sur le fait que le choix
d'une base d'un espace propre a un caractère arbitraire.
A ce point rappelons que le Théorème 3.1 garantit que E1 et E2 sont en somme directe.
Comme E1 est de dimension 1, E2 de dimension 2 et E de dimension 3 on a E = E1 ⊕ E2 .
Donc f = (f1 , f2 , f3 ) est une base de E , de matrice de changement de base
3 2 2
P = [idE ]ef = −1 1 0 .
3 0 1
Si on décide de représenter a dans cette nouvelle base f, le résultat est immédiat : [a]ff
doit être diagonale et est égale à
1 0 0
[a]ff = D = 0 2 0 .
0 0 2
D'après le Théorème 1.1 (3) on a [a]ee = [idE ]ef [a]ff [idE ]fe = P −1 DP ou encore
3 2 2 1 0 0 −1 2 2
A = −1 1 0 0 2 0 −1 3 2 .
3 0 1 0 0 2 3 −6 −5
Un des avantages de la représentation dans une base f de vecteurs propres est que le calcul
de la représentation matricielle [ak ]ff = Dk est immédiat, et donc [ak ]ee = Ak = P Dk P −1
se calcule moins péniblement.
Ici, le polynôme caractéristique Pa (X) est X 2 , et la seule valeur propre est 0. Des calculs
conduits comme à l'exemple 5.1 montrent que l'espace propre E0 est de dimension 1 et
est engendré par e1 . Cet exemple montre que la somme directe des espaces propres n'est
pas forcément égale à tout E. Il montre aussi que l'armation B = P AP −1 ⇒ PA = PB
V. LA DIAGONALISATION ET LE POLYNÔME MINIMAL 23
a une réciproque fausse : Prendre A comme en (5.11) et prendre pour B la matrice nulle
d'ordre 2.
Exemple 5.3 : On prend pour K le corps C des complexes. On se xe un nombre réel
θ. On prend l'espace E de dimension 2, une base e et un endomorphisme a de E tel que
[a]ee soit égal à
cos θ − sin θ
R(θ) = (5.12)
sin θ cos θ
On a Pa (X) = X 2 − 2 cos θX + 1 et les valeurs propres sont complexes et égales à cos θ ±
i sin θ = e±iθ . Si θ est un multiple de π alors a = ±idE n'a que la valeur propre ±1 et E
est l'espace propre. Si θ 6≡ 0 mod π, alors l'espace propre Eeiθ est de dimension 1 et est
engendré par f1 = e1 + ie2 et l'espace propre Ee−iθ est de dimension 1 et est engendré
par e1 − ie2 . Mais par souci de symétrie, nous prenons plutôt un vecteur f2 obtenu en
1 i
multipliant le précédent par i, soit f2 = ie1 +e2 . Si f = (f1 , f2 ) alors P = [idE ]f =
e
i 1
1 −i
et donc P −1 = [idE ]fe = 21 . Ici les vecteurs propres forment une base de E et
iθ −i 1
e 0
si [a]ff = D = on aura
0 e−iθ
iθ
1 1 i e 0 1 −i
R(θ) = .
2 i 1 0 e−iθ −i 1
Dénition 5.2 : Si E est de dimension nie, alors a dans L(E) est dit diagonalisable si
il existe une base f de E telle que [a]ff soit une matrice diagonale. On dit qu'une matrice
carrée A d'ordre q sur le corps K est diagonalisable si elle représente un endomorphisme
diagonalisable, c'est à dire si il existe E , a ∈ L(E) et une base e tels que A = [a]ee , avec a
diagonalisable.
Remarques : Il est évident que si [a]ff est diagonale, alors fj est un vecteur propre de a,
et qu'il est associé à la valeur propre dj , le j ième élément de la diagonale. Les exemples
5.1 et 5.3 sont diagonalisables. Comme on l'a vu, les endomorphismes diagonalisables sont
très faciles à manier une fois écrits dans une base de diagonalisation (celle ci n'est pas
unique). Nous allons donner dans la suite des conditions nécessaires et des conditions
susantes de diagonalisabilité. Par exemple, on se doute que les exemples 5.2 et 5.4 ne
sont pas diagonalisables.
24 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
Dénitions 5.3 : On dit qu'un polynôme P sur le corps K est scindé3 si il est le produit
de polynômes de degré 1. En particulier, si K = R si deg P = q, alors P est scindé si P a
toutes ses racines réelles. On dit qu'un polynôme P non nul est monique 4 si le coecient
du terme de plus haut degré est 1.
Démonstration : (1) Très facile. Le travail est fait par le Théorème 3.1.
(2) S'il y a q valeurs propres λj , et puisque tout espace propre est de dimension ≥ 1, alors
Ceci entraîne que ces inégalités deviennent des égalités. Donc E = Eλ1 ⊕ · · · Eλq et
dim Eλj = 1 pour tout j.
(3) et (4) Si f est une base de diagonalisation de a, alors D = [a]ff s'écrit par blocs :
λ1 Im1 ... 0
0 ... 0
(5.13)
D=
...
.
... ...
0 . . . λp Imp .
La n de cette section et les sections suivantes sont relativement diciles (et consi-
dérées en partie comme hors du programme d'une classe de Mathématiques Spéciales au
lycée) et d'une utilité pratique plus modeste. Elles donnent une meilleure maitrise de l'al-
gèbre linéaire, et nous suivrons une tradition universitaire vénérable en les exposant. Le
Théorème 4.2 fournit une condition nécessaire et susante de diagonalisabilité de a en
termes du polynôme minimal de a. Nous allons réactiver la notion de polynômes annula-
teurs d'un endomorphisme a ∈ L(E) introduite avant le Théorème de Cayley Hamilton
3.2.
Théorème 5.2. Soit E de dimension nie sur K et a ∈ L(E). Soit I(a) l'ensemble des
polynômes sur K tels que P (a) = 0.
3 D'autres disent dissocié.
4 D'autres disent unitaire.
V. LA DIAGONALISATION ET LE POLYNÔME MINIMAL 25
1. Il existe un polynôme monique unique ma (appelé polynôme minimal de a) dans
I(a) tel que tout P de I(a) soit un multiple de ma .
2. Toute valeur propre de a est racine de ma .
3. a est diagonalisable si et seulement si ma est scindé et n'a que des racines simples.
Remarques : Le polynôme ma est dit minimal car c'est le polynôme monique de plus
bas degré de I(a). Le polynôme caractéristique Pa est dans I(a) d'après la propriété de
Cayley Hamilton et donc ma divise Pa . Le fait que I(a) ne soit pas réduit à 0 se déduit de
Cayley Hamilton certes, mais peut être montré d'une manière plus élémentaire : puisque
L(E) est un espace vectoriel de dimension nie n = (dim E)2 , alors les n + 1 vecteurs
de L(E) formés par idE , a, a2 , . . . , an sont dépendants, c'est à dire qu'on peut trouver des
éléments c0 , . . . , cn dans K non tous nuls tels que
c0 idE + c1 a + · · · + cn an = 0,
c'est à dire encore que P (X) = c0 + c1 X + · · · + cn X n dénit un élément non nul de I(a).
Il n'y a pas d'algorithme pour calculer ma en dehors de sa dénition : il faut rechercher
le diviseur ma non nul de Pa de plus bas degré tel que ma (a) = 0. Toutefois la recherche
de ma est plus ou moins simple suivant la base dans laquelle on représente a. L'exemple
4.1 est instructif. On sait que Pa (X) = −(X − 1)(X − 2)2 et le théorème précédent dit
que ma (X) = (X − 1)(X − 2) car a est diagonalisable (et donc les racines de ma sont
simples) et toutes les racines de Pa doivent être présentes. Enn, avec les bases e et f de
l'exemple 4.1, il est beaucoup plus facile de vérier que ([a]ff − I3 )(([a]ff − 2I3 ) = 0 que
([a]ee − I3 )(([a]ee − 2I3 ) = 0.
Une utilisation fréquente du Théorème 5.2 est la suivante : si a est tel qu'il existe un
polynôme scindé à racines simples satisfait P (a) = 0, alors a est diagonalisable. En eet
P ∈ I(a) et donc ma divise P. Comme P est scindé et à racines simples, il en va de même
pour ma et le théorème s'applique.
Un exemple important est celui des projections : Rappelons qu'en première année on a
dit que le sous espace vectoriel F 0 de E est un supplémentaire du sous espace vectoriel F
de E si F + F 0 = E et si F ∩ F 0 = {0}, autrement dit E = F ⊕ F 0 . Si x ∈ F et x0 ∈ F 0 le
procédé a qui envoie x+x0 sur x est appelé projection de E sur F parallèlement à F 0 . Il est
clair que a2 = a. Inversement soit a ∈ L(E) tel que a2 = a. Alors a est une projection. En
eet, d'après le Théorème 5.2 si a2 = a alors P (a) = 0 avec P (X) = X 2 − X = X(X − 1) :
les valeurs propres de a sont dans {0, 1} et a est diagonalisable. On prend alors pour F
l'espace propre de la valeur propre 1 et pour F 0 l'espace propre de la valeur propre 0. Le
cas où 0 n'est pas valeur propre est a = idE et celui où 1 n'est pas valeur propre est a = 0.
Pr (X) = mr (X) = X q − 1.
26 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
On en déduit si K est le corps de complexes C que les valeurs propres de r et R sont les
2ikπ
q racines de l'unité e q avec k = 0, . . . , q − 1.
Une conséquence très utile est que les valeurs propres de la matrice circulante P (R)
2ikπ
de 3.7 sont les q nombres complexes P (e q ) avec k = 0, . . . , q − 1.
Démonstration du Théorème 5.2 : (1) On observe que I(a) est un idéal de l'algèbre
K[X] des polynômes sur K , ce qui signie que I(a) est un sous espace vectoriel de K[X]
tel que de plus QP ∈ I(a) pour tout polynôme Q ∈ K[X] et tout polynôme P ∈ I(a).
Il a été vu en première année qu'alors il existe ma dans I(a) unique avec les propriétés
annoncées.
(2) Si λ est une valeur propre de a et si ma (λ) 6= 0, alors en écrivant
Théorème 5.3. Soit Q1 , . . . , Qp des polynômes sur K deux à deux premiers entre eux,
P = Q1 . . . Qp et a ∈ L(E). Alors les ker Qj (a) sont en somme directe et
Dans (5.14) prenons x ∈ ker Q1 (a) ∩ ker Q2 (a) : (5.14) entraîne qu'alors x = 0 et
donc ker Q1 (a) et ker Q2 (a) sont en somme directe. Ensuite, si x ∈ ker Q1 (a)Q2 (a) =
ker(Q1 Q2 )(a), notons xj = Pj (a)Qj (a)(x). Alors x1 ∈ ker Q2 (a), puisque Q2 (a)(x1 ) =
Q2 (a)P1 (a)Q1 (a)(x) = P1 (a)Q1 (a)Q2 (a)(x) = 0 par dénition de x. De même x2 ∈
ker Q1 (a). Enn x = x1 + x2 par (5.14). Donc :
ker(Q1 Q2 )(a) ⊂ ker(Q1 )(a) ⊕ ker(Q2 )(a).
Pour montrer que cette inclusion est en fait une égalité, prenons xj = ker Qj (a) avec
j = 1, 2 et appliquons Q1 (a)Q2 (a) à x1 + x2 :
Q1 (a)Q2 (a)(x1 + x2 ) = Q2 (a)Q1 (a)(x1 ) + Q1 (a)Q2 (a)(x2 ) = 0 + 0.
Donc
ker(Q1 Q2 )(a) ⊃ ker(Q1 )(a) ⊕ ker(Q2 )(a),
et le théorème est montré pour p = 2.
Pour terminer, on procède par récurrence sur p. Rappelons d'abord le lemme de Gauss :
si P, Q, R sont des polynômes tels que R divise P Q et R soit premier avec Q, alors R
divise P (démonstration : par Bézout il existe Q1 et R1 tels que QQ1 + RR1 = 1; comme
P Q = RS alors QS1 = S avec S1 = SQ1 + P R1 ; d'où P Q = RQS1 et P = RS1 ).
Ensuite, on observe que si k ≤ p si R divise Q1 . . . Qk et si R est premier avec chaque Qj ,
j = 1, . . . , k, alors R est constant. En eet, en appliquant le lemme de Gauss au couple
(Q1 . . . Qk−1 , Qk ), R divise Q1 . . . Qk−1 . De même R divise Q1 . . . Qk−2 , etc jusqu'à Q1 ,
d'où le résultat. Ce résultat entraîne que Q1 . . . Qk−1 et Qk sont premiers entre eux.
Supposons alors le théorème vrai pour p−1 et montrons le pour p. Puisque Q1 . . . Qp−1
et Qp sont premiers entre eux, le cas p = 2 déjà traité entraîne
Exercice 5.1. Quel est le polynôme minimal de l' endomorphisme nul ? De a = λidE ?
Exercice 5.2. Montrer que l'endomorphisme A 7→ AT de l'exercice 3.4 est diagonalisable,
et calculer son déterminant en fonction de q au moyen de la Proposition 5.1, partie 3.
Exercice 5.3. Soit E et F des espaces de dimension nie sur K. Soit a ∈ L(E) diagonalisable
et ϕa l'application linéaire de L(E, F ) dans lui même dénie par b 7→ ϕa (b) = b◦a. Montrer que
28 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
ϕa est a les mêmes valeurs propres que a et en déduire que det ϕa = (det a)dim F (Méthode :
prendre une base e de diagonalisation de a et une base quelconque f de F , noter D = [a]ee et
B = [b]fe et examiner l'endomorphisme de l'espace des matrices (p, q) déni par B 7→ BD).
Exercice 5.4. Montrer que ϕ déni à l'exercice 3.5 est diagonalisable si et seulement si
a(b) 6= 0.
Exercice 5.5. Soit E un espace vectoriel complexe de dimension q et soit a et b dans L(E)
de spectres disjoints, c'est à dire que les polynômes caractéristiques Pa et Pb sont premiers
entre eux. Montrer que Pb (a) est inversible (appliquer le lemme des noyaux à a et à Pa Pb ). On
pose ensuite F = L(E) et on considère ϕ ∈ L(F ) déni pour tout x ∈ F par ϕ(x) = ax − bx.
Montrer que ker ϕ = {0} (Méthode : soit x0 ∈ F tel que ax0 = x0 b; montrer que pour tout
polynôme Q on a Q(a)x0 = x0 Q(b) et appliquer cela à Q = Pb ). Soit enn A et B des
matrices carrées complexes d'ordre q ayant une valeur propre commune λ et soit U et V des
matrices colonnes non nulles d'ordre q telles que AU = λU et B T V = λV. Si X = U V T
calculer AX − XB.. En déduire le théorème de Liapounov : pour tout c ∈ L(E) il existe un
unique x ∈ L(E) tel que ax − xb = c si et seulement si a et b ont des spectres disjoints.
Exercice 5.6. Soit M l'espace vectoriel des matrices (n, n) à coecients dans le corps de
complexes C. Si 1 ≤ k, l ≤ n, la matrice Ekl de M est la matrice (xij ) telle que xij = 0 si
(i, j) 6= (k, l) et xkl = 1. Donc e = (E11 , E12 , E13 , . . . , Enn ) forme une base de M. Si A est
xé dans M et si X ∈ M on pose ϕA (X) = AX − XA. Ceci dénit donc un endomorphisme
ϕA de M. Le but de l'exercice est de montrer que ϕA est diagonalisable si et seulement si A
est diagonalisable. On se xe une matrice diagonale D = Diag(c1 , c2 , . . . , cn ) de M . Calculer
ϕD (Ekl ) pour 1 ≤ k, l ≤ n. En déduire les valeurs propres de ϕD en fonction de c1 , c2 , . . . , cn ,
et en déduire que ϕD admet une base de diagonalisation. On se xe de plus P ∈ M inversible.
Calculer ϕP DP −1 (P Ekl P −1 ) pour 1 ≤ k, l ≤ 3. En déduire les valeurs propres de ϕP DP −1 et
en déduire que ϕP DP −1 admet une base de diagonalisation. On suppose ensuite que ϕA admet
une base de diagonalisation (F1 , . . . , Fn2 ) correspondant aux valeurs propres (λ1 , . . . , λn2 )
satisfaisant ϕA (Fk ) = λk Fk pour k = 1, . . . , n2 . Pourquoi existe t-il V ∈ Cn non nul et un
complexe λ tel que AV = λV ? Calculer ϕA (Fk )V et en déduire que Fk V = (λk + λ)V.
Montrer que le fait que les (F1 , . . . , Fn2 ) forment une famille génératrice de M entraîne que
les (F1 V, . . . , Fn2 V ) forment une famile génératrice de Cn . En déduire que A admet une base
de diagonalisation.
Exercice 5.7. 5 Soit n un entier ≥ 2, soit J la matrice (n, n) dont tous les coecients sont
1 et soit In la matrice identité d'ordre n. On considère une matrice (n, n) symétrique réelle
A dont les coecients sont 0 ou 1, telle que trace A = 0 et telle qu'il existe un entier d > 0
avec
A2 + A − (d − 1)In = J. (∗)
Montrer que les éléments de la diagonale de A2 sont tous égaux à d. Montrer en prenant la
trace de (∗) que n = d2 +1. Montrer que si 1 = (1, . . . , 1)T alors A1 = d1, que (A−dIn )J = 0
5 Source : A.J. Homann Eigenvalues of graphs Studies in Graph Theory II, 225-245, D. Fulkerson
ed. Mathematical Association of America (1975).
VI. DIAGONALISATION SIMULTANÉE * 29
et que (X − d)(X 2 + X − (d − 1)) est polynôme annulateur de A. Si α et β sont les racines
de X 2 + X − (d − 1) montrer qu'il existe une matrice inversible P et des entiers positifs ou
nuls (nd , nα , nβ ) tels que si
D = diag(dInd , αInα , βInβ )
alors A = P DP −1 . Montrer que (nd , nα , nβ ) satisfait au systême linéaire
nd + nα + nβ = d2 + 1, dnd + αnα + βnβ = 0, d2 nd + α2 nα + β 2 nβ = d(d2 + 1)
(Méthode : comparer trace A et trace A2 à trace D et trace D2 ). En déduire nd = 1 et nα =
1
β−α
d(dβ + 1). Montrer enn que d ∈ {1, 2, 5, 7, 57} (Méthode : observer que nα est entier,
que √
(2nα − d2 ) 4d − 3 = d(2 − d)
√
et que s = 4d − 3 doit être entier si d 6= 2, et en déduire que dans ce cas s divise 15.
Préciser dans les 5 cas les polynômes caractéristique et minimal de A. On ne sait pas si A
existe pour d=57 et n=3250.
VI Diagonalisation simultanée *
Cette section contient un résultat très utile6 .
Théorème 6.1. Soit E de dimension nie et soit A un sous ensemble de L(E) formé
d'endomorphismes tous diagonalisables et qui commutent deux à deux entre eux. Alors il
existe une base e de E telle que pour tout a de A la matrice [a]ee soit diagonale.
Remarques : Il est essentiel de supposer que les éléments de A sont diagonalisables : des
endomorphismes
non diagonalisables peuvent commuter. Par exemple pour E = R les
2
1 t
At = satisfont At+s = At As . Pourtant At n'est pas diagonalisable pour t 6= 0 :
0 1
son polynôme minimal serait X − 1, ce qui n'est pas, puisque At − I2 6= 0. Très souvent on
applique le théorème au cas où A est une algèbre, c'est à dire un sous espace vectoriel de
L(E) qui est de plus fermé pour la composition des endomorphismes. Nous n'utiliserons
ce résultat qu'une fois dans la suite du cours, et seulement pour une famille A à deux
éléments, pour montrer l'unicité de la décomposition de Dunford au Théorème 8.2.
Démonstration : Elle se fait en deux parties : le cas où A est ni ; le cas où A est inni.
Si A = {a1 , . . . , aN } soit Λj le spectre de aj et soit
(j)
(Eλj )λj ∈Λj
la famille des espaces propres de aj . Pour k xé dans {1, . . . , N } on note Λk = Λ1 ×. . .×Λk ,
dont un élément typique est noté λk = (λ1 , . . . , λk ). Enn on note
k
\ (j)
Fλk = Eλj
j=1
6 Une section ou un énoncé marqués d'une étoile * ne sont pas traités en cours et sont là pour la
culture.
30 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
(Fλk peut être réduit à zéro) et on note par Bk la réunion de tous les espaces Fλk . Nous
montrons alors par récurrence sur k le résultat suivant
1. Il existe une base e contenue dans Bk ;
2. Pour toute base e contenue dans Bk , alors [a1 ]ee , . . . , [ak ]ee sont diagonales.
L'application à k = N donnera le résultat voulu dans le cas où A est ni. L'hypothèse
de récurrence est vériée pour k = 1, d'après la Proposition 5.1. Supposons la vérifée à
un ordre k < N xé et montrons qu'elle est vraie à l'ordre k + 1.
Pour simplier la notation, xons λk = (λ1 , . . . , λk ) dans Λk et notons F = Fλk . Alors
F est stable par ak+1 , c'est à dire que ak+1 (F ) ⊂ F. En eet, si x ∈ F, alors pour
j ≤ k on a, puisque aj et ak+1 commutent :
ce qui est dire que ak+1 (x) est un vecteur propre de aj pour la valeur propre λj .
(j)
Donc ak+1 (x) ∈ Eλj pour tout j ≤ k, donc ak+1 (x) ∈ F.
Soit b la restriction de ak+1 à F et soit m = mak+1 le polynôme minimal de ak+1
(relativement à E, non au sous espace stable F ). Si x ∈ F, la dénition du polynôme
minimal entraîne
0 = m(ak+1 ), 0 = m(ak+1 )(x) = mb (x)
et donc m(b) = 0. On en déduit que le polynôme minimal mb divise m. Or m est
scindé et n'a que des racines simples (Théorème 5.2 appliqué à ak+1 diagonalisable).
Donc b est diagonalisable sur F par le même théorème. Enn, x ∈ F est un vecteur
propre de b si et seulement si x est dans
\ [
F = F ∩ Bk+1 .
λk+1 ∈Λk+1
Comme chaque Fλk avait une base contenue dans Bk+1 , E a donc une base contenue dans
Bk+1 .
On a vu d'autre part que toute base contenue dans Bk+1 diagonalise ak+1 . Enn,
Bk ⊃ Bk+1 par dénition, et donc d'après l'hypothèse de récurrence partie 2), toute base
contenue dans Bk+1 diagonalise a1 , a2 , . . . , ak+1 , ce qui achève la démonstration quand A
est ni.
Si A est inni, soit A0 = {a1 , . . . , aN } ⊂ A tel que A0 soit une base du sous espace de
L(E) engendré par A. Appliquons la première partie à A0 : si e est une base qui diagonalise
les éléments de A0 , elle diagonalise les éléments de A, qui sont des combinaisons linéaires
de A0 , et la démonstration est complète.
VII. TRIANGULARISATION ET NILPOTENCE 31
Proposition 7.1. Si E est de dimension nie et si a ∈ L(E), alors il existe une base e
telle que [a]ee soit triangulaire supérieure si et seulement si le polynôme caractéristique Pa
est scindé.
Démonstration : ⇒ Si A = [a]ee = (aij ) est triangulaire supérieure alors il est clair (voir
la Proposition 2.3) que
est scindé lui aussi et on peut appliquer l'hypothèse de récurrence. Il existe donc une
0 0
base e0 de F telle que [p ◦ a1 ]ee0 = T soit triangulaire. Notons P = [idF ]fe0 . On a donc
P −1 AP = T. La base e = {e1 } ∪ e0 satisfait alors (Théorème 1.1) :
1 0 a11 B 1 0 a11 BP
[a]ee = [idE ]ef [a]ff [idE ]fe = =
0 P −1 0 A 0 P 0 T
la proposition précédente. ⇐ Pour 0 ≤ k soit Tkq l'espace des matrices t = (tij )1≤i,j≤q
triangulaires supérieures sur K telles que tij 6= 0 entraîne i − j = k. Par exemple on
obtient les matrices diagonales si k = 0 et la matrice nulle si k ≥ q. Si A ∈ Tkq et A0 ∈ Tkq0
q f
on voit que AA0 ∈ Tk+k 0 Si alors N = [n]f est triangulaire supérieure avec diagonale nulle,
Démonstration :
Si a est diagonalisable, on prend an = a. Sinon, soit f une base de triangularisation de
b (qui existe toujours, puisque K = C et donc Pb est scindé). Soit A = D + N = [a]ff avec
D diagonale et N triangulaire supérieure avec diagonale nulle. Soit J = diag(1, 2, . . . , q)
et An = A + n1 J. Alors les valeurs propres de An sont distinctes à partir d'un certain rang
et an déni par An = [an ]ff est diagonalisable. Il est clair que an tend vers a. De plus, la
construction montre que si a est inversible, alors les an ci dessus sont inversibles à partir
d'un certain rang.
Proposition 8.1. Soit E de dimension nie, a dans L(E) tel que Pa soit scindé, soit
n1 , . . . , np les multiplicités respectives des valeurs propres λ1 , . . . , λp dans le polynôme
minimal ma , et soit m1 , . . . , mp les multiplicités respectives des valeurs propres λ1 , . . . , λp
dans le polynôme caractéristique Pa . On considère les polynômes Qj de degré < nj dénis
par
p
1 X Qj (X)
= (8.15)
ma (X) j=1
(X − λj )nj
E = Fλ1 ⊕ · · · ⊕ Fλj .
Démonstration : 1) En multipliant les deux côtés de (8.15) par ma on obtient pj=1 Pj (X) =
P
Pp
1 et donc j=1 Pj (a) = idE . Si i 6= j alors Pi (X)Pj (X) est divisible par ma et donc
Pp
Pi (a)Pj (a) = 0. Puisque Pi (a) = j=1 Pi (a)Pj (a) on en déduit Pi (a) = Pi (a) . Enn
2
Théorème 8.2. Soit E de dimension nie et a dans L(E) tel que Pa soit scindé. Alors
il existe un couple unique (d, n) d'endomorphismes de E tels que d soit diagonalisable, n
soit nilpotent, dn = nd et enn a = d + n. Dans ces conditions d et n sont des polynômes
d'endomorphismes de a, et il existe une base e de E telle que [d]ee soit diagonale et [n]ee
soit triangulaire supérieure.
Ecrivons aussi N = (Nij )1≤i,j≤p par blocs, tels que Nij a mi lignes et mj colonnes. Alors
DN − N D = (((λi − λj )Nij )1≤i,j≤p ). Par conséquent DN − N D = 0 si et seulement si
Nij = 0 pour i 6= j. Par exemple, si un endomorphisme a d'un espace réel de dimension 4
est représenté par
2 0 1 0 2 0 0 0 0 0 1 0
0 2 0 1 0 2 0 0 0 0 0 1
[a]ee = A =
0 0 2 0 = 0 0 2 0 + 0 0 0 0 = D + N,
(8.18)
0 0 0 1 0 0 0 1 0 0 0 1
alors e n'est pas une base de Dunford : avec les notations précédentes on a p = 2, λ1 = 2,
λ2 = 1, m1 = 3, m2 = 1 et N12 = [0, 1, 0]T 6= 0, et donc D et N ne commutent pas.
36 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
et n = a − d. Il est clair que d et n étant des polynômes en a, ils commutent. Pour voir
que d est diagonalisable, on prend une base ej pour Fλj et e = e1 ∪ . . . ∪ ep . Alors [d]ee est
la matrice diagonale par blocs suivante :
λ1 Im1 0 ... 0
0 λ2 Im2 . . . 0
[d]ee =
...
. (8.19)
... ... ...
0 0 . . . λp Imp
Pour voir que n est nilpotent on écrit grâce à la Proposition 8.1 partie 1 :
p p
X X
k
n= (a − λj idE )Pj (a), . . . , n = (a − λj idE )k Pj (a).
j=1 j=1
la raison pour laquelle cette somme est nulle est amusante : si 0 ≤ k ≤ 2q , l'un des
deux entiers k et 2q − k est ≥ q et comme nq = n0q = 0 on a bien (d0 − d)2q = 0.
Invoquons maintenant le Théorème 6.1 : d et d0 sont des endomorphismes diagonalisables
qui commutent, il existe donc une base e telle que D = [d]ee et D0 = [d0 ]ee soient diagonales.
Comme D0 − D est diagonale et que (D0 − D)2q = 0 cela entraîne que D0 − D = 0 et
l'unicité s'ensuit.
3) Existence d'une base de Dunford. Il est clair que Fλj est stable par n. Notons par nj la
e
restriction de n à Fλj . Il ne sut pas que ej soit une base de l'espace Fλj pour que [n]ejj soit
triangulaire supérieure. Mais il sut pour terminer d'appliquer la Proposition 7.2 à nj :
f
on crée ainsi une base fj de Fλj telle que Nj = [nj ]fjj soit triangulaire supérieure. Puisque
f
la restriction dj de d à Fλj est λj idFλj on a [dj ]fjj = λj Imj . Finalement f = f1 ∪ . . . ∪ fp
est une base de Dunford, puisque [d]ff = [d]ee comme en (8.19) et que
N1 0 . . . 0
0 N2 . . . 0
[n]ff =
.
... ... ... ...
0 0 ... Np
VIII. ESPACES CARACTÉRISTIQUES ET DÉCOMPOSITION DE DUNFORD* 37
et donc résoudre les systèmes linéaires homogènes gouvernés par les matrices A − 2I4 ,
(A − 2I4 )2 , (A − 2I4 )3 . On a
0 0 1 0 0 0 0 0
0 0 0 1 , (A − 2I4 )2 = 0 0
0 −1
A − 2I4 =
0
.
0 0 0 0 0 0 0
0 0 0 −1 0 0 0 1
1 0 0 0 2 0 1 0
0 1 0 −1 0 2 0 0
, [a]ff = P −1 AP = [d]ff + [n]ff =
P = [idE ]ef =
0
.
0 1 0 0 0 2 0
0 0 0 1 0 0 0 1
38 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
Exercice 8.1. L'endomorphisme a d'un espace réel de dimension 3 est tel que dans une base
e on ait
1 0 1
[a]ee = 0 1 1 .
0 0 0
Calculer le polynôme caractéristique Pa puis, en fonction de e, donner des bases des espaces
propres et des espaces caractéristiques de a. En déduire le polynôme minimal et une base de
Dunford de a.
Exercice 8.2. Soit E un espace complexe de dimension q et soit Z l'ensemble des entiers
relatifs. On dit qu'une suite (bk )k∈Z d'éléments de L(E) est bornée si pour toute base e de E
il existe une constante M > 0 telle que pour tout k ∈ Z, les modules des coecients de la
matrice [bk ]ee sont ≤ M. Soit a ∈ L(E) inversible.
1. Si a est diagonalisable et si ses valeurs propres sont de module 1, montrer que la suite
(ak )k∈Z est bornée.
2. Si a n'a qu'une valeur propre λ, et si la suite (ak )k∈Z est bornée montrer que a = λidE
et que λ est de module 1 (Méthode : si f est une base de Dunford pour a, montrer que
les coecients Pij (k) de la matrice [λ−k ak ]ff sont des polynômes en k. Utiliser le fait
que (ak )k∈Z est bornée pour montrer que les Pij (k) sont constants).
3. Si la suite (ak )k∈Z est bornée, montrer que a est diagonalisable et que ses valeurs propres
sont de module 1 (Méthode : introduire une base de Dunford pour a et appliquer le 2).
4. Dans le cas particulier où q = 2, où det a = 1 et où il existe une base e telle que [a]ee
soit réelle, montrer le théorème de Liapounov : (ak )k∈Z est bornée si et seulement si ou
bien a = ±idE ou bien trace a ∈] − 2, 2[.
1 1
Qn (X) = 1 + X + X 2 + . . . + X n . (9.20)
2 n!
Alors limn→∞ Qn (a) = exp(a) existe dans L(E) (On notera aussi ea = exp a). De plus si
a et b commutent on a exp(a + b) = exp a exp b. Enn limn→∞ (idE + n1 a)n = exp a.
Démonstration : On munit L(E) d'une norme sous multiplicative. Alors la suite (Qn (a))n≥0
a la propriété de Cauchy car si n ≤ n0 on a
n 0
X 1 k
kQn0 (a) − Qn (a)k = k a k
k=n+1
k!
n 0
X 1 k
≤ ka k
k=n+1
k!
n 0
X 1
≤ kakk = Qn0 (kak) − Qn (kak)
k=n+1
k!
P∞ 1
Comme la série k=0 k! kak converge par le critère de D'Alembert, (Qn (kak))n≥0 a la
k
propriété de Cauchy et donc (Qn (a))n≥0 aussi. Comme un espace normé de dimension nie
est toujours complet, la suite (Qn (a))n≥0 est donc convergente. Si alors a et b commutent
on peut écrire
X ai b j
Qn (a + b) = ,
i+j≤n,0≤i,0≤j
i! j!
X ai b j
Q2n (a + b) − Qn (a)Qn (b) = ,
i+j≤2n,n+1≤i,n+1≤j
i! j!
X ai b j
Q2n (a + b) − Qn (a + b) = .
n+1≤i+j≤2n,n+1≤i,n+1≤j
i! j!
Par conséquent
Comme pour p = kak+kbk on a limn→∞ Q2n (p)−Qn (p) = 0, on en déduit que exp(a+b) =
exp a exp b si a et b commutent.
Finalement, si Rn (X) = (1 + Xn )n , on constate que Qn (X) − Rn (X) est à coecients
positifs : celui de X k est
1 1 2 k−1
1 − (1 − )(1 − ) . . . (1 − ) .
k! n n n
40 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
1 1
exp a = idE + a + a2 + . . . + ap−1 .
2 (p − 1)!
1 1
ea = ed (idE + n + n2 + . . . + np−1 ).
2 (p − 1)!
Par conséquent
β + αγ β + αγ
a= , b= , a + b = 1 + γ > 1.
α+β α+β
Inversement, étant donnés a et b dans (0, 1) tels que γ = a + b − 1 ∈ (0, 1) on obtient
Si E est complexe, on peut montrer que l'image de L(E) par a 7→ ea est le groupe li-
néaire GL(E) des automorphismes de E. Nous omettrons la démonstration, assez délicate,
et l'étude de ea = b comme équation en a. Cette application n'est certes pas injective :
voici une agréable application de Dunford qui étudie le cas b = idE .
42 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
Mentionnons pour terminer le rôle joué par l'exponentielle des endomorphismes dans
la solution des systèmes diérentiels à coecients constants :
Démonstration : dtd eat aeat = eat a résulte de la dérivation de la série entière en t à valeurs
dans L(E) dénie par
∞
X ak
tk .
k=0
k!
Pour la suite, ⇒ se montre en considérant Y1 (t) = e−at (Y (t)) et en vériant que sa dérivée
est nulle sur I :
Y10 (t) = −e−at a(Y (t)) + e−at (Y 0 (t)) = −e−at a(Y (t)) + e−at (a(Y (t))) = 0.
Comme I est un intervalle, Y1 (t) = Y1 (0) = Y (0). ⇐ se voit directement car si Y (t) =
eat (Y (0)) alors Y 0 (t) = aeat (Y (0)) = a(Y (t)).
L'analogie avec l'exponentielle réelle suggérée par l'énoncé précédent ne s'étend pas
très loin : la proposition suivante montre que la dérivée de t 7→ eat n'est certes pas eat (at )0 .
Exercice 9.2. Si a et b dans L(E) sont tels que pour tout t réel on a e(a+b)t = eat ebt
montrer que a et b commutent (Méthode : à l'aide de la Proposition 9.4, dériver deux fois et
faire t = 0).
A partir de limn→∞ (idE + n1 a)n = exp a, en déduire une autre démonstration de det ea =
exp trace a.
Exercice 9.6. (Semi groupes de matrices stochastiques) On garde les notations de l'exercice
précédent. Soit l'application t 7→ St de [0, ∞[ dans Sn telle que St Ss = St+s pour tous t
et s ≥ 0, telle que t 7→ St soit continue et telle que S0 = In . On veut montrer qu'alors il
existe A ∈ An telle que St = etA pour tout t ≥ 0 (voir aussi les exercices 9.8 (3) et 9.7). On
considère pour cela pour tout λ > 0 la matrice à coecients ≥ 0
Z ∞
Rλ = e−tλ St dt.
0
montrer que A ∈ An .
a 1−a
Exercice 9.7. On pose S(a, b) = 1−b b
. Soit α, β ≥ 0 tels que α + β > 0. On
pose γ = e−α−β et
β + αγ t α + βγ t
St = S( , ).
α+β α+β
Montrer de deux manières que St Ss = St+s pour tous s, t ≥ 0 (calcul direct ou exemple 9.2).
Exercice 9.8. Soit E un espace vectoriel réel ou complexe de dimension nie. Soit b ∈ L(E).
On considère l'intégrale
Z ∞ Z t0
−tb
I(b) = e dt = lim e−tb dt
0 t0 →∞ 0
à valeurs dans L(E). Si cette limite dans L(E) n'existe pas, on dit que l'intégrale diverge.
1. Montrer que si b n'est pas inversible, l'intégrale diverge (considérer v ∈ E \ {0} tel que
b(v) = 0 et montrer que e−tb (v) = v).
Rt
2. Si b−1 existe montrer avec la proposition 9.4 que 0 0 e−tb dt = b−1 − b−1 e−t0 b . Avec le
corollaire 9.2 (4) montrer que limt0 →∞ e−t0 b existe dans E si et seulement si toutes les
valeurs propres de b ont une partie réelle strictement positive. Quelle est alors la valeur
de I(b)?
3. Avec les notations des exercices 9.5 et 9.6, déduire du (2) que si St = etA avec A ∈ An
alors Rλ = (λIn − A)−1 et que toutes les valeurs propres de A ont une partie réelle ≤ 0.
4. Plus généralement, pour p > 0 et pour b ∈ L(E) dont toutes les valeurs propres ont
une partie réelle strictement positive on considère
Z ∞
1
Ip (b) = e−tb tp−1 dt
Γ(p) 0
46 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
R∞
avec Γ(p) = 0 e−t tp−1 dt. Montrer que Ip (b) converge. Si de plus p est entier montrer
que Ip (b) = b−p . Si p et q > 0 ne sont pas nécessairement entiers montrer en imitant
le (2) de l'exercice 9.6 que Ip (b)Iq (b) = Ip+q (b) (Si p n'est pas entier on peut prendre
Ip (b) comme dénition de "puissance fractionnaire" de l'endomorphisme b).
Chapitre 2
Espaces euclidiens
I Particularités des espaces réels.
Dans le chapitre 1, nous avons obtenu des résultats d'une belle généralité, valables
pour des espaces vectoriels de dimension nie sur un corps quelconque. Jamais pourtant
nous n'y avons fait allusion à des objets d'intuition géométrique courante : distance entre
deux points, perpendicularité, angles : l'axiomatique était trop pauvre. Le présent cha-
pitre est beaucoup plus proche de l'espace physique. La présente section est un prélude
qui met en évidence trois particularités des espaces réels de dimension nie : un endomor-
phisme d'un espace vectoriel sur R de dimension impaire a toujours un vecteur propre ; un
endomorphisme d'espace réel a toujours un espace stable de dimension 1 ou 2 ; un espace
réel peut être orienté.
Soit enn x et y dans E dénis par [x]ee = X et [y]ee = y. Les égalités ci dessus deviennent
a(x) = αx − βy, a(y) = βx + αy, ce qui est dire que le sous espace F de E engendré par x
et y est stable par a. Il ne peut être de dimension 0, car X = Y = 0 entraînerait V = 0, ce
qui n'est pas, car un vecteur propre est toujours non nul. Si x et y sont indépendants alors
F est de dimension 2 comme annoncé. Si x et y sont colinéaires, supposons x 6= 0. C'est
47
48 CHAPITRE 2. ESPACES EUCLIDIENS
dire que x est un vecteur propre de a et que β = 0. On prend une base g = (g1 , . . . , gq ) de
E telle que g1 = x. Alors, avec L matrice ligne d'ordre q − 1 et A1 matrice carrée d'ordre
q − 1 on écrit par blocs
g α L
[a]g = .
0 A1
Comme A1 est d'ordre impair, elle a au moins une valeur propre réelle, et un vecteur
propre X1 correspondant. Si X1 = [t2 , . . . , tq ] alors x1 = t2 g2 + · · · + tq gq est un vecteur
propre de a indépendant de x. Le raisonnement quand x = 0 et y 6= 0 est similaire. La
proposition est montrée.
Dénition 1.1. Soit E un espace réel de dimension nie, et soit B l'ensemble de toutes
ses bases-ordonnées. On dit que e et e0 dans B ont même orientation , ce qu'on note e ∼ e0
si le déterminant de la matrice de changement de base P = [idE ]ee0 est positif.
det[idE ]ee = (det[idE ]ee0 )−1 > 0, d'où e0 ∼ e. Transitivité : Si e ∼ e0 et e0 ∼ e00 alors d'après
0
le Théorème 1.1
0
det[idE ]ee00 = det[idE ]ee0 det[idE ]ee00 > 0 (1.1)
et donc e ∼ e00 .
Pour voir qu'il y a au plus deux classes d'équivalence, on suppose que e et e0 sont dans
0
deux classes diérentes. Donc det[idE ]ee0 < 0 Si alors e00 6∼ e0 alors det[idE ]ee00 < 0 aussi et
(1.1) est encore vrai, ce qui montre e00 ∼ e : il n'y a pas plus de deux classes. Enn il y en
a toujours deux, car (−e1 , e2 , . . . , eq ) 6∼ e si q > 0.
Dénition 1.2. Soit E un espace réel de dimension nie. On dit qu'il est orienté si
on a sélectionné une des deux classes de B. Les éléments de cette classe sont appelés
bases-ordonnées directes, les autres sont les bases-ordonnées indirectes.
Dénitions 2.1. Soit E et F des espaces vectoriels sur un corps K . Une forme bilinéaire
B sur E × F est une application de E × F dans K :
telle que pour tout x ∈ E xé l'application y 7→ B(x, y) soit une forme linéaire sur
F , et telle que pour tout y ∈ F xé l'application x 7→ B(x, y) soit une forme linéaire
sur E. Si de plus E = F , la forme bilinéaire est dite symétrique si pour tous x et y
de E on a B(x, y) = B(y, x). Par abus de langage, on parle alors de forme bilinéaire
symétrique sur E plutôt que sur E × E. Dans ces conditions, la fonction QB sur E dénie
par x 7→ QB (x) = B(x, x) est appelée la forme quadratique associée à la forme bilinéaire
symétrique B. Si de plus K = R, la forme bilinéaire symétrique B est dite positive si
pour tout x ∈ E on a QB (x) ≥ 0. Elle est dite dénie positive si pour tout x ∈ E\ on
a QB (x) > 0. Une forme bilinéaire symétrique dénie positive sur E × E est dite plus
50 CHAPITRE 2. ESPACES EUCLIDIENS
brièvement produit scalaire1 sur l'espace réel E. Un espace vectoriel réel dans lequel on a
p est appelé un espace préhilbertien réel. Si B est ce produit scalaire,
xé un produit scalaire
le nombre kxk = QB (x) s'appelle la norme du vecteur x. Le produit scalaire B(x, y)
vecteurs x et y est plus souvent noté hx, yi. Un espace préhilbertien réel de dimension
nie s'appelle un espace euclidien.
On voit que cette forme dénit un produit scalaire sur E. Il est clair que E s'identie à
Rpq euclidien canonique.
Exemple 2.3. Soit E l'espace des polynômes trigonométriques réels, c'est à dire l'espace
de dimension innie des fonctions f dénies sur R telles qu'il existe un entier n ≥ 0 et
des nombres réels a0 , . . . , an , b1 , . . . , bn tels que
n
X
f (x) = a0 + (ak cos kx + bk sin kx).
k=1
Démonstration : Contentons nous de montrer (2.2), les autres sont semblables. Par
dénition, le second membre de (2.2) est, en utilisant lentement la bilinéarité :
1
(B(x + y, x + y) − B(x, x) − B(y, y))
2
1
= (B(x, x + y) + B(y, x + y) − B(x, x) − B(y, y))
2
1
= (B(x, x) + B(x, y) + B(y, x) + B(y, y) − B(x, x) − B(y, y)) = B(x, y).
2
Donc QB détermine B .
Remarques : Cette étrange condition sur le corps K est faite pour avoir le droit de diviser
par 2 dans le corps : on ne peut le faire par exemple dans le corps à deux éléments. On dit
aussi que K n'est pas de caractéristique 2. Enn on peut dénir une forme quadratique
sur l'espace vectoriel E sur un corps K, (non de caractéristique 2) comme une fonction Q
sur E telle que BQ (x, y) = 12 (Q(x + y) − Q(x) − Q(y)) soit une forme bilinéaire. BQ est
52 CHAPITRE 2. ESPACES EUCLIDIENS
Résumé. Un espace euclidien E est un espace vectoriel de dimension nie sur le corps des
réels muni d'une fonction réelle sur E × E notée (x, y) 7→ hx, yi, appelée produit scalaire
et satisfaisant aux axiomes suivants
Pour tous x, y dans E on a hx, yi = hy, zi (Symétrie).
Pour tous λ et µ réels et pour tous x, y, z dans E on a hλx+µz, yi = λhx, yi+µhz, yi
(Bilinéarité).
Pour tout x 6= 0 on a hx, xi > 0 (Dénie-positivité).
Dans ces conditions, le nombre positif kxk déni par kxk2 = hx, xi est appelé norme de x
et on a les identités de polarisation et du parallélogramme
1 1
hx, yi = (kx + yk2 − kxk2 − kyk2 ) = (kx + yk2 − kx − yk2 ),
2 4
kx + yk2 + kx − yk2 = 2kxk2 + 2kyk2 .
Il est conseillé quand on manipule les normes dans un espace euclidien de les élever au
carré, les propriétés algébriques du carré de la norme euclidienne étant nombreuses.
Exercice 2.1. Soit E un espace euclidien et a ∈ E. Montrer que la fonction sur E dénie
par x 7→ kxk − 2ha, xi est minimum en a. Application : si a1 , . . . , an sont dans E trouver le
2
minimum de
x 7→ kx − a1 k2 + · · · + kx − an k2 .
Exercice 2.2. Soit E un espace euclidien. Montrer que pour tous x et y dans E et pour tout
λ ∈ [0, 1] on a
hp p i2 hp p i
QB (x) + QB (y) − QB (x + y) = 2 QB (x) QB (y) − B(x, y) ≥ 0. (3.4)
Il est clair qu'il y a égalité si et seulement si il y a égalité dans l'inégalité de Schwarz avec
B(x, y) ≥ 0. D'après 4), ceci est équivalent à l'armation du 5).
Reste à montrer le 3). Pour voir que F est un sous espace vectoriel, on constate
aisément que si λ est réel et si x est dans F alors QB (λx) = λ2 QB (x) = 0 et donc λx est
dans F. De même si x et y sont dans F, l'inégalité du triangle entraîne que x + y est dans
F, qui est donc un sous espace de E.
1. Pour tous x et y de E on a
|hx, yi| ≤ kxkkyk.
kx1 k+. . .+kxn−1 k+kxn k+kxn+1 k = kx1 +. . .+xn−1 +yk ≤ kx1 k+. . .+kxn−1 k+kyk. (3.5)
Donc kxn k + kxn+1 k ≤ kyk et donc kxn k + kxn+1 k = kxn + xn+1 k. D'après le cas n = 2 il
existe un vecteur v 6= 0 et λn , λn+1 ≥ 0 tels que xn = λn v et xn+1 = λn+1 v. Donc l'inégalité
dans (3.5) est devenue une égalité, à laquelle on applique l'hypothèse de récurrence. Il
existe donc un vecteur u 6= 0 est des scalaires λj et λ0n positifs ou nuls, et tels que xj = λj
avec j = 1, . . . , n − 1, et y = λ0n u. Si λ0n = 0, alors y = 0 et donc λn = λn+1 = 0. Si λ0n > 0,
on peut prendre évidemment u = v.
Exercice 3.2. Donner une autre démonstration de l'inégalité de Schwarz dans un espace
euclidien basée sur l'inégalité
2
x y
kxk kyk
≥ 0.
−
Exercice 3.3.
Pn Pn
Soient p1 , q1 , . . . , pn , qn des nombres > 0 tels que i=1 pi = i=1 qi = 1.
Montrer n
X
i p2
1≤ .
i=1
q i
√ √
Méthode : appliquer Cauchy- Schwarz à ai = pi / qi et bi = qi .
hx, yi = x1 y1 + x2 y2 + . . . + xq yq .
Existence. Il est impossible que gn = 0 car alors fn ∈ Fn−1 , ce qui contredit l'indépendance
de (f1 , . . . , fn ). On remarque alors que gn est orthogonal à Fn−1 . En eet pour j =
1, . . . , n − 1 on a
n−1
X
hgn , ej i = hfn , ej i − hfn , ek ihek , ej i = 0,
k=1
Il est clair que V est un sous espace de Fn et que V ∩ Fn−1 = {0}, car un vecteur de
cette intersection est orthogonal à lui même. Donc V et Fn−1 sont en somme directe et
Fn−1 ⊕ V ⊂ Fn . Toutefois dim V ≥ 1 puisque V contient en . Donc comme dim Fk = k on
a dim V = 1. Or si un autre e0n convenait, il serait dans V, de norme 1. Si e0n 6= en alors
e0n = −en , mais puisque hfn , e0n i = −hfn , en i < 0 la condition 2 n'est pas remplie. Donc
e0 n = en et l'unicité est montrée.
IV. PYTHAGORE, SCHMIDT, BESSEL 57
Notez que si e = ef , alors [idE ]fe est aussi triangulaire supérieure avec diagonale positive,
comme inverse d'une matrice de ce type.
La première conséquence du théorème est que tout espace euclidien a une base ortho-
normale (qu'on abréviera désormais par bon) : si E est un tel espace, en tant qu'espace
de dimension nie il a une base f , et la base de Schmidt ef est orthonormale. Ensuite,
ce théorème a plusieurs versions voisines. L'une d'entre elles part de f et fabrique g or-
thogonale telle que pour tout k (g1 , . . . , gk ) est une base de Fk et telle que gk − fk soit
dans Fk−1 . L'autre suppose que E est de dimension innie et part d'une suite f = (fk )k≥1
innie de vecteurs indépendants de E. . On fabrique alors une suite e = (fk )k≥1 avec les
propriétés 1) et 2) du théorème. Ceci est particulièrement utilisé quand E est l'espace des
polynômes à coecients réels, qu'on le munit d'un produit scalaire et qu'on applique le
théorème à la suite f = (fk )k≥0 dénie par f0 (X) = 1, f1 (X) = X, . . . , fk (X) = X k . Alors
ek est un polynôme de degré k. Ceci conduit à la riche théorie des polynômes orthogonaux.
Les ek dépendent du produit scalaire choisi. Un exemple fréquent est
Z ∞
hP, Qi = P (x)Q(x)f (x)dx
−∞
où f est une fonction positive, mais il y en a d'autres très diérents. Les polynômes
orthogonaux interviennent dans beaucoup de domaines, des mathématiques pures à la
physique.
Remarques : Donc la projection orthogonale pF (x) est aussi caractérisée par le fait que
c'est le vecteur de F qui minimise la distance entre x et F, et par le fait que x − pF (x) est
orthogonal à F. L'endomorphisme de E déni par x 7→ 2pF (x) − x est appelé la symétrie
orthogonale par rapport à F.
Démonstration : 1) 0 ∈ F ⊥ , qui est donc non vide. Si x et x1 sont dans F ⊥ et si λ et
λ1 sont dans R, alors pour tout y de F on a
et donc F ⊥ est bien un sous espace vectoriel. Ensuite, y dans F ∩ F ⊥ est orthogonal à lui
même et est donc nul. Enn soit f = (f1 , . . . , fn ) une bon de F. Notons alors
n
X
pF (x) = hfj , xifj ∈ F.
j=1
Alors x − pF (x) ∈ F ⊥ , car hfj , x − pF (x)i = 0 pour tout j = 1, . . . , n. Donc pour tout x
de E on a
x = (x − pF (x)) + pF (x) ∈ F ⊥ + F
et donc F ⊥ est un supplémentaire de F. De plus x 7→ pF (x) est la projection de x sur F
parallèlement à F ⊥ .
2) (a) ⇒ (c) : par dénition de pF . (c) ⇒ (a) : notons z = pF (x) − y0 ∈ F. Alors
1
kX − Y k2 = 2kXk2 + 2kY k2 − kX + Y k2 = 4(kXk2 − k (X + Y )k2 ) ≤ 0.
2
On en déduit que X = Y et donc que y0 = PF (x). Le théorème est montré.
IV. PYTHAGORE, SCHMIDT, BESSEL 59
Corollaire 4.4. (Inégalité de Bessel) Soit e = (e1 , . . . , en ) une suite orthonormale nie
d'un espace préhilbertien réel E , soit F le sous espace engendré par e et soit x dans E.
Alors n
X
2
kxk ≥ (hx, ej i)2 ,
j=1
Exercice 4.3. L'espace R5 est muni de sa structure euclidienne canonique. Soit E le sous
espace de R des (x1 , · · · , x5 ) tels que x1 + · · · + x5 = 0. E est donc également un espace
5
f~1 = (1, −1, 0, 0, 0), f~2 = (1, 0, −1, 0, 0), f~3 = (1, 0, 0, −1, 0), f~4 = (1, 0, 0, 0, −1)
forment une base f ordonnée. Calculer la base orthonormale de E associée à f par le procédé
de Schmidt.
60 CHAPITRE 2. ESPACES EUCLIDIENS
Exercice 4.4. Dans R2 , soient n points Pi = (xi , yi ), où les xi ne sont pas tous égaux.
et
Pnsoit D la droite2 d'équation y = ax + b, avec (a, b) 6= (0, 0). On veut trouver D tel que
i=1 (yi −axi −b) soit minimum (droite des moindres carrés). Pour cela on considère l'espace
euclidien E = Rn muni de son produit scalaire canonique et les trois vecteurs colonnes 1 X et
Y de E dénis par 1T = (1, . . . , 1), X T = (x1 , . . . , xn ), Y T = (y1 , . . . , yn ), et le sous espace
vectoriel F de E engendré par 1 et X . Quelle est la dimension de F ? Calculer en fonction
de X et Y les nombres a et b tels que Z = aX + b1 soit la projection orthogonale de Y sur
F. Dans le cas particulier où n = 4 et où P1 = (1, 3), P2 = (2, 4), P3 = (4, 3), P4 = (5, 6),
donner l'équation de la droite des moindres carrés.
Exercice 4.5. (Base de Schmidt du tétraèdre régulier). Une suite de vecteurs de l'espace
euclidien E (vk )nk=0 est dite régulière si v0 = 0 et si, pour 0 ≤ i < j ≤ n on a ||vi − vj ||2 = 1.
Montrer qu'alors (v1 , · · · , vn ) est une suite indépendante ( Méthode : calculer hvi , vj i). Montrer
qu'il existe des suites régulières. (Par exemple, dans un espace euclidien F de dimension n + 1
muni d'une base orthonormale f = (f~0 , · · · , f~n ), considérer vk = √12 (fk − f0 )). Soit (vk )nk=0
une suite régulière de l'espace euclidien E et soit e = (e1 , · · · , en ) la base de Schmidt associée
à (v1 , · · · , vn ). Montrer qu'il existe des nombres réels (a1 , · · · , an ) et (b1 , · · · , bn−1 ) tels que
pour tout k = 1, · · · , n on ait X
vk = ak ek + bi ei .
i<k
Pour montrer que b1 = c1 , . . . , bk−1 = ck−1 , montrer que vk+1 − vk est orthogonal à Fk−1 , le
sous espace engendré par v1 , · · · , vk−1 ). Calculer les (a1 , · · · , an ) et (b1 , · · · , bn−1 ). Méthode :
utiliser kvk k2 , hvk , vk+1 i et kvk+1 k2 pour montrer que
1
a2k+1 = 1 − .
4a2k
Exercice 4.6. Soit E un espace euclidien de dimension d+1. Soit H un sous espace vectoriel
de dimension d et soit (v0 , . . . , vd ) des vecteurs de H tels que hvi , vj i = −1 si i 6= j.
1. Montrer que dj=0 1+kv1 j k2 = 1. Méthode : soit u un vecteur de norme 1 orthogonal à H.
P
vi avec i = 0, . . . , d.
3. Si a et b sont des vecteurs
Pde E l'endomorphisme de E déni par x 7→ ahb, xi est
d vj ⊗vj
noté a ⊗ b. Montrer que j=0 1+kvj k2 = idH . Méthode : montrer au préalable que
idH = idE − u ⊗ u.
IV. PYTHAGORE, SCHMIDT, BESSEL 61
Exercice 4.8. On garde les notations et les hypothèses de l'exercice 4.7. Montrer que le
carré de la distance de 0 à l'hyperplan ane engendré par v1 , . . . , vd est égaleP
à p0 /(1 − p0 ).
d
(Méthode : tout point x de cet hyperplan ane étant de la forme x = i=1 λi vi avec
λ1 + · · · + λd = 1, montrer à l'aide de hvi , vj i = −1 puis de Cauchy-Schwarz que
d
2
X λ2 i 1
kxk = −1 + ≥ −1 +
i=1
pi 1 − p0
et que l'égalité est atteinte en x0 déni par λi = pi /(1 − p0 ) pour i = 1, . . . , d). Montrer
aussi que x0 et v0 sont colinéaires. En déduire par symétrie que les hauteurs du tétraèdre de
sommets v0 , . . . , vd passent toutes par 0. Autrement dit, fait exceptionnel, le tétraèdre a un
orthocentre, qui est ici 0.
Soit (fi )3i=1 une base ordonnée de l'espace euclidien de dimension 3 telle que kfi k2 = 1 pour
tout i et telle
P3 que si i 6= j on ait hfi , fj i ≥ 0. Soit (ei )i=1 la base de Schmidt engendrée, et
3
soit fj = i=1 bij ei . Est il vrai que bij soit toujours positif ?
62 CHAPITRE 2. ESPACES EUCLIDIENS
Exercice 4.11. Si p et q sont des entiers strictement positifs, on note par Jp,q la matrice à
p lignes et q colonnes dont tous les coecients sont égaux à 1. Soit a et b des réels. Le but
de l'exercice est de trouver le polynôme caractéristique de la matrice carrée d'ordre p + q
aJp,p bJp,q
M= .
bJq,p aJq,q
par choix d'une base adaptée. Soit E et F deux sous espaces vectoriels orthogonaux de l'espace
euclidien G tels que G = E ⊕ F. Soit e = (e1 , . . . , ep ) et f = (f1 , . . . , fq ) des bon de E et F
et soit g = e ∪ f. On note s = e1 + · · · + ep et t = f1 + · · · + fq et on dénit l'endomorphisme
m de G par m(ei ) = as + bt pour i = 1, . . . , p et m(fj ) = bs + at pour j = 1, . . . , q.
1. Montrer que M = [m]gg .
2. Si x ∈ E et y ∈ F montrer que
3. Soit e01 = √1p s et f10 = √1q t et soit e0 = (e01 , . . . , e0p ) et f 0 = (f10 , . . . , fq0 ) des bon de E
et F . Calculer les m(e0i ) et m(fj0 ) à l'aide du 2.
√
ap b pq
4. Soit la bon g 0 = (e01 , f10 , e02 , . . . , e0p , f20 , . . . , fq0 ) de G. Si S = √ montrer
b pq aq
g0 S 0
à l'aide du 3 que par blocs 2 × 2 et (p + q − 2) × (p + q − 2) on a [m]g0 = .
0 0
Calculer le polynôme caractéristique de S. En déduire le polynôme caractéristique de m
et de M.
Exercice 4.11. Soit U et V des sous espaces vectoriels de l'espace euclidien E, pas néces-
sairement orthogonaux mais en somme directe et tels que E = U + V. Soit p la projection
de E sur U parallèlement à V (c'est à dire que si x = u + v avec u ∈ U et v ∈ V alors
p(x) = u). Montrer que U et V sont orthogonaux si et seulement si pour tout x ∈ E on a
kp(x)k2 ≤ kxk2 . Méthode pour ⇐ : si il existait (u, v) ∈ U × V tel que 0 6= hu, vi considérons
V. DUAL ET ADJOINTS 63
V Dual et adjoints
Nous ne considérons plus les espaces préhilbertiens réels en général, mais seulement
les espaces euclidiens. Si E est un espace de dimension nie q sur un corps K , l'espace
E ∗ = L(E, K) des applications linéaires de E dans le corps de base est appelé le dual de E
et ses éléments sont appelés des formes linéaires. Puisque dim L(E, F ) = dim E × dim F,
on a donc dim E ∗ = dim E. Toutefois les deux espaces E et E ∗ sont isomorphes seulement
au sens où deux espaces de même dimension sur K le sont, sans que parmi les nombreux
isomorphismes possibles -paramétrés par les matrices carrées d'ordre q inversibles- l'un
d'entre se distingue et se montre plus utile4 . Quand K = R et que E est euclidien il en va
diéremment et il y a un isomorphisme canonique, c'est à dire plus naturel que les autres,
entre un espace euclidien et son dual :
Exemples. Si une bon e de E est donnée, et si f ∈ E ∗ est donné pour [x]e = [x1 , . . . , xq ]T
par
f (x) = a1 x1 + · · · + aq xq ,
alors le y ∈ E tel que f = Fy , c'est à dire y = ϕ−1 (f ), est donné par [y]e = [a1 , . . . , aq ]T .
Ce peut être plus pénible si une bon n'a pas été explicitée. Ainsi considérons le cas où E
est l'espace des polynômes réels de degré ≤ 2 muni du produit scalaire
Z 1
hP, Qi = P (x)Q(x)dx,
0
et considérons la forme linéaire f sur E dénie par f (P ) = P (2). Pour trouver le polynôme
R1
Q = ϕ−1 (f ) tel que pour tout p de E on ait P (2) = 0 P (x)Q(x)dx, on peut utiliser la base
non orthogonale dénie par e0 (x) = 1, e1 (x) = x, e2 (x) = x2 , noter Q(x) = q0 +q1 x+q2 x2 ,
et faire successivement P = e0 , e1 , e2 pour obtenir un systême linéaire en (q0 , q1 , q2 ) : la
proposition précédente garantit que c'est un systême de Cramer.
1 1 1 1 1 1 1 1
1 = q0 + q1 + q2 , 2 = q0 + q1 + q2 , 4 = q0 + q 1 + q2 .
2 3 2 3 4 3 4 5
Son déterminant est 1/2160. La solution est q0 = 57, q1 = −372, q2 = 390.
Proposition 5.2. Soit E et F deux espaces euclidiens. Alors pour tout a ∈ L(E, F ) il
existe un unique a ∈ L(F, E) appelé adjoint de a tel que pour tout x ∈ E et tout y ∈ F
∗
on ait
Remarques : L'énoncé ci dessus est compliqué par le fait qu'on ne suppose pas nécessai-
rement E = F. Par exemple, dans (2.3), il faut réaliser que le produit scalaire de gauche
est celui de F et celui de droite est celui de E. En principe, il n'y a pas d'ambiguité, mais
certains auteurs préfèrent écrire ha(x), yiF = hx, a∗ (y)iE . Le cas le plus important est celui
où E = F et où on parle d'adjoint d'un endomorphisme d'espace euclidien. Notez que
[a∗ ]ee = ([a]ee )T n'est pas vrai en général si e n'est pas une bon. Notez que l'adjoint d'un
produit d'endomorphismes n'est pas le produit des adjoints, mais le produit renversé.
5 Une notion d'adjoint pour des espaces quelconques qui généralise le cas euclidien est faite au chapitre
4. Elle est plus abstraite.
V. DUAL ET ADJOINTS 65
Exercice 5.1. L'espace vectoriel Rréel E des polynômes réels de degré ≤ n est muni de
1
la structure euclidienne hP, Qi = 0 P (t)Q(t)dt. Soit f la forme linéaire sur E dénie par
f (P ) = P (1/3). (a) Dans le cas où n = 1, trouver Q dans E tel que pour tout P de E on
ait f (P ) = hP, Qi. (b) Dans le cas d'un n quelconque, montrer l'existence et l'unicité d'un Q
dans E tel que pour tout P de E on ait f (P ) = hP, Qi.
Exercice 5.2. Soit a = (a0 , . . . , an ) ∈ Rn+1 tel que a0 6= 0. Soit E le sous espace de
l'espace R n+1
euclidien canonique formé par les suites x = (x0 , x1 , . . . , xn ) de réels tels que
a0 x0 + a1 x1 + · · · + an xn = 0. Quelle est la dimension de E? On considère la forme linéaire
g sur E dénie par g(x) = x0 . Trouver l'unique y = (y0 , y1 , . . . , yn ) dans E tel que pour
tout x ∈ E on ait g(x) = hx, yi (Voir Proposition 5.1. Méthode : Trouver le réel v0 tel que
v = (v0 , a1 , . . . , an ) soit dans E et chercher ensuite y sous la forme y = λv ). Application :
montrer que
x20 a20
max = 1 − .
x∈E\{0} kxk2 kak2
(Méthode : appliquer l'inégalité de Schwarz à x20 = hy, xi2 ).
Exercice 5.3. Soit y dans E euclidien et Fy (x) = hy, xi. Donc (Fy )∗ est une application
linéaire de R dans E qu'on demande de préciser en termes de y.
ka(x)k2 = ka∗ (x)k2 . Méthode pour ⇐ : en utilisant une identité de polarisation (Proposition
2.1) montrer que pour tous x et y ∈ E on a
ha(x), a(y)i = ha∗ (x), a∗ (y)i, hx, b(y)i = 0
puis choisir x = b(y). Autre méthode quand on a lu le Théorème spectral 9.1 plus bas : sans
polarisation, montrer que pour tout x ∈ E on a hx, b(x)i = 0 et utiliser le fait que b = b∗
pour voir que b est diagonalisable, puis en déduire b = 0 (Comparer cet exercice avec le Th.
3.1 du chapitre 3).
Exercice 5.5. Soit U et V des sous espaces vectoriels de l'espace euclidien E, pas néces-
sairement orthogonaux mais en somme directe et tels que E = U + V. Soit p la projection
de E sur U parallèlement à V. On veut décrire p∗ . Montrer que U ⊥ ∩ V ⊥ = {0} et, par un
argument de dimension, que U ⊥ + V ⊥ = E. Montrer que pour tout u ∈ U , v ∈ V et x ∈ E
on a hu + v, p∗ (x)i = hu, xi et donc
hu, x − p∗ (x)i = hv, p∗ (x)i.
66 CHAPITRE 2. ESPACES EUCLIDIENS
En déduire que les deux membres sont nuls. De l'égalité x = p∗ (x) + (x − p∗ (x) déduire que
p∗ est la projection sur V ⊥ parallèlement à U ⊥ . Montrer que p = p∗ si et seulement si U et
V sont orthogonaux.
k2pF (x) − xk2 = kpF (x)k2 + kpF (x) − xk2 = kpF (x)k2 + kx − pF (x)k2 = kxk2 .
Avec [x]e = [x1 , . . . , xq ] et [y]e = [y1 , . . . , yq ] on a puisque les bases sont orthonormales
q q q q
X X X X
ha(x), a(y)i = ha( xi ei ), a( yj ej )i = xi yj ha(ei ), a(ej )i.
i=1 j=1 i=1 j=1
Comme
Pq la base a(e) est orthogonale alors (ha(ei ), a(ej )i) = Iq et on en tire ha(x), a(y)i =
i=1 xi yi = hx, yi. Le théorème est démontré.
Corollaire 6.2. Si E est euclidien, alors O(E) est un sous groupe (appelé groupe or-
thogonal de E ) pour la composition du groupe GL(E) des automorphismes de E (appelé
groupe linéaire de E ). De plus, si a ∈ O(E) alors det a = ±1 et les seules valeurs propres
de a sont ±1. Enn, si O+ (E) est l'ensemble des a ∈ O(E) tels que det a = 1 (appelés
rotations) et si O− (E) est l'ensemble des a ∈ O(E) tels que det a = −1 alors O+ (E) est
un sous groupe de O(E) (appelé groupe spécial orthogonal de E et aussi noté SO(E)),
et pour a xé dans O− (E) l'application de O− (E) dans O+ (E) dénie par b 7→ ab est
bijective.
Démonstration : a et b dans O(E) implique (ab)∗ = b∗ a∗ = b−1 a−1 = (ab)−1 et donc
ab ∈ O(E). Ensuite, idE ∈ O(E) trivialement. Enn a ∈ O(E) implique (a−1 )∗ = (a∗ )∗ =
a = (a∗ )−1 et donc a−1 ∈ O(E). Donc O(E) est bien un sous groupe de GL(E). Ensuite,
si a ∈ O(E), alors aa∗ = idE entraîne det a det a∗ = 1 et donc (det a)2 = 1. Si a ∈ O(E)
toujours, et si λ est une valeur propre de a, soit v 6= 0 un vecteur propre associé. Puisque
a(v) = λv et que a conserve la norme on a λ2 kvk2 = ka(v)k2 = kvk2 et donc en simpliant
par le nombre non nul kvk2 on a λ2 = 1 et λ = ±1. Il est clair que O+ (E) est un sous
groupe de O(E) (et que O− (E) n'est pas un). Enn, si a ∈ O− (E) et b ∈ O− (E) il est clair
que ab ∈ O+ (E). Cette application b 7→ ab de O− (E) dans O+ (E) est injective puisque
ab = ab0 entraîne b = b0 par multiplication à gauche par a−1 . Elle est surjective, car si
c ∈ O+ (E) alors b = a−1 c est dans O− (E) et donc ab = c.
Dénition 6.1. Une matrice carrée réelle A est dite orthogonale si elle est inversible et
si A−1 = AT . L'ensemble des matrices orthogonales d'ordre q est noté O(q), l'ensemble
des matrices orthogonales d'ordre q à déterminant positif est noté O+ (q) ou SO(q) et
l'ensemble des matrices orthogonales d'ordre q à déterminant négatif est noté O− (q).
Commentons cette dénition. D'après le cours de première année, la dénition A−1 =
AT des matrices orthogonales est équivalente à chacune des propriétés suivantes
AAT = Iq , AT A = Iq .
Si A = (aij )1≤i,j≤q , alors AAT = Iq est équivalent à
q
X
aik ajk = 0 si i 6= j
k=1
= 1 si i = j. (6.10)
C'est dire que si on considère les lignes de la matrice A comme des vecteurs de Rq muni
de sa structure euclidienne et de sa bon canonique, alors ces lignes forment une autre bon
68 CHAPITRE 2. ESPACES EUCLIDIENS
C'est dire que si on considère les colonnes de la matrice A comme des vecteurs de Rq ,
alors ces colonnes forment une autre bon de Rq .
Théorème 6.3. Soit E un espace euclidien de dimension q et soit A une matrice carrée
réelle d'ordre q. Alors les propriétés suivantes sont équivalentes :
1. A ∈ O(q).
2. Il existe une bon e de E et a ∈ O(E) tels que [a]ee = A.
3. Pour toute bon e de E il existe a ∈ O(E) tel que [a]ee = A.
4. Il existe deux bon e et f de E telles que [idE ]ef = A.
5. Pour toute bon e de E il existe une bon f de E telle que [idE ]ef = A.
6. Pour toute bon f de E il existe une bon e de E telle que [idE ]ef = A.
Remarque : La philosophie de ce théorème est que les matrices orthogonales ont deux
interprétations bien distinctes :
Elles sont les matrices représentatives des endomorphismes orthogonaux dans une
base orthonormale ; de cela il découle du Corollaire 6.2 que O(q) et SO(q) sont des
groupes, et qui sont isomorphes à O(E) et SO(E) si dim E = q.
Elles sont les matrices de passage d'une bon vers une autre.
Corollaire 6.4. Soit M une matrice carrée inversible d'ordre q. Alors il existe un couple
unique (A, T ) avec A ∈ O(q) et T matrice triangulaire supérieure à diagonale positive tel
que M = AT. Mêmes armations avec M = T A.
Remarques : C'est une proposition fort utile en analyse numérique, qui relie Schmidt
et O(q). En prenant des transposées dans le résultat précédent on obtient un résultat
analogue avec les triangulaires inférieures. En écrivant dans le résultat précédent T = DN
VI. LE GROUPE ORTHOGONAL, LES MATRICES ORTHOGONALES 69
Proposition 6.5. Soit a ∈ O(E) et F un sous espace de E stable par a, c'est à dire tel
que a(F ) ⊂ F. Alors a(F ) = F et a(F ⊥ ) = F ⊥ .
Proposition 6.6. (Déterminant d'un système de vecteurs dans un espace euclidien orienté).
Soit E un espace euclidien orienté de dimension q. Soit v = (v1 , . . . , vq ) une suite de q
vecteurs et soit e une bon directe. Alors le nombre
det([v1 ]e , . . . , [vq ]e )
P (v) = {x = λ1 v1 + · · · + λq vq ; 0 ≤ λj ≤ 1, j = 1, . . . , q},
alors le nombre | det([v1 ]e , . . . , [vq ]e )| est appelé le volume de P (v). Si q = 2 on voit facile-
ment en partitionnant le parallélogramme P (v) en un triangle plus un trapèze que ceci est
70 CHAPITRE 2. ESPACES EUCLIDIENS
l'aire d'un rectangle convenable. Si q = 3 le fait que | det([v1 ]e , [v2 ]e , [v3 ]e )| soit le volume
au sens intuitif de la physique est en fait plus dicile à justier rigoureusement et relève
de la troisième année d'université. Le nombre relatif det([v1 ]e , . . . , [vq ]e ) est appelé volume
algébrique de P (v), une notion que nous n'allons pas approfondir puisqu'elle nécessite de
dénir une orientation de P (v).
Démonstration : Si f est une autre bon directe, soit P = [idE ]ef la matrice de changement
de base. Alors det P > 0 car e et f ont même orientation, P ∈ O(q) car e et f sont des
bon et le Théorème 6.3 s'applique. Donc det P = 1. Ensuite pour tout x de E on a
[x]e = [idE ]ef [x]f = P [x]f . Par conséquent, en écrivant la matrice carrée des vecteurs
colonnes [vj ]e on a
[[v1 ]e , . . . , [vq ]e ] = [P [v1 ]f , . . . , P [vq ]f ] = P [[v1 ]f , . . . , [vq ]f ],
det([v1 ]e , . . . , [vq ]e ) = det P det([v1 ]f , . . . , [vq ]f ) = det([v1 ]f , . . . , [vq ]f ).
Voici pour terminer une curiosité sans grand intérêt qu'adorent les jurys de concours :
la caractérisation des endomorphismes orthogonaux sans hypothèse de linéarité :
Proposition 6.7. Soit E un espace euclidien et a une application de E dans E telle que
a(0) = 0 et telle que pour tous x et y de E on ait
ka(x) − a(y)k2 = kx − yk2 .
Alors a ∈ O(E).
Exercice 6.1. Trouver les nombres réels a, b, c, pour que la matrice suivante
−1
√1 √ a
3 2
U = √1 √1 b
3 2
√1 0 c
3
VI. LE GROUPE ORTHOGONAL, LES MATRICES ORTHOGONALES 71
soit dans SO(3), c'est à dire telle que U soit orthogonale de déterminant positif.
Exercice 6.2. (Suites stationnaires dans un espace euclidien) Soit E un espace euclidien de
dimension q et soit (bn )n∈Z une suite de E indexée par l'ensemble Z des entiers relatifs non
concentrée sur un sous espace ane de E , c'est à dire qu' il existe n0 < n1 < n2 < . . . < nq
tels que (bn1 − bn0 , . . . , bnq − bn0 ) est une base de E . On suppose qu'il existe u ∈ O(E) et
t ∈ E tels que si f est la transformation ane de E dénie par f (x) = u(x) + t alors pour
tout n ∈ Z on a bn = f n (b0 ). Montrer que c'est équivalent au fait que pour tout k ∈ Z le
nombre ψ(k) = kbn+k − bn k2 ne dépend pas de n ∈ Z. Montrer dans ces conditions qu'il
existe des nombres p0 , p1 , . . . , pr ≥ 0 et des nombres réels θ1 , . . . , θr tels que
r
X
ψ(k) = k 2 p0 + (1 − cos kθj )pj .
j=1
Exercice 6.3. Soit F un sous espace vectoriel d'un espace euclidien E et soit sF la symétrie
orthogonale par rapport à F. Si e est une bon contenue dans F ∪ F ⊥ calculer [sF ]ee et montrer
que −sF = sF ⊥ .
Exercice 6.4. Soit a un endomorphisme de l'espace euclidien tel que kxk ≤ kyk entraine
ka(x)k ≤ ka(y)k. Montrer qu'il existe u ∈ O(E) et λ ∈ [0, 1] tels que a = λu. Méthode :
montrer que kxk = kyk entraine ka(x)k = ka(y)k et que λ = ka(x)k/kxk ne dépend pas de
x. Si λ > 0 montrer que x 7→ a(x)/λ est orthogonal.
Exercice 6.6. Soit H le sous espace de l'espace R3 euclidien canonique déni par H = {x =
(x1 , x2 , x3 ) ; x1 + x2 + x3 = 0} et soit f l'endomorphisme de H déni par
1
f (x) = f (x1 , x2 , x3 ) = √ (x1 − x2 , x2 − x3 , x3 − x1 ).
3
De plus
1 = det a = αδ − βγ = cos(θ − θ1 ),
et donc θ = θ1 mod 2π : donc [a]ee = R(θ). Au passage, nous venons de montrer que si P
est une matrice orthogonale de SO(2) alors il existe un nombre t tel que P = R(t).
Observons ensuite que R(θ)R(θ0 ) = R(θ + θ0 ) par les formules de trigonométrie. Si
alors f est une autre bon directe, alors P = [idE ]ef est dans SO(2) et il existe un réel t tel
que P = R(t). Donc P −1 = R(−t) et
Finalement, si f = (f1 , f2 ) est une bon indirecte alors e = (f1 , −f2 ) est une bon directe
et donc
f f e e 1 0 1 0
[a]f = [idE ]e [a]e [idE ]f = R(θ) = R(−θ).
0 −1 0 −1
Remarques : Il n'y pas tout à fait unicité de (p, n, r) avec l'énoncé précédent puisque
I2 = R(0) et −I2 = R(π). On pourrait arriver à cette unicité en imposant que les θj
soient dans ]0, π[ mais nous ignorons ce ranement, laissé en exercice. L'énoncé montre
que SO(E) est connexe par arcs, un terme déni dans le cours d'analyse : si a ∈ SO(E)
soit b ∈ L(E) tel que b∗ = −b (on dit que b est antisymétrique) et tel que a = eb . Soit
at = ebt . Alors t 7→ at est une application continue de [0, 1] dans SO(E), ce qui conduit
facilement à la connexité annoncée.
0 −1
utilise l'exemple 9.1 du chapitre 1 qui dit que si A = alors exp(θA) = R(θ).
1 0
Donc pour a ∈ SO(E) on peut écrire dans une certaine bon e
En particulier, cos θ = 21 (trace a−1). Si a ∈ O− (E) alors −1 est valeur propre. Si e3 est tel
que a(e3 ) = −e3 alors il existe un nombre θ tel que pour toute bon directe e = (e1 , e2 , e3 )
on ait
e R(θ) 0
[a]e = .
0 −1
Alors pour tout A ∈ SO(3) il existe trois nombres (ψ, θ, ϕ) tels que A = P (ϕ)Q(θ)P (ψ).
Remarques : L'angle ψ est dit de précession, l'angle θ est dit de nutation et l'angle ϕ
est dit de rotation propre. Ce sont les trois angles d'Euler d'une rotation, qui fournissent
le paramétrage de SO(E) qu'utilisent les mécaniciens. La construction ci dessus montre
que ces angles ne sont pas tout à fait uniques, mais on peut les rendre uniques si on
reste pour A dans un voisinage de I3 assez petit. Ce paramétrage en fait ne renseigne pas
directement sur l'axe de rotation et l'angle de rotation.
Exercice 7.1. Soit D et D0 deux droites vectorielles d'un plan euclidien orienté E. Soit ~u et
u~0 des vecteurs de norme 1 qui engendrent D et D0 , et on suppose que (~u, u~0 ) est une base
directe. On note h~u, u~0 i = cos α, avec 0 < α < π. Soit sD et sD0 les symétries orthogonales
par rapport à D et D0 . (a) Calculer l'angle des rotations sD ◦ sD0 et sD0 ◦ sD par rapport à
α. (b) Soit pD et pD0 les projections orthogonales sur D et D0 . Soit e1 un vecteur de norme
1 proportionnel à u + u0 . Soit e2 orthogonal à e1 de norme 1, et soit la bon e = (e1 , e2 ).
Exprimer [pD ]ee et [pD0 ]ee . Montrer que ±(pD − pD0 )/ sin α sont des symétries orthogonales par
rapport aux droites R(e1 ± e2 ), les bissectrices des axes engendrés par e1 et e2 .
a b
Exercice 7.2. Soit E l'espace vectoriel sur R des matrices x = c d réelles (2, 2). On
note par x∗ la transposée de x. On note par P+ le sous espace vectoriel de E formé des x tels
que d = a et c = −b, et par P− le sous espace vectoriel de E formé des x tels que d = −a et
c = b. On note par O+ le sous groupe du groupe orthogonal O(2) des x tels que det x = 1.
On note par O− le sous ensemble du groupe orthogonal O(2) des x tels que det x = −1.
Montrer que hx, x0 i = trace (x∗ x0 ) est un produit scalaire sur E, qu'on considère désormais
comme un espace euclidien de dimension 4. Montrer que P+ et P− sont orthogonaux et que
76 CHAPITRE 2. ESPACES EUCLIDIENS
√
E = P+ ⊕ P− . Soit S la sphère de E centrée en 0 et de rayon 2. Montrer que O+ = S ∩ P+
et que O− = S ∩ P− .
Exercice 7.5. L'endomorphisme orthogonal du plan H de l'exercice 6.6 est-il une symétrie
orthogonale ? (méthode : chercher s'il y a des vecteurs propres).
En particulier
i ∧ j = k, j ∧ k = i, k ∧ i = j. (8.13)
4. hu ∧ v, ui = 0 et hu ∧ v, vi = 0.
5. Si u 6= 0 et v 6= 0, soit θ l'angle entre u et v, c'est à dire le nombre de [0, π] déni
par θ = arccos(hu, vi/(kukkvk). Alors ku ∧ vk2 = kuk2 kvk2 sin2 θ.
6. Double produit vectoriel : (u ∧ v) ∧ w = hu, wiv − hv, wiu.
7. Si u et v sont indépendants, alors (u, v, u ∧ v) est une base directe.
6 Noté u×v et appelé cross product dans les ouvrages anglo-saxons.
VIII. PRODUIT VECTORIEL EN DIMENSION 3 ET QUATERNIONS 77
Une autre méthode plus rapide, mais moins symétrique consiste à choisir d'abord la bon
directe e = (e1 , e2 , e3 ) en fonction de u et v en posant u = ae1 et v = xe1 + ye2 comme
dans le procédé de Schmidt. Alors [u ∧ v]e = [0, 0, ay]T et le calcul ci dessus est très
facile. C'est cette méthode que nous suivons pour le 6) : Si u = ae1 , v = xe1 + ye2 et
w = Xe1 + Y e2 + Ze3 . Alors
[hu, wiv − hv, wiu]e = [aXx, aXy, 0]T − [(xX + yY )a, 0, 0]T = [−ayY, ayX, 0]T .
De même pour le 7), avec u = ae1 , v = xe1 + ye2 alors ay 6= 0 si u et v sont indépendants,
et il est clair que f = (u, v, u ∧ v) est une base puisque, d'après le 4) le vecteur u ∧ v
est orthogonal au plan engendré par u et v . Comme [idE ]ef est triangulaire supérieure
de diagonale (a, y, ay) son déterminant a2 y 2 est > 0 et f est directe : la proposition est
montrée.
Enn, si θ = kuk > 0, si f = (f1 , f2 , f3 ) est une bon directe telle que f3 = u/θ, alors on a
R(θ) 0
[exp ϕu ] = ,
0 1
Démonstration : D'après la Proposition 8.1, partie 1), ϕu est bien linéaire. Calculons
son adjoint :
hv, ϕ∗u (w)i = hϕu (v), wi = det(u, v, w) = − det(u, w, v) = −hϕu (w), vi = −hv, ϕu (w)i.
Donc ϕ∗u = −ϕu et ϕu est bien antisymétrique. La Proposition 8.1 partie 3) montre que
[ϕu ]ee a bien la forme indiquée en (8.14). Il est clair que u 7→ ϕu est linéaire de E dans A
et que toute matrice rélle (3, 3) antisymétrique a la forme du second membre de (8.14).
Donc dim A = 3 et u 7→ ϕu est un isomorphisme.
Ensuite,
si la bon f est comme indiquée, alors [a, b, c]T = [0, 0, θ]T , avec θ = kuk. Si
0 −1
A= alors (8.14) devient [ϕu ]ee = diag[θA, 1] et avec l'exemple 9.1 du chapitre
1 0
1 qui arme exp(θA) = R(θ), on a le résultat annoncé.
Corollaire 8.3. Soit E euclidien orienté de dimension 3 et u ∈ E tel que θ = kuk > 0.
Soit a = exp ϕu et v ∈ E déni par ϕv = a − a∗ . Alors v = 2 sinθ
θ
u. En particulier si
θ 6≡ π/2 mod π, u est proportionnel à v.
Remarque. L'intérêt du corollaire est qu'il permet de calculer rapidement l'axe de ro-
tation d'un élément a ∈ SO(E) quand celui ci est connu par sa matrice représentative
A = [a]ee dans une bon directe quelconque, et d'avoir avec kvk = 2| sin θ| un renseigne-
ment partiel sur l'angle de rotation. En eet le vecteur v dans la base e est donné par
[v]e = [a, b, c]T avec
0 −c b
A − AT = c 0 −a .
−b a 0
Expliquons maintenant le lien qui existe entre ces questions et l'axe instantané de
rotation des mécaniciens. Quand on considère le mouvement d'un solide gardant un point
xe O dans l'espace euclidien E à trois dimensions, on considère en fait une application
continuement dérivable t 7→ at d'un intervalle [0, t1 ] dans SO(E) telle que a0 = idE . Si on
veut, si s est une bon directe attachée au solide, soit et la position de s à l'instant t. C'est
encore une bon directe, le mouvement du solide se faisant sans déformation et de facon
continue. L'endomorphisme orthogonal at est déni par at (e0 ) = et .
Pour terminer cette section sur les liens entre le produit vectoriel et le groupe des rotations
en dimension 3, nous présentons l'algèbre des quaternions, qui sert en particulier à para-
métrer SO(3) et SO(4) comme on va le voir au Théorème 8.6. Nous dénissons l'algèbre
H des quaternions comme un espace euclidien orienté de dimension 4 dans lequel on a
sélectionné un vecteur de norme 1 appelé unité et noté 1. On note alors E l'espace de
dimension 3 orthogonal à 1. On oriente enn E de sorte que (1, e) soit une base directe de
H si e est une base directe de E. On identiera H = R1 ⊕ E avec (R, E) et nous noterons
alors les éléments x de H par x = (x0 , ~x) avec <x = x0 ∈ R et ~x ∈ E. Cette notation est
plus commode que x = x0 1 + ~x pour les calculs. Le produit scalaire dans E sera noté par
~x · ~y si bien que le produit scalaire dans H est
Les quaternions de la forme (x0 , 0), c'est à dire les multiples de 1 sont dits réels, les
quaternions de la forme (0, ~x) sont dits purs. Le quaternion x = (x0 , −~x) est dit conjugué
de x = (x0 , ~x). On dénit enn le produit des quaternions x = (x0 , ~x) et y = (y0 , ~y ) par
De plus, si
a b
A= ; a, b ∈ C
−b a
alors l'application x 7→ A(x) de H dans A dénie par
~ x0 + ix1 i(x2 + ix3 )
~ ~
A(x0 1 + x1 i + x2 j + x3 k) = (8.17)
i(x2 − ix3 ) x0 − ix1
est un isomorphisme d'algèbres, c'est à dire que A est linéaire bijective et A(xy) =
A(x)A(y).
la dernière égalité étant héritée des propriétés du produit mixte (pour la composante réelle)
et de la formule du double produit vectoriel de la Proposition 8.1 (pour la composante
quaternions purs). Pour passer au cas général, on observe que 1) est trivial si un des
(x, y, z) est un quaternion réel, ce qui permet de constater facilement que (xy)z − x(yz) =
(~x~y )~z − ~x(~y~z) = 0.
Pour le 2) rappelons que d'après la Proposition 8.2
Donc
kxyk2 = (x0 y0 − ~x · ~y )2 + x20 |~y k2 + y02 |~xk2 + 2x0 y0~x · ~y + k~x ∧ (~y k2
= (x20 + |~xk2 )(y02 + |~y k2 ) = kxk2 kyk2 .
VIII. PRODUIT VECTORIEL EN DIMENSION 3 ET QUATERNIONS 81
Théorème 8.6. Soit S la sphère unité de l'algèbre H des quaternions et soit E l'ensemble
des quaternions purs. Alors
1. S est un groupe pour la multiplication.
2. Si s ∈ S alors E est stable pour x 7→ sxs−1 . Si ϕs est la restriction de x 7→ sxs−1 à
E alors s 7→ ϕs est un homomorphisme surjectif du groupe S sur le groupe SO(E)
de noyau ±1.
3. Si s et t sont dans S et si ψs,t (x) = sxt−1 alors (s, t) 7→ ψs,t est un homomorphisme
surjectif du groupe8 S × S sur le groupe SO(H) de noyau ±(1, 1).
Démonstration : Le 1) est évident avec la Proposition 8.5. Pour le 2), on observe que
x 7→ sxs−1 est dans O(H) puisque linéaire et puisque préservant la norme (d'après le 2) de
la Proposition 8.5). De plus s1s−1 = 1 et donc R1 est stable. Donc d'après la Proposition
6.5 son orthogonal E est stable. La restriction ϕs à E est donc un élément de O(E).
Explicitement :
ϕs (~x) = (s20 − k~sk2 )~x + 2s0 (~s ∧ ~x) + 2(~s · ~x)~s. (8.18)
Si ~s = ~0 alors s = ±1 et ϕs = idE . Si ~s 6= ~0 et si e = (i, j, k) est une bon directe de E
telle que k = ~s/k~sk, alors
[ϕs ]2e = diag(R(θ), 1) (8.19)
avec cos θ = s20 − k~sk2 et sin θ = 2s0 k~sk, et det ϕs = 1 est clair. En fait, (8.18) et (8.19)
permettent de voir que tout élément a de SO(E) est de la forme ϕs pour un s ∈ S
convenable. En eet si a ∈ SO(E) alors il existe une bon directe e = (i, j, k) telle que
[a]ee = diag(R(θ), 1) pour un θ ∈ [0, 2π[. On prend alors α = θ/2 et s = (cos α, k sin α).
Enn s 7→ ϕs est un homomorphisme car
On a vu qu'il est surjectif. Son noyau est l'ensemble des s ∈ S tels que s~xs−1 = ~x pour
tout ~x ∈ E c'est à dire tels que ~s ∧ ~x = ~0 pour tout ~x ∈ E. Ceci n'est possible que si
~s = ~0, c'est à dire si s = ±1. La partie 2) est donc montrée.
Pour le 3) il est clair que ψs,t est dans O(H) par le 2) de la Proposition 8.7. Pour
voir que det ψs,t = 1 on peut écrire ψs,t = ψs,1 ◦ ψ1,t , calculer la matrice représentative de
ψs,1 dans une bon (1, i, j, k) telle que ~s est proportionnelle à k et calculer le déterminant
de cette matrice d'ordre 4 pas trop compliquée. On procède ensuite de même pour ψ1,t .
Toutefois une méthode moins élémentaire mais plus rapide utilise la connexité : il est clair
que s 7→ det ψs,1 est une application polynomiale, donc continue sur S. La sphère unité
d'un espace euclidien étant une partie connexe par arc, l'ensemble des valeurs prises sur
8 muni du produit (s, t)(s1 , t1 ) = (ss1 , tt1 ).
82 CHAPITRE 2. ESPACES EUCLIDIENS
S par s 7→ det ψs,1 est connexe. Cet ensemble est une partie de {−1, 1}, et il contient 1
comme on le voit en faisant s = 1. Il est donc réduit au singleton {1} et donc ψs,1 ∈ SO(H).
Le point plus ingénieux de la démonstration est de montrer que tout élément a de
SO(H) est de la forme ψs,t pour quelque (s, t) de S × S. Pour cela on note r = a(1), qui
est de norme 1. On introduit ensuite b = ψr,1 ∈ SO(H). Alors b−1 a est dans SO(H) et
préserve 1. Donc sa restriction à E est un élément de SO(E). D'après le 2) il existe donc
t ∈ S tel que b−1 a(x) = txt−1 , ce qui montre que a = ψrt,t . Vérier que (s, t) 7→ ψs,t est
bien un homomorphisme de S × S dans SO(H) est facile. Pour voir que ψs,t = idH si et
seulement si (s, t) = ±(1, 1), on exploite sx = xt pour tout x ∈ H en faisant x = s−1 ce
qui montre t = s. Le 2) permet de conclure.
√
Exercice 8.1. Si c = 1/ 2 soit la matrice de SO(3) suivante
−c c2 c2
A = c c2 c 2 .
0 c c
A l'aide du corollaire 8.3 donner l'axe de rotation dans R3 correspondant. A l'aide du corollaire
7.3 donner le cosinus de l'angle de rotation correspondant.
Exercice 8.4. Soit (~i, ~j, ~k) une bon directe de l'espace des quaternions purs. Montrer que
pour tout quaternion x on a
1
x = − (x + ~ix~i + ~jx~j + ~kx~k)
2
1
±1, ±~i, ±~j, ±~k, (±1 ± ~i ± ~j ± ~k)
2
forment un sous groupe G du groupe multiplicatif S. Ecrire les 12 matrices des rotations de
l'espace E des quaternions purs dans la base (~i, ~j, ~k) qui sont l'image de G par l'application
s 7→ ϕs du théorème 8.6 partie 2. Soit G1 l'image de G . Montrer que si on note
Exercice 8.7. Imiter l'exercice 8.6 quand le tétraèdre est remplacé par le cube C dont les
huit sommets sont ±~i±~j ±~k. On admet que le groupe I(C) des isométries g de E qui préserve
C est ici formé des 48 g dont la matrice représentative dans la base (~i, ~j, ~k) est de la forme
P D où P est une des 6 matrices de permutation de 3 éléments et D = diag(±1, ±1, ±1).
Le sous groupe G1 formé des seules rotations a donc 24 éléments. Trouver les 48 éléments du
sous groupe G de S tel que G1 soit l'image de G par l'homomorphisme s 7→ ϕs . Méthode :
utiliser la formule 8.18 pour trouver les deux s de S tels que ϕs = g.
Théorème 9.1. Soit a ∈ L(E) avec E euclidien tel que a soit symétrique. Alors
1. Si F est un sous espace vectoriel de E tel que a(F ) ⊂ F, alors a(F ⊥ ) ⊂ F ⊥ . En
particulier, les espaces propres sont deux à deux orthogonaux.
2. Il existe une bon e telle que [a]ee soit diagonale.
3. On a ha(x), xi ≥ 0 pour tout x ∈ E si et seulement si les valeurs propres de a sont
≥ 0.
4. On a ha(x), xi > 0 pour tout x ∈ E \ {0} si et seulement si les valeurs propres de a
sont > 0.
Corollaire 9.2. Soit A une matrice réelle symétrique d'ordre q. Alors il existe des ma-
trices diagonale D et orthogonale P d'ordre q telles que A = P DP −1 = P DP T .
1 e
P = [idE ]ef = c . L'égalité A = [a]ee = [idE ]ef [a]ff [idE ]fe = P AP −1 = P AP T se
−et 1
traduit par
IX. ENDOMORPHISMES SYMÉTRIQUES, POSITIFS ET DÉFINIS POSITIFS 85
0 1 c −cet et 0 c cet
= .
1 et − e−t cet c 0 −e−t −cet c
Dénition 9.1. Un endomorphisme symétrique a de l'espace euclidien est dit positif s'il
satisfait la propriété suivante : pour tout x ∈ E on a ha(x), xi ≥ 0. Il est dit déni-positif
s'il satisfait la propriété suivante : pour tout x ∈ E \ {0} on a ha(x), xi > 0. Une matrice
symétrique A d'ordre q est dite positive9 si elle satisfait la propriété suivante : pour tout
X ∈ Rq on a X T AX ≥ 0. Elle est dite dénie-positive si elle satisfait la propriété suivante :
pour tout X ∈ Rq \ {0} on a X T AX > 0.
Remarques. Il est clair que si a est symétrique et si e est une bon, alors A = [a]ee est
positive ou dénie positive en même temps que a. Par le Théorème 9.1 parties 3) et
4), l'endomorphisme symétrique a (ou la matrice A = [a]ee ) est positif si et seulement
si ses valeurs propres sont toutes ≥ 0, et il est déni-positif si et seulement si ses va-
leurs propres sont toutes > 0. Ces propriétés caractéristiques sont parfois prises comme
dénition par certains auteurs. Une matrice positive n'a pas nécessairement ses coe-
2 −1
cients ≥ 0 : exemple . Une matrice symétrique à coecients positifs n'est pas
−1 3
1 2
nécessairement positive : exemple .
2 3
Voici un ensemble de propriétés simples des endomorphismes positifs et dénis positifs.
5. Si a ∈ L(E, F ) alors aa∗ dans L(F ) et a∗ a dans L(E) sont symétriques positives.
De même si A est une matrice réelle alors AAT et AT A sont positives.
6. Si a ∈ GL(E) alors aa∗ et a∗ a sont symétriques dénis positifs. De même si A est
carrée inversible, AAT et AT A sont symétriques dénies positives.
et un tel a est donc bien symétrique (car diagonalisable en bon) et déni positif car à
valeurs propres >0. Le 4) ⇒ est analogue. En fait b est unique : voir exercice 10.6. Le 6)
découle du 3) et du 5).
Voici des caractérisations des matrices positives et des matrices dénies-positives.
Théorème 9.4. Soit A = (aij )1≤i,j≤q et B des matrices carrées symétriques réelles
d'ordre q. On pose Ak = (aij )1≤i,j≤k pour k = 1, . . . q et AS = (aij )i,j∈S pour S ⊂
{1, . . . , q}. On suppose qu'il existe une matrice inversible P d'ordre q telle que A = P T BP.
Alors
1. On suppose que A est positive. Alors AS est positive pour tout S. En particulier
aii ≥ 0, et si aii = 0 alors aij = aji = 0 pour tout j. De plus B est positive.
2. Si A est dénie- positive alors AS est dénie-positive pour tout S. En particulier les
éléments de la diagonale de A sont > 0. De plus B est dénie-positive.
3. A est dénie-positive si et seulement si det Ak > 0 pour tout k = 1, . . . q.
4. A est positive si et seulement si det AS ≥ 0 pour tout S ⊂ {1, . . . , q}. Le rang de A
est alors le maximum des S tels que det AS > 0.
5. A est positive si et seulement si le polynôme
Ip A−1 B
A B Ip 0 A 0
= . (9.21)
BT C B T A−1 In 0 C − B T A−1 B 0 In
Ip A−1 B
A B
D'après les 1) et 2) appliqués à P = , la matrice T est positive
0 In B C
A 0
(respectivement dénie positive) si et seulement si la matrice est
0 C − B T A−1 B
positive (respectivement dénie positive).
Nous montrons le résultat 3) ⇐ par récurrence sur q. C'est trivial pour q = 1. Si c'est
vrai pour q − 1, alors Aq−1 est inversible et (9.21) est applicable, avec p = q − 1 et n = 1 :
Ip A−1
Aq−1 b Iq−1 0 Aq−1 0 q−1 b
A= = . (9.22)
bT c bT A−1
q−1 Iq 0 c − bT A−1
q−1 b 0 Iq
En prenant le déterminant des deux membres on constate que si c0 = c − bT A−1 q−1 b alors
det A = c det Aq−1 et l'hypothèse entraîne c > 0.
0 0
X
cj = det AS , (9.23)
S;|S|=j
qui généralise les cas déjà connus j = 1 et j = q. Appliquons la au cas X > 0. Donc,
puisque par hypothèse det AS ≥ 0 on en déduit cj ≥ 0. Donc comme a11 > 0 on a
det(A + XIq ) > 0. De la même manière on démontre que det(Ak + XIk ) > 0. La partie 3
entraîne donc que A + XIq est dénie positive. Donc A = limX→0 (A + XIq ) est positive.
Pour terminer, soit r le rang de A et k la taille maximum des S tels que det AS > 0.
D'après le résultat de première année qui dit que le rang est la taille du plus grand
determinant non nul extrait on a k ≤ r. Or cj déni par 9.23 est nul si j > k et donc le
88 CHAPITRE 2. ESPACES EUCLIDIENS
polynôme en X égal à det(A + XIq ) a zéro pour racine d'ordre au moins égal à q − k. En
diagonalisant dans une bon l'endomorphisme symétrique a de Rq dont A est la matrice
représentative dans la base canonique, on voit donc que le rang r de a est ≤ k ce qui
montre que r = k et achève la démonstration du 4).
5) Soit (λ1 , . . . , λq ) une énumération des valeurs propres de la matrice symétrique
réelle. Alors, par dénition du polynôme caractéristique de A on a
Si A est positive alors λj ≥ 0 pour tout j et les cj sont trivialement positifs ou nuls.
Inversement, si une valeur propre était strictement négative (disons λ1 = −a avec a > 0)
alors en faisant X = a on obtient la contradiction
0 = aq + c1 aq−1 + · · · + cq ≥ aq .
où la somme est prise pour tous les sous ensembles T de {1, . . . , q} de taille |T | = j. Par
exemple si q = 4 alors
c 3 = λ 1 λ 2 λ3 + λ1 λ 2 λ 4 + λ1 λ3 λ4 + λ 2 λ 3 λ4 .
et en observant que
∂ q−2 Q q!
k−1 q−k−1
(x, y) = (pk+1 x2 + 2pk xy + pk−1 y 2 ).
∂x ∂y 2
On applique alors le principe suivant : soit le polynôme réel X 7→ P (X) de degré n à une
variable ayant toutes ses racines réelles distinctes et non nulles, soit Q(x, y) = y n P (x/y)
soit Q1 (x, y) = ∂Q∂x
(x, y), Q2 (x, y) = ∂Q ∂y
(x, y) et soit P1 (X) = Q1 (X, 1) et P2 (X) =
Q2 (X, 1). Alors d'après le théorème de Rolle P1 et P2 ont toutes leurs racines réelles
distinctes et non nulles. En itérant ce principe on voit que le trinôme du second degré
pk+1 X 2 + 2pk X + pk−1 a ses racines réelles et distinctes. Il a donc un discriminant positif
ce qui entraîne le résultat désiré si tous les λj sont distincts non nuls. Le cas où certains
sont nuls ou non distincts se traite par un passage à la limite. (Attention la réciproque
est fausse : si un polynôme à coecients réels satisfait les inégalités de Maclaurin, cela
n'entraîne pas que ses racines soient réelles : ainsi (X + 2)(X 2 + 2X + 1 + ) avec 0 <
assez petit satisfait p22 > p1 p3 et p21 > p2 p0 ).
a b
Corollaire 9.5. Soit la matrice symétrique réelle d'ordre 2 A = b c . Alors
1. A est positive si et seulement si trace A ≥ 0 et det A ≥ 0.
2. A est dénie-positive si et seulement si trace A > 0 et det A > 0.
Proposition 9.6. Soit (v1 , . . . , vp ) une suite de vecteurs de l'espace préhilbertien réel
E. Alors la matrice A = (hvi , vj i)1≤i,j≤p est symétrique positive. De plus, A est dénie
positive si et seulement si les (v1 , . . . , vp ) sont indépendants.
Proposition 9.7. Soit E un espace euclidien de dimension q, soit (v1 , . . . , vq ) une suite
de vecteurs de E , soit F le sous espace vectoriel de E qu'ils engendrent et soit p ∈ L(E)
la projection orthogonale de E sur F. Alors il existe une bon e = (e1 , . . . , eq ) de E telle
que p(ei ) = vi pour i = 1, . . . , q si et seulement si la matrice de Gram A = (hvi , vj i)1≤i,j≤
a ses valeurs propres dans {0, 1}. De plus, la multiplicité de 1 est la dimension de F.
q q
X X
0
I=h xi ei , yj0 e0j i = x01 y10 + · · · + x0k yk0
i=1 j=1
Puisque c'est vrai pour tous X 0 et Y 0 ceci montre que la matrice de Gram de e0 est Q.
Donc (e01 , . . . , e0k ) forme une bon de F et e0j = 0 si j > k. Complétons (e01 , . . . , e0k ) en une
bon e00 de E et dénissons enn e = (e1 , . . . , eq ) = (e001 , . . . , e00k , e00k+1 , . . . , e00q )U. C'est une
bon comme e00 car U est orthogonale. On a alors
C = {x ∈ E; 0 ≤ x1 , x2 , x3 ≤ 1}.
Comme d'après la proposition 9.6 le déterminant de A est toujours nul puisque (v1 , v2 , v3 )
sont coplanaires, une condition nécessaire et susante est donc le couple d'égalités
Si on cherche l'ombre d'un cube pas nécessairement unité, par homénéité la condition sur
la matrice de Gram devient
(a1 a2 − b23 ) + (a2 a3 − b21 ) + (a3 a1 − b22 ) 1
2
= .
(a1 + a2 + a3 ) 4
Exercice 9.3. Soit θ ∈]0, π[. On considère les deux matrices d'ordre n :
0 1 0 ··· 0 0 2 cos θ 1 0 ··· 0 0
1 0 1 ··· 0 0
1 2 cos θ 1 ··· 0 0
0 1 0 ··· 0 0 0 1 2 cos θ ··· 0 0
A= ,B =
··· ··· ··· ··· ··· ···
··· ··· ··· ··· ··· ···
0 0 0 ··· 0 1 0 0 0 ··· 2 cos θ 1
0 0 0 ··· 1 0 0 0 0 ··· 1 2 cos θ
Exercice 9.4. Soit θ ∈]0, π[. On considère les deux matrices d'ordre n ≥ 1 :
0 1 0 ··· 0 0 2 cos θ 1 0 ··· 0 0
1 0 1 ··· 0 0
1 2 cos θ 1 ··· 0 0
0 1 0 ··· 0 0 0 1 2 cos θ ··· 0 0
An = , Bn =
··· ··· ··· ··· ··· ···
··· ··· ··· ··· ··· ···
0 0 0 ··· 0 1 0 0 0 ··· 2 cos θ 1
0 0 0 ··· 1 1 0 0 0 ··· 1 1 + 2 cos θ
(en convenant que pour n = 1 on a A1 = [1] et B1 = [1 + 2 cos θ]). Montrer que pour n ≥ 2
on a det Bn+1 = 2 cos θ det Bn − det Bn−1 (Méthode : développer par rapport à la première
ligne : la récurrence n'est pas nécessaire). Montrer par récurrence que
(Voir Szegö "Orthogonal polynomials" page 29). Montrer que det Bn s'annule pour n valeurs
distinctes de θ de ]0, π[, et les déterminer. Si PAn est le polynôme caractéristique de An ,
calculer PAn (−2 cos θ) et déduire de ce qui précède les valeurs propres de An . La matrice An
est elle diagonalisable ? Montrer que 2In − An est dénie positive.
Exercice 9.5. Ombres d'un parallélépipède : Montrer que tout hexagone symétrique par rap-
port à un point est l'ombre d'un parallélépipède. Méthode : considérer les vecteurs w1 , w2 , w3
engendrés par trois cotés consécutifs et montrer qu'on peut trouver trois nombres λ1 , λ2 , λ3
tels que si vi = λi wi alors la matrice de Gram de (v1 , v2 , v3 ) a pour valeurs propres (0, 1, 1).
94 CHAPITRE 2. ESPACES EUCLIDIENS
Exercice 9.6. Matrice de Hua. Si n est un entier ≥ 1 soit Jn la matrice (n, n) dont tous
les coecients sont 1. Soit 1n = (1, 1, . . . , 1). Soit p ≥ 0. Montrer que la matrice symétrique
d'ordre n + 1 dénie par blocs
n
n+p
1n
H=
1Tn pIn + Jn
est positive. Première méthode : interpréter H comme la matrice représentative [h]ee d'un
endomorphisme symétrique h de l'espace euclidien canonique E = Rn+1 dans sa base ca-
nonique e = (e0 , e1 , . . . , en ) et calculer [h]ff si f est une bon de E telle que f0 = e0 et
f1 = √1n (e1 + · · · + en ). On trouve
n √
n 0
√
n+p
[h]ff = n n + p 0 ,
0 0 pIn−1
ce qui permet de calculer par exemple les valeurs propres de h. Plus généralement si a ∈ R
donner par cette méthode les valeurs propres de A + pIn+1 avec
1 + a 1n
A=
1Tn Jn
et dire pour quels (a, p) cette matrice est positive ou dénie-positive. Deuxième méthode :
appliquer la formule 9.21 à A = n/(n + p)I1 et C = pIn + Jn et montrer que C est dénie
positive. Troisième méthode : appliquer la formule 9.21 à C = n/(n + p)I1 et A = pIn + Jn .
Pour ces deux dernières méthodes, il faut observer que Jn2 = nJn et que (aIn + bJn )−1 =
a1 In + b1 Jn pour des a1 et b1 convenables si l'inverse existe.
Exercice 9.7. Soit D = diag(µ1 , . . . , µq ) et soit Jq la matrice (q, q) dont tous les coecients
sont égaux à 1. Montrer que D − Jq est positive si et seulement si µj ≥ 1 pour tout j et si
1 − µ11 − · · · − µ1q ≥ 0. Méthode : utiliser le théorème 9.4 partie 4 et le résultat de l'exercice
2.7 du chapitre 1. Donner de même une condition nécessaire et susante de dénie positivité.
Application : soit (v1 , . . . , vq ) des vecteurs de l'espace euclidien tels que hvi , vj i = −1 si i 6= j.
Alors q
X 1
2
≤1
j=1
1 + kv j k
ai = a1 ai + a2 ai + . . . + an ai
IX. ENDOMORPHISMES SYMÉTRIQUES, POSITIFS ET DÉFINIS POSITIFS 95
qui donne la décomposition dans cette somme directe de ai de deux manières, déduire alors
le résultat. Application : Théorème de Cochran : Soit a1 , . . . , an des endomorphismes
symétriques d'un espace euclidien E de dimension q tels que a1 + · · · + an = idE et tels que
n
i=1 rang(ai ) = q. Montrer qu'il existe une décomposition en somme directe orthogonale
P
E = E1 ⊕ · · · ⊕ En telle que ai soit la projection orthogonale sur Ei . Méthode : ai est
symétrique avec a2i = ai et est donc la projection orthogonale sur quelque espace Ei . Utiliser
ai aj = 0 pour voir que Ei et Ej sont orthogonaux et montrer E = E1 ⊕ · · · ⊕ En à l'aide de
a1 + · · · + an = idE .
Exercice 9.9. Soit a et b des endomorphismes symétriques positifs d'un espace euclidien.
Montrer que trace (ab) ≥ 0 et discuter le cas d'égalité. Méthode : choisir une bon e de
diagonalisation de a et écrire explicitement trace (ab) en fonction des matrices A = [a]ee =
diag(a1 , . . . , aq ) et B = [b]ee = (bij )1≤i,j≤q . Utiliser le fait que bii ≥ 0, dû au Th. 9.4 partie
4 appliquée à S = {i}, ainsi que le fait qu'un endomorphisme positif a ses valeurs propres
positives ou nulles. Pour étudier le cas trace (ab) = 0 observer que bii = 0 entraîne bij si la
matrice B est positive. Voir aussi l'exercice 10.9 pour une autre méthode.
Exercice 9.11. Soit a un endomorphisme symétrique de l'espace euclidien E tel que idE − a
soit déni positif (et donc (idE − a)−1 existe).
1. Montrer par récurrence sur n que
(idE − a)−1 = idE + a + a2 + · · · + a2n−1 + an (idE − a)−1 an
et montrer que l'endomorphisme an (idE − a)−1 an est symétrique positif (il est expéditif
de se placer dans une bon de diagonalisation de a).
2. Déduire de 1 que la suite n 7→ 2n−1 k=0 trace a est bornée supérieurement.
k
P
3. On
P∞suppose de plus que trace ak ≥ 0 pour tout entier k ≥ 0. Déduire du 2 que la série
k=0 trace a converge, et que limn→∞ trace a = 0. Pourquoi les valeurs propres de
k n
a sont elles dans ] − 1, 1[? Pourquoi alors a-t-on limn→∞ an = 0? (pensez à considérer
trace a2n = trace an (an )T ). A l'aide du 1 montrer que
∞
X
−1
(idE − a) = ak .
k=0
96 CHAPITRE 2. ESPACES EUCLIDIENS
Exercice 9.12. Soit (fi )qi=1 une base ordonnée de l'espace euclidien telle que kfi k2 = 1 pour
tout i et telle que si i 6= j on ait hfi , fj i ≤ 0. Soit (ei )qi=1 la base de Schmidt engendrée, et
soit
j
X
ej = cij fi
i=1
Montrer que cij ≥ 0 pour tous 1 ≤ i ≤ j ≤ q (Comparer avec l'exercice 4.8). Méthode :
Si αj = hej , fj i, qui est positif d'après la dénition de la base de Schmidt et si Ij − Aj =
(hfi , fk i)1≤i,k≤j , observer que
(c1j , . . . , cjj )(Ij − Aj ) = (0, . . . , 0, αj )
Appliquer alors le lemme de Stieltjes de l'exercice 9.11 à la matrice Ij − Aj pour conclure que
c1j ≥ 0, . . . , cjj ≥ 0. Cette application du lemme de Stieltjes est due à Wilson, Proc.A.M.S.
1971.
Exercice 9.14. (Entrelacement des valeurs propres). Soit A la matrice symétrique réelle
d'ordre q ≥ 2 écrite par blocs
Aq−1 b
A=
bT c
avec Aq−1 d'ordre q − 1. Soit λ1 ≤ λ2 ≤ . . . ≤ λq et µ1 ≤ µ2 ≤ . . . ≤ µq−1 les valeurs propres
de A et de Aq−1 . En appliquant la formule 9.22 à A − λIq montrer que
λ1 ≤ µ1 ≤ λ2 ≤ µ2 ≤ . . . ≤ µq−1 ≤ λq .
Méthode : écrire Aq−1 = U T DU avec U ∈ O(q − 1) et D = diag(µ1 , µ2 , . . . , µq−1 ) et tracer
le graphe de la fonction
q−1
X pi
λ 7→ c − λ − bT (Aq−1 − λIq−1 )−1 b = c − λ −
i=1
µi − λ
avec pi = [(U b)i ]2 ≥ 0. La place des zéros de cette fraction rationnelle par rapport à ses pôles
permet de répondre immédiatement quand les valeurs propres de A sont distinctes, et un peu
de réexion permet de passer au cas général.
Exercice 9.15. Soit A = (aij )1≤i,j≤q une matrice symétrique réelle d'ordre q. Si S ⊂
{1, . . . , q} avec S =
6 ∅ on note AS = (aij )i,j∈S . Montrer alors l'équivalence des deux pro-
priétés suivantes
IX. ENDOMORPHISMES SYMÉTRIQUES, POSITIFS ET DÉFINIS POSITIFS 97
1. Pour tout S ⊂ {1, . . . , q} avec S 6= ∅ on a det AS < 0.
2. Pour tout S ⊂ {1, . . . , q} avec S 6= ∅ la matrice AS a une valeur propre strictement
négative et toutes les autres strictement positives.
Méthode : 2 ⇒ 1 est facile. Pour 1 ⇒ 2 procéder par récurrence sur q en utilisant l'exercice
précédent 9.14 : on appliquera l'hypothèse de récurrence à Aq−1 .
Exercice 9.16.10 Si S = (sij )1≤i,j≤n est une matrice réelle symétrique d'ordre n on note
λ(S) sa plus petite valeur propre. Soit −b < a < b. Le but de l'exercice est de trouver une
borne inférieure à λ(S) sous la contrainte a ≤ sij ≤ b pour tous i, j = 1, . . . , n, ce qu'on
suppose dans toute la suite.
1. Soit M = Mp dénie à l'exercice 4.11 avec p+q = n. A l'aide de l'exercice 4.11 montrer
que λ(Mp ) est la plus petite racine de X 2 − naX + pq(a2 − b2 ).
2. Calculer explicitement le nombre minp=0,...,n λ(Mp ) = mn (a, b) (on montrera mn (a, b) =
λ(Mr ) quand n = 2r ou 2r + 1 avec r entier).
3. Soit x = (x1 , . . . , xn )T ∈ Rn un vecteur propre de S pour la valeur propre λ(S) tel que
kxk2 = x21 + · · · + x2n = 1. On note par p le nombre de i = 1, . . . , n tels que xi ≥ 0, et
on va montrer que λ(Mp ) ≤ λ(S). Sans perte de généralité on suppose que xi ≥ 0 si
i = 1, . . . , p et xi < 0 si i = p + 1, . . . , n. Montrer que
xT Mp x ≤ xT Sx = λ(S).
Méthode : montrer que xi mij xj ≤ xi sij xj pour chaque 1 ≤ i, j ≤ n, en notant
Mp = (mij )1≤i,j≤n pour simplier.
4. Montrer que λ(Mp ) ≤ xT Mp x (Méthode : si f est une bon de diagonalisation de Mp ,
si ([x]f )T = (c1 , . . . , cn ) et si λ1 ≥ . . . ≥ λn = λ(Mp ) sont les valeurs propres de Mp
alors c21 + · · · + c2n = 1 et xT Mp x = c21 λ1 + · · · + c2n λn ).
5. A l'aide du 3 et du 4 montrer que λ(S) ≥ mn (a, b). Pour quelles valeurs de S a- t- on
λ(S) = mn (a, b)?
Remarque : si a < b mais avec |a| ≥ b (et donc a < 0) on montre de la même manière que
λ(S) ≥ na si a ≤ sij ≤ b pour tous i, j = 1, . . . , n. Cela vient du fait qu'au contraire de 2 on
a mn (a, b) = λ(Mn ). Ceci permet de donner aussi pour tout intervalle [a, b] ⊂ R une borne
supérieure à la plus grande valeur propre µ(S) = −λ(−S), à savoir −mn (−b, −a)
Trouver ses trois valeurs propres. Méthode : montrer que la trace de S est une valeur propre
de S et en déduire que les deux autres sont opposées. Si on les note ±r montrer que
b.
Démonstration : Existence : Puisque d'après la Proposition 9.3 aa∗ est déni-positif, soit
p sa racine carrée. Comme (det p)2 = det p2 = det(aa∗ ) = (det a)2 6= 0, alors p−1 existe.
Dénissons u par u = p−1 a. Alors u∗ = a∗ p−1 et donc uu∗ = p−1 aa∗ p−1 = p−1 p2 p−1 = idE .
Donc u est un endomorphisme orthogonal et a = pu.
Unicité : si a = p1 u1 est une autre décomposition, alors a∗ = u∗1 p1 et donc aa∗ =
p1 u1 u∗1 p1 = p21 . Donc p1 = p par l'unicité de la racine carrée. Et donc u = u1 .
Corollaire 10.3. Soit A une matrice réelle inversible d'ordre q. Alors il existe un triplet
(U, D, V ) tel que A = V DU avec D diagonale et U et V dans O(q).
avec U = [idE ]fe [u]ee , D = [p]ff et V = [idE ]f . Comme e et f sont des bon, U et V sont
bien orthogonales.
Remarque : Ceci est appelé décomposition polaire par analogie avec l'écriture z = reiθ
des nombres complexes non nuls. Si en particulier det a > 0 alors a = peb où p est déni-
positif et b antisymétrique. Il y a de nombreuses versions voisines, dans lesquelles on
décompose en up plutôt qu'en pu, ou qui n'exigent pas a inversible ; p est alors positif
seulement et est toujours unique, u ∈ O(E) tel que a = pu existe mais n'est plus unique.
ka(x)k
kak = sup
x∈E\{0} kxk
est égal à la plus grande valeur singulière de a. Si a est symétrique, kak est en particulier
le maximum des |λj | où les λj sont les valeurs propres. Si a est symétrique positif kak est
la plus grande valeur propre.
Ce sup est µ21 et est atteint pour x1 = ±1, ce qui donne le résultat. Dans le cas symétrique,
les valeurs singulières sont les valeurs absolues des valeurs propres. Dans le cas positif, les
valeurs singulières sont les valeurs propres.
de trace 125 et de déterminant 2500. Trouver une base orthonormale f = (f1 , f2 ) telle que la
matrice représentative de a dans cette base soit diagonale (on précisera donc les coordonnées
de f1 et f2 dans la base e). En déduire une matrice orthogonale U et une matrice diagonale
D telles que A = U DU −1 . À l'aide
√ des résultats précédents, montrer que A est une matrice
dénie positive et calculer B = A, c'est à dire la matrice symétrique dénie positive telle
que B 2 = A.
et préciser les cas d'égalité (Méthode : le démontrer d'abord pour a = idE en se placant dans
une bon de diagonalisation de b. Puis se ramener à ce cas en considérant b 0 = a−1/2 ba−1/2 ).
X. RACINE CARRÉE, DÉCOMPOSITION POLAIRE ET VALEURS SINGULIÈRES . 101
Exercice 10.3. Soit a et b des endomorphismes symétriques de l'espace euclidien E. On
suppose que a est déni positif et que c = b − a est positif. Montrer que b est déni positif.
Montrer que a−1 − b−1 est positif (Méthode : le démontrer d'abord pour a = idE en se
placant dans une bon de diagonalisation de b. Puis se ramener à ce cas en considérant c0 =
a−1/2 ca−1/2 ).
Montrer que b est symétrique et positif et, à l'aide de Cayley Hamilton montrer que b2 = a.
Exercice 10.5. Si E est euclidien et si L(E) est muni de la structure euclidienne dénie
par ha, bi = trace (a∗ b), montrer que la norme euclidienne sur L(E) qui en découle est sous
multiplicative. Méthode : écrire kabk2 = trace (a∗ abb∗ ) et introduire une bon de diagonalisa-
tion e de l'endomorphisme symétrique positif a∗ a. Montrer que si a est positif non nul et b
déni positif alors ha, bi > 0 (observer qu'alors b1/2 ab1/2 est positif non nul et donc de trace
strictement positive).
Exercice 10.6. Imiter la démonstration de l'unicité dans le Théorème 10.1 pour montrer que
si b et b1 sont des endomorphismes symétriques d'un espace euclidien tels que exp b = exp b1 ,
alors b = b1 .
2) En prenant la trace des deux côtés de 1) montrer que la fonction h sur les réels dénie par
2
h(t) = −t(1 + 2q ) + trace (y + t4 idE )1/2 s'annule en t = trace x. 3) Montrer que la fonction h
102 CHAPITRE 2. ESPACES EUCLIDIENS
est strictement croissante, que trace x est son seul zéro et en déduire que t(y) = trace x est
une fonction de y. 4) Déduire du 1) et du 3) le résultat annoncé.
Exercice 10.9. Soit a et b des endomorphismes symétriques positifs d'un espace euclidien.
Montrer que trace (ab) ≥ 0. Méthode : utiliser trace (ab) = trace (a1/2 ba1/2 ).
•@ •
@@ ~~
@@ ~~
@@ ~
~~
• • •@
~ @@
~~~ @@
~ @@
~~
• •
XI. CHOLESKY ET LES ARBRES À RACINES.* 103
Si on sélectionne maintenant un sommet quelconque w de l'arbre A et qu'on l'appelle
racine, le couple (A, w) est un arbre à racine. Le choix d'une racine équipe alors natu-
rellement l'ensemble A des sommets de la structure d'ordre partiel suivante : on écrit
x y si l'unique chemin de x à w contient y. Il est clair que cette relation binaire entre
les éléments de A satisfait aux deux propriétés
Si x y et y x alors x = y .
Si x y et y z alors x z .
Notez ce n'est pas nécessairement un ordre total : il peut exister des couples tels que à la
fois x y et y x soient faux. Voici l'exemple précédent où on a choisi une racine. On a
x y si on peut voyager de x à y en suivant les èches.
• CC •
CC ~
CC ~~~
CC ~
! ~~
• / •w o • _@
={ @@
{{ @@
{{{ @@
{{
• •
•1 BB •4
BB |
BB ||
BB |||
! |} |
•2 / •7 o •6 aBB
=|
| BB
|| BB
||| BB
|
•5 •3
Théorème 11.1. Soit (A, w) un arbre à racine tel que A = {1, . . . , q}. Soit G l'ensemble
des matrices T = (t(x, y))x,y∈A telles que si t(x, y) 6= 0 alors x y et telles que t(x, x) > 0
pour tout x ∈ A. Soit P = (p(x, y))x,y∈A une matrice symétrique réelle d'ordre q. Alors
les deux propriétés suivantes sont équivalentes
1. P est dénie positive et est telle que si p(x, y) 6= 0 alors ou bien x y ou bien
y x.
2. Il existe une matrice T dans G telle que T ∗ T = P.
Dans ces conditions, la matrice T est unique. De plus G est un groupe pour la multipli-
cation des matrices. Enn si w1 ∈ A soit
A1 = {x ∈ A; x w1 },
X
p(x, y) = t(z, x)t(z, y). (11.26)
zx; zy
Si il existait un couple (x, y) tel que p(x, y) 6= 0 et tel que x 6 y et y 6 x l'égalité 11.26
entraînerait l'existence d'un z ∈ A tel que t(z, x)t(z, y) 6= 0 donc tel que z x et z y.
Le chemin de z à la racine w étant unique, il passerait par x et par y et donc x et y
seraient comparables : contradiction.
1 ⇒ 2. Nous procédons par récurrence sur la taille q de l'arbre. C'est évident pour
q = 1. Supposons le résultat acquis pour tout arbre de taille ≤ q − 1. Numérotons A tel
que x y implique x ≤ y. Alors il n'y a aucun x 6= 1 tel que x 1, c'est à dire que 1 est
minimal. Notons A0 = A \ {1} : c'est un arbre de racine w. Ecrivons alors la matrice P
par blocs
1 a−1 b
a b 1 0 a 0
P = =
b∗ c b∗ a−1 Iq−1 0 c − b∗ a−1 b 0 Iq−1
où a est un nombre et où c est carrée d'ordre q − 1. Quant à b c'est un vecteur ligne
b = (b(y))y∈A0 qui par dénition de P est tel que b(y) 6= 0 seulement si 1 y. Le fait
que P soit dénie positive entraîne que a > 0 et que la matrice symétrique c − b∗ a−1 b
est dénie positive. La remarque importante est maintenant que si l'entrée (x, y) de la
matrice carrée b∗ a−1 b est non nulle, alors b(x)b(y) 6= 0 et donc 1 x et 1 y. Comme
A est un arbre à racine, cela entraine que ou bien x y ou bien y x. Par conséquent
on peut appliquer l'hypothèse de récurrence à l'arbre à racine A0 et à la matrice dénie
positive c − b∗ a−1 b. On écrit celle ci (T 0 )∗ T 0 où T 0 = (t(x, y))x,y∈A0 satisfait t(x, x) 6= 0.
On dénit enn 1/2 −1/2
a a b
T = 0
0 T
qui satisfait P = T ∗ T par un calcul immédiat ainsi que les autres propriétes demandées.
Il y a ensuite à montrer l'unicité de T. Montrons la d'abord dans le cas particulier
P = Iq . Alors T ∗ T = Iq implique que T est orthogonale et triangulaire supérieure (si on a
numéroté pour que x y implique x ≤ y). Une telle matrice T ne peut être que diagonale
avec des entrées ±1 sur la diagonales. Cependant t(x, x) > 0 pour tout x entraine que T
est la matrice identité Iq et l'unicité est montrée dans ce cas P = Iq .
Pour passer au cas général nous considérons l'ensemble G de l'énoncé. Nous montrons
que G est un groupe, c'est à dire que T S ∈ G et que T −1 ∈ G si T et S sont dans G.
Ceci permettra de conclure, car P = S ∗ S = T ∗ T implique (ST −1 )∗ ST −1 = Iq et donc
ST −1 = Iq par la remarque précédente.
XI. CHOLESKY ET LES ARBRES À RACINES.* 105
On a avec des notations évidentes
X X
(T S)(x, y) = T (x, z)S(z, y) = T (x, z)S(z, y)
z∈A xzy
et (T S)(x, x) = T (x, x)S(x, x) ce qui montre que T S est dans G. Ensuite S = T −1 existe
puisque nous avons vu que det T 6= 0. Mais vérier que S est dans G n'est nullement
évident. En fait on le voit par récurrence en écrivant si 1 est minimal alors
−1
a−1 b
a b −1 a
T = , S=T = .
0 T0 0 (T 0 )−1
Ceci permet de faire la récurrence et achève la démonstration de l'unicité de T en même
temps que le fait que G est un groupe.
Finalement si w1 , A1 , P1 et T1 sont comme dans l'énoncé, écrivons par blocs corres-
pondants à A1 et A \ A1 les matrices P et T :
P1 P12 T1 T12
P = , T = .
P21 P2 T21 T2
On constate que si x ∈
/ A1 et y ∈ A1 alors t(x, y) = 0 par dénition de T et de A1 . C'est
dire que T21 = 0. Donc
∗ ∗
T1∗ T12
∗ T1 0 T1 T12 T1 T1
P =T T = ∗ =
T12 T2∗ 0 T2 ∗
T12 ∗
T1 T12 T12 + T2∗ T2
•3O / •4
||= O
||
|||
|
•1 / •2
telles que tii > 0 pour i = 1, 2, 3, 4. C'est toujours un groupe pour la multiplication des
matrices, mais l'entrée (2,3) de T ∗ T est t12 t13 et n'est en général pas nulle.
Exercice 11.1. Soit l'arbre à racine de sommets A = {1, 2, . . . , q}, d'arêtes {i, q} pour
i = 1, . . . , q − 1 et de racine q. Soit P = (P (x, y))x,y∈A une matrice symétrique réelle d'ordre
q telle que si p(x, y) 6= 0 alors ou bien x y ou bien y x. Si P est dénie positive calculer
l'unique T = (t(x, y))x,y∈A telle que si t(x, y) 6= 0 alors x y , telle que t(x, x) > 0 pour
tout x ∈ A et telle que T ∗ T = P. En déduire que P est dénie positive si et seulement si
det P > 0 et si P (x, x)P (q, q) − P (x, q)2 > 0 pour tout x = 1, . . . , q − 1.
Chapitre 3
Espaces hermitiens.
I Produit hermitien, Schwarz.
Soit H un espace vectoriel complexe, pas nécessairement de dimension nie. Un produit
scalaire-hermitien sur H est la donnée d'une application de H ×H à valeurs dans C, notée
(x, y 7→ hx, yi et satisfaisant aux axiomes suivants :
1. Pour x ∈ H xé, l'application y 7→ hx, yi est une forme linéaire sur H .
2. Pour y ∈ H xé l'application x 7→ hx, yi satisfait la propriété de semi linéarité, c'est
à dire que hx + x1 , yi = hx, yi + hx1 , yi et pour λ ∈ C, que hλx, yi = λhx, yi.
3. hy, xi = hx, yi (symétrie hermitienne).
4. Pour tout x ∈ H \ {0} on a hx, xi > 0 (dénie positivité).
Un espace complexe H muni d'un produit scalaire-hermitien xé est appelé un espace
préhilbertien complexe.1 Si de plus H est de dimension nie, il est dit hermitien 2 . Le
nombre kxk = (hx, xi)1/2 est appelé la norme de x. Il y a un certain arbitraire à décider
que le produit scalaire hermitien hx, yi sera semi linéaire par rapport à x plutôt qu'à
y, mais il faut faire un choix. C'est celui du programme ociel des classes de spéciales
et c'est celui dont on a besoin pour les représentations de groupes évoquées ci dessous.
Toutefois, dans un texte concernant les espaces hermitiens, il est prudent de s'assurer que
l'auteur n'a pas fait le choix inverse.
107
108 CHAPITRE 3. ESPACES HERMITIENS.
Si H est l'espace des polynômes trigonométriques, c'est à dire des combinaisons li-
néaires complexes des fonctions θ 7→ einθ avec n ∈ Z, dénissons pour P et Q dans H le
nombre Z 2π
1
hP, Qi = P (θ)Q(θ)dθ, (1.1)
2π 0
qui se calcule facilement à l'aide de la formule essentielle
Z 2π
1
eikθ einθ dθ = 1 si n = k (1.2)
2π 0
= 0 si n 6= k.
Il est à peu près évident que les axiomes du produit scalaire-hermitien sont vériés,
y compris le fait que hP, P i = 0 ne peut arriver que si P = 0, car P est continue et de
période 2π. Nous avons donc un espace préhilbertien complexe.
Ceci montre que l'image de L(Cq ) dans L(R2q ) de a 7→ ϕa n'est pas surjective. La dimen-
sion complexe de L(Cq ) est q 2 et donc sa dimension comme espace réel est 2q 2 , alors que
dim L(R2q ) = 4q 2 .
Beaucoup de démonstrations sont proches du cas réel, et on se contentera de signaler
les points plus délicats. Attention aux démonstrations des cas d'égalité dans les inégalités
de Schwarz et du triangle ci dessous, auxquelles les jurys de concours sont très attentifs.
I. PRODUIT HERMITIEN, SCHWARZ. 109
On observe ensuite que 3k=0 i−k = 0 et que 3k=0 i−2k = 0. En rassemblant le tout on a
P P
le résultat.
la dernière égalité venant du fait que si z = hx, e−iθ yi, alors z + z = 2<z. Choisissons
maintenant θ tel que <z soit égal au module ρ de hx, yi. Cela est possible, car si hx, yi =
ρeiα alors z = e−iθ ρeiα et il sut de prendre θ = α. L'inégalité devient 0 ≤ 2 − kxkkyk
2ρ
, ce
qui est l'inégalité de Schwarz voulue. En cas d'égalité, on a nécessairement
x y
= e−iα
kxk kyk
et x et y sont bien proportionnels. Réciproquement, il est évident que l'inégalité de Schwarz
devient une égalité si y = λx pour un nombre complexe λ.
Pour l'inégalité du triangle on écrit
Exercice 1.1. 1) Si a et b sont deux nombres complexes, montrer que |a + b|2 ≤ 2|a|2 + 2|b|2
et que |ab| ≤ P2 (|a| +2 |b| ). 2) Soit H l'ensemble des suites complexes z = (zn )n≥0 0telles
1 2 2
que la série n≥0 |zn | converge (on note par S(z) sa somme). Montrer que λz + λ z =
0
(λzn + λ0 zn0 )n≥0 munit H d'une structure d'espace vectoriel complexe (Méthode : à l'aide du
1), montrer que S(z + z 0 ) ≤ 2S(z) + 2S(zP )). 3)0 Si z = (zn )n≥0 et z = (zn )0n≥0 sont dans
0 0 0
H montrer à l'aide du 1) que la série n≥0 zn zn converge (on note par hz, z i sa somme).
Montrer que hz, z 0 i munit H d'une structure d'espace préhilbertien complexe.
En déduire une autre démonstration que celle donnée par la Proposition 1.1 du fait que la
connaissance de la norme donne la connaissance du produit scalaire.
Pour la dernière proposition on introduit la notion de matrice adjointe, qui est l'outil
correspond à la transposée quand on passe de l'euclidien à l'hermitien. Si
A = (aij )1≤i≤p,1≤j≤q
est une matrice complexe à p lignes et q colonnes, la matrice adjointe de A est A∗ = (A)T ,
parfois dite transposée-conjuguée. Elle a donc q lignes et p colonnes soit, si bij = aji :
A∗ = (bij )1≤i≤q,1≤j≤p .
Proposition 2.5. (Adjoint) Soit H et F deux espaces hermitiens. Alors pour tout a ∈
L(H, F ) il existe un unique a∗ ∈ L(F, H) appelé adjoint de a tel que pour tout x ∈ E et
tout y ∈ F on ait
Dans ces conditions, a 7→ a∗ est une bijection entre les espaces vectoriels L(H, F ) et
L(F, H) telle que (a + b)∗ = a∗ + b∗ , λa = λa∗ et a∗∗ = a. De plus, si e et f sont des
bon de H et F , alors [a∗ ]ef = ([a]fe )∗ . Ensuite, si dim H = dim F et si a−1 existe, alors
(a−1 )∗ = (a∗ )−1 . Si G est hermitien, si a ∈ L(H, F ), si b ∈ L(F, G) alors (b ◦ a)∗ = a∗ ◦ b∗ .
Enn si a ∈ L(H) alors det a∗ = det a et (exp a)∗ = exp(a∗ ).
112 CHAPITRE 3. ESPACES HERMITIENS.
Remarques. Les endomorphismes de H qui commutent avec leur adjoint sont dits nor-
maux. Le théorème ci dessus en donne donc 4 propriétés caractéristiques. Les 4) et 5) sont
des curiosités moins importantes que les 2) et 3), et dont les démonstrations sont plus
instructives que les énoncés.
Si 3) est vrai, les deux membres de droite de (3.4) et de (3.5) sont donc égaux. Donc
hx, aa∗ (y) − a∗ a(y)i = 0 pour tous x et y de H. Donc aa∗ − a∗ a = 0 (rappel : si b ∈ L(H)
et si hx, b(y)i = 0 pour tous x et y, en prenant x = b(y) on voit que kb(y)k2 = 0 pour
tout y et donc b = 0). 1) ⇒ 2) est plus créatif et se montre par récurrence sur q. C'est
trivial pour q = 1. Supposons que 1) ⇒ 2) soit vrai pour dim H < q. Soit maintenant
dim H = q. Alors a a au moins une valeur propre, soit λ. Soit alors une bon e1 de l'espace
propre Eλ , de dimension p avec 1 ≤ p ≤ q. Soit e2 une bon quelconque de son orthogonal
et soit e = e1 ∪ e2 . Alors
e λIp B ∗ λIp 0
[a]e = A = , A = .
0 C B∗ C ∗
III. ENDOMORPHISMES NORMAUX. 113
BB ∗ B(C − λIp )∗
∗ ∗
0 = AA − A A = .
(C − λIp )B CC ∗ − C ∗ C − B ∗ B
∗
Corollaire 4.2 Soit U(H) l'ensemble des endomorphismes unitaires de l'espace her-
mitien H et soit SU(H) l'ensemble de ceux qui de plus sont de déterminant 1. Alors
| det u| = 1 si u ∈ U(H), et U(H) et SU(H) sont des sous groupes connexes de GL(H).
Enn, si u ∈ L(H), alors u est dans SU(H) si et seulement si il existe un endomorphisme
antihermitien b de trace nulle tel que u = exp b.
Il est clair que t 7→ ut est continu et dénit un chemin de idH à u. De plus, si u ∈ SU(H)
alors on peut prendre (θ1 , . . . , θq ) tel que θ1 + . . . + θq = 0, donc tθ1 + . . . + tθq = 0 et
ut ∈ SU(H). Donc SU(H) est aussi connexe. Enn si u ∈ SU (H) est de la forme (4.6)
avec θ1 + . . . + θq = 0, dénissons l'endomorphisme antihermitien b par
Théorème 4.3. Soit H un espace hermitien de dimension q et soit U une matrice carrée
complexe d'ordre q. Alors les propriétés suivantes sont équivalentes :
1. U ∈ U(q).
2. Il existe une bon e de H et u ∈ U(E) tels que [u]ee = U.
3. Pour toute bon e de H il existe u ∈ U(E) tel que [u]ee = U.
4. Il existe deux bon e et f de H telles que [idH ]ef = U.
5. Pour toute bon e de E il existe une bon f de H telle que [idH ]ef = U.
6. Pour toute bon f de H il existe une bon e de E telle que [idH ]ef = U.
7. Il existe une matrice unitaire V et une matrice diagonale D dont les éléments dia-
gonaux sont de module 1, telles que U = V DV ∗ .
Théorème 4.4. (Description de SU(2).) Les matrices de SU(2) sont les matrices de la
forme
a b
Ua,b =
−b a
où a et b sont deux nombres complexes tels que |a|2 + |b|2 = 1. En particulier, si θ ∈ [0, π]
est tel que cos θ = <a alors il existe V ∈ SU(2) tel que
iθ
e 0
Ua,b = V V∗ (4.7)
0 e−iθ
De plus, si S est la sphère unité des quaternions, si (~i, ~j, ~k) est une bon directe de l'espace
E des quaternions purs, soit a = a0 + ia1 et b = b0 + ib1 et A : S → SU (2) déni par
On voit que SU(2) est isomorphe au groupe S des quaternions de norme 1. Comme on a vu
qu'il existe un homomorphisme surjectif entre les groupes S et SO(3) de noyau ±1 on voit
que SO(3) est isomorphe à SU(2)/ ± 1. Pour étoer ce chapitre, qui n'est jusqu'ici qu'une
copie un peu pâle du précédent, donnons un résultat substantiel sur SU(2) et SO(3). Il
est algébrique, mais sa démonstration utilise l'analyse :
Théorème 4.5. Soit N un sous groupe de SU(2) tel que pour tout U ∈ N et tout
V ∈ SU(2) alors V U V −1 est dans N. Alors N est égal à {I2 , −I2 }, à {I2 } ou à SU(2).
où a0 , a1 , b0 , b1 sont des nombres réels tels que a20 + a21 + b20 + b21 = 1. La trace de Ua,b est
alors 2a0 . L'ensemble V n'est autre que l'ensemble des Ua,b de SU(2) tels que 2a0 ≥ c, une
sorte de calotte sphérique sur une sphère de R4 dont le pôle est I2 .
D'autre part,
SU(2) \ N = ∪V ∈N / VN
est ouvert comme réunion d'ouverts. Or SU (2) est connexe (Corollaire 4.2). Donc N =
SU(2) et le théorème est montré.
Corollaire 4.6. Soit N0 un sous groupe de SO(3) tel que pour tout U ∈ N0 et tout
V ∈ SO(3) alors V U V −1 est dans N0 . Alors N0 est égal à {I3 } ou à SO(3).
V. THÉORÈME SPECTRAL HERMITIEN ET CONSÉQUENCES 117
Démonstration : Elle utilise une technique classique en algèbre. On a vu en conséquence
du Théorème 4.4 qu'il existe un homomorphisme surjectif ϕ du groupe SU(2) vers le
groupe SO(3) tel son noyau soit ±I2 , c'est à dire que ϕ(U ) = I3 entraîne U = ±I2 . Soit
N l'image inverse de N0 par ϕ :
N = {U ∈ SU(2) ; ϕ(U ) ∈ N0 }.
Remarques. En général, si N est un sous groupe d'un groupe G on dit que N est normal
(ou distingué) si pour tout x ∈ N et tout y ∈ G alors yxy −1 est dans N. Les cas où N est
G ou est réduit à l'identité sont des exemples triviaux de sous groupes distingués. On dit
que G est simple s'il n'a pas de sous groupes normaux non triviaux.
Avec ces dénitions, une manière plus compacte d'énoncer le Théorème 4.5 et son
corollaire est alors de dire que le seul sous groupe normal de SU(2) non trivial est {±I2 },
et de dire que SO(3) est un groupe simple.
Exercice 4.1. Soit λ un nombre complexe de module 1. Trouver tous les U de U(2) de
déterminant λ. En déduire que si U ∈ U(2) alors
1. U = U ∗ si et seulement si det U = −1.
0 −1
2. Si J = alors U T JU = (det U )J.
1 0
Corollaire 5.2. Soit A une matrice hermitienne d'ordre q. Alors il existe des matrices
diagonale D et unitaire U d'ordre q telles que A = U DU −1 = P DU ∗ .
118 CHAPITRE 3. ESPACES HERMITIENS.
Remarques. Il est clair que si a est hermitien et si e est une bon, alors A = [a]ee est
positive ou dénie positive en même temps que a. Par le Théorème 5.1 parties 3) et 4),
l'endomorphisme hermitien a (ou la matrice A = [a]ee ) est positif si et seulement si ses
valeurs propres sont toutes ≥ 0, et il est déni-positif si et seulement si ses valeurs propres
sont toutes > 0. Le Théorème 9.4 du chapitre 2 reste valable. Par exemple si on considère
la matrice hermitienne
x c b
c y a
b a z
avec x, y, z réels et a, b, c complexes alors elle est positive si et seulement si x, y, z ≥ 0 et
Notons aussi que l'analogue hermitien de la Proposition 9.6 du chapitre 2 sur les ma-
trices de Gram est vrai : (hfi , fj i)1≤i,j≤k est positive, et est dénie positive si et seulement
si les f1 , . . . , fk sont indépendants.
Exercice 5.2. Soit a un endomorphisme de l'espace hermitien H . Montrer que a est hermitien
si et seulement si pour tout x ∈ H le nombre ha(x), xi est réel. Méthode : si B(x, y) =
ha(x), yi montrer que B(x, y) + B(y, x) et iB(x, y) − iB(y, x) sont égaux à leur conjugués
pour voir que B(x, y) = B(x, y).
1 ∞ eitx dx
Z
−|t|
e = ,
π −∞ 1 + x2
montrer que pour y ∈]0, 1[ la matrice (y |j−k| )1≤j,k≤q est dénie positive (Méthode : considérer
(t1 , . . . , tq ) tels que tj = j log y). Montrer que pour a > 0 la matrice
1
a + |j − k| 1≤j,k≤q
R1
est dénie positive (Méthode : considérer 0 y |j−k| y a−1 dy).
Exercice 5.4. (Suites stationnaires dans un espace hermitien). Soit H un espace hermitien de
dimension q et soit (zn )n∈Z une suite de H indexée par l'ensemble Z des entiers relatifs et qui
engendre H , c'est à dire qu' il existe n1 < n2 < . . . < nq tels que f = (zn1 , . . . , znq ) est une
base de H (non nécessairement orthonormale). Montrer qu'il existe u ∈ U(H) tel que pour
tout n ∈ Z on a zn = un (z0 ) si et seulement si pour tout k ∈ Z le nombre ϕ(k) = hzn+k , zn i
ne dépend pas de n ∈ Z. Montrer dans ces conditions qu'il existe des nombres p1 , . . . , pr ≥ 0
et des nombres réels θ1 , . . . , θr tels que
r
X
ϕ(k) = eikθj pj .
j=1
(Méthode pour ⇐ : montrer que f 0 = (zn1 +1 , . . . , znq +1 ) est aussi une base en montrant
qu'elle a la même matrice de Gram que f. Dénir alors u ∈ L(H) par u(znj ) = znj +1 pour
j = 1, . . . , q, montrer que le fait que f 0 soit une base entraîne que u−1 existe, et déduire
de hu(znj ), znk +1 i = hznj , u−1 (znk +1 )i que u−1 = u∗ . Montrer que pour tout n ∈ Z on a
hu(zn ), znk +1 i = hzn+1 , znk +1 i et en déduire u(zn ) = zn+1 .)
Exercice 5.5. On considère une matrice circulante complexe P (R) comme dénie au chapitre
1 section 3. A quelle condition sur P la matrice P (R) est elle hermitienne ? A l'aide de l'exemple
5.3 du chapitre 1, si P (R) est hermitienne, montrer qu'elle est positive si et seulement si
2ikπ
P (e q ) ≥ 0 pour tout k = 0, . . . , q − 1.
5.5 pour donner la condition nécessaire et susante sur le nombre complexe z = u + iv pour
que la matrice
1 z 0 ... z
z 1 z ... 0
0 z 1 z 0
0 0 z 1 z
z 0 0 z 1
soit positive. Dessiner la partie correspondante du plan complexe (c'est le pentagône régulier
circonscrit au cercle u2 +v 2 = 1/4 dont un côté est u = −1/2, plus l'intérieur du pentagône).
120 CHAPITRE 3. ESPACES HERMITIENS.
H = H1 ⊕ . . . ⊕ Hp
Si on prend des bon ej pour chaque Hj alors e = e1 ∪ . . . ∪ ek est une bon de H et a est
dans A si et seulement si [a]ee est diagonale par blocs :
[a]ee = diag(A1 , . . . , Ap )
Autrement dit les b ∈ A sont les éléments de L(H) tels qu'il existe des complexes µ1 , . . . , µk
tels que [b]ee = diag(µ1 Ip1 , . . . , µr Ipk ). Cet exemple est important : dans une algèbre de von
Neumann quelconque A, il y a beaucoup d'éléments normaux puisque si b ∈ A alors a =
bb∗ est hermitien positif, donc diagonalisable en base orthonormale, c'est à dire normal.
L'exemple montre que dès que a ∈ A est normal alors les projections orthonormales sur
les espaces propres de a font partie de A.
3 Ma reconnaissance va à Hari Bercovici pour l'organisation de cette section.
VI. BURNSIDE ET VON NEUMANN* 121
Plus généralement on peut concevoir une algèbre de von Neumann A qui généralise
les deux exemples précédents, en ce sens qu'il existe une bon e de H , des entiers k ,
p1 , q1 , . . . , pk , qk tels que p1 q1 + · · · + pk qk = dim H de sorte que les éléments b de A soient
de la forme
Proposition 6.1. Soit H un espace hermitien et soit A une algèbre de von Neumann
c'est à dire un sous espace vectoriel de L(H) contenant idH tel que ab ∈ A si a et b sont
dans A et telle que a∗ ∈ A pour tout a de A. Alors A est commutative (c'est à dire que
ab = ba pour tous a et b de A) si et seulement si il existe une base orthonormale e de H
telle que la matrice [a]ee soit diagonale pour tout a de A.
Dans ces conditions si la dimension de l'espace vectoriel A est k il existe k entiers
pj > 0 tels que q = p1 + . . . + pk et il est possible de numéroter e de sorte que si a ∈ L(H)
alors a ∈ A si et seulement si il existe une suite de complexes (µ1 , . . . , µk ) telle que
Démonstration. La partie ⇐ est évidente. Pour voir ⇒ on remarque que pour tout
a ∈ A on a aa = a∗ a et donc a est donc diagonalisable dans une base orthonormale
∗
d'après le théorème 3.1 sur les endomorphismes normaux. Le fait qu'il existe une même
bon universelle e qui diagonalise chaque a de A résulte du théorème 6.1 du chapitre 1 de
diagonalisation simultanée.
Montrons la seconde partie. Si T ⊂ {1, . . . , q} on note eT l'élément de L(H) telle que
[eT ]ee = diag[1 , . . . , q ] avec j = 1 si j ∈ T et j = 0 sinon. Si T est non vide et si eT ∈ A
on dit que T est un ensemble idempotent. Un ensemble idempotent T est dit minimal si
S ⊂ T et S idempotent entraine S = T.
On remarque que deux ensembles idempotents T et S satisfont eT eS = eT ∩S et donc
T ∩S est ou vide ou idempotent. Cela entraîne que deux ensembles idempotents minimaux
distincts sont nécessairement disjoints. Soit {T1 , . . . , Tp } l'ensemble des idempotents mi-
nimaux. Alors ∪pj=1 Tj = {1, . . . , q}. Sinon T0 = {1, . . . , q} \ ∪pj=1 Tj ne serait pas vide et
serait un ensemble idempotent. En eet idH est dans A, ce qui entraine que
p
X
eT0 = idH − eTj ∈ A.
j=1
On a donc déjà que A contient la sous algèbre A1 des a de la forme pj=1 µj eTj où
P
(µ1 , . . . , µp ) ∈ Cp est arbitraire. Pour voir qu'en fait A = A1 et que p = k montrons qu'un
élément quelconque a ∈ A déni par [a]ee = diag(a1 , . . . , aq ) est dans A1 . Supposons qu'il
n'en soit pas ainsi. Alors il existerait un j et deux éléments i1 et i2 de Tj tels que ai1 6= ai2 .
Soit T = {i; ai = ai1 }. Soit alors le polynôme de Lagrange L tel que L(ai1 ) = 1 et tel
que L(b) = 0 pour toutes les valeurs b prises par les ai quand i ∈ / T. Alors L(a) = eT
et donc T est un ensemble idempotent qui contient i1 et pas i2 pourtant situés dans le
même ensemble idempotent minimal Tj : contradiction. Donc A = A1 . Le fait que k = p
découle de dim A1 = p. Pour terminer, on note par pj la taille de Tj et on numérote la
bon e pour que T1 ∪ . . . ∪ Tj = {1, . . . , p1 + · · · + pj } pour tout j = 1, . . . , k. La proposition
est montrée.
Nous attaquons la description des algèbres de von Neumann générales par plusieurs dé-
nitions. Soit A ⊂ L(H) une algèbre de von Neumann. L'algèbre de von Neumann suivante
A0 = {x ∈ L(H); ax = xa ∀a ∈ A}
Proposition 6.2. Si H est un espace hermitien alors L(H) est un facteur. Si H est
la somme directe orthogonale de k espaces identiques à H1 et si A est l'algèbre de von
Neumann des a = diag(a1 , . . . , a1 ) tels que a1 ∈ L(H1 ) alors A est un facteur.
Démonstration. Il sut donc de montrer que si une matrice carrée A = (aij ) d'ordre
commute avec toute matrice B alors A est un multiple de Iq . Notons par Eij la matrice
carrée d'ordre q dont le coecient (i, j) est 1 et dont tous les autres sont nuls. Comme la
matrice AEii − Eii A = 0 on voit immédiatement que ligne et colonne i de A sont nulles
en dehors de (i, i). Comme c'est vrai pour tout i, A est diagonale. Pour voir enn que
aii = a11 , écrire AB − BA = 0 pour B = E11 + Eii .
Pour la seconde partie, on cherche les x ∈ L(H) tels que x = diag(x1 , . . . , x1 ) satisfasse
xa = ax pour tout a ∈ A et donc x1 a1 = a1 x1 pour tout a1 ∈ L(H1 ). La première partie
montre que x1 est multiple de l'identité de donc que A est un facteur.
En fait un long travail va consister à montrer au théorème 6.9 que tous les facteurs sont
de la forme indiquée par la proposition 6.2. Cette proposition permet aussi de trouver que
le commutant A0 de l'exemple 6.1 est contenu dans A et est formé des x de la forme
Pour le voir on écrit x par blocs, c'est à dire x = (xij ) avec xij ∈ L(Hi , Hj ). L'égalité
xa = ax se traduit par (xij )diag(a1 , . . . , ap ) = diag(a1 , . . . , ap )(xij ) qui se traduit par
xij aj = ai xij . Pour i 6= j ceci entraine xij = 0 (prendre ai = 0 et aj arbitraire). Pour
i = j on applique la proposition 6.5 pour voir que xii est un multiple de l'identité. En
revanche le commutant A0 de l'exemple 6.2 est formé des x = diag(x1 , . . . , xq ) avec xj
VI. BURNSIDE ET VON NEUMANN* 123
élément arbitraire de L(Ej ). Cela se voit par une méthode de blocs analogue. Finalement,
la même méthode de blocs montre que le commutant du facteur A de la proposition 6.2
est formé des x = (xij )1≤,j≤p tels que xij = λij idH avec (λij )1≤,j≤p matrice de nombres
complexes arbitraire. On utilise pour cela la première partie de la proposition 6.2. Voici
enn l'origine du mot facteur :
Proposition 6.3. Soit H un espace hermitien et A ⊂ L(H) une algèbre de von Neu-
mann. Alors il existe une décomposition en somme directe orthogonale H = E1 ⊕ · · · ⊕ Ek
et des facteurs Aj ⊂ L(Ej ) tels que A est formé des a = diag(a1 , . . . , ak ) tels que aj ∈ Aj .
Proposition 6.4. Soit H un espace hermitien et soit A ⊂ L(H) une algèbre de von
Neumann. Si F est un sous espace vectoriel de H soit pF la projection orthogonale de H
sur F. Alors il y a équivalence entre les trois faits suivants :
1. F est invariant par A
2. pF est dans A0
3. I = pF ApF est tel que AI et IA sont contenus dans I.
En particulier si pF ∈ A alors F est invariant par A si et seulement si pF ∈ C(A) et si et
seulement si I = pF ApF est tel que AI et IA sont contenus dans I ⊂ A.
Finalement, A est un facteur si et seulement si il ne contient pas de sous espace
vectoriel I non trivial tel que AI et IA sont contenus dans I et tel que I soit stable par
a 7→ a∗ .
AI ⊂ I et IA ⊂ I alors I est une algèbre qui ne contient pas idH . Elle contient cependant
des projections orthogonales pF . Fixons F de dimension maximale telle que pF ∈ I. Alors
idH − pF 6= 0 et il existe a ∈ A tel que (idH − pF )a 6= 0 (sinon A = pF A ⊂ I et I ne serait
pas un sous espace vectoriel strict de A). Par conséquent l'endomorphisme symétrique
positif b = (idH − pF )aa∗ (idH − pF ) appartient à I et est non nul. Soit G un des espaces
propres de b : il est dans l'orthogonal de F et pourtant pF +G = pF + pG est dans I. Cela
contredit la maximalité de la dimension de F et achève la démonstration.
Voici maintenant le théorème du double commutant qui dit que A = A00 pour une algèbre
de von Neumann. Quand on veut étendre la présente théorie aux espaces H de dimension
innie, ce résultat doit être pris comme axiome supplémentaire de la dénition des algèbres
de von Neumann 4 .
Théorème 6.5. Soit H un espace hermitien et soit A ⊂ L(H) une algèbre de von
Neumann. Alors A = A00 .
Cela montre clairement que A ⊂ A00 . Soit alors y ∈ A00 . Montrons que y ∈ A. J'observe
d'abord que pour tout v ∈ H alors il existe au moins un a ∈ A tel que a(v) = y(v). En
eet F = Av est un sous espace invariant et donc la projection orthogonale pF est dans A0
(voir Proposition 6.4). Donc pF commute avec y et donc pF y(v) = ypF (v) = y(v). Donc
y(v) est dans A(v).
Il ne reste plus qu'à montrer que le a ∈ A que nous avons trouvé ne dépend pas de
v , c'est à dire qu'en fait y ∈ A. Pour cela on utilise une astuce appelée dilatation de
von Neumann. Si n = dim H je forme H1 = H ⊕n de dimension n2 et je forme l'algèbre
de von Neumann A1 ⊂ L(H1 ) des a1 = diag(a, a, . . . , a) avec a ∈ A. Son commutant
A01 est formé des x = (xij )1≤i,j≤n avec xij ∈ A0 , et son double commutant est formé des
y1 = diag(y, y, . . . , y) avec y ∈ A00 . Appliquons alors la première partie de la démonstration
à A1 et à v = e ∈ H1 quand e = (e1 , . . . , en ) est une bon de H. Pour tout y1 ∈ A001 il existe
donc a1 ∈ A1 tel que y1 (e) = a1 (e) et donc y(ei ) = a(ei ) pour tout i = 1, . . . , n. C'est dire
y = a et le résultat est montré.
Théorème 6.6. Soit H un espace hermitien et soit A une algèbre, c'est à dire un sous
espace vectoriel de L(H) tel que ab ∈ A si a et b sont dans A. On suppose de plus que si
F est un sous espace vectoriel de H tel que A(F ) ⊂ F (c'est à dire que a(F ) ⊂ F pour
tout a ∈ A) alors F = {0} ou H. Dans ces conditions on a toujours A = L(H).
4 Voir J. Dixmier, (1969) Les algèbres d'opérateurs dans l'espace Hilbertien Gauthier-Villars, Paris.
VI. BURNSIDE ET VON NEUMANN* 125
Remarques. Notez que les algèbres générales sont plus diciles à classer que les algèbres
de von Neumann . Dans l'énoncé du théorème de Burnside ci dessus, il n'y a rien d'hermi-
tien mais seulement une structure sur les complexes, alors que la dénition d'une algèbre
de von Neumann utilise l'adjoint et donc une structure hermitienne. Toutefois l'apport
un peu articiel de cette structure hermitienne simpliera la démonstration qui est plutôt
rosse, en évitant le recours à l'espace dual. L'idée de cette démonstration (l'ingénieuse
étape 3 ci dessous) est due à Halperin et Rosenthal (Amer. Math. Monthly (1980) page
810). Insistons enn sur le fait qu'on ne suppose pas dans le théorème que idH ∈ A.
soit F l'orthogonal de G. Alors F est invariant, car dire x0 ∈ F est équivalent à dire que
pour tout a ∈ A on a
0 = ha∗ (y0 ), x0 i = hy0 , a(x0 )i. (6.10)
Il est bien clair que b(x0 ) a la même propriété pour tout b ∈ A et donc que b(F ) ⊂ F : d'où
l'invariance de F. Ensuite, si F comprend un vecteur x0 non nul alors F ⊃ A(x0 ) = H
d'après l'étape 1, et l'égalité 6.10 entraîne la contradiction y0 = 0. Donc F = {0} et son
orthogonal G est H.
Etape 3. Rappelons que le rang d'un endomorphisme d'un espace vectoriel de dimension
nie est la dimension de son image. Nous montrons que A contient nécessairement un
élément de rang 1, c'est à dire un endomorphisme de la forme x0 ⊗ y0 . Par cette notation,
où x0 et y0 sont dans H \ {0}, nous signions l'application de H dans H dénie par
x 7→ x0 hy0 , xi.
C'est bien de rang 1 comme on le voit en considérant sa matrice représentative dans une
bon. Il est aussi facile de voir que tout endomorphisme de H de rang 1 est de cette forme.
Si r(a) désigne le rang de a ∈ A, soit r0 = min{r(a); a ∈ A\{0}}. Il existe certainement
a0 ∈ A \ {0} tel que r(a0 ) = r0 et nous cherchons à montrer r0 = 1. Si c'est faux, alors
r0 ≥ 2 et il existe donc x1 et x2 dans H tels que a0 (x1 ) et a0 (x2 ) soient indépendants.
D'après l'étape 1 appliquée à x0 = a0 (x1 ), il existe a1 ∈ A tel que a1 a0 (x1 ) = x2 . Par
conséquent a0 a1 a0 (x1 ) et a0 (x1 ) sont indépendants, et donc pour tout λ ∈ C le vecteur
de H égal à a0 a1 a0 (x1 ) − λa0 (x1 ) est non nul. Cela entraîne enn que pour tout λ ∈ C
l'élément de A égal à a0 a1 a0 − λa0 est non nul.
Soit alors F = a0 (H) l'image de a0 . On a dim F = r0 par dénition. On observe que
a0 a1 (F ) ⊂ F et on note par b ∈ L(F ) la restriction de a0 a1 à F. L'endomorphisme b de
l'espace complexe F a une valeur propre λ0 associée au vecteur propre f0 (Ce point est
crucial : le théorème serait faux pour des espaces vectoriels réels). Le rang de b − λ0 idF
126 CHAPITRE 3. ESPACES HERMITIENS.
a1 a0 a(x) = a1 (x0 hy0 , a(x)i) = a1 (x0 ha∗ (y0 ), xi) = a1 (x0 hy1 , xi) = x1 hy1 , xi = (x1 ⊗ y1 )(x).
Donc a1 a0 a = x1 ⊗ y1 ∈ A.
Etape 5. Nous montrons enn que tout élément de L(H) est somme d'éléments de
rang 1, ce qui acchèvera la démonstration d'après l'étape 4 et le fait que A est un sous
espace vectoriel de L(H). En eet si c'était faux il existerait un b ∈ L(H) \ {0} tel que
trace (bx1 ⊗ y1 ) = 0 pour tous les x1 et y1 de H et donc
Appliquant cela à y1 = b(x1 ) on obtient kb(x1 )k2 = 0. Comme c'est vrai pour tout x1 c'est
dire que b = 0, ce qui est une contradiction. Le théorème de Burnside est démontré.
Corollaire 6.7. Toute sous algèbre A de L(H) distincte de L(H) admet au moins un
sous espace invariant diérent de {0} et H. De plus, si F est un sous espace invariant de
A minimal (en ce sens que si F1 ⊂ F est aussi invariant alors F1 = F ou {0}) alors la
restriction de A à F est L(F ).
Démonstration du corollaire 6.7. Si A n'avait pas de sous espace invariant non trivial,
le théorème 6.3 entraînerait que l'algèbre est égale à L(H). Ensuite la restriction de A
au sous espace invariant F est une algèbre pour l'espace F. Comme elle n'a pas de sous
espace invariant non trivial elle est égale à L(F ).
Corollaire 6.8. Si A ⊂ L(H) est une algèbre de von Neumann alors son commutant A0
est formé des multiples de l'identité si et seulement si A = L(H).
Théorème 6.9. Soit A ⊂ L(H) un facteur. Alors H est la somme directe orthogonale
de r espaces isomorphes telle que si H = H1⊕r alors A est formé des a = diag(a1 , . . . , a1 )
où a1 est un élément arbitraire de L(H1 ).
I = {a ∈ A; p1 ap1 = 0},
La première égalité est le théorème 6.5 du double commutant appliqué à l'algèbre de von
Neumann p1 A0 p1 ⊂ L(H1 ). La deuxième résulte de (p1 A0 p1 )0 = p1 Ap1 = A1 qui résulte à
son tour de A00 = A. Maintenant supposons que p1 A0 p1 contienne un x1 ∈ L(H1 ) qui ne
soit pas un multiple de idH1 . Alors x1 x∗1 a un espace propre F ⊂ H1 non trivial, et donc
pF est dans p1 A0 p1 . Cela contredit le fait que H = H1 ⊕ · · · ⊕ Hk est la décomposition
de la proposition 6.3 pour l'algèbre A0 . Par conséquent A01 = p1 A0 p1 n'est formée que de
multiples de l'unité. Appliquant alors le corollaire 6.8 du théorème de Burnside on en
déduit que A1 = L(H1 ) et la démonstration est achevée.
Quelle est la plus petite algèbre de von Neumann qui contient a? Méthode : puisque a2 = 0
former toutes les combinaisons linéaires de id, a, a∗ , aa∗ , a∗ a. Est ce que b est normal ? Montrer
que L(H) est la plus petite algèbre de von Neumann qui le contienne. Méthode : calculer
b2 , b2 b∗ , bb∗ , bb∗ b∗ .
Chapitre 4
Formes quadratiques
Ce chapitre est court, abstrait et dicile. Historiquement, les formes quadratiques
sont apparues comme des polynômes homogènes à q variables à coecients dans R ou C,
comme pour q = 2 ou 3
Q(x1 , x2 ) = ax21 + 2bx1 x2 + cx22 , (0.1)
Q(x1 , x2 , x3 ) = a1 x21 + a2 x22 + a3 x23 + 2b3 x1 x2 + 2b1 x3 x1 + 2b2 x2 x3 . (0.2)
Mais dans 4 cas sur 5 on les voyait apparaitre dans un contexte euclidien traité à la
facon du XIX ème siècle, c'est à dire avec coordonnées. Nous avons appris au chapitre
2 section 9 à les étudier avec le théorème spectral en leur associant un endomorphisme
symétrique. Toutefois cette méthode ne permet pas l'étude dans le cas complexe et dans
d'autres corps. Ensuite, même dans le cas réel imposer une structure euclidienne peut
être articiel : le médecin qui collecte des données de patients du genre (poids en kilos,
taille en
p cm)= (x, y) n'a que faire d'une structure euclidienne avec une norme de la
forme ax2 + 2bxy + cy 2 . Enn les formes quadratiques apparaissent de facon naturelle
en géométrie diérentielle, en théorie des nombres, en mathématiques appliquées et en
informatique (codes correcteurs d'erreur). En résumé, bien que les formes quadratiques
ne forment pas une industrie aussi importante que celle des endomorphismes, leur étude
est utile et intéressante.
129
130 CHAPITRE 4. FORMES QUADRATIQUES
Proposition 1.1. Soit K un corps tel que si λ ∈ K est tel que λ + λ = 0 alors λ = 0.
Soit E un espace de dimension nie sur K et soit Q : E → K telle que
Pour tout λ ∈ K et tout x ∈ E on a Q(λx) = λ2 Q(x).
B(x, y) = 12 (Q(x + y) − Q(x) − Q(y)) est une forme bilinéaire symétrique sur E.
Alors Q est la forme quadratique associée à B (et B s'appelle la polarisée de Q). De plus
si B1 est une autre forme bilinéaire symétrique telle que QB = QB1 alors B = B1 .
est appelée matrice représentative de B dans les bases (e, f ). Elle permet de calculer
immédiatement B(x, y) connaissant les matrices de composantes X = [x]e et Y = [y]f :
B(x, y) = X T e0 [B]f 0 Y,
Remarques. Il est inutile d'apprendre cette égalité par coeur, mais il faut savoir la
q
X
T
Q(x) = X e [B]e X = aij xi xj .
i,j=1
Par exemple les matrices représentatives des formes quadratiques sur K 2 et K 3 en base
canonique des exemples (0.1) et (0.2) sont respectivement
a1 b 3 b 2
a b
, b 3 a2 b 1 .
b c
b 2 b 1 a3
Quant à la formule de changement d'une base e à une base f de E, si P = [idE ]ef c'est
donc
T
e [B]e = P f [B]f P.
On utilise parfois le vocabulaire suivant : on dit que deux matrices carrées d'ordre q
symétriques A et B sur K sont congruentes si il existe une matrice inversible P d'ordre
q telle que A = P BP T . C'est à distinguer des matrices semblables pour lesquelles A =
P BP −1 . La congruence est liée à la représentation d'une même forme quadratique dans
diérentes bases, la similitude est liée à la représentation d'un même endomorphisme dans
diérentes bases.
Dans le corps K introduisons la relation d'équivalence suivante λ ∼ λ0 si et seulement
si il existe µ 6= 0 dans K tel que λ = µ2 λ0 . Par exemple si K = R il y a trois classes
d'équivalence, celles de 1, de 0 et de -1. Si K = C il n'y a que celles de 1 et de 0 et si
K = Q il y a celles de 0, de n et de −n où n est un entier positif produit de nombres
premiers distincts.
On remarque alors que le déterminant de e [B]e dépend de la base puisque det( e [B]e ) =
(det P )2 (det f [B]f ). Ce qui est intrinsèque à la forme quadratique Q indépendamment de
la base dans ce déterminant est donc seulement sa classe d'équivalence pour la relation
d'équivalence précédente. Cette classe d'équivalence est appelée discriminant de Q.
Exercice 1.1 Soit A une matrice symétrique d'ordre q inversible sur le corps K. Si X ∈ K q
est écrit comme une matrice colonne on considère la forme quadratique
A X
Q(X) = − det .
XT 0
Montrer que la matrice représentative de Q dans la base canonique de K q est A−1 det A ,
c'est à dire la matrice des cofacteurs de A. Méthode : pour calculer Q(X) utiliser l'exercice
2.1 du chapitre 1 appliqué à B = X , C = X T et D = 0.
132 CHAPITRE 4. FORMES QUADRATIQUES
U 0 = {x ∈ E ; B(x, y) = 0 ∀y ∈ U }.
Cette fois, U 0 est un sous espace vectoriel de E, c'est facile à vérier. Le sous espace E 0
est alors appelé le noyau1 de Q. Il ne faut pas le confondre avec l'ensemble des vecteurs
isotropes. Le rang de Q est l'entier dim E − dim E 0 . On dit que Q est non dégénérée si
E 0 = {0}. Q est alors de rang q = dim E.
Théorème 2.2. Soit Q une forme quadratique sur E de dimension nie q. Alors il existe
une base e de E telle que la matrice représentative de Q dans E soit diagonale, c'est à
dire telle que e soit orthogonale pour Q.
Cet algorithme calcule le rang p et construit des formes linéaires fj indépendantes telles
que (2.4) soit vrai. Nous n'allons pas expliquer le programme informatique, mais nous
contenter d'explications informelles.
1. Ou bien C 6= 0. Dans ce cas il existe un i tel que aii 6= 0. Prenons i = 1 sans
perte de généralité. Alors Q(x) = a11 x21 + 2x1 f (x2 , . . . , xq ) + S(x2 , . . . , xq ) où f
est une forme linéaire et S est une forme quadratique sur K q−1 . On pose alors
f1 (x1 , . . . , xq ) = x1 + a111 f2 et Q1 = S − a111 f 2 . Alors Q = a11 f12 + Q1 et la forme
quadratique Q1 est par rapport aux variables x2 , . . . , xq . Tout cela n'est que la bonne
vieille technique consistant à compléter le carré dans un trinôme du second degré.
134 CHAPITRE 4. FORMES QUADRATIQUES
où f et g sont des formes linéaires et S est une forme quadratique sur K q−2 . L'astuce
est alors d'introduire les deux formes linéaires sur K q suivantes
1 1
f1 (x1 , . . . , xq ) = (x1 + x2 ) + (f + g), (2.5)
2 2a12
1 1
f2 (x1 , . . . , xq ) = (x1 − x2 ) + (f − g) (2.6)
2 2a12
Pratiquons quelques exemples : si Q(x1 , x2 , x3 ) = x21 + x22 + 2x23 − 4x1 x2 + 6x2 x3 on est
dans le cas 1) et on obtient
Exercice 2.1 Diagonaliser les formes quadratiques suivantes dans R4 et R3 par l'algorithme
de Gauss : Q = 2(x1 x2 + x2 x3 + x3 x4 ); Q = x21 + x22 + x23 − 2(x1 x2 + x2 x3 + x3 x1 ).
Exercice 2.2 Diagonaliser par l'algorithme de Gauss la forme quadratique dans Rn avec
n ≥ 2, dont la matrice représentative dans la base canonique est :
0 0 ... 0 1 1
0 0 ... 1 1 0
0 0 ... 1 0 0
... ... ... ... ... ...
0 1 ... 0 0 0
1 1 ... 0 0 0
1 0 ... 0 0 0
III. LA SIGNATURE D'UNE FORME QUADRATIQUE RÉELLE 135
III La signature d'une forme quadratique réelle
Le corollaire 2.3 montre qu' une forme quadratique est combinaison linéaire d'un
nombre xe p de carrés de formes linéaires indépendantes, bien qu'il y ait de nombreuses
manières diérentes de le faire. Dans cette section, nous allons supposer que K = R et
montrer une invariance plus forte appelée loi d'inertie de Sylvester.
Théorème 3.1. Soit Q une forme quadratique de rang p sur l'espace réel E de dimension
nie q. Si e est une base de diagonalisation de Q soit e [B]e = diag(a1 , . . . , aq ). Soit r le
nombre de j tels que aj > 0, soit s = p − r le nombre de j tels que aj < 0 et t = q − p le
nombre de j tels que aj = 0. Alors le triplet d'entiers (r, s, t), appelé signature de Q, est
indépendant de la base de diagonalisation e choisie.
Proposition 3.2. Soit Q quadratique sur un espace réel E, de signature (r, s, t). Alors
il existe p = r + s formes linéaires indépendantes sur E telles que
sut maintenant de dénir fj (x) = |aj |1/2 gj (x) pour j = 1, . . . , p. Les fj ont la propriété
annoncée.
Remarques. Pour comprendre ce chapitre, assez abstrait, il est tout à fait essentiel de
comparer les résultats de cette section avec ce qu'on sait déjà des formes quadratiques sur
un espace euclidien étudiées au chapitre 2 section 9. On y a vu que si Q est quadratique
sur l'espace euclidien E alors il est associé à Q un endomorphisme symétrique a tel que
Q(x) = ha(x), xi. Si on applique à a le théorème spectral, on révèle une bon (au sens
euclidien) de diagonalisation de a. Soit [a]ee = diag(µ1 , . . . , µq )). Si [x]e = (x1 , . . . , xq )T on
a
Q(x) = µ1 x21 + · · · + µq x2q ,
c'est à dire que e est aussi une base de diagonalisation au sens des formes quadratiques.
Mais il y a beaucoup plus de bases de diagonalisation de la forme quadratique Q que
de bases de diagonalisation pour l'endomorphisme a associé par la structure ambiante
d'espace euclidien. Par exemple si E = R3 euclidien canonique et Q(x) = 2x1 x2 + 2x2 x3 +
2x1 x3 , alors l'endomorphisme associé a a pour matrice A dans la base canonique e
0 1 1
A= 1 0 1
1 1 0
de polynôme caractéristique (X + 1)2 (X − 2). La signature est bien (r, s, t) = (1, 2, 0). Ce
n'est pas une surprise, car on avait vu en exemple à la section 2 de l'algorithme de Gauss
que
1 1
2x1 x2 + 2x2 x3 + 2x1 x3 = (x1 + x2 + 2x3 )2 − (x1 − x2 )2 − 2x23 .
2 2
Parfois même l'étude de la forme quadratique donne des renseignements sur les valeurs
propres : l'algorithme de Gauss est de nature élémentaire alors que la recherche de va-
leurs propres ne l'est pas, puisqu'il faut chercher les racines d'un polynôme. Reprenons
l'exemple Q(x) = x21 + x22 + 2x23 − 4x1 x2 + 6x2 x3 toujours dans R3 euclidien canonique.
L'endomorphisme associé a a pour matrice A dans la base canonique e
1 −2 0
A = −2 1 3 .
0 3 2
Exercice 3.3 Soit F le sous espace vectoriel de Rn formé par les x = (x1 , . . . , xn ) tels que
x1 + · · · + xn = 0.
1. Soit a1 , . . . , an ∈ R. Soit la forme quadratique sur Rn
n
1X
Q(x) = − |ai − aj |xi xj .
2 i,j=1
Montrer que la restriction de Q à F est positive, c'est à dire que Q(x) ≥ 0 pour tout
x de E. Méthode : supposer sans perte de généralité que a1 = 0 ≤ a2 ≤ . . . ≤ an ,
introduire p2k = ak − ak−1 et montrer
n
X n
X
Q(x) = p2k ( xj )2 .
k=2 j=k
qui satisfait Q(x) = kϕ(x)k2 . Prendre alors v1 , . . . , vn−1 dans F tels que ϕ(x) =
x1 v1 + . . . + xn−1 vn−1 et montrer que v1 , . . . , vn−1 complété par vn = 0 répond à la
question.
138 CHAPITRE 4. FORMES QUADRATIQUES
Exercice 3.3 Soit F le sous espace vectoriel de Rn formé par les x = (x1 , . . . , xn ) tels que
x1 + · · · + xn = 0. L'espace F est muni du produit scalaire hx, yi = x1 y1 + · · · + xn yn . Soit
(a1 , . . . , an ) ∈ Rn et soit la forme quadratique sur F
Q(x) = a1 x2 + · · · + an x2n .
n
X X
(x, y) 7→ q(x|y) = q(x + y) − q(x) − q(y) = 2 xi yi + qij xi yj (4.8)
i=1 i6=j
ainsi que q(x|y) les formes bilinéaires correspondantes. Attention donc : q(x|x) = 2q(x).
A une forme quadratique unitaire on associe un bigraphe dont les sommets sont les
entiers {1, 2, . . . , n} et tel que entre le sommet i et le sommet j 6= i il y ait |qij | arêtes
(non orientées). Ces arêtes sont pleines si qij < 0 et en pointillé si qij > 0. On laisse le
lecteur par exemple dessiner les bigraphes des formes unitaires suivantes
5
X X5
q1 = x2i − x1 ( xi )
i=1 i=2
On remarque qu'il n'y a pas d'arêtes multiples sur ces exemples. En revanche, si s est un
entier > 0 alors le bigraphe correspondant à
a = 2x1 − x2 − x3 , b = 3x2 − x3 , c = x3 .
q(y1 r1 + · · · ym rm ). En eet
m
X X
1 m
q(y1 r + · · · ym r ) = q(yi ri ) + q(yi ri |yj rj )
i=1 i<j
Xm X
= yi2 + yi yj q(ri |rj )
i=1 i<j
G1,n = An •1 •2 •3 •4 n−1
• •n
G2,n = Dn •1
•2 •3 •4 n−1
• •n
G3,6 = E6 •1
•2 •3 •4 •5 •6
V. GRAPHES ET FORMES QUADRATIQUES DE DYNKIN * 141
G3,7 = E7 •1
•2 •3 •4 •5 •6 •7
G3,8 = E8 •1
•2 •3 •4 •5 •6 •7 •8
Proposition 5.1. Les graphes de Dynkin sont des bigraphes de formes quadratiques
unitaires positives.
est dénie positive, ou encore que la matrice symétrique MAn d'ordre n formée de 2 sur
la diagonale, de −1 sur les deux diagonales voisines et de 0 ailleurs est dénie positive.
Le polynôme caractéristique Pn de MAn satisfait à la relation de récurrence
2 cos θ 1
det(M2,n − xIn ) = (sin nθ − sin(n − 2)θ) = (sin(n + 1)θ − sin(n − 3)θ)
sin θ sin θ
ce qui permet facilement de calculer les racines de det(M2,n − xIn ), de voir qu'elles sont
dans ]0, 4[ et de montrer la dénie positivité pour MDn .
Pour k = 3 et n = 6, 7, 8 il n'est pas facile de vérier que l'équation
a n racines dans ]0, π[3 . Aussi prenons nous une méthode voisine pour montrer que MEn
est dénie positive. Du calcul précédent, en y faisant θ = 0 on tire que
On remarque d'ailleurs que ce nombre est positif si et seulement si (n, k) correspond aux
graphes An , Dn , E6 , E7 , E8 (en tenant compte du fait que (k, n) et (n − k, n) donnent le
même graphe).
De plus la matrice extraite de Mk,n en supprimant les ligne et colonne 1 est MAn−1 ,
qui est dénie positive. Donc Mk,n l'est aussi si et seulement si det Mk,n > 0. Cela est une
conséquence immediate de la caractérisation de la dénie positivité par les déterminants
principaux (Chap 2, Th. 9.4 (3)).
On dit que b = (b1 , . . . , bn ) est une base de Zn si c'est une base de Rn formée d'éléments
de Zn telle que de plus si P = [b1 , . . . , bn ] alors det P = ±1. Ceci entraîne que P −1 est aussi
à coecients entiers. Nous sommes maintenant en position de montrer le remarquable
résultat suivant, qui montre comment sont faites toutes les formes unitaires positives :
Théorème 5.2. Si la forme quadratique unitaire q sur Zn est positive, alors il existe
une base b = (b1 , . . . , bn ) de Zn formée de racines de q telle que les composantes connexes
du bigraphe de qb soient des graphes de Dynkin.
Démonstration. La base canonique e est une base de racines. On remarque d'abord que
si b est une base de racines
Lemme 5.3. Si un bigraphe connexe a arêtes simples a un graphe de Dynkin comme sous
graphe et n'est pas lui même un graphe de Dynkin, alors la forme quadratique unitaire
qui lui est associée n'est pas positive.
Démonstration du Lemme 5.3. Considérons les bigraphes suivants G̃k,n à arêtes pleines
et simples, parfois appelés graphes-étendus de Dynkin. Les entiers à coté de chaque sommet
ne sont pas le numéro du sommet mais les valeurs d'une certaine fonction δ dénie sur les
sommets de G̃k,n . On remarque que G̃k,n a n + 1 sommets. On n'a pas représenté le graphe
G̃1,n : il a n + 1 sommets, disons 0, 1, . . . , n et pour arêtes les {i − 1, i} avec i = 1, . . . , n
plus l'arête {0, n} : c'est avec un polygône à n + 1 cotés qu'on pourrait commodément
dessiner ce graphe. La fonction δ est prise égale à 1 pour chaque sommet de G̃1,n .
G̃2,n •1 •1
2
•2 •2 •2 • •1
•1
G̃3,6 •2
•1 •2 •3 •2 •1
G̃3,7 •2
•1 •2 •3 •4 •3 •2 •1
144 CHAPITRE 4. FORMES QUADRATIQUES
G̃3,8 •3
•2 •4 •6 •5 •4 •3 •2 •1
Remarque. On peut voir ce Théorème 5.2 sous un autre angle. Convenons de dire que
les formes quadratiques unitaires q et q1 sont équivalentes s'il existe une base b de Zn
formée de racines de q telle que q1 = qb . Si P = [b1 , . . . , bn ] c'est dire que les matrices
représentatives Mq et Mq1 sont liées par Mq1 = P Mq P T . Le fait que P −1 soit à coecients
entiers permet de voir que c'est bien une relation d'équivalence. Le Théorème 5.2 montre
donc que toute forme quadratique unitaire positive est équivalente à une somme directe
de formes de Dynkin.
Chapitre 5
Géométrie euclidienne ane
Ce chapitre est le plus concret de tous puisqu'il traite de géométrie élémentaire, celle
du collège et du lycée, vue avec les outils déjà rassemblés. Nous commençons par dénir
l'espace ane, un outil qui connait des fortunes diverses suivant les modes. C'est en gros
un espace vectoriel dans lequel l'origine perd toute importance. Si de plus l'espace vectoriel
est de dimension 3 et est euclidien, c'est notre espace physique newtonien, dans lequel
il n'y a a priori ni coordonnées ni origine, mais dans lequel parallélisme, orthogonalité,
distance entre deux points et angles ont du sens.
Remarques.
1. Compte tenu de ce qui a été appris, où l'éducation universitaire du lecteur a été
faite d'abord en dénissant un corps puis un espace vectoriel, si l'espace vectoriel
E est donné, une manière de fabriquer un espace ane A d'espace vectoriel associé
E est de prendre A = E en dénissant pour deux vecteurs x et y de E l'élément
−
→ = y − x. Cette application de E × E dans E satisfait clairement aux deux
xy
axiomes : si x est xé alors quel que soit z ∈ E il existe un et un seul y ∈ E tel
que z = y − x, qui est y = z + x. Quant à −→=−
xz →+−
xy → c'est dire la chose évidente
yz
(z − x) = (y − x) + (z − y).
145
146 CHAPITRE 5. GÉOMÉTRIE EUCLIDIENNE AFFINE
Proposition 1.1. Soit A un espace ane, soit A1 , . . . , An des points de A pas nécessaire-
ment distincts et soit la suite de scalaires (λ1 , . . . , λn ) dans K n telle que λ1 + · · · + λn = 1.
Alors
1. (Existence) Il existe un unique point B ∈ A appelé barycentre des A1 , . . . , An pour
les poids λ1 , . . . , λn tel que pour tout point O ∈ A on ait
−−→ −−→ −−→
OB = λ1 OA1 + · · · + λn OAn . (1.1)
−−→ −→ −−→
P BO = P O + OB0
−→ −−→ −→ −−→
= λ1 (P O + 0A1 ) + · · · + λn (P O + OAn )
−−→
= P BP
ce qui par l'axiome 1 entraîne B0 = BP . La seconde partie est à peu près évidente. Pour
la troisième on dénit l'unique système de scalaires (λ1 , . . . , λq ) par
−−→ −−−→ −−−→
A0 B = λ 1 A0 A 1 + . . . + λ q A 0 Aq
et on dénit enn λ0 = 1 − λ1 + · · · + λq .
Remarques :
I. ESPACES ET VARIÉTÉS AFFINES, BARYCENTRE ET PARALLÉLISME. 147
1. On note par convention le barycentre B de A1 , . . . , An pour les poids λ1 , . . . , λn par
B = λ 1 A1 + · · · + λ n An .
C'est une sténographie commode pour dire 1.1, puisque B ne dépend pas de O.
Toutefois il faut se rappeler que ni la multiplication du point A1 par le scalaire λ1
ni la somme de points n'ont de sens dans l'espace ane.
2. Quand les poids sont tous égaux on parle d'isobarycentre. L'isobarycentre de (A1 , A2 )
est donc calculé avec (λ1 , λ2 ) = (1/2, 1/2). Il est appelé le milieu du bipoint (A1 , A2 ).
−−−→
3. Si E est de dimension nie q et si A0 , . . . , Aq sont tels que A0 Ai i = 1, . . . , q est
une base de E, alors (A0 , . . . , Aq ) est appelé un repère ane. L'unique système
(λ0 , . . . , λq ) de scalaires tel que λ0 +· · ·+λq = 1 et B = λ0 A0 +· · ·+λq Aq s'appelle les
coordonnées barycentriques de B . Il faut mentionner qu'alors que pour un 0 ≤ j ≤ q
−−−→
xé, alors Aj Ai i 6= j est aussi une base de E : Par exemple pour j = q si c'était
faux il existerait une suite non nulle de scalaires (λ0 , . . . , λq−1 ) telle que
q−1 q−1 q−1 q−1
X −−−→ X −−−→ −−−→ X −−−→ X −−−→
0= λ i Aq A i = λi (Aq A0 + A0 Ai ) = −( λi )A0 Aq + λ i A0 Ai .
i=0 i=0 i=0 i=0
−−−→
Comme
Pq−1 A0 Ai i = 1, . . . , q est une base cela entraîne que 0 = λ1 = . . . = λq−1 =
−( i=0 λi ), et on tire λ0 = 0 de la dernière égalité. D'où la contradiction.
Dénition. Soit A un espace ane. Une variété ane de A est une partie V de A telle
que pour tout n et pour toute famille A1 , . . . , An de V alors tous les barycentres possibles
de A1 , . . . , An sont dans V. En particulier l'ensemble vide est une variété ane.
Dénitions. La dimension d'une variété ane non vide est la dimension de sa direction.
On convient de dire que −1 est la dimension de la variété vide.
Deux variétés anes non vides V1 et V2 de l'espace ane A sont dites parallèles elles
sont disjointes et si EV1 ⊂ EV2 ou si EV2 ⊂ EV1
Proposition 1.3. Soit deux variétés anes non vides V1 et V2 de l'espace ane A telles
que
dim V1 + dim V2 ≥ dim A.
Alors elles sont parallèles si elles sont disjointes.