Vous êtes sur la page 1sur 41

Licence de mathématiques

Espaces préhilbertiens & euclidiens

Georges COMTE

UMR CNRS 5127, Laboratoire de Mathématiques de l’Université Savoie-Mont Blanc


Bâtiment Chablais, Campus scientifique, 73376 Le Bourget-du-Lac cedex, France

email : georges.comte@univ-smb.fr
url : http://gcomte.perso.math.cnrs.fr/

Dernière mise à jour le 5 mars 2018 à 18:54


Table des matières

1. Produits scalaires sur Rn et Cn 2


2. Bases orthonormées 2
3. Espaces Préhilbertiens 4
4. Projection orthogonale sur un sous-espace 7
5. Matrices orthogonales et unitaires, automorphismes orthogonaux et
unitaires, isométries 13
6. Orientation de Rn 19
7. Mesure d’angle orienté et angle géométrique 21
8. Réduction orthogonales : matrices symétriques et normales 28
9. Application : les isométries de R3 qui fixent l’origine. 35
10. Les notions essentielles du chapitre 38

1
2 Table des matières

Dans toute la suite K = R ou C.


1. Produits scalaires sur Rn et Cn
Sur Kn on dispose d’un produit scalaire, dit produit scalaire standard : pour
a = (a1 , · · · , an ), b = (b1 , · · · , bn ), le produit de a et b est défini par
• Si K = R,
n
X
(a|b)R = ai .bi ,
i=1
L’application ( | )R : Rn × Rn → R est une forme bilinéaire.
Pn Cette forme est
2 2
symétrique ie (a|b)R = (b|a)R . Enfin on a : (a|a)R = kak = i=1 ai ≥ 0.
• Si K = C,
n
X
(a|b)C = ai .bi ,
i=1
où bi est le conjugué de bi .
L’application ( | )C : Cn × Cn → C est linéaire sur son premier facteur, additive
sur son second facteur ie (a|b + c)C = (a|b)C + (a|c)C mais non linéaire sur son second
facteur puisque (a|β.b)C = β̄.(a|b), qui est 6= β.(a|b) en général. On dit que ( | )C est
semi-linéaire sur son second facteur.
Au total on dit que ( | )C est une forme non pas bilinéaire mais sesquilinéaire. 1
De plus ( | )C n’est pas symétrique puisque (a|b)C = (b|a)C : on dit que ( | )C est
hermitienne. Pn
Enfin on a : (a|a)C = kak2 = 2
i=1 |ai | ≥ 0 (avec |ai | le module du nombre
complexe ai ).
1.1. Remarque. • On peut remarquer que si l’on considère les réels comme des
nombres complexes, ( | )R est sesquilinéaire et hermitienne, puisque : (a|b) = (a|b)
si (a|b) ∈ R et (a|β.b) = β̄(a|b) si β ∈ R ! P
• On aurait pu poser (a|b) = (a|b)C = ni=1 ai .bi au lieu de (a|b)C = ni=1 ai bi .
P
Dans ce cas ( | ) aurait été semi-linéaire sur la première variable et non sur la
seconde.
2. Bases orthonormées
On dit que deux éléments a et b de Kn sont orthogonaux ssi (a|b)K = 0.
On dit qu’une famille {ei }i∈I est normée si pour tout i ∈ I, kei k = 1.
On dit qu’une famille {ei }i∈I est orthonormée si cette famille est normée et si
pour tout i, j ∈ I, i 6= j, (ei |ej )K = 0 ie que les éléments de la famille sont deux à
deux orthogonaux (on dit que la famille est orthogonale).
2.1. Exemple. La base canonique est orthonormée
1. En latin  sesqu signifie 3/2. Il est employé ici pour résumer le fait que ( | )C est 1-linéaire
sur son premier facteur et semi-linéaire sur son second.
2. BASES ORTHONORMÉES 3

L’intérêt de telles familles réside dans le résultat suivant

2.2. Proposition. Une famille orthonormée de Kn est libre.

Démonstration. Si nj=1 ~aj .eij = 0, en prenant le produit scalaire des deux


P
membres par eik , on obtient αk = 0. 

Dans la suite on considèrera des bases orthonormées (en bref des b.o.n.). Mais
auparavant on va montrer le résultat suivant.

2.3. Théorème. Tout sev de Kn admet des bases orthonormées.

Démonstration. On commence par remarquer que dès que l’on dispose d’une
famille orthogonale, cette famille étant libre, aucun des vecteurs n’est nul, et ainsi en
divisant chacun d’eux par sa norme on obtient une famille orthonormée. L’existence
des bases orthonormées revient donc à montrer l’existence des familles orthogonales.
Montrons la propriété suivante par récurrence sur n :
P(n) : tout sev de dimension n d’un espace du type Kp admet une base ortho-
gonale.
• Si n = 1, n’importe quel vecteur non nul convient.
• Supposons P(1), · · · , P(n − 1) vraie et soit F un sev de Kp . Soit B =
{b1 , · · · , bn } une base de F et F1 un supplémentaire de vect({b1 }) dans F , ie F =
vect({b1 }) ⊕ F1 . Alors par hypothèse de récurrence il existe B1 = {e1 , · · · , en−1 } une
base orthonormée de F1 . P
Remarquons que b1 − n−1 i=1 (b1 |ei ).ei 6= 0,Ppuisque b1 6∈ F1 . On pose alors en =
α(b1 − i=1 (b1 |ei ).ei ), avec α = 1/(kα(b1 − n−1
Pn−1
i=1 (b1 |ei ).ei k.
On a : (ek |ej ) = 0 pour j 6= k, k, j ∈ {1, · · · , n}. Par la Proposition 2.2, la famille
{e1 , · · · , en } est une base de F . 

On peut dégager le principe essentiel suivant de cette preuve.

2.4. Théorème (Principe fondamental de Gram-Schmidt). Soit F un sous-


espace vectoriel de Kn , muni d’une b.o.n. B = e1 , · · · , ep et u un vecteur qui
n’est pas dans F . On note G = vect({u}) ⊕ F . Alors une b.o.n. de G est donnée
par
u − [ pj=1 (u|ej )ej ]
P
{ , B}.
ku − [ pj=1 (u|ej )ej ]k
P

2.5. Exemple. Trouver une b.o.n. du sev F = {(x, y, z, t) ∈ R4 ; x + y + z + t = 0}


de R4 .

On va généraliser ce qui précède au cas des espaces vectoriels  abstraits .


4 Table des matières

3. Espaces Préhilbertiens
Soit E un K-espace vectoriel. Sur le modèle de ce que l’on vient de décrire dans
E = Kn , on s’attache à l’étude des notions suivantes.
• Si K = R, on dit qu’une forme bilinéaire ( | ) : E × E → R est
symétrique ssi (a|b) = (b|a),
positive ssi (a|a) ≥ 0,
définie ssi ((a|a) = 0 ⇐⇒ a = 0).
• Si K = C, on dit qu’une application ( | ) : E × E → C qui est linéaire sur
son premier facteur, additive sur son second facteur (ie (a|b + c) = (a|b) + (a|c))
et telle que (a|β.b) = β̄.(a|b) (ie semilinéaire sur son second facteur) est une
forme sesquilinéaire. Si cette forme est telle que (a|b) = (b|a), on dit qu’elle est
hermitienne.
On dit que cette forme est
positive ssi (a|a) ≥ 0,
définie ssi ((a|a) = 0 ⇐⇒ a = 0).
Remarquons que si K = R, en voyant les réels comme des nombres complexes,
dire que ( | ) est bilinéaire symétrique équivaut à dire que ( | ) est sesquilinéaire
hermitienne. On pose donc dans les deux cas K = R ou C :
3.1. Définition. Un K-espace vectoriel sur lequel existe une forme ( | ) : E. ×E →
K sesquilinéaire, hermitienne, définie et positive est appelé un espace préhilbertien
et ( | ) un produit scalaire.
• Dans le cas où K = C, on dit que (E, ( | )) est un espace préhilbertien
complexe. Dans le cas particulier où dimC (E) < ∞, on dit que E est une espace
hermitien.
• Dans le cas où K = R, on dit que (E, ( | )) est un espace préhilbertien réel.
Notons que dans ce cas dire que la forme ( | ) est hermitienne revient à dire qu’elle
est symétrique, et dire qu’elle est sesquilinéaire revient à dire qu’elle est bilinéaire.
Dans le cas particulier où dimR (E) < ∞, on dit que E est un espace euclidien.
• Deux vecteurs x et y d’un espace préhilbertien sont dits orthogonaux ssi
(x|y) = 0.
3.2. Exemple. • Soit E le Q-espace R, muni du produit scalaire (x|y) = x · y.
• Soit E = C 0 ([0, 1], K) ou E = K[X] R (K = R ou C). Sur E on dispose du
produit scalaire : ∀f, g ∈ E, (f |g) = [0,1] f (t)g(t) dt. Dans le cas E = C[X],
on considère lors de l’intégration sur [0, 1] que la variable X est réelle ie que l’on
restreint les polynômes complexes à R lors de cette intégration. Remarquons
R enfin
que si f est une fonction réelle à valeurs complexes, par définition : [0,1] f (t) dt =
3. ESPACES PRÉHILBERTIENS 5
R R
Re(f )(t) dt + i · [0,1] Im(f )(t). Enfin notons que la continuité des fonctions
[0,1]
garantit que la forme ( | ) est définie, puisque une fonction positive, continue et
d’intégrale nulle est nécessairement la fonction nulle.
• Soit E = `00 (K) l’espace des suites (un )n∈N vérifiant : pourPtout (un )n∈N ∈ E
existe N tel que un = 0 pour n ≥ N . Alors ((un )n∈N |(vn )n∈N ) = n≥0 un · vn définit
un produit scalaire sur E.
• Soit E = `2 (K) l’espace 2
P
P des suites (u n )n∈N telles que n≥0 |un | converge. Alors
((un )n∈N |(vn )n∈N
P ) = n≥0 un · vn définit un produit scalaire sur E. La convergence
(absolue) de n≥0 un · vn est assurée par l’inégalité de Cauchy-Schwarz (voir le
Théorème 2.6) relative au produit scalaire standard dans Rn : pour tout p ∈ N .,
p p p p ∞ ∞
X X X X X X
2 2 2
|un · vn | = |un | · |vn | ≤ |un | · |vn | ≤ |un | · |vn |2 < ∞.
n=0 n=0 n=0 n=0 n=0 n=0

3.3. Définition. Soit E un K-espace sur lequel existe une application n : E →


R+ telle que, pour a, b ∈ E et α ∈ K
(1) n(a) = 0R ssi a = 0E ,
(2) n(α.a) = |α|.n(a),
(3) n(a + b) ≤ n(a) + n(b).
On dit que (E, k k) est un espace vectoriel normé et que n est une norme sur
E.

3.4. Proposition. Si (E, ( | )) est un espace préhilbertien (réel ou complexe),


l’égalité : p
n(a) = (a|a)
définit une norme n sur E, plus souvent notée, comme dans le cas de Kn , par
k k.

Démonstration. La propriété i résulte du caractère défini de ( | ) et ii du ca-


ractère sesquilinéaire. En revanche la propriété iii n’est pas immédiate. On l’appelle
l’inégalité triangulaire ou inégalité de Minkowski. Elle résulte de l’inégalité
de Cauchy-Schwarz. 

3.5. Théorème (Inégalité de Cauchy-Schwarz). Soit (E, ( | )) un espace


préhilbertien, on a :
|(a|b)|2 ≤ (a|a)(b|b)
et l’égalité a lieu ssi a et b sont colinéaires.

Démonstration. Si (a|b) = 0 ou (b|b) = 0, l’inégalité est vraie. De même si a


et b sont colinéaires.
6 Table des matières

On suppose (a|b) 6= 0, (b|b) 6= 0 et a et b non colinéaires, on pose (a|b) = reiθ


et λ = t.eiθ . On calcule ensuite (a + λ · b|a + λ · b). On trouve, en utilisant la
sesquilinéarité :
(a + λ · |a + λ · b) = (a|a) + λλ̄(b|b) + λ(b|a) + λ̄(a|b) = (a|a) + t2 (b|b) + λ(b|a) + λ̄(a|b)
En utilisant le carctère hermitien de ( | ), il vient :
(a + λ · b|a + λ · b) = (a|a) + t2 (b|b) + λ(a|b) + λ̄(a|b).
Or λ(a|b) + λ̄(a|b) = t.eiθ .r.e−iθ + t.e−iθ .r.eiθ = 2t.r = 2t|(a|b)|. Ce qui donne :
(a + λ · b|a + λ · b) = t2 (b|b) + 2t|(a|b)| + (a|a).
Or ( | ) étant positive, (a + λ · b|a + λ · b) ≥ 0, et ainsi
(a + λ · b|a + λ · b) = t2 (b|b) + 2t|(a|b)| + (a|a)
apparait comme un polynôme de degré 2 de signe ≥ 0 et ayant son coefficient
directeur > 0 (on a supposé (b|b) 6= 0). De plus (a + λ · b|a + λ · b) est nul ss’il existe
λ ∈ K tel que a = −λ· ssi a et b sont colinéaires. Le discriminant ∆ de ce polynôme
est par conséquent < 0, or ∆ < 0 est l’inégalité que l’on veut démontrer. 

3.6. Corollaire (Inégalité triangulaire ou de Minkowski). Soit (E, ( | )) un


espace préhilbertien, on a :
ka + bk ≤ kak + kbk

Démonstration. On développe ka + bk2 = (a + b|a + b) et on utilise l’inégalité


de Cauchy-Schwarz. 
On vient de voir qu’un espace vectoriel muni d’un produit scalaire est un espace
vectoriel normé. Mais réciproquement, un espace vectoriel est-il toujours pun espace
dont la norme n provient d’un produit scalaire ( | ) via l’égalité : n(a) = (a|a) ?
Le théorème qui suit répond à cette question.

3.7. Théorème. Soit (E, n) un K-espace vectoriel normé. La norme n pro-


vient d’un produit scalaire ( | ) ssi on a l’identité dite du parallélogramme :
∀a, b ∈ E, n2 (a + b) + n2 (a − b) = 2[n2 (a) + n2 (b)].
Dans ce cas ( | ) est donné par la norme grâce à la formule, dite de polarisation
(1) Si K = C :
1h i
(a|b) = n2 (a + b) − n2 (a − b) + i.n2 (a + i · b) − i.n2 (a − i · b)
4
(2) Si K = R :
1h 2 2
i
(a|b) = n (a + b) − n (a − b)
4
4. PROJECTION ORTHOGONALE SUR UN SOUS-ESPACE 7

3.8. Exemple. On montre grâcePà la mise en défaut de l’identité du parallélogramme,


que les normes k(x1 , · · · , xn )k1 = ni=1 |xi | et k(x1 , · · · , xn )k∞ = maxi∈{1,··· ,n} {|xi |}
sur Kn ne sont pas issues d’un produit scalaire, lorsque n ≥ 2. Si n = 1, en
revanche, k k∞ = k k1 coı̈ncident avec le module et donc sont bien issues du
produit scalaire standard sur K : (x|y) = xy. Plus généralement on montre que
 1/p
Pn p
k(x1 , · · · , xn )kp = i=1 |xi | est une norme et k k∞ = limp→∞ k kp et k kp
n’est issue d’un produit scalaire que pour p = 2. Dans ce cas le produit scalaire est
le produit scalaire standard sur Kn .
On définit dans les espaces préhilbertiens les familles orthogonales et les
familles orthonormées de la même façon que dans les espaces Kn : (ei )i∈I est
orthogonale ssi (ei |ej ) = 0 pour i 6= j et (ei )i∈I est orthonormée ssi (ei |ej ) = δi,j .
Dans le cas de la dimension fini, le produit scalaire de E et celui de Kn sont liés de
la façon suivante :
3.9. Remarque (Remarque essentielle). Soit B = {e1 , · · · , en } une base ortho-
normée d’un espace préhilbertien E de dimension finie. Soit a = a1 .e1 + · · · + an .en
et b = b1 .e1 + · · · + bn .en . Le développemement de
(a|b) = (a1 .e1 + · · · + an .en |b1 .e1 + · · · + bn .en ),
du fait de (ei |ej ) = δi,j donne (a|b) = nj=1 aj .bj , ie
P

(a|b)E = ([a]B | [b]B )Kn


Moralité. Lorsque sur un espace préhilbertien E de dimension finie on se donne
une base orthonormée B, le produit scalaire dans E est celui dans Kn , des coor-
données sur la base B, et par conséquent la structure d’espace préhilbertien de E
est la même que celle de Kn , avec le produit scalaire standard donné dans la partie 1.
Autrement dit, non seulement ΦB : E → Kn , x 7→ [x]B est un isomorphisme d’ev,
mais si B est une b.o.n., il s’agit aussi d’une application qui conserve le produit
scalaire : (Φ(x)|Φ(y)) = (x|y).
4. Projection orthogonale sur un sous-espace
• Si tous les espaces vectoriels possèdent des bases, il n’est en revanche pas vrai
que tous les espaces préhilbertiens possèdent des bases orthonormées. Il est cepen-
dant aisé, comme nous allons le voir, de montrer que tous les espaces de dimension
finie possèdent bien des bases orthonormées. Dans le cas de la dimension infinie, le
lemme de Zorn, invoqué en algèbre linéaire pour produire des bases, ne suffit pas pour
produire des bases orthonormées. Rappelons qu’en algèbre linéaire on considère une
famille libre maximale de notre espace vectoriel E (le lemme de Zorn nous permet de
savoir qu’il en existe). Un vecteur a de E est alors nécessairement une combinaison
linéaire d’éléments de vecteurs de la famille, sans quoi on pourrait ajouter a à cette
famille pour en faire une famille libre plus grande que notre famille qui est pourtant
maximale parmi les familles libres et on aurait une contradiction. Il s’ensuit que toute
8 Table des matières

famille libre maximale est aussi génératrice. En revanche, dans le cadre préhilbertien,
un tel raisonnement n’est plus valable, car rien ne dit qu’une famille F , orthonormée
et maximale pour l’inclusion, soit une famille génératrice de l’espace. Un vecteur a
qui n’est pas combinaison linéaire de vecteurs de F ne permet en effet peut-être
pas de construire une famille orthonormée F 0 contenant strictement F . Tout le
problème étant qu’il se peut que a soit dans l’adhérence de V ect(F ), sans pour au-
tant être dans V ect(F ). Dans ce cas défavorable où a ∈ adh(V ect(F )) \ V ect(F ), a
ne possède pas de projection orthogonale sur V ect(F ), au sens de la définition que
nous allons donner dans ce paragraphe...et la construction d’un vecteur a0 à partir
de a tel que ({a0 } ∪ F ) soit orthonormée est alors impossible.
Dans le cas simple de la dimension finie (ou dénombrable), étant donnée une
base, on utilise un procédé constructif, le procédé de Gram-Schmidt pour construire
à partir de celle-ci une b.o.n.. C’est ce procédé que l’on décrit maintenant.
• Notons que le procédé de Gram-Schmidt, qui repose sur le principe de
récurrence, ne s’applique qu’aux familles dénombrables : si (an )n∈N est une
famille dénombrable libre de vecteurs d’un ev E, on pose
u1 = a1 /ka1 k
et  
Pn
an+1 − j=1 (an+1 |uj )uj
∀n ≥ 1, un+1 =   .
Pn
kan+1 − j=1 (an+1 |uj )uj k

La suite (un )n∈N ainsi définie par récurrence est une famille orthonormée de E, qui
engendre E ssi (an )n∈N engendre E, car on vérifie aisément que
V ect(a1 , · · · aN ) = V ect(u1 , · · · , uN ), pour tout N ∈ {1, 2, . . .} (∗)
Ainsi si (an )n∈N est une base de E, la suite (un )n∈N obtenue par le procédé de Gram-
Schmidt à partir de (an )n∈N est une b.o.n. de E.
La propriété (∗) dit même plus dans le cas où E possède une base dénombrable
(toutes les autres bases sont alors aussi dénombrables puisqu’un résultat général
d’algèbre linéaire dit que deux bases d’un même espace K-vectoriel sont en bijec-
tion) : si F est une sev de E de dimension finie, dont une base est (a1 , · · · , aN ) et si
l’on complète cette famille libre en une base (dénombrable !) (a1 , · · · , aN , aN +1 , · · · )
de E, le procédé de Gram-Schmidt permet de construire par récurrence une b.o.n.
(u1 , · · · , uN , uN +1 , · · · ) de E telle que V ect(u1 , · · · , uN ) = V ect(a1 , · · · , aN ) = F .
Mais la famille génératrice (u1 , · · · , uN ) de F est libre puisqu’orthonormée et donc
est une b.o.n. de F . Si l’on suppose dès le départ que la base (a1 , · · · , aN ) de F
est une b.o.n., l’algorithme ne modifie pas ces N vecteurs initiaux : on a u1 =
a1 , · · · , uN = aN . En conclusion l’algorithme de Gram-Schmidt permet de compléter
toute famille orthonormée finie d’un ev E de dimension dénombrable en
une b.o.n. de E.
4. PROJECTION ORTHOGONALE SUR UN SOUS-ESPACE 9

Mais attention ! S’il permet de compléter toute famille orthonormée finie d’un
ev E de dimension dénombrable en une b.o.n. de E, en revanche, le procédé de
Gram-Schmidt ne permet pas de compléter une b.o.n. d’un sev F de E en une b.o.n.
de E lorsque E n’est pas de dimension dénombrable, ou lorsque la famille initiale
n’est pas finie, car il n’est tout simplement pas vrai que toute b.o.n. d’un
sev F de E se complète toujours en une b.o.n. de E dans le cas où E
n’admet pas une base dénombrable ! (voir la remarque qui suit la preuve du
Théorème 2.10, où l’on montre qu’une famille libre orthonormée, dénombrable, ne
peut pas être complétée en une b.o.n. (dans ce cas l’espace E en question n’admet
pas de base dénombrable).

4.1. Théorème. Théorème de Pythagore] Si a et b sont deux vecteurs ortho-


gonaux d’un espace préhilbertien (E, (·|·)), alors ka + bk2 = kak2 + kbk2

Démonstration. On développe ka + bk2 et on utilise (a|b) = (b|a) = 0. On


obtient ka + bk2 = (a + b|a + b) = (a|a) + (b|b) + (a|b) + (b|a) = (a|a) + (b|b) 
• On se pose le problème pratique suivant : E étant un espace préhilbertien, F un
sous-espace de dimension finie de E, dont une base orthonormée est {e1 , · · · , en } et a
un élément de E, existe-t-il un élément π de F rendant la distance de a à un élément
de F minimale ? Autrement dit, existe-t-il π ∈ F tel que ∀y ∈ F, ka − πk Pn≤ ka − yk ?
La réponse est oui et π est de plus unique et donné par : π = j=1 (a|ej )ej .
Pn
Pour prouver cela il suffit de remarquer que : a − j=1 (a|ej )ej est orthogonal à tout
vecteur de F , puisqu’étant orthogonal à tous les ej , j ∈ {1, · · · , n}, il est orthogonal
à toutes les combinaisons linéaires des ej . Enfin, quel que soit y ∈ F , le calcul de
ka −P yk2 donne en appliquant le théorème de Pythagore aux vecteurs orthogonaux
n Pn
a − j=1 (a|ej )ej et j=1 (a|ej )ej − y ∈ F :
n
X n
X
ka − yk2 = ka − (a|ej )ej k2 + ky − (a|ej )ej k2 .
j=1 j=1
2
Pn
Autrement dit on a toujours ka − yk ≥ ka − j=1 (a|ej )ej k et l’egalité a lieu ssi
y = nj=1 (a|ej )ej . On énonce :
P

4.2. Théorème. Soit (E, ( | ) un espace préhilbertien, F un sous-espace


vectoriel de E de P dimension finie, {e1 , · · · , en } une base de F et a ∈ E. On
note π(= π(a)) = nj=1 (a|ej )ej , il s’agit d’un élément de F .
On a :
∀y ∈ F, ka − πk ≤ ka − yk,
l’égalité n’ayant lieu que si y = nj=1 (a|ej )ej . Autrement dit nj=1 (a|ej )ej est le
P P
point de F qui réalise la distance minimale de a à un point de F .
10 Table des matières

On dit que ka − nj=1 (a|ej )ej k est la distance de a à F et que nj=1 (a|ej )ej
P P
est le projeté orthogonal de a sur F .
Attention. Si F est de dimension infinie, un élément a de E peut très bien ne
pas avoir de projection orthogonale P∞ sur F . Par exemple. Soit E = `2 (R) l’espace
2
P∞suites (un )n∈N telles 00que n=1 ui converge, muni du produit scalaire (u|v) =
des
j=1 un · vn . Soit F = ` (R) l’espace des suites nulles à partir d’un certain rang.
L’espace F est un sev de E mais F n’est pas de dimension finie. Notons Fp le sev
de E des suites nulles au-delà du terme de rang p et ei = (0, · · · , 0, 1, 0, · · · ) la suite
dont seul le terme de rang i est non nul, celui-ci valant 1. La famille (e1 , · · · , ep ) est
une b.o.n. de Fp . Soit a = (an )n∈N ∈ E \F . Si a possèdait une projection orthogonale
π = (πn )n∈N sur F , en notant N le rang au-delà duquel les πn sont nuls, on aurait
π ∈ FN . Comme quel que soit y ∈ F , ka − πk ≤ ka − yk, a fortiori quel que soit
y ∈ FN , ka − πk ≤ ka − yk, ie que π serait en particulier la projection orthogonale
PN
de a sur FN . Par le Théorème 4.2, π = j=1 (a|ej )ej = (a1 , a2 , · · · , aN , 0, · · · ).
Mais si k est un indice > N tel que ak 6= 0 (un tel k existe puisque a 6∈ F ),
y = (a1 , a2 , · · · , aN , · · · , ak , 0, · · · ) est un élément de F tel que ka − πk > ka − yk,
ce qui est contradictoire.
Suite à cet exemple en dimension infinie de non existence du projeté sur un sev
F , nous nous intéressons à la caractérisation des sev F d’un ev E de dimension
quelconque, pour lesquels existent les projetés orthogonaux de tout vecteur de E.
Nous allons voir que cette question est liée à une autre question : celle du caractère
direct de la somme de F et d’un autre sev de E, l’espace F ⊥ que nous définissons
maintenant.
À tout sev F d’un espace préhilbertien E (de dimension quelconque) nous allons
associer un autre sev de E, l’orthogonal F ⊥ de F dans E. Par définition

F ⊥ = {x ∈ E; ∀y ∈ F, (x|y) = 0},

c’est-à-dire que F ⊥ est l’ensemble des vecteurs de E qui sont orthogonaux à tous les
vecteursT de F . Il s’agit d’un sev de E, puisque si y ∈ F , φx : x 7→ (x|y) est linéaire et
F ⊥ = y∈F ker φx est bien un sous-espace vectoriel de E en tant qu’intersection des
sous-espaces ker φx de E (rappelons qu’une intersection quelconque de sous-espaces
vectoriels de E est un sous-espace vectoriel de E).
Dans l’hypothèse où l’on disposerait de la somme directe E = F ⊕ F ⊥ , on dis-
poserait de la notion de projection sur F parallèlement à F ⊥ , ou encore de
projection sur F asociée à la somme directe E = F ⊕ F ⊥ .
On rappelle de quoi il s’agit.
Rappel d’algèbre linéaire. Soit E un K-espace vectoriel et F et G deux sous-
espaces vectoriels de E tels que

F ∩ G = {0E } et ∀x ∈ E ∃u ∈ F ∃v ∈ G tels que x = u + v.


4. PROJECTION ORTHOGONALE SUR UN SOUS-ESPACE 11

On dit alors que E est somme directe de F et G ou que F (resp. G) est un


supplémentaire de G (resp. de F ) dans E. On note alors cette propriété par E =
F ⊕ G et on montre que pour tout x ∈ E les vecteurs u ∈ F et v ∈ G tels que
x = u + v sont uniques, c’est-à-dire que si l’on a x = u0 + v 0 , avec u0 ∈ F et v 0 ∈ G
alors u = u0 et v = v 0 . Pour x ∈ E donné l’unicité du couple (u, v) ∈ F × G tel
que x = u + v permet de définir deux applications : x 7→ u et x 7→ v, que l’on
appelle respectivement la projection sur F associée à la somme directe E = F ⊕ G
et la projection sur G associée à la somme directe E = F ⊕ G. On dit aussi que
u est la projection de x sur F parallèlement à G et que v est la projection de x
sur G parallèlement à F . On note ces projections πF et πG . Il est facile de montrer
que πF : E → F et πG :→ G sont deux applications linéaires (il s’agit d’un b.o.n.
exercice pour assimiler la définition de la notion de somme directe).
Rappelons pour finir qu’une condition nécessaire et suffisante pour que E = F ⊕G
est que si BF est une base de F , BG est une base de G, alors (BF , BG ) est une base
de E.
• Ainsi dans notre contexte où E est un espace préhilbertien et dans l’hypothèse
où l’on disposerait de la somme directe E = F ⊕ F ⊥ , tout vecteur a de E s’écrirait
de manière unique comme la somme d’un vecteur u de F et d’un vecteur v de
F ⊥ : a = u + v, (u, v) ∈ F × F ⊥ . Par définition πF : E → F et πF ⊥ : E → F ⊥
définies par πF (a) = u et πF ⊥ (a) = v sont les projections de E sur F (resp. sur F ⊥ )
parallèlement à F ⊥ (resp. à F ) ou encore les deux projections associés à la somme
directe E = F ⊕ F ⊥ .
• D’autre part si l’on se place dans le cas où tout point a de E possède un projeté
orthogonal sur F , ie qu’existe un unique π ∈ F tel que ∀y ∈ F, ka − πk ≤ ka − yk
on peut tenter de comparer le projeté orthogonal π de a sur F avec le le projeté u
de a sur F parallèlement à F ⊥ . C’est ce que fait le Théorème 4.3, qui donne des
conditions sous lesquelles u = π.
Ainsi le lien entre le projeté orthogonal sur un sev F de E (lorsqu’il existe) et la
projection sur F associée à la somme directe E = F ⊕ F (lorsqu’elle a lieu) est le
suivant

4.3. Théorème (Conditions d’existence de supplémentaires orthogonaux).


Soit (E, ( | )) un espace préhilbertien et F un sev de E (a priori de dimension
quelconque tous deux).
(1) Soit BF une base orthogonale de F (on suppose qu’il en existe une, ce
qui n’arrive pas à coup sûr). Si la famille libre BF se complète en une
base orthogonale de E par une famille C alors E = F ⊕ F ⊥ , et dans ce
cas F ⊥ = vect(C ).
(2) On a E = F ⊕ F ⊥ ssi tout vecteur de E possède un (unique) projeté
orthogonal sur F . Dans ce cas le projeté orthogonal d’un vecteur sur
12 Table des matières

F est son projeté sur F parallèlement à F ⊥ dans la somme directe


E = F ⊕ F ⊥.
En partculier, si F un sous-espace vectoriel de E de dimension
finie :
(3) E = F ⊕ F ⊥ .

Démonstration. (1) Supposons que la b.o. BF de F se complète en une


b.o. B = (BF , A) de E et montrons qu’alors E = F ⊕ F ⊥ .
Nous notons H = vect(A) et nous montrons que H = F ⊥ (notons que
A est une base de H, car A est une famille orthogonale donc libre, qui
engendre H). On a H ⊂ F ⊥ car tous les éléments de la base A de H sont
orthogonaux à tous les éléments de la base BF de F . D’autre part si x ∈ F ⊥ ,
en écrivant x sur B, on voit que x n’a pas de composantes dans F , donc
x est un élément de H. En effet, si x = u + v avec u ∈ F et v ∈ H, quel
que soit e ∈ BF , (x|e) = (u|e) + (v|e), avec en outre (x|e) = 0 puisque
x ∈ F ⊥ , e ∈ F et (v|e) = 0 puisque v est combinaison linéaire d’éléments
de BF et que e et les éléments de BF sont orthogonaux. On Pk a donc bien
(u|e) = 0 pour tout e ∈ BF . Or puisque u ∈ F , u = i=1 αi ei , avec
e1 , · · · , ek ∈ BF et α1 , · · · , αk ∈ K et les remarques qui précèdent montrent
que 0 = (u|ei ) = αi et donc finalement u = 0, soit : x = v ∈ H lorsque
x ∈ F ⊥ . On a donc montré que B = (BF , A) est une b.o. de E implique
F ⊥ = H. Enfin, comme (BF , A) est une base de E, E = F ⊕ H (cf le rappel
d’algèbre linéaire ci-dessus), ie E = F ⊕ F ⊥ .
(2) • Supposons que E = F ⊕ F ⊥ et montrons qu’alors tout vecteur a de E
se projète orthogonalement sur F . Soit donc a ∈ E. On peut alors écrire
a = u + v pour un unique couple (u, v) ∈ F × F ⊥ . Montrons que u est alors
le projeté orthogonal de F . On a, par le théorème de Pythagore, pour tout
y ∈ F : ka − yk2 = ka − u + u − yk2 = ka − uk2 + ku − yk2 , puisque u − y ∈ F
et a − u = v ∈ F ⊥ . Il s’ensuit que ka − yk > ka − uk sauf lorsque y = u
auquel cas l’égalité a lieu. Donc u est bien l’unique vecteur de F dont la
distance à a est minimale.
• Réciproquement, supposons que tout vecteur de E possède un projeté
orthogonal sur F . Montrons qu’alors E = F ⊕ F ⊥ . La preuve précédente
montre qu’alors si a = u + v où (u, v) ∈ F × F est l’écriture de a dans
la somme directe F ⊕ F ⊥ , nécessairement u est le projeté orthogonal de
a sur F . Soit alors a ∈ E et π son projeté orthogonal sur F . Nous allons
montrer que a − π ∈ F ⊥ . On aura alors écrit a = π + (a − π) avec π ∈ F et
a − π ∈ F ⊥ , soit montré que E = F + F ⊥ . Puisque par hypothèse ∀y ∈ F ,
ka − π − yk ≥ ka − πk, en posant z = π − y ∈ F (z parcourt F lorsque y
parcourt F ), on a ∀z ∈ F , ka − zk ≥ ka − πk, de sorte que par définition le
projeté ortogonal de a − π sur F existe et est 0.
5. MATRICES ORTHOGONALES ET UNITAIRES 13

Grâce à cette translation, on est maintenant ramené à prouver que si


b ∈ E se projète orthogonalement sur F en 0, alors b ∈ F ⊥ . Pour montrer
cela soit y ∈ F . On a : ∀t ∈ R, kb + tyk2 = kbk2 + t2 kyk2 + 2tRe(b|y) et
∀t ∈ R, kb + tyk2 ≥ kb − 0k2 . On déduit que ∀t ∈ R, t2 kyk2 ≥ −2tRe(b|y).
Quitte à changer y en −y, on peut supposer que Re(b|y) ≤ 0, et en ne
considérant que les t > 0 on obtient : ∀t ∈ R∗+ , tkyk2 ≥ 2|Re(b|y)|. Or ceci
n’est possible, pour t proche de 0, que si Re(b|y) est nul. En conséquence
pour tout y ∈ F , Re(b|y) = 0. Si K = R, on a obtenu que ∀y ∈ F, Re(b|y) =
(b|y) = 0, soit b ∈ F ⊥ . Mais si K = C, Im(b|y) = Re(b|iy). Or F étant un
C-espace, iy ∈ F ssi y ∈ F . Alors, en posant z := iy dans le raisonnement
précédent, on a montré que Re(b|z), soit que Im(b|y) = 0. Donc finalement
pour tout y ∈ F , (b|y) = 0, que K = R ou K = C. Montrons pour finir que
F ∩ F ⊥ = {0}. Si y ∈ F ∩ F ⊥ , alors (y|y) = 0, ce qui équivaut à y = 0.
(3) Dans le cas où F est de dimension finie, d’après le Théorème 2.9, tout point
de E possède un projeté orthogonal sur F . Par le point ii, on a prouvé iii.
On peut aussi prouver directement iii, plus aisément qu’en ii : Si x ∈ F et
x ∈ F ⊥ , (x|x)
P = 0, ie x = 0. De plus, siP(e1 , · · · , en ) est une b.o.n. de F ,
on a : u = nj=1 (a|ej )ej ∈ F , v = a − nj=1 (a|ej )ej ∈ F ⊥ et u + v = a,
ce qui prouve que E = F + F ⊥ , donc que E = F ⊕ F ⊥ P (et à nouveau que
la projection sur F associée à cette somme directe est nj=1 (a|ej )ej , ie la
projection orthogonale de a sur F ).


Attention ! On a vu que grâce à l’algorithme de Gram-Schmidt qu’une b.o.n.


d’un sev F de dimension finie (ou dénombrable) d’un ev E de dimension dénombrable
se complète en une b.o.n. de E. Mais il n’est pas vrai qu’étant donnée une b.o.n.
BF d’un sev F de E, lorsque E n’est pas dénombrable, on peut toujours trouver
une famille (orthonormée) F de E telle que (BF , F ) soit une b.o.n. de E, ie que
le  théorème de la base incomplète orthonormée  n’existe pas pour les
espaces E de dimension non dénombrable. En effet, si tel était le cas, tout
espace F admettrait pour supplémentaire F ⊥ , par le Théorème 2.10.i. Mais il se
peut très bien que F et F ⊥ ne soient pas en somme directe dans E. Par exemple si
l’on reprend l’exemple qui précède le Théorème 2.10, où E = `2 (R) et F = `00 (R).
Si x ∈ F ⊥ , alors quel que soit y ∈ F , (x|y) = 0. En particulier, quel que soit i ∈ N
.,
(x|ei ) = xi = 0, et donc F ⊥ = {0}, alors que F 6= E, donc F ⊕ F ⊥ 6= E. Notons que
dans cet exemple `2 n’admet pas de base dénombrable et que l’espace F n’est pas
de dimension finie.

5. Matrices orthogonales et unitaires, automorphismes orthogonaux et


unitaires, isométries
Soit E un espace préhilbertien de dimension finie, et B1 = {e1 , · · · , en }, B2 =
{d1 , · · · , dn } deux bases de E. Notons P = M at(IdE , B1 , B2 ), la matrice de passage
14 Table des matières

de B1 à B2 . Par définition, la j eme colonne de


 P est celle des coordonnées du j
ieme

p1,j
vecteur de B1 dans la base B2 , soit [ej ]B =  ... , c’est-à-dire ej = nk=1 pk,j .dk .
P
2
pn,j
- Supposons que B1 et B2 sont deux b.o.n. de E. Dans ce cas (ei |ej )E = δij 2 , on
en déduit que (ei |ej )E = ([ei ]B2 | [ej ]B2 )Kn = δij . C’est-à-dire que les colonnes de P ,
vues comme éléments de Kn , sont des vecteurs orthonormés pour le produit scalaire
standard ( | )Kn de Kn . Ceci équivaut à dire que t P · P = In .
- Réciproquement, si P est une matrice telle que t P · P = In ie telle dont les
colonnes sont orthonormées pour le produit scalaire standard de Kn , alors P est
d’inverse t P et P · t P = In . Cette dernière égalité signifie que les colonnes de t P sont
orthonormées pour le produit scalaire standard de Kn . Or les colonnes de t P = P −1
sont les coordonnées des dk dans la base B1 . Il s’ensuit que si B1 est une b.o.n. de
E, (di |dj )E = ([di ]B1 |[dj ]B1 )Kn = δij , et ainsi B2 est une b.o.n. de E.
- Notons encore que les colonnes d’une matrice P sont orthonormées pour le
produit scalaire standard de Kn ssi t P ·P = In ssi t P a pour inverse P ssi P · t P · = In
ssi (en conjuguant) P · t P · = In ssi les lignes de P sont ortonormées pour le produit
scalaire standard de Kn .
En conclusion, on a
5.1. Définition (matrice orthogonale, matrice unitaire). Une matrice P est une
matrice de passage d’une base orthonormée à une autre ssi que ses colonnes (resp.
ses lignes) sont orthonormées pour le produit scalaire standard de Kn ssi P −1 = t P .
On appelle une telle matrice une matrice orthogonale dans le cas K = R, une
matrice unitaire dans le cas K = C. L’ensemble des matrices orthogonales de
taille n est noté On (R), on l’appelle le groupe orthogonal de M at(n × n, R).
L’ensemble des matrices unitaires de taille n est noté Un (C), on l’appelle le groupe
unitaire de M at(n × n, C).
5.2. Remarque. La Proposition 2.14 montrera que ces ensembles sont bien des
sous-groupes, pour le produit des matrices, du groupe Gln (K) des matrices inver-
sibles à coefficients dans K, K = R ou C. Mais il est déjà facile de voir ceci directe-
ment d’après notre définition, puisque si P est une matrice de passage d’une base
orthonormée à une autre, il en est de même de P −1 et puisque le passage d’une
base orthonormée à une autre puis à une troisième est encore un passage d’une base
orthonormée à une autre.
- Remarquons que dans le cas où P est la matrice de passage d’une b.o.n. de E
à une autre b.o.n. de E, on a
(X|Y )Kn = (P.X|P.Y ))Kn (∗)
n t
où X et Y sont des colonnes quelconques de K . En effet, (P.X|P.Y ) = (P.X)P .Y =
t
X.t P.P .Y = t X.In .Y = (X|Y )Kn .
2. δij est le symbole de Kronecker, défini par δij = 0 si i 6= j et δij = 1 si i = j.
5. MATRICES ORTHOGONALES ET UNITAIRES 15

Réciproquement en faisant, dans l’égalité (∗), X = les coordonnées du j eme vec-


teur de la base canonique de Kn et Y = les coordonnées du ieme vecteur de la base
canonique de Kn , on retrouve que les colonnes de P sont orthonormées. Il y a donc
équivalence entre (∗) et l’appartenance de P à On (R) ou Un (C). - De même, il y a
équivalence entre l’égalité (∗) et l’égalité (∗∗) ci-dessous, d’après la formule donnant
le produit scalaire en fonction de la norme dans le Théorème 2.8, et donc équivalence
entre (∗∗) et l’appartenance de P à On (R) ou Un (C).
kXkKn = kP.XkKn (∗∗)
On a ainsi :

5.3. Proposition. Soit E un espace préhilbertien de dimension finie, on a :


Une matrice P est une matrice de passage d’une b.o.n. de E
à une autre b.o.n. de E
⇐⇒ les colonnes (ou les lignes) de P sont orthonormées
pour le produit scalaire standard de Kn
⇐⇒ P −1 = t P (cas K = R), P −1 = t P (cas K = C),
⇐⇒ P préserve la norme, ie kP.XkKn = kXkKn ,
⇐⇒ P préserve le produit scalaire, ie (P.X|P.Y )Kn = (X|X)Kn .
5.4. Remarque. Notons que si f est un endomorphisme qui est représenté sur une
b.o.n. par une matrice orthogonale (ou unitaire dans le cas complexe), la matrice qui
la représente dans une autre b.o.n. est encore orthogonale (ou unitaire). En effet,
dans le cas réel par exemple, la matrice de passage P d’une b.o.n. à l’autre est
orthogonale, et si M est orthogonale, ie si M −1 = t P , il en est de même de N =
t
P M P , puisque N −1 = t P t M P = t N . Être représenté par une matrice orthogonale
(ou unitaire) est donc une propriété relative à l’endomorphisme et indépendante de
la base sur laquelle on choisit de le représenter.
Cette remarque nous conduit à la définition suivante.
5.5. Définition. Un endomorphisme f d’un espace préhilbertien E est dit or-
thogonal (resp. unitaire) s’il est représenté dans une b.o.n. par une matrice or-
thogonale (resp. unitaire). On dit aussi automorphisme orthogonal (resp. auto-
morphisme unitaire), le terme automorphisme étant attribué aux isomorphismes
dont l’espace de départ est le même que celui d’arrivée.
Avant d’énoncer la Proposition 5.6, rappelons que le déterminant d’une ma-
trice est par définition la seule application application multilinéaire alternée sur ses
colonnes, valant 1 sur le matrice unité. Le déterminant se calcule alors classique-
ment par développement et/ou simplification sur les lignes ou sur les colonnes par
les opérations permises dans le pivot de Gauss.
Ensuite rappelons que le déterminant d’un endomorphisme u : E → E
d’un espace vectoriel de dimension finie est celui de sa matrice M at(u, B, B) dans
16 Table des matières

n’importe quelle base B de u (attention la base doit être la même au départ et à


l’arrivée). Cette définition ne dépend pas du choix de la base B.
Le seul choix fait dans ces définitions est celui qui consiste à attribuer 1 à la
valeur du déterminant de la matrice unité. D’autre part, l’espace vectoriel des formes
multilinéaires alternées sur Kn étant de dimension 1, tout autre choix de définition
du déterminant d’une matrice ou d’un endomorphisme via une forme multilinéaire
alternée conduit à un multiple du déterminant que nous venons de définir.

5.6. Proposition. (1) Le produit de deux matrices orthogonales (resp.


unitaires) est une matrice orthogonale (resp. unitaire). L’inverse d’une
matrice orthogonale (resp. unitaire) est une matrice orthogonale (resp.
unitaire). Par conséquent la composition de deux automorphismes or-
thogonaux (resp. unitaires) est un automorphisme orthogonal (resp. uni-
taire) et l’inverse d’un automorphisme orthogonal (resp. unitaire) est
un automorphisme orthogonal (resp. unitaire). Il s’ensuit que On (R),
Un (C), O(E) et U (E) sont des sous-groupes respectivement de Gln (R),
Gln (C) et Aut(E).
(2) Si P est une matrice orthogonale, det(P ) = 1 ou −1 et si P est unitaire,
| det(P )| = 1.

Démonstration. (1) Faisons la preuve dans le cas orthogonal. Il suffit de


noter que si P et Q sont orthgonales, (P Q)−1 = Q−1 P −1 = t Qt P = t (P Q).
Puis que t (P −1 ) = tt P = P = (P −1 )−1 .
(2) Dans le cas réel, on a det(t P ·P ) = det(In ) = 1 = det(t P ) det(P ) = det2 (P ).
Dans le cas complexe : det(t P · P ) = det(In ) = 1 = det(t P ) det(P ) =
| det(P )|2 .

5.7. Remarque (Groupe orthogonal d’un espace quadratique). Nous avons intro-
duit les automorphismes orthogonaux comme les endomorphismes représentés dans
une b.o.n. par une matrice orthogonale. On peut directement les introduire, dans le
cadre des espaces quadratiques, cadre plus large que celui des espaces préhilbertiens
réels, sans mentionner de base dans laquelle ils sont représentés. On procède de la
façon suivante : Soit E un R-espace vectoriel et φ une forme bilinéaire symétrique
non dégénérée sur E 3 . On dit que (E, φ) est un espace quadratique.
Il résulte immédiatement du caractère non dégénéré de φ que, pour u ∈ L(E),
s’il existe v ∈ L(E) tel que ∀x, y ∈ E, φ(u(x), y) = φ(x, v(y)) alors v est unique.
On dit que v est l’adjoint de u et on note v = u∗ .
On dit qu’un endomorphisme u est normal ssi u admet un adjoint et u∗ u = uu∗ .
On dit qu’un automorphisme u est orthogonal ssi u admet un adjoint et u∗ = u−1 .
3. Dans ce cadre une forme bilinéaire non dégénérée est définie par : pour tout x ∈ E, (∀y ∈
E, φ(x, y) = 0) ⇒ x = 0
5. MATRICES ORTHOGONALES ET UNITAIRES 17

On note O(E, φ) l’ensemble des automorphismes orthogonaux de (E, φ). Il s’agit


facilement d’un sous-groupe de Gl(E). Si on suppose que E est de dimension finie,
tout endomorphisme de E admet un adjoint car si B = (e1 , · · · , en ) est une base de
E, Ω = (φ(ei , ej )) étant la matrice de φ dans B, on a :
φ(x, y) = t XΩY, M ∗ = Ω−1 · t M · Ω,
où X, Y sont les coordonnées de x, y dans B, M la matrice d’un automorphisme
u dans B et M ∗ celle de u∗ . Il en résulte que, dans le cas où finalement (E, φ) est
euclidien (ie où φ est de plus définie et positive), u ∈ O(E, φ) ssi la matrice M de
u dans une b.o.n. vérifie : t M = M −1 , puisqu’alors Ω = In . On retrouve donc la
notion précédente d’automorphisme orthogonal.
5.8. Définition. Si E est un espace préhilbertien, on appelle isométrie toute
application u : E → E qui conserve la distance, ie ∀x, y ∈ E, ku(x)−u(y)k = kx−yk.
5.9. Remarque. On voit facilement qu’une isométrie est injective, puisque u(x) 6=
u(y) ⇐⇒ ku(x) − u(y)k > 0 implique kx − yk > 0. On ne suppose pas dans la
défnition d’une isométrie la linéarité, mais nous allons voir qu’en réalité une isométrie
qui fixe 0 est linéaire, donc, en dimension finie, bijective.

5.10. Proposition (Caractérisation des isométries réelles fixant l’origine).


Soit E un espace euclidien (préhilbertien réel de dimension finie) et u : E → E
une application. On a les équivalences
(1) L’application u est une isométrie et u(0) = 0.
(2) L’application u conserve le produit scalaire, ie (u(x)|u(y)) = (x|y),
(3) L’application u est orthogonale.
De plus si u est une isométrie de Rn , il existe une translation t~v :
x 7→ ~v + x de Rn et une application orthogonale w : E → E telles que :
u = t~v ◦ w.

5.11. Remarque. Un théorème de S. Mazur et S. Ulam de 1932 assure que toute


isométrie surjective u (une isométrie étant toujours injective, dire qu’une isométrie
est surjective revient à dire qu’elle est bijective) d’un espace vectoriel dans un autre
(non nécessairement de dimension finie), telle que u(0) = 0, est en réalité linéaire. La
proposition ci-dessus est moins générale puisqu’elle traite le cas des espaces vectoriels
normés dont la norme est issue d’un produit scalaire.
Démonstration. i ⇒ ii. Comme ∀x, y ∈ E, ku(x)−u(y)k = kx−yk, en faisant
y = 0, on obtient : ∀x ∈ E, ku(x)k = kxk, ie que u conserve la norme. On a alors :
ku(x) − u(y)k2 = ku(x)k2 + ku(y)k2 − 2(u(x)|u(y))
et kx − yk2 = kxk2 + kyk2 − 2(x|y),
Ce qui donne compte tenu que u conserve la norme et la distance (u(x)|u(y)) = (x|y).
18 Table des matières

ii ⇒ iii. Comme u conserve le produit scalaire, sa matrice dans n’importe quelle


b.o.n. conserve aussi le produit scalaire ; celle-ci est donc par définition une ma-
trice orthogonale. Prouver que u est un endomorphisme orthogonal revient alors par
définition à prouver que u est linéaire. Or si u conserve le produit scalaire, quel que
soient x ∈ E et α ∈ K, le développement de (u(αx) − αu(x)|u(αx) − αu(x)) est :
(u(αx)|u(αx)) − α(u(αx)|u(x)) − α(u(x)|u(αx)) + α2 (u(x)|u(x))

= (αx|αx) − α(αx|x) − α(x|αx) + α2 (x|x)


= α2 (x|x) − α2 (x|x) − α2 (x|x) + α2 (x|x) = 0.
On en déduit que u(αx)−αu(x) = 0. De même on montre que u(x+y) = u(x)+u(y).
Enfin, si u(x) = 0, ie si (u(x)|u(x)) = 0, on a (x|x) = 0, ie que u est injective. Comme
u est un endomorphisme et que E est de dimension finie, u est un isomorphisme.
iii ⇒ i. Immédiat.
Enfin, si u est une isométrie en notant ~v = u(0), l’application w = t−~v ◦ u (ce qui
équivaut à u = t~u ◦ w) est une isométrie telle que w(0) = 0, d’après i ⇐⇒ iii, w est
une application orthogonale. 
5.12. Remarque. Dans la Proposition 5.10, la dimension finie de E n’est utile
que pour l’implication (u linéaire injectif =⇒ u bijectif).
5.13. Définition. D’après la Proposition 5.10 une isométrie qui fixe l’origine
dans un espace euclidien est un automorphisme orthogonal. On sait d’autre part
que si u est un automorphisme orthogonal, sa matrice M at(u, B, B) dans n’importe
quelle base orthonormée est une matrice orthogonale, et par conséquent que
det(u) := det(M at(u, B, B)) = ±1.
Dans le cas où f est une isométrie d’un espace euclidien qui s’écrit f = tf (0)
~ +u
avec u ∈ O(E), si det(u) = 1 on dit que f est une isométrie directe et dans le cas
où det(u) = −1 on dit que f est une isométrie indirecte.
5.14. Remarque. On verra qu’un isométrie directe qui fixe l’origine transporte
une b.o.n sur b.o.n de la même classe d’orientation, tandis qu’une isométrie indirecte
transporte une b.o.n d’une classe d’orientation donnée sur une b.o.n de l’autre classe
d’orientation.
5.15. Notations. On note O + (E) (resp. On+ (R)) l’ensemble des automorphismes
orthogonaux de déterminant 1 (resp. des matrices orthogonales de déterminant 1) et
O − (E) (resp. On− (R)) l’ensemble des automorphismes orthogonaux de déterminant
−1 (resp. des matrices orthogonales de déterminant −1).
5.16. Remarque. Soit E un espace euclidien. Puisque det : (O(E), ◦) → ({−1, 1}, ·)
est un morphisme de groupes, son noyau O + (E) est un sous-groupe distingué de
O(E).
6. ORIENTATION DE Rn 19

6. Orientation de Rn
Soient A = (~a1 , . . . , ~an ) une base de Rn et C = (~e1 , . . . , ~en ) la base canonique
de Rn . Il existe une unique application linéaire LA : Rn → Rn telle que pour tout
j = 1, . . . , n, LA (~ej ) = ~aj . Cette application est définie par
Xn n
X n
X
A A A
L (x1 , · · · , xn ) = L ( xi~ei ) = xi L (~ei ) = xi~ai .
i=1 i=1 i=1
A n
L’applicaton L est un isomorphisme de R , puisque transformant les vecteurs d’une
base en ceux d’une base.
Par définition, la matrice M at(LA , C, C) de cette application linéaire dans la
base C, choisie au départ et à l’arrivée, est la matrice dont la j-ième colonne est
la colonne [~aj ]C des coordonnées de ~aj dans la base C. Il s’agit aussi de la matrice
M at(IdRn , A, C) de l’application identité, mais cette fois dans la base A au départ
et la base C à l’arrivée, ou encore de la matrice de passage de la base A à la base
C. Le déterminant δA de cette matrice est non nul, car LA est un isomorphisme, il
est alors soit > 0, soit < 0.
6.1. Remarque. Si A = C, l’application LA est l’identité et M (LA , C, C) = In
est la matrice unité, de sorte que δC = 1.
6.2. Définition. On dit que deux bases A et B sont équivalentes, et on note
A ∼ B si et seulement si δA δB > 0. On vérifie qu’il s’agit bien d’une relation
d’équivalence. Notons, que puisque δC = 1, A ∼ C ⇐⇒ δA > 0.
On considère alors Bn , l’ensemble des classes d’équivalence des bases de Rn ,
suivant la relation d’équivalence ∼.

6.3. Proposition. L’ensemble Bn ne comporte que deux classes.

Démonstration. Tout d’abord, si A = (−~e1 , . . . , ~en ), A et C ne sont pas dans


la même classe car δA = −1 < 0, puisque la matrice de LA est la matrice
−1 0 · · · 0
 
 0 1 · · · 0
M (LA , C, C) = 
 ... ... .. 
.
0 0 ... 1
Il s’ensuit que Bn comporte au moins deux classes.
Maintenant si i B est une troisième base de Rn , alors soit δB > 0 et dans ce cas
B est dans la classe de C, soit δB < 0. Mais comme alors δA δB > 0, on en conclut
que B est dans la classe de A. Autrement B ne peut être dans une autre classe que
celle de C ou celle de A. 
La proposition suivante permet de déterminer si deux bases sont dans la même
orientation sans calculer les deux déterminants des matrices de passage de ces bases
20 Table des matières

à la base canonique, mais en calculant seulement le déterminant de la matrice de


passage de l’une à l’autre.

6.4. Proposition. Les bases A et B sont dans la même orientation si et


seulement si le déterminant de la matrice de passage de l’une à l’autre est positif.
Démonstration. Notons que le déterminant de la matrice de passage de A à
B est l’inverse de celui de la matrice de passage de B à A, de sorte qu’il est inutile
de préciser le sens de passage dans l’énoncé. Ensuite comme δA est de même signe
que 1/δA , qui est le déterminant de la matrice de passage de C à A, le signe de δA δB
est celui de δB /δA qui est le déterminant du produit de la matrice de passage de B
à C par la matrice de passage de C à A. Or ce déterminant est celui de la matrice
de passage de B à A. 
6.5. Définition. Orienter l’espace Rn est choisir une des deux classes de Bn .
L’orientation de Rn est la classe choisie parmi les deux classes de Bn , l’autre classe
est dite l’orientation opposée. Choisir une classe signifiant que l’on considère
comme privilégiées les bases de Rn qui sont dans la classe choisie. Ces bases sont
alors dites positives. Souvent par défaut on choisit la classe de C.
6.6. Remarque. Dans le cas du plan R2 , on constate que choisir une classe de
Bn , c’est-à-dire la classe de C ou celle de C 0 = (−~e1 , ~e2 ) (qui est aussi celle de
(e1 , −e2 )) revient à tourner dans la même sens dans le plan lorsque l’on emprunte
le chemin le plus court (c’est-à-dire de longueur strictement inférieure à π), dans le
cercle unité, reliant la normalisation du premier vecteur à celle du second vecteur
d’une base positive.
La base A est dans la même orientation que la base C, b2
mais dans l’orientation opposée à celle de la base B.

a1 b1

a2

c2
c1

6.7. Remarque. Dans le cas de R3 , le choix d’une orientation fixe une action de
vissage ou de dévissage : pour toute base (~a1 , ~a2 , ~a3 ) de R3 dans une même classe
7. MESURE D’ANGLE ORIENTÉ ET ANGLE GÉOMÉTRIQUE 21

d’orientation donnée, en tournant de ~u1 vers ~u2 et en ayant disposé son avant-bras le
long de a3 , le vecteur a3  orientant le bras dans le sens poignet-épaule , on opère
toujours le même geste dans l’espace (soit un vissage, soit dévissage).

La base A n’est pas dans la même orientation que la base B,


La base B est dans la même orientation que la base C. b2

a3

b3
vissage

b1
dévissage
c1

a2 vissage
a1

c2
c3

7. Mesure d’angle orienté et angle géométrique


On caractérise complètement les isométries du plan réel (ou d’un espace euclidien
de dimension 2) fixant l’origine, selon que son déterminant est 1 ou −1. C’est l’objet
de la proposition qui suit.

7.1. Proposition (Classification des isométries du plan). Soit u une isomé-


trie d’un espace euclidien E de dimension 2 fixant l’origine (quitte à la composer
avec une translation, on peut toujours supposer qu’il en est ainsi).
(1) Étant donnée une base orthonormée de E, il existe un réel θ tel que la
matrice qui représente u dans cette base est
   
cos θ − sin θ cos θ sin θ
Sθ = si u ∈ O (E) , Sθ =
+ 0
si u ∈ O − (E),
sin θ cos θ sin θ − cos θ
avec θ ∈ [0, 2π[.
(2) De plus la matrice représentant une isométrie u ∈ O + (E) dans une
b.o.n. ne dépend pas du choix de la b.o.n. au sein d’une même classe
d’orientation, c’est-à-dire pourvu que l’on passe d’une b.o.n. à l’autre
par une matrice de passage de O + (2). En effet, si Sθ , Sα et Sα0 sont
22 Table des matières

trois matrices de O + (2), on a


(Sα )−1 Sθ Sα = Sθ .
En particulier Sθ Sα = Sα Sθ = Sθ+α montre que O + (2) (et donc O + (E))
est un sous-groupe abélien de O(E).
Alors que si l’on représente u dans deux b.o.n. qui ne sont pas dans la
même classe d’orientation, les matrices obtenues sont respectivement
Sθ et S−θ . En effet, si Sα0 et Sα0 0 sont deux matrices de O − (2), on a
(Sα0 )−1 Sθ Sα0 = S−θ .
(3) L’application ({eiθ ; θ ∈ [0, 2π]}, ·) → (O + (2), ◦) qui à eiθ associe Sθ est
un isomorphisme de groupes.
 
a b
Démonstration. Si M = est la matrice qui représente u dans une
c d
b.o.n. de R2 , les colonnes de M sont orthonormées pour le produit scalaire standard
de R2 :
(1) a2 + c2 = 1,

(2) b2 + d2 = 1,

(3) ab + cd = 0.
De (1) il vient qu’existe θ ∈ [0, 2π] tel que a = cos θ et c = sin θ, car (1) signifie
que (a, b) est sur le cercle unité. De même (2) signifie qu’existe α ∈ [0, 2π] tel que
b = cos α et d = sin α. Quant à (3) cos θ cos α + sin θ sin α = cos(θ − α) = 0, ce qui
donne α = θ + π/2 + kπ[2π].
On obtient finalement a = cos θ, b = − sin θ, c = sin θ, d = cos θ, ie M = Sθ ou
a = cos θ, b = sin θ, c = sin θ, d = − cos θ, ie M = Sθ0 .
On vérifie facilement que les formules triginométriques conduisent à Sθ Sα = Sθ+α .

7.2. Remarque. — Sθ est de spectre vide pour θ 6= 0 et π, antisymétrique
pour θ = π/2 et 3π/2 ; il s’agit de la matrice de la rotation de centre 0E et
(de mesure) d’angle θ.
— Sθ0 est de spectre {−1, 1}, symétrique et involutive (ie Sθ0 Sθ0 = I2 ), il s’agit de
la matrice de la symétrie orthogonale de centre la droite : ker(u − IdE ).
7.3. Définition. Soient E un espace euclidien de dimension 2 et B une base
orthonormée de E. On dit que u est une similitude (plane) lorsque la matrice
représentative de u dans B est ρ.Sθ (similitude directe) ou ρ.Sθ0 (similitude
indirecte) , avec ρ > 0 et θ ∈ R/2πZ.
7.4. Définition. D’une façon générale, ie quelle que soit la dimension de E, on
dit qu’un endomorphisme u de E est la symétrie orthogonale d’axe F , notée
7. MESURE D’ANGLE ORIENTÉ ET ANGLE GÉOMÉTRIQUE 23

sF , pour F un sev de E, si la restriction de u à F est IdF et si la restrisction de u


à F ⊥ est −IdF ⊥ . Autrement dit, si B est une b.o.n. de E obtenue par assemblage
d’une b.o.n. de F et d’une b.o.n. de F ⊥ , la matrice de u dans cette base est
 
Idim(F ) 0
∆= .
0 −Idim(E)−dim(F )
L’endomorphisme u est alors un automorphisme orthogonal (il transforme une
b.o.n. en une b.o.n.) et dans une b.o.n. quelconque, la matrice de u est P ∆t P (où
t
P = P −1 ). Il s’ensuit que cette matrice est symétrique. En revanche toutes les
matrices symétriques ne représentent pas nécessairement une symétrie orthogonale
d’axe (penser aux homothéties de rapport 6= 1). On verra dans la section suivante
que toutes les matrices symétriques sont diagonalisables dans une b.o.n. de vecteurs
propres. Dans ce cas si on suppose qu’une matrice symétrique M est de plus ortho-
gonale, ie représente une isométrie qui fixe l’origine, alors les valeurs propres de M
étant nécssairement +1 ou −1, M représente un symétrie orthogonale d’axe. On en
conclut :

7.5. Proposition (Caractérisation des symétries orthogonales). L’endomor-


phisme u est une symétrie orthogonale d’axe F ssi la matrice de u dans une
b.o.n. est symétrique et orthogonale. Dans ce cas F est l’espace propre de u
associé à la valeur propre 1.
7.6. Remarque. La Proposition 7.1 dit que la matrice représentant une applica-
tion orthogonale de déterminant 1 d’un espace euclidien E de dimension 2 dans une
base orthonormée B de E ne dépend pas du choix de B pourvu que l’on choisisse la
b.o.n. B au sein de la même classe d’orientation de E. Ou encore, l’espace E étant
orienté (disons, pour fixer les notations, que la classe orientation B est choisie parmi
les deux classes d’orientation possibles de B2 ), on peut associer à f ∈ O + (E) un
réel θ ∈ [0, 2π[ tel que M at(f, B, B) = Sθ avec B ∈ B, et que θ ne dépend pas du
choix de B quand B parcourt B.
Cette remarque conduit à la définition suivante de la mesure de l’angle orienté
d’une rotation f ∈ O + (E), lorsque E est un espace euclidien de dimension 2.
7.7. Définition. Avec les notations de la Remarque 7.6, on dit que θ ∈ [0, 2π[ est
la mesure de l’angle de la rotation f dans l’orientation B de E. Si le choix
de l’orientation B est clair, on parle plus simplement de la mesure de l’angle
orienté 4 de la rotation f .
L’égalité Sα0 −1 Sθ Sα0 = S−θ de la Proposition 7.1 montre que si θ est la mesure de
l’angle de la rotation f dans une orientation, la mesure de l’angle de la rotation f
dans l’autre orientation est alors −θ[2π].
Cette indétermination du signe de la mesure de l’angle d’une rotation, relati-
vement à un choix d’orientation se traduit par l’idée que si l’on ne sait pas dans
4. Sous-entendu par le choix de B
24 Table des matières

quel sens tournent les aiguilles sur le cadran d’une horloge (le savoir est connaı̂tre
une orientation de ce cadran, celle donnée par la course des aiguilles), on n’est pas
capable de d’avancer l’heure de 5 minutes sur cet horloge (une telle opération cor-
respond à une rotation de mesure d’angle +π/6 de la grande aiguille, lorsque le
cadran est orienté par le sens de parcours des aiguilles de l’horloge). Pas plus que
l’on n’est capable de reculer l’heure de 5 minutes sur cet horloge (une telle opération
correspond à une rotation de mesure d’angle −π/6 de la grande aiguille, lorsque le
cadran est orienté par le sens de parcours des aiguilles de l’horloge)...
En conclusion : Pratiquement, on se fixe une orientation d’un espace vectoriel
E par le choix d’une base B (que l’on choisit de plus orthonormée si l’espace est
euclidien), c’est-à-dire par le choix d’un représentant d’une classe de l’orientation de
E que l’on veut privilégier. Lorsque l’espace E est euclidien et de dimension 2, la
donnée d’une rotation f ∈ O + (E) induit alors un réel θ ∈ [0, 2π[, appelé la mesure
de l’angle de la rotation f dans l’orientation de B. Ce réel est donné par l’égalité
M at(f, B, B) = Sθ ,
et ne dépend pas du choix de B au sein de la classe de B.

7.8. Proposition (mesure de l’angle orienté formé par deux vecteurs - bis-
sectrice). Soit E un espace euclidien.
(1) L’action naturelle de O + (E) (et donc a fortiori de O(E)) sur la sphère
unité S = {x ∈ E; kxk = 1}, définie par
O + (E) × S → S
(u, x) 7→ u(x)
est transitive, ie que pour tout x, y ∈ S existe u ∈ O + (E) tel que
y = u(x).
(2) Dans le cas où dim(E) = 2, x et y étant donnés, la rotation u ∈
O + (E) telle que u(x) = y est de plus unique. Si l’on se donne alors
une orientation de E, la mesure de l’angle de la rotation u dans cette
orientation est appelée la mesure de l’angle orienté formé par
les vecteurs x et y (attention, l’ordre dans lequel on se donne les
vecteurs x et y importe pour définir la mesure de l’angle orienté par
ces deux vecteurs. En effet, se donner les vecteurs x et y dans l’ordre
inverse, serait par définition considérer la rotation u−1 , car u−1 (y) = x.
Or la rotation u−1 , dans une orientation donnée de E, est de mesure
d’angle opposé, modulo 2π, à la mesure de l’angle de u dans cette même
orientation a).
Notons que dans le cas où x et y sont colinéaires la mesure de l’angle
orienté formé par x et y est 0 ou π, selon que x = y ou que x = −y.
7. MESURE D’ANGLE ORIENTÉ ET ANGLE GÉOMÉTRIQUE 25

On peut définir l’angle géométrique entre les vecteurs x et y


(dans cet ordre) comme la rotation u.
(3) Dans le cas où dim(E) = 2, x et y étant donnés, il existe une unique
symétrie axiale transformant x en y, ie une seule droite ∆ telle que
S∆ (x) = y. L’axe de cette symétrie est appelé la bissectrice de l’angle
formé par x et y.
a. Il suffit de remarquer que si la matrice de u dans une b.o.n. de E est Sθ , celle de u−1
dans la même base est S−θ , puisque Sθ Sα = Sθ+α , d’après la Proposition 2.16, et S0 = I2 .

Démonstration. Il suffit de démontrer que l’on peut trouver deux b.o.n. de


E, B = (x, e2 , · · · , en ) et B 0 = (y, e02 , · · · , e0n ) (ce qui est possible car le théorème
de la base incomplète orthonormée a lieu en dimension finie, d’après le procédé de
Gram-Schmidt) et définir u sur B par u(x) = y et u(ei ) = e0i , i = 1, · · · , n. Alors de
deux choses l’une :
- Soit u est de déterminant positif (= 1) et dans ce cas on a terminé la preuve,
puisque transformant une b.o.n. en une autre, u ∈ O(E),
- Soit det(u) = −1. Dans ce cas on considère v qui transforme B en B 00 =
(y, e1 , · · · , en−1 , −en ), puisqu’alors v ∈ O + (E).
Dans le cas où dim(E) = 2, on ne peut compléter une b.o.n. commençant par un
vecteur unitaire donné, disons y, que de deux façons : par un certain vecteur unitaire
e01 ou son opposé. Ceci résulte de (y|e01 ) = 0 et ke01 k = 1. De sorte qu’une b.o.n. (x, e1 )
étant donnée, nous avons les possibilités suivantes pour u ∈ O(E) transformant x
en y : soit u(e1 ) = e01 soit u(e1 ) = −e01 . Ces deux possibilités conduisent à des
automorphismes orthogonaux u de déterminants opposés. Il n’existe donc qu’un
seul choix pour u(e1 ) afin que det(u) = 1.
- Soient (e1 , e2 ) une b.o.n. de R2 et notons ∆ = vect(e1 ). Si s∆ (x) = y, en notant
x
 = αe1+ βe2 , y = ae1 + be2 , puisque la matrice de s∆ dans la b.o.n. (e1 , e2 ) est
1 0
, on obtient
0 −1
x = αe1 + βe2 , y = αe1 − βe2 ,
soit αe1 = (x + y)/2. Si x = −y, ie si α = 0, alors x = βe2 (avec |β| = 1 du
fait de kxk = ke2 k) et nécessairement ∆ est la droite (vect({x}))⊥ . Si α 6= 0, alors
αe1 = (x + y)/2 dirige ∆. Réciproquement on vérifie que la symétrie fournie par
cette analyse répond bien à la question. 
Nous allons montrer maintenant que les isométries d’un espace euclidien qui fixent
l’origine, ie les applications orthogonales, sont engendrées (en tant que groupe) par
certaines d’entre-elles, les symétries orthogonales dont les axes sont des hyperplans.
Dans le cas des isométries directes, ie des isométries de O + (E), une partie génératrice
est donnée par les symétries orthogonales d’axe des sous-espace de codimension 2.

7.9. Théorème. Soit E un espace euclidien de dimension n.


26 Table des matières

(1) Toute isométrie de E est la composée d’au plus n de symétries ortho-


gonales dont les axes sont des hyperplans. En particulier l’ensemble des
symétries orthogonales de E engendre O(E) en tant que groupe.
(2) Si dim(E) ≥ 3, toute isométrie directe de E est la composée d’au plus
n symétries orthogonales dont les axes sont des sous-espaces de E de
dimension dim(E) − 2. En particulier l’ensemble des symétries ortho-
gonales de E d’axe les sev de E de codimension 2 engendre O + (E) en
tant que groupe.

Démonstration. (1) Soit u ∈ O(E). Il suffit de prouver que si B est


une partie génératrice finie de E, il existe des hyperplans H1 , · · · , Hr , r ≤
card(B) de E tels que u|B = (sH1 ◦ · · · ◦ sHr )|B , car par linéarité les deux
membres de cette égalité coı̈ncideront ensuite sur E entier. La preuve se
fait par récurrence sur le cardinal de B.
Si card(B) = 1, u est une isométrie de E ' R, donc est IdE ou −IdE ,
qui sont deux symétries orthognales d’axe l’hyperplan {0}.
Si card(B) ≥ 2, soit e ∈ B. Par hypothèse de récurrence, il existe des
symétries orthogonales sH1 , · · · , sHr , r ≤ card(B) − 1, dont la composée
s = sH1 ◦ · · · ◦ sHr coı̈ncide avec u sur B \ {e}. Si u(e) = s(e), s convient.
Sinon, u(e) 6= s(e), considérons alors l’hyperplan H de E défini par H =
(vect(u(e) − s(e)))⊥ (l’hyperplan médiateur de u(e) et s(e)) et montrons
que u et S = sH ◦ s coı̈ncident sur B.

H =vect( u(e)−s(e))
s(e)

H
h

d1

u(e)

d2

Tout d’abord S(e) = u(e). En effet, dans la somme directe H⊕vect(u(e)−


s(e)), u(e) et s(e) s’écrivent u(e) = h1 + d1 et s(e) = h2 + d2 . Comme
h1 − h2 + d1 − d2 = u(e) − s(e) ∈ vect(u(e) − s(e)), h1 = h2 et comme
7. MESURE D’ANGLE ORIENTÉ ET ANGLE GÉOMÉTRIQUE 27

1 = ku(e)k2 = ks(e)k2 = kh1 k2 + kd1 k2 = kh1 k2 + kd2 k2 , on obtient


kd2 k2 = kd1 k2 . Or d1 et d2 étant sur la droite vect(u(e)−s(e)), nécesairement
d1 = d2 ou d1 = −d2 . Mais d1 = d2 donnerait u(e) = s(e), donc d1 = −d2 .
Finalement u(e) = d + h et s(e) = −d + h, avec d ∈ H ⊥ et h ∈ H. Il s’ensuit
bien que sH (s(e)) = −(−d) + h = d + h = u(e).
Montrons maintenant que u et S coı̈ncident sur B \{e}. Comme pour les
points b ∈ B\{e}, on a par hypothèse de récurrence s(b) = u(b), prouver que
S(b) = sH (s(b)) = u(b) revient à prouver que s(b) ∈ H. Or les points de H
sont les points équidistants de s(e) et u(e) 5 . On a ks(b)−s(e)V ert = kb−ek
puisque s est une isométrie et d’autre part ks(b)−u(e)k2 = ku(b)−u(e)k2 =
kb − ek2 . Enfin on a bien r + 1 ≤ card(B) − 1 + 1 = card(B).
(2) D’après i, si u ∈ O(E), u est la composée d’au plus n symétries orthogonales
d’axe des hyperplans. Chacune d’elle est de déterminant −1 (car de matrice
diag(−1, In−1 ) dans une certaine b.o.n.). Pour que u ∈ O + (E) il faut donc
que le nombre de ces symétries soit pair. On a donc u = (sH1 ◦ sH2 ) ◦ · · · ◦
(sHr−1 ◦ sHr ), avec r ≤ n (on peut supposer H1 6= H2 , car sH1 ◦ sH1 = IdE )
et il suffit alors de prouver que si n ≥ 3 la composée de deux symétries
orthogonales sH ◦ sK d’axe les hyperplans distincts H et K est la composée
de deux symétries orthogonales d’axes des sev de E de dimension n − 2.

K H

H
K

(e 1 ,...,e n−3 ,e n−2 )


(e 1 ,...,e n−3 )

a b

5. En effet si y = h0 + d0 , h0 ∈ H, d0 ∈ H ⊥ , on a ky − u(e)k2 = kh0 − hk2 + kd0 − dk2 et


ky − s(e)k2 = kh0 − hk2 + kd0 + dk2 , et donc ky − u(e)k2 = ky − s(e)k2 ssi kd0 − dk2 = kd0 + dk2
ssi (d0 |d) = 0. Or d et d0 étant colinéaires, nécessairement d0 = 0 ce qui équivaut à y ∈ H.
28 Table des matières

Comme H 6= K, H ∩ K est un sev de dimension n − 2 6En effet H =


ker(φ) avec φ ∈ E ∗ non nulle sur K. Donc φ|K ∈ K ∗ et ainsi ker(φ|K ) =
H ∩ K est un hyperplan de K, donc bien sev de E de dimension n − 2 et
(H ∩ K)⊥ = H ⊥ + K ⊥ . Soit alors L un hyperplan de E contenant H ⊥ + K ⊥ .
Soit (e1 , · · · , en−3 ) une b.o.n. de H ∩K ∩L, (e1 , · · · , en−3 , en−2 ) une b.o.n. de
H ∩K et (a, b) une b.o.n. de (H ∩K)⊥ telle que a ∈ H, b ∈ H ⊥ (de tels choix
sont possibles eu égard au fait que L contient H ⊥ +K ⊥ ). On note B la b.o.n.
(e1 , · · · , en−2 , a, b) de E. La matrice de sH dans B est diag(In−3 , 1, 1, −1) et
celle de sL est diag(In−3 , −1, 1, 1). Il s’ensuit que la matrice de sH ◦ sL (et
de sH ◦ sL ) dans B est diag(In−3 , −1, 1, −1), il s’agit donc de la symétrie
orthogonale d’axe vect(H ∩ K ∩ L, a) = L ∩ H, qui est bien de dimension
n − 2 (puisque H 6= L). De même sL ◦ sK est la symétrie orthogonale d’axe
K ∩ L. Pour finir on a sH ◦ sK = sH ◦ sL ◦ sL ◦ sK = sH∩L ◦ sK∩L .


8. Réduction orthogonales : matrices symétriques et normales


On en vient à l’une des préoccupations principales de ce chapitre :
Quelles sont les endomorphismes d’un espace préhilbertien pour lesquels
existe une base orthonormée constituée de vecteurs propres ?
Ou encore :
Quels sont les endomorphismes qui sont représentés
par des matrices diagonales sur une certaine base orthonormée ?
Ou encore, puisque les matrices de passages d’une b.o.n. à l’autre sont les matrices
orthogonales ou unitaires, en notant M la matrice représentative de l’endomorphisme
f dans une b.o.n. B quelconque de E :
Q1 : Quels sont les matrices M pour lesquelles il existe P ∈ On (R)
et ∆ diagonale telles que M =t P.∆.P (cas K = R) ?
Q2 : Quels sont les matrices M pour lesquelles il existe P ∈ Un (U
. ) et
∆ diagonale telles que M =t P .∆.P (cas K = C) ?
Avant de répondre à Q1 et Q2, commençons par un lemme qui sera d’un grande
utilité dans toute la suite (pour répondre à Q1 et Q2, mais aussi pour réduire les
endomorphismes normaux - dont la définition est donné ci-dessous.)
8.1. Définition. Soit u : E → E un endomorphisme d’un espace euclidien ou
hermitien E. Si B est une b.o.n. de E et si M est la matrice de u dans B, on
note u∗B : E → E l’endomorphisme de E dont la matrice dans B est t M . A priori
l’endomorphisme u∗B dépend du choix de la b.o.n. B qui intervient dans sa définition.
Mais en réalité la définition de u∗B est bien indépendante du choix de la b.o.n. B.
6. (‡)
8. RÉDUCTION ORTHOGONALES : MATRICES SYMÉTRIQUES ET NORMALES 29

En effet, si B 0 est une autre b.o.n. de E, et si M 0 est la matrice de u dans B 0 ,


on a M 0 = t P M P , puisque la matrice de passage de la b.o.n. B à la b.o.n. B 0 est
unitaire (orthogonale si K = R). Il s’ensuit que t M 0 = t P M P et que par conséquent
t
M 0 représente le même endomorphisme dans B 0 que t M dans B. On note donc cet
endomorphisme u∗ au lieu, a priori, de u∗B , afin de lever le doute sur la dépendance
vis à vis du choix de B. On dit que u∗ est l’endomorphisme adjoint de u.
8.2. Remarque. Dire que u est un endomorphisme unitaire (dans la cas com-
plexe) ou orthogonal (dans le cas réel) est dire que u∗ = u−1 . Dire que u est un en-
domorphisme symétrique (resp. anti-symétrique) dans le cas réel est dire que u∗ = u
(resp. u∗ = −u). Noter que dans ces deux cas, u et u∗ commutent, c’est-à-dire que
u ◦ u∗ = u∗ ◦ u. Ce sont les endomorphismes qui commutent avec leur adjoint qui
vont nous intéresser. On les appelle les endomorphismes normaux.
8.3. Définition. Soit u : E → E un endomorphisme normal d’un espace eucli-
dien ou hermitien E tel que u ◦ u∗ = u∗ ◦ u. On dit que u est un endomorphisme
normal. Lorsque u∗ = u on dit que u est auto-adjoint.
8.4. Remarque. Les endomorphismes, unitaires, orthogonaux, symétriques, anti-
symétriques et auto-adjoints sont des endomorphismes normaux.

8.5. Lemme. (1) Soit u un endomorphisme d’un espace euclidien ou


hermitien E. Pour tout x, y ∈ E on a (u(x)|y) = (x|u∗ (y)).
(2) Soit u un endomorphisme d’un espace euclidien ou hermitien E et F
un sous-espace de E stable par u. Alors F ⊥ est stable par u∗
(3) Soit u un endomorphisme normal d’un espace euclidien ou hermitien
E. Si F est un sous-espace stable par u, F et F ⊥ sont alors stables par
u et u∗ .

Démonstration. (1) Soit B une b.o.n. de E et M la matrice de u dans B.


Alors la matrice de u∗ dans B est t M et si X est la colonne des coordonnées
de x dans B et Y celle de y, on a
(u(x)|y) = t (M X)Y = t X t M Y = t X t M Y = (x|u∗ (y))
(2) Soit y ∈ F ⊥ et x ∈ F , il s’agit de montrer que (x|u∗ (y)) = 0. Mais d’après
i, nous avons (x|u∗ (y)) = (u(x)|y). Or puisque F est stable par u, u(x) ∈ F
de sorte que y ∈ F ⊥ implique (u(x)|y) = 0.
(3) Nous savons déjà par ii que F ⊥ est stable par u∗ (indépendamment du fait
que u soit normal).
Montrons que F ⊥ est stable par u. Si dim(F ) = 0, le lemme est immédiat.
Supposons alors que dim(F ) = p ∈ [1, n − 1]. Soit B = (e1 , · · · , en ) une
base orthonormée de E telle que (e1 , · · · , ep ) soit une base de F . Noter que
30 Table des matières

vect({ep+1 , · · · , en }) = F ⊥ . On alors :
  t 
B A Op,n−p
M at(u, B) = et M at(u , B) = t

t
On−p,p C B C
En écrivant que u∗ u = uu∗ , il vient :
t t
  t 
AA AB A A + BtB BtC
t =
BA t BB +t CC C tB C tC
Prouver que F et F ⊥ sont stables par u et u∗ équivaut à prouver que B = 0.
Or comme t AA = At A+B t B, on obtient tr(B t B) = 0. Mais comme tr(B t B)
est la somme des carrés des coefficients de B, il s’ensuit que B = 0 et que
F ⊥ est stable par u.
Montrons pour finir que F est stable par u∗ . Ceci résulte de la stabilité
de F ⊥ par u, car le point i assure alors que F = (F ⊥ )⊥ est stable par u∗ .


• Cas réel (Question Q1) - Si M est comme dans la question Q1, on remarque
que
t
M =t (t P.∆.P ) = t (P ).t ∆.t (t P ) = t P.∆.P = M,
ie que M est symétrique.
Réciproquement, on montre par récurrence sur la taille de M le résultat suivant.

8.6. Théorème. Soit M une matrice réelle. Si M est symétrique, M est


orthogonalement diagonalisable.

Démonstration. On fait la preuve par récurrence sur la taille de M . On note


f l’endomorphisme de Rn dont la matrice représentative dans la base canonique est
M.
- Si M est de taille 1, le théorème est trivial à démontrer.
- Soit n > 1. Supposons le théorème vrai pour les matrices de taille 1, · · · , n − 1
et montrons-le pour les matrices de taille n.
- Tout d’abord montrons qu’une matrice symétrique réelle possède (au
moins) une valeur propre réelle. En effet, en tant que matrice complexe, M
possède une valeur propre λ ∈ C. Si X est la colonne des coordonnées dans la base
canonique de Cn d’un vecteur propre x ∈ Cn associé à la valeur propre λ, on a :
t
XM X = t XλX = λkXk2 et en conjuguant ces égalités, puisque M est réelle et
symétrique : λkXk2 = t XM X. Mais t XM X = t (M X)X = λt XX = λkXk2 . Soit
λkXk2 = λkXk2 . Mais puisqu’un vecteur propre n’est par définition pas nul on en
déduit λ = λ et donc λ ∈ R.
- Soit alors B = (x1 , x2 , · · · , xn ) une b.o.n. dont le premier vecteur est x1 , un
vecteur propre de f associé à la valeur propre λ. D’après le Lemme 8.5, puisque
8. RÉDUCTION ORTHOGONALES : MATRICES SYMÉTRIQUES ET NORMALES 31

vect({x1 }) est stable par f , F ⊥ = vect({x2 , · · · , xn }) est également stable par f . La


matrice de f dans la base B est ainsi
 
λ 0
,
0 A
A étant une matrice de taille n − 1. Comme la base canonique de Rn et B sont des
b.o.n., il existe une matrice orthogonale P telle que :
 
t λ 0
M= P P.
0 A
En transposant chaque membre de cette égalité, il vient :
 
t t λ 0
M= M= P P.
0 tA
On en conclut que A est une matrice symétrique qui représente un endomorphisme
g de F . Par hypothèse de récurrence, il existe une base BF de F sur laquelle g est
diagonal. Par conséquent sur la base (x1 , BF ), qui est une b.o.n., f est représenté
par une matrice diagonale. 
8.7. Remarque. Remarquons que la preuve ci-dessus montre que si un endomor-
phisme u d’espace hermitien est auto-adjoint (ie u = u∗ ) alors ses valeurs propres
sont réelles. Le polynôme caractéristique de u étant scindé (sur C), il est le produit
des X − λ, pour λ valeur propre de u (celles-ci étant comptées avec multiplicité).
En particulier χu ∈ R[X].

8.8. Corollaire. Une matrice réelle est orthogonalement diagonalisable ssi


cette matrice est symétrique.

8.9. Remarque. Nous revenons ici à une remarque déjà faite plus haut concer-
nant les symétries orthogonales, qui anticipait le résultat du Corollaire 8.8. Par
définition, une symétrie orthogonale d’axe F est diagonalisable dans une b.o.n.
formée par une b.o.n. de F et une b.o.n. de F ⊥ . La matrice de la symétrie or-
thogonale d’axe F dans cette base est ∆ = diag(Idim(F ) , −In−dim(F ) ). Ainsi la ma-
trice M dans une b.o.n. de cette symétrie orthogonale est du type M = P ∆t P ,
où P ∈ On (R), et est donc symétrique. La matrice M est de plus orthogonale car
une symétrie orthogonale est une isométrie. En revanche une matrice symétrique
n’est pas nécessairement orthogonale (pensez à une homothétie dont le rapport est
différent de −1 ou 1) mais si une matrice symétrique est aussi orthogonale, cette
matrice est diagonalisable d’après le Théorème 8.6 et ses valeurs propres sont de
valeur absolue 1, puisque M représente une isométrie. Par conséquent M représente
une symétrie d’axe E1 (l’espace propre associé à la valeur propre 1). En conclusion
32 Table des matières

8.10. Proposition. Une matrice représente une symétrie orthogonale dans


une b.o.n. ssi cette matrice est symétrique et orthogonale.

• Cas complexe (Question Q2) - Soit M comme dans la question Q2. On


note M ∗ =t M , on l’appelle la matrice adjointe de M . Il s’agit de la matrice
représentant u∗ (l’adjoint de u) dans la b.o.n. B si M représente l’endomorphisme
u dans cette même b.o.n. B.
On remarque alors que : M ∗ = (P ∗ ∆P )∗ = P ∗ ∆∗ (P ∗ )∗ = P ∗ ∆P .
On a donc , puisque P ∗ = P −1 et ∆∆ = ∆∆ : M M ∗ = P ∗ ∆∆P = P ∗ ∆∆P =

M M , ie que M commute avec sa matrice adjointe : M est une matrice normale
et u est un endomorphisme normal. On montre que la réciproque est vraie :

8.11. Théorème. Soit M une matrice complexe. Si M est normale, M est


orthogonalement diagonalisable.

Démonstration. On procède par récurrence, exactement comme dans la preuve


du Théorème 2.21. Il suffit de compléter en une b.o.n. (x1 , x2 , · · · , xn ) un vecteur
propre unitaire x1 de f (dans le cas complexe un tel vecteur propre existe bien a
priori puisque χf est scindé). Ensuite la restriction de f à l’espace engendré par
x2 , · · · , xn est stable par le Lemme 8.5, puisque cet espace est vect({x1 })⊥ et que
vect({x1 }) est stable par f . On peut alors appliquer à la restriction de f à cet espace
l’hypothèse de récurrence. 
8.12. Remarque. On a déjà remarqué que si u = u∗ , χu ∈ R[X]. Le Théorème
8.11 nous apprend que dans ce cas M est semblable (sous U (C)) à une matrice
diagonale réelle.

8.13. Proposition. Une matrice complexe est orthogonalement diagonali-


sable ssi cette matrice est normale.
8.14. Remarque. • Une matrice symétrique réelle est normale puisque sa ma-
trice adjointe est elle-même. Le Théorème 8.11 dit qu’une telle matrice est orthogo-
nalement diagonalisable sur C (les matrices de passage sont complexes a priori et
unitaires et les valeurs propres sont a priori complexes), le Théorème 8.6 est donc
plus précis que le Théorème 8.11 dans ce cas, puisqu’il dit que la diagonalisation a
lieu sur R (les matrices de passage sont réelles et orthogonales et les valeurs propres
sont réelles).
• Si les matrices symétriques réelles sont normales, une matricesymétrique
 com-
1 1
plexe n’est pas forcément normale. Par exemple la matrice : S =
1 i
 
0 i
Et la matrice N = est normale, mais non symétrique.
−i 0
8. RÉDUCTION ORTHOGONALES : MATRICES SYMÉTRIQUES ET NORMALES 33

En résumé :
 
0 i Matrices normales=matrices orthogonalement
diagonalisables sur les complexes
−i 0 +N
et contient les matrices unitaires, orthogonales,
symétriques réelles et anti−symétriques réelles.

  Matrices symétriques complexes


1 1 +s
1 i +S

Matrices symétriques réelles


=matrices orthogonalement diagonalisables
sur les réels

 
i 0
0 0

Q3 : On peut alors se demander de façon générale comment réduire sur les réels
une matrice normale réelle, ie qui commute avec sa transposée.
Bien sûr une telle matrice M est diagonalisable sur C, ie qu’existent des matrices
complexes P et ∆, l’une inversible unitaire, l’autre diagonale, telles que M = t P ∆P .
Ici, dans Q3, on cherche à réduire orthogonalement M , ie qu’on cherche R une
matrice réelle “simple” et Q orthogonale telles que : M = t Q · R · Q.
On va représenter les endomorphismes normaux réels par des matrices simples
dans des bases orthonormales (Théorème 8.16). En fonction de la nature de l’endo-
morphisme (symétrique, antisymétrique, orthogonal), on pourra ensuite préciser la
matrice réduite R (Théorème 8.18).

8.15. Lemme. Soit u un endomorphisme d’un R-espace vectoriel E de di-


mension finie n > 0. Alors il existe un sous-espace F de E stable par u qui soit
de dimension 1 ou 2.

Démonstration. Si u possède une valeur propre, la droite engendrée par un


vecteur propre est stable. Dans le cas contraire χu , le polynôme caractéristique de
u est produit d’irréductibles sur R de degré 2, X 2 + aX + b. Mais le théorème de
Cayley-Hamilton montre alors que l’un des irréductibles X 2 + aX + b est tel que
u2 +au+b·Id est non injectif. Soit alors x ∈ E\{0} tel que : u2 (x)+au(x)+bx = 0 (2).
Comme u(x) et x sont libres (puisque Spec(u) = ∅), le sous-espace vect(u(x), x) est
de dimension 2 et stable par u en vertu de (2). 
34 Table des matières

8.16. Théorème. Soit u un endomorphisme normal d’un espace euclidien E


de dimension finie. Il existe une b.o.n. B = B1 ∪ · · · ∪ Bm , telle qu’en notant
vect(Bi ) = Ei , on ait :
(1) dim(Ei ) = 1 ou 2,
(2) Ei est stable par u et u|Ei = λi .IdEi si dim(Ei ) = 1, u|Ei est une
similitude directe autre qu’une homothétie si dim(Ei ) = 2.
La matrice représentative de u dans une telle base B est donc (en
ordonnant correctement les indices des espaces Ei ) :
 
λ1 0 · · · 0
 .. .. 
. λp . 
M at(u, B) =  0 ρ1 Sθ1 0 
 
. .. 
 .. . 
0 · · · 0 ρq Sθq

8.17. Remarque. Pour n = 2, on obtient la proposition suivante : Les endomor-


phismes normaux u de E, lorsque dim(E) = 2 sont
(1) les endomorphismes symétriques, si spec(u) 6= ∅. Dans ce cas il existe une
b.o.n. de vecteurs propres,
(2) Les similitude directes autres que les homothéthies, si spec(u) = ∅.
On va démontrer de façon idépendante cette proposition, car nous l’utiliserons dans
la preuve du Théorème 8.16.
Démonstration. Soit B une base orthonormale de E. On écrit :
   
a c a b
M at(u, B) = et M at(u , B) =

.
b d c d
u.u∗ = u∗ u ssi (c = b) ou [(c = −b 6= 0) et d = a]. Si c = b, u est symétrique et
on vérifie facilement que χu est scindé, donc il existe une base (x, y) de vecteurs
propres, associés à des valeurs propres α, b que l’on peut supposer distinctes. On a
alors :
(u(x)|y) = α(x|y) = (x|u(y)) = b(x|y) ⇒ (x|y) = 0.
La seconde condition sécrit :
 
a −b
M at(u, B) = = ρSθ ,
b a
et on vérifie que χu n’est alors pas scindé. 
Preuve du Théorème 8.16. On fait une preuve par récurrence sur n. Pour
n = 1, le théorème est trivial. Supposons que l’assertion du théorème est vraie pour
tout espace de dimension < n et tout endomorphisme normal sur un tel espace et
soit u un endomorphisme normal de E où dim(E) = n.
9. APPLICATION : LES ISOMÉTRIES DE R3 QUI FIXENT L’ORIGINE. 35

D’après le Lemme 8.15 et le Lemme 8.5, il existe un sous-espace E1 de E, stable


par u et u∗ qui soit de dimension 1 ou 2 et tel que u|E1 soit une homothéthie (si
dim(E1 ) = 1) ou un endomorphisme normal de spectre vide (si dim(E1 ) = 2), ie une
similitude directe autre qu’une homothétie par la remarque qui suit le Théorème
8.16. E1⊥ est de dimension < n et stable par u∗ (puisque E1 est stable par u). E1⊥
est alors stable par u∗∗ = u, (Lemme 8.5). u|E1⊥ induit un endomorphisme normal
sur E1⊥ . On applique l’hypothèse de récurrence. 

8.18. Théorème. Si u est un endomorphisme d’un espace euclidien E de


dimension finie, il existe une b.o.n. de E telle que la matrice qui représente u
dans cette base est du type
(1) diag(λ1 , · · · , λ) ssi u est symétrique,
 
0 −1
(2) diag(0, · · · , 0, α1 · J, · · · , αp · J), avec J = 6 0 ssi u est
et αi =
1 0
antisymétrique,
(3) diag(Ip , −Iq , Sθ1 , · · · , Sθ` ) ssi u est une isométrie (ie u ∈ O(E)).

8.19. Remarque. Attention les cas discernés ne sont pas disjoints, par exemple
une isométrie (plane) peut être symétrique ou antisymétrique et les énoncés ne sont
pas contradictoires.
Démonstration. (1) Si u est symétrique, aucun espace Ek ne peut être de
dimension 2, car un endomorphisme symétrique du plan est diagonalisable.
(2) Si u est antisymétrique, Sθi doit être antisymétrique, ce qui impose Sθi =
αi .J.
(3) Si u est orthogonal, les valeurs propres de u sont −1 ou +1, et u induit une
isométrie sur les Ei , donc les ρi doivent être égaux à 1.


9. Application : les isométries de R3 qui fixent l’origine.


Une telle isométrie u est représentée dans la base canonique (qui est b.o.n.) de
R3 par une matrice orthogonale P . D’après le Théorème 8.18, P est semblable à une
matrice du type suivant
   
1 0 0 −1 0
R= , R = ,
0 Sθ 0 Sθ

       
1 0 0 −1 0 0 1 0 0 −1 0 0
I3 = 0 1 0 , −I3 =  0 −1 0  , σ = 0 −1 0  ou S =  0 1 0 .
0 0 1 0 0 −1 0 0 −1 0 0 1
Dans le cas où u est semblable à
36 Table des matières

— I3 : u est l’indentité.
— −I3 : u est la symétrie de centre 0.
— σ : u est la symétrie d’axe E1 , l’espace propre associé à la valeur propre 1, qui
est dans ce cas une droite.
— S : u est la symétrie de plan E−1 , l’espace propre associé à la valeur propre
−1, qui est dans ce cas un plan 2-dimensionnel.
— R : u est la rotation d’axe E1 , l’espace propre associé à la valeur propre 1, et
d’angle θ.
— R0 : u est la composée de la rotation d’axe E−1 , l’espace propre associé à la

valeur propre 1, et d’angle θ avec la symétrie de plan E−1 .

u(x) E −1
E1

x x

Type σ Type S

E 1 = E −1 E −1 = E 1

u(x)

E −1
E1

u(x) x x

Type R Type R’

θ θ

θ E −1
E1

u(x)
9. APPLICATION : LES ISOMÉTRIES DE R3 QUI FIXENT L’ORIGINE. 37

Étant donnée une matrice P ∈ O3 (R), on peut se demander quel type d’isométrie
elle représente. On sait que P est (orthogonalement) semblable à une des matrices
des 6 types ci-dessus. Bien sûr la seule matrice semblable à I3 est I3 elle-même. De
même la seule matrice semblable à −I3 est −I3 . Donc si P n’est ni I3 ni −I3 , P est
semblable à une des 4 matrices du type R, R0 , σ ou S et par conséquent P possède les
mêmes invariants tr et det que la matrice à laquelle P est semblable. On remarque
que la trace et le déterminant suffisent à discriminer les 4 types en question, puisque
— det(R) = 1, T r(R) = 1 + 2 cos θ,
— det(R0 ) = −1, T r(R0 ) = −1 + 2 cos θ,
— det(σ) = 1, T r(σ) = −1,
— det(S) = −1, T r(S) = 1,
et que les seuls cas d’égalité des couples d’invariants se produisent lorsque θ = π [2π]
(pour R et σ, mais dans ce cas, R = σ !) et lorsque θ = 0 [2π] (pour R0 et S, mais
dans ce cas, R0 = σ !). Soit alors u l’endomorphisme de R3 représenté par P dans la
base canonique. On conclut de ce qui précède que si
— det(P ) = 1, T r(P ) = 1 + 2 cos θ : u est la rotation d’axe l’espace propre
associé à la valeur propre 1 et d’angle θ.
— det(P ) = −1, T r(P ) = −1 + 2 cos θ : u est la rotation d’axe l’espace propre
associé à la valeur propre 1 et d’angle θ, composée avec la symétrie de plan
E1⊥ = E−1 .
— det(P ) = 1, T r(P ) = −1 : u est la symétrie d’axe l’espace propre associé à la
valeur propre 1.
— det(P ) = −1, T r(P ) = 1 : u est la symétrie de plan l’espace propre associé à
la valeur propre 1.
38 Table des matières

10. Les notions essentielles du chapitre


• Sur Kn (K = R ou C), on dispose duPproduit scalaire suivant, appelé produit
scalaire standard ou usuel : (a|b)C = ni=1 ai .bi . Ce produit scalaire donne p lieu
àpla norme, dite euclidienne (K = R) ou hermitienne (K = C) : kak = (a|a) =
Pn 2
i=1 |ai | . • En toute généralité, si E est un K-espace, on dit qu’une application
Φ : E × E → K est un produit scalaire sur E ssi :
- Φ est linéaire sur son premier facteur, Φ est additive sur son second facteur
(ie Φ(a, b + c) = Φ(a, b) + Φ(a, c)) et Φ(a, β.b) = β.Φ(a, b). On dit alors que Φ est
semilinéaire sur son second facteur et au total que Φ est une forme sesquilinéaire.
Dans le cas K = R, Φ est une forme sesquilinéaire ssi Φ est une forme bilinéaire.
- Φ est hermitienne ie que : Φ(a, b) = Φ(b, a).
- Φ est positive ie que : Φ(a, a) ∈ R.+ .
- Φ est définie ie que (Φ(a, a) = 0 ⇐⇒ a = 0).
On note souvent Φ(a, b) par (a|b) ou < a|b >.
• Un K-espace vectoriel muni d’un produit scalaire est appelé un espace préhilber-
tien.
• - Dans le cas où K = C, on dit que (E, ( | )) est un espace préhilbertien
complexe. Dans le cas particulier où dimC (E) < ∞, on dit que E est une espace
hermitien.
- Dans le cas où K = R, on dit que (E, ( | )) est un espace préhilbertien réel.
Notons que dans ce cas dire que la forme ( | ) est hermitienne revient à dire qu’elle
est symétrique. Dans le cas particulier où dimR (E) < ∞, on dit que E est un espace
euclidien.
• Deux vecteurs x et y d’un espace préhilbertien sont dits orthogonaux ssi
(x|y) = 0. Une famille de vecteurs orthogonaux est libre. Une famille est dite or-
thonormée (b.o.n.) ssi cette famille est orthogonale et si chacun de ses éléments
sont de norme 1. Tout espace vectoriel admet une base orthonormée. Si F est de
dimension finie, toute b.o.n. de F se complète en une b.o.n. de E, c’est le procédé
d’orthonormalisation de Gram-Schmidt. En revanche, il n’est en général pas
vrai, lorsque F est un sev de dimension infinie de E, qu’une b.o.n. de F peut être
complétée en une b.o.n. de E. Si B est une b.o.n. de E, (x|y)E = ([x]B | [y]B )Kn .
• Une norme sur un ev E est une application n : E → R+ qui vérifie :
- n(x) = 0 ssi x = 0,
- ∀λ ∈ K, n(λx) = |λ| · n(x),
- n(x + y) ≤ n(x) + n(y). p
Une norme est définie par le produit scalaire de la façon suivante : kxk = (x|x).
L’inégalité triangulaire est une conséquence de l’inégalité de Cauchy-Schwarz : |(x|y)| ≤
kxk · kyk. Cette inégalité est une égalité ssi x et y sont colinéaires.
Toutes les normes sur un ev ne sont pas issues d’un produit scalaire : une norme
est issue d’un produit scalaire ssi elle vérifie l’inégalité du parallélogramme :

∀a, b ∈ E, n2 (a + b) + n2 (a − b) = 2[n2 (a) + n2 (b)].


10. LES NOTIONS ESSENTIELLES DU CHAPITRE 39

Dans ce cas ( | ) est donné par la norme grâce à la formule, dite de polarisation :
• Si K = C :
1h i
(a|b) = n2 (a + b) − n2 (a − b) + i.n2 (a + i · b) − i.n2 (a − i · b)
4
• Si K = R :
1h 2 2
i
(a|b) = n (a + b) − n (a − b)
4
• Si F est un P sev de E de dimension finie, de b.o.n. (e1 , · · · , en ), quel que soit
a ∈ E, l’élément nj=1 (a|ei )ei de F est l’unique élément π de F tel que : ka − πk =
inf{ka − zk; z ∈ F }. On dit que π est le projeté orthogonal de a sur F et ka − πk
est appelé la distance de a à F . On note F ⊥ = {x ∈ F ; (x|y) = 0}, il s’agit d’un
sev de E. On l’appelle l’orthogonal de F . Si F est de dimension finie : F ⊕F ⊥ = E
et le projeté d’un élément a de E sur F associé à cette somme directe est le projeté
orthogonal de a sur F .
• Soit f ∈ L (E), E étant de dimension finie. L’application f transforme une
b.o.n. en une b.o.n. ssi f conserve le produit scalaire (ie (f (x)|f (y)) = (x|y)) ssi
f conserve la norme (ie kf (a)k = kak) ssi la matrice P qui représente f dans une
b.o.n. a ses colonnes orthonormée ssi P −1 = t P . On dit alors que la matrice P
est unitaire (cas K = R) et orthogonale (cas K = R). Si une application est
représentée dans une b.o.n. par une matrice unitaire ou orthogonale, elle l’est dans
toute b.o.n. et de plus | det(f )| = 1. Une telle application s’appelle une application
unitaire ou normale. Une application u : E → E s’appelle une isométrie ssi
ku(x) − u(y)k = kx − yk. L’application u : E → E, lorsque E est euclidien, est une
isométrie telle que u(0) = 0 ssi u est une application orthogonale. Les applications
orthogonales d’un espace euclidien de dimension 2 sont les rotations de centre
l’origine et les symétries axiales. Les notions d’orientation d’un espace eu-
clidien et de rotation induisent les notions de mesure d’angle d’une rotation
dans une orientation fixée et de mesure de l’angle orienté formé par deux
vecteurs.
• On dit qu’un endomorphisme de E est orthogonalement diagonalisable
ssi il existe une base de E formée de vecteurs propres de f . Les endomorphismes
orthogonalement diagonalisables d’un espace euclidien (K = R) sont les applica-
tions représentées dans une b.o.n. par une matrice symétrique. Les endomor-
phismes orthogonalement diagonalisables d’un espace hermitien (K = C) sont les
applications représentées dans une b.o.n. par une matrice normale M ie que
M t M = t M M . Les symétries orthogonales sont représentées par les matrices ortho-
gonales et symétriques. Les matrices symétriques réelles ie telles que t M = M ,
anti-symétriques réelles ie telles que t M = −M , hermitiennes ie telles que
t
M = M , anti-hermitiennes ie telles que t M = −M , orthogonales ie telles que
t
M = M −1 et unitaires ie telles que t M = M −1 , sont des matrices normales. Elles
sont donc orthogonalement diagonalisables sur C.
• On dispose de plus du théorème suivant de réduction des matrices (ou des
endomorphismes) normales réelles
40 Table des matières

10.1. Théorème. Soit u un endomorphisme normal d’un espace euclidien E


de dimension finie. Il existe une b.o.n. B de E, telle que :
 
λ1 0 · · · 0
 .. .. 
. λp . 
M at(u, B) =  0 ρ1 Sθ1 0 ,
 
. .. 
 .. . 
0 · · · 0 ρq Sθq
Sθ étant une matrice de rotation.
On en tire le théorème suivant de réduction des endomorphismes remarquables
suivants d’un espace euclidien.

10.2. Théorème. Si u est un endomorphisme d’un espace euclidien E de


dimension finie, il existe une b.o.n. de E telle que la matrice qui représente u
dans cette base est du type
(1) diag(λ1 , · · · , λn ) ssi u est symétrique,
 
0 −1
(2) diag(0, · · · , 0, α1 · J, · · · , αp · J), avec J = et αi 6= 0 ssi u est
1 0
antisymétrique,
(3) diag(Ip , −Iq , Sθ1 , · · · , Sθ` ) ssi u est une isométrie (ie une application
orthogonale).

Vous aimerez peut-être aussi