Académique Documents
Professionnel Documents
Culture Documents
Georges COMTE
email : georges.comte@univ-smb.fr
url : http://gcomte.perso.math.cnrs.fr/
1
2 Table des matières
Dans la suite on considèrera des bases orthonormées (en bref des b.o.n.). Mais
auparavant on va montrer le résultat suivant.
Démonstration. On commence par remarquer que dès que l’on dispose d’une
famille orthogonale, cette famille étant libre, aucun des vecteurs n’est nul, et ainsi en
divisant chacun d’eux par sa norme on obtient une famille orthonormée. L’existence
des bases orthonormées revient donc à montrer l’existence des familles orthogonales.
Montrons la propriété suivante par récurrence sur n :
P(n) : tout sev de dimension n d’un espace du type Kp admet une base ortho-
gonale.
• Si n = 1, n’importe quel vecteur non nul convient.
• Supposons P(1), · · · , P(n − 1) vraie et soit F un sev de Kp . Soit B =
{b1 , · · · , bn } une base de F et F1 un supplémentaire de vect({b1 }) dans F , ie F =
vect({b1 }) ⊕ F1 . Alors par hypothèse de récurrence il existe B1 = {e1 , · · · , en−1 } une
base orthonormée de F1 . P
Remarquons que b1 − n−1 i=1 (b1 |ei ).ei 6= 0,Ppuisque b1 6∈ F1 . On pose alors en =
α(b1 − i=1 (b1 |ei ).ei ), avec α = 1/(kα(b1 − n−1
Pn−1
i=1 (b1 |ei ).ei k.
On a : (ek |ej ) = 0 pour j 6= k, k, j ∈ {1, · · · , n}. Par la Proposition 2.2, la famille
{e1 , · · · , en } est une base de F .
3. Espaces Préhilbertiens
Soit E un K-espace vectoriel. Sur le modèle de ce que l’on vient de décrire dans
E = Kn , on s’attache à l’étude des notions suivantes.
• Si K = R, on dit qu’une forme bilinéaire ( | ) : E × E → R est
symétrique ssi (a|b) = (b|a),
positive ssi (a|a) ≥ 0,
définie ssi ((a|a) = 0 ⇐⇒ a = 0).
• Si K = C, on dit qu’une application ( | ) : E × E → C qui est linéaire sur
son premier facteur, additive sur son second facteur (ie (a|b + c) = (a|b) + (a|c))
et telle que (a|β.b) = β̄.(a|b) (ie semilinéaire sur son second facteur) est une
forme sesquilinéaire. Si cette forme est telle que (a|b) = (b|a), on dit qu’elle est
hermitienne.
On dit que cette forme est
positive ssi (a|a) ≥ 0,
définie ssi ((a|a) = 0 ⇐⇒ a = 0).
Remarquons que si K = R, en voyant les réels comme des nombres complexes,
dire que ( | ) est bilinéaire symétrique équivaut à dire que ( | ) est sesquilinéaire
hermitienne. On pose donc dans les deux cas K = R ou C :
3.1. Définition. Un K-espace vectoriel sur lequel existe une forme ( | ) : E. ×E →
K sesquilinéaire, hermitienne, définie et positive est appelé un espace préhilbertien
et ( | ) un produit scalaire.
• Dans le cas où K = C, on dit que (E, ( | )) est un espace préhilbertien
complexe. Dans le cas particulier où dimC (E) < ∞, on dit que E est une espace
hermitien.
• Dans le cas où K = R, on dit que (E, ( | )) est un espace préhilbertien réel.
Notons que dans ce cas dire que la forme ( | ) est hermitienne revient à dire qu’elle
est symétrique, et dire qu’elle est sesquilinéaire revient à dire qu’elle est bilinéaire.
Dans le cas particulier où dimR (E) < ∞, on dit que E est un espace euclidien.
• Deux vecteurs x et y d’un espace préhilbertien sont dits orthogonaux ssi
(x|y) = 0.
3.2. Exemple. • Soit E le Q-espace R, muni du produit scalaire (x|y) = x · y.
• Soit E = C 0 ([0, 1], K) ou E = K[X] R (K = R ou C). Sur E on dispose du
produit scalaire : ∀f, g ∈ E, (f |g) = [0,1] f (t)g(t) dt. Dans le cas E = C[X],
on considère lors de l’intégration sur [0, 1] que la variable X est réelle ie que l’on
restreint les polynômes complexes à R lors de cette intégration. Remarquons
R enfin
que si f est une fonction réelle à valeurs complexes, par définition : [0,1] f (t) dt =
3. ESPACES PRÉHILBERTIENS 5
R R
Re(f )(t) dt + i · [0,1] Im(f )(t). Enfin notons que la continuité des fonctions
[0,1]
garantit que la forme ( | ) est définie, puisque une fonction positive, continue et
d’intégrale nulle est nécessairement la fonction nulle.
• Soit E = `00 (K) l’espace des suites (un )n∈N vérifiant : pourPtout (un )n∈N ∈ E
existe N tel que un = 0 pour n ≥ N . Alors ((un )n∈N |(vn )n∈N ) = n≥0 un · vn définit
un produit scalaire sur E.
• Soit E = `2 (K) l’espace 2
P
P des suites (u n )n∈N telles que n≥0 |un | converge. Alors
((un )n∈N |(vn )n∈N
P ) = n≥0 un · vn définit un produit scalaire sur E. La convergence
(absolue) de n≥0 un · vn est assurée par l’inégalité de Cauchy-Schwarz (voir le
Théorème 2.6) relative au produit scalaire standard dans Rn : pour tout p ∈ N .,
p p p p ∞ ∞
X X X X X X
2 2 2
|un · vn | = |un | · |vn | ≤ |un | · |vn | ≤ |un | · |vn |2 < ∞.
n=0 n=0 n=0 n=0 n=0 n=0
famille libre maximale est aussi génératrice. En revanche, dans le cadre préhilbertien,
un tel raisonnement n’est plus valable, car rien ne dit qu’une famille F , orthonormée
et maximale pour l’inclusion, soit une famille génératrice de l’espace. Un vecteur a
qui n’est pas combinaison linéaire de vecteurs de F ne permet en effet peut-être
pas de construire une famille orthonormée F 0 contenant strictement F . Tout le
problème étant qu’il se peut que a soit dans l’adhérence de V ect(F ), sans pour au-
tant être dans V ect(F ). Dans ce cas défavorable où a ∈ adh(V ect(F )) \ V ect(F ), a
ne possède pas de projection orthogonale sur V ect(F ), au sens de la définition que
nous allons donner dans ce paragraphe...et la construction d’un vecteur a0 à partir
de a tel que ({a0 } ∪ F ) soit orthonormée est alors impossible.
Dans le cas simple de la dimension finie (ou dénombrable), étant donnée une
base, on utilise un procédé constructif, le procédé de Gram-Schmidt pour construire
à partir de celle-ci une b.o.n.. C’est ce procédé que l’on décrit maintenant.
• Notons que le procédé de Gram-Schmidt, qui repose sur le principe de
récurrence, ne s’applique qu’aux familles dénombrables : si (an )n∈N est une
famille dénombrable libre de vecteurs d’un ev E, on pose
u1 = a1 /ka1 k
et
Pn
an+1 − j=1 (an+1 |uj )uj
∀n ≥ 1, un+1 = .
Pn
kan+1 − j=1 (an+1 |uj )uj k
La suite (un )n∈N ainsi définie par récurrence est une famille orthonormée de E, qui
engendre E ssi (an )n∈N engendre E, car on vérifie aisément que
V ect(a1 , · · · aN ) = V ect(u1 , · · · , uN ), pour tout N ∈ {1, 2, . . .} (∗)
Ainsi si (an )n∈N est une base de E, la suite (un )n∈N obtenue par le procédé de Gram-
Schmidt à partir de (an )n∈N est une b.o.n. de E.
La propriété (∗) dit même plus dans le cas où E possède une base dénombrable
(toutes les autres bases sont alors aussi dénombrables puisqu’un résultat général
d’algèbre linéaire dit que deux bases d’un même espace K-vectoriel sont en bijec-
tion) : si F est une sev de E de dimension finie, dont une base est (a1 , · · · , aN ) et si
l’on complète cette famille libre en une base (dénombrable !) (a1 , · · · , aN , aN +1 , · · · )
de E, le procédé de Gram-Schmidt permet de construire par récurrence une b.o.n.
(u1 , · · · , uN , uN +1 , · · · ) de E telle que V ect(u1 , · · · , uN ) = V ect(a1 , · · · , aN ) = F .
Mais la famille génératrice (u1 , · · · , uN ) de F est libre puisqu’orthonormée et donc
est une b.o.n. de F . Si l’on suppose dès le départ que la base (a1 , · · · , aN ) de F
est une b.o.n., l’algorithme ne modifie pas ces N vecteurs initiaux : on a u1 =
a1 , · · · , uN = aN . En conclusion l’algorithme de Gram-Schmidt permet de compléter
toute famille orthonormée finie d’un ev E de dimension dénombrable en
une b.o.n. de E.
4. PROJECTION ORTHOGONALE SUR UN SOUS-ESPACE 9
Mais attention ! S’il permet de compléter toute famille orthonormée finie d’un
ev E de dimension dénombrable en une b.o.n. de E, en revanche, le procédé de
Gram-Schmidt ne permet pas de compléter une b.o.n. d’un sev F de E en une b.o.n.
de E lorsque E n’est pas de dimension dénombrable, ou lorsque la famille initiale
n’est pas finie, car il n’est tout simplement pas vrai que toute b.o.n. d’un
sev F de E se complète toujours en une b.o.n. de E dans le cas où E
n’admet pas une base dénombrable ! (voir la remarque qui suit la preuve du
Théorème 2.10, où l’on montre qu’une famille libre orthonormée, dénombrable, ne
peut pas être complétée en une b.o.n. (dans ce cas l’espace E en question n’admet
pas de base dénombrable).
On dit que ka − nj=1 (a|ej )ej k est la distance de a à F et que nj=1 (a|ej )ej
P P
est le projeté orthogonal de a sur F .
Attention. Si F est de dimension infinie, un élément a de E peut très bien ne
pas avoir de projection orthogonale P∞ sur F . Par exemple. Soit E = `2 (R) l’espace
2
P∞suites (un )n∈N telles 00que n=1 ui converge, muni du produit scalaire (u|v) =
des
j=1 un · vn . Soit F = ` (R) l’espace des suites nulles à partir d’un certain rang.
L’espace F est un sev de E mais F n’est pas de dimension finie. Notons Fp le sev
de E des suites nulles au-delà du terme de rang p et ei = (0, · · · , 0, 1, 0, · · · ) la suite
dont seul le terme de rang i est non nul, celui-ci valant 1. La famille (e1 , · · · , ep ) est
une b.o.n. de Fp . Soit a = (an )n∈N ∈ E \F . Si a possèdait une projection orthogonale
π = (πn )n∈N sur F , en notant N le rang au-delà duquel les πn sont nuls, on aurait
π ∈ FN . Comme quel que soit y ∈ F , ka − πk ≤ ka − yk, a fortiori quel que soit
y ∈ FN , ka − πk ≤ ka − yk, ie que π serait en particulier la projection orthogonale
PN
de a sur FN . Par le Théorème 4.2, π = j=1 (a|ej )ej = (a1 , a2 , · · · , aN , 0, · · · ).
Mais si k est un indice > N tel que ak 6= 0 (un tel k existe puisque a 6∈ F ),
y = (a1 , a2 , · · · , aN , · · · , ak , 0, · · · ) est un élément de F tel que ka − πk > ka − yk,
ce qui est contradictoire.
Suite à cet exemple en dimension infinie de non existence du projeté sur un sev
F , nous nous intéressons à la caractérisation des sev F d’un ev E de dimension
quelconque, pour lesquels existent les projetés orthogonaux de tout vecteur de E.
Nous allons voir que cette question est liée à une autre question : celle du caractère
direct de la somme de F et d’un autre sev de E, l’espace F ⊥ que nous définissons
maintenant.
À tout sev F d’un espace préhilbertien E (de dimension quelconque) nous allons
associer un autre sev de E, l’orthogonal F ⊥ de F dans E. Par définition
F ⊥ = {x ∈ E; ∀y ∈ F, (x|y) = 0},
c’est-à-dire que F ⊥ est l’ensemble des vecteurs de E qui sont orthogonaux à tous les
vecteursT de F . Il s’agit d’un sev de E, puisque si y ∈ F , φx : x 7→ (x|y) est linéaire et
F ⊥ = y∈F ker φx est bien un sous-espace vectoriel de E en tant qu’intersection des
sous-espaces ker φx de E (rappelons qu’une intersection quelconque de sous-espaces
vectoriels de E est un sous-espace vectoriel de E).
Dans l’hypothèse où l’on disposerait de la somme directe E = F ⊕ F ⊥ , on dis-
poserait de la notion de projection sur F parallèlement à F ⊥ , ou encore de
projection sur F asociée à la somme directe E = F ⊕ F ⊥ .
On rappelle de quoi il s’agit.
Rappel d’algèbre linéaire. Soit E un K-espace vectoriel et F et G deux sous-
espaces vectoriels de E tels que
p1,j
vecteur de B1 dans la base B2 , soit [ej ]B = ... , c’est-à-dire ej = nk=1 pk,j .dk .
P
2
pn,j
- Supposons que B1 et B2 sont deux b.o.n. de E. Dans ce cas (ei |ej )E = δij 2 , on
en déduit que (ei |ej )E = ([ei ]B2 | [ej ]B2 )Kn = δij . C’est-à-dire que les colonnes de P ,
vues comme éléments de Kn , sont des vecteurs orthonormés pour le produit scalaire
standard ( | )Kn de Kn . Ceci équivaut à dire que t P · P = In .
- Réciproquement, si P est une matrice telle que t P · P = In ie telle dont les
colonnes sont orthonormées pour le produit scalaire standard de Kn , alors P est
d’inverse t P et P · t P = In . Cette dernière égalité signifie que les colonnes de t P sont
orthonormées pour le produit scalaire standard de Kn . Or les colonnes de t P = P −1
sont les coordonnées des dk dans la base B1 . Il s’ensuit que si B1 est une b.o.n. de
E, (di |dj )E = ([di ]B1 |[dj ]B1 )Kn = δij , et ainsi B2 est une b.o.n. de E.
- Notons encore que les colonnes d’une matrice P sont orthonormées pour le
produit scalaire standard de Kn ssi t P ·P = In ssi t P a pour inverse P ssi P · t P · = In
ssi (en conjuguant) P · t P · = In ssi les lignes de P sont ortonormées pour le produit
scalaire standard de Kn .
En conclusion, on a
5.1. Définition (matrice orthogonale, matrice unitaire). Une matrice P est une
matrice de passage d’une base orthonormée à une autre ssi que ses colonnes (resp.
ses lignes) sont orthonormées pour le produit scalaire standard de Kn ssi P −1 = t P .
On appelle une telle matrice une matrice orthogonale dans le cas K = R, une
matrice unitaire dans le cas K = C. L’ensemble des matrices orthogonales de
taille n est noté On (R), on l’appelle le groupe orthogonal de M at(n × n, R).
L’ensemble des matrices unitaires de taille n est noté Un (C), on l’appelle le groupe
unitaire de M at(n × n, C).
5.2. Remarque. La Proposition 2.14 montrera que ces ensembles sont bien des
sous-groupes, pour le produit des matrices, du groupe Gln (K) des matrices inver-
sibles à coefficients dans K, K = R ou C. Mais il est déjà facile de voir ceci directe-
ment d’après notre définition, puisque si P est une matrice de passage d’une base
orthonormée à une autre, il en est de même de P −1 et puisque le passage d’une
base orthonormée à une autre puis à une troisième est encore un passage d’une base
orthonormée à une autre.
- Remarquons que dans le cas où P est la matrice de passage d’une b.o.n. de E
à une autre b.o.n. de E, on a
(X|Y )Kn = (P.X|P.Y ))Kn (∗)
n t
où X et Y sont des colonnes quelconques de K . En effet, (P.X|P.Y ) = (P.X)P .Y =
t
X.t P.P .Y = t X.In .Y = (X|Y )Kn .
2. δij est le symbole de Kronecker, défini par δij = 0 si i 6= j et δij = 1 si i = j.
5. MATRICES ORTHOGONALES ET UNITAIRES 15
6. Orientation de Rn
Soient A = (~a1 , . . . , ~an ) une base de Rn et C = (~e1 , . . . , ~en ) la base canonique
de Rn . Il existe une unique application linéaire LA : Rn → Rn telle que pour tout
j = 1, . . . , n, LA (~ej ) = ~aj . Cette application est définie par
Xn n
X n
X
A A A
L (x1 , · · · , xn ) = L ( xi~ei ) = xi L (~ei ) = xi~ai .
i=1 i=1 i=1
A n
L’applicaton L est un isomorphisme de R , puisque transformant les vecteurs d’une
base en ceux d’une base.
Par définition, la matrice M at(LA , C, C) de cette application linéaire dans la
base C, choisie au départ et à l’arrivée, est la matrice dont la j-ième colonne est
la colonne [~aj ]C des coordonnées de ~aj dans la base C. Il s’agit aussi de la matrice
M at(IdRn , A, C) de l’application identité, mais cette fois dans la base A au départ
et la base C à l’arrivée, ou encore de la matrice de passage de la base A à la base
C. Le déterminant δA de cette matrice est non nul, car LA est un isomorphisme, il
est alors soit > 0, soit < 0.
6.1. Remarque. Si A = C, l’application LA est l’identité et M (LA , C, C) = In
est la matrice unité, de sorte que δC = 1.
6.2. Définition. On dit que deux bases A et B sont équivalentes, et on note
A ∼ B si et seulement si δA δB > 0. On vérifie qu’il s’agit bien d’une relation
d’équivalence. Notons, que puisque δC = 1, A ∼ C ⇐⇒ δA > 0.
On considère alors Bn , l’ensemble des classes d’équivalence des bases de Rn ,
suivant la relation d’équivalence ∼.
a1 b1
a2
c2
c1
6.7. Remarque. Dans le cas de R3 , le choix d’une orientation fixe une action de
vissage ou de dévissage : pour toute base (~a1 , ~a2 , ~a3 ) de R3 dans une même classe
7. MESURE D’ANGLE ORIENTÉ ET ANGLE GÉOMÉTRIQUE 21
d’orientation donnée, en tournant de ~u1 vers ~u2 et en ayant disposé son avant-bras le
long de a3 , le vecteur a3 orientant le bras dans le sens poignet-épaule , on opère
toujours le même geste dans l’espace (soit un vissage, soit dévissage).
a3
b3
vissage
b1
dévissage
c1
a2 vissage
a1
c2
c3
(2) b2 + d2 = 1,
(3) ab + cd = 0.
De (1) il vient qu’existe θ ∈ [0, 2π] tel que a = cos θ et c = sin θ, car (1) signifie
que (a, b) est sur le cercle unité. De même (2) signifie qu’existe α ∈ [0, 2π] tel que
b = cos α et d = sin α. Quant à (3) cos θ cos α + sin θ sin α = cos(θ − α) = 0, ce qui
donne α = θ + π/2 + kπ[2π].
On obtient finalement a = cos θ, b = − sin θ, c = sin θ, d = cos θ, ie M = Sθ ou
a = cos θ, b = sin θ, c = sin θ, d = − cos θ, ie M = Sθ0 .
On vérifie facilement que les formules triginométriques conduisent à Sθ Sα = Sθ+α .
7.2. Remarque. — Sθ est de spectre vide pour θ 6= 0 et π, antisymétrique
pour θ = π/2 et 3π/2 ; il s’agit de la matrice de la rotation de centre 0E et
(de mesure) d’angle θ.
— Sθ0 est de spectre {−1, 1}, symétrique et involutive (ie Sθ0 Sθ0 = I2 ), il s’agit de
la matrice de la symétrie orthogonale de centre la droite : ker(u − IdE ).
7.3. Définition. Soient E un espace euclidien de dimension 2 et B une base
orthonormée de E. On dit que u est une similitude (plane) lorsque la matrice
représentative de u dans B est ρ.Sθ (similitude directe) ou ρ.Sθ0 (similitude
indirecte) , avec ρ > 0 et θ ∈ R/2πZ.
7.4. Définition. D’une façon générale, ie quelle que soit la dimension de E, on
dit qu’un endomorphisme u de E est la symétrie orthogonale d’axe F , notée
7. MESURE D’ANGLE ORIENTÉ ET ANGLE GÉOMÉTRIQUE 23
quel sens tournent les aiguilles sur le cadran d’une horloge (le savoir est connaı̂tre
une orientation de ce cadran, celle donnée par la course des aiguilles), on n’est pas
capable de d’avancer l’heure de 5 minutes sur cet horloge (une telle opération cor-
respond à une rotation de mesure d’angle +π/6 de la grande aiguille, lorsque le
cadran est orienté par le sens de parcours des aiguilles de l’horloge). Pas plus que
l’on n’est capable de reculer l’heure de 5 minutes sur cet horloge (une telle opération
correspond à une rotation de mesure d’angle −π/6 de la grande aiguille, lorsque le
cadran est orienté par le sens de parcours des aiguilles de l’horloge)...
En conclusion : Pratiquement, on se fixe une orientation d’un espace vectoriel
E par le choix d’une base B (que l’on choisit de plus orthonormée si l’espace est
euclidien), c’est-à-dire par le choix d’un représentant d’une classe de l’orientation de
E que l’on veut privilégier. Lorsque l’espace E est euclidien et de dimension 2, la
donnée d’une rotation f ∈ O + (E) induit alors un réel θ ∈ [0, 2π[, appelé la mesure
de l’angle de la rotation f dans l’orientation de B. Ce réel est donné par l’égalité
M at(f, B, B) = Sθ ,
et ne dépend pas du choix de B au sein de la classe de B.
7.8. Proposition (mesure de l’angle orienté formé par deux vecteurs - bis-
sectrice). Soit E un espace euclidien.
(1) L’action naturelle de O + (E) (et donc a fortiori de O(E)) sur la sphère
unité S = {x ∈ E; kxk = 1}, définie par
O + (E) × S → S
(u, x) 7→ u(x)
est transitive, ie que pour tout x, y ∈ S existe u ∈ O + (E) tel que
y = u(x).
(2) Dans le cas où dim(E) = 2, x et y étant donnés, la rotation u ∈
O + (E) telle que u(x) = y est de plus unique. Si l’on se donne alors
une orientation de E, la mesure de l’angle de la rotation u dans cette
orientation est appelée la mesure de l’angle orienté formé par
les vecteurs x et y (attention, l’ordre dans lequel on se donne les
vecteurs x et y importe pour définir la mesure de l’angle orienté par
ces deux vecteurs. En effet, se donner les vecteurs x et y dans l’ordre
inverse, serait par définition considérer la rotation u−1 , car u−1 (y) = x.
Or la rotation u−1 , dans une orientation donnée de E, est de mesure
d’angle opposé, modulo 2π, à la mesure de l’angle de u dans cette même
orientation a).
Notons que dans le cas où x et y sont colinéaires la mesure de l’angle
orienté formé par x et y est 0 ou π, selon que x = y ou que x = −y.
7. MESURE D’ANGLE ORIENTÉ ET ANGLE GÉOMÉTRIQUE 25
H =vect( u(e)−s(e))
s(e)
H
h
d1
u(e)
d2
K H
H
K
a b
vect({ep+1 , · · · , en }) = F ⊥ . On alors :
t
B A Op,n−p
M at(u, B) = et M at(u , B) = t
∗
t
On−p,p C B C
En écrivant que u∗ u = uu∗ , il vient :
t t
t
AA AB A A + BtB BtC
t =
BA t BB +t CC C tB C tC
Prouver que F et F ⊥ sont stables par u et u∗ équivaut à prouver que B = 0.
Or comme t AA = At A+B t B, on obtient tr(B t B) = 0. Mais comme tr(B t B)
est la somme des carrés des coefficients de B, il s’ensuit que B = 0 et que
F ⊥ est stable par u.
Montrons pour finir que F est stable par u∗ . Ceci résulte de la stabilité
de F ⊥ par u, car le point i assure alors que F = (F ⊥ )⊥ est stable par u∗ .
• Cas réel (Question Q1) - Si M est comme dans la question Q1, on remarque
que
t
M =t (t P.∆.P ) = t (P ).t ∆.t (t P ) = t P.∆.P = M,
ie que M est symétrique.
Réciproquement, on montre par récurrence sur la taille de M le résultat suivant.
8.9. Remarque. Nous revenons ici à une remarque déjà faite plus haut concer-
nant les symétries orthogonales, qui anticipait le résultat du Corollaire 8.8. Par
définition, une symétrie orthogonale d’axe F est diagonalisable dans une b.o.n.
formée par une b.o.n. de F et une b.o.n. de F ⊥ . La matrice de la symétrie or-
thogonale d’axe F dans cette base est ∆ = diag(Idim(F ) , −In−dim(F ) ). Ainsi la ma-
trice M dans une b.o.n. de cette symétrie orthogonale est du type M = P ∆t P ,
où P ∈ On (R), et est donc symétrique. La matrice M est de plus orthogonale car
une symétrie orthogonale est une isométrie. En revanche une matrice symétrique
n’est pas nécessairement orthogonale (pensez à une homothétie dont le rapport est
différent de −1 ou 1) mais si une matrice symétrique est aussi orthogonale, cette
matrice est diagonalisable d’après le Théorème 8.6 et ses valeurs propres sont de
valeur absolue 1, puisque M représente une isométrie. Par conséquent M représente
une symétrie d’axe E1 (l’espace propre associé à la valeur propre 1). En conclusion
32 Table des matières
En résumé :
0 i Matrices normales=matrices orthogonalement
diagonalisables sur les complexes
−i 0 +N
et contient les matrices unitaires, orthogonales,
symétriques réelles et anti−symétriques réelles.
i 0
0 0
Q3 : On peut alors se demander de façon générale comment réduire sur les réels
une matrice normale réelle, ie qui commute avec sa transposée.
Bien sûr une telle matrice M est diagonalisable sur C, ie qu’existent des matrices
complexes P et ∆, l’une inversible unitaire, l’autre diagonale, telles que M = t P ∆P .
Ici, dans Q3, on cherche à réduire orthogonalement M , ie qu’on cherche R une
matrice réelle “simple” et Q orthogonale telles que : M = t Q · R · Q.
On va représenter les endomorphismes normaux réels par des matrices simples
dans des bases orthonormales (Théorème 8.16). En fonction de la nature de l’endo-
morphisme (symétrique, antisymétrique, orthogonal), on pourra ensuite préciser la
matrice réduite R (Théorème 8.18).
8.19. Remarque. Attention les cas discernés ne sont pas disjoints, par exemple
une isométrie (plane) peut être symétrique ou antisymétrique et les énoncés ne sont
pas contradictoires.
Démonstration. (1) Si u est symétrique, aucun espace Ek ne peut être de
dimension 2, car un endomorphisme symétrique du plan est diagonalisable.
(2) Si u est antisymétrique, Sθi doit être antisymétrique, ce qui impose Sθi =
αi .J.
(3) Si u est orthogonal, les valeurs propres de u sont −1 ou +1, et u induit une
isométrie sur les Ei , donc les ρi doivent être égaux à 1.
1 0 0 −1 0 0 1 0 0 −1 0 0
I3 = 0 1 0 , −I3 = 0 −1 0 , σ = 0 −1 0 ou S = 0 1 0 .
0 0 1 0 0 −1 0 0 −1 0 0 1
Dans le cas où u est semblable à
36 Table des matières
— I3 : u est l’indentité.
— −I3 : u est la symétrie de centre 0.
— σ : u est la symétrie d’axe E1 , l’espace propre associé à la valeur propre 1, qui
est dans ce cas une droite.
— S : u est la symétrie de plan E−1 , l’espace propre associé à la valeur propre
−1, qui est dans ce cas un plan 2-dimensionnel.
— R : u est la rotation d’axe E1 , l’espace propre associé à la valeur propre 1, et
d’angle θ.
— R0 : u est la composée de la rotation d’axe E−1 , l’espace propre associé à la
⊥
valeur propre 1, et d’angle θ avec la symétrie de plan E−1 .
u(x) E −1
E1
x x
Type σ Type S
E 1 = E −1 E −1 = E 1
u(x)
E −1
E1
u(x) x x
Type R Type R’
θ θ
θ E −1
E1
u(x)
9. APPLICATION : LES ISOMÉTRIES DE R3 QUI FIXENT L’ORIGINE. 37
Étant donnée une matrice P ∈ O3 (R), on peut se demander quel type d’isométrie
elle représente. On sait que P est (orthogonalement) semblable à une des matrices
des 6 types ci-dessus. Bien sûr la seule matrice semblable à I3 est I3 elle-même. De
même la seule matrice semblable à −I3 est −I3 . Donc si P n’est ni I3 ni −I3 , P est
semblable à une des 4 matrices du type R, R0 , σ ou S et par conséquent P possède les
mêmes invariants tr et det que la matrice à laquelle P est semblable. On remarque
que la trace et le déterminant suffisent à discriminer les 4 types en question, puisque
— det(R) = 1, T r(R) = 1 + 2 cos θ,
— det(R0 ) = −1, T r(R0 ) = −1 + 2 cos θ,
— det(σ) = 1, T r(σ) = −1,
— det(S) = −1, T r(S) = 1,
et que les seuls cas d’égalité des couples d’invariants se produisent lorsque θ = π [2π]
(pour R et σ, mais dans ce cas, R = σ !) et lorsque θ = 0 [2π] (pour R0 et S, mais
dans ce cas, R0 = σ !). Soit alors u l’endomorphisme de R3 représenté par P dans la
base canonique. On conclut de ce qui précède que si
— det(P ) = 1, T r(P ) = 1 + 2 cos θ : u est la rotation d’axe l’espace propre
associé à la valeur propre 1 et d’angle θ.
— det(P ) = −1, T r(P ) = −1 + 2 cos θ : u est la rotation d’axe l’espace propre
associé à la valeur propre 1 et d’angle θ, composée avec la symétrie de plan
E1⊥ = E−1 .
— det(P ) = 1, T r(P ) = −1 : u est la symétrie d’axe l’espace propre associé à la
valeur propre 1.
— det(P ) = −1, T r(P ) = 1 : u est la symétrie de plan l’espace propre associé à
la valeur propre 1.
38 Table des matières
Dans ce cas ( | ) est donné par la norme grâce à la formule, dite de polarisation :
• Si K = C :
1h i
(a|b) = n2 (a + b) − n2 (a − b) + i.n2 (a + i · b) − i.n2 (a − i · b)
4
• Si K = R :
1h 2 2
i
(a|b) = n (a + b) − n (a − b)
4
• Si F est un P sev de E de dimension finie, de b.o.n. (e1 , · · · , en ), quel que soit
a ∈ E, l’élément nj=1 (a|ei )ei de F est l’unique élément π de F tel que : ka − πk =
inf{ka − zk; z ∈ F }. On dit que π est le projeté orthogonal de a sur F et ka − πk
est appelé la distance de a à F . On note F ⊥ = {x ∈ F ; (x|y) = 0}, il s’agit d’un
sev de E. On l’appelle l’orthogonal de F . Si F est de dimension finie : F ⊕F ⊥ = E
et le projeté d’un élément a de E sur F associé à cette somme directe est le projeté
orthogonal de a sur F .
• Soit f ∈ L (E), E étant de dimension finie. L’application f transforme une
b.o.n. en une b.o.n. ssi f conserve le produit scalaire (ie (f (x)|f (y)) = (x|y)) ssi
f conserve la norme (ie kf (a)k = kak) ssi la matrice P qui représente f dans une
b.o.n. a ses colonnes orthonormée ssi P −1 = t P . On dit alors que la matrice P
est unitaire (cas K = R) et orthogonale (cas K = R). Si une application est
représentée dans une b.o.n. par une matrice unitaire ou orthogonale, elle l’est dans
toute b.o.n. et de plus | det(f )| = 1. Une telle application s’appelle une application
unitaire ou normale. Une application u : E → E s’appelle une isométrie ssi
ku(x) − u(y)k = kx − yk. L’application u : E → E, lorsque E est euclidien, est une
isométrie telle que u(0) = 0 ssi u est une application orthogonale. Les applications
orthogonales d’un espace euclidien de dimension 2 sont les rotations de centre
l’origine et les symétries axiales. Les notions d’orientation d’un espace eu-
clidien et de rotation induisent les notions de mesure d’angle d’une rotation
dans une orientation fixée et de mesure de l’angle orienté formé par deux
vecteurs.
• On dit qu’un endomorphisme de E est orthogonalement diagonalisable
ssi il existe une base de E formée de vecteurs propres de f . Les endomorphismes
orthogonalement diagonalisables d’un espace euclidien (K = R) sont les applica-
tions représentées dans une b.o.n. par une matrice symétrique. Les endomor-
phismes orthogonalement diagonalisables d’un espace hermitien (K = C) sont les
applications représentées dans une b.o.n. par une matrice normale M ie que
M t M = t M M . Les symétries orthogonales sont représentées par les matrices ortho-
gonales et symétriques. Les matrices symétriques réelles ie telles que t M = M ,
anti-symétriques réelles ie telles que t M = −M , hermitiennes ie telles que
t
M = M , anti-hermitiennes ie telles que t M = −M , orthogonales ie telles que
t
M = M −1 et unitaires ie telles que t M = M −1 , sont des matrices normales. Elles
sont donc orthogonalement diagonalisables sur C.
• On dispose de plus du théorème suivant de réduction des matrices (ou des
endomorphismes) normales réelles
40 Table des matières