Académique Documents
Professionnel Documents
Culture Documents
Définition 3.1.
On appelle isométrie vectorielle de E tout endomorphisme u ∈ L(E) conservant la norme, c-à-d
∀x ∈ E, ku(x)k = kxk.
Exemple.
idE et −idE sont des isométries vectorielles.
Exemple.
Soit SF la symétrie orthogonale par rapport à F . Puisque E = F ⊕ F ⊥ , tout vecteur x ∈ E
s’écrit d’une manière unique x = x1 + x2 avec x1 ∈ F et x2 ∈ F ⊥ . Comme x1 et x2 sont
orthogonaux, le théorème de Pythagore permet d’écrire pour tout x ∈ E
Proposition 3.2.
Une isométrie vectorielle conserve les distances.
Preuve.
Soit d la distance associée à la norme k.k
41
Proposition 3.3.
Soit u un endomorphisme de E. u est une isométrie vectorielle si et seulement si u conserve le
produit scalaire.
∀x, y ∈ E hu(x), u(y)i = hx, yi.
On dit aussi que c’est un endomorphisme orthogonal.
Preuve.
Soit x ∈ E tel que ku(x)k = kxk. On a
d’autre part,
ku(x + y)k2 = kx + yk2 = kxk2 + kyk2 + 2hx, yi,
donc, hu(x), u(y)i = hx, yi.
Réciproquement, supposons que u conserve le produit scalaire alors,
Proposition 3.4.
Soit u un endomorphisme de E. u est une isométrie vectorielle si et seulement si l’image par u
d’une base orthonormale est une base orthonormale.
Preuve.
Soit B = {e1 , . . . , en } une base orthonormale et u une isométrie vectorielle. Montrons que
u(B) = {u(e1 ), . . . , u(en )} est une base orthonormale. En effet,
Réciproquement, supposons que u(B) est une base orthonormale et montrons que u est une
isométrie vectorielle. En effet,
Xn Xn
hu(x), u(y)i = hu( xi ei ), u( yj ej )i
i j
n X
X n
= xi yj hu(ei ), u(ej )i
i j
n X
X n
= xi yj δij
i j
n X
X n
= xi yj hei , ej i = hx, yi
i j
42
Théorème 3.5.
L’ensemble O(E) des isométrie vectorielles de E est un sous-groupe du groupe linéaire de E.
Preuve.
Comme l’image d’une base de E par une isométrie vectorielle est également une base, on en
déduit que toute isométrie vectorielle est un automorphisme. Montrons maintenant que O(E)
est un sous-groupe.
• idE ∈ O(E), donc O(E) est une partie non vide du groupe linéaire GL(E).
• Pour tout u, v ∈ O(E), u ◦ v −1 est un automorphisme de E, et on a
Théorème 3.6.
Le spectre de tout élément de O(E) est inclus dans {−1, 1}.
Preuve.
Soit λ une valeur propre de u ∈ O(E), alors il existe x ∈ E \ {0} tel que u(x) = λx. Puisque
u conserve la norme, on a
kxk = ku(x)k = kλxk = |λ|kxk.
Comme x 6= 0 on trouve |λ| = 1. Par suite, sp(u) ⊂ {−1, 1}.
Proposition 3.7.
Soit u une isométrie vectorielle et F un s.e.v. de E. Si F est stable par u alors F ⊥ l’est aussi.
Théorème 3.8.
Le determinant de tout automorphisme orthogonal de E est égale à 1 ou −1. De plus, l’ensemble
des automorphismes orthogonaux de E de determinant 1 est un sous-groupe de O(E). Il est
appelé le groupe spécial orthogonal de E ou encore le groupe des rotations de E et il est noté
SO(E) ou O+ (E).
Remarque 3.9.
On désigne par O− (E) l’ensemble des automorphismes orthogonaux de E de déterminant −1.
O− (E) n’est pas un sous-groupe de O(E) puisque idE 6∈ O− (E). O− (E) est l’ensemble des
antirotations de E.
43
Théorème 3.10.
u est un automorphisme orthogonal de E si et seulement si la matrice A qui représente u dans
une base orthonormale de E vérifie t AA = In .
Preuve.
Soient {e1 , . . . en } une base orthonormale de E et A = M [u, (ei )]. On désigne par ϕ le
produit scalaire de E. Comme u est un automorphisme orthogonal de u alors (u(ei ))i est aussi
orthonormale, alors M [ϕ, (ei )] = M [ϕ, u(ei )] = In . Or M [idE , u(ei ), (ei )] = M [u, (ei )] = A. D’où,
M [ϕ, u(ei )] = t AM [ϕ, (ei )]A. On trouve In = t AIn A = t AA.
Réciproquement, puisque {e1 , . . . en } est orthonormale on sait que pour tout x ∈ E, kxk2 = t XX
avec X = M [x, (ei )]. Or, M [u(x), (ei )] = AX. Donc
Théorème 3.11.
Pour tout élément A de Mn (R), les propositions suivantes sont équivalentes :
1. t AA = In .
2. At A = In .
3. A est inversible et A−1 = t A.
Tout élément de Mn (R) qui vérifie l’une de ces propositions est appelé une matrice orthogonale.
Conséquence 3.12.
t
AA = In ⇒ t A t ( t A) = In .
Théorème 3.13.
La matrice de passage d’une base orthonormale de E à une base orthonormale de E est une
matrice orthogonale.
Preuve.
Soient (ai )i et (bi )i deux bases orthonormales de E. On désigne par ϕ le produit scalaire de
E. On siat que M [ϕ, (ai )] = In et M [ϕ, (bi )] = In . Or si P = M [idE , (bi ), (ai )] alors M [ϕ, (bi )] =
t
P M [ϕ, (ai )]P, d’où In = t P In P = t P P. P est donc une matrice orthogonale.
44
Théorème 3.14.
Soient (ei )i une base orthonormale de E et u un endomorphisme de E. u est un automorphisme
orthogonal de E si et seulement si M [u, (ei )] est une matrice orthogonale.
Conséquence 3.15.
L’application u 7→ M [u, (ei )] induit une bijection de l’ensemble O(Rn ) sur l’ensemble O(n)
des matrices orthogonales d’ordre n. On en déduit que
1. O(n) est un sous-groupe multiplicatif de GLn (R).
2. Le déterminant de toute matrice de O(n) est égaleà 1 ou −1.
1 0
La réciproque est fausse, par exemple A = n’est pas orthogonale mais det A = 1.
1 1
3. Toute matrice orthogonale d’ordre n de déterminant 1 (resp. −1) est appleée une matrice
orthogonale droite (resp. gauche) et leur ensemble est noté O+ (n) (resp. O− (n)). De plus,
O+ (n) est un sous-groupe de O(n) mais O− (n) ne l’est pas.
Théorème 3.16.
une matrice A ∈ Mn (R) est orthogonale si et seulement si ses vecteurs colonnes (resp. vecteurs
lignes ) forment une base orthonormale de l’espace vectoriel eucidien canonique Rn .
Preuve.
Puisque les vecteurs lignes de A sont les vecteurs colonnes de t A et que A est orthogonale si
et seulement si t A est orthogonale, il suffit d’établir le résultat pour les vecteurs colonnes de A.
Soit u l’unique endomorphisme de Rn tel que A = M [u, (ei )], alors les vecteurs colonnes de A
sont les vecteurs cj = u(ej ). Or, A ∈ O(n) ↔ u ∈ O(Rn ) ↔ (u(ei ))i est une base orthonormale
de Rn ↔ les vecteurs colonnes de A forment une base orthonormale de Rn .
Exemple.
1 0 0
1 1
0 √ √
A= est une matrice orthogonale.
2 2
1 1
0 −√ √
2 2
Remarque 3.17.
Dans une matrice orthogonale droite (resp. gauche) chaque élément est égal à son cofacteur
1t
(resp. l’opposé de son cofacteur). En effet, si A ∈ O(n) alors on a t A = A−1 = (ComA). Par
|A|
1
transposition, on trouve A = Com A
|A|
45
3.2 Endomorphismes symétriques
Définition 3.18.
Soit u un endomorophisme de E. On dit que u est un endomorphisme symétrique si
Exemple.
Soient E un espace préhilbertien réel et F un sous-espace vectoriel de E qui admet un supplé-
mentaire orthogonal.
1. Le projeteur orthogonal sur F PF .
Théorème 3.19.
Soient E un espace euclidien de dimension n et B une base orthonormale de E. un endomor-
phisme u de E est symétrique si et seulement si M [u, B] est symétrique.
Théorème 3.20.
Soient E un espace vectoriel euclidien de dimension n. si u est un endomorohisme symétrique
alors les sous-espaces propres de u associés à deux valeurs propres distincts sont orthogonaux.
Preuve.
Soient λ, µ ∈ sp(u) tels que λ 6= µ avec x ∈ Eλ (u) et y ∈ Eλ (u). On a u(x) = λx et u(y) = µy.
Donc
hu(x), yi = hλx, yi = λhx, yi,
et
hu(x), yi = hx, u(y)i = µhx, yi.
Comme λ 6= µ, on trouve hx, yi = 0 pour tous x ∈ Eλ (u) et y ∈ Eλ (u).
46
Théorème 3.21 - Théorème spectral.
Si u est un endomorphisme symétrique de E alors u est diagonalisable. De plus, il existe une
base orthonormale de E formée de vecteurs propres de u.
Conséquence 3.22.
Soient λ1 , . . . , λn les valeurs propres distincts de u. Puisque u est diagonalisable alors E =
⊕Eλi (u). Or comme les λi sont distinctes alors les sous espaces propres Eλi (u) sont orthogonaux
deux à deux. Pour obtenir une base orthonormale de E formée de vecteurs propres de u, il suffit
de construire une base orthonormale dans chaque Eλi (u) puis de réunir ces bases.
Théorème 3.23.
Si A est une matrice symétrique réelle d’ordre n alors sp(A) ⊂ R et il existe une matrice
diagonale D et une matrice orthogonale P tels que D = P −1 AP = t P AP. On dit alors que A
est diagonalisable dans le groupe orthogonal.
Exemple.
3 1 1
On considère la matrice 1 3 1 .
1 1 3
Les valeurs propres de A sont 5 (simple) et 2 (double).
1
On trouve une base orthonormale de E5 = Vect(1, 1, 1). Soit a1 = √ (1, 1, 1).
3
Les éléments du sous-espace propre associé à 2 sont de la forme (α, β, −α − β). En prenant
1
α = 1 et β = −1 on trouve a2 = √ (1, −1, 0).
2
Cherchons a3 unitaire, orthogonal à a2 et de la forme (α, β, −α − β). Alors,
1
ha2 , a3 i = 0 ⇒ √ (α − β) = 0 ⇒ α = β.
2
1
On choisit a3 = √ (1, 1, −2).
6
Finalement, on en déduit que D = P −1 AP = t P AP. avec
√ √
5 0 0 2 √3 1
1 √
D= 0 2 0 , P =√
√2 3 1 et P −1 = t P.
0 0 2 6
2 0 −2
47
3.3 Plans euclidiens
Théorème 3.24.
Preuve.
a b
Soit A = ∈ M2 (R). On sait que A ∈ O(2) donc t AA = I2 , ce qui donne a2 + c2 =
c d
1, b2 + d2 = 1 et ab + cd = 0.
Théorème 3.26.
Soit u ∈ O+ (2) tel que u 6= ±idE . La matrice de u est la même dans toutes les bases orthonor-
males directes de E. c-à-d il existe un unique réel θ[2π] tel que cette matrice soit égale à R(θ).
On dit que θ est une mesure de l’angle de la rotation u.
48
Théorème 3.27.
Si a et b sont deux vecteurs unitaires de E, il existe une seule rotation qui transforme a en b.
Conséquence 3.28.
Soit r la rotation qui transforme a en b. Soit {e1 , e2 } une base orthonormale directe de E. Soit
e1 = a, b s’écrit alors b = β1 e1 + β2 e2 avec kbk2 = β12 + β22 = 1. Donc il existe θ ∈ R tel que
β1 = cos θ et β2 = sin θ. On a alors a = e1 et b = cos θe1 + sin θe2 .
1 cos θ
ha, bi = he1 , cos θe1 + sin θe2 i = cos θ et det(a, b) =
.
0 sin θ
Théorème 3.29.
Pour toute isométrie vectorielle u de E, il existe une base orthonormale directe B de E et un
réel θ[2π] tels que
0 0
M [u, B] = 0 cos θ − sin θ avec = detu.
0 sin θ cos θ
Théorème 3.30.
O+ (E) est l’ensemble des rotations axiales de E.
Théorème 3.31.
Tout élément de O− (E) est soit une réflexion soit la composée d’une rotation et d’une réflexion
par rapport au plan orthogonal à l’axe de rotation.
49
Remarque 3.32.
Soient f ∈ O+ (E) et B = (u, v, w) une base orthonormale directe de E telle que la matrice de
1 0 0
f dans cette base soit de la forme 0 cos θ − sin θ .
0 sin θ cos θ
On pose D = Vect(u) et P = Vect(v, w) orienté par le vecteur normal u. Ainsi, E = D ⊕ P et
tout x ∈ E s’écrit x = x1 + x2 avec x1 ∈ D et x2 ∈ P . Alors, f (x) = x1 + rotθ (x2 ).
On dit alors que f est la rotation d’axe dirigé et orienté par u et d’angle θ. On la note rotu,θ .
Proposition 3.33.
On a
1. ∀θ, θ0 ∈ R, rotu,θ = rotu,θ0 ⇐⇒ θ = θ0 [2π]
2. ∀θ, θ0 ∈ R, rotu,θ ◦ rotu,θ0 = rotu,θ+θ0 = rotu,θ0 ◦ rotu,θ .
3. rot−1
u,θ = rotu,−θ .
Remarque 3.34.
Pour déterminer l’axe et l’angle de la rotation :
• On détermine un vecteur v ∈ R3 tel que u(v) = v. Ainsi, Vect(v) est l’axe de rotation.
1
• On détermine cos θ = (tr u − 1) et le signe de sin θ par le calcul du déterminant
2
det(v, x, u(x)) pour un vecteur x non colinéaire à v.
Proposition 3.35.
Soit u ∈ O(E) :
1. dim(ker(u − idE ) = 0 si et seulement si u est −idE ou une anti-rotation (composée
commutative d’une rotation d’angle θ 6= 0[π] et d’axe E−1 et de la réflexion par rapport
⊥
au plan E−1 );
2. dim(ker(u − idE ) = 1 si et seulement si u est une rotation d’axe ker(u − idE ) ;
3. dim(ker(u − idE ) = 2 si et seulement si u est la réflexion par rapport à ker(u − idE ) ;
4. dim(ker(u − idE ) = 3 si et seulement si u = idE .
50
En Pratique !
1. Si det(A) = 1 alors u est une rotation et il faut déterminer l’axe de rotation et l’angle θ.
2. Si det(A) = −1 On détemine l’ensemble des vecteurs invariants E1 = ker(u − idE ),
i) Si E1 est un plan alors u est la réflexion par rapport à E1 .
ii) Si E1 = {0E } alors on détermine E−1 = ker(u + idE ),
- Si E−1 = E alors u = −idE .
- Sinon u est la composée commutative d’une rotation d’axe E−1 et de la réflexion
⊥
par rapport au plan E−1 .
51