Vous êtes sur la page 1sur 10

c Christophe Bertault - MPSI

Automorphismes orthogonaux
et matrices orthogonales
Dans tout ce chapitre, on travaille uniquement avec le corps de base R et E est un espace euclidien orienté. Les lettres
n, p, q . . . désignent des entiers naturels non nuls.

1 Automorphismes orthogonaux
et matrices orthogonales en dimension quelconque

1.1 Automorphismes orthogonaux

Définition (Automorphisme orthogonal/isométrie vectorielle) Soit f : E −→ E une application. Les assertions


suivantes sont équivalentes :

(i) f préserve les produits scalaires : ∀x, y ∈ E, f (x) f (y) = (x|y).

(ii) f est linéaire et préserve les normes : ∀x, y ∈ E, f (x) = kxk.
De plus, si l’une de ces deux assertions est vraie, f est un automorphisme de E. On dit alors que f est un automorphisme
orthogonal de E ou une isométrie (vectorielle) de E.

   Explication
• L’équivalence des assertions (i) et (ii) est conceptuellement puissante : le seul fait qu’une application (non nécessairement
linéaire a priori) préserve les produits scalaires la rend automatiquement linéaire.
• Une isométrie vectorielle, comme son nom l’indique, est une transformation géométrique qui préserve (« iso- », même,
identique) les normes (« -métrie », mesure).

Démonstration
q  p
(i) =⇒ (ii) D’abord, f préserve les normes, car pour tout x ∈ E : f (x) = f (x) f (x) = (x|x) = kxk.
Montrons ensuite que f est linéaire. Notons n la dimension de E et  (e1 , e2 , . . . , en ) une base orthonormale
de E. Puisque f préserve les produits  scalaires, alors f (e i ) f (ej ) = (ei |ej ) = δij pour tous i, j ∈ J1, nK,
et donc f (e1 ), f (e2 ), . . . , f (en ) est aussi une base orthonormale de E. Du coup, soit x ∈ E. On a alors :
n
X Xn

f (x) = f (x) f (ek ) f (ek ) = (x|ek )f (ek ). Cette expression montre bien la linéarité de f , le produit
k=1 k=1
scalaire étant linéaire par rapport à chacune de ses variables.

(ii) =⇒ (i) Montrons que f préserve les produits scalaires. Soient x, y ∈ E. Utilisons les identités de polarisa-
tion, notées F ci-dessous :
 F 1 h i 1 h i
f (x) + f (y) 2 − f (x) 2 − f (y) 2 linéarité f (x + y) 2 − f (x) 2 − f (y) 2

f (x) f (y) = =
2 2
(ii) 1
h i
2 2 2 F
= kx + yk − kxk − kyk = (x|y). Et voilà.
2

Pour finir, montrons que sous réserve que l’une des assertions (i)
 ou (ii) est vraie, f est  un automorphisme
de E. Or nous avons prouvé avec la première implication que f (e1 ), f (e2 ), . . . , f (en ) est une base de E.
Et voilà ! 

Exemple Toute symétrie orthogonale de E — en particulier tout réflexion de E — est un automorphisme orthogonal de E.
En effet Soit s une symétrie orthogonale de E. Notons H = Ker (s − IdE ). Alors s est la symétrie par rapport à
H parallèlement à H ⊥ . Soit x ∈ E, décomposé sous la forme x = h + h0 où h ∈ H et h0 ∈ H ⊥ . Alors s(h) = h − h0 .
Or h et h0 sont orthogonaux, donc via le théorème de Pythagore :
q
s(x) = s(x) 2 = kh − h0 k2 = khk2 + kh0 k2 = kh + h0 k2 = kxk2 = kxk.
p p p p

En résumé, s préserve les normes. Comme par ailleurs s est linéaire, s est un automorphisme orthogonal de E.

1
c Christophe Bertault - MPSI

Théorème (Caractérisation d’un automorphisme orthogonal sur une base orthonormale) Soient f un endomor-
phisme de E et (e1 , e2 , . . . , en ) une base orthonormale de E. Les assertions suivantes sont équivalentes :
 
(i) f est un automorphisme orthogonal de E. (ii) f (e1 ), f (e2 ), . . . , f (en ) est une base orthonormale de E.

   Explication Bref, un automorphisme orthogonal transforme toute base orthonormale de E en une base orthonormale
de E ; et réciproquement, un endomorphisme de E qui tranforme une base orthonormale de E en une base orthonormale de E
est un automorphisme orthogonal de E.

Démonstration
(i) =⇒ (ii) Faisons d’abord l’hypothèse que f est orthogonal.  Soient i, j ∈ J1,  nK. Comme f est orthogonal :

f (ei ) f (ej ) = (ei |ej ) = δij . Ceci montre bien que f (e1 ), f (e2 ), . . . , f (en ) , famille de n = dim E vecteurs,
est une base orthonormale de E.
 
(ii) =⇒ (i) Réciproquement, faisons l’hypothèse que la famille f (e1 ), f (e2 ), . . . , f (en ) est orthonormale. Pour
montrer que f est un automorphisme orthogonal de E, il nous suffit de montrer que f , linéaire, préserve
les normes. Soit x ∈ E de coordonnées (x1 , x2 , . . . , xn ) dans (e1 , e2 , . . . , en ). Alors par bilinéarité
v du produit
s s u n
q  X  X uX
scalaire : f (x) = f (x) f (x) = xi xj f (ei ) f (ej ) = xi xj δij = t x2k = kxk. 
16i,j6n 16i,j6n k=1

Théorème (Automorphisme orthogonal et sous-espaces stables) Soient f un automorphisme orthogonal de E et F


un sous-espace stable de f , i.e. un sous-espace vectoriel de E tel que f (F ) ⊆ F . Alors F ⊥ est aussi un sous-espace stable de f .

Démonstration
• Puisque f est un automorphisme de E, remarquons pour commencer que f induit par restriction un isomor-
phisme de F sur son image f (F ). En particulier, F et f (F ) sont de même dimension finie. Or F est stable
par f , i.e. f (F ) ⊆ F , donc en fait f (F ) = F .
• Nous devons montrer que f (F ⊥ ) ⊆ F ⊥ . Soit t ∈ F ⊥ . Montrer que f (t) ∈ F ⊥ revient à montrer que f (t) est
orthogonal à tous les vecteurs de F .
Soit y ∈ F un tel vecteur. Nous venons de prouver que f (F) = F , donc il existe x ∈ F tel que y = f (x).
Alors comme f est orthogonal et comme t ∈ F ⊥ : f (t) y = f (t) f (x) = (t|x) = 0. Ceci montre bien
que f (t) est orthogonal à y. 

L’appellation « rotation » de la définition suivante sera justifiée géométriquement un peu plus loin.

Définition (Automorphisme orthogonal positif/négatif, rotation) Soit f un automorphisme orthogonal de E.


Alors det(f ) = 1 ou det(f ) = −1. Si det(f ) = 1, on dit que f est positif ou que f est une rotation (vectorielle) de E ; si
det(f ) = −1, on dit que f est négatif.

Démonstration Soient (e1 , e2 , . . . , en ) une base orthonormale de E et M la matrice de f dans cette base.
• Soient X, Y ∈ Rn et x et y les vecteurs de E de coordonnées respectives X et Y dans (e1 , e2 , . . . , en ).
Alors (x|y) = t XY
 . Mais puisque les coordonnées de f (x) et f (y) dans (e1 , e2 , . . . , en ) sont M X et M Y ,
alors f (x) f (y) = t (M X)(M Y ) = t X(t M M )Y . Comme f est orthogonal, on obtient finalement l’égalité
t
X(t M M )Y = t XY .
Fixons alors (i, j) ∈ J1, nK × J1, pK et notons Xi la colonne de taille n dont tous les coefficients sont nuls à
l’exception du ième égal à 1, et Yj la colonne de taille p dont tous les coefficients sont nuls à l’exception du
1 si i = j
j ème égal à 1. Alors le coefficient de position (i, j) de t M M vaut t Xi (t M M )Yj = t Xi Yj = .
0 si i 6= j
t
Ainsi M M = In comme voulu.
n o
• Enfin det(M )2 = det t M det(M ) = det t M M = det(In ) = 1, donc : det(f ) = det(M ) ∈ − 1, 1 . 
 

Théorème (Caractérisation d’un automorphisme orthogonal positif sur une base orthonormale directe) Soient
f un endomorphisme de E et (e1 , e2 , . . . , en ) une base orthonormale directe de E. Les assertions suivantes sont équivalentes :
 
(i) f est orthogonal positif. (ii) f (e1 ), f (e2 ), . . . , f (en ) est une base orthonormale directe de E.

2
c Christophe Bertault - MPSI

   Explication Les automorphismes orthogonaux positifs sont donc les automorphismes orthogonaux qui respectent
l’orientation.

Démonstration
(i)=⇒ (ii) Faisons l’hypothèse  que f est orthogonal positif. Par orthogonalité de f , nous savons déjà que
f (e1 ), f (e2 ), . . . , f (en ) est une base orthonormale de E. Montrons qu’elle est directe. Cela provient seule-
 
ment du fait que (e1 , e2 , . . . , en ) est directe et que det(e1 ,e2 ,...,en ) f (e1 ), f (e2 ), . . . , f (en ) = det(f ) = 1 > 0.
 
(ii) =⇒ (i) Faisons l’hypothèse que f (e1 ), f (e2 ), . . . , f (en ) est une base orthonormale directe de E. Comme
 
(e1 , e2 , . . . , en ) est aussi directe, cela signifie que det(f ) = det(e1 ,e2 ,...,en ) f (e1 ), f (e2 ), . . . , f (en ) > 0. Or
ce déterminant vaut ±1 en vertu du théorème précédent, donc det(f ) = 1 comme voulu. 

Définition (Groupe orthogonal et groupe spécial orthogonal)


(i) L’ensemble des automorphismes orthogonaux de E, noté O(E), est un sous-groupe du groupe linéaire GL(E) de E
appelé le groupe orthogonal de E.
(ii) L’ensemble des automorphismes orthogonaux positifs de E, noté SO(E) ou O+ (E), est un sous-groupe de O(E)
appelé le groupe spécial orthogonal de E.

Démonstration
(i) Montrons que O(E) est un sous-groupe de GL(E).
1) O(E) est non vide car évidemment IdE est préserve les produits scalaires.
2) Soient f, g ∈ O(E). Pour montrer que f −1 ◦g ∈ O(E), il nous suffit de vérifier que cette application
préserve les produits scalaires. Pour tous x, y ∈ E :
 f ∈O(E)  g∈O(E)
f −1 ◦ g(x) f −1 ◦ g(y) f ◦ f −1 ◦ g(x) f ◦ f −1 ◦ g(y) = g(x) g(y)

= = (x|y).

(ii) Montrons que SO(E) est un sous-groupe de O(E). Or SO(E) est l’ensemble des automorphismes
n ortho-
o
gonaux de déterminant 1 de E, donc le noyau du morphisme de groupes det O(E) : O(E) −→ − 1, 1 . Ce

noyau est bien sûr un sous-groupe de O(E). 

1.2 Matrices orthogonales

Définition (Matrice orthogonale) Soit M ∈ Mn (R). On dit que M est orthogonale si t M M = M t M = In ; cela revient à
dire que M est inversible d’inverse t M .

   En pratique Pour montrer que M est orthogonale, il suffit en fait de vérifier qu’on a t M M = In ou M t M = In .

√ √ 
2 −√ 3 1
1 √
Exemple La matrice √ 2 3 1  est orthogonale.
6 √2 0 −2

Théorème (Automorphisme orthogonal et matrice orthogonale) Soient f un endomorphisme de E et B une base


orthonormale de E. Alors les assertions suivantes sont équivalentes :
(i) f est orthogonal. (ii) Mat(f ) est orthogonale.
B

$ $ 2$ Attention2! L’hypothèse d’orthonormalité de la base B est absolument essentielle. Par exemple, si f est l’application
R −→ R
, alors f ∈ O(R2 ) car : ∀(x, y) ∈ R2 , f (x, y) = (x, −y) = (x, y) . Pourtant la matrice de f

(x, y) 7−→ (x, −y)
 
  1 2
dans la base (1, 0), (1, 1) de R2 (non orthonormale) est , non orthogonale.
0 −1

3
c Christophe Bertault - MPSI

Démonstration Posons M = Mat(f ) et notons n la dimension de E.


B

(i) =⇒ (ii) Déjà démontré dans une preuve précédente : plus précisément, on a montré que t M M = In ; il en
découle que M est inversible et qu’on a aussi M t M = In .
(ii) =⇒ (i) Supposons M orthogonale, i.e. que t M M = In . Pour montrer que f ∈ O(E), montrons que f
préserve les normes. Soit x ∈ E de coordonnées X dans B. Alors comme voulu :
q  p q  √ p
f (x) = f (x) f (x) = t (M X)(M X) = t X t M M X = t XX = (x|x) = kxk. 

Théorème (Caractérisation d’une matrice orthogonale au moyen de ses lignes ou de ses colonnes)
Soit M ∈ Mn (R). Les assertions suivantes sont équivalentes :
(i) M est orthogonale.
(ii) La famille des colonnes de M est une base orthonormale de Rn (muni de sa structure euclidienne canonique).
(iii) La famille des lignes de M est une base orthonormale de Rn .

Démonstration Notons (E1 , E2 , . . . , En ) la base canonique de Rn , en colonnes.


(i) ⇐⇒ (ii) Dire que M est orthogonale revient à dire que l’application linéaire canoniquement associée à M
est orthogonale en vertu du théorème précédent. Cela revient donc à dire, si nous notons (E1 , E2 , . . . , En )
la base canonique de Rn en colonnes, que la famille M E1 , M E2 , . . . , M En est orthonormale, i.e. que la
famille des colonnes de M est une base orthonormale de Rn .
(ii) ⇐⇒ (iii) L’égalité « t M M = M t M = In » étant inchangée par transposition, une matrice est orthogonale
si et seulement si sa transposée l’est, ce qui prouve l’équivalence des assertions (ii) et (iii). 

Définition (Matrice orthogonale positive/négative) Soit M ∈ Mn (R) une matrice orthogonale.


Alors det(M ) = 1 ou det(M ) = −1. Si det(M ) = 1, on dit que M est positive ; si det(M ) = −1, on dit que M est négative.

Démonstration det(M )2 = det(M ) det(t M ) = det(M t M ) = det(In ) = 1. 

 
2 1 2 1
$ $ $ Attention ! Toute matrice de déterminant ±1 n’est pas orthogonale. Par exemple, = 1 et pourtant
1 1 1 1
n’est pas orthogonale.

Vous démontrerez seuls les propositions suivantes.

Définition (Groupe orthogonal et groupe spécial orthogonal)


(i) L’ensemble des matrices orthogonales de taille n, noté O(n), est un sous-groupe du groupe linéaire GLn (R) appelé le
groupe orthogonal de degré n.
(ii) L’ensemble des matrices orthogonales positives de taille n, noté SO(n) ou O+ (n), est un sous-groupe de O(n) appelé
le groupe spécial orthogonal de degré n.

Théorème (Automorphisme orthogonal positif et matrice orthogonale positive) Soient f un endomorphisme de E


et B une base orthonormale de E. On note n la dimension de E. Les assertions suivantes sont équivalentes :
(i) f ∈ SO(E). (ii) Mat(f ) ∈ SO(n).
B

4
c Christophe Bertault - MPSI

2 Produit vectoriel
Le lemme et la définition suivants sont énoncés en dimension finie quelconque mais nous les utiliserons en dimension 3.

Lemme (Déterminant d’une base orthonormale directe dans une base orthonormale directe) Soient B et B0
deux bases orthonormales directes de E. Alors : detB (B0 ) = 1.

Démonstration Notons f l’automorphisme de E qui envoie B sur B0 . Comme B et B0 sont deux bases
orthonormales directes de E, nous savons que f ∈ SO(E), et donc que det(f ) = 1. Or detB (B0 ) = det(f ). 

Définition (Produit mixte) On note n la dimension de E. Soient (xk )16k6n une famille de n vecteurs de E et B et B0
deux bases orthonormales directes de E. Alors : detB (x1 , x2 , . . . , xn ) = detB 0 (x1 , x2 , . . . , xn ).
Ce déterminant, indépendant  du choix
 de la base orthonormale directe B qu’on peut faire, est appelé le produit mixte de
x1 , x2 , . . . , xn et noté x1 , x2 , . . . , xn .

   Explication En début d’année, nous n’avions qu’un seul déterminant à notre disposition, alors que le déterminant
d’une famille de vecteurs dépend de choix préalable d’une base. Nous savons maintenant pourquoi : nous avions l’habitude de
ne travailler qu’avec des bases orthonormales en dimension 2 et 3.

lemme
Démonstration detB (x1 , x2 , . . . , xn ) = detB (B0 ) detB 0 (x1 , x2 , . . . , xn ) = detB 0 (x1 , x2 , . . . , xn ). 

Définition (Produit
 vectoriel)
 On suppose E de dimension 3. Soient u, v ∈ E. Il existe un unique vecteur de E noté u ∧ v
tel que : ∀x ∈ E, u, v, x = (u ∧ v|x). Ce vecteur u ∧ v est appelé le produit vectoriel de u par v.

 
Démonstration Appliquer le théorème de Riesz à la forme linéaire x 7−→ u, v, x de E. 

   Explication Définition troublante : la définition du produit vectoriel est compliquée et fait intervenir un produit
scalaire ! Pourtant, quand nous avons défini le produit vectoriel en début d’année, nous n’avons pas eu besoin du produit scalaire.
Ce qu’il faut bien comprendre en réalité, c’est qu’en début d’année, la notion de produit vectoriel nécessitait les notions d’angle
et d’orientation. Dans le cas présent, nous avons déjà donné un sens à la notion d’orientation, mais pas à la notion d’angle.
La notion d’angle est remplacée par la notion de produit scalaire. Cette substitution n’est pas tout à fait incroyable si l’on se
souvient qu’intuitivement, un produit scalaire nul équivaut à la présence d’un angle droit.

Tout de même, il est normal que nous retrouvions les résultats sur le produit vectoriel que nous connaissions.

Théorème (Propriétés du produit vectoriel) On suppose E de dimension 3. Soient u, v, w ∈ E.


u∧v
(i) Le vecteur u ∧ v est orthogonal à u et v.
(ii) Les vecteurs u et v sont colinéaires si et seulement si u ∧ v = 0E .
(iii) Le produit vectoriel ∧ est une application bilinéaire alternée de E × E dans E. b

(iv) Si u et v ne sont pas colinéaires, alors (u, v, u ∧ v) est une base directe de E. u
(v) On suppose la famille (u, v) orthonormale. Alors : v
(u, v, w) est une base orthonormale directe de E si et seulement si w = u ∧ v.

Démonstration
 
(i) Puisque le produit mixte est un déterminant, (u ∧ v|u) = u, v, u = 0, et donc u et u ∧ v sont orthogonaux.
De même avec v à la place de u.
 
(ii) Si u et v sont colinéaires, alors en tant que déterminant, u, v, x = 0 = (0E |x) pour tout x ∈ E. L’unicité
du produit vectoriel montre aussitôt que u ∧ v = 0E .
Réciproquement, supposons qu’on ait u ∧ v = 0E et fixons un élément
 x de E r Vect(u, v) — le choix d’un
tel x est possible car dim E = 3 et dim Vect(u, v) 6 2. Puisque u, v, x = (u ∧ v|x) = (0E |x) = 0, et puisque
le produit mixte n’est jamais qu’un déterminant, la famille (u, v, x) est donc liée. Or x n’est pas combinaison
linéaire de u et v, étant donnée la façon dont on l’a choisi. La famille (u, v) est donc nécessairement est liée.

5
c Christophe Bertault - MPSI

(iii) L’assertion (ii) montre que, si le produit vectoriel est bilinéaire, alors il est aussi alterné — nul sur toute
famille dont deux vecteurs sont égaux. Il nous suffit donc de montrer sa bilinéarité. Contentons-nous même
de démontrer sa linéarité par rapport à la seconde variable. Soient u, v, w ∈ E et λ, µ ∈ R. Pour tout x ∈ E :
         
u∧(λv+µw) x = u, λv+µw, x = λ u, v, x +µ u, w, x = λ(u∧v|x)+µ(u∧w|x) = λ(u∧v)+µ(u∧w) x .

L’unicité du produit vectoriel montre aussitôt que u ∧ (λv + µw) = λ(u ∧ v) + µ(u ∧ w).

(iv) Supposons u et v non colinéaires. Montrer que (u, v, u ∧ v) est une base directe de E revient à montrer
que le déterminant de cette famille dans une base directe de E est strictement positif. Cela revient donc à
montrer que u, v, u ∧ v > 0. Or ceci est vrai car [u, v, u ∧ v] = (u ∧ v|u ∧ v) = ku ∧ vk2 et u ∧ v 6= 0E via (ii).
 

(v) Supposons (u, v) orthonormale.


• Montrons que (u, v, u ∧ v) est une base orthonormale directe de E. En tout cas, cette famille est une base
orthogonale directe de E via (i) et (iv). Il nous reste seulement à montrer que u ∧ v est unitaire.
 
u∧v u∧v
Puisque (u, v) est libre, u∧v 6= 0E via (ii). Alors le vecteur est unitaire et la famille u, v,
ku ∧ vk ku ∧ vk
est orthonormale directe. Par conséquent, puisque le produit mixte n’est jamais qu’un déterminant dans
une base orthonormale directe et puisque le déterminant d’une base orthonormale
! directe dans une base
 
u∧v u∧v
orthonormale directe vaut 1 : u, v, = 1 = u ∧ v = ku ∧ vk. Cela montre bien

ku ∧ vk ku ∧ vk
que u ∧ v est unitaire.
• Réciproquement, supposons que (u, v, w) est une base orthonormale directe de E et montrons que w = u∧v.
Or Vect(u, v) est de dimension 2, donc Vect(u, v)⊥ est une droite vectorielle, qui contient à la fois w et
u ∧ v. Il existe donc λ ∈ R tel que u ∧ v = λw.  
Mais (u, v, w) est une base orthonormale directe de E, donc u, v, w = 1 = (u ∧ v|w) = (λw|w) = λ. Et
voilà, λ = 1, donc w = u ∧ v. 

3 Automorphismes orthogonaux en dimension 2 et 3

3.1 Automorphismes orthogonaux en dimension 2

Théorème (Matrices orthogonales de taille 2)


 
cos θ − sin θ
• Toute matrice orthogonale positive de taille 2 est de la forme où θ ∈ R.
sin θ cos θ
 
cos θ − sin θ
De plus l’application θ 7−→ est un morphisme de groupes surjectif de R sur SO(2), de noyau 2πZ.
sin θ cos θ
En particulier, SO(2) est un groupe abélien.
 
cos θ sin θ
• Toute matrice orthogonale négative de taille 2 est de la forme où θ ∈ R.
sin θ − cos θ

Démonstration
 
a c
• Soit M = ∈ M2 (R).
b d
 2 2

 a +b =1  a = cos θ et b = sin θ
t 2 2
M ∈ O(2) ⇐⇒ M M = I2 ⇐⇒ c +d =1 ⇐⇒ ∃ θ, ϕ ∈ R/ c = cos ϕ et d = sin ϕ
ac + bd = 0 cos θ cos ϕ + sin θ sin ϕ = 0
 

 a = cos θ et b = sin θ

 a = cos θ et b = sin θ n o 
⇐⇒ ∃ θ, ϕ ∈ R/ c = cos ϕ et d = sin ϕ ⇐⇒ ∃ θ, ϕ ∈ R, ε ∈ − 1, 1 / c = cos ϕ et d = sin ϕ

cos(θ − ϕ) = 0  ϕ ≡ θ + ε π mod 2π

2
(
n o a = cos θ et b = sin θ
⇐⇒ ∃ θ ∈ R, ε ∈ − 1, 1 / π   π 
c = cos θ + ε et d = sin θ + ε
2 2

n o a = cos θ et b = sin θ
⇐⇒ ∃ θ ∈ R, ε ∈ − 1, 1 /
c = −ε sin θ et d = ε cos θ
 
n o cos θ −ε sin θ
⇐⇒ ∃ θ ∈ R, ε ∈ − 1, 1 / M = .
sin θ ε cos θ

6
c Christophe Bertault - MPSI

C’est bien la forme annoncée des matrices orthogonales de taille 2. Un calcul aisé de déterminant montre
qu’on récupère pour ε = 1 les matrices orthogonales positives, et pour ε = −1 les matrices orthogonales
négatives.
 
cos θ − sin θ
• Montrons ensuite que l’application R : θ 7−→ est un morphisme de groupes surjectif de R
sin θ cos θ
sur SO(2), de noyau 2πZ.
1) On vérifie facilement que : ∀θ, ϕ ∈ R, R(θ)R(ϕ) = R(θ + ϕ).
 
cos θ − sin θ
2) La sujectivité de R résulte du premier point : toute matrice de SO(2) est de la forme
sin θ cos θ
pour un certain θ ∈ R.
3) Pour le noyau de R, soit θ ∈ R. Ce θ appartient au noyau de R si et seulement si R(θ) = I2 , i.e. si
et seulement si cos θ = 1 et sin θ = 0, i.e. si et seulement si θ ≡ 0 mod 2π. Comme voulu : Ker R = 2πZ.
• Montrons enfin que SO(2) est abélien. Soient A, B ∈ SO(2). Il existe alors θ, ϕ ∈ R tels que A = R(θ) et
B = R(ϕ). Alors AB = R(θ)R(ϕ) = R(θ + ϕ) = R(ϕ + θ) = R(ϕ)R(θ) = BA. 

Théorème (Classification des automorphismes orthogonaux en dimension 2) On suppose E de dimension 2. Soit f


un automorphisme orthogonal de E.
(i) Si f n’est pas une rotation, alors f est une réflexion, i.e. ici une symétrie orthogonale par rapport à une droite.

(ii) Si au contraire f est une rotation, alors la matrice Mat(f ) de f ne dépend pas du choix de la base B de E qu’on
B  
cos θ − sin θ
peut faire, à condition que B soit orthonormale directe ; cette matrice est de la forme pour un certain θ ∈ R
sin θ cos θ
unique à 2π près appelé une mesure de l’angle de f .
  
On a par ailleurs, pour tout u ∈ E unitaire : cos θ = u f (u) et sin θ = u, f (u) .

Enfin, si f 6= IdE , l’ensemble Ker (f − IdE ) des points fixes de f est réduit à 0E .

   Explication L’assertion (ii) est bien connue. Si (~ı, ~) est une base orthonormale directe du plan, et si nous notons
uθ , ~vθ ) l’image de cette base par la rotation 
(~ d’angle θ, alors~
uθ = cos θ ~ı + sin θ ~ et ~vθ = − sin θ ~ı + cos θ ~. La matrice de la
cos θ − sin θ
rotation d’angle θ dans la base (~ı, ~) est donc et en effet, elle ne dépend pas vraiment du choix de ~ı et ~.
sin θ cos θ

$ $ $ Attention ! Dans l’assertion (ii), il est essentiel que les bases considérées soient orthonormales directes ; l’orientation
détermine le signe de la mesure θ de l’angle de la rotation. En effet, si on change l’orientation de E, une mesure de l’angle de la
rotation avec la nouvelle orientation sera −θ et non plus θ.

Démonstration Fixons (e1 , e2 ) une base orthonormale directe de E.


(i) Supposons d’abord que fn’est pas une rotation.
 Alors la matrice de f dans la base (e1 , e2 ) est orthogonale
cos θ sin θ θ θ
négative, i.e. de la forme pour un certain θ ∈ R. Posons alors u1 = cos e1 + sin e2 et
sin θ − cos θ 2 2
θ θ
u2 = − sin e1 + cos e2 . Il est clair que (u1 , u2 ) est une base orthonormale de E. De plus un calcul facile
2 2  
1 0
montre que f (u1 ) = u1 et que f (u2 ) = −u2 , de sorte que la matrice de f dans (u1 , u2 ) est . Ainsi
0 −1
f est la réflexion par rapport à Vect(u1 ).
u2 e2
f (e1 )
θ θ
On voit sur cette figure que e1 et f (e1 ) (resp. e2 et f (e2 )) sont orthogonalement symé-
u1 2
b
triques l’un de l’autre par rapport à la droite engendrée par u1 . C’est pourquoi nous
e1 avons l’idée de montrer que f est la réflexion par rapport à la droite engendrée par u1 .

f (e2 )
(ii) Supposons maintenant  que f est une rotation.
 Alors la matrice de f dans la base (e1 , e2 ) est orthogonale
cos θ − sin θ
positive, i.e. de la forme ∈ SO(2) pour un certain θ ∈ R.
sin θ cos θ

• Soient (u1 , u2 ) une base orthonormale directe quelconque de E et P la matrice de passage de


2 ) à (u1 , u2 ). En
(e1 , e  vertu des formules de changement de base, la matrice de f dans (u1 , u2 ) est
−1 cos θ − sin θ
P P.
sin θ cos θ

7
c Christophe Bertault - MPSI

Or par construction, la famille des colonnes de  P est une baseorthonormale directe de R2 , de sorte que
cos θ − sin θ
P ∈ SO(2). Mais SO(2) est abélien, donc P et commutent. Ceci montre que la matrice
sin θ cos θ
   
cos θ − sin θ cos θ − sin θ
de f dans (u1 , u2 ) est P −1 P = . Comme voulu, la matrice de f ne
sin θ cos θ sin θ cos θ
dépend donc pas de la base orthonormale directe dans laquelle on la calcule.

• Soient u ∈ E unitaire et v l’unique


 vecteur pour
 lequel (u, v) est une base orthonormale directe
cos θ − sin θ
de E. La matrice de f dans (u, v) est , donc f (u) = cos θ u + sin θ v. Comme voulu :
sin θ cos θ

 1 cos θ
u f (u) = u cos θ u+sin θ v = cos θ kuk2 = cos θ et u, f (u) = det (u,v) u, f (u) =
   
= sin θ.
0 sin θ

• Pour finir, supposons f 6= IdE et montrons que Ker (f − IdE ) = 0E , i.e. que f − IdE est
 
cos θ − 1 − sin θ
injectif. En tout cas, la matrice de f − IdE dans (e1 , e2 ) est , de déterminant
sin θ cos θ − 1
θ
(cos θ − 1)2 + sin2 θ = 2(1 − cos θ) = 4 sin2 . Or f 6= IdE , donc θ 6≡ 0 mod 2π, donc det(f − IdE ) 6= 0.
2
Cela prouve notre résultat. 

3.2 Automorphismes orthogonaux en dimension 3

Définition (Rotations en dimension 3) On suppose E de dimension 3. Soit r une rotation de E, r 6= IdE .


• L’ensemble Ker (r − IdE ) des points fixes de r est une droite vectorielle de E appelée l’axe de r.

• Soit (u, v) une base orthonormale
 du plan  (r − IdE ) . Alors la matrice de r dans la base orthonormale directe
Ker
cos θ − sin θ 0
(u, v, u ∧ v) de E est de la forme  sin θ cos θ 0 pour un certain θ ∈ R défini modulo 2π.
0 0 1
• On dit finalement que r est la rotation d’axe orienté par u ∧ v et d’angle de mesure θ. Par convention, on considère
que la rotation IdE admet toute droite vectorielle pour axe et 0 (modulo 2π) pour mesure d’angle.

r(u ∧ v) = u ∧ v

   Explication r(v)
 
cos θ − sin θ 0 b

• La figure ci-contre illustre le fait que la matrice de r dans (u, v, u∧v) soit  sin θ cos θ 0 . v
u θ
0 0 1
r(u)

• Pourquoi dire « rotation d’axe orienté par u ∧ v et d’angle de mesure θ » et non pas tout simplement « rotation d’axe
dirigé par u ∧ v et d’angle de mesure θ » ?
r(u) v
Pour le comprendre, choisissons d’orienter l’axe de r au moyen du vecteur opposé
v ∧ u. Notre base orthonormale directe de E de référence sera alors (v, u, v ∧ u).
La figure ci-contre est la même que la précédente, mais on regarde les choses de −θ r(v)
u b

dessous, et non plus de dessus. Avec la nouvelle orientation choisie, la mesure de


l’angle de r est exactement l’opposé de la précédente — si vous ne le voyez pas
bien, regardez la figure en mettant cette page la tête en bas.
Conclusion : la mesure de l’angle d’une rotation en dimension 3 dépend de la façon
r(v ∧ u) = v ∧ u
dont on choisit d’orienter son axe.

Démonstration
• Soient B une base de E et R la matrice de r dans B. Posons, pour tout λ ∈ R :

r11 − λ r12 r13

χ(λ) = det(R − λI3 ) = r21 r22 − λ r23 .
r31 r32 r33 − λ

En développant ce déterminant, on s’aperçoit facilement que χ est une fonction polynomiale de degré 3. Le
théorème des valeurs intermédiaires et le fait que χ possède des limites infinies de signes opposés en ±∞

8
c Christophe Bertault - MPSI

montrent alors que χ possède une racine réelle λ0 : χ(λ0 ) = det(R − λ0 I3 ) = det(r − λ0 IdE ) = 0. Ceci
signifie que r − λ0 IdE n’est pas injectif.
Il existe
donc un vecteur x0 ∈ E non nul tel que r(x0 ) = λ0 x0 .
Mais r préserve les normes, donc kx0 k = r(x0 ) = kλ0 x0 k = |λ0 | × kx0 k, et enfin |λ0 | = 1.
Conclusion : il existe un vecteur x0 ∈ E non nul tel que r(x0 ) = ±x0 .

• Notons F = Ker (r − IdE ) l’ensemble des points fixes de r. Alors F est stable par r — en effet, si x ∈ F ,
alors r(x) = x ∈ F . Or r est orthogonal, donc F ⊥ est lui aussi stable par r comme nous l’avons observé
au début de ce chapitre. Pour montrer que F est de dimension 1 comme le veut le théorème, distinguons
plusieurs cas.

1) Faisons l’hypothèse que dim F = 3. Alors Ker (r − IdE ) = F = E, donc r = IdE , contrairement
aux hypothèses du théorème.

2) Faisons l’hypothèse que dim F = 2. Alors dim F ⊥ = dim E − dim F = 3 − 2 = 1. Donnons-nous


(e1 , e2 ) une base de F et (e3 ) une base de F ⊥ . Comme E = F ⊕ F ⊥ , la famile (e1 , e2 , e3 ) est alors une
base de E. Nous savons que r(e1 ) = e1 et r(e2 ) = e2 par définition de r, et que r(e3 )= αe3 pour  un
1 0 0
certain α ∈ R, puisque F ⊥ est stable par r. La matrice de r dans (e1 , e2 , e3 ) est donc 0 1 0 . Or
0 0 α
r ∈ SO(E), donc det(r) = 1, donc α = 1. Ceci implique que r = IdE — contradiction.

3) Enfin, faisons l’hypothèse que dim F = 0. Cela veut dire que r n’a pas de point fixe (autre que
0E ). Reprenant les notations du premier point, nous pouvons donc affirmer que r(x0 ) = −x0 .
Posons alors X0 = Vect(x0 ). Comme X0 est stable par r et comme r est un automorphisme orthogonal de
E, X0⊥ est lui aussi stable par r, de dimension 2. Nous pouvons en déduire que r ⊥ est un endomorphisme
X0

de X0⊥ , et même un automorphisme orthogonal de X0⊥ — en effet, si r préserve les normes, a fortiori r ⊥
X0
les préserve aussi.
Soit (x1 , x2 ) une base orthonormale de X0⊥ . Orientons X0⊥ à l’aide de cette base — cela revient à décréter,
arbitrairement, que cette base est directe. Via l’étude précédente des automorphismes orthogonaux en
dimension 2, r X ⊥ est alors soit une rotation, soit une réflexion. Mais comme r n’a pas de point fixe autre
0
que 0E , r ⊥ ne peut pas en avoir non plus. Donc r ⊥ est une rotation, disons d’angle de mesure ϕ.
X
0 X 0
Enfin, puisque E = X0 ⊕ X0⊥ , nous pouvons
 affirmer que (x
0 , x1 , x2 ) est une base orthonormale de E,
−1 0 0
et la matrice de r dans cette base est  0 cos ϕ − sin ϕ . Cette matrice a pour déterminant −1 —
0 sin ϕ cos ϕ
contradiction.

Conclusion : dim F = 1 comme annoncé.

• Du coup, dim F ⊥ = 2. Fixons une base orthonormale (u, v) de F ⊥ et orientons F ⊥ à l’aide de celle-ci.
Imitant le raisonnement effectué ci-dessus en 3), on peut alors montrer que r ⊥ est soit une rotation, soit
F

une réflexion. Mais tous les points fixes de r sont dans F par définition de F , et de plus F ∩ F ⊥ = 0E ,


donc r ⊥ n’a pas de point fixe autre que 0E , donc est une rotation, disons d’angle de mesure θ.

F
⊥
Comme u ∧ v est orthogonal à u et v, u ∧ v ∈ F ⊥ = F . La matrice de r dans la base orthonormale directe
 
cos θ − sin θ 0
(u, v, u ∧ v) de E est finalement  sin θ cos θ 0 comme voulu. 
0 0 1

Théorème (Calcul de l’image d’un vecteur par une rotation en dimension 3) On suppose E de dimension 3. Soient
θ ∈ R, a ∈ E unitaire et r la rotation d’axe orienté par a et d’angle de mesure θ.
(i) Alors pour tout x ∈ E : r(x) = (cos θ) x + (1 − cos θ)(a|x) a + (sin θ) a ∧ x.
En particulier, si x est orthogonal à a : r(x) = (cos θ) x + (sin θ) a ∧ x.
  
(ii) On a par ailleurs, pour tout u ∈ E unitaire orthogonal à a : cos θ = u r(u) et sin θ = u, r(u), a .

   Explication a
La formule de l’assertion (i) est très facile à visualiser dans le cas où x est orthogonal à a. x⊥a
θ sin
cos b
θ
x θ a∧x
r(x)
9
c Christophe Bertault - MPSI

Démonstration
(i) Notons ρ l’endomorphisme de E défini par : ∀x ∈ E, ρ(x) = (cos θ) x + (1 − cos θ)(a|x) a + (sin θ) a ∧ x.
Fixons ensuite (u, v) une base orthonormale quelconque de Ker (r − IdE ) telle que (u, v, a) soit une
base
 orthonormale directe de E. Le théorème précédent affirme que la matrice de r dans (u, v, a) est
cos θ − sin θ 0
 sin θ cos θ 0. Si nous arrivons à montrer que la matrice de ρ dans (u, v, a) est aussi cette matrice,
0 0 1
nous aurons bien montré que r = ρ, comme voulu. Il suffit pour cela de calculer ρ(u), ρ(v) et ρ(a).

ρ(u) = (cos θ) u + (1 − cos θ)(a|u) a + (sin θ) a ∧ u = (cos θ) u + (sin θ) v,

ρ(v) = (cos θ) v + (1 − cos θ)(a|v) a + (sin θ) a ∧ v = −(sin θ) u + (cos θ) v,


ρ(a) = (cos θ) a + (1 − cos θ)(a|a) a + (sin θ) a ∧ a = (cos θ) a + (1 − cos θ) a = a.

(ii) Soit u ∈ E unitaire orthogonal à a. Nous venons de voir que r(u) = (cos θ) u + (sin θ) a ∧ u.
   u⊥(a∧u)
cos θkuk2 = cos θ. Egalement :

Alors : u r(u) = u (cos θ) u + (sin θ) a ∧ u
=
  u⊥(a∧u)
sin θka ∧ uk2 = sin θ. 
    
u, r(u), a = a, u, r(u) = a ∧ u r(u) = a ∧ u (cos θ) u + (sin θ) a ∧ u =

   En pratique Soit r une rotation de E. On suppose qu’on ne connaît ni l’axe de r ni la mesure de son angle par
rapport à une orientation de son axe. Peut-on déterminer ces deux données ? Oui, en suivant les indications suivantes.
1) L’axe de r étant l’ensemble de ses points fixes, le déterminer revient à résoudre l’équation r(x) = x d’inconnue
x ∈ E. Facile. En particulier, on peut alors fixer un vecteur a ∈ Ker (r − IdE ) unitaire et orienter l’axe de r avec.
2) Ensuite, soit u ∈ E unitaire orthogonal à a. Un tel vecteur se détermine aisément. Si θ désigne une mesure de
l’angle de r, l’axe de r étant orienté par a, alors il est facile de déterminer cos θ et sin θ via le théorème précédent, à l’aide
de u. La valeur de θ en découle (modulo 2π), éventuellement sous forme d’arcsinus ou d’arccosinus.

 
−1 2 2
1
Exemple L’endomorphisme r de R3 de matrice R =  2 −1 2  dans la base canonique est la rotation d’axe orienté
3
2 2 −1
1
par √ (1, 1, 1) et d’angle de mesure π.
3
En effet
• On vérifie aisément que RR = I3 , ce qui montre bien que r est un automorphisme orthogonal de R3 .
t


−1 2 2 −1 2 2 −1 2 2
1 1 1 1 
det(R) = 2 −1 2 = 0 3 6 L2 ← L2 + 2L1 = 0 1 2 = −1×(−3) = 1,
27 27
3 3
2 2 −1 0 6 3 L3 ← L3 + 2L1 0 2 1

et donc r est une rotation de R3 comme voulu.

• Déterminons l’axe de r, à savoir l’ensemble Ker (r − IdE ) des points fixes de r. Pour tout (x, y, z) ∈ R3 :
 
 −x + 2y + 2z = 3x  −2x + y + z = 0
(x, y, z) ∈ Ker (r − IdE ) ⇐⇒ 2x − y + 2z = 3y ⇐⇒ x − 2y + z = 0
2x + 2y − z = 3z x + y − 2z = 0
 

−2x + y + z = 0
⇐⇒ L3 ← L1 + L2 + L3
x − 2y + z = 0
(
−2x + y + z = 0
⇐⇒ 1 1 ⇐⇒ x = y = z.
x − y = 0 L2 ← L2 − L1
3 3
  1
Ainsi Ker (r − IdE ) = Vect (1, 1, 1) . Posons alors a = √ (1, 1, 1), vecteur unitaire, et orientons l’axe de
3
r à l’aide de a. De la sorte, r est la rotation d’axe orienté par a et d’angle de mesure un certain θ ∈ R.

1 
• Le vecteur u = √ (1, −1, 0) est orthogonal à a et unitaire. Pour déterminer cos θ et sin θ, calculons u r(u)
2
  1 
et u, r(u), a . Pour commencer, r(u) = √ (−1, 1, 0) et cos θ = u r(u) = −1. Aussitôt θ ≡ π mod 2π.
2
Dans ce cas particulier, on n’a même
 pas besoin de calculer sin θ pour trouver la valeur de θ modulo 2π. On
laisse donc de côté le calcul de u, r(u), a .

10