Vous êtes sur la page 1sur 15

c Christophe Bertault - MPSI

Géométrie euclidienne
du plan et de l’espace
Dans tout ce chapitre, on travaille uniquement avec le corps de base R et E est un espace euclidien orienté.
Les lettres n, p, q . . . désignent des entiers naturels non nuls.

Lemme Soit A ∈ Mn,p (R). On suppose que : ∀X ∈ Rn , ∀Y ∈ Rp , t


XAY = 0. Alors A = 0.

Démonstration Soit (i, j) ∈ J1, nK × J1, pK. Notons Xi la colonne de taille n dont tous les coefficients sont nuls
à l’exception du ième , égal à 1 ; et Yj la colonne de taille p dont tous les coefficients sont nuls à l’exception du j ème ,
égal à 1. Alors 0 = t Xi AYj = aij . Ainsi A = 0 comme voulu. 

1 Automorphismes orthogonaux
et matrices orthogonales

1.1 Automorphismes orthogonaux

Définition (Automorphisme orthogonal/isométrie vectorielle) Soit f : E −→ E une application. Les assertions


suivantes sont équivalentes :

(i) f préserve les produits scalaires : ∀x, y ∈ E, f (x) f (y) = (x|y).

(ii) f est linéaire et préserve les normes : ∀x, y ∈ E, f (x) = kxk.

De plus, si l’une de ces deux assertions est vraie, f est un automorphisme de E. On dit alors que f est un automorphisme
orthogonal de E ou une isométrie (vectorielle) de E.

   Explication
• L’équivalence des assertions (i) et (ii) est conceptuellement puissante : le seul fait qu’une application (non nécessairement
linéaire a priori) préserve les produits scalaires la rend automatiquement linéaire.
• Une isométrie vectorielle, comme son nom l’indique, est une transformation géométrique qui préserve (« iso- », même,
identique) les normes (« -métrie », mesure).

Démonstration
q  p
(i) =⇒ (ii) D’abord, f préserve les normes, car pour tout x ∈ E : f (x) = f (x) f (x) = (x|x) = kxk.
Montrons ensuite que f est linéaire. Notons n la dimension de E et  (e1 , e2 , . . . , en ) une base orthonormale
de E. Puisque f préserve les produits scalaires, alors f (e ) f (ej ) = (ei |ej ) = δij pour tous i, j ∈ J1, nK,
 i
et donc f (e1 ), f (e2 ), . . . , f (en ) est aussi une base orthonormale de E. Du coup, soit x ∈ E. On a alors :
X
n
 X
n
f (x) = f (x) f (ek ) f (ek ) = (x|ek )f (ek ). Cette expression montre bien la linéarité de f , le produit
k=1 k=1
scalaire étant linéaire par rapport à chacune de ses variables.

(ii) =⇒ (i) Montrons que f préserve les produits scalaires. Soient x, y ∈ E. Utilisons les identités de polarisa-
tion, notées F ci-dessous :
 F 1 h i 1 h i
f (x) f (y) = f (x) + f (y) 2 − f (x) 2 − f (y) 2 linéarité
= f (x + y) 2 − f (x) 2 − f (y) 2
2 2
(ii) 1
h i
2 2 2 F
= kx + yk − kxk − kyk = (x|y). Et voilà.
2

Pour finir, montrons que sous réserve que l’une des assertions (i) ou (ii) est vraie, f est un automorphisme
de E. Comme
E est de dimension finie, il nous suffit de prouver l’injectivité
 de f . Soit x ∈ Ker f . Alors
kxk = f (x) = k0E k = 0, d’où x = 0E . On obtient bien Ker f = 0E comme voulu. 

1
c Christophe Bertault - MPSI

Exemple Toute symétrie orthogonale de E — en particulier tout réflexion de E — est un automorphisme orthogonal de E.
En effet Soit s une symétrie orthogonale de E. Notons H = Ker (s − IdE ). Alors s est la symétrie par rapport à
H parallèlement à H ⊥ . Soit x ∈ E, décomposé sous la forme x = h + h0 où h ∈ H et h0 ∈ H ⊥ . Alors s(h) = h − h0 .
Or h et h0 sont orthogonaux, donc via le théorème de Pythagore :
q p p p p
s(x) = s(x) 2 = kh − h0 k2 = khk2 + kh0 k2 = kh + h0 k2 = kxk2 = kxk.

En résumé, s préserve les normes. Comme par ailleurs s est linéaire, s est un automorphisme orthogonal de E.

Théorème (Caractérisation d’un automorphisme orthogonal sur une base orthonormale) Soient f un endomor-
phisme de E et (e1 , e2 , . . . , en ) une base orthonormale de E. Les assertions suivantes sont équivalentes :
 
(i) f est un automorphisme orthogonal de E. (ii) f (e1 ), f (e2 ), . . . , f (en ) est une base orthonormale de E.

   Explication Bref, un automorphisme orthogonal transforme toute base orthonormale de E en une base orthonormale
de E ; et réciproquement, un endomorphisme de E qui tranforme une base orthonormale de E en une base orthonormale de E
est un automorphisme orthogonal de E.

Démonstration
(i) =⇒ (ii) Faisons d’abord l’hypothèse que f est orthogonal.
 Soient i, j ∈ J1,  nK. Comme f est orthogonal :

f (ei ) f (ej ) = (ei |ej ) = δij . Ceci montre bien que f (e1 ), f (e2 ), . . . , f (en ) , famille de n = dim E vecteurs,
est une base orthonormale de E.
 
(ii) =⇒ (i) Réciproquement, faisons l’hypothèse que la famille f (e1 ), f (e2 ), . . . , f (en ) est orthonormale. Pour
montrer que f est un automorphisme orthogonal de E, il nous suffit de montrer que f , linéaire, préserve
les normes. Soit x ∈ E de coordonnées (x1 , x2 , . . . , xn ) dans (e1 , e2 , . . . , en ). Alors par bilinéarité
v du produit
s s u n
q  X  X uX
scalaire : f (x) = f (x) f (x) = xi xj f (ei ) f (ej ) = xi xj δij = t x2k = kxk. 
16i,j6n 16i,j6n k=1

Théorème (Automorphisme orthogonal et sous-espaces stables) Soient f un automorphisme orthogonal de E et F


un sous-espace stable de f , i.e. un sous-espace vectoriel de E tel que f (F ) ⊆ F . Alors F ⊥ est aussi un sous-espace stable de f .

Démonstration
• Puisque f est un automorphisme de E, remarquons pour commencer que f induit par restriction un isomor-
phisme de F sur son image f (F ). En particulier, F et f (F ) sont de même dimension finie. Or F est stable
par f , i.e. f (F ) ⊆ F , donc en fait f (F ) = F .
• Nous devons montrer que f (F ⊥ ) ⊆ F ⊥ . Soit t ∈ F ⊥ . Montrer que f (t) ∈ F ⊥ revient à montrer que f (t) est
orthogonal à tous les vecteurs de F .
Soit y ∈ F un tel vecteur. Nous venons de prouver que f (F) = F , donc il existe x ∈ F tel que y = f (x).
Alors comme f est orthogonal et comme t ∈ F ⊥ : f (t) y = f (t) f (x) = (t|x) = 0. Ceci montre bien
que f (t) est orthogonal à y. 

L’appellation « rotation » de la définition suivante sera justifiée géométriquement un peu plus loin.

Définition (Automorphisme orthogonal positif/négatif, rotation) Soit f un automorphisme orthogonal de E.


Alors det(f ) = 1 ou det(f ) = −1. Si det(f ) = 1, on dit que f est positif ou que f est une rotation (vectorielle) de E ; si
det(f ) = −1, on dit que f est négatif.

Démonstration Soient (e1 , e2 , . . . , en ) une base orthonormale de E et M la matrice de f dans cette base.
• Soient X, Y ∈ Rn et x et y les vecteurs de E de coordonnées respectives X et Y dans (e1 , e2 , . . . , en ).
Alors (x|y) = t XY
 . Mais puisque les coordonnées de f (x) et f (y) dans (e1 , e2 , . . . , en ) sont M X et M Y ,
alors f (x) f (y) = t (M X)(M Y ) = t X(t M M )Y . Comme f est orthogonal, on obtient finalement l’égalité
t
X(t M M )Y = t XY . 
Conclusion : ∀X, Y ∈ Rn , t X t M M − In Y = 0. Via le lemme démontré au début de ce chapitre,
t
nous pouvons affirmer que M M = In . Nous venons donc de prouver que la matrice d’un automorphisme
orthogonal dans une base orthonormale satisfait la relation « t M M = In ».
  n o
• Enfin det(M )2 = det t
M det(M ) = det t
M M = det(In ) = 1, donc : det(f ) = det(M ) ∈ − 1, 1 . 

2
c Christophe Bertault - MPSI

Théorème (Caractérisation d’un automorphisme orthogonal positif sur une base orthonormale directe) Soient
f un endomorphisme de E et (e1 , e2 , . . . , en ) une base orthonormale directe de E. Les assertions suivantes sont équivalentes :
 
(i) f est orthogonal positif. (ii) f (e1 ), f (e2 ), . . . , f (en ) est une base orthonormale directe de E.

   Explication Les automorphismes orthogonaux positifs sont donc les automorphismes orthogonaux qui respectent
l’orientation.

Démonstration
(i)=⇒ (ii) Faisons l’hypothèse
 que f est orthogonal positif. Par orthogonalité de f , nous savons déjà que
f (e1 ), f (e2 ), . . . , f (en ) est une base orthonormale de E. Montrons qu’elle est directe. Cela provient seule-
 
ment du fait que (e1 , e2 , . . . , en ) est directe et que det(e1 ,e2 ,...,en ) f (e1 ), f (e2 ), . . . , f (en ) = det(f ) = 1 > 0.
 
(ii) =⇒ (i) Faisons l’hypothèse que f (e1 ), f (e2 ), . . . , f (en ) est une base orthonormale directe de E. Comme
 
(e1 , e2 , . . . , en ) est aussi directe, cela signifie que det(f ) = det(e1 ,e2 ,...,en ) f (e1 ), f (e2 ), . . . , f (en ) > 0. Or
ce déterminant vaut ±1 en vertu du théorème précédent, donc det(f ) = 1 comme voulu. 

Définition (Groupe orthogonal et groupe spécial orthogonal)


(i) L’ensemble des automorphismes orthogonaux de E, noté O(E), est un sous-groupe du groupe linéaire GL(E) de E
appelé le groupe orthogonal de E.
(ii) L’ensemble des automorphismes orthogonaux positifs de E, noté SO(E) ou O+ (E), est un sous-groupe de O(E)
appelé le groupe spécial orthogonal de E.

Démonstration
(i) Montrons que O(E) est un sous-groupe de GL(E).
1) O(E) est non vide car évidemment IdE est préserve les produits scalaires.
2) Soient f, g ∈ O(E). Pour montrer que f −1 ◦ g ∈ O(E), il nous suffit de vérifier que cette applica-
tion, linéaire, préserve les normes. Soit x ∈ E. Comme f est un automorphisme de
E, il existe
t ∈ E tel
que g(x) = f (t). Et puisque f est
g sont orthogonaux,
on a donc : kxk = g(x) = f (t) = ktk. Par
conséquent : f −1 ◦ g(x) = f −1 ◦ f (t) = ktk = kxk, d’où le résultat.
(ii) Montrons que SO(E) est un sous-groupe de O(E). Or SO(E) est l’ensemble des automorphismes
n ortho-
o

gonaux de déterminant 1 de E, donc le noyau du morphisme de groupes det O(E) : O(E) −→ − 1, 1 . Ce
noyau est bien sûr un sous-groupe de O(E). 

1.2 Matrices orthogonales

Définition (Matrice orthogonale) Soit M ∈ Mn (R). On dit que M est orthogonale si t M M = M t M = In ; cela revient à
dire que M est inversible d’inverse t M .

   En pratique Pour montrer que M est orthogonale, il suffit en fait de vérifier qu’on a t M M = In ou M t M = In .

0√ √ 1
2 −√ 3 1
1 @√
Exemple La matrice √ 2 3 1 A est orthogonale.
6 √2 0 −2

Théorème (Automorphisme orthogonal et matrice orthogonale) Soient f un endomorphisme de E et B une base


orthonormale de E. Alors les assertions suivantes sont équivalentes :
(i) f est orthogonal. (ii) Mat(f ) est orthogonale.
B

3
c Christophe Bertault - MPSI

$ $ $ Attention !
 L’hypothèse d’orthonormalité de la base B est absolument essentielle. Par exemple, si f est l’application
2
R 2
−→ R
, alors f ∈ O(R2 ) car : ∀(x, y) ∈ R2 , f (x, y) = (x, −y) = (x, y) . Pourtant la matrice de f
(x, y) 7−→
(x, −y)
   
1 2
dans la base (1, 0), (1, 1) de R2 (non orthonormale) est , non orthogonale.
0 −1

Démonstration Posons M = Mat(f ) et notons n la dimension de E.


B

(i) =⇒ (ii) Déjà démontré dans une preuve précédente : plus précisément, on a montré que t M M = In ; il en
découle que M est inversible et qu’on a aussi M t M = In .
(ii) =⇒ (i) Supposons M orthogonale, i.e. que t M M = In . Pour montrer que f ∈ O(E), montrons que f
préserve les normes. Soit x ∈ E de coordonnées X dans B. Alors comme voulu :
q  p q  √ p
f (x) = f (x) f (x) = t (M X)(M X) = t X t M M X = t XX = (x|x) = kxk. 

Théorème (Caractérisation d’une matrice orthogonale au moyen de ses lignes ou de ses colonnes)
Soit M ∈ Mn (R). Les assertions suivantes sont équivalentes :
(i) M est orthogonale.
(ii) La famille des colonnes de M est une base orthonormale de Rn (muni de sa structure euclidienne canonique).
(iii) La famille des lignes de M est une base orthonormale de Rn .

Démonstration Notons (E1 , E2 , . . . , En ) la base canonique de Rn , en colonnes.


(i) ⇐⇒ (ii) Dire que M est orthogonale revient à dire que l’application linéaire canoniquement associée à M
est orthogonale en vertu du théorème précédent. Cela revient donc à dire, si nous notons (E1 , E2 , . . . , En )
la base canonique de Rn en colonnes, que la famille M E1 , M E2 , . . . , M En est orthonormale, i.e. que la
famille des colonnes de M est une base orthonormale de Rn .
(ii) ⇐⇒ (iii) L’égalité « t M M = M t M = In » étant inchangée par transposition, une matrice est orthogonale
si et seulement si sa transposée l’est, ce qui prouve l’équivalence des assertions (ii) et (iii). 

Définition (Matrice orthogonale positive/négative) Soit M ∈ Mn (R) une matrice orthogonale.


Alors det(M ) = 1 ou det(M ) = −1. Si det(M ) = 1, on dit que M est positive ; si det(M ) = −1, on dit que M est négative.

Démonstration det(M )2 = det(M ) det(t M ) = det(M t M ) = det(In ) = 1. 

 
2 1 2 1
$ $ $ Attention ! Toute matrice de déterminant ±1 n’est pas orthogonale. Par exemple, = 1 et pourtant
1 1 1 1
n’est pas orthogonale.

Vous démontrerez seuls les propositions suivantes.

Définition (Groupe orthogonal et groupe spécial orthogonal)


(i) L’ensemble des matrices orthogonales de taille n, noté O(n), est un sous-groupe du groupe linéaire GLn (R) appelé le
groupe orthogonal de degré n.
(ii) L’ensemble des matrices orthogonales positives de taille n, noté SO(n) ou O+ (n), est un sous-groupe de O(n) appelé
le groupe spécial orthogonal de degré n.

Théorème (Automorphisme orthogonal positif et matrice orthogonale positive) Soient f un endomorphisme de E


et B une base orthonormale de E. On note n la dimension de E. Les assertions suivantes sont équivalentes :
(i) f ∈ SO(E). (ii) Mat(f ) ∈ SO(n).
B

4
c Christophe Bertault - MPSI

2 Produit vectoriel
Le lemme et la définition suivants sont énoncés en dimension finie quelconque mais nous les utiliserons en dimension 3.

Lemme (Déterminant d’une base orthonormale directe dans une base orthonormale directe) Soient B et B0
deux bases orthonormales directes de E. Alors : detB (B0 ) = 1.

Démonstration Notons f l’automorphisme de E qui envoie B sur B0 . Comme B et B0 sont deux bases
orthonormales directes de E, nous savons que f ∈ SO(E), et donc que det(f ) = 1. Or detB (B0 ) = det(f ). 

Définition (Produit mixte) On note n la dimension de E. Soient (xk )16k6n une famille de n vecteurs de E et B et B0
deux bases orthonormales directes de E. Alors : detB (x1 , x2 , . . . , xn ) = detB 0 (x1 , x2 , . . . , xn ).
Ce déterminant, indépendant  du choix
 de la base orthonormale directe B qu’on peut faire, est appelé le produit mixte de
x1 , x2 , . . . , xn et noté x1 , x2 , . . . , xn .

   Explication En début d’année, nous n’avions qu’un seul déterminant à notre disposition, alors que le déterminant
d’une famille de vecteurs dépend de choix préalable d’une base. Nous savons maintenant pourquoi : nous avions l’habitude de
ne travailler qu’avec des bases orthonormales en dimension 2 et 3.

lemme
Démonstration detB (x1 , x2 , . . . , xn ) = detB (B0 ) detB 0 (x1 , x2 , . . . , xn ) = detB 0 (x1 , x2 , . . . , xn ). 

Définition (Produit
 vectoriel)
 On suppose E de dimension 3. Soient u, v ∈ E. Il existe un unique vecteur de E noté u ∧ v
tel que : ∀x ∈ E, u, v, x = (u ∧ v|x). Ce vecteur u ∧ v est appelé le produit vectoriel de u par v.

 
Démonstration Appliquer le théorème de Fisher-Riesz à la forme linéaire x 7−→ u, v, x de E. 

   Explication Définition troublante : la définition du produit vectoriel est compliquée et fait intervenir un produit
scalaire ! Pourtant, quand nous avons défini le produit vectoriel en début d’année, nous n’avons pas eu besoin du produit scalaire.
Ce qu’il faut bien comprendre en réalité, c’est qu’en début d’année, la notion de produit vectoriel nécessitait les notions d’angle
et d’orientation. Dans le cas présent, nous avons déjà donné un sens à la notion d’orientation, mais pas à la notion d’angle.
La notion d’angle est remplacée par la notion de produit scalaire. Cette substitution n’est pas tout à fait incroyable si l’on se
souvient qu’intuitivement, un produit scalaire nul équivaut à la présence d’un angle droit.

Tout de même, il est normal que nous retrouvions les résultats sur le produit vectoriel que nous connaissions.

Théorème (Propriétés du produit vectoriel) On suppose E de dimension 3. Soient u, v, w ∈ E.


u∧v
(i) Le vecteur u ∧ v est orthogonal à u et v.
(ii) Les vecteurs u et v sont colinéaires si et seulement si u ∧ v = 0E .
(iii) Le produit vectoriel ∧ est une application bilinéaire alternée de E × E dans E. b

(iv) Si u et v ne sont pas colinéaires, alors (u, v, u ∧ v) est une base directe de E. u
(v) On suppose la famille (u, v) orthonormale. Alors : v
(u, v, w) est une base orthonormale directe de E si et seulement si w = u ∧ v.

Démonstration
 
(i) Puisque le produit mixte est un déterminant, (u ∧ v|u) = u, v, u = 0, et donc u et u ∧ v sont orthogonaux.
De même avec v à la place de u.
 
(ii) Si u et v sont colinéaires, alors en tant que déterminant, u, v, x = 0 = (0E |x) pour tout x ∈ E. L’unicité
du produit vectoriel montre aussitôt que u ∧ v = 0E .
Réciproquement, supposons qu’on ait u ∧ v = 0E et fixons un élément
 x de E r Vect(u, v) — le choix d’un
tel x est possible car dim E = 3 et dim Vect(u, v) 6 2. Puisque u, v, x = (u ∧ v|x) = (0E |x) = 0, et puisque
le produit mixte n’est jamais qu’un déterminant, la famille (u, v, x) est donc liée. Or x n’est pas combinaison
linéaire de u et v, étant donnée la façon dont on l’a choisi. La famille (u, v) est donc nécessairement est liée.

5
c Christophe Bertault - MPSI

(iii) L’assertion (ii) montre que, si le produit vectoriel est bilinéaire, alors il est aussi alterné — nul sur toute
famille dont deux vecteurs sont égaux. Il nous suffit donc de montrer sa bilinéarité. Contentons-nous même
de démontrer sa linéarité par rapport à la seconde variable. Soient u, v, w ∈ E et λ, µ ∈ R. Pour tout x ∈ E :
         

u∧(λv+µw) x = u, λv+µw, x = λ u, v, x +µ u, w, x = λ(u∧v|x)+µ(u∧w|x) = λ(u∧v)+µ(u∧w) x .

L’unicité du produit vectoriel montre aussitôt que u ∧ (λv + µw) = λ(u ∧ v) + µ(u ∧ w).

(iv) Supposons u et v non colinéaires. Montrer que (u, v, u ∧ v) est une base directe de E revient à montrer
que le déterminant
 de cette
 famille dans une base directe de E est strictement positif. Cela revient donc à
montrer que u, v, u ∧ v > 0. Or ceci est vrai car [u, v, u ∧ v] = (u ∧ v|u ∧ v) = ku ∧ vk2 et u ∧ v 6= 0E via (ii).

(v) Supposons (u, v) orthonormale.


• Montrons que (u, v, u ∧ v) est une base orthonormale directe de E. En tout cas, cette famille est une base
orthogonale directe de E via (i) et (iv). Il nous reste seulement à montrer que u ∧ v est unitaire.
 
u∧v u∧v
Puisque (u, v) est libre, u∧v 6= 0E via (ii). Alors le vecteur est unitaire et la famille u, v,
ku ∧ vk ku ∧ vk
est orthonormale directe. Par conséquent, puisque le produit mixte n’est jamais qu’un déterminant dans
une base orthonormale directe et puisque le déterminant d’une base orthonormale
! directe dans une base
 
u∧v u∧v
orthonormale directe vaut 1 : u, v, = 1 = u ∧ v = ku ∧ vk. Cela montre bien
ku ∧ vk ku ∧ vk
que u ∧ v est unitaire.
• Réciproquement, supposons que (u, v, w) est une base orthonormale directe de E et montrons que w = u∧v.
Or Vect(u, v) est de dimension 2, donc Vect(u, v)⊥ est une droite vectorielle, qui contient à la fois w et
u ∧ v. Il existe donc λ ∈ R tel que u ∧ v = λw.  
Mais (u, v, w) est une base orthonormale directe de E, donc u, v, w = 1 = (u ∧ v|w) = (λw|w) = λ. Et
voilà, λ = 1, donc w = u ∧ v. 

3 Automorphismes orthogonaux
et matrices orthogonales en dimension 2 et 3

3.1 Automorphismes orthogonaux


et matrices orthogonales en dimension 2

Théorème (Matrices orthogonales en dimension 2)


 
cos θ − sin θ
• Toute matrice orthogonale positive de taille 2 est de la forme où θ ∈ R.
sin θ cos θ
 
cos θ − sin θ
De plus l’application θ 7−→ est un morphisme de groupes surjectif de R sur SO(2), de noyau 2πZ.
sin θ cos θ
En particulier, SO(2) est un groupe abélien.
 
cos θ sin θ
• Toute matrice orthogonale négative de taille 2 est de la forme où θ ∈ R.
sin θ − cos θ

Démonstration
 
a c
• Soit M = ∈ M2 (R).
b d
8 2 2
8
< a +b =1 < a = cos θ et b = sin θ
t
M ∈ O(2) ⇐⇒ M M = I2 ⇐⇒ c2 + d2 = 1 ⇐⇒ ∃ θ, ϕ ∈ R/ c = cos ϕ et d = sin ϕ
: :
ac + bd = 0 cos θ cos ϕ + sin θ sin ϕ = 0
8 8
< a = cos θ et b = sin θ n o >
< a = cos θ et b = sin θ
⇐⇒ ∃ θ, ϕ ∈ R/ c = cos ϕ et d = sin ϕ ⇐⇒ ∃ θ, ϕ ∈ R, ε ∈ − 1, 1 / c = cos ϕ et d = sin ϕ
: >
: ϕ≡θ+ε π
cos(θ − ϕ) = 0 mod 2π
2
(
n o θ et b = sin
a = cos  θ
⇐⇒ ∃ θ ∈ R, ε ∈ − 1, 1 / π  π
c = cos θ + ε et d = sin θ + ε
2 2

6
c Christophe Bertault - MPSI

n o 
a = cos θ et b = sin θ
⇐⇒ ∃ θ ∈ R, ε ∈ − 1, 1 /
c = −ε sin θ et d = ε cos θ
n o  
cos θ −ε sin θ
⇐⇒ ∃ θ ∈ R, ε ∈ − 1, 1 / M= .
sin θ ε cos θ
C’est bien la forme annoncée des matrices orthogonales de taille 2. Un calcul aisé de déterminant montre
qu’on récupère pour ε = 1 les matrices orthogonales positives, et pour ε = −1 les matrices orthogonales
négatives.
 
cos θ − sin θ
• Montrons ensuite que l’application R : θ 7−→ est un morphisme de groupes surjectif de R
sin θ cos θ
sur SO(2), de noyau 2πZ.
1) On vérifie facilement que : ∀θ, ϕ ∈ R, R(θ)R(ϕ) = R(θ + ϕ).
 
cos θ − sin θ
2) La sujectivité de R résulte du premier point : toute matrice de SO(2) est de la forme
sin θ cos θ
pour un certain θ ∈ R.
3) Pour le noyau de R, soit θ ∈ R. Ce θ appartient au noyau de R si et seulement si R(θ) = I2 , i.e. si
et seulement si cos θ = 1 et sin θ = 0, i.e. si et seulement si θ ≡ 0 mod 2π. Comme voulu : Ker R = 2πZ.
• Montrons enfin que SO(2) est abélien. Soient A, B ∈ SO(2). Il existe alors θ, ϕ ∈ R tels que A = R(θ) et
B = R(ϕ). Alors AB = R(θ)R(ϕ) = R(θ + ϕ) = R(ϕ + θ) = R(ϕ)R(θ) = BA. 

Théorème (Classification des automorphismes orthogonaux en dimension 2) On suppose E de dimension 2. Soit f


un automorphisme orthogonal de E.
(i) Si f n’est pas une rotation, alors f est une réflexion, i.e. ici une symétrie orthogonale par rapport à une droite.

(ii) Si au contraire f est une rotation, alors la matrice Mat(f ) de f ne dépend pas du choix de la base B de E qu’on
B  
cos θ − sin θ
peut faire, à condition que B soit orthonormale directe ; cette matrice est de la forme pour un certain θ ∈ R
sin θ cos θ
unique à 2π près appelé une mesure de l’angle de f .
  
On a par ailleurs, pour tout u ∈ E unitaire : cos θ = u f (u) et sin θ = u, f (u) .

Enfin, si f 6= IdE , l’ensemble Ker (f − IdE ) des points fixes de f est réduit à 0E .

   Explication L’assertion (ii) est bien connue. Si (~ı, ~) est une base orthonormale directe du plan, et si nous notons
uθ , ~vθ ) l’image de cette base par la rotation 
(~ d’angle θ, alors~
uθ = cos θ ~ı + sin θ ~ et ~vθ = − sin θ ~ı + cos θ ~. La matrice de la
cos θ − sin θ
rotation d’angle θ dans la base (~ı, ~) est donc et en effet, elle ne dépend pas vraiment du choix de ~ı et ~.
sin θ cos θ

$ $ $ Attention ! Dans l’assertion (ii), il est essentiel que les bases considérées soient orthonormales directes ; l’orientation
détermine le signe de la mesure θ de l’angle de la rotation. En effet, si on change l’orientation de E, une mesure de l’angle de la
rotation avec la nouvelle orientation sera −θ et non plus θ.

Démonstration Fixons (e1 , e2 ) une base orthonormale directe de E.


(i) Supposons d’abord que fn’est pas une rotation.
 Alors la matrice de f dans la base (e1 , e2 ) est orthogonale
cos θ sin θ θ θ
négative, i.e. de la forme pour un certain θ ∈ R. Posons alors u1 = cos e1 + sin e2 et
sin θ − cos θ 2 2
θ θ
u2 = − sin e1 + cos e2 . Il est clair que (u1 , u2 ) est une base orthonormale de E. De plus un calcul facile
2 2  
1 0
montre que f (u1 ) = u1 et que f (u2 ) = −u2 , de sorte que la matrice de f dans (u1 , u2 ) est . Ainsi
0 −1
f est la réflexion par rapport à Vect(u1 ).
u2 e2
f (e1 )
θ θ
On voit sur cette figure que e1 et f (e1 ) (resp. e2 et f (e2 )) sont orthogonalement symé-
b
u1 2
triques l’un de l’autre par rapport à la droite engendrée par u1 . C’est pourquoi nous
e1 avons l’idée de montrer que f est la réflexion par rapport à la droite engendrée par u1 .

f (e2 )

7
c Christophe Bertault - MPSI

(ii) Supposons maintenant  que f est une rotation.


 Alors la matrice de f dans la base (e1 , e2 ) est orthogonale
cos θ − sin θ
positive, i.e. de la forme ∈ SO(2) pour un certain θ ∈ R.
sin θ cos θ

• Soient (u1 , u2 ) une base orthonormale directe quelconque de E et P la matrice de passage de


2 ) à (u1 , u2 ). En
(e1 , e  vertu des formules de changement de base, la matrice de f dans (u1 , u2 ) est
−1 cos θ − sin θ
P P.
sin θ cos θ
Or par construction, la famille des colonnes de  P est une baseorthonormale directe de R2 , de sorte que
cos θ − sin θ
P ∈ SO(2). Mais SO(2) est abélien, donc P et commutent. Ceci montre que la matrice
sin θ cos θ
   
cos θ − sin θ cos θ − sin θ
de f dans (u1 , u2 ) est P −1 P = . Comme voulu, la matrice de f ne
sin θ cos θ sin θ cos θ
dépend donc pas de la base orthonormale directe dans laquelle on la calcule.

• Soient u ∈ E unitaire et v l’unique


 vecteur pour
 lequel (u, v) est une base orthonormale directe
cos θ − sin θ
de E. La matrice de f dans (u, v) est , donc f (u) = cos θ u + sin θ v. Du coup :
sin θ cos θ

     1 cos θ
u f (u) = u cos θ u+sin θ v = cos θ kuk2 = cos θ et u, f (u) = det (u,v) u, f (u) = = sin θ
0 sin θ
comme voulu.

• Pour finir, supposons f 6= IdE et montrons que Ker (f − IdE ) = 0E , i.e. que f − IdE est
 
cos θ − 1 − sin θ
injectif. En tout cas, la matrice de f − IdE dans (e1 , e2 ) est , de déterminant
sin θ cos θ − 1
θ
(cos θ − 1)2 + sin2 θ = 2(1 − cos θ) = 4 sin2 . Or f 6= IdE , donc θ 6≡ 0 mod 2π, donc det(f − IdE ) 6= 0.
2
Cela prouve notre résultat. 

3.2 Automorphismes orthogonaux


et matrices orthogonales en dimension 3

Définition (Rotations en dimension 3) On suppose E de dimension 3. Soit r une rotation de E, r 6= IdE .


• L’ensemble Ker (r − IdE ) des points fixes de r est une droite vectorielle de E appelée l’axe de r.

• Soit (u, v) une base orthonormale
0 du plan 1 (r − IdE ) . Alors la matrice de r dans la base orthonormale directe
Ker
cos θ − sin θ 0
(u, v, u ∧ v) de E est de la forme @ sin θ cos θ 0A pour un certain θ ∈ R défini modulo 2π.
0 0 1
• On dit finalement que r est la rotation d’axe orienté par u ∧ v et d’angle de mesure θ. Par convention, on considère
que la rotation IdE admet toute droite vectorielle pour axe et 0 (modulo 2π) pour mesure d’angle.

r(u ∧ v) = u ∧ v

   Explication r(v)
0 1 b
cos θ − sin θ 0
v
• La figure ci-contre illustre le fait que la matrice de r dans (u, v, u∧v) soit @ sin θ cos θ 0A. θ
u
0 0 1
r(u)

• Pourquoi dire « rotation d’axe orienté par u ∧ v et d’angle de mesure θ » et non pas tout simplement « rotation d’axe
dirigé par u ∧ v et d’angle de mesure θ » ?
Pour le comprendre, choisissons d’orienter l’axe de r au moyen du vecteur opposé
r(u) v
v ∧ u. Notre base orthonormale directe de E de référence sera alors (v, u, v ∧ u).
La figure ci-contre est la même que la précédente, mais on regarde les choses de
dessous, et non plus de dessus. Avec la nouvelle orientation choisie, la mesure de −θ r(v)
u b
l’angle de r est exactement l’opposé de la précédente — si vous ne le voyez pas
bien, regardez la figure en mettant cette page la tête en bas.
Conclusion : la mesure de l’angle d’une rotation en dimension 3 dépend de la façon
dont on choisit d’orienter son axe.
r(v ∧ u) = v ∧ u

8
c Christophe Bertault - MPSI

Démonstration
• Soient B une base de E et R la matrice de r dans B. Posons, pour tout λ ∈ R :

r11 − λ r12 r13

χ(λ) = det(R − λI3 ) = r21 r22 − λ r23 .
r31 r32 r33 − λ
En développant ce déterminant, on s’aperçoit facilement que χ est une fonction polynomiale de degré 3. Le
théorème des valeurs intermédiaires et le fait que χ possède des limites infinies de signes opposés en ±∞
montrent alors que χ possède une racine réelle λ0 : χ(λ0 ) = det(R − λ0 I3 ) = det(r − λ0 IdE ) = 0. Ceci
signifie que r − λ0 IdE n’est pas injectif.
Il existe
donc un vecteur x0 ∈ E non nul tel que r(x0 ) = λ0 x0 .
Mais r préserve les normes, donc kx0 k = r(x0 ) = kλ0 x0 k = |λ0 | × kx0 k, et enfin |λ0 | = 1.
Conclusion : il existe un vecteur x0 ∈ E non nul tel que r(x0 ) = ±x0 .

• Notons F = Ker (r − IdE ) l’ensemble des points fixes de r. Alors F est stable par r — en effet, si x ∈ F ,
alors r(x) = x ∈ F . Or r est orthogonal, donc F ⊥ est lui aussi stable par r comme nous l’avons observé
au début de ce chapitre. Pour montrer que F est de dimension 1 comme le veut le théorème, distinguons
plusieurs cas.

1) Faisons l’hypothèse que dim F = 3. Alors Ker (r − IdE ) = F = E, donc r = IdE , contrairement
aux hypothèses du théorème.

2) Faisons l’hypothèse que dim F = 2. Alors dim F ⊥ = dim E − dim F = 3 − 2 = 1. Donnons-nous


(e1 , e2 ) une base de F et (e3 ) une base de F ⊥ . Comme E = F ⊕ F ⊥ , la famile (e1 , e2 , e3 ) est alors une
base de E. Nous savons que r(e1 ) = e1 et r(e2 ) = e2 par définition de r, et que r(e3 )0= αe3 pour 1 un
1 0 0
certain α ∈ R, puisque F ⊥ est stable par r. La matrice de r dans (e1 , e2 , e3 ) est donc @0 1 0 A. Or
0 0 α
r ∈ SO(E), donc det(r) = 1, donc α = 1. Ceci implique que r = IdE — contradiction.

3) Enfin, faisons l’hypothèse que dim F = 0. Cela veut dire que r n’a pas de point fixe (autre que
0E ). Reprenant les notations du premier point, nous pouvons donc affirmer que r(x0 ) = −x0 .
Posons alors X0 = Vect(x0 ). Comme X0 est stable par r et comme r est un automorphisme orthogonal de
E, X0⊥ est lui aussi stable par r, de dimension 2. Nous pouvons en déduire que r X ⊥ est un endomorphisme
0
de X0⊥ , et même un automorphisme orthogonal de X0⊥ — en effet, si r préserve les normes, a fortiori r ⊥
X0
les préserve aussi.
Soit (x1 , x2 ) une base orthonormale de X0⊥ . Orientons X0⊥ à l’aide de cette base — cela revient à décréter,
arbitrairement, que cette base est directe. Via l’étude précédente des automorphismes orthogonaux en
dimension 2, r ⊥ est alors soit une rotation, soit une réflexion. Mais comme r n’a pas de point fixe autre
X0
que 0E , r X ⊥ ne peut pas en avoir non plus. Donc r X ⊥ est une rotation, disons d’angle de mesure ϕ.
0 0
Enfin, puisque E = X0 ⊕ X0⊥ , nous pouvons
0 affirmer que (x
10 , x1 , x2 ) est une base orthonormale de E,
−1 0 0
et la matrice de r dans cette base est @ 0 cos ϕ − sin ϕA. Cette matrice a pour déterminant −1 —
0 sin ϕ cos ϕ
contradiction.

Conclusion : dim F = 1 comme annoncé.

• Du coup, dim F ⊥ = 2. Fixons une base orthonormale (u, v) de F ⊥ et orientons F ⊥ à l’aide de celle-ci.
Imitant le raisonnement effectué ci-dessus en 3), on peut alors montrer que r ⊥ est soit une rotation, soit
F

une réflexion. Mais tous les points fixes de r sont dans F par définition de F , et de plus F ∩ F ⊥ = 0E ,
donc r ⊥ n’a pas de point fixe autre que 0E , donc est une rotation, disons d’angle de mesure θ.
F
⊥
Comme u ∧ v est orthogonal à u et v, u ∧ v ∈ F ⊥ = F . La matrice de r dans la base orthonormale directe
0 1
cos θ − sin θ 0
(u, v, u ∧ v) de E est finalement @ sin θ cos θ 0A comme voulu. 
0 0 1

Théorème (Calcul de l’image d’un vecteur par une rotation en dimension 3) On suppose E de dimension 3. Soient
θ ∈ R, a ∈ E unitaire et r la rotation d’axe orienté par a et d’angle de mesure θ.
(i) Alors pour tout x ∈ E : r(x) = (cos θ) x + (1 − cos θ)(a|x) a + (sin θ) a ∧ x.
En particulier, si x est orthogonal à a : r(x) = (cos θ) x + (sin θ) a ∧ x.
  
(ii) On a par ailleurs, pour tout u ∈ E unitaire orthogonal à a : cos θ = u r(u) et sin θ = u, r(u), a .

9
c Christophe Bertault - MPSI

a
x⊥a
   Explication θ sin
La formule de l’assertion (i) est très facile à visualiser dans le cas où x est orthogonal à a. cos b θ
x θ a∧x
Démonstration r(x)
(i) Notons ρ l’endomorphisme de E défini par : ∀x ∈ E, ρ(x) = (cos θ) x + (1 − cos θ)(a|x) a + (sin θ) a ∧ x.
Fixons ensuite (u, v) une base orthonormale quelconque de Ker (r − IdE ) telle que (u, v, a) soit une
base
0 orthonormale 1directe de E. Le théorème précédent affirme que la matrice de r dans (u, v, a) est
cos θ − sin θ 0
@ sin θ cos θ 0A. Si nous arrivons à montrer que la matrice de ρ dans (u, v, a) est aussi cette matrice,
0 0 1
nous aurons bien montré que r = ρ, comme voulu. Il suffit pour cela de calculer ρ(u), ρ(v) et ρ(a).
ρ(u) = (cos θ) u + (1 − cos θ)(a|u) a + (sin θ) a ∧ u = (cos θ) u + (sin θ) v,
ρ(v) = (cos θ) v + (1 − cos θ)(a|v) a + (sin θ) a ∧ v = −(sin θ) u + (cos θ) v,
ρ(a) = (cos θ) a + (1 − cos θ)(a|a) a + (sin θ) a ∧ a = (cos θ) a + (1 − cos θ) a = a.

(ii) Soit u ∈ E unitaire orthogonal



à a. Nous venons de voir que r(u) = (cos θ) u + (sin θ) a ∧ u.
  

u r(u) = u (cos θ) u + (sin θ) a ∧ u
u⊥(a∧u)
Alors : = cos θkuk2 = cos θ. Egalement :
      

u, r(u), a = a, u, r(u) = a ∧ u r(u) = a ∧ u (cos θ) u + (sin θ) a ∧ u
u⊥(a∧u)
= sin θka ∧ uk2 = sin θ. 

   En pratique Soit r une rotation de E. On suppose qu’on ne connaît ni l’axe de r ni la mesure de son angle par
rapport à une orientation de son axe. Peut-on déterminer ces deux données ? Oui, en suivant les indications suivantes.
1) L’axe de r étant l’ensemble de ses points fixes, le déterminer revient à résoudre l’équation r(x) = x d’inconnue
x ∈ E. Facile. En particulier, on peut alors fixer un vecteur a ∈ Ker (r − IdE ) unitaire et orienter l’axe de r avec.
2) Ensuite, soit u ∈ E unitaire orthogonal à a. Un tel vecteur se détermine aisément. Si θ désigne une mesure de
l’angle de r, l’axe de r étant orienté par a, alors il est facile de déterminer cos θ et sin θ via le théorème précédent, à l’aide
de u. La valeur de θ en découle (modulo 2π), éventuellement sous forme d’arcsinus ou d’arccosinus.
0 1
−1 2 2
1
Exemple L’endomorphisme r de R de matrice R = @ 2
3
−1 2 A dans la base canonique est la rotation d’axe orienté
3
2 2 −1
1
par √ (1, 1, 1) et d’angle de mesure π.
3
En effet
• On vérifie aisément que t RR = I3 , ce qui montre bien que r est un automorphisme orthogonal de R3 .

−1 2 −1 2 −1 2
1 
2 2 2
1 2 1 1
det(R) = −1 2 = 0 3 6 L2 ← L2 + 2L1 = 0 1 2 = −1×(−3) = 1,
27 2 27 3 3
2 −1 0 6 3 L3 ← L3 + 2L1 0 2 1
et donc r est une rotation de R3 comme voulu.

• Déterminons l’axe de r, à savoir l’ensemble Ker (r − IdE ) des points fixes de r. Pour tout (x, y, z) ∈ R3 :
8 8
< −x + 2y + 2z = 3x < −2x + y + z = 0
(x, y, z) ∈ Ker (r − IdE ) ⇐⇒ 2x − y + 2z = 3y ⇐⇒ x − 2y + z = 0
: :
2x + 2y − z = 3z x + y − 2z = 0

−2x + y + z = 0
⇐⇒ L3 ← L1 + L2 + L3
x − 2y + z = 0
(
−2x + y + z = 0
⇐⇒ 1 1 ⇐⇒ x = y = z.
x − y = 0 L2 ← L2 − L1
3 3
  1
Ainsi Ker (r − IdE ) = Vect (1, 1, 1) . Posons alors a = √ (1, 1, 1), vecteur unitaire, et orientons l’axe de
3
r à l’aide de a. De la sorte, r est la rotation d’axe orienté par a et d’angle de mesure un certain θ ∈ R.
1 
• Le vecteur u = √ (1, −1, 0) est orthogonal à a et unitaire. Pour déterminer cos θ et sin θ, calculons u r(u)
2
  1 
et u, r(u), a . Pour commencer, r(u) = √ (−1, 1, 0) et cos θ = u r(u) = −1. Aussitôt θ ≡ π mod 2π.
2
Dans ce cas particulier, on n’a même
 pas besoin de calculer sin θ pour trouver la valeur de θ modulo 2π. On
laisse donc de côté le calcul de u, r(u), a .

10
c Christophe Bertault - MPSI

4 Isométries
Achevons ce chapitre avec quelques notions de géométrie affine. Les éléments de E seront notés au moyen de minuscules
quand ils seront considérés comme des vecteurs, et au moyen de majuscules quand ils seront considérés comme des points.
Pour tout vecteur u de E, la translation de vecteur u sera notée tu .

4.1 Applications affines

Définition (Application affine) Soit f : E −→ E une application. On dit que f est affine s’il existe un endomorphisme f~
−−−−−−−→ −−→
de E tel que : ∀M, N ∈ E, f (M )f (N ) = f~ M N .
Un tel endomorphisme f~ est alors unique, appelé la partie linéaire de f .

   Explication Depuis longtemps vous connaissez les fonctions de la forme x 7−→ ax (a ∈ R), et vous savez qu’elles
sont linéaires ; aujourd’hui vous savez ce qu’est, en général, une application linéaire. De même, vous connaissez depuis longtemps
les fonction affines, i.e. les fonctions de la forme x 7−→ ax + b (a, b ∈ R), somme d’une fonction constante et d’une application
linéaire ; la définition précédente n’est qu’une généralisation de celles-ci.
−−−−−−−→ −−→
En effet, si f est affine et si O est un point fixé de E, alors f (O)f (M ) = f~ OM pour tout point M ∈ E ; cette égalité peut
−−→ 
s’écrire aussi f (M ) = f (O) + f~ OM . L’application f y apparaît comme la somme de la fonction constante égale à f (O) et de
sa partie linéaire f~.

Démonstration Fixons O un point de E. Alors f~ est unique pour la bonne et simple raison qu’on en a une
−−−−−−−−−−→
expression explicite en fonction de f : ∀u ∈ E, f~(u) = f (O)f (O + u). 

Exemple
(i) Tout endomorphisme de E est affine, de partie linéaire lui-même.
(ii) Toute translation de E est affine, de partie linéaire l’identité.
En effet
−−−−−−−→ −−→
(i) Soit f un endomorphisme de E. Alors : ∀M, N ∈ E, f (M )f (N ) = f (N )−f (M ) = f (N −M ) = f M N .
Ceci montre bien que f est affine et que f~ = f .
(ii) Soit u ∈ E. Alors :
−−−−−−−−→ −−→ −−→
∀M, N ∈ E, tu (M )tu (N ) = tu (N ) − tu (M ) = (N + u) − (M + u) = N − M = M N = IdE M N .
Ceci montre bien que tu est affine et que ~tu = IdE .

Théorème (Caractérisation des applications affines par leur partie linéaire et l’image d’un point) Soit O un
point de E. Deux applications affines de E dans E sont égales si et seulement si elles ont la même partie linéaire et envoient O
sur le même point.

Démonstration Soient f : E −→ E et g : E −→ E deux applications affines. Montrons que, si on a f~ = ~g et


−−→ −−→
f (O) = g(O), alors f = g. Pour tout point M de E : f (M ) = f (O) + f~ OM = g(O) + ~g OM = g(M ). 

Théorème (Composition d’applications affines) Soient f : E −→ E et g : E −→ E deux applications affines. Alors g ◦ f


−−→
est affine et g ◦ f = ~g ◦ f~.

Démonstration −−−−−−−→  −−→


−−−−−−−−−−−−→ −−−−−−− −−−−−→  −−→
∀M, N ∈ E, g ◦ f (M )g ◦ f (N ) = g f (M ) g f (N ) = ~g f (M )f (N ) = ~g f~ M N = ~g ◦ f~ M N . 

Théorème
  (Image d’un barycentre par une application affine) Soient f : E −→ E une application affine,
(Ak , λk ) une famille de points pondérés de E de poids total non nul et G le barycentre de cette famille. Alors f (G) est
16k6n   
le barycentre des points pondérés f (A1 ), λ1 , f (A2 ), λ2 , . . . , f (An ), λn .

11
c Christophe Bertault - MPSI

X
n
−−→
Démonstration Par définition de G, on a λk GAk = 0E . Par conséquent :
k=1
!
X
n
−−−−−−−→ X
n
−−→ X
n
−−→
λk f (G)f (Ak ) = λk f~ GAk = f~ λk GAk = f~(0E ) = 0E .
k=1 k=1 k=1

Par unicité du barycentre, ceci est justement le résultat voulu. 

4.2 Isométries

Définition (Isométrie) On appelle isométrie de E toute application f : E −→ E telle que : N b f (N )


b
−−−−−−−→
−−→
∀M, N ∈ E, f (M )f (N ) = M N (version points) M b
b f (M )

i.e. telle que : ∀x, y ∈ E, f (x) − f (y) = kx − yk (version vecteurs).

Exemple
(i) Toute translation de E est une isométrie. b u
M b tu (M )
(ii) Toute isométrie vectorielle de E est une isométrie.
En effet b
N b tu (N )
(i) Soit u ∈ E. Pour tous M, N ∈ E : u
−−−−−−−−→
−−→
tu (M )tu (N ) = tu (N ) − tu (M ) = (N + u) − (M + u) = N − M = M N .

(ii) Soient f une isométrie vectorielle de E et x, y ∈ E. Alors : f (x) − f (y) = f (x − y) = kx − yk.

Théorème (Composition d’isométries) Soient f et g deux isométries de E. Alors g ◦ f est aussi une isométrie de E.

−−−−−−−−−−−−→ −−−−−−− −−−−−→  −−−−−−−→ −−→



Démonstration ∀M, N ∈ E, g ◦ f (M )g ◦ f (N ) = g f (M ) g f (N ) = f (M )f (N ) = M N . 

Théorème (Toute isométrie est affine) Les isométries de E sont exactement toutes les applications affines de E dans E
dont la partie linéaire est une isométrie vectorielle de E.

Démonstration
• Soit f : E −→ E une
−application
affine
dont la
partie
linéaire
est une isométrie vectorielle de E. Alors pour
−−−−−−→ −−→ −−→
tous M, N ∈ E : f (M )f (N ) = f~ M N = M N . Et voilà.
• Réciproquement, soit f une isométrie de E. Notons g l’application f −f (0E ). Alors g est encore une isométrie
et pour tous x, y ∈ E :
 1 h i h
)=0E 1 i
g(x) g(y) = g(x) 2 + g(y) 2 − g(x) − g(y) 2 g(0E= g(x) − g(0E ) 2 + g(y) − g(0E ) 2 − g(x) − g(y) 2
2 2
1h 2 2 2
i 1h i
= kx − 0E k + ky − 0E k − kx − yk = kxk + kyk2 − kx − yk2 = (x|y).
2
2 2
Ainsi g préserve les produits scalaires, donc est un automorphisme orthogonal de E. L’écriture f = f (0E ) + g
montre comme voulu que f est une application affine de partie linéaire g isométrique. 

Définition (Déplacement/antidéplacement) Soit f une isométrie de E. On dit que f est un déplacement de E si f~ est
une isométrie vectorielle positive de E, i.e. une rotation vectorielle de E ; et que f est un antidéplacement de E si f~ est une
isométrie vectorielle négative de E.

   Explication Les déplacements sont exactement les isométries qui préservent l’orientation.

Exemple Toute translation de E est un déplacement.


En effet La partie linéaire d’une translation de E est IdE , isométrie vectorielle positive comme chacun le sait.

12
c Christophe Bertault - MPSI

Définition (Rotation affine) On appelle rotation (affine) de E tout déplacement de E possédant un point fixe.

$ $ $ Attention ! Toute rotation affine est un déplacement par définition, mais réciproquement, tout déplacement n’est
pas une rotation. En effet, un déplacement peut très bien n’avoir aucun point fixe — c’est le cas des translations par exemple.

4.3 Déplacements en dimension 2

Théorème (Rotations affines en dimension 2) On suppose E de dimension 2. Soit r une rotation affine de E, r 6= IdE .
Alors r possède un unique point fixe O appelé son centre. Si ~r est la rotation vectorielle de E d’angle de mesure θ, on dit que r
est la rotation de centre O et d’angle de mesure θ.

Démonstration Par définition d’une rotation affine, r possède au moins un point fixe O. Soit alors O0 un
−−→ −−−−−−−→ −−→
autre point fixe de r, éventuellement O. Alors ~r OO0 = r(O)r(O0 ) = OO0 . Or ~r est une rotation vectorielle de E,
 −−→
différente de IdE , et E est de dimension 2, donc Ker (~r − IdE ) = 0E . Par conséquent OO0 = 0E , i.e. O0 = O.
Ceci montre bien l’unicité de O comme point fixe de r. 

Théorème (Déplacements en dimension 2) On suppose E de dimension 2. Tout déplacement de E est soit une translation,
soit une rotation affine.

Démonstration Soit f un déplacement de E. Alors f~ est une rotation vectorielle, disons d’angle de mesure θ.
−−−−−−−→ −−→
• Supposons d’abord que θ ≡ 0 mod 2π. Alors en fait f~ = IdE . Donc f (M )f (N ) = M N pour tous points
−−−−−→ −−−−→ −−−−−→
M, N de E, ce qui s’écrit aussi M f (M ) = N f (N ). En d’autres termes, la fonction M 7−→ M f (M ) est
constante de valeur un certain vecteur u, et donc f est la translation de vecteur u.

• Supposons ensuite que θ 6≡ 0 mod 2π. Alors f~ 6= IdE , et donc Ker (f~ − IdE ) = 0E , ce qui signifie aussi
que f~ − IdE est bijectif.
Montrons alors que f possède un point fixe. Cela prouvera bien que f est une rotation affine. Fixons un
point O quelconque de E. Pour tout point Ω de E :
−−−−→ −→ −−−−−−→ −→
f (Ω) = Ω ⇐⇒ f (O)Ω = f~ OΩ car f (O)f (Ω) = f~ OΩ
−−−−→ −−−−→ −−−−→ −−−−→ −−−−→
⇐⇒ f (O)Ω = f~ Of (O) + f~ f (O)Ω ⇐⇒ (f~ − IdE ) f (O)Ω = f~ f (O)O
−−−−→  −−−−→
⇐⇒ f (O)Ω = (f~ − IdE )−1 f~ f (O)O car f~ − IdE est bijectif
 −−−−→
⇐⇒ Ω = f (O) + (f~ − IdE )−1 f~ f (O)O .

Nous avons ainsi démontré l’existence — et même l’unicité — d’un point fixe de f . 

4.4 Déplacements en dimension 3

Théorème (Rotations affines en dimension 3) On suppose E de dimension 3. Soient r 6= IdE une rotation affine de E
et O un point fixe de r.
(i) Alors ~r 6= IdE .
(ii) Si ~r est la rotation vectorielle de E d’axe orienté par a et d’angle de mesure θ, l’ensemble des points fixes de r est
la droite affine O + Vect(a). On dit alors que r est la rotation d’axe O + Vect(a) orienté par a d’angle de mesure θ.

Démonstration
−−→ −−→
(i) Peut-on avoir ~r = IdE ? Si c’est le cas, alors : r(M ) = r(O) + ~r OM = O + OM = M pour tout point
M de E, de sorte que r = IdE — contradiction.

13
c Christophe Bertault - MPSI

(ii) Puisque ~r 6= IdE et puisque E est de dimension 3, Ker (~r − IdE ) = Vect(a). Alors pour tout point Ω de
−→ −−−−−−→ −−−−→
E, sachant que ~r OΩ = r(O)r(Ω) = Or(Ω) :
−→ −→ −→
r(Ω) = Ω ⇐⇒ ~r OΩ = OΩ ⇐⇒ OΩ ∈ Ker (~r − IdE ) ⇐⇒ Ω ∈ O + Vect(a).
Cela montre bien que l’ensemble des points fixes de r est O + Vect(a). 

Définition (Vissage) On suppose E de dimension 3.


u rD,a,θ ◦ tu (M ) = tu ◦ rD,a,θ (M )
b
Soient D une droite affine de E, a un vecteur directeur unitaire de D, b
u un vecteur directeur quelconque de D et θ ∈ R. On appelle vissage tu (M )
de vecteur u, d’axe D orienté par a et d’angle de mesure θ la composée
commutative rD,a,θ ◦ tu = tu ◦ rD,a,θ de la rotation rD,a,θ d’axe D orienté b
par a et d’angle de mesure θ et de la translation tu de vecteur u. θ
b
b
M rD,a,θ (M )
D

   Explication
• Le devise des vissages est : « On tourne et on avance », ce qui bien entendu explique l’origine du nom « vissage ». Le fait
que r et t commutent rend commutative cette devise ; on peut aussi bien écrire : « On avance et on tourne ».
• Toute translation est un vissage (pour θ = 0) et toute rotation affine également (pour u = 0E ).

Démonstration Pourquoi rD,a,θ et tu commutent-ils ? Par hypothèse, ~rD,a,θ (a) = a, et comme par ailleurs u
et a sont colinéaires, on a aussi ~rD,a,θ (u) = u. On a alors bien rD,a,θ ◦ tu = tu ◦ rD,a,θ car pour tout point M :
rD,a,θ ◦ tu (M ) = rD,a,θ (M + u) = rD,a,θ (M ) + ~rD,a,θ (u) = rD,a,θ (M ) + u = tu ◦ rD,a,θ (M ). 

Théorème (Déplacements en dimension 3) On suppose E de dimension 3. Tout déplacement de E est un vissage.

Démonstration Soit f un déplacement de E. Fixons O un point quelconque de E et notons F = Ker (f~ − IdE )
−−→
l’ensemble des points fixes de (f~ − IdE ). L’application r définie par : ∀M ∈ E, r(M ) = O + f~ OM est une
application affine de partie linéaire f~ et fixe O, donc est une rotation affine d’axe O + F .
−−−−→ −−−−→
Comme E = F ⊕ F ⊥ , on peut décomposer le vecteur Of (O) sous la forme Of (O) = u + v avec u ∈ F et v ∈ F ⊥ .
Or pour tout point M de E :
−−→ −−→ −−−−→  −→
f (M ) = f (O) + f~ OM = O + f~ OM + Of (O) = t− −−−→ O + f ~ −
OM = t− −−−→ ◦ r(M ) = tu ◦ tv ◦ r(M ).
Of (O) Of (O)

Nous allons montrer que tv ◦ r est une rotation affine, puis que f = tu ◦ (tv ◦ r) est un vissage, comme voulu.

• Commençons par chercher un antécédent w de v par (f~ − IdE ). La question a l’air sans intérêt pour le
moment, mais nous aurons besoin d’un tel w plus loin.
Clairement, f~ stabilise l’ensemble F de ses points fixes. Mais f~ est un automorphisme orthogonal, donc f~
stabilise aussi F ⊥ . L’identité fixant tous les vecteurs par définition, nous pouvons enfin affirmer que (f~ −IdE )
stabilise F ⊥ . Nous pouvons donc parler que l’endomorphisme (f~ − IdE ) ⊥ de F ⊥ .
F

Quel est son noyau ? Facile : Ker (f~ − IdE ) = F ∩ F ⊥ = 0E . Ainsi (f~ − IdE ) est injective,
F⊥ F⊥

donc bijective puisque nous travaillons en dimension finie. Enfin, v ∈ F ⊥ , donc il existe un unique w ∈ F ⊥
tel que v = (f~ − IdE )(w).

• Montrons que tv ◦ r est une rotation affine d’axe parallèle à l’axe de r. En tout cas, tv ◦ r est une application
affine de partie linéaire IdE ◦ f~ = f~, donc tv ◦ r est un déplacement. Pour tout point M de E :
−−−→ −−→ −−→ −−→
tv ◦ r(M ) = tv ◦ r(O) + tv ◦ r OM = tv (O) + f~ OM = O + v + f~ OM , et donc :
−−→  −−→ −−→
tv ◦ r(M ) = M ⇐⇒ M = O + v + f~ OM ⇐⇒ f~ OM = OM − v
−−→ −−→ 
⇐⇒ (f~ − IdE ) OM = −(f~ − IdE )(w) ⇐⇒ (f~ − IdE ) OM + w = 0E
−−→
⇐⇒ OM + w ∈ F ⇐⇒ M ∈ (O + w) + F.
Ceci montre que tv ◦ r a des points fixes, précisément la droite passant par le point (O + w) de direction F .
Comme voulu, tv ◦ r est donc bien une rotation affine d’axe parallèle à l’axe de r.

• Enfin, tu ◦ (tv ◦ r) est la composée d’une rotation affine d’axe de direction F et d’une translation de vecteur
u ∈ F , donc comme voulu tu ◦ (tv ◦ r) est un vissage. 

14
c Christophe Bertault - MPSI

5 Similitudes
Pour ne pas nous attarder plus longtemps sur ce chapitre, nous ne démontrerons pas les résultats de ce paragraphe.

5.1 Similitudes vectorielles et affines

Définition (Similitude vectorielle, directe/indirecte)


Soit λ > 0. On appelle similitude (vectorielle) de E de rapport λ
tout endomorphisme s de E tel que : ∀x ∈ E, s(x) = λkxk.
Cela revient à dire que s est la composée de l’homothétie de E de rapport λ et d’un automorphisme orthogonal de E. Si cet
automorphisme orthogonal est positif, on dit que s est directe ; s’il est négatif, que s est indirecte.

   Explication En bref, une similitude est une application qui préserve les rapports de distances, et une similitude
directe est une similitude qui préserve l’orientation.

Définition (Similitude affine, directe/indirecte) Soit λ > 0. On appelle similitude


(affine)
de E de rapport λ toute
−−−−−−−→ −−→
application affine s de E dans E telle que pour tous points M, N de E : s(M )s(N ) = λ M N .

Cela revient à dire que ~s est une similitude vectorielle de E. Si ~s est directe, on dit que s est directe ; si ~s est indirecte, que s est
indirecte.

Exemple Toute translation de E et toute rotation affine de E est une similitude directe de rapport 1.

5.2 Similitudes directes en dimension 2

Définition (Homothétie affine)



E −→ E
• Soient O un point de E et λ ∈ R× . L’application h : −−→ est appelée l’homothétie (affine) de E
M 7−→ O + λOM
de centre O et de rapport λ.
• Alors h est une similitude directe de rapport |λ|. Par ailleurs, ~h = λIdE .

Démonstration L’homothétie h est clairement affine de partie linéaire ~h = λIdE . Si λ > 0, ~h est donc bien la
composée d’une homothétie de rapport strictement positif et d’un automorphisme orthogonal ; si λ < 0, on a le
même résultat à condition d’écrire que ~h = (−λIdE ) ◦ (−IdE ). 

Théorème (Similitudes directes en dimension 2) s(M )


b

On suppose E de dimension 2. Soit s une similitude directe de E de rapport λ, dont la partie Ici λ = 2.
linéaire ~s est la composée de l’homothétie de rapport λ et de la rotation vectorielle d’angle de
mesure θ. Si s n’est pas une translation, alors s possède un unique point fixe O. On dit alors que
s est la similitude directe de E de rapport λ, de centre O et d’angle de mesure θ. θ
b b
O M

Théorème (Des similitudes pour transformer des segments) On suppose E de dimension 2. Soient A, B, A0 , B 0 quatre
points de E, A 6= B et A0 6= B 0 . Il existe alors une et une seule similitude directe de E transformant A en A0 et B en B 0 .

Théorème (Similitudes, angles orientés et aires)


• Toute similitude directe conserve les angles orientés de vecteurs ; toute similitude indirecte les change en leurs opposés.
• Soit λ > 0. Toute similitude de rapport λ multiplie les aires par λ2 .

15

Vous aimerez peut-être aussi