Académique Documents
Professionnel Documents
Culture Documents
ISOMÉTRIES VECTORIELLES
ET MATRICES ORTHOGONALES
1 ISOMÉTRIES VECTORIELLES
1
Démonstration Nous noterons ci-dessous Æ l’identité de polarisation : x, y = kx + yk2 − kxk2 − k yk2 .
2
q
q
(i) =⇒ (ii) Pour tout x ∈ E :
f (x) =
f (x), f (x) = x, x = kxk.
Æ 1
(ii) =⇒ (i) Pour tous x, y ∈ E : f (x), f ( y) =
f (x) + f ( y)
2 −
f (x)
2 −
f ( y)
2
2
linéarité 1
1 Æ
=
f (x + y)
2 −
f (x)
2 −
f ( y)
2 (ii) = kx + yk2 − kxk2 − k yk2 = x, y .
2 2
Montrons pour finir
que f
est un automorphisme de E si (i) ou (ii) est vraie. Or f est injective car pour tout
x ∈ Ker f : kxk =
f (x)
= k0 E k = 0, donc : x = 0 E . Comme f est par ailleurs un endomorphisme de
E et comme E est de dimension finie, f est bien un automorphisme.
Exemple Toute symétrie orthogonale est une isométrie vectorielle. En particulier, donc, toute réflexion — symétrie ortho-
gonale par rapport à un hyperplan — est une isométrie vectorielle.
Démonstration Simple conséquence du théorème de Pythagore ! Soient E un espace euclidien et s une symétrie
orthogonale de E. Posons : H = Ker s − Id E . Alors s est la symétrie par rapport à H parallèlement à H ⊥ —
donc une application linéaire — et pour tout x = h + h′ ∈ E avec h ∈ H et h′ ∈ H ⊥ :
Pythagore
2
s(x)
2 =
h − h′
2 Pythagore
= khk2 + kh′ k2 =
h + h′
= kxk2 , donc :
s(x)
= kxk.
Théorème (Caractérisation des isométries par l’image d’une base orthonormale) Soient E 6= 0 E un espace
euclidien, f ∈ L (E) et B une base orthonormale de E. Les assertions suivantes sont équivalentes :
(i) f est une isométrie vectorielle de E. (ii) f (B ) est une base orthonormale de E.
Explication Une isométrie transforme donc TOUTE base orthonormale en une base orthonormale, et réciproque-
ment, un endomorphisme qui tranforme UNE base orthonormale en une base orthonormale est une isométrie vectorielle.
1
Christophe Bertault — Mathématiques en MPSI
(ii) =⇒ (i) Réciproquement, si nous supposons f (B ) orthonormale, alors pour tout x ∈ E de coordonnées
(x 1 , . . . , x n ) dans B , f (x) a v
pour coordonnées (x 1 , . . . , x n ) dans f (B ), donc comme ces deux bases sont
tX u n
orhonormales :
f (x)
= x k2 = kxk.
k=1
Définition-théorème (Groupe orthogonal d’un espace euclidien) Soit E un espace euclidien. L’ensemble des isomé-
tries vectorielles de E, noté O(E), est un sous-groupe du groupe linéaire GL(E) de E appelé le groupe orthogonal de E.
La composée de deux isométries vectorielles et la réciproque d’une isométrie vectorielle sont donc des isométries vecto-
rielles.
Démonstration Tout d’abord, GL(E) est un groupe pour la COMPOSITION. Ensuite : O(E) ⊂ GL(E) car toute
isométrie est un automorphisme, et : Id E ∈ O(E) car Id E préserve les normes. Enfin, pour tous f , g ∈ O(E) :
f ∈O(E)
g∈O(E)
−1
f g ∈ O(E) car pour tout x ∈ E :
−1
f g(x)
=
f f g(x)
=
g(x)
= kxk.
−1
2 MATRICES ORTHOGONALES
Définition-théorème (Matrice orthogonale) Soit M ∈ Mn (R). Les assertions suivantes sont équivalentes :
t
(i) M M = In — il revient au même de dire que : M t M = In ou que M est inversible d’inverse t M .
(ii) La famille des colonnes — ou des lignes — de M est une base orthonormale de l’espace euclidien canonique Rn .
On dit dans ce cas que M est orthogonale.
Exemple Il est facile de vérifier « à l’œil nu » qu’une matrice carréeest orthogonale, il suffit de se demander si ses colonnes
0 −1
forment une famille orthonormale ou non. Par exemple, la matrice est orthogonale car ses deux colonnes sont de
1 0
p p
2 −p 3 1
1 p
norme 1 et de produit scalaire nul. Même raisonnement avec p 2 3 1 .
6 p2 0 −2
Théorème (Isométries vectorielles et matrices orthogonales) Soient E 6= 0 E un espace euclidien, f ∈ L (E) et B
une base ORTHONORMALE de E. Les assertions suivantes sont équivalentes :
(i) f est une isométrie vectorielle. (ii) MatB ( f ) est une matrice orthogonale.
2
Christophe Bertault — Mathématiques en MPSI
Théorème (Matrice de passage d’un changement de bases orthonormales) Soient E 6= 0 E un espace euclidien et
B′
B et B ′ deux bases ORTHONORMALES de E. La matrice de passage PB de B à B ′ est alors une matrice orthogonale.
B ′ −1 B′
Il est donc facile de calculer son inverse : PB = t PB .
Démonstration Notons f l’unique endomorphisme de E qui envoie B sur B ′ . Comme B et B ′ sont deux
B′
bases orthonormales, f est une isométrie vectorielle, donc la matrice : PB = MatB (B ′ ) = MatB ( f ) est
orthogonale.
Définition-théorème (Groupe orthogonal) L’ensemble des matrices orthogonales de taille n, noté O(n) ou On (R), est
un sous-groupe du groupe linéaire GLn (R) appelé le groupe orthogonal de degré n.
Le produit de deux matrices orthogonales et l’inverse d’une matrice orthogonale sont donc des matrices orthogonales.
Explication Une matrice M ∈ Mn (R) est orthogonale POSITIVE si et seulement si la famille de ses colonnes est
une base orthonormale DIRECTE de Rn , et une isométrie vectorielle POSITIVE est une isométrie qui PRÉSERVE L’ORIENTATION.
Démonstration
(i) Pour tout M ∈ O(n) : det(M )2 = det(M )det t M = det M t M = det(I n ) = 1.
(ii) Pour tout espace euclidien E 6= 0 E de base orthonormale B et pour tout f ∈ O(E), on a vu que MatB ( f )
est une matrice orthogonale, donc d’après (i) : det( f ) = det MatB ( f ) ∈ − 1, 1 .
1 1
$ ATTENTION ! $ Toute matrice de déterminant ±1 n’est pas orthogonale — par exemple
0 1
.
Théorème (Isométries vectorielles positives et matrices orthogonales positives) Soient E 6= 0 E un espace eucli-
dien, f ∈ L (E) et B une base ORTHONORMALE de E. Les assertions suivantes sont équivalentes :
(i) f est une isométrie vectorielle positive. (ii) MatB ( f ) est une matrice orthogonale positive.
3
Christophe Bertault — Mathématiques en MPSI
Démonstration Pour (i) : SO(E) ⊂ O(E) par définition, et : Id E ∈ SO(E) car det(Id E ) = 1. Ensuite,
pour tous f , g ∈ SO(E), nous savons que f −1 g ∈ O(E) et par ailleurs : det f −1 g = det( f )−1 det(g) = 1,
donc : f −1 g ∈ SO(E). L’assertion (ii) se démontre de la même manière.
Définition-théorème (Produit mixte) Soit E 6= 0 E un espace euclidien orienté de dimension n.
(i) Soient x 1 , . . . , x n ∈ E. Le scalaire detB (x 1 , . . . , x n ) ne dépend pas de la base B de E choisie SI ELLE EST ORTHO -
NORMALE DIRECTE . On l’appelle le produit mixte de x 1 , . . . , x n et on le note : x1, . . . , xn .
(ii) Le produit mixte d’une base orthonormale directe est toujours égal à 1.
Explication
• Le produit mixte est un déterminant qui, en apparence, ne dépend pas d’une base, mais c’est seulement parce qu’il
dépend fondamentalement du produit scalaire vis-à-vis duquel on le calcule, et donc des bases orthonormales directes
qui vont avec. Ce que la définition du produit mixte énonce, c’est que tant qu’on prend pour pavé élémentaire un
pavé orienté positivement dont les arêtes sont orthogonales et de longueur 1, on compte les aires ou volumes de la
même manière quel que soit le pavé choisi. Au chapitre « Déterminants », il y avait quelque chose d’arbitraire dans
le choix d’une base comme base de référence pour les aires ou volumes orientés. De fait, dans un espace vectoriel
quelconque sans produit scalaire, la notion de longueur fait défaut — d’où l’impossibilité de relier les aires ou volumes
et les longueurs — d’où l’arbitraire. Dans un espace euclidien, le produit scalaire réconcilie les aires ou volumes aux
longueurs qu’il définit.
• Rappelons pour finir que le produit mixte, comme tout déterminant
d’une famille dans unebase, digère très bien les
endomorphismes. Pour tous f ∈ L (E) et x 1 , . . . , x n ∈ E : f (x 1 ), . . . , f (x n ) = det( f ) × x 1 , . . . , x n . Géométri-
quement, ce résultat signifie que lorsqu’on transforme un parallélépipède par une application linéaire f , le volume
orienté s’en trouve tout simplement multiplié par det( f ).
a 2 + b2 = 1
a c
Démonstration Pour tout M = ∈ M2 (R) : M ∈ O(2) ⇐⇒ t
M M = I2 ⇐⇒ c2 + d 2 = 1
b d ac + bd = 0
a = cos θ et b = sin θ a = cos θ et b = sin θ
⇐⇒ ∃ θ , ϕ ∈ R/ c = cos ϕ et d = sin ϕ ⇐⇒ ∃ θ , ϕ ∈ R/ c = cos ϕ et d = sin ϕ
cos θ cos ϕ + sin θ sin ϕ = 0 cos(θ − ϕ) = 0
4
Christophe Bertault — Mathématiques en MPSI
a = cos θ et b = sin θ
c = cos ϕ et d = sin ϕ π π
⇐⇒ ∃ θ , ϕ ∈ R, ǫ ∈ − 1, 1 / Or cos θ + ǫ = −ǫ sin θ et sin θ + ǫ = ǫ cos θ .
ϕ ≡ θ + ǫ π [2π] 2 2
§ 2
a = cos θ et b = sin θ cos θ −ǫ sin θ
⇐⇒ ∃ θ ∈ R, ǫ ∈ − 1, 1 / ⇐⇒ ∃ θ ∈ R, ǫ ∈ − 1, 1 / M= .
c = −ǫ sin θ et d = ǫ cos θ sin θ ǫ cos θ
cos θ −ǫ sin θ
Il reste à remarquer que pour tous θ ∈ R et ǫ ∈ − 1, 1 : = ǫ.
sin θ ǫ cos θ
cos α − sin α cos β − sin β
Démonstration Soient A, B ∈ SO(2), disons : A= et B = avec
sin α cos α sin β cos β
α, β ∈ R. D’après le calcul de la remarque précédente et sachant que α + β = β + α :
cos α − sin α cos β − sin β cos β − sin β cos α − sin α
× = × , i.e. : AB = BA.
sin α cos α sin β cos β sin β cos β sin α cos α
Théorème (Classification des automorphismes orthogonaux en dimension 2) Soient E un espace euclidien orienté
de dimension 2 et f ∈ O(E).
(i) Si f est positif, i.e. si : f ∈ SO(E), pas du choixde la base B à condition
la matrice MatB ( f ) de f ne dépend
cos θ − sin θ
que B soit ORTHONORMALE DIRECTE. Cette matrice est de la forme : pour un certain θ ∈ R
sin θ cos θ
unique à 2π près. On dit que f est la rotation (vectorielle) d’angle de mesure θ .
(ii) Si f est négatif, f est une réflexion, i.e. ici une symétrie orthogonale par rapport à une droite.
$ ATTENTION ! $ Il est essentiel dans l’assertion (i) que les bases considérées soient DIRECTES. Dans une base ortho-
normale indirecte, la mesure de l’angle d’une rotation serait l’opposée de ce qu’elle est dans une base orthonormale directe.
Démonstration
(i) Supposons f positif et donnons-nous deux bases orthonormales directes B et B ′ de E. Les matrices
B′
MatB ( f ) et MatB ′ ( f ) sont orthogonales positives, donc éléments de SO(2), et c’est aussi le cas de PB .
Par changement de base, et sachant que SO(2) est commutatif :
B ′ −1 B′
B ′ −1 B ′
MatB ′ ( f ) = PB MatB ( f )PB = PB PB MatB ( f ) = MatB ( f ),
donc en effet la matrice de f ne dépend pas de la base choisie lorsqu’elle est orthonormale directe.
5
Christophe Bertault — Mathématiques en MPSI
gendrée par u1 . C’est pourquoi nous avons l’idée de montrer que f est
la réflexion par rapport à la droite engendrée par u1 . Posons ainsi : f (e2 )
θ θ θ θ
u1 = cos e1 + sin e2 et u2 = − sin e1 + cos e2 . Il est clair
2 2 2 2
que (u1 , u2 ) est une base orthonormale de E. De plus un calcul facile montre que : f (u1 ) = u1 et
1 0
f (u2 ) = −u2 , de sorte que la matrice de f dans (u1 , u2 ) est . Conclusion : f est la réflexion par
0 −1
rapport à Vect(u1 ).
Théorème (Rotations de C) Pour tout θ ∈ R, la fonction z 7−→ eiθ z n’est autre que la rotation d’angle de mesure θ du
plan euclidien C.
Explication Résultat bien connu de début d’année, mais nous parlions alors de rotations en termes seulement
intuitifs. Ici, les rotations intuitives de début d’année s’avèrent coïncider avec les rotations définies proprement dans ce
chapitre.
r
Démonstration Soit θ ∈ R. La fonction z 7−→ eiθ z est linéaire sur C car pour tous z, z ′ ∈ C et λ, λ′ ∈ R :
r λz + λ z = e λz + λ′ z ′ = λeiθ z + λ′ eiθ z ′ = λr(z) + λ′ r(z ′ ). Ensuite : r(1) = eiθ = cos θ + i sin θ et
′ ′ iθ
cos θ − sin θ
r(i) = eiθ i = − sin θ + i cos θ , donc : Mat(1,i) (r) = .
sin θ cos θ
Théorème (Produit scalaire et cosinus) Soient E un espace euclidien orienté de dimension 2 et u, v∈ E non nuls. Il
v u
existe une et une seule rotation r ∈ SO(E), disons d’angle de mesure θ , pour laquelle : =r .
kvk kuk
Dans ces conditions : u, v = kuk.kvk cos θ .
−
→
→
−
Explication On retrouve ici la relation bien connue de géométrie élémentaire : u ·−
→
v =
−u
.
→
v
cos −
→
u ,−
→
v .
Démonstration
u
• Posons : e1 = , complétons (e1 ) en une base orthonormale directe (e1 , e2 ) de E et notons (x, y) les
kuk
v
coordonnées de dans (e1 , e2 ) — en particulier : x 2 + y 2 = 1. Si r est la rotation de E de matrice
kvk
x −y v u
dans (e1 , e2 ), on a bien comme voulu : =r , mais ce résultat est-il possible avec
y x kvk kuk
une autre rotation ? Non, car la forme d’une matrice de rotation dans une base orthonormale directe est
telle qu’on n’a besoin que de connaître sa première colonne pour la connaître entièrement.
v
• Par définition de r et θ : = cos θ e1 + sin θ e2 , donc :
kvk
·
u v
u, v = kuk.kvk , = kuk.kvk e1 , cos θ e1 + sin θ e2 = kuk.kvk cos θ .
kuk kvk
6
Christophe Bertault — Mathématiques en MPSI
6 PRODUIT VECTORIEL
Hors programme en mathématiques en MPSI, la notion de produit vectoriel n’en constitue pas moins un prolongement
naturel des paragraphes précédents, alors ne résistons pas. Si la définition qui suit paraît compliquée au premier abord, elle
offre une démonstration rapide et intelligente de tous les résultats sur le produit vectoriel que vous connaissez déjà.
Démonstration
• Pour tout a ∈ E, notons ϕa la forme linéaire x 7−→ a, x de E. Je vous laisse vérifier que l’application
ϕ
a 7−→ ϕa est elle-même linéaire de E dans L (E, R). Nous allons montrer que ϕ est même un isomorphisme,
et pour cela, comme : dim L (E, R) = dim E ×
dim R = dim E, l’injectivité sera suffisante. Or pour tout
a ∈ Ker ϕ : ϕa = 0L (E,R) donc : kak2 = a, a = ϕa (a) = 0, et enfin : a = 0 E .
• À présent, pour tous u, v ∈ E, l’application x 7−→ u, v, x est une forme linéaire de E, donc possède un et
ϕ que
un seul antécédent par nous notons
u ∧ v. Par
définition, u ∧ v est donc le seul vecteur de E tel que
pour tout x ∈ E : u, v, x = ϕu∧v (x) = u ∧ v, x .
Explication Que signifie géométriquement la relation : u, v, x = u ∧ v, x ? Supposons : u ∧ v 6= 0 E .
À gauche, u, v, x n’est autre que le volume orienté du parallélépipède P engendré par
u, v et x. u∧ v
u∧v
Et à droite ? Posons : a =
. Alors : u ∧ v, x =
u ∧ v
× x, a . Or
u ∧ v
x P
h = x, a n’est autre que la hauteur — éventuellement négative si l’orientation l’exige
— de P au-dessus du parallélogramme engendré par u et v. h
Conclusion : le volume orienté de P vaut :
u ∧ v
× h où h représente une hauteur, v
b
u
(v) On suppose la famille (u, v) orthonormale. Alors :
v
(u, v, w) est une base orthonormale directe de E si et seulement si w = u ∧ v.
(vi) Soit B une base ORTHONORMALE DIRECTE de E. Si on note (x, y, z) et (x ′ , y ′, z ′ ) les coordonnées respectives de
u et v dans B , alors u ∧ v a pour coordonnées yz ′ − z y ′ , z x ′ − xz ′ , x y ′ − y x ′ .
Explication Pour toute base orthonormale directe (i, j, k) de E, les familles ( j, k, i) et (k, i, j) sont aussi des bases
orthonormales directes de E, donc d’après l’assertion (v) : k = i ∧ j, i = j ∧ k et j = k ∧ i.
Démonstration Pour suivre la preuve qui suit, n’oubliez pas que tout produit mixte n’est qu’un déterminant,
donc nul sur toute famille liée.
Æ
(i) Les vecteurs u et u ∧ v sont orthogonaux car : u ∧ v, u = u, v, u = 0.
7
Christophe Bertault — Mathématiques en MPSI
Æ
(ii) Si u et v sont colinéaires :
u ∧ v
2 = u ∧ v, u ∧ v = u, v, u ∧ v = 0, donc : u ∧ v = 0E .
Supposons réciproquement que : u ∧ v = 0 E . Comme : dim Vect(u, v) ¶ 2 < 3 = dim E, nous
pouvons
nous
donner un
vecteur
quelconque x de E \ Vect(u, v). La famille (u, v, x) est alors liée car :
u, v, x = u ∧ v, x = 0 E , x = 0. Comme x n’est pas combinaison linéaire de u et v, il en découle que
la famille (u, v) est liée.
(iii) D’après (ii), si le produit vectoriel est bilinéaire, il est aussi alterné — nul sur toute famille dont deux
vecteurs sont égaux. Montrons simplement sa linéarité par rapport à la deuxième variable. Soient u, v, w ∈ E
et λ, µ ∈ R. Pour tout x ∈ E :
¬ ¶ ¬ ¶
u∧(λv+µw)−λ(u∧v)−µ(u∧w), x = u∧(λv+µw), x −λ u∧v, x −µ u∧w, x = u, λv+µw, x −λ u, v, x −µ u, w, x = 0,
donc le vecteur : u ∧ (λv + µw) − λ(u ∧ v) − µ(u ∧ w) est orthogonal à tout vecteur — en particulier à
lui-même — donc est nul : u ∧ (λv + µw) = λ(u ∧ v) + µ(u ∧ w).
(iv) Supposons u et v non colinéaires. Montrer que u, v, u∧ v est une base directe de E revient à montrer que
son déterminant dans une base directe est strictement positif, par exemple que : u, v, u ∧ v > 0, ce
2 (ii)
qui est vrai car : u, v, u ∧ v = u ∧ v, u ∧ v =
u ∧ v
> 0.
(v) Supposons (u, v) orthonormale.
• Montrons
que(u, v, u ∧ v) est une base orthonormale directe de E. Ce qui est sûr, c’est que la famille
u∧v
u, v, est orthonormale directe d’après (i) et (iv), donc :
ku ∧ vk ® ¸
u ∧ v u ∧ v BOND
u ∧ v
= u ∧ v,
= u, v, = 1.
u ∧ v
ku ∧ vk
• Réciproquement, sous l’hypothèse que (u, v, w) est une base orthonormale directe de E, montrons que :
w = u ∧ v. Comme Vect(u, v) est de dimension 2, Vect(u, v)⊥ est une droite vectorielle qui contient à
la fois w et u ∧ v, donc : u ∧ v = λw pour un certain λ ∈ R. Il reste à montrer que : λ = 1, ce
BOND
qui n’est pas compliqué : λ = λw, w = u ∧ v, w = u, v, w = 1.
(vi) Introduisons les vecteurs de B : B = (i, j, k).Comme B est orthonormale, les coordonnées
de u ∧ v
x x ′ 1
dans B sont u ∧ v, i , u ∧ v, j , u ∧ v, k , donc : u ∧ v, i = u, v, i = y y ′ 0 = yz ′ − z y ′ , et il
z z ′ 0
en va de même des autres coordonnées.