Vous êtes sur la page 1sur 8

Christophe Bertault — Mathématiques en MPSI

ISOMÉTRIES VECTORIELLES
ET MATRICES ORTHOGONALES

Dans ce chapitre, on travaille seulement avec le corps de base R.

1 ISOMÉTRIES VECTORIELLES

Définition-théorème (Isométrie vectorielle/automorphisme orthogonal) Soient E un espace euclidien et f ∈ L (E).


Les assertions suivantes sont équivalentes :



(i) f préserve les produits scalaires : ∀x, y ∈ E, f (x), f ( y) = x, y .

(ii) f préserve les normes : ∀x, y ∈ E, f (x) = kxk.
On dit dans ce cas que f est une isométrie (vectorielle) de E ou un automorphisme orthogonal de E. En particulier, comme
le nom l’indique, f est alors un automorphisme de E.


1€ Š
Démonstration Nous noterons ci-dessous Æ l’identité de polarisation : x, y = kx + yk2 − kxk2 − k yk2 .
2
q
q

(i) =⇒ (ii) Pour tout x ∈ E : f (x) = f (x), f (x) = x, x = kxk.

Æ 1 € Š
(ii) =⇒ (i) Pour tous x, y ∈ E : f (x), f ( y) = f (x) + f ( y) 2 − f (x) 2 − f ( y) 2
€ 2
linéarité 1 Š 1€ ŠÆ

= f (x + y) 2 − f (x) 2 − f ( y) 2 (ii) = kx + yk2 − kxk2 − k yk2 = x, y .
2 2
Montrons pour finir
que f est un automorphisme de E si (i) ou (ii) est vraie. Or f est injective car pour tout
x ∈ Ker f : kxk = f (x) = k0 E k = 0, donc : x = 0 E . Comme f est par ailleurs un endomorphisme de
E et comme E est de dimension finie, f est bien un automorphisme. „

Exemple Toute symétrie orthogonale est une isométrie vectorielle. En particulier, donc, toute réflexion — symétrie ortho-
gonale par rapport à un hyperplan — est une isométrie vectorielle.
Démonstration Simple conséquence du théorème  de Pythagore ! Soient E un espace euclidien et s une symétrie
orthogonale de E. Posons : H = Ker s − Id E . Alors s est la symétrie par rapport à H parallèlement à H ⊥ —
donc une application linéaire — et pour tout x = h + h′ ∈ E avec h ∈ H et h′ ∈ H ⊥ :
Pythagore 2
s(x) 2 = h − h′ 2 Pythagore
= khk2 + kh′ k2 = h + h′ = kxk2 , donc : s(x) = kxk.


Théorème (Caractérisation des isométries par l’image d’une base orthonormale) Soient E 6= 0 E un espace
euclidien, f ∈ L (E) et B une base orthonormale de E. Les assertions suivantes sont équivalentes :

(i) f est une isométrie vectorielle de E. (ii) f (B ) est une base orthonormale de E.

 Explication  Une isométrie transforme donc TOUTE base orthonormale en une base orthonormale, et réciproque-
ment, un endomorphisme qui tranforme UNE base orthonormale en une base orthonormale est une isométrie vectorielle.

Démonstration Introduisons les vecteurs de B : B = (e1 , . . . , en ).





(i) =⇒ (ii) Si f est une isométrie, alors pour tous i, j ∈ ¹1, nº : f (ei ), f (e j ) = ei , e j = δi j , donc f (B ),
famille de n = dim E vecteurs, est une base orthonormale de E.

1
Christophe Bertault — Mathématiques en MPSI

(ii) =⇒ (i) Réciproquement, si nous supposons f (B ) orthonormale, alors pour tout x ∈ E de coordonnées
(x 1 , . . . , x n ) dans B , f (x) a v
pour coordonnées (x 1 , . . . , x n ) dans f (B ), donc comme ces deux bases sont
tX u n
orhonormales : f (x) = x k2 = kxk. „
k=1

Définition-théorème (Groupe orthogonal d’un espace euclidien) Soit E un espace euclidien. L’ensemble des isomé-
tries vectorielles de E, noté O(E), est un sous-groupe du groupe linéaire GL(E) de E appelé le groupe orthogonal de E.
La composée de deux isométries vectorielles et la réciproque d’une isométrie vectorielle sont donc des isométries vecto-
rielles.

Démonstration Tout d’abord, GL(E) est un groupe pour la COMPOSITION. Ensuite : O(E) ⊂ GL(E) car toute
isométrie est un automorphisme, et : Id E ∈ O(E) car Id E préserve les normes. Enfin, pour tous f , g ∈ O(E) :
f ∈O(E)

g∈O(E)
−1
f g ∈ O(E) car pour tout x ∈ E : −1
f g(x) = f f g(x) = g(x) = kxk.
−1
„

2 MATRICES ORTHOGONALES

Définition-théorème (Matrice orthogonale) Soit M ∈ Mn (R). Les assertions suivantes sont équivalentes :
t
(i) M M = In — il revient au même de dire que : M t M = In ou que M est inversible d’inverse t M .
(ii) La famille des colonnes — ou des lignes — de M est une base orthonormale de l’espace euclidien canonique Rn .
On dit dans ce cas que M est orthogonale.

Démonstration Notons C1 , . . . , Cn les colonnes de M . L’égalité : t M M = I n ,


écrite coefficient par coefficient,
signifie exactement que pour tous i, j ∈ ¹1, nº : t Ci C j = δi j , i.e. que : Ci , C j = δi j , ou encore que
(C1 , . . . , Cn ) est une base orthonormale de Rn . Enfin, comme il est équivalent d’affirmer l’égalité : M t M = I n ,
le résultat sur les lignes s’obtient de même. „

Exemple Il est facile de vérifier « à l’œil nu » qu’une matrice carréeest orthogonale, il suffit de se demander si ses colonnes
‹
0 −1
forment une famille orthonormale ou non. Par exemple, la matrice est orthogonale car ses deux colonnes sont de
1 0
p p 
2 −p 3 1
1 p
norme 1 et de produit scalaire nul. Même raisonnement avec p 2 3 1 .
6 p2 0 −2


Théorème (Isométries vectorielles et matrices orthogonales) Soient E 6= 0 E un espace euclidien, f ∈ L (E) et B
une base ORTHONORMALE de E. Les assertions suivantes sont équivalentes :

(i) f est une isométrie vectorielle. (ii) MatB ( f ) est une matrice orthogonale.

Démonstration Posons : M = MatB ( f ), notons C1 , . . . , Cn ses colonnes et introduisons les vecteurs de B :


B = (e1 , . . . , en ).



(i) =⇒ (ii) Pour tous i, j ∈ ¹1, nº : Ci , C j = f (ei ), f (e j ) car nous pouvons calculer le produit scalaire
facilement à l’aide
des coordonnées

quand la base choisie est ORTHONORMALE , et ensuite, comme f est
une isométrie : Ci , C j = ei , e j = δi j , donc en effet, la famille des colonnes de M est orthonormale
— autrement dit, M est orthogonale.
(ii) =⇒ (i) Si M est orthogonale, alors : f ∈ O(E) car pour tout x ∈ E de coordonnées X dans B :
p 
f (x) 2 = t (M X )(M X ) = t X t M M X = t X I X = t X X = kxk2 , donc : f (x) = kxk. „
n

2
Christophe Bertault — Mathématiques en MPSI


Théorème (Matrice de passage d’un changement de bases orthonormales) Soient E 6= 0 E un espace euclidien et
B′
B et B ′ deux bases ORTHONORMALES de E. La matrice de passage PB de B à B ′ est alors une matrice orthogonale.

B ′ −1 B′
Il est donc facile de calculer son inverse : PB = t PB .

Démonstration Notons f l’unique endomorphisme de E qui envoie B sur B ′ . Comme B et B ′ sont deux
B′
bases orthonormales, f est une isométrie vectorielle, donc la matrice : PB = MatB (B ′ ) = MatB ( f ) est
orthogonale. „

Vous démontrerez seuls le résultat suivant.

Définition-théorème (Groupe orthogonal) L’ensemble des matrices orthogonales de taille n, noté O(n) ou On (R), est
un sous-groupe du groupe linéaire GLn (R) appelé le groupe orthogonal de degré n.
Le produit de deux matrices orthogonales et l’inverse d’une matrice orthogonale sont donc des matrices orthogonales.

3 SIGNE D’UNE ISOMÉTRIE ET D’UNE MATRICE ORTHOGONALE

Définition-théorème (Isométrie vectorielle/matrice orthogonale positive/négative)


(i) Le déterminant d’une matrice orthogonale vaut 1 ou −1. On dit qu’une matrice orthogonale est positive si son
déterminant vaut 1 et qu’elle est négative s’il vaut −1.
(ii) Le déterminant d’une isométrie vectorielle vaut 1 ou −1. On dit qu’une isométrie vectorielle est positive si son
déterminant vaut 1 et qu’elle est négative s’il vaut −1.

 Explication  Une matrice M ∈ Mn (R) est orthogonale POSITIVE si et seulement si la famille de ses colonnes est
une base orthonormale DIRECTE de Rn , et une isométrie vectorielle POSITIVE est une isométrie qui PRÉSERVE L’ORIENTATION.

Démonstration
 
(i) Pour tout M ∈ O(n) : det(M )2 = det(M )det t M = det M t M = det(I n ) = 1.

(ii) Pour tout espace euclidien E 6= 0 E de base orthonormale B et pour tout f ∈ O(E), on a vu que MatB ( f )
€ Š 
est une matrice orthogonale, donc d’après (i) : det( f ) = det MatB ( f ) ∈ − 1, 1 . „

 ‹
1 1
$ ATTENTION ! $ Toute matrice de déterminant ±1 n’est pas orthogonale — par exemple
0 1
.


Théorème (Isométries vectorielles positives et matrices orthogonales positives) Soient E 6= 0 E un espace eucli-
dien, f ∈ L (E) et B une base ORTHONORMALE de E. Les assertions suivantes sont équivalentes :

(i) f est une isométrie vectorielle positive. (ii) MatB ( f ) est une matrice orthogonale positive.

Définition-théorème (Groupe spécial orthogonal)


(i) Soit E un espace euclidien. L’ensemble des automorphismes orthogonaux positifs de E, noté SO(E) ou O+ (E), est
un sous-groupe de O(E) appelé le groupe spécial orthogonal de E.
(ii) L’ensemble des matrices orthogonales positives de taille n, noté SO(n) ou SOn (R), est un sous-groupe de O(n)
appelé le groupe spécial orthogonal de degré n.

3
Christophe Bertault — Mathématiques en MPSI

Démonstration Pour (i) : SO(E) ⊂ O(E) par définition, et : Id E ∈ SO(E) car  det(Id E ) = 1. Ensuite,
pour tous f , g ∈ SO(E), nous savons que f −1 g ∈ O(E) et par ailleurs : det f −1 g = det( f )−1 det(g) = 1,
donc : f −1 g ∈ SO(E). L’assertion (ii) se démontre de la même manière. „

4 PRODUIT MIXTE, AIRES ET VOLUMES ORIENTÉS


Définition-théorème (Produit mixte) Soit E 6= 0 E un espace euclidien orienté de dimension n.
(i) Soient x 1 , . . . , x n ∈ E. Le scalaire detB (x 1 , . . . , x n ) ne dépend pas de la base B de E choisie  SI ELLE EST ORTHO -
NORMALE DIRECTE . On l’appelle le produit mixte de x 1 , . . . , x n et on le note : x1, . . . , xn .
(ii) Le produit mixte d’une base orthonormale directe est toujours égal à 1.

Démonstration Soient B et B ′ deux bases orthonormales directes de E. L’unique endomorphisme  f de E


qui envoie B sur B ′ est une isométrie vectorielle positive, donc : detB (B ′ ) = detB f (B ) = 1 — ce qui
prouve l’assertion (ii). En retour : detB (x 1 , . . . , x n ) = detB (B ′ ) detB ′ (x 1 , . . . , x n ) = detB ′ (x 1 , . . . , x n ). „

 Explication 
• Le produit mixte est un déterminant qui, en apparence, ne dépend pas d’une base, mais c’est seulement parce qu’il
dépend fondamentalement du produit scalaire vis-à-vis duquel on le calcule, et donc des bases orthonormales directes
qui vont avec. Ce que la définition du produit mixte énonce, c’est que tant qu’on prend pour pavé élémentaire un
pavé orienté positivement dont les arêtes sont orthogonales et de longueur 1, on compte les aires ou volumes de la
même manière quel que soit le pavé choisi. Au chapitre « Déterminants », il y avait quelque chose d’arbitraire dans
le choix d’une base comme base de référence pour les aires ou volumes orientés. De fait, dans un espace vectoriel
quelconque sans produit scalaire, la notion de longueur fait défaut — d’où l’impossibilité de relier les aires ou volumes
et les longueurs — d’où l’arbitraire. Dans un espace euclidien, le produit scalaire réconcilie les aires ou volumes aux
longueurs qu’il définit.
• Rappelons pour finir que le produit mixte, comme tout déterminant
 d’une famille  dans unebase, digère  très bien les
endomorphismes. Pour tous f ∈ L (E) et x 1 , . . . , x n ∈ E : f (x 1 ), . . . , f (x n ) = det( f ) × x 1 , . . . , x n . Géométri-
quement, ce résultat signifie que lorsqu’on transforme un parallélépipède par une application linéaire f , le volume
orienté s’en trouve tout simplement multiplié par det( f ).

5 ISOMÉTRIES VECTORIELLES D’UN PLAN EUCLIDIEN


ET ANGLES ORIENTÉS

Théorème (Matrices orthogonales de taille 2)



‹
cos θ − sin θ
• Toute matrice orthogonale positive de taille 2 est de la forme pour un certain θ ∈ R.
sin θ cos θ
 ‹
cos θ sin θ
• Toute matrice orthogonale négative de taille 2 est de la forme pour un certain θ ∈ R.
sin θ − cos θ


 ‹  a 2 + b2 = 1
a c
Démonstration Pour tout M = ∈ M2 (R) : M ∈ O(2) ⇐⇒ t
M M = I2 ⇐⇒ c2 + d 2 = 1
b d  ac + bd = 0

 
 a = cos θ et b = sin θ  a = cos θ et b = sin θ
⇐⇒ ∃ θ , ϕ ∈ R/ c = cos ϕ et d = sin ϕ ⇐⇒ ∃ θ , ϕ ∈ R/ c = cos ϕ et d = sin ϕ
 cos θ cos ϕ + sin θ sin ϕ = 0  cos(θ − ϕ) = 0

4
Christophe Bertault — Mathématiques en MPSI


  a = cos θ et b = sin θ    
c = cos ϕ et d = sin ϕ π π
⇐⇒ ∃ θ , ϕ ∈ R, ǫ ∈ − 1, 1 / Or cos θ + ǫ = −ǫ sin θ et sin θ + ǫ = ǫ cos θ .
 ϕ ≡ θ + ǫ π [2π] 2 2
§ 2  ‹
 a = cos θ et b = sin θ  cos θ −ǫ sin θ
⇐⇒ ∃ θ ∈ R, ǫ ∈ − 1, 1 / ⇐⇒ ∃ θ ∈ R, ǫ ∈ − 1, 1 / M= .
c = −ǫ sin θ et d = ǫ cos θ sin θ ǫ cos θ

 cos θ −ǫ sin θ
Il reste à remarquer que pour tous θ ∈ R et ǫ ∈ − 1, 1 : = ǫ. „
sin θ ǫ cos θ

 Explication  Le calcul suivant n’a l’air de rien comme


 ça, mais ce‹sera
 pourtant lui notre
‹  passeport pour une défini- ‹
cos α − sin α cos β − sin β cos(α + β ) − sin(α + β )
tion satisfaisante des angles orientés. Pour tous α, β ∈ R : × = .
sin α cos α sin β cos β sin(α + β ) cos(α + β )

Théorème (Commutativité du groupe SO(2)) Le groupe SO(2) est commutatif.

 ‹  ‹
cos α − sin α cos β − sin β
Démonstration Soient A, B ∈ SO(2), disons : A= et B = avec
sin α cos α sin β cos β
α, β ∈ R. D’après le calcul de la remarque précédente et sachant que α + β = β + α :
 ‹  ‹  ‹  ‹
cos α − sin α cos β − sin β cos β − sin β cos α − sin α
× = × , i.e. : AB = BA. „
sin α cos α sin β cos β sin β cos β sin α cos α

Théorème (Classification des automorphismes orthogonaux en dimension 2) Soient E un espace euclidien orienté
de dimension 2 et f ∈ O(E).
(i) Si f est positif, i.e. si : f ∈ SO(E),  pas du choix‹de la base B à condition
la matrice MatB ( f ) de f ne dépend
cos θ − sin θ
que B soit ORTHONORMALE DIRECTE. Cette matrice est de la forme : pour un certain θ ∈ R
sin θ cos θ
unique à 2π près. On dit que f est la rotation (vectorielle) d’angle de mesure θ .
(ii) Si f est négatif, f est une réflexion, i.e. ici une symétrie orthogonale par rapport à une droite.

$ ATTENTION ! $ Il est essentiel dans l’assertion (i) que les bases considérées soient DIRECTES. Dans une base ortho-
normale indirecte, la mesure de l’angle d’une rotation serait l’opposée de ce qu’elle est dans une base orthonormale directe.

 Explication  Les remarques qui suivent ne concernent que l’assertion (i).


• La commutativité du groupe SO(2) signifie géométriquement que deux rotations vectorielles commutent toujours —
tourner d’un angle ϕ puis d’un angle ψ, c’est pareil que tourner de ψ puis de ϕ.
• L’indépendance de la matrice de f par rapport à la base orthonormale choisie signifie géométriquement qu’une rota-
tion vectorielle agit UNIFORMÉMENT sur les vecteurs du plan, i.e. de la même manière dans toutes les directions.
• On parle de « rotation d’ANGLE de MESURE θ » sans avoir jamais défini auparavant les mots « angle » et « mesure ». De
fait, toute construction rigoureuse de la notion d’angle orienté est hors programme. On peut tout de même résumer
la définition d’un angle orienté de la manière suivante. Pour tous u, v ∈ E unitaires, il existe une et une seule rotation
r ∈ SO(E) pour laquelle : v =r(u), et c’est‹cette rotation, en un sens, qu’on peut appeler l’angle orienté (u, v).
cos θ − sin θ
Tout réel θ pour lequel r admet pour matrice dans une base orthonormale directe est alors appelé
sin θ cos θ
UNE mesure de l’angle orienté (u, v) et généralement notée elle aussi (u, v). La notation usuelle : (u, v) ≡ θ [2π]
se trouve ainsi justifiée.

Démonstration
(i) Supposons f positif et donnons-nous deux bases orthonormales directes B et B ′ de E. Les matrices
B′
MatB ( f ) et MatB ′ ( f ) sont orthogonales positives, donc éléments de SO(2), et c’est aussi le cas de PB .
Par changement de base, et sachant que SO(2) est commutatif :

B ′ −1 B′

B ′ −1 B ′
MatB ′ ( f ) = PB MatB ( f )PB = PB PB MatB ( f ) = MatB ( f ),
donc en effet la matrice de f ne dépend pas de la base choisie lorsqu’elle est orthonormale directe.

5
Christophe Bertault — Mathématiques en MPSI

(ii) Supposons f négatif et donnons-nous une base orthonormale directe e2


(e1 , e2 ) de E. La matrice u2
 de f dans la ‹ base (e1 , e2 ) est alors orthogonale
cos θ sin θ f (e1 )
négative, disons : pour un certain θ ∈ R. θ θ
sin θ − cos θ
u1 2
On voit sur la figure ci-contre que e1 et f (e1 ) (resp. e2 et f (e2 )) sont b

orthogonalement symétriques l’un de l’autre par rapport à la droite en- e 1

gendrée par u1 . C’est pourquoi nous avons l’idée de montrer que f est
la réflexion par rapport à la droite engendrée par u1 . Posons ainsi : f (e2 )
θ θ θ θ
u1 = cos e1 + sin e2 et u2 = − sin e1 + cos e2 . Il est clair
2 2 2 2
que (u1 , u2 ) est une base orthonormale de E. De plus un calcul facile montre que : f (u1 ) = u1 et
 ‹
1 0
f (u2 ) = −u2 , de sorte que la matrice de f dans (u1 , u2 ) est . Conclusion : f est la réflexion par
0 −1
rapport à Vect(u1 ). „

Nous n’en avons pas parlé jusqu’ici, mais C, envisagé



comme un plan vectoriel sur R, peut être muni d’un produit scalaire
naturel défini pour tous x, x ′ , y, y ′ ∈ R par : x + i y, x ′ + i y ′ = x x ′ + y y ′ . De manière équivalente, on peut aussi

′ 
dire que pour tous z, z ′ ∈ C : z, z = Re zz ′ . Pour ce produit scalaire sans surprise, la base canonique (1, i) de C est
orthonormale.

Théorème (Rotations de C) Pour tout θ ∈ R, la fonction z 7−→ eiθ z n’est autre que la rotation d’angle de mesure θ du
plan euclidien C.

 Explication  Résultat bien connu de début d’année, mais nous parlions alors de rotations en termes seulement
intuitifs. Ici, les rotations intuitives de début d’année s’avèrent coïncider avec les rotations définies proprement dans ce
chapitre.

r
Démonstration  Soit θ ∈ R. La fonction z 7−→ eiθ z est linéaire sur C car pour tous z, z ′ ∈ C et λ, λ′ ∈ R :
r λz + λ z = e λz + λ′ z ′ = λeiθ z + λ′ eiθ z ′ = λr(z) + λ′ r(z ′ ). Ensuite : r(1) = eiθ = cos θ + i sin θ et
′ ′ iθ
 ‹
cos θ − sin θ
r(i) = eiθ i = − sin θ + i cos θ , donc : Mat(1,i) (r) = . „
sin θ cos θ

Théorème (Produit scalaire et cosinus) Soient E un espace euclidien orienté de dimension 2 et  u, v‹∈ E non nuls. Il
v u
existe une et une seule rotation r ∈ SO(E), disons d’angle de mesure θ , pour laquelle : =r .

kvk kuk
Dans ces conditions : u, v = kuk.kvk cos θ .


→ → − 
 Explication  On retrouve ici la relation bien connue de géométrie élémentaire : u ·−

v = −u . →
v cos −

u ,−

v .

Démonstration
u
• Posons : e1 = , complétons (e1 ) en une base orthonormale directe (e1 , e2 ) de E et notons (x, y) les
kuk
v
coordonnées de dans (e1 , e2 ) — en particulier : x 2 + y 2 = 1. Si r est la rotation de E de matrice
 ‹ kvk  ‹
x −y v u
dans (e1 , e2 ), on a bien comme voulu : =r , mais ce résultat est-il possible avec
y x kvk kuk
une autre rotation ? Non, car la forme d’une matrice de rotation dans une base orthonormale directe est
telle qu’on n’a besoin que de connaître sa première colonne pour la connaître entièrement.
v
• Par définition de r et θ : = cos θ e1 + sin θ e2 , donc :
kvk

­ ·

u v
u, v = kuk.kvk , = kuk.kvk e1 , cos θ e1 + sin θ e2 = kuk.kvk cos θ . „
kuk kvk

6
Christophe Bertault — Mathématiques en MPSI

6 PRODUIT VECTORIEL

Hors programme en mathématiques en MPSI, la notion de produit vectoriel n’en constitue pas moins un prolongement
naturel des paragraphes précédents, alors ne résistons pas. Si la définition qui suit paraît compliquée au premier abord, elle
offre une démonstration rapide et intelligente de tous les résultats sur le produit vectoriel que vous connaissez déjà.

Définition-théorème (Produit vectoriel) Soient E un espace euclidien orienté de dimension 3 et u, v ∈ E.


 Il
existe un

unique vecteur de E, noté : u∧ v et appelé le produit vectoriel de u et v, pour lequel : ∀x ∈ E, u, v, x = u∧ v, x .

Démonstration


• Pour tout a ∈ E, notons ϕa la forme linéaire x 7−→ a, x de E. Je vous laisse vérifier que l’application
ϕ
a 7−→ ϕa est elle-même linéaire de E dans L (E, R). Nous allons montrer que ϕ est même un isomorphisme,
et pour cela, comme : dim L (E, R) = dim E ×
dim R = dim E, l’injectivité sera suffisante. Or pour tout
a ∈ Ker ϕ : ϕa = 0L (E,R) donc : kak2 = a, a = ϕa (a) = 0, et enfin : a = 0 E .
 
• À présent, pour tous u, v ∈ E, l’application x 7−→ u, v, x est une forme linéaire de E, donc possède un et
 ϕ que
un seul antécédent par  nous notons
u ∧ v. Par
définition, u ∧ v est donc le seul vecteur de E tel que
pour tout x ∈ E : u, v, x = ϕu∧v (x) = u ∧ v, x . „

 

 Explication  Que signifie géométriquement la relation : u, v, x = u ∧ v, x ? Supposons : u ∧ v 6= 0 E .
 
À gauche, u, v, x n’est autre que le volume orienté du parallélépipède P engendré par
u, v et x. u∧ v
u∧v


Et à droite ? Posons : a = . Alors : u ∧ v, x = u ∧ v × x, a . Or
u ∧ v

x P
h = x, a n’est autre que la hauteur — éventuellement négative si l’orientation l’exige
— de P au-dessus du parallélogramme engendré par u et v. h

Conclusion : le volume orienté de P vaut : u ∧ v × h où h représente une hauteur, v
b

donc u ∧ v est finalement la valeur de l’aire du parallélogramme engendré par u et v. u

Théorème (Propriétés du produit vectoriel) Soient E un espace euclidien orienté de dimension 3 et u, v, w ∈ E.


(i) Le vecteur u ∧ v est orthogonal à u et v. u∧ v
(ii) Les vecteurs u et v sont colinéaires si et seulement si : u ∧ v = 0E .
(iii) Le produit vectoriel ∧ est une application bilinéaire alternée de E × E dans E.

(iv) Si u et v ne sont pas colinéaires, alors u, v, u ∧ v est une base directe de E. b

u
(v) On suppose la famille (u, v) orthonormale. Alors :
v
(u, v, w) est une base orthonormale directe de E si et seulement si w = u ∧ v.

(vi) Soit B une base ORTHONORMALE DIRECTE de E. Si on note (x, y, z) et (x ′ , y ′, z ′ ) les coordonnées respectives de
u et v dans B , alors u ∧ v a pour coordonnées yz ′ − z y ′ , z x ′ − xz ′ , x y ′ − y x ′ .

 Explication  Pour toute base orthonormale directe (i, j, k) de E, les familles ( j, k, i) et (k, i, j) sont aussi des bases
orthonormales directes de E, donc d’après l’assertion (v) : k = i ∧ j, i = j ∧ k et j = k ∧ i.

Démonstration Pour suivre la preuve qui suit, n’oubliez pas que tout produit mixte n’est qu’un déterminant,
donc nul sur toute famille liée.

 Æ
(i) Les vecteurs u et u ∧ v sont orthogonaux car : u ∧ v, u = u, v, u = 0.

7
Christophe Bertault — Mathématiques en MPSI


 Æ
(ii) Si u et v sont colinéaires : u ∧ v 2 = u ∧ v, u ∧ v = u, v, u ∧ v = 0, donc : u ∧ v = 0E .
Supposons réciproquement que : u ∧ v = 0 E . Comme : dim Vect(u, v) ¶ 2 < 3 = dim E, nous
pouvons
  nous

donner un
vecteur
quelconque x de E \ Vect(u, v). La famille (u, v, x) est alors liée car :
u, v, x = u ∧ v, x = 0 E , x = 0. Comme x n’est pas combinaison linéaire de u et v, il en découle que
la famille (u, v) est liée.
(iii) D’après (ii), si le produit vectoriel est bilinéaire, il est aussi alterné — nul sur toute famille dont deux
vecteurs sont égaux. Montrons simplement sa linéarité par rapport à la deuxième variable. Soient u, v, w ∈ E
et λ, µ ∈ R. Pour tout x ∈ E :
¬ ¶ ¬ ¶

     
u∧(λv+µw)−λ(u∧v)−µ(u∧w), x = u∧(λv+µw), x −λ u∧v, x −µ u∧w, x = u, λv+µw, x −λ u, v, x −µ u, w, x = 0,

donc le vecteur : u ∧ (λv + µw) − λ(u ∧ v) − µ(u ∧ w) est orthogonal à tout vecteur — en particulier à
lui-même — donc est nul : u ∧ (λv + µw) = λ(u ∧ v) + µ(u ∧ w).

(iv) Supposons u et v non colinéaires. Montrer que u, v, u∧ v est une base directe de E revient à montrer que
 
son déterminant dans une base directe est strictement positif, par exemple que : u, v, u ∧ v > 0, ce
 
2 (ii)
qui est vrai car : u, v, u ∧ v = u ∧ v, u ∧ v = u ∧ v > 0.
(v) Supposons (u, v) orthonormale.
• Montrons
 que‹(u, v, u ∧ v) est une base orthonormale directe de E. Ce qui est sûr, c’est que la famille
u∧v
u, v, est orthonormale directe d’après (i) et (iv), donc :
ku ∧ vk ® ¸ • ˜
u ∧ v u ∧ v BOND
u ∧ v = u ∧ v, = u, v, = 1.
u ∧ v ku ∧ vk
• Réciproquement, sous l’hypothèse que (u, v, w) est une base orthonormale directe de E, montrons que :
w = u ∧ v. Comme Vect(u, v) est de dimension 2, Vect(u, v)⊥ est une droite vectorielle qui contient à
la fois w et u ∧ v, donc : u ∧ v = λw pour un certain λ ∈ R. Il reste à montrer que : λ = 1, ce


  BOND
qui n’est pas compliqué : λ = λw, w = u ∧ v, w = u, v, w = 1.
(vi) Introduisons les vecteurs de B : B = (i, j, k).Comme B est orthonormale, les coordonnées
de u ∧ v
x x ′ 1
€


Š
 
dans B sont u ∧ v, i , u ∧ v, j , u ∧ v, k , donc : u ∧ v, i = u, v, i = y y ′ 0 = yz ′ − z y ′ , et il
z z ′ 0
en va de même des autres coordonnées. „

Vous aimerez peut-être aussi