Vous êtes sur la page 1sur 12

10.

Espaces préhilbertiens réels et euclidiens

I - Espaces préhilbertiens réels

1) Produit scalaire — Norme associée


Rappelons que, si E est un R-espace vectoriel, on appelle produit scalaire sur E toute forme bilinéaire
symétrique définie positive sur E, c’est-à-dire toute application (u, v) → (u|v) de E 2 dans R, notée (·|·)
vérifiant :
• ∀ (u, v) ∈ E 2 , (v|u) = (u|v) (symétrie)
• ∀ (u, u′ , v) ∈ E 3 , ∀λ ∈ R , (λ.u + u′ |v) = λ (u|v) + (u′ |v) (linéarité à gauche)
• ∀u ∈ E , (u|u) ≥ 0 et (u|u) = 0 ⇒ u = 0

NB : le produit scalaire, noté ici (u|v), est parfois noté u, v ou encore u · v s’il n’y a pas risque de
confusion avec une multiplication interne (cf. les espaces de fonctions, de matrices. . . )

Définition : le couple E, (·|·) est un espace préhilbertien réel. S’il n’y a pas d’ambiguïté sur le choix
du produit scalaire, on parle de l’espace préhilbertien réel E.
Un espace euclidien est un espace préhilbertien réel de dimension finie.

Théorème : si E est un espace préhilbertien réel, l’application u → u = (u|u) est une norme sur
E, la norme euclidienne associée au produit scalaire (·|·) et l’on a l’inégalité de Cauchy-
Schwarz :
|(u|v)| ≤ u · v (avec égalité si et seulement si u, v colinéaires).
Cas d’égalité dans l’inégalité triangulaire : u + v = u + v si et seulement si u et v sont sur une
même demi-droite, c’est-à-dire si et seulement si u = 0 ou il existe λ ∈ R+ tel que v = λ.u.
Nous disposons en outre, pour tout (u, v) de E 2 , des développements :
2 2 2 2 2 2
u+v = u + v + 2 (u|v) et u−v = u + v − 2 (u|v)
qui fournissent l’identité du parallélogramme :
2 2 2 2
u+v + u−v =2 u + v
et les identités de polarisation :
1 1 1
(u|v) = u+v 2− u 2− v 2 = u 2+ v 2− u−v 2 = u+v 2− u−v 2
2 2 4
où l’on voit que les valeurs prises par le produit scalaire sont entièrement déterminées par les valeurs
prises par la norme euclidienne associée. Ainsi, une norme euclidienne étant donnée, il y a un unique
produit scalaire auquel est est associée. Mais attention ! Il existe des normes sur E qui ne sont pas des
normes euclidiennes. . .

2) Orthogonalité
Définitions : soit E un R-espace vectoriel, muni d’un produit scalaire (·|·) et · la norme associée.
• Un vecteur u de E est dit unitaire (ou normé) si et seulement s’il est de norme 1.
• Deux vecteurs u, v de E sont dits orthogonaux si et seulement si (u|v) = 0.
• Une famille (ui )i∈I de vecteurs de E est dite orthogonale si et seulement si les ui sont orthogonaux
deux à deux :
∀ (i, j) ∈ I 2 , i = j ⇒ (ui |uj ) = 0 .
• Une famille (ui )i∈I de vecteurs de E est dite orthonormale (ou orthonormée) si et seulement si les
ui sont unitaires et orthogonaux deux à deux :
∀ (i, j) ∈ I 2 , (ui |uj ) = δ i,j .
10. Espaces préhilbertiens réels et euclidiens Page 2

• Si F est un sous-espace vectoriel de E, un vecteur u est dit orthogonal à F si et seulement si u est


orthogonal à tous les vecteurs de F ; on appelle orthogonal de F l’ensemble, noté F ⊥ (ou F o ), des
vecteurs de E orthogonaux à F :
F ⊥ := {u ∈ E / ∀v ∈ F , (u|v) = 0}
• Deux sous-espaces F et G de E sont dits orthogonaux si et seulement si tout vecteur de l’un est
orthogonal à tout vecteur de l’autre (i.e. ∀ (v, w) ∈ F × G , (v|w) = 0 ).

NB : F et G sont dits perpendiculaires si et seulement si F ⊥ et G⊥ sont orthogonaux (en dimension


3, deux plans ne sont jamais orthogonaux !).

Propriétés :
1) Toute famille orthogonale de vecteurs non nuls est libre.

2) Toute famille orthonormale est libre.

3) Si F, G sont deux sous-espaces de E :


∗ F ⊥ est un sous-espace vectoriel de E et F ∩ F ⊥ = {0} ;
∗ F ⊂ F ⊥⊥ ;
∗ F ⊂ G ⇒ G⊥ ⊂ F ⊥ ;
∗ F, G orthogonaux ⇔ F ⊂ G⊥ ⇔ G ⊂ F ⊥ .
4) Des sous-espaces vectoriels orthogonaux deux à deux sont en somme directe.

Attention ! Si F est de dimension infinie, on peut avoir F F ⊥⊥ et F et F ⊥ ne sont pas toujours


supplémentaires. Pour F de dimension finie, voir §5.
1
Cf. F = R [X] dans E = C 0 ([0, 1] , R) muni du produit scalaire (f, g) → f.g ;
0
le théorème de Weierstrass (hors programme) donne F ⊥ = {0} et donc F ⊥⊥ = E.
2 2
Théorème de Pythagore : u et v sont orthogonaux si et seulement si : u + v = u + v 2.
2
NB : par récurrence, on obtient, pour (ui )i∈I famille orthogonale finie : ui = ui 2 .
i∈I i∈I

3) Exemples de référence
a) Produit scalaire associé à une base
Si B = (ei )i∈I est une base du R-espace vectoriel E, alors l’application
(u, v) → (u|v) = xi yi si u = xi .ei et v = yi .ei
i∈I i∈I i∈I
est clairement un produit scalaire sur E (par définition d’une base, il y a un nombre fini de coordonnées
non nulles pour chaque vecteur, il s’agit donc de sommes finies, même si I est infini. . . Cf. B = (X n )n∈N
dans R [X]).
(·|·) est l’unique produit scalaire sur E pour lequel B est une base orthonormale.
b) Produits scalaires canoniques
Dans un R-espace vectoriel muni d’une base canonique, le produit scalaire qui lui est associé comme
ci-dessus est appelé produit scalaire canonique :
n
• dans Rn , si u = (x1 , . . . , xn ) et v = (y1 , . . . , yn ), (u|v) = xk yk
k=1

• dans R [X], si P = ak X k et Q = bk X k , (P |Q) = ak bk


k∈N k∈N k∈N

• dans Mn (R), si A = (ai,j ) et B = (bi,j ), (A|B) = ai,j bi,j = Tr t AB = Tr At B .


i,j
10. Espaces préhilbertiens réels et euclidiens Page 3

Propriété : dans Mn (R) muni du produit scalaire canonique, les sous-espaces formés par les matrices
symétriques et antisymétriques sont supplémentaires et orthogonaux.

c) Espaces L2
Cf. le chapitre 6-§ IV-2. . . Lorsque I est un segment [a, b], l’espace L2c (I, R) des fonctions continues
de carré intégrable sur I n’est autre que C 0 ([a, b] , R).
Dans ces deux espaces, (f, g) → f g définit un produit scalaire.
I

4) Orthonormalisation de Gram-Schmidt
Théorème : soient (e1 , . . . , en ) une famille libre de vecteurs de E et les sous-espaces associés :
∀k ∈ [[1, n]] , Fk = Vect (e1 , . . . , ek ) .
Il existe une unique famille orthonormale (ε1 , . . . , εn ) de vecteurs de E telle que :
∀k ∈ [[1, n]] , Vect (ε1 , . . . , εk ) = Fk et (εk |ek ) ∈ R+∗ . (1)
De plus :
k−1 k−1
1 (vj |ek )
∀k ∈ [[1, n]] , εk = · vk où vk = ek − · v j = ek − (εj |ek ) .εj (v1 = e1 ) (2)
vk (vj |vj )
j=1 j=1

Dém. Existence : (2) définit bien par récurrence les familles (vk ) et (εk ) (vk = 0 car ek ∈ / Fk−1 , la
famille (e1 , . . . , en ) étant libre par hypothèse) ; il est aisé de vérifier que la famille (εk ) ainsi obtenue
convient.
Unicité : supposons deux familles (ε1 , . . . , εn ) et (ε′1 , . . . , ε′n ) vérifiant (1). Je montre par récurrence sur
k que Pk : (ε1 , . . . , εk ) = (ε′1 , . . . , ε′k ) est vrai pour tout k de [[1, n]] :
• P1 est vrai : ε1 et ε′1 sont sur la droite F1 = Vect (e1 ), unitaires donc égaux ou opposés ; or (ε1 |e1 ),
(ε′1 |e1 ) sont de même signe, d’où ε1 = ε′1 ;
• supposons k ≥ 2 tel que Pk−1 soit vrai ; alors εk et ε′k sont sur la normale à l’hyperplan Fk−1 de
l’espace Fk , unitaires donc égaux ou opposés ; or (εk |ek ), (ε′k |ek ) sont de même signe, d’où εk = ε′k ,
ce qui achève la récurrence.
Pour retrouver (si besoin. . . ) les coefficients de l’expression de vk , il suffit de chercher vk sous la forme
k−1
vk = ek + λi .vi
i=1
et d’écrire la condition (vj |vk ) = 0 pour obtenir directement λj , pour tout j de [[1, k − 1]].
Noter l’astuce qui consiste à utiliser une combinaison linéaire des vi (obtenus de proche en proche. . . ).
Une combinaison linéaire des ei conduirait à un système de k − 1 équations couplées.
NB : en pratique, on détermine la famille orthogonale (v1 , . . . , vn ), puis on normalise si nécessaire ;
le résultat peut être étendu à une suite de vecteurs (par exemple dans R [X]).
1
Exemple : dans E = R [X] muni du produit scalaire (P, Q) → −1 P Q, l’orthogonalisation la famille
1 3 dn n
1, X, X 2 , X 3 donne 1, X, X 2 − , X 3 − X (cf. les polynômes de Legendre : n
x2 − 1 ).
3 5 dx
Corollaire : tout espace préhilbertien de dimension finie admet des bases orthonormales.

5) Projection orthogonale sur un sous-espace de dimension finie


Théorème et définition : soient E un espace préhilbertien réel et F un sous-espace de dimension
finie de E ; l’orthogonal F ⊥ de F est un supplémentaire de F , appelé le supplémentaire orthogonal de
F ; la projection pF de E sur F parallèlement à F ⊥ est la projection orthogonale sur F .
En outre, si (ε1 , . . . , εn ) est une base orthonormale de F , on a :
n
∀u ∈ E , pF (u) = (εj |u) .εj
j=1

Enfin, F ⊥⊥ = F et IdE − pF est la projection orthogonale sur F ⊥ .


10. Espaces préhilbertiens réels et euclidiens Page 4

NB : v = pF (u) est caractérisé par v ∈ F et u − v ∈ F ⊥ avec en outre, si F = Vect (ε1 , . . . , εn ),


w ∈ F ⊥ ⇔ ∀i ∈ Nn , (εi |w) = 0 ;
n
si l’on écrit v = λj .εj , ces conditions redonnent les valeurs des λj , immédiatement si (ε1 , . . . , εn )
j=1
est une base orthonormale (à la rigueur orthogonale) de F , au prix de la résolution d’un système
de n équations à n inconnues sinon.
On remarquera que, dans l’algorithme de Schmidt, avec les notations du paragraphe précédent,
vk = ek − pFk−1 (ek ) .

Dém. du théorème Fixons une base orthonormale (ε1 , . . . , εn ) de F (il en existe d’après le paragraphe
précédent !). Compte tenu de la remarque précédente, il est facile de vérifier que, pour tout u de E, en
posant
n
v= (εj |u) .εj et w = u − v,
j=1
j’ai u = v + w avec v ∈ F et w ∈ F ⊥ ; il en résulte que E = F + F ⊥ , or je sais déjà que F ∩ F ⊥ = {0},
donc F ⊥ est bien un supplémentaire de F et l’expression de v = pF (u) est déjà apparue.
Je sais déjà que F ⊂ F ⊥⊥ . Posons G = F ⊥ ; j’ai F ⊂ G⊥ , il reste à prouver que G⊥ ⊂ F . Soit donc
u ∈ G⊥ et v = pF (u) ; v est dans F , donc dans G⊥ ; ainsi w = u − v ∈ G ∩ G⊥ , donc w = 0 et il en
résulte que u = v d’où u ∈ F .
Corollaire : distance d’un point à un sous-espace F de dimension finie.
Soit u ∈ E, l’application de F dans R qui à s ∈ F associe u − s atteint son minimum
d (u, F ) en un point et un seul, à savoir pF (u). On a :
d (u, F ) = u − pF (u) et d (u, F )2 = u|u − pF (u) = u 2
− pF (u) 2
.
Dém. Soient v = pF (u) et w = u−v ; pour tout s de F , u−s = (v − s) +w avec v −s et w orthogonaux.
J’ai donc, grâce au théorème de Pythagore :
2 2 2
u−s = v−s + w ;
2
le minimum est w , atteint pour s = v (et seulement en ce point) ; enfin, u − v étant orthogonal à v,
2
w = (u − v|u − v) = (u|u − v)
2 2 2
et u = v + w pour u = 0 dans la relation ci-dessus.
Inégalité de Bessel : si (ε1 , . . . , εn ) est une famille orthonormale, alors
n
∀u ∈ E , (εj |u)2 ≤ u 2

j=1

(et donc, si (εj ) est une suite orthonormale, la série (εj |u)2 est convergente).
Exemples :
1) Soient a un vecteur non nul de E, D = Vect (a) et H = D⊥ ; on a, pour u ∈ E
1/2
(a|u) |(a|u)| 2 (a|u)2
pD (u) = ·a ; d (u, H) = ; d (u, D) = u −
a 2 a a 2

+∞
2 −x
2) Déterminer inf x3 − ax2 + bx + c e dx
(a,b,c)∈R3 0
+∞
(idée : se placer dans R [X] muni du produit scalaire (P, Q) → (P |Q) = P (x) Q (x) e−x dx ;
0
2
on cherche d X 3 , R2 [X] . . . )
10. Espaces préhilbertiens réels et euclidiens Page 5

II - Espaces euclidiens

1) Bases orthonormales — Supplémentaire orthogonal


Rappel : on appelle espace vectoriel euclidien tout espace préhilbertien réel de dimension finie.
Propriétés : soit E un espace vectoriel euclidien :
∗ E possède des bases orthonormales ;
∗ pour tout sous-espace vectoriel F de E,
F ⊕ F⊥ = E ; dim F ⊥ = dim E − dim F ; F ⊥⊥ = F ;
∗ toute famille orthonormale peut être complétée en une base orthonormale de E.
Dém. Les deux premières assertions découlent immédiatement du paragraphe précédent ; pour la
troisième, choisir une base orthonormale de l’orthogonal du sous-espace engendré par la famille ini-
tiale.

2) Écritures matricielles et expressions analytiques dans une b.o.n.


Soient E un espace vectoriel euclidien et B = (e1 , . . . , en ) une base de E.
n n
• Si u = xi .ei et v = yj .ej , alors, par bilinéarité :
i=1 j=1
n n
(u|v) = ai,j xi yj où ai,j = (ei |ej ) .
i=1 j=1
Ainsi, en notant A la matrice A = (ai,j ), et en identifiant R et M1,1 (R) :
   
x1 y1
u 2 = t XAX où X =  ...  , Y =  ...  .
   
(u|v) = t XAY et
xn yn
A est la matrice du produit scalaire dans la base B.
B est orthonormale si et seulement si A = In .
Si B est une base orthonormale :
• la famille (xk )1≤k≤n des coordonnées dans B de u ∈ E est donnée par : ∀k xk = (ek |u) ;
n n n n

• si u = xk .ek et v = yk .ek , alors (u|v) = t XY = xk yk et u = t XX = x2k ;
k=1 k=1 k=1 k=1

• si f ∈ L (E), la matrice de f dans B est (ei |f (ej )) 1≤i,j≤n


(en effet, (ei |f (ej )) est la i-ième coordonnée de f (ej ) dans B !).

3) Isomorphisme canonique d’un espace vectoriel euclidien avec son dual


Pour tout espace vectoriel E, on note E ∗ l’espace des formes linéaires sur E, appelé le dual de E.
Théorème : soit E un espace vectoriel euclidien ; l’application
Φ : E → E∗
a → ϕa : u → (a|u)
est un isomorphisme. En particulier,
∀ϕ ∈ E ∗ , ∃!a ∈ E , ∀u ∈ E , ϕ (u) = (a|u) .
Dém. Φ est linéaire de E dans E ∗ , injective et dim E = dim E ∗ .
Normale à un hyperplan : soit ϕ une forme linéaire non nulle sur E et H l’hyperplan Ker ϕ ; le vecteur
a de E tel que ϕ (u) = (a|u) est un vecteur normal à H, il engendre la normale à H (la droite H ⊥ ).
10. Espaces préhilbertiens réels et euclidiens Page 6
III - Endomorphismes symétriques
Dans cette section, E désigne un espace vectoriel euclidien.
Définition : f ∈ L (E) est dit symétrique si et seulement si
∀ (u, v) ∈ E 2 , (f (u) |v) = (u|f (v)) .

Caractérisation : soit f ∈ L (E) ; les assertions suivantes sont équivalentes :


a) f est symétrique ;
b) la matrice de f dans une (toute) base orthonormale est symétrique.

Propriétés : 1) L’ensemble des endomorphismes symétriques de E est un sous-espace de L (E), iso-


n(n + 1)
morphe au sous-espace des matrices symétriques de Mn (R), de dimension .
2
2) p ∈ L (E) est une projection orthogonale si et seulement si
p2 = p et p est symétrique.
Dém. 1) Fixer une base orthonormale de E. . .
2) ⇒ : soit F sous-espace de E et p = pF : p est un projecteur donc p2 = p et, dans une base
Ik 0
orthonormale adaptée à la décomposition E = F ⊕ F ⊥ , p a pour matrice A = où k = dim F .
0 0
A est symétrique, donc p est symétrique.
⇐ : soit p ∈ L (E) tel que p = p2 et p symétrique ; p est un projecteur, soient donc F = Im p et
G = Ker p ; j’ai
∀ (u, v) ∈ F × G , (u|v) = (p (u) |v) = (u|p (v)) = 0
donc G ⊂ F ⊥ d’où, compte tenu des dimensions, G = F ⊥ ; p est donc la projection orthogonale sur F .
Exercice : on définit de même les endomorphismes antisymétriques, caractérisés par les assertions
équivalentes suivantes, pour f ∈ L (E) :
1) ∀ (u, v) ∈ E 2 , (f (u) |v) = − (u|f (v))
2) ∀u ∈ E , (f (u) |u) = 0

3) la matrice de f dans une (toute) base orthonormale est antisymétrique.

Exemple : dans E espace vectoriel euclidien orienté de dimension 3, les endomorphismes antisymétriques
sont les fa : 'u → 'a ∧ 'u ; si 'a a pour coordonnées (α, β, γ) dans une base orthonormale directe B, alors
 
0 −γ β
MB (fa ) =  γ 0 −α  .
−β α 0
L’application 'a → fa est un isomorphisme de E dans le sous-espace de L (E) formé des endomorphismes
antisymétriques.

IV - Automorphismes orthogonaux, matrices orthogonales


Dans cette section, E désigne un espace vectoriel euclidien.

1) Automorphismes orthogonaux
Définition : f ∈ L (E) est dit automorphisme orthogonal (ou isométrie vectorielle) de E si et seulement
si f conserve le produit scalaire, c’est-à-dire
∀ (u, v) ∈ E 2 , (f (u) |f (v)) = (u|v)
(si c’est le cas, f ∈ GL (E), puisque f (u) = 0 ⇒ u = 0).

Caractérisation : soit f ∈ L (E) ; les assertions suivantes sont équivalentes.


a) f est un automorphisme orthogonal de E ;
b) f conserve le produit scalaire : ∀ (u, v) ∈ E 2 , (f (u) |f (v)) = (u|v) ;
c) f conserve la norme : ∀u ∈ E , f (u) = u ;
d) f transforme une (toute) base orthonormale en base orthonormale.
8. Espaces préhilbertiens réels et euclidiens Page 7

Dém. Pour la seule implication non triviale c) ⇒ b) , utiliser une identité de polarisation, par exemple
1
(f (u) |f (v)) = f (u) + f (v) 2 − f (u) 2 − f (v) 2 ,
2
puis la linéarité de f. . .
Propriétés : 1) L’ensemble des automorphismes orthogonaux de E est un sous-groupe de GL (E) , ◦ ,
appelé groupe orthogonal de E et noté O (E).
2) Si f ∈ O (E), alors det f = ±1 et Sp f ⊂ {−1, 1}.

Corollaire : les isométries d’une droite vectorielle D sont IdD et −IdD .

Définition : 1) Les automorphismes orthogonaux de E de déterminant +1 sont les rotations de E ;


elles forment un sous-groupe de O (E), appelé groupe spécial orthogonal de E et noté
SO (E).
2) Les symétries orthogonales par rapport à un hyperplan sont les réflexions de E (le
déterminant d’une réflexion vaut −1).

Propriété : dans E espace vectoriel euclidien orienté, les rotations sont les endomorphismes qui trans-
forment une (toute) base orthonormale directe en base orthonormale directe.

2) Matrices orthogonales
Définition : M ∈ Mn (R) est une matrice orthogonale si et seulement si l’endomorphisme de Rn
canoniquement associé à M est un automorphisme orthogonal de Rn (muni du produit
scalaire canonique).

Propriété : l’ensemble des matrices orthogonales est un sous-groupe de GLn (R), le groupe orthogonal
On (R) (noté aussi O (n)), isomorphe à O (Rn ). L’ensemble SOn (R) (noté aussi SO (n))
des matrices de rotation de Rn est un sous-groupe de On (R), isomorphe à SO (Rn ).

Caractérisation : on retrouve les caractérisations des automorphismes orthogonaux de Rn et, pour


M ∈ Mn (R), les assertions suivantes sont équivalentes :
a) M est une matrice orthogonale ;
b) t M × M = In ; c) M × t M = In ; d) M inversible et M −1 = t M ;
e) t M est une matrice orthogonale ;
f ) Les vecteurs colonnes de M forment une base orthonormale de Rn ;
g) Les vecteurs lignes de M forment une base orthonormale de Rn .
Dém. Remarquer que, si les Cj désignent les vecteurs colonnes de M, alors la matrice de Gram t M × M
est remplie par les produits scalaires (produit scalaire canonique dans Rn ) :
t
M × M = (Ci |Cj ) 1≤i,j≤n
.
De même M × t M contient les produits scalaires des vecteurs lignes.
Propriétés : 1) Soient B une base orthonormale de E et B′ une base de E. B′ est une base orthonormale
si et seulement si la matrice de passage PB,B′ est une matrice orthogonale.
2) Si M ∈ On (R), alors det M = ±1, SpC M ⊂ U et SpR M ⊂ {−1, 1}.
 
a1
Exemple fondamental : soient 'a un vecteur unitaire de E et C =  ...  le vecteur colonne de
 
an
ses coordonnées dans une base orthonormale B = (e1 , . . . , en ) ; la matrice dans B de la projection
orthogonale sur la droite Vect 'a est
P = C t C = (ai aj )1≤i,j≤n .
On en déduit immédiatement :
1) la matrice de la projection orthogonale sur l’hyperplan (Vect 'a)⊥ : In − P
2) la matrice de la symétrie orthogonale par rapport à la droite Vect'a : 2P − In
3) la matrice de la réflexion d’hyperplan (Vect 'a)⊥ : In − 2P .
10. Espaces préhilbertiens réels et euclidiens Page 8

3) Produit mixte — Produit vectoriel


a) Définitions
Soit E un espace euclidien de dimension n, orienté (cf. Chap. 1).
Rappel : soient f ∈ L (E), (u1 , . . . , un ) un système de n vecteurs de E et B une base de E ; on a
detB f (u1 ) , . . . f (un ) = det f × detB u1 , . . . un .
De même, si B′ est une autre base de E, P la matrice de passage de B à B′ , on a
detB u1 , . . . un = det P × detB′ u1 , . . . un .
(Ces relations proviennent des égalités matricielles correspondantes, elles-mêmes découlant de la défi-
nition du produit de deux matrices et des relations “habituelles” Y = AX et X = P X ′ . . . )

Théorème et définition : soit S = (u1 , . . . , un ) un système de n vecteurs de E. Le déterminant de


S dans une base orthonormale directe de E ne dépend pas du choix de
ladite base orthonormale directe. Sa valeur est appelée le produit mixte de
u1 , . . . , un , noté [u1 , . . . , un ].
Théorème et définition : soient u1 , . . . , un−1 n − 1 vecteurs de E (ici n ≥ 3). Il existe un unique
vecteur v de E tel que : ∀w ∈ E (v|w) = [u1 , . . . , un−1 , w].
v est appelé le produit vectoriel de u1 , . . . , un−1 , noté u1 ∧ . . . ∧ un−1 .

b) Propriétés du produit vectoriel dans E, euclidien orienté de dimension 3


'u ∧ 'v est défini par : ∀w ' ∈ E , ['u, 'v , w]
' = ('u ∧ 'v | w).
'
L’application ('u, 'v) → 'u ∧ 'v de E × E dans E est bilinéaire et antisymétrique ('v ∧ 'u = −'u ∧ 'v ).
Deux vecteurs 'u et 'v de E sont colinéaires si et seulement si 'u ∧ 'v = '0.
Quels que soient 'u et 'v, 'u ∧ 'v est orthogonal à 'u et à 'v .
Si 'u et 'v sont orthogonaux, 'u ∧ 'v = 'u . 'v .
Si la famille ('u, 'v) est orthonormale, 'u ∧ 'v est l’unique vecteur w
' tel que ('u, 'v , w)
' soit une base ortho-
normale directe.
Si 'i, 'j, 'k est orthonormale, alors 'k = ±'i ∧ 'j.
Si 'i, 'j, 'k est orthonormale directe, alors 'i ∧ 'j = 'k, 'j ∧ 'k = 'i et 'k ∧ 'i = 'j.
Expression analytique : soit B = 'i, 'j, 'k est une base orthonormale directe de E et 'u, 'u′ deux vecteurs,
de coordonnées respectives (x, y, z) et (x′ , y ′ , z ′ ) dans B. Alors
y y′ ' x x′ ' x x′ '
'u ∧ 'u′ = ′ .i − ′ .j + .k.
z z z z y y′

4) Isométries vectorielles d’un plan euclidien orienté


a) Le groupe O2 (R)

Théorème : le groupe SO2 (R) des matrices des rotations de M2 (R) est l’ensemble des
cos θ − sin θ
Rθ = , θ ∈ R.
sin θ cos θ
SO2 (R) , × est un groupe commutatif. Plus précisément,
∀ θ, θ′ ∈ R2 , Rθ × Rθ′ = Rθ+θ′ = Rθ′ × Rθ .

NB : il en résulte que P −1 Rθ P = Rθ pour toute matrice P de SO2 (R), autrement dit l’isométrie rθ
de R2 ayant pour matrice Rθ dans une base orthonormale directe a pour matrice Rθ dans toute
base orthonormale directe. rθ est appelée la rotation d’angle θ dans R2 (bien sûr, l’angle d’une
rotation est défini modulo 2π).

Théorème : le groupe O2 (R) est constitué des matrices de rotation et des matrices de réflexion
cos θ sin θ θ θ
Sθ = (symétrie orthogonale par rapport à la droite Vect cos , sin ).
sin θ − cos θ 2 2
10. Espaces préhilbertiens réels et euclidiens Page 9

b) Isométries vectorielles d’un plan euclidien orienté


Soient P un plan euclidien orienté et r ∈ SO (P ) une rotation de P .
cos θ − sin θ
Il existe θ réel tel que la matrice de r dans toute base orthonormale directe soit Rθ = .
sin θ cos θ
r est appelée la rotation d’angle θ (modulo 2π).
Les isométries de P sont les rotations et les réflexions.
Soient rθ et rθ′ les rotations d’angles respectifs θ et θ′ ; rθ et rθ′ commutent et leur composée est la
rotation d’angle θ + θ′ .
Écriture complexe d’une rotation : si B = 'i, 'j est une base orthonormale directe de P et si
'u = x.'i + y.'j est le vecteur d’affixe z = x + iy, alors rθ ('u) est le vecteur d’affixe eiθ .z.
c) Angles orientés et aires en dimension 2
Soient P un plan euclidien orienté et 'u, 'v deux vecteurs unitaires de P .
On définit modulo 2π l’angle orienté θ = ('u, 'v) par
cos θ = 'u · 'v et sin θ = ['u, 'v]
(c’est l’angle de l’unique rotation qui transforme 'u en 'v).
Rappel : l’angle non orienté entre 'u et 'v est arccos ('u · 'v ) (élément de [0, π]).
−−→ −→
Propriété : l’aire algébrique d’un parallélogramme ABDC est le produit mixte AB, AC .
1 −−→ −→
L’aire algébrique du triangle ABC est AB, AC .
2
Le signe indique l’orientation ; pour les aires géométriques, prendre les valeurs absolues !

5) Isométries vectorielles en dimension 3


Dans tout ce paragraphe E désigne un espace vectoriel euclidien orienté de dimension 3.
a) Réduction d’une isométrie en base orthonormale
Lemme : soit f ∈ O (E) ; f admet 1 ou −1 pour valeur propre et l’orthogonal de tout sous-espace
propre de f est stable par f .
On classifie alors les isométries vectorielles de E selon la dimension de l’espace des vecteurs invariants
F = Ker (f − IdE ).
• Cas dim F = 3 : alors f = IdE (rotation triviale !).
• Cas dim F = 2 : alors f induit une isométrie de la droite D = F ⊥ , qui est nécessairement −IdD
(sinon f = IdE ). f est donc la réflexion de plan F ; sa matrice dans une base orthonormale adaptée
à la décomposition E = F ⊕ F ⊥ est diag (1, 1, −1). En particulier det f = −1, c’est une isométrie
indirecte.
• Cas dim F = 1 : alors f induit une isométrie du plan P = F ⊥ , qui n’admet que le vecteur nul
comme vecteur invariant ; c’est donc une rotation de P (différente de l’identité) et f est alors une
rotation de E (cf. déterminant par blocs). Plus précisément, dansune base orthonormale
 adaptée
cos θ − sin θ 0
à la décomposition E = P ⊕ F , f admet une matrice de la forme  sin θ cos θ 0, θ ∈ R\2πZ.
0 0 1
On dit que f est une rotation d’axe F .
• Cas dim F = 0 : alors f admet −1 comme valeur propre ; soit G = E−1 (f ) ; f induit une isométrie
de G⊥ qui n’admet aucune valeur propre : G⊥ est donc de dimension 0 ou 2 ;
∗ soit G⊥ = {0} : alors f = −IdE !
∗ soit G⊥ est un plan P et f induit une rotation de P différente de l’identité ; dansune base ortho- 
cos θ − sin θ 0
normale adaptée à la décomposition E = P ⊕G, f admet une matrice de la forme  sin θ cos θ 0
0 0 −1
on a alors f = r ◦ s = s ◦ r où r est une rotation d’axe G et s la réflexion de plan P = G .⊥
10. Espaces préhilbertiens réels et euclidiens Page 10

b) Axe et angle d’une rotation


Étant donné un vecteur non nul de E, on appelle axe orienté par 'a la droite Vect ('a) orientée par le
choix de ('a) comme base directe. Compte tenu de l’orientation de E, le choix de 'a pour orienter la
droite qu’il engendre induit une orientation du plan P normal à 'a : une base 'i, 'j de P est directe si
et seulement si la base 'i, 'j, 'a de E est directe.
Soit alors r une rotation de E, distincte de IdE . L’ensemble de ses vecteurs invariants est une droite,
que l’on oriente par un de ses vecteurs directeurs 'a. Il en résulte une orientation du plan normal à 'a,
qui permet de définir modulo 2π l’angle θ de la rotation de ce plan induite par r.
On dit alors que r est la rotation d’axe orienté par 'a et d’angle θ (modulo 2π).
Si l’on choisit 'a unitaire et 'i, 'j tels que 'i, 'j, 'a soit une base orthonormale directe de E, alors la
 
cos θ − sin θ 0
matrice de r dans cette base est R =  sin θ cos θ 0.
0 0 1
Attention ! r est aussi la rotation d’axe orienté par −'a et d’angle −θ. . . En effet, 'i, −'j, −'a est une
base orthonormale  directe adaptée à cette orientation et
 ' = cos θ.'i + sin (−θ) . −'j
 r i

 r −'j = − sin (−θ) .'i + cos θ. −'j




r (−'a) = −'a
NB : un système de valeurs propres de R dans C est eiθ , e−iθ , 1 , donc R est diagonalisable sur R
si et seulement si θ ∈ πZ, soit si et seulement si R = I3 ou R = diag (−1, −1, 1), r étant alors
la symétrie orthogonale par rapport à son axe, appelée aussi demi-tour d’axe Vect ('a) (rotation
d’angle π, pour laquelle l’orientation de l’axe n’a pas d’importance. . . ).
Pour écrire la matrice dans une base donnée d’une rotation donnée
Étant données une base B de E (par exemple la base canonique de R3 ) et la rotation r d’axe orienté
par le vecteur unitaire 'a, d’angle θ, pour obtenir la matrice de r dans B, il suffit de choisir un vecteur
unitaire 'i orthogonal à 'a, de poser 'j = 'a ∧'i de sorte que 'i, 'j, 'a soit une base orthonormale directe de
E, alors on connaît la matrice R de r dans cette base (cf. ci-dessus) et l’on en déduit la matrice de r
dans la base B, qui est P RP −1 , où P est la matrice de passage de B à 'i, 'j, 'a . Si B est orthonormale,
on a P ∈ O3 (R) et donc P −1 = t P !
Pour reconnaître une matrice de rotation et déterminer son axe et son angle
On voit immédiatement si une matrice R de M3 (R) est orthogonale, puisque cela équivaut au fait que
la famille (C1 , C2 , C3 ) de ses vecteurs colonnes est orthonormale. Dans ce cas, R est une matrice de
rotation si et seulement si C1 ∧ C2 = +C3 ; sachant que C1 ∧ C2 = ±C3 , on peut se contenter de
comparer les signes d’une des coordonnées (non nulle !) de ces deux vecteurs (il n’est pas nécessaire de
calculer det R. . . ).
S’il s’avère que R ∈ SO3 (R), son axe est l’ensemble des vecteurs invariants, fourni si besoin par la
résolution du système (R − I) X = 0 (c’est nécessairement une droite, donc il suffit de trouver un
vecteur invariant non nul. . . ).
Une fois l’axe déterminé, on choisit un vecteur non nul 'a pour l’orienter, reste à trouver l’angle θ.
Pour cela, on détermine cos θ grâce à la relation Tr (R) = 1 + 2 cos θ et l’on détermine le signe de sin θ
grâce à la propriété suivante (ce qui permet de connaître θ modulo 2π).
Propriété : si r est la rotation d’axe orienté par 'a et d’angle θ, alors pour tout vecteur 'u non colinéaire
à 'a, sin θ est du signe du produit mixte ['u, r ('u) , 'a].
Exemples :
• Écrire la matrice dans la base canonique de R3 de la rotation d’axe orienté par (1, 1, −1) d’angle
π/3.
• Caractériser géométriquement l’endomorphisme de R3 de matrice R dans la base canonique, où
 
8 1 −4
1
R= −4 4 −7 
9 1 8 4
10. Espaces préhilbertiens réels et euclidiens Page 11
c) Angles et volumes en dimension 3
La notion d’angle orienté dans l’espace n’a pas de sens (à moins de se situer dans un plan orienté, par
le choix d’une orientation de sa normale. . . ).
'u · 'v
On en reste donc, pour deux vecteurs non nuls 'u et 'v, à l’angle non orienté α = arccos ∈ [0, π].
'u . 'v
|'u · 'v|
L’angle (toujours non orienté) des deux droites Vect ('u) et Vect ('v ) est arccos ∈ [0, π/2].
'u . 'v
L’angle de deux plans est par définition l’angle de leurs normales (deux plans sont perpendiculaires si
et seulement si leurs normales sont orthogonales. . . ).
−− → −→ −−→
Le volume du parallélépipède construit sur trois arêtes [A, B], [A, C], [A, D] est AB, AC, AD .
1 −− → −→ −−→
Le volume du tétraèdre ABCD est AB, AC, AD .
6

V - Réduction des endomorphismes symétriques et des matrices


symétriques réelles
E désigne toujours un espace euclidien.

1) Théorème spectral (fondamental !)


Soit f un endomorphisme symétrique de E ; E est somme directe orthogonale des sous-espaces propres
de f ; autrement dit, f est diagonalisable dans une base orthonormale, ou encore il existe une base
orthonormale de E formée de vecteurs propres de f.
Corollaire : soit A une matrice symétrique réelle; A est diagonalisable avec une matrice de passage
orthogonale : ∃P ∈ On (R) , P −1 AP diagonale (avec P −1 = t P !).
Lemme 1 : si A matrice symétrique réelle, le polynôme caractéristique de A est scindé sur R.
Dém. Le polynôme caractéristique χA de A, considérée comme matrice de Mn (C), est scindé sur C
(théorème de d’Alembert-Gauss !) ; soient donc λ ∈ SpC (A) et Z ∈ Mn,1 (C) un vecteur propre associé :
 
z1
Z =  ...  = 0 et AZ = λ.Z ;
 
zn
j’ai alors, en transposant et en conjuguant, comme A est symétrique réelle,
t
Z.A = λ.t Z d’où t
Z.A.Z = λ.t Z.Z c’est-à-dire λ.t Z.Z = λ.t Z.Z
or
n
t
Z.Z = |zk |2 > 0 donc λ = λ ;
k=1
par conséquent, χA est à coefficients réels et toutes ses racines en tant que polynôme de C [X] sont
réelles : χA est scindé sur R.
NB : de même, les valeurs propres d’une matrice antisymétrique réelle sont imaginaires pures.

Lemme 2 : si f ∈ L (E) est symétrique et F un sous-espace de E stable par f, F ⊥ est stable par f.
Dém. Supposons F stable par f ; soit alors u ∈ F ⊥ :
∀v ∈ F , (f (u) |v) = (u|f (v)) = 0
puisque u ∈ F ⊥ et f (v) ∈ F ; donc f (u) ∈ F ⊥ , ceci pour tout u de F ⊥ : F ⊥ est stable par f .

Dém. du théorème : par récurrence forte sur n = dim E ; soit, pour n ∈ N∗ , Pn l’assertion : “pour
tout endomorphisme symétrique f de tout espace vectoriel euclidien de dimension n, il existe une base
orthonormale de E formée de vecteurs propres de f”.
• P1 est triviale ;
• hypothèse de récurrence : soit n ≥ 2 tel que Pk soit vraie pour tout k < n ;
10. Espaces préhilbertiens réels et euclidiens Page 12
• Soient alors E un espace vectoriel euclidien de dimension n et f un endomorphisme symétrique de
E, A la matrice de f dans une base orthonormale de E. D’après le lemme 1, A admet au moins
une valeur propre réelle λ, soit donc F = Eλ (f) le sous-espace propre associé ; F est stable par
f et donc G = F ⊥ est également stable par f d’après le lemme 2. Soit g l’endomorphisme de G
induit par f ; muni du produit scalaire induit par celui de E, G est un espace vectoriel euclidien de
dimension p < n et g est un endomorphisme symétrique de G :
∀ (u, v) ∈ G2 (g (u) |v)G = (f (u) |v)E = (u|f (v))E = (u|g (v))G
donc l’hypothèse de récurrence me fournit une base orthonormale de G formée de vecteurs propres de
g, qui sont aussi des vecteurs propres de f ! Il suffit alors de la compléter par une base orthonormale
de F (également formée de vecteurs propres de f !) pour conclure.

Attention ! Dans Mn (C) (pour n ≥ 2 !), il existe des matrices symétriques non diagonalisables. . .
i 1
Voir par exemple .
1 −i

2) Endomorphismes et matrices symétriques positifs


(compléments hors programme mais très classiques. . . )
Définition : un endomorphisme symétrique f de E est dit positif (resp. défini positif ) si la forme
bilinéaire symétrique associée B : (u, v) → (u|f (v)) l’est, c’est-à-dire si et seulement si
∀u ∈ E , B (u, u) = (u|f (u)) ≥ 0 (resp. ∀u ∈ E\ {0} , B (u, u) = (u|f (u)) > 0).

NB : les endomorphismes symétriques définis positifs sont associés aux produits scalaires sur E.
Ce sont les endomorphismes symétriques positifs et bijectifs.

Caractérisation : un endomorphisme symétrique f de E est positif (resp. défini positif) si et seulement


si ses valeurs propres sont dans R+ (resp. R+∗ ).
Dém. Soit f un endomorphisme symétrique de E ; le théorème spectral me fournit une base orthonor-
male de vecteurs propres de E et le système (λ1 , . . . , λn ) des valeurs propres associées :
∀k ∈ Nn , f (ek ) = λk .ek .
n
Pour tout vecteur u = xk .ek de E, j’ai
k=1
n
B (u, u) = (u|f (u)) = λk .x2k .
k=1
Il en résulte immédiatement que, si tous les λk sont dans R+ (resp. R+∗ ), alors f est positif (resp.
défini positif).
Pour la réciproque, il suffit de remarquer que : ∀k ∈ Nn λk = (ek |f (ek )).
Définition : une matrice symétrique réelle A est dite positive (resp. définie positive) si l’endomorphisme
de Rn canoniquement associé Can A l’est, c’est-à-dire si et seulement si
∀X ∈ Mn,1 (R) , t XAX ≥ 0 (resp. ∀X ∈ Mn,1 (R) \ {0} , t XAX > 0).

Caractérisation : une matrice symétrique réelle est positive (resp. définie positive) si et seulement si
ses valeurs propres sont dans R+ (resp. R+∗ ).

Exemple important : soit A ∈ Mn (R), la matrice B = t AA est symétrique positive ; de plus Can B a
même noyau que Can A et
rg t AA = rg A.

Dém. Il est clair que B est symétrique et que : ∀X ∈ Mn,1 (R) , t XBX = AX 2 ≥ 0.
Pour le second point, la relation ci-dessus montre que : BX = 0 ⇒ AX = 0. Or la réciproque est
banale et il en résulte Ker Can B = Ker Can A ; l’égalité des rangs résulte alors du théorème du rang !
Le lecteur attentif aura reconnu en t AA la matrice de Gram des vecteurs colonnes de A.

Vous aimerez peut-être aussi