Vous êtes sur la page 1sur 13

c Christophe Bertault - MPSI

Espaces euclidiens
Dans ce chapitre, on travaille seulement avec le corps de base R. Les lettres n, p, q . . . désignent des entiers naturels non nuls.

1 Produit scalaire, norme et distance

1.1 Produit scalaire

Définition (Produit scalaire, espace préhilbertien réel, espace euclidien)


• Soit E un R-espace vectoriel. On appelle produit scalaire sur E toute forme bilinéaire symétrique définie positive, i.e.
toute application (·|·) : E × E −→ R :  
 λx + µy z = λ(x|z) + µ(y|z)
1) bilinéaire : ∀x, y, z ∈ E, ∀λ, µ ∈ R,  ;

x λy + µz = λ(x|y) + µ(x|z)
2) symétrique : ∀x, y ∈ R, (y|x) = (x|y) ;
3) définie : ∀x ∈ E, (x|x) = 0 ⇐⇒ x = 0E ;
4) positive : ∀x ∈ E, (x|x) > 0.
• Un espace vectoriel réel muni d’un produit scalaire est appelé un espace préhilbertien réel. Un espace préhilbertien réel
de dimension finie est appelé un espace euclidien.

   Explication Par chance, le produit scalaire usuel avec lequel vous avez l’habitude de travailler depuis quelques années
est un produit scalaire au sens de cette définition, sur R2 ou R3 . Cela dit, en principe, cette définition devrait
 vous étonner. En
début d’année, nous avons défini le produit scalaire de deux vecteurs au moyen de la formule « ~ u ~v = k~ u, ~v ) »,
uk.k~v k. cos(~
qui supposait connues les notions de norme d’un vecteur et d’angle de deux vecteurs. Cette fois, nous définissons la notion de
produit scalaire indépendamment de ces deux notions. Le comble, dans cette histoire, c’est que les notions de norme et d’angle
vont découler naturellement de notre définition du produit scalaire.

$ $ $ Attention ! Il existe de nombreux produits scalaires


( conformes à cette définition dans le plan ou l’espace ; jusqu’ici,
 R2  −→ R
nous en avons privilégié un. Par exemple, l’application (·|·) : est un produit
(x, y), (x0 , y 0 ) 7−→ 3xx0 + xy 0 + yx0 + yy 0
scalaire sur R2 , distinct du produit scalaire usuel.
En effet La bilinéarité et la symétrie sont évidentes. Pour la définition et la positivité, soit u = (x, y) ∈ R2 . Alors
(u|u) = 3x2 + 2xy + y 2 = 2x2 + (x + y)2 > 0. De plus ce produit scalaire est nul si et seulement si x = x + y = 0,
i.e. x = y = 0.

Remarque
• La bilinéarité du produit scalaire implique en particulier ceci : ∀x ∈ E, (x|0E ) = (0E |x) = 0.
• La symétrie et la linéarité par rapport à une variable seulement suffisent à montrer la bilinéarité.



• Le produit scalaire de deux vecteurs x et y est aussi parfois noté (x, y), x y , x, y ou encore x · y.

1.2 Norme et distance associées à un produit scalaire

Définition (Norme) Soit E un espace préhilbertien réel de produit scalaire (·|·).


• On appelle norme (euclidienne) sur E associée au produit scalaire (·|·) l’application k · k : E −→ R+ définie par :
p
∀x ∈ E, kxk = (x|x).
• On appelle distance (euclidienne) sur E associée au produit scalaire (·|·) l’application d : E × E −→ R+ définie par :
∀x, y ∈ E, d(x, y) = kx − yk.

1
c Christophe Bertault - MPSI

$ $ $ Attention ! La notion de distance n’est pas forcément celle que l’on croit ! Quand on travaille dans R2 ou R3 avec le
produit scalaire usuel, la définition 
précédente nous  ramène bien entendu à la notion de distance intuitive. Mais si par exemple
on travaille avec le produit scalaire (x, y), (x0 , y 0 ) 7−→ 3xx0 + xy 0 + yx0 + yy 0 , les choses deviennent beaucoup moins intuitives.

Par exemple, k~ık = 3 et k~k = 1.

Remarque La norme est homogène ; cela signifie que : ∀x ∈ E, ∀λ ∈ R, kλxk = |λ|.kxk.

Théorème (Inégalité de Cauchy-Schwarz, inégalité triangulaire) Soient E un espace préhilbertien réel et x, y, z ∈ E.




(i) Inégalité de Cauchy-Schwarz : (x|y) 6 kxk.kyk.
Cette inégalité est une égalité si et seulement si x et y sont colinéaires.

 Version norme : kx + yk 6 kxk + kyk
(ii) Inégalité triangulaire : .

Version distance : d(x, z) 6 d(x, y) + d(y, z)
Cette inégalité est une égalité si et seulement si x et y sont colinéaires de même sens.


 Version norme :

 kxk − kyk 6 kx + yk 6 kxk + kyk
Inégalité triangulaire généralisée : .


 Version distance : d(x, y) − d(x, z) 6 d(x, z) 6 d(x, y) + d(y, z)

   Explication
• En début d’année, nous n’avons même pas pris la peine d’énoncer l’inégalité de Cauchy-Schwarz car elle était alors

complètement triviale. En effet : ~ u · ~v = k~
uk.k~v k. cos(~ uk.k~v k, car la fonction cosinus est bornée entre −1 et
u, ~v ) 6 k~
1. A présent, notre définition abstraite du produit scalaire rend cette inégalité non triviale et précieuse.
• Ci-dessous, deux petits dessins pour justifier l’appellation « inégalité triangulaire » : à gauche, la version norme (où x, y, z
sont considérés comme des vecteurs) ; à droite la version distance (où x, y, z sont considérés comme des points).
y
b b

x y
b
x b b
z
Démonstration x+y
(i) L’inégalité de Cauchy-Schwarz est évidente si y = 0E ; supposons donc y 6= 0E . On a, pour tout t ∈ R :

kx + tyk2 = x + ty x + ty = kxk2 + 2t(x|y) + t2 kyk2 .

La fonction t 7−→ kx+tyk2 est donc polynomiale de degré 2 et positive ou nulle sur R tout entier. Conclusion :
son discriminant (réduit) est négatif ou nul. Bref : (x|y)2 − kxk2 .kyk2 6 0. C’est l’inégalité de Cauchy-
Schwarz.


Comment s’interprète enfin le cas d’égalité (x|y) = kxk.kyk ?

Le discriminant de la fonction polynomiale t 7−→ kx + tyk2 est nul

(x|y) = kxk.kyk ⇐⇒

⇐⇒ La fonction polynomiale t 7−→ kx + tyk2 possède un zéro


⇐⇒ ∃ t0 ∈ R/ kx + t0 yk2 = 0 ⇐⇒ ∃ t0 ∈ R/ x + t0 y = 0E
⇐⇒ x et y sont colinéaires.

(ii) La version distance est immédiate à partir de la version norme. Calculons. . .

 Cauchy-Schwarz 2
kx + yk2 = x + y x + y = kxk2 + 2(x|y) + kyk2 6 kxk2 + 2kxk.kyk + kyk2 = kxk + kyk .

Un petit coup de racine carré, et l’inégalité triangulaire est démontrée.


Notre preuve montre par ailleurs que cette inégalité est une égalité si et seulement si (x|y) = kxk.kyk. Si
c’est le cas, alors en particulier x et y sont colinéaires via (i). Quitte à permuter x et y, il existe donc λ ∈ R
tel que y = λx. Aussitôt : λkxk2 = (x|λx) = (x|y) = kxk.kyk = kxk.kλxk = |λ|.kxk2 , de sorte que soit x
est nul, soit λ = |λ|, i.e. λ > 0. Dans les deux cas x et y sont colinéaires de même sens. La réciproque est
immédiate.
L’inégalité triangulaire généralisée découle de l’inégalité triangulaire « de base ». Si vous n’êtes pas convain-
cus, retournez mettre votre nez dans notre chapitre sur les nombres complexes. 

2
c Christophe Bertault - MPSI

Théorème (Identités du parallélogramme et de polarisation) Soient E un espace préhilbertien réel et x, y ∈ E.



(i) Identité du parallélogramme : kx + yk2 + kx − yk2 = 2 kxk2 + kyk2 .
1   1  
(ii) Identités de polarisation : (x|y) = kx + yk2 − kxk2 − kyk2 = kx + yk2 − kx − yk2 .
2 4

   Explication
L’identité du parallélogramme affirme que la somme des carrés des côtés d’un parallélo- x y x−
gramme est égal à la somme des carrés des longueurs de ses diagonales. x+ y
b b

y
 2 2 2
 kx + yk = kxk + 2(x|y) + kyk ♣
Démonstration Tout commence avec les relations : .

kx − yk2 = kxk2 − 2(x|y) + kyk2 ♠
(i) Pour l’identité du parallélogramme, on additionne ♣ et ♠.
(ii) La première identité de polarisation n’est qu’une réécriture de ♣. La seconde s’obtient en soustrayant ♠
de ♣. 

1.3 Exemples


 Rn × Rn −→ R
n   n
Exemple (Produit scalaire canonique sur R ) L’application X est un produit

 (xk )16k6n , (yk )16k6n 7−→ x k yk
k=1
scalaire sur Rn appelé le produit scalaire canonique sur Rn .  n n
R ×R −→ R
Il est équivalent de définir ce produit scalaire sous la forme matricielle t .
(X, Y ) 7−→ XY
En effet La bilinéarité et la symétrie sont évidentes. Pour la définition et la positivité, soit X = (xk )16k6n ∈ Rn .
Xn
Alors (X|X) = x2k > 0, et l’égalité n’a lieu que si xk est nul pour tout k ∈ J1, nK, i.e. si X = 0.
k=1

 2
 Rn [X]
 −→
n
R
Exemple L’application X est un produit scalaire sur Rn [X].
 (P, Q)
 7−→ P (k)Q(k)
k=0

En effet La symétrie est évidente. Pour la bilinéarité, contentons-nous de montrer la linéarité par rapport à la
première variable — cela suffit par symétrie. Soient P, Q, R ∈ Rn [X] et λ, µ ∈ R.
n n n
 X  X X
λP + µQ R = λP (k) + µQ(k) R(k) = λ P (k)R(k) + µ Q(k)R(k) = λ(P |R) + µ(Q|R).
k=0 k=0 k=0

n
X
Pour la définition et la positivité, soit P ∈ Rn [X]. Alors (P |P ) = P (k)2 > 0, et l’égalité n’a lieu que si P (k) = 0
k=0
pour tout k ∈ J0, nK, i.e. si 0, 1, . . . , n sont des racines de P ; or dans ce cas P possède (n + 1) racines distinctes au
moins et est de degré au plus n, donc P = 0.

 2
 C [0, 1], R −→ R 
Z 1
Exemple L’application est un produit scalaire sur C [0, 1], R .
 (f, g) 7−→ f (t)g(t) dt
0

En effet La bilinéarité et la symétrie sont évidentes. Pour la définition et la positivité, soit f ∈ C [0, 1], R . Alors
Z 1
(f |f ) = f (t)2 dt > 0, et l’égalité n’a lieu que si f = 0 ; en effet, l’intégrale d’une fonction continue positive est
0
nulle si et seulement si la fonction intégrée est identiquement nulle.


$ $ $ Attention ! Muni du produit scalaire défini ci-dessus, C [0, 1], R n’est pas un espace euclidien car ce n’est pas un
R-espace vectoriel de dimension finie. C’est seulement un espace préhilbertien réel.

3
c Christophe Bertault - MPSI

2 Orthogonalité

2.1 Vecteurs unitaires et orthogonaux

Définition (Vecteur unitaire, vecteurs orthogonaux) Soient E un espace préhilbertien réel et x, y, x1 , x2 , . . . , xn ∈ E.


• On dit que x est unitaire (ou normé) si kxk = 1.
• On dit que x et y sont orthogonaux si (x|y) = 0 ; cette relation se note x ⊥ y.
• On dit que (x1 , x2 , . . . , xn ) est orthogonale si xi et xj sont orthogonaux pour tous i, j ∈ J1, nK, i 6= j.
• On dit que (x1 , x2 , . . . , xn ) est orthonormale (ou orthonormé) si elle est orthogonale
 et si xi est unitaire pour tout
1 si i = j
i ∈ J1, nK ; cela revient à dire que : ∀i, j ∈ J1, nK, (xi |xj ) = δij , où δij = .
0 si i 6= j

   Explication Remarquez bien en quoi cette définition achève de mettre la géométrie la tête en bas : jusqu’ici, pour
vous, la notion d’orthogonalité était première et le produit scalaire second ; à présent c’est le contraire : la notion d’orthogonalité
repose sur la définition préalable d’un produit scalaire. Cela implique en particulier qu’à tout produit scalaire correspond une
notion d’orthogonalité. Les angles droits ne sont droits que relativement à la donnée d’un produit scalaire.

Exemple Pour le produit scalaire canonique de Rn , la base canonique de Rn est orthonormale. C’est facile et important,
vérifiez-le impérativement.
~
Exemple
  ~ı ~ı − 3~ ~
u
Pour le produit scalaire (x, y), (x0 , y) 7−→ 3xx0 + xy 0 + yx0 + yy 0 sur R2 , les vecteurs ~
u = √ et ~v = √ forment b

3 6 ~ı
2
une base orthonormale de R . Vérifiez-le ! Cela nous fait donc apparemment un drôle d’angle droit ; mais vous devez ~v
considérer que c’est bel et bien un angle droit : c’est juste que votre œil n’est pas adapté à ce produit scalaire.

Z 1 
Exemple Les fonctions x 7−→ 1 et x 7−→ sin(2πx) sont orthogonales pour (f, g) 7−→ f (x)g(x) dx sur C [0, 1], R .
0
Z 1 Z 1  x=1
cos(2πx)
En effet 1 × sin(2πx) dx = sin(2πx) dx = − = 0.
0 0 2π x=0

Théorème (Propriétés des familles orthogonales) Soient E un espace préhilbertien réel et (x1 , x2 , . . . , xn ) une famille
orthogonale de E.
(i) Si aucun des xk n’est nul, k ∈ J1, nK, alors (x1 , x2 , . . . , xn ) est libre.
2
X n X n
kxk k2 .

(ii) Théorème de Pythagore : x k =

k=1 k=1

   Explication A C
Mais quel rapport avec notre bien-aimé théorème de Pythagore des
−→classes de Troisième
−→ ?2 En Troisième,

2 2 2 −→ 2 −→ 2
on nous apprend que BC = AB + AC ; à présent, voilà que AB + AC = AB + AC , i.e.
B D
AD2 = AB 2 + AC 2 . Ces deux résultats n’en font qu’un, car évidemment AD = BC.

Démonstration
Xn
(i) Supposons xk 6= 0E pour tout k ∈ J1, nK. Soient λ1 , λ2 , . . . , λn ∈ R tels que λk xk = 0E . Fixons i ∈ J1, nK.
! k=1
Xn Xn
λk (xk |xi ) = λi kxi k2 . Or xi 6= 0E , donc kxi k =

Alors : 0 = (0E |xi ) = λ k x k x i = 6 0, d’où λi = 0.

k=1 k=1
La famille (x1 , x2 , . . . , xn ) est libre comme voulu.
n n !
X 2 n
X X X X n
X n
X
kxk k2 .

(ii) xk = xk xl = (xk |xl ) = (xk |xl ) = (xk |xk ) = 

k=1 k=1 l=1 16k,l6n 16k,l6n k=1 k=1
k=l

4
c Christophe Bertault - MPSI

Corollaire (Base orthonormale d’un espace euclidien) Soit E un espace euclidien de dimension n et e1 , e2 , . . . , en ∈ E.
Les assertions suivantes sont équivalentes :
(i) (e1 , e2 , . . . , en ) est une base orthonormale de E. (ii) (e1 , e2 , . . . , en ) est une famille orthonormale de E.

   En pratique Si vous voulez montrer que n vecteurs donnés forment une base orthonormale en dimension n, il
vous suffit de montrer que ces vecteurs forment une famille orthonormale.

Démonstration L’implication (i) =⇒ (ii) est évidente. Réciproquement, supposons que (e1 , e2 , . . . , en ) est une
famille orthonormale de E. Alors cette famille est libre en vertu du théorème précédent. Composée de n vecteurs
dans un espace vectoriel de dimension n, c’est donc une base de E. 

2.2 Sous-espaces vectoriels orthogonaux

Définition (Sous-espaces vectoriels orthogonaux) Soient E un espace préhilbertien réel et F et G deux sous-espaces
vectoriels de E. On dit que F et G sont orthogonaux si tout vecteur de F est orthogonal à tout vecteur de G, i.e. si :
∀f ∈ F, ∀g ∈ G, (f |g) = 0. Cette relation se note F ⊥ G.


Exemple Soit E un espace préhilbertien réel. Alors 0E est orthogonal à tout sous-espace vectoriel de E car en vertu de
la linéraité du produit scalaire : ∀x ∈ E, (x|0E ) = 0.

 
Exemple Dans le plan vectoriel R2 muni de son produit scalaire canonique, les droites R × 0 et 0 × R sont orthogonales.

Théorème (Sous-espaces vectoriels orthogonaux de dimension finie) Soient E un espace préhilbertien réel et F et G
deux sous-espaces vectoriels de dimension finie, de bases respectives (f1 , f2 , . . . , fm ) et (g1 , g2 , . . . , gn ). Les assertions suivantes
sont équivalentes :
(i) F ⊥ G. (ii) ∀(i, j) ∈ J1, mK × J1, nK, (fi |gj ) = 0.

   Explication Bref, on peut vérifier l’orthogonalité de F et G en vérifiant seulement que tout vecteur d’une base fixée
de F est orthogonal à tout vecteur d’une base fixée de G.

Démonstration L’implication (i) =⇒ (ii) est évidente. Réciproquement, faisons l’hypothèse que (fi |gj ) = 0
m
X Xn
pour tout (i, j) ∈ J1, mK × J1, nK. Soient x = xi fi ∈ F et y = yj gj ∈ G. Alors :
i=1 j=1

m
n !
X X X

(x|y) = xi fi yj g j = xi yj (fi |gj ) = 0 comme voulu. 

i=1 j=1 16i6m
16j6n

2.3 Orthogonal d’un sous-espace vectoriel

Définition (Orthogonal d’un sous-espace vectoriel) Soient E un espace préhilbertien réel et F un sous-espace vectoriel
de E.
• On appelle orthogonal de F dans E, noté F ⊥ (ou parfois F ◦ ), l’ensemble des vecteurs de E qui sont orthogonaux à
tous les vecteurs de F .
• Alors F ⊥ est un sous-espace vectoriel de E orthogonal à F .

• Les sous-espaces vectoriels F et F ⊥ sont en somme directe, i.e. F ∩ F ⊥ = 0E .

• On a l’inclusion suivante : F ⊆ F ⊥⊥ .

5
c Christophe Bertault - MPSI

$ $ $ Attention ! Si E est un espace préhilbertien réel quelconque, il n’est pas vrai en général que F et F ⊥ sont
supplémentaires dans E, ils sont seulement en somme directe ; bref, on n’a pas forcément E = F + F ⊥ . De même, on n’a pas
forcément F ⊥⊥ = F . Nous verrons cependant que ces résultats sont vrais si E est euclidien.

Démonstration
• Montrons que F ⊥ est un sous-espace vectoriel de E.
1) Déjà 0E ∈ F ⊥ car : ∀f ∈ F, (0E |f ) = 0.

2) Soient x, y ∈ F ⊥ et λ, µ ∈ R. Pour tout f ∈ F : λx + µy f = λ(x|f ) + µ(y|f ) = λ.0 + µ.0 = 0.
Ceci montre bien que λx + µy est orthogonal à tout vecteur de F , i.e. que λx + µy ∈ F ⊥ .
∈F ∈F ⊥

 ⊥
z}|{ z}|{ 
• Montrons que F ∩ F = 0E . Soit x ∈ F ∩ F . Alors x x = 0, et donc x = 0E par définition du
produit scalaire.
• Montrons que F ⊆ F ⊥⊥ . Soit f ∈ F . Montrer que f ∈ F ⊥⊥ , c’est montrer que f est orthogonal à tout
vecteur de F ⊥ . Or pour tout x ∈ F ⊥ , f et x sont orthogonaux puisque f ∈ F et x ∈ F ⊥ . Il est donc bien
vrai que f ∈ F ⊥⊥ . 

 ⊥ 
Exemple Si E est un espace préhilbertien réel, 0E = E et E ⊥ = 0E .
La seconde égalité doit être comprise et apprise sous la forme suivante : le seul vecteur de E orthogonal à tous les vecteurs de
E est 0E .
En effet
 ⊥
• Le vecteur nul est orthogonal à tout vecteur, donc E ⊆ 0E . L’inclusion inverse est une évidence.
• En tant que sous-espace vectoriel de E, E ⊥ contient 0E . Inversement, soit x ∈ E ⊥ . Alors x est orthogonal à
tout vecteur de E, donc en particulier à lui-même : (x|x) = 0, i.e. kxk = 0. On obtient aussitôt x = 0E
par définition du produit scalaire.

Exemple Pour le produit scalaire (P, Q) 7−→ P (−1)Q(−1) + P (0)Q(0) + P (1)Q(1) sur R2 [X] : R0 [X]⊥ = Vect(X, 3X 2 − 2).
En effet Soit P = aX 2 + bX + c ∈ R2 [X].
P ∈ R0 [X]⊥ ⇐⇒ ∀λ ∈ R, (P |λ) = 0 ⇐⇒ (P |1) = 0 par linéarité du produit scalaire
⇐⇒ (a − b + c) + c + (a + b + c) = 0
⇐⇒ 2a + 3c = 0. On en déduit le résultat voulu.

3 Cas particulier des espaces euclidiens


$ $ $ Attention ! Dans cette partie, on ne travaille qu’avec des espaces euclidiens, i.e. des espaces préhilbertiens réels de
dimension finie.

3.1 Procédé d’orthonormalisation de Gram-Schmidt



Théorème (Procédé d’orthonormalisation de Gram-Schmidt) Soient E 6= 0E un espace euclidien et (e1 , e2 , . . . , en )
une base de E. On peut transformer la base (e1 , e2 , . . . , en ) en une base orthonormale (u1 , u2 , . . . , un ) de E telle que :

∀k ∈ J1, nK, Vect(e1 , e2 , . . . , ek ) = Vect(u1 , u2 , . . . , uk ).


k−1
X
ek − (ek |ui )ui
i=1
Pour tout k ∈ J1, nK, on n’a que deux choix possibles pour la construction de uk : uk est soit le vecteur k−1
, soit
X

ek − (ek |ui )ui

i=1
son opposé. La construction de uk requiert donc la construction de u1 , u2 , . . . , uk−1 (procédé itératif).

   En pratique Vous devez impérativement connaître la démonstration de ce résultat, i.e. savoir construire la base
orthonormale (u1 , u2 , . . . , un ) à partir de la base quelconque (e1 , e2 , . . . , en ).

6
c Christophe Bertault - MPSI

u3
e3
Démonstration
e1 b

• La figure ci-contre illustre en dimension 3 la construction des vecteurs u1 , u2 et u3 , u1


dans cet ordre, à partir des vecteurs e1 , e2 et e3 . Remarquez bien que u1 ∈ Vect(e1 ), u2
que u2 ∈ Vect(e1 , e2 ), que u3 ∈ Vect(e1 , e2 , e3 ), etc.
e2
• La construction commence simplement. La famille (e1 ) est libre, donc e1 6= 0E , et donc on peut poser
e1
u1 = . Il est clair que Vect(e1 ) = Vect(u1 ).
ke1 k

• Soit k ∈ J1, nK. Supposons qu’on ait réussi à construire une famille orthonormale (u1 , u2 , . . . , uk−1 ) telle que
Vect(e1 , e2 , . . . , ep ) = Vect(u1 , u2 , . . . , up ) pour tout p ∈ J0, k − 1K et partons à la recherche d’un vecteur
uk tel que :
1) (u1 , u2 , . . . , uk ) est orthonormale ;
2) Vect(e1 , e2 , . . . , ek ) = Vect(u1 , u2 , . . . , uk ).

• Analyse : Commençons par supposer qu’un tel vecteur uk existe et tâchons de déterminer sa tête. En tout
cas, comme Vect(e1 , e2 , . . . , ek ) = Vect(u1 , u2 , . . . , uk ), uk est combinaison linéaire de e1 , e2 , . . . , ek ; mais
comme aussi Vect(e1 , e2 , . . . , ek−1 ) = Vect(u1 , u2 , . . . , uk−1 ), e1 , e2 , . . . , ek−1 sont eux-mêmes combinaisons
linéaires de u1 , u2 , . . . , uk−1 . Par conséquent uk est combinaison linéaire de u1 , u2 , . . . , uk−1 , ek . Donnons-
k−1
X
nous des coefficients associés à cette combinaison linéaire : uk = akk ek + aik ui .
i=1
Utilisons le fait que, par hypothèse, uk est orthogonal aux vecteurs u1 , u2 , . . . , uk−1 . Pour tout i ∈ J1, k − 1K :
k−1
! k−1
X X

0 = (uk |ui ) = akk ek + ajk uj ui = akk (ek |ui ) + ajk (uj |ui ) = akk (ek |ui ) + aik ,

j=1 j=1

k−1
X
ou encore : aik = −akk (ek |ui ). Ceci montre que : uk = akk ûk , où ûk = ek − (ek |ui )ui .
i=1
1 ±1
Mais enfin kuk k = 1 par hypothèse, donc |akk | = , i.e. akk = . Finalement, nous venons de
kûk k kûk k
ûk
montrer que uk = ± ; le vecteur uk , s’il existe, est donc complètement déterminé par la donnée de
kûk k
u1 , u2 , . . . , uk−1 et ek , au signe près.

k−1
X
• Synthèse : Réciproquement, commençons par poser ûk = ek − (ek |ui )ui .
i=1
Peut-on avoir ûk = 0E ? Si ce vecteur était nul, ek serait combinaison linéaire de u1 , u2 , . . . , uk−1 , et donc
de e1 , e2 , . . . , ek−1 puisque Vect(e1 , e2 , . . . , ek−1 ) = Vect(u1 , u2 , . . . , uk−1 ). Cela contredirait la liberté de la
famille (e1 , e2 , . . . , ek ) donnée initialement.
ûk ûk
Puisque ûk 6= 0E , nous pouvons donc poser uk = — on pourrait choisir uk = − .
kûk k kûk k
1) Montrons que (u1 , u2 , . . . , uk ) est orthonormale. Comme (u1 , u2 , . . . , uk−1 ) l’est par hypothèse de
récurrence, nous devons juste montrer que uk est unitaire et orthogonal aux vecteurs u1 , u2 , . . . , uk−1 . Pour
ûk kûk k
le caractère unitaire de uk : kuk k = kûk k = kûk k . Pour les orthogonalités enfin, soit j ∈ J1, k − 1K.

k−1
!

1 1 X 1  
(uk |uj ) = (ûk |uj ) = ek − (ek |ui )ui uj = (ek |uj ) − (ek |uj )(uj |uj ) = 0.
kûk k kûk k i=1
kûk k

2) Montrons que Vect(e1 , e2 , . . . , ek ) = Vect(u1 , u2 , . . . , uk ).


Or Vect(e1 , e2 , . . . , ek−1 ) = Vect(u1 , u2 , . . . , uk−1 ), donc Vect(e1 , e2 , . . . , ek ) = Vect(u1 , u2 , . . . , uk−1 , ek ).
Mais par définition, uk est combinaison linéaire des vecteurs u1 , u2 , . . . , uk−1 et ek , on obtient donc l’égalité
Vect(e1 , e2 , . . . , ek ) = Vect(u1 , u2 , . . . , uk ) comme voulu.

• Notre construction est terminée : nous avons construit les uns après les autres des vecteurs u1 , u2 , . . . , un
satisfaisant les conclusions du théorème. Notez bien que les vecteurs ainsi construits sont presque uniques :
à chaque étape, on a le choix entre seulement deux vecteurs, égaux au signe près. La famille (u1 , u2 , . . . , un )
obtenue est orthonormale et composée de n vecteurs en dimension n, donc c’est une base de E. 


 R2 [X]2 7−→
Z
R
1
Exemple L’application est un produit scalaire sur R2 [X]. Quand on orthonormalise la
 (P, Q) 7−→ P (t)Q(t) dt
0 √ √ 
base canonique (1, X, X 2 ), on obtient la base orthonormale 1 , 3(2X − 1) , 5(6X 2 − 6X + 1) .

7
c Christophe Bertault - MPSI

En effet Nous allons construire une base orthonormale (P0 , P1 , P2 ) de R2 [X] à partir de la base (1, X, X 2 ).
Z 1
1
• Construction de P0 : Calculons k1k : k1k2 = dt = 1, donc k1k = 1. Posons alors P0 = = 1.
0 k1k
• Construction de P1 : Soit λ ∈ R.
Z 1
1
(X − λP0 |P0 ) = 0 ⇐⇒ λ = (X|P0 ) ⇐⇒ λ= t dt ⇐⇒ λ= .
0 2
 
1
Ainsi P0 , X − est une famille orthogonale. Or :
2
2 Z 1  2 "  3 #t=1
X − 1 = 1 1 1 1 1 1

t− dt = t− = , donc X − = √ .
2 0 2 3 2 12 2 2 3
t=0

1
X−
Posons finalement P1 = 2 = √3(2X − 1). Alors (P0 , P1 ) est une famille orthonormale.
1
X −

2
• Construction de P2 : Soient λ, µ ∈ R.
(X 2 − λP0 − µP1 |P0 ) = 0 et(X 2 − λP0 − µP1 |P1 ) = 0 ⇐⇒ λ = (X 2 |P0 ) et µ = (X 2 |P1 )
Z 1 Z 1 √
⇐⇒ λ = t2 dt et µ = t2 × 3(2t − 1) dt
0 0
 t=1 √
1 √ 4
t t3 3 1
⇐⇒ λ= et µ= 3 − = = √ . Rappel :
3 2 3 6 Z 1
t=0 2 3 α 1
t dt =
1 1 1 0 α+1
Ainsi X 2 −P0 − √ P1 = X 2 − X + est orthogonal à P0 et P1 . Or :
3 2 3 6
2 Z 1  2 Z 1 
X − X + 1 =
2 2 1 4 3 4t2 t 1 1 1 4 1 1 1 1 1
t − t + dt = t − 2t + − + dt = −2× + × − × + = ,
6 0 6 0 3 3 36 5 4 3 3 3 2 36 180
1

√ X2 − X +
2 1
donc X − X + = 6 5. Posons finalement P2 =
6 = √5(6X 2 −6X +1). Alors (P , P , P )
0 1 2
6 X 2 − X + 1
6
est une famille orthonormale de trois vecteurs, donc une base orthonormale de R2 [X].


Corollaire (Existence de bases orthonormales) Soit E 6= 0E un espace euclidien. Alors E possède une base orthonor-
male.

Démonstration Comme E est de dimension finie non nulle, E possède une base, et donc une base orthonormale,
modulo le théorème d’orthonormalisation de Gram-Schmidt. 


Corollaire (Complétion d’une famille orthonormale en une base orthonormale) Soit E 6= 0E un espace euclidien.
Toute famille orthonormale de E peut être complétée en une base orthonormale de E.

Démonstration Soit (e1 , e2 , . . . , ep ) une famille orthonormale de E. Alors (e1 , e2 , . . . , ep ) est libre. Or E est de
dimension finie non nulle, donc on peut compléter (e1 , e2 , . . . , ep ) en une base de E. On peut ensuite transformer
cette base en une base orthonormale au moyen du procédé d’orthonormalisation de Gram-Schmidt. Ce procédé
n’affecte pas les vecteurs e1 , e2 , . . . , ep qui forment déjà une famille orthonormale, et nous avons donc complété
notre famille de départ en une base orthonormale de E. 

3.2 Coordonnées dans une base orthonormale



Théorème (Coordonnées dans une base orthonormale) Soient E 6= 0E un espace euclidien, (e1 , e2 , . . . , en ) une base
orthonormale de E et x ∈ E.
n
X  
Alors : x = (x|ek )ek . En d’autres termes, les coordonnées de x dans (e1 , e2 , . . . , en ) sont (x|e1 ), (x|e2 ), . . . , (x|en ) .
k=1

8
c Christophe Bertault - MPSI

Démonstration Notons (x1 , x2 , . . . , xn ) les coordonnées de x dans (e1 , e2 , . . . , en ). Pour tout k ∈ J1, nK :
n
! n n
X X X

(x|ek ) = x l e l e k = xl (el |ek ) = xl δkl = xk . Et voilà. 

l=1 l=1 l=1

   
~ı ~ı − 3~
Exemple Pour le produit scalaire (x, y), (x0 , y 0 ) 7−→ 3xx0 + xy 0 + yx0 + yy 0 sur R2 , nous avons déjà vu que √ , √
r ! 3 6
1 2
est une base orthonormale. Les coordonnées de ~ dans cette base sont √ , − .
3 3
! ! r
~ı 1   1 ~ı − 3~ 1   2

En effet ~ √ = √ (0, 1) (1, 0) = √ et ~ √ = √ (0, 1) (1, −3) = − .
3 3 3 6 6 3


Théorème (Expression du produit scalaire et de la norme dans une base orthonormale) Soient E 6= 0E un
espace euclidien et x, y ∈ E de coordonnées respectives (x1 , x2 , . . . , xn ) et (y1 , y2 , . . . , yn ) dans une certaine base orthonormale
de E. Alors : v
n u n
X uX
(x|y) = x k yk et kxk = t x2k .
k=1 k=1

En termes matriciels, si X est la colonne des coordonnées de x et Y celle des coordonnées de y :



(x|y) = t XY et kxk = t XX.

   Explication Ce résultat montre que finalement, le produit scalaire canonique sur Rn est un modèle pour tous les
produits scalaires des espaces euclidiens. Calculer le produit scalaire (x|y) dans un espace euclidien abstrait revient à calculer le
produit scalaire canonique des coordonnées des vecteurs x et y dans une base orthonormale fixée quelconque.

$ $ $ Attention ! Ces formules sont complètement fausses si la base dans laquelle les coordonnées sont données n’est pas
orthonormale.

Démonstration Notons (e1 , e2 , . . . , en ) la base orthonormale considérée.


n
n ! n
X X X X X X

(x|y) = x k ek yl e l = xk yl (ek |el ) = xk yl δkl = x k yl = x k yk .

k=1 l=1 16k,l6n 16k,l6n 16k,l6n k=1
k=l

Le calcul de kxk est un cas particulier de ce résultat. Les expressions matricielles du produit scalaire et de la norme
résultent d’un calcul trivial. 

3.3 Représentation des formes linéaires d’un espace euclidien

Théorème (Théorème de Fischer-Riesz) Soient E un espace euclidien et f une forme linéaire de E. Il existe un unique
vecteur a ∈ E tel que : ∀x ∈ E, f (x) = (a|x).

   Explication Ce résultat a une interprétation géométrique à peu près simple. Nous savons que la donnée d’un hyperplan
H de E équivaut à la donnée d’une forme linéaire non nulle f de E. Via le théorème de Fischer-Riesz,
n la donnée o
d’un hyperplan
équivaut donc à la donnée d’un vecteur a de E. On obtient ainsi ceci : H = Ker f = x ∈ E/ (a|x) = 0 = Vect(a)⊥ .
Géométriquement, a est donc un vecteur normal à H.
(
E −→  L(E, R) 
Démonstration Nous allons montrer que l’application linéaire φ : est un isomor-
a 7−→ x 7−→ (a|x)
phisme. La bijectivité de φ n’est autre que le résultat voulu. Mais comme
 dim L(E, R) = dim E × dim R = dim E,
il nous suffit en fait de montrer que φ est injective, i.e. que Ker φ = 0E .
Soit a ∈ Ker φ. Alors (a|x) = 0 pour tout x ∈ E. En particulier, kak2 = (a|a) = 0, et donc a = 0E . 

Exemple Soit f une forme linéaire de Rn . Nous savons qu’il existe des coefficients uniques a1 , a2 , . . . , an ∈ R tels que :
∀(x1 , x2 , . . . , xn ) ∈ Rn , f (x1 , x2 , . . . , xn ) = a1 x1 + a2 x2 + . . . + an xn .
Alors on peut dire que f est représentée par le vecteur A = (a1 , a2 , . . . , an ) au sens où : ∀X ∈ Rn , f (X) = (A|X) = t AX.

9
c Christophe Bertault - MPSI

3.4 Supplémentaire orthogonal d’un sous-espace vectoriel

Théorème (Supplémentaire orthogonal d’un sous-espace vectoriel) Soient E un espace euclidien et F un sous-espace
vectoriel de E.
(i) Il existe un et un seul supplémentaire de F dans E orthogonal à F : c’est F ⊥ , appelé par conséquent le supplémentaire
orthogonal de F dans E.
(ii) On a l’égalité suivante : F ⊥⊥ = F .

$ $ $ Attention !
• L’hypothèse que E est euclidien — i.e. de dimension finie — est ici essentielle. Dans un espace préhilbertien réel quelconque,
nous avons vu que F et F ⊥ sont en somme directe et que F ⊆ F ⊥⊥ , mais rien de plus n’est vrai en général. On n’a pas
forcément E = F + F ⊥ .
• Il existe un unique supplémentaire orthogonal, mais tout plein de supplémentaires « généraux », ne l’oubliez pas.

Démonstration
(i) Raisonnons en deux temps.
• Montrons d’abord que F ⊥ est un supplémentaire de F dans E orthogonal à F . Il nous suffit en
fait de montrer que dim E = dim F + dim F ⊥ , car nous savons déjà que F ∩ F ⊥ = 0E et F ⊥ F ⊥ .
(
E −→  Rn 
Soient (f1 , f2 , . . . , fn ) une base orthonormale de F et ϕ l’application linéaire .
x 7−→ (x|fk )
16k6n

Le noyau de ϕ est l’ensemble des vecteurs de E orthogonaux à f!1 , f2 , . . . , fn , c’est donc
!! F . Quant à l’image
Xn X n
de ϕ, c’est tout Rn car : ∀(xk )16k6n ∈ Rn , ϕ

xl fl = xl fl fk = (xk )16k6n .

l=1 l=1 16k6n
Finalement, via le théorème du rang, on obtient comme voulu l’égalité :

dim E = dim Ker ϕ + dim Im ϕ = dim F ⊥ + n = dim F + dim F ⊥ .

• Montrons à présent que F ⊥ est le seul supplémentaire de F dans E orthogonal à F . Soit F 0 un


tel supplémentaire. Alors E = F ⊕ F 0 , donc dim E = dim F + dim F ⊥ = dim F + dim F 0 , d’où l’égalité
dim F 0 = dim F ⊥ . Or F ⊥ F 0 , donc F 0 ⊆ F ⊥ . Finalement F 0 = F ⊥ comme annoncé.

(ii) Nous avons déjà démontré l’inclusion F ⊆ F ⊥⊥ . Or dim E = dim F + dim F ⊥ , et pour la même raison
dim E = dim F ⊥ + dim F ⊥⊥ . Ainsi dim F = dim F ⊥⊥ et finalement F = F ⊥⊥ . 

3.5 Projecteurs orthogonaux et symétries orthogonales

Définition (Projecteur orthogonal, symétrie orthogonale) Soient E un espace euclidien et F un sous-espace vectoriel
de E.
• On appelle projection orthogonale sur F ou projecteur orthogonal sur F la projection sur F de direction F ⊥ .
• On appelle symétrie orthogonale par rapport à F la symétrie par rapport à F parallèlement à F ⊥ .
On parle plutôt de réflexion par rapport à F si F est un hyperplan de E.

F⊥ F⊥
0 0
f x = f +f 0 f x = f + f0

F b
F b
0E 0E
f = p(x) f
Projection Symétrie
   Explication
orthogonale orthogonale
−f 0

s(x)
10
c Christophe Bertault - MPSI

Théorème (Expression d’un projecteur orthogonal dans une base orthonormale) Soient E un espace euclidien, F
un sous-espace vectoriel de E, (f1 , f2 , . . . , fn ) une base orthonormale de F et p le projecteur orthogonal sur F .
n
X
Alors pour tout x ∈ E : p(x) = (x|fk )fk .
k=1

Démonstration Complétons (f1 , f2 , . . . , fn ) en une base orthonormale (f1 , f2 , . . . , fp ) de E. Soit alors x ∈ E.


p
X
Nous avons déjà montré que x = (x|fk )fk . Or pour k ∈ Jn + 1, pK, fk est orthogonal aux vecteurs f1 , f2 , . . . , fn ,
k=1
∈F ∈F ⊥
z }| { z }| {
n p
X X
donc à F tout entier ; bref, fk ∈ F ⊥ . La décomposition x = (x|fk )fk + (x|fk )fk donne alors aussitôt le
k=1 k=n+1
résultat voulu, si l’on veut bien se souvenir de ce qu’est une projection par définition. 


Exemple Soit F = Vect(sin,
Z π cos), sous-espace vectoriel de C [−π, π], R . Le projeté orthogonal de t 7−→ t sur F pour le
produit scalaire (f, g) 7−→ f (t)g(t) dt est la fonction t 7−→ 2 sin t.
−π

En effet Nous allons travailler dans l’espace euclidien E = Vect(sin, cos, f ), où f est la fonction t 7−→ t.
• Commençons par déterminer une base orthonormale de F au moyen de l’algorithme de Gram-Schmidt. Il
convient de remarquer au préalable que (sin, cos) est une base de F — et pourquoi ?
Z π Z π  t=π
1 − cos(2t) t sin(2t)
1) Tout d’abord : k sin k2 = sin2 t dt = dt = − = π. Notons
−π −π 2 2 4 t=−π
sin
alors f0 la fonction t 7−→ √ , de sorte que kf0 k = 1.
π
2) Soit ensuite λ ∈ R. Alors : (cos −λf0 |f0 ) = 0 ⇐⇒ λ = (cos |f0 ).
Z π Z π  t=π
cos t sin t sin(2t) cos(2t)
Or : (cos |f0 ) = √ dt = √ dt = − √ = 0. Ceci montre que (f0 , cos)
−π π −π 2 π 4 π t=−π
cos
est une famille orthogonale. Observant que k cos k2 = π, posons enfin f1 = √ . Alors (f0 , f1 ) est une base
π
orthonormale de F .

• Pour déterminer
Z π le projeté orthogonal deZf sur F , nous devons calculer (f |f0 ) et (f |f1 ).
h it=π π  t=π
Or : te dt = t × (−i)eit
it
− (−i)eit dt = 2iπ + i (−i)eit t=−π = 2iπ + 0 = 2iπ.
−π t=−π −π
Z π Z π
t sin t Im(2iπ) √ t cos t Re(2iπ)
Du coup, (f |f0 ) = √ dt = √ = 2 π et (f |f1 ) = √ dt = √ = 0.
−π π π −π π √ π
Enfin, le projeté orthogonal de f sur F est la fonction (f |f0 )f0 + (f |f1 )f1 = 2 πf0 , i.e. t 7−→ 2 sin t.

Exemple Soient a ∈ E, a 6= 0E , et H = Vect(a)⊥ l’unique hyperplan de E orthogonal à a. Si p est le projecteur orthogonal


(a|x)a 2(a|x)a
sur H et si r est la réflexion par rapport à H, alors : ∀x ∈ E, p(x) = x − et r(x) = x − .
kak2 kak2
 
a
En effet Notons p0 la projection orthogonale sur Vect(a). Alors p+p0 = IdE et est une base orthonormale
! kak
a a (x|a)a
de Vect(a). On a donc : ∀x ∈ E, p0 (x) = x

= , d’où l’expression de p.
kak kak kak2
Pour l’expression de r, il suffit d’observer que r = 2p − IdE .

3.6 Distance à un sous-espace vectoriel

Définition (Distance à une partie) Soient E un espace euclidien, A une partie non vide de E et x ∈ E. On appelle distance
de x à A, notée d(x, A), le réel : d(x, A) = inf d(x, a).
a∈A

   Explication Intuitivement, la distance d’un vecteur x à une partie A est la plus petite distance séparant x d’un
élément de A. Mais comment savoir si une telle « plus petite distance » existe ? En fait, elle n’existe pas nécessairement et c’est
pourquoi on n’a surtout pas posé « d(x, A) = min d(x, a) ».
a∈A

11
c Christophe Bertault - MPSI

b
x b
x

La distance de x à A d(x, A) d(x, A)


La distance de x à A
est ici un minimum
A A est ici seulement une borne inférieure.
(i.e. elle est atteinte).

n o
Démonstration Pourquoi d(x, A) est-il un réel bien défini ? L’ensemble d(x, a) est une partie de R non
a∈A
vide (car A 6= ∅) et minorée (par 0), donc possède une borne inférieure en vertu de la propriété de la borne
inférieure. 

Théorème (Distance à un sous-espace vectoriel et projecteur orthogonal) Soient E un espace euclidien, F un


sous-espace vectoriel de E et p le projecteur orthogonal sur F . Soit en outre x ∈ E. F⊥

x − p(x) x
• Alors : d(x, F ) = x − p(x) = d x, p(x) .
La distance de x à F est donc un minimum. Ce minimum n’est
atteint qu’en la projection orthogonale de x sur F .
d(x, F ) = x − p(x)
2
• Pour tout f ∈ F : kx − f k2 = p(x) − f + d(x, F )2 . F 0E
b

2
En particulier : d(x, F )2 = kxk2 − p(x) .
p(x)

Démonstration
• Par définition de p, nous savons que p(x) ∈ Im p = F et que p(x) − x ∈ Ker p = F ⊥ .
∈F ⊥ ∈F
}| { z }| { z
Soit alors f ∈ F . On a : x − f = x − p(x) + p(x) − f . Le théorème de Pythagore montre aussitôt que
2 2
kx − f k2 = x − p(x) + p(x) − f .
 n o
• Montrons à présent que d(x, F ) = x − p(x) = d x, p(x) . Pour ce faire, notons D l’ensemble d(x, f ) .
f ∈F

1) Alors x − p(x) = d x, p(x) ∈ D car p(x) ∈ F .
q 2 2
2) Mais de plus, pour tout f ∈ F : d(x, f ) = kx−f k = x − p(x) + p(x) − f > x−p(x) .

Cette inégalité montre que x − p(x) est un minorant de D.

Finalement, d x, p(x) est le plus petit élément de D, donc aussi sa borne inférieure, ce qui montre le résultat
voulu.
2
• L’assertion : ∀f ∈ F, kx − f k2 = p(x) − f + d(x, F )2 est une conséquence immédiate des deux
premiers points.
Elle montre que la distance d(x, F ) n’est atteinte que pour f = p(x), car si f 6= p(x), alors
p(x) − f > 0. 

Z 1 √ 2 6 3 1
Exemple L’intégrale t − a t − b dt est minimale pour a = et b = − ; elle vaut alors .
0 5 10 300
En effet
Z
 1 √
• Dans C [0, 1], R muni du produit scalaire (f, g) 7−→ f (t)g(t) dt, posons f0 = t 7−→ t , f1 = (t 7−→ 1),
0
Id = (t 7−→ t), E = Vect(f0 , f1 , Id) et enfin F = Vect(f0 , f1 ). Alors E est euclidien et pour tous a, b ∈ R :
Z 1
√ 2 2 2
t − a t − b dt = Id − af0 − bf1 = d Id, af0 + bf1 .
0
Z
√ 2 1
Nous sommes en quête du réel inf t − a t − b dt = inf d(Id, af0 + bf1 )2 = inf d(Id, f )2 = d(Id, F )2 .
0 a,b∈R a,b∈R f ∈F
2 2
Notons p le projecteur orthogonal sur F . Nous savons que d(Id, F )2 = Id − p(Id) = kIdk2 − p(Id) .
Nous voilà donc partis à la recherche de p(Id), avec p(Id) = af0 + bf1 pour certains a, b ∈ R à déterminer.



un projecteur, nous savons que Id − p(Id) ∈ F , autrement dit que Id − p(Id) f0 = 0 et que
• Puisque p est
Id − p(Id) f1 = 0. Or :

Z Z  2√ √ t=1
 1 √ √ 1 √ √ 2t t at2 2bt t
0 = Id − p(Id) f0 = t − a t − b t dt = t t − at − b t dt = − −
0 0 5 2 3 t=0
2 a 2b 12 − 15a − 20b
= − − = .
5 2 3 30

12
c Christophe Bertault - MPSI

Z √  t=1
 1 √ t2  2at t 1 2a 3 − 4a − 6b
et 0 = Id − p(Id) f1 = t − a t − b dt = − − bt = − −b= .
0 2 3 t=0
2 3 6
6 3
Les deux équations ainsi obtenues se résolvent aisément ; on trouve : a= et b=− .
5 10

• Calculons finalement d(Id, F )2 .


Z Z  2
2 2 1 1
6 √ 3
d(Id, F )2 = Id − p(Id) = kIdk2 − p(Id) = t2 dt − t− dt
0 0 5 10
Z Z  
1 1 1 √ 2 1 1 1 √  1 1 144 2 × 72 1
= − 12 t − 3 dt = − 144t − 72 t + 9 dt = − − +9 = .
3 100 0 3 100 0 3 100 2 3 300

13

Vous aimerez peut-être aussi