Académique Documents
Professionnel Documents
Culture Documents
Espaces euclidiens
Dans ce chapitre, on travaille seulement avec le corps de base R. Les lettres n, p, q . . . désignent des entiers naturels non nuls.
Explication Par chance, le produit scalaire usuel avec lequel vous avez l’habitude de travailler depuis quelques années
est un produit scalaire au sens de cette définition, sur R2 ou R3 . Cela dit, en principe, cette définition devrait
vous étonner. En
début d’année, nous avons défini le produit scalaire de deux vecteurs au moyen de la formule « ~ u~v = k~ u, ~v ) »,
uk.k~v k. cos(~
qui supposait connues les notions de norme d’un vecteur et d’angle de deux vecteurs. Cette fois, nous définissons la notion de
produit scalaire indépendamment de ces deux notions. Le comble, dans cette histoire, c’est que les notions de norme et d’angle
vont découler naturellement de notre définition du produit scalaire.
Remarque
• La bilinéarité du produit scalaire implique en particulier ceci : ∀x ∈ E, (x|0E ) = (0E |x) = 0.
• La symétrie et la linéarité par rapport à une variable seulement suffisent à montrer la bilinéarité.
• Le produit scalaire de deux vecteurs x et y est aussi parfois noté (x, y), xy , x, y ou encore x · y.
1
c Christophe Bertault - MPSI
$ $ $ Attention ! La notion de distance n’est pas forcément celle que l’on croit ! Quand on travaille dans R2 ou R3 avec le
produit scalaire usuel, la définition
précédente nous ramène bien entendu à la notion de distance intuitive. Mais si par exemple
on travaille avec le produit scalaire (x, y), (x0 , y 0 ) 7−→ 3xx0 + xy 0 + yx0 + yy 0 , les choses deviennent beaucoup moins intuitives.
√
Par exemple, k~ık = 3 et k~k = 1.
Explication
• En début d’année, nous n’avons même pas pris la peine d’énoncer l’inégalité de Cauchy-Schwarz car elle était alors
complètement triviale. En effet : ~ u · ~v = k~
uk.k~v k. cos(~ uk.k~v k, car la fonction cosinus est bornée entre −1 et
u, ~v ) 6 k~
1. A présent, notre définition abstraite du produit scalaire rend cette inégalité non triviale et précieuse.
• Ci-dessous, deux petits dessins pour justifier l’appellation « inégalité triangulaire » : à gauche, la version norme (où x, y, z
sont considérés comme des vecteurs) ; à droite la version distance (où x, y, z sont considérés comme des points).
y
b b
x y
b
x b b
z
Démonstration x+y
(i) L’inégalité de Cauchy-Schwarz est évidente si y = 0E ; supposons donc y 6= 0E . On a, pour tout t ∈ R :
kx + tyk2 = x + ty x + ty = kxk2 + 2t(x|y) + t2 kyk2 .
La fonction t 7−→ kx+tyk2 est donc polynomiale de degré 2 et positive ou nulle sur R tout entier. Conclusion :
son discriminant (réduit) est négatif ou nul. Bref : (x|y)2 − kxk2 .kyk2 6 0. C’est l’inégalité de Cauchy-
Schwarz.
Comment s’interprète enfin le cas d’égalité (x|y) = kxk.kyk ?
Le discriminant de la fonction polynomiale t 7−→ kx + tyk2 est nul
(x|y) = kxk.kyk ⇐⇒
Cauchy-Schwarz 2
kx + yk2 = x + y x + y = kxk2 + 2(x|y) + kyk2 6 kxk2 + 2kxk.kyk + kyk2 = kxk + kyk .
2
c Christophe Bertault - MPSI
Explication
L’identité du parallélogramme affirme que la somme des carrés des côtés d’un parallélo- x y x−
gramme est égal à la somme des carrés des longueurs de ses diagonales. x+ y
b b
y
2 2 2
kx + yk = kxk + 2(x|y) + kyk ♣
Démonstration Tout commence avec les relations : .
kx − yk2 = kxk2 − 2(x|y) + kyk2 ♠
(i) Pour l’identité du parallélogramme, on additionne ♣ et ♠.
(ii) La première identité de polarisation n’est qu’une réécriture de ♣. La seconde s’obtient en soustrayant ♠
de ♣.
1.3 Exemples
Rn × Rn −→ R
n n
Exemple (Produit scalaire canonique sur R ) L’application X est un produit
(xk )16k6n , (yk )16k6n 7−→ x k yk
k=1
scalaire sur Rn appelé le produit scalaire canonique sur Rn . n n
R ×R −→ R
Il est équivalent de définir ce produit scalaire sous la forme matricielle t .
(X, Y ) 7−→ XY
En effet La bilinéarité et la symétrie sont évidentes. Pour la définition et la positivité, soit X = (xk )16k6n ∈ Rn .
Xn
Alors (X|X) = x2k > 0, et l’égalité n’a lieu que si xk est nul pour tout k ∈ J1, nK, i.e. si X = 0.
k=1
2
Rn [X]
−→
n
R
Exemple L’application X est un produit scalaire sur Rn [X].
(P, Q)
7−→ P (k)Q(k)
k=0
En effet La symétrie est évidente. Pour la bilinéarité, contentons-nous de montrer la linéarité par rapport à la
première variable — cela suffit par symétrie. Soient P, Q, R ∈ Rn [X] et λ, µ ∈ R.
n n n
X X X
λP + µQR = λP (k) + µQ(k) R(k) = λ P (k)R(k) + µ Q(k)R(k) = λ(P |R) + µ(Q|R).
k=0 k=0 k=0
n
X
Pour la définition et la positivité, soit P ∈ Rn [X]. Alors (P |P ) = P (k)2 > 0, et l’égalité n’a lieu que si P (k) = 0
k=0
pour tout k ∈ J0, nK, i.e. si 0, 1, . . . , n sont des racines de P ; or dans ce cas P possède (n + 1) racines distinctes au
moins et est de degré au plus n, donc P = 0.
2
C [0, 1], R −→ R
Z 1
Exemple L’application est un produit scalaire sur C [0, 1], R .
(f, g) 7−→ f (t)g(t) dt
0
En effet La bilinéarité et la symétrie sont évidentes. Pour la définition et la positivité, soit f ∈ C [0, 1], R . Alors
Z 1
(f |f ) = f (t)2 dt > 0, et l’égalité n’a lieu que si f = 0 ; en effet, l’intégrale d’une fonction continue positive est
0
nulle si et seulement si la fonction intégrée est identiquement nulle.
$ $ $ Attention ! Muni du produit scalaire défini ci-dessus, C [0, 1], R n’est pas un espace euclidien car ce n’est pas un
R-espace vectoriel de dimension finie. C’est seulement un espace préhilbertien réel.
3
c Christophe Bertault - MPSI
2 Orthogonalité
Explication Remarquez bien en quoi cette définition achève de mettre la géométrie la tête en bas : jusqu’ici, pour
vous, la notion d’orthogonalité était première et le produit scalaire second ; à présent c’est le contraire : la notion d’orthogonalité
repose sur la définition préalable d’un produit scalaire. Cela implique en particulier qu’à tout produit scalaire correspond une
notion d’orthogonalité. Les angles droits ne sont droits que relativement à la donnée d’un produit scalaire.
Exemple Pour le produit scalaire canonique de Rn , la base canonique de Rn est orthonormale. C’est facile et important,
vérifiez-le impérativement.
~
Exemple
~ı ~ı − 3~ ~
u
Pour le produit scalaire (x, y), (x0 , y) 7−→ 3xx0 + xy 0 + yx0 + yy 0 sur R2 , les vecteurs ~
u = √ et ~v = √ forment b
3 6 ~ı
2
une base orthonormale de R . Vérifiez-le ! Cela nous fait donc apparemment un drôle d’angle droit ; mais vous devez ~v
considérer que c’est bel et bien un angle droit : c’est juste que votre œil n’est pas adapté à ce produit scalaire.
Z 1
Exemple Les fonctions x 7−→ 1 et x 7−→ sin(2πx) sont orthogonales pour (f, g) 7−→ f (x)g(x) dx sur C [0, 1], R .
0
Z 1 Z 1 x=1
cos(2πx)
En effet 1 × sin(2πx) dx = sin(2πx) dx = − = 0.
0 0 2π x=0
Théorème (Propriétés des familles orthogonales) Soient E un espace préhilbertien réel et (x1 , x2 , . . . , xn ) une famille
orthogonale de E.
(i) Si aucun des xk n’est nul, k ∈ J1, nK, alors (x1 , x2 , . . . , xn ) est libre.
2
X n
X n
kxk k2 .
(ii) Théorème de Pythagore :
x k
=
k=1 k=1
Explication A C
Mais quel rapport avec notre bien-aimé théorème de Pythagore des
−→classes de
Troisième
−→
?2 En
Troisième,
2 2 2
−→
2
−→
2
on nous apprend que BC = AB + AC ; à présent, voilà que
AB + AC
=
AB
+
AC
, i.e.
B D
AD2 = AB 2 + AC 2 . Ces deux résultats n’en font qu’un, car évidemment AD = BC.
Démonstration
Xn
(i) Supposons xk 6= 0E pour tout k ∈ J1, nK. Soient λ1 , λ2 , . . . , λn ∈ R tels que λk xk = 0E . Fixons i ∈ J1, nK.
! k=1
Xn Xn
λk (xk |xi ) = λi kxi k2 . Or xi 6= 0E , donc kxi k =
Alors : 0 = (0E |xi ) = λ k x k x i = 6 0, d’où λi = 0.
k=1 k=1
La famille (x1 , x2 , . . . , xn ) est libre comme voulu.
n
n !
X
2 n
X X X X n
X n
X
kxk k2 .
(ii)
xk
= xk xl = (xk |xl ) = (xk |xl ) = (xk |xk ) =
k=1 k=1 l=1 16k,l6n 16k,l6n k=1 k=1
k=l
4
c Christophe Bertault - MPSI
Corollaire (Base orthonormale d’un espace euclidien) Soit E un espace euclidien de dimension n et e1 , e2 , . . . , en ∈ E.
Les assertions suivantes sont équivalentes :
(i) (e1 , e2 , . . . , en ) est une base orthonormale de E. (ii) (e1 , e2 , . . . , en ) est une famille orthonormale de E.
En pratique Si vous voulez montrer que n vecteurs donnés forment une base orthonormale en dimension n, il
vous suffit de montrer que ces vecteurs forment une famille orthonormale.
Démonstration L’implication (i) =⇒ (ii) est évidente. Réciproquement, supposons que (e1 , e2 , . . . , en ) est une
famille orthonormale de E. Alors cette famille est libre en vertu du théorème précédent. Composée de n vecteurs
dans un espace vectoriel de dimension n, c’est donc une base de E.
Définition (Sous-espaces vectoriels orthogonaux) Soient E un espace préhilbertien réel et F et G deux sous-espaces
vectoriels de E. On dit que F et G sont orthogonaux si tout vecteur de F est orthogonal à tout vecteur de G, i.e. si :
∀f ∈ F, ∀g ∈ G, (f |g) = 0. Cette relation se note F ⊥ G.
Exemple Soit E un espace préhilbertien réel. Alors 0E est orthogonal à tout sous-espace vectoriel de E car en vertu de
la linéraité du produit scalaire : ∀x ∈ E, (x|0E ) = 0.
Exemple Dans le plan vectoriel R2 muni de son produit scalaire canonique, les droites R × 0 et 0 × R sont orthogonales.
Théorème (Sous-espaces vectoriels orthogonaux de dimension finie) Soient E un espace préhilbertien réel et F et G
deux sous-espaces vectoriels de dimension finie, de bases respectives (f1 , f2 , . . . , fm ) et (g1 , g2 , . . . , gn ). Les assertions suivantes
sont équivalentes :
(i) F ⊥ G. (ii) ∀(i, j) ∈ J1, mK × J1, nK, (fi |gj ) = 0.
Explication Bref, on peut vérifier l’orthogonalité de F et G en vérifiant seulement que tout vecteur d’une base fixée
de F est orthogonal à tout vecteur d’une base fixée de G.
Démonstration L’implication (i) =⇒ (ii) est évidente. Réciproquement, faisons l’hypothèse que (fi |gj ) = 0
m
X Xn
pour tout (i, j) ∈ J1, mK × J1, nK. Soient x = xi fi ∈ F et y = yj gj ∈ G. Alors :
i=1 j=1
m
n !
X X X
(x|y) = xi fi yj g j = xi yj (fi |gj ) = 0 comme voulu.
i=1 j=1 16i6m
16j6n
Définition (Orthogonal d’un sous-espace vectoriel) Soient E un espace préhilbertien réel et F un sous-espace vectoriel
de E.
• On appelle orthogonal de F dans E, noté F ⊥ (ou parfois F ◦ ), l’ensemble des vecteurs de E qui sont orthogonaux à
tous les vecteurs de F .
• Alors F ⊥ est un sous-espace vectoriel de E orthogonal à F .
• Les sous-espaces vectoriels F et F ⊥ sont en somme directe, i.e. F ∩ F ⊥ = 0E .
• On a l’inclusion suivante : F ⊆ F ⊥⊥ .
5
c Christophe Bertault - MPSI
$ $ $ Attention ! Si E est un espace préhilbertien réel quelconque, il n’est pas vrai en général que F et F ⊥ sont
supplémentaires dans E, ils sont seulement en somme directe ; bref, on n’a pas forcément E = F + F ⊥ . De même, on n’a pas
forcément F ⊥⊥ = F . Nous verrons cependant que ces résultats sont vrais si E est euclidien.
Démonstration
• Montrons que F ⊥ est un sous-espace vectoriel de E.
1) Déjà 0E ∈ F ⊥ car : ∀f ∈ F, (0E |f ) = 0.
2) Soient x, y ∈ F ⊥ et λ, µ ∈ R. Pour tout f ∈ F : λx + µy f = λ(x|f ) + µ(y|f ) = λ.0 + µ.0 = 0.
Ceci montre bien que λx + µy est orthogonal à tout vecteur de F , i.e. que λx + µy ∈ F ⊥ .
∈F ∈F ⊥
⊥
⊥
z}|{ z}|{
• Montrons que F ∩ F = 0E . Soit x ∈ F ∩ F . Alors x x = 0, et donc x = 0E par définition du
produit scalaire.
• Montrons que F ⊆ F ⊥⊥ . Soit f ∈ F . Montrer que f ∈ F ⊥⊥ , c’est montrer que f est orthogonal à tout
vecteur de F ⊥ . Or pour tout x ∈ F ⊥ , f et x sont orthogonaux puisque f ∈ F et x ∈ F ⊥ . Il est donc bien
vrai que f ∈ F ⊥⊥ .
⊥
Exemple Si E est un espace préhilbertien réel, 0E = E et E ⊥ = 0E .
La seconde égalité doit être comprise et apprise sous la forme suivante : le seul vecteur de E orthogonal à tous les vecteurs de
E est 0E .
En effet
⊥
• Le vecteur nul est orthogonal à tout vecteur, donc E ⊆ 0E . L’inclusion inverse est une évidence.
• En tant que sous-espace vectoriel de E, E ⊥ contient 0E . Inversement, soit x ∈ E ⊥ . Alors x est orthogonal à
tout vecteur de E, donc en particulier à lui-même : (x|x) = 0, i.e. kxk = 0. On obtient aussitôt x = 0E
par définition du produit scalaire.
Exemple Pour le produit scalaire (P, Q) 7−→ P (−1)Q(−1) + P (0)Q(0) + P (1)Q(1) sur R2 [X] : R0 [X]⊥ = Vect(X, 3X 2 − 2).
En effet Soit P = aX 2 + bX + c ∈ R2 [X].
P ∈ R0 [X]⊥ ⇐⇒ ∀λ ∈ R, (P |λ) = 0 ⇐⇒ (P |1) = 0 par linéarité du produit scalaire
⇐⇒ (a − b + c) + c + (a + b + c) = 0
⇐⇒ 2a + 3c = 0. On en déduit le résultat voulu.
En pratique Vous devez impérativement connaître la démonstration de ce résultat, i.e. savoir construire la base
orthonormale (u1 , u2 , . . . , un ) à partir de la base quelconque (e1 , e2 , . . . , en ).
6
c Christophe Bertault - MPSI
u3
e3
Démonstration
e1 b
• Soit k ∈ J1, nK. Supposons qu’on ait réussi à construire une famille orthonormale (u1 , u2 , . . . , uk−1 ) telle que
Vect(e1 , e2 , . . . , ep ) = Vect(u1 , u2 , . . . , up ) pour tout p ∈ J0, k − 1K et partons à la recherche d’un vecteur
uk tel que :
1) (u1 , u2 , . . . , uk ) est orthonormale ;
2) Vect(e1 , e2 , . . . , ek ) = Vect(u1 , u2 , . . . , uk ).
• Analyse : Commençons par supposer qu’un tel vecteur uk existe et tâchons de déterminer sa tête. En tout
cas, comme Vect(e1 , e2 , . . . , ek ) = Vect(u1 , u2 , . . . , uk ), uk est combinaison linéaire de e1 , e2 , . . . , ek ; mais
comme aussi Vect(e1 , e2 , . . . , ek−1 ) = Vect(u1 , u2 , . . . , uk−1 ), e1 , e2 , . . . , ek−1 sont eux-mêmes combinaisons
linéaires de u1 , u2 , . . . , uk−1 . Par conséquent uk est combinaison linéaire de u1 , u2 , . . . , uk−1 , ek . Donnons-
k−1
X
nous des coefficients associés à cette combinaison linéaire : uk = akk ek + aik ui .
i=1
Utilisons le fait que, par hypothèse, uk est orthogonal aux vecteurs u1 , u2 , . . . , uk−1 . Pour tout i ∈ J1, k − 1K :
k−1
! k−1
X X
0 = (uk |ui ) = akk ek + ajk uj ui = akk (ek |ui ) + ajk (uj |ui ) = akk (ek |ui ) + aik ,
j=1 j=1
k−1
X
ou encore : aik = −akk (ek |ui ). Ceci montre que : uk = akk ûk , où ûk = ek − (ek |ui )ui .
i=1
1 ±1
Mais enfin kuk k = 1 par hypothèse, donc |akk | = , i.e. akk = . Finalement, nous venons de
kûk k kûk k
ûk
montrer que uk = ± ; le vecteur uk , s’il existe, est donc complètement déterminé par la donnée de
kûk k
u1 , u2 , . . . , uk−1 et ek , au signe près.
k−1
X
• Synthèse : Réciproquement, commençons par poser ûk = ek − (ek |ui )ui .
i=1
Peut-on avoir ûk = 0E ? Si ce vecteur était nul, ek serait combinaison linéaire de u1 , u2 , . . . , uk−1 , et donc
de e1 , e2 , . . . , ek−1 puisque Vect(e1 , e2 , . . . , ek−1 ) = Vect(u1 , u2 , . . . , uk−1 ). Cela contredirait la liberté de la
famille (e1 , e2 , . . . , ek ) donnée initialement.
ûk ûk
Puisque ûk 6= 0E , nous pouvons donc poser uk = — on pourrait choisir uk = − .
kûk k kûk k
1) Montrons que (u1 , u2 , . . . , uk ) est orthonormale. Comme (u1 , u2 , . . . , uk−1 ) l’est par hypothèse de
récurrence, nous devons juste montrer que
uk
est unitaire et orthogonal aux vecteurs u1 , u2 , . . . , uk−1 . Pour
ûk
kûk k
le caractère unitaire de uk : kuk k =
kûk k
= kûk k . Pour les orthogonalités enfin, soit j ∈ J1, k − 1K.
k−1
!
1 1 X 1
(uk |uj ) = (ûk |uj ) = ek − (ek |ui )ui uj = (ek |uj ) − (ek |uj )(uj |uj ) = 0.
kûk k kûk k i=1
kûk k
• Notre construction est terminée : nous avons construit les uns après les autres des vecteurs u1 , u2 , . . . , un
satisfaisant les conclusions du théorème. Notez bien que les vecteurs ainsi construits sont presque uniques :
à chaque étape, on a le choix entre seulement deux vecteurs, égaux au signe près. La famille (u1 , u2 , . . . , un )
obtenue est orthonormale et composée de n vecteurs en dimension n, donc c’est une base de E.
R2 [X]2 7−→
Z
R
1
Exemple L’application est un produit scalaire sur R2 [X]. Quand on orthonormalise la
(P, Q) 7−→ P (t)Q(t) dt
0 √ √
base canonique (1, X, X 2 ), on obtient la base orthonormale 1 , 3(2X − 1) , 5(6X 2 − 6X + 1) .
7
c Christophe Bertault - MPSI
En effet Nous allons construire une base orthonormale (P0 , P1 , P2 ) de R2 [X] à partir de la base (1, X, X 2 ).
Z 1
1
• Construction de P0 : Calculons k1k : k1k2 = dt = 1, donc k1k = 1. Posons alors P0 = = 1.
0 k1k
• Construction de P1 : Soit λ ∈ R.
Z 1
1
(X − λP0 |P0 ) = 0 ⇐⇒ λ = (X|P0 ) ⇐⇒ λ= t dt ⇐⇒ λ= .
0 2
1
Ainsi P0 , X − est une famille orthogonale. Or :
2
2 Z 1 2 " 3 #t=1
X − 1
= 1 1 1 1 1
1
t− dt = t− = , donc
X −
= √ .
2
0 2 3 2 12
2
2 3
t=0
1
X−
Posons finalement P1 =
2
= √3(2X − 1). Alors (P0 , P1 ) est une famille orthonormale.
1
X −
2
• Construction de P2 : Soient λ, µ ∈ R.
(X 2 − λP0 − µP1 |P0 ) = 0 et(X 2 − λP0 − µP1 |P1 ) = 0 ⇐⇒ λ = (X 2 |P0 ) et µ = (X 2 |P1 )
Z 1 Z 1 √
⇐⇒ λ = t2 dt et µ = t2 × 3(2t − 1) dt
0 0
t=1 √
1 √ 4
t t3 3 1
⇐⇒ λ= et µ= 3 − = = √ . Rappel :
3 2 3 6 Z 1
t=0 2 3 α 1
t dt =
1 1 1 0 α+1
Ainsi X 2 −P0 − √ P1 = X 2 − X + est orthogonal à P0 et P1 . Or :
3 2 3 6
2 Z 1 2 Z 1
X − X + 1
=
2
2 1 4 3 4t2 t 1 1 1 4 1 1 1 1 1
t − t + dt = t − 2t + − + dt = −2× + × − × + = ,
6
0 6 0 3 3 36 5 4 3 3 3 2 36 180
1
√ X2 − X +
2 1
donc
X − X +
= 6 5. Posons finalement P2 =
6
= √5(6X 2 −6X +1). Alors (P , P , P )
0 1 2
6
X 2 − X +
1
6
est une famille orthonormale de trois vecteurs, donc une base orthonormale de R2 [X].
Corollaire (Existence de bases orthonormales) Soit E 6= 0E un espace euclidien. Alors E possède une base orthonor-
male.
Démonstration Comme E est de dimension finie non nulle, E possède une base, et donc une base orthonormale,
modulo le théorème d’orthonormalisation de Gram-Schmidt.
Corollaire (Complétion d’une famille orthonormale en une base orthonormale) Soit E 6= 0E un espace euclidien.
Toute famille orthonormale de E peut être complétée en une base orthonormale de E.
Démonstration Soit (e1 , e2 , . . . , ep ) une famille orthonormale de E. Alors (e1 , e2 , . . . , ep ) est libre. Or E est de
dimension finie non nulle, donc on peut compléter (e1 , e2 , . . . , ep ) en une base de E. On peut ensuite transformer
cette base en une base orthonormale au moyen du procédé d’orthonormalisation de Gram-Schmidt. Ce procédé
n’affecte pas les vecteurs e1 , e2 , . . . , ep qui forment déjà une famille orthonormale, et nous avons donc complété
notre famille de départ en une base orthonormale de E.
8
c Christophe Bertault - MPSI
Démonstration Notons (x1 , x2 , . . . , xn ) les coordonnées de x dans (e1 , e2 , . . . , en ). Pour tout k ∈ J1, nK :
n
! n n
X X X
(x|ek ) = x l e l e k = xl (el |ek ) = xl δkl = xk . Et voilà.
l=1 l=1 l=1
~ı ~ı − 3~
Exemple Pour le produit scalaire (x, y), (x0 , y 0 ) 7−→ 3xx0 + xy 0 + yx0 + yy 0 sur R2 , nous avons déjà vu que √ , √
r ! 3 6
1 2
est une base orthonormale. Les coordonnées de ~ dans cette base sont √ , − .
3 3
! ! r
~ı 1 1 ~ı − 3~ 1 2
En effet ~ √ = √ (0, 1)(1, 0) = √ et ~ √ = √ (0, 1)(1, −3) = − .
3 3 3 6 6 3
Théorème (Expression du produit scalaire et de la norme dans une base orthonormale) Soient E 6= 0E un
espace euclidien et x, y ∈ E de coordonnées respectives (x1 , x2 , . . . , xn ) et (y1 , y2 , . . . , yn ) dans une certaine base orthonormale
de E. Alors : v
n u n
X uX
(x|y) = x k yk et kxk = t x2k .
k=1 k=1
Explication Ce résultat montre que finalement, le produit scalaire canonique sur Rn est un modèle pour tous les
produits scalaires des espaces euclidiens. Calculer le produit scalaire (x|y) dans un espace euclidien abstrait revient à calculer le
produit scalaire canonique des coordonnées des vecteurs x et y dans une base orthonormale fixée quelconque.
$ $ $ Attention ! Ces formules sont complètement fausses si la base dans laquelle les coordonnées sont données n’est pas
orthonormale.
Le calcul de kxk est un cas particulier de ce résultat. Les expressions matricielles du produit scalaire et de la norme
résultent d’un calcul trivial.
Théorème (Théorème de Fischer-Riesz) Soient E un espace euclidien et f une forme linéaire de E. Il existe un unique
vecteur a ∈ E tel que : ∀x ∈ E, f (x) = (a|x).
Explication Ce résultat a une interprétation géométrique à peu près simple. Nous savons que la donnée d’un hyperplan
H de E équivaut à la donnée d’une forme linéaire non nulle f de E. Via le théorème de Fischer-Riesz,
n la donnée o
d’un hyperplan
équivaut donc à la donnée d’un vecteur a de E. On obtient ainsi ceci : H = Ker f = x ∈ E/ (a|x) = 0 = Vect(a)⊥ .
Géométriquement, a est donc un vecteur normal à H.
(
E −→ L(E, R)
Démonstration Nous allons montrer que l’application linéaire φ : est un isomor-
a 7−→ x 7−→ (a|x)
phisme. La bijectivité de φ n’est autre que le résultat voulu. Mais comme
dim L(E, R) = dim E × dim R = dim E,
il nous suffit en fait de montrer que φ est injective, i.e. que Ker φ = 0E .
Soit a ∈ Ker φ. Alors (a|x) = 0 pour tout x ∈ E. En particulier, kak2 = (a|a) = 0, et donc a = 0E .
Exemple Soit f une forme linéaire de Rn . Nous savons qu’il existe des coefficients uniques a1 , a2 , . . . , an ∈ R tels que :
∀(x1 , x2 , . . . , xn ) ∈ Rn , f (x1 , x2 , . . . , xn ) = a1 x1 + a2 x2 + . . . + an xn .
Alors on peut dire que f est représentée par le vecteur A = (a1 , a2 , . . . , an ) au sens où : ∀X ∈ Rn , f (X) = (A|X) = t AX.
9
c Christophe Bertault - MPSI
Théorème (Supplémentaire orthogonal d’un sous-espace vectoriel) Soient E un espace euclidien et F un sous-espace
vectoriel de E.
(i) Il existe un et un seul supplémentaire de F dans E orthogonal à F : c’est F ⊥ , appelé par conséquent le supplémentaire
orthogonal de F dans E.
(ii) On a l’égalité suivante : F ⊥⊥ = F .
$ $ $ Attention !
• L’hypothèse que E est euclidien — i.e. de dimension finie — est ici essentielle. Dans un espace préhilbertien réel quelconque,
nous avons vu que F et F ⊥ sont en somme directe et que F ⊆ F ⊥⊥ , mais rien de plus n’est vrai en général. On n’a pas
forcément E = F + F ⊥ .
• Il existe un unique supplémentaire orthogonal, mais tout plein de supplémentaires « généraux », ne l’oubliez pas.
Démonstration
(i) Raisonnons en deux temps.
• Montrons d’abord que F ⊥ est un supplémentaire de F dans E orthogonal à F . Il nous suffit en
fait de montrer que dim E = dim F + dim F ⊥ , car nous savons déjà que F ∩ F ⊥ = 0E et F ⊥ F ⊥ .
(
E −→ Rn
Soient (f1 , f2 , . . . , fn ) une base orthonormale de F et ϕ l’application linéaire .
x 7−→ (x|fk )
16k6n
⊥
Le noyau de ϕ est l’ensemble des vecteurs de E orthogonaux à f!1 , f2 , . . . , fn , c’est donc
!! F . Quant à l’image
Xn X n
de ϕ, c’est tout Rn car : ∀(xk )16k6n ∈ Rn , ϕ
xl fl = xl fl fk = (xk )16k6n .
l=1 l=1 16k6n
Finalement, via le théorème du rang, on obtient comme voulu l’égalité :
(ii) Nous avons déjà démontré l’inclusion F ⊆ F ⊥⊥ . Or dim E = dim F + dim F ⊥ , et pour la même raison
dim E = dim F ⊥ + dim F ⊥⊥ . Ainsi dim F = dim F ⊥⊥ et finalement F = F ⊥⊥ .
Définition (Projecteur orthogonal, symétrie orthogonale) Soient E un espace euclidien et F un sous-espace vectoriel
de E.
• On appelle projection orthogonale sur F ou projecteur orthogonal sur F la projection sur F de direction F ⊥ .
• On appelle symétrie orthogonale par rapport à F la symétrie par rapport à F parallèlement à F ⊥ .
On parle plutôt de réflexion par rapport à F si F est un hyperplan de E.
F⊥ F⊥
0 0
f x = f +f 0 f x = f + f0
F b
F b
0E 0E
f = p(x) f
Projection Symétrie
Explication
orthogonale orthogonale
−f 0
s(x)
10
c Christophe Bertault - MPSI
Théorème (Expression d’un projecteur orthogonal dans une base orthonormale) Soient E un espace euclidien, F
un sous-espace vectoriel de E, (f1 , f2 , . . . , fn ) une base orthonormale de F et p le projecteur orthogonal sur F .
n
X
Alors pour tout x ∈ E : p(x) = (x|fk )fk .
k=1
Exemple Soit F = Vect(sin,
Z π cos), sous-espace vectoriel de C [−π, π], R . Le projeté orthogonal de t 7−→ t sur F pour le
produit scalaire (f, g) 7−→ f (t)g(t) dt est la fonction t 7−→ 2 sin t.
−π
En effet Nous allons travailler dans l’espace euclidien E = Vect(sin, cos, f ), où f est la fonction t 7−→ t.
• Commençons par déterminer une base orthonormale de F au moyen de l’algorithme de Gram-Schmidt. Il
convient de remarquer au préalable que (sin, cos) est une base de F — et pourquoi ?
Z π Z π t=π
1 − cos(2t) t sin(2t)
1) Tout d’abord : k sin k2 = sin2 t dt = dt = − = π. Notons
−π −π 2 2 4 t=−π
sin
alors f0 la fonction t 7−→ √ , de sorte que kf0 k = 1.
π
2) Soit ensuite λ ∈ R. Alors : (cos −λf0 |f0 ) = 0 ⇐⇒ λ = (cos |f0 ).
Z π Z π t=π
cos t sin t sin(2t) cos(2t)
Or : (cos |f0 ) = √ dt = √ dt = − √ = 0. Ceci montre que (f0 , cos)
−π π −π 2 π 4 π t=−π
cos
est une famille orthogonale. Observant que k cos k2 = π, posons enfin f1 = √ . Alors (f0 , f1 ) est une base
π
orthonormale de F .
• Pour déterminer
Z π le projeté orthogonal deZf sur F , nous devons calculer (f |f0 ) et (f |f1 ).
h it=π π t=π
Or : te dt = t × (−i)eit
it
− (−i)eit dt = 2iπ + i (−i)eit t=−π = 2iπ + 0 = 2iπ.
−π t=−π −π
Z π Z π
t sin t Im(2iπ) √ t cos t Re(2iπ)
Du coup, (f |f0 ) = √ dt = √ = 2 π et (f |f1 ) = √ dt = √ = 0.
−π π π −π π √ π
Enfin, le projeté orthogonal de f sur F est la fonction (f |f0 )f0 + (f |f1 )f1 = 2 πf0 , i.e. t 7−→ 2 sin t.
Définition (Distance à une partie) Soient E un espace euclidien, A une partie non vide de E et x ∈ E. On appelle distance
de x à A, notée d(x, A), le réel : d(x, A) = inf d(x, a).
a∈A
Explication Intuitivement, la distance d’un vecteur x à une partie A est la plus petite distance séparant x d’un
élément de A. Mais comment savoir si une telle « plus petite distance » existe ? En fait, elle n’existe pas nécessairement et c’est
pourquoi on n’a surtout pas posé « d(x, A) = min d(x, a) ».
a∈A
11
c Christophe Bertault - MPSI
b
x b
x
n o
Démonstration Pourquoi d(x, A) est-il un réel bien défini ? L’ensemble d(x, a) est une partie de R non
a∈A
vide (car A 6= ∅) et minorée (par 0), donc possède une borne inférieure en vertu de la propriété de la borne
inférieure.
2
En particulier : d(x, F )2 = kxk2 −
p(x)
.
p(x)
Démonstration
• Par définition de p, nous savons que p(x) ∈ Im p = F et que p(x) − x ∈ Ker p = F ⊥ .
∈F ⊥ ∈F
}| { z }| { z
Soit alors f ∈ F . On a : x − f = x − p(x) + p(x) − f . Le théorème de Pythagore montre aussitôt que
2
2
kx − f k2 =
x − p(x)
+
p(x) − f
.
n o
• Montrons à présent que d(x, F ) =
x − p(x)
= d x, p(x) . Pour ce faire, notons D l’ensemble d(x, f ) .
f ∈F
1) Alors
x − p(x)
= d x, p(x) ∈ D car p(x) ∈ F .
q
2
2
2) Mais de plus, pour tout f ∈ F : d(x, f ) = kx−f k =
x − p(x)
+
p(x) − f
>
x−p(x)
.
Cette inégalité montre que
x − p(x)
est un minorant de D.
Finalement, d x, p(x) est le plus petit élément de D, donc aussi sa borne inférieure, ce qui montre le résultat
voulu.
2
• L’assertion : ∀f ∈ F, kx − f k2 =
p(x) − f
+ d(x, F )2 est une conséquence immédiate des deux
premiers points.
Elle montre que la distance d(x, F ) n’est atteinte que pour f = p(x), car si f 6= p(x), alors
p(x) − f
> 0.
Z 1 √ 2 6 3 1
Exemple L’intégrale t − a t − b dt est minimale pour a = et b = − ; elle vaut alors .
0 5 10 300
En effet
Z
1 √
• Dans C [0, 1], R muni du produit scalaire (f, g) 7−→ f (t)g(t) dt, posons f0 = t 7−→ t , f1 = (t 7−→ 1),
0
Id = (t 7−→ t), E = Vect(f0 , f1 , Id) et enfin F = Vect(f0 , f1 ). Alors E est euclidien et pour tous a, b ∈ R :
Z 1
√ 2
2 2
t − a t − b dt =
Id − af0 − bf1
= d Id, af0 + bf1 .
0
Z
√ 2 1
Nous sommes en quête du réel inf t − a t − b dt = inf d(Id, af0 + bf1 )2 = inf d(Id, f )2 = d(Id, F )2 .
0 a,b∈R a,b∈R f ∈F
2
2
Notons p le projecteur orthogonal sur F . Nous savons que d(Id, F )2 =
Id − p(Id)
= kIdk2 −
p(Id)
.
Nous voilà donc partis à la recherche de p(Id), avec p(Id) = af0 + bf1 pour certains a, b ∈ R à déterminer.
⊥
un projecteur, nous savons que Id − p(Id) ∈ F , autrement dit que Id − p(Id) f0 = 0 et que
• Puisque p est
Id − p(Id) f1 = 0. Or :
Z Z 2√ √ t=1
1 √ √ 1 √ √ 2t t at2 2bt t
0 = Id − p(Id)f0 = t − a t − b t dt = t t − at − b t dt = − −
0 0 5 2 3 t=0
2 a 2b 12 − 15a − 20b
= − − = .
5 2 3 30
12
c Christophe Bertault - MPSI
Z √ t=1
1 √ t2 2at t 1 2a 3 − 4a − 6b
et 0 = Id − p(Id)f1 = t − a t − b dt = − − bt = − −b= .
0 2 3 t=0
2 3 6
6 3
Les deux équations ainsi obtenues se résolvent aisément ; on trouve : a= et b=− .
5 10
13