Vous êtes sur la page 1sur 11

c Christophe Bertault - MPSI

Espaces prhilbertiens rels


Dans ce chapitre, on travaille seulement avec le corps de base R gnralisation C en deuxime anne. Les lettres n, p, q . . .
dsignent des entiers naturels non nuls.

Produit scalaire, norme et orthogonalit

1.1

Produit scalaire

Dnition

(Produit scalaire, espace prhilbertien rel, espace euclidien)

Soit E un R-espace vectoriel. On appelle produit scalaire sur E toute forme bilinaire symtrique dnie positive,
i.e. toute application (|) : E E R :
bilinaire :

x, y, z E,

symtrique :
dnie :

x, y E,

x E,

positive :

, R,
(y|x) = (x|y),

(x|x) = 0

x E,

(x|x)

x + y z = (x|z) + (y|z) et x y + z = (x|y) + (x|z),

x = 0E

(proprit de sparation),

0.

Le produit scalaire (x|y) est aussi parfois not x y , x, y ou encore x y.


Un espace vectoriel rel muni dun produit scalaire est appel un espace prhilbertien rel. Un espace prhilbertien
rel de dimension finie est appel un espace euclidien.

Explication La dmarche que nous initions en donnant cette dnition doit vous drouter. En dbut danne, nous
avons dni le produit scalaire partir de la norme en admettant que nous savions calculer les normes partir des coordonnes
dans une base orthonormale, ce qui supposait connue la notion dangle orient. A prsent, nous faisons linverse : le produit
scalaire est la notion premire de la gomtrie euclidienne et ce sont les notions de norme et dangle qui vont en dcouler.
Attention ! Il existe de nombreux produits scalaires dans le plan ou lespace : simplement, jusquici, nous en avons
privilgi un. Par exemple, lapplication (|) : (x, y), (x , y ) 3xx + xy + yx + yy est un produit scalaire sur R2 , distinct
du produit scalaire usuel.
En eet Symtrie et bilinarit videntes. Pour le reste : (u|u) = 3x2 + 2xy + y 2 = 2x2 + (x + y)2 0 pour
tout u = (x, y) R2 . De plus (u|u) = 0 si et seulement si x = x + y = 0, i.e. x = y = 0, ou encore u = (0, 0).
En pratique
Pour montrer la bilinarit dun produit scalaire potentiel, la linarit par rapport une variable
seulement est susante si on a pris la peine de dmontrer la symtrie avant.
Petite remarque au passage :

(x|0E ) = (0E |x) = 0

pour tout x E, par bilinarit du produit scalaire.


n

(Produit scalaire canonique sur Rn ) Lapplication

Thorme

(xk )1

k n , (yk )1 k n

xk yk est un produit
k=1

scalaire sur Rn appel son produit scalaire canonique. est quivalent de le dnir sous forme matricielle comme lapplication
Il

y1
n

.
x k yk .
(X, Y ) t XY , car : t XY = x1 . . . xn . =
.
k=1
yn
Dmonstration
n

Bilinarit vidente par linarit de la transposition. Pour la symtrie, soient X, Y Rn . Alors

k=1

x2
k

yk xk = t Y X. Pour la positivit et la sparation enn, (X|X) =

x k yk =

XY =

k=1

k=1

lieu que si xk est nul pour tout k 1, n , i.e. si X = 0.

0 et lgalit na

c Christophe Bertault - MPSI

Exemple

Soient x0 , x1 , . . . , xn R distincts. Lapplication (P, Q)

P (xk )Q(xk ) est un produit scalaire sur Rn [X].


k=0

En eet Symtrie vidente. Du coup, pour la bilinarit, la linarit par rapport la premire variable sut.
Pour tous P, Q, R Rn [X] et , R :
n

P (xk )R(xk ) +

P + Q (xk )R(xk ) =

P + Q R =

k=0

k=0

k=0

Q(xk )R(xk ) = (P |R) + (Q|R).

Pour la positivit et la sparation, soit P Rn [X]. Alors (P |P ) =

P (xk )2

0 et lgalit na lieu que si

k=0

P (xk ) = 0 pour tout k 0, n , i.e. si x0 , x1 , . . . , xn sont des racines de P . Or dans ce cas P possde au moins
n + 1 racines distinctes tout en tant de degr au plus n, donc P = 0.
1

Exemple

Lapplication (f, g)
En eet
1

(f |f ) =

f (t)g(t) dt est un produit scalaire sur C [0, 1], R .

Bilinarit et symtrie videntes. Pour la positivit et la sparation, soit f C [0, 1], R . Alors
f (t)2 dt

0 et lgalit na lieu que si f = 0. En eet, continue et positive, f est nulle si et

seulement si son intgrale lest.


Attention ! Muni du produit scalaire dni ci-dessus, C [0, 1], R nest pas un espace euclidien car ce nest pas un
R-espace vectoriel de dimension nie. Cest seulement un espace prhilbertien rel.

1.2

Norme et distance associes un produit scalaire

Dnition

(Norme) Soit E un espace prhilbertien rel de produit scalaire (|).

On appelle norme (euclidienne) sur E associe au produit scalaire (|) lapplication


x E,

x =

: E R+ dnie par :

(x|x).

On appelle distance (euclidienne) sur E associe au produit scalaire (|) lapplication d : E E R+ dnie par :
x, y E,

d(x, y) = x y .

Attention !
La notion de distance nest pas forcment celle que lon croit ! La distance dpend dun choix de

produit scalaire. Par exemple, pour le produit scalaire (x, y), (x , y ) 3xx + xy + yx + yy sur R2 , = 3 = 1.

Exemple Trs important ! Les fameuses identits remarquables ont une version euclidienne base de produit scalaire et de
norme. Pour tous x, y E, par bilinarit du produit scalaire :
x+y

= x

+ 2(x|y) + y

et

(x + y|x y) = x

On peut aussi inverser ces relations et rcuprer le produit scalaire en fonction de la norme. On obtient alors ce quon appelle
1
des identits de polarisation. Par exemple : (x|y) =
x+y 2 x 2 y 2 .
2

Thorme (Ingalit de Cauchy-Schwarz, ingalit triangulaire) Soient E un espace prhilbertien rel et x, y, z E.

(ii) Ingalit triangulaire (version norme) :

x y

(i) Ingalit de Cauchy-Schwarz :


(x|y)
x . y .
Cette ingalit est une galit si et seulement si x et y sont colinaires.
x+y

x + y .

x+y
y

Lingalit de droite est une galit si et seulement si x et y sont colinaires de mme sens.
Ingalit triangulaire (version distance) :

d(x, y) d(x, z)

d(x, z)

d(x, y) + d(y, z).

Explication
En dbut danne, nous navons mme pas pris la peine dnoncer lingalit de Cauchy-Schwarz tant

= . . cos( , )



. . Elle est remarquable prsent car nous avons dni le
u v
elle tait triviale :
u
v
u v
u
v
produit scalaire sans notion dangle aucune, donc sans lusage daucun cosinus.

c Christophe Bertault - MPSI

Dmonstration
(i) On peut supposer y = 0E rsultat trivial sinon. La fonction t x + ty 2 = x 2 + 2t(x|y) + t2 y 2
est alors polynomiale de degr 2 (pas moins) et positive ou nulle, donc de discriminant ngatif ou nul
soit pas de racine relle, soit une racine double. Lingalit de Cauchy-Schwarz dcoule alors de ce que le
discriminant en question vaut 4 (x|y)2 x 2 y 2 .
2

Lingalit est une galit si et seulement si le discriminant sannule, i.e. si et seulement si x + y


pour un certain R, ce qui revient dire que x + y = 0E , ou encore que x et y sont colinaires.

=0

(i)

(ii) Dabord :
x + y 2 = x + y x + y = x 2 + 2(x|y) + y 2
x 2+2 x . y + y 2 = x + y ,
puis on passe la racine carr.
Ensuite :
x = (x + y) + (y)
x + y + y = x + y + y , donc | x y
x + y , et de
mme y x
x+y .
Cette preuve montre aussi que lingalit de droite est une galit si et seulement si (x|y) = x . y . En
particulier, dans ce cas, x et y sont colinaires daprs (i). Quitte permuter x et y, il existe donc R tel
que y = x. Aussitt : x 2 = (x|x) = (x|y) = x . y = x . x = ||. x 2 , donc soit x est nul,
soit = ||, i.e. 0. Dans les deux cas x et y sont colinaires de mme sens. Rciproque immdiate.

1.3

Orthogonalit

Dnition (Vecteur unitaire, vecteurs orthogonaux) Soient E un espace prhilbertien rel et x, y, x1 , x2 , . . . , xn E.


On dit que x est unitaire si x = 1.
On dit que x et y sont orthogonaux, ce quon note x y, si (x|y) = 0.
On dit que (x1 , x2 , . . . , xn ) est orthogonale si xi et xj sont orthogonaux pour tous i, j 1, n distincts.
On dit que (x1 , x2 , . . . , xn ) est orthonormale (ou orthonorme) si elle est orthogonale et si xi est unitaire pour tout
1 si i = j
(symbole de Kronecker).
i 1, n , i.e. si :
i, j 1, n , (xi |xj ) = ij ,
o ij =
0 si i = j

Explication
Ces dnitions achvent de mettre la gomtrie la tte en bas : jusquici, pour vous, la notion
dorthogonalit tait premire et le produit scalaire second. Cest le contraire qui est vrai prsent : la notion dorthogonalit
repose sur la dnition pralable dun produit scalaire. Cela implique en particulier qu tout produit scalaire correspond une
notion dorthogonalit. Les angles droits ne sont droits que relativement la donne dun produit scalaire.
Exemple
Pour le produit scalaire canonique de Rn , la base canonique de Rn est orthonormale. Cest facile et important :
vrifiez-le seul imprativement.

Exemple

(x, y), (x , y) 3xx + xy + yx + yy sur R2 , les vecteurs = et =


u
v
3
6
forment une base orthonormale de R2 . Vriez-le ! Cela nous fait apparemment un drle dangle droit, mais vous devez
considrer que cen est bel et bien un : simplement votre il nest pas adapt ce produit scalaire.
Pour le produit scalaire

Exemple

Les fonctions t 1 et t sin(2t) sont orthogonales pour (f, g)

1
0

1 sin(2t) dt =

Thorme

sin(2t) dt =

cos(2t)
2

t=1

f (t)g(t) dt sur C [0, 1], R car

= 0.
t=0

+
x

(Proprits des familles orthogonales)

(i) Toute famille orthogonale de vecteurs non nuls est libre.


(ii) Thorme de Pythagore : Soient E un espace prhilbertien rel et
2

(x1 , x2 , . . . , xn ) une famille orthogonale de E. Alors :

xk
k=1

xk

=
k=1

+

x
y

=
x

+
y

En pratique
Grce (i), si vous voulez montrer que n vecteurs donns forment une base orthonormale en
dimension n , il vous sut de montrer que ces vecteurs forment une famille orthonormale.

c Christophe Bertault - MPSI

Dmonstration
(i) Soient E un espace prhilbertien rel et (x1 , x2 , . . . , xn ) une famille orthogonale de vecteurs non nuls de E.
n

Soient 1 , 2 , . . . , n R tels que

k=1

k xk = 0E . Alors pour tout i 1, n :


n

k x k x i

0 = (0E |xi ) =

=
k=1

k=1

k (xk |xi ) = i xi

Or xi = 0E , donc xi = 0, donc i = 0. Comme voulu, la famille (x1 , x2 , . . . , xn ) est libre.


2

(ii)

xk

xk

=
k=1

k=1

xl

=
1 k,l n

l=1

(xk |xl ) =

1 k,l n
k=l

(xk |xl ) =

(xk |xk ) =

k=1

xk

k=1

Familles orthonormales

2
2.1

Algorithme dorthonormalisation de Schmidt

Thorme (Algorithme dorthonormalisation de Schmidt) Soient E un espace prhilbertien rel et (e1 , e2 , . . . , en )


une famille libre de E. On peut transformer (e1 , e2 , . . . , en ) en une famille orthonormale (u1 , u2 , . . . , un ) de E telle que :
k 1, n ,

k1

Vect(e1 , e2 , . . . , ek ) = Vect(u1 , u2 , . . . , uk ).

Pour tout k 1, n , on na que deux choix possibles pour la construction de uk : uk est soit le vecteur

ek
ek

(ek |ui )ui

i=1
k1

i=1

(ek |ui )ui

soit son oppos. La construction de uk requiert donc la construction de u1 , u2 , . . . , uk1 (algorithme itratif).

Explication

On a tout compris quand on a compris le cas n = 2. On veut transformer une famille libre quelconque
e2 (e2 |u1 )u1
e1
et u2 =
.
(e1 , e2 ) en une famille orthonormale (u1 , u2 ) avec : u1 =
e1
e2 (e2 |u1 )u1
e2 (e2 |u1 )u1
e2
u2
1) La premire formule normalise e1 , cest--dire le rend unitaire.
2) La seconde commence par transformer e2 en e2 (e2 |u1 )u1 . Cela revient retrancher
e2 sa composante selon u1 , qui vaut (e2 |u1 )u1 . Le vecteur ainsi obtenu est orthogonal
u1 . Mais il peut ne pas tre unitaire : cest pourquoi on le divise par sa norme.

u1

(e2 |u1 )u1


Plus gnralement, lalgorithme de Schmidt construit uk en tant de ek ses composantes selon u1 , u2 , . . . , uk1 , puis en rendant
le tout unitaire.
Dmonstration
La construction commence simplement. La famille (e1 ) est libre donc e1 = 0E , et donc on peut poser
e1
u1 =
. Il est clair que Vect(e1 ) = Vect(u1 ).
e1
Soit k 1, n . Supposons quon ait russi construire une famille orthonormale (u1 , u2 , . . . , uk1 ) telle que
Vect(e1 , e2 , . . . , ep ) = Vect(u1 , u2 , . . . , up ) pour tout p 0, k 1 . Nous sommes en qute dun vecteur uk tel
que :
1) (u1 , u2 , . . . , uk ) est orthonormale,
2) Vect(e1 , e2 , . . . , ek ) = Vect(u1 , u2 , . . . , uk ).
Analyse : Faisons lhypothse quun tel vecteur uk existe. A quoi ressemble-t-il ? Pour commencer, uk
est combinaison linaire de e1 , e2 , . . . , ek car Vect(e1 , e2 , . . . , ek ) = Vect(u1 , u2 , . . . , uk ). Mais comme aussi
Vect(e1 , e2 , . . . , ek1 ) = Vect(u1 , u2 , . . . , uk1 ), uk est en fait combinaison linaire de u1 , u2 , . . . , uk1 , ek , de
k1

sorte que pour certains a1k , a2k , . . . , akk R :

aik ui .

uk = akk ek +
i=1

Dans ces conditions, pour tout i 1, k 1 , sachant que uk ui :


k1

0 = (uk |ui ) =

akk ek +

k1

ajk uj ui
j=1

= akk (ek |ui ) +

j=1

ajk (uj |ui ) = akk (ek |ui ) + aik ,


k1

bref :

aik = akk (ek |ui ).

Ceci montre que :

uk = akk uk

si nous posons uk = ek

i=1

(ek |ui )ui .

e1

c Christophe Bertault - MPSI

1
uk

1
, i.e. akk =
. Conclusion : uk =
.
uk

uk

uk

Le vecteur uk , sil existe, est compltement dtermin au signe prs par u1 , u2 , . . . , uk1 et ek .
Mais par ailleurs uk = 1 par hypothse, donc |akk | =

k1

Synthse : Rciproquement, commenons par poser uk = ek

i=1

(ek |ui )ui .

Se peut-il que uk soit nul ? La libert de (e1 , e2 , . . . , en ) sen trouverait contredite car ek serait combinaison li
naire de u1 , u2 , . . . , uk1 , et donc de e1 , e2 , . . . , ek1 puisque Vect(e1 , e2 , . . . , ek1 ) = Vect(u1 , u2 , . . . , uk1 ).
uk

uk

on pourrait aussi choisir uk =


.
Nous pouvons donc poser uk =
uk

uk

1) Montrons que (u1 , u2 , . . . , uk ) est orthonormale. Comme (u1 , u2 , . . . , uk1 ) lest par hypothse de
rcurrence, nous devons juste montrer que uk est unitaire et orthogonal aux vecteurs u1 , u2 , . . . , uk1 . Le
caractre unitaire de uk est limpide. Pour les orthogonalits, pour tout j 1, k 1 :
(uk |uj ) =

1
uk

(k |uj ) =
u

1
uk

k1

ek

i=1

(ek |ui )ui uj

1
uk

(ek |uj ) (ek |uj )(uj |uj ) = 0.

2) Dans la mesure o Vect(e1 , e2 , . . . , ek1 ) = Vect(u1 , u2 , . . . , uk1 ), et puisque uk est combinaison


linaire de u1 , u2 , . . . , uk1 et ek , alors Vect(e1 , e2 , . . . , ek ) = Vect(u1 , u2 , . . . , uk ).

Exemple

La famille 1 ,

3(2X 1) ,

5(6X 2 6X +1) est orthonormale pour le produit scalaire (P, Q)

P (t)Q(t) dt
0

sur R[X].
En eet Nous allons, grce lalgorithme de Schmidt, construire une famille orthonormale (P0 , P1 , P2 ) partir
de la famille libre (1, X, X 2 ).
Construction de P0 : Posons P0 =
On rappelle que
pour tout 0 :
1

t dt =
0

1
.
+1

1
. Comme 1
1

1
2

dt = 1, en fait P0 = 1.

=
0

X (X|P0 )P0
. Puisque (X|P0 ) =
X (X|P0 )P0
2
1
1
1
1
=
t
numrateur est en fait X (X|P0 )P0 = X . Mais X
2
2
2
0

P1 = 3(2X 1). Alors (P0 , P1 ) est une famille orthonormale.

Construction de P1 :

Construction de P2 : Posons P2 =
1

Posons P1 =

1
, le polynme au
2
1
1
dt =
= 2 , donc
12
2 3

t dt =
0
2

X 2 (X 2 |P0 )P0 (X 2 |P1 )P1


. Puisque (X 2 |P0 ) =
X 2 (X 2 |P0 )P0 (X 2 |P1 )P1

t2 dt =
0

1
et
3

1
3(2t 1) dt = , le polynme X 2 (X 2 |P0 )P0 (X 2 |P1 )P1 au numrateur est en
2 3
2
2
1
1
1
1
1
1
=
t2 t +
= 2,
dt =
fait le polynme X 2 X + . Mais par ailleurs X 2 X +
6
6
6
180
6 5
0

donc P2 = 5(6X 2 6X + 1). Alors (P0 , P1 , P2 ) est une famille orthonormale.


(X 2 |P1 ) =

t2

Thorme (Existence de bases orthonormales en dimension nie) Soit E = 0E


possde une base orthonormale.

un espace euclidien. Alors E

Dmonstration
De dimension nie non nulle, E possde une base donc une base orthonormale aprs orthonormalisation de Schmidt la famille obtenue est bien une base car elle est orthogonale et constitue de vecteurs
non nuls, donc libre, et possde le bon nombre de vecteurs.

Thorme (Thorme de la base orthonormale incomplte en dimension nie) Soit E =


euclidien. Toute famille orthonormale de E peut tre complte en une base orthonormale de E.

0E

un espace

Dmonstration Soit (e1 , e2 , . . . , ep ) une famille orthonormale de E. Alors (e1 , e2 , . . . , ep ) est libre. Or E est de
dimension nie non nulle, donc on peut complter (e1 , e2 , . . . , ep ) en une base de E. On peut ensuite transformer
cette base en une base orthonormale par orthonormalisation de Schmidt. Lalgorithme naecte pas les premiers
vecteurs e1 , e2 , . . . , ep car ils forment dj une famille orthonormale. Nous avons donc complt notre famille de
dpart en une base orthonormale de E.

c Christophe Bertault - MPSI

2.2

Coordonnes dans une base orthonormale

Thorme (Coordonnes dans une base orthonormale) Soient E = 0E


base orthonormale de E et x E.

un espace euclidien, (e1 , e2 , . . . , en ) une

Alors :

x=

(x|ek )ek .

En dautres termes, les coordonnes de x dans (e1 , e2 , . . . , en ) sont (x|e1 ), (x|e2 ), . . . , (x|en ) .

k=1

u
Explication

Ce rsultat est bien connu en principe dans le plan et dans lespace.

Dmonstration

Notons (x1 , x2 , . . . , xn ) les coordonnes de x dans (e1 , e2 , . . . , en ).

Pour tout k 1, n :

(x|ek ) =

x l el ek

=
l=1

l=1

xl (el |ek ) =

xl kl = xk .

Et voil.

l=1

Thorme (Expression du produit scalaire et de la norme dans une base orthonormale) Soient E = 0E
un espace euclidien et x, y E de coordonnes respectives (x1 , x2 , . . . , xn ) et (y1 , y2 , . . . , yn ) dans une certaine base orthonormale de E. Alors :
n

et

x k yk

(x|y) =

x2 .
k

x =
k=1

k=1

En termes matriciels, si X est la colonne des coordonnes de x et Y celle des coordonnes de y :

(x|y) = t XY
et
x = t XX.

Explication
Ce rsultat montre que nalement, le produit scalaire canonique sur Rn est un modle pour tous les
produits scalaires des espaces euclidiens. Calculer le produit scalaire (x|y) dans un espace euclidien abstrait revient calculer le
produit scalaire canonique des coordonnes des vecteurs x et y dans une base orthonormale xe quelconque.
Attention !

Ces formules sont fausses si la base dans laquelle les coordonnes sont donnes nest pas orthonormale.

Dmonstration

Notons (e1 , e2 , . . . , en ) la base orthonormale considre.

k=1

3
3.1

x k ek

(x|y) =

yl e l

l=1

1 k,l n

xk yl (ek |el ) =

xk yl kl =
1 k,l n

xk yk = t XY .

x k yl =
1 k,l n
k=l

k=1

Orthogonalit et sous-espaces vectoriels


Sous-espaces vectoriels orthogonaux

Dnition (Sous-espaces vectoriels orthogonaux) Soient E un espace prhilbertien rel et F et G deux sous-espaces
vectoriels de E. On dit que F et G sont orthogonaux si tout vecteur de F est orthogonal tout vecteur de G, i.e. si :
f F,

g G,

Cette relation se note F G.

(f |g) = 0.

Exemple
Dans le plan vectoriel R2 muni de son produit scalaire canonique, les droites dquations x = 0 et y = 0 sont
orthogonales car pour tous x, y R :
(0, y) (x, 0) = 0 x + y 0 = 0.
En pratique Pour vrier que deux sous-espaces vectoriels de dimensions nies F et G sont orthogonaux, disons
de bases respectives (f1 , f2 , . . . , fm ) et (g1 , g2 , . . . , gn ), il sut en fait de vrier que tous les fi sont orthogonaux tous les gj .
Dans lexemple prcdent, il aurait donc su quon remarque que les vecteurs (1, 0) et (0, 1) sont orthogonaux.

c Christophe Bertault - MPSI

3.2

Orthogonal dun sous-espace vectoriel

Dnition (Orthogonal dun sous-espace vectoriel) Soient E un espace prhilbertien rel et F un sous-espace vectoriel
de E.
On appelle orthogonal de F dans E, not F , lensemble
x E/ f F, (x|f ) = 0 .
F est un sous-espace vectoriel de E orthogonal F .
Les sous-espaces vectoriels F et F sont en somme directe, i.e. F F = 0E .
On a linclusion suivante :

F F .

Attention !
Si E est un espace prhilbertien rel quelconque, il nest pas vrai en gnral que F et F sont
supplmentaires dans E, ils sont seulement en somme directe. Bref, on na pas forcment E = F + F , ni non plus F = F .
Nous verrons cependant que ces rsultats sont vrais si F est de dimension nie, donc en particulier si E est euclidien.
Dmonstration
Montrons que F est un sous-espace vectoriel de E. Dabord 0E F car pour tout f F : (0E |f ) = 0.
Ensuite, soient x, y F et , R. Pour tout f F :
x + y f = (x|f ) + (y|f ) = .0 + .0 = 0,
donc x + y F .
F

Montrons que F F

= 0E . Soit x F F . Alors

= 0, et donc x = 0E par sparation.

Montrons que F F . Soit f F . Montrer que f F , cest montrer que f est orthogonal tout
vecteur de F . Or pour tout x F , f et x sont orthogonaux puisque f F et x F . Il est donc bien
vrai que f F .

= E et E = 0E .
Exemple Si E est un espace prhilbertien rel, 0E
La seconde galit nonce une vrit simple et importante : le seul vecteur de E orthogonal tous les vecteurs de E est 0E .
En eet
Le vecteur nul est orthogonal tout vecteur, donc E 0E

. Linclusion inverse est une vidence.

En tant que sous-espace vectoriel de E, E contient 0E . Inversement, soit x E . Alors x est orthogonal
tout vecteur de E, donc en particulier lui-mme : (x|x) = 0, i.e. x = 0. Bref, x = 0E .
Exemple

Pour le produit scalaire (P, Q) P (1)Q(1) + P (0)Q(0) + P (1)Q(1) sur R2 [X] :

R1 [X] = Vect(3X 2 2).

En eet Soit P = aX 2 + bX + c R2 [X]. Remarque importante : on peut tester lorthogonalit de P avec tout
lment de R1 [X] en se contentant de la vrier avec les vecteurs de base 1 et X.
P R1 [X]

(P |1) = 0

2a + 3c = 0

et

(P |X) = 0
et

2b = 0,

(a b + c) 1
(a b + c) (1)

do le rsultat voulu.

+
+

c1
c0

+
+

(a + b + c) 1
(a + b + c) 1

=
=

Thorme (Supplmentaire orthogonal dun sous-espace vectoriel de dimension nie) Soient E un espace
prhilbertien rel et F un sous-espace vectoriel de dimension finie de E.
(i) Il existe un et un seul supplmentaire de F dans E orthogonal F : cest F , appel par consquent le supplmentaire orthogonal de F dans E.
(ii) On a lgalit suivante :

F = F .

Attention !
Lhypothse que F est de dimension nie est essentielle. Dans le cas gnral, nous avons vu que F et F sont en somme
directe et que F F , mais rien de plus a priori. Il nest pas forcment vrai que E = F + F et F = F .
Il existe un unique supplmentaire orthogonal, mais tout plein de supplmentaires gnraux , ne loubliez pas.

0
0

c Christophe Bertault - MPSI

Dmonstration
(i) Nous savons dj que F F = 0E .
Montrons que E = F + F , i.e. que E F + F . Nous pouvons supposer que F = 0E car

= 0E + E = E, et nous donner une base orthonormale (f1 , f2 , . . . , fn ) de F puisque F


0E + 0E
n

est de dimension nie. Soit x E. Posons f =


x

(x f |fi ) =

(x|fk )fk . Pour tout i 1, n :

k=1

(x|fk )fk fi

= (x|fi )

(x|fk )(fk |fi ) = (x|fi )

k=1

k=1

(x|fk )ki = (x|fi )(x|fi ) = 0,


k=1

donc x f est orthogonal f1 , f2 , . . . , fn , i.e. x f F . Comme voulu, x F + F .


Montrons que F est le seul supplmentaire de F dans E orthogonal F . Soit F un tel supplmentaire. Alors F F donc F F . Pour linclusion rciproque, xons x F . Puisque E = F + F ,
il existe f F et f F tels que x = f + f . Alors 0 = (x|f ) = (f + f |f ) = (f |f ), donc f = 0E , i.e.
x = f F .
(ii) Nous savons dj que F F . Pour linclusion rciproque, xons x F . Puisque E = F + F , il
existe f F et f F tels que x = f + f . Or x F donc 0 = (x|f ) = (f + f |f ) = (f |f ). Ainsi
f = 0E , i.e. x = f F .

4.1

Projecteurs orthogonaux
Projecteurs orthogonaux et symtries orthogonales

Dnition (Projecteur orthogonal, symtrie orthogonale) Soient E un espace prhilbertien rel et F un sous-espace
vectoriel de dimension finie de E.
On appelle projection orthogonale sur F ou projecteur orthogonal sur F la projection sur F de direction F .
On appelle symtrie orthogonale par rapport F la symtrie par rapport F paralllement F .
On parle plutt de rexion par rapport F si F est un hyperplan de E.

Comme F est de dimension nie, E = F F .

Explication

x = f + f

F
f

x = f + f
F

0E
f

Symtrie
orthogonale

0E
f = p(x)

Projection
orthogonale

s(x)

Thorme (Expression dun projecteur orthogonal dans une base orthonormale) Soient E un espace prhilbertien
rel, F un sous-espace vectoriel de dimension finie non nulle de E, (f1 , f2 , . . . , fn ) une base orthonormale de F et p le
projecteur orthogonal sur F .
n

Alors pour tout x E :

p(x) =

(x|fk )fk .
k=1

Explication Dans ce rsultat, (x|fk )fk reprsente la composante de x selon le vecteur fk et p(x) est la somme
de toutes ces composantes.

c Christophe Bertault - MPSI

Dmonstration

Soit x E. Le vecteur x
n

appartient F . Ainsi x =

(x|fk )fk + x

k=1

(x|fk )fk est orthogonal f1 , f2 , . . . , fn , donc tout F , donc


k=1
n

, et donc, comme voulu :

(x|fk )fk .

p(x) =

k=1

Exemple

(x|fk )fk

k=1

On note F le sous-espace vectoriel Vect(sin, cos) de C [, ], R . Le projet orthogonal de lidentit Id sur F pour

le produit scalaire (f, g)

f (t)g(t) dt est la fonction t 2 sin t.

En eet
Commenons par dterminer une base orthonormale de F grce lalgorithme de Schmidt. Nous allons pour
cela orthonormaliser la famille libre (sin, cos).

Tout dabord :

sin

sin2 t dt =

sin(2t)
t
1 cos(2t)
dt =

2
2
4

sin
notons f0 la fonction t , alors f0 = 1.

t=

= .

t=

cos(2t)
sin(2t)
cos t sin t

dt =
dt =
=0

2
4 t=

cos
comme en 1). Si nous posons f1 = , alors (f0 , f1 ) est une base orthonormale de F .

Ensuite :

Si nous

t=

(cos |f0 ) =

et

cos

Pour dterminer le projet orthogonal de f sur F , nous devons calculer (Id|f0 ) et (Id|f1 ).

Or :

teit dt = t (i)eit

t=

t=

(i)eit dt = 2i + i (i)eit

t=
t=

= 2i + 0 = 2i.

t cos t
Im(2i)
Re(2i)
t sin t

dt =
= 2 et (Id|f1 ) =
dt =
= 0.

Enn, le projet orthogonal de Id sur F est la fonction (Id|f0 )f0 + (Id|f1 )f1 = 2 f0 , i.e. t 2 sin t.
Du coup, (Id|f0 ) =

Exemple Soient E un espace euclidien, a E non nul et H = Vect(a) lunique hyperplan de E orthogonal a. Si p est la
projection orthogonale sur H et si r est la rexion par rapport H, alors pour tout x E :
p(x) = x
En eet

(a|x)a
a 2

et

r(x) = x

2(a|x)a
.
a 2

Notons p la projection orthogonale sur Vect(a). Alors p+p = IdE et

a
a
(x|a)a
=
,
a
a
a 2
Pour lexpression de r, il sut dobserver que r = 2p IdE .

de Vect(a), donc pour tout x E :

4.2

p (x) =

a
a

est une base orthonormale

do lexpression de p.

Distance un sous-espace vectoriel de dimension finie

Dnition (Distance une partie) Soient E un espace prhilbertien rel, A une partie non vide de E et x E. On
appelle distance de x A, note d(x, A), le rel : d(x, A) = inf d(x, a).
aA

Explication
Intuitivement, la distance dun vecteur x une partie A est la plus petite distance sparant x dun
lment de A. Mais comment savoir si une telle plus petite distance existe ? En fait, elle nexiste pas ncessairement et cest
pourquoi on na surtout pas pos d(x, A) = min d(x, a) mais utilis une borne infrieure.
aA

x
d(x, A)

La distance de x A
est ici un minimum
(i.e. elle est atteinte).

aA

d(x, A)

Dmonstration
d(x, a)

La distance de x A
est ici seulement une borne infrieure.

Le rel d(x, A) est bien dni en vertu de la proprit de la borne infrieure, car lensemble

est une partie de R non vide (car A = ) et minore (par 0).

c Christophe Bertault - MPSI

Thorme

(Distance un sous-espace vectoriel de dimension nie)

Alors : d(x, F ) = x p(x) = d x, p(x) .


La distance de x F est donc un minimum. Ce minimum nest
atteint quen la projection orthogonale de x sur F .
Par ailleurs :

d(x, F ) = x

p(x)

x p(x)

Soient E un espace prhilbertien rel, F un sous-espace vectoriel


de dimension finie de E et p le projecteur orthogonal sur F .
Soit en outre x E.

d(x, F ) = x p(x)
F

0E
p(x)

Dmonstration

Comme p(x) Im p = F et xp(x) Ker p = F , alors pour tout f F : xf = x p(x) + p(x) f .


2
2
Le thorme de Pythagore montre aussitt que x f 2 = x p(x) + p(x) f .
Montrons prsent que d(x, F ) = x p(x) = d x, p(x) . Pour ce faire, notons D lensemble d(x, f )

f F

Alors x p(x) = d x, p(x) D car p(x) F .


Mais de plus pour tout f F : d(x, f ) = x f =
donc x p(x) est un minorant de D.

x p(x)

+ p(x) f

x p(x) ,

Ainsi d x, p(x) est le plus petit lment de D, donc aussi sa borne infrieure, ce qui montre le rsultat voulu.
Soit f F distinct de p(x). Alors p(x) f > 0, donc d(x, f ) =
Ceci montre que la distance d(x, F ) nest atteinte quen p(x).

x p(x)

+ p(x) f

> x p(x) .

Reprenons les notations dun exemple trait plus haut : E est un espace euclidien, a E est non nul, H = Vect(a)
(a|x)a
est lunique hyperplan de E orthogonal a et p est la projection orthogonale sur H. Alors : p(x) = x
pour tout
a 2
(a|x)
x E, donc daprs le thorme prcdent : d(x, H) = x p(x) =
. Rsultat bien connu en ralit !
a
Exemple

Si E est le plan euclidien canonique R2 , avec a = (, ) et x = (x0 , y0 ), alors la distance entre x et la droite vectorielle D
|x0 + y0
(a|x)
.
=
de vecteur normal a vaut : d(x, D) =
a
2 + 2
Si E est lespace euclidien canonique R3 , avec a = (, , ) et x = (x0 , y0 , z0 ), alors la distance entre x et le plan vectoriel
(a|x)
|x0 + y0 + z0
P de vecteur normal a vaut : d(x, P ) =
.
=
a
2 + 2 + 2
Exemple

Il est courant quon ait expliquer en physique, en conomie ou dans nimporte


quelle discipline exprimentale une certaine quantit y par une autre quantit
x. En vue de cette explication, supposons quon ait fait n mesures exprimentales
du couple (x, y), disons (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ). Le monde tant bien fait,
il arrive souvent que la variable y, dite explique, soit une fonction ane de la
variable x, dite explicative. On obtient dans ce cas une reprsentation des couples
(xi , yi ) de la forme suivante :

Mais comment dduit-on dun nuage de points une droite de meilleure approximation comme celle que nous avons reprsente ci-dessus ? Nous cherchons deux rels m et p pour lesquels la droite dquation y = mx + p est la plus proche possible
du nuage de points. Ce problme est appel un problme de rgression linaire simple linaire en raison de la forme
y = mx + p cherche, simple parce que y est suppose ne dpendre que dune seule variable explicative x.
Pour tout i 1, n , notre mesure de y pour x = xi nous a fourni la valeur yi , mais la valeur sans erreur que nous aurions
d trouver est mxi + p. Lcart entre les deux vaut |yi mxi p|, mais ce nest pas cet cart ponctuel qui nous intresse.
Nous nous intressons plutt un cart global entre le nuage de points et la droite dquation y = mx + p. Comment
n

dnir cet cart ? Plusieurs dnitions sont possibles, par exemple :

max |yi mxi p|,

1 i n

ou :
i=1

|yi mxi p|,

ou :
i=1

(yi mxi p)2 . Nous allons travailler dsormais dans le cadre de cette troisime possibilit. La mthode de

rgression linaire correspondante est appele la mthode des moindres carrs.

10

c Christophe Bertault - MPSI

Nous cherchons donc des rels m et p sil en existe pour lesquels la quantit

i=1

(yi mxi p)2 est minimale,

et cest prcisment maintenant que les produits scalaires entrent en scne. Dans lespace euclidien canonique Rn , posons
1 1
1
X = (x1 , x2 , . . . , xn ), Y = (y1 , y2 , . . . , yn ), U =
, ,...,
et F = Vect(X, U ). Alors :
n n
n
n

inf

m,pR

i=1

(yi mxi p)2 = inf

m,pR

Y mX npU = inf d(Y, mX + npU ) = inf d(Y, Z) = d(Y, F ).


m,pR

ZF

Or daprs le thorme prcdent, si nous notons p la projection orthogonale de Rn sur F , la distance d(Y, F ) est atteinte
en un et un seul point, savoir p(Y ) = mX + npU , o m et p sont justement ceux que nous cherchons.
Voil, il ne nous reste plus qu calculer m et p. En tant que projet orthogonal sur F , p(Y ) satisfait les deux relations
1
dorthogonalit :
X Y p(Y ) = 0 et
U Y p(Y ) = 0, quon peut encore crire ainsi, sachant que U 2 =
:
n
m X

(X|Y ) n(X|U )(Y |U )


m=
X 2 n(X|U )2

En particulier :

x = (X|U ) =

1
n

m(X|U ) + p = (Y |U ).
et

Bref : deux quations, deux inconnues.

p = (Y |U ) m(X|U ).

xi (moyenne empirique des xi ),

y = (Y |U ) =

i=1

V (x) =
et

et

+ np(X|U ) = (X|Y )

1
X nxU
n

1
n

Posons alors :

1
n

yi (moyenne empirique des yi ),


i=1

(xi x)2 (variance empirique des xi )

i=1
n

1
1
cov(x, y) =
X nxU Y nyU =
n
n

i=1

(xi x)(y y) (covariance empirique des xi et des yi ).

Alors : nV (x) = X nxU 2 = X 2 2nx(X|U ) + n2 x2 U 2 = X 2 2n(X|U )2 + n(X|U )2 = X 2 n(X|U )2 et


de mme : n cov(x, y) = X nxU Y nyU = (X|Y ) nx(Y |U ) ny(X|U ) + n2 xy U 2 = (X|Y ) n(X|U )(Y |U ).
Conclusion :

m=

cov(x, y)
V (x)

et

p = y mx.

Reprsentation des formes linaires


dun espace euclidien

Thorme (Reprsentation des formes linaires dun espace euclidien) Soient E un espace euclidien et une
forme linaire de E. Alors est de la forme x (a|x) pour un certain vecteur a E unique.

Ke
r
=
H

a
ct(
Ve

Forme linaire
non nulle

(x) = (a|x)

Quelle interprtation gomtrique ? Nous savons que la donne dun hyperplan


H quivaut la donne dune forme linaire non nulle , et daprs le thorme
ci-dessus, la donne dune forme linaire non nulle quivaut la donne dun
vecteur non nul a. Quel lien en dduit-on entre H et a ? Tout simplement :
H = Ker = x E/ (a|x) = 0 = Vect(a) . Gomtriquement, a est
donc un vecteur normal H.

Hyperplan
H

Explication

Vecteur
non nul
a

Dmonstration
Il nous sut de montrer que lapplication linaire a x (a|x) est un isomorphisme
de E sur L(E, R), et mme quelle est injective puisque dim L(E, R) = dim E dim R = dim E.
Soit a Ker . Alors (a|x) = 0 pour tout x E. En particulier, a 2 = (a|a) = 0, et donc a = 0E .
Exemple Soit une forme linaire de Rn . Nous savons qualors est une combinaison linaire des coordonnes (dans la
base canonique), i.e. que est de la forme (x1 , x2 , . . . , xn ) a1 x1 + a2 x2 + . . . + an xn pour certains a1 , a2 , . . . , an R uniques.
Pour mmoire, rappelons que a1 = (1, 0, . . . , 0), a2 = (0, 1, . . . , 0), etc.
Nest-il pas clair alors, comme le veut le thorme de reprsentation des formes linaires, que est aussi un produit scalaire par un
vecteur x, ici A = (a1 , a2 , . . . , an ) ? Pour tout X = (x1 , x2 , . . . , xn ) Rn : (X) = a1 x1 + a2 x2 + . . . + an xn = (A|X) = t AX.

11

Vous aimerez peut-être aussi