Vous êtes sur la page 1sur 19

Chapitre 3

Espaces euclidiens

Sommaire
3.1 Espaces préhilbertiens réels 30
Inégalité de Cauchy-Schwarz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Angle non orienté . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2 Orthogonalité. 35
3.2.1 Bases orthonormées . . . . . . . . . . . . . . . . . . . . . . . ..... ..... ..... . . . . 35
Bases orthonormées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
Procédé d’orthonormalisation de Gram-Schmidt . . . . . . . . . . . . . . . . . . 37
Matrices orthogonales et Groupe orthogonal . . . . . . . . . . . . . . . . . . . . . 38
Projection orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
Symétrie orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3 Théorème spectral pour les endomorphismes autoadjoints 43
3.3.1 Adjoint d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . ..... . . . . 43
3.3.2 Théorème spectral pour les endomorphismes symétriques . . . . ..... . . . . 45
3.3.3 Applications aux formes quadratiques . . . . . . . . . . . . . . . . . . . ..... . . . . 47
Réduction simultanée de deux formes quadratiques . . . . . . . . . . . . . . . . . 47

Tous les espaces vectoriels considèrés dans ce chapitre sont sur le corps R des nombres réels.

3.1 Espaces préhilbertiens réels


Soit ϕ une forme bilinéaire symétrique sur un R-espace vectoriel E et soit Φ la forme quadratique associée
à ϕ (ie. Φ(x) = ϕ(x, x), pour tout x ∈ E).
Par convention, tout concept attribué à la forme quadratique Φ sera automatiquement attribué à sa forme
polaire ϕ. C’est ainsi qu’on dira que ϕ est :
— positive (resp. négative) si la forme quadratique Φ est positive (resp. négative);
— définie positive (resp. définie négative) si la forme quadratique Φ est définie positive (resp. définie
négative);
— de signature (p, q) si la forme quadratique Φ est de signature (p, q).

Définition 3.1.1. Soit E un espace vectoriel. Un produit scalaire sur E est une forme bilinéaire φ
symétrique définie positive, c’est-à-dire :
(i) pour tout y ∈ E, l’application x 7→ ϕ(x, y) est linéaire;
(ii) pour tous x, y ∈ E, ϕ(x, y) = ϕ(y, x).

30
3.1 Espaces préhilbertiens réels

(iii) pour tout x ∈ \{0}, ϕ(x, x) > 0.


Le produit scalaire est noté généralement par h., .i .
Un espace préhilbertien (réel) est un couple (E, h., .i), où E est un R-espace vectoriel et h., .i est un
produit scalaire sur E et un espace euclidien est un espace préhilbertien réel de dimension finie.

Pour allèger l’écriture et lorsqu’il n’y a aucune confusion à craindre, on parlera d’un espace préhilbertien
(ou euclidien) E, sans mentionner le produit scalaire h., .i.

Remarques 3.1.1. 1. La condition (iii) ci-dessus est satisfaite si, et seulement si, les deux conditions
suivantes sont satisfaites :
(a) pour tout x ∈ E, hx, xi ≥ 0, (le produit scalaire est positif);
(b) pour tout x ∈ E, hx, xi = 0 ⇒ x = 0, (le produit scalaire est défini).
2. Un espace euclidien est un espace vectoriel de dimension finie muni d’une forme bilinéaire symé-
trique ϕ de signature égale à (n, 0), où n = dim E. En effet, si la signature de ϕ est égale à (n, 0),
alors, d’après le théorème d’inertie de Sylvester, il existe une base (ei )1≤i≤n dans laquelle la forme
quadratique Φ associée à ϕ s’écrit :
n n
Φ(x = ∑ xi ei ) = ∑ xi2
i=1 i=1

Donc Φ est définie positive. Inversement si Φ est définie positive, alors n est la plus grande
dimension d’un sous-espace de E sur lequel Φ est définie positive. Donc Φ est définie positive sur
E.

Exemples 3.1.1. 1. E = Rn . L’application h., .i définie par :


n
h(x1 , · · · , xn ), (y1 , · · · , yn )i = ∑ xi yi
i=1

définit un produit scalaire sur E, appelé produit scalaire canonique (ou usuel) de Rn .
2. E = Mn (R) peut être muni d’une structure d’espace euclidien, en posant, pour tous X,Y ∈ E,

hX,Y i = tr (t XY ).

En effet, pour X = [xi, j ]1≤i, j≤n ∈ E et Y = [yi, j ]1≤i, j≤n ∈ E, on a :

hX,Y i = ∑ xi, j yi, j .


1≤i, j≤n

On en déduit facilement que h., .i est une forme bilinéaire symétrique sur E et que hX, Xi =
∑1≤i, j≤n xi,2 j > 0, pour toute matrice X ∈ E\{0}.
3. E = C ([a, b], R) (l’espace vectoriel des applications continues sur [a, b] à valeurs réelles, −∞ <
a < b < +∞). On pose :
Z b
∀ f , g ∈ E, h f , gi = f (t)g(t) dt.
a

Alors h., .i est un produit scalaire sur E. La bilinéarité, la positivité et la symétrie de h., .i sont
immédiates. Le seul point qui mérite une démonstration est que si f ∈ E vérifie h f , f i = 0, alors
Rb 2
f = 0. Or, si f (t) dt = 0, alors f 2 = 0 (car f 2 est une fonction continue et positive sur [a, b]).
a
Donc f = 0.

31 Boussouis Brahim
C HAPITRE 3 : Espaces euclidiens

Inégalités de Cauchy-Schwarz et de Minkowski


Théorème 3.1.1. Soit ϕ une forme bilinéaire symétrique et positive sur un R-espace vectoriel E. Alors,
pour tous x, y ∈ E, on a :

|ϕ(x, y)|2 ≤ ϕ(x, x) · ϕ(y, y), (Inégalité de Cauchy-Schwarz), (3.1)

avec égalité si le système (x, y) est lié, et seulement dans ce cas si ϕ est définie positive.

Preuve. Posons, pour tout λ ∈ R,

T (λ ) = ϕ(x + λ y, x + λ y) = λ 2 ϕ(y, y) + 2λ ϕ(x, y) + ϕ(x, x)


On a T (λ ) ≥ 0, pour tout λ ∈ R. Si ϕ(y, y) , 0, alors T (λ ) est un trinôme du second degré qui est toujours
positif, donc son discriminant réduit ∆0 = ϕ 2 (x, y) − ϕ(x, x)ϕ(y, y) est négatif, d’où l’inégalité 3.1.
Si ϕ(y, y) = 0, alors ϕ(x, y) = 0. Sinon, on aurait :

lim T (λ ) · lim T (λ ) < 0.


λ →+∞ λ →−∞

T (λ ) prendrait des valeurs strictement négatives, ce qui est absurde. Donc ϕ(x, y) = 0 et l’inégalité 3.1
est encore vérifiée dans ce cas.
Si le système (x, y) est lié, alors soit y = 0 soit il existe λ ∈ R tel que que x = λ y. On vérifie facilement
que, dans ces deux cas, l’inégalité 3.1 est une égalité.
Supposons, à présent, que ϕ est définie positive et qu’il y ait’égalité dans 3.1. Si y = 0, alors (x, y) est lié.
Si y , 0, alors T (λ ) est un trinôme du second degré dont le discriminant réduit est nul. Donc T (λ ) admet
ϕ(x, y)
une racine (double) λ0 = − . On aurait T (λ0 ) = ϕ(x + λ0 y, x + λ0 y) = 0, donc x + λ0 y = 0 et par
ϕ(y, y)
suite le système (x, y) est lié. 

Proposition 3.1.1 (Inégalité de Minkowski). Soit ϕ une forme bilinéaire symétrique et positive sur un
R-espace vectoriel E et soit (x, y) ∈ E 2 . Alors on a :
p p p
ϕ(x + y, x + y) ≤ ϕ(x, x) + ϕ(y, y), (3.2)

avec égalité si x et y sont positivement liés (c’est-à-dire si x = 0 ou bien s’il existe λ ≥ 0 tel que y = λ x),
et seulement dans ce cas si ϕ est définie positive.

Preuve. Comme les deux membres de l’inégalité 3.2 sont positifs, cette inégalité est équivalente à celle
obtenue par élèvation au carré, soit :
p
ϕ(x + y, x + y) = ϕ(x, x) + 2ϕ(x, y) + ϕ(y, y) ≤ ϕ(x, x) + 2 ϕ(x, x) · ϕ(y, y) + ϕ(y, y)
p p
⇐⇒ ϕ(x, y) ≤ ϕ(x, x) · ϕ(y, y),

et cette dernière inégalité découle de l’inégalité de Cauchy-Schwarz.


Si y = 0 ou si x = λ y avec λ ≥ 0, alors il est facile de voir qu’il y a égalité dans 3.2.p p
Inversement, si ϕ est définie positive et s’il y a égalité dans 3.2, alors ϕ(x, y) = ϕ(x, x) · ϕ(y, y),
donc il y a égalité dans 3.1 et en plus ϕ(x, y) ≥ 0. Donc soit y = 0, soit il existe λ ∈ R tel que y = λ x et
ϕ(x, y) = λ ϕ(y, y) ≥ 0. Donc x = λ y, avec λ ≥ 0. 

Définition 3.1.2. On appelle distance (ou métrique) sur un ensemble E toute application d : E × E → R+
qui vérifie les propriétés suivantes :
1. pour tous x, y ∈ E, d(x, y) = 0 ⇐⇒ x = y;
2. pour tous x, y ∈ E, d(x, y) = d(y, x) (symétrie);

32 Boussouis Brahim
3.1 Espaces préhilbertiens réels

3. pour tous x, y, z ∈ E, d(x, z) ≤ d(x, y) + d(y, z) (inégalité triangulaire).


Par exemple, l’application d : R2 3 (x, y) 7→ |x − y| est une distance sur R.
Exercice 2. Soit A un ensemble non vide quelconque et soit d : A × A → R+ l’application définie par :
(
0 si x = y
∀x, y ∈ A, d(x, y) =
1 si x , y
Montrer que d est une distance sur A.
Définition 3.1.3. Soit E un K-espace vectoriel (K = R ou C). Une norme sur E est une application
k · k : E → R+ vérifiant les trois conditions suivantes :
(i) pour tout x ∈ E, kxk = 0 ⇒ x = 0;
(ii) pour tout λ ∈ K et pour tout x ∈ E, kλ xk = |λ | kxk, (Homgénéité);
(iii) pour tous x, y ∈ E, kx + yk ≤ kxk + kyk, (Inégalité triangulaire).
n
Par exemples, les applications k.k1 : x = (x1 , · · · , xn ) 7→ ∑ |xi | et k.k∞ : x 7→ max |xi | sont deux normes
i=1 1≤i≤n
sur Kn .
Remarque 3.1.1. Si k.k est une norme sur un K-espace vectoriel E, alors l’application
d : E × E −→ R+
x 7−→ kx − yk
est une distance sur E.
Exemples 3.1.2. En appliquant l’inégalité de Cauchy-Schwarz aux espaces préhilbertiens introduits dans
les exemples 3.1.1, on obtient les inégalités suivantes :
1. Pour tous x = (x1 , · · · , xn ), y = (y1 , · · · , yn ) ∈ Rn , on a:
!1/2 !1/2
n n n
∑ xi yi ≤ ∑ xi2 · ∑ y2i .

i=1 i=1 i=1

2. Pour tous X,Y ∈ Mn (R), on a :


tr ( XY ) ≤ tr (t XX) 1/2 · tr (t YY ) 1/2
t  

3. Pour tous f , g ∈ C ([a, b], R), on a:


Z b Z b
1/2 Z b
1/2
2 2

f (t)g(t) dt ≤ f (t) dt · f (t) dt .
a a a

Corollaire 3.1.1. Soit E un espace préhilbertien. Alors l’application
k.k : E −→ p R+
x 7−→ hx, xi
est une norme sur E, appelée norme provenant du produit scalaire h., .i.
Preuve. Seule l’inégalité triangulaire mérite une démonstration. Or cette inégalité découle de l’inégalité
de Minkowski. 
Par exemple, l’application k.k2 définie sur Rn par :
!1/2
n
∀x = (x1 , · · · , xn ) ∈ Rn , kxk2 = ∑ xi2 ,
i=1
est une norme sur Rn , appelée norme euclidienne usuelle de Rn .

33 Boussouis Brahim
C HAPITRE 3 : Espaces euclidiens

Angle non orienté de deux vecteurs non nuls


Soient E un espace préhilbertien et x, y ∈ E deux vecteurs non nuls de E. D’après l’inégalité de Cauchy-
hx, yi
Schwarz, le nombre est compris entre −1 et 1. Donc, il existe un unique réel θ ∈ [0, π] tel
kxk · kyk
que
hx, yi
cos θ = ;
kxk · kyk
[
on l’appelle l’angle non orienté de x et y, noté (x, y). On a :

[
(x, y) = 0 ⇐⇒ ∃λ > 0, y = λ x;
[
(x, y) = π ⇐⇒ ∃λ < 0, y = λ x.

Proposition 3.1.2. Soit E un espace préhilbertien et soit k.k la norme provenant du produit scalaire.
Alors on a, pour tout (x, y) ∈ E 2 :

kx + yk2 + kx − yk2 = 2 kxk2 + kyk2 (Identité du parallèlogramme).



(3.3)

y
x+y

x−y

F IGURE 3.1 – La somme des carrés des diagonales d’un parallèlogramme est égale à la somme des carrés
de ses côtés.

Preuve. En effet, on a par bilinéarité du produit scalaire : kx + yk2 + kx − yk2 = hx + y, x +yi + hx −


y, x − yi = hx, xi + 2hx, yi + hy, yi + hx, xi − 2hx, yi + hy, yi = 2 (hx, xi + hy, yi) = 2 kxk2 + kyk2 .


Remarque 3.1.2. L’identié du parallèlogramme est aussi appelée identité de la médiane.


A

B M C

F IGURE 3.2 – AB2 + AC2 = 2(AM 2 + BM 2 ), où M est le milieu du segment [B,C].

3.2 Orthogonalité.
L’orthogonalité définie pour une forme quadratique (ou pour une forme bilinéaire symétrique) sub-
siste pour un produit scalaire. Deux vecteurs x et y d’un espace préhilbertien E sont orthogonaux

34 Boussouis Brahim
3.2 Orthogonalité.

si, et seulement si, hx, yi = 0. L’orthogonal d’une partie A ⊂ E est le sous-espace vectoriel A⊥ =
{x ∈ E /∀a ∈ A, hx, ai = 0}. En particulier, on a E ⊥ = {0} (car si x ∈ E ⊥ , alors hx, xi = 0, donc x = 0).
On en déduit que le produit scalaire est une forme bilinéaire symétrique non dégénérée. Deux parties A et
B de E sont dites orthogonales si tout vecteur de A est orthogonal à tout vecteur de B.
Lorsque E est un espace euclidien, le théorème de Riesz (cf. page 14) s’écrit dans ce cas :

Théorème 3.2.1 (de Riesz). Soit E un espace euclidien. Alors pour toute forme linéaire f ∈ E ∗ , il existe
un et un seul vecteur a ∈ E tel que f = h., ai, c’est-à-dire tel que :

∀x ∈ E, f (x) = hx, ai.

Soit k.k la norme provenant du produit scalaire (kxk2 = hx, xi). La formule de polarisation s’écrit :

kx + yk2 − kxk2 − kyk2


hx, yi = .
2
Donc
x ⊥ y ⇐⇒ hx, yi = 0 ⇐⇒ kx + yk2 = kxk2 + kyk2 (formule de Pythagore)
Notons que si x et y sont tous les deux non nuls, alors

[ π
x ⊥ y ⇐⇒ hx, yi = 0 ⇐⇒ (x, y) = .
2
Une famille (ei )i∈I est dite orthogonale si ses éléments sont deux à deux orthogonaux (ie. hei , e j i = 0,
pour i , j). Ellle est dite orthonormée (ou orthonormale) s’elle est formée de vecteurs unitaires (ie.
kei k = 1, pour tout i ∈ I) deux à deux orthogonaux. Il revient au même de dire que la famille (ei )i∈I est
orthonormée si, et seulement si, on a :
(
1 si i = j
∀i, j ∈ I, hei , e j i = δi, j =
0 si i , j.

Proposition 3.2.1. Soit (ei )i∈I une famille orthogonale de vecteurs non nuls. Alors cette famille est libre
(ie. pour toute partie finie J ⊂ I, (e j ) j∈J est libre). En particulier toute famille orthonormée de E est libre.

Preuve. Soit J une partie finie de I et soit (λ j ) j∈J une famille de réels telles que ∑ λ j e j = 0. Pour tout
j∈J
k ∈ J, on a :
h ∑ λ j e j , ek i = ∑ λ j he j , ek i = ∑ λ j δ j,k = λk hek , ek i = λk kek k2 = 0.
j∈J j∈J j∈J

Or ek , 0, donc kek k , 0, et par suite λk = 0. 

Bases orthonormées
Définition 3.2.1. Soit (E, h., .i) un espace euclidien. Une base orthonormée (en abrégé b.o.n.) de E est
une base B = (ei )1≤i≤n de E telle que, pour tous i, j ∈ ~1, n, on a :
(
1 si i = j;
hei , e j i = δi, j = (3.4)
0 si i , j.

Il revient au même de dire que B est orthonormée si, et seulement si, la matrice du produit scalaire dans
la base B (en tant que forme bilinéaire) est la matrice identité In : Mat(h., .i, B) = In .

35 Boussouis Brahim
C HAPITRE 3 : Espaces euclidiens

Par exemple, la base canonique de Rn est une b.o.n de Rn muni de sa structure euclidienne usuelle.

Proposition 3.2.2. Soit E un espace euclidien muni d’une b.o.n B = (ei )1≤i≤n et soit (x, y) ∈ E 2 . Alors,
on a :
n
∀x ∈ E, x = ∑ hx, ei iei ; (3.5)
i=1
n
∀x, y ∈ E, hx, yi = ∑ hx, ei ihy, ei i; (3.6)
i=1
n
∀x ∈ E, kxk2 = ∑ hx, ei i2 ; (3.7)
i=1
∀u ∈ L (E), Mat(u, B) = [hu(e j ), ei i]1≤i, j≤n . (3.8)

n
Preuve. Soit x = ∑ λi ei la décomposition de x dans la base B. On a, pour tout j ∈ ~1, n,
i=1
n n n
hx, e j i = h ∑ λi ei , e j i = ∑ λi hei , e j i = ∑ λi δi, j = λ j .
i=1 i=1 i=1

D’où la formule 3.5. On en déduit, par bilinéarité du produit scalaire, que :


n n
hx, yi = h ∑ hx, ei iei , yi = ∑ hx, ei ihy, ei i,
i=1 i=1

ce qui prouve la formule 3.6. La formule 3.7 est un cas particulier de la formule 3.6, puisque kxk2 = hx, xi.
Pour finir, posons Mat(u, B) = [ai, j ]1≤i, j≤n . On a, pour tous i, j ∈ ~1, n,
n n
u(e j ) = ∑ ak, j ek ⇒ hu(e j ), ei i = ∑ ak, j hek , ei i = ai, j .
k=1 k=1

Ce qui prouve la formule 3.8.




Remarque 3.2.1. Etant donnée une base orthogonale B = (ei )1≤i≤n de E, on en déduit une b.o.n
ei
B 0 = (e0i )1≤i≤n en posant, pour tout i ∈ ~1, n, e0i = , (on dit qu’on a normalisé les vecteurs ei ).
kei k
Proposition 3.2.3. Tout espace euclidien E admet une b.o.n

Preuve. En effet, E admet une base q-orthogonale B, où q est la forme quadratique associée au produit
scalaire. On obtient une b.o.n de E en normalisant les vecteurs de B. 

Procédé d’orthonormalisation de Gram-Schmidt


Pour un espace euclidien, il existe une autre méthode que la méthode de Gauss pour obtenir des bases
orthogonales (et par normalisation, des bases orthonormées).

Théorème 3.2.2 (Procédé d’orthonormalisation de Gram-Schmidt). Soit E un espace préhilbertien et soit


U = (ui )1≤i≤n un systéme libre de E, où 1 ≤ n ≤ dim E. Alors, il existe un et un seul système orthonormé
B = (ei )1≤i≤n de E tel que, pour tout k ∈ ~1, n, on ait :

(i) Vect(e1 , · · · , ek ) = Vect(u1 , · · · , uk ) et (ii) hek , uk i > 0.

36 Boussouis Brahim
3.2 Orthogonalité.

Preuve. On raisonne par récurrence sur n. Si n = 1 et si e1 existe, alors e1 = λ u1 . Comme ke1 k = 1 =


1 u1
|λ | ku1 k et he1 , u1 i = λ ku1 k2 , on en déduit que λ > 0, λ = et e1 = . Inversement, en posant
ku1 k ku1 k
u1
e1 = , on obtient un système orthononormé de E qui vérifie les deux conditions (i) et (ii). Donc le
ku1 k
théorème est vrai pour n = 1.
Supposons que dim E ≥ n ≥ 2 et que le théorème est vrai pour tous les systèmes libres de cardinal n − 1.
Soit U = (ui )1≤i≤n un systéme libre de E. D’après l’hypothèse de récurrence, il existe un et un seul
sytème orthonormé (ei )1≤i≤n−1 de E tel que, pour tout k ∈ ~1, n − 1, on ait :

Vect(e1 , · · · , ek ) = Vect(u1 , · · · , uk ) et hek , uk i > 0.


n n−1
Si en existe, alors il s’écrit sous la forme en = ∑ λi ui . Comme ∑ λi ui ∈ Vect(u1 , · · · , un−1 ) = Vect(e1 , · · · , en−1 ),
i=1 i=1
n−1 n−1 n−1
il existe α1 , · · · , αn−1 ∈ R tels que ∑ λi ui = ∑ αi ei . Donc en = λn un + ∑ αi ei . D’autre part, en est or-
i=1 i=1 i=1
thogonal aux vecteurs e1 , · · · , en−1 , donc pour tout j ∈ ~1, n, on a :

0 = hen , e j i = λn hun , e j i + α j ⇒ α j = −λn hun , e j i.

Ainsi
n−1
en = λn vn avec vn = un − ∑ hun , e j ie j .
j=1

n−1
On a nécessairement vn , 0 (sinon, un = ∑ hun , e j ie j appartiendrait à Vect(e1 , · · · , en−1 ) = Vect(u1 , · · · , un−1 )
j=1
et le système (u1 , · · · , un ) ne serait pas libre). De plus,
n−1
hen , un i = hen , vn + ∑ hun , e j ie j i = hen , vn i = hλn vn , vn i = λn kvn k2 > 0
j=1
ken k = |λn | kvn k = 1.
1
Donc λn > 0 et λn = . On obtient finalement :
kvn k

n−1
un − ∑ hun , e j ie j
j=1
(∗) en = n−1
.
kun − ∑ hun , e j ie j k
j=1

Ceci prouve l’unicité de en .


Inversement, en remontant les calculs, on vérifie que le vecteur en défini par la formule (∗) vérifie les
propriétés suivantes :
— ken k = 1 et en est orthogonal aux ei , pour 1 ≤ i ≤ n − 1.
— en ∈ Vect(e1 , · · · , en−1 , un ) = Vect(u1 , · · · , un−1 , un ) donc Vect(e1 , · · · , en−1 , en ) ⊂ Vect(u1 , · · · , un−1 , un )
et comme ces deux espaces ont la même dimension, ils sont égaux.
1
— hen , un i = n−1
> 0.
kun − ∑ hun , e j ie j k
j=1

37 Boussouis Brahim
C HAPITRE 3 : Espaces euclidiens

Remarques 3.2.1. 1. Dans la pratique, pour orthonormaliser un système libre U = (ui )1≤i≤n , on
procède comme suit :
u1
— On calcule d’abord ku1 k, puis on pose e1 = ;
ku1 k
v2
— on calcule ensuite v2 = u2 − hu2 , e1 ie1 , puis on en déduit e2 = ;
kv2 k
k−1
vk
— Une fois construits e1 , · · · , ek−1 , on calcule vk = uk − ∑ huk , e j ie j , puis on en déduit ek = ,
j=1 kvk k
(2 ≤ k ≤ n).
2. On a :
k
∀k ∈ ~1, n, uk = ∑ huk , e j ie j
j=1

Donc si U = (ui )1≤i≤n est une base de E, alors B = (ei )1≤i≤n est une b.o.n de E et la matrice
de passage de B à U est triangulaire supérieure à cœfficients diagonaux huk , ek i, k = 1, · · · , n,
strictement positifs.

Exemple 3.2.1. Appliquons le procédé de Gram-Schmidt à la base U = (u1 , u2 , u3 ) de R3 muni de sa


structure euclidienne usuelle, où :

u1 = (1, 1, 0), u2 = (0, 1, 1), u3 = (0, 1, 0).


√ √ u1 1
On a ku1 k = 12 + 12 + 02 = 2, on en déduit e1 = = √ (1, 1, 0). On calcule ensuite v2 = u2 −
ku1 k 2 √
1 1 1 6 v2 1
hu2 , e1 ie1 = (0, 1, 1) − √ √ (1, 1, 0) = (−1, 1, 2). D’où kv2 k = et e2 = = √ (−1, 1, 2).
2 2 2 2 kv2 k 6
1 1
On calcule successivement v3 = u3 − hu3 , e1 ie1 − hu3 , e2 ie2 = (−1, 1, −1), puis kv3 k = √ et enfin
3 3
v3 1
e3 = = √ (−1, 1, −1).
kv3 k 3
Noter que la base orthonormée obtenue dépend de l’ordre dans lequel on prend les vecteurs de la
base U . Si on était parti de la base U 0 = ((0, 1, 0), (0, 1, 1), (1, 1, 0)), on aurait obtenu la b.o.n B 0 =
((0, 1, 0), (0, 0, 1), (1, 0, 0)).

Matrices orthogonales et Groupe orthogonal


Définition 3.2.2. On dit qu’une matrice P ∈ Mn (R) est orthogonale si t PP = In .

Théorème 3.2.3. Soit E un espace euclidien de dimension n muni d’une b.o.n B = (ei )1≤i≤n et soit
U = (ui )1≤i≤n un système de n vecteurs de E. Pour que U soit une base orthonormée de E, il faut et il
suffit que la matrice P du sytème U dans la base B soit orthogonale.

Preuve. Soit P = Mat(U , B) (les colonnes de U sont formées des coordonnées des vecteurs de U
dans la base B). Si P est orthogonale, alors P est inversible et U est une base de E. Posons ϕ = h., .i.
On a Mat(ϕ, B) = In et Mat(ϕ, U ) = [hui , u j i]1≤i, j≤n . D’après la formule de changement de base pour la
forme bilinéaire ϕ, on a :

Mat(ϕ, U ) = t PMat(ϕ, B)P = t PIn P = t PP = In .

Donc la base U est orthonormée.

38 Boussouis Brahim
3.2 Orthogonalité.

Inversement, si U est une base orthonormée de E, alors la matrice P = Mat(U , B) peut être considérée
comme la matrice de passage de la base B à la base U . La formule de changement de base pour la forme
bilinéaire ϕ = h., .i permet d’écrire : Mat(ϕ, U ) = t PMat(ϕ, B)P = t PIn P = t PP = In . Donc P est une
matrice orthogonale. 

Proposition 3.2.4. Soit P ∈ Mn (R) une matrice carrée réelle d’ordre n. Alors les assertions suivantes
sont équivalentes :
(i) P est orthogonale.
(ii) P est inversible et P−1 = t P.
(iii) Les vecteurs colonnes de P forment une b.o.n de Rn muni de sa structure euclidienne usuelle.

Preuve. L’équivalence (i) ⇐⇒ (ii) est immédiate. Démontrons l’équivalence (i) ⇐⇒ (iii). Soit
B = (ei )1≤i≤n la base canonique de Rn (B est une b.o.n de Rn muni de sa structure euclidienne usuelle).
Soit maintenant C = (c j )1≤ j≤n , où c j est la je colonne de la matrice P. On a P = Mat(C , B). D’après la
proposition 3.2.3, C est une b.o.n de Rn si, et seulement si, P est orthogonale. Donc (i) ⇐⇒ (iii). 

Remarques 3.2.2. 1. Si une matrice P ∈ Mn (R) est orthogonale alors sa transposée est aussi ortho-
gonale car :
t
PP = In ⇒ t P = P−1 ⇒ P t P = t t P t P = In .


La réciproque est également vraie (car si Q = t P est orthogonale, alors P = t Q est orthogonale).
En utilisant la proposition ci-dessus, on peut dire que P est orthogonale si, et seulement si, ses
vecteurs lignes forment une b.o.n de Rn muni de sa structure euclidienne usuelle.
2. Si P ∈ Mn (R) est orthogonale, alors det (t PP) = (det P)2 = det In = 1, donc det P = ±1.
 
cos θ − sin θ
Exemple 3.2.2. Posons P = . Alors P est une matrice orthogonale d’ordre 2, car ses
sin θ cos θ
p
deux colonnes c1 et c2 sont de norme = cos2 θ + sin2 θ = 1 et hc1 , c2 i = − cos θ sin θ + cos θ sin θ = 0.

Proposition 3.2.5. L’ensemble O(n, R) des matrices orthogonales d’ordr n est un sous-groupe du groupe
GL(n, R) des matrices inversibles d’ordre n; on l’appelle groupe orthogonal de Rn .

Preuve. On a O(n, R) est non vide (car In ∈ O(n, R)) et O(n, R) ⊂ GL(n, R) (car toute matrice orthogo-
nale est inversible). Soit P, Q ∈ O(n, R). On a
−1
t
PQ−1 PQ−1 = t Q−1 t PPQ−1 = t Q−1 Q−1 = Qt Q = In−1 = In .
  

Donc PQ−1 ∈ O(n, R), et par conséquent O(n, R) est un sous-groupe du groupe GL(n, R). 

Remarque 3.2.2. Le sous-enemble SO(n, R) de O(n, R) formé des matrices orthogonales de déterminant
+1 est un sous-groupe de O(n, R), appelé groupe spécial spécial orthogonal de Rn . En effet, l’application
det : O(n, R) → ({−1, 1}, ×) est un morphisme de groupes et SO(n, R) est le noyau de ce morphisme.

Projection orthogonale
Proposition 3.2.6. Soit F un sous-espace vectoriel d’un espace euclidien E. Alors on a :
1. E = F ⊕ F ⊥ .

2. F ⊥ = F.

Preuve. On munit E de la forme quadratique associée au produit scalaire. Alors F ∩ F ⊥ = {0} (car
x ∈ F ∩ F ⊥ ⇒ hx, xi = 0 ⇒ x = 0). D’après le théorème 2.4.3 (cf. page 20), on a E = F ⊕ F ⊥ . En
⊥ ⊥
appliquant cette formule à F ⊥ , on peut écrire : E = F ⊥ + F ⊥ . Donc dim F ⊥ = dim E − dim F ⊥ = dim F.
⊥ ⊥
Or F ⊂ F ⊥ , donc F ⊥ = F. 

39 Boussouis Brahim
C HAPITRE 3 : Espaces euclidiens

Définition 3.2.3. Soit F un sous-espace vectoriel d’un espace euclidien E. La projection orthogonale
sur F, notée pF , est la projection sur F parallèlement à F ⊥ :

pF : E −→ F
x = xF + xF ⊥ 7−→ xF
Donc 
y ∈ F
y = pF (x) ⇐⇒
x − y ∈ F ⊥.
Proposition 3.2.7. Soit F un sous-espace vectoriel d’un espace euclidien E. Alors, on a :
1. L’application pF est linéaire, son noyau est F ⊥ et son image est F.
2. pF ◦ pF = pF ;
3. pF + pF ⊥ = IdE .
4. pour tout x ∈ E, et pour tout y ∈ F, kx − pF (x)k ≤ kx − yk.
Preuve. Seule l’inégalité 4 mérite une démonstration. Soit (x, y) ∈ E × F. On a

x − y = x − pF (x) + pF(x) − y.
| {z } | {z }
∈F ⊥ ∈F

D’après le théorème de Pythagore, on a :

kx − yk2 = kx − pF (x)k2 + kpF (x) − yk2 ≥ kx − pF (x)k2 .

pF (x)
y
F

Remarque 3.2.3. Le nombre d(x, F) B inf kx −yk est appelé distance de x à F. L’inégalité 4 peut s’écrire
y∈F

d(x, F) = kx − pF (x)k.

La proposition suivante permet de calculer la projection orthogonale d’un vecteur x sur un sous-espace
vectoriel F dont on connaît une base base orthonormée.
Proposition 3.2.8. Soit U = (ei )1≤i≤p une base orthonormée d’un sous-espace F d’un espace euclidien
E. Alors, pour tout x ∈ E, on a :
p
pF (x) = ∑ hx, ei iei . (3.9)
i=1
p p
Preuve. Posons y = ∑ hx, ei iei . On a y ∈ F. D’autre part, pour tout z = ∑ λi ei ∈ F, on a :
i=1 i=1
p p p p p
hx − y, zi = hx, zi − hy, zi = ∑ λi hx, ei i − h ∑ hx, ei iei , ∑ λi ei i = ∑ λi hx, ei i − ∑ λi hx, ei i = 0.
i=1 i=1 i=1 i=1 i=1

Donc x − y ∈ F ⊥ et par suite y = pF (x). 

40 Boussouis Brahim
3.2 Orthogonalité.

Remarque 3.2.4. Reprenons les notations de la démonstration du théorème d’orthonormalisation de


Gram-Schmidt (cf. page 36) et posons

Fk = Vect(u1 , · · · , uk ) = Vect(e1 , · · · , ek ), (1 ≤ k ≤ n).


Alors , on a d’après la proposition 3.2.8 :
k−1
∀k ∈ ~2, n, ∑ huk , ei iei = pFk−1 (uk ).
i=1
Donc
uk − pFk−1 (uk )
∀k ∈ ~2, n, vk = uk − pFk−1 (uk ) et ek = .
kuk − pFk−1 (uk )k
Cette dernière formule reste valable pour k = 1, en posant F0 = {0}, v1 = u1 − pF0 (u1 ) = u1 .
Exemples 3.2.1. 1. On munit R3 de sa structure euclidienne usuelle. Soit F = Vect (u1 = (1, 1, −1), u2 = (1, 1, 1)).
Déterminons la matrice de la projection orthogonale sur F dans la base canonique de R3 .
On commence par chercher une b.o.n de F, en appliquant le procédé de Gram-Schmidt au système
(u1 , u2 ).
u1 1 1 1 2
On a e1 = = √ (1, 1, −1)), v2 = u2 − hu2 , e1 ie1 = (1, 1, 1) − √ √ (1, 1, −1) = (1, 1, 2)
ku1 k 3 3 3 3
v2 1
et e2 = = √ (1, 1, 2).
kv2 k 6
Soit u = (x, y, z) ∈ R3 . On applique la formule 3.9 :

1 1 1
pF (u) = hu, e1 ie1 + hu, e2 ie2 = (x + y − z)(1, 1, −1) + (x + y + 2z)(1, 1, 2) = (x + y, x + y, 2z).
3 6 2
 
1 1 0
1
Donc la matrice cherchée est 1 1 0.
2
0 0 2
2. Même question pour le sous-espace F = u = (x, y, z) ∈ R3 /x − y + 2z = 0 .


Ici, il est plus facile de calculer la matrice de pF ⊥ . En effet, posons v = (1, −1, 2). Alors F =
v 1
v⊥ = (R · v)⊥ , donc F ⊥ = R · v. On normalise la base (v) de F ⊥ : e1 = = √ (1, −1, 2) et on
kvk 6
applique la formule 3.9, pour obtenir :

1 1
pF ⊥ (u) = hu, e1 ie1 = (x − y + 2z)(1, −1, 2) = (x − y + 2z, −x + y − 2z, 2x − 2y + 4z) .
6 6
 
1 −1 2
1
On en déduit que la matrice de pF ⊥ dans la base canonique est : A = −1 1 −2 et celle
6
2 −2 4
 
5 1 −2
1
de pF est B = I3 − A =  1 5 2 .
6
−2 2 2

Symétrie orthogonale
Définition 3.2.4. Soit F un sous-espace vectoriel d’un espace euclidien E. La symétrie orthogonale par
rapport à F est l’endomorphisme sF = 2pF − IdE , où pF est la projection orthogonale sur F. Lorsque F
est un hyperplan de E, on dit que sF est une réflexion.

41 Boussouis Brahim
C HAPITRE 3 : Espaces euclidiens

Les principales propriétés de la symétrie orthogonale sont regroupées dans la proposition suivante.
Proposition 3.2.9. 1. s2F = sF ◦ sF = IdE , (sF est involutive);
2. sF ⊥ = −sF ;
3. ksF (x)k = kxk, pour tout x ∈ E;
x+y
4. sF (x) est l’unique point y ∈ E tel que x − y ∈ F ⊥ et le milieu du segment joignant x à y
2
appartient à F.

pF (x)
F

sF (x)

Preuve. 1. On a :
sF ◦ sF = (2pF − IdE ) ◦ (2pF − IdE ) = 4pF ◦ pF − 2pF − 2pF + IdE = 4pF − 4pF + IdE = IdE .
2. sF ⊥ = 2pF ⊥ − IdE = 2(IdE − pF ) − IdE = IdE − 2pF = −sF .
3. x = x − pF (x) + pF (x) et sF (x) = pF (x) − x + pF (x). On en déduit, d’après le théorème de Pytha-
| {z } | {z } | {z } | {z }
∈F ⊥ ∈F ∈F ⊥ ∈F
gore :

kxk2 = kx − pF (x)k2 + kpF (x)k2 = ksF (x)k2 .


x + y x + 2pF (x) − x
4. Posons y = sF (x). Alors x −y = x −(2pF (x)−x) = 2(x − pF (x)) ∈ F ⊥ et = =
2 2
pF (x) ∈ F.
x+y
Inversement, supposons que x − y ∈ F et que = z ∈ F ⊥ . Alors
2
x+y x−y x−y
x= + = z + .
2 2 ∈F ⊥ 2}
| {z
∈F
x−y
Donc pF (x) = et y = 2pF (x) − x = sF (x).
2


3.3 Théorème spectral pour les endomorphismes autoadjoints


3.3.1 Adjoint d’un endomorphisme
Théorème et définition 3.3.1. Soit E un espace euclidien et soit ϕ ∈ L2 (E) une forme bilinéaire sur E.
Alors, il existe un et un seul endomorphisme u ∈ L (E) tel que :
∀x, y ∈ E, ϕ(x, y) = hx, u(y)i. (3.10)
u est appelé l’endomorphisme associé à ϕ.

42 Boussouis Brahim
3.3 Théorème spectral pour les endomorphismes autoadjoints

Preuve. Posons, pour tout u ∈ L (E) , ϕ u (x, y) = hx, u(y)i. Il est facile de voir que ϕ u est une forme
bilinéaire sur E, autrement dit ϕ u ∈ L2 (E). On considère l’application

Φ : L (E) −→ L2 (E)
ϕ 7−→ ϕu
Φ est linéaire. En effet, pour tout (λ , u, v) ∈ R × L (E) × L (E) et pour tous x, y ∈ E, on a :

Φ(λ u+v)(x, y) = hx, (λ u+v)(y)i = λ hx, u(y)i+hx, v(y)i = λ Φ(u)(x, y)+Φ(v)(x, y) = (λ Φ(u) + Φ(v)) (x, y).

Donc Φ(λ u + v) = λ Φ(u) + Φ(v), ce qui prouve la linéarité de Φ. Examinons, à présent, le noyau de Φ.
On a :

u ∈ ker Φ ⇐⇒ Φ(u) = 0 ⇐⇒ ∀x, y ∈ E, Φ(u)(x, y) = hx, u(y)i = 0


⇐⇒ ∀y ∈ E, u(y) ∈ E ⊥ = {0} ⇐⇒ ∀y ∈ E, u(y) = 0
⇐⇒ u = 0.

Donc Φ est injective. Or dim L (E) = n2 = dim L2 (E), où n = dim E. Donc Φ est bijective. On en
déduit, que pour tout ϕ ∈ L2 (E), il existe un et un seul u ∈ L (E) tel que ϕ = Φ(u), c’est-à-dire tel que
ϕ(x, y) = hx, u(y)i, pour tous x, y ∈ E.


Définition 3.3.1. Soit E un espace euclidien et soit u ∈ L (E) un endomorphisme de E. L’ endomorphisme


associé à la forme bilinéaire (x, y) 7→ hu(x), yi est appelé l’adjoint de u. L’adjoint de u est noté par u∗ , et
il est caractérisé par :

∀x, y ∈ E, hu(x), yi = hx, u∗ (y)i. (3.11)

Proposition 3.3.1. Soit E un espace euclidien et soient u, v ∈ L (E). Alors, on a :


(i) (λ u + v)∗ = λ u∗ + v∗ , pour tout λ ∈ R.
(ii) u∗∗ B (u∗ )∗ = u.
(iii) (u ◦ v)∗ = v∗ ◦ u∗ . ∗
(iv) Si u est inversible, alors il en est de même de u∗ et on a u−1 = (u∗ )−1 .
(v) Mat(u∗ , B) = t (Mat(u, B)), où B est une b.o.n de E.

Preuve. La démonstration des assertions (i), (ii) et (iii) découle de la définition de l’adjoint, elle est
laissée en exercice. L’assertion (iv) est une conséquence de (iii) et du fait que (IdE )∗ = IdE .
Posons Mat(u, B) = [ai, j ]1≤i, j≤n et Mat(u∗ , B) = [bi, j ]1≤i, j≤n . D’après la formule 3.8 (cf. page 36), on a :

∀i, j ∈ ~1, n, ai, j = hu(e j ), ei i = he j , u∗ (ei )i = hu∗ (ei ), e j i = b j,i .

Ceci prouve l’assertion (v).




Remarque 3.3.1. Une conséquence de l’assertion (v) de la proposition ci-dessus est qu’un endomor-
phisme et son adjoint ont le même rang, la même trace, le même déterminant et le même polynôme
caractéristique.

Proposition 3.3.2. Soit u un endomorphisme d’un espace euclidien E. Alors, on a :


(i) ker u∗ = (Im u)⊥ .
(ii) Im u∗ = (ker u)⊥ .

43 Boussouis Brahim
C HAPITRE 3 : Espaces euclidiens

(iii) Si F un sous-espace vectoriel de E stable par u, Alors F ⊥ est stable par u∗ :


 
u(F) ⊂ F ⇒ u∗ F ⊥ ⊂ F ⊥ .

Preuve. On a :

y ∈ ker u∗ ⇐⇒ u∗ (y) = 0 ⇐⇒ ∀x ∈ E, hx, u∗ (y)i = 0 = hu(x), yi ⇐⇒ y ∈ (Im u)⊥ .


D’où l’assertion (i). L’assertion (ii) en découle, puisque

ker u = ker u∗∗ = (Im u∗ )⊥ ⇒ (ker u)⊥ = (Im u∗ )⊥ = Im u∗ .
Démontrons la dernière assertion. Supposons que u(F) ⊂ F et soit y ∈ F ⊥ . On a, pour tout x ∈ F,
hu∗ (y), xi = hy, u(x)i = 0 (car u(x) ∈ F et y ∈ F ⊥ ). Donc u∗ (y) ∈ F ⊥ . 

Définition 3.3.2. Soit u un endomorphisme d’un espace euclidien E. On dit que u


— est symétrique (ou autoadjoint) si u = u∗ , c’est-à-dire si, pour tous x, y ∈ E, on a :

hu(x), yi = hx, u(y)i.

— antisymétrique si u∗ = −u, c’est-à-dire si, pour tous x, y ∈ E, on a :

hu(x), yi = −hx, u(y)i.

— orthogonal si u ◦ u∗ = u∗ ◦ u = IdE .
— normal si u et u∗ commutent : u ◦ u∗ = u∗ ◦ u.

Remarque 3.3.2. 1. Par l’assertion (iv) de la proposition 3.3.1, un endomorphisme est symétrique si,
et seulement si, sa matrice dans une base orthonormée est symétrique.
2. Les endomorphismes symétriques, antisymétriques ou orthogonaux sont des cas particuliers d’en-
domorphismes normaux.

La proposition suivante fournit deux exemples importants d’endomorphismes symétriques.

Proposition 3.3.3. Soit F un sous-espace vectoriel d’un espace euclidien E. Alors la projection or-
thogonale sur F est un endomorphisme symétrique et la symétrie orthogonale par rapport à F est un
endomorphisme de E à la fois symétrique et orthogonal.

Preuve. On sait que E = F ⊕ F ⊥ . Donc, en réunissantt une base orthonormée (ei )1≤i≤p de F et une
base orthonormée (ei ) p+1≤i≤n de F ⊥ , on obtient une base orthonormée B = (ei )1≤i≤n de E. On a

Mat(pF , B) = A = diag(1, · · · , 1, 0, · · · , 0).


| {z } | {z }
p fois n − p fois

Comme A est symétrique, pF est aussi symétrique. De même sF est symétrique car sa matrice dans la
base B est égale à 2A − In = diag(1, · · · , 1, −1, · · · , −1). et cette dernière matrice est symétrique. De plus,
| {z } | {z }
p fois n − p fois
sF ◦ s∗F = sF ◦ sF = IdE , donc sF est aussi un endomorphisme orthogonal. 

Remarque 3.3.3. Si 1 ≤ dim F < dim E, alors, on a :


1. pF est diagonalisable avec 0 et 1 comme valeurs propres; le sous-espace propre associé à 1 est F
et le sous-espace propre associé à 0 est F ⊥ . En outre tr (pF ) = dim F.
2. sF est aussi diagonalisable avec 1 et −1 comme valeurs propres; le sous-espace propre associé à 1
est F et le sous-espace propre associé à −1 est F ⊥ .

44 Boussouis Brahim
3.3 Théorème spectral pour les endomorphismes autoadjoints

3.3.2 Théorème spectral pour les endomorphismes symétriques


Théorème 3.3.1. Soit u un endomorphisme symétrique d’un espace euclidien E. Alors, on a :
1. Le polynôme caractéristique χu de u est scindé dans R (ie. toutes les racines de χu sont réelles.)
2. Les sous-espaces propres associés à deux valeurs propres distinctes sont orthogonaux.
3. u est diagonalisable en base orthonormée, c’esy-à-dire, que E admet une base orthonormée formée
de vecteurs propres de u.
On dit aussi que u est diagonalisable dans le groupe orthogonal de E.

Preuve. Assertion 1. Soit B une base orthonormée de E et soit A la matrice de u dans B. u étant
symétrique, A est une matrice à éléments réels et symétrique (ie. t A = A).
Le corps C étant algébriquement clos, le polynôme caractéristique χA = χu de A admet des racines,
à priori complexes. Soit λ l’une
de ces racines. Comme χA (λ ) = det (λ In − A) = 0, il existe une
z1
 .. 
matrice colonne non nulle Z =  .  ∈ Mn,1 (C) telle que AZ = λ Z. A étant réelle, on a A = A (A
zn
est la matrice conjuguée de A). Donc AZ = λ Z = λ Z = AZ = AZ. On multiplie les deux membres de
l’égalité AZ = λ Z par t Z, et on utilise le fait qu’une matrice de type (1, 1) est symétrique (ie.égale
à sa transposée), pour obtenir :

λ t ZZ = t ZAZ = t t ZAZ = t ZAZ = t Z(λ Z) = λ t ZZ.




n
Or t ZZ = t ZZ = ∑ |zi |2 > 0, donc λ = λ , et par suite λ ∈ R.
i=1
Assertion 2. Soient λ et µ deux valeurs propres distinctes de u et soient x, y ∈ E tels que u(x) = λ x et
u(y) = µy. On a :

λ hx, yi = hλ x, yi = hu(x), yi = hx, u(y)i = hx, µyi = µhx, yi.


Comme λ , µ, on en déduit que hx, yi = 0. Donc le sous-espace propre Eλ = {x ∈ E /u(x) = λ x}
est ortogonal au sous-espace propre Eµ = {y ∈ E /u(y) = µy}.
Assertion 3. On procède par récurrence sur n = dim E. Si n = 1, il n’y a rien à montrer. Supposons que
l’assertion 3 est vraie pour tous les espaces euclidiens de dimension ≤ n−1. Soit λ une valeur propre
de u (λ existe et est réelle d’après l’assertion 1). Le sous-espace propre Eλ associé à λ est stable par
u et sa dimension est ≥ 1. D’après l’assertion (iii) de la proposition 3.3.2 (cf. page 43), Eλ⊥ est stable
par u∗ = u. Donc u induit un endomorphisme uλ sur Eλ⊥ (uλ n’ est rien d’autre que la restriction de
u à Eλ ). uλ est symétrique (car, pour tous x, y ∈ Eλ⊥ , huλ (x), yi = hu(x), yi = hx, u(y)i = hx, uλ (y)i).
Par l’hypothèse de récurrence, il existe une b.o.n B 0 de Eλ⊥ formée de vecteurs propres de uλ (donc
formée de vecteurs propres de u). En réunissant une b.o.n B 00 de Eλ⊥ avec B 0 , on obtient une b.o.n
de E formée de vecteurs propres de u.


Remarque 3.3.4. Soit u un endomorphisme d’un espace euclidien E. Alors u est symétrique si, et
seulement si, u est diagonalisable en base orthonormée. La condition est nécessaire, d’après le théorème
spectral. Inversement, s’il existe une base orthonormée B de E formée de vecteurs propres de u, alors la
matrice de u dans B est diagonale donc symétrique, donc u est symétrique.

Corollaire 3.3.1. Soit A ∈ Mn (R) une matrice symétrique réelle. Alors, il existe une matrice orthogonale
P ∈ O(n, R) et une matrice diagonale (réelle) D telles que A = P−1 DP = t PDP. En particulier, A est
diagonalisable.

45 Boussouis Brahim
C HAPITRE 3 : Espaces euclidiens

Preuve. On munit Rn de sa structure euclidienne usuelle. Soit C la base canonique de Rn et soit u


l’endomorphisme de Rn représenté par la matrice A dans la base C . Comme C est une b.o.n et A est
symétrique, u est symétrique. D’après le théorème spectral, il existe une b.o.n B de Rn formée de vecteurs
propres de u. Soit P la matrice de passage de C à B. P est orthogonale et la matrice D de u dans B est
diagonale et on a A = P−1 DP = t PDP. 

Exemple 3.3.1. Une matrice carrée symétrique complexe n’est pas nécessairement diagonalisable, comme
le montrel’exemple
 suivant :
2 i
Soit A = ∈ M2 (C). A est symétrique et son polynôme caractéristique
i 0

λ − 2 −i
χA (λ ) =
= λ (λ − 2) + 1 = (λ − 1)2
−i λ
 
x
admet une racine double λ = 1. Soit v = un vecteur propre de A associé à la valeur propre 1. On a :
y
  
x + iy = 0 1
Av = v ⇐⇒ ⇐⇒ ix − y = 0 ⇐⇒ v = x
ix − y = 0 i
Donc dim E1 = 1 et A n’est pas diagonalisable.
Remarque 3.3.5. Pour diagonaliser une matrice symétrique réelle A en base orthonormée, on peut suivre
les étapes suivantes :
— On calcule les valeurs propres λ1 , · · · , λ p de A (ce sont les racines de χA (λ ) = 0).
— On détermine une base de chacun des sous-espaces propres.
— On orthonormalise (éventuellemnt), par le procèdé de Gram-Schmidt, chacune des bases obtenues.
— La concaténation des b.o.n obtenues dans l’étape antérieure est une b.o.n de Rn formée de vecteurs
propres de A.
 
2 2 −1
Exemple 3.3.2. Diagonalisons en b.o.n la matrice symétrique réelle A =  2 −1 2 .
−1 2 2
2
On a χA (λ ) = det (λ I3 − A) = (λ − 3) (λ + 3). On détermine une base du sous-espace propre E−3 :
    
x x  5x + 2y − z = 0
A y = −3 y ⇐⇒ 2x + 2y + 2z = 0 ⇐⇒ (x, y, z) = z(1, −2, 1).
z z −x + 2y + 5z = 0

(1, −2, 1) 1
On a : e1 = = √ (1, −2, 1). Le sous-espace propre E3 est orthogonal à E−3 . Donc
k(1, −2, 1)k 6

= (x, y, z) ∈ R3 /h(x, y, z), (1, −2, 1)i = x − 2y + z = 0 = {y(2, 1, 0) + z(−1, 0, 1) /y, z ∈ R}.

E3 = E−3
On applique le procèdé de Gram-Schmidt au système (u2 = (2, 1, 0), u3 = (−1, 0, 1)) :

u2 1 u3 − hu3 , e2 ie2 1
e2 = = √ (2, 1, 0) e3 = = √ (−1, 2, 5).
ku2 k 5 ku3 − hu3 , e2 ie2 k 30
1 2 1
 
√ √ −√
 6
 −2 5 30  
−3 0 0

1 2 
Posons P =  √ √ √  et D =  0 3 0. Alors P et orthogonale et D est diagonale et
 
 6 5 30  0 0 3
 1 5 
√ 0 √
6 30
A = P−1 DP.

46 Boussouis Brahim
3.3 Théorème spectral pour les endomorphismes autoadjoints

3.3.3 Applications aux formes quadratiques


Réduction simultanée de deux formes quadratiques

Théorème 3.3.2. Soit E un R-espace vectoriel de dimension finie et soient q1 et q2 deux formes qua-
dratiques sur E. On suppose que q1 est définie positive. Alors il existe une base de E qui est à la fois
q1 -orthonormée et q2 -orthogonale.

Preuve. Soient ϕ 1 et ϕ 2 les formes polaires de q1 et q2 respectivement. ϕ 1 est un produit scalaire, qu’on
notera dans la suite h., .i = ϕ 1 . D’après le théorème 3.3.1 (cf. page 42), il existe un unique endomorphisme
u associé à la forme bilinéaire ϕ 2 , c’est-à-dire tel que :

∀x, y ∈ E, ϕ 2 (x, y) = hx, u(y)i.

ϕ 2 étant symétrique, on a :

∀x, y ∈ E, ϕ 2 (x, y) = hx, u(y)i = ϕ 2 (y, x) = hy, u(x)i = hu(x), yi.

Donc u est symétrique. D’après le théorème spectral (cf. page 45), il existe une b.o.n B = (ei )1≤i≤n de
(E, h., .i) formée de vecteurs propres de u . Donc, pour tout i ∈ ~1, n, il existe λi ∈ R tel que u(ei ) = λi ei .
On en déduit que pour tous i, j ∈ ~1, n, on a :

i , j ⇒ ϕ 2 (ei , e j ) = hei , u(e j )i = λ j hei , e j i = 0.

Donc la base B est q2 -orthogonale. 

Corollaire 3.3.2. Soit E un R-espace vectoriel de dimension finie et soit q une forme quadratique sur E.
Alors la signature σ (q) d q est égale à (p, s), où p (resp. s) est le nombre de racines strictement positives
(resp. strictement négatives) du polynôme caractéristique de la matrice symétrique représentant q dans
une base quelconque.

Preuve. Soit B = (ei )1≤i≤n une base quelconque de E et soit A = Mat(q, B). Posons, pour tout x =
n
∑ xi ei ∈ E,
i=1
n
q0 (x) = ∑ xi2 .
i=1

Alors q0 est une forme quadratique définie positive sur E et B est une base orthonormée pour la forme
polaire de q0 . D’après le théorème 3.3.2, il existe une base B 0 = (e0i )1≤i≤n qui est q0 -orthonormée et
q-orthogonale. La matrice D de q dans B 0 est diagonale D = diag(λ1 , · · · , λn ). Donc σ (q) = (r, s), où
r = card{i ∈ ~1, n /λi > 0} et s = card{i ∈ ~1, n /λi < 0}.
Soit P la matrice de passage de B 0 à B. P est orthogonale (matrice de passage entre deux b.o.n) et on a :

A = Mat(q, B) = t PMat(q, B 0 )P = t PDP = P−1 DP.

Donc
n
χA (λ ) = χD (λ ) = ∏(λ − λi ).
i=1

On en déduit que la signature σ (q) de q est égale à (p, s), où p (resp. s) est le nombre de racines strictement
positives (resp. strictement négatives) de χA . 

47 Boussouis Brahim
C HAPITRE 3 : Espaces euclidiens

Exemple 3.3.3. Déterminons la signature et une baseq-orthogonale de 3


 R , où q est la forme quadratique
2 2 −1
représentée canoniquement par la matrice A ==  2 −1 2 . D’après les calculs faits dans
−1 2 2
2
l’exemple 3.3.2, χA (λ ) = (λ − 3) (λ + 3) admet deux racines > 0 et une racine < 0, donc σ (q) = (2, 1).
De plus  
1 1 1
B = e1 = √ (1, −2, 1), e2 = √ (2, 1, 0), e3 = √ (−1, 2, 5)
6 5 30
est une base q-orthogonale dans laquelle q s’écrit
3
q( ∑ yi ei ) = −3y21 + 3y22 + 3y23 .
i=1

48 Boussouis Brahim

Vous aimerez peut-être aussi