Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
Espaces euclidiens
Sommaire
3.1 Espaces préhilbertiens réels 30
Inégalité de Cauchy-Schwarz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Angle non orienté . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2 Orthogonalité. 35
3.2.1 Bases orthonormées . . . . . . . . . . . . . . . . . . . . . . . ..... ..... ..... . . . . 35
Bases orthonormées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
Procédé d’orthonormalisation de Gram-Schmidt . . . . . . . . . . . . . . . . . . 37
Matrices orthogonales et Groupe orthogonal . . . . . . . . . . . . . . . . . . . . . 38
Projection orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
Symétrie orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3 Théorème spectral pour les endomorphismes autoadjoints 43
3.3.1 Adjoint d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . ..... . . . . 43
3.3.2 Théorème spectral pour les endomorphismes symétriques . . . . ..... . . . . 45
3.3.3 Applications aux formes quadratiques . . . . . . . . . . . . . . . . . . . ..... . . . . 47
Réduction simultanée de deux formes quadratiques . . . . . . . . . . . . . . . . . 47
Tous les espaces vectoriels considèrés dans ce chapitre sont sur le corps R des nombres réels.
Définition 3.1.1. Soit E un espace vectoriel. Un produit scalaire sur E est une forme bilinéaire φ
symétrique définie positive, c’est-à-dire :
(i) pour tout y ∈ E, l’application x 7→ ϕ(x, y) est linéaire;
(ii) pour tous x, y ∈ E, ϕ(x, y) = ϕ(y, x).
30
3.1 Espaces préhilbertiens réels
Pour allèger l’écriture et lorsqu’il n’y a aucune confusion à craindre, on parlera d’un espace préhilbertien
(ou euclidien) E, sans mentionner le produit scalaire h., .i.
Remarques 3.1.1. 1. La condition (iii) ci-dessus est satisfaite si, et seulement si, les deux conditions
suivantes sont satisfaites :
(a) pour tout x ∈ E, hx, xi ≥ 0, (le produit scalaire est positif);
(b) pour tout x ∈ E, hx, xi = 0 ⇒ x = 0, (le produit scalaire est défini).
2. Un espace euclidien est un espace vectoriel de dimension finie muni d’une forme bilinéaire symé-
trique ϕ de signature égale à (n, 0), où n = dim E. En effet, si la signature de ϕ est égale à (n, 0),
alors, d’après le théorème d’inertie de Sylvester, il existe une base (ei )1≤i≤n dans laquelle la forme
quadratique Φ associée à ϕ s’écrit :
n n
Φ(x = ∑ xi ei ) = ∑ xi2
i=1 i=1
Donc Φ est définie positive. Inversement si Φ est définie positive, alors n est la plus grande
dimension d’un sous-espace de E sur lequel Φ est définie positive. Donc Φ est définie positive sur
E.
définit un produit scalaire sur E, appelé produit scalaire canonique (ou usuel) de Rn .
2. E = Mn (R) peut être muni d’une structure d’espace euclidien, en posant, pour tous X,Y ∈ E,
hX,Y i = tr (t XY ).
On en déduit facilement que h., .i est une forme bilinéaire symétrique sur E et que hX, Xi =
∑1≤i, j≤n xi,2 j > 0, pour toute matrice X ∈ E\{0}.
3. E = C ([a, b], R) (l’espace vectoriel des applications continues sur [a, b] à valeurs réelles, −∞ <
a < b < +∞). On pose :
Z b
∀ f , g ∈ E, h f , gi = f (t)g(t) dt.
a
Alors h., .i est un produit scalaire sur E. La bilinéarité, la positivité et la symétrie de h., .i sont
immédiates. Le seul point qui mérite une démonstration est que si f ∈ E vérifie h f , f i = 0, alors
Rb 2
f = 0. Or, si f (t) dt = 0, alors f 2 = 0 (car f 2 est une fonction continue et positive sur [a, b]).
a
Donc f = 0.
31 Boussouis Brahim
C HAPITRE 3 : Espaces euclidiens
avec égalité si le système (x, y) est lié, et seulement dans ce cas si ϕ est définie positive.
T (λ ) prendrait des valeurs strictement négatives, ce qui est absurde. Donc ϕ(x, y) = 0 et l’inégalité 3.1
est encore vérifiée dans ce cas.
Si le système (x, y) est lié, alors soit y = 0 soit il existe λ ∈ R tel que que x = λ y. On vérifie facilement
que, dans ces deux cas, l’inégalité 3.1 est une égalité.
Supposons, à présent, que ϕ est définie positive et qu’il y ait’égalité dans 3.1. Si y = 0, alors (x, y) est lié.
Si y , 0, alors T (λ ) est un trinôme du second degré dont le discriminant réduit est nul. Donc T (λ ) admet
ϕ(x, y)
une racine (double) λ0 = − . On aurait T (λ0 ) = ϕ(x + λ0 y, x + λ0 y) = 0, donc x + λ0 y = 0 et par
ϕ(y, y)
suite le système (x, y) est lié.
Proposition 3.1.1 (Inégalité de Minkowski). Soit ϕ une forme bilinéaire symétrique et positive sur un
R-espace vectoriel E et soit (x, y) ∈ E 2 . Alors on a :
p p p
ϕ(x + y, x + y) ≤ ϕ(x, x) + ϕ(y, y), (3.2)
avec égalité si x et y sont positivement liés (c’est-à-dire si x = 0 ou bien s’il existe λ ≥ 0 tel que y = λ x),
et seulement dans ce cas si ϕ est définie positive.
Preuve. Comme les deux membres de l’inégalité 3.2 sont positifs, cette inégalité est équivalente à celle
obtenue par élèvation au carré, soit :
p
ϕ(x + y, x + y) = ϕ(x, x) + 2ϕ(x, y) + ϕ(y, y) ≤ ϕ(x, x) + 2 ϕ(x, x) · ϕ(y, y) + ϕ(y, y)
p p
⇐⇒ ϕ(x, y) ≤ ϕ(x, x) · ϕ(y, y),
Définition 3.1.2. On appelle distance (ou métrique) sur un ensemble E toute application d : E × E → R+
qui vérifie les propriétés suivantes :
1. pour tous x, y ∈ E, d(x, y) = 0 ⇐⇒ x = y;
2. pour tous x, y ∈ E, d(x, y) = d(y, x) (symétrie);
32 Boussouis Brahim
3.1 Espaces préhilbertiens réels
33 Boussouis Brahim
C HAPITRE 3 : Espaces euclidiens
[
(x, y) = 0 ⇐⇒ ∃λ > 0, y = λ x;
[
(x, y) = π ⇐⇒ ∃λ < 0, y = λ x.
Proposition 3.1.2. Soit E un espace préhilbertien et soit k.k la norme provenant du produit scalaire.
Alors on a, pour tout (x, y) ∈ E 2 :
y
x+y
x−y
F IGURE 3.1 – La somme des carrés des diagonales d’un parallèlogramme est égale à la somme des carrés
de ses côtés.
B M C
3.2 Orthogonalité.
L’orthogonalité définie pour une forme quadratique (ou pour une forme bilinéaire symétrique) sub-
siste pour un produit scalaire. Deux vecteurs x et y d’un espace préhilbertien E sont orthogonaux
34 Boussouis Brahim
3.2 Orthogonalité.
si, et seulement si, hx, yi = 0. L’orthogonal d’une partie A ⊂ E est le sous-espace vectoriel A⊥ =
{x ∈ E /∀a ∈ A, hx, ai = 0}. En particulier, on a E ⊥ = {0} (car si x ∈ E ⊥ , alors hx, xi = 0, donc x = 0).
On en déduit que le produit scalaire est une forme bilinéaire symétrique non dégénérée. Deux parties A et
B de E sont dites orthogonales si tout vecteur de A est orthogonal à tout vecteur de B.
Lorsque E est un espace euclidien, le théorème de Riesz (cf. page 14) s’écrit dans ce cas :
Théorème 3.2.1 (de Riesz). Soit E un espace euclidien. Alors pour toute forme linéaire f ∈ E ∗ , il existe
un et un seul vecteur a ∈ E tel que f = h., ai, c’est-à-dire tel que :
Soit k.k la norme provenant du produit scalaire (kxk2 = hx, xi). La formule de polarisation s’écrit :
[ π
x ⊥ y ⇐⇒ hx, yi = 0 ⇐⇒ (x, y) = .
2
Une famille (ei )i∈I est dite orthogonale si ses éléments sont deux à deux orthogonaux (ie. hei , e j i = 0,
pour i , j). Ellle est dite orthonormée (ou orthonormale) s’elle est formée de vecteurs unitaires (ie.
kei k = 1, pour tout i ∈ I) deux à deux orthogonaux. Il revient au même de dire que la famille (ei )i∈I est
orthonormée si, et seulement si, on a :
(
1 si i = j
∀i, j ∈ I, hei , e j i = δi, j =
0 si i , j.
Proposition 3.2.1. Soit (ei )i∈I une famille orthogonale de vecteurs non nuls. Alors cette famille est libre
(ie. pour toute partie finie J ⊂ I, (e j ) j∈J est libre). En particulier toute famille orthonormée de E est libre.
Preuve. Soit J une partie finie de I et soit (λ j ) j∈J une famille de réels telles que ∑ λ j e j = 0. Pour tout
j∈J
k ∈ J, on a :
h ∑ λ j e j , ek i = ∑ λ j he j , ek i = ∑ λ j δ j,k = λk hek , ek i = λk kek k2 = 0.
j∈J j∈J j∈J
Bases orthonormées
Définition 3.2.1. Soit (E, h., .i) un espace euclidien. Une base orthonormée (en abrégé b.o.n.) de E est
une base B = (ei )1≤i≤n de E telle que, pour tous i, j ∈ ~1, n, on a :
(
1 si i = j;
hei , e j i = δi, j = (3.4)
0 si i , j.
Il revient au même de dire que B est orthonormée si, et seulement si, la matrice du produit scalaire dans
la base B (en tant que forme bilinéaire) est la matrice identité In : Mat(h., .i, B) = In .
35 Boussouis Brahim
C HAPITRE 3 : Espaces euclidiens
Par exemple, la base canonique de Rn est une b.o.n de Rn muni de sa structure euclidienne usuelle.
Proposition 3.2.2. Soit E un espace euclidien muni d’une b.o.n B = (ei )1≤i≤n et soit (x, y) ∈ E 2 . Alors,
on a :
n
∀x ∈ E, x = ∑ hx, ei iei ; (3.5)
i=1
n
∀x, y ∈ E, hx, yi = ∑ hx, ei ihy, ei i; (3.6)
i=1
n
∀x ∈ E, kxk2 = ∑ hx, ei i2 ; (3.7)
i=1
∀u ∈ L (E), Mat(u, B) = [hu(e j ), ei i]1≤i, j≤n . (3.8)
n
Preuve. Soit x = ∑ λi ei la décomposition de x dans la base B. On a, pour tout j ∈ ~1, n,
i=1
n n n
hx, e j i = h ∑ λi ei , e j i = ∑ λi hei , e j i = ∑ λi δi, j = λ j .
i=1 i=1 i=1
ce qui prouve la formule 3.6. La formule 3.7 est un cas particulier de la formule 3.6, puisque kxk2 = hx, xi.
Pour finir, posons Mat(u, B) = [ai, j ]1≤i, j≤n . On a, pour tous i, j ∈ ~1, n,
n n
u(e j ) = ∑ ak, j ek ⇒ hu(e j ), ei i = ∑ ak, j hek , ei i = ai, j .
k=1 k=1
Remarque 3.2.1. Etant donnée une base orthogonale B = (ei )1≤i≤n de E, on en déduit une b.o.n
ei
B 0 = (e0i )1≤i≤n en posant, pour tout i ∈ ~1, n, e0i = , (on dit qu’on a normalisé les vecteurs ei ).
kei k
Proposition 3.2.3. Tout espace euclidien E admet une b.o.n
Preuve. En effet, E admet une base q-orthogonale B, où q est la forme quadratique associée au produit
scalaire. On obtient une b.o.n de E en normalisant les vecteurs de B.
36 Boussouis Brahim
3.2 Orthogonalité.
Ainsi
n−1
en = λn vn avec vn = un − ∑ hun , e j ie j .
j=1
n−1
On a nécessairement vn , 0 (sinon, un = ∑ hun , e j ie j appartiendrait à Vect(e1 , · · · , en−1 ) = Vect(u1 , · · · , un−1 )
j=1
et le système (u1 , · · · , un ) ne serait pas libre). De plus,
n−1
hen , un i = hen , vn + ∑ hun , e j ie j i = hen , vn i = hλn vn , vn i = λn kvn k2 > 0
j=1
ken k = |λn | kvn k = 1.
1
Donc λn > 0 et λn = . On obtient finalement :
kvn k
n−1
un − ∑ hun , e j ie j
j=1
(∗) en = n−1
.
kun − ∑ hun , e j ie j k
j=1
37 Boussouis Brahim
C HAPITRE 3 : Espaces euclidiens
Remarques 3.2.1. 1. Dans la pratique, pour orthonormaliser un système libre U = (ui )1≤i≤n , on
procède comme suit :
u1
— On calcule d’abord ku1 k, puis on pose e1 = ;
ku1 k
v2
— on calcule ensuite v2 = u2 − hu2 , e1 ie1 , puis on en déduit e2 = ;
kv2 k
k−1
vk
— Une fois construits e1 , · · · , ek−1 , on calcule vk = uk − ∑ huk , e j ie j , puis on en déduit ek = ,
j=1 kvk k
(2 ≤ k ≤ n).
2. On a :
k
∀k ∈ ~1, n, uk = ∑ huk , e j ie j
j=1
Donc si U = (ui )1≤i≤n est une base de E, alors B = (ei )1≤i≤n est une b.o.n de E et la matrice
de passage de B à U est triangulaire supérieure à cœfficients diagonaux huk , ek i, k = 1, · · · , n,
strictement positifs.
Théorème 3.2.3. Soit E un espace euclidien de dimension n muni d’une b.o.n B = (ei )1≤i≤n et soit
U = (ui )1≤i≤n un système de n vecteurs de E. Pour que U soit une base orthonormée de E, il faut et il
suffit que la matrice P du sytème U dans la base B soit orthogonale.
Preuve. Soit P = Mat(U , B) (les colonnes de U sont formées des coordonnées des vecteurs de U
dans la base B). Si P est orthogonale, alors P est inversible et U est une base de E. Posons ϕ = h., .i.
On a Mat(ϕ, B) = In et Mat(ϕ, U ) = [hui , u j i]1≤i, j≤n . D’après la formule de changement de base pour la
forme bilinéaire ϕ, on a :
38 Boussouis Brahim
3.2 Orthogonalité.
Inversement, si U est une base orthonormée de E, alors la matrice P = Mat(U , B) peut être considérée
comme la matrice de passage de la base B à la base U . La formule de changement de base pour la forme
bilinéaire ϕ = h., .i permet d’écrire : Mat(ϕ, U ) = t PMat(ϕ, B)P = t PIn P = t PP = In . Donc P est une
matrice orthogonale.
Proposition 3.2.4. Soit P ∈ Mn (R) une matrice carrée réelle d’ordre n. Alors les assertions suivantes
sont équivalentes :
(i) P est orthogonale.
(ii) P est inversible et P−1 = t P.
(iii) Les vecteurs colonnes de P forment une b.o.n de Rn muni de sa structure euclidienne usuelle.
Preuve. L’équivalence (i) ⇐⇒ (ii) est immédiate. Démontrons l’équivalence (i) ⇐⇒ (iii). Soit
B = (ei )1≤i≤n la base canonique de Rn (B est une b.o.n de Rn muni de sa structure euclidienne usuelle).
Soit maintenant C = (c j )1≤ j≤n , où c j est la je colonne de la matrice P. On a P = Mat(C , B). D’après la
proposition 3.2.3, C est une b.o.n de Rn si, et seulement si, P est orthogonale. Donc (i) ⇐⇒ (iii).
Remarques 3.2.2. 1. Si une matrice P ∈ Mn (R) est orthogonale alors sa transposée est aussi ortho-
gonale car :
t
PP = In ⇒ t P = P−1 ⇒ P t P = t t P t P = In .
La réciproque est également vraie (car si Q = t P est orthogonale, alors P = t Q est orthogonale).
En utilisant la proposition ci-dessus, on peut dire que P est orthogonale si, et seulement si, ses
vecteurs lignes forment une b.o.n de Rn muni de sa structure euclidienne usuelle.
2. Si P ∈ Mn (R) est orthogonale, alors det (t PP) = (det P)2 = det In = 1, donc det P = ±1.
cos θ − sin θ
Exemple 3.2.2. Posons P = . Alors P est une matrice orthogonale d’ordre 2, car ses
sin θ cos θ
p
deux colonnes c1 et c2 sont de norme = cos2 θ + sin2 θ = 1 et hc1 , c2 i = − cos θ sin θ + cos θ sin θ = 0.
Proposition 3.2.5. L’ensemble O(n, R) des matrices orthogonales d’ordr n est un sous-groupe du groupe
GL(n, R) des matrices inversibles d’ordre n; on l’appelle groupe orthogonal de Rn .
Preuve. On a O(n, R) est non vide (car In ∈ O(n, R)) et O(n, R) ⊂ GL(n, R) (car toute matrice orthogo-
nale est inversible). Soit P, Q ∈ O(n, R). On a
−1
t
PQ−1 PQ−1 = t Q−1 t PPQ−1 = t Q−1 Q−1 = Qt Q = In−1 = In .
Donc PQ−1 ∈ O(n, R), et par conséquent O(n, R) est un sous-groupe du groupe GL(n, R).
Remarque 3.2.2. Le sous-enemble SO(n, R) de O(n, R) formé des matrices orthogonales de déterminant
+1 est un sous-groupe de O(n, R), appelé groupe spécial spécial orthogonal de Rn . En effet, l’application
det : O(n, R) → ({−1, 1}, ×) est un morphisme de groupes et SO(n, R) est le noyau de ce morphisme.
Projection orthogonale
Proposition 3.2.6. Soit F un sous-espace vectoriel d’un espace euclidien E. Alors on a :
1. E = F ⊕ F ⊥ .
⊥
2. F ⊥ = F.
Preuve. On munit E de la forme quadratique associée au produit scalaire. Alors F ∩ F ⊥ = {0} (car
x ∈ F ∩ F ⊥ ⇒ hx, xi = 0 ⇒ x = 0). D’après le théorème 2.4.3 (cf. page 20), on a E = F ⊕ F ⊥ . En
⊥ ⊥
appliquant cette formule à F ⊥ , on peut écrire : E = F ⊥ + F ⊥ . Donc dim F ⊥ = dim E − dim F ⊥ = dim F.
⊥ ⊥
Or F ⊂ F ⊥ , donc F ⊥ = F.
39 Boussouis Brahim
C HAPITRE 3 : Espaces euclidiens
Définition 3.2.3. Soit F un sous-espace vectoriel d’un espace euclidien E. La projection orthogonale
sur F, notée pF , est la projection sur F parallèlement à F ⊥ :
pF : E −→ F
x = xF + xF ⊥ 7−→ xF
Donc
y ∈ F
y = pF (x) ⇐⇒
x − y ∈ F ⊥.
Proposition 3.2.7. Soit F un sous-espace vectoriel d’un espace euclidien E. Alors, on a :
1. L’application pF est linéaire, son noyau est F ⊥ et son image est F.
2. pF ◦ pF = pF ;
3. pF + pF ⊥ = IdE .
4. pour tout x ∈ E, et pour tout y ∈ F, kx − pF (x)k ≤ kx − yk.
Preuve. Seule l’inégalité 4 mérite une démonstration. Soit (x, y) ∈ E × F. On a
x − y = x − pF (x) + pF(x) − y.
| {z } | {z }
∈F ⊥ ∈F
pF (x)
y
F
Remarque 3.2.3. Le nombre d(x, F) B inf kx −yk est appelé distance de x à F. L’inégalité 4 peut s’écrire
y∈F
d(x, F) = kx − pF (x)k.
La proposition suivante permet de calculer la projection orthogonale d’un vecteur x sur un sous-espace
vectoriel F dont on connaît une base base orthonormée.
Proposition 3.2.8. Soit U = (ei )1≤i≤p une base orthonormée d’un sous-espace F d’un espace euclidien
E. Alors, pour tout x ∈ E, on a :
p
pF (x) = ∑ hx, ei iei . (3.9)
i=1
p p
Preuve. Posons y = ∑ hx, ei iei . On a y ∈ F. D’autre part, pour tout z = ∑ λi ei ∈ F, on a :
i=1 i=1
p p p p p
hx − y, zi = hx, zi − hy, zi = ∑ λi hx, ei i − h ∑ hx, ei iei , ∑ λi ei i = ∑ λi hx, ei i − ∑ λi hx, ei i = 0.
i=1 i=1 i=1 i=1 i=1
40 Boussouis Brahim
3.2 Orthogonalité.
1 1 1
pF (u) = hu, e1 ie1 + hu, e2 ie2 = (x + y − z)(1, 1, −1) + (x + y + 2z)(1, 1, 2) = (x + y, x + y, 2z).
3 6 2
1 1 0
1
Donc la matrice cherchée est 1 1 0.
2
0 0 2
2. Même question pour le sous-espace F = u = (x, y, z) ∈ R3 /x − y + 2z = 0 .
Ici, il est plus facile de calculer la matrice de pF ⊥ . En effet, posons v = (1, −1, 2). Alors F =
v 1
v⊥ = (R · v)⊥ , donc F ⊥ = R · v. On normalise la base (v) de F ⊥ : e1 = = √ (1, −1, 2) et on
kvk 6
applique la formule 3.9, pour obtenir :
1 1
pF ⊥ (u) = hu, e1 ie1 = (x − y + 2z)(1, −1, 2) = (x − y + 2z, −x + y − 2z, 2x − 2y + 4z) .
6 6
1 −1 2
1
On en déduit que la matrice de pF ⊥ dans la base canonique est : A = −1 1 −2 et celle
6
2 −2 4
5 1 −2
1
de pF est B = I3 − A = 1 5 2 .
6
−2 2 2
Symétrie orthogonale
Définition 3.2.4. Soit F un sous-espace vectoriel d’un espace euclidien E. La symétrie orthogonale par
rapport à F est l’endomorphisme sF = 2pF − IdE , où pF est la projection orthogonale sur F. Lorsque F
est un hyperplan de E, on dit que sF est une réflexion.
41 Boussouis Brahim
C HAPITRE 3 : Espaces euclidiens
Les principales propriétés de la symétrie orthogonale sont regroupées dans la proposition suivante.
Proposition 3.2.9. 1. s2F = sF ◦ sF = IdE , (sF est involutive);
2. sF ⊥ = −sF ;
3. ksF (x)k = kxk, pour tout x ∈ E;
x+y
4. sF (x) est l’unique point y ∈ E tel que x − y ∈ F ⊥ et le milieu du segment joignant x à y
2
appartient à F.
pF (x)
F
sF (x)
Preuve. 1. On a :
sF ◦ sF = (2pF − IdE ) ◦ (2pF − IdE ) = 4pF ◦ pF − 2pF − 2pF + IdE = 4pF − 4pF + IdE = IdE .
2. sF ⊥ = 2pF ⊥ − IdE = 2(IdE − pF ) − IdE = IdE − 2pF = −sF .
3. x = x − pF (x) + pF (x) et sF (x) = pF (x) − x + pF (x). On en déduit, d’après le théorème de Pytha-
| {z } | {z } | {z } | {z }
∈F ⊥ ∈F ∈F ⊥ ∈F
gore :
42 Boussouis Brahim
3.3 Théorème spectral pour les endomorphismes autoadjoints
Preuve. Posons, pour tout u ∈ L (E) , ϕ u (x, y) = hx, u(y)i. Il est facile de voir que ϕ u est une forme
bilinéaire sur E, autrement dit ϕ u ∈ L2 (E). On considère l’application
Φ : L (E) −→ L2 (E)
ϕ 7−→ ϕu
Φ est linéaire. En effet, pour tout (λ , u, v) ∈ R × L (E) × L (E) et pour tous x, y ∈ E, on a :
Φ(λ u+v)(x, y) = hx, (λ u+v)(y)i = λ hx, u(y)i+hx, v(y)i = λ Φ(u)(x, y)+Φ(v)(x, y) = (λ Φ(u) + Φ(v)) (x, y).
Donc Φ(λ u + v) = λ Φ(u) + Φ(v), ce qui prouve la linéarité de Φ. Examinons, à présent, le noyau de Φ.
On a :
Donc Φ est injective. Or dim L (E) = n2 = dim L2 (E), où n = dim E. Donc Φ est bijective. On en
déduit, que pour tout ϕ ∈ L2 (E), il existe un et un seul u ∈ L (E) tel que ϕ = Φ(u), c’est-à-dire tel que
ϕ(x, y) = hx, u(y)i, pour tous x, y ∈ E.
Preuve. La démonstration des assertions (i), (ii) et (iii) découle de la définition de l’adjoint, elle est
laissée en exercice. L’assertion (iv) est une conséquence de (iii) et du fait que (IdE )∗ = IdE .
Posons Mat(u, B) = [ai, j ]1≤i, j≤n et Mat(u∗ , B) = [bi, j ]1≤i, j≤n . D’après la formule 3.8 (cf. page 36), on a :
Remarque 3.3.1. Une conséquence de l’assertion (v) de la proposition ci-dessus est qu’un endomor-
phisme et son adjoint ont le même rang, la même trace, le même déterminant et le même polynôme
caractéristique.
43 Boussouis Brahim
C HAPITRE 3 : Espaces euclidiens
Preuve. On a :
— orthogonal si u ◦ u∗ = u∗ ◦ u = IdE .
— normal si u et u∗ commutent : u ◦ u∗ = u∗ ◦ u.
Remarque 3.3.2. 1. Par l’assertion (iv) de la proposition 3.3.1, un endomorphisme est symétrique si,
et seulement si, sa matrice dans une base orthonormée est symétrique.
2. Les endomorphismes symétriques, antisymétriques ou orthogonaux sont des cas particuliers d’en-
domorphismes normaux.
Proposition 3.3.3. Soit F un sous-espace vectoriel d’un espace euclidien E. Alors la projection or-
thogonale sur F est un endomorphisme symétrique et la symétrie orthogonale par rapport à F est un
endomorphisme de E à la fois symétrique et orthogonal.
Preuve. On sait que E = F ⊕ F ⊥ . Donc, en réunissantt une base orthonormée (ei )1≤i≤p de F et une
base orthonormée (ei ) p+1≤i≤n de F ⊥ , on obtient une base orthonormée B = (ei )1≤i≤n de E. On a
Comme A est symétrique, pF est aussi symétrique. De même sF est symétrique car sa matrice dans la
base B est égale à 2A − In = diag(1, · · · , 1, −1, · · · , −1). et cette dernière matrice est symétrique. De plus,
| {z } | {z }
p fois n − p fois
sF ◦ s∗F = sF ◦ sF = IdE , donc sF est aussi un endomorphisme orthogonal.
44 Boussouis Brahim
3.3 Théorème spectral pour les endomorphismes autoadjoints
Preuve. Assertion 1. Soit B une base orthonormée de E et soit A la matrice de u dans B. u étant
symétrique, A est une matrice à éléments réels et symétrique (ie. t A = A).
Le corps C étant algébriquement clos, le polynôme caractéristique χA = χu de A admet des racines,
à priori complexes. Soit λ l’une
de ces racines. Comme χA (λ ) = det (λ In − A) = 0, il existe une
z1
..
matrice colonne non nulle Z = . ∈ Mn,1 (C) telle que AZ = λ Z. A étant réelle, on a A = A (A
zn
est la matrice conjuguée de A). Donc AZ = λ Z = λ Z = AZ = AZ. On multiplie les deux membres de
l’égalité AZ = λ Z par t Z, et on utilise le fait qu’une matrice de type (1, 1) est symétrique (ie.égale
à sa transposée), pour obtenir :
n
Or t ZZ = t ZZ = ∑ |zi |2 > 0, donc λ = λ , et par suite λ ∈ R.
i=1
Assertion 2. Soient λ et µ deux valeurs propres distinctes de u et soient x, y ∈ E tels que u(x) = λ x et
u(y) = µy. On a :
Remarque 3.3.4. Soit u un endomorphisme d’un espace euclidien E. Alors u est symétrique si, et
seulement si, u est diagonalisable en base orthonormée. La condition est nécessaire, d’après le théorème
spectral. Inversement, s’il existe une base orthonormée B de E formée de vecteurs propres de u, alors la
matrice de u dans B est diagonale donc symétrique, donc u est symétrique.
Corollaire 3.3.1. Soit A ∈ Mn (R) une matrice symétrique réelle. Alors, il existe une matrice orthogonale
P ∈ O(n, R) et une matrice diagonale (réelle) D telles que A = P−1 DP = t PDP. En particulier, A est
diagonalisable.
45 Boussouis Brahim
C HAPITRE 3 : Espaces euclidiens
Exemple 3.3.1. Une matrice carrée symétrique complexe n’est pas nécessairement diagonalisable, comme
le montrel’exemple
suivant :
2 i
Soit A = ∈ M2 (C). A est symétrique et son polynôme caractéristique
i 0
λ − 2 −i
χA (λ ) =
= λ (λ − 2) + 1 = (λ − 1)2
−i λ
x
admet une racine double λ = 1. Soit v = un vecteur propre de A associé à la valeur propre 1. On a :
y
x + iy = 0 1
Av = v ⇐⇒ ⇐⇒ ix − y = 0 ⇐⇒ v = x
ix − y = 0 i
Donc dim E1 = 1 et A n’est pas diagonalisable.
Remarque 3.3.5. Pour diagonaliser une matrice symétrique réelle A en base orthonormée, on peut suivre
les étapes suivantes :
— On calcule les valeurs propres λ1 , · · · , λ p de A (ce sont les racines de χA (λ ) = 0).
— On détermine une base de chacun des sous-espaces propres.
— On orthonormalise (éventuellemnt), par le procèdé de Gram-Schmidt, chacune des bases obtenues.
— La concaténation des b.o.n obtenues dans l’étape antérieure est une b.o.n de Rn formée de vecteurs
propres de A.
2 2 −1
Exemple 3.3.2. Diagonalisons en b.o.n la matrice symétrique réelle A = 2 −1 2 .
−1 2 2
2
On a χA (λ ) = det (λ I3 − A) = (λ − 3) (λ + 3). On détermine une base du sous-espace propre E−3 :
x x 5x + 2y − z = 0
A y = −3 y ⇐⇒ 2x + 2y + 2z = 0 ⇐⇒ (x, y, z) = z(1, −2, 1).
z z −x + 2y + 5z = 0
(1, −2, 1) 1
On a : e1 = = √ (1, −2, 1). Le sous-espace propre E3 est orthogonal à E−3 . Donc
k(1, −2, 1)k 6
⊥
= (x, y, z) ∈ R3 /h(x, y, z), (1, −2, 1)i = x − 2y + z = 0 = {y(2, 1, 0) + z(−1, 0, 1) /y, z ∈ R}.
E3 = E−3
On applique le procèdé de Gram-Schmidt au système (u2 = (2, 1, 0), u3 = (−1, 0, 1)) :
u2 1 u3 − hu3 , e2 ie2 1
e2 = = √ (2, 1, 0) e3 = = √ (−1, 2, 5).
ku2 k 5 ku3 − hu3 , e2 ie2 k 30
1 2 1
√ √ −√
6
−2 5 30
−3 0 0
1 2
Posons P = √ √ √ et D = 0 3 0. Alors P et orthogonale et D est diagonale et
6 5 30 0 0 3
1 5
√ 0 √
6 30
A = P−1 DP.
46 Boussouis Brahim
3.3 Théorème spectral pour les endomorphismes autoadjoints
Théorème 3.3.2. Soit E un R-espace vectoriel de dimension finie et soient q1 et q2 deux formes qua-
dratiques sur E. On suppose que q1 est définie positive. Alors il existe une base de E qui est à la fois
q1 -orthonormée et q2 -orthogonale.
Preuve. Soient ϕ 1 et ϕ 2 les formes polaires de q1 et q2 respectivement. ϕ 1 est un produit scalaire, qu’on
notera dans la suite h., .i = ϕ 1 . D’après le théorème 3.3.1 (cf. page 42), il existe un unique endomorphisme
u associé à la forme bilinéaire ϕ 2 , c’est-à-dire tel que :
ϕ 2 étant symétrique, on a :
Donc u est symétrique. D’après le théorème spectral (cf. page 45), il existe une b.o.n B = (ei )1≤i≤n de
(E, h., .i) formée de vecteurs propres de u . Donc, pour tout i ∈ ~1, n, il existe λi ∈ R tel que u(ei ) = λi ei .
On en déduit que pour tous i, j ∈ ~1, n, on a :
Corollaire 3.3.2. Soit E un R-espace vectoriel de dimension finie et soit q une forme quadratique sur E.
Alors la signature σ (q) d q est égale à (p, s), où p (resp. s) est le nombre de racines strictement positives
(resp. strictement négatives) du polynôme caractéristique de la matrice symétrique représentant q dans
une base quelconque.
Preuve. Soit B = (ei )1≤i≤n une base quelconque de E et soit A = Mat(q, B). Posons, pour tout x =
n
∑ xi ei ∈ E,
i=1
n
q0 (x) = ∑ xi2 .
i=1
Alors q0 est une forme quadratique définie positive sur E et B est une base orthonormée pour la forme
polaire de q0 . D’après le théorème 3.3.2, il existe une base B 0 = (e0i )1≤i≤n qui est q0 -orthonormée et
q-orthogonale. La matrice D de q dans B 0 est diagonale D = diag(λ1 , · · · , λn ). Donc σ (q) = (r, s), où
r = card{i ∈ ~1, n /λi > 0} et s = card{i ∈ ~1, n /λi < 0}.
Soit P la matrice de passage de B 0 à B. P est orthogonale (matrice de passage entre deux b.o.n) et on a :
Donc
n
χA (λ ) = χD (λ ) = ∏(λ − λi ).
i=1
On en déduit que la signature σ (q) de q est égale à (p, s), où p (resp. s) est le nombre de racines strictement
positives (resp. strictement négatives) de χA .
47 Boussouis Brahim
C HAPITRE 3 : Espaces euclidiens
48 Boussouis Brahim