Académique Documents
Professionnel Documents
Culture Documents
L2 - UV AlgLin2
-Chapitre 7-
Espaces euclidiens
Table des matières
1 Produit scalaire et norme associée 2
1.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Norme associée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2 Orthogonalité 5
2.1 Vecteurs orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Famille orthogonale - orthonormale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3 Cas des espaces euclidiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.4 Orthogonal d’un sous-ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3 Projection orthogonale 8
3.1 Projection orthogonale sur un SEV de E de dimension finie . . . . . . . . . . . . . . . . 8
3.2 Distance à un SEV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1
Dans tout le chapitre, (E, +, .) désigne un espace vectoriel sur R.
Preuve.
i) Symétrie : Le résultat est évident compte tenu de de la commutativité du produit de deux
nombres réels.
ii) Posons X = (x1 , x2 , ..., xn ), X 0 = (x01 , x02 , ..., x0n ) et Y = (y1 , y2 , ..., yn ) .
On a : αX + βX 0 = (αx1 + βx01 , αx2 + βx02 , ..., αxn + βx0n ) et par suite :
Exemple 2
Z b
- L’ application définie de C 0 ([a, b], R) dans R par (f |g) = f (t)g(t)dt est un produit scalaire.
Z 1 a
- L’ application définie de Rn [X] dans R par (P |Q) = P (t)Q(t)dt est un produit scalaire.
−1
- L’ application définie de Mn (R) dans R par (A|B) = T r(t AB) est un produit scalaire.
Exemple 4 Dans le cas du produit scalaire usuel sur Rn , la norme associée est :
q
k(x1 , ..., xn )k = x21 + ... + x2n
Exemple 5 Reprenons lessproduits scalaires définis précédemment. Les normes associées sont :
Z b
- Sur C 0 ([a, b], R) : kf k = f 2 (t)dt .
a
sZ
1
- Sur Rn [X] : kP k = P 2 (t)dt .
−1
pP
t
- Sur Mn (R) : kAk = T r( AA) = a2ii .
Définition 4 Un vecteur de E est dit normé (ou unitaire) si sa norme est égale à 1.
Exemple 6 Les vecteurs de la base canonique de Rn sont normés pour le produit scalaire usuel.
Proposition 1
i) On a : kXk = 0 si et seulement si X = 0E .
ii) Si k ∈ R et X ∈ E alors on a : kkXk = |k| . kXk.
Définition 5 Soient A et X dans E, on appelle distance de A à X, on note d(A, X), le réel kX − Ak.
d(A, X) = kX − Ak
1.3 Propriétés
Proposition 2 (Inégalité de Schwarz)
∀(X, Y ) ∈ E 2 , kX + Y k 6 kXk + kY k
kX + Y k
kY k
kXk
Preuve. ∀(X, Y ) ∈ E 2 ,
kX + Y k 2 = (X + Y |X + Y )
= (X|X) + (Y |Y ) + (X|Y ) + (Y |X) .
= kXk 2 + kY k 2 + 2(X|Y ) car (X|Y ) = (Y |X)
D’autre part, on a : (kXk + kY k) 2 = kXk 2 + kY k 2 + 2 kXk . kY k.
Pour arriver au résultat demandé, il suffit donc de prouver que : (X|Y ) 6 kXk . kY k.
Or (X|Y ) 6 | (X|Y ) | 6 kXk.kY k (d’après Cauchy Schwartz).
On en déduit que :
kX + Y k > 0
D’où : kX + Y k 6 kXk + kY k car : .
kXk + kY k > 0
Cas d’égalité : Si kX + Y k 6 kXk + kY k alors (X|Y ) = kXkkY k donc X = λY .
Mais alors (X|Y ) = λkXk2 et kXk.kY k = |λ|kXk2 donc λkXk2 = |λ|.kXk2 et ainsi λ ≥ 0.
La réciproque est évidente.
1
Remarque 4 On notera que (X|Y ) = (kX + Y k 2 − kXk 2 − kY k 2 ).
2
4
2 Orthogonalité
Dans la suite, E désigne un espace préhilbertien réel muni d’un produit scalaire noté (·|·).
Exemple 7
- Dans R3 muni du produit scalaire usuel, on considère X = (3, 0, −1) et Y = (1, 2, 3).
On a (X|Y ) = 3 × 1 + 0 × 2 + (−1) × 3 = 0 donc X⊥Y .
Z 1
- Dans R[X] muni du produit scalaire : (P |Q) = P (x)Q(x)dx, on considère P (X) = X et
−1
Q(X) = 1 − 2X 2 .
Z 1
On a (P |Q) = x(1 − 2x2 )dx = 0 donc P ⊥Q.
−1
Proposition 5 Toute famille orthogonale ne contenant pas le vecteur nul est libre.
Preuve. Soient e1 , . . . , ep p vecteurs de E, tous différents du vecteur nul et formant une famille OG.
Soient λ1 , . . . , λp réels tels que λ1 e1 + . . . + λp ep = 0E , on a alors :
∀i ∈ {1, . . . , p}, (λ1 e1 + . . . + λp ep |ei ) = 0,
or (λ1 e1 + . . . + λp ep |ei ) = λ1 (e1 |ei ) + . . . + λp (e1 |ep ) = λi (ei |ei ) = λi kei k2 car la famille (e1 , . . . , ep ) est
orthogonale.
On obtient donc ∀i ∈ {1, . . . , p}, λi kei k2 = 0, or ei 6= 0E donc kei k2 6= 0 et ainsi λi = 0.
La famille (e1 , . . . , ep ) est donc libre.
Preuve. En effet, dans une famille ON, tous les vecteurs sont unitaires donc différents du vecteur
nul. De plus, toute famille ON est aussi OG donc on peut appliquer le résultat précédent
5
2.3 Cas des espaces euclidiens
Théorème 1 (Orthonormalisation de Schmidt) Tout espace euclidien possède une base orthonormée.
Preuve. Soit donc (e1 , . . . , en ) une base de E (on sait qu’elle existe puisque E est de dimension finie).
∀(i, j) tels que i 6= j, (fi |fj ) = 0
Nous allons construire une base (f1 , . . . , fn ) telle que : ∀i ∈ {1, . . . , n}, kfi k = 1
∀i ∈ {1, . . . , n}, Vect(e1 , . . . , ei ) = Vect(f1 , . . . , fi )
Pour cela, nous allons faire une récurrence :
e1
Posons f1 = . On a bien kf1 k = 1 et Vect{e1 } = Vect{f1 }.
ke1 k
Soit i ∈ {1, . . . , n − 1},
supposons f1 , . . . , fi construits, vérifiant les conditions souhaitées et construisons fi+1 .
0
Prenons fi+1 = ei+1 + λ1 f1 + . . . + λi fi ,
0
on veut que ∀j ∈ {1, . . . , i}, (fi+1 |f j) = 0 ⇔ (ei+1 |fj ) + λj = 0 ⇔ λj = −(ei+1 |fj ).
f0
D’autre part, on veut que kfi+1 k = 1 donc nous allons prendre fi+1 = i+1 0 k.
kfi+1
Conséquence : Toute famille orthonormée de E peut être complétée en une base orthonormée de E
Proposition 6 Soit E est un espace euclidien. Notons n la dimension de E.
Soit (e1 , . . . , en ) une base orthonormée de E. On a alors :
n
X n
X
∀x ∈ E, x = (x|ei )ei et kxk2 = (x|ei )2
i=1 i=1
Preuve. Soit x ∈ E.
(e1 , . . . , en ) est une BON de E donc ∃!(x1 , . . . , xn ) tel que x = x1 e1 + . . . + xn en .
Donc ∀i ∈ {1, . . . , n}, (x|ei ) = x1 (e1 |ei ) + . . . + xn (en |ei ) = xi (ei |ei ) = xi car la famille (e1 , . . . , en ) est
ON.
Xn
On a donc bien x = (x|e1 )e1 + . . . + (x|en )en = (x|ei )ei .
i=1
n X
X n n
X n
X
De plus, kxk2 = (x|x) = (x1 e1 +. . .+xn en |x1 e1 +. . .+xn en ) = xi xj (ei |ej ) = x2i = (x|ei )2
i=1 j=1 i=1 i=1
car la famille (e1 , . . . , en ) est ON.
6
Exemple 9
1. {OE }⊥ = E et E ⊥ = {OE }.
2. Dans R2 , déterminons {(−1, 3)}⊥ :
Soit (x, y) ∈ R2 , (x, y) ∈ {(−1, 3)}⊥ ⇐⇒ −x + 3y = 0 ⇐⇒ x = 3y.
Donc {(−1, 3)}⊥ = Vect{(3, 1)}
3. Dans R3 , on considère le plan P d’équation ax + by + cz = 0.
On a alors P = {X ∈ R3 tels que (X|u) = 0} où u = (a, b, c) donc P = (Vect(u))⊥ .
Preuve.
- ∀y ∈ F, (y|OE ) = 0 donc OE ∈ F ⊥ , en particulier F ⊥ 6= ∅
- Soit x et x0 dans F ⊥ , λ et λ0 des réels. On a alors :
∀y ∈ F, (y|λx + λ0 x0 ) = λ(y|x) + λ0 (y|x0 ) = 0 car (y|x) = (y|x0 ) = 0.
Donc F ⊥ est stable par combinaisons linéaires.
- On en conclut que F ⊥ est un sous-espace vectoriel de E.
Preuve.
⇒ Si x ∈ F ⊥ alors ∀y ∈ F, (x|y) = 0.
En particulier ∀i ∈ {1, ..., p} (x|ei ) = 0.
⇐ Soit y ∈ F , il existe a1 , ..., an réels tels que y = a1 e1 + ... + an en . On a alors
Donc x ∈ F ⊥
Preuve.
Si F = {0E }, F ⊥ = E donc F ⊕ F ⊥ = E.
Supposons que F 6= {0E } et démontrons que F ⊕ F ⊥ = E.
- Soit x ∈ F ∩ F ⊥ , on a alors (x|x) = 0 ⇔ kxk = 0 ⇔ x = OE .
∀i ∈ {1, ..., p}, (x|ei ) = (xF |ei ) = xi donc xF = (x|e1 )e1 + ... + (x|ep )ep et x⊥ = x − xF .
Vérifions que x⊥ ∈ F ⊥ :
x⊥ ∈ F ⊥ : ∀i ∈ {1, ..., p}, (x⊥ |ei ) = (x|ei ) − (xF |ei ) = (x|ei ) − (x|ei ) = 0 donc x⊥ ⊥ei .
Donc x⊥ ∈ F ⊥ .
Ainsi x ∈ F + F ⊥ .
- On a donc bien F ⊕ F ⊥ = E
p(x) − x
p(x)
F
Preuve.
i) Soient x et y dans E. On a :
Donc
x + y = pF (x) + pF (y) + (x + y) − (pF (x) + pF (y))
| {z } | {z }
∈F ∈F ⊥
Par définition de la projection, on obtient que pF (x + y) = pF (x) + pF (y). (De même : pF (λx) =
λpF (x)).
Donc pF est bien linéaire.
ii) ∀x ∈ E, pF (x) ∈ F donc pF (x) = pF (x) + |{z}
O .
| {z }
∈F ∈F ⊥
On en déduit que ∀x ∈ E, pF (pF (x)) = pF (x). C’est à dire pF ◦ pF = pF
8
iii) Montrons que Im(pF ) = F :
Par définition Im(pF ) ⊂ F .
Réciproquement, si x ∈ F , alors pF (x) = x donc x ∈ Im(pF ). D’où F ⊂ Im(pF ).
On a donc Im(pF ) = F .
Remarque 7 Réciproquement, toute application f de E dans E vérifiant ces trois points en en fait la
projection orthogonale sur Im(f ) (parrallèlement à ker(f )).
Proposition 11 Si (f1 , ..., fp ) est une BON de F et si pF désigne la projection orthogonale sur F
alors :
∀x ∈ E, p(x) = (x|f1 )f1 + ... + (x|fp )fp
Proposition 12 Soit x ∈ E. On a :
i) d(x, F ) = kx − pF (x)k,
ii) ∀y ∈ F, y 6= pF (x) ⇒ kx − yk > kx − p(x)k.
kx − yk2 = kpF (x) + (x − pF (x)) − yk2 = k (pF (x) − y) + (x − pF (x)) k2 = kpF (x) − yk2 + kx − pF (x)k2
| {z } | {z }
∈F ∈F ⊥
On en déduit que :
kx − yk2 ≥ kx − pF (x)k2 (car kpF (x) − yk2 ≥ 0) donc kx − yk ≥ kx − pF (x)k
d’où d(x, F ) = min{ kx − yk, y ∈ F } = kx − pF (x)k.
De plus kx − yk2 = kx − pF (x)k2 ⇔ y = pF (x)
Remarque 9
Cela signifie que pF (x) est l’unique vecteur qui minimise la distance de x à un vecteur de F .
On dit que pF (x) est la meilleure approximation de x dans F .
9
4 Réduction des matrices symétriques réelles
Dans la suite du paragraphe, E désigne un espace euclidien de dimension n.
Remarque 10
- La matrice A définie ci-dessus est une matrice symétrique.
- Si la base B est orthogonale pour (·|·) alors A = mat((·|·), B) est diagonale.
- Si la base B est orthonormale pour (·|·) alors A = mat((·|·), B) = In
Théorème 2 Soient (·|·) un produit scalaire sur E , B = (e1 , . . . , en ) une base de E et A = mat((·|·), B)
.
Soient x et ydeuxvecteurs
de E.
x1 y1
Notons X = ... et Y = ... les coordonnées de x et de y dans la base B. On alors :
xn yn
Preuve. On a x = x1 e1 + . . . + xn en et y = y1 e1 + . . . + yn en donc :
X X
(x|y) = (x1 e1 + . . . + xn en |y1 e1 + . . . + yn en ) = xi yj (ei |ej ) = xi yj aij
i,j i,j
n n
!
X X X
Donc t XAY = xi aij yj = xi yj aij = (x|y).
j=1 i=1 i,j
10
4.2 Matrices orthogonales
Définition 12 P est orthogonale ssi t P P = In
Remarque 12 Cela signifie en particulier que toute matrice orthogonale P est inversible et que son
inverse est P −1 = t P .
Exemple 10
In est orthogonale.
1 −1 0
1
Soit P = √ 1 1 √0
est orthogonale.
2 0 0 2
Proposition 13 Soit P ∈ Mn , la matrice P est dite orthgonale si ses vecteurs colonnes forment une
famille orthonormée de Rn pour le produit scalaire usuel.
Preuve. La base canonique est une BON pour le produit scalaire usuel donc, si on note C1 , ..., Cn
les colonnes de la matrice P , on a :
C1 C2 . . . . . . Cn
t
C1 (C1 |C1 ) ... ... (C1 |Cn )
t C2 (C2 |C1 ) ... ... (C2 |Cn )
.. .. ..
. . .
t
Cn (Cn |C1 ) . . . . . . (Cn |Cn )
D’où P est une matrice orthogonale ssi t P P = In
ssi (Ci |Cj ) = 0 pour i 6= j et (Ci |Ci ) = 1
11
4.3 Diagonalisation des matrices symétriques
Proposition 15 Soit A ∈ Mn , une matrice symétrique réelle.
Les vecteurs propres de A associés à des valeurs propres distinctes sont orthogonaux.
Théorème 3 (admis)
Soit A ∈ Mn , une matrice symétrique (réelle) alors A est diagonalisable et on peut trouver une base
orthonormée de Rn formée de vecteurs propres pour A.
P orthogonale
Autrement dit, il existe P ∈ Mn telle que : t
P AP diagonale
(P représente alors la matrice de passage de la base canonique à la nouvelle base).
1 2
Exemple 12 Soit A = .
2 1
A est symétrique donc diagonalisable en BON.
On remarque, en faisant la somme des deux colonnes que 3 est valeur propre de A et que E3 =
Vect {(1, 1)}.
λ +3 =T r(A) = 2 donc λ = −1.
L’autre valeur proprevérifie
−1 1
De plus, C1 − C2 = =− donc E−1 = Vect {(1, −1)}.
1 −1
Nous allons construire une BON de E formée de vecteurs propres pour A.
Posons e1 = (1, −1) et e2 = (1, 1) : on a alors (e1 |e2 ) = 0 donc e1 ⊥e2 .
1 1
Il reste à normer les vecteurs : ke1 k2 = 2, on pose donc f1 = √ e1 . De même f2 = √ e2 .
2 2
2
(f1 , f2 ) est
une BON
de R et la matrice
de passage
de la base canonique à cette base est
1 1 1 −1 0
P =√ On obtient t P AP =
2 −1 1 0 3
12