Vous êtes sur la page 1sur 12

ALGÈBRE LINÉAIRE 2

L2 - UV AlgLin2

-Chapitre 7-
Espaces euclidiens
Table des matières
1 Produit scalaire et norme associée 2
1.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Norme associée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2 Orthogonalité 5
2.1 Vecteurs orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Famille orthogonale - orthonormale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3 Cas des espaces euclidiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.4 Orthogonal d’un sous-ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

3 Projection orthogonale 8
3.1 Projection orthogonale sur un SEV de E de dimension finie . . . . . . . . . . . . . . . . 8
3.2 Distance à un SEV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

4 Réduction des matrices symétriques réelles 10


4.1 Expression matricielle du produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.2 Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.3 Diagonalisation des matrices symétriques . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1
Dans tout le chapitre, (E, +, .) désigne un espace vectoriel sur R.

1 Produit scalaire et norme associée


1.1 Produit scalaire
Définition 1 On appelle produit scalaire toute application de E × E dans R vérifiant les proriétés
suivantes :

i) L’application (·|·) est symétrique, c’est à dire :


∀(X, Y )2 ∈ E, on a : (X|Y ) = (Y |X)
ii) L’application (·|·) est linéaire par rapport à la première variable, c’est à dire :
∀(α, β) ∈ R2 , ∀(X, X 0 , Y ) ∈ E 3 , on a : (αX + βX 0 | Y ) = α (X|Y ) + β (X 0 |Y )
iii) L’application (·|·) est définie positive, c’est à dire :
∀X ∈ E, (X|X) ≥ 0 et (X|X) = 0 ssi X = 0
Remarque 1
i) et ii) impliquent que l’application (·|·) est aussi linéaire par rapport à la seconde variable. On dira
que (·|·) est bilinéaire.
Exemple 1 Le produit scalaire appelé produit scalaire usuel sur ( ou canonique) sur Rn :
Soient X = (x1 , x2 , ..., xn ) et Y = (y1 , y2 , ..., yn ) deux éléments de Rn .
On définit (X|Y ) de la manière suivante :
n
X
(X|Y ) = x1 y1 + x2 y2 + ... + xn yn = xi yi
i=1

Preuve.
i) Symétrie : Le résultat est évident compte tenu de de la commutativité du produit de deux
nombres réels.
ii) Posons X = (x1 , x2 , ..., xn ), X 0 = (x01 , x02 , ..., x0n ) et Y = (y1 , y2 , ..., yn ) .
On a : αX + βX 0 = (αx1 + βx01 , αx2 + βx02 , ..., αxn + βx0n ) et par suite :

(αX + βX 0 |Y ) = (αx1 + βx01 ) y1 + (αx2 + βx02 ) y2 + ... + (αxn + βx0n ) yn


= α (x1 y1 + x2 y2 + ... + xn yn ) + β (x01 y1 + x02 y2 + ... + x0n yn )
= α (X|Y ) + β (X 0 |Y )
iii) (X|X) = x21 + . . . + x2n donc, on a bien (X|X) ≥ 0.
De plus, (X|X) = 0 ssi x1 = . . . = xn = 0 donc X = 0.

Exemple 2
Z b
- L’ application définie de C 0 ([a, b], R) dans R par (f |g) = f (t)g(t)dt est un produit scalaire.
Z 1 a
- L’ application définie de Rn [X] dans R par (P |Q) = P (t)Q(t)dt est un produit scalaire.
−1
- L’ application définie de Mn (R) dans R par (A|B) = T r(t AB) est un produit scalaire.

Définition 2 Soit E un R-espace vectoriel et ϕ un produit scalaire sur E.


On appelle espace préhilbertien réel le couple (E, ϕ).
Si de plus E est de dimension finie, (E, ϕ) est appelé espace euclidien.
Exemple 3 C 0 ([a, b], R), Rn [X] munis des produits scalaires définis ci-dessus sont des espaces préhilbertiens
réels,
Rn [X], Mn (R) munis des produits scalaires définis ci-dessus sont des espaces euclidiens.
2
1.2 Norme associée
Définition 3 Soit E un espace préhilbertien réel muni d’un produit scalaire (·|·).
On appelle norme associée au produit scalaire, on note k.k, l’application de E dans R définie par :
p
kxk = (x|x), ∀x ∈ E

Remarque 2 Nous avons vu précédemment que ∀x ∈ E, (x|x) ≥ 0.


Cette définition a donc bien un sens

Exemple 4 Dans le cas du produit scalaire usuel sur Rn , la norme associée est :
q
k(x1 , ..., xn )k = x21 + ... + x2n

Exemple 5 Reprenons lessproduits scalaires définis précédemment. Les normes associées sont :
Z b
- Sur C 0 ([a, b], R) : kf k = f 2 (t)dt .
a
sZ
1
- Sur Rn [X] : kP k = P 2 (t)dt .
−1
pP
t
- Sur Mn (R) : kAk = T r( AA) = a2ii .

Définition 4 Un vecteur de E est dit normé (ou unitaire) si sa norme est égale à 1.

Exemple 6 Les vecteurs de la base canonique de Rn sont normés pour le produit scalaire usuel.

Proposition 1
i) On a : kXk = 0 si et seulement si X = 0E .
ii) Si k ∈ R et X ∈ E alors on a : kkXk = |k| . kXk.

Preuve. Utiliser les propriétés du produit scalaire.

Définition 5 Soient A et X dans E, on appelle distance de A à X, on note d(A, X), le réel kX − Ak.

d(A, X) = kX − Ak

Remarque 3 Dans le cas de Rn muni du produit scalaire usuel, on a donc :


p
d(X, A) = kX − Ak = (a1 − x1 )2 + . . . + (an − xn )2

1.3 Propriétés
Proposition 2 (Inégalité de Schwarz)

∀(X, Y ) ∈ E 2 , | (X|Y ) | 6 kXk.kY k

De plus, | (X|Y ) | = kXk.kY k ssi la famille (X, Y ) est liée.

Preuve. Soient X et Y deux éléments de E.


Nous savons que ∀λ ∈ R, (X + λY |X + λY ) ≥ 0.
Développons cette expression, en utilisant les propriétés du produit scalaire (linéarité et symétrie). On
obtient alors :

(X + λY |X + λY ) = (X|X) + 2λ(X|Y ) + λ2 (Y |Y ) = kXk2 + 2λ(X|Y ) + λ2 kY k2


- Si kY k =
6 0 (c’est à dire si Y 6= 0E ), on reconnait un polynôme de degré 2 en λ.
Or on a vu que ce polynôme est toujours positif, donc son discriminant est négatif.
3
Soit ∆ = 4(X|Y )2 − 4kXk2 .kY k2 .

∆ ≤ 0 ⇔ (X.Y )2 ≤ kXk2 .kY k2 ⇔ |(X.Y )| ≤ kXk.kY k

- Si kY k = 0, alors Y = 0E et donc (X.Y ) = 0 et kXk.kY k = 0.


L’inégalité est encore vérifiée.
- Conclusion :
∀(X, Y ) ∈ E 2 , | (X|Y ) | 6 kXk.kY k
Le cas d’égalité correspond à ∆ = 0 donc le polynôme admet une racine :
∃λ0 ∈ R tel que (X + λ0 Y |X + λ0 Y ) = 0 soit X + λ0 Y = 0E . On en déduit que X = λ0 Y .

Proposition 3 (Inégalité triangulaire)

∀(X, Y ) ∈ E 2 , kX + Y k 6 kXk + kY k

De plus, kX + Y k = kXk + kY k ssi (X, Y ) postivement liée.

kX + Y k
kY k

kXk

Preuve. ∀(X, Y ) ∈ E 2 ,
kX + Y k 2 = (X + Y |X + Y )
= (X|X) + (Y |Y ) + (X|Y ) + (Y |X) .
= kXk 2 + kY k 2 + 2(X|Y ) car (X|Y ) = (Y |X)
D’autre part, on a : (kXk + kY k) 2 = kXk 2 + kY k 2 + 2 kXk . kY k.
Pour arriver au résultat demandé, il suffit donc de prouver que : (X|Y ) 6 kXk . kY k.
Or (X|Y ) 6 | (X|Y ) | 6 kXk.kY k (d’après Cauchy Schwartz).
On en déduit que :

kXk 2 + kY k 2 + 2(X|Y ) 6 kXk 2 + kY k 2 + 2 kXk . kY k ⇐⇒ kX + Y k 2 6 (kXk + kY k) 2


kX + Y k > 0
D’où : kX + Y k 6 kXk + kY k car : .
kXk + kY k > 0
Cas d’égalité : Si kX + Y k 6 kXk + kY k alors (X|Y ) = kXkkY k donc X = λY .
Mais alors (X|Y ) = λkXk2 et kXk.kY k = |λ|kXk2 donc λkXk2 = |λ|.kXk2 et ainsi λ ≥ 0.
La réciproque est évidente.
1
Remarque 4 On notera que (X|Y ) = (kX + Y k 2 − kXk 2 − kY k 2 ).
2

4
2 Orthogonalité
Dans la suite, E désigne un espace préhilbertien réel muni d’un produit scalaire noté (·|·).

2.1 Vecteurs orthogonaux


Définition 6 Soient X et Y deux vecteurs de E.
On dit que les vecteurs X et Y sont orthogonaux si (X|Y ) = 0. On note alors X⊥Y

Exemple 7
- Dans R3 muni du produit scalaire usuel, on considère X = (3, 0, −1) et Y = (1, 2, 3).
On a (X|Y ) = 3 × 1 + 0 × 2 + (−1) × 3 = 0 donc X⊥Y .
Z 1
- Dans R[X] muni du produit scalaire : (P |Q) = P (x)Q(x)dx, on considère P (X) = X et
−1
Q(X) = 1 − 2X 2 .
Z 1
On a (P |Q) = x(1 − 2x2 )dx = 0 donc P ⊥Q.
−1

Remarque 5 La notion d’orthogonalité dépend du produit scalaire considéré (voir TD)

Proposition 4 (Théorème de Pythagore) Soient X et Y dans E (muni du produit scalaire (·|·)).


X et Y sont orthogonaux si et seulement si kX + Y k2 = kXk2 + kY k2 .
1
Preuve. Rappelons tout d’abord que : (X|Y ) = (kX + Y k 2 − kXk 2 − kY k 2 )
2
⇒ : Supposons que X⊥Y , on a alors (X|Y ) = 0 donc kX + Y k2 = kXk2 + kY k2 .
⇐ : Supposons que kX + Y k2 = kXk2 + kY k2 , on a alors :
1 
(X|Y ) = kX + Y k2 − kXk2 − kXk2 = 0 donc X⊥Y .
2

2.2 Famille orthogonale - orthonormale


Définition 7 Soient e1 , . . . , ep p vecteurs de E.
1. La famille (e1 , . . . , ep ) est orthogonale (OG) si ses vecteurs sont orthogonaux deux à deux.
C’est à dire : ∀(i, j), i 6= j ⇒ (ei |ej ) = 0.
2. La famille (e1 , . . . , ep ) est orthonormale (ON) si ses vecteurs sont normés et orthogonaux deux
à deux.
C’est à dire : ∀(i, j), i 6= j ⇒ (ei |ej ) = 0 et ∀i, kei k = 1.

Exemple 8 La base canonique de Rn est orthonormée pour le produit scalaire usuel.

Proposition 5 Toute famille orthogonale ne contenant pas le vecteur nul est libre.

Preuve. Soient e1 , . . . , ep p vecteurs de E, tous différents du vecteur nul et formant une famille OG.
Soient λ1 , . . . , λp réels tels que λ1 e1 + . . . + λp ep = 0E , on a alors :
∀i ∈ {1, . . . , p}, (λ1 e1 + . . . + λp ep |ei ) = 0,
or (λ1 e1 + . . . + λp ep |ei ) = λ1 (e1 |ei ) + . . . + λp (e1 |ep ) = λi (ei |ei ) = λi kei k2 car la famille (e1 , . . . , ep ) est
orthogonale.
On obtient donc ∀i ∈ {1, . . . , p}, λi kei k2 = 0, or ei 6= 0E donc kei k2 6= 0 et ainsi λi = 0.
La famille (e1 , . . . , ep ) est donc libre.

Corollaire 1 Toute famille orthonormale est libre.

Preuve. En effet, dans une famille ON, tous les vecteurs sont unitaires donc différents du vecteur
nul. De plus, toute famille ON est aussi OG donc on peut appliquer le résultat précédent
5
2.3 Cas des espaces euclidiens
Théorème 1 (Orthonormalisation de Schmidt) Tout espace euclidien possède une base orthonormée.

Plus précisement : Soit E un espace euclidien de dimension n.


Si (e1 , . . . , en ) est une base quelconque de E, on peut construire une base orthonormée (f1 , . . . , fn ) telle
que ∀i ∈ {1, . . . , n}, Vect(e1 , . . . , ei ) = Vect(f1 , . . . , fi ).

Preuve. Soit donc (e1 , . . . , en ) une base de E (on sait qu’elle existe puisque E est de dimension finie).

 ∀(i, j) tels que i 6= j, (fi |fj ) = 0
Nous allons construire une base (f1 , . . . , fn ) telle que : ∀i ∈ {1, . . . , n}, kfi k = 1
∀i ∈ {1, . . . , n}, Vect(e1 , . . . , ei ) = Vect(f1 , . . . , fi )

Pour cela, nous allons faire une récurrence :
e1
Posons f1 = . On a bien kf1 k = 1 et Vect{e1 } = Vect{f1 }.
ke1 k
Soit i ∈ {1, . . . , n − 1},
supposons f1 , . . . , fi construits, vérifiant les conditions souhaitées et construisons fi+1 .
0
Prenons fi+1 = ei+1 + λ1 f1 + . . . + λi fi ,
0
on veut que ∀j ∈ {1, . . . , i}, (fi+1 |f j) = 0 ⇔ (ei+1 |fj ) + λj = 0 ⇔ λj = −(ei+1 |fj ).
f0
D’autre part, on veut que kfi+1 k = 1 donc nous allons prendre fi+1 = i+1 0 k.
kfi+1
Conséquence : Toute famille orthonormée de E peut être complétée en une base orthonormée de E
Proposition 6 Soit E est un espace euclidien. Notons n la dimension de E.
Soit (e1 , . . . , en ) une base orthonormée de E. On a alors :
n
X n
X
∀x ∈ E, x = (x|ei )ei et kxk2 = (x|ei )2
i=1 i=1

Preuve. Soit x ∈ E.
(e1 , . . . , en ) est une BON de E donc ∃!(x1 , . . . , xn ) tel que x = x1 e1 + . . . + xn en .
Donc ∀i ∈ {1, . . . , n}, (x|ei ) = x1 (e1 |ei ) + . . . + xn (en |ei ) = xi (ei |ei ) = xi car la famille (e1 , . . . , en ) est
ON.
Xn
On a donc bien x = (x|e1 )e1 + . . . + (x|en )en = (x|ei )ei .
i=1
n X
X n n
X n
X
De plus, kxk2 = (x|x) = (x1 e1 +. . .+xn en |x1 e1 +. . .+xn en ) = xi xj (ei |ej ) = x2i = (x|ei )2
i=1 j=1 i=1 i=1
car la famille (e1 , . . . , en ) est ON.

2.4 Orthogonal d’un sous-ensemble


Définition 8 Soit F un sous-ensemble de E.
On appelle orthogonal de F , on note F ⊥ le sous-ensemble défini par :

F ⊥ = {x ∈ E tel que ∀y ∈ F, (x|y) = 0}

6
Exemple 9

1. {OE }⊥ = E et E ⊥ = {OE }.
2. Dans R2 , déterminons {(−1, 3)}⊥ :
Soit (x, y) ∈ R2 , (x, y) ∈ {(−1, 3)}⊥ ⇐⇒ −x + 3y = 0 ⇐⇒ x = 3y.
Donc {(−1, 3)}⊥ = Vect{(3, 1)}
3. Dans R3 , on considère le plan P d’équation ax + by + cz = 0.
On a alors P = {X ∈ R3 tels que (X|u) = 0} où u = (a, b, c) donc P = (Vect(u))⊥ .

Proposition 7 Soit F un sous-ensemble non vide de E, alors F ⊥ est un sous-espace vectoriel de E.

Preuve.
- ∀y ∈ F, (y|OE ) = 0 donc OE ∈ F ⊥ , en particulier F ⊥ 6= ∅
- Soit x et x0 dans F ⊥ , λ et λ0 des réels. On a alors :
∀y ∈ F, (y|λx + λ0 x0 ) = λ(y|x) + λ0 (y|x0 ) = 0 car (y|x) = (y|x0 ) = 0.
Donc F ⊥ est stable par combinaisons linéaires.
- On en conclut que F ⊥ est un sous-espace vectoriel de E.

Proposition 8 Soit F un sous-espace vectoriel de E de dimension finie, F = Vect(e1 , .., ep ) alors

x ∈ F ⊥ ⇔ ∀i ∈ {1, ..., p} , (x|ei ) = 0

Preuve.
⇒ Si x ∈ F ⊥ alors ∀y ∈ F, (x|y) = 0.
En particulier ∀i ∈ {1, ..., p} (x|ei ) = 0.
⇐ Soit y ∈ F , il existe a1 , ..., an réels tels que y = a1 e1 + ... + an en . On a alors

(x|y) = (x|a1 e1 + ... + an en ) = a1 (x|e1 ) + ... + an (x|en ) = 0

Donc x ∈ F ⊥

Proposition 9 Soit F un sous-espace vectoriel de E de dimension finie, alors F et F ⊥ sont supplémentaires


dans E.

Preuve.
Si F = {0E }, F ⊥ = E donc F ⊕ F ⊥ = E.
Supposons que F 6= {0E } et démontrons que F ⊕ F ⊥ = E.
- Soit x ∈ F ∩ F ⊥ , on a alors (x|x) = 0 ⇔ kxk = 0 ⇔ x = OE .

- Soit x ∈ E, on cherche xF ∈ F et x⊥ ∈ F ⊥ tels que x = xF + x⊥ .


Soit (e1 , .., ep ) une BON de F , si xF ∈ F alors xF = x1 e1 + ... + xp ep .

∀i ∈ {1, ..., p}, (x|ei ) = (xF |ei ) = xi donc xF = (x|e1 )e1 + ... + (x|ep )ep et x⊥ = x − xF .
Vérifions que x⊥ ∈ F ⊥ :
x⊥ ∈ F ⊥ : ∀i ∈ {1, ..., p}, (x⊥ |ei ) = (x|ei ) − (xF |ei ) = (x|ei ) − (x|ei ) = 0 donc x⊥ ⊥ei .
Donc x⊥ ∈ F ⊥ .

Ainsi x ∈ F + F ⊥ .

- On a donc bien F ⊕ F ⊥ = E

Remarque 6 En particulier, si E est de dimension finie, dim(F ⊥ ) = dim(E) − dim(F ).


7
3 Projection orthogonale
E désigne un espace préhilbertien muni d’un produit scalaire (·|·).
F désigne un sous-espace vectoriel de E de dimension finie (dim(F ) = p).

3.1 Projection orthogonale sur un SEV de E de dimension finie


Nous avons vu précédemment que E = F ⊕ F ⊥ .

Définition 9 ∀x ∈ E, ∃!(xF , x⊥ ) ∈ F × F ⊥ tel que x = xF + x⊥ .


xF est appelé projeté
 orthogonal de x sur F . On le note pF (x).
E 7→ F
L’application pF : est appelée projection orthogonale sur F .
x pF (x)

p(x) − x

p(x)
F

Proposition 10 Soit pF l’application définie ci-dessus. On a alors :


i) pF est linéaire.
ii) pF ◦ pF = pF
iii) Im(pF ) = F et ker(pF ) = F ⊥

Preuve.
i) Soient x et y dans E. On a :

x = pF (x) + x − pF (x) et y = pF (y) + y − pF (y)


| {z } | {z } | {z } | {z }
∈F ∈F ⊥ ∈F ∈F ⊥

Donc
x + y = pF (x) + pF (y) + (x + y) − (pF (x) + pF (y))
| {z } | {z }
∈F ∈F ⊥

Par définition de la projection, on obtient que pF (x + y) = pF (x) + pF (y). (De même : pF (λx) =
λpF (x)).
Donc pF est bien linéaire.
ii) ∀x ∈ E, pF (x) ∈ F donc pF (x) = pF (x) + |{z}
O .
| {z }
∈F ∈F ⊥
On en déduit que ∀x ∈ E, pF (pF (x)) = pF (x). C’est à dire pF ◦ pF = pF

8
iii) Montrons que Im(pF ) = F :
Par définition Im(pF ) ⊂ F .
Réciproquement, si x ∈ F , alors pF (x) = x donc x ∈ Im(pF ). D’où F ⊂ Im(pF ).
On a donc Im(pF ) = F .

Montrons que ker(pF ) = F ⊥ :


Soit x ∈ F ⊥ , on a alors x = |{z} x donc pF (x) = 0 ⇔ x ∈ ker(pF ).
O + |{z}
∈F ∈F ⊥
D’où F ⊥ ⊂ ker(pF ).
Or d’après le théorème du rang, on a dim(ker(pF )) = n−dim(Im(pF )) = n−dim(F ) = dim(F ⊥ ).
Donc ker(pF ) = F ⊥ .

Remarque 7 Réciproquement, toute application f de E dans E vérifiant ces trois points en en fait la
projection orthogonale sur Im(f ) (parrallèlement à ker(f )).

Proposition 11 Si (f1 , ..., fp ) est une BON de F et si pF désigne la projection orthogonale sur F
alors :
∀x ∈ E, p(x) = (x|f1 )f1 + ... + (x|fp )fp

Remarque 8 ∀x ∈ E, x = pF (x) + pF ⊥ (x)

3.2 Distance à un SEV


Définition 10 Soit x ∈ E, on appelle distance de x à F , on note d(x, F ) le nombre réel suivant :

d(x, F ) = min{ kx − yk, y ∈ F }

Proposition 12 Soit x ∈ E. On a :
i) d(x, F ) = kx − pF (x)k,
ii) ∀y ∈ F, y 6= pF (x) ⇒ kx − yk > kx − p(x)k.

Preuve. On a x = pF (x) + (x − pF (x)), donc ∀y ∈ F ,

kx − yk2 = kpF (x) + (x − pF (x)) − yk2 = k (pF (x) − y) + (x − pF (x)) k2 = kpF (x) − yk2 + kx − pF (x)k2
| {z } | {z }
∈F ∈F ⊥

On en déduit que :
kx − yk2 ≥ kx − pF (x)k2 (car kpF (x) − yk2 ≥ 0) donc kx − yk ≥ kx − pF (x)k
d’où d(x, F ) = min{ kx − yk, y ∈ F } = kx − pF (x)k.
De plus kx − yk2 = kx − pF (x)k2 ⇔ y = pF (x)

Remarque 9
Cela signifie que pF (x) est l’unique vecteur qui minimise la distance de x à un vecteur de F .
On dit que pF (x) est la meilleure approximation de x dans F .

9
4 Réduction des matrices symétriques réelles
Dans la suite du paragraphe, E désigne un espace euclidien de dimension n.

4.1 Expression matricielle du produit scalaire


Définition 11 Soient (·|·) un produit scalaire sur E et B = (e1 , . . . , en ) une base de E.
On appelle matrice de (·|·) dans la base B la matrice A de Mn dont le terme général est aij = (ei |ej ).
 
(e1 |e1 ) (e1 |e2 ) . . . . . . (e1 |en )
 .. 
 (e2 |e1 ) . 
A = mat((·|·), B) =  . .. 

 .. . 
(en |e1 ) ... . . . . . . (en |en )

Remarque 10
- La matrice A définie ci-dessus est une matrice symétrique.
- Si la base B est orthogonale pour (·|·) alors A = mat((·|·), B) est diagonale.
- Si la base B est orthonormale pour (·|·) alors A = mat((·|·), B) = In

Théorème 2 Soient (·|·) un produit scalaire sur E , B = (e1 , . . . , en ) une base de E et A = mat((·|·), B)
.
Soient x et ydeuxvecteurs 
de E.
x1 y1
Notons X =  ...  et Y =  ...  les coordonnées de x et de y dans la base B. On alors :
   

xn yn

(x|y) = t XAY et kxk2 = t XAX

Preuve. On a x = x1 e1 + . . . + xn en et y = y1 e1 + . . . + yn en donc :
X X
(x|y) = (x1 e1 + . . . + xn en |y1 e1 + . . . + yn en ) = xi yj (ei |ej ) = xi yj aij
i,j i,j

D’autre part, on calcule t XAY :


   
a11 ... ... ... a1n y1
 .. ..   .. 
 . .  .
an1 ... ... ... ann yn
n n
! n n
!
 X X X X
x1 ... xn xi ai1 ... xi ain xi aij yj
i=1 i=1 j=1 i=1

n n
!
X X X
Donc t XAY = xi aij yj = xi yj aij = (x|y).
j=1 i=1 i,j

De plus, kxk2 = (x|x) = t XAX.

Remarque 11 En particulier si B est une BON pour (·|·) : (x|y) = t XY et kxk2 = t XX ;

10
4.2 Matrices orthogonales
Définition 12 P est orthogonale ssi t P P = In

Remarque 12 Cela signifie en particulier que toute matrice orthogonale P est inversible et que son
inverse est P −1 = t P .

Exemple 10
In est orthogonale.
 
1 −1 0
1
Soit P = √ 1 1 √0
 est orthogonale.
2 0 0 2

Proposition 13 Soit P ∈ Mn , la matrice P est dite orthgonale si ses vecteurs colonnes forment une
famille orthonormée de Rn pour le produit scalaire usuel.

Preuve. La base canonique est une BON pour le produit scalaire usuel donc, si on note C1 , ..., Cn
les colonnes de la matrice P , on a :

C1 C2 . . . . . . Cn
t   
C1 (C1 |C1 ) ... ... (C1 |Cn )
 t C2   (C2 |C1 ) ... ... (C2 |Cn ) 
   
 ..   .. .. 
 .   . . 
t
Cn (Cn |C1 ) . . . . . . (Cn |Cn )
D’où P est une matrice orthogonale ssi t P P = In
ssi (Ci |Cj ) = 0 pour i 6= j et (Ci |Ci ) = 1

Proposition 14 Soient B une BON de E et B 0 une base. On note P la matrice de passage de B à B 0


P est orthogonale si et seulement si B 0 est une base orthonormale.

Preuve. On pose B = (e1 , ..., en ) et B 0 = (f1 , .., fn ) .


Notons C1 , ..., Cn les colonnes de la matrice P . Ci représente alors les coordonnées de fi dans la base
B.
D’après la démonstration précédente, on sait que le terme général de t P P est t Ci Cj = (fi |fj ).
t
P P = In ssi (fi |fj ) = 0 pour i 6= j et (fi |fi ) = 1 ssi B 0 orthonormale.

Exemple 11 Dans R3 muni du produit scalaire usuel, on note bc la base canonique.


1 1 1
On considère les vecteurs f1 = (2, 2, −1), f1 = (2, −1, 2) et f3 = (−1, 2, 2).
3 3 3
- Montrons que B = (f1 , f2 , f3 ) est une BON de R3 .
 
2 2 −1
1
- Si on note P la matrice de passage de bc à B on a : P = 2 −1 2 .
3
−1 2 2
On remarque que P est symétrique et on a : t P P = P 2 = I3 .

La matrice P est donc orthogonale et B est une BON de R3 .


On en déduit en particulier que P −1 = t P = P .

11
4.3 Diagonalisation des matrices symétriques
Proposition 15 Soit A ∈ Mn , une matrice symétrique réelle.
Les vecteurs propres de A associés à des valeurs propres distinctes sont orthogonaux.

Preuve. Comme on travaille dans Rn muni du produit scalaire usuel, on a (X|Y ) = t XY .


Soient λ1 et λ2 deux valeurs propres distinctes de A et X1 , X2 deux vecteurs propres associés.
On a alors :
d’une part (AX1 |X2 ) = t (AX1 )X2 = t X1 t AX2 = t X1 AX2 = (X1 |AX2 ) (car t A = A),
d’autre part (AX1 |X2 ) = (λ1 X1 |X2 ) = λ1 (X1 |X2 ) et (X1 |AX2 ) = (X1 |λ2 X2 ) = λ2 (X1 |X2 ).
On en déduit que λ1 (X1 |X2 ) = λ2 (X1 |X2 ) ⇔ (λ1 − λ2 )(X1 |X2 ) = 0 ⇔ (X1 |X2 ) = 0 (car λ1 6= λ2 ).
X1 et X2 sont donc orthogonaux.

Théorème 3 (admis)
Soit A ∈ Mn , une matrice symétrique (réelle) alors A est diagonalisable et on peut trouver une base
orthonormée de Rn formée de vecteurs propres  pour A.
P orthogonale
Autrement dit, il existe P ∈ Mn telle que : t
P AP diagonale
(P représente alors la matrice de passage de la base canonique à la nouvelle base).
 
1 2
Exemple 12 Soit A = .
2 1
A est symétrique donc diagonalisable en BON.
On remarque, en faisant la somme des deux colonnes que 3 est valeur propre de A et que E3 =
Vect {(1, 1)}.
 λ +3 =T r(A) = 2 donc λ = −1.
L’autre valeur proprevérifie
−1 1
De plus, C1 − C2 = =− donc E−1 = Vect {(1, −1)}.
1 −1
Nous allons construire une BON de E formée de vecteurs propres pour A.
Posons e1 = (1, −1) et e2 = (1, 1) : on a alors (e1 |e2 ) = 0 donc e1 ⊥e2 .
1 1
Il reste à normer les vecteurs : ke1 k2 = 2, on pose donc f1 = √ e1 . De même f2 = √ e2 .
2 2
2
(f1 , f2 ) est
 une BON
 de R et la matrice
 de passage
 de la base canonique à cette base est
1 1 1 −1 0
P =√ On obtient t P AP =
2 −1 1 0 3

12

Vous aimerez peut-être aussi