Académique Documents
Professionnel Documents
Culture Documents
NB : le produit scalaire, noté ici (u|v), est parfois noté u, v ou encore u · v s’il n’y a pas risque de
confusion avec une multiplication interne (cf. les espaces de fonctions, de matrices. . . )
Définition : le couple E, (·|·) est un espace préhilbertien réel. S’il n’y a pas d’ambiguïté sur le choix
du produit scalaire, on parle de l’espace préhilbertien réel E.
Un espace euclidien est un espace préhilbertien réel de dimension finie.
Théorème : si E est un espace préhilbertien réel, l’application u → u = (u|u) est une norme sur
E, la norme euclidienne associée au produit scalaire (·|·) et l’on a l’inégalité de Cauchy-
Schwarz :
|(u|v)| ≤ u · v (avec égalité si et seulement si u, v colinéaires).
Cas d’égalité dans l’inégalité triangulaire : u + v = u + v si et seulement si u et v sont sur une
même demi-droite, c’est-à-dire si et seulement si u = 0 ou il existe λ ∈ R+ tel que v = λ.u.
Nous disposons en outre, pour tout (u, v) de E 2 , des développements :
2 2 2 2 2 2
u+v = u + v + 2 (u|v) et u−v = u + v − 2 (u|v)
qui fournissent l’identité du parallélogramme :
2 2 2 2
u+v + u−v =2 u + v
et les identités de polarisation :
1 1 1
(u|v) = u+v 2− u 2− v 2 = u 2+ v 2− u−v 2 = u+v 2− u−v 2
2 2 4
où l’on voit que les valeurs prises par le produit scalaire sont entièrement déterminées par les valeurs
prises par la norme euclidienne associée. Ainsi, une norme euclidienne étant donnée, il y a un unique
produit scalaire auquel est est associée. Mais attention ! Il existe des normes sur E qui ne sont pas des
normes euclidiennes. . .
2) Orthogonalité
Définitions : soit E un R-espace vectoriel, muni d’un produit scalaire (·|·) et · la norme associée.
• Un vecteur u de E est dit unitaire (ou normé) si et seulement s’il est de norme 1.
• Deux vecteurs u, v de E sont dits orthogonaux si et seulement si (u|v) = 0.
• Une famille (ui )i∈I de vecteurs de E est dite orthogonale si et seulement si les ui sont orthogonaux
deux à deux :
∀ (i, j) ∈ I 2 , i = j ⇒ (ui |uj ) = 0 .
• Une famille (ui )i∈I de vecteurs de E est dite orthonormale (ou orthonormée) si et seulement si les
ui sont unitaires et orthogonaux deux à deux :
∀ (i, j) ∈ I 2 , (ui |uj ) = δ i,j .
10. Espaces préhilbertiens réels et euclidiens Page 2
Propriétés :
1) Toute famille orthogonale de vecteurs non nuls est libre.
3) Exemples de référence
a) Produit scalaire associé à une base
Si B = (ei )i∈I est une base du R-espace vectoriel E, alors l’application
(u, v) → (u|v) = xi yi si u = xi .ei et v = yi .ei
i∈I i∈I i∈I
est clairement un produit scalaire sur E (par définition d’une base, il y a un nombre fini de coordonnées
non nulles pour chaque vecteur, il s’agit donc de sommes finies, même si I est infini. . . Cf. B = (X n )n∈N
dans R [X]).
(·|·) est l’unique produit scalaire sur E pour lequel B est une base orthonormale.
b) Produits scalaires canoniques
Dans un R-espace vectoriel muni d’une base canonique, le produit scalaire qui lui est associé comme
ci-dessus est appelé produit scalaire canonique :
n
• dans Rn , si u = (x1 , . . . , xn ) et v = (y1 , . . . , yn ), (u|v) = xk yk
k=1
Propriété : dans Mn (R) muni du produit scalaire canonique, les sous-espaces formés par les matrices
symétriques et antisymétriques sont supplémentaires et orthogonaux.
c) Espaces L2
Cf. le chapitre 6-§ IV-2. . . Lorsque I est un segment [a, b], l’espace L2c (I, R) des fonctions continues
de carré intégrable sur I n’est autre que C 0 ([a, b] , R).
Dans ces deux espaces, (f, g) → f g définit un produit scalaire.
I
4) Orthonormalisation de Gram-Schmidt
Théorème : soient (e1 , . . . , en ) une famille libre de vecteurs de E et les sous-espaces associés :
∀k ∈ [[1, n]] , Fk = Vect (e1 , . . . , ek ) .
Il existe une unique famille orthonormale (ε1 , . . . , εn ) de vecteurs de E telle que :
∀k ∈ [[1, n]] , Vect (ε1 , . . . , εk ) = Fk et (εk |ek ) ∈ R+∗ . (1)
De plus :
k−1 k−1
1 (vj |ek )
∀k ∈ [[1, n]] , εk = · vk où vk = ek − · v j = ek − (εj |ek ) .εj (v1 = e1 ) (2)
vk (vj |vj )
j=1 j=1
Dém. Existence : (2) définit bien par récurrence les familles (vk ) et (εk ) (vk = 0 car ek ∈ / Fk−1 , la
famille (e1 , . . . , en ) étant libre par hypothèse) ; il est aisé de vérifier que la famille (εk ) ainsi obtenue
convient.
Unicité : supposons deux familles (ε1 , . . . , εn ) et (ε′1 , . . . , ε′n ) vérifiant (1). Je montre par récurrence sur
k que Pk : (ε1 , . . . , εk ) = (ε′1 , . . . , ε′k ) est vrai pour tout k de [[1, n]] :
• P1 est vrai : ε1 et ε′1 sont sur la droite F1 = Vect (e1 ), unitaires donc égaux ou opposés ; or (ε1 |e1 ),
(ε′1 |e1 ) sont de même signe, d’où ε1 = ε′1 ;
• supposons k ≥ 2 tel que Pk−1 soit vrai ; alors εk et ε′k sont sur la normale à l’hyperplan Fk−1 de
l’espace Fk , unitaires donc égaux ou opposés ; or (εk |ek ), (ε′k |ek ) sont de même signe, d’où εk = ε′k ,
ce qui achève la récurrence.
Pour retrouver (si besoin. . . ) les coefficients de l’expression de vk , il suffit de chercher vk sous la forme
k−1
vk = ek + λi .vi
i=1
et d’écrire la condition (vj |vk ) = 0 pour obtenir directement λj , pour tout j de [[1, k − 1]].
Noter l’astuce qui consiste à utiliser une combinaison linéaire des vi (obtenus de proche en proche. . . ).
Une combinaison linéaire des ei conduirait à un système de k − 1 équations couplées.
NB : en pratique, on détermine la famille orthogonale (v1 , . . . , vn ), puis on normalise si nécessaire ;
le résultat peut être étendu à une suite de vecteurs (par exemple dans R [X]).
1
Exemple : dans E = R [X] muni du produit scalaire (P, Q) → −1 P Q, l’orthogonalisation la famille
1 3 dn n
1, X, X 2 , X 3 donne 1, X, X 2 − , X 3 − X (cf. les polynômes de Legendre : n
x2 − 1 ).
3 5 dx
Corollaire : tout espace préhilbertien de dimension finie admet des bases orthonormales.
Dém. du théorème Fixons une base orthonormale (ε1 , . . . , εn ) de F (il en existe d’après le paragraphe
précédent !). Compte tenu de la remarque précédente, il est facile de vérifier que, pour tout u de E, en
posant
n
v= (εj |u) .εj et w = u − v,
j=1
j’ai u = v + w avec v ∈ F et w ∈ F ⊥ ; il en résulte que E = F + F ⊥ , or je sais déjà que F ∩ F ⊥ = {0},
donc F ⊥ est bien un supplémentaire de F et l’expression de v = pF (u) est déjà apparue.
Je sais déjà que F ⊂ F ⊥⊥ . Posons G = F ⊥ ; j’ai F ⊂ G⊥ , il reste à prouver que G⊥ ⊂ F . Soit donc
u ∈ G⊥ et v = pF (u) ; v est dans F , donc dans G⊥ ; ainsi w = u − v ∈ G ∩ G⊥ , donc w = 0 et il en
résulte que u = v d’où u ∈ F .
Corollaire : distance d’un point à un sous-espace F de dimension finie.
Soit u ∈ E, l’application de F dans R qui à s ∈ F associe u − s atteint son minimum
d (u, F ) en un point et un seul, à savoir pF (u). On a :
d (u, F ) = u − pF (u) et d (u, F )2 = u|u − pF (u) = u 2
− pF (u) 2
.
Dém. Soient v = pF (u) et w = u−v ; pour tout s de F , u−s = (v − s) +w avec v −s et w orthogonaux.
J’ai donc, grâce au théorème de Pythagore :
2 2 2
u−s = v−s + w ;
2
le minimum est w , atteint pour s = v (et seulement en ce point) ; enfin, u − v étant orthogonal à v,
2
w = (u − v|u − v) = (u|u − v)
2 2 2
et u = v + w pour u = 0 dans la relation ci-dessus.
Inégalité de Bessel : si (ε1 , . . . , εn ) est une famille orthonormale, alors
n
∀u ∈ E , (εj |u)2 ≤ u 2
j=1
(et donc, si (εj ) est une suite orthonormale, la série (εj |u)2 est convergente).
Exemples :
1) Soient a un vecteur non nul de E, D = Vect (a) et H = D⊥ ; on a, pour u ∈ E
1/2
(a|u) |(a|u)| 2 (a|u)2
pD (u) = ·a ; d (u, H) = ; d (u, D) = u −
a 2 a a 2
+∞
2 −x
2) Déterminer inf x3 − ax2 + bx + c e dx
(a,b,c)∈R3 0
+∞
(idée : se placer dans R [X] muni du produit scalaire (P, Q) → (P |Q) = P (x) Q (x) e−x dx ;
0
2
on cherche d X 3 , R2 [X] . . . )
10. Espaces préhilbertiens réels et euclidiens Page 5
II - Espaces euclidiens
Exemple : dans E espace vectoriel euclidien orienté de dimension 3, les endomorphismes antisymétriques
sont les fa : 'u → 'a ∧ 'u ; si 'a a pour coordonnées (α, β, γ) dans une base orthonormale directe B, alors
0 −γ β
MB (fa ) = γ 0 −α .
−β α 0
L’application 'a → fa est un isomorphisme de E dans le sous-espace de L (E) formé des endomorphismes
antisymétriques.
1) Automorphismes orthogonaux
Définition : f ∈ L (E) est dit automorphisme orthogonal (ou isométrie vectorielle) de E si et seulement
si f conserve le produit scalaire, c’est-à-dire
∀ (u, v) ∈ E 2 , (f (u) |f (v)) = (u|v)
(si c’est le cas, f ∈ GL (E), puisque f (u) = 0 ⇒ u = 0).
Dém. Pour la seule implication non triviale c) ⇒ b) , utiliser une identité de polarisation, par exemple
1
(f (u) |f (v)) = f (u) + f (v) 2 − f (u) 2 − f (v) 2 ,
2
puis la linéarité de f. . .
Propriétés : 1) L’ensemble des automorphismes orthogonaux de E est un sous-groupe de GL (E) , ◦ ,
appelé groupe orthogonal de E et noté O (E).
2) Si f ∈ O (E), alors det f = ±1 et Sp f ⊂ {−1, 1}.
Propriété : dans E espace vectoriel euclidien orienté, les rotations sont les endomorphismes qui trans-
forment une (toute) base orthonormale directe en base orthonormale directe.
2) Matrices orthogonales
Définition : M ∈ Mn (R) est une matrice orthogonale si et seulement si l’endomorphisme de Rn
canoniquement associé à M est un automorphisme orthogonal de Rn (muni du produit
scalaire canonique).
Propriété : l’ensemble des matrices orthogonales est un sous-groupe de GLn (R), le groupe orthogonal
On (R) (noté aussi O (n)), isomorphe à O (Rn ). L’ensemble SOn (R) (noté aussi SO (n))
des matrices de rotation de Rn est un sous-groupe de On (R), isomorphe à SO (Rn ).
Théorème : le groupe SO2 (R) des matrices des rotations de M2 (R) est l’ensemble des
cos θ − sin θ
Rθ = , θ ∈ R.
sin θ cos θ
SO2 (R) , × est un groupe commutatif. Plus précisément,
∀ θ, θ′ ∈ R2 , Rθ × Rθ′ = Rθ+θ′ = Rθ′ × Rθ .
NB : il en résulte que P −1 Rθ P = Rθ pour toute matrice P de SO2 (R), autrement dit l’isométrie rθ
de R2 ayant pour matrice Rθ dans une base orthonormale directe a pour matrice Rθ dans toute
base orthonormale directe. rθ est appelée la rotation d’angle θ dans R2 (bien sûr, l’angle d’une
rotation est défini modulo 2π).
Théorème : le groupe O2 (R) est constitué des matrices de rotation et des matrices de réflexion
cos θ sin θ θ θ
Sθ = (symétrie orthogonale par rapport à la droite Vect cos , sin ).
sin θ − cos θ 2 2
10. Espaces préhilbertiens réels et euclidiens Page 9
Lemme 2 : si f ∈ L (E) est symétrique et F un sous-espace de E stable par f, F ⊥ est stable par f.
Dém. Supposons F stable par f ; soit alors u ∈ F ⊥ :
∀v ∈ F , (f (u) |v) = (u|f (v)) = 0
puisque u ∈ F ⊥ et f (v) ∈ F ; donc f (u) ∈ F ⊥ , ceci pour tout u de F ⊥ : F ⊥ est stable par f .
Dém. du théorème : par récurrence forte sur n = dim E ; soit, pour n ∈ N∗ , Pn l’assertion : “pour
tout endomorphisme symétrique f de tout espace vectoriel euclidien de dimension n, il existe une base
orthonormale de E formée de vecteurs propres de f”.
• P1 est triviale ;
• hypothèse de récurrence : soit n ≥ 2 tel que Pk soit vraie pour tout k < n ;
10. Espaces préhilbertiens réels et euclidiens Page 12
• Soient alors E un espace vectoriel euclidien de dimension n et f un endomorphisme symétrique de
E, A la matrice de f dans une base orthonormale de E. D’après le lemme 1, A admet au moins
une valeur propre réelle λ, soit donc F = Eλ (f) le sous-espace propre associé ; F est stable par
f et donc G = F ⊥ est également stable par f d’après le lemme 2. Soit g l’endomorphisme de G
induit par f ; muni du produit scalaire induit par celui de E, G est un espace vectoriel euclidien de
dimension p < n et g est un endomorphisme symétrique de G :
∀ (u, v) ∈ G2 (g (u) |v)G = (f (u) |v)E = (u|f (v))E = (u|g (v))G
donc l’hypothèse de récurrence me fournit une base orthonormale de G formée de vecteurs propres de
g, qui sont aussi des vecteurs propres de f ! Il suffit alors de la compléter par une base orthonormale
de F (également formée de vecteurs propres de f !) pour conclure.
Attention ! Dans Mn (C) (pour n ≥ 2 !), il existe des matrices symétriques non diagonalisables. . .
i 1
Voir par exemple .
1 −i
NB : les endomorphismes symétriques définis positifs sont associés aux produits scalaires sur E.
Ce sont les endomorphismes symétriques positifs et bijectifs.
Caractérisation : une matrice symétrique réelle est positive (resp. définie positive) si et seulement si
ses valeurs propres sont dans R+ (resp. R+∗ ).
Exemple important : soit A ∈ Mn (R), la matrice B = t AA est symétrique positive ; de plus Can B a
même noyau que Can A et
rg t AA = rg A.
Dém. Il est clair que B est symétrique et que : ∀X ∈ Mn,1 (R) , t XBX = AX 2 ≥ 0.
Pour le second point, la relation ci-dessus montre que : BX = 0 ⇒ AX = 0. Or la réciproque est
banale et il en résulte Ker Can B = Ker Can A ; l’égalité des rangs résulte alors du théorème du rang !
Le lecteur attentif aura reconnu en t AA la matrice de Gram des vecteurs colonnes de A.