Vous êtes sur la page 1sur 4

Résumé de cours : Espaces préhilbertiens,

euclidiens, matrices orthogonales


Produit scalaire
 Soit EE un RR-espace vectoriel. On appelle produit scalaire sur EE toute
application ⟨⋅,⋅⟩:E×E→R⟨⋅,⋅⟩:E×E→R vérifiant les propriétés suivantes :
o elle est bilinéaire : pour tous x,y,z∈Ex,y,z∈E et tout λ∈Rλ∈R, on
a⟨x+λy,z⟩=⟨x,z⟩+λ⟨y,z⟩⟨x+λy,z⟩=⟨x,z⟩+λ⟨y,z⟩⟨x,λy+z⟩=λ⟨x,y⟩+⟨x,z⟩.
⟨x,λy+z⟩=λ⟨x,y⟩+⟨x,z⟩.
o elle est symétrique : pour tous x,y∈Ex,y∈E, on a ⟨x,y⟩=⟨y,x⟩⟨x,y⟩=⟨y,x⟩.
o elle est définie positive : pour tout x∈Ex∈E, on a ⟨x,x⟩≥0⟨x,x⟩≥0 et de
plus ⟨x,x⟩=0⟨x,x⟩=0 si et seulement si x=0x=0.
 Un RR-espace vectoriel EE muni d'un produit scalaire s'appelle un espace
préhilbertien. Si EE est de dimension finie, EE est appelé espace euclidien.
 Les exemples classiques de produits scalaires sont :
o Sur RnRn, ⟨x,y⟩=∑nk=1xkyk⟨x,y⟩=∑k=1nxkyk.
o Sur C([a,b])C([a,b]), ⟨f,g⟩=∫baf(t)g(t)dt⟨f,g⟩=∫abf(t)g(t)dt.
Dans la suite, EE désigne un espace préhilbertien muni du produit scalaire ⟨⋅,⋅⟩⟨⋅,⋅⟩.
Norme associée
 On pose, pour x∈Ex∈E, ∥x∥=√⟨x,x⟩‖x‖=⟨x,x⟩, qu'on appelle norme associée au
produit scalaire.
 Le produit scalaire et la norme associée vérifient l'inégalité de Cauchy-
Schwarz :∀x,y∈E,|⟨x,y⟩|≤∥x∥×∥y∥∀x,y∈E,|⟨x,y⟩|≤‖x‖×‖y‖avec égalité si et
seulement si (x,y)(x,y) est une famille liée. En particulier, avec les deux produits
scalaires usuels, on a∀f,g∈C([a,b]), ∫ba|f(t)g(t)|
dt≤(∫baf2(t)dt)1/2(∫bag2(t)dt)1/2,∀f,g∈C([a,b]), ∫ab|f(t)g(t)|
dt≤(∫abf2(t)dt)1/2(∫abg2(t)dt)1/2,∀x,y∈Rn, n∑k=1|xkyk|
≤(n∑k=1x2k)1/2(n∑k=1y2k)1/2.∀x,y∈Rn, ∑k=1n|xkyk|
≤(∑k=1nxk2)1/2(∑k=1nyk2)1/2.
 La norme associée vérifie l'inégalité
triangulaire :∀x,y∈E, ∥x+y∥≤∥x∥+∥y∥∀x,y∈E, ‖x+y‖≤‖x‖+‖y‖avec égalité si et
seulement si x=0x=0 ou s'il existe λ∈R+λ∈R+ tel que y=λxy=λx (on dit
que xx et yy sont positivement liés).
 La norme associée est une norme sur EE, c'est-à-dire qu'elle vérifie les trois
conditions suivantes :
1. ∀x∈E, ∥x∥≥0∀x∈E, ‖x‖≥0 avec égalité si et seulement si x=0x=0;
2. ∀x∈E, ∀λ∈R, ∥λx∥=|λ|×∥x∥∀x∈E, ∀λ∈R, ‖λx‖=|λ|×‖x‖;
3. ∀x,y∈E, ∥x+y∥≤∥x∥+∥y∥.∀x,y∈E, ‖x+y‖≤‖x‖+‖y‖.
 On a l'identité de
polarisation suivante :∀(x,y)∈E, 2⟨x,y⟩=∥x+y∥2−∥x∥2−∥y∥2.∀(x,y)∈E, 2⟨x,y⟩=‖
x+y‖2−‖x‖2−‖y‖2.
Familles orthogonales, orthonormales
 On dit que deux vecteurs x,y∈Ex,y∈E sont orthogonaux si ⟨x,y⟩=0⟨x,y⟩=0. On
note x⊥yx⊥y.
 Une famille (xi)i∈I(xi)i∈I est dit orthogonale si les vecteurs qui la composent sont
deux à deux orthogonaux. Une famille orthogonale constituée de vecteurs non-nuls
est une famille libre.
 Si (x1,…,xp)(x1,…,xp) est une famille orthogonale, on a la relation de
Pythagore∥∥
 ∥∥p∑k=1xk∥∥
 ∥∥2=p∑k=1∥xk∥2.‖∑k=1pxk‖2=∑k=1p‖xk‖2.
 Si XX est une partie de EE, on appelle orthogonal de XX l'ensemble
noté X⊥X⊥ défini
parX⊥={y∈E; ∀x∈X, ⟨x,y⟩=0}.X⊥={y∈E; ∀x∈X, ⟨x,y⟩=0}.X⊥X⊥ est toujours
un sous-espace vectoriel de EE.
 Un vecteur x∈Ex∈E est dit unitaire ou normé si ∥x∥=1‖x‖=1. Une famille (xi)
(xi) est une famille orthonormale si c'est une famille orthogonale dont tous les
vecteurs sont normés.
 Si (x1,…,xp)(x1,…,xp) est une famille libre de EE, il existe une unique famille
orthonormale (e1,…,ep)(e1,…,ep) vérifiant les deux conditions suivantes :
1. pour tout k∈{1,…,p}k∈{1,…,p}, vect(e1,…,ek)=vect(x1,…,xk)vect(e1,
…,ek)=vect(x1,…,xk);
2. pour tout k∈{1,…,p}k∈{1,…,p}, ⟨ek,xk⟩>0⟨ek,xk⟩>0.
Le passage de (x1,…,xp)(x1,…,xp) à (e1,…,ep)(e1,…,ep) s'appelle procédé
d'orthonormalisation de Gram-Schmidt.
Bases orthonormées
  On suppose dans cette partie que EE est euclidien de dimension nn.
 Une base orthonormée de EE est une famille orthogonale (e1,…,en)(e1,…,en) dont
tous les vecteurs sont unitaires. C'est en particulier une base de EE.
 EE possède des bases orthonormées.
 Si (e1,…,en)(e1,…,en) est une base orthonormée de EE, alors tout x∈Ex∈E s'écrit
de façon uniquex=n∑i=1⟨x,ei⟩ei.x=∑i=1n⟨x,ei⟩ei.Le réel ⟨x,ei⟩⟨x,ei⟩ s'appelle
coordonnée de xx par rapport à eiei dans la base (e1,…,en)(e1,…,en).
 Si (e1,…,en)(e1,…,en) est une base orthonormée de EE,
si x=∑ni=1xieix=∑i=1nxiei et y=∑ni=1yieiy=∑i=1nyiei, alors on peut calculer le
produit scalaire et la norme par les formules suivantes :
⟨x,y⟩=n∑i=1xiyi⟨x,y⟩=∑i=1nxiyi∥x∥=(n∑i=1x2i)1/2.‖x‖=(∑i=1nxi2)1/2.
Orientation et produit mixte
  On suppose dans cette partie que EE est euclidien de dimension nn.
 Rappelons que choisir une orientation de EE, c'est fixer une base BB de EE. Une
base orthonormée (e1,…,en)(e1,…,en) de EE est alors une base orthonormée directe
si detB(e1,…,en)>0detB(e1,…,en)>0.
 Théorème et définition : Si x1,…,xnx1,…,xn sont nn vecteurs de EE, le
déterminant de la famille (x1,…,xn)(x1,…,xn) est le même dans toute base
orthonormée directe. On l'appelle le produit mixte des vecteurs x1,…,xnx1,
…,xn et on le note[x1,…,xn].[x1,…,xn].
 Si f∈L(E)f∈L(E), on a[f(x1),…,f(xn)]=det(f)×[x1,…,xn].[f(x1),
…,f(xn)]=det(f)×[x1,…,xn].
Projection orthogonale
  On suppose dans cette partie que FF est un sous-espace de EE de dimension finie.
 F⊥F⊥ est un sous-espace supplémentaire de FF appelé supplémentaire
orthogonal de FF. Si EE est lui-même de dimension finie, on a en
particulierdim(F⊥)=dim(E)−dim(F).dim⁡(F⊥)=dim⁡(E)−dim⁡(F).
 Soit x∈Ex∈E, qui s'écrit uniquement x=y+zx=y+z dans la somme
directe F⊕F⊥F⊕F⊥. Alors yy s'appelle le projeté orthogonal de xx sur FF, et est
noté pF(x)pF(x).
 Si (e1,…,ep)(e1,…,ep) est une base orthonormée de FF,
alorspF(x)=p∑i=1⟨x,ei⟩ei.pF(x)=∑i=1p⟨x,ei⟩ei.
 Théorème et définition : Pour tout x∈Ex∈E et tout f∈Ff∈F, on
a∥x−f∥≥∥x−pF(x)∥‖x−f‖≥‖x−pF(x)‖avec égalité si et seulement
si f=pF(x)f=pF(x). La
quantitéd(x,F)=∥x−pF(x)∥=inff∈F∥x−f∥d(x,F)=‖x−pF(x)‖=inff∈F‖x−f‖s'appell
e distance de xx à FF.
 Par le théorème de Pythagore, on ad(x,F)=√∥x∥2−∥pF(x)∥2.d(x,F)=‖x‖2−‖pF(x)‖2.
Hyperplan affine
  On suppose dans cette partie que EE est euclidien de dimension nn.
 Soit HH un hyperplan affine de EE. On appelle vecteur normal à HH tout vecteur
non nul orthogonal à sa direction.
 Proposition : Soit HH un hyperplan affine, soit A∈HA∈H et soit nn un vecteur
normal à HH. AlorsM∈H⟺⟨−−→AM,n⟩=0.M∈H⟺⟨AM→,n⟩=0.
 En particulier, HH est un hyperplan affine de vecteur normal n=(a1,…,an)n=(a1,
…,an) si et seulement s'il existe un réel hh tel que l'équation de HH soita1x1+⋯
+anxn+h=0.a1x1+⋯+anxn+h=0.
 Proposition : Soit HH un hyperplan affine, soit A∈HA∈H et soit nn un vecteur
normal à HH. Alorsd(M,H)=|⟨n,−−→AM⟩|∥n∥.d(M,H)=|⟨n,AM→⟩|‖n‖.
 En particulier, si HH est un hyperplan affine
d'équation ∑ni=1aixi+h=0∑i=1naixi+h=0 et si MM est un point de coordonnées (x1,
…,xn)(x1,…,xn), alors la distance de MM à HH est donnée
pard(M,H)=∣∣∑ni=1aixi+h∣∣√∑ni=1a2i.d(M,H)=|∑i=1naixi+h|∑i=1nai2.
Isométrie vectorielle
  On suppose dans cette partie que EE est euclidien de dimension nn.
 On appelle isométrie vectorielle de EE, ou automorphisme orthogonal de EE,
toute application linéaire f∈L(E)f∈L(E) telle que, pour
tout x∈Ex∈E, ∥f(x)∥=∥x∥‖f(x)‖=‖x‖.
 Proposition : Soit f∈L(E)f∈L(E). Les assertions suivantes sont équivalentes :
o ff est un endomorphisme orthogonal de EE.
o ff conserve le produit
scalaire : ∀x,y∈E, ⟨f(x),f(y)⟩=⟨x,y⟩∀x,y∈E, ⟨f(x),f(y)⟩=⟨x,y⟩.
o L'image par ff d'une base orthonormale est une base orthonormale.
 L'ensemble des automorphismes orthogonaux de EE est un groupe, appelé groupe
orthogonal de EE et noté O(E)O(E).
 On appelle symétrie orthogonale une symétrie s∈L(E)s∈L(E) telle
que ker(s−IdE)ker⁡(s−IdE) et ker(s+IdE)ker⁡(s+IdE) soient orthogonaux. Une
symétrie est un endomorphisme orthogonal si et seulement si c'est une symétrie
orthogonale.
 On appelle réflexion de EE une symétrie orthogonale par rapport à un hyperplan.
Matrices orthogonales
  On suppose dans cette partie que EE est euclidien de dimension nn.
 On appelle matrice orthogonale de taille nn toute
matrice M∈Mn(R)M∈Mn(R) vérifiant MTM=InMTM=In (on a alors
automatiquement MMT=InMMT=In).
 Une matrice est orthogonale si et seulement ses colonnes forment une base
orthonormale de RnRn, si et seulement si ses lignes forment une base orthonormale
de RnRn.
 L'ensemble des matrices orthogonales de taille nn forme un groupe appelé groupe
orthogonal et noté On(R)On(R).
 Théorème : Soit f∈L(E)f∈L(E). Alors les assertions suivantes sont équivalentes :
o ff est orthogonal;
o La matrice de ff dans toute base orthonormale de EE est orthogonale.

 Le déterminant d'une matrice orthogonale vaut ±1±1. Une matrice orthogonale est


dite positive si son déterminant vaut 11, négative si son déterminant vaut −1−1.
L'ensemble des matrices orthogonales positives forme un groupe appelé le groupe
spécial orthogonal et note SOn(R)SOn(R).
 On suppose désormais que EE est orienté. Une isométrie est appelée isométrie
positive si sa matrice dans une base orthonormée directe est une matrice orthogonale
positive. L'ensemble des isométries positives de EE est un groupe, appelé groupe
spécial orthogonal et noté SO(E)SO(E).
Isométries vectorielles en dimension 2
  On suppose dans cette partie que EE est euclidien orienté de dimension 2.
 Les matrices orthogonales positives en dimension 2 sont les matrices de la
formeM(θ)=(cos(θ)−sin(θ)sin(θ)cos(θ)), θ∈R.M(θ)=(cos⁡(θ)
−sin⁡(θ)sin⁡(θ)cos⁡(θ)), θ∈R.Les matrices orthogonales négatives en dimension 2
sont les matrices de la formeN(θ)=(cos(θ)sin(θ)sin(θ)
−cos(θ)), θ∈R.N(θ)=(cos⁡(θ)sin⁡(θ)sin⁡(θ)−cos⁡(θ)), θ∈R.
 On appelle rotation vectorielle d'angle θ∈[0,2π[θ∈[0,2π[ un endomorphisme
orthogonal de EE dont la matrice dans une (dans toute) base orthonormale directe
de EE est de la forme M(θ)M(θ). On note l'endomorphisme correspondant rθrθ.
 Si u,vu,v sont deux vecteurs unitaires de EE, il existe une unique rotation
vectorielle rθrθ telle que rθ(u)=vrθ(u)=v. θθ est appelé mesure de l'angle
orienté (u,v)(u,v) (et est défini à 2π2π-près).
 Les automorphismes orthogonaux de EE sont les rotations vectorielles et les
réflexions.

Vous aimerez peut-être aussi