Vous êtes sur la page 1sur 51

Espaces Euclidiens et Formes Quadratiques

Soufiane Mezroui

mezroui.soufiane@yahoo.fr

ENSA de Tanger
Maroc
Avant-propos

Le polycopié suivant fait partie du cours d’Algèbre 3 donné à l’ENSA de Tanger durant la période
2016- . Notons que ce manuscrit ne peut remplacer le cours dispensé en classe, qui seul fixera les
points qui seront abordés dans l’examen. En classe, ces notes seront expliquées en détail, il y aura
aussi certains compléments, en plus des intuitions qui sont derrière les passages abstraits, etc.

ii
Table des matières

1 Espaces Euclidiens 1
1.1 Produit Scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Procédé d’orthonormalisation de Schmidt . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Inégalité de Cauchy-Schwarz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Représentation matricielle du produit scalaire . . . . . . . . . . . . . . . . . . . . . 8
1.5 Sous-espaces orthogonaux et projection . . . . . . . . . . . . . . . . . . . . . . . . 10
1.6 Endomorphisme adjoint . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.7 Groupe orthogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.8 Cas particuliers : Étude des groupes O(2,R) et O(3,R) . . . . . . . . . . . . . . . . 16
1.8.1 Étude de O(2,R) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.8.2 Étude de O(3,R) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.9 Orientation et angles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.9.1 Bases orientées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.9.2 Orientation induite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.9.3 Angle non orienté . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.9.4 Angle orienté en dimension 2 . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.9.5 Angle orienté en dimension 3 . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.9.6 Produit extérieur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.10 Diagonalisation des automorphismes autoadjoints . . . . . . . . . . . . . . . . . . . 23

2 Formes bilinéaires et formes quadratiques 25


2.1 Rang et noyau d’une forme bilinéaire . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Réduction en carrées via la méthode de Gauss . . . . . . . . . . . . . . . . . . . . . 30
2.3 Bases orthogonales et réduction des formes quadratiques . . . . . . . . . . . . . . . 35
2.4 Classification des formes quadratiques sur un espace vectoriel réel . . . . . . . . . . 36
2.5 Recherche d’une base orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.6 Sous espaces orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.7 Endomorphisme adjoint . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.8 Groupe orthogonal d’une forme quadratique . . . . . . . . . . . . . . . . . . . . . . 45
iv
Chapitre 1

Espaces Euclidiens

1.1 Produit Scalaire


Définition 1.1.1 Soit E un espace vectoriel défini sur un corps K. L’application f : E × E 7−→ K est
appelée forme
1. bilinéaire si elle est linéaire par rapport à chaque coordonnée, en effet,

∀x,y,z ∈ E,∀λ ∈ K, f (λ x + y,z) = λ f (x,z) + f (y,z),


f (z,λ x + y) = λ f (z,x) + f (z,y);

2. symétrique si
∀x,y ∈ E, f (x,y) = f (y,x);
3. positive si, K = R,
∀x ∈ E, f (x,x) ≥ 0;
4. définie positive si elle est positive et

∀x ∈ E, f (x,x) = 0 ⇐⇒ x = 0.

Définition 1.1.2 Soit E un espace vectoriel défini sur R. On appelle produit scalaire sur E toute
application, notée h,i : E × E 7−→ R, qui est bilinéaire, symétrique et définie positive.
Un espace vectoriel réel de dimension finie et muni d’un produit scalaire est appelé Espace Euclidien.

Exemple 1 : Soit E = Rn . Le produit scalaire canonique h,i défini sur E est donné par :

hx,yi = x1 y1 + · · · + xn yn ,

pour x = (x1 , . . . ,xn ),y = (y1 , . . . ,yn ) deux éléments de Rn .


Cas particulier : Quand n = 2 et E = R2 , on a

∀ x = (x1 ,x2 ),y = (y1 ,y2 ) ∈ R2 ,hx,yi = x1 y1 + x2 y2 .

On peut démontrer dans ce cas, que ∀x,y ∈ R2 , alors

hx,yi = kxk kykCos(θ ),

tel que θ est l’angle entre x et y.


y

θ
x

Exemple 2 : Donnons la généralisation de l’exemple précédent. Soit E un espace vectoriel réel de


dimension n et {e1 , . . . ,en } une base de E. Soient x,y ∈ E tels que x = ∑ni=1 xi ei et y = ∑ni=1 yi ei , le
produit scalaire h,iei associé à la base {ei } est défini par
hx,yiei = x1 y1 + · · · + xn yn .

Exemple 3 : Soit E = M2 (R) et A,B ∈ E tels que


   
x1 x2 y1 y2
A= ,B = .
x3 x4 y3 y4
L’application suivante
hA,Bi = Tr(t AB) = x1 y1 + x2 y2 + x3 y3 + x4 y4
définit un produit scalaire sur E.
Exemple 4 : Soit E = R[x] l’espace vectoriel des polynômes à coefficients sur R et P,Q ∈ R[x].
L’application
Z 1
hP,Qi = P(x)Q(x)dx
0
définit un produit scalaire sur E. Comme R[x] n’est pas de dimension finie, alors il n’est pas un espace
Euclidien.
Soient E un espace vectoriel de dimension finie sur un corps K, {e1 , . . . ,en } une base de E, f :
E × E −→ K une forme bilinéaire, et x,y ∈ E tels que x = ∑ni=1 xi ei et y = ∑ni=1 yi ei . On a
!
n n n
f (x,y) = f ∑ xiei, ∑ yiei = ∑ xi y j f (ei ,e j )
i=1 i=1 i, j=1

avec f (ei ,e j ) ∈ K. Posons ai j = f (ei ,e j ), ce qui donne


n
f (x,y) = ∑ ai j xi y j = a11 x1 y1 + a12 x1 y2 + · · · + ai j xi y j + · · · + ann xn yn . (1.1)
i, j=1
On remarque que la forme f est symétrique si et seulement si ai j = a ji pour tous 1 ≤ i, j ≤ n. Et elle
est bilinéaire car elle est égale à la somme de monômes du type xi y j .
Exemple 5 : La forme
f (x,y) = 2x1 y1 + x2 y2 + 5x1 y2 + 5x2 y1
est symétrique car les coefficients de x1 y2 et x2 y1 sont les mêmes. Elle est aussi bilinéaire car dans
tous les monômes x1 y1 ,x2 y2 ,x1 y2 et x2 y1 les degrés de xi et y j sont égales à 1.
Exemple 6 : La forme
f (x,y) = x1 y1 + x2 y2 + x3 y3 + 2x1 y2 + x2 y1
n’est pas symétrique car les coefficients de x1 y2 et x2 y1 ne sont pas les mêmes.
Exemple 7 : La forme
f (x,y) = x1 y1 + x2 y2 + 2x12 y2 + 2x2 y1
n’est pas bilinéaire car le degré de x1 dans le monôme x12 y2 est égale à 2.
2
1.2 Procédé d’orthonormalisation de Schmidt
Le but de cette section est de répondre à la question suivante.
Question : Soit (E,h,i) un espace Euclidien. Est ce qu’il existe une base {e1 , . . . ,en } de E dans
laquelle h,i s’écrit sous la forme
hx,yi = x1 y1 + · · · + xn yn ,
pour tous vecteurs x = ∑ni=1 xi ei et y = ∑ni=1 yi ei de E ?
Commençons par les définitions suivantes.

Définition 1.2.1 Soit (E,h,i) un espace Euclidien.


1. Soit x ∈ E. Puisque hx,xi ≥ 0, alors posons
p
k x k= hx,xi.

On appelle k x k la norme de x.
2. Deux vecteurs x et y sont dit orthogonaux si hx,yi = 0, et ce sera noté par x ⊥ y.
3. Une base {e1 , . . . ,en } est dite orthogonale si

∀i, j,i 6= j,hei ,e j i = 0.

4. Une base orthogonale {e1 , . . . ,en } est dite orthonormée si chaque vecteur est de norme 1,

∀i, k ei k= 1.

Exercice 1.2.2 Soit (E,h,i) un espace Euclidien.


1. Soit {ei } une base orthogonale de E, montrer que { keeii k } est une base orthonormée.
2. Soit {v1 , . . . ,vr } une famille de vecteurs de E deux à deux orthogonaux, montrer qu’elle est libre.

Soit {e1 , . . . ,en } une base orthonormée et x = ∑ni=1 xi ei ,y = ∑ni=1 yi ei ∈ E. On a


n n n
hx,yi = h ∑ xi ei , ∑ yi ei i = ∑ xi y j hei ,e j i = x1 y1 + · · · + xn yn . (1.2)
i=1 i=1 i, j=1

Pour répondre à la question principale de cette section, il suffit donc de voir s’il existe toujours une
base orthonormée de E.

Théorème 1.2.3 Dans un espace Euclidien, il existe toujours une base orthonormée.

Démonstration : Soit E un espace Euclidien de dimension n. D’après l’exercice 1.2.2, il suffit de


démontrer l’existence d’une base orthogonale. Prouvons le par récurrence.
Pour n = 1, n’importe quel vecteur non nul constitue une base orthogonale. Supposons maintenant
que le résultat est vrai pour tous les espaces Euclidiens de dimensions inférieurs ou égales à n − 1.
Soit v ∈ E, v 6= 0, et soit l’ensemble des vecteurs de E qui lui sont orthogonaux

G = {x ∈ E | hx,vi = 0} .
3
v

t1

t2
G

L’ensemble G est clairement un sous-espace vectoriel de E. Calculons sa dimension. Soit l’application

f : E −→ R
x 7−→ hx,vi,

c’est une application linéaire. Le théorème du Rang donne dim E− dim(ker f )=1, donc dim (G) =dim(ker
f )= n − 1. D’après l’hypothèse de récurrence, il existe une base orthogonale {t1 , . . . ,tn−1 } de G.
Vérifions que {v,t1 , . . . ,tn−1 } est une base orthogonale de E. En effet,

∀i,hv,ti i = 0,

donc les éléments de la famille {v,t1 , . . . ,tn−1 } sont deux à deux orthogonaux, ce qui implique que
c’est une famille libre d’après l’exercice 1.2.2 et comme elle est constituée de n éléments, alors c’est
une base orthogonale de E.

Nous allons expliquer en détails maintenant le procédé de Gram-Schmidt qui permet de construire
une base orthonormée à partir de n’importe quelle base d’un espace Euclidien donné.
Soit E un espace Euclidien et {v1 , . . . ,vr } une famille libre de E, posons G = Vect{v1 , . . . ,vr }.
Construisons par récurrence une base orthogonale de G à partir de cette première base {v1 , . . . ,vr }.
Posons
ε1 = v1 , ε2 = v2 + λ ε1 ,
avec λ est choisi tel que ε1 ⊥ ε2 . La condition ε1 ⊥ ε2 est équivalente à

hε1 ,ε2 i = hε1 ,v2 + λ ε1 i


= hε1 ,v2 i + λ k ε1 k2
= 0,

donc
hε1 ,v2 i
λ =− .
k ε1 k2
Notons que
Vect(ε1 ,ε2 ) = Vect(v1 ,v2 ),
puisque
v1 = ε1 ,v2 = ε2 − λ ε1 .
Posons maintenant
ε3 = v3 + κε1 + µε2 ,
avec κ et µ sont choisis tels que ε3 ⊥ ε2 et ε3 ⊥ ε1 . Les deux dernières conditions sont équivalentes à
4
hε3 ,ε2 i = hv3 + κε1 + µε2 ,ε2 i =
hv3 ,ε2 i + µ k ε2 k2 = 0,
hε3 ,ε1 i = hv3 + κε1 + µε2 ,ε1 i =
hv3 ,ε1 i + κ k ε1 k2 = 0,

donc
hε2 ,v3 i hε1 ,v3 i
µ =− 2
,κ = − .
k ε2 k k ε1 k2
Notons que
Vect(ε1 ,ε2 ,ε3 ) = Vect(v1 ,v2 ,v3 ),
puisque
v1 = ε1 ,v2 = ε2 − λ ε1 ,v3 = ε3 − κε1 − µε2 .
On continue ainsi par récurrence. Supposons qu’on a construit de la même manière ε1 ,ε2 , . . . ,εk , avec
k < r. Posons
εk+1 = vk+1 + λ1 ε1 + · · · + λk εk ,
tel que εk+1 ⊥ εi pour tout i satisfaisant 1 ≤ i ≤ k. Ainsi

hvk+1 ,εi i
λi = − .
k εi k2

Par l’hypothèse de récurrence et puisque vk+1 = εk+1 − λ1 ε1 − · · · − λk εk , on a

Vect(ε1 , . . . ,εk+1 ) = Vect(v1 , . . . ,vk+1 ).


εi
La famille {ε1 , . . . ,εr } obtenue à la fin est une base orthogonale de G. On remplace εi par kεi k pour
obtenir une base orthonormée.
Exemple : Soient les vecteurs
     
1 1 1
u1 = −1 , u2 = 0 , u3 = −1 ,
    
0 1 −1
des vecteurs de R3 . La famille {u1 ,u2 ,u3 } est libre, en effet,

1 1 1
−1 0 −1 = − −1 −1 − 1 1

0 −1 −1 −1 = −1 6= 0.
0 1 −1

Appliquons le procédé de Gram-Schmidt pour déduire une base orthonormée de {u1 ,u2 ,u3 }. Posons
 
1
ε1 = −1 .
0

Calculons ensuite
−hε1 ,v2 i 1
λ= = − ,
k ε1 k2 2
5
et posons  
1
1
ε2 = v2 + λ ε1 = 1 .
2
2
Calculons aussi
hv3 ,ε2 i 2 hv3 ,ε1 i
µ =− 2
= ,κ = − = −1,
k ε2 k 3 k ε1 k2
et posons  
1
1
ε3 = v3 + κε1 + µε2 =  1  .
3
−1
On vérifie facilement que {ε1 ,ε2 ,ε3 } est une base orthogonale de R3 .

1.3 Inégalité de Cauchy-Schwarz


Soit R2 muni du produit scalaire canonique et soient v = (v1 ,v2 ), u = (u1 ,u2 ) deux points différents
de R2 . La distance entre les deux points v et u est égale à la norme du vecteur qui va de v à u, et elle
est donnée par q
(u1 − v1 )2 + (u2 − v2 )2 .
Il convient donc d’introduire la notation
q
k u k= u21 + u22

pour la distance entre le point u et le point d’origine (0,0) ; avec cette notation la distance entre u et v
devient k v − u k.
Généralisons ce concept de distance aux espaces vectoriels. Soit E un espace vectoriel réel pas
nécessairement de dimension finie, et muni d’un produit scalaire h.i. L’application

k . k: E −→ R+ p
x 7−→ k x k= hx,xi,

, appelée norme, vérifie clairement les propriétés suivantes


1. ∀x ∈ E,∀λ ∈ R, k λ x k=| λ |k x k ;
2. k x k= 0 ⇐⇒ x = 0.
Notons que sur R2 muni du produit scalaire canonique, cette application se confond avec la norme de
vecteurs déjà définie.
Dans la suite de cette section, nous allons démontrer que k . k vérifie l’inégalité triangulaire

∀x,y ∈ E, k x + y k≤k x k + k y k . (1.3)


Pour ce faire, on a besoin du théorème suivant.

Théorème 1.3.1 (Inégalité de Cauchy-Schwarz)


On a
hx,yi2 ≤k x k2 k y k2 ,
pour tous x,y ∈ E. Cette inégalité est une égalité si et seulement si x et y sont liés.
6
Démonstration : Si k x k=k y k= 0, alors x = y = 0, l’inégalité de Cauchy-Schwarz dans ce cas est
valide. Supposons maintenant que k x kk y k6= 0, comme le produit scalaire est symétrique, on peut
imposer sans perte de généralité que k y k6= 0. Soit λ ∈ R, on a

k x + λ y k2 =k x k2 +2hx,λ yi+ k λ y k2
= λ 2 k y k2 +2λ hx,yi+ k x k2
≥ 0.

Ce polynôme en λ est supérieur ou égale à 0 si et seulement si son discriminant est négatif,

hx,yi2 − k x k2 k y k2 ≤ 0,

ce qui prouve l’inégalité de Cauchy-Schwarz.


Supposons maintenant que hx,yi2 =k x k2 k y k2 . Donc

k x + λ y k2 =k x k2 +2hx,λ yi+ k λ y k2
= λ 2 k y k2 +2λ hx,yi+ k x k2 .

Puisque le discriminant du polynôme λ 2 k y k2 +2λ hx,yi+ k x k2 est nul, donc il admet toujours une
racine réelle. Posons λ0 ∈ R telle que

λ02 k y k2 +2λ0 hx,yi+ k x k2 =k x + λ0 y k2 = 0.

Ainsi x + λ0 y = 0. Par conséquent x et y sont liés, ce qui prouve la dernière assertion du théorème.

Exemple : Soit R2 muni du produit scalaire canonique. Soient x,y ∈ R2 , on a hx,yi =k x k k y k cos(θ )
avec θ l’angle entre x et y. Puisque | cos(θ ) |≤ 1, ceci donne l’inégalité de Cauchy-Schwarz

| hx,yi |=k x k k y k | cos(θ ) |≤k x k k y k .

Montrons maintenant l’inégalité (1.3). Soient x,y ∈ E,

k x + y k2 =k x k2 + k y k2 +2hx,yi
≤k x k2 + k y k2 +2 | hx,yi |
≤k x k2 + k y k2 +2 k x kk y k (Cauchy-Schwarz)
= (k x k + k y k)2 ,

donc
k x + y k≤k x k + k y k .
7
1.4 Représentation matricielle du produit scalaire
Soit E un espace vectoriel de dimension n sur un corps K, {e1 , . . . ,en } une base de E, et f : E × E −→
K une forme bilinéaire. Soient x = ∑ni=1 xi ei ,y = ∑ni=1 yi ei ∈ E, on a
n
f (x,y) = ∑ xi y j f (ei ,e j ).
i, j=1

Il suffit donc de connaitre les éléments f (ei ,e j ) pour pouvoir déterminer complètement f .

Définition 1.4.1 On appelle matrice de f la matrice


 
f (e1 ,e1 ) f (e1 ,e2 ) · · · f (e1 ,en )
 f (e2 ,e1 ) f (e2 ,e2 ) · · · f (e2 ,en ) 
M( f )ei = 
 ···
.
··· ··· ··· 
f (en ,e1 ) f (en ,e2 ) · · · f (en ,en ).

On peut évidement à partir de la matrice M( f )ei construire la forme f et vice versa. De plus, si f est
symétrique, alors f (ei ,e j ) = f (e j ,ei ) et M( f )ei est une matrice symétrique.

Exemple : Soit h,i le produit scalaire canonique sur Rn donné par

∀x,y ∈ E,hx,yi = x1 y1 + · · · + xn yn .

C’est une forme bilinéaire, sa matrice est donnée par


 
1 ··· 0
 .. . . ..  .
M (h,i)ei = In =  . . .
0 ··· 1

Exemple : Soit la forme bilinéaire f : R3 × R3 −→ R donnée dans la base canonique {e1 ,e2 ,e3 } de
R3 par ∀x = ∑ni=1 xi ei ,y = ∑ni=1 yi ei ∈ R3 ,

f (x,y) = x1 y1 + x2 y2 + 7x2 y3 − x1 y2 + 4x1 y3 + 8x3 y1 .

La matrice de f est donnée par  


1 −1 4
M( f )ei = 0 1 7  .
8 0 0.

Proposition 1.4.2 Soit E un espace vectoriel de dimension finie n défini sur un corps K, {e1 , . . . ,en }
une base de E, et f : E × E −→ K une forme bilinéaire. On a ∀x = ∑ni=1 xi ei ,y = ∑ni=1 yi ei ∈ E,
 
y1
  .. 
f (x,y) = x1 . . . xn M( f )ei  .  .
yn

Démonstration : Il suffit d’écrire explicitement M( f )ei et faire le calcul.


8
Exercice 1.4.3 Soit (E,h,i) un espace Euclidien et {ei } une base de E. Montrer que la matrice du
produit scalaire M(h,i)ei est inversible.
0 0
Soient à présent {e1 , . . . ,en }, {e1 , . . . ,en } deux bases de E, P = P{e }→{e0 } la matrice de passage de
i i
0
{ei } à {ei }. Soient x,y ∈ E, donnés par
n n n n
0 0 0 0
x = ∑ xi ei , x = ∑ xi ei , y = ∑ yi ei , y = ∑ yi ei
i=1 i=1 i=1 i=1

dans chacune des deux bases. Posons


   0    0
x1 x1 y1 y1
 ..  0  ..   ..  0  .. 
X =  .  , X =  .  ,Y =  .  ,Y =  .  .
0 0
xn xn yn yn

Ces vecteurs sont reliés par les relations suivantes


0 0
X = PX ,Y = PY .

Ce qui donne

 
y1
 .. 
f (x,y) = (x1 , . . . ,xn )M( f )ei  . 
yn
= t X M( f )ei Y
0 0
= t (PX ) M( f )ei (PY )
0 0
= t X (t P M( f )ei P)Y .
0 0 0 0
D’autre part on a f (x,y) = t X M( f )e0 Y . Par identification on trouve, ∀X ,Y ∈ Mn,1 (K),
i

t 0 0 0 0
X M( f )e0 Y =t X (t P M( f )ei P)Y .
i

Ainsi on obtient la relation entre les deux matrices de la forme bilinéaire f ,

M( f )e0 = t P M( f )ei P. (1.4)


i

0 0
Exemple : Soit E = R2 , {e1 ,e2 } la base canonique, {e1 ,e2 } la base donnée par
0 0
e1 = −e1 + e2 , e2 = e1 − 2e2 ,

et f : E × E −→ R la forme bilinéaire satisfaisant

f (x,y) = x1 y1 − x2 y2 + 2x1 y2 + x2 y1
0 0
dans la base canonique. En utilisant l’équation (1.4), donnons la formule de f dans la base {e1 ,e2 }.
La matrice de f et la matrice de passage sont données par
   
1 2 −1 1
M( f )ei = ,P = .
1 −1 1 −2
9
On en déduit que

M( f )e0 = t P M( f )ei P
i
   
−1 1 1 2 −1 1
=
1 −2 1 −1 1 −2
 
−3 6
= .
5 −9
0 0
Ainsi f est donnée dans la base {e1 ,e2 } par
0 0 0 0 0 0 0 0
f (x,y) = −3x1 y1 − 9x2 y2 + 6x1 y2 + 5x2 y1 .

1.5 Sous-espaces orthogonaux et projection


Soit (E,h,i) un espace Euclidien. Étudions dans cette partie les propriétés des sous-espaces orthogonaux
aux sous-ensembles de E.

Définition 1.5.1 Soit un sous-ensemble B de E. Posons

B⊥ = {x ∈ E | ∀b ∈ B,hx,bi = 0}.

B⊥ est un sous espace vectoriel dit orthogonal de B.

Proposition 1.5.2 Soit F un sous-espace vectoriel de E. On a


1. dim E = dim F+ dim F ⊥ ,
2. E = F ⊕ F ⊥ ,
3. F ⊥⊥ = F.

Démonstration :
1. Supposons que dim F = p et soit {v1 , . . . ,v p } une base de F. Complétons-la en une base {v1 , . . . ,v p , . . . ,vn }
de E. Posons M(h,i)vi = (ai j )1≤i, j≤n la matrice du produit scalaire dans la base {v1 , . . . ,vn }, telle
que
hvi ,v j i = ai j .
On a x = ∑nj=1 x j v j ∈ F ⊥ si et seulement si

n n
hv1 ,xi = hv1 , ∑ x j v j i = ∑ a1 j x j = 0,
j=1 j=1
n n
hv2 ,xi = hv2 , ∑ x j v j i = ∑ a2 j x j = 0,
j=1 j=1
.. ..
. .
n n
hv p ,xi = hv p , ∑ x j v j i = ∑ a p j x j = 0,
j=1 j=1

10
ce qui est équivalent au système d’équations

a11 x1 + · · · + a1n xn = 0,
..
.
a p1 x1 + · · · + a pn xn = 0.

D’après l’exercice 1.4.3, M(h,i)vi est inversible, donc det (ai j ) 6= 0. Les lignes de cette matrice
sont donc indépendantes, et par conséquent rang (ai j )1≤i≤p,1≤ j≤n = rang t (ai j )1≤i≤p,1≤ j≤n = p.
D’après le théorème du rang, on déduit que dim F ⊥ = n − p.
2. Pour montrer que F et F ⊥ sont supplémentaires, puisque E est de dimension finie et d’après 1), il
suffit de prouver que F ∩ F ⊥ = {0}. En effet, soit x ∈ F ∩ F ⊥ . Donc hx,xi = 0 et par conséquent
x = 0.
3. Soit y ∈ F, on a ∀x ∈ F ⊥ , hy,xi = 0, donc y ∈ F ⊥⊥ , ceci donne F ⊂ F ⊥⊥ . D’autre part, d’après 1,

dim F ⊥⊥ = dim E − dim F ⊥ = dim E − (dim E − dim F) = dim F.

On a F est de dimension finie, F ⊂ F ⊥⊥ , et dim F ⊥⊥ = dim F, donc F = F ⊥⊥ .

Soit (E,h,i) un espace Euclidien et E ∗ son dual. La proposition suivante décrit un isomorphisme
canonique entre E et E ∗ .

Proposition 1.5.3 L’application


s : E −→ E ∗
y 7−→ s(y),
avec
s(y) : E −→ R
x 7−→ hx,yi,
est un isomorphisme de E sur E ∗ .

Démonstration : L’application s est linéaire car le produit scalaire est linéaire sur la seconde coordonnée.
Comme dim E = dim E ∗ , l’application linéaire s est un isomorphisme si et seulement si elle est
injective. Pour montrer l’injectivité, soit y ∈ E tel que s(y) = 0. Donc ∀x ∈ E,hx,yi = 0, en particulier
hy,yi = 0, ce qui donne y = 0.

Définition 1.5.4 Soit F un sous-espace vectoriel de E. La proposition précédente donne E = F ⊕ F ⊥ .


Tout x ∈ E s’écrit donc de manière unique comme x = u + v tels que u ∈ F, v ∈ F ⊥ . On appelle u la
projection orthogonale de x sur F et on note par pF l’application pF (x) = u.

Proposition 1.5.5 Soit F un sous-espace vectoriel de E et {e1 , . . . ek } une base orthonormée de F.


On a :
1. ∀x ∈ E, pF (x) − x ∈ F ⊥ . De plus, k pF (x) k≤k x k.
2. On a ∀x ∈ E, pF (x) = ∑ki=1 hx,ei i ei .
3. pF ◦ pF = pF .
11
4. ∀x ∈ E, k x − pF (x) k= in fy∈F k x − y k.

Démonstration :
1. Soit x ∈ E avec x = u + v, u ∈ F, v ∈ F ⊥ . On a pF (x) − x = u − x = −v ∈ F ⊥ . De plus,

k pF (x) k2 =k u k2
≤k u k2 + k v k2
=k u + v k2 (Car u ⊥ v )
=k x k2 .

2. Soit x = ∑ki=1 ai ei + v où ∑ki=1 ai ei ∈ F et v ∈ F ⊥ . Pour trouver les ai , calculons hx,ei i = ha1 e1 +


· · · + ak ek + v,ei i = ai , ce qui donne la formule voulue.
3. Soit x ∈ E avec x = u + v, u ∈ F, v ∈ F ⊥ . On a pF ◦ pF (x) = pF (u) = u = pF (x). D’où le résultat.
4. On a
k x − y k2 =k x − pF (x) + pF (x) − y k2 =k x − pF (x) k2 + k pF (x) − y k2 ,
car (x − pF (x)) ⊥ (pF (x) − y). Ce qui donne ∀y ∈ F, k x − pF (x) k≤k x − y k. D’où le résultat.

1.6 Endomorphisme adjoint


On définit dans cette section le concept de l’endomorphisme adjoint et on explique la relation qu’il a
avec la matrice transposée.

Proposition 1.6.1 Soit E un espace Euclidien et f ∈ End(E). Il existe un unique endomorphisme


f ∗ ∈ End(E) tel que
∀x,y ∈ E,h f (x),yi = hx, f ∗ (y)i.
f ∗ est appelé adjoint de f . Si {ei } est une base orthonormée de E, M( f )ei la matrice de l’endomorphisme
f , M( f ∗ )ei la matrice de l’endomorphisme f ∗ . On a

M( f ∗ )ei = t M( f )ei .

Démonstration : Soit {ei } une base orthonormée de E et f ∗ ∈ End(E) l’endomorphisme ayant pour
matrice M( f ∗ )ei = t M( f)ei la
transposée
  de la matrice de f dans la base {ei }. On a ∀ x = ∑ni=1 xi ei ,y =
x1 y1
 ..   .. 
∑i=1 yi ei ∈ E avec X =  .  ,Y =  .  ∈ Mn,1 (R),
n

xn yn

h f (x),yi = t (M( f )ei X)Y


= t X t M( f )ei Y
= hx, f ∗ (y)i.

Montrons maintenant l’unicité, supposons qu’il existe un autre g ∈ End(E) tel que

∀x,y ∈ E,h f (x),yi = hx,g(y)i.


12
Ce qui donne
∀x,y ∈ E,hx,g(y)i = hx, f ∗ (y)i,
et donc
∀x,y ∈ E,hx,g(y) − f ∗ (y)i = 0.
En particulier on a ∀y ∈ E,hg(y) − f ∗ (y),g(y) − f ∗ (y)i = 0, et par suite ∀y ∈ E, g(y) − f ∗ (y) = 0, ce
qui achève la démonstration.

Proposition 1.6.2 Pour tous endomorphismes f ,g de E et ∀λ ∈ R, on a f ∗∗ = f , (id)∗ = id, ( f +g)∗ =


f ∗ + g∗ , (λ f )∗ = λ f ∗ , ( f ◦ g)∗ = g∗ ◦ f ∗ , rg f ∗ = rg f , dét f ∗ = dét f .

Démonstration : Il suffit d’écrire ces formules sous la forme matricielle.

1.7 Groupe orthogonal


Soit E un espace Euclidien. Nous étudions dans cette partie les endomorphismes f ∈ End(E) qui
conservent la norme des vecteurs, ∀x ∈ E, k f (x) k=k x k. En particulier, les rotations et les réflexions
dans le plan et l’espace réalisent cette propriété.

Définition 1.7.1 Soit E un espace Euclidien et f ∈ End(E). On dit que f est une transformation
orthogonale, ou isométrie, si
∀x,y ∈ E,h f (x), f (y)i = hx,yi.
Notons O(E) l’ensemble des transformations orthogonales.

Proposition 1.7.2 Les propriétés suivantes sont équivalentes :


1. ∀x,y ∈ E,h f (x), f (y)i = hx,yi.
2. ∀x ∈ E, k f (x) k=k x k.
3. Soit {ei } une base orthonormée et M( f )ei la matrice de l’endomorphisme f dans cette base. On a
t M( f ) M( f ) = Id.
ei ei

Démonstration :
1) =⇒ 2), il suffit de faire x = y dans la formule de 1).
2) =⇒ 1), on a

1
k f (x) + f (y) k2 − k f (x) k2 − k f (y) k2

h f (x), f (y)i =
2
1
= k f (x + y) k2 − k f (x) k2 − k f (y) k2 .

2
Puisque f conserve la norme, on déduit que
1
k x + y k2 − k x k2 − k y k2 = hx,yi.

h f (x), f (y)i =
2
Montrons que 1) ⇔ 3). On a d’après 1),

∀x,y ∈ E,h f (x), f (y)i = hx,yi.


13
D’après l’équation 1.2, et dans une base orthonormée {ei }, cette formule devient

∀X,Y ∈ Mn,1 (R),t (M( f )ei X)M( f )ei Y = t XY.

Ce qui est équivalent à


t
M( f )ei M( f )ei = Id.

Proposition 1.7.3 Soit E un espace Euclidien et f une transformation orthogonale.


1. Les valeurs propres de f sont 1 ou −1.
2. dét f = ±1, en particulier f est bijective.
Les transformations orthogonales de déterminant 1 sont dites directes, celles de déterminant −1 sont
dites indirectes.

Démonstration : Soit λ une valeur propre et v 6= 0 un vecteur propre correspondant, f (v) = λ v. On a

k f (v) k=k λ v k=| λ |k v k .

Comme f est une transformation orthogonale, k f (v) k=k v k, alors | λ |= 1 et donc λ = ±1.
On a d’autre part, dans une basée orthonormée {ei }, t M( f )ei M( f )ei = Id. Ce qui donne dét M( f )2ei =
1, ainsi dét f = dét M( f )ei = ±1.

Les transformations orthogonales ont la propriété de transformer les bases orthonormées en bases
orthonormées, en effet :

Proposition 1.7.4 Soit E un espace Euclidien et f ∈ End(E) un endomorphisme. Les assertions


suivantes sont équivalentes :
1. f est une transformation orthogonale.
2. f transforme toute base orthonormée en une base orthonormée.
3. Il existe une base orthonormée transformée par f en une base orthonormée.

Démonstration :
Montrons que 1) ⇒ 2). Supposons que f est une transformation orthogonale et soit {ei } une base
orthonormée. D’après la Proposition 1.7.3, f est bijective, donc l’image { f (ei )} de la base {ei } est
aussi une base. Il reste à montrer qu’elle est orthonormée. On a

∀i, j,i 6= j,h f (ei ), f (e j )i = hei ,e j i = 0,

et
∀i, k f (ei ) k=k ei k= 1,
ce qui donne le résultat voulu.
2) ⇒ 3) C’est une implication évidente.
Montrons que 3) ⇒ 1). Supposons qu’il existe une base orthonormée {ei } telle que { f (ei )} soit
aussi orthonormée. Soient x = ∑ni=1 xi ei ,y = ∑ni=1 yi ei ∈ E. Puisque {ei } est orthonormée, d’après
l’équation (1.2), on a
n
hx,yi = ∑ xi yi .
i=1
14
D’autre part

n n
h f (x), f (y)i = h ∑ xi f (ei ), ∑ y j f (e j )i
i=1 j=1
n
= ∑ xi y j h f (ei ), f (e j )i
i, j=1
n
= ∑ xi yi (Car { f (ei )} est orthonormée)
i=1
= hx,yi.

Ainsi f est orthogonale.

Définition 1.7.5 L’ensemble

O(n,R) = A ∈ Mn (R) |t A A = Id


vérifie les propriétés suivantes :


1. ∀M,N ∈ O(n,R), alors MN ∈ O(n,R).
2. Id ∈ O(n,R).
3. Si M ∈ O(n,R), alors M −1 ∈ O(n,R).
En particulier, O(n,R) est un groupe dit groupe orthogonal. Les matrice appartenant à ce groupe
sont appelées matrices orthogonales.
Pour M ∈ O(n,R), dét M = ±1. Si dét M = 1, M est dite matrice orthogonale directe. Si dét M = −1,
M est dite matrice orthogonale indirecte. L’ensemble des matrices orthogonales directes est noté
SO(n,R). Ce groupe
SO(n,R) = {M ∈ O(n,R) | dét M = 1}
est appelé groupe spécial orthogonal.

D’après la Proposition 1.7.3, et dans une base orthonormée, les matrices orthogonales sont les matrices
des transformations orthogonales dans les espaces Euclidiens.
0
Proposition 1.7.6 Soit E un espace Euclidien et {ei },{ei } deux bases orthonormées de E. Soit P{e }→{e0 }
i i
0
la matrice de passage de {ei } vers ei . On a P{e }→{e0 } ∈ O(n,R).
i i

0
Démonstration : Soit f l’endomorphisme défini par ∀i, f (ei ) = ei . Donc f est orthogonal d’après la
proposition précédente et par suit M( f )ei ∈ O(n,R). On a M( f )ei = P{e }→{e0 } , donc P{e }→{e0 } est une
i i i i
matrice orthogonale.


 
a b
Exercice 1.7.7 Soit A = ∈ M2 (R). Montrer que A ∈ O(n,R) est une matrice orthogonale si
c d
et seulement si
a2 + c2 = 1, b2 + d 2 = 1, ab + cd = 0.
15
1.8 Cas particuliers : Étude des groupes O(2,R) et O(3,R)
1.8.1 Étude de O(2,R)
 
a b
Soit A = ∈ M2 (R). D’après l’exercice précédent on a A ∈ O(n,R) est une matrice orthogonale
c d
si et seulement si
a2 + c2 = 1, b2 + d 2 = 1, ab + cd = 0.
Les deux premières équations impliquent que ∃θ ,λ ∈ R tels que

a = cos(θ ), c = sin(θ ), b = cos(λ ), d = sin(λ ).

La troisième équation donne

ab + cd = 0 ⇐⇒ cos(θ − λ ) = cos(θ )cos(λ ) + sin(θ )sin(λ ) = 0,

donc
(2m + 1)π
θ −λ =
2
avec m ∈ Z. Ainsi

 
(2m + 1)π
b = cos θ + = (−1)m+1 sin(θ ),
2
 
(2m + 1)π
d = sin θ + = (−1)m cos(θ ).
2

Donc A ∈ O(2,R) si et seulement si

cos(θ ) (−1)m+1 sin(θ )


 
A= .
sin(θ ) (−1)m cos(θ )

Comme dét A = (−1)m cos(θ )2 + sin(θ )2 = (−1)m , alors A ∈ SO(2,R) si et seulement si m est pair,


m ∈ 2N. Nous avons ainsi le résultat suivant :

Proposition 1.8.1 Soit A ∈ O(2,R), on a :


 
cos(θ ) −sin(θ )
1. Supposons que A ∈ SO(2,R), il existe alors θ ∈ R tel que A = . C’est une
sin(θ ) cos(θ )
rotation d’angle θ et ayant O l’origine du repère comme centre.

AX

X
θ

O
16
 
cos(θ ) sin(θ )
2. Supposons que A ∈/ SO(2,R), il existe alors θ ∈ R tel que A = . C’est la
sin(θ ) −cos(θ )
symétrie orthogonale par rapport à la droite d’angle polaire θ2 .

AX
θ
2

X
O

1.8.2 Étude de O(3,R)


Lemme 1.8.2 Soit {e1 ,e2 ,e3 } la base canonique de R3 et f ∈ End(R3 ) une transformation orthogonale,
M( f )ei ∈ O(3,R) :

Si dét M( f )ei = 1, alors 1 est une valeur propre de f d’ordre 1 ou 3.


Si dét M( f )ei = −1, alors −1 est une valeur propre de f d’ordre 1 ou 3.

Démonstration : Supposons dét M( f )ei = 1 et considérons M( f )ei ∈ M3 (R) ⊂ M3 (C) comme la


matrice de l’endomorphisme
C3 −→ C3
X 7−→ M( f )ei X.
D’après le théorème de d’Alembert-Gauss, le polynôme caractéristique P(λ ) = dét (M( f )ei − λ I3 )
est scindé et il admet donc 3 racines dans C. On a deux cas :
1er cas Supposons que ces 3 racines λ1 ,λ2 et λ3 sont réelles. D’après la Proposition 1.7.2, λi = ±1, et
comme dét M( f )ei = P(0) = λ1 λ2 λ3 = 1, alors soit λ1 = 1 et λ2 = λ3 = −1, soit λ1 = λ2 = λ3 = 1.
Ce qui termine la démonstration dans ce cas.
2eme cas Supposons que l’une de ces racines β ∈ C est non réelle, ainsi, puisque M( f )ei est réelle alors
β est une valeur propre aussi. On a dét M( f )ei = P(0) = µβ β = µ | β |2 = 1, avec µ c’est la troisième
valeur propre. Puisque µ | β |2 = 1, et | β |∈ R, alors µ ∈ R. Ainsi, d’après la Proposition 1.7.2,
µ = ±1. Comme µ | β |2 = 1 et | β |2 > 0, alors µ = 1. Ce qui termine la démonstration dans ce cas.
On traite le cas dét M( f )ei = −1 de manière analogue.

Lemme 1.8.3 Soit {e1 ,e2 ,e3 } la base canonique de R3 et f ∈ End(R3 ) une transformation orthogonale,
M( f )ei ∈ O(3,R). Supposons que M( f )ei 6= Id :

Si dét M( f )ei = 1, alors dim E1 = 1 ;


Si dét M( f )ei = −1, alors dim E−1 = 1.

Démonstration : Supposons que dét M( f )ei = 1. D’après le Lemme 1.8.2, 1 est une valeur propre
d’ordre 1 ou 3. Si dim E1 = 3, alors E1 = R3 et donc M( f )ei = I3 , ce qui est exclu dans l’énoncé.
Supposons maintenant que dim E1 = 2, alors 1 est une valeur propre d’ordre 3. Soit {v1 ,v2 } une base
de E1 et w ∈ Vect{v1 ,v2 }⊥ , w 6= 0. On a ∀i,
17
h f (w),vi i = h f (w), f (vi )i (Car f (vi ) = vi )
= hw,vi i (Car f est orthogonale)
= 0,

ce qui donne f (w) ∈ Vect{v1 ,v2 }⊥ . Ceci implique f (w) ∈ Vect(w), d’après la Proposition 1.5.2. Donc
∃µ ∈ R tel que f (w) = µw, et 1 est une valeur propre d’ordre 3, alors µ = 1. Ainsi f (w) = w et
donc w ∈ E1 . Ce qui est impossible d’après la Proposition 1.5.2, car w ∈ E1⊥ et w 6= 0. Donc, on a
nécessairement dim E1 = 1.
Le cas dét M( f )ei = −1 se traite de la même manière.

Proposition 1.8.4 Soit A ∈ O(3,R), {ei } la base canonique de R3 , et f l’endomorphisme de R3 tel


0
que A = M( f )ei . Il existe une base orthonormée {ei } de R3 telle que
 
cos(θ ) −sin(θ ) 0
M( f )e0 =  sin(θ ) cos(θ ) 0 ,θ ∈ R,
i
0 0 ε
0 0 0 0 0
où ε = 1 si A ∈ SO(3,R), e1 ,e2 engendrent E1⊥ , e3 ∈ E1 ; et ε = −1 si A ∈
/ SO(3,R), e1 ,e2 engendrent
⊥ 0
E−1 , e3 ∈ E−1 ;

0
Démonstration : Si A = ±I3 , on pose ∀i, ei = ei , θ = 0 si A = I3 , θ = π si A = −I3 . Ce qui donne le
résultat voulu pour ce cas.
Supposons maintenant que A 6= ±I3 . Si dét A = 1, on a d’après le Lemme 1.8.3, dim E1 = 1. Posons
E1 = Vect(w),w ∈ E1 . On a ∀x ∈ E1⊥ , hx,wi = 0. Puisque f est une transformation orthogonale, alors
h f (x), f (w)i = 0. D’autre part f (w) = w, ce qui implique h f (x),wi = 0, et donc f (x) ∈ E1⊥ . Ainsi le
plan E1⊥ est stable par f .
Posons f˜ = f |E ⊥ la restriction de f sur le plan E1⊥ . On a ∀x,y ∈ E1⊥ ,
1

f˜(x), f˜(y) E ⊥ = h f (x), f (y)iR3 = hx,yiR3 = hx,yiE ⊥ ,




1 1

donc f˜ est une transformation orthogonale sur le plan E1⊥ .


0 0 0
Calculons maintenant dét f˜. Soit {e1 ,e2 } une base orthonormée du plan E1⊥ et posons e3 = w
kwk . On a
0 0 0
{e1 ,e2 ,e3 } est une base orthonormée de R3 et
 
a b 0  
˜ a b
M( f )e0 = c d 0 , avec M( f ){e0 ,e0 } =
  .
i 1 2 c d
0 0 1

Puisque le déterminant est invariant par changement de base, alors



a b
dét M( f˜){e0 ,e0 } = = dét M( f ) 0 = dét M( f )e = dét A = 1.
ei i
1 2 c d

Par conséquent, d’après la Proposition 1.8.1, f˜ est une rotation d’angle θ , θ ∈ R.


18
w

f˜ θ
E1⊥

Ceci implique    
˜ a b cos(θ ) −sin(θ )
M( f ){e0 ,e0 } = = .
1 2 c d sin(θ ) cos(θ )
Ainsi  
cos(θ ) −sin(θ ) 0
M( f )e0 =  sin(θ ) cos(θ ) 0 .
i
0 0 1
Ce qui achève la démonstration de la proposition dans ce cas. Le cas dét A = −1 se traite d’une
manière analogue, on remplace seulement E1 par E−1 .

Gardons les notations de la Proposition 1.8.4. Si dét A = 1, f est alors une rotation autours de la droite
E1 . Comme la trace est invariante par changement de base, on a

Tr A = 2 cos(θ ) + 1. (1.5)
Dans la pratique, pour pouvoir trouver θ , il suffit de calculer Tr A.
Si dét A = −1, on peut écrire f = g ◦ h avec
   
cos(θ ) −sin(θ ) 0 1 0 0
M(g)e0 =  sin(θ ) cos(θ ) 0 , M(h)e0 = 0 1 0  .
i i
0 0 1 0 0 −1
Donc, la transformation orthogonale f est égale à la composition de la rotation autour de la droite
⊥ . On a dans ce cas
E−1 suivie de la symétrie orthogonale par rapport au plan E−1

Tr A = 2 cos(θ ) − 1. (1.6)
En particulier, si Tr A = 1, alors θ = 0 et donc f c’est la symétrie orthogonale par rapport au plan
⊥ . f dans ce cas est appelée réflexion par rapport à E ⊥ .
E−1 −1

1.9 Orientation et angles


1.9.1 Bases orientées
0 0
Soit E un espace Euclidien de dimension n, {e1 , . . . ,en } et {e1 , . . . ,en } deux bases orthonormées
ordonnées différentes de E, c’est à dire l’ordre des éléments de chaque base est pris en compte.
Soit P{e }→{e0 } la matrice de passage, on a dét P{e }→{e0 } = ±1, d’après la Proposition 1.7.6.
i i i i

Définition 1.9.1 Soit E un espace Euclidien de dimension n. Fixons une base orthonormée {ei } de
0 0
E. Si dét P{e }→{e0 } = 1, telle que {ei } est une base orthonormée de E, on dit que {ei } est une base
i i
directe. Dans le cas contraire, on dit qu’elle est indirecte.
L’espace E muni de {ei } est appelé espace Euclidien orienté par la base {ei }.
19
Exemple : Orientation canonique de Rn
Soit Rn muni du produit scalaire canonique et de la base ordonnée canonique {e1 , . . . ,en }, e1 =
(1,0, . . . ,0), e2 = (0,1,0, . . . ,0),. . . , en = (0,0, . . . ,1). On se base sur cette base canonique pour fixer
l’orientation des autres bases de Rn . En effet, on dit que la base {v1 , . . . ,vn } est une base directe, si
dét P{ei }→{vi } = 1.

1.9.2 Orientation induite


Soit E un espace Euclidien de dimension n, orienté par la base {ei }, et soit π un hyperplan de E.
Question : Comment définir une orientation sur les bases orthonormées de l’hyperplan π ?
On a π ⊥ est de dimension 1, d’après la Proposition 1.5.2. Soit w ∈ π ⊥ tel que k w k= 1. On dit que
la base orthonormée et ordonnée {v1 ,v2 , . . . ,vn−1 } de π est directe si la base {v1 ,v2 , . . . ,vn−1 ,w} est
directe pour la base {ei }.

1.9.3 Angle non orienté


Soit E un espace Euclidien. Définissons ce que c’est un angle non orienté, ou simplement angle, entre
deux vecteurs de E. Soient x,y ∈ E\{0}, l’inégalité de Cauchy-Schwarz donne

| hx,yi |
≤ 1.
k x kk y k

Il existe donc un unique θ ∈ [0,π] tel que

| hx,yi |
cos(θ ) = .
k x kk y k
θ est appelé angle non orienté entre les vecteurs x et y.

1.9.4 Angle orienté en dimension 2


Soit (E,h,i) un espace Euclidien de dimension 2 et orienté par la base {e1 ,e2 }. Soit f ∈ SO(E) une
rotation. D’après la Proposition 1.8.1, il existe θ ∈ R tel que
 
cos(θ ) −sin(θ )
M( f )ei = .
sin(θ ) cos(θ )

Puisque θ reste fixe modulo 2π, on peut considérer que θ ∈] − π,π] et on l’appelle angle de la
rotation. Dans la suite de cette sous-section, toute rotation d’angle θ sera notée Rθ .

u v
Proposition 1.9.2 Soient u,v ∈ E et posons U = kuk ,V = kvk . Il existe un unique θ ∈] − π,π] tel que
Rθ (U) = V . θ est appelé angle orienté entre u et v et est noté (uv).

Démonstration : Soient U = (U1 ,U2 ), V = (V1 ,V2 ) les composantes de U,V dans la base orthonormée
{ei }. On a

U12 +U22 = 1,V12 +V22 = 1,

donc ils existent α,β ∈ R tels que U1 = cos(α), U2 = sin(α), V1 = cos(β ), V2 = sin(β ). Ce qui donne
20
    
cos(θ ) −sin(θ ) cos(α) cos(β )
Rθ (U) = V ⇐⇒ =
sin(θ ) cos(θ ) sin(α) sin(β )
⇐⇒ cos(θ + α) = cos(β ), sin(θ + α) = sin(β )
⇐⇒ θ = β − α mod 2π.

Remarque 1.9.3 Dans la proposition précédente, on peut montrer que si on oriente E par une autre
base directe, différente de {e1 ,e2 }, alors l’angle orienté θ ne change pas. Ce qui justifie pourquoi on
travaille dans cette proposition dans un espace Euclidien orienté, car les angles orientés restent fixes
quand on passe d’une base directe à une autre qui est directe aussi.
Le système d’équations     
cos(θ ) −sin(θ ) U1 V
= 1 ,
sin(θ ) cos(θ ) U2 V2
donne

cos(θ ) = U1V1 +U2V2 = hU,V i, sin(θ ) = U1V2 −U2V1 = dét k U,V kei .
On a donc les équations suivantes, qui sont utiles pour calculer l’angle θ ,

hu,vi dét k U,V kei


cos(θ ) = , sin(θ ) = . (1.7)
k u kk v k k u kk v k

Exemple : Soit R2 muni du√ produit


√ scalaire canonique et de l’orientation canonique. Soient les deux
vecteurs u = (1,0) et v = (2 2,2 2). L’angle orienté θ entre u et v est donné par

1 2 2
√ √ √
0 2 2 √2

hu,vi 2 2 2 dét k U,V kei
cos(θ ) = = = , sin(θ ) = = = .
k u kk v k 4 2 k u kk v k 4 2
Ainsi θ = π4 .
Exercice 1.9.4 Montrer que :
0
1. ∀θ ,θ ∈ R, Rθ ◦ Rθ 0 = Rθ +θ 0 .
2. ∀u,v,w ∈ E, (uv) + (vw) = (uw) mod 2π.

1.9.5 Angle orienté en dimension 3


Soit E un espace Euclidien orienté de dimension 3. Soit aussi π un plan de E muni du produit scalaire
induit et de l’orientation induite définie par le vecteur unitaire n ∈ π ⊥ . Soient u et v deux vecteurs de
π \ {0}. Puisque π est orienté, d’après la Proposition 1.9.2 il existe un angle orienté θ = (uv) entre
les deux vecteurs u et v. L’axe de la rotation Rθ telle que Rθ ( kuku
) = kvkv
est la droite ayant n comme
vecteur directeur.
Exercice 1.9.5 Soit {e1 ,e2 } une base orthonormée directe de π, ou d’une manière équivalente, B =
{e1 ,e2 ,n} est une base orthonormée directe de E. Montrer que
dét k u,v,n kB
sin(θ ) = .
k u kk v k
21
1.9.6 Produit extérieur
Nous définissons dans cette partie la notion du produit vectoriel, qui est importante en Mécanique, en
particulier pour définir le moment d’une force. Soit (E,h,i) un espace Euclidien orienté de dimension
3.

Définition 1.9.6 Soient u et v deux vecteurs indépendants de E. Le produit vectoriel de u et v, noté


u ∧ v, est le vecteur qui réalise les conditions suivantes :
1. il est orthogonal au plan Vect(u,v) ;
2. (u,v,u ∧ v) est une base directe de E ;
3. k u ∧ v k=Surface du parallélogramme défini par les deux vecteurs u et v.
Si u et v sont liés, on pose u ∧ v = 0.

u∧v

Vect(u,v) u

Proposition 1.9.7 Soient u,v ∈ E. Soit aussi n un vecteur unitaire perpendiculaire au plan Vect(u,v)
et θ l’angle orienté par l’orientation définie par le vecteur n. On a

u ∧ v =k u k k v k sin(θ ) n.

u∧v
Démonstration : Soient w = ku∧vk et P le parallélogramme défini par u et v. On a par définition
u ∧ v = Surface de P × w, comme Surface de P =k u k k v k | sin(θ ) |, alors

u ∧ v =k u k k v k | sin(θ ) | w. (1.8)
D’autre part, on a
dét k u,v,n k dét k u,v, ± w k
sin(θ ) = = .
k u kk v k k u kk v k
Donc si w = n, alors sin(θ ) > 0, si w = −n, on a sin(θ ) < 0. On remplace cela dans l’équation (1.8),
et on trouve le résultat recherché.

Exercice 1.9.8 Soit {e1 ,e2 ,e3 } une base orthonormée directe de E et x = ∑3i=1 xi ei ,y = ∑3i=1 yi ei ∈ E.
Donner les coordonnées de x ∧ y dans la base {ei }.

Exercice 1.9.9 Soit x,y,z ∈ E. Montrer les équations suivantes :


1. k x ∧ y k2 =k x k2 k y k2 −hx,yi2 .
2. x ∧ (y ∧ z) = hx,zi y − hx,yi z.
22
1.10 Diagonalisation des automorphismes autoadjoints
Définition 1.10.1 Soit E un espace Euclidien. Un endomorphisme f ∈ End(E) est dit autoadjoint si
∀x,y ∈ E,h f (x),yi = hx, f (y)i.
En d’autres termes, f = f ∗ .

Soit {ei } une base orthonormée de E. f est autoadjoint si et seulement si


∀X,Y ∈ Mn,1 (R), t (M( f )ei X)Y = t XM( f )ei Y = t X t M( f )ei Y.
Ce qui est équivalent à t M( f )ei = M( f )ei . Par conséquent, f est autoadjoint si et seulement si sa
matrice M( f )ei dans la base orthonormée {ei } est symétrique.

Théorème 1.10.2 (Diagonalisation des matrices symétriques réelles)


Soit E un espace Euclidien et f ∈ End(E) un automorphisme autoadjoint. On a :
1. f est diagonalisable.
2. Les sous espaces propres de f sont deux à deux orthogonaux.
En particulier, en choisissant une base orthonormée pour chaque sous espace propre, on peut construire
une base orthonormée de vecteurs propres de E.

Démonstration : Soit A la matrice


  de f dans une base orthonormée et λ une valeur propre. Montrons
x1
 .. 
que λ est réelle. Soit X =  .  un vecteur propre associé à λ . On a AX = λ X, de plus AX = λ X
xn
donne AX = λ X, car A est réelle. Puisque A est symétrique, on déduit que
λ t XX = t (AX)X = t X t AX = t XAX = λ t XX.
Ainsi λ̄ = λ , et λ est donc réelle. Puisque λ a été choisi arbitrairement, les valeurs propres de A sont
donc toutes réelles.
Montrons maintenant par récurrence sur n, la dimension de E, qu’il existe une base de vecteurs propres
de E. Pour n = 1, c’est évident. Supposons le résultat vrai pour les espaces Euclidiens de dimension
n − 1. Soit λ une valeur propre de f , x un vecteur propre associé et posons H = Vect{x}⊥ . Rappelons
que dim H = n − 1, d’après la Proposition 1.5.2.
Montrons au début que f est stable sur H, c’est à dire f (H) ⊂ H. En effet, soit y ∈ H. On a
h f (y),xi = hy, f (x)i = λ hy,xi = 0,
car y ⊥ x. Ainsi f (y) ⊥ x et donc f (y) ∈ H. Posons f˜ = f|H la restriction de f sur H.
Vérifions que f˜ est autoadjoint sur H. En effet, ∀u,v ∈ H,
f˜(u),v H = h f (u),viE = hu, f (v)iE = u, f˜(v) H .


Comme dim H = n − 1, alors d’après l’hypothèse de récurrence, il existe une base {e2 , . . . ,en } de
vecteurs propres de f˜. On a clairement {x,e2 , . . . ,en } est une base de E formée de vecteurs propres de
f . On en déduit que f est diagonalisable.
Finalement, vérifions que les sous-espaces propres sont deux à deux orthogonaux. Soient v1 ,v2 deux
vecteurs propres de E et λ1 ,λ2 les valeurs propres correspondantes avec λ1 6= λ2 . On a
λ1 hv1 ,v2 i = h f (v1 ),v2 i = hv1 , f (v2 )i = λ2 hv1 ,v2 i.
Donc (λ1 − λ2 )hv1 ,v2 i = 0. Comme λ1 − λ2 6= 0, alors hv1 ,v2 i = 0.
23


Ce théorème peut se reformuler sous la forme matricielle suivante :

Corollaire 1.10.3 Toute matrice symétrique réelle est diagonalisable dans R et ses sous espaces
propres sont deux à deux orthogonaux.
 
0 1
Exercice 1.10.4 Soit la matrice symétrique complexe A = ∈ M2 (C). Montrer que A n’est
1 2i
pas diagonalisable.

Soit f une forme bilinéaire symétrique définie sur un espace vectoriel réel E. Pour savoir si f définit
un produit scalaire, il suffit de vérifier si elle est définie positive. Pour cela, on utilise la méthode de
réduction de Gauss qu’on verra dans le chapitre suivant (voir Théorème 2.2.2). On peut aussi utiliser
le critère suivant :

Proposition 1.10.5 Soit f une forme bilinéaire symétrique définie sur un espace vectoriel réel E de
dimension n. Soit {e1 , . . . ,en } une base de E. On a f définit un produit scalaire si et seulement si la
matrice M( f )ei a toutes ses valeurs propres strictement positives.

Démonstration : Soit h,iei le produit scalaire associé à la base {ei }, et posons g : E −→ E l’endomorphisme
ayant M( f )ei comme matrice dans {ei }. On a donc
   
x1 y1
 ..   .. 
∀X =  .  ,Y =  .  ∈ Mn,1 (R),hx,g(y)iei = t XM(g)ei Y = t XM( f )ei Y = f (x,y),
xn yn

avec x = ∑ni=1 xi ei ,y = ∑ni=1 yi ei ∈ E.


Montrons que g est autoadjoint. En effet,

∀x,y ∈ E,hx,g(y)i = f (x,y) = f (y,x) = hy,g(x)i = hg(x),yi.

Ainsi, d’après le Théorème 1.10.2, on peut construire une base orthonormée {v1 , . . . ,vn } de vecteurs
propres de g ayant λ1 , . . . ,λn comme valeurs propres respectives. Soient x = ∑ni=1 xi vi ,y = ∑nj=1 y j v j ∈
E. On a

n n
f (x,y) = ∑ xi y j f (vi ,v j ) = ∑ xi y j hvi ,g(v j )iei =
i, j=1 i, j=1
n
= ∑ xi y j λ j hvi ,v j iei = λ1 x1 y1 + · · · + λn xn yn .
i, j=1

Ainsi
f (x,x) = λ1 x12 + · · · + λn xn2 .
Par conséquent, d’après le Théorème 1.10.2, f est définie positive si et seulement si toutes les valeurs
propres λi de g, donc de M( f )ei , sont strictement positives.

24
Chapitre 2

Formes bilinéaires et formes quadratiques

2.1 Rang et noyau d’une forme bilinéaire


Définition 2.1.1 Soit E un espace vectoriel de dimension finie défini sur un corps K et f une forme
bilinéaire sur E. On appelle rang de f le rang de la matrice M( f )ei de f dans une base quelconque
{ei } de E :
rg( f ) = rg M( f )ei .
La forme f est dite non dégénérée si rg( f ) =dim(E). On a

f est non dégénérée ⇐⇒ dét M( f )ei 6= 0.


0
Soit {ei } une autre base de E. L’équation (1.4) donne

M( f )e0 = t P M( f )ei P,
i

0
où P est la matrice de passage de {ei } vers {ei }. P est inversible, donc dét P 6= 0. Ainsi

dét M( f )e0 = (dét P)2 dét M( f )ei ,


i

ce qui implique
dét M( f )e0 6= 0 ⇐⇒ dét M( f )ei 6= 0.
i

Donc le fait que f soit non dégénérée ne dépend pas de la base choisie, ce qui justifie la définition
adoptée.

Exercice 2.1.2 Montrer que rg( f ) = rg M( f )ei ne dépend pas de la base choisie {ei }.

Exemple : Tout produit scalaire est non dégénérée. En effet, si E est un espace vectoriel réel de
dimension n, h,i un produit scalaire sur E, et {e1 , . . . ,en } une base orthonormée de E. On a
 
1 ... 0
M(h,iei ) =  ... . . . ...  = In .
 
0 ... 1

Donc rg h,i = n.
Exemple : Soit f : R3 × R3 −→ R la forme bilinéaire définie par

f (x,y) = −3x1 y1 + 3x3 y3 − 3x1 y2 − 4x1 y3 + x2 y3 − 3x2 y1 − 4x3 y1 + x3 y2 .


Soit {e1 ,e2 ,e3 } la base canonique de R3 . On a
 
−3 −3 −4
M( f )ei = −3 0 1 .
−4 1 3

La forme f est dégénérée car dét M( f )ei = 0.


Fixons les hypothèses de la définition précédente. Posons

s : E −→ E ∗
y 7−→ s(y),
avec
s(y) : E −→ R
x 7−→ f (x,y).
Si f est un produit scalaire, la Proposition 1.5.3 implique que s est un isomorphisme.

Proposition 2.1.3 Soit {e1 , . . . ,en } une base de E, {v1 , . . . ,vn } une base de son dual E ∗ . On a

M(s)ei ,v j = M( f )ei .

Démonstration : Posons ∀i, j,s(e j ) = ∑ni=1 ai j vi . Ceci donne


 
a11 . . . a1 j . . . a1n
M(s)ei ,v j =  ... .. ..  .

. . 
an1 . . . an j . . . ann

On a
s(e j )(ek ) = (a1 j v1 + · · · + an j vn )(ek ) = ak j vk (ek ) = ak j .
D’autre part, par définition de s,
s(e j )(ek ) = f (ek ,e j ).
Ainsi f (ek ,e j ) = ak j , ce qui donne M(s)ei ,v j = M( f )ei .

D’après cette proposition, le rang de l’application bilinéaire f est égal au rang de l’application s, qui
est aussi égal à la dimension de Im(s). Ceci nous permet de formuler les définitions suivantes, valables
même quand la dimension de E n’est pas finie.

Définition 2.1.4 Soit E un espace vectoriel sur un corps K et f : E × E −→ K une forme bilinéaire.
1. On appelle rang de f le rang de l’application

s : E −→ E ∗
y 7−→ f (.,y).

2. On appelle noyau de f l’ensemble

N( f ) = {y ∈ E | ∀x ∈ E, f (x,y) = 0} = Ker s.

3. f est dite non dégénérée si s est injective, Ker s = N( f ) = {0}, c’est à dire

∀x ∈ E, f (x,y) = 0 =⇒ y = 0.
26
Quand E est de dimension finie. Le théorème du rang appliqué à l’application s donne

dim E = rg f + dim N( f ).

Exemple : Soit f : R3 × R3 −→ R la forme bilinéaire définie par

f (x,y) = −3x1 y1 + 3x3 y3 − 3x1 y2 − 4x1 y3 + x2 y3 − 3x2 y1 − 4x3 y1 + x3 y2 .

Soient {e1 ,e2 ,e3 } la base canonique de R3 et {v1 ,v2 ,v3 } une base de son dual (R3 )∗ . On a d’après la
Proposition 2.1.3,  
−3 −3 −4
M(s)ei ,v j = M( f )ei = −3 0 1 .
−4 1 3
On a N( f ) = Ker s, c’est l’ensemble de solutions du système
    
−3 −3 −4 z1 0
−3 0 1   z2 = 0 .
 
−4 1 3 z3 0

Après calcul, on trouve N( f ) = Ker s = {z3 ( 31 , − 53 ,1), z3 ∈ R}.

Définition 2.1.5 Soient E un espace vectoriel de dimension finie n sur un corps K et {e1 , . . . ,en } une
base de E. L’application q : E −→ K est dite forme quadratique sur E si
n n
∀x = ∑ xk ek ∈ E, q(x) = ∑ ai j xi x j ,
k=1 i, j=1

avec ai j ∈ K,∀i, j. q(x) est un polynôme homogène de degré 2 en fonction des xi .


0
Exercice 2.1.6 Soit E un espace vectoriel de dimension finie sur un corps K, {ei } et {ei } deux bases
de E. Montrer que si q : E −→ K est une forme quadratique par rapport à {ei }, alors c’est aussi
0
une forme quadratique par rapport à la base {ei }. Donc le fait que q soit une forme quadratique ne
dépend pas de la base choisie.

Il existe une correspondance bijective entre les formes quadratiques et les formes bilinéaires symétriques,
en effet :

Proposition 2.1.7 Soit E un espace vectoriel de dimension finie sur un corps K.


1. Soit f : E × E −→ K une forme bilinéaire symétrique. L’application q : E −→ K donnée par

∀x ∈ E, q(x) = f (x,x),

est une forme quadratique sur E.


2. Supposons maintenant que K est de caractéristique différente de 2. Soit q : E −→ K une forme
quadratique sur E, il existe une unique forme bilinéaire symétrique f : E × E −→ K telle que
∀x ∈ E, f (x,x) = q(x). f est donnée par la formule
1
f (x,y) = (q(x + y) − q(x) − q(y)),
2
et elle est dite forme polaire de q.
27
Démonstration :
Soit {e1 , . . . ,en } est une base de E.
1. Soit f : E × E −→ K une forme bilinéaire symétrique et soit l’application q : E −→ K définie par

∀x ∈ E, q(x) = f (x,x).

Vérifions que q est une forme quadratique sur E. Soient x = ∑ni=1 xi ei , y = ∑nj=1 y j e j ∈ E. L’équation (2.2)
donne
q(x) = f (x,x) = a11 x12 + a22 x22 + · · · + ann xn2 + · · · + 2 ai j xi x j + . . . ,
avec ai j ∈ K. Donc q est une forme quadratique.
2. Réciproquement, soit q : E −→ K une forme quadratique sur E. Donc ∀x = ∑ni=1 xi ei ∈ E, q(x) est
un polynôme homogène de degré 2 en fonction des xi , c’est à dire

q(x) = a11 x12 + · · · + ann xn2 + · · · + ai j xi x j + . . .

tel que ai j ∈ K. Pour construire la forme bilinéaire symétrique f à partir de q, appliquons à q


l’opération suivante, appelée opération de polarisation : On remplace les termes carrés aii xi2
par aii xi yi . On remplace les termes rectangles ai j xi x j par 21 ai j xi y j + 21 ai j x j yi . Ce qui donne ∀x =
∑ni=1 xi ei ,y = ∑nj=1 y j e j ∈ E,

1 1
f (x,y) = a11 x1 y1 + · · · + ann xn yn + · · · + ai j xi y j + ai j x j yi + . . .
2 2
Ainsi f est une forme bilinéaire symétrique telle que ∀x ∈ E,q(x) = f (x,x).
Pour x,y ∈ E, on a

q(x + y) = f (x + y,x + y)
= f (x,x) + f (x,y) + f (y,x) + f (y,y)
= q(x) + 2 f (x,y) + q(y).

Donc

1
f (x,y) = (q(x + y) − q(x) − q(y)). (2.1)
2
Ce qui assure l’unicité de la forme bilinéaire symétrique f

La Proposition 2.1.7 permet de donner une définition générale des formes quadratiques, valable même
pour les espaces vectoriels qui n’ont pas une dimension finie.

Définition 2.1.8 Soit E un espace vectoriel sur un corps K, pas nécessairement de dimension finie.
L’application q : E −→ K est dite forme quadratique sur E s’il existe une forme bilinéaire symétrique
f : E × E −→ K telle que ∀x ∈ E, q(x) = f (x,x). Quand la forme f existe, elle est donnée par

1
∀x,y ∈ E, f (x,y) = (q(x + y) − q(x) − q(y)),
2
f est appelée forme polaire de q.
28
Cette définition généralise la Définition 2.1.5.
Exemple : Soit R[x] l’ensemble des polynômes à coefficients sur R, c’est un espace vectoriel sur R
qui n’est pas de dimension finie. Vérifions que l’application

q : R[x] −→ R
7−→ 01 P(x)2 dx,
R
P

est une forme quadratique sur R[x]. Soit la forme f : R[x] × R[x] −→ R donnée par ∀P,Q ∈ R[x],

1
f (P,Q) = (q(P + Q) − q(P) − q(Q))
2
Z 1 Z 1 Z 1 
1 2 2 2
= (P(x) + Q(x)) dx − P(x) dx − Q(x) dx
2 0 0 0
Z 1
= P(x)Q(x) dx.
0

Puisque f est une forme bilinéaire symétrique, alors q est une forme quadratique.
Puisque les formes quadratiques sont en correspondance bijective avec les formes bilinéaires symétriques,
on peut transporter toutes les notions déjà vues pour les formes bilinéaires symétriques vers les formes
quadratiques, en effet :

Définition 2.1.9 Soit E un espace vectoriel, pas nécessairement de dimension finie.


1. On appelle rang, noyau, matrice d’une forme quadratique q, le rang, noyau et la matrice de la
forme polaire associée à q.
2. La forme quadratique q est dite non dégénérée si sa forme polaire f est non dégénérée, N( f ) =
{0}. C’est à dire
∀y ∈ E, f (x,y) = 0 =⇒ x = 0.

3. La forme quadratique q : E −→ R à valeurs réelles est dite définie positive si sa forme polaire f
est définie positive. C’est à dire

(∀y ∈ E,q(y) ≥ 0) et (q(x) = 0 ⇐⇒ x = 0) .

4. La forme quadratique q : E −→ R à valeurs réelles est dite définie si sa forme polaire f est définie.
C’est à dire
(q(x) = 0 ⇐⇒ x = 0) .

Définition 2.1.10 Soit E un espace vectoriel défini sur un corps K et q : E −→ K une forme quadratique.

1. Les vecteurs x ∈ E tels que q(x) = 0 sont dits isotropes.


2. L’ensemble
I(q) = {x ∈ E | q(x) = 0}
est appelé cône isotrope.
Notons que I(q) n’est pas un espace vectoriel, c’est plutôt un cône, c’est à dire si x ∈ I(q) alors
λ x ∈ I(q),∀λ ∈ K.
29
Exemple : Soit E = R2 et q : E −→ R la forme quadratique définie par ∀x1 ,x2 ∈ R,q(x1 ,x2 ) = x12 − x22 .
La forme polaire f : E × E −→ R de q est donnée par ∀(x1 ,x2 ),(y1 ,y2 ) ∈ R2 ,

1
f ((x1 ,x2 ),(y1 ,y2 )) = (q(x1 + y1 ,x2 + y2 ) − q(x1 ,x2 ) − q(y1 ,y2 ))
2
= (x1 + y1 )2 − (x2 + y2 )2 − (x12 − x22 ) − (y21 − y22 )
= 2(x1 y1 − x2 y2 ).

Puisque f ((1,1),(1,1)) = 0, alors f n’est pas définie. On a de plus

N( f ) = {(y1 ,y2 ) ∈ R2 | ∀(x1 ,x2 ) ∈ E, f ((x1 ,x2 ),(y1 ,y2 )) = 0}


= {(y1 ,y2 ) ∈ R2 | ∀(x1 ,x2 ) ∈ E,x1 y1 − x2 y2 = 0}
= {(0,0)}.

Ainsi f , et aussi q, sont non dégénérées. Finalement, le cône isotrope est donné par

I(q) = {(x1 ,x2 ) ∈ E | q(x1 ,x2 ) = x12 − x22 = 0}


= {(x1 ,x2 ) ∈ R2 | x1 = ±x2 }.

Exercice 2.1.11 Soit E un espace vectoriel sur un corps K et q : E −→ K une forme quadratique.
Montrer que
N(q) ⊂ I(q).

2.2 Réduction en carrées via la méthode de Gauss


Le but de cette section est de répondre à la question suivante.
Question : Soit E un espace vectoriel sur R de dimension finie et f : E ×E 7−→ R une forme bilinéaire.
Quand est ce que f est définie positive ?
Pour déterminer si f est définie positive, on va utiliser la méthode de réduction en carrées due à Gauss.
En utilisant l’équation (1.1), on a

f (x,x) = a11 x12 + a22 x22 + · · · + ann xn2 + · · · + 2 ai j xi x j + . . . . (2.2)


C’est un polynôme homogène de degré 2. Les termes en xi2 sont appelés termes carrés, et ceux en
xi x j ,i 6= j sont appelés termes rectangles.

Remarque 2.2.1 Si f est un produit scalaire, tous les aii sont strictement positifs, aii > 0. En effet,
supposons que aii ≤ 0, on a aii = f (ei ,ei ) ≤ 0, ce qui implique que ei = 0, car f est un produit scalaire.
Mais ei 6= 0, ce qui est absurde.

Répondons maintenant à la question principale de cette section et explicitons la méthode de Gauss


via deux exemples concrets :
Exemple 1 : Soit f : E × E −→ R, E = R3 , une forme bilinéaire symétrique telle que

f (x,x) = x12 + 2 x22 + 3 x32 + 2 x2 x3 − 2 x1 x2 .


30
On opère sur la variable x1 pour extraire une identité remarquable de degré 2

f (x,x) = x12 − 2 x1 x2 + x22 + x22 + 3 x32 + 2 x2 x3




= (x1 − x2 )2 + x22 + 2 x2 x3 + 3 x32 .


On opère ensuite sur la variable x2 pour extraire une identité remarquable de degré 2

f (x,x) = (x1 − x2 )2 + x22 + 2 x2 x3 + x32 + 2 x32


= (x1 − x2 )2 + (x2 + x3 )2 + 2 x32 .

On obtient donc une somme de carrés de formes linéaires. Cette expression est appelée réduction en
carrés de Gauss.
Il est évident via cette expression que f (x,x) ≥ 0 et donc f est positive. Supposons maintenant que
f (x,x) = 0, ce qui implique

x1 − x2 = 0,
x2 + x3 = 0,
x3 = 0.
Ainsi x1 = x2 = x3 = 0 et x = 0. Par conséquent, f est définie positive.
Exemple 2 : Soit E = R3 et {e1 ,e2 ,e3 } sa base canonique. Soit f : E × E −→ R une forme bilinéaire
symétrique telle que
f (x,x) = x12 + 5 x22 + 4 x1 x2 − 2 x2 x3 .
On fait comme dans l’exemple précédent. On commence par opérer sur la variable x1 pour extraire
une identité remarquable de degré 2

f (x,x) = x12 + 4 x1 x2 + 2 x22 + x22 − 2 x2 x3




= (x1 + 2 x2 )2 + x22 − 2 x2 x3 .
On opère ensuite sur la variable x2 pour extraire une identité remarquable de degré 2

f (x,x) = (x1 + 2 x2 )2 + x22 − 2 x2 x3 + x32 − x32


= (x1 + 2 x2 )2 + (x2 − x3 )2 − x32 .
Contrairement à l’exemple 1, on remarque dans cette expression qu’il y a un signe moins dans le
dernier carré. La forme f n’est donc pas définie positive, en effet, le système suivant

x1 + 2 x2 = 0,
x2 − x3 = x3 ,

admet des solutions non nulles, par exemple x3 = 1, x2 = 2 et x1 = −4. Ainsi f (x,x) = 0 pour x =
−4e1 + 2e2 + e3 et donc f n’est pas définie positive.
Exemple 3 : Soit E = R3 et {e1 ,e2 ,e3 } sa base canonique. Soit f : E × E −→ R une forme bilinéaire
symétrique telle que
f (x,x) = x12 + 4 x22 + x32 + 4 x1 x2 − 2 x1 x3 − 3 x2 x3 .
31
On opère sur la variable x1 pour extraire une identité remarquable de degré 2

f (x,x) = x12 + 2 (2 x2 − x3 )x1 + 4 x22 + x32 − 3 x2 x3




= x12 + 2 (2 x2 − x3 )x1 + (2 x2 − x3 )2 − (2 x2 − x3 )2 + 4 x22 + x32 − 3 x2 x3




= (x1 + 2 x2 − x3 )2 + x2 x3 .

Contrairement aux exemples précédents, on remarque qu’on n’a pas de termes carrés dans la partie

1
 On va donc procéder comme suit, on applique l’identité remarquable ab =
à droite de cette formule.
2 − (a − b)2 ,
4 (a + b)

f (x,x) = (x1 + 2 x2 − x3 )2 + x2 x3
1
= (x1 + 2 x2 − x3 )2 + (x2 + x3 )2 − (x2 − x3 )2 .

4
C’est la réduction en carrés de Gauss de f .
On généralise ces exemples dans le théorème suivant.

Théorème 2.2.2 Soit E un espace vectoriel de dimension n sur R et f une forme bilinéaire symétrique.
On peut écrire f (x,x) sous la forme suivante
r
f (x,x) = ∑ αi li (x)2 ,
i=1

tels que αi ∈ R ne sont pas tous nuls et l1 , . . . ,lr ,r ≤ n, sont des formes linéaires indépendantes. De
plus, f est définie positive si et seulement si r = n et αi > 0 pour tout i.

Démonstration : On reprends l’équation (2.2)

f (x,x) = a11 x12 + a22 x22 + · · · + ann xn2 + · · · + 2 ai j xi x j + . . . .

On applique la méthode de réduction en carrées de Gauss. On distingue deux cas :


1er cas. Supposons que l’un des termes carrés aii est non nul, aii 6= 0. Sans perte de généralité on pose
donc a11 6= 0. On commence par opérer sur x1 pour extraire une identité remarquable de degré 2,

f (x,x) = a11 x12 + a22 x22 + · · · + ann xn2 + · · · + 2 ai j xi x j + . . .


= a11 x12 + 2(a12 x2 + · · · + a1n xn )x1 + a22 x22 + . . .
   
2 a12 x2 + · · · + a1n xn
= a11 x1 + 2 x1 + a22 x22 + . . .
a11
2 !
(a12 x2 + · · · + a1n xn )2
  
a x
12 2 + · · · + a x
1n n a 12 2x + · · · + a x
1n n
= a11 x12 + 2 x1 + − +
a11 a11 a11
a22 x22 + . . .
a12 x2 + · · · + a1n xn 2 (a12 x2 + · · · + a1n xn )2
 
= a11 x1 + − + a22 x22 + . . .
a11 a11

On regroupe les termes selon chaque monôme, cette dernière expression devient
32
a12 x2 + · · · + a1n xn 2 (a12 x2 + · · · + a1n xn )2
 
f (x,x) = a11 x1 + − + a22 x22 + . . .
a11 a11
a12 x2 + · · · + a1n xn 2
 
= a11 x1 + + b22 x22 + b33 x32 + · · · + bnn xn2 + · · · + 2 bi j xi x j + . . .
a11
tels que bi j ∈ R. Supposons que l’un des termes carrés bii est non nul, par exemple b22 6= 0, on procède
alors comme avant selon la variable x2 et on continue ainsi progressivement pour obtenir à la fin

a12 x2 + · · · + a1n xn 2 b23 x3 + · · · + b2n xn 2


   
f (x,x) = a11 x1 + + b22 x2 + +...
a11 b22
On pose

a12 x2 + · · · + a1n xn
l1 (x1 , . . . ,xn ) = x1 + ,
a11
b23 x3 + · · · + b2n xn (2.3)
l2 (x1 , . . . ,xn ) = x2 + ,
b22
..
.
ce qui donne
f (x,x) = a11 l1 (x)2 + b22 l2 (x)2 + . . . ,
tels que l1 , . . . ,lr , r ≤ n, sont des formes linéaires clairement indépendantes. Ce qui répond à l’énoncé
du théorème.
2eme cas. Supposons qu’a une certaine étape du procédé du 1er cas on ne trouve pas de termes carrés,
tous les termes sont rectangles. On se réduit alors à une expression de la forme suivante

∑ ai j xix j ,
telle que aii = 0 pour tout i. Sans perte de généralité on suppose que a12 6= 0. On isole les variables x1
et x2 et on trouve
f (x,x) = a12 x1 x2 + x1 S1 + x2 S2 ,
tels que S1 et S2 sont des expressions linéaires en fonction des variables x3 , x4 , . . . , xn . On a

f (x,x) = a12 x1 x2 + x1 S1 + x2 S2
  
S2 S1 S1 S2
= a12 x1 + x2 + − .
a12 a12 a12
((a+b)2 −(a−b)2 )
L’identité remarquable ab = 4 donne

  
S2 S1 S1 S2
f (x,x) = a12 x1 + x2 + −
a12 a12 a12
2   !
S2 − S1 2

a12 S1 + S2 S1 S2
= x1 + x2 + − x1 − x2 + − .
4 a12 a12 a12

S1 S2
On applique ensuite le procédé du 1er cas sur la formule a12 . Posons
33
S1 + S2
l1 (x1 , . . . ,xn ) = x1 + x2 + ,
a12
S2 − S1
l2 (x1 , . . . ,xn ) = x1 − x2 + ,
a12
..
.
ce qui donne
a12 a12
f (x,x) = l1 (x)2 − l2 (x)2 + . . .
4 4
Les formes linéaires l1 et l2 seront clairement indépendantes avec les autres, en effet, dans le cas
contraire cela reviendrait à écrire x1 en fonction des autres variables x2 , x3 , . . . , xn , ce qui est absurde.
Ceci répond à l’énoncé du théorème.
Montrons maintenant la seconde partie du théorème. Supposons que durant la méthode en carrés de
Gauss décrite au dessus, on trouve des termes carrés dans chaque étape avec des coefficients positifs,
on n’applique donc que l’opération du 1er cas. sans passer par le second cas et on obtiendra à la fin
r
f (x,x) = ∑ αi li (x)2 ,
i=1

tels que αi > 0, et l1 , . . . ,lr , r ≤ n, sont des formes linéaires indépendantes de la forme (2.3). Si r = n
et f (x,x) = 0, alors

a12 x2 + · · · + a1n xn
x1 + = 0,
a11
b23 x3 + · · · + b2n xn
x2 + = 0,
b22
..
.
xn =0.
Donc x1 = · · · = xn = 0 et f est définie positive. Si r < n et f (x,x) = 0, alors il existera moins
d’équations que de variables et on aura une infinité de solutions, donc f n’est pas définie positive.
Supposons maintenant que via la méthode en carrés de Gauss on trouve un coefficient négatif,
r
f (x,x) = ∑ αi li (x)2 ,
i=1

tel que α1 > 0 et α2 < 0. Considérons dans ce cas le système d’équations

r
−α2
l1 (x) = l2 (x),
α1
l3 (x) = 0,
..
.
lr (x) = 0.
C’est un système homogène qui comporte moins d’équations que d’inconnues, donc il existe x =
(x1 , . . . ,xn ) 6= 0 tel que f (x,x) = 0. Ce qui achève la preuve du théorème.


34
2.3 Bases orthogonales et réduction des formes quadratiques
Nous étudions dans cette section le problème de la réduction des formes quadratiques, nous allons
voir que ce problème pourrait être réduit à chercher des bases orthogonales dans les espaces vectoriels
munis de formes bilinéaires symétriques.

Définition 2.3.1 Soit E un espace vectoriel défini sur un corps K et f : E × E −→ K une forme
bilinéaire symétrique. Une base {ei } de E est dite orthogonale pour la forme f si ∀i, j,i 6= j, f (ei ,e j ) =
0. Une base orthogonale {ei } est dite orthonormée si de plus elle réalise ∀i, f (ei ,ei ) = 0.

Notons que cette définition généralise la Définition 1.2.1 pour les bases orthogonales et orthonormées
pour les produits scalaires aux formes bilinéaires symétriques.
Exemple : Soient E un espace vectoriel de dimension finie n sur un corps K, q : E −→ K une forme
quadratique et f : E × E −→ K la forme polaire associée. Soit {e1 , . . . ,en } une base orthogonale de E
pour la forme f . Posons ∀i, aii = f (ei ,ei ) ∈ K. On a
 
a11 · · · 0
M(q)ei = M( f )ei =  ... . . . ...  .
 
0 · · · ann

Ce qui est équivalent à ∀x = ∑ni=1 xi ei ∈ E,

q(x) = f (x,x) = a11 x12 + · · · + ann xn2 .

Notons que le nombre de carrés dans cette expression est égale au rang de la forme quadratique q.
De la même manière, si {e1 , . . . ,en } est une base orthonormée de E pour la forme f , alors
 
1 ··· 0
M(q)ei = M( f )ei = In =  ... . . . ...  .
 
0 ··· 1

Ce qui est équivalent à ∀x = ∑ni=1 xi ei ∈ E,

q(x) = f (x,x) = x12 + · · · + xn2 .

D’après cet exemple, chercher une base orthogonale revient à déterminer une base dans laquelle la
matrice de q est diagonale, ce qui est équivalent à écrire q sous la forme de somme en termes carrés.
On peut ainsi formuler les questions suivantes :
Question : Soit E un espace vectoriel de dimension finie muni d’une forme quadratique q :
1. Est ce qu’il existe une base orthogonale de E pour la forme q ?
2. Est ce que le Théorème 1.2.3 se généralise et s’applique sur E ? Plus précisément, est ce qu’il
existe une base orthonormée de E pour la forme q ?
Le théorème suivant répond à la première question.

Théorème 2.3.2 Soit E un espace vectoriel de dimension finie sur un corps K, E 6= 0, et q : E −→ K


une forme quadratique.
Il existe toujours une base orthogonale de E pour la forme q. Plus précisément, il existe une base {ei }
de E telle que ∀x = ∑ni=1 xi ei ∈ E,

q(x) = a1 x12 + · · · + ar xr2 ,


35
avec ai ∈ K et r = rg q. En d’autres termes,
 
a1 0
..

 . 

ar
 
M(q)ei =  .
 
 0 

 . .. 

0 0
Démonstration : La démonstration est presque identique à celle du Théorème 1.2.3. On raisonne par
récurrence sur la dimension n de E.
Si n = 1, le résultat est évident. Supposons le théorème vrai pour l’ordre n − 1. Soit E un espace
vectoriel de dimension n défini sur un corps K et muni d’une forme quadratique q : E −→ K et sa
forme polaire associée f : E × E −→ K.
Si q = 0, toutes les bases sont orthogonales et le théorème est trivial. Supposons maintenant que q 6= 0.
Soit v ∈ E tel que q(v) 6= 0, et soit l’ensemble des vecteurs de E qui lui sont orthogonaux
G = {x ∈ E | f (x,v) = 0}.
L’ensemble G est clairement un sous espace vectoriel et v ∈
/ G, car q(v) 6= 0. Soit l’application linéaire
f : E −→ K
x 7−→ f (x,v).
Le théorème du Rang donne dim E− dim(ker f )=1, donc dim (G) =dim(ker f )= n − 1. D’après
l’hypothèse de récurrence, il existe une base orthogonale {t1 , . . . ,tn−1 } de G. Vérifions que {v,t1 , . . . ,tn−1 }
est une base orthogonale de E. En effet,
∀i, f (v,ti ) = 0,
donc les éléments de la famille {v,t1 , . . . ,tn−1 } sont deux à deux orthogonaux. Il reste à montrer que
{v,t1 , . . . ,tn−1 } est une base. Puisqu’elle est constituée de n éléments, il suffit de vérifier qu’elle est
libre. En effet, soient λ1 , . . . ,λn ∈ K tels que λ1t1 + · · · + λn−1tn−1 + λn v = 0. On a donc
f (λ1t1 + · · · + λn−1tn−1 + λn v,v) = f (0,v) = 0,
et d’autre part
f (λ1t1 + · · · + λn−1tn−1 + λn v,v) = λ1 f (t1 ,v) + · · · + λn−1 f (tn−1 ,v) + λn f (v,v) = λn f (v,v).
Par conséquent, λn f (v,v) = 0, et donc λn = 0 car q(v) = f (v,v) 6= 0. Puisque λn = 0 , alors λ1t1 +
· · · + λn−1tn−1 = 0, et ainsi λ1 = · · · = λn−1 = 0 car {t1 , . . . ,tn−1 } est une base de G. On a finalement
λ1 = · · · = λn−1 = λn = 0, ce qui achève la démonstration du théorème.


2.4 Classification des formes quadratiques sur un espace vectoriel


réel
Théorème 2.4.1 (Théorème de Sylvester)
Soit E un espace vectoriel de dimension n sur R et q : E −→ R une forme quadratique. Il existe
toujours une base {ei } de E telle que ∀x = ∑ni=1 xi ei ∈ E,
q(x) = x12 + · · · + x2p − x2p+1 − · · · − xr2 ,
36
avec r = rg(q) et p est un entier qui ne dépend que de la forme quadratique q et non pas de la base
choisie. Le couple (p,r − p), noté sign(q), est appelé signature de q.

Démonstration : Soit {ei } une base orthogonale de E. Soit x = ∑ni=1 yi ei ∈ E. On a

q(x) = a1 y21 + · · · + ar y2r , ai ∈ R.

Supposons que pour un certain entier naturel p ≤ r, on a a1 , . . . ,a p > 0 et a p+1 , . . . ,ar < 0. Ainsi,
posons
√ √ p √
x1 = a1 y1 , . . . ,x p = a p y p ,x p+1 = − −a p+1 y p+1 , . . . ,xr = − −ar yr .
ce qui donne

√ √ 2 2 √ 2
q(x) = ( a1 y1 )2 + · · · + a p y p −
p
−a p+1 y p+1 − · · · − −ar yr
= x12 + · · · + x2p − x2p+1 − · · · − xr2 .

0
Vérifions que l’entier p ne dépend pas du choix de la base. Soient {ei } et {ei } deux bases de E telles
que

q(x) = x12 + · · · + x2p − x2p+1 − · · · − xr2 ,


q(x) = y21 + · · · + y2p0 − y2p0 +1 − · · · − y2r ,

0
avec x = ∑ni=1 xi ei et x = ∑ni=1 yi ei . Posons

0 0 0
F = Vect{e1 , . . . ,e p }, F = Vect{e1 , . . . ,e p0 },
0 0 0
G = Vect{e p+1 , . . . ,en }, G = Vect{e p0 +1 , . . . ,en },

0
Montrons que F ∩ G = {0}. On a

0
x ∈ F\{0} =⇒ q(x) > 0, x ∈ F \{0} =⇒ q(x) > 0,
0
x ∈ G =⇒ q(x) ≤ 0, x ∈ G =⇒ q(x) ≤ 0.

0 0
Donc x ∈ F ∩ G implique x = 0, et par conséquent, F ∩ G = {0}. Ainsi
0
dim F + dim G = dim (F + G) = p + (n − p ) ≤ n = dim E,
0 0 0
et donc p ≤ p . De la même manière, on montre que G ∩ F = {0}, et on en déduit que p ≤ p.


37
Corollaire 2.4.2 Soit q une forme quadratique sur un espace vectoriel réel E. On a les équivalences
suivantes,

q est défini positive ⇐⇒ sign(q) = (n,0),


q est non dégénérée ⇐⇒ sign(q) = (p,n − p).

Exemple : Soit la forme quadratique q : R3 7−→ R donnée dans la base canonique {e1 ,e2 ,e3 } par
∀x = ∑3i=1 xi ei ∈ R3 ,
q(x) = x12 + 2 x32 + 2 x1 x2 + 2 x1 x3 + 2 x2 x3 .
La réduction de Gauss donne
q(x) = (x1 + x2 + x3 )2 − x22 + x32 ,
ce qui donne sign(q) = (2,1).

2.5 Recherche d’une base orthogonale


Soit E un espace vectoriel de dimension finie n sur un corps K, {e1 , . . . ,en } une base de E, et q : E −→
K une forme quadratique donnée par ∀x = ∑ni=1 xi ei ∈ E,

q(x) = a11 x12 + a22 x22 + · · · + ann xn2 + · · · + ai j xi x j + . . . , (2.4)


avec ai j ∈ K.
Soit f : E × E −→ K la forme polaire de q. Pour trouver une base orthogonale de E, on peut partir de
la base {e1 , . . . ,en } et lui appliquer le procédé de Gram-Schmidt. Dans la première étape du procédé
de Gram-Schmidt, on va devoir diviser par q(e1 ) = f (e1 ,e1 ) qui peut être nul, puisque f n’est pas
toujours définie positive. Ainsi, ce procédé qui fonctionne bien dans le cas du produit scalaire, ne
marche pas toujours pour les formes bilinéaires symétriques. Pour cela, on va voir une autre méthode
pour déterminer une base orthogonale de E.
Supposons que la réduction en carrés de Gauss (Théorème 2.2.2) appliquée à l’équation (2.4) donne
∀x ∈ E,

q(x) = f (x,x) = α1 l1 (x)2 + · · · + αr lr (x)2 , (2.5)


avec αi ∈ K ne sont pas tous nuls et l1 , · · · ,lr sont des formes linéaires indépendantes, r = rg(q).
{l1 , . . . ,lr } est une famille libre de l’espace dual E ∗ , complétons la en une base {l1 , . . . ,lr ,lr+1 , . . . ,ln }
de E ∗ . Posons ∀x = ∑ni=1 xi ei ∈ E,

l1 (x) = β11 x1 + · · · + β1n xn ,


..
.
ln (x) = βn1 x1 + · · · + βnn xn ,

tels que ∀i, j,βi j ∈ K, et soit la matrice de taille n × n


 
β11 · · · β1n
P =  ... ..  .

. 
βn1 · · · βnn
38
On a    
l1 (x) x1
 ..   .. 
 .  = P× . .
ln (x) xn
Proposition 2.5.1 On a dét P 6= 0.
Démonstration : Puisque l1 , · · · ,ln sont des formes indépendantes, alors pour γ1 , · · · ,γn ∈ K, on a
!
n
∀x ∈ E, ∑ γi li (x) = 0 =⇒ γ1 = · · · = γn = 0.
i=1

Ce qui donne !
n
∀x ∈ E, ∑ γi (βi1 x1 + · · · + βin xn ) = 0 =⇒ γ1 = · · · = γn = 0.
i=1
C’est équivalent à
!
n
∀x ∈ E, ∑ xi (γ1 β1i + · · · + γn βni ) = 0 =⇒ γ1 = · · · = γn = 0.
i=1

En particulier, ceci nous donne


(∀i,γ1 β1i + · · · + γn βni = 0) =⇒ γ1 = · · · = γn = 0.
C’est équivalent à
      
γ1 β11 · · · βn1 γ1 0
t  ..   .. . .
..   ..  =  ... 
P .  =  .  =⇒ γ1 = · · · = γn = 0.
   
γn β1n · · · βnn γn 0
Ainsi dét P = dét t P 6= 0.

Puisque dét P 6= 0, P est inversible. Soient v1 , · · · ,vn les vecteurs colonnes de la matrice inverse P−1
tels que {vi } soit une base de E et P−1 = P{ei }−→{vi } la matrice de passage de {ei } vers {vi }. On
déduit que P = P{vi }−→{ei } . Ainsi

e1 = β11 v1 + · · · + βn1 vn ,
..
.
en = β1n v1 + · · · + βnn vn .
Proposition 2.5.2 On a ∀i, li (vi ) = 1 et li (v j ) = 0 pour j 6= i.
Démonstration :
En effet, on a ∀x = ∑ni=1 xi ei ∈ E,

x = x1 (β11 v1 + · · · + βn1 vn ) + · · · + xn (β1n v1 + · · · + βnn vn )


= (β11 x1 + · · · + β1n xn )v1 + · · · + (βn1 x1 + · · · + βnn xn )vn
= l1 (x)v1 + · · · + ln (x)vn .
Ainsi ∀i,
vi = l1 (vi )v1 + · · · + ln (vi )vn .
Ce qui donne, puisque {v1 , . . . ,vn } est une base, li (vi ) = 1 et l j (vi ) = 0,∀ j 6= i.
39


Vérifions maintenant que {vi } est orthogonale. L’équation (2.5) donne ∀x = ∑ni=1 xi vi ∈ E,

q(x) = α1 l1 (x)2 + · · · + αr lr (x)2


!2 !2
n n
= α1 l 1 ∑ xivi + · · · + αr lr ∑ xivi
i=1 i=1
= α1 x12 + · · · + αr xr2 ,

et donc  
α1 · · · 0
M(q)vi =  ... . . . ...  .
 
0 · · · αn
Ainsi {vi } est une base orthogonale. Récapitulons ce qu’il faut faire pour trouver une base orthogonale
de la forme quadratique q :
1. On commence par utiliser la réduction en carrées de Gauss appliquée à la forme quadratique q.
2. On complète la famille libre {l1 , . . . ,lr } en une base {l1 , . . . ,ln } de E ∗ .
3. On extrait la matrice P.
4. Les vecteurs colonnes {v1 , . . . ,vn } de la matrice P−1 forment la base orthogonale recherchée.

Exemple : Soit {e1 ,e2 ,e3 } la base canonique de R3 et q : R3 −→ R la forme quadratique donnée par
∀x = ∑3i=1 xi ei ∈ R3 ,
q(x) = 5x12 + x22 + 2x32 + 2x1 x2 + 6x1 x3 + 2x2 x3 .
En appliquant la méthode de réduction en carrées de Gauss, on trouve que

q(x) = (x1 + x2 + x3 )2 + (2x1 + x3 )2 .

Soient les formes linéaires l1 ,l2 : R3 −→ R données par

l1 (x) = x1 + x2 + x3 ,
l2 (x) = 2x1 + x3 .
∗
{l1 ,l2 } est une famille libre de R3 , complétons la en une base {l1 ,l2 ,l3 } telle que

l3 (x) = x2 .

Par conséquent, la matrice P est donnée par


 
1 1 1
P = 2 0 1 ,
0 1 0

et sa matrice inverse P−1 est donnée par


 
−1 1 1
P−1 =  0 0 1 .
2 −1 −2
40
La base orthogonale {v1 ,v2 ,v3 } de R3 pour q est donnée par

v1 = −e1 + 2e3 ,
v2 = e1 − e3 ,
v3 = e1 + e2 − 2e3 .

2.6 Sous espaces orthogonaux


On dit que deux vecteurs x,y ∈ E sont orthogonaux pour la forme bilinéaire f , si f (x,y) = 0. On note
x ⊥ f y. Cela généralise la définition des vecteurs orthogonaux pour les espaces Euclidiens.

Définition 2.6.1 Soit E un espace vectoriel défini sur un corps K, A un sous-ensemble de E, et f :


E × E −→ K une forme bilinéaire. L’ensemble

A⊥ = {x ∈ E | ∀a ∈ E, f (x,a) = 0}

est appelé orthogonal de A pour la forme bilinéaire f .

Proposition 2.6.2 Soit E un espace vectoriel défini sur un corps K, A un sous-ensemble de E, q :


E −→ K une forme quadratique et f sa forme polaire.
1. A⊥ est un sous-espace vectoriel de E.
2. {0}⊥ = E, E ⊥ = N(q).
3. N(q) ⊂ A⊥ .

Démonstration : Les démonstrations sont évidentes.

Définition 2.6.3 Soit E un espace vectoriel sur un corps K et F un sous-espace vectoriel de E.


L’ensemble F 0 des formes linéaires qui s’annulent sur les vecteurs de F,

F 0 = {ϕ ∈ E ∗ | ∀x ∈ F,ϕ(x) = 0},

est un sous-espace vectoriel de l’espace dual E ∗ . Il est appelé annulateur de F.

Lemme 2.6.4 Soit E un espace vectoriel de dimension finie et F un sous-espace vectoriel de E. On a

dim E = dim F + dim F 0 .

Démonstration : Supposons que dim E = n et soit {e1 , . . . ,e p } une base de F. Complétons la en une
base B = {e1 , . . . ,e p ,e p+1 , . . . ,en } de E. Soit {e∗1 , . . . ,e∗n } la base duale de B dans E ∗ . Montrons que
{e∗p+1 , . . . ,e∗n } est une base de F 0 , ce qui donnera le résultat voulu dim F 0 = n − p = dim E− dim F.
Soit k = p + 1, . . . ,n. On a e∗k (e1 ) = 0, . . . ,e∗k (e p ) = 0, donc e∗k annule tous les vecteurs de F. Ainsi e∗k ∈
F 0 . On déduit que e∗p+1 , . . . ,e∗n ∈ F 0 . De plus, la famille {e∗p+1 , . . . ,e∗n } est clairement libre, puisqu’elle
est extraite d’une base. Il reste à démontrer qu’elle engendre F 0 .
Soit ϕ ∈ F 0 . Montrons que ϕ s’écrit comme combinaison linéaire en fonction des e∗p+1 , . . . ,e∗n . Soit
x ∈ E tel que
x = x1 e1 + · · · + x p e p + x p+1 e p+1 + · · · + xn en ,
41
avec xi ∈ K. Comme e1 , . . . ,e p ∈ F et ϕ ∈ F 0 , alors

ϕ(x) = x p+1 ϕ(e p+1 ) + · · · + xn ϕ(en ).

Posons λ p+1 = ϕ(e p+1 ), . . . ,λn = ϕ(en ). On trouve que

ϕ(x) = λ p+1 x p+1 + · · · + λn xn


= λ p+1 e∗p+1 (x) + · · · + λn e∗n (x).

Puisque cela est vrai pour tout x ∈ E, alors

ϕ = λ p+1 e∗p+1 + · · · + λn e∗n .

Proposition 2.6.5 Soient E un espace vectoriel défini sur un corps K, F un sous-espace vectoriel de
E, q : E −→ K une forme quadratique et f sa forme polaire. Posons N = N(q). On a :
1. dim E = dim F+ dim F ⊥ − dim F ∩ N.
2. F ⊥⊥ = F + N.

Démonstration :
1. Soit l’application
s : E −→ E ∗
y 7−→ f (.,y),
telle que f (.,y) est définie par
f (.,y) : E −→ K
x 7−→ f (x,y).
Appliquons le Lemme 2.6.4 au sous-espace vectoriel s(F) de l’espace dual E ∗ , ce qui donne

dim (s(F))0 + dim s(F) = dim E ∗ = dim E. (2.6)


D’autre part, on a

(s(F))0 = {x ∈ E ∗∗ ' E | ∀ϕ ∈ s(F),ϕ(x) = 0}


= {x ∈ E | ∀y ∈ F, f (x,y) = 0}
= F ⊥.

Remplaçons cela dans l’équation (2.6), on trouve

dim F ⊥ + dim s(F) = dim E.

Ainsi, le théorème du rang donne

dim F = dim Im(s|F ) + dim Ker(s|F )


= dim Im(s|F ) + dim (Ker(s) ∩ F)
= dim s(F) + dim (F ∩ N)
= dim E − dim F ⊥ + dim (F ∩ N).
42
2. On a F ⊂ F ⊥⊥ . D’autre part, N = E ⊥ ⊂ F ⊥⊥ , ce qui donne

F + N ⊂ F ⊥⊥ .

D’après 1), on a

dim E = dim F + dim F ⊥ − dim F ∩ N. (2.7)

Appliquons encore une fois 1) à F ⊥ , on trouve

dim E = dim F ⊥ + dim F ⊥⊥ − dim F ⊥ ∩ N. (2.8)

On soustrait l’équation (2.7) de l’équation (2.8), on a

dim F − dim F ⊥⊥ + dim F ⊥ ∩ N − dim F ∩ N.

Comme N = E ⊥ ⊂ F ⊥ , alors N ∩ F ⊥ = N, ce qui donne

dim F ⊥⊥ =dim F + dim N − dim F ∩ N


= dim (F + N).

Ajoutons cela à F + N ⊂ F ⊥⊥ , ceci donne F + N = F ⊥⊥ .

Définition 2.6.6 Soient E un espace vectoriel défini sur un corps K, q : E −→ K une forme quadratique
et f sa forme polaire. Un sous-espace vectoriel F de E est dit isotrope si

F ∩ F ⊥ 6= {0}.

Proposition 2.6.7 Soient E un espace vectoriel défini sur un corps K, q : E −→ K une forme quadratique
et f sa forme polaire. On a

E = F ⊕ F ⊥ ⇐⇒ F est non isotrope (F ∩ F ⊥ = {0}).

Démonstration : Il suffit de montrer l’implication ⇐=). Supposons que F ∩ F ⊥ = {0}. Puisque N =


E ⊥ ⊂ F ⊥ , alors N ∩ F = {0}. Donc la Proposition 2.6.5 donne

dim E = dim F + dim F ⊥ .

Ainsi E = F ⊕ F ⊥ .


43
2.7 Endomorphisme adjoint
Nous allons voir dans cette section que la notion de l’endomorphisme adjoint qu’on a vu pour
les espaces Euclidiens, se généralise aux espaces vectoriels de dimension finie munis d’une forme
quadratique non dégénérée.

Proposition 2.7.1 Soient E un espace vectoriel de dimension finie sur un corps K, q : E −→ K une
forme quadratique non dégénérée, s sa forme polaire, et f ∈ End(E) un endomorphisme. Il existe
alors un unique endomorphisme f ∗ ∈ End(E) tel que

∀x,y ∈ E, s( f (x),y) = s(x, f ∗ (y)).

L’endomorphisme f ∗ est appelé adjoint de f relativement à s

Démonstration : Soit {ei } une base de E, S = M(s)ei . Puisque s est non dégénérée, alors S est
inversible. Soit donc f ∗ ∈ End(E) l’endomorphisme ayant pour matrice

M( f ∗ )ei = S−1 t M( f )ei S. (2.9)


   
x1 y1
 ..   .. 
On a ∀ x = ∑i=1 xi ei ,y = ∑i=1 yi ei ∈ E avec X =  .  ,Y =  .  ∈ Mn,1 (R),
n n

xn yn

s( f (x),y) = t (M( f )ei X) SY


= t X t M( f )ei SY
= t X S M( f ∗ )ei Y
= s(x, f ∗ (y)).

On a finalement que tout endomorphisme satisfaisant cette équation, sa matrice est de la forme
suivante S−1 t M( f )ei S, ce qui prouve l’unicité.

Exemple : Soit E = R2 , {e1 ,e2 } sa base canonique, et q une forme quadratique donnée par ∀x =
x1 e1 + x2 e2 ∈ R2 ,
q(x) = x12 − 2x22 .
Sa forme polaire s est donnée donc par ∀x = x1 e1 + x2 e2 ,y = y1 e1 + y2 e2 ∈ R2 ,

1
s(x,y) = (q(x + y) − q(x) − q(y))
2
= x1 y1 − 2x2 y2 .

On a  
1 0
S = M(s)ei = .
0 −2
Soit f : E −→ E un endomorphisme donné par
 
a b
M( f )ei = .
c d
44
Son endomorphisme adjoint f ∗ , d’après l’équation (2.9), est donné par

M( f ∗ )ei = S−1 t M( f )ei S


   
1 0 a c 1 0
=
0 − 12 b d 0 −2
 
a −2c
= .
− b2 d

Proposition 2.7.2 Gardons les hypothèses de la proposition précédente et soient f ,g deux endomorphismes
de E. Soit aussi le scalaire λ ∈ K. On a f ∗∗ = f , (id)∗ = id, ( f + g)∗ = f ∗ + g∗ , (λ f )∗ = λ f ∗ ,
( f ◦ g)∗ = g∗ ◦ f ∗ , rg f ∗ = rg f , dét f ∗ = dét f .

Démonstration : Ces résultats se démontrent tous en utilisant la formule (2.9). Prouvons par exemple
f ∗∗ = f . On a
M( f ∗ )ei = S−1 t M( f )ei S.
D’autre part
M( f ∗∗ )ei = S−1 t M( f ∗ )ei S.
On remplace la première équation dans la seconde, on trouve

M( f ∗∗ )ei = S−1 t M( f ∗ )ei S


= S−1 t S−1 t M( f )ei S S


= S−1 t S t t M( f )ei t S−1 S




= S−1 t S M( f )ei t S−1 S.

Puisque la forme s est symétrique, alors S est une matrice symétrique, t S = S, la dernière équation
devient

M( f ∗∗ )ei = S−1 t S M( f )ei t S−1 S


= S−1 S M( f )ei S−1 S
= M( f )ei .

Ce qui donne f ∗∗ = f .

2.8 Groupe orthogonal d’une forme quadratique


Dans cette partie, nous allons étudier les endomorphismes f de E qui conservent une forme quadratique
q, ∀x ∈ E, q( f (x)) = q(x). Ceci généralise le concept du groupe orthogonal déjà vu pour les endomorphismes
qui conservent la norme des vecteurs.

Proposition 2.8.1 Soit (E,q) un espace vectoriel de dimension finie muni d’une forme quadratique
non dégénérée q, s la forme polaire de q. Soit aussi un endomorphisme f ∈ End(E). Les propriétés
suivantes sont équivalentes :
1. ∀x ∈ E, q( f (x)) = q(x).
45
2. ∀x,y ∈ E, s ( f (x), f (y)) = s(x,y).
3. f ∗ ◦ f = Id, f ◦ f ∗ = Id.
L’endomorphisme f est dit orthogonal relativement à q.
Démonstration : 2) =⇒ 1), il suffit de faire x = y dans la formule de 2).
1) =⇒ 2), on a

1
s ( f (x), f (y)) = (q( f (x) + f (y)) − q( f (x)) − q( f (y)))
2
1
= (q( f (x + y)) − q( f (x)) − q( f (y))) .
2
Puisque f conserve la forme quadratique q d’après 1), alors
1
(q(x + y) − q(x) − q(y)) = s(x,y).
s ( f (x), f (y)) =
2
Montrons que 2) ⇔ 3). Soit {ei } une base de E, S = M(s)ei . L’équation de 2)
∀x,y ∈ E,s ( f (x), f (y)) = s(x,y)
est équivalente à
∀X,Y ∈ Mn,1 (R),t (M( f )ei X) S M( f )ei Y =t X SY.
Ceci est équivalent à
t
M( f )ei S M( f )ei = S.
Donc S−1 t M( f )ei S M( f )ei = Id. Ceci devient en utilisant l’équation (2.9), M( f ∗ )ei M( f )ei = Id. Ainsi
f ∗ ◦ f = Id. L’autre équation de 3) se démontre de la même façon.

La proposition suivante se vérifie facilement :
Proposition 2.8.2 Soient (E,q) un espace vectoriel de dimension finie muni d’une forme quadratique
non dégénérée q et s la forme polaire de q. Posons O(q) = { f ∈ End(E) | f ∗ ◦ f = Id}. On a :
1. Id ∈ O(q) ;
2. ∀ f ,g ∈ O(q), f ◦ g ∈ O(q) ;
3. ∀ f ∈ O(q), f −1 ∈ O(q).
L’ensemble O(q) est donc un groupe appelé groupe orthogonal de q.
Proposition 2.8.3 Fixons les hypothèses de la proposition précédente. Soit f ∈ O(q), alors dét f =
±1.
L’ensemble
SO(q) = { f ∈ O(q) | dét f = 1}
est un sous-groupe de O(q), appelé groupe spécial orthogonal de q.
Démonstration : Soit f ∈ O(q). On a f ∗ ◦ f = Id. L’équation (2.9) implique dét f ∗ = dét f . Ainsi

1 = dét f ∗ ◦ f = dét f ∗ × dét f = (dét f )2 .


Ce qui donne le résultat dét f = ±1.


46
Bibliographie

[1] S. Axler, Linear Algebra, Done Right, Springer-Verlag New York Inc, Seconde édition (1997).
[2] S. H. Friedberg, A. J. Insel, L. E. Spence, Linear Algebra, Prentice-Hall, Englewood Cliffs, New
Jersey 07632, Seconde édition (1989).
[3] J. Grifone, Algèbre Linéaire, Cépaduès-Editions, 4ème édition (2011).
[4] P. R. Halmos, Finite-Dimensional vector spaces, Springer-Verlag New York Inc (1987).

Vous aimerez peut-être aussi