Vous êtes sur la page 1sur 60

\documentclass[a4paper,12pt]{book}\usepackage{setspace}\usepackage{amsmath}

\usepackage{amstext}\usepackage{amsthm}\usepackage{mfpic}\usepackage{graphics}
\usepackage{rotating}\input{macro}\definecolor{yellowgreen}{rgb}{0.68,1,0.15}
\definecolor{violl}{rgb}{0.3,0,0.3}\definecolor{sarcc}{rgb}{0,0.82,0.82}
\begin{document}\frontmatter\pagestyle{empty}\begin{titlepage}\begin{picture}

\end{picture} \tableofcontents \mainmatter\pagestyle{myheadings} \chapter


{Géométrie affine} On note $E$, $F$ ou $G$, des espaces de vectoriels sur $\r
\ttt{dimension finie}.\\ Un
2M223 endomorphisme sur $E$ est
ssi il est injectif \ttt{ou} surjectif.\section{Espaces affines} \dfs $-$ Un e
$\mathcal{E}$ est un \ttt{ PRINTEMPS 2015 } par un espace vectoriel
Table des matières

1 Dimension 2 1

1.1 Eléments de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.1.1 Composantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.1.2 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.2 Longueur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.2.1 Distance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.3 Isométries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.3.1 Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.3.1.1 Rotations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.3.1.2 Symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.4 Orientation et angles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.4.1 Angles de rotations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.5 Endomorphisme adjoint . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1.5.1 Endomorphismes auto-adjoints . . . . . . . . . . . . . . . . . . . . . . . 13

1.5.1.1 Projecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

1.6 Formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

1.6.1 Ecritures matricielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

1.6.1.1 Changements de base . . . . . . . . . . . . . . . . . . . . . . . 18

1.6.2 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

1.6.3 Classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

1.6.3.1 Décompositions en carrés . . . . . . . . . . . . . . . . . . . . . 20

1.6.3.2 Algorithme de Gauss . . . . . . . . . . . . . . . . . . . . . . . . 21

1.6.4 Coniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

1.6.4.1 Equations réduites . . . . . . . . . . . . . . . . . . . . . . . . . 22

ii
1.6.4.2 Tangentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

1.7 Plans euclidiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

1.7.1 Bases orthonormées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

1.7.2 Isométries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

2 Dimension 3 27

2.1 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

2.1.1 Distance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2.2 Endomorphismes autoadjoints . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

2.3 Isométries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

2.3.1 Classification des isométries . . . . . . . . . . . . . . . . . . . . . . . . . 30

2.3.2 Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

2.4 Produit vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

2.5 Formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

2.5.1 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

2.5.2 Classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

2.5.2.1 Algorithme de Gauss . . . . . . . . . . . . . . . . . . . . . . . . 36

2.5.2.2 Critère de Sylvester . . . . . . . . . . . . . . . . . . . . . . . . 36

2.6 Espaces euclidiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

3 Dimension n 39

3.1 Dualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

3.1.1 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

3.2 Formes bilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

3.2.1 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

3.3 Espaces euclidiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

3.3.1 Endomorphismes autoadjoints . . . . . . . . . . . . . . . . . . . . . . . . 46

3.3.2 Isométries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

3.3.3 Orthogonalisation de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . 49

3.3.4 Calculs de distance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

3.4 Formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

3.4.1 Décomposition en carrés . . . . . . . . . . . . . . . . . . . . . . . . . . . 53


3.4.2 Algorithme de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.4.3 Critère de Sylvester . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
Chapitre 1

Dimension 2

1.1 Eléments de calcul

1.1.1 Composantes

Définition: Un espace vectoriel réel de dimension 2 est un plan vectoriel.



Parmi eux R2 = (x, y), x, y ∈ R occupe une place à part. En effet soit E un plan vectoriel
et B = (e1 , e2 ) une base de E. Tout vecteur u ∈ E s’exprime de façon unique sous la forme

u = x e1 + y e2 ,

x et y étant les composantes du vecteur u dans la base B.


On note φB : E −→ R2 l’application définie par

φB (u) = (x, y).

L’application φB est l’isomorphisme de E dans R2 tel que φB (e1 ) = (1, 0) et φB (e2 ) = (0, 1).

Définition: La base C = (1, 0), (0, 1) de R2 est sa base canonique notée (c1 , c2 ).
Les composantes d’un couple (x, y) dans C sont x et y.

1.1.2 Matrices

Une matrice M est un tableau rectangulaire de nombres. La taille de la matrice est (m, n) où
m est le nombre de lignes et n le nombre de colonnes. Les matrices permettent, entre autres,
de calculer les composantes de l’image d’un vecteur par une application linéaire.

Soit φ un endomorphisme de R2 et B = (e1 , e2 ) une base de R2 . Pour tout vecteur u = x e1 +y e2

1
2

on a, par linéarité, φ(u) = x φ(e1 ) + y φ(e2 ). Pour exprimer φ(u) dans la base (e1 , e2 ) il suffit de
connaître les composantes de φ(e1 ) et φ(e2 ) soit,

φ(e1 ) = a1,1 e1 + a2,1 e2 et φ(e2 ) = a1,2 e1 + a2,2 e2 .

On obtient : φ(u) = x φ(e1 ) + y φ(e2 ) = x(a1,1 e1 + a2,1 e2 ) + y(a1,2 e1 + a2,2 e2 )z

= (xa1,1 + ya1,2 ) e1 + (xa2,1 + ya2,2 ) e2 .

Ce produit s’écrit sous forme matricielle explicite


z
! ! !
a1,1 a1,2 x xa1,1 + ya1,2
=
a2,1 a2,2 y xa2,1 + ya2,2
!
x
y
ou, si on pose le calcul
! !
a1,1 a1,2 xa1,1 + ya1,2
a2,1 a2,2 xa2,1 + ya2,2

Une écriture condensée est X 0 = M X, où


! ! !
x a1,1 a1,2 xa1,1 + ya1,2
X= , M= et X0 = .
y a2,1 a2,2 xa2,1 + ya2,2

La matrice colonne X est le vecteur colonne des composantes de u dans la base B, M est la
matrice de φ dans la base B et X 0 est le vecteur colonne des composantes de φ(u) dans B.
La matrice M définit, par le biais du produit matriciel, une application linéaire sur R2 sans
référence à aucune autre base que la base canonique.

1.2 Longueur
p
Sur R2 la définition standard de la longueur d’un vecteur est L(x, y) = x2 + y 2 .

Définition: Une norme sur un e.v. réel E est une application k.k de E sur R+ telle que

– kuk = 0 ⇐⇒ u = 0,
– ∀ λ ∈ R, ∀ u ∈ E, kλuk = |λ|kuk,
– ∀ u, v ∈ E, ku + vk ≤ kuk + kvk.

Ce dernier axiome est l’inégalité triangulaire.


3
p
Proposition 1.1. L’application f : R2 −→ R+ , (x, y) −→ x2 + y 2 est une norme sur R2 .

Démonstration. Il suffit de vérifier l’inégalité triangulaire. Soit (x, y) et (x0 , y 0 ) ∈ R2 . On veut


f (x + x0 , y + y 0 ) ≤ f (x, y) + f (x0 , y 0 ) soit () 1

x02 + y 02 + x0 2 + y 0 2 .
p p
(x + x0 )2 + (y + y 0 )2 ≤ x2 + y 2 + 2 x2 + y 2
p p
Il suffit donc de montrer xx0 + yy 0 ≤ x2 + y 2 x02 + y 02 .
ou () x2 x0 2 + 2xx0 yy 0 + y 2 y 0 2 ≤ (x2 + y 2 )(x0 2 + y 0 2 )
soit 2xx0 yy 0 ≤ x2 y 0 2 + y 2 x0 2 ou (xy 0 − x0 y)2 ≥ 0.

p p
Remarque: L’inégalité xx0 + yy 0 ≤ x2 + y 2 x02 + y 02 est un cas particulier de l’inégalité de

x x0
Cauchy-Schwartz. La démonstration montre qu’il y a égalité ssi xy 0 − x0 y = = 0 i.e.

y y0
ssi (x, y) et (x0 , y 0 ) sont liés.
p
Définition et notation: L’application (x, y) −→ x2 + y 2 est la norme euclidienne stan-
p
dard sur R2 . Lorsqu’il n’y a pas d’ambiguité on écrit (x, y) pour x2 + y 2 .

Définition: Un vecteur u de R2 est unitaire si kuk = 1.


1
Pour tout vecteur v 6= 0, le vecteur u = v est l’unique vecteur unitaire colinéaire avec v et
kvk
tel que v · u > 0. Normaliser v consiste à remplacer v par u.

Définition: Deux vecteurs u, v de R2 sont orthogonaux si ku + vk2 = kuk2 + kvk2 .


On note alors u ⊥ v.
Définition: Le produit scalaire de deux vecteurs u = (x, y) et v = (x0 , y 0 ) de R2 est défini
par u · v = xx0 + yy 0 .
On note que pour tout vecteur u · u = kuk2 .
D’après le calcul précédent u ⊥ v ssi u · v = 0 et plus généralement

1
× ku + vk2 − kuk2 − kvk2 .

u·v =
2

Ceci est l’identité de polarisation.


Par définition le produit scalaire est symétrique i.e. ∀u, v ∈ R2 , u · v = v · u.

Une autre propriété du produit scalaire est la bilinéarité qui, par symétrie, s’écrit ainsi :

∀u ∈ R2 , v −→ u · v est une forme linéaire sur R2 .


1. i.e. par passage au carré.
4

Réciproquement toute forme linéaire φ sur R2 est de ce type. Si φ(c1 ) = a et φ(c2 ) = b, pour
tout vecteur u de R2 : u = (x, y) = x(1, 0) + y(0, 1), on a

φ(u) = xφ(1 ) + yφ(c2 ) = xa + yb = u · (a, b).



Ceci peut s’écrire sous forme matricielle. Soit L = a b la matrice de la forme linéaire φ et
!
x
X= . Alors u · (a, b) = φ(u) = LX. Comme (a, b) et (x, y) jouant des rôles symétriques
y
mieux vaut remplaçer (a, b) par u0 = (x0 , y 0 ). On a alors

u0 · u = X 0 T X = X T X 0 .

Comme conséquence de la bilinéarité on peut poser :


Définition: Pour un vecteur u de R2 l’orthogonal de u, noté u⊥ , est l’ensemble des vecteurs
orthogonaux à u soit u⊥ = {v ∈ R2 , v ⊥ u}.
Si u = 0 alors u⊥ = R2 . Sinon pour u = (x, y), u⊥ = Vect{(y, −x)} est une droite vectorielle.

Lemme 1.1. Deux vecteurs de R2 orthogonaux et non nuls sont libres.

Démonstration. Soit u = (x, y) 6= 0. Si u ⊥ v et v 6= 0 alors ∃ λ ∈ R∗ tel que v = λ(−y, x).



x −λy
D’où dét (u, v) = = λ(x2 + y 2 ) 6= 0. Donc u et v sont libres.

y λx

D’après le lemme, deux vecteurs de R2 orthogonaux et non nuls forment une base.
Définition: Une base {u, v} de R2 est orthonormée si u et v sont unitaires et orthogonaux.

La base canonique C = (1, 0), (0, 1) est la plus simple d’entre elles.

Soit {e1 , e2 } une base orthonormée de R2 et u = u1 e1 + u2 e2 . On a

e1 · u = e1 · (u1 e1 + u2 e2 ) = u1 e1 · e1 + u2 e1 · e2 = u1 × 1 + u2 × 0 = u1

De même u2 = u · u2 soit u = (e1 · u) e1 + (e2 · u) e2 .

D’autre part comme u1 e1 ⊥ u2 e2 on a

kuk2 = ku1 e1 k2 + ku2 e2 k2 = u21 + u22 .

Enfin si φ une application linéaire de matrice M = ((ai,j )) avec 1 ≤ i, j ≤ 2. Pour 1 ≤ j ≤ 2,


!
a1,j
le vecteur colonne de la matrice M est formé des composantes de φ(ej ) dans la base
a2,j
(e1 , e2 ). D’après la formule précédente
 
φ(ej ) = e1 · φ(ej ) e1 + e2 · φ(ej ) e2 = a1,j e1 + a2,j e2 .

Par identification ∀i, j ∈ {1, 2}, ai,j = ei · φ(ej ).


5

1.2.1 Distance

Définition: La distance entre deux vecteurs d(u, v) est définie par

d(u, v) = ku − vk.

Dans un espace métrique on définit la distance d(K, L) entre deux parties K et L en posant


d(K, L) = inf d(x, y), x ∈ K, y ∈ L .

Dans un espace vectoriel, la distance entre deux sous-espaces est nulle. Il suffit de prendre
x = y = 0. Dans le cas d’un vecteur et d’une droite vectorielle on a :

Proposition 1.2. Soit ∆ une droite, v un vecteur unitaire de ∆⊥ . Alors

∀u ∈ R2 , d(u, ∆) = |u · v|.z

Démonstration. Soit u = u1 + u2 la décomposition de u sur ∆ et ∆⊥ . Alors

∀w ∈ ∆, u − w = (u1 − w) + u2 d’où ku − wk2 = ku1 − wk2 + ku2 k2 .

Donc ku − wk2 ≥ ku2 k2 et il y a égalité ssi w = u1 . Finalement d(u, ∆) = ku2 k = |u · v|.

Une droite vectorielle ∆ est habituellement définie par une équation cartésienne ax + by = 0
ou un vecteur directeur.
1
− Si ∆ est définie par ax + by = 0 on prend v = √ (a, b), d’où
a2 + b 2
|ax + by|
d(u, ∆) = √ .
a2 + b 2
1
− Si (a, b) dirige ∆, un vecteur unitaire de ∆⊥ est v = √ (−b, a) d’où
a2+ b2
| − bx + ay|
d(u, ∆) = √ .
a2 + b 2

1.3 Isométries

Définition: Une isométrie de R2 est une application linéaire qui préserve la norme i.e.

φ est une isométrie si ∀u ∈ R2 , kφ(u)k = kuk .

Définition: Les isométries de R2 forment un groupe appelé le groupe orthogonal O(R2 ).

De l’identité de polarisation il découle qu’une isométrie préserve le produit scalaire i.e.


6

∀u, v ∈ R2 , φ(u) · φ(v) = u · v.z

Proposition 1.3. Soit B une base orthonormée et φ une application linéaire. Alors

φ est une isométrie ⇐⇒ φ(B) est une base orthonormée.

Démonstration. =⇒ Une isométrie préserve la norme et le produit scalaire.


⇐= Soit (e1 , e2 ) un ebase orthonormée et u = u1 e1 + u2 e2 . Alors kuk2 = u21 + u22 . Par linéarité
 2
φ(u) = u1 φ(e1 ) + u2 φ(e2 ). Comme φ(e1 ), φ(e2 ) est une base orthonormée φ(u) = u21 + u22 .
2
Finalement φ(u) = kuk2 . Comme u ∈ R2 est arbitraire, φ est une isométrie.

Corollaire 1.1. Soit {e1 , e2 } et {e01 , e02 } deux bases orthonormées. Il existe une isométrie unique
φ telle que φ(e1 ) = e01 et φ(e2 ) = e02 .

Démonstration. L’existence d’une application linéaire φ telle que φ(e1 ) = e01 et φ(e2 ) = e02 est
un résultat d’algèbre linéaire. D’après la proposition précédente, φ est une isométrie.

Corollaire 1.2. Soit u et u0 deux vecteurs unitaires de R2 . Il existe exactement deux isométries
φ± telles que φ± (u) = u0 .

Démonstration. Soit v un vecteur unitaire de u⊥ et v 0 un vecteur unitaire de u0 ⊥ . Si une isométrie


φ est telle que φ(u) = u0 , alors φ(v) ∈ u0 ⊥ . Donc φ(v) ∈ {v 0 , −v 0 }. L’isométrie φ étant
déterminée par l’image de {u, v}, il y en a au plus deux.
Réciproquement d’après le corollaire précédent il existe une isométrie φ± t elle que φ± (u) = u0
et φ± (v) = ±v 0 . D’où le résultat.

1.3.1 Matrices orthogonales

Le corollaire précédent peut aussi se démontrer en étudiant les matrices associées.


Soit φ une isométrie de R2 et A sa matrice dans la base canonique. Les vecteurs colonnes de
!
a
A forment une base orthonormée. Soit la première colonne de A. On a a2 + b2 = 1.
b
Par orthogonalité, le vecteur unitaire qui apparait dans la deuxième colonne est de la forme
λ(−b, a). Par normalisation λ = ±1. Ce qui donne
! !
a −b a b
A+ = ou A− = .
b a b −a
7

On note que det A± = ±(a2 + b2 ) = ±1.


Définition: Les matrices du type précédent sont dites orthogonales. Une matrice est ortho-
gonale ssi c’est la matrice d’une isométrie dans une base orthonormée.
Comme les isométries, les matrices orthogonales constituent également un groupe G. Si on
associe à une isométrie φ sa matrice A dans C, on obtient un isomorphisme canonique entre
O(R2 ) et G. On note donc G = O(R2 ), ce qui n’engendre pas d’ambiguïté.

1.3.1.1 Rotations

Définition: Une isométrie est positive ou négative selon le signe de son déterminant.
Définition: Une isométrie positive de R2 est une rotation.
!
a −b
Définition: L’angle d’une matrice de rotation A = est le nombre θ, défini modulo
b a
2π, tel que cos θ = a et sin θ = b.

Si ρ et ρ0 sont deux rotations dont les matrices dans C sont


! !
cos θ − sin θ cos θ0 − sin θ0
A= et A0 =
sin θ cos θ sin θ0 cos θ0

alors leur composée ρ0 ◦ ρ a pour matrice


!
cos θ0 cos θ − sin θ0 sin θ − sin θ0 cos θ − cos θ0 sin θ
A0 A =
sin θ0 cos θ + cos θ0 sin θ cos θ0 cos θ − sin θ0 sin θ
!
cos(θ + θ0 ) − sin(θ + θ0 )
ce qui d’après les formules trigonométriques donne A0 A = .
sin(θ + θ0 ) cos(θ + θ0 )
L’angle de la composée des matrices de deux rotations est donc, modulo 2π, la somme de
leurs angles. Autrement dit O+ (R2 ) est un sous-groupe commutatif de O(R2 ) isomorphe à

R/2πZ, + . En particulier deux matrices de rotations d’angles opposés sont inverses. On
constate qu’elles sont aussi transposées l’un de l’autre.

1.3.1.2 Symétries

Définition: Une symétrie sur un e.v. E est une application linéaire φ telle que φ2 = Id.

Proposition 1.4. Une application φ est une symétrie ssi φ = ±Id ou bien

i) 1 et −1 sont valeurs propres et ii) E = E1 ⊕ E−1 .


8

Démonstration. =⇒ Comme (−1)2 = 1 = 12 , la restriction de φ2 à E1 ou E−1 est l’application


identique. Comme E = E1 ⊕ E−1 , on a φ2 = Id par linéarité.
⇐= Si φ2 = Id notons F = Im(Id + φ) et G = Im(Id − φ). Pour u ∈ E, on a

1 1
u = (Id + φ)(u) + (Id − φ)(u)
2 2

d’où E = F + G. D’autre part (φ − Id) ◦ (φ + Id) = (φ + Id) ◦ (φ − Id) = 0. Il en découle


que F ⊆ E1 et G ⊆ E−1 , ce qui entraîne E = E1 + E−1 . Comme E1 ∩ E−1 = 0, on a bien
E = E1 ⊕ E−1 .

La démonstration montre que F = E1 et G = E−1 .


Lorsque les espaces E1 et E−1 sont connus, la symétrie est appelée « symétrie par rapport à E1
parallèlement à E−1 . »

Proposition 1.5. Une symétrie vectorielle φ est une isométrie ssi φ = ±Id ou E1 ⊥ E−1 .

Démonstration. Soit φ une symétrie, distincte de ±Id et u ∈ E se décomposant sous la forme


u = v + w avec v ∈ E1 et w ∈ E−1 . Alors φ(u) = φ(v + w) = v − w.

=⇒ Si φ est une isométrie, kv + wk = φ(v + w) = kv − wk, soit en élevant au carré
kvk + 2v · w + kwk = kvk − 2v · w + kwk ou encore v · w = 0 soit E1 ⊥ E−1 .

⇐= Le calcul précédent montre que si E1 ⊥ E−1 , alors kv+wk = kv−wk soit φ(u) = kuk.

Définition: Une symétrie isométrique de R2 est une symétrie orthogonale.


Pour une symétrie orthogonale, il suffit de dire « symétrie orthogonale par rapport à E1 »,
l’espace E−1 étant déterminé par E1 .

Proposition 1.6. Toute isométrie négative de R2 est une symétrie orthogonale.

Démonstration. En dimension 2 un endomorphisme φ a pour polynôme caractéristique

P (X) = dét (φ − XId) = X 2 − Tr(φ)X + dét φ.


2
Si dét φ < 0, alors ∆ = Tr(φ) − 4dét φ > 0. On en déduit que φ a deux valeurs propres
réelles de signes contraires, donc distinctes. Ceci implique que φ est diagonalisable. Les seules
valeurs propres réelles possibles d’une isométrie sont 1 et −1. Donc 1 et −1 sont les valeurs
propres. Donc φ est une symétrie par rapport à une droite, et comme φ est une isométrie, c’est
une symétrie orthogonale.
9

De plus pour u ∈
/ E−1 , u + φ(u) ∈ E1 et u + φ(u) 6= 0. C’est donc un vecteur directeur de E1 .
De même si u ∈
/ E1 , u − φ(u) est un vecteur directeur de E−1 .

Définition: L’axe d’une symétrie orthogonale de R2 est la droite de ses vecteurs invariants.
Dans une base orthonormée (e1 , e2 ), on peut écrire une matrice de symétrie orthogonale σ sous
!
cos θ sin θ
la forme A = . Mais θ n’est pas « l’angle de la symétrie », ce qui n’aurait aucun
sin θ − cos θ
sens. La signification géométrique de θ est que, si θ 6= π i.e. cos θ 6= −1, le vecteur e1 + σ(e1 )

soit (1 + cos θ, sin θ) est invariant par σ. On obtient cos(θ/2), sin(θ/2) après normalisation.
Si cos θ = −1, sin θ = 0 alors σ est la symétrie orthogonale par rapport à Vect{e2 }.

Corollaire 1.3. Toute matrice symétrique réelle sur R2 est diagonalisable dans une base or-
thonormée.
!
p q
Démonstration. Soit A = une matrice symétrique réelle sur R2 . On a
q r
! !
(p − r)/2 q (p + r)/2 0
A= + .
q (r − p)/2 0 (r + p)/2
La seconde matrice étant un multiple de l’identité, il suffit de diagonaliser la première dans une
q 2
base orthonormée. Or celle ci est, à un facteur (p − r)/2 + q 2 , une matrice de symétrie
orthogonale. Elle est donc diagonalisable dans une base orthonormée.

1.4 Orientation et angles

Soit u et u0 deux vecteurs unitaires. Parmi les deux isométries φ± telles que φ± (u) = u0 , notons
φ+ la rotation. Alors φ−1 0
+ est l’unique rotation telle que φ(u ) = u. Supposons que dans une base
!
cos θ − sin θ
B, φ+ a une matrice A = . Soit B 0 la base obtenue en échangeant l’ordre des
sin θ cos θ
vecteurs de B. La matrice de φ+ dans B 0 est obtenue en échangeant les lignes puis les colonnes
! ! !
a −b b a a b
de A : A= −→ −→ AT = .
b a a −b −b a
!
cos θ − sin θ
La nouvelle matrice est AT = A−1 . Ainsi une rotation peut avoir pour matrice
! sin θ cos θ
cos θ sin θ
ou . On ne peut donc définir l’angle d’une rotation comme étant celui de sa
− sin θ cos θ
10

matrice. Il faut faire un choix pour décider quelle est la matrice à retenir.
Plus généralement, soit B 0 une base orthonormée quelconque et P la matrice de passage de B à
B 0 . Celle-ci est orthogonale et peut être une matrice de rotation ou de symétrie. Dans les deux
cas la matrice A0 de φ dans B 0 est A0 = P −1 AP .
− Si P est une matrice de rotation, alors P et A commutent et A0 = A.
− Si P est une matrice de symétrie, alors P −1 = P et P A est une matrice de symétrie. Donc
A0 A = P AP A = Id2 soit A0 = A−1 = AT .

On définit R pour deux bases orthonormées B et B 0 de matrice de passage P , par

B R B0 0 ⇐⇒ P est une matrice de rotation.

Comme les matrices de rotation forment un groupe, R définit une relation d’équivalence sur
l’ensemble des bases orthonormées. Soit B = (e1 , e2 ) et P sa matrice de passage avec la base
canonique. Alors C R B ⇐⇒ dét P = 1. Si dét P = −1 alors B RC 0 = (c2 , c1 ), la base canonique
inversée. Il y a donc deux classes.
Définition: L’espace R2 est orienté par le choix d’une classe d’équivalence de R. Les bases
qui sont dans cette classe sont directes, les autres sont indirectes.
Il suffit de prendre une base et de la définir comme directe et l’orientation s’en déduit.
Dans la suite on supposera que l’orientation de R2 est celle définie par C.

Le choix d’une orientation permet aussi de définir le déterminant de deux vecteurs de R2 . A


priori le déterminant est défini pour les matrices ou les endomorphismes. Pour les couples de
vecteurs on parle de « déterminant dans une base B », i.e. le déterminant de la matrice de leurs
composantes.
Pour deux bases orthonormées directes B et B 0 , on a dét B0 B = 1. Soit (u, v) un couple de
vecteurs. Alors dét B0 (u, v) = dét B (u, v) × dét B0 B = dét B (u, v). Donc le déterminant de (u, v)
dans une base orthonormée directe ne dépend pas de cette base. C’est le déterminant de
(u, v).

1.4.1 Angles de rotations


!
cos θ − sin θ
Soit ρ une rotation de matrice A = dans C. Soit P la matrice de passage de
sin θ cos θ
C vers une autre base orthonormée directe B = (u, v), et A0 la matrice de ρ dans B. Alors
11

A0 = P −1 AP .

On a vu que P est une matrice de rotation commutant avec A de sorte que A0 = A. De même
la matrice de ρ est P T = P −1 dans toute base indirecte.

Définition: L’angle d’une rotation de R2 , est celui de sa matrice dans une base directe.

Définition: Soit u, v deux vecteurs et u0 , v 0 les vecteurs normalisés associés. L’angle orienté
de (u, v), également noté (u, v), est l’angle de la rotation ρ telle que ρ(u0 ) = v 0 .

Des cas particuliers sont l’angle nul (u, u) = 0 et l’angle plat (u, −u) = π correspondant à
ρ = −Id2 également appelée symétrie centrale.
Définition: Un angle (u, v) est droit si u · v = 0.
Comme un vecteur u possède deux vecteurs unitaires orthogonaux il y a deux angles droits
valant ±π/2.

Relation de Chasles. Soit u, v, w des vecteurs unitaires d’un plan euclidien orienté. Alors

(u, v) + (v, w) = (u, w).

Démonstration. Soit ρ et ρ0 telles que ρ(u) = v et ρ0 (v) = w. Alors ρ0 ◦ ρ(u) = w. Or θ(ρ ◦ ρ0 ) =


θ(ρ) + θ(ρ0 ), soit (u, v) + (v, w) = (u, w).

En particulier (u, v) = −(v, u). La relation de Chasles est souvent employée sous la forme

(u, v) − (u0 , v 0 ) = (u, u0 ) − (v, v 0 ).

Les coordonnées de u et v dans une base orthonormée déterminent leur angle.

cos θ = u · v.

Le signe du sinus d’un couple de vecteurs dépend de l’orientation. Si (u, w) est une base ortho-
!
1 cos θ
normée directe, alors la matrice de (u, v) dans (u, w) est . D’où sin θ = dét (u, v).
0 sin θ
Pour des vecteurs u et v quelconques on a

u·v dét (u, v)


cos θ = et sin θ =
kukkvk kukkvk
2
De cos2 + sin2 = 1 on déduit (u · v)2 + dét (u, v) = kuk2 kvk2 .

Proposition 1.7. Une rotation préserve les angles orientés. Une symétrie orthogonale les in-
verse.
12

Démonstration. − Soit ρ une rotation et u, v deux vecteurs unitaires. Par Chasles


  
(u, v) − ρ(u), ρ(v) = u, ρ(u) − v, ρ(v) = 0.

− Soit σ une symétrie orthogonale et u, v deux vecteurs unitaires. Soit σ 0 la symétrie orthogonale
telle que σ 0 (u) = v. alors σ ◦ σ 0 est une rotation. Donc

0 = (v, u) − σ ◦ σ 0 (v), σ ◦ σ 0 (u) = (v, u) − σ(u), σ(v) .


 


D’où σ(u), σ(v) = (v, u) = −(u, v).

Définition: L’angle géométrique, noté u


d , v, entre deux vecteurs unitaires u et v est défini
par θ ∈ [0, π] et u · v = cos θ soit θ = arccos(u · v).

A l’inverse de l’angle orienté, l’angle géométrique ne necessite aucune orientation et ne dépend


pas de l’ordre de u et v. Il est donc préservé par toutes les isométries mais il n’y a pas de
relation de Chasles.

1.5 Endomorphisme adjoint

Soit φ un endomorphisme sur R2 et u ∈ R2 . L’application v −→ u · φ(v) est une forme linéaire


sur R2 . Il existe donc un vecteur ψ(u) tel que

∀v ∈ R2 , u · φ(v) = ψ(u) · v.z

L’application ψ est linéaire. C’est l’endomorphisme adjoint de φ noté φ∗ .


On note que par symétrie du produit scalaire

∀u, v ∈ R2 , u · φ(v) = φ∗ (u) · v =⇒ ∀u, v ∈ R2 , v · φ∗ (u) = φ(v) · u.

En d’autres termes (φ∗ )∗ = φ.

∗
Proposition 1.8. Soit φ et ψ deux endomorphismes de R2 . Alors ψ ∗ ◦ φ∗ = φ ◦ ψ .

Démonstration. Soit u, v ∈ R2 . On a

(ψ ◦ φ)∗ (u) · v = u · ψ ◦ φ(v) = ψ ∗ (u) · φ(v) = φ∗ ◦ ψ ∗ (u) · v.


 

Par identification on obtient (ψ ◦ φ)∗ = φ∗ ◦ ψ ∗ .

∗
= φ∗ .
−1
Corollaire 1.4. Soit φ un endomorphisme inversible de R2 . Alors φ−1
13

Démonstration. La proposition précédente appliquée avec ψ = φ−1 donne


∗ ∗
φ∗ ◦ φ−1 = φ−1 ◦ φ = Id∗ = Id.
∗
= φ∗ .
−1
D’où φ−1

Proposition 1.9. Soit M la matrice d’un endomorphisme φ sur R2 dans une base orthonormée.
Alors la matrice de φ∗ dans la même base est M T .

Démonstration. Soit (e1 , e2 ) une base orthonormée, M , N les matrices de φ et φ∗ dans cette
base. Soit ai,j et bi,j les éléments de M et N . Alors

ai,j = ei · φ(ej ) = φ∗ (ei ) · ej = ej · φ∗ (ei ) = bj,i .

donc N = M T .

Proposition 1.10. Un isomorphisme φ sur R2 est une isométrie ssi φ∗ = φ−1 .

Démonstration. L’application φ est une isométrie ssi pour tous u, v ∈ R2 ,

u · v = φ(u) · φ(v) = u · φ∗ ◦ φ(v)




la seconde égalité résultant de la définition d’un adjoint. Finalement

z φ est une isométrie ⇐⇒ φ∗ ◦ φ = Id soit φ∗ = φ−1 .

Il en résulte qu’une matrice M est orthogonale ssi M T = M −1 ou encore M T M = I2 .

1.5.1 Endomorphismes auto-adjoints

Définition: Un endomorphisme φ sur R2 est autoadjoint si φ∗ = φ.

Proposition 1.11. Un endomorphisme est autoadjoint si et seulement si il admet une base


propre orthonormée.

Démonstration. =⇒ D’après la proposition précédente, un endomorphisme autoadjoint a une


matrice symétrique dans toute base orthonormée. Or une matrice symétrique se diagonalise
dans une base orthonormée. D’où le résultat.
⇐= Soit (e1 , e2 ) une base orthonormée propre pour φ. Dans cette base orthonormée φ a une
matrice diagonale donc symétrique. Il en résulte que φ est autoadjoint.
14

Ainsi les symétries orthogonales sont autoadjointes. En effet elles sont définies par leurs espaces
propres : E1 et E−1 supposés orthogonaux.

Pour tout endormorphisme φ, l’endomorphisme Φ = φ∗ ◦ φ est autoadjoint. En effet

∗
Φ∗ = φ∗ ◦ φ = φ∗ ◦ (φ∗ )∗ = φ∗ ◦ φ = Φ.
2
Pour tout u ∈ R2 on a u · Φ(u) = φ(u) · φ(u) = φ(u) . Soit (e1 , e2 ) une base orthonormée
propre pour Φ avec λ1 ≥ λ2 . Alors pour u = u1 e1 + u2 e2 , Φ(u) = λ1 u1 e1 + λ2 u2 e2 de sorte que

φ(u) 2 = u · Φ(u) = λ1 u21 + λ2 u22 .


De l’encadrement λ21 = λ1 u21 + λ1 u22 ≤ λ1 u21 + λ2 u22 ≤ λ2 u21 + λ2 u22 = λ2 , on déduit que
√ √
λ1 et λ2 sont les extrema de la fonction u −→ φ(u) définie sur le cercle unité.

1.5.1.1 Projecteurs

Un projecteur sur un e.v. E est une application linéaire φ tel que φ ◦ φ = φ.

Proposition 1.12. Une application linéaire φ est un projecteur ssi E = Ker(φ − Id) ⊕ Kerφ.

Démonstration. ⇐= Pour u ∈ Ker(φ − Id) on a u = φ(u) = φ2 (u) et pour u ∈ Kerφ on a


0 = φ(u) = φ2 (u). Comme E = Ker(φ − Id) ⊕ Kerφ, on a bien φ = φ2 .

=⇒ Si φ2 = φ, alors φ ◦ (Id − φ) = (Id − φ) ◦ φ = 0. En écrivant u = φ(u) + u − φ(u)
on a bien φ(u) ∈ Ker(φ − Id) et u − φ(u) ∈ Kerφ. D’où E = Ker(φ − Id) + Kerφ. Comme
Ker(φ − Id) ∩ Kerφ = {0} on a bien E = Ker(φ − Id) ⊕ Kerφ.

On remarque que Ker(φ − Id) = Imφ de sorte que E = Imφ ⊕ Kerφ.

Démonstration. ⊆ u ∈ Ker(φ − Id) =⇒ φ(u) − u = 0 =⇒ u ∈ Imφ


⊇ Supposons u ∈ Imφ et soit v tel que u = φ(v). Alors

z φ(u) = φ2 (v) = φ(v) = u =⇒ u ∈ Ker(φ − Id).

Définition: Soit φ un projecteur, F = Imφ et G = Kerφ. Alors φ est la projection sur F


parallèlement à G.
Définition: Un projecteur orthogonal est un projecteur φ tel que Kerφ ⊥ Imφ.

Si u 6= 0 et φ est le projecteur orthogonal sur Vect{u} alors

u·v
∀v ∈ R2 φ(v) = u.z
kuk2
15

u·v
Pour le voir on remarque que u ∈ Vect{u} et que
kuk2
 
u·v u·v
v− 2
u ·u=v·u− u · u = 0.
kuk kuk2
   
⊥ u·v u·v
La décomposition de v sur Vect{u} ⊕ u est donc bien v = u + v− u .
kuk2 kuk2

Proposition 1.13. Un projecteur π est orthogonal ssi il est autoadjoint.

Démonstration. =⇒ Si π est un projecteur orthogonal E1 ⊥ E0 . Donc π admet une base propre


orthonormée et il est autoadjoint.
⇐= Si π est autoadjoint, il se diagonalise dans une base orthormée. Donc E0 ⊥ E1 et π est un
projecteur orthogonal.

Comme dans le cas linéaire,


− si π est un projecteur orthogonal, 2π − Id est la symétrie orthogonale par rapport à Imπ..
1
− si σ est une symétrie orthogonale (Id + σ) est le projecteur orthogonal, sur l’axe de σ.
2
On peut identifier une matrice A de projecteur orthogonal grâce aux éléments suivants :
− Elle est de rang 1 i.e. les colonnes de A sont proportionnelles et donnent la direction de la
droite image de la projection.
− On a TrA = 1 car les valeurs propres de A sont 0 et 1.
− Elle est symétrique d’après la proposition précédente.
Réciproquement si ces trois conditions sont remplies A est la matrice d’un projecteur orthogonal
dans une base orthonormée. En effet les deux premières conditions entraînent que les valeurs
propres de A sont 1 et 0 ce qui, en dimension 2, implique A2 = A. D’autre part, si A est
symétrique le projecteur associé dans une base orthonormée est autoadjoint donc orthogonal.
Une matrice de projecteur est donc du type
 
p
 a a(1 − a) 
 p 
a(1 − a) 1−a

pour a ∈ [0, 1]. La somme des carrés des termes de la matrice vaut a2 + 2a(1 − a) + (1 − a)2 = 1.
On peut aussi le voir par la définition d’un projecteur. Si u est unitaire, π la projection sur
Vect{u}, B = (e1 , e2 ) une base orthonormée et A la matrice de π dans B. Les éléments de la
2
première colonne de A sont celles de π(e1 ) = (e1 · u)u. La somme des carrés est donc π(e1 ) =
(e1 · u)2 . Pour la seconde colonne on a (e2 · u)2 . Finalement (e1 · u)2 + (e2 · u)2 = kuk2 = 1.
16

1.6 Formes quadratiques

Sur R2 la définition de la longueur, puis l’identité de polarisation ont donné le produit scalaire
classique. En notant que le produit scalaire est une forme bilinéaire symétrique, on peut faire
le chemin inverse, plus adapté à des espaces ne possédant pas de base canonique.

Définition: Une application Φ : R2 × R2 −→ R est une forme bilinéaire si


– ∀ u ∈ R2 , v −→ Φ(u, v) est une forme linéaire,
– ∀ v ∈ R2 , u −→ Φ(u, v) est une forme linéaire.
Notation: Les applications v −→ Φ(u, v) et u −→ Φ(u, v) sont notées Φ(u, .) et Φ(., v).

Définition: Une application bilinéaire Φ : R2 × R2 −→ R est symétrique si

∀ (u, v) ∈ (R2 )2 , Φ(u, v) = Φ(v, u).z



Définition: Pour tout ensemble X, la diagonale ∆ de X × X est l’ensemble (x, x), x ∈ X .
Une expression de la forme Φ(u, v) est un terme diagonal si u = v.

Identité de polarisation Soit Φ une forme bilinéaire symétrique alors


1 
∀ (u, v) ∈ (R2 )2 , Φ(u, v) = × Φ(u + v, u + v) − Φ(u, u) − Φ(v, v) .
2

Démonstration. Par linéarité à gauche puis à droite

Φ(u + v, u + v) = Φ(u, u + v) + Φ(v, u + v) = Φ(u, u) + Φ(u, v) + Φ(v, u) + Φ(v, v).

En séparant les termes diagonaux des termes non diagonaux, on obtient le résultat.

Définition: Une forme quadratique sur R2 est un polynôme homogène de degré 2

Un tel polynôme est caractérisé par ses cœfficients : Q(x, y) = ax2 + 2bxy 2 + cy 2 .

Proposition 1.14. N Soit Φ une forme bilinéaire symétrique. Alors u −→ Φ(u, u) est une
forme quadratique.
1 
H Soit Q une forme quadratique. Alors (u, v) −→ × Q(u + v) − Q(u) − Q(v) est une forme
2
bilinéaire symétrique.

Démonstration. N Soit u = (x, y) = x c1 + y c2 . Alors Φ(u, u) = Φ(x c1 + y c2 , x c1 + y c2 ). En


développant on obtient Φ(u, u) = x2 Φ(c1 , c1 ) + 2xyΦ(c1 , c2 ) + y 2 Φ(c2 , c2 ).
H Supposons Q(x, y) = ax2 + 2bxy + cy 2 . Alors pour u = (x, y) et u0 = (x0 , y 0 ) on obtient, en
développant et en simplifiant
2. La présence du facteur 2 est liée au calcul matriciel.
17

1
× Q(u + v) − Q(u) − Q(v) = axx0 + b(xy 0 + x0 y) + cyy 0 .

2
L’application (u, v) −→ axx0 + b(xy 0 + x0 y) + cyy 0 définie sur (R2 )2 est bilinéaire symétrique.

La correspondance Q ←→ Φ est bijective.

Définition: Le noyau d’une forme bilinéaire symétrique Φ est l’ensemble des vecteurs u tels
que Φ(u, .) = 0 soit ∀v ∈ R2 , Φ(u, v) = 0.

Définition: Le noyau KerQ d’une forme quadratique est le noyau de la forme bilinéaire asso-
ciée.
Définition: Une forme quadratique est non dégénérée si KerQ = {0}.
Si u 6= KerQ, u⊥ , i.e. v, Φ(u, v) = 0 , est le noyau d’une forme linéaire non nulle. C’est donc


un hyperplan soit, en dimension 2, une droite. En particulier si Q est non dégénérée, u⊥ est
une droite pour tout u 6= 0.
Ne pas confondre le noyau d’une forme quadratique avec l’ensemble de ses vecteurs isotropes.
Définition: Soit Q une forme quadratique. Un vecteur u est isotrope pour Q si Q(u) = 0.
Exemple :− Soit Q définie par Q(x, y) = x2 . On a Φ(u, v) = xx0 . Donc KerQ = Vect{(0, 1)}.
D’autre part Q(u) = 0 ⇐⇒ u ∈ Vect{(0, 1)}. Il y a identité entre les vecteurs isotropes et le
noyau dans ce cas.
− Soit Q définie par Q(x, y) = x2 − y 2 . On a Φ(u, v) = xx0 − yy 0 . Donc KerQ = {0}. D’autre

part Q(u) = 0 ⇐⇒ u ∈ Vect (1, ±1) . Il n’y a pas identité dans ce cas.

1.6.1 Ecritures matricielles

Soit Q et Φ définis par

Q(x, y) = ax2 + 2bxy + cy 2 et Φ(u, v) = axx0 + b(xy 0 + x0 y) + cyy 0 .

On peut réécrire ces égalités sous la forme


! ! ! !
  a b x   a b x
Q(x, y) = x, y et Φ(u, v) = x0 , y 0 .
b c y b c y

! ! !
x x0 a b
En posant X = , X0 et A = , ces égalités deviennent
y y0 b c

Q(u) = X T AX et Φ(u, v) = X 0 T AX.


18

Une dernière écriture est Q(u) = u·φ(u) où φ est l’endomorphisme auto-adjoint dont la matrice
est A dans la base canonique.

1.6.1.1 Changements de base

Dans l’identité Q(u) = X T AX, la matrice A dépend de la base dans laquelle sont calculées les
composantes de u, base que nous avons supposée être C. Lorsque le vecteur u est exprimé dans
une base (e1 , e2 ) i.e. u = u1 e1 + u2 e2 , on obtient

Φ(u, u) = u21 Φ(e1 , e1 ) + 2u1 u2 Φ(e1 , e2 ) + u22 Φ(e2 , e2 ).


! !
u1 Φ(e1 , e1 ) Φ(e1 , e2 )
En posant X = et A = ceci s’écrit
u2 Φ(e1 , e2 ) Φ(e2 , e2 )
Φ(u, u) = X T AX.

La matrice A est la matrice de Φ dans la base (e1 , e2 ). C’est aussi la matrice la forme
quadratique associée.

Proposition 1.15. Soit B = (e1 , e2 ) et B 0 = (e01 , e02 ) deux bases de R2 . Soit A et A0 les matrices
d’une forme quadratique Q dans B et B 0 et soit P la matrice de passage de B à B 0 . Alors

A0 = P T AP .

Démonstration. Soit u ∈ R2 et X, X 0 les vecteurs colonnes de ses coordonnées dans B et B 0 .


On a X = P X 0 et X T = X 0 T P T . On substitue X = P X 0 dans Q(u) = X T AX et on obtient

Q(u) = X 0 T P T A P X 0 .

Par identification A0 = P T A P .

Les formules de changement de base pour les endomorphismes et pour les formes bilinéaires
symétriques coïncident ssi P T = P −1 i.e. ssi la matrice de passage est orthogonale.

1.6.2 Orthogonalité

Soit Φ une forme bilinéaire symétrique sur R2 et Q la forme quadratique associée.

Définition: Deux vecteurs u et v sont orthogonaux, relativement à Φ, si Φ(u, v) = 0.

Définition: Une base orthogonale pour Φ est une base dont les vecteurs sont orthogonaux
relativement à Φ.

Une base B est orthogonale pour Q ssi la matrice de Q dans B est diagonale.
19

Proposition 1.16. Toute forme quadratique sur R2 admet une base orthogonale.

Démonstration. On suppose Q 6= 0 et on choisit u ∈ R2 tel que Q(u) 6= 0. Donc Φ(u, .) est une
forme linéaire non nulle. De plus comme Q(u) = Φ(u, u) 6= 0, si Φ(u, v) = 0 avec v 6= 0, alors u
et v sont libres. Donc ils forment une base orthogonale.

Dans une base orthogonale pour Q la matrice M de Q est diagonale. Si de plus M = I2 alors
la base est orthonormée.

Proposition 1.17. Toute forme quadratique sur R2 admet une base orthogonale B, qui est
orthonormée pour la forme quadratique standard.

Démonstration. Soit A la matrice de Q dans la base canonique. C’est une matrice symétrique
réelle qui se diagonalise dans une base orthonormée B. Soit P la matrice de passage de C à B.
Alors A0 = P −1 AP est diagonale. Mais comme B est orthonormée P T = P −1 de sorte que A0
est la matrice de Q dans B. Donc B est orthogonale pour Q.

Il s’agit de diagonalisation simultanée. En effet Q et la forme quadratique standard se


diagonalisent dans une même base. Il est facile de voir que cette base est essentiellement unique
sauf si Q et la forme quadratique standard sont proportionelles.

1.6.3 Classification

Une forme quadratique Q peut avoir plusieurs comportements :

– Q ne change pas de signe et ne s’annule qu’en 0.


– Q ne change pas de signe et admet des vecteurs isotropes
– Q change de signe.

Soit B = (e1 , e2 ) une base orthonormée dans laquelle Q se diagonalise avec λ2 ≤ λ1 . Si u1 et u2


désignent les composantes de u dans B on a

Q(u) = λ1 u1 2 + λ2 u2 2 .

On peut retrouver l’ensemble des comportements possibles de Q en comparant λ1 , λ2 et 0.

– 0 < λ2 ≤ λ1 : Q reste positive et ne s’annule qu’en 0.


– λ2 = 0 < λ1 : Q reste positive mais a un noyau non réduit à 0. Les vecteurs isotropes
coïncident avec le noyau.
20

– λ2 < 0 < λ1 : Q change de signe mais n’a pas de noyau. Les vecteurs isotropes forment deux
√ √  √ √ 
droites : Vect −λ2 , λ1 et Vect −λ2 , − λ1 calculés dans B.
– λ2 < 0 = λ1 : Q reste négative mais a un noyau non réduit à 0. Les vecteurs isotropes
coïncident avec le noyau.
– λ2 ≤ λ1 < 0 : Q reste négative et ne s’annule qu’en 0.
Ce comportement ne dépend que de λ1 et λ2 . Donc il peut se lire directement sur le polynôme
caractéristique de la matrice M de Q dans une base orthonormée quelconque sans qu’il soit
nécéssaire de diagonaliser.
– dét M > 0 et TrM > 0 : alors 0 < λ2 ≤ λ1 .
– dét M > 0 et TrM < 0 : alors λ2 ≤ λ1 < 0.
– dét M = 0 et TrM > 0 : alors λ2 = 0 < λ1 .
– dét M = 0 et TrM < 0 : alors λ2 < 0 = λ1 .
– dét M < 0 : alors λ2 < 0 < λ1 .
Il n’est pas nécessaire que la base soit orthonormée. En effet si M 0 est la matrice de Q dans
une autre base alors dét M et dét M 0 sont de mêmes signes. De plus lorsque dét M ≥ 0, le signe
de Q se lit sur les termes diagonaux de M ou M 0 . Donc dét M 0 et TrM 0 founissent les mêmes
renseignements que dét M et TrM .

Définition: Une forme quadratique vérifiant u 6= 0 =⇒ Q(u) > 0 est définie positive.
D’après ce qu’on a vu, une forme quadratique est définie positive ssi sa matrice M dans une
base quelconque vérifie det M > 0 et TrM > 0.

1.6.3.1 Décompositions en carrés

Définition: Une décomposition en carrés d’une forme quadratique Q est une expression de
2 2 2
la forme Q(u) = ± L1 (u) ou Q(u) = ± L1 (u) ± L2 (u) ,

où L1 et L2 sont deux formes linéaires indépendantes.


C’est la condition d’indépendance qui limite à 2 le nombre de termes de la somme.

Une telle décomposition permet également de caractériser le comportement de Q.


2 2
– Q(u) = L1 (u) + L2 (u) : Q reste positive et ne s’annule qu’en 0.
2 2
– Q(u) = L1 (u) − L2 (u) : Q change de signe mais n’a pas de noyau. Les vecteurs isotropes
forment deux droites.
2 2
– Q(u) = − L1 (u) − L2 (u) : Q reste négative et ne s’annule qu’en 0.
21
2
– Q(u) = L1 (u) : Q reste positive et son noyau est KerL1 .
2
– Q(u) = − L1 (u) : Q reste négative et son noyau est KerL1 .
Le comportement de Q se lit sur une décomposition en carrés arbitraire. Donc toutes les dé-
compositions en carrés d’une forme quadratique Q sont de même nature. Ce qui permet de
poser :

Définition: La signature σ(Q) d’une forme quadratique Q est le couple (p, q) où p est le
nombre de signes + et q le nombre de signes − de ses décompositions en carrés.

En dimension 2 les signatures possibles sont (2, 0), (1, 1), (0, 2) dans le cas non dégénéré, et
(1, 0), (0, 1) dans le cas dégénéré.

Ces signatures correspondent à des allures distinctes pour les graphes de Q en dimension 3, i.e.
les surfaces d’équation z = ax2 + 2bxy + cy 2 : (0,1), (2,0), (1,1).

1.6.3.2 Algorithme de Gauss

L’algorithme de Gauss fournit un procédé systématique pour trouver une décomposition en


carrés pour une forme quadratique quelconque. Supposons Q(u) = ax2 + 2bxy + cy 2 . Si b = 0,
Q se présente déjà sous forme de somme de carrés. Sinon deux cas se présentent :
− Soit a ou c n’est pas nul. On suppose a 6= 0. On écrit ensuite
2
b2 − ac 2

b
Q(u) = a x + y − y .
a a
b
Les formes linéaires définies par L1 (x, y) = x + y et L2 (x, y) = y sont bien indépendantes. Il
a
b2 − ac
n’y a plus qu’à conclure en fonction des signes de a et .
a
b b
− Si a = c = 0 alors Q(u) = 2bxy = (x + y)2 − (x − y)2 .
2 2

1.6.4 Coniques

Définition: Une conique C de R2 est l’ensemble des zéros d’un polynôme de degré 2.

Un polynôme P de degré 2 se décompose sous la forme P = Q + L + F , où Q est un terme


quadratique, L un terme linéaire et F un terme constant,

P (x, y) = (Ax2 + 2Bxy + Cy 2 ) + (2Dx + 2Ey) + F = Q(x, y) + L(x, y) + F .

On supposera ici que le terme linéaire est nul, ce qui implique que C est invariante par symétrie
centrale. En pratique l’équation P (x, y) = 0 sera sous la forme Ax2 + 2Bxy + Cy 2 = K. Si on
22

!
A B
note M = , on a vu que pour dét M < 0 la forme quadratique Q change de signe,
B C
ce qui entraîne que, pour tout K, C est non vide. Si dét M ≥ 0 la forme quadratique Q garde
un signe constant, ce qui selon le signe de K peut entraîner que C est vide.
En diagonalisant M on voit qu’il existe une base orthonormée (e1 , e2 ) où on a

Q(u) = λ1 u1 2 + λ2 u2 2 .

N Si K = 0, C = {0} pour les signatures (0, 2) et (2, 0), C est une paire de droites si σ(Q) = (1, 1),
et enfin C est une droite double si σ(Q) = (1, 0) ou (0, 1).

N Si K 6= 0 on peut supposer K = 1.
– 0 < λ2 ≤ λ1 : Q est une ellipse
1
– λ2 = 0 < λ1 : C est une paire de droites parallèles x0 = ± √ .
λ1
– λ2 < 0 < λ1 : C est une hyperbole Les asymptotes sont les droites de vecteurs isotropes.
– λ2 ≤ λ1 ≤ 0 : C = ∅.
– λ2 ≤ λ1 < 0 : C = ∅.

1.6.4.1 Equations réduites

Définition: Une courbe dans R2 est une ellipse si elle est isométrique à une courbe d’équation
x2 y 2
+ 2 = 1.
a2 b
avec a ≥ b > 0. Les réels a et b sont le demi-grand axe et le demi-petit axe de l’ellipse.

Définition: Une courbe dans R2 est une hyperbole si elle est isométrique à une courbe d’équa-
x2 y 2
tion − 2 = 1.
a2 b
Le réel a est la distance du centre à chacune des branches de l’hyperbole.
x2 y 2
Définition: Les équations 2 ± 2 = 1 sont les équations réduites des coniques associées.
a b

Détermination de l’équation réduite Soit Ax2 + 2Bxy + Cy 2 = 1 l’équation d’une co-


!
A B
nique C. On note M = la matrice de la forme quadratique associée. On suppose
B C
dét M 6= 0. Si dét M > 0, on suppose A > 0 ce qui implique que C est une ellipse. Si dét M < 0,
C est une hyperbole.
Les ellipses et les hyperboles constituent les coniques non dégénérées à centre. Les hypo-
thèses impliquent donc que C est de ce type.
23

Soit B = (e1 , e2 ) une base orthonormée où M se diagonalise et P la matrice de passage


de C à B. Alors P −1 M P est diagonale. Cette matrice peut toujours s’écrire sous la forme
!
1/a2 0
avec la condition a ≥ b dans le cas +. L’équation X 0 T P −1 M P X 0 = 0 est
0 ±1/b2
l’équation réduite de C.
Pour l’obtenir il suffit de trouver les valeurs propres de M . Pour préciser dans quelle base
orthonormée cette équation est celle de C il faut diagonaliser M .

1.6.4.2 Tangentes

Soit Ax2 + 2Bxy + Cy 2 = 1 l’équation d’une conique non dégénérée à centre C, Φ la forme
!
A B
bilinéaire symétrique associée et M = la matrice de la forme quadratique associée.
B C

Proposition 1.18. Soit u = (x, y) ∈ C et v un vecteur directeur de la tangente en u à C.


Alors Φ(u, v) = 0.

 
Démonstration. Soit ∆ la tangente à C i.e. ∆ = u + s v, s ∈ R . Soit t −→ x(t), y(t) une
paramétrisation locale de C au voisinage de 0 telle que x0 (t) et y 0 (t) ne s’annulent pas simulta-
nément. On note u(t) = x(t), y(t) et on suppose que u(0) = u et u0 (0) = v.


La fonction t −→ Q x(t), (y(t) est constante. Pour calculer sa dérivée on note V (t) =
!
x(t) 
. D’où Q v(t) = V (t)T M V (t). En dérivant en t = 0 il vient
y(t)
0 = V (0)T M V 0 (0) + V 0 (0)T M V (0).

Comme M est symétrique ces deux termes sont égaux d’où V 0 (0)T M V (0) = 0. Ceci s’écrit aussi

Φ u0 (0), u(0) = 0

soit Φ(v, u) = 0.

La forme quadratique Q étant non dégénérée, la condition Φ(u, v) = 0 détermine de façon


unique la direction de v à partir de celle de u.

Définition: Soit Q(x, y) = 1 l’équation d’une conique non dégénérée à centre C et Φ la forme
bilinéaire associée. Deux directions Vect{u} et Vect{v} sont conjuguées si Φ(u, v) = 0.

C’est une relation symétrique : si u et v sont sur une ellipse et v dirige la tangente en u, alors u
dirige la tangente en v. On obtient le même résultat en réunissant deux hyperboles d’équations
Ax2 + 2Bxy + Cy 2 = ±1.
24

1.7 Plans euclidiens

Définition: Un produit scalaire sur un plan vectoriel P est une forme bilinéaire symétrique
Φ sur P × P telle que ∀ u ∈ P \ {0}, Φ(u, u) > 0.

Notation: On note Φ(u, v) = u · v lorsqu’il n’y a pas d’ambiguïté.

Exemple : Soit E l’espace vectoriel des polynômes de degré au plus 3 et s’annulant en −1 et


Z 1
1. L’application (P, Q) −→ Φ(P, Q) = P (t)Q(t) dt est bilinéaire symétrique et pour P 6= 0,
−1
Φ(P, P ) > 0.

Inégalité de Cauchy-Schwartz. Soit u, v ∈ P , alors (u · v)2 ≤ (u · u)(v · v).



Démonstration. Pour tout t ∈ R, (u + tv) · (u + tv) ≥ 0. Or

(u + tv) · (u + tv) = t2 (v · v) + t(u · v + v · u) + u · u = t2 (v · v) + 2t(u · v) + u · u.

Par hypothèse ce trinôme en t ne change pas de signe. D’où ∆0 = (u · v)2 − (u · u)(v · v) ≤ 0.

Le seul cas d’égalité est celui où u et v sont liés. En effet si ∆0 = 0 il existe t ∈ R tel que
(u + tv) · (u + tv) = 0. Par définition d’un produit scalaire cela implique u + tv = 0. D’où le
résultat.

Par définition la forme quadratique associée à un produit scalaire est définie positive. Elle est
non dégénérée et l’orthogonal d’un vecteur non nul est une droite.

Proposition 1.19. Soit Φ un produit scalaire sur P × P et Q la forme quadratique associée.


p
Alors u −→ Q(u) est une norme sur P .

Démonstration. Il suffit de montrer l’inégalité triangulaire, i.e.


p p p
pour tous u, v ∈ P, Q(u + v) ≤ Q(u) + Q(v)
p p
soit () Q(u + v) ≤ Q(u) + 2 Q(u) Q(v) + Q(v)
p p
ou encore Q(u + v) − Q(u) − Q(v) ≤ 2 Q(u) Q(v).
Par polarisation le terme de gauche vaut 2(u · v). On conclut grâce à Cauchy-Schwarz.

Définition: Une norme k.k sur P est euclidienne si u −→ kuk2 est la forme quadratique
associée à un produit scalaire. Muni de cette norme le plan P devient euclidien.

Une structure euclidienne sur un plan vectoriel est l’ensemble constitué par le produit sca-
laire, la forme quadratique associée, et la norme euclidienne, chacun déterminant les deux
autres.
25

La structure euclidienne standard sur R2 est celle définie par le produit scalaire usuel.

Identité du parallélogramme. Soit P, k.k) un plan euclidien et u et v deux vecteurs de E.



Alors ku + vk2 + ku − vk2 = 2 kuk2 + kvk2 .

Démonstration. En effet ku ± vk2 = kuk2 ± 2u · v + kvk2 .

1.7.1 Bases orthonormées

Les définitions de vecteur unitaire ou de base orthonormée sont celles du cas standard. En
particulier une base B est orthonormée pour la structure euclidienne induite par Φ ssi la matrice
de Φ dans B est la matrice identité.
Comme dans le cas standard, un vecteur unitaire u possède deux vecteurs unitaires orthogonaux
v et −v. Donc tout vecteur unitaire appartient à deux bases orthonormées.
Dans le cas standard il y a une simplification. La base canonique est orthonormée et tout
élément (x, y) de R2 s’exprime naturellement dans la base canonique i.e. (x, y) = x c1 + y c2 .
Enfin on a (x, y)⊥ = Vect (−y, x) si (x, y) 6= (0, 0).


Dans le cas général, rien de tout ceci n’est vrai et il faut une méthode pour trouver un vecteur
unitaire orthogonal à un vecteur donné.

Algorithme de Gram-Schmidt. Soit {u, v} une famille libre. Il existe une base orthonormée
unique {u1 , u2 } telle que u1 ∈ Vect{u}, u1 · u > 0 et u2 · v > 0.
1
Démonstration. On a u1 = u. Supposons que u2 existe. Alors
kuk
v = (v · u1 )u1 + (v · u2 )u2 .

Donc u2 est colinéaire à v − (v · u1 )u1 = U2 . On a U2 6= 0 car v et u1 sont indépendants. De


1
plus v · U2 = kvk2 − (v · u1 )2 > 0. Finalement u2 =
U2 U2 .

L’algorithme est dans la construction de la base et non dans son existence. La base obtenue
s’appelle l’orthogonalisée de Gram-Schmidt de la base de départ. Elle dépend de la struc-
ture euclidienne.
Cet algorithme est surtout utile en dimension supérieure. Dans le cas d’un plan, u étant donné
et w étant quelconque, on écrit Φ(u, w) sous la forme u0 · w où · désigne le produit euclidien
standard. On prend alors w orthogonal à u0 .
Exemple : Soit Q(x, y) = 2x2 + 4xy + 3y 2 et u = (a, b). Pour tout w = (s, t) on a
26

Φ(u, w) = 2as + 2at + 2bs + 3bt = (2a + 2b, 2a + 3b) · (s, t) = u0 · w.

Donc Φ(u, w) = 0 ssi w est colinéaire à (−2a − 3b, 2a + 2b).

1.7.2 Isométries

Définition: Soit P et P 0 deux plans euclidiens et k.kP , k.kP 0 les normes sur P et P 0 . Une
isométrie φ : P −→ P 0 est une application linéaire telle que

∀u ∈ P, kφ(u)kP 0 = kukP .z

Une application linéaire φ est une isométrie ssi l’image d’une base orthonormée est une base
orthonormée. On vient de voir qu’un plan euclidien possède des bases orthonormées et donc
tout plan euclidien est isométrique à R2 muni de sa structure standard. Par conséquent tous
les résultats obtenus sur R2 sont valables sur tous les plans euclidiens et toutes les définitions
peuvent être transposées. Il suffit de remplacer le produit scalaire et la norme par leurs nouvelles
définitions et le reste suit.
Dans les calculs, il faut toujours tenir compte de la structure euclidienne choisie. Surtout dans
R2 où la structure standard est présente par le biais des composantes.
Chapitre 2

Dimension 3

La structure euclidienne standard sur R3 est définie par le triplet : produit scalaire, forme
quadratique, norme euclidienne soit si u = (x, y, z) et v = (x0 , y 0 , z 0 )
p
u · v = xx0 + yy 0 + zz 0 , Q(u) = x2 + y 2 + z 2 , kuk = x2 + y 2 + z 2

Les définitions vues en dimension 2 passent avec des modifications évidentes ainsi que beaucoup
de résultats. On se concentrera sur ceux pour lesquels le passage n’est pas évident.

2.1 Orthogonalité

Définitions: Deux vecteurs u et v sont orthogonaux si u · v = 0.


Deux sous-ensembles A et B de R3 sont orthogonaux si ∀u ∈ A, ∀v ∈ B, u · v = 0.
On écrit alors A ⊥ B.
Pour u ∈ R3 , l’orthogonal de u est u⊥ = {v ∈ R3 , u · v = 0}.
Pour A ⊂ R3 , l’orthogonal de A est A⊥ = v ∈ R3 , ∀u ∈ A, u · v = 0 .


− Le vecteur nul est le seul vecteur orthogonal à lui-même. Donc ∀A ⊂ R3 , A ∩ A⊥ = {0}.


− Lorsque u 6= 0, la forme linéaire fu : v −→ u · v est non nulle. Donc son noyau, i.e. u⊥ , est
un plan : le plan orthogonal à u.
− Par linéarité pour tout A ⊂ R3 , A⊥ est un sous-espace vectoriel. D’autre part (VectA)⊥ = A⊥ .
Donc l’orthogonal d’une droite est un plan.
− Réciproquement l’orthogonal d’un plan est une droite. En effet soit {e1 , e2 } une base d’un
plan Π. Par linéarité si u = u1 e1 + u2 e2 ∈ Π, alors v · e1 = v · e2 = 0 =⇒ v · u = 0. Soit

e⊥ ⊥
1 ∩ e2 ⊆ Π

27
28

On a Π⊥ ∩ Π = {0} =⇒ dim Π⊥ ≤ 1 et dim e⊥ ⊥ ⊥


∩ e⊥

1 = dim e2 = 2 =⇒ dim e1 2 ≥ 1.
Finalement e⊥ ⊥ ⊥ ⊥
1 ∩ e2 = Π et Π est une droite.

− Il en résulte que si E est une sous-espace de R3 , E ⊥ est un sous-espace supplémentaire de


E, appelé le supplémentaire orthogonal de E.
− D’où les définitions des symétries et projections orthogonales, comme en dimension 2.

2.1.1 Distance
 
3 3 u·v u·v
Soit u ∈ R . Alors ∀v ∈ R , v= u+ v− u .
kuk2 kuk2
Cette formule, déjà vue dans le plan, fournit la décomposition de v sur Vect{u} ⊕ u⊥ . Elle
donne les projections de v sur Vect{u} et sur u⊥ .

Proposition 2.1. Soit ∆ une droite, u un vecteur directeur de ∆. Alors


p
∀v ∈ R3 , d(u, ∆) = kuk2 − |u · v|2 /kuk2 .z

Démonstration. Par homogénéité on peut supposer kuk = 1.


Soit v = v1 + v2 la décomposition de v sur ∆ et ∆⊥ . Alors pour tout w ∈ ∆, celle de v − w est

v − w = (v1 − w) + v2 d’où kv − wk2 = kv1 − wk2 + kv2 k2 .

Donc kv − wk2 ≥ kv2 k2 avec égalité ssi w = v1 . On en déduit d(v, ∆) = kv2 k.


L’hypothèse kuk = 1 entraîne kv1 k = |u·v| et par orthogonalité kvk2 = kv1 k2 +kv2 k2 . Finalement
kv2 k2 = kvk2 − (u · v)2 , d’où le résultat.

Proposition 2.2. Soit Π un plan, v un vecteur unitaire de Π⊥ . Alors

∀u ∈ R3 , d(u, Π) = |u · v|.z

La démonstration est identique à celle de la dimension 2.


Un plan vectoriel Π est habituellement défini par une équation cartésienne ou une base.
1
− Si Π est définie par ax + by + cz = 0 on prend v = √ (a, b, c), d’où
a + b2 + c 2
2

|ax + by + cz|
d(u, Π) = √ .
a2 + b 2 + c 2
− Si (e1 , e2 ) est une base de Π, on peut trouver un vecteur unitaire de Π⊥ en utilisant le produit
1
vectoriel soit v = e1 ∧ e2 . On obtient
ke1 ∧ e2 k

dét (e1 , e2 , u)
d(u, Π) = .
ke1 ∧ e2 k
29

2.2 Endomorphismes autoadjoints

Un outil courant en algèbre linéaire est le raisonnement par récurrence sur la dimension. Le
passage de 2 à 3 est facilité par le fait que 3 est impair. Les polynômes de degré impair et à
cœfficient réels ont toujours au moins une racine réelle. Pour le voir on étudie les variations sur R
et on applique le théorème des valeurs intermédiaires. Donc, en dimension 3, un endomorphisme
a toujours une droite propre, ce qui permet souvent de se ramener à un plan.

Proposition 2.3. Un endomorphisme autoadjoint sur R3 admet une base propre orthonormée.

Démonstration. Soit φ un endomorphisme autoadjoint sur R3 et λ une valeur propre réelle.


Soit u ∈ Eλ un vecteur unitaire. On note ∆ = Vect{u} et Π = ∆⊥ . Pour v ∈ Π on a

φ(v) · u = v · φ(u) = v · (λu) = λv · u = 0.

Donc φ(v) ∈ Π. Soit ψ la restriction de φ à Π. D’après ce qu’on vient de voir ψ est un


endomorphisme de Π. De plus, pour

∀v, w ∈ Π, w · ψ(v) = w · φ(v) = φ(w) · v = ψ(w) · v.z

Donc ψ est endomorphisme autoadjoint de Π, muni de la structure euclidienne induite par celle
de R3 . Comme Π est de dimension 2, ψ admet une base propre orthonormée {v, w}. Finalement
{u, v, w} est une base orthonormée de R3 , propre pour φ.

Corollaire 2.1. Toute matrice symétrique réelle sur R3 se diagonalise sur une base orthonor-
mée.

2.3 Isométries

Comme sur R2 on peut donner une description assez complète des isométries sur R3 . Toutefois
il n’est pas possible de donner une paramétrisation aussi simple des matrices orthogonales.

Proposition 2.4. Toute isométrie φ en dimension 3 possède une droite D et un plan P stables
par φ, tels que P = D⊥ .

Démonstration. Soit λ est valeur propre de φ et u un vecteur propre associé. Soit D la droite
engendrée par u. L’orthogonalité étant préservée par φ le plan P = u⊥ est globalement invariant
par φ.
30

Si λ est valeur propre réelle d’une isométrie, alors λ = ±1.


Définition: Lorsque φ n’admet qu’une direction propre D, celle-ci est l’axe de φ.
L’axe d’un demi-tour est son sous-espace propre E1 .

2.3.1 Classification des isométries

Un endomorphisme φ est une isométrie ssi φ∗ = φ−1 . Donc

(dét φ)2 = dét φ∗ × dét φ = dét φ∗ ◦ φ = 1

soit dét φ = 1 pour les isométries positives et dét φ = −1 pour les isométries négatives.
Passons à une classification géométrique.
La restriction de φ à D est une isométrie, soit ± l’identité. Sa restriction à D⊥ est une isométrie
plane i.e. une rotation ou une symétrie. On peut donc classifier les isométries vectorielles selon
les combinaisons possibles.
Soit (v, w) une base orthonormée de P , quelconque dans le cas de la rotation, ou diagonale
dans le cas de la symétrie, i.e. telle que φ(v) = v et φ(w) = −w .

I Id et rotation. Alors φ est une rotation d’axe D.


II Id et symétrie. On a φ(u) = u, φ(v) = v et φ(w) = −w. Donc φ est une symétrie par rapport
au plan engendré par {u, v}, aussi appelée réflexion pour préciser que dim E1 = 2
III −Id et rotation. Alors φ est une anti-rotation. C’est la composée d’une rotation d’axe D
et d’une réflexion par rapport à P .
IV −Id et symétrie. On a φ(u) = −u, φ(v) = v et φ(w) = −w. Donc φ est une symétrie
centrale dans le plan engendré par {u, w}, ou encore une rotation d’angle π, d’axe D0 , la
droite engendrée par v. Comme φ laisse invariant v, c’est une symétrie par rapport à D0 , ou
une rotation d’angle π ou encore un demi-tour.

Une réflexion est une anti-rotation d’angle nul, et un demi-tour est une rotation d’angle π. Ces
4 catégories se réduisent à 2, ayant chacune 2 cas particuliers ;

– Les isométries positives : les rotations dont l’identité et les demi-tours,


– les isométries négatives : les anti-rotations dont la symétrie centrale et les réflexions.
31

2.3.2 Matrices orthogonales

De la classification précédente il découle que dans une base orthonormée bien choisie, φ a une
matrice d’un des 2 types :
 
1 0 0  (
θ = 0, φ = Id ;
 
− 
0 cos θ − sin θ , rotation, cas particuliers :
θ = π, φ est un demi-tour.

 
0 sin θ cos θ
 
−1 0 0  (
θ = 0, φ est une réflexion
 
−
0 cos θ − sin θ , anti-rotation, cas particuliers :
  θ = π, φ = −Id
0 sin θ cos θ

Remarques:

– Le produit de deux isométries positives étant positif, le produit de 2 rotations est une rota-
tion... etc
– Si on échange l’ordre des deux derniers vecteurs de base, θ est changé en son opposé. Si
θ ∈ ] − π, π], alors |θ| est l’angle de la rotation ou de l’anti-rotation correspondante.
– Il n’y a pas de Relation de Chasles pour les angles de rotation en dimension 3.

En général une matrice orthogonale ne se présente pas sous cette forme. Pour montrer qu’une
matrice A est orthogonale on peut soit vérifier que les colonnes forment une base orthonormée
de R3 , soit les lignes, soit que AT A = I3 .
Pour une matrice A ∈ O(3) on peut déterminer les caractéristiques de l’isométrie associée φ,
selon le signe de dét A et la valeur de TrA.
Rappelons que Trφ = TrA, la trace de A, i.e., la somme de ses éléments diagonaux, est aussi
la somme des valeurs propres (dans C) de A ou de φ et ne dépend pas de la base.
− dét A = 1 ⇐⇒ A ∈ O+ (3) : φ est une rotation d’angle θ tel que 1 + 2 cos θ = trA.
Cas particuliers : si TrA = 3, φ = Id et si TrA = −1, φ est un demi-tour.
− dét A = −1 ⇐⇒ A ∈ O− (3) : φ est une anti-rotation d’angle θ tel que −1 + 2 cos θ = trA.
Cas particuliers : si TrA = 1, φ est une réflexion et si TrA = −3, φ = −Id.
32

2.4 Produit vectoriel

Un espace euclidien de dimension 3 peut être orienté par le choix d’une base de référence. Dans
R3 on choisit la base canonique. On peut alors définir le déterminant de trois vecteurs comme
étant celui calculé dans une base orthonormée directe quelconque.
Soit u et v deux vecteurs. L’application L définie sur R3 par

w −→ L(w) = dét (u, v, w)

est une forme linéaire. Il existe donc un vecteur φ(u, v) tel que L(w) = φ(u, v) · w. On note
φ(u, v) = u ∧ v d’où la formule

∀u, v, w ∈ R3 , (u ∧ v) · w = dét (u, v, w).z

Définition: L’application de R3 ×R3 dans R3 qui à (u, v) associe u∧v est le produit vectoriel.
Le vecteur u ∧ v est le produit vectoriel de u et v.

Des propriétés du déterminant et de la définition on déduit :

– u et v sont colinéaires ⇐⇒ u ∧ v = 0,
– le produit vectoriel est une application bilinéaire alternée, i.e. u ∧ v = −v ∧ u,
– (u ∧ v) · w = (v ∧ w) · u = (w ∧ u) · v.

La dernière identité justifie la terminologie de produit mixte pour désigner le déterminant de


trois vecteurs.

Proposition 2.5. Si u et v ne sont pas colinéaires, u ∧ v est l’unique vecteur x

N orthogonal à u et v,
I de norme kukkvk sin α où α est la mesure de l’angle géométrique (d
u, v),
H et tel que (u, v, x) soit une base directe.

Démonstration. Ces propriétés définissent un vecteur unique. En effet les vecteurs u et v en-
gendrent un plan Π et la première condition implique x ∈ Π⊥ . La norme de x étant fixée, il
reste deux vecteurs possibles opposés, et la dernière condition en détermine un des deux.

Montrons que u ∧ v a les propriétés requises.


N On a (u ∧ v) · u = dét(u, v, u) = 0 et de même (u ∧ v) · v = 0. Donc u ∧ v ∈ {u, v}⊥ .
I Soit y = u/kuk ; soit z ∈ Π tel que z · v > 0 et {y, z} est une base orthonormée ; soit w
tel que (y, z, w) soit une base orthonormée directe B 0 . Comme u ∧ v ∈ Π⊥ , u ∧ v et w, sont
33

colinéaires et ku ∧ vk = |(u ∧ v) · w| = dét(u, v, w) . Calculons ce déterminant dans B 0 . Les
composantes de u dans B 0 sont kuk, 0, 0 et celles de w sont (0, 0, 1). Par définition de α, y et

p
w, on a |v · y| = kvk| cos α| et v · w = 0. D’où |v · z| = kvk2 − (v · y)2 − (v · w)2 = kvk sin α.
On a donc

kuk ± kvk cos α 0


dét (u, v, w) = 0
± kvk sin α 0 , d’où ku ∧ vk = dét (u, v, w) = kukkvk sin α.

0 0 1

H On a dét(u, v, u ∧ v) = (u ∧ v) · (u ∧ v) > 0. Donc (u, v, u ∧ v) est une base directe.

Remarques :
− Si u · v = 0 et kuk = kvk = 1 alors (u, v, u ∧ v) est une base orthonormée directe.
− Si on change l’orientation de l’espace, le produit vectoriel est changé en son opposé.

Proposition 2.6. Soit u et v deux vecteurs de coordonnées (u1 , u2 , u3 ) et (v1 , v2 , v3 ) dans une
base orthonormée directe (e1 , e2 , e3 ). Alors les coordonnées de u ∧ v sont données par

(u ∧ v)1 = u2 v3 − u3 v2 , (u ∧ v)2 = u3 v1 − u1 v3 et (u ∧ v)3 = u1 v2 − u2 v1 .

Démonstration. Par définition de u ∧ v,

dét (u, v, w) = (u ∧ v)1 w1 + (u ∧ v)2 w2 + (u ∧ v)3 w3 .

En développant le déterminant par rapport à la dernière colonne on obtient




u1 v1 w1














u2 v2 u1 v1 u1 v1
u v w = × w1 − × w2 + × w3 .

2 2 2
u3 v3 u3 v3 u2 v2

u3 v3 w3

Il suffit d’identifier les coefficients de w1 , w2 , w3 dans les deux équations.


     
 u1   v1   ∆1 
     
Pour calculer u ∧ v on écrit  u  ∧  v  =  −∆
 2   2   2
 où chaque ∆i est le déterminant

     
u3 v3 ∆3
2, 2 obtenu en cachant la ligne i, dans la matrice 3,2 des composantes de u et v. Comme si on
développait un déterminant 3, 3 par rapport à la troisième colonne.
34

2.5 Formes quadratiques

Le formalisme est le même qu’en dimension 2 : à une forme quadratique Q sur R3 sont associés
une forme bilinéaire symétrique Φ, un opérateur autoadjoint φ et enfin M sa matrice dans la
base canonique.
Les différences sont au niveau de la classification et des calculs. A noter que si Q est une forme
quadratique non dégénérée, alors l’orthogonal, relativement à Q, d’un vecteur est un plan et
non plus une droite.

2.5.1 Orthogonalité

En dimension 2, nous avons vu deux démonstrations de l’existence d’une base orthogonale


pour une forme quadratique donnée. Celle utilisant la diagonalisation des endomorphismes
autoadjoints reste valable et permet une diagonalisation simultanée. L’autre démonstration,
plus élémentaire, permet d’illustrer l’utilisation du principle de récurrence sur la dimension.

Proposition 2.7. Toute forme quadratique sur R3 admet une base orthogonale.

Démonstration. On suppose Q 6= 0 et on choisit u ∈ R3 tel que Q(u) 6= 0. Donc Φ(u, .)


est une forme linéaire non nulle. Son noyau est un plan Π orthogonal à u pour Q. Comme
Q(u) = Φ(u, u) 6= 0, u ∈
/ Π de sorte que Π et Vect{u} sont supplémentaires. La restriction de
Q à Π est une forme quadratique qui admet une base orthogonale v, w. Donc {u, v, w} est une
base orthogonale pour Q.

Proposition 2.8. Toute forme quadratique sur R3 admet une base orthogonale B, qui est
orthonormée pour la forme quadratique standard.

La démonstration de la dimension 2 reste valable. A noter que la recherche de la base donnant la


diagonalisation simultanée necessite recherche de valeurs propres en dimension 3. En revanche
la recherche d’une base orthogonale quelconque est un problème linéaire.

2.5.2 Classification

Comme en dimension 2 une forme quadratique Q peut avoir plusieurs comportements mais la
variété est plus grande en dimension 3. La classification des formes quadratiques repose à nou-
veau sur la notion de signature. Pour que celle-ci soit bien définie il faut vérifier que toutes les
35

décompositions en carrés d’une forme quadratique donnée ont même nombre de termes positifs
et de termes négatifs. Ces nombres (p, q) constituent la signature.

Définition: Une décomposition en carrés d’une forme quadratique Q sur R3 est une
X 2
expression de la forme Q(u) = ± Li (u) où les Li ’s sont des formes linéaires indépen-
i
dantes.

La condition d’indépendance limite leur nombre à 3. En effet chaque Li peut s’écrire sous la
forme Li (u) = fi · u de sorte que l’indépendance des Li équivaut à celles des fi .
Soit B = (e1 , e2 , e3 ) une base orthonormée dans laquelle Q se diagonalise. Si u1 , u2 , u3 désignent
les composantes de u dans B on a

Q(u) = λ1 u1 2 + λ2 u2 2 + λ3 u23 .

Donc toute forme quadratique admet au moins une décomposition en carrés. L’algorithme de
Gauss fournira un moyen plus simple d’en obtenir.
X X
Soit Q(u) = (fi · u)2 − (fj · u)2 une décomposition en carrés, I et J étant deux parties
i∈I j ∈J
disjointes de {1, 2, 3}. Nous voulons montrer que ]I ne dépend que de Q et pas de la décompo-
sition en carrés choisie.
− Si ]I + ]J = 3 alors {fi , i ∈ I} ∪ {fj , j ∈ J} forment une base. Soit F+ = Vect{fi , i ∈ I}
et F− = Vect{fj , j ∈ J}. La restriction de Q à F+ est positive et ne s’annule qu’en 0 tandis
que la restriction de Q à F− est négative ou nulle. De plus dim F+ + dim F− = 3.
Réciproquement soit G un sous-espace tel que la restriction de Q à G soit négative ou nulle.
Alors G ∩ F+ = {0} d’où dim G ≤ 3 − dim F+ . Donc

dim F+ = 3 − sup dim G


G

le sup étant pris sur les sous-espaces tels que Q|G ≤ 0, et étant atteint pour G = F− . Cette
caractérisation de dim F+ = ]I ne dépend que de Q et non de la décomposition en carrés.
⊥
− Si ]I + ]J < 3 on pose H = Vect{fi , i ∈ I} ∪ {fj , j ∈ J} et on note {fk , k ∈ K} une
base de H. Il suffit de remplacer F− = Vect{fj , j ∈ J} par

F0− = Vect{fj , j ∈ J} + Vect{fk , k ∈ K}

et la démonstration est identique.


La cas de ]J est analogue, ce qui permet de définir la signature comme en dimension 2.
36

2.5.2.1 Algorithme de Gauss

L’algorithme de Gauss se déroule comme en dimension 2. Repérer un carré et éliminer la variable


correspondante. S’il n’y a que des produits éliminer les deux variables correspondantes puis faire
apparaître les carrés.
Exemples : − Q(x, y, z) = x2 + xy + y 2 + 2xz + 2yz. Comme x2 apparaît dans la somme on
isole les termes où x est présent soit x2 + xy + 2xz. On écrit alors

2
 y 2  y 2
x + xy + 2xz = x + + z − +z .
2 2
 y 2  y 2
D’où x2 + xy + y 2 + 2xz + 2yz = x + + z − + z + y 2 + 2yz.
2 2
y y 2
e z) = −
On peut donc poser L1 (x, y, z) = x + + z, Q(y, + z + y 2 + 2yz et on a
2 2
2
Q(x, y, z) = L1 (x, y, z) + Q(y,
e z)

e est une forme quadratique sur R2 qui se décompose en carrés.


où Q
− Q(x, y, z) = xy + 2xz + 3yz. Comme aucun carré n’apparaît on « complète le produit » au
lieu de compléter le carré comme précédemment. En x on a x(y + 2z) et en y on a y(x + 3z).
Si on fait le produit (x + 3z)(y + 2z) on obtient

(x + 3z)(y + 2z) = xy + 2xz + 3yz + 6z 2 d’où Q(x, y, z) = (x + 3z)(y + 2z) − 6z 2 .

(s + t)2 − (s − t)2
En utilisant la formule st = on obtient
4
(x + y + 5z)2 − (x − y + z)2
Q(x, y, z) = − 6z 2 .
4

2.5.2.2 Critère de Sylvester

Pour certaines formes quadratiques, il n’est pas nécessaire de les décomposer en carrés pour
déterminer leur signature.
Définition: Soit M = (ai,j )1≤i,j≤n une matrice carrée et pour tout 1 ≤ k ≤ n soit Mk la
matrice (ai,j )1≤i,j≤k . Les mineurs principaux de M sont les déterminants ∆k = dét Mk pour
1 ≤ k ≤ n.

a1,1 a1,2
En dimension 3 une matrice carrée M = (ai,j )1≤i,j≤3 a trois mineurs principaux : a1,1 ,


a
2,1 a2,2


et dét M .

Critère de Sylvester. Soit M une matrice symétrique 3, 3. Elle est définie positive ssi
37

∆1 > 0, ∆2 > 0 et ∆3 > 0.

Démonstration. =⇒ Si M est définie positive, ses valeurs propres sont strictement positives
et donc dét M > 0. Ses cœfficients diagonaux sont strictement positifs d’où a1,1 > 0. Enfin la

sous-matrice M2 est la matrice de la restriction de Q au plan Vect c1 , c2 . Comme Q est définie
positive, sa restriction aussi et ∆2 > 0.

⇐= Si ∆1 = a1,1 > 0 et ∆2 > 0, la restriction de Q au plan Vect c1 , c2 est définie positive.
Donc si σ(Q) = (p, q) alors p ≥ 2. D’où

∆3 = 0 =⇒ σ(Q) = (2, 0), ∆3 < 0 =⇒ σ(Q) = (2, 1), et ∆3 > 0 =⇒ σ(Q) = (3, 0).

D’où le résultat.

2.6 Espaces euclidiens

Un espace vectoriel est euclidien s’il est muni d’un produit scalaire i.e. une forme bilinéaire
symétrique définie positive.
Le seul point pratique qui change par rapport à la dimension 2 est l’algorithme de Gram-
Schmidt qui comporte une étape de plus.
La notation u · v représente un produit scalaire quelconque.

Algorithme de Gram-Schmidt. Soit {u, v, w} une base d’un espace vectoriel euclidien (E, ·).
Il existe une base orthonormée unique {u1 , u2 , u3 } de E telle que u1 ∈ Vect{u}, u2 ∈ Vect{u, v}
u1 · u > 0, u2 · v > 0 et u3 · w > 0.

1 1
Démonstration. Comme en dimension 2 on pose u1 = u, U2 = v − v · u1 u1 et u2 = U2 .
kuk U2
1
On complète en posant U3 = w − w · u1 u1 − w · u2 u2 et u3 = U3 U3 . Par construction

U3 · u1 = U3 · u2 = 0 donc u3 est colinéaire à U3 . Enfin U3 · w = kwk2 − (w · u1 )2 − (w · u2 )2 > 0


d’où u3 · w > 0.

On peut être tenté de trouver des bases orthonormées en utilisant le produit vectoriel.
1 1
Partant de u1 = u, on enchaîne avec u3 = u1 ∧ v et on conclut avec u2 = ±u3 ∧ u1
kuk ku1 ∧ vk
selon que (u, v, w) est une base directe ou non.
La faiblesse de cette méthode est qu’elle suppose de travailler en coordonnées sur une base or-
thonormée pour pouvoir exprimer le produit vectoriel. En revanche Gram-Schmidt s’applique
38

sans préalable.

Comme en dimension 2, l’existence de bases orthonormées dans les espaces euclidiens de di-
mension 3 font qu’ils sont tous isométriques. Donc on peut toujours se ramener à R3 . Le seul
éceuil est que si on est sur R3 muni d’une structure euclidienne non standard, la base canonique
n’est pas orthonormée.
Chapitre 3

Dimension n

3.1 Dualité

Définition: Une forme linéaire sur un espace vectoriel réel E est une application linéaire de
E dans R.

Définition: Soit E un espace vectoriel. Son espace dual, noté E ∗ , est l’espace vectoriel des
formes linéaires sur E.
n
X
Soit B = (ei )1≤i≤n une base de E. Tout x ∈ E s’écrit de façon unique sous la forme x = xi ei
i=1
où les xi sont les composantes de x dans B. Pour tout i l’application x −→ xi est une forme
linéaire notée e∗i .
Pour j fixé e∗i (ej ) est la composante de ej sur ei , donc e∗i (ej ) = 0 si i 6= j et e∗i (ej ) = 1 si i = j.

Soit e∗i (ej ) = δi,j .


n
e∗i (x)ei .
X
Identité Fondamentale (IF) : ∀ x ∈ E, x =
i=1

Théorème 3.1. Soit B = (ei )1≤i≤n une base de E. Alors B ∗ = (e∗i )1≤i≤n est une base de E ∗ .

Définition: La base B ∗ est la base duale de B.

Démonstration. Il suffit de montrer que toute forme linéaire f il existe une combinaison linéaire
n
λi e∗i égale à f .
X
unique
i=1
− Existence. Soit f ∈ E ∗ . Pour tout x ∈ E de composantes (xi )1≤i≤n ,
n
! n n
e∗i (x)f (ei ).
X X X
f (x) = f xi e i = xi f (ei ) =
i=1 i=1 i=1

39
40

n
f (ei ) e∗i , d’où le résultat.
X
Le vecteur x étant quelconque f =
i=1
n
λi e∗i = f . Pour tout j,
X
n
− Unicité. Soit (λi )1≤i≤n ∈ R tel que
i=1
n n
λi e∗i (ej ) =
X X
z f (ej ) = λi δi,j = λj . D’où l’unicité.
i=1 i=1

Corollaire 3.1. Si E est un espace vectoriel de dimension finie, dim E = dim E ∗ .

Proposition 3.1. Soit Be et Bg deux bases. Soit P la matrice de passage de Be à Bg . Soit Q


la matrice de passage de Be∗ à Bg∗ . Alors Q = (P T )−1 .
n
Démonstration. Soit x ∈ E et f ∈ E ∗ . Dans la base Be = (ei )1≤i≤n on a x =
X
xi ei et
i=1
n
X 
f (x) = xi f (ei ). On note X le vecteur colonne des xi . De même, comme f (ei ) 1≤i≤n sont
i=1
les composantes de f dans la base Be∗ , on note Y leur vecteur colonne. D’où
n
X
f (x) = xi f (ei ) = Y T X.
i=1

Dans la base Bg on obtient de même f (x) = Y 0 T X 0 , d’où l’identité Y T X = Y 0 T X 0 . Comme


X = P X 0 on a Y T P X 0 = Y 0 T X 0 soit Y T P = Y 0 T . Finalement
−1
Y TP = Y 0T =⇒ P T Y = Y 0 =⇒ Y = P T Y0

D’où Q = (P T )−1 .

3.1.1 Orthogonalité

Définition: Un vecteur x ∈ E et une forme linéaire f ∈ E ∗ sont orthogonaux si f (x) = 0.


Définition: Pour A ⊆ E on note A⊥ l’orthogonal de A i.e. l’ensemble des formes linéaires
nulles sur A.

Soit f ∈ A⊥ ⇐⇒ ∀x ∈ A, f (x) = 0.
Par linéarité on voit que A⊥ est un s.e.v. de E ∗ et que, si F = VectA, alors F ⊥ = A⊥ .
De plus A ⊆ B =⇒ A⊥ ⊇ B ⊥ .

Théorème 3.2. Soit F un sous-espace de E. Alors dim F + dim F ⊥ = dim E.

Démonstration. Soit k = dim F et B = (ei )1≤i≤n une base de E telle que (ei )1≤i≤k soit une base
de F et soit (e∗i )1≤i≤n sa base duale. Alors e∗j , j > k est une famille libre qui engendre un

41

espace de dimension n − k. Il suffit donc de montrer que F ⊥ = Vect{e∗j , j > k}.


n
∗ f (ei )e∗i . Donc
X
Pour f ∈ E on a f =
i=1

f ∈ F⊥ ⇐⇒ ∀1 ≤ i ≤ k, f (ei ) = 0 ⇐⇒ f ∈ Vect{e∗j , j > k}.

D’où le résultat.

Proposition 3.2. Soit F et G deux s.e.v. d’un espace vectoriel E. Alors

N (F + G)⊥ = F ⊥ ∩ G⊥ et H (F ∩ G)⊥ = F ⊥ + G⊥ .

Démonstration. N ⊆ On a F ⊆ F + G =⇒ (F + G)⊥ ⊆ F ⊥ . Par symétrie (F + G)⊥ ⊆ F ⊥ ∩ G⊥ .


⊇ Soit f ∈ F ⊥ ∩ G⊥ . Par linéarité f (x) = 0 pour x ∈ F + G. Donc f ∈ (F + G)⊥ . Finalement
F ⊥ ∩ G⊥ ⊆ (F + G)⊥ , d’où l’égalité.
H ⊇ On a F ∩ G ⊆ F =⇒ (F ∩ G)⊥ ⊇ F ⊥ . De même (F ∩ G)⊥ ⊇ G⊥ . Comme (F ∩ G)⊥ est
un s.e.v. (F ∩ G)⊥ ⊇ F ⊥ + G⊥ .
⊆ D’après la première inclusion, il suffit de montrer que dim(F ∩ G)⊥ = dim(F ⊥ + G⊥ ). Or

dim(F ⊥ + G⊥ ) + dim(F ⊥ ∩ G⊥ ) = dim F ⊥ + dim G⊥

= 2 dim E − dim F − dim G

= 2 dim E − dim(F + G) − dim(F ∩ G)

= dim(F + G)⊥ + dim(F ∩ G)⊥

Comme F ⊥ ∩ G⊥ = (F + G)⊥ on a bien dim(F ∩ G)⊥ = dim(F ⊥ + G⊥ ).

3.2 Formes bilinéaires

Soit E un espace vectoriel sur R et n = dim E.


Définition: Une forme bilinéaire symétrique est une application Φ : E × E −→ R tq
− ∀(x, y) ∈ E × E, Φ(x, y) = Φ(y, x)
− ∀x ∈ E, l’application Φ(x, ·) E −→ R qui à y ∈ E associe Φ(x, y), est une forme linéaire.

Soit η : E −→ E ∗ l’application qui à x associe la forme linéaire Φ(x, ·). La précédente définition
implique que η est une application linéaire.

Définition: Le noyau d’une forme bilinéaire symétrique Φ est le noyau de l’application η


42

associée i.e. x ∈ KerΦ ⇐⇒ ∀y ∈ E, Φ(x, y) = 0.


Définition: Une forme bilinéaire symétrique Φ est non-dégénérée si KerΦ = {0}.

Si Φ est non-dégénérée, l’application η associée est injective, donc bijective.

Définition: Une forme bilinéaire symétrique Φ est un produit scalaire si

∀x ∈ E \ {0}, Φ(x, x) > 0.z

Il découle de la définition qu’un produit scalaire est non dégénéré.

Les différences entre les dimensions 2 et 3 ou n sont minces pour ce qui est des définitions
et des résultats. Pour les algorithmes, Gram-Schmidt, Gauss, Sylvester, seule la complexité
augmente. Pour les démonstrations la différence est plus nette et il faut changer de méthode,
par exemple pour la diagonalisation des endomorphismes autoadjoints ou la représentation des
matrices orthogonales.
Il faut aussi des notations adaptées à la dimension n. Lorsqu’un espace vectoriel E de dimension
n est muni d’une base B = (ei )1≤i≤n on note les vecteurs par des lettres simples x, y et leurs
composantes sous la forme (xi )1≤i≤n ou (yi )1≤i≤n . Les vecteurs colonnes de leurs composantes
sont notés X ou Y et les vecteurs lignes correspondants sont notés X T ou Y T . Si Φ est une
forme bilinéaire symétrique, alors pour tous x, y ∈ E,
n n
!
X X X X
Φ(x, y) = Φ xi ei , yj ej = Φ (xi ei , yj ej ) = xi yj Φ (ei , ej ) .
i=1 j=1 1≤i,j≤n 1≤i,j≤n

Soit A la matrice, symétrique, de terme général ai,j = Φ (ei , ej ). Alors


X
Φ(x, y) = xi yj ai,j = X T AY = Y T AX.
1≤i,j≤n

Cette matrice A est la matrice de Φ dans la base B.

3.2.1 Orthogonalité

Définition: Deux vecteurs x, y de E sont orthogonaux relativement à une forme bilinéaire


symétrique Φ si Φ(x, y) = 0.
Il faut avoir un symbole pour distinguer l’orthogonalité sur E ×E ∗ et l’orthogonalité sur E ×E.

Définition: Pour A ⊆ E, A| = x ∈ E tq ∀y ∈ A, Φ(x, y) = 0 est l’orthogonal de A.

x ∈ A| ⇐⇒ η(x) ∈ A⊥ ou encore A| = η −1 A⊥ .

En d’autres termes

Si η est une bijection, i.e. si Φ est non dégénérée, alors η préserve la dimension des sous-espaces
43

et les résultats sur la dimension et l’orthogonalité vus dans le cadre de la dualité restent valables.

Il suffit de remplacer par | . Passons au cas général.

Proposition 3.3. Soit Φ une forme bilinéaire symétrique et η : E −→ E ∗ l’application asso-


ciée. Alors Imη = (Kerη)⊥ .

Démonstration. ⊆ Soit f ∈ Imη et x ∈ E tel que η(x) = f i.e. ∀y ∈ E, f (y) = Φ(x, y). Si
y ∈ KerΦ alors Φ(x, y) = 0 soit f (y) = 0. Comme y est quelconque dans KerΦ, on en déduit
f ∈ (KerΦ)⊥ ou f ∈ (Kerη)⊥ par définition. On a donc montré Imη ⊆ (Kerη)⊥ .
L’inclusion réciproque découle de dim Imη = n − dim Kerη = dim(Kerη)⊥ .

Théorème 3.3. Soit F un sous-espace de E. Alors dim F | = n − dim F + dim F ∩ KerΦ.

Démonstration. Pour tout application linéaire φ et G un sous-espace de l’espace d’arrivée on a

dim φ−1 (G) = dim G ∩ Imφ + dim Kerφ,




Comme F | = η −1 F ⊥ on en déduit


dim F | = dim η −1 F ⊥ = dim F ⊥ ∩ Imη + dim Kerη


 

⊥
D’après la proposition précédente F ⊥ ∩ Imη = F + Kerη d’où

dim F ⊥ ∩ Imη = n − dim F + Kerη = n − dim F − dim Kerη + dim F ∩ Kerη .


  

Finalement dim F | = dim F ⊥ ∩ Imη + dim Kerη = n − dim F + dim F ∩ Kerη .


 

Proposition 3.4. Soit F et G deux s.e.v. de E.

N F | ∩ G| = (F + G)| et H F | + G| ⊆ (F ∩ G)| .

Démonstration. N Il est clair que (F + G)| ⊆ F | et (F + G)| ⊆ G| d’où (F + G)| ⊆ F | ∩ G| .


Réciproquement si x ∈ F | ∩ G| , Φ(x, y) s’annule pour tout y ∈ F ∪ G. Par linéarité x ∈
(F + G)| . D’où l’égalité.
H On a clairement F | ⊆ (F ∩ G)| et G| ⊆ (F ∩ G)| d’où F | + G| ⊆ (F ∩ G)| .

Bien que l’orthogonalité soit surtout utilisée lorsque la forme bilinéaire est non dégénérée, il est
44

instructif de voir à quelle condition l’inclusion réciproque de H est vraie. On note K = Kerη.

dim F | + G| = dim F | + dim G| − dim F | ∩ G|


 

= dim F | + dim G| − dim(F + G)|


 
= n − dim F + dim(F ∩ K) + n − dim G + dim(G ∩ K)

z − n − dim(F + G) + dim((F + G) ∩ K)

= n − dim(F ∩ G) + dim(F ∩ K) + dim(G ∩ K) − dim (F + G) ∩ K


D’autre part dim(F ∩ G)| = n − dim(F ∩ G) + dim (F ∩ G) ∩ K .

L’égalité F | + G| = (F ∩ G)| est vraie ssi


   
dim F ∩ K + dim G ∩ K − dim (F + G) ∩ K = dim (F ∩ G) ∩ K

soit (F ∩ K) + (G ∩ K) = (F + G) ∩ K.

Ceci est faux lorsque F, G et K sont trois s.e.v. quelconques.

Définition: Une base (ei )1≤i≤n est orthogonale pour une forme bilinéaire symétrique Φ si
Φ(ei , ej ) = 0 pour i 6= j.
L’existence de bases orthogonales pour une forme bilinéaire donnée se montre par récurrence à
partir du fait suivant. Soit Φ une forme bilinéaire symétrique. Si Φ 6= 0, il existe x ∈ E tel que
/ x| . Il en découle que Vect{x} et x| sont supplémentaires. L’hypothèse
Φ(x, x) 6= 0, soit x ∈
de récurrence donne une base orthogonale de x| , qu’on peut compléter par {x} pour avoir une
base orthogonale de E. Si A est la matrice de Φ dans une base B = (ei )1≤i≤n alors

B est orthogonale pour Φ ⇐⇒ ∀i 6= j, Φ(ei , ej ) = 0 ⇐⇒ A est diagonale.

3.3 Espaces euclidiens

Définition: Un espace vectoriel E est euclidien s’il est muni d’un produit scalaire.

Le produit scalaire de deux vecteurs x, y est souvent noté x · y et cette notation est réservée aux
produits scalaires. Lorsqu’il y en a plusieurs on note aussi Φ(x, y) ou Ψ(x, y) mais ces notations
sont aussi utilisées pour des formes bilinéaires symétriques quelconques.

A coté de Rn muni de sa structure standard, les exemples les plus courants d’espaces euclidiens
sont des espaces de polynômes. Soit En l’espace vectoriel, de dimension n + 1, des polynômes
45

de degré au plus n, et f une fonction continue positive sur un intervalle ]a, b[ . On peut définir
un produit scalaire en posant
Z b
Φ(P, Q) = P (t)Q(t) f (t) dt.
a

Soit · un produit scalaire sur E. D’après ce que l’on vient de voir il existe des bases orthogonales
sur E. Soit (ei )1≤i≤n une telle base. Comme ei · ei > 0 pour tout i on peut poser
 2
1 1
e0i =√ ei de sorte que e0i · e0i = √ ei · ei = 1.
ei · ei ei · ei

En d’autres termes les e0i sont unitaires et B 0 = (e0i )1≤i≤n est une base orthonormée. Par défini-
tion d’une base orthonormée ei · ej = δi,j . La matrice A de Φ dans une base orthonormée est
donc A = In . D’où l’écriture du produit scalaire sous forme matricielle :

Φ(x, y) = X T Y .

Soit B = (ei )1≤i≤n une base orthonormée. Sa base duale (e∗i )1≤i≤n prend une forme particulière :
n
e∗i (x) = x · ei
X
∀x ∈ E, x = (x · ei )ei soit ∀1 ≤ i ≤ n,
i=1

n
X
Démonstration. Pour l’égalité de gauche soit x ∈ E et y = (x · ei )ei . Pour 1 ≤ j ≤ n,
i=1

n
X n
X
y · ej = (x · ei )ei · ej = (x · ei )δi,j = x · ej .
i=1 i=1
n
X
Donc (y − x) · ej = 0 pour 1 ≤ j ≤ n. Comme B est une base, y − x = 0 i.e. x = (x · ei )ei .
i=1

L’égalité de droite découle de la définition d’une base duale. Elle établit un isomorphisme entre
E ∗ et E. En conséquence, sur un espace euclidien une forme linéaire est écrite sous la forme
x −→ u · x avec u ∈ E plutôt que x −→ f (x) avec f ∈ E ∗ . Il n’y a donc pas lieu d’avoir deux
symboles pour distinguer l’orthogonalité relativement à Φ et celle sur E × E ∗ . On emploie ⊥

|
dans les deux cas et on réserve au cas où une seconde forme bilinéaire apparaît.

Une conséquence de cette formule est une nouvelle expression des éléments de la matrice d’un
n
e∗i φ(ej ) ei
X 
endomorphisme. Si A = (ai,j ) est la matrice d’un endomorphisme φ on a φ(ej ) =
i=1
de sorte que ai,j = e∗i φ(ej ) . Si B = (ei )1≤i≤n est une base orthonormée, on peut écrire


ai,j = ei · φ(ej ).
46

n
X
Exemple : Soit B = (ei )1≤i≤n une base orthonormée et u = ui ei un vecteur unitaire. Soit
i=1
πu la projection orthogonale sur Vect{u} et A = (ai,j ) sa matrice dans B. Alors

∀x ∈ E, πu (x) = (x · u) u, z


d’où ai,j = ei · πu (ej ) = ei · (ej · u)u = (ej · u)(ei · u) = uj ui .
ui uj
Si u n’est pas unitaire on normalise, ce qui donne ai,j = .
kuk2

3.3.1 Endomorphismes autoadjoints

Soit E un espace vectoriel et φ un endomorphisme de E. Son adjoint φ∗ : E ∗ −→ E ∗ est défini

∀x ∈ E, ∀f ∈ E ∗ , φ∗ (f ) (x) = f φ(x) .
 
en posant

Dans le cadre d’un espace euclidien (E, ·) cette définition est adaptée en posant

∀x, y ∈ E, φ∗ (y) · x = y · φ(x).z

Soit B = (ei )1≤i≤n une base de E et M , A et B les matrices de ·, φ et φ∗ dans B. Alors

∀x, y ∈ E, y · φ(x) = Y T M AX et φ∗ (y) · x = Y T B T M X.z

Par identification il vient M A = B T M soit B T = M AM −1 d’où B = M −1 AT M car M = M T .


Si B est une base orthonormée M = In et B = AT , ce qui découle aussi de

ai,j = ei · φ(ej ) = ej · φ∗ (ei ) = bj,i .

Définition: Un endormorphisme φ sur un espace euclidien est autoadjoint si φ = φ∗ .


L’identité précédente montre qu’un endomorphisme est autoadjoint ssi sa matrice dans une
base orthonormée est symétrique.
D’après la définition, un endomorphisme autoadjoint définit une forme bilinéaire symétrique.

Il suffit de poser ∀x, y ∈ E, Φ(x, y) = y · φ(x).

Réciproquement la même équation permet d’associer un endomorphisme autoadjoint à une


forme bilinéaire symétrique.
Si A, B et M sont les matrices de Φ, φ et · dans une base B = (ei )1≤i≤n alors

∀x, y ∈ E, Φ(x, y) = Y T AX et y · φ(x) = Y T M BX, z

de sorte que A = M B. Si B est orthonormée, et seulement dans ce cas, M = In et A = B.


47

Théorème 3.4. Un endomorphisme autoadjoint sur un espace euclidien admet une base propre
orthonormée.

Démonstration. Soit φ un endomorphisme autoadjoint. Quitte à remplacer φ par φ + cId avec


c > 0, on peut supposer que l’application f : u −→ u · φ(u) est positive sur E. Elle est

différentiable, homogène de degré 2. Sa restriction fe à la sphère unité u ∈ E, kuk = 1
atteint son minimum m ≥ 0 en un vecteur w.
Procédons par récurrence sur dim E. Pour dim E = 1 il n’y a rien à démontrer. Pour réduire la
dimension d’une unité nous allons montrer que

N w est un vecteur propre de φ,


H L’hyperplan w⊥ est stable par φ. L’hypothèse de récurrence s’appliquera sur w⊥ .

N Soit H = w+w⊥ = {u ∈ E, u = w+v, v ∈ w⊥ }. Pour tout u ∈ H, kuk2 = kvk2 +kwk2 ≥ 1.


Donc f (u) = kuk2 f u/kuk ≥ mkuk2 ≥ m car m ≥ 0. Or pour tout v ∈ w⊥ et t ∈ R



f (w + tv) = (w + tv) · φ(w + tv) = f (w) + t v · φ(w) + w · φ(v) + t2 f (v).

D’après le choix de w, pour tout v ∈ F ⊥ et t ∈ R, on a f (w +tv) ≥ f (w). Donc t −→ f (w +tv)


atteint son minimum en t = 0. En dérivant en t = 0 il vient

∀v ∈ w⊥ , v · φ(w) + w · φ(v) = 0.z

Comme v · φ(w) = w · φ(v), on a v · φ(w) = 0. On a donc montré que v · w = 0 =⇒ v · φ(w) = 0.


⊥
Donc w⊥ ⊆ φ(w) . Il en résulte que w et φ(w) sont colinéaires i.e. w est un vecteur propre
de φ, la valeur propre associée étant m.
H L’implication v · w = 0 =⇒ φ(v) · w = 0 montre également que w⊥ est stable par φ.
Passons à la récurrence. Comme w⊥ est stable par φ, la restriction ψ de φ à w⊥ est un endo-
morphisme de w⊥ . De plus

∀x, y ∈ w⊥ x · ψ(y) = x · φ(y) = φ(x) · y = ψ(x) · y.z

Donc ψ est autoadjoint. L’hypothèse de récurrence entraîne que ψ admet une base propre
orthonormée. En complétant cette base de w⊥ par w, on obtient une base orthonormée de E
qui est propre pour φ.

Corollaire 3.2. Une forme bilinéaire symétrique Φ sur un espace euclidien E admet une base
qui est orthogonale, et orthonormée pour la structure euclidienne de E.
48

Démonstration. Soit φ l’endomorphisme autoadjoint associé à Φ. D’après le théorème 3.4 φ


admet une base propre orthonormée B = (ei )1≤i≤n . Soit (λi )1≤i≤n les valeurs propres associées.

Pour i 6= j Φ(ei , ej ) = φ(ei ) · ej = λi × ei · ej = 0,

ce qui montre que B est orthogonale pour Φ.

Corollaire 3.3. Une matrice symétrique réelle se diagonalise sur une base orthonormée de Rn .

Il s’agit plus d’un cas particulier que d’un corollaire. En effet une matrice symétrique A définit
canoniquement un endomorphisme autoadjoint sur Rn : l’application sur les vecteurs colonnes
X −→ AX se traduit par x −→ φ(x) sur Rn .

3.3.2 Isométries

Soit E un espace euclidien de dimension n. L’existence d’un groupe d’isométries découle de


la définition. En revanche la distinction entre isométries positives ou négatives découle de la
notion l’orientation, elle même liée à la théorie des déterminants.
L’existence de bases orthonormées se montre par récurrence sur n. Le groupe O(n) désigne
celui des matrices orthogonales i.e. les matrices d’isoméries dans une base orthonormée. Une
matrice M est orthogonale ssi M T M = In . Ceci signifie que les colonnes sont les coordonnées
d’une base de Rn , orthonormée pour sa structure standard. De même pour les lignes.

Pour avoir une classification plus précise de O(n) s’appuyant sur des matrices types, on peut
utiliser le théorème précédent.

Théorème 3.5. Soit (E, ·) un espace euclidien de dimension n et φ une isométrie sur E.
Il existe deux s.e.v. F et G et des plans Πi , 1 ≤ i ≤ k tous orthogonaux deux à deux tels que

φ|F = IdF , φ|G = −IdG et ∀1 ≤ i ≤ k, φ|Πi est une rotation plane.

Démonstration. Les s.e.v. F et G peuvent être éventuellement réduits à {0}. Sinon, i.e. si 1 et
−1 sont des valeurs propres de φ, ce sont les sous-espaces propres associés. L’espace F ⊕ G est
stable par φ ainsi que son orthogonal H. Comme les seules valeurs propres possibles de φ sont
1 et −1, H ne contient aucun vecteur propre de φ.
On va procéder par récurrence sur dim H. Soit ψ = φ|H . Comme ψ n’a pas de valeurs propres
dim H est paire. Si dim H = 2 l’hypothèse est vérifiée.
49

Pour dim H ≥ 4, posons ζ = ψ+ψ ∗ . C’est un endomorphisme autoadjoint de H, diagonalisable.


Soit u un vecteur propre de ζ associé à une valeur propre λ. On a

ψ ζ(u) = ψ 2 (u) + ψ ◦ ψ ∗ (u) = ψ 2 (u) + u.


 
ψ ζ(u) = ψ(λu) = λψ(u) et

Comme u n’est pas vecteur propre de ψ, u et ψ(u) engendrent un plan Πu . L’identité

λψ(u) = ψ 2 (u) + u soit ψ 2 (u) = λψ(u) − u

montre que Πu est stable par ψ. La restriction de ψ à Πu est une rotation plane car ψ n’a pas
de vecteur propre dans H. L’hypothèse de récurrence appliquée à l’orthogonal de Πu dans H
permet de conclure.

De ce théorème on déduit que toute matrice orthogonale A sur Rn est semblable à une matrice
de deux types, selon que N dét A = 1 ou H dét A = −1. Si n = 4 ces deux types sont
   
 cos α − sin α 0 0   1 0 0 0 
   
 sin α cos α 0 0   0 −1 0 0 
N  H 
   
 
 0
 0 cos β − sin β 

 0 0 cos γ − sin γ 

   
0 0 sin β cos β 0 0 sin γ cos γ

Les valeurs 0 et π pour α, β ou γ correspondent à des cas particuliers. Par exemple si α = 0 et


β = π, φ est une symétrie par rapport à un plan et si γ = 0, φ est une réflexion.

3.3.3 Orthogonalisation de Gram-Schmidt

Le procédé d’orthogonalisation de Gram-Schmidt consiste à associer à une base donnée dans


un espace euclidien une base orthonormée adaptée.

Proposition 3.5. Soit E un espace euclidien et B = (ei )1≤i≤n une base de E. Il existe une
base orthonormée unique B 0 = (ui )1≤i≤n telle que
– ∀ k ≤ n, Vect{ei , i ≤ k} = Vect{ui , i ≤ k},
– ∀ k ≤ n, uk · ek > 0.

e1
Démonstration. Pour tout k on note Ek = Vect{ei , i ≤ k}. Si k = 1, u1 = .
ke1 k
Pour k > 1 on procède par récurrence. Le s.e.v. Ek est un espace euclidien de dimension k,
dont Ek−1 est un hyperplan. Par hypothèse de récurrence (ui )1≤i≤k−1 est une base orthonormée
de Ek−1 .

Soit ∆k la droite Ek ∩Ek−1 i.e. l’orthogonal de Ek−1 dans Ek . On veut uk ∈ ∆k ce qui détermine
50

uk au signe près, lui-même déterminé par la condition uk ·ek > 0. Pour calculer uk on décompose
ek sur Ek−1 ⊕ ∆k soit ek = vk + Uk . En projetant ek orthogonalement sur Ek−1 on obtient
k−1
X k−1
X
vk = (ek · ui ) ui d’où Uk = ek − vk = ek − (ek · ui ) ui .
i=1 i=1

Comme Uk · ek > 0 on obtient uk en normalisant Uk soit uk = Uk /kUk k.


La récurrence est démontrée.

3.3.4 Calculs de distance

Le cadre naturel pour parler de distance est celui des espaces affines : la distance d(A, B) entre
−→
deux points A et B est par définition la longueur du vecteur AB. Un espace vectoriel E a une
structure canonique d’espace affine : il suffit de poser −
→ = y − x.
xy

Définition: Etant donné un produit scalaire Φ et la norme associée k.k, la distance d(u, v)
entre 2 vecteurs u et v est définie par d(u, v) = ku − vk.
Définition: La distance d(u, X) d’un vecteur u à un sous-ensemble X de E est définie par


d(u, X) = inf d(u, x), x ∈ X .

Lorsque X est fermé, le minimum est atteint. Le cas le plus courant est celui où X est un
sous-espace.

Proposition 3.6. Soit F un sous espace de E et πF ⊥ la projection orthogonale sur F ⊥ . Alors



pour tout u ∈ E, d(u, F ) = πF ⊥ (u) .

Démonstration. Soit πF la projection orthogonale sur F . Pour tout u ∈ E, u = πF (u)+πF ⊥ (u).


Si x ∈ F , la décomposition de u − x sur F ⊕ F ⊥ donne

u − x = πF (u) − x + πF ⊥ (u).
2 2
Par Pythagore ku − xk2 = πF (u) − x + πF ⊥ (u) .

Le minimum est atteint lorsque x = πF (u) auquel cas d(u, F ) = ku − xk = πF ⊥ (u) .

On obtient également le lieu où le minimum est atteint, à savoir x = πF (u).


2
u = πF (u) 2 + πF ⊥ (u) 2 ,

En vertu de l’identité

il est indifférent pour le calcul de déterminer πF (u) ou πF ⊥ (u) . Dans les deux cas l’idéal est
de disposer d’une base orthonormée et en général plus la dimension est petite, plus il est facile
51

d’en déterminer une. En effet le seul outil est essentiellement Gram-Schmidt dont la complexité
augmente au moins comme le carré de la dimension.

Exemples
Moyenne et variance Soit x ∈ Rn , x = (x1 , x2 , ..., xn ). Si les xi sont les résultats d’une même
expérience répétée n fois, on souhaite que les xi soient proches. On note X la variable aléatoire
1
définie sur [1, n] par X(i) = xi . On note f1 = (1, 1, ..., 1), e1 = √ f1 et ∆ = Vect{e1 } la
n
n
diagonale principale de R . La distance d(x, ∆) mesure ! la dispersion des!résultats. Le minimum
n n
1 X 1 X
est atteint en π∆ (x) soit en (e1 , x)e1 = √ xi e 1 = xi f1 = µ f1 où µ est la
n i=1 n i=1
moyenne de X. On a alors

2 2 2
d(x, ∆) = x − (x · e1 )e1 = kxk2 − (x · e1 )e1 = kxk2 − nµ2 .

A un facteur n près, on reconnaît la variance de X.

Distance à un hyperplan. Un hyperplan de Rn peut être défini soit par une équation carte-
sienne, soit par une base.
Xn
− Soit H d’équation ai xi = 0. Cette équation exprime que H = e⊥ où e = (ai )1≤i≤n . Pour
i=1
appliquer la proposition 3.6, il faut identifier π, la projection orthogonale sur Vect{e} = H ⊥ .
Soit u un vecteur unitaire colinéaire à e. Alors π(y) = (y · u)u. D’où

|y · e|
∀ y ∈ Rn d(y, H) = π(y) = |y · u| = .z
kek

− Si H est déterminé par une base orthonormée (ei )1≤i≤n−1 le calcul de d(u, H) a été fait plus
haut. En général cette base est complétée en une base de Rn et on connaît un vecteur de H ⊥ .
Si H est déterminé par une base qui n’est pas orthonormée on peut soit utiliser Gram-Schmidt
pour en construire une, soit utiliser la proposition suivante.

Proposition 3.7. Soit F = (fi )1≤i≤k une famille libre et F = VectF. Soit B la matrice k, k
de terme général bi,j = fi · fj . Pour u ∈ E soit Bu la matrice k + 1, k + 1 analogue à B obtenue
2 dét Bu
en ajoutant u à F. Alors d(u, F ) = .
dét B

Démonstration. Si u ∈
/ F , Bu est la matrice du produit scalaire sur F + Vect{u} exprimée
dans la base F ∪ {u}. Elle est donc définie positive et dét Bu > 0.
En revanche si u ∈ F les colonnes de Bu sont liées et dét Bu = 0. En résumé

dét Bu = 0 ⇐⇒ u ∈ F ⇐⇒ d(u, F ) = 0
52

/ F . Soit G = F + Vect{u} et ∆ = G ∩ F ⊥ la droite de G orthogonale à F . On


Supposons u ∈
décompose u sur F ⊕ ∆ soit u = v + w. Alors F ∪ {w} est une base de G et on peut définir Bw
la matrice du produit scalaire dans cette base. Comme w ∈ F ⊥ , tous les termes de la dernière
ligne et de la dernière colonne de Bw sont nuls à l’exception du terme diagonal kwk2 . On a donc

dét Bw = dét B × kwk2 .

D’autre part la matrice de passage de F ∪ {u} à F ∪ {w} est triangulaire avec des 1 sur
la diagonale. Par la formule de changement de base pour les matrices de formes bilinéaires
symétriques, on en déduit dét Bu = dét Bw . Finalement
dét Bu dét Bw 2
= = kwk2 = d(u, F ) .
dét B dét B
D’où le résultat.

Cette proposition s’applique à des sous-espaces de toutes dimensions.

On peut aussi appliquer la proposition 3.7 si un sous-espace F , au lieu d’être donné par une base,
est déterminé par une famille d’équations cartésiennes indépendantes. En effet ces équations
cartésiennes fournissent une base de F ⊥ .

En dimension 3 le produit vectoriel permet aussi de calculer la distance d’un vecteur à un plan.

dét (u, v, w)
Si P est engendré par u et v, d(w, P ) = .
ku ∧ vk
1
Démonstration. Soit D = P ⊥ la droite engendrée par u ∧ v et k = u ∧ v un vecteur
ku ∧ vk
directeur unitaire de D. D’après la proposition 3.6,

w · (u ∧ v) dét (u, v, w)
z d(w, P ) = πD (w) = |w · k| = = .
ku ∧ vk ku ∧ vk

3.4 Formes quadratiques

Soit E un espace euclidien de dimension n et Φ une forme bilinéaire symétrique sur E. La



restriction de Φ à la diagonale de E × E, i.e. à ∆ = (x, x), x ∈ E est une forme quadratique,
souvent notée Q. Réciproquement étant donné Q forme quadratique sur E, on peut retrouver
la forme bilinéaire symétrique Φ par l’identité de polarisation :

1 
Φ(x, y) = Q(x + y) − Q(x) − Q(y)
2

Soit A = (ai,j ) la matrice de Φ dans une base B = (ei )1≤i≤n . Alors


53

∀ x, y ∈ E Φ(x, y) = X T AY z .
n
X n
X X
T
D’où ∀x = xi e i , Q(x) = X AX = ai,i x2i + 2 ai,j xi xj .
i=1 i=1 1≤i<j≤n
Par définition la matrice de Q dans B est celle de Φ.
Dans l’expression précédente on a isolé les termes carrés et regroupés les termes égaux.

Pour déduire l’expression de Φ(x, y) de celle de Q(x) les automatismes sont

1
x2i −→ xi yi et xi xj −→ (xi yj + xj yi ).
2

Si dans une forme quadratique le facteur 2 n’est pas présent dans l’expression des termes croisés,
on peut le réintroduire et faire ainsi apparaître les cœfficients de la matrice :
 
3 5
Q(x) = x21 + 3x1 x2 + 5x1 x3 + 2x3 x4 = x21 +2 x 1 x2 + x1 x3 + x3 x4 .
2 2

3.4.1 Décomposition en carrés

Soit Q une forme quadratique sur E, Φ la forme bilinéaire symétrique associée et η : E −→ E ∗


l’application linéaire associée à Φ en posant η(x) = Φ(x, .).

Définition: Le rang d’une forme quadratique Q est le rang de l’endomorphisme η associé.

Soit B = (ei )1≤i≤n la base de E et B ∗ sa base duale. Montrons que la matrice de η dans B et
n
∗ ai,j e∗i . Or
X
B est celle de Φ dans B. Il s’agit d’identifier les cœfficients ai,j tels que η(ej ) =
i=1
n
Φ(ej , ei )e∗i .z
X
∀1 ≤ j ≤ n, η(ej ) = Φ(ej , .) =
i=1

On retrouve (ai,j ) = Φ(ej , ei ) . Le rang d’une forme quadratique est donc celui de sa matrice
dans une base quelconque.

Définition: Le noyau de Q est KerQ = KerΦ = Kerη.


⊥
Comme Imη = Kerη on a dim KerQ + rgQ = dim E.
Si KerQ = {0} alors Q est non dégénérée.
Ne pas confondre le noyau de Q et ses vecteurs isotropes :

Définition: Un vecteur x est isotrope si Q(x) = 0.

Une forme quadratique est définie positive si elle est positive et n’admet pas de vecteur isotrope
non nul. Idem pour définie négative. Réciproquement une forme quadratique qui n’est pas définie
positive ou négative, a des vecteurs isotropes non nuls.
54

Soit B = (ei )1≤i≤n une base et A la matrice de Q dans B. La dimension du noyau ou le rang
de Q se lisent immédiatement sur A si A est diagonale i.e. si B est orthogonale pour Φ. Dans
Xn
ce cas Q(x) = x2i Q(ei ). Selon que Q(ei ) > 0, Q(ei ) = 0 ou Q(ei ) < 0, on peut normaliser
i=1
chaque ei et supposer Q(ei ) ∈ {1, 0, −1} pour tout i. Quitte à changer l’ordre des ei on peut
p p+q
X X
2
écrire Q(x) = xi − x2i .
i=1 i=p+1
Définition: Une décomposition en carrés d’une forme quadratique est une écriture de la
p q
X 2 X 2
forme Q(x) = fi (x) − fj (x)
i=1 j=1
où les fi et les fj sont des formes linéaires indépendantes.

On a vu qu’une base orthogonale fournit une décomposition en carrés. Réciproquement une


décomposition en carrés fournit une base orthogonale. Après avoir complété les fi en une base
de E ∗ , il suffit de prendre la base (gi )1≤i≤n de E dont (fi )1≤i≤n est la base duale. Pour la trouver
il faut pour tout 1 ≤ j ≤ n résoudre le système fi (gj ) = δi,j .

Sauf pour les formes quadratiques de rang 0 ou 1, les décompositions en carrés d’une forme
quadratique donnée ne sont pas uniques. En revanche elles ont toutes un point commun.
p q
X 2 X 2
Définition: Le couple (p, q) dans la décomposition en carrés Q(x) = fi (x) − fj (x)
i=1 j=1
est la signature de la forme quadratique Q, notée σ(Q).

Cette définition est justifiée par le théorème suivant.

Théorème 3.6. Soit Q une forme quadratique. Le couple (p, q) apparaissant dans ses décom-
positions en carrés est unique.

Démonstration. Nous allons montrer que p est la dimension maximale des s.e.v. F tels que

x 6= 0 et x ∈ F =⇒ Q(x) > 0. 
p p+q
X 2 X 2
Soit Q(x) = fi (x) − fi (x) une décomposition en carrés. Soit (ei )1≤i≤n une base
i=1 i=p+1
telle que pour 1 ≤ j ≤ n et 1 ≤ i ≤ p + q, fi (ej ) = δi,j . Enfin soit F = Vect{ei , i ≤ p}. Alors
n p p
X X X
pour tous x = xi ei et j ≤ p + q, fj (x) = xj . Donc si x ∈ F , x = xi ei et Q(x) = x2i .
i=1 i=1 i=1
Donc x ∈ F \ {0} =⇒ Q(x) > 0, i.e. F , dont la dimension est p, a la propriété .

Réciproquement si dim F = r > p, alors dim F ∩ Vect{ei , i > p} = r + (n − p) − n = r − p.
Il existe donc un vecteur y 6= 0 tel que y ∈ F ∩ Vect{ei , i > p}. Donc y ∈ F et Q(y) ≤ 0. Il
en résulte que F n’a pas la propriété .
55

Finalement p est la dimension maximale annoncée. Cette dimension dépend de Q mais pas de
la décomposition en carrés choisie. De même pour q.

Dans σ(Q) = (p, q), l’entier p représente la dimension maximale des s.e.v. F tels que la restric-
tion de Q à F soit définie positive. On peut voir que la dimension maximale des s.e.v. F tels
que la restriction de Q à F soit positive est n − q. Les deux coïncident si p + q = n i.e. Q est
non dégénérée.

3.4.2 Algorithme de Gauss

Soit Q une forme quadratique de matrice A = (ai,j ) dans une base B. Soit
X n
X X
Q(x) = X T AX = ai,j xi xj = ai,i x2i + 2 ai,j xi xj .
1≤i,j≤n i=1 1≤i<j≤n

La séparation en termes diagonaux et non diagonaux est une conséquence de l’algorithme


de Gauss. Celui-ci consiste en réductions successives et fonctionne différemment selon que la
diagonale de A est nulle ou non.

N Si la diagonale n’est pas nulle on peut supposer a1,1 6= 0. On écrit alors Q sous la forme :

Q(x) = a1,1 x21 + x1 L(x2 , ...xn ) + Q(x


e 2 , ....xn )

e sont une forme linéaire et une forme quadratique sur Rn−1 . Comme dans le cas du
où L et Q
trinôme on complète le carré ce qui donne
 2
1
Q(x) = a1,1 x1 + L(x2 , ...xn ) + R(x
e 2 , ....xn )
2a1,1

où Re est une autre forme quadratique sur Rn−1 . La décomposition de Re en carrés donne des
1
formes linéaires indépendantes, et indépendante de la forme x −→ x1 + L(x2 , ...xn ). On a
2a1,1
donc réduit le problème d’un indice.

N Si la diagonale est nulle on peut supposer que a1,2 6= 0. On pourrait faire un changement de
variables, poser (u1 , u2 ) = (x1 + x2 , x1 − x2 ) et se ramener au cas précédent. L’algorithme de
Gauss permet d’éliminer les deux variables x1 et x2 d’un coup. Posons a = 2a1,2 . On a alors
Q(x) = ax1 x2 + x1 L1 (x3 , ....xn ) + x2 L2 (x3 , ...xn ) + Q(x
e 3 , ....xn ) où L1 , L2 et Q
e sont deux formes

linéaires et une forme quadratique sur Rn−2 . D’où


    
1 1 1
e − L1 L2 (x3 , ....xn ).
Q(x) = a x1 + L2 (x3 , ..., xn ) x2 + L1 (x3 , ..., xn ) + Q
a a a
56

On utilise la transformation d’un produit en différence de carrés. On se retrouve avec une forme
linéaire en x1 +x2 +... et une autre en x1 −x2 +.... Elle sont indépendantes de celles apparaissant
dans la décomposition de Q e − 1 L1 L2 . On a donc réduit le problème de deux indices. 
a

3.4.3 Critère de Sylvester

Les formes quadratiques définies postives i.e. de signature (n, 0) sont celles qui sont associées
aux produits scalaires et aux normes euclidiennes. Le critère de Sylvester permet de déterminer
sans faire de décomposition en carrés si une matrice symétrique est celle d’un forme quadratique
définie positive.

Critère de Sylvester. Une matrice symétrique est définie positive ssi ses mineurs principaux
sont strictement positifs.

Démonstration. =⇒ Notons que si A est définie positive, ses valeurs propres sont strictement
positives et donc dét A > 0. De même toutes les sous-matrices principales de A sont définies
positives. Donc ∆k > 0 pour tout 1 ≤ k ≤ n.
⇐= Faisons une récurrence sur n. Le cas n = 1 est évident. Soit Q la forme quadratique
ayant A pour matrice dans la base canonique. Soit H l’hyperplan d’équation xn = 0. D’après
l’hypothèse de récurrence comme ∆k > 0 pour tout k ≤ n − 1, Q|H est définie positive. Donc
σ(Q) = (n − 1, 1) ou (n, 0). Comme dét A > 0, le produit des valeurs propres de A est positif,
ce qui exclut σ(Q) = (n − 1, 1). Il reste σ(Q) = (n, 0) i.e. Q est définie positive.

Vous aimerez peut-être aussi