Académique Documents
Professionnel Documents
Culture Documents
\usepackage{amstext}\usepackage{amsthm}\usepackage{mfpic}\usepackage{graphics}
\usepackage{rotating}\input{macro}\definecolor{yellowgreen}{rgb}{0.68,1,0.15}
\definecolor{violl}{rgb}{0.3,0,0.3}\definecolor{sarcc}{rgb}{0,0.82,0.82}
\begin{document}\frontmatter\pagestyle{empty}\begin{titlepage}\begin{picture}
1 Dimension 2 1
1.1.1 Composantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Longueur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Distance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Isométries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1.1 Rotations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.1.2 Symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5.1.1 Projecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6.2 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6.3 Classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.6.4 Coniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
ii
1.6.4.2 Tangentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.7.2 Isométries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2 Dimension 3 27
2.1 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.1 Distance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3 Isométries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.5.1 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.5.2 Classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3 Dimension n 39
3.1 Dualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.1.1 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.1 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.2 Isométries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
Dimension 2
1.1.1 Composantes
u = x e1 + y e2 ,
L’application φB est l’isomorphisme de E dans R2 tel que φB (e1 ) = (1, 0) et φB (e2 ) = (0, 1).
Définition: La base C = (1, 0), (0, 1) de R2 est sa base canonique notée (c1 , c2 ).
Les composantes d’un couple (x, y) dans C sont x et y.
1.1.2 Matrices
Une matrice M est un tableau rectangulaire de nombres. La taille de la matrice est (m, n) où
m est le nombre de lignes et n le nombre de colonnes. Les matrices permettent, entre autres,
de calculer les composantes de l’image d’un vecteur par une application linéaire.
1
2
on a, par linéarité, φ(u) = x φ(e1 ) + y φ(e2 ). Pour exprimer φ(u) dans la base (e1 , e2 ) il suffit de
connaître les composantes de φ(e1 ) et φ(e2 ) soit,
La matrice colonne X est le vecteur colonne des composantes de u dans la base B, M est la
matrice de φ dans la base B et X 0 est le vecteur colonne des composantes de φ(u) dans B.
La matrice M définit, par le biais du produit matriciel, une application linéaire sur R2 sans
référence à aucune autre base que la base canonique.
1.2 Longueur
p
Sur R2 la définition standard de la longueur d’un vecteur est L(x, y) = x2 + y 2 .
Définition: Une norme sur un e.v. réel E est une application k.k de E sur R+ telle que
– kuk = 0 ⇐⇒ u = 0,
– ∀ λ ∈ R, ∀ u ∈ E, kλuk = |λ|kuk,
– ∀ u, v ∈ E, ku + vk ≤ kuk + kvk.
x02 + y 02 + x0 2 + y 0 2 .
p p
(x + x0 )2 + (y + y 0 )2 ≤ x2 + y 2 + 2 x2 + y 2
p p
Il suffit donc de montrer xx0 + yy 0 ≤ x2 + y 2 x02 + y 02 .
ou () x2 x0 2 + 2xx0 yy 0 + y 2 y 0 2 ≤ (x2 + y 2 )(x0 2 + y 0 2 )
soit 2xx0 yy 0 ≤ x2 y 0 2 + y 2 x0 2 ou (xy 0 − x0 y)2 ≥ 0.
p p
Remarque: L’inégalité xx0 + yy 0 ≤ x2 + y 2 x02 + y 02 est un cas particulier de l’inégalité de
x x0
Cauchy-Schwartz. La démonstration montre qu’il y a égalité ssi xy 0 − x0 y = = 0 i.e.
y y0
ssi (x, y) et (x0 , y 0 ) sont liés.
p
Définition et notation: L’application (x, y) −→ x2 + y 2 est la norme euclidienne stan-
p
dard sur R2 . Lorsqu’il n’y a pas d’ambiguité on écrit
(x, y)
pour x2 + y 2 .
1
× ku + vk2 − kuk2 − kvk2 .
u·v =
2
Une autre propriété du produit scalaire est la bilinéarité qui, par symétrie, s’écrit ainsi :
Réciproquement toute forme linéaire φ sur R2 est de ce type. Si φ(c1 ) = a et φ(c2 ) = b, pour
tout vecteur u de R2 : u = (x, y) = x(1, 0) + y(0, 1), on a
u0 · u = X 0 T X = X T X 0 .
D’après le lemme, deux vecteurs de R2 orthogonaux et non nuls forment une base.
Définition: Une base {u, v} de R2 est orthonormée si u et v sont unitaires et orthogonaux.
La base canonique C = (1, 0), (0, 1) est la plus simple d’entre elles.
e1 · u = e1 · (u1 e1 + u2 e2 ) = u1 e1 · e1 + u2 e1 · e2 = u1 × 1 + u2 × 0 = u1
1.2.1 Distance
d(u, v) = ku − vk.
Dans un espace métrique on définit la distance d(K, L) entre deux parties K et L en posant
d(K, L) = inf d(x, y), x ∈ K, y ∈ L .
Dans un espace vectoriel, la distance entre deux sous-espaces est nulle. Il suffit de prendre
x = y = 0. Dans le cas d’un vecteur et d’une droite vectorielle on a :
∀u ∈ R2 , d(u, ∆) = |u · v|.z
Une droite vectorielle ∆ est habituellement définie par une équation cartésienne ax + by = 0
ou un vecteur directeur.
1
− Si ∆ est définie par ax + by = 0 on prend v = √ (a, b), d’où
a2 + b 2
|ax + by|
d(u, ∆) = √ .
a2 + b 2
1
− Si (a, b) dirige ∆, un vecteur unitaire de ∆⊥ est v = √ (−b, a) d’où
a2+ b2
| − bx + ay|
d(u, ∆) = √ .
a2 + b 2
1.3 Isométries
Définition: Une isométrie de R2 est une application linéaire qui préserve la norme i.e.
Proposition 1.3. Soit B une base orthonormée et φ une application linéaire. Alors
Corollaire 1.1. Soit {e1 , e2 } et {e01 , e02 } deux bases orthonormées. Il existe une isométrie unique
φ telle que φ(e1 ) = e01 et φ(e2 ) = e02 .
Démonstration. L’existence d’une application linéaire φ telle que φ(e1 ) = e01 et φ(e2 ) = e02 est
un résultat d’algèbre linéaire. D’après la proposition précédente, φ est une isométrie.
Corollaire 1.2. Soit u et u0 deux vecteurs unitaires de R2 . Il existe exactement deux isométries
φ± telles que φ± (u) = u0 .
1.3.1.1 Rotations
Définition: Une isométrie est positive ou négative selon le signe de son déterminant.
Définition: Une isométrie positive de R2 est une rotation.
!
a −b
Définition: L’angle d’une matrice de rotation A = est le nombre θ, défini modulo
b a
2π, tel que cos θ = a et sin θ = b.
1.3.1.2 Symétries
Définition: Une symétrie sur un e.v. E est une application linéaire φ telle que φ2 = Id.
Proposition 1.4. Une application φ est une symétrie ssi φ = ±Id ou bien
1 1
u = (Id + φ)(u) + (Id − φ)(u)
2 2
Proposition 1.5. Une symétrie vectorielle φ est une isométrie ssi φ = ±Id ou E1 ⊥ E−1 .
De plus pour u ∈
/ E−1 , u + φ(u) ∈ E1 et u + φ(u) 6= 0. C’est donc un vecteur directeur de E1 .
De même si u ∈
/ E1 , u − φ(u) est un vecteur directeur de E−1 .
Définition: L’axe d’une symétrie orthogonale de R2 est la droite de ses vecteurs invariants.
Dans une base orthonormée (e1 , e2 ), on peut écrire une matrice de symétrie orthogonale σ sous
!
cos θ sin θ
la forme A = . Mais θ n’est pas « l’angle de la symétrie », ce qui n’aurait aucun
sin θ − cos θ
sens. La signification géométrique de θ est que, si θ 6= π i.e. cos θ 6= −1, le vecteur e1 + σ(e1 )
soit (1 + cos θ, sin θ) est invariant par σ. On obtient cos(θ/2), sin(θ/2) après normalisation.
Si cos θ = −1, sin θ = 0 alors σ est la symétrie orthogonale par rapport à Vect{e2 }.
Corollaire 1.3. Toute matrice symétrique réelle sur R2 est diagonalisable dans une base or-
thonormée.
!
p q
Démonstration. Soit A = une matrice symétrique réelle sur R2 . On a
q r
! !
(p − r)/2 q (p + r)/2 0
A= + .
q (r − p)/2 0 (r + p)/2
La seconde matrice étant un multiple de l’identité, il suffit de diagonaliser la première dans une
q 2
base orthonormée. Or celle ci est, à un facteur (p − r)/2 + q 2 , une matrice de symétrie
orthogonale. Elle est donc diagonalisable dans une base orthonormée.
Soit u et u0 deux vecteurs unitaires. Parmi les deux isométries φ± telles que φ± (u) = u0 , notons
φ+ la rotation. Alors φ−1 0
+ est l’unique rotation telle que φ(u ) = u. Supposons que dans une base
!
cos θ − sin θ
B, φ+ a une matrice A = . Soit B 0 la base obtenue en échangeant l’ordre des
sin θ cos θ
vecteurs de B. La matrice de φ+ dans B 0 est obtenue en échangeant les lignes puis les colonnes
! ! !
a −b b a a b
de A : A= −→ −→ AT = .
b a a −b −b a
!
cos θ − sin θ
La nouvelle matrice est AT = A−1 . Ainsi une rotation peut avoir pour matrice
! sin θ cos θ
cos θ sin θ
ou . On ne peut donc définir l’angle d’une rotation comme étant celui de sa
− sin θ cos θ
10
matrice. Il faut faire un choix pour décider quelle est la matrice à retenir.
Plus généralement, soit B 0 une base orthonormée quelconque et P la matrice de passage de B à
B 0 . Celle-ci est orthogonale et peut être une matrice de rotation ou de symétrie. Dans les deux
cas la matrice A0 de φ dans B 0 est A0 = P −1 AP .
− Si P est une matrice de rotation, alors P et A commutent et A0 = A.
− Si P est une matrice de symétrie, alors P −1 = P et P A est une matrice de symétrie. Donc
A0 A = P AP A = Id2 soit A0 = A−1 = AT .
Comme les matrices de rotation forment un groupe, R définit une relation d’équivalence sur
l’ensemble des bases orthonormées. Soit B = (e1 , e2 ) et P sa matrice de passage avec la base
canonique. Alors C R B ⇐⇒ dét P = 1. Si dét P = −1 alors B RC 0 = (c2 , c1 ), la base canonique
inversée. Il y a donc deux classes.
Définition: L’espace R2 est orienté par le choix d’une classe d’équivalence de R. Les bases
qui sont dans cette classe sont directes, les autres sont indirectes.
Il suffit de prendre une base et de la définir comme directe et l’orientation s’en déduit.
Dans la suite on supposera que l’orientation de R2 est celle définie par C.
A0 = P −1 AP .
On a vu que P est une matrice de rotation commutant avec A de sorte que A0 = A. De même
la matrice de ρ est P T = P −1 dans toute base indirecte.
Définition: L’angle d’une rotation de R2 , est celui de sa matrice dans une base directe.
Définition: Soit u, v deux vecteurs et u0 , v 0 les vecteurs normalisés associés. L’angle orienté
de (u, v), également noté (u, v), est l’angle de la rotation ρ telle que ρ(u0 ) = v 0 .
Des cas particuliers sont l’angle nul (u, u) = 0 et l’angle plat (u, −u) = π correspondant à
ρ = −Id2 également appelée symétrie centrale.
Définition: Un angle (u, v) est droit si u · v = 0.
Comme un vecteur u possède deux vecteurs unitaires orthogonaux il y a deux angles droits
valant ±π/2.
Relation de Chasles. Soit u, v, w des vecteurs unitaires d’un plan euclidien orienté. Alors
En particulier (u, v) = −(v, u). La relation de Chasles est souvent employée sous la forme
cos θ = u · v.
Le signe du sinus d’un couple de vecteurs dépend de l’orientation. Si (u, w) est une base ortho-
!
1 cos θ
normée directe, alors la matrice de (u, v) dans (u, w) est . D’où sin θ = dét (u, v).
0 sin θ
Pour des vecteurs u et v quelconques on a
Proposition 1.7. Une rotation préserve les angles orientés. Une symétrie orthogonale les in-
verse.
12
− Soit σ une symétrie orthogonale et u, v deux vecteurs unitaires. Soit σ 0 la symétrie orthogonale
telle que σ 0 (u) = v. alors σ ◦ σ 0 est une rotation. Donc
D’où σ(u), σ(v) = (v, u) = −(u, v).
∗
Proposition 1.8. Soit φ et ψ deux endomorphismes de R2 . Alors ψ ∗ ◦ φ∗ = φ ◦ ψ .
Démonstration. Soit u, v ∈ R2 . On a
∗
= φ∗ .
−1
Corollaire 1.4. Soit φ un endomorphisme inversible de R2 . Alors φ−1
13
Proposition 1.9. Soit M la matrice d’un endomorphisme φ sur R2 dans une base orthonormée.
Alors la matrice de φ∗ dans la même base est M T .
Démonstration. Soit (e1 , e2 ) une base orthonormée, M , N les matrices de φ et φ∗ dans cette
base. Soit ai,j et bi,j les éléments de M et N . Alors
donc N = M T .
Ainsi les symétries orthogonales sont autoadjointes. En effet elles sont définies par leurs espaces
propres : E1 et E−1 supposés orthogonaux.
∗
Φ∗ = φ∗ ◦ φ = φ∗ ◦ (φ∗ )∗ = φ∗ ◦ φ = Φ.
2
Pour tout u ∈ R2 on a u · Φ(u) = φ(u) · φ(u) =
φ(u)
. Soit (e1 , e2 ) une base orthonormée
propre pour Φ avec λ1 ≥ λ2 . Alors pour u = u1 e1 + u2 e2 , Φ(u) = λ1 u1 e1 + λ2 u2 e2 de sorte que
De l’encadrement λ21 = λ1 u21 + λ1 u22 ≤ λ1 u21 + λ2 u22 ≤ λ2 u21 + λ2 u22 = λ2 , on déduit que
√ √
λ1 et λ2 sont les extrema de la fonction u −→
φ(u)
définie sur le cercle unité.
1.5.1.1 Projecteurs
Proposition 1.12. Une application linéaire φ est un projecteur ssi E = Ker(φ − Id) ⊕ Kerφ.
u·v
∀v ∈ R2 φ(v) = u.z
kuk2
15
u·v
Pour le voir on remarque que u ∈ Vect{u} et que
kuk2
u·v u·v
v− 2
u ·u=v·u− u · u = 0.
kuk kuk2
⊥ u·v u·v
La décomposition de v sur Vect{u} ⊕ u est donc bien v = u + v− u .
kuk2 kuk2
pour a ∈ [0, 1]. La somme des carrés des termes de la matrice vaut a2 + 2a(1 − a) + (1 − a)2 = 1.
On peut aussi le voir par la définition d’un projecteur. Si u est unitaire, π la projection sur
Vect{u}, B = (e1 , e2 ) une base orthonormée et A la matrice de π dans B. Les éléments de la
2
première colonne de A sont celles de π(e1 ) = (e1 · u)u. La somme des carrés est donc
π(e1 )
=
(e1 · u)2 . Pour la seconde colonne on a (e2 · u)2 . Finalement (e1 · u)2 + (e2 · u)2 = kuk2 = 1.
16
Sur R2 la définition de la longueur, puis l’identité de polarisation ont donné le produit scalaire
classique. En notant que le produit scalaire est une forme bilinéaire symétrique, on peut faire
le chemin inverse, plus adapté à des espaces ne possédant pas de base canonique.
En séparant les termes diagonaux des termes non diagonaux, on obtient le résultat.
Un tel polynôme est caractérisé par ses cœfficients : Q(x, y) = ax2 + 2bxy 2 + cy 2 .
Proposition 1.14. N Soit Φ une forme bilinéaire symétrique. Alors u −→ Φ(u, u) est une
forme quadratique.
1
H Soit Q une forme quadratique. Alors (u, v) −→ × Q(u + v) − Q(u) − Q(v) est une forme
2
bilinéaire symétrique.
1
× Q(u + v) − Q(u) − Q(v) = axx0 + b(xy 0 + x0 y) + cyy 0 .
2
L’application (u, v) −→ axx0 + b(xy 0 + x0 y) + cyy 0 définie sur (R2 )2 est bilinéaire symétrique.
Définition: Le noyau d’une forme bilinéaire symétrique Φ est l’ensemble des vecteurs u tels
que Φ(u, .) = 0 soit ∀v ∈ R2 , Φ(u, v) = 0.
Définition: Le noyau KerQ d’une forme quadratique est le noyau de la forme bilinéaire asso-
ciée.
Définition: Une forme quadratique est non dégénérée si KerQ = {0}.
Si u 6= KerQ, u⊥ , i.e. v, Φ(u, v) = 0 , est le noyau d’une forme linéaire non nulle. C’est donc
un hyperplan soit, en dimension 2, une droite. En particulier si Q est non dégénérée, u⊥ est
une droite pour tout u 6= 0.
Ne pas confondre le noyau d’une forme quadratique avec l’ensemble de ses vecteurs isotropes.
Définition: Soit Q une forme quadratique. Un vecteur u est isotrope pour Q si Q(u) = 0.
Exemple :− Soit Q définie par Q(x, y) = x2 . On a Φ(u, v) = xx0 . Donc KerQ = Vect{(0, 1)}.
D’autre part Q(u) = 0 ⇐⇒ u ∈ Vect{(0, 1)}. Il y a identité entre les vecteurs isotropes et le
noyau dans ce cas.
− Soit Q définie par Q(x, y) = x2 − y 2 . On a Φ(u, v) = xx0 − yy 0 . Donc KerQ = {0}. D’autre
part Q(u) = 0 ⇐⇒ u ∈ Vect (1, ±1) . Il n’y a pas identité dans ce cas.
! ! !
x x0 a b
En posant X = , X0 et A = , ces égalités deviennent
y y0 b c
Une dernière écriture est Q(u) = u·φ(u) où φ est l’endomorphisme auto-adjoint dont la matrice
est A dans la base canonique.
Dans l’identité Q(u) = X T AX, la matrice A dépend de la base dans laquelle sont calculées les
composantes de u, base que nous avons supposée être C. Lorsque le vecteur u est exprimé dans
une base (e1 , e2 ) i.e. u = u1 e1 + u2 e2 , on obtient
La matrice A est la matrice de Φ dans la base (e1 , e2 ). C’est aussi la matrice la forme
quadratique associée.
Proposition 1.15. Soit B = (e1 , e2 ) et B 0 = (e01 , e02 ) deux bases de R2 . Soit A et A0 les matrices
d’une forme quadratique Q dans B et B 0 et soit P la matrice de passage de B à B 0 . Alors
A0 = P T AP .
Q(u) = X 0 T P T A P X 0 .
Par identification A0 = P T A P .
Les formules de changement de base pour les endomorphismes et pour les formes bilinéaires
symétriques coïncident ssi P T = P −1 i.e. ssi la matrice de passage est orthogonale.
1.6.2 Orthogonalité
Définition: Une base orthogonale pour Φ est une base dont les vecteurs sont orthogonaux
relativement à Φ.
Une base B est orthogonale pour Q ssi la matrice de Q dans B est diagonale.
19
Proposition 1.16. Toute forme quadratique sur R2 admet une base orthogonale.
Démonstration. On suppose Q 6= 0 et on choisit u ∈ R2 tel que Q(u) 6= 0. Donc Φ(u, .) est une
forme linéaire non nulle. De plus comme Q(u) = Φ(u, u) 6= 0, si Φ(u, v) = 0 avec v 6= 0, alors u
et v sont libres. Donc ils forment une base orthogonale.
Dans une base orthogonale pour Q la matrice M de Q est diagonale. Si de plus M = I2 alors
la base est orthonormée.
Proposition 1.17. Toute forme quadratique sur R2 admet une base orthogonale B, qui est
orthonormée pour la forme quadratique standard.
Démonstration. Soit A la matrice de Q dans la base canonique. C’est une matrice symétrique
réelle qui se diagonalise dans une base orthonormée B. Soit P la matrice de passage de C à B.
Alors A0 = P −1 AP est diagonale. Mais comme B est orthonormée P T = P −1 de sorte que A0
est la matrice de Q dans B. Donc B est orthogonale pour Q.
1.6.3 Classification
Q(u) = λ1 u1 2 + λ2 u2 2 .
– λ2 < 0 < λ1 : Q change de signe mais n’a pas de noyau. Les vecteurs isotropes forment deux
√ √ √ √
droites : Vect −λ2 , λ1 et Vect −λ2 , − λ1 calculés dans B.
– λ2 < 0 = λ1 : Q reste négative mais a un noyau non réduit à 0. Les vecteurs isotropes
coïncident avec le noyau.
– λ2 ≤ λ1 < 0 : Q reste négative et ne s’annule qu’en 0.
Ce comportement ne dépend que de λ1 et λ2 . Donc il peut se lire directement sur le polynôme
caractéristique de la matrice M de Q dans une base orthonormée quelconque sans qu’il soit
nécéssaire de diagonaliser.
– dét M > 0 et TrM > 0 : alors 0 < λ2 ≤ λ1 .
– dét M > 0 et TrM < 0 : alors λ2 ≤ λ1 < 0.
– dét M = 0 et TrM > 0 : alors λ2 = 0 < λ1 .
– dét M = 0 et TrM < 0 : alors λ2 < 0 = λ1 .
– dét M < 0 : alors λ2 < 0 < λ1 .
Il n’est pas nécessaire que la base soit orthonormée. En effet si M 0 est la matrice de Q dans
une autre base alors dét M et dét M 0 sont de mêmes signes. De plus lorsque dét M ≥ 0, le signe
de Q se lit sur les termes diagonaux de M ou M 0 . Donc dét M 0 et TrM 0 founissent les mêmes
renseignements que dét M et TrM .
Définition: Une forme quadratique vérifiant u 6= 0 =⇒ Q(u) > 0 est définie positive.
D’après ce qu’on a vu, une forme quadratique est définie positive ssi sa matrice M dans une
base quelconque vérifie det M > 0 et TrM > 0.
Définition: Une décomposition en carrés d’une forme quadratique Q est une expression de
2 2 2
la forme Q(u) = ± L1 (u) ou Q(u) = ± L1 (u) ± L2 (u) ,
Définition: La signature σ(Q) d’une forme quadratique Q est le couple (p, q) où p est le
nombre de signes + et q le nombre de signes − de ses décompositions en carrés.
En dimension 2 les signatures possibles sont (2, 0), (1, 1), (0, 2) dans le cas non dégénéré, et
(1, 0), (0, 1) dans le cas dégénéré.
Ces signatures correspondent à des allures distinctes pour les graphes de Q en dimension 3, i.e.
les surfaces d’équation z = ax2 + 2bxy + cy 2 : (0,1), (2,0), (1,1).
1.6.4 Coniques
Définition: Une conique C de R2 est l’ensemble des zéros d’un polynôme de degré 2.
On supposera ici que le terme linéaire est nul, ce qui implique que C est invariante par symétrie
centrale. En pratique l’équation P (x, y) = 0 sera sous la forme Ax2 + 2Bxy + Cy 2 = K. Si on
22
!
A B
note M = , on a vu que pour dét M < 0 la forme quadratique Q change de signe,
B C
ce qui entraîne que, pour tout K, C est non vide. Si dét M ≥ 0 la forme quadratique Q garde
un signe constant, ce qui selon le signe de K peut entraîner que C est vide.
En diagonalisant M on voit qu’il existe une base orthonormée (e1 , e2 ) où on a
Q(u) = λ1 u1 2 + λ2 u2 2 .
N Si K = 0, C = {0} pour les signatures (0, 2) et (2, 0), C est une paire de droites si σ(Q) = (1, 1),
et enfin C est une droite double si σ(Q) = (1, 0) ou (0, 1).
N Si K 6= 0 on peut supposer K = 1.
– 0 < λ2 ≤ λ1 : Q est une ellipse
1
– λ2 = 0 < λ1 : C est une paire de droites parallèles x0 = ± √ .
λ1
– λ2 < 0 < λ1 : C est une hyperbole Les asymptotes sont les droites de vecteurs isotropes.
– λ2 ≤ λ1 ≤ 0 : C = ∅.
– λ2 ≤ λ1 < 0 : C = ∅.
Définition: Une courbe dans R2 est une ellipse si elle est isométrique à une courbe d’équation
x2 y 2
+ 2 = 1.
a2 b
avec a ≥ b > 0. Les réels a et b sont le demi-grand axe et le demi-petit axe de l’ellipse.
Définition: Une courbe dans R2 est une hyperbole si elle est isométrique à une courbe d’équa-
x2 y 2
tion − 2 = 1.
a2 b
Le réel a est la distance du centre à chacune des branches de l’hyperbole.
x2 y 2
Définition: Les équations 2 ± 2 = 1 sont les équations réduites des coniques associées.
a b
1.6.4.2 Tangentes
Soit Ax2 + 2Bxy + Cy 2 = 1 l’équation d’une conique non dégénérée à centre C, Φ la forme
!
A B
bilinéaire symétrique associée et M = la matrice de la forme quadratique associée.
B C
Démonstration. Soit ∆ la tangente à C i.e. ∆ = u + s v, s ∈ R . Soit t −→ x(t), y(t) une
paramétrisation locale de C au voisinage de 0 telle que x0 (t) et y 0 (t) ne s’annulent pas simulta-
nément. On note u(t) = x(t), y(t) et on suppose que u(0) = u et u0 (0) = v.
La fonction t −→ Q x(t), (y(t) est constante. Pour calculer sa dérivée on note V (t) =
!
x(t)
. D’où Q v(t) = V (t)T M V (t). En dérivant en t = 0 il vient
y(t)
0 = V (0)T M V 0 (0) + V 0 (0)T M V (0).
Comme M est symétrique ces deux termes sont égaux d’où V 0 (0)T M V (0) = 0. Ceci s’écrit aussi
Φ u0 (0), u(0) = 0
soit Φ(v, u) = 0.
Définition: Soit Q(x, y) = 1 l’équation d’une conique non dégénérée à centre C et Φ la forme
bilinéaire associée. Deux directions Vect{u} et Vect{v} sont conjuguées si Φ(u, v) = 0.
C’est une relation symétrique : si u et v sont sur une ellipse et v dirige la tangente en u, alors u
dirige la tangente en v. On obtient le même résultat en réunissant deux hyperboles d’équations
Ax2 + 2Bxy + Cy 2 = ±1.
24
Définition: Un produit scalaire sur un plan vectoriel P est une forme bilinéaire symétrique
Φ sur P × P telle que ∀ u ∈ P \ {0}, Φ(u, u) > 0.
Le seul cas d’égalité est celui où u et v sont liés. En effet si ∆0 = 0 il existe t ∈ R tel que
(u + tv) · (u + tv) = 0. Par définition d’un produit scalaire cela implique u + tv = 0. D’où le
résultat.
Par définition la forme quadratique associée à un produit scalaire est définie positive. Elle est
non dégénérée et l’orthogonal d’un vecteur non nul est une droite.
Définition: Une norme k.k sur P est euclidienne si u −→ kuk2 est la forme quadratique
associée à un produit scalaire. Muni de cette norme le plan P devient euclidien.
Une structure euclidienne sur un plan vectoriel est l’ensemble constitué par le produit sca-
laire, la forme quadratique associée, et la norme euclidienne, chacun déterminant les deux
autres.
25
La structure euclidienne standard sur R2 est celle définie par le produit scalaire usuel.
Les définitions de vecteur unitaire ou de base orthonormée sont celles du cas standard. En
particulier une base B est orthonormée pour la structure euclidienne induite par Φ ssi la matrice
de Φ dans B est la matrice identité.
Comme dans le cas standard, un vecteur unitaire u possède deux vecteurs unitaires orthogonaux
v et −v. Donc tout vecteur unitaire appartient à deux bases orthonormées.
Dans le cas standard il y a une simplification. La base canonique est orthonormée et tout
élément (x, y) de R2 s’exprime naturellement dans la base canonique i.e. (x, y) = x c1 + y c2 .
Enfin on a (x, y)⊥ = Vect (−y, x) si (x, y) 6= (0, 0).
Dans le cas général, rien de tout ceci n’est vrai et il faut une méthode pour trouver un vecteur
unitaire orthogonal à un vecteur donné.
Algorithme de Gram-Schmidt. Soit {u, v} une famille libre. Il existe une base orthonormée
unique {u1 , u2 } telle que u1 ∈ Vect{u}, u1 · u > 0 et u2 · v > 0.
1
Démonstration. On a u1 = u. Supposons que u2 existe. Alors
kuk
v = (v · u1 )u1 + (v · u2 )u2 .
L’algorithme est dans la construction de la base et non dans son existence. La base obtenue
s’appelle l’orthogonalisée de Gram-Schmidt de la base de départ. Elle dépend de la struc-
ture euclidienne.
Cet algorithme est surtout utile en dimension supérieure. Dans le cas d’un plan, u étant donné
et w étant quelconque, on écrit Φ(u, w) sous la forme u0 · w où · désigne le produit euclidien
standard. On prend alors w orthogonal à u0 .
Exemple : Soit Q(x, y) = 2x2 + 4xy + 3y 2 et u = (a, b). Pour tout w = (s, t) on a
26
1.7.2 Isométries
Définition: Soit P et P 0 deux plans euclidiens et k.kP , k.kP 0 les normes sur P et P 0 . Une
isométrie φ : P −→ P 0 est une application linéaire telle que
∀u ∈ P, kφ(u)kP 0 = kukP .z
Une application linéaire φ est une isométrie ssi l’image d’une base orthonormée est une base
orthonormée. On vient de voir qu’un plan euclidien possède des bases orthonormées et donc
tout plan euclidien est isométrique à R2 muni de sa structure standard. Par conséquent tous
les résultats obtenus sur R2 sont valables sur tous les plans euclidiens et toutes les définitions
peuvent être transposées. Il suffit de remplacer le produit scalaire et la norme par leurs nouvelles
définitions et le reste suit.
Dans les calculs, il faut toujours tenir compte de la structure euclidienne choisie. Surtout dans
R2 où la structure standard est présente par le biais des composantes.
Chapitre 2
Dimension 3
La structure euclidienne standard sur R3 est définie par le triplet : produit scalaire, forme
quadratique, norme euclidienne soit si u = (x, y, z) et v = (x0 , y 0 , z 0 )
p
u · v = xx0 + yy 0 + zz 0 , Q(u) = x2 + y 2 + z 2 , kuk = x2 + y 2 + z 2
Les définitions vues en dimension 2 passent avec des modifications évidentes ainsi que beaucoup
de résultats. On se concentrera sur ceux pour lesquels le passage n’est pas évident.
2.1 Orthogonalité
e⊥ ⊥
1 ∩ e2 ⊆ Π
⊥
27
28
2.1.1 Distance
3 3 u·v u·v
Soit u ∈ R . Alors ∀v ∈ R , v= u+ v− u .
kuk2 kuk2
Cette formule, déjà vue dans le plan, fournit la décomposition de v sur Vect{u} ⊕ u⊥ . Elle
donne les projections de v sur Vect{u} et sur u⊥ .
∀u ∈ R3 , d(u, Π) = |u · v|.z
|ax + by + cz|
d(u, Π) = √ .
a2 + b 2 + c 2
− Si (e1 , e2 ) est une base de Π, on peut trouver un vecteur unitaire de Π⊥ en utilisant le produit
1
vectoriel soit v = e1 ∧ e2 . On obtient
ke1 ∧ e2 k
dét (e1 , e2 , u)
d(u, Π) = .
ke1 ∧ e2 k
29
Un outil courant en algèbre linéaire est le raisonnement par récurrence sur la dimension. Le
passage de 2 à 3 est facilité par le fait que 3 est impair. Les polynômes de degré impair et à
cœfficient réels ont toujours au moins une racine réelle. Pour le voir on étudie les variations sur R
et on applique le théorème des valeurs intermédiaires. Donc, en dimension 3, un endomorphisme
a toujours une droite propre, ce qui permet souvent de se ramener à un plan.
Proposition 2.3. Un endomorphisme autoadjoint sur R3 admet une base propre orthonormée.
Donc ψ est endomorphisme autoadjoint de Π, muni de la structure euclidienne induite par celle
de R3 . Comme Π est de dimension 2, ψ admet une base propre orthonormée {v, w}. Finalement
{u, v, w} est une base orthonormée de R3 , propre pour φ.
Corollaire 2.1. Toute matrice symétrique réelle sur R3 se diagonalise sur une base orthonor-
mée.
2.3 Isométries
Comme sur R2 on peut donner une description assez complète des isométries sur R3 . Toutefois
il n’est pas possible de donner une paramétrisation aussi simple des matrices orthogonales.
Proposition 2.4. Toute isométrie φ en dimension 3 possède une droite D et un plan P stables
par φ, tels que P = D⊥ .
Démonstration. Soit λ est valeur propre de φ et u un vecteur propre associé. Soit D la droite
engendrée par u. L’orthogonalité étant préservée par φ le plan P = u⊥ est globalement invariant
par φ.
30
soit dét φ = 1 pour les isométries positives et dét φ = −1 pour les isométries négatives.
Passons à une classification géométrique.
La restriction de φ à D est une isométrie, soit ± l’identité. Sa restriction à D⊥ est une isométrie
plane i.e. une rotation ou une symétrie. On peut donc classifier les isométries vectorielles selon
les combinaisons possibles.
Soit (v, w) une base orthonormée de P , quelconque dans le cas de la rotation, ou diagonale
dans le cas de la symétrie, i.e. telle que φ(v) = v et φ(w) = −w .
Une réflexion est une anti-rotation d’angle nul, et un demi-tour est une rotation d’angle π. Ces
4 catégories se réduisent à 2, ayant chacune 2 cas particuliers ;
De la classification précédente il découle que dans une base orthonormée bien choisie, φ a une
matrice d’un des 2 types :
1 0 0 (
θ = 0, φ = Id ;
−
0 cos θ − sin θ , rotation, cas particuliers :
θ = π, φ est un demi-tour.
0 sin θ cos θ
−1 0 0 (
θ = 0, φ est une réflexion
−
0 cos θ − sin θ , anti-rotation, cas particuliers :
θ = π, φ = −Id
0 sin θ cos θ
Remarques:
– Le produit de deux isométries positives étant positif, le produit de 2 rotations est une rota-
tion... etc
– Si on échange l’ordre des deux derniers vecteurs de base, θ est changé en son opposé. Si
θ ∈ ] − π, π], alors |θ| est l’angle de la rotation ou de l’anti-rotation correspondante.
– Il n’y a pas de Relation de Chasles pour les angles de rotation en dimension 3.
En général une matrice orthogonale ne se présente pas sous cette forme. Pour montrer qu’une
matrice A est orthogonale on peut soit vérifier que les colonnes forment une base orthonormée
de R3 , soit les lignes, soit que AT A = I3 .
Pour une matrice A ∈ O(3) on peut déterminer les caractéristiques de l’isométrie associée φ,
selon le signe de dét A et la valeur de TrA.
Rappelons que Trφ = TrA, la trace de A, i.e., la somme de ses éléments diagonaux, est aussi
la somme des valeurs propres (dans C) de A ou de φ et ne dépend pas de la base.
− dét A = 1 ⇐⇒ A ∈ O+ (3) : φ est une rotation d’angle θ tel que 1 + 2 cos θ = trA.
Cas particuliers : si TrA = 3, φ = Id et si TrA = −1, φ est un demi-tour.
− dét A = −1 ⇐⇒ A ∈ O− (3) : φ est une anti-rotation d’angle θ tel que −1 + 2 cos θ = trA.
Cas particuliers : si TrA = 1, φ est une réflexion et si TrA = −3, φ = −Id.
32
Un espace euclidien de dimension 3 peut être orienté par le choix d’une base de référence. Dans
R3 on choisit la base canonique. On peut alors définir le déterminant de trois vecteurs comme
étant celui calculé dans une base orthonormée directe quelconque.
Soit u et v deux vecteurs. L’application L définie sur R3 par
est une forme linéaire. Il existe donc un vecteur φ(u, v) tel que L(w) = φ(u, v) · w. On note
φ(u, v) = u ∧ v d’où la formule
Définition: L’application de R3 ×R3 dans R3 qui à (u, v) associe u∧v est le produit vectoriel.
Le vecteur u ∧ v est le produit vectoriel de u et v.
– u et v sont colinéaires ⇐⇒ u ∧ v = 0,
– le produit vectoriel est une application bilinéaire alternée, i.e. u ∧ v = −v ∧ u,
– (u ∧ v) · w = (v ∧ w) · u = (w ∧ u) · v.
N orthogonal à u et v,
I de norme kukkvk sin α où α est la mesure de l’angle géométrique (d
u, v),
H et tel que (u, v, x) soit une base directe.
Démonstration. Ces propriétés définissent un vecteur unique. En effet les vecteurs u et v en-
gendrent un plan Π et la première condition implique x ∈ Π⊥ . La norme de x étant fixée, il
reste deux vecteurs possibles opposés, et la dernière condition en détermine un des deux.
Remarques :
− Si u · v = 0 et kuk = kvk = 1 alors (u, v, u ∧ v) est une base orthonormée directe.
− Si on change l’orientation de l’espace, le produit vectoriel est changé en son opposé.
Proposition 2.6. Soit u et v deux vecteurs de coordonnées (u1 , u2 , u3 ) et (v1 , v2 , v3 ) dans une
base orthonormée directe (e1 , e2 , e3 ). Alors les coordonnées de u ∧ v sont données par
Le formalisme est le même qu’en dimension 2 : à une forme quadratique Q sur R3 sont associés
une forme bilinéaire symétrique Φ, un opérateur autoadjoint φ et enfin M sa matrice dans la
base canonique.
Les différences sont au niveau de la classification et des calculs. A noter que si Q est une forme
quadratique non dégénérée, alors l’orthogonal, relativement à Q, d’un vecteur est un plan et
non plus une droite.
2.5.1 Orthogonalité
Proposition 2.7. Toute forme quadratique sur R3 admet une base orthogonale.
Proposition 2.8. Toute forme quadratique sur R3 admet une base orthogonale B, qui est
orthonormée pour la forme quadratique standard.
2.5.2 Classification
Comme en dimension 2 une forme quadratique Q peut avoir plusieurs comportements mais la
variété est plus grande en dimension 3. La classification des formes quadratiques repose à nou-
veau sur la notion de signature. Pour que celle-ci soit bien définie il faut vérifier que toutes les
35
décompositions en carrés d’une forme quadratique donnée ont même nombre de termes positifs
et de termes négatifs. Ces nombres (p, q) constituent la signature.
Définition: Une décomposition en carrés d’une forme quadratique Q sur R3 est une
X 2
expression de la forme Q(u) = ± Li (u) où les Li ’s sont des formes linéaires indépen-
i
dantes.
La condition d’indépendance limite leur nombre à 3. En effet chaque Li peut s’écrire sous la
forme Li (u) = fi · u de sorte que l’indépendance des Li équivaut à celles des fi .
Soit B = (e1 , e2 , e3 ) une base orthonormée dans laquelle Q se diagonalise. Si u1 , u2 , u3 désignent
les composantes de u dans B on a
Q(u) = λ1 u1 2 + λ2 u2 2 + λ3 u23 .
Donc toute forme quadratique admet au moins une décomposition en carrés. L’algorithme de
Gauss fournira un moyen plus simple d’en obtenir.
X X
Soit Q(u) = (fi · u)2 − (fj · u)2 une décomposition en carrés, I et J étant deux parties
i∈I j ∈J
disjointes de {1, 2, 3}. Nous voulons montrer que ]I ne dépend que de Q et pas de la décompo-
sition en carrés choisie.
− Si ]I + ]J = 3 alors {fi , i ∈ I} ∪ {fj , j ∈ J} forment une base. Soit F+ = Vect{fi , i ∈ I}
et F− = Vect{fj , j ∈ J}. La restriction de Q à F+ est positive et ne s’annule qu’en 0 tandis
que la restriction de Q à F− est négative ou nulle. De plus dim F+ + dim F− = 3.
Réciproquement soit G un sous-espace tel que la restriction de Q à G soit négative ou nulle.
Alors G ∩ F+ = {0} d’où dim G ≤ 3 − dim F+ . Donc
le sup étant pris sur les sous-espaces tels que Q|G ≤ 0, et étant atteint pour G = F− . Cette
caractérisation de dim F+ = ]I ne dépend que de Q et non de la décomposition en carrés.
⊥
− Si ]I + ]J < 3 on pose H = Vect{fi , i ∈ I} ∪ {fj , j ∈ J} et on note {fk , k ∈ K} une
base de H. Il suffit de remplacer F− = Vect{fj , j ∈ J} par
2
y 2 y 2
x + xy + 2xz = x + + z − +z .
2 2
y 2 y 2
D’où x2 + xy + y 2 + 2xz + 2yz = x + + z − + z + y 2 + 2yz.
2 2
y y 2
e z) = −
On peut donc poser L1 (x, y, z) = x + + z, Q(y, + z + y 2 + 2yz et on a
2 2
2
Q(x, y, z) = L1 (x, y, z) + Q(y,
e z)
(s + t)2 − (s − t)2
En utilisant la formule st = on obtient
4
(x + y + 5z)2 − (x − y + z)2
Q(x, y, z) = − 6z 2 .
4
Pour certaines formes quadratiques, il n’est pas nécessaire de les décomposer en carrés pour
déterminer leur signature.
Définition: Soit M = (ai,j )1≤i,j≤n une matrice carrée et pour tout 1 ≤ k ≤ n soit Mk la
matrice (ai,j )1≤i,j≤k . Les mineurs principaux de M sont les déterminants ∆k = dét Mk pour
1 ≤ k ≤ n.
a1,1 a1,2
En dimension 3 une matrice carrée M = (ai,j )1≤i,j≤3 a trois mineurs principaux : a1,1 ,
a
2,1 a2,2
et dét M .
Critère de Sylvester. Soit M une matrice symétrique 3, 3. Elle est définie positive ssi
37
Démonstration. =⇒ Si M est définie positive, ses valeurs propres sont strictement positives
et donc dét M > 0. Ses cœfficients diagonaux sont strictement positifs d’où a1,1 > 0. Enfin la
sous-matrice M2 est la matrice de la restriction de Q au plan Vect c1 , c2 . Comme Q est définie
positive, sa restriction aussi et ∆2 > 0.
⇐= Si ∆1 = a1,1 > 0 et ∆2 > 0, la restriction de Q au plan Vect c1 , c2 est définie positive.
Donc si σ(Q) = (p, q) alors p ≥ 2. D’où
∆3 = 0 =⇒ σ(Q) = (2, 0), ∆3 < 0 =⇒ σ(Q) = (2, 1), et ∆3 > 0 =⇒ σ(Q) = (3, 0).
D’où le résultat.
Un espace vectoriel est euclidien s’il est muni d’un produit scalaire i.e. une forme bilinéaire
symétrique définie positive.
Le seul point pratique qui change par rapport à la dimension 2 est l’algorithme de Gram-
Schmidt qui comporte une étape de plus.
La notation u · v représente un produit scalaire quelconque.
Algorithme de Gram-Schmidt. Soit {u, v, w} une base d’un espace vectoriel euclidien (E, ·).
Il existe une base orthonormée unique {u1 , u2 , u3 } de E telle que u1 ∈ Vect{u}, u2 ∈ Vect{u, v}
u1 · u > 0, u2 · v > 0 et u3 · w > 0.
1 1
Démonstration. Comme en dimension 2 on pose u1 = u, U2 = v − v · u1 u1 et u2 =
U2 .
kuk
U2
1
On complète en posant U3 = w − w · u1 u1 − w · u2 u2 et u3 =
U3
U3 . Par construction
On peut être tenté de trouver des bases orthonormées en utilisant le produit vectoriel.
1 1
Partant de u1 = u, on enchaîne avec u3 = u1 ∧ v et on conclut avec u2 = ±u3 ∧ u1
kuk ku1 ∧ vk
selon que (u, v, w) est une base directe ou non.
La faiblesse de cette méthode est qu’elle suppose de travailler en coordonnées sur une base or-
thonormée pour pouvoir exprimer le produit vectoriel. En revanche Gram-Schmidt s’applique
38
sans préalable.
Comme en dimension 2, l’existence de bases orthonormées dans les espaces euclidiens de di-
mension 3 font qu’ils sont tous isométriques. Donc on peut toujours se ramener à R3 . Le seul
éceuil est que si on est sur R3 muni d’une structure euclidienne non standard, la base canonique
n’est pas orthonormée.
Chapitre 3
Dimension n
3.1 Dualité
Définition: Une forme linéaire sur un espace vectoriel réel E est une application linéaire de
E dans R.
Définition: Soit E un espace vectoriel. Son espace dual, noté E ∗ , est l’espace vectoriel des
formes linéaires sur E.
n
X
Soit B = (ei )1≤i≤n une base de E. Tout x ∈ E s’écrit de façon unique sous la forme x = xi ei
i=1
où les xi sont les composantes de x dans B. Pour tout i l’application x −→ xi est une forme
linéaire notée e∗i .
Pour j fixé e∗i (ej ) est la composante de ej sur ei , donc e∗i (ej ) = 0 si i 6= j et e∗i (ej ) = 1 si i = j.
Théorème 3.1. Soit B = (ei )1≤i≤n une base de E. Alors B ∗ = (e∗i )1≤i≤n est une base de E ∗ .
Démonstration. Il suffit de montrer que toute forme linéaire f il existe une combinaison linéaire
n
λi e∗i égale à f .
X
unique
i=1
− Existence. Soit f ∈ E ∗ . Pour tout x ∈ E de composantes (xi )1≤i≤n ,
n
! n n
e∗i (x)f (ei ).
X X X
f (x) = f xi e i = xi f (ei ) =
i=1 i=1 i=1
39
40
n
f (ei ) e∗i , d’où le résultat.
X
Le vecteur x étant quelconque f =
i=1
n
λi e∗i = f . Pour tout j,
X
n
− Unicité. Soit (λi )1≤i≤n ∈ R tel que
i=1
n n
λi e∗i (ej ) =
X X
z f (ej ) = λi δi,j = λj . D’où l’unicité.
i=1 i=1
D’où Q = (P T )−1 .
3.1.1 Orthogonalité
Soit f ∈ A⊥ ⇐⇒ ∀x ∈ A, f (x) = 0.
Par linéarité on voit que A⊥ est un s.e.v. de E ∗ et que, si F = VectA, alors F ⊥ = A⊥ .
De plus A ⊆ B =⇒ A⊥ ⊇ B ⊥ .
Démonstration. Soit k = dim F et B = (ei )1≤i≤n une base de E telle que (ei )1≤i≤k soit une base
de F et soit (e∗i )1≤i≤n sa base duale. Alors e∗j , j > k est une famille libre qui engendre un
41
D’où le résultat.
N (F + G)⊥ = F ⊥ ∩ G⊥ et H (F ∩ G)⊥ = F ⊥ + G⊥ .
Soit η : E −→ E ∗ l’application qui à x associe la forme linéaire Φ(x, ·). La précédente définition
implique que η est une application linéaire.
Les différences entre les dimensions 2 et 3 ou n sont minces pour ce qui est des définitions
et des résultats. Pour les algorithmes, Gram-Schmidt, Gauss, Sylvester, seule la complexité
augmente. Pour les démonstrations la différence est plus nette et il faut changer de méthode,
par exemple pour la diagonalisation des endomorphismes autoadjoints ou la représentation des
matrices orthogonales.
Il faut aussi des notations adaptées à la dimension n. Lorsqu’un espace vectoriel E de dimension
n est muni d’une base B = (ei )1≤i≤n on note les vecteurs par des lettres simples x, y et leurs
composantes sous la forme (xi )1≤i≤n ou (yi )1≤i≤n . Les vecteurs colonnes de leurs composantes
sont notés X ou Y et les vecteurs lignes correspondants sont notés X T ou Y T . Si Φ est une
forme bilinéaire symétrique, alors pour tous x, y ∈ E,
n n
!
X X X X
Φ(x, y) = Φ xi ei , yj ej = Φ (xi ei , yj ej ) = xi yj Φ (ei , ej ) .
i=1 j=1 1≤i,j≤n 1≤i,j≤n
3.2.1 Orthogonalité
x ∈ A| ⇐⇒ η(x) ∈ A⊥ ou encore A| = η −1 A⊥ .
En d’autres termes
Si η est une bijection, i.e. si Φ est non dégénérée, alors η préserve la dimension des sous-espaces
43
et les résultats sur la dimension et l’orthogonalité vus dans le cadre de la dualité restent valables.
⊥
Il suffit de remplacer par | . Passons au cas général.
Démonstration. ⊆ Soit f ∈ Imη et x ∈ E tel que η(x) = f i.e. ∀y ∈ E, f (y) = Φ(x, y). Si
y ∈ KerΦ alors Φ(x, y) = 0 soit f (y) = 0. Comme y est quelconque dans KerΦ, on en déduit
f ∈ (KerΦ)⊥ ou f ∈ (Kerη)⊥ par définition. On a donc montré Imη ⊆ (Kerη)⊥ .
L’inclusion réciproque découle de dim Imη = n − dim Kerη = dim(Kerη)⊥ .
Comme F | = η −1 F ⊥ on en déduit
⊥
D’après la proposition précédente F ⊥ ∩ Imη = F + Kerη d’où
N F | ∩ G| = (F + G)| et H F | + G| ⊆ (F ∩ G)| .
Bien que l’orthogonalité soit surtout utilisée lorsque la forme bilinéaire est non dégénérée, il est
44
instructif de voir à quelle condition l’inclusion réciproque de H est vraie. On note K = Kerη.
D’autre part dim(F ∩ G)| = n − dim(F ∩ G) + dim (F ∩ G) ∩ K .
soit (F ∩ K) + (G ∩ K) = (F + G) ∩ K.
Définition: Une base (ei )1≤i≤n est orthogonale pour une forme bilinéaire symétrique Φ si
Φ(ei , ej ) = 0 pour i 6= j.
L’existence de bases orthogonales pour une forme bilinéaire donnée se montre par récurrence à
partir du fait suivant. Soit Φ une forme bilinéaire symétrique. Si Φ 6= 0, il existe x ∈ E tel que
/ x| . Il en découle que Vect{x} et x| sont supplémentaires. L’hypothèse
Φ(x, x) 6= 0, soit x ∈
de récurrence donne une base orthogonale de x| , qu’on peut compléter par {x} pour avoir une
base orthogonale de E. Si A est la matrice de Φ dans une base B = (ei )1≤i≤n alors
Définition: Un espace vectoriel E est euclidien s’il est muni d’un produit scalaire.
Le produit scalaire de deux vecteurs x, y est souvent noté x · y et cette notation est réservée aux
produits scalaires. Lorsqu’il y en a plusieurs on note aussi Φ(x, y) ou Ψ(x, y) mais ces notations
sont aussi utilisées pour des formes bilinéaires symétriques quelconques.
A coté de Rn muni de sa structure standard, les exemples les plus courants d’espaces euclidiens
sont des espaces de polynômes. Soit En l’espace vectoriel, de dimension n + 1, des polynômes
45
de degré au plus n, et f une fonction continue positive sur un intervalle ]a, b[ . On peut définir
un produit scalaire en posant
Z b
Φ(P, Q) = P (t)Q(t) f (t) dt.
a
Soit · un produit scalaire sur E. D’après ce que l’on vient de voir il existe des bases orthogonales
sur E. Soit (ei )1≤i≤n une telle base. Comme ei · ei > 0 pour tout i on peut poser
2
1 1
e0i =√ ei de sorte que e0i · e0i = √ ei · ei = 1.
ei · ei ei · ei
En d’autres termes les e0i sont unitaires et B 0 = (e0i )1≤i≤n est une base orthonormée. Par défini-
tion d’une base orthonormée ei · ej = δi,j . La matrice A de Φ dans une base orthonormée est
donc A = In . D’où l’écriture du produit scalaire sous forme matricielle :
Φ(x, y) = X T Y .
Soit B = (ei )1≤i≤n une base orthonormée. Sa base duale (e∗i )1≤i≤n prend une forme particulière :
n
e∗i (x) = x · ei
X
∀x ∈ E, x = (x · ei )ei soit ∀1 ≤ i ≤ n,
i=1
n
X
Démonstration. Pour l’égalité de gauche soit x ∈ E et y = (x · ei )ei . Pour 1 ≤ j ≤ n,
i=1
n
X n
X
y · ej = (x · ei )ei · ej = (x · ei )δi,j = x · ej .
i=1 i=1
n
X
Donc (y − x) · ej = 0 pour 1 ≤ j ≤ n. Comme B est une base, y − x = 0 i.e. x = (x · ei )ei .
i=1
L’égalité de droite découle de la définition d’une base duale. Elle établit un isomorphisme entre
E ∗ et E. En conséquence, sur un espace euclidien une forme linéaire est écrite sous la forme
x −→ u · x avec u ∈ E plutôt que x −→ f (x) avec f ∈ E ∗ . Il n’y a donc pas lieu d’avoir deux
symboles pour distinguer l’orthogonalité relativement à Φ et celle sur E × E ∗ . On emploie ⊥
|
dans les deux cas et on réserve au cas où une seconde forme bilinéaire apparaît.
Une conséquence de cette formule est une nouvelle expression des éléments de la matrice d’un
n
e∗i φ(ej ) ei
X
endomorphisme. Si A = (ai,j ) est la matrice d’un endomorphisme φ on a φ(ej ) =
i=1
de sorte que ai,j = e∗i φ(ej ) . Si B = (ei )1≤i≤n est une base orthonormée, on peut écrire
ai,j = ei · φ(ej ).
46
n
X
Exemple : Soit B = (ei )1≤i≤n une base orthonormée et u = ui ei un vecteur unitaire. Soit
i=1
πu la projection orthogonale sur Vect{u} et A = (ai,j ) sa matrice dans B. Alors
∀x ∈ E, πu (x) = (x · u) u, z
d’où ai,j = ei · πu (ej ) = ei · (ej · u)u = (ej · u)(ei · u) = uj ui .
ui uj
Si u n’est pas unitaire on normalise, ce qui donne ai,j = .
kuk2
∀x ∈ E, ∀f ∈ E ∗ , φ∗ (f ) (x) = f φ(x) .
en posant
Dans le cadre d’un espace euclidien (E, ·) cette définition est adaptée en posant
Théorème 3.4. Un endomorphisme autoadjoint sur un espace euclidien admet une base propre
orthonormée.
f (w + tv) = (w + tv) · φ(w + tv) = f (w) + t v · φ(w) + w · φ(v) + t2 f (v).
Donc ψ est autoadjoint. L’hypothèse de récurrence entraîne que ψ admet une base propre
orthonormée. En complétant cette base de w⊥ par w, on obtient une base orthonormée de E
qui est propre pour φ.
Corollaire 3.2. Une forme bilinéaire symétrique Φ sur un espace euclidien E admet une base
qui est orthogonale, et orthonormée pour la structure euclidienne de E.
48
Corollaire 3.3. Une matrice symétrique réelle se diagonalise sur une base orthonormée de Rn .
Il s’agit plus d’un cas particulier que d’un corollaire. En effet une matrice symétrique A définit
canoniquement un endomorphisme autoadjoint sur Rn : l’application sur les vecteurs colonnes
X −→ AX se traduit par x −→ φ(x) sur Rn .
3.3.2 Isométries
Pour avoir une classification plus précise de O(n) s’appuyant sur des matrices types, on peut
utiliser le théorème précédent.
Théorème 3.5. Soit (E, ·) un espace euclidien de dimension n et φ une isométrie sur E.
Il existe deux s.e.v. F et G et des plans Πi , 1 ≤ i ≤ k tous orthogonaux deux à deux tels que
Démonstration. Les s.e.v. F et G peuvent être éventuellement réduits à {0}. Sinon, i.e. si 1 et
−1 sont des valeurs propres de φ, ce sont les sous-espaces propres associés. L’espace F ⊕ G est
stable par φ ainsi que son orthogonal H. Comme les seules valeurs propres possibles de φ sont
1 et −1, H ne contient aucun vecteur propre de φ.
On va procéder par récurrence sur dim H. Soit ψ = φ|H . Comme ψ n’a pas de valeurs propres
dim H est paire. Si dim H = 2 l’hypothèse est vérifiée.
49
montre que Πu est stable par ψ. La restriction de ψ à Πu est une rotation plane car ψ n’a pas
de vecteur propre dans H. L’hypothèse de récurrence appliquée à l’orthogonal de Πu dans H
permet de conclure.
De ce théorème on déduit que toute matrice orthogonale A sur Rn est semblable à une matrice
de deux types, selon que N dét A = 1 ou H dét A = −1. Si n = 4 ces deux types sont
cos α − sin α 0 0 1 0 0 0
sin α cos α 0 0 0 −1 0 0
N H
0
0 cos β − sin β
0 0 cos γ − sin γ
0 0 sin β cos β 0 0 sin γ cos γ
Proposition 3.5. Soit E un espace euclidien et B = (ei )1≤i≤n une base de E. Il existe une
base orthonormée unique B 0 = (ui )1≤i≤n telle que
– ∀ k ≤ n, Vect{ei , i ≤ k} = Vect{ui , i ≤ k},
– ∀ k ≤ n, uk · ek > 0.
e1
Démonstration. Pour tout k on note Ek = Vect{ei , i ≤ k}. Si k = 1, u1 = .
ke1 k
Pour k > 1 on procède par récurrence. Le s.e.v. Ek est un espace euclidien de dimension k,
dont Ek−1 est un hyperplan. Par hypothèse de récurrence (ui )1≤i≤k−1 est une base orthonormée
de Ek−1 .
⊥
Soit ∆k la droite Ek ∩Ek−1 i.e. l’orthogonal de Ek−1 dans Ek . On veut uk ∈ ∆k ce qui détermine
50
uk au signe près, lui-même déterminé par la condition uk ·ek > 0. Pour calculer uk on décompose
ek sur Ek−1 ⊕ ∆k soit ek = vk + Uk . En projetant ek orthogonalement sur Ek−1 on obtient
k−1
X k−1
X
vk = (ek · ui ) ui d’où Uk = ek − vk = ek − (ek · ui ) ui .
i=1 i=1
Le cadre naturel pour parler de distance est celui des espaces affines : la distance d(A, B) entre
−→
deux points A et B est par définition la longueur du vecteur AB. Un espace vectoriel E a une
structure canonique d’espace affine : il suffit de poser −
→ = y − x.
xy
Définition: Etant donné un produit scalaire Φ et la norme associée k.k, la distance d(u, v)
entre 2 vecteurs u et v est définie par d(u, v) = ku − vk.
Définition: La distance d(u, X) d’un vecteur u à un sous-ensemble X de E est définie par
d(u, X) = inf d(u, x), x ∈ X .
Lorsque X est fermé, le minimum est atteint. Le cas le plus courant est celui où X est un
sous-espace.
d’en déterminer une. En effet le seul outil est essentiellement Gram-Schmidt dont la complexité
augmente au moins comme le carré de la dimension.
Exemples
Moyenne et variance Soit x ∈ Rn , x = (x1 , x2 , ..., xn ). Si les xi sont les résultats d’une même
expérience répétée n fois, on souhaite que les xi soient proches. On note X la variable aléatoire
1
définie sur [1, n] par X(i) = xi . On note f1 = (1, 1, ..., 1), e1 = √ f1 et ∆ = Vect{e1 } la
n
n
diagonale principale de R . La distance d(x, ∆) mesure ! la dispersion des!résultats. Le minimum
n n
1 X 1 X
est atteint en π∆ (x) soit en (e1 , x)e1 = √ xi e 1 = xi f1 = µ f1 où µ est la
n i=1 n i=1
moyenne de X. On a alors
2
2
2
d(x, ∆) =
x − (x · e1 )e1
= kxk2 −
(x · e1 )e1
= kxk2 − nµ2 .
Distance à un hyperplan. Un hyperplan de Rn peut être défini soit par une équation carte-
sienne, soit par une base.
Xn
− Soit H d’équation ai xi = 0. Cette équation exprime que H = e⊥ où e = (ai )1≤i≤n . Pour
i=1
appliquer la proposition 3.6, il faut identifier π, la projection orthogonale sur Vect{e} = H ⊥ .
Soit u un vecteur unitaire colinéaire à e. Alors π(y) = (y · u)u. D’où
|y · e|
∀ y ∈ Rn d(y, H) =
π(y)
= |y · u| = .z
kek
− Si H est déterminé par une base orthonormée (ei )1≤i≤n−1 le calcul de d(u, H) a été fait plus
haut. En général cette base est complétée en une base de Rn et on connaît un vecteur de H ⊥ .
Si H est déterminé par une base qui n’est pas orthonormée on peut soit utiliser Gram-Schmidt
pour en construire une, soit utiliser la proposition suivante.
Proposition 3.7. Soit F = (fi )1≤i≤k une famille libre et F = VectF. Soit B la matrice k, k
de terme général bi,j = fi · fj . Pour u ∈ E soit Bu la matrice k + 1, k + 1 analogue à B obtenue
2 dét Bu
en ajoutant u à F. Alors d(u, F ) = .
dét B
Démonstration. Si u ∈
/ F , Bu est la matrice du produit scalaire sur F + Vect{u} exprimée
dans la base F ∪ {u}. Elle est donc définie positive et dét Bu > 0.
En revanche si u ∈ F les colonnes de Bu sont liées et dét Bu = 0. En résumé
dét Bu = 0 ⇐⇒ u ∈ F ⇐⇒ d(u, F ) = 0
52
D’autre part la matrice de passage de F ∪ {u} à F ∪ {w} est triangulaire avec des 1 sur
la diagonale. Par la formule de changement de base pour les matrices de formes bilinéaires
symétriques, on en déduit dét Bu = dét Bw . Finalement
dét Bu dét Bw 2
= = kwk2 = d(u, F ) .
dét B dét B
D’où le résultat.
On peut aussi appliquer la proposition 3.7 si un sous-espace F , au lieu d’être donné par une base,
est déterminé par une famille d’équations cartésiennes indépendantes. En effet ces équations
cartésiennes fournissent une base de F ⊥ .
En dimension 3 le produit vectoriel permet aussi de calculer la distance d’un vecteur à un plan.
dét (u, v, w)
Si P est engendré par u et v, d(w, P ) = .
ku ∧ vk
1
Démonstration. Soit D = P ⊥ la droite engendrée par u ∧ v et k = u ∧ v un vecteur
ku ∧ vk
directeur unitaire de D. D’après la proposition 3.6,
w · (u ∧ v) dét (u, v, w)
z d(w, P ) =
πD (w)
= |w · k| = = .
ku ∧ vk ku ∧ vk
1
Φ(x, y) = Q(x + y) − Q(x) − Q(y)
2
∀ x, y ∈ E Φ(x, y) = X T AY z .
n
X n
X X
T
D’où ∀x = xi e i , Q(x) = X AX = ai,i x2i + 2 ai,j xi xj .
i=1 i=1 1≤i<j≤n
Par définition la matrice de Q dans B est celle de Φ.
Dans l’expression précédente on a isolé les termes carrés et regroupés les termes égaux.
1
x2i −→ xi yi et xi xj −→ (xi yj + xj yi ).
2
Si dans une forme quadratique le facteur 2 n’est pas présent dans l’expression des termes croisés,
on peut le réintroduire et faire ainsi apparaître les cœfficients de la matrice :
3 5
Q(x) = x21 + 3x1 x2 + 5x1 x3 + 2x3 x4 = x21 +2 x 1 x2 + x1 x3 + x3 x4 .
2 2
Soit B = (ei )1≤i≤n la base de E et B ∗ sa base duale. Montrons que la matrice de η dans B et
n
∗ ai,j e∗i . Or
X
B est celle de Φ dans B. Il s’agit d’identifier les cœfficients ai,j tels que η(ej ) =
i=1
n
Φ(ej , ei )e∗i .z
X
∀1 ≤ j ≤ n, η(ej ) = Φ(ej , .) =
i=1
On retrouve (ai,j ) = Φ(ej , ei ) . Le rang d’une forme quadratique est donc celui de sa matrice
dans une base quelconque.
Une forme quadratique est définie positive si elle est positive et n’admet pas de vecteur isotrope
non nul. Idem pour définie négative. Réciproquement une forme quadratique qui n’est pas définie
positive ou négative, a des vecteurs isotropes non nuls.
54
Soit B = (ei )1≤i≤n une base et A la matrice de Q dans B. La dimension du noyau ou le rang
de Q se lisent immédiatement sur A si A est diagonale i.e. si B est orthogonale pour Φ. Dans
Xn
ce cas Q(x) = x2i Q(ei ). Selon que Q(ei ) > 0, Q(ei ) = 0 ou Q(ei ) < 0, on peut normaliser
i=1
chaque ei et supposer Q(ei ) ∈ {1, 0, −1} pour tout i. Quitte à changer l’ordre des ei on peut
p p+q
X X
2
écrire Q(x) = xi − x2i .
i=1 i=p+1
Définition: Une décomposition en carrés d’une forme quadratique est une écriture de la
p q
X 2 X 2
forme Q(x) = fi (x) − fj (x)
i=1 j=1
où les fi et les fj sont des formes linéaires indépendantes.
Sauf pour les formes quadratiques de rang 0 ou 1, les décompositions en carrés d’une forme
quadratique donnée ne sont pas uniques. En revanche elles ont toutes un point commun.
p q
X 2 X 2
Définition: Le couple (p, q) dans la décomposition en carrés Q(x) = fi (x) − fj (x)
i=1 j=1
est la signature de la forme quadratique Q, notée σ(Q).
Théorème 3.6. Soit Q une forme quadratique. Le couple (p, q) apparaissant dans ses décom-
positions en carrés est unique.
Démonstration. Nous allons montrer que p est la dimension maximale des s.e.v. F tels que
x 6= 0 et x ∈ F =⇒ Q(x) > 0.
p p+q
X 2 X 2
Soit Q(x) = fi (x) − fi (x) une décomposition en carrés. Soit (ei )1≤i≤n une base
i=1 i=p+1
telle que pour 1 ≤ j ≤ n et 1 ≤ i ≤ p + q, fi (ej ) = δi,j . Enfin soit F = Vect{ei , i ≤ p}. Alors
n p p
X X X
pour tous x = xi ei et j ≤ p + q, fj (x) = xj . Donc si x ∈ F , x = xi ei et Q(x) = x2i .
i=1 i=1 i=1
Donc x ∈ F \ {0} =⇒ Q(x) > 0, i.e. F , dont la dimension est p, a la propriété .
Réciproquement si dim F = r > p, alors dim F ∩ Vect{ei , i > p} = r + (n − p) − n = r − p.
Il existe donc un vecteur y 6= 0 tel que y ∈ F ∩ Vect{ei , i > p}. Donc y ∈ F et Q(y) ≤ 0. Il
en résulte que F n’a pas la propriété .
55
Finalement p est la dimension maximale annoncée. Cette dimension dépend de Q mais pas de
la décomposition en carrés choisie. De même pour q.
Dans σ(Q) = (p, q), l’entier p représente la dimension maximale des s.e.v. F tels que la restric-
tion de Q à F soit définie positive. On peut voir que la dimension maximale des s.e.v. F tels
que la restriction de Q à F soit positive est n − q. Les deux coïncident si p + q = n i.e. Q est
non dégénérée.
Soit Q une forme quadratique de matrice A = (ai,j ) dans une base B. Soit
X n
X X
Q(x) = X T AX = ai,j xi xj = ai,i x2i + 2 ai,j xi xj .
1≤i,j≤n i=1 1≤i<j≤n
N Si la diagonale n’est pas nulle on peut supposer a1,1 6= 0. On écrit alors Q sous la forme :
e sont une forme linéaire et une forme quadratique sur Rn−1 . Comme dans le cas du
où L et Q
trinôme on complète le carré ce qui donne
2
1
Q(x) = a1,1 x1 + L(x2 , ...xn ) + R(x
e 2 , ....xn )
2a1,1
où Re est une autre forme quadratique sur Rn−1 . La décomposition de Re en carrés donne des
1
formes linéaires indépendantes, et indépendante de la forme x −→ x1 + L(x2 , ...xn ). On a
2a1,1
donc réduit le problème d’un indice.
N Si la diagonale est nulle on peut supposer que a1,2 6= 0. On pourrait faire un changement de
variables, poser (u1 , u2 ) = (x1 + x2 , x1 − x2 ) et se ramener au cas précédent. L’algorithme de
Gauss permet d’éliminer les deux variables x1 et x2 d’un coup. Posons a = 2a1,2 . On a alors
Q(x) = ax1 x2 + x1 L1 (x3 , ....xn ) + x2 L2 (x3 , ...xn ) + Q(x
e 3 , ....xn ) où L1 , L2 et Q
e sont deux formes
On utilise la transformation d’un produit en différence de carrés. On se retrouve avec une forme
linéaire en x1 +x2 +... et une autre en x1 −x2 +.... Elle sont indépendantes de celles apparaissant
dans la décomposition de Q e − 1 L1 L2 . On a donc réduit le problème de deux indices.
a
Les formes quadratiques définies postives i.e. de signature (n, 0) sont celles qui sont associées
aux produits scalaires et aux normes euclidiennes. Le critère de Sylvester permet de déterminer
sans faire de décomposition en carrés si une matrice symétrique est celle d’un forme quadratique
définie positive.
Critère de Sylvester. Une matrice symétrique est définie positive ssi ses mineurs principaux
sont strictement positifs.
Démonstration. =⇒ Notons que si A est définie positive, ses valeurs propres sont strictement
positives et donc dét A > 0. De même toutes les sous-matrices principales de A sont définies
positives. Donc ∆k > 0 pour tout 1 ≤ k ≤ n.
⇐= Faisons une récurrence sur n. Le cas n = 1 est évident. Soit Q la forme quadratique
ayant A pour matrice dans la base canonique. Soit H l’hyperplan d’équation xn = 0. D’après
l’hypothèse de récurrence comme ∆k > 0 pour tout k ≤ n − 1, Q|H est définie positive. Donc
σ(Q) = (n − 1, 1) ou (n, 0). Comme dét A > 0, le produit des valeurs propres de A est positif,
ce qui exclut σ(Q) = (n − 1, 1). Il reste σ(Q) = (n, 0) i.e. Q est définie positive.