Vous êtes sur la page 1sur 59

Table des matières

1 Rappels 3
1.1 Formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.2 Base orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Interprétation matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Espaces Euclidiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.2 Sous–espace euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.3 Norme euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.4 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.5 Bases Orthonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.6 Interprétation matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.7 Adjoint d’un endomorphisme dans un espace euclidien . . . . . . . . . . . . . . . . 8
1.3 Isométries vectorielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.2 Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.3 Autres Propriétés et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.4 Cas des symétries orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.5 Classification des isométries linéaires en dimension 2, 3 . . . . . . . . . . . . . . . . 10

2 Géométrie Affine 11
2.1 Espaces Affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1 Définition. Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.2 Produit cartésien d’espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.3 Sous–Espace Affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2 Repères affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.1 Barycentre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.2 Points affinement indépendants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.3 Coordonnées Barycentriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.4 Construction de s.e.a par combinaisons affines . . . . . . . . . . . . . . . . . . . . . 17
2.2.5 Application à la détermination de s.e.a . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3 Applications Affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3.1 Définitions - L’espace des applications affines . . . . . . . . . . . . . . . . . . . . . 18
2.3.2 Exemples. Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3.3 Espace Image et espace image-réciproque par une application affine . . . . . . . . 19
2.3.4 Théorème FONDAMENTAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.5 Points fixes d’une application affine . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.6 Décomposition d’une application affine . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.7 Le groupe affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.8 Représentation complexe en dimension 2 des applications affines du plan réel . . . 22
2.3.9 Formes affines indépendantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4 Convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

61
62 TABLE DES MATIÈRES

2.4.2 Définitions - Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23


2.4.3 Propriétés - Construction de convexes . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.4 Construction de convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4.5 Enveloppe convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.5 Isométries Affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5.2 Caractérisation des isométries affines du plan . . . . . . . . . . . . . . . . . . . . . 28
2.5.3 Représentation complexe des isométries du plan . . . . . . . . . . . . . . . . . . . . 28
2.5.4 Caractérisation des isométries affines de l’espace . . . . . . . . . . . . . . . . . . . 29
2.6 Groupe laissant invariant un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

3 Coniques et quadriques 33
3.1 Compléments sur les formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.1.1 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.1.2 Classification des formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.1.3 Méthode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Coniques, Quadriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.1 Notations, Premières définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.2 E↵et d’un changement de variable affine . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2.3 Réduction de la quadrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2.4 Symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2.5 Réduction, cas complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2.6 Réduction, cas réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2.7 Réduction, cas euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2.8 Coniques réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2.9 Quadriques réelles de l’espace euclidien R3 . . . . . . . . . . . . . . . . . . . . . . . 41

4 Géométrie projective 45
4.1 Définitions - Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.1 Le point de vue vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.2 Sous-espace projectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.1.3 Sous-espace projectif engendré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.1.4 Le point de vue affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2 Coordonnées, carte affine, repère dans un espace projectif . . . . . . . . . . . . . . . . . . 49
4.2.1 Famille projectivement libre et coordonnées homogènes . . . . . . . . . . . . . . . 49
4.2.2 Carte affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2.3 Repère d’un espace projectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.3 Application projectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.3.1 Définitions - Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.3.2 Cas non injectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.3.3 Propriétés fondamentales des homographies . . . . . . . . . . . . . . . . . . . . . . 53
4.3.4 Expressions d’une homographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3.5 Birapport . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.4 Dualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.4.1 Espace projectif dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.4.2 Cas du plan projectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.5 Quadriques projectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.5.1 Premières définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.5.2 Retour à l’affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.5.3 Action des homographies sur les quadriques . . . . . . . . . . . . . . . . . . . . . . 59
4.5.4 Classification des quadriques projectives . . . . . . . . . . . . . . . . . . . . . . . . 59
Chapitre 1

Rappels

Quelques Notations
K désigne le corps des réels R ou des complexes C. Les espaces vectoriels considérés dans ce cours
sont principalement réels (K = R), et de dimension finie, ce qu’on écrit dim E < 1.
L’élément neutre pour l’addition dans un espace vectoriel E sur le corps K est noté 0E , ou plus
simplement 0 s’il n’y a pas ambiguité. Lorsque E = Kn , n 0 entier, les coordonnées de x (respect. y)
dans
Pn la base canonique ("1 , . . . , "n ) sont x1 , . . . , xn (respect., y1 , . . . , yn ), et on a donc x = (x1 , . . . , xn ) =
i=1 xi "i .
L’espace L(E; K) des formes linéaires sur E est noté E ⇤ . C’est le dual (algébrique 1 ) de E. L’espace
des endomorphismes de E est noté Endo(E). L’ensemble des automorphismes de E est noté GL(E).
Muni de la loi de composition , il constitue un groupe. L’application identité sur E est notée id. Une
homothétie vectorielle sur E est une application de la forme hk : E 3 x 7! kx 2 E, où k est un scalaire
non nul donné appelé rapport de l’homothétie h. L’ensemble des homothéties de E sur lui-même est noté
H(E). Toute homothétie commute avec tout élément de L(E), et le centre Z(GL(E)), le sous-groupe
des automorphismes de E qui commutent avec tous les autres, coincide avec H(E). Donc, en particulier,
H(E) est un sous-groupe abélien et distingué de (GL(E), ).
L’ensemble des matrices de taille p ⇥ n à coefficients dans K est l’espace vectoriel Mp,n (K). Il est de
dimension pn. Si p = n il se note Mn (K).
La matrice carrée de taille n, ”identité”, est notée In , et celle ”nulle”, 0n .
La transposée d’une matrice A = (ak,i )1kp,1in 2 Mp,n (K), est la matrice tA = (ak,i )1in,1kp 2
Mn,p (K). On dit qu’une matrice carrée A est symétrique si, et seulement si, tA = A.
Un vecteur-colonne C de Kn est une matrice de taille n ⇥ 1 à coefficients dans K. Son transposé, noté
t
C, est alors un vecteur-ligne de taille 1 ⇥ n. Un vecteur x = (x1 , . . . , xn ) 2 Kn est donc identifié à un
vecteur-ligne t [x] = (x1 . . . xn ) dont le transposé, noté [x] ou t x, est un vecteur-colonne de Kn .
Plus généralement, un vecteur x, dans un espace vectoriel E sur le corps K et de dimension finie n,
a pour représentation matricielle, dans une base ordonnée B = (v1 , . . . , vn ) de E, un vecteur-colonne
X 2 Mn,1 (K). On note x : XB , ou X = [x]B , ou même x : X ou X = [x] s’il n’y a pas d’ambiguité sur
la base choisie.
La matrice d’un endomorphisme f 2 Endo(E) dans une base B de E est notée [f ]B .
Si A est un sous–ensemble d’un espace vectoriel E, on note par Vect(A) le sous–espace vectoriel de E
engendré par A. C’est, par définition, le plus petit sous-espace vectoriel de E qui ”contient A” (i.e, qui
contient tous les éléments de A). En e↵et, on a

Définition
Vect(A) = \V 2F (A) V, F(A) := {V ⇢ E; V s.e.v.; V A}. (1.1)

Noter qu’on a la caractérisation suivante :

Vect(A) = {↵1 x1 + · · · + ↵k xk ; k 2 N⇤ , (↵1 , . . . , ↵k ) 2 Rk , (x1 , . . . , xk ) 2 V k }, (1.2)


1. il existe un dual topologique de E, qui coincide avec E⇤ en dimension finie

3
4 CHAPITRE 1. RAPPELS

c’est–à dire, Vect(A) est l’ensemble des combinaisons linéaires finies des vecteurs de A.
Le conjugué d’un nombre complexe est noté . et par x, y ou z la notation pour un vecteur de E.
Symbole de Kronecker : i,j = 1 si i = j et i,j = 0 si i 6= j.

1.1 Formes quadratiques


1.1.1 Définitions
Soit E un espace vectoriel sur K de dimension finie n et soit une application de E ⇥ E dans K
vérifiant les axiomes suivants :
(i) Bilinéarité :
8x 2 E, (x, ·) : E ! K est linéaire : 8y, y 0 2 E, 8↵, ↵0 2 K,

(x, ↵y + ↵0 y 0 ) = ↵ (x, y) + ↵0 (x, y 0 ),

et 8y 2 E, (·, y) : E ! K est linéaire : 8x, x0 2 E, 8↵, ↵0 2 K,

(↵x + ↵0 x0 , y) = ↵ (x, y) + ↵0 (x0 , y);

(ii) Symétrie :
8x, y 2 E, (x, y) = (y, x).
On dit alors que est une forme bilinéaire symétrique sur E.

Définition 1.1.1 L’application q : E ! K définie par q(x) = (x, x) est la forme quadratique associée
à la forme bilinéaire symétrique .

Nous considérons à partir de maintenant la forme bilinéaire symétrique sur E.

Proposition 1.1.1 On a les formules de polarisation suivantes :


1
(x, y) = q(x + y) q(x y) ,
4
1
(x, y) = q(x + y) q(x) q(y) ,
2
qui permettent chacune de déterminer à partir de la forme quadratique q.

On peut dire alors que la forme bilinéaire est associée à la forme quadratique q. Posons, pour tout
x 2 E, l’application
x : E 3 y 7! (x, y) 2 K,

est une forme linéaire sur E. Donc x 2 E⇤.

Définition 1.1.2 S’il existe x 6= 0 tel que x ⌘ 0, on dit que (ou q) est dégénérée. Sinon on dit que
(ou q) est non dégénérée.

Dans le cas où est non dégénérée, l’application

: E 3 x 7! x 2 E⇤

est linéaire injective. Comme dim E = dim E ⇤ = n < 1, est donc un isomorphisme.

Définition 1.1.3 1) Le rang de (ou de q) est celui de .


2) L’ensemble
Ker := {y 2 E | 8x, (x, y) = 0}
est appelé noyau de , ou même, noyau de la forme bilinéaire symétrique , ou noyau de la forme
quadratique q.
1.1. FORMES QUADRATIQUES 5

Propriété 1.1.1 Puisque E de dimension finie, nous avons les équivalences suivantes :

est non dégénérée () Ker = {0E } () le rang de est égal à n.

Définition 1.1.4 L’ensemble {x 2 E| q(x) = 0} est appelé cone isotrope.

Remarque 1.1.1 Que le cone isotrope soit réduit à 0 signifie que q(x) = 0 ) x = 0. Dans ce cas, la
forme bilinéaire associée est non dégénérée. La réciproque est fausse, même dans le cas réel. Par exemple,
sur R2 , la forme (x1 , x2 ) = x21 x22 est non dégénérée, mais q(x) = 0 () x1 = ±x2 , donc le cone
isotrope est l’union des deux droites portées respectivement par les vecteurs (1, 1) et (1, 1).

1.1.2 Base orthogonale


Une base B = {e1 , . . . , en } de E est dite orthogonale pour (ou pour q) si, et seulement si, (ei , ej )
s’annule pour i 6= j.
Théorème 1.1.1 Il existe toujours une base orthogonale pour .
Preuve Par récurrence sur n. Si n = 1 le résultat est trivial. Supposons n 2. Si ⌘ 0, il n’y a
plus rien à faire. Sinon, il existe un vecteur e1 non isotrope. Posons F := e? 1 , et
0
, la restriction de à
F . Les sous-espaces Vect(e1 ) et F sont supplémentaires dans E (preuve : exercice !). Donc, dim F = n.
Par hypothèse de récurrence, il existe une base (e2 , . . . , en ) de F qui soit orthogonale pour 0 . Posons
B = {e1 , . . . , en } : c’est une base de E, orthogonale pour . ⇤

1.1.3 Interprétation matricielle


Nous considérons un K-e.v E de dimension finie n et une forme bilinéaire symétrique sur E.
Note : Un élément de M1 (K) est identifié à un scalaire.
Proposition 1.1.2 Etant donnée une base B de E, il existe une unique matrice carrée de taille n,
A = (ai,j )1in,1jn , telle que, pour tout (x, y) 2 E 2 , x : X, y : Y on a

(x, y) = tY AX 2 K.

A est la matrice de (ou de la forme quadratique associée q) dans la base B. De plus, A est inversible
si, et seulement si, est non dégénérée.
Réciproquement, soit B, une base de E, et A, une matrice carrée de taille n. Alors l’application
(x, y) 7! tXAX 2 K définit une forme quadratique sur E.

Définition 1.1.5 Le déterminant de A est appelé discriminant de (ou de q) dans la base B.

Ainsi, est non dégénérée si, et seulement si, son discriminant (dans une base quelconque) est non nul.
Soit B 0 = (e01 , . . . , e0n ) une autre base de E, et soit A0 la matrice de dans B 0 . Soit P la matrice de
passage de B à B 0 , ce qui s’écrit P = BB0 . Un vecteur x 2 E admet pour vecteur-colonne la matrice X
dans B et la matrice X 0 dans B 0 . Donc X 0 = [x]B0 = BB0 [x]B = P 1 X, puis
t
XAX = q(x) = tX 0 DX 0 = t(P 1
X)DP 1
X = tX tP 1
A0 P 1
X.

Ceci prouve la relation :


A = tP 1
A0 P 1
.
Comme il existe une base orthogonale pour , ceci prouve que toute matrice symétrique A peut s’écrire
sous la forme A = tQDQ, où Q est une matrice carrée inversible. (En e↵et, étant donnée une matrice A
symétrique, nous posons la forme quadratique q(X) := tXAX sur Mn (K), puis nous appliquons ce qui
précède.)
Remarque 1.1.2 Les éléments diagonaux de D ne sont pas nécessairement les valeurs propres de A,
même dans le cas réel. Pour A matrice symétrique réelle donnée, il est plus facile de trouver les matrices
Q et D satisfaisant A = tQDQ, que de diagonaliser A.
6 CHAPITRE 1. RAPPELS

1.2 Espaces Euclidiens


Dans toute cette section, le corps des scalaires considéré est K = R.

1.2.1 Produit scalaire


Soit une forme bilinéaire symétrique sur le R-e.v. E, associée à la forme quadratique q, et vérifiant
les axiomes suivants :
(i) Positivité : 8x 2 E, q(x) 0.
(ii) Forme Définie : q(x) = 0 () x = 0E .
On dit alors que est un produit scalaire sur E, que le couple (E, ) est un espace euclidien, ou même
que E, muni du produit scalaire , est un espace euclidien. En particulier, le cone isotrope est réduit à 0
et est non dégénérée.

Exemple Important
Soit E
P= Rn . Soit une matrice carrée A = (ak,i )1kn,1in des réels tous strictement positifs. Posons
n
hx, yi = i=1 ai xi yi . Alors Rn muni de h·, ·i est un espace euclidien.
Si a1 = . . . = an = 1, ce produit scalaire est appelé produit scalaire usuel de l’espace Rn .
On se considère maintenant et pour la suite de ce chapitre, l’espace vectoriel euclidien
E de dimension n et muni du produit scalaire .

1.2.2 Sous–espace euclidien


Soit F un sous–espace vectoriel de E. Alors la restriction de à F ⇥ F , notée encore , constitue F
en espace euclidien. La preuve est immédiate.

1.2.3 Norme euclidienne


p p
Soit l’application N : E ! R définie par N (x) = q(x) ⌘ (x, x).
Proposition 1.2.1 Soient x et y deux vecteurs de E. On a alors
| (x, y)|  N (x)N (y) : inégalité de Cauchy-Schwarz,
N (x + y)  N (x) + N (y) : inégalité de Minkovski.
De plus, les inégalités sont (respectivement) des égalités si, et seulement si, les deux vecteurs x et y sont
colinéaires.
Conséquences :
Proposition 1.2.2 1) L’application E \ {0} ⇥ E \ {0} 7! R qui au couple de vecteurs (x, y) associe le
(x,y)
réel N (x)N (y) est à valeurs dans [ 1, 1] :

(x, y)
cos(x,ˆy) = .
N (x)N (y)
C’est le cosinus de l’angle non orienté entre les vecteurs (non nuls) x et y.
2) L’application N est une norme. Elle est appelée norme euclidienne sur l’espace euclidien (E, ).
Remarque 1.2.1 L’inégalité triangulaire (pour la norme N ) est une une autre façon d’écrire l’inégalité
de Minkovski.
On notera indi↵éremment (E, N ) ou (E, ) pour signifier E comme espace euclidien, muni de la norme
euclidienne N ou du produit scalaire associé (par la formule de polarisation).
Exercice 1.2.1 Prouver l’identité du parallèlogramme suivante :
N 2 (x + y) + N 2 (x y) = 2 N 2 (x) + N 2 (y) , 8x, y 2 E.
(Ceci s’énonce aussi : dans un parallèlogramme, la somme des carrés des deux diagonales est égal à la
somme des carrés des quatre côtés).
1.2. ESPACES EUCLIDIENS 7

1.2.4 Orthogonalité
Soient deux vecteurs x, y 2 E. On dit qu’ils sont orthogonaux (entre eux) lorsqu’ils satisfont la relation
(x, y) = 0. On écrit alors : x ? y.

Remarque 1.2.2 1. Le seul vecteur orthogonal à lui–même est le vecteur nul 0E . En conséquence, 0E
est le seul vecteur orthogonal à tous les autres.
2. Deux vecteurs non nuls sont orthogonaux si, et seulement si, leur angle non orienté est ⇡/2 (”angle
droit”).

Soient deux sous–espaces F et G de E. On dit que F et G sont orthogonaux, et on écrit F ? G, lorsqu’ils


satisfont :
x ? y, 8(x, y) 2 F ⇥ G.

Soit maintenant un ensemble non vide A ⇢ E. Son orthogonal est le s.e.v :

A? = {x 2 E; 8y 2 A, (x, y) = 0}.

Soit deux sous–espaces F et G de E, en somme directe. On écrit alors F G = E.

Proposition 1.2.3 1) Soit H un sous–espace de E de dimension p 2 [0, n = dim E].


Alors H ? est de dimension n p et on a la relation : H H ? = E.
2) H ?? = H.

1.2.5 Bases Orthonormales


On dit qu’un vecteur x de E est unitaire lorsque N (x) = 1. Si x 2 E est non nul, on dit qu’on a
normalisé x si l’on on le remplace par le vecteur x0 = N x(x) qui lui est colinéaire et unitaire. (On note
donc x à la place de x0 , et on oublie le vecteur initialement considéré).
On dit qu’une famille de vecteurs {v1 , . . . , vp , . . .} (finie ou non) de l’espace euclidien E est orthogonale
lorsque (vi , vj ) = 0 pour tout couple (i, j) tel que i 6= j. Si, en plus, les vecteurs de cette famille sont
tous unitaires, on dit alors que la famille est orthonormale.

Proposition 1.2.4 Toute famille orthogonale de vecteurs non nuls de E est libre. (Donc son cardinal
est  n = dim E.

Proposition 1.2.5 1) Pythagore - Soit {v1 , . . . , vp } une famille finie orthogonale de E. Alors on a

p
X p
X
N 2( vi ) = N 2 (vi ).
i=1 i=1

2) Soit {v1 , . . . , vn } une famille orthogonale de n (= dim E) vecteurs non nuls de E. Alors la famille
{v1 , . . . , vn } est une base de E. Elle est dite base orthogonale de E. Si, en plus, les vecteurs vj sont tous
unitaires, on dit que cette base est orthonormale (ou : orthonormée).
3) Soit (v1 , . . . , vn ) une base de E. Alors il existe une base orthonormée (e1 , . . . , en ) de E telle que :

8j 2 [1, n], [e1 , . . . , ej ] = [v1 , . . . , vj ],

et (ej , vj ) > 0, pour tout j. C’est prouvé par le procédé d’orthonormalisation de Gram–Schmidt
4) Conséquences.
- Toute famille orthonormée d’un espace euclidien (de dimension finie) peut être complétée en base
orthonormée.
- Tout espace euclidien de dimension finie possède une base orthonormée.
8 CHAPITRE 1. RAPPELS

1.2.6 Interprétation matricielle


Rappelons qu’une matrice carrée réelle symétrique est diagonalisable dans R.

Définition 1.2.1 On dit qu’une matrice A 2 Mn (R) est définie positive si, et seulement si, elle est
symétrique avec des valeurs propres toutes strictement positives.

Proposition 1.2.6 1) Une matrice A 2 Mn (R) symétrique est définie positive si, et seulement si, elle
satisfait :
t
XAX > 0 8X 2 Mn,1 (R) \ 0.
2) Soit une base B de E et A = (ai,j )1in,1jn , la matrice du produit scalaire (ou de la forme
quadratique associée q, ou de la norme euclidienne N ) sur E dans B. Alors A est définie positive.
p soit B, une base de E, et A, une matrice carrée de taille n définie positive, alors l’ap-
Réciproquement,
plication x 7! tXAX 2 R+ définit un norme euclidienne sur E.

Noter : la base B est orthonormale pour si, et seulement si, A = In .

1.2.7 Adjoint d’un endomorphisme dans un espace euclidien


Soit f 2 Endo(E). Il existe alors un unique élément, noté tf 2 Endo(E), défini par

(f (x), y) = (x, tf (y)), 8x, y 2 E.

Si B est une base orthonormale (faux sinon ! !) dans (E, ) alors la matrice [tf ]B de tf dans B est l’adjointe
de [f ]B (la matrice de f dans B). On a donc la relation :

[tf ]B =t [f ]B .

Un endomorphisme est auto-adjoint lorsqu’il est égal à son adjoint. Donc, f est auto-adjoint si, et seule-
ment si, (f (x), y) = (x, f (y)), 8x, y 2 E.
Le résultat suivant est essentiel.

Théorème 1.2.1 Soit (E, ) un espace euclidien de dimension n et f 2 L(E). Alors

(Ker f )? = Im tf.

Preuve : exercice !

1.3 Isométries vectorielles


1.3.1 Définition
Soit (E, ) euclidien (de dimension n), de norme euclidienne N . Soit B une base orthonormale de E.
Un endomorphisme f 2 Endo(E) est une isométrie linéaire si, et seulement si, elle satisfait les conditions
équivalentes suivantes :
(i) (f (x), f (y)) = (x, y), 8x, y 2 E ;
(ii) N (f (x)) = N (x), 8x 2 E ;
(iii) tf f = id.

1.3.2 Matrices orthogonales


Une matrice carrée réelle A de taille n est dite orthogonale si, et seulement si, tAA = In . Donc,
une matrice est orthogonale si, et seulement si, elle est inversible et d’inverse son adjointe. L’ensemble
des matrices orthogonales de taille n est noté O(n). C’est un groupe lorsqu’on le munit de la loi de
composition interne .
1.3. ISOMÉTRIES VECTORIELLES 9

Proposition 1.3.1 Soit B une base orthonormée de (E, ) et soit B 0 une autre base de E. Alors la
matrice de passage entre B et B 0 est orthogonale si, et seulement si, B 0 est orthonormée.

On a l’équivalence des propositions suivantes :


(i) A est orthogonale.
(ii) tA est orthogonale.
(iii) Les vecteurs colonne de A forment une base orthonormée de Rn .
(iv) Les vecteurs ligne de A forment une base orthonormée de Rn .
(v) L’endomorphisme X 7! AX de Mn,1 (R) est une isométrie (on a muni Mn,1 (R) ' Rn du produit
scalaire usuel).
(vi) Soit f 2 L(E) de matrice A dans une base orthonormée de (E, ). Alors f est une isométrie.

1.3.3 Autres Propriétés et définitions


A retenir :
(i) Une matrice orthogonale est diagonalisable dans C, mais pas nécessairement dans R.
(ii) Les valeurs propres d’une isométrie (ou de façon équivalente, d’une matrice orthogonale) sont des
nombres complexes de module 1.
(iii) Si une matrice orthogonale est diagonalisable dans R, la diagonale ne contient que les nombres
dans { 1, 1}, et la matrice est celle d’une symétrie orthogonale. .
(iv) Le déterminant d’une isométrie ou d’une matrice orthogonale est 1 ou 1. S’il vaut 1, on dit
alors que l’isométrie est directe. Sinon, on dit que l’isométrie est indirecte.

De plus, si A est une matrice orthogonale, alors elle satisfait la relation

?
Rn = Ker (A In ) Im (A In ). (1.3)

Preuve. Remarquer d’abord que Im (A In ) = Im ((In An )A 1 ) car A est inversible. [ Preuve. Si


X 2 Im (A In ) alors X = (A In )Y = (A In )A 1 (AY ) 2 Im ((In An )A 1 ). Réciproquement, si
X 2 Im ((A In )A 1 ) alors X = (A In )(A 1 Y ) 2 Im (In An ).] Donc on a , en utilisant le théorème
1.2.1 et le fait que tA = A 1 ,

Ker (A In ))? = Im (t(A In )) = Im (tA In ) = Im (A 1


In )
1
= Im ((In An )A ) = Im (In An ).

CQFD.

En conséquence, nous avons la

?
Propriété 1.3.1 Une isométrie f sur (E, ) satisfait E = Ker (f id) Im (f id).

1.3.4 Cas des symétries orthogonales


Si A 2 O(n) est en plus symétrique, alors on a les relations

A = tA = A 1
.

La matrice A est alors diagonalisable dans R, avec les valeurs propres 1 ou 1. C’est donc la matrice de
la symétrie orthogonale X 7! AX dans Mn,1 (R) selon l’espace invariant Ker (A In ), dans la direction
de Ker (A + In ). De plus, les deux espaces propres associés sont supplémentaires et orthogonaux :

?
Ker (A In ) Ker (A + In ) = Mn,1 (R).
10 CHAPITRE 1. RAPPELS

1.3.5 Classification des isométries linéaires en dimension 2, 3


Remarque 1.3.1 On identifie l’espace euclidien (E, ) à (Rn , <, >), en choisissant une base orthonor-
male de (E, ). Pour classifier les isométries de E, il suffit donc de faire le travail sur Rn , et de classifier
les éléments de O(n).

Supposons ici n = 2. Le groupe O(2) est partitionné O+ (n) [ O (n). O+ (n) est le sous-groupe des
rotations de R2 :
!
cos ✓ sin ✓
O+ (n) = {A 2 O(n); det A = 1} = { , ✓ 2 R},
sin ✓ cos ✓

tandis que O (n) est l’ensemble des anti-rotations :


!
cos ✓ sin ✓
O (n) = {A 2 O(n); det A = 1} = { , ✓ 2 R}.
sin ✓ cos ✓

Supposons ici n = 3. Le groupe O(3) est partitionné en


— le sous-groupe O+ (3) des rotations selon un axe, de la forme
0 1
1 0 0
B C
P 1B @ 0 cos ✓ sin ✓ C
A P,
0 sin ✓ cos ✓

— l’ensemble O (n) des anti-rotations selon un axe, de la forme


0 1
1 0 0
B C
P 1B @ 0 cos ✓ sin ✓ C
A P,
0 sin ✓ cos ✓

1
où P est une matrice orthogonale (P = tP ).

Remarque 1.3.2 — L’identité, In (ou id), est une rotation axiale avec l’angle ✓ = 0.
— La symétrie centrale, In , est une anti-rotation axiale avec l’angle ✓ = ⇡.
— La symétrie orthogonale axiale, de la forme
0 1
1 0 0
B C
P 1B @ 0 1 0 C t
A P, ( P P = In ),
0 0 1

est une rotation axiale avec l’angle ✓ = ⇡. La matrice est symétrique.


— La symétrie orthogonale plane (réflecteur) est de la forme
0 1
1 0 0
B C
P 1B C t
@ 0 1 0 A P, ( P P = In ).
0 0 1

C’est donc une anti-rotation axiale avec l’angle ✓ = 0. La matrice est symétrique.
Chapitre 2

Géométrie Affine

2.1 Espaces Affines


Précisions sur quelques notations
Dans ce chapitre, K désigne le corps R ou C - bien que l’on puisse généraliser à d’autres corps
commutatifs - E désigne un K–espace vectoriel, en général de dimension finie n (ce qui n’est pas nécessaire
pour les premières définitions). E est muni de la loi d’addition interne, +, et de la loi de multiplication
externe, · : K ⇥ E ! E, entre scalaires et vecteurs. Dans un premier temps, les vecteurs de E seront
-
précisés avec une flèche : ”u2 E” ; ceci permet de distinguer les-vecteurs de E et les points d’un espace
affine associé (E). En particulier, le vecteur nul de E sera noté 0 ou 0E . La flèche sur les vecteurs sera
supprimée par la suite, en laissant au lecteur le soin de distinguer entre les éléments de E et de E.

2.1.1 Définition. Exemples


Définition 2.1.1 Soient un ensemble E non vide, et une application : E ⇥ E ! E, loi externe satis-
faisant les conditions suivantes :
- -
(i) 8x, y 2 E, 9! u 2 E, x+ u= y.
- -
Cet unique vecteur u est noté xy ou y x par la suite.
- - - - --
(ii) x (u + v) = (x u)+ v 2 E, 8x 2 E, 8 u, v 2 E.
Le triplet (E, E, ) est appelé espace affine, de direction (ou : ”sur”) l’espace vectoriel (E, +, ·).

Propriétés
-
1. x 0= x, 8x 2 E.
- -
2. Antisymétrie. Pour tout (x, y) 2 E 2 , on a xy= yx.
- - -
3. Relation de Chasles. Pour tout (x, y, z) 2 E 3 , on a xy + yz=xz.
- - - - --
4. On a : (x u) (y v) = (x y) + (u v), 8x, y 2 E, 8 u, v2 E. (Preuve : exercice).
- -
5. Pour tout a 2 E, l’application a : v 7! a v de E dans E est une bijection.
- - -
6. Pour tout v 2 E, l’application v : x 7! x v de E dans E est une bijection. Cette bijection est
-
appelée translation de vecteur v.

Exemples
1. E est construit naturellement en espace affine sur lui–même avec la loi = +.
n0
2. Soit une forme linéaire f 2 K non nulle, et b 2 K. On pose E l’ensemble des solutions x =
- -
(x1 , . . . , xn ) 2 Kn de l’équation f (x) = b, puis l’opération x v:= x+ v (addition usuelle de deux
éléments de K ) sur E ⇥ Ker f . Alors (E, ) est un espace affine sur l’espace vectoriel Ker f de
n

dimension n 1. Preuve : exercice.

11
12 CHAPITRE 2. GÉOMÉTRIE AFFINE

Remarque 2.1.1 Pour simplifier, on choisira ultérieurement de noter la loi par ”+”, et l’opération
par ” ”, quitte–à confondre avec les opérations correspondantes dans E.

2.1.2 Produit cartésien d’espaces affines


Soient Ei , i 2 I = {1, . . . , k}, une famille finie 1 non vide (k 2 N⇤ ) d’espaces affines, de directions
respectives Ei , i 2 {1, . . . , k}. Donc, on a les lois externes (Cf. définition 2.1.1) :
i : E i ⇥ Ei ! E i , 8i.
On considère les ensembles E = ⇧i2I Ei , qui est le produit cartésien des Ei , et E = ⇧i2I Ei , qui produit
cartésien des Ei . L’ensemble E est naturellement constitué en espace vectoriel de dimension la somme
des dimensions des Ei .
On pose donc, naturellement, la loi externe suivante :
+ : E ⇥ E ! E,
telle que
- - - -
(x1 , . . . , xk ) + (u1 , . . . , uk ) := (x1 u1 , . . . , x k
1 uk ).
k
Ceci fait du produit cartésien E un espace affine, de direction E, de dimension la somme des dimensions
des Ei .
- - -
Remarque 2.1.2 En utilisant les plongements canoniques ⇡ i : Ei 7! E et ⇡i : Ei ! E tels que ⇡ i (ui ) =
-
(0, ., 0, ui , 0, . . . , 0) et ⇡i (xi ) = (0, ., 0, xi , 0, . . . , 0), on peut considérer que les Ei sont des s.e.v de E et
les Ei des s.e.a de E. Voir section suivante.

2.1.3 Sous–Espace Affine


Soit (E, ) un espace affine sur E.
Définition 2.1.2 Soit F un sous–ensemble non vide de E, et a 2 F. On dit que F est un sous–espace
-
affine de E si l’ensemble F := {ax, x 2 F} est un sous–espace vectoriel de E.
Remarque 2.1.3 Il est facile de s’apercevoir que F ne dépend pas du point a choisi. (Preuve : exercice).
- -
On peut donc écrire F = a F ⌘ {a u ; u2 F }, pour n’importe quel élément a dans F.
Pour abréger, on écrira ”s.e.a” pour ”sous-espace-affine”.
Proposition 2.1.1 Un s.e.a F de (E, ) constitue avec la restriction de à F ⇥ F , où F est défini
dans la définition 2.1.2, un espace affine dirigé par F .
Définition 2.1.3 Deux sous–espaces affines de E sont dits parallèlles s’ils ont la même direction vecto-
rielle
Notation. On note F1 k F2 pour signifier que F1 et F2 sont parallèles.
Proposition 2.1.2 L’intersection d’une famille (finie ou non, mais non vide) de sous–espace affines de
(E, )
- soit est vide,
- soit est un sous–espace affine dirigé par l’intersection des directions vectorielles des sous–espaces affines
de la famille considérée.
Preuve : exercice.
Théorème 2.1.1 Soient deux sous–espaces affines E1 et E2 de E, parallèles. Alors soit E1 \ E2 est vide,
soit E1 = E2 .
Preuve. Supposons E1 6= E2 . Sans rien restreindre, on peut supposer qu’il existe a1 2 E1 \ E2 . Soit a2 2 E2
-
un point quelconque. Alors a1 a2 62 F , où F désigne la direction commune de E1 et de E2 . Donc a2 62 E1 .
Il en résulte que E1 \ E2 = ;. CQFD.
Définition 2.1.4 Une droite (respect., un plan) affine dans E est un s.e.a. de la forme a + D (respect.,
a + P ), où D (respect., P ), est une droite (respect., un plan) vectoriel dans E, et a 2 E.
1. cette hypothèse n’est pas essentielle ici
2.2. REPÈRES AFFINES 13

Exemple

Soient deux plans affines P1 et P2 de K3 , de directions respectives P1 et P2 . Si P1 = P2 , alors soit


P1 = P2 , soit P1 \ P2 = ;. Si P1 6= P2 , alors P1 \ P2 est une droite vectorielle D. Dans ce cas, montrons
que D := P1 \ P2 est une droite affine dirigée par D. Pour cela, il suffit de prouver que D est non
vide. Soit u un vecteur directeur de D. On complète {u} par vj 2 Pj , tel que (u, vj ) soit une base de
Pj . On a donc en plus (u, v1 , v2 ) libre, et base de K3 . Soient aj 2 Pj . Cherchons ↵, 2 K tels que le
point x := a1 + ↵u + v1 2 P1 soit dans P2 . La condition x 2 P2 s’écrit x a2 2 P2 , c’est–à–dire,
x a2 2 Vect(u, v2 ). Or a1 a2 s’écrit ↵0 u + 0 v1 + 0 v2 , puisque (u, v1 , v2 ) est base de K3 . Donc
x a2 = (a1 a2 ) + (x a1 ) = ↵0 u + 0 v1 + 0 v2 + ↵u + v1 . En prenant = 0 , on obtient x a2 2 P2 .
Donc x 2 P2 . CQFD.

Définition 2.1.5 Soit A un sous–ensemble non vide de E. Alors il existe un plus petit s.e.a. (”sous–
espace affine”) de E, noté A↵(A), caractérisé par les deux points suivants :
1. A ⇢ A↵(A).
2. Si F est un s.e.a de E contenant A, alors A↵(A) ⇢ F.

Pour démontrer l’existence de A↵(A), il suffit de voir qu’il est déterminé par

A↵(A) = \F 2I F,

où I est la famille des s.e.a de E contenant A. Cette famille est non vide car E 2 I. Il résulte de la
proposition 2.1.2 que A↵(A) est l’élément minimal de I : A↵(A) 2 I et F 2 I ) A↵(A) ⇢ F.

Exemples

1. Soit a un point de E. Alors A↵(a) = {a}.


-
2. Soient a, b 2 E avec a 6= b. Alors A↵(a, b) est la droite affine dirigée par ab et passant par a (ou
par b).

-
Théorème 2.1.2 Soit-un ensemble non vide A ⇢ E. Posons F = A A ⌘ {bc | b, c 2 A}. Soit a 2 A.
Posons G = A a ⌘ {ab | b 2 A}. Alors A↵(A) = a + Vect(F ) et Vect(F ) = Vect(G).

Preuve 1) Montrons que A↵(A) = a + Vect(G). - L’ensemble a + Vect(G) est un s.e.a de E et contient
a + G = A. Donc, par définition de l’A↵, A↵(A) ⇢ a + Vect(G).
- L’ensemble A↵(A) a est un s.e.v de E et contient G car G = A a ⇢ A↵(A) a. Donc, par définition,
Vect(G) ⇢ A↵(A) a. Donc a + Vect(G) ⇢ A↵(A). D’où l’égalité A↵(A) = a + Vect(G).
2) Montrons que Vect(F ) = Vect(G). D’abord, comme, trivialement, G ⇢ F , alors Vect(G) ⇢ Vect(F ).
Ensuite, soit u 2 F , de la forme u = c b, avec b, c 2 A. Alors u = v w avec v = c a, w =
b a 2 G ⇢ Vect(G). Donc u 2 Vect(G) (puisque c’est un e.v) . Donc F ⇢ Vect(G), puis, par définition,
Vect(F ) ⇢ Vect(G). CQFD. ⇤

Corollaire 2.1.1 Soit un ensemble fini A = {a1 , . . . , an } ⇢ E, n 1. Alors A↵(A) = a1 + Vect(F ), où
-
on a posé F = {a1 ai , 2  i  n}.

Preuve : exercice.

2.2 Repères affines


Dans tout ce qui suit, on se place dans un espace affine E dirigé par un espace vectoriel E.
14 CHAPITRE 2. GÉOMÉTRIE AFFINE

2.2.1 Barycentre
Soit un entier k 1, k points a1 , . . . , ak et k scalaires x1 , . . . , xk 2 K. On considère le problème
suivant : déterminer x 2 E tel que
k
X k
- X -
( xi ) ox= xi oai , 8o 2 E. (2.1)
i=1 i=1

Théorème 2.2.1 On suppose que E n’est pas réduit à un seul point (sinon l’équation (2.1) est triviale,
car s’écrit ~0 = ~0). Alors le problème (2.1) admet une solution unique si, et seulement si, les nombres xi
satisfont la condition suivante :
Xk
xi 6= 0. (2.2)
i=1
Pk Pk -
Preuve Supposons i=1 xi = 0. L’équation (2.1) s’écrit alors ~0 = i=1 xi oai . Cette relation est vraie
ou fausse, mais elle ne dépend pas de x. Donc l’ensemble des solutions de l’équation (2.1) est soit E (qui
possède une infinité de points), soit l’ensemble vide.
Pk
Supposons i=1 xi 6= 0 (le cas intéressant). Alors on obtient immédiatement pour o 2 E fixé l’unique
solution de la relation dans (2.1) sous la forme :
k
X
1 -
x = o + Pk xi oai .
i=1 xi i=1

A priori, x dépend de o. Montrons qu’il n’en est rien. Soit un autre point o0 2 E. Alors on calcule, par la
relation de Chasles,
k
X - X k
- - k
X - X
k - X k
- - k
X -
( xi ) o0 x= ( xi )(ox + o0 o) = xi oai +( xi ) o0 o= xi (oai + o0 o) = xi o 0 a i .
i=1 i=1 i=1 i=1 i=1 i=1

Ceci montre que x est encore solution de (2.1) avec le point o0 à la place de o. Donc x ne dépend pas du
point o donné dans (2.1). CQFD. ⇤

Définition 2.2.1 On suppose que (x1 , . . . , xk ) satisfait (2.2). On appelle alors barycentre des points ai ,
1  i  k a↵ectés (ou ”pondérés” par) respectivement des poids xi , 1  i  k, l’unique solution du
problème (2.1). Ce point se note :
Pk
xi ai
x = Pi=1
k
, ou x = G (a1 , x1 ), . . . , (ak , xk ) .
i=1 xi

Remarque 2.2.1 1. On peut multiplier tous les xi par un même scalaire non nul sans changer le
barycentre.
Pk Pk
2. Une formule du type i=1 xi ai ne donne un point de E que si i=1 xi = 1. Sinon, ça n’a pas
Pk Pk Pk -
de sens en général, excepté si i=1 xi = 0, auquel cas i=1 xi ai désigne le vecteur i=1 xi oai ,
indépendant du point o choisi.
3. Lorsque tous les xi sont égaux et non nuls, alors G (ai , xi )1ik est noté G (ai , 1)1ik ou
G (ai )1ik . Il est appelé isobarycentre, ou centre d’inertie, des points ai , et on a les diverses
notations équivalentes suivantes :
k
X Pk k
ai i=1 ai 1X
G (ai )1ik = = = ai .
i=1
k k k i=1

4. Lorsqu’il n’y a que deux points, on appelle milieu leur isobarycentre.


2.2. REPÈRES AFFINES 15

Pk Pk
5. (Définition complémentaire). Dans le cas où i=1 xi = 1, on dit que le point a = i=1 xi ai est
combinaison affine des points a1 , . . . , ak .
En abrégé : a est C.A des points a1 , . . . , ak .
P
Théorème 2.2.2 Soit une famille finie de points pondérés (ai , xi )i2I , telle que i2I xi 6= 0, et soit x
P
leur barycentre : x = G (ai , xi )i2I . Soit I1 , . . . , Ik une partition de I telle que i2Ij xi 6= 0, 8j 2 [1, k].
barycentre des (ai , xi ), i 2 Ij , pour 1  j  k. Alors x est le barycentre des points bj a↵ectés
Soit bj le P
des poids i2Ij xi .
P P
Preuve. On a bj = i2I1 Sxji ai , avec Sj := i2Ij xi 6= 0, puis
k
X k X
X X
Sj = xi = xi =: S 6= 0,
j=1 j=1 i2Ij i2I
k
X Xk X X xi
Sj Sj x i
G (bj , Sj )1jk = bj = ai = ai = x.
j=1
S j=1
Sj S S
i2Ij i2I

CQFD.
Le résultat suivant est fondamental.
Théorème 2.2.3 Un sous–ensemble non vide F de E est un sous–espace affine de E si, et seulement si,
tout barycentre de points de F est dans F.
Preuve.
a) Supposons F s.e.a de E. Alors c’est un espace affine, et tout barycentre de points de F est
nécessairement dans F.
b ) Réciproque. Supposons que tout barycentre de points pondérés de F est dans F. Soit a0 2 F.
- -
Posons F = {a0 x; x 2 F}, et montrons que c’est un s.e.v de E. D’abord on a 0E 2 F car 0E =a0 a0 et
- -
a0 2 F. Ensuite, soient u, v 2 F , s, t 2 K. On a donc u =a0 x, v =a0 y, pour deux points x, y 2 F. Posons
z = (1 s t)a0 + sx + ty, barycentre des points pondérés (a0 ; 1 s t), (x; s), (y; t), dans F. Donc z 2 F
- -
par hypothèse, puis a0 z2 F par définition de F . Or a0 z= su + tv par simple calcul. Donc su + tv 2 F .
Donc F est un s.e.v de E. Comme F = a + F , la preuve est achevée.

2.2.2 Points affinement indépendants


Définition 2.2.2 Soient k+1 points a0 , . . . , ak dans E. On dit qu’ils sont affinement indépendants lorsque
- -
les vecteurs a0 a1 , . . . a0 ak sont indépendants.
Remarque 2.2.2 Le choix du point a0 est arbitraire. On aurait pû considérer j 2 [0, k] et la famille
- - -
{aj ai }0ik,i6=j , à la place de a0 a1 , . . . a0 ak , sans changer la définition. Preuve : exercice.
Théorème 2.2.4 Les points a0 , . . . , ak sont affinement indépendants si, et seulement si, aucun de ces
points n’appartient au sous–espace affine engendré par les autres.
Preuve.
a) Supposons a0 , . . . , ak sont affinement indépendants. Montrons que a0 62 A↵(a1 , . . . , ak ). Si ce n’est
- - -
pas le cas, alors a0 a1 est dans l’espace vectoriel Vect(a1 a2 , . . . , a1 ak ), espace vectoriel engendré par les
- -
vecteurs a1 a2 , . . . , a1 ak . On a alors
k
- X -
a0 a1 = i a1 ai ,
i=2
- -
pour des scalaires i . Ceci contredit l’hypothèse que les vecteurs a0 a1 , . . . a0 , ak sont indépendants.
b) Supposons qu’aucun point aj n’appartienne au sous–espace affine engendré par les autres ai , i 6= j.
Si les points a0 , . . . , ak sont affinement dépendants alors il existe des scalaires i , 1  i  k, non tous
nuls, tels que
Xk
-
i a0 ai = 0E .
i=1
16 CHAPITRE 2. GÉOMÉTRIE AFFINE

- Pk -
Sans rien restreindre, on peut supposer 1 = 1. Donc a1 = a0 + a0 a1 = a0 i=2 i a0 ai 2 A↵(a0 , a2 , . . . , ak ),
ce qui contredit l’hypothèse. CQFD.

Bases Affines
Définition 2.2.3 On dit que qu’une famille {a0 , . . . , ak } de k + 1 points affinement indépendants est une
base affine de l’espace affine (E, ) si, et seulement si, A↵(a0 , . . . , ak ) = E.

Définition 2.2.4 Soit (e1 , . . . , en ) une base de E, et a un point de E. Alors la famille (a, e1 , . . . , en ) est
appelée repère affine de E d’origine a.

Le résultat suivant est immédiat.

Proposition 2.2.1 Si (a, e1 , . . . , en ) est un repère affine de E, alors tout point x 2 E s’écrit d’une façon
unique sous la forme :
Xn
x=a+ xi en .
i=1

Nous pouvons en déduire le

Théorème 2.2.5 Les propositions suivantes sont équivalentes.


(i) Il existe une base affine de n + 1 points.
(ii) L’espace vectoriel E est de dimension finie n.
(iii) Il existe un repère affine de la forme (a, e1 , . . . , en ).

Définition 2.2.5 On dit que l’espace affine E sur E est de dimension n fini lorsque l’espace vectoriel E
est de dimension n, c’est–à–dire lorsqu’il existe une base affine de n + 1 points de E.

Preuve (du théorème 2.2.5). Le point (iii) est clairement équivalent à (ii). Montrons (i) () (ii).
- -
a) Supposons que (a0 , . . . , an ) soit une base affine de E. Donc la famille de vecteurs {a0 a1 , . . . a0 , an }
est libre. Il s’ensuit que dim E n. Soit u 2 E. Le point a0 + u est dans A↵(a0 , . . . , an ) = E, donc,
- -
d’après le théorème 2.1.2, on a u 2 Vect({a0 ai }1in ). Donc Vect{a0 ai }1in engendre E, et il s’ensuit
que dim E  n.
b) Réciproque. Supposons E est de dimension finie n 0. Le cas n = 0 étant trivial, on suppose
n 1. Soient une base {e1 , . . . , en } de E et a0 2 E. Posons ai = a0 + ei , 1  i  n. Il est aisé de vérifier
que la famille de points a0 , . . . , an constitue une base affine de E. ⇤
A retenir absolument :

Corollaire 2.2.1 On suppose que dim E = n < 1, i.e, que E est un espace affine sur E de dimension
n. Alors
1. Toutes les bases affines de E ont le même nombre de points, n + 1.
2. Soit {a0 , . . . , an } une base affine de E. Alors
-
1. pour j 2 [0, n] fixé, {aj ai }0in, i6=j est une base vectorielle de E ;
2. tout x 2 E s’écrit de façon unique sous la forme
n
X -
x = a0 + xi a0 ai , xi 2 K.
i=1

2.2.3 Coordonnées Barycentriques


Dans cette section, nous considèrons une base affine (a0 , . . . , an ) de E. Le remplacement des accolades
{ et } par des parenthèses signifie que l’on tient compte de l’ordre des ai dans cette base.
2.2. REPÈRES AFFINES 17

Théorème 2.2.6 Soit un point x 2 E. Alors il existe un unique n + 1–upplet (x0 , . . . , xn ) tel que
n
X
xi = 1, (2.3)
i=0

et pour lequel x est le barycentre G (a0 , x0 ), . . . , (an , xn ) .

Noter que, dans la définition ci-dessus, x est c.a des points a0 , . . . , an , selon la terminologie en fin de
remarque 2.2.1.

Définition 2.2.6 Les (n + 1) scalaires x0 , . . . , xn sont appelées coordonnées barycentriques de x dans la


base affine (a0 , . . . , an ).
-
Preuve du théorème. En posant ei =a0 ai , 1  i  n, la famille Pn(a0 , e1 , -. . . , en ) est un repèrePaffine de E.
n
Soit x 2 E. Il s’écrit donc de façon unique Pncomme x = a 0 + i=1 x i a 0 a i . Posons x 0 = 1 i=1 xi . On
a donc x = G (a0 , x0 ), . . . , (an , xn ) , et i=0 xi = 1. L’unicité des scalaires x0 , x1 , . . . , xn est immédiate.
CQFD.

Remarque 2.2.3 Les coordonnées barycentriques du point aj sont 0, . . . , 0, 1, 0, . . . , 0, où le ”1” est à la
(j + 1)ieme place.

2.2.4 Construction de s.e.a par combinaisons affines


P 2.2.7 Soient des sous-ensembles non vides A1 , . . . Ak ⇢ E et des scalaires ↵1 , . . . , ↵k 2 K
Définition
tels que i ↵i = 1. On pose

↵1 A1 + · · · + ↵k Ak := {↵1 a1 + · · · + ↵k ak | ai 2 Ai } ⇢ E.

(Il pourrait s’appeler ”combinaison affine des Ai ” 2 , avec les coefficients ↵i ).

Théorème 2.2.7 Si les Ai sont des s.e.a de E, alors toute combinaison affine des Ai est un s.e.a de E.

2.2.5 Application à la détermination de s.e.a


Soit A un sous-ensemble de l’espace affine E. Le résultat suivant permet de caractériser A↵(A), comme
nous l’avions fait pour le sous-espace vectoriel engendré en (1.2) au début du chapitre 1.

Théorème 2.2.8 On a la relation suivante :


k
X
A↵(A) = {↵1 a1 + . . . + ↵k ak | k 1, ↵i 2 K, ai 2 A; ↵i = 1}. (2.4)
i=1

Pk
Comparer avec (1.1)- (1.2) ! Preuve Posons B := {↵1 a1 +. . .+↵k ak |k 1, ↵i 2 K, ai 2 A; i=1 ↵i = 1}.
Montrons qu’il est affine. D’abord, il est non vide car il contient A. En e↵et, tout élément a 2 A s’écrit
a = 1 · a 2 A0 . P
Ensuite, soit des points b1 , . . . , bk 2 B, des scalaires s1 , . . . , sk tels que i bi 6= 0. On peut supposer
s1 + · · · + sk = 1 (Cf. Remarque 2.2.1). Posons a = G((b1 , s1 ), . . . , (bk , sk )). Comme chaque bi est le
barycentre de points ai,1 , . . . , ai,ki de A, a↵ectés de coefficients ↵i,1 , . . . , ↵i,ki tels que ↵i,1 +· · ·+↵i,ki = 1,
alors, d’après le théorème 2.2.2, a est le barycentre des ai,j a↵ectés respectivement des poids !i,j := si ↵i,j .
[En e↵et, par calcul direct, on a

X X ki
X X
a= s i bi = si ( ↵i,j ai,j ) = !i,j ai,j .]
i i j=1 (i,j)2I

2. je ne suis pas sûr que cette terminologie soit adoptée couramment


18 CHAPITRE 2. GÉOMÉTRIE AFFINE

Or, on a 0 1
X X k
X Xki k
X
!i,j = si ↵i,j = si @ ↵i,j A = si = 1.
i,j i,j i=1 j=1 i=1

Ceci prouve que a est c.a des points ai,j 2 A. Donc a 2 B. Donc B est stable par barycentre. Par
conséquent, il est affine d’après le théorème 2.2.3. Ainsi, B est affine, et contient A. Donc, par définition,
A↵(A) ⇢ B.
Maintenant, montrons A↵(A) B, ce qui impliquera l’égalité, et ce sera terminé. Soit a = ↵1 a1 + . . . +
↵k ak 2 B une c.a. d’éléments de A. Comme A ⇢ A↵(A), a est aussi une c.a. d’éléments de A↵(A).
D’après le théorème 2.2.3, a appartient donc aussi au s.e.a A↵(A). CQFD. ⇤

2.3 Applications Affines


2.3.1 Définitions - L’espace des applications affines
Soit un espace affine (E, +) sur un K-espace vectoriel E et soit un (autre) espace affine (F, +) sur un
K-espace vectoriel F .
ATTENTION : le corps K est commun à E et à F . Les notations et sont remplacées respecti-
vement par + et , indistinctement sur E, ou F. De même pour les lois externes sur E ou sur F .
Définition 2.3.1 Soit f une application
- de E dans F satisfaisant
- la condition suivante :
il existe une-application linéaire f : E ! F telle que f (y) f (x) =f (y x), pour tous x, y 2 E. Autrement
- -
dit, f (x)f (y)=f (xy), pour tous x, y 2 E.
On dit que f est une application affine de E dans F.
-
Théorème 2.3.1 Dans la définition précédente, l’application linéaire f : E ! F , est unique. Elle est
appelée soit partie linéaire de f , soit application linéaire associée à f , soit application linéaire tangente
à f .
- -
Preuve. Supposons qu’il existe g g
- - aussi linéaire de E dans F telle que f (y) f (x) = (y x), pour tous
x, y 2 E. Alors g (y x) =f (y x), - pour tous x, y 2 E. Comme y x décrit tous les vecteurs de E
-
lorsque (x, y) décrit E 2 , il en résulte g =f . CQFD.
Définition 2.3.2 On note par A(E, F) l’ensemble des applications affines de E dans F.
Dans le cas F = E, on note A(E) pour A(E, E).
Définition 2.3.3 Une forme affine sur un espace affine E est une application affine de E dans K. L’en-
semble des formes affines sur E est donc A(E; K).

2.3.2 Exemples. Premières propriétés


— Une application constante de E dans F est affine et d’application linéaire tangente l’application
nulle.
— Soit une application linéaire f 2 L(E, F ). Si l’on considère E et F en tant qu’espaces affines sur
eux-mêmes, alors f est affine, de partie linéaire elle–même.
— Une application constante de E dans F est affine et d’application linéaire tangente l’application
nulle.
- -
— Soit u2 E un vecteur fixé. Posons ⌧u (x) = x+ u. L’application ⌧u est affine de E dans lui-même.
Sa partie linéaire est l’identité. Réciproquement, si une application affine de E dans lui–même est
de partie linéaire l’identité id, alors c’est une translation de la forme ⌧u .
— Soit a 2 E un point fixé, et k 2 K \ {0}. Posons l’application
Ha,k ⌧u (x) : E 3 x 7! a + k(x a) 2 E.
Il est clair que Ha,k est affine sur E avec, comme partie linéaire, l’homothétie vectorielle de rapport
k. L’application Ha,k est appelée homothétie (affine) de centre a et de rapport k.
2.3. APPLICATIONS AFFINES 19

Propriété 2.3.1 — Une combinaison linéaire finie d’applications affines de E dans F est aussi une
application affine.
— La composée (si elle - est-peut être définie) g f de deux applications f et g affines, de parties
- -
linéaires respectives f et g , est affine et de partie linéaire g f . En particulier,
- la composée d’une
translation et d’une application affine f est affine, de partie linéaire f .

2.3.3 Espace Image et espace image-réciproque par une application affine


Soit f 2 A(E, F).
Théorème 2.3.2 1) L’image Im f = f (E) de E par f est un s.e.a de F.
Preuve : exercice.
2) Soit F 0 un s.e.a de F. Alors, on a l’alternative : soit f 1 (F 0 ) :=-{x 2 E, f (x) 2 F 0 } -
est vide, soit
c’est un s.e.a de E. Dans ce deuxième cas, la direction de ce s.e.a est (f ) 1 (F 0 ) = {u 2 E, f (u) 2 F 0 },
où F 0 ⇢ F est la direction de F 0 .
Preuve de 2). Supposons f 1
(F 0 ) non vide et contenant un élément a. Alors
- - - - - 1
x2f 1
(F 0 ) () f (x) 2 F 0 () f (a)f (x)2 F 0 ()f (ax) 2 F 0 () ax 2f (F 0 ).
- 1
Donc f 1
(F 0 ) = a+ f (F 0 ). CQFD.
Le théorème 2.3.2 permet de construire facilement des s.e.a d’un espace affine donné E. Il suffit en
e↵et de poser une application affine f de E dans Kd par exemple, puis de considérer f 1 (B) avec B s.e.a
de Kd . C’est un s.e.a de E. Un cas particulier important est le suivant (Cf. la définition 2.3.3)
Définition 2.3.4 Soit f une forme affine non indentiquement nulle sur un espace affine E. Alors, pour
tout t 2 K, f 1 (t) est appelé hyperplan affine. C’est un s.e.a de E. Si E est de dimension finie n, alors
f 1 (t) est de dimension n 1.

Remarque 2.3.1 L’hyperplan affine f 1 (0) est noté aussi {f = 0}. Dans le cas réel, K = R, il sépare
E en deux sous-ensembles ouverts, f 1 (]0, 1[) également noté {f > 0}, et f 1 (]1, 0[), également noté
{f < 0}.

Exemple 2.3.1 Soit E = Kn , a 2 K et f : x = (x1 , . . . , xn ) 7! x1 + . . . + xn . Il est facile de voir


que f est affine, tandis que le singleton {a} est un s.e.a de K de dimension 0. Donc f 1 (a) = {x 2
Kn | x1 + . . . + xn = a} est un s.e.a de Kn (c’est un hyperplan affine).

2.3.4 Théorème FONDAMENTAL


Théorème 2.3.3 Soit f une application de E dans F (deux espaces affines). Alors :
f est affine si, et seulement si, f envoie les barycentres sur les barycentres.

Par ”f envoie les barycentres sur les barycentres” nous voulons dire que si x = G((a1 , 1 ), . . . , (ak , k )) 2
E, alors f (x) = G((f (a1 ), x1 ), . . . , (f (ak ), xk )) 2 F, pour tous les barycentres possibles (8k, 8aj , 8xj . . .).

P Preuve. ) Hypothèse
P : f est affine. Soit x = G((a1 , x1 ), . . . , (ak , xk )) 2 E et o 2 E. Donc x o=
( i x i (a i o))/( i x i ), puis
- - X X
f (x) = f (o)+ f (x o) = f (o)+ f ( xi (ai o))/( xi ))
i i
1 X - 1 X
= f (o) + P xi f (ai o) = f (o) + P xi (f (ai ) f (o))
i xi i i xi i
= G((f (a1 ), x1 ), . . . , (f (ak ), xk )).

Donc f envoie les barycentres sur les barycentres.


20 CHAPITRE 2. GÉOMÉTRIE AFFINE

( (Réciproque). Hypothèse : f envoie les barycentres sur les barycentres. Fixons o 2 E. Posons
-- - - -
f (u)
-= f (o+ u) f (o) pour u2 E.- Donc f (x o) = f (x) f (o) pour tout x 2 E. Il s’agit de montrer
- - - - -
que f 2 L(E, F ) et ce sera fini. Soit u, v2 E, , µ 2 K. Posons x = o+ u, y = o+ v, z = o + u +µ v.
Donc z = G((o, 1 µ), (x, ), (y, µ)). Par hypothèse, on a donc

f (z) = f (G((o, 1 µ), (x, ), (y, µ))) = G((f (o), 1 µ), (f (x), ), (f (y), µ)),

ce qui s’écrit aussi


f (z) f (o) = (f (x) f (o)) + µ(f (y) f (o)).
Donc
- - - - -- --
f ( u +µ v) =f (z o) := f (z) f (o) = (f (x) f (o)) + µ(f (y) f (o)) := f (u) + µ f (v).

CQFD.

2.3.5 Points fixes d’une application affine


Soit une application affine de E dans lui–même : f 2 A(E).
Définition 2.3.5 Un point x de E est dit point fixe de f dans E si, et seulement si, f (x) = x. L’ensemble
des points fixes de f est noté Fix(f ) = {x 2 E; f (x) = x}.
Etant donnée f 2 A(E), on veut (et on doit !) connaitre et analyser Fix(f ). Il est possible que Fix(f ) soit
vide.
Exemple 2.3.2 Soit f = ⌧u la translation de vecteur u 6= 0E , alors il est clair que f (x) = x + u 6= x
pour tout x, puis que Fix(f ) = ;.

Théorème 2.3.4 L’ensemble Fix(f ) est soit vide, soit un sous–espace affine de E.

Preuve. Supposons Fix(f ) 6= ;. Fixons a 2 Fix(f ). Donc,- un point x est dans Fix(f ) si et seulement si
x a =- f (x) f (a), c’est–à–dire, si, et seulement si, f (v) = v, où v = x a. Donc on - a Fix(f ) =
a + Ker (f idE ), qui est le sous–espace affine de E dirigé par le sous–espace vectoriel Ker (f idE ) de
E, et passant par le point a. CQFD.
Théorème 2.3.5 On suppose que E est - de dimension finie. Alors f admet un unique point fixe si, et
seulement si, 1 n’est pas valeur propre de f .
-
Preuve ) Si f admet un unique point fixe alors Fix(f ) est dirigé par 0E , donc Ker (f idE ) = {0E },
-
ce qui prouve que 1 n’est pas valeur propre de f-.
( Supposons que 1 n’est pas valeur propre de f . Soit a 2 E. On a

x 2 Fix(f ) () x = f (x) () x a = f (x) a () x a = f (x) f (a) + f (a) a


- - - - - - -
() ax=f (ax)+ af (a)() (idE f ) ax=af (a)
- - -
() ax= (idE f ) 1 af (a)
- -
() x = a + (idE f ) 1 af (a) .

Ainsi, Fix(f ) est bien réduit à un seul point. ⇤

2.3.6 Décomposition d’une application affine


Soit f une application affine de E dans lui–même. Supposons Fix(f ) 6= ;, et soit a 2 Fix(f ). On
identifie alors E à E via l’application
- : E 3 x 7! x a 2 E. Dans cette identification, f est identifiée à
son application linéaire tangente f . En e↵et, on a
- -
(f (x)) = f (x) a = f (x) f (a) =f (x a) =f ( (x)).
2.3. APPLICATIONS AFFINES 21

Explication de cette-
- formule : x et f (x) s’identifient respectivement à - (x) et (f (x)) via ; de plus,
f ( (x)) s’identifie à f (x) pareillement, d’où l’identification de f (x) avec f ( (x)).
-
Conséquence. S’il existe un point a 2 Fix(f ), alors l’analyse de f est équivalente à celle de f . En parti-
culier, lorsque nous étudierons les isométries de E, celles possédant un point fixe seront déjà répertoriées.
-
Supposons maintenant Fix(f ) = ;. Soit a 2 E et u = f (a) a =af (a)6 = 0 . On considère l’application
- - E
affine g = u f sur E. Ainsi, g(x) = f (x) u, pour tout x 2 E. Donc g =f et g(a) = f (a) (f (a) a) = a.
Donc g est une application- affine de même application linéaire tangente que f , et g possède au moins un
point fixe. On étudie g via f comme dans le cas précédent, puis on écrit f = u g.

Remarque
Dans l’écriture ci–dessus, il n’y a pas nécessairement commutation entre la translation u et g. On fait
donc mieux avec le résultat suivant.
Théorème 2.3.6 Si f vérifie la relation
- -
E = Ker (f idE ) Im (f idE ), (2.5)

alors f s’écrit de manière unique


f = g ⌧u = ⌧u g,
-
où g est affine et admet un point fixe, et le vecteur u appartient à Ker (f idE ).
- - -
Preuve. 1) Fixons a-2 E, et posons af (a)= u + v avec u 2 Ker (f idE ), v 2 Im (f idE ). Donc il existe
w 2 E tel que v =f (w) w. Posons g1 =-f ⌧ u et g2 = ⌧ u f . Ce sont deux applications affines
qui ont même application linéaire tangente, f . On va montrer qu’elles ont un point fixe commun, ce qui
implique qu’elles sont égales. On a
- - (1)
g1 (a w) = f (a w u) = f (a) f (w) f (u) = (a + u + v) v w u = a w;
-
g2 (a
w) = f (a w) u = f (a) f (w) u = g1 (a w) = a w.
-
(1) : car f (a) = a + u + v et f (u) = u.
Donc a w est point fixe commun à g1 et g2 . On pose g = g1 = g2 , qui répond à la question.
2) Unicité ? Supposons qu’on ait f = g ⌧u = ⌧u g = h ⌧u0 = ⌧u0 h pour deux vecteurs u, u0 2 E et
deux applications affines g et h, ayant les points fixes respectifs a et b 2 E. On a donc, successivement,

g = ⌧ u f =⌧ u ⌧u 0 h = ⌧u 0 u h,
0
a = g(a) = ⌧u0 u h (a) = h(a) + u u,
0
- - - - -
u u =
h(a) a = h(a) h(b) + b a =ab h (ab) = (idE h)(ab).
- -- -
Ceci prouve que u u0 2 Im (f id) (puisque f =g =- h). Cependant, on- a aussi g(a + u) = g(⌧u (a))-=
-
⌧u (g(a)) = u + g(a), donc -u = g(a + u) g(a) =g (u) =- f (u), donc (id f )(u)- - u 2 Ker (id f ).
= 0. Donc
De même, u0 2 Ker (id f ), puis u u0 2 Ker (id f ). Or on a Ker (id f ) \ Im (f id) = {0} par
hypothèse (2.5). On en déduit u = u0 , puis g = ⌧u0 u h = ⌧0 h = h. CQFD.
-
Remarque 2.3.2 Dans la preuve, on voit que le vecteur u de la translation appartient à Ker - (id f ) et
-
qu’il est la projection orthogonale sur Ker (id f ) d’un vecteur quelconque de la forme af (a), a 2 E.

2.3.7 Le groupe affine


D’abord, donnons un résultat général utile.
-
Théorème 2.3.7 Une application affine f : E ! F, de partie linéaire f , est bijective si, et seulement
- - 1
si, f est bijective. Dans ces conditions, f 1 est affine et de partie linéaire f .
22 CHAPITRE 2. GÉOMÉTRIE AFFINE

- - 1 -
Preuve. Supposons f bijective. Soit o 2 E. Posons o0 = f (o) et g : F ! E telle que g(x0 ) = o+ f (o0 x0 ),
- 1
pour tout x 2 F. Un calcul simple montre que g est affine de partie linéaire f , g f est l’identité sur
E, f g est l’identité sur F.
Réciproquement, supposons f bijective. Fixons o 2 E-et soit o0 = f (o). On identifie alors tout point x
-
de E (respect.,
- x0 de F) au vecteur 0 0
-ox de E (respect., o x de F ), ce qui permet d’identifier l’application
linéaire f à l’application f . Donc f est bijective, et le point précédent permet de conclure que f 1 est
- 1
affine de partie linéaire f . CQFD
Dans le cas particulier E = F (avec donc E = F ), nous obtenons le
Corollaire 2.3.1 L’ensemble des applications affines inversibles de E dans lui-même, muni de la loi de
composition des applications, constitue un groupe (non abélien en général) noté GA(E).

L’ensemble GA(E) est appelé le groupe affine de E.

2.3.8 Représentation complexe en dimension 2 des applications affines du


plan réel
Ici nous supposons E = R2 . On identifie un point M = (x, y) 2 R2 à son affixe z = x + iy 2 C. Une
application affine (x, y) 7! f (x, y) s’écrit donc aussi C 3 z 7! f˜(z) 2 C, où f˜(z) désigne l’affixe du point
f (M ).
Théorème 2.3.8 Toute application affine f est caractérisée par

f˜(z) = ↵z + z̄ + , 8z 2 C,

où ↵, , sont trois nombres complexes.


Preuve : exercice.

2.3.9 Formes affines indépendantes


Définition 2.3.6 On dira-que p - formes affines f1 , . . . , fp sont indépendantes si, et seulement si, les p
formes linéaires associées f1 , . . . , fp sont linéairement indépendantes.

Théorème 2.3.9 Si les p formes affines f1 , . . . , fp sont indépendantes alors la seule combinaison linéaire
finie constante des fi est la combinaison linéaire triviale, i.e,
Pp
si l’application i=1 i fi est constante, alors, nécessairement, tous les coefficients de la combinaison
linéaire sont nuls : 1 = · · · = p = 0.
Pp
Preuve. - Soit ( 1 , . . . , p ) 2 Kp tel -que f := - i=1 i fi est constante. Alors son application linéaire
Pp
tangente f est nulle. Mais on a aussi f = i=1 i fi . Donc, par hypothèse, tous les i sont nuls. CQFD.

Exemple 2.3.3 Soit E = Rn muni de la base canonique {"1 , . . . , "n }, et considéré comme espace affine
sur lui–même. Soient a = (a1 , . . . , an ) 2 E, et b 2 R. Posons f (x) =< a, x >, où <, > désigne le produit
scalaire sur Rn euclidien. Donc f est une forme linéaire sur Rn . Remarquer que b (application constante
x 7! b), f et f b sont donc des formes affines sur E = E. Posons S = {x 2 Rn ; f (x) = b}. Comme
le singleton {b} constitue un sous–espace affine de E direction {0E }, et comme f est affine, - il en résulte
que S est soit vide, soit est un sous–espace affine de-E. S’il n’est pas vide, sa direction S coincide avec
f 1 (0E ) = {x 2 E; < a, x >= 0 = [a]? }. Si a 6= 0E , S est un hyperplan vectoriel de dimension n 1, et
b
si S 6= ;, alors S est l’hyperplan affine dirigé par S et passant par le point kak 2 a. Si a = 0E alors f ⌘ 0
2
et donc S = ; si b 6= 0, S = E si b = 0.

Théorème 2.3.10 Soit E un espace affine sur E de dimension finie n. Soit F un sous–espace affine de
E. Alors F est de dimension finie m  n, et il existe p = n m formes affines indépendantes f1 , . . . , fp
telles F = {x 2 E; fi (x) = 0, 1  i  p}.
2.4. CONVEXITÉ 23

Preuve. Rappelons que p formes affines f1 , . . . , fp sont indépendantes si et seulement si la seule combi-
naison linéaire nulle de ces formes est celle où tous les coefficients sont nuls.
a) Supposons F s.e.a de E. Soit F sa direction associée. Donc F est un s.e.v de E de dimension finie
m 2 [0, n]. Si m- = n alors- F = E, F = E, et terminé.
- Sinon, il existe donc p = n m 1 formes - linéaires
-
indépendantes f1 , . . . , fp telles F = {u 2 E; fi (u) = 0, 1  i  p}. Soit a 2 F et fi (x) =fi (ax),
1  i  p. Les applications fi sont toutes des formes affines sur E et sont indépendantes entre elles.
Posons F 0 = {x 2 E; fi (x) = 0, 1  i  p} = \pi=1 fi 1 ({0}). Noter que fi (a) = 0 pour tout i. Donc F 0
est non vide, car il contient a, et est l’intersection des ensembles fi 1 ({0}), qui sont des s.e.a de E, d’après
le théorème 2.3.2. Donc, d’après le théorème 2.1.2, F 0 est aussi un s.e.a de E. Il est de même direction F
que F et contient a 2 F. Donc F 0 = F.
b) Réciproque. Supposons F = {x 2 E; fi (x) = 0, 1  i  p}, où les fi sont des formes affines
indépendantes. Soit a 2 F. Donc fi (a) = 0 pour tout i. Posons i (u) = fi (a + u), pour u 2 E et
i 2 [1, p]. Il est facile de voir que les i sont les parties linéaires des fi , et linéairement indépendantes.
Donc F := {x 2 E; fi (x) = 0, 1  i  p} est un s.e.v de E de dimension m = n p. Comme F est dirigé
par F , on a donc F de dimension n p.

2.4 Convexité
2.4.1 Présentation
On considère dans cette section un espace affine réel E de dimension n, de direction l’espace vectoriel
réel E. Souvent, nous supposerons E muni d’une norme k · k. Dans ce cas, nous posons, pour r 2 R,
B(a, r) := {x 2 E| kx ak < r}, B 0 (a, r) := {x 2 E| kx ak  r}, S(a, r) := {x 2 E| kx ak = r}.
0
Les ensembles B(a, r), B (a, r), S(a, r), sont appelés respectivement boule ouverte de centre a et de rayon
r, boule fermée de centre a et de rayon r, sphère de centre a et de rayon r. Si r < 0, ils sont tous vides.
Si r = 0, B(a, r) est vide tandis que et B 0 (a, r) = S(a, r) = {a}.
L’espace E est alors muni d’une topologie associée (l’ensemble des ouverts dans E) à la norme k · k, mais
cette topologie ne dépend pas de la norme k · k choisie, conséquence du fait que E est de dimension finie,
et que, donc, toutes les normes sur E sont équivalentes (penser à l’espace affine Rn muni de la topologie
provenant d’une quelconque norme, usuelle ou non).
Note. La notion de topologie n’est pas nécessaire pour avoir celle de convexité. Cependant, elles
donnent ensemble des résultats parmi les plus fondamentaux de l’analyse fonctionnelle.
Rappelons :
1. un ensemble A ⇢ P est ouvert si, et seulement si, par définition, pour tout a 2 U il existe r > 0
tel que B(a, r) ⇢ A ;
2. un fermé est, par définition, le complémentaire dans E d’un ouvert ;
3. à un ensemble quelconque A ⇢ E on associe un ensemble adhérent, Ā, qui est le plus petit fermé
contenant A, ainsi qu’un ensemble intérieur, A , qui est le plus grand ouvert inclus dans A.
4. A = {a 2 A| il existe r > 0 tel que B(a, r) ⇢ A}.
5. a 2 Ā () il existe une suite (an )n d’éléments an 2 A qui converge vers a.
Par exemple, ; et E sont à la fois ouverts et fermés ; B 0 (a, r) et S(a, r) sont fermés tandis que B(a, r) est
ouvert ; de plus, B(a, r) = B 0 (a, r), S(a, r) = ;, B 0 (a, r) = B(a, r).

2.4.2 Définitions - Propriétés


Définition 2.4.1 Soit K ⇢ E. On dit que K est convexe si, et seulement si, pour tout couple x, y 2 K,
le segment [x, y] := {tx + (1 t)y; t 2 [0, 1]} est inclus dans K.
Exemple 2.4.1 Soit k · k une norme sur E. Soit a 2 E, r 0. Alors B(a, r) et B 0 (a, r) sont convexes,
mais S(a, r) ne l’est pas, sauf le cas trivial S(a, r) = {a} si r = 0.
Exemple 2.4.2 L’ensemble vide et E sont convexes : sans aucune utilité !
Tout sous-espace affine de E est convexe.
2.4. CONVEXITÉ 23

Preuve. Rappelons que p formes affines f1 , . . . , fp sont indépendantes si et seulement si la seule combi-
naison linéaire nulle de ces formes est celle où tous les coefficients sont nuls.
a) Supposons F s.e.a de E. Soit F sa direction associée. Donc F est un s.e.v de E de dimension finie
m 2 [0, n]. Si m- = n alors- F = E, F = E, et terminé.
- Sinon, il existe donc p = n m 1 formes - linéaires
-
indépendantes f1 , . . . , fp telles F = {u 2 E; fi (u) = 0, 1  i  p}. Soit a 2 F et fi (x) =fi (ax),
1  i  p. Les applications fi sont toutes des formes affines sur E et sont indépendantes entre elles.
Posons F 0 = {x 2 E; fi (x) = 0, 1  i  p} = \pi=1 fi 1 ({0}). Noter que fi (a) = 0 pour tout i. Donc F 0
est non vide, car il contient a, et est l’intersection des ensembles fi 1 ({0}), qui sont des s.e.a de E, d’après
le théorème 2.3.2. Donc, d’après le théorème 2.1.2, F 0 est aussi un s.e.a de E. Il est de même direction F
que F et contient a 2 F. Donc F 0 = F.
b) Réciproque. Supposons F = {x 2 E; fi (x) = 0, 1  i  p}, où les fi sont des formes affines
indépendantes. Soit a 2 F. Donc fi (a) = 0 pour tout i. Posons i (u) = fi (a + u), pour u 2 E et
i 2 [1, p]. Il est facile de voir que les i sont les parties linéaires des fi , et linéairement indépendantes.
Donc F := {x 2 E; fi (x) = 0, 1  i  p} est un s.e.v de E de dimension m = n p. Comme F est dirigé
par F , on a donc F de dimension n p.

2.4 Convexité
2.4.1 Présentation
On considère dans cette section un espace affine réel E de dimension n, de direction l’espace vectoriel
réel E. Souvent, nous supposerons E muni d’une norme k · k. Dans ce cas, nous posons, pour r 2 R,
B(a, r) := {x 2 E| kx ak < r}, B 0 (a, r) := {x 2 E| kx ak  r}, S(a, r) := {x 2 E| kx ak = r}.
0
Les ensembles B(a, r), B (a, r), S(a, r), sont appelés respectivement boule ouverte de centre a et de rayon
r, boule fermée de centre a et de rayon r, sphère de centre a et de rayon r. Si r < 0, ils sont tous vides.
Si r = 0, B(a, r) est vide tandis que et B 0 (a, r) = S(a, r) = {a}.
L’espace E est alors muni d’une topologie associée (l’ensemble des ouverts dans E) à la norme k · k, mais
cette topologie ne dépend pas de la norme k · k choisie, conséquence du fait que E est de dimension finie,
et que, donc, toutes les normes sur E sont équivalentes (penser à l’espace affine Rn muni de la topologie
provenant d’une quelconque norme, usuelle ou non).
Note. La notion de topologie n’est pas nécessaire pour avoir celle de convexité. Cependant, elles
donnent ensemble des résultats parmi les plus fondamentaux de l’analyse fonctionnelle.
Rappelons :
1. un ensemble A ⇢ P est ouvert si, et seulement si, par définition, pour tout a 2 U il existe r > 0
tel que B(a, r) ⇢ A ;
2. un fermé est, par définition, le complémentaire dans E d’un ouvert ;
3. à un ensemble quelconque A ⇢ E on associe un ensemble adhérent, Ā, qui est le plus petit fermé
contenant A, ainsi qu’un ensemble intérieur, A , qui est le plus grand ouvert inclus dans A.
4. A = {a 2 A| il existe r > 0 tel que B(a, r) ⇢ A}.
5. a 2 Ā () il existe une suite (an )n d’éléments an 2 A qui converge vers a.
Par exemple, ; et E sont à la fois ouverts et fermés ; B 0 (a, r) et S(a, r) sont fermés tandis que B(a, r) est
ouvert ; de plus, B(a, r) = B 0 (a, r), S(a, r) = ;, B 0 (a, r) = B(a, r).

2.4.2 Définitions - Propriétés


Définition 2.4.1 Soit K ⇢ E. On dit que K est convexe si, et seulement si, pour tout couple x, y 2 K,
le segment [x, y] := {tx + (1 t)y; t 2 [0, 1]} est inclus dans K.
Exemple 2.4.1 Soit k · k une norme sur E. Soit a 2 E, r 0. Alors B(a, r) et B 0 (a, r) sont convexes,
mais S(a, r) ne l’est pas, sauf le cas trivial S(a, r) = {a} si r = 0.
Exemple 2.4.2 L’ensemble vide et E sont convexes : sans aucune utilité !
Tout sous-espace affine de E est convexe.
24 CHAPITRE 2. GÉOMÉTRIE AFFINE

2.4.3 Propriétés - Construction de convexes


La propriété suivante est presque triviale. Voir la planche d’exercices.
Proposition 2.4.1 Les convexes de la droite réelle R sont les intervalles.

Théorème 2.4.1 L’intersection d’une famille (finie ou non) de convexes est un convexe.

Preuve Soit K = \i2I Ki où I 6= ; et les Ki sont convexes. Soit x, y 2 K. Pour un quelconque i 2 I,
on a [x, y] ⇢ Ki puisque x, y 2 Ki et Ki est convexe. Donc [x, y] ⇢ K. CQFD. ⇤

Remarque 2.4.1 Une union de convexes n’est pas convexe en général. Penser à l’union de deux droites
distinctes dans E.

Proposition 2.4.2 Le produit cartésien de convexes est convexe.

Théorème 2.4.2 Si K est convexe alors K et K̄ sont convexes.

Preuve 1) K convexe ? Soit x, y 2 K . Soit z 2 [x, y] : z = tx + (1 t)y pour un t 2 [0, 1]. Il s’agit de
prouver que z 2 K . On a z 2 K puisque x, y 2 K et K est convexe. Comme x, y 2 K , il existe r, s > 0
tels que B(x, r) ⇢ K et B(y, s) ⇢ K. On suppose, sans rien restreindre, 0 < r  s. Montrons que la boule
B(z, s) est contenue dans K, ce qui établira z 2 K . Soit w 2 B(z, s). On a k(x+w z) xk = kw zk < s,
donc x + w z 2 B(x, s) ⇢ K. De même, y + w z 2 B(y, s) ⇢ K. Par convexité de K, en remarquant
le relation w = w z + tx + (1 t)y = t(x + w z) + (1 t)(y + w z), on en déduit w 2 K. Donc
B(z, s) ⇢ K. Ceci prouve que z 2 K . CQFD.
2) K̄ convexe ? Soit x, y 2 K̄. Soit z 2 [x, y] : z = tx + (1 t)y pour un t 2 [0, 1]. Il existe des suites
(xn )n , (yn )n d’éléments de K telles que xn ! x et yn ! y quand n ! 1. Donc la suite zn = txn +(1 t)yn
converge vers z. Or zn 2 K car K est convexe et xn , yn 2 K. Donc zn 2 K̄. CQFD. ⇤

Théorème 2.4.3 Soit f : E ! F une application affine. Alors


1) L’image directe d’un convexe de E par f est convexe de F.
2) L’image réciproque d’un convexe F par f est convexe de E.

Preuve 1) Soit K 2 E un convexe. Posons K 0 = f (K) = {f (x); x 2 K}. Soit x0 , y 0 2 K 0 , z 0 2 [x0 , y 0 ].


Par définition de K 0 , il existe x, y 2 K tels que x0 = f (x) et y 0 = f (y). . Par définition de [x0 , y 0 ], il existe
t 2 [0, 1] tel que z 0 = tx0 +(1 t)y 0 . Donc z 0 = tf (x)+(1 t)f (y). Or f est affine. Donc z 0 = f (tx+(1 t)y).
Or tx + (1 t)y 2 K car K est convexe. Donc z 2 f (K) = K 0 . CQFD.
2) Soit K0 2 F un convexe. Posons K = f 1 (K0 ). Soit x, y 2 K et z 2 [x, y] : z = tx + (1 t)y
pour un t 2 [0, 1]. Donc f (z) = tf (x) + (1 t)f (y) 2 [f (x), f (y)] ⇢ K0 , puisque K0 est convexe. Donc
z 2 f 1 (K0 ) = K. Ceci montre que K est convexe. CQFD. ⇤

2.4.4 Construction de convexes


Comme conséquence de la propriété 2.4.1 et du théorème 2.4.3, nous avons le résultat pratique suivant
pour construire des convexes dans E.
Corollaire 2.4.1 Soit une forme affine sur E. Soit I un intervalle de R. Alors l’ensemble 1
(I)est
convexe.
Considérons maintenant une famille i , i 2 I = 6 ;, de formes affines sur E et Ji une famille d’intervalles
de R : ils sont convexes. Alors, d’après le théorème 2.4.1 et la proposition 2.4.1, \i2I i 1 (Ji ) est convexe
dans E. Par exemple, soit

K := \i2I i
1
(] 1, 0[), K 0 := \i2I i
1
(] 1, 0]). (2.6)

Les ensembles K et K 0 sont donc des convexes. De plus, K 0 est fermé, car c’est une intersection de fermés,
et, si I est finie, alors K est ouvert, car c’est alors une intersection finie d’ouverts.
2.4. CONVEXITÉ 25

Définition 2.4.2 Un ensemble K (respect., K 0 ) de la forme (2.6), avec la famille I FINIE, est appelé
polyèdre ouvert (respect., fermé) convexe.

Remarque 2.4.2 Dans (2.6) avec la famille I finie, on a K 0 = K̄ et K = K 0 .

Par exemple, dans la figure 2.1 nous construisons le polyèdre ouvert K ⇢ R2 par :
1 1
K = {(x, y) 2 R2 | x + y > 2; x + y > 4; x + y < 1; x 3y > 6}.
9 6
1
Les formes affines utilisées sont 1 (x, y) = 9x +y 2, 2 (x, y) = x + 16 y 4, 3 (x, y) = x+y 1,
4 (x, y) = x 3y 6.

Figure 2.1 –
y
y

x/9 +y>2
x/9 +y=2 x/9 +y=2 x+y/6=4

x/9 +y<2

Convexe K

O x
O x

x+y=1

x-3y=6

Théorème 2.4.4 Une combinaison affine de convexes est convexe.

Ceci signifie que si on a l (2 N⇤ ) convexes K1 , . . . , Kl 2 E, ainsi que des scalaires ↵1 , . . . , ↵l 2 R, alors


l’ensemble ↵1 K1 + . . . + ↵l Kl défini en 2.2.7 est convexe.

2.4.5 Enveloppe convexe


Nous allons procéder comme pour l’espace vectoriel (ou affine) engendré, vus en partie 2.1.3. Soit
A ⇢ E. On considère la famille K(A) des convexes K de E et contenant A. Cette famille est non vide
car E 2 K(A) (en e↵et, E est convexe et contient A). L’ensemble \K2K(A) est donc convexe, d’après le
théorème 2.4.1. Il contient A, et tout convexe contenant A le contient. D’où la
Définition 2.4.3 L’ensemble \K2K(A) est appelé enveloppe convexe de A. C’est le plus petit convexe
contenant A. Il est noté Conv(A).
Bien sûr, si A est convexe, il est égal à son enveloppe convexe ! En fait, un ensemble est convexe si, et
seulement si, il est égal à son enveloppe convexe.
La définition 2.4.3 n’est pas toujours aisée à utiliser pour déterminer l’enveloppe convexe d’un en-
semble donné. C’est pourquoi nous avons dans certains cas la méthode de construction qui suit, que l’on
comparera à (1.1)- (1.2) ainsi qu’à 2.4, et qui est tout aussi importante pour construire des convexes. Elle
utilise la notion ci-dessous de combinaison convexe.
Définition 2.4.4 Soit la Pcombinaison affine ↵1 a1 +. . .+↵k ak des points a1 , . . . , ak 2 E, avec des scalaires
↵1 , . . . , ↵k 2 R tels que i ↵i = 1. Si, en plus, les ↵i sont tous positifs, on dit que la combinaison affine
↵1 a1 + . . . + ↵k ak est une combinaison convexe.

Remarque 2.4.3 Dans une combinaison convexe ↵1 a1 + . . . + ↵k ak , on a les conditions suivantes sur
les scalaires : X
↵i = 1 ET 0  ↵i  1 8i. (2.7)
i
26 CHAPITRE 2. GÉOMÉTRIE AFFINE

Théorème 2.4.5 Soit K ⇢ E, K non vide. Alors


k
X
Conv(K) = {↵1 a1 + . . . + ↵k ak | k 1, 0  ↵i  1, ↵i = 1, ai 2 K}. (2.8)
i=1

Rappelons qu’un ensemble K est convexe si, et seulement si, K = Conv(K). Donc, le théorème 2.4.5
non seulement caractérise l’enveloppe convexe d’un ensemble donné mais signifie aussi qu’un ensemble
est convexe si, et seulement si, il contient toutes les combinaisons convexes
Pk de ses propres points.
Preuve Posons Q := {↵1 a1 + · · · + ↵k ak | k 1, 0  ↵i  1, i=1 ↵i = 1, ai 2 K}, l’ensemble
de toutes les combinaisons convexes de points de K. Il est clair que Q contient K. Montrons que Q est
convexe. Soit x, y 2 Q et z = tx + (1 t)y 2 [x, y]. On peut écrire

x = ↵1 a1 + · · · + ↵k ak , y= 1 b1 + ··· + l bl ,

avec
k
X l
X
0  ↵i , i  1, ↵i = i = 1, ai , bi 2 K.
i=1 i=1

Donc

z = t(↵1 a1 + · · · + ↵k ak ) + (1 t)( 1 b1 +···+ l bl ) = t↵1 a1 + · · · + t↵k ak + (1 t) 1 b1 + · · · + (1 t) l bl .

Comme les ai , bi appartiennent à K, que les k + l coefficients t↵1 , . . ., t↵k , (1 t) 1, . . ., (1 t) l , sont


dans [0, 1], et que leur somme est

S = t↵1 + · · · + t↵k + (1 t) 1 + · · · + (1 t) l = t(↵1 + · · · + ↵k ) + (1 t)( 1 +···+ l) = t + (1 t) = 1,

donc z est combinaison convexe de points de K. Donc z 2 Q par définition de Q. Ainsi, Q est convexe.
Par conséquent, Conv(K) ⇢ Q, d’après la définition de Conv(K).
Montrons Conv(K) Q. Soit a 2 Q. Donc a est de la forme a = ↵1 a1 + . . . + ↵k ak , pour un entier
k 1, des scalaires ↵i 2 [0, 1] dont la somme fait 1, et des points ai 2 K. Montrons a 2 Conv(K) par
récurrence sur K, et ce sera terminé. Si k = 1 alors a = a1 2 K ⇢ Conv(K), donc ok. Supposons k > 1
et que toute combinaison convexe d’au plus k 1 points de K appartient à Conv(K). Si ↵k = 1, alors
a = ak 2 Conv(K), d’après cette hypothèse de récurrence. Sinon, on écrit a = (1 ↵k )a0 + ↵k ak , avec
↵1 ↵k 1
a0 := a1 + . . . + ak 1.
1 ↵k 1 ↵k
D’après l’hypothèse de récurrence, on a a0 2 Conv(K). Donc a 2 [a0 , ak ]. Or Conv(K) est convexe et
contient a0 et ak . Donc a 2 Conv(K). CQFD. ⇤
Comme il n’est pas pratique de tester toutes les combinaisons convexes des points d’un ensemble,
nous avons le résultat suivant de Carathéodory. Rappelons que n = dim E.
Théorème 2.4.6 Soit A ⇢ E. Alors tout élément de Conv(A) peut s’écrire comme combinaison convexe
de n + 1 éléments de A.
Preuve Supposons A non vide - sinon il n’y a rien à démontrer - et soit x 2 Conv(A). Donc x est
combinaison convexe de k 1 points de A :
k
X
x = ↵1 a1 + · · · + ↵k ak | k 1, 0  ↵i  1, ↵i = 1, ai 2 A.
i=1

Si k < n+1 il n’y a rien à démontrer. Supposons donc k > n+1. Montrons que x est combinaison convexe
de k 1 points de A : par une récurrence triviale, cela suffira à conclure. Supposons, de plus, tous les
↵i > 0, sinon, on peut éliminer un terme dans la combinaison convexe donnant x, et c’est achevé. Comme
k 1 > n = dim E, les points a1 , . . . , ak sont affinement exemple, ak 2 A↵(a1 , . . . , ak 1 ).
P dépendants. ParP
Donc, il existe des scalaires 1 , . . . , k 1 tels que i<k i = 1 et ak = i<k i ai . On pose, k = 1 et,
2.5. ISOMÉTRIES AFFINES 27

Pk Pk
pour t 2 R, ↵it := ↵i + t i . Alors i=1 i ai est un vecteur car i=1 i = 0 (Cf. remarque 2.2.1, point
Pk Pk
2.), et c’est le vecteur nul car i=1 i ai = i=1 i (ai ak ) = 0E . Donc

k
X k
X k
X k
X k
X k
X
↵it = ↵i + t i = 1, ↵it ai = ↵i ai + t i ai = x.
i=1 i=1 i=1 i=1 i=1 i=1

C’est presque terminé, il suffit de trouver un t 2 R pour lequel les ↵it sont tous positifs et l’un d’eux
s’annule. Pour cela, posons
↵i
⇤ := { 6 0} ⇢ R+ .
; i=
| i|

L’ensemble ⇤ est non vide car |↵kk| = ↵k 2 ⇤, est fini. Donc il est minoré par une valeur = | jj | , pour
un j 2 {1, . . . , k}. Posons t = si j < 0 et t = si j > 0. Donc, si i = 0, alors ↵it = ↵i 0 ; si

t ↵i
i 6= 0 alors ↵i = | i |( | i | + t | i | )
i ↵i
| i |( | i | ) 0. Enfin, ↵jt = | j |( | jj | ) = 0. CQFD. ⇤

Exemple 2.4.3 Soient trois points A,B,C non alignés dans le plan affine R2 . Alors T := Conv({A, B, C})
est le triangle (plein) fermé de sommets A, B, C. Tout point M de T s’écrit sous la forme (unique)

M = ↵A + B + C, ↵+ + = 1, 0  ↵, ,  1.

Théorème 2.4.7 Soit A ⇢ E et f 2 A(E, F) une application affine. Alors f (Conv(A)) = Conv(f (A)).

Preuve Posons K 0 = f (Conv(A)) = {f (x); x 2 Conv(A)}. D’après le théorème 2.4.3 (1), on sait que
K 0 est convexe. De plus, K 0 contient f (A) puisque A ⇢ Conv(A). Donc par définition, Conv(f (A)) ⇢ K 0 .
Réciproquement, montrons que K 0 ⇢ Conv(f (A)). Soit y 2 K 0 . Donc il existe x 2 Conv(A) tel que
y = f (x). On sait que x est combinaison convexe de points a1 , . . . , ak dans A :

x = ↵1 a1 + · · · + ↵k ak .

Donc y = f (x) = ↵1 f (a1 ) + · · · + ↵k f (ak ) 2 Conv(f (A)). CQFD. ⇤

2.5 Isométries Affines


2.5.1 Généralités
Dans cette section, on considère un espace affine réel E sur l’espace euclidien E de dimension n 1.
On dira donc que E est un espace affine euclidien. pLe produit scalaire entre deux vecteurs u et v de E est
noté (u, v). La norme euclidienne de u est kuk = (u, u). La distance entre deux points x et y de E est
dist(x, y) = kx yk.

Définition 2.5.1 Une isométrie de l’espace affine E dans lui–même est une bijection affine sur E qui
préserve les distances.

Autrement dit, si f est une bijection affine de E dans lui–même, alors f est une isométrie si, et seulement
si, satisfait :
dist(f (x), f (y)) = dist(x, y), 8x, y 2 E.

Théorème 2.5.1 L’ensemble des isométries affines de E, noté iso(E), est un sous–groupe de (GA(E), ).

Preuve : exercice.

Théorème 2.5.2 Soit f une application affine sur E. Alors f est une isométrie affine si, et seulement
si, son application linéaire tangente est une isométrie vectorielle sur E.
28 CHAPITRE 2. GÉOMÉTRIE AFFINE
-
Preuve. ) . Soit f une isométrie affine de E. Son application linéaire associée f est donc un automor-
- -
phisme de E. Soit a 2 E et soit u un vecteur u 2 E. Posons m = a + u. Donc - k f (u)k = k f (m a)k =
kf (m) f (a)k. Par l’hypothèse que f préserve les distances, on a donc k f (u)k = km ak = kuk. Donc
-
f est une isométrie vectorielle.
( . La réciproque est aussi évidente. CQFD.
-
Il résulte de ce théorème que les propriétés d’une isométrie f dérivent directement de celles de f .
Pour cela, on peut utiliser le résultat de la section 2.3.6. En particulier, on peut classer facilement les
isométries affines ayant au moins un point fixe (commun à toutes ces isométries–là, puisqu’on a déjà
classé les isométries vectorielles.

Définition 2.5.2 Une isométrie-affine f est dite directe, (respectivement, indirecte) si, et seulement si,
son application linéaire
- tangente f est une isométrie
- directe (respectivement, indirecte), c’est–à–dire, si,
et seulement si, det f = 1 (respectivement, det f = 1). Une isométrie directe (respectivement, indirecte)
est appelée aussi déplacement (respectivement, antidéplacement).

Théorème 2.5.3 Toute isométrie affine f s’écrit sous la forme

f = g ⌧u = ⌧u g,

où g est une isométrie affine ayant au moins un point fixe.


-
Preuve C’est une conséquence directe du - théorème 2.3.6. En e↵et, d’après
- la propriété 1.3.1, comme f
est une isométrie vectorielle, l’espace Im (f idE ) coincide avec (Ker (f idE ))? , et, par conséquent, - la
relation (2.5) est satisfaite, avec, la propriété -
que le vecteur u est la projection orthogonale sur Ker (f
idE ) d’un vecteur de la forme f (a) a =af (a). ⇤

2.5.2 Caractérisation des isométries affines du plan


Soit f une isométrie affine de R2 . D’après le théorème 2.5.3, elle s’écrit (de façon unique) f = g ⌧u =
⌧u g, et g possède un point fixe au moins a. D’après les résultats vus-en rappel (chapitre - 1), et celui de
l’identification de g à son application linéaire tangente (qui est aussi f ), on sait que f est une rotation
ou une symétrie axiale (vectorielles). Si f possède un point fixe a, c’est terminé (cas u = 0E et f = g) :
f est alors soit une rotation autour du point a, soit une symétrie axiale d’axe une droite affine passant
par a. -
Si f ne possède pas de point fixe, alors 1 est nécessairement valeur propre de f , comme - conséquence
du théorème 2.3.5. Il reste donc 1 ou 1 comme valeur propre de f . Si c’est 1, alors f = idR2 et f
est une translation (ou ”glissement”) de vecteur u (et g = idR2 ). Si c’est 1, alors f est une symétrie
axiale. Comme on l’a supposée sans point fixe, elle est appelée symétrie- axiale glissée.
- Dans la preuve
du théorème
- 2.3.6 (Cf. aussi la remarque
- 2.3.2), le vecteur- v 2 Im ( f id E ) = (Ker
- ( f idE ))? est de la
?
forme v =f (w) w. Comme ici, (Ker (f idE )) = Ker (f +idE ), on a donc f (v) = v, puis on peut
prendre w = 12 v. Le point fixe de g est donc a w = a + 12 v. L’isométrie g est donc la symétrie axiale
sD d’axe la droite affine D dirigée par u et passant par le point a + 12 v. La symétrie axiale glissée f est
donc la composée de sD avec la translation de vecteur u dirigeant la droite affine D (voir dessin). On voit
bien ici comment fonctionne la commutation entre ⌧u et sD .
Synthèse des isométries affines du plan :
1. Glissement (Translation). Pas de point fixe, en dehors de f = idE (cas trivial). Classe : déplacement.
2. Rotation autour d’un point fixe. En particulier, la rotation d’angle ⇡, qui est une symétrie centrale
(selon le point fixe). Classe : déplacement.
3. Symétrie axiale puis glissement dans la direction de l’axe, ou dans l’ordre inverse : ça commute !
(Cf. figure 2.2). Classe : antidéplacement.
2.5. ISOMÉTRIES AFFINES 29

Figure 2.2 –

M: point initial
x M x P
P: translaté de M dans la direction ⟂ à D

M’’: symétrique de M par rapport à l’axe D

M’’: translaté de M’ dans la direction ⟂ à D


= symétrique de P par rapport à l’axe D
Axe D

D⟂

x M’ x M’’

2.5.3 Représentation complexe des isométries du plan


Reprenons les notations de la section 2.3.8). Après le théorème 2.3.8 de représentation des applications
affines en dimension deux, vient, pour les isométries, le

Théorème 2.5.4 Toute isométrie affine f directe (déplacement) est caractérisée par

f˜(z) = ↵z + , 8z 2 C,

et toute isométrie affine f indirecte (antidéplacement) est caractérisée par

f˜(z) = ↵z̄ + , 8z 2 C,

où ↵, sont deux nombres complexes, avec |↵| = 1.

Preuve. Conséquence des théorèmes 2.3.8 et 2.5.2. Le reste en exercice !

2.5.4 Caractérisation des isométries affines de l’espace


une isométrie de R3 . Si f possède un point fixe a, c’est terminé, car on identifie f à l’isométrie
Soit f -
vectorielle f de l’espace en fixant a comme origine de l’espace euclidien E = R3 , ce qui l’identifie à l’espace
vectoriel R3 . -
Considérons le cas où f ne possède pas de point fixe. Donc 1 est valeur propre de f , comme
conséquence du théorème 2.3.5. D’après les résultats de - la section 1.3.5, on connait la forme de la ma-
trice de représentation de l’application linéaire tangente f , ce qui élimine les antirotations qui ne sont
pas des réflecteurs. D’après les théorèmes 2.3.6, 2.5.3 et la remarque - 2.3.2, f s’écrit (de façon unique)
f = g ⌧u = ⌧u g, où g possède un point fixe au moins et u 2 Ker (f id). De plus, d’après la preuve du
théorème 2.3.6 et la remarque 2.3.2, les vecteurs u et un point fixe de g sont obtenus comme suit. Soit un
- - ? -
- a 2 E arbitrairement choisi.
point
-
On décompose le vecteur af (a)2 E = Ker (f id) Im (f idE ) par
- -
af (a)= u + va avec u 2 Ker (f id) et va = (f idE )w 2 Im (f idE ). On a obtenu - u (unique). Un point
fixe de g est Oa = a w. Comment - obtenir w ? En e↵et, w est caractérisé par ( f idE )w = va (va est la
- - -
projection
- orthogonale - de af (a) sur Im ( f id E )), et w -n’est pas unique. Or f laisse stable Ker (f id)
et Im (f idE ), donc f réalise un automorphisme
- de Im (f idE ). Par conséquent, on peut cherche pour
w l’unique vecteur orthogonal à Ker (f id).
30 CHAPITRE 2. GÉOMÉTRIE AFFINE
- - -
1. Si Ker (f id) est de dimension 1 alors Ker (f id) est une droite vectorielle D portée - par le
vecteur u 6= 0 (car f 6= g par l’hypothèse que f ne possède pas de point fixe), - et f est un
déplacement- ; l’application g ci–dessus est une rotation axiale d’axe D - dirigé par D = Vect(u). La
restriction f |Im - ( f idE )
est une isométrie dans le plan vectoriel Im ( f id E ) et sans la valeur
propre 1, donc c’est une rotation vectorielle. Soit Oa le point fixe de g, déterminé par la méthode
-?
ci–dessus. Il définit le plan affine Pa qui passe par Oa et dirigé par le plan vectoriel D . Comme
-? - - -?
a Oa = w 2D , ce plan Pa passe aussi par a. De plus, comme g =f laisse la direction D de
Pa invariante, il en résulte que g laisse Pa invariant. Donc, on peut considérer l’application
- affine
g|Pa , qui est une isométrie en dimension deux, ayant le point fixe Oa , et telle que det(g |Pa = 1).
Ceci prouve que g|Pa est une rotation plane de centre - Oa .
En synthèse, pour tout plan affine P orthogonal à D, l’isométrie affine g|P est une rotation du plan
P, autour d’un point O 2 P (et obtenu par la méthode ci–dessus : on se donne arbitrairement - un
point a 2 P, etc...). L’isométrie g est une rotation d’axe la droite D = {Oa ; a 2 E} dirigée par-D.
L’isométrie f est la composée de la rotation g autour de D avec la translation de vecteur u 2D.
Une telle isométrie s’appelle un vissage.
- -
2. Si Ker (f id) est de dimension 2, alors f est un - réflecteur, et la méthode précédente montre- que
f est selon un plan affine
- P dirigé par P
- = Ker ( f id), de vecteur de translation- u 2 Ker ( f id).
Comme - ici on a Im (f idE ) = Ker (f +id), alors la résolution
- du système ( f id E )w = va ,
w 2 Im (f idE ) est immédiate, puisqu’on a alors va = (f idE )w = 2w, donc w = 12 va . Les
points fixes de g forment le plan affine P passant par les points de la forme Oa = a + 12 va , où va
-
est la projection orthogonale de f (a) a sur P ? = Ker (f +id).
On dit que f est une réflection glissée.
- -
3. Si Ker (f id) est de dimension 3, alors f est l’identité, donc f est une translation.
-
4. Si Ker (f id) est réduit au vecteur nul alors f est soit une anti-rotation (antidéplacement), soit
une symétrie centrale. Dans le-premier cas, Fix(f ) est une droite affine, dans le deuxième cas,
Fix(f ) est réduit à un point et f = id.

Synthèse des isométries affines de l’espace de dimension 3 :


1. Glissement (Translation). Pas de point fixe, en dehors de f = idE (cas trivial). Classe : déplacement.
2. Symétrie axiale.
3. Symétrie axiale glissé = composée d’une symétrie axiale et d’un glissement dans la direction de
l’axe (les deux composées commutent). Cf. figure 2.2. Classe : déplacement.
4. Rotation autour d’un axe fixe.
En particulier, la rotation d’angle ⇡, est une symétrie axiale.
5. Vissage = composée d’une rotation autour d’un axe fixe et d’une translation dans la direction de
l’axe (les deux composées commutent).
En particulier, si la rotation est d’angle ⇡, le vissage est une symétrie axiale glissée. Classe :
déplacement.
6. Anti-rotation autour d’un axe fixe. En particulier, la rotation d’angle ⇡, qui est une symétrie
centrale (selon un seul point fixe). Classe : antidéplacement.
7. Réflecteur = symétrie plane.
8. Réflecteur glissé = composée d’un réflecteur et d’un glissement dans la direction du plan de
symétrie (les deux composées commutent). Cf. figure 2.2 du cas 2D. Classe : antidéplacement.

2.6 Groupe laissant invariant un ensemble


Nous nous plaçons dans le plan R2 ou l’espace R3 . Considérons un ensemble non vide X dans E = R2,3 .
Nous cherchons à déterminer les isométries affines qui laissent invariant globalement X. Si X contient
2.6. GROUPE LAISSANT INVARIANT UN ENSEMBLE 31

les points d’une base affine B de E, alors cette base B est transformée en une autre base B 0 par une telle
isométrie, et la connaissance de B, B 0 détermine l’isométrie.
Définition 2.6.1 Une isométrie f laisse X invariant si, et seulement si, 8x 2 X, f (x) 2 X.
Nous posons IS(X) l’ensemble des isométries laissant X invariant.
Proposition 2.6.1 (IS(X), ) est un groupe.

Preuve : exercice.

Propriété 2.6.1 Si X est fini alors il existe un point de X qui est fixe pour tout élément de IS(X).
P
Preuve Puisque X est fini, on peut définir son barycentre O = a2X a/(card X). Soit f 2 IS(X).
Puisque f (X) = X on a donc f (O) = O, puisque f préserve les barycentres. CQFD. ⇤

Propriété 2.6.2 L’enveloppe convexe de X est invariant globalement par tout élément de IS(X).

Preuve Soit f 2 IS(X). D’après le théorème 2.4.7, on a f (Conv(X)) = Conv(f (X)) = Conv(X).
CQFD. ⇤

Remarque 2.6.1 La propriété peut s’étendre aux ensembles ayant un volume fini.
Contre-exemple si X n’a pas de volume fini. Posons X = Nn ⇢ Rn . Toute translation ⌧u de vecteur u 6= 0
à coefficients entiers est un élément de IS(X) et sans point fixe.

Exemple 2.6.1 Soit un carré non trivial X = (A, B, C, D) dans le plan. (On suppose que les deux
diagonales sont AC et BD). Alors

IS(X) = {id, sIK , sJL , sAC , sBD , R(O, ⇡/2), R(O, 3⇡/2), sO },

où O est le milieu du carré, les points I, J, K, L, désignent respectivement le milieux des segments AB,
BC, CD, DA, SM P désigne la symétrie axiale d’axe la droite M P , sO désigne la symétrie centrale de
centre O. R(O, ✓) est la rotation de centre O et d’angle ✓.
Preuve. Posons G = {id, sIK , sJL , sAC , sBD , R(O, ⇡/2), R(O, 3⇡/2), sO }. Il est assez facile de voir que
G ⇢ IS(X). Réciproque. Soit f 2 IS(X). Puisque f (X) = X, f préserve le barycentre O de X. Donc
f (O) = O. Il y a quatre cas pour f (A) :
1. f (A) = A. Alors la droite OA est fixe. Donc f (C) = C. Il reste soit f (B) = B, impliquant que f
laisse invariant la base affine {A, B, C}, et par conséquent, f = id, soit f (B) = D et f (D) = B,
impliquant f = sAC .
2. f (A) = B. Si f (B) = A alors f laisse invariant I, donc la droite OI, donc f est la symétrie
axiale sOI = sIK . Si f (B) = C alors reste f (C) = D, f (D) = A, et donc f = R(O, ⇡/2). Le cas
f (B) = D est interdit car impliquerait kf (A) f (B)k = kB Dk = 6 kA Bk.
3. f (A) = C. On regarde f (B). Si f (B) = B on revient à un cas similaire au 1), et donc f = sBD .
Si f (B) = D alors f = sO .
4. f (A) = D. Similaire au cas 2). On trouve f 2 sJL ou f = R(O, 3⇡/2).
Chapitre 3

Coniques et quadriques

Dans tout ce chapitre, E désigne un K-espace vectoriel de dimension finie, n = dim E, et est une
forme bilinéaire symétrique non dégénérée, associée à la forme quadratique q. On dit aussi que q est
propre.

3.1 Compléments sur les formes quadratiques


3.1.1 Orthogonalité
Nous avons vu la notion d’orthogonalité dans un espace euclidien (donc, K = R). Il est possible de
l’étendre au cas complexe (K = C), ou même, pour d’autres corps.

Définition 3.1.1 — Deux vecteurs x, y 2 E sont dits orthogonaux si, et seulement si, (x, y) = 0.
On écrit alors x ? y.
— Un vecteur x 2 E est dit isotrope si, et seulement si, x est orthogonal à lui-même (x ? x). Par
exemple, 0E est isotrope.
— Soit A ⇢ E. L’orthogonal de A est l’ensemble A? := {y 2 E | 8x 2 A, x ? y}. C’est un s.e.v de
E. Si A est réduit à un seul élément, x, on note aussi A? = x? .
— Un s.e.v V ⇢ E est dit isotrope si, et seulement si, V \ V ? 6= {0E }. Il revient au même de dire
que |V est dégénérée.
— Un s.e.v V ⇢ E est dit totalement isotrope si, et seulement si, V ⇢ V ? . Il revient au même de
dire que |V est nulle.

Propriété 3.1.1 Soit V, W deux s.e.v de E, et A, B ⇢ E. Alors :


1. A? = Vect(A)? .
2. Vect(A) = A?? et V ?? = V
3. Si V est de dimension p 2 [0, n], alors V ? est de dimension n p. En particulier, on a {0E }? = E
et E ? = {0E }.
4. A ⇢ B ) B ? ⇢ A? .
5. (A [ B)? = A? \ B ? et (V + W )? = V ? \ W ? .
6. A? + B ? ⇢ (A \ B)? et V ? + W ? = (V \ W )? .

Définition 3.1.2 Une base B = {e1 , . . . , en } de E est dite orthogonale si, et seulement si, (ei , ej ) = 0
pour tout i 6= j.

Dans une telle base, la matrice de est diagonale. Nous pouvons admettre sans mal la

Proposition 3.1.1 Il existe une base orthogonale de E pour .

33
34 CHAPITRE 3. CONIQUES ET QUADRIQUES

3.1.2 Classification des formes quadratiques


Définition 3.1.3 Soient q et q 0 deux formes quadratiques sur E. On dit que q et q 0 sont équivalentes,
et on note q ⇠ q 0 , si, et seulement si, 9u 2 GL(E) (l’espace des automorphismes de E) tel que q 0 (x) =
q(u(x)), pour tout vecteur x 2 E.

Proposition 3.1.2 Soient A et A0 les matrices respectives dans la même base B de deux formes quadra-
tiques q et q 0 sur E. Alors
q ⇠ q 0 () 9P 2 GL(E) | A0 = tP AP.

Il est évident que la relation ⇠ est une relation d’équivalence sur l’ensemble des formes quadratiques sur
E. Le problème de classification des formes quadratiques consiste à déterminer les classes d’équivalence
pour la relation ⇠.
Dans le cas complexe, K = C, nous avons le

Théorème 3.1.1 On suppose K = C. Soit B = (e1 , . . . , en ) une base de E. Deux formes quadratiques
sont équivalentes si, et seulement si, elles ont même rang. Toute forme quadratique sur E de rang R est
équivalente à la forme suivante :
R
X n
X
qR (x) = x2i , x= xi ei .
i=1 i=1

Preuve La condition de rang est nécessaire d’après la proposition 3.1.2. Soit q une forme quadratique
ayant A pour matrice symétrique de rang R. On sait qu’il existe une base orthogonale B1 = (u1 , . . . , un )
pour q. Donc il existe P 2 GL(Cn ) telle que D := tP AP soit une matrice diagonale. Quitte-à changer
l’ordre des vecteurs dans B1 , nous avons D égale à la diagonale (d1 , . . . , dn ), où di 6= 0 si 1  i  R
et di = 0 si i > R. On pose µi 2 C⇤ tel que µ2i = di , puis on remplace B1 par la base orthogonale
B = (e1 , . . . , en ) où ei = µi ui si i  R, et ei = ui si i > R. Dans la base B,Pla matrice de q est laP
diagonale
n n
(1, . . . , 1, 0, . . . , 0), avec R fois le nombre un. Ceci signifie que q(x) = qR ( i=1 xi ei ) pour x = i=1 xi ei .

Dans le cas réel, K = R, nous avons le

Théorème 3.1.2 (Sylvester) On suppose K = R. Soit B = (e1 , . . . , en ) une base de E. Toute forme
quadratique sur E est équivalente à l’une, et une seule, des formes suivantes :
r
X r+s
X n
X
qr,s (x) = x2i x2i , x= xi ei .
i=1 i=r+1 i=1

Remarque 3.1.1 Le rang de q est r + s.

Preuve Soit q une forme quadratique non dégénérée sur E. D’après les résultats de la section 1.1.3, il
existe une base B 0 = (e01 , . .p . , e0n ), diagonale pour q. La matrice
p D1 de q dans cette base est une diagonale,
(a1 , . . . , an ). Posons ui = 1/ai e0i 2 E si ai > 0, ui = 1/ai e0i 2 E si ai < 0, ui = e0i si ai = 0. Donc,
si ai 6= 0, alors q(ui ) = q(e0i )/|ai | = ai /|ai | (le signe de ai ). Par conséquent, dans la base orthogonale
(u1 , . . . , un ), la matrice de q est une diagonale D0 ayant pour éléments diagonaux soit 0, soit 1, soit
1. Quitte-à faire une permutation sur les vecteurs ui dans cette base, nous pouvons supposer que les
éléments diagonaux de D0 sont ordonnés en (1, . . . , 1, 1, . . . , 1, 0, . . . , 0). Si r est le nombre de 1 et s
le nombre de 1, alors la matrice de q dans cette base est identique à celle de qr,s dans B. Donc q et qr,s
sont équivalentes.
Montrons l’unicité. Il s’agit de prouver que qr,s et qr0 ,s0 ne sont pas équivalentes si (r, s) 6= (r0 , s0 ).
Supposons q(r, s) et q(r0 , s0 ) équivalentes. Donc r + s = rg(q(r, s)) = rg(q(r0 , s0 )) = r0 + s0 , et il existe une
base B 0 = (e01 , . . . , e0n ) telle que, si (x01 , . . . , x0n ) désignent les coordonnées de x dans B 0 , alors
0 0
r
X rX +s0
2 2
q(r, s)(x) = x0 i x0 i .
i=1 i=r 0 +1
3.1. COMPLÉMENTS SUR LES FORMES QUADRATIQUES 35

Vérifions que la famille {e1 , . . . , er , e0r0 +1 , . . . , e0n } est libre. Soit une combinaison linéaire nulle de ces
vecteurs :
↵1 e1 + . . . + ↵r er + r0 +1 e0r0 +1 , . . . + n e0n = 0. (3.1)
0 0
Posons x = ↵1 e1 + . . . + ↵r er = ( r 0 +1 er 0 +1 , . . . + n en ). Alors
0
r
X rX +s0
0 ↵i2 = q(r, s)(x) = 2
j  0.
i=1 j=r 0

On en déduit ↵i = 0 = j pour 1  i  r, et r0  j  r0 + s0 . Il reste les j , j r0 + s0 + 1. Or la


relation (3.1) devient r0 +s0 +1 er0 +s0 +1 + . . . + n en = 0, qui implique j = 0 pour r + s0  j  n car
0 0 0

la sous-famille {er0 +s0 +1 , . . . , e0n } est libre. Donc {e1 , . . . , er , e0r0 +1 , . . . , e0n } est bien libre, ce qui implique
r0 r. De même, on prouve r r0 . Donc r = r0 . Comme r + s = r0 + s0 on obtient s = s0 . ⇤

Définition 3.1.4 Le couple (r, s) est appelé la signature de q.

Corollaire 3.1.1 1) Une forme quadratique réelle est non dégénérée si, et seulement si, r + s = n.
2) Une forme quadratique réelle est positive si, et seulement si, s = 0.
3) Une forme quadratique réelle définit un produit scalaire si, et seulement si, r = n (ceci impliquant
s = 0).

La méthode de Gauss qui suit permet d’obtenir de façon pratique à partir d’une forme quadratique
réelle quelconque dans Rn une forme quadratique équivalente comme vue au Théorème 3.1.2 (Sylvester),
donc d’obtenir la signature de cette forme quadratique.

3.1.3 Méthode de Gauss


P K , de matrice (ai,j )1i,jn ) dans la base canonique (par exemple).
n
Soit q une forme
Pquadratique sur
n 2
On a donc q(x) = i=1 ai,i xi + 2 1i<jn ai,j xi xj . On applique la procédure suivante.
Procédure :
Cas 1. S’il existe ai,i 6= 0, par exemple, an,n 6= 0, on écrit

n
X1 n
X1
q(X) = an,n x2n + 2( ai,n xi )xn + ai,j xi xj .
i=1 i,j=1

Le deux premiers termes du membre de droite dans cette relation forment le début d’un carré. S’il
existe ai,i 6= 0, par exemple, an,n 6= 0, on écrit

n
X1 n
X1 n
X1
ai,n ai,j
q(X) = an,n (xn + xi ) 2 ( xi ) 2 + ai,j xi xj .
i=1
an,n i=1
an,n i,j=1

Pn 1 ai,n
En posant yn = xn + i=1 an,n xi , nous obtenons

q(X) = an,n yn2 + q 0 (X 0 ),

où q 0 est une forme quadratique de la variable X 0 = (x1 , . . . , xn 1 ), qui est indépendante de yn . Il
ne reste plus qu’à recommencer la procédure si n 1 > 1.
Cas 2. Si tous les ai,i sont nuls, il existe un ai,j 6= 0 pour un i 6= j, par exemple, an 1,n 6= 0. En se
rappelant que 4ab = (a + b)2 (a b)2 , on écrit alors
n
X1 n
X1 n 1 n 1 n
X1
1 X 1 X
q(X) = 2( ai,n xi )xn + ai,j xi xj = ( ai,n xi + xn )2 ( ai,n xi xn ) 2 + ai,j xi xj .
i=1 i,j=1
2 i=1 2 i=1 i,j=1
36 CHAPITRE 3. CONIQUES ET QUADRIQUES

Pn 1 Pn 1
En posant yn 1 = i=1 ai,n xi + xn et yn = i=1 ai,n xi xn , nous avons
n
X1
yn 1 + yn = 2 ai,n xi ,
i=1

donc
n
X2 ai,n 1
xn 1 = + (yn 1 + yn ),
i=1
an 1,n 2
puis
1 2 1 2
q(X) =
y y + q 00 (X 00 ) + ...,
2 n 1 2 n
où q 00 est une forme quadratique de la variable X 00 = (x1 , . . . , xn 2 ), qui est indépendante de yn 1
et de yn . Il ne reste plus qu’à recommencer la procédure si n 2 > 1.

3.2 Coniques, Quadriques


3.2.1 Notations, Premières définitions
Dans cette section, nous considérons le K–espace affine E, K = R ou C, de dimension finie n 2,
muni d’un repère affine R0 = (O, e1 , . . . , en ) où (e1 , . . . , en ) désigne une base de la direction E de E et
O 2 E. Il est possible de se placer dans un espace affine E plus général que Kn , mais l’introduction d’un
repère affine R = (O, e1 , . . . , en ), avec O 2 E et (e1 , . . . , en ) une base de la direction E de E permet de se
ramener au cas Le cas le plus simple que nous étudierons plus en profondeur est celui de E = Kn avec le
repère affine R0 = (0, "1 , . . . , "n ).
Un point m 2 Kn est donc repéré par ses coordonnées usuelles tX = (x1 , . . . , xn ). Le cas particulier
n = 2 sera détaillé ; les coordonnées cartésiennes seront alors notées (x, y) plutôt que (x1 , x2 ).

Rappel
Un polynôme f de n variables x1 , . . . , xn 2 K, et de degré deux est de la forme
n
X n
X
f (x1 , . . . , xn ) = ai,j xi xj + bi xi + c, (3.2)
i,j=1 i=1

où les paramètres ai,j , bi , c, sont des scalaires, la matrice A := (ai,j )1i,jn n’étant pas nulle, et
symétrique : ai,j = aj,i .
Définition 3.2.1 Soit f un polynôme de n variables, et de degré deux. L’équation f (m) = 0 est appelée
quadrique de l’espace affine E. Lorsque deux polynômes f et g sont proportionnels, les quadriques f (m) =
0 et g(m) = 0 sont identiques, par définition.
L’ensemble f 1 ({0}) des zéros de l’équation f (m) = 0 est appelée image de la quadrique f (m) = 0, ou
encore, par abus de langage, quadrique affine de E.
Si n = 2, la quadrique est appelée conique.

Objectif
Classifier les quadriques f (m) = 0 en fonction d’invariants discrets comme le rang de la matrice
A = (ai,j ), la signature de la forme quadratique ayant A pour matrice (dans le cas réel), etc. Classifier les
quadriques dans un espace affine E signifie que si deux polynômes f et g (de degrés deux) ont les mêmes
invariants, il existe alors un automorphime affine h sur E tel que f = g h.
Nous verrons plus précisément le cas des quadriques dans un espace euclidien comme Rn . Classifier les
quadriques dans un espace euclidien signifie que si deux polynômes f et g (de degrés deux) ont les mêmes
invariants, il existe alors une isométrie affine h sur E tel que f = g h.
Il est possible aussi de chercher une classification des quadriques projectives, qui sont des quadriques dans
un espace projectif. Cet objectif sera abordé dans le dernier chapitre du cours.
3.2. CONIQUES, QUADRIQUES 37

Définition 3.2.2 Soient f (m) = 0 et g(m) = 0 deux quadriques dans un espace affine E. Elles sont dites
équivalentes lorsqu’il existe h 2 GA(E) et 2 K⇤ tels que f = g h. Nous écrirons alors f ⇡ g. (Si
l’espace affine E est euclidien, nous chercherons les quadriques g(m) = 0 équivalentes à f avec, en plus
h isométrique.)
Remarque 3.2.1 Une relation de type f = g h avec h 2 GA(E) signifie que f et g coincident au
changement de variable affine près m 7! h(m). La relation f = g h implique h(f 1 ({0})) = g 1 ({0}),
c’est -à dire que la quadrique affine g 1 ({0}) est l’image par la transformation affine h de la quadrique
affine f 1 ({0})
Ne pas confondre quadrique et son image. Par exemple, f (m) ⌘ x2 + y 2 + 1 = 0 et g(m) ⌘ x2 + 1 = 0
ont même image pour K = R, l’ensemble vide, mais ont des images disctinctes pour K = C. Ces deux
quadriques sont en fait distinctes au sens où l’on ne peut trouver une bijection affine h telle que f = g h.
Posons le vecteur B = (b1 , . . . , bn ) 2 Kn . La quadrique f (m) = 0 s’écrit donc matriciellement
(Q) : f (m) ⌘ tXAX + BX + c = 0.

Définition 3.2.3 La forme quadratique qf (X) := tXAX est dite associée à la quadrique f (m) = 0.
On dit que la quadrique f (m) = 0 est non dégénérée si, et seulement si, qf est non dégénérée.

3.2.2 E↵et d’un changement de variable affine


Pn
Soit R = (a, e01 , . . . , e0n ) un autre repère affine de E, avec a = i=1 ↵i ei 2 E, et P = ( i,j )1i,jn = BB0 ,
la matrice de passage de la base B = (e1 , . . . , en ) à la base B = (e01 , . . . , e0n ) :
0

n
X n
X n
X
m= xi ei = a + x0i e0i , e0j = i,j ei .
i=1 i=1 i=1

Matriciellement, posons X 0 = t(x01 , . . . , x0n ) = P 1


(X [a]B ) les coordonnées–colonne de m dans ce
repère. On a
f (m) = tXAX + BX + c = ( t[a]B + tX 0 tP )A(P X 0 + [a]B ) + B(P X 0 + [a]B ) + c = tX 0 A0 X 0 + B 0 X 0 + c0 ,
avec
A0 := tP AP, B 0 := BP + 2 t[a]B AP, c0 = c + t[a]B A[a]B + B[a]B .

Théorème 3.2.1 Soient f (m) = 0 et g(m0 ) = 0 deux quadriques équivalentes. Alors les formes quadra-
tiques qf , qg , associées respectivement à f et g sont équivalentes : qf ⇠ qg . En particulier, soient A et
A0 , les matrices respectives de qf et qg dans la base canonique de Kn . Alors les rangs de A et A0 sont
égaux. De plus, si K = R, alors les signatures de A et A0 sont égales.
Dans ce résultat, nous avons ignoré les termes de degré au plus un de f ou g. Pour améliorer ceci,
rajoutons une dimension en considérant une variable supplémentaire t 2 K, puis posons tX̃ = ( tX, t) et
1
q̃f (X̃) := tXAX + BX t + ct2 ⌘ t2 f ( m).
t
La relation q̃f (X̃) = 0 est une quadrique dans Kn+1 , qui s’écrit sous forme matricielle tX̃ ÃX̃ = 0, où
l’on a posé !
A tB
à = .
B c
Si f = g h, alors q̃f ⇠ q̃g , donc Ã0 := tP̃ ÃP̃ , où l’on a posé
!
t n
P 0K
P̃ = .
0Kn 1

Du théorème 3.2.1, en remplaçant A par Ã, A0 par Ã0 , qf par q̃f , nous obtenons le
38 CHAPITRE 3. CONIQUES ET QUADRIQUES

Corollaire 3.2.1 Si les quadriques f (m) = 0 et g(m) = 0 sont équivalentes , alors les matrices à et Ã0
ci–dessus sont de même rang et, si K = R, de même signature.

3.2.3 Réduction de la quadrique


La classification des quadriques se fait après réduction des équations.

Théorème 3.2.2 On distingue trois formes de quadriques. Plus précisément, on a les équivalences sui-
vantes :
8
>
XR < 0
>
0 02
f (m) ⇡ g(m ) ⌘ di x i + 1 (3.3)
>
>
i=1 : x0 ,
n

où X 7! X 0 = t(x01 , . . . , x0n ) est un changement de variable affine, R est le rang de la forme quadratique
associée à f , les scalaires di sont non nuls.

Preuve En e↵et, la forme quadratique qf (m) s’écrit, pour une certain changement de variable linéaire,
x 7! y = (y1 , . . . , yn ), et avec R = rg(qf ),

n
X R
X
qf (m) = ai,j xi xj = di yi2 .
i=1 i=1

Donc f s’écrit
R
X n
X
f (m) = di yi2 + b0i yi + c
i=1 i=1

pour un certain vecteur (b01 , . . . , b0n ) 2 Kn . Or, pour 1  i  R on a


2
b0i 2 b0 i
di yi2 + b0i yi = di (yi + ) ,
2di 4di
b0i PR b0 2i
donc, on pose x0i = yi + 2di si 1  i  R, puis c0 = c i=1 4di . Ceci donne

R
X n
X
2
f (m) = di x0i + b0i yi + c0 .
i=1 i=R+1

Supposons R = n ou b0i = 0 pour R + 1  i  n. Si, en plus, c0 = 0, on obtient alors la 1ere forme


dans (3.3). Si c0 6= 0, on divise f par c0 et on obtient alors la 2eme formePdans (3.3). Sinon, R < n et il
n
existe un b0i non nul. On pose alors x0i = yi pour R + 1  i < n et x0n = i=R+1 b0i yi + c0 . On obtient la
0
3eme forme dans (3.3). De plus, dans les trois cas, le changement y 7! x est une transformation affine
bijective, donc, il en est de même pour x 7! x0 . ⇤

3.2.4 Symétries
La réduction du théorème 3.2.2 montre que la quadrique possède des symétries axiales selon les
hyperplans x0i = 0, 1  i  R. En e↵et l’équation g(m0 ) = 0 est inchangée par la transformation
x0 7! (x01 , . . . , x0i 1 , x0i , x0i+1 , . . . , x0n ).
Il peut y avoir aussi symétrie centrale si R = n, dans les 1ere et 2eme formes, puisque l’équation g(m0 ) = 0
est inchangée par la transformation m0 7! m0 .
Réciproquement, l’étude des axes de symétrie pour une quadrique f (m) = 0 nous renseigne sur la
nature de cette quadrique et permet la réduction du théorème 3.2.2 : qui prend le nom de recherche des
axes de symétrie.
3.2. CONIQUES, QUADRIQUES 39

3.2.5 Réduction, cas complexe


En posant µi 2 C tel que µ2i = di , puis zi = µi x0i , nous avons un changement de variable affine X 7! Z
tel que
8
>
> 0
XR <
2
f (m) ⇡ zi + 1 (3.4)
>
>
i=1 : z .
n

Comme R prend n valeurs, il y a donc 3n classes (au sens affine) de quadriques complexes.

3.2.6 Réduction, cas réel


Le signe des di devient important dans la réduction précédente. Nous pouvons supposer, sans rien
restreindre, di > 0 pour 1  i  r et di < 0 pour r + 1  i  r + s = R. En posant
p
yi = |di |x0 i , 1  i  R et yi = x0 i , i > R, (3.5)

nous obtenons, à signature fixée, les quatre formes possibles suivantes


8
>
> 0
>
>
r
X r+s
X < 1
f (m) ⇡ yi2 yi2 + . (3.6)
>
> 1
i=1 i=r+1 >
>
:
yn

(Cf. réduction de Sylvester).

Remarque 3.2.2 On peut remplacer yn par yn dans la 4eme forme. Or, comme les deux quadriques
f (m) = 0 et f (m) = 0 sont identiques, on obtient les mêmes classes en changeant (r, s) en (s, r). Donc,
on peut supposer r s, et, pour le cas r = s, voir que la valeur 1 ou 1 à droite correspond à la même
classe.

Remarque 3.2.3 Si r = 0 dans le 3eme cas, ou si s = 0 et dans le 2eme cas, alors la quadrique affine
f 1 ({0}) est vide. Si, dans le 1er cas, r = 0, ou s = 0, alors la quadrique affine ne contient qu’un seul
point, le point 0.
Contrairement au cas complexe, une quadrique peut donc être vide, ou n’être qu’un ensemble de ”dimen-
sion” plus petite que n 1. Il peut donc être plus intéressant de considérer les solutions complexes de
f (m) = 0, puis dans faire l’intersection avec Rn .

3.2.7 Réduction, cas euclidien


Supposons E muni d’un produit scalaire . Nous pouvons chercher quelles sont les réductions possibles
d’une quadrique f (m) = 0 sous la forme g h(m) = 0 avec h, une isométrie sur l’espace (E, ). Sous
cette contrainte, le changement de variable x0 ! y de (3.5) n’est permis que si |di | = 1, ce qui implique
le changement trivial y = x0 . En ce qui concerne le changement affine x 7! x0 , ce n’est une isométrie
que si l’on a fait attention à diagonaliser A en base orthonormée (pour ). A partir de là, nous devons
distinguer cercles et ellipses, puisque le changement par isométrie implique que la forme et la taille des
quadriques f (m) = 0 et g(m0 ) = 0 sont identiques. (Il y a donc une infinité de formes réduites même si
nous fixons la signature de la conique.) De plus, les axes de symétrie Ox0i , 1  i  R, (dans le nouveau
repère) sont alors orthogonaux entre eux.
Par exemple, des trois ellipses, équivalentes au sens affine, x2 + 2y 2 = 1, 2x2 + y 2 = 1 et 3x2 + 2y 2 = 1,
seules les deux premières sont équivalentes au sens euclidien, puisqu’on passe de l’une à l’autre par la
symétrie (x, y) 7! (y, x).
40 CHAPITRE 3. CONIQUES ET QUADRIQUES

3.2.8 Coniques réelles


Nous nous plaçons dans le plan R2 affine. Les quadriques sont alors appelées coniques. Les variables
utilisées sont x, y plutôt que x1 , x2 .

Réduction
Nous considérons la forme générale suivante de conique :

f (x, y) ⌘ ax2 + 2bxy + dy 2 + ↵x + y + c = 0 (3.7)

scalaires tels que (a, b, d) 6= (0, 0, 0).


où a, b, d, ↵, , c sont des !
a b
Posons A = . La réduction de (3.6) détermine le nombre de cas (vraiment) distincts, mais
b d
il faut tenir compte de la remarque 3.2.2 : il faut distinguer seulement les signatures (2, 0), (1, 1), (1, 0),
et, pour (2, 0) : 3 classes, pour (1, 1) : 2 classes, pour (1, 0) : 4 classes. Il y a donc 9 classes d’équivalence
pour les coniques dans le plan affine R2 .
Remarque 3.2.4 Il y a une infinité de classes d’équivalence pour les coniques dans le plan euclidien R2 ,
puisque, par exemple, les ellipses x2 + y 2 1 = 0, paramétrées par > 0, appartiennent toutes à des
classes distinctes.
Ecrivons l’équation réduite (au sens R2 affine, pas euclidien, puisque dans le cas euclidien, il y a une
infinité d’équations réduites) dans le nouveau repère, que nous posons pour simplifier égal à (O, x, y).
— La signature de A est (2, 0), i.e, A est une matrice définie positive. Il y a trois sous-cas :
1. x2 + y 2 = 0. L’image de la conique est un point.
2. x2 + y 2 + 1 = 0. L’image de la conique est vide.
3. x2 + y 2 1 = 0. L’image de la conique est une ellipse.
Noter que, dans le cas euclidien, il faut distinguer le cas général d’une ellipse de celui, particulier,
d’un cercle.
— La signature de A est (1, 1). Il y a deux sous-cas :
1. x2 y 2 = 0. L’image de la conique est l’union de deux droites concourantes au centre de la
conique.
2. x2 y 2 + 1 = 0. L’image de la conique est une hyperbole.
— La signature de A est (1, 0). Il y a quatre sous-cas
1. x2 = 0 : l’image de la conique est une droite double.
2. x2 + 1 = 0 : l’image de la conique est vide.
3. x2 1 = 0 : l’image de la conique est l’union de deux droites parallèles.
2
4. x + y = 0 : l’image de la conique est une parabole d’axe x = 0 de sommet (0, 0).

Symétries (orthogonales)
Dans le cas où la forme quadratique qf est non dégénérée, l’image de la conique présente un centre
de symétrie, noté m0 = (x0 , y0 ). Ce centre satisfait la relation

f (m0 + u) = f (m0 u), 8u 2 R2 .

Cette relation est équivalente à f (x x0 , y y0 ) = f (x0 x, y0 y), 8(x, y) 2 R2 . En considérant les


dérivées partielles de f et son champ gradient, rf , nous avons rf (m0 + u) = rf (m0 u). Pour u = 0,
nous obtenons
rf (m0 ) = 0. (3.8)
Cette relation caractérise le centre. Nous pouvons le voir sur l’équation réduite, de la forme g(m0 ) ⌘
2 2
x0 ± y 0 = c, centrée en (0, 0) uniquement.
3.2. CONIQUES, QUADRIQUES 41

Figure 3.1 –
3

Droite double
x2-y2=0
2

Ellipse
x2+y2=1
1
Hyperbole
x2-y2=1

-5 -4 -3 -2 -1 0 1 2 3 4 5

-1

Parabole
-2 x2+y=0

-3

Dans le cas où la forme quadratique qf est de rang un, l’image de la conique est présente un axe de
symétrie, noté . Cet axe, dirigé par v 2 R2 \ {0}, est orthogonal à une direction u 2 R2 \ {0}, satisfait
la relation
f (m + tu) = f (m tu), 8m 2 , t 2 R.
En considérant la dérivée directionnelle de f dans la direction u ? , nous avons rf (m+tu) = rf (m
tu). Pour t = 0, nous obtenons
@u f (m) = 0, 8m 2 ? u. (3.9)
Cette relation caractérise l’axe de symétrie lorsque la conique est une parabole. Nous pouvons le voir sur
2
l’équation réduite, de la forme g(m0 ) ⌘ x0 + y 0 = c. En e↵et, rg(m0 ) = (2x0 , 1), donc u0 · rg(m0 ) =
0 0 0
0 () u = t(1, 0) et x = 0 : L’axe est = Oy 0 = {x0 = 0}, orthogonal à u0 = (1, 0).

Propriétés complémentaires des coniques du plan euclidien


Nous avons le propriétés suivantes.
— (L’image de) la conique est un ensemble borné dans les seuls cas suivants : ;, un point, une ellipse.
— (L’image d’) une conique f (m) = 0 non bornée admet des asymptotes ou des directions asympto-
tiques obtenue en considérant seulement la conique qf (m) = 0. Ainsi,

— L’hyperbole x2 y2 1 = 0 admet pour asymptotes les droites données par la conique x2 y 2 = 0.

— La parabole x2 + y = 0 admet pour direction asymptotique la droite double donnée par la conique
x2 = 0, que l’on appelle l’axe focal.
— L’ensemble K := {m 2 R2 ; f (m) ⌘ ax2 + 2bxy + dy 2 + ↵x + y + c < 0} est un convexe dans les
cas suivants :
1. La conique f (m) = 0 est une ellipse (éventuellement réduite à ; ou à un seul point), avec A
matrice définie positive, de signature (2, 0). De plus, K est borné.
2. La conique f (m) = 0 est une parabole ou une droite double avec A matrice positive, et 0 est
valeur propre simple de A, i.e, A est de signature (1, 0).

3.2.9 Quadriques réelles de l’espace euclidien R3


Nous nous plaçons dans l’espace euclidien R3 . Les variables utilisées sont x, y, z plutôt que x1 , x2 , x3 .
42 CHAPITRE 3. CONIQUES ET QUADRIQUES

Réduction
Nous considérons la forme générale suivante de quadrique :

f (x, y, z) ⌘ a11 x2 + a22 y 2 + a33 y 2 + 2a12 xy + 2a13 xz + 2a23 yz + b1 x + b2 y + b3 z + c = 0 (3.10)

où aij , bi , c sont des scalaires tels que la matrice A := (ai,j )1i,j3 soit non nulle.
La réduction de (3.6) détermine le nombre de cas (vraiment) distincts. Nous n’écrivons que l’équation
réduite dans le nouveau repère, que nous posons pour simplifier égal à (O, x, y, z).
De plus, comme pour le cas des coniques réelles, j’ai choisi d’ignorer le cadre euclidien pour obtenir
un nombre fini de réductions possibles.
— La signature de A est (3, 0), i.e, A est une matrice définie positive. Il y a trois sous-cas :
1. x2 + y 2 + z 2 = 0. L’image de la quadrique est un point.
2. x2 + y 2 + z 2 + 1 = 0. L’image de la quadrique est vide.
3. x2 + y 2 + z 2 1 = 0. L’image de la forme réduite est une sphère. L’image de la quadrique est
un ellipsoide.
— La signature de A est (2, 1). Il y a trois sous-cas :
1. x2 + y 2 z 2 = 0. p L’image de la forme réduite est l’union de des deux surfaces d’équations
cartésiennes z = ± x2 + y 2 . Chaque surface est un cône de révolution autour de l’axe Oz, et
les deux surfaces se déduisent l’une de l’autre par la symétrie z 7! z. L’intersection des deux
surfaces est constitué du point singulier (pour la quadrique) O. L’image de la quadrique est un
cône de section elliptique.
2. x2 + y 2 z 2 + 1 = 0. L’image de la forme réduite est un hyperboloide (à deux nappes) de
révolution. L’image de la quadrique est un hyperboloide (à deux nappes).
3. x2 + y 2 z 2 1 = 0. La forme réduite est un hyperboloide (à une nappe) de révolution. L’image
de la quadrique est un hyperboloide (à une nappe).
— La signature de A est (2, 0). Il y a quatre sous-cas :
1. x2 + y 2 = 0. L’image de la forme réduite est la droite d’axe Oz. L’image de la quadrique est
une droite.
2. x2 + y 2 + 1 = 0. L’image de la quadrique est vide.
3. x2 + y 2 1 = 0. L’image de la forme réduite est un cylindre de révolution d’axe Oz. L’image
de la quadrique est un cylindre de section elliptique (cylindre elliptique).
4. x2 + y 2 + z = 0. L’image de la quadrique est un paraboloide elliptique.
— La signature de A est (1, 1). Il y a trois sous-cas :
1. x2 y 2 = 0. L’image de la forme réduite est l’union des deux plans non parallèles x = y et
x = y. L’image de la quadrique est l’union de deux plans non parallèles.
2. x2 y 2 + 1 = 0. L’image de la quadrique est un cylindre d’axe Oz de section hyperbolique
(cylindre hyperbolique).
3. x2 y 2 + z = 0. L’image de la quadrique est un paraboloide hyperbolique.
— La signature de A est (1, 0). Il y a quatre sous-cas :
1. x2 = 0 : l’image de la quadrique est un plan double.
2. x2 + 1 = 0 : l’image de la quadrique est vide.
3. x2 1 = 0 : l’image de la quadrique est l’union de deux plans parallèles.
2
4. x + y = 0 : l’image de la quadrique est un cylindre de section parabolique (cylindre parabo-
lique).

Remarque 3.2.5 Cas de la signature de A est (0, 3) : similaire au cas de la signature (3, 0).
Cas de la signature de A est (1, 2) : similaire au cas de la signature (2, 1).
3.2. CONIQUES, QUADRIQUES 43

Symétries (orthogonales)
Comme dans le cas 2D, une (image de) quadrique présente des éléments de symétrie. Dans le cas
où la forme quadratique qf est non dégénérée, l’image de la conique présente un centre de symétrie,
m0 = (x0 , y0 ), qui satisfait la relation caractéristique (3.8).
Dans le cas où la forme quadratique qf est de rang deux, l’image de la conique présente deux plans
de symétrie se coupant selon un axe , orthogonal à la droite affine {rf (m)| m 2 R3 } des valeurs du
gradient de f . Un vecteur normal u à un plan de symétrie P satisfait :

@u f (m) = 0, 8m 2 P ? u. (3.11)

Exemple 3.2.1 Soit la quadrique f (x, y, z) ⌘ x2 + y 2 + az + b = 0, avec a, b, deux paramètres réels.


Alors les valeurs du gradient rf (x, y, z) = (2x, 2y, a) = (0, 0, a) + 2x"1 + 2y"2 décrivent un plan affine
orthogonal à l’axe Oz. Les deux plans de symétrie ont pour équations respectives x = 0, y = 0. Le vecteur
"2 , normal au plan de symétrie d’équation y = 0, satisfait "2 · rf (x, y, z) = 2y, valeur qui s’annule sur
P2 . Le cas a = 0 est particulier, puisqu’alors le plan z = 0 est aussi de symétrie, qu’il ne faut pas oublier.
Pour cela, le plus sûr est de poser u = (↵, , ) puis résoudre que u est orthogonal au plan défini par la
relation u · rf (x, y, z) = 0.
Chapitre 4

Géométrie projective

Dans tout ce chapitre, E désigne un K-espace vectoriel, K = R ou C. S’il est de dimension finie non
nulle, on pose dim E = n + 1.

4.1 Définitions - Propriétés


Nous commençons par donner la définition d’un espace projectif à partir d’un point de vue vectoriel,
car elle est rigoureuse. Mais ce point de vue n’est pas le seul et n’est pas à l’origine de la notion d’espace
projectif. En fait, cette notion est d’origine géométrique. C’est pourquoi nous montrons ensuite comment
interpréter un espace (ou un sous-espace) projectif en termes d’espace (ou de sous-espace) affine, puis
comment passer de l’affine au projectif.

4.1.1 Le point de vue vectoriel


Définition 4.1.1 L’ensemble des droites vectorielles de E est appelé espace projectif déduit de E. Il est
noté P (E). Nous pouvons le caractériser comme suit. Soit la relation R définie sur E \ {0} ⇥ E \ {0} par

xRy () x et y sont colinéaires.

Alors R est une relation d’équivalence et P (E) = E \ {0}/R. Nous notons par ⇡E , ou plus simplement
par ⇡ s’il n’y a pas ambiguité, la projection canonique de E \ {0} sur P (E) :

⇡ : E \ {0} 3 x 7! Vect{x} = {tx; t 2 K} 2 P (E).


1
Soit m 2 P (E). Tout vecteur x 2 ⇡ (m), i.e., tel que ⇡(x) = m, est appelé représentant de m.

Exemple 4.1.1 1. Si dim(E) = 0 alors E est réduit au vecteur nul et ne contient aucune droite,
donc P (E) = ;.
2. Si dim(E) = 1 alors E est réduit à une droite, donc P (E) est un singleton.
3. Si dim(E) = 2 alors P (E) est appelé droite projective. Soit (e1 , e2 ) une base de E. Fixons (ar-
bitrairement) la direction d = Vect(e1 ). Une droite de E non colinéaire à e1 est dirigée par un
vecteur de la forme te1 + e2 , et est caractérisée par la donnée du scalaire t 2 K. Donc, les points
de P (E), hormis d, sont en bijection ”affine” 1 avec K. De plus, la droite d est, au moins for-
mellement, la ”limite”, quand t ! ±1, des droites d(t) := Vect(te1 + e2 ). Donc, dans P (E),
d = limt!1 d(t), i.e, le point d 2 P (E) correspond, formellement au moins, au choix t = 1.
On note alors P (E) ' K [ {1}, pour signifier que P (E) est identifié, en un sens topologique, à
K [ {1}.
4. Si dim(E) = 3 alors P (E) est appelé plan projectif.
1. ceci sera précisé plus loin

45
46 CHAPITRE 4. GÉOMÉTRIE PROJECTIVE

5. Cas E = Rn+1 euclidien, donc, muni du produit scalaire usuel. [Rappel. L’ensemble des directions
de Rn+1 , i.e, l’ensemble des vecteurs unitaires de Rn+1 , est appelé la sphère unité, et noté Sn (R).
Deux éléments !, ! 0 2 Sn (R) désignent la même direction si, et seulement si, il sont égaux ou
opposés. On pose donc la relation d’équivalence sur Sn (R) :

!R2 ! 0 () (! = ! 0 ou != ! 0 ),

et on note par (±) la relation R2 et par ±! la classe d’équivalence de ! 2 Sn (R) pour cette
relation. Alors tout vecteur non nul u 2 E est déterminé par la donnée de sa norme kuk et de
sa direction u/kuk 2 Sn (R). De plus, la droite Vect(u) est déterminée, de façon unique, par la
classe de u/kuk pour la relation ± dans Sn (R). ] En conséquence, P (Rn+1 ) = P n (R) est identifié
à Sn (R)/(±).

Définition 4.1.2 Lorsque E est de dimension finie, n + 1, on dit que P (E) est de dimension finie, n.
Si E = Kn+1 , on note P (Kn+1 ) = P n (K) = KP n .

4.1.2 Sous-espace projectif


Soit F un s.e.v de E. On peut donc considérer l’espace projectif P (F ), qui est l’ensemble des droites
vectorielles contenue dans F . Or, une droite vectorielle contenue dans F est aussi contenue dans E. Donc
P (F ) ⇢ P (E). De plus, si x 2 F \ {0} alors ⇡E (x) = ⇡F (x) 2 F . Ceci montre que ⇡F est la restriction à
F de ⇡E .
Définition 4.1.3 Un sous-ensemble V ⇢ P (E) est appelé sous-espace projectif (”s.e.p” en abrégé) de
P (E) lorsqu’il existe un s.e.v, F ⇢ E, tel que V = P (F ). Si, de plus, dim F < 1, alors V est de
dimension dim V = dim F 1.
Note : on appelle aussi V ”variété linéaire projective”.
Il y a donc une bijection naturelle entre l’ensemble des sous-espace vectoriels de E et l’ensemble des
sous-espaces projectifs de P (E).
Exemple 4.1.2 — Si F est un hyperplan vectoriel de dimension n, alors P (F ) est un hyperplan
projectif de dimension n 1.
— Si F est un plan vectoriel de dimension 2  n+1, alors P (F ) est une droite projective de dimension
1.

4.1.3 Sous-espace projectif engendré


Théorème 4.1.1 Soit (Vi )i2I une famille non vide de sous-espaces projectifs de P (E). Alors \i2I Vi est
un sous-espace projectif. Plus précisément, on a
s.e.v
\i2I Vi = P (\i2I Fi ), où Vi = P (Fi ), Fi ⇢ E.

Preuve Pour tout i 2 I, le sous-espace projectif Vi est de la forme Vi = P (Fi ), où Fi est un s.e.v
de E. Posons F = \i2I Fi , qui est un s.e.v de E, puis V := P (F ). Montrons que V = \i2I Vi . On a
V = ⇡(F \ {0}) ⇢ ⇡(Fi \ {0}) = Vi , pour tout i, et, par conséquent, V ⇢ \i2I Vi . Réciproque. Soit
x 2 \i2I Vi , i.e, x 2 Vi , pour tout i. Donc, x = ⇡(yi ) pour yi 2 Fi \ {0}, pour tout i. Les vecteurs yi
déterminent la même droite x 2 E, donc ils sont tous colinéaires. Donc yi 2 Fj , pour tous i, j 2 I. Ainsi,
yi 2 F pour tout i. Donc x 2 V . ⇤
Note. En particulier, si F, G sont deux s.e.v. de E, et V = P (F ), W = P (G), alors P (F \ G) = V \ W .
Définition 4.1.4 Soit A ⇢ P (E). Soit F(A) la famille des s.e.p. de P (E) et contenant A. Cette famille
est non vide, puisqu’elle contient l’élément P (E). Posons

Proj(A) := \V 2F (A) V.

D’après le théorème 4.1.1, Proj(A) est un s.e.p. de P (E). Par construction, c’est le plus petit s.e.p de
P (E) contenant A.
4.1. DÉFINITIONS - PROPRIÉTÉS 47

Si A est fini, A = {a1 , . . . , ak }, on notera aussi Proj(a1 , . . . , ak ) pour Proj(A). Pour déterminer les espaces
projectifs engendrés, nous avons les deux résultats utiles suivants.
Théorème 4.1.2 Soit A = {ai , i 2 I} ⇢ P (E), A non vide. Alors Proj(A) = P (Vect([i2I ai )).
Preuve Remarquons d’abord que F := Vect([i2I ai ) est le s.e.v de E des sommes finies (directes ou
non) des droites vectorielles ai .
a) Soit a 2 A. Alors a = ⇡(x) pour un x 2 F , donc a 2 P (F ). Donc P (F ) est un s.e.p de E contenant A.
Donc Proj(A) ⇢ P (F ).
b) On a Proj(A) = P (G) pour un s.e.v. G ⇢ E qui contient les droites vectorielles, éléments de A. Donc
ai ⇢ G pour tout i. Par conséquent, G contient F . Donc P (F ) ⇢ Proj(A). ⇤

Exemple 4.1.3 — Rappelons que ; est un s.e.p de P (E), donc Proj(;) = ;. De même, si A est un
singleton, alors c’est encore un s.e.p de P (E), donc Proj(A) = A.
— Si A est constitué de deux éléments, A = {a, b}, alors Proj(A) = P (a+b) : c’est la droite projective
passant par a et b.
Attention, soit u, v, représentant respectivement a, b (i.e, a = ⇡(u) et b = ⇡(v)), alors ne pas
confondre a + b qui est le plan vectoriel en somme directe des deux s.e.v (droites vectorielles) a, b
de E, avec u + v, qui est un vecteur non nul (puisque a 6= b) représentant le point ⇡(u + v).

Théorème 4.1.3 Soit {Fi }i2I une famille non vide de s.e.v de E. Posons Vi = P (Fi ). Alors
X
Proj([i2I Vi ) = P ( Fi ).
i2I
P
Preuve Posons A = [i2I Vi , F = i2I Fi , F 0 = Vect([a2A a). On a Proj(A) = P (F 0 ). Il s’agit donc de
prouver que F 0 = F .
(i) Soit a 2 A. Donc il existe i 2 I tel que a 2 Vi = P (Fi ). Donc a = ⇡(x) pour un x 2 Fi ⇢ F . Donc
a ⇢ F . Par conséquent, F est un s.e.v qui contient A. Donc, par définition de l’espace vectoriel engendré,
F0 ⇢ F.
(ii) Soit i 2 I. Pour x 2 Fi \ {0} on a ⇡(x) 2 Vi ⇢ A ⇢ Proj(A) = P (F 0 ), donc x dirige une droite élément
de F 0 . Donc x 2 F 0 . Donc, pour tout i, Fi ⇢ F 0 , puis F ⇢ F 0 . ⇤

Théorème 4.1.4 Soient V, W , deux s.e.p. de P (E). Alors

dim(Proj(V [ W )) + dim(V \ W ) = dim(V ) + dim(W ).

Preuve On écrit V = P (F ), W = P (G), où F et G sont deux s.e.v de E. Comme Proj(V [W ) = P (F +G)
(Cf. théorème 4.1.3) et V \ W = P (F \ G) (Cf. théorème 4.1.1), on a donc

dim(Proj(V [ W )) + dim(V \ W ) = dim(P (F + G)) + dim(P (F \ G))


= dim(F + G) 1 + dim(F \ G) 1 = dim(F ) 1 + dim(G) 1
= dim(V ) + dim(W ).

Corollaire 4.1.1 — Si dim(V ) + dim(W ) dim(P (E)), alors V \ W 6= ;.


— Soit n = dim P (E). Alors n hyperplans de P (E) ont toujours un point commun.
— Deux droites projectives distinctes dans un plan projectif ont toujours un unique point commun.
— Soit H un hyperplan projectif de P (E) et p 2 P (E) \ H. Alors, toute droite (projective) de P (E)
passant par p intersecte H en un unique point.

4.1.4 Le point de vue affine


Cadre usuel
Considérons le plan projectif P 2 (R), ensemble des droites de l’espace vectoriel R3 . Cet espace R3 est
identifié naturellement à l’espace affine R3 (Cf. section 2.1.1), le vecteur nul (0, 0, 0) étant noté comme
48 CHAPITRE 4. GÉOMÉTRIE PROJECTIVE

point O. Plaçons un plan affine P de R3 ne passant pas par le point O, et considérons-le comme l’écran
d’observation d’un observateur placé en O. Soit P la direction de P. Une droite vectorielle non contenue
dans P coupe P en un seul point, mais une droite vectorielle contenue dans P ne coupe jamais P. Donc
l’observateur voit une droite vectorielle soit comme un point dans P, appelé point propre, soit ne la voit
pas : il s’agit d’un point ”à l’infini”, appelé aussi point impropre. Dans la figure 4.1, les points M et N
sont propres et constituent les droites projective (M N ), et affine (M N ), apparemment indiscernables.
Mais la droite projective (M N ) contient un point supplémentaire, impropre.

Cadre général

Plus généralement, un espace projectif P̂ de dimension n peut être vu comme l’union d’un espace
affine H de dimension n avec les droites d’un espace vectoriel H dirigeant H. En e↵et, posons P̂ = P (E),
où l’espace vectoriel E de dimension n + 1 est identifié à un espace affine E (Cf. section 2.1.1) contenant
un point O et dirigé par E. Soit H un hyperplan affine ne contenant pas O, de direction H ⇢ E. Un
point de P (E) \ P (H) est une droite vectorielle m = ⇡(x) ⇢ E \ H qui intersecte H en un unique point
p. L’application H : P (E) \ P (H) 3 m 7! p 2 H est bijective, et préserve l’alignement. En e↵et, si
trois points m1 , m2 , m3 2 P (E) \ P (H) sont contenus dans une droite projective d, alors les trois images
H (mi ) sont trois points alignés dans H. Cette application H est appelée une carte affine : nous y
reviendrons. Donc nous pouvons identifier une partie des éléments de P̂ à l’hyperplan affine H. L’autre
partie, les droites vectorielles incluses dans H, sont des éléments de P (H).
Si dim H = n 6= 0, on recommence par itération décroissante, en remplaçant E, de dimension n + 1, par
H, de dimension n. Nous avons donc l’identification de P̂ avec H0 [ H1 [ . . . [ Hn 1 , où les Hi sont des
espaces affines de dimensions respectives dim Hi = n i, i = 0, . . . , n 1. Comme dim Hn 1 = 1, l’espace
projectif P (Hn 1 ) est réduit à un point.

Note. Pour comprendre le fonctionnement de la géométrie projective via la géométrie affine, il est très
conseillé d’étudier les exercices correspondants de la planche TD4.

Figure 4.1 – Point de vue affine


v xM=∏(u)

xN=∏(v)

droite projective
ou a"ne (MN)


O

De l’affine vers le projectif

Soit H un K-espace affine de dimension n, et soit H son espace vectoriel associé. Nous admettons le
résultat suivant : il existe un K-espace vectoriel E de dimension n + 1, tel que H et H s’identifient chacun
à un hyperplan affine de E sous la forme H = f 1 ({1}), H = Ker f = f 1 ({0}), où f est une forme
4.2. COORDONNÉES, CARTE AFFINE, REPÈRE DANS UN ESPACE PROJECTIF 49

H
linéaire sur E. On obtient alors H ' P (E) \ P (H), et l’espace projectif P (E), noté aussi Ĥ, est appelé
complétion projective de H.

Exemple 4.1.4 Si P = K alors la droite projective associée est l’ensemble K̂ = K [ {1}, où 1 désigne
l’élément de K̂ extérieur à K, le point à l’infini ou impropre. Nous avons les relations algébriques suivantes
complétant celles dans K :
— Pour tout x 2 K, x/1 = 0 ;
— Pour tout x 2 K⇤ , x/0 = 1.
Nous préciserons cela plus loin, en section 4.2.2 (Cf. exemple 4.2.1).

Plus généralement, KP n est le complété projectif K̂n de Kn . Voir plus loin, la remarque 4.2.3.

4.2 Coordonnées, carte affine, repère dans un espace projectif


4.2.1 Famille projectivement libre et coordonnées homogènes
Définition 4.2.1 Soit {mi , i 2 I} une famille d’éléments de P (E). On dit que les éléments mi = ⇡(ei )
sont projectivement indépendants, ou que la famille {mi , i 2 I} est projectivement libre, si, et seulement
si, la famille de vecteurs {ei , i 2 I} est libre.

Propriété 4.2.1 Les k + 1 éléments m1 , . . . , mk+1 de P (E) sont projectivement indépendants si, et
seulement si, dim Proj({m1 , . . . , mk+1 }) = k.

Preuve On a vu que Proj({m1 , . . . , mk+1 }) = P (F ), avec F = Vect(e1 , . . . , ek+1 ), où mi = ⇡(ei ). La


famille {mi , i = 1, . . . , k + 1} est projectivement libre () la famille {ei , i = 1, . . . , k + 1} est libre
() F est somme directe des droites Vect(ei ) = mi pour i = 1, . . . , k + 1 () dim F = k + 1 ()
dim Proj({m1 , . . . , mk+1 }) = k. ⇤

Remarque 4.2.1 On voit donc bien que la définition de famille projectivement libre ne dépend pas des
choix des représentants respectifs ei des classes d’équivalences mi pour la relation R (Cf. définition 4.1.1).

Soit un espace projectif P (E), de dimension n. Supposons E muni d’une base, B = (e1 , . . . , en+1 ). Un
Pn+1 Pn+1
point m de P (E) est de la forme Vect(x), avec x = i=1 xi ei 2 E, et tous les vecteurs tx = i=1 txi ei ,
pour t 2 K \ {0}, représentent m.
Pn+1
Définition 4.2.2 Les coordonnées de m = ⇡(x) relatives à la base B où x = i=1 xi ei , sont dites
homogènes. On les note par x = (x1 : . . . : xn+1 ). On a donc

(x1 : . . . : xn+1 ) = (tx1 : . . . : txn+1 ), 8t 2 K⇤ . (4.1)

Remarque 4.2.2 Attention, les coordonnées toutes nulles, xi = 0 pour 1  i  n + 1, ne correspondent


à aucun point de P (E) et sont interdites.

Equation d’un hyperplan projectif en coordonnées homogènes


Soit P (H) un hyperplan projectif de P (E). Donc, H est un hyperplan vectoriel de E, et admet une
Pn+1
équation cartésienne de la forme i=1 ai xi = 0, avec les ai non tous nuls. Donc P (H) est l’ensemble des
Pn+1
points de coordonnées (x1 : . . . : xn+1 ) tels que i=1 ai xi = 0.

4.2.2 Carte affine


1
Pn+1 xi
Si xn+1 6= 0, on peut alors choisir comme représentant de m le vecteur xn+1 x = i=1 xn+1 ei . Nous
x1
avons donc le système de coordonnées 2 ( xn+1 : . . . : xxn+1
n
: 1) pour les points de P (E) en dehors de ceux
qui sont les droites de l’hyperplan H : xn+1 = 0 dans E. Dans ce système de coordonnées, les points tels
2. nous préciserons plus loin dans la définition 4.3.3 cette notion
50 CHAPITRE 4. GÉOMÉTRIE PROJECTIVE

x1
que xn+1 6= 0 sont repérés par ( xn+1 : . . . , xxn+1
n
: 1) et sont dits propres. Les points m tels que xn+1 = 0
sont dans le sous-espace projectif P (H) : ils sont impropres (pour ce choix de repérage).
Le choix de l’hyperplan H a permis de définir une carte (affine) dans laquelle tout point propre
m 2 P (E) possède des coordonnées uniques, de la forme (↵1 : . . . : ↵n : 1).
Pour simplifier, nous appelerons ”xn+1 = 1” une telle carte.
Choisir un autre hyperplan signifie changer de carte pour décrire avec d’autres coordonnées les points
propres (qui ne sont plus les mêmes qu’avant !). Donnons maintenant une définition générale de carte
affine.
Pn+1
Définition 4.2.3 Soit H un hyperplan vectoriel de E d’équation i=1 ai xi = 0 relativement à la base
B, avec les coefficients ai non tous nuls. La carte affine sur P (E) ayant P (H) comme ensemble de points
à l’infini est l’application
x1 xn+1
H : P (E) \ P (H) 3 m = ⇡(x) 7! ( Pn+1 , · · · , Pn+1 ) 2 H,
i=1 ai xi i=1 ai xi

avec x = (x1 : · · · : xn+1 ) représentant m dans B.


Par abus, nous dirons aussi que H1 est une carte pour P (E).
Noter que l’application H est bijective et transforme
Pn+1 toute droite projective en une droite affine. C’est
une carte que nous pouvons écrire brièvement ” i=1 ai xi = 1”.
Avec une seule carte, nous pouvons recouvrir une partie de P (E), mais pas tout, sauf si n = 0
(dim E = 1). Si n > 0, il faut d’autres cartes. Remarquons d’abord que nous pouvons trouver une
famille d’hyperplans Hi ⇢ E, i = 0, . . . , n, telle que \ni=0 Hi = {0}. En e↵et, puisque L(E, K) est de
dimension n + 1, il existe au moins une famille (fi )i=0,...,n de n + 1 formes linéaires indépendantes ;
donc si on pose Hi = Ker fi , nous avons \ni=0 Hi = {x 2 E; fi (x) = 0, i = 0, . . . , n} = {0}. Alors,
\ni=0 P (Hi ) = P (\ni=0 Hi ) = P ({0}) = ;, donc :
P (E) = [ni=0 (P (E) \ P (Hi )).
Nous avons vu que chaque P (E)\P (Hi ) peut être décrit par une carte affine, bijection entre P (E)\P (Hi )
et Hi ' Kn , un hyperplan affine de direction Hi . Donc, nous avons un recouvrement de P (E) par n + 1
cartes affines. Nous n’entrons pas plus dans ce cours sur le changement de cartes, qui permettrait d’établir
une structure de variété di↵érentielle sur P (E).
Remarque 4.2.3 Considérons sur KP n la carte affine la carte ”xn+1 = 1”. C’est une bijection entre
KP n \ {x | xn+1 = 0} et H = {x 2 Kn+1 : xn+1 = 1}. En identifiant les espaces affines H et Kn par
1
l’isomorphisme naturel (x1 , . . . , xn ) 7! (x1 , . . . , xn , 1), on voit que s’identifie à l’injection
: Kn 3 x = (x1 , . . . , xn ) 7! (x1 : . . . : xn : 1) 2 KP n .
Par abus, nous dirons que est une carte pour KP n .
L’application injective est un plongement de l’espace affine Kn dans l’espace projectif KP n , au sens de
variété di↵érentiable, cette notion restant en dehors de ce cours. Autrement dit, Kn est considéré comme
sous-ensemble de KP n , avec une structure (topologique) particulière. Cependant, cette structure n’est pas
affine. En e↵et, l’application ne satisfait pas une propriété du type (↵x + y) = ↵ (x) + (y), car
on ne peut pas additionner comme ça des éléments de KP n .
L’application fait de l’espace projectif KP n le complété projectif (ou : ”la complétion projective”) de
K .
n

Exemple 4.2.1 Revenons à l’exemple 4.1.4, où nous nous sommes occupés du cas particulier important
de la droite projective P 1 (K) = K̂. Soit E = K2 . Il faut deux cartes pour recouvrir P (E) = K̂ = {(x : y) ;
(x, y) 6= (0, 0)}. La première peut être, pour y 6= 0, l’injection 1 : K 3 x 7! (x : 1). Nous l’appelons donc
la carte y = 1.
La deuxième peut être, pour x 6= 0, l’injection 2 : K 3 y 7! (1 : y). Nous l’appelons donc la carte x = 1.
Si x 6= 0 et y 6= 0 alors le point ⇡(x, y) = (x : y) 2 P 1 (K) est dans les deux cartes, puisque
(x : y) = (x/y : 1) = 1 (x/y) et (x : y) = (1 : y/x) = 2 (y/x).
4.2. COORDONNÉES, CARTE AFFINE, REPÈRE DANS UN ESPACE PROJECTIF 51

1
Noter que le changement de carte dans {(x : y) ; x 6= 0 et y 6= 0} est l’application 2 1 : K⇤ 3 t 7!
t 2 K , qui est analytique.
1 ⇤

Définition 4.2.4 Il n’est pas toujours utile d’avoir deux cartes pour décrire K̂. En fait, seul le point
(1 : 0) n’est pas dans la première carte. Un point m de coordonnées (x : y) de K̂ est déterminé par le
quotient x/y, qui vaut 1 si y = 0. Donc, formellement, m a pour coordonnées (z : 1), avec z = 1 si m
est impropre : nous l’écrivons m : z = 1. Si m est propre, il est de la forme (z : 1) et nous l’écrivons
m : z 2 K.
La valeur z est appelée affixe du point m 2 K̂.
Théorème 4.2.1 Soit : P ! P (E) une carte affine, où P est un espace affine de dimension n,
dim P (E) = n, et H le s.e.v. de E des représentants des points impropres. Soit V un s.e.p de P (E).
1
Alors (V ) est soit vide soit un s.e.a de P de dimension dim(P (H) \ V ) + 1.
Preuve On peut se ramener au cas P = Kn , E = Kn+1 , : Kn 3 (x1 , . . . , xn ) 7! (x1 : . . . : xn : 1) 2
KP n , en fixant une base (e1 , . . . , en+1 ) de E, puis H = Vect(e1 , . . . , en ) d’équation xn+1 = 0. Donc on a
le sous–espace des points impropres, P (H) = {x = (x1 : . . . : xn : 0)}. Posons V = P (W ) avec W s.e.v de
E, de dimension k + 1. Posons, pour x = (x1 , . . . , xn ) 2 Kn , le point x̃ = (x1 , . . . , xn , 1) de l’hyperplan
affine H ⇢ E d’équation xn+1 = 1, ainsi que le plongement
: Kn 3 y = (y1 , . . . , yn ) 7! (y1 , . . . , yn , 0) 2 H.
Alors Kn est isomorphe à H, et W 0 = 1
(W ) = 1
(H \ W ) est isomorphe à H \ W .
1
Si V ⇢ P (H), alors (V ) = ;. Sinon, soit A = (a1 : . . . : an : 1) 2 V \ P (H), posons a = (a1 , . . . , an ) 2
1
(A), ã 2 W \ H. On a
(x) = (x1 : . . . : xn : 1) 2 V \ P (H) () x̃ 2 W () x̃ ã 2 W.
Noter que pour tout x 2 Kn , on a x̃ ã 2 H. Donc,
x2 1
(V ) () 1
(x̃ ã) 2 W 0 () x a 2 W 0 () x 2 a + W 0 .
Donc, 1
(V ) = a + W 0 = a + 1
(H \ W ) : c’est un s.e.a de Kn de dimension dim(H \ W ) =
dim P (H \ W ) + 1 = dim(P (H) \ V ) + 1

4.2.3 Repère d’un espace projectif


Nous supposons dim E = n+1. Nous avons défini les coordonnées homogènes d’un élément m = ⇡(x) 2
P (E) à partir de la donnée d’une base B = (e1 , . . . , en+1 ) de E. Si B est changée en tB ⌘ (te1 , . . . , ten+1 ),
pour t 2 K⇤ , alors les coordonnées homogènes de m sont inchangées. Cependant, on veut une description
plus intrinsèque des points de P (E), sans faire nécessairement référence à des éléments de E, mais plutôt
en utilisant une famille de points de P (E). Remarquer que c’est exactement ce que nous avons fait en
géométrie affine en section 2.2.3 avec les coordonnées barycentriques.
Définition 4.2.5 Appelons dorénavent droite pointée un ensemble d⇤ ⌘ d \ {0E } ⇢ E, où d désigne une
droite vectorielle de E.
Si l’on se donne n+1 points de P (E), soit m1 , . . . , mn+1 , tels que les n+1 droites vectorielles m1 , . . . , mn+1
⇢ E, engendrent E, i.e, m1 + . . . + mn+1 = E, cela ne suffit pas à déterminer les coordonnées homogènes
d’un point de P (E). En e↵et, posons ei 2 ⇡ 1 (mi )⇤ pour tout i. Donc la famille B = (e1 , . . . , en+1 ) est
une base de E, et nous avons avec un système de coordonnées homogènes. Mais, par exemple, la famille
B 0 = (2e1 , e2 , . . . , en+1 ) est une autre base de E fournissant un autre système de coordonnées homogènes.
L’élément m := ⇡(e1 + e2 ) admet pour coordonnées homogènes (1 : 1 : . . . : 0) dans B mais ( 12 : 1 : . . . : 0)
dans B 0 . Ces deux (n + 1)-upplets de coordonnées homogènes sont distincts car les vecteurs (1, 1, . . . , 0) et
( 12 , 1, . . . , 0) ne sont pas proportionnels. Donc la donnée des points m0 , . . . , mn ne permet pas de repérer
le point m de façon intrinsèque. Par conséquent, il faut rajouter la connaissance d’un point. Par exemple,
le point mn+2 = ⇡(e1 + . . . + en+1 ). Plus précisément, nous imposons avec ce choix que le point de
coordonnées homogènes (1 : . . . : 1) est mn+2 . Nous obtenons alors un repère projectif, (m1 , . . . , mn+2 ).
Plus généralement, nous avons la
52 CHAPITRE 4. GÉOMÉTRIE PROJECTIVE

Définition 4.2.6 Un repère projectif est une famille R := (m1 , . . . , mn+2 ) de n + 2 éléments de P (E)
telle que pour tout i 2 {1, . . . , n + 2}, la famille des points R \ {mi } est projectivement libre.

Théorème 4.2.2 Soit R := (m1 , . . . , mn+2 ) un repère projectif dans P (E). Alors tout point m 2 P (E)
peut être représenté de façon unique par des coordonnées homogènes (x1 : . . . : xn+1 ) dans R \ {mn+2 }
pour lesquelles (1 : . . . : 1) désigne le point mn+2 .

Remarque 4.2.4 Nous avons privilégié dans ce théorème le dernier point de ce repère, mn+2 . Il est
évidemment possible d’en privilégier un autre (chez certains auteurs, le premier).

Preuve On a mi = ⇡(ei ) pour ei 2 E \ {0E }, i = 1, . . . , n + 2. Que les coordonnées de mn+2 dans


Pn+1
(m1 , . . . , mn+1 ) soient (1 : . . . : 1) signifie que en+2 = t i=1 ei pour un t 2 K⇤ . La famille B :=
{e1 , . . . , en+1 } est donc déterminée à un facteur multiplicatif non nul commun près. Soit m 2 P (E). Donc
m = ⇡(x) pour un x 2 E \ {0E }. On écrit les coordonnées vectorielles de x dans B : (x1 , . . . , xn+1 ), i.e, on
Pn+1
a x = i=1 xi ei . Si on choisit à la place de B une autre famille pour représenter les droites vectorielles
m1 , . . . , mn+1 , elle est nécessairement de la forme B := { e1 , . . . , en+1 } d’après ce qui précède, toujours
pour assurer que mn+2 soit représenté par (1 : . . . : 1). Ce changement de base B ! B change les
coordonnées vectorielles de x en ( x1 , . . . , xn+1 ) : ceci ne change pas les coordonnées homogènes de
m, x = (x1 : . . . : xn+1 ), qui ne dépendent ni du choix de x comme représentant de la droite m, ni de
la représentation des droites vectorielles m1 , . . . , mn+1 . Les coordonnées homogènes de m ne dépendent
donc que de m et des points m1 , . . . , mn+2 . ⇤

Notations
Soit R := (m1 , . . . , mn+2 ) un repère projectif dans P (E). Un point m 2 P (E) de coordonnées
homogènes x = (x1 : . . . : xn+1 ) dans R s’écrit m = x1 m1 + · · · + xn+1 mn+1 , sachant qu’on a
mn+2 = m1 + · · · + mn+1 .

Remarque 4.2.5 L’ensemble H0 := {m : (x1 : . . . : xn+1 ); xn+1 = 0} est un hyperplan projectif de


P (E). Soit t 2 K⇤ . Les ensembles H ⇤ := {m : (x1 : . . . : xn+1 ); xn+1 6= 0} ⇢ P (E) et Ht := {m : (x1 :
. . . : xn+1 ); xn+1 = t} sont égaux et identifiables à l’espace vectoriel Kn via la carte xn+1 = 1.
Plus généralement, soit un n + 1-upplet non nul b := (b1 , . . . , bn+1 ) 2 Kn+1 \ {0}. Alors l’ensemble
Pn+1
i=1 bi xi 6= 0} ⇢ P (E) est identifiable à un hyperplan affine de K
n+1
Hb := {m : (x1 : . . . : xn+1 ); via
Pn+1
la carte i=1 bi xi = 1.

Exemple 4.2.2 Un repère projectif d’une droite projective est obtenu par la donnée de trois points dis-
tincts, a,b,c. Dans le repère (a, b, c) on a a = (1 : 0), b = (0 : 1), c = (1 : 1). Tout point de cette droite
projective à des coordonnées de la forme (x : y) et peut s’écrire xa + yb. Dans la carte y = 1, le point a
est à l’infini, et on écrit a = 1. Ainsi, le rapport x/y, qui vaut par définition 1 si y = 0, détermine un
point de la droite projective.
En particulier, la droite projective K̂ = K [ {1} = KP 1 admet pour repère standart le triplet noté
(1, 0, 1).

4.3 Application projectives


4.3.1 Définitions - Propriétés
Théorème 4.3.1 Soit f une application linéaire injective de E dans un autre K-espace vectoriel, F .
Alors, l’application suivante est bien définie :

p(f ) : P (E) 3 Vect(x) 7! Vect(f (x)) 2 P (F ), 8x 2 E \ {0}.

Preuve Il s’agit de prouver que la droite Vect(f (x)) ne dépend pas du vecteur x 6= 0 choisi pour
diriger Vect(x). Puisque f est linéaire injective, l’image f (x) de x par f est un vecteur non nul de F ,
colinéaire à tout f (x0 ) si x0 désigne un vecteur quelconque, non nul et colinéaire à x. Donc on a bien
Vect(f (x)) = Vect(f (x0 )). ⇤
4.3. APPLICATION PROJECTIVES 53

Définition 4.3.1 1) L’application p(f ) est appelée l’application projective associée à f . Elle est toujours
injective.
2) Si dim E = dim F < 1, alors p(f ) est bijective. On dit alors que p(f ) est une ”transformation
projective”, un ”isomorphisme”, ou une ”homographie”.

4.3.2 Cas non injectif


Qu’en est-il du cas f non injective ? Plus généralement, si f 2 L(E, F ), alors f envoie les droites
pointées de E \ Ker f sur des droites pointées de F . Ainsi, f induit encore une application, p(f ), de
P (E) \ P (Ker f ) dans P (F ), telle que le diagramme suivant commute
f
E \ Ker f ! F \ {0}
# ⇡E # ⇡F
p(f )
P (E) \ P (Ker f ) ! P (F ).

Autrement dit, on a formellement ⇡F f = p(f ) ⇡E , puisqu’ici f désigne en fait la restriction de f à


E \ Ker f . On remarque de plus que, pour deux applications linéaires f et g, on a, chaque fois que la
composition a un sens, la relation
p(f g) = p(f ) p(g).

Définition 4.3.2 Un morphisme entre les espaces projectifs P (E) et P (F ) est une application de la
forme h = p(f ) : P (E) \ P (Ker f ) 7! P (F ), f 2 L(E, F ).

Théorème 4.3.2 Deux morphismes, f et g, de E sur F , définissent la même application projective si,
et seulement si, f et g sont colinéaires, i.e, il existe t 2 K⇤ tel que f = tg.

Preuve Il est clair que p(tf ) = p(f ), t 2 K. Regardons la réciproque. Supposons p(f ) = p(g). Ceci
implique Ker f = Ker g et =f = =g. Considérons d’abord le cas où f est bijective. Si dim E = n + 1  1
alors f et g sont nécessairement colinéaires. Supposons dim E = dim F = n + 1 2. Soient x, y deux
vecteur non colinéaires. Les vecteurs f (x) et g(x) sont colinéaires, ainsi que f (y) et g(y), et que f (x+y) et
g(x + y). Donc, il existe tx , ty , tx+y 2 K tels que f (x) = tx g(x), f (y) = ty g(y), et f (x + y) = tx+y g(x + y).
On a
tx+y (g(x) + g(y)) = tx+y g(x + y) = f (x + y) = f (x) + f (y) = tx g(x) + ty g(y),
d’où
(tx+y tx )g(x) + (tx+y ty )g(y) = 0.
Or g(x) et g(y) sont non colinéaires car x et y aussi, on doit donc tx = ty . Ceci prouve qu’il existe t 2 K
tel que f (x) = tg(x), pour tout x 2 E. Donc f et g sont proportionnelles.
Dans le cas où f n’est pas bijective, il suffit de considérer H, un supplémentaire de Ker f = Ker g dans
E, puis les deux isomorphismes f˜, g̃ : H ! =f = =g tels que f˜(x) = f (x) et g̃(x) = g(x) pour x 2 H.
On a alors P (f˜) = P (g̃), ce qui implique, d’après ce qui précède, f˜ = g̃, puis f = g. ⇤

4.3.3 Propriétés fondamentales des homographies


Rappelons qu’un morphisme h = p(f ) avec E = F et Ker f = {0} est une homographie. Jusqu’à la
fin de ce chapitre, E est de dimension finie, n + 1. Si l’on parle d’application projective associée à une
application linéaire, cela sous-entendra que cette application linéaire est injective. La propriété
suivante est assez évidente.

Propriété 4.3.1 Toute homographie transforme un espace projectif en un autre espace projectif de même
dimension.

Illustrons ceci par le cas suivant important.


54 CHAPITRE 4. GÉOMÉTRIE PROJECTIVE

Définition 4.3.3 Le choix dans E d’une base B := (e1 , . . . , en+1 ) induit l’homographie

h : P (E) 3 m 7! x 2 KP n ,

où x = (x1 : . . . : xn+1 ) désigne les coordonnées homogènes de m relatives à la base B. Une telle
homographie est appelée système de coordonnées homogènes.
En conséquence nous avons le
Théorème 4.3.3 Toute homographie préserve l’alignement.

Remarque 4.3.1 La réciproque n’est pas évidente. Dans le cas réel K = R, si une bijection de P (E)
dans P (F ) (avec dim P (E) = dim P (F ) < 1) préserve l’alignement, alors c’est une homographie. On
utilise pour cela le fait que le seul automorphisme du corps R est l’identité.
Dans le cas complexe K = C, la conjugaison est un automorphisme (continu) du corps C, di↵érent de
l’identité. Il y en a d’autres, mais qui ne sont pas continues. Par conséquent, il existe des bijections
de P (E) dans P (F ), préservant l’alignement, et qui ne sont pas des homographies : ce sont des semi–
homographies.

Structure de groupe
Théorème 4.3.4 L’ensemble des homographies de P (E) dans lui-même, muni de la loi de composi-
tion, forme un groupe. Il est noté P GL(E). Il est isomorphe à GL(E)/H(E), lui-même identifiable à
GL(E)/K⇤ .

Preuve : exercice. Rappel : le groupe (H(E), ) des homothéties vectorielles sur E a été vu en section 1.
Définition 4.3.4 Le groupe (P GL(E), ) des homographies de P (E) dans lui-même est appelé le groupe
projectif.

Remarque 4.3.2 A l’espace vectoriel L(E) de dimension (n + 1)2 est associé l’espace projectif P (L(E))
de dimension n2 +2n. Alors P GL(E) est le complémentaire dans P (L(E)) de la variété algébrique définie
par det f = 0.

4.3.4 Expressions d’une homographie


Dans l’espace projectif
Théorème 4.3.5 Considérons deux espaces projectifs P (E), P (F ) de dimension n, avec le corps commun
K = R ou C, et munis respectivement des repères projectifs R = (u1 , . . . , un+2 ), T = (v1 , . . . , vn+2 ). Alors
il existe une unique homographie h : P (E) ! P (F ) telle que (ui ) = vi , 1  i  n + 2.

Preuve Exercice (Cf. TD4) ⇤


Soit h = p(f ) 2 P GL(E), et R = (u1 , . . . , un+2 ), un repère projectif de P (E). Un point m 2 P (E) de
Pn+1
coordonnées x = (x1 : . . . : xn+1 ) dans R s’écrit m = j=1 xj uj . Posons
n+1
X
h(uj ) = ai,j ui , j = 1, . . . , n + 2.
i=1

Donc, si m0 = h(m) admet les coordonnées x0 = (x01 : . . . : x0n+1 ), alors,


n+1
X n+1
X n+1
X
0 (1) (3)
m = xj h(uj ) = ( ai,j xj )ui .
j=1 i=1 j=1

[ Preuve de (1), qui se place dans le repère (h(u1 ), . . . , h(un+2 )) de P (F ) : nous avons
n+1
X n+1
X n+1
X n+1
X
(2)
h(m) = ⇡F (f ( xj ej )) = ⇡F ( xj f (ej )) = xj ⇡F (f (ej )) = xj h(uj ).
j=1 j=1 j=1 j=1
4.3. APPLICATION PROJECTIVES 55

(2) : par définition du repère (h(u1 ), . . . , h(un+2 ))].


La relation (3) s’écrit vectoriellement X 0 = AX, où X = (x1 , . . . , xn+1 ), X 0 = (x01 , . . . , x0n+1 ), et A =
(ai,j )0i,jn+1 est une matrice carrée. Cette matrice représente donc l’automorphisme f dans une base
vectorielle associée à R, mais, la relation (4.1) montre que, pour tout t 2 K⇤ , la matrice tA représente
également l’homographie h dans R.

Dans l’espace vectoriel Kn


Nous cherchons une expression analytique de l’homographie h 2 P GL(E) en tant que fonction de
l’espace vectoriel (donc affine) Kn dans lui–même.
L’ensemble {xn+1 6= 0} ⇢ P (E) est identifié via la carte xn+1 = 1 à l’hyperplan affine H = {X =
(X1 , . . . , Xn , Xn+1 = 1)} de Kn , lui même identifié via la carte ' : (X1 , . . . , Xn , Xn+1 = 1) 7!
(X1 , . . . , Xn ), à l’espace Kn (Cf. remarque 4.2.5). L’hyperplan projectif P (H) d’équation xn+1 = 0
est l’ensemble des points à l’infini. On écrit H = P (E) \ P (H). Posons V1 := h 1 (P (H)), l’hyperplan
projectif des points envoyés à l’infini par h. L’homographie h envoie donc H \ V1 dans H. L’équation de
Pn+1
V1 est j=1 an+1,j xj = 0. Donc H \ V1 s’identifie à H \ H1 , complémentaire dans H du sous-espace
Pn+1
affine H1 des points de coordonnées (X1 , . . . , Xn , Xn+1 = 1) tels que j=1 an+1,j Xj = 0. Cet ensemble
H \ H1 est lui–même identifié via la carte ' à l’ensemble
n
X
Dh := {(X1 , . . . , Xn ) 2 Kn ; an+1,j Xj + an+1,n+1 6= 0}.
j=1
Pn+1
Déterminons l’image par h des points à l’infini. Ils forment l’hyperplan h(P (H)) = Proj({ i=1 ai,j ui , 0 
j  n}). Soit B = A 1 : c’est la matrice (à un facteur multiplicatif non nul près) de h 1 dans le repère
R. La (n + 1) ieme colonne de B est t(b1 , . . . , bn+1 ) déterminée par les relations

b1 a1,n+1 + · · · + bn+1 an+1,n+1 = 1,

et
b1 a1,i + · · · + bn+1 an+1,i = 0, 1  i  n. (4.2)
Donc, les solutions non triviales des relations homogènes (4.2), sont toutes proportionnelles entre elles.
Par conséquent, l’hyperplan projectif h(P (H)) est d’équation
n+1
X
bj xj = 0.
j=1

D’après la remarque 4.2.5, le point M 2 H qui représente m : (x1 : . . . : xn+1 ) 2 P (E) \ P (H) dans la
carte Xn+1 = 1 a pour coordonnées affines
x1 xn
(X1 = , . . . , Xn = , Xn+1 = 1),
xn+1 xn+1
tandis que, lorsque M 2 H \ H1 , le point M 0 2 H qui représente h(m) de coordonnées homogènes x0 a
pour coordonnées affines
x0 x0
(X10 = 0 1 , . . . , Xn0 = 0 n , Xn+1
0
= 1).
xn+1 xn+1
Donc on obtient Pn+1 Pn+1
j=1 ai,j xj j=1 ai,j Xj
Xi0 = Pn+1 = Pn+1 , 1  i  n,
j=1 an+1,j xj j=1 an+1,j Xj
c’est–à dire, Pn
j=1 ai,j Xj + ai,n+1
Xi0 = Pn , 1  i  n. (4.3)
j=1 an+1,j Xj + an+1,n+1

L’homographie h est donc représentée comme la fraction rationnelle (vectorielle) Dh 3 (X1 , . . . , Xn ) 7!


(X10 , . . . , Xn0 ) 2 Kn avec les relations (4.3).
56 CHAPITRE 4. GÉOMÉTRIE PROJECTIVE

Remarque 4.3.3 Cette représentation est réductrice, puisqu’elle ne donne pas les valeurs des h(m) pour
m 2 P (H), ni même pour m 2 H \ V1 .
Il y a cependant le cas d’une homographie de K dans lui—même, étudié dans l’exemple suivant.

Exemple 4.3.1 Complétons la remarque ci–dessus et l’exemple 4.2.1. Rappelons qu’un point m 2 K̂ de
coordonnées (x : y) admet pour affixe la valeur z = x/y 2 K [ {1}. Si m est propre,
! il est de la forme
a b
(z : 1) avec z 2 K, sinon, m = (1 : 0) et z = 1. Soit la matrice A = 2 GL2 (K). Elle induit
c d
une homographie h de K̂. Si m est propre alors h(m) = (az + b : cz + d) ' az+b
cz+d , qui est impropre (1)
si z = cd . Si m est impropre alors h(m) = ( ac : 1) ' ac . On peut donc identifier h avec la fraction
rationnelle ĥ : z 7! az+b a d
cz+d , prolongée par ĥ(1) = c et ĥ( c ) = 1.

4.3.5 Birapport
Si D et D0 sont deux droites projectives de l’espace projectif P (E), alors trois points distincts m1 ,
m2 , m3 de D (respectivement, trois points distincts m01 , m02 , m03 de D0 ) forment un repère projectif de
D (respectivement, de D0 ). Il existe donc une homographie h 2 P GL(E) telle que h(mi ) = m0i pour
i = 1, 2, 3. Ainsi, dès que la dimension de P (E) est au moins 1, le groupe des homographies P GL(E) est
transitif sur l’ensemble des triplets de points distincts et alignés de P (E). Mais qu’en est-il pour quatre
points alignés ?
Définition 4.3.5 Soit D une droite projective et m1 , m2 , m3 , m4 , quatre points de D dont les trois
premiers sont distincts. Soit h l’unique homographie de D dans KP 1 = K̂ = K[{1} telle que h(m1 ) = 1,
h(m2 ) = 0, et h(m3 ) = 1. Alors h(m4 ) est appelé le birapport des points m1 , m2 , m3 , m4 . Il est noté
[m1 , m2 , m3 , m4 ].
En particulier, nous avons le
Proposition 4.3.1 Si m4 est aligné avec les trois premiers m1 , m2 , m3 distincts, et si m01 , m02 , m03 , m04 ,
sont quatre autres points alignés avec les trois premiers distincts, alors [m1 , m2 , m3 , m4 ] = [m01 , m02 , m03 , m04 ]
si, et seulement si, il existe une homographie h 2 P GL(E) telle que h(mi ) = m0i pour tout i 2 [1, 4].
Preuve Exercice (Cf. TD4). ⇤
Ainsi, le birapport permet de caractériser les orbites des quadruplets de points distincts et alignés sous
l’action du groupe des homographies.
Remarque 4.3.4 ATTENTION ! L’ordre dans lequel interviennent les points est très important. La
définition du birapport n’est pas très standardisée et peut di↵érer selon les auteurs : certains placent le
point m4 en premier, par exemple...
Nous avons donc le résultat général suivant, fondamental :
Théorème 4.3.6 Une homographie conserve le birapport.
Preuve Soit h : P (E) ! P (F ) une homographie. Soit quatre points alignés mi , 1  i  4, sur une
droite D, avec m1 , m2 , m3 tous distincts. Posons m0i = h(mi ). Nous savons, d’après le théorème 4.3.3 que
les m0i sont alignés sur D0 = h(D). Il s’agit de prouver que [m1 , m2 , m3 , m4 ] = [m01 , m02 , m03 , m04 ]. Posons
h0 l’homographie de D sur K̂ telle que h0 (m1 ) = 1, h0 (m2 ) = 0, et h0 (m3 ) = 1. L’unique homographie
de D0 sur K̂ qui envoie m01 sur 1, m02 sur 0, et m03 sur 1 est h0 = h0 h 1 . Donc [m01 , m02 , m03 , m04 ] =
h0 h 1 (m04 ) = h0 (m4 ) = [m1 , m2 , m3 , m4 ]. ⇤

Théorème 4.3.7 Soient trois points distincts A, B, C dans la droite projective K̂, d’affixes respectives
a, b, c 2 K. Le birapport sur K̂ est déterminé par
(c a)(z b)
[a, b, c, z] = , 8M 2 K̂, (4.4)
(c b)(z a)
où z désigne l’affixe de M .
4.4. DUALITÉ 57

Remarque 4.3.5 Pour plus de simplicité, on note [a, b, c, z] à la place de [A, B, C, M ].

Preuve D’après ce qui précède dans l’exemple 4.3.1, on sait que [a, b, c, z] est l’image par une homographie
du point M . Donc le birapport [a, b, c, z] est de la forme
↵1 + 1z
[a, b, c, z] = ,
↵2 + 2z

pour des scalaires ↵i , i (tels que ↵1 2 ↵2 1 6= 0). Or, on a les trois relations [a, b, c, a] = 1, [a, b, c, b] = 0,
[a, b, c, c] = 1, donc
↵2 + 2a = 0, ↵1 + 1b = 0, ↵1 + 1c = ↵2 + 2 c.
(z b)
On en déduit ↵2 = 2 a, ↵1 = 1 b, puis 1 b+ 1 c = 2 a+ 2 c, d’où 1 = 2. Donc [a, b, c, z] = t (z a)
(c b) (c b)
et t = [a, b, c, c]/ (c a) = 1/ (c a) . D’où le résultat. ⇤

Remarque 4.3.6 - Si, dans le théorème 4.3.7, on pose a = 1, alors la formule (4.4) doit être remplacée
par :
z b
[a, b, c, z] = , 8z 2 K̂.
c b
- Si, dans le théorème 4.3.7, on pose b = 1, alors la formule (4.4) doit être remplacée par :
c a
[a, b, c, z] = , 8z 2 K̂.
z a
- Si, dans le théorème 4.3.7, on pose c = 1, alors la formule (4.4) doit être remplacée par :
z b
[a, b, c, z] = , 8z 2 K̂.
z a
On voit donc que la formule (4.4), valable pour a, b, c 2 K, est prolongeable aux trois cas exclusifs a, b ou
c = 1 en considérant une limite au sens usuel pour la forme indéterminée de la fraction rationnelle. Par
(c a0 )(z b)
exemple, si a = 1, on remplace (c a)(z b) z b
(c b)(z a) par limK3a !1 (c b)(z a0 ) , ce qui donne bien c b , au moins
0

pour z 6= 1.

4.4 Dualité
4.4.1 Espace projectif dual
Soit l’espace vectoriel E de dimension n + 1. Son dual algébrique, E ⇤ = L(E; K), est aussi un K-
espace vectoriel de dimension n + 1. Les espaces projectifs P (E) et P (E ⇤ ) ont donc même dimension. Si
f est une forme linéaire non nulle sur E, i.e, f 2 E ⇤ \ {0}, alors ⇡E ⇤ (f ) := Vect(f ) est un élément de
P (E ⇤ ). Nous allons associer à f un objet géométrique dans P (E), plus complexe. Le noyau Ker f est un
hyperplan vectoriel de E. De plus, si g 2 E ⇤ , alors Ker f = Ker g () f = tg pour un t 2 K⇤ . Donc,
Ker f = Ker g () ⇡E ⇤ (f ) = ⇡E ⇤ (g). L’application P (E ⇤ ) 3 ⇡E ⇤ (f ) 7! P (Ker f ) est donc une bijection
de P (E ⇤ ) dans l’ensemble des hyperplans projectifs de P (E).
Définition 4.4.1 On appelle P (E ⇤ ) l’espace projectif dual de P (E). Il s’identifie canoniquement à l’en-
semble des hyperplans projectifs de P (E).

4.4.2 Cas du plan projectif


Posons n = 2. Soit B = (e1 , e2 , e3 ) une base de E. La base duale de B est B ⇤ = (e⇤1 , e⇤2 , e⇤3 ) déterminée
par
e⇤i (ej ) = i,j := 1 si i = j et = 0 si i 6= j.
Si (x : y : z) désigne les coordonnées homogènes d’un point m 2 P (E), alors xe1 +ye2 +ze3 est un vecteur
directeur de la droite m ⇢ E. Si (u : v : w) désigne les coordonnées homogènes d’un point f 2 P (E ⇤ ),
alors ue⇤1 + ve⇤2 + we⇤3 est un vecteur directeur de la droite f = Vect(') ⇢ E ⇤ , ' 2 E ⇤ \ {0}.
58 CHAPITRE 4. GÉOMÉTRIE PROJECTIVE

Soit f 2 P (E ⇤ ). Donc f = Vect('), avec ' 2 E ⇤ \ {0}. L’hyperplan vectoriel Ker ', déterminé
par l’équation '(x) = 0, est de dimension deux. Donc, l’hyperplan projectif P (Ker '), déterminé par
l’équation ux + vy + wz = 0 dans P (E), est de dimension un. C’est une droite projective. Notons-la Hf ,
f = Vect('). Elle a pour équation, en système de coordonnées homogènes, f (m) = 0.
Soient deux points distincts f = Vect('), f 0 = Vect('0 ) 2 P (E ⇤ ). Ils définissent les deux droites projec-
tives Hf et Hf 0 , d’équations respectives f (m) = 0, f 0 (m) = 0. La droite projective (f, f 0 ) = Proj(f, f 0 ) =
P (f + f 0 ) de P (E ⇤ ), qui passe par f : (u : v : w) et f 0 : (u0 : v 0 : w0 ), admet pour éléments les points de
coordonnées homogènes (tu + t0 u0 : tv + t0 v 0 : tw + t0 w0 ), (t, t0 ) 6= (0, 0). Pour (t, t0 ) 6= (0, 0), l’équation
0 = tf (m) + t0 f (m0 ) ⌘= (tu + t0 u0 )x + (tv + t0 v 0 )y + (tw + t0 w0 )z = 0 est celle d’une droite H(t, t0 ) de
P (E). Les droites H(t, t0 ) passent toutes par le point d’intersection des deux droites Hf et Hf 0 .
Donc, nous venons de construire les relations suivantes entre objets de P (E) et de P (E ⇤ ) :
— Un point f 2 P (E ⇤ ) est caractérisé par une droite (projective) Hf ⇢ P (E).
— Une droite d = (f, f 0 ) dans P (E ⇤ ) est caractérisée par un point Md = Hf \ Hf 0 2 P (E). Plus
généralement, une droite d de P (E ⇤ ) correspond à la famille des droites de P (E) passant par un
même point, Md , et donc peut se caractériser par ce point. La famille de droites passant parun
point m 2 P (E) est appelée faisceau de droites de base m.
— De plus, trois points distincts f1 , f2 , f3 2 P (E ⇤ ) sont alignés si, et seulement si, les droites Hf1 ,
Hf2 , Hf3 , sont distinctes et concourantes.
Que deviennent les bi–rapports dans l’identification par dualité ? Pour cela nous avons le
Théorème 4.4.1 Soit quatre points f1 , . . . , f4 2 P (E ⇤ ) dont les trois premiers sont distincts, et tous
alignés sur une droite d de P (E ⇤ ). (Les quatre droites Hfi , 1  i  4, sont donc concourantes en un
point Md 2 P (E).) Soit D une droite du plan P (E), coupant Hfi en un seul point, Mi , 1  i  4. Alors

[f1 , f2 , f3 , f4 ] = [M1 , M2 , M3 , M4 ].

Preuve Fixons deux repères duaux, respectivement, R pour P (E), et R⇤ pour P (E ⇤ ), tels que D
soit l’ensemble des points à l’infini, d’équation Z = 0, dans le système de coordonnées homogènes (X :
Y : Z) associé à R. Soient (ui : vi : wi ) les coordonnées projectives de fi dans R⇤ . La droite Hfi a
alors pour équation ui X + vi Y + wi Z = 0 dans P (E). Alors les coordonnées homogènes de Mi sont
(Xi = vi : Yi = ui : Zi = 0). Donc, pour tout i, Mi est l’image de fi par l’homographie h : d 3
(u : v : w) 7! (v : u : 0) 2 D. Or, une homographie conserve le birapport (Cf. théorème 4.3.6). Donc,
[f1 , f2 , f3 , f4 ] = [h(f1 ), h(f2 ), h(f3 ), h(f4 )] = [M1 , M2 , M3 , M4 ]. ⇤

4.5 Quadriques projectives


4.5.1 Premières définitions
Cette section complète le chapitre sur les quadriques d’un espace affine. Soit E un K-e.v de dimension
finie n + 1. On note par Q le K-espace vectoriel des formes quadratiques sur E. Rappelons que c’est un
K-ev de dimension (n + 1)(n + 2)/2. Donc P (Q) forme un espace projectif de dimension n(n + 3)/2. Un
élément q 2 P (Q) est donc l’image par ⇡Q d’une forme quadratique q 2 Q ; on dit aussi que q représente
q. Si q 2 Q(E), alors q(tx) = t2 q(x), pour tout t 2 K⇤ et tout x 2 E. Donc, q(x) = 0 () q(tx) = 0, pour
tout t 2 K⇤ . Donc il y a cohérence pour la
Définition 4.5.1 On dit que la relation q = 0 est une équation de la quadrique projective q.
La quadrique projective q est dite propre lorsque q est non dégénérée, impropre ou singulière ou dégénérée,
sinon.

Définition 4.5.2 Soit q 2 P (Q) et soit m 2 P (E). On dit que m est un point de q lorsque q(x) = 0, où
q représente q, et x 2 E représente m (i.e, ⇡E (x) = m).

Un point m 2 P (E) est donc point de la conique q si, et seulement si, il possède un représentant isotrope
pour un représentant de q. Dans ce cas, tout représentant de m est isotrope pour tout représentant de q.
On note par V (q) l’ensemble des points de q. Cet ensemble est appelé aussi ensemble des zéros de q.
Définition 4.5.3 On dit que la quadrique projective q est non vide lorsque V (q) est non vide.
4.5. QUADRIQUES PROJECTIVES 59

4.5.2 Retour à l’affine


Considérons ce qui se passe dans une carte affine, après choix d’une base (e1 , . . . , en+1 ) de E, et
d’un système de coordonnées cartésiennes. Nous pouvons donc nous restreindre au cas E = Kn+1 , puis
poser : Kn 3 (x1 , . . . , xn ) 7! (x1 : . . . : xn : xn+1 = 1) 2 KP n . Soit la quadrique projective q
représentée par q, forme quadratique sur Kn+1 , et d’équation q(x1 , . . . , xn+1 ) = 0. Posons f = q .
Donc, f (x1 , . . . , xn ) = q(x1 , . . . , xn , xn+1 = 1), ce qui montre que f est polynôme de degré deux sur Kn ,
et que la relation la relation q(x) = 0 se voit dans l’espace Kn comme la quadrique affine d’équation
f (x1 , . . . , xn ) = 0. Cette quadrique affine est la trace dans l’espace affine Kn de la quadrique projective
q.
Réciproquement, si on a dans Kn une quadrique affine, alors elle s’écrit f (x1 , . . . , xn ) = 0, où f est
polynôme de degré deux sur Kn de la forme (3.2). Posons
n
X n
X
q(x1 , . . . , xn , xn+1 ) = ai,j xi xj + bi xi xn+1 + cx2n+1 . (4.5)
i,j=1 i=1

Ceci définit q 2 Q, espace des formes quadratiques sur Kn+1 , puis la quadrique projective q représentée
par q. On dit que q, définie par (4.5), est la forme homogénéisée de f .

4.5.3 Action des homographies sur les quadriques


Le groupe P GL(E) des homographies de P (E) opère sur l’ensemble P (Q) des quadriques projectives
de la façon suivante. Si u 2 P GL(E) et q 2 P (Q), alors on pose
1
uq := q u ,

où u (respect., q) représente u (respect., q).


On a donc la formule
V (uq) = u(V (q)).

4.5.4 Classification des quadriques projectives


Objectif
Classifier les quadriques projectives dans un espace projectif P (E) signifie déterminer les classes
d’équivalence dans P (Q) pour la relation d’équivalence suivante.
Définition 4.5.4 Deux quadriques q, q 0 2 P (Q) sont dites projectivement équivalentes lorsqu’elles ont la
même orbite pour l’action de P GL(E) sur P (Q), i.e, leurs représentants respectifs, q, q 0 , sont équivalents
à un scalaire près, i.e, lorsqu’il existe u 2 GL(E), t 2 K⇤ , tels que q 0 = t q u.

Remarque 4.5.1 Si deux quadriques sont projectivement équivalentes alors il existe une homographie
transformant les zéros de l’une en les zéros de l’autre. La réciproque est vraie pour K = C, et aussi, par
le théorème de Sylvester, si K = R. (Cependant, si K désigne un autre corps que R ou C, la réciproque
peut échouer.)

Nous laissons au lecteur la preuve du résultat suivant.


Théorème 4.5.1 Soient deux quadriques projectives équivalentes, q et q 0 . Soit une carte affine. Alors
les quadriques affines, traces respectives de q et de q 0 par , sont affinement équivalentes.

Cas complexe
La classification des quadriques (projectives) complexes est simple :
Théorème 4.5.2 Soit K = C. Aucune quadrique (projective) n’est vide ! De plus, les quadriques de P (Q)
sont classifiées par le rang de leurs représentants. Ainsi, toutes les quadriques propres sont projectivement
équivalentes.
60 CHAPITRE 4. GÉOMÉTRIE PROJECTIVE

C’est une conséquence directe du théorème 3.1.1.


Pour les coniques complexes projectives (n = 2), nous avons donc 3 classes, dont 1 pour les propres :
— Le rang est (3, 0), la conique a pour équation réduite x2 + y 2 + z 2 = 0.
— Le rang est (2, 0), la conique, impropre, a pour équation réduite x2 + y 2 = 0. Donc l’ensemble des
zéros est l’union de deux droites, ici, d’équations respectives x = iy et x = iy.
— Le rang est (1, 0), la conique (impropre) a pour équation réduite x2 = 0. Donc l’ensemble des zéros
est une droite projective (double), ici, d’équation x = 0.

Cas réel
Soit K = R. On sait que les formes quadratiques réelles sont classifiées par leur signature. Si on multi-
plie une forme quadratique réelle de signature (r, s) par un scalaire positif non nul, on obtient une forme
quadratique réelle de même signature, (r, s), tandis que si on multiplie cette forme quadratique par un
scalaire négatif non nul, alors on obtient une forme quadratique de signature, (s, r). Donc, les quadriques
projectives réelles sont classifiées par leur signature modulo le changement par symétrie (r, s) 7! (s, r)
(voir aussi la remarque 3.2.2 pour les quadriques affines). Il suffit donc de ne considérer que les signatures
(r, s), r s.
Pour les coniques projectives (n = 2), nous avons donc 5 classes, dont 2 pour les propres :
— La signature (3, 0), la conique a pour équation réduite x2 + y 2 + z 2 = 0. L’ensemble des zéros de
la conique est vide 3 .
— La signature est (2, 1), la conique a pour équation réduite x2 + y 2 z 2 = 0.
— La signature est (2, 0), la conique, impropre, a pour équation réduite x2 + y 2 = 0. Donc l’ensemble
des zéros est réduit à un point, ici 4 , le point (0 : 0 : 1).
— La signature est (1, 1), la conique (impropre) a pour équation réduite x2 y 2 = 0. Donc l’ensemble
des zéros est l’union de deux droites projectives distinctes, ici, x = y et x = y.
— La signature est (1, 0), la conique (impropre) a pour équation réduite x2 = 0. Donc l’ensemble des
zéros est une droite projective (double), ici, x = 0.

Remarque 4.5.2 Toutes les coniques réelles propres non vides sont projectivement équivalentes ! Donc,
pour tout couple (q, q 0 ) de coniques propres non vides, il existe u 2 P GL(E) tel que q 0 = q u. On peut
dire aussi que le groupe P GL(E) opère transitivement sur l’ensemble des coniques réelles propres non
vides.

Remarque 4.5.3 Pour la classe de la signature (2, 1), dans la carte z = 1 nous avons des ellipses, tandis
que dans la carte x = 1 ou y = 1, nous avons des hyperboles.

Réferences
”Géométrie projective”. Préparation à l’Agrégation, ENS de Cachan. Claire Renard (2013).
”Géométrie projective : autour du programme de l’agrégation”, Michel Coste (2002).
”Géométrie projective”, Robert Rolland
’”Coniques, quadriques projectives”, Michel Coste (2004).
”Partie III. La géométrie d’une forme quadratique, premier épisode : la conique”, cours de ? Perrin
(200 ?).

3. rappelons qu’il n’y a pas de point de coordonnées (0 : 0 : 0)


4. i.e, pour l’équation réduite

Vous aimerez peut-être aussi