Académique Documents
Professionnel Documents
Culture Documents
1 Rappels 3
1.1 Formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.2 Base orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Interprétation matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Espaces Euclidiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.2 Sous–espace euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.3 Norme euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.4 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.5 Bases Orthonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.6 Interprétation matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.7 Adjoint d’un endomorphisme dans un espace euclidien . . . . . . . . . . . . . . . . 8
1.3 Isométries vectorielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.2 Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.3 Autres Propriétés et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.4 Cas des symétries orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.5 Classification des isométries linéaires en dimension 2, 3 . . . . . . . . . . . . . . . . 10
2 Géométrie Affine 11
2.1 Espaces Affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1 Définition. Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.2 Produit cartésien d’espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.3 Sous–Espace Affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2 Repères affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.1 Barycentre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.2 Points affinement indépendants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.3 Coordonnées Barycentriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.4 Construction de s.e.a par combinaisons affines . . . . . . . . . . . . . . . . . . . . . 17
2.2.5 Application à la détermination de s.e.a . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3 Applications Affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3.1 Définitions - L’espace des applications affines . . . . . . . . . . . . . . . . . . . . . 18
2.3.2 Exemples. Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3.3 Espace Image et espace image-réciproque par une application affine . . . . . . . . 19
2.3.4 Théorème FONDAMENTAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.5 Points fixes d’une application affine . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.6 Décomposition d’une application affine . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.7 Le groupe affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.8 Représentation complexe en dimension 2 des applications affines du plan réel . . . 22
2.3.9 Formes affines indépendantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4 Convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
61
62 TABLE DES MATIÈRES
3 Coniques et quadriques 33
3.1 Compléments sur les formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.1.1 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.1.2 Classification des formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.1.3 Méthode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Coniques, Quadriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.1 Notations, Premières définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.2 E↵et d’un changement de variable affine . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2.3 Réduction de la quadrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2.4 Symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2.5 Réduction, cas complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2.6 Réduction, cas réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2.7 Réduction, cas euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2.8 Coniques réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2.9 Quadriques réelles de l’espace euclidien R3 . . . . . . . . . . . . . . . . . . . . . . . 41
4 Géométrie projective 45
4.1 Définitions - Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.1 Le point de vue vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.2 Sous-espace projectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.1.3 Sous-espace projectif engendré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.1.4 Le point de vue affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2 Coordonnées, carte affine, repère dans un espace projectif . . . . . . . . . . . . . . . . . . 49
4.2.1 Famille projectivement libre et coordonnées homogènes . . . . . . . . . . . . . . . 49
4.2.2 Carte affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2.3 Repère d’un espace projectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.3 Application projectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.3.1 Définitions - Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.3.2 Cas non injectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.3.3 Propriétés fondamentales des homographies . . . . . . . . . . . . . . . . . . . . . . 53
4.3.4 Expressions d’une homographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3.5 Birapport . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.4 Dualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.4.1 Espace projectif dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.4.2 Cas du plan projectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.5 Quadriques projectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.5.1 Premières définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.5.2 Retour à l’affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.5.3 Action des homographies sur les quadriques . . . . . . . . . . . . . . . . . . . . . . 59
4.5.4 Classification des quadriques projectives . . . . . . . . . . . . . . . . . . . . . . . . 59
Chapitre 1
Rappels
Quelques Notations
K désigne le corps des réels R ou des complexes C. Les espaces vectoriels considérés dans ce cours
sont principalement réels (K = R), et de dimension finie, ce qu’on écrit dim E < 1.
L’élément neutre pour l’addition dans un espace vectoriel E sur le corps K est noté 0E , ou plus
simplement 0 s’il n’y a pas ambiguité. Lorsque E = Kn , n 0 entier, les coordonnées de x (respect. y)
dans
Pn la base canonique ("1 , . . . , "n ) sont x1 , . . . , xn (respect., y1 , . . . , yn ), et on a donc x = (x1 , . . . , xn ) =
i=1 xi "i .
L’espace L(E; K) des formes linéaires sur E est noté E ⇤ . C’est le dual (algébrique 1 ) de E. L’espace
des endomorphismes de E est noté Endo(E). L’ensemble des automorphismes de E est noté GL(E).
Muni de la loi de composition , il constitue un groupe. L’application identité sur E est notée id. Une
homothétie vectorielle sur E est une application de la forme hk : E 3 x 7! kx 2 E, où k est un scalaire
non nul donné appelé rapport de l’homothétie h. L’ensemble des homothéties de E sur lui-même est noté
H(E). Toute homothétie commute avec tout élément de L(E), et le centre Z(GL(E)), le sous-groupe
des automorphismes de E qui commutent avec tous les autres, coincide avec H(E). Donc, en particulier,
H(E) est un sous-groupe abélien et distingué de (GL(E), ).
L’ensemble des matrices de taille p ⇥ n à coefficients dans K est l’espace vectoriel Mp,n (K). Il est de
dimension pn. Si p = n il se note Mn (K).
La matrice carrée de taille n, ”identité”, est notée In , et celle ”nulle”, 0n .
La transposée d’une matrice A = (ak,i )1kp,1in 2 Mp,n (K), est la matrice tA = (ak,i )1in,1kp 2
Mn,p (K). On dit qu’une matrice carrée A est symétrique si, et seulement si, tA = A.
Un vecteur-colonne C de Kn est une matrice de taille n ⇥ 1 à coefficients dans K. Son transposé, noté
t
C, est alors un vecteur-ligne de taille 1 ⇥ n. Un vecteur x = (x1 , . . . , xn ) 2 Kn est donc identifié à un
vecteur-ligne t [x] = (x1 . . . xn ) dont le transposé, noté [x] ou t x, est un vecteur-colonne de Kn .
Plus généralement, un vecteur x, dans un espace vectoriel E sur le corps K et de dimension finie n,
a pour représentation matricielle, dans une base ordonnée B = (v1 , . . . , vn ) de E, un vecteur-colonne
X 2 Mn,1 (K). On note x : XB , ou X = [x]B , ou même x : X ou X = [x] s’il n’y a pas d’ambiguité sur
la base choisie.
La matrice d’un endomorphisme f 2 Endo(E) dans une base B de E est notée [f ]B .
Si A est un sous–ensemble d’un espace vectoriel E, on note par Vect(A) le sous–espace vectoriel de E
engendré par A. C’est, par définition, le plus petit sous-espace vectoriel de E qui ”contient A” (i.e, qui
contient tous les éléments de A). En e↵et, on a
Définition
Vect(A) = \V 2F (A) V, F(A) := {V ⇢ E; V s.e.v.; V A}. (1.1)
3
4 CHAPITRE 1. RAPPELS
c’est–à dire, Vect(A) est l’ensemble des combinaisons linéaires finies des vecteurs de A.
Le conjugué d’un nombre complexe est noté . et par x, y ou z la notation pour un vecteur de E.
Symbole de Kronecker : i,j = 1 si i = j et i,j = 0 si i 6= j.
(ii) Symétrie :
8x, y 2 E, (x, y) = (y, x).
On dit alors que est une forme bilinéaire symétrique sur E.
Définition 1.1.1 L’application q : E ! K définie par q(x) = (x, x) est la forme quadratique associée
à la forme bilinéaire symétrique .
On peut dire alors que la forme bilinéaire est associée à la forme quadratique q. Posons, pour tout
x 2 E, l’application
x : E 3 y 7! (x, y) 2 K,
Définition 1.1.2 S’il existe x 6= 0 tel que x ⌘ 0, on dit que (ou q) est dégénérée. Sinon on dit que
(ou q) est non dégénérée.
: E 3 x 7! x 2 E⇤
est linéaire injective. Comme dim E = dim E ⇤ = n < 1, est donc un isomorphisme.
Propriété 1.1.1 Puisque E de dimension finie, nous avons les équivalences suivantes :
Remarque 1.1.1 Que le cone isotrope soit réduit à 0 signifie que q(x) = 0 ) x = 0. Dans ce cas, la
forme bilinéaire associée est non dégénérée. La réciproque est fausse, même dans le cas réel. Par exemple,
sur R2 , la forme (x1 , x2 ) = x21 x22 est non dégénérée, mais q(x) = 0 () x1 = ±x2 , donc le cone
isotrope est l’union des deux droites portées respectivement par les vecteurs (1, 1) et (1, 1).
(x, y) = tY AX 2 K.
A est la matrice de (ou de la forme quadratique associée q) dans la base B. De plus, A est inversible
si, et seulement si, est non dégénérée.
Réciproquement, soit B, une base de E, et A, une matrice carrée de taille n. Alors l’application
(x, y) 7! tXAX 2 K définit une forme quadratique sur E.
Ainsi, est non dégénérée si, et seulement si, son discriminant (dans une base quelconque) est non nul.
Soit B 0 = (e01 , . . . , e0n ) une autre base de E, et soit A0 la matrice de dans B 0 . Soit P la matrice de
passage de B à B 0 , ce qui s’écrit P = BB0 . Un vecteur x 2 E admet pour vecteur-colonne la matrice X
dans B et la matrice X 0 dans B 0 . Donc X 0 = [x]B0 = BB0 [x]B = P 1 X, puis
t
XAX = q(x) = tX 0 DX 0 = t(P 1
X)DP 1
X = tX tP 1
A0 P 1
X.
Exemple Important
Soit E
P= Rn . Soit une matrice carrée A = (ak,i )1kn,1in des réels tous strictement positifs. Posons
n
hx, yi = i=1 ai xi yi . Alors Rn muni de h·, ·i est un espace euclidien.
Si a1 = . . . = an = 1, ce produit scalaire est appelé produit scalaire usuel de l’espace Rn .
On se considère maintenant et pour la suite de ce chapitre, l’espace vectoriel euclidien
E de dimension n et muni du produit scalaire .
(x, y)
cos(x,ˆy) = .
N (x)N (y)
C’est le cosinus de l’angle non orienté entre les vecteurs (non nuls) x et y.
2) L’application N est une norme. Elle est appelée norme euclidienne sur l’espace euclidien (E, ).
Remarque 1.2.1 L’inégalité triangulaire (pour la norme N ) est une une autre façon d’écrire l’inégalité
de Minkovski.
On notera indi↵éremment (E, N ) ou (E, ) pour signifier E comme espace euclidien, muni de la norme
euclidienne N ou du produit scalaire associé (par la formule de polarisation).
Exercice 1.2.1 Prouver l’identité du parallèlogramme suivante :
N 2 (x + y) + N 2 (x y) = 2 N 2 (x) + N 2 (y) , 8x, y 2 E.
(Ceci s’énonce aussi : dans un parallèlogramme, la somme des carrés des deux diagonales est égal à la
somme des carrés des quatre côtés).
1.2. ESPACES EUCLIDIENS 7
1.2.4 Orthogonalité
Soient deux vecteurs x, y 2 E. On dit qu’ils sont orthogonaux (entre eux) lorsqu’ils satisfont la relation
(x, y) = 0. On écrit alors : x ? y.
Remarque 1.2.2 1. Le seul vecteur orthogonal à lui–même est le vecteur nul 0E . En conséquence, 0E
est le seul vecteur orthogonal à tous les autres.
2. Deux vecteurs non nuls sont orthogonaux si, et seulement si, leur angle non orienté est ⇡/2 (”angle
droit”).
A? = {x 2 E; 8y 2 A, (x, y) = 0}.
Proposition 1.2.4 Toute famille orthogonale de vecteurs non nuls de E est libre. (Donc son cardinal
est n = dim E.
Proposition 1.2.5 1) Pythagore - Soit {v1 , . . . , vp } une famille finie orthogonale de E. Alors on a
p
X p
X
N 2( vi ) = N 2 (vi ).
i=1 i=1
2) Soit {v1 , . . . , vn } une famille orthogonale de n (= dim E) vecteurs non nuls de E. Alors la famille
{v1 , . . . , vn } est une base de E. Elle est dite base orthogonale de E. Si, en plus, les vecteurs vj sont tous
unitaires, on dit que cette base est orthonormale (ou : orthonormée).
3) Soit (v1 , . . . , vn ) une base de E. Alors il existe une base orthonormée (e1 , . . . , en ) de E telle que :
et (ej , vj ) > 0, pour tout j. C’est prouvé par le procédé d’orthonormalisation de Gram–Schmidt
4) Conséquences.
- Toute famille orthonormée d’un espace euclidien (de dimension finie) peut être complétée en base
orthonormée.
- Tout espace euclidien de dimension finie possède une base orthonormée.
8 CHAPITRE 1. RAPPELS
Définition 1.2.1 On dit qu’une matrice A 2 Mn (R) est définie positive si, et seulement si, elle est
symétrique avec des valeurs propres toutes strictement positives.
Proposition 1.2.6 1) Une matrice A 2 Mn (R) symétrique est définie positive si, et seulement si, elle
satisfait :
t
XAX > 0 8X 2 Mn,1 (R) \ 0.
2) Soit une base B de E et A = (ai,j )1in,1jn , la matrice du produit scalaire (ou de la forme
quadratique associée q, ou de la norme euclidienne N ) sur E dans B. Alors A est définie positive.
p soit B, une base de E, et A, une matrice carrée de taille n définie positive, alors l’ap-
Réciproquement,
plication x 7! tXAX 2 R+ définit un norme euclidienne sur E.
Si B est une base orthonormale (faux sinon ! !) dans (E, ) alors la matrice [tf ]B de tf dans B est l’adjointe
de [f ]B (la matrice de f dans B). On a donc la relation :
[tf ]B =t [f ]B .
Un endomorphisme est auto-adjoint lorsqu’il est égal à son adjoint. Donc, f est auto-adjoint si, et seule-
ment si, (f (x), y) = (x, f (y)), 8x, y 2 E.
Le résultat suivant est essentiel.
(Ker f )? = Im tf.
Preuve : exercice !
Proposition 1.3.1 Soit B une base orthonormée de (E, ) et soit B 0 une autre base de E. Alors la
matrice de passage entre B et B 0 est orthogonale si, et seulement si, B 0 est orthonormée.
?
Rn = Ker (A In ) Im (A In ). (1.3)
CQFD.
?
Propriété 1.3.1 Une isométrie f sur (E, ) satisfait E = Ker (f id) Im (f id).
A = tA = A 1
.
La matrice A est alors diagonalisable dans R, avec les valeurs propres 1 ou 1. C’est donc la matrice de
la symétrie orthogonale X 7! AX dans Mn,1 (R) selon l’espace invariant Ker (A In ), dans la direction
de Ker (A + In ). De plus, les deux espaces propres associés sont supplémentaires et orthogonaux :
?
Ker (A In ) Ker (A + In ) = Mn,1 (R).
10 CHAPITRE 1. RAPPELS
Supposons ici n = 2. Le groupe O(2) est partitionné O+ (n) [ O (n). O+ (n) est le sous-groupe des
rotations de R2 :
!
cos ✓ sin ✓
O+ (n) = {A 2 O(n); det A = 1} = { , ✓ 2 R},
sin ✓ cos ✓
1
où P est une matrice orthogonale (P = tP ).
Remarque 1.3.2 — L’identité, In (ou id), est une rotation axiale avec l’angle ✓ = 0.
— La symétrie centrale, In , est une anti-rotation axiale avec l’angle ✓ = ⇡.
— La symétrie orthogonale axiale, de la forme
0 1
1 0 0
B C
P 1B @ 0 1 0 C t
A P, ( P P = In ),
0 0 1
C’est donc une anti-rotation axiale avec l’angle ✓ = 0. La matrice est symétrique.
Chapitre 2
Géométrie Affine
Propriétés
-
1. x 0= x, 8x 2 E.
- -
2. Antisymétrie. Pour tout (x, y) 2 E 2 , on a xy= yx.
- - -
3. Relation de Chasles. Pour tout (x, y, z) 2 E 3 , on a xy + yz=xz.
- - - - --
4. On a : (x u) (y v) = (x y) + (u v), 8x, y 2 E, 8 u, v2 E. (Preuve : exercice).
- -
5. Pour tout a 2 E, l’application a : v 7! a v de E dans E est une bijection.
- - -
6. Pour tout v 2 E, l’application v : x 7! x v de E dans E est une bijection. Cette bijection est
-
appelée translation de vecteur v.
Exemples
1. E est construit naturellement en espace affine sur lui–même avec la loi = +.
n0
2. Soit une forme linéaire f 2 K non nulle, et b 2 K. On pose E l’ensemble des solutions x =
- -
(x1 , . . . , xn ) 2 Kn de l’équation f (x) = b, puis l’opération x v:= x+ v (addition usuelle de deux
éléments de K ) sur E ⇥ Ker f . Alors (E, ) est un espace affine sur l’espace vectoriel Ker f de
n
11
12 CHAPITRE 2. GÉOMÉTRIE AFFINE
Remarque 2.1.1 Pour simplifier, on choisira ultérieurement de noter la loi par ”+”, et l’opération
par ” ”, quitte–à confondre avec les opérations correspondantes dans E.
Exemple
Définition 2.1.5 Soit A un sous–ensemble non vide de E. Alors il existe un plus petit s.e.a. (”sous–
espace affine”) de E, noté A↵(A), caractérisé par les deux points suivants :
1. A ⇢ A↵(A).
2. Si F est un s.e.a de E contenant A, alors A↵(A) ⇢ F.
Pour démontrer l’existence de A↵(A), il suffit de voir qu’il est déterminé par
A↵(A) = \F 2I F,
où I est la famille des s.e.a de E contenant A. Cette famille est non vide car E 2 I. Il résulte de la
proposition 2.1.2 que A↵(A) est l’élément minimal de I : A↵(A) 2 I et F 2 I ) A↵(A) ⇢ F.
Exemples
-
Théorème 2.1.2 Soit-un ensemble non vide A ⇢ E. Posons F = A A ⌘ {bc | b, c 2 A}. Soit a 2 A.
Posons G = A a ⌘ {ab | b 2 A}. Alors A↵(A) = a + Vect(F ) et Vect(F ) = Vect(G).
Preuve 1) Montrons que A↵(A) = a + Vect(G). - L’ensemble a + Vect(G) est un s.e.a de E et contient
a + G = A. Donc, par définition de l’A↵, A↵(A) ⇢ a + Vect(G).
- L’ensemble A↵(A) a est un s.e.v de E et contient G car G = A a ⇢ A↵(A) a. Donc, par définition,
Vect(G) ⇢ A↵(A) a. Donc a + Vect(G) ⇢ A↵(A). D’où l’égalité A↵(A) = a + Vect(G).
2) Montrons que Vect(F ) = Vect(G). D’abord, comme, trivialement, G ⇢ F , alors Vect(G) ⇢ Vect(F ).
Ensuite, soit u 2 F , de la forme u = c b, avec b, c 2 A. Alors u = v w avec v = c a, w =
b a 2 G ⇢ Vect(G). Donc u 2 Vect(G) (puisque c’est un e.v) . Donc F ⇢ Vect(G), puis, par définition,
Vect(F ) ⇢ Vect(G). CQFD. ⇤
Corollaire 2.1.1 Soit un ensemble fini A = {a1 , . . . , an } ⇢ E, n 1. Alors A↵(A) = a1 + Vect(F ), où
-
on a posé F = {a1 ai , 2 i n}.
Preuve : exercice.
2.2.1 Barycentre
Soit un entier k 1, k points a1 , . . . , ak et k scalaires x1 , . . . , xk 2 K. On considère le problème
suivant : déterminer x 2 E tel que
k
X k
- X -
( xi ) ox= xi oai , 8o 2 E. (2.1)
i=1 i=1
Théorème 2.2.1 On suppose que E n’est pas réduit à un seul point (sinon l’équation (2.1) est triviale,
car s’écrit ~0 = ~0). Alors le problème (2.1) admet une solution unique si, et seulement si, les nombres xi
satisfont la condition suivante :
Xk
xi 6= 0. (2.2)
i=1
Pk Pk -
Preuve Supposons i=1 xi = 0. L’équation (2.1) s’écrit alors ~0 = i=1 xi oai . Cette relation est vraie
ou fausse, mais elle ne dépend pas de x. Donc l’ensemble des solutions de l’équation (2.1) est soit E (qui
possède une infinité de points), soit l’ensemble vide.
Pk
Supposons i=1 xi 6= 0 (le cas intéressant). Alors on obtient immédiatement pour o 2 E fixé l’unique
solution de la relation dans (2.1) sous la forme :
k
X
1 -
x = o + Pk xi oai .
i=1 xi i=1
A priori, x dépend de o. Montrons qu’il n’en est rien. Soit un autre point o0 2 E. Alors on calcule, par la
relation de Chasles,
k
X - X k
- - k
X - X
k - X k
- - k
X -
( xi ) o0 x= ( xi )(ox + o0 o) = xi oai +( xi ) o0 o= xi (oai + o0 o) = xi o 0 a i .
i=1 i=1 i=1 i=1 i=1 i=1
Ceci montre que x est encore solution de (2.1) avec le point o0 à la place de o. Donc x ne dépend pas du
point o donné dans (2.1). CQFD. ⇤
Définition 2.2.1 On suppose que (x1 , . . . , xk ) satisfait (2.2). On appelle alors barycentre des points ai ,
1 i k a↵ectés (ou ”pondérés” par) respectivement des poids xi , 1 i k, l’unique solution du
problème (2.1). Ce point se note :
Pk
xi ai
x = Pi=1
k
, ou x = G (a1 , x1 ), . . . , (ak , xk ) .
i=1 xi
Remarque 2.2.1 1. On peut multiplier tous les xi par un même scalaire non nul sans changer le
barycentre.
Pk Pk
2. Une formule du type i=1 xi ai ne donne un point de E que si i=1 xi = 1. Sinon, ça n’a pas
Pk Pk Pk -
de sens en général, excepté si i=1 xi = 0, auquel cas i=1 xi ai désigne le vecteur i=1 xi oai ,
indépendant du point o choisi.
3. Lorsque tous les xi sont égaux et non nuls, alors G (ai , xi )1ik est noté G (ai , 1)1ik ou
G (ai )1ik . Il est appelé isobarycentre, ou centre d’inertie, des points ai , et on a les diverses
notations équivalentes suivantes :
k
X Pk k
ai i=1 ai 1X
G (ai )1ik = = = ai .
i=1
k k k i=1
Pk Pk
5. (Définition complémentaire). Dans le cas où i=1 xi = 1, on dit que le point a = i=1 xi ai est
combinaison affine des points a1 , . . . , ak .
En abrégé : a est C.A des points a1 , . . . , ak .
P
Théorème 2.2.2 Soit une famille finie de points pondérés (ai , xi )i2I , telle que i2I xi 6= 0, et soit x
P
leur barycentre : x = G (ai , xi )i2I . Soit I1 , . . . , Ik une partition de I telle que i2Ij xi 6= 0, 8j 2 [1, k].
barycentre des (ai , xi ), i 2 Ij , pour 1 j k. Alors x est le barycentre des points bj a↵ectés
Soit bj le P
des poids i2Ij xi .
P P
Preuve. On a bj = i2I1 Sxji ai , avec Sj := i2Ij xi 6= 0, puis
k
X k X
X X
Sj = xi = xi =: S 6= 0,
j=1 j=1 i2Ij i2I
k
X Xk X X xi
Sj Sj x i
G (bj , Sj )1jk = bj = ai = ai = x.
j=1
S j=1
Sj S S
i2Ij i2I
CQFD.
Le résultat suivant est fondamental.
Théorème 2.2.3 Un sous–ensemble non vide F de E est un sous–espace affine de E si, et seulement si,
tout barycentre de points de F est dans F.
Preuve.
a) Supposons F s.e.a de E. Alors c’est un espace affine, et tout barycentre de points de F est
nécessairement dans F.
b ) Réciproque. Supposons que tout barycentre de points pondérés de F est dans F. Soit a0 2 F.
- -
Posons F = {a0 x; x 2 F}, et montrons que c’est un s.e.v de E. D’abord on a 0E 2 F car 0E =a0 a0 et
- -
a0 2 F. Ensuite, soient u, v 2 F , s, t 2 K. On a donc u =a0 x, v =a0 y, pour deux points x, y 2 F. Posons
z = (1 s t)a0 + sx + ty, barycentre des points pondérés (a0 ; 1 s t), (x; s), (y; t), dans F. Donc z 2 F
- -
par hypothèse, puis a0 z2 F par définition de F . Or a0 z= su + tv par simple calcul. Donc su + tv 2 F .
Donc F est un s.e.v de E. Comme F = a + F , la preuve est achevée.
- Pk -
Sans rien restreindre, on peut supposer 1 = 1. Donc a1 = a0 + a0 a1 = a0 i=2 i a0 ai 2 A↵(a0 , a2 , . . . , ak ),
ce qui contredit l’hypothèse. CQFD.
Bases Affines
Définition 2.2.3 On dit que qu’une famille {a0 , . . . , ak } de k + 1 points affinement indépendants est une
base affine de l’espace affine (E, ) si, et seulement si, A↵(a0 , . . . , ak ) = E.
Définition 2.2.4 Soit (e1 , . . . , en ) une base de E, et a un point de E. Alors la famille (a, e1 , . . . , en ) est
appelée repère affine de E d’origine a.
Proposition 2.2.1 Si (a, e1 , . . . , en ) est un repère affine de E, alors tout point x 2 E s’écrit d’une façon
unique sous la forme :
Xn
x=a+ xi en .
i=1
Définition 2.2.5 On dit que l’espace affine E sur E est de dimension n fini lorsque l’espace vectoriel E
est de dimension n, c’est–à–dire lorsqu’il existe une base affine de n + 1 points de E.
Preuve (du théorème 2.2.5). Le point (iii) est clairement équivalent à (ii). Montrons (i) () (ii).
- -
a) Supposons que (a0 , . . . , an ) soit une base affine de E. Donc la famille de vecteurs {a0 a1 , . . . a0 , an }
est libre. Il s’ensuit que dim E n. Soit u 2 E. Le point a0 + u est dans A↵(a0 , . . . , an ) = E, donc,
- -
d’après le théorème 2.1.2, on a u 2 Vect({a0 ai }1in ). Donc Vect{a0 ai }1in engendre E, et il s’ensuit
que dim E n.
b) Réciproque. Supposons E est de dimension finie n 0. Le cas n = 0 étant trivial, on suppose
n 1. Soient une base {e1 , . . . , en } de E et a0 2 E. Posons ai = a0 + ei , 1 i n. Il est aisé de vérifier
que la famille de points a0 , . . . , an constitue une base affine de E. ⇤
A retenir absolument :
Corollaire 2.2.1 On suppose que dim E = n < 1, i.e, que E est un espace affine sur E de dimension
n. Alors
1. Toutes les bases affines de E ont le même nombre de points, n + 1.
2. Soit {a0 , . . . , an } une base affine de E. Alors
-
1. pour j 2 [0, n] fixé, {aj ai }0in, i6=j est une base vectorielle de E ;
2. tout x 2 E s’écrit de façon unique sous la forme
n
X -
x = a0 + xi a0 ai , xi 2 K.
i=1
Théorème 2.2.6 Soit un point x 2 E. Alors il existe un unique n + 1–upplet (x0 , . . . , xn ) tel que
n
X
xi = 1, (2.3)
i=0
Noter que, dans la définition ci-dessus, x est c.a des points a0 , . . . , an , selon la terminologie en fin de
remarque 2.2.1.
Remarque 2.2.3 Les coordonnées barycentriques du point aj sont 0, . . . , 0, 1, 0, . . . , 0, où le ”1” est à la
(j + 1)ieme place.
↵1 A1 + · · · + ↵k Ak := {↵1 a1 + · · · + ↵k ak | ai 2 Ai } ⇢ E.
Théorème 2.2.7 Si les Ai sont des s.e.a de E, alors toute combinaison affine des Ai est un s.e.a de E.
Pk
Comparer avec (1.1)- (1.2) ! Preuve Posons B := {↵1 a1 +. . .+↵k ak |k 1, ↵i 2 K, ai 2 A; i=1 ↵i = 1}.
Montrons qu’il est affine. D’abord, il est non vide car il contient A. En e↵et, tout élément a 2 A s’écrit
a = 1 · a 2 A0 . P
Ensuite, soit des points b1 , . . . , bk 2 B, des scalaires s1 , . . . , sk tels que i bi 6= 0. On peut supposer
s1 + · · · + sk = 1 (Cf. Remarque 2.2.1). Posons a = G((b1 , s1 ), . . . , (bk , sk )). Comme chaque bi est le
barycentre de points ai,1 , . . . , ai,ki de A, a↵ectés de coefficients ↵i,1 , . . . , ↵i,ki tels que ↵i,1 +· · ·+↵i,ki = 1,
alors, d’après le théorème 2.2.2, a est le barycentre des ai,j a↵ectés respectivement des poids !i,j := si ↵i,j .
[En e↵et, par calcul direct, on a
X X ki
X X
a= s i bi = si ( ↵i,j ai,j ) = !i,j ai,j .]
i i j=1 (i,j)2I
Or, on a 0 1
X X k
X Xki k
X
!i,j = si ↵i,j = si @ ↵i,j A = si = 1.
i,j i,j i=1 j=1 i=1
Ceci prouve que a est c.a des points ai,j 2 A. Donc a 2 B. Donc B est stable par barycentre. Par
conséquent, il est affine d’après le théorème 2.2.3. Ainsi, B est affine, et contient A. Donc, par définition,
A↵(A) ⇢ B.
Maintenant, montrons A↵(A) B, ce qui impliquera l’égalité, et ce sera terminé. Soit a = ↵1 a1 + . . . +
↵k ak 2 B une c.a. d’éléments de A. Comme A ⇢ A↵(A), a est aussi une c.a. d’éléments de A↵(A).
D’après le théorème 2.2.3, a appartient donc aussi au s.e.a A↵(A). CQFD. ⇤
Propriété 2.3.1 — Une combinaison linéaire finie d’applications affines de E dans F est aussi une
application affine.
— La composée (si elle - est-peut être définie) g f de deux applications f et g affines, de parties
- -
linéaires respectives f et g , est affine et de partie linéaire g f . En particulier,
- la composée d’une
translation et d’une application affine f est affine, de partie linéaire f .
Remarque 2.3.1 L’hyperplan affine f 1 (0) est noté aussi {f = 0}. Dans le cas réel, K = R, il sépare
E en deux sous-ensembles ouverts, f 1 (]0, 1[) également noté {f > 0}, et f 1 (]1, 0[), également noté
{f < 0}.
Par ”f envoie les barycentres sur les barycentres” nous voulons dire que si x = G((a1 , 1 ), . . . , (ak , k )) 2
E, alors f (x) = G((f (a1 ), x1 ), . . . , (f (ak ), xk )) 2 F, pour tous les barycentres possibles (8k, 8aj , 8xj . . .).
P Preuve. ) Hypothèse
P : f est affine. Soit x = G((a1 , x1 ), . . . , (ak , xk )) 2 E et o 2 E. Donc x o=
( i x i (a i o))/( i x i ), puis
- - X X
f (x) = f (o)+ f (x o) = f (o)+ f ( xi (ai o))/( xi ))
i i
1 X - 1 X
= f (o) + P xi f (ai o) = f (o) + P xi (f (ai ) f (o))
i xi i i xi i
= G((f (a1 ), x1 ), . . . , (f (ak ), xk )).
( (Réciproque). Hypothèse : f envoie les barycentres sur les barycentres. Fixons o 2 E. Posons
-- - - -
f (u)
-= f (o+ u) f (o) pour u2 E.- Donc f (x o) = f (x) f (o) pour tout x 2 E. Il s’agit de montrer
- - - - -
que f 2 L(E, F ) et ce sera fini. Soit u, v2 E, , µ 2 K. Posons x = o+ u, y = o+ v, z = o + u +µ v.
Donc z = G((o, 1 µ), (x, ), (y, µ)). Par hypothèse, on a donc
f (z) = f (G((o, 1 µ), (x, ), (y, µ))) = G((f (o), 1 µ), (f (x), ), (f (y), µ)),
CQFD.
Théorème 2.3.4 L’ensemble Fix(f ) est soit vide, soit un sous–espace affine de E.
Preuve. Supposons Fix(f ) 6= ;. Fixons a 2 Fix(f ). Donc,- un point x est dans Fix(f ) si et seulement si
x a =- f (x) f (a), c’est–à–dire, si, et seulement si, f (v) = v, où v = x a. Donc on - a Fix(f ) =
a + Ker (f idE ), qui est le sous–espace affine de E dirigé par le sous–espace vectoriel Ker (f idE ) de
E, et passant par le point a. CQFD.
Théorème 2.3.5 On suppose que E est - de dimension finie. Alors f admet un unique point fixe si, et
seulement si, 1 n’est pas valeur propre de f .
-
Preuve ) Si f admet un unique point fixe alors Fix(f ) est dirigé par 0E , donc Ker (f idE ) = {0E },
-
ce qui prouve que 1 n’est pas valeur propre de f-.
( Supposons que 1 n’est pas valeur propre de f . Soit a 2 E. On a
Explication de cette-
- formule : x et f (x) s’identifient respectivement à - (x) et (f (x)) via ; de plus,
f ( (x)) s’identifie à f (x) pareillement, d’où l’identification de f (x) avec f ( (x)).
-
Conséquence. S’il existe un point a 2 Fix(f ), alors l’analyse de f est équivalente à celle de f . En parti-
culier, lorsque nous étudierons les isométries de E, celles possédant un point fixe seront déjà répertoriées.
-
Supposons maintenant Fix(f ) = ;. Soit a 2 E et u = f (a) a =af (a)6 = 0 . On considère l’application
- - E
affine g = u f sur E. Ainsi, g(x) = f (x) u, pour tout x 2 E. Donc g =f et g(a) = f (a) (f (a) a) = a.
Donc g est une application- affine de même application linéaire tangente que f , et g possède au moins un
point fixe. On étudie g via f comme dans le cas précédent, puis on écrit f = u g.
Remarque
Dans l’écriture ci–dessus, il n’y a pas nécessairement commutation entre la translation u et g. On fait
donc mieux avec le résultat suivant.
Théorème 2.3.6 Si f vérifie la relation
- -
E = Ker (f idE ) Im (f idE ), (2.5)
g = ⌧ u f =⌧ u ⌧u 0 h = ⌧u 0 u h,
0
a = g(a) = ⌧u0 u h (a) = h(a) + u u,
0
- - - - -
u u =
h(a) a = h(a) h(b) + b a =ab h (ab) = (idE h)(ab).
- -- -
Ceci prouve que u u0 2 Im (f id) (puisque f =g =- h). Cependant, on- a aussi g(a + u) = g(⌧u (a))-=
-
⌧u (g(a)) = u + g(a), donc -u = g(a + u) g(a) =g (u) =- f (u), donc (id f )(u)- - u 2 Ker (id f ).
= 0. Donc
De même, u0 2 Ker (id f ), puis u u0 2 Ker (id f ). Or on a Ker (id f ) \ Im (f id) = {0} par
hypothèse (2.5). On en déduit u = u0 , puis g = ⌧u0 u h = ⌧0 h = h. CQFD.
-
Remarque 2.3.2 Dans la preuve, on voit que le vecteur u de la translation appartient à Ker - (id f ) et
-
qu’il est la projection orthogonale sur Ker (id f ) d’un vecteur quelconque de la forme af (a), a 2 E.
- - 1 -
Preuve. Supposons f bijective. Soit o 2 E. Posons o0 = f (o) et g : F ! E telle que g(x0 ) = o+ f (o0 x0 ),
- 1
pour tout x 2 F. Un calcul simple montre que g est affine de partie linéaire f , g f est l’identité sur
E, f g est l’identité sur F.
Réciproquement, supposons f bijective. Fixons o 2 E-et soit o0 = f (o). On identifie alors tout point x
-
de E (respect.,
- x0 de F) au vecteur 0 0
-ox de E (respect., o x de F ), ce qui permet d’identifier l’application
linéaire f à l’application f . Donc f est bijective, et le point précédent permet de conclure que f 1 est
- 1
affine de partie linéaire f . CQFD
Dans le cas particulier E = F (avec donc E = F ), nous obtenons le
Corollaire 2.3.1 L’ensemble des applications affines inversibles de E dans lui-même, muni de la loi de
composition des applications, constitue un groupe (non abélien en général) noté GA(E).
f˜(z) = ↵z + z̄ + , 8z 2 C,
Théorème 2.3.9 Si les p formes affines f1 , . . . , fp sont indépendantes alors la seule combinaison linéaire
finie constante des fi est la combinaison linéaire triviale, i.e,
Pp
si l’application i=1 i fi est constante, alors, nécessairement, tous les coefficients de la combinaison
linéaire sont nuls : 1 = · · · = p = 0.
Pp
Preuve. - Soit ( 1 , . . . , p ) 2 Kp tel -que f := - i=1 i fi est constante. Alors son application linéaire
Pp
tangente f est nulle. Mais on a aussi f = i=1 i fi . Donc, par hypothèse, tous les i sont nuls. CQFD.
Exemple 2.3.3 Soit E = Rn muni de la base canonique {"1 , . . . , "n }, et considéré comme espace affine
sur lui–même. Soient a = (a1 , . . . , an ) 2 E, et b 2 R. Posons f (x) =< a, x >, où <, > désigne le produit
scalaire sur Rn euclidien. Donc f est une forme linéaire sur Rn . Remarquer que b (application constante
x 7! b), f et f b sont donc des formes affines sur E = E. Posons S = {x 2 Rn ; f (x) = b}. Comme
le singleton {b} constitue un sous–espace affine de E direction {0E }, et comme f est affine, - il en résulte
que S est soit vide, soit est un sous–espace affine de-E. S’il n’est pas vide, sa direction S coincide avec
f 1 (0E ) = {x 2 E; < a, x >= 0 = [a]? }. Si a 6= 0E , S est un hyperplan vectoriel de dimension n 1, et
b
si S 6= ;, alors S est l’hyperplan affine dirigé par S et passant par le point kak 2 a. Si a = 0E alors f ⌘ 0
2
et donc S = ; si b 6= 0, S = E si b = 0.
Théorème 2.3.10 Soit E un espace affine sur E de dimension finie n. Soit F un sous–espace affine de
E. Alors F est de dimension finie m n, et il existe p = n m formes affines indépendantes f1 , . . . , fp
telles F = {x 2 E; fi (x) = 0, 1 i p}.
2.4. CONVEXITÉ 23
Preuve. Rappelons que p formes affines f1 , . . . , fp sont indépendantes si et seulement si la seule combi-
naison linéaire nulle de ces formes est celle où tous les coefficients sont nuls.
a) Supposons F s.e.a de E. Soit F sa direction associée. Donc F est un s.e.v de E de dimension finie
m 2 [0, n]. Si m- = n alors- F = E, F = E, et terminé.
- Sinon, il existe donc p = n m 1 formes - linéaires
-
indépendantes f1 , . . . , fp telles F = {u 2 E; fi (u) = 0, 1 i p}. Soit a 2 F et fi (x) =fi (ax),
1 i p. Les applications fi sont toutes des formes affines sur E et sont indépendantes entre elles.
Posons F 0 = {x 2 E; fi (x) = 0, 1 i p} = \pi=1 fi 1 ({0}). Noter que fi (a) = 0 pour tout i. Donc F 0
est non vide, car il contient a, et est l’intersection des ensembles fi 1 ({0}), qui sont des s.e.a de E, d’après
le théorème 2.3.2. Donc, d’après le théorème 2.1.2, F 0 est aussi un s.e.a de E. Il est de même direction F
que F et contient a 2 F. Donc F 0 = F.
b) Réciproque. Supposons F = {x 2 E; fi (x) = 0, 1 i p}, où les fi sont des formes affines
indépendantes. Soit a 2 F. Donc fi (a) = 0 pour tout i. Posons i (u) = fi (a + u), pour u 2 E et
i 2 [1, p]. Il est facile de voir que les i sont les parties linéaires des fi , et linéairement indépendantes.
Donc F := {x 2 E; fi (x) = 0, 1 i p} est un s.e.v de E de dimension m = n p. Comme F est dirigé
par F , on a donc F de dimension n p.
2.4 Convexité
2.4.1 Présentation
On considère dans cette section un espace affine réel E de dimension n, de direction l’espace vectoriel
réel E. Souvent, nous supposerons E muni d’une norme k · k. Dans ce cas, nous posons, pour r 2 R,
B(a, r) := {x 2 E| kx ak < r}, B 0 (a, r) := {x 2 E| kx ak r}, S(a, r) := {x 2 E| kx ak = r}.
0
Les ensembles B(a, r), B (a, r), S(a, r), sont appelés respectivement boule ouverte de centre a et de rayon
r, boule fermée de centre a et de rayon r, sphère de centre a et de rayon r. Si r < 0, ils sont tous vides.
Si r = 0, B(a, r) est vide tandis que et B 0 (a, r) = S(a, r) = {a}.
L’espace E est alors muni d’une topologie associée (l’ensemble des ouverts dans E) à la norme k · k, mais
cette topologie ne dépend pas de la norme k · k choisie, conséquence du fait que E est de dimension finie,
et que, donc, toutes les normes sur E sont équivalentes (penser à l’espace affine Rn muni de la topologie
provenant d’une quelconque norme, usuelle ou non).
Note. La notion de topologie n’est pas nécessaire pour avoir celle de convexité. Cependant, elles
donnent ensemble des résultats parmi les plus fondamentaux de l’analyse fonctionnelle.
Rappelons :
1. un ensemble A ⇢ P est ouvert si, et seulement si, par définition, pour tout a 2 U il existe r > 0
tel que B(a, r) ⇢ A ;
2. un fermé est, par définition, le complémentaire dans E d’un ouvert ;
3. à un ensemble quelconque A ⇢ E on associe un ensemble adhérent, Ā, qui est le plus petit fermé
contenant A, ainsi qu’un ensemble intérieur, A , qui est le plus grand ouvert inclus dans A.
4. A = {a 2 A| il existe r > 0 tel que B(a, r) ⇢ A}.
5. a 2 Ā () il existe une suite (an )n d’éléments an 2 A qui converge vers a.
Par exemple, ; et E sont à la fois ouverts et fermés ; B 0 (a, r) et S(a, r) sont fermés tandis que B(a, r) est
ouvert ; de plus, B(a, r) = B 0 (a, r), S(a, r) = ;, B 0 (a, r) = B(a, r).
Preuve. Rappelons que p formes affines f1 , . . . , fp sont indépendantes si et seulement si la seule combi-
naison linéaire nulle de ces formes est celle où tous les coefficients sont nuls.
a) Supposons F s.e.a de E. Soit F sa direction associée. Donc F est un s.e.v de E de dimension finie
m 2 [0, n]. Si m- = n alors- F = E, F = E, et terminé.
- Sinon, il existe donc p = n m 1 formes - linéaires
-
indépendantes f1 , . . . , fp telles F = {u 2 E; fi (u) = 0, 1 i p}. Soit a 2 F et fi (x) =fi (ax),
1 i p. Les applications fi sont toutes des formes affines sur E et sont indépendantes entre elles.
Posons F 0 = {x 2 E; fi (x) = 0, 1 i p} = \pi=1 fi 1 ({0}). Noter que fi (a) = 0 pour tout i. Donc F 0
est non vide, car il contient a, et est l’intersection des ensembles fi 1 ({0}), qui sont des s.e.a de E, d’après
le théorème 2.3.2. Donc, d’après le théorème 2.1.2, F 0 est aussi un s.e.a de E. Il est de même direction F
que F et contient a 2 F. Donc F 0 = F.
b) Réciproque. Supposons F = {x 2 E; fi (x) = 0, 1 i p}, où les fi sont des formes affines
indépendantes. Soit a 2 F. Donc fi (a) = 0 pour tout i. Posons i (u) = fi (a + u), pour u 2 E et
i 2 [1, p]. Il est facile de voir que les i sont les parties linéaires des fi , et linéairement indépendantes.
Donc F := {x 2 E; fi (x) = 0, 1 i p} est un s.e.v de E de dimension m = n p. Comme F est dirigé
par F , on a donc F de dimension n p.
2.4 Convexité
2.4.1 Présentation
On considère dans cette section un espace affine réel E de dimension n, de direction l’espace vectoriel
réel E. Souvent, nous supposerons E muni d’une norme k · k. Dans ce cas, nous posons, pour r 2 R,
B(a, r) := {x 2 E| kx ak < r}, B 0 (a, r) := {x 2 E| kx ak r}, S(a, r) := {x 2 E| kx ak = r}.
0
Les ensembles B(a, r), B (a, r), S(a, r), sont appelés respectivement boule ouverte de centre a et de rayon
r, boule fermée de centre a et de rayon r, sphère de centre a et de rayon r. Si r < 0, ils sont tous vides.
Si r = 0, B(a, r) est vide tandis que et B 0 (a, r) = S(a, r) = {a}.
L’espace E est alors muni d’une topologie associée (l’ensemble des ouverts dans E) à la norme k · k, mais
cette topologie ne dépend pas de la norme k · k choisie, conséquence du fait que E est de dimension finie,
et que, donc, toutes les normes sur E sont équivalentes (penser à l’espace affine Rn muni de la topologie
provenant d’une quelconque norme, usuelle ou non).
Note. La notion de topologie n’est pas nécessaire pour avoir celle de convexité. Cependant, elles
donnent ensemble des résultats parmi les plus fondamentaux de l’analyse fonctionnelle.
Rappelons :
1. un ensemble A ⇢ P est ouvert si, et seulement si, par définition, pour tout a 2 U il existe r > 0
tel que B(a, r) ⇢ A ;
2. un fermé est, par définition, le complémentaire dans E d’un ouvert ;
3. à un ensemble quelconque A ⇢ E on associe un ensemble adhérent, Ā, qui est le plus petit fermé
contenant A, ainsi qu’un ensemble intérieur, A , qui est le plus grand ouvert inclus dans A.
4. A = {a 2 A| il existe r > 0 tel que B(a, r) ⇢ A}.
5. a 2 Ā () il existe une suite (an )n d’éléments an 2 A qui converge vers a.
Par exemple, ; et E sont à la fois ouverts et fermés ; B 0 (a, r) et S(a, r) sont fermés tandis que B(a, r) est
ouvert ; de plus, B(a, r) = B 0 (a, r), S(a, r) = ;, B 0 (a, r) = B(a, r).
Théorème 2.4.1 L’intersection d’une famille (finie ou non) de convexes est un convexe.
Preuve Soit K = \i2I Ki où I 6= ; et les Ki sont convexes. Soit x, y 2 K. Pour un quelconque i 2 I,
on a [x, y] ⇢ Ki puisque x, y 2 Ki et Ki est convexe. Donc [x, y] ⇢ K. CQFD. ⇤
Remarque 2.4.1 Une union de convexes n’est pas convexe en général. Penser à l’union de deux droites
distinctes dans E.
Preuve 1) K convexe ? Soit x, y 2 K . Soit z 2 [x, y] : z = tx + (1 t)y pour un t 2 [0, 1]. Il s’agit de
prouver que z 2 K . On a z 2 K puisque x, y 2 K et K est convexe. Comme x, y 2 K , il existe r, s > 0
tels que B(x, r) ⇢ K et B(y, s) ⇢ K. On suppose, sans rien restreindre, 0 < r s. Montrons que la boule
B(z, s) est contenue dans K, ce qui établira z 2 K . Soit w 2 B(z, s). On a k(x+w z) xk = kw zk < s,
donc x + w z 2 B(x, s) ⇢ K. De même, y + w z 2 B(y, s) ⇢ K. Par convexité de K, en remarquant
le relation w = w z + tx + (1 t)y = t(x + w z) + (1 t)(y + w z), on en déduit w 2 K. Donc
B(z, s) ⇢ K. Ceci prouve que z 2 K . CQFD.
2) K̄ convexe ? Soit x, y 2 K̄. Soit z 2 [x, y] : z = tx + (1 t)y pour un t 2 [0, 1]. Il existe des suites
(xn )n , (yn )n d’éléments de K telles que xn ! x et yn ! y quand n ! 1. Donc la suite zn = txn +(1 t)yn
converge vers z. Or zn 2 K car K est convexe et xn , yn 2 K. Donc zn 2 K̄. CQFD. ⇤
K := \i2I i
1
(] 1, 0[), K 0 := \i2I i
1
(] 1, 0]). (2.6)
Les ensembles K et K 0 sont donc des convexes. De plus, K 0 est fermé, car c’est une intersection de fermés,
et, si I est finie, alors K est ouvert, car c’est alors une intersection finie d’ouverts.
2.4. CONVEXITÉ 25
Définition 2.4.2 Un ensemble K (respect., K 0 ) de la forme (2.6), avec la famille I FINIE, est appelé
polyèdre ouvert (respect., fermé) convexe.
Par exemple, dans la figure 2.1 nous construisons le polyèdre ouvert K ⇢ R2 par :
1 1
K = {(x, y) 2 R2 | x + y > 2; x + y > 4; x + y < 1; x 3y > 6}.
9 6
1
Les formes affines utilisées sont 1 (x, y) = 9x +y 2, 2 (x, y) = x + 16 y 4, 3 (x, y) = x+y 1,
4 (x, y) = x 3y 6.
Figure 2.1 –
y
y
x/9 +y>2
x/9 +y=2 x/9 +y=2 x+y/6=4
x/9 +y<2
Convexe K
O x
O x
x+y=1
x-3y=6
Remarque 2.4.3 Dans une combinaison convexe ↵1 a1 + . . . + ↵k ak , on a les conditions suivantes sur
les scalaires : X
↵i = 1 ET 0 ↵i 1 8i. (2.7)
i
26 CHAPITRE 2. GÉOMÉTRIE AFFINE
Rappelons qu’un ensemble K est convexe si, et seulement si, K = Conv(K). Donc, le théorème 2.4.5
non seulement caractérise l’enveloppe convexe d’un ensemble donné mais signifie aussi qu’un ensemble
est convexe si, et seulement si, il contient toutes les combinaisons convexes
Pk de ses propres points.
Preuve Posons Q := {↵1 a1 + · · · + ↵k ak | k 1, 0 ↵i 1, i=1 ↵i = 1, ai 2 K}, l’ensemble
de toutes les combinaisons convexes de points de K. Il est clair que Q contient K. Montrons que Q est
convexe. Soit x, y 2 Q et z = tx + (1 t)y 2 [x, y]. On peut écrire
x = ↵1 a1 + · · · + ↵k ak , y= 1 b1 + ··· + l bl ,
avec
k
X l
X
0 ↵i , i 1, ↵i = i = 1, ai , bi 2 K.
i=1 i=1
Donc
donc z est combinaison convexe de points de K. Donc z 2 Q par définition de Q. Ainsi, Q est convexe.
Par conséquent, Conv(K) ⇢ Q, d’après la définition de Conv(K).
Montrons Conv(K) Q. Soit a 2 Q. Donc a est de la forme a = ↵1 a1 + . . . + ↵k ak , pour un entier
k 1, des scalaires ↵i 2 [0, 1] dont la somme fait 1, et des points ai 2 K. Montrons a 2 Conv(K) par
récurrence sur K, et ce sera terminé. Si k = 1 alors a = a1 2 K ⇢ Conv(K), donc ok. Supposons k > 1
et que toute combinaison convexe d’au plus k 1 points de K appartient à Conv(K). Si ↵k = 1, alors
a = ak 2 Conv(K), d’après cette hypothèse de récurrence. Sinon, on écrit a = (1 ↵k )a0 + ↵k ak , avec
↵1 ↵k 1
a0 := a1 + . . . + ak 1.
1 ↵k 1 ↵k
D’après l’hypothèse de récurrence, on a a0 2 Conv(K). Donc a 2 [a0 , ak ]. Or Conv(K) est convexe et
contient a0 et ak . Donc a 2 Conv(K). CQFD. ⇤
Comme il n’est pas pratique de tester toutes les combinaisons convexes des points d’un ensemble,
nous avons le résultat suivant de Carathéodory. Rappelons que n = dim E.
Théorème 2.4.6 Soit A ⇢ E. Alors tout élément de Conv(A) peut s’écrire comme combinaison convexe
de n + 1 éléments de A.
Preuve Supposons A non vide - sinon il n’y a rien à démontrer - et soit x 2 Conv(A). Donc x est
combinaison convexe de k 1 points de A :
k
X
x = ↵1 a1 + · · · + ↵k ak | k 1, 0 ↵i 1, ↵i = 1, ai 2 A.
i=1
Si k < n+1 il n’y a rien à démontrer. Supposons donc k > n+1. Montrons que x est combinaison convexe
de k 1 points de A : par une récurrence triviale, cela suffira à conclure. Supposons, de plus, tous les
↵i > 0, sinon, on peut éliminer un terme dans la combinaison convexe donnant x, et c’est achevé. Comme
k 1 > n = dim E, les points a1 , . . . , ak sont affinement exemple, ak 2 A↵(a1 , . . . , ak 1 ).
P dépendants. ParP
Donc, il existe des scalaires 1 , . . . , k 1 tels que i<k i = 1 et ak = i<k i ai . On pose, k = 1 et,
2.5. ISOMÉTRIES AFFINES 27
Pk Pk
pour t 2 R, ↵it := ↵i + t i . Alors i=1 i ai est un vecteur car i=1 i = 0 (Cf. remarque 2.2.1, point
Pk Pk
2.), et c’est le vecteur nul car i=1 i ai = i=1 i (ai ak ) = 0E . Donc
k
X k
X k
X k
X k
X k
X
↵it = ↵i + t i = 1, ↵it ai = ↵i ai + t i ai = x.
i=1 i=1 i=1 i=1 i=1 i=1
C’est presque terminé, il suffit de trouver un t 2 R pour lequel les ↵it sont tous positifs et l’un d’eux
s’annule. Pour cela, posons
↵i
⇤ := { 6 0} ⇢ R+ .
; i=
| i|
↵
L’ensemble ⇤ est non vide car |↵kk| = ↵k 2 ⇤, est fini. Donc il est minoré par une valeur = | jj | , pour
un j 2 {1, . . . , k}. Posons t = si j < 0 et t = si j > 0. Donc, si i = 0, alors ↵it = ↵i 0 ; si
↵
t ↵i
i 6= 0 alors ↵i = | i |( | i | + t | i | )
i ↵i
| i |( | i | ) 0. Enfin, ↵jt = | j |( | jj | ) = 0. CQFD. ⇤
Exemple 2.4.3 Soient trois points A,B,C non alignés dans le plan affine R2 . Alors T := Conv({A, B, C})
est le triangle (plein) fermé de sommets A, B, C. Tout point M de T s’écrit sous la forme (unique)
M = ↵A + B + C, ↵+ + = 1, 0 ↵, , 1.
Théorème 2.4.7 Soit A ⇢ E et f 2 A(E, F) une application affine. Alors f (Conv(A)) = Conv(f (A)).
Preuve Posons K 0 = f (Conv(A)) = {f (x); x 2 Conv(A)}. D’après le théorème 2.4.3 (1), on sait que
K 0 est convexe. De plus, K 0 contient f (A) puisque A ⇢ Conv(A). Donc par définition, Conv(f (A)) ⇢ K 0 .
Réciproquement, montrons que K 0 ⇢ Conv(f (A)). Soit y 2 K 0 . Donc il existe x 2 Conv(A) tel que
y = f (x). On sait que x est combinaison convexe de points a1 , . . . , ak dans A :
x = ↵1 a1 + · · · + ↵k ak .
Définition 2.5.1 Une isométrie de l’espace affine E dans lui–même est une bijection affine sur E qui
préserve les distances.
Autrement dit, si f est une bijection affine de E dans lui–même, alors f est une isométrie si, et seulement
si, satisfait :
dist(f (x), f (y)) = dist(x, y), 8x, y 2 E.
Théorème 2.5.1 L’ensemble des isométries affines de E, noté iso(E), est un sous–groupe de (GA(E), ).
Preuve : exercice.
Théorème 2.5.2 Soit f une application affine sur E. Alors f est une isométrie affine si, et seulement
si, son application linéaire tangente est une isométrie vectorielle sur E.
28 CHAPITRE 2. GÉOMÉTRIE AFFINE
-
Preuve. ) . Soit f une isométrie affine de E. Son application linéaire associée f est donc un automor-
- -
phisme de E. Soit a 2 E et soit u un vecteur u 2 E. Posons m = a + u. Donc - k f (u)k = k f (m a)k =
kf (m) f (a)k. Par l’hypothèse que f préserve les distances, on a donc k f (u)k = km ak = kuk. Donc
-
f est une isométrie vectorielle.
( . La réciproque est aussi évidente. CQFD.
-
Il résulte de ce théorème que les propriétés d’une isométrie f dérivent directement de celles de f .
Pour cela, on peut utiliser le résultat de la section 2.3.6. En particulier, on peut classer facilement les
isométries affines ayant au moins un point fixe (commun à toutes ces isométries–là, puisqu’on a déjà
classé les isométries vectorielles.
Définition 2.5.2 Une isométrie-affine f est dite directe, (respectivement, indirecte) si, et seulement si,
son application linéaire
- tangente f est une isométrie
- directe (respectivement, indirecte), c’est–à–dire, si,
et seulement si, det f = 1 (respectivement, det f = 1). Une isométrie directe (respectivement, indirecte)
est appelée aussi déplacement (respectivement, antidéplacement).
f = g ⌧u = ⌧u g,
Figure 2.2 –
M: point initial
x M x P
P: translaté de M dans la direction ⟂ à D
D⟂
x M’ x M’’
Théorème 2.5.4 Toute isométrie affine f directe (déplacement) est caractérisée par
f˜(z) = ↵z + , 8z 2 C,
f˜(z) = ↵z̄ + , 8z 2 C,
les points d’une base affine B de E, alors cette base B est transformée en une autre base B 0 par une telle
isométrie, et la connaissance de B, B 0 détermine l’isométrie.
Définition 2.6.1 Une isométrie f laisse X invariant si, et seulement si, 8x 2 X, f (x) 2 X.
Nous posons IS(X) l’ensemble des isométries laissant X invariant.
Proposition 2.6.1 (IS(X), ) est un groupe.
Preuve : exercice.
Propriété 2.6.1 Si X est fini alors il existe un point de X qui est fixe pour tout élément de IS(X).
P
Preuve Puisque X est fini, on peut définir son barycentre O = a2X a/(card X). Soit f 2 IS(X).
Puisque f (X) = X on a donc f (O) = O, puisque f préserve les barycentres. CQFD. ⇤
Propriété 2.6.2 L’enveloppe convexe de X est invariant globalement par tout élément de IS(X).
Preuve Soit f 2 IS(X). D’après le théorème 2.4.7, on a f (Conv(X)) = Conv(f (X)) = Conv(X).
CQFD. ⇤
Remarque 2.6.1 La propriété peut s’étendre aux ensembles ayant un volume fini.
Contre-exemple si X n’a pas de volume fini. Posons X = Nn ⇢ Rn . Toute translation ⌧u de vecteur u 6= 0
à coefficients entiers est un élément de IS(X) et sans point fixe.
Exemple 2.6.1 Soit un carré non trivial X = (A, B, C, D) dans le plan. (On suppose que les deux
diagonales sont AC et BD). Alors
IS(X) = {id, sIK , sJL , sAC , sBD , R(O, ⇡/2), R(O, 3⇡/2), sO },
où O est le milieu du carré, les points I, J, K, L, désignent respectivement le milieux des segments AB,
BC, CD, DA, SM P désigne la symétrie axiale d’axe la droite M P , sO désigne la symétrie centrale de
centre O. R(O, ✓) est la rotation de centre O et d’angle ✓.
Preuve. Posons G = {id, sIK , sJL , sAC , sBD , R(O, ⇡/2), R(O, 3⇡/2), sO }. Il est assez facile de voir que
G ⇢ IS(X). Réciproque. Soit f 2 IS(X). Puisque f (X) = X, f préserve le barycentre O de X. Donc
f (O) = O. Il y a quatre cas pour f (A) :
1. f (A) = A. Alors la droite OA est fixe. Donc f (C) = C. Il reste soit f (B) = B, impliquant que f
laisse invariant la base affine {A, B, C}, et par conséquent, f = id, soit f (B) = D et f (D) = B,
impliquant f = sAC .
2. f (A) = B. Si f (B) = A alors f laisse invariant I, donc la droite OI, donc f est la symétrie
axiale sOI = sIK . Si f (B) = C alors reste f (C) = D, f (D) = A, et donc f = R(O, ⇡/2). Le cas
f (B) = D est interdit car impliquerait kf (A) f (B)k = kB Dk = 6 kA Bk.
3. f (A) = C. On regarde f (B). Si f (B) = B on revient à un cas similaire au 1), et donc f = sBD .
Si f (B) = D alors f = sO .
4. f (A) = D. Similaire au cas 2). On trouve f 2 sJL ou f = R(O, 3⇡/2).
Chapitre 3
Coniques et quadriques
Dans tout ce chapitre, E désigne un K-espace vectoriel de dimension finie, n = dim E, et est une
forme bilinéaire symétrique non dégénérée, associée à la forme quadratique q. On dit aussi que q est
propre.
Définition 3.1.1 — Deux vecteurs x, y 2 E sont dits orthogonaux si, et seulement si, (x, y) = 0.
On écrit alors x ? y.
— Un vecteur x 2 E est dit isotrope si, et seulement si, x est orthogonal à lui-même (x ? x). Par
exemple, 0E est isotrope.
— Soit A ⇢ E. L’orthogonal de A est l’ensemble A? := {y 2 E | 8x 2 A, x ? y}. C’est un s.e.v de
E. Si A est réduit à un seul élément, x, on note aussi A? = x? .
— Un s.e.v V ⇢ E est dit isotrope si, et seulement si, V \ V ? 6= {0E }. Il revient au même de dire
que |V est dégénérée.
— Un s.e.v V ⇢ E est dit totalement isotrope si, et seulement si, V ⇢ V ? . Il revient au même de
dire que |V est nulle.
Définition 3.1.2 Une base B = {e1 , . . . , en } de E est dite orthogonale si, et seulement si, (ei , ej ) = 0
pour tout i 6= j.
Dans une telle base, la matrice de est diagonale. Nous pouvons admettre sans mal la
33
34 CHAPITRE 3. CONIQUES ET QUADRIQUES
Proposition 3.1.2 Soient A et A0 les matrices respectives dans la même base B de deux formes quadra-
tiques q et q 0 sur E. Alors
q ⇠ q 0 () 9P 2 GL(E) | A0 = tP AP.
Il est évident que la relation ⇠ est une relation d’équivalence sur l’ensemble des formes quadratiques sur
E. Le problème de classification des formes quadratiques consiste à déterminer les classes d’équivalence
pour la relation ⇠.
Dans le cas complexe, K = C, nous avons le
Théorème 3.1.1 On suppose K = C. Soit B = (e1 , . . . , en ) une base de E. Deux formes quadratiques
sont équivalentes si, et seulement si, elles ont même rang. Toute forme quadratique sur E de rang R est
équivalente à la forme suivante :
R
X n
X
qR (x) = x2i , x= xi ei .
i=1 i=1
Preuve La condition de rang est nécessaire d’après la proposition 3.1.2. Soit q une forme quadratique
ayant A pour matrice symétrique de rang R. On sait qu’il existe une base orthogonale B1 = (u1 , . . . , un )
pour q. Donc il existe P 2 GL(Cn ) telle que D := tP AP soit une matrice diagonale. Quitte-à changer
l’ordre des vecteurs dans B1 , nous avons D égale à la diagonale (d1 , . . . , dn ), où di 6= 0 si 1 i R
et di = 0 si i > R. On pose µi 2 C⇤ tel que µ2i = di , puis on remplace B1 par la base orthogonale
B = (e1 , . . . , en ) où ei = µi ui si i R, et ei = ui si i > R. Dans la base B,Pla matrice de q est laP
diagonale
n n
(1, . . . , 1, 0, . . . , 0), avec R fois le nombre un. Ceci signifie que q(x) = qR ( i=1 xi ei ) pour x = i=1 xi ei .
⇤
Dans le cas réel, K = R, nous avons le
Théorème 3.1.2 (Sylvester) On suppose K = R. Soit B = (e1 , . . . , en ) une base de E. Toute forme
quadratique sur E est équivalente à l’une, et une seule, des formes suivantes :
r
X r+s
X n
X
qr,s (x) = x2i x2i , x= xi ei .
i=1 i=r+1 i=1
Preuve Soit q une forme quadratique non dégénérée sur E. D’après les résultats de la section 1.1.3, il
existe une base B 0 = (e01 , . .p . , e0n ), diagonale pour q. La matrice
p D1 de q dans cette base est une diagonale,
(a1 , . . . , an ). Posons ui = 1/ai e0i 2 E si ai > 0, ui = 1/ai e0i 2 E si ai < 0, ui = e0i si ai = 0. Donc,
si ai 6= 0, alors q(ui ) = q(e0i )/|ai | = ai /|ai | (le signe de ai ). Par conséquent, dans la base orthogonale
(u1 , . . . , un ), la matrice de q est une diagonale D0 ayant pour éléments diagonaux soit 0, soit 1, soit
1. Quitte-à faire une permutation sur les vecteurs ui dans cette base, nous pouvons supposer que les
éléments diagonaux de D0 sont ordonnés en (1, . . . , 1, 1, . . . , 1, 0, . . . , 0). Si r est le nombre de 1 et s
le nombre de 1, alors la matrice de q dans cette base est identique à celle de qr,s dans B. Donc q et qr,s
sont équivalentes.
Montrons l’unicité. Il s’agit de prouver que qr,s et qr0 ,s0 ne sont pas équivalentes si (r, s) 6= (r0 , s0 ).
Supposons q(r, s) et q(r0 , s0 ) équivalentes. Donc r + s = rg(q(r, s)) = rg(q(r0 , s0 )) = r0 + s0 , et il existe une
base B 0 = (e01 , . . . , e0n ) telle que, si (x01 , . . . , x0n ) désignent les coordonnées de x dans B 0 , alors
0 0
r
X rX +s0
2 2
q(r, s)(x) = x0 i x0 i .
i=1 i=r 0 +1
3.1. COMPLÉMENTS SUR LES FORMES QUADRATIQUES 35
Vérifions que la famille {e1 , . . . , er , e0r0 +1 , . . . , e0n } est libre. Soit une combinaison linéaire nulle de ces
vecteurs :
↵1 e1 + . . . + ↵r er + r0 +1 e0r0 +1 , . . . + n e0n = 0. (3.1)
0 0
Posons x = ↵1 e1 + . . . + ↵r er = ( r 0 +1 er 0 +1 , . . . + n en ). Alors
0
r
X rX +s0
0 ↵i2 = q(r, s)(x) = 2
j 0.
i=1 j=r 0
la sous-famille {er0 +s0 +1 , . . . , e0n } est libre. Donc {e1 , . . . , er , e0r0 +1 , . . . , e0n } est bien libre, ce qui implique
r0 r. De même, on prouve r r0 . Donc r = r0 . Comme r + s = r0 + s0 on obtient s = s0 . ⇤
Corollaire 3.1.1 1) Une forme quadratique réelle est non dégénérée si, et seulement si, r + s = n.
2) Une forme quadratique réelle est positive si, et seulement si, s = 0.
3) Une forme quadratique réelle définit un produit scalaire si, et seulement si, r = n (ceci impliquant
s = 0).
La méthode de Gauss qui suit permet d’obtenir de façon pratique à partir d’une forme quadratique
réelle quelconque dans Rn une forme quadratique équivalente comme vue au Théorème 3.1.2 (Sylvester),
donc d’obtenir la signature de cette forme quadratique.
n
X1 n
X1
q(X) = an,n x2n + 2( ai,n xi )xn + ai,j xi xj .
i=1 i,j=1
Le deux premiers termes du membre de droite dans cette relation forment le début d’un carré. S’il
existe ai,i 6= 0, par exemple, an,n 6= 0, on écrit
n
X1 n
X1 n
X1
ai,n ai,j
q(X) = an,n (xn + xi ) 2 ( xi ) 2 + ai,j xi xj .
i=1
an,n i=1
an,n i,j=1
Pn 1 ai,n
En posant yn = xn + i=1 an,n xi , nous obtenons
où q 0 est une forme quadratique de la variable X 0 = (x1 , . . . , xn 1 ), qui est indépendante de yn . Il
ne reste plus qu’à recommencer la procédure si n 1 > 1.
Cas 2. Si tous les ai,i sont nuls, il existe un ai,j 6= 0 pour un i 6= j, par exemple, an 1,n 6= 0. En se
rappelant que 4ab = (a + b)2 (a b)2 , on écrit alors
n
X1 n
X1 n 1 n 1 n
X1
1 X 1 X
q(X) = 2( ai,n xi )xn + ai,j xi xj = ( ai,n xi + xn )2 ( ai,n xi xn ) 2 + ai,j xi xj .
i=1 i,j=1
2 i=1 2 i=1 i,j=1
36 CHAPITRE 3. CONIQUES ET QUADRIQUES
Pn 1 Pn 1
En posant yn 1 = i=1 ai,n xi + xn et yn = i=1 ai,n xi xn , nous avons
n
X1
yn 1 + yn = 2 ai,n xi ,
i=1
donc
n
X2 ai,n 1
xn 1 = + (yn 1 + yn ),
i=1
an 1,n 2
puis
1 2 1 2
q(X) =
y y + q 00 (X 00 ) + ...,
2 n 1 2 n
où q 00 est une forme quadratique de la variable X 00 = (x1 , . . . , xn 2 ), qui est indépendante de yn 1
et de yn . Il ne reste plus qu’à recommencer la procédure si n 2 > 1.
Rappel
Un polynôme f de n variables x1 , . . . , xn 2 K, et de degré deux est de la forme
n
X n
X
f (x1 , . . . , xn ) = ai,j xi xj + bi xi + c, (3.2)
i,j=1 i=1
où les paramètres ai,j , bi , c, sont des scalaires, la matrice A := (ai,j )1i,jn n’étant pas nulle, et
symétrique : ai,j = aj,i .
Définition 3.2.1 Soit f un polynôme de n variables, et de degré deux. L’équation f (m) = 0 est appelée
quadrique de l’espace affine E. Lorsque deux polynômes f et g sont proportionnels, les quadriques f (m) =
0 et g(m) = 0 sont identiques, par définition.
L’ensemble f 1 ({0}) des zéros de l’équation f (m) = 0 est appelée image de la quadrique f (m) = 0, ou
encore, par abus de langage, quadrique affine de E.
Si n = 2, la quadrique est appelée conique.
Objectif
Classifier les quadriques f (m) = 0 en fonction d’invariants discrets comme le rang de la matrice
A = (ai,j ), la signature de la forme quadratique ayant A pour matrice (dans le cas réel), etc. Classifier les
quadriques dans un espace affine E signifie que si deux polynômes f et g (de degrés deux) ont les mêmes
invariants, il existe alors un automorphime affine h sur E tel que f = g h.
Nous verrons plus précisément le cas des quadriques dans un espace euclidien comme Rn . Classifier les
quadriques dans un espace euclidien signifie que si deux polynômes f et g (de degrés deux) ont les mêmes
invariants, il existe alors une isométrie affine h sur E tel que f = g h.
Il est possible aussi de chercher une classification des quadriques projectives, qui sont des quadriques dans
un espace projectif. Cet objectif sera abordé dans le dernier chapitre du cours.
3.2. CONIQUES, QUADRIQUES 37
Définition 3.2.2 Soient f (m) = 0 et g(m) = 0 deux quadriques dans un espace affine E. Elles sont dites
équivalentes lorsqu’il existe h 2 GA(E) et 2 K⇤ tels que f = g h. Nous écrirons alors f ⇡ g. (Si
l’espace affine E est euclidien, nous chercherons les quadriques g(m) = 0 équivalentes à f avec, en plus
h isométrique.)
Remarque 3.2.1 Une relation de type f = g h avec h 2 GA(E) signifie que f et g coincident au
changement de variable affine près m 7! h(m). La relation f = g h implique h(f 1 ({0})) = g 1 ({0}),
c’est -à dire que la quadrique affine g 1 ({0}) est l’image par la transformation affine h de la quadrique
affine f 1 ({0})
Ne pas confondre quadrique et son image. Par exemple, f (m) ⌘ x2 + y 2 + 1 = 0 et g(m) ⌘ x2 + 1 = 0
ont même image pour K = R, l’ensemble vide, mais ont des images disctinctes pour K = C. Ces deux
quadriques sont en fait distinctes au sens où l’on ne peut trouver une bijection affine h telle que f = g h.
Posons le vecteur B = (b1 , . . . , bn ) 2 Kn . La quadrique f (m) = 0 s’écrit donc matriciellement
(Q) : f (m) ⌘ tXAX + BX + c = 0.
Définition 3.2.3 La forme quadratique qf (X) := tXAX est dite associée à la quadrique f (m) = 0.
On dit que la quadrique f (m) = 0 est non dégénérée si, et seulement si, qf est non dégénérée.
n
X n
X n
X
m= xi ei = a + x0i e0i , e0j = i,j ei .
i=1 i=1 i=1
Théorème 3.2.1 Soient f (m) = 0 et g(m0 ) = 0 deux quadriques équivalentes. Alors les formes quadra-
tiques qf , qg , associées respectivement à f et g sont équivalentes : qf ⇠ qg . En particulier, soient A et
A0 , les matrices respectives de qf et qg dans la base canonique de Kn . Alors les rangs de A et A0 sont
égaux. De plus, si K = R, alors les signatures de A et A0 sont égales.
Dans ce résultat, nous avons ignoré les termes de degré au plus un de f ou g. Pour améliorer ceci,
rajoutons une dimension en considérant une variable supplémentaire t 2 K, puis posons tX̃ = ( tX, t) et
1
q̃f (X̃) := tXAX + BX t + ct2 ⌘ t2 f ( m).
t
La relation q̃f (X̃) = 0 est une quadrique dans Kn+1 , qui s’écrit sous forme matricielle tX̃ ÃX̃ = 0, où
l’on a posé !
A tB
à = .
B c
Si f = g h, alors q̃f ⇠ q̃g , donc Ã0 := tP̃ ÃP̃ , où l’on a posé
!
t n
P 0K
P̃ = .
0Kn 1
Du théorème 3.2.1, en remplaçant A par Ã, A0 par Ã0 , qf par q̃f , nous obtenons le
38 CHAPITRE 3. CONIQUES ET QUADRIQUES
Corollaire 3.2.1 Si les quadriques f (m) = 0 et g(m) = 0 sont équivalentes , alors les matrices à et Ã0
ci–dessus sont de même rang et, si K = R, de même signature.
Théorème 3.2.2 On distingue trois formes de quadriques. Plus précisément, on a les équivalences sui-
vantes :
8
>
XR < 0
>
0 02
f (m) ⇡ g(m ) ⌘ di x i + 1 (3.3)
>
>
i=1 : x0 ,
n
où X 7! X 0 = t(x01 , . . . , x0n ) est un changement de variable affine, R est le rang de la forme quadratique
associée à f , les scalaires di sont non nuls.
Preuve En e↵et, la forme quadratique qf (m) s’écrit, pour une certain changement de variable linéaire,
x 7! y = (y1 , . . . , yn ), et avec R = rg(qf ),
n
X R
X
qf (m) = ai,j xi xj = di yi2 .
i=1 i=1
Donc f s’écrit
R
X n
X
f (m) = di yi2 + b0i yi + c
i=1 i=1
R
X n
X
2
f (m) = di x0i + b0i yi + c0 .
i=1 i=R+1
3.2.4 Symétries
La réduction du théorème 3.2.2 montre que la quadrique possède des symétries axiales selon les
hyperplans x0i = 0, 1 i R. En e↵et l’équation g(m0 ) = 0 est inchangée par la transformation
x0 7! (x01 , . . . , x0i 1 , x0i , x0i+1 , . . . , x0n ).
Il peut y avoir aussi symétrie centrale si R = n, dans les 1ere et 2eme formes, puisque l’équation g(m0 ) = 0
est inchangée par la transformation m0 7! m0 .
Réciproquement, l’étude des axes de symétrie pour une quadrique f (m) = 0 nous renseigne sur la
nature de cette quadrique et permet la réduction du théorème 3.2.2 : qui prend le nom de recherche des
axes de symétrie.
3.2. CONIQUES, QUADRIQUES 39
Comme R prend n valeurs, il y a donc 3n classes (au sens affine) de quadriques complexes.
Remarque 3.2.2 On peut remplacer yn par yn dans la 4eme forme. Or, comme les deux quadriques
f (m) = 0 et f (m) = 0 sont identiques, on obtient les mêmes classes en changeant (r, s) en (s, r). Donc,
on peut supposer r s, et, pour le cas r = s, voir que la valeur 1 ou 1 à droite correspond à la même
classe.
Remarque 3.2.3 Si r = 0 dans le 3eme cas, ou si s = 0 et dans le 2eme cas, alors la quadrique affine
f 1 ({0}) est vide. Si, dans le 1er cas, r = 0, ou s = 0, alors la quadrique affine ne contient qu’un seul
point, le point 0.
Contrairement au cas complexe, une quadrique peut donc être vide, ou n’être qu’un ensemble de ”dimen-
sion” plus petite que n 1. Il peut donc être plus intéressant de considérer les solutions complexes de
f (m) = 0, puis dans faire l’intersection avec Rn .
Réduction
Nous considérons la forme générale suivante de conique :
Symétries (orthogonales)
Dans le cas où la forme quadratique qf est non dégénérée, l’image de la conique présente un centre
de symétrie, noté m0 = (x0 , y0 ). Ce centre satisfait la relation
Figure 3.1 –
3
Droite double
x2-y2=0
2
Ellipse
x2+y2=1
1
Hyperbole
x2-y2=1
-5 -4 -3 -2 -1 0 1 2 3 4 5
-1
Parabole
-2 x2+y=0
-3
Dans le cas où la forme quadratique qf est de rang un, l’image de la conique est présente un axe de
symétrie, noté . Cet axe, dirigé par v 2 R2 \ {0}, est orthogonal à une direction u 2 R2 \ {0}, satisfait
la relation
f (m + tu) = f (m tu), 8m 2 , t 2 R.
En considérant la dérivée directionnelle de f dans la direction u ? , nous avons rf (m+tu) = rf (m
tu). Pour t = 0, nous obtenons
@u f (m) = 0, 8m 2 ? u. (3.9)
Cette relation caractérise l’axe de symétrie lorsque la conique est une parabole. Nous pouvons le voir sur
2
l’équation réduite, de la forme g(m0 ) ⌘ x0 + y 0 = c. En e↵et, rg(m0 ) = (2x0 , 1), donc u0 · rg(m0 ) =
0 0 0
0 () u = t(1, 0) et x = 0 : L’axe est = Oy 0 = {x0 = 0}, orthogonal à u0 = (1, 0).
— La parabole x2 + y = 0 admet pour direction asymptotique la droite double donnée par la conique
x2 = 0, que l’on appelle l’axe focal.
— L’ensemble K := {m 2 R2 ; f (m) ⌘ ax2 + 2bxy + dy 2 + ↵x + y + c < 0} est un convexe dans les
cas suivants :
1. La conique f (m) = 0 est une ellipse (éventuellement réduite à ; ou à un seul point), avec A
matrice définie positive, de signature (2, 0). De plus, K est borné.
2. La conique f (m) = 0 est une parabole ou une droite double avec A matrice positive, et 0 est
valeur propre simple de A, i.e, A est de signature (1, 0).
Réduction
Nous considérons la forme générale suivante de quadrique :
où aij , bi , c sont des scalaires tels que la matrice A := (ai,j )1i,j3 soit non nulle.
La réduction de (3.6) détermine le nombre de cas (vraiment) distincts. Nous n’écrivons que l’équation
réduite dans le nouveau repère, que nous posons pour simplifier égal à (O, x, y, z).
De plus, comme pour le cas des coniques réelles, j’ai choisi d’ignorer le cadre euclidien pour obtenir
un nombre fini de réductions possibles.
— La signature de A est (3, 0), i.e, A est une matrice définie positive. Il y a trois sous-cas :
1. x2 + y 2 + z 2 = 0. L’image de la quadrique est un point.
2. x2 + y 2 + z 2 + 1 = 0. L’image de la quadrique est vide.
3. x2 + y 2 + z 2 1 = 0. L’image de la forme réduite est une sphère. L’image de la quadrique est
un ellipsoide.
— La signature de A est (2, 1). Il y a trois sous-cas :
1. x2 + y 2 z 2 = 0. p L’image de la forme réduite est l’union de des deux surfaces d’équations
cartésiennes z = ± x2 + y 2 . Chaque surface est un cône de révolution autour de l’axe Oz, et
les deux surfaces se déduisent l’une de l’autre par la symétrie z 7! z. L’intersection des deux
surfaces est constitué du point singulier (pour la quadrique) O. L’image de la quadrique est un
cône de section elliptique.
2. x2 + y 2 z 2 + 1 = 0. L’image de la forme réduite est un hyperboloide (à deux nappes) de
révolution. L’image de la quadrique est un hyperboloide (à deux nappes).
3. x2 + y 2 z 2 1 = 0. La forme réduite est un hyperboloide (à une nappe) de révolution. L’image
de la quadrique est un hyperboloide (à une nappe).
— La signature de A est (2, 0). Il y a quatre sous-cas :
1. x2 + y 2 = 0. L’image de la forme réduite est la droite d’axe Oz. L’image de la quadrique est
une droite.
2. x2 + y 2 + 1 = 0. L’image de la quadrique est vide.
3. x2 + y 2 1 = 0. L’image de la forme réduite est un cylindre de révolution d’axe Oz. L’image
de la quadrique est un cylindre de section elliptique (cylindre elliptique).
4. x2 + y 2 + z = 0. L’image de la quadrique est un paraboloide elliptique.
— La signature de A est (1, 1). Il y a trois sous-cas :
1. x2 y 2 = 0. L’image de la forme réduite est l’union des deux plans non parallèles x = y et
x = y. L’image de la quadrique est l’union de deux plans non parallèles.
2. x2 y 2 + 1 = 0. L’image de la quadrique est un cylindre d’axe Oz de section hyperbolique
(cylindre hyperbolique).
3. x2 y 2 + z = 0. L’image de la quadrique est un paraboloide hyperbolique.
— La signature de A est (1, 0). Il y a quatre sous-cas :
1. x2 = 0 : l’image de la quadrique est un plan double.
2. x2 + 1 = 0 : l’image de la quadrique est vide.
3. x2 1 = 0 : l’image de la quadrique est l’union de deux plans parallèles.
2
4. x + y = 0 : l’image de la quadrique est un cylindre de section parabolique (cylindre parabo-
lique).
Remarque 3.2.5 Cas de la signature de A est (0, 3) : similaire au cas de la signature (3, 0).
Cas de la signature de A est (1, 2) : similaire au cas de la signature (2, 1).
3.2. CONIQUES, QUADRIQUES 43
Symétries (orthogonales)
Comme dans le cas 2D, une (image de) quadrique présente des éléments de symétrie. Dans le cas
où la forme quadratique qf est non dégénérée, l’image de la conique présente un centre de symétrie,
m0 = (x0 , y0 ), qui satisfait la relation caractéristique (3.8).
Dans le cas où la forme quadratique qf est de rang deux, l’image de la conique présente deux plans
de symétrie se coupant selon un axe , orthogonal à la droite affine {rf (m)| m 2 R3 } des valeurs du
gradient de f . Un vecteur normal u à un plan de symétrie P satisfait :
@u f (m) = 0, 8m 2 P ? u. (3.11)
Géométrie projective
Dans tout ce chapitre, E désigne un K-espace vectoriel, K = R ou C. S’il est de dimension finie non
nulle, on pose dim E = n + 1.
Alors R est une relation d’équivalence et P (E) = E \ {0}/R. Nous notons par ⇡E , ou plus simplement
par ⇡ s’il n’y a pas ambiguité, la projection canonique de E \ {0} sur P (E) :
Exemple 4.1.1 1. Si dim(E) = 0 alors E est réduit au vecteur nul et ne contient aucune droite,
donc P (E) = ;.
2. Si dim(E) = 1 alors E est réduit à une droite, donc P (E) est un singleton.
3. Si dim(E) = 2 alors P (E) est appelé droite projective. Soit (e1 , e2 ) une base de E. Fixons (ar-
bitrairement) la direction d = Vect(e1 ). Une droite de E non colinéaire à e1 est dirigée par un
vecteur de la forme te1 + e2 , et est caractérisée par la donnée du scalaire t 2 K. Donc, les points
de P (E), hormis d, sont en bijection ”affine” 1 avec K. De plus, la droite d est, au moins for-
mellement, la ”limite”, quand t ! ±1, des droites d(t) := Vect(te1 + e2 ). Donc, dans P (E),
d = limt!1 d(t), i.e, le point d 2 P (E) correspond, formellement au moins, au choix t = 1.
On note alors P (E) ' K [ {1}, pour signifier que P (E) est identifié, en un sens topologique, à
K [ {1}.
4. Si dim(E) = 3 alors P (E) est appelé plan projectif.
1. ceci sera précisé plus loin
45
46 CHAPITRE 4. GÉOMÉTRIE PROJECTIVE
5. Cas E = Rn+1 euclidien, donc, muni du produit scalaire usuel. [Rappel. L’ensemble des directions
de Rn+1 , i.e, l’ensemble des vecteurs unitaires de Rn+1 , est appelé la sphère unité, et noté Sn (R).
Deux éléments !, ! 0 2 Sn (R) désignent la même direction si, et seulement si, il sont égaux ou
opposés. On pose donc la relation d’équivalence sur Sn (R) :
!R2 ! 0 () (! = ! 0 ou != ! 0 ),
et on note par (±) la relation R2 et par ±! la classe d’équivalence de ! 2 Sn (R) pour cette
relation. Alors tout vecteur non nul u 2 E est déterminé par la donnée de sa norme kuk et de
sa direction u/kuk 2 Sn (R). De plus, la droite Vect(u) est déterminée, de façon unique, par la
classe de u/kuk pour la relation ± dans Sn (R). ] En conséquence, P (Rn+1 ) = P n (R) est identifié
à Sn (R)/(±).
Définition 4.1.2 Lorsque E est de dimension finie, n + 1, on dit que P (E) est de dimension finie, n.
Si E = Kn+1 , on note P (Kn+1 ) = P n (K) = KP n .
Preuve Pour tout i 2 I, le sous-espace projectif Vi est de la forme Vi = P (Fi ), où Fi est un s.e.v
de E. Posons F = \i2I Fi , qui est un s.e.v de E, puis V := P (F ). Montrons que V = \i2I Vi . On a
V = ⇡(F \ {0}) ⇢ ⇡(Fi \ {0}) = Vi , pour tout i, et, par conséquent, V ⇢ \i2I Vi . Réciproque. Soit
x 2 \i2I Vi , i.e, x 2 Vi , pour tout i. Donc, x = ⇡(yi ) pour yi 2 Fi \ {0}, pour tout i. Les vecteurs yi
déterminent la même droite x 2 E, donc ils sont tous colinéaires. Donc yi 2 Fj , pour tous i, j 2 I. Ainsi,
yi 2 F pour tout i. Donc x 2 V . ⇤
Note. En particulier, si F, G sont deux s.e.v. de E, et V = P (F ), W = P (G), alors P (F \ G) = V \ W .
Définition 4.1.4 Soit A ⇢ P (E). Soit F(A) la famille des s.e.p. de P (E) et contenant A. Cette famille
est non vide, puisqu’elle contient l’élément P (E). Posons
Proj(A) := \V 2F (A) V.
D’après le théorème 4.1.1, Proj(A) est un s.e.p. de P (E). Par construction, c’est le plus petit s.e.p de
P (E) contenant A.
4.1. DÉFINITIONS - PROPRIÉTÉS 47
Si A est fini, A = {a1 , . . . , ak }, on notera aussi Proj(a1 , . . . , ak ) pour Proj(A). Pour déterminer les espaces
projectifs engendrés, nous avons les deux résultats utiles suivants.
Théorème 4.1.2 Soit A = {ai , i 2 I} ⇢ P (E), A non vide. Alors Proj(A) = P (Vect([i2I ai )).
Preuve Remarquons d’abord que F := Vect([i2I ai ) est le s.e.v de E des sommes finies (directes ou
non) des droites vectorielles ai .
a) Soit a 2 A. Alors a = ⇡(x) pour un x 2 F , donc a 2 P (F ). Donc P (F ) est un s.e.p de E contenant A.
Donc Proj(A) ⇢ P (F ).
b) On a Proj(A) = P (G) pour un s.e.v. G ⇢ E qui contient les droites vectorielles, éléments de A. Donc
ai ⇢ G pour tout i. Par conséquent, G contient F . Donc P (F ) ⇢ Proj(A). ⇤
Exemple 4.1.3 — Rappelons que ; est un s.e.p de P (E), donc Proj(;) = ;. De même, si A est un
singleton, alors c’est encore un s.e.p de P (E), donc Proj(A) = A.
— Si A est constitué de deux éléments, A = {a, b}, alors Proj(A) = P (a+b) : c’est la droite projective
passant par a et b.
Attention, soit u, v, représentant respectivement a, b (i.e, a = ⇡(u) et b = ⇡(v)), alors ne pas
confondre a + b qui est le plan vectoriel en somme directe des deux s.e.v (droites vectorielles) a, b
de E, avec u + v, qui est un vecteur non nul (puisque a 6= b) représentant le point ⇡(u + v).
Théorème 4.1.3 Soit {Fi }i2I une famille non vide de s.e.v de E. Posons Vi = P (Fi ). Alors
X
Proj([i2I Vi ) = P ( Fi ).
i2I
P
Preuve Posons A = [i2I Vi , F = i2I Fi , F 0 = Vect([a2A a). On a Proj(A) = P (F 0 ). Il s’agit donc de
prouver que F 0 = F .
(i) Soit a 2 A. Donc il existe i 2 I tel que a 2 Vi = P (Fi ). Donc a = ⇡(x) pour un x 2 Fi ⇢ F . Donc
a ⇢ F . Par conséquent, F est un s.e.v qui contient A. Donc, par définition de l’espace vectoriel engendré,
F0 ⇢ F.
(ii) Soit i 2 I. Pour x 2 Fi \ {0} on a ⇡(x) 2 Vi ⇢ A ⇢ Proj(A) = P (F 0 ), donc x dirige une droite élément
de F 0 . Donc x 2 F 0 . Donc, pour tout i, Fi ⇢ F 0 , puis F ⇢ F 0 . ⇤
Preuve On écrit V = P (F ), W = P (G), où F et G sont deux s.e.v de E. Comme Proj(V [W ) = P (F +G)
(Cf. théorème 4.1.3) et V \ W = P (F \ G) (Cf. théorème 4.1.1), on a donc
point O. Plaçons un plan affine P de R3 ne passant pas par le point O, et considérons-le comme l’écran
d’observation d’un observateur placé en O. Soit P la direction de P. Une droite vectorielle non contenue
dans P coupe P en un seul point, mais une droite vectorielle contenue dans P ne coupe jamais P. Donc
l’observateur voit une droite vectorielle soit comme un point dans P, appelé point propre, soit ne la voit
pas : il s’agit d’un point ”à l’infini”, appelé aussi point impropre. Dans la figure 4.1, les points M et N
sont propres et constituent les droites projective (M N ), et affine (M N ), apparemment indiscernables.
Mais la droite projective (M N ) contient un point supplémentaire, impropre.
Cadre général
Plus généralement, un espace projectif P̂ de dimension n peut être vu comme l’union d’un espace
affine H de dimension n avec les droites d’un espace vectoriel H dirigeant H. En e↵et, posons P̂ = P (E),
où l’espace vectoriel E de dimension n + 1 est identifié à un espace affine E (Cf. section 2.1.1) contenant
un point O et dirigé par E. Soit H un hyperplan affine ne contenant pas O, de direction H ⇢ E. Un
point de P (E) \ P (H) est une droite vectorielle m = ⇡(x) ⇢ E \ H qui intersecte H en un unique point
p. L’application H : P (E) \ P (H) 3 m 7! p 2 H est bijective, et préserve l’alignement. En e↵et, si
trois points m1 , m2 , m3 2 P (E) \ P (H) sont contenus dans une droite projective d, alors les trois images
H (mi ) sont trois points alignés dans H. Cette application H est appelée une carte affine : nous y
reviendrons. Donc nous pouvons identifier une partie des éléments de P̂ à l’hyperplan affine H. L’autre
partie, les droites vectorielles incluses dans H, sont des éléments de P (H).
Si dim H = n 6= 0, on recommence par itération décroissante, en remplaçant E, de dimension n + 1, par
H, de dimension n. Nous avons donc l’identification de P̂ avec H0 [ H1 [ . . . [ Hn 1 , où les Hi sont des
espaces affines de dimensions respectives dim Hi = n i, i = 0, . . . , n 1. Comme dim Hn 1 = 1, l’espace
projectif P (Hn 1 ) est réduit à un point.
Note. Pour comprendre le fonctionnement de la géométrie projective via la géométrie affine, il est très
conseillé d’étudier les exercices correspondants de la planche TD4.
∞
v xM=∏(u)
xN=∏(v)
droite projective
ou a"ne (MN)
∞
O
Soit H un K-espace affine de dimension n, et soit H son espace vectoriel associé. Nous admettons le
résultat suivant : il existe un K-espace vectoriel E de dimension n + 1, tel que H et H s’identifient chacun
à un hyperplan affine de E sous la forme H = f 1 ({1}), H = Ker f = f 1 ({0}), où f est une forme
4.2. COORDONNÉES, CARTE AFFINE, REPÈRE DANS UN ESPACE PROJECTIF 49
H
linéaire sur E. On obtient alors H ' P (E) \ P (H), et l’espace projectif P (E), noté aussi Ĥ, est appelé
complétion projective de H.
Exemple 4.1.4 Si P = K alors la droite projective associée est l’ensemble K̂ = K [ {1}, où 1 désigne
l’élément de K̂ extérieur à K, le point à l’infini ou impropre. Nous avons les relations algébriques suivantes
complétant celles dans K :
— Pour tout x 2 K, x/1 = 0 ;
— Pour tout x 2 K⇤ , x/0 = 1.
Nous préciserons cela plus loin, en section 4.2.2 (Cf. exemple 4.2.1).
Plus généralement, KP n est le complété projectif K̂n de Kn . Voir plus loin, la remarque 4.2.3.
Propriété 4.2.1 Les k + 1 éléments m1 , . . . , mk+1 de P (E) sont projectivement indépendants si, et
seulement si, dim Proj({m1 , . . . , mk+1 }) = k.
Remarque 4.2.1 On voit donc bien que la définition de famille projectivement libre ne dépend pas des
choix des représentants respectifs ei des classes d’équivalences mi pour la relation R (Cf. définition 4.1.1).
Soit un espace projectif P (E), de dimension n. Supposons E muni d’une base, B = (e1 , . . . , en+1 ). Un
Pn+1 Pn+1
point m de P (E) est de la forme Vect(x), avec x = i=1 xi ei 2 E, et tous les vecteurs tx = i=1 txi ei ,
pour t 2 K \ {0}, représentent m.
Pn+1
Définition 4.2.2 Les coordonnées de m = ⇡(x) relatives à la base B où x = i=1 xi ei , sont dites
homogènes. On les note par x = (x1 : . . . : xn+1 ). On a donc
x1
que xn+1 6= 0 sont repérés par ( xn+1 : . . . , xxn+1
n
: 1) et sont dits propres. Les points m tels que xn+1 = 0
sont dans le sous-espace projectif P (H) : ils sont impropres (pour ce choix de repérage).
Le choix de l’hyperplan H a permis de définir une carte (affine) dans laquelle tout point propre
m 2 P (E) possède des coordonnées uniques, de la forme (↵1 : . . . : ↵n : 1).
Pour simplifier, nous appelerons ”xn+1 = 1” une telle carte.
Choisir un autre hyperplan signifie changer de carte pour décrire avec d’autres coordonnées les points
propres (qui ne sont plus les mêmes qu’avant !). Donnons maintenant une définition générale de carte
affine.
Pn+1
Définition 4.2.3 Soit H un hyperplan vectoriel de E d’équation i=1 ai xi = 0 relativement à la base
B, avec les coefficients ai non tous nuls. La carte affine sur P (E) ayant P (H) comme ensemble de points
à l’infini est l’application
x1 xn+1
H : P (E) \ P (H) 3 m = ⇡(x) 7! ( Pn+1 , · · · , Pn+1 ) 2 H,
i=1 ai xi i=1 ai xi
Exemple 4.2.1 Revenons à l’exemple 4.1.4, où nous nous sommes occupés du cas particulier important
de la droite projective P 1 (K) = K̂. Soit E = K2 . Il faut deux cartes pour recouvrir P (E) = K̂ = {(x : y) ;
(x, y) 6= (0, 0)}. La première peut être, pour y 6= 0, l’injection 1 : K 3 x 7! (x : 1). Nous l’appelons donc
la carte y = 1.
La deuxième peut être, pour x 6= 0, l’injection 2 : K 3 y 7! (1 : y). Nous l’appelons donc la carte x = 1.
Si x 6= 0 et y 6= 0 alors le point ⇡(x, y) = (x : y) 2 P 1 (K) est dans les deux cartes, puisque
(x : y) = (x/y : 1) = 1 (x/y) et (x : y) = (1 : y/x) = 2 (y/x).
4.2. COORDONNÉES, CARTE AFFINE, REPÈRE DANS UN ESPACE PROJECTIF 51
1
Noter que le changement de carte dans {(x : y) ; x 6= 0 et y 6= 0} est l’application 2 1 : K⇤ 3 t 7!
t 2 K , qui est analytique.
1 ⇤
Définition 4.2.4 Il n’est pas toujours utile d’avoir deux cartes pour décrire K̂. En fait, seul le point
(1 : 0) n’est pas dans la première carte. Un point m de coordonnées (x : y) de K̂ est déterminé par le
quotient x/y, qui vaut 1 si y = 0. Donc, formellement, m a pour coordonnées (z : 1), avec z = 1 si m
est impropre : nous l’écrivons m : z = 1. Si m est propre, il est de la forme (z : 1) et nous l’écrivons
m : z 2 K.
La valeur z est appelée affixe du point m 2 K̂.
Théorème 4.2.1 Soit : P ! P (E) une carte affine, où P est un espace affine de dimension n,
dim P (E) = n, et H le s.e.v. de E des représentants des points impropres. Soit V un s.e.p de P (E).
1
Alors (V ) est soit vide soit un s.e.a de P de dimension dim(P (H) \ V ) + 1.
Preuve On peut se ramener au cas P = Kn , E = Kn+1 , : Kn 3 (x1 , . . . , xn ) 7! (x1 : . . . : xn : 1) 2
KP n , en fixant une base (e1 , . . . , en+1 ) de E, puis H = Vect(e1 , . . . , en ) d’équation xn+1 = 0. Donc on a
le sous–espace des points impropres, P (H) = {x = (x1 : . . . : xn : 0)}. Posons V = P (W ) avec W s.e.v de
E, de dimension k + 1. Posons, pour x = (x1 , . . . , xn ) 2 Kn , le point x̃ = (x1 , . . . , xn , 1) de l’hyperplan
affine H ⇢ E d’équation xn+1 = 1, ainsi que le plongement
: Kn 3 y = (y1 , . . . , yn ) 7! (y1 , . . . , yn , 0) 2 H.
Alors Kn est isomorphe à H, et W 0 = 1
(W ) = 1
(H \ W ) est isomorphe à H \ W .
1
Si V ⇢ P (H), alors (V ) = ;. Sinon, soit A = (a1 : . . . : an : 1) 2 V \ P (H), posons a = (a1 , . . . , an ) 2
1
(A), ã 2 W \ H. On a
(x) = (x1 : . . . : xn : 1) 2 V \ P (H) () x̃ 2 W () x̃ ã 2 W.
Noter que pour tout x 2 Kn , on a x̃ ã 2 H. Donc,
x2 1
(V ) () 1
(x̃ ã) 2 W 0 () x a 2 W 0 () x 2 a + W 0 .
Donc, 1
(V ) = a + W 0 = a + 1
(H \ W ) : c’est un s.e.a de Kn de dimension dim(H \ W ) =
dim P (H \ W ) + 1 = dim(P (H) \ V ) + 1
⇤
Définition 4.2.6 Un repère projectif est une famille R := (m1 , . . . , mn+2 ) de n + 2 éléments de P (E)
telle que pour tout i 2 {1, . . . , n + 2}, la famille des points R \ {mi } est projectivement libre.
Théorème 4.2.2 Soit R := (m1 , . . . , mn+2 ) un repère projectif dans P (E). Alors tout point m 2 P (E)
peut être représenté de façon unique par des coordonnées homogènes (x1 : . . . : xn+1 ) dans R \ {mn+2 }
pour lesquelles (1 : . . . : 1) désigne le point mn+2 .
Remarque 4.2.4 Nous avons privilégié dans ce théorème le dernier point de ce repère, mn+2 . Il est
évidemment possible d’en privilégier un autre (chez certains auteurs, le premier).
Notations
Soit R := (m1 , . . . , mn+2 ) un repère projectif dans P (E). Un point m 2 P (E) de coordonnées
homogènes x = (x1 : . . . : xn+1 ) dans R s’écrit m = x1 m1 + · · · + xn+1 mn+1 , sachant qu’on a
mn+2 = m1 + · · · + mn+1 .
Exemple 4.2.2 Un repère projectif d’une droite projective est obtenu par la donnée de trois points dis-
tincts, a,b,c. Dans le repère (a, b, c) on a a = (1 : 0), b = (0 : 1), c = (1 : 1). Tout point de cette droite
projective à des coordonnées de la forme (x : y) et peut s’écrire xa + yb. Dans la carte y = 1, le point a
est à l’infini, et on écrit a = 1. Ainsi, le rapport x/y, qui vaut par définition 1 si y = 0, détermine un
point de la droite projective.
En particulier, la droite projective K̂ = K [ {1} = KP 1 admet pour repère standart le triplet noté
(1, 0, 1).
Preuve Il s’agit de prouver que la droite Vect(f (x)) ne dépend pas du vecteur x 6= 0 choisi pour
diriger Vect(x). Puisque f est linéaire injective, l’image f (x) de x par f est un vecteur non nul de F ,
colinéaire à tout f (x0 ) si x0 désigne un vecteur quelconque, non nul et colinéaire à x. Donc on a bien
Vect(f (x)) = Vect(f (x0 )). ⇤
4.3. APPLICATION PROJECTIVES 53
Définition 4.3.1 1) L’application p(f ) est appelée l’application projective associée à f . Elle est toujours
injective.
2) Si dim E = dim F < 1, alors p(f ) est bijective. On dit alors que p(f ) est une ”transformation
projective”, un ”isomorphisme”, ou une ”homographie”.
Définition 4.3.2 Un morphisme entre les espaces projectifs P (E) et P (F ) est une application de la
forme h = p(f ) : P (E) \ P (Ker f ) 7! P (F ), f 2 L(E, F ).
Théorème 4.3.2 Deux morphismes, f et g, de E sur F , définissent la même application projective si,
et seulement si, f et g sont colinéaires, i.e, il existe t 2 K⇤ tel que f = tg.
Preuve Il est clair que p(tf ) = p(f ), t 2 K. Regardons la réciproque. Supposons p(f ) = p(g). Ceci
implique Ker f = Ker g et =f = =g. Considérons d’abord le cas où f est bijective. Si dim E = n + 1 1
alors f et g sont nécessairement colinéaires. Supposons dim E = dim F = n + 1 2. Soient x, y deux
vecteur non colinéaires. Les vecteurs f (x) et g(x) sont colinéaires, ainsi que f (y) et g(y), et que f (x+y) et
g(x + y). Donc, il existe tx , ty , tx+y 2 K tels que f (x) = tx g(x), f (y) = ty g(y), et f (x + y) = tx+y g(x + y).
On a
tx+y (g(x) + g(y)) = tx+y g(x + y) = f (x + y) = f (x) + f (y) = tx g(x) + ty g(y),
d’où
(tx+y tx )g(x) + (tx+y ty )g(y) = 0.
Or g(x) et g(y) sont non colinéaires car x et y aussi, on doit donc tx = ty . Ceci prouve qu’il existe t 2 K
tel que f (x) = tg(x), pour tout x 2 E. Donc f et g sont proportionnelles.
Dans le cas où f n’est pas bijective, il suffit de considérer H, un supplémentaire de Ker f = Ker g dans
E, puis les deux isomorphismes f˜, g̃ : H ! =f = =g tels que f˜(x) = f (x) et g̃(x) = g(x) pour x 2 H.
On a alors P (f˜) = P (g̃), ce qui implique, d’après ce qui précède, f˜ = g̃, puis f = g. ⇤
Propriété 4.3.1 Toute homographie transforme un espace projectif en un autre espace projectif de même
dimension.
Définition 4.3.3 Le choix dans E d’une base B := (e1 , . . . , en+1 ) induit l’homographie
h : P (E) 3 m 7! x 2 KP n ,
où x = (x1 : . . . : xn+1 ) désigne les coordonnées homogènes de m relatives à la base B. Une telle
homographie est appelée système de coordonnées homogènes.
En conséquence nous avons le
Théorème 4.3.3 Toute homographie préserve l’alignement.
Remarque 4.3.1 La réciproque n’est pas évidente. Dans le cas réel K = R, si une bijection de P (E)
dans P (F ) (avec dim P (E) = dim P (F ) < 1) préserve l’alignement, alors c’est une homographie. On
utilise pour cela le fait que le seul automorphisme du corps R est l’identité.
Dans le cas complexe K = C, la conjugaison est un automorphisme (continu) du corps C, di↵érent de
l’identité. Il y en a d’autres, mais qui ne sont pas continues. Par conséquent, il existe des bijections
de P (E) dans P (F ), préservant l’alignement, et qui ne sont pas des homographies : ce sont des semi–
homographies.
Structure de groupe
Théorème 4.3.4 L’ensemble des homographies de P (E) dans lui-même, muni de la loi de composi-
tion, forme un groupe. Il est noté P GL(E). Il est isomorphe à GL(E)/H(E), lui-même identifiable à
GL(E)/K⇤ .
Preuve : exercice. Rappel : le groupe (H(E), ) des homothéties vectorielles sur E a été vu en section 1.
Définition 4.3.4 Le groupe (P GL(E), ) des homographies de P (E) dans lui-même est appelé le groupe
projectif.
Remarque 4.3.2 A l’espace vectoriel L(E) de dimension (n + 1)2 est associé l’espace projectif P (L(E))
de dimension n2 +2n. Alors P GL(E) est le complémentaire dans P (L(E)) de la variété algébrique définie
par det f = 0.
[ Preuve de (1), qui se place dans le repère (h(u1 ), . . . , h(un+2 )) de P (F ) : nous avons
n+1
X n+1
X n+1
X n+1
X
(2)
h(m) = ⇡F (f ( xj ej )) = ⇡F ( xj f (ej )) = xj ⇡F (f (ej )) = xj h(uj ).
j=1 j=1 j=1 j=1
4.3. APPLICATION PROJECTIVES 55
et
b1 a1,i + · · · + bn+1 an+1,i = 0, 1 i n. (4.2)
Donc, les solutions non triviales des relations homogènes (4.2), sont toutes proportionnelles entre elles.
Par conséquent, l’hyperplan projectif h(P (H)) est d’équation
n+1
X
bj xj = 0.
j=1
D’après la remarque 4.2.5, le point M 2 H qui représente m : (x1 : . . . : xn+1 ) 2 P (E) \ P (H) dans la
carte Xn+1 = 1 a pour coordonnées affines
x1 xn
(X1 = , . . . , Xn = , Xn+1 = 1),
xn+1 xn+1
tandis que, lorsque M 2 H \ H1 , le point M 0 2 H qui représente h(m) de coordonnées homogènes x0 a
pour coordonnées affines
x0 x0
(X10 = 0 1 , . . . , Xn0 = 0 n , Xn+1
0
= 1).
xn+1 xn+1
Donc on obtient Pn+1 Pn+1
j=1 ai,j xj j=1 ai,j Xj
Xi0 = Pn+1 = Pn+1 , 1 i n,
j=1 an+1,j xj j=1 an+1,j Xj
c’est–à dire, Pn
j=1 ai,j Xj + ai,n+1
Xi0 = Pn , 1 i n. (4.3)
j=1 an+1,j Xj + an+1,n+1
Remarque 4.3.3 Cette représentation est réductrice, puisqu’elle ne donne pas les valeurs des h(m) pour
m 2 P (H), ni même pour m 2 H \ V1 .
Il y a cependant le cas d’une homographie de K dans lui—même, étudié dans l’exemple suivant.
Exemple 4.3.1 Complétons la remarque ci–dessus et l’exemple 4.2.1. Rappelons qu’un point m 2 K̂ de
coordonnées (x : y) admet pour affixe la valeur z = x/y 2 K [ {1}. Si m est propre,
! il est de la forme
a b
(z : 1) avec z 2 K, sinon, m = (1 : 0) et z = 1. Soit la matrice A = 2 GL2 (K). Elle induit
c d
une homographie h de K̂. Si m est propre alors h(m) = (az + b : cz + d) ' az+b
cz+d , qui est impropre (1)
si z = cd . Si m est impropre alors h(m) = ( ac : 1) ' ac . On peut donc identifier h avec la fraction
rationnelle ĥ : z 7! az+b a d
cz+d , prolongée par ĥ(1) = c et ĥ( c ) = 1.
4.3.5 Birapport
Si D et D0 sont deux droites projectives de l’espace projectif P (E), alors trois points distincts m1 ,
m2 , m3 de D (respectivement, trois points distincts m01 , m02 , m03 de D0 ) forment un repère projectif de
D (respectivement, de D0 ). Il existe donc une homographie h 2 P GL(E) telle que h(mi ) = m0i pour
i = 1, 2, 3. Ainsi, dès que la dimension de P (E) est au moins 1, le groupe des homographies P GL(E) est
transitif sur l’ensemble des triplets de points distincts et alignés de P (E). Mais qu’en est-il pour quatre
points alignés ?
Définition 4.3.5 Soit D une droite projective et m1 , m2 , m3 , m4 , quatre points de D dont les trois
premiers sont distincts. Soit h l’unique homographie de D dans KP 1 = K̂ = K[{1} telle que h(m1 ) = 1,
h(m2 ) = 0, et h(m3 ) = 1. Alors h(m4 ) est appelé le birapport des points m1 , m2 , m3 , m4 . Il est noté
[m1 , m2 , m3 , m4 ].
En particulier, nous avons le
Proposition 4.3.1 Si m4 est aligné avec les trois premiers m1 , m2 , m3 distincts, et si m01 , m02 , m03 , m04 ,
sont quatre autres points alignés avec les trois premiers distincts, alors [m1 , m2 , m3 , m4 ] = [m01 , m02 , m03 , m04 ]
si, et seulement si, il existe une homographie h 2 P GL(E) telle que h(mi ) = m0i pour tout i 2 [1, 4].
Preuve Exercice (Cf. TD4). ⇤
Ainsi, le birapport permet de caractériser les orbites des quadruplets de points distincts et alignés sous
l’action du groupe des homographies.
Remarque 4.3.4 ATTENTION ! L’ordre dans lequel interviennent les points est très important. La
définition du birapport n’est pas très standardisée et peut di↵érer selon les auteurs : certains placent le
point m4 en premier, par exemple...
Nous avons donc le résultat général suivant, fondamental :
Théorème 4.3.6 Une homographie conserve le birapport.
Preuve Soit h : P (E) ! P (F ) une homographie. Soit quatre points alignés mi , 1 i 4, sur une
droite D, avec m1 , m2 , m3 tous distincts. Posons m0i = h(mi ). Nous savons, d’après le théorème 4.3.3 que
les m0i sont alignés sur D0 = h(D). Il s’agit de prouver que [m1 , m2 , m3 , m4 ] = [m01 , m02 , m03 , m04 ]. Posons
h0 l’homographie de D sur K̂ telle que h0 (m1 ) = 1, h0 (m2 ) = 0, et h0 (m3 ) = 1. L’unique homographie
de D0 sur K̂ qui envoie m01 sur 1, m02 sur 0, et m03 sur 1 est h0 = h0 h 1 . Donc [m01 , m02 , m03 , m04 ] =
h0 h 1 (m04 ) = h0 (m4 ) = [m1 , m2 , m3 , m4 ]. ⇤
Théorème 4.3.7 Soient trois points distincts A, B, C dans la droite projective K̂, d’affixes respectives
a, b, c 2 K. Le birapport sur K̂ est déterminé par
(c a)(z b)
[a, b, c, z] = , 8M 2 K̂, (4.4)
(c b)(z a)
où z désigne l’affixe de M .
4.4. DUALITÉ 57
Preuve D’après ce qui précède dans l’exemple 4.3.1, on sait que [a, b, c, z] est l’image par une homographie
du point M . Donc le birapport [a, b, c, z] est de la forme
↵1 + 1z
[a, b, c, z] = ,
↵2 + 2z
pour des scalaires ↵i , i (tels que ↵1 2 ↵2 1 6= 0). Or, on a les trois relations [a, b, c, a] = 1, [a, b, c, b] = 0,
[a, b, c, c] = 1, donc
↵2 + 2a = 0, ↵1 + 1b = 0, ↵1 + 1c = ↵2 + 2 c.
(z b)
On en déduit ↵2 = 2 a, ↵1 = 1 b, puis 1 b+ 1 c = 2 a+ 2 c, d’où 1 = 2. Donc [a, b, c, z] = t (z a)
(c b) (c b)
et t = [a, b, c, c]/ (c a) = 1/ (c a) . D’où le résultat. ⇤
Remarque 4.3.6 - Si, dans le théorème 4.3.7, on pose a = 1, alors la formule (4.4) doit être remplacée
par :
z b
[a, b, c, z] = , 8z 2 K̂.
c b
- Si, dans le théorème 4.3.7, on pose b = 1, alors la formule (4.4) doit être remplacée par :
c a
[a, b, c, z] = , 8z 2 K̂.
z a
- Si, dans le théorème 4.3.7, on pose c = 1, alors la formule (4.4) doit être remplacée par :
z b
[a, b, c, z] = , 8z 2 K̂.
z a
On voit donc que la formule (4.4), valable pour a, b, c 2 K, est prolongeable aux trois cas exclusifs a, b ou
c = 1 en considérant une limite au sens usuel pour la forme indéterminée de la fraction rationnelle. Par
(c a0 )(z b)
exemple, si a = 1, on remplace (c a)(z b) z b
(c b)(z a) par limK3a !1 (c b)(z a0 ) , ce qui donne bien c b , au moins
0
pour z 6= 1.
4.4 Dualité
4.4.1 Espace projectif dual
Soit l’espace vectoriel E de dimension n + 1. Son dual algébrique, E ⇤ = L(E; K), est aussi un K-
espace vectoriel de dimension n + 1. Les espaces projectifs P (E) et P (E ⇤ ) ont donc même dimension. Si
f est une forme linéaire non nulle sur E, i.e, f 2 E ⇤ \ {0}, alors ⇡E ⇤ (f ) := Vect(f ) est un élément de
P (E ⇤ ). Nous allons associer à f un objet géométrique dans P (E), plus complexe. Le noyau Ker f est un
hyperplan vectoriel de E. De plus, si g 2 E ⇤ , alors Ker f = Ker g () f = tg pour un t 2 K⇤ . Donc,
Ker f = Ker g () ⇡E ⇤ (f ) = ⇡E ⇤ (g). L’application P (E ⇤ ) 3 ⇡E ⇤ (f ) 7! P (Ker f ) est donc une bijection
de P (E ⇤ ) dans l’ensemble des hyperplans projectifs de P (E).
Définition 4.4.1 On appelle P (E ⇤ ) l’espace projectif dual de P (E). Il s’identifie canoniquement à l’en-
semble des hyperplans projectifs de P (E).
Soit f 2 P (E ⇤ ). Donc f = Vect('), avec ' 2 E ⇤ \ {0}. L’hyperplan vectoriel Ker ', déterminé
par l’équation '(x) = 0, est de dimension deux. Donc, l’hyperplan projectif P (Ker '), déterminé par
l’équation ux + vy + wz = 0 dans P (E), est de dimension un. C’est une droite projective. Notons-la Hf ,
f = Vect('). Elle a pour équation, en système de coordonnées homogènes, f (m) = 0.
Soient deux points distincts f = Vect('), f 0 = Vect('0 ) 2 P (E ⇤ ). Ils définissent les deux droites projec-
tives Hf et Hf 0 , d’équations respectives f (m) = 0, f 0 (m) = 0. La droite projective (f, f 0 ) = Proj(f, f 0 ) =
P (f + f 0 ) de P (E ⇤ ), qui passe par f : (u : v : w) et f 0 : (u0 : v 0 : w0 ), admet pour éléments les points de
coordonnées homogènes (tu + t0 u0 : tv + t0 v 0 : tw + t0 w0 ), (t, t0 ) 6= (0, 0). Pour (t, t0 ) 6= (0, 0), l’équation
0 = tf (m) + t0 f (m0 ) ⌘= (tu + t0 u0 )x + (tv + t0 v 0 )y + (tw + t0 w0 )z = 0 est celle d’une droite H(t, t0 ) de
P (E). Les droites H(t, t0 ) passent toutes par le point d’intersection des deux droites Hf et Hf 0 .
Donc, nous venons de construire les relations suivantes entre objets de P (E) et de P (E ⇤ ) :
— Un point f 2 P (E ⇤ ) est caractérisé par une droite (projective) Hf ⇢ P (E).
— Une droite d = (f, f 0 ) dans P (E ⇤ ) est caractérisée par un point Md = Hf \ Hf 0 2 P (E). Plus
généralement, une droite d de P (E ⇤ ) correspond à la famille des droites de P (E) passant par un
même point, Md , et donc peut se caractériser par ce point. La famille de droites passant parun
point m 2 P (E) est appelée faisceau de droites de base m.
— De plus, trois points distincts f1 , f2 , f3 2 P (E ⇤ ) sont alignés si, et seulement si, les droites Hf1 ,
Hf2 , Hf3 , sont distinctes et concourantes.
Que deviennent les bi–rapports dans l’identification par dualité ? Pour cela nous avons le
Théorème 4.4.1 Soit quatre points f1 , . . . , f4 2 P (E ⇤ ) dont les trois premiers sont distincts, et tous
alignés sur une droite d de P (E ⇤ ). (Les quatre droites Hfi , 1 i 4, sont donc concourantes en un
point Md 2 P (E).) Soit D une droite du plan P (E), coupant Hfi en un seul point, Mi , 1 i 4. Alors
[f1 , f2 , f3 , f4 ] = [M1 , M2 , M3 , M4 ].
Preuve Fixons deux repères duaux, respectivement, R pour P (E), et R⇤ pour P (E ⇤ ), tels que D
soit l’ensemble des points à l’infini, d’équation Z = 0, dans le système de coordonnées homogènes (X :
Y : Z) associé à R. Soient (ui : vi : wi ) les coordonnées projectives de fi dans R⇤ . La droite Hfi a
alors pour équation ui X + vi Y + wi Z = 0 dans P (E). Alors les coordonnées homogènes de Mi sont
(Xi = vi : Yi = ui : Zi = 0). Donc, pour tout i, Mi est l’image de fi par l’homographie h : d 3
(u : v : w) 7! (v : u : 0) 2 D. Or, une homographie conserve le birapport (Cf. théorème 4.3.6). Donc,
[f1 , f2 , f3 , f4 ] = [h(f1 ), h(f2 ), h(f3 ), h(f4 )] = [M1 , M2 , M3 , M4 ]. ⇤
Définition 4.5.2 Soit q 2 P (Q) et soit m 2 P (E). On dit que m est un point de q lorsque q(x) = 0, où
q représente q, et x 2 E représente m (i.e, ⇡E (x) = m).
Un point m 2 P (E) est donc point de la conique q si, et seulement si, il possède un représentant isotrope
pour un représentant de q. Dans ce cas, tout représentant de m est isotrope pour tout représentant de q.
On note par V (q) l’ensemble des points de q. Cet ensemble est appelé aussi ensemble des zéros de q.
Définition 4.5.3 On dit que la quadrique projective q est non vide lorsque V (q) est non vide.
4.5. QUADRIQUES PROJECTIVES 59
Ceci définit q 2 Q, espace des formes quadratiques sur Kn+1 , puis la quadrique projective q représentée
par q. On dit que q, définie par (4.5), est la forme homogénéisée de f .
Remarque 4.5.1 Si deux quadriques sont projectivement équivalentes alors il existe une homographie
transformant les zéros de l’une en les zéros de l’autre. La réciproque est vraie pour K = C, et aussi, par
le théorème de Sylvester, si K = R. (Cependant, si K désigne un autre corps que R ou C, la réciproque
peut échouer.)
Cas complexe
La classification des quadriques (projectives) complexes est simple :
Théorème 4.5.2 Soit K = C. Aucune quadrique (projective) n’est vide ! De plus, les quadriques de P (Q)
sont classifiées par le rang de leurs représentants. Ainsi, toutes les quadriques propres sont projectivement
équivalentes.
60 CHAPITRE 4. GÉOMÉTRIE PROJECTIVE
Cas réel
Soit K = R. On sait que les formes quadratiques réelles sont classifiées par leur signature. Si on multi-
plie une forme quadratique réelle de signature (r, s) par un scalaire positif non nul, on obtient une forme
quadratique réelle de même signature, (r, s), tandis que si on multiplie cette forme quadratique par un
scalaire négatif non nul, alors on obtient une forme quadratique de signature, (s, r). Donc, les quadriques
projectives réelles sont classifiées par leur signature modulo le changement par symétrie (r, s) 7! (s, r)
(voir aussi la remarque 3.2.2 pour les quadriques affines). Il suffit donc de ne considérer que les signatures
(r, s), r s.
Pour les coniques projectives (n = 2), nous avons donc 5 classes, dont 2 pour les propres :
— La signature (3, 0), la conique a pour équation réduite x2 + y 2 + z 2 = 0. L’ensemble des zéros de
la conique est vide 3 .
— La signature est (2, 1), la conique a pour équation réduite x2 + y 2 z 2 = 0.
— La signature est (2, 0), la conique, impropre, a pour équation réduite x2 + y 2 = 0. Donc l’ensemble
des zéros est réduit à un point, ici 4 , le point (0 : 0 : 1).
— La signature est (1, 1), la conique (impropre) a pour équation réduite x2 y 2 = 0. Donc l’ensemble
des zéros est l’union de deux droites projectives distinctes, ici, x = y et x = y.
— La signature est (1, 0), la conique (impropre) a pour équation réduite x2 = 0. Donc l’ensemble des
zéros est une droite projective (double), ici, x = 0.
Remarque 4.5.2 Toutes les coniques réelles propres non vides sont projectivement équivalentes ! Donc,
pour tout couple (q, q 0 ) de coniques propres non vides, il existe u 2 P GL(E) tel que q 0 = q u. On peut
dire aussi que le groupe P GL(E) opère transitivement sur l’ensemble des coniques réelles propres non
vides.
Remarque 4.5.3 Pour la classe de la signature (2, 1), dans la carte z = 1 nous avons des ellipses, tandis
que dans la carte x = 1 ou y = 1, nous avons des hyperboles.
Réferences
”Géométrie projective”. Préparation à l’Agrégation, ENS de Cachan. Claire Renard (2013).
”Géométrie projective : autour du programme de l’agrégation”, Michel Coste (2002).
”Géométrie projective”, Robert Rolland
’”Coniques, quadriques projectives”, Michel Coste (2004).
”Partie III. La géométrie d’une forme quadratique, premier épisode : la conique”, cours de ? Perrin
(200 ?).