Académique Documents
Professionnel Documents
Culture Documents
Licence-L2 Mathématiques
H. Lombardi(∗)
18 septembre 2008
Livres de référence
– Jacqueline Lelong-Ferrand, Jean-Marie Arnaudiès.
Cours de mathématiques 1 Algèbre. Dunod. Réédition 2003.
– Joseph Griffone. Algèbre linéaire. Cépaduès-Éditions. 1990.
– Jean-Pierre Escofier. Toute l’algèbre du 1er cycle. Dunod. 2002.
i
ii Mathématiques. L2. TABLE DES MATIÈRES
2.2 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Procédé d’orthogonalisation de Gram-Schmidt . . . . . . . . . . . . . . . . . . . 10
Bases orthonormées et matrices orthogonales . . . . . . . . . . . . . . . . . . . . 11
Dualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Sous-espaces orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Orientation et volume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Produit mixte et volume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
Produit vectoriel (en dimension n > 3) . . . . . . . . . . . . . . . . . . . . . . . 13
3 Applications linéaires/orthogonalité 15
3.1 Opérateur adjoint . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 Endomorphismes symétriques d’un espace vectoriel euclidien . . . . . . . . . . . 15
Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Diagonalisation sur une base orthonormée . . . . . . . . . . . . . . . . . . . . . 16
3.3 Formes bilinéaires symétriques sur un espace euclidien . . . . . . . . . . . . . . 17
Géométrie d’une application linéaire entre deux espaces euclidiens . . . . . . . . 17
3.4 Isométries d’un espace vectoriel euclidien . . . . . . . . . . . . . . . . . . . . . 18
Le groupe orthogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
Isométries en dimension 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
Isométries en dimension 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Isométries en dimension finie arbitraire . . . . . . . . . . . . . . . . . . . . . . . 21
6 Formes quadratiques 39
6.1 Définitions, propriété caractéristique . . . . . . . . . . . . . . . . . . . . . . . . 39
6.2 Réduction d’une forme quadratique . . . . . . . . . . . . . . . . . . . . . . . . . 40
La méthode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
8 Compléments de géométrie 53
8.1 La méthode des moindres carrés . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
8.2 Les isométries affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
8.3 Coniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
Ellipses, hyperboles et paraboles . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
Intersection avec une droite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
Symétries d’une conique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
Sections coniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
Points conjugés par rapport à une conique . . . . . . . . . . . . . . . . . . . . . 58
Les deux formes quadratiques associées à une conique . . . . . . . . . . . . . . . 59
8.4 Quadriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
Les droites qui coupent trois droites de l’espace . . . . . . . . . . . . . . . . . . 60
Intersection avec un plan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
Points conjugués par rapport à une quadrique . . . . . . . . . . . . . . . . . . . 60
Les deux formes quadratiques associées à une quadrique . . . . . . . . . . . . . . 60
1 Formes bilinéaires symétriques. Premiers pas.
Contexte
Nous étudions certains objets qui se présentent naturellement dans le cadre des espaces
vectoriels. √
Ces espaces vectoriels seront des espaces vectoriels sur un corps K tel que Q, R, Q[ −1]
ou C.
Il seront presque toujours de dimension finie, mais quelques définitions et résultats n’utilisent
pas cette hypothèse.
L’histoire commence avec la géométrie euclidienne et le théorème de Pythagore, elle se
poursuit avec les géométries non euclidiennes, les séries de Fourier, la méthode des moindres
carrés en analyse numérique, et les espaces de Hilbert en analyse abstraite (étude des espaces de
fonctions, où chaque fonction est vue comme un simple point d’un espace de Hilbert, à définir
avec soin).
1.1 Introduction
Introduisons notre sujet avec un peu de géométrie et le théorème de Pythagore.
Rappelons tout d’abord un énoncé de ce théorème.
Théorème 1.1 Si ABC est un triangle rectangle en B alors le carré construit sur l’hy-
pothénuse AC est la somme des carrés construits sur les cotés BA et BC.
Une preuve du théorème de Pythagore repose toujours sur un minimum de théorie des
parallèles. Cette théorie permet par exemple d’affirmer que si un quadrilatère a 3 angles droits,
alors le quatrième angle est droit aussi. Un autre présupposé est qu’une figure peut être déplacée
d’un endroit à un autre dans le plan.
La figure ci-dessous peut servir à prouver le théorème de Pythagore (( par puzzle )). Les
présupposés concernant la théorie des parallèles sont visualisés sur la figure par le papier qua-
drillé, qui n’existe que parce que la somme des angles d’un quadrilatère est égale à 4 angles
droits. L’aire mesurée en carreaux des deux petits carrés est respectivement de 16 et 121, donc
l’aire du grand est de 137. Sous forme algébrique : a2 + b2 + 2ab = (a + b)2 = c2 + 2ab.
En fait il n’est pas besoin que les longueurs des petits cotés s’expriment par un nombre
entier d’unités pour que la démonstration fonctionne : on supprime le quarillage et on fait subir
aux morceaux 4, 5, 6, 7 les translations convenables.
Si maintenant on représente un plan euclidien par la méthode des coordonnées de Descartes,
laquelle est légitimée par la théorie des parallèles, on se place de fait dans un espace vectoriel
réel de dimension 2, on choisit un repère où les vecteurs de base sont orthogonaux et de même
longueur (prise comme unité de longueur), et la longueur du segment AB s’exprime au moyen
−→
des coordonnées (u, v) du vecteur AB sous la forme : AB 2 = u2 + v 2 .
−→ −−→
Maintenant l’orthogonalité des vecteurs AB et BC de coordonnées respectives (u, v) et
(x, y) s’exprime à l’aide de la réciproque du théorème de Pythagore :
Naturellement l’histoire se mord la queue, et en prenant ce qui vient d’être démontré pour
des définitions, on peut (( démontrer le théorème de Pythagore par un simple calcul algébri-
que )) :
−→ −−→
AB · BC = 0 ⇐⇒ AB 2 + BC 2 = AC 2
−→ −→ −−→
puisque AC = AB + BC donne, par simple calcul algébrique,
−→2 −→2 −−→2 −→ −−→
AC = AB + BC + 2AB · BC.
Mais ne nous y trompons pas, le vrai théorème de Pythagore est ce qui fonde la définition
du produit scalaire.
(la i-ème colonne de la matrice représente l’image du i-ème vecteur de base dans l’espace de
départ, exprimée sur la base de l’espace d’arrivée).
Par ailleurs, l’ensemble Mm,n est un K-espace vectoriel dont une base est formée par les mn
matrices dont tous les coefficients sont nuls, sauf un, égal à 1.
Le corps K peut être vu comme un K-espace vectoriel de dimension 1, avec 1 = 1K comme
base canonique.
Du point de vue matriciel, les éléments de E et F , écrits sur les bases E et F, sont vus
comme des vecteurs colonnes (comme si c’était des éléments de L(K, E) et L(K, F )), et l’égalité
ϕ(x) = y admet la traduction matricielle suivante
Supposons maintenant que E 0 soit une autre base de E et que la matrice de passage de E à E 0
soit la matrice inversible P ∈ Mn (K). Ses colonnes sont les vecteurs de E 0 exprimés sur la base
E. En d’autres termes P est la matrice de l’identité de E, avec la base E 0 au départ, et la base
E à l’arrivée :
P =L(E,E),E 0 ,E IdE
de sorte que pour x ∈ E, si X =E,E x et X 0 =E,E 0 x, on obtient X = P X 0 .
De même supposons que F 0 soit une autre base de F et que la matrice de passage de F à
F soit la matrice inversible Q ∈ Mn (K), de sorte que pour y ∈ F , si Y =F,F y et Y 0 =F,F 0 y,
0
on a Y = Q Y 0 .
Alors on obtient P X 0 = M Q Y 0 , ce qui donne avec M 0 = Q−1 M P :
Formes linéaires
Un cas particulier important est l’espace des formes linéaires sur E, L(E, K), noté souvent
E , et appelé espace dual de E. Une base de E ? est la base duale de E, notée E ? = (e?1 , . . . , e?n ),
?
La notation (e?1 , . . . , e?n ) est tout à fait trompeuse dans la mesure où elle peut laisser croire que
e?i ne dépend que de ei . Or si par exemple on remplace e1 par e1 + e2 et si on garde e2 , . . . , en ,
c’est e?2 qui change et non pas e?1 . Par ailleurs si e1 est multiplié par a et si on garde e2 , . . . , en ,
e?1 est divisé par a (ceci s’appelle la contravariance).
Du point de vue matriciel, les éléments de E, écrits sur la base E, sont vus comme des
vecteurs colonnes, les formes linéaires éléments de E ? sont vues comme des vecteurs lignes, en
tant qu’éléments de L(E, K), où E est muni de la base E et K de la base 1.
Quant à α(x) pour α ∈ E ? et x ∈ E, il est obtenu au moyen du produit matriciel d’une
ligne et d’une colonne
à condition d’identifier une matrice à une ligne et une colonne à son coefficient.
4 Mathématiques. L2. 1 FORMES BILINÉAIRES SYMÉTRIQUES. PREMIERS PAS.
Remarque. Une manière savante de réécrire les équations (1) qui définissent la matrice de ϕ sur
les bases E et F est la suivante :
α1 (x) = · · · = αk (x) = 0.
Aucune des contraintes n’est impliquée par les autres, autrement dit pour chaque j on peut
trouver un xj tel que αi (xj ) = 0 si i 6= j (i ∈ J1..kK), mais αj (xj ) 6= 0.
La formulation géométrique de ce deuxième point de vue est que l’intersection de k − 1 des
hyperplans αi (x) = 0 n’est jamais contenue dans le k-ème hyperplan.
Remarque. On dit aussi (( β(x, y) est séparément linéaire en x et y )) ou encore pour 1a) (( β est
linéaire à droite )) et pour 1b) (( β est linéaire à gauche )).
Exemples.
1. Exemple fondamental.
Comment voir qu’une application β : E × F → K, exprimée au moyen des coordonnées
sur des bases E et F de E et F est une forme bilinéaire ?
Réponse : β(x, y) = β(x
e 1 , . . . , xn ; y1 , . . . , ym ) doit être une expression polynomiale du type
X
β(x, y) = β(x
e 1 , . . . , x n ; y1 , . . . , y m ) = bij xi yj (3)
i∈J1..nK,j∈J1..mK
où les bij sont les éléments de K définis par bij = β(ei , fj ).
Par contre lorsque E et/ou F ne sont pas des K-espaces vectoriels de dimension finie, la
chose est plus délicate.
2. Un autre exemple fondamental.
La dualité naturelle entre E et E ? : pour x ∈ E et α ∈ E ? , β(x, α) = α(x).
On note parfois hx | αi cette forme bilinéaire canonique.
3. Le produit scalaire usuel sur Rn .
Avec x = (x1 , . . . , xn ) et y = (y1 , . . . , yn ), β(x, y) = x1 y1 + · · · + xn yn .
4. Le produit scalaire de la relativité restreinte sur R4 .
Avec e = (x, y, z, t) et e0 = (x0 , y 0 , z 0 , t0 ), β(e, e0 ) = xx0 + yy 0 + zz 0 − tt0 .
5. Notons C[0,1] = C([0, 1], R) l’espace des fonctions continues [0, 1] → R. Plusieurs formes
bilinéaires C[0,1] × C[0,1] → R sont couramment utilisées :
Z 1
λ : (f, g) 7→ f (t)g(t)dt
0
Z 1
λh : (f, g) 7→ h(t)f (t)g(t)dt
0
Xn
(f, g) 7→ wi f (xi )g(xi )
i=1
(h est une fonction continue par morceaux, les wi sont des réels et les xi des points de
l’intervalle [0, 1]).
c
Le point 2. dans le fait suivant est une variation sur le thème ab×c = ab .
Proposition 1.3
1. L’ensemble Bil(E, F ) est un sous K-espace vectoriel de l’espace de toutes les applications
E × F → K.
2. On a deux isomorphismes naturels
β 7→ βg β 7→ βd
et
Bil(E, F ; G) → L(E, L(F, G)) Bil(E, F ; G) → L(F, L(E, G))
définis respectivement par βg (x)(y) = β(x, y) et βd (y)(x) = β(x, y), ou si l’on préfère
βg (x)(−) = β(x, −) et βd (y)(−) = β(−, y)
6 Mathématiques. L2. 1 FORMES BILINÉAIRES SYMÉTRIQUES. PREMIERS PAS.
3. Dans le cas des formes bilinéaires on obtient des isomorphismes linéaires naturels
L(E, F ? ) ' Bil(E, F ) ' L(F, E ? ).
Remarque. La notation Bil(E, F ; G) individualise bien E et F , tandis que l’expression
(( application bilinéaire de E × F dans G )) peut laisser croire que seule la structure d’espace
vectoriel de E × F intervient dans la définition, ce qui n’est pas le cas.
0
β(x, y) = tXB Y = t(P X 0 )B(QY 0 ) = tX ( tP B Q) Y 0 .
Cette égalité, vraie pour tous x, y caractérise la matrice de β sur les bases E 0 et F 0 .
Résumons.
Théorème 1.5 Si P est la matrice de passage de E à E 0 et Q est la matrice de passage de
F à F 0 , si β ∈ Bil(E, F ) admet la matrice B sur les bases E et F, alors ϕ admet la matrice
t
P B Q sur les bases E 0 et F 0 .
On note Sn (K) le sous-espace de Mn (K) formé par les matrices symétriques (i.e., B ∈ Sn (K)
si et seulement si B = tB). C’est un K-espace vectoriel de dimension n(n+1)
2
. Une base de Sn (K)
est formée par :
– les matrices nulles sauf un coefficient diagonal égal à 1,
– les matrices nulles sauf deux coefficients en positions symétriques ((i, j) et (j, i) avec
i 6= j) égaux à 1.
Les théorèmes 1.4 et 1.5 donnent donc dans le cas des formes bilinéaires symétriques les
résultats suivant.
Théorème 1.8 Considérons un K-espace vectoriel E de dimension finie admettant une base
E = (e1 , . . . , en ), et x, y ∈ E :
1. Une forme bilinéaire symétrique β : E × E → K est caractérisée par sa matrice sur la
base E
(bij )i,j∈J1..nK = B ∈ Sn (K)
définie par
β(ei , fj ) = bij .
β(x, y) = tXB Y.
Remarque. Comparer la dernière formule avec celle obtenue pour les changements de base
concernant la matrice d’une application K-linéaire de E dans E.
Fait 2.2 Soit β une forme bilinéaire symétrique sur un espace réel.
1. Si β(x, x) > 0 et β(y, y) < 0 alors x et y sont linéairement indépendants et le plan
Vect(x, y) contient un vecteur z 6= 0 tel que β(z, z) = 0 (on dit alors que z est isotrope
pour β).
2. Si β est définie elle est nécessairement définie positive ou définie négative.
Définition 2.3
1. On appelle produit scalaire sur un espace vectoriel réel E une forme bilinéaire symétrique
définie positive.
2. On appelle espace préhilbertien réel un couple (E, h•, •i) où E est espace vectoriel réel et
h•, •i : E × E → R, (x, y) 7→ hx, yi est un produit scalaire.
3. On appelle espace vectoriel euclidien un espace préhilbertien réel (E, h•, •i) lorsque E est
espace vectoriel réel de dimension finie.
4. On appelle espace affine euclidien un triplet (E , E, h•, •i) où (E , E) est un espace affine
réel de dimension finie et (E, h•, •i) est un espace vectoriel.
Dans la suite nous parlerons d’espace euclidien en sous-entendant en général espace vectoriel
euclidien.
Exemples.
p
Pour u ∈ E, on note kuk = hu, ui.
Théorème 2.4 Pour x, y ∈ E, on a
p
Théorème 2.5 L’application u 7→ kuk = hu, ui est une norme sur E, c’est-à-dire une
+
application E → R satisfaisant les 3 conditions suivantes :
1. kuk = 0 ⇐⇒ u = 0 (u ∈ E).
2. ka uk = |a| kuk (a ∈ R, u ∈ E).
3. ku + vk 6 kuk + kvk (u, v ∈ E).
Si (E , E) est un espace affine euclidien, l’application
−−→
d : E × E → R+ , (M, N ) 7→ d(M, N ) = M N
Remarque. Expressions sur une base orthonormée, pour l’inégalité de Cauchy-Schwarz, pour
l’inégalité triangulaire. Le résultat obtenu n’est pas si évident à priori. Cela semble encore
moins évident avec des produits scalaires sur des espaces de fonctions.
En sens contraire, on peut noter que les deux inégalités ne concernent finalement que deux
vecteurs, donc que tout se passe dans un simple plan euclidien. En outre, si x 6= 0 et si l’on
écrit y = ax + z avec hx, zi = 0, l’inégalité de Cauchy-Schwarz devient évidente par simple
calcul.
2.2 Orthogonalité
Fait 2.6 (systèmes libres et orthogonalité)
Soit E un espace préhilbertien réel.
1. Un système de vecteurs non nuls deux à deux orthogonaux dans E est libre.
2. Un système de vecteurs u1 , . . . , ur dans E est libre si et seulement si sa matrice de Gram
G = (hui , uj i)i,j∈J1..rK est inversible.
Vect(e1 , . . . , ei ) = Vect(f1 , . . . , fi ).
2.2 Orthogonalité 11
2. Formulation matricielle (un peu plus précise). Si B est une matrice symétrique réelle
pour une forme définie positive, il existe une unique matrice unitriangulaire supérieure T
telle que t T B T soit diagonale.
3. Soit B une matrice symétrique réelle. Les propriétés suivantes sont équivalentes :
(a) B est la matrice d’une forme définie positive.
(b) Il existe une matrice triangulaire inversible T telle que B = t T T .
(c) Il existe une matrice inversible P telle que B = tP P .
Dualité
Proposition 2.9 Sur un espace euclidien E toute forme linéaire α : E → R s’écrit de manière
unique sous forme x 7→ ha, xi. La bijection a 7→ α, E → E ? est un isomorphisme canonique en
présence du produit scalaire.
Sous-espaces orthogonaux
Théorème et définition 2.10 Soit E un espace euclidien de dimension n, avec une base
orthonormée E.
1. Pour tout sous-espace vectoriel F de E, on a E = F ⊕ F ⊥ .
La projection de E sur F parallèlement à F ⊥ s’appelle la projection orthogonale sur F .
On la notera πF .
2. Si u1 , . . . , ur est une base orthonormée de F , on a pour x ∈ E,
Xr
πF (x) = hx, ui i ui .
i=1
3. Si M est une matrice ayant pour colonnes les ui exprimés sur E, la matrice de πF sur
cette base est M tM .
4. Une matrice P ∈ Mn (R) représente une projection orthogonale (sur la base E) si et
seulement si P = tP et P 2 = P .
12 Mathématiques. L2. 2 ESPACES VECTORIELS EUCLIDIENS
On va voir que ce théorème se généralise pour une bonne part à un sous espace de dimension
finie d’un espace préhilbertien complexe quelconque.
Exercice 2.1 Si E est de dimension finie muni d’une base orthonormée E et si M est une ma-
trice ayant pour colonnes des générateurs indépendants de F exprimés sur E, alors l’expression
de la projection πF , vue comme endomorphisme linéaire de E, sur E est donnée par :
t
−1 t
M MM M.
Premières propriétés
Définition 3.2
1. Un endomorphisme ϕ de E est dit symétrique si pour tous x, y ∈ E on a hϕ(x), yi =
hx, ϕ(y)i, autrement dit si ϕ = ϕ? . Si F est la matrice de ϕ sur une base orthonormée de
E, cela signifie que F = tF .
2. On note S (E) l’ensemble des endomorphismes symétriques de E : c’est un espace vecto-
riel réel de dimension n(n+1)
2
.
Lemme 3.3 Soient u et v des vecteurs propres d’un endomorphisme symétrique pour des va-
leurs propres réelles distinctes. Alors u ⊥ v.
Théorème 3.7
1. Un endomorphisme de E est symétrique si et seulement si il est diagonalisable sur une
base orthonormée.
2. Une matrice M ∈ Mn (R) est symétrique si et seulement si il existe une matrice P ∈ On (R)
et une matrice diagonale réelle D ∈ Mn (R) telles que M = P −1 DP .
Démonstration. Résulte par récurrence des deux lemmes précédents. 2
Remarque. Pour faire fonctionner la preuve par récurrence, il suffit de savoir qu’au moins une
valeur propre est réelle. Ce résultat partiel peut être obtenu sans passer par les complexes en
considérant une valeur extrémale de la fonction x 7→ hϕ(x), xi restreinte à la sphère kxk = 1 (une
valeur extrémale existe parce que la sphère est compacte). Si la valeur extrémale est obtenue en
a alors l’hyperplan tangent à la sphère doit être confondu, au point a, avec l’hyperplan tangent
à la surface hϕ(x), xi = hϕ(a), ai. Un peu de calcul différentiel montre que ceci signifie que les
vecteurs a et ϕ(a) sont proportionnels.
3.3 Formes bilinéaires symétriques sur un espace euclidien 17
Théorème 3.8 Toute forme bilinéaire symétrique β sur E peut être diagonalisée sur une base
orthonormée, autrement dit il existe une base orthonormée E = (e1 , . . . , en ) telle que β(ei , ej ) =
0 si i 6= j.
Sous forme un peu plus abstraite : sur un espace réel de dimension finie, étant donnée deux
formes bilinéaires symétriques dont l’une est définie positive, il existe une base qui est orthogo-
nale pour chacune des deux formes.
Exemples.
1) Les axes d’une ellipse qui n’est pas un cercle. Les axes d’une hyperbole.
2) Classification des ellipsoı̈des et hyperboloı̈des dans l’espace euclidien. Cas où il y a un axe de
révolution. Les axes d’un ellipsoı̈de. Les axes d’un hyperboloı̈de à une nappe ou à deux nappes.
Théorème 3.9
1. Tout isomorphisme linéaire entre deux espaces euclidiens admet une matrice diagonale
positive pour deux bases orthonormées convenables de E et F . Les éléments diagonaux
rangés par ordre croissant, 0 < λ1 6 . . . 6 λn sont appelés les valeurs singulières de
l’application linéaire ϕ.
2. Si ϕ s’exprime par une matrice M sur des bases orthonormées E et F de E et F , les λ2i
sont les valeurs propres de tM M .
3. Toute matrice M ∈ GLn (R) s’écrit sous forme P DQ avec P, Q ∈ On (R) et D diagonale
positive. Les éléments diagonaux rangés par ordre croissant, 0 < λ1 6 . . . 6 λn sont
appelés les valeurs singulières de la matrice M .
18 Mathématiques. L2. 3 APPLICATIONS LINÉAIRES/ORTHOGONALITÉ
On peut aussi donner une preuve matricielle du résultat précédent. On note que tM M est
une matrice symétrique définie positive, qui peut donc s’écrire tQ D2 Q avec Q ∈ On (R) et D
diagonale positive. On pose alors P = M (DQ)−1 = M tQ D−1 et on calcule tP P :
Remarque. Lorsque toutes les valeurs singulières sont égales, la déformation consiste en un
simple changement d’échelle (une homothétie composée avec une isométrie). Le coefficient de
déformation, au sens intuitif de la chose, est donc λn /λ1 . Ce coefficient joue un grand rôle en
analyse numérique matricielle.
Isométries en dimension 2
Petits dessins.
Ma,b Ma0 ,b0 = Maa0 −bb0 ,ab0 +a0 b = Ma0 ,b0 Ma,b , Ma,b Ma,−b = I2 .
L’application
θ 7→ la rotation dont la matrice est Rθ
est un homomorphisme du groupe (R, +) sur le groupe des rotations : Rθ Rθ0 = Rθ+θ0 .
5. La symétrie par rapport à 0, ou demi-tour, de matrice −I2 est l’unique rotation qui soit
une symétrie.
Fait 3.12 Sur un espace euclidien E orienté de dimension 2 on a les deux types d’isométries
linéaires suivants :
1. Les isométries directes, ce sont les rotations,
qui admettent sur une base orthonormée
cos θ − sin θ
directe une matrice Rθ = .
sin θ cos θ
Le groupe SO(E) des isométries directes est isomorphe au groupe SO2 (R) des matrices
orthogonales directes.
2. Les isométries indirectes. Toute isométrie indirecte est une symétrie orthogonale (par
rapport
à une droite).
Sur une base orthonormée arbitraire elle admet une matrice du
cos θ sin θ
type : l’axe de la symétrie porte le vecteur (cos α, sin α), où 2α = θ.
sin θ − cos θ
Dans un plan euclidien orienté on peut aussi définir l’angle d’un couple de droites comme
un nombre réel défini modulo π, à partir de l’angle de deux vecteurs dirigeant ces deux droites.
Ici aussi le grand avantage est la formule de Chasles.
On a alors dans un plan affine euclidien la jolie formule A((AB), (AC)) + A((CA), (CB)) +
A((BC), (BA)) = A((AB), (BA)) = 0, qui aurait beaucoup étonné les Grecs, qui pensaient
que la somme des angles d’un triangle faisait deux droits.
Petite note historique. En fait la nature d’un angle n’est pas un nombre, et les Grecs auraient
trouvé aberrante l’idée qu’un angle puisse être un nombre. Le nombre ne constitue que la mesure
de l’angle. D’ailleurs c’est un nombre un peu bizarre car il n’est défini que modulo 2π.
Les mathématiques abstraites reprennent un point de vue plus proche des Grecs et définissent un
angle comme une rotation vectorielle. Dans ce cadre l’angle d’une rotation c’est (( elle-même )) !
et il n’y a pas besoin d’orienter le plan. Quant à l’angle d’un couple (u, v) de vecteurs non
nuls, ce n’est pas (( lui-même )), mais la rotation qui transforme u/ kuk en v/ kvk. On a même
enseigné ceci à des lycéens dans des années étranges.
Il y avait alors deux fonctions cosinus. La fonction cosinus usuelle cos : R → [−1, +1], et la
fonction (( cosinus d’un angle dans un plan orienté )), que l’on notait Cos.
a −b
Ainsi on avait Cos(ρ) = a si la matrice de ρ est , ou encore, puisque l’on identifiait
b a
cos θ − sin θ
une rotation et une matrice de rotation, Cos = cos θ.
sin θ cos θ
Il paraı̂t même que cela plaisait à certains élèves.
Isométries en dimension 3
Proposition et définition 3.13 (Rotations et antirotations)
On considère un espace euclidien orienté de dimension 3.
1. Une rotation ρ est une isométrie qui admet la valeur propre 1 avec multiplicité 1. Si u
est un vecteur propre correspondant de norme 1 (il définit l’unique droite propre ∆ = Ru
pour la valeur propre 1), le plan P = u⊥ est stable et la restriction de ρ à P est une
rotation.
2. Si l’espace est orienté, si on oriente la droite ∆ par u et si (u, v, w) est une base ortho-
normée directe la matrice de ρ est déterminée de manière unique, de la forme
1 0 0
0 cos θ − sin θ
0 sin θ cos θ
et on dit que ρ est une rotation d’axe ∆ (orienté) et d’angle θ.
3. Une antirotation ρ0 est une isométrie qui admet la valeur propre −1 avec multiplicité
1. Si u est un vecteur propre correspondant de norme 1 (il définit l’unique droite propre
∆ = Ru pour la valeur propre −1), le plan P = u⊥ est stable et la restriction de ρ à P
est une rotation.
Si l’espace est orienté, si on oriente la droite ∆ par u et si (u, v, w) est une base ortho-
normée directe la matrice de ρ est déterminée de manière unique, de la forme
−1 0 0
0 cos θ − sin θ θ 6≡ π mod 2π
0 sin θ cos θ
et on dit que ρ est une antirotation d’axe ∆ (orienté) et d’angle θ, ou encore une antiro-
tation de plan Π (si Π = ∆⊥ ).
3.4 Isométries d’un espace vectoriel euclidien 21
Fait 3.14 Sur un espace euclidien E orienté de dimension 3 on a les types d’isométries liné-
aires suivants :
1. L’identité.
2. Les isométries directes distinctes de Id. Ce sont les rotations. Parmi celles-ci les symétries
orthogonales par rapport à une droite sont les rotations d’un demi tour.
Le groupe SO(E) des isométries directes est isomorphe au groupe SO3 (R) des matrices
orthogonales directes.
3. La symétrie par rapport à 0 de matrice −I3 .
4. Les isométries indirectes distinctes de la précédente. Ce sont les antirotations. Les anti-
rotations d’angle nul sont les symétries orthogonales par rapport à des plans.
NB : On peut voir la symétrie par rapport à 0 comme une antirotation d’un demi-tour dans
n’importe quel plan.
où E+1 = Ker(ψ − IdE ), E−1 = Ker(ψ + IdE ) et chaque Hi est un plan vectoriel fixe par ψ, la
restriction de ψ à Hi étant une rotation d’angle θi 6≡ π mod 2π.
En effet si zj = xj + iyj avec xj , yj ∈ R on trouve la norme euclidienne usuelle sur l’espace R2n .
Notons que j |zj |2 = j zj zj .
P P
Nous allons donner un traitement général de ce type de norme sur un espace vectoriel
complexe, basé sur les propriétés algébriques de l’application (( produit scalaire ))
P
V × V → C définie par ((z1 , . . . , zn ), (t1 , . . . , tn )) 7→ j zj tj
Nous allons voir qu’en fait pour les espaces de dimension finie, il n’y a rien de plus que ce
que nous venons de dire, car tout espace hermitien admet une base orthonormée.
Définitions
Définition 4.1 Soit E un espace vectoriel complexe. Une application ϕ : E × E → C est
appelée un produit scalaire hermitien si les égalités suivantes sont vérifiées (pour z, z 0 , t, t0 ∈ E
et a ∈ C)
1. linéarité à droite :
– ϕ(z, t + t0 ) = ϕ(z, t) + ϕ(z, t0 )
– ϕ(z, at) = aϕ(z, t)
2. antilinéarité à gauche :
– ϕ(z + z 0 , t) = ϕ(z, t) + ϕ(z 0 , t)
– ϕ(az, t) = aϕ(z, t)
3. (( symétrie )) ϕ(z, t) = ϕ(t, z)
4. positivité : ϕ(z, z) ∈ R+
5. non dégénérescence : ϕ(z, z) = 0 ⇒ z = 0
On dit aussi forme hermitienne définie positive, conformément aux précisions suivantes.
Définition 4.2 Avec les notations de la définition précédente
6. On parle des forme sesquilinéaire quand les items 1. et 2. sont satisfaits.
7. Deux éléments z1 , z2 de E sont dit orthogonaux (pour la forme ϕ) si ϕ(z1 , z2 ) = 0. Un
élément orthogonal à lui même est dit isotrope.
8. On parle de forme hermitienne quand les items 1., 2. et 3. sont satisfaits.
9. Une forme hermitienne est dite positive lorsque ϕ(x, x) > 0 pour tout x
10. Une forme hermitienne est dite définie lorsque 0 est le seul vecteur isotrope.
La théorie des formes hermitiennes est l’équivalent complexe de la théorie des formes biliné-
aires symétriques réelles.
Définition 4.3
1. On appelle espace préhilbertien complexe un couple (E, h•, •i) où E est espace vectoriel
complexe et h•, •i : E × E → R, (x, y) 7→ hx, yi est un produit scalaire hermitien.
2. On appelle espace hermitien un espace préhilbertien complexe (E, h•, •i) lorsque E est
espace vectoriel complexe de dimension finie.
24 Mathématiques. L2. 4 ESPACES HERMITIENS (COMPLEXES)
Dans la suite (E, h•, •i) est un espace vectoriel préhilbertien complexe
Inégalité de Cauchy-Schwarz
p
Pour u ∈ E, on note kuk = hu, ui.
Théorème 4.5 Pour u, v ∈ E, on a
Remarque. Expressions sur une base orthonormée, pour l’inégalité de Cauchy-Schwarz, pour
l’inégalité triangulaire. Le résultat obtenu n’est pas si évident à priori. Cela semble encore
moins évident avec des produits scalaires sur des espaces de fonctions.
Remarque. Quelques relations
Démonstration. Si u1 est une combinaison linéaire des autres ui la première ligne de G est (la
même) combinaison linéaire des autres lignes.
Si les ui sont linéairement indépendants, on les exprime au moyen d’une matrice P sur une
base orthonormée de l’espace qu’ils engendrent.
Alors le calcul donne G = tP P donc det G = |det P |2 . D’où le résultat. 2
Dualité
Proposition 4.9 Sur un espace hermitien E toute forme linéaire α : E → C s’écrit de manière
unique sous forme x 7→ ha, xi. La bijection a 7→ α, E → E ? est une application antilinéaire
canonique en présence du produit scalaire.
Orthogonalité
Théorème et définition 4.10
On suppose E de dimension finie n, avec une base orthonormée E.
1. Pour tout sous-espace vectoriel F de E, on a E = F ⊕ F ⊥ .
La projection de E sur F parallèlement à F ⊥ s’appelle la projection orthogonale sur F .
On la notera πF .
26 Mathématiques. L2. 4 ESPACES HERMITIENS (COMPLEXES)
3. Si M est une matrice ayant pour colonnes les ui exprimés sur E, la matrice de πF sur
cette base est M tM .
4. Une matrice P ∈ Mn (R) représente une projection orthogonale (sur la base E) si et
seulement si P = tP et P 2 = P .
On va voir que ce théorème se généralise pour une bonne part à un sous espace de dimension
finie d’un espace préhilbertien complexe quelconque.
Le premier item dans la définition suivante ne suppose pas que l’espace préhilbertien com-
plexe est de dimension finie. Mais ensuite nous passons à la dimension finie.
Définition 4.12
1. Un endomorphisme ϕ de E est dit hermitien si pour tous x, y ∈ E on a hϕ(x), yi =
hx, ϕ(y)i. On dit aussi : ϕ est un opérateur hermitien.
2. Si H est la matrice de ϕ sur une base orthonormée de E, cela signifie que H = tH. On
dit alors que la matrice F est hermitienne.
3. On note H (E) l’ensemble des endomorphismes hermitiens de E : c’est un espace vec-
toriel réel de dimension n + n(n − 1) = n2 et Hn (C) ⊆ Mn (C) l’ensmble des matrices
hermitiennes.
4.3 Isométries linéaires (applications unitaires) 27
Lemme 4.14 Toute valeur propre d’un endomorphisme hermitien ϕ est réelle.
Le groupe unitaire
Pour un espace hermitien E on est intéressé par les isomorphismes linéaires de E qui
conservent la distance hermitienne d(x, y) = kx − yk.
4.4 Compléments
Diagonalisation d’une forme hermitienne
On se rappelle la définition d’une forme hermitienne donnée au paragraphe 4.1.
On rappelle que l’on note Hn (C) l’ensemble des matrices hermitiennes de Mn (C), i.e. les
matrices vérifiant tB = B.
Sur un espace vectoriel complexe de dimension finie, une forme hermitienne β s’exprime
comme suit.
Lemme 4.20 Soit F une base arbitraire d’un espace vectoriel complexe F de dimension finie.
1. Une forme hermitienne β : F × F → C est caractérisée par sa matrice sur la base F
(bij )i,j∈J1..nK = B ∈ Hn (C)
définie par
β(ei , fj ) = bij ,
2. Si X =F,F x et Y =F,F y sont les vecteurs colonnes représentant x et y sur F, on obtient
β(x, y) = tXB Y.
3. Inversement toute matrice hermitienne définit une forme hermitienne sur F via la formule
précédente.
4. Si F 0 est une autre base de F et si P est la matrice de passage de F à F 0 , la matrice B 0
de β sur F 0 est égale à
B 0 = tP BP.
Fn particulier det(B 0 ) = |det(P )|2 det(B).
Théorème 4.21 Toute forme hermitienne β sur l’espace hermitien E peut être diagonalisée
sur une base orthonormée, autrement dit il existe une base orthonormée E = (e1 , . . . , en ) telle
que β(ei , ej ) = 0 si i 6= j.
Démonstration. On considère la matrice de la forme dans une base orthonormée et on applique
le théorème 3.7 page 16. 2
4.4 Compléments 29
Théorème 4.22
1. Tout isomorphisme linéaire entre deux espaces hermitiens admet une matrice diagonale
positive pour deux bases orthonormées convenables de E et F . Les éléments diagonaux
rangés par ordre croissant, 0 < λ1 6 . . . 6 λn sont appelés les valeurs singulières de
l’application linéaire ϕ.
2. Si ϕ s’exprime par une matrice M sur des bases orthonormées E et F de E et F , les λ2i
sont les valeurs propres de tM M .
3. Toute matrice M ∈ GLn (C) s’écrit sous forme P DQ avec P, Q ∈ Un (C) et D diagonale
réelle positive. Les éléments diagonaux rangés par ordre croissant, 0 < λ1 6 . . . 6 λn
sont appelés les valeurs singulières de la matrice M .
Remarque. Comme cas particulier, si E est de dimension finie, la matrice de β sur une base E
n’est autre que GRAMβ (E).
L’intérêt des matrices de Gram est particulièrement évident dans le cas des espaces qui sont
de dimension infinie, ou plus généralement des espaces qui n’ont pas de base finie connue. Si
la forme β est suffisamment explicite, on a alors accès à des informations sur le système de
vecteurs A qui seraient difficiles à atteindre autrement. Par exemple :
Proposition 5.1 Si la matrice de Gram G d’un système (a1 , . . . , ak ) par rapport à une forme
bilinéaire symétrique β est régulière (i.e. inversible), les vecteurs ai sont linéairement indé-
pendants.
Pk
Démonstration. Supposons que i=1 xi ai = 0, le calcul montre que
x1 0
. .
G .. = .. .
xk 0
Remarque. Nous verrons que la proposition précédente admet une réciproque dans le cas d’un
produit scalaire dans un espace réel.
Dans le cas d’un espace de dimension finie, le fait suivant généralise la formule de changement
de base.
Fait 5.2 Si le système de vecteurs A = (a1 , . . . , ak ) s’exprime sur la base E = (e1 , . . . , en ) sous
la forme d’une matrice Q ∈ Mn,k (le j-ème vecteur colonne de Q représente le vecteur aj sur
la base E), et si B est la matrice de β sur E, alors :
Remarque. Le calcul qui établit le fait précédent n’a pas eu besoin de supposer que E était une
base de E. Il suffit que l’on puisse exprimer le système A linéairement en fonction du système
E pour que les deux matrices de Gram, GRAMβ (a1 , . . . , ak ) et B = GRAMβ (e1 , . . . , en ), soient
reliées par la formule précédente.
Proposition 5.3 Une forme bilinéaire symétrique étant fixée, une famille finie de vecteurs non
isotropes deux à deux orthogonaux est libre.
Démonstration. En effet la matrice de Gram de ce système est une matrice diagonale, avec des
éléments non nuls sur la diagonale, donc elle est inversible. 2
Exemples.
A⊥ = { x ∈ E | ∀y ∈ A, x ⊥ y }
Proposition 5.5 Si F est un sous-espace d’un espace de dimension finie E et β une forme
bilinéaire symétrique sur E, on a :
1. dim F + dim F ⊥ > dim E.
2. E = F ⊕ F ⊥ ⇐⇒ F ∩ F ⊥ = {0}.
Démonstration. 1. Posons m = dim F et soit P ∈ Mm,n (K) une matrice ayant pour vecteurs
lignes une base de F (écrits sur E). Si X =E x alors x ∈ F ⊥ si et seulement si F B X = 0.
Puisque F B est une matrice de Mm,n (K), son noyau est de dimension > n − m.
2. Résulte de 1. 2
5.2 Orthogonalité, isotropie 33
Noyau et rang
On appelle noyau d’une forme bilinéaire symétrique β sur un espace E le sous-espace vec-
toriel E ⊥ , on le note Ker β. C’est donc l’ensemble des vecteurs orthogonaux à tous les vecteurs
de E.
Proposition 5.6 On suppose que E est de dimension finie n avec une base E. Si B est la
matrice de β sur E, un vecteur x représenté par le vecteur colonne X sur E est dans Ker β si
et seulement si BX = 0.
Démonstration. Le vecteur colonne X représente un vecteur de Ker β si et seulement si tY BX =
0 pour tout Y . Ceci équivaut à BX = 0. 2
Remarque. La vraie raison de la proposition 5.6 est que Ker β = Ker βd où βd : E → E ? est
l’application K-linéaire associée à β.
La forme β est dite non dégénérée si son noyau est nul, elle est dite dégénérée dans le cas
contraire.
On appelle rang de la forme β le rang d’une matrice B qui représente β sur une base E.
Ce rang est bien défini (indépendant du choix de la base E) : c’est ce qui découle de la for-
mule de changement de base. Cela découle également de la formule suivante, justifiée par la
proposition 5.6 :
rang de β + dim Ker(β) = dim E.
Théorème 5.7 Soit β une forme bilinéaire symétrique non dégénérée sur un espace de dimen-
sion finie E. Alors pour tous sous-espaces F et G de E on a :
1. dim F + dim F ⊥ = dim E.
⊥
2. F ⊥ = F
3. (F + G)⊥ = F ⊥ ∩ G⊥ .
4. F ⊥ + G⊥ = (F ∩ G)⊥ .
En particulier l’application F 7→ F ⊥ établit une bijection décroissante de l’ensemble des sous-
espaces vectoriels de E dans lui-même.
Démonstration. 1. On reprend la démonstration de la proposition 5.5. Posons m = dim F et
soit P ∈ Mm,n (K) une matrice ayant pour vecteurs lignes une base de F (écrits sur E). Si
X =E x alors x ∈ F ⊥ si et seulement si F B X = 0. Puisque B est régulière, la matrice F B a
même rang m que P , son noyau est de dimension n − m.
2. Résulte de 1. et de l’inclusion F ⊆ (F ⊥ )⊥ .
3. Déjà vu pour une forme bilinéaire symétrique arbitraire.
4. Résulte de 2. et 3. 2
Théorème 5.8 Soit E un K-espace vectoriel de dimension finie et β une forme bilinéaire
symétrique sur E. Soit F un sous-espace vectoriel de E. Alors E = F ⊕ F ⊥ si et seulement si
F est non isotrope.
Remarque. Dans un tel cas, si on dispose de bases de F et F ⊥ et que les matrices de β restreinte
à F et F ⊥ sur ces bases sont B1et B2 , la matrice de β sur la base correspondante de E est la
B1 0
matrice (( diagonale par blocs )) .
0 B2
Fait 5.9 Il revient au même de dire que la matrice de β sur E 0 est diagonale. Du point de vue
matriciel, trouver une base orthogonale E 0 c’est déterminer une matrice de passage P ∈ GLn (K)
telle que la matrice tP B P soit diagonale.
Cette diagonalisation d’une forme bilinéaire symétrique est beaucoup plus facile que la
diagonalisation d’un endomorphisme ϕ (qui se fait avec la formule de changement de base
P −1 M P ). Cette dernière n’est d’ailleurs pas toujours possible. Par contre :
Théorème 5.10 Toute forme bilinéaire symétrique sur un espace de dimension finie possède
une base orthogonale. Plus précisément une forme bilinéaire symétrique arbitraire β admet une
matrice du type
D 0
0 0
où D ∈ Sr (K) est une matrice diagonale inversible (i.e., ses coefficients diagonaux sont non
nuls) et r est le rang de β.
Notons que la deuxième affirmation du théorème est une conséquence immédiate de la première.
Nous commençons par un lemme.
5.3 Base orthogonale, (( diagonalisation )) 35
Démonstration du théorème 5.10. Faisons une démonstration par récurrence sur la dimension
de l’espace. En cas de dimension 0 ou 1 il n’y a rien à faire.
Supposons la dimension n > 2. La forme β admet la matrice B = (bij ) sur une base E =
(e1 , . . . , en ).
a) Si la première colonne de B, hormis peut-être b11 , est nulle, on considère le sous-espace
F = he2 , . . . , en i et la restriction β|F de β à F . Par hypothèse de récurrence, β|F admet une
base orthogonale F = (f2 , . . . , fn ). Alors le système (e1 , f2 , . . . , fn ) est une base orthogonale de
E pour β.
b) Si b11 6= 0. Puisque pour i > 2 on a β(e1 , ei − λe1 ) = b1i − λb11 , pour λi = b1i /b11 le vecteur
est orthogonal à e1 . Ainsi la matrice de β pour la base (e1 , e2 − λ2 e1 , . . . , en − λn e1 ) est du type
envisagé en a).
c) Il reste à examiner le cas où b11 = 0 avec un coefficient de la première colonne non nul.
Par exemple b21 6= 0. Alors le plan H = he1 , e2 i est hyperbolique pour β|H. Comme β|H est
non dégénérée, on a E = H ⊕ H ⊥ (théorème 5.8). Ainsi H admet une base orthogonale par le
lemme 5.11, et H ⊥ également par hypothèse de récurrence. 2
Une autre démonstration, matricielle, du théorème 5.10. Considérons une matrice symétrique
que nous décomposons en 4 blocs :
B1 C
B=
t B2
C
ce qui donne
B1 0
t
P BP =
0 B3
avec B3 = − tCB1 C + B2 .
La diagonalisation de B est ainsi ramenée aux diagonalisations de B1 et B3 .
Mathématiques. L2. 5 FORMES BILINÉAIRES SYMÉTRIQUES. THÉORIE
36 GÉNÉRALE.
Base orthonormales
Une base E est dite β-orthonormale si la matrice de β sur E est In .
Is 0 0
0 −It 0
0 0 0u
Remarque. On a donc obtenu une classification complète des formes bilinéaires symétriques en
dimension finie sur les espaces réels et complexes. Le problème de la classification sur Q, c’est-
à-dire lorsque l’on part d’une matrice symétrique à coefficients rationnels et que l’on autorise
5.3 Base orthogonale, (( diagonalisation )) 37
uniquement les changements de base dans GLn (Q), est très difficile et sa solution est due à
Gauss.
6 Formes quadratiques
On considère un K-espace vectoriel E de dimension finie.
La notion de fonction polynôme homogène du second P degré qP: E → K est bien définie :
elle ne dépend pas de la base choisie pour E, si q(x) = i ai x2i + i<j cij xi xj lorsque x a pour
coordonnées (x1 , . . . , xn ) sur une base, après changement de base, chaque xi est remplacé par
une expression linéaire en les nouvelles coordonnées (z1 , . . . , zn ), et l’on obtient pour q(x) une
nouvelle expression, en les zi , qui reste un polynôme homogène du second degré.
Si on pose β(x, y) = i ai xi yi + 12 i<j cij (xi yj + xj yi ), on voit que q(x) = β(x, x).
P P
Ainsi, la forme β est uniquement déterminée par q, elle s’appelle la forme polaire de q.
Fait 6.2 Une application q : E → K est une forme quadratique si et seulement si sont vérifiées
les propriétés suivantes :
q(2x) = 4q(x) ∀x ∈ E
(x, y) 7→ q(x + y) − q(x) − q(y) ∈ Bil(E)
Fait 6.3 Les formes quadratiques sur E forment un K-espace vectoriel naturellement iso-
morphe à Bilsym(E).
On parlera de la matrice d’une forme quadratique sur une base de E, de son rang, de vecteur
isotrope pour les mêmes notions concernant la forme bilinéaire symétrique associée (la forme
polaire).
Si β(x, y) = 0, on dit aussi que x et y sont conjugués par rapport à q.
La forme quadratique q (ou sa forme polaire) est dite définie si 0 est le seul vecteur isotrope.
Remarque. De manière générale, pour une forme bilinéaire symétrique β sur un espace vectoriel
E arbitraire et un système (x1 , . . . , xn ) dans E on a Gram(x1 , . . . , xn ) 6= 0 si et seulement si :
a) le sous-espace hx1 , . . . , xn i est non isotrope, et b) les xi sont linéairement indépendants.
40 Mathématiques. L2. 6 FORMES QUADRATIQUES
Théorème 6.5
1. Toute formePquadratique sur un K-espace vectoriel de dimension finie n peut s’écrire
sous forme ki=1 ai λi (x)2 , où les λi sont des formes linéaires indépendantes et les ai des
scalaires non nuls.
Ici, k est le rang de la forme quadratique.
2. Sur le corps C, on peut se ramener à la forme ki=1 λi (x)2 .
P
avec les entiers s et t > 0 qui ne dépendent que de la forme quadratique. Le couple (s, t)
est appelé la signature de la forme quadratique (théorème d’inertie de Sylvester).
Une forme quadratique réelle est dite positive si q(x) > 0 pour tout x, négative si q(x) 6 0
pour tout x. Dans le premier cas la signature est (s, 0), dans le second cas (0, t).
Fait 6.6 Une forme quadratique complexe n’est jamais définie, sauf en dimension 1.
Une forme quadratique réelle en dimension n est définie si et seulement si sa signature est
(n, 0) ou (0, n) (elle est donc soit définie et positive, soit définie et négative).
La méthode de Gauss
Pour obtenir une forme réduite, il est en général pratique d’utiliser l’algorithme suivant dû
à Gauss.
Traitons d’abord deux exemples.
Exemple 1.
L’algorithme général
Considérons q(x1 , . . . , xn ) = i ai x2i + i<j bij xi xj . On peut supposer la forme non identique-
P P
ment nulle.
6.2 Réduction d’une forme quadratique 41
1er cas. Il y a un ai 6= 0.
Par exemple a1 6= 0. On considère tous les termes contenant x1 , on écrit la somme correspon-
dante sous la forme
X n b1j
a1 x21 + 2x1 cj xj avec cj =
j=2 2a1
de sorte que
q(x) = a1 q1 (x) + q2 (x2 , . . . , xn )
et Xn 2 X n 2
q1 (x) = x1 + cj xj − cj xj .
j=2 j=2
2e cas. Tous les ai sont nuls. Un des bij est non nul.
Par exemple b1,2 . On considère tous les termes contenant x1 ou x2 . On écrit la somme corres-
pondante sous la forme
de sorte que
q(x) = b1,2 q1 (x) + q3 (x3 , . . . , xn )
avec
On écrit
1 1 1 1
AB = (A + B)2 + (A − B)2 = (x1 + x2 + λ + µ)2 + (x1 − x2 + λ − µ)2 .
4 4 4 4
Il reste à réduire la forme en x3 , . . . , xn donnée par
Pour passer à quelque chose de (( plus géométrique )) il faut rajouter les translations, de
façon à faire perdre à 0E son statut privilégié (( non géométrique )). Le groupe engendré par les
translations et les automorphismes linéaires est alors le groupe affine.
Ainsi, alors que selon le premier point de vue un plan affine est un plan euclidien dans lequel
on oublie l’orthogonalité et l’équidistance (on les a perdues), selon le second point de vue, un
plan affine est un plan vectoriel dans lequel on a perdu l’origine.
Nous allons choisir ce second point de vue, plus facile à exposer.
Définition 7.1
1. Un espace affine réel de dimension n est donné par un triplet (E , E, +) où
– E est un ensemble (l’ensemble des (( points )) de l’espace affine),
– E est un espace vectoriel réel de dimension n (l’ensemble des (( vecteurs )) de l’espace
affine), et
– + est une loi externe : E × E → E , (A, v) 7→ A + v,
– le tout avec les propriétés suivantes :
∀A ∈ E , ∀u, v ∈ E, (A + u) + v = A + (u + v)
∀A ∈ E , A + 0E = A
∀A, B ∈ E , ∃!u ∈ E, A+u=B
−→
Dans le dernier axiome, on note u = AB.
2. Un repère cartésien d’un espace affine (E , E, +) est un couple
Il est muni d’une structure d’espace affine en prenant comme loi externe pour F et F la
restriction de la loi externe pour E et E.
4. Une application affine d’un espace affine (F , F, +) vers un autre espace affine (E , E, +)
est donnée par un couple (ϕ, ψ), où ϕ : F → E est une application, ψ : E → F est une
application linéaire, soumises à la condition :
Remarques diverses
En général on parle de l’espace affine E en sous-entendant les deux autres ingrédients (l’es-
pace vectoriel et la loi externe). On dit aussi : (( E est un espace affine dirigé par E )).
Il serait sans doute plus logique de définir la structure affine au moyen de deux lois externes,
la loi + : E × E → E d’une part, et la loi
−→
E × E → E, (A, B) 7→ AB,
d’autre part. Cela permettrait de n’avoir que des axiomes (( universels )) (i.e., les seuls quanti-
ficateurs dans les axiomes sont des quantificateurs universels).
La translation de vecteur u est l’application τu définie par
τu : E → E , A 7→ A + u.
E → Rn , M 7→ X, où X =E ,R M
est une application affine bijective, c’est celle qui envoie le repère R sur le repère affine canonique
de Rn formé par l’origine 0 et la base canonique.
Toute propriété dans E peut ainsi être traduite en une propriété dans Rn , qui est le modèle
canonique d’espace affine.
Néanmoins, pour comprendre vraiment ce qui se passe dans E , il ne suffit pas tout à fait de
savoir calculer dans Rn . Il faut aussi au moins savoir bien manipuler le changement de paysage
dans Rn lorsque l’on change de repère affine dans E .
Donc
−−→ Xn −−→ Xn 0 0
u = A0 − A + u0 = AA0 + u0 et u = xi ei = AA0 + xi ei ,
i=1 i=1
ce qui donne avec des vecteurs colonnes, en réexprimant ni=1 x0i e0i sur la base E : X = Q0 +P X 0 .
P
Degré 1 :
4. Un point réel simple : x
Degré 0 :
5. Aucun point (ni réel, ni complexe) : 1
6. Tous les points : 0
Nous allons voir que ce phénomène (classification finie) se produit également en dimension
supérieure.
Toute fonction polynomiale de degré 6 2 sur un plan affine se ramène, après multiplication
par une constante non nulle, à une et une seule des formes suivantes (pour chaque forme réduite,
on donne (( en titre )) la nature des zéros du polynôme) :
Degré 2 :
1. Ellipse : x2 + y 2 − 1
2. Hyperbole : x2 − y 2 − 1
3. Parabole : x2 − y
4. Ellipse imaginaire : x2 + y 2 + 1 (pas de point réel)
5. Deux droites réelles sécantes : x2 − y 2
6. Deux droites imaginaires conjugées sécantes : x2 + y 2 (un point réel unique)
7. Deux droites réelles parallèles : x2 − 1
8. Deux droites imaginaires conjuguées parallèles : x2 + 1 (pas de point réel)
9. Une droite réelle (( double )) : x2
Degré 1 :
10. Une droite réelle simple : x
Degré 0 :
11. Aucun point : 1
12. Tous les points : 0
48 Mathématiques. L2. 7 CONIQUES ET QUADRIQUES AFFINES
Dans quelle mesure une courbe de degré 2 est-elle déterminée par son équation ?
La réponse à la question est : oui, l’équation d’une courbe de degré 2 est déterminée, à un
facteur multiplicatif près, par les points de la courbe dans P, pour les cas suivants : ellipse,
parabole, hyperbole, deux droites sécantes, deux droites parallèles.
Si on veut un résultat complètement général il faut faire intervenir aussi les (( points
complexes )) de la courbe, mais nous n’avons pas bien défini l’espace dans lequel ils se trouvent.
Si on tolère de faire descendre le degré en dessous de 2, une droite double ne peut pas être
distinguée d’une droite simple par la seule considération de ses points (réels ou complexes).
Coniques dégénérées
Parmi les fonctions polynomiales de degré 2 on trouve, outre les ellipses, hyperboles et pa-
raboles, les types suivants, les courbes correspondantes sont appelées des coniques dégénérées :
1. Deux droites réelles sécantes : x2 − y 2 = 0
2. Deux droites imaginaires conjugées sécantes : x2 + y 2 = 0, (un seul point réel), celui de
coordonnées (0, 0).
3. Deux droites réelles parallèles : x2 − 1 = 0
4. Deux droites imaginaires conjugées parallèles : x2 + 1 = 0 (pas de point réel)
5. Une droite réelle double : x2 = 0
Un changement de variables affine en (x, y) (du type X = P X 0 +Q) produit alors un changement
de variables linéaire en (x, y, z) = z · (x/z, y/z, 1). Précisément en posant Z = t[ x y 1 ] et
Z 0 = t[ x0 y 0 1 ] on obtient
P Q
Z = Z0
0 0 1
Donc la forme ψ se réécrit en utilisant le changement de variables linéaire correspondant à la
P Q
matrice ∈ GL3 (R) ci-dessus, et le type de la forme ψ (à changement de variables
0 0 1
linéaire près) ne dépend que du type du polynôme ϕ (à changement de variables affine près).
On voit alors facilement, en homogénéisant les formes réduites obtenues pour les polynômes de
degré 6 2 que la forme quadratique ψ est non dégénérée seulement dans les 4 cas suivants :
ellipse, hyperbole, parabole, ellipse imaginaire.
En outre on vérifie que ellipse, hyperbole et parabole donnent en fait le même type pour
ψ (rappelons que l’on travaille toujours à constante multiplicative près), à savoir une forme
quadratique de signature (2, 1) : x2 + y 2 − z 2 (sous forme plus imagée : de type + + −).
L’ellipse imaginaire correspond à une homogénéisée de signature (3, 0), du type x2 + y 2 + z 2 .
Les coniques dégénérées correspondent à des homogénéisées dégénérées de signature (2, 0)
ou (1, 1).
7.2 Les coniques 49
Figure 2 – Ellipsoı̈de x2 + y 2 + z 2 = 1
Si A est une matrice injective, ce qui correspond à un système linéaire surdéterminé, on dit
que l’on résout le système linéaire au sens des moindres carrés.
Voici une solution théorique pour le problème général encadré ci-dessus. Tout d’abord on
remplace B par sa projection orthogonale B0 = πF (B) sur l’espace vectoriel F image de A.
Ensuite, si X0 est une solution de AX = B0 et si K = Ker A, on doit remplacer X0 par
X0 − πK (X0 ) pour trouver la solution (( la meilleure )).
Cette approche, correcte en théorie, est cependant un peu naı̈ve car il arrive que la matrice
A n’ait pas un rang bien défini du point de vue numérique. Cela se produit notamment lorsque
ses coefficients ne sont connus que de manière approchée et que la matrice n’est pas clairement
de rang maximum. Dans ce cas son noyau et son image ne sont pas bien définis.
Par ailleurs, à supposer que le rang de A soit clairement connu, il reste tout le problème
de savoir comment conduire les calculs avec des (( réels machine )) (en virgule flottante) pour
obtenir une solution fiable.
Lemme 8.2 Dans un espace affine euclidien, pour deux points distincts A et B, l’ensemble des
−→
points équidistants de A et B est un hyperplan affine : l’hyperplan orthogonal à AB passant
par le milieu I = A+B2
du segment [AB]. On l’appelle l’hyperplan médiateur de A et B.
Définition 8.3 Dans un espace affine E (non nécessairement euclidien), considérons un repère
cartésien (A0 , E), avec E = (e1 , . . . , en ). Notons Ai = A0 + ei . Un tel système de n + 1 points
de E , (A0 , A1 , . . . , An ), est appelé un repère affine de E .
54 Mathématiques. L2. 8 COMPLÉMENTS DE GÉOMÉTRIE
Exemples. En dimension 1, 2, 3 : deux points distincts, triangle non aplati, tétraèdre non
aplati.
Fait 8.4 Dans un espace affine de dimension n, un système de n + 1 points est un repère affine
si et seulement si il n’est contenu dans aucun hyperplan affine.
Lemme 8.5 Soit (E , E) un espace affine euclidien. Si une bijection de E conserve les distances
et fixe un repère affine, elle est égale à l’identité. Autrement dit encore : si deux bijections de E
conservent les distances et transforment de la même manière un repère affine, elles sont égales.
Démonstration. Pour le premier point : si ce n’était pas l’identité, il y aurait un point B qui a
pour image un point C distinct de B. Mais alors tous les points du repère affine devraient être
dans l’hyperplan médiateur de C et B.
Pour le deuxième point on compose la première bijection avec la bijection inverse de la se-
conde : c’est une bijection qui conserve les distances et fixe le repère affine considéré. Donc c’est
l’identité. 2
Théorème 8.6 Si une bijection de E conserve les distances, c’est une transformation affine
et elle est égale au produit d’au plus n + 1 symétries orthogonales par rapport à des hyperplans
affines de E .
Démonstration. Il suffit de construire une transformation affine qui envoie un repère affine
donné R sur un repère affine isométrique R0 au moyen du produit d’au plus n + 1 symétries
orthogonales par rapport à des hyperplans affines. Cela se fait par étapes. La première étape
envoie le premier point de R sur le premier point de R0 au moyen de la symétrie orthogonale
par rapport au plan médiateur des deux points. Ceci transforme R en R1 . Ensuite on envoie
de la même manière le deuxième point de R1 sur le deuxième point de R0 . On vérifie que le
premier point de R1 ne bouge pas. Après deux symétries orthogonales on a donc transformé R
en R2 , les deux premiers points de R2 étant les mêmes que ceux de R0 . Il suffit de continuer.
On peut voir la chose fonctionner dans le plan et dans l’espace de dimension 3. 2
8.3 Coniques
Ellipses, hyperboles et paraboles
Une ellipse est une courbe qui possède une équation de la forme x2 + y 2 − 1 = 0 dans un
repère affine convenable, l’origine est un centre de symétrie, la courbe est bornée (entièrement
contenue dans un parallélogramme).
Elle admet le paramétrage t 7→ (cos t, sin t).
Du point de vue purement algébrique le paramétrage (( rationnel )) suivant est plus intéressant :
1 − t2 2t
t 7→ , .
1 + t2 1 + t2
Avec y = t(1 + x). Ce paramétrage rationnel est presque une bijection : le point (−1, 0) est la
limite lorsque t tend vers ±∞.
8.3 Coniques 55
Figure 7 – Ellipse x2 + y 2 = 1
Figure 8 – Hyperbole x2 − y 2 = 1
Une hyperbole est une courbe qui possède une équation de la forme x2 − y 2 − 1 = 0 dans
un repère affine convenable, l’origine est un centre de symétrie, la courbe est non bornée, elle
possède deux branches, les droites x + y = 0 et x − y = 0 sont asymptotes à chacune des
deux branches. On dit que les directions des droites x + y = 0 et x − y = 0 sont les directions
asymptotiques de l’hyperbole.
Elle admet le paramétrage t 7→ (cosh t, sinh t).
Du point de vue purement algébrique le paramétrage (( rationnel )) suivant est plus intéressant :
1 1 1 1
t 7→ t+ , t− .
2 t 2 t
56 Mathématiques. L2. 8 COMPLÉMENTS DE GÉOMÉTRIE
Figure 9 – Parabole x2 − y = 0
– tous les points : ce cas ne se produit pas avec nos trois coniques, car elles ne contiennent
jamais 3 points alignés.
Sections coniques
Lorsque l’on a une courbe C dans un plan affine P, avec un système de coordonnées (x, y)
par rapport à un repère cartésien R = (A, (i, j)), on peut regarder ce plan comme le plan z = 1
dans un espace affine de dimension 3 par rapport à un repère cartésien R0 = (O, (i, j, k)) où
−→
le vecteur k est OA. Considérons alors le cone de sommet O qui s’appuie sur la courbe C . Si
l’équation de la courbe est q(x, y) = 0, l’équation du cone, comme équation en (x, y, z), est,
pour z 6= 0, q(x/z, y/z) = 0. Si q est un polynôme de degré k en x, y, on peut retrouver un
polynôme de degré k en (x, y, z) en prenant q hom = z k q(x/z, y/z) : cela s’appelle l’homogénéisé
de q (en degré k).
Voici ce que cela donne avec les trois coniques réelles non dégénérées :
– une ellipse d’équation x2 + y 2 − 1 = 0 donne un cone d’équation x2 + y 2 − z 2 = 0
– une hyperbole d’équation x2 − y 2 − 1 = 0 donne un cone d’équation −x2 + y 2 + z 2 = 0
– une parabole d’équation x2 − y = 0 donne un cone d’équation x2 − yz = 0, ce qui donne
après un changement de variables linéaire x02 + y 0 2 − z 0 2 = 0
58 Mathématiques. L2. 8 COMPLÉMENTS DE GÉOMÉTRIE
Le polynôme obtenu reste forcément de degré 2, mais cela ne saute pas aux yeux. La raison
est qu’une forme quadratique non dégénérée en dimension 3 ne possède pas de sous-espace
totalement isotrope de dimension 2.
Une étude détaillée montre que l’on obtient les types suivants, qui correspondent bien à (( ce
que l’on voit )) :
– non dégénérées (plan ne passant pas par le sommet du cone)
– hyperbole
– ellipse
– parabole
– dégénérées (plan passant par le sommet du cone)
– deux droites sécantes
– deux droites imaginaires conjuguées sécantes
– une droite double (plan tangent au cone)
Les trois premiers cas correspondent (dans le même ordre) aux trois seconds : on prend le plan
parallèle passant par le sommet du cone.
on peut définir sa forme polaire b(M, M 0 ) qui s’exprimera en coordonnées dans le même repère
R par
1 1 1
ϕ1 (x, y; x0 , y 0 ) = axx0 + b(xy 0 + x0 y) + cyy 0 + d(x + x0 ) + e(y + y 0 ) + f
2 2 2
de sorte que b(M, M ) = q(M ). Si on pose
0 0 1 ∂ϕ ∂ϕ
ψ(x, y; x , y ) = (x, y)x0 + (x, y)y 0
2 ∂x ∂y
en effet :
x+x0 2
− 21 x2 − 21 x02 = xx0
2 2
(x+x0 ) (y+y 0 )
2 2 2
− 12 xy − 12 x0 y 0 = 1
2
(xy 0 + x0 y)
0)
2 (x+x 2
− 12 x − 12 x0 = 1
2
(x + x0 )
2 × 1 − 21 × (1 + 1) = 1
Les points M et M 0 sont dits conjugués par rapport à la conique C définie par q lorsque
b(M, M 0 ) = 0.
Proposition 8.8
1. Deux polynômes de degré 6 2 qui définissent la même relation de conjugaison dans P
sont proportionnels (même si la conique n’a pas de points réels, ou si elle a un seul point
réel).
2. Pour une ellipse, une parabole ou une hyperbole on a :
(a) Les conjugués d’un point arbitraire, distinct du centre dans le cas ellipse ou hyperbole,
forment une droite. On dit que la droite est la droite conjuguée du point par rapport
à la conique.
(b) On obtient ainsi une bijection entre les points du plan (distincts du centre dans le
cas ellipse ou hyperbole) et les droites du plan (ne passant pas par le centre dans le
cas ellipse ou hyperbole).
(c) La droite conjuguée d’un point de la conique est la tangente en ce point.
où `A est une forme linéaire (un élément de E ? ) qui dépend de A, et θ : E → R est une forme
quadratique qui ne dépend pas de A.
Démonstration. L’écriture q(A + u) = q(A) + `A (u) + θA (u) n’est autre que l’écriture générale
d’un polynôme de degré 6 2 lorsque le repère affine choisi a pour origine A, et a priori, on a une
dépendance une possible de θ par rapport à A. Si B = A + b, on obtient q(B + u) = q(A + b +
u) + `A (b + u) + θA (b + u) et q(B) = q(A + b) + `A (b) + θA (b). En notant βA (x, y) la forme polaire
de θA , on obtient q(B + u) = q(B) + `A (u) + 2βA (b, u) + θA (u). Ainsi `B (u) = `A (u) + 2βA (b, u)
et θA (u) = θB (u). 2
Pour cette raison on peut dire que θ est la forme quadratique à l’infini de la fonction polyno-
miale q.
Comme conséquence on retrouve qu’un changement de variables affine ne change pas la
signature de la forme quadratique donnée par la composante homogène de degré 2 d’une fonction
polynomiale de degré 6 2.
Concernant la forme quadratique (( homogénéisée )), la chose est un peu plus délicate. Voici une
explication informelle dans le cas de la dimension 2. Soit P un plan affine et π : P → R une
fonction polynomiale de degré 6 2.
On considère le plan affine P comme étant un plan affine plongé dans un espace vectoriel
E de dimension 3, avec un plongement tel que P ne contienne par l’origine O, c’est-à-dire le
0E de E. On peut identifier les vecteurs de P aux vecteurs correspondants de E.
Si R = (A, (u, v)) est un repère affine de P, alors E = (u, v, A) est une base de E. Notons
(x, y, z) les coordonnées d’un (( point )) de E sur cette base. Celle-ci donne le repère cartésien
(O, E) = (O, (u, v, A)) de E lorsque l’on le considère comme un espace affine. L’équation de P
dans ce repère est z = 1.
Soit p(x, y) le polynôme qui exprime la fonction polynomiale π dans le repère R. Alors
la forme quadratique homogénéisée de p : q(x, y, z) = z 2 p(x/z, y/z), exprime sur la base E
une forme quadratique sur E. Cette forme quadratique est l’équation du cone de sommet O
s’appuyant sur la conique dont l’équation dans R est p(x, y) = 0.
8.4 Quadriques
Les droites qui (( s’appuient )) sur trois droites de l’espace