Vous êtes sur la page 1sur 452

ALGÈBRE

LINÉAIRE
Joseph Grifone
4e édition

Cépaduès
h P :
:

M; fv
www.cepadues.com
Algèbre linéaire

4e édition

Joseph GRIFONE

CÉPADUÈS-ÉDITIONS
111, rue Nicolas Vauquelin
31100 Toulouse-France
Tél. : 05 6140 57 36 Fax : 05 6l 4179 89
-

www.cepadues.com
Courriel : cepadues@eepadues,com
Coordonnées GPS en WGS 84
N43°34'43,2"
E001°24'21,5"
Chez le même éditeur
Robustesse et commande optimale ...AlazardD. étal

Eléments d'analyse numérique ...AttéiaM., PradelM.


Analyse variationnelle et Optimisation ...Azé D. et Hiriart- UrrutyJ-B.

Simulation et algorithmes stochastiques... BartoliN.,DelMoralP.


Réduction des Endomorphismes Boucetta M., MorvanJ-M.et R.
Dualité, Formes quadratiques. Formes hermitiennes Boucetta M., Morvan R.

Mesure et intégration. Intégrale de Lebesgue BouysselM.


Cours d'Analyse fonctionnelle et complexe CaumelY.

Calcul sans retenue ChioccaM.

Méthodes Mathématiques Première S. Analyse CintractB., MarcN.

Espaces Vectoriels, Applications Linéaires ...Colin ]-]., Morvan J-M.

Topologie des espaces vectoriels normes Colin J-J., Morvan J-M. etR.

Que savez-vous de l'outil mathématique ? Collection en six fascicules... Collectif


Modélisation probabiliste et statistique GarelB.

Mathématiques et résolution des équations aux dérivées partielles classiques... ...GiraudG, DufourJ.P.
Les fonctions spéciales vues par les problèmes Groux R., Soulat Ph.

Principes généraux et méthodes fondamentales GrouxR.

Polynômes orthogonaux et transformations intégrales GrouxR.

Les structures et les morphismes vus par les problèmes- ...Groux R., Soulat Ph.

Analyse : la convergence vue par les problèmes ...Groux R, Soulat Ph.

Algèbre linéaire GrifoneJ.


Analyse fonctionnelle et théorie spectrale... IntissarA.

Invitation à l'Algèbre ...Jeanneret A., Lines D.

Probabilités et statistique appliquées ...LacazeB., Mailhes C, Maubourguet M.M., TourneretJ.-Y.


Résolution numérique des équations aux dérivées partielles LePourhietA.

Arithmétique Modulaire et Cryptologie Meunier P.

Problèmes de Mathématiques tome 1, tome 2, tome 3 Monna G., Morvan R.


Probabilités et statistiques pour ingénieurs et commerciaux ..PellaumailJ., Perret A., BasleL.

La démarche statistique B.Prum

Analyse fonctionnelle ...Samuelides M., Touzillier L.


Problèmes d'analyses fonctionnelle et harmonique... ...Samuelides M., Touzillier L.

Introduction à la Topologie SondazD., Morvan R.


Calcul différentiel Todjihounde L.
Espaces vectoriels, Matrices Zafindratafa G., Morvan R.

©CEPAD 1995-2011 ISBN : 978.2.85428.962.6


1re éd. 978.2.85428.239.9

Le code de la propriété intellectuelle du 1er juillet 1992 interdit expressément la photocopie à usage
collectif sans autorisation des ayants-droit. Or, cette pratique en se généralisant provoquerait une baisse
brutale des achats de livres, au point que la possibilité même pour les auteurs de créer des œuvres nouvelles
et de les faire éditer correctement est aujourd'hui menacée.

Nous rappelons donc que toute reproduction, partielle ou totale, du présent ouvrage est interdite sans
autorisation de l'Éditeur ou du Centre français d'exploitation du droit de copie (CFC 3, rue d'Hautefeuille
-

75006 Paris).

Dépôt légal: mai 2011 N°éditeur: 962


Sommaire

1 Espaces Vectoriels 1
1.1 Introduction 1
1.2 Espaces vectoriels 4
1.3 Sous-espaces vectoriels 6
1.4 Bases (en dimension finie) 10
1.5 Existence de bases (en dimension finie) 15
1.6 Les théorèmes fondamentaux sur la dimension 17
1.7 Bases en dimension infinie 20
1.8 Somme, somme directe, supplémentaires
sous-espaces 21
1.9 Somme et somme directe de plusieurs sous-espaces 25
2 La méthode du pivot (ou méthode d'élimination de Gauss) ... 37
2.1 Etude d'un système d'équations linéaires par la méthode du pivot 37
2.2 Cas des systèmes linéaires homogènes 42
2.3 Application aux familles libres et aux familles génératrices .... 44
2.4 Utilisation pratique de la méthode du pivot 48
3 Applications linéaires et matrices 57
3.1 Applications linéaires 57
3.2 Image et noyau. Image d'une famille de vecteurs 59
3.3 Matrices et applications linéaires 63
3.4 Produit de deux matrices 70
3.5 Matrice d'un vecteur. Calcul de l'image d'un vecteur 72
3.6 Produits de matrices. Matrice de l'inverse d'une application ... 74
3.7 Changement de base 76
3.8 Rang d'une application linéaire et rang d'une matrice 80
3.9 Espace dual 81
3.10 Annulateur d'un sous-espace 87
4 Déterminants 103
4.1 Définition des déterminants par récurrence 103
4.2 Les déterminants vus comme formes multilinéaires alternées . . . 105
4.3 Permutations, transpositions, signature 109
4.4 Une formule explicite pour le déterminant 112
4.5 Déterminant de la transposée d'une matrice 114
4.6 Calcul des déterminants 115
4.7 Déterminant du produit de matrices. Déterminant d'un endomor-
phisme 119
4.8 Calcul de l'inverse d'une matrice 121

i
SOMMAIRE

4.9 Application des déterminants à la théorie du rang 122


4.10 Interprétation géométrique du déterminant : volume dansMn . . . 127
4.11 Orientation 131
Systèmes d'équations linéaires 141
5.1 Définitions et interprétations 141
5.2 Systèmes de Cramer 142
5.3 Cas général. Le théorème de Rouché-Fontené 144
5.4 Cas des systèmes homogènes 148
Réduction des endomorphismes 153
6.1 Position du problème 153
6.2 Vecteurs propres 155
6.3 Recherche des valeurs propres. Polynôme caractéristique 157
6.4 Digression sur les polynômes 158
6.5 Recherche des vecteurs propres 161
6.6 Caractérisation des endomorphismesdiagonalisables 163
6.7 Trois applications 168
6.8 Trigonalisation 171
6.9 Polynômes annulateurs. Théorème de Cayley-Hamilton 174
6.10 Le Lemme des noyaux 179
6.11 Recherche des polynômes annulateurs. Polynôme minimal .... 181
6.12 Réduction en blocs triangulaires
(ou réduction selon les espaces caractéristiques) 184
6.13 Décomposition de Dunford 188
6.14 La réduction de Jordan 192
Espaces euclidiens 217
7.1 Produit scalaire canonique dans M2 et R3 217
7.2 Produit scalaire sur un espace vectoriel. Espaces euclidiens .... 221
7.3 Méthode de Gauss pour la réduction en carrés 223
7.4 Le théorème fondamental des espaces euclidiens. Procédé d'ortho-
normalisation de Schmidt 227
7.5 Norme d'un vecteur. Angle non orienté 231
7.6 Représentation matricielle du produit scalaire 233
7.7 Sous-espaces orthogonaux 236
7.8 Endomorphisme adjoint 238
7.9 Groupe orthogonal 238
7.10 Étude de 0(2,R) et 0(3, M) 241
7.11 Rotations et angle dans un espace euclidien de dimension 2 ou 3 . 246
7.12 Produit vectoriel 249
7.13 Diagonalisation des endomorphismes autoadjoints d'un espace
euclidien 252
Espaces hermitiens 273
8.1 Formes hermitiennes. Produit scalaire hermitien 273
8.2 Inégalité de Cauchy-Schwarz. Norme 277
8.3 Matrices hermitiennes 279
8.4 Orthogonalité
Bases orthonormées. 280
8.5 Endomorphisme adjoint 282
8.6 Groupe unitaire 282
SOMMAIRE

8.7 Diagonalisation des endomorphismes autoadjoints d'un espace her-


Endomorphismes normaux
mitien. 285
9 Formes bilinéaires et formes quadratiques 295
9.1 Rang et noyau d'une forme bilinéaire 295
9.2 Formes bilinéaires symétriques et formes quadratiques en
dimension finie 299
9.3 Définition de forme quadratique en dimension infinie 301
9.4 Rang, Noyau et vecteurs isotropes d'une forme quadratique . . 302 .

9.5 Bases orthogonales. Réduction des formes quadratiques 304


9.6 Recherche d'une base orthogonale par la méthode de Gauss . . 306
.

9.7 Classification des formes quadratiques sur un espace vectoriel


complexe 308
9.8 Classification des formes quadratiques sur un espace vectoriel réel.
Théorème de Sylvester 309
9.9 Sous-espaces orthogonaux 311
9.10 Formes quadratiques dans un espace euclidien 313
9.11 Endomorphisme adjoint 315
9.12 Groupe orthogonal associé à une forme quadratique 316
10 Formes hermitiennes 327
10.1 Rang et noyau d'une forme hermitienne 327
10.2 Orthogonalité. Vecteurs isotropes 329
10.3 Bases orthogonales et classification des formes hermitiennes . . . 330
10.4 Groupe unitaire associé à une forme hermitienne 331
10.5 Formes hermitiennes dans un espace hermitien 332
A.l Vocabulaire de base 337
A.2 Polynômes 345
A.3 Quotients 351
A.4 Compléments sur la méthode du pivot. Indications sur les méthodes directes359
A.5 Inverses généralisées 365
A.6 Exponentielle d'une matrice 373
A.7 Espaces affines 379
A.8 Sur les isométries dans le plan et dans l'espace 395
A.9 Groupes de symétries 401
A. 10 Sur la décomposition des transformations orthogonales 409
A.11 Coniques et quadriques 413
A. 12 Portrait de phase d'un système autonome 421
A. 13 Formes bilinéaires et sesquilinéaires. Table de correspondance 431
Avant-Propos v

AVANT-PROPOS

L'Algèbre Linéaire a une place spéciale parmi les disciplines enseignées en premier
cycle d'Université. D'une part parce que, étant utilisée pratiquement dans toutes les
branches scientifiques, sa connaissance fait partie du bagage indispensable au futur
chercheur, ingénieur ou agrégatif. D'autre part parce que l'algèbre et la géométrie se
mêlent constamment, l'imagination est sans cesse sollicitée et, de ce fait, elle est très
utile à la formation de l'esprit mathématique.
Malheureusement les programmes actuels de l'enseignement dans le secondaire ne
comportent presque plus d'Algèbre Linéaire. N'ayant ni le recul, ni le langage de base,
les étudiants abordent souvent cette discipline d'une manière abstraite et formelle : il
s'ensuit un décalage entre le niveau requis et les résultats atteints, décalage que tout
enseignant a pu constater ces dernières années.
Dans cet ouvrage, fruit d'une expérience de plusieurs années d'enseignement de
l'Algèbre Linéaire en premier cycle d'Université, j'ai essayé de combler cette lacune. Je
me suis efforcé de présenter les différentes notions en mettant en évidence leur raison

d'être et leur intérêt, en soulignant leur signification géométrique et en illustrant


chaque notion et chaque énoncé par des exemples et des exercices résolus.
J'ai évité, cependant, les originalités. En particulier, le plan est des plus classiques,
avec une seule exception : les espaces euclidiens et les espaces hermitiens sont traités

avant les formes quadratiques et les formes hermitiennes, contrairement à ce qui est
fait dans la plupart des manuels. L'expérience montre que, malgré les redites, ces
parties du cours sont beaucoup mieux comprises.
J'ai aussi essayé d'aller à l'essentiel. Pratiquement toute l'algèbre linéaire est
contenue dans le cadre où le corps des scalaires est M ou C. Non pas que l'algèbre linéaire
sur les corps finis, par exemple, ne soit pas intéressante, mais elle n'est pas essentielle

à la compréhension profonde de la théorie. C'est pourquoi j'ai relégué en appendice


tout le bagage sur l'algèbre générale (notions de groupes, anneaux, corps, polynômes

formels, quotients, etc) qui souvent assomme l'étudiant en début d'année. Ici aussi
l'expérience prouve que, lors une seconde lecture, celui qui a déjà assimilé la
substance, le mécanisme et la vision géométrique de l'algèbre linéaire sur RouC passe
sans difficultés à l'algèbre linéaire sur les corps plus généraux. Cependant toutes les

définitions et les énoncés sont donnés pour un corps quelconque de manière à ce que
l'exposé ne souffre pas de cette restriction.
Les appendices jouent d'ailleurs un rôle important dans le plan de cet ouvrage. J'ai
voulu éviter un livre trop dense, une sorte d'encyclopédie de résultats, où l'étudiant
a du mal à dégager ce qui est essentiel et ce qui est secondaire. Aussi les différents

chapitres sont consacrés à la compréhension de ce qui est essentiel à la théorie, alors


que les résultats annexes et les compléments sont traités en Appendice. Par ailleurs
les appendices peuvent servir efficacement à ouvrir l'esprit sur le vaste champ auquel
l'algèbre linéaire est appliquée. Pour ne citer qu'un exemple, j'ai renvoyé en appendice
l'exponentielle des matrices, non seulement parce que son introduction dans le cours
de base n'est pas vraiment essentielle, mais aussi parce que l'on peut ainsi mieux
mettre en évidence l'importance et l'intérêt que cette notion présente, par exemple

pour les systèmes dynamiques, voire les algèbres de Lie et les groupes continus de
transformations. Dans ce même esprit j'ai traité dans les appendices certains thèmes
que l'on aborde en général en dernière année de Licence ou en Master, comme les
vi Avant-Propos

inversesgénéralisées, la méthode des moindres carrés, les méthodes directes de calcul


numérique, les espaces affines, les systèmes dynamiques. Il ne s'agit pas évidemment
d'exposés complets, mais d'introductions, qui, je l'espère, éveilleront la curiosité et
l'intérêt du lecteur.
A la fin dechaque chapitre sont proposés un certain nombre d'exercices et de
problèmes. plus difficiles sont précédés d'un ou plusieurs *. Leur finalité est de
Les
faciliter une meilleure compréhension du cours et d'apprendre, graduellement, à se
servir des notions acquises. J'ai choisi de ne pas donner la solution complète, afin
d'encourager le lecteur à chercher lui-même la réponse : tout enseignant sait qu'il est
bien plus profitable pour un étudiant de réfléchir sur un exercice, voire d'échouer,
que de lire plusieurs solutions. Cependant, l'expérience montre aussi que, souvent, le
fait de ne disposer d'aucune indication peut amener à des impasses et décourager la
réflexion. Ce qui m'a semblé le plus utile, est de guider la réflexion en donnant à part
des indications sur la façon d'aborder les questions et de progresser dans le
raisonnement, en fournissant aussi les résultats des calculs. Pour un bon recueil d'exercices
et de problèmes, le lecteur est invité à consulter les livres de Jean-Marie Morvan et
al. (Ed. Cépaduès), rédigés dans le même esprit que ce manuel et avec les mêmes
-1
notations.
À l'occasion de cette nouvelle édition je voudrais tout d'abord renouveler ma

gratitude envers tous ceux qui ont eu la gentillesse de m'aider par leurs indications et leurs
commentaires, ou qui ont pris la peine de me signaler les coquilles et les corrections.
Puisque je ne me fais pas d'illusions et que des imprécisions se sont probablement
glissées aussi dans cette version, je suis d'avance reconnaissant envers tous ceux qui
auront l'amabilité de me les signaler ou qui voudront bien me faire part de leurs

remarques et de leurs suggestions pour améliorer cet ouvrage 2.


Je voudrais remercier tout spécialement ceux de mes collègues qui m'ont aidé par
leurs conseils tout au long des diverses éditions de ce livre, en consacrant souvent une
partie non négligeable de leur temps. MM. Jean-Baptiste Hiriart-Urruty, Lubomir
Gavrilov, Pierre Damphousse, ont droit tout particulièrement à ma reconnaissance.
Pour terminer, je voudrais répéter ce que je disais lors de la première parution de
cet ouvrage : que je n'aurais jamais songé à publier ce livre car il existe de nombreux
-

et excellents manuels l'avait d'abord


3 -

si un certain nombre de mes étudiants ne me

suggéré, puis demandé. C'est à eux que je le dédie.

Note sur la quatrième édition.


Dans cette nouvelle édition, j'ai ajouté quelques exercices et problèmes, ainsi que
des appendices afin de mieux faire comprendre les relations particulièrement
nouveaux

étroites entre l'Algèbre Linéaire et la Géométrie. En particulier, le lecteur trouvera


en appendice une étude plus fine du groupe orthogonal, la description du groupe des

isométries en dimension trois et une introduction aux groupes cristallographiques par


la détermination des groupes discrets de symétries d'un sous-ensemble borné de R3.

en Mathématiques, en particulier : Espaces vectoriels et Matrices;


Collection Bien débuter
1

Réduction des endomorphismes ; Dualité, Formes quadratiques, Formes hermitiennes ; Problèmes


de Mathématiques (3), Algèbre linéaire ; Topologie des espaces vectoriels normes.
2email : jgrifone@gmail.com
3cf. par exemple, les deux tomes de J.M. Monier : Algèbre 1 et 2, Ed. Dunod.
Chapitre 1

Espaces Vectoriels

1.1 Introduction

Beaucoup de problèmes de mathématiques ou de physique vérifient la propriété


: si u et v sont deux solutions, alors u + v est aussi une solution, ainsi que k u,
suivante
k étant un nombre réel ou complexe. De tels problèmes sont dits linéaires et ils sont
1

habituellement plus faciles à résoudre que les problèmes plus généraux (appelés "non
linéaires" précisément).
Les physiciens, par exemple, rencontrent souvent des problèmes linéaires : le principe
de superposition exprime justement le fait que les équations de la chaleur, des cordes
vibrantes, de l'électricité, etc. sont linéaires. Beaucoup d'autres problèmes sont
linéaires en première approximation : l'équation des oscillations du pendule, par exemple,
n'est pas linéaire, mais si l'on s'intéresse aux petites oscillations, elle peut être
approchée par une équation linéaire.

En fait, un grand nombre de problèmes provenant de toutes les branches des


mathématiques, ainsi que des applications à la physique, à la chimie, à l'économie, etc.,
sont linéaires, du moins en première approximation. On comprend dès lors l'intérêt

qu'il peut y avoir à dégager un cadre mathématique commun à ce type de problèmes,


de manière à pouvoir déterminer des méthodes et des algorithmes adaptés. Ce cadre
mathématique commun est la notion <¥ espace vectoriel

Avant de commencer l'étude abstraite, considérons un exemple géométrique qui va


nous permettre de visualiser, manière, les constructions que nous allons
d'une certaine
élaborer.

On sait que les physiciens représentent certaines grandeurs par des segments

"^Nous verrons dans la suite une définition plus précise de cette notion.

1
2 Espaces Vectoriels

orientés que l'on appelle vecteurs. Une force, par


exemple, n'est pas déterminée uniquement par
son intensité, mais aussi :
-

par son point d'application ;


par la direction et le sens suivant
-

lesquels elle s'exerce.


On représente cela par une flèche ayant comme
origine le point d'application, de longueur égale à
l'intensité de la force et dont le sens et la direction
sont ceux de la force. Figure 1

Sur les vecteurs de même origine on peut définir deux opérations :

Figure 2 Figure 3

l'addition, qui exprime la loi de composition des forces ou des vitesses, définie par

(cf. 2))
-

la «règle du parallélogramme» fig. ;

le produit d'un vecteur par un nombre réel À, qui donne un vecteur homothétique
de rapport À, c'est-à-dire un vecteur ayant la même direction, de même sens si
À > 0 et de sens contraire si À < 0, et dont la longueur est multipliée par |À|
(cf. fig. 3)).
REMARQUE. —

On n'additionne pas de vecteurs d'origines différentes.


La théorie des espaces vectoriels reflète justement cette situation ; aussi si l'on veut
avoir une visualisation géométrique du problème, il faudra considérer toujours
uniquement des vecteurs ayant tous la même origine.

Pour pouvoir faire des calculs, on part de l'observation suivante. Considérons le plan
ou l'espace ordinaire2, que nous noterons 8 et fixons un point O G S. A tout point
P £ £ est associé un et un seul vecteur d'origine O (celui qui a P comme extrémité). Si
l'on choisit un système de coordonnées d'origine O, on peut donc repérer les vecteurs
du plan issus de O par les coordonnées de P, c'est-à-dire par les couples (#i, £2) G M2.
D'une manière analogue, les vecteurs issus d'un point de l'espace peuvent être repérés
par les triplets (£i,#2,#3) G M3.

2Nous utiliserons les mots plan, espace, point, système de coordonnées, etc. au sens de la géométrie
élémentaire.
1.1 Introduction 3

z
A

%3

+>x +>y

Figure 4

On vérifie facilement que si v =


(#i, #2), w =
(yi, 2/2) et À G R, alors :

tf+w =
(zi +yi,x2+2/2)
À î/ =
(À£i,À#2)
A l'aide de ces formules, on peut vérifier les propriétés suivantes :

A) L'addition est commutative et associative, c'est-à-dire :

v + w =
w + v
(commutativité)
iï+ (v + w) =
(u + v) + w
(associativité)

De plus, il existe un vecteur noté 0 tel que 0 + v pour tout vecteur v (il
v
=

s'agit évidemment du vecteur de longueur nulle 0 =


(0,0)). Enfin, pour tout
vecteur v, il existe un vecteur w tel que v + w =
0 (si v (rci,^) alors
=

w =
(-xu-x2)).

B) Quant au produit par un réel, il vérifie les propriétés suivantes :

X(fjbv) =
(À fi) v
(\ + fj,)v =
\v-\-fiv
\{v + w) =
\v + \w
1 .v =
v

Il y a, bien entendu, beaucoup d'autres propriétés qui sont vérifiées mais, comme
nous le verrons, celles que nous venons de signaler constituent justement «le cadre

mathématique commun à tous les problèmes linéaires». En d'autres termes, toutes les
propriétés essentielles des problèmes linéaires peuvent être dégagées à partir de ces
propriétés.

REMARQUE. -

L'exemple que l'on vient d'étudier est très utile, car il permet d'avoir

présent à l'esprit un modèle géométrique qui peut servir de support à l'intuition.


Cependant, il est important de comprendre que cette interprétation, même si elle est suggestive,
4 Espaces Vectoriels

n'est pas essentielle à la théorie. D'abord parce que nous ne considérerons pas seulement
des espaces de «dimension» 2 ou 3 comme M2 ou R3 mais aussi des espaces de dimension

supérieure, comme Mni ou approximative on


même de dimension infinie. D'une manière

peut dire que la dimension, dont précise par la suite, est liée
nous donnerons la définition
au nombre des paramètres qui interviennent dans le problème, nombre qui peut être très

grand : dans ce cas, l'analogie avec les vecteurs de l'espace ordinaire risque de ne pas être
d'un grand secours. D'autre part, on considérera aussi la multiplication des vecteurs par
des nombres complexes ou, en général, appartenant à un corps commutât if quelconque
et dans ce cas l'interprétation géométrique de la loi de produit n'est pas évidente. Ceci

dit, le support géométrique est particulièrement important en algèbre linéaire et, en règle
générale, il ne faut pas se priver d'y faire appel.

1.2 Espaces vectoriels

Définition 1.1 -

Soit K un corps commutatif3. On appelle espace vectoriel sur K


un ensemble E sur lequel on a défini deux lois de composition :

A) Une loi interne [c'est-à-dire une application E x E —>


É\ dite addition, notée +, et

vérifiant :

A.l) (x + y) + z =
x + (y + z) , \/x,y,z£E;
A.2) x+y=y+x, Vx,yeE;
A.3) II existe un élément de E noté 0E,ou plus simplement 0, dit neutre, tel
que Va; G E : x + 0E =
x ;

A.4) Pour tout x e E, il existe un élément de E noté (—x), dit opposé de x,


tel que : x + (—x) =
0E 4.

B) Une loi externe de domaine K [c'est-à-dire une application K x E —> E ; on note Xx

(ou À x) l'image dans E du couple (À, x) G K x E], qui vérifie :

B.l) \(fj,x) =
(XfjL)x , V\,neK, VxeE;
B.2) (\ + fj)x =
Xx + fjLX , VÀ,/xGif, \/xeE;
B.3) À (s+ 2/) =
\x + \y, VÀGif, Vx,yeE;
B.4) l.x =
x, VxeE
(1 étant Vêlement neutre de la multiplication dans K).

Les éléments de K sont dits scalaires et ceux de E vecteurs.

3Pour ne pas alourdir l'exposé, la définition de corps est donnée en Appendice 1. Le lecteur qui
n'est pas familiarisé avec cette notion pourra supposer que K R ou C. =

4On exprime ces quatre propriétés en disant que (E, +) est un groupe abélien (ou commutatif)
(cf. Appendice 1).
1.2 Espaces vectoriels 5

Exemple 1. -

E = Rn muni des lois suivantes est un espace vectoriel sur R :

(xi,...,Xn) +(î/l,.--iî/n) :=
(Xi +î/l,...,a5n+î/n)
^/jx'
A(a?i,...,xn) :=
(Azi,.. .,A:rn)
Ici 0Rn =
(0,..., 0) ; l'opposé (—x) de ce =
(xi,..., xn) est (—#i,..., —

xn). De même
Cn est muni d'une structure d'espace vectoriel sur C et, plus généralement, Kn est muni
d'une structure d'espace vectoriel sur K avec les lois définies par les formules (1).

Exemple 2. -

L'ensemble Rn[x] des fonctions polynômes à coefficients dans R de degré < n, c'est-à-dire :

Rn[x] =
{P : R — R | P (x) =
a0 + ai x + + an xn ; a» G R}
est un espace vectoriel sur R pour les lois :

(ao + + anxn) + (6q + + 6nxn) :=


(a0 + 6o) + + (on + &n)xn f2)
^
À(ao + aia;H \-anxn) :=
(Aao + \a\x H |-Àanxn)
Plus généralement, l'ensemble R[x] des fonctions polynômes de tous les degrés possibles à
coefficients dans R est un espace vectoriel sur R avec les lois :

Efcfok**) + Efc(fc*fc) ==
£fcK + **)**

A(Efc«^fc) ==Efc(Aafc)xfc
(les sommes ne comportent qu'un nombre fini de termes non nuls).

Exemple 3.-

Soit M.2{K) —

{ matrices carrées d'ordre 2 à coefficients dans K}. On définit sur M.2{K)


une structure d'espace vectoriel sur K, en posant :

(a b \
( a' b' \
( + af b + b' \
) ) )
a
+
\ c d \c' à! \ c + c' d + d'
(4)
(a b \
f \a Xb \

\ ) ~\Xc )
=

c d Xd

L'élément neutre est évidemment la matrice nulle (


n
1 et l'opposée de ( ,
j
f -a -b
est
\ —d
,
—c

Exemple 4.-

Soit E un espace vectoriel sur K, A un ensemble quelconque non vide, et :

S =
{applications / : A —>
E}
On peut définir sur S une structure d'espace vectoriel sur K par les lois suivantes :

si f,ge£: f + g: A — E
a l >
f(a)+g(a)

si XeK, f <ES: Xf : A —> E


a I
A/(a)
6 Espaces Vectoriels

c'est-à-dire :

(f + 9)(a) :=f(a) + g(a)


W
(A/) (a) :=A/(a)
Ici l'élément neutre est l'application constante nulle et l'opposée de / est définie par

(-/)(«) :="(/(a)).
Exemple 5.-

Soient i?i et £2 deux espaces vectoriels sur le même corps K. On définit une structure

d'espace vectoriel sur E\ x E2 par :

(xi,x2) + (yi>y2) := (zi+2/1,^2 + 2/2)


À(xi,X2) :=
(A#i,Àa;2) (À G if)
D'une manière analogue, on définit une structure d'espace vectoriel sur Ei x x En.
si Ei,..., En sont des espaces vectoriels sur le même corps K.

Proposition 1.2 -

Pour tout X e K et pour tout x e E, on a :

1. A0S=0S et 0z =
0s.
2. Ax Os =
=> A =
0 ou x =
0E.
3. (-À)a =
À(-aO =
-(AaO.
Démonstration : -

1. \0E=\(0E+0E) \0E+\0Ey =
d'où :
0S=A0S
0z (0 + 0)£ 0x + 0z d'où:
= =
0x =
0s.
2. Supposons A a: 0S et A ^ 0. En multipliant par A-1, on obtient X~1(Xx)
= =

A-1 0E c'est-à-dire, d'après 1. : A-1(Ax) 0^ d'où, compte tenu de l'axiome =

Bi, (A-1 A) x 0E c'est-à-dire,


= 1 x
0E
,
et donc x 0E. = =

3. Facile, laissée en exercice.

NOTA. Dans la suite, (—À)a; sera noté Xx et x + (—y) sera noté x y.


- —

Exercices 1. 2. 3.

1.3 Sous-espaces vectoriels

Définition 1.3 Soit E un espace vectoriel et F une partie non vide de E. On dit
-

que F est un sous-espace vectoriel de E, si la restriction des lois de E à F fait de F


un espace vectoriel.

En principe, pour montrer que F est un sous-espace vectoriel, il faudrait vérifier les

huit axiomes de la Définition 1.1. En fait, il suffit de vérifier la «stabilité» des lois de
composition comme l'affirme la proposition suivante :

Proposition 1.4 -

Soit E un espace vectoriel et F G E. Alors F est un sous-espace


vectoriel de E si et seulement si :
1.3 Sous-espaces vectoriels 7

1. F^0
2. (a) x,y G F => x + y eF

(b) xeF.XeK =» ÀxGF

Démonstration : Les conditions sont évidemment nécessaires. Supposons qu'elles


sont satisfaites et montrons que F est un sous-espace vectoriel.
Les axiomes Ai, A2, Bi, B2, B3, B4 sont vérifiés pour tous les éléments de E et donc ils le
sont en particulier par les éléments de F. Il reste à montrer que F admet un élément

neutre et que tout élément de F admet un opposé (dans F).


Soit x e F ; on &0x e F ; mais 0x =
0E donc 0E G F. Ainsi Vêlement neutre 0E de
E appartient à F.
D'autre part, x+ 0E =
x }
Vx G F, car cela est vrai pour tous les x G E ; aussi 0^
est 1' élément neutre de F. L'axiome A3 est donc vérifié.
Enfin, si a; G F, on a (_ 1)# £ F, c'est-à-dire —

x G F. Ainsi, A4 est vérifié.

REMARQUE. -

Comme on vient de le voir, l'élément neutre 0E de E coïncide avec

l'élément neutre 0F chaque de sous-espace F. C'est pour cette raison que, dans la suite,
on le notera simplement 0 (au lieu de 0E ou
0F), s'il n'y a pas de risque de confusion.

La proposition suivante se démontre facilement et elle est laissée en exercice :

Proposition 1.5 -

F est un sous-espace vectoriel de E si et seulement si :

1. F±%
2. x,y G F ; À,/i G K => Xx + \iy G F

REMARQUE. —

Comme on l'a vu au cours de la démonstration, si F est un sous-espace


vectoriel, alors F contient nécessairement le vecteur nul.

Exemples fondamentaux de sous-espaces vectoriels

1. Droite vectorielle.

Soit v e E, v ^ 0 ; alors :

F =
{yeE\3XeK:y =
Xv}

est un sous-espace vectoriel de E dit droite vectorielle engendrée par v (cf. Fig.
5).
En effet F ^ 0, car v G F. De plus, F est stable pour les lois de E, car si

x,y G F (c'est-à-dire : x =
Xv, y
=
/j,v), on a :

x + y =
Xv + jiv =
(à + aO^GF

De même, si x e F (c'est-à-dire x =
Xv), on a : fix
=
fi (Xv) =
(//À) v G F.
8 Espaces Vectoriels

%>

Figure 5

2. Plan vectoriel.

Soient x\, x2 G E et

F =
{y e E | 3Ai,A2 e K : y
=
X1x1 + X2x2} .

F est un sous-espace vectoriel de E, dit sous-espace engendré par xi et x2. Si


#i et ^2 ne sont pas nuls et x2 n'appartient pas à la droite vectorielle engendrée

par #i, F est dit plan vectoriel engendré par x\ et x2.

Figure 6

3. Sous-espace engendré.
Plus généralement, si #i,..., xp G E alors :

F =
{y G S | 3 Ai,..., \p G K : y
=
Ai x± H h Xp xp}
est un sous-espace vectoriel de E noté Vect{#i,..., xp}y
sous-espace engendré dit
par #i,...,JEp, OU aussi espace des de Xi, ,Xp. Nous
combinaisons linéaires . . .

verrons par la suite que, au fond, tous les sous-espaces vectoriels sont de ce type,

c'est-à-dire obtenus par des "combinaisons linéaires" d'une famille d'éléments


deE.

REMARQUE. (Important)

Reprenons l'interprétation géométrique du § 1, E étant


-

l'espace vectoriel des vecteurs d'origine O. Une droite vectorielle est une droite passant
par O. De même, un plan vectoriel est un plan passant par O. Plus généralement, un
sous-espace vectoriel de M.n peut être visualisé comme un "plan de dimension p" passant
par O. On pourrait donner un sens précis à la notion de "plan de dimension p", mais
cela n'est pas nécessaire. Retenons pour le moment le fait qu'il doit passer par O, car

tout sous-espace vectoriel doit contenir le vecteur nul. Ainsi, par exemple, une droite ne

passant pas par O n'est pas un sous-espace vectoriel : les points de la droite sont les
extrémités des vecteurs issus de O et le vecteur nul n'est pas parmi eux.5

5I1 s'agit en fait d'un «sous-espace affine», cf. Appendice 3.


1.3 Sous-espaces vectoriels 9

Exemple 1. -

Figure 7

Soit
F =
{(x,y,z)ER3 | 2x + y + 3z =
0}.
F est un sous-espace vectoriel de R3. En effet, soient v\ =
(xiyyi,zi) et V2 =
(#2, 2/2,22) €
F ; on a :

2œi + 2/1 + Szi =


0 et 2x2 + 2/2 + 3^2 =
0

d'où, en additionnant : 2 {x\ + £2) + (2/1 + 2/2) + 3 (21 + 22) =


0, c'est-à-dire :

vi + V2 =
(xi + £2, î/i + 2/2, 21 + z2) E F

De même, on voit que Xv E F si ÀÇl et v € F.

Exemple 2. -

5 =
{(x,y,z) eM3 \2x —

y

z =
1} n'est pas un sous-espace vectoriel de R3 car

0 =
(0,0,0)g£.

Proposition 1.6 -

Soient F et G deux sous-espaces vectoriels de E.

1. F n G est un sous-espace vectoriel de E.

2. FUG n'est pas en général un sous-espace vectoriel de E.

3. Le complémentaire E\F d'un sous-espace vectoriel F n'est pas un sous-espace


vectoriel de E.

Démonstration :

1. On a d'abord F H G ^ 0, car 0^ G F n G.
Soient x,y E F n G ; on a, x,y E F donc x + y E F. De même, si x,y E G,
x H- y E G et par conséquent x + y E F n G.

Si À E K et z G F D G, on a : x E F, donc À # G F, et a; G G, donc Xx G G;
d'où: ÀxGFHG.

2. Cela tient au fait qu'en général F U G n'est pas stable par la somme. Par

exemple, soient E =
M2, F la droite vectorielle engendrée par (1,0) et G la
droite vectorielle engendrée par (0,1). On a :

(1,0) G F donc (1,0) G FUG

(0,1) G G donc (0,1) G F U G

mais: w =
(1,0) + (0,1) =
(1,1) g FU G
10 Espaces Vectoriels

G*

(0,

Figure 8

3. E \F ne contient pas 0, donc il n'est pas un sous-espace vectoriel.

REMARQUE. C'est à cause de cela qu'en algèbre linéaire on considère rarement les
-

réunions d'espaces vectoriels et encore moins les complémentaires, car on perd la structure

d'espace vectoriel et donc toute la richesse de la théorie. Notamment, les raisonnements par
la contraposée, c'est-à-dire du type «supposons que x £ E» (E étant un espace vectoriel),
sont en général à éviter.

Exercices 4. 5. 6.

1.4 Bases (en dimension finie)


Définition 1.7 -

Une famille de vecteurs {vi,...,vp} d'un espace vectoriel E est


dite génératrice, si E =
Vec{i>i,... >vp}, ce qui veut dire (cf. Exemple S. page 8) que
\/x E E 3 Ai,..., Àp G K tels que : x =
\\V\-\ h Xp vp
On dit aussi, parfois, que tout x e E se décompose sur les vecteurs Vi, ou encore que
tout X E E est combinaison linéaire des vecteurs Vi.

REMARQUE. (finie) n'existe pas toujours. Considérons par exemple E [x]


Une telle famille
-

avec la structured'espace vectoriel définie par les lois (3) page 5 et soit {Pi,... ,Pn} une
famille finie de polynômes. Elle ne peut être génératrice car, en effectuant des combinaisons

linéaires, on n'obtiendra que des polynômes de degré < Sup{ degrés des (Pi)}.

Exemple 1. -

Dans M2 ; la famille {ei =


(1,0), e2 =
(0,1)} est une famille génératrice
car tout x =
(x\,X2) G M2, s'écrit :

(xi,x2) =
xi (1,0) +z2(0,1) =x\e\ +x2e2.

Plus généralement dans Kn les vecteurs

ei (l,0,...,0), ...,efc (0,...0, ^ ,0,...0), ,e» (0,... ,0,1)


= = =

ke rang

forment une famille génératrice, car pour tout x =


(xi,..., xn) G Kn, on peut s'écrire :

(#1,..., xn) =
xi e\ H + xn en
1.4 Bases (en dimension finie) 11

Exemple 2. Dans M2, considérons une famille contenant les vecteurs e\ et e2 de


-

l'exemple ci-dessus, par exemple la famille {ei, e2, f}, avec v (1,2). Elle est évidemment =

génératrice, car pour tout (x\,X2) G M2 on peut écrire :


(^1,^2) =
x\e\ + #262 + Ov

Plus généralement : toute famille contenant une famille génératrice est génératrice.

Exemple 3. -

Dans R2, soient v\ =


(1,1) et ^2 =
(1,-1). Montrons que {^1,^2} est

génératrice.
Soit x =
(a,b) G R2 avec a,b arbitraires : il s'agit de montrer qu'il existe x\^xi G R tels
que x =
£it>i + £2^2, c'est-à-dire :

(a, 6) =
(xi, zi) 4- (x2i -X2) =
(#i + X2, xi -

£2)
Ceci signifie que quels que soient a et b G R, il existe xi,X2 G M vérifiant le système :

f x\ + £2 = a

\ £1

X2 = b

En résolvant, on trouve en effet :

a + b a —

solution définie pour a, 6 arbitraires. Donc {vi, V2} est génératrice.

Définition 1.8 -

Un espace vectoriel est dit de dimension finie, s'il existe une


famille génératrice finie ; dans le cas contraire, on dit qu 'il est de dimension infinie.
Comme on vient de le voir Kn est de dimension finie, alors que M [x] est de
dimension infinie. De même, S =
{applications R —>
R} (avec la structure définie par
les lois (5) page 5), est de dimension infinie car 8 D R
[se].
Définition 1.9 -

Soit {vi,..., vp}, une famille finie d'éléments de E. On dit qu'elle


est libre, si :

Ai vi H h Xp vp =
0 => Ai =
0,..., Xp =
0.

On dit aussi que les vecteurs v±,..., vp sont linéairement indépendants. Une famille
qui n'est pas libre est dite liée (on dit aussi que ses vecteurs sont liés ou linéairement
dépendants).

Exemple 1. -

Dans R3, les vecteurs v\ =


(1,2,1), V2 =
(—1,3,1) et ^3 =
(—1,13, 5) sont

liés car on a 2 v1 + 3 v2

v3 =
0.

Exemple 2. -

Dans M3, les vecteurs vi =


(1,1,-1), V2 =
(0,2,1), V3 =
(0,0,5) sont
libres. En effet, supposons qu'il existe des réels Ai, A2, A3 tels que Ai^i + A2f2 + A3V3 =
0,
c'est-à-dire :

Ai (1,1, -1) + A2 (0, 2,1) + A3 (0,0, 5) =


0

On aura :

(Ai, Ai + 2A2, -Ai + A2 + 5A3) =


0

c'est-à-dire :

Ai =0
Ai + 2 A2 =0
-Ai 4- A2 +5 A3 =0

ce qui donne immédiatement : Ai =


A2 =
A3 =
0.
12 Espaces Vectoriels

Proposition 1.10 -

Une famille {vi,..., vp} est liée si et seulement si l'un au moins


des vecteurs Vi s'écrit comme combinaison linéaire des autres vecteurs de la famille
(c'est-à-dire si l'un au moins des vi appartient à l'espace vectoriel engendré par les
autres).
Ou, d'une manière équivalente :

une famille {^i,..., vp} est libre si et seulement si aucun des vecteurs vi n'appartient
à l'espace engendré par les autres.

Figure 9-a Figure 9-b

Les vecteurs v± et V2 forment une famille liée : Les vecteurs v\, V2 et ^3 forment une famille
V2 appartient à l'espace engendré par v\. liée : i>3 appartient à l'espace engendré par v\
et V2-

Démonstration :
-

Si {t>i,..., vp} est liée, il existe Ai,..., Xp non tous nuls tels
que Ai vi + + Xp vp =
0. Si, par exemple Ai 7^ 0 (ce que Ton peut toujours
supposer quitte à changer la numérotation), on pourra écrire :

A2
+ -r-^ vp
-Ap
vi v2-\
. .

= - —

M M

Réciproquement, supposons par exemple, que v\ est combinaison linéaire des


vecteurs ^2,..., vp ; alors il existe /i2,... ,/jlp € K tels que v\ /12 ^2 4- h \ip vp, =

c'est-à-dire :

vi
-

/JL2V2 fj,pvp
=
0.

Il existe donc une combinaison linéaire des vecteurs {vi,..., vp} qui est nulle, sans

que les coefficients soient tous nuls. Donc la famille est liée.

L'intérêt de la notion de famille libre réside dans la propriété suivante :

Proposition 1.11 Soit {vi,... ,i>p} une famille libre et x un vecteur quelconque
-

de l'espace engendré par les vecteurs vi (c'est-à-dire x est combinaison linéaire des
Vi). Alors la décomposition de x sur les vi est unique.
En effet, soient :

x =
Ai v\ H h Xp vp
x =
/ii vi H h \ipvp

deux décompositions de a;. En faisant la différence on trouve :

0 =
(Ai -

/xi) vi H h (Ap -

/ip) vp.
Puisque la famille est libre, on a Ai —

\i\
=
0,..., \p —

[ip
=
0 c'est-à-dire :

Ai /xi,
=
Ap fip.
...,
=
1.4 Bases (en dimension finie) 13

Définition 1.12 -

On appelle base une famille à la fois libre et génératrice.

On a immédiatement :

Proposition 1.13 famille {vi,... ,vn} est une base de E si


-

Une et seulement si
tout x E E se décompose façon unique sur les V{. C'est-à-dire
d'une :

\/x G E il existe un unique n-uplet (Ai,..., An) G Kn tel que :

X =
\\V\-\ h \nVn.

(l'existence de la décomposition pour tout x G E équivaut au fait que la famille


est génératrice; l'unicité au fait que la famille est libre).
On peut aussi énoncer la proposition précédente de la manière suivante :

Proposition 1.14 -

Soit B =
{vi... vn} une base deE. Il existe alors une bijection :

<pB: E —> Kn
x=x\e\-^ \-xnen l >
(xi,...ixn)

Les scalaires Xi sont dits composantes de x dans la base {vi,..., vn}.

Exemple 1. -

Base canonique de Kn .

Soient les vecteurs :

ci =(1,0,. ..,0), c2 (0,l,0...0), =

=(0...0, ^,0...0),
,

ek ,cn =
(0,...,0,l)
kerang

On sait déjà qu'ils forment une famille génératrice. Montrons qu'elle est libre. On a :

Ai ei + + An en =
0 <*=» (1,0... 0) +
Ai + Àn (0... 0,1) 0 =

«=* (Ai,0,...,0) + .--

+ (0,...,0,An) (0,...,0) «=* (Ai,...,An)


= =
(0,...,0)
<=> Ai =
0,..., An =
0

Par conséquent {ei,..., en} est une base de Kn, dite base canonique.

Exemple 2. -

Base canonique de Rn [x].

{l }
6
La famille B =
est une base de M.n \X\.
En effet, tout P E Rn [x] s'écrit P =
ao 1 + ai x + + an xn avec, ai G M ; B est donc
génératrice. De plus :

Ao 1 + Ai x + + An x71 =
0 => Ao =
0, Ai =
0,..., An =
0.7

6Plus précisément B =
{Pq, Pi, ..., Pn} où P& : x i xk. Nous utiliserons souvent cet abus de
notation.
7D'après la définition de polynômes : deux polynômes sont égaux si et seulement si les coefficients
des termes de même degré sontégaux (le 0 au second membre est le polyôme nul).
14 Espaces Vectoriels

Exemple 3. -

Dans M2 (K) (cf. exemple 2, page 5) soient les matrices :

El =

{o ) £2=(o ) £3=(i ) S4=(o î)


0 0 0

Toute matrice
( I G .M 2 (if), peut s'écrire :

ce qui montre que B =


{Ei, £2, #3, £4} est une famille génératrice.
D'autre part :

Ai£i + À2£2 + A3£3 + A4£4 =


0 «=>
( ^ xl) (o 0) =

<=> Ai =
A2 =
A3 =
A4 =
0

Donc B est une base de M.2 (K).

Exemple 4. -

Soit F =
{(x,y,z) eM3 \2x+ y+ 3z =
0} . Chercher une base de F.

On a vu F estun sous-espace vectoriel de R3 (cf. exemple 1., page 9). On a : v =

(x,yyz) e F <£=> y=—2x 3z\ donc: —

veF «=» v =
(x, -2x-Szt z) <==^ v =
x (1, -2,0) -h z (0, -3,1).
Par conséquent les vecteurs v\ —

(1, 2,0), t>2 =


(0, —3,1) forment une famille génératrice
de F. D'autre part :

Ai Vl + A2 v2 = 0 <=^ Ai (1, -2,0) + A2 (0, -3,1) =


(0,0,0)
(Ai =0
«=* (Ai,-2Ai-3A2) A2) (0,0,0) <=ï < -2Ai -3A2 =0

[
=

A2 =0

ce qui est équivalent à Ai =


A2 =
0. Donc {^1,^2} est libre et par conséquent elle est une

base de F.

Proposition 1.15 -

1. {x} est famille libre <=^ x ^ 0.


une

2. Toute famille contenant une famille génératrice est génératrice.


3. Toute sous-famille d'une famille libre est libre.
4. Toute famille contenant une famille liée est liée.
5. Toute famille {t>i,... ,vp} dont l'un des vecteurs Vi est nul, est liée.

Démonstration :

1. D'après la proposition 1.2 (2), Xx 0 =>> A 0 ou x 0. Donc, si x ^ 0,


= = =

Xx 0 implique A
=
0, ce qui signifie que {x}
=
est une famille libre.
Réciproquement, supposons {x} libre. Alors, d'après la définition de famille
libre, si A x 0 on a nécessairement
= A 0 ce qui signifie, toujours d'après la =
,

proposition 1.2 (2), que ^x 0.


1.5 Existence de bases (en dimension finie) 15

2. Soit {v\... vp} une famille génératrice et x =


Ai v\ + + Xpvp un élément
arbitraire de E. On peut aussi écrire :

x =
Ai vi + 1- \pVp + 0wi -\ \-0wq, avec wi,..., wq G E.

Donc tout x e E est combinaison linéaire de v\)..., vp, wi,..., wq.

3. Soit T =
{vi... vp} une famille libre et T' une sous-famille de T. Quitte à
changer la numérotation, on peut supposer que T' =
{t>i,..., Vk} (avec k <p).
Si T' était liée, Pun des vecteurs vi,...,Vfc serait combinaison linéaire des
autres. Il existerait donc un élément de T qui s'écrirait comme combinaison
linéaire de certains éléments de T. Or, cela est impossible car T est libre
(cf. proposition 1.10).
4. Soit T {vi,..., vp} une famille liée et G {v±,..., vp> w\,..., wq}. D'après la
= =

proposition 1.10, l'un des vi est combinaison linéaire des autres. Or, les vecteurs
Vi appartiennent à G ; donc l'un des éléments de G est combinaison linéaire des

autres, et par conséquent G est liée.

5. Évident d'après 4., car il s'agit d'une famille contenant {0}, et {0} est liée,
d'après 1.

Exercices 7. 8. 9.

1.5 Existence de bases (en dimension finie)


Dans paragraphe nous allons montrer que dans tout espace vectoriel E ^ {0}, de
ce

dimension finie, il existe des bases.


Soit E 7^ {0} un espace vectoriel de dimension finie et G {vi,... ,vp} une famille =

génératrice : pour tout x G E, il existe ai,..., ap e K tels que :


x =
a\V\-\ \-apvp.
Notons que G contient certainement des familles libres : il suffit de prendre, par
exemple, {vi} avec Vi G G, Vi ^ 0 ; d'après la proposition 1.15, 1., L est libre.
8
L =

Théorème d'existence . 1.16 -

Soit E ^ {0} un espace vectoriel de dimension finie et G une famille génératrice.


Considérons une famille libre L c G. Il existe alors une base B telle que L c
B CG.

Démonstration : Soit G =
{vi,...,vp} une génératrice et L\ une famille
famille
libre contenue dans G. Quitte à changer la numérotation, on peut supposer que L\ =

{^i,.. }. Si L\ est génératrice, elle est une base et le théorème est démontré.
.vr

Supposons donc que L\ n'est pas génératrice.


a) Montrons tout d'abord qu'il existe v^ G {tv+i> ,^p} tel que la famille L2 =

{vi,..., vr, Vix} est libre.


8G contient au moins un élément non nul, autrement on aurait x =
0 pour tout x G E, ce qui est
exclu car E ^ {0}.
16 Espaces Vectoriels

En effet, si ce n'était pas le cas, chaque vecteur de {iv+i, , vP} serait combinaison
linéaire des vecteurs {t>i,...,vr} de L\. Mais ceci est impossible, car si x est un
vecteurquelconque E, de x =
ai v\ H h ar vr + ar+i vr+i H \-apvp, on pourrait
remplacer dans cette expression les vecteurs vr+i, , vp par leur expression en
fonction des vecteurs v\,..., vr et x s'écrirait comme combinaison linéaire des vecteurs
vi,...,vr. Puisque x est arbitraire, cela signifierait que L\ est génératrice, ce que nous

avons exclu.
Nous avons donc prouvé que l'on peut agrandir la famille libre L\ —

{vi,...,vr} en
lui ajoutant un vecteur vix G {tv+i>..., vp} de manière que la famille L<i =
{Li,^}
soit libre.

b) Si L2 est génératrice, elle est une base et le théorème est démontré. Dans le cas

contraire, en répétant le raisonnement, on voit qu'il existe Vi2 G G, Vi2 £ L2, tel que
la famille L3 =
{L2,Vi2} est libre. On construit ainsi une suite :

Li C L2 C L3 C C G
7e ¥> 7e

de familles libres et le processus peut être continué tant que Lk n'est pas génératrice.
Mais G est une famille finie et par conséquent, le processus doit s'arrêter,

éventuellement pour Lk =
G. Il existe donc une famille Lk libre et génératrice, c'est-à-dire une

base et L\ c Lk C G.

Ce théorème peut s'exprimer aussi de la manière suivante :

Théorème 1.17 -

Soit E 7^ {0} un espace vectoriel de dimension finie ; alors :

1. De toute famille génératrice on peut extraire une base.

2. ( Théorème de la base incomplète). Toute famille libre peut être complétée de manière
à former une base.

Démonstration :

1. C'est en fait ce nous avons établi dans la démonstration ci-dessus.

2. Soit L =
{vi,..., vp} une famille libre et G =
{w\, ...^Wq} une famille génératrice
quelconque. La famille G G U L est génératrice, elle est sur-famille
'
=
car une

d'une famille génératrice, et elle contient la famille L. D'après le théorème


d'existence, il existe une base B telle que L C B C G'

REMARQUE. Nous avons démontré en fait non seulement


que toute famille libre peut être


complétée en une base, mais qu'elle peut complétée en une base en choisissant les vecteurs
dans une famille génératrice arbitraire choisie à Vavance.
1.6 Les théorèmes fondamentaux sur la dimension 17

1.6 Les théorèmes fondamentaux sur la dimension

Les résultats de ce paragraphe sont particulièrement importants.


Théorème 1.18 Dans un espace vectoriel E sur K de dimension finie, toutes les
-

bases ont le même nombre d'éléments. Ce nombre est appelé dimension de E sur K
et est noté dim^ E.
Démonstration : Pour la démonstration on a besoin du lemme suivant :

Lemme
Dans un espace vectoriel engendré par n éléments, toute famille contenant plus de
n éléments est liée.
Démonstration du Lemme.- Soit T =
{vi,...,vn} une famille génératrice et T1 =

{wi,..., wm} une famille de m vecteurs, avec m > n. Il s'agit de montrer que T1 est
liée.

a) Si l'un des Wi est nul T1 est liée (cf. proposition 1.15, 5 ). Supposons donc que
tous les Wi sont non nuls. Puisque T est génératrice, w\ s'écrit :

wi =
ai vi H \-anvn

Comme w\ ^ 0, il existe, parmi les ai,... ,an, un ai non nul. Supposons, quitte à
changer la numérotation, que ai ^ 0. On pourra alors écrire :
1 /a2 an
vi =
wi v2 H 1 vn
— —

ai \ai ai

Soit x un élément quelconque de E : x Ai v\ + H- An vn. En remplaçant v\ par


=

l'expression trouvée, on voit que x est combinaison linéaire de tui, i>2,..., vn. Puisque
x est arbitraire cela signifie que la famille {^1,^2, vn} est génératrice. ,

Nous avons donc remplacé dans la famille génératrice T Vun de ses vecteurs par Vun
des vecteurs de T1 et la famille ainsi obtenue est encore génératrice.

b) Considérons le vecteur W2> Puisque {^1,^2? ..


,vn} est génératrice, on peut
écrire :

VJ2 =
Pi Wi + /h V2 H \~ PnVn
Si fo —

Ps —
* *
=
Pn =
0, on a W2 =
/?i w\ : la famille T1 =
{wi,W2> , wn} est
donc liée (car elle contient une famille liée) et le théorème est démontré.
Dans le cas contraire il existe un Pi parmi /32,..., Pn différent de 0. Supposons, pour
fixer les idées que /32 7^ 0 ; on pourra alors écrire :

V2 =
-W- W2
~

-rr (PlWl+03V3 + '-+Pn Vn)


P2 P2

En raisonnant comme ci-dessus, on voit que la famille { wi, W2, ^3, , vn } est
génératrice.

c) Ainsi, de proche en proche, on arrive à remplacer dans la famille T =


{vi,..., vn }
les vecteurs v\, V2,..., vn par les vecteurs w\,..., wn en obtenant à chaque étape une
famille génératrice 9. Au terme du processus, la famille {wi,... ywn} est génératrice.
En particulier, wn+i est combinaison linéaire des vecteurs w\,..., wn , c'est-à-dire la
famille {wi, ...,wn+i} est liée. T' sera donc liée, car elle contient une famille liée. Le
lemme est ainsi démontré. 0
9Cette propriété est appelée parfois « Théorème de l'échange».
18 Espaces Vectoriels

Le théorème 1.18 s'en déduit immédiatement. En effet, soient B et B' deux bases.
Comme B est génératrice, si B' avait plus d'éléments que B elle ne serait pas libre en
vertu du Lemme. Or cela est exclu, car B' est une base. On a donc Card B1 < Card B.

De la même manière on voit que Card S < Card S'.

Corollaire 1.19 -

1. Dans un espace vectoriel de dimension n, toute famille ayant plus de n éléments


est liée.

2. Dans un espace vectoriel de dimension n, les familles ayant moins de n éléments


ne peuvent être génératrices.
La première partie du corollaire est exactement ce que nous avons démontré dans le
lemme ci-dessus.
La deuxième partie vient du corollaire 1.17,1 : si T était une famille génératrice ayant
moins de n éléments, on pourrait en extraire une base ayant moins de n éléments,
ce qui est en contradiction avec le théorème 1.18.

Remarques. -

1. Si E =
{0} on pose :
dimKE =
0. On a évidemment :

£ =
{0} <=> dimK£ = 0

2. dimKKn =
n

En effet, comme nous l'avons vu, la famille {ei,..., en}, avec ei =


(1,0,..., 0),...,
en =
(0,..., 0,1) est une base.

3. La dimension d'un espace vectoriel E dépend non seulement de E mais aussi du corps
de base K (d'où la notation dim^i?)10.
En effet, considérons, par exemple, C muni de la structure d'espace vectoriel sur R
définie par les lois :

(a + i b) + (c + id) (a + c) + i (b + d)
=

\(a + ib) Xa + iXb


=
(A E M)
Tout élément z G C s'écrit d'une manière unique : z = a 1 + bi avec a, b G M, ce qui
signifie que {1, i} est une base et donc dim^ C 2. =

En revanche, si on considère C comme espace vectoriel sur C, on a : dimc C = 1 (cf.


remarque ci-dessus 2.).

Proposition 1.20 -

Soient E\,... ,EV des espaces vectoriels de dimension finie sur le même corps K.
Alors :

dimK(£i x x
Ep) =
dim^J^i H h dimKEp
En effet, soient {ai,... ,ani}, {&i,... ,&n2}) »{^ij Jnp} des bases de E±,
E2,...,EP. On vérifie facilement que la famille

{ (Oi, 0, . . .
,
0 )i=l...ni i (0, b^ 0 ... 0 )i=i...n2 ,-..,... (0, . .
, 0, k.

)i=i...np }
est une base de E\ x x
Ep. D

DCependant, lorsque le contexte sera clair, on écrira aussi simplement dim E au lieu de dimK.E.
1.6 Les théorèmes fondamentaux sur la dimension 19

En particulier, on a :

dimc Cn =
n , dimE Cn =
2n.

En général, pour montrer qu'une famille est une base, il faut montrer qu'elle est libre
et qu'elle est génératrice. Cependant, si la famille a exactement autant d'éléments que
la dimension de l'espace, on a le théorème suivant qui est d'un usage fréquent :

Théorème 1.21 -

Soit E un espace vectoriel de dimension n. Alors :

-
Toute famille génératrice ayant n éléments est une base.
-
Toute famille libre ayant n éléments est une base.

En effet, soit G une famille génératrice ayant n éléments. D'après le théorème 1.17
on peut en extraire une base. Mais cette base extraite doit avoir n éléments car la
dimension de E est n : il s'agit donc de G elle-même.
De même, soit L est une famille libre ayant n éléments. D'après le théorème de la
base incomplète on peut éventuellement lui ajouter certains vecteurs de manière à
former une base. Mais si on lui ajoutait effectivement certains vecteurs, on aurait une
base formée de plus de n éléments, ce qui est exclu. Donc L est elle-même une base.

Proposition 1.22 -

Soit E un espace vectoriel de dimension finie et F un sous-

espace vectoriel de E. Alors F est de dimension finie, et de plus :

1. d\mKF <
&\mKE
2. àimKF =
dimKE <^=> F =
E.

Démonstration :

1. Supposons F ^ {0} et soit x\ G F, x\ ^ 0. La famille L\ =


{xi} est libre. En
raisonnant exactement comme dans la démonstration du Théorème d'existence
1.16, on construit une suite de familles libres de F :

Lx c L2 C L3 C C F
# # #

et le processus ne s'arrête que si Lk est génératrice de F. Montrons d'abord que


F est de dimension finie.
Pour cela supposons que F n'admet pas de famille génératrice finie : il existe
alors un indice k > n (où n est la dimension de E) tel que Lk n'est pas
génératrice. On aurait ainsi construit une famille libre de F formée de k > n
éléments. Or ceci est impossible, car les familles libres de F sont des familles
libres de E et donc elles ne peuvent avoir plus de n éléments.
F est donc de dimension finie. Plus précisément, on vient de voir que F
admet nécessairement une famille génératrice formée d'au plus n éléments. En
extrayant une base de cette famille, cette base aura au plus n éléments, donc :
dimK F < dimK E.

2. Si dim^F =
dimKE, il existe une base B de F ayant n éléments (n =
dimK E).
Mais F C E : B est donc une famille de E qui est libre et qui a n éléments.
En vertu du théorème 1.21 ,
elle est une base de E et donc elle engendre F,
c'est-à-dire Vect{S} =
E. Mais Vect{6} =
F, donc F =
E.
20 Espaces Vectoriels

REMARQUE. -

La partie proposition ci-dessus est utilisée souvent pour montrer que


2. de la
deux espaces vectoriels E et F sont égaux. En effet, pour montrer que E F, il faudrait, =

en principe, vérifier que F C E et E C F. D'après la proposition, il suffit de vérifier que


F C E et que dimKF =
dimKE ce qui, en général, est plus facile.

Exercices 10. 11. 12. 13. 19. 20.

1.7 Bases en dimension infinie

Définition 1.23 Soit E {xa}aeA une famille d'éléments


espace vectoriel, T un =
-

de E, non nécessairement finie, ni dénombrable. On


appelle combinaison linéaire finie
(ou simplement combinaison linéaire) de la famille, toute expression du type :
y] Xi Xi, où / est une sous-famille finie de A.
On appelle sous-esifate engendré par T le sous-espace vectoriel de E noté VectlJ7},
formé par toutes les combinaisons linéaires finies des éléments de T.
On vérifie immédiatement que Vect-j^} est un sous-espace vectoriel de E : si u =

\\Xi-\ h Xp xp G Vectj^7} et v \i\ y\ H Y \iqyq G Vect{!F}


=
(avec x^y% G T)
ona: Aw + /iv =
combinaison linéaire finie d'éléments de T.
Plus précisément, on a :

Proposition 1.24 Vect^} est le plus petit sous-espace vectoriel de E contenant


-

T. En particulier, si F est un sous-espace vectoriel de E, Vect{F} =


F.

En effet, si G est un sous-espace vectoriel de E contenant T, il doit contenir, à


cause de la stabilité, toutes les combinaisons linéaires finies des éléments de J7,
c'est-à-dire G D Vect{^}.
Définition 1.25 -

1. Une famille T =
{xa}ae^ d'éléments de E est dite génératrice si Vect{Jr} =
E,
c'est-à-dire, si \/x G E il existe une sous-famille finie {#i,... ,xp} C T telle
que :

x =
Ai X\ + + Xp Xp.
2. La famille T est dite libre, si toute sous-famille finie est libre, c'est-à-dire si :

VI C A, /finie :

J2 Xi Xi =
0 =» Xi =
0 ,
Vz G L
iei
3. Une famille T est dite base si elle est libre et génératrice.
On vérifie immédiatement :

Proposition 1.26 -

B est une base de E si et seulement si tout élément de E s'écrit


d'une manière unique comme combinaison linéaire finie d'éléments de B.

Exemple 1. Base canonique de M[x].


{l,£,#2,... ,#n ..

-}nGN est une base de R[x].


En effet, la famille est génératrice car tout polynôme s'écrit comme combinaison linéaire
finie de {1 .}. D'autre part, elle est libre car si l'on considère une

combinaison linéaire finie nulle : Àol + Ai x + + Xp xp =


0, on a : Ào =
0,..., Xp =
0.
1.8 Somme, somme directe, sous-espaces supplémentaires 21

Exemple 2. -

SoitRN =
{ u : N—>R } l'espace vectoriel de toutes les suites réelles. Considérons la
n i y
Un

famille T =
{ei,e2,... ,en, -}nGN où:

ei (l,0,...,0,...), è2 (0,l,0ï...)ï...>en (0,...>0, ^ ,0,...)


= = =

ne rang

c'est-à-dire en est la suite nulle partout sauf au rang n.

On vérifie immédiatement qu'il s'agit d'une famille libre, mais elle n'est pas une base,
car elle n'est pas génératrice. En effet, par combinaisons linéaires finies, on engendre des

suites (uojUi,..., un ...) dans lesquelles seulement un nombre fini des m sont non nuls

(c'est-à-dire les suites nulles à partir d'un certain rang) n.

Pour les espaces de dimension infinie, on peut démontrer aussi un théorème d'existence
de bases, mais la démonstration dépasse le cadre de ce cours12 :

Théorème 1.27 -

Tout espace vectoriel non réduit à {0} admet une base. Plus
précisément :

1. De toute famille génératrice on peut extraire une base.

2. Toute famille libre peut être complétée en une base.

Exercice 14.

1.8 Somme, somme directe, sous-espaces supplémentaires


Définition 1.28 -

Soient E\, E2 deux sous-espaces vectoriels d'un espace vectoriel


E. On appelle somme de E\ et E2 le sous-espace de E défini par :

Ei + E2 =
{x G E | 3xi G E, 3x2 G E2 : x =
x\ + x2}
Il s'agit effectivement d'un sous-espace vectoriel de E comme on le vérifie facilement.
Notons S Ei +E2. D'après la définition, tout élément de S est somme d'un élément
=

de Ei et d'un élément de E2. Mais cette décomposition en général n'est pas unique.
En effet, supposons Eifl^^ {0} et soit xq ^ 0, xo e E± D E2. Si x x\ + X2 (avec =

^ G ^) on a aussi la décomposition :

x =
(xi +x0) + (x2 -

xo)
avec Ei, X2 xq G E2. On voit donc qu'une condition nécessaire pour que
xi+xo £ —

la décomposition soit unique, est que Ei D £2 {0}. =

Cette condition est aussi suffisante. Supposons, en effet, que Ei n E2 {0}, et soient —

x xi + #2, x
=
x'i + x2 deux décompositions de x sur E\ et £2. Par soustraction,
=

on a :

Xi

x'i =
X2

X2

Soit y cet élément. On a y =


xi

x[ G Ei et y =
x2

X2 G E2 ; donc y G EinE2 =
{0}
c'est-à-dire y 0, d'où : Xi
= =
x\ et X2 =
x2-
Nous avons ainsi démontré :

11
II s'agit des polynômes formels (cf. Appendice A.2).
12Elle s'appuie sur l'axiome du choix.
22 Espaces Vectoriels

Proposition 1.29 Soient E\ et E2 deux sous-espaces vectoriels de E, et soit


-

£ Ei~\-E2. La décomposition de tout élément de £ en somme d'un élément de E\


=

et d'un élément de E2 est unique, si et seulement si E± fl E2 {0} On écrit alors : = .

£ =
E1@E2

et on dit que £ est somme directe de E\ et E2.

En d'autres termes :

£ =
Ei + E2 et
( £ EX+E2 tout élément de £ s'écrit
l
=

£ Ei 0 E2 <=> < et <^=> d'une manière unique


[
=

Ei^E2 =
{0} x =
X\+x2
avec X\ G E\ , x2 G E2

Proposition 1.30 -

Soit E un espace vectoriel et Ei, E2 deux sous-espaces vectoriels

de E. Alors E E\ 0 E2 =
si et seulement si pour toute base B\ et E\ et toute base
B2 de E2, {#1,62} esî une base de E.

En effet, soient B\ =
{va}aeA e^ ^2 =

{w0}q£b ^es ^ases de E± e^ ^2


respectivement et supposons que {va, vJp}(a Q\eAxB
es^ une ^ase ^e ^' Alors *ou^ x ^ E s'écrit
d'une manière unique :

X =
\lV0tl+--
s
+ \vV0ip '
+ fJbi Wfa H
v
+ llq Wf3q
'
v v

€Ex eE2

c'est-à-dire tout x e E s'écrit d'une manière unique x =


x± + x2 avec x\ G E\
et x2 G E2 ; donc E =
E\ 0 E2. Réciproquement, si E =
Ei 0 E2 ,
tout x e E
se décompose d'une manière unique sur E\ et E2 et, par conséquent, sur la famille
B =
{Si,#2}- On en déduit que B est une base de E.

Définition 1.31 -

Soit E un espace vectoriel et E\,E2 deux sous-espaces vectoriels


de E. On dit que E\ et E2 sont supplémentaires (ou que E2 est un supplémentaire de

Ex), si E E1@E2. =

Corollaire 1.32 Soit E un espace vectoriel. Pour tout sous-espace vectoriel E\, il
existetoujours supplémentaire.
un supplémentaire de E\ n'est pas unique, mais si
Le
E est de dimension finie, tous les supplémentaires de E\ ont même dimension.

Pour plus de clarté, nous donnons la démonstration en dimension finie. En dimension


infinie, seules les notations sont un peu plus lourdes.
Soit {vi,... ,vp} une base de E\ et soit n dimiS. D'après le théorème de la base =

incomplète, il existe wp+i,..., wn tels que {i>i,..., vp, wp+i,..., wn} est une base
de E. En posant E2 Vect{wp+i,..., wn}) on obtient, d'après le théorème précédent,
=

un supplémentaire de E\ dans E.

Puisque le choix de wp+i,..., wn n'est pas unique, le supplémentaire de E\ n'est pas


unique ; cependant, tous les supplémentaires de E\ sont de dimension n p,p étant —

la dimension de E\.

Le résultat suivant est d'un usage fréquent :


1.8 Somme, somme directe, sous-espaces supplémentaires 23

Théorème 1.33 Soit E un espace vectoriel de dimension finie. Alors


-

I
{ 1. E1nE2 =
{0}S
X
E =
E1®E2 <=>
I 2. dim E =
dim E\ + dim E2.

Démonstration : Les conditions sont nécessaires (d'après la proposition 1.29 et le


corollaire 1.32). Montrons qu'elles sont suffisantes. Soient {vi,...yvp} une base de
Ei et {lUp+i,..., wn} une base de E2, n étant la dimension de E. Pour montrer que
E =
Ei ®E2 il suffit de montrer, d'après 1.30, que la famille {vi, ...,vP)wi, ...,wq} est

une base. Soit Ai v± H h Xp vp + nP+i wp+i H h /j,n wn =


0. On a :

Ai Vi H h Ap Vp = -

(fJLp+i Wp+i H h fln Wn)


EEi eE2

Soit y ce EiHE2 donc y


vecteur ; y e 0. D'où : Ai v\ H h Ap t>p 0 et, comme la
= =

famille{vi)... ,vp} : Ai 0,..., Xp est libre


0. De même, /ip+i wp+i-\
=
\-iJLnwn = =

0 et donc fJ>p+i 0,..., fin 0. Donc, la famille {i>i,..., vp, itfp+i,..., wn} est libre.
= =

Puisqu'elle a n éléments, elle est une base de E, d'après le théorème 1.21. On en


déduit que E Ex 0 E2. =

Exemple 1. -

Dans R2 soient v et w

sont deux vecteurs indépendants, E\ =

Vect{i;} et E2 =
Vect{w} les droites
vectorielles engendrées par v et par w

On a M2 =
Ei 0 E2 car {v, w} est une

base. Comme on le voit d'ailleurs sur la

figure tout # G M2 se décompose d'une


manière unique sur E\ et E2.

Figure 10

Exemple 2 -

Dans R3, soit tt un plan


vectoriel et v un vecteur non contenu
dans ce plan. On a :

R3 = tt 0 Vect{<u}
car si {ei,e2} est une base de 7r, alors

{ei,e2,v}, est une base de R3.


Vect{v}

Figure 11
24 Espaces Vectoriels

Exemple 3. -

Soit E =
M2 (M) et

El =

{A=(o 2)>aeK} ' E* =

{B=(°c d)>6'C>d€K}
Ei et E2 sont deux sous-espaces de E et Eif)E2 =
{0}. De plus, toute matrice de E est

la somme d'une matrice de E\ et d'une matrice de E2. Donc E =


E\ 0 £2.

Proposition 1.34 -

S'oit E1 un espace vectoriel de dimension finie et Ei,E2 deux


sous-espaces vectoriels de E. On a :

dim {Ei + E2) =


dim E± + dim E2 -

dim (E"i n E2)

En particulier :

dim (Ei 0 £2) =


dim £?i + dim £"2

Démonstration :
Supposons que dim Ei =
p, dim E2 =
q et dim Ei H E2 =
r.

Notons que, puisque EiP[E2 sous-espace vectoriel de E\ et de E2, on a r < p et


est un

r < q. Considérons une base {ai,..., ar} de Ei C\E2. Puisque la famille {ai,..., ar}
est libre, on peut la compléter en une base de E\ et aussi en une base de E2. On peut
donc construire :

une base de E\ du type {ai,..., ar, er+i,..., ep},


une base de E2 du type {ai,..., ar, £r+i,..., eq}.
-

Or tout vecteur de Ei +E2 s'écrit comme somme d'un vecteur de E±, et d'un vecteur
de E2 et donc il est de la forme :

x =
Ai ai + h Àr ar + Àr+i er_|_i -I \- Xp ep
+//1 ai + h {iT ar H- //r+i er+i + h \xqeq

c'est-à-dire, en posant Vi =
Xi + \ii, pour i
=
1,..., r :

x =
i/iai -i \-vrar-\- Ar+i er+i H h Ap ep + /xr+i er+i H h \iq eq

Par conséquent, la famille {ai,..., ar, er+i,..., ep, er+i,...,eq} engendre E± + E2.
Montrons qu'elle est libre.
Soit une combinaison linéaire nulle :

^îai H
s
h urar +
'
Ar+ier+i
^
+ + Xpep + /zr+i£r+i
' v
+ H- /ig£g
'
=
0 (*)
v v v

xeE1nE2 yeEi zeE2

On &x-\-y + z =
0, donc z = —

(x + y). Oi z e E2 et x +y e Ei, donc 2 G jE?i D E2.


Par conséquent, z peut s'écrire comme combinaison linéaire des ai :

ILLr+i er+i H h p>q sq pi ai H h pr ar


=

Mais {ai,..., ar, er+i, , £q} est une base de E2) donc tous les coefficients de cette
combinaison linéaire doivent être nuls. En particulier, /xr+i 0,..., jj,q 0. On voit de
= =
1.9 Somme et somme directe de plusieurs sous-espaces 25

même que : Ar+i 0,..., Xp =


0. De (*) on déduit alors que : z/i ai H
=
\-urar =
0.

Or la famille {ai,..., ar} est libre, donc v\ 0,..., vT 0. = =

Ainsi la famille {ai,..., ar, er+i,..., ep, £r+i, >£q} est libre et donc elle est une

base de E\ + E2. On en déduit :

dim (Ei + E2) =


r + (p-r) + (q-r)=p + q-r
=
dim Ei + dim E2 dim (Ei fl E2)
-

Exercices 15. 16. 17. 18.

1.9 Somme et somme directe de plusieurs sous-espaces

Nota -

La théorie et les résultats de ce paragraphe ne seront utilisés qu'au chapitre 6. On peut donc

en différer l'étude jusqu'au commencement du chapitre 6.

Définition 1.35 Soient Ei,..., Ep des sous-espaces vectoriels d'un même espace
-

vectoriel E. On note :

E\-\ \- Ep =
{x e E\ 3xi e Ei,...,3xp € Ep : x =
xi-\ \-xp} .

Ei + + Ep est un sous-espace vectoriel de E dit somme des sous-espaces Ei.

Proposition 1.36 Si <7i,...,(?p sont des familles génératrices respectivement


-

de
JBi,..., Epj alors {Gi,..., GP} est une famille génératrice de E\-\ h Ep.

Démonstration : Soit x =
Xi + + xp un élément quelconque de Ei 4- + Ep,
avec Xi e que, puisque pour chaque i Xi est combinaison
Ei. On voit immédiatement
linéaire des éléments de la famille Gi, % est combinaison linéaire des éléments de la
famille {</i,...,£P}.

D'après la définition, tout x G Ei -\ \-Ep se décompose sur les Ei ; mais, en général,


ladécomposition n'est pas unique. Si, par exemple, E\ CiE2 ^ {0} et x xi H \-xp =

avec Xi Ç: Ei. En prenant xo ^ 0, xq G Ei fl E2 on peut écrire aussi :

x =
(xi -

xo) + (x2 + x0) + xs H \-xp

et l'on aurait deux décompositions différentes de x.

Définition 1.37 Soient Ei,..., Ep des sous-espaces vectoriels de E. On dit qu'ils


-

sont en somme directe si tout vecteur de £ Ei +


=
+ Ep se décompose d'une
manière unique en somme d'un vecteur de Ei, un vecteur de E2,..., un vecteur de

Ep.On écrit alors :

S =
Ei<&...®Ep
et on dit que £ est la somme directe des Ei.

La meilleure manière de comprendre ce qu'est une somme directe est donnée par la
caractérisation suivante qui généralise la proposition 1.30.
26 Espaces Vectoriels

Théorème 1.38 Soient E±v ,EP des sous-espaces vectoriels de E. Alors ces sous-
-

..

espaces Ei,... ,EP sont directe si et seulement si pour toutes bases


en somme Si,..., Bp
de Ei,..., Ep respectivement, la famille {Si,..., Bp} est libre.
En d'autres termes, en vertu de la proposition 1.36 :

E =
Ei 0 Ep si et seulement si pour toutes bases Si,..., Bp respectivement
...
0
de i5i,..., Ep, famille {Si,..., Bp} est une base de E.
la

Démonstration :
(Pour plus de clarté, nous donnons ici la démonstration en dimension
finie. La démonstration en dimension infinie est exactement du même type et seules les
notations sont un peu plus lourdes).
Soient Si {vi,..., vr},..., Bv {wi,..., ws} des bases de E\,..., Ep et supposons
= =

que la famille S {Si,..., Bp} est libre. Puisque elle engendre £ E\ H


=
\-Ep (cf. =

1.36), elle est une base de £. Donc, tout x E £ s'écrit d'une manière unique :

X =

V
Ai Vi H h Ar Vr H
'
h fllWi-\
*
h flsWs
'
v v

eEi eEp

Les Xi et les fii étant uniques, x se décompose d'une manière unique sur les Ei, ce qui
veut dire que les Ei sont en somme directe.

Réciproquement, supposons les Ei en somme directe et montrons que S =


{Si,..., Bp}
est libre. Soit la combinaison linéaire nulle :

Ai
'
vi H h Ar vr H
'
h fil wi H
*
fjb8 ws
'
=
0 a)
v v

eEi eEp

et remarquons que :

0E =
0El + + 0Ep b)

(où noté 0^ l'élément neutre dans E^ qui n'est autre que Ojs, pour souligner le
on a

faitqu'on le considère comme élément de Ei).


a) et b) fournissent deux décompositions de 0# sur £i,... ,EP. Mais comme les Ei
sont en somme directe, la décomposition est unique et donc :

Ai vi H h Ar vr =
0El , , f*iWi-\ h fis ws =
0es

Or, les familles Si,... Bp sont libres, et, par conséquent, Ai =


0,..., Ar =
0,...,
fil =0, ...,/xa 0. =

Notons que £ E\ ® =
0 Ep est un sous-espace vectoriel de E et peut, bien entendu,
être différent de E.
1.9 Somme et somme directe de plusieurs sous-espaces 27

Ei =
Ox, E2
axe axe Oy. =
E\ —

plan Oxy, E2 =
Vect{t>}, (v £ E\).
£ =
Ei@E2= plan xOy. On a : S C M3. £ =
£1 0 E2. On a : £ = R3.

Figure 12 FiSure 13

Il faut donc bien distinguer les notions «les Ei sont en somme directe» (cf. Fig. 12)
et «E est la somme directe des Ei» (cf. Fig. 13) ce qui signifie :

-
les Ei sont en somme directe
-

et, de plus, la somme des Ei "remplit" E tout entier.

Comme nous le verrons au chapitre 6, cette distinction est importante 13.

Corollaire 1.39 -

Si E est de dimension finie :

dim(J5i ® ® Ep) =
dim E1-\ h dim E%

Particulièrement important est le corollaire suivant :

Corollaire 1.40 -

Soit E de dimension finie. Alors E =


i?i0- -(&EP, si et seulement
si :

1. E =
E1 + --

+ EP.
2. dim E =
dim Ex + 4- dim Ep.

Démonstration : Supposons qu'elles


Les conditions sont évidemment nécessaires.
B\,..., Z?p, des bases respectivement de E\,..., Ep. La famille
sont satisfaites et soient
B {#!,..., Bp} est génératrice de E (d'après la condition 1. et la proposition 1.36).
=

D'autre part, la condition 2. implique que le nombre d'éléments de B est égal à la


dimension de E. Il s'ensuit, d'après le théorème 1.21, que B est une base et donc que

La proposition 1.29, page 22, se généralise de la manière suivante :

Comme nous le verrons, l'obstacle au fait que l'on puisse diagonaliser une matrice consiste en
ceque certains sous-espaces (les espaces propres), qui sont toujours en somme directe, peuvent avoir
une somme strictement incluse dans E.
28 Espaces Vectoriels

Théorème 1.41 -

Les sous-espaces E\,... ,EP sont en somme directe, si et


seulement si

E1DE2 {0} (£i


=
, + E2) CiE3 =
{0} ,

(E1 + E2 + E3) H E4 =
{0} , (Ex
, + E2 + + £p_i) H Ep =
{0}
Démonstration : Supposons qu'il existe Xo ^ 0, (£i H
Xq G Ek) H £fc+i pour
h
un certain A; G {1,... ,p

1} et soit x =
a;H Yxv (avec #* G ^). On peut écrire :
x =
xi H h rcfc + #o + (Efc+i -

#o) +^/b+2 H + %P

£El-\--+Ek G-^fc+i

On aurait donc deux décompositions différentes de x sur les E^ et par conséquent les
Ei ne seraient pas en somme directe.
Réciproquement, supposons les conditions satisfaites et soient

X =
X±+ >

+ x

X —
Xi
A ~r ~r Xr

deux décompositions de x sur les Ei. Par soustraction, on obtient :

(xi x[) + + (xp_i Xp_i) =


^ ^p
- - -

Notons y cet élément. On a y G (E\ H h Ep-\) n ^p et donc, d'après la dernière


condition, y 0. Par conséquent :
=

cp/ et (#i x[) H h (xp-2 x'p_2) V-i Xp i


- -

Le même raisonnement montre que a?p_i =


a;^ et ainsi de suite jusqu'à montrer

que la décomposition de x est unique, ce qui signifie que E\,..., Ev sont en somme

directe.

REMARQUE. —

Comme le montre la figure 14. la condition :

Ex n E2 n n Ep =
{0}
ne suffit pas pour assurer que les sous-espaces E\,..., Ep sont en somme directe. Il en est
de même pour les conditions
Ei PI Ej =
{0}
(pour i^ j).

Figure 14
Exercices 29

EXERCICES

M On munit R2 des lois :

(a?i, x2) + (2/1, 2/2) : =


(xi +2/1, x2 +2/2)

A(zi,£c2) : =
(A#i,0) (A G M)
E est-il un espace vectoriel ?

2 On note M+\{0}, l'ensemble des nombres réels strictement positifs. Montrer que les lois :

x®y : =
xy X.x: = xx (x, y G M+\{0} , A G R)
confèrent à IR+\{0} une structure d'espace vectoriel sur R.

3 Montrer que dans la définition d'espace vectoriel (définition 1.1), l'axiome A.2 (commu-
tativité de la somme) peut être déduit des autres axiomes.

4 Dans R3 muni des lois habituelles, lequel de ces sous-ensembles est-il un sous-espace

F={(,,^)eR3|{L-_^-0 }
vectoriel ?

G={(x,y,z)eR3 | (x -

y)2 = 2x + y}

5 Dans M2 (R) muni les lois de l'exemple 3, page 5, lequel de ces sous-ensembles est-il un

sous-espace vectoriel ?

E={AeM2im\A=(«2+cb _«)}
F={AeM2(R) M=( J l )}
|~6~| Soit R[Q'61 =
{/ : [a, b] —>
E} muni des lois de l'exemple 4, page 5. Lequel de ces sous-

ensembles est-il un sous-espace vectoriel ?

1. C° ([a, b], R) =
{fonctions continues / :
[a, 6] —
M} ;

2. ensemble des applications surjectives (resp. :


injectives) / :
[a, 6] — R ;

3. ensemble des applications / :


[a, 6] — R telles que 2/ (a) =
/ (6) ;

4. ensemble des applications / :


[a, 6] —> R telles que / (a) =
/ (6) + 1.

I 7
| Montrer que la famille {i>i,i>2} où v\ =
(1,2), ^2 =
(—1,1) engendre R2. Est-elle une

base ?

I 8| 1. La famille {vuv2iV3} C R3 où vi =
(l,l,-l),*u2 =
(2,l,3),v3 =
(0,-1,5)
est-elle libre ? Quelle relation linéaire lie ces vecteurs ? Est-elle génératrice ?

2. Mêmes questions pour la famille {^1,^2,^3} où v\ =


(1,1,0), v2 =
(1, 2,1),
1* ='(2,3,2).

I 9
I Déterminer une base du sous-espace E de M2 {R) de l'exercice 5.
30 Espaces Vectoriels

10 Soit A4n (if), l'ensemble des matrices carrées d'ordre n à coefficients dans K, c'est-à-
dire des tableaux d'éléments de K disposés sur n lignes et n colonnes. On définit sur

M.n (^), les lois (analogues à celles de l'exemple 3, page 5) :

/ «il «12 «in \ / &n bi2 bln


û2i «2n I I &21 &2n
+

\ «ni 0>nn \ bni

( an + 011 «12 +&12 «In + &ln \


«21 + &21 «2n + &2n

\ Ûni + bnl «nn 4" Onn /

( «11 «12 «In \ I A an Aai2 Àain \


a21 «2n À a2i Aa2n

\ «ni dnn ! V Aani A Cbnn /

1. Déterminer une base et la dimension de cet espace.

2. Montrer que les matrices triangulaires supérieures, c'est-à-dire du type

/ «il «12 «in \


0 «22
A =

\ 0 ann /

forment un sous-espace de Mn {K). En donner une base et la dimension.

s On appelle trace d'une matrice A G Ain (if), la somme des termes de la diagonale
principale : TY A =
an + a22 + ...
+ ann.

1. Montrer que l'ensemble S {A G M.n(K) \ =


Tr(A) =
0} est un sous-espace
Adn(K). En donner une base pour
vectoriel de n = 2.

2. Soit S l'ensemble des matrices de M.n{K) à trace nulle et telles que la somme des
éléments de chaque ligne est nulle. Montrer que S est un sous-espace vectoriel de

Mn{K). En donner une base pour n =


3.

12 Soit S =
{P e R2 [x] : P = A+ (2A -

3^) x + /xz2, (A, \i G M)} . Montrer que S est un

sous-espace vectoriel de R2 [x] et en donner une base.

13 Soit P (x) un polynôme à cœfficients réels, de degré n. Montrer que P et ses n dérivées
forment une base de Rn \x].

14 Soit C°°([a, 6], E) l'ensemble des application C°° de [a, b] dans E. Montrer que les
familles suivantes sont libres :

a) {#, ex} b) {ex, e2x} c) {x, sin ce} d) {sin x, cos ce}
e) {1, e*, e2 '} f) {1, sinœ, sin2#, ..., sinnec}.

15 Soit E un espace vectoriel de dimension finie et F, G deux sous-espaces vectoriels de E.


On note Vect (FUG) l'espace vectoriel engendré par FUG. Montrer que Vect (FUG) =

F-{-G.
Peut-on généraliser ce résultat au cas de n sous-espaces, c'est-à-dire : Vect (Fi U F2 U
... U Fn) =
F\ + ...
+ Fn ? Peut-on généraliser le résultat en dimension infinie ?
Exercices

1. Soient i*i, i*2, F3 trois sous-espaces vectoriels d'un espace vectoriel E. Montrer
que :

Fi D (F2 + Fz) D Fi H F2 + Fi n F3

2. A-t-on l'inclusion contraire ?

s Soient

={^^(DiA=(_; 2tt_:b)}
:

G
={A6^2(R)|A=(_a6 ^J}
Montrer que Mi (M) = F 0 G.

18 Soit A G A^n (iC) et *A la matrice de «Mn (K) dont les lignes sont les colonnes de A.

(I0 2 -1\
lA
/ 1 0 8
Par exemple, si A = 1 3 alors = 2 1 1

\8 1 -1/ \-l -1, 3


*A est dite transposée de A. On dit que A est symétrique (resp. : antisymétrique) si
*A = A (resp. : * A —A). =

1. Montrer que les ensembles Sn (K) et ^4n (X) des matrices respectivement
symétriques et antisymétriques sont des sous-espaces vectoriels de A4n (^0-
2. Déterminer une base et la dimension de Sn (K) et de An (K) pour n =
3.
Généraliser à n quelconque.
3. Montrer que Mn (K) =
Sn (K) 0 An (K)

19 Espace vectoriel des suites récurrentes

I. Soit E l'espace vectoriel des suites de nombres réels et S C E l'ensemble des suites
vérifiant la relation de récurrence :

Un+2
=
%+l +2 Un (n > 0).
1. Montrer que E est un sous-espace vectoriel de E.

2. Montrer que les suites de terme général an =


(—l)n et bn = 2n forment une

famille libre de S.

3. Tenant compte du fait que les suites de S sont univoquement déterminées si on

connaît uq et ui, montrer que (an) et (6n) forment une base de S.

4. Déterminer les suites de S telles que uo = 1 et u\ = 2.

II. Généralisation. Soit S l'ensemble des suites de nombres réels vérifiant :

Un+2
=
OLUn+l+fiUn (a,/3GR).
On suppose que a et p ne sont pas tous deux nuls.

1. Montrer que S est un espace vectoriel de dimension 2 sur EL

2. Chercher une suite de S du type an =rn. Montrer que r doit vérifier une équation
de 2e degré. Lorsque cette équation admet deux racines réelles et distinctes ri et
r2, en déduire l'expression de un en fonction de uq et de u\.

3. Montrer que lorsque l'équation de 2e degré admet une racine double r, les suites
= Tn
Q>n et bn nrn forment une base de S.
=

4. Montrer que si Ai et À2 sont deux racines complexes conjuguées de l'équation de


2e degré et Ai = pe%e, alors les suites an =
pn cosnÔ et bn pnsmn0 forment =

une base de S.
32 Espaces Vectoriels

III. Application. Déterminer le terme général des suites définies par la relation de
récurrence :

Un+2 =
5un+l —6 Un

Un+2 =
4un+i -

4 Un

Un+2 + Un+l + Un = 0.

20 Équations différentielles linéaires à coefficients constants

I. Soit l'équation différentielle :

y" +ay' + by = 0

où a, b £ R et y =
y (ce) la fonction inconnue (réelle de variable réelle.)
1. Montrer que les solutions forment un espace vectoriel S sur R.

2. A l'aide du théorème d'existence et unicité, montrer que dim^ S = 2.

II. Soit l'équation (dite équation caractéristique)


r2 + ar + b = 0

1. Montrer que si elle admet deux racines réelles ri, r2, alors la solution générale
est :

y = AeriX + Ber2X

2. Montrer que si l'équation caractéristique admet une racine double r, la solution


générale est :

y =
(A + Bx)erx
3. Montrer que si l'équation caractéristique admet deux racines complexes
conjuguées a±i/3, la solution générale est :

y
= eax (Acos/3x + Bsin/3x)

INDICATIONS

1 Seul l'axiome B.4 n'est pas satisfait (ce qui montre qu'il ne peut être déduit des autres

axiomes).

| 2
I Vérifier les axiomes de la définition 1.1.

I
'
3
'
I On a: (1 + 1) (x + y ) =

B2
1 (x +y ) + 1 (x + y ) =

B.4
(x +y ) + (x + y ).
D'autre part :

(1 + 1). (x + î/) =:

B.3
(l + l)- + (l + l)-î/ =:

B.2
(l.a; + l.aO + (l.î/ + l.y) =

B.4
(x + x) + (y + y)

d'où: (z + y) + (x + y) =
(x + x) + (y + y).
En ajoutant à gauche —

x et à droite —y (axiomes A.4, A.3) et en tenant compte de


l'associativité (axiome A. 1), on obtient x + y =
y + x.

4 F oui ; G non.

| 5
| Pour E, vérifier la stabilité (proposition 1.4) ou, mieux, écrire A = a l n n ) +

Mn —1 /"^(q n): -^est l'espace engendré par les trois matrices mis
mises en

évidence et donc il est un sous-espace vectoriel de .M2 (R).


F ne contient pas la matrice nulle.
Exercices

0
1. Oui.

2. Ne contient pas l'application nulle.


3. Oui.

4. Ne contient pas l'application nulle.

7 Le système in, _

h
admet une solution unique pour tous a et 6.

H 1. Le
A
système
(A M).
x\ v\ + X2 V2 + #31>3
La famille n'est pas libre. Relation de dépendance : 2i;i
G
= 0
vi +v$
a comme solution #i =
2A, rc2

=
—A, xs
=
=

0.
La famille n'est pas génératrice, car le vecteur v (a, 6, c) ne peut s'écrire =
sous

la forme v =
x\ v\ + X2 V2 + xs V3 que si: 4a

56 —

c = 0.

2. Il s'agit d'une base.

[9 I (0 g ) ( '
0 -l)'V2 o)eSt génératrice et libre.

10

l 1 0 0 \ °\
0 0 0
1. En =
, E\2 =

l 0 0 y V 0 0 /
0 .

Enn —

(plus précisément, Eij est la matrice dont tous les termes sont nuls sauf celui de
la i-ième ligne et j-ième colonne, qui vaut 1). dim M.n (K) = n2.
Cette base est dite base canonique de M.n(^)-

n(n + 1)
2. Engendré par {Eij}iK .. La dimension est 1 + 2 + + n = .

| 11 Vérifier la stabilité des lois.

Pour 2, A G S si et seulement si A ( ) c'est-à-dire si et seulement


\ J
n = =

c -a

*-{l -Î)+6(S 0+c(! S>


si :

dimf=3

12 PeS <=> P =
A(l + 2z) + /z(-3z + x2).
Pi = 1 + 2 x et P2 = —3 x + rc2 forment une famille génératrice. Vérifier qu'il s'agit
d'une famille libre.

13 | Ecrire A0 P + Ai P' + A2 P" + + An P<n> = 0. En égalant à 0 les cœfficients, il vient


d'abord Ao = 0 car P est le seul polynôme de degré n. Ensuite Ai = 0 (coefficient de
£n-1), etc. Appliquer ensuite le théorème 1.21.
34 Espaces Vectoriels

14 a) A x + fi ex =
0 =>- (en dérivant) À + fi ex = 0. En faisant x = 0 dans ces deux

équations, on obtient < \ , _

n >
d'où : À =
fx = 0.

On peut aussi donnera x deux valeurs différentes. Par exemple x = 0 et x = 1. On

obtient le système Sx, Z n qu* donne : A =


0, ^ = 0.

Raisonnement analogue pour les autres.

15 Utiliser la proposition 1.36.

I 16 I 1. Si x e (Fi n F2) + (Fx n F3) alors x =


2/2 + 2/3 avec y2 G Fi n F2 et
1
,

'
2/3 G Fi H F3. Donc x G Fi n (F2 + F3).
2. Non. Considérer, par exemple, les sous-espaces de la figure 14, page 29.

[rT] BasedeF:{Ai,A2}aveci41=^ jQ jV
( °
A2 =

Q _^ (_ j\
°
BasedeG:{Bi,S2}avecBi =
#2 =

Montrer que {Ai,^2,-^1,52} est une famille libre.

Appliquer les théorèmes 1.21 et 1.38.

I 18 I 1. Montrer d'abord que VA G K, VA,B G JWn (#)> onaÉ(A A) = \lA et *(A+B) =

I 1
t^_|_ tg ge servjr (je ces propriétés pour montrer la stabilité des lois dans Sn(K)
et dans An{K).
2. A E A3 (K) si et seulement si :

/ 0 a b \
A = 1 -a 0 c

\ y

iM
-6 -c 0

t ° x 0 0 1 0 0 0
= a -1 0 0 0 0 + c 0 0 1
V 0 0 -10 0 0 -1 0
En déduire que dim A3 (K) = 3. De même : dim S3 (K) = 6.
Dans le cas général, les matrices antisymétriques sont caractérisées par les
coefficients strictement au-dessus de la diagonale principale (la diagonale principale
est formée par des 0), et les matrices symétriques par les coefficients au-dessus de
la diagonale principale, la diagonale comprise. Par conséquent :

dimSn(K) =
r^+ll, dimAl(A-) = îi(!Lii)

(A
A\ (A *A\
) ( )*
l
+
+

Utiliser la proposition 1.29.

19 I. "- Vérifier la stabilité des lois.

2. Ecrire A(-l)n + ii2n =


0 ; faire n =
0, n = 1.

3. Pour toute suite (un) G £, montrer qu'il


existe A et \x tels que un A (—l)n+/i 2n =

faire n =
0, puis n = 1 et montrer que l'on peut résoudre le système en À et /i.

4. Un =

\ (-1)" \ -

2"-

IL 1. Soient ao, ai, bo, b\ des réels tels que ao 61 7^ ai 60 On considère les suites (an),
(bn) de S dont les premiers termes sont respectivement ao,ai et bo,bi. Soit
(un) G S. Montrer qu'il existe un et un seul couple A,/x de réels tels que :

( uq Aao + fJ,bo
|
=

wi =
Aai + /J>bi
En déduire que (an) et (bn) forment une base de £.
Exercices 35

2. En excluant la solution triviale r =


0, on a : r2 —

ar —

(5 =
0. Si ri et r2 sont
les deux racines réelles distinctes, an = rn et bn =
r% forment une base de S et

pour toute suite de £, il existe À^GlR, tels que :

un =\r? + (j,r%.
En faisant n =
0, puis n =
1, on détermine À et fi en fonction de uo et u\.

3. Même raisonnement.

4. On considère d'abord l'espace E' des suites complexes et £' le sous-espace des
suites de E' vérifiant la relation de récurrence. On obtient deux suites ipn =

pn é1710 ij)n pn e~xnd qui forment


= une base de S''. La partie réelle et la partie
imaginaire de ipn sont :
<Pn+ll>n <Pn
-

j>n
Ite ipn lm ipn
_, ,

an = =
on = =

2

2%
,
.

Etant combinaisons linéaires de ipn et ipn, elles appartiennent à S' et, puisqu'elles
sontréelles, elles appartiennent à S. Vérifier qu'elles forment un système libre.
III1. un =
X2n+fj,Sn.
2. un =
(\ + n/j,)2n.
2ir 2nn
3. un A + M
.

= cos —

n sin .

| 20 I. 1. Montrer que S est un sous-espace vectoriel de l'espace des applications de R dans


R muni des lois de l'exemple 4, page 5.

2. Le théorème d'existence et unicité affirme que V2/0,20 G R il existe une et une

seule solution y y(x) telle que 2/(0)


=
yo et y'(Q) = 20, dite « solution de
=

conditions initiales» (2/0 >£())


Soient yo,zo, vq,wo £ R tels que yo^o 7^ 20^0 et 2/1,2/2 les solutions de
respectivement (yo^o)» (vo>wo). Soit y une solution quelconque,
conditions initiales
de condition initiale (a, (3). Montrer qu'il existe un et un seul couple A, B G M,
tel que

{A
:

yo + B vo = a

Azo + Bwo =0
En déduire que yi et 2/2 est une base de S.

IL 1. Vérifier que {eriX eV2X}


,
est une famille libre de solutions.

2. 3. Vérifications analogues.
Chapitre 2

La méthode du pivot
(ou méthode d'élimination de Gauss)

L'étude de l'indépendance ou de la dépendance linéaire d'un système de vecteurs intervient


d'une manière ou d'une autre dans tous les problèmes qui se posent en algèbre linéaire :
détermination de bases, calcul de la dimension, mise en évidence de sommes directes, etc.

Comme nous l'avons vu sur des exemples,


problème le se ramène souvent à l'étude d'un

système d'équations linéaires : solutions, s'il y a une solution unique,


savoir s'il admet des
voire déterminer les solutions. Aussi, l'étude des systèmes linéaires est-elle sous-jacente à
tous les aspects de la théorie.
Dans chapitre nous expliquons la méthode du pivot qui fournit un algorithme simple
ce

et pratique pour résoudre ce type de problèmes. Une présentation rigoureuse de l'étude


des systèmes linéaires sera donnée au chapitre 5. La finalité étant essentiellement d'ordre

technique disposer d'un outil de travail


-

nous nous limiterons le plus souvent, à faire


-

comprendre la théorie sur des exemples, ce qui dans ce cas est largement suffisant, car les
aspects théoriques sont d'une grande simplicité conceptuelle. Les raffinements de la méthode
et les questions liées au choix du pivot seront traités dans l'Appendice A.4.

2.1 Etude d'un système d'équations linéaires par la méthode


du pivot
On appelle système d'équations linéaires un système du type :

( an x\ + ai2 X2 H h a\n xn =
b\
J a<i\ X\ + a22 #2 H h &2n %n =
&2

( 0>pl %l + &p2 #2 H !" &pn %n bp


~

Les dij et les bi sont des éléments de K, donnés. Les Xi sont dites 'inconnues et
résoudre le système signifie déterminer les xi G K) s'il y en a, qui vérifient toutes les
équations.
La méthode du pivot est fondée sur la remarque suivante :

Propriété 2.1 L'ensemble des solutions d'un système linéaire ne change pas si l'on
-

effectue sur les équations les « opérations élémentaires» suivantes :

1. changer l'ordre des équations ;

37
38 La méthode du pivot (ou méthode d'élimination de Gauss)

2. multiplier une équation (premier et second membre ) par un scalaire non nul ;

3. ajouter à une équation une combinaison linéaire des autres équations.

Quelques exemples suffiront pour comprendre comment exploiter cette propriété,


avantd'expliquer d'une manière plus précise la technique.

Exemple 1. -

Li 2x + y-2z + 3w = 1

l2 |T|x + 2î/- z + 2w = 4

l3
{[s}x + 3y + 3z-3w =
b

On effectue des opérations élémentaires de manière à faire disparaître les deux coefficients
encadrés. Par exemple :

2x + y
-

2z + 3w =1

L'2=2L2-3L1 ^ y + 4z 5w 5

=

.Lg=2Z/3—3Z/i \3}y +12*-15w =7

L'ensemble des solutions n'a pas changé. On répète maintenant l'opération sur les deux
dernières équations :

2x + y-2z + 3w= 1

y + 4z bw £
l'2

=

L'-3L' 0 =-8

On voit immédiatement que le système n'admet pas de solution.

Exemple 2. -

Li x + 2y —

z = 1

L2 < 2x + 3y+ z = 2

L3 x + 4y-6z = 2

1*1 x + 2y —

z = 1 Li x + 2y —

z = 1

2/ + 2^ 0
l>2=L/2—2Z/i 4 y + 3z 0 l2 <
=
= —
"

L'3=L3-Li 2y —

bz = 1 l'3+2L'2 ^
z =
l

On a donc z =
1. En reportant dans l'équation L2 on obtient la valeur de y : y
=
3. En
remontant maintenant dans l'équation L\ on trouve x : x 2y+z+ l = —
= —

6+ 1 + 1 = 4.
Le système admet donc la solution unique x = —

4, y =
3, z = 1.

Comme on le voit, la méthode consiste à mettre le système «sous forme échelonnée»


de manière à pouvoir, en partant de la solution de la dernière équation et en
remontant, résoudre toutes les équations. Précisons cela.
Considérons une matrice, c'est-à-dire un tableau d'éléments de K rangés en lignes
et colonnes. Pour un système d'équations linéaires on appelle matrice du système
2.1 Etude d'un système d'équations linéaires par la méthode du pivot 39

la matrice des coefficients des premiers membres des équations. Par exemple, pour
l'exemple 1., la matrice du système est :

Lx 2 1 -2 3

L2 3 2 -1 2

L3 3 3 3 -3

On notera Li, L2,... Lk les différentes lignes de la matrice. La ligne L* sera dite zème

ligne ou ligne d'indice i.


On dit qu'une matrice est échelonnée si les lignes commencent par un nombre de
zéros strictement croissant à mesure que l'indice augmente (c'est-à-dire, par exemple,
la ligne L3 commence par un nombre de zéros strictement plus grand que la ligne
L2 et celle-ci par un nombre de zéros strictement plus grand que la ligne L\). Par
exemple :

2 3 10 12 6

0 0 7 18 2 0

0 0 0 0 0 6 2

1° 0 0 0 0 0 ol

est une matrice échelonnée, alors que la matrice

13 10 15 9

0 0| 7 1 8 2 0

0 0 5 10 6 2

0 0 0 3 2 15

n'est pas échelonnée.


Il est facile de se (la démonstration rigoureuse est lourde, mais elle n'est
convaincre
pas difficile) que par desopérations élémentaires, on peut toujours mettre le système
sous forme échelonnée, c'est-à-dire on peut remplacer le système par un autre dont la
matrice est échelonnée (l'ensemble des solutions n'aura pas changé).
Pour cela, il faut d'abord que la première équation commence par un coefficient non
nul, ce qu'on peut toujours faire en changeant éventuellement l'ordre des équations
(lère opération élémentaire). Ce coefficient non nul est dit pivot. (Si l'on reprend, par
exemple, l'exemple 1., le pivot est 2).
Comme on le voit sur l'exemple 1., on peut échelonner les deux premières lignes en
multipliant la ligne L2 par le pivot (ce qu'on a le droit de faire car le pivot est non
nul -

cf. opération élémentaire b) ) et en lui ajoutant l'équation L\ multipliée par un


coefficient adéquat. On procède ainsi jusqu'à échelonner tout le système.
40 La méthode du pivot (ou méthode d'élimination de Gauss)

Exemple 3. -

Ll
'
x + 2y-3z = 4 Li ( x + 2y- 3z = 4

L2 x + 3y+ z = 11 L'2=L-2 —

Li | y+ 4z =
7
<
L3 2x4- 5y-4z =
13 L'3=L3—2Li 11 y+ 2z =
5

k4 lly
| |3j/ + 12z
L4 + =37 L'4=L4-4Li = 21

Il s'agit maintenant d'échelonner les trois dernières équations. Le pivot est à présent le
coefficient de y dans l'équation L2 (c'est-à-dire 1).

z + 2 y--3z= 4
Li

y + 42 7
11
=

L'n
^2
<
1 2* 2
L3—L2
=

I/4 3L2
1
1
° =
0

Le système est maintenant sous forme échelonnée. On a immédiatement z = 1 ; en

reportant dans L2 : y 7 4 3 et dans Li : £


= —

4 6 + 3
= 1. Le système = —
= admet donc la
solution unique x 1, y 3, z =1. = =

Exemple 4.
Li (x —

3y + 4z —

2w =
5

L2 { x y + 9 z w = 7
— —

L3 [x-2y-{-7z-2w =
9

f
Li rx —

3y + 4z —

2w =
b Li x —

3y + 4z -2k; =
5

L2=L2—Li <
2y + 5z+ w = 2 -

->
l2 < 2y + 5z + w = 2

L3=L3-Li y + 3z = 4 2L3

L2 z —

w =
6
<

Le système est sous forme échelonnée. En donnant à w une valeur arbitraire À, on met
en évidence le système dont la matrice est la matrice encadrée, qui admet une solution
unique pour chaque choix de À :

x —

3y + 4z =
5 + 2A

2y + hz = 2- A

z =
6 + A

En résolvant, on trouve :

x = -26-8A y- -9-3A 2 = 4+ A w = A

z =
-61-llA , y =
-14-3A ,
2 =
6 + A ,
w = A

Le système admet donc une infinité à un paramètre de solutions.


2.1 Etude d'un système d'équations linéaires par la méthode du pivot 41

Méthode d'élimination pour la résolution


d'un système d'équations linéaires

Les exemples que nous venons de traiter illustrent suffisamment la méthode pour
résoudre un système d'équations linéaires.

1. Il faut tout d'abord préparer le système en échangeant éventuellement l'ordre


équations et des variables de manière à pivot
1
des ce que le soit non nul ;

2. On échelonne ensuite le système.


Deux cas peuvent se donner :

(a) : il se présente une équation du type :

0#i + 0#2 H h 0xn =


b avec 6/0 (*)
Dans ce cas, il n'y a pas de solution : on dit que le système est incompatible.

(b) : il n'y a pas d'équation du type (*).


S'il se présente une équation du type

0x1+0x2 + -'

+ 0xn =
0

elle peut être écartée. Une fois éliminées toutes ces équations, on aboutit
à un système du type :

|fln |fli +0,12X2 + +Q>ln %n =


h

air \xr -\- air+i xT+i + \~a-ifi Xji —

0%

0>ps \Xs~r 1
Û-pn Xfi

où les coefficients encadrés (ceux qui sont au début de chaque équation)


sont tous non nuls.
On met ainsi en évidence une matrice échelonnée dont la dernière ligne n'a
qu'un élément non nul (cf. matrice encadrée).
Les inconnues qui apparaissent au début de chaque équation (celles
correspondantes aux coefficients encadrés) sont dites inconnues principales, les
autres (s'il y en a) variables libres (dans les exemples 2 et 3 il n'y a pas de
variables libres; dans l'exemple 4., z, y, z sont les inconnues principales,
w la variable libre).

Deux cas sont possibles :

i) Il n'y a pas de variable libre.

^ous verrons en Appendice A.4 les précautions qu'il faut prendre dans le choix du pivot, de
manière à contrôler les erreurs dues aux approximations numériques dans les calculs.
42 La méthode du pivot (ou méthode d'élimination de Gauss)

Alors le système admet une et une seule solution que l'on obtient en résolvant d'abord
la dernière équation et en remontant jusqu'à la première.

ii) Il y a des variables libres.

On donne alors aux variables libres des valeurs arbitraires Ai,..., Am, on porte les
Xi au second membre et l'on est ramené précédent
au cas : il existe alors une et une

seule solution pour chaque choix de Ai,...,Am c'est-à-dire, une infinité de solutions

dépendante de m paramètres (m = nombre des variables libres).

Exemple :

( + 2y -2z + 3w 2 + 2y-2z + 3w 2
'

z,i x = x =

L2<k2x+4y 3z+4w =
5 l'2=l2-2L1 z-2w = l

l3 ^ 5z+ 10y- 8z + llw = 12 l^=l3-5Li 2z-4w = 2

Lx ( x + 2y-2z + 3w = 2

L2-2L1 < Z —

2w = 1

L'3-2L'2 [ 0 =
0

Aussi, le système est-il équivalent au système suivant :

\^} + 2y-2z +3w = 2

-2w = l

x et z sont les inconnues principales, y et w les variables libres. En posant y =


A et w =
fj,,
on a :

|=2-2À-3jLi
"

x-2z

z = 1 + 2/x
d'où les solutions x —
4 —

2A + /i, y =
A, z =
1 + 2/x, w =
\i.

Exercices 1. 2. 3.

2.2 Cas des systèmes linéaires homogènes


On appelle système linéaire homogène un système d'équations linéaires dont le second
membre est nul :

an #i + «12 #2 + + «In Xn =
0
«21 #1 + «22 #2 + + «2n %n =
0

«pi #1 + «p2 #2 +
* ' '

+ «pn #n =
0

Un tel système
toujours, bien entendu, au moins une solution, la solution nulle :
a

xi X2
=
xn=
0, dite solution triviale. Il est intéressant de savoir si le système
= =

admet des solutions non nulles. A cet effet, on a :


2.2 Cas des systèmes linéaires homogènes 43

Théorème 2.2 L'ensemble des solutions d'un système linéaire homogène à n


-

inconnues est un sous-espace vectoriel de Kn. Si le système sous forme échelonnée


comporte équations, Vespace des solutions est de dimension n k.
k —

En particulier un système homogène avec plus d'inconnues que d'équations (n > p)


admet des solutions non nulles.

REMARQUE -La dimension de l'espace des solutions est égale au nombre de variables
libres qui apparaissent dans la forme échelonnée.

Démonstration : La vérification de la stabilité des lois pour l'ensemble des solutions


est très facile et elle est laissée en exercice.

Supposons avoir mis le système sous forme échelonnée et avoir trouvé k équations.
Il yaura donc k inconnues principales et n k variables libres. Quitte à changer la —

numérotation des x^ on peut supposer que les variables libres sont a?i,... >xn-k et
les variables principales xn-k+i>>..., xn. Une solution sera donc du type :

*-> —

(Al, ) An_/c, #n-fc+l> . .


,
.
Xn)

où les Xn-k+i, >#n s'expriment linéairement à l'aide des Ai :

Xn-k+i
=
ai Ai + + an-k An_fc
#n-fc+2
=
b± Ai + + bn-k An_fc

xn =
h Ai + + ln-k An-/c

donc la solution générale sera le n-uplet

(n—k
n—k n—k \

Ai,...jAn_/c, y ^ajAi, y ^bjAii...y y ^ijXj i


z=l i=l i=l J

que l'on peut écrire sous la forme :

S =
Ai (1,0,..., 0, ai,6i,...,Ji) + À2 (0,1,0,...,0, a2, 62,...,Z2)
h Xn-k (0,0,..., 1, an_fc, bn-k,..., ln-k)

On met aussi en évidence n


k solutions :

(1,0,...,0, ai, bu ,h)


(0,1,...,0, a2, 62, M)

(0,0,...,1, an_/c, &n-fcj- Jn-k)

(obtenues en donnant au (n fc)-uplet (Ai,..., An-k) successivement les valeurs


(1,0,..., 0), (0,1,..., 0)... (0,..., 0,1) ). Elles forment un système de générateurs,
car la solution générale est combinaison linéaire de ces solutions. Il est facile de voir
qu'il s'agit d'une famille libre et donc d'une base de l'espace des solutions2. D

Comme nous le verrons au paragraphe 4, cela tient du fait que la "matrice engendrée" est
échelonnée.
44 La méthode du pivot (ou méthode d'élimination de Gauss)

REMARQUE -

Comme on l'a vu au cours de la démonstration, on obtient une base de


solutions en donnant aux variables libres successivement les valeurs (1,0,..., 0),
(0,1,0 0)...(0,...,0,1).

{x
Exemple :

2y-3z +
+ t-w =
0
x3y 4z
+ —

+w =
0
2x + by-7z + t =0

On ramène facilement le système à la forme échelonnée :

x + 2i -3z + t- w =
0
y
-

z-t + 2w =
0

Les variables libres sont z, t, w ; l'ensemble des solutions est donc un sous-espace vectoriel
de dimension 3 de M5. La solution générale est :

x =
À —

3/z + hv , y = X + fi —

2v ,
z =
\> t =
\i ,
w = v

c'est-à-dire :

S =
(À 3 n + 5 v, À + \i 2 v, À, \x, v)
— —

= A (1,1,1,0,0) + m (-3,1,0, l,0) + i/ (5, -2,0,0,1)

Donc une base de l'espace des solutions est :

(1,1,1,0,0), (-3,1,0,1,0), (5,-2,0,0,1)

Exercices 4. 5. 6.

2.3 Application aux familles libres et aux familles génératrices

La famille {t>i,... ,t>p} est-elle libre ?

Exemple :
Vérifier que les vecteurs de M3

Vl =
(1, -2, -3), v2 =
(2,3, -1), v3 =
(3,2,1)
forment une famille libre.

Il s'agit de savoir si x\ v\ + X2 V2 + #3 ^3 =
0 => xi =
0, X2 =
0, xz =
0 c'est-à-dire si
le système :

zi + 2x2 + 3z3 =
0

-2zi + 3^2 + 2x3 =


0

3#l —

X2 + X3 =
0

admet comme seule solution, la solution nulle. On a :

Ll ( Xi + 2X2 + 3X3 =
0 Lx ( Xi + 2X2 + 3X3 = 0

L'2=L2+2L1 < 7X2+ 8X3=0 L2 7x2+ 8x3 =


0

L^=L3+3Li ( 5X2 + 10X3 =


0 7L3-5L2 30x3 =
0

d'où : xi =
0, X2 =
0, X3 =
0. La famille est donc libre.
2.3 Application aux familles libres et aux familles génératrices 45

II Détermination les relations linéaires liant une famille de vecteurs

Exemple : Déterminer les relations linéaires liant les vecteurs de M4 suivants :

vi =
(1,1,0,2) v2 =
(-1,0,2,1) % =
(0,1,2,3) v4 =
(1,3,4,8)
Il s'agit de déterminer les Xi (i =
1,..., 4) tels que

Xi Vi + X2 V2 + X3 V3 + X4 V4 =
0

c'est-à-dire les solutions du système :

Li X\ X2 + X4 =
0 L1 X\

X2 + X4 =
0

Xl + #3+ 3X4=0 L'2=L2-L1 X2 + X3 + 2 £4 =


0

2X2 + 2X3+4X4=0 L3 2x2 + 2x3+4x4 =0

La [2Xi + X2 + 3 £3 +8X4 =
0 L4=L4-2Li 3 X2 + 3 £3 + 6 £4 =
0

Xi

#2 + X4 =
0

u X2 + X3 + 2 £4 =
0

£3-214 I 0=0

£4-3^2 l 0=0
En posant X3 = À £4 =
M> on trouve :

£2 = —

A —

2/jL
xi = —

À —

3/1
d'où les relations :

(À + 3/-0 vi + (À + 2/z)i>2 -

Au3 -m«4 =
0 (A,/iGR)
En donnant au couple (À, fj,) les valeurs (1,0) et (0,1) on obtient les solutions
indépendantes :

vi + V2 —

V3 =
0 et 3 vi + 2 V2 —

V4 =
0.

III Vérifier si un vecteur appartient à l'espace engendré par {vi, ...,t>p} et


déterminer, le cas échéant son expression en fonction
dev\,...,vv

Exemple : Soit v (3,9,-4,-2). Montrer que v G Vect{t;i, V2, V3}, où on


=
a vi =

(1,-2,0,3), V2 =
(2,3,0,-1), i>3 (2,-1,2,1) et exprimer v en fonction dev\,
=
V2, V3.

Il faut que l'on puisse trouver xi, X2, X3, X4 G M tels que :

v =
xi vi + X2 V2 + £31*3;

c'est-à-dire il faut que le système


Xi+2X2 + 2£3= 3

-2xi + 3x2 —

X3 =
9

2x3 = -4

3xi —

X2 + X3 = —

admette au moins une solution. On trouve facilement : xi =


1, X2 =
3, X3 =
—2. Donc
v G Vect{t>i, V2, V3} et v =
i>i + 3^2 —

2^3.
46 La méthode du pivot (ou méthode d'élimination de Gauss)

IV La famille {^i,... ,vp} est elle génératrice ?

Exemple : Montrer que la famille v\ =


(1,1,1), V2 =
(0,1,1), ^3 =
(0,1, —1) engendre

Il faut montrer que tout vecteur v G M3 appartient à Vect{vi, t>2, ^3} c'est-à-dire que
V (a, 6, c) G R3, le système (a, 6, c) =
x\ v\ + X2 V2 + X3 V3 admet au moins une solution.

On a :

Li Xl = a Li xi = a

L2 < Xl + X2 + X3 = b >
L2-Li < X2 + X3 =b —

LZ Xi + X2 X3 =
C L3-L1 X2 X3 = C a
— —

< <

xi
f
= a

b + c-2a
X2 =
> <
g

b-c
Xi =

On a donc une solution xi X2, X3 pour tous a^b, c\ la famille {^i, t>2, ^3} est donc

génératrice.

V Déterminer une base de F H G.

Exemple : Soient F et G les sous-espaces vectoriels de R4 engendrés respectivement par

{vi, V2} et {wiy W2}, où :

ui =
(1,-1,0,2), V2 =
(2,1,3,1), wi =
(l,l,l,l), W2 =
(3,-4,4,2).
Déterminer une base de F C\G.

Un vecteur quelconque v G F est du type v =


A vi + [i V2 et un vecteur quelconque w e G
est du type w =
awi + j3u)2. Il faut donc trouver À, //, a, f3 G M, tels que :

À vi + \x v2 =
awi + p W2
c'est-à-dire :

(A + 2/x, -A + At, 3^, 2A + m) =


(a + 30, a-4/9, a+ 4)0, a + 2/3) (*)

ce qui donne le système :

A + 2/x =a + 3/3
-A+ fi =
a-4/3
SfjL =a + 4f3

2A + M =a + 20
2.3 Application aux familles libres et aux familles génératrices 47

dont les inconnues sont À, /j,, a, fi. En portant a et fi à premier membre :

\ + 2fj,-a-3/3 =
0 (X + 2/jl- a-3/3 =
0

l2 A+ /z-a + 4/3 =
0 L1+L2 3^-2a+ /3 =
0

3fi-a-4:p =
0 Sfj,- a-4/3 =
0

La { 2A+ tM-a-20 =
Q L4-2Li -3^ + a + 4/3 =
0

\ [Tj + 2^ -

a -3/3 =
0

3m 2a + /3 =
0

[ô] -5/3 = 0

À, jit, a sont les inconnues principales, /3 la variable libre. On trouve facilement, en fonction

de/3 :a =
5/3, m =
3/3, A 2/3.=

F H G est donc défini par l'un des deux membres de (*) où À, /z, a sont exprimés en
fonction de /3. On trouve :
(8 /3, /3, 9/3, 7 /3) ce qui veut dire que F n G est engendré par
le vecteur (8,1,9,7).

VI Équations d'un sous-espace

Le problème est le suivant. On se donne une famille de vecteurs


F —

{vi,...,vp} et soit F l'espace engendré. Il s'agit de déterminer un système


d'équations linéaires dont les solutions sont exactement les vecteurs de F.

Exemple : Déterminer les équations du sous-espace de R5 engendré par les vecteurs v\


=

(1,3,-2,2,3), ^ =
(1,4,-3,4,2), t* =
(2,3,-1,-2,9).
Une équation quelconque du système est du type :

ax\ 4- b X2 + c X3 + d X4 + e X5 =
0

En imposant que les composantes de vi, V2, V3 vérifient cette équation, on trouve le

système :

(pour vi) 1'l a + 36-2c + 2d + 3e =


0

(pour V2) l2 < a + 46-3c + 4d + 2e =


0

(pour V3) l3 2a + 36- c-2d + 9e =


0

Ll ( a + 36-2c + 2d + 3e =
0 \~â} +36 -2c + 2d + 3e =
0

L2-L1 < b c + 2d- e =


0
[&] c + 2d- e =
0
- —

L3-2Li -3fr + 3c-6d + 3e =


0 0 =0

En donnant aux variables libres, c, d, e les valeurs {1,0,0} {0,1, 0} et {0,0,1} on trouve

{-
,

le système :

xi+ x2 + x3 =
0
4 xi —

2 X2 + X4 =
0
—6x1 4- X2 + X5 =
0

Exercices : 7. 8. 9. 10. 11.


48 La méthode du pivot (ou méthode d'élimination de Gauss)

2.4 Utilisation pratique de la méthode du pivot


Comme on voir, les différents problèmes sur la dépendance linéaire reposent
vient de le
sur l'étude d'un système d'équations linéaires. Cependant dans la pratique, la méthode
du pivot fournit une technique qui permet de s'affranchir de l'étude du système et de
travailler directement sur les familles de vecteurs3.

Théorème 2.3 (Opérations élémentaires sur une famille de vecteurs).


-

Soit {vi,...,vp} famille de vecteurs. L'espace qu'ils engendrent ne change pas


une

si Von effectue sur les vecteurs de la famille l'une des «opérations élémentaires»
suivantes :

a) changer l'ordre des vecteurs ;


b) multiplier un vecteur par un scalaire non nul ;
c) ajouter à un vecteur une combinaison linéaire des autres vecteurs.

Démonstration :

a) Evidente.
b) D'après a) il suffit de montrer que si

E =
Vect{^i,...,vp} et F =
Vect{kvi,...,vp} (avec k ^ 0),
alors on a : E =
F.
Soit y y \i\ (k V\) + M2 v2 H
G F : =
1- Mp vp 5 on a immédiatement y =
(mi k) V\ +
M2 v2 H h /J>P vp c'est-à-dire y G E.
Réciproquement, si y G E, c'est-à-dire y est de la forme y \\V\-\ \- =
Xp vpy on a :

y
=
-r (k vi) + A2 v2 H h Xp vp

c'est-à-dire y G F.

c) D'après a) et b) il suffit de montrer que si l'on ajoute à v\ le vecteur v2,


l'espace engendré ne change pas. C'est-à-dire que Vect{vi, v2,... ,vp} Vect^ + =

V2, V2,...,Vp}.
Soit y G Vect{î;i + v2, v2,..., vp} :

y =
Mi (vi + v2) + M2 v2 + h \iP Vp

On a :

y =
Mi vi + (/X2 + Mi) v2 H h Mp ^p

c'est-à-dire : y G Vect{t;i, v2, ..

^p}.
Réciproquement, soit y G Vect{i>i, t>2,... , t>p} : y
=
Ai t>i H- + Xp vv. On peut
écrire :

y =
Ai (vi + î;2) + (A2 -

Ai) v2 + A3 v3 H h Ap vp,
et donc y G Vect{î;i -f v2, i>2, , ^p}.
3Bien que l'algorithme que nous allons expliquer soit extrêmement simple et pratique, l'on ne
doit pas perdre de vue les exemples du paragraphe 3. : on peut oublier une technique, il ne faut pas
oublier ce qui est la démarche naturelle du raisonnement.
2.4 Utilisation pratique de la méthode du pivot 49

Soit E un espace vectoriel de dimension finie, {ei,..., en} une base de E (que nous

noterons dans la suite simplement {e^}). Comme nous l'avons vu au chapitre 1, (cf.
proposition 1.13), tout vecteur v G E peut être caractérisé par un n-uplet d'éléments
de K (ses composants dans la base {e^}).

Définition 2.4 -

Soit {i>i,..., vp} une famille de vecteurs de E. On appelle matrice

engendrée par les vecteurs Vi dans la base {e^} (ou plus simplement : matrice des
vecteurs Vi) la matrice dont les lignes sont les composantes des vecteurs vi,...,vp

dans la base {e*}4.

Il est clair qu'aux opérations élémentaires du théorème 2.3 correspondent les opérations
élémentaires sur les lignes de la matrice engendrée, que nous avons vues au §1 (changer

les lignes entre elles, multiplier une ligne par un scalaire non nul, ajouter à une ligne
une combinaison linéaire des autres lignes).
Comme nous l'avons vu au paragraphe 1., on peut toujours effectuer des opérations
élémentaires sur une matrice de manière à la mettre sous forme échelonnée. Du
théorème 2.3 on a immédiatement :

Corollaire 2.5 -

Les vecteurs lignes d'une matrice et les vecteurs lignes de sa réduite


échelonnée engendrent le même espace vectoriel.

Le résultat suivant donne la clé de la méthode :

Théorème 2.6 -

{i>i,..., vp} une famille de vecteurs, A la matrice engendrée


Soit
(dans une base quelconque) et A! une réduite échelonnée de A. Alors les lignes non
nulles de A! donnent une base de Vect{i>i, ...,vv}.

Démonstration : Remarquons d'abord que les lignes non nulles de A' fournissent
une génératrice de Vect{?;i, ...,vp}, d'après le corollaire 2.5. Il suffira donc de
famille
montrer qu'elles forment un système libre. La démonstration (cf. exercice 15) est plus

longue à écrire qu'à comprendre. Vérifions-la dans un cas particulier. Soit :

4 a b c d

0 0 2c' d!
A'
0 0 0 0-1 ^3

0 0 0 0 0, VA

Vérifions que {^1, i>2, ^3} est une famille libre, c'est-à-dire que :

Xi Vi + X2 V2 + Xs V3 =
0 => Xi =
0, X2 =
0, X3 =
0.

4Au chapitre suivant, nous construirons des matrices en mettant les composantes de certains
vecteurs colonnes. On aurait pu adopter ici la même convention avec les changements opportuns
en

dans les énoncés des résultats. Cependant nous avons préféré adopter cette définition d'une part
pour suivre de près la théorie développée au paragraphe 1. (où la notation en ligne s'impose) et
d'autre part pour souligner la signification différente des matrices que nous introduirons (et éviter,
par exemple, que l'on soit tenté d'effectuer des opérations élémentaires sur les matrices qui seront
introduites au chapitre suivant).
50 La méthode du pivot (ou méthode d'élimination de Gauss)

Cela donne le système :

AxX 0
'
=

ax\ =
0

bXi +2 £2 =
0

CX\ +dX-2 =
0

l dx\ + d!x<i —

xs =0

La première équation donne x\ =


0 ; en reportant dans la troisième on a #2 =
0 et,
en reportant dans la cinquième, xs =
0.
Il est facile de se convaincre que, dans le cas général, on obtient un système échelonné
qui donne, de proche en proche : x\ =
0, puis X2 =
0,..., etc. jusqu'à xp =
0 .

APPLICATIONS

Extraire une base d'une famille génératrice et déterminer


les relations liant les vecteurs.

Exemple :

Déterminer une base du sous-espace de M4 engendré par les vecteurs

vi =
(1,1,0, -1), v2 =
(-1,1,1,0), vs =
(0,2,1, -1)
et les éventuelles relations linéaires.

1 1 0 1 1 0 -1 vi

-111 0 2 1 -1 v'2=vi+V2

0 2 1 v3 0 2 1 -1 *>3

110-1

0 2 1-1 v2

0 0 0 0 v3='y2-'y3

Ainsi v\ =
(1,1,0, —1) et v2 =
(0, 2,1, —1) forment une base de Vect{vi, t>2, ^3}.
D'autre part v3 =
0 c'est-à-dire v2 —

V3 =
0 ou encore v\ + v2 —

V3 =
0, ce qui donne :
relation linéaire liant {vi, v2, V3}.

II Compléter une famille libre en une base.


Détermination d'un supplémentaire.

Exemple :

Montrer que les vecteurs

vi =
(1, 2, -1,0,1), V2 =
(2,1,1,1,1), v3 =
(3, 2,0,1,2)

forment une famille libre de M5. Déterminer deux vecteurs w\, w2 de M5 de manière a ce

que {^1,^2,^3,^1,^2} soit une base de M5.


2.4 Utilisation pratique de la méthode du pivot 51

1 2 -1 0 1 Vi i 2 -1 0 1 Vi

2 1 1 1 1 V2 — 0 -3 3 1 -1 v'2=v2-2v1
3 2 0 1 2_ v3 _o -4 3 1 -1_ v'3=v3-3vi

'1 2 -1 0 r

0 -3 3 1 -i v2

0 0 -3 -1 i 3v' -4v2 =v"

Puisque l'on n'obtient pas de lignes nulles dans la matrice échelonnée, la dimension de
l'espace F engendré par t>i, V2, V3 est 3. {t>i, ^2, V3} est donc une famille libre, car elle est
une base de F (notons que {vi,v'2, ^3} est aussi une base de F). Considérons la matrice :

1 2 -1 0 r VI

0 -3 3 1 -1 -'2
0 0 -3 -1 1 <
0 0 0 1 0 W\

0 0 0 0 1 VJ2

Cette matrice est échelonnée, donc la famille {viiv2iv,^wi,W2} est une base de R5.
D'après la proposition 1.30, page 22, {wi,W2} est une base d'un supplémentaire G de
F:

R5 = F© G

Donc B =
{viy V2, V3 , wi, W2 } est une base de R5 (toujours d'après 1.30 ).
base de F base de G

III Déterminer une base de F + G.

Notons que si Q\ et G2 sont des familles génératrices de F et G respectivement, la


famille G1UG2 engendre F+G (cf. proposition 1.36, page 25). Il suffira donc d'appliquer
la technique de l'exemple 1. pour extraire de 61UÇ2, une base de F + G.

Exemple :

Soit.F Vect{vi,V2,v3},
=
où : vi =
(1,-1,0,2), v2 (2,1,3,1),^ = =
(4,5,9,-1) et
G =
Vect{wi,W2} où : w\ =
(1,1,1,1) et W2 (3, —4,4,2).
=

Déterminer une base F + G.

On a : F + G =
Vect{vi, ^2, t>3j wi, ^2}. On commence par extraire une base de F et
une base de G.
52 La méthode du pivot (ou méthode d'élimination de Gauss)

de F :

"1 -1 0 2" v\ "l -1 0 2" VI

2 1 3 1 v2 > 0 3 3 -3 v2-2v1=v,2
4 5 9 -1 V3 0 9 9 -9_ V3—4vi=v'3

'1 -1 0 2" VI

0 1 1 -1 ^—vU
3 ~v2

0 0 0 0 v's-Zv'2

Ainsi B\ =
{v\, t>2'} est une base de F.

Base de G :

w\ et W2 sont évidemment libres et donc B2 =


{tui, W2} est une base de G. Ainsi F + G =

Vect{t>i, va, wi, w2}.


ase de F -Y G :

'1 -1 0 2" v\ "1 -1 0 2" v\

0 1 1 -1 0 1 1 -1

1 1 1 1 0 2 1 -1
-

Ul=Wl —V\

.3 -4 4 2_ vj-2 _0 -1 4 -4_ U2=VJ2—3v\

'1 -1 0 2" v\ "1 -1 0 2" vi

0 1 1 -1 0 1 1 -1 <
-> —

0 0 -1 1 u\ —2u'<2 0 0 -1 1

_0 0 5 -5_ î^~< 0 0 0 ()_ U2+v'2'+5(ui--2<)


Donc une base de F + G est donnée par les vecteurs (1,-1,0,2), (0,1,1,-1) et

(0,0,-1,1).

IV Déterminer une base de F H G

Exemple :

Déterminer une base de F n G où F et G sont les espaces de l'exemple III. ci-dessus.

On vient de voir que, dim F + G =


3, donc :

dim (F n G) =
dim F + dim G -

dim (F + G) = 2 + 2 -

3 = 1

Il suffira donc de déterminer un vecteur non nul de F f) G. Comme on l'a vu ci-dessus,


dans la dernière matrice échelonnée le vecteur U2 + v'i H- 5 (u\ —

2 v2;) est nul. On a ainsi,

en exprimant u\ et U2 en fonction des vecteurs de F et de G :

W2

3vi+V2+5 (wi —v\


2V2) =
0

Et donc, en portant à premier membre les vecteurs de F et à second membre les vecteurs
de G:
2 vi —

9 v'i =
5 w\ -f- W2

e f e g
53
Exercices

Notons z le vecteur donné par l'un des deux membres de cette équation. On a z G F et

z e G donc z G FnG. Ainsi, le vecteur z =


5 w\ -\-1v2 =
(8,1,9, 7) est une base de Ff\G.

Exercices 12. 13. 14. 15.

EXERCICES

\D Résoudre les systèmes suivants :

x + 2y-3z =-1 f 2x + y-2z = 10

a) \ Sx- y + 2z = 7 b) < x + y + 4z -9
I
=

îx + 2y-2z 9 7x + 5y+ 14

{x-3y
= z =

+ 7z = -4
x +2y-3z = 6
7x + 4y z = 22

2 Déterminer les valeurs de a pour lesquelles le système

x-\- y

z =1
x + 2y + a;z =2
2z + ay + 2;z =3

1. n'a pas de solution ;

2. a une infinité de solutions ;

3. a une solution unique.

3 Pour quelles valeurs de a, 6, c le système suivant admet-il au moins une solution ?

x + 2y 3z —
= a

3x + 8y- Uz = b
2x + 4z = c

{2x-3y
4 Le système suivant

+ 32 + t =0
x-4y +t =0
ce- y + 2z + t = 0

admet-il une solution non triviale ?

I 5 Déterminer la solution générale et base de l'espace des solutions du système

!x
une

y -f- 2 £+ii> =0
x+ y +2z- t =0
2x-2y +3z- t + 2w =0
4x-2y + 6z-3t + 3w =0

| 6
I Montrer qu'un système homogène dans lequel les coefficients d'une inconnue sont tous

nuls, admet une solution non triviale.

| 7
| Montrer, à l'aide de la théorie sur les systèmes homogènes le résultat du corollaire
1.19, 1. : dans un espace de dimension n, toute famille ayant plus de n vecteurs est

H 1. Pour quelles valeurs de a les vecteurs

V! =
(1,-1,0,2), v2 =
(1,0,1,2), v3 =
(1,3,5,7), v4 =
(0,2,3, a)
forment-ils une base de M4 ?
54 La méthode du pivot (ou méthode d'élimination de Gauss)

2. Dans le cas où la famille est liée, déterminer les relations linéaires qui lient ces

vecteurs. Quelle est la dimension de l'espace engendré ?


3. Soit v =
(—2, k, 1, 3). Pour quelles valeurs de fc, v G Vect{t;i, i>2,1^3} ^4} ?
Déterminer, dans ce cas, les composantes de v dans une base de Vect{i>i, V2, t>3> ^4}-

9 Montrer que les polynômes Pi =


1, P2 =t —

1, P3 =
(i- l)2 forment une base de R2[i\.
Déterminer les coordonnées du vecteur P = 2 £2 —

5 £ + 6 dans cette base.

0 Déterminer les éventuelles relations linéaires liant les polynômes suivants de M3 [t] :

Px =t3+4t2 -2* + 3, P2 = 2t3 + 10t2 -3t + 7, P3 = 2*3 + 4i2 -

6£ + 4.

| 11
I Montrer que les matrices
^=(_9 i),J^=(^ fi ) »
^ =
( 1 —
1 ) ^orment

une base de l'espace vectoriel £2 (M) des matrices symétriques d'ordre 2. Décomposer
cette base la matrice M [ ).
V6
sur =

c7
,

12 Soit F le sous-espace vectoriel de R5 engendré par les vecteurs

vi =
(1,3, -2, 2, 3), v2 =
(2,7, -5,6,5),ti3 =
(1, 2, -1,0,4)
et G le sous-espace vectoriel de M5 engendré par

W! =
(1,3,0,2,1), w2 =
(2, 7, -3,6,3), w3 =
(1,1,6,-2,-1).
1. Déterminer une base de F, une base de G, une base de F + G et une base de
FnG.

2. Déterminer les équations de F + G.

13 Traiter les exercices 8, 9, 10, 11, 12, par les méthodes illustrées au paragraphe 4.

14 Montrer que les vecteurs suivants de C3

vi =
(1+t, l + 2i, i )
v2 =
( 2, 4- », -1 )
V3 =
( 0, —1 + 2* ,
2 + 0
sont liés si C3 est considéré comme espace vectoriel sur C et sont libres si C3 est
considéré comme espace vectoriel sur R.

15 Démontrer le théorème 2.6 : les lignes non nulles d'une matrice échelonnée forment un

système libre.

INDICATIONS

1 a) Incompatible.
b) Solution unique (1, 2, —3).
c) Une infinité de solutions à 1 paramètre :
(2 —

À, 2 + 2 À, À).

H En échelonnant, on trouve :

x +y —

z = 1
y + (a + 1) z =1

(2 + a) (3 a) -

z =3-a

Solution unique sia^ —

2 et a 7^ 3 ; infinité de solutions si a = 3 ; système incompatible


pour a = —2.
Exercices 55

HT] c+26-8a =
0.

[4 Le système a plus d'inconnues que d'équations.

[IT] (xtyiztt) =
(5X-fMt A + /x, -2A, 2A, 2/x) =
A(5,1, -2,2,0) + M(-l, 1, 0,0, 2).

6 Si, par exemple, l'inconnue Xj n'apparaît pas dans le système, le système admet la
solution (0,..., 0, 1 ,0, ...,0).

7 Soit {^1,..., Vm} avec m > n. En étudiant x\ v± + h Xm % = 0 on est amené à un

système homogène en n équations et m > n inconnues, ayant donc une solution non

triviale.

|g 1. On est amené à étudier le


'
système :

X\ + X2 + X3 =0
—xi + 3 xs + 2 X4 = 0
X2 + 5 X3 + 3 £4 =0
2 cci + 2x2 + 7x3 + a X4 =0

On trouve oj ^ 5.

2. Pour a =
5on trouve v\ —

2 ^2 + vz —

V4 =
0. Donc dim Vect{t»i,..., V4} = 3 et
{viy V2> V3} est une base.
3. Si a 7^ 5 {^î,... ,^4} est une base de R4 et v G Vect{vi,..., ^4} pour tout
k G M. Pour les composantes, on résout le système trouvé en 1. avec second
membre (—2, /c, 1, 3). On trouve :
xi 9 + 4 k + 5 r,
= —

#2 16 + 5 /c + 10 r, #3 3 k = = — — —

5 r, £4 =
5 r

2 + fc
avec r =

5
.

a

Pour a = 5 : v G Vect{i>i, i>2, i>3> ^4} =


Vect{i>i, i>2, ^3} si et seulement si
k = —

2. On trouve :

v = —

i>i + 6i>2 —

i>3-

9 Comme dim R2 [t] =


3, il suffit de vérifier que la famille est libre ou qu'elle est

génératrice. Puisque on demande les composants de P il est préférable de vérifier


qu'elle est génératrice (pour ne pas avoir à refaire les calculs), c'est-à-dire que pour
tous a, 6, c G R il existe xi, £2, #3 G K tels que

ai2 + 6t + c =
xi + x2 (t -

1) + x3 (t -

l)2.
En identifiant les coefficicents de 1, t, t2 on est amené au système :

| x\ X2 + X3 c

=

< X2

2x3 = b

( X3 = a

qui a une solution pour tous a, 6, c. On trouve P =


3 —

(t —

1) + 2 (t —

l)2.

|~IÔ] 6Pi -2P2-P3=0.

| 11
| Puisque dim<S3 (M) 3 (cf. exercice 18, chapitre 1),
= il suffît de vérifier que la famille
est génératrice. En écrivant xA + yB + zC= M on est amené au système :

( x + y z = a

l
-

-2x + 3y + z = b

[^ x + 6y 3z = c

On trouve :

M = -

(15 a+ 36- 4c) A+-


5
(5 a + 2b-c)B + (3 a + b-c)C
5
56 La méthode du pivot (ou méthode d'élimination de Gauss)

12 On a : 3i>i —

V2

V3 =
0, bw\ —

2w2 —

w% =
0, dim F =
2, dim G = 2. Une

famille de F + G est, par exemple, {^i, -U2, wi, VJ2}- On trouve la relation
génératrice
vi V2 w\ + W2 = 0. Donc dim (F -f G) = 3 et par conséquent dim F C\G 1. Une =
— —

base de F + G est, par exemple, {vi, i>2, wi}. Base de F n G : (1, 4, —3, 4, 2).

Equations du sous-espace F + G : axi+bx2 + cx3+d,X4 + cx5 = 0 avec a, 6, c vérifiant

{a
lesystème :
+ 36-2c + 2d + 3e = 0
2a + 76-5c + 6d + 5e =
0
a + 36 + 2d + e = 0

On trouve a = 7e + 4d,6 = 2e —

2d (avec e et d variables libres) ce qui donne les


équations de F + G :

7xi + 2x2 + #3 + X5 =0
4xi 2x2 + X4 —

=0

13 Calculs standard.

14 En échelonnant la matrice

1 + 2 l + 2i i

2 4-2 -1

0 -l + 2i 2 + 2 ^3

on trouve V3 =
(1 —

i)vi —

V2.

Si C3 est considéré espace vectoriel sur M, dans la base

(1,0,0), (2,0,0), (0,1,0), (0,2,0), (0,0,1), (0,0, t


la matrice engendrée par v\, V2, v3, est :

1 1 1 2 0 1
2 0 4 -1 -1 0 v2

0 0 -1 2 2
1_ *>3

"1 1 1 2 0 1"
0 -2 2 -5 -

1 -2 i>2 2vi
0 0 -1 2 2 1 *>3

15 Par récurrence sur le nombre n de lignes de la matrice échelonnée. Pour n = 1 trivial.

Soient v\,..., vn les vecteurs lignes d'une matrice échelonnée. La matrice engendrée
par V2, ., vn est échelonnée ; donc dim Vect{v2,. ., vn} = n

1, d'après l'hypothèse
de récurrence. Montrer que v\ g Vect{i>2, vn} et , que dim Vect{vi, i>2,..., vn} = n.
Chapitre 3

Applications linéaires et matrices

La structure d'espace vectoriel ne devient vraiment intéressante que si l'on introduit la notion

d'application linéaire. Il s'agit des applications entre espaces vectoriels qui, dans un sens que
nous allons préciser, «conservent la structure d'espace vectoriel».
Dans ce chapitre, qui est un peu l'axe de tout le reste du cours, nous allons donner
essentiellement les définitions et les résultats élémentaires de base.

3.1 Applications linéaires

Définition 3.1 Soient E et E' deux espaces vectoriels sur le même corps K et f
-

une application de E dans E'. On dit que f est linéaire, si :

a)f(v + w) =
f(v) + f(w), Vv,weE;
b) f(\v) =
\f(v) , \/v£E,\/\eK.
L'ensemble des applications linéaires de E dans E' est noté Ck (Ey E') ou, plus
simplement, C(E, E').

REMARQUE -

Si / est linéaire, on a : / (0) = 0.

Il suffit, en effet, de faire À =


0 dans f (Xx) =
Xf (x).

Certains types d'applications linéaires sont particulièrement importants ; nous y


reviendrons largement dans la suite. En voici les définitions :

Définition 3.2 On appelle endomorphisme de E, une application linéairede E


-

dans E (même espace de départ et d'arrivée). L'ensemble des endomorphismes de E


est noté EndK(E) ou, plus simplement End (E)1.
On appelle isomorphisme de E sur E' une application linéaire bijective de E dans E'.

Exemple 1. -

f: E —> E'
v l > 0

est une application linéaire dite application nulle.

Une autre notation courante est £k(E) ou encore C{E).

57
58 Applications linéaires et matrices

Exemple 2. -

idE: E —> E
v l > v

est un endomorphisme de E dit identité sur E.

Exemple 3. -

/ : R3 — R2
(x\,X2,Xz) '
(2xi+X2, X2~#3)

est une application linéaire.

En effet, si v =
(xi, x2, #3) et w =
(yi, 2/2, 2/3), on a :

f(v + w) f [{xi + yi, x2 + 2/2, z3 +


y?))
=

=
\2 (xi + 3/1) + (X2 + 2/2), (a?2 + 2/2) (x3 4-
2/3))
2/3))
-

=
f(2a;i + x2) + (2yi + 2/2), (x2 -

£3) + (2/2 -
=
/ (v) + / (tu)

/(Au) =
/ uAxi, Az2, Ax3)J =
/ ((2Axi + Ax2, Xx2
Xx3)j
-

=
f(\(2xi + x3, x2 -xsj) =
A/ f(2xi + x3, x2 -

x3)j
=
A/(v)

Comme on peut s'en rendre compte par cet exemple, la linéarité de / tient au fait

que les composantes x% dans l'espace d'arrivée (ici R2) apparaissent toutes à la
puissance 1 : plus précisément chaque composante dans l'espace d'arrivée est un polynôme
homogène de degré 1 en les Xi. Nous verrons cela d'une manière plus précise dans la
suite.

Ainsi, par exemple, l'application

/: M3 —> R2
(#1, #2, #3) ' >
{x1—X2y X2~\-Xz)

n'est pas linéaire (ni a), ni b) de la définition 3.1 ne sont satisfaites à cause du terme
au carré). De même :

/: R3 —> R2
(#11^2,353) ' >
(2rriiC2 , #2+3a:i)

n'est pas linéaire (2x1X2 est un polynôme homogène de degré 2 en x\ et en #2), pas
plus que :

/: R3 — R2
(rci,£2,£3) ' >
(2 xi+3 ^2+^3+5, xi—2 0:2+^3)

(2 xi + 3 X2 + £3 + 5 n'est pas homogène, étant somme d'un polynôme de degré 1 et


d'un polynôme de degré 0).

Exemple 4. -

/ : R3 — R
(xi, X2,xs) I > —

a?i+2as2+5 #3

est une application linéaire.


3.2 Image et noyau. Image d'une famille de vecteurs 59

Exemple 5. -

Soient C° ([0,1], R) et C1 ([0,1], E) les espaces vectoriels des applications


/ : [0,1] — M respectivement continues et continues à dérivée continue. L'application :
D i^adl.R)—.^([O.IJ.R)
est une application linéaire, puisque :

D(f + 9) =
(f + gy f' + 9' Df = =
+ Dg
D(\f) (\f)' \f = =

si A G M et /, <?e£>([0,l],R)

Exemple 6. Soit E =
E\ 0 Ei ; alors tout vecteur x e E s'écrit d'une manière unique
-

X =
Xi + #2 OÙ El G £?i et #2 G E2.
L'application :

prx : E? —> E
X±-\-X2 ' *
El

est une application linéaire dite projecteur sur E\ parallèlement à E2.

Figure 1

Exemple 7. -

Soit vo ^ 0 un vecteur de E ; l'application translation définie par

t : E —> E
v I
>v+vq

n'est pas linéaire (noter, par exemple, que : t (0) =


vq 7^ 0)

Exercices 1. 2. 3. 4.

3.2 Image et noyau. Image d'une famille de vecteurs

Proposition 3.3 -

Soit f : E —> E' une application linéaire et F un sous-espace


vectoriel de E. Alors f (F) est un sous-espace vectoriel de E'.
En particulier f (E) est un sous-espace de E1 appelé image de f et noté Im/. Sa
dimension est appelée rang de f et est notée rg / ;

rg/ :=dim(Im/)
60 Applications linéaires et matrices

En effet, soient yi, y2 G / (F) ; il existe alors xi, £2 G F tels que yi =


f (#i), 2/2 =
/ (#2).
On a :

2/i + 2/2 =
/ (#i) + / (sc2) =
/ (xi + X2) ; donc : yi + y2 G / (F)
De même si y G / (F) (y =
/ (x) avec # G -F), on a :

\y =
\f(x) =
f(\x)\ donc: Ày G / (F)

Proposition 3.4 -

5oz£ / G £ (£,E') et

Keif:={xeE\f(x)=0}
Ker/ sous-espace vectoriel de E appelé noyau de /.
2
es£ un

En effet si z, 2/ G Ker /, on a :

/ (s + y) =
/ (s) + / (y) =
0 + 0 =
0 ; donc : x + y G Ker /
/(Ào;) =
À/(aO = AO =
0 ; donc: As G Ker/

Proposition 3.5 -

Soit f G £(E,E'). Alors f est injective si et seulement si

Ker/={0}.
En effet, soit Ker/ =
{0} / (x) f (y)
et x, y e E tels que 0 d'où / (x) =
f (y). On a :
-
=

f (x y) =0. Ainsi x y e Ker /


{0} et donc x y c'est-à-dire / est injective.



= =

Réciproquement, supposons / injective et soit x G Ker/, c'est-à-dire / (x) 0. Puisque =

/ (0) 0 pour toute application linéaire, on a / (x)


=
f (0). Comme / est injective, x 0 = =

et donc Ker/ {0}. =

Exemple 1 Soit E -

E\ =
© E2 et pr1 le projecteur sur Ei parallèlement à E<z
(cf. exemple 6., page 59). On a : Im pi^ =
E\ et Ker prx =
£72, comme on le vérifie
immédiatement.

Exemple 2 -

Soit :

D :R[x]—>R[x]
p p/
'—>

Le noyau de D est formé par les polynômes constants. D'autre part, Im D = R [se], car si

P G R [a:], Q (x) :=
Jo
/ P (£) cft est un polynôme et on a Q' = P c'est-à-dire £><2 = P.

Exemple 3 -

Soit :

ou:
{ j/' =
2x+ y-Zz

Ker/ est l'ensemble des triplets (x, y, z) G R3 qui vérifient le système :

{x
+ y
-

2 = 0
2x + y
-

32 =
0
3z + 2y -

Az = 0

2Ker pour kernel =


noyau, en anglais.
3.2 Image et noyau. Image d'une famille de vecteurs 61

On trouve facilement x =
2À, y = —

A, z = X ; c'est-à-dire Ker / est la droite vectorielle

engendrée par le vecteur (2, —1, 1).


Pour ce qui est de Im/, on a :

(#', y\ z') € Im/j si et seulement si, il existe (x, y, z) G R3 vérifiant le système

{x
:

+ y

z =
x'
2x + y
-

3z =
y'
3x + 2y -

4z = z'

Il s'agit donc de savoir pour quelles valeurs de x\ y\ z' ce système est compatible. En
échelonnant, trouve

(x-\-y
on :

z x' (x y z=xl
l

= — —

-y-z =y'-2x' y + z =2x'-y'


{

-y-z =z'-3x' 0 =2x'-y' + z'-3x'

la condition de compatibilité est 2 x' y' + z' 3 x' — —


=
0 c'est-à-dire x' -\- y' —

z' =
0.

L'image de / est donc le plan de E3 d'équation x1 + y' —

z' =
0.

Proposition 3.6 Soit f G C (E, E') et


{vi}ieI une famille de vecteurs de E.
-

1. Si f est injective et la famille de E {vi}ieI est libre, alors la famille {f (vi)}iej


de E1 est libre.

2. Si f est surjective et la famille


{vi}ieI est génératrice de E alors la famille
{/ (vi)}iei es^ génératrice de E1'.
En particulier si f est bijective l'image d'une base de E est une base de E'.

Démonstration :

1. Supposons la famille {vi}ieI libre et soit / injective. Pour toute famille extraite
{vai,..., vaq}, la relation

Ai/(vai) + -"

+ Ag/(t;aJ =
0

implique f(\ivai-\ hXq vaq) =


0, c'est-à-dire Xivai-\ h Ag vaq G Ker/.
Or Ker/ {0}, donc=

Ai vai + + Xq vaq =
0

et puisque la famille {vi}ieI est libre, on a Ai =


0,..., Xq =
0. Donc la famille

{f(vi)}ieI est libre.

2. Soit y G E' quelconque ; puisque / est surjective, il existe x G E tel que y =

f (x). D'autre part la famille {vi}iej est génératrice, donc x est de la forme
x =
Ai vai + h Ap vap
d'où : f (x) =
Xi f (vai) + + Xpf(vap)> y est donc combinaison linéaire
d'éléments de la famille {f (vi)}ieI et, puisqu'il est choisi arbitrairement dans

E', la famille {/ (vi)}ieI est génératrice.

Théorème 3.7 -

Deux espaces vectoriels de dimension finie sont isomorphes, si et


seulement si, ils ont même dimension.
62 Applications linéaires et matrices

En effet, s'il existe un isomorphisme / : E —>


E', l'image / d'une base de E est
par
une base de E', donc E et E' ont même dimension. Réciproquement, supposons que
dim.E =
dimE" et soient {ei,..., en} , {e'i,..., e'n} deux bases respectivement de E
et E'. Considérons l'application / : E — E' construite de la manière suivante :

pour k =
1,..., n on pose : / (e*) =
e'k ;
-

si x =
XX=i xk ek on pose : f (x) =
Y2=i x* f (e*) =
ELi xk e'k
(en d'autres termes, on définit / sur la base de E et on la prolonge par linéarité sur
E tout entier). On vérifie facilement que / est linéaire et bijective (la vérification est
laissée en
exercice).

REMARQUE. -

Comme on le voit de la démonstration, l'isomorphisme de E sur E'


dépend du choix des bases dans E et dans E' et en général il n'y a pas d'isomorphisme

canonique.

Dans le où les espaces E et E' sont de dimension finie, les dimensions du noyau
cas

et de l'image de / sont liées par la relation donnée dans le théorème suivant, l'un des
plus importants en Algèbre Linéaire :

Théorème du rang . 3.8 -

Soient E et E' deux espaces vectoriels de dimension


finie et f : E —> E' une application linéaire. On a alors :

dimE =
rg / + dim(Ker/)

Démonstration :

Supposons dimE =
n, dimKer/ =
r et montrons que dim(Im /) =
n —

r.

Soit {iui,..., wr} une base de Ker /, et {vi,... ,i>n-r} une famille de vecteurs telle
que {wi,..., wr, i>i,..., vn-r} soit une base de E. Soit B =
{f (t>i),..., / (vn-r)}.
Montrons que B est une base de Im /.
-

B engendre Im /.
Soit, en effet y =
f (x) G Im /. Comme x G £, x est de la forme x =
ai w\ H +
ar wr + b\ vi + h bn-r vn-r. On a donc :

y =
ai f(wi) + + ar f(wr) + 6i f(vi) H h bn-r /(vn-r)
=
&1 f{vi) + + bn-r f(vn-r)
ce qui montre que B engendre Im /.
-

B est libre.

Supposons que Ai f(vi)-\ hAn_r f{vn-r) =


0 ; on aura f(Xi v\-\ hAn_r vn-r) =
0
donc :

Ai vi H h Xn-r vn-r ^ Ker /


Par conséquent, il existe ai,..., ar G K tels que :

Ai vi H h Xn-r vn-r =
ai wi H \-arwr
c'est-à-dire :

Al Vi +
*

+ Xn-r Vn-r
~

aiWi
— - ' —

arU)r =
Q

Puisque la famille {i>i,..., vn_r, Wi,..., wr} est libre, les coefficients de cette
combinaison linéaire sont tous nuls ; en particulier : Ai 0,..., An_r
= =
0, c'est-à-dire
B est libre. D
3.3 Matrices et applications linéaires 63

Ce théorème a un corollaire important. Pour montrer qu'une application linéaire est


bijective, il faut montrer qu'elle est injective et surjective ; cependant, dans le cas de
dimension finie, si la dimension de l'espace de départ et celle de l'espace d'arrivée sont
les mêmes, il suffit de démontrer l'une des deux propriétés soit l'injectivité, soit la -

surjectivité :

Corollaire 3.9 -

Soit f G C(E)Ef), E, E' étant deux espaces vectoriels de même

dimension finie (en particulier, par exemple, si f G End E, avec E de dimension

finie).
Alors les propriétés suivantes sont équivalentes :

1. f est injective.
2. f est surjective.
3. f est bijective.

Démonstration suffit, bien entendu de montrer que 1. est équivalent à 2..


: Il
Comme on(cf. proposition 3.5), / est injective si et seulement si Ker /
l'a vu
{0}. =

Puisque dimE rg/ + dim(Ker/), / est injective si et seulement si dimE rg/,


= =

c'est-à-dire dimE dim(Im/). Or, par hypothèse, dimE


=
dimi?', donc / est =

injective si et seulement si dim(Im/) dimE'. Puisque ImfcE' cela équivaut à =

lmf E' =
(cf. proposition 1.22, page 19), c'est-à-dire / surjective.

REMARQUE. —

Ce résultat est faux en dimension infinie. En voici un contre-exemple :

l'application
D :
R[x] — R [x]
p i—> p'

est surjective et non injective.

Exercices 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16.

3.3 Matrices et applications linéaires

Si E1 est un espace vectoriel sur K et A un ensemble quelconque A ^ 0, l'ensemble


des applications / : A —> E' est muni d'une structure d'espace vectoriel sur K par
les lois :

f + g: A —+ E' A/: A — E'


x l >
f(x)+g(x) x I >
A/(œ)

(cf. exemple 4. page 5). En particulier Ck{E,E') est un sous-espace de l'espace


vectoriel des applications / : E —> E' :

Proposition 3.10 -

Cr {E,E') muni des lois :

f + g: E —> E' A/: E — E'


x i
f(x)-\-g(x) x i > X f (x)

est un espace vectoriel sur K. De plus, si f e Ck (E,El) et g e Ck (E1 ,E") alors


gofe£K(EyE") et on a :
64 Applications linéaires et matrices

9°(f + h) =gof + goh


(g + k)of =gof + kof
go(\f) Xgof =
Vf,he£K(E,E'), Vg^eC^E',£"), VAelf
(avec la terminologie de VAppendice A.l, End/<:(#) est donc un anneau pour les lois -f et o
).
Enfin, si f est bijective, f-1 est linéaire.

La vérification est laissée en exercice (cf. exercice 2).

a) Matrices

Dans le cas où Ck {E,E') est de dimension finie, disons de dimension r, moyennant le


choix d'une base peut associer à toute application linéaire / un r-uplet d'éléments
on

de K, les composantes de /. Pour des raisons que nous verrons par la suite, ces
composantes sont rangées non pas sur une ligne mais sur un tableau ayant un certain
nombre de lignes et de colonnes, que l'on appelle matrice associée à l'application
linéaire /.
Définition 3.11 -

On appelle matrice de type (p, n) à cœfficients dans K un tableau


A de pn éléments de K rangés sur p lignes et n colonnes :

( an ai2 0>ln \
^21 &22 0>2n
A =
ou, en abrégé : A =
(a^) ,
ou aussi : A =
\\aik\\-
\ CLpi ap2

L'ensemble des matrices àp lignes etn colonnes est notéMPyn (^0- Sin=p, M.n,n {K)
est noté : M.n (K).

Ainsi, par exemple :

1 2-i 3 + A

(o 1 2)
eM 2,3 (
-i
0 1 + i
2 1
i \ e M3 (C)

Remarquons que dans la notation que nous venons d'adopter, aïk désigne l'élément
ligne et de la k-ème colonne :
de la i-ème 3

indice de ligne indice de colonne

Une autre notation que nous emploierons aussi dans la suite, est la «notation par
colonnes» :

/ a,ik \
a>2k
A= ||ci,...,Cn|| ,
OÙ Ck = est la keme colonne

\ aPk )
Sur l'ensemble MPi (K) n on définit les lois :

3Cette notation est appelée parfois «notation LICO» pour : LIgne-COlonne


3.3 Matrices et applications linéaires 65

addition : si A =
(a^), B =
(6^) ,
on note C =
A + B la matrice (c^) telle

que :

Cik —

Q>ik + bik , Vz, A;

produit par un scalaire : si A =


(a^) et À G X on note ÀA la matrice

(Aa^fc) c'est-à-dire la matrice obtenue en multipliant tous les éléments par À.

Par exemple :

/ 2 -1 0 3 \ 1 / 2 04\/3 107\
J 1^ j j
+
\1 2 1 -1 3 1 -1 2 \ 4 3 0 1
"

/ 2 -1 0 3 \ 10/ -5 0 15 \
Vi 2 i -î y V 5 io 5 -5 y

Il est facile de voir que, muni de ces lois, Mp,n (K) est un espace vectoriel sur K.
L'élément neutre est la matrice dont tous les éléments sont nuls, dite matrice nulle,
notée 0. L'opposée de la matrice (a^) est la matrice ( a^).

Proposition 3.12 -

dimK MPin (K) =pn

En effet, on vérifie facilement que les pn matrices, dites matrices élémentaires

0 0 \
(\ 0
0 0
En ,..., Eik =
0 1 0 jème lignej

Vo 0/
0 0/

o\
0 0 feème colonne

E'pn

\o i/
forment une base de Mv^n (K) dite base canonique (cf. exercice 10, chapitre 1).

b) Matrices associées aux applications linéaires

Soient E et E' deux espaces vectoriels sur K, de dimension n et p respectivement, et


/ : E —> E' une application linéaire. Choisissons une base {ei,..., en} de E et une

base {êi, Sp] de E'.


...,
Les images par / des vecteurs ei,..., en se décomposent sur

la base {ei,... ,ep} :


/ (ei) =
an e\ + a2i 62 H h aPi £p
/ (^2) =
ai2 £1 + a22 £2 H h aP2 £P

f (^n) =
Q>ln £l + &2n ^2 "' *~ aPn €P
66 Applications linéaires et matrices

Définition 3.13 -

On appelle matrice de f dans les bases {ei,...,en} {^i,... ,£p}


,

la matrice notée M (f)ei)€j appartenant à MP)Ti {K) dont les colonnes sont les
composantes des vecteurs f (ei),..., / (en) dans la base {^i,..., ep} :

/ an ai2 ...
a\n \
&21 a22 a<in
M{f)ei^ =

\ av\ aP2 apn /

î î î
/(ei) /(ea) /(en)

On utilisera aussi la notation :


\\f (ei),..., / (en)||£j.

S'il n'y a pas d'ambiguïté possible, on écrira aussi M (/) à la place de M (/)Ciiej-, mais il est
clair que la matrice associée à / dépend du choix des bases de E et E'.

Dans le cas où / est un endomorphisme, on peut choisir la même base dans E


considéré comme espace de départ et d'arrivée. Dans ce cas, on notera M (f)e. au lieu

deM(/)ei,e..

Proposition 3.14 Soient E et E' deux espaces vectoriels sur K de dimension


-

et p respectivement, {e*} et {ej} des bases de E et E''. Alors l'application :

M: CK{E,E') —>
MPtn(K)
f h—>
M(f)ei,ej
est un isomorphisme d'espaces vectoriels c'est-à-dire :

M(f+g) M(f) + M(g)


bijective.
=

et M est
M (A/) =XM(f)
En particulier : dim^ C (E1, E') =
np

Démonstration : On a, en effet :

M(f + g)ei>ej =
||(/ + ff)(ei),...,(/ + 5)(eB)||ei
=
||/(ei) + 0(e1),...,/(eB)+0(en)||e,
=
||/(e1),...,/(en)||ej+||fl(e1),...,fl(en)||ej
d'après la définition de l'addition des matrices, c'est-à-dire :

M (f + g)ei,ei =
M (f)ei,ej + M (g)eue..
De même, si À G K :

M(A/)eil£, =
||(A/)(e1))...,(A/)en||£i =
||A/(e1),...,A/(en)
=
A||/(e1))...,/(en)||e,
Donc M est linéaire.
3.3 Matrices et applications linéaires 67

D'autre part M est surjective. Soient, en effet :

( an Q>ln \
«21 0>2n
A =
eMpn(K)

\ %>1 Q"pn /
' ' '

et / G C (E, F) définie de la manière suivante. On pose d'abord :

/ (ei) =
an e\ + a2\ e2 H h av\ ep

f (en) =
ain £1 + a2n ^2 H h apn ep

On prolonge, ensuite, / par linéarité sur E1, c'est-à-dire, si :

x =
Ai ei H h An en G £7,

on pose :

/(x)=Ai/(ei) + ...

+ An/(en).
Il est facile de vérifier que / est linéaire et que A —
M (f)ei,er
Enfin M est injective. Soit en effet / G KerM :

0 0
MU)

\o oy
î î
/(ei) /(e„)

Ceci signifie que / (ei) =


0,..., / (e„) =
0. Donc, si x =
Aj ei + + \n en € E, on

aura / (a;) Ai / (ei) H



h A / (en) =
0, c'est-à-dire / =
0. D'après la proposition
3.5, / est injective.

Exemple 1 -

Soit E de dimension et
idE E
n
:

Considérons une base {ei}. On a : ids (e*) =


e*. Donc :

(l 0 ... OX

0 1 0 :
M(ids)ei =
(1 : élément unité de K)
: 0 '. 0
V 0 ... 0 1/

Cette matrice est notée In ou simplement / et est appelée matrice unité de Mn {K).
68 Applications linéaires et matrices

Exemple 2 -

Soit E = R2 et :

pn : R2
(n,y) (*,o)

Considérons la base canonique de R2. On a :

prx (ei) =
ei

prj (e2) =
0
>x

Donc :
M(prl)ei =

(j J)
Figure 2
Exemple 3 -

Soit 2£ M2 =
et / la projection sur la première bissectrice parallèlement à la seconde
bissectrice, {ei, e<i\ étant la base canonique de E, on a :

/ (ei) =
/ (e2) =
e = -

(ei + e2)

> £

Figure 3 Figure 4

donc M(/k:*
V )
:
2
1 1

Exemple 4 -

Soit E =
R2 et / la symétrie par rapport à l'axe
Ox parallèlement à l'axe Oy. Soit {ei, e^} la base
canonique ; on a : e2

/(ei) =
ei, /(e2) =
-e2
ei

(i-î)
Donc

M(/)e
/M

Figure 5
3.3 Matrices et applications linéaires 69

Exemple 5 -

Dans le plan E2 rapporté à la base

canonique {ei, e2}, on considère la rotation


de centre O et d'angle 6 (nous verrons
au chapitre 7 la définition précise de
rotation ; pour le moment, on peut se

contenter de la notion intuitive).


On voit facilement (cf. figure 6) que :

/(ei) cos 6 ei -f sin 0 e^

/(e2) —

sin 6 e\ -f cos 9 e2

et donc :

(cos#
sin# \
M(f)e{
J

sin0 cos0

Figure 6

Exemple 6 -

Soit {£i, £2} la base canonique de E2 et {ei, e2, 63} la base canonique de E3. On considère
l'application linéaire :

/: E3
(x,y,z) (x-y,z-y)

On a :

/(ci) =/(1,0,0)= (1,0) =


S!

/(e2) =/(0, 1,0) (-1, -1) =


=-ei-e2

/(c3) =/(0,0,1)= (0,1) =


82

Donc

M(/ki>ej (l0 -1 0\
y )
=

-1 1

Exemple 7 -

On considère l'application :

\Xi, . . .
, Xn) aixi H hanxn

En munissant En de la base canonique {ei,..., en} et E de la base canonique {e} (c'est-


à-dire e =
1), on a :

w(ei)= /(1,0, ...,0) =ai=ai£

c^(e2)= /(0,1,0, ...,0) =


a2 =
a2e:

w (en) =
/ (0,..., 0,1) =
an =
an £

Ainsi :

M(a;)ei>£ =
(ai,..., on)
Exercices 17. 18. 19
70 Applications linéaires et matrices

3.4 Produit de deux matrices

Au paragraphe précédent, nous avons défini sur les matrices les opérations d'addition
et de produit par un scalaire. En vertu de la proposition 3.14, ces opérations
correspondent aux opérations analogues sur les applications linéaires, c'est-à-dire on a :

M(f + g) =M(f) + M(g)


M (A/) =XM(f)

Nous allons maintenant définir une nouvelle opération, le produit de matrices. Comme
nous le verrons (cf. proposition 3.19), elle correspond à la composition des
applications, en ce sens que :

M(fog) =
M(f) -M(g)
Tout d'abord, remarquons que la composition des applications ne peut se faire pour
tout couple d'applications, mais uniquement si l'espace d'arrivée de g est inclus dans
l'espace de départ de /. Cette situation va se retrouver sur les matrices : le produit
ne peut s'effectuer qu'entre matrices d'un certain type.

Définition 3.15 -

On appelle produit de matrices Vapplication :

MPtn(K) X
Mn,ç(K) Mp,q(K)
(aji) (bmk) (Cjk)

ou :
Cjk aji bik + aj2 b2k H h ajn hnfc-
=

En d'autres termes, l'élément Cjk de la iéme ligne et kéme colonne du produit C AB =

est la somme des produits des éléments de la ]érne ligne de A par les éléments de même

rang de la kéme colonne de B. Brièvement, on dit que le produit de deux matrices


s'effectue «lignes par colonnes». Voici le schéma de cette définition.

>1<7 \

v%q

V krtl" "' ''


bnk bnq
"

'

i
y
<'
/an / au / aln \ ( cn Clq\

aji a
>jt *jn
bn zjk J%q

\ Opl ^pn ) \ Cpl ^pq )

REMARQUE. Le produit AB

ne peut s'effectuer que si le nombre des colonnes de A


égal
est au nombre des lignes de B.
3.4 Produit de deux matrices 71

/ 2 -1 1 \
/ 2 0 1 0

Exemple 1 -

Soit A= [V l * ),B=1122
V
"
' 1 2 1 0
On a :

X
( 2
1
0
1
1
2
°\
2

\i 2 1 0/

(ï -(i 12
-1 1\ 1 1
o 2 y 4 3

C=>IB

Exemple 2

Soit A = 4 1 et 5
(s)

Les remarques suivantes sont importantes :

Remarques
-

1. On peut avoir AB 0 sans que A ou B soient nulles.


=

2. AB =
AC avec A ^ 0 n'implique pas nécessairement B C (c'est-à-dire, =
en

général on ne peut pas "simplifier" par A, même si A -=f 0).

3. En général on a AB ^ BA (c'est-à-dire : la multiplication entre matrices n'est

pas commutative).

Exemple

"-"-(î !!).»-(! î)-0-(iï>


:

En effectuant les produits, on trouve :

AB =
( ) (ce qui montre 1.)

BA = (
j donc BA ^ AB (ce qui montre 3.)

et AB =
AC (ce qui montre 2. puisque on a B ^ C).

Proposition 3.16 -

La multiplication est associative, c'est-à-dire :

A(BC) =
(AB)C, ^A e Mp%n> V£ e Mn,q, VC e Mq,m)
72 Applications linéaires et matrices

La multiplication est distributive à gauche et à droite par rapport à l'addition, c'est-


à-dire :

A(B + C) =AB + AC
(A + D)B = AB + DB, (V A, D e Mp>n, VB, C G Mn%q)
La vérification est laissée en exercice.
Remarquons enfin que la multiplication est une loi interne sur l'ensemble Mn (K) des
matrices carrées d'ordre n, c'est-à-dire elle est une application :

Mn (K) X Mn (K) —
Mn (K).

On vérifie immédiatement que la matrice In est l'élément neutre de la multiplication,


c'est-à-dire :

VAeMn(K): InA =
AIn = A.

Selon la terminologie de l'Appendice A.l, les lois de somme et de produit confèrent à


Mn {K) une structure d'anneau.

Exercices 20. 21. 22. 23. 24.

3.5 Matrice d'un vecteur. Calcul de l'image d'un vecteur

Définition 3.17 -

Soit E un espace vectoriel de dimension n, {ei,... ,en} une base


de E et x =
\-xnen un vecteur de E. On appelle matrice de
x\ e± H x dans la base
{ei} la matrice colonne des composantes de x dans la base {e^} :

/ xi

M(x)ei =

\ %n

[notée aussi
M(x)).
REMARQUE. -

Cette définition est cohérente avec la définition de matrice associée à


uneapplication linéaire. En effet, peut identifier tout vecteur de E à
on une application
linéaire de K dans E : à tout x de E on associe l'application linéaire

/: K — E
X I > A x

Si l'on écrit la matrice de / dans la base e = 1 de K et {e*} de E, on a :

f(e) = x =
xiei-\ h xn en

donc :
3.5 Matrice d'un vecteur. Calcul de l'image d'un vecteur 73

Proposition 3.18 S'oient E, F deux espaces vectoriels if, {ei, ..,en} et{ei, ...,£p}
sur
-

deux bases de E et F respectivement. Pour toute application f G Ck (E, F) et pour


tout x e E , on a :

M(f(x))£j=M(f)eu£jM(x)ei
ou plus brièvement : M (f (x)) =
M (/) M (x).
(an ...
ain \
Démonstration : Soit M {f)euEj =
,
ce qui veut dire que :

\ ^pl &pn /
P

f (ej) =
aij £i H 1- a-pj £p =

2J akj €k' ®n a :

k=\

f(x) =
f (xi ei + + xn en) =

YTj=i Xj f (ej) =
£*=1 x3- Y7k=i akj ^k

Vk

Donc: M (f (x)) ,
avec yu
=

^ akj Xj. D'autre part :

V Vp 1

(an ...
aln \ ( xi \ ( YJj=i °>ij xj \ ( 2/i

M(f)ei,Sj M(x)e
\ api . . .

Ojpn / \ %n / \ l^j=l aP3 X3 / \ Vp


donc : M (f)euEj M (x)ei =
M (/ (x))£.
Exemple :

Soit le plan R2 rapporté à sa base canonique. Déterminer l'image du vecteur


x =
(3, 2) par la rotation de centre O et d'angle 7r/6.

On a :

M
(/(*)) =
M(f) M(x)

( cos 7r/6 sin 7r/6 \ / 3


7r/6 J \

y sin 7r/6 cos 2

' ' '


2 2 2

1 y/3 3+ 2V3
V T J \2/ /
. .

2
Figure 7

Exercice 25.
74 Applications linéaires et matrices

3.6 Produits de matrices. Matrice de l'inverse d'une


application

Proposition 3.19 Soient E,F,G trois espaces vectoriels de dimension finie sur
-

K, {ei,..., en} {ei,...,ep} {771,..., rjq}


, ,
des bases de E,F et G respectivement. Si

geC{E,F) etfeC (F, G) (c'est-à-dire : E -^-> F -^ G), on a :

M{fog)eum=M{f)£i,nkM{g)euej
ou, plus brièvement
M(fog)=M(f)M(g).
Démonstration : Soit x e E arbitraire. En utilisant le résultat de la proposition
3.18, on a :

M(fog)M(x) = M ((/ g) (x)) M (/ (g (x)))


o =

=
M {f) M (g (x)) =M{f)M (g) M (x)

d'où, puisque x est arbitraire :

M{fog) =
M(f)M(g).
Exemple :

Déterminer dans la base canonique de R2 la matrice de l'application h qui est la composée


de la rotation g autour de O d'angle 6, suivie de la projection f sur la première bissectrice
parallèlement à la seconde bissectrice.

On a :

M {h) =
M(fog) =
M(f)M(g)

1 1 \ / cos0 —

sin#

1 1 / l sin0 cos(

cos 6 -h sin 9 —

sin 0 + cos 6

cos 6 + sin 6 —

sin 6 + cos 6
Figure 8

Définition 3.20 -

Une matrice carrée A G Mn(K) est dite inversible s'il existe


une matrice A' G M,n (K) telle que :

AA! =
A'A =
I.

A' est dite inverse de A et est notée A~l.

Par exemple, la matrice A =


( 1 est inversible : son inverse est A-1 = (
)
comme on le vérifie immédiatement en effectuant les produits AA~X et A~xA.
3.6 Produits de matrices. Matrice de l'inverse d'une application 75

Il existe des matrices non inversibles, par exemple la matrice nulle. Mais la matrice
nulle n'est pas la seule matrice non inversible. Considérons par exemple la matrice

A = ( J . S'il existait une matrice A' = l ) telle que AA! =


/, on

aurait :

1 0\/z v\ ( 1 0
'

J \ J V01
=

0 0 z t

c'est-à-dire:
(J q) (o Î =

ce qui, évidemment, est impossible.

En fait, les matrices inversibles sont les matrices qui représentent les applications
linéaires bijectives. On a en effet :

Proposition 3.21 Soient E et F deux espaces, vectoriels de même dimension n sur


-

K) {e;} une base de E, {ej} une base de F. Une application linéaire f : E —> F est
bijective (c'est-à-dire est un
isomorphisme) si et seulement si M
(/)ei,ej- est inversible.
De plus :

M(f)-]£j=M(f-%,ei
ou, d'une manière plus concise : M (/_1) =
M (/)_1.

Démonstration : Ona/_1o/ =
idE ; d'où M (f-1 o
/)Ci, ei =
M (ids)eij Ci
Donc, d'après la proposition 3.19 :

M(f-%ieiM(f)ei,£j=I
De même, on voit que M (/)Ci>ej M («f-1)^,^ =
/.

Calcul de l'inverse d'une matrice

Il existe différentes méthodes pour calculer l'inverse d'une matrice, sur lesquelles nous
reviendrons. Pour le moment, on peut retenir la suivante qui est d'ailleurs d'un usage
courant.
Soit A G Mn (K), x et x' G Kn et X, X' les matrices colonnes qui représentent x et
x' dans la base canonique de Kn. Considérons l'équation matricielle :

X' = AX (*)

Si A est inversible, en multipliant les deux membres à gauche par A~l on obtient
A-1 X' =
(A-1 A) X, c'est-à-dire :

X =
A~1X/

Donc A~l est la matrice du système obtenu en résolvant le système (*) en les
composantes Xi de x.
76 Applications linéaires et matrices

Exemple :

Calculer l'inverse de la matrice

Gî)
Ecrivons l'équation matricielle (*) avec X = (
) et X' —
( ) j.
On a :

+ 2X2
( ) ( )( ) )
Xi
qui équivalent système
=
*
ce est au <
+ 3^2
=

Xi
_

En résolvant en x\ et #2, on trouve :

{
xi =
3 x'i —

2 x2
X2 =
Xi -\r X2

c'est-à-dire X =
f ^
*
} X' ,
donc 4"1 =
( *
M.

Définition 3.22 -L'ensemble des matrices inversibles de M.n (K) est noté GL(n, K)
et est dit groupe linéaire 4.

Exercices 26. 27.

3.7 Changement de base

La matrice qui représente application linéaire a été construite à l'aide d'un choix
une

des bases dans l'espace départ et dans l'espace d'arrivée. Dans ce paragraphe, nous
de
allons voir comment sont reliées deux matrices qui représentent la même application
linéaire en des bases différentes.

a) Matrice de passage

Soit E un espace vectoriel de dimension n, {ei,..., en} et {e^,..., e'n} deux bases de
E. Les vecteurs e\ s'écrivent comme combinaisons linéaires des vecteurs ei :

e'i =
pu ei +P21 e2 + hpni en

ef2 =
P12 ei + P22 e2 + h pni en

Pin ei+P2ne2 + '-+pnn "n

Définition 3.23 -

On appelle matrice de passage de la base {e*} à la base {e^} la


matrice notée Pei >e/ dont les colonnes sont les composantes des vecteurs e^ dans la
base {ei} :

I P\\ Pl2 ...


Pin \
\ P21 P22 P2n
Pei— ej ll^lj >enl|e;
f f
= =
. . .

\ Pnl Pn2 .-.


Pnn )
Le produit de matrices confère, en effet, à GL(n, K) (selon la terminologie
4
une structure de groupe
de l'Appendice A.I.), comme on le vérifie facilement.
3.7 Changement de base 77

On a, bien entendu

Pei—4 =

M(idS)e{,Ci

PCi_>e{ =

MOdsîei.e,
On en déduit immédiatement (cf. propositions 3.19 et 3.21)

Proposition 3.24 1. Propriété transitivité :

P P —

2. Les matrices de passage sont inversibles et on a :

( Pa—>e\) -^ej—>a

b) Action du changement de base sur les composantes d'un vecteur

Soit x € E, de composantes (#i,..., £n) dans la base {e*} et de composantes (x[,..., x'n)
dans la base {e^}. Il est facile de déterminer les relations entre les Xi et x^ à l'aide de
la matrice de passage Pei >e/.

Notons

/ xi ( <\
X:= M(x)ei, X':= M{x)eii et P =
Pe,
\ %n \< J
On a (cf. proposition 3.18 ) :

PX' =

M(iàE)e,vei x
M(aOej =M(idE(x))ei=M(x)ei=X
c'est-à-dire PX' =
X, d'où X' =
P'1 X.
Nous avons donc démontré la relation importante :

Proposition 3.25 -

Soient x G E, {e^} et {e^} deux bases de E, P =


Pe._ et
X =
M (x)ei ,
X' = M
(x)e*t. Alors :

X' =
P'1 X

NOTA. —

On dit que les composantes d'un vecteur x se transforment d'une manière "contravariante"

pour exprimer le fait que si les bases sont transformées par la matrice P, les composantes de x

sont transformées par la matrice P-1.


78 Applications linéaires et matrices

Exemple :
Soit M2 muni de deux bases : la base canonique {ei, e2} et la base {ei, e'2} définie par :

f ei 2ei + e2 (*)
\
=

e2 =3ei + 2e2

Soit x = 2 ei + 3 e2. On a deux méthodes pour calculer les composantes de x dans la base
{ei, ei}.

iere méthode (méthode matricielle)

o..=p-(;;) ,

,-=(j 1)-*-(;)
En appliquant la relation de la proposition 3.25, on trouve :

*-'-*-(-; i)(î)-(i
donc x = —

5 ei + 4 e2.

^me méthode (calcul direct)


On exprime ei et e2 en fonction de e[ et e2 en résolvant le système (*).

{
°na:
^
f ei =
2e!- e2
e2 =
-3e'1 + 2e'2
En remplaçant dans l'expression de x, on trouve :

x =
2ei+3e2 =
2(2ei -

e2) + 3 (-3ei + 2e2) =


-5ei+4e2.

c) Action du changement de base sur la représentation matricielle

d'une application linéaire.

Proposition 3.26 Soient f G C (E, F), {ei,..., en} e£ {e^,..., e'n} deux bases

{si,..., e'p}
-

de E et {ei,..., ep} ,
deux bases de F. Notons :

On a alors :

A' =
Q~1AP

Démonstration : Soit x G E un vecteur arbitraire. D'après la proposition 3.25, on a :

M(/(x))£/ =Q-1M(f(xj)e_=Q-1M(fU,.iM(x)ei=Q-1AX
où on a posé X = M (x)ei- D'autre part, si X' = M (a;)e/ :

M(f(xj) #

J
=M(f)e,,e, M(x)e, =A'X' = A'P~XX

Donc:
A'P-'X^Q-'AX
Comme x est arbitraire, cela implique que A' P_1 =
Q~x A, d'où : A' —

Q~l AP. D
3.7 Changement de base 79

Comme nous le verrons auchapitre 6, le cas des endomorphismes est particulièrement


important, en particulier lorsqu'on prend la même base dans l'espace de départ et
d'arrivée 5. On a immédiatement :

Corollaire 3.27 -

Soit f =' E —> E un endomorphisme de E et {ei,...,en},


{ei,.. , e'n} deux bases de E. Notons :

A =
M(f)ei, A' =
M(f)e et P =
P.ei—>e'. '

On a alors

A' = P~1AP

Définition 3.28 -

Deux matrices A, A! G A4n (K) sont dites semblables s'il existe


une matrice inversible P G Mn (K) telle que :

A' = P~1AP

Il est clair que deux matrices semblables représentent le même endomorphisme en des bases

différentes»

Exemple :

Soit f Vendomorphisme de R3 qui dans la base canonique {e*} est représenté par la
matrice :

/3 -1 1\
A M(f)ei= 0 2 0

V J
=

1 -1 3

Déterminer la matrice A' qui représente f dans la base {e£} où :

( ei (1, 0, -1)
{
=

e'2 =
(0, 1, 1)
I
.

e'3 =
(1, 0, 1)
1 0 1
On A' P~1AP P \\e[, e'2, e'3\\ei =\ 0 10.

V
a avec

/
= =

-1 1 1

D'après la proposition 3.24 : P~l =


Pe/ >Ci
=
||ei, e2, ez\\e'. H s'agit donc d'exprimer
ei, e2, ez dans la base {ei, e2, e^}. Or :

(ei
=
ei-es

e'2 =
e2 -f e3
e'3 =
ei + e3

En résolvant en ei, e2, ez :

( ci =
|(ei + e3)
e2 =
|(ei + 2e2-e3)
l e3 =
^(-ei+es)
Dans ce cas, comme nous l'avons déjà signalé, on note M (f)ei au lieu de M (f)eitei
80 Applications linéaires et matrices

donc
/ 1 1-1
P-I =
\\eue2>e3\\e,=-2 0 2 0

V i -i i

En effectuant le produit A' = P_1 ÂP, on trouve :

/ 2 0 0 \
A' = I 0 2 0

\ 0 0 4 /
REMARQUE. Puisque A' = M (f)e{, ceci veut dire que :
-

/(ei) =
2ci , f{e'2) =
2e2 , f (e'3) =
4e'3
comme d'ailleurs on le vérifie directement. On a, en effet :

/(ei) =
/(e1-e3) =
/(ei)-/(e3)
Or /(ei) =
3ei H- e3 (cf. la première colonne de la matrice A) ; de même f (e3) =

ei+3e3. Donc: /(ei) =


2ei -

2e3 =
2ei, etc.

Exercices 28. 29. 30.

3.8 Rang d'une application linéaire et rang d'une matrice

Comme nous l'avons vu (cf. ), on appelle rang d'une application linéaire


définition 3.3
/ la dimension de Im/. Puisque Ck{E, F) est isomorphe à «Mp,n(if ), il fau^ s'attendre
à ce que l'on puisse calculer le /
rang de à l'aide de la matrice associée à /. C'est ce

que nous allons voir dans ce paragraphe.


Définition 3.29 -

1. Soit T =

{^i\i^i famille de vecteurs. On appelle


une rang de la famille la
dimension de Vespace engendré par les vecteurs {vi}ieI.
2. Soit A G MP)n (if), A ||ci,..., cn\\ où Von
= a noté ci les vecteurs colonnes de
A (notons que Ci G Kp). On appelle rang de la matrice A le rang de la famille
des vecteurs colonnes de A :

rg ||ci,..., cn|| =
rg {ci,..., cn} =
dim Vect{ci,..., cn}
Proposition 3.30 Soient E et F deux espaces vectoriels de dimension finie
-

et f G C (E, F). Soient {ei,..., en} {ei,... ,£p} deux bases quelconques de E et F
,

respectivement, et A M (/)eije3-- On a alors :


=

rg/ igA =

En particulier : deux matrices qui représentent la même application linéaire en des


bases différentes ont même rang. En particulier, deux matrices semblables ont même
rang.

En effet :

A =
M(f)eii£j =
||/(ei),...,/(en)||e.
donc
igA =
dim(Vect{/(ei),...,/(en)}) =
dim(Im/) =
rg/
3.9 Espace dual 81

Soit A G Mp,n (K) A la matrice dont les lignes sont les colonnes de A (cf.
*
et

exercice 18, chapitre 1.). Par exemple, si

-(ïl)-'-(-îïi)-'
:

tA est dite transposée de A. Nous démontrerons par la suite (conséquence immédiate


du théorème 4.12 page 114 et du théorème (E) page 127) la proposition suivante (cf.
aussi exercice 37) :

Proposition 3.31 Pour toute matrice A, on a :


-

rg A =
rg lA

Il s'ensuit que le rang d'une matrice est aussi égal au rang de la famille des vecteurs

lignes.

Exemple :

Calculer le rang de la matrice :

/ 1 -1 3 5 1 \
A= 2 0-131

\ 3 -1 2 8 2/
D'après la définition, il faudrait calculer le rang des vecteurs colonnes en échelonnant la
matrice :
r 1 2
3"]
-1 0-1
3-1 2
5 3 8
L 1 1 2J
Mais d'après la proposition 3.31, cela revient à calculer le rang des vecteurs lignes (c'est-à-
dire à échelonner la matrice elle-même), ce qui plus simple a priori. On voit, d'ailleurs,
est

que la troisième ligne est la somme des deux premières lignes qui sont indépendantes entre
elles. Donc rg A = 2.

Exercice 31.

3.9 Espace dual


Comme nous l'avons vu en des différents exemples, il existe deux manières de
sous-espace vectoriel : en se donnant une famille génératrice ou en se donnant
caractériser un

des équations linéaires (cf. par exemple, exemple 3. page 8 ; exemple VI page 47, etc).
Cette seconde caractérisation peut être plus utile pour certains types de problèmes.
Par exemple considérons le sous-espace F de M5 engendré par les vecteurs

Vl =
(1,3, -2,2,3), v2 =
(1,4, -3,4,2), «3 =
(2,3, -1, -2,9) ;
82 Applications linéaires et matrices

on se demande si le vecteur v (1,2,-2,0,1) appartient à F. Pour répondre cette


=

question, il faut voir si l'on peut trouver des scalaires Ài,À2, À3,A4,A5 tels que : v =

Ai vi +À2 v2 -f A3 v3 -f A4 V4 -f A5 ^5, ce qui exige la résolution d'un système de 5 équations en


5 inconnues. En revanche, si le sous-espace est défini par des équations, cela est beaucoup
plus simple. Comme nous l'avons vu (cf. exemple page 47) F peut être caractérisé par
les équations

xi+ X2 + X3 =
0
4 xi —

2 X2 + xa = 0
—6x1 + X2 + x& =
0

On voit immédiatement que v =


(1,2,-2,0,1) ÇÉ F (les composantes de v ne vérifient

pas la première équation.)


La notion d'espace dual permet de définir d'une manière plus précise ce que l'on entend
par espace «caractérisé par des équations» et de travailler d'une manière systématique
avec des équations plutôt qu'avec des familles de vecteurs.

Définition 3.32 appelle forme application linéaire


6
-

On linéaire sur E une

u : E —>K.

L'ensemble des formes linéaires Ck (E, K) est noté E* et est dit espace dual de E.

Soit E est de dimension finie, {ei,..., en} est une base de E et x =


x\ e± H Yxnen
un vecteur arbitraire de E. Si u; € E*, on a :

u>(x) =
xi w(ei) H h xn tv(en) =
ai x\ H Y an xn

où les Oi =
lj
(ei) sont des scalaires. Ainsi les formes linéaires sur E sont les
applications du type :

u: E > K (*)
x=xi e\ H h xn en 1 > ai x\ H \-anxn (aiEK)

REMARQUE. —

La matrice qui représente u dans les bases {e*} et {1} de K est une matrice
ligne :

M(w)ei,i =
(ai,...,an)

Soit u G E* une forme linéaire non nulle. On a Im u C if donc :

dim(Ima;) < dirn^ K =


1

Puisque a; ^ 0 on aura dim(Imu;) =


1 et donc dim(Kerw) =
n

1, n étant la
dimension de E. On a donc :

Proposition 3.33 -

Soit E de dimension finie n et u G E*, u ^ 0. On a :

dim(Kercj) =
n

Le noyau de uj est dit hyperplan de E déterminé par uj.

6On note en général les formes linéaires par des lettres grecques : o>,^,y?, etc.
3.9 Espace dual 83

Si a; a l'expression ci-dessus (*), l'hyperplan déterminé par u est l'ensemble des


vecteurs x G E dont les composantes vérifient l'équation linéaire :

a\ x\ + Y an xn =
0.

L'espace des solutions d'un système d'équations linéaires peut donc être vu comme
une intersection d'hyperplans. En d'autres termes, travailler sur l'espace dual revient

à travailler sur des équations linéaires (plus précisément : sur les premiers membres
des équations linéaires).

Puisque l'ensemble Ck{E,E') est un espace vectoriel sur K, et K est lui-même un


espace vectoriel 7, E* £K(E,K) est un espace vectoriel et, d'après la proposition
=

3.14:
dim^ C (25, K) =
diuiK E x dim^ K =
dirn^ E.
On a donc :

Proposition 3.34 Si E est de dimension finie, alors :


-

dinuE^dimE'*

En particulier, E et E* sont isomorphes 8.

Notons que l'isomorphisme de E sur E* n'est pas canonique, en ce sens qu'il dépend
du choix d'une base dans E et d'une base dans E* (cf. la démonstration du théorème
3.7 page 61).

a) Base duale

Comme nous allons le voir, si l'on choisit une base {ei,..., en} de E on peut construire
canoniquement une base {#i,...,
9n} de E* :
Théorème 3.35 -

Soit E de dimension finie n et {ei,..., en} une base de E.


Considérons les formes linéaires {#i,..., 9n} définies par
0% (efc) =
ôik

où ôik —

\ _
t
(ôik est dit symbole de Kronecker).

Alors {#i,..., 6n} est une base de E* dite base duale de {ei,..., en}.
Démonstration : Remarquons qu'une forme linéaire lj est parfaitement déterminée si
on connaît l'image des vecteurs d'une base, car d'après la linéarité de cj on a : u (x) =

v
(#i eH \-xn en) =
x\ (e{)-\
u Yxn u (en). Donc, si on connaît lj (ei),..., uj (en),
u) est connue en tout x. En particulier, la définition ci-dessus détermine parfaitement
les 9i. Plus précisément, si x =
x\ e\ -\ h xn en, on a :

0i (x) =
xi 9j (ei) H \-xn9i (en) =
e».

7Rappelons que Kn est un espace vectoriel sur K, de dimension n, cf. exemple 1, page 5 et
remarque 2 page 18.
8cf. théorème 3.7.
84 Applications linéaires et matrices

Donc :

Oi est Inapplication qui au vecteur x associe sa i-ième composante dans la base


{ei,...,en}.
Pour montrer que {0i,..., 0n} est une base, il suffit de montrer qu'elle est une famille
libre, car on sait que dim^ E* =
n.

Supposons qu'il existe Ai,..., An G K tels que \\6\-\ h An 6n =


0. Ceci veut dire
que pour tout vecteur xG J5, on a :

Al 01 (x) + + An 0n (x) =
0.

En particulier, pour x =
ek (k =
1,..., n), on a :

Ai0i(efc) + + Afcflfc(cfc) + + Xn0n{ek) =


0,
c'est-à-dire A& 0, pour k = =
1,..., n. Donc la famille {0i,..., 0n} est libre, et, par
conséquent, elle est une base.

Exemple :

Soit {ei, e2, es} la base de M3, où :

ci =
(1,1,1) , e2 =
(1,0,-1) , e3 =
(0,1,1).
Déterminer la base de (M3)* duale de {ei, e2, es}.

On a :

0i(ei) = l , 0i(e2) =
0 , 0i(e3) =
O.

Si 0i (x) =
ax\ -\-bx2 + ca?3, pour x =
(x\, X2, ^3), on doit avoir :

0i (ei) =1 ( a+6 + c =
1
0i (e2) =0 —^< 0

[
a -

c =

0! (e3) =0 — b + c =
0

ce qui donne a =
1, b = —

1, c=l, c'est-à-dire :

01 (x) =X\—X2 + X3.

De même, 02, imposant 02 (ei) 0, 02 (e2) 1, 02 (es) 0, trouve

{a
pour en on :
= = =

+ b + c =
0
a

c =
1
6 + c =
0

c'est-à-dire : a =
0, 6=1, c = —

1, donc :

02 (x) =
X2

X3.

Enfin pour 03, imposant 03 (ei) 0, 03 (e2) 0, 03 (e3) 1, obtient

{a
en = = = on :

+ 6 -h c =
0
a -c =
0
6 + c = 1

c'est-à-dire : a =
—1, 6 =
2, c = —

1 ; donc :

03 (x) =
—xi + 2x2 —

£3

La base duale de {ei, e2, es} est donc donnée par les formes linéaires 0i, 02, 03 définies
par :
3.9 Espace dual 85

01 (x) =
X\

X2 + X3
02 (x) =
X2—X2,

03 (x) =
—Xl -\-2X2—Xz

b) Indépendance de formes linéaires

Considérons une famille de formes linéaires {<pi,... <£p}. ,


Il s'agit de savoir si cette
famille est libre, c'est-à-dire si :

Ai ipi H h Xp ipp =
0 Ai =
0,..., Xp 0.

Le plus simple, en général, est de décomposer les (pi sur une base de E* et d'utiliser
ensuite les méthodes vues au chapitre 2.

Exemple :

Soient (p\, </?2, <^3 les formes linéaires sur E4 définies par :

{(fi(x)
=
xi

3^2 + 2 £3 —

X4

{x)
<4>2 =
X\+2X2 —

X4

(P3(x) =
2x\ —

X2~\-2X3-\rX4

Montrer que {<£>i, </>2, ^3} est une famille de libre de (M4)*.
Soit {ei,..., e±\ la base canonique de M4 et {0i,..., 64} sa base duale. On a 6i (x) =
Xi,
donc :

(pi (x) =
0i (x) -

302 (x) + 2 03 (x) -

04 (x)
c'est-à-dire :

<Pi(x) =
(0i-302+ 203-04) (x)
Puisque cela est vrai pour tout #, ceci signifie que :

<Pi 0i -302 + 203-*

c'est-à-dire les composantes de (pi sur la base {0i,..., 04} sont (1, —3, 2, —1) (en fait les
coefficients des xi dans les y>i{x)).
De même :

p2 =
01+202 -04
lp3= 201- 02 + 203+04
En utilisant la méthode du pivot, cela revient donc à échelonner la matrice du système
d'équations dont les premiers membres sont les (pi :

1 -

-3 2 -1" <Pi "1-3 2 -1" <Pi


1 2 0-1 (p2 —> 0 5-2 0 (p2 =
(p2 -<Pl
-

2 -

-1 2 1_ </?3 0 5 -2 3 <P*3 =
<^3
-

-2<Pi

'1 -3 2 -1" ¥>i


0 5-20 V>2
0 0 () 3_ *£' =
¥>3 <P2
~

Donc {<^i, (^2, ^3} es^ une famille libre.


86 Applications linéaires et matrices

c) Bidual

Puisque E* est un espace vectoriel sur K> on peut considérer l'ensemble des formes linéaires
sur E*, c'est-à-dire le dual de E* dit «bidual» :

E**=£K(E*,K)
En dimension finie, on a diuiK E** =
dimx E* =
dimx E, donc, tout comme E*, E** est

isomorphe à E. On a cependant ici une propriété plus forte :

Proposition 3.36 -

En dimension finie, E** est canoniquement isomorphe à E.


Ceci veut dire que l'on peut construire un isomorphisme de E sur E** sans faire appel
à des choix de bases. Ainsi, lorsque la dimension est finie, on peut, en quelque sorte,
identifier E avec E
**
9.
Démonstration : Considérons l'application
$ .

e — £**
x i <ï>x
où &x est l'application :

$x : E* — K
u i—> u
(x)
Montrons d'abord que, pour chaque x fixé, &x est bien une application linéaire (donc $x G

CK (£*, K) =

E**y On a, pour vu v2 e E* :

$x (wi + co2) =
(oji + w2) (as) =
ui (x) + cj2 (x) =
$x (lji) + $x (0J2)
etsiweE*et\£K:

®x (Aw) =
(Aw) (#) = A
(w(x)j =
\$x (a;)

Donc $* G E**.
D'autre part <3> est linéaire. Soient en effet x, y £ E et co £ E* arbitraire ; on a :

&x+y (w) =
W (x + y) = cj (x) + w (y) =
$x M + $y (w) =
($x + $y) (w)
Puisque a; est arbitraire :
$*+?/ =
$x + $y De même, si À G iiT, on a pour tout a; G E* :

$Aa; (<*>) =
cj(àz) =
Aa;(x) =
A$x (a;),
c'est-à-dire $\x =
\$x. $ est donc une application linéaire.
Il ne reste plus qu'à montrer que $ est bijective et pour cela il suffira
de montrer que $ est injective, car on sait que dim E** dim = E (cf. corollaire 3.9).
Soit x G E tel que &x 0 ; il s'agit de montrer que x
= =
0. Or &x =
0 signifie que
Vu; G E* $x (c*;) =
0. Soit {ei,..., en} une base de E et {0i,..., 0n} la base duale ; puisque

0i G E* on aura $* (04) =
0 c'est-à-dire 0. (a:) =
0, Vz =
1,..., n. Mais 0» (x) est la ième
composante de x sur la base {ei,..., en} ; donc x a toutes ses composantes nulles et, par
conséquent x =
0.

Remarque. -

En dimension infinie on peut montrer que $ est injectif, mais il n'est


pas surjectif. Donc, si la dimension est infinie, E n'est pas isomorphe à .E**, mais
uniquement à son image par 3>.

Exercices 32. 33. 34. 35.

9En revanche, bien que E et E* soient isomorphes, on ne peut pas vraiment les identifier car
l'isomorphisme <p : E —> E* dépend du choix des bases ; l'élément de E* qui par (p correspond à un
élément de E n'est pas parfaitement défini, car il dépendra justement d'un choix préalable des bases.
3.10 Annulateur d'un sous-espace 87

3#10 Annulateur d'un sous-espace

puisqu'en dimension finie E et E* sont isomorphes, les sous espaces vectoriels de


E peuvent être caractérisés par des sous-espaces vectoriels de E* ; c'est ce que nous
allons voir dans ce paragraphe. Comme nous l'avons dit, cette façon de caractériser
un sous-espace
de E par des équations peut être très utile (cf. page 81).

Étant donné, donc, un sous-espace vectoriel F de E engendré par les vecteurs


{^î,... ,^p},
nous nous proposons de déterminer un système d'équations linéaires :

{ai
xi + + an xn =0

h xi + + ln xn =0

dont les solutions sont exactement tous les vecteurs de F.

Proposition 3.37 Soit E un espace vectoriel et F un sous-espace vectoriel de E.


-

L'ensemble F0 des formes linéaires qui s'annulent sur tous les vecteurs de F,

F° =
{u>eE*\u>{v)=0, V^GF},

est un sous-espace vectoriel de E*, dit annulateur de F.

La démonstration est immédiate. Soient ui et o>2 E F0 ; on a, pour tout v G F :

(wi + cj2) (v) =


u)\ (v) + o>2 (v) =
0

donc (Ji + U2 E F0. De même on montre la stabilité de la loi externe.

Les propositions suivantes permettent d'effectuer les calculs :

Proposition 3.38 Soit {vi>... ,vp} une base de F. Alors :


-

F0 =
{u e E* | u> (vi) =
0,..., w (vp) =
0}
En effet si a; G -F0 on a évidemment uj (v\) =
0,... ,<j (vp) =
0 car les Vi appartiennent à F.

Réciproquement, supposons que :

w(vi) =
0, ...,u(vp) =
0.

Alors pour tout v e F, v =


Ai v\ -\ h Àp vpy on a :

cj (v) = u
(Ai vi -\ h Ap vp) =
Ai u)
(vi) H h Ap uj (vp) =
0

doncu; G F0.

Proposition 3.39 -

Soit E de dimension finie et F un sous-espace vectoriel de E.


On a alors :

dim E =
dim F + dim F0
Applications linéaires et matrices

Démonstration : Supposons que dim E =


n {t>i,..., vp} une base de F ; complétons-
et soit
la en une base de E : B =
{vi,..., vp, vp+i,..., vn}. Soit {0i..., 0P, 0p+i,
...
On] la base de E* duale de B et montrons que {0P+i,..., 0n} est une base de F0 (on aura
alors : dim F0 =
n

p = dim E —

dim F).
Tout d'abord 0p+i,... 0n 6k (vi) 0... 0^ (vp)
, G F0 car, =
,
=
0, pour tout pour tout
k =
p -h 1,..., n d'après la définition de base duale.
D'autre part {0P+i,..., 0n} est une famille libre car elle est extraite d'une base. Il ne reste

plus qu'à montrer que {0P+i,..., 0n} engendre F0.


Soit weF° quelconque ; montrons qu'il existe Àp+i,..., An G K tels que :

LO =
Ap+i 0p+l + + An 0n.

Soit x G E : x =
x\ v\ + + xv vp + xp+i vp+i + + xn vn> Puisque vi,..., vp G F et
lo G F0, on a :

LO
(x) =
Xp+i LO (Vp+i) H \-XnCO (vn).
En posant lo
(vp+i) =
Àp+i,..., lo (vn) =
An, on a :

Uj (x) =
Ap+l Xp+i H h An Xn =
Ap+i 0p+i (x) H h An #n (x)

car {0i} est la base duale de {^i,..., vn} et donc 9i (x) =


x%. Puisque cela est vrai pour tout

x G F, on a : lo =
Ap+i 0p+i + -f An 0n.

Exemple :

Déterminer Vannulateur F0 du sous-espace vectoriel F de M5 engendré par les vecteurs


Vl =
(1,3, -2, 2,3) , v2 =
(1,4, -3,4,2) , v3 =
(2,3, -1, -2,9)
(cf. exemple VI. page 47 ).
On extrait d'abord une base de {vi,^2,^3} :

13-2 2 3" Vl '1 3 -2 2 3" Vl

14-3 4 2 V2 > 0 1 -1 2 -1 v2
-

vi =
v2

2 3 -1 -2 9 ^3 0 -3 3 -6 3 v3
-

2 vi =
v'3

13-22 3" Vl

0 1-12 -1 V2

0 0 0 0 0_ v's- 3v2

Donc vi =
(1,3, —2,2,3) et v2 =
(0,1, -1,2, —1) forment une base de F.

D'après 3.38 : F0 =
{u G E* \ lo (vi) =
0, lo (vf2) =
0}
et d'après 3.39 : dim F0 =
5 -

2 =
3.

Il s'agit donc de déterminer trois formes linéaires indépendantes qui s'annulent sur vi et

v'2.
Soit lo(x) =
a\ xi -h + db %5 une forme linéaire. En imposant lo (v{) =
0, on trouve :

ai + 3 a2 —

2 a3 + 2 a4 + 3 as =
0 ; en imposant lo (v2) =
0, on a : a2

a3 + 2 04

as = 0.
Il faut donc résoudre le système :

ai -h 3 a2 —

2 a3 + 2 a4 + 3 as = 0

a2

a3 -h 2 a4 —

as =
0
Exercices 89

Le système est déjà échelonné avec variables libres a3, a4, as ; la solution est :

ai = —

X-\-4:fjb —

6v , a2 =
A —2/i-f^ , a3 = X , a^ =
yL , as = v

ce qui donne toutes les formes de F0.


Si l'on veut trois formes indépendantes, il suffit de donner au triplet (A, fi, v)
successivement les valeurs (1,0,0), (0,1,0), (0,0,1) conformément à la théorie développée au

chapitre 2. On trouve alors :

f <Pl(x) = -

Xi + X2 + X3

<P2(x)= 4X1—2X2+^4
ip3(x) =
-6xi+ x2 + x5

(cf. page 43).

Exercices 36. 37.

EXERCICES

\D Soit E l'espace vectoriel des applications [0,1]


1. continues de dans R.
Montrer que l'application :

E
f F

où F (x) =

Jo
/ / (t) dt, est un endomorphisme de E.

2. Soit /oEfî fixé. Montrer que l'application :

ip: E —> R
f — +
/o/o(0/(*)dt
est une application linéaire sur E.

3. Montrer que l'application :

ô : E —> R
f — / (0)
est une application linéaire (elle est appelée fonctionnelle de Dirac).

| 2 Soit / une application linéaire bijective de E dans F (c'est-à-dire un isomorphisme).


Montrer que /_1 est une application linéaire.

I 3 I Soit heRet:
yh En [x] Q (x) (x h)
:
avec = P +
P Q

Montrer que iph est un isomorphisme.

H Transport de structure

1. Soit E un espace vectoriel sur un corps K, A un ensemble non vide. On suppose


qu'il existe une bijection / : A — E. On définit alors sur A les lois suivantes :

loi d'addition :

6:=/-1(/(a) + /(6))
A x A
où a0
a©6
90 Applications linéaires et matrices

loi externe :

£,Xaf ^ ta °Ù
A.a:=/-(A/(a))
(en d'autres termes prend
: on images par / des éléments de A, on les compose
les
avec la structure d'espace vectoriel de E et on revient dans A par l'application
r1)-
Montrer que, muni de ces lois A est un espace vectoriel sur K isomorphe à E.
(On dit que la structure de E a été transportée par isomorphisme sur A, ou aussi
que la structure de A est induite par / de celle de E).
2. Soit R muni de la structure habituelle d'espace vectoriel sur R, A =
R+\{0}
l'ensemble des nombres réels strictement positifs et :

/: A — R
a i—>
Log a
Déterminer la structure d'espace vectoriel sur A obtenue par transport de la
structure d'espace vectoriel de R.
3. Soit :

/: ]0,1[ — R

x i—>
Log
1 -

Montrer que / est une bijection. Déterminer la structure d'espace vectoriel sur

]0,1[ induite par /.


4. Peut-on mettre sur R une structure de R-espace vectoriel de dimension 2 ?

|5 | Soit :

/ : R4 — R3
(x}yfz7t) i
(x-y + z + t, x + 2z-t, x + y + 3z-3t)
Déterminer une base de Ker / et une base de Im /.

|6 | Soit :

M=(V l l)J U ô
et f 'M2 (R) M2 (R)
A '—'AM-MA

Déterminer une base de Ker / et une base de Im /.

|7 | Soit :

ip : Rn [x] — Rn+1
P ,—>
y>(P) =
(P(0)>P(l)lP(2)>...lP(n))
Montrer que ip est un isomorphisme.

8 Soient / : E — F et g = G —> E linéaires avec g surjective. Montrer que :

rg/ =
rg(/op)
De même si / : E — F et h : F — G sont linéaires et h est injective, montrer que :

rg/ =
rg(ho/)
En particulier : en composant à gauche ou à droite par une application linéaire bijective,
le rang ne change pas.

9 Soit E un espace vectoriel. On appelle projecteur un endomorphisme p de E tel que

p2 =p.
=
p.

1. Montrer que si p est un projecteur alors : E =


Kerp 0 Imp
Exercices

2. Montrer Kerp =
Im(id p) —

et que donc : E =
Imp 0 Im q, où q = id —p.

flO Système complet de projecteurs


'

Soit E =
Fi 0 0 Fq : tout x G # s'écrit d'une manière unique ce =
x\ + + xq. On
pose : Pi(x) := Xi.

1. Montrer que Pi est un projecteur et que :

( PioPj = 0 (*,j€{l, -,?}, i^j)


\ Pi+-+P9 = id

Une famille deprojecteurs vérifiant les deux propriétés ci-dessus, est dite système
complet de projecteurs.
2. Réciproquement, on suppose qu'il existe un système complet de projecteurs {Pif
Montrer que E est somme directe des images des Pi.

11 Soient E et F deux espaces vectoriels sur le même corps K, f G C(E,F) et g G

C(FtE), telles que :

f °9° f =
f et go fog =
g

Montrer que E = Ker / 0 Img (cf. Appendice 6).

12 | Soit End(E)
/ G tel que f3 =
f. Montrer que E = Ker / 0 E\ 0 E-i où Ei =

{xeE\f(x)=x} et E-i =
{xeE\f(x) =
-x}.

13 I Existe-t-il des applications linéaires injectives de R2 dans R ? des applications linéaires

surjectives de R dans R? ? Généraliser.

14
1. Soit / un endomorphisme de E. Montrer que pour tout p G N*, on a :

Ker/ C Ker/2 C Ker/3 C C Ker/?

Im/ D Im/2 D Im/3 D D Im/*


2. On suppose .E de dimension finie. Montrer que les propriétés suivantes sont
équivalentes :

(a) Ker/ Ker/2 =

(b) Im/ Im/2 =

(c) £ Im/0Ker/
=

(Pour une généralisation en dimension infinie, cf. exercice 16).

15 Soit / G End (R3) tel que f2 0. Montrer qu'il = existe v G R3 et g G C (R3, R) tels

que, pour tout ïGl3,/(a;)=5(x)v.

16 Caractère d'un endomorphisme


Un endomorphisme / est dit nilpotent s'il existe un entier p tel que fp = 0. Le plus
petit entier p tel que fp 0 est dit indice de nilpotence de f.
=

Soit E un espace vectoriel (non nécessairement de dimension finie). On pose Jn =

Im fn , Kn =
Ker fn. On a (cf. exercice 14) :
J\ D Ji D D Jn D
Kl C i^2 C C Kn C

I. 1. Montrer que s'il existe m tel que Jm =


Jm+1 ,
alors : Jm =
Jm+p pour tout
p G N.

2. Montrer que s'il existe m tel que Km =


Km+i »
alors : Km =
Km-j-p pour tout
pGN.
92 Applications linéaires et matrices

IL On pose J = n Jn /C = U Kn.
n=l n=l

1. On suppose qu'il existe m tel que Jm =


Jm+i et soit r le plus petit entier tel
que Jr =
Jr+i- Montrer que :
(a) /(J) C J
(b) E=J + Kr
2. On suppose qu'il existe m tel que Km =
Km+i et soit s le plus petit entier tel
que Ks =
Ka+i. Montrer que :

(a) /|/ç est nilpotent


(b) /| j est injectif.
(c) JsD/C {0}. =

III. On dit que / est de caractère fini si r et s existent.


Montrer que si / est de caractère fini, alors :

1. E =
J®K.
2- f\ j est un automorphisme (c'est-à-dire un endomorphisme bijectif).
3- /|/c est nilpotente.
4. r = s (r est dit caractère de /).
IV. Réciproquement, on suppose que E =
FÇ&G et qu'il existe / G End (E), tel que :

F, G sont stables par / (c'est-à-dire :


/ (F) C F, / (G) C G) ;
-

f\p est un automorphisme ;


-

f\o est nilpotent.


Montrer que / est alors de caractère fini et F —

J, G = K.

V. Montrer qu'en dimension finie tout endomorphisme est de caractère fini.


Donner un contre-exemple en dimension infinie.

17 Soit / l'endomorphisme de M3 qui dans la base canonique est représenté par la matrice

/ -2 3 1

A=[ 5 10

V 4 11 3

Déterminer une base de Ker /, une base de Im / et l'équation linéaire définissant Im /.

18 1. Existe-t-il des applications linéaires / : M4 —> R3 telles que Ker/ soit engendré
par le vecteur v (1,1,0, —1) et Im/ soit le plan d'équation x + y z 0?
= —
=

2. Déterminer la forme générale des matrices qui représentent dans les bases
canoniques de R4 et de R3 les applications linéaires / : R4 —> R3 pour lesquelles

Ker/ Vect{vi, ^2}, où


= : v\ =
(1,1,0, -1), V2 =
(0,1,-1,0) et Im/ est le plan
7r d'équation x + y z —
=
0.

3. Ces matrices forment-elles un espace vectoriel (pour les lois de composition


habituelles) ?

19 Déterminer la matrice qui représente dans la base canonique de R3 la projection sur le

plan 7r d'équation x + 2y-\-3z = 0 parallèlement à la droite D d'équation —


= —
= z.
o Z

20 Soit A = I 3 4 .
Déterminer, s'il y en a, toutes les matrices B telles que BA = /.
Exercices 93

1 —1 —1 \ / an bn bn
Soit A =
[ —1 1 —1 I. Montrer que An est de la forme I bn an bn
1—11/ \ bn bn an

Exprimer an+\ et 6n+i en fonction de an et bn- En déduire An.

Montrer que si A, B G Mn (K) et AB = BA on a la formule du binôme :

(A + B)n =
J2 Cn Ak Bn~k
k=0

A-t-on le même résultat si A et B ne commutent pas ?

Soient A G Mp,n (K), B G Mn,q (K), B =


\\cu. ..,cq\\ (a G Kn).
Montrer que AB \\ A ci,..., A cq ||.
=

Produit par blocs

1. Montrer que :

x
( B! \B2 )
/ Ai | ( Ai B1 \Ai B2 \ Ai G Mk,n A2 G Mh,n

J Mn,r Mn,s
Bi B2
\
G G
A2 A2Bi A2B2

2. Montrer que :

Bi {}k
x \ B2 I

(Ai \A2) AiBi+A2B2


Al G Mn,k A2 G Mn,h
MkiP MhiQ
=

Bi G B2 G

3. Montrer que :

k{ f Bi B2

B3 Ba

Ai B± + A2 B3 Ai B2 + A2 B4
Ai A2

A3 A4 A3 Bi + A4 B3 A3 B2 + A4 B4

En définitive : on peut toujours faire le produit par blocs, pourvu qu'on puisse
le faire...,
c'est-à-dire pourvu que les coupures soient faites de manière à pouvoir
effectuer les produits des matrices.

25 Dans W1 on appelle longueur du vecteur v = le scalaire

\\v\\ =
yla\ + + an. Montrer que les rotations de centre 0 dans le plan M?
conservent la longueur des vecteurs (la rotation étant définie par la matrice de l'exemple
5, page 69).

/ 1 2 -1
Soit A = 0 1 2 Calculer A
V 0 0 1
94 Applications linéaires et matrices

27 Soit N une matrice carrée. On dit que N est nilpotente s'il existe p G N tel que Np = 0

(cf. exercice 16) Montrer que si N est nilpotente, I


.

N est inversible.
Application. Calculer l'inverse de la matrice :

( 1 a b c

0 1 b
I
a
a'6'cGl
,
A ^,
s ,

= °U:
0 0 1
'
a

\ 0 0 0 1

28 Soit / la projection de R3 sur le plan n d'équation x + 2y + 3z =


0 parallèlement à la
droite (d) d'équation —
= —
= -. Ecrire la matrice A' de / dans la base {vi, V2, v$}
où {i>i, V2} est une base de n et V3 est une base de (d). En déduire la matrice de /
dans la base canonique de R3 et retrouver ainsi le résultat de l'exercice 19.

29 Soit {ei, e2, 63} une base de M3 et e[ =


e± + e^

e3, e2 =
e\

C2 + 03,

e3
=
—ei + e2 + e3. Montrer que {e'1? e2, e3} est une base de M3.
Soit / l'endomorphisme de M3 qui dans la base {e^} est représenté par la matrice

( Q- b a + c c b
— —

I I. {e^}.
h

A= -

b —

a c —

a b + c Calculer la matrice de / dans la base

y a + 6 a

c b —

30 Soit .A une matrice carrée d'ordre n. On appelle trace de A la somme des termes de la

diagonale principale :

Tr A =
an + a22-i h o,nn

1. Montrer que l'application Tr : A^n (K) — if est une application linéaire.


2. Montrer que Tr(AB) = Tr(jBA). En déduire que deux matrices semblables ont
même trace et que, par conséquent, en dimension finie on peut définir la trace
d'un endomorphisme / par Tr/ =
TrM(/)ei , {e*} étant une base quelconque.
3. Montrer que l'on ne peut pas trouver de matrices A, S G À4n (C) telles que :

AB -

BA = I

4. SoitS l'espace vectoriel des fonctions dérivables de R dans R et D,Di les


endomorphismes de S définis par

(Df)(x)=f'(x) Dif(x)=xf(x)
Calculer le «commutateur» [D, Di] défini par [D, Di] := D o Di —

Di o D.

31 Soit l'application :

/: R2[x] —+
R2[x]
P ^->
(ax + 1) P + (bx2 + c) P'
Quelles relations doivent vérifier a, 6, c pour que / soit un endomorphisme de R2 [x] ?
Déterminer, dans ce cas, le rang de /

32 Soit la base de Rn :

ei =
(1,1,..., 1), e2 =
(0,l,l,...,l), e3 =
(0,0,1,1,...,!),...,
en =
(0,0,...,0,1)
Déterminer la base de (Rn)* duale de celle-ci.

33 On considère les trois formes linéaires sur M3 :

(pi (x) =
2X1 -

X2 + 3X3 , (Ç2 (x) =


3iEl -

5X2 + X3 , (f3 (x) =


4X1 -

7X2 + X3

Forment-elles une base du dual de R3 ? Déterminer les éventuelles relations linéaires.


Exercices

34 Montrer que les formes linéaires :

ipi (x) =
xi + 2^2 + X3 , <P2 (x) =
2x\ + 3x2 + 3x3 , <£3 (#) =
3xi + 7x2 + #3

forment une base de (R3)*. Déterminer la base dua.le de celle-ci [en identifiant M3 avec

(E3)**].

35 | Soient E, F deux espaces vectoriels sur K et / : E —> F une application linéaire. On


définit une application (dite transposée de /) :

*f:F* — F*

en posant, pour toute ip £ F* : */ (y?) =


(po f.

1. Montrer que */ applique bien F* dans £7*

2. Montrer que */ est une application linéaire.


3. Vérifier les relations suivantes :

(a) *<J + g)= «/ + <9


(b) *(A/) A(*/) =

(c) J(/°S)= '9°'/


(d) *('/) / =

(e) si / est bijective, */ est aussi bijective et :

*(/-1) =
C/)-1
4. On suppose que E et F sont de dimension finie et soient {e^} , {ej} des bases de
E et F respectivement, {ipi} , {tpj} leurs bases duales. On note A M —

(/)ei,eJ
Montrer que :

M
('/)</>;, ,*>,; = *A

5. En déduire les relations sur les matrices :

t(AB) =tBtA

*(A-i) =
('A)"1

36 | Soient E un espace vectoriel de dimension finie et F, G des sous-espaces vectoriels de


E. Montrer que :

1. FCG => G0 CF°

2. (F + G)° =F°nG°
3 ir00 = F

4. (F fl G)0 =F° + G°

37 Soit / : E —> F une application linéaire. Montrer que :

(Im/)° =
Ker[V)
En déduire que si F et F sont de dimension finie :

rg/ =
rg */
et que, par conséquent, pour toute A G À4P)n (K) : rg A =
rg* A
96 Applications linéaires et matrices

INDICATIONS

1 1. La primitive d'une fonction continue est continue. Vérifier la linéarité en utilisant la


linéarité de l'intégrale.
2. et 3. Simples vérifications.

|2 | Soient /_1 (a + 6) et f'1 (a) + /_1 (b). On

(Z"1 (6))
z = w = a

a + b =
f(z) et / (a) +/"1 =/(«,).
En déduire d'abord f (z) =
/ (iu), puis z = w. Démonstration analogue pour la loi
externe.

3 Remarquer que iph


=
if-h-

|~^
'
I
'
1. Simples vérifications. Par construction /(a06) =
/(a) + /(6) et f(X-a) = À /(a),
donc / est un isomorphisme
2. a 0 b = eL°ga+L°g6 = eLo£ab = ab
X .
a = eA^°Sa aA =
(cf. exercice 2. chapitre 1).
3. On trouve :

ab n*
o©6 À a

(l-a)(l-b) (1 a)x
= =

ax +
r

+ ab

"

4. Aussi surprenant que cela puisse paraître, il existe des bijections de R sur

(Cantor).

5 Pour Ker / on trouve le système :

{
x —

y + z+ t =0
y + z-2t =0

Une base est, par exemple, v\ =


(2,1, —1,0), i>2 =
(1, 2,0,1).
Pour Im / on étudie la compatibilité du système :

( x —

y + z + t = x'
< x +2z- t =y'
\x + y + %z-Zt -z'

On trouve x' —

2yf + z' =
0 et une base est, par exemple :

{u/i =
(1,1,1), w2 =
(0,1,2)}
(cf. exercice 18. pour une méthode plus simple pour la détermination de Im/).

|6 On a :

f x y \
f 2z 2x + 2y-2t \
) )
1f
\ z t
\ -2z 2z

Base de Ker / :

{«,=(-; j) ,
m2=(j )}
dim(Im/) =4-2 = 2

7 Vérifier d'abord la linéarité.


On a : dim IRn [x] = dim Rn+1. Il suffit donc de vérifier que y? est injective. Utiliser le
fait qu'un polynôme non nul de degré n admet au plus n racines.
Exercices

|g Si g est surjective g (G) = E donc f o


g (G) =
/ (E) c'est-à-dire Im(/ o g) Im /. =

Si h est injective, soit {vi}iej avec Vi =


f (wi) base de Im/ ; on prend leurs images
par h.

0
1. -

Utiliser la propositions 1.29. Soit y G


Kerpfllmp (c'est-à-dire : p (y ) 0 et il existe =

x G E tel que y p(x)). Utiliser p2 p


= =

pour montrer que y


=
0. Pour tout x £ E

poser : x p (x) + ( = a; p (x) ). Vérifier que


x -p(x) G Ker p.

2. -

p o
(id —p) =
0, donc Im(id —p) C Ker p.
D'autre part, si a; G Kerp, on a : x x—p(x), =

donc ce G Im(id p).

Figure 10

10 | 1. Simples vérifications.
2. Puisque id Pi + =
\- Pq on a facilement E = Im Pi + h Im P<j.
Soit x E E arbiraire, x =
x\ -\ (- xq et x =
a?i + h as^ deux décompositions de
#. Par différence :

0 =
(xi x[) H h (xq x'q)
- -

En faisant agir P*, on a xi


x\ = 0. Donc la décomposition est unique.

0 x
Employer "d'analyse et synthèse" Il s'agit de montrer que tout
la méthode dite

unique x
G E s'écrit d'une manière y + z avec y G Ker /, z G Im p. =
.

Analyse. On suppose que la décomposition existe pour tout x e E. Soit £ y + z avec =

y G Ker/ et z G Im p, c'est-à-dire : / (y) 0 et z g (u). On essaie d'exprimer y et z = =

en fonction de x.

De x = en appliquant / on obtient : f (x)


y + z, f (z) c'est-à-dire / (x)'= f o g (u). =

En appliquant g : go f (x) g o f o g (u) g (u) et donc : g o / (x)


= z. On en déduit
= =

y = x g o f (x). Donc, si la décomposition existe, elle est nécessairement du type :


x =

x-g(f{x)) +
<?(/(*))
G Ker / €lrag
ce qui montre l'unicité.

Synthèse. Il ne reste plus qu'à montrer que g ( f (x) j G Im g (ce qui est évident) et

x —

g (f (x) j G Ker/ (utiliser fogof =


/). Ceci montre l'existence de la décomposition
pour tout x G E.
Ainsi l'analyse montre l'unicité de la décomposition et détermine les composantes de
la décomposition ; la synthèse est une vérification qui montre l'existence.

12 Utiliser la méthode de l'exercice 11. On part de

x =
#o + x\ + x-i avec xq G Ker/ , x\ G E\ , x~\ G £?-i

Appliquer /, puis, à nouveau /. On trouve :

f(x) + f2(x) f2(x)-f(x)


xi =
X2 =
XQ = X -

f2 (x)

13 | Non, en vertu du théorème du rang.


Si m > n il n'existe ni d'applications linéaires injectives de 1 dans Rn, ni d'applications
'

linéaires surjectives de Rn dans Rm.


98 Applications linéaires et matrices

"771 1. a; € Ker/fc = fk (x) =


0 => fk+1 (x) = 0 = x G Ker/fe+1. Puisque /
'
est un endomorphisme, on a : / (E) C E> d'où fk (f (E)j C fk (E), c'est-à-dire
Im/fc+1 Clm/fc.
2. D'après 1. :

(a)) <=> (dim Ker / = dim Ker/2) «=*


(n -

rg/ = n -

rg/2 )
<=^rg/ =
rg/2
ce qui, toujours d'après 1, équivaut à (b).
Pour (c) montrer que Im/ D Ker/ =
{0} et utiliser le théorème 1.33 ainsi que
le théorème du rang.

15 Montrer d'abord que f2 = 0 <^>- Im / C Ker/.


Utiliser le théorème du rang pour montrer que rg/ < 1. Il existe donc v G M3 tel que
pour tout a? G M3 on peut trouver A^ G R tel que f(x) \xv. Montrer que A^ dépend =

linéairement de x.

"Toi L 1. fm (E) =
/"H-1 (£) =^ /m+l (£) =
fm+r (£) j
etc

2. Soit x G i^m+2 : /m+2 (x) =


0 => / +1 (/(a;)) = 0 =* / (x) G Km+i =

Km=> / +i(aO =
0,etc.
IL 1. (a) On a JJr+i
=
JrJr d'où /
J. (J) =
/ (Jr) = = =

(b) Soit xeE-r (x) £Jr J2r =* fr (x) f2r {x') = =


; soit y =
fr (x') (y G
Jr ;)et2 x-2/.Ona f (z) fr {x) fr (y)
= = = -
= 0 donc z G KT.
2. (a) On a /C =
Ks. Si a: G /C, /s (x) 0 ; donc /|/ç est nilpotente.
=

(b) Soit a; G J tel que / (x) 0 ; puisque J


=
n^=1 Jn ' x G Jn =
,
Vn > 1. En
particulier x £ Js ' x fs {x'). D'où :
=

0 =
/(x) =
/s+1 (s') =» a/ G Ks+i =
Ks^fs (x') =
0 =» x = 0.

(c) Soit a; G Js PI /C ; on a x =
fs {x') et /s (a;) =
0 d 'où :

f* (xf) =
0 = x7 G K2s s Ks = /s (a/) =
0 = a; =
0

IIIJ.. On a : J Jr Jr+s= = et /C =
Xs =
jfiTr+a Il faut montrer que iS =

Jr+S © i^r+s- Utiliser les résultats de la partie II.

2. cf. IL

3. cf. IL

4. On a E =
Jr<&Ks.

fs (E) =
fs (Jr) =Jr =
J

f+HE) =f(J) =J

donc Js Js+i et par conséquent r < s.

(/r (a:)) (/s (x))


=

Soit x G Ks ; /* (x) G Jr et /s =
fr =
0 (car x £ Ks) ;

donc /r (a;) e JrnKs =


{0} ; ainsi Ks C Kr.
D'autre part r < s donc Ks D Kr et par conséquent Ks = Kr . Ceci implique
que la suite des noyaux est stationnaire déjà à l'indice r et donc s <r.

IV. Soit r l'indice de nilpotence de f\c . On a :

r(E) =
r(F) + no) =
r(F) = f

car f\p est un automorphisme ; de même :


fr+1(E) = F. Donc :

F =
Im/r =
Im/r+1
D'autre part : G C Ker/r C Ker/r+1. Soit x G Ker/r+1, x =
xp + xq avec xp G
F ,xq G G. /r+1 (x) =
0 =>» /r+1 (a;^) 0; comme /|j? = est un automorphisme,
/r+1|ir est aussi un automorphisme, donc xp = 0 et par conséquent Ker/7*"1"1 =
G.
Ce qui montre que G —

Ker/r Ker/r+1. =
Exercices

V. Si les dimensions des Ks croissaient strictement, elles finiraient par dépasser la


dimension de E.
Pour le contre-exemple, considérer l'endomorphisme / :
R[x]—>R[x] . On a : /C =

p'
'—*
P

U[x] et J = R [a:] ; donc K, et J ne sont pas supplémentaires dans R [x].

fi7 Soit v G Ker / et V = M (v)Bi = . En imposant AV = 0 on trouve le système :

{-2x
+ 3y +z =0
5z + y =0
4x +II3/ +3* =0

1
ce qui donne V = -5 (à un facteur de proportionnalité près).
17
Donc dim Ker / 1 et dim Im / 2. Pour avoir une base de Im
= =
/ il suffit de
prendre deux vecteurs colonnes indépendants, par exemple f (e±) et /(e2) c'est-à-dire
-2 / 3\
5 I I 1 I (on identifié vecteur de R3 matrice colonne dans

4y \uj
, a un avec sa

la base canonique, ce que l'on fera souvent dans la suite).


L'équation de Im / est 3 x + 2y —

z =
0.

18
1. Non, en vertu du théorème du rang.

2. Soit :

/ ai Û2 Û3 a-4
A =
M(f)ei,£j= h b2 b3 b4
C2 C3 a

î î î T
/(ei) /(e2) /(es) f {et)
En imposant que / (e^) G 7r on trouve : ci ai-\-bi (i 1,..., 4).
= = Ces conditions
sontéquivalentes à Im / C 7r.
Imposer, ensuite, vi, v2 6 Ker/ (c'est-à-dire Vect{i>i, v2} C Ker/). On trouve :

ai a,2 0,2 Oj\ + a2


A =
6i 62 62 &i + &2
01 +61 0,2 + &2 «2 + 62 ai + a2 -f 61 + 62
Il reste à imposer : Im/ 7r
(ce qui, d'après le théorème du rang, implique
=

dim Ker/ 2, donc Vect-j^i,?^}


=
Ker/). Comme Im/ C 7r, ceci équivaut à =

rg/ dim 7r
=
2, ce qui s'exprime par le fait que les colonnes ne sont pas toutes
=

proportionnelles à l'une d'entre elles. On trouve les matrices ci-dessus avec la


restriction : ai 62 02 61 7^ 0.

3. Non (il n'y a pas la matrice nulle).

19 f (x)+v =
x, où, v =
(3 À, 2 À, À). On détermine
A de manière à ce que x —

v G 7r.

On a :

(x 3A) + 2 (y 2A) + 3 (z X) = 0

\=^(x
- - -

=> + 2y + 3z)

Calculer /(ei), /(e2), /(es). On trouve :

7 -6 -9

10 l -1 -2 7 Figure 11
100 Applications linéaires et matrices

20 Nécessairement I =
h et B G M.2,z (K). On trouve :

-2-Sc l + 3c c

B
?_8c' _I+3c' c'
avec c,c El
=
,

21 On trouve :

Gn+i
=
an —2bn
c'est-à-dire J ûn+i
=
an+2an_i

[
:

bn+i =
-a>n bn+i = —

an

En utilisant les résultats de l'exercice 19. du chapitre 1, on trouve :

Q>n =

l (2n+1 (-1)*) + 6n = - i
(2- (-1)"-1) +

22 Démonstration par récurrence. Si AB ^ BAt on a :

(4 + B)2 = A2 + AB + BA + B2 ^ A2 + 2AB + B2

bi
23 Utiliser les notations suivantes. Soit l =
(ai,..., an) une matrice ligne et c =

bn
une matrice colonne. On a l c =
a\ b\ + h an bn. Si Zi,..., lp sont les lignes de A,
Zi c

employer la notation A = . On a alors : A c = et :

X II Cl,..., Cq

l\ Cl . .
.Il Cq
=
\\Aci,...,Acq
lp Cl . . .
Lp Cp

24 Utiliser les notations de l'exercice 23.


Pour 1. :

1*1. 1 mi 1
Ai A2 Bl Il Vi,..., Vr II B2 \\W1,...,WS\
kl
= = = =
, ,

\ >h 1
On a :

X II t/i,..., Vr Wi,..., WS

'
Zl Vi .
.Il
.
Vr hwi ..
.h ws

h vi h vr IkWl-'-lk Ws

rai rai vi ...


mi iv rai wi... rai ius

y mhvi...mhvr mhwi...mhws
J
Méthode analogue pour les autres.
Exercices

[~25 II faut vérifier que ||/ (v)\\ =


\\v\\ ,
Vv G R2. Dans la base canonique de M2, la

( cos0 sin0 \ ( a \ / acos0 & sin0 \


matrice de ^t est Si /
J (v)
— —

£ „. X

J
, ,

J )

on a
.

i>
\ 0 + 6 0
=

0 cos9 \ \
=

b v J
n „
.
, .
„ ,
^
cos
.

sin a sin
.

( x + 2y -\- z = x'
26 X'=AI y + 2z y'
[
= .

s = s'
En résolvant par rapport h x, y, z :

x =
x' -2y' + 3z'
y =
y' —

2 z' donc A~* =

z =
z'

|27J On a:

(/ -

N) (I + N + TV2 + + N73-1) = I

donc :

(I -

N)'1 =7 + iV + iV2 + ---

+ N?-1
On trouve :

1 -a a2 -b -a3 + 2ab-c \
0 1 a2 -b
A-*
-a
=

0 0 1 -a

0 0 0 1

1 0 0 \
28 A' = M (f)Vi =
( 0 1 0 I. En prenant, par exemple : v\ =

0 0 0/

f
2 3 3

«2=| 0 ) , v3= 2 I ,on a: P =


P&i- -10 2
-1
/ \ 1 0 1 1

Calculer A = PA,P~1.

29 0 0 c \
M(/)e, =
( a 0 0
0 6 0 y
30 1. Vérifier que TV(A + S) = TVA + TV£ et TV(ÀA) = ÀTVA.

2. Soit C =
AB, C =
(cifc), avec cik =

Y^=i aij bjk- On a : TV C =

J2?j=i aij fyi-


Soit D (dik),
= BA dik = avec =
X^=i bij ajk- On a : TV£> =

Z)^=i &»i aj'i-


Changer dans cette expression les notations en remplaçant i par j et j par i et
vérifier que TV C = TV D.

Trfp-M?) =

TV^-^AP)) =

TV^APJP-1) =
TV^PP"1) = TVA

3. Si cela était possible, en passant aux traces...

4. On trouve :
[D, D{\ = id.
NOTA. En dimension infinie il existe donc des endomorphismes A, B tels que
[A, B] = id (ce qui est exclu en dimension finie). L'existence de cette relation
permet de justifier le principe d'indétermination d'Heisemberg, fondamentale
en Mécanique Quantique. Ce qui explique aussi pourquoi la formalisation de
la Mécanique Quantique exige l'utilisation des espaces vectoriels de dimension
infinie.

| 31
| Calculer /(l), /(#), f (x2) et imposer qu'ils appartiennent à ï [x]. On trouve que
c'est le cas si et seulement si a + 2b =
0. On a alors :

/le 0

M{fhltXtX2}= 1 f
V
-26
0 -b
1
l + 2c
0

Si c = ou bc =
on a rgA = 2 ; sinon rgA = 3.
2
102 Applications linéaires et matrices

32 On trouve :

01 (x) =
X\ , 02 (x) =
—Xl + X2 , 03 (#) =
-ÎC2 + #3 ,

flfc+i (x) = —

Xk + 3fc+i, , 0n (a?) = —

xn_i + xn

33 <pi
-

10(^2 + 7y?3 = 0

34 Notons {cji, CJ2» ^3} la base de M3** duale de {y>i, y?2, ^3} : cj» (^) =
5»j.
Comme M3* R3, avec les notations de page 86 il existe vi, V2iî>3 G M3 tels que <É>Vi =
~

a»i ; donc §Vi{<Pj) =


ôij, c'est-à-dire <Pi(vj) ôij. En d'autres termes {^1,^2,^3} =

est la base duale de {vi,V2, V3}.


-18
En imposant ^i(vi) 1, ip2(vi) 0, ^3(1*1) 0, trouve I 7

V
= = = on : v\ =

De la même manière, on trouve : V2 =


/"M
I —2 et 1*3 =
fI —13\I.

35
1. Vérifier que (p o
/ est linéaire.

2. Simples vérifications, sauf pour (d), qui elle en revanche se démontre très
facilement à l'aide de la question 4. qui suit ( ce qui montre que parfois le point de
vue des applications est plus commode (comme pour (c)) et parfois il est plus

commode d'utiliser le point de vue des matrices.

3. Pour (e) ,
montrer d'abord que t(idJg;) =
id^* ; appliquer ensuite (c) à /o/-1 =

\dp et à f~1 o
f =
id#.
4. Soit :

/ au...ain \ ( b\\...b\n
A=i et B =

M(*/)^iV,i= I
y an± ...
ann J y bni... bnn
c'est-à-dire :

p n

/ (e*) =
$^ <*ki ei et (*/) tyj) =

^2 bi<* ^a
t=l a=l

En déduire :
(ipj o
/) (ek) =
akj et (*/) (ipj) (ek) =
bjk ,
d'où :
bjk =
akj et
donc B = lA.

36 1. Soit <p G G0 ; Vy G G on a (p (y ) = 0 ; en particulier : ip (x) =


0, Va; G F.

2. Soit <p G (F + G)0 ; Vx G F , Vy G G : y? (x + #) = 0 ; en particulier, en

prenant x =
0,p ,
on voit que y? G G0 ; en prenant y =
0g : <^ G F0.
Réciproque facile.
3. Montrer d'abord que F C F00 ; puis que dim F = dim F00.
4. Remplacer dans 2. F et G par F0 et G0 et prendre l'annulateur des deux membres.

37 (p E Qmf)° <p(f(x)) 0, Va; G F «= (* / o y>) (x) 0, Vx G F


<=* = =

*/o v> 0<=>y>€Ker(t/).


<=> =

Appliquer le théorème du rang à */ et la proposition 3.39 page 87 au sous-espace Im /.


Chapitre 4

Déterminants

Comme nous l'avons déjà fait remarquer, la notion de dépendance ou indépendance linéaire
intervient, d'une manière ou d'une autre, dans les différents problèmes d'algèbre linéaire.

Jusqu'à présent, la seule méthode que nous avons vue pour savoir si un système de vecteurs
est libre, est celle qui consiste à étudier un système d'équations linéaires par élimination, ou
encore
-

ce qui au fond revient au même -

à échelonner une certaine matrice.


Le principal explicites d'indépendance
intérêt des déterminants est de fournir des conditions
linéaire, quelque sorte des formules qui permettent de savoir si une famille de vecteurs est
en

libre ou non. Appliquée aux systèmes d'équations linéaires, la notion de déterminant permet
d'obtenir les conditions de compatibilité sans que l'on soit obligé de chercher explicitement
la solution et elle donne aussi des formules pour la solution. L'intérêt de cela apparaît
clairement lorsque l'on étudie les systèmes d'équations avec paramètre (comme nous le ferons
au chapitre 6. pour le calcul des vecteurs propres) : la théorie des déterminants permet de

donner immédiatement les conditions sur les paramètres pour que le problème admette une
solution, alors qu'une étude directe par la méthode d'élimination conduirait à des calculs
compliqués et surtout ne permettrait que très artificiellement d'avoir des résultats généraux.
La présentation que nous donnons ici n'est pas la plus élégante, mais elle permet d'effectuer
immédiatement les calculs et de se familiariser rapidement avec la notion de déterminant
et ses applications. Il est important, cependant, de comprendre que le déterminant est une

n-forme multilinéaire alternée car l'on voit ainsi d'une façon très naturelle le lien entre la
notion de déterminant et les problèmes d'indépendance linéaire.
Nous donnerons cette caractérisât ion au paragraphe 2 et 4 (cf. théorèmes 4.2 et 4.11) ; au
paragraphe 10 nous mettrons en évidence l'interprétation géométrique par le volume. La
notion d'orientation est présentée au paragraphe 11.
Comme toujours, le corps K est supposé commutât if.

Nota -

Les démonstrations en petits caractères peuvent être sautées en première


lecture.

4.1 Définition des déterminants par récurrence

Définition 4.1 Soit A =


(a^) G Mn (K). On définit, par récurrence, une
-

application : dét :
Mn(K) — K de la manière suivante :

Si n =
1, c'est-à-dire si A =
(a), on pose dét A
=
a ;

si n > 1 ,
notons Aij la matrice obtenue de A en supprimant la ieme ligne et
la jeme Hgne colonne (c'est-à-dire la ligne et la colonne qui passent par Vêlement

103
104 Déterminants

dij) ; on pose alors ( puisque Aij G Mn-i (K) ) *

dét A =
au détAn + + (-l)k+laik dét Alk + + (-l)n+1 alndétAln
Le scalaire dét A est dit déterminant de A et le déterminant de la matrice

(an cbin \ an 0>lr


"

est noté, habituellement

\ &ral Q"nn ] Uni


' ' "

Exemple 1 :

4 -1
3 2
= 4x2 -

(-1) x3 = 11

Plus généralement :

a c
= ad bc
b d

Exemple 2 :

1 -2 3 1 -2 3 1 -2 3 1 -2 31
2 1 -1 = 1 2 1 -1 -(-2) 2 1 -1 + 3 2 1 -1
1 5 1 1 5 1 5 1 1 5 1

1 -1 2 -1 2 1
1 ("-2) + 3
-

5 1 1 1 1 5

=
(1 + 5) + 2(2 + 1) + 3(10 -

1) =
39

Plus généralement

b'\
a a a
b' b" b b" b
b b' b" = a 1 II
-

a h + a"
C c c c c c

a(b'd' -

b"c') -

a,(bc,/ -

b"c) -h a"{bc' -

b'c)
ab'c" + a'b"c + a"bc' -

a"b'c -

a'bc" -

ab"c'

Règle de Sarrus

Ce résultat permet d'énoncer la règle de Sarrus pour le calcul d'un déterminant d'ordre 3 :
le déterminant d'une matrice d'ordre 3 est la somme de six termes, trois affectés du
signe + et trois du signe —

les produits signe + contiennent soit les trois termes de la diagonale principale,
affectés du
soit deux termes parallèles à cette diagonale ;
pour les produits affectés du signe —, on procède de même en changeant de diagonale.
-

Plus précisément, voici le schéma de cette règle (dont le seul intérêt est d'effectuer plus vite
les calculs) :

+ +

ab'c" + a!b"c a"bc' a"b'c a'bc" ab"d

(Bien entendu, cette règle ne s'applique qu'aux matrices d'ordre 3).


4.2 Les déterminants vus comme formes multilinéaires alternées 105

Exemple 3 :

an 0 0 Q>22 0 0

Û21 0,22 0 '. CbZ2 Û33 0


=
an

: * 0 * 0
0»n\ 0>n2 CLnn

a33 0 0

: '-. 0 :
=
an a22 = =
ail «22 a33 an
- - -

: * 0
I Q>n3 CLnn I

Le déterminant d'une matrice triangulaire (relativement à la diagonale principale) est

donc égal au produit des termes de la diagonale.

Exercices 1. 2.

4.2 Les déterminants vus comme

formes multilinéaires alternées

La propriété fondamentale des déterminants est exprimée par le théorème suivant :

Théorème 4.2 -

1. Le déterminant est application linéaire, par rapport à chaque, colonne,


une c'est-a-
dire : si A =
\\ ci,..., cn \\ alors, VÀGiï',Vfc l,...,n: =

(a) dét || ci,..., Acjb,...,Cn || A dét || ci,..., cjb,..., cn || =

(b) dét || ci,..., a*. + 6jb,..., Cn || =

dét || ci,..., afc,..., Cn || + dét || ci,..., 6fc,..., Cn ||

2. Si deux colonnes sont égales, le déterminant est null.

NOTA. -

Nous verrons une réciproque de cette propriété (cf. proposition 4.11) en ce sens que toute

application multilinéaire et alternée, c'est-à-dire qui vérifie les propriétés 1. et 2. ci-dessus, est,
dans une certaine base, le déterminant d'une matrice.

Démonstration
2
: Par récurrence sur n.

Pour n = 1 il n'y a rien à démontrer.


Pour n = 2 c'est une simple vérification. On a :

| Xa c a c

Xb d
Xad —

Xbc=X(ad —

bc) = A
b d

+ a'
(a + a') b') c {a' d-b'c)
c
b c) +
a

b + b' d
d -

(b + =
(a d -

a c a c

b d b' d

'Tour une raison que l'on verra (cf. corollaire 4.3 page 107), cette propriété s'exprime
par la suite
en disant que le déterminant est application alternée.
une

2Cette démonstration est tirée de S. Lang : Algèbre linéaire 1, InterEditions, Paris, 1976.
106 Déterminants

ce qui montre la linéarité par rapport à la première colonne. De la même manière, on vérifie
la linéarité par rapport à la seconde colonne,
la al
Enfin
b b
=
ab —

ab =
0 et la, propriété 2. est vérifiée.

Supposons le théorème vrai jusqu'à l'ordre n —

1 et soit A G Mn (K).
Montrons d'abord la linéarité de dét A par rapport à la kème colonne où k G {1,..., n}.
D'après la définition, dét A est une somme de termes du type :

(-l)1+j aij dét Axj

(an
Il suffira de vérifier que chacun de ces termes dépend linéairement de la kème colonne.

a\j a±k ciin


-

: : : :

&71I 0>nj Unie ^nn,


" " ' ' ' ' ' ' '

Dans ce ne dépend pas de la kème colonne, alors que la matrice A±j contient
cas, le terme a\j
la kème colonne. D'après l'hypothèse de récurrence, dét A\j est une fonction linéaire de la
kème colonne. Ainsi, a\j dét A±j dépend linéairement de la kème colonne.
Si j k, aij
=
aïk dépend linéairement de la kème colonne, alors que A\k ne contient pas
=

la kème colonne. Aussi, a\k dét A\k dépend linéairement de la kème colonne.
Ainsi dans tous les cas, dét A dépend linéairement de la kème colonne.

Il reste à montrer que si deux colonnes sont égales, le déterminant est nul.

Lemme (a) :

Si deux colonnes adjacentes sont égales, le déterminant est nul.

(an
En effet, supposons par exemple que Ck =
Ck+i et soit j un indice différent de k et de k +1.
>

a-ij a^ a^ aln

: : : : :

CLnl CLnj Q-nk CLnk «r


* " " ' '"

Cette matrice d'ordre n —

1 a deux colonnes égales, donc, d'après l'hypothèse de récurrence,


son déterminant est nul. Aussi, dans le développement de dét A tous les termes du type
aij dét Aij avec j ^ k et j ^ k H- 1 sont nuls. Il reste :

détA=(-l)1+kalkdétAik + (-l)1+fc+1 ahk+i dét Alyk+i


Or Ck =
Cfc+i, donc a\k =
a>i,k+i et Aïk =
A\}k+i ; les deux termes se compensent et par

conséquent dét A = 0. 0
Lemme (b) :

Si dans un déterminant on échange entre elles deux colonnes adjacentes, le déterminant

change de signe.
En effet, remplaçons dans la matrice A la jème et la (j + l)ème colonne par leur somme

cj + Cj+i. D'après le lemme (a), on aura une matrice à déterminant nul :

dét||Ci,...,Cj +Cj+i,Cj +Cj + i,...,Cn|| =


0

En utilisant la linéarité par rapport à chaque colonne que nous avons démontrée ci-dessus,
on a :

0= dét ||C1,..., Cj,...,Cn||


Cj, + dét||ci,...,Cj, Cj + l,...,Cn||
+ dét||ci,...,Cj+i, Cj,...,cn|| + dét||ci,...,Cj+i, c^+i,... ,cn||
4.2 Les déterminants vus comme formes multilinéaires alternées 107

En utilisant le lemme (a), on voit que le premier et le quatrième termes sont nuls et donc

que :

dét||ci,...,Cj, Cj + i,...,Cn||
=
-dét||ci,...,Cj + i, Cj,...,Cn||
ce qui montre le lemme .
0

Revenons maintenant au quelconques soient égales,


théorème et supposons que deux colonnes

par exemple c% échanges


=
Ck. Par adjacentes, on peut modifier la
successifs de colonnes

matrice jusqu'à ce que les deux colonnes égales soient adjacentes. Chaque fois que l'on fait un
tel échange, le déterminant change de signe d'après le lemme (b) ce qui n'a pas d'incidence

sur le fait qu'il soit nul ou non. Puisque, lorsque les colonnes égales sont adjacentes le

déterminant est nul d'après le lemme (a), il le restera lorsque a et Ck sont deux colonnes
quelconques égales. D

Le théorème que nous venons de démontrer entraîne toute une série de propriétés
importantes.
Corollaire 4.3 Si l'on échange entre elles deux colonnes, le déterminant change
-

de signe.

La démonstration est analogue à celle du lemme (b). Remplaçons dans la matrice A


les colonnes Ci et Ck par leurs sommes. On a :

0 = dét|| Ci, Ci + Cfc,


..., Cf + Cfc, ..., ..., Cn || =
dét II Ci, ..., Ci, ..., Ci, ..., Cn H
+ dét H Ci, Ci, Cjb,
..., Cn H +
..., ...,
dét II Ci, ..., Cjfe, ..., Ci, ..., Cn II
+ dét H Ci,..., Cfc,..., Cfc,...,Cn H

Le premier et le dernier termes étant nuls, d'après la propriété 2. du théorème 4.2, on

obtient facilement le résultat.

Permutations des colonnes

Soit A ||ci,..., cn|| et A! une matrice obtenue en changeant l'ordre des vecteurs

colonnes de A (on dit que A' est obtenue de A par permutation des vecteurs colonnes).
Par exemple A ||ci,C2,C3,C4|| et A' ||c4,C3,ci,C2||.
= =

Il est facile de sequ'en échangeant entre elles deux colonnes on peut,


rendre compte
par de tellesopérations successives, passer de A' à A.
Il y a même une façon standard de le faire qui consiste à mettre d'abord la colonne

ci à la première place, puis c<i à la seconde, etc.


Par exemple :

A! =
||C4,C3,C1,C2|| en échangeant
>
||C1,C3,C4,C2|| en échangeant
>
||C1,C2,C4,C3||
Ci et C4 Ci et C3

en échangeant
||C1,C2,C3,C4|| =
A
C3 et C4

L'opération qui consiste à échanger entre elles deux colonnes en laissant fixes les autres
est dite transposition des colonnes. A chaque transposition le déterminant change de
signe et donc, dét .A' =
(—l)r détA où r est le nombre de transpositions nécessaires
pour passer de A à A'.3 En particulier, si détA =
0 alors détA7 =
0.
Dans l'exemple précédent : r =
3 donc dét A! = —

dét A.

Pour une présentation plus détaillée de ces questions, cf. paragraphe 3.


108 Déterminants

Exemple -

Calculer
0 0 0 10
10 0 0 0
A =
0 0 0 0 1
0 10 0 0
0 0 10 0

A = dét ||e2,e4,e5,ei,e3|| = -dét ||ei,e4,e5,e2,e3|| = dét ||ei,e2,e5,e4,e3||

1 0 0|
0 '

-dét||ei,e2,e3,e4,e5|| = -

0 = -1

0 1

Ces remarques permettent de démontrer le théorème principal, celui qui motive


l'introduction de la notion de déterminant.

Théorème 4.4 -

Soit A =
||ci,... ,cn|| G Mn(K). Alors les vecteurs ci,...,cn
forment une base de Kn si et seulement si dét A ^ 0.

Ou, d'une manière équivalente, (en prenant la contraposée) :

Un déterminant est nul si et seulement si Vune des colonnes est combinaison linéaire
des autres colonnes.

Démonstration : Supposons, quitte à changer l'ordre des colonnes (ce qui n'a pas
d'incidence surle fait que le déterminant soit nul ou non) que la première colonne
soit une combinaison linéaire des autres :

A =

iiX/^Ci'C2'--->Cnii
2=2
En utilisant la linéarité, on a :

dét A =

^ ^* dét II Ci> C2> > cn ||


2=2

Or, chaque terme de la somme est un déterminant avec deux colonnes égales, donc
nul, et par conséquent dét A 0. =

Réciproquement, soit {ci,...,cn} une base de Kn et montrons que si on avait


dét || || =0
ci,..., cn l'on aurait une contradiction.
Puisque {ci,..., cn} est une base, tout vecteur v de Kn s'écrit comme combinaison
linéaire de ci,..., cn. Soient :

vi '3 ^3 V2 Y2bkck ,..., vn =


^ 91 ci
3 = 1 k=l 1=1

n vecteurs quelconques de Kn. On a, en utilisant la linéarité par rapport à chaque


colonne :

n n

\\^2<ij Cj, ]P bk cfe,..., ^gi c/||


n

dét \\vu ..., vn\\ =


dét
j=i fc=i i=i
4.3 Permutations, transpositions, signature 109

J2 ^2 '"

Ylaô hk ' '


9i dét \\cj9cki. ,cz||

Or, chaque terme de cette somme est du type a dét \\cj , c^,..., c\ ||, où a est un scalaire
et les indices j, fc,..., quelconque des nombres 1,2,..., n. Si deux indices
/ sont l'un
sont égaux, ||cj,Cfc,... ,q|| 0; si tous les indices sont différents, ||cj,Cfc,... ,c/||
=

est obtenue par permutation des colonnes de la matrice ||ci,..., cn||. Puisque le
déterminant de celles-ci a été supposé nul, le terme a dét || CjyCk,... ,c/|| est nul
et, finalement, dét \\vi, ..., vn\\ 0. =

Mais ceci est impossible, car v\,..., vn sont des vecteurs arbitraires (il suffit de
prendre pour {vi,..., vn} la base canonique {ei,..., en} de Kn : dét ||ei,..., en|| =

dét/n =
l).

Exercices 3. 4. 5.

4.3 Permutations, transpositions, signature


Dans ce paragraphe, nous plus précise certaines notions que
allons définir d'une manière
nous avons paragraphe précédent.
introduites et utilisées au

Comme nous l'avons vu, un rôle important dans la théorie des déterminants est joué par les
permutations des colonnes. Voici la définition précise de la notion de permutation.

Définition 4.5 -

On appelle permutation de {1, 2,... ,n}; toute application bijective :

<r:{l,2,...,n}—>{l,2,...,n}
L'ensemble des permutations de {1,2,..., n} est noté Sn.

Puisque a est bijective, l'ensemble des valeurs de a, {cr(l), <j(2), ,a(n)}, possède ... n

éléments distincts et donc est composé des entiers 1, 2,... ,n rangés dans un ordre
éventuellement différent.
Par exemple, l'application a : {1, 2, 3, 4} —> {1, 2, 3, 4} telle que cr(l) =
4, cr(2) =

1, cr(3) 3, a (4)
= 2 est une permutation : a € S±.
=

Comme il est bien connu, <Sn contient n ! éléments (n ! 1 2 3 = ...


n).
La notation habituelle pour une permutation consiste à écrire dans une première rangée les
entiers 1,2,..., n et au-dessous leurs images par a :

( 1 2 \
)
n

a-\*(l) a(2) a(n)


_

...

Ainsi, la permutation de l'exemple ci-dessus s'écrit :

/ 1 2 3 4 \
'^4 1 3 2J
Si cri et cr2 sont deux permutations dans Sn, on peut former la permutation produit ai o<72.
Par exemple, si :

/1234\ /1234\
(,4 ) { )
6t
^
cri =
°2 =

1 3 2 3 1 2 4
110 Déterminants

on a :

ai o cr2 (1) =
cri (3) = 3 , <n o a2 (2) =
ai (1) = 4

ai o (72 (3) =
(71 (2) = 1 , G\ O <72 (4) =
(71 (4) = 2

donc :

/ 4 \

fflCaa=l J
1 2 3
3 4 1 2

On écrira aussi, d'une manière naturelle malgré l'abus de notation :

/ 1 2 3 4 \
I 3 1 2 4 I
J
<7i O (72 =
a2

\ 3 4 1 2 <r1oa2

De même, puisque <7 est bijective, on peut considérer la permutation inverse a"1. Dans
l'exemple précédent :

/ 3 4 \

(, J
i 1 2
ai 2 4 3 1
_
-

Définition 4.6 -

On appelle transposition permutation qui échange entre une eux deux


éléments différents et laisse fixes les autres. Les transpositions seront notées r^t, ...

Par exemple :

/ 1 2 3 4 5 \

\ )
T~
1 4 3 2 5
_

est la transposition de «S5 qui échange 2 et 4.

Remarquons que si r est une transposition, r2 = id et donc r-1 = r.

Comme nous l'avons vu au paragraphe précédent, on peut obtenir une permutation en

effectuant plusieurs transpositions successives. Par exemple :

'=
/i2S4\
4132
= /;?;;\ par.qm échange 1 et 4
v
\ 4 1 3 2 / par échange 1 et 2
'
r2 qui

donc (7 =
ri o n.

Proposition 4.7 -

Toute permutation peut se décomposer en produit de transpositions.


Démonstration : Soit o G Sn> Raisonnons par récurrence sur n.

Pour n = 1 il n'y a rien à démontrer.


Supposons la propriété vraie jusqu'à l'ordre n —

1 et considérons une permutation o G Sn.


Soit k cr(n), c'est-à-dire

"i1 l)j
= :

2 '"

y * * k
Deux possibilités peuvent se présenter :

1. k =
n. Ceci veut dire que l'élément n est fixe et que donc o est une permutation de
{1, 2,... ,n 1}. D'après l'hypothèse de récurrence o est un produit de transpositions.
2. k 7^ n. Considérons alors la transposition r qui échange k et n et soit o\ = r o o.

On a :

<7i (n) =
ro(n) =
r(k) =
n

Donc ai laisse fixe n, et d'après l'analyse du cas précédent, elle se décompose en

produit de transpositions : o\ =
n o o
rp.
On aura donc : r o o =
n o o
rp, d'où, en composant avec r à gauche :

(7 T O Tl O O
Tp
=

car r2 =
id. Donc o est un produit de transpositions.
4.3 Permutations, transpositions, signature 111

Remarquons que la façon de décomposer a en produit de transpositions n'est pas unique.


Par exemple, si :

/ 1 2 3 4 5 \
a={ 4 3 5 1 2
J
on a :
/ 1 2 3 4 5 \

/ 1 2 3 4 5
\ '21345*
4 2 3 15 4 13 2 5
et aussi a =

4 5 3 12 4 3 12 5

\ 4 3 5 1 2
) 4 3 5 2 1
V 4 3 5 1 2 /
Dans le premier cas, a est produit de 3 transpositions, dans le second cas elle est le produit de
5 transpositions.

Cependant, ce qu'il y a de remarquable, et important pour la suite de la théorie, est que la


parité du nombre de transpositions (c'est-à-dire le fait que ce nombre soit pair ou impair)
est indépendante de la décomposition. On a :

Théorème 4.8 Soit a une permutation. S'il existe une décomposition de a en un nombre
-

pair (respect. impair) de transpositions, alors toute autre décomposition de a comportera


:

un nombre pair (respect. : impair) de transpositions. Par conséquent, le nombre :

£ (a) :=(-!)"

(où p est le nombre de transpositions dans une décomposition de a) est indépendant de la


décomposition. Ce nombre est appelé signature de a.

Démonstration : Il existe une démonstration directe de ce résultat (par des raisonnements


de combinatoire). Cependant, on peut le démontrer facilement en utilisant les résultats du
paragraphe
4
2.
Le corollaire 4.3 dit en effet que si l'on échange entre elles deux colonnes le déterminant
change de signe. Avec les définitions de ce paragraphe, cela peut s'énoncer de la manière
suivante :

Soit r une transposition de {1,2,..., n}. Alors :

dét ||vT(1),..., vT{n) || =


dét ||vi,..., vn \\
-

Soit maintenant a une permutation et considérons deux décompositions de a en produit de


transpositions :

a n o o
rp
=

g =
t\ o o
tq
Il s'agit de montrer que : (-l)p (-l)g. =

Soit {ei,..., en} la base canonique de Kn et A =


dét ||ea(!),..., ea(n)||. On a :

A det
||eTlOT2o...oTp(l)î eT1OT2o-OTp(n) H —det
||er2o...orp(l)) er20".orp(n)||
=
î >

=
+dét||eT3o...oTP(i),--.,e^o...oTp(n)|| = =
(-l)pdét ||ei,... ,en|| =
(-l)p

De même, en utilisant la deuxième décomposition, a =


t\ o o
tq, on trouve A =
(—l)9,
d'où :
(-l)P =
(-1)9. n

Au paragraphe 2, nous n'avons admis que la proposition 4.7 que nous venons de démontrer.
112 Déterminants

On a immédiatement les propriétés suivantes :

Corollaire 4.9 -

1. Sir est une transposition, e(r) =


1.

2. £(ai ocr2) e(<7i) £(0-2), Vc7i,<72e<Sn


=

3. eia'1) =e(a), Va <E <Sn


4. dét \\va(1),..., vff(n) Il e (a) dét ||wi,..., vn ||.=

Vérifions par exemple 2. Soient ai =


ri o o
rp et ai
=
t\ o o
tq. On a : ai o 02 =

n o o
rp o t\ o o
tq, donc :

e (m o
a2) =
(-l)p+« =
(-l)p (-1)' = e (<n) e M
Les autres propriétés se démontrent tout aussi facilement.

Exercices 6. 7.

4.4 Une formule explicite pour le déterminant

A l'aide des résultats du paragraphe 3, on peut donner une formule pour calculer les
déterminants, dont l'intérêt est surtout théorique : elle va nous permettre de démontrer certaines
propriétés importantes des déterminants.
Commençons par le cas n = 2.

( ) ||ci,C2||, {ei,e2}
n
Soit A = = où ci,C2 sont les vecteurs colonne de A. Si est
\ ^21 0,22 )
la base canonique de K2 :

ci =
an ei + a2i e2

C2 =
ai2 ei 4- a22 62
En utilisant les propriétés fondamentales vues au paragraphe 2., on a :

dét A =
dét||an ei + a2i e2, ai2 e± H- «22 621|
=

N
anai2dét||ei,ei|| +an a22dét ||ei,e2|| '
+ a2i ai2dét ||e2,ei||
v

=0

+
>
a2ia22dét ||e2, e2|| '
=
(an a22 -

a2i ai2)dét ||ei,e2||


v

=0
=
an a>22 0,21 ai2

(on retrouve la formule vue au paragraphe 1).


Considérons maintenant le cas n = 3 et soit A =
||ci,C2,C3||, avec :

ci =
an ei + a2i e2 + a3i ez =
Y2i=i a*i e*

c2 =
a\2 ei + 022 62 + a32 ez =

Y^j=i aJ2 ej
C3 =
ai3 ei + a23 £2 -h azz £z =
Sfc=i afc3 efc
On a :
333 3

dét A = dét \\ 2^0,11 ei, 2Zaj2ej> z2ak3ekW =

a2 ail aj2 ak3 ^ lle^ei' e^ll


i=l .7 = 1 fc=l i,j,fc=l

Lorsque deux des indices i, j, & sont égaux, le terme correspondant dans la somme est nul
(car le déterminant qui y intervient a deux colonnes égales). Il reste les termes
correspondant aux indices {i, j, k} avec i, j, k variant entre 1 et 3 et différents entre eux, c'est-à-dire
correspondant à toutes les permutations de {1,2, 3}. Par exemple {i, j, k} égal à {3,1,2} ou
à {1,3,2}, etc.
En changeant de notation et en posant :
4.4 Une formule explicite pour le déterminant 113

i =
a(l) , j =
a(2) ,
k =
cr(3) avec a e S3

2J lle^(i)' ea(3)|
on a :
dét A =
<Mi)i ûa(2)2 <M3)3 dét e^(2)?
<res3
=

^2 £(a) acx(i)i Q>o(2)2 a<r(3)3 dét||ei, e2, e3 |[

Z2 € (^ a^(l)l a<r(2)2 ^(3)3


0ES3

Plus généralement, on démontre exactement de la même façon :

Proposition 4.10 Si A =
(aij), on a :
-

dét A =

^^ e (a) aa(i)i aCT(2)2 aff(n)n


aesn

Exemple
-

Explicitons le résultat pour n =


3. Cherchons d'abord toutes les permutations
de {1,2,3}. On a:

<$3 =
{cri, (72, CT3, Ti, T2, T3}
ou :

-(iîî)
/ 1 2 3 \ / 2 3 \
J 'a2=V23lJ
1

V
0~\ = id =
0-3
1 2 3

/ 1 2 3 \ / 1 2 3 \
~\1 J
Tl T2 T3
3 2 ^ 3 2 1 y
'

On vérifie facilement que e (ai) =


1 et e (r») = —

1 (i =
1,2,3), d'où :

dét A =
an G22 ^33 + a2i 032 ai3 + CI31 ai2 «23
an a32 a23 «31 a22 ai3 a2i ai2 a33
— — —

(on retrouve ainsi la formule de Sarrus).


La formule ci-dessus nous permet de montrer que toute application qui vérifie les propriétés
1. et 2. du théorème 4.2 est en fait le déterminant d'une matrice dans une base opportune.

Commençons par le cas n = 2 et considérons une application / : l2 x M2 — R


-

bilinéaire (c'est-à-dire linéaire en chaque facteur)


-

et alternée, c'est-à-dire telle que / (i>, v) = 0 Vv G M2


(ce qui équivaut à f (v, w) = —

/(iu, v), Vi>,u> G R2) (cf. corollaire 4.3 page 107).


Soit {ei,e2} la base canonique de M2 et v =
ae± + 6e2, w =
ce\ + de2, deux vecteurs
quelconques de M2. On a :
f(vyw) =
f(aei + 6e2, cei + de2)
=
ac/(ei, ei) + ad/(ei, e2) + 6c/(e2, ei) + 6d/(e2, e2)
=
(ad 6c) /(ei, e2).
-

c'est-à-dire
/(v,w) = dét II v,w ||Ci /(ei,e2)
Ceci montre que si /(ei,e2) =
/ identiquement nulle, ou, en prenant la contra-
0 alors est

posée, que si / n'est pas l'application nulle, /(ei,e2) 7^ 0. Si donc / =£ 0, en remplaçant /


/
par l'application / on a :
/(ei,e2)
:
,

dét||u,iu||ei =
f(v,w)
114 Déterminants

On peut énoncer ce résultat aussi de la manière suivante :

Soit f : M2xM2 — R une application bilinéaire alternée telle que /(ei, e<i) =
1,
{ei,e2} étant la base canonique. Alors

f(v,w) = dét A ,
où :
A=||v,w||

De la même manière, en utilisant la formule de la proposition 4.10, on prouve :

Proposition 4.11 -

Soit E un espace vectoriel de dimension n sur K et

f :E x x £ — K

nfois

une application multilinéaire et alternée, c'est-à-dire vérifiant :

<*) f(vii...,\Vi + IJLWii...iVn) =


\f(yii...,Vi)...iVn) + M / (*>1, , Wi, , Vn )
b) /(vi,...,Ut,...,t;t,...,Vn) = 0

Soit {ei,...,en} une base de E et {vi,...,vn} n vecteurs de E. On a alors :

f ( vi}..., vn ) =
dét || vi,..., vn ||(ci) /(ei,..., en )

Exercice 8.

4.5 Déterminant de la transposée d'une matrice


Théorème 4.12 -

Pour toute matrice A e Mn(K), on a :

dét(*A) =
déti4

Démonstration : Soit A =
(a»j)- Comme nous l'avons vu :

dét A =

22 S (°") acr(l)l a<r(2)2


' * '

CL<x(n)n
aesn

Puisque le corps K est commutatif, on peut effectuer une permutation quelconque sur les
termes à second membre. Par exemple, on peut permuter les deux premiers facteurs :

a<x(l)l 0<t(2)2 &o(n)n 0><j(2)2 û<r(l)l 0>*(n)n


' '
= * ' *

Si r est la transposition qui échange 1 et 2, on peut écrire cela de la manière suivante :

Ûa(l)l acr(2)2 0>o(n)n Gaor(l) r(l) &<tot(2) t(2) &croT(n) r(n)


* = '"

Plus généralement, pour toute permutation p G <Sn :

Ûa(l)l a<r(2)2 0-or(n)n 0>aop(l) p(l) G<7op(2) p(2) O-o-opCn) p(n)


" = "

En particulier, pour p = <r-1

Û<j(l)l aa(2)2 Gcr(n)n al p(l) &np(n)


" = "

D'autre part e (p) =


e (cr-1) = e (cr) donc :

e(0")ûa(l)l *

aa( )
=
£ (p) Ol p(l)
"

Gnp(n)
4.6 Calcul des déterminants 115

<Sn, décrit aussi Sn et donc


x
Lorsque c décrit p =
<J :

détA=
^ £(p)alp(l) '"

anp(n)
pesn

Or ceci est exactement dét (*A). En effet, A (bij) bij a,ji ; donc
*
= avec = :

détCA)= 22 6(p)bp(l)l '"

bp(n)n= 2Z 6(P)alp(l) '"

anp{n)
pÇSn PtSn

On en déduit immédiatement :

Corollaire 4.13 Règle de «dualité» -

Toutes les propriétés des déterminants relatives aux colonnes peuvent être affirmées
pour les lignes.
Ainsi par exemple, les propriétés exprimées par les théorèmes 4.2, 4.3, 4.4 admettent
leur version duale :

Théorème 4.14 -

1. Le déterminant est une fonction multilinéaire de chaque ligne.


2. Si une matrice a deux lignes égales, le déterminant est nul.

3. Si Von échange entre elles deux lignes, le déterminant change de signe.


4. Le déterminant d'une matrice est non nul si et seulement si les vecteurs lignes
sont indépendants,
ou (d'une manière équivalente) :

un déterminant est nul si et seulement si Vune des lignes est une combinaison
linéaire des autres lignes.

Exercice 9.

4.6 Calcul des déterminants

Nous avons déjà calculé développement selon la Iere ligne (cf.


le déterminant par le
définition 4.1). Compte échange entre elles des lignes le
tenu du fait que si l'on
déterminant est le même au signe près, et compte tenu aussi de la règle de dualité, on
peut imaginer que le rôle de la première ligne peut être tenu par l'une quelconque des
lignes ou des colonnes, quitte à tenir compte du changement de signe.
Définition 4.15 -

On appelle cofacteur de Vêlement a^ le scalaire :

coî (aij) :=
(-l)i+j dét Aij

où A^ est la matrice obtenue en supprimant la ièrne ligne et la jeme colonne.


Par exemple, si :

1 0 -3\ 4 -2
A =
( 2 4 -2 , cof(l) =
+
-1 3
= 10
5-1 3 /

cof(O) = -

5 3
=-16 etc.
116 Déterminants

Remarques. -

1. Le signe (—l)1"1"-7 dans la définition de cofacteur est déterminé par le schéma suivant

(schéma en damier) :

/ + -

+ -

+ ... \

+ -

+ -

+ -

+ -

+
-

+ -

+ -

\ /
2. Avec cette notation, la formule de la définition 4.1, s'écrit :

dét A =
an cof (an) + avi cof (avi) + + a>in cof (ain)

Théorème 4.16 -

On a les formules suivantes :

Développement du déterminant selon la jème ligne :

détA =
aji coi(aji) + a^ cof(a^2) + + a,jn cof(a^n)

Développement du déterminant selon la jème colonne :

dét A =
aij cof (aij) + a2j coffaj) H- + anj cof (anj)

Démonstration : Il suffit de démontrer la formule du développement suivant la jerne ligne


(le développement selon la jerne colonne s'obtient par dualité, c'est-à-dire en remplaçant A

(an
par tA).
din \
: : et considérons la matrice B obtenue de A en échangeant
ani a-nn /
' ' '

la première ligne avec la jeme ligne (on aura : dét B = —

dét A) :

/bu bik bin \ / aji ajk ajn \


" - -

B =
Ojl b]jk oj
ujn au a>ik air, -jeme ligne

\ bnl ' '

bnk ' ' '

bnn / \ bnl ' ' '

ank Q>nn /

c'est-à-dire, pour tout k


=
1,..., n :

bifc =
ajk , bjk =
aïk et bik =
a^ ( si i ^ 1 et i ^ j)

Développons B suivant la première ligne selon la définition 4.1 :

détB =
bu cof(6n) + &12 cof(612) + + bin cof(bin)
=
dji cof(6u) + aj2 cof(612) + + ajncoî(bin)
4.6 Calcul des déterminants 117

Considérons l'un des termes de cette somme, par exemple a,jk cof (&ifc). On a :

\bn hk ' ' '

hn
«21 «2fc «2n

cof(6ifc) =(~l)1+k «11 Ûlfc


'

Ûln

«ni «nfc Q>nn 1


' *

«21 «2fc «2n


'

«11 Ûlfc «In


' '

«ni «nfc Q>nn


'*

Si maintenant on amène la (j l)ème ligne en 1ère —

ligne en effectuant (j —

2) transpositions
avec les (j 2) lignes qui la précèdent, on aura :

«11 ÛlJt «In


«21 «2fc «2n

cof(6lfc) =
(-l)1+fc+0-2) «11
"

«lit
'*'

«In
=
-C0f(ajA;)

«ni «nfc O'nn 1


* '
*

donc :

déti? = —

(dji cof (dji) + a,j2 coi(aj2) + + CLjn COf


(0>jn)j
Puisque dét B = —

dét A, on a la formule.

Exemple -

Soit :

1 -2 3
A = 2 1 0
1 -1 2

D'eveloppons A selon la IIIe ligne


-2 3 1 3 1 -2
détA= 1
1 0
"

(-1) 2 0
+ 2
2 1
= -3-6 + 10 = 1

Développons A selon la IIIe colonne :


-

dét A =
+3
2
1 -1
1
+ 2
i—i
2
-2|
1
9 + 10 = 1

Le calcul d'un déterminant ne présente pas de difficultés, mais il peut être très long.
La somme qui apparaît dans la formule 4.10 comporte autant de termes qu'il y a de
permutations dans <Sn c'est-à-dire n! (pour n 5 cela donne 120 termes, pour n = =

10 plus de 3 millions...). Cependant, le théorème fondamental 4.2 et sa version duale


4.14 permettent de simplifier les calculs. On utilise pour cela la propriété suivante :
118 Déterminants

Proposition 4.17 -

Le déterminant ne change pas si à une ligne (respect, à une

colonne) on ajoute une combinaison linéaire des autres lignes (respect, des autres
colonnes).

La démonstration est très simple. Ajoutons par exemple à la ieme colonne une

combinaison linéaire des autres colonnes, on a :

dêt\\vi,...,Vi +
52&i*JvJ>-->vn\\ =
dét||vi,...,Vi,...,v„||
+
Ej#i X3 WVU > Vi-Uvj>vi+U . .
, Vn
.

II =
dét ||vi, . . .
, Vi, . . .
, Vn ||
car dans la somme à second membre chaque terme est nul puisqu'il comporte deux
colonnes égales.
La méthode pratique pour le calcul des déterminants consiste à utiliser la propriété
ci-dessus de manière à faire paraître le plus possible de zéros sur les lignes ou sur les
colonnes.

Exemple -

Calculer
1 -2 1 3 4
1 -1 0 2 4
dét A 2 1 3 1 2
-1 0 1 1 3
0 1 -1 1 3

On a :

1 -2 1 3 4
0 1 -

-1 -1 0 L2-Li
détA =
0 5 1 -5 -6 L3-2Li
0 -2 2 4 7 L4+L1
0 1 -

-1 1 3

a première colonne

1 -1 -

-1 0 1 0 0 0
5 1 -5 -6 5 6 0 -6
dét;4
-

-2 2 4 7 -2 0 2 7
1 -1 1 3 1 0 2 3
C?2"fCi C3+C1

en développant selon la lere ligne

6 0-6
2 7
dét A =
0 2 7
2 3
=
6(6 -

14) =
-48
0 2 3

Exercices 10. 11. 12. 13.


4,7 Déterminant du produit de matrices. Déterminant d'un endomorphisme 119

4.7 Déterminant du produit de matrices. Déterminant d'un


endomorphisme

Théorème 4.18 -

Pour toutes matrices A,B e Mn (K), on a :

dét(AB) =
(déti4) (détB)

Pour toutes matrices A,B £ Mn (K)


Démonstration : Soient :

( an ai-n bu
A = =
||ai,...,an|| ,
B = =
||&l,...,&n
\ an\ bnl

( en Clr,

et: C =
AB =
||Cl,...,Cn||
\ Cnl Cnn
'''

On a, d'après la définition du produit de matrices :

Cik
2_^ aij bjk
=

donc :

3=1 aij \
Ck =

YlbJk :
bik ai + + bnk an

anj /
/ anj àjk
\
;

3=1

^bjkaj
3=1
d'où:

dét(AB) =
dét||ci,...,Cn|| = dét || y^ bji a3, ^ bi2 ai,..., ^ bin Oi\\
3=1 i=i

2Z bjibi2,. ,bin dét ||aj,az,...,«*||


j,l,...,i=l
En raisonnant comme dans la démonstration de la proposition 4.10, on voit que les
termes de cette somme avec j,Z,... ,i non tous distincts, sont nuls ; il reste les termes avec

jj Z,..., i variant de 1 à n et tous différents entre eux, c'est-à-dire {j, Z,..., i} permutation
de {1,2,..., n} . En écrivant, donc j = a
(1), l = a
(2), ...,
i =
a (n) avec a £ Sn on ,

aura :

dét (AB) =

^2 ba(i)i ba(n)n dét ||aa(i),..., aCT(n


<resn
=

^2 e(cr) 6^(1)1... 6ff(„)n dét ||oi,...,an|| =


(dét B) (dét A)
aesn
120 Déterminants

Corollaire 4.19 -

A e Mri(K) est inversible si et seulement si détA ^ 0 et Von a

alors :

1
dét^-1)^ détA

effet, supposons A inversible. Il existe alors A Mn {K) telle que A A


1 1
En G =
I ;
d'où dét(AA~1) 1 et par conséquent
=
(détA)dét(A'1) =
1. Donc détA ^ 0 et

dét(A-1)
v J
= -±-.
détA
Réciproquement, soit A =
||ci,... ,cn|| et supposons que détA =£ 0. Les vecteurs
colonnes de A forment donc une base de Kn (cf. théorème 4.4) et A est la matrice
de passage de la base canonique {e^} à la base {q} : A Pei—>Ci. =
Or, on sait que
les matrices de passage sont inversibles, (cf. proposition 3.24 page 77) donc A est
inversible.

Corollaire 4.20 -

Si A et A' sont deux matrices semblables (c'est-à-dire, si elles

représentent le même endomorphisme en des bases différentes), alors dét A =


dét A'.

En effet, puisque A' = P~x AP on a :

dét A' =
dét (P"1 AP) =
dét (P"1) (dét A) (dét P)
détA détP
detA
,, A
=

détP

Ce corollaire permet de poser la définition suivante :

Définition 4.21 Soit E un espace vectoriel de dimension finie et f un


-

endomorphisme de E. On appelle déterminant de f le déterminant de la matrice qui représente

f dans une base (quelconque) de E :

détf =
détM(f)ei

{ei} étant une base quelconque de E.

Exemple -

Calculer le déterminant de la matrice A qui représente dans la base canonique de R3


la symétrie par rapport au plan tï d'équation x + 2y + 3z 0, parallèlement à la droite =

x v
d'équation —
= —
= z

On pourrait calculer la matrice comme dans l'exercice 19 du chapitre 3. On trouve :

-1 -4
1
A=-\ -6 -3 12
3
V -2 -2 7

d'où détA —1, comme


= on le vérifie en effectuant les calculs. Cependant, on peut
procéder plus facilement de la manière suivante.
4.8 Calcul de l'inverse d'une matrice 121

On considère la base {^1,^2,^3} ou v\ est un


vecteur directeur de D et {^2,^3} sont deux
vecteurs indépendants de 7r. Si g est la symétrie
à 7r,
par rapport
on a :

g{vi) =
-vi g(v2)=V2 g(v3) =
v3

et donc dét g = —

Figure 1

Exercices 14. 15. 16. 17. 18.

4.8 Calcul de l'inverse d'une matrice

Théorème 4.22 Soit A G Mn (K) et cof (A) la œmatrice de A, c'est-à-dire la


-

matrice obtenue de A en remplaçant chaque élément par son cofacteur.


On a alors :

A1 cof {A) cof (A) A (détA)J


=
* =

En particulier, si A est inversible (c'est-à-dire dét A ^ 0), on a :

A~ 'cof (A)
dêtA

Démonstration : Considérons l'expression :

Oji cof (a/ci) + a,j2 cof(a/c2) + + ajn cof (akn)


si k =
j elle vaut dét A (il s'agit du développement selon la jerne ligne) ;
-

si k ^ j elle vaut 0. En effet, soit B la matrice obtenue de A en remplaçant la kerne ligne


-

par la jeme ligne. Son déterminant vaut 0, car B a deux lignes égales :

0 = détB =
aki cof(dfci) + + akn cof (akn)
=
aji cof (a/ci) + + ajn cof (akn)
On a donc

aj\ cof(afei) + aj2 cof (a^) + + Ojn cof (akn) =


ôjk dét A (*)
où ôjk est le symbole de Kronecker. On en déduit : A cof (A) (dét A) I En effet, dans
*
= .

l'expression (*) le premier membre est le terme de la jerne ligne et kèrne colonne de A cof (A)
*

et le second membre le terme de la


jème ligne et kèrne colonne de (dét A) I.
D'une manière tout à fait analogue, on démontre que * cof (A) A I D. =
122 Déterminants

Exemple 1 -

Soit A = ( „
I. On a dét A =
5 ^ 0, donc ^4 est inversible. On a

cof (3) 1 cof (-1) -2 cof (2) 1 cof (1) 3.

Donccof(A)=( J J ) (J ).
= = = =
, , ,

et A- = I
"J
Plus généralement, si >1 =
( ,
), avec ad —

bc / 0, on a:

aa oc
\ c a
y

/ 1 2 0
Exemple 2-A=l-l 3 0 dét A 3 2 5 7^ 0. Donc A est inversible.

V
= =

1-1/
— — —

0
Les cofacteurs des coefficients de la première ligne sont :

3 1 -1 0 -1 3
cof(l): 0 -1
-3, cof (2) = -

0 -1
-1, cof(0): 0 1
-1.

Après calcul des autres cofacteurs, on trouve :

Exercices 19. 20.

4.9 Application des déterminants à la théorie du rang

La principale application des déterminants concerne la théorie du rang.

(A) Caractérisation des bases

Nous déjà vu le théorème fondamental 4.4 (page 108) qui affirme que les vecteurs
avons

{vi,..., vn} de Kn forment une base si et seulement si dét ||t>i,..., vn\\ ^ 0. Ce


résultat s'étend immédiatement à un espace vectoriel quelconque E de dimension
finie. En effet, le choix d'une base {ei,..., en} de E permet d'identifier E à Kn par
l'isomorphisme.
ip : E Kn
v=xi eiH \-xn en (xit...txn)

(cf. proposition 1.14). Puisque cp est un isomorphisme, les vecteurs vi,...,vn


forment une base de E si et seulement si les vecteurs <p{vi),... ,(p(vn), c'est-à-dire
les composantes des vecteurs Vi, forment une base de Kn (et, plus généralement :
rg{vi,..., vn} rg{y? (t>i),..., (p (vn)}). Aussi le théorème 4.4 peut s'énoncer

:
4.9 Application des déterminants à la théorie du rang 123

Théorème 4.23 -

(A)
Soit E un espace vectoriel de dimension n. Les vecteurs {vi,..., vn} de E forment
une base si et seulement si :

dét||vi,...,vn||Ci t^O

où ||vi,... ,vn||ei désigne la matrice dont les colonnes sont les composantes des
vecteurs i>i,..., vn dans une base {e^} (quelconque) de E.

NOTA. Dans la suite, si le contexte est clair, on notera simplement ||t>i,..., vn\\ la

matrice dont les colonnes sont les composantes des vecteurs vi,..., vn dans une base de E.

(B) Comment reconnaître si une famille de

vecteurs est libre

On appelle mineur d'ordre r d'une matrice A le déterminant d'une matrice d'ordre


r extraite de A obtenue en choisissant r lignes et r colonnes.

Par exemple, en choisissant la 2ème et 3ème ligne et la 2ème et 4ème colonne dans la
matrice

/ 1 2 7 3
2^
0 0 5
0 1
obtient le mineur 5
3 4
14
\T\ [ë]
on
2 3 1 1 6

v 2 i -î 3 2 y
Théorème 4.24 (B)-

Soient {vi,... ,i>r} r vecteurs d'un espace vectoriel E de dimension n (r <n) et


A =
||vi,..., iv || la matrice dont les colonnes sont les composantes des vecteurs
vi,...,vr dans une base quelconque de E.
La famille {^i,..., vr} est libre si et seulement si on peut extraire de A un mineur
d'ordre r non nul

D'après la remarque ci-dessus on peut se limiter à démontrer ce théorème, ainsi que ceux

qui suivent, pour les vecteurs de Kn> ce qui simplifiera les notations.

Démonstration : Montrons d'abord que la condition est suffisante.


Soit :

CLlr I \

\ ^nl Ûrir /
' ' '

Quitte à permuter les lignes ce qui n'affecte pas le rang de la matrice


- -

on peut
supposer que le mineur encadré est non nul.
124 Déterminants

Considérons l'application :

p: Kn
( *i \ /6x \

\br J

V bn

Il s'agit d'une application linéaire. On a :

an air

\\p(vi),...,p(vr
\ Q>rl

Donc

dét||p(t;i),...,p(t;r)||^0
D'après (A), {p(^i),... ,p(vr)} est une base de ifr, donc une famille
le théorème
libre. On en
{i>i,..., vr} est libre. En effet si Ai v\ +
déduit que + Ar vr 0, en =

prenant l'image par p, on a : Ai p (vi)-\ h Ar p (vr) 0 et donc Ai 0,..., Ar 0. = = =

Réciproquement, supposons la famille {vi,. ..,vr} libre. On peut alors compléter


cette famille parn r vecteurs de la base canonique de Kn de manière à former

une

base5. Quitte à changer la numérotation de la base canonique, on peut supposer que


{viy..., vry er+i,..., en} est une base. Soit :

/ an air

ari 0
0
jB =
||vi,.. .,iv, er+i,.. Ûr+1,1

0
V O-nl 0 0 1/

D'après le théorème (A), déti? ^ 0. En développant dét^ selon la dernière colonne


et en répétant successivement cette opération, on trouve :

an a^

dét£ =

I arl arr i
' ' '

On peut donc extraire de A un mineur d'ordre r non nul.

incomplète dit non seulement que toute famille libre peut être complétée
5
Le théorème de la base
en une base, mais qu'elle peut être complétée en choisissant les vecteurs dans une famille génératrice
quelconque fixée au préalable (cf. remarque page 16.)
4.9 Application des déterminants à la théorie du rang 125

Exemple
-

Les vecteurs
f1^
2 1
1
5
\

vi 3 V2 = 2 ^3 =
9
3 4 -2

v 5 y V o y 0/
forment une famille libre de M5 car dans la matrice ;

(
1 0 1
2 1 5

A = 3 2 9
3 4 -2

{ 5 0 0

le mineur encadré est non nul.

(C) Comment reconnaître si un vecteur appartient


À l'espace engendré par d'autres vecteurs

Définition 4.25 -

Soit A une matrice et ô un mineur d'ordre r extrait de A. On

appelle bordant de ô tout mineur d'ordre r + 1 extrait de A, dont ô est un déterminant


extrait.

/ 1 2 2 -1 0
^ 1
1 3 4 2-1 21
Dar exemple, soit et ô Les bordants de ô sont
S\'
: = :
3 -1 2-10 1

V 4 1 4 2 -1 )
1 1 2 1 2 1 2 -1 Il 1 2 0
en bordant
y I 3 4 I 3 2 1 3 -1

1
avec la IHeme ligne
3 -1 2 3 -1 -1 3 -

1 0

I 1 2 1 2 1 1 2 -1 1 2 0 1
en bordant
». 1 3 4 I 3 2 1 3 -1
avec la IVeme ligne
4 1 4 1 4 1 2 4 1-11
î î î
en bordant en bordant en bordant
avec , la IIIe e colo nne a1vec Ui][Ve m s C(Diorine aLvec lai Veme colonne

On voit immédiatement que si A G MPi n et ô est un mineur d'ordre r il y a

(p r)(n r) bordants de ô dans A.


exactement — —

Théorème 4.26 (C) -

Soient {^i,...,vr} r vecteurs linéairement indépendants, A=\\vi,...,vr\\ la


matrice dont les colonnes sont les composantes de ces vecteurs dans une base
quelconque, et ô un mineur d'ordre r non nul extrait de A.
Pour qu'un vecteur w appartienne à l'espace Vect{i>i,... ,vr} il faut et il suffit
que tous les bordants de ô dans la matrice jB =
||vi,... ,t;r, w|| soient nuls.
126 Déterminants

Démonstration : Comme dans les théorèmes précédents, on peut se limiter à


considérer les vecteurs de Kn.
Soient :

A =
et B

0>nl Uni bn I

Quitte changer Tordre des lignes et des colonnes, on peut supposer que le mineur ô
non nul est le mineur encadré.
Supposons que w G Vect{^i,... ,iv}. Si Tun des bordants était non nul, la famille

{vi,...,îV, w} serait libre (cf. théorème (B) ), ce qui est exclu, car w appartient
l'espace engendre par {v\, ..,iv}. Donc tous les bordants de ô dans B sont nuls.
Réciproquement, supposons que tous les bordants de ô sont nuls.
En regardant les vecteurs lignes de la matrice B, on voit que les r premiers sont
indépendants, car ô ^ 0 (théorème (B)) et chacun des autres est lié aux r premiers
(théorème (A)). Ainsi la matrice B a pour rang r. Donc les vecteurs colonnes de
B, {^i,... ,vr, w}y forment une famille de rang r et comme {^i,... ,vr} est une

famille libre, w G Vect{vi,..., vr}.

Exemple -

Pour quelles valeurs de a, 0 G R, le vecteur w


1 | appartient-il
P

sous-espace de M4 engendré par les vecteurs vi I


l\ et vi
(l
\ I ? On
Il
= a :
1 n

0 /

1 1 0 \ / 1 0 a
\
0 1 1 0 0 1 2
A = ô =
et B =

1 0 0 1 ï Ô" 1
V 0 1 / V 0 1 P )
Les bordants de ô sont :

a a

Ai = 2 = 1 et A2 = 2 =
P-2
1 0 1 0 1 /3

Donc w G Vect{t?i, ^2} si et seulement si a = 1 et {3 = 2.

D) DÉTERMINATION DU RANG

Théorème 4.27 -

(D) Soit A G MPin (K). Le rang de A est r si et seulement


si on peut extraire de A un mineur ô d'ordre r non nul tel que tous les bordants

de S dans A sont nuls.


4.10 Interprétation géométrique du déterminant : volume dansMn 127

Démonstration : Les conditions sont suffisantes. Soit, en effet :

an «îr

A= ||vi,...,Vr, Ciyl
* * *

Cbf dm I

\ Q>pl &pr dpn /


' ' ' ' ' '

et soit S ^ 0 le mineur encadré. Comme ô ^ 0, les vecteurs {vi,...,vr} sont


indépendants (théorème (B)). Puisque tous les bordants de ô sont nuls, chaque vecteur
vs (5 ^ r+1) appartient à l'espace Vect{t>i,..., vr} (théorème (C)). Donc
les vecteurs
colonnes engendrent un espace de dimension r et par conséquent rgA r. =

Réciproquement, soit rgA = r et supposons, quitte à changer l'ordre des colonnes,


que {vi, vr} famille libre. On peut alors extraire de la matrice formée par
est une

(théorème (B)).
,

les r premières colonnes de A un mineur 5 d'ordre r non nul Quitte à


changer la numérotation des coordonnées, on peut supposer que 5 est le mineur formé
par les rpremières lignes et colonnes de A. Or rgA r donc vs G
Vect{^i,... ,vr} =

> r + 1 ; d'après le théorème (C), tous les bordants de 5 dans A sont nuls.
pour 5

Théorème 4.28 -

(E)
Le rang d'une matrice A est l'ordre maximal des mineurs non nuls extraits de A,
c'est-à-dire :

il existe un mineur d'ordre r non nul


rgA
-

tous les mineurs d'ordre s > r sont nuls

Démonstration : Supposons que le rang de A est r ; s'il existait un mineur d'ordre


s > r non nul, on pourrait extraire des colonnes de A une famille libre formée de
s > r vecteurs (théorème (B)). Or ceci est impossible car les vecteurs colonnes de A
engendrent un espace de dimension r.

La réciproque est une conséquence du théorème précédent.

Exercices 21. 22.

4.10 Interprétation géométrique du déterminant :

volume dans Rn

NOTA. —

La présentation que nous donnons ici est tirée du livre de S. Lang : Algèbre linéaire i,
InterEditions, Paris, 1976.

Comme nous l'avons dit dans l'introduction, le déterminant possède une remarquable
interprétation en termes de volume dans Rn.
Etudions d'abord le cas de dimension 2 et considérons le parallélogramme engendré par deux
vecteurs v et w de R2.
128 Déterminants

Figure 2

En regardant v et w comme deux vecteurs colonnes, on peut considérer le déterminant


dét ||t>, w\\. Etant donné que

dét \\v, w\\ = —

dét \\w, v\\


le déterminant lui-même ne peut être l'aire du parallélogramme, puisque cette aire doit être
> 0. On a cependant :

Théorème 4.29 -

L'aire A(v, w) du parallélogramme engendré par v et w est égale à la


valeur absolue du déterminant dét \\v, w\\. C'est-à-dire :

A(v, w) =
dét || v, w ||

Démonstration : Posons :

w) si dét H^, w\\ > 0


M
{ -A(V, w) si dét ||t>, w\\ < 0

A est dite aire orientée. Avec cette notation, il s'agit de démontrer que :

Â(v, w) =
dét||t>, w\\.
Pour cela il suffira, d'après la proposition 4.11 page 114, de montrer que A est bilinéaire,
alternée et que Â(ei, ei) = 1.

On a immédiatement
Â(v, v) =
±A(v, v) =
0

et :

dét||ei, e2|| 1
A{ex, e2) —-^ A (eu e2)
a f
1 1
\ , ,
x
= = x =
!
-

dét ||ei,e2
Il ne reste plus à démontrer que A est bilinéaire.

Lemme. -

Pour tout À G M, on a :

A(\v, w) =
\X\A(v) w

Pour montrer ce lemme, il suffira de vérifier que :

a) A(—v, w) =
A(v,w)

b) A(cvj w) =cA(viw)i VcGl,c>0


Si v et w sont liés, ou si c =
0, a) et b) sont évidentes car l'aire du parallélogramme engendré
par deux vecteurs liés est nulle. Supposons donc que v et w sont indépendants et c ^ 0.
4.10 Interprétation géométrique du déterminant : volume dansRn 129

a) est immédiate le parallélogramme engendré par


:

_# et w est le translaté du parallélogramme


engendré par vetw (cf. fig. 3).
Montrons b). On a d'abord : X w

J(.(nv, w)
= n A(v, w) pour tout entier n > 0

car le parallélogramme défini par nv et w est la

réunion de n parallélogrammes qui sont les


translatés du parallélogramme défini par v et w (cf. fig. Figure 3

4)-

(n —

l)v
On en déduit, en remplaçant v par

v dans la
n

formule trouvée :

A l -v, w) =
A(v, w)
J
-

\n n

et donc :

/m \ m Vm, neN
A ( ) A (v, w),
N
.

v,
.
A
w
m > 0, n >
=

0
v "

' n
\n
.

^ ^
' n

Figure 4

Soient maintenant r et r' deux nombres rationnels


tels que :

0 < r < c < r' ; on a (cf. fig. 5) :

A(rv, w) < A(cv, w) < A{r'v, w)


donc :

r A (v, w) < A (ci>, w) <rf A (v, w)


en faisant tendre r et r' vers c, on obtient : -V w

c A(v, w) =
A(c, w) Figure 5

ce qui montre le lemme. 0


En revenant à la proposition, on en déduit que :

Â(\v, w) =
\Â(v,w),} VA G M.

En effet, si v et w sont liés, ou si A est nul, cela est trivial. Autrement :

détllÀv, iu||
A(\v, w) —-—lL-rA(\v, w)
a /x n A /x
x

-j
=

dét ||At>, w\\


A dét \\vy w
A | A (v, w) XA (v, w)
lAl |dét||v,Hl|
=
130 Déterminants

Il ne reste plus à démontrer que :

A(vi+V2,w) =
A(Vi, V)) +A(V2, V)) , V^i, V2, W Gl2

(la linéarité dans le second argument se démontre de la même manière).


La démonstration se fait par les étapes suivantes :

v v + w

(i) A (v + w, w) A (v, w) /a ^^/


J^^
=

/
c

En effet :
/ ^

A(v-\-w.w) = Aire B + Aire C /^^ /*-'''


A(v, w) = Aire A + Airei?

Figure 6

et d'autre part Aire A =


AireC, car le triangle C est le translaté du triangle A.

(ii) A (v + w, w) =
A (v, w).
Cela est évident si v et w sont liés. Si v et w sont libres :

dét \\v H- w, w\\\


Â{v + w,w)
v
=
-Ljt-tj
dét \\v + w, w\\rf-A(v
det u
+ w,w) v

dét \\v, w\\


-A(v, w) .A(v, w)
||v, w\
=

dét

(iii) v4(Ai; + /xiy, w) =


XÂ(v, w), VA, yn £ R.

Si ji 0, cela a déjà
=
été démontré.
Supposons fi y£ 0 :

*A(At> + //ty, tu) =


Jl ( Au + /xiy, —

w) = —

Â(Xv + jj,w, fi iy)

^ J[(Av, /xiy) =
J[ f Av, -iy 1 =
J[(Àv, iy)

Soient maintenant vi =
av -f bw et ^2 =
cv + diy, on a :

.Â(vi + V2, w) =
.A((a + c) v + (b + d)iy, iy) =
(a + c) Â(y, w)
= a A(v, w) + cÂ(v, w) =
*4(ai>, iy) + A(cu, iy)
=
A(yiiw) + Â(v2,w)
(ii)

L'intérêt de cette démonstration réside dans le fait qu'elle peut se généraliser facilement en

dimension supérieure.
Notons que le parallélogramme engendré par v± et V2 est l'ensemble :

{z e M2 | z =
Ai vi + A2 v2 avec 0 < A* < 1 ,
i =
1, 2}
On a :
4.11 Orientation 131

Théorème 4.30 Soient vi,..., vn n vecteurs de Rn ; on note Vol (i>i,..., vn) le volume
-

du parallélépipède engendré par vi,... ,vn, c'est-à-dire de l'ensemble :

{ z G Rn | z =
Ai vi -\ h Àn vn ,
avec : 0<Ai<l,i =
l,...,n}

On a alors :

Vol (vi,...,Vn) =
dét||vi,...,Vn||

La démonstration se fait exactement de la même manière qu'en dimension 2. Celle-ci, en effet,


repose essentiellement sur le fait que le déterminant est une forme multilinéaire alternée. Or
les conditions qui expriment que le déterminant est une forme multilinéaire alternée / (cf.
proposition 4.11 page 114) ne font intervenir que deux arguments de / en même temps.

En gardant donc fixes tous les Vi sauf deux, on peut étendre sans trop de difficultés la
démonstration donnée ci-dessus. D

Exercice 23.

4.11 Orientation

L'une des applications les plus importantes de la théorie des déterminants est qu'elle permet
de définir la notion d'orientation.
Soit #={^1,^2,^3} une base ordonnée de R3; puisque B est une base, dét ||vi,V2, V3II ^
0. On dit que B est orientée positivement si dét ||vi, V2,f3|| > 0; dans le cas contraire,
on dit que B est orientée négativement :

orientation positive orientation négative

Figure 7

On sait l'importance que cette notion d'orientation a en physique (par exemple en

électromagnétisme) et, plus généralement, dans tous les problèmes où il intervient des rotations.
Elle sert à donner une signification précise à la notion de sens de la rotation ce qui revient
à choisir un ordre dans les repères de référence.
La notion d'orientation se généralise à un espace vectoriel réel quelconque de la
manière suivante.
Soit E un espace vectoriel réel de dimension n , {e*} et {e^} deux bases ordonnées
différentes6 de E et P =
Pei >e< la matrice de passage. Puisque dét P ^ 0, on peut
poser la définition suivante :

«différentes» en ce sens que deux bases sont considérées différentes même si elles ne diffèrent
que par l'ordre des éléments. Par la suite nous supposerons toujours cela, même si nous ne le disons
pas explicitement.
132 Déterminants

Définition 4.31 -

On dit que les bases {e^} et {e^} d'un espace vectoriel réel de
dimension finie ont même orientation si dét Pei >e/ > 0 (dans le cas contraire, on dit

qu'elles ont une orientation opposée).


REMARQUE -

On peut poser cette définition car on a les propriétés suivantes :

{ei} a la même orientation que {ei}, puisque dét Pei—>ei = dét J = 1 > 0 ;

si {ei} a la même orientation que {e^} alors {ej} a la même orientation que {ei} car si
dét Pe _/ > 0 alors dét Pe/__e. =
(dét Pe >e/)-1 > 0 ;

et, enfin, si {ei} a la même orientation que {e^} et


{e^} a la même orientation que {e"},
alors {ei} a la même orientation que {e"} (vérification laissée en exercice).

Le lecteur familiarisé avec la notion de quotient (cf. Appendice A.3.), aura remarqué
qu'il s'agit d'une relation d'équivalence.

Proposition 4.32 -

L'ensemble B de toutes les bases de E se partage en deux sous-

ensembles disjoints Bi Uffib. Toutes les bases de Bi


non vides : B =
(respect. : de B2J
ont même orientation. Bi et B2 sont dites classes d'orientation.

La démonstration est très simple7. Choisissons une base B de E et notons :

C+ : =
{ bases de E, de même orientation que B }
=
{ B' e B | dét Pb-^3' > 0 }
C~ : =
{ bases de E1, d'orientation opposée à celle de B}
=
{ B' e B | dét Pb-^b' < 0 }

Il est clair que toute base de E est soit dans C# soit dans C# et qu'elle ne peut
être dans les deux à la fois ; ainsi B est la réunion disjointe de C% et de C# .

Si maintenant nous fixons une autre base B1 de E ont voit immédiatement que :

C& =
Cg si B et B1 ont même orientation

C+, =
Cg si B et B' ont une orientation opposée

ce qui montre que la partition construite à l'aide de B est indépendante du choix de


B.

Définition 4.33 -

Soit E un espace vectoriel réel de dimension finie. On dit que l'on


a fixé une orientation classe d'orientation. On dira alors que
de E si l'on a choisi une

les bases de cette classe sont orientées positivement (ou qu'elles sont directes) et celles
de l'autre négativement.

En d'autres termes, fixer une orientation revient simplement à affecter d'un signe +
une classe et d'un signe l'autre classe.

NOTA. —

Pour choisir une orientation, il suffit de choisir une base B de E : seront


orientées positivement (par définition) toutes les bases B' qui sont dans la même classe
que B, c'est-à-dire telles que dét Pg >B* > 0.

7Elle est immédiate si l'on fait appel à la notion de quotient (cf Appendice A.3 ).
4.11 Orientation 133

Exemple -

Orientation canonique de En.

Puisque sur W1 il y a une base canonique


{e*} Rn est muni d'une orientation canonique :
,

la base {vi,..., vn} est orientée positivement si et seulement si dét Pei—>v. > 0, c'est-
à-dire si dét ||vi,..., vn\\ > 0, comme nous l'avons dit ci-dessus pour n 3. =

De la même manière on peut orienter canoniquement Rn[-X*] par le choix de la base

{1, X,..., X71} ou encore


Mpnfâ), en choisissant la base formée par les matrices

{Eij} (cf.
élémentaires page 65.)

Orientation induite
Comme on voir, dans certains cas l'espace vectoriel peut être muni
vient de le

canoniquement Cependant cela n'est pas toujours le cas. Par exemple


d'une orientation.
si 7r est un plan vectoriel dans R3, il n'y a pas sur n de base canonique (c'est-à-dire
privilégiée) et donc il n'y a pas d'orientation canonique.
On peut définir une orientation sur tt en choisissant une base {v\, V2} de tt Mais on .

peut le faire aussi d'une autre façon, qui sous certains aspects est plus pratique.
Pour cela, on choisit un vecteur w E R3 \ {n} :
on dira qu'une base B {vi, V2] de n est =

orientée positivement si la base B {v±, V2, w} =

est orientée positivement pour l'orientation


canonique de R3.
Cela fixe effectivement une orientation de 7r.

Montrons, en effet, que, conformément à la


définition 4.31, deux bases B {^1,^2}, B' = =

{vvv2} sont dans la même classe si et


Figure 8
détP&^B' > 0.
seulement si
Notons P Pb-*B' et soient B
= =
{vi,V2,w},
B' =
{v'^v^w} ; on a :

/ p 0

dét P&^& =
dét ||vi,V2, Hl{vi„v2,ti>} =
^t I I n
^ I =détP

V 0 0 1

Ainsi B et B' sont dans la même classe (au sens de l'orientation que l'on vient de
définir, c'est-à-dire : dét -£#_>#/ > 0 ) si et seulement si elles le sont au sens habituel,
c'est-à-dire si dét Pjs^b' > 0.

Nous avons donc orienté ir en choisissant un vecteur w £ n. Cette définition se

généralise immédiatement :

Définition 4.34 -

Soit E un espace vectoriel réel, orienté, de dimension n et F un

sous-espace vectoriel de dimension n 1. Le choix d'un vecteur w £ F, définit sur —

F une orientation dite orientation induite par w et par l'orientation de E : une base
& {^1? >
=
Vn-i}
de F sera dite positivement orientée si la base B {vi>..., vn_i, w} =

de E est positivement orientée.

REMARQUE -

On pourrait penser qu'il y a une infinité d'orientations induites sur F, c'est-


à-dire autant que de choix du vecteur w £ F. Ceci est exclu, évidemment, car sur un espace
vectoriel il n'y a que deux orientations possibles.
134 Déterminants

Il est facile de voir, en effet que l'orientation définie


par w ne dépend que du demi-espace auquel w
appartient.
Plus précisément : soient w>wf £ F ; puisque
E =
F® Vect{w}
w' s'écrit d'une manière unique
w' = x + À w avec x e F.

Si B' est une base de E et B =


{vi, ...,^-1} est Figure 9

une base de F, on a :

dét||wi,...,vn-iîu/||JB/ =dét||vi,...,un-i,a +Aiullg/ =


dét\\vi,...,vn-i,\w\\é/
= Adét \\vii...,vn-i,w\\g,
ce qui montre que l'orientation définie par w' est la même que celle définie par w si A > 0
et est l'opposée si A < 0.

Exercice 24.

EXERCICES

E Calculer les déterminants suivants :

a 0 b 0
1 a -b
0 a 0 6
Ai = -aie A2 =
a, b, c, d €
c 0 d 0
b -c 1
0 c 0 d

2 Résoudre l'équation :

1111
0 0
(a, b, ).
x a
= 0 c, d £ R non nuls
a; 0 6 0
x 0 0 c

3 Montrer que pour n > 2 le déterminant suivant est nul :

a\

61 ai

62 ai

6n
a2 —61 &2

&2 «2

bn
A =

an

b± an

62 an bn

4 Les nombres 136, 221 et 595 sont divisibles par 17. Montrer, sans le calculer, que le
déterminant
6|
:

Il 3
2 2 1
5 9 5

est divisible par 17.

m
5 Pour quelles valeurs de À,//GM les vecteurs
(I 2\I ( M
0
\x I (' forment-ils

V V V
, ,
.

!
/ !
/
'

une base de R3 ?

6 Calculer la signature des permutations suivantes de {12 3 4 5} :

ai =
(2 4 1 3 5) , a2 =
(1 5 2 4 3) , <r3 =
(2 3 4 5 1)
Calculer cr =
ai o a2 o 0-3 et vérifier que e (a) = e (ai) e (a2) e (as).
Exercices 135

7 Soit <j G Sn. On dit que deux éléments i, j G {1,2,... ,n} sont inversés dans a si

% < k et a
(i) > a
(k). Soit :

$i := nombre des k G {1, 2,..., n} tels que :

k < i et a (k) > a (i)


n

£ (jji)
Montrer que :
e(a) =
( l)i=1

[Par exemple si G ^ : cr (2 4 1 3 6 5), tf 1 0, jj2 0, {j3 0


JJ4
cr = on a : = = =

=
2, |J5 =
0, (|6 =
1, donc :
e(a) =
1].

8 Soit A une matrice de terme général a^. Montrer que l'on ne change pas la valeur de
son déterminant si l'on remplace les éléments a^-, avec i + j impair, par a^.

9 Soit A G M.n(K) antisymétrique. Montrer que si n est impair détA = 0

10 Calculer les déterminants suivants :

3 16 24 33
x + 2 2x + 3 3x + 4
15 7 9
2z + 3 3z + 4 4z+ 5
5 27 36 55
Sx+ 5 5x + 8 lOx + 17
7 38 51 78

0 Calculer le déterminant :

a>n an-i CLn-2 an-3 ao


-1 # 0 0 0
0 -1 X 0 0
An =
0 0 -1 a; . 0 0

0 0 0 0 . -1 X

12 Calculer le déterminant :

1 + x2 X 0
X 1 + x2 X 0
0 X 1 + x2 X

An =

0 0 x 1 + x2 x

0 0 0 x 1 + x2

<| 1

| 13
I Déterminant de Vandermonde
Montrer que :

1 X! (Xl)2 ...
(Xi)"-1
1 {x2)2 (a*)"-1
(xj xi)
x2
n
...

= -

l<i<j<n

1 Xn (xn)2 ...
(Xn)71'1
136 Déterminants

14 Soit
k n—k

\
B
}k
avec A G Mk{K)
D
CeMn-k{K)
=

\ k
et

)
n

\

0 C
Montrer que dét D = dét A dét C.
Généraliser :

\M\
*

dét =
dét Ai dét Ai dét Ap
(i4i, , Ap étant des matrices carrées)
0

15 Montrer que, si A,B e Mn{K) :

dét = dét (A + B) dét (A -

B)
B

16 Montrer que, si A,B € MnQ&) et AB = BA :

-B
dét =
dét(A2 + B2)

17 Soient vi, , vn n vecteurs d'un espace vectoriel E de dimension n et {e^}, {e^} deux
bases de E. Montrer que :

dét||vi,...t;n||ci =
(détP e/) dét ||«i, ,v„||c/

18 Calculer le déterminant de la matrice qui représente dans la base canonique de R3 la


projection / sur le plan x —

y + 5^ =
0 parallèlement à la droite x y z suivie de = =

la projection g sur le plan x + y + z =


0 parallèlement à la droite x y 5 z. = = —

19 Pour quelles valeurs de a G M la matrice A =


G M3{ est-elle

inversible ? Calculer, dans ce cas, son inverse.

20 Soit A G Mn (K). On note A+ =*cof(A). Montrer que si A est inversible, dét A+ =

(dét A)n~l. En déduire que si A est inversible, A+ Test aussi et que A++ (dét A)n~2 = A.

[Pour une généralisation au cas non inversible, cf. exercice 5 chapitre 6.] ,

a 2 -1 b \
21 Soit la matrice A =
3 0 1 -4 I Montrer que rg A > 2.
5 4-1 2 /
Par quelles valeurs de a et 6 a-t-on rg A = 2 ?

22 a) Soient i>i =
(a, 6, c) et i>2 (a;, 6', c') deux vecteurs indépendants de
=

R3. Ecrire l'expression du plan vectoriel engendré par v\ et t>2-


b) Même question pour v\ =
(a, b, c, d) et V2 =
(a', &', c;, d'), vecteurs indépendants
de!4.
Exercices 137

23 | Montrer que l'aire du triangle de sommets A =


(#i, yi), B =
(x2, 2/2), C =
(#3, 2/3)
est donnée par :

#2 xi %3 x\
— —

2/2 2/1 2/3 2/1


- -

1. Soit O l'orientation de R4 définie par les vecteurs

{v! =
(1,1,0,1), v2 =
(0,0,1,0),«3 =
(0, -1,0,1), v4 =
(0,0,0,1)}
Coïncide-t-elle avec l'orientation canonique de R4 ?
2. Soit F le sous-espace de M4 engendré par les vecteurs {w\ = (1,0,2,1), W2 =
(2,—1,1,7),W3 =
(1,0,1,1)}. Quelle est la dimension de F? Déterminer un
vecteur w £ F tel que l'orientation induite sur F par w et par O coïncide
avec l'orientation définie par {wi,tU2}W3}-
3. Soit R4 muni de l'orientation canonique et F l'hyperplan défini par x + y z + —

2t 0. On munit F de l'orientation induite par le vecteur w = (1,1,1,1). La


=

base wi = (1,-1,0,0), W2 (0,1,1,0), w$ (0,0,2,1) de F est-elle orientée


= =

positivement ?

INDICATIONS

|T~| Al = 1 + a2 + b2 + c2 , A2 =
(ad -

bc)2

Hl
1 1 1
=
+ + -.

b
- - -

x a c

ai

E Soient a = et v =

an

A = dét II a —

61 vy a —

62^,..., a —

bnv \\

Les vecteurs colonnes appartiennent à Vect{a, v} et donc, si n > 2, ils sont donc liés.

4 Ajouter à la IHème colonne la lere multipliée par 100 et la IIème multipliée par 10.

H
2 A M
M 0 A = A2 + m2 -

2A =
(A -

l)2 + fj,2 -

1
1 1 0

Les vecteurs sont liés pour A = 1 + cos 0, jjl = sinO (0 ER).

e(ai) =
-l, e(<72) =
l; e(a3) =
l] a =
(54312), e(a) = -l.

| 7
| Par récurrence sur n. Pour n = 1 il n'y a rien à démontrer.

Supposons la propriété vraie à l'ordre n —

1 et soit a E Sn- Soit n = a


(/c), c'est-à-dire :

_
/ 1 2--- fc n \

Considérer la permutation o\ qui amène n à la dernière place en effectuant


successivement des échanges avec les éléments qui le suivent. Montrer que
£(ci) =
( l)Nn. Appliquer l'hypothèse de récurrence à <J2 cri o a et utiliser le =

fait que e (0-2) = e


(cri) e (a).
138

8 D'après la formule de la proposition 4.10, dét A est une somme de termes du type
e (j) ajxi aj22 ajnU où j {j\,..., jn) est une permutation de (1,2,..., n). Etant
n\n + 1) on a : + +
=

donné que ji+J2~\ Vjn =


C?i l) 0'2+2) + - -

+ {jn+n) =
n(n+l)
qui est un nombre pair.donc dans ajx 1 aj22,..., %nn
Il y a un nombre pair de couples
O'fci &) tel Que Jfe + A; est impair. Conclure.

9
| dét (M) = dét (-A) =
(- l)n dét A...

|~ÏÔ] Ai =-2.
Pour A2 : soustraire la première ligne de la seconde et la seconde de la troisième. Mettre
en facteur
(x + 1) (x + 2). On trouve : A2 = 3 (x + l)2 (x + 2). -

11 En développant selon la première colonne, on trouve An =


an xn + An-i ; d'où :

An =
an xn + dn-i x71-1 H h ai x + ao

12 | An —

(1 + x2) An-i + #2 An = 0. A l'aide des résultats de l'exercice 19 du chapitre 1,


on trouve A =
l-hz2 + z4 + h x2n.

13 Considérer le déterminant comme un polynôme en les indéterminées (#i)i=i,...,n- En


donnant à xi et Xj (i ^ j) des valeurs égales, le déterminant s'annule (deux lignes
égales). Donc xi Xj divise le déterminant. Puisque les Xi Xj sont deux à deux
— —

premiers entre eux, le déterminant est divisible par leur produit, et, pour des raisons de
degré, il vaut k Y\ (%j —

Xi). En comparant les termes en (xi)n_1 on voit que k = 1.


i<3

14 Remarquer que :

h 0
D =

0 C

15 En ajoutant la (n+i)eme colonne à la ieme colonne (pour i =


1,... ,n) :

A + B B
dét = dét
B A B + A

Soustraire la ième ligne de la (n+i)eme ligne (pour i =


1,... ,n).

16 Comme dans l'exercice précédent :

B A-iB -B
dét = dét
B B + iA

A-iB B
= dét
0 A + iB

| 17
| Soient : Xi (vi)Si, X[ M (vi)et. On a :
M =

=tdét||P-1Xi,...,P-1X„||
=

dét ||tii,...
,t^||ej =dét||X(,...,Xn||
= dét (P-1 \\Xi,... ,Xn||) (cf. chapitre 3, exercice 23).
Exercices 139

Autre méthode : Si v\,...vn sont liés, les deux membres sont nuls. Si {i>i,...,^n} est
une base, alors, d'après la transitivité des matrices de passage (cf. proposition 3.24,
page 77)
dét||vi,...,vn|| =détPei-+<ui =dét(PCi_>c./Pc./_>Vi) =
détPe._>e./ dét ||vi, ...,vn||Ci'-

On a dét / =
0, dét g =
0, car f et g sont non injectives.
Donc dét (g o
/) =
(dét g) (dét /) = 0.

2a-12 S-a 2

19 \ a + 1 A"1 =

a-7
4- a a-1 -3
1 -2 1

De la relation AA+ =
(dét A) I on obtient (dét A) (dét A+ ) =
(détA)n. Ecrire

ensuite la relation A A+ =
(dét A) I en remplaçant A par A+.

a 2 -1

21 Dans A =
3 0 1 le mineur encadré est non nul, donc rg A > 2.
5 4

Calculer les bordants. On trouve a = 1 et 6 = 3.

a a' x\
22 b b1 y \ =
0. En effet cette équation exprime, d'après le théorème (A), que
ce* z\
x

y | G Vect{vi,v2}.

a a'
b) Utiliser le théorème (B). Si par exemple b b' ^ 0, le plan est défini par le

système formé des équations :

a a' X a a' X

b b' y = 0 b b' y = 0
c c! z d d' u

23 L'aire étant invariante par translation, effectuer une translation de manière à ce que
le sommet A soit l'origine.

24 1. On a dét || v\, V2, V3, i>4 || > 0. Donc l'orientation définie par ces vecteurs coïncide
avec l'orientation canonique.
2. Il suffit de choisir un vecteur w £ P, tel que dét || wi,W2,W3,w \\ > 0. On voit

que, par exemple w =


(0,0,0,1) convient.

3. On a dét ||wi, W2, W3, || = 3.


Chapitre 5

Systèmes d'équations linéaires

Au chapitre 2. nous avons appris à résoudre les systèmes d'équations linéaires par la méthode
du pivot. Cette méthode, même si elle est très simple et très efficace 1, se révèle en général
mal aisée lorsque dans le système interviennent des paramètres et surtout elle ne permet
pas de savoir a priori si le système admet ou non des solutions : pour le savoir on est obligé
d'entamer la résolution du système et voir si l'on obtient des équations du type 0 =
a avec

Les déterminants fournissent un outil efficace et indispensable pour la discussion des systèmes
linéaires : ils permettent d'avoir les conditions de compatibilité sous forme de relations liant
les coefficients et fournissent aussi des formules qui donnent explicitement la solution
(formules de Cramer).

5.1 Définitions et interprétations


Considérons un système linéaire de p équations en n inconnues :

an #i + &12 #2 + + ain xn =
b\
; (i)
l api x\ + aV2 X2 + + apn xn =
bp
où les dij et les bij appartiennent à un corps K (commutatif).
On appelle solution tout vecteur x =
(#1,... ,#n) G Kn dont les composantes xi
satisfont toutes les équations. Le système est dit compatible s'il admet au moins une

solution.

Expression matricielle
Soient

(an
:

ciin \

i i GMPtn(K)
Gpl 0"pn /
' ' '

Cf. en particulier les considérations que nous développons en Appendice 5.

141
142 Systèmes d'équations linéaires

/ *i \
B =
€ Mp,i (K) et X =
G À<„,i (tf)
\Xn J
Le système (1) peut s'écrire sous la forme matricielle :

AX = B (!')

comme on le voit facilement en effectuant le produit des matrices A et X.


On appelle rang du système le rang de la matrice A.

Expression vectorielle
Notons ci,..., Cn les vecteurs colonnes de la matrice A :

/ an d\n

Cl =
GF,. eKp

\ «pi

On a :

an zi
O-ln Xn

XiCi =
, X<n Cn

a-pxt Xn
api xi

h
Si donc b =
G KP, le système peut s'écrire :

ai ci H h xn cn =
b (1")

Résoudre le système signifie déterminer les coefficients de la décomposition du vecteur


b G Kp sur les vecteurs{ci,..., cn} de Kp : donc, pour que le système soit compatible
il faut et il suffit que b appartienne à l'espace engendré par les vecteurs ci,..., cn.

5.2 Systèmes de Cramer

Définition 5.1 -

On appelle système de Cramer un système linéaire dont la matrice


A est carrée et inversible.

Il s'agit donc d'un système de n équations en n inconnues de rang n :

an «i H \~ a>in %n =
b\
avec dét A^O (2)
O-nl *^1 ~r Ojyifi Xn un
* *

i
*

Sous forme matricielle, le système s'écrit :


5.2 Systèmes de Cramer 143

AX =
B (2')
Comme A est inversible, multipliant par A à gauche,
*
en on trouve :

X =
A~lB (3)

Réciproquement, X A B satisfait l'équation (2'). Aussi


x
=
:

un système de Cramer admet toujours une et une seule solution donnée

par (3).

La solution peut être exprimée aussi par les formules de Cramer. Considérons
l'interprétation vectorielle du système (1") ; la solution (xi,...,xn) est telle que :

xi ci H \-xncn =
b

Or
dét ||ci,... ,Ci_i, 6, ci+i,...,Cn|| =

aet ||Ci, . . .
,Ci_i, 2^fc=l xkCk-> Ci+1»« )Cn||
=
YJk=l Xk dét||dî,...,3_i, Cl, Q+i,...,Cn||
Pour k^i les déterminants de cette somme sont nuls (deux colonnes égales). Il reste
le terme avec k =
z, c'est-à-dire Xi dét A. Ainsi :

dét||c~î,... ,q_i, 6, 3+i,.. .,Cn|| =


Xidét^4

d'où:
dét || cî,..., 3_i, 6, Ci+i,...,Cn||
Xi
dét A

On peut résumer les résultats dans le théorème suivant :

Théorème de Cramer . 5.2 -

Un système de Cramer :

an xi H 1- &in Xn =
b\

^nl xl ~r i OjYifi Xn =
On
* " '

(avec A =
(a^) =
||c~î,... ,c^||, dét A ^ 0)

admet toujours une et une seule solution, quel que soit le vecteur b (&i,...,6n),
solution donnée par les formules de Cramer :

dét || Cl,..., 5-l> 6, Q+i,...,Cn


dét A
144 Systèmes d'équations linéaires

Exemple -

Soit le système :

2x -

by + 2z =7
x + 2y -

4z =3
3x —

4y —

6z =
5

On a :
2 -5 2
détA = 1 2 -4 -46
3 -4 -6

Le système est donc de Cramer.


Les formules de Cramer donnent :

7-5 2 2 7 2
3 2-4 =
5 _1_ 13-4
46 46
5 -4 -6 3 5-6

2 -5
1 2
46
3 -4

Exercices 1. 2.

5.3 Cas général. Le théorème de Rouché-Fontené

Considérons un système de p équations en n inconnues de rang r :

( \aii x\ + 77~- + a\rxA + + ain xn =


b\

ar\ x\ + I (Jbfp J->f\ ~\ i û^rn ^n (4)

l ûpl ^1 H" "T"


^pr ^r i i
Ojpfi Xn

Op

On peut supposer, quitte à changer Tordre des équations et la numérotation des


inconnues que le mineur encadré est non nul.
Sous forme vectorielle, avec les notations du § 1, le système s'écrit :

xi ci H Yxncn =
b

Le système est compatible si et seulement si b G Vect {ci,..., cn}. Or, la famille de


vecteurs {ci,..., cn} a rang r et, puisque

an a\r

S : =
+ o,
ar\

{ci,..., cr} est une famille libre et donc une base de Vect {ci,..., cn} (cf. théorème
(B) ). D'après le théorème (C), b G Vect {ci,..., cn} = Vect{ci,..., cr} si et
seulement si tous les bordants de ô sont nuls :
5.3 Cas général. Le théorème de Rouché-Fontené 145

61

A,= =
0, s =
r + 1, ...,n

Les déterminants As sont dits déterminants caractéristiques. Leur annulation est donc
une condition nécessaire et suffisante pour que le système soit compatible.

Recherche effective de la solution

Considérons le système (4), dans lequel on suppose que la matrice encadrée a un

déterminant non nul et supposons réalisée la condition de compatibilité. Soit la


matrice :

Oi<n h \

B =
||ci,...,cr,...,cn, 6|| =

Apn bP J
Cette matrice a rang r, car cr+i,..., cn, b G Vect{ci,..., cr} et les vecteurs c\,..., cr

forment système
un libre. Donc les lignes de B forment une famille de rang r. Puisque
les r premières lignes sont indépendantes (à cause de la présence du mineur encadré)
les p —

r dernières lignes sont combinaisons linéaires des r premières. Ceci veut dire

que dans le système (4) les dernières p r équations s'obtiennent comme —

combinaisons linéaires des autres et, par conséquent, elles peuvent être éliminées. Aussi le
système (4) est équivalent au système :

anxi + + (Jb\f Jbf 1 &ln %n h


< (4')
\
ar\ x\ + + (Jj'p'p Jbf ~\- (^rn %n —

Or

Ces équations sont dites équations principales . Les inconnues qui y interviennent
-

Cest-à-dire X\, . . .
, Xr

sont dites inconnues principales ; les autres variables libres.


Pour calculer la solution, on donne aux variables libres #r+i, , xn des valeurs
arbitraires :

xr+i
=
Àr.fi, , xn =
Xn (Xi G K)
Le système (4') s'écrit alors :

anxi + *

—T~ Ci \ <p Jbj


=
b\ —

CL\r-\-l A.r+1- dln An

< (4")
\
ar\ x\ + 1 (Jb<p ip JU
ip Uj> Cbf 'p-i-'^ /\<p_|_l
...

ilifft ^T
146 Systèmes d'équations linéaires

On obtient ainsi unsystème de Cramer, lequel admet une et une seule solution pour
chaque choix de Àr+i,..., Àn. La solution dépendra donc des n —

r constantes que
l'on fixées. On dit que l'on a une indétermination d'ordre
a n-r.

On peut résumer les résultats dans le théorème suivant :

Théorème de Rouché-Fontené . 5.3 -

Soit :

( laii^i + I ^It* "^Tï I + a>inxn =


&i

a>p\ " 'i ~i i U/fp jLi i i Orn «^n


* * * *

k. api Xi ~~r
*

i
Ojpr 3Cr "r"
* * *

i
Ûpn %n

bp

un système de p équations en n inconnues, de rang r.


On extrait du système un mineur S d'ordre r non nul; quitte à changer la numérotation,
on peut supposer que 5 est le mineur encadré :

an air

î o

ar\

1. Le système est compatible si et seulement si tous les déterminants caractéristiques


associés à 5 sont nuls :

bx

0 (s =
r + l,...,n)

sr us

2. Si cette condition est réalisée, le système est équivalent au système des équations
principales :

anxi + I ^1 V "-''J b\ -air+ix,


r+1 «^r+1" &1 n %n

ar\X\ -h \~ O/J» f Xip u<p a<p f-i-i jbf-i-i~ 0/f> fi b'p

Il admet alors une infinité de solutions dépendantes de n r paramètres2. —

Les
solutions se calculent en résolvant le système de Cramer obtenu en donnant aux

variables libres £r+i5 >#n des valeurs arbitraires.

2Plus précisément, les solutions forment un espace affine de dimension n —

r (cf. Appendice A.8).


5.3 Cas général. Le théorème de Rouché-Fontené 147

Exemple :

Discuter, d'après les valeurs de fc, a, ]9, 7 système

{2x
G R le :

+ y

z =
a

y + Sz =
p
2x + ky + 2z =
7

On étudie d'abord le rang du système. La matrice du système est :

2 1 -1
0 1 3
2 k 2

Deux cas se présentent :

1. k 7^ 2 . Le système est de Cramer. La solution s'obtient par les formules de Cramer :

1 a 1 -Il
|2 a -Il
|2 1 a I
1 3 0 P 3
P 1 0
2I 2I I2
r
k |2 7 k 7I
6(2-fc) 6 (2-A;) 6(2-k)
' y

En effectuant les calculs, on trouve :

(2 -

3 k) a -

(k + 2)p + 4<y a + 0 -a + (l-AQ/3 + 7


y
(2 k) (2 /c)
m _

6 2-k 3
?

- -

2. fc = Le système est de rang 2. On étudie alors la compatibilité à l'aide des


déterminants caractéristiques. On extrait un mineur d'ordre 2 non nul, par exemple :

ô =

Le seul déterminant caractéristique est :

2 1 a

A =
0 1 (3 =
2{1-a-f3)
2 27
Donc le système est compatible si et seulement si 7 =
a + (3.
Les solutions s'obtiennent alors en résolvant le système des équations principales :

2x+ y

z =
a

y + 3z =
(3

La variable libre est z. En posant z =


À, on a :

x=a-<32+4X , y=0-3X ,
,= A

En résumant :

1. si k ^ 2 le système admet une et une seule solution ;


2. si k = 2 deux cas peuvent se présenter :

a) 7 ^ a -f- P : système n'admet pas de solution


le ;
b) 7 = a -f- P le système admet une infinité
: de solutions dépendant d'un
paramètre.
Exercices 3. 4. 5.
148 Systèmes d'équations linéaires

5.4 Cas des systèmes homogènes


On appelle système homogène un système du type :

AX =
0

c'est-à-dire système linéaire dont le second membre est nul.


un

On voit immédiatement qu'un système homogène est toujours compatible : il admet


au moins la solution nulle. Dans de nombreux problèmes
(cf. par ex. chapitre 6) il est
important de savoir s'il existe des solutions non nulles.
Remarquons tout d'abord que Vensemble des solutions forme un espace vectoriel On
le voit immédiatement en considérant l'application : / : Kn —> Kp dont la matrice,
dans les bases canoniques est A. Le système s'écrit :

f(x) =0

et l'ensemble des solutions n'est pas autre chose que le noyau Ker / de /, qui est un

espace vectoriel.
En utilisant le théorème du rang, on a :

n =
dim Ker / + rg /

Donc l'espace des solutions est de dimension n —

r, où r est le rang du système. On


a ainsi :

Proposition 5.4 -

Soit

an ai + ~\ Oj\y jLip + + ainxn = 0

ar\ x\ + | \Juf"p JL/t\ I T" Ojrn %n —

ûpl X\ + i Qjrfp X'p ~f~ i


Ûpri %n

un système linéaire homogène de rang r. On suppose que le mineur encadré est non
nul. Puisque les conditions de compatibilité du théorème de Rouché-Fontené sont
trivialement satisfaites, le système est équivalent au système des équations principales :

anxi + ~\ Oj\j> Xf + + CLin Xn =


0

ar\ x\ + | (Jjj"p Jb'p i~


* * *
~r O^rn %n —
^

Les solutions forment un espace vectoriel de dimension n


r (on dit brièvement


que : r équations homogènes indépendantes (ou r hyperplans indépendants) dans un espace vectoriel
de dimension n définissent un sous-espace vectoriel de dimension n —

r).
REMARQUES.
-

1. Les solutions d'un système linéaire non homogène AX = B avec 5/0 ne forment

pas espace vectoriel. En effet, si X\ et X2 sont deux solutions, on a AX\


un B =

et AX2 B, d'où A
=
(Xl X2)
+ 2B ^ B : donc la somme de deux solutions n'est
=

pas une solution3


2. D'après la proposition ci-dessus, un système homogène admet une solution non nulle
si et seulement si C'est le cas, par exemple, si n > p, c'est-à-dire s'il y
n > r. a plus
d'inconnues que d'équations (cf. aussi théorème 2.2 page 43).

Un cas particulièrement important est celui où la matrice A est carrée. Dans ce cas,
la condition pour qu'il y ait des solutions non nulles (r < n) est équivalente à ce qu'il
ne soit pas de Cramer, c'est-à-dire dét A 0. On a ainsi : =

Proposition 5.5 Soit AX =


0 un système linéaire homogène où A est une
-

matrice carrée, A e Mn (K). Le système admet des solutions non nulles si et seulement
si dét A 0.
=

Exercices 6. 7. 8. 9. 10.

EXERCICES

1 Résoudre les systèmes suivants

{3x
:

y + 2z = a

-x + 2y -

3z = b (a,6,ceR)
x + 2y + z = c

{(l+i)x
+ (1-22)2/ + (-l + 3i)* = 2 + i
x
-

2y + z = 0
ix + (2-i)y -

2z = 0

2 Soient x\t..., a?n+i n + 1 nombres réels deux à deux distincts. Montrer qu'il existe un

et un seul polynôme à coefficients réels de degré < n qui prend en x\>... ,œn+i des
valeurs préfixées.

I 3 Etudier et éventuellement résoudre les systèmes suivants :

\2x : ;v
+
/ ;0 I2: 2yy si z 1
~

+
i + Ay 2z l y

L t
x
I
-
=

Sx 3
_
_

y z
Sy
=
v
\4x + bz 1
y
- -

q -
* =
1

(x -

y + 2+ t = 2
<z + 2/- + 2t 1

(
z =

y + 2z =
0

|4 | Discuter suivant les valeurs du paramètre réel a, et éventuellement résoudre, le système


suivant :

x + y + (l-2a)« =
2(1 + q)
(l + a)x -

(l + a)y + (2 + a) z = 0
2x -

2ay + 3z = 2 (1 + a)

Elles forment un espace affine (cf. Appendice 3).)


150 Systèmes d'équations linéaires

5 Discuter selon les valeurs de a, 6, c G E (avec abc ^ 0), le système :

Abcx —

acy + 3abz = a

bbcx + 2acy + 7abz = b


3bcx + acy + 4ab z = c

6 Résoudre le système suivant :

{
(2-i)x + (1+0 î/ + (4 + 30* = 0

(4 + 30» + (-1 + 302/ + (-2 + 110* = 0

\7 Déterminer la dimension et une base du sous-espace vectoriel de E5 défini par les

équations :

x y + 2z t + u = 0
- -

2x + y + z -

2t + 2u =0
CE + Z —

t + U =0

I 8
I Déterminer quatre points alignés M, AT, P, Q connaissant les milieux A, B, C, D des

segments MiNT, 7VP, PQ, QM. Quelle relation doivent satisfaire A, P, C, D pour que
le problème admette une solution ?

9 Soit / l'endomorphisme de R3 qui dans la base canonique est représenté par la matrice :

3 2-2
A = -1 0 1
110

Pour quelles valeurs de À G E, existe-t-il des vecteurs non nuls -y G E3 tels que / (v) =

Xv?

10 On suppose que le système :

{ax
-\- by + cz = 0

a'x + b'y + c'z = 0

est de rang 2.

Expliquer pourquoi une base de l'espace des solutions est donnée par (#, y, z) avec :

y =

Généraliser.

INDICATIONS

1 Pour le premier système :

8a + 56 -

c -2a + b + 7c -4a -

76 + 5c
x =
â y ô
8
'

Pour le second système : x =


y = z = i.

| 2
| Soit P =
anxn + an-i ccn_1 + + ai x + ao- Ecrire le système :

P{xi) =
ai i =
l, ...,n + l

On a un déterminant de Vandermonde (cf. chapitre 4, exercice 13).


Exercices 151

0
2 A + 4 5A-1
5 A
À pour le premier système.
-

z =

4 12
Solution unique pour le second système : x = —

, y =
,
z = -.

O ou

3(A-1) (1 + A)
Le troisième système est de rang 3 ; solutions
,
: x y
= = -

[4 Si a(a + l)(a-l)^0 ona une solution unique :

2a + 3 1 + a

2(a-l) 2(1-a)
* '
1-a

Si a = 0 le rang est 2 et le système est compatible :

3 A
l--A, l+-
-, x ,
a =
y =
,
2

Si a = —

1 le rang est 2 et le système est compatible :

rc = A , y = —

A ,
z =
0

Si a = 1 le système est incompatible.

5 Le déterminant du système est :

46c —ac 3ab 4 -1 3


2i2 2
56c 2ac 7ab = a b c 5 2 7 =
0
36c ac 4ab 3 1 4

Le système est de rang 2. La condition de compatibilité est: 13c —

a

76 =
0.

6 Système de rang 1.

7 Système de rang 2. En prenant la première et la troisième équation :

+ 2z -t +u =0
+ z -t +u =0

Solutions : x = —

z + t —

u , y = z —

u avec z, t, u arbitraires, c'est-à-dire :

( t~u\ ( -J1 \
-Z +
z —

u ! I
X = z = z 1 + t 0 + u 0
t ° 1 0
u J V 0 / V 0 J V 1 /
Les trois colonnes mises en évidence forment une famille génératrice et libre, donc une

base, de l'espace des solutions.

|_8 Soient z, y, z, t les abscisses de M, AT, P, Q et a, 6, c, d celles de A, B, C, D. On doit

!x
résoudre le système :
+ y = 2a

y + z = 26
z + t =
2c
t + x = 2d

Système de rang 3. La condition de compatibilité est a ~\- c = 6 + d, c'est-à-dire : le


milieu de AC coïncide avec le mielieu de BD.

9
| Il faut et il suffit que le système AX =
AX, c'est-à-dire (A -

XI)X = 0 admette des

solutions non nulles. Pour cela, il faut et il suffit que dét (A XI) —
= 0. On trouve
A = l.
152 Systèmes d'équations linéaires

10 Si A est une matrice carrée et aij ses coefficients, on a :

an cof (aki) + ai2 cof (afe2) H h ain cof (akn) =


ôik dét A

(cf. théorème 4.22). La somme à premier membre est donc nulle si i ^ k. On considère
la matrice :

l m n

abc
a' y d

pour % = 2 et k =
1, la relation ci-dessus donne :

a cof (l) + b cof (m) + c cof (n) =


0

pour i = 3 et k = 1 :

a' cof (0 + b' cof (m) + d cof (n) = 0

Donc cof (l), cof (m), cof (n) vérifient le système. L'un deux est non nul car le système
est de rang 2. Puisque l'espace des solutions est de dimension 1,
(cof (l), cof (m), cof (n) )
est une base de l'espace des solutions.

GÉNÉRALISATION :

Soit le système homogène à équations et inconnues

{an
n n :

xi + + ainxn = 0

Ûn-1,1^1 + + Q>n-l,nXn
= 0

supposé de rang n—1. Une base de l'espace des solutions est donnée par (cof (^i),..., cof (£n) j
dans la matrice

f
:

il h "-in
an 0,12 Clin
" '

\ CLn-1,1 Q>n-l,2 On-1,


"
Chapitre 6

Réduction des endomorphismes

6.1 Position du problème

Soit E un espace vectoriel sur K et / un endomorphisme de E. Si E est de dimension


finie et {e^} est une base de E, on peut construire la matrice qui représente / dans
cette base :

M(/k =
||/(ei),...,/(en)||ei.

Comme on l'a vu, si Ton change de base, en général la matrice change : si A =

M (/)ei) A' =
M (/)e/ et P Pei >e/ est la matrice de passage de la base
=
{e^} à la
base {e£}, on a :

A1 =
P~lAP

Dans ce chapitre, nous nous proposons de chercher des bases de E dans lesquelles la
forme de la matrice est la plus simple possible, c'est-à-dire, par exemple, diagonale
ou, éventuellement, triangulaire.
Plus précisément, on dira que / est diagonalisable s'il existe une base {e^}, telle que :

/ an 0 o\
0 a22
M(f)ei =

\ 0 0 ann )

On dira que / est trigonalisable s'il existe une base {e^}, telle que :

/ an \ / an 0 °\
* a22
0
M(/)ei =
d22 OU M(/)e
*
V 0 0 ann ) Q"nn /

153
154 Réduction des endomorphismes

Ce problème est point semblable à


en tout
celui qui se exemple, en
pose, par
O

mécanique ou en physique lorsqu'on essaie de


déterminer le repère dans lequel le problème
a la forme la plus simple et la plus

pratique. Par exemple, si l'on étudie la chute


libre d'un corps il est naturel de prendre
un repère dont l'un des axes est vertical,

de manière à ce que le vecteur accélération


Figure 1
n'ait qu'une composante non nulle. Il
serait contraire au bon sens de prendre les

axes obliques selon lesquels on serait


obligé de décomposer le vecteur accélération.
Pour les endomorphismes, c'est le même

type de problème : il s'agit de déterminer


les bases dans lesquelles la matrice de /

(c'est-à-dire, au fond, l'ensemble des


coordonnées de /) a le plus de zéros possible. Figure 2

Le problème qui nous occupe est double :

1. Caractériser les endomorphismes diagonalisables (ou trigonalisables).


2. Déterminer effectivement, si elles existent, les bases dans lesquelles la matrice
est diagonale ou triangulaire.
En termes de matrices, puisque deux matrices A et A' liées par la relation A' =

P~1AP représentent le même endomorphisme en des bases différentes, le problème


s'énonce ainsi :

1. Caractériser les matrices A G Mn (K) pour lesquelles il existe P G Mn (K)


inversible, telles que A! =
P~XAP soit diagonale (respectivement : triangulaire).
2. Déterminer effectivement P et A!.

Dans certains cas, le problème peut se

résoudreassez facilement par des

géométriques. Soit, par exemple, /


considérations
laprojection de R3 sur le plan d'équation
£ + 2y + 32 0 parallèlement à la droite
=

D d'équation —
=
j-
= z. Dans la base

canonique {e*}, on a :

M(/k = -L ( -2

(cf. chapitre 3, exercice 19).


En revanche dans la base {vi, V2, V3} où {t>i, V2} G 7r et V3 G D, on a : f(vi) =
vx, f(v2) =

V2, f(v3) =
0, donc :

M(f)Vi = I 0
\ 0
6.2 Vecteurs propres 155

/ diagonalisable. De même, si l'on considère


est donc la symétrie g par rapport au plan 7r,

parallèlement à la droite D, on a : g (vi) vi, g (^2) ^2, g (^3) V3 ; donc :


= = = —

/ 1 0 0

M(g)Vi =
0 1 0

V 0 0-1

ne peut pas espérer de résoudre toujours géométriquement


Il est clair, cependant, que l'on
ce questions. Dans les paragraphes qui suivent, nous allons donner la théorie et les
type de
méthodes de calcul qui fournissent la solution explicite du problème.

NOTA. Dans tout ce chapitre, nous supposerons que E est un espace vectoriel de

dimension finie définitions, cependant, restent valables en dimension


sur K. Certaines
infinie. Nous ne manquerons pas de le souligner et de donner des exemples.
Le lecteur qui n'est pas familiarisé avec les corps abstraits, pourra toujours continuer à

supposer K R ou C. Cependant, la différence entre M et C est importante, comme


=

nous le verrons.

6.2 Vecteurs propres

La clé de la diagonalisation est la notion de vecteur propre (dont la définition est


valable en dimension infinie).
Définition 6.1 -

Soit f G End k {E). Un vecteur v G E est dit vecteur propre de f


si :

1. v^O.
2. 3XeK:f(v) =
Xv.

Le scalaire À est dit valeur propre correspondante à v.

Remarques. -

1. Alors que les vecteurs propres sont non nuls par définition1, la valeur propre peut être
nulle : les vecteurs (non nuls) de Ker/ sont justement les vecteurs propres
correspondant à À =
0.

2. Si ^ est un vecteur propre correspondant à la valeur propre À, alors pour tout fi G

K, /i^O, fxv est aussi vecteur propre correspondant à la même valeur propre À. En
effet :

/(mv) =
m/(v) =
h(\v) =
\(nv)

Ainsi les vecteurs propres sont :


-

soit les vecteurs du noyau ;


-

soit les vecteurs qui ne changent pas de


direction sous l'action de /.
En particulier, la droite vectorielle D engendrée
par un vecteur propre de / est invariante par
/, c'est-à-dire : / {D) C D. Figure 4

La raison de ce choix est que les vecteurs propres sont utilisés pour construire des bases.
156 Réduction des endomorphismes

Exemple 1 -

Soit E = M3 et / la projection sur un plan tt

parallèlement à une droite D.


Pour tout vecteur v ^ 0 du plan, on a f(v) = v

et pour tout vecteur directeur w de la droite, on

a f(w) =
0.
Ainsi, les vecteurs non nuls du plan sont des
vecteurs propres correspondants à la valeur
propre +1 et les vecteurs directeurs de la droite
sont des vecteurs propres correspondants à la
valeur propre À 0. =

Ce sont là les seuls vecteurs propres et donc -

aussi les seules valeurs propres car tout autre


-

vecteur change de direction sous l'action de /.

Exemple 2 -

Soit / : R2 — E2 la rotation d'angle 9 et de centre 0.


Il est clair si 6 ^ kir il n'y a pas de directions invariantes sous l'action de /, pas plus que
de vecteurs du noyau (car / est bijective). Dans ce cas, il n'y a pas de vecteurs propres
et donc pas de valeurs propres.

Exemple 3 -

Soit k G K et hk \ E —> E l'homothétie de rapport k.

Tout vecteur non nul de E est vecteur propre correspondant à la valeur propre k.

L'intérêt des vecteurs propres réside dans la propriété suivante :

Théorème (I) 6.2 -

/ G Endj^(£î) est diagonalisable si et seulement si il existe


une base de E formée de vecteurs propres.

La démonstration est immédiate2. Si {vi,...,vn} est une base formée de vecteurs


propres correspondants aux valeurs propres Ai,..., An, on a :

f(Vl) =
AiVi, f{v2) =
A2^2, JM =
Kvn

ainsi :

Ai 0 0 \

0 A2 *'. :
M(f)Vi =

0
0 .
0 An /

2Ce n'est en fait qu'une reformulation de la définition de vecteur propre. Si nous l'appelons
«théorème», c'est pour en souligner l'importance : dans la pratique il faut toujours avoir présent
que diagonaliser c'est chercher une base de vecteurs propres.
6.3 Recherche des valeurs propres. Polynôme caractéristique 157

et donc / est diagonalisable.


Réciproquement, s'il existe une base {e^} telle que M(f)ei est diagonale :

( an 0 \
0 «22
M(f)ei
0

V 0

En regardant les colonnes de la matrice, on voit que f(e\) anei, ffa) «22^2,
= =

..
? f(en) —

ann e>n>
ce qui signifie que les vecteurs ei sont des vecteurs propres.

Ainsi, par exemple, les endomorphismes des exemples 1 et 3 sont diagonalisables, car
dans ce cas on peut construire une base formée de vecteurs propres.
Remarquons que sur la diagonale principale de la matrice diagonale apparaissent
justement les valeurs propres de l'endomorphisme.
Exercice 1. 2. 3.

6.3 Recherche des valeurs propres. Polynôme caractéristique


Soit À une valeur propre de / ; il existe donc un vecteur v G J5, v ^ 0, tel que f(v) =

\v, c'est-à-dire (f Xid)v 0. Comme v ^ 0 cela signifie que l'endomorphisme


=
-

(/ À
-

id) n'est pas injectif, ce qui, en dimension finie, équivaut à :


dét (/ -

A id) =
0

Aussi, si {e^} est une base de E et :

/an aln \
M(f)ei = :

\ &nl Qjnn /
la condition pour que À soit une valeur propre s'écrit :

an
-

A ai2
&21 a22 A 0>2n
0.

Q>nl Q>n2
' ' '

Q>nn
~~

En développant ce déterminant, on trouve une équation du type :

(-l)nAn + a^iA71"1 + + aiA + ao =


0

dont les racines (dans K) sont les valeurs propres de /.


Cette équation est dite équation caractéristique et le polynôme à premier membre,
appelé polynôme caractéristique de /, est noté Pf (A). Nous avons ainsi démontré :

Proposition 6.3 -

Soit f G End k(E), où E est un espace vectoriel de dimension


finie n. Les valeurs propres de f sont les racines du polynôme :

Pf(X) := dét (/-Aid).


Pf (A) est un polynôme de degré n en A, appelé polynôme caractéristique de f.
158 Réduction des endomorphismes

Exemple :

Soit / : R2 —> M2 l'endomorphisme qui, dans la base canonique, est représenté par la

(-: i)
matrice :

A =

On a :

1-A 2
Pf(X) = dét (/-Aid) = A2 5A + 6 =
(A-2) (A-3).
-1 4-A
-

Donc, les valeurs propres de / sont Ai = 2 et A2 = 3.

Si A = M (/)ei5 PfW dét (A- XI) sera noté aussi Pa (A). Il est clair, cependant,
=

que le polynôme caractéristique dépend de / et non pas de la base {e^} choisie, car
le déterminant d'un endomorphisme ne dépend pas du choix de la base dans laquelle
on le calcule (cf. définition 4.21 page 120).
L'ensemble des valeurs propres de / est dit spectre de / et est noté SpK(f) (ou
SpKAy si A est la matrice qui représente / dans une base).
Notons que A =
0 est valeur propre de / si et seulement si dét / =
0, car
P/(0) =

dét/.
REMARQUE -L'indice K dans la notation SpK(A) est nécessaire pour la raison suivante.

Considérons, par exemple, la matrice :

2 1
A =

-5 -2

2-A 1
On a : PA(\) = A2 + 1
-5 -2-A

Si donc on considère A comme matrice de M2 (C), elle a deux valeurs propres : + i et i. Si, —

en revanche, A est considérée comme une matrice de M2 (M) elle n'a pas de valeurs propres.
En d'autres termes :

SpcA =
{-i, +z} , SpRA =
0

Cependant, si le contexte est clair, on notera aussi Sp/ (ou Sp.A).

Exercice 4. 5.

6.4 Digression sur les polynômes


Par la suite il sera souvent question de polynômes. Dans ce paragraphe, nous allons rappeler
brièvement les définitions et les résultats dont nous nous servirons dans ce chapitre et dans
les chapitres suivants. La théorie des polynômes est présentée avec plus de détails dans
l'Appendice A.2.
Afin de nous placer dans le cadre le plus général englobant le cas où le corps K est fini, nous

utiliserons la notation K [X] (polynômes formels) au lieu de K [x] (fonctions polynômes)


(cf. Appendice A.2). Le lecteur qui n'est pas familiarisé avec ces notions peut, sans aucun
inconvénient, continuer à supposer que K R ou C et considérer les fonctions polynômes
=

K[x}.3

3Dans le où le corps K contient une infinité d'éléments les deux notions


cas (polynôme formel et
fonction polynôme) coïncident, à un isomorphisme près : cf Appendice A.2.
6.4 Digression sur les polynômes 159

1. Théorème de la division euclidienne

Soient A, B G K [X]> B ^ 0. Il existe alors un et un seul couple de polynômes (Q, R) tels


que :

A(X) =
B(X)Q(X) + R(X) avec d° R < d° B

où d° P désigne le degré de P. Q est dit quotient et R reste de la division euclidienne de

A par B.
Si le reste de la division euclidienne de A par B est nul on dit que B divise A (et on note :

B\A).

2. Racines

Soit P G K [X] ; a G K est dite racine de P si P (a) =


0 [P (a) désignant la valeur en a de
la fonction polynôme associée à P].

On a :

a est racine de P 4=^ (X —

a)\P
En effet, si on effectue la division euclidienne de P par X —

a, on a :

P(X) =
(X-a)Q(X) + R(X) avec d° R < 1

donc R est un élément de K. En faisant X =


a, on a immédiatement : P (a) = 0 <=> R = 0.

Donc a est racine de P si et seulement si on peut écrire :

P(X) =
(X-a)Q(X) avec
Q(X)eK[X}.

3. Racines multiples
Supposons que a est racine de P ; on peut donc écrire P(X) =
(X —

a)Qi(X). Si a est
racine de Qi, peut mettre à facteur X
on a dans Q\ et écrire (X a)2Q2(X). Si —

P(X) = —

Q2(p) 0 on peut encore mettre X


= a à facteur et ainsi de suite, jusqu'à aboutir à une

expression du type :

P(X) =
(X -

a)k Q(X) avec


Q(a) ^ 0.

On dit alors a G K est racine d'ordre k de P (en d'autres termes, (X a)k divise P et
a)k+1

(X -

ne divise pas P. )
Si ai,..., ap sont des racines deux à deux distinctes respectivement d'ordre ai,..., ap, on

peut écrire :

P(X) =
{X-a1)^{X-a2y\...,(X-avYpQ{X)
avec Q (X) G K [X] Q n'ayant pas de racine dans K
,

On voit de (i) que un polynôme de degré n admet au plus n racines (en comptant chaque
racine autant de fois que son ordre de multiplicité).

4. Polynômes scindés. Factorisation des polynômes de C[X].


La terminologie de la définition suivante sera employée souvent par la suite :

Définition 6.4 -

Soit P G K [X] de degré n. On dit que P est scindé dans K si P admet


n racines dans K (en comptant chaque racine avec sa multiplicité).
Par définition, on pose d°0 = —oo .
160 Réduction des endomorphismes

Ainsi, par exemple :

P(X) X2 -

bX + 6 =
(X -

2) (X -

3) est scindé dans :

De même :

P(X) = X3 -

4X2 + 5X -

2 est scindé dans R,


car P(X) s'écrit :
P(X) =
(X -

l)2 (X -

2) et donc il a trois racines {1, 1, 2}.


En revanche P(X) = X2 -f- 1 est scindé dans C mais pas dans R.
En d'autres termes, un polynôme est scindé si et seulement si il peut s'écrire sous la forme

P{X) =
a(X--ai)ai ...

(X-ap)a*
avec a G K , ai 7^ % pour z ^j (ii)
et ai + -

+ ap = d°P

Théorème de D'Alembert . 6.5 -

Tout polynôme de C [X] est scindé dans C.

Par conséquent, tout polynôme de C[X] se factorise sous la forme (ii).

5. Factorisation des polynômes de R[X].


Un polynôme P de R[X] peut être considéré comme un polynôme de C[X] et à ce titre il
est scindé (dans C) : il admettra donc n racines (n =
d°P) égales ou distinctes, réelles ou

complexes.
On voit facilement que :

si À est racine de P À est racine de P


d'ordre de multiplicité a d'ordre de multiplicité a

Si donc a\,..., ap sont les racines réelles de P de multiplicté a\,..., ap et b\,..., bq ,

5i,..., bq les racines complexes de multiplicité 0i,..., (3q on a ,


:

P =
k (X -

ai)ai (X ap)ap (X h)01 (X hf1


...

(X bqf* (X btf*
- - - - -

or: (X \)(X-J) X2+rX+ s,


-

avec r,s G M, r*2=4s < 0. -

On a donc :

Proposition 6.6 -

Soit P G M[X]. Alors P s'écrit d'une manière unique (à l'ordre des


facteurs près) :

P =
k(X- ai)ai ...

(X -

ap)aP(X2 + nX + 8l)^ (X2 + rqX + sq)p*


avec : k, ai, ri, Si G 1 rf -4si <0 (iii)
et ai +
---

+ ap + 2(j0i + .../?9)=n (n =
d°P)

6. Clôture algébrique. Sp et Sp\


On peut montrer que pour tout corps K il existe un corps K' D K tel que tout polynôme
P de degré n à coefficients dans K' admette exactement n racines dans K' (c'est-à-dire P
est scindé dans K'). En particulier, puisque K C K\ tout polynôme de degré n de K[X]
admet exactement n racines dans K'. K' est dit clôture algébrique de K. (Ainsi C est la
clôture algébrique de R).
Tout polynôme P G K[X] peut donc s'écrire sous la forme (ii) à condition de considérer
les racines ai,--.,ap éventuellement dans K'. Ainsi, par exemple, P = X2 -f 1 s'écrit
P=(X-i)(X + i).
6.5 Recherche des vecteurs propres 161

En appliquant ces considérations au cas du polynôme caractéristique d'un endomorphisme


f voit immédiatement que si dim^ E
on n, alors =
/ admet au plus n valeurs propres (si
E est de dimension infinie le spectre de / peut être infini).
Si P/PO est scindé dans K, il s'écrit :

Pf(X) =
(-l)n(X -

Ai)"1 ...

(X -

Ap)ap
où Ai,---)AP G K sont les valeurs propres deux à deux distinctes de / de multiplicité
respectivement ai, , ap.

Dans la suite nous utiliserons la notation suivante : soit / un endomorphisme d'un espace
vectoriel de dimension n sur K et Ài,....,Àn ses n valeurs propres, égales ou distinctes,
éventuellement sur la clôture algébrique K' de K,
5
on pose

Sp7 =
{Al,....,Àn}
Par exemple, si Pf(X) =
(-l)n (X -

2)2 (X -

4)3 ,
on a :

Sp/ =
{2,4} et Sp7 =
{2,2>4,4,4}
NOTA -
La notation Sp'/ n'est pas standard, mais nous ne nous gênerons par pour l'utiliser.

7. Polynômes premiers entre eux

polynômes Pi,..., Pr K[X] polynômes qui


6
Les G sont dits premiers entre eux si les seuls
divisent simultanément Pi, ,Pr sont les polynômes de degré 0 (ou «polynômes constants»).
Par exemple Pi =
(X -

2) (X -

3) , P2 =
(X -

1) (X -

3) et P3 = X -

2 sont premiers entre

eux.

Il est clair que si P\, , Pr sont scindés, ils sont premiers entre eux si et seulement si
il n'existe pas de racine qui soit commune à tous les Pi. En revanche, par exemple, les

polynômes de R[X] : Pi =
(X-2) (X2 +1), et P2 (X 3) (X2 + 1) ne sont pas premiers
= -

entre eux (X2 +1 est diviseur commun) bien qu'ils n'aient pas de racine commune (dans R !)
Théorème de Bezout . 6.7 -

Lespolynômes Pi, , Pr K[X] G sont premiers entre eux si et seulement s'il existe des

polynômes C/i, , Ur G K[X] tels que

Pi(X) Ui(X) + + Pr(X) Ur(X) = 1

On dit que les polynômes Pi,..., Pr sont deux à deux premiers entre eux si pour chaque
i^j, {Pi, Pj} sont premiers entre eux.

Par exemple si P =
a(X ai)ai —

(X ar)CLr est un polynôme scindé, avec ai ^


aj pour i ^ j,
les polynômes (X —

ai)ai, , (X

ar)ar sont deux à deux premiers entre eux.

6.5 Recherche des vecteurs propres

Une fois calculées les valeurs propres on détermine les vecteurs propres en résolvant,
dans le cas où la dimension est finie, un système linéaire : le système

(A-XI)v =
0.

Pour le lecteur qui n'est pas familiarisé avec les corps quelconques, considérer K R ou C et =

K =
C, et les n racines du polynôme caractéristique, Ai,...,Àn , égales ou distinctes, réelles ou
complexes.
On dit parfois premiers entre eux dans leur ensemble.
162 Réduction des endomorphismes

Exemple :

Reprenons l'exemple du § 3 : / est l'endomorphisme de R3 qui dans la base canonique est


défini par

*-(-î!)
:

Les valeurs propres sont Ai = 2 et A2 =


3. Il existe donc deux vecteurs propres v\, V2 tels
que :

f(vi) =
Ai vi et f(v2) =
A2 V2

Calcul de v\.

Il faut résoudre l'équation f(vi) =


Ai vi, c'est-à-dire :
(/ —

A id) v 1 = 0. En écrivant cette

équation dans la base canonique et en notant vi =


( ) la matrice du vecteur vi,

(A-2I)v1 =0 équivaut à:
( "J 2)(») (o) =

qui donne le système

{
ce

-x + 2y =0
-x + 2y =0

dont les solutions sont engendrées par le vecteur v1 =

( 1 (ou par tout autre vecteur

non nul colinéaire à vi).


Calcul de V2.

Il faut résoudre (/ 3 id) V2 =


0. En posant V2 =

[ on a, dans la base canonique :


(A-3I)v2=0, c'est-à-dire:
{l^J ïj
et la solution est engendrée par v2 =

( . ).

On a donc deux vecteurs propres f1 =


( ) et V2 =
( ) On voit immédiatement

2 1
qu'ils forment une base de M2, car dét||vi, i>2|| =

1 1
t^ 0. Par conséquent / est

diagonalisable

(l 30)
et

M(f)Vi =

La matrice de passage Pei->Vi est la matrice :

P=\\VlM\ei =

(K\ \ )
On vérifie facilement que : A' =
P~1AP) où A' = l 1.

REMARQUE. —

Pour chercher les vecteurs propres il faut résoudre le système (^4 —

A I)v = 0.

Puisque dét (A —

XI) = 0 (k cause du fait que A est valeur propre) l'une au moins des lignes de la
matrice A —

XI est combinaison linéaire des autres lignes (cf. proposition 4.14). Par conséquent
on obtiendra toujours un système linéaire homogène dans lequel une équation au moins est

combinaison linéaire des autres, et donc elle peut être éliminée.


g.6 Caractérisation des endomorphismes diagonalisables 163

Notons enfin la propriété suivante :

Soit A e Mn{K) et Sp'A =


{Ai,..., Xn} 7, alors :

TrA =
Ài + ---

+ Àn

dét A =
Ai Xn

Cela est clair pour ce qui est du déterminant, car

PA(X) =
dét (A-XI) =
{-l)n{X -

Ai) .

(X -

An).
En faisant X = 0 on trouve immédiatement dét A =
Ai An.
Pour ce qui est de la trace c'est un peu moins évident. Qu'il nous suffise ici de le voir dans
Mn(K')

' [* ')
le cas où A est diagonalisable : A est semblable à la matrice de

V 0 Xn J
et A et A' ont la même trace (cf. 30, chapitre ) exercice 3.
Nous verrons propriété est vraie dans le cas général (cf. corollaire 6.16, page 173).
que cette
Le lecteur est invité cependant à s'en servir dès maintenant en prenant l'habitude de vérifier

que la somme des valeurs propres qu'il a trouvée par le calcul est bien égale à la trace de la
matrice.

Exercices 6. 7.

6.6 Caractérisation des endomorphismes diagonalisables


Dans l'exemple du § 5, nous avons vu que les vecteurs propres v\ et V2 correspondant
aux deux valeurs propres Ai, A2 différentes étaient linéairement indépendants. C'est
là un fait général que nous allons expliquer dans ce paragraphe.

Définition 6.8 -

Soit X G K. On note :

Ex:={veE\f(v) =
Xv}

E\ est un sous-espace vectoriel de E dit espace propre correspondant à A.

On vérifie immédiatement, en effet, que E\ est stable pour les lois d'addition et de

produit par un scalaire.


Remarquons que :

1. si A n'est pas valeur propre, E\ =


{0} ;
2. si A est valeur propre, alors :

E\ =
{ vecteurs propres associés à A} U {0} et dimE^ > 1.

La théorie sur la diagonalisation des endomorphismes se fonde sur deux propositions


(A) et (B) (6.9 et 6.12) que nous allons expliquer maintenant.
C'est-à-dire, par exemple si A est une matrice réelle, en prenant les racines réelles ou complexes
égales ou distinctes du polynôme caractéristique.
164 Réduction des endomorphismes

Proposition (A) 6.9 -

Soient Ai,..., Xp des scalaires deux à deux distincts. Alors


les espaces propres E\x , E\p sont en somme directe.

Ceci veut dire (cf. théorème 1.38, page 26) que si Bi,...,fîp sont des bases de
E\x,..., E\p) la famille {Z?i,..., Bp} est libre dans E (non nécessairement génératrice).
Démonstration : Par récurrence sur p.

Pour p = 1 il n'y a rien à démontrer.

Supposons que E\x,..., E\p directe et montrons que E\±,..., E\


sont en somme
,

E\p+1 sont aussi s'agit de montrer que si a; G (E\± -f


en somme directe. Il -f
'

E\p) fi E\p+1, alors x 0 (cf. proposition 1.41, page 28) : les autres propriétés sont
=

automatiquement vérifiées d'après l'hypothèse de récurrence.


Soit donc x xi~\ =
\-xp e (E\1 H h E\p) D E\p+1 avec Xk G E\k. En prenant
l'image par / on a :

f(x) =
Ai xi H h Xp xp
D'autre part, puisque x G
E\p+1

f(x) =
Àp+i x =
Àp+i xi-\ h Àp+i xp

En faisant la différence :

0 =
(Ai —

Ap+i) x\-\ h (Xp —

Xp+i) Xp
Or E\x,..., E\p sont en somme directe, donc 0^ =
0ex + + 0ex es^ la seule

décomposition de 0, ce qui implique que :

(Xk -

Ap+i) xk =
0Ek pour k =
1,... ,p

Comme les A^ sont deux à deux distinctes, on a Xk =


0, pour k =
1, ,p, et donc
x 0. D
=

Ainsi donc les espaces propres sont toujours en somme directe, mais il peut se faire
que leur somme «ne remplisse pas» E tout entier, c'est-à-dire que l'on ait

EXl 0 © EXp C E

ce qui produit si dim^Aj H


se h dimE^ < dimE (cf. proposition 1.40, page 27).
Tout le problème de la diagonalisation tient à cela. Plus précisément, comme nous
allons le voir, / est diagonalisable si et seulement si dim E\x H h dim E\p dim E : =

Théorème (II) 6.10 -

Soit f G End (E) et Ai,..., Xp les valeurs propres de f.


Alors les propriétés suivantes sont équivalentes :

1. f est diagonalisable.
2. E est somme directe des espaces propres : E =
E\x 0 0 E\p.
3. dim£Al H + dim£Ap =
àimE .

Démonstration : Puisque E\1 0 0 E\p C E ,


il est clair que (b) <=> (c).
6.6 Caractérisation des endomorphismes diagonalisables 165

D'autre part :

si E =
E\1 0 E\p alors, en prenant des bases B\,..., Bv de E\±,..., E\p,
©

{Si, , Bp} est une base de E ; puisque B est formée de vecteurs


_

la famille B :=

propres, / est diagonalisable. Donc (b) => (a).


-
Réciproquement, si / est diagonalisable, il existe une base B de E formée de
vecteurs propres. Soit :

B =
{vu-
"
-

,vni,- '
,ww
*
-

,wn
'
}.
. v

e^Ai eEXp
Comme card(S) =
dimE, on a : ni H \- np =
dimE, c'est-à-dire :

dim E\x H h dim E\p =


dim E .

Donc (a) => (c) D

Corollaire 6.11 -

Si f admet n valeurs propres deux à deux distinctes alors f est

diagonalisable.
En effet dans ce cas / admet n valeurs propres de multiplicité égale à 1. Il y aura

donc n espaces propres de dimension 1.

Les dimensions des espaces propres interviennent donc d'une manière essentielle dans
le problème de la diagonalisation. Un renseignement sur la dimension des espaces
propres peut être lu directement sur le polynôme caractéristique. La proposition suivante

permet d'améliorer le Théorème (II) :

Proposition (B) 6.12 Soit f G Endk(E) et X une valeur propre d}ordre a .8


-

Alors

dim E\<a

En effet, supposons que dimE^ > a 4-1, et soient vi,..., va+i des vecteurs propres
indépendants correspondant à À. Complétons œtte famille en une base B de E :

B =
{vi,...,VoH-i,ea+2,...,en} On a :

/ A \
M(f)t

0 | B

d'où:
/ X-X 0

Pf(X) =
dét
X-X
0

\ 0 | B-XI)
=
(A -

X)a+1 dét(.B -

XI)
X serait donc valeur propre d'ordre de multiplicité au moins égal à a + 1, ce qui est
exclu. D
c'est-à-dire À est racine d'ordre a et de Pf(X).
166 Réduction des endomorphismes

Le théorème principal sur la diagonalisation est une conséquence des propositions (A)
et (B).
Théorème (III) 6.13 -

Soit f G End k(E). Alors f est diagonalisable si et


seulement si :

1. Pf(X) est scindé dans K, ce qui veut dire que Pf(X) s1écrit :

| pf(x) {-i)»(x-\1)<»-(x-\Prp |
=

avec Ai,..., Àp G if et ai + ...


+ ap = n

2. Les dimensions des espaces propres sont maximales, c'est-à-dire : pour chaque
valeur propre \ de multiplicité ai, on a :

à\mE\i =
ai

Démonstration : Si les conditions 1. et 2. sont satisfaites, on a :

dim E\x H h dim E\p =


ai H h ap =
n

et donc, d'après le théorème (II), / est diagonalisable.


Réciproquement, les conditions sont nécessaires. Supposons en effet / diagonalisable,
c'est-à-dire, d'après le théorème (II), dim^Ai H 1- àimE\p n. Si
Pf(X) n'était =

pas scindé il serait du type :

Pf(X) =
Q{X)(X -

Ai)ai (X -

Xk)ak avec ai + + ak < n.

Par conséquent : dim E\Y H h dim E\k < ai H h a* < n, ce qui est exclu. Pf (X)
est donc scindé :
Pf(X) =
{-l)n{X Ai)"1 (X Ap)a*> avec
- -

ai + + ap =
n.

D'autre part, s'il existait un


Xj tel que dimEx, < ctj on aurait :
dim i?Ai H h dim E\p < ai H h ap = n

ce qui est exclu. Donc la condition 2. est vérifiée.

Exemple 1 -

/ 2 0 4 \
,4=3 -4 12

V i -2 5 y
On a : PA(X) = -X (A -

1) (A -

2).
A admet donc 3 valeurs propres distinctes et donc elle est diagonalisable.
Déterminons les sous-espaces propres.

Eo : Soit v\ =
(*\
I y ; vi G i?o si et seulement si A v\ =
0 ce qui donne le système :

\ z
/

{2x
+ 4z =
0
3x-4y +12z =
0
x -2y + hz =0
6.6 Caractérisation des endomorphismes diagonalisables 167

on trouve : vi =
(l ~4\
3 I (ou tout autre vecteur colinéaire à celui-ci.)
V 2/
Il faut résoudre le système (^4 I)v2 0, c'est-à-dire

{x
Ei : =
:

+ 4z =
0 / -4
3x —

5y +12z =
0 ce qui donne, par exemple, V2 =
I 0
x -2y + 4z =
0 \ 1

(A 21) v$ 0, c'est-à-dire

{Az
E2 : On doit résoudre —
=
:

=
0
3z-6y + 122 =
0
x -2y +3z =
0

d'où V3 =
I 1 ,
à un facteur de proportionnalité près.

Donc A est semblable à la matrice A' = I 0 1 0 I et une matrice de passage est

/ -4 -4

A'=\ 3 0
\ 2 1

Exemple 2 -

-1 1 1
A = 1 -1 1
1 1 -1

On trouve Pa(A) = —

(A —

l)(A + 2)2. Donc A est diagonalisable si et seulement si l'espace


propre correspondant à A —2 est de dimension 2. =

E-2 est défini par le système (A + 21) v = 0, c'est-à-dire

{x
:

+ y + z =
0
x+y+z=0
rc-h2/ + ^ =
0

Ils'agit donc du plan vectoriel d'équation x + y + z =


0 qui est de dimension 2. / est
donc diagonalisable.
Une base de E-2 est donnée, par exemple, par

vi =
\ 0 et V2 =

Pour Ei on trouve la droite vectorielle d'équation :

(-2x+ y + z =0

\ x-2y + z =0

dont générateur est v3


/M
1 I. Ainsi A est semblable à la matrice
J
un =

V 1

/ 1 01
A' =
\ 0-2 0 | et on a : A! = P"1 AP avec P =
0 11
168 Réduction des endomorphismes

Exemple 3 (cf. exercice 7) -

-1 1 0
A = 0 -1 1
1 0 -1

On a : PA(X) = -A (A2 + 3A + 3) donc :

SpR^ {o} Spc^i


|o,—-—, —-—i
= =

Ainsi A n'est pas diagonalisable dans R, car le polynôme caractéristique n'est pas scindé
dans R, mais elle est diagonalisable dans C, car elle a trois valeurs propres complexes
distinctes (cf. corollaire 6.11). C'est-à-dire A est semblable à une matrice diagonale complexe,
mais pas à une matrice diagonale réelle.

Exemple 4 -

A =

On trouve Pa(A) = —

(A —l)2(A+2). Donc A est diagonalisable si et seulement si dimEi =

2. La détermination de E\ conduit au système

(Sx -22 = 0

\ bx + y-2z =
Q

qui définit une droite vectorielle, car les deux équations sont indépendantes. On en déduit
que dimiia 1 et, par conséquent, que A n'est diagonalisable ni dans R ni dans C.
=

Exercices 8. 9. 10. 11. 12. 13. 14. 15. 16.

6.7 Trois applications

Calcul de la puissance d'une matrice

Soit A G Mn{K). Supposons A diagonalisable ; il existe alors une matrice diagonale A' et
une matrice inversible P telles que : A' =
P~XAP, c'est-à-dire A = PA! P"1. Donc :

Ak =
(PA,P-1)(PA,P-1)...(PA,P-1)
v /
=
P{A')kP~1
v

fc-fois

fA1 0 0 \
Or si A' =
(A')k =
( . et donc Ak se calcule facilement
V o An 0 A* /
par la formule

Ak = P P'1
A£ J
6.7 Trois applications 169

Exemple
-

1 -1
'

Soit A =
t 2 4

2 0
On a Pa(A) =
À2 5A + 6 =
(A 2)(A 3). Ainsi A'
0 3
- - -

Pour les vecteurs propres on trouve :

E2 : -a;-y=0, donc: v± = (
_1

£3 : -2x y =
0 donc : t>2 =
f _2

Ainsi:P=(_; _J) ( _\ _\).


-

et P"> =

En effectuant les calculs on obtient :

nfc+l ofc ofc+1 c\ nk

_2k 3fc -2k 3fc


-

+ + 2

IL RÉSOLUTION D'UN SYSTEME DE SUITES RECURRENTES

Illustrons cela sur un exemple. Il s'agit de déterminer deux suites (un)neN, (vn)nen telles
que :

f Un+1 Un Vn ( Uo 2
(1)
= =

et telles M
/1\

n
< que <
^0
, ,

{Vn+1 =2un+4vn 1
n
,
,
=

On pose Xn =

( 1. Le système (1) s'écrit :

Xn+i = A Xn avec
ai)
d'où, par récurrence :

Xn =
AnX0 avec X0

On est ainsi ramené au calcul de An. Dans notre cas, compte tenu du résultat ci-dessus :

Un
H _

3n 2n+1 -

2 3n \ / 2 \

/ V
Vn 71
+ 3n -2n + 2 3n *
/

2n+2 _

2 .
3n _|_ 2^+1 _

2 .
3n

_2n+i + 2 3n -

2n + 2 3n

3 2n+1 4 3n
c'est-a-dire
. -

: <
[Vn =
-3 2n + 4 3n
170 Réduction des endomorphismes

III. Système différentiel linéaire à coefficients constants

Soit à résoudre le système différentiel


dxi =
CLuXl ~\ YCLlnXn
dt

dxr
dm %1
~dt
CLnn En
*

i i
" "

avec dij G M et Xi : R —> R dérivables.


Sous forme matricielle le système s'écrit :

Éè
xi

« = AX A =

(aij^, X =

Supposons A diagonalisable. Il existe alors A! matrice diagonale et P matrice inversible telles


que : P~XAP. Si on considère A comme la matrice d'un endomorphisme / dans la base
A! =

canonique, A' est la matrice de / dans la base de vecteurs propres {vi}.


De même X est la matrice d'un vecteur x dans la base canonique et X' M(x) Vi est liée à =

X par
X' = P~XX

(cf. proposition 3.25, page 77.) En dérivant cette relation :

dX' .
dX
^

dt dt

(car A étant à coefficients constants, P sera aussi à coefficients constants). Donc :

^- = P~lAX =

(P-1AP)X' =
A'X'

Le système (1) est donc équivalent au système

dX'
= A'X'
dt

Ce système s'intègre facilement, car A' est diagonale.


j
-y
Ainsi, on peut résoudre le système ——
= AX de la manière suivante :
dr

a) On diagonalise A. Soit A' =


F-1AP une matrice diagonale semblable à A ;
dX'
b) on intègre le système
dt
=
A'X'

c) on revient à X par X = PX''.

Exemple -

Soit le système
dx
"dt
ày = 2x + 4i
dt

*-(î!)
1 1
On a et P
-1 -2
6,8 Trigonalisation 171

H X'
Le système
——
= A'X' s'écrit :

=
3y'

qui donne immédiatement 3t


et donc, en revenant à X par X = PX'

de2t C2e3t
+

C2e3 -Cie2t-2C2e3t

c'est-à-dire :
x =
de2t + C2e3t
y =
-Cie2t -

2C2e3t

Exercices 17. 18. 19. 20.

6.8 TV igonalisat ion

Une matrice A G M.n(K) est dite triangulaire supérieure (resp. : triangulaire


inférieure) si elle est de la forme

( an ai2 «in \ ( an \
«22 &21 a22 0
A =
(resp. : A )

^ o Ûnn /
Q>nn /

REMARQUE. Toute

matrice triangulaire supérieure est semblable à une matrice


triangulaire inférieure.
En effet, soit A une matrice triangulaire supérieure et / l'endomorphisme de Kn qui dans
la base canonique {ei, , en} est représenté par A, c'est-à-dire :

f /(ei) =
anei

f(e2) =
a\2 ei + a22 e2

/(en-i) =
«i,n-i ei H h an-i,n-i en-i

{ f(en) =
ain ei H h ann en

Considérons la base

si =
en, e2 =
en_i, , £n =
ei.

On aura

f /(^l) =
ûin^n + «2n£n-l H h ann£l
| f(s2) =
ai,n-l £n H h an_i,n-l £2

l /(£n) =
an 6n
172 Réduction des endomorphismes

donc

/ ann 0 ^
fln-l,n 0>n—l,n 1
M(f)H = = A'

\ CLln «il /

A et A' sont semblables car elles représentent le même endomorphisme en des bases
différentes.

Le problème que nous quand une matrice A G A4n(K)


allons étudier est de savoir
est semblable à triangulaire de Mn(K) (ou, en termes d'endomorphisme,
une matrice
quand un endomorphisme peut être représenté dans une certaine base par une matrice
triangulaire). D'après la remarque, il suffira d'étudier le cas où A est semblable à une
matrice triangulaire supérieure.

Théorème 6.14 endomorphisme est trigonalisable dans


Un K si et seulement si
-

son polynôme caractéristique est scindé dans K.


Nota —Ceci veut dire (cf. (ii) page 160) que le polynôme caractéristique a n racines dans K

( n = dim E) et donc s'écrit :

pf(X) =
(-l)n (X Ai)** (X \p)*r
- -

avec ai + ap
= n.

Corollaire 6.15 -

Toute matrice A G .Mn(C) est semblable à une matrice


triangulaire de Mn(C).
En particulier une matrice A G MnÇ^) peut être considérée comme matrice de .Mn(C) et, à ce titre,
elle est trigonalisable ; cependant les coefficients de la matrice triangulaire semblable à A ne sont pas

en général des réels mais des complexes. On dit dans ce cas que A est trigonalisable dans C mais pas

dans M.

Démonstration :
Supposons que l'endomorphisme / est trigonalisable et soit une

base {ei, , en} telle que :

/ an

M(/k =

V o

On a :

/ an
-

X *
\
Pf(X) =
dét (an -

X)(a22 -

X) (ann -

X).
V 0 0>nn X ]

donc Pf(X) (remarquons que si A est triangulaire, les éléments de la


est scindé

propres).
diagonale an sont les valeurs
Réciproquement supposons Pf(X) scindé et montrons par récurrence que / est
trigonalisable.
6.8 Trigonalisation 173

Pour n = 1 il n'y a rien à montrer.


1. Puisque Pf(X) est scindé, il admet
Supposons le résultat vrai à l'ordre n au

racine A K donc il existe au moins un vecteur propre s\ G E\.


moins une € et

Complétons {ej} en une base : {ei,£2> ,en}- On a :


/A b2 bn\
0
A:=M(f)ei =
où: BeMn-i(K).
B

V 0 I
Soit F Vect{£2,
=
,£n} et g : F — F l'unique endomorphisme de F tel que

M{g)e2)...,en B. =
On a :

Pf(X) =
dét(A -

XIn) =
(A -

X) dét(B -

Xln-x) =
(X-X) Pg{X)
Puisque Pf(X) est scindé, Pg(X) l'est aussi et donc, d'après l'hypothèse de récurrence,

B est trigonalisable, c'est-à-dire il existe une base {e<i,..., en} de F relativement à


laquelle M(#)e2,...,en est triangulaire. Dans la base {ei, e^..., en} la matrice / est
triangulaire.

Remarques.
-

1. Comme on l'a déjà dit, si A est trigonalisable, la matrice A! triangulaire semblable à


A a sur la diagonale les valeurs propres de A.
2. Toute matrice A G Mn{K) est trigonalisable sur la clôture algébrique K' de K.

Compte tenu de la remarque 1, on peut montrer dans le cas général la propriété


concernant la relation liant la trace et le déterminant aux valeurs propres (cf. page
163) :

Corollaire 6.16 -

Soit A G Mn{K) et SpA =


{Ai, , An}. On a alors :

TrA =Ài + ---

+ An
dét A =
Ai An

En effet si A! G Mn{K') est une matrice triangulaire semblable à A, on a TV A1 =

Ai H h An et dét A! =
\\ An. Puisque deux matrices semblables ont même
trace et même déterminant, on a Tr A Ai H
=
h An et dét A Ai =
An.
Exemple -

/-4 0 -2\
Soit A 0 1 0

V
=

5 1 3/
On a Pa{X) =
—(X —

l)2(X + 2).
polynôme caractéristique est scindé dans R ; donc
Le
A est trigonalisable dans R. En regardant A comme la matrice d'un endomorphisme / de
M3 dans la base canonique, on sait qu'il existe une base {vi} de M3 telle que

(l b\

c)
a

M(f)Vi = 0 1

\0 0 -2/
î î î
fM /(!») f(vs)
174 Réduction des endomorphismes

ceci signifie que :

1 ( f(vi) vi

f{v2)
=

II < =
av\+V2
III \ f(vz) bVi + CV2 2^3
= —

Calcul de vi (vi est le vecteur propre correspondant à Ai).


L'équation I , (/ —

id)t>i =
0 (c'est-à-dire (A —

I)vi =
0), donne :

( -Sx -2z =0

\ bx + y + 2z =0

( 02\
On peut prendre
)
V-5/
^i =

Calcul de V2«

On résout l'équation II , (/ —

id ) V2 =
ai>i, c'est-à-dire (A —

I) V2 = a v\ :

( —bx z =
2a

\

bx -\-y + 2z =—ba

d'où, par exemple, prenant 1


(~2\
l 3 I.

V 4/
en a = : V2 = —

Calcul de V3.

On sait qu'il existe un vecteur propre v correspondant à la valeur propre —2, c'est-à-dire
tel que f(v) = —

2v. On peut prendre, donc : ^3 i>, b c = 0. = =

En résolvant (/ + 2 id)^3 0, c'est-à-dire (.A + 2 /) ^3


=
0, on trouve : =

( -2x -2z =0

\ 3y =0

qui donne, par exemple : i>3 =


I 0l\1. Ainsi A
I est semblable à la matrice

A' =
M(f)Vi =

et la matrice de passage est la matrice

P= ||vi,V2,v3|| =

Exercice 21.

6.9 Polynômes annulâteurs. Théorème de Cayley-Hamilton


Comme nous l'avons vu (théorème (III) 6.13) pour savoir si un endomorphisme est diago-
nalisable, on est amené à faire une étude des dimensions des espaces propres, étude qui peut
être délicate, en particulier si des paramètres interviennent dans le problème. La théorie des
6.9 Polynômes annulateurs. Théorème de Cayley-Hamilton 175

polynômes annulateurs, que nous allons développer dans les paragraphes qui suivent, permet
de s'affranchir de la recherche des espaces propres et de la discussion sur leur dimension en

donnant d'une manière explicite les relations qui doivent relier les coefficients de la matrice
soit diagonalisable.
pour qu'elle

Soit E un espace vectoriel sur K et Q G K[X] :

Q(X) =
amXm + am^X -1 + + axX + a0

Si / G End k(E), on note Q(f) l'endomorphisme de E défini par :

Q(f) := am/m + a -!/ "1 + + aif + a0 id

où fk =

v
f°--of '
v

fc-fois

REMARQUE. Bien que la loi de composition des endomorphismes


ne soit pas commu-

tative, on a cependant :
P(f)oQ(f) =
Q(f)oP{f)
pour tout couple de polynômes.

Cela tient au fait que / est linéaire et que les différentes puissances de / commutent entre elles.
n m

Soient en effet P(/) =


J^Oi/* et Q(f) =

Y^ôP ; on a :

PU) o
Q(f) =
(E?=i cap) (Ef=1 bdfs) J2id oibjf* fi.
o = o =
^ oibjfi+t
=
Etj bjoif* fi (S,m=1 bjP) (J2?=i Oif*)
o = o =
QU) o
P(/).

Soit / un endomorphisme de E. Nous nous intéresserons par la suite aux polynômes


Q(X) G jRT[-X], non nuls tels que Q(f) y
=
0 9. Par exemple, si / est un projecteur
(c'est-à-dire si /2 /), on a f2 f 0 = —
=
donc le polynôme Q(X) = X2 —

X vérifie
QU) o. =

Définition 6.17 -

Soit f G End^E"). Un polynôme Q(X) G K[X] est dit annula-


teur de f si Q(f) =
0.

Dans les paragraphes qui suivent nous montrerons le résultat suivant

Un endomorphisme f est diagonalisable si et seulement si il existe un polynôme (non


nul) annulateur de f scindé et n'ayant que des racines simples (c'est-à-dire d'ordre de
multiplicité 1).

Ainsi, par exemple, un projecteur est nécessairement diagonalisable car le polynôme Q(X) =

X(X —

1) l'annule, est scindé et n'a que des racines simples (cf. exercice 11 chapitre 3).
De même, considérons un endomorphisme f de E tel que /3 =
/. On peut montrer (cf. exercice
12 chapitre 3) que E =
Eç> 0 E± 0 E-± ; donc / est diagonalisable car E est somme directe

d'espaces propres. Le théorème que nous venons de citer donne directement le résultat, car le

polynôme Q(X) = X3 -

X =
X(X -

1)(X + 1) est annulateur de /.

Bien entendu, 0 désigne ici le l'endomorphisme nul.


176 Réduction des endomorphismes

Notons tout d'abord que la connaissance d'un polynôme annulateur donne


renseignements sur le spectre de /. On a :
immédiatement des

Proposition 6.18 Soit Q(X) un polynôme annulateur de f. Alors les valeurs


-

propres de f figurent parmi les racines de Q, c'est-à-dire :

Sp(/)cRacQ
En effet, si À est une valeur propre de /, il existe un vecteur v non nul tel que
f(v) =
Xv. On a :

f2(v) =
f(Xv) =
Xf(v) = X2v

f*(v) =
X3v

fk(v) =
Xkv
Soit Q{X) =
amXm + arn-iXm-1 + + axX + a0 un polynôme tel que Q(f) =
0,
c'est-à-dire vérifiant :

amr + cirn-if '1 + + ai/ + a0 id =


0

En appliquant cette relation au vecteur v on trouve :

(om r + flm-i r~l + + ai / + ao id )v =


0

c'est-à-dire
(dm Am + am_i Am_1 + + ai X + a0) v =
0

Or v^O, donc am Àm H h a\ X + ao =
0, c'est-à-dire Q(X) =0.
Ainsi, par exemple, un projecteur ne peut avoir que les valeurs propres 0 ou 1 (ou 0 et 1). Si /
est un endomorphisme qui vérifie f3=f ses valeurs propres ne peuvent être que 0, 1 ou —

1.

Remarquons que toutes les racines de Q ne sont pas nécessairement valeurs propres.
Par exemple id vérifie id2 =
id, donc Q(X) =
X{X —

1) est annulateur, et pourtant


0 n'est valeur propre.

La première question qui se pose est de savoir si, pour tout endomorphisme /, il existe
un polynôme annulateur de / (autre que le polynôme nul).
La réponse est affirmative. En effet, si dirn^ E n, on a dimx End #(i£) n2. Donc = =

toute famille de n2 + 1 endormophismes est liée. En particulier les endomorphismes

id, /, /2, , fn sont liés. Il existe donc ao, ai, a2, , an2 G K non tous nuls, tels

que :

a0 id+ai / + a2 f2 + H- an2 /n' =


0,
ce qui veut dire que le polynôme Q(X) =
ao + a\X + a2X2 + + an^Xn est
annulateur de /.
Le théorème suivant dit que parmi les polynômes annulateurs de / il y a toujours le
polynôme caractéristique.
Théorème de Cayley-Hamilton . 6.19 -

Soit f G End*:(£) et Pf(X) le


polynôme caractéristique de f. On a alors :

Pf(f) = 0
6.9 Polynômes annulateurs. Théorème de Cayley-Hamilton 177

REMARQUE. Comme nous suite, le théorème de Cayley-Hamilton


le verrons dans la

permet, entre algorithme qui donne tous les polynômes annulateurs


autres, d'élaborer un

de /. On peut ainsi savoir effectivement si parmi les polynômes annulateurs il y en a un

qui n'a que des racines simples.

Démonstration : Supposons d'abord K =


C. Dans ce cas / est trigonalisable. Soit
Sei} une base de E telle que :

'Ai
M(/)ei =

On a :

Pf(X) =
(Ai -

X){\2 -

X)... (An -

X).
Il s'agit de montrer que

(Ai id -/) o
(A2 id -/) o o
(An id -/) =
0.

Considérons l'application

Qi =
(Ai id -/) o ...
o
(A» id -/)

Nous allons montrer par récurrence que gi annule les vecteurs ei,e2,..., e* ; pour
i n on aura le théorème.
=

Pour i =
1, on a :

9i(ei) =
(Aiid-/)ei =
Aiei -

/(d) =
0

(cf. la première colonne de M(/)eJ. Supposons que g%-i(ei) =0, ..., <fc-i(ei-i) =
0
et montrons que :

9i(ei) =
0, ..., gi(ei) =0.

On a : # =
^_i o
(Ai id -/ ) =
(Ai id -/) o
gi__1 ,
donc :

gi(ei) =
0, ..., ^i(ei_i) =
0.

Il reste à montrer que gifa) =


0. On a : gi{ei) =
#i_i(Ai a —

ffa)). Or :

/\l ax \
o '

| a%-\
o»-i
'
'

M(/)e Ai
0

u 0 An /
î
178 Réduction des endomorphismes

donc

f(ei) =
oi ei H h a*_i e^-i + A; e^

d'où:
9i(ei) =
9i-i (Xi e» -

(ai ei H h Oi_i e*_i + A* e»))


=
-^i_i ( ai ei + a2 e2 H h a^_i e*_i ) =
0

car <ft_i s'annule sur ei,..., ei_i. Ceci montre que si A G Mn(C), Pa(A) =
0.

Si A G A1n(K), on considère A comme une matrice complexe particulière et donc on


a :
Pa(A) 0. Le théorème est donc démontré pour K R et if C.
= = =

Si K est un corps quelconque, on considère la clôture algébrique K1 de K (cf. page


160). Le théorème se démontre de la même manière en faisant jouer à K' le rôle de
C et à K le rôle de R.

Soit Q un un polynôme scindé :

Q(X) =
(X-a1)ai--.(X-ar)ar.
Le polynôme
Q1(X) =
(X-a1)..'{X-ar)
est dit radical de Il est facile de voir que si f est un endomorphisme
Q. diagonalisable
non seulement Pf(X), mais aussi son radical est un annulateur de / :

Proposition 6.20 -

Soit f un endomorphisme et

Pf(X) =
{-l)n (X -

Ai)ai ...

(X -

Xp)«*
le polynôme caractéristique. Alors, si f est diagonalisable, le radical de Pf(X), c'est-
à-dire le polynôme Q(X) (X Ai) = —

(X —

Xp), annule f.

En effet, puisque / est diagonalisable, il existe une base B =


{vi, ,vn} formée de
vecteurs propres. Si Ai, , Xp sont les valeurs propres, pour tout v G B il existe au

moins une valeur propre Xj telle que (/ Xj id)t> =


0 ; donc pour tout v G S, on a

(/-Aiid)o...o(/-Apid)T; =
0,

car endomorphismes (/ Xk id) commutent (cf. remarque page 175).


les —

Puisque l'endomorphisme (/ Ai id) o o


(/ Xv id) s'annule sur une base, il s'annule
— —

sur tout vecteur. Donc le polynôme


Q(X) (X Ai) (X Xp) est un annulateur = — —

de/.

REMARQUE. Cette proposition montre en particulier que si / est diagonalisable,


-

alors
il existe un polynôme annulateur qui est scindé et qui a toutes ses racines simples. Dans
le prochain paragraphe nous allons montrer la réciproque de cette propriété.

Exercices 22. 23. 24.


m
10 Le Lemme des noyaux 179

6.10 Le Lemme des noyaux

f End k(E) et
kemme des Noyaux 6.21 Soit G
-

Q(X) =
Q1(X) QP(X)

un polynôme factorisé en produit de polynômes deux à deux premiers entre eux.

Si Q(f) ° alors :
=

E =
KerQi(/) © © KerQp(/)

REMARQUE. Avant de donner la démonstration regardons d'abord comment ce lemme


s'applique. Considérons, par exemple, un projecteur, c'est-à-dire un endomorphisme / tel

qUe f2 f. Le polynôme Q(X) X(X 1) annule /. Comme X et X 1 sont premiers


= = — —

entre eux, on a :

£ =
Ker/ © Ker(/ -

id)
Donc E est somme directe d'espaces propres et, par conséquent, / est diagonalisable.
Plus généralement, si

Q{X) =
(X~X1) ...

(X -

Xp), avec Ai / À,

annule /, on a :

E =
Ker(/ -

Ai id) 0 © Ker(/ -

Xp id)
=
EXl © © EXp
et donc / est diagonalisable.

Plus précisément, on a :

Théorème (IV) Théorème des polynômes annulateurs. 6.22 Un -

endomorphisme f est diagonalisable si et seulement si il existe un polynôme annulateur de f,


scindé et n'ayant que des racines simples.

On vient de montrer en effet que la condition est suffisante. La réciproque est

conséquence de la proposition 6.20 page 178.

Démonstration du Lemme des Noyaux : par récurrence sur p.


Pour p = 1 le lemme est évident. En effet Q(X) Qi(X) =
et, par hypothèse, Qi(/) =

0; ce qui veut dire que \/x G E :


Qi(f)(x) 0, c'est-à-dire
=
E C KerQi(/), donc
£ =
KerQi(/).
Cas où p 2. =

Soit Q Qi Q2. Puisque Qi et Q2 sont premiers entre eux, d'après le théorème de


=

Bézout il existe deux polynômes U\ et U2 tels que

U1Q1 + U2Q2 =
l

d'où:
Ui(f)oQ1(f) + U2(f)oQ2(f) = id
180 Réduction des endomorphismes

Ainsi :

VxeE : x =
Ui{f)o Qx(/)(») + U2(f) o
Q2(f)(x) (*)
c'est-à-dire :

E C Im £/!(/) o
Qj(/) + Im C/2(/) o
Q2(f)
et donc :

E =
lm Ui(f) o
Qrif) + Im U2(f) o
Q2(f).
Or:
Q2U) °
W) °
Qi(/) = 0 (car Qa(/) °
Qi(f) =
0)
donc :

Im Uxtf) oQi(/)c KerQ2(/).


De même :

Im^2(/)oQ2(/)cKerQi(/)
et par conséquent :

^ =
KerQ!(/) + KerQ2(/).
D'autre part, si a; G Ker Qi(f) H KerQ2(/), d'après (*) on a x =
0 et donc :

E =
KerQ!(/)0KerQ2(/).

Supposons maintenant le théorème vrai jusqu'à l'ordre p


1 et écrivons :

Q =
Qi Qi
V
- - -

Qp-i -QP
-

'
v

Q*

D'après le cas p = 2 :

E =
Ker Q*(/) ©KerQp
Il reste à montrer que :

KerQ*Cf) =
KerQ!(jO e--- ©KerQp_i(/)
Soit F =
Ker<2*(/). D'après l'hypothèse de récurrence :

F =
K^Q1(f) © ©Ke^Qp_i(/)
où K^Qi(/) =
{ajGF|Qi(/)(x) =
0} C KerQ^/).
Or en fait Ker<2;(/) KerQi(f). En effet si
= x G KeiQi(f) on a Q*(f)(x) =
0, donc
x G F et donc x G KerQi(/). Ainsi donc :

F =
KevQ1(f) ®-.-©KerQp-i(/). D

Le Lemme des noyaux s'applique en particulier au polynôme caractéristique qui,


d'après le théorème de Cayley-Hamilton, est annulateur de / :
6 11 Recherche des polynômes annulateurs. Polynôme minimal 181

Corollaire 6.23 Soit Pf(X) (X-Ai)"1 =


(X-Xr)a^ Q(X) (avec X{ ± Xj) la
-

décomposition de Pf(X) en polynômes deux à deux premiers entre (Q étant


10
eux

sans racines
dans K). On a alors :

E =
Ker(/ -

Ai id)ai © © Ker(/ -

Ar id)a" © Ker Q{f)

En particulier, si Pf{X) est scindé dans K, c'est-à-dire si

Pf(X) =
(-l)n(X -

Ax)"1 '"(X- Ap)a*,

alors : E =
Ker(/ -

Ai id)°* © 0 Ker(/ -

Xp id)"*>

Cette décomposition en somme directe jouera un rôle important dans la suite.

Exercices 25. 26.

6.11 Recherche des polynômes annulateurs.


Polynôme minimal

La théorie du polynôme minimal et le théorème de Cayley-Hamilton donnent une

méthode de construction systématique de tous polynômes annulateurs de /.


Définition 6.24 On appelle polynôme minimal de f
- -

noté rrif(X) -

le polynôme
normalisé annulateur de f de degré le plus petit n.

On démontrera (cf. ci-dessous) que le polynôme minimal est unique.


Notons que, par définition, on a :

m/(/) =
0

Il est clair que si un polynôme Q est un multiple de rrif(X) (c'est-à-dire est divisible

par mf(X)) alors Q(f) 0. En effet :


=

Q(X) =
A(X) mf(X) =» Q(f) =
A(f) mf(f) =
0

On a, en fait, la réciproque :

Proposition 6.25 -

Les polynômes annulateurs de f sont les polynômes du type

Q{X) =
A(X) mf{X) avec A(X) G K[X]
Supposons en effet que Q(f) =
0. En effectuant la division euclidienne de Q par m/,
on a :

Q{X) =
A(X)mf(X) + R(X)
où d°R < d°mf (c'est-à-dire : ou R 0 ou, si R ^ 0, d°R < d°mf). =

Puisque Q(f) 0 et mf(f)


=
0, on a R(f) 0. Donc R est un annulateur de /.
= =

Mais rrif(X) est Pannulateur de degré le plus petit : ainsi R ^ 0 est impossible (car
on aurait alors d°R < d°mf). Donc R =
0 et m/ divise Q.
10cf. (i) page 159
plus haut degré
1
normalisé veut dire que le coefficient du terme de vaut 1.
182 Réduction des endomorphismes

Corollaire 6.26 -

mf(X) "divise Pf(X).


Unicité du polynôme minimal
Soient rai et mi deux polynômes minimaux. Puisqu'ils sont annulateurs de /, m\
divise mi et mi divise rai. Donc m^ ferai (k G K). Or rai et m^ sont normalisés,
=

donc : rai m^. =

Recherche du polynôme minimal

La proposition 6.25 montre que pour connaître tous les polynômes annulateurs de /, il
suffit de connaître le polynôme minimal. Nous allons expliquer maintenant comment
on détermine le polynôme minimal.

Proposition 6.27 Les racines de mf(X) sont exactement les racines de Pf(X),
-

c'est-à-dire les valeurs propres, mais avec une multiplicité en général différente. En
d'autres termes, si on considère Pf(X) scindé (éventuellement sur la clôture
algébrique K' de K), c'est-à-dire si

pf(X) =
(-l)n(X -

Ai)*1 (X -

\p)a* avec : A, ^ A,- ,

aiH \-ocp=n

alors
(X- Ai)^1 Ap)A>
'

mf(X) =
(X -

avec 1 < A < c*.

Démonstration : On sait que Pf(X) =


A(X)rrif(X) ; donc si A est racine de m/,
alors elle est racine de Pf.
Réciproquement, soit A racine de P/, c'est-à-dire valeur propre de /, alors A est racine
de ra/, parce que ra/ annule / (cf. proposition 6.18, page 176).

On a : PA{X) =
-(X + 1)(X + 2)(X -

3),

mA(X) =
(X + 1)(X + 2)(X -

3).

PA(X) =
-(X-l)(X + 2)2.

On a donc deux possibilités :

soit mf (X)=(X-1)(X + 2)
soit m/pf) pT-l)pf + 2)2
'

Calculons (A —

I)(A + 21) ; si l'on trouve la matrice nulle le polynôme minimal sera

le premier, sinon ce sera le second.

(-2 1 V 1 1 1\ 0 0 0

(A-I)(A + 2I) 1-2 1 1 1 1 0 0 0


\o
= =-

\ 1 1-2, 1 1 1 0 0

Donc :

m/(X) =
(X- 1)(X + 2)
6.11 Recherche des polynômes annulateurs. Polynôme minimal 183

Théorème (V) 6.28 Un endomorphisme f est diagonalisable si et seulement si


-

son polynôme simples.


minimal est scindé et il a toutes ses racines

En effet la condition est suffisante, d'après le théorème des polynômes annulateurs

6.22, car mf(f) =


0.

Réciproquement, soit Pf(X) est scindé et, comme rnf(X)


/ diagonalisable; alors

divise Pf(X), mf(X) Sp(/) {Ai,...,Ap} et B


est scindé. Soit {vi,...,vn} une = =

on l'a vu (cf. page


base de vecteurs propres. Comme 178), le polynôme Q(X) =

(Y -

Ai) (X Xp) est un annulateur de /. Il s'ensuit que rrif(X) divise Q(X).


Puisque Q(X) n'a que des racines simples, rrif(X) n'a que des racines simples. D

Exemples :

i-i i i\
1.
A=\ 1-1 1 On que mA(X) (X+ 2)(X 1).
-l)
a vu =

\
-
.

1 1

Donc A est diagonalisable.

2. A= -1 0 1 On a: PA{X) =
-(X -

l)3

donc :

ou :

l (X -

l)3
et A est diagonalisable <£=> mA(X) = X —

1 <é=> A —

I =
0.

Comme A n'est pas la matrice unité /, A n'est pas diagonalisable.

/3 -1 1\
3. A= 2 0 1 On PA(X) =-(X 1)(X-2)2
\l
a:

2)
-

-1

nx-i)(x-2)
donc mA(X)
((X-l)(X-2)2
: = < ou :

Ainsi :

A est diagonalisable <=> mA(X) =


(X -

1)(X -

2) <=> (^ -

7)(A -

21) =
0.

En effectuant le produit (^4 —

I) (A —

2 7) on trouve :

/2 -î r
(A-I)(A-2I)= 2-1 1
) [ 2 -2 l
) =
| . . .

) ^0

donc A n'est pas diagonalisable.

Exercices 27. 28. 29. 30. 31. 32. 33. 34. 35. 36.
184 Réduction des endomorphismes

6.12 Réduction en blocs triangulaires


(ou réduction selon les espaces caractéristiques)
Comme nous l'avons vu, cf. théorème 6.14, si le polynôme caractéristique Pf(X) est
scindé il existe une base (vi) telle que :

M(f)Vi =

0 An/

Une simplification supplémentaire est possible dans laquelle plusieurs des termes «*»
sont nuls.

Définition 6.29 -

Soit Pf(X) =
(-l)n(X -

X±)ai (X -

Xp)a? (avec Xt £
Xj). On appelle espace caractéristique associé à la valeur propre Xi le sous-espace
vectoriel :

NXi =
Ker(/ -

A, id)°«

D'après le corollaire 6.23, si Pf{X) est scindé, E est somme directe d'espaces
caractéristiques (que / soit diagonalisable ou non) :

e =
NXl e e NXp

Remarques. -

1. Nx d Ex

En effet, si z 6 Ex, (/ A id)(a;) 0 -


=
donc (/ -

A id)a(z) =
0 (a étant l'ordre de
multiplicité de A), c'est-à-dire x G Nx.

2. Les sous-espaces caractéristiques sont stables par /, c'est-à-dire :


f(Nx) C Nx.

En effet, si x G iVA, on a : (/ -

A id)a(z) 0 =
; d'où / o
(/ -

A id)a(aO =
0 et donc

(/ -

A id)a o
f(x) =
0, c'est-à-dire f(x) G Nx.

Théorème 6.30 .
(Réduction selon les sous-espaces caractéristiques)
Soit f G End k (E). On suppose que le polynôme caractéristique est scindé :

Pf(X) =
(-l)n(X -

Ai)ai ...

(X -

Ap)°* (avec Xi ^ Xj)

Il existe alors une base B de E, B =


{Si, B<i Bp} où Bi est une base de Nxi} telle
6.12 Réduction en blocs triangulaires
(ou réduction selon les espaces caractéristiques) 185

que

M(/)£

ai OL2 OLp

et
( Xi

M«K\
=

V o \i

La démonstration est très simple et repose sur le lemme suivant :

Lemme 6.31 Soit E =


E\ 0 0 Ep, où les Ei sont des sous-espaces vectoriels
-

stables par f. Si Si, , Sp sont des bases de E±, ,EP, la matrice de f dans la
base S {Si,
=
, Bp} de E est :

( {MÏ\ 0 \
\M2\

{
M(f)B =
où: Mi =

M(/L1)
o
[Mp]y
En effet, soient Si =
{ei, ,eni}, ,SP =
{ei,- ,enp}. Puisque f{Ei)<zEi, on a :

/(ei) f f(ei) 6n &inp £np


'

=
an ei + + aini eni =
£i + h

l/(eni) =
Griil Ci H h anini eni (f(£np) =
&npl £l H 1- ^npnp £np
donc

M, o \
M(f)B =
où Mi =
( Ojj ),- -, Mp =
( 6Jm )
0 \Mn
186 Réduction des endomorphismes

Démonstration du théorème :

Puisque les N\i sont stables par /, d'après le lemme il existe une base B de E telle
que
(\K\ o \
M(f)B où Mj Mtfj), fj f\N

= : = =

Il s'agit de montrer que chaque matrice Mj est trigonalisable et ses valeurs propres
sont {\j,
v
, Xj}.'
On a :
v

ajfois
NXj=Kev(f-Xjid)^
donc \jid)aJ(x)
(/ 0, NXj, c'est-à-dire : (fj \jid)a*
= 0.
Vx G =
Ainsi le
-
-

polynôme (X \j)aj est un annulateur


de fj par conséquent polynôme


et le minimal
de fi est du type :

mfj (X) =
(X -

Xj)Jj ,
avec 1 < 7j < &j.

On en déduit :

Pfj(X) =
(-l)s>(X-\j)*', avec
ôj >
7i

Donc PfAX) est scindé et son spectre est {Aj,- ,Àj}.


N '
Ceci prouve que Mj est
v

ôj fois
trigonalisable.
Il reste à montrer que ôi =
a*. On a :

Pf(X) = dét (Mi -

XI) dét (Afp -

XI)
=
p/x(x) .p/p(x) =
(-ir(x -

Ai)**... (x -

\py*
et comme par ailleurs Pf(X) =
(-l)n(.X" -

Ai)ai (X -

Ap)ap, on a facilement
Si =
ai.

Exemple Soit

(l -2\
-

-1 2
0 0 1-1
A =

1-110

\1 -1 1 0/
Considérons A comme la matrice d'un endomorphisme / de E4 dans la base canonique
{ei}. On a :

Pf(X)=X2(X-l)2.
Il existe donc une base de M4 {t>i, , v^} telle que :

( 1 a 0 0 \
0 1 0 0
M(f)vt =

0 0 0 b

\ 0 0 0 0 /
î T î î
/(»l) /(»2) /(«S) /(«4>
6.12 Réduction en blocs triangulaires
(ou réduction selon les espaces caractéristiques) 187

ce qui veut dire que :

f f(vi) =vi

f(v2) =CLVi+V2
f(vs) =0

{ f(v4) =bv3

y
Calcul de vi. On résout le système A v\ =
v\, avec v\ =

z
c'est-à-dire

W
-y + 2z-2t = 0
s y
=

-y + z t =
0
0
-

y =

x y =
0
t

[
z =

x

y -h z —

t =
0

On a donc un espace vectoriel de dimension 1 engendré par v\

Calcul de V2. On résout /(t>2) =


avi + i>2, c'est-à-dire :
(.A —

I)i^ =
at>i :

-y -\-2z-2t = 0
x =
a
-y + « * =0
o
-

y =

a; y =
a
t

z
[
=

x y + z t =
a
— —

d'où, par exemple, en prenant a = 1 : v2 =

(on ne peut pas prendre a =


0 sinon retrouve v\)
Calcul de V3. f(vs) =
Q donne le système :

( x-y + 2z-2t =
0
z t 0 1
On trouve
-
=

: V3 =

a; —

y + 2 =0 0

^ £ —

y+z =0 W
Calcul de V4. On résout le système /(V4) =
bv$ :

[ x-y + 2z-2t = b
x =
y b
t b

z =

qui donne t 0
-

: =

x y + z =
0
6

*
L
=

x —

y + 2 =0

1
En prenant b =
1, on a par exemple t>4

W
Ainsi

/l1
:

x 0 0 \
0 1 0 0

0 0 0 il
\ 0 0 0 0
|/
188 Réduction des endomorphismes

et une matrice de passage est :

/0 1 1
0\
0 0 11
\\V\,V2,Vz,Va\\ 10 0 1

\l 0 0 0/
Notons que l'espace caractéristique Ni est l'espace engendré par v\ et ^2, et que N0 est

l'espace engendré par V3 et V4.

Application : calcul de la puissance d'une matrice.

Soit A trigonalisable, A! = P~XAP une réduite triangulaire de A par blocs triangulaires, P


la matrice de passage.
On a : Ak =
P(A')kp-1. Le calcul de (A')k est simple car :

([m^\ 0 \ /[mTJ* 0
k
\

{ 0 H/ { 0 g]V
On est ramené au calcul de : . Posons :

0 *

B:= =
XI + J où J :=

0 0

On voit facilement que J est nilpotente, c'est-à-dire il existe p < n tel que Jp =
0. En effet

Pj(X) =
(-l)nXn et donc mj(X) =
Xp, avec p < n ; comme raj(J) =
0, on a Jp =
0.

Puisque À / et J commutent, on calcule facilement Bk par la formule du binôme, à l'aide


de J, J2,...,^"1.

Exercice 37.

6.13 Décomposition de Dunford

Un endomorphisme / est dit nilpotent (cf. exercice 3) s'il existe fc 6 N tel que fk 0. =

Le plus petit entier p tel que fp 0 est dit indice de nilpotence.


=

Le théorème de décomposition selon les espaces caractéristiques permet de démontrer


assez facilement le théorème suivant :

Théorème 6.32 Décomposition de Dunford. .

Soitf endomorphisme dont le polynôme caractéristique


un est scindé. Alors f se

décompose d'une manière unique sous la forme :

f =
d+ n

où d est un endomorphisme diagonalisable et n un endomorphisme nilpotent qui


commutent.
6.13 Décomposition de Dunford 189

En particulier :

Toute matrice A G Mn (C) se décompose d'une manière unique sous la


forme A D + N, où
=
D et N sont deux matrices, respectivement
diagonalisable et nilpotente, qui commutent.

Démonstration :

a) Existence

Soit B une base dans laquelle / est réduit selon les sous-espaces caractéristiques

\
o

A' =
M(f)B =

0
0 Av\)

ai a2 OLp

Ai \ /
0
0

0
0 Ai 0 0

o
0

0
*

V / v 0 0

Notons D' la première matrice à second membre et Nf la deuxième matrice :

A! =
D' + N'

et soient d et n les endomorphismes qui dans la base B sont représentés respectivement


par D1 et TV'. On aura :

f = d+ n.

Remarquons que d est diagonalisable, car Df est diagonale, et que n nilpotent, car N'
est nilpotente. De plus d et n commutent car D' et Nf commutent. En effet, d'après
190 Réduction des endomorphismes

l'exercice 24 du chapitre 3, on a la propriété suivante du produit par blocs :

/ [Mi] 0 \
( \Nt\ o \ / Mi Ni | 0

{ { {
=

o
\MP ) o Np ) ° MPNP

Par conséquent, il suffira de montrer que les matrices

f Xi 0 \
( °

U
=
XiI et

V o Xi J 0

commutent, ce qui est évident.


Aussi / est somme d'un endomorphisme diagonalisable et d'un endomorphisme nilpo-
tent qui commutent.

b) Unicité

Pour montrer que la décomposition est unique, considérons deux décompositions

/ =
d + n

=
d' + n'

comme dans l'énonce, c'est-à-dire : d, d' diagonalisables, n, n' nilpotents et d (resp :

d') commutant avec n (resp : avec n1). Par soustraction on a :

d —

d' =
n' —

n.

Soit h := d —

d' =n' —

n.Nous allons montrer que d d' est —

diagonalisable que n-n'


est nilpotent : on aura alors h 0 (cf. exercice 3), donc : d
= =
d' et n =
n'.
La démonstration repose sur les lemmes suivants :

Lemme 1. La somme de deux endomorphismes diagonalisables qui commutent,


-

est
un endomorphisme diagonalisable.
Pour la démonstration, cf. exercice 14.

Lemme 2. -

La somme de deux endomorphismes nilpotents qui commutent, est un

endomorphisme nilpotent.
En effet, soient ni et n<i deux endomorphismes nilpotents d'indices de nilpotence
respectivement r et s. Puisque ni et n^ commutent, on peut utiliser la formule du
binôme ; on a :

(ni + n2)r+s =

£ Crfc+S ni n2r+s-k
fc=0
=
0

car si k > r : n\ =
0

si k <r : alors r + s —

k > s ,
donc n<ir+s_fc =
0

Lemme 3. -

d et d! commutent, de même que n etn'.


6.13 Décomposition de Dunford 191

Démonstration : -
Notons tout d'abord que d commute avec n donc il commute
avec / = d+ n ; de même d' commute avec /.
Considérons la décomposition de E en somme directe de sous-espaces
caractéristiques
E =
NXl e e N\p ;

tout x G E s'écrit d'une manière unique


x =
x\ H xp avec x% G N\..

Soit qi le projecteur sur NXi :


qi(x) =
x^. Dans la base B adaptée à la
décomposition on a :
( o 0 \

M{qi)B =

\o o/
donc
d =
Ai qi H \pqp.
Considérons maintenant l'endomorphisme d' et montrons d'abord qu'il laisse
stables les sous-espaces caractéristiques.
Soit x G NXi) c'est à-dire tel que Ker(/ —

Àiid)ai(a;) =
0. Puisque d1 commute
avec /, on a :

(/ -

Xi id)a* o
d'(x) =
d'o(f-\i id)a* (x) =
0,
c'est-à-dire d'{x) G NXi. Les sous-espaces caractéristiques sont donc stables par d'.

{qi
Il s'ensuit que :

(x^
o d1 =
d' (x^
q%odf(xj) =0 pourz^j
On peut montrer maintenant que d' commute avec tous les projecteurs qi. En effet,
pour tout x G E, on a :

d' o
qi (x) =
d' (x^ et

qi o d! (x) =
qi o
(x\ H
d' Vxp)=q%o d' (x\) H qi o d' (xp)
=
qiod' (xi) = d' (x^
donc d' oqi =
qio d' pour tout i
=
1, ...,p. Par conséquent d' commute avec d, car

d =
Ai ci H ApÇp.
De la même manière on voit que n' commute avec d.
On a enfin :

n' o n =
rî o
(/ —

d) =
(/ —

d) o n' =
n o n' 0
Le théorème est ainsi démontré. D

Exercice 38.
192 Réduction des endomorphismes

6.14 La réduction de Jordan

La réduction par blocs triangulaires est, en général, suffisante pour les applications ;
une dernière réduction peut être effectuée à l'intérieur de chaque bloc jusquà parvenir
cependant
à la forme qui, dans un certain sens, est la plus simple possible : la forme de Jordan.
Par exemple, soit :
/l 0 0\
A = 0 1 1 =
M(f)ei
\0 0 2/
Cette matrice est sous forme triangulaire. On peut se demander si elle est diagonalisable.
On trouve :

PA(X) =
-(X -

1)2(X -

2) et mA(X) =
(X -

1)(X -

2)

A est donc diagonalisable : il existe une base {vi} telle que

/l 0 0\
M(f)Vi =010
0 0 2.

En revanche, soit

B =

On a :

PB(X) =
-(X -

1)2(X -

2) et mB{X) =
(X -

1)2(X -

2);
donc B ne peut pas être réduite à la forme diagonale. Ainsi pour certaines matrices
triangulaires une ultérieure réduction est possible, pour d'autres non. La théorie de Jordan
permet d'arriver à ce que l'on peut considérer la dernière réduction, aboutissant ainsi à une
classification des matrices à la relation d'équivalence près "A est semblable à B" (ou si l'on
veut : "A et B représentent le même endomorphisme" ).
Plus précisément le problème est le suivant. Comme on l'a déjà vu, si deux matrices sont
semblables alors elles ont la même trace, le même déterminant et, plus généralement, les mêmes
valeurs propres. En d'autres termes, si deux matrices ont, par exemple, une trace différente
(ce qui est très facile à vérifier), alors elles ne représentent pas le même endomorphisme. Il
est claircependant que le spectre n'est pas le seul invariant de la classe des matrices qui
représentent le même endomorphisme : le rang, par exemple, est un autre invariant. Mais
le rang et le spectre eux-mêmes ne suffisent pas à caractériser les matrices semblables. Par
exemple :

/ 0 1 0 \ / 0 1 0 \
A= I 0 0 0
] ,
£=0 0 1

\1 0 0/ \ 0 0 0 /
ont même rang et même spectre et pourtant elles ne sont pas semblables (vérifier qu'il n'existe
pas de matrice inversible P telle que AP =
PB).
La question se pose d'une manière naturelle de savoir s'il existe un système complet
d'invariants, c'est-à-dire si l'on peut associer à chaque matrice A un ensemble fini «Sa de scalaires
(tels que le spectre, le rang, etc) tel que si pour deux matrices A, B G Mn(K) on a Sa Sb > =

alors A et B sont semblables, c'est-à-dire elles représentent le même endomorphisme en des


bases différentes. La réponse est donnée par le théorème de Jordan que nous allons expliquer

dans ce paragraphe.
6.14 La réduction de Jordan 193

Définition 6.33 On appelle bloc de Jordan une matrice carrée du type :


-

(x i
0X
J(X) =

1
Vo

pour les matrices de type (1,1) :


J(À) :=
(À)

propriété 6.34 -

Soit J(X) un bloc de Jordan d'ordre n, on a :

Pj(X) =(-l)n(X-X)n
mj(X) (X-X)n =

dimE\ = 1

La vérification est immédiate : il suffit d'effectuer les calculs.

Théorème de Jordan 6.35 Soit f G End k(E) ; on suppose que Pf(X) est scindé.
-

\l\ Supposons d'abord que f n'a qu'une seule valeur propre et que :

Pf(X) =
(-l)n(X-\)n, mf(X) =
(X-Xf, dim£A=7
II existe alors une base B de E telle que :

( | Ji(A)| 0\
\M*)\
M{f)B = =
JW
notation

v
o | A(A) | )
-

les Jk (A) sont des blocs de Jordan ;


-

l'ordre du plus grand bloc est fi ;


-

le nombre des blocs est 7

(ceci est évident, car dans chaque bloc il n'y a qu'un vecteur propre, d'après la
proposition précédente).

I 2\ Si f admet les valeurs propres Ai,...,Xp de multiplicité ai,...,ap, c'est-à-dire si

Pf(X) =
(-l)n(X -

A0ai (X -

Xp)ap (Ai / XS)


alors il existe une base B de E telle que (avec les notations de
[Tjj :

/
|^i (A) 0

M(/)e =
1 j*w 1

0 1 J-rW |
ai &2 otp
194 Réduction des endomorphismes

Par exemple : soit dimE =


5, Pf(X) =
-(X -

A)5, mf(X) =
(X -

A)3 et dimEx =
2, il existe
une base {vi} de E telle que :

f A
0
1
A
0
1
1 0
0
0
0
\

0 0 A 0 0
M(f)Vi =

0 0 0
1 A l

\
0 0 0 0 A
/
Si d\mE =
5, Pf(X) =
-(X -

A)5, mf(X) =
(X -

A)3 et dimEx =
3, il existe une base {vi} de
E telle que :

/ A 1 0 0 0 \
0 A 1 0 0
0 0 A 0 0
M(f)n
0
=

l
0 0 0 o
0
0 J
0 0
o

Remarque : Une matrice sous la forme de Jordan est diagonalisable si et seulement si elle
est déjà sous forme diagonale.
En effet si elle n'est pas diagonale il y a un bloc de Jordan d'ordre /3 > 1, ce qui implique
que dans le polynôme minimal il y a au moins un facteur du type (X

A)^ ,
donc mf(X)
n'a pas toutes ses racines simples.

Démonstration du théorème :

Soit Pf(X) =
(-l)n(X -

A)n.
Puisque Pf(X) est scindé, / est trigonalisable. Il existe donc une base B' telle que :

/'
A

V 0 A,

Posons A = AJ + N (ou, si l'on veut, f =


X id -\-u) avec :

TV: =
M(u)B'
0 o

Comme on l'a vu (cf. page 188), u est nilpotent. Puisque la matrice XI de Aid est la même
en toute base, le problème endomorphismes nilpotents.
revient à étudier la réduction des

Soit donc u unendomorphisme nilpotent et (3 son indice de nilpotence. On a mu(X) X^. =

Donc u n'est diagonalisable que si f3 1, c'est-à-dire u 0. Par la suite on supposera donc


= =

que u^Q.

Lemme 1. Soit u un endomorphisme nilpotent d'indice de nilpotence /3. Les propriétés


suivantes sont équivalentes.
1. (3 =
n, c'est-à-dire le polynôme minimal est égal (au signe près) au polynôme
caractéristique :
PU(X) =
(-l)nXn, mu(X) = Xn.

2. Il existe un vecteur x £ E, x ^ 0, tel que {x,u(x),u2(x), iun~1(x)} est une base


de E (on dit que u est cyclique).
6.14 La réduction de Jordan 195

3. Il existe une base B telle que :

/O 1

M(u)b
î
VO o/
,

(c'est-à-dire u est représentable par un bloc de Jordan).


Démonstration :

L'équivalence de 2. et 3. est immédiate : B est justement la base {x, u(x), u2(x)> , un~1(x)}.
Si 3. est vérifiée, (3 n
(cf. propriété 6.34).
=

Supposons 1. vérifiée. Puisque un~x ^ 0, il existe x G E, x ^ 0, tel que un~1(x) ^ 0. Posons

(cf. exercice 41) :


( Vn X =

Vn-1 =
U(x),

vk =
un~k(x):
Vl =
nn_1(x)
On voit facilement que cette famille {vi, , vn} est libre et donc elle est une base. En effet
soit :

Y^XkVk
n

=
0
fc=i

c'est-à-dire :

Al l/1"1^) + À2 Un~2(x) + h An-1 U(x) + XnX =


0.

En prenant l'image par ttn_1, un~2, , u on trouve successivement : Àn =


0, Àn_i =
0, ,

À2 0 ; d'où Ai un (x) =
0, et, puisque un (x) ^0, Ai =
0. Donc la famille {vi} est
une base et
0
r \
M(u)Vi 1

Vo o/
Le théorème est ainsi démontré pour (3 = n. O

D'après le lemme 1. et le lemme 6.31 page 185, le problème revient à démontrer que :

si u est un endomorphisme nilpotent, E est directe de sous-espaces


somme

stables par u, tels que la restriction de u à chacun de ces sous-espaces est


un endomorphisme cyclique.
Comme nous allons le voir, la construction de ces sous-espaces stables se fait comme dans le
lemme 1. en choisissant opportunément certains vecteurs et en prenant leurs itérés par u.

Lemme 2. En notant Kv =
Ker^p; on a la suite d'inclusions strictes :

{Q} =
K0CK1cK2C-'-C Kfi-i C Kp = E
± ± ± ± ±

En effet, Kv C i£p+i, car


uv(x) 0 implique up+1(x)
= =
0.
D'autre part, s'il existait p G {1,2, ,/5 1} tel que Kv —
=
Kp+i, on aurait :

Kp =
Kp+i =
Kp+2 = ' ' —
'

Kp = E

(cf. exercice 16, chapitre 3). Donc p serait l'indice de nilpotence, ce qui est exclu, car p < j3.
o
196 Réduction des endomorphismes

D'après le lemme 2., pour tout p G {1, ,0} il existe un sous-espace vectoriel Mp yé {0}
tel que Kp Kv-\ © Mp. On sait que le supplémentaire de Kv-\ n'est pas unique, mais
=

tous les supplémentaires ont même dimension. Nous allons choisir les sous-espaces Mp de
manière à ce que certaines conditions, nous permettant de mener à bien la construction,
soient satisfaites.

Lemme 3. Il existe des sous-espaces vectoriels M\, M2, , Mp non réduits à {0}, tels que :

1) Kp =
Kp-1®MPi pour p=l,---,/3
2) «(Mp)cMp-i, pour p =
2,---ï/?'
Démonstration : par récurrence "descendante" sur p.
-

Si p/?, on choisit pour Mp un supplémentaire quelconque de Kp-! dans Kp.


=

Supposons avoir construit les sous-espaces M/3, M/j_i, , Mp vérifiant 1) et 2) et montrons


-

que l'on peut construire Mp_i vérifiant ces mêmes propriétés.


Remarquons tout d'abord que Mp vérifie :

a) u(Mp) C Kp-!
b) u(Mp)nKp-2 =
{0}

En effet, soit x G Mp. Puisque Mp C Kp, on a up(x) 0, d'où up~1(u (x) ) 0, c'est-à-dire = =

u (x) G Kp-i, ce qui prouve a).


Montrons b). Soit y G u (Mp) D ifp-2 : y w (x) avec £ G Mp et up~2(y) 0. On aura :
= =

up~1(x) 0, c'est-à-dire x G Kp_i et par conséquent x G Mp nifp-i {0}, d'où x 0 et


= = =

donc y = 0.

Ainsi u{Mp) et ifp_2 sont en somme directe (d'après b)) et lfp-2 0w(Mp) C Kp-\
(d'après a)).
Il s'ensuit qu'il existe un supplémentaire Gp-i de Kp-2 ® w (Mp) dans Kp-\ :

Kp-t =
Kp-2 © u(Mp) © Gp-i

On pose alors :

Mp_i =u(Mp) © Gp-!


Mp-! vérifie 1) et 2). 0

Lemme 4.
£7 =
Mx © M2 © © M/3
En effet :

E =
Kp =
Kp-! ® Mp =
Kp-2 © M/3-1 © Mp
=
Kp-3 © M/3-2 © Mp-! © M/3

=
Mi © M2 © © Mp
0

Nous allons maintenant construire une base de E en choisissant, par un procédé itératif, une

base chaque espace M»


sur : cela permet de mettre en évidence les sous-espaces stables sur

lesquels u est cyclique.


Remarquons tout d'abord que it(Mp) C Mp_i et que l'on a :
6.14 La réduction de Jordan 197

Jjexnme 5. L'image par u d'une base de Mp est une famille libre de Mp-i (pour p > 2).
En effet, soit {i>i, , vr} une base de Mp et soient Ai,... Ar, tels que :

Al U (Vi) + + Xr U (vr) =
0

on a u(\i vi + + Ar vr) =
0, donc :

Ai vi H h A2 v2 G Ker u =
K\ C Kp-\

Ainsi Ai t>i + + Ar vr G Mp D Kv-\ =


{0} et, puisque vi, , vr sont indépendants, on

a :

Ai =
A2 = =
Ar =
0 0

Venons maintenant à la construction de la base de E :

-
Dans Mp ( que nous allons noter G/3), on prend une base quelconque.
-
Dans Mp-i = u
(Mp) © Gv-\ on prend l'image par u de la base construite sur Mp et on

complète par une base quelconque de Gp-i.

On a ainsi les bases Bp, Bp-i, > B\ de Mp, Mp-i,..., M\ :

Bp =
{vi,...,vn/3 }
l%
v
'J

G/3
Bp-1 =

{u(vi)i...iu(vn0)9Wii...iWn0_1 }
Bp-2 =

\u2(vi),...,u2(vn/9),u(iui),
L
..,u{wn0_x), zi,...,zn/3_2/Jj
>
v

Gf3-2

Bl =
\up l(vi),...,u(3 1(vnf3),up 2(wi)i...,u(3 2(wn0_1),..., u(yi),..., u(yn2):
V V

u(G2)

3îl, 3^ni
')
.
, r
V
v

Gx

Introduisons la notation suivante : pour k =


/?, f3 —

1,..., 2,1 et x G Gk ,
soit :

Ik{x) —

Vect{x,u(x),u2(x),... ,uk~1{x) }
Ainsi, par exemple :

Ip(vi) =
{vi,u(vi)y u2(vi),..., i/-1(ui) }
Vect

Ip-i(wi) =Vect{wiiu(wi),u2(wi)y.. .u(3~2(wi)} etc.

Lemme 6.

a) dim Ik (x) = k

b) Ik(x) est stable par u.

c) La restriction de u à Ik(x) est cyclique.


La démonstration de ce lemme est une simple vérification. <)

Il est clair que E est somme directe de Ip(y\),..., Ip{vnf3)^ Ip-\(wi),..., Ip-i(wnf3_1),
,h(xi),..., Ii(xni) d'où il suit immédiatement la partie 1. du théorème.
La partie 2. vient du fait que E est somme directe de sous-espaces caractéristiques et sur

chaque espace caractéristique on applique la partie 1. du théorème. D


198 Réduction des endomorphismes

Calcul des dimensions des blocs de Jordan

Dans l'énoncé du théorème nous avons donné des indications sur la dimension des blocs
de Jordan, qui sont général, pour déterminer la forme de Jordan lorsque la
suffisantes, en

dimension de E n'est pas trop grande. En fait, en analysant la démonstration, on voit que
l'on peut calculer explicitement à l'aide de / le nombre des blocs de Jordan de taille donnée
qui apparaissent dans la réduction.

Proposition 6.36 -

Soit

np(\) : =
nombre de blocs de Jordan d'ordre p pour la valeur propre X ;

KP(X) : =
Ker(/ -

A id)p .

On a alors :

np(X) = 2 dimKP(X) —

dimKp-i(X) —

dimKp+i(X)

En effet, comme dans la démonstration du théorème, on peut se limiter à démontrer cela


pour un endomorphisme nilpotent. Dans ce cas, np(0) =
dimGp. Or

Kp =
Kp-i © Mp , Mp= u(Mp+1) 0 Gp
et
u\mp+1 est injective. Ainsi :

dim dim Mp —

dim Mp+\
et
dim Mp = dim Kp —

dim Kp-i,
d'où la formule.

Corollaire 6.37 -

Deux matrices A,B G Mn(K), dont les polynômes caractéristiques sont

scindés, sont semblables si et seulement si elles ont la même réduite de Jordan (à l'ordre des
blocs près).

En effet si elles ont la même réduite de Jordan J, alors elles sont semblables à J et donc
elles sont semblables.
Réciproquement, si A et B sont semblables, elles représentent le même endomorphisme,
donc, en particulier, elles ont les mêmes valeurs propres. D'autre part, comme on vient de
le voir, les dimensions des blocs de Jordan sont calculées à l'aide de l'endomorphisme par
les formules ci-dessus et elles dépendant donc de l'endomorphisme et pas des matrices qui le
représentent. Ainsi les deux matrices auront les mêmes blocs de Jordan.

On peut aussi exprimer le corollaire en disant que si A est une matrice carrée dont le
polynôme caractéristique
est scindé, alors :

l'ensemble des valeurs propres (avec leurs ordres) et les dimensions des blocs de Jordan
associées à chaque valeur propre forment un système complet d'invariants.

Exercices 39. 40. 41. 42. 43.

EXERCICES

1 Soit E un espace vectoriel de dimension finie, F et G, deux sous-espaces vectoriels tels


E = F ® G et pp ' E —> E le projecteur de E sur F. Montrer que Tr p.p dim F. =
Exercices 199

[sT] Soit E

bissectrice.
R2 = et /
—> : M2
M2 la symétrie orthogonale par rapport à la première
géométriquement les vecteurs propres, les valeurs propres, la
Déterminer
trace et le déterminant de /.

|3 Soit / un endomorphisme nilpotent (c'est-à-dire : il existe p G N tel que fp =


0).
Montrer que / admet comme seule valeur propre 0. En déduire que si / est diagonali-
sable et nilpotent, alors / = 0.

[X] Soit Pf(X) {-l)nXn =


+ an-1Xn-1 + ...+0lX + ao. Montrer que ao=dét/ et

an-i (-l)71"1 Tr /.
=

En déduire que pour A G M2(K) :, PA(X) = X2 -

(TrA) X + dét A.

M 5 Densité du groupe linéaire.

Dans cet exercice on suppose connu le fait que


M.n{K)> avec K = R ou C, est
un espace vectoriel norme. On prendra, par exemple pour norme de A =
(a^) :

ll^ll =

JY?ïj=iaij (cf- Appendice A.6.) et on munira Mn(K) de la topologie


associée à la norme.

Montrer que le groupe linéaire des matrices inversibles, GL(n, K), est dense dans
Mn (K).
Application. Généraliser les propriétés de l'exercice 20. du chapitre 4 au cas non

inversible, c'est-à-dire :

dét A+ =
(dét A)71-1 ,
A++ =
(dét A)n~2 A

pour toute A G Mn {K), où A+ *cof (A).

(7
=

4 0 0>

"S -,! .! -à Montrer que A est diagonalisable ; déterminer une

-12-6 6 lly
matrice réduite diagonale et une matrice de passage.

\7 Soit A G .Mn(R). Montrer que si À est une valeur propre complexe de A alors À est aussi

valeur propre de A, de même ordre de multiplicité, et que si v est un vecteur propre


correspondant à À alors v est un vecteur propre correspondant à À (où v désigne le
vecteur dont les composantes sont les conjuguées dss composantes de v).

Soit A
(-1
I 0—1
1 0\
1 I. Déterminer matrice dans A^n(C) diagonale et

V -i)
=
une sem-

i o
blable à A, ainsi qu'une matrice de passage.

|8 / l'endomorphisme M3 qui dans la base canonique

(1
Soit de est représenté par la matrice :

Loga6 Logac\
Log6a 1 Log6c
Logca Logc6 1 /
où a, 6, c sont trois nombres réels strictement positifs et différents de 1.
Montrer que / est diagonalisable et déterminer une base de vecteurs propres. En déduire
la signification géométrique de /.

H Soit

ft
1 ...
i.

1 t

At =
eMn(
'. 1
.1 1 t
200 Réduction des endomorphismes

Sans calculer le polynôme caractéristique, montrer que À = t 1 est valeur propre.


Déterminer Et-i ; que peut-on dire de l'ordre de multiplicité de t 1 comme valeur —

propre ? En déduire Sp'-A*. At est elle diagonalisable ? Pour quelles valeurs de t a-t-on
dét At = 0 ?

10 Soit
/ 0 ai a2 as
an\
ai 0 ai as an

ai ai 0 as an

A =

\ai ai as an 0 /

Déterminer, comme dans l'exercice 9, le spectre de A sans passer par le polynôme


caractéristique. En déduire dét A.
Déduire de cet exemple une méthode simple pour construire une matrice diagonalisable
non diagonale, dont on se donne les valeurs propres.

11 Soit E un espace vectoriel de dimension finie et / G End/^i?) tel que rg/ = 1 .

Déterminer le spectre de /. Montrer que / est diagonalisable si et seulement si Tr / ^ 0.


Déduire de cet exemple une méthode simple pour construire une matrice non
diagonalisable.

12 Soient f et g deux endomorphismes d'un espace vectoriel de dimension finie. Montrer


que fog et g o
/ ont mêmes valeurs propres.

13 Soient f et g deux endomorphismes d'un espace vectoriel de dimension n, tels que fog =

gof. On suppose que g admet n valeurs propres distinctes. Montrer que f et g admettent
une base commune de vecteurs propres. En déduire qu'il existe ao, ai, ai,. , an-i G K
tels que :

/ =
ao id +ai g + ai g2 H h an_i pn_1

0 Diagonalisation simultanée.
Soient f et g deux endomorphismes diagonalisables. On suppose que f et g commutent.
On note Ai,..., Ap (resp : m,..., fj,q) les valeurs propres de / (resp : de g) et Fi,..., Fp
les sous-espaces propres correspondants (resp : Git...>Gq).

1. Montrer que chaque Gj est stable par / et chaque Fi est stable par g.

2. On pose Hij FiHGj (i


: 1,...
:= =
,p ; j =
1,..., q). Montrer que, pour i
donné, Fi est somme directe des Hij, j =
1,..., q (qui ne sont pas réduits à {0}).
En déduire le résultat suivant :

Étant donnés deux endomorphismes diagonalisables f et g, il existe une base de


vecteurs propres commune à f et à g (c'est-à-dire f et g sont diagonalisables
dans une même base) si et seulement si f et g commutent.

En particulier :

Lasomme de deux endomorphismes diagonalisables qui commutent est un en-

domorphisme diagonalisable.

15 Décomposition spectrale.
1. Soit / un endomorphisme diagonalisable de E, Ai,...,Àg les valeurs propres
de /. Montrer qu'il existe un système complet de projecteurs {Pi,..., Pq} (cf.
exercice 10, chapitre 3) tel que :

/ =
Ai Pi + + Xq Pq (*)
Exercices 201

2. Réciproquement, montrer que, s'il existe un système complet de projecteurs


{Pi,...,Pc} et des scalaires Ai,...,A9 deux à deux distincts tels que / =

Ai Pi + Xq P<j,
...
+ alors / est diagonalisable.
L'expression (*) est dite décomposition spectrale de /.
3. Application. Déterminer la décomposition spectrale de

/l 2-2
A = 2 1-2

\2 2 -3

En déduire An.

4. Montrer que dans la décomposition spectrale de /, le projecteurs Pi sont des


polynômes de / dont les coefficients s'expriment en fonction des Xj et peuvent
être calculés explicitement.

16 Exemple de vecteurs propres en dimension infinie.

1. Soit El'espace vectoriel des fonctions C°° sur M à valeurs dans M.


On considère l'endomorphisme <Ê> de E qui à / associe la fonction g définie par :

g(x) =

f1>-* f(t)dt
Jo
Déterminer les valeurs propres et les vecteurs propres de <ï>.

2. Mêmes questions pour $(/) =


g où :

/ tt/2
g(x) =
/ cos(x + i) f(t) d£.
J-ir/2

17 Soit / : IR2 [x] —>


M2 [x] définie par :

f(Q) =
(2x+ï)Q-(xi-l)Q
Calculer fn(ao + ai x + ai x2).

18 On note S l'espace vectoriel des matrices carrées réelles d'ordre 2 à trace nulle. Soit

B=\\ 3) et f
'

S ~* S définie par f(M) = MB~BM-

Calculer fn(A) où A = (" _*\


19 Résoudre le système différentiel :

dx
4x + 6y
~dt
=

dy = —3 a; 5y
dt

dz
= —Sx Qy —

5z
dt

20 Résolution d'un système différentiel par la "méthode d'élimination".

Soit P G InM, P =
ao + a\x + + anxn. On note P
-^ l'opérateur différentiel
P
[-^1 :
C°°(R) ->
C°°(R) défini par :

a"(l)
d
=
ao id +ai +

202 Réduction des endomorphismes

Soit le système différentiel :

d#i
=
auxi + + ainXn

a,ij g R.
dxn
anlXi + + CLnnXn
~~dt~

Montrer que chaque xi vérifie l'équation différentielle

dxi~\
Pa = 0
dt

où Pa est le polynôme caractéristique de la matrice A =


(<Hj).
Application. Résoudre le système différentiel :

=
3xi 2 #2
dt

dx2
=
2xi %2
dt

21 1. Pour chacune des matrices ci-dessous, donner une matrice réduite triangulaire en

précisant la matrice de passage :

2 -2 13 -5 -2
Ai =
, A2= |-1 0 1 A3 = -2 7 -8
1 0 -5 4 7

2. Résoudre le système différentiel


4j^ =
A±X.

22 Soit Q un polynôme et / un endomorphisme. Montrer que si / est diagonalisable alors


Q(f) est diagonalisable et, si Sp/ =
{Ai,..., Ap} est le spectre de /, alors :

SpQ(/) =
{Q(Ai),...)Q(Ap)}

23 | Donner une autre démonstration du résultat de l'exercice 20 en utilisant le théorème


de Cayley-Hamilton.

24 Soient A, B G .Mn(C). On suppose que SpcA D SpcB =


0.
1. Montrer que détPfî(^)7^0.
2. Soit tp : Mn(C) —» Mn(C) définie par <p(M) = AM -

MB. Montrer que si


M G Kercp, alors pour tout polynôme Q(X), on a :

Q(A)M =
MQ(B).
3. Déduire des questions précédentes que ip est injective et que

VCeMn(C) 3\ M e Mn(C) telle que : AM-MB = C.

25 Calcul des projecteurs sur KerQi(/) et KerQ2(/)-


Soit / un endomorphisme de E et Q Qi Q2 un annulateur de /, où les polynômes Q\
=

et Q2 sont premiers entre eux. Soient E/i, V2 deux polynômes tels que U\Q\ +U2Q2 = 1-
Montrer que les projecteurs de E KerQi(/)0KerQ2(/) sur KerQi(/) et KerQ2(f)
=

sont respectivement

pri:=t/2(/)oQ2(/) et pr2:=[/i(/)oQ,(/).
En déduire algorithme permettant d'exprimer les projecteurs sur les espaces Ker Qi(f)
un

et KerQ2(/) comme polynômes de / (il s'agit donc d'une généralisation de l'exercice


15.4)
Exercices 203

P26 Soit la matrice


1 -1 1 1
1 1 -1 1
2 1 1—1 1 -1
1 1 1 1

On admettra que i et 1 sont valeurs propres de A. En déduire que

M4 =
Ker(A-J)2©Kei(A2+J).

27 I Calculer le polynôme minimal des matrices de l'exercice 21.

1 a 1 \
28 | Soit A = I 0 1 b , (a, 6,c E M).
\ 0 0 c
/
Pour quelles valeurs de a>b,c ,
A est-elle diagonalisable ?

/ 5 1 1 -1\
1 5 1-11
| 29 I Soit A = .

1 x 5 _i I

\-l -1 -1 5/
Montrer que A est diagonalisable et inversible. En déduire le polynôme minimal et, à
l'aide du polynôme minimal, calculer A-1.

P*
30 1. Pour quelles valeurs de ai, a2, 03 G C3, la matrice

/ 0 0 ai
A= 0 0 a2

y ai a2 03

est-elle diagonalisable ? (On suppose ai et œt\ non tous les deux nuls, autrement
le problème est trivial).
2. Soit / l'endomorphisme de C3 qui dans la base canonique (ei,...,en) est
représenté par la matrice

( ai
\
0
M(f)ei
)
=

0>n-l
\ ai CLn-l CLn
' '

On pose a =
a\ + + a^_1 et v =
ai ei -\- + an en.

(a) Calculer /(e^),/2(ei),/3(ej), pour (i =


1, ...,n), en fonction de cr, i>, an. En
déduire un polynôme annulateur de /.
(b) Donner une condition nécessaire et suffisante pour que / soit diagonalisable.

31 Soit {ei,..., en} la base canonique de Cn et / l'endomorphisme de Cn défini par :

{/(e;)
=
ei+i (pour i =--
1,... ,
n -

1)
/(en) =
ci

1. Calculer /fe (e*)


pour k 2,..., n et i 1,., n.
= =
.,

En déduire que / est diagonalisable. Montrer que id, /, /2,..., /n_1 sont
linéairement indépendants. En déduire le polynôme minimal.
Déterminer les valeurs propres, le polynôme caractéristique et le déterminant
de/.
204 Réduction des endomorphismes

2. Montrer que la matrice

an-i an-2 0-2 0,1 \


ai do an-i 0,2

A =
0,2 ai ao e Mn(C)

an-i an-2 ans ai ao

est diagonalisable. Calculer dét A. [ Utiliser l'exercice 22 ].

/ 6 (E) /
50
32 Soit End où E est un espace vectoriel de dimension n. Montrer que si =0,
alors fn = 0.

33 Soit / :
IRn[#] —*
Rn[œ] l'application qui à tout polynôme P associe le reste de la

division euclidienne de P par Q X2 —32.X+7. Montrer que =


/ est un endomorphisme.
Montrer que / est diagonalisable.

34 1. Montrer que si est diagonalisable, alors f2 est diagonalisable.


/
(Dans s'agit d'étudier dans quel cas on a la réciproque. Pour simplifier,
la suite il
on distinguera les cas dét / ^ 0 et dét / 0) =

2. (a) On suppose f2 diagonalisable et dét/ ^ 0. Soient Ai,..., Ap les valeurs


propres de f2. Montrer que le polynôme (X2 Ai ) (X2 \p ) est annulateur
— —

de / et en déduire que / est diagonalisable.


(b) On suppose f2 diagonalisable, dét / 0 et Ker / Ker f2. = =

Soient 0, Ai,..., Ap les valeurs propres de f2. Montrer que

f o
(/2 -

Ai id ) o o
(/2 -

\p id ) =
0.

En déduire que

Im[(/2-Aiid)o...o(/2-Apid)l C Ker/2
et que

/o(/2-Aiid)o..-(/2-Apid)=0.
En déduire que / est diagonalisable.
3. Montrer que si / est diagonalisable alors Ker/ =
Ker/2.
En déduire le résultat suivant :

Soit f E End(Cn). Alors :

f est diagonalisable <*=> f f2 est diagonalisable et Ker / = Ker f2 j


4. Application. Conditions nécessaires et suffisantes pour que la matrice

/ o ...

ai
02
A =
e Mn(C)
\ On 0
soit diagonalisable.

35 Soit la matrice

1 —a —a

1-/? a a 1
A où a,(3 e R.

P 1+/3
=

—a 1 —

0 a a 0

1. Condition nécessaire et suffisante pour que A soit diagonalisable.


Exercices 205

2. A l'aide du spectre de A, montrer que A + I est inversible.


Calculer (A -f i)-1 lorsque A est diagonalisable.

A G .M 2 (M) telles que


*
36 Déterminer toutes les matrices :

A3 -8A2 + 21A-18I =
0.

37 Soit A la matrice de l'exercice 35, avec a = 1 et /? =


0. Déterminer les sous-espaces

caractéristiques. Calculer An. j Y"

Résoudre le système différentiel = AX.


dt
——

38 Donner la décomposition de Dunford de la matrice

/ 3 -1 1
A= 2 0 1

\ 1 -1 2

f 39 I Soit A G M6(K). On suppose que :

PA(X) =
(X l)4 (X 2)2
- -

mA(X) =
(X-l)2(X-2)
Que peut-on dire des dimensions des espaces propres ?
Quelles sont les formes de Jordan possibles ?

40 Soit la matrice :

1 a

0 1
A=l ï1 2 3 1
' ' oùû^E-

V-2 -(4 +a) -4 -1,

En discutant selon les valeurs de a, donner une réduite de Jordan ainsi qu'une matrice
de passage.

41 Méthode pratique pour la construction d'une base de Jordan (cf. page 195)
1. On considère la matrice

/ 3 2-2
A2 -1 0 1

V
=

1 1 0

(cf. exercice 21). Quelle est sa réduite de Jordan ? (ordonner les blocs selon l'ordre
décroissant entaille). En construisant la base de Jordan, peut-on choisir comme

premier vecteur le vecteur I 0 ? Déterminer base de Jordan.

V
v =
une

i
/
2. On considère un endomorphisme /d'un espace vectoriel de dimension p et on

suppose que réduite de Jordan est constituée par


sa un seul bloc J(À). On pose
g =
f —

À id. Montrer que l'on obtient une base B = {i;i, ...,i>p} dans laquelle la
matrice de / est J(A), en prenant :

vpe E \ KergP'1
Vp-i =g(vp)
Vp-2
=
g{vp-i)

l vi =g{v2)
206 Réduction des endomorphismes

3. Exemple. Déterminer une réduite de Jordan et une matrice de passage pour la


matrice
10 0 0
-14 1-2
A =

2 12-1
12 1 0

42 On suppose que :

PA(X) =
(-!)<* (X -

A)<*
mA(X) =
(X-X)?
dimE\ =
7

Montrer que :

-<7<l + a-/5.

43 Soit :

/0 0 0 0 0 0 1\
0 0 0 0 0 0 0
0 10 0 0 0 0
ab =0
A=|0
avec et
0 1 0 0 0 0
a + b = 1
0 0 0 0 0 0 0
0 0 0 0 6 0 0
\0 0 0 0 0 a 0/
Donner la forme de la matrice réduite de Jordan, en discutant selon les valeurs de a et b.

INDICATIONS

| 1
| Écrire la matrice de pp dans une base B =
{B±,B2}, où B\ est une base de F et B<i
une base de G.

| 2 | Vecteurs propres ( j p(_1),PeR


*
: v\ = a ,
a eR et v2 =

Valeurs propres : 1, —1. TV / = 0 ; dét / = —1.

H Soit v
f(v)
vecteur propre
: Xv. On a : 0 fp(v) \pv, d'où : À = = = =
0.
Si / nilpotent et diagonalisable, il est représenté, dans une base de
est vecteurs propres,

par une matrice diagonale ayant des zéros sur la diagonale ; donc / =
0.

|4 | a0 =
P/(0) = dét (/ -

0 id) =
dét/.
Développer dét (/ —

X id )
première ligne : les cofacteurs de
selon les éléments de la
ai2, Û13,..., a\n sont des déterminants d'ordre 1 qui contiennent chacun n 2 n
— —

termes du type an X. Par suite, les termes de degré n et n


1 de Pf(X) proviennent —

du produit des termes de la diagonale principale : (an X)(a,22 X) (ann X). — — —

Donc :

Pf(X) =
(-l)nXn + (-l)71"1 (an + a22 + + an^X"-1 +

H Il s'agit de montrer que

VAG7Wn(^)etVe>0, 3B € GL(n,K) telle que ||A-S|| <e

Soit Sp(.A) =
{Ai,..., \p}. Si tous les À^ sont non nuls, dét A ^ 0. On peut donc prendre
B = A.
Supposons, par exemple, que Ai =
0. Soit e > 0 arbitraire et r > 0 tel que r <

Min \Xi\ et r < Prenons B = A + ri ; les valeurs propres de B sont {Ai +


y/n
—=.

i=2,...,n
r, ...,ÀP +r } donc non nulles, aussi B G GL(n,K). D'autre part :

|| A -

B || =
|| rJ || =rVn<e.
Exercices 207

Application. Les applications

A e Mn(K) h dét A et A e Mn(K) — A+

sont continues, car dét A est une fonction polynomiale des coefficients de A et A+ se

calcule en calculant des déterminants. Aussi les fonctions

f:Mn(K)—+ K et g :
Mn(K)- K
A —>detA+ a '(détA) -1
h

sont continues. Puisque elles sont égales sur une partie dense, elles sont égales sur

Mn(K).
De la même manière voit que A+Jt (dét A)n~2 A.

(11 "1
on —

2 0 0\

3 2
-1 0 -2 -3/

7 -PaPO £ C[X] est à coefficients réels. Donc si À est racine d'ordre a, À est aussi racine

d'ordre a.

Av = Àv ==> A v = Xv Av = Xv

Puisque A est réelle : Av = Xv.

-{*
/l
-S-iVS 1
2 2
iy/3
}
-3 +
SpA P= 1 -l + t>/3 -l-i\/3
J V1
,

-l-*>/3 -l+t>/3

[T] Pa(X) =
-X2(X -

3)
("se servir de Loga6 -

^^^ .

#0 =
(Log a) x + (Log b) y+ (Log c) z est de dimension
2. Donc A est diagonalisable. Dans une base de vecteurs
propres :

/0 0 (T
M(/) =000

\0 0 3^
/ est la Es parallèlement à 2So} suivie
projection sur

d'une homothétie de rapport 3.

t-X 1
Figure 6
1 t-X

0^t(A) =

1
t-X

Pour t —

X = 1 deux lignes (et même toutes) sont égales donc le déterminant est nul.
Donc À = t —

1 est valeur propre.


Et-i est défini par x\ + + xn = 0 et donc est de dimension n —

1. D'où : ordre
(t -

1) > n 1. Donc :
-

Sp'At =
{t v
-

l,i -

1,...,i -

1, Àn}.
,
v

n-l fois

La dernière valeur propre se calcule par la trace : Tr At (n l)(t 1) + An Q. OU = — —

Xn n + t
= 1. —

On a Àn / £ 1, donc ordre (t —

1) n 1 dim£?t_i et, par conséquent, At est



= —
=

diagonalisable.
dét At {t l)n_1 (n
= -

+1 -

1) ; donc : dét At = 0 pour t = 1 et pour t = 1 -

n.
208 Réduction des endomorphismes

10 Dans PaW les deux premières lignes sont égales lorsque A =


—a\. Ainsi —a\ est valeur

propre. De même, —a2, —as,..., —an sont valeurs propres. Par la trace on a la dernière
valeur propre : ai + + an. Donc

Sp'A =
{-ai, a2,..., an,ai H h an} et détA =
(—l)n( fi ai
J f S a,j).
n

Si les ai sont tous deux à deux distincts et différents de —

E a^),
( i=l A est diagonalisable.
Pour construire une matrice diagonalisable, il suffit de prendre, par exemple, les a* deux
à deux distincts et > 0. Par exemple :

/ 0 1 2 3
10 2 3
A =

12 0 3

\ 1 2 3 0

| 11 | dim E0 = n
-

1. Donc ordre(O) > n


-

1 et Sp'/ =
{0,..., 0, Tr /}.
n-l fois
/ est diagonalisable si et seulement si ordre(O) = n —

1 c'est-à-dire si et seulement si
Tr/^0.
Pour construire une matrice diagonalisable, on peut fixer arbitrairement la première
non

ligne, puis se donner les autres lignes proportionnelles à la première en ayant soin de
choisir le facteur de proportionnalité de la dernière ligne de manière que la trace soit
nulle. Par exemple :

( 1 2 4 -1
^
2 4 8-2
A =

-1 -2 -4 1

\ 1 2 4 -1
y

12 Si A =
0 est valeur propre de / o
5, on a dét (/ o
g) =
0, donc dét (g o
f) = 0 ; donc
A 0 est valeur propre de g o f.
=

Si A 7^ 0 est valeur propre de f o


g, il existe v 7^ 0 tel que (/ o g)(v) = Xv d'où
9°f°9(v) =
Xg(v). Or g(v) 7^ 0 ,
car si g(v) = 0, de l'égalité (/og)(v) = Xv on aurait
v =
0 ; donc g(v) vecteur propre de g o
f pour la valeur propre A.

13
| Montrer que si v est un vecteur propre de g pour la valeur propre A ( v G E^1' J, on

a :
f{v) e Ex(g). Utiliser dimJ^ = 1.

Écrire l'équation f =
ao id +a\ g-\ + an-i <?n-1 dans une base de vecteurs propres
commune à / et à g. On obtient un système dont les inconnues sont ao,ai,..., an_i
et le déterminant est un déterminant de Vandermonde.

14 1. Trivial.

2. Soit Xi £ Fi. Comme E G\ 0 © Gq , Xi =


y\ H h yq , avec yj G Gj. On =

a :
f(xi) Xi (2/1 + =
+ yq) f(yi) + + f(yq). Or f{Vj) G Gj (d'après 1. )
=

et, en vertu de l'unicité de la décomposition : f(yj) Xi yj , donc yj G Fi fl Gj. =

Ainsi, Fi =
Fi n G\ + + Fi n Gq.
Montrer que la somme est directe comme dans la démonstration de la proposition
6.9, page 164.
Puisque E est somme directe des Fi et pour chaque i Fi est somme directe des
Hij (non réduits à {0}), j =
1, ...,g, E sera somme directe des Hij. En prenant
une base dans chacun des Hij qui ne sont pas réduits à {0}, on obtient une base
de E formée de vecteurs qui / que pour g. Aussi,
sont propres aussi bien pour
si / et g commutent, ils sont simultanément diagonalisables.
Réciproquement si / et g sont simultanément diagonalisables leurs matrices dans
une base commune de vecteurs propres commutent, donc f et g commutent.

15
1. Puisque E est diagonalisable, E est somme directe des espaces propres :
Exercices 209

E =
EXl © 0 EXq
Prendre pour Pi le projecteur sur
E\t.
Tout x G E s'écrit x =
x\ H + xq (xi G EXi) d'où, en appliquant / :

f(x) =
Al Xl H h Xq Xq =
Al Pi H Xq Pq
2. On a ImPi ©
E =
© ImPg (cf. exercice 10, chapitre 3)
Puisque / Ai PiH =
\-Xq Pq et PioPj pour i ^ j, on a pour tout x G ImP*
f(x) Ai Pi(x)
=
Xi = x. Donc ImP* C E\i. D'où :

EXl © ©^Ag DlmPi©.-.©ImP9=JE ;

donc E est somme directe d'espaces propres.

3. Les valeurs propres sont Ai =


+1 (simple) et A2 = —

1 (double). On a :

r / pi+p2
i
=

A =
Pi-P2

d'où :

-1 0 -1 1
I + A I-A
Pi = -1 et P2 = -1 0 1
-1 -1 -1 2

An =
Pi + (-l)nP2
4. Dans le cas général, on a :

Pi + -

+ Pq
A Ai Pi + + XqPq

A*-1 =Ai^-1Pi + -..

+ A^-1Pg
Le déterminant de ce système est un déterminant de Vandermonde (cf. exercice
13, chapitre 4). Ceci permet de calculer explicitement les projecteurs Pi.

Remarque -

La relation / =
Ai Pi + ...
+ ...

Xq Pq n'a rien de mystérieux. Si / est

diagonalisable, on a, dans une base de vecteurs propres,

/Ai
Xi
M(f)Vi = =
Ai +

0/


+ Aq =
Al Pi + + Ag Pq

\xq\ 1. Analyse. En écrivant </>(/) =


A/, on a :

I
ri
cœ-V(*)dt =
Xf(x) (1)
Jo
En dérivant, on trouve :
Xf'(x) =
Xf(x). Si A ^ 0 on a : f(x) = Cex.

Synthèse. Si A ^ 0 et f(x) = ex ; en remplaçant dans (1), on trouve A = 1. Si


A = 0 on a
f* /(t)e-* dt = 0.
Donc les valeurs propres sont 0 et 1 et les espaces propres :

E° =

{f(t) I /1^*)e_'dt 0}' =


fii =
iCeX}ceR
210 Réduction des endomorphismes

2. L'analyse donne : Xf + À / 0. =

Pour la synthèse, utiliser l'indépendance des fonctions coscc et sinx.


On trouve les valeurs propres 0,7r/2, —

n/2 avec espaces propres :

f I
r/2 r/i ï
Eo {f(t)\I / f(t)costdt f(t)sintdt 0}
[ J
= =

J-tv/2 J-tv/2
=

En/2 est engendré par cosx et


E_7r/2 est engendré par sinœ.

| 17
| Ecrire / dans la base B =
{1, #, x2}. On trouve :

/l 10\
A:=Af(/)e= 2 12, SpA {1,-1,3}
\0 1/
=

Une matrice de passage de B à une base de vecteurs propres est :

i (\ 1 1 v

[-1
P= 0-2 2
4
-

1 1

Calculer

£ = An ai

,7/ W,
et écrire le résultat sous la forme a + fîx +7 #2

18 A= (a d) ££ <=> a + d = 0 <==> A =
aEi + bE2 + cE3 avec

/ 0 2 0
B =
{EuE2yE3} est une base de S. Soit C :=
M(f)B = 0 2 0

\-4 0-2

On trouve :

/ 0 1 0
Cn 2n
[ 0 1 0

^
=

2(-l)n -(l + (-l)") (_i)«

d'où fn(A) 2n
V y
: =

2a(-i)n-&(i+(-ir)+C(-ir -6

19 a; =
C2 e~2t + 2C3e\ y =
-C2 e~2t -

C3 e*, z =
Ci e~5t + C2 e"

20 Ona: tCof{A -

X J) (A -

XI) X =
PA{\) X (*)
/ xi \
où X =\ : et le système s'écrit :
(^ I-^)X—
= Q.

Prendre la i-ième composante de (*) et remplacer À par -4i

Dans l'exemple x\ et x2 vérifient l'équation différentielle y


2yf + y =
0, dont la
solution générale est y et(ci + c21). Donc x\ et x2 sont
=
de la forme :

j X! =et(a + bt)
\ x2 =
et(c + dt)
211
Exercices

En remplaçant, par exemple, dans la première équation, on trouve :

f 36 + 2d 6 f
l
d =~b
{
=

d'où : b
[ 3a + 2c =a + b
{ c -a+
= -

ce qui donne :

x\ = e* (a + bt)

X2 = e* (—a H bt)

Nota. Cette méthode permet de résoudre le système ïians chercher les vecteurs propres
(ou, le cas échéant, les espaces caractéristiques : cf exercice 37) .

1. Sp'Ai ={2,2,1}.
Si / est l'endomorphisme associé à Ai dans la base canonique, il existe une base
{vi} telle que

(2 a 0N
M(f)Vi =020
\0 0 1,

E2 est engendré par I 1 I ; diml?2 1, / 0.

W
vi = comme =
on a a

En prenant a ^ 0, on cherche V2 tel que /(i>2) =


avi + 2t>2. En prenant par

exemple 1, trouve I 0 Ei est engendré [ 1 I Donc

W
a on : V2 par v3 :

W
= = .
= .

11 1 0\
A[ 0 2 0

\o iy
=

Sp'A2 =
{1,1,1} ; Ei : a; + y —

z = 0. On prend i>i, ^2 G £?i, par exemple :

I 0 I 1 I et complète base choisissant, exemple


W
vi V2 par
W
=
,
=
,
on en une en

/0\
(1 0 o\
«3=0. Ainsi A'2 M(/)„< =0 1 6

W
: =

1/
.

\0 0
On calcule a, 6 en imposant que /(i^) = av 1 +6^2+^3. On obtient a =
—2,6 = 1.

fI 2
Sp'A3 {9,9,9}. dimi^g 1. E9 est engendré par vi 2
] Il existe

V
= = = . une

-1
base {vi} telle que :

/9 a b\
M(f)Vi = 0 9 c

\0 9/
.

En imposant /(i>2) =
clvi + 9i>2 on voit que l'on peut prendre, par exemple,
(I ~1/3
\
1 et V2 —2/3 ] (Attention n'a pas le droit de multiplier
V )
a : on V2 par
= = .

0
3, car i>2 est solution d'un système non
homogène).

On complète {^1,^2} en une base en prenant, par exemple : vs =


f°\
I 0 I.

On trouve b =
18, c = 2.

dX'
2. On résout : —-

dt
=
A[ X' et on revient à X par X = PX''.
212 Réduction des endomorphismes

( x'
=
(C2t + C3)e2t

y' =
C2e2t

{ zf =
d c*
a; =
(C2t + C3)e2t + C3e<

y =
(c2t + C3)e2* + 3C3et

l « =
C2 e2t + C3 e*

22 Si i> est vecteur propre de / pour la valeur À, on a : Q(f)(v) =


Q(A) v.

23 En dérivant le système -^ =
AX, on a par récurrence :
f-^J X = APX. D'autre

part, si PA(A) =
(-l)nAn + an_iAn-1+ -+aiA + a0, on a : (-l)n An+an_i A71"1 +
( —^ X.
h ai A + ao I = 0. Appliquer à X et tenir compte du fait que APX =

J
24
1. Si SpA={Ai,...,Ap},ona: SpPB(A) =
{PB(Ai), ...,PB(AP)} (cf. exercice 22),
donc toutes les valeurs propres de Pb(A) sont non nulles.
2. On a Ak M M Bk pour tout k G N, etc.
=

3. Écrire l'égalité de 2. pour Q(X) =


Pb(X). Utiliser le théorème de Cayley-
Hamilton et 1.

25 | On a
prx o
pr2
= 0 puisque Qi(f) o
Q2(f) = 0. D'autre part, d'après (*) page 180,
on a
pr1(a;) + pr2(#),
: x = Va; G E , d'où prx(a: ) =
pr2(rc ). Ceci montre que prx est
le projecteur sur KerQi(/). Même démonstration pour pr2.
Il est clair que l'algorithme de calcul des polynômes U\ et U2 du Théorème de Bézout
permet de calculer facilement les projecteurs prx et pr2.

26 Puisque A est à coefficients réels, si i est valeur propre, alors —

i est aussi valeur

propre. Donc Sp'A {i, -i, 1, A} et


= Tr A = i —

i + 1 + A. D'où A = 1. Le polynôme
caractéristique de A est donc Pa(X) =
(AT-1)2(A:2 + 1). Puisque X-l X2 + l sont
et

premiers entre eux, on en déduit immédiatement que R4 =


Ker( A —

/ )2 ©Ker( A2 + / ).

Noter que le Lemme des Noyaux s'applique aussi si les polynômes Qi ne sont pas
scindés.

27 mAl(X) =
(X- 2)2(X -

1), mA2(X) =
(X -

l)2 mA3(X) =
(X-9)*

28 PA(X) =
-(X-l)2(X-c).
Si # 1 : mA(X)
c (X 1) (X c) = - -

ou mA(X) (X = -

l)2 (X -

c). Donc A est

diagonalisable si et seulement si mA(X) =


(X 1)(X c),
— —

c'est-à-dire si et seulement
si (A —

I)(A —

cl) =
0. On trouve que A diagonalisable si et seulement si a =
0, et b

quelconque.
Si c = 1 :
mA(X) = X -

1 ou
(X —

l)2 ou (X —

l)3. Donc A est diagonalisable si


et seulement si mA (X) = X —

1, c'est-à-dire si et seulement si A =
/, ce qui est exclu.

En résumant : A est diagonalisable si et seulement si c ^ 1, a = 0.

29 Comme dans l'exercice 9, Sp'A =


{4,4,4,8}, dim£?4 = 3. Donc A est diagonalisable et

par conséquent :
mA(X) {X = -

4)(X 8) d'où : (A
- -

41)(A -

81) =
0, c'est-à-dire :

A2 -12A + 327 = 0.
Comme il n'y a pas de valeur propre nulle, A est inversible. En multipliant par A-1
cette équation, on trouve :
/ 7 -1 -1 1\

A-i J_(12/_A)=J_ "j ]


"I
M
32^ '32-1-1 11
=

7
\ 1 1 1 7/
Exercices 213

30] 1. PA(X) =
~x(x2 -

cX -

(a2
admet trois valeurs propres distinctes, donc elle est diagonalisable.
+b2j). Sia2 + 6V0 et c2 +4 (a2 + b2) ^ 0, A

Soit a2 + b2 = 0 ; on a : PaPO = —X2(X c). Si c = 0, A est diagonalisable si —

et seulement si 771,4 (X) =


X, c'est-à-dire >4 =
0, ce qui est exclu. Si c 7^ 0, A est
diagonalisable si et seulement si A(A cl) —
=
0, ce qui est aussi exclu. Donc si
a2 -h b2 0, A n'est pas diagonalisable.
=

Etude analogue pour c2 + 4 (a2 + b2) 0. =

2. (a) On trouve /3 =
anf2 + crf. Polynôme annulateur :

Q{X) =
X(X2-anX-a)
(b) Si 7^ 0 et a2
a + 4 <r 7^ 0, Q n'a que des racines simples et donc A est

diagonalisable.
Si a =
0, alors Q(X) X2(X an). Si an 0, A = —
=
est diagonalisable si et
seulement si A 0, ce qui est exclu, etc. (raisonner
= comme dans 1.).

r^n 1- /fc(e0 =
ei+fc[modn]. Donc /n(e;)
=
e*, c'est-à-dire /" = id.
Q(X)
1
Donc = Xn —

1 est annulateur de /. Puisqu'il est scindé dans C et il a

toutes ses racines simples, / est diagonalisable.


Si bo id+61 / + 62 f2 + + bn-i /n_1 0, en appliquant
= cette expression sur

ei, on trouve 60 =
61 =
62 = =
&n-i = 0. Donc dPmf(X) = n et par

conséquent :
mf(X) = Xn 1 et Pf{X) =
(-l)n(Xn 1).
- -

On en déduit :

Sp/ =
{ct>o,wi,...,Wn-i}, uk = e~TT

2. Soit g l'endomorphisme associé à A dans la base canonique. On a : g =


P(f)
avec P clq + a± X +
=
+ an-i Xn~l. Donc g est diagonalisable et :

Sp <? =
{P(wo), P(wi), , P(wn-i)} ,
dét A =
P{u0)P{ui) P(wn-i).

32 X50 est annulateur. Donc m,f{X) = X^3 (avec /? < 50) et, par conséquent Pf(X) =

(-l)nXn. D'après Cayley-Hamilton : fn =


0.

33 f2 =
f. Donc X(X —

1) est annulateur.

34 1. Tout vecteur propre de / est vecteur propre de / donc, si / est diagonalisable,


f2
,

est diagonalisable (dans la même base de vecteurs propres).


2. (a) Puisque / est diagonalisable, mp(X) =
(X \±) (X Xp). Utiliser
— - — —

mpif2) = 0. Comme toutes les Xi sont différentes de zéro, le polynôme

Q(x) =

(x- x/Â7) (x + vXT) (x y/%) (x y/x;)


-

a toutes ses racines simples,


(b) Puisque f2 est diagonalisable, mp{X) =
X(X —

Ai) (X —

Àp), d'où

f2 o
(/2 -

Ai id) o o
(/2 -

Ap id) =
0, c'est-à-dire

Im
[(f2 -

Ai id) o o
(/2 -

Ap id)] C Ker f2
Utiliser Ker/ =
Ker/2.
3. En écrivant les matrices de / et f2 dans une base de vecteurs propres, on voit
facilement que Ker / = Ker f2.
4. Application. A2 est diagonale, donc A est diagonalisable si et seulement si
Ker A = Ker^42. Cette condition s'exprime sur les coefficients ai par :

ai =0 <*=> an-i+i =0 (i =
1,... n)
214 Réduction des endomorphismes

35 1- Pa(X) X2(X l)2 ; donc A


= —

est diagonalisable si et seulement si


A (A I) 0. Ce qui équivaut

= à a =
0, (5 0. =

2. Sp'(,4 + J) =
{1,1,2,2}, donc dét (A +1) ^ 0. Soit £ = ,4 + I ; B est

diagonalisable, donc (B -

I) (B -

21) = 0 ; d'où : S"1 =


-(31 -

B) = I - -

A.

36 Q(X) X3- SX2 =


+ 21X -

18 =
(X -

2){X -

3)2 est annulateur ; donc mA(X) divise

Q(X) et d°rriA(X) < 2. On a 4 cas possibles :

ma
(X) = X —

2 , ce qui donne A = l _
1.

ra,4 (X) = X —

3 , qui donne A = f n

)
-

mA(X) =
(X -

2)(X -

3), d'où :
PA{X) =
(X -

2)(X -

3) = X2 -

5X + 6, ce qui
équivaut à TV A = 5 et dét A =
6, c'est-à-dire :

/a 6 N
avec a(5 a) bc= 6
a)
— —

\c 5 —

rriA(X) =
(X —

3)2 ce qui équivaut à Tr A = 6 et dét A =


9, etc.

'0 1 0 0>
0 0 0 0
37 A est semblable à A' = avec matrice de passage :
0 0 10
^0 0 0 1>

P =

L'espace caractéristique No est engendré par les deux premières colonnes de P et


l'espace caractéristique Ni par les deux dernières colonnes.
/0 0 0 0\
»
[ 0 0 0 0
(^T
,,vn
pour n > 2
0 0 10
_

^0 0 0 ly

Calculer P(A')np-

38 On a
Pa(-X") =
—(X —

1) (X —

2)2. En effectuant une réduction en blocs triangulaires


on voit que A est semblable à la matrice

A' =

Donc

A' = D' + N' =

une matrice de passage étant P =

donc :

1 -1 0 0
N = PN,P~1 = 1 -1 d'où D=A-N= 1 0
0 0 -1 2
Exercices 215

[39 Les formes de Jordan possibles sont :

1 1 1 1
0 1 0 1

0 1 1

m
et
0 1

S s
V 0/ 0/
En particulier : dimEi =
3 ou dimi^i = 2.

40 I PA(X) =
(X-1)\ mA(X) =
(X-l)2

(ay =
0 si a = 0
et dim.Em <
!
=
{)
+ 2z + t = 0 2 si a ^ 0

/ 1 1 0 0 \
0 1 0 0
Donc : si a = 0 A est semblable à A'
0 0

V 0 0 0
0 /

/ 1 1 0 0 \
0 1 0 0
si a 7^ 0 A est semblable à A' =

0 0 1 1

V 0 0 0 1
/
Matrice de passage :

0 1 0 1
0 0 1 0
si a = 0 : P =

1 0 -1 0
y,-2 0 0 -1/

^011 -2/a>
0 0 0 1/a
si a 7^ 0 : P =

10 0 0
k-2 0-1 0 /

1 1
41
1. Réduite de Jordan : 0 1

V 0 0
0 J
Ei est le plan x + y —

z =
0. Si {^î, t>2 ^3}
>
est la base de Jordan on doit avoir

^1,^3 € Ei et V2 tel que A V2 = v1 + v2. Si on prend v1 =


I 0 I ,
on aboutit

pour V2 au système
2x + 2y-2z = 1

—x —y + z = 0

qui est incompatible. Prendre v\ = -1


| ,
etc.
1

Nota. C'est pour éviter ce type de problèmes que l'on utilise la construction
ci-dessous.

2. Simple vérification
216 Réduction des endomorphismes

3. Réduite de Jordan :

f 2 1 0
0 2 1 0
A' =
M(f)Vi =
0 0 2 0

V o o o
g /
Les vecteurs {v\ , ^2, i>3 } engendrent le sous-espace caractéristique N2 ; le vecteur
1
1
V4 engendre le sous-espace propre E\ : V4 =

-4
-1

Détermination de N2. On a N2 Ker(A 2I)3. En effectuant le calcul


= —

on voit
que, dans les coordonnées {x,y, z,i}, N2 est défini par l'équation x 0. =

Détermination de V3. On prend pour V3 un vecteur quelconque de N2 \Ker(A —

2I)2.
Le calcul montre que Ker(A —

2I)2 est défini par le système :

=0
f
x
0

\
x =

-x +y-t = 0 c'est-à-dire :
y t
3x+y-t=0
=

On peut prendre, par exemple : V3 =

On prend ensuite V2 =
(A —

2I)vs = et vi =
(A -

2 /) v2 =

Ainsi une matrice de passage à la forme de Jordan est :

P= \\viiv2tV3iv4t\\ =

42 La matrice est d'ordre a et décomposée en 7 blocs d'ordre respectivement :

Pi =
P, #2, /?3, .
, j&y. Or pi > 1 (pour t =
2,... ,7). Donc :

a =
Pi+p2 + --+P1>P+l + --

+ l =
P + l-l
7-1 fois

D'autre part : Pi < P \ donc a < py. Ainsi : $ +7 l<o:</?7.

43
| On a A3 = 0 ; Pa(-X) =
--X7, m^CX) = X3 , dim^o = 3 quels que soient a et b.

Pour connaître la forme de Jordan, il faut calculer 723, 712 et ni à l'aide des formules
de la proposition 6.36.
Si a = 1 et b 0, on trouve
=
n3 =
2, donc n2 = 0 et ni = 1 ;
si a = 0 et 6 1, on trouve
=
713 = 1 et n2 =
2, donc ni =
0.
Chapitre 7

Espaces euclidiens

La notion d'espace vectoriel ne constitue général de l'algèbre linéaire : il s'agit


que le cadre
de la structure minimale qui permet de problèmes linéaires. La richesse de la
traiter les

théorie s'accroît notablement si à la structure d'espace vectoriel on ajoute des structures


supplémentaires qui permettent de rendre compte d'autres propriétés remarquables que l'on
rencontre naturellement.
La plus importante de ces structures additionnelles est celle qui fait référence aux questions
concernant la mesure longueurs,
des des distances, des volumes, des angles, etc : c'est ce

que l'on appelle les notions métriques (du


grec \iérpov mesure). =
De même que la notion

d'espace vectoriel permet de donner un sens, de définir et étudier les phénomènes linéaires,
la notion de produit scalaire permet de donner un sens, définir et étudier les propriétés
métriques dans les espaces vectoriels.

7.1 Produit scalaire canonique dans M2 et M3

Dans ce paragraphe nous donnons les notions intuitives de "norme", "angle", "orientation",
de manière à assimiler plus facilement les notions plus précises qui seront définies par la
suite.
On sait qu'en physique ou en mécanique l'on introduit sur les vecteurs du plan R2 ou de
l'espace E3 une opération dite produit scalaire définie de la manière suivante :

Si x =
(xi, #2, £3) et y =
(yi, 2/2, ys), on appelle produit scalaire de x par y le scalaire :

(x, y) := xi yi + x2 2/2 + x32/3

Le produit scalaire jouit des propriétés suivantes :

i) Il est bilinéaire, c'est-à-dire linéaire en chaque argument :

(x +y,z) =
{x, z) + (y, z)
(Àx, z) =
À(x, z)
(x, y + z) =
{x, y) + (x, z)
(x, Xz) =
X (x, z) , Vx, y, z e M3, VA G R

ii) Il est symétrique, c'est-à-dire :

(x, y) =
(y,x) , Vx, t/GE3.
iii) Il est défini positif, c'est-à-dire :

(x, x) >0, VxGR3 et

(x, x) 0 <(=4> x
=
0 =

217
218 Espaces euclidiens

Bien entendu, le produit scalaire vérifie d'autres propriétés, mais en fait toutes les notions
"métriques" peuvent être introduites en tenant compte de celles-ci.
Nous allons rappeler ici brièvement quelques-unes de ces notions.

1. Norme

On appelle longueur ou norme du vecteur x le scalaire :

| x || :=
^/{x, x) =

^x\ + x% + x\
La propriété iii), assure que l'on peut prendre la racine carrée et qu'un vecteur est nul si et
seulement si sa longueur est nulle.

Cette notion correspond à celle intuitive déduite du théorème de Pythagore (cf. fig. 1).

Figure 1

2. Orthogonalité
On dit que deux vecteurs v, w sont orthogonaux si

{v, w) = 0

Cette définition coïncide avec la notion intuitive d'orthogonalité. Soient en effet v et w deux
vecteurs ; on peut exprimer le fait qu'ils sont orthogonaux par la condition (cf. figure 2.) :
||v + tu|| =
\\v -w\\

--Jly^wii

Figure 2

Or, d'après les propriétés i), ii) :

\\v + w\\2 =
(v + w, v + w) =
\\v\\2 + IMI2 + 2 (v, w)
et \\v -w\\2 =
(v -

w, v -

w) =\\v\\2+ \\w\\2-2(v,w)
Donc la condition H^; + w\\ =
\\v —

w\\ est équivalente à (t>, w) = 0.


7.1 Produit scalaire canonique dans M2 et R3 219

3. Angle (non orienté) dans M2 ou M3


-f
w j + Xv
nuls, on
=

Si et sont deux vecteurs


__

v w non

définit d'abord la projection orthogonale


de w sur v comme étant le scalaire A tel

que le vecteur j w Xv soit


= —

orthogonal
à v (cf fig. 3). On trouve :

A =

Figure 3

Si v et w sont deux vecteurs non nuls, l'angle non

orienté entre v et w l'angle compris entre


est 0 et
7r que forment les vecteurs de longueur 1

v w
Vl et Wl
,

ïTiï
IMI
TT"iï
\H\
= =

D'après la trigonométrie, le cosinus est défini par :

cos 9 = X

X étant la projection orthogonale de w\ sur v\ :

Figure 4

Donc

COS0 Jv±w}_ (1)


\\v\\ \\w\
=

Ceci définit l'angle (non orienté) compris entre 0 et 7r. C'est cette formule qui inspirera,
par la suite, la définition d'angle dans un cadre plus général (cf. page 233).

4» Angle orienté dans M2

Etant donné couple de vecteurs non nuls de


un

K {i>,w},appelle angle orienté entre v et w


on

(v,w)
,

celui qui est compté de v à w dans le sens trigo-


nométrique. Cet angle, qui est compris entre 0 et
27T, est noté (v, w).
On voit facilement que si 0 =
(v, w) et {ei} est V
la base canonique :

dét \\vy w\\


sin# (2) Figure
NI IMI
5
=
220 Espaces euclidiens

Soient en effet v " (


\\v\\ ) et tu \\w\\ ( )
\sm/3 J
= =

\sinay
11 .
" "
.
a w

(a et f3 étant les angles orientés que v et w forment


avec

I 0 I
A|
cos ol cos

dét|KHk= INI INI


| p
. .

sm a sin
>ei
=
||t>|| IM| (cos a cos/? —

sin ce
sin/3)
=
\\v\\\\w\\sm(p-a) =
\\v\\\\w\\sme
Figure 6

En particulier, si A(v, w) désigne l'aire du parallélogramme engendré par u et w, on a


(cf.
proposition 4.29) :

A(t»,w) =
IMIIMII *l (3)

(ou, ce qui revient au même :


A(y, w) =
\\v\\ \\w\\ sin0, 6 désignant ici l'angle non
orienté).

REMARQUE. -

On a sin0 > 0 <==> dét \\v, w\\ei > 0, c'est-à-dire sinO > 0, si et seulement si
la base {v, w} a la même orientation que la base canonique (cf. définition 4.31.)

5. Angle orienté dans R3

La définition d'angle orienté ne s'étend pas immédiatement à deux vecteurs de IR3.


Soient en effet v, w deux vecteurs indépendants de R3 et ir le plan qu'ils engendrent. Pour
pouvoir parler d'angle orienté il faut d'abord préciser ce que l'on doit entendre par «sens
trigonométrique», car tout dépend pour le dire en termes expressifs du côté duquel on
-
-

regarde le plan (cf fig. 7).

Figure 7

D'une manière pouvoir parler d'angle orienté il faut fixer au préalable une
plus précise, pour
orientation de la normale plan tt Vect{t>, w}, c'est-à-dire choisir un vecteur directeur n
au =

de la normale à tt. Le choix de n détermine, conformément à la définition 4.34, une orientation


de 7r : sont dites orientées positivement les bases {t>i, V2} de tt telles que dét ||vi, ^2, n || > 0.
Si {vijt^n} est une telle base, on appelle sens trigonométrique ou sens positif celui qui
est compté de v\ à V2 pour décrire un angle plus petit que n (c'est ce que l'on appelle en

physique «la règle d'Ampère» ou aussi du «tire-bouchon» (cf. figure 8).


7.2 Produit scalaire sur un espace vectoriel. Espaces euclidiens 221

Ceci dit, une fois n choisi, on appelle


angle orienté entre deux vecteurs non nuls

-y, celui qui est compté de v à w dans


w

le sens positif défini par n. Cet angle est


noté (v, w)n. Vi
V2

Si e =
(v, w)n, on a :

Figure 8

dét \\v,w,n ||,


sin# (4)
IMIIMMInl
:

En effet :

| dét ||v, w, n ||ei | =


Vol(v, w, n ) =
A(v, w) \\n || =
| sin 9 \ \\v \\ \\w \\\\n\
Or sin# > 0 si et seulement si {v,w} est orienté positivement (cf. remarque page 220),
c'est-à-dire si dét \\v,w,n \\ei > 0. On en déduit la formule.

Remarque -

Bien entendu, le fait que l'on puisse définir sans ambiguïté l'angle orienté entre
deux vecteurs de R2,tient à ce que M2 est muni d'une orientation canonique (l'orientation définie
par la base canonique).
À la fin de ce chapitre nous donnerons une définition plus précise d'angle orienté (cf. définition
7.29)
Comme on quelques exemples, les différentes propriétés métriques de l'espace
le voit de ces

ordinaire peuvent être définies rien qu'en faisant appel aux propriétés i), ii), et iii). Aussi
i), ii) et iii) peuvent être utilisées comme axiomes pour définir le produit scalaire dans les
espaces vectoriels quelconques.

Exercices 1. 2. 3. 4.

7.2 Produit scalaire sur un espace vectoriel. Espaces


euclidiens

Définition 7.1 -

Soit E un espace vectoriel réel; on appelle produit scalaire sur E


une application (, ) : E x E -^R qui est :

i) bilinéaire
ii) symétrique
iii) définie positive, c'est-à-dire :

(x,x) >0, VxeE et

(x,x) 0 =
4=^> x 0 =

Un espace vectoriel réel de dimension finie, muni d'un produit scalaire est dit espace
euclidien1.

Exemple 1 -

Soit E = M71 avec (, ) défini par :

(x,y) := xiyi + +xnyn, où : x =


(xi, ,x„), y =
(yi, ,yn)
1Si E est de dimension infinie, il est dit espace préhilbertien réel.
222 Espaces euclidiens

Le produit scalaire ainsi défini est dit produit scalaire canonique.


Cet exemple est important : nous verrons par la suite (cf. corollaire 7.7) que si E est
un espace euclidien, moyennant le choix d'une base, on peut identifier E àRn muni du

produit scalaire canonique. En d'autres termes, il s'agit, à un changement de base près,


du seul exemple d'espace euclidien 2.

Exemple 2 -

Soit E un espace vectoriel réel de dimension n et {ei} une base de E.


On définit alors un produit scalaire sur E, en posant :

fo y) et =
Xi vi + " *

+ Xn y

pour x =
s?=i xi ei i y =
127=i y*ei-

(#, y) est dit produit scalaire associé à la base {ei} .

Exemple 3 -

Sur M3 on définit

(x, y) := xiyi + 2 z2*, 2/2 + 3 x3 y3 + X12/2 + x2yi

La symétrie est évidente. La bilinéarité vient du fait que tous les x% et yi apparaissent à
la puissance 1 : plus précisément, le second membre est un polynôme homogène de degré
1 en les x% et les yi. Montrons que (, ) est défini positif.
On a :

(x,x) := x\ + 2 #2 + 3 £3 + 2xix2

Ecrivons le premier et dernier terme à second membre comme le début d'un carré :

(x,x) =(xi+x2)2 -xl+2x% + 3xt =


(xi+x2)2+rr2 + 3x3 > 0

xX + IXx X2

{x\
et on a :

+ x2 =0
X2 =0 4=4> Xi =
X2 =
X3 =
0
X3 =0

Donc (, ) est défini positif.

Exemple 4 -

Sur .M2(K) on définit :


{A, B) :=
Tr( tAB).

(
(
iCi Xo \ yi 2/2
Il s'agit d'un produit scalaire. En effet si A = 1 et B
2/3 2/4

(A, B) =
xiyi+ x2 y2 4- x3 y3 + x* \

qui est bilinéaire, symétrique et définie positive.


Plus généralement sur Mn(R), (A,B) := Tr (lAB) définit un produit scalaire, dit

canonique. Si A =
(xij ) et B =
(yij ), on a :

^
n

(A,B) =
xijViJ-

Ils'agit donc du produit scalaire associé à la base canonique Eij de Mnfà) (cf. exercice
10, chapitre A.l).

2Ainsi, si l'on cherche des exemples ou contre-exemples il suffit de se limiter à ce cas.


7.3 Méthode de Gauss pour la réduction en carrés 223

Exemple 5 -

Sur R[x] on définit :


(P,Q) :=
/
Jo
P(x)Q(x)dx.

La bilinéarité et la symétrie sont évidentes. D'autre part, (P,P) =


fQ P(x)2dx > 0.

Supposons que (P, P) =


0 ; puisque P(x) est une fonction continue et P(x)2 > 0,
f1 P(#)2da; =
0 entraîneP(x)|[0,i] P(#) =
0. Ainsi est unpolynôme ayant une infinité de
racines et par conséquent, nécessairement, P(x) =
0. Donc (, ) est un produit scalaire.

Notons que M[#], n'est pas de dimension finie et donc qu'il n'est pas euclidien, mais pré-
hilbertien réel.

Exemple 6 Si F est un sous-espace d'un espace vectoriel E muni d'un produit scalaire
-

(, )E, on définit sur F :

(x,y)F :=
(x,v)e » (Vx,j/€F)
On vérifie facilement que (, )F est un produit scalaire sur F, dit produit scalaire induit.

Sauf mention contraire, nous supposerons que les sous-espaces vectoriels d'un espace
euclidien sont munis du produit scalaire induit. S'il n'y a pas de risque de confusion possible,
nous noterons d'ailleurs (, ) aussi bien le produit scalaire (, )E que le produit scalaire
induit (, )F .

Exercices 5. 6. 7.

7.3 Méthode de Gauss pour la réduction en carrés

Dans ce paragraphe nous allons préciser la technique utilisée dans l'exemple 3. page
222 qui permet de savoir si une application bilinéaire symétrique est définie positive.
Définition 7.2 -

Soit E un espace vectoriel sur K (non nécessairement de dimension


finie). On appelle forme bilinéaire une application f : E x E —> K qui est linéaire
dans les deux arguments, c'est-à-dire qui vérifie :
f(x + y, z) =
f(x, z) + f(y, z)
-

f(x, y + z) =
f(x, y) H- f{x z) ,

f{\x,y) =
\f{x,y) =
f{x,\y), \/x,y,zeE, \/\eK.

Supposons E de dimension finie et soit {e^} une base de E. Si x =


J27=ixi e* et

V =

E£=i2/j ej ,
on a :

/( ^2 ^yjejj y^2,xiyjf(euej)
n n n

ffay) =
^ Ci, =

i=l j=l i,j=l

Les f(ei>ej) sont des éléments de K. Si on note clîj :=


/(e^ej), l'expression de /
dans la base {e;} est :
n

f(x>y) =

J2 o**x*yj

c'est-à-dire / est du type :

f(x,y) =
an xi yi + a12 xi y2 + h a%j xiyj H r- annxnyn
224 Espaces euclidiens

Autrement dit, on reconnaît une forme bilinéaire par le fait que, en l'écrivant dans
une base, on obtient une somme de monômes dans lesquels Xi et yj apparaissent à la
puissance 1.

Ainsi, par exemple :

f(x, y) =
xi yi + 2 x2 y2 x3 y\ + xi y3
-

est bilinéaire, alors que :

f(x, y) = 3 xi 2/1 + 3 x\ y2 H

ne l'est pas, pas plus que :

f(x, y) =
3x2y2 + 2x2-\

(car dans le second monôme yi n'apparait pas à la puissance 1).


La vérification de la symétrie est tout aussi facile : le fait que / ne change pas lorsqu'on
échange le rôle de x équivaut, bien entendu, à a^-
et y dji : c'est-à-dire le coefficient
=

de Xiyj doit être égal à celui de Xjyi. Ainsi, par exemple :

f(x,y) =2xiyi Jtx2y2 -7xiy3 -7x3yi + 4x2y3 +4x3y2

est symétrique.
Pour savoir si/ est définie positive (dans le cas où K R), on procède = comme dans
l'exemple de page 222, selon la technique suivante due à Gauss.
Il s'agit de savoir si f(x,x) > 0 et si f(x,x) =
0 implique x =
0. En écrivant f(x,x)
on obtient une expression du type :

f(x, x) =
anxl~\ h ann x^-\ h a+j XiXj -\

f(xyx) se présente donc comme un polynôme homogène de degré 2 en les x\. Les
termes en
x\ sont dits «termes carrés», les termes en XiXj, avec i =^ j, «termes

rectangles».

REMARQUE. Si / -

est un produit scalaire, tous les coefficients au des termes carrés sont
strictement positifs.

En effet, s'il existe un i G {1, , n} tel que au < 0 ; on a au =


/(e», e») < 0, donc / n'est
pas définie positive.
Ainsi par exemple si f(x,x) 2 x\ =
+ x\ + 3 x\ x2 + 5 x2 x3 on n'a pas pas un produit
scalaire (le coefficient de x\ est nul).

Pour comprendre la méthode de Gauss, nous allons d'abord considérer quelques


exemples :

Exemple 1 -

Soit E =
R3, {a} la base canonique, x =
x\ ei + x2 e2 + x$ e% et :

f(x, x) =
x\ + 2 x\ + 5 x\ + 2 xi x2 —

4 x2 xz

Considérons un terme carré, par exemple x\ (s'il n'y a pas de terme carré, / n'est pas un

produit scalaire).
7.3 Méthode de Gauss pour la réduction en carrés 225

-
on ordonne suivant la f(x,x) =
x\ + 2x\X2 +2x1+5x1 4:X2X3
variable x\ :
termes avec x\

on écrit les termes contenant f(x,x) =(x± +X2)2 -

x22+2xl + bx1-4:X2Xz
le début d'un carré
* '

xi comme
v
:

î î
terme terme

avec Xi correctif

on obtient le carré d'une f(x,x) =


(xi +X2)2 + x\ + hx\ -AX2X3
forme linéaire plus des termes qui
termes ne contenant
ne contiennent pas x\ :
pas X\

l'opération
f(x,x) =(xi+X2)2+ x\-^X2Xz +5#3
on recommence
-

sur les termes qui ne


termes avec X2
contiennent pas x\ :

=
(xi +x2)2 + (x2
V
-

2 x3)2 -

4 x\ +5 x\
'
v

î
terme

correctif

jusqu'à obtenir une somme Six, x) =


(xi + X2)2 + {x2-2 x3)2 + xl
de carrés de formes linéaires :

Cette expression est dite réduction en carrés de Gauss.

Notons que la réduction de Gauss n'est pas unique, car au lieu de partir de la variable
xi on aurait pu partir de n'importe quelle autre variable.

Il est facile maintenant de savoir si / est définie positive. Dans notre exemple on a

bien /(#,#) > 0. D'autre part f{x,x) =


0 équivaut au système :

X\+X2 =
0
X2
-

2 x3 =0
x3 =0

qui donne immédiatement X\ =


#2 =
#3 =
0, c'est-à-dire x =
0. / est donc un produit
scalaire.

Exemple 2 -

Soit E de dimension 3 et supposons que dans une base {e*} :

/(#, x) =
x\ + 3 x\ + 5 x\ + 2 xi X2 —

4 xi X3 + 6 X2 X3
226 Espaces euclidiens

En appliquant la méthode de l'exemple 1, on trouve :

/(x,x) =
(xi + (x2 -

2x3)J
-

{X2-2X2,)2 +3x2 + 5x1 + 6x2X3

T î
terme correctlf
termes avec Xi

=
(Xi -2X3)2+2X2 + X3 + 10X2X3
+X2
=
(xi+x2 -2x3)2 + (x3 + 5x2)2-25x1+ 2x1
=
(xi + x2 2x3)2 + (x3 + 5x2)2 23x1
- -

On voit immédiatement que / n'est pas un produit scalaire car cette expression peut
s'annulersans que x soit nul (ceci tient au fait que le dernier carré est affecté d'un signe
"moins"). Il suffit, en effet, de prendre xi, X2, X3 solution du système :

f xi + X2 2x3 =
0

\

X3

5x2 =
\/23x2

système qui a des solutions non nulles, par exemple X2 =


1, X3 =
5+\/23 , x± =
9+2\/23.
Il est facile de se convaincre de la propriété suivante :

Théorème 7.3 -

Soit E un espace vectoriel de dimension n sur R, et f une forme


bilinéaire symétrique ; alors f est définie positive si et seulement si la réduction de
Gauss donne n carrés affectés du signe "plus".

En effet si la réduction de Gauss donne signe +, en imposant


n carrés affectés du
f(x,x) =0on obtient un système homogène
équations en n inconnues, qui est de n

échelonné (car la méthode de Gauss permet, à chaque étape, d'éliminer une variable).
Or un tel système n'admet que la solution nulle.
Réciproquement, s'il y a moins de n carrés, ou si l'un des carrés est affecté du signe
"moins", il n'est pas difficile de se convaincre qu'il existe des solutions non nulles de
f(x,x) 0. En effet, soit
=

f(x,x) =
anpi(x)2 +a2(p2(x)2 -\ \-anipn(x)2
la réduction de Gauss, où les ipi(x) sont des formes linéaires. Supposons, quitte à
changer la numérotation, que ai > 0 et a2 < 0 et considérons le système :

V ai
(p3(x) =
0

[ <Pn{x) =
0

Ce système est homogène et comporte moins d'équations que d'inconnues. Il admet


x ^ 0 (cf. théorème 2.2 page
donc des solutions 43) ; de tels x vérifient /(x, x) 0. =

Exercice 8.
7.4 Le théorème fondamental des espaces euclidiens. Procédé d'orthonormalisation
deSchmidt. 227

7.4 Le théorème fondamental des espaces euclidiens. Procédé


d'orthonormalisation de Schmidt.

Soit ( J57, (, ) ) un espace euclidien et soit {e^} une base de E. Si x =


J27=ixi e* et

y
=
YJj=\y3eh ona :

Les (e*, e^) sont des éléments de K. Si on pose a^- :=


(e^, e^), l'expression de (, )
dans la base {e^} est :

^
n

\(X y)
,
=
ai3 Xi y3

c'est-à-dire (, ) est du type :

(x,y) =
an xiyi+a12x1y2 + h chj xnjj-\ + annxnyn.

Dans ce chapitre nous allons montrer qu'en fait il n'y a qu'un seul type d'espaces
euclidiens. Plus précisément, modulo un changement de base, tout produit scalaire
peut s'écrire sous la forme :
3

(x, y) =
si î/i +
--

+ xnyn

Commençons par quelques définitions.

Définition 7.4 Soit (£?,(,)) un espace euclidien. Puisque (x,x) > 0 pour tout
-

x e E, on peut considérer la racine carrée :

Il x II :=
VWX~)-
L'expression \\x\\
4
est dite norme de x.

Deux vecteurs x, y e E sont dit orthogonaux si (a;, y) =


0. On note cela aussi x ± y.

Définition 7.5 -

Soit E un espace euclidien. Une base {e^} est dite orthogonale si :

(eu e3) =
0, Vi, j tels que i ^ j.

Elle est dite orthonormée si de plus chaque vecteur est de norme 1, c'est-à-dire si :

(e^, ej) =
dij

où ôij est le "symbole de Kronecker" défini par :


ô^ =
<
n -'-/-

3En particulier, par exemple, si l'on demande de montrer une propriété sur les espaces euclidiens,
on ne
perd pas en généralité en la démontrant sur W1 muni du produit scalaire canonique, ce qui,
bien entendu, est en général plus simple.
4La notion de norme et ses propriétés seront étudiées au §5.
228 Espaces euclidiens

Remarques. -

1. Il est clair que si {si} est une base orthogonale, les vecteurs ei := rr-^rr définissent une
lle*ll
base orthonormee.

2. Toute famille de vecteurs non nuls {ei, ...,£p} deux à deux orthogonaux est libre.
En effet, si ai e\ + + ap ep = 0 ; on a, pour j =
1, ...,p :

0 =
( ej , ai si + -f ap ep ) =
aj

ce qui montre que la famille est libre.

Soit {e*} une base orthonormee et x —

Eï=i %i &iy y
=

EjLi yj ej deux vecteurs de


E. On a :

fa y) =

(e?=i x*> ei '


E£=i yj ej) =

E"i=i ^ % (e* ei>


»

E£j=l Xi % <**i
#

= =
^1 2/1 H VXnyn
Ainsi :

Dans une base orthonormee le produit scalaire prend la forme du produit


scalaire canonique.

On comprend dès lors l'intérêt de savoir s'il existe des bases orthonormées et, le cas

échéant, comment on les construit.

Théorème Fondamental des Espaces Euclidiens . 7.6 .

Dans un espace euclidien il existe toujours des bases orthonormées.

Démonstration D'après la remarque ci-dessus,


: il suffit de montrer qu'il existe des
bases orthogonales. Montrons cela par récurrence sur la dimension n de E.
Pour n 1 il n'y a rien à démontrer. Supposons
=
le théorème vrai à l'ordre n —

1 et
soit v G E, v ^ 0. Considérons l'ensemble de tous les vecteurs orthogonaux à v :

F ={xeE \ (x,v) =
0}.
Il est facile de voir que F est un sous-espace vectoriel de E et que dimF n 1. = -

En effet, F Kero; où uj est la forme linéaire définie par oj(x) (x,v). Comme
=
5 =

u(v) =|| v ||t^ 0, lu ^ 0 et donc dimF =


dimKeru; =
n

1.

Figure 9

5On a bien uj G E*, car le produit scalaire est linéaire en le premier argument.
7.4 Le théorème fondamental des espaces euclidiens. Procédé d'orthonormalisation
deSchmidt. .
229

H s'ensuit, d'après l'hypothèse de récurrence, que sur F il existe des bases


orthogonales. Par ailleurs, v <£ F, car si on avait v G F, on aurait {v | v) 0 et donc v 0. = =

Aussi E =
Vect{t>} 0 F. Par conséquent, si {v2, , t>n} est une base orthogonale de

F alors {i>, i>2, , vn} est une base orthogonale de E (cf. figure). D

On en déduit :

Corollaire 7.7 Le choix d'une base orthonormée B {e*} dans un espace euclidien, =

permet d'identifier E à Rn muni du produit scalaire canonique, par Visomorphisme :

ipB : E — Rn

Construction de bases orthonormées.


Procédé d'orthonormalisation de Schmidt

Nous allons expliquer ici une méthode due à Schmidt, qui, par un procédé standard,
permet d'associer à toute base de E une base orthonormée 6.

Proposition 7.8 Soit {i>i, , vp} une famille libre d'un espace euclidien E et F =

Vect{vi, vp} le sous-espace engendré. Alors, par un procédé standard,


, on peut
alors construire une base orthonormée de F à partir de {t>i, }vp}.
En particulier, à toute base de E on peut associer une base orthonormée de E.

Démonstration : La méthode consiste à construire d'abord, par récurrence, une base

orthogonale {ei, ,£p} de F et ensuite à la normaliser (e* =


TrAr)-
\\ei\\
Pour cela on pose :

f £1 =
vi

\ £2 =
V2 + Aei, avec À tel que €2 -L e\.

En imposant cette condition, on trouve :

0 =
(v2 + XeU£i) =
<v2,ei) + A||ei||2.

Comme e± ^ 0, obtient A Notons que, puisque


'
on = —

vi =ei
V2 =
£2
-

Aei

£\ et 62 engendrent le même espace que v\ et v<i.


Une fois construit £2? on construit £3 en posant :

£3 =
V3 + M^i +^^2

avec/x et v tels que : es _L e\ et es A. 62-

Ceci donne

chapitre (cf. 307)


6
Nous verrons au 9. page une autre méthode fondée sur la réduction en carrés
de Gauss.
230 Espaces euclidiens

0= (vz+iJLei +ve2,£i) =
(vs.si) + /x||£i||2 , car (£i,£2) =0

d'où fjb = —
(î>3,£l) De même, en imposant que £3 _L £2, on trouve v __(^3, £2>
= —

m
.

Comme
Vi =6!
V2 =
£2

Aei
V3 £3 pei VS2
= - -

on a Vect{£i,£2j£3 } =
Vect{i>i,i>2,t>3}> c'est-à-dire {£i,£2,£3} est une base
orthogonale de l'espace engendré par v\, V2, V3
On voit bien maintenant le procédé de récurrence.
Supposons avoir construit £1, , £k-i pour k < p ; on pose :

ek =
yk -f combinaison linéaire des vecteurs déjà trouvés
=
vs + Ai £1 H h Afc-i £/c-i

Les conditions £& _L £* (pour z =


l,---,fc —

1) sont équivalentes à :

K, £i)
Ai
,

iïo-
_

11
~

comme on le vérifie immédiatement.


Puisque v& =
£k

Ai £1
— —

Afc_i Sk-i, on voit facilement par récurrence que

Vect{£i,..., £fc} =
Vect{i>i,..., v/J, aussi {£1,..., £&} est une base orthogonale de

Vect{vi,...,vfc}.

Exemple -

Déterminer une base orthonormée du sous-espace vectoriel F de E4 engendré par les


vecteurs

(l\ ( 0l\
:

f°\
\'V2=\
1 1
vi =
1>3 =

0 -1 1

V 0 / V 1J v 1 y
(M4 étant muni du produit scalaire canonique).
On vérifie d'abord que {vi> t>2, ^3} est une famille libre, ce qui est immédiat, car dans la
matrice :

/ 1 1 0 \
1 0 1
\\Vit V2, Vz\\ =

0 -1 1
0 1 1
\
le mineur encadré est non nul. On pose :

£1 =vi

+ Aei À
(P2,gl)
£2 =
V2 ,
avec

Donc £2 =
i»2

~£i
7.5 Norme d'un vecteur. Angle non orienté 231

-\\
Remarquons que l'on peut prendre comme second vecteur vecteur e2 colinéaire à £2

(\
un :

si et £2 resteront orthogonaux. On prend donc (cela simplifie les calculs).


)
: £2 =
_2

V 2
On pose ensuite :

£3 =
v3 + Ai£1 + A2£2 , avec Ai =
--„^ „9/ et A2 = -

x s,1|2
21!

On trouve : Ai =
--, A2 = —

d'où : £3 = -

\ 3

Ainsi ei, £2 et e3 =
( ~l\ 2
forment une base orthogonale de F.

\ 3 /
En normalisant, on trouve :

1 e3 =

V 2 y'
qui est une base orthonormée de F.

Exercice 9.

7.5 Norme d'un vecteur. Angle non orienté

1. Norme

Soit E un espace vectoriel réel muni d'un produit scalaire.

Proposition 7.9 -

L'application || || : E \—> R+ définie par \\ x


\\ :=
y/(x, x) est
une norme, c'est-à-dire elle vérifie les propriétés suivantes :
1. ||Ax|| =
|A|||a:||, Vx G E, VA G M;
2. ||a;|| =0 si et seulement si x =
0 ;

3. Inégalité triangulaire :

\\x + y II <
||x|| + ||y H, \/x,y eE

Végalité ayant lieu si et seulement si il existe X > 0 tel que y = Xx (ou x =


Xy).
Démonstration :

1. et 2. sont évidentes. Pour montrer 3. on a besoin du lemme suivant :

Inégalité de Cauchy-Schwarz . 7.10 -

Pour tous x, y e E, on a :

(x, y) \\x\\z\\y |r
I \ 2 n2 11 ||2
<
11

l'égalité ayant lieu si et seulement si x et y sont liés.


232 Espaces euclidiens

En effet, si \\x\\ \\y \\ = =


0, on a x =
0 et y
=
0 et la propriété est triviale.
Supposons que \\y\\ ^ 0 et soit A G M arbitraire; on aura
\\x + Xy\\2 > 0
c'est-à-dire :

||z||2 + ||Ay||2 + 2(a;,Ay) >0, VA G M,


donc :

\2\\yf + 2\(x,y) + \\x\\2>0, VA e M.


(*)
Pour que ce trinôme en A soit > 0 il faut et il suffit que le discriminant soit < 0
c'est-à-dire :
<*,y>2-||z||2|b||2<0,
ce qui montre l'inégalité.
D'autre part, si l'on a (rc, \\x\\2\\y y)2 =
||2, le trinôme (*) a une racine (double)
A ; c'est-à-dire, il existe A G M tel que :

X2\\y\\2 + 2X(x,y) + \\x\\2=0.


En remontant les calculs, on voit que cela signifie qu'il existe A G M tel que
\\x + Xy || =
0, c'est-à-dire : x + Xy 0. 0 =

Montrons maintenant l'inégalité triangulaire. On a :

\\x ||2 =|N|2 ||2/||2 2(^,y)


^ W2 ||»||2 2|(^y>|
+ y + + + +

<
INI2 + lly||2 + 2|NM|yï =
(INI + ||2/||)2

donc \\x + y || <


||a;|| + \\y ||.
Notons que si y =
Xx avec À > 0 on a l'égalité. Réciproquement, supposons que Y on

a l'égalité ; en remontant les calculs, on voit que :

l'égalité en (b) implique que x et y sont colinéaires, d'après l'inégalité de Cauchy-


Schwarz ; donc, si par exemple x ^ 0, y =
A x.

-
on a l'égalité en (a) si (#,y) =
| (a;,y) |. Puisque y
=
Xx ,
on a A ||x||2 =
|A| ||#||2
donc A > 0.

REMARQUE. —

L'inégalité triangulaire
exprime le fait que dans un triangle la

longueur d'un côté est inférieure ou égale à la

somme des longueurs des deux autres

côtés.

Figure 10
7.6 Représentation matricielle du produit scalaire 233

2. Angle

Soient x, y deux vecteurs non nuls ; on a, d'après l'inégalité de Cauchy-Schwarz


\(x,y)\ 1
NI II» Il
-

Par conséquent, il existe un et un seul 6 E [0, n] tel que

fo y)
COS0 (i)
IMIIIvH
:

0 est dit angle (non orienté) entre les vecteurs x et y (cf. (1) page 219 ).
Notons enfin la relation qui exprime le produit scalaire en fonction de la norme :

(x,y) =

\(\\x + y\\2-\\xf 112/II2) (2)

dont la démonstration est immédiate. On a en effet :

\\x + y\\2 =
(x + y,x + y) =
\\x\\2 + \\y f + (x, y) + (y, x) =
\\x\\2 + \\y\\2 + 2 (x, y)
(en vertu de la symétrie du produit scalaire).

Exercices 10. 11.

7.6 Représentation matricielle du produit scalaire

Pour les calculs il est souvent pratique d'utiliser l'expression matricielle du produit
scalaire.
Soit E un espace vectoriel de dimension finie n sur K et b : E x E —> K une forme
bilinéaire (cf. définition page 223. Si {e;} est un€! base de E et x
X^=i %i eii V
Er=i%e^
— —

°na:

$^Zi2/j&(<îi,
n

&(s> y) =
ej).
2=1

b est donc déterminée par la connaissance des valeurs b(ei, ej) sur une base.

Définition 7.11 Soient b une forme bilinéaire sur E} et {ei} une base de E. On
appelle matrice de b dans la base {ei} la matrice

I 6(ei,ei) 6(ei,e2) 6(ei,en) \


6(e2,ei)
M(b)ei =

b{en,en) j
=
11*(*, ei)||
î î
zeme jeme
ligne colonne

Ainsi l'élément de la ieme ligne et jeme colonne est le coefficient de Xiyj.


234 Espaces euclidiens

Exemple 1.- Si b : R est la forme bilinéaire qui dans la base canonique


{et} s'écrit :

b(x, y ) =
5 xiyi 2 x2y2 + 4 z3î/3 + 7 Z12/2 H- 6 Z12/3 4 z3yi + 2 xiyz + 8 z32/2
- -

/ 5 7 6

M(b)ei =
0-2 2
\ -4 8 4

Exemple 2.- Si (, ) est le produit scalaire canonique sur Mn, (x, y) =


x\y\-\ \-xnyn,
on a :

/ 1 0

M(<,)k = / =

Vo ...
i

Proposition 7.12 Soient b une forme bilinéaire sur E, {e^} une base, et

A =
M(6)Ci, ^ =
M(x)ei, Y =
M(y)ei (x, y G E).

On a :

b(x, y) = lXAY

La démonstration est une simple vérification.

Exemple -

Soit b est la forme bilinéaire ci-dessus et X .On

'5 7 6
0-2 2

,
-4 8 4

lXAY =
(1
v
2-1) '
(9-5 6) 9
v
tXAY

Donc b(x, y) =
9.

REMARQUE. -

Une base {e*} est orthonormée si et seulement si :

{x,y)ei =
tXY

En effet, {e;} est orthonormée si et seulement si (x,y)e. =


#i yi H + xnyn ,
ce qui équivaut
au fait que la matrice dans la base {e^} est l'identité.

qu'une forme bilinéaire b est symétrique si et seulement si sa matrice est


Il est clair
symétrique. En particulier, la matrice d'un produit scalaire est symétrique (et, bien
entendu, réelle, puisque dans ce cas, K R). La question qui se pose naturellement =

est de caractériser, parmi les matrices symétriques réelles celles qui sont associées à
7.6 Représentation matricielle du produit scalaire 235

un produit scalaire 7. Notons pour le moment que la matrice qui représente un produit
scalaire dans une base
(quelconque) est nécessairement inversible. Soit en effet A la
matrice qui représente le produit scalaire dans une base {e^} et X G Mn,i, tel que
AX 0. En multipliant par tX à gauche, on aura :
=

*XAX =
0

Cela signifie que si x est le vecteur de E qui dans la base {e*} est représenté par
X) (x\x)
on a : 0, =
d'où x =
0, c'est-à-dire X =
0. Donc Ker^4 =
{0} et, par
conséquent A est inversible.

Changement de base

Soient {e^} et {e^} deux bases de E, P —

Pei—e^ =
||ei, ,e{J|ei la matrice de

passage, et x.yeE.Si X =
M(x)ei, X' =
Af(a;)e/, F =
M(y)ei et F7 =
M(y)e/,
on a :

X'^P-1^, d'où X =
PX' et y = PF'

(cf. proposition 3.25 page 77). Donc :

b(x,y)= tXAY= t(PX')A{PY')= tX/(t>AP)y/.


D'autre part :

b(x, y) =
*X'A'Y' où A' =
M(b)e,.
\ 6«,ei) &«,<) /
On a donc :

WÇPAPW =
WA'Y', VX'Y' e Mn,i(K)
et par conséquent (cf exercice 13) :

A! =
lPAP

Remarque Comparons cette formule avec la loi de changement de base des endomorphismes. Une
-

fois fixée base, à toute matrice sont associés un endomorphisme et une forme bilinéaire : dans le
une

premier cas elle se transforme par P~lAP et dans le second par tPAP.
En particulier, par exemple, il a un sens de parler de déterminant d'un endomorphisme. On le définit
comme le déterminant de la matrice qui le représente dans une base quelconque, car

dét A! = dét (P_1AP) =


(détP)"1 dét A (détP) = dét A.

En revanche, on ne peut pas définir le déterminant d'une forme bilinéaire comme le déterminant de la

matrice qui la représente dans une base, car dét A' = dét ^PAP) =
(dét P)2 dét A et la définition

dépendrait donc du choix de la base.

7Nous verrons par la suite (cf. Proposition 7.39) que la condition (nécessaire et suffisante) pour cela
est toutes les valeurs propres de la matrice (dont on montre qu'elles sont réelles) sont strictement

positives.
236 Espaces euclidiens

Exemple -

Ecrire le produit scalaire canonique de M2 dans la base {e'i,e2}, où :

e/i =
2ei + 3e2, e2 = —

8ei+5e2

Soit A' la matrice du produit scalaire dans la base {ei, e2} ; on a :

A' =
lPIP =
lPP

Or

P=(V32 ~8
5

(.f -i)
Donc

» -*'-

c'est-à-dire :
(ce, 2/)e, =
13 x[ y[ -

x[ y2
-

x2 y[ -f 89 x2 y2.

Exercices 12. 13.

7.7 Sous-espaces orthogonaux


Nous allons établir quelques propriétés relatives à la notion d'orthogonalité.
Définition 7.13 -

Soit A<Z E (A un sous-ensemble quelconque) ; on pose :

AL :=
{x G E | (x, a) 0, Va G ,4} =

NOTA A cause de la symétrie, A1- est aussi l'ensemble {x G E \ (a, x) =


0, Va G A}

On vérifie facilement que A1- est un sous-espace vectoriel de E (même si A ne l'est


pas), dit orthogonal de A.
On a :
1. {0}^ - E
2. E-1 =
{0}
1. est évidente : Va; G E, on a (x, 0) =
0, car l'application (,) est linéaire dans le second

argument.
2. vient du fait que (, ) est défini positif. Soit en effet x G E1- ; on a : (x, y) =
0, Vy G E ; en

particulier {x, x) =
0 et donc x = 0.

Proposition 7.14 -

Powr £oi^ sous-espace vectoriel F d'un espace euclidien E,


on a :

1. dim^^dimF + dimF^;
2. E =
F®F±;
3. F1-1- =
F

Démonstration : 1. Soit {^i, ...,vp} une base de F et complétons-la en une base


B =
{t>i, ...yvpiep+i, ...,en} de E. Notons (a^ ) la matrice du produit scalaire dans
cette base :

^2
n

(!/>x) =
aij Vi x3
7.7 Sous-espaces orthogonaux 237

Puisque les composantes des vecteurs Vi,V2,...,vp dans la base B sont respectivement
(1,0,...,0), (0,1,0,...,0), ...(0,...,
v
1
rang p
,0,...,0),ona:

{vux) =
0 <=ï
YJj=i aijxo =
0

(Vp, X) =
0 <É=>
YTj=l aP3X3 =
°

Donc x G FL si et seulement si les composantes de x vérifient le système


( an El H \-ainXn =
0

^ dpi x\ -\ h apn xn =
0

Or dét ( ctij ) 7^ 0 (cf. page 235), donc les lignes de la matrice ( a^- ) indépendantes.
sont
Il s'ensuit que ces équations sont indépendantes. Le rang du système est donc p
et par conséquent l'ensemble des solutions est de dimension n

p, c'est—dire :

dim F1- =
n
-

p.

2. D'après 1. il suffira de montrer que F n F-L =


{0}. Or cela est immédiat. Soit
en effet xeFfl^.Ona:
(x x)
,
=
0
î î
eFeF-1-

donc x =
0, car le produit scalaire est défini positif.
On a, tout d'abord F c F"1-1,
3. car si a G F, on a : (a, x) =
0, Va; G F"1,
c'est-à-dire a G F1-1. D'autre part

dimF"1-1 =
dim E -

dim F"1 =
dim E -

(dim F -

dim F) =
dim F.

Puisque F C F±J-, on a F =
F-1-1

La propriété 1. vient aussi de la proposition suivante. On sait qu'en dimension finie E et E* sont
isomorphes (car ils ont même dimension) ; mais en général il n'y a pas une manière canonique
de construire l'isomorphisme. Cependant si E est euclidien, on peut construire un isomorphisme
canonique entre E et E*.
Proposition 7.15 Soit (E,{, )) un espace euclidien. L'application
-

j: E —> E* où j(y) : E —> R


y '
j{y) x i
(x,y)
est un isomorphisme de E sur E*.

De plus, si F est un sous-espace vectoriel de E et F0 est Vannulateur de F (cf. 3.37 page 87), on

a :

j{F±) = F0
Démonstration : La linéarité de j vient de la linéarité de (, ) par rapport au premier argument.

Puisque E et E* sont de même dimension, pour montre]' que j est un isomorphisme il suffira de
montrer que j est injective.
Soit y G E tel que j(y) 0, c'est-à-dire (x,y) =0, Vx G E. On aura, en particulier, {y, y)
=
0, =

donc y 0. Ainsi j est injective et par conséquent bijective (car E est de dimension finie). D'autre
=

part :

j-i(F°) -
{y eE\j(y) G F0} =
{y G E\j(y)(x) =0, V* G F}
=
{yeE\ (x,y)=0, Vx G F} = F1-
Comme j est bijective, ceci est équivalent à JiF^) = F0.
Il s'ensuit, en particulier, que dimE = dim F + dim F1- (cf. proposition 3.39).

Exercices 14. 15. 16. 17. 18. 19. 20.


238 Espaces euclidiens

7.8 Endomorphisme adjoint


La formulation des énoncés et des démonstrations est parfois simplifiée par l'utilisation
de la notion d'endomorphisme adjoint.

Proposition 7.16 Soit E un espace euclidien-

et f G End (E). Il existe un et un


seul endomorphisme /* de E tel que

(f{x)t y) =
{x,f(y)), Vx,y € E.

f* est dit adjoint de f. Si {e^} est une base orthonormée et A =


M{f)ei, alors la
matrice A* =
M(f*)e. est la transposée de A :

Démonstration : Soit {e*} une base çjthân^fmée de E et notons

A =
M(f)ei, A* =
M(f*)ei, X =
M(x)ei, Y =
M(y)ei
Puisque on est dans une base orthonormée, l'identité de l'énoncé s'écrit (cf. remarque
page 234) :

\AX)Y =
lXA*Y, VX,YeMnA®)
ce qui équivalent
est (cf. 13). Ceci montre que A* (donc /*) est
à tA =
A* exercice
unique.
Réciproquement, si on définit /* G End(E) par M(f*) lA on voit, en remontant =

les calculs, que /* vérifie l'identité de l'énoncé. D

NOTA. -

Ceci donne une interprétation de la transposée d'une matrice :

Soit A G Mnfâ) et f l'endomorphisme de M71 qui dans la base canonique est représenté par A ;
alors lA représente dans la base canonique l'endomorphisme /* adjoint de f relativement au
produit scalaire canonique sur Rn, {x y) ,
=
xi yi + + xn yn-

On a propriétés suivantes, qui se démontrent immédiatement dans une


les base
orthonormée, compte tenu du fait que dans une base orthonormée A* tA. =

Proposition 7.17 -Four tous endomorphismes f et g et pour tout scalaire X, on a :

a) /**=/, (id)* =
id.

b) (f + g)* =
r+g*> (A/)*=A/*, (fog)*=g*of*.
c) rg/*=rg/, dét/* =
dét/.

Exercices 21. 22. 23.

7.9 Groupe orthogonal


Le but de ce paragraphe est d'étudier les endomorphismes / d'un espace euclidien
qui conservent la des vecteurs, c'est-à-dire tels que ||/(#)||
norme
\\x\\ pour tout =

x e E. Il s'agit donc de la généralisation des isométries vectorielles de R2 et de R3


(c'est-à-dire les rotations et les réflexions) 8.
8Attention : les translations ne sont pas des isométries vectorielles, car elles ne sont pas des

applications linéaires (elles sont des applications affines : cf. Appendice A.7)
7.9 Groupe orthogonal 239

Définition 7.18 Soit E un espace euclidien et f £ End (E). On dit que f est une
-

transformation orthogonale si
(f(x),f(y)) =
(x,y), Wx,yeE.
On note O(E) Vensemble des transformations orthogonales de E.

Proposition 7.19 Les propriétés suivantes sont équivalentes :


-

1. </(*), f(v)) =
(x, V) Var, y € E.
.

2.\\f(x)\\ =
\\x\\, VxeE.

3. Si {ei} est une base orthonormée et A =


M(f)e. ,
alors lAA =
I (ou, d'une
manière équivalente, AtA =
I).
Démonstration : 1. => 2. est évidente : il suffit de faire x =
y.
Pour montrer que 2. => 1., on utilise l'identité (2), page 233 , qui exprime le produit
scalaire en fonction de la norme. On a :

</(*), /(»)> =
Kii/(s)+m\\2 wmw* \\f(y)\\2) - -

=
è(ll/(^ + y)ll2-ll/WII2-ll/(y)ll2)
donc, si / conserve la norme :

</(*), f(v)) =

\ (II* + vf -

INI2 -

IMI2) =
{x, y).
Montrons que 1. 4=> 3.
En écrivant 1. dans une base orthonormée, on a
(cf. remarque page 234) :

</(*), f(v)) =
(x,y),Vx,yeE
<^ t(AX)AY=tXY., VX,YeMnA(R)
<=> tAA =
I

ce qui montre que 1. <=> 3.

D'autre part, puisque lAA /, on a dét (* AA) = 1 c'est-à-dire :

dét(*A)(dét ;4) 1. Or dét* A (dét A)2


= =
dét A ; donc =
1, et par conséquent
déti4 =
±l.

On en déduit que A est inversible. En multipliant par A~x à droite, l'équation lAA =

J, on obtient A'1 =
lA ; d'où, en multipliant à gauche par A : AlA I. —

REMARQUE. —

La propriété 3. montre que les transformations orthogonales / sont caractérisées


par :

/*o/ = id.

Propriétés 7.20 -

Soit f une transformation orthogonale ; alors :

1. Les valeurs propres de f sont +1 ou


1.

dét/
2. ±1. En particulier f est bijective.
=

Les transformations orthogonales de déterminant + 1 sont dites directes; celle de


déterminant 1 sont dites indirectes ou "gauches"
-

En effet, si v est vecteur propre correspondant à À, on a : ||/(v)|| \\Xv\\ = =


| A | \\v\\ ;
or / est orthogonale, donc ||/(v)|| \\v\\ et, comme v ^ 0, on a | À | 1 = =

id, il vient immédiatement (dét/)2


.

D'autre part, de /* o / =
1. =
240 Espaces euclidiens

REMARQUE. —

Si A est la matrice qui représente une transformation orthogonale, ses


valeurs
propres réelles sont donc +1 ou —1. Cependant, vue comme matrice de .Mn(C), A peut avoir

des valeurs propres complexes. Nous verrons par la suite (cf. remarque page 284) que les valeurs

propres complexes de A sont de module 1, mais ceci ne résulte pas de la propriété ci-dessus, qui
n'a de sens que dans le cas réel, puisque / est un endomorphisme d'un espace vectoriel réel.

Les transformations orthogonales peuvent être caractérisées aussi par la propriété


suivante :

Proposition 7.21 -

/ est orthogonale si et seulement si elle transforme toute base


orthonormée en une base orthonormée. Pour cela il suffit qu'il existe une base or-
thonormée qui, par f, est transformée en une base orthonormée.

En effet soit / orthogonale ; puisque / est bijective, elle transforme toute base en une

base. Soit {e^}une base orthonormée, on a :

(/(e*)> f(ej)) =
(ei> ej) =
ôij
donc {f(ei)} est une base orthonormée.
Réciproquement, supposons qu'il existe une base orthonormée {e^} telle que {/(e^)}
soit une base orthonormée, et soient x Ya=i xiei-> V Y17=i V^- = —

Puisque {e*} est orthonormée, on a :


(s, y) =
Ya=i xi Vi

D'autre part :

</(*),/(v)> =(E^*/fe),E?=i»i/(ei)) =E?j=i^yi</(ci),/(ci))


=

Y%j=ixiyjôij =
YJl=ixiVi =
(z, y)
donc / est orthogonale.

Définition 7.22 -L'ensemble

0(n,R) :=
{A G M„(R) | lAA =
1} =
{A G Mn(R) \AtA =
I}
vérifie les propriétés suivantes :

(a) si A, B G 0(n,R) alors AB G 0(n,R) ;

(b) JeO(n,R);
(c) si Ae 0(n,R) alors A'1 G 0(n,R).
En particulier, 0(n, R) est un sous-groupe GL(n,R)
9
du groupe linéaire dit groupe
orthogonal.

La vérification est laissée en exercice.

La signification orthogonales est claire : elles représentent dans une base


des matrices
orthonormée orthogonales d'un espace euclidien. On peut dire aussi
les transformations
qu'un matrice A est orthogonale si et seulement si elle représente une isométrie
vectorielle de Rn dans la base canonique.

'cf. Appendice A.l


7,10 Étude de 0(2,R) et 0(3, R) 241

Il est clair que si A G 0(n,R), dét A = ±1. On a donc deux types de matrices
orthogonales celles de déterminant +1, dites matrices orthogonales directes, et celles
:

de déterminant -1, dites matrices orthogonales gauches. L'ensemble des matrices


orthogonales directes est noté SO(n,M). On vérifie: facilement la propriété suivante :
proposition 7.23 L'ensemble des matrices orthogonales directes
-

SO(n,R) =
{Ae 0(n,R) | dét A =
1}
est un groupe, dit groupe spécial orthogonal.

*-*{} 1 -i)
Exemple -

La matrice

est orthogonale. On peut vérifier en effet que *AA I. Plus simplement, il suffit de =

vérifier que les vecteurs colonnes ci, C2, C3 forment, une famille orthonormée, c'est-à-dire :

||ci||2 = l et (ci,Cj)=0 si i^j.

En effet si l'on interprète A endomorphisme / de M3 dans la


comme la matrice d'un
base canonique, on a c* =
f{ei).
/ transforme la base orthonormée {ei} en la base
Donc
orthonormée {ci} et par conséquent, d'après la proposition 7.21, / est orthogonale. On
voit immédiatement que dét A +1 ; /est donc une transformation orthogonale directe.
=

Proposition 7.24 La matrice de passage d'une base orthonormée à une base


orthonormée est une matrice orthogonale.

En effet, soient {e;} et {e^} deux bases orthonormées et / l'endomorphisme défini


par f(ei) =
efi (i l,.--,n).
=
On a
M(f)ei =|| /(d), ...,/(en) ||Ci= Pei^e>. D'après
la proposition 7.21, / est orthogonale et donc Pei-+e'. est une matrice orthogonale.

Exercices 24. 25. 26.

7.10 Étude de 0(2,R) et 0(3, R)


Dans cette section nous utilisons les notions intuitives et élémentaires de rotation,
angle de rotation, angle orienté, etc. vues dans le paragraphe 7.1. Dans le paragraphe
suivant nous donnerons les définitions précises de ces notions.

Étude du groupe 0(2,R)

-Ci)
A G O (2, R ) si et seulement si le système des vecteurs colonnes est orthonormé, c'est-à-dire :

f a2 + c2 l

{I
=

62+d2 = l
ab + cd =
0
242 Espaces euclidiens

D'après la première équation, il existe 0 G M tel que :

a =
cos 0 ,
c = sin 0.

De même, d'après la deuxième équation, il existe y? G M tel que :

b =
cos (p ,
d ='sin (p.

Enfin,
a b -f c d =
0 <é=> cos 0 cos y? -h sin 0 sin y? =
0 <=> cos(0 —

y?) =
0

c'est-à-dire :

(p
-

0 =
(2k + 1)tt/2
Donc

1)tt/2)
:

6 = cos (o + (2/c + =
(-l)fe+1 sin0
d =
sin
(0 + (2/c +
1)tt/2J
=
(-1)* cos 0
Ainsi AgO(2,R) si et seulement si :

/ cos0 (-1)*+Isin0 \
V s[n0 (-l)fccos0 )
Puisque dét A =
(-l)*(cos2 0 + sin2 0) =
(-l)fc, A G SO (2,M) si et seulement si k est pair.
On a donc :

Proposition 7.25 -

Soit A G 0(2, M) ; alors :

f cos0 sin0
5ozt j4 G SO (2, R ) et dans A
« wr» \

n .. a 1 t a
ce cas =

y sm0 cos0
-

v y „
. .

(rotation d'angle 0 et de centre O, cf. Exemple 5, page 69).

cos0 sin0 \
Soit A <£ SO (2, R ) et a/ors A
J
=

sin 0 —

cos 0
Dans ce cas A représente la symétrie orthogonale par rapport à la droite d'angle polaire
0/2 (cf. exercice 3)

AeS0(2,M) >4gSO(2,R)

Figure 11
7.10 Étude de 0(2,R) et 0(3, R) 243

Etude du groupe 0(3,R)

proposition 7.26 Soit ieO(3,M) et f l'endomorphisme de R3 tel que A M(f)ei, =


-

{e%} étant la base canonique. Il existe alors une base {e'i, e2, e3} de R3, orthonormée, telle
que

cos 9 —

sin 9
A' =
M{f)e, = sin 9 cos 9

0 0

ou s =
+1 si détA = 1 ,
c'est-à-dire si A G SO (3,R) ;
et e = -1 si dét A =
-1, c'est-à-dire si A 0 SO (3,R).

Démonstration : Si A =
±1 le résultat est trivial (prendre pour {e£} la base canonique
et 0 = 0 si A =
I, 0 =
7T si ,4 =
-/).

Supposons donc A ^ ±1. La démonstration se fait par les étapes suivantes :

Lemme 1. Si détA =
1, À = 1 est valeur propre d'ordre 1 ou 3.
Si détA = —

1, A = —

1 est valeur propre d'ordre 1 ou 3.

En effet, supposons dét A = 1 (le cas détA = —

1 se traite d'une manière analogue.) Si


les trois valeurs propres Ai, A2, A3 de A sont réelles, puisque A1A2A3 détA = = 1 et
Ai ±1, on a nécessairement : soit Ai
= = 1 et A2 A3=
—1, soit Ai
=
A2 A3 = = = 1. Si
l'une des valeurs propres est complexe, alors, en la notant [i, JX est aussi valeur propre,
puisque A est réelle (cf. exercice 7 chapitre 6). Ainsi dét A A Ji où A est l'autre valeur =

propre, nécessairement réelle, donc égale à A :tl. Or détA 1 donc A > 0 et par = =

conséquent A = 1. 0

Lemme 2. Si détA = 1 alors dimlïa = 1.


Si détA =
—1 alors dim^-i =
1

En effet, supposons détA = 1 (A = 1 est alors valeur propre simple ou triple). Si


dimEi =
3, on a E\ = R3 donc A =
7, ce qui est exclu. Supposons par l'absurde que
dim^Ei = 2 (A = 1 est alors valeur propre triple). Soit {i>i, V2} une base de E\ et
w e Vect{vi, V2}±,w ^ 0. On a :

(/(w)i Vi) =
(f(w)9 f(vi)) =
{w, Vi) =
0 pour i =
1, 2 ,

î T
car
f car

f\vi)=vi orthogonale

donc f(w) G Vect{vi, V2}"1", c'est-à-dire :


f(w) G Vect{w}. Il existe donc Ao G R tel que
f(w) =
Ao w. Mais 1 est valeur propre triple, donc Ao 1 et f(w) w, c'est-à-dire = =

w G Ei, ce qui est exclu car w G E^. On a donc nécessairement dim£i 1. =

Le cas détA = —

1 se traite d'une manière analogue. 0

Lemme 3. Si détA =
+1 (respect. : détA =
—1), alors le plan ir =
Ei (respectiv. :

7r =
E-i1') est invariant par f et la restriction de f à tt est une rotation.
244 Espaces euclidiens

Ei (ou £__!)
Soit en effet x G 7r, c'est-à-dire (#, w) 0. Comme / est =

orthogonale :
(f(x), f(w)) =
0. Or f(w) ±w, donc (/(#), w)
= =
0,
c'est-à-dire f(x) e n. Ainsi 7r est stable par /.
Soit f =
f\n. Vx, y G 7r, on a : / C G

(Z»,/^))^ =
(/(x), /(y)>B =
<z, î/)s =
(x, y)n
donc / est orthogonale.
Montrons que dét/ 1. Si {i>i, ^2}
= est une base de ir ; on a :

f
j (* bd )=M(f){vuV2} FiSure 12
M(/){V1,,2)W = c d 0 ,
où:

et e =
±1 selon que détA = ±1 (c'est-à-dire e =
détA). Or le déterminant de cette
matrice vaut dét A, car le déterminant est invariant par changement de base. Donc :
a b a b
détA =
dét A.
d d
-

c c

a b
Ainsi = 1 et donc / est une rotation. 0
c d

Il existe donc une base orthonormée {ei, e2, 63} avec ei, e2 G tt et e3 G £?i (respect :

(cos0
e3 G £-1) telle que :

sin0 0 \
sin(9 cos0 0
0 0 e
J
avec e =
dét A. Ce qui achève la démonstration de la proposition. D

i i

1/ /
XI / [

i
/ °
\ ! V
/ F vi

\i

détA=l détA = -l
Figure 13

Ainsi, si détA 1, / représente une rotation autour de l'axe E\. Puisque la trace est
=

invariante par changement de base, l'angle (non orienté) de rotation est donné par la relation :
TrA =
2cos0 + l.

Si dét A =
1, on peut écrire / =
h o
g avec :

/ cos0 -sin0 0 \
M(g)ei =
I sin0 cos0 0 et M(h)e* =

V 0 0 1/
7.lO_Étude de 0(2,R) et 0(3, R) 245

f est donc
la rotation autour de Vaxe E-\ suivie de la symétrie orthogonale par rapport
plan E-i1"- L'angle de rotation est donné dans ce cas par

Iïj4 =
2cos0-1.

En résumant :

proposition 7.27 -

Soit A G 0(3, R), A ^ ±1.


Si détA =
1, A représente dans la base canonique de B
Ei ; Vangle (non orienté) de rotation est donné par :

TrA = 2cos0 + l.

Si àêtA —

1, A représente dans la base canonique de ]


E-\ suivie de la symétrie orthogonale par rapport au plan i£-i~L ; Vangle (non orienté)
de rotation est donné par
TrA =
2cos0-l.

En particulier, si Tr A =
1 on a 0 =
0 : A représente dans ce cas la symétrie orthogonale
par rapport au plan E-i1-, dite aussi réflexion par rapport à -E-i_L.

(Pour une généralisation de ce résultat en dimension quelconque, cf. exercice 28)

Calcul de Vangle orienté de rotation.


Pour calculer l'angle orienté de rotation, il faut fixer une orientation du plan de rotation, ce

que l'on peut faire en fixant l'orientation de la normale (cf. page 220). En choisissant donc
un vecteur n de E\ (respect, de E-i) et un vecteur u du plan de rotation, l'angle orienté de
rotation est (u, f(u)) et donc, d'après la formule (4) page 221 :

dét|K /(n), n\\


NH|n||
_

car ||/(u)|| =
|M|, puisque / est orthogonale.

Exemple -

Considérons la matrice

-il
2 -1 2
2 2 -1

\ —1 1 ^ 2 2 /
^

Nous avons vu (cf. page 241) qu'elle représente une rotation dans la base canonique de M3.
L'axe de rotation est déterminé par un vecteur propre correspondant à la valeur propre

A 1. On trouve facilement que E\ est engendré par le vecteur w I 1

V
= =

L'angle (non orienté) de rotation est déterminé par la relation : Tr A = 2cos0 + 1, ce qui
donne cos 9 = -

et donc 6 =
±7r/3.
Pour déterminer l'angle orienté, on choisit un vecteur directeur de la normale, par exemple

et un vecteur u G E^ (E^ est le plan x + y + z =


0), par exemple

|. En calculant f(u) on trouve :


f(u) =
I 0

On

|
a :
1 1 1
V3
sin0=—^-1
V3
0 1
2
'

o 1 1
246 Espaces euclidiens

Donc 9 =
7r/3.
Ainsi A représente, dans la base canonique de M3, la rotation d'angle 7r/3 autour de l'axe

D dirigé et orienté par le vecteur \ 1 I.


V
w =

i /
Exercices 27. 28. 29.

7.11 Rotations et angle dans un espace euclidien de dimension


2 ou 3

L'étude du paragraphe précédent utilisait les notions intuitives de rotation et angle.


Elle nous permet de justifier les définitions précises de ces notions dans un espace
euclidien de dimension 2 ou 3.

Définition 7.28 -

Soit E un espace euclidien de dimension 2 ou 3. On appelle rota-


tions les endomorphismes f G SO(E).

Pour ce qui est de la notiond'angle, la définition d'angle non orienté est très simple.
Soient u,v G E\ {0}. D'après l'inégalité de Cauchy-Schwartz on a : |Jij'L| < 1. Il
existe donc un unique 9 G [0,7r], tel que

cos 9 =
„ „ „ „ (*)
u v

9 est dit angle non orienté entre les vecteurs u et v.

La notion d'angle orienté est plus délicate et elle fait intervenir, bien entendu, Porientatioi
du plan défini par les deux vecteurs (cf. page 220)10.

Angle orienté en dimension 2

Soit (i?2ï(j )) espace euclidien orienté de dimension 2 / rotation.


n
un et une

Comme on l'a vu (cf. Proposition 7.25), si B est une b.o.n directe,

n,r/i«\ f cos# —

sin0 \

La valeur de 9 g] tt] angle de rotation. Par la suite,


12

7r, dans cette matrice est dite


une rotation d'angle 9 sera notée TZ$.

angle orienté dans M2 ou E3 c'est parce que ces espaces sont naturellement
10
Si on a pu définir un

orientés par leurs bases canoniques.


11
Nous notons cet espace J?2j plutt que E2, justement pour souligner qu'il doit être orienté.
12ou, si l'on préfère : 0 G [0, 2n[.
7.11 Rotations et angle dans un espace euclidien de dimension 2 ou 3 247

proposition 7.29 Soient u,v G E2 \ {0} et U =-


-rr—r V =

y~û-
^ existe al°rs un
\\u\\ \\v\\
,

unique 9G] —

7r,7r] tel que 1Ze(U) =


V. 9 est appelé angle orienté entre u et v et est

noté(uv).
Démonstration : Soient U =
(Z7i, C/2), V =
(Vi, V2) les composantes de U,V dans
une b.o.n. directe. Puisque
f
Ul + Ui =
1

il existe a,0 € R tels que U\ =


cos a, U2 =
sina ut V\ =
cos/3, V2 =
sin/3. On a :

cos c/ sin U COSQJ cos/3


%e{U) V

sin 0 9 sin/3
=

cos sin a

cos 0 cos a sin 0 sin a cos /3 ( cos(9 a) + cos/3


fi-a
=

9
=

mod L 2?r J
m i

/, ^

S &
,

sin 9 + sin 0 sin (3


[ sm(0 -f ce) sm/3
=
//, x a
a cos
,
cos a = =

Exemple Soit R2 muni de l'orientation canonique. Chercher l'angle entre les vecteurs

\/3,1 \/3).
.

u =
(1,1) et v =
(1 + -

On a : U =

-y=(l, 1) et V =

-^=(1 + \/3, 1 -

V3). Donc #<?(£/) =


F si et seulement si :

/ cos<9
cos0 -sin0 \
\_1_/
J_ / 1 \_
\ _J^_ (/ l1 + >/3
_l_ y/3 \
\ sinO cos6 J ^2\1 J' 2V2\l-VS )
_

c'est-à-dire :

1 +V3
9 9
« .
,
cos sin
v^2

= -=

1-V3
0 + 0
.

sm cos =
7=

1 /*}
ce H qui donne : cos0 = et sin0 =
c'est-à-dire : 9 =

2 2 3
- ——- — —

Pour calculer cos0 et sin# on a, en fait, les formules suivantes :

(u, v) dét ||it v\ (eQ


cos 0 sm 0 (*)
IMI IMI' IMI \\v I
= =

où (ej) est une b.o.n.directe. En effet, il suffit de résoudre par rapport à cos# et sin#
le système
/ cos0 -sinô
\(U!\(Vi\
\ sin0 cos9 )\U2)~\V2)
Un petit calcul donne :

cos9 =
UiV! + U2V2 =
(U,V) et sinfl =
UiV2 -

U2V1 =
dét ||C7, V\\M
d'où les formules (*).
248 Espaces euclidiens

Propriétés 7.30

2. Relation de Chasles pour les angles :


(uv) + (vw) (uw) =
mod[27r].
En particulier, en faisant u =
w,on a:
(uv) —(vu) =

La première est une simple vérification. Pour la seconde, si [/, V, W sont trois vecteurs

unitaires, ona :

W =
1Z(VW)(V) et V =
K{uv)(U), donc: W =
K{vw) ll{uv) (U)
o

D'autre part : W =
U^W)(U) donc K(vw) oTl^uv)(U) =
U(UW)(U). Comme U est
arbitraire :

'*'(vw) + (uv) '^(uw)


=

d'où, à cause de l'unicité de l'angle orienté, la relation de Chasles.

Angle orienté en dimension 3

Soit (tt)
plan vectoriel dans un espace euclidien orienté de dimension 3, E%. On
un

suppose (ir) muni du produit scalaire induit et de l'orientation définie par le choix
d'un vecteur normal n que l'on supposera unitaire. Puisque (tt) est orienté, on peut
définir l'angle orienté 9 (uv) entre deux vecteurs u^v e (tt) \ {0}. Soit (£i,£2) une
=

base directe de (tt) (cela veut dire que B' =


(ei,e2,n) est une base directe de Es). On
a alors

u v

(si u, v sont indépendants ; si u, v sont liés on pose sin# 0). En effet, si U jr-r: et
IMI
= =

V
V
T/
rr-rr, On a :
IMI
=

Z/i Vi 0
dét ||ii,t>,n |
u v
:dét||^,V;n||B/ =
u2 v2 o àét\\U,V\\£l^2=sm9
0 0 1

On a en fait :

Proposition 7.31 Soit n un vecteur unitaire normal au plan Vect {u, v} et 6 Vangle
orienté (uv) pour Vorientation défine par n. Pour toute b.o.n. directe B (et non

seulement pour les bases dont deux vecteurs sont dans le plan de rotation), on a :

dét \\u.v,n I
sin#
u v
7.12 Produit vectoriel 249

En effet, si i>i,..., vn sont n vecteurs d'un espace vectoriel E de dimension n et (e^), (e£)
sont deux bases, alors (cf. exercice 17, chapitre 4) :

dét||vi,...,i;n||ci =détPei^e/ dét ||i>i, ...,t>n||e{


Or la matrice de passage de la base orthonormée directe B' (£i,£25rô) ci-dessus à =

la base orthonormée directe appartient à SO(n, 3) donc son déterminant vaut 1. On


en déduit que dét ||ii, v, n\\B, dét ||w, i>, n \\B, d'où la formule.
=

Exercice 30 .

7.12 Produit vectoriel

La notion de produit vectoriel est employée en Mécanique, notamment pour définir le


moment d'une force. On peut en donner plusieurs définitions équivalentes : chacune
présente son propre intérêt que nous mettrons en évidence à la fin de cette section.
Dans tout ce paragraphe, Es est un espace vectoriel euclidien de dimension 3, orienté.

Définition 7.32 Soient uetv deux vecteurs indépendants de Es. Le produit


-

vectoriel deuetv est le vecteur noté uAv défini par les conditions suivantes :

-
il est orthogonal au plan Vect {it, v} ;

\\u Av\\ =
Aire(V), où V est le parallélogramme
défini par les vecteurs uetv; f
-

(u,v,uAv) est une base directe de Es. / v

Siu et v sont liés, on pose : u A v =


0. /
u

Propriétés 7.33 .

1. uetv sont liés si et seulement si u Av =


0.

2. uAv =
—vAu.

3. Soit n un vecteur unitaire normal au plan Vect {^, v} et 6 Vangle orienté (uv)
pour Vorientation défine par n. Alors :

uAv =
\\u\\ \\v\\ sm9n

4- Si (ei) est une b.o.n. directe et n un vecteur unitaire normal au plan Vect {u, v},
alors :

uAv = dét \\u, v, n\\e.n


Démonstration :

1. et 2. sont triviales.

3. Soit TV le vecteur unitaire de direction D'après la définition : u A v


u Av. =

Aire(V)N, donc, en utilisant la formule (3) page 220, uAv \\u\\ \\v\\ | sin0| =
N.
Or sin 9 > 0 si n = N et sin 6 < 0 si n =
—N ,
d'où la formule.
4. est une conséquence immédiate de la proposition 7.31. D
250 Espaces euclidiens

Corollaire 7.34 L'application E x E —> E définie par :


(u,v) \—> u A v est
bilinéaire et alternée.

Expression du produit vectoriel en fonction des coordonnées des vecteurs.

Soit (61,62,63) est une b.o.n. directe; on a, comme conséquence immédiate de la


propriété 7.33 :

eiAe2 =
e3, e2 A e3 =
d , e3 A e\ =
e2. (*)

On déduit du corollaire que, si (ei, e2, e3) est une b.o.n. directe et si x =
X\e\ + x2e2-\-
^3e3) et y yxex + y2e2 + 2/3e3, alors
=

xAy =
(x2y3 ~

x3y2)e± + (2:33/1 -

Ziy3)e2 + (ziy2 -

£2yi)e3

Propriétés 7.35 i. Identité de Lagrange :


\\xAy\\2 =
\\x\\ \\y\\2-(x, y )2
2. Double produit vectoriel : x A {y A z) =
(x z) y
,

(x y) ,
z

3. Identité de Jacobi : x A (y A z) -{- y A (z A x) + z A (x Ay)

Démonstration : Pour montrer l'identité de Lagrange, on utilise 7.33, 3. et on

exprime sin2 9 en fonction de cos2 6.

La formule du double produit vectoriel est triviale si y et z sont liés. Si y A z ^ 0, on


prend une b.o.n. directe, (i,j,k) telle que i soit colinéaire à y et j G Vect{y, z}. On
aura alors x =
x\i + x2j + xsk, y y\i et z z\i + z2j. La formule se vérifie alors
= =

facilement.

L'identité de Jacobi se montre facilement à l'aide de la formule du double produit


vectoriel. D

NOTA -

L'identité de Jacobi montre que la loi de composition sur E3 définie par le produit
vectoriel n'est pas associative.
Un espace vectoriel muni d'une loi de composition interne bilinéaire et alternée vérifiant l'identité
de Jacobi est dit algèbre de Lie13. On note habituellement [ ] la loi interne alternée d'une ,

algèbre de Lie ; avec cette notation l'identité de Jacobi s'écrit :

[x,[y,z)] + [y,[z,x)] + [z,[x,y]] =


Q

Le produit vectoriel définit donc sur


(M3, (, )con) une structure d'algèbre de Lie.

On a enfin la propriété suivante :

Propriété 7.36 Soient x,y G Es et (e^) étant une b.o.n directe, x A y est le seul
vecteur de E3 tel que

(x A y, z) = dét ||œ,y,2||e»> pour tout z e Es.

13I1 s'agit d'une notion particulièrement importante en Mathématiques


7.12 Produit vectoriel 251

Démonstration : Si x et y sont liées, la propriété est triviale. S'il sont indépendants,


prenons n de manière que (x,y,n) soit une base directe. Soit z =
Xu + \iv + ( z,n) n,
on a :

dét||a;,y,*||Ci =dêt\\x,y,(z,n)n\\ei =
(z}n)dêt\\x,y,n\\ei
D'autre part,

(xAy,z) =
(z,n)(xAy,n) =
{z,n) dét\\x, y, n\\ei

d'après 4. de la Propriété 7.33, d'où l'identité.


D'autre part, s'il existe un autre vecteur u tel que pour tout z G E3 on aurait aussi

(u,z) dét ||x,y,^||ei et donc


=

(x Ay —

u, z) =
0 pour tout z G Es

d'où x A y =
u, car le produit scalaire est une forme non dégénérée.

Remarques.
-

1. La définition 7.32 donnée dans cette section, a l'avantage de mettre en évidence la


signification géométrique du produit vectoriel : son rapport avec la notion d'aire et
le fait qu'il permet, à partir de deux vecteurs indépendants, de construire une base
directe.

2. La propriété (7.36) peut être prise comme définition du produit vectoriel, car elle est
indépendante du choix de la b.o.n. directe. En effet si on change de b.o.n. directe le
déterminant dét ||^c, y, ^lle^ est multiplié par le déterminant d'une matrice de SO(3,R)
qui vaut 1. Cette définition a l'intérêt de mettre évidence le fait que le produit
en

vectoriel est application


une multilinéaire alternée et de plus elle peut (dans un certain

sens) être Cependant, cette généralisation n'a aucun intérêt


généralisée en dimension n.

dans le cadre d'un d'algèbre linéaire : en revanche elle intervient assez


cours élémentaire
naturellement dans le cadre de la théorie de Y Algèbre extérieure associée à un espace
vectoriel, théorie qui a des nombreuses applications, mais qui dépasse le cadre de ce
cours.

3. Une autre définition de produit vectoriel peut être donnée à partir des formules ( ),
page 250. On peut définir le produit vectoriel comme la seule application bilinéaire
alternée / : E$ x E3 —> £3, qui, dans une b.o.n. directe vérifie
14
:

/(ei,e2) =
es, /(e2,e3) =
ei, /(e3,ei) =
e2

Ici aussi il faut vérifier l'indépendance du choix de la b.o.n. directe (ce qui cependant
est moins facile que dans le cas de la définition par le déterminant).

Exercices 31. 32.

cf. exercice 1
252 Espaces euclidiens

7.13 Diagonalisation des endomorphismes autoadjoints


d'un espace euclidien

Nous terminons ce chapitre par une application importante du produit scalaire en


montrant que toute matrice symétrique réelle est diagonalisable dans M.

Définition 7.37 Un endomorphisme f d'un espace euclidien est dit autoadjoint si

</(*), y) =
(a, f(y)) , Va, y G E

En d'autres termes, f est autoadjoint si f* =


f.

La signification est claire. Soit {e^} une base orthonormée et A =


M(f)e. ; la condition
de la définition s'exprime sous forme matricielle par

\AX)Y =
tX-AY , MX, Y G MnAR)

c'est-à-dire :

tXtAY =
lXAY , MX,Y G Mn,i(R)
ce qui équivalent
est à tA = A. Ainsi : / est autoadjoint si et seulement si la matrice

qui le représente dans une base orthonormée est symétrique.

Théorème 7.38 Soit f un endomorphisme autoadjoint d'un espace euclidien. Alors :

1. f est diagonalisable.
2. Les sous-espaces propres de f sont deux à deux orthogonaux.
En particulier, on peut construire une base orthonormée de vecteurs propres en

choisissant une base orthonormée dans chaque espace propre.

NOTA -

Soit A G Mn(J&) symétrique. On peut voir A comme la matrice d'un


endomorphisme / de l'espace euclidien (Mn, (, )can ) dans la base canonique {ei}. Puisque la base

canonique est orthonormée, / est autoadjoint. On peut donc énoncer le théorème en termes

de matrices de la manière suivante :

Théorème 7.38' -

Toute matrice symétrique réelle est diagonalisable dans R et les


espaces propres sont deux à deux orthogonaux (pour le produit scalaire canonique de
Rn).
Par ailleurs, si {vi} est une base orthonormée de vecteurs propres, la matrice de passage
P =
P(ei)_,(Vi) est orthonormée (cf. proposition 7.24) c'est-à-dire P-1 =*P. On peut donc
énoncer ce même résultat aussi de la manière suivante :

Théorème 7.38" -

Soit A G Mn(M.n) symétrique. Il existe alors P G 0(n,R) telle


que la matrice A! =*PAP est diagonale.

Notons que les théorèmes 7.38, 7.38' et 7.38" sont trois manières différentes d'énoncer le

même théorème.
7.13 Diagonalisation des endomorphismes autoadjoints d'un espace euclidien 253

Démonstration du théorème :

(a) Montrons d'abord que le polynôme caractéristique de / est scindé, c'est-à-dire


que toutes les valeurs propres de / sont réelles. Soit A la matrice qui représente
/ dans une base orthonormée et À une valeur propre, réelle ou complexe, de
A (A existe car
Pa(X), considéré comme polynôme de C[X], admet, d'après
le théorème de D'Alembert, au moins une racine)15. Montrons que À G R. Soit

X =
\ : G Mni(C) la matrice d'un vecteur propre v correspondant à À.

\ Xn /
Puisque A est symétrique, on a :

t(AX)X=tXAX (*)
D'autre part AX =
XX, d'où AX =
XX et, comme A est réelle, AX =
XX.
En reportant dans (*) :

t(XX)'X= tXXÏC

c'est-à-dire

X(\x1\2 + ---

+ \xn\2) =
X(\x1\2 + ---
+ \xn\2)
et donc À =
A, puisque v ^ 0. Les valeurs propres sont donc réelles.

(b) Montrons, par récurrence sur la dimension n de Ey qu'il existe une base de vecteurs
propres.
Pour n =
1, il n'y a rien à démontrer. Supposons la propriété vraie à l'ordre
n

1. Soit À une valeur propre de /, x un vecteur propre correspondant à À et


H =
Vectlx}1-. Notons que : dirai? = n

1.

Tout d'abord, H est stable par /, c'est-à-dire f(H) C H. En effet soit y G H

(c'est-à-dire y _L x) ; il s'agit de montrer que f(y) G il, c'est-à-dire / (y) _L x.


On a :

(f(y), x) =
(y, f(x)) =
X (y, x) =
0, puisque y _L x\

donc f(y) _L x. Ainsi la restriction f de f k H est un endomorphisme de H.

Par ailleurs / est un endomorphisme autoadjoint de H (pour la restriction


du produit scalaire à #), car si v, w G H

(/», w)h =
(/(«), w)E =
(v, f(w))E =
(v, f(w))H
Or dimi? =
n

1, ainsi, d'après l'hypothèse de récurrence, il existe une base

{^25 > en}


*
formée de vecteurs propres de /. Il est clair que
* '

{#, e2, , en}


est une base de E formée de vecteurs propres de /.

(c) Montrons que les sous-espaces propres sont deux à deux orthogonaux. Soient ^i
et V2 vecteurs propres correspondant aux valeurs propres Ai, A2, avec Ai ^ A2.
Montrons que v\ Lv^. On a :

15Ce passage aux complexes n'est peut-être pas élégant mais néanmoins correct. Si l'on restait dans
le cadre des endomorphismes il faudrait utiliser le complexifié de l'espace vectoriel que nous n'avons
pas introduit. Le lecteur qui connaît les espaces hermitiens, reconnaîtra dans la démonstration qui
suit l'utilisation de l'expression matricielle du produit scalaire hermitien.
254 Espaces euclidiens

</(*>i), v2) =Xi(vu v2)


or / est autoadjoint, donc :

</(vi), v2) =
{vu f(v2)) =
A2 (vu v2).

Ainsi :
(Ai —

A2) (t>i, v2) =


0 et puisque Ai ^ A2 ,
on a :
(t>i, v2) =
0 D

REMARQUE. Les matrices symétriques complexes (non réelles)


ne sont pas
nécessairement diagonalisables (ni dans R, ni dans C).

Par exemple, soit A= ( ^ ^ j , a, ^eC. Ona: PA{X) = X2 -

(3X -

a2.

Si /32 + 4 a2 =
0 (dans C cela est possible sans que a et (3 soient tous deux nuls), on
aura deux racines confondues, c'est-à-dire une valeur propre double A (3/2 et donc
=

Pa{X) =
(X —

P/2)2. A serait alors diagonalisable si et seulement si mA{X) X /3/2 = —

c'est-à-dire A =
{13/2) I ce qui évidemment est exclu.
Par exemple : A =
( 1 est symétrique et non diagonalisable.

Caractérisation du produit scalaire à l'aide de sa matrice.

Le théorème 7.38 a un corollaire important. Soit s une forme bilinéaire symétrique


sur un espace vectoriel réel E (non nécessairement euclidien). Pour savoir si 5 définit
un produit scalaire on peut effectuer la réduction de Gauss (cf. page 225). Mais on

peut aussi utiliser le résultat suivant :

Proposition 7.39 Soit s une forme bilinéaire symétrique sur un espace vectoriel
-

réel E de dimension finie, {e^} une base de E et S =


M{s)ei. Alors s définit un

produit scalaire si et seulement si la matrice S a toutes ses valeurs propres strictement


positives.

Démonstration :

Soit ( , )
produit scalaire associé à
le cette base (cf. exemple 2. page 222), que nous

noterons, pour simplifier ( ). ,

(a) Montrons tout d'abord qu' il existe un et un seul endomorphisme fs tel que :

(xJs{y)) =s{x,y), \/x,yeE.

Pour cela supposons que fs existe. En notant A =


M(/S)e., la relation de
équivalente à
l'énoncé est :

%X AY =tXSY , VX,y G Mn,i(R), c'est-à-dire : A =


5,
ce qui montre que f3 est unique.

Réciproquement en définissant fs par M{fs)ei =


5, on voit immédiatement
que fs vérifie l'identité de l'énoncé.

(b) D'autre part fs est autoadjoint (, ). En effet,


pour

(z> fs{y)) =
s(x,y) =
s{y,x) {y, f8(x)) {fs{x),y)
= =
, Va,y G E.
Exercices 255

Par conséquent, en prenant dans chaque espace propre une base orthonormée,
on obtient une base orthonormée {vi} de vecteurs propres de fs (notons qu'il
s'agit de vecteurs propres de la matrice S).

Soient maintenant x =
Yh=i xi v» et y =

X^=i Vj vj deux vecteurs arbitraires de E.


On a

s(x,y) =

Hlj^XiyjsivuVj) =

Y,lj=ixiVj (vufs(vj)
=

Tnj=l Xi Vj ^3 (V^ Vj) =

Th,j=1 Xi Vj Sij =
^1 ^lî/l "I ^n Xnyn

d'où:
s{x, x) =
Xixi2 -\ h An xn2
ce qui montre que s est définie positive si et seulement si toutes les valeurs propres
de S sont strictement positives.

NOTA. Nous verrons au chapitre 9 (cf. corollaire 9.25) que le résultat de ce théorème est, en fait,

plus riche que celui que l'on vient d'énoncer.

Exemple -

Vérifier que la matrice ^4. =


ll
I 1
l
2 -1
°\ définit un produit scalaire
\ 0 -1 3 /
surR3
Ona: PA(X) = -A3 + 6 A2 -

9A + 2 et SpR(A) =
{2, 2 + \/3, 2 -

%/3}.
Comme les valeurs propres sont strictement positives, A définit un produit scalaire.

Exercices 33. 34. 35. 36. 37.

EXERCICES

1 Produit vectoriel dans R3

1. Soit {ei, e2, es} la base canonique de R3. Montrer qu'il existe une unique
application / : R3 x M3 —> R3 bilinéaire, alternée telle que

/(ei,e2) =
e3, /(e2, es) =
ei, /(e3, ei) =
a

/(ce, y) est dit produit vectoriel de x par y et est noté x A y.

2. Calculer x Ay en fonction des composantes de ce et y dans la base canonique.


3. Montrer que :

(x A y, z) = dét \\x, y, z\\ei , Vcc, t/,zGK3.


En déduire que ce A y = 0 si et seulement si x et y sont liés et que ce A y est

orthogonal à ce et h y.

| 2 Comment peut-on définir l'angle entre deux plans de M3 ?

Exemple : calculer l'angle entre les plans P : 2x + y —

3z = 0 et P' : ce —

3y + 2z =
0.

[3 Déterminer la matrice qui dans la base canonique de R2 représente la symétrie


orthogonale par rapport à la droite d'angle polaire |.
256 Espaces euclidiens

4 1. Déterminer la matrice qui représente dans la base canonique de R3 la projection


orthogonale sur le plan P d'équation x + 2y —

3z = 0.

2. En déduire la matrice qui représente la symétrie orthogonale par rapport à n.

[5 Montrer que l'application :


(, ) : l3xl3 —> R définie par :

l (
(x, y) "/=*! x2 + X3
j -j^Vi 2/2 + 2/3
j
+ (x2 xz)(y2 2/3) + 3x32/3
= - ~ - -

est un produit scalaire.

|6 | On définit sur R2 [x] :


(P, Q) := (a0 + ai) b0 + (a0 + 3 ai)h + 3 a2 62
où P =
ao + ai x + a2 x2, et Q 60 + &1 a? + &2 #2. Montrer qu'il s'agit
=
d'un produit
scalaire.

7 On considère l'intégrale :

r+00

/
1
2
In = xne~x '2 dx (n entier, positif ou nul)
7-00
y
V27T

1. Montrer que cette intégrale converge et que I2P+1 =


0.
Montrer la relation de récurrence In =
(n —

l)/n-2 et calculer 72p

(rappel f± : e~^~ dx =
v^tt J .

2. On définit :
(, ) : R [x] X R [a;] —> R par :

/>+oo

/2P(x)Q(x)dx
1
2

(P,Q):=-= e-
V^TT ^-00

Montrer qu'il s'agit d'un produit scalaire.

8 Pour quelles valeurs de À G R les formes bilinéaires sur R3 ci-dessous définissent-elles


un produit scalaire ?
1. b(x,y) =xiy1+6x2y2 + 3x3y3 + 2xiy2 + 2x2yi + 3\xiy3+3\x3yi
2. b(x, y ) =
xi yi + 10 X2 2/2 + 6 x\ 2/2 + A X3 2/3
-

X2 2/3
-

z3 2/2

3. b(x,y) =
2xi3/i +7zi2/2 + 7#22/i +8x22/2 -3x3y3 + A x2 2/3 + A #3 2/2

| 9
I On munit R2[x] du produit scalaire de l'exercice 7. Déterminer une base orthonormée.

10 Distance associée à la norme (cf. Appendice A.7, pages 384, 392 )


Soit E un ensemble (non nécessairement un espace vectoriel).

Une application d : S X S —> R+ est dite distance si elle vérifie les propriétés
suivantes :

a) d(x,y) 0 <==> x y = =

b) d(x,y) d(y,x) =

c) d(x, z) < d(x, y ) + d(y, z)

1. Montrer que si E est un espace euclidien, l'application d : E x E —> R+ définie


par
d(v,w) :=
\\v —

w\\
définit une distance sur E dite distance associée à la norme.

2. Justifier cette définition en considérant E = R3 muni du produit scalaire


canonique.
Exercices 257

| Il Déterminer l'angle (non orienté) entre les vecteurs e\ et C2 de la base canonique de


R3, R3 étant muni du produit scalaire de l'exercice 5.

12 On munit R4 de la forme bilinéaire b définie, dans la base canonique, par :

b(x,y) := xiyi + 2x2y2 + 4a33y3 + 18z42/4 + xi 2/3 +#3 2/1 + 2z22/4


+2^4 2/2 +6^3 2/4 + 6iC4 2/3

1. Montrer qu'il s'agit d'un produit scalaire.


2. Ecrire la matrice de b dans la base canonique de R4.

M3 Soit A G Mn{K). Montrer que


a) tXAY Oi \/X,Y =
G Mn,i(K) <^> A =
0
b) tXAX Q, VX =
, e Mn,i(K) <=> A est antisymétrique

14 Déterminer le sous-espace orthogonal au plan engendré par les vecteurs e\ et C2 de la

base canonique de R3, pour le produit scalaire de l'exercice 5.

15 On considère l'espace euclidien R4 muni du produit scalaire de l'exercice 12. Soit F le

sous-espace de R4 défini par :

X1—X2+X3 X4 = 0

X2

2X4 = 0

Déterminer F-1.

16 Soient E un espace euclidien et F un sous-espace de E. On appelle projecteur


orthogonal sur F le projecteur sur F relativement à la somme directe E F 0 F-1. Soit
=
p
un projecteur ; montrer que les propriétés suivantes sont équivalentes :

1. p est un projecteur orthogonal.


2. Im(id-p) =
(Imp)-1-.
3. Im(id-p) C (Imp)-1.
4. {p(x),p(y)) =
(x,p(y)) , Vx,y G E.

5. <jp(x),y) =
(x,p(y)) , V x,y G E.

(On dit que p est «auto-adjoint» : cf. définition 7.37 )

17 Soit F un sous-espace vectoriel de E et v G E ; on appelle distance de v à F le


scalaire
d(v, F) := Inf d(v, v')
d étant la distance associée à la norme (cf. exercice 10). Montrer que si pp est le

projecteur orthogonal sur F, alors d(i>, F) =


\\v —

pp(v)\\. En d'autres termes :


Pf(v) est le vecteur de F qui est à distance minimale de v.

18 1. Soit E un espace euclidien et pp le projecteur orthogonal sur un sous-espace F.


Montrer que si {ei, , ep} est une base orthonormée de F

pF(v) =
(v, ei> ei H h (v, ep) ep

Interpréter le procédé d'orthonormalisation de Schmidt.


2. On considère R[x] muni du produit scalaire de l'exercice 7. et Rs[x] et R2[#]
munis du produit scalaire induit. Calculer la distance du polynôme x3 à R2[#]
(cf exercice 17.)
258 Espaces euclidiens

19 Matrice de Gram

1. Soit (E, (, )) un espace euclidien et {vi, ...,vp} une famille ordonnée de vecteurs
de E. On appelle matrice de Gram associée à la famille (t>i, ...,vp), la matrice

(vi,vi) {vitvp)
Gram(vi,...,vp) =

(vPivi) (vpyvp)
On note G(i»i, ...,t>p) := détGram(vi,...,vp). Soit B =
{ei,...,ep} une base or-

thonormée de Vect-j/ui, ...,vp} et A \\v\,..., vp||#. =

Montrer que Gram(t>i, ...,vp) lAA. =

2. En déduire que G(t>i, ...,%,) > 0 et que la famille {vi,...,vp} est libre si et
seulement si G(vi, ...,vp) ^ 0.
3. Soit {v\, ...,vp} une famille libre, F =
Vect{vi, ...,fp} et x G E. Montrer que

G(a;,vi,...,vp)
d(x,Fy
2

G(vi,...,i;p)
=
_

4. Retrouver par cette méthode le résultat de l'exercice 18.2. et comparer les deux
méthodes.

20 Soit E un espace euclidien, F, G deux sous-espaces vectoriels de E. Montrer que :

F C G =» F1- D G±
(F-l-G)-1 = F-LflG1-
(F D G)-1 = F-1 + G1-

21 Soit / un endomorphisme d'un espace euclidien. Montrer que

(Ker f)1- = Im /* et (Im /)± = Ker /*

22 Montrer que si A G Mn(R) vérifie *A A =


0, alors A = 0.

23 Méthode des moindres carrés. Inverse généralisée d'une application linéaire


injective (cf. aussi Appendice A.5).
1. Soient (E,(, )E) et (#',(, )E/ ) deux espaces euclidiens et / : E —> £' une
application linéaire. Montrer qu'il existe une et une seule application linéaire
/* : E' -* E telle que

</(*),</>£ =
{x,r(v))B> >
V a; 6 J5, y G JS?;.

2. On suppose dans la suite que g = dim£J < dimi?7 = n et que / est injective.
Montrer que dét(/* o /) ^ 0.
3. Soit p : E1 — E' la projection orthogonale sur Im /. Montrer que :

p=/o(r°/)_1°r-
4. On note /t : E' —> £7 l'application définie par

/t =
(/*o/)-ior;
/"l" est dite inverse généralisée de / (noter que /to/ =
ids et /o/t =Pï et

que si / est bijective alors /T =


/-1).
Soit le système linéaire /(#) =
6, avec / injective. On appelle solution des
moindres carrés le vecteur xq G E tel que \\{f(xo) —

6|| = Inf \\f{x) —

b\\. Montrer que

la solution des moindres carrés du système f(x) = b est donnée par xq =


f^(b).
Exercices 259

21
5. Exemple, a) Calculer l'inverse généralisée de la matrice 11 —1

b) Pour quelles valeurs de a G M le système


2x + y ==1
x -

y ==2
x + 3y --a

admet-il une solution ? Calculer, dans le cas où le système est incompatible, la


solution des moindres carrés.

24 | Soit A G O (n, M). Montrer que si dét A = 1 chaque terme de A est égal à son cofacteur
et si dét A = —

1 chaque terme de A est égal à l'opposé de son cofacteur.

25 I Décomposition de Householder (cf. Appendice A.4).


A l'aide du procédé d'orthonormalisation de Schmidt, montrer que toute matrice A G

GL(n,M) peut s'écrire sous la forme

A =
QR
où Q G 0(n,E) et R est triangulaire supérieure (décomposition de Householder).
Exemple. Donner la décomposition de Householder de la matrice

26 | Soit / une transformation orthogonale d'un espace euclidien. Montrer que

Ker(/ -

id) =
Im(/ -

id)-1
En déduire que si (/ —

id)2 = 0 ,
alors / =
id.

27 Préciser la nature des endomorphismes de M3 qui dans la base canonique sont

représentés par les matrices

0 1 0
A = B =
,
C = 0 0 -1
1 0 0

28 Expression canonique des transformations orthogonales (cf. aussi exercice 16


du chapitre 8)
Soit / une transformation orthogonale d'un espace euclidien. On posera dans la suite
0 =
/ + /*-
1. Montrer que g est autoadjoint (donc E est somme directe des espaces propres de
g).
On notera Ai,..., Am les valeurs propres de g et V\1,..., V\m les sous-espaces
propres correspondants.
2. Montrer que les V\. sont stables par /.
3. Soit fxi f \vx. Montrer que le polynôme Q(X) X2 XiX + 1 est annulateur

defXi!
:= = —

4. On suppose V2 7^ {0}. Montrer que fa = id.

5. On suppose V-2 ^ {0}. Montrer que /_2 = —

id

6. Soit Ai ^ ±2 tel que V\i ^ {0}. Montrer que si v G V^* alors v n'est pas vecteur
propre de /. En déduire que l'espace W = Vect{i>, f(v)} est de dimension 2.

7. Montrer que W est stable par /.


260 Espaces euclidiens

8. Soit / := / |w. Montrer que / est une rotation.

9. Soit W1- l'orthogonal de W dans V\i. Montrer que W1- est stable par /.
10. Déduire des questions précédentes les résultats suivants :
Soit f une transformation orthogonale d'un espace euclidien. Il existe alors une

base {et) telle que :

(V\1 I1 \

1 _1
1
'

-1

M(f)ei =
cos0i —

sin^i

sin0i cos0i

cos 0r —

sin 0r

sin 6r 9r
V
cos

29 Décomposition des transformations orthogonales en produit de réflexions


Soit E un espace euclidien de dimension n. / étant un endomorphisme de E, on notera

E^ l'espace propre de / correspondant à la valeur propre À. On appelle réflexion une


transformation orthogonale a telle que dirai^ n 1. On se propose de démontrer = —

la propriété suivante :

(V) Soit E un espace euclidien de dimension n. Toute f G O(E) s'écrit sous la forme :

f =
o~ai o o
Gar avec : n dim E± < r < n.

1. Montrer que si / G O(E) est le produit de r réflexions, / =


aai o o
aar

E(.
,

alors : r > n —

dim

2. (a) Montrer que si réflexion, E*1- est espace propre de


a est une a pour la
valeur propre —1. En déduire que a est diagonalisable et que a2 = id.

(b) Montrer qu'un endomorphisme a est une réflexion si et seulement si il existe

a G E, a ^ 0, tel que cr(x) = x a. On notera par la suite aa la

réflexion associée au vecteur a.

(c) Montrer que pour tout couple de vecteurs non nuls y,z G E tels que y ^ z
et || y || = || z ||, il existe une réflexion aa qui échange y et z, c'est-à-dire
telle que o~a(y) = z.

(a) Soit (£,(,)) un espace euclidien de dimension n > 2 et soit / G O(E).


On suppose que ^ 0. Soit E( z ^ 0 tel que f(z) = z et H = z1- . Montrer
que H est stable par /.
(b) Soit b G H, b ^ 0, et âj, la réflexion de l'espace euclidien H (muni du
produit scalaire induit) définie par b (cf. 2.(b)). Notons cr^, la réflexion de
E définie par le même vecteur b. Montrer que <j^ \H= ôv En déduire par
récurrence la propriété (V) dans le cas où E( ^ 0,
(c) On suppose que E( =
{0}. Soit z ^ 0 et a = z —

f(z). Montrer que

va o
/ (z) = z. En déduire la propriété (V) dans le cas où E( =
{0}.
2 2 -1
4. Exemple. Soit A I -1 2 Montrer que A G O (3,R). Décom-
3\
= -

2 -1
poser A en produit de réflexions.
Exercices 261

(cf. aussi la démonstration de ce résultat dans l'Appendice A. 10, page J^KÎ)

|30 On appelle similitude un endomorphisme d'un espace euclidien E qui


vérifie
||/(a;)|| =
k \\x\\ pour toutx G E, avec k > 0.

1. Montrer que les similitudes conservent les angles.


2. Soit / un endomorphisme injectif d'un espace euclidien E. On dit
que / conserve l'orthogonalité s'il transforme tout couple de vecteurs
orthogonaux en un couple de vecteurs orthogonaux. Soit (e^) une
b.o.n. Montrer que si / conserve l'orthogonalité, alors f(ei) + f(ej) JL
f(ei) f(ej) pour tous i ^ j. En déduire que tous les vecteurs /(e*)>

i =
1,..., n, ont même norme.

3. Montrer que si / est injective et conserve l'orthogonalité, alors elle


est une similitude. En particulier, tout endomorphisme injectif qui
conserve les angles est une similitude.

31 Matrices des rotations dans la base canonique de R3.

1. Soit n un vecteur unitaire de M3, xEl3 et x' la projection


orthogonale de x sur nx. Montrer que si / est la rotation
d'angle 9 autour de l'axe dirigé et orienté par n, on a :

f{x') =
{cos6)xl + (sm6)nf\x
En déduire que :

f(x) =
( cos 6 ) x + ( sin 6 ) n A x + (1 —

cos 6) (x, n) n

2. A l'aide de cette relation, donner la matrice de / dans la


base canonique de R3, en fonction de 6 et des composantes
de n.

32 Montrer que si / G End(E), / ^ 0, alors

f(xAy) =
f(x)Af(y), Vrc,?/ G E, si et seulement si / G SO(E).

33 Déterminer une base orthonormée formée de vecteurs propres


de la matrice
/ 5 -1 2N
A= -1 5 2

V 2 2
2y
Interpréter géométriquement l'endomorphisme qui dans la base
canonique de R3 est représenté par A.
262 Espaces euclidien!

341 Soit A ( dij ) une matrice


=
symétrique réelle. Montrer que ses

valeurs propres A^ vérifient

£ A? =
£ a%
i=l *ij=l

35 Soit B =
{i>i,
t>n} une base orthogonale d'un espace
,

euclidien E et (E). On dit que / conserve Vorthogonalité de


/ G End
B si la famille {/(vi), , f(vn)} est orthogonale. Montrer que

pour tout / G End (E) il existe une base orthogonale dont /


conserve l'orthogonalité.

36 Montrer que l'endomorphisme

ipM :Mn(^) >


Mn(R)
A tMAM+MAtM
*

avec M G .Mn(R) fixée, est diagonalisable.

37 Décomposition polaire
1. Soit p un endomorphisme autoadjoint d'un espace euclidien
E. On dit que p est défini positif si toutes ses valeurs propres
sont strictement positives.
Montrer que si p est défini positif, il existe un et un seul
endomorphisme a autoadjoint défini positif tel que p a2 =

(a est dit racine carrée positive de p).


2. Soit /endomorphisme bijectif de E.
un

Montrer que l'endomorphisme /* o / est autoadjoint et


défini positif.
3. Soit a la racine carrée positive de /* o
/.
Montrer que u := f o a'1 est une transformation
orthogonale. En déduire le résultat suivant :
Tout endomorphisme inversible f deE s'écrit d'une manière
unique sous la forme :

f = uoa avec u orthogonal et a autoadjoint défini positif


(décomposition polaire de /).

INDICATIONS

|]l 1. Puisque / est bilinéaire, elle est déterminée par la connaissance des /(e^, ej).
' '
Comme / est alternée, il suffit de connaître /(ei,ej) pour i < j.

2. x A y =
(x2 2/3
-

X3 y2) e\ + (#3 y\ -

x\ 1/3) ^2 + {x\ y<i


-

x<i y\) e$
Exercices 263

3. Développer le déterminant selon les éléments de la troisième ligne.

B
On peut définir l'angle entre les deux plans comme étant
entre les deux normales n et n'. Si les deux plans
l'angle
ne sont pas orientés, les normales ne le sont pas non

plus ; cela définit deux angles 6\ et 02 (cf figure 14).


On peut prendre (par définition) comme angle entre les
deux plans celui qui est compris entre 0 et 7r/2.
2n
Dans l'exemple on trouve 6\ =
7r/3, $2 = —.

o
L'angle
entre P et P' est donc 7r/3.
Figure 14

H Soit
« -

n = cos
*
-

ei+sm -
*
e2 un vecteur

unitaire porté par la droite. On a :

f(x) + x 2(x n)n Va G M2.


=

Calculer /(ei) et /(e2). On trouve :

(
(, )
cos0 sin0 \
M««
a^r/px
=
ai»» -oc»

H
1. -

Soit n un vecteur unitaire normal à P. On a :

f(x) + (xin)n = x

d'où :
f(x) —
x

(x,n)n
7? 4
Si n = -= I 2 !, en calculant /(ei), /(e2), /(e3) ^ ^-^
.
1

on trouve :

13 -2 3

M(f)ei =

-^ 14
I
V
-2
3
10
6
6
5

2. -

Si g est la symétrie : g(x) + x = 2 f(x). On trouve :


Figure 15

6 -2

M(g)ei = -

-2

H 5 Vérifier les axiomes de la définition 7.1.

I 6 Vérifier les axiomes de la définition 7.1.

Pour iii) :
(P, P) =
ag + 2a0ai +3af +3a^ =
(a0 +ai)2 + 2aj +3o^

H
264 Espaces euclidiens

1. Montrer la convergence absolue des deux intégrales f^^e I2 xn àx et


x

f*°°e~x I2 xn àx.
hp+i est nul puisque c'est l'intégrale d'une fonction impaire
sur ] —

oo, +00 [. En intégrant par parties, on trouve :

jX e-*2/2xndx=[-xn-1e-**'2]X_x (n-l)[X xn-2e~*2/2dx +

d'où, en passant à la limite pour X — +00 : In =


(n —

l)/n_2. On en déduit
immédiatement, par récurrence :

I2p =
1.3-5.-.(2p-l).
2. Tout d'abord l'intégrale converge, car elle est une somme finie d'intégrales
convergentes. La bilinéarité et la symétrie sont immédiates. D'autre part, clairement
e-x2/2p(x)2 > 0> et donc (Pj p) > 0 Si (p? p) =
0j puisque e~x2/2P(x)2 >

0 et cette fonction est continue, on a nécessairement e~x /2P(x) = 0 sur

1 —

00, +oo[, donc P(x) = 0.

1. f(x, x) =
(xi + 2x2 + 3Ax3)2 4- 2(z2 -

3Ax3)2 + (3 -

27A2)a;§. Il faut et il suffit


1 1
< A <
x
que -.

3 3
2. Pour aucune valeur de A (/ n'est pas symétrique)
3. Pour aucune valeur de A (le coefficient de x\ dans f(x,x) est négatif).

9 Appliquer la méthode de Schmidt à la base {1, x, x2}. La base orthogonale obtenue de

{1,2, z2} par le procédé de Schmidt est :

ei =
l;

£2 = x + A1, avec A tel que


{x + A, 1) =
0, c'est-à-dire I\ + A Iq = 0. Or 7o = 1 et
h =
0, donc A 0, c'est-à-dire £2
= x =
;

£3 = x2 + A x + jj, 1. En imposant (£3, £1) 0 on = trouve : I2 + A I± + \x 7o = 0. On a

12 =
1, d'où : fi —1. En imposant (£3,£2)
= 0 = on a i^ + A/2 + fJ>h = 0. Comme
13 =
0, on trouve A 0. =

Donc £i =
l, £2 =
x, es = x2 —

1. En normalisant on trouve :

ei =
l, e2 =
x, e3 =
—(x2 -1).

10

1. -

Simples vérifications. A

<u
2. -

Il s'agit de la distance «naturelle» entre les points P


et Q, extrémités de v et w (cf. figure 16)
w / \ \

\^

Figure 16

11
'
0 = —

(ei et e2 ne sont pas orthogonaux pour ce produit scalaire).


o

I 12 | 1. b(xtx) =
(x1-\-x3)2 + 2(x2-\-X4)2+S(x3+2x4)2-\-4,xl
Exercices 265

( 1 0 1 0
0 2 0 2
2. A =

10 4 6

\ 0 2 6 18

1. On a évidemment AX =
0 VX G Mn,i(K) <=$- A =
0, (car, en termes

d'applications, cela signifie :


f(x) =
0, VxG^ <*=> / =
0). Donc :

lXAY =
0, VX, Y G K,i (JQ <^>* XA =
0 ,
VX G .Mn,i (#)
(en prenant la transposée) lAX =
0, VX G A^n,i(^) «<=> *A = 0 A =
0.

2. 'XAX =
0 ,
VX G K,i(i() «=> en remplaçant X par X + Y :
%X+Y)A{X +
Y) =
0, VX,Y e Mnii{K) ; etc.

xi
14 | Soit n =
| x2 une base de l'orthogonal ; imposer (n, ei) = 0 et ( n, e2) =
0. On
X3 }

trouve
( 0 \
1

11 )
n =

15 F1- =
{x G M4| 6(x, 2/ ) 0, Vy =
G F}, c'est-à-dire, sous forme matricielle :

f± =
{x g ,Mn>i(R) |*x^y =
o, vr g F}

/ \
|
VI
2/1-2/2 + 2/3-2/4 =0
Soit Y Ye F<=>
-2y4
=

2/2 =0

( -1
0
^ (22
Y = Y =
X
1
+ M
0 (A, fjL G M)
V o
) ^ 1

lXAY =
0, VY G F équivaut à :

/ 1 0 1 0 \ /2/a-A
0 2 0 2 2^
(#1 X2 X3X4 ;
10 4 6 A
= 0 , VA, /x G ]

\ 0 2 6 18 / \ M

c'est-à-dire :

A (3x3 + 6x4)+m(3zi + 6x2 + 9x3 + 22x4) =0, VA.jliÇ]

D'où

{
:

X3 + 2 £4 =0
-
3xi +6x2 +9x3 + 22x4 =0

16 1. <$=> 2. Si p est un projecteur alors F =


Imp 0 Im(id —p) (cf. exercice 9 chapitre 3).
Donc p est orthogonal si et seulement si Im(id —p) =
(Imp)1.
266 Espaces euclidiens

Im(Id-p) =
(Imp)-L
2. <£=> 3. Il est clair que 2. => 3. Réciproquement, si

Im(id-p) (Imp)1, on a C

Im(idp) (Imp)-1-, puisque dimlm(id p)


= n =

dim(Imp)-1-.

dim Imp =

3. 4^4. On a : Im(id p) C (Imp)-1- si et seulement —

si

(x p(x),p(y ))

0 Vz,y € E, c'est-à =
dire :

(p{x),p{y)) (x,p(y)) ,Vx,ye E.=

4. 4=>5. Si 4. est vérifiée, en échangeant le rôle de x et

y, on voit que cela implique que (p(x),y) = (x,p(y)),


\fx,y G F. Réciproquement si cette identité est
satisfaite, en remplaçant y par p(y ), on a :

{p(x),p(y)) =
{x,p(y)) Vz,y G ,
E.

Figure 17

LiZJ d(î;-pfM)2
d(t/ -Pf(v)r =
\\v-pF(v)\\2
llv- =
\\v\\2 + \\pF(v)\\2 -

2(v>pF(v)). v—pp(v) ±.pf(v), donc


Or

(i> Pf{v),Pf{v)) 0, c'est-à-dire (f,PF(^)) = =


||P/(^)||2-
d(^-P/(«))2 |H|2-||pF(t,)||-;

Aussi =

D'autre part, pour tout v' G F, d'v^v')2 =


\\v v'\\2 =

|H|a

IH|2 + ||t/||2-2(t;,t/) =
+ ||t/||2

2
(pF (i>), v1) d'où :

d(«,t/)2 -d(v,pF(v))2= \\v'\\2 \\pF(v)\f (pF(v),v')


+

\\v'-pF(v)f d(v',pF(v))2
-

= =

c'est-à-dire :

(v,v'f =d(v,pF(v))2 +d(v',pF(v)f Figure 18

(théorème de Pythagore). Donc V Inf d(i>, v') s'obtient


v'ÇF
pour v' =
Pf(v)-

18 1.
pF (i>) G F, donc pF(v) =
ai e\ H h ap ep. Imposer v—ppv G F-1 (cf. exercice
16).
Soit {ei,*",en} la base orthonormée associée à {vi, ,vn} par le procédé
de Schmidt. On la construit en normant les vecteurs ek =
Vk

Vf (vp) »
ou

Ffc_i =
Vect{vi, ,t>/c-i}, c'est-à-dire en normant les vecteurs

£*=PvecHvi,...,vk_l}±M
2. d(x3,R2[x]) \\x3 -Pr2[x](x3)W =

na2Mv *) (x3, ei) ei + (x3, e2) e2


=
+ (x3, es) e3 où {ei, e2i 63} est une base
orthonormée de R2[#]> (par exemple la base obtenue de {1, #, x2} en appliquant
le procédé de Schmidt). On trouve :
x2 1\ x2
^ —^-
/ 1 1
p(x3) I3 + I4x + ( z3, /3 + /4 -(/5 /s) (x2 1)
-

+

—-^-
= = x
- -

=
J4 x = 3 a?

On a donc :

\\p(x3) -x3\\ =
\\Sx- x3\\ =
x/9/2-6/4 + /6 =
\/6.

1. Il suffit d'effectuer les calculs.


19
2. G(i>i, ...j^p) =
(détA)2
conséquent G(ui, ...,^p)
> 0 et par
0 = si et seulement si
les vecteurs colonnes de A sontliés, c'est-à-dire {vi, ...,vp} est une famille liée.

3. Notons ^i? la projection orthogonale de x sur F et x1- x = —

xp la, projection
orthogonale sur F1-. On a :
Exercices 267

G(x,ei, ...,ep)

(x,x) (xtvi) {x,vp)


{vi,x) (vi,vi) (vi,vP)
=

(Vp, x) {vP,vi) (vp,vp)

11^ II2 II*fI|2 {xFivi) (xf,vp)


0 (vi,vi> (^i,£f) (vi,vi> '

(vi,vp)
+
_

0 (vP,vi> '

(Vp>Vp) (vPixF) (vP,vi> (vPlvp)


=
d(x, F)2 G(ei,..., ep) + G(xF, ei,..., cp) =
d(x, F)2 <3(ei,..., ep)
puisque la famille {x]?,î;i, ..., vp} est liée.

Nota. Cette méthode permet d'éviter le calcul de la base orthonormée (cf. exercice 18).

Se servir de l'exercice 36 du chapitre 3 et de l'isomorphisme j (cf. proposition 7.15).

On a :
{f(x),y) =
(x,f*(y)), pour tous x,y G E. Si donc x G Ker/, alors (x,f*(y)) =

0, pour tout y G E, c'est-à-dire Ker/ C (Im/*)-1- et, en prenant


2/ G (Im/*)-*-. Donc
l'orthogonal : Im/* C (Ker/)-1-. Vérifier ensuite que dimlm/* dim^Ker/)-1. =

Pour la seconde égalité, remplacer / par /* et prendre l'orthogonal des deux membres.

22 Si / est l'endomorphisme associé à A dans la base canonique, la condition /* o


/ = 0

implique
0 =
</* o
/ (s), x) =
( f(x), f(x) ) ; donc :
|| f(x)\\2 =0, Vx e E.

23
1. Raisonner comme dans la démonstration de la proposition 7.16. Si A M(/)e. e/,
=

où {ei} et {e^} sont des bases orthonormées de E et de E', on a :


M(/*)e/ *A e.
=

2. Soit x tel que /* o


/(x) = 0. On a :

0= {f*of(x)tx)E =
(f(x)J(x))E, ,d'où s = 0.

3. La projection orthogonale de z G F; sur Im / est caractérisée par

f p(s) Glm/
U-pW efim/)1
Or :
p(z) G Im/ équivaut à p(z) =
/(it), avec u £ E .

z
p(z) ± Im / équivaut à :
(z /(tt), /(#)) 0 VsGfî

//* (z
=

f(uj\, aA
— —

c'est-à-dire à : -
= 0 ,
Va; 6 E et donc à /* (z) -

/* o
/ (u) = 0 ;

d'où : u =
(f* o
f)~1o / (z). On en déduit l'expression de p.

4. || b-f(x0) || =
|| 6-/o/t(6) || =
|| 6-p(&) || =
d(Mm/) (cf exercice 17). Donc :

|| &-/(*<>) Il =Inf || b -f(x) ||

5. a) At =
(A* A)'1 A*. On trouve

t JL ( 18 15 -1 \
V )
=

50 2 ~10 14

b) Le système compatible —2 et, dans cas, la solution est

-(-!)
est pour a = ce

-*'(j)-è(-£+-ù.)
La solution des moindres carrés est

xo

(Noter que pour a =


—2, on retrouve la solution du cas compatible).
268 Espaces euclidiens

24 Utiliser le fait que AtCof (A) =


(détA) /, pour toute matrice A, et que A1 A = I si
A est orthogonale.

25 1. Soit A =
\\vii...ivn\\ei, {e-i} canonique de Rn. On a : A
étant la base Pei^Vi. =

Soit {e^} la base orthonormée obtenue appliquant le procédé de Schmidt à la


en

base {vi}, et Q :=
Pe._>e{.
%
i
D'après la proposition 7.24, Q G 0(n,R). On a :

A =
Pei—*Vi —

Pei-+e'. Pe'.-+Vi =
QR

où R Pe/i _>v., qui


=

z
est triangulaire supérieure (cf. démonstration du procédé de

Schmidt).
2. Le procédé de Schmidt appliqué à la base {vi, i>2, ^3} donne la base orthonormée
{ei>e25e3/ et

/ 0 2 y/2 \
Q= Il e[,ef2ief3\\ V3 -1 V5
V -y/2 J
=

^6

V5 1

i
/ 2v^ x/3 1 \
fl Q-1A= *QA= 0 3 1

J
-^
=

1/6 V 2V2
.

0 0

26 x G Im(/ -

id)1- «= (z,/(y)-2/)=0, Vy G £

^=>> (/*(aO,V>-<3,î/>=0, VyG£


«= ((/*-id)(a;), y> =
0, VyG£ <=> x G Ker(/* -

id)
Si (/ -

id)2 = 0 alors Im(/ -

id) C Ker(/ -

id), donc :
Im(/ -

id) C Im(/ -

id)-1-,
d'où : / -

id =
0.

27 A : réflexion par rapport au plan d'équation x + y + z =


0.

57T 1 (1\
B : rotation d'angle autour de l'axe dirigé et orienté par le vecteur 1
3 x/3
— ——

viy
1 \
27T 1
C : rotation d'angle —

3
autour de l'axe dirigé et orienté par le vecteur ——

V3
| —

suivie d'une réflexion par rapport au plan d'équation x —

y

z = 0.

28
1. P*=/*+/ =
P

2. Utiliser le fait que g commute avec /.


3. Vz G V\i g(x) =
\ix, c'est-à-dire (/ + /*- À* id) (x) =
0, d'où :

(/2+/o/*-Ai/)(aî)=0l VxeVXi.
4. Pour Xi = 2 Q(X) =
(X —

l)2. Appliquer le résultat de l'exercice 26.

5. Même démonstration.

6. Si V\i était vecteur propre de f\\i


v G f\i A^ devrait être racine de Q(X) =
,
=

X2 AjX + 1, car ce polynôme annule f\i (cf. proposition 6.18 page 176). Or f\i
Ai 7^

est orthogonale, donc ses seules valeurs propres sont +let —letQ(l) 2 = —

0, Q(—1) 2 + Aj ^ 0. VK est de dimension 2 car î; et f(v) ne sont pas liés.


=

7. Soit x G W, x =
fif(v). Puisque (/2 A» / + id) | Vx. 0 f(x)
Xv + -
=
,
=
Xf(v) +

fj,f2(v) =
Xf(v) + fi{Xif(v) -v) eW. Donc W est stable par /.

8. / est orthogonale. D'autre part


M(f)^vjçv^y = (
1
>

J. Donc dét/= 1.
9. Soit x G W-1-, c'est à dire (x,v) 0 et (x,/(«)) 0 ; il s'agit = = de montrer que
(f(x), v) 0 et (/(#), /(i>))
=
0. Puisque / est orthogonale, on a = :
(/(#)> /M) =

(x, v) 0. D'autre part, (/(#), u)


=
(/2(#), /(v)) ; utiliser le fait =
que (f2 —Xif +
id)kAi=0.
10. Raisonner par récurrence, répétant, dans W1-, la construction d'un sous-espace
en

de dimension 2 stable par /. On décompose ainsi chaque V\i en des sous-espaces


stables de dimension 2 tels que les restrictions de / à chacun de ces sous-espaces
soient des rotations. Écrire la matrice de / dans une base de E adaptée à la
décomposition en somme directe E V2®V-2®V\1 © -©V\m, où chaque V\m =

est décomposé en somme directe de sous-espaces de dimension 2, en restriction

desquels / est une rotation.

1. Montrer par récurrence que si Fi,...,Fr sont r sous-espaces vectoriels d'un


espace vectoriel E de dimension n, alors :

dim(Fi H H Fr) >


£1=1 dimFi -

n (r -

1).
En déduire l'inégalité en tenant compte du fait que

El1 n---nE°r c e{.


2. (a) Montrer que E*1- est stable par a. Puisqu'il est de dimension 1, cela
signifie que c'est un espace propre. Or les valeurs propres d'une transformation
orthogonale sont nécessairement +1 ou -1. Donc E*1- = E^_±.

On en déduit que E =
Ef © E^ =
E% © E°_x ; donc a est diagonalisable.
Pour montrer que a2(x) = x pour tout x, décomposer x sur E° et E^_v
(b) On vérifie facilement que aa ainsi définie est une réflexion.
Réciproquement, si a est une réflexion, le projecteur (orthogonal) p_i sur
E^_x est

(a;, a)
P-i(x) =
n M a, ou a est un vecteur propre correspondant a —1. D autre

part, si x = x\ +x-\ avec x\ G E% et x~i G EZ_^ on a : <j(x) =


x± —x~\.
D'où l'expression de a.

(c) Prendre a —

y

z.

(a) Soit y e H, c'est-à-dire (y, z) = 0 pour tout z G E. On a :

</(«),*> =
</(w ),/(*)> =
<v,*> =0.

(x,b)
(b) On <Jb(x) 2 6 E. En particulier, pour tout
'
a = x pour tout x €

»eH :«7i(»)
La propriété est vraie pour n(*P)
y-2^6
=

1, car dans ce cas O(-E) {id, a


=
*t(y).
= = = —

id},
et id (j°. Supposons la propriété vraie jusqu'à l'ordre n
= 1 et soit —

/ =

/ |#. D'après l'hypothèse de récurrence, on peut écrire / d^ o o =


âbr,
avec r < n 1 et bii...ibr £ H. Or G\>i(z)

z, donc / abl o
o = =
abr,
car les deux membres sont égaux sur # et sur Vect{z}.

(c) aa échange z et f(z) (cf. 2.(c)), donc : aa o f(z) z. =

Ainsi l'application craof est une application orthogonale dont l'espace propre
correspondant à +1 n'est pas réduit à {0}. En utilisant le résultat de 3.(b),
on peut écrire cra o / ar, avec r < n 1, d'où :
crai o o = —

/ =
aa o
crai o o ar.

/ est donc le produit de r + 1 < n réflexions.

/1 \
z =
I 1 G .Ej4. On est donc dans le cas 3.(b) et A est produit d'au plus deux
V i
/
réflexions ai, abl. Prendre b G 2X, par exemple b
(I —1l\ D'après 2.(b) :

V
=

/
.

o
270 Espaces euclidiens

0 10

M(<jb) =(100
0 0 1

Puisque A =
G\> o
crbl, on ;

OQ I 1. Utiliser la formule (*), page 246.

2. On voit facilement que ei + ej ± e* ej donc (f(ei +


ej), f(ei —

ej)) =
0, d'où :

|| /(ei)|| ||/(ej)ll- Notons /j, cette valeur commune.


=

3. Soit x =
y^Xiei un vecteur quelconque de E. On a :
||:r||2 =
5~^#2 et
i=i i=i
n

ll/WII2 =
M2 E^l-Conclure.
i=i

1. Si x' 0 la relation est triviale.


31
=

Soit x' ^ 0 ; le vecteur n Ax = n Ax' appartient au plan ir =


Vect-fn}1- et il
est orthogonal à x' et de même norme que x'. De plus la base {x\n A x'} de ir

est orientée positivement par l'orientation induite par n.

fa\
lb \
2. Si n =
(avec a2 + b2 + c2 =
1) on a :

/ cos0 + cos#) a2(l — —

csinfl + ab(l —

cos#) fcsinfl + ac(l —

cos0)
M(/)Ci =
ab(l-cos0)
csin0 + cos0 + 62(l -

cos0) -asin0 + bc(l -

cos6)
\—bsinQ + ac(l cosO)

asind + bc(l —

cosO) cos0 + c2(l —

cosO)

32 Supposons / G SO(E). Si x et y sont liés la relation est triviale.

Si x et y sont (x,y,xAy) est une base directe. Puisque / G SO(E),


indépendants, alors
(/(#), /(y), f(xAy)) est aussi une base directe. Par ailleurs / conserve l'orthogonalité,
donc f(xAy) _L Vect {/(#)> fiv)} (puisque xAy _L Vect {x,y}). Aussi, existe-t-il A G M
tel que :

f(x Ay) =
Xf(x) A f(y)
En utilisant l'identité de Lagrange et le fait que / G SO(.E), montrer que

ll/(*Ai/)||2 =
||/(*)A/(i,)||2
d'où |A| = 1. D'autre part
dét ||/(a;), /(y), f(x A y)|| =
(dét /) dét \\x, y, x A y\\ = dét \\x, y, x A y\\ > 0

et
dét H/Oc), /(y), f(x A y)\\ = A dét ||/(x), /(y), f(x) A /(y)||
d'où A = 1.

Réciproquement, supposons que / conserve le produit vectoriel et soit (e^) une b.o.n.
s'agit de montrer que (/(e;)) est aussi une b.o.n. directe.
directe. Il
On a :
/(ei A e2)
/(e3) /(ex) A /(e2), donc /(e3) -L Vect {/(ei),/(e2)}. En
= =

calculant de même /(ei) et /(e2), on voit que la famille (/(e*)) est une famille
orthogonale. D'autre part, /(e3) /(ei) A/(e2), d'où : ||/(e3)|| =
||/(ei)|| ||/(e2)|| (utiliser =

l'identité de Lagrange). En échangeant le rôle des e*, montrer que les vecteurs f(ei)
sont de norme 1.

/0 0 0N
]
.

33 Sp'A =
{0, 6,6} A' = P^AP = 0 6 0 ,
avec :

\0 0 6

P= ||t*,t;,HI> «= -=
1 f
I
X
1

Projection orthogonale sur le plan Vect {-y, w} suivie d'une homothétie de rapport 6.
Exercices

On a Tr(*AA) =
^_J afj. Puisque A est symétrique, il existe P orthogonale telle que

(' A2
°\
A! = lPAP =

V 0 XnJ
n n

Y^ A? =
TLfA'A') = Tr* fPAPtfPAP) = Tr* AA =
J^^j

35 Montrer que / conserve l'orthogonalité de B si et seulement si B est une base


orthogonale de vecteurs propres de /* o /. Utiliser ensuite le fait que /* o / est autoadjoint.

36 On munit Mn(^) du produit scalaire canonique (cf. page 222) ; montrer d'abord que

pour toutes matrices A, B,H G M. n(M), on a :

(HAt B) =
(A, tHB)
(AH, B) =
(A, B*H)
A l'aide de ces relations, montrer que ipM est autoadjoint.

37 1. Soit Sp'p =
{Ai,..., An}. Si {e^} est une base orthonormé de vecteurs propres de
p, on définit a par :

/ VXi
M(a)ei =
(1)
V 0 V\n
D'autre part a est unique, parce que si a est un endomorphisme autoadjoint
et défini positif
tel que p <r2, en considérant une base orthonormée {e^} de
=

vecteurs propres de <r, on voit immédiatement que cette base est aussi une base
de vecteurs propres de p et que M(a)ei a nécessairement l'expression (1).
2. (/* o
/)* =
/* °
/, donc /* o
/ est autoadjoint. D'autre part si v est vecteur

propre pour la valeur propre A, on a :

</* o
/M, o> =
(/(«), /(«)> =
</* »
/(»), »> = A (v, v)
donc A > 0 et, puisque / est bijectif, A > 0.

3.(u(x),u(y)> =
(foa-1(x)Joa-1(y)) (f* / = o o a"1 (s), a"1^ ))
=
(o-(aj),o--1(2/)) (x.aoo-1^)) = =
(xty)
u est donc orthogonal. Aussi / = u o <r, avec w orthogonal et cr est défini positif.
Pour montrer l'unicité, suppose que /
on a, orthogonal et a = u o avec u

autoadjoint défini positif. On a a u* o /, et u* o f


=
f* o u, car a est autoadjoint. =

Montrer que <j2 /* o / et en déduire l'unicité de a, en tenant compte de 1.


=

Puisque / est bijectif, a est bijectif. En déduire l'unicité de u.


Chapitre 8

Espaces hermitiens

8.1 Formes hermitiennes. Produit scalaire hermitien

Dans ce chapitre, nous nous proposons d'établir, dans le cadre des espaces vectoriels
complexes, une analogue
théorie à celle du produit scalaire 1. Il ne s'agit pas d'une généralisation
gratuite : les notions que nous introduirons interviennent en des nombreuses branches des

mathématiques et de la physique mathématique, par exemple en théorie quantique des

champs. D'où leur importance.

1. Formes hermitiennes

Soit E un espace vectoriel de dimension finie sur C. Pour définir l'analogue du produit
scalaire sur E, on serait tenté de considérer la forme bilinéaire symétrique

s : Ex E C
{x,y) i
xiyi-\ \-xnyn

(x =
^Ji=ixiei-> V

Y^i=iViei'> iei} base de E). Cependant la propriété spécifique


du produit scalaire, à savoir que s est définie positive, n'est pas satisfaite. Ceci pour
deux raisons :

-
d'abord parce qu'il n'a pas de sens de dire que s(x, x) > 0 ; ( s(#, x) est un nombre
complexe) ;

-
d'autre part parce que si s(x)x) =
x\ + + x\ est nul cela n'implique pas que
x =
0.

Considérons, en revanche, l'application

s' : E x E — C
(x,y) i—>
xi 2/1 ^ \-xnyn

On aura :

s'(x, x) | x\ |2 | |
2
=
H h xn

1On trouvera en Appendice A. 13 une table de correspondance entre les définitions concernant les
espaces euclidiens et la théorie que nous allons développer. Il est conseillé de se rapporter à cette
table pour se familiariser avec la terminologie.

273
274 Espaces hermitiens

et dans ce cas on a bien :

s'(x,x)>QiVxeE et s\x,x) =
0 => x =
0.

C'est pourquoi pour les espaces vectoriels complexes on utilise, comme analogue du
produit scalaire, l'application s' plutôt que s.
Cependant, s' n'est pas bilinéaire ; on a, en effet, Vx, y, z G E, VA G K :

s'(x + y,z) s'(x, z) + s'(y, z)


=

s'(x, y + z) s'{x, y) + s'(x, z)


=

s'(x,\y)= As'(x,y)
mais :

sf{\x,y) =Js'(x,y).
(on dit que s' est antilinéaire en x.)
De plus s' n'est pas symétrique, mais vérifie la propriété suivante :

s'{x,y) =
s'(y,x)

Cette propriété est dite symétrie hermitienne.

Définition 8.1 -

Soit E un espace vectoriel suC. On appelle forme hermitienne une

application
h\ExE—>C

antilinéaire dans le premier argument, linéaire dans le second argument2 et à symétrie


hermitienne, c'est-à-dire telle que, Mx>y,z G E) VA G K :

a) h(x + y,z) = h (x,z)-\-h (y,z)


b) h(x,y + z) =
h(x)y) + h(x,z)
c) h(x,\y) =
Xh(x,y)
d) h(\x,y) =
Xh(x)y)
et

e) h(x,y) =
h{y,x).

2. Produit scalaire hermitien

Les formes hermitiennes jouent le même rôle que les formes bilinéaires symétriques
du chapitre précédent. Notons, en effet, que si h est une forme hermitienne, on a, en
vertu de la propriété e) :

h{x,x) G M, Mx eE. (*)


On peut donc parler de «forme hermitienne définie positive» : une forme hermitienne
h est dite définie positive si :

h (x, x) > 0, Va; G E et h (x, x) =


0 <^=> x =
0.

2Une telle application, antilinéaire dans le premier argument et linéaire dans le second argument,
est dite sesquilinéaire (terme qui vient du grec et signifie : à moitié linéaire)
g.l Formes hermitiennes. Produit scalaire hermitien 275

péfinition 8.2 Soit E un espace vectoriel sur C. On appelle produit scalaire


-

hermitien une forme hermitienne

{ | ) : ExE—> C
(x,y) i—>
(x\y)

définie positive. En d'autres termes, ( | ) vérifie les propriétés suivantes :

a) (x + y | z) =
(x\z) + (y\z)
b) (x\y + z) =
(x\y) + (x\z)
c) (x\\y)= X(x\y)
d) (Xx\y) =
X (x | y)
e) (x | y) =
(y\ x)
et

/) (x | x) > 0, \/x e E et (x | x) =
0 ^=> x =
0

Un espace vectoriel de dimension finie surC muni d'un produit scalaire hermitien est
dit espace hermitien.

REMARQUE. Un espace vectoriel complexe E non nécessairement de dimension finie, muni d'un

produit scalaire hermitien est dit préhilbertien complexe. De même un espace vectoriel réel, non

nécessairement de dimension finie, muni d'un produit scalaire est dit préhilbertien réel. Ainsi les

espaces préhilbertiens de dimension finie sont les espaces hermitiens et euclidiens. Le préfixe "pré"
devant l'adjectif "hilbertien" tient au fait que l'on réserve le nom d'espace hilbertien aux espaces

préhilbertiens qui sont complets (c'est-à-dire : toute suite de Cauchy converge) pour la norme que
nous allons définir. On démontre que tout espace préhilbertien de dimension finie (c'est-à-dire
tout espace euclidien ou hermitien) est complet.

Exemple 1 -

E =
Cn avec (|) défini par :

(x\y) := xiyi + +xnyn où : x =


(a*, ,zn), y =
(j/i, ,yn)

Le produit scalaire hermitien ainsi défini est dit produit scalaire hermitien canonique.
Comme pour les espaces euclidiens (cf. corollaire 7.7), nous verrons que si E est un espace
hermitien, moyennant le choix d'une base, on peut identifier E à Cn muni du produit
scalaire hermitien canonique. En d'autres termes il s'agit, à un changement de base près,
du seul exemple d'espace hermitien

Exemple 2 -

Soit E un espace vectoriel complexe de dimension n et {e*} une base de


E. On définit alors un produit scalaire hermitien sur E, en posant :

{x | y)&i \= xi 2/1 + + xn yn

pour x =
XvILi xiei i y

SILi Viei- {x I v)e- es^ °^ produit scalaire hermitien associé


à la base{ei} .

Exemple 3 -

Soient a et b deux applications continues de [0,1] dans R. On pose :

/ \a(x) -f i b(x) \dx : =


/ a{x)dx-\-i l b(x)dx
276 Espaces hermitiens

On considère l'espace vectoriel : E {/ : [0,1] = —>


C, continues }. Il est facile de voir

que l'application h : E x E —> C définie par :

Hf,9)= /
Jo
f(x)g(x)dx

est une forme hermitienne définie positive. La vérification est laissée en exercice.

Comme nous allons le voir, tous les résultats sur les espaces euclidiens se transportent
sans difficultés aux espaces hermitiens.

3. Réduction de Gauss

Soit h une forme hermitienne sur un espace vectoriel (complexe) E de dimension


finie et soit {e^} une base de E. Puisque h est anti-linéaire dans le premier argument
et linéaire dans le second, on a, pour x =
Y^i=ix%ei e^ V =

YTj=\Vùe3 :

n n

Ç^Xiei ^j/j-e,)
n

h{x,y) = h ,
=

^ Xiyjh^ej)
i=l j=l i,j=l

Les h(ei, ej) sont des éléments de C. Si on note a^ :=


/i(e;, e^), l'expression de h dans
la base {e*} est :

^
n

h(x, y) =
aij Ëi Vj

c'est-à-dire h est du type :

h(x,y) =
an x~\ yi + aX2x1y2-\ h a%j xiyj H h annxnyn

Ainsi, par exemple :

f (x,y) =xi yi + (1 -

3i)x2V2 -

5ix3yi +xiy3

est anti-linéaire dans le premier argument et linéaire dans le second.

La vérification de la symétrie hermitienne est tout aussi facile : le fait que la valeur de
h(x> y ) change en sa conjuguée lorsqu'on échange les rôles de x et y, équivaut, bien

entendu, à

c'est-à-dire le coefficient de xiyj doit être égal au conjugué de celui de Xjyi. Ainsi,
par exemple, l'expression f(xyy) ci-dessus n'est pas une forme hermitienne, alors
que :

h(x,y) =
£iyi + 5â2y2 + ^x3y3 -ix~iy2 + ix2yi -\-(3 + 2i)x1y3
+(3 -

2i)x3y\ + (1 + i)x2y3 + (1 -

i)x3y2

est hermitienne.
8.2 Inégalité de Cauchy-Schwarz. Norme 277

pour reconnaître si une forme hermitienne est définie positive, on peut adapter sans

difficultés la méthode de Gauss. Voici comment procède-t-on.


Notons tout d'abord que, comme il en est pour lie formes bilinéaires, une forme
hermitienne h est connue si l'application q : E —> M définie par

q (x) =
h(x,x)

est connue. Par exemple, soit

h(x, y ) =
xi yi + 5 x2 y2 + (3 + ï) x~i y2 + (3 -

i) x2 y± ;

on a

q(x) =
\xi\2 + 5 \x2\2 + (3 + i)x-iX2 + (3 -ï)x2x\.
Pour revenir à h(x,y) il suffira de remplacer les x\ par le yi (cf. aussi exercice 3).
Notons que, comme dans le cas euclidien, si h est définie positive tous les coefficients
des termes \xi\2
dans q (x) sont strictement positifs (car ces coefficients sont les valeurs
de h{ei^ei)). Ainsi, si dans q(x) il n'y a pas de carrés de modules, h n'est pas un
produit scalaire hermitien. Supposons donc que q(x) contient un terme en \xi\2 et,
pour simplifier, raisonnons sur un exemple (le cas général se traite d'une manière
analogue).
Soit h la forme hermitienne sur C3 définie dans la base canonique {ei} par :

q(x) =
\xi |2 + 5 \x212 + 3 \x312 + 2 i x± xi —

2 i x\ X2 + i #2 X3 —

i £2 x~3

On choisit un terme en
\xi\2 (par exemple \xi\2) et on cherche le coefficient de xi (ici :

xi + 2ix2).
On écrit :

q (x) =
\xi + 2ix2\ + termes correctifs

Dans les termes correctifs il n'y a ni Xi ni au, comme on le vérifie facilement. On itère
ensuite le procédé. Dans notre cas :

q(x) =
\xi +2ix2\2 -4|x2|2 + 5|a?2|2 + 3|x3|2 -\-ix~2X3 ix3x2 -

=
\xi +2iX2\2 + \X2\2 + 3 |X3|2 + iX2X3 iX3X2 —

=
\x1+2ix2\2 + \x2 + ix3\2-\x3\2+S\x3\2 \x1 + 2ix2\2 + \x2+ix3\2+2\x3\2 =

On voit immédiatement que q(x) > 0, Va; G C3 ,


et que q (x) =
0 si et seulement si x =
0.
h est donc définie positive.

Exercices 1. 2. 3. 4. 5.

8.2 Inégalité de Cauchy-Schwarz. Norme

Soit (E,( | )) un espace vectoriel complexe (non nécessairement de dimension finie)


muni d'un produit scalaire hermitien. On pose

Il x II :=
y/(x I x).
278 Espaces hermitiens

Inégalité de Cauchy-Schwarz .8.3 -

Soit E préhilbertien. Alors pour tous x,y G E :

\{x\y)\<\\x\\\\vl

l'égalité ayant lieu si et seulement si x et y sont liés.

Démonstration (x | y) =0 l'inégalité est évidente.


: Si
Supposons (x | y) ^ (en particulier, y ^ 0). Pour tout 0 À G C on a :

0< (x + \y\x + \y) =


\\x ||2+Â (y\x) + X(x\y) + |A|2 || y ||2
=
|| x ||2 +\W\y) + A(z|y) + |A|2||y||2
(x ii)
Ceci étant vrai pour tout A G C, posons A u -r-,—;—tt? avec u G R
\(x\y)\
= .

On aura :

0<||z||2+2^|(z|y)|nVlM|2 V/x G R.

Puisque y ^ 0, le second membre est un trinôme en // ; son discriminant est donc < 0,
c'est-à-dire :

l<z|y)|2<IMI2|UI|2 Vx,yeE.
Si x + Xy 0 on a l'égalité, dans cette expression (il suffit de remplacer x par —Ay).
=

Réciproquement l'égalité implique l'existence d'une racine \x dans le trinôme et donc


d'un A G C tel que x + Ay =
0.

L'inégalité de Cauchy-Schwartz permet de montrer que tout espace préhilbertien est


un espace vectoriel norme :

Proposition 8.4 L'application : \\ \\ : E


-

—> R+ définie par \\ x ||= y/(x \ x) est


une norme sur E, c'est-à-dire elle vérifie :

1. || x || > 0 et || x
||=0<^£ =
0 ;

2. || Ax|| =
|A| || x
||, VAgC, \/xeE ;

3. || x + y || <
|| x || + || y ||, Mx,yeE.
De plus Végalité a lieu si et seulement si il existe A G R; A > 0 tel que y = Xx

(ou x =
Xy).
Démonstration : Il suffira de démontrer 3., car 1. et 2. dérivent immédiatement de
la définition du produit scalaire hermitien.
On a, en notant 1Ze z la partie réelle de z G C :

Il x + y ||2 =
(x + y | x ||2 + (y \ x) + (x | y) + || y ||2
+ y) =
|| x

H|x||2+2fte<^)+||y||2 < \\x\\2+2\(x\y)\+\\y\\2


<
|| x ||2 +2 || a || || y || + || y ||2= (|| a || + || y ||)2
d'où: || s + y || <
|| s || + || y || .

Si y Xx= avec A G R+ ,
on l'égalité. Réciproquement si on a l'égalité, en remontant
les calculs on trouve :
8.3 Matrices hermitiennes 279

-
d'une part que x et y sont colinéaires en vertu de l'inégalité de Cauchy-Schwarz ;
donc, si, par exemple x^O, y
=
À x avec À G C ;
-
d'autre part que 7le(x\y) —\(x\y)\.
Puisque (x\y) =
(x | À x) X \\ x ||2, on aura
=
IZe (x \ y) =
\ (x \ y) | si et seulement
si %e A =
| À |, c'est-à-dire si et seulement si À G 1 et A > 0.

Exercice 6.

8.3 Matrices hermitiennes

Comme il en est des formes bilinéaires, il est utile de représenter les formes
hermitiennes par des matrices.

Soit E un espace vectoriel de dimension finie n sur C et h : E x E —> C une forme


hermitienne. Si {e^} est une base de E et x =
J2xïeii V
=
J2Vjej^ on a :

h(x, y) =

^2xiyjh(ei, ej)
(cf. page 276). h est donc déterminée par la connaissance des valeurs h(eiy ej) sur

une base.

Définition 8.5 -

Soient h une forme hermitienne sur E, et {e*} une base de E. On


appelle matrice de h dans la base {e^} la matrice :

I /i(ei,ei) h(e1)e2) h(euen) \


^e2'ei) Me2,en)
M(h)e =

\ /i(en,ei) h(e
=
(h (ei> ej))
T î
ième jème
ligne colonne

Ainsi l'élément de la ieme ligne et jeme colonne est le coefficient de ~x~iyj.

Exemple Soit h la forme


-

hermitienne sur C3 qui dans la base canonique {et} est

représentée par :
h(xty) =
xiyi -\-bx2y2 + 4^3 2/3 -

ixi y2 + ix2yi + (3 -h 2i)xi 2/3


+(3 -

2i)x3y\ + (1 + i)x22/3 + (1 -

i)x3yi
On a :
/ 1 -i 3 + 2i \

M(h)ei = i 5 1 + i
)
\ 3-2i 1-i 4 /

Notons que la matrice H d'une forme hermitienne vérifie la propriété tH = H. On


pose donc la définition suivante :

Définition 8.6 -

Une matrice H G Mn(C) est dite hermitienne si : lH =


H.
En particulier les matrices symétriques réelles sont les matrices hermitiennes réelles.

Les matrices hermitiennes sont donc les matrices qui représentent les formes
hermitiennes.
280 Espaces hermitiens

Remarque. -

1. Les éléments de la diagonale d'une matrice hermitienne sont des réels.

2. Nous allons voir (cf. théorème 8.16 et proposition 8.19) que, tout comme pour les matrices
symétriques réelles (cf. théorème 7.38 et proposition 7.39) :
-
les matrices hermitiennes sont diagonalisables dans R ;
-
une forme hermitienne définit produit scalaire hermitien si et
un seulement si la matrice qui
la représente dans une base quelconque qui est justement
-

une matrice hermitienne -

a toutes ses valeurs propres strictement positives.

Soient h une forme hermitienne sur E1, {e*} une base, et

H =
M(h)ei, X =
M(x)ei, Y =
M(y)ei (x, y e E)
On a :

h(x,y) =
fXHY

Changement de base

Soit h une forme hermitienne, H = M (h)ei, {e^} une nouvelle base et P =


Pei->e'.
la matrice de passage. Si X1 et Y' sont les matrices de x et y dans la base {e^}, on a :

X' = P~XX et Y' = P-XY.

En notant W =
M(ft)e/, on a :

h(x,y)= tX'R'Y'.
D'autre part :

h(x,y)= tXEY =
t(PX')HPY'= tX'{tPHP)Y
pour tous X,Y e Mnii(C), d'où :

H' PHP

Exercice 7.

8.4 Bases orthonormées. Orthogonalité


Les résultats sur Porthogonalité dans les espaces euclidiens se transportent facilement
au cas hermitien.

Définition 8.7 -

Soit (E, ( | )) un espace hermitien. Une base {e^} est dite


orthogonale si (e{ \ej) =
0 pour i 7^ j. Elle est dite orthonormée si (ei \ej) ôij.
=

Il est clair que {e^} est une base orthogonale si et seulement si :

/ai 0 0 \
0 a2 :
M((\))ei =
(^ e.
' . o

\ 0 0 an )
8.4 Bases orthonormées. Orthogonalité 281

ou encore : n

q(x) =
ai \xi\2 H han|a;n|2 (où x =

^2/xiei)
ii=l

De même, {e;} est une base orthonormée si et seulement si :

/ 1 0 ...
0 \
0 1
M((\))ei =

: 0

\0 ...
0 1 /
ou encore :

q(x) =
\xx\2 H h |zn|2 ( où :x =
YA=ixiei)-

Théorème 8.8 -

Sur tout espace hermitien il existe des bases orthonormées.


En particulier tout espace hermitien est isomorphe à Cn muni du produit scalaire
hermitien canonique.

La démonstration est la même que dans le cas euclidien (cf. théorème 7.6 page 228).
Notons que si X et Y sont les matrices qui représentent dans une base orthonormée les vecteurs

x} y, on a :

(x\y) = *XY

Les procédés d'orthonormalisation de Schmidt s'adapte facilement au cas hermitien,


permettant d'associer à toute base une base orthonormée d'une façon canonique.

Comme dans le cas euclidien on pose :

Définition 8.9 -

Soit A c E. On note : A1- =


{x G | (x \ a) =
0, Va e E}.
AL est un sous-espace vectoriel de E, dit orthogonal de A.

NOTA A cause de la symétrie hermitienne, A1- est aussi l'ensemble


{x eE\ (a\x) =
0, VaG E}.

Proposition 8.10 -

Soit F un sous-espace vectoriel d'un espace vectoriel hermitien


E. Alors :

1. dimE^dimF + dimF-1
2. E =
F®FJL
3. FLL =
F

Ces propriétés se démontrent comme les propriétés 7.14 page 236.

Exercices 8. 9.
282 Espaces hernutjeTlift

8.5 Endomorphisme adjoint

Proposition 8.11 Soit E un espace hermitien et f G End(E). Il existe un et un


seul endomorphisme f* de E tel que

(m\y) =
(x\r(y)), Vx,y€E.

/* est dit adjoint de f. Si {e^} est une base orthonormée et A =


M(f)e.} alors la
matrice A* =
M(/*)e. est : A* =
*X

Démonstration : La démonstration est la même que dans le cas euclidien (cf. proposition
7.16). Soit {e;} une base orthonormée de E et notons

A =
M(f)ei, A* =
M(f*)ei, X =
M(x)ei, Y =
M(y)ei

Puisque la base {d} est orthonormée, l'identité de l'énoncé s'écrit :

'CÂxJy =
*xa*y, vx,re.Mn,i(M)

qui est équivalent à A A* Ceci montre que A*' (donc /*) unique.
*
ce =
est

Réciproquement, si on définit /* G End(i£) par M(f*) A, voit, en


*
=
on remontant les

calculs, que /* vérifie l'identité de l'énoncé.

On a les propriétés suivantes, qui se démontrent immédiatement dans une base


orthonormée, compte tenu du fait que dans une base orthonormée A* A.
=
l

Proposition 8.12 -

Pour tout endomorphisme f et pour tout scalaire \, on a :

a) /** =
/, (id)*=id
b) (f + 9)* =
f*+9*, (A/)*=À/*, (fo9y=g*or
c) rg/* =
rg/, dét/* =
dét/

NOTA. —

Le résultat ci-dessus (8.11) justifie la notation habituelle pour A Ç A^n(C) :

A* = tÂ.
def

La matrice A* est dite adjointe de A.

Exercice 10.

8.6 Groupe unitaire

Le but de paragraphe est d'étudier les endomorphismes qui conservent


ce le produit
scalaire hermitien. Il s'agit donc de l'analogue, dans le cas complexe, des
transformations orthogonales.

Proposition 8.13 Soit (E, ( | )) un espace hermitien


-

et f un endomorphisme de
E. Les propriétés suivantes sont équivalentes :

1- Il f(x) || =
|| x
|| ,
Vx G E ;
S.6 Groupe unitaire 283

3. Si {ei} base orthonormée de E et A M(f)ei, alors AA I (ou,


l
est une =
: =

équivalente : A* A
d'une manière I). =

Un endomorphisme qui vérifie ces propriétés est dit unitaire.

La démonstration est analogue à celle de la proposition 7.19.

Notons que / est unitaire si et seulement si /* o


/ =
id, ou, d'une manière équivalente :

/o/* = id.

Définition 8.14 -

Une matrice A G Mn(C) vérifiant lAA =


I (ou d'une manière

équivalente A1 A =
1 ) est dite unitaire. L'ensemble des matrices unitaires est un

groupe dit groupe unitaire, noté U (n, C) :

U (n, C) : =
{A G Mn(C) \tÂA=I}
Les matrices unitaires sont les matrices qui représentent dans une base orthonormée les
transformations unitaires d'un espace hermitien. Il s'agit donc de l'analogue, dans le
cas complexe des matrices orthogonales et, plus précisément, les matrices orthogonales
sont les matrices unitaires réelles :

0(n,R) =
U(n,C)nÀ<n(R).
Si A G U (n, C), puisque *X4 = I on a : | dét A |2 =
1, donc :

|dét A\ = l.

Les matrices unitaires de déterminant égal à 1 forment un sous-groupe de U(n,C),


dit groupe spécial unitaire, noté SU (n, C) :

SU(n,C) :={Ae\J(nX) I dét A =


1}.
Les matrices spéciales unitaires sont donc l'analogue, dans le cas complexe des
matrices spéciales orthogonales et, plus précisément :
SO (n, R) =
SU (n, C) n Mn (M).
Comme dans le cas euclidien (cf. proposition 7.21 page 240 et proposition 7.24 page
241) on voit facilement que :

1. Les endomorphismes unitaires sont les endomorphismes qui transforment les


bases orthonormées en bases orthonormées.
2. La matrice de passage d'une base orthonormée à une base orthonormée est
unitaire.

Exemple 1 -

Soit la matrice :

/ ei(fil 0 \

\ 0 è*« )
On AA / ; donc A est unitaire A G U (n, C). D'autre part
*
a = : :

dét A =
e<(vi+V2+,"+*n)
donc A G SU (n, C) <=^ ipi + (f2 H h <pn =
2&7ir.
284 Espaces hennitiens

Exemple 2 -

Détermination de SU(2,C).

S0it
*=(ïj)^(C);
La condition
*
AA =
I est équivalente
ona:

au
«*=(* *).
système
(I) ( aâ + bb = 1

(II) < cc + dd 1

[
=

(III) ac + bd =
0

La condition dét A =
1 donne l'équation supplémentaire
(IV) ad-bc=l.

D'autre part :

(I)-(IV) => a(â-d) + b(b + c)=0.


Il existe donc À G C tel que

Xb et b+ c = —

À a

c'est-à-dire :

d = a —

À6
c = —5 —

À a

En reportant dans (III) :

-X(aâ + bb) =
0

d'où, d'après (I) : A =


0 et
d = â ,
c = —

Donc A s'écrit :

i4
-(4i)-
=
( £ ) _
,
avec : l°!2 + lfe!2 = !

(on vérifie facilement la réciproque). En posant a =


pie1 et b =
p2 etv, on a

\a\2 + \b\2 = 1 <=* p? + p| = 1.

Il existe donc a G M tel que pi =


cos a et p2 = —

sin a

(cos
On a ainsi :

a eî<? —

sin a e%lf> \

sinoje_îv? cosae-z6/ /
A dépend donc de trois paramètres réels : a, 0, (p. Pour 0
=
0 et ip =
0 on retrouve les

matrices de SO(2,R).

REMARQUE. -

Les valeurs propres d'une matrice unitaire sont toutes de module 1.

En particulier, les valeurs propres d'une matrice orthogonale, considérée comme matrice
de Mn (C), sont des complexes de module 1.
En effet, soit / l'endomorphisme unitaire de Cn qui dans la base canonique est représenté
par la matrice unitaire A. On a :
|| f(x) || =
|| x ||, \/x G Cn. Si f(x) = Xx avec x ^ 0,
alors :

|| Xx || =
|| x
|| d'où :
|A| || x ||=|| x || et donc |A| = 1.

Exercices 11. 12.


8.7 Diagonalisation des endomorphismes autoadjoints d'un espace hermitien.
Endomorphismes normaux 285

8.7 Diagonalisation des endomorphismes autoadjoints


d'un espace hermitien Endomorphismes normaux
-

Définition 8.15 -

Un endomorphisme f d'un espace hermitien est dit autoadjoint,


ou aussi hermitien, si : f* f, c'est-à-dire si :
=

(f(x)\y) =
(x\f(x)) , Vx,yeE.

Si {ei} est une base orthonormée et A =


M(/)e., / est autoadjoint si et seulement si
*
A =
A, c'est-à-dire :
/ est autoadjoint si et seulement si la matrice qui le représente dans une base
orthonormée est hermitienne.

Le théorème suivant qui affirme que tout automorphisme autoadjoint (donc toute
matrice hermitienne) est diagonalisable dans R, est la généralisation du théorème
7.38 page 252 :

Théorème 8.16 -

Soit f un endomorphisme autoadjoint d'un espace hermitien.

1. Les valeurs propres de f sont toutes réelles.

2. f est diagonalisable.
3. Les sous-espaces propres de f sont deux à deux orthogonaux (on peut donc
construire une base orthonormée de vecteurs propres en choisissant une base
orthonormée dans chaque espace propre).

Nota -

En termes de matrices ce théorème peut aussi s'énoncer ainsi (cf. théorème


7.38') :

Théorème 8.16'

Toute matrice hermitienne est diagonalisable dans R et les espaces propres sont
deux à deux orthogonaux pour le produit scalaire hermitien canonique de Cn,
(x\y) =
xiyi +
--
+ xnyn .

Ou encore, compte tenu du fait que la matrice de passage d'une base orthonormée
(la base canonique de Cn) à une base orthonormée (la base orthonormée de vecteurs
propres) est unitaire (cf. théorème 7.38") :

Théorème 8.16"

Soit A une matrice hermitienne. Il existe alors une matrice unitaire U, telle que
la matrice A' =f U AU soit diagonale réelle.

Notons que les théorèmes 8.16, 8.16' et 8.16" sont trois manières différentes d'énoncer
le même théorème

Démonstration : Il est facile de vérifier que les valeurs propres d'un endomorphisme
autoadjoint sont toutes réelles. Soit x ^ 0 tel que f(x) Xx. On a = :

(f(x)\x)= (À*|z) =
Â||;r||2
et d'autre part :

(f(x)\x) =
(x\f(x)) =
{x\\x)=\\\x\\2
d'où : A =
A.
286 Espaces hermitien;

2. et 3. viennent du théorème suivant, beaucoup plus général, concernant ce que l'on


appelle les endormophismes «normaux».

Définition 8.17 -

Un endomorphisme f d'un espace hermitien est dit normal si :

f*of =
fof*
Une matrice A G A4n(C) est dite normale si AA A1 A.
l
: =

Il est clair que les matrices normales sont les matrices qui représentent les endomor-
phismes normaux dans une base orthonormee.
En particulier sont normales :

les matrices symétriques réelles,


les matrices antisymétriques réelles,
les matrices hermitiennes,
les matrices orthogonales,
les matrices unitaires,
mais aussi d'autres matrices, exemple

*-(i-ï)
comme par :

REMARQUE. La propriété /*o/ =


/o/* est équivalente à

</(*)l/(y)> =
(fWIffe)), Vx,y€E

Le théorème suivant affirme que tout endomorphisme normal (et donc toute matrice

normale) est diagonalisable (les valeurs propres, sauf dans le cas hermitien, ne sont

pas forcement réelles).


Théorème 8.18 Soit f un endomorphisme normal d'un espace hermitien.
-

Alors f est diagonalisable et les sous-espaces propres sont deux à deux orthogonaux (en
particulier on peut construire une base orthonormee de vecteurs propres en prenant
une base orthonormee dans chaque espace propre).

Ou, en termes de matrices :

Toute matrice normale est diagonalisable dans C et les espaces propres sont deux à
deux orthogonaux pour le produit scalaire hermitien canonique de Cn.
Ou encore :

Soit A une matrice normale. Il existe alors une matrice unitaire U, telle que la matrice
A' =l UAU soit diagonale (non nécessairement réelle).
Démonstration : Par récurrence sur n =
dimE.
Pour n =
n'y a rien à démontrer. Supposons le théorème vrai jusqu'à
1 il l'ordre n 1

et montrons qu'il est vrai à l'ordre n.


Soit À une valeur propre, E\ l'espace propre correspondant ; on a :

E =
EX@E£
Notons que dimE^ < n —

1.
La démonstration suit les étapes de la démonstration du théorème 7.38. On montre
d'abord que E^ est stable par /, puis que la restriction de / à E^ est un

endomorphisme normal.
Exercices 287

a) E\ est stable par /.


Notons d'abord que E\ est stable par /*. En effet, soit x G E\. On a : fof*(x) =

/* °
/0e) =
^f*(x), ce q^ montre que f*(x) GE\.
Soit maintenant y G ^. On a, pour tout x e. E\ :

(f(y)\x) =
(x\f*(y)) =
0, puisquey e Et etf*(x)e Ex-

ce qui veut dire que f(y) G E^ et que donc E^ est stable par /.

b) La restriction de / à E^ est un endomorphisme normal.

Notons tout d'abord que E^ est stable par f*. En effet, soit x G E^ ; pour tout
y G E\, on a :

(n*)\v) =
(x\f(y)) =
A<x|y>=0;
ce qui montre que f*(x) G E^ et que donc Ej^ est stable par /*.
Considérons maintenant l'identité (f(x) \ f(y )) =
(f*(x) \ f*(y)) (cf. remarque
page 286). Puisque, comme on vient de le voir, E^ est stable par / et par /*, on

(f(x)\f(y))\B±=(r(x)\r{V)) Vx,yeEt
ce qui montre que que la restriction de / à E^ est normale.

Le théorème se démontre maintenant facilement. E^ étant de dimension < n 1, la


restriction E^/ diagonalisable, d'après l'hypothèse de récurrence. Donc, E^
de / à est

est somme directe de sous-espaces propres de / qui sont, toujours d'après l'hypothèse
de récurrence, deux à deux orthogonaux. Comme les sous-espaces propres de / sont
des sous-espaces propres de /, et, par ailleurs, E Ex® E^ il est clair que E est =
,

somme directe de sous-espaces propres deux à deux orthogonaux. Le théorème est

démontré.

Le théorème 8.16 permet de démontrer un résultat analogue à celui de 7.39 page 254 :

Proposition 8.19 -

Soit h une forme hermitienne sur un espace vectoriel de


dimension finie sur C, {e^} une base de E et H —

M(h)ei. Alors h définit un produit


scalaire hermitien si et seulement si la matrice H a toutes ses valeurs propres
strictement positives.

La démonstration est analogue à celle de la proposition 7.39 et elle est laissée en

exercice.

Exercices 13. 14. 15.16.

EXERCICES

1 Vérifier que les applications suivantes sont antilinéaires :

a) f : C3 —> C b) f :Mn(C)—+ C_
{xi,X2,X3)t-^ x\+2xï-xz a Tr A
>
_ _
288 Espaces hermitiens

2 Les applications suivantes sont-elles des formes hermitiennes ?

a) /ii : C3 x C3 -> C définie par :

hi(x,y) =
xi yi -\-2>x2y2 + 2i x3 y3 + (2 + 3i)x~i y2 + (2 -

3i) x2 y\
+(1 -

5 i) x2 2/3 4- (1 + 5 i) x~3 y2
b) h2 :
>tn(C) x Mn(C)—> Ç_
Tr AS
(A,B)
' "

3 Montrer que si /i est une forme hermitienne et q(x) :=


h(x,x), alors :

h(x>y) =
\ [q(x + y) -

Q(x -y) -iq(x + iy) +iq(x- iy)\


(ce qui montre que h est déterminée par la connaissance de q).

4 Soit h la forme hermitienne sur C3 définie dans la base canonique {e*} par :

q{x) =
\xi\2 + 3 \x2\2 + 6 |#3|2 4- ix\ x2 —

ix\ x2 + 2ix2 X3

2ix3 x2.

S'agit-il d'un produit scalaire hermitien ?

5 Soit / un endomorphisme d'un espace hermitien. Montrer que

(f(x)\x) =
Ot ViGE^/ = 0.

6 Montrer que la forme hermitienne de l'exercice 2 b) est un produit scalaire hermitien.

Exprimer la norme de la matrice A en fonction de ses coefficients.

7 Soit 7i =
{matrices hermitiennes d'ordre 2 à trace nulle}. Montrer que 7i est un espace
vectoriel sur R. En donner une base.
Montrer que || A || : =
V—détA est une norme sur 7i.

8 On suppose C3 muni du produit scalaire hermitien de l'exercice 4.


1. Déterminer une base orthonormée.

2. Soit F le sous-espace vectoriel de C3 défini par x\ + ix2 = 0. Construire par la


méthode de Schmidt une base orthonormée de F.

9 Soit E l'espace vectoriel des fonctions polynômes de la variable réelle x, à coefficients

complexes (P : R —>
C), de degré < 2. On définit :

m =

Jo
f1 P(x)\2 dx

1. Montrer que q définit une structure d'espace hermitien.


2. Déterminer base orthonormée du sous-espace vectoriel F formé par les
une

polynômes P de la forme :

P =
2fjL- \ + 3ifix2 (A.jtiGC) .

10 Soit (E, ( | )) un espace hermitien et / G Endc(l£).


Soit À une valeur propre de / ; montrer que :

1. si /* =
f-1 alors |A| = 1 ;

2. si /* =
/ alors A G R ;

3. si f* =
—f alors À est un imaginaire pur ;

4. s'il existe un endomorphisme g de E tel que / =


g* o
g, alors A est un réel
positif ou nul.
Exercices 289

11 Déterminer toutes les matrices unitaires d'ordre 2 qui transforment le vecteur v\ =

(l \ ( \
-^ j ^ j
1 1 1+i
en ,le vecteur Wl =

l
-

. . .

12 Quaternions. Paramétrisation de SU(2, C) par la sphère unité de R4


On munit R3 du produit scalaire canonique, noté ( , ) et C2 du produit hermitien
canonique {z \ w) =
~z\ w\ + Z2W2. On note :

A={M €M2(C)\M* =
-M, TrM =
0}
(matrices antihermitiennes à trace nulle).
1. Montrer que A est peut être vu comme espace vectoriel de dimension 3 sur R et
que les trois matrices de M2(C) :

*-(; _°) '-(.; S) K<° »)


forment une base de cet espace.
Montrer que R4 est isomorphe à H :=
A®Vect^{I}, Vect^{I} désignant l'espace
vectoriel sur R engendré par la matrice / = _ 1 .H est dit représentation

matricielle du corps des quaternions (cf. Appendice A.l).


2. Soit AGSU(2,C).
(a) Montrer que les valeurs propres Ai, A2 de A sont complexes conjuguées et
en déduire que Tr A G R.

(b) A l'aide du théorème de Cayley-Hamilton, montrer que A* =


(TrA)I A.

A—^ (Tr A)

En déduire que la matrice M = I est antihermitienne et à trace


nulle, et que :

SU(2,C) C É~R4
(c) Montrer que si A G SU(2,C), alors A s'écrit d'une manière unique :

A =
x\ I + X2 X -f X3 J + X4 K

avec (#i, X2,£3,£4) G R4 tels que :

x\ + x\ + x\ + £4 = 1

13 | Soit E un espace hermitien. Montrer qu'un projecteur est orthogonal si et seulement


si il est autoadjoint.

14 1. On note H, l'ensemble des endomorphismes hermitiens (c'est-à-dire autoadjoints)


d'un espace hermitien et 7i+ l'ensemble des endomorphismes hermitiens dont les
valeurs propres sont dans R+.

(a) Montrer que : / G H ^=> (f(x) | x) G R, Vx G E.

(b) Montrer que : /G H+ <=> (f(x) | x) G R+ ,


Va; G E.

(c) Soit / G H+. Montrer que :


(f(x) | x) =
0 => x G Ker/.
2. (a) Soient /, g G 7^+. On dit que f<gsig —

fe H+. Montrer que si f < g,


alors :

Ker# C Ker/, Im/Clmp.


(b) Montrer que si /, p G ^+, alors : f + g e H+ et / < / + #. En déduire
que :

Im(/ + 0) =
Im/ + Im0 et Ker(/ + g) =
Ker/ n Ker^.

15 Soit A G .Mn(R) antisymétrique.


290 Espaces hermitiens

1. Montrer que B = iA est hermitienne ; en déduire que toutes les valeurs propres
de A sont imaginaires pures.

2. En utilisant le fait que A est normale, montrer le résultat suivant :

Toute matrice antisymétrique réelle est de rang pair.

16 (cf. exercice 28 du chapitre 7).


Soit Ae 0{n,R).
1. Montrer que A est diagonalisable dans une base orthonormé de Cn et que

2. Soit B' =
{wi, wî, ...

wPiw^, u\,..., ur, v±,..., vs} une base orthonormée de Cn


formée de vecteurs propres correspondants au spectre ci-dessus. On considère la
famille B' {w^,... , it^©? uit
=
>^r> vi,.. .vs}, où :

T7^^Wl+Wl^ %
=
1

1 i
W'3 -=(W2+Wï)y WlA —7^(w2 -W2)
= =

V2 x/2V
Montrer qu'il s'agit d'une base orthonormée de Rn et que la matrice de / dans
cette base B' est

cos #i —

sin 0i

sin $i cos 0i

M{fh

INDICATIONS

| 1
| Simple
des vérifications

I 2 /i : non (elle ne vérifie pas la propriété de symétrie hermitienne.)


h '- oui

3 Exprimer le second membre à l'aide de h, par exemple :


Exercices 291

q (x + y) =
h(x + y ,
x + y) =
h(x, x) + h(x, y ) + h(y, x) + h(y, y )
etc.

|T~~| q{x) =
\x1+ix2\2 + 2\x2-ix3\2 +4\x3\2.

5 Développer {f(y + z) \ y + z) et (f(y + iz) \ y + iz) et en déduire que :

1
m;i;
</(»)!*> +< </(*)|y> =o Vj,,*eJS
'
-i

6 Soit {^ij} la base canonique de Mn(C). Si A =

(xijj =
Y^i j=i XijEij et S =

(î/tf) =
£"i=i Vij Eij ,
on a :

h(j4, £) =
an yii + X12 2/12 H h ïnn 2/nn =
Z)£j = l ^ij î/»i

Il s'agit donc du produit scalaire hermitien associé à la base {Eij} (cf. exemple 2. page
275)

MIN E l*yl2

[7] A e « <= A
( Xz X2-XT )
=

x2
avec *i.^'*3 e E

^A=a:i(J -Î)+X2(ï S)+a:3(-* o)


Les trois matrices mises en évidence forment une base de H. On a :

|| A ||= V-détA =

yjx\ + œ§ + a;§.
Il s'agit donc de la norme associée au produit scalaire euclidien :
(x, y) >-»
x\ y\ +
#2 2/2 + #3 2/3-

I 8 I 1. En appliquant la méthode de Schmidt à la base canonique de C3, on trouve la

ei=G) e2=M 0 —K?1


base orthonormée

f°\ (i
2. Une base de F est, par exemple, {i>i,i>2} avec ^1=1 0 et V2 =
I i ] En

V \o
.

i
/
appliquant le procédé de Schmidt, on trouve la base orthonormée de F :

i i ( 3

H 1. La forme hermitienne est :

h(P,Q)= f
Jo
P{x)Q(x)dx

2. Une base de F est, par exemple : {v\ 1 =


, i>2 = 2 + 3z#2}. En appliquant la
méthode de Schmidt à cette base, on trouve la base orthonormée
a/5
{ei =
l, e2 =
-V(-l + 3x2)}.
292 Espaces hermitiens

10 1. H x ||» =
</*o/(*)|x> =
</(*)|/(*)> =
|A|2IMI2
2. 3. démonstrations analogues.
4
, llgMIl3

0|
11 Choisir un vecteur V2 tel que {^1,^2} soit une base orthonormée ; l'image de V2 doit

appartenir à Vect{w\}-L et être normée. Revenir ensuite à la base canonique de C2.


Par exemple, en prenant V2 =
-y= ( -, ) ,
on doit avoir f(v2) =
W2 —

-j= ( _- )
avec ip G R . On trouve :

1
( l-±±+é«
V2
±^+ie*\
\/2
'

A =

\ V2 y/2 J
1. Les matrices A G A sont les matrices de la forme
12

i*)=xX+yj
/ ix V +
+ zK;
\ -y +iz -ix
J
avec x, y, z G R. Ce qui montre que la famille {Z, J, JC} engendre A. Puisqu'elle
est R—libre elle est une base de A.
On a
Vectuj/} D A =
{0}, donc Vect^j/} et A sont en somme directe et
dim A © VectK{/} = 4. Aussi R4 est isomorphe à H A © Vecti{/}. On peut =

construire un isomorphisme canonique -0, en imposant que l'image par ip de la


base canonique de R4 est {/, X, J% JC} et en prolongeant par linéarité.

2. (a) Puisque A est unitaire, |Ài| |A21 1 (cf. exercice 10, 1). D'autre part
= =

détA =
1, donc Ai A2 1, d'où : À2 =
Ai et par conséquent : Tr A = =

Ai + A2 G R.

(b) On a : PA(X) X2 Tr(A) X + dét A


=
1, d'où : A2-(Tr A) A+I Q.
-
= =

Multiplier à gauche par A*.


On a : Tr(M) 0 et, par ailleurs, M*
= A*
^ i, car TV A G R, d'où = -

M* = -M.
Pour toute A G SU(2, C), on peut écrire : A =
{A -

^) + ^^.
(c) Soit A G SU(2,C). D'après 2. b) et 1., on peut écrire A =
xi I + x2T +
xzJ + x± JC. La condition A* A = I est équivalente à x2 + X2 + x2-\-x2 = 1.

13 Même démonstration que pour l'exercice 16 du chapitre 7.

[71] 1. (a) Si
donc
/W, on a </(œ) | x>
G (x | /(*)> D'autre part (x | /(a:))
=
(/(*) | a;),
(f(x) | x) G R pour tout x G E. Réciproquement, on suppose que
-

(f(x) | x) G R pour tout rc G £. En développant, comme dans l'exercice 5,


(f(y + 2) I y + z) et (/(?/ + iz) | y + iz), montrer que :
<f(v)\z) + (f(z)\y)€R et (f(y)\z)-(f(z)\y)eiR
En déduire que

(f(z)\y) + (f(y)\z) =
(V\f(z)) + (z\f(y))
(f(z) \y)- (f(y) |z> = -

{y |/(*)> + (z|/(y)>
et que / G ft.

(b) Si (/(x) | x) G .R+ pour tout x G #, alors pour v vecteur propre de / :

{f(v) 1t>) G #+, c'est-à-dire (Ai> |t;) G R+, d'où A G R+, compte tenu du fait
que A est réel.
Si / G H+, considérer une base orthonormée {t>i,..., vn} de vecteurs propres.
Calculer (f(x) \x) en décomposant # sur cette base.
(c) En décomposant x sur une base orthonormeé de vecteurs propres, x =

E?=i *i*>i, on a :
(f(x)\x) =
£?=i |^|2A, 0. Or / G tt+, donc,
=

pour tout 2, Ai > 0 et par conséquent A;£i = 0 pour tout i. On a donc :

/(*) =
E?=i **A^ = 0.

2. (a) Soit ce G Kerg. Puisque G 7Y+, on a : ((#


g

f f)(x) \x) > 0, d'où : —

0 =
(g(x)\x) > (f(x)\x) (car / G W+), donc (/(x) | x)
> 0 0, ce qui =

implique x G Ker/, d'après l.(c), donc Kerg C Ker/.


Pour montrer la propriété sur les images, utiliser l'identité (Ker/)-1 =

Im/*, qui démontre de la même manière que la


se propriété analogue de
l'exercice 21 du chapitre 7.

(b) Utiliser l.(b) / + g G H+ et / < / + g.


pour montrer que
Puisque / < / Im/ C Im(/ + g), d'après 2. (a). De même lmg C
+ <?,
Im(/ + p), d'où Im/ + lmg C Im(/ + g). L'inclusion inverse est toujours
vraie.
Même démonstration pour l'égalité sur les noyaux.

1. Utiliser le fait que valeurs propres d'une matrice hermitienne sont réelles.

2. Puisque A est réelle, si A est valeur propre, A est aussi valeur propre. Compte
tenu de 1, les valeurs propres non nulles sont en nombre pair. Puisque A est
diagonalisable (dans C), rgA nombre des valeurs propres non nulles de A.
=

1. A est normale, donc diagonalisable dans C, dans une base orhonormée (cf. Théorème
8.18). Ses valeurs propres sont de module 1 (cf. Remarque page 284). Puisque A
est réelle, ses valeurs propres non réelles sont complexes conjuguées (cf exercice

7, chapitre 6).
2. Simple vérification. Par exemple, calculons le premier bloc. On a :

w\—iwL w\ -\-iwL
w\ w\ —A———-. Donc
_

:
_

y/2 y/2
——-=—-,
= =

Aw[ =^(Aw1+Am)=^(eiew1+e-i9wï)
y 2 V 2
= -

^ L
UU\w,1 -

iw'2) +
e-ie(w[+iw/2)] -J

ei9 j_ o—i0 0iQ o—i0


= % = cosv w-L+smO w2

ce qui donne la première colonne. De même on trouve Aw2 = —

sin 9 w[ +cos 6 w'2.


Chapitre 9

Formes bilinéaires et formes quadratiques

Le cadre de la théorie de la Relativité restreinte est l'espace vectoriel R4 dans lequel le


produit scalaire est remplacé par la forme bilinéaire

/ : R4 x R4 — R

définie par :

f(x, y) =
xiyi + £22/2 + x3y3
-

x±y±

On voit immédiatement que / n'est pas définie positive, car l'expression

/(#, x) =
x1 + x2 + x3

x4

peut être positive, négative ou même nulle.


Ils'agit là d'une généralisation
produit scalaire et l'on doit s'attendre à ce que certaines
du

propriétés non. Par exemple, il peut exister des vecteurs non


soient conservées et d'autres
nuls à "norme nulle" ; on ne peut pas, a priori, normaliser une base orthogonale (on

risquerait de diviser par 0...). La notion d'orthogonalité devient, en général, plus délicate à
manier (noter, par exemple, qu'un vecteur de "norme nulle", c'est-à-dire tel que f(x,x) 0 =

est orthogonal à lui-même) ; le groupe orthogonal c'est-à-dire l'anologue du groupe des


-

isométries vectorielles -

a, bien entendu un aspect différent (dans le cas de la Relativité on

trouve, au lieu des rotations et des symétries, ce que l'on appelle les «transformations de
Lorentz» (cf. exercice 26), etc.

Le but de ce chapitre est d'étudier les formes bilinéaires dans ce contexte général où elles
ne sont pas nécessairement définies positives. L'intérêt ressort, entre autres, de l'exemple
ci-dessus : l'application à la théorie de la Relativité.

9.1 Rang et noyau d'une forme bilinéaire

Rappelons (cf. Définition 7.2) qu'une forme bilinéaire sur un espace vectoriel E sur

K est une application b : E x E —> K qui est linéaire dans les deux arguments.

Commençons par considérer le cas où E est de dimension finie. Si {e;} est une base
de E, on note :

/ 6(ei,ei) ...
b(euen) \
b =
M(b)ei =
: ;
\ b(en,e1) ...

b(e ru Cn) /

W5
296 Formes bilinéaires et formes quadratiques

la matrice de b dans la base{e;} (cf. définition 7.11 page 233). Rappelons que si
X M{x)ei
=
M(y)Ci, bfay) =l XBY.
et Y = on a :

Comme nous l'avons vu (cf. page 235), si {e^} est une autre base, B' M(b)et et =

P =

Pei_>ej, on a : B' lPBP et, puisque P est inversible : rgB'


= =
rgB '(cf.
chapitre 3, exercice 8). On peut donc poser la définition suivante :

Définition 9.1 -

Soit b une forme bilinéaire sur un espace vectoriel E de


dimension finie. On appelle rang de b le rang de la matrice qui représente b dans une base
(quelconque) :

ig(b)=vgM(b)ei
b est dite non dégénérée si le rang de b est maximum (c'est-à-dire :
rg(&) =
n =

dim E). On a donc :

b est non dégénérée dét M(6)c, ^ 0


{embase quelconque.

On notera que le déterminant de M(b)ei dépend du choix de la base. On a en effet dét B' =

(dét P)2dét B. Cependant, comme dét P / 0, on a dét B' ^ 0 si et seulement si dét B ^ 0 ; donc le

fait que le déterminant soit nul ou non ne dépend pas du choix de la base.

Exemple 1 -

Tout produit scalaire est non dégénéré. En effet, si {e*} est une base
orthonormée :

1 ...
0
'

M((,»ei=

donc rg ( , ) = n.

Exemple 2 La forme bilinéaire de la Relativité, dite forme de Lorentz,


-

est aussi non

dégénérée, car dans la base canonique de E4, on a :

/1 0 0 0
0 1 0 0
M(/k =

0 0 1 0

\o 0 0 -1

donc rg / = 4.

Exemple 3 -

Soit b : R3 x M3 — R qui dans la base canonique est définie par :

b(x,y) =
zi 2/i -3^3 2/3 + Z12/2 -hx2yi -xiy3 -x^yi -

3 z3 2/2 -

3 x2 2/3

On a :

-1

M(b)ei =
-3

-1 -3 -3

dét M(b)ei =
0, donc s est dégénérée. D'autre part le mineur encadré est non nul, donc
rgs = 2.

NOTA. —

Le rang d'une forme bilinéaire b : E x E —> K n'est pas la dimension de Im b (qui


d'ailleurs, étant incluse dans K ne pourrait être que de dimension 0 ou 1).
9.1 Rang et noyau d'une forme bilinéaire 297

On peut cependant interpréter le rang d'une forme bilinéaire comme la dimension de l'image d'une
certaine application linéaire. Soit en effet b : E x E —> K une forme bilinéaire et j l'application :

j: E — E* où j(y): E — R
y '—>
j(y) x i—>
b(x,y)
En d'autres termes : j(y)(x) := b{x,y). Nous avons vu (cf. proposition 7.15 page 237) que si b est
un produit scalaire j est un isomorphisme d'espace vectoriel.

Proposition 9.2 -

Soit {e*} une base de E, {(fi} la base de E* duale de {ei}. On a :

M(j)eitVj =M(b)ei
Eneffet'SOit /au \

M(j)euiPj=\\j(ei)i...j(en)\\iPi=i
au aln
...

: : :

\ ani ani ann /


>

La i-ème colonne est costituée par les composantes de j(ei) dans la base {^e,}- On a donc, d'après
l'expression de la matrice : j(e.i) ampi + + annpn , donc : =

3{ei){ek) =
aii^i(efc) H h a>kiVk{e-k) H h Q"ni<Pn(ek) =
Q>ki

car ^j(efc) =
6^^. D'autre part, d'après la définition de b :

j(ei)(ek) =
b(ekiei) =
bki
donc:
M(j)eit<Pj =
M(b)ei
Ainsi le rang de b est égal au rang de j (au sens de la définition 3.3), c'est-à-dire égal à la dimension

de Imj.

La proposition 9.2 justifie la définition suivante, qui est valable même si E n'est pas
de dimension finie :

Définition 9.3 -

Soit E un espace vectoriel sur K (non nécessairement de dimension


finie) et b : E x E —> K une forme bilinéaire.

1. On appelle rang de b le rang de Vapplication j :E—> E*


y *-^H-ty)
.

2. On appelle noyau de b
-

noté N(b) -

le noyau de l'application j, c'est-à-dire :

N(b) :={yeE\ b{x,y) =


0 ,
Va: G E }
S. b est dite non dégénérée si j est injective, c'est-à-dire si :
N(b) =
0, ou en
d'autres termes, si :

b(x, y) =
0,\/xeE =^y =
0

De la proposition 9.2 on déduit :

Proposition 9.4 -

Soit E un espace vectoriel de dimension finie et b une forme


bilinéaire sur E. Alors :

1. Le noyau de b est le noyau de la matrice qui représente b (dans une base

quelconque).

2. dim E =
rg b + dim N(b).
298 Formes bilinéaires et formes quadratiques

Remarques. -

1. Bien que le noyau d'une forme bilinéaire se calcule comme le noyau de la matrice de b, la
significationn'est pas la même. En particulier le noyau de b n'est pas l'ensemble
{(x,y) ç
E X E | b(x,y) 0} (cet ensemble d'ailleurs n'est même pas un espace vectoriel).
=

2. Ne pas confondre N{b) avec l'ensemble

N(b) =

{xeE\b(x,y) =
0,
WyeE}
qui est le noyau de la transposée de la matrice de b. En effet, en utilisant les notations
matricielles :

xeN(b) <^=> tXBY =


o, vy eMn,i(K) <=> tXB = o <=> tBX =
o
<=> XeKe^B.

N(b) est dit noyau à gauche de b.

Il est clair que si b est symétrique, ce qui sera le cas dans la suite, alors N(b) =
N(b)

Exemple 1 -

Bien entendu, pour un produit scalaire, comme pour toute forme non dégénérée, le noyau
est réduit à {0}.

Exemple 2 -

Soit b la forme bilinéaire de l'exemple 3 ci-dessus (cf page 296). On peut écrire :

Hx> y) =
(î/i + 2/2 -

yz) xi + (yi -

3y3) x2 + {-y\ -

Sy2 -

3y3) x3

donc y G N(b) si et seulement si :

{î/i
+ î/2
-

2/3 =0
yi -3y3 =0
-2/i -3y2 3y3 -

=0

En résolvant, on trouve : y\ —
3 À, y2 = —

2 A, y3 =
A ; donc iV(6) est engendré par le

vecteur y =
I —2

V
.

1/
On aurait pu déterminer directement N(b) à l'aide de la matrice de b :

/ 1 1 -i\
B 1 0-3

V ;
=

-1 -3 -3

donc le noyau est donné justement par le système ci-dessus.

Exercices 1. 2. 3.
9.2 Formes bilinéaires symétriques et formes quadratiques en dimension finie 299

9.2 Formes bilinéaires symétriques et formes quadratiques en

dimension finie

Par la suite nous nous intéressons aux formes bilinéaires s qui sont symétriques, c'est-
à-dire telles que : s(x>y) s(y\x), Vx,y G E. =

Il est clair que si E est de dimension finie, une forme bilinéaire s est symétrique si et
seulement si la matrice de s (dans une base quelconque) est symétrique.
L'étude des formes bilinéaires symétriques est facilitée par l'introduction de la notion
de forme quadratique.

Définition 9.5 -

Soit E un espace vectoriel de dimension finie sur K. Une


application q : E K est dite forme quadratique sur E si, étant donnée une base {e^}, q(x)

est un polynôme homogène de degré 2 en les composantes xi de x dans la base {e^}.


Par exemple l'application q : R3 — R définie par

q(x) =
2 x\ -

3 x\ + 3 x\ + 2 x\ X2 -

3 x\ xs + 5 X2 x%

(où les Xi sont les composantes de x dans la base canonique) est une forme
quadratique.

Naturellement, pour que cette définition ait un sens, il faut vérifier que le fait d'être un
polynôme homogène de degré 2 ne dépend pas du choix de la base. La vérification est
facile. Soient {e*} et {e£} deux bases de E et x =
X)fe=i xk£k =
X^Li x'% e'% un vecteur de
E. Supposons que :
n

qyx j y
a%j x% Xj.
^=

i,j=\
Il s'agit de montrer qu'il existe des a'^ G K tels que : q{x) =

Y17j=i aij xi x'r


Soit P =
Pei—e'. —

[Pik) la matrice de passage : e'i =


Xwb=iPfc* efc- ^n a :

^ X'i e'i Yl
n n

X = =
X>i Pki Xk
i=l i,k=l

Puisque x =
Y^k=i Xk efe' on a Xk ~

Y^i=iPki x'% (cf. proposition 3.25 page 77), donc


n

^2 ^2 UkiPkix'iPijXj
n

v(x) =
akixkxi=
k,l=l i,j,fc,i=l

££j=i ( ^2 aM pkipiî
)x* x'o= ^Ij=i a^'x>i x'o

La définition de forme quadratique ne dépend donc pas du choix de la base.

Nous allons montrer maintenant qu'il existe une correspondance bijective entre les

formes bilinéaires symétriques et les formes quadratiques.


Considérons une forme bilinéaire symétrique s sur E et soit l'application q : E — K
définie par q(x) =
s(x) x). Il est facile de voir que q est une forme quadratique.
En effet si {e;} est une base de E et x Yn=i xï e*> V Vu ej > on a :
= =

Sj=i

^2 Oij Xi yj
n

s(x, y) = =
an x\ yi H h ann xn yn + ai2 xi y<i+

+a2i x2 y\ H Y Oij Xi yj + a^ Xj yi H
300 Formes bilinéaires et formes quadratiques

(avec dij
=
dji) et donc :

q{x) =
s(x, x) =
a\\x\ H h annx2n + 2 a\iX\X2 H h 2 aijXiXj H

qui est un polynôme homogène de degré 2 en les Xi. Donc q est une forme quadratique.

Par exemple, si :

s(x, y) =
xi 2/1
-

3 X3 2/3 + #12/2 + #2 2/1 5 xi 2/3 5 £3 2/1 + 3 £3 2/2 + 3 £2 2/3


- -

On a :

q(x) =
x\ —

3 x\ + 2 £1 £2 -

10 £1 £3 + 6 £2 £3-

Réciproquement1, à toute forme quadratique q est associée une unique forme


bilinéaire symétrique s telle que s(x,x) =
q(x), Vx £ E. Soit en effet {e^} une base de
E et

q(x) =
a\\x\ H h annx^ + ai2XiX2 H h aijXiXj H

Il suffit d'appliquer ce que l'on appelle la règle de dédoublement des carrés (dite aussi
opération de polarisation) :

aux termes "carrés" auxf on associe auXiyi

aux termes "rectangles" aij Xi Xj\ (avec i^j) on associe -a^- Xi yj + -a^- a?j y^.

Il est clair que l'on obtient ainsi une forme bilinéaire symétrique 5 telle que s(x, x) =

q(x) Vx e E.
D'autre part, il ne peut exister qu'une seule forme bilinéaire symétrique s telle que
s(x,x) q(x) \/x G E En effet, si 5 est une telle forme, on a
=
. :

q(x + y) s(x + y, x + y) s(x, x) + s(x, y) + s(y, x) + s(y, y)


q(x)+2s(x,y)+q(y)
= =

donc nécessairement :

s(x, y) = -

[q(x + y) -

q(x) -

q(y)] ,

ce qui montre que s est parfaitement déterminée par la connaissance de q.

Nous avons ainsi démontré :

Proposition 9.6 -

1. Soit E un espace vectoriel de dimension finie sur K et s : E x E —> K une

forme bilinéaire symétrique. Alors l'application q : E — K définie par :

q(x) =
s{x,x)

est une forme quadratique sur E.

1Les considérations qui suivent ne sont valables que pour les corps K de caractéristique ^ 2,
c'est-à-dire 1^ + lx/ 0, \k étant le neutre de la multiplication C'est le cas bien entendu, de R et
de C. En revanche Z/2Z est de caractéristique 2.
9.3 Définition de forme quadratique en dimension infinie 301

2. Réciproquement, soit q : E —> K une forme quadratique sur E (K étant de


caractéristique différente de 2), il existe alors une et une seule forme bilinéaire
symétrique s : E x E K telle que s(x) x) q(x) Vx G E. s est donnée
—> =
,

par :

s(x> y) =

ô Hx + y)~ q(x) -

^y)]
S est dite forme polaire de q.

Exemple -

Soit q : E3 — M définie dans la base canonique par :

q(x) =
3 x\ + 2 x\ —

x\ + 5 x\ X2 —

6 #i £3 + 7 £2 #3

En polarisant on obtient :

5 5 7 7
s(x, y) =
3 xi 2/1 + 2 £2 2/2 -

x3 2/3 + x xi 2/2 4- -

x2 2/1
-

3 xi 2/3
-

3 x3 2/1 + «
X2 2/3 + ô ^3 ^2

Remarques
1. Si s est un produit scalaire, q(x) =\\ x
||2. ç(x) joue donc le même rôle que le carré de la norme

pour le produit scalaire.


2. Puisqu'une forme quadratique est un polynôme homogène de degré 2 en les composantes de
x, il est clair que l'on a :

q(Xx) =
X2q(x), \/xeE,\/\eK

(on exprime cette propriété en disant que q est une application homogène de degré 2).
Il ne faut pas croire, cependant, que toute application homogène de degré 2 soit une forme
quadratique. Par exemple l'application q : R2 —> M définie par :

g{x)JXJ02 -* =
(.i,*) * (o,o)

[0 si x =
(0, 0)
est homogène de degré 2, mais elle n'est pas un polynôme en les xi (cf. exercice 6).

Exercices 4. 5. 6.

9.3 Définition de forme quadratique en dimension infinie

La définition 9.5 n'est valable qu'en dimension finie. Cependant la proposition 9.6 suggère
la définition suivante :

Définition 9.7 Soit E un espace vectoriel sur K (non nécessairement de dimension finie).
Une application q : E —> K est dite forme quadratique s'il existe une application bilinéaire
symétrique s : E x E —>
K, telle que :
s(x,x) =
q(x).
Dans ce cas 2, s est donnée par :

s(x,y) =

^ [<?(* + y)- <i(x) -

q(v)\
s est dite forme polaire de q.

2Ceci n'est valable que si la caractéristique de K est différente de 2.


302 Formes bilinéaires et formes quadratiques

Ainsi, pour montrer qu'une application q : E — K est une forme quadratique il faut
montrer que :

1. que l'application s définie par s(x,y) :=


\ [g(x + y) -

q(x) -

g(y)] est une forme


bilinéaire ;
2. que s(x,x) =
q{x).
Exemple
-

Soit q :
R[x] — M définie par :
q(P) =
f* P(x)2 dx. On a :

s(P,Q) =±[q(P Q)-q(P)-q(Q)]dx


+

=
\ [lo (^) 0W)2d« /o P(*)2*° + " ~

lo Q(x)2dx]
=
flQP{x)Q{x)dx
En vertu de la linéarité de l'intégrale, s est une forme bilinéaire symétrique. Puisque
s(P,P) =
q(P)y q est une forme quadratique.

Exercice 7.

9.4 Rang, Noyau et vecteurs isotropes


d'une forme quadratique

Puisque la donnée d'une forme bilinéaire symétrique est équivalente à la donnée d'une
forme quadratique, les définitions sur les formes bilinéaires symétriques se
transportent sur les formes quadratiques.

Définition 9.8 -

On appelle rang, noyau, matrice d'une forme quadratique q, le rang,


le noyau, la matrice de la forme polaire associée à q.
q est dite non dégénérée si sa forme polaire s est non dégénérée, c'est-à-dire si N(s) =

{0}, ce qui signifie :

s(x,y) =
0,\/yeE =>x =
0.

Si q est une forme quadratique à valeurs réelles, q est dite définie positive si sa forme
polaire est définie positive, c'est-à-dire si

q(x) >0,Vx€E et q(x) =


0 <=> x =
0.3

Plus généralement, q est dite définie si


q(x) =
0 ^=> x =
0

Remarque. -

1. Une forme quadratique définie positive est nécessairement non dégénérée.


En effet si x est tel que s(x,y) =
0, Vy G E ; on a en particulier s{xix) =
0,
c'est-à-dire q(x) =
0, donc x =
0.

2. Le noyau N(q) de q n'est pas l'ensemble des vecteurs x tels que q(x) 0, mais =

l'ensemble N(q) := {x G E | s(xiy) 0, \/y G E}. Les vecteurs x tels que q(x) 0
= =

sont dits isotropes. Les formes quadratiques définies sont donc les formes quadratiques
dont le seul vecteur isotrope est le vecteur nul.

3q est ditedéfinie négative si q(x) < 0, \fx G E et q(x) =


0 <é=^ x = 0. Il est clair que q est
définie négative si et seulement si —q est définie positive
9.4 Rang, Noyau et vecteurs isotropes d'une forme quadratique 303

Exemple -

Soit q : E3 —> R la forme quadratique définie dans la base canonique par :

q(x) = 4 xj + 3 x% + 5 x\ x2 —

3 x\ x% + 8 xi X3

on a :
/ 4 5/2 -3/2 \
M(q)ei 5/2 +3 4

V
=

-3/2 4 0 /
(attention à diviser par 2 les coefficients des termes rectangles). q est non dégénérée car
dét M(q)ei ^ 0. D'autre part, q{es) s(e3, es) 0, c'est-à-dire ez est isotrope (cf. dernier
= =

coefficient de la matrice), donc q n'est pas définie.

Définition 9.9 -

Soit q une forme quadratique sur E. On appelle cône isotrope


l'ensemble X(q) défini par :

I(q):={xeE\q(x)=0}.
Notons que X(q) n'est pas un espace vectoriel, mais justement un «cône» c'est-à-dire
un sous-ensemble de vecteurs C tel que si x G C, alors Xx G C, VA G K.

Exemple 1 Soit E =
E2 et q(x) =
x\ x\. On a :

[(xux2) ±x2)
-

X{q) =
G R2 | xi =
(cf. Fig. 1)

Exemple 2 Soit E = R3 et ç(x) =


x\+x\- x\. On a :

{(xux2,x3) xAa+z2,}
-

Tfa) =
G M3 | x3 = ± (cf. Fig. 2)
Notons dans
que ces deux exemples -/V(ç) =
0 (c'est-à-dire q est non dégénérée).

£3
A

£2 I

Figure 1 Figure 2

Propriété 9.10

N(q)Gl(q)

En effet si x G N(q) on a s(x,y) =


0, \/y £ E ; donc en particulier s(#, x) =
0
c'est-à-dire q(x) =
0.
304 Formes bilinéaires et formes quadratiques

Résumons ici, pour la commodité du lecteur, les définitions principales :

{
q(x) =
s(x,x)
Si s est la forme polaire de q
*(*>î/) te(^ y) ^(^) ^(2/)]
^ 1
+
.

=
2
— —

Noyau :
N(q) =
{y G E \ s(x,y) =
0, Vx G £}

Cône isotrope :
X(g) =
{a; G S | g(#) =
0}

Wfo) C J((Z)

q est dite non dégénérée si N(q) =


0

q est définie si <?(#) = 0 4=^> £ =


0 c'est-à-dire si l(q) =
{0}
g (à valeurs réelles) est dite définie positive si :
g(#) > 0 et q(x) =
0 => x =
0

En dimension finie : dim E =


dim N(q) + rg (g)

Exercices 8. 9.

9.5 Bases orthogonales. Réduction des formes quadratiques.


Dans les paragraphes qui suivent nous allons nous occuper du problème de la réduction
des formes quadratiques, c'est-à-dire de la recherche de bases qui permettent d'en
simplifier l'écriture.
Définition 9.11 -

Une base {e^} de E est dite orthogonale pour la forme bilinéaire


symétrique s si : s
(e^, ej) =
0, ; Vz ^ j. Elle est dite orthonormée si : s (e^, ej) ôij = .

REMARQUE. -

En dimension finie, {e*} est une base orthogonale si et seulement si :

/ai 0 \

M(<l)ei *-. où : ai s(ei,ei) q{ei)


J
= = =
»

V 0 an

ou encore, d'une manière équivalente, si et seulement si :

q(x) =
ai x\ H Vanxn (où x =

^xia) (*)

Notons que le rang de q est le nombre des ai non nuls, ou encore le nombre des carrés
dans Pexpression (*).

De même {e*} est une base orthonormée si et seulement si :

/1 0

M{q)ei=\
et seulement
V 0 1
aussi,
. . .

ou si si :

q(x) =
xl-i + xi (x =
X)?=i Xid)
9.5 Bases orthogonales. Réduction des formes quadratiques. 305

Notons en particulier orthonormée, nécessairement q est de rang n


que s'il existe une base

( c'est-à-dire elle est dégénérée). particulier, dans le cas où q est à valeurs réelles,
non En
il existe une base orthonormée si et seulement si q est déûnie positive, c'est-à-dire sa
forme polaire est un produit scalaire.

Chercher une base orthogonale revient donc à déterminer une base dans laquelle la
matrice de q est diagonale, ou aussi, à écrire q sous la forme d'une somme de termes
carrés.

REMARQUE. —

Il ne ce problème avec la diagonalisation des endo-


faut pas confondre

morphismes. Si endomorphisme, la diagonaliser signifie chercher une


A est la matrice d'un
matrice inversible P telle que P~1AP soit diagonale. Ici il s'agit de chercher une matrice
P telle que lPAP soit diagonale.

Comme on vient de le voir, il n'existe pas forcément de bases orthonormée, par exemple
si rang g < n. Le théorème suivant affirme que, en revanche, on peut toujours trouver
des bases orthogonales.

Théorème 9.12 Soit (E,q) un espace vectoriel de dimension finie, E ^ {0}, muni
-

d'une forme quadratique q. Il existe alors sur E des bases orthogonales pour q.
En d'autres termes, il existe toujours une base {ei} telle que, si x Yn=i Xi 6i> °^ors =

q(x) =
ai xi2 H \- ar xr2 (avec ai e K) où r =
rg q

ou, d'une manière équivalente :

( ai

M(q)ei

v o 0/

Démonstration : La démonstration, qui suit de près celle du théorème 7.6 (cf. page
228), se fait par récurrence sur la dimension n de E1.
Pour n = 1 il n'y a rien à démontrer. Supposons le théorème vrai à l'ordre n —

1 et
soit (E, q) un espace vectoriel de dimension n muni d'une forme quadratique.
-Si q =
0, le théorème est trivial : toutes les bases sont orthogonales.
-

Supposons q ^ 0 et raisonnons comme dans le théorème 7.6. Soit v G E, tel que


q(v) ^ 0 et posons :
F ={xeE | s(x, v) =
0}.
Il est facile de voir que F est un sous-espace vectoriel de E et que v £ F. En effet,
F =
Kercj, où lj est la forme linéaire définie par cj(x) s(x,v). Comme uj{v) = =

s(v,v) 7^ 0, uj n'est pas la forme nulle et donc dimKero; dimKerF n 1. D'autre = =

part v $. F, car s(v,v) ^ 0.

On en déduit que E Vect{î;} 0 F. Or, d'après l'hypothèse de récurrence, sur F


=

il existe des bases orthogonales. Si donc {i>2, ,t>n} est une base orthogonale de F
alors {v, V2) , vn} est une base orthogonale de E .
306 Formes bilinéaires et formes
quadratiques

9.6 Recherche d'une base orthogonale par la méthode de Gauss


une base orthogonale, la méthode de Schmidt (cf. page
Pour chercher 229) risque de
ne pas pouvoir s'appliquer. En effet, lors des calculs on est amené à diviser par q(sA
et ce scalaire peut être nul (c'est le cas où Si est isotrope).
Par exemple, soit q la forme quadratique sur M2 définie dans la base canonique {i>i,i>2} par
q(x) =
2rci a?2. Si on pose :

f 6i= Vi

\ £2 =
V2 + A -Ui

et on cherche À tel que s(ei, €2) =


0, c'est-à-dire s(yi>V2) + \s(viivi) =
0, on trouve l + À-0 =
0

C'est pourquoi, lorsque l'espace n'est pas euclidien, pour chercher une base
on utilise une autre méthode fondée sur la réduction en carrés de Gauss.
orthogonale

a) Réduction en carrés d'une forme quadratique


Nous avons déjà appris (cf. page 225) à écrire une forme quadratique q comme somme

de carrés de formes linéaires indépendantes, dans le cas où l'un au moins des termes
carrés est non nul. Cela est suffisant pour les espaces euclidiens, car dans ce cas tous
les termes carrés de q ont un coefficient strictement positif (cf. remarque page 224).
Nous nous proposons maintenant de réduire en carrés une forme quadratique qui ne
comporte que des termes rectangles, c'est-à-dire qui, dans une certaine base, s'écrit :

q[x) =
au xi x2 + ai3 xi x3 -\ \-a%kXiXk-\ h an_ijn xn-i xn.

Illustrons la méthode sur un exemple.


Soit q : R3 —> R la forme quadratique qui s'écrit dans la base canonique :

q(x) =
5 xi X2 + 6 xi X3 + 3 X2 X3

On choisit un terme rectangle à coefficient par exemple hx\X2


-

non nul kxiXj, avec k ^ 0,

On calcule les dérivées partielles q'Xi, q'x. q'Xl =


5 x2 + 6 x3
-

q'X2 =
5 xi + 3 x3

1 18
On écrit Q(x) =
r-(5z2 + 6£3)(5£i+3a:3)- ~irxl
1 0 5
q(x) + termes correctifs
,

tQxi Qx :
= '

terme

correctif

On aura une expression du type :


q(x) =
(5x2 + 6x3) (5xi + 3x3)
-
-

5^ " '

q(x) T<pi(x)(p2(x) + des termes


v v
= ne
K>
18
contenant ni x% ni Xj, où (pi et <^2 sont 2

deux formes linéaires (en fait ip\ =


qXii
<P2 =

q'Xj)- terme sans x\ et sans #2

On écrit le produit y>iy>2 sous la forme q(x) =


-—t(5zi H- 5x2 + 9x3)2
(pif (P2)2]
-

<pi<P2 \ [((pi + (<pi 1 ft


3x3)2
1
= ~ -

--—i(-5xi
5x4
+ 5x2 - -

—x3.
5
9.6 Recherche d'une base orthogonale par la méthode de Gauss 307

Si dans les termes correctifs on a un ter- Dans notre cas, q est la somme de carrés
me, carré, on continue comme à la page de formes linéaires :

225 ; s'il n'y a que des termes rectangles, 1


q(x' 2Ô^Xl + 5x2 + ^X3'
2

on recommence l'opération jusqu'à écrire


=

q comme une somme de carrés de formes


J_(5~ _i_ §x 3^ )2 —x2
linéaires. 20 5
_ _ _

Proposition 9.13 -

Les formes linéaires ainsi obtenues sont linéairement


indépendantes.

(Pour la démonstration : cf. exercice 11).

b) Recherche d'une base orthogonale


Pour chercher une base orthogonale on part de la remarque suivante. Soit

q(x) =
anx\ H h annx2n H h OijXiXj H

où x =
Y^i=\xiei- D'après le théorème 9.12 on peut trouver une base orthogonale
{vi}. Si {v{} est une base orthogonale et x x[vi H =
h xfnvn, on aura :

q(x) =
b\x\ H h bnx'n ,
avec 6» ='s(vi,Vi) =
q(vi),
c'est-à-dire :

/&! 0 \

M(q)Vi= ! -. i
V 0 bn )
Si X =

[ :
| =
M(x)ei et X' =
f : 1 =
M(x)Vii on a :

xn I
avec P =
Pei-^vi

c'est-à-dire, en notant kj les coefficients de la matrice P~1 :

x[ =
Inxi H \-hnXn ' =
<^iW

<Pi,...,ipn sont de formes linéaires indépendantes (puisque dét P^O).


On aura donc :

q(x) =
h (pi(x)2 + + bn ipn(x)2
Ainsi :

Si Von écrit q(x) sous la forme d'une combinaison linéaire de carrés de


formes linéaires <pi >.-. > (pn , les formes <^i,...,</?n sont les composantes de
x dans une base orthogonale.

Ceci suggère une méthode simple pour trouver une base orthogonale. Illustrons cela
sur un exemple.
308 Formes bilinéaires et formes
quadratiques

Exemple -

Soit q : R3 — M définie dans la base canonique {ei} par :

q(x) =
xl +3xl + 7xl + 2xiX2 + 8x2X3

La réduction de Gauss donne :

q(x) =
(Xl +x2)2 + 2 (x2 + 2x3)2 x\ -

=
(pi(x)2 + 2(f2(x)2 -y3(x)2
Posons :

( Xi
=
(x) =X\+X2
(fi

(*) l x'2 ip2{x) X2 + 2X3


— =

[ X3=lf3(x)=X3
xu x2i x'3 sont les composantes du vecteur x dans une base orthogonale {vi}.
Or X' = P^X a,vec P =
Pei-+Vi =|| vuv2iv3 \\ei donc X =
PX\ c'est-à-dire :

En résolvant le système (*) par rapport à xi, x2, x3 on obtient un système du


type X = PX'. Les colonnes de P sont les vecteurs de la base orthogonale.
Dans notre cas :

( xi =
x[ -x'2 + 2x3
X2 CC2

2 ^3 donc P =

{X3 =
x'3

Ainsi les vecteurs v± =


V2 =
v3 =
forment une base

orthogonale pour q.

REMARQUE -

D'après la remarque page 304, on a :

rg q = nombre de carrés dans i , réduction de Gauss.

Exercices 10. 11.

9.7 Classification des formes quadratiques


sur un espace vectoriel complexe
Théorème 9.14 Soit E un espace vectoriel de dimension n sur C (E est donc
-

isomorphe à Cn moyennant le choix d'une base) et q une forme quadratique sur E.


Il existe alors une base {ei} telle que si x =
Y^i=i xieï :

q(x) x\ + >

+ xl (r =
rgq)
c'est-à-dire
\
0

M(q)ei

o /
9.8 Classification des formes quadratiques sur un espace vectoriel réel.
Théorème de Sylvester 309

La démonstration est immédiate. Soit {ei} une base orthogonale et

q(x) =
ai y\ + Y ar y2T , pour x =
Y%=i Vi e*.

Comme ai G C, il existe À; G C tel que ai =


Xf ; donc :

g(x) =
(Aiy1)2 + ...

+ (Aryr)2.
En posant Xi =
Xi yi, on aura g(x) =
rcf H h #2 .

Corollaire 9.15 Pour une forme quadratique q sur un espace vectoriel de


-

dimension n sur C il existe une base orthonormée si et seulement si rgq n (c'est-à-dire —

si et seulement si q est non dégénérée).


Exercice 12.(2.)

9.8 Classification des formes quadratiques sur un espace


vectoriel réel. Théorème de Sylvester
Théorème de Sylvester 9.16 Soit E un espace vectoriel
. de dimension n sur M (
E est donc isomorphe à Rn moyennant le choix d'une base), et q une forme
quadratique sur E. Il existe alors une base {e*} de E telle que si x =
Ya=i xiei> on a :

q{x) x\
2 2
+ -f-
Xp %p+l
i _

c'est-à-dire :

(
0

M(q)ei

0
V o /
où r =
rang(g) et p est un entier qui ne dépend que de la forme quadratique q (et non

pas de la base). Le couple (p,r —

p), noté sign(ç), est dit signature de q.

Démonstration : Soit {e*} une base orthogonale. Si x =


XX=i ^e* on aura :

q(x) =
a\y\-\ h ar y2r (avec ai G R).
Supposons que ai,..., ap > 0 et ap+i,..., ar < 0.
On pourra écrire :

q{x) =
(^/ôïS/i)2 + + (v^S/p)2 ~

(\/-aP+i2/p+i)2 W-OrVr)
=
xl + + K

avec Xi =
y/âîyi (i =
1, -p) et -ajVj 0'=P+V >* )
310 Formes bilinéaires et formes quadratiques

Il reste à montrer que p ne dépend pas du choix de la base. Considérons deux bases
{e^} et {e^} telles que

q(x) =
x\ + -h x£
-

a£+1 x2 \x
=
Z^2=i xiei)

et g(z) =
y? + +$ y£+i y*
-

Soient
F =
Vect{ei,..., ep} F' =
Vect{ei,..., e'p,}
G =
Vect{ep+i,..., en} G' =

Vect{e£,+1,..., e'n}
On a :
x e F \ {0} => q(x) > 0, xGF'\{0} => q(x) > 0

x G G => q(x) < 0, xeG' => q(x) < 0

donc :

x G F D G' => x =
0 et, par conséquent, FnG' =
{0}
Ainsi F et G7 sont en somme directe. Puisque F 0 G1 c jE, on a :

dim F + dim G' < n

c'est-à-dire : p+ (n —

p') < n et donc : p <p'.


De la même manière on voit que F' D G =
{0} et donc p' <p. D

Corollaire 9.17 -

SW q une forme quadratique sur un espace vectoriel réel E de


dimension finie n. Alors :

q est définie positive <==> sign(g) =


(n, 0)
(c'est-à-dire E est euclidien) ^
il existe des bases orthonormées

q est définie négative <é=^> sign(g) =


(0, n)

q est non dégénérée <=ï sign(g) =


(p, n —

p)
(c'est-à-dire N(q) =
{0})
Exemple Déterminer
-

la signature de la forme quadratique : q : E3 —> R définie dans


la base canonique, par :

q(x) =
x\ + 2 x\ + 15 x\ —

4 x\ xi + 6 x\ £3 —

8 X2 £3

En appliquant la méthode de Gauss on trouve :

q(x) =
(xi
/2
-2£2H-3£3)2-2(£2-£3)2
/2 /2
+ 8xi
=Xi-X2+X3
.

(avec a/i =
x\

2#2 + 30:3, #2 —

\/2 (#2 —

£3), x'3 =
\/8£3 ) Donc : sign(ç) =
(2,1).

Exercices 12.(1) 13. 14.


9.9 Sous-espaces orthogonaux 311

9.9 Sous-espaces orthogonaux


Comme dans le cas d'un produit scalaire, on dit que deux vecteurs x,y e E sont
orthogonaux pour la forme bilinéaire s, si s(x, y) 0. On note cela :
=
x ±.y.
s

Définition 9.18 -

Soit A un sous-ensemble de E (non nécessairement un sous-

espace vectoriel). On appelle orthogonal de A pour la forme bilinéaire s (ou,


simplement, orthogonal de A), l'ensemble

A± :={xeE\ s(z, a) =
0, Va e A}.
Les propriétés suivantes se vérifient facilement :

Propriétés 9.19 -

1. AL est un sous-espace vectoriel de E (même si A ne l'est pas).


2. {0}± = E

3. E± =
N(q)
4. MA CE :
N(q) ci1.
Le lemme suivant généralise la proposition 7.15.

Lemme 9.20 -

Soit j : E E* Si E est de dimension finie, pour tout sous-espace


s( ,y)
.

y ~

vectoriel F de E on a : (j(F)\ = F±.4

En effet,
j{F)0 =
{xeE**„E | ^x) =
0, W> E j(F) }
et
<p e j(F) <(=> 3 y e F tel que (p =
s(-, y)
d0nC:
j(F)° =
{xeE\s(x,y) = 0 VyeF} = F± D

Proposition 9.21 -

Soit E de dimension finie et F un sous-espace vectoriel de E.


Alors :

1. dim£ = dimF + dimFx -

dim(F n N)
2. F1-1- =
F + N où N:= N(q).
En particulier si q est non dégénérée :

dim E =
dim F + dim F±

F^ =F

Démonstration :

1. D'après le lemme : dim F1 =


dim j{F)° =
dim E -

dim j(F)
d'autre part : dim j(F) =
dim Im(j|F)
Or, d'après le théorème du rang :

4En identifiant E** à E (cf. proposition 3.36) ; en fait :


(j(F)\ C E**.
312 Formes bilinéaires et formes quadratiques

dim F =
dim Im(jf|F) + dim Ker(j|F) =

=
dim(lm j\F) + dim(Ker j D F) =
dim(j(F)) + dim (F n TV)
=
dim E -

dim F± + dim (F fï N)
2. On a F C F-1-1 (en effet, si a; G F :
s(z,*) -
0 Vz G F-1, c'est-à-dire
s(z,x) =
0 Vz G F1-, donc x G F^-1).
D'autre part, le noyau est inclus dans tout orthogonal (cf. Propriété 9.19, 4.)
donc : TV C F±J-. On a ainsi :
F + N C F-1-1
Or, d'après 1
dim F + dim F± (F n AT)
:
dim £ = _

dim

et, en remplaçant F par F1- :

dim E =
dim FL + dim F-11- -

dim (F1- n N)
mais N C F-1, donc dim F-1 D AT =
dim N.

On en déduit, par soustraction :

dim F -

dim F±± + dim N -

dim F H AT =
0

Or
dim(F + AT) =
dim F + dim N -

dim F H N

et donc:
dim F^ =
dim (F + TV)
Puisque F + N est un sous-espace de F-1-1, on a F1-1 =
F + N. D

Sous-espaces isotropes
Nous nous proposons maintenant de regarder dans quel cas on a :

E F®F±
=

comme il en est dans les espaces euclidiens.


Pour cela il est nécessaire tout d'abord que F D F1- =
{0}. Or cette condition n'est
pas toujours vérifiée, même si q est non dégénérée. Soit en effet v un vecteur isotrope
non nul et F =
Vect{i>}. On a
s(v,v) =
0, c'est-à-dire v _L i>, donc
s
v G F-1 et par

conséquent : F D Fx ^ {0}.

Définition 9.22 -

Un sous-espace vectoriel F de E est dit isotrope si

FPiF±^{0}.
Comme on vient de le voir, si X ^ {0} il existe des sous-espaces isotropes : par exemple les droites
vectorielles engendrées par les vecteurs isotropes. Réciproquement si F est isotrope, et v G F D i*1-1,
v/0, on a v G X et donc X ^ 0. Ainsi :

II existe des sous-espaces isotropes si et seulement si X ^ {0}.

Proposition 9.23 -

Soit E de dimension finie et F un sous-espace de E. Alors :

E =
F 0 F"1 4=^ F est non isotrope (c'est-à-dire : F D F1- =
{0})
Démonstration : : La condition est évidemment nécessaire.
Supposons que FnF-1- =
{0}. Puisque iVcF1 (cf. propriété 9.19. ^.), on a FnN =

{0} ; donc dim E =


dim F + dim F1-. Il s'ensuit que E =
F © F±. D

Exercices 15.16. 17. 18. 19. 20. 21.


9.10 Formes quadratiques dans un espace euclidien 313

9.10 Formes quadratiques dans un espace euclidien

Dans paragraphe on suppose que l'espace vectoriel E est muni de deux structures :
ce

une quadratique q et une structure euclidienne (, ) 5. Nous allons démontrer


forme
que l'on peut toujours construire des bases qui sont orthogonales à la fois pour (, ) et
pour q (cela permet de simplifier les calculs car dans de telles bases les matrices de
(, ) et de q sont diagonales).
Théorème 9.24 Soit (£,(,)) un espace euclidien et q une forme quadratique sur
-

E. Il existe alors des bases qui sont orthogonales à la fois pour (, ) et pour q.

La démonstration reprend en fait celle de la proposition 7.39 (cf. page 254) :

a) Soit s la forme polaire de q. Il existe un et un seul endomorphisme fs tel que :

(z> fs(y )) =
s (x, y ), Va;, y G E.

Pour cela, on procède comme dans la Proposition 7.39 : on considère une base {e*}
orthonormée pour (, ). En écrivant la relation ci-dessus sous forme matricielle, on

voit facilement que, si S M(q)eii =


fs est l'endomorphisme qui dans la base {e^} est

représenté par la matrice S.


b) fs est autoadjoint (, ).
pour
En effet :
(xjs(y)) =
s(x,y) s(y,x)= =
{yjs(x)) =
(fs{x),y)

D'après le théorème 7.38, les sous-espaces propres E\ de fs sont deux à deux

orthogonaux pour (, ). En fait :

c) Les espaces propres E\ sont aussi deux à deux orthogonaux pour s.

En effet, soient v% et Vj tels que fs{vi) =


XiVi et fs(vj) =
A^u,-, avec i ^j ; on a :

s{Vi,Vj) =
(ViJs(Vj)) =
XjivuVj).
Puisque (vi,Vj) =
0, on a aussi s(vi>Vj) =
0.

Il suffit maintenant de prendre dans chaque espace propre E\ une base orthogonale
de vecteurs propres (orthogonale pour (, )), pour obtenir une base qui est aussi
orthogonale pour s.

Le corollaire suivant permet de déterminer une base orthogonale et calculer la


signature d'une forme quadratique en diagonalisant la matrice qui la représente dans une

base quelconque.
Corollaire 9.25 -

Soit q une forme quadratique sur un espace vectoriel réel de


dimension finie et S —

M(q)ei une base quelconque. Alors :


où e* est

1. On peut construire une base orthogonale de q formée de vecteurs propres de S.

2. De plus : sign (q) =


(n + ,
n _)
où n + =
nombre des valeurs propres strictement positives de S
n _
=
nombre des valeurs propres strictement négatives de S.

5La situation habituelle est celle qui consiste à considérer une forme quadratique q sur (Rn, (, ) ),
où (, ) est le produit scalaire canonique.
314 Formes bilinéaires et formes quadratiques

Démonstration : Soit {e^} une base de E et (, ) le produit scalaire associé à cette


base (cf. exemple 2, page 222). On considère, comme dans le théorème ci-dessus
Pendomorphisme fs défini par :
(x, fs(y)) =
s(x^y), Vx,y G E. Comme on l'a vu
on a : M{fs)&i = S .

Soit {v± vn} une base de vecteurs propres de fs orthogonale à la fois pour (, ) et
pour g, et normeé pour (, ), construite comme dans le théorème. On a :
nn

]T ^
n

s(xyy) =

^2 Xiyjsivi.Vj) =
Xiyj (vijs(vj) =
XiVj Xô (vuVj)
ij=l ij=l »iJ=l
n

Y2 Xi yi Si* =
Al Xl yi H h Xn Xn Vn

d'où:
s(x, x) =
Ai xi2 H h An xn2
ce qui montre que la signature de s est donnée par les signes des valeurs propres de
fa (donc de S).
Exemple
-

Soit E = M3 et q la forme quadratique définie dans une base {a} par :

q(x) = —

2 x\ —

2 x\ —

2 x\ + 6 x\X2 + 6 X2X3 + 6 x\x$

Déterminer une base orthogonale et la signature de q par la méthode indiquée dans le


corollaire.

On a :

/ -2 3 3 \
S =

M(s)ei=\ 3-2 3 et PS(X) =


-(A -

4)(A + 5)2
\ 3 3 -2 /
donc Sp'(.S') =
{4, —5, —5} et par conséquent sign(s) (1,2). =

Pour avoir une base orthogonale pour s, il suffît de déterminer une base de vecteurs
propres de S qui est orthogonale pour le produit scalaire (, ) associé à la base {e*}.

On trouve : E4 : engendré par v1 =


(*\
I 1 , Es : x + y + z =
0.

V 1 /

Soit, par exemple, t>2


lI 0MI G E-5 et prenons ^3=1
la\
b \ € E-& tel que

V V )
=

-1 / c

(^3,^2) 0. Pour cela, 6, doivent vérifier le système


^
=
a, c :

f a + 6 + c =
0

\a -c=0

qui donne, par exemple,


f 2MJ
V
ce i>3 = —

/
.

1
Ainsi les vecteurs vi, ^2, V3 qui dans la base {e*} sont donnés par

v2 =
U , v3

forment une base orthogonale à la fois pour (, ) et pour q.


9.11 Endomorphisme adjoint 315

NOTA. La méthode fondée sur la réduction de Gauss (cf. page 306 et exemple page 310) permet

d'obtenir plus facilement une base orthogonale et la signature de q. Cependant cette méthode est

nécessaire si l'on cherche une base orthogonale pour q qui est aussi orthogonale pour le produit
scalaire. En particulier elle est utilisée pour déterminer la forme réduite des quadriques dans une

base orthonormée (cf. Appendice A. 11).

Exercices 22. 23. 24.

9.11 Endomorphisme adjoint


La notion d'endomorphisme adjoint, que nous avons introduite dans le cadre des
espaces euclidiens (cf. proposition 7.16), se généralise facilement aux espaces vectoriels
de dimension finie munis d'une forme quadratique non dégénérée.

Proposition 9.26 Soient (E,q) un -

espace vectoriel de dimension finie muni d'une

forme quadratique non dégénérée, et f G End(E). Il existe alors un et un seul


endomorphisme f* de E tel que

8(f(x),y)=s(xJ*(y)), Vx,yeE

(s étant la forme polaire de q). f* est dit adjoint de f relativement à s.

En effet, soient {e*} une base de E, S M(s)Ci, =


A M(/)Ci et X
=
M(x)ei, =

Y =
M(y)e.. Supposons que /* existe et soit A* =
M(f*)e.. L'identité de l'énoncé
s'écrit :

{AXySY =
lXSA*Y, \/X,Y eMn,i(K)

c'est-à-dire

tX(tAS)Y =
*XSA*Y, VX,y G Mnii(Jf)
ce qui est équivalent à
*AS =
SA*.

Comme S est non dégénérée, S est inversible et donc :

A* =
S~1 lAS (*)

Ceci montre que A* (donc /*) est unique.


Réciproquement, si on définit /* : E —> E par M(f*)e. =
5_1 M.5, en remontant
les calculs on voit que /* vérifie l'identité de l'énoncé. D

REMARQUE. —

Si {e*} est une base orthonormée (lorsqu'elle existe, par exemple, dans le cas

euclidien ou dans le cas où q est à valeurs complexes et est non dégénérée (cf. corollaire 9.15) ),
on a S = I et on retrouve donc la formule A* = lA que l'a déjà vue dans le cas euclidien (cf.

7.16.).
316 Formes bilinéaires et formes quadratiques

Exemple Soit E R2 muni de la forme quadratique q(x) x\ x\.

( \ J).ona:
-

— = —

Si A =
M(J)ei =

*-r'(lî)'-(l -ï)(ïï)({ -î)"(-î -)


Proposition 9.27 -

Pour tous endomorphismes f et g et pour tout scalaire A, on a :

a) /** =
/ , (id)*=id;
b) (f + 9)* f*+9*, (A/r A/*,= =
(/°<?)* =
<?*o/*;
c) rg/*=rg/, dét/*=dét/.

a) et b) se démontrent facilement à l'aide de la formule (*) ci-dessus ou, mieux, par


exemple :

s(f(x),y) s(x, r(y))=s(r(x),y) 0, Vy e E,


= =

donc f(x) f**(x) pour tout x G E, c'est-à-dire / /** ( cf. exercice 8).
= =

Pour c), utiliser la formule (*).

Exercice 25.

9.12 Groupe orthogonal associé à une forme quadratique


Comme chapitre 7, nous allons étudier les endomorphismes f de E qui conservent
au

une quadratique g, c'est-à-dire tels que q(f(x))


forme q(x), Mx G E. Il s'agit donc =

de la généralisation aux espaces non euclidiens des isométries vectorielles. Dans le


cadre de la Relativité (q(x) —
X-t ~t~ Xn i~ Xo X/^ ) obtient le «groupe de Lorentz»
on

(cf. exercice 26) qui, comme on peut l'imaginer, joue un rôle important en Physique
Mathématique.

Proposition 9.28 Soit (E,q) -

un espace vectoriel de dimension finie muni d'une


forme quadratique q non dégénérée et soit f un endomorphisme de E. Les propriétés
suivantes sont équivalentes :

1.
q(f(x)) =
q(x), Vz G E

2. s(f(x)J(y))=s(x,y), Vx,y e E

3- f* °
/ —

id (ou d'une manière équivalente : f o


/* =
id).
En particulier f est bijectif

Un tel endormorphisme est dit orthogonal relativement à q.

Démonstration : L'équivalence de a) et b) se montre comme dans la proposition


7.19 page 239. Pour montrer l'équivalence de b) et c) on pourrait utiliser l'expression
matricielle de /* (cf. formule (*), page 315) et procéder comme en 7.19. Cependant
il est plus simple de raisonner de la manière suivante :
Exercices 317

s(f(x)J(y))=s(x,y))\/x,yeE 4=>
a(f* f(x),y)
o =
s(x,y), Vx,y e E

<^=> /*0 f(x) =


x,\/xeE (cf. exercice 8) 4=> /*o / =
id D

Proposition 9.29 -

So# O(g) :=
{/ G End (J3) | /* o
/ =
id } . On a :

1. id G Ofa) ;

2. sif,ge 0(g) a/ors / o


# G 0(<?) ;

3. sife 0(q) alors f~l G 0(q).


En particulier, 0(q) est un groupe pour la loi de composition des applications (cf.
Appendice A.l), dit groupe orthogonal de q.

La démonstration est une simple vérification. Par exemple, si /, g G 0(q)) on a :

(/ °
flO* °
(/ ° 9) =
9* °
/* °
/ °
9
=
9* ° id og =
p* o
g
=
id

donc fog G 0(q). D

Proposition 9.30 -

Si f G 0(q) alors dét/ = ±1. L'ensemble

SO(q) :=
{/ € O(ç) | dét/ =
1}
est un sous-groupe de 0(q), dit groupe spécial orthogonal de q.

En effet, si / G 0(q) on a /* o
/ =
id, donc dét(/* o
/) =
1. Puisque dét/* =
dét/,
on a (dét/)2 =
1, donc dét/ =
±1.
La vérification de la seconde partie est laissée en exercice. D

Proposition 9.31 -

Soit {e^} une base de E, S =


M{q)ei et A —

M(f)e.. On a :

/GO(g)^ tASA =
S

En effet

feO(q) 4=>s(f(x)J(y))=s(x,y), \/x,yeE


«= t(AX)S(AY) lXSY, VI,7 G Mn,i{K) =

<^ lX tASAY^tXSY, VX,YeMnti(K) <^=> tASA =


S D

NOTA. -

En particulier, si {ei} est une base orthonormée (à supposer qu'elle existe), on a S =


I>
donc : / G 0(q) <=^ tAA = I (cf. 7.19).

Exercice 26.
318 Formes bilinéaires et formes quadratiques

EXERCICES

1 Soit la forme bilinéaire b : R3 x R3 —> R définie dans la base canonique par :

b(x, y) := xiyi + #23/2 + 3£33/3 + 6 xiy3 + 2 x^yi -

3z22/3 + 3x^y\ + #32/2

Ecrire la matrice de b dans la base canonique. Calculer iV(6), rg(b) et 6(2, w) où :

2=1—1
( 2\I ,
tu =
(I 15MI. Ecrire la matrice de 6 dans la base {vi,U2>V3} où v\ =

2 Déterminer le noyau à gauche N(b) de la forme bilinéaire b de l'exercice 1.

3 Représentation matricielle canonique d'une forme bilinéaire antisymétrique


Soit E un espace vectoriel de dimension finie sur K et Q : E x E —> K une forme
bilinéaire antisymétrique, c'est-à-dire telle que :

Cl(xtx) =
0, VxeE.

1. Montrer que \/x,y G E : O(o;,2/) = —

Q(y, x).
2. Montrer que si x, y G E sont liés, alors Q(x, y ) =
0. En déduire que si dimF =
1,
alors O 0. =

3. Soit dimE > 2 et Cl ^ 0. Montrer qu'il existe deux vecteurs indépendants


ui,it2 G E tels que Q(uitU2) = 1.

4. On note F =
Vect{iAi,ti2}- Montrer que :

M(a\, r){u1,u2} —

l _i g j

5. Soit W = F-1 =
{w e E \ n(u, w) =
0, Vtt G F}. Montrer que F = F 0 W.

6. En déduire le résultat suivant :

Soit Q, une forme bilinéaire antisymétrique sur un espace vectoriel E de


dimension finie sur K. Il existe alors une base {e^} telle que :

/ 0 1
0 \
-1 0

0 1
-1 0

M(Q)ei =

0 1
-1 0

V 0 /
En particulier : toute forme bilinéaire antisymétrique est de rang pair.

S Déterminer la forme polaire de la forme quadratique q : C3 — C définie par :

q(x) =3x1 —

2 (1 + i) x% —

2ix\xi -f x\x% + (5 —

i) x^xz
Ecrire la matrice de q dans la base canonique de C3.
Exercices 319

5 Soit q une forme quadratique et s sa forme polaire. Montrer que :

s(z, y ) = -

(q(x + y)-q(x-y)j
"
I 1
6 Normes et normes euclidiennes

1. Soit E un espace vectoriel sur K (non nécessairement de dimension finie) et q


une forme quadratique sur E. Montrer que :

q(\x) =
X2q{x), Vz G E, VA G K.

2. Soit / : Rn —> R. On dit que / est positivement homogène de degré r si :

f(\x) = \r f(x), VzGMn, VA G M, A > 0.

(a) Montrer que si / est positivement homogène de degré 0 et si elle est continue
àl'origine, alors / est constante.
(b) On suppose que les dérivées partielles de / existent. Montrer que si / est
positivement homogène de degré r, ses dérivées partielles sont positivement
homogènes de degré r 1. —

(c) En déduire le résultat suivant :

Soit f : Rn —> telle que /(A s) = A2 f(x), Vx G Rn , VA G R,


R
A > 0. Si f est de classe C2 (c'est-à-dire continue avec toutes ses dérivées

partielles continues, jusqu'à l'ordre 2 inclus), alors f est une forme


quadratique (et en particulier elle est de classe C°°).
(d) En déduire aussi le résultat suivant :

Soit || || : E —> R une norme sur un espace vectoriel réel de dimension


finie. Alors \\ \\ est une norme euclidienne (c'est-à-dire elle provient d'un
produit scalaire) si et seulement si son carré est une fonction de classe
c2.

7 Montrer que l'application q :


R[x\ —> R définie par q(P) =
f0 P{x)P"{x)dx est une

forme quadratique sur


R[x].

8 Soit q une forme quadratique non dégénérée et s sa forme polaire. Montrer que :

s(x, z) =
s(y} z), \/z G E =ï x =
y.

9 Déterminer les vecteurs isotropes des formes quadratiques q : R3 —> R suivantes et


vérifier que N(q) C X{q) :

a) q(x) =
x\ + 3 x\ —

8x\ —

4 x\X2 + 2 #123 —

10 x<2.xz

b) q(x) =
x\ + 2x\ —

2x\ + 2x\x<i + 2x\x?>

10 Déterminer une base orthogonale pour les formes quadratiques q : R6 — R suivantes :

a) q(x) =
x\ +4 a2, + 9 x\ + 2x\X2 + 6x2^3
b) q(x) =
x\ + 3 x\ + 8 x\ 4 x\X2 + 6 x\x% — —

10 X2X3

c) q(x) = 5 X1X2 + 6 X1X3 + 2 X2X3

Même question pour q : R4 —> R définie par :

d) q{x) =
x\ + x\ + x\ —

2 x\ —

2 x\X2 —

2x\xz —

2x\X4-\-2 X2X% —

4 a?2#4

11 Démontrer la proposition 9.13 : les formes linéaires obtenues par la réduction en carrés
de Gauss sont indépendantes.

12
1. Déterminer la signature des formes quadratiques de l'exercice 10., ainsi qu'une
base orthonormée, si elle existe.
320 Formes bilinéaires et formes quadratiques

2. On considère les formes quadratiques de l'exercice 10. comme formes quadratiques


sur C3 (respect. :
C4). Dans quel cas a-t-on une base orthonormée ? En déterminer
une, le cas échéant.

13
'
Soit : q :
M2(R)—> R
a
'—*
dét A

Montrer que q est une forme quadratique. Déterminer son rang, sa signature, une base
orthogonaleet les vecteurs isotropes.

I 14
I On définit sur E2 [x] la forme quadratique :

q(P) =
tiP(x)P"(x)dx
(cf. exercice 7.). Déterminer le rang, la signature, le noyau, les vecteurs isotropes et une

base orthogonale.

15 1. Soit q : R3 —> R définie dans la base canonique par :

q(x) =
x\ -

x\ + 2x\x2 + 2x2x$, /
1 \

et F le sous-espace vectoriel de E3 engendré par v =\ 1 .

Déterminer F1- et vérifier que F1- D N. \ 1 /


Déterminer F±J- et vérifier que F±J- = F + N.

2. Mêmes questions pour q : R4 —> R définie par :

q(x) =
x\ + 2 #2 + 2 x\X2 —

2 #2#3 —

2 #224 + 4 X3X4

et F défini par les équations


f Xi + X2 X3 + X4 = 0

\
-

X2

X4 = 0

16 Soit A42QR) muni de la forme quadratique de l'exercice 13. et


F =
{A e M2(R) | TrA =
0}. Déterminer F-1. A-t-on .M2(M) = F e F-1- ?

I 17
I Soit R2[#] muni de la forme quadratique de l'exercice 14. et F le sous-espace engendré
par Q(x) = 1 -

2x -

15a;2. A-t-on R2[x] F © F1- ? =

18 Soit (F, q) un espace vectoriel muni d'une forme quadratique, et F, G deux sous-espaces
vectoriels de E.

1. Montrer

(a) FCG^G± CF1-


(b) (F + G)1- F1- n G1- =

(c) F±+G± C (FflG)-1.


2. Montrer que si q est non dégénérée, dans (c) on a l'égalité.
3. Donner un exemple où, dans (c), on a l'inclusion stricte.

I 19 I Soit q : M4 —> R définie par :

q(x) =
x\ + 2x\X2 + 2X\X2> + 2x\X4 + 4#2#3 +4#3CC4.

Montrer que tout hyperplan F d'équation ax\ + x2 + bxz + X4 = 0 est isotrope.

20 Tout sous-espace isotrope contient des vecteurs isotropes non nuls (il suffit de prendre
v G FflF1, ^ 0).
v Construire un exemple de sous-espace non isotrope contenant des
vecteurs isotropes non nuls.
Exercices 321

21 Sous-espaces totalement isotropes


1. Soit (E,q)espace vectoriel muni d'une forme
un quadratique. Un sous-espace
vectoriel F de E est dit totalement isotrope si s\F 0, s étant
=
la forme polaire
de q. Montrer que les propriétés suivantes sont équivalentes :

a) F est totalement isotrope


b) F C î, X étant le cône isotrope
cjFcf1
(Noter que le noyau N est un sous-espace totalement isotrope, d'après c))

2. Donner l'exemple d'une forme quadratique non nulle dans R3 admettant un sous-

espace totalement isotrope de dimension 2 non trivial, c'est-à-dire différent du


noyau.

22 Construire une matrice symétrique non diagonale A G .M3(M) ayant une valeur propre
strictement positive, une valeur propre strictement négative et une valeur propre nulle.

23 On considère l'espace euclidien IR3 muni du produit scalaire canonique et soit

/ G End (R3) définie, dans la base canonique, par :

/ "9 6 2

-[
1
A =

M(f)ei = 6 7 6

\
11
2 6-9

Montrer que / est une transformation orthogonale. Déterminer les valeurs propres de
/, à l'aide de la trace et en remarquant que A est symétrique. En déduire la signature
de la forme quadratique q : R3 —> R qui, dans la base canonique s'écrit :

q(x) = —

9 x\ + 7 x\ —

9 x\ + 12 x\ X2 + 4 x\ x$ + 12 X2 X3

24 Réduction simultanée de deux formes quadratiques


(Généralisation du théorème 9.24)
1. Soient set t deux formes bilinéaires symétriques sur un espace vectoriel E de
dimensionfinie, s étant supposée non dégénérée. Montrer qu'il existe un unique
endomorphisme f de E tel que
8(f(x),y) =
t(xiy)i Vx,y£E (1)
Montrer que l'on a :

s(f(x),y) =
8(xif(y)), Vx,yeE (2)
2. Montrer que, si À/jii, les sous-espaces propres pour /, E\ et SM, sont

orthogonaux pour s et en déduire qu'ils le sont aussi pour t.

3. Montrer la propriété suivante :

// existe une base orthogonale à la fois pour s et pour t si et seulement si f


est diagonalisable.
4. Application. Soient :

qs (x) =
xi x\ x\
+ — —

2 #1x2 + 2 X2X$

qt(x) =
(1 + a) x\ + x\ + (1 + a) x\ —

2 x\xi —

2 (1 + a) x\ X3 + 2 #2#3

Pour quelles valeurs de a existe-t-il une base orthogonale à la fois pour qs et qt ?


Déterminer une telle base, lorsqu'elle existe.

25 Soit E un espace vectoriel de dimension finie muni d'une forme quadratique non

dégénérée. Montrer que :

(Im/)J-=Ker/* et (Ker/^Im/*
26
1. Déterminer0(q) où q : R2 —> R est définie, dans la base canonique, par
q(x) 2x\x<2.
=

2. (Transformation de Lorentz en dimension 2 ) Même question pour q :

R2 — R définie par q(x) =


x\-x\
322 Formes bilinéaires et formes quadratiques

INDICATIONS

H
0 6
B =
M(b)ei =
I 2 1-3 N (b) est engendré par
3 13

rg(6) = 2 ; b(z,w) = 0.
14
:
M(b)Vi = *PBP = 7
7

I 2 iV(6) est engendré par

H 1.0 n( + y, x + t/ ) Q(z, a) + Q(x, y ) + Q(î/, x) + Œ(y, y ).


= =

2. Si y = Xx Çl(x,y) =
Q(x,Xx) =
XQ(x,x) = 0.

3. Il existe deux vecteurs i>i, V2 tels que Q(vi,V2) 7^ 0 (autrement Q =


0).
Poser ui =
vi U2 =
r

YI(V1,V2)

4. On a F nW =
{0}.
Montrer que E F @W = en faisant une analyse et une

synthèse. On trouve la décomposition de x 6 E :

œ = fi (x,U2)u\ —

Q(x,ui)u2 + (x—Q(x,U2)ui-\-Cl(xiui)u2)
eF ew

5. Utiliser le fait que f2 est antisymétrique.


6. On restreint Q à W et on raisonne par récurrence.

El s(xt y) =
3 siyi -

2 (1 + i) x2y2 -ixiy2-i x2yi + -

x\ 2/3 +
-

£3 2/1

+ —r £2 2/3 H —

z3 2/2-

( 1/2
3 —i \
5 i
—i -2(1 0
^te)ei

^
2
=

5-i
1/2 2
°
y
1 5 | \[q{x + y) -q(x-y)] =
\ [s(x + y, x + y) -s(x-y, x -

y)] =

1. q(Xx) =
s(Xx, Xx) =

2. (a) d'homogénéité assure


La condition que / est constante
sur l'origine.
toute demi-droite issue de La continuité de / à
l'origine implique que / prend la même valeur sur chacune de
ces demi-droites (cf. Fig. 3).

(b) Si f(Xx) = Xr f(x), VA > 0 on a, en dérivant

par rapport à xk : EL
j^-r (Xx) X X2 -—r(x).
dxk
=

dxk

(c) Si positivement homogène


/ est degré 2, ses de
dérivées secondes sont positivement homogènes
de degré 0 ; étant continues à l'origine elles sont des fonctions
constantes. En intégrant, on voit que / est un polynôme de

degré 2. Il s'agit d'un polynôme homogène puisque f(Xx) =

X2f{x), VA>0.
Figure 3
(d) Si y II est une norme, son carré est une fonction positivement
homogène de degré 2.
Exercices 323

[T~[ Poser s{P,Q) =

^ f (p(x) Q"{x) + P"(x) Q(x)) dx.


8 s(x —

y, z) = 0 Vz £ E signifie que x —

y E N =
{0} et, par conséquent x =
y.

9 a) g(x) =
(x± —2x2 + X3)2 —

(x2 + 3#3)2. X(g) est la réunion des deux plans


x\

2x2 + £3 =
%2 + 3£3 et a;i

2x2 + £3 = —

(#2 + 3x2) c'est-à-dire


des plans ni : x\ 3x2 2 £3 0 et 7T2 : x\ X2 +4 #3 0.

(I
— —
= —
=

7
N(q) est engendré 3

V
par :

-1

b) q(x) =
(x\ + X2 + #3)2 + (x2 —

X3)2 —

4x2. J(ç) est le cône défini par

X3 = ±-
y(xi + X2 + z3)2 + (x2 X3)2
-

tf(9) =
{0}.

x2)2 x3)2 6x2

' "=( i}"3=(i


10 a) q(x) =
(xi + + 3(x2 + + ;

b) q(x) =
(xi -2x2 + 3x3)2 ~

(x2 -

x3)2 + 0 x\.
f *i =
#i

2 £2 -h 3^3
Résoudres le système { x'2
l 4
: < x2 X2 X3
= —

=
X3

x[ =
5x1+5x2 + 8x3
c) On est amené à résoudre le système :
^ x2
=
—5xi + 5x2 + 4x3
x3 X3
=

d) q(x) =
(xi -

X2
-

X3
-

X4)2 -

3 (X2 + -X3 + X4)2 + 3 (x2 + -X3)2 + 0 x\.


Résoudre le système :

z'i =
x\ —X2 X3 X4
— —

X2 + \X3 + X4

X2 + \X3
£4 X2
=

Attention : ne pas poser X4 =


X4 (il faut que les quatre formes Xi, Xo, Xo, Xa soient

indépendantes).

11 Supposons (avec les notations de page 307) que :

9W =

ï[(^iW ^W) + -

(vi(a0-y>2(a0) ] +A3^3W2 + ---

+ Ap^p(x)2
Puisque ip\ ne contient pas x; (i 7^ j)
et contient x.,, alors que <^2 ne contient pas

Xj tout en contenant Xi, y?i et ip2 sont indépendantes et y?i + ip2-> <£i H>2

sous-espace F de E* de dimension 2. Soit G


engendrent un =
Vect-(/03,... ,îpp} ; puisque les
formes -02,. ifrp ne contiennent pas les variables x^, Xj, F et G sont en somme directe.
Raisonner par récurrence.

12 1. a) :
(3,0) b) :
(1,1) c) :
(1,2) d) :
(2,1)
On a une base orthonormée uniquement dans le cas
a). Si {^1,1^2^3} est la base

orthogonale trouvée dans l'exercice 10. a) ,


on a :
324 Formes bilinéaires et formes

1 0 0

M{q)Vi =(030
0 0 6
Donc q{vi) =
1, q(v2) =
3, q(vs) =
6. Une base orthonormée est donc
1 \ / -1 \ / 1

2P2=7i
! -,

61 =
1

2. On a une base orthonormée dans les cas a) et c). Pour a) même résultat qu'en 1.
1 11 / 5
Pour c) on trouve, par exemple, ei = —-=
t>i, £2 =
—y= V2, £3
=
-\—1>3,
V20 ÏV20 i V 12
{i>i,i>2,i>3} étant la base ci-dessus.

(X"\ )
Xo
q(A) q est donc forme quadratique. Par
\
=
xiX/i X2X2>. une
J

,
x3 x4
la réduction en carrés, on trouve :

q(x) = -

[(xi + X4)2 -

(xi z4)2]
- - -

[(x2 + X3)2 ~

(X2Z3)2] -

Base

Vecteurs
orthogonale

isotropes
:

:
(J Î
les matrices A telles que détA
) ( '
J -Î ) '

(Î =
0.
S ) ( '
-Î S )'

14 Dans la base ei =
1, e2 =
x, es =
x2, on a :

/ 0 0 2 \
M(q)ei= 0 0 1 vgq 2.

V
=

2 1 4/3 y
Si P =
ai + a2 x + a3 a;2 , alors :
o(P) = -

(a§ + 3 aia3 + 6 02 ^3)


=

-[(^3 +-ai+ 3a2J -(-ai+3a2J J.


Le noyau est engendré par P = 2 —

x. Les vecteurs isotropes sont donnés par les deux


familles de polynômes Pi(x) =
ai 4- 02 x et P2(x) =
ai + <22 x —

3 (ai + 2 02) #2.


Une base orthogonale est donnée par :

—1
15 1. M(q)&i =5=1
(l X
0
°\
1 On
V J
. a :

1 1 -1

Y G F-1 <^=> fX57 =


0, MX e F.

Or:XeF<=>X=( A
j, donc :

/ 1 1 0 \ / yi \
tXSY=(X X
X)[ 1 0 1 2/2 =2à(î/i+î/2).
V 0 1 -1 y v y* J
Ainsi
'xsy = 0 <{=^ vxeF ^=> 2 a (2/1 + y2) =
0, va g m <=> 2/1 + 2/2 = 0

ce qui définit l'équation de F-1-.


-1 \
N est engendré par [ 1
] ; on a bien N C F-1-.
1
/

FJ-J- =
{y| txsy =
o,vx eF±} et x eF± <^=>x =
[ -x
Exercices 325

Donc : ^SY
0,VXgF1<^(A + fj,)(y2
= -

ys) =
0 ,VA,/z G M.
Ainsi F-11- est le plan défini par y2 —1/3 0. =

/ \-2fj,
2. Même méthode. On trouve X e F -<=> X = et :
A
A

F± / 2/1 2 2/4 0

\
~
=

2/1+2/2-2/3+2/4 = 0

| | |A £ }.
°
F-1 f
A42(M) | J isotrope.
16 =
G A =
,
a G M F est non

17 Q est isotrope.

I -j^g I 1. Faire une démonstration directe. Par exemple pour (b) :

x G {F + G)x ==> s( / +g , a?) =


0 , V/ G F, V^ G G. En particulier pour / = 0
on a G1- et pour g
ce G 0 on a a; =
G F-1-.
Réciproquement, si x 6 F1- H G1-, on a s(/, x) 0 ,V/ G F, et s(g, x)
= =

0 ,Vp G G. D'où s(f + gt x) 0 V/ =


G F et Vp G G, c'est-à-dire x G (F + G)x.
2. Si ç est non dégénérée, on a F±J- = F pour tout sous-espace F. Remplacer dans
(b) F par F-1 et G par G±.
3. Il faut que q soit dégénérée. Le cas le plus simple non trivial est q : R2 —> R définie
par q(x) =
x\.
Prendre F et G tels que F D G = {0} [ d'où : F D G)1- M2 ] et =

tels que F-1- G1- et dimFJ-


= 1 [ d'où : dim(F-L + Gx) 1]. Par exemple :
= =

F =
Vect{v} et G =
Vect{u>} ,
avec v =
( ft
1 ,
w = (
1
1

19 F-1- est défini par

{(1(1 -6)
-

a) x\ + X2 + (1 —

2 a) £3 + £4 = 0
œi +2z2 -26x3 + 2x4 = 0

donc dimF-1 > 2. Or :

4 > dim(F + F±) = dimF + dimF-1 -

dim(F D F-1),
donc :
dim(F n F1-) > dimF-1 -

1 > 1.

20 Il suffit de considérer un espace E muni d'une forme quadratique non dégénérée et


non définie. E lui-même répond à la question. Si l'on veut un exemple moins trivial
(un sous-espace FcE) il faut que dimF > 2, car tout sous-espace de dimension 1

estisotrope si et seulement si il est engendré par un vecteur isotrope. Prendre, par


exemple : E M3, q(x) x\ + x| x\ et F le plan d'équation x\ 0.
= = —
=

21 1. a) et b) sont équivalentes car


s\F =
0 est équivalent à q\F =0 ce qui signifie que
F Cl. D'autre part

F CF± <==> \/xeF : x ±y Vy G F <=» s(x, y) =


0, Vx,y e F.

2. Pour que X contienne un plan vectoriel, il est nécessaire que rang g ^ 3 [bien
vérifier que pour la signature (2,1) ou (1,2) X ne contient pas de plan vectoriel].
Si rang g =
1, on base, q(x)
peut écrire, dans ±x2 et alors une certaine =

X N
= =
{ plan défini par x\ plan totalement isotrope est le
= 0 } ; aussi le seul
noyau. Pour qu'il existe un plan isotrope non trivial, il faut donc que rang q 2. =

Si sign q (2,0) ou (0,2), à un choix de base près : q(x)


=
±(x2 + x2,) et =

X N est de dimension 1 ; il n'existe donc pas de plan totalement isotrope. Pour


=

avoir un plan isotrope non trivial, il faut donc et il suffît que sign q (1,1), =

c'est-à-dire : q{x) x\ x\. Le plan d'équation x\ X2 est totalement isotrope.


= —

326 Formes bilinéaires et formes
quadratiques

22 I II suffit de considérer une forme quadratique q : M3 —> R de signature (1,1). Par


exemple :
q(x) =
{2x\ —

3#2 + xz)2 —

2 (#2 + X3)2. La matrice de q est :

4-6 2
A= [ -6 7 -5 ) (on a : Sp,4 =
{0, 5-\/73, 5+\/73).
2 -5 -1

23 Puisque A est orthogonale et symétrique, A2 =


I, c'est-à-dire f2 = id. Par conséquent,
si v appartient au plan de rotation, l'angle de rotation 9 vaut kir, puisque / o
f(v) v. =

D'autre part, Tr/ —1 ; donc = : soit 2cos0 —

1 =
—1, soit 2cos0 + 1 = —1.
Le premier cas donne cos 9 0, = ce qui est exclu, car cela signifierait que / id. Il reste =

le second cas, oos0 = 1, c'est-à-dire 9 ir. f est donc une rotation d'angle ix et,
par

=

des considérations géométriques, Sp'/ =


{1, —1, —1}. On en déduit sign(g) (1, 2). =

24 1. En notant A, 5, T les matrices de /, s, t dans une base {e*}, la relation (1)


'
s'écrit : SA = T. Puisque s est non dégénérée : A S~XT. Donc si / existe =

elle estunique car sa matrice est S~XT. Réciproquement, en définissant / par


M(f)ei S~XT et en remontant
= les calculs, on vérifie (1). La relation (2) vient
de la symétrie de s.

2. Ecrire la relation (2) pour x G E\> y G Ep. Utiliser (1) pour montrer que x _L y.

3. Supposons / diagonalisable et soit s\ := s\ex (s\ est une forme bilinéaire sur
E\). Dans chaque E\ on prend une base orthogonale pour s\ (elle sera aussi
orthogonale pour s). Puisque / est diagonalisable, E est somme directe des E\
et donc la collection de toutes ces bases est une base de E orthogonale pour s.

D'après le résultat ci-dessus, elle est aussi orthogonale pour t.


Réciproquement, supposons qu'il existe une base orthogonale pour s et t. Dans
cette base, avec les notations ci-dessus, S et T sont diagonales, donc A S~1T =

est diagonale.

/ a 0 -a \
4. Application. A S~1T= -11 1

)
=

\ a 0 -a

Cette matrice est diagonalisable si et seulement si a =


0. Pour avoir une base
orthogonale à la fois pour s et pour t il faut prendre une base de vecteurs propres
de A qui est orthogonale pour s. On trouve, par exemple :

2\ / 0\ /O
( 1
\ 1 1

) \-l )
Vi V2 -U3

\0
= = =

| 25
| Utiliser l'identité s( f(x),y) =
s(x,/*(y) ),Vœ,y G E :

f*(y) =
0=^ s(f(x),y) =
0VzG£=>2/G (Imf)1-
c'est-à-dire : Ker/* C (Im/)"*". Raisonner sur les dimensions pour montrer l'égalité.
Remplacer ensuite / par /* et prendre l'orthogonal pour montrer la seconde identité.

26 1- Les matrices orthogonales sont les matrices A G .M2W telles que lASA = S

avec S =
f
1 n ) On trouve :

A =

\ 0 I/o ) aveC a e R\{°} et A =

( 1/6 0 ) aveC b e R\{°}

2. A = avec a 61 et e.e' = ±1.


y se' sh e'
,

y
.
, ,

a en a
Chapitre 10

Formes hermitiennes

Dans ce chapitre nous établissons pour les formes hermitiennes la même théorie que nous

avons développée pour les formes bilinéaires symétriques. Les résultats sont tout à fait

analogues et les démonstrations se font de la même manière. Le lecteur est invité a se rapporter
souvent à la table en Appendice A. 13.

10.1 Rang et noyau d'une forme hermitienne

Rappelons (cf. définition 8.1) qu'une forme hermitienne sur un espace vectoriel
complexe E est une application h : E x E —> C antilinéaire dans le premier argument
et linéaire dans le second argument, vérifiant en plus la propriété dite de «symétrie
hermitienne» :

h(x,y) =
h(y,x)
Commençons par considérer le cas où E est de dimension finie. Comme nous l'avons
vu (cf. page 280), si {e*} et {e^} sont deux bases de E et H M (h) e. , H' M (h) e/, = =

alors :

H'= *PHP
où P =
Pei->e'. Cette formule montre, comme dans le cas des applications bilinéaires,
que :

Proposition 10.1 -

Le rang de la matrice M(h)ei ne dépend pas du choix de la base


{ei}. Ce rang est dit rang de la forme hermitienne.
En revanche, tout comme pour les formes bilinéaires, le déterminant de M(h)e. dépend
du choix de la base, mais s'il est non nul dans une base il est non nul en toute base.

Définition 10.2 -

Une forme hermitienne (sur un espace vectoriel E de dimension


finie sur C) est dite non dégénérée si elle est de rang maximum (égal à la dimension
de E), c'est-à-dire si : dét M(h)ei ^ 0 ({e^} étant une base arbitraire de E).

Exemple -

Soit h : C2 — C définie dans la base canonique {e*} par :

h(x,y) =
2xiyi -3ixiy2 + 3ix2yi -\rSx2y2
On a :

h est de rang 2 et donc non dégénérée.

327
328 Formes hermitiennes

Définition 10.3 -

On appelle noyau de la forme hermitienne h le sous-espace


vectoriel N (h) de E défini par :

N(h):={xeE\h(x,y) =
0, VyeE}

( cf. définition 9.3).


NOTA —

A cause de la symétrie hermitienne, on a aussi

N(h) =
{y€E\h(x,y) =
Q, Vx e E}.

Le noyau de h est en fait le noyau de la matrice qui représente h (dans une base
quelconque).
En effet, soit H =
M(h)ei on a h(x,y) =
fI H Y ; donc :

y e Ker h si et seulement si X#Y 0, VlG Mi,n(C)


'
=

c'est-à-dire : y G Ker h si et seulement si H Y


=
0.

On en déduit, comme pour la proposition 9.4 :

Proposition 10.4 Soit -

h une forme hermitienne sur un espace vectoriel E de


dimension finie. Alors :

1. Le noyau de h est le noyau de la matrice qui représente h dans une base


(quelconque).
2. dim E =
igh + dimN(h)

Interprétation du rang et du noyau. Rang et noyau en dimension infinie.

Comme pour les formes bilinéaires, (cf. définition 9.3) le rang et le noyau peuvent être
interprétés
comme le rang et le noyau d'une certaine application linéaire.

Notons

É*:=L:E-+C tellesque: 1 ** +V) **) + M)


}
=

1/ l ¥>(Aa0 =
*<P(x)> Vx,y£E. J
Les éléments de E* sont dits formes antilinéaires. On voit facilement que E* est un espace
vectoriel sur C pour les lois que l'on définit habituellement sur l'espace des applications

(exemple 4. page 5 )
Si E est de dimension n et {e*} est une base de E, on montre, comme pour le théorème 3.35,

qu'il existe une unique base {tpi}i=i...n de E*, dite base antiduale, telle que :

ipi(ej) =
ôij.
Il s'agit des applications
ipk : E — C
En i=l Œi &i
I
Xk

>

(cf. exercice 2). On vérifie, exactement comme pour la proposition 9.2 page 297 :

Proposition 10.5 Soit h une forme hermitienne


-

sur un espace vectoriel E de dimension


finie sur C. On associe à h l'application linéaire

j(h) : E —> E* où h(',y) : E — C


y i—>
h(-,y) x i—>
h(x,y)

Si {ei} est une base de E et {(fi} sa base antiduale, on a :


M{h)&i =
M[ j(h) )
10.2 Orthogonalité. Vecteurs isotropes 329

Ces remarques justifient la définition suivante, valable en dimension infinie.

Définition 10.6 -

Soit E un espace vectoriel surC (non nécessairement de dimension finie)


et h une forme sesquilinéaire (cf. page 274)> On appelle rang de h le rang de l'application
j(h) : E —^ ET où h(-,y) : E —> C
y ' >
h(-,y) x I >
h(x,y)
On appelle noyau de h le noyau de j(h) :

N(h):={yeE\h(x,y) =
0, \/x G E}
On dit que h est non dégénérée si j(h) est injective c'est-à-dire si N(h) =
0, ce qui signifie
que : h (ce, y ) 0, Mx G E => y 0.
= =

Notons enfin que si h est une forme hermitienne définie positive *, alors h est non

dégénérée.
En effet si x est tel que h(x, y ) =
0 , Vy G E, on a en particulier /i(#, x ) =
0, donc x =
0.

Exercices 1. 2. 3.

10.2 Orthogonalité. Vecteurs isotropes


Définition 10.7 Soit h une forme hermitienne sur E.
-

1. x,y G E sont dits orthogonaux pour h si h{x>y) =


0.

2. x G E est dit isotrope si q(x) =


0 ,
où :
q(x) h(x,x). =
On note :

1 =
{x G E | q(x) 0} =

S. Soit A C E ; on pose : A± {x G E \ h(x,a) 0 = =


,
Va G A}. A1- est un

sous-espace vectoriel de E dit orthogonal de A par h.

Comme pour les formes quadratiques (cf. 9.19, 9.21, 9.23) on montre :

Proposition 10.8 -

1. {0}-1 =
E ,
E±= N(h) ;

N(h) C I ,
A± c N(h) ,VAcE.
2. Si E est de dimension finie, pour tout sous-espace vectoriel F de E, on a :

a) dim E =
dim F + dim FL -

dim(F n N) ;

b) F±A- =
F + N où N =
N(h) .

S. Un sous-espace vectoriel F de E est dit isotrope si F D F1- ^ {0}.


Si E est de dimension finie, on a :

E =
F © F1- <^=> F est non isotrope.

(pour la démonstration de 2. a), cf. exercice 4.).

Exercice 4.

1c'est-à-dire :
h(x,x) > 0, \/x G E et (h(x,x) = 0
j ^^ x = 0 ( c'est-à-dire, en fait, si h

définit un produit scalaire hermitien, cf. définition 8.2).


330 Formes hermitiennes

10.3 Bases orthogonales et classification des formes


hermitiennes

Comme pour le produit scalaire hermitien (cf. définition 8.7), on pose la définition :

Définition 10.9 -

Une base {ei} est dite orthogonale pour la forme hermitienne h si


h{ei,ej) =
0 pour i ^ j. Elle est dite orthonormée si h(ei,ej) =
ôij.
Il est clair que {e*} est une base orthogonale si et seulement si :

/ ai 0 0 \

0 a2
M(h)ei =
(ai e

\o 0 an )
ou encore

q(x) =
h(x,x) =
ai \xi\2 H han|a;n|2 (si z =
X)ILi ^e* )
De même, {e^} est une base orthonormée si et seulement si :

/ 1 0 ...
0 \

0
M(h)ei
0

\0 1/
ou encore

q(x) =
|zi|2 + H- \xn\2 ( si x =
Yh=i xiei)-
On voit immédiatement que les bases orthonormées n'existent pas toujours : il existe
une base orthonormée si et seulement si h est définie positive, c'est-à-dire si h définit

un produit scalaire hermitien. En revanche, il existe toujours des bases orthogonales :

Théorème 10.10 Soit E =£ {0} un espace vectoriel de dimension finie surC muni
-

d'une forme hermitienne h. Il existe alors toujours des bases orthogonales pour h.
La démonstration est la même que pour les formes quadratiques (cf. théorème 9.12).
De la même manière on montre aussi
(cf. théorème 9.16) :
Théorème de Sylvester . 10.11 -

Soient E un espace vectoriel de dimension finie


sur C et h une forme hermitienne sur E. Il existe alors une base (orthogonale) [ei]
de E telle que :

/n i \
o

M(q)ei =

0
o /
10.4 Groupe unitaire associé à une forme hermitienne 331

c'est-à-dire telle que, si x =

\J Xiei :

2=1

q(x) =
\xi\2 + h \xp\2 -

|zp+i|2 \xr\2
où r =
rg(/i).
L'entier p ne dépend pas du choix de la base. Le couple (p,r —

p) est
dit signature de h .

On en déduit (cf. corollaire 9.17) :

Corollaire 10.12 Soit h une forme hermitienne sur un espace vectoriel complexe E
de dimension finie n. Alors :

h est définie positive <^=> sign(/i) =


(n, 0)
(c'est-à-dire E est hermitien) §
il existe des bases orthonormées
h est définie négative 4=^ sign(/i) =
(0,n)
(c'est-à-dire h(x) < 0

et h(x) 0 => z
= =
0,)
h est non dégénérée <==> sign(/i) =
(p, n

p)
(c'est-à-dire N(h) =
{0};
Exercices 5. 6. 7.

10.4 Groupe unitaire associé à une forme hermitienne

Le but de ce paragraphe endomorphismes qui conservent une forme


est d'étudier les
hermitienne (non dégénérée). s'agit l'analogue des transformations
Il donc de
orthogonales étudiées au chapitre précédent (cf. page 316). Commençons par définir la notion
d'endomorphisme adjoint.

Proposition 10.13 Soit (E,h) un espace vectoriel complexe de dimension finie


-

muni d'une forme hermitienne non dégénérée. Pour tout endomorphisme f de E il


existe un et un seul endomorphisme f* de E, dit adjoint de f relativement à h, tel
que :

h(f(x),y)=h(x,f*(y)), Vx,y e E.

Si {ei} est une base de E, H =


M{h)ei, A =
M(f)ei et A* =
M(f*)eu on a :

A* =
H~lt~Â H

La démonstration est immédiate : la condition équivaut à t(AX)HY =l X H A* Y,


VX, Y G A/Jn,i(C), d'où on obtient facilement la relation entre A* et A.
Les propriétés de la proposition 9.27 se généralisent facilement et se démontrent de
la même manière.

Proposition 10.14 -

Pour tous endomorphismes f etg et pour tout À G C, on a :

a) f** =
(id)*
f ,
=
id ;

b) (f 9)* r+9*, (A/r A/*,


+ = =
(fog)*=g*or;
c) rg/*=rg/, dét/* dét/. =
332 Formes hermitiennes

Proposition 10.15 Soient (E,h) un espace vectoriel de dimension finie


-

sur C
muni d'une forme hermitienne h non dégénérée et f un endomorphisme de E.
Les propriétés suivantes sont équivalentes :

1-
Q(fix)) =
Q(x) »
Vx e E ,
où q(x) :=
h(x,x)
2. h(f(x)J(y))=h(x,y), Mx,y G E

3- /* o
/ id (ou,
=
d'une manière équivalente, / o
/* =
idj.
En particulier f est bijective.
Un endomorphisme qui vérifie ces propriétés est dit unitaire relativement à h.

La démonstration est analogue à celle de la proposition 9.28. On vérifie facilement


que :

Proposition 10.16 Les applications unitaires forment un groupe pour la loi des
-

composition des applications, dit groupe unitaire associé à h, noté\J(h). Si f G U(ft)


alors | dét / | 1. =

L'ensemble SU {h) : { / G U(/i) | dét / 1 } est un sous-groupe de U(/i) dit groupe


= =

spécial unitaire associé à h.

Finalement, on trouve facilement la caractérisation des matrices qui représentent les


transformations unitaires associées à h. Si {e;} est une base de E, H M (h)e. et
=

A =
M (/)ei, alors / G U(ft) si et seulement si

lÂHA = H

f e\J(h) h{f{^f(y)) h(x,y), \/x,y e E


En effet : ^ =

^=ï
t{AX)HAY=tX_HYi VI,7gK,iW
<^ tXtAHAY= lXHY, \/X,Y G Mn,i{K)
«=> *ÂHA = H

Exercice 8.

10.5 Formes hermitiennes dans un espace hermitien

Dans ce paragraphe on suppose, comme au chapitre 9 (cf. page 313), que l'espace
vectoriel E est muni de deux structures : une forme hermitienne h et un produit
scalaire hermitien ( | ). Comme dans le cas réel (cf. théorème 9.24 page 313), on

montre qu'il existe des bases orthogonales à la fois pour h et pour ( | ).


Théorème 10.17 -

forme hermitienne sur un espace hermitien


Soit h une

(E, ( | )). orthogonales à la fois pour h et pour ( \ ).


// existe alors des bases
De telles bases se construisent en prenant une base orthogonale (orthogonale pour
( | )) dans chaque espace propre de Vendomorphisme fh défini par :
(fh(x)\y) =
h(x,y), Vx,y G E

fh est en effet autoadjoint donc diagonalisable et ses espaces propres sont deux à deux
orthogonaux pour ( | ).
2

2cf. théorème 8.16, page 285.


Exercices 333

La démonstration est la même que celle du cas réel (théorème 9.24 page 313).
De la même manière que le corollaire 9.25, on démontre aussi le corollaire :

Corollaire 10.18 -

Soit h une forme hermitienne sur un espace vectoriel complexe


de dimension finie et H =
M(h)ei où {e^} est une base quelconque. Alors :

1. On peut construire une base orthogonale de h formée par des vecteurs propres
de H.

2. De plus :
sign(/i) =
(n + ,n-), où :

n + =
nombre des valeurs propres strictement positives de H,
n- =
nombre des valeurs propres strictement négatives de H.

Exercices 9. 10.

EXERCICES

1 Déterminer le rang et le noyau de forme hermitienne h sur C3 définie par

q{x) =
h(x,x) =
\x\\2 -j- 4 |x2|2 + 2|cc3|2 -

2ix\ X2 + 21x2%! + (1 -

0^1 #3 +
(1 + i ) X3 xi + 2 (1 + i) X2 X3 + 2 (1 -

i ) xs X2

|~2 1. Soit E un espace vectoriel de dimension finie sur C, {ei} une base de E. Montrer
{ipi} de E* telle que : ¥>i(ej) = Sij (base
' '
qu'il existe une et une seule base

antiduale de {ei}).
2. Déterminer la base de (C3 )* antiduale de la base :

ei =
(1,1,-2*), e2 =
(0,1 + 2,-1), e3 =
(i,0,0).

3 Soit E espace vectoriel de dimension finie C. Montrer que E* est canoniquement


*
un sur

isomorphe à E.

4 Soit E un espace vectoriel de dimension finie sur C muni d'une forme hermitienne h. Si
F est un sous-espace vectoriel de E, on pose :

F° =
{u;eE* :
v(x) = 0 ,
Va; E F}
1. Montrer que dimF0 = dimE —

dimF.

2. Soit
j :E—> E*
Vf >h(-,y)

En identifiant E** avec E (cf. exercice 3.), montrer que j(F)° = F-1-.
3. En déduire que pour tout sous-espace vectoriel F de E on a :

dim E = dim F + dim F1- -

dim (F ON).

5 Déterminer le rang et la signature de la forme hermitienne associée à la matrice


hermitienne
1 0 -2%
0 -2 1 + i
2% 1-i 0

6 Soit la forme hermitienne sur C2 définie par :

q(x) =
\Xl-(2 + i)x2\2
334 Formes hermitiennes

Déterminer F-1-1, où F = Vect ( j .

7 Construire une matrice hermitienne non nulle d'ordre 3 dont toutes les lignes sont

proportionnelles.

8 On considère sur Cn la forme hermitienne définie par la matrice H = f


^ _
T ]
et on note U(p, q) le groupe unitaire associé à cette forme hermitienne. On note aussi
U(n) =
U(n, C). Montrer que :
U(n)nV(p,q)=U(p)xV(q)

9 Réduction simultanée de deux formes hermitiennes

1. Généraliser le résultat de l'exercice 24. du chapitre 9. au cas des formes


hermitiennes :

Soient h et h' deux formes hermitiennes sur un espace vectoriel complexe


E de dimension finie. On suppose que h est non dégénérée. Il existe alors
une base qui est orthogonale à la fois pour h et pour h' si et seulement si

l'endomorphisme f défini par


h(f(x),y) =
h'(x,y), Vxty <E E

est diagonalisable.
2. Soient H et H' les matrices de deux formes hermitiennes h et h' dans une certaine
base, h étant supposée non dégénérée. Montrer que si H2 =
if'2, alors il existe
une base qui est orthogonale à la fois pour h et pour h'.

10 Sans effectuer des calculs, expliquer pourquoi la matrice

y/2 l +iy/2 -i \
l-iy/2 y/2 y/2
i s/2 -y/2 )
admet au moins une valeur propre positive et au moins une valeur propre négative.

INDICATIONS

1 Déterminer le rang de la matrice associée à h à l'aide de la méthode du pivot. On trouve

rang/i = 1. N(h) est l'hyperplan x\


2ix2 + (1 —

i)X3 =
0.

2 1. Si ipi(ej) =
Sij et les ipi sont antilinéaires, nécessairement : (pi(x) =
x~i. Vérifier
{(pi} est libre et génératrice, en notant que, si 6 G E*,
' '
que la famille alors :

e(X) =
y^2Wi 0(e*) =

^Z V*te) ^(ei) =^Zai Vite) ou ai =


e(ei)-
i i i

2. Soit {<pitip2, ^3} la base antiduale. Si (pi(x) ax\ + bx2 + cx~3


= on doit avoir :

¥>i(ei) 1, ^1(^2)
= =
0, (pi(e3) =
0 ; ce qui donne le système :
a + ic=l
-1+i
(l-i)b -c = 0 D'où: o =
0, b=
2
,
c =-i
-ia =0

et donc : tp\(x) =
x~2 —

i X3.

De même on trouve :
(p2(x) =
X2 yzix) = 1 x\ -\ X2 £3

,
Exercices 335

3 Considérer l'application :

i/> :E—>E** où: ip(x) : E*—> C

Montrer que î/j(x) est bien antilinéaire, et que i/j est linéaire et injective.

(~^ I 1. Même démonstration que pour la proposition 3.39 page 87.

2. j(Ffc E** E (cf. exercice 3).


~

j(F)° =
{z eE\<p(z) 0, V<p =
e j(F)} =
{z eE\h(z,x) =0,VxeF}
= F±
3. Mêmes démonstrations que pour le lemme 9.20 page 311 et la proposition 9.21.

I 1 I I2 I I2
|5 I q(x) =
\xi + 2 i Z3 2 îC2 + (1 0 ; rang ç =
2, signg =
(1,1).
- —

6 Puisque rang q =
1, on a dimAf = 1. N est défini par x± —

(2 —

3i)x2 = 0. On voit

immédiatement que F n N =
{0}, donc FJ~L = F + N = C2.

7 II suffit de considérer une forme hermitienne de rang 1 et de prendre sa matrice. Par

I I2
exemple : q (x) =(l + 3i)o;i—ia?2 + (l+2i) . On obtient la matrice

10 -3-2 7-i
-3 + i 1 -2 + i
7+i 2+i 5

dont les lignes sont bien proportionnelles, malgré les apparences ...

|8 | On a : I .

D ) G U(n) nU(P^) si et seulement si B =


0, C =
0 et Ae U(p),
D e\J(q) (cf. exercice 22. du chapitre 7).

|~^ I 1. Suivre l'exercice 24. du chapitre 9.

2. Il existe une orthogonale


base commune si et seulement si la matrice H~l Hf
est diagonalisable. Ce sera le particulier, si H~x H' est unitaire (car
cas, en

toute matrice unitaire est normale donc diagonalisable dans C) c'est-à-dire si


H-1 H' (H-1 H')* I, ce qui équivaut à H2 H'2, car H et H' sont hermi-
= =

tiennes.

10 Si h est la forme hermitienne sur C3 représentée par H dans la base canonique {e;},
on a : q (ei) =
y/2 > 0 et q (es) = —

y/2 < 0 ; donc la signature ne peut être ni (r, 0),


ni (0,r).
Appendice A.l

Vocabulaire de base

Applications

Soient E et E' deux ensembles. Une application f de E dans E' est un procédé qui à tout
x de E associe un élément (unique) de E\ noté
élément f(x). On note cela :

/ :E — E'
X —>
/(*)

Exemples :
f : ¥>Ix i
est une application ;
sinx

/ :R+ —> R n'est pas une application.


*
{y/x, -y/x}
i

Si / : E — F et g : F G sont deux applications, on note go f l'application (dite


composée) :

gof :E—> G
* —
9(f(x))

Figure 1

Définition A.l.l .
-

Soit f : E —> E1 une application. Si x G E, f(x) est dit image de x par f ; x est dit
antécédent de f(x).
Si A C E, on appelle image de A par f le sous-ensemble de E' :

f(A) : =
l images des éléments de A> =
<y G E' \3x G A : y =
f(x) >

f(E) est noté Im/ et est dit image de f.

337
338 Vocabulaire de base

Figure 2

Exemple -

Soit / : R —

. On a: /([0,tt]) =
[0,1] et Im/= [-!,+!].

Figure 3

Définition A. 1.2 -

-
Une application f : E —> E' est dite surjective si f(E) =
E', c'est-à-dire si tout
élément de E' est Vimage par f d'un élément de E :\/y G E' 3x G E : y
=
f(x)
-

L'application f : E — E1 est dite injective si : x


^ x' => f(x) ^ /(#') c'est-à-
dire : si deux éléments sont distincts alors leurs images sont distinctes. En prenant
la contraposée, cette propriété est équivalente à :

/(*) =
/(*') x = x .

f : E —> E' est dite bijective si elle est injective et surjective, c'est-à-dire si ,

Vy G E' il existe un et un seul x E E tel que y =


f(x).

fM =
f&i)

Application injective
Application non injective

Figure 4
339

Si / : E —> E'
bijective, on peut définir une application g : E'
est E comme suit : —>

à l'élément y G E' fait correspondre son antécédent x dans E qui existe (puisque / est
on

surjective) et est unique (puisque / est injective). g est dite application réciproque ou inverse
de / et est notée /-1. On a, d'après la définition :

fof~1= id^/ , r1 / o =
idjs,

où :
idE : E —>E.
X l > X

Lois de composition
Une loi de composition interne sur un ensemble E est une application :

* : ExE—> E

L'image du couple (x,y) est notée x * y. On emploie aussi, selon les cas, les notations x y
ou x + y .

Si E et Q. sont deux ensembles, une loi de composition externe sur E de domaine d'opérateurs
Cl est une application :
QxE—> E

L'image du couple (À,#) est notée À x ou aussi Xx.

Définition A.1.3 -

-
Une loi interne * sur E est dite associative si :

a* (b* c) =
(a*b) * c
Va, fr, c G E.

a*b =
b*a Va,b G E.

-
5;î/ existe un élément e G E tel que :

e*x =
x*e =
x Vx e E

e est dit élément neutre. (On voit facilement que l'élément neutre, s'il existe, est

unique).
-
Si l'élément neutre existe, un élément x e E est dit symétrisable s'il existe x' e E tel que :

x * x —

x * x =
e.

x' est dit symétrique de x.

Exemple -

La multiplication dans R est commutative et associative ; l'élément neutre


est 1 ; tout x G M, x ^ 0, est symétrisable et son symétrique est K
De même l'addition dans R est commutative et associative ; l'élément neutre est 0 ; tout
xG M est symétrisable et le symétrique de x est —x.

En général, si la loi est notée multiplicativement, le symétrique de x est noté x~x ; si la loi
est notée +, le symétrique de x est noté —x.

Définition A.1.4 -

Soient (£, *) et (E',*') deux ensembles munis de lois de composition


internes. Une application f : E —> E' est dite homomorphisme si :

f(x*y) =
f(x)*'f(y).
Un homomorphisme bijectif est appelé isomorphisme.
340 Vocabulaire de basp

Groupes, anneaux, corps

Groupes
Définition A. 1.5 -

On appelle groupe un ensemble muni d'une loi interne qui vérifie les
propriétés suivantes :

la loi est associative,


-
il existe un élément neutre,
-

tout élément est symétrisable.

Exemples: (Z,+), (Q>+)> 0»,+), (C,+), (R\ {<>}, ), (C\ {()}, ).


L'ensemble des applications bijectives de E dans E est un groupe pour la loi de
composition des applications.
Un sous-groupe d'un groupe G est un sous-ensemble non vide H de G auquel la loi induite
(c'est-à-dire la restriction de la loi de G à if), confère une structure de groupe.
On voit facilement que :

H C G est un sous-groupe de G si et seulement si :

1. H ^0
2. Va,&<E#, ab'1 e H.

Par exemple (Z,+) est sous-groupe de (Q, +). (Q,+) est sous-groupe de (M, +).

Anneaux

Définition A. 1.6 -

On appelle anneau un ensemble A muni de deux lois de composition


internes notées + et , telles que :

(.A,+) est un groupe commutatif ;


-

La loi est associative ;

-a-(6 + c) =
a-6-f-a-c
(a + b)-c =
a-c-\-b-c Va, 6, c G A.

L'anneau est dit unitaire si la loi multiplicative admet un élément neutre, que l'on note 1A
ou plus simplement 1.

(a -
b est noté souvent, plus simplement, ab).

Exemples: (Z,+,-), (R,+,-), (C,+,.),Mn(K), Mn{C);


R[x], C[x] (fonctions polynômes à coefficients respectivement dans R et dans C) avec les
lois habituelles de somme et de produit de fonctions.

Z2 : =
{0,1} avec les lois : 0 + 0 =
0 0-0 =
0
0 + 1 = 1 + 0= 1 0-1 =
1-0 =
0
1 + 1 =
0 1-1 = 1

Plus généralement si n est un entier strictement positif :

^n : =
{0,1, 2,..., n —

1} avec les lois : a + b : =


reste de la division de a + b par n

a b : =
reste de la division de a -
b par n

est un anneau dit anneau des entiers modulo n


(cf. aussi exemple 2. page 353).
Un anneau est dit intègre si on a la propriété : ab =
0 => a —
0 ou b =
0.
Par exemple : Z, R, C intègres. sont

Mn(R) n'est pas intègre


Zn n'est pas intègre si n n'est pas premier (par exemple,
dans Z6 on a 2-3 =
0).
341

Soit A un anneau unitaire. S'il existe un entier p > 0 tel que

l + ...

+ l =
0

p fois

on dit que l'anneau est de caractéristique non nulle et le plus petit entier p pour lequel cela
seréalise est dit caractéristique de l'anneau . Si un tel entier n'existe pas l'anneau est dit de
caractéristique nulle.
Par exemple : Z, R, C sont de caractéristique 0.
Zn est de caractéristique n.

On peut montrer que la caractéristique d'un anneau intègre est soit 0, soit un nombre premier.

Un sous-anneau d'un anneau A est un sous-ensemble non vide de A auquel les lois induites
confèrent une structure d'anneau.

B C A est un sous-anneau de A si et seulement si

1. 5^0
2. Va, b G B : a -

b G B et ab G B.

Un idéal d'un anneau commutatif A est un sous-ensemble non vide I de A tel que :

1. Vx,y £ I : x

y G I
2. Va G A et Vx G J : ax e I.

En particulier, tout idéal est un sous-anneau.

Exemples : nZ est un idéal de Z.


Soit A un anneau commutatif, a G ^4 et

(a) := < £ G A | x =
ab, avec 6 G A l =
aA

(a) est un idéal, dit idéal engendré par a.

Définition A. 1.7 Un anneau commutatif A est dit principal si ses seuls idéaux sont du
type (a) avec a e A.

Nous verrons (cf. Appendice A.2.) que les anneaux des polynômes R[x] et C[x] sont

principaux.

Corps
Définition A. 1.8 -

On appelle corps un ensemble K muni de deux lois internes, notées


+ et -, telles que :

(K, +, ) est un anneau

(jK"\{0}, ) est un groupe (0 étant le neutre de la loi +).


Le corps est dit commutatif si la loi est commutative.

Tout corps est un anneau intègre. Donc sa caractéristique est soit 0, soit un nombre premier.

Exemples :

(Q,+,.), (R,+,-), (C,+,-)


On montre que Zp est un corps si et seulement si p est premier. Par exemple, dans Z7 le
symétrique de 4 relativement à la loi + est 3, et relativement à la loi est 2.
342 Vocabulaire de base

Modules. Algèbres
Définition A. 1.9 -

Soit A un anneau commutatif unitaire. Un A-module est un


ensemble
M muni d'une loi interne notée + et d'une loi externe de domaine d'opérateurs A, telles
que :

(M, +) est un groupe abélien ,

\(/j,x) (\(j,)x,
=

(\ + fjb)x \x-\-fj,x, =

\(x + y) \x + \y, =

lAx = x , VA, lie A et Va;, y e M.

En d'autres termes, un module est une sorte d'espace vectoriel dont les scalaires sont les
éléments d'un anneau (au lieu d'être les éléments d'un corps).

Exemple :
Mnfà) —

\ ensemble des matrices carrées d'ordre n à coefficients dansZl

Définition A.1.10 Soit A un anneau commutatif unitaire. On appelle A-algèbre un


-

module M sur A, muni d'une loi notée multiplicativement, telle que :


1. (At,+,-) est un anneau unitaire,
2. \(xy) (\x)y x(\y),
= VA G A, Vx,y
=
G M

Le cas le plus fréquent est celui où A =


K est un corps commutatif. Dans ce cas, une algèbre

est un espace vectoriel sur lequel est définie une loi multiplicative, vérifiant les propriétés 1.
et 2.

Exemples : C en tant qu'espace vectoriel (sur K ou sur C) avec produit habituelle ;


la loi de

Mn{1>), Mn{^) Mn(C), ,


avec les lois habituelles de somme, produit par un scalaire et
produit de matrices.
L'algèbre des quaternions est ainsi définie. On considère l'espace vectoriel R4 dont la base
canonique est notée (1, i, j, k). On définit une loi multiplicative par la table de
multiplication
1 i j k

~T| n~ i j k
i | i -1 k -j
j j -k -1 i
k k j -i -1

que l'on prolonge linéairement à M4. L'algèbre des quaternions est notée habituellement
H (du nom du mathématicien Hamilton qui l'a introduite). On voit facilement que H
(+, ) est un corps non commutatif (cf. exercice 12 chapitre 8, où l'on a construit un corps
de matrices H isomorphe à H).

Groupes de transformations

Définition A. 1.11 Soient G un groupe et E un ensemble. On dit que G est un groupe


-

de transformations de E (ou aussi que G opère sur E)1


si l'on se donne une application

Gx E — E

(a,x) i—> a-x

telle que : 1. Va, b G G : a (b x) =


(a b) x ;
2. Va; G E : e>x =
x.

on dit encore que G agit sur E.


343

Soit a G G et ipa l'application de E dans E définie par x \—> a x ; ipa est bijective.
En effet, pour tous x G E :

Va °^Pa-1{x) —

a '

(a_1) *
x —

(ûû_1) ^ =
e x =
x

donc <£a °
^a-1 —

i^s ,
c'est-à-dire : ipâ1 =
y^-1-

Exemples :

1. E E2 et G le groupe orthogonal
= : G =
0(2, R) (cf. chapitre 7. page 240). G est une

groupe de transformations de E :

G x E2 — E2
(A , x) i A a;

2. G =
GL (n,E), E =
.M„(R) (cf. chapitre 3 page 76). On définit

G x Mn(R) —>
Mn(R)
(P ,A) i P-MP

3. Soit E un espace vectoriel et G =


(#,+). On définit

GxE —> E

(a,x) i—> a; + a

Cette action est dite action des translations.

Définition A. 1.12 -

Soit G un groupe de transformations de E et x G E. On appelle orbite


de x, Vensemble des transformés de x par les éléments de G :

orbite{x} =
G x =
{a x
|aGG}

On dit que G opère transitivement si :

Va;,y G E, 3a G G tel que : x =


a-y

c'est-à-dire, si pour tout couple d'éléments de E il existe une transformation qui fait passer
de l'un à l'autre (en d'autres termes : il y a une seule orbite).

Par exemple, l'action de 0(2, E) sur E2 (cf. exemple 1) n'est pas transitive : deux vecteurs
de norme différente ne peuvent pas être transformés l'un dans l'autre par une transformation
orthogonale. Les différentes orbites sont les cercles de centre 0 et le point 0.
L'action
GL(n,E) x
En\{0} — En
(A , x) i Ax

est transitive soient x,y G E \ {0}, compléter x en une base B


( {e\ X, 62} 6n }> y = —

}
en

une base B' =


{e'i y, e72, eén et considérer l'isomorphisme / défini par /(e») e'\).
=
,
=

L'action de GL(n,E) sur .Mn(E) (exemple 2.) n'est pas transitive : les orbites sont
constituées par les matrices semblables entre elles (il existe donc une bijection canonique entre
l'ensemble des orbites et End(En)).
L'action des translations (exemple 3.) est transitive.
344 Vocabulaire de base

Définition A. 1.13 -

On dit que G opère effectivement si e est Vunique élément de G tel


que ipe =
id, c'est-à-dire si :

a -
x =
x ,
\/x G E =>> a = e.

On dit G opère librement si

3x G E : a x = x => a = e

(c'est-à-dire si la seule transformation qui a des "points fixes" est l'identité).

Par exemple, l'action de 0(2, M) sur M2 ( exemple 1.) est effective, mais elle n'est pas libre,
car symétrie par rapport à une droite vectorielle laisse invariants les vecteurs de la droite.
la
L'action de GL (n, R) de l'exemple 2. n'est pas effective (et donc n'est pas libre) car y>_/ id. =

G opère librement si et seulement si

a -
x = b '
x => a = b

En effet supposons que G opère librement et soit a x b x. En faisant =


agir 6_1, on a

b~xa x x, d'où b~xa


= e et donc a
=
b. La réciproque est évidente.
=

En particulier, G opère transitivement et librement si et seulement si

Vx, y G E, 3 ! a G G tel que : x = a- y.

Par exemple, l'action des translations sur un espace vectoriel E est libre et transitive.
Appendice A.2

Polynômes

Fonctions polynômes. Polynômes formels

Soit A un anneau commutatif unitaire (c'est-à-dire pour lequel il existe un élément neutre
pour la multiplication, noté 1) : par exemple A =
Z, Q, R, C, Zn, ..

Définition A.2.1 On appelle fonction polynôme sur A une application : a : A —> A du


-

type :

a(x) =
ao 1 + ai x + a2 x2 + -h an xn

où ao, ai,..., an G A et n G N. L'ensemble des fonctions polynômes sur A est noté A[x\.
A[x] est muni d'une structure d'anneau pour les lois :

(a + 0)(x) : =
a(x) + 0(x)
{a>P)(x) : =
a(x)-P(x).

Un calcul facile montre que si a(x) =^2 aiX% et /3(x) =Y2 bjX^ (où x° : =
1), alors :
* ô

=^2 =^2 ak bn~k'


n

(a p){x) Cn xn ,
avec cn
n k=0

Si K est un corps (commutatif), K[x] est muni d'une structure d'espace vectoriel sur K pour
les lois (cf. page 5) :
{a + p){x) : a(x) + 0(x) =

(Xa)(x) : Xa(x). =

Si l'on ne considérait que le Z, Q, M, C,... l'on pourrait se limiter à étudier les


cas où A =

fonctionspolynômes. Cependant lorsque A ne contient qu'un nombre fini d'éléments (par


exemple A Zn) certaines difficultés apparaissent.
=

Considérons par exemple sur l*2[x] les deux fonctions polynômes :

a(x) —
x et /3(x) = x

On a : a(0) =
0 0(0) =
0
a(l) = 1 P(l) = 1

Donc lesapplications /3 égales sur tous les éléments de Z2 et par conséquent, a


a et sont /3. =

exemple que l'on ne peut pas définir la notion de degré d'une fonction polynôme
On voit de cet
comme on le fait classiquement dans R [x] : a (qui est égal à (3) est-il de degré 2 ou 3 ?

On préfère par conséquent adopter un autre point de vue et étudier, au lieu des fonctions
polynômes, ce que l'on appelle les «polynômes formels».

WSr
346 Polynômes

Considérons une suite (ao, ai,..., an,...) d'éléments de A nuls à partir d'un certain rang.
On peut lui associer la fonction polynôme :

a(x) =
ao
-
1 + a\x + h anxn -\

L'exemple précédent montre qu'en général cette correspondance n'est pas injective. En effet :

(0,0,1,0 0 ) i
a(x) =
x2
(0,0,0,1,0 0 .. ) i
p(x) =
x3 '

puisque a =
(3 on a deux suites différentes auxquelles correspond la même fonction polynôme.
En d'autres termes, étant donnée une fonction polynôme, on ne peut pas parler d'une manière
unique de la suite de ses coefficients. En revanche si l'on parle d'une suite d'éléments de A
(nuls à partir d'un certain rang) la fonction polynôme admettant cette suite comme suite
de coefficients est bien définie. Ceci montre qu'il est préférable de s'intéresser aux suites
(ao, ai,..., an, ..) d'éléments de A (nuls à partir d'un certain rang).
Définition A.2.2 -

Soit A un anneau commutatij unitaire. On appelle polynôme formel


sur A (ou simplement polynôme sur A) toute suite (ao, ai,..., an, ) d'éléments de A nuls
à partir d'un certain rang.
On dit que deux polynômes formels (ao, ai,..., an,...) et (&o, &i,. , bn,...) sont égaux si
a,i bi, Vz G N.
=

L'ensemble des polynômes formels sur A est noté A[X].


On a une application :

cp :
A[X] —
A[x]
(ao,ai,...,an,...) —*
a0l+aix-\ |-an:rn+---
On vient de voir que cette application (qui est, bien entendu, surjective) n'est pas, en général,
injective. Nous verrons, cependant, que si K est un corps ayant une infinité d'éléments, alors
(p :
K[X] —>
K[x] est une bijection (cf. corollaire A.2.11) .

A[X] est muni d'une structure d'anneau pour les lois :

(ao, ai,... ,an, ...) -f (&o, &i,... ,6n,. ) :=


(ao + &o, ai + 6i,... ,an + 6n,...)
(ao, ai,... ,an, ...) (bo, fci,... ,6n,. ) :=
(co, ci,.. .,cn,...)

OU : Cn =
E 0>k On-k-
k=0

Si K est un corps commutatif, K[X] est un espace vectoriel sur K pour les lois d'addition

(comme ci-dessus) et de produit par un scalaire défini par :

À (ao, ai,..., an,...) : =


(Aao, Aai, ..., Aan,...)
L'application (p est un homomorphisme pour ces structures. Comme nous allons le voir (cf.
ci-dessous, corollaire A.2.11), si K est un corps ayant une infinité d'éléments, K[X] est
isomorphe, en tant qu'anneau et en tant qu'espace vectoriel, à K[x\.

Ecriture à l'aide de l'indéterminée

On appelle indéterminée le polynôme formel X =


(0,1,0,... 0,...). On voit facilement que :

X2 =
(0,0,1,0, 0... )
X3 =
(0,0,0,1,0,... 0,... )

*n =
(0,0, ,0,1,0... )
T
(n+l)èmerang
347

Par conséquent, en posant :

X° :=1 :=(1,0,...0,...)
on peut écrire le polynôme formel P =
(ao, ai, a2,..., an,. ) sous la forme :

P =
aol + aiX + a2X2 + + anXn +

Avec cette notation, l'application ip s'écrit :

<p :
A[X] —>
A[x]
i i

On appelle valeur en Xo € A, du polynôme formel P =J2 ai^% ^a valeur en #o, notée


i

P(xo), de la fonction polynôme associée :


P(xo) : =
J2i aixo-
Soit P =
(ao, ai,..., an,...) =£ a*X\ Si P ^ 0 on appelle degré de P le plus grand des
i

entiers k tels que a* ^ 0. Le degré de P est noté d°P. Si P =


0, on pose par convention
d°P =
-oo.

On voit immédiatement que d°(P + Q) < Sup(d°P, d°Q) et que, si A est un corps1, alors

d°(PQ) =
d°P + d°Q.

Résultats principaux de la théorie des polynômes


Dans tout ce paragraphe, K est un corps commutatif. La théorie repose sur deux théorèmes
importants, le théorème de la division euclidienne A.2.3 et le théorème qui affirme que K[X]
est un anneau principal.

Théorème de la division euclidienne. A.2.3 -

Soient A, B € ifpf], B ^ 0.
// existe alors un et un seul couple Q, R G K[X] tels que :

A =
BQ + R et d°R<d°B

Q est dit quotient de la division euclidienne de A par B et R reste2.


Si R =
0 on dit que B divise A et l'on écrit B\A.
Démonstration -
L'unicité est immédiate. En effet, soit A =
BQ + R et A BQl + R' avec =

d°R < d°B et d°R' < d°B. On a : B(Q -

Q') =
R- R''. Si Q Q', alors R
= R'. Par ailleurs =

Q Q', car
= i on avait Q -

Q' ± 0, alors d°B + d°(Q -

Q') =
d°(R R') < B, ce qui est exclu.
-

Pour l'existence :

-
Si d°A < d°B il suffit de prendre Q = 0 et R = A.
-
Si d°A > d°J3, on raisonne par récurrence. Si d°A =
0, le résultat et trivial. Supposons le
théorème vrai à l'ordre n et soit d° A = n + 1. Soient an+i et bp les coefficients dominants de A et
B (c'est -à-dire les coefficients des termes de plus haut degré) et posons Q\ :=
(an+i/6p)Xn+1-p
et A± := A —

BQ±. Puisque d°Ai < n, on peut écrire Ai =


BQ2 + #2, avec d°iÎ2 < d°B, d'où :

A -

BQi =
BQ2 + R2 et donc A =
B(Qi + Q2) + R2 .

Théorème A.2.4 Si K est un corps commutatif, K[X] est anneau principal.

propriété
plus généralement si A est un anneau intègre c'est-à- dire vérifiant la
1
Cette est vraie

propriété ab ou b 0" (pour a,b € A). C'est le cas lorsque A est un corps.
0 => 0
"
= a = =

2Compte tenu de la convention : d°0 00, la condition d°R < d°B signifie : «soit R=
0, soit,

=

si R ï 0, d°R < d°B »


348 Polynômes

Démonstration ^ {0} un idéal de K[X] et d le plus petit des degrés des polynômes non nuls
-
Soit /
de I. Considérons polynôme P G / de degré d et montrons que I
un (P). =

On a : (P) C /, car P G /, donc QP G /, VQ G if [X], puisque I est un idéal. Réciproquement, si


A G /, en effectuant la division euclidienne de A par P, on a : A PQ + R avec d°i? < d°P. Or =

R A PQ G /, car A G I et PQ G / ; donc nécessairement R


= —

0. Ceci signifie que A PQ ç (p) = =

donc A G (P). D

On peut maintenant démontrer facilement les théorèmes suivants :

Théorème A.2.5 -(Existence du PGCD)- Soient {Ai,..., An} n polynômes de K[X] ;


il existe alors un unique polynôme D, normalisé (c'est-à-dire de coefficient dominant égal à
1), qui vérifie les deux propriétés suivantes :

a) D\ Ai, Vi =
1,... ,n.

b) Si P est un polynôme qui divise tous les Ai, alors P\D.


D est dit plus grand commun diviseur (PGCD) des polynômes Ai,..., An et il s'écrit sous
la forme
D =
UiAi + + UnAn ,
avec : Uu ..., Un G K[X]
Les polynômes Ai,..., An sont dits premiers entre eux si le PGCD de {Ai An} est 1.

Démonstration -

Soit X = l U\A\ -\ h UPAP | f/i,..., Up G K[X] \. On voit facilement que X est


un Puisque K[X] est principal, il existe un polynôme D, que l'on peut supposer normalisé,
idéal.
tel que X (D). Ceci signifie que, pour tous £/,..., Up, D divise A\U\ +
=
APUP. En particulier,
en prenant Ui 1 et Uj
= 0 pour j ^ i, on voit que D divise tous les Ai. Réciproquement, soit
=

Q un polynôme qui divise tous les Ai, alors Q \ A\U\ + 4- APUP quels que soient Uii...iUPi
c'est-à-dire Q divise tous les polynômes de X et, en particulier, Q \ D> car D G (D) = X. L'unicité
du PGCD est laissée en exercice. D

On en déduit comme corollaire (cf. page 161) :

Théorème de Bezout . A.2.6 Les polynômes Ai,...,An sont premiers entre eux si et
seulement si il existe des polynômes C/i,..., Un tels que : AiUi + A2U2 + + AnUn = 1.

On note Ai A A Ap le PGCD de Ai,..., Ap.


On peut vérifier que A (Pi A A Pn) =
(APi) A A (APn).

Théorème de Gauss. A.2.7 -


Soient A,Bi,B2 trois polynômes. Si A divise B1B2 et A
est premier avec B\, alors A divise B2.

En effet A A B = 1 d'où :
(APi) A (AB2) = A. Or A\ AB2 et A | £iB2 ; donc A | B2, car B2 est
le PGCD de AB2 et BiB2

On peut maintenant démontrer d'une manière plus précise le résultat (i), page 159 :

Proposition A.2.8 Si P G K[X]


est divisible par des polynômes 2 à 2 premiers entre

produit. En particulier, si ai,..., ap sont p racines deux


eux, alors il est divisible par leur
à deux distinctes de P d'ordre respectivement ai,...,ap, alors P est divisible par (X —

ai)ai (X ap)ap c'est-à-dire P s'écrit sous la forme :


P(X) =
(X- ai)ai (X -

Op)°* Q(X).
349

Démonstration -

Notons d'abord que si A est premier avec Pi et P2, alors A est premier avec
P1P2. En effet de AU\ + P\Vi = 1 et AU2 + P2V2 1, = en multipliant membre à membre, on a :
AU + (PiP2)V =
1, avec U =
AU1U2 + UiP2V2 + U2P1V1 et V =
ViV2> ce qui montre que A est

premier avec P1P2 .

Soient maintenant trois polynômes Pi,P2,P3 deux à deux premiers


entre eux et supposons qu'ils

divisent lepolynôme A. Puisque P\ \ A,


polynôme Q\ tel que A P\Q\. D'autre part,
il existe un =

P2 | A, donc P2 | P1Q1. Mais P\ et P2 sont premiers entre eux, donc, d'après le théorème de Gauss,
P2 | Q\. Il existe donc Q2 tel que Q\ P2Q2 et donc : A (PiP2)Q2- D'autre part, P3 | A,
= =

donc P3 | (PiP2)Q2 et comme P3 est premier avec P1P2, il divise Q2. Il existe donc Q3 tel que
Q2 =
P3Q3 et, par conséquent A (PiP2P3)Q3- La démonstration se généralise facilement au cas
=

de p polynômes deux à deux premiers entre eux.

Isomorphisme entre K[X] et K[x], si K est infini.

De la proposition A.2.8 il dérive un certain nombre de corollaires.

Corollaire A.2.9 Si P G K[X] admet n racines distinctes, alors :


-

soit P =
0
-

soit d°P > n

Corollaire A.2.10 (critère d'identité des polynômes) -

Soient A^B de degré < n et ai,... ,an+i G K deux à deux distincts. Si A(ai) =
B(ai)
pour i = 1... n -h 1 alors A —
B.

En effet le polynôme A —

B aura n + 1 racines distinctes ; puisque son degré est n, on a

A-B =
0.

Corollaire A.2.11 Soit K est un corps ayant une infinité d'éléments (par exemple K R =
-

ou C) ; alors l'application cp K[X] : —>


K[x] qui à tout polynôme formel associe sa fonction
polynôme est un isomorphisme
(d'anneau et d'espace vectoriel).

En effet deux polynômes qui définissent la même fonction polynôme prennent la même valeur
sur tous les éléments de K. Leur différence s'annule donc une infinité de fois et, ne pouvant
être de degré infini, elle est nulle.
Appendice A.3

Quotients

Ensemble quotient

Intuitivement, la notion de quotient est très


simple : il s'agit de partager un ensemble E en sous-
ensembles disjoints. Ces sous-ensembles sont dits
«classes» ; l'ensemble des classes est dit ensemble
quotient. Par exemple Z peut être partagé en deux
classes :

Z =
PUI où :

P =
{x G Z |x = 2k avec k G Z} =
{nombres pairs}
I =
{x£Z\x =
2k + l avec k G Z} =
{nombres impairs}
Figure 1

L'ensemble quotient, noté Z2 a deux éléments : Z2 {P, /} =

On a vu auchapitre 4. (cf. proposition 4.32 page 132) que l'ensemble des bases d'un espace
vectoriel de dimension finie peut se partager en deux classes, les classes d'orientation. Ici
aussi l'ensemble quotient est formé de deux éléments.

Définition A.3.1 -

Soit E un ensemble; on appelle partition de E une famille de sous-


ensembles non vides de E (Xi)ieI deux à deux disjoints, qui recouvre E, c'est-à-dire telle
que :

1. U Xi =
E (où |J Xi =
{xeE\ 3ieI:xeXi}
ieE iei

2. XiDXj =
0, ViJ G I tels que i^j.
On appelle ensemble quotient l'ensemble des éléments Xi de la partition.

La notion de relation d'équivalence, que nous allons définir, permet de construire les
partitions et aussi de vérifier facilement si une famille de sous-ensembles de E est une partition.
Définition A.3.2 On appelle relation binaire
-

sur un ensemble E une assertion notée 1Z

qui porte sur les couples d'éléments de E.


Par exemple :

7^i : "x est inférieur ou égal à y" est une relation binaire sur E
IZ2 "x y est un nombre pair" est une relation binaire sur Z.
'

IZ3 : "a est fils de 6" est une relation binaire sur une population.

351
352 Quotients

Si la relation 1Z appliquée à x et y est vraie, on écrit xlZy.


En reprenant les exemples ci-dessus, on peut écrire :
3 Ui 4 car 3 < 4
12 7^2 16 car 12 —

16 est un nombre pair.


Définition A.3.3 -

On appelle relation d'équivalence sur un ensemble E une relation


binaire sur E qui est :

réflexive, c'est-à-dire : alZa, Va G E\


-

symétrique, c'est-à-dire : alZb => b1Za;


-

transitive, c'est-à-dire : {aJZb , blZc) => alZc.

Par exemple la relation 1Zi ci-dessus est réflexive et transitive mais elle n'est pas symétrique ;
donc elle n'est pas une relation d'équivalence. En revanche IZ2 est une relation d'équivalence.

IZ3 n'est ni réflexive, ni symétrique, ni transitive.


Notation. -

Si 1Z est une relation d'équivalence, on écrit souvent x ~


y, ou plus simplement
x ~
y, au lieu de xlZy, et l'on dit que x et y sont équivalents modulo 1Z.

Définition A.3.4 -

Soit (E,1Z) un ensemble muni d'une relation d'équivalence. Si x G E,


on appelle classe d'équivalence de x par 1Z (ou simplement : classe de x) le sous-ensemble
de E noté x de tous les éléments équivalents à x :

x =
{y G E \y ~
x}
Tout élément de la classe est dit représentant de la classe. En particulier, x est représentant
de x (d'après la propriété réflexive).

Théorème A.3.5 -

d'équivalence sur E. Alors les classes d'équivalence


Soit 1Z une relation
des différents éléments de E partition de E. forment une

Réciproquement, si (Xi)ieI est une partition de E, il existe sur E une relation d'équivalence
dont les classes sont les éléments de la partition.

Démonstration : Montrons d'abord que les classes forment une partition de E.


Il est clair que :

U * = E
xeE

De soient x,y G E ; supposons que x fï y ^ 0 et soit z G x D y. On a alors z


plus, x ~

et z y
~
A l'aide des propriétés de symétrie et transit ivité on voit immédiatement que
.

x y c'est-à-dire x
~
y. Ce qui montre que deux classes sont soit confondues, soit disjointes.
=

L'ensemble des classes d'équivalence forme donc une partition.


Réciproquement, si (Xi)ieI est une partition de E, on définit sur E la relation binaire 1Z :

xlZy <^=> 3ieI:x,y£Xi]


On voit facilement qu'il s'agit d'une relation d'équivalence et que les classes d'équivalence
sont les sous-ensembles Xi de la partition. D

Ainsi une partition peut être définie par une relation d'équivalence.
Définition A.3.6 -

Soit E un ensemble et 1Z une relation d'équivalence sur E. On appelle


ensemble quotient de E par 1Z l'ensemble, noté E/^, des classes d'équivalence pour la
relation 1Z.

Exemple 1. -

Soit la relation d'équivalence 1Z sur Z définie par :

x ~
y <=î> x —

y est un nombre pair.


On a
^/-fc —

^2 (cf. ci-dessus).
353

Exemple 2. -

Plus généralement, soit n G N, n > 0 ; on définit sur Z la relation binaire :

Un ' x ~
y <==> 3k eZ \ x -y = nk

Il s'agit d'une relation d'équivalence. L'ensemble quotient E/^ est noté Zn et est dit
ensemble des entiers modulo n .

Z3, par exemple, a trois éléments :

Ô =
{x eZ : x =
3k, avec k e Z}
ï ={xeZ : x =
3k + lt avec k G Z}
2 =
{zGZ:x =
3/c + 2, avec A; G Z}

Proposition A.3.7 -

Soit E un espace vectoriel et F un sous-espace vectoriel de E. La


relation
xlly ^=> x-yeF
est une relation d'équivalence sur E. L'ensemble quotient par cette relation est noté E/p.
La vérification est immédiate et elle est laissée en exercice.
Si x G E, la classe de x est :

% =
{y £ E | y =
x -h a, avec a e F} =

notât.
x + F

Notons que x + F n'est pas un sous-espace vectoriel de E, mais un sous-espace affine (de
direction F) : x + F rx(F) =
(cf. Appendice A.7 ).
E/p est donc l'ensemble de tous les sous-espaces affines de direction F.

L'espace quotient E/p

Figure 2

Lois de composition qui passent au quotient


Définition A.3.8 -

1. Soit (E,*,7l) un ensemble muni d'une loi interne et d'une relation d'équivalence. On
dit que la loi * est compatible avec la relation d'équivalence 71 si :

1
}
x ~
x
y y
y~y'
x * r^
x *

2. Soit (E^Q^IZ) un ensemble muni d'une loi de composition externe de domaine


d'opérateurs Çl et d'une relation d'équivalence. On dit que la loi externe est compatible avec

la relation d'équivalence si :

x ~
x =^> À x ~
À x ,
VA G Cl
354 Quotients

Exemple
-

Soit E un espace vectoriel et F un sous-espace vectoriel de E. La relation d'équivalence :

xfcy <<=> x-y G F

est compatible avec les lois de E (vérification immédiate).

Proposition A.3.9 -

(Définition des lois quotient)

1. Soit (E, *,7£) un ensemble muni d'une loi interne et d'une relation d'équivalence. Si
* estcompatible avec 7Z, on peut définir une loi interne sur
E/^ (dite loi quotient)
en posant :
x *y = x * y

2. Soit (E,Çl,7l) un ensemble muni d'une loi externe de domaine d'opérateurs Q, et d'une
relation d'équivalence. Si la loi externe est compatible avec 71, on peut définir une loi

externe sur
E/^, de domaine d'opérateurs tl, en posant :

X'X := Xx

Démonstration : Il s'agit de montrer que les définitions ne dépendent pas du choix des
représentants.
Plusprécisément, la loi interne sur le quotient est définie de la manière suivante : soient Ci, Ci
deux classesd'équivalence (c'est-à-dire deux éléments de E/^) ; on choisit un représentant
dans chaque classe (par exemple x G Ci et y G Ci ; donc Ci x et C2 y) ; on pose alors : = =

Ci * C2 = x * y

Il s'agit de montrer que si l'on change de représentant, le résultat ne change pas.


Soient x' G Ci et y' G C2 deux autres représentants ; on aura x x' et y y' ; comme la loi ~ ~

est compatible avec la relation d'équivalence, x * y


~
x' *
y', c'est-à-dire x * y
=
x' *
y'.
De la même manière on montre que la loi externe sur le quotient est bien définie.

Espace vectoriel quotient

Soit E un espace vectoriel, F un sous-espace vectoriel de E et E/p l'espace quotient :


E/F =
{ x + F }xeE- Nous avons vu que la relation d'équivalence définie par F : x y <=> ~

x y G F,

est compatible avec les lois de E. Par conséquent les lois de E "passent au
quotient". On pose :

x +y := x +y
X'X := Xx

c'est-à-dire :

(x + F) 4- (y + F) =(x + y) + F
A-(x + F) =Xx + F
355

(notons qu'il s'agit d'égalités entre des sous-ensembles de E).

Loi de composition sur


E/jp

Figure 3

Proposition A.3.10 -

E/ p muni des lois quotient est un espace vectoriel.

La démonstration est une simple vérification. Notons que l'élément neutre est
0E/F =
0 = F
et —x =
—x.

Théorème A.3.11 -

Soient E et E' deux espaces vectoriels et / : E —> E' une application


linéaire. Alors E/j^eT f
est canoniquement isomorphe à Im /. On note cela :

E7'Ker /-W

Démonstration : Soit

* :
E/Kerf —>
W
f(x)
'

x i

i est bien définie (c'est-à-dire elle ne dépend pas du choix du représentant dans x). Soit en
effet x' G x un autre représentant. On a x x' ; donc x x' G Ker / et par conséquent
~ —

f(x —

x') =
0 c'est-à-dire f(x) f(x'). Ce qui montre que i est bien définie.
=

D'autre part :

i(x + y) i (x =
+ y) f(x
=
+ y) f(x) + f(y) =i(x)
=
+ i (y)
et i (Xx) i (À x)
= =
/(À a:) = À f(x) X i (x)
=

ce qui montre que i est linéaire.

Enfin, i est bijective. En effet, si x G Kerz, on a : i (x) = 0 c'est-à-dire f(x) =


0, donc
x G Ker/. Mais Ker/ 0 ; donc =
x G 0, c'est-à-dire âT =
0. Ceci montre que i est injective.
De plus, i est surjective, car si y =
f(x) G Im/ ,
on a : y=
f(x) i (âT).
=
356 Quotients

«1

i(x)
-

Im/

/: :
(x, y) h->
(x, 0)

E/i^qx f

{droites parallèles à 0y}; L'application i fait correspondre à la


droite x son intersection avec la droite Im/ (c'est-à-dire avec l'axe Ox).

Figure 4

Corollaire A.3.12 -

Si E est de dimension finie,

dim E/p =
dim E —

dim F

Soit en effet G un supplémentaire de F dans .E, E =


FÇBG, et considérons la projection de
E sur G parallèlement à F :

f : E=F®G -+ G
#l+#2 ' *
x2

On a F =
Ker /, donc E/p =
E/j^er £ c± Im /. Donc :

dim E/p =
dim(Im /) = dim E -

dim(Ker /) = dim E -

dim F D

Corollaire A.3.13 -

Soient E\ et E2 deux sous-espaces vectoriels de E. Alors

E\ © Ei /
I Eo
es£ canoniquement isomorphe à E\ :

E!@E2/E ~Ei

Il suffit de considérer la projection sur E\ parallèlement à E2 :

/ : Ex 0 E2
x1

On a Ker / =
f?2 et lmf =
Ei. On applique ensuite le théorème. D
357

Exemple : cylindre et tore.

On peut construire un cylindre en "enroulant" une feuille de papier (cf. figure 5.)

c D
i

J i

j
_____

v__ ^ J

Figure 5

D'une manière plus précise, cela revient à identifier dans le plan M2 les points (#,y) avec
lespoints (x + 2k7r R)kez> En d'autres termes, le cylindre peut être défini comme l'espace
quotient :

(3
k G Z tel que :

x2 =
xi +2kirR .

2/2 =
yi

De même, le tore est la surface que l'on obtient en "recollant" les bords d'un cylindre (cf.
figure 6.)

Figure 6

Plus précisément le tore peut être défini l'espace quotient

{3k,h
comme :

eZ tels que :

x2=xi + 2knR1 .

2/2 =yi + 2h7rR2

Il est facile de vérifier que la structure naturelle d'espace vectoriel sur 1R2 est compatible
avec ces relations d'équivalence, ce qui permet de définir sur le cylindre et sur le tore une

structure d'espace vectoriel par passage au quotient.


Appendice A.4

Compléments sur la méthode du pivot.


Indications sur les méthodes directes

Compléments sur la méthode du pivot

Considérons un système d'équations linéaires, que, pour simplifier, nous supposerons de


Cramer :

L\ [ an xi + +
xinXn =
bi

J^n y 0>nl X\ + + CLnn Xn —

&n

Le système (1) peut être écrit sous la forme AX =


B, où A =
(aij) =
|| ci,... ,cn ||,
X=%Xii...iXn), B= '(&!,..., 6n).
On appelle méthode directe de résolution du système (1), une méthode qui aboutit à la
solution duproblème au bout d'un nombre fini d'opérations arithmétiques (additions,
multiplications, divisions).
Dans la pratique, par exemple pour des problèmes d'économie, pour les approximations des
équations différentielles, etc, on a à faire à des systèmes d'ordre très élevé, de 50, 100, voire
des milliers d'équations. Comme on peut l'imaginer, il est très important de pouvoir disposer
d'une méthode de calcul des solutions qui :

1. d'une part ne comporte qu'un nombre raisonnable d'opérations arithmétiques de manière


à réduire le temps de calcul des ordinateurs ;

2. d'autre part qu'elle soit «stable» au sens suivant. Les ordinateurs n'ont pas une
précision infinie : chaque opération entraîne nécessairement des erreurs d'arrondis.
Il est important que les calculs soient menés de manière telle que, en s'accumulant, les
erreurs n'entraînent pas des écarts importants entre la solution calculée et la solution

théorique.

Estimation du nombre d'opérations


Estimons, par exemple, le nombre d'opérations nécessaires pour résoudre le système (1) par
les formules de Cramer

Xi =

—^ ,
où: A =
détA et A* =
dét || ci,..., B,..., cn ||-

Il faut calculer n + 1 déterminants, puis effectuer n divisions. Chaque déterminant est la


somme de n ! monômes chacun desquels est le produit de n termes (cf. formule 4.10, page
,

359
360 Compléments sur la méthode du pivot. Indications sur les méthodes directes

113). Puisque pour chaque monôme il faut effectuer n —

1 multiplications, pour calculer un


déterminant d'ordre n, il faut :

(n —

1) n ! multiplications
-

n ! —

1 additions
donc au total (n 1) n !+ n ! —

1 = nn\ —

opérations. Pour calculer n + 1 déterminants il


1
faudra donc effectuer (n+ l)(nn ! —

1) opérations. Il faut effectuer ensuite n divisions. Aussi


le nombre d'opérations nécessaires pour calculer la solution du système (1) par les formules
de Cramer est

Tc =
(n + l)(nn! -

1) + n =
n (n + 1)! -

n
-

1 + n =
n (n + 1)! -

Rien que pour n =


10 on trouve Tc ^ 400.000.000 (399.167.999 exactement). On comprend
que lorsque n est très grand, il est impossible de résoudre le système par les formules de
Cramer.

Évaluons, par contre, le nombre pour résoudre le système (1) par la


d'opérations nécessaires
méthode d'élimination de Gauss que nous avons vue au chapitre 2.
Il faut d'abord mettre le système sous forme échelonnée, puis le résoudre, par la méthode de
la remontée. Soint Li, ...,Ln les n équations du système et supposons que an est le pivot.
Il s'agit tout d'abord de remplacer chaque équation Li (i 2,..., n), par L^ Li L\ = = —

an
de manière à mettre le système sous la forme :

Li ( au xi + ai2 X2 + .. ...
+ ain xn =
h
r(l)
L2 «22 x2 "h ...
"h G2n Xn

02 /^\

r(l)
Lin r7(1)ro+
un2 ^2 T ... +r7(1)r
^ Ctnn ^n
-


fc(1)
"n

Pour calculer les coefficients de chaque équation L\ \i 2, ...,n, il faut 1 division, n =

multiplications additions,
et n opérations. Puisqu'il y a (n
soit 2n + 1 1) équations, il faut —

au total
(2n + l)(ra 1) opération pour passer du système (1) au système (2). Aussi pour

mettre donc la matrice du système sous forme échelonnée il faut

y^(2 k -f 1) (k —

1) =
opérations.
fc=i

Enfin la solution du système échelonné demande :

1 division pour £n,


1 division une multiplication et une addition pour #n_i,
1 division ,
n

i multiplications et n i additions, soit 2 (n — —

i) + 1 opérations pour xi

donc au total :

1 + 3 + 5 + + (2n -

1) =
n2

opérations. Le nombre d'opérations nécessaires pour résoudre le système (1) par la méthode
de Gauss est donc

4n3 + 3n2-7n 2 4n3 + 9n2-7n


TG +n
_

= =

Pour n =
10 on trouve Tg =
790. La comparaison de deux méthodes se passe de
commentaire.
361

Erreurs d'arrondi. Choix du pivot


Rien ne s'oppose, que n'importe quel coefficient non nul soit choisi comme
a priori, à ce

pivot Cependant,
dans la méthode de Gauss. à cause des erreurs d'arrondi, cette manière de
procéder peut amener à des résultats numériques très éloignés du résultat théorique. Voici
un exemple instructif tiré de page 35. Considérons le système
1

L\ j ax\ + X2 1

\
=

L2 xi + x2 = 2 avec a =
10~4

dont la solution exacte est

1 l-2a
x= -—-, y =

1 a

l-o

c'est-à-dire

x = 1 + a + o(a2) =
1,00010.... « 1, y
=
l-a + o(a2) =
0,99990.... «1

Supposons maintenant que l'on résout le système par la méthode de Gauss, en arrondissant
les calculs intermédiaires aux trois premiers chiffres significatifs.

Si l'on choisit a comme pivot, on a :

Li f ax -h y = 1

1,2-aLx \ (l-104)y =2-104

Puisque 1 —

104 et 2 —

104 sont arrondis tous deux au même nombre, la seconde équation


donne y =
1, d'où la solution
x =
0, y = 1.

très éloignée de la vraie solution. Si en revanche on échange l'ordre des équations, en prenant
comme pivot 1, on trouve :

l2 f x + y =2 l2 ( x + y =2

\ \ (l a)y
_^

Li ax-\-y =1 L1-aL2

=l —

2a

Dans la seconde équation 1 —10-4 et 1—2 10~4 sont tous deux arrondis au même nombre,
ce qui donne y =
1, d'où la solution très satisfaisante :

x =
1, y = l

Ceci montre que des erreurs d'approximation peuvent provenir de la division par des
"trop petits".
pivots Il est donc indispensable, dans les calculs numériques2, par exemple par
ordinateur, d'avoir recours à l'une des stratégies suivantes :
-

Méthode du pivot partiel : on prend comme pivot dans le système (2) le plus grand des
I a22 !) »! an2 15 en permutant éventuellement les n 1 dernières équations.

Méthode du pivot total : on prend comme pivot le plus grand des | a\j |, en permutant
éventuellement les équations et aussi les "colonnes".
Évidemment ces stratégies doivent être appliquées à chaque étape de l'élimination.
On montre que aussi bien la méthode du pivot partiel que la méthode du pivot total sont
stables, c'est-à-dire insensibles à la propagation des erreurs.

1G.E. Forsythe- C.B Moler, Computer of Linear Algebraic Systems, Prentice-Hall, 1967.
2Ce problème ne se pose pas, en revanche, dans les questions de calcul formel.
362 Compléments sur la méthode du pivot. Indications sur les méthodes
directes

La factorisation LU d'une matrice

Il est clair que dans les programmes de calcul fondés sur la méthode de Gauss, il n'y a
pas
besoin d'écrire le système sous la forme (1) : ce qui compte ce sont uniquement les matrices
A et B. La méthode de Gauss se ramène en fait à travailler non pas sur des équations, mais
à faire des opérations sur des matrices. Par exemple, si A^1' est la matrice du système (2)
on a A^ =
Ei A où E\ est la matrice triangulaire inférieure :

( 1 0 o\
Û21
1
an
Ei =

' o

\ l)
CLnl
0 °
an

Si l'on continue à échelonner la matrice, en supposant que a22 ^ 0 et en le prenant comme

pivot 3, on obtient un système dont la matrice A^ est égale à E2 A^l\ où :

/1 0 \
1 n n
a
a31
1
E2 —
a(1)
tt22

0
a(1)
anl
0 0 1
V a22

On a donc : A^ =
E2 E\ A. On aboutit ainsi, toujours à condition que dans la matrice
où il faut effectuer l'élimination le premier terme est non nul, à une matrice triangulaire
supérieure U (En-i =
E2 E\) A, où

/1 0\
(fc-i)
uik
Ek = avec £ik :=
._

(fc-i)
—£k+i,i 1 a
kk

\ -Ink 1 /

Si on pose L =
(En-i E2 .Ei)-1, on pourra donc écrire :

A =
LU

où L est une matrice triangulaire inférieure et U une matrice triangulaire supérieure4.


On peut donner des conditions suffisantes pour que dans la matrice où il faut effectuer
l'élimination le premier terme soit non nul de manière qu'on puisse le prendre comme pivot,
c'est-à-dire pour que l'on puisse aboutir une à factorisation LU. On montre en effet :

questions de stratégie de pivot qui exigent des transpositions


3
Nous ne nous soucions pas ici des
de lignes et de colonnes.
4Les notations "L" et "U" sont d'origine anglo-saxonne : L pour lower et U pour upper.
363

Théorème A.4.1 (factorisation LU d'une matrice) -

Soit A =
(aij) G GL(n,K) telle
que :

'an ...
a\k

+ 0 ,
1 < k < n (*)
Cbkl akk

Alors A factorise d'une manière unique sous la forme A


se =
LU avec L triangulaire
inférieure triangulaire supérieure.
et U
Si la condition (*) n'est pas satisfaite, on peut s'y ramener par une permutation préalable
des lignes et des colonnes.

L'intérêt de la factorisation LU apparaît quand il s'agit de résoudre plusieurs systèmes ayant


la même matrice A, par exemple dans des problèmes d'itération. Il suffit en effet de calculer
une fois pour toutes les matrices L et U et ensuite résoudre chaque système Av =
c, c'est-
à-dire LUv c, en résolvant deux systèmes à matrices triangulaires :
=

Uv =
w, puis Lw = c

par la méthode de la remontée. Notons enfin que la matrice L s'exprime très simplement en

fonction des coefficients £ij. On peut vérifier en effet que :

( 1 0\
4ii 1

L =

1 /

alors que il n'y a pas d'écriture simple de la matrice En-i - -

E2E1 en fonction des li$ (mais


il n'y a pas besoin de calculer cette matrice et seule son inverse est nécessaire).

Quelques indications sur d'autres méthodes directes

MÉTHODE DE CHOLESKY

La méthode de Choleski s'applique au cas ou la matrice A est symétrique définie positive,


c'est-à-dire admet n valeurs propres strictement positives (cf. exercice 37 chapitre 7). On
peut montrer :

Théorème A.4.2 (factorisation de Choleski) -

Toute matrice A G GL(n, R) définie


positive se factorise sous la forme

A = BlB avec B triangulaire inférieure.

De plus la décomposition est unique si Von impose que les coefficients de la diagonale de B
sont positifs.

La démonstration n'est pas difficile : il suffit de montrer que le système BlB A dont =

les inconnues sont les coefficients bij de B peut être résolu explicitement en fonction des
coefficients de A.

L'avantage de la méthode est que la factorisation du type LU ne fait intervenir qu'une


matrice. Dans la pratique, on calcule la matrice B ( bij ) en résolvant le système A
= = BtB
(cf. exemple ci-dessous).
364 Compléments sur la méthode du pivot. Indications sur les méthodes direct<

Exemple -

On cherche la décomposition de Choleski de la matrice

(on vérifie qu'effectivement A est définie positive). Soit B = f , 1. L'équation ma-

tricille A = BtB conduit au système

et à la solution B
(iï)-
MÉTHODE DE HOUSEHOLDER

Une autre méthode directe est fondée sur la propriété suivante (cf. exercice 25 chapitre 7
pour le cas réel) :

Théorème A.4.3 (factorisation Householder) Toute matrice A G GL(nC)


de -

se

factorise sous la forme A =


Q R, avec Q U(n, C) et R triangulaire supérieure.
G

Si l'on a trouvé une telle factorisation, le système AX =


B, c'est-à-dire QRX ~

B, est
équivalent à
RX^QB
c'est-à-dire à un seul système à matrice triangulaire (alors que la factorisation LU exige la
résolution de deux systèmes).
Dans l'exercice 25 du chapitre 7 nous avons vu comme la factorisation de Householder n'est
pas autre fait, que la méthode d'orthonormalisation de Schmidt. Cependant ce ne
chose, en

pas ainsi que dans la pratique on calcule les matrice Q et R, car cette méthode conduit à des
erreurs d'arrondis importants. On doit à Householder une méthode de calcul très ingénieuse

et stable, fondée sur la factorisation de Q en produit de réflexions (cf. exercice 29, chapitre

7, pour le cas réel), pour laquelle nous renvoyons aux livres spécialisés.

Le lecteur intéressé aux méthodes numériques les plus couramment utilisées en Analyse
Matricielle et en Optimisation, pourra consulter

P.G. Ciarlet Introduction à l'Analyse Numérique Matricielle et l'Optimisation Masson,


1982

Il s'agit d'un excellent livre, destiné aux étudiants en Master, qui allie la rigueur et la clarté.
Appendice A.5

Inverses généralisées

Le concept d'inverse généralisée


Une matrice a une inverse si et seulement si elle est carrée et son déterminant est non nul.
Depuis quelques dizaines d'années on s'est attaché à définir une notion d'inverse pour les
matrices à déterminant nul, ou même rectangulaires, qui, bien entendu, se réduit à l'inverse
habituelle dans le cas des matrices inversibles. Ces notions se sont révélées très utiles en des
diverses branches des mathématiques et des applications.
Pour illustrer l'intérêt de cette théorie, considérons la définition suivante :

Soit A G Mp,n(K)- On appelle inverse généralisée de A une matrice A G Mn,P(K) telle


que :

AÂA = A

Notons que si A est inversible, alors nécessairement A A~x. =

Nous verrons au paragraphe suivant que pour toute matrice A il existe une infinité d'inverses
généralisées (sauf dans le inversible, où l'inverse généralisée
cas où A est est unique) et qu'il
existe des méthodes pour en construire explicitement.
Supposons avoir construit une inverse généralisée A de A et soit :
Ax = b
/
,

xi

un système linéaire de p équations à n inconnues, avec x = \ :


| et b

Si A est inversible, la solution est unique et elle est donné par

x =
A b, ( c'est-à-dire on a: AÂb =
b).

Comme nous allons le voir (cf. théorème A.5.2), dans le cas général
-

même si A n'est pas


inversible, ni même carrée le système est compatible si et seulement si
-

AÂb =
b

et dans

)x
ce cas les solutions sont de la forme :

=
Âb+(ÂA- In)y
est un vecteur arbitraire.

On voit de cet exemple l'intérêt que peut avoir la construction d'une inverse généralisée.
Plus importante encore est l'application à la méthode des moindres carrés, que nous verrons
ci-dessous.

365
366 Inverses généralisées

Le concept d'inverse généralisée a été introduit pour la première fois par Predholm dans
l'étude des opérateurs intégraux. Pour les matrices les premiers résultats importants ont été
obtenus par E. H. Moore qui a pu définir une notion d'inverse généralisée unique pour
en 1920
toute matrice à coefficientscomplexes. Ces résultats, qui n'avaient pas été publiés et n'avaient
fait l'objet que d'une conférence, ont été retrouvés plus tard, sous des formes différentes par
divers mathématiciens. En particulier, Penrose en 1955 a pu caractériser l'inverse généralisée
de Moore par un système d'axiomes, ce qui en a facilité l'application à divers domaines des
mathématiques.

Inverses généralisées
La proposition suivante donne la méthode pour la construction des inverses généralisées.

Proposition A.5.1 Soient E et E' deux espaces vectoriels de dimension finie sur K et
-

/ : E — E' une application linéaire. Il existe alors des applications linéaires / : E' —> E
telles que :

/°/°/ =
/

Les applications f sont dites inverses généralisées de f.

Démonstration : Soient F un supplémentaire de Ker / dans E et G un supplémentaire


de Im/ dans E' :

E =
Ker f®F ,
E' =
Imf®G
Notons pF et pim/ les projecteurs sur F et sur Im/ associés à ces sommes directes.
Soit y G E\ y =
yi+y2, avec y\ G Im/ et 2/2 G G. Puisque y\ G Im/, il existe x G E tel

que y\ =
f(x). On pose :

Kv) '. =
Pf(x)

E '
E'
Figure 1

Montrons tout d'abord que cette définition ne dépend pas du choix de x. Soit x' G E tel que

y =
f(x) f(xf) ; on a f(x x') 0, donc
= —
= x

x' G Ker/ et par conséquent pF{x —

x') =
0,
c'est-à-dire :
Pf(x) =
Pf{x'). Ainsi f(y) ne dépend pas du choix de x.
On vérifie facilement que / est linéaire. D'autre part si y =
/(x), alors
/(/(#)) =
Pf(x) et

donc f o f o f(x) =

f(pF(x)J. Or x =
pF{x) +x0, avec x0 G Ker/ ; donc
/(pf(z)J =
/(#)>
ce qui montre que / o
/ o
/ =
/.
367

Remarque. -

Les inverses généralisées vérifient aussi la propriété :

I fofof j
=

En effet, si y G E\ y
=
f(x) +2/2 (avec 2/2 £ F) on a, par définition, f(y) =
pf(x). Soit
y' f ° f(y)
=
'- on aura :

Kv) =Pp(f(y)) =pl(x)=pF(x) =


/(y)

donc /o / f(y) o =
f(y), \/y G E'.

Notons aussi que l'inverse généralisée de / n'est pas unique, car elle dépend du choix des
supplémentaires F et G.

Théorème A.5.2 -

Soient E et E' deux espaces vectoriels sur le même corps K et / : E — E'


une application linéaire. Considérons Véquation en x G E comme inconnue :

f(x) = b , où b e E' est donné.


x

Cette équation admet une solution si et seulement si :

/ 0/(6) =6

où f est une inverse généralisée quelconque de b. De plus, toute solution est alors de la

forme :
x =
f(b) + (fof-idE)y
où y est un vecteur arbitraire de E.

Démonstration :

La démonstration se fait par les lemmes suivants :

Lemme 1. -

/ o
/ et f o
f sont des projecteurs.
En effet :

(/°/)2= £0/0/0/=/o/ et (foff= /o/o/o/ =


/o/ 0
/ /

Lemme 2.
Ker(/ o / ids/) =
Im /
-
-

Im(/o/-idB) =Ker./

Pour montrer ce lemme, notons d'abord que pour tout projecteur p on a :

Ker(p —

id) =
Imp (cf. exercice 9, chapitre 3). Puisque / o
/ est un projecteur, on a :

Ker(/o/-id) =
Im/o/ C Im/.

D'autre part, de / o
/ o
/ =
/ on en déduit :
(/o/ id) o
/ =
0, c'est-à-dire
Im/cKer(/o/-id).

D'une manière semblable on montre que Im(/ o


/ id) =
Ker/, et donc

Ker(/o/-id).

Im/ =
0

XI1 s'agit, bien entendu de l'expression intrinsèque d'un système d'équations linéaires.
368 Inverses généralisées

Lemme 3. -

L'équation f(x) =
b admet des solutions si et seulement si f o
f(b) =
b

Cela est immédiat, puisque dire que f(x) =


b admet une solution signifie que b G Im/
et l'on vient de voir que Im / Ker(/ o / = —

id). 0

Lemme 4. -

La solution générale de l'équation f(x) = b est donnée par : x xo + z, où =

xo est une solution particulière de la même équation et z la solution générale de f(x) = 0

(c'est-à-dire un élément quelconque de Ker f).

Pour la démonstration, cf. la démonstration de la proposition A.7.4 page 382.

Le théorème se déduit maintenant facilement. Si f{x) =


b a une solution, f(b) est une
solution particulière, d'après le lemme 3. La solution générale est donc :

x =
/(&) + (/ ° / id) y, avec
~

y £ E, d'après les lemmes 2. et 4.

Inverse généralisée de Penrose-Moore

Nous avons vu généralisée dépend du choix des


que la construction d'une inverse
supplémentaires de Ker /. Si l'on suppose que E et E' sont des espaces hermitiens, il existe
/ et de Im
un choix canonique pour le supplémentaire : le supplémentaire orthogonal. On en déduit

que si E et E' sont des espaces hermitiens, il existe une inverse généralisée canonique : c'est
l'inverse généralisée de Penrose-Moore.

Théorème A.5.3 -

Soient E et E' deux espaces hermitiens (ou euclidiens) et f : E —> E'


une application généralisée de
linéaire. L'inverse Penrose-Moore est l'unique application /t :
E' —> E qui vérifie les propriétés suivantes :

i- /°/t°/ / =

2. /»o/o/t /t =

3- (/o/t)* /o/t =

4- (/to/), /t«/ =

On connaît déjà 1. et 2. ; pour montrer 3. et 4. il suffît de remarquer qu'un projecteur est

orthogonal si et seulement si il est autoadjoint (cf. exercice 13, chapitre 8 ).

Notons en effet que :

/ o
/* est le projecteur orthogonal sur Im /
/* o
/ est le projecteur orthogonal sur (Ker/)-1
En effet Im(/ o /"*") c Im/ ; comme / o /* est un projecteur orthogonal, cela suffit pour
assurer Im(/o /" ") Im/ (cf. exercice 16, chapitre 7).
que =

De même, puisque Im(/^ o/) c (Ker/)"1, /* o/ est le projecteur orthogonal sur (Ker/) .

Penrose a démontré qu'il existe une et une seule application /*" : E' — E qui vérifie les
propriétés 1, 2, 3. et 4. La démonstration de ce résultat est laissée en exercice et se fait sans

difficultés par les étapes suivantes :

a) Soient E et E' deux espaces hermitiens et f : E — E' une application linéaire. On


considère une application Z"1" : E' —> E telle que :

ii) Pofof =
fl;
369

montrer que E —

Ker/ © Im/î et E' —

Ker/* © Im/ (cf. exercice 11, chapitre 3).

b) En déduire que si J"1" vérifie les propriétés i) et ii), alors elle est une inverse généralisée
de/.
c) Montrer qu'un projecteur d'un espace hermitien est un projecteur orthogonal si et

autoadjoint (cf. exercice 13, chapitre 8).


seulement si il est

En termes de matrices ce résultat s'énonce ainsi :

Théorème de Penrose-Moore . A.5.4 -

Soit A G Mp,n(C). Il existe une et une seule


matrice A^ G Mn,P(C) qui vérifie :

1. A Â* A =A
2. A* A rf =A^
3. {AA^y=AA^
4. {A^AY=A^A (où: A* *A).
_

:=

A* est dite inverse généralisée de Penrose-Moore

Formule de Mac Duffee pour le calcul explicite de


Soit A —

Ci,..., Cn ||G A/fp,n(C). Supposons A de rang r et soient Vi,..., Vr r vecteurs

indépendants choisis parmi les d. Puisque les Ci s'écrivent comme combinaison linéaire des
Vi,..., Vr, il existe une unique matrice C G Mr,n(C) telle que :

A =
B-C

^ Ah Vk
r

où B =
|| Vi,..., Vr ||G Mp,r(C). Si Ci =
pour i =
1,..., n, alors :

(An
fc=i

Ain \

; ; =l|Cl,...,c„m
Arl * * *

Arn /

La matrice B*A C* G Mr (C) est inversible. En effet on peut écrire : B* A C* =


(B*B)(C C*) ;

puisque B et C sont de rang r, il n'est pas difficile de montrer que B*B et C C* sont
inversibles 2. La formule de Mac Duffee s'écrit :

A* =
C* >

(B*AC*)-1 -
B*

Cette formule se démontre facilement en écrivant le second membre sous la forme :

C*{CC*)~1(B*B)-1B*
et en montrant que cette matrice vérifie les axiomes de Penrose.

Exemple -

Calculer l'inverse généralisée de Penrose-Moore de la matrice :

2 1-11
A=| 1 1 0 1
3 2-12

2Pour montrer que B* B est inversible, cf. exercice 23 chapitre 7; pour montrer que C C* est
inversible, remplacer B par C*.
370 Inverses généralisées

On a rang A = 2. Une base de l'espace engendré par les vecteurs colonnes est {V\ =
c\ , V2 =
co)

D'autre part : C3 =
—V\ + V2 , C4 =
V2, donc :

C=||C1, C2, C3, C4||v. =


( q l 'l ij
Le calcul donne :

/ 5 -4 1 \
-5 7 2

15 -10 11 1

V -5 7 2
/

Application : Solution des moindres carrés

généralisée permet d'étendre la méthode des moindres carrés,


La notion d'inverse que nous
avons déjà vueun cas particulier (cf. exercice 23, chapitre 7).
dans
Soit A G Mp,n(C) et considérons le système linéaire

Ax = b

Le théorème de Rouché-Fontené permet d'avoir les conditions de compatibilité sous forme


explicite d'équations, par l'annulation des déterminants caractéristiques. Notons cependant
que la notion de compatibilité est "instable" : une petite variation des coefficients peut
faire en égalités ne soient plus satisfaites et qu'un système compatible
sorte que les
devienne incompatible. Or si l'on considère un système qui règle un phénomène physique,
les coefficients de la matrice sont donnés par des mesures (par exemple de la température,
de la pression, etc.) et donc sont connus avec une précision limitée, c'est-à-dire en fait, à
une petite variation près. Ceci veut dire que les conditions de compatibilité n'ont pas, en

fait, une vraie signification physique : les résultats de mesures physiques qui déterminent la
matrice A pourraient donner un système incompatible, alors que, peut-être, pour des raisons

physiques, il pourrait être clair que le système admet des solutions. Il est donc important
d'avoir une valeur approchée des solutions, même dans les cas où le système apparaît comme
incompatible.

Définition A.5.5 -

Soit Ax = b un système linéaire, avec A G MP,n(C), x G Cn et


b G Cp. On appelle solution des moindres carrés le vecteur xo G Cn tel que

\\Ax0-b\\
11 11
= Inf H11 .4a;-6 11II.
xeCn

Théorème A.5.6 -

La solution des moindres carrés du système Ax = b est donnée par

xo = A^b.

La démonstration est immédiate (cf. solution de l'exercice 23, chapitre 7). On a :

11.4x0-611 =
||AAt6-6|| =
||pIm/(6)-6|| =
d(6, Im/) = Inf
xeCn
\\Ax-b\\

d étant la distance associée à la norme.


371

Pour la théorie et les applications des inverses généralisées, on pourra consulter

A. Ben-Israel, T.N.E. Greville


Generalised inverses : theory and applications
A.Wiley -

Interscience Publication
New York, 1974

Il s'agit d'un livre exigeant un niveau "avancé" de connaissance et de pratique de la théorie


des matrices.
Appendice A.6

Exponentielle d'une matrice

Suites et séries de matrices

Comme nous l'avons vu (cf. exercice 5, chapitre 6.), Mn(C) est un espace vectoriel norme.
Si A = ( a,ij J, on pose (cf. exemple 4 page 222) :

Mil ^A^laiA^TriA^A)
On en déduit que M.n (C) est un espace métrique pour la distance définie par

d(A,B) :=\\A-B\\

(cf. exercice 10, chapitre 7). On montre facilement que

\\AB\\ < \\A\\ \\B\\


d'où:
\\An\\ < \\A\\n
La vérification de ces inégalités est laissée en exercice.

Les définitions et les propriétés des suites et séries numériques passent facilement à l'espace
métrique (Mn (C),d). On a par exemple :
1. On dit qu'une suite de matrices
(An)neN converge vers la matrice A si

Ve: > 0 3n0 G N tel que Vn > n0 :


d(An, A) < e

2. On dit qu'une série de matrices EnS An converge si la suite des sommes partielles
Sk =
J2t=o An converge
; dans ce cas, la limite pour k —> -foo de Sk est dite somme
de la série. On dit qu'une série de matrices est absolument convergente si la série
numérique ]Cn^oll-^nll est convergente.

3. Soient Zt=oAn et TZ=o^ deux séries de matrices absolument convergentes, de


somme respectivement A et B. Alors les séries En^O^n + Bn) et £+~ Cn (où
Cn =
]Cfc=o Ak Bn-k) sont convergentes et ont comme somme respectivement A + B
et AB.

La démonstration est analogue à celle que l'on donne pour les séries numériques, la valeur
absolue étant remplacée par la norme.

373
374 Exponentielle d'une matrice

Exponentielle d'une matrice

An
Proposition A.6.1 -

Soit A G Mn(^>)> La série de matrices de terme général


n!

absolument convergente, quelle que soit la matrice A. Sa


a
somme est notée e :

A2 A3 An
e* =
/n + A+- + -

+ ...
+ -

\\A\\k
+00
||>4||fc
V^
TW

La démonstration est immédiate. On a : < .


Puisque la série numérique l1 il
k=0

est convergente (sa somme est e"A") on en déduit que ^ k\


est convergente. Donc
fc=0
+00
An
y^ —

est une série de matrices absolument convergente. D

Exemple :

eXI = exI

car e^ = A/ + A/+^ --+^ 2!


+
k\
+ --=eA7
En particulier : e =
In (0 étant ici la matrice nulle de«Mn (C))

Proposition A.6.2 -

Si A et B commutent, alors :

eA+B = eA-eB

En effet, puisque A et B commutent, on peut appliquer la formule du binôme (cf. exercice


22, chapitre 3). On a :

(A + B)n =

Y^ C*Ak Bn~
k=0

donc :

^
+00
(A + B)"
£ EE
n

,+B
Ak Bn~k
n\k\(n-k)\
=
_

n=0 fe=0
+°° n
Ak nn-fc

e e n
(n-k)\
=

!
n=0 k=0

Corollaire A.6.3 -

Pour toute matrice A € Mn (C), même non inversible, la matrice eA


est inversible et son inverse est e~ .

En effet A et —A commutent, donc eA


A
e
o A —
io-** " —

eu=J.
oVJ —

Proposition A.6.4 -

Si B = P'1 AP, alors eB = P-1 eA P.

En effet, Bn = P"1 An P ; donc :

+00
+2Z p-lAnp ^fc
n
Bn
=
>—-=> ;
= lim > P'1 —

P =

ff" à!L\
n=0 n=0 fc=0

: lim P"1
\fc=0 /
p® p-i Hm y-^P
k=0
= p-ie^J
375

(Le passage (1) est justifié par le fait que l'application Mn (C) —>
M.n (C) est continue). D
M i—>P-1MP

Corollaire A.6.5
dét (eA)
M =
„TrA
e

effet, puisque A Mn (C), .A est trigonalisable. On donc A


x
En G a = P BP avec :

* \ /A}
B =
I. Notons que : £fc = donc :

An/ \0

2! /c!
/ À

fc!
p-i p =

V o l+An + ---+^f kl
+ "7 '

\
=

p_1. P d'où : déteA = eXl+'~+Xn = eTrA D

eA-y
,

Méthode de calcul de eA par la réduction de Jordan

Lemme

/H
-

o \

Soit A =
[m avec Ai matrices carrées complexes

Vo fX]/
/E3 0 \

Alors :
H
V o \ë^\)
Ce lemme se démontre facilement en utilisant le fait que :

Ak 0 \
Ak = .
Puisque le polynôme caractéristique de A est scindé, A

0
admet une réduction de Jordan : il existe P inversible et une matrice

/ Ji 0 \ /Al
Ai 1

h
B = avec Ja

V o 0/ Vo \aJ
telles que A = P-1 B P.
376 Exponentielle d'une matrice

Or Ja =
Xa J + Va et Va est nilpotente. Par ailleurs Aa / et Va commutent, donc, si p est
l'indice de nilpotence de Va :

eJ« exa ev« eAa Ieva exa ^. + _^oç_


i
7 + ya + +
(p-1)!
= = =

2!
...

ce qui permet, compte tenu du lemme, le calcul effectif de eA.

Application aux systèmes différentiels linéaires à cœfficients constants

Proposition A.6.6 -

Soit t G M ; on a :

£(e") =
Ae"

Démonstration :

detA
lim
e(t+h)A_etA
hm
(ehA-I
' tA

h^b V
=

h-^b
=

dt h h
—-

Montrons que :

ehA-I
lim = A
h-*o h

(ce qui montre la proposition).


On a :

2! ni

d'où :

ua h2 A2 hn An

2! n!
On en déduit que :

et donc :
hA \\hA\\ \h\ \\A\\

"—s—^'^—isi—^ —\—w
-, 1
r
_ _ _

?
Lorsque /i-> 0 : r- -
||i4|| , d'où \\ ,
-

A\\ -> 0. D

Proposition A.6.7 5oz£ -^f Ax un système différentiel linéaire à cœfficients constants


-

(A G Mn (C),x G Mn,i (C)). ^4^ors /a solution qui pour t 0 prend /a valeur xo (xo G =

Atn,i (C)) es* :

z(£) = etA xo

En effet soit x défini par a: : =


etA xo. On a :
-|| = AeM #o = >4a; ; donc etA xo est bien

solution. D'autre part x(0) =


e xo =
I xo =
xq ; ce qui montre que x vérifie la condition
initiale. D
377

Exemple -

Soit le système -^ =
AX, où :

/ b a a \
a b a a

a a b
A
a
=

a -

a b )
Déterminer la solution qui pour t =
0 prend la valeur xo, où xo appartient à Vhyperplan
F défini par x\ -f + xn 0. =

On a A =
(b —

a) I + a U ,
où U est la matrice dont tous les coefficients sont égaux à 1.
Puisque I et U commutent,

{atUf
et A e{b-a)t I eatU £-a '+£ k\
e(b-a)t
_ _ —

fe=i

=
e(b-a)t I +-(eatn-l)C/
n

Or Phyperplan F : xi + h xn =
0 est le noyau de 17, aussi, la solution cherchée est :
x = e(b~a't xo. C'est-à-dire : les solutions qui passent par Phyperplan F demeurent dans
F.

Plus généralement on a :

Ô.X
Corollaire A.6.8 -

Soit —r- = Ax un système différentiel linéaire à coefficients constants.

Si une solution passe à un instant donné par un sous-espace propre E\, elle reste dans E\
(on dit que les sous-espaces propres sont «invariants» sous le flot des solutions).

En effet si xo £ E\, on a, :

etA xo =
y^ —r xo =
V —r xo =
ext x0 G E\.
n=0 n=0

L'exponentielle des matrices joue un rôle important dans la Géométrie Différentielle moderne
depuis les travaux de Sophus Lie à la fin du XIXème siècle. Il est difficile d'en donner une
idée même approximative, car les concepts qui rentrent en jeu sont assez élaborés. Disons, en
simplifiant, que le problème abordé par Lie, problème encore largement ouvert aujourd'hui,
était de chercher à classifier les équations différentielles qui se déduisent les unes des autres
par changement de variables. Il était donc amené à étudier les groupes de transformations
(cf. Appendice A.l. page 342) dépendant d'un certain nombre (fini) de paramètres, ceux-ci
étant des fonctions différentiables c'est le cas par exemple de 0(n,E), U(n, C), etc.
- -

plus précisément ce que l'on appelle aujourd'hui les groupes de Lie, qui sont très souvent
des groupes de matrices. On peut démontrer que si G est un groupe de Lie de matrices à
coefficients dans K, (K R ou C), toutes les informations essentielles
=
sur G sont contenues,
dans un certain sens, dans les propriétés de l'ensemble

{AeMn(K) | eAeG}.
l
g
=

1Un peu comme les informations sur une fonction sont contenues dans sa dérivée. L'analogie n'est
pas seulement formelle. En effet, si on considère une courbe c :] e, -\-e[—y G, définie par c(t)
=
etA, —

on a, d'après la proposition A.6.6 :


^t = A.
378 Exponentielle d'une matrice

Cet ensemble, dit «algèbre de Lie» de G, est en fait beaucoup plus simple à manier que G
En effeton peut vérifier tout d'abord que g est un sous-espace vectoriel de
Mn(K) ce qui
permet d'utiliser les techniques de l'algèbre linéaire. D'autre part le crochet défini par

[A, B] :=AB-BA

permet de munir g justement d'une structure d'algèbre de Lie (cf. page 250), structure très
riche et bien étudiée, qui donne des informations importantes sur G.
Appendice A.7

Espaces affines

Comme nous vu au chapitre 1, la notion d'espace vectoriel a été introduite pour


l'avons
rendre compte des propriétés de certaines grandeurs physiques -

comme la force, la vitesse,

l'accélération, etc. qui


-

sont déterminées non seulement par leur intensité, mais aussi


par la direction et le sens selon lesquels elles s'exercent. Ces grandeurs sont représentées
graphiquement par des flèches, dites «vecteurs», ayant comme origine le point d'application.

Puisque la loi d'addition et la structure d'espace


vectoriel ne peuvent être définies que sur le vecteurs
de même origine (cf. chapitre 1), le modèle qui
permet d'avoirune intuition géométrique de la notion

d'espace vectoriel est l'espace (ou le plan) ordinaire


dans lequel on fixe un point O : les points P du plan
ou de l'espace sont en correspondance bijective avec

les vecteurs issus de O et d'extrémité P (cf. figure


Figure 1
i.).
Le modèle naturel de l'espace affine est en revanche
le plan ou l'espace ordinaire dans lequel on ne choisit
pas de point privilégié et les éléments sont les points
eux-mêmes. La notion d'espace affine est donc plus
'naturelle', plus 'primitive' dans un certain sens,
que la notion d'espace vectoriel. Cependant, comme
nous allons le voir, pour définir correctement les

espaces affines et pour effectuer les calculs, on a


besoin de la notion d'espace vectoriel. En fait les
deux notions, d'espace vectoriel et d'espace affine,
se trouvent imbriquées dans la pratique, c'est pourquoi,

si l'on veut avoir une notion intuitive, il peut être


utile d'avoir présent à l'esprit le modèle suivant où
les deux structures se présentent simultanément.1
Considérons l'espace vectoriel R3. Un sous-ensemble
A de M3 est dit sous-espace affine s'il est l'image
d'un sous-espace vectoriel F par une translation. F Figure 2

sera dit «direction» de A (cf. figure 2.)

379
380 Espacesaffines

Notons que dans un sous-espace vectoriel F il y


a un élément privilégié (l'élément 0), ce qui

permet d'identifier les points P de F à des «vecteurs»

(d'origine 0 et d'extrémité P).


Cela, en revanche, n'est plus le cas pour le sous-
espace affine A : dans un plan qui ne passe pas par
l'origine, il n'y a pas d'élément privilégié et l'on
ne peut pas mettre en correspondance bijective ses

points avec des vecteurs qui sont dans A.


En revanche, si l'on fixe un point O de A, on peut
identifier les points de A à des vecteurs d'origine O
(cf. figure 3) et faire de A un espace vectoriel (dit
vectorialisé de A), comme nous le verrons d'une
Figure 3
manière plus précise ci-dessous.
Le fait que dans un espace affine il n'y ait pas d'élément privilégié, implique la perte de

la structure d'espace vectoriel. Cependant, c'est en cela entre autres que réside l'intérêt
de la notion d'espace affine : car du moment qu'il n'y a pas un élément qui joue un rôle
le privilégié, on a plus de souplesse pour choisir l'origine des coordonnées de manière à
simplifier les problèmes (par exemple, l'équation d'un cercle est plus simple si on l'écrit dans
un système de coordonnées dont l'origine est le centre du
cercle).

I. Sous-variétés affines d'un espace vectoriel et applications affines

Sous-variétés affines d'un espace vectoriel

Soit E un espace vectoriel sur K et v G E. On note t$ l'application :

tfi : E—> E
a
+
'—*
a v

ttf est appelée translation de vecteur directeur v.

Notons que, sauf si v =


0, £# n'est pas une application linéaire.

Définition A.7.1 -

Soit F un sous-espace
vectoriel de E et v G E ; l'image de F par t$ :

tv(F) =
\beE\b
L
a+v,aeF\J = =

notation
v+F

est dite sous-variété affine ou sous-espace affine


de direction F.

Si F est une droite vectorielle (resp. : plan


vectoriel), tv(F) est dit droite affine (resp. : plan
affine). Bien entendu, E lui-même est un espace
affine de direction E (car E t$(E)).
Figure 4

Un espace affine A =
t$(F) n'est pas en général un sous-espace vectoriel, car il n'est pas
stable pour les lois de somme et de produit par un scalaire, à moins qu'il passe par 0, ce qui
381

se produit si v G F : on a alors A =
F.

On peut cependant mettre sur un espace affine une

structure d'espace vectoriel de la manière suivante.


Soit A un sous-espace affine de direction F. On
choisit un point a G A ; on a : A =
taF. Il
suffit alors de transporter sur A la structure d'espace
vectoriel de F par la bijection ta (cf. exercice 4,
chapitre 3). On obtient les lois suivantes :

si b =
a + xetc = a + y (avec x,y G F),
on pose :

b+c : =
(x + y ) + a

X -
b : =
Xx + a

qui font de A un espace vectoriel, dit vectoria-


lisé de A en a.

Notons que cette structure d'espace vectoriel n'est


pascanonique, mais dépend du choix de a.
Dans la suite les éléments d'un sous-espace affine
A seront notés, en général, par a, 6, c,..., et on

notera xy y, v, w,... les éléments de la direction


F de A (ou éventuellement x, y, z, v, w,... pour
mieux marquer qu'ils sont les éléments d'un espace
vectoriel).

Applications affines

Définition A.7.2 -

Soient E et E' deux espaces vectoriels sur K. On appelle application


affine toute application g : E —> E' du type : g =
ta o
f, où / G £# (£?, .E7) et a G E ,

c'est-à-dire :

g(x) =
a + f(x), avec / linéaire.

Notons que si a ^ 0, g n'est pas linéaire.

Toute application affine s'écrit d'une manière unique sous la forme g ta o /, avec = a G E1 et
/ G £k(£, -E7). En effet, si g ta o f ta, o /' (avec a' G E' et /; G £*r(£, E')), on
= = a :

a + /(z)=a/ + //(a;), Vx G ^.

En faisant x =
0, on trouve a =
a', d'où /(x) =
f'(x), Vx G E.

Si g =
ta o
f, /est dite application linéaire associée à g et a est dit vecteur de translation.

Par exemple :

£ : M3 — M3

(#1,22,#3) >
(2Z1-X2 + 3, -Z1+Z3 + 2, X2-CC3)
est une application affine de vecteur de translation a =
(3, 2, 0) et d'application linéaire associée :

/ : E3 —> R3

(xi, Z2,#3) (2#i -X2 , -Zi+23 , X2-X3)


382 Espaces affines

Il est facile de se convaincre que les applications affines se caractérisent par le fait que les
composantes de l'image du vecteur sont des polynômes, non homogènes en
x
général, de
degré 1 en les composantes de x.
Notons que puisque /(O) =
0, on a g(x) =
g(0) -f f(x). On a donc :

^
I Les applications affines sont les applications g : E — E' caractérisées par le fait
| que l'application x i—> g(x) g(0) est linéaire. —

Proposition A.7.3 -

Les applications affines transforment les sous-espaces affines en sous-

espaces affines.

Soit eneffet g =
ta o
/ une application affine et A =
h(F) un sous-espace affine de
direction F. On a :

g(A) =(taof)(tb(F)y)={xeE\x = a + f(b + y)i avec y G F }


=
{x£E\x =
a + f(b) + f(y),yeF}= ta+mf(F) =
tg(b) o
f(F)
Donc g (A) est un sous-espace affine de direction f(F)
De même que les sous-espaces vectoriels peuvent être caractérisés par un système d'équations
homogènes, les sous-espaces affines peuvent être caractérisés par un système
linéaires
d'équations linéaires non homogènes :

Proposition A.7.4 ( Caractérisation des sous-espaces affines par des équations linéaires)
Les sous-espaces affines de E sont les ensembles du type :
A =
{x G E | f(x) =
a, avec / G C{E, E') et a G E' }
Démonstration : L'ensemble des solutions du système linéaire f(x) = a est un sous-espace
affine de direction Ker /, plus précisément :

A =
xo + Ker / ,
avec xo solution particulière de f(x) =
a.

En effet, si x xo + u, avec f(u)


= 0 et f(xo) a, alors f(x) a ; aussi : xo + Ker / C A.
= — =

Et inversement, si x G A, en considérant une solution particulière xo de f(x) a, alors =

x —

/,
xo G Ker c'est-à-dire /, x /.
G xq + Ker et donc A<Z xq + Ker

Réciproquement, soit A sous-espace affine de direction F, A h(F)> et considérons une =

application linéaire / de noyau F. On a : A b+F 6+Ker/ {x b-\-y \ y G Ker /}, = = = =

donc : x G A si et seulement si f(x) a, où on a posé : a f(b). = =

Ainsi, par exemple, le système


f 2x + y 3t + 1

\
-

z- w =

x-y + 2z-t-w = 2

définit un sous-espace affine de dimension 2 de E5.

Proposition A.7.5 L'ensemble des applications affines bijectives de E dans lui-même est
-

un groupe (pour la loi de composition des applications) dit groupe affine de E noté GA(E).
La vérification est immédiate. Notons effet qu'une application affine est bijective si et seulement
en

si l'application linéaire associée est bijective. Soient h et h' deux applications affines bijectives :

h(x) a + f(x), h'{x)


= b + g(x) avec f et g linéaires bijectives. On a :
=

h o
h'(x) = a f(b + g(x))
+ = a f(b) + / o g(x)
-f-
Ce qui montre que h oh' est affine bijective (car / o g est bijective).
D'autre part :

h~x{x) =y <É=> x =
h(y) <=> x = a + f(y) «=4> y =
f~1(x-a)
^y =
-f-1(a) + r1(x)
Donc /i-1 =
t_f-i/a\ o
/-1, ce qui montre que h-1 est affine.
383

Barycentre
Les sous-espaces affines ne sont pas stables, en général, pour la somme (cf. figure 6). Ils
sont stablesen revanche pour certains types de sommes, dites sommes barycentriques. Cette

propriété permet d'ailleurs de caractériser les sous-espaces affines et les applications affines.

Définition A.7.6 Soit A un sous-espace affine


-

de E, ai, , ap G A et £i, , tp G K, tels que


t\ + h tp =
t ^ 0. Le point :

-îo t\ a\ -f +t >ap)
est dit barycentre des points ai, , ap affectés des
coefficients ti, tv.

On voit immédiatement que G G A. En effet, si A =

ta{F),on a : ai X{ + a avec Xi G F. Donc :


=

G =
-^U (xi + a) =a+-ftiûH \-tp apj G A

Figure 6

On a en fait la réciproque :

Proposition A.7.7 -

Caractérisation des sous-espaces affines.


Un sous-ensemble A de E est un sous-espace affine si et seulement si il est stable par
composition barycentrique (c'est-à-dire le barycentre toute famille finie d'éléments de A est
dans A).
Il s'agit de montrer que si A est stable par composition barycentrique, alors il est le translaté
d'un sous-espace vectoriel F. Fixons ao G A et montrons que l'ensemble F :=
tao(A) est un

sous-espace vectoriel de E. Soit x a ao E F. On a : = —

Xx = Xa —

Xao. (i)

Or, par hypothèse, le barycentre des points a et ao de coefficients respectivement A et (1 —A)


est dans A, c'est-à-dire : b := X a + (1 A) ao G A. Donc A ao A a + ao b, avec b G A. En

= —

reportant dans (i) on obtient

Xx =
Xa —

Xa —

ao + b = b —

ao G F.

F est donc stable pour la loi externe.

De même, soient x = a —

ao et y —

a' —

ao dans A. On a :

x-\-y =
a-\-a—2ao =
(a-{-a ao) —

ao-

Or a + a; —

ao est lebarycentre des points a, a7, ao affectés des coefficients 1,1,-1, donc il
appartient à A, ce qui montre que x -\-y G F.

La notion de barycentre permet aussi de caractériser les applications affines :

Proposition A.7.8 -

Caractérisation des applications affines.


Soient E et E' deux espaces vectoriels. Une application g : E —> E' est affine si et seulement
si elle applique le barycentre de tout système de points en le barycentre des images affectées
384 Espacesaffines

des mêmes coefficients (on dit qu'elle «conserve le barycentre»). Pour cela il faut et il suffit
que :

g(ti ai-\ h tp an) =


t\ g(ai) -\ h tp g(an)
Vai,- , ap G E et Vti,- ,tp G K, tels que : t\-\ h tp = 1.

Démonstration : On voit facilement que toute application affine conserve le barycentre : la


en exercice. Réciproquement supposons que g conserve le
vérification est laissée barycentre.
Alors pour tous ai, , ap G E et pour tous £1, , tp G K tels que t\ + + tp =
1, on a :

g(ti ai-\ \-tpap) =


h g (ai) H \-tp g(ap)
Soit c g(0) ; d'après la remarque (*) page 382, g sera affine
=
si et seulement si l'application
/ définie par f(x) := g(x) c est linéaire, c'est-à-dire si :

a) g(Xx) Xg(x) + (1 A) c
= -

b) g(* + y) =9(x)+g(y)-c
Or Xx peut être écrit sous forme de somme barycentrique : Xx = Xx —

(1 —

À)0; donc

g(Xx) =
g(Xx -

(1 -

A)0) =
Xg(x) -

(1 -

A)p(O) =
Xg(x) -

(1 -

A)c
De même :

g(x + y)= g(-0 + x + y) =


-g(0) + #(*) + g (y) =
-c + p(x) + <?(y).

Isométries d'un espace vectoriel euclidien

Soit E un espace euclidien. On définit une distance sur E en posant :


d(a,6) =
\\a —

b || (cf.
exercice 10. chapitre 7).

Définition A.7.9 -

Soit E un espace euclidien.


On appelle isométrie une application g : E —> E

(non nécessairement linéaire) telle que df#(a), #(&)] =

d(a,6), Va, b G E, c'est-à-dire telle que :

\\g(a)-g(b)\\ =
\\a-b\\, V a, b G E

Il est clair que toute transformation orthogonale g


est une isométrie, car, g étant linéaire, on a :

\\g(a) -g(a)\\ =
\\g(a- b)\\ =
\\a -

b\\
La réciproque cependant n'est pas vraie : les
Figure 7
translations, par exemple, sont des isométries, mais elles
ne sont par orthogonales, car elles ne sont pas linéaires.
Nous allons voir que les isométries sont en fait les
composées des transformations orthogonales par des
translations.

Théorème A.7.10 -

Toute isométrie d'un espace vectoriel euclidien est nécessairement


affine et plus précisément elle est du type :

g(x) =
f(x) + a avec a G E et / G O(E)
En particulier, l'ensemble Is(E) des isométries de E est un sous-groupe du groupe affine
GA(E).
385

Démonstration : Montrons d'abord le lemme suivant :

Lemme -
Soit f une isométrie qui laisse fixe 0. Alors f G O(E).
En effet, soit / 6 Is(E) telle que /(0) =
0. On a :

ll/(o)ll =
ll/(a) -

0|| =
\\f(a) -

/(0)|| =
||a -

0|| =
||a||
D'autre part, de l'identité ||a; + y||2 + \\x y\\2 =
2\\xf + 2\\y\\2, on a :

(||/(a)||2 ||/(6)||2)
-

ll/(a) + f(b)f =
-||/(a) /(6)||2 + 2 +

2(||a||2 ||6||2)=||a 6||2;


-

=
-||a-6||2 + + +

d'où :

2 (f(a),f(b)) =
\\f(a) + f(b)f \\f(a)f \\f(b)f - -

||a + 6||2-||a||2-||6||2 2(a,&>


"

= =

/ conserve donc le produit scalaire. Il ne reste plus à montrer que / est linéaire. Soit {e*}
une base orthonormée. Alors les f(ei), i =
1,... n, sont linéairement indépendants, car
,

E7=i ^ fifii) = 0 => 0 =


(Er=1 Ai fia), f{e,))
2-/i=1 Ai (ei,ej) Xj \&j^j) Xj
= = =

Les f(ei) forment donc une base orthonormée. Enfin :

(/(Aa + M6)-A/(a)-M/(6),/(ci)) =

=
(f(Xa + fzb)J(ei)) -

X (/(a),/(c<)> -M </(6),/(c<)>
=
(A a + \i 6, a) —

X (a, e*) —

\x (6, a) =
0

Comme les /(e*) forment une base, on en déduit que : /(A a + fi b) =


X /(a) + fi f(b). 0

Le théorème s'en déduit maintenant facilement. En effet, soit g G Is(-E) ; on a :

t-9(o)og(0) =
g(0)-g(0) = 0.

Donc / \=
t-g(o) °
9 est une isométrie qui laisse fixe 0 et, par conséquent / G O(E). Il
s'ensuit que : g =
ta o
/, avec a =
#(0), c'est-à-dire : .

g(x) =
f(x) + a.
386 Espaces affines

II. Notion abstraite d'espace affine

Espace affine

important, aussi bien pour des raisons théoriques que pratiques, que de pouvoir disposer
Il est
d'une notion d'espace affine en elle-même et non pas de le voir comme un sous-ensemble d'un
espace vectoriel 2.

Pour comprendre les axiomes qui sont à la base


de la notion d'espace affine, partons de la
considération suivante. Soit A un sous-espace affine
de direction F, F étant un sous-espace vectoriel
de E. Comme on l'a vu, A, en général, n'est pas
stable pour la somme et donc la somme ne peut
servir pour une définition axiomatique de A. On a
cependant une autre loi de composition sur A, la
loi:
FxA — A
(v , a) i b =
t$a =
v + a

(en effet, si A est


un sous-espace affine de direction

F, alors pour tout o6i: A a + F ; donc si =

v G F, on a bien : b a + v € A). Cette loi vérifie


=

les propriétés suivantes :

1. toa =
a.

2. Pour tous a, b G A il existe une unique


Figure 8
translation tv qui amène a sur b (il suffit
de prendre v b a). = —

3. £tf o
(£,3a) =
(£# o
ttf) a ,
Va e A, V v, w G F.

Avec la terminologie introduite dans l'Appendice A.l (cf. page 344), on peut exprimer les
propriétés 1. 2. en disant que (F, +) agit transitivement et librement sur A.

REMARQUE. —

Puisque d'après 1. le vecteur de translation -ïTqui amène a sur b est unique, v ne

dépend que de a et b et il est noté ao. On a donc :

b = a + ao

Avec cette notation, la propriété 2: (a + v) + w = a + (v H- tu), peut s'exprimer de la manière


suivante. Notons que si a + v =
b, alors v = ao. On a donc :

(a+ v) + w =
(a + ao) + w = b+ w.

Si on pose c =
H^,ona: w = bc et donc

(a+ i?) + iy =
b-{-bc =
c. (i)
D'autre part :

a+(v+w) =
a+ (ab + bc). (ii)

2De même qu'il est intéressant d'avoir une notion "abstraite" d'espace vectoriel, même si par le
choix d'une base on peut l'identifier à W1 ou, plus généralement, à Kn.
387

En comparant (i) et (ii), on voit que la propiété 2. est satisfaite si et seulement si

c = a + (ao + bc),
ce qui, d'après la propriété d'unicité 1. signifie que

2. ac = ao + bc

Cette identité est dite relation de Chasles.

Ceci nous amène à la définition suivante :

Définition A.7.11 -

Soit A un ensemble et E un espace vectoriel. On dit que A est muni


d'une structure d'espace affine de direction E} si (E, +) agit transitivement et librement sur

A. Si E est de dimension n on dit que A est de dimension n.

En d'autres termes, A est un espace affine de direction E si l'on se donne une application

t-.ExA — A
(vyP) i
tv{P)=.P + v

vérifiant les propriétés suivantes :

1. P + ~tf =
P

[On notera v, 0, etc. les éléments de E pour mieux distinguer les points (de A) et les

vecteurs de E.]
2. Pour tous
PjQ G A, il existe un unique vecteur v € E, tel que Q =
P-\-v. Le vecteur
v sera noté PQ, et l'on a donc :

Q =
P + P$ (1)

3. Pour tous P G A et v ,
w G E, on a : (P + v) + w =
P + (v + w), ce qui équivaut à
la relation

W$ =
FR + R$ (2)
L'équivalence de l'axiome 2. avec la relation de Chasles se démontre exactement comme

ci-dessus.

L'application t$ : A — A est dite translation associée v.

Notons que d'après l'axiome 1., le choix d'un point P G A induit une bijection Vp : A—> E
'—>P~3
.

On peut donc définir la notion abstraite d'espace affine aussi de la manière suivante :

Définition A.7.12 -

Soit A un ensemble et E un espace vectoriel. On dit que A est un

espace affine de direction E si l'on a une application

V : A x A—> E
(P,Q) '
P~3

telle que :

1. Pour tout P G A, l'application Vp : A E est bijective;


Q»—>p~$
2. Fr3 =
FrÊ + R($.

Remarquons que, puisque Q =


Vp1(P(^)i l'action de (E> +) sur A est définie par : P+v:= Vp1^).
388 Espaces affines

Les propriétés suivantes sont conséquence immédiate de la relation de Chasles :

i) PP =
0 (qui s'obtient en faisant P=Q=R)
ii) Jp$ =
-Q^ (qui s'obtient en faisant Q=P et en tenant compte de i))

Exemples
1. L'exemple le plus important est celui que l'on a vu en 1.1 : on définit une structure
d'espace affine sur un espace vectoriel E en posant ab := b —

a. Cette structure sera


dite standard (ou canonique).
2. Plus généralement, soit A un ensemble et / : A —> E une bijection sur un
espace
vectoriel E. On définit une structure d'espace affine sur A par : ab :=
/"(6) —

/(a).

REMARQUE. —

Dans le cas d'un sous-espace affine d'un espace vectoriel, si b = a + ao on


peut
écrire : ao =
b —

a. C'est la raison pour laquelle, en plus de la notation Q = P + PQ, on utilise


parfois la notation PQ =
Q —

P pour un espace affine quelconque. Cependant cette manière d'écrire


peut prêter à confusion : on ne peut pas "sommer" a priori deux éléments de A : les éléments de A
ne peuvent être "sommés" qu'avec les éléments de F.

Applications affines

Comme nous l'avons vu (cf. définition A.7.2), dans le cadre des sous-variétés affines d'un
espace vectoriel E, une application g : E E est dite affine si elle est du type g[x)
— =

a-\- f(x) avec a 6 E et / linéaire. Notons qu'alors a g(0) ; aussi les applications affines
=

sont les applications du type :

9(x) —

<?(0) + f(x) »
avec / linéaire.

Définition A.7.13 -

Soient A et A' deux espaces affines de directions E et E''. Une


application g : A —> A' affine s'il existe un point O tel que g s'écrive sous la forme
est dite :

g(P) =
g{0) + f(ÔP), avec / G CK(EyE') ;

On vérifie facilement que si cette propriété est satisfaite, alors elle est satisfaite pour tout
O G A. f est dite partie linéaire de g. La partie linâire de g est notée habituellement g.

Avec les notations ci-dessus (cf. (1) page 387) on peut dire aussi que g est affine si et
seulement si l'application g : E —> E définie par

§ÇFQ) =
g(P)g(QÏ
est linéaire.

L'ensemble des applications affines bijectives de A dans A forme un groupe, dit groupe affine
de A, noté GA(A).
Deux espaces affines A et A! sont dits isomorphes s'il existe une application affine bijective
g : A —> A!. Ceci veut dire que if est isomorphisme entre les directions de A et A!.
Remarquons que si on note

Vp(Q) =
P$ et V'p, (Q') =
WQ7*'
389

les bijections qui définissent les structures affines de A et A\ la linéarité de g, c'est-à-dire la


condition g(PQ) =
g{P),g{Q) , peut s'écrire

gVP(Q) =

V^p)g(Q)
et traduit donc le fait que g échange les structures affines de A et A'

Vectorialisé

Comme on l'a vu, on ne peut pas définir une somme d'éléments de A. Cependant, le choix

d'un point dans A permet de définir sur A une structure d'espace vectoriel. En effet, d'après
l'axiome 1., le choix d'un point O G A induit une bijection

V0 : 4—> E

ce qui permet de transporter sur A la structure d'espace vectoriel de F. On a (cf. exercice 4


du chapitre 3) :

P+Q :=VS1(Vo{P)JtVo{Q)) Vro1(Ô? =


+ ô9) =
0 + Ô? + Ô^

À-P
:=Vô1(\Vo(P))=Vô1(\Ô?) 0 =
+ \U?

c'est-à-dire, (cf. page 381) :

P+Q := O + UP + ÔÇ) (a)


A P := O + XUP (b)
L'espace vectoriel ainsi obtenu est dit vectorialisé de A en O et il est noté Ao

Notons que P-j-O =


0 + UP + UÔ = 0 + UP =
P, donc O est le neutre.

Proposition A.7.14 Soit A un espace affine


-

et O e A. Alors A est isomorphe à l'espace


affine Ao muni de la structure standard.
Il suffit de considérer l'application go Ao A définie par go(P) O + Vo(P)3-
'
— =

Comme Vo est un isomorphisme entre Ao et E,Vo est un isomorphisme d'espaces affines.


Plus précisément on a : V0(Q-P) Vo(Q)-Vo(P) UC$-UP P(5, c'est-à-dire :
= = =

P$ =
V0 (Q-P) (*)

Nota -

Habituellement la loi + est notée plus simplement +. Par ailleurs, puisque Vo est un

isomorphisme, on identifie Vo{Q—P) avec Q —

P si bien que la relation ci-dessus est écrite parfois (par


abus de notation, car l'identification dépend du choix d'un point) : PQ =
Q —

P.

Ceci veut dire que modulo le choix d'un point on peut identifier l'espace affine A avec l'espace
vectoriel Ao muni de la structure affine standard et donc avec E muni de la structure
4. Ce qui veut dire aussi que l'exemple standard est le seul exemple d'espace affine
standard

(à isomorphisme près) 5. En particulier, les propriétés d'un espace affine peuvent être
un

démontrées dans le cas standard, comme dans la section A.3.1, sans perte de généralité.

3Noter qu'en fait, au point de vue ensembliste, A Ao et Vq est l'identité. =

4De même que, modulo le choix d'une base, on identifie les vecteurs d'un espace vectoriel au

77r-uplet de ses composantes, ou endomorphismes aux matrices.


les
5De même que Kn est le seul exemple d'espace vectoriel de dimension n sur Ky à un isomorphisme
près.
390 Espaces affines

Sous-espaces affines. Barycentre

Définition A.7.15 Soient Pi, , Pq des points de A et £i, , tq des scalaires tels
que
-

ti -\ + tq= t ^ 0. Soit O un point quelconque de A. Alors le point

G =
O -h
j(ti Ô~Pi + +
*,Ôp£)
indépendant du choix de O et il est dit barycentre des (Pi,ii)i=i,...,g.
6
est

En utilisant la structure vectorielle du véctorialisé en O, on peut écrire (cf. formules (a) et

(b) page 389) : G =


j Ui Pi-i \-tq Pq J. En fait, puisque G ne dépend pas du choix de O,
on peut écrire

cette somme est dite dite somme barycentrique 7.

Définition A.7.16 -

Soit A un espace affine de direction E. Un sous-ensemble V C A est


dit sous-espace affine de A s'il existe un sous-espace F de E tel que V soit un espace affine
de direction F. On appelle dimension de V la dimension de F.

Cela veut dire que si Po est un point de V, alors

p =

jpG^|p =
P0 + Pà?, avec PàP G
p}
On notera aussi
V =
P0 + F , avec P0 G V.

Exemples- Soient P, Q G A, P / Q, et

x> =

{mg^|m = p + p4 tex}
est un sous-espace affine de A de direction Vect {PQ}, dit droite affine engendrée par P et

Q (cf. figure 9)

Figure 9

De même, étant donnés trois points P, Q, P qui ne sont pas sur une affine, l'ensemble
même droite
des points P + sPQ + tPR est un sous-espace affine de direction Vect {PQ, P H}, dit pJem
affine défini par les points P^Q^R.

Conséquence facile de la relation de Chasles.


6

7Comme on l'a dit, dans un espace affine il n'a pas de sens de "sommer" des points, sinon en
vectorialisant en un point et avec les abus de notations signalés (la somme dépendra du choix du
point). En revanche la somme barycentrique a un sens précis, car elle ne dépend pas du choix du
point.
391

Plus généralement, étant donnés k points Pi,..., P&, on appelle sous-espace affine défini par
ces points l'ensemble

Aff{Pi,...,Pfc}:= [PeA\ P =
Pi+*2KK + "-

+ **ÂK, avec *!,..., tfc G


#}.
Il est clair que la direction de ce sous-espace est Vect{PiP2,..., PiPfc}.
Notons que la somme qui apparaît dans la définition de Aff{Pi, ...,Pfc} peut être écrite
comme somme baycentrique, car on peut l'écrire sous la forme :

P =

(l -

(t2 + +
*fc))ftK + t2KH + + tkJ\Pk.
Aussi peut-on écrire :

Aff{Pi,..., Pfc} :=
{ P G A | P =
tiPi + t2P2 + + tfcPfc, avec *i + + tk =

lj.
Le théorème A.7.7 se généralise immédiatement :

Proposition A.7.17 Une une partie non vide V d'un espace affine A est un sous-espace
-

affine de A si et seulement si elle est stable par composition barycentrique.


Il suffit de fixer un point P G P et de considérer le vectorialisé Ap : on est alors ramené à la

démonstration de la proposition A.7.7.

Comme on l'a vu dans l'exemple ci-dessus, un sous-espace affine de dimension k est déterminé
par k + 1 points qui ne sont pas contenus dans un sous-espace affine de dimension (k —

1).
Ceci nous amène à la définition de repère affine.

Définition A.7.18 Soit A un espace affine de dimension n. On appelle repère affine la


donnée de n + 1 points de A non contenus dans un sous-espace affine de dimension n —

1.

Proposition A.7.19 Soit {Po,Pi,..., Pn} un repère affine de A. Alors tout point P G A
s'écrit d'une manière unique sous
Informe
P =

2^ ai P*
i=0
'
aVeC '
OiQ-\- a\ -\ hû!n = l

Les ai sont dites coordonnées barycentriques de P.

Démonstration : Choisissons un point du


repère affine, par exemple Po et considérons
le vectorialisé Ap0 de A en Po. Les vecteurs
vt =
Pp Pi, ..., v~t =
PoPn forment une

base de Ap0, il existe un unique n-uplet de


scalaires (ti, ...,£n) tels que

PÔP =
h P0Pl + + tn P0Pn

Figure 10
Or pour tout P G A on peut écrire :

P =
Po + P^f =
Po + U P0Pl + + tn PoPn =
«0 ^0 + <*i Pi + + an Pn

avec ao = 1 (t\ + + tn), a\ t\, an =


tn et les ai sont uniques, puisque le

...,

7i-uplet (ti,...,tn) est unique).


392 Espaces affines

Toutes les propriétés que nous avons vues dans la section 1. ( cas de standard) se
transportent
immédiatement dans les espaces affines abstraits, car tout espace affine est isomorphe, mo-
dulo le choix d'un point, à sa direction munie de la structure standard. En particulier :

Proposition A.7.20 -

Une application g : A —> A' est affine si et seulement si elle


conserve le barycentre, c'est-à-dire si

/ r \ r

9
\i=l ) i=l

VPi,..., Pr et Voji, ..., ar 6K, telsque ai H + ar = 1.

Corollaire A.7.21 Deux applications affines qui coïncident sur un repère affine sont égales
en tout point de A.

En effet, soit {Pi,...,Pn} un repère affine et /,g deux applications affines telles que f(P{) =

g(Pi), pour i =
1, ...,n et soit P =
Y%=i &i Pi € A (avec ai H \- an 1). Puisque f et
=
g
conservent le barycentre, on a :

f(p) =
/
( È p0 Ê
\i=l
a*
/
=

i=l
** /(p<) =

E a* 9(Pi)
i=l
=
g(P)-

Isométries

Définition A.7.22 On appelle espace affine euclidien un espace affine dont la direction est
un espace euclidien.

Dans la suite, on notera S un espace affine euclidien et E sa direction.

Sur un espace affine euclidien on définit une distance, on posant :

d(P,Q) =
||P3||
Une application / entre espaces affines euclidiens S et S' est dite isométrie si elle conserve

la distance, c'est-à-dire si

d(f(P),f(Q)) =
d(P,Q), VP,QeS

On vérifie immédiatement que les translations sont des isométries.

Les isométries de S forment un groupe noté Is(£). Comme pour le théorème A.7.10, on a :

Théorème A.7.23 Soit S un espace affine euclidien de direction E. Alors une application

f : S — S est une isométrie si et seulement si elle est affine et sa partie linéaire f est
orthogonale, c 'est-à-dire si f est de la forme :

f(P) =
f(0) + f(U?) ,
avec / G O(E)
O étant un point quelconque de S.

La démonstration est immédiate : en choisissant un point O de £, S est isomorphe à E muni


de la structure standard ; on transporte alors par isomorphisme le théorème A.7.10.
Plus précisément, supposons qu'il existe un point Q fixe pour /. En prenant O =
H, on a :

f(P) iï+f(Qp).
= En vectorialisant en fi, c'est-à-dire en posant Vq(P) = on a Q?, :
Vn(f(P)) =

/(Vh(P)), donc
f =
Vâ1ofoVçî
393

C'est-à-dire : l'étude de / se ramène à celui de l'application linéaire /. En notant Isq(£) le


sous-groupe des isométries de Is(£) qui laissent fixe Q, on a :

Isn(S) =
V-1oO(E)oVn
Supposons maintenant qu'il n'y a pas de point fixe. Soit fi, un point quelconque ; alors
f(£l) ^ f2,
donc le vecteur v =
/(Q)Sl est non nul. Considérons l'application g t$ o /. On a :
=

9(0) =
tv(f(Q)) =
f(Q) + v =
/(O) + J(â)Û = Cl.

Donc g est une application affine qui admet O comme point fixe et l'on peut écrire :

f =
t_zog

Comme g admet un point fixe, l'étude de g est ramenée à celle de sa partie linéaire qui est une

transformation orthogonale. On a ainsi :


I Le groupe Isq(S) des isométries qui laissent fixe un point Q est isomorphe au groupe
orthogonal
de la direction E de S :

(*) Isn(£) =
Vâ1oO(E)oVQ.
Toute isométrie est la composée d'une translation par une isométrie qui admet un point fixe.
I Elle peut donc être "identifiée" au produit d'une translation par une application orthogonale.
Appendice A.8

Sur les isométries dans le plan et dans

l'espace

Dans cet appendice, on notera Is(n) le groupe des isométries d'un espace affine euclidien de
dimension n.

Les isométries du plan


Soit 8 un espace affine euclidien de dimension 2. On notera E sa direction. Conformément
résultat ( ) page 393 et à la Proposition 7.25, Is(2) est formé par
*
au

-
l'identité ids
-
les rotations autour d'un point Q, d'angle 6 =£ Omod[2-7r] (c'est-à-dire différentes de id^),
que l'on notera ifo, e
-
les réflexion par rapport à une droite V, que l'on notera s^.
-
les translations t$
et les composées de ces applications.
Notons que
-

les rotations différentes de \às sont caractérisées par avoir un seul point fixe ;
-

les réflexions par le fait d'avoir une droite fixe.

Nous allons maintenant étudier les composées de ces isométries avec une translation. Pour
cela on a besoin du Lemme suivant, qui est valable en dimension quelconque (finie) :

Lemme A.8.1 -

Soit f : 8 —> 8 une application affine et notons :


Fix(f) =
{ points fixes de/ } .

-
Si 1 n'est pas valeur propre de f, alors f admet un unique point fixe.
-SU est valeur propre de f alors : soit Fix(/) =
0; soit il existe un point fixe D, et

Fix(/) =Q + e(
c'est-à-dire l'ensemble des points fixes, soit il est vide, soit il est un sous-espace affine
dont la direction est l'espace propre correspondant à la valeur propre 1 de f, E[
La démonstration est très simple si on vectorialisé en un point O et on identifie £ avec son

vectorialisé muni de la structure standard, c'est-à-dire si on identifie les points P avec les
vecteurs UP (cf. Nota page 389). Soit f(P) =
f(P) + v, on a :

/(P) = P ^ f(P) = P + $ «=^ (/- id)(P) = -v

395
396 Sur les isométries dans le plan et dans l'espace

si dét (/ —

id) 7^ 0, il existe une et une seule solution qui s'obtient en résolvant le


système :

(/-id)(P) = -i7 I (1)

-
si dét (/ id) =
0, supposons Fix{/} ^ 0 et soit CL un point fixe. On a alors

(/- id)(Cl)

= -v. Si P est un autre point fixe, on aussi (/ —

id)(P) =
—v, d'où par
soustraction
(/-id)(P-fi)=0
ce qui veut dire que P Cl G E(, c'est-à-dire : P G Cl + E[
'

REMARQUE. -

A titre d'exemple voici la démonstration si on ne vectorialise pas :

Supposons que 1 n'es pas valeur propre, c'est-à-dire queE( =


{0}, ou :
Ker(/ —

id^) =
{0}, ce

qui en dimension finie est équivalent à : / —

id^ est bijective. Prenons un point O arbitraire et


soit Cl un point quelconque. On a

~f(ôû) =
f(o)f(a) =
7(5)3 + uû + n7(âî =
7{ô)Û =
J{ô)Ô + ôû
c'est-à-dire :
(f-idE)(UÛ) =
/(0)d + Ô/(âj. Ainsi les points fixes Cl (c'est-à-dire qui vérifient
Çlf(Q) =
Tf) sont les solutions du système :
(/ idE)(ÔÛ) =
f(0)Ô. Ce système a une solution
f(0)Ô,

unique (puisque / id^ —

est bijective), donnée par la formule UÛ =


(f- id^)-1 O étant
un point arbitraire.

Supposons que 1 est valeur propre et qu'il existe au moins un point fixe Cl. Alors on peut écrire
f(P) =
f(Q) + f(HP) = Q + f(HP). Donc P est fixe <^=^> f(CïP) = CïP <=^ HP G e( *=»

P e CI + eJle .

Comme on voit, elle est laborieuse et au fond peu naturelle. Par conséquent dans la suite nous
donnerons habituellement les démonstrations en vectorialisant en un point. Cependant le point

de vue proprement affine peut aussi être plus clair dans certains cas, comme nous le verrons.

1er cas : / =
t$ o
JRfi) g
Vectorialisons en Cl (c'est-à-dire prenons Cl comme origine). On a / =
Rçi,o dont la matrice

dans b.o.n. est ( ). Cette matrice n'a pas 1 comme valeur ^


propre (car
J
une
\
:
sm9
n n ^ jt- v
cosv
.

9 7^ 0 mod[27r]). Donc, d'après le Lemme, f aun unique point fixe, et par conséquent / est une

rotation autour d'un point Cl' donné part la formule (1) ci-dessus : Cl' =
Cl—(Rn} q id^)-1^).

2ème cas : / =
t$o s^
On a / =
s^, donc 1 est valeur propre. Par conséquent, soit / n'a pas de points fixes, soit
elle en a une infinité.
Pour chercher les points fixes il faut résoudre le système (1) :
(s^ —

id)(P) =
—v, En prenant

l'origine O sur V et une b.o.n. (ei,e2) avec e± G V 1, la matrice de s^ s'écrit l _i )'


Pour avoir les points fixes, il faut donc résoudre le système :

-!)(;)--(:)
où a, b sont les coordonnées de v. Ce système est compatible si et seulement si a —

0, c'est-à-
dire v _L V et les solutions sont données par y =
6/2, x arbitraire. L'ensemble des points fixes

1Plus précisément, e\ G D, D étant la direction de V, mais justement en vectorialisant on peut


identifier V et D.
397

est donc la droite V1 parallèle à V et passant par le point ^v. Il s'agit donc d'une réflexion
par rapport à cette droite.

Supposons maintenant que v fi V±. En posant v =


v{ + Au, avec v\ J_ V et u//T>, on a :

f =
tv° s^ =
TXu o
Tvi o
s^

réflexion

/ est donc la composée d'une réflexion par rapport à une droite parallèle à V avec une

translation dans la direction de V. Une telle application est dite glissement. Notons que les
glissements n'ont pas de points fixes, car v n'est pas orthogonal à V.
On a ainsi :

Théorème A.8.2 -

Is(2) est composé de


-
l'identité
-
des rotations autour d'un point
-
des réflexions par rapport à une droite
-
des glissements
-
et des translations.

Les isométries de l'espace


Conformément résultat ( ) page 393 et à la Proposition 7.27, Is(3) est formé par
*
au

-
l'identité idf ;
-
les rotations ifo,0, d'angle 6 ^ 0[mod27r[, autour d'une droite affine V, caractérisées
par le fait d' avoir une droite fixe, l'axe de rotation ;
-
les réflexions par rapport à un plan affine sp, caractérisées par le fait d'avoir un plan
fixe.
-
les "rotations-réflexions" sv °Rt>,9, où V est un plan orthogonal à D, caractérisées par
le fait d'avoir un unique point fixe ;
-
les translations t$\
et les composées de ces applications.

Nous allons étudier maintenant ces dernières.

1er cas : / =
t$ o
Rx>,e-
Notons, abréger, R
pour Rt>,o et cherchons les points fixes. On a /
=
R. Puisque 1 est =

valeur propre de /, alors / soit n'a pas de points fixes, soit en a une infinité. Pour chercher
les points fixes, il faut résoudre l'équation f(P) P c'est-à-dire =

R(P) -

P =
-î7. (*)
Soit k un vecteur unitaire directeur de V ; on a : < R(P), k > =
< R(P), R(k) > =
< P, k >,
puisque R est orthogonale. Donc une condition de compatibilité de l'équation (*) est que

<v,k> =
0.
-

Supposons maintenant que v _L k et prenons un repère affine orthonormé


(£}, v/||v||,ûJ, k)
avec Q, G V. Cherchons les solutions de l'équation (*). Si (xo,yo,zo) sont les coordonnées de
P dans ce repère, on est amené à résoudre le système

cos<9 -sin0 0 \ /zo \ / H \ /


x0 \
sin<9 cos(9 0 + 0

) )
2/o =

0 0 1 \ zo \ 0 / \*o/
398 Sur les isométries dans le plan et dans l'espace

ce qui donne
(cos# —

l)xo —

sinOyo = —

||v||
sin^xo -j-(cos6 —

l)yo = 0

Ce système admet une solution unique (#o,yo) (puisque 6 ^ 2/c7r). Puisque zq est arbitraire
on donc une droite V de points fixes (c'est une droite de direction k). On a ainsi :

si v _L k, f est une rotation autour d'un axe V de direction k, c'est-à-dire parallèle à V.

-Supposons que v n'est pas orthogonal à k. En posant v =


vi + Àfc, avec v\ JL k, on a :

tjj o R =
tx% o
t^o R

rotation

/ est donc une rotation suivie d'une translation dans la direction de l'axe de rotation.
Cette application est dite vissage.

2ème cas : / =
t$ o
sv
On a / sv, donc 1 est valeur propre de / et par conséquent, soit il n'y a pas de points
=

fixes, soit il y en a une infinité. Les points fixes P doivent vérifier l'équation
f(P) —#,

P =

Si k est un vecteur unitaire normal à V, on voit, comme dans le cas 1. qu'une condition
nécessaire pour que cette équation admette une solution est que v soit parallèle à k. Un
calculanalogue à celui effectué ci-dessus, montre que
si v -Lk, f est une réflexion par rapport à un plan V' parallèle à?.2

Si v n'est pas parallèle à £, on pose v =


Xk + v\. On a

/ =
t$ o
sv
=
t^ o
JA£ o
sv
réflexion

/ est donc le produit d'une réflexion par une translation dans une direction parallèle au

plan de réflexion. Une telle application est dite glissement.

3ème cas : / =
t$ o
(sv o Rv )
où sv est la réflexion par rapport à un plan affine V et et Rt> la rotation autour d'un axe V

orthogonal à V.
On a / =
sv o R-p. Si fl est l'intersection du plan de réflexion et de l'axe de rotation, la
matrice de / dans un repère affine orthonormé (fi, û, w, k), où k est un vecteur unitaire
directeur de l'axe de rotation, est

cosO —

sin# 0

sin0 COS0 0 0^2/ctt


0 0 -1

Puisque 1 n'est pas valeur propre de /, / au un unique point fixe, le point Q, et donc / est
une rotation-reflexion.
On a ainsi :

Théorème A.8.3 -

Is(3) est composé de


-
l'identité
-
des rotations autour d'un axe

2on trouve : V' =ti~V


399

-
des réflexions par rapport à un plan
-
des rotations-réflexions
-
des vissages
-
des glissements
-
et des translations
Appendice A.9

Groupes de symétries

La notion de symétrie joue un rôle important en Mathématiques, en Physique ou en Chimie


notamment, mais aussi en des nombreuses disciplines scientifiques. Il s'agit d'étudier les
propriétés qui sont invariantes pour un certain type de transformations. Cela permet souvent
de simplifier un problème (par exemple trouver des solutions non triviales à partir de solutions
déjà connues), ou classifier les solutions, ou encore comprendre plus profondément la raison
d'être de certaines propriétés (par exemple les propriétés remarquables des solutions de
certains types d'équations différentielles).
A titre d'exemple, l'étude des symétries permet de décrire et classifier les polyèdres réguliers,
ou d'expliquer pourquoi dans la nature on ne trouve que 32 types de cristaux. En cherchant

des "symétries" on peut réduire l'ordre d'une équation différentielle, trouver des intégrales
premières, etc. Et il est bien connu que, en étudiant les symétries des racines des équations
algébriques, Évariste Galois a pu donner une réponse à l'ancien problème de leur résolubilité
par radicaux en jetant les bases de la Théorie des Groupes. Pour terminer cette rapide
introduction qui est bien loin d'être exhaustive, on peut encore mentionner l'importance de
la notion de symétrie en Physique Théorique ou en Théorie quantique des champs.
Comme on peut l'imaginer, en Géométrie les transformations sous l'action desquelles il
est intéressant d'étudier l'invariance d'une configuration de points ou d'une figure sont les
isométries. Dans cette Appendice nous donnons un bref aperçu de ce type de problèmes.

Isométries laissant invariant un ensemble

Soit S un espace affine euclidien et Is(£) le groupe des isométries de S.

Définition A.9.1 Soit S G 8 un sous-ensemble de S. On dit qu'une isométrie f laisse S


invariant si f(S) =
S.

Par exemple, si S est une pyramide dont la base est


27T
un polygone régulier n côtés, les rotations d'angle —

autour de l'axe laissent S invariante.

Proposition A.9.2 L'ensemble Inv(S) des isométries


-

qui laissent S invariant est un sous-groupe de ïs(£) dit


groupe (complet) des symétries de S. Tout sous-groupe
de Inv(<S) est dit groupe de symétries de S.

La vérification est immédiate. Figure 1

401
402 Groupes de symétries

Exemple 1. -

Soit S de dimension 2 et A,B deux points distincts de E. Déterminer


Inv({A,£})

Si A et B sont fixes, toute la droite V =


(A, B) est fixe *. Donc, compte tenu du Théorème
A.8.2, page 397 :

ïnv({A,B}) =
{idE,8D}
Si A et B sont échangés entre eux, alors la point Q, =
-A + -B est fixe pour toute / ç

Inv({A,£}). Donc (cf. Théorème A.8.2) :

f «sa ( réflexion par rapport à la droite A


/£lnv({A,£})
=

«=»
passant par Q orthogonale à V)
t / =
^fo ( rotation de centre Çï)
On a donc
Inv({A,£}) =
{id£,iîn,s2>,5A}
La table de multiplication de ce groupe est

Lid ifa sv SA

~ïân rid- ftî ST> SA

Rq Rq id SA SV
S<D s-d SA id Rn
SA SA ST> Rn id

NOTA -

Un groupe muni de cette table de multiplication est dit groupe de Klein.

Exemple 2. -

Déterminer le sous-groupe X de Is(2) qui laisse invariant un triangle


équilatère.

Les sommets (A,B,C) du triangle forment un repère affine. Toute isométrie / est donc
déterminée par valeurs A, B et C. Or, pour que le triangle soit invariant par / il faut

(/(A),/(£),/(C))
ses sur

que f(A)J(B)J(C) G {A,£,C} et puisque / est bijective, le triplet


est permutation de (A, B,C). Il
une y a donc au plus 3! applications affines qui laissent
invariant le triangle.

Soit G =

\(A + B + C). On a :

f(G) =

l (f(A) + f(B) +
f(Q) l(A =
+ B + C) =
G

Donc G est invariant pour toutes les isométries de X. X est donc un sous-groupe de Og(E)
conséquent il ne contient que
et par
-

l'identité
-

les rotations autour de G


les réflexions par rapport à une droite passant par G.
-

Les rotations autour de G sont de deux types :

B C
Ri Rg,2<k/3 =
\ B C R2 —

Rgm/z A
c A B

1Les points de V sont les barycentres de A et B et / conserve les barycentres, car elle est affine.
403

De symétries par rapport à des droites passant par


G il y en au maximum 3, (car X comporte au plus 6
éléments et on en a déjà trouvé 3 : id, .Ri, #2). Il est
clair que les symétries SA,SB,scpar rapport aux
médiatrices des côtés du triangle laissent le triangle
invariant, c'est-à-dire elles appartiennent à X. On
donc
X =
{id, Ri, R2, sa, sB, sc}

La table de multiplication de X est la suivante :

1 Id Ri R2 SA SB se

~ld~j FIcT Ri R2 SA SB se

#1 Rl R2 Id se SA SB

R2 R2 Id Ri SB se sa

SA SA SB se id Ri R2
SB SB se sa R2 id Ri
se se SA SB Ri R2 id

Groupes de symétries discrets d'un ensemble borné de R3

Dans cette section nous nous proposons d'étudier le groupe Inv(<S), où S est un sous-ensemble
borné d'un espace affine euclidien S de dimension 3. Sans perte de généralité (cf. Nota page

389) on peut supposer que S est l'espace R3 muni du produit scalaire canonique et de la
structure affine standard.
Pour déterminer tous les groupes de symétries de <S, il faudrait classifier tous les sous-groupes
de Is(3), ce qui est un problème très difficile. Heureusement, les groupes de symétries qui se
présentent le plus souvent en Physique sont soit des groupes "discrets", soit des "groupes de
Lie". L'étude de derniers n'étant pas du ressort d'un
ces cours d'Algèbre Linéaire élémentaire,
on s'intéressera aux sous-groupes discrets de Is(3).

Définition A.9.3 Soit G un groupe de transformations qui agit sur un ensemble E (cf.
définition A. 1.11, page 342) et G x V orbite de x sous l'action de G. On dit que G est
discret si :

VxGjE et pour toute boule Br de centre x et de rayon r il existe au plus un nombre fini
de points de l'orbite de x contenus dans Br, c'est-à-dire : G-x D Br est un ensemble fini.

Il est clair que si G est fini, alors il est discret.


Un exemple de groupe infini et discret est le groupe engendré par les translations ta, avec

a G M3, et a ^ 0. En revanche, par exemple, le groupe G


=
{tq \ q G Q3} n'est pas discret.

1. Une propriété de finitude

Théorème A.9.4 -

Tout groupe discret G de symétries d'un sous-ensemble borné de R3 est

isomorphe à un sous-groupe fini du groupe orthogonal.


404 Groupes de symétries

Démonstration : Notons tout d'abord que ces groupes ne peuvent contenir ni les
translations, ni les vissages, ni les glissements car l'une de ces transformations, suffisamment répétée
appliquera l'ensemble en dehors d'une sphère qui le contient. Par conséquent, G ne contient
que des rotations et des rotations-réflexions (et bien-sûr l'identité). Il s'ensuit que
chaque
élément de G admet un point fixe. Il n'est pas évident, cependant, qu'ils admettent un point
fixe commun. C'est en fait le cas :

Lemme -

Soit S un sous-ensemble borné de R3 et G un groupe discret de symétries de S.


Alors il existe un point y G M3 qui est fixe pour tout g G G.

En effet, x G S. Tous les points de l'orbite de x sont dans <S, donc contenus dans
soit
une boule.Puisque G est discret l'orbite de x sera finie. Soit G x {x\,..., xp} l'orbite =

de x et g G G. Puisque g est une application affine, le barycentre y de l'orbite G x sera


transformé en le barycentre des points {g(xi), ...,g(xp)} : g(y) Y7i=i 9(xi)/P- Or tout =

élément g G G transforme l'orbite G x en elle-même. Donc les points {g(x\), ...,g{xp)}


sont les points {xi, ...,xp} dans un ordre différent. Il s'ensuit que

Aussi y est fixe pour tous les éléments de G. 0

Il s'ensuit que G est un sous-groupe de Oy(3), lequel est isomorphe à 0(3) (cf. (*) page 393).
De plus, toutes les orbites sont finies. En effet, soit x G E et soit R \\x y\\. Pour toute = —

g G ls(E) on a :

Ux)-y\\ =
\\g{x)-g{y)\\ =
\\x-y\\=R.
Donc l'orbite de x est contenue dans la boule de centre y et rayon R et, comme G est discret,
elle est finie.
On en effet, toute symétrie g G G, étant une application affine,
déduit que G est fini. En
est déterminée par son repère affine, c'est-à-dire par son action sur 4 points
action sur un

ai, ^2,<23, <24 non contenus dans un hyperplan. Comme les orbites de ces 4 points sont finies,
les valeurs possibles des g {ai) sont en nombre fini, donc G est fini.

2. Réduction à l'étude des sous-groupes finis de SO(3)2


Nous allons montrer maintenant que la détermination des sous-groupes finis de 0(3) se

ramène à la détermination des sous-groupes finis de SO(3).

Proposition A.9.5 Soit G un sous-groupe fini de 0(3) et K =


G fl S0(3). Alors

1. soit G =
K, c'est-à-dire G C SO(3) ;

2. soit G =
KUj K, où j = -

id ;

S. soit G est isomorphe à un sous-groupe G+ de S0(3) contenant K comme sous-groupe


distingué d'indice 2 : G+ =
K U K+, où K+ =
{g0 =
jg \ g G G, g <£ K}.

Démonstration :

Supposons que K ^ G et soit


dét :G—>{-l,+l}
9 dét g
'—*

2L'étude de cette section et de la suivante demande quelques connaissances élémentaires sur les

groupes quotients.
405

l'application qui à g G G associe son déterminant. Il s'agit d'un homomorphisme de groupe,


et K = Ker dét. Donc K est un sous-groupe distingué de G. Par ailleurs G/K Im dét ~ =

{—1, +1}. Donc K est d'indice 2 et par conséquent il est constitué par la moitié des éléments
de G. Il y a deux possibilités :

1. j G G. Alors j i K (car dét j =


-1). Donc : G =
KUjK.
2. j £ G. Considérons l'ensemble K+ =
{go =
jg | g G G, g £ K}. Si go G K+, alors
dét g0 = 1 donc K+ C SO(3). D'autre part :

K H K+ =
0

En effet, si #o G X n K+, on a #o =
j#, avec g e G et G £ K, d'où j =
gog~X> Puisque
<?o G X C G et g~x G G, il s'ensuivrait que j G G, ce qui est exclu.
En outre
Cardia =
Cardia
En effet, G = K U Ki, où ifi =
{# G G | g ^ if}. Puisque K est un sous-groupe distingué
d'indice 2, if et Ki sont les deux classes de G (modulo if) et donc elles ont le même nombre
d'éléments. D'autre part if+ jK\. Il existe donc =
une bijection évidente de if+ sur K\ et
donc Cardif+ Cardifi, d'où Cardif
=
Cardif+. =

Soit G+ = K U K+. On voit facilement que G+ est un groupe et tous ses éléments sont
des rotations et que K est un sous-groupe distingué de G+ d'indice 2. Il ne reste plus à
démontrer que G est isomorphe à G+. Soit

<p :KUK+—> G
90 —>
v(go)

tp(g0)
J
où est ainsi défini :
si go G K
0o
^
l K+
.

39o si go G
'

Cette application est évidemment bijective et un petit calcul montre que c'est un isomor-

phisme.

Corollaire A.9.6 -

Les sous-groupes finis de 0(3) peuvent être construits facilement à


partir des sous-groupes finisde SO(3). Aussi, la détermination des groupes de symétries
discrets d'un sous-ensemble borné de R3 se ramène à la détermination des sous-groupes finis de

SO(3).

3. Détermination des sous-groupes finis de SO(3)

Considérons la sphère Sr de centre Ode E3 et de rayon r : Sr =


{x G M3 | ||z|| =
r}. Il est
clair que tout sous-groupe G de SO(3) laisse Sr invariante. En effet, pour toute g G SO(3) :
||^(x)|| ||z|| r, c'est-à-dire g(x) G Sr.
= =

Définition A.9.7 Soit G un sous-groupe de SO(3). Un point x eSr est dit pôle s'il existe
une rotation g G G, g =/= id, telle que g(x) =
x.

Remarquons qu'un pôle est l'intersection de Sr avec l'axe d'une rotation non triviale (c'est-
à-dire différente de id) ; pour chaque rotation non triviale il y a donc deux pôles sur Sr :

±x.
On voit immédiatement que G applique les pôles sur les pôles. En effet, x est pôle de pi,
alors, pour toute g G G, g(x) est pôle de g o
g\ o
g"1. Donc l'ensemble des pôles est partagé
en orbites par l'action de G.
406 Groupes de symétries

Lemme -

Soit G un sous-groupe fini de SO(3). Si x est un pôle, on note Gx le groupe d'isotropie


de x, c'est-à-dire l'ensemble des rotations de G qui laissent fixe x : Gx =
{g G G I
g(x) x}. On a alors les propriétés suivantes :
=

1. Soit O =
{xi, ...,xp} orbite de pôles. Alors :

Card G xi =
Card GX2 = =
Card GXp.
2. Soient (9i,... Ok les différentes orbites et notons

Pi = Card Oi ni =
Card Gx [si x G Oî\ et n =
Card G

Alors pour chaque i =


1,...,&, on a : ni > 2, et n =
pini.

3. Le nombre de rotations non triviales qui laissent fixe un pôle quelconque est :

l'H)-^1-*)!
4. On a la formule

Démonstration

1. vient du fait que si g G G est tel que Xj =


g(xi), l'application ip définie

par : <p :
GXi GXj est bijective.
90 gogoog-1
2. ni > 2, car il existe au moins deux rotations qui laissent fixe le pôle x\ : celle qui fait
que Xi soit pôle et l'identité.

D'autre part GXi (non distingué) de G. En notant [G\GXi]t l'ensemble


est un sous-groupe
des classes à gauche GXi, on sait que que [G\GXi]t est en bijection avec
de G modulo
l'orbite de X%, X% (prendre l'application î/jXi([g])
vjt
g(xi) et vérifier qu'elle est bien =

définie et que c'est une bijection). On en déeduit l'égalité : Card(G) Card(GXi)- =

Card(G-aO.
3. Le nombre des rotations qui laissent fixe le pôle Xi est m
non triviales 1. Par —

conséquent, le nombre des rotations non triviales qui laissent fixe un pôle quelconque
de l'orbite de x% est pi(ni 1) (car il y a p» pôles sur cette orbite).

4. En effet, il y a n 1 rotations non triviales dans G : chacune laisse fixes deux pôles et

chaque rotation doit être comptée deux fois (une fois pour le pôle x et une fois pour
le pôle —x). On a donc :
k

2(n-l) =

^pi(n»-l)
i=l

on en déduit facilement la formule.

Théorème A.9.8 Compte tenu de la formule (*), il n'y a que 5 sous-groupes finis de SO(3) :

A) Le groupe noté Cn, caractérisé par : k 2, n ni ni. = = =

s'agit du groupe des rotations laissant invariante la n-pyramide.


Il

B) Le groupe noté Dm, caractérisé par : k 3, n 2m, m > 2, ni ni 2, nz=m


= — = =

Ils'agit du groupe des rotations laissant invariant le m-prisme, dit groupe diédral.

C) Le groupe noté T, caractérisé par : k 3, n= 12, m 2, U2 = = =


n$ =
3.
77s'agit du groupe des rotations laissant invariant le tétraèdre. .
407

D) Le groupe noté O, caractérisé par : k 3, n 24; n± 2, ri2 3, 713 4. = = = = =

i7s'agit du groupe des rotations laissant invariant le cube ainsi que l'octaèdre.
E) Le groupe noté y, caractérisé par : k 3, n 60, ni = 2, 712 3, n$ 5. = = = =

iZs'agtà dw groupe des rotations laissant invariant l'icosaèdre ainsi que le dodécaèdre.

Démonstration : En effet :

a) On ne peut avoir que k = 2 où k =


3. Car si on avait k =
1, on aurait 2(1 1 =

1 .Or : n > ni, d'où —

< —, donc 1 > 1 et par conséquent :


ni n ni n ni

2(1--) > 1- —

-Si on avait k> 4, on aurait


^ f1") > 2, d'où 2^1——J > 2,

ce qui est exclu.

b) Si A; = 2 on a : 2 - -
= 2 - — -

—, d'où -

= —

+ _L. Or —

> -.
Si, par
n ni n2 n ni n2 ni n
11 2 11
exemple, on avait —

> —, on aurait 2 <2 . Donc ni =


n. De même :
ni n n m ni
n2 =
ra.

c) Supposons k =
3
111 2
i) Si on avait ni > 3, on aurait 1 1 < 1, tandis que on a : 1 -\ > 1.
ni n2 nz n
Donc ni > 3 est impossible et comme les n* > 2, on a : ni = 2.

ii) Si on avait n2 > 4, on aurait < et (puisqe n% > U2 ) < -. D'où :


4 4
— - —

v 7
n2 n3
~ ~ ~

1 1 1^1 1 1 2
h 1 <;r + + l tandis que 1 + > 1
,. , ,

7 T
= :
-

ni n2 n3 2 4 4 n

2 1 n
iii) Si n2 =
2, on a l-\ =
H . Donc ri3 =
—, ce
2
qui implique que n est pair
n n3
et n > 4 (car n3 > 2).
2111 121 11
iv) Si n2 =
3, on a : 1 H
2
+
S
-\ = - -

,
d'où : H
6
-

—. Donc = —

> -,
n U3 n n3 n3 o
donc : n3 < 6. Comme n3 > n2 =
3, on aura trois cas possibles : n3 =
3, , n3 =

4, n3 =
5. D

La construction des solides invariants pour chacun des cas est plus compliquée. Regardons
juste le cas A) : k 2, n m n2 n3.= = = =

n
Il y a deux orbites et sur chacune pi = —
= 1 pôle. Chaque pôle est fixe pour ni = n

rotations, c'est-à-dire tous les éléments de G laissent fixes les deux pôles. Aussi G est constitué

par n rotations autour d'un axe.

Propriété A.9.9 -

Soit G un sous-groupe fini de SO(3) d'ordre n > 2, constitué par des rotations autour
d'un même axe. Alors G est le groupe cyclique Cn engendré par la rotations d'angle

En effet, soit G =
{e,#i,... ,#n-i}, g% étant des rotations d'angles 0i,... ,0n-i, compris
entre 0 et 2-7T. Supposons que 6\ est le plus petit de ces angles. D'après la théorème de la
division euclidienne, on a :

0i =
mi0i + (fi, avec 0 < (pi < 6\.
408 Groupes de symétries

Or gi gï 1 est une mi9\


rotation d'angle 6i
ipi

=

et appartient G, à (pi d'où


0. Donc tous les gi
: =

sont des rotations d'angles multiples de 0i, c'est-à-


dire gi engendre G. D'autre part, g\ est d'ordre n,
car g\engendre G, donc n est le plus petit entier
Figure 3
positif tel que g =
e, d'où : n6\ =
0[mod27r],
2-7T
c'est-à-dire 0\ = —. 0
n
Considédrons la n-pyramide, c'est-à-dire la
pyramide droite dont la base est un polygone régulier

à n côtés, telle que la distance du sommet de la


pyramide à l'un des sommets de la base n'est pas
égale à la longueur des côtés de la base. Il est clair
que le groupe des rotations qui laissent invariante
la n-pyramide est Cn.
Pour n 2 on considère la "pyramide" dont la base
=

est la figure 3 ci-contre :


Enfin, signalons que l'on appelle m-prisme un
cylindre droit dont la base est un polygone régulier à m
côtés et la hauteur n'est pas égale à la longueur des
côtés de la base (pour m 2 on prend comme base
I
=

la base de la 2-pyramide ci-dessus). Ci-contre, à la


Figure 4
figure 4, un trois-prisme.

4. Sous-groupes finis de 0(3)


Terminons cette section en donnons quelques indications sur les sous-groupes finis de 0(3).
D'après le Proposition A.9.5, on peut construire tous les sous-groupes finis de 0(3) à partir
des 5 sous-groupes finis de SO(3) :

On trouve d'abord les 5 groupes notés

CnUjCn, DmUjDm, TU jT, O U jO, V U jV

qui s'obtiennent en ajoutant aux rotations des sous-groupes finis de SO(3) leurs com-

poséses par la symétrie par rapport 0.


La construction des autres sous-groupes point 3. de la Proposition A.9.5),
(ceux du
estun peu plus compliquée. En principe en trouver 5 autres, mais en fait
on devrait
on n'en trouve que 3. On peut montrer en effet que dans les cas des groupes T et 3^
on ne peut pas construire un groupe de rotations (le G+ de la Proposition) contenant
un sous-groupe distingué d'indice deux.

En résumant : il existe exactement 13 sous-groupes finis de 0(3).


Pour chacun de groupes on peut construire le solide qui l'admet
ces comme groupe complet
de symétries. Pour cela on pourra consulter, par exemple :

Paul B. Yale
Geometry and Symmetry
Dover Publications Inc. 1989

Pour la classification groupes cristallographiques on pourra consulter, par exemple :

Willard Miller
Symmetry Groups and their Applications
Académie Press, 1972
Appendice A. 10

Sur ladécomposition des transformations

orthogonales

1. Symétries, réflexions, retournements.

Définition.
On appelle symétrie un endomorphisme s d'un espace vectoriel E tel que s2 id et
=

s ^ euclidien, la symétrie est


id. Si E est dite orthogonale si elle est une transformation
orthogonale.

Puisque X2 —

1 est annulateur de s, s est diagonalisable et E =


E\ 0 E-\. Il existe donc
une base (e*) de E, telle que

M(s)i =

le bloc des 1 étant d'ordre m =


dimEi et celui des —1 d'ordre 712 =
dim.E_i.
On dit que s est une symétrie par rapport à E\ parallèlement à E-i

Si s orthogonale, on a s* o s
est id, et comme s2 id et dét s ^ 0, on a s*
=
s, = =

c'est-à-dire s est autoadjointe et, par conséquent, les espaces propres E\ et E-\ sont
orthogonaux. On peut donc trouver une base orthonormée dans laquelle s a l'expression
(1). Réciproquement, si pour un endomorphisme s il existe une base orthonormée dans
laquelle s a la forme (1), alors s est une symétrie orthogonale.
Définition. -

On appelle réflexion symétrie orthogonale par rapport à un sous-


une

espace de dimension n —

(c'est-à-dire Vespace propre correspondant à +1 est de


1
dimension n 1). On —

appelle retournement une symétrie orthogonale par rapport àun


sous-espace de dimension n 2.

Noter que dans R3 les retournements sont les rotations d'angle n.

On a donc :

409
410 Sur la décomposition des transformations orthogonales

1. 5 est une réflexion si et seulement si il existe une base orthonormée (e*) telle que

M(«)ei =
(2)

2. p est un retournement si et seulement si il existe une base orthonormée (e*) telle que

M(p)ei (3)

2. Décomposition des transformations orthogonales

Nous allons donner d'abord une autre démonstration simple du résultat de l'exercice 29 du
chapitre 7, qui permet de mieux comprendre l'idée sous-jacente 1.

Théorème 1 Décomposition des transformations orthogonales en produit de


-

réflexions
Soit f une transformation orthogonale d'un espace euclidien de dimension n > 2. Alors
f peut s'écrire sous la forme :
/ =
si o o
sr, avec r < n

où les Si sont des réflexions (la décomposition n'est pas unique).


Démonstration :

On considère qui donne la forme réduite de l'exercice 28 du chapitre 7. En notant


une b.o.n.
que (quitte changer base) les —1 peuvent être groupés deux à deux, donnant
l'ordre de la
des matrices de rotations dans un plan 2, on a deux cas possibles selon que les —1 sont en
nombre pair (c'est-à-dire dét / 1) ou impair (c'est-à-dire dét/ —1.
= =

1. dét f = 1 Dans ce cas :

[fli"l \

M(/k s où D
/ cos0i -sinflA
y sin0» cos 9i )'

V 1
/
(4)
1Pour les calculs explicites des éléments de la décomposion de /, il estplus pratique, cependant,
d'utiliser la construction par récurrence (cf. exemple de l'exercice 29 du chapitre 7).
/ 1 0 \ ( COS7T Sin7T \

J J
2
— —

0 1 \ sin7T
_

y
~

COS7T
411

plan produit de deux réflexions on peut donc écrire


3
Or dans le toute rotation est un

Ri =
SiTi où Si et Ti sont des matrices de reflexions dans le plan. On aura donc :

/[Si \ /m \

M(f)ei=

i / v

/1 \ /1

Sk n

\ i / V i /
Or toutes les matrices qui apparaissent dans l'expression ci-dessus sont des matrices
de reflexions.
En effet, par exemple soit sil'application qui dans la base (e^) est représentée par la

première de ces matrices. Si est la matrice d'une reflexion ai dans le plan F = Vect (ei, e^) :

01 =
s±\f- H existe une b.o.n. (ei,£2) telle que M{a\)£i =
( n 1
1. il est clair que

dans la base (£1,62,63, ...,en) la matrice de sia la forme (*) ci-dessus.

Donc / est produit de 2k < n réflexions.

2. dét f = -1 Dans ce cas

[Ël\

[Rk\
M{f)ei =
(2k + l< n)

-1 /
On peut écrire

["flT| /l

[Ëk]
M(/)e< =

V -1/
\
Or la première de ces matrices se décompose en produit de 2k réflexions (d'après (a))
et la seconde est une réflexion. Donc / est produit de 2k + 1 < n réflexions.
3car le produit de deux matrice de d'eterminant —1 a un déterminant égal à +1.
412 Sur la décomposition des transformations orthogonales

Théorème 2 -

Décomposition des transformations orthogonales en produit de


retournements

Soit E une espace euclidien de dimension n > 3. Alors toute transformation orthogonale
directe est un produit de k retournements, avec k < n —

1.

Nota.
1. Ce théorème montre qu'en dimension 3 toute rotation est produit d'au plus deux rotations
d'angle 7r.

2. En dimension 2. si on désigne par Rq la rotation d'angle 0, on a : ^o R^ =


R$+(p. Cette
formule est donc fausse en dimension 3 (d'après 1).

Démonstration -
Considérons une transformation orthogonales directe /. Puisque dét / =

1, il existe une b.o.n. (ei) telle que A =


M(f)ei a l'expression (4).
On a deux cas possibles :

1. 1 est valeur propre. Dans ce cas, il existe une b.o.n. dans laquelle la matrice de / a la
forme (4) que l'on peut écrire :

( 1 \
Ri \

A =
Rk , 2/c+l < n

V 1 /
\ 1 J
Or chacune de ces matrices est produit de deux retournements et donc A est produit
un

de 2k < n —

1 retournements. Vérifions-le, par exemple pour la première matrice. En


écrivant Ri =
5iTi, où Si et 7\ sont deux réflexions, on peut écrire :

/ Ri \ / \ / Ti \

\ 1 / V -1
/ V -1 /
Le même raisonnement que l'on a fait pour le théorème 1., permet de voir que les
deux matrices à second membre représentent des retournements (Si est semblable à

-1
1, etc.
0

2. 1 n'est pas valeur propre (notons que cela implique que E est de dimension paire).
Il existe alors une base orthonormée (et) dans laquelle

ls \
Rj ^ /, 2k n

\Ëk\ j
=

V
Le même raisonnement que ci-dessus montre que A est produit de 2k < n

retournements.

Nota -

On peut en fait montrer que A est produit dep < n—1 retournements (la démonstration
est plus compliqué).
Appendice A. 11

Coniques et quadriques

Coniques
Définition A. 11.1 -

Soient q forme quadratique non nulle et (p une forme linéaire sur


une

l'espace euclidien R2. On supposera R2 muni du produit scalaire canonique (, ). On appelle


conique l'ensemble C des i> G R2 vérifiant l'équation :

q(y) + (p(v) =
k où k e R.

Nous allons donner une classification des coniques selon la signature de q. En changeant

éventuellement le signe des deux membres de l'équation, on peut supposer que la signature
de q est (2,0), (1,1), ou (1,0).
Si {ei,e2J est la base canonique et v =
Xei + Ye2, l'équation d'une conique est du type

ai2 + 2/3iy + 7y2 + Ai + /iy =


fc (i)
où a,/?,7, À,^ E R.

D'après le théorème 9.24, il existe une base {^î,^} orthogonale à la fois pour q et pour
(, ) : il suffit de prendre une base de vecteurs propres de la matrice

de manière qu'elle soit orthonormée pour (, ). Les directions définies par vi et V2 sont dites
directions principales. Si v =
X' V\ + Y' i>2, l'équation de la conique s'écrira dans la nouvelle
base :

aX'2 + bY'2 -

2rX' -

2sY' = k (2)
où a =
q(v\), b =
q(v2), -2r =
ip(y\), -2s =
ipfa).
1. q est non dégénérée -
Dans ce cas a et b sont non nuls. On peut écrire l'équation (2)

(*,-ï),+'(*'-i),-t
sous la forme

En posant
X = X , y = X--
a b
on obtient l'équation :

ax2 + by2 =
h (3)
où h = k (r/a)2 (s/b)2. Notons que l'on passe de l'équation (1) à l'équation (3) par
— —

une isométrie affine : une transformation orthogonale pour passer de la base canonique
à la base définie par les directions principales, suivie d'une translation.

413
414 Coniques et quadriques

a) sign (q) =
(2,0) c'est-à-dire a > 0 et b > 0. Si h
, 0, C =
se réduit à un point

si h < 0, C 0. Supposons que h > 0. Dans ce cas C est une ellipse de centre

(7*
=

S \
-, 7
a b/
) ; elle peut se mettre sous la forme

2 2

42 ^£2

en posant A =
y/i/a et J3 =
y/h/b (cf. fig. 1)
b) sign (q) =
(1,1) ,
cest-à- dire oh < 0. Si h ^ 0, C est une hyperbole :
si, par
exemple a > 0 et 6 < 0, elle peut se mettre sous la forme

2 2

A2 B2

en posant A =
^/h/a et B =
^—h/b (cf. fig. 2).
Si h =
0, C se réduit aux deux droites d'équation y
=
dz^/| a/b\ x (cf. fig. 3).

2. q est dégénérée -
Dans ce cas oh =
0 et sign q =
(1,0).

Supposons, par exemple que a ^ 0 et 6 0. Cela signifie =


que la direction principale
V2 est isotrope pour q. L'équation (2) peut s'écrire :

a(x' -~Y -2sY' = h (2')

a) Si s ^ 0, ce qui signifie que V2 $. Ker</?. En effectuant le changement de


coordonnées affine x = Xf , y =
h + 2sY', on obtient l'équation
a

y = ax2

qui est l'équation d'une parabole (cf. fig 4.)


b) Si s =
0, c'est-à-dire si V2 G Ker y?, l'équation (2') se réduit à x2 =
h/a.
Si h < 0, C 0 ; si h 0, C se réduit à la doite
= = x =
0 ; si h > 0, C est constituée
de deux droites parallèles (cf. fig. 5).

Nous avons donc :

Théorème A.11.2 Soit C une conique définie par l'équation q(v)+ip(v) = k. On suppose
-

que C 7^ 0 et que C ne se réduit pas à un point. Alors :

1. Si sign q =
(2,0) alors C est une ellipse.

2. Si sign g (1,1) alors C


= est une hyperbole qui éventuellement dégénère en deux droites
non parallèles.

3. Si sign q =
(1,0) alors C est une parabole, qui dégénère en une droite, ou en deux
droites parallèles, si la direction principale isotrope est contenue dans Ker y?.
415

Parabole : y = ax2

Figure 4

A V2

vi

x = —

Figure 5

Quadriques
Définition A.11.3 -

Soient q uneforme quadratique non nulle et <p une forme linéaire sur
l'espace euclidien M3. On supposera R3 muni du produit scalaire canonique (, ). On appelle
quadrique l'ensemble Q des v £R3 vérifiant l'équation :

q(v) + ip(v) = k ,
où k G ]
416 Coniques et quadriques

En échangeant éventuellement le signe des deux membres de l'équation, on peut supposer


que signç (r, s) avec r > s.
=

Dans la base canonique {ei, e2, es} de M3, l'équation de Q s'écrit

aX2 + (3Y2 + 7Z2 + 2XXY + 2/j,XZ + 2vYZ + pX + aY+ rZ =


k
(4)
Comme ci-dessus, on peut construire une base {i>i, V2, V3} orthogonale pour q et orthono-
rmée pour (, ), en prenant une base orthonormée de vecteurs propres de la matrice

/ a X fi \
A= A 0 u \
\ fi v 7 /
Dans cette base Q s'écrit :

aX'2 + bY'2 + cZ'2 -2rX' -

2sY' -

2tZ' = k (6)
où a =
q(vi), b =
q{v2), c =
q{vz), —2r =
<p(vi) ,—2s =
^(^2), —

2t =
ip(vz). Les directions
définies par v±, ^2, v3 sont dites principales.
1. rang q = 3 -
Dans ce cas : abc 7^ 0. En effectuant une translation de vecteur de
translation ~ôf =
(r/a, s/b, t/c), Q s'écrit :

ax2 +by2 + cz2 = h (7)


où x = X' —

r/a, y = Yf —

s/b, z = Z' —

t/c. x, y, z sont donc les coordonnées dans


le repère affine d'origine ~ûf et d'axes dirigés par les directions principales.
a) sign (q) =
(3,0). Si h < 0, Q =
0 ; si h =
0, Q se réduit à un point ; si h > 0,
Q est un ellipsoïde (cf. fig. 6).
b) sign (q) =
(2,1). Quitte à changer le signe des deux membres, on peut
supposer a > 0, b > 0, et c < 0.

i) Si h > 0, l'équation de Q s'écrit

ax2 -\-by2 =
h+ \c\z2
En coupant avec un plan d'équation z =
K on obtient des ellipses : Q est
un hyperboloïde à une nappe (cf. fig. 7).

ii) Si h =
0, Q est cône d'axe dirigé par le vecteur V3 et dont les sections par
des plans orthogonaux à ^3 sont des ellipses (éventuellement des cercles, si
a =
b) (cf. fig. 8.)
iii) Si h < 0, les sections de Q avec des plans z K sont des ellipses si K > =

y/\ h/c | qui se réduisent à un point pour K y/\ h/c | ; pour K < y^| h/c | ces =

plans n'intersectent pas Q. Q est un hyperboloïde à deux nappes (cf. fig. 9).

2. rang q = 2 -
On peut supposer que ab ^ 0 etc =
0 (ceci signifie que la direction
principale définie par 1*3 est isotrope). L'équation (6) s'écrit alors :

ax2 -\-by2 -2tZ' =


h}

où. x =
X' —

r/a, y = Y' —

s/b.
a) Si t =
0, c'est-à-dire si vz G Kery?, alors Q est un cylindre d'axe dirigé par V3

et dont les sections sont des ellipses ou des hyperboles1 (cf. théorème A. 11.2, 1.

2.) : cylindre elliptique ou hyperbolique, (cf. fig. 10).

dégénérées parallèles
1
éventuellement en deux droites non ou en un point.
417

Elllipsoïde :
£ + ]£ + ^ = 1 Hyperboloïde à une nappe :
2-% + ^
~

t?z

1

Figure 6 Figure 7

*»*>2 >^2

Hyperboloïde à deux nappes


Cône :
^ + ^ ^ =
0 x2 j£ *2
-

^2 + f2
-11
,

C2"
-
-
-

Figure 8 Figure 9
418 Coniques et quadriques

b) Si t ^ 0, c'est-à-dire si V3 £ Ker</?, en effectuant une nouvelle transformation


affine : x =
x,y =
y,z = h +2tZ', l'équation de Q s'écrit

ax2 + by2 = z
(8)

i) si sign (q) (2,0) (c'est-à-dire si a > 0 et b > 0), en étudiant les sections
=

par des plans d'équation z K on voit facilement que Q a la forme décrite


=

en fig. 11 : il s'agit d'un paraboloïde elliptique (les sections par des plans

orthogonaux aux directions principales sont soit des paraboles, soit des
ellipses).

ii) si sign (q) =


(1,1) ,
en supposant que a > 0 et 6<02, l'équation (8)
s'écrit :

a x2 —

| b | y2 = z
(8')

Les sections par des plans orthogonaux à vi ou à V2 sont des paraboles et


les sections par desplans orthogonaux à V3 sont des hyperboles : Q est un
paraboloïde hyperbolique (cf. fig. 12).

+>v2

>v2

Vi

Cylindre elliptique : Paraboloïde elliptique :

£+# = *
7?^ W

Figure 10 Figure 11

2Le cas a < 0 et b > 0 se traite de la même manière.


419

t>2

Paraboloïde hyperbolique :
^ jb = z
~

Figure 12

3. rang q = 1 -
On peut supposer, par exemple, que a ^ 0 et b = c =
0. L'équation (6)
s'écrit alors :

ax2 -2sY' -2tZ' = h. (9)


a) s ^ 0 (ou t^O). Supposons, par exemple s / 0. En effectuant le changement
de variables x = x , y = 2 s Y' + 2t Z', z = Z' l'équation s'écrit

ax

y = h (10)
Il s'agit d'un cylindre parabolique : les sections par des plans orthogonaux à l'axe,

qui est dirigé par ^3, sont des paraboles (cf. fig. 13).
Le cas où t ^ 0 se traite d'une manière analogue, par le changement de variables
x =
x,y =
Y\z =
2sY' + 2tZ'.
b) s =
t =
0. Dans ce cas l'équation (9) se réduit à a x2 = h. Q dégénère alors deux
plans parallèles (si h > 0) (cf. fig. 14) en un plan (si h =
0) et Q =
0 si h < 0.

^3
A

x =
—a/ r

+ v2 o. V2

Vi
Cylindre parabolique : y = ax2

Figure 13 Figure 14
420 Coniques et quadriques

Remarquons que la condition pour qu'une direction principale appartienne à Kercp est une
condition "ouverte" (c'est-à-direstable par petites variations des coefficients de Q) alors que
la condition pour qu'elle appartienne à Kenp est "fermée" (instable par petites variations
des coefficients). On dira dans le premier cas que la condition est générique et dans le second
cas qu'elle est exceptionnelle3.
En résumant, nous avons :

Théorème A. 11.4 -

Soit Q une quadrique définie par l'équation q(v) + (p(v) =


k. On
suppose Q 7^ 0 et Q non réduite à un point.
1. rang q =3 ;

(a) si sign g =
(3,0), Q est un ellipsoïde.

(b) si sign g =
(2,1), Q est -un hyperboloïde à une nappe (h > 0)
-
un cône (h =
0)
-
un hyperboloïde à deux nappes (h < 0).
2. rang q = 2 :

(a) génériquement (c'est-à-dire si la direction principale qui est isotrope n'est pas
contenue dans Kevip), Q est un paraboloïde elliptique, si sign q =
(2,0), ou un

paraboloïde hyperbolique, si sign (q) =


(1,1).
(b) exceptionnellement (c'est-à-dire si la direction principale isotrope est contenue
dans Keiip), Q est un cylindre dont les sections par des plans orthogonaux à
l'axe sont des coniques de signature (2,0) ou
(1,1) : cylindre elliptique ou cylindre
hyperbolique pouvant éventuellement dégénérer en deux plans non parallèles.
3. rang q = 1 :

(a) génériquement (c'est-à-dire si l'une des deux directions principales isotropes n'est
pas contenue dans Ker <p), Q est un cylindre parabolique

(b) exceptionnellement (c'est-à-dire si les deux directions principales isotropes sont


contenues dans Kerip), Q dégénère en deux plans parallèles, éventuellement
confondus.

3Une définition précise de la notion de généricité dépasse le cadre de ce cours. On peut se contenter
ici de cette notion intuitive)
Appendice A.12

Portrait de phase d'un système autonome

Systèmes autonomes

Considérons un système d'équations différentielles

( _dxi =
Xi (£,#1,... ,xn)
dt

(i)
dxn
-^n {t>i X\, Xn)
l ~df

ou, sous forme abrégée :

x =
X(t,x) (!')
avec a; =
(sci,..., xn), x =
-^| et X est un «champ de vecteurs», c'est-à-dire une application
d'un ouvert r C R x Rn dans Rn :

x : rcRxir -*Rn
(t,œi>...,œn)

(xi x«)

que l'on supposera de classe C1.


Si les fonctions Xi ne dépendent pas de t, le système est dit autonome. Un système autonome
est donc de la forme :

x =
X(x). (2)
Le théorème d'existence et unicité affirme que V(fo, xo) G T il existe une et une seule solution
"maximale" (c'est-à-dire non prolongeable) du système (1), x y>(£), telle que (p(to) xq. = =

Une solution x =
ip(t) peut être représentée géométriquement par une courbe dans l'espace
lxMn des variables (t,xi, ,xn).
Ces courbes sont dites courbes intégrales du champ X.
Le théorème d'existence et unicité affirme donc que par chaque point de V il passe une et
une seule courbe intégrale maximale.
Il existecependant une autre manière de représenter les solutions qui s'avère préférable dans
le cas des systèmes autonomes. Si x cp(t) est une solution, lorsque t varie le point x décrit
=

une courbe de l'espace M71 de coordonnées (rci, ,xn). Cet espace est dit espace des phases
et la courbe décrite trajectoire ou orbite de la solution. L'espace R x Rn est dit espace des

phases élargi.

421
422 Portrait de phase d'un système autonome

Sur chaque trajectoire on peut préciser le sens de


parcours : par convention, c'est le sens dans lequel

le point décrit la trajectoire lorsque t augmente. Il


est clair que les trajectoires sont les projections sur

l'espace des phases des courbes intégrales tracées


dans l'espace W1 x M.
Notons que, alors que les courbes intégrales dans
l'espace des phases élargi ne peuvent se rencontrer,
d'après le théorème d'existence et d'unicité, il n'en
est pas de même en général pour les trajectoires
dans l'espace des phases (cf. fig. 1).
Cependant, lorsque le système est autonome, les
trajectoires dans l'espace des phases ne se
rencontrent pas. On peut démontrer en effet le théorème
suivant : {(xiiX2,t)} : espace des phases élargi
{(œi,£2)} : espace des phases
Figure 1

Théorème A. 12.1 -

Soit x =
X(x)
système autonome, où X est un champ de vecteurs
un

de classe C1 sur un l'espace


ouvert F de phases. des
Pour chaque point de F il passe une et une seule trajectoire. De plus, si une trajectoire se
recoupe, alors elle est nécessairement une orbite fermée représentant une solution périodique.
Plus précisément, il n'y a que trois types de trajectoires dans l'espace des phases pour un
système autonome.
1. Les trajectoires réduites à un point, dites «positions d'équilibre» qui correspondent aux

solutions constantes :
x(t) = a (a 6 M71).
2. Les trajectoires fermées qui correspondent aux solutions périodiques.
3. Les trajectoires qui ne se recoupent pas.

Trajectoires possibles dans l'espace des phases d'un système autonome.

Figure 2

Remarque -
Il est clair que la fonction x a (a const.) est solution si et seulement
= =

si X(a) =
0. Donc, les positions d'équilibre s'obtiennent en cherchant les points a tels
423

que X(a) =
points sont dits points singuliers du champ X (il ne s'agit pas de
0. Ces
singularité différentiabilité, car X est toujours supposé C1).
au sens de la
Un cas particulièrement important est celui où la fonction X(x) est linéaire en x : c'est le
cas des systèmes linéaires à coefficients constants que nous avons étudié au chapitre 6 (cf.
page 170).
L'importance de tels systèmes vient, entre autres, d'un théorème de Liapounov concernant
l'étude de la stabilité Sans entrer dans les détails de la théorie de la stabilité, on peut dire
.

qu'elle consiste à étudier les orbites des solutions dans le voisinage d'une position d'équilibre.
Il s'agit de savoir si les trajectoires qui passent dans un voisinage suffisamment petit d'une
position d'équilibre on les obtient par exemple en faisant varier légèrement les conditions
-

initiales qui caractérisent la position d'équilibre restent dans ce voisinage (voire si elles
-

tendent vers le point d'équilibre). Si c'est le cas, la position d'équilibre est dite stable (et
asymptotiquement stable si les orbites tendent vers la position d'équilibre).

O stable O asymptotiquement stable

Figure 3

Le problème est important, parce que les mesures physiques n'ont qu'une précision finie, et
de ce fait on ne peut jamais être sûr d'imposer les conditions initiales qui donnent comme
solution la position d'équilibre. Si la position d'équilibre est stable, cela a peu d'importance ;

si elle est instable, des petites variations peuvent


entraîner des fortes perturbations du système (cf.
fig. 4).
Liapounov a démontré que, sous des conditions
assez générales, on peut étudier la stabilité de la

position d'équilibre x xo en remplaçant le système


=

x =
X(x) par le système linéaire à coefficients
constants Oscillation du pendule
x = Ax A: position d'équilibre instable

(V) (dXi) position d'équilibre stable


B:
=
G Mn\ et Ai =

Figure 4

Ces quelques considérations, même si un peu approximatives, permettent de comprendre


pourquoi il est important d'étudier le «portrait des phases» c'est-à-dire l'allure des-

trajectoires dans l'espace des phases d'un système linéaire


-

à coefficients constants.
424 Portrait de phase d'un système autonome

Trajectoires d'un système linéaire autonome dans le plan

Considérons le système différentiel

xi ax\ + bx2
a,b,c,d El
=

X2 =
CX\ + dX2

ou, sous forme matricielle, x =


Ax avec : A =

( J. Nous allons étudier les

fonction des valeurs propres de A. Notons que


trajectoires en l'origine est toujours une position
d'équilibre. Ce sera la seule si et seulement si dét A ^ 0.
Etudions d'abord ce cas. On a trois possibilités selon que les valeurs propres sont réelles et
distinctes, complexes conjuguées ou confondues.

1er cas Les valeurs propres Ai,À2 de A sont réelles et distinctes

(et non nulles car dét A ^ 0).

Soient vi et V2 les vecteurs propres correspondants. La solution générale s'écrit

x =
aeXltvi +c2eX2tv2

Les composants de x sur la base {vi,^} sont donc :

Xl =
aeXlt , x2 =
c2eX2t (1)

Notons que v\ et V2 ne sont pas nécessairement orthogonaux. Pour simplifier l'étude nous

considérons transformation linéaire qui amène {ï7i,V2} sur la base canonique {ei,e2J.
une

On tracera les orbites dans le plan {ei,e2} et on reviendra par la transformation inverse au
plan {vi,v2}.
V2 e2

> vi -+ ei

Figure 5
Remarquons que, puisque c\ et ci sont des
constantesarbitraires, en plus de la trajectoire (1) on
aura aussi les trajectoires obtenues en changeant

les signes de c\ et C2. Il suffira donc de tracer les


trajectoires qui sont dans le premier quadrant
(correspondant à ci > 0 et C2 > 0) et compléter par des
symétries par rapport aux axes. Pour c\ ou C2 nuls
on obtient les demi-axes
(par exemple le demi-axe
Ox\ positif est obtenu pour C2 0 et c\ > 0).=

Si Ai > 0 , xi croît et le point s'éloigne de l'origine ;


si Ai < 0 le point se rapproche de l'origine.
L'allure des trajectoires dépend donc du signe
de Ai et À2.

a) Ai et À2 sont de même signe.


Supposons, pour fixer les idées, que |Ài| < |A21

i) Ai < 0, À2 < 0

Le point tend vers l'origine des coordonnées.


Puisque pour t —> 00 l'ordonnée croît

plus vite que l'abscisse, l'axe O £2 est


direction parabolique. On obtient ce que l'on

appelle un nœud stable (figure 7) (plus


précisément : asymptotiquement stable) .

ii) Ai > 0, A2 > 0

Les trajectoires sont les mêmes mais le


mouvement a lieu dans le sens inverse (on
est ramené au cas précédent en changeant
t en t).—

On obtient un nœud instable

(figure 8).
426 Portrait de phase d'un système autonome

b) Ai et À2 sont de signe contraire.


X2

Supposons, pour fixer les idées, que Ai < 0


et À2 > 0.

Dans ce cas le mouvement selon l'axe O x\


s'effectue l'origine et suivant l'axe O X2
vers - xi
en s'éloignant de l'origine. On obtient un
col (figure 9).
Comme ci-dessus si Ai > 0 et À2 < 0, les
trajectoires
sont les mêmes mais
parcourues dans le sens contraire.

col

Figure !

cas Les valeurs propres de A sont des complexes conjugués À et À.

La solution s'écrit :

xt xt
-f
-* ->

x ce vi ce V2.
. —

!/-
En posant €2 =
-(wi -\~iw2) (wi et W2 sont deux vecteurs réels indépendants), on peut

cext + cext cext-cext


x =
m + W2.
2i

Si on pose £ =
ce =
£1 + i£2, on a :

x =
£iû;i +^2'û>'2-

On peut donc tracer les trajectoires dans le plan (wi,W2)- Comme ci-dessus, on peut se
ramener, par une transformation linéaire, à tracer les orbites sur un plan rapporté à des axes
orthogonaux.
En coordonnées polaires, la trajectoire est décrite par

£ =
ce .

En posant £ =
pe%tp ,
c =
Retoc, À =
ji + i v, on a facilement :

f p =Refxt
|^ y?
=
vt + a

Si fi 7^ 0, lorsque t augmente p et (p augmentent ou diminuent, selon le signe de \x et v. On


a des spirales logarithmiques.

Si pb < 0 le point se rapproche de O (foyer stable) ; si p, > 0 il s'en éloigne (foyer instable)
cf. figure 10.
Si p =
0 (c'est-à-dire À est imaginaire pur) on obtient des cercles de centre O ; toute
trajectoire est périodique à l'exception de l'origine qui est une position d'équilibre dite centre
(figure 11).
+>W1

/i^O, fj, > 0 : foyer instable fj, = 0 : centre

Figure 10 Figure 11

3eme cas A admet une valeur propre double À (non nulle car dét A ^ 0).

Deux cas se présentent selon que A est diagonalisable ou non.

a) A est diagonalisable
Si vi et V2 sont les vecteurs propres, la solution est :

xt xt
+ C2
-* -*

ci e vi V2
,
x =
e

d'où xi =
ci eA*, X2 =
C2 ext ; donc :

si À7^ 0, on a C2 xi 0 ; les
+ c\ X2 =

trajectoires sont donc des demi-droites


issues de l'origine ;

si À =
0, la solution s'écrit x =
xq

(xo est un vecteur constant arbitraire).


Chaque point est donc une position
d'équilibre.

À > 0 : nœud instable

Figure 12

b) A n'est pas diagonalisable


Il existe alors une base {^1,^2} telle que :

j A v\ =
X vi

\ A v2 =
v1 + A v2

c'est-à-dire : A est semblable à la matrice (


n
.

j .

Dans ce cas, la solution s'écrit :

(i7i V2)
* *
x =
ci e vi + C2 e t -f-
428 Portrait de phase d'un système autonome

d'où les coordonnées de la trajectoire :

xi =
(ci + c2t) ext, X2 =
C2 e

Supposons, pour fixer les idées, que À < 0. Si l'on échange simultanément les signes de
ci et C2 les trajectoires se transforment en leurs symétriques par rapport à l'origine.
Il suffira donc d'étudier le 0, > 0 (le cas où c\ et C2 sont de
cas où a > C2 signe
contraire se traite d'une manière analogue).
Si C2 = 0 on a le demi-axe positif des abscisses.

Si ci =
0, xi =c2t ext, x2 =
c2 ext
x\ et X2 tendent vers zéro lorsque t —»
+oo, X2 gardant un signe constant positif,
Xi changeant de signe. On obtient un nœud dégénéré stable.

Le cas À > 0 se déduit du précédent en changeant t en t : x\ change de signe et —

X2 ne change pas. Les trajectoires se déduisent donc par symétrie par rapport à l'axe
O X2 et sont décrites en sens inverse.

À < 0 : nœud dégénéré stable À > 0 : nœud dégénéré instable

Figure 13

Si ci et C2 sont nuls, en posant r =


ci + C2£, on a :

\r—c\ \r —

c\

x\ = t e c2 X2 =
C2 e c2
,
.

On obtient les mêmes trajectoires, mais parcourues avec un certain retard.

Il reste à étudier le cas où dét A =


0, qui est laissé en exercice. Dans le tableau à la page
suivante on résume tous les résultats. A représentées, dans le plan de coordonnées
gauche sont

(a,/?) les valeurs propres A a + ifi, et à droite les trajectoires dans le plan des phases
=

de manière à pouvoir voir le changement des trajectoires lorsque les valeurs propres varient.
Comme on le voit, il y a un changement de type de trajectoire lorsque l'une des valeurs
propres traverse l'axe imaginaire (c'est ce qu'on appelle les bifurcations).

La théoriequalitative des équations différentielles est l'une des branches les plus intéressantes
desmathématiques contemporaines.
Un très beau livre sur ce sujet, accessible aux étudiants de fin de Licence et Master, est :

M.W. Hirsch -

S. Smale

Differential équations, dynamical Systems and linear algebra


Académie Press.
429

x2

Xi
Ai A2

Ai =
A2

(0 a) (x

1)
X2f V

=3*N=
U2A1

A2 = 0

A2

I
I

Ai=0 Ai =
A2 = 0
I

(S J) (S S)
A2A1

Plan des phases d'un système linéaire autonome

Figure 14
Appendice A. 13

Formes bilinéaires et sesquilinéaires. Table


de correspondance

431
432 Formes bilinéaires et sesquilineaires. Table de correspondance

Formes bilinéaires Formes sesqui-linéaires

(E espace vectoriel sur K) (E espace vectoriel sur C)

b : E x E -> K telle que : / : E x E -» C telle que :

b(x + y,z) b(x, z) + b(y, z) f(x + y,z) =


f(x, z) + f(y, z)
b(x, z)
=

b(x, y + z) b(x, y) =
+ f(x, y + z) =
f(x, y) + f(x, z)
b(Xx, y) X b(xy y)
= =
b(x, X y) f(Xx, y) = X f(x, y) ; f(x, Xy) = X f(x, y)

En termes de matrices : En termes de matrices :

b(x,y) = tXBY (B =
M(b)ei) f(x,y)=fXMY (M =
M(f)ei)

Changement de base : Changement de base :


B>=tpBP (P Pet^e,i) M'=lVMP (P
PCi-c;)
= =

Noyau : Noyau :

N =
{yeE\b(x,y) =
0, Va G E} N={y<EE\f(Xiy)=0 V* G E}

b non dégénérée <=>> N =


{0} f non dégénérée -<=> N =
{0}

Forme bilinéaire symétrique Forme hermitienne

s bilinéaire et de plus : h sesquilinéaire et de plus :

s(x,y) =
s(y,z) h(x,y) =
h{y,x)

s est représentée dans une base quelconque h est représentée dans une base quelconque
par une matrice symétrique S : par une matrice hermitienne H :

tS =
S tH = H

q(x) : =
s(x,x) q(x) : =
h(x, x) eR

s{x,y) =
\{q(x + y) -

q(x) -

q{y)) Hx>v) =
\[$(x + v) -Q(x-y)
-iq(x + iy)+iq{x-iy)]

1 :=
{xe E\ q(x) =
0} X : =
{x e E | q(x) =
0}

lorsque K = R , q est dite définie si X =


{0} q est dite définie si X =
{0}

Si E est de dimension finie sur R il existe une Si E est de dimension finie sur C il existe une

base dans laquelle : base dans laquelle :

q(x) = x2 + --.+x2- x2p+l x2 q{x) =


\xi\2 + + M2 \xp+l\2 \xr\2
-
Endomorphisme adjoint Endomorphisme adjoint

(pour s bilinéaire, symétrique, non dégénérée (pour h hermitienne non dégénérée


en dimension finie) en dimension finie)

s(f(x),y) =
s(xj*(y)) h(f(x),y) =
h(x,f*(y))

En termes de matrices : En termes de matrices :

si s =
M(s)ei ,
A =
M(f)ei , A* =
M(/*)e, : siH =
M(h)ei ,
A =
M(f)e. ,
A* =
M(/*)e. :

A* =S~ltAS A* = H~lt'ÂH
Si {ei} est orthonormée : A* =tA Si {ei} est orthonormée : A* =* A

Groupe orthogonal Groupe unitaire

q forme quadratique non dégénérée sur un h forme hermitienne non dégénérée sur un

espace vectoriel de dimension finie sur K : espace vectoriel de dimension finie sur C :

/ G 0(q) ^=> q(f(x)) q{x) Vx G E =


/ e U(h) ^=> q(f(x)) =
q(x) Vx G E
<=> s(f(x),f(y))=s(x,y) Va:,y 6 E ^=> h{f(x),f(y)) =
h(x,y) Va;,y G E
^ /* o
/ = id <^ / o
/* = id <=* f* o
f = id <^ / o
/* = id

Si / eO(q) : dét/ = ±l Si feU(h) :


|dét/| = l

En termes de matrices : En termes de matrices :

SiA =
M(f)ei S ,
=
M(S)ei Si A =
M(f)ei iH =
M(kUi
f eO(q) <=^ tASA =
S f eU(h) <=^ tAHA = H

Dans une base orthonormée : Dans une base orthonormée :

feO(q) <=> lAA = I f g U{h) <=> *ÂA = I

Espace euclidien Espace hermitien

Espace vectoriel de dimension finie sur R Espace vectoriel de dimension finie sur C
produit scalaire
muni d'un muni d'un produit scalaire hermitien
c'est-à-dire d'une forme bilinéaire symétrique c'est-à-dire d'une forme hermitienne
<, > définie positive < | > définie positive

Norme : Norme :

\\x\\ := y/< x,x > \\x\\ : =


y/< x
| x >

Inégalité de Cauchy-Schwarz : Inégalité de Cauchy-Schwarz :

K*,v>l <NIII»II I (x \ y) I < IMI llvll

Espace préhilbertien réel : Espace préhilbertien complexe :

Espace vectoriel réel Espace vectoriel complexe


(éventuellement de dimension infinie) (éventuellement de dimension infinie)
muni d'un produit scalaire. muni d'un produit scalaire hermitien.
434 Formes bilineaires et sesquilinéaires. Table de correspondance

Matrices orthogonales Matrices unitaires

0(n,R) =
{Ae M„(R) \tAA =
I} U(n, C) =
{A G Mn(C) lAA =
1}

Ae 0(n,R) => détA=±l Ae\J(n,C) => \détA\ = 1

SO( n, R) =
{A G 0(ra, M) | dét A =
1} SU(n, C) =
{A G U(n, C) \détA =
1}

0( n, R) =
U(n, C) n GL(n, R)
SO n,R) =
SU(n, C) n GL(n, R)

A G 0(n,R) <==> A représente dans une base A G U(n, C) <=> A représente dans une base
orthonormée une transformation orthogonale orthonormée une transformation unitaire
d'un espace euclidien de dimension n. d'un espace hermitien de dimension n.

Toute matrice orthogonale est diagonalisable Toute matrice unitaire est diagonalisable
dans C (non nécessairement dans R) (dans C)
et ses valeurs propres sont de module 1 . et ses valeurs propres sont de module 1 .

Endomorphisme autoadjoint Endomorphisme autoadjoint

d'un espace euclidien d'un espace hermitien

/ est dit autoadjoint si /* =


/ / est dit autoadjoint si /* =
/

Dans une base orthonormée {e*} Dans une base orthonormée


si A =
M(/)Ci {d} siA =
M(/)Ci
/ autoadjoint <=> *A = A / autoadjoint <î=^ tA = A
(c'est-à-dire A est symétrique) (c'est-à-dire A est hermitienne)

Tout endormorphisme autoadjoint d'un espace Tout endormorphisme autoadjoint d'un espace
euclidien est diagonalisable dans R et les hermitien est diagonalisable dans R et les
espaces propres sont deux à deux espaces propres sont deux à deux
orthogonaux. En particulier, on peut construire orthogonaux. En particulier, on peut construire
une base orthonormée de vecteurs propres. une baseorthonormée de vecteurs propres.

En termes de matrices : En termes de matrices :

Toute matrice symétrique réelle est Toute matrice hermitienne est diagonalisable
diagonalisabledans R et les espaces propres diagonamlisable dans R et les espaces propres
sont deux à deux orthogonaux pour le sont deux à deux orthognaux pour le

produit scalaire canonique de Rn. produit scalaire hermitien canonique de Cn.

c'est-à-dire : c'est-à-dire :

Pour toute matrice symétrique réelle A Pour toute matrice hermitienne H


il existe une orthogonale O telle
matrice il existe une matrice unitaire U telle

que A' =* O AO soit diagonale. que H' =


tU HU soit diagonale réelle.
Index
A (espace affine), 387
A\ 369

A\ 238, 282 barycentre, 383, 390


base dimension finie, infinie, 13, 20
Âo,
en
389
A+, 136 canonique de Kn, 13
canonique de Mp,n(K), 65
A(v,w), 128
canonique de Rn[a;],13, de M[#], 20
A[x], 345
directe, indirecte, 135
A[X], 346
action duale, 83
Bezout (théorème de), 161, 348
d'un groupe 342, des translations 343
bidual, 86
effective, libre, transitive 344
bifurcation, 428
adjoint
d'un endomorphisme, 238, 282
bijective (application), 338
bloc de Jordan, 193
affine
blocs (produit par blocs), 93
application, 381, 388
bordant, 125
espace, 387
structure standard, 388
caractère d'un endomorphisme, 92
aire, 128
caractéristique (déterminant), 145
algèbre, 342 caractéristique (espace), 184
algèbre de Lie, 250, 378 caractéristique d'un anneau, 341
Ampère (règle d'), 220
Cauchy-Schwarz (inégalité de), 231, 278
analyse et synthèse, 97
Cayley-Hamilton (théorème de), 176
angle centre, 426
orienté dans R2, 219, dans M3, 220 Chasles (relation de), 248, 387
orienté en dimension 2 et 3, 247, 248 Choleski (factorisation de), 363
non orienté dans R2 ou M3, 219 classes d'équivalence, 352
non orienté dans un espace euclidien, clôture algébrique, 160
233, 246 Cn (groupe cyclique), 406
anneau, 340 cof(A), 121
intègre, 340 COÎ(aij), 115
principal, 341 cofacteur, 115
annulateur d'un sous-espace, 87
col, 426
antécédent, 337 comatrice, 121
antiduale (base), 328 combinaison linéaire, 8
antilinéaire, 274 commutateur, 94
application, 337 cône, 416
affine d'un espace affine, 388 cône isotrope, 303
affine d'un espace vectoriel, 381 conique, 413
antilinéaire, 274 coordonnées barycentriques, 391
injective, surjective, bijective, 338 corps, 341
linéaire, 57 Cramer (théorème de), 143
multilinéaire alternée, 114 cube, 407
autoadjoint (endomorphisme), 252, 285 cylindre, 357

435
436 INDEX

elliptique, hyperbolique, 416 ellipsoïde, 416


parabolique, 419 End*(£),57
endomorphisme, 57
D'Alembert (théorème de), 160 adjoint, 315, 331
décomposition dans un espace euclidien, 238
de Dunford, 188 dans un espace hermitien, 282
en carrés d'une forme quadratique, 224, autoadjoint, 252, 285
306 hermitien, 285
polaire, 262 nilpotent, 91, 188
spectrale, 200 normal, 286
dédoublement des carrés, 300 orthogonal, 239, 316
définiepositive, définie négative 302 unitaire, 283
dégénérée, non dégénérée, 296, 297 engendré (sous-espace), 8
degré d'un polynôme, 347 engendrée (matrice), 49
ôij, 83 ensemble quotient, 352
dét A, 103 entiers modulo n, 340, 353
déterminant e(o-), 111
caractéristique, 145 E/n, 352
de Vandermonde, 135 équations différentielles linéaires, 32
d'une matrice, 103 équations principales, 145
d'un endomorphisme, 120 espace
diagonalisable (endomorphisme, matrice), 153 affine, 387
diagonalisation simultanée, 200 affine euclidien, 392
dimKE, 17 caractéristique, 184
dimension, 17 des phases, 421
finie, infinie, 11 dual, 82
directe euclidien, 221
base, 132 hermitien, 275
transformation orthogonale, 239 hilbertien 275
direction d'un espace affine, 387 préhilbertien complexe, 275
direction principale, 413, 416 préhilbertien réel, 221
distance dans un espace affine euclidien, 392 propre, 163
distance dans un espace vectoriel euclidien, vectoriel, 4
256 exponentielle d'une matrice, 374
associée à une norme, 256
à un sous-espace, 257 /*, 238, 282, 315, 331

(théorème), 159,
division euclidienne 347 F0, 87
Dm (groupe diédral), 406 factorisation
dodécaèdre, 407 LU, 363
droite de Choleski, 363

vectorielle, 7 de Householder, 259, 364

affine, 390 des polynômes


dual (espace), 82 dans R[X], dans C[X], 160
Dunford (décomposition de), 188 /f,369
d(v,F), 257 fonction polynôme, 345
forme
£*,82 hermitienne, 274
S (espace affine euclidien), 392 linéaire, 82
eA, 374 polaire, 301
échelonnée (matrice), 39 quadratique (en dimension finie), 299
Ex, 163 quadratique (en dimension infinie), 301
ellipse, 414 sesquilinéaire, 274
INDEX 437

bilinéaire, 223 hyperplan, 82


formules de Cramer, 143
foyer, 426 icosaèdre, 407
/n, 67
g(partie linéaire de g), 388 id#, 58
GA(^4), 388 idéal, 341
GA(£), 384 identité
Gauss Jacobi, 250
de
réduction d'une forme hermitienne, 276 Lagrange, 250
de
réduction d'une forme quadratique, 224, image d'une application, d'un élément, d'un
306 ensemble 337
méthode du pivot, 37 Im f, 337
réduction carrés, 224
en inconnues principales, 41, 145
théorème de, 348 indépendance linéaire, 11, 20
G x} 343 indéterminée, 346
génératrice (famille), 10, 20 indice de nilpotence, 91, 188
GL(n,#), 76 inégalité
glissement, 397, 398 de Cauchy-Schwarz, 231, 278
G RAM (matrice de), 258 triangulaire, 231, 278
groupe, 340 injective (application), 338
affine, 382, 388 intègre (anneau), 340
de Klein, 402 invariants d'un endomorphisme (système
de Lie, 377 complet), 198
de transformations, 342 inverse
diédral, 406 d'une application, 339
discret, 403 généralisée, 258, 366
d'isotropie, 406 Is(£), 384
linéaire, 76 Is(£), 392
orthogonal, spécial orthogonal Isn(E), 393
cas euclidien, 240, 241
Is(n), 395
pour une forme quadratique, 317 isométrie
unitaire, spécial unitaire d'un espace affine euclidien, 392
casd'un espace hermitien 283 d'un espace vectoriel euclidien, 384
pour une forme hermitienne, 332 isomorphisme, 57, 339
de symétries, 409 isotrope
GXi 406 cône, 302
sous-espace, 312
H (quaternions), 342 vecteur 303
H (représentation matricielle des quaternions),
289 Jacobi (identité de), 250
Hamilton (théorème de Cayley-Hamilton), J(À), 193
176 Jordan (réduction de), 192
Heisemberg, 101
hermitien Ker/, 60
endomorphisme, 285
espace, 275 £*(£,£')> 57
hilbertien (espace), 275 Lagrange (identité de), 250
homomorphisme, 339 Lemme des noyaux, 179
HOUSEHOLDER (factorisation de), 259, 364 Liapounov (stabilité de), 423
hyperbole, 414 libre (famille), 11, 20
hyperboloïde Lie (algèbre de), 250, 378
à une nappe, à deux nappes 416 liée (famille), 11, 20
438 INDEX

loi de composition sur un espace vectoriel réel, complexe,


associative, externe, interne 339 231, 278
compatible, 354 noyau
loi quotient, 354 d'une application linéaire, 60
Lorentz (transformations de), 316, 321 d'une forme bilinéaire, 297
LU (factorisation), 366 d'une forme hermitienne, 328

Mn{K), 30, 64 0,407


MPtn(K), 64 0(£), 239
M(x)ei,72 0(n,R), 240
M(6)ei,233 Ofa), 317
M(/)ei366 octaèdre, 407
m/(X), 181 opérations élémentaires
Mac Duffee (formule de), 369 sur un système d'équations linéaires, 37
matrice, 64 sur une famille de vecteurs, 48
adjointe, 282 orbite
antisymétrique, symétrique 31 dans l'espace des phases, 421
d'une application linéaire, 66 sousl'action d'un groupe, 343
d'une forme bilinéaire, 233 ordre de multiplicité, 159
d'une forme hermitienne, 279 orientation, 132
de Gram, 258 canonique de lRn, 133
de passage, 76 induite, 133
échelonnée, 39 orthogonal
engendrée, 49 d'un sous-ensemble, 236, 281, 311
hermitienne, 279 endomorphisme, 239
inversible, 74 groupe, 240
normale, 286
orthogonale, 240 Pe._^e/,76
semblables, 79 p/(A),Pa(A), 157

unité, 67 pôle d'une rotation, 405


unitaire, 283 parabole, 414
d'un vecteur, 72 paraboloïde elliptique, hyperbolique 418
élémentaire, 65 partie linéaire d'une application affine, 388
méthode d'analyse et synthèse, 97 partition, 351
méthode directe, 359 PENROSE-MoORE(inverse généralisée de), 369
mineur, 123 permutation, 109
minimal (polynôme), 181 PGCD, 348
module (structure de), 342 pivot, 39
moindres carrés, 258, 370 méthode du, 37
partiel, total 361
N(b), 297 plan
Nx, 184 affine, 390
neutre, 343 vectoriel, 8
nilpotent(endomorphisme), 91, 188 point singulier d'un champ de vecteurs, 423
nœud, 425 polaire
nœud dégénéré, 428 décomposition, 262
normal (endomorphisme), 288 forme, 301
norme polarisation, 300
associée à un produit scalaire hermitien, polynôme
278 annulât eur, 175
associée à un produit scalaire, 231 caractéristique, 157
euclidienne, 319 fonction polynôme, 345
INDEX 439

formel, 346 réflexion, 260, 245, 409


minimal, 181 règle d'Ampère, 220
deux à deux premiers entre eux, 161 relation binaire, 151
premiers entre eux, 161, 348 relation d'équivalence, 152
position d'équilibre, 422 repère affine, 391
prehilbertien (espace), 275 rg /, 59
principal (anneau), 341 rg(6), 296, 297
prisme, 408 rotation dans un espace euclidien de
produit scalaire, 221 dimension 2 ou 3, 242, 244, 246
associé à une base, 221 RouchÉ-FontenÉ (théorème de), 144
canonique sur Mn, 222
canonique sur «Mn(M), 222 ©, 22
induit, 226 «Sn, 109

produit scalaire hermitien, 275 Sarrus (règle de Sarrus), 104

canonique sur Cn, 275 scalaire, 4

produit vectoriel Schmidt (procédé d'orthonormalisation), 229


dans R3, 255 scindé (polynôme), 159
dans un espace euclidien orienté de sesquilinéaire (forme), 274
dimension 3, 249 signature
projecteur, 90 d'une formehermitienne, 331
parallèlement à un sous-espace, 59 d'une formequadratique réelle, 309
d'une permutation, 111
orthogonal, 257
système complet de projecteurs, 91 signfa), 309

pyramide, 406, 408 similitude, 261


somme barycentrique, 390

quadrique, 415 somme directe

quaternions, 342 de deux sous-espaces, 22

représentation matricielle, 289 de plusieurs sous-espaces, 25

quotient SO(n,R), 241


par une relation d'équivalence, 354 SO(q), 317
sous-espace
R, 352 affine, 390
racine, 159 en somme directe, 22, 25
racine multiple, 159 engendré, 8
radical, 178 vectoriel, 6
rang SpK(f), 158
d'un système linéaire, 142 SPkV), 161
d'une application linéaire, 59 spectre, 158
d'une famille de vecteurs, 80 stabilité, 423
d'une forme bilinéaire, 297 SU(/i), 332
d'une forme hermitienne, 327,328 suites récurrentes, 31
d'une matrice, 80 SU(n,C), 283
théorème du rang, 62 supplémentaire, 22
réduction de Gauss surjective (application), 338
d'une formehermitienne, 276 Sylvester (théorème de), 311, 334
d'une forme quadratique, 224, 306 symétrie hermitienne, 276
réduction de Jordan, 192 symétrique (élément), 344
réduction selon les espaces caractéristiques, système de Cramer, 144
184 système différentiel
réduction simultanée à coefficients constants, 172, 380
de deux formes hermitiennes, 337 autonome, 423
de deux formes quadratiques, 321 méthode d'élimination, 204
440 INDEX

à coefficients constants, 426 dans un espace vectoriel, 384


transport de structure, 91
',4,82 transposée
T, 410 d'uneapplication linéaire, 96
tétraèdre, 410 d'unematrice, 31, 82
théorème transposition, 112
d'existence (de bases), 16 trigonalisable (endomorphisme, matrice), 155
de Bezout, 352
de Rouché-Fontené, 146 \J(h), 336
des polynômes annulateurs, 182 U(n,C),285
de Bezout, 164 unitaire (endomorphisme, groupe, —) 285
de Cayley-Hamilton, 179
de Cramer, 145 valeur propre, 157
de D'Alembert, 162 Vandermonde (déterminant), 138
de Gauss, 352 variables libres, 41, 147
de Jordan, 195 Vect{ }, 8
de l'échange, 17 vecteur, 4
de la base incomplète, 16 vecteur propre, 157
du rang, 62 vectorialisé, 385, 394
fondamental des espaces euclidiens, 231 vissage, 402
tore, 361 Vol(vi,...,«n), 133
totalement isotrope, 323 volume, 133
trace d'un endomorphisme, 96
d'une matrice, 30, 96 x (classe de x), 356
transformation orthogonale, 241
gauche, directe, indirecte 242 ^ 411

translation, 59
dans un espace affine, 392 Zn, 345, 357

Vous pouvez faire part de vos remarques,


critiques, suggestions
aux auteurs à cette adresse :

auteurs@cepadues.com

Achevé d'imprimer en France


en mai 2011 chez Messages SAS
111, rue Nicolas Vauquelin 31100 Toulouse
Tél. : 05 61 41 24 14 Fax : 05 61 19 00 43
imprimerie@messages.fr
^^,-^1 u^^
Classes
L2,U
préparatoires
12.11

Dualité,
Réduction des
Formes quadratiques,
endomorphismes
Formes hermitiennes^

Réf. 781

^gute^^ûtMf^

Espaces vectoriels,
Matrices

Réf. 799
Réf. 915

MrfM»*| ^tf^--,M^ 1^^^


Problèmes
lies
de Mathématiques
i

Réf. 882
Cet
ouvrage de référence présente un cours complet d algèbre linéaire
recouvrant les programmes du premier cycle des Universités et des Classes
Préparatoires.
L'algèbre linéaire a sans doute une place spéciale parmi les disciplines
enseignées en premier cycle.
-
D'une part parce qu'elle est utilisée pratiquement dans toutes les branches
scientifiques : la physique, l'économie, la chimie, l'informatique... Sa connaissance
fait partie du bagage indispensable au futur chercheur, ingénieur ou agrégatif.
-
D'autre part en vertu de son caractère pédagogique, car l'algèbre et la géométrie
se mêlent constamment et l'imagination est sans cesse sollicitée.

L'auteur s'est efforcé de rédiger un ouvrage qui, sans sacrifier à la rigueur,


présente les différents sujets avec clarté et simplicité.
Dans cette nouvelle édition, l'auteur a ajouté des exercices et des problèmes,
ainsi que de nouveaux appendices afin de mieux faire comprendre les relations
étroites entre Algèbre Linéaire et Géométrie : une étude plus fine du groupe
orthogonal, ladescription du groupe des isométries en dimension 3, une

introduction aux groupes cristallographiques.

Un livre pédagogique
Ce livreexplique clairement l'algèbre linéaire telle qu'elle est enseignée
dans les deux premières années de Fac (ou Prépa).
Aucun prérequis si ce n'est bien sûr ceux de terminale S.
C'est donc un livre accessible, progressif, et très utile !
Quelques exercices corrigés.
Très clair et stimulant
Ce livre est très clair, et bien organisé, avec une introduction
progressive des concepts par un vrai pédagogue.
vrai
Un vrai
Un plaisir !
pla

Extraordinairement pédagogique !
Ce livre m'avait été recommandé pour sa clarté et effectivement il
se lit comme un roman, tout est détaillé à l'extrême, il se lit très

rapidement, on comprend tout surl'algèbre linéaire de licence, même


les zones obscures des cours magistraux deviennent tout d'un coup
parfaitement limpides.

Chez le même éditeur

Réduction des Endomorphismes,


Boucetta M., Morvan J-M. et R.

Dualité, Formes quadratiques, Formes hermitiennes,


Boucetta M., Morvan R.

Topologie des espaces vectoriels normes,


Colin J-J., Morvan J-M. et R.

Problèmes de Mathématiques tome 1, tome 2, tome 3,


Monna G., Morvan R.
^ .

978 2 85428>962 6
Espaces vectoriels, Matrices, 11|j j JJ||g 111111111
l II 11 I!Il
Zafindratafa G., Morvan R. j | I | I I ,' I , I !

www.cepadues.com

Vous aimerez peut-être aussi