Vous êtes sur la page 1sur 484

(1),

Bernard 3
Gostiaux m

Cours de ..c
c

mathématiques (1)

spéciales
1. Algèbre
Cours de mathématiques spéciales
Tome 1
Algèbre
COLLECTION DIRIGÉE PAR PAUL DEHEUVELS
COURS
DE MATHÉMATIQUES
SPÉCIALES

TOME 1

Algèbre

BERNARD GOSTIAUX

PRESSES UNIVERSITAIRES DE FRANCE


ISBN 2 13 045835 1
ISSN 0246-3822

Dépôt légal - i•• édition : 1993, août


© Presses Universitaires de France, 1993
108, boulevard Saint-Germain, 75oo6 Paris
Sommaire

Préface...................................................... IX
Avant-propos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . XI
Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . XII

Chapitre O. - Du langage mathématique ou des tauto-


logies.................................................. 1
O. Au commencent était le verbe . . . . . . . . . . . . . . . . . . . . . . . . 1
1. Axiomes, théorèmes, tautologies . . . . . . . . . . . . . . . . . . . . . . 3
2. Substitutions, quantificateurs . . . . . . . . . . . . . . . . . . . . . . . . 5
Chapitre 1. - Les ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1. Parties d'un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2. Ensemble vide, à un, à deux éléments . . . . . . . . . . . . . . . . . 13
3. Couples, fonctions (ou applications) . . . . . . . . . . . . . . . . . . . 14
4. Vocabulaire sur les applications . . . . . . . . . . . . . . . . . . . . . . . 17
5. Réunion, intersection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Chapitre 2. - Relations, relations d'ordre, d'équivalence.
Lois de composition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1. Vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2. Relation d'équivalence sur un ensemble . . . . . . . . . . . . . . . 28
3. Relation d'ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4. Morphismes, lois de composition . . . . . . . . . . . . . . . . . . . . . . 32
5. Un morceau de choix : Zorn<=:? choix<=:? Zermelo . . . . . . . 40
Chapitre 3. - Construction des entiers naturels. . . . . . . . . . 51
1. Nombres cardinaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2. Opérations sur les cardinaux . . . . . . . . . . . . . . . . . . . . . . . . . 53
3. Comparaison des cardinaux . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4. Cardinaux finis, ou entiers naturels . . . . . . . . . . . . . . . . . . . 66
5. Une infinité d'infinis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
Exercices et solutions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
VI Algèbre

Chapitre 4. - Groupes, construction de l. . . . . . . . . . . . . . . . . 87


1. Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
2. Morphismes de groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3. Demi-groupe, symétrisation d'un semi-groupe abélien . . 99
4. Construction de l . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
5. Groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6. Groupe opérant sur un ensemble . . . . . . . . . . . . . . . . . . . . . 118
Exercices et solutions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
Chapitre 5. - Anneaux, corps, construction de Q. . . . . . . . . 131
1. Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
2. Morphismes d'anneaux, idéal, anneau quotient . . . . . . . . 134
3. Anneaux principaux, caractéristique . . . . . . . . . . . . . . . . . . 137
4. Corps des fractions d'un anneau intègre unitaire, construc-
tion de Q . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
5. Idéaux premiers, idéaux maximaux . . . . . . . . . . . . . . . . . . . 148
Exercices et solutions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
Chapitre 6. - Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . 163
1. Définitions, exemples, premières propriétés . . . . . . . . . . . . 163
2. Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
3. Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
4. Espace vectoriel quotient, théorèmes d'isomorphisme . . . 179
5. Sommes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
6. Familles libres, génératrices, bases . . . . . . . . . . . . . . . . . . . 188
7. Propriétés des bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
8. Dualité, espace dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
Exercices et solutions. . . . . . .. . . . . . . . . . . . . . . . . . .. . . . . . . 227
Chapitre 7. - Les polynômes: construction de C......... 235
1. Polynômes sur un corps K commutatif . . . . . . . . . . . . . . . . 235
2. Division des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
3. Racines d'un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
4. Extension d'un corps : construction de C . . . . . . . . . . . . . . 256
Exercices et solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
Chapitre 8. - Calcul matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
1. Définition des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
2. Produit matriciel . .. . . . . . . . . . . . . . .. . . . . . . . . . . . .. . . .. . 281
3. Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
Exercices et solutions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293
Sommaire VII

Chapitre 9. - Algèbre extérieure, déterminants . . . . . . . . . . 301


1. Formes multilinéaires antisymétriques et alternées . . . . 301
2. Premières propriétés des déterminants . . . . . . . . . . . . . . . . 308
3. Calcul des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314
4. Applications des déterminants . . . . . . . . . . . . . . . . . . . . . . . . 320
Exercices et solutions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327
Chapitre 10. - Réduction des endomorphismes. . . . . . . . . . . 339
1. Valeurs spectrales, propres, vecteurs propres . . . . . . . . . . 340
2. Etude en dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346
3. Polynômes d'endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . 359
4. Jordanisation des endomorphismes . . . . . . . . . . . . . . . . . . . 372
Exercices et solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
Chapitre ll. - Formes quadratiques . . . . . . . . . . . . . . . . . . . . . . 395
1. Vocabulaire, premières propriétés . . . . . . . . . . . . . . . . . . . . . 395
2. Cas des espaces vectoriels de dimension finie . . . . . . . . . . 404
3. Propriétés propres au cas réel . . . . . . . . . . . . . . . . . . . . . . . . 416
Exercices et solutions................................. 421
Chapitre 12. - Formes sesquilinéaires, formes hermitien-
nes.................................................... 429
1. Vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429
2. Conjugaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434
3. Espaces préhilbertiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
4. Espaces hermitiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442
Exercices et solutions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 451
Lexique..................................................... 465
Préface

Enseigner, c'est aussi conserver une part de fraîcheur d'âme à force


de fréquenter de jeunes élèves. Au fur et à mesure que l'on s'éloigne de
l'école, on croit encore la comprendre alors que l'on n'est parfois même
plus capable de se souvenir de ses propres problèmes d'alors. C'est ainsi
qu'il m'a été donné récemment le «douloureux» privilège de revivre un
peu de la dureté oubliée des classes préparatoires par l'intermédiaire de
ma fille qui a traversé ce terrible parcours du combattant. J'ai pu observer
à cette occasion et en la voyant travailler à quel point l'on peut être
déconnecté de la réalité scolaire si l'on ne veut pas accepter de faire l'effort
de s'y replonger avec modestie. J'ai été tout particulièrement frappé,
après qu'elle ait été enfin reçue à l'école de ses souhaits, de voir qu'elle
avait classé ses livres et notes de cours en trois groupes. Le premier ne
présentait, selon elle, aucun intérêt alors qu'il s'y trouvait bien des livres
que j'aurais moi-même cru essentiels. Le second comprenait des textes
considérés comme modérément utiles, bien que marginaux relativement
au concours. Le troisième, était composé des ouvrages, qui, pour elle,
permettaient d'intégrer. Parmi ces derniers textes, il y avait les notes de
cours de Bernard Gostiaux, qui avait été son professeur de Mathématiques
Spéciales au Lycée Saint Louis.
J'avais apprécié leurs qualités de clarté et de dynamisme, et l'opinion
de ma fille, dictée par un raisonnement sans fard, me convainquit, plus
encore que mon propre jugement, qu'il fallait absolument les éditer afin
qu'elles jouent au mieux leur rôle précieux auprès des autres élèves et
candidats au Grandes Ecoles.
Je pense que Bernard Gostiaux m'en voudrait de faire trop ici son
éloge. Pourtant, il faut aussi et un peu passer par là. L'ouvrage de
Géométrie Différentielle dont il est l'auteur en collaboration avec Marcel
Berger, aujourd'hui édité et réédité dans cette même collection à un succès
qui ne se dément pas. La précision et la rigueur de ce dernier livre
expliquent ce résultat plus qu'un long discours. La série de fascicules
qui composent le présent ouvrage a une autre qualité, qui, je le pense,
justifiera plus encore un succès d'édition. Il s'agit d'un texte vivant, au sens
que, en le lisant, on se sent immédiatement transporté au cœur d'une salle
de classe, devant un professeur qui vous y expose son cours tel quel. Ayant
une certaine expérience personnelle de l'enseignement, je puis attester de
X Algèbre

la difficulté de bien rendre par l'écriture un langage parlé. Trop souvent les
livres sont composés dans un style académique froid et convenu, rebutant
tout lecteur n'en connaissant pas déjà et à l'avance le contenu. De ce
fait, combien de parents ne se sont pas battus avec leurs enfants et sans
résultat pour tenter de leur imposer d'apprendre un sujet dans les livres
de classe avant que la chose leur ait été enseignée? Le manque de succès
de tels efforts est à comparer avec le plaisir de manger un repas chaud
et le dégoût qu'inspirent des restes rassis. Rien ne peut remplacer un
cours bien fait, car il est porteur de toute l'énergie et l'enthousiasme que
le professeur met à transmettre un sujet qu1 le passionne.
Je tiens à remercier Bernard Gostiaux d'avoir accepté de publier son
cours en l'état. En le lisant et le relisant, je me suis mis à regretter tout
de bon de ne pas pouvoir retourner sur les bancs de l'école avec 30 ans de
moins!
Paul Deheuvels
Avant-propos

Les enfants nous poussent souvent à entreprendre. C'est pour mon fils
ainé, et en pensant au cadet, que j'ai commencé à rédiger ces notes, et,
de page en page, je me suis mis à l'ouvrage pour obtenir un exposé d'une
construction possible des Mathématiques.
Partant de la théorie des ensembles, l'introduction des cardinaux per-
met de construire N ensemble des entiers naturels. Uétude des structures
de groupe conduit à symétriser N pour obtenir l'ensemble 1 des entiers
relatifs. La structure d'anneau et de corps donnera alors le corps des ra-
tionnels.
C'est dans le deuxième tome de cet ouvrage que j'aborderai la construc-
tion du corps des réels, de nature topologique. Mais dans celui-ci, après
l'étude des espaces vectoriels et des polynômes, on construira le corps des
complexes, C, clôture algébrique de IR.
Tout au long de cette construction se dégage l'importance de la struc-
ture quotient attachée aux relations d'équivalence. Uétude du calcul ma-
triciel et de l'algèbre extérieures me permet ensuite de traiter la réduc-
tion des endomorphismes. Enfin, les formes quadratiques et les formes
hermitiennes, abordées ici d'un point de vue algébrique, se retrouveront
en analyse dans l'étude des espaces préhilbertiens réels et dans celle des
séries de Fourier.
Je me suis efforcé de rédiger ces notes pour les étudiants, en pensant à
leurs réactions, qui figurent les miennes, face à une question ardue. Aussi
pourra-t-on me reprocher un certain manque d'application, de ci de là,
dans la formulation abstraite, l'utilisation des quantificateurs, mais j'ai
voulu écrire un manuel vivant.
Je remercie mon épouse et mes enfants qui m'ont supporté pendant ces
longues heures, mais aussi mes élèves du Lycée Saint-Louis qui, par leurs
questions, m'ont conduit à préciser mes propres connaissances, au fil des
années. Je remercie également Monsieur Cau, du service de reprographie
du lycée, sans la gentillesse et la compétence duquel ces notes n'auraient
peut être pas été mis en formes.
Enfin, je suis très reconnaissant envers Monsieur Deheuvels qui m'a
encouragé à passer de notes rédigées pour des élèves à un traité plus
élaboré.
Dun-les-Places, le 23 février 1993
Notations

u, 1.22 FœG, 6.45


n, 1.23 E* 6.89
'
c, 1.5 K[X], 7.3
X" A ou C~, 1.7 tu, 6.100
E/R, 2.6 tA, 8.8
sup A, inf A, 2.20 GLn(K), 8.17
<:J' 4.18 f\PE*, 9.9
N, 3.43 fi /\ f2 /\ · · · /\ f P• 9.6
No, 3.43 uiF' 10.11
6n ou Sn, 4.46 8<p, 11.2
Vect(A), 6.17 O'P(E), 11.28
Hom(E), End(E), 6.29 Un(C), 12.53
GL(E), 6.30 SUn(C), 12.54
CHAPITRE 0

Du langage mathématique
ou des tautologies

O. Au commencement était le verbe ... (Jean, 1, 1)

A notre époque les mathématiques apparaissent comme un langage,


ou un jeu, (selon le degré d'humour... ) A partir de symboles auxquels on
donne une signification, et de règles d'emploi de ces symboles, on construit
tout un édifice.
On part donc d'une liste de signes fondamentaux, à partir desquels
on forme des assemblages qui, selon leur nature, seront appelés « objets
mathématiques», ou «relations». On se donne aussi une liste de règles
d'emploi de ces assemblages. Enfin, on peut à tout moment introduire de
nouvelles règles, les axiomes, (avec cependant le risque de flanquer tout
ou partie de l'édifice par terre).
Voici un aperçu de ces fondements.
Les deux signes les plus simples sont V et l qui vont symboliser les
mots du langage courant ou (non exclusif) et non.
Leurs règles d'emploi sont les suivantes.
Si R et S sont des relations, R V S en est une, appelée la disjonction
logique des relations R et S.
Si R est une relation, l R en est une, appelée la négation de R
En fait une relation est destinée à être vraie ou fqusse, (principe du
tiers exclu), et du point de vue des idées, c'est quand on ne peut pas
justifier si un énoncé est vrai ou faux que l'on introduit un axiome pour
faire un choix.
Alors, on a RV S vraie si l'une au moins des 2 relations R, S est vraie,
les deux pouvant l'être, (et c'est en ce sens que le ou n'est pas exclusif,
donc n'a pas le sens de soit l'un, soit l'autre).
De même l R vraie signifie R fausse.
2 Algèbre

On comprend donc que l'on vient de codifier le sens usuel de« ou» et
de« non».
A partir de ces signes, on peut commencer à élaborer le langage
mathématique.
Ainsi le mot usuel «et» : si, ayant les 2 relations R, S, on veut avoir
les deux vraies en même temps, il faut exclure (donc l) les cas où l'une
ou l'autre, (ou les 2 ... ) est fausse, donc exclure ( l R) ou ( l 8) et on arrive
à cette monstruosité :
R et S désigne l'assemblage l (( l R) V ( l S)),
et le mot« et» ainsi défini s'appelle la conjonction logique de R et de S.
On comprend également que, très rapidement, on va remplacer ces
assemblages compliqués par des mots plus simples représentant leurs
contenus. (Cette démarche n'est pas sans rappeler celle qui, dans l'écriture
égyptienne, fait passer des pictogrammes aux idéogrammes).
On utilise ainsi le symbole ::::}

R::::} S désigne l'assemblage SV ( l R).

Comme c'est une «règle du jeu», pourquoi pas? Mais si on veut compren-
dre ce que signifie ce symbole, appelé «implication logique », disons que
si on considère les quatre cas de figures suivants :
1) R vraie et S vraie;
2) R vraie et S fausse;
3) R fausse et S vraie;
4) R fausse et S fausse;
le sens usuel de R implique S c'est d'exclure le 2e cas, c'est donc d'avoir
les cas 3) et 4), (donc ( l R), ou le 1e cas (donc S vraie) d'où cet assemblage
SV ( l R). Mais cette explication n'est donnée que par gentillesse, pour
montrer qu'on garde les pieds sur terre ... En fait on a bien le droit de
considérer l'assemblage SV ( l R) et de le représenter par le symbole
R::::} S, c'est le pouvoir créateur du verbe.
Pour clore cette présentation, introduisons l'équivalence logique qui se
note R {::::::> S, qui se lit« Rest équivalente à S »,qui signifie [(R::::} S)
et ( S ::::} R)] et qui sera l'assemblage suivant ( S V ( l R)) et (R V ( l S))
où il ne reste qu'à enlever le et: on a donc :

l (( l (SV ( l R))) V ( l (RV ( l S)))) se note R {::::::>S.


Du langage mathématique ou des tautologies 3

Devant de tels assemblages, on comprend la nécessité de simplifications


de langage!

1. Axiomes, théorèmes, tautologies ...

Les axiomes sont des relations énoncées explicitement, une fois pour
toutes, ou des règles où interviennent ces relations.
Par exemple, 4 axiomes logiques, (AL), du 2e type servent à justifier
les raisonnements logiques. Ceci dans la conception de Bourbaki des
mathématiques, mais ce n'est pas la seule.

(ALJ) Si Rest une relation, la relation (Rou R) => Rest vraie.


(AL2) Si R et S sont deux relations, la relation R => (R ou S) est vraie.
(AL3) Si R et S sont des relations, la relation (Rou S) => (Sou R) est
vraie.
(AL4) Si R, S et T sont des relations, la relation
(R => S) =>((Rou T) => (Sou T)) est vraie.
On s'aperçoit que ces énoncés sont évidents : en fait ils définissent les
règles d'emploi du mot ou.
Des axiomes du 1e type, on en rencontrera, (axiome de l'infini dans la
théorie des cardinaux, axiome du choix par exemple).
Plus gênante est l'introduction du mot « vraie » dans ce qui précède.
On appelle relation vraie, ou théorème ce que l'on obtient par application
répétées des règles de vérité, parmi lesquelles on a :
(RVl) Toute relation obtenue par application d'un axiome est vraie.
(RV2) Etant donnée des relations R et S, si la relation (R => S) est
vraie, et si R est vraie, alors S est vraie.

Une relation est dite fausse lorsque sa négation est vraie.


On découvre ici la différence essentielle entre les mathématiques et les
sciences expérimentales : la véracité d'une relation mathématique vient de
ce qu'on la démontre à partir des règles du jeu que l'on s'est données, et
non pas parce qu'elle est vérifiée expérimentalement.
Une relation R est dite indécidable si elle n'est ni vraie ni fausse,
donc s'il n'existe pas de démonstration de sa véracité, ni de la véracité de
sa négation. Si une telle situation se présente, on peut alors construire
deux théories mathématiques, l'une prenant comme axiome (du 1e type)
la véracité de R, l'autre la véracité de nonR.
4 Algèbre

C'est ainsi que s'est introduite l'hypothèse du continu : proposition


affirmant qu'il n'existe pas d'ensemble dont le cardinal est compris stric-
tement entre Card(N) et Card(IR).
Cantor avait conjecturé la véracité de cette hypothèse. En 1963, un
mathématicien américain, Cohen a démontré son indécidabilité on peut
donc introduire deux théories mathématiques.
Enfin, une relation peut être contradictoire, c'est-à-dire à la fois vraie
et fausse : s'il existe une telle relation c'est que les axiomes introduits
présentent des incompatibilités logiques : il faudrait donc affaiblir ou
abandonner certains d'entre eux.
Une dernière remarque : une fois posées toutes les données, l'édifice
entier est construit et contient toutes ses conséquences : les mathémati-
ciens ne font que les découvrir, ils ne les inventent pas.
Revenons sur terre, si l'on peut parler ainsi, à propos des tautologies.
Les tautologies sont les théorèmes démontrés uniquement à partir des
axiomes logiques précédents. Là encore ce sont des énoncés qui semblent
évidents. En voici quelques uns :

(TLl) Si R, S, T sont des relations, si ( R =? S) et ( S =? T) sont vraies


alors (R =? T) est vraie.

En voici la démonstration. Rappelons que R =? S c'est l'assemblage


SV ( l R).
En appliquant AL4 aux relations S, T, (nonR) respectivement on a:

(S =? T) =? ((Sou (nonR)) =? (Tou (nonR))) est vraie,


soit encore
(S =? T) =? ( (R =? S) =? (R =? T) )est vraie.

Mais la règle de vérité RV2 s'applique car, par hypothèse, S =? T est


vraie, donc ( (R =? S) =? ( R =? T)) est vraie.
Enfin, comme R =? S est vraie par hypothèse, la règle de vérité RV2
là encore donne la conclusion (R =? T) est vraie.
L'individu normalement constitué doit se demander où il est tombé, et
se dire que mieux vaut laisser les spécialistes, (les logiciens) s'exciter sur
ces tautologies et partir d'un peu plus loin dans la théorie. C'est ce que
nous allons faire en citant cependant les tautologies les plus importantes.

(TL2) Si Rest une relation, la relation (R =? R) est vraie.


(TL3) Si Rest une relation, la relation (R ~ non(nonR)) est vraie.
Du langage mathématique ou des tautologies 5

(TL4) Si R et 8 sont des relations, la relation


(R::::} 8) ~ ( (non8)::::} (nonR)) est vraie.
(C'est le principe du raisonnement par « contraposition ».)
(TL5) Si R et 8 sont des relations, alors les relations ((R et 8) ::::} R) et
((R et 8) ::::} 8) sont vraies; si de plus R et 8 sont vraies, alors
(R et 8) est vraie.
(C'est heureux! sinon, que voudrait dire et.) Le raisonnement par
l'absurde en découle.
(TL6) Soient R, 8 et T trois relations, si les 3 relations (R ou 8),
(R::::} T), (8::::} T) sont vraies alors Test vraie.
(C'est le raisonnement par disjonction des cas).
En fait ces tautologies, qui se démontrent, mettent en place les méca-
~ismes de raisonnement employés par la suite.

2. Substitutions, quantificateurs

Il faut introduire, dans la « mécanique » des mathématiques un


procédé permettant le calcul de valeurs.
Pour cela, si R est une relation, A un objet mathématique, et x
une lettre, ou encore un objet mathématique «indéterminé», si dans
l'assemblage R on remplace la lettre x par l'assemblage A, on obtient
quelque chose : on veut que ce quelque chose soit encore une relation
mathématique.
Dans les critères de formation des relations, on met donc la condition
suivante : en substituant à x, indéterminé, l'objet A, dans la relation R,
on obtient une relation.
Bien .sûr la relation obtenue peut être vraie ou fausse suivant que la
relation R du départ l'est.
En particulier, si x ne figure pas dans R, quand on substitue A à x
dans R on obtient ... R, et dire que la relation obtenue en substituant A à
x dans R est vraie revient à dire que R est vraie.
Le mécanisme de substitution conduit à la tautologie suivante :
(TL7) Soit R une relation, x une lettre, A un objet mathématique. Si la
relation R est vraie, il en est de même de la relation obtenue en
substituant A à x dans R.
Cette « règle de bon sens » se démontre. Pour cela on commence par
la vérifier sur les relations obtenues par application d'un axiome, et ceci
6 Algèbre

pour tous les axiomes, (que nous n'avons pas écrits ... , c'est le travail du
logicien).
On a enfin besoin d'un quatrième procédé logique pour former des
relations : celui qui exprime le fait qu'étant donné une relation R, une
lettre x, il existe au moins un objet mathématique A qui, substitué à x,
donnera une relation vraie.
On utilisera le signe 3 pour représenter ce « il existe » avec son sens
intuitif, et ce symbole appelé quantificateur existentiel va avoir son emploi
réglementé par des axiomes logiques.
On va noter (A 1 x)R pour «on substitue A à x dans R». On a alors
(AL5) Soit R une relation, x une lettre, A un objet mathématique. Alors
la relation (A 1 x)R::::} (3x)R est vraie.
(Bien sûr (3x)R signifie qu'il existe un objet mathématique vérifiant
R, et l'axiome logique 5, dit qu'en pratique, on justifie ce résultat en
exhibant l'objet A.)
Signalons qu'on obtient alors un symbole abréviation, V, appelé quan-
tificateur universel, (souvent appelé « pour tout ») et qui se « définit »
comme suit.

On désigne par 1 (Vx )R l la relation\ 1 ((:lx) 1 R) \.


(Avoir R, pour tout x, c'est ne jamais avoir nonR, donc n'avoir aucun x
vérifiant nonR: c'est conforme au langage usuel)
J'arrête ici ce bavardage sur les fondements d'une théorie mathéma-
t!que. L'idée à en dégager c'est qu'au départ, on se donne des signes, des
règles d'emploi de ces signes, (qui codifient un certain nombre d'idées) et
qu'ensuite tout se fait conformément à ces règles.
Mais aussi que la théorie construite n'est pas figée, et qu'on peut,
en cours de route, être amené à introduire de nouvelles règles (axiomes)
comme nous le verrons avec l'axiome du choix, ou l'axiome de l'infini.
Pour conclure, les mathématiques sont constituées à partir de signes
que l'on assemble suivant certaines règles pour obtenir des relations.
Parmi ces relations certaines portent le nom d'objets mathématiques ou
encore ensembles (et oui!) : ce ne sont pas toutes les relations possibles.
Pour obtenir un ensemble (ou objet mathématique) il faut utiliser des
relations d'un type particulier, encore appelées collectivisantes.
Par exemple :
OMl Toute lettre est un objet mathématique.
Ceci signifie qu'en plus de signes logiques, il y en a d'autres, ici nous
prenons les lettres de l'alphabet.
Du langage mathématique ou des tautologies 7

OM2 Si A et B sont des objets mathématiques JAB est un objet


mathématique.
C'est l'introduction d'un objet, appelé couple formé des objets A et B,
qui est noté en fait (A, B) et qui symbolise la notion usuelle de couple,
attachée à la nature humaine et en fait à la reproduction sexuée. On verra
au chapitre suivant les règles d'emploi de ce symbole J.
Bien sûr, il y a d'autres règles de formation d'ensembles. On verra au
chapitre suivant un exemple de relation non collectivisante.
CHAPITRE 1

Les ensembles

Les signes l , V, 3 ... du chapitre précédent sont de nature logique et


servent à formuler les modes de raisonnement.
Pour construire une théorie mathématique, on introduit d'autres
signes, de nature mathématique, les signes =, E, J, (le 3° étant le signe
du couple qui disparaîtra très vite).

1.1. L'égalité

Son emploi est le suivant : si a et b sont des objets mathématiques


a = b est une relation.
Cela signifie que l'assemblage de signes et de lettres constituant a,
suivi de =, suivi de l'assemblage b, fait partie de la théorie. Une autre
question est de savoir si cette relation est vraie ou non.
Uemploi de ce signe = obéit aux règles suivantes, écrites sous forme
de théorèmes car elles peuvent se déduire d'un axiome, mais que l'on peut
considérer comme des axiomes logiques au sens du chapitre O.

THÉORÈME 1.2. - On a les propriétés suivantes.


1) La relation x = x est vraie pour tout x.
2) Les relations x = y et y = x sont équivalentes quels que soient x
et y.
3) Quels que soient x, y, z les relations x = y et y = z impliquent
X= Z.
4) Soient u et v des objets tels que u = v et R une relation contenant
la lettre x; alors les relations obtenues en substituant u à x dans R et v à
x sont équivalentes.

En fait, dans la pratique on utilise sans arrêt les règles de ce théorème


sans s'y référer.
10 Algèbre

1.3. L'appartenance

C'est le second signe fondamental en mathématique, noté E et là


encore, si a et b sont des objets mathématiques, a E b est une relation
mathématique.
L'emploi du signe d'appartenance est gouverné par le théorème (ou
axiome logique, suivant le degré d'affinage du système d'axiomes) suivant:

THÉORÈME 1.4. - Soient A et B deux ensembles, pour que l'on ait A = B


il faut et il suffit que les relations x E A et x E B soient équivalentes.

On touche au délire car que sont les ensembles?


En fait un ensemble est un objet mathématique. Diantre, diantre ...
Alors qu'est-ce qu'un objet mathématique? Un assemblage, formé à partir
des signes de la théorie suivant certaines règles dont je n'ai pas parlé.
On ne peut pas définir un ensemble en quelques phrases élémentaires.
La sagesse est donc de considérer un ensemble comme une notion première
qu'on comprend intuitivement, et sur laquelle on va travailler et raisonner
logiquement, tout en sachant que c'est le résultat de règles qui peuvent
s'énoncer logiquement.

1. Parties d'un ensemble

Rappelons qu'une relation est un assemblage de signes de la théorie.


L'assemblage:

(\fx)((x E A)=} (x E B))


est une relation collectivisante. Vous devez me croire puisqu'on n'a pas
explicité les conditions permettant de dire quand une relation est collec-
tivisante !
Cet assemblage va être remplacé par un signe abréviateur, celui de
l'inclusion : A C B, (qui se lit A inclus dans B).
On pourrait donc dire que l'on définit le symbole d'inclusion, agissant
sur des ensembles, c'est-à-dire des objets de la théorie mathématiques,
par

(AC B) ~ (\fx)((x E A)=} (x E B)),


et dire que cette relation est collectivisante, ce qui est en fait un axiome
de la théorie des ensembles, c'est admettre qu'étant donné un ensemble
Les ensembles 11

B, il existe un et un seul ensemble dont les éléments seront les «objets


de la théorie» contenus, (ou inclus) dans B, on dira plus brièvement, les
parties de Beton notera P(B) l'ensemble formé des parties de B.

Propriétés de l'inclusion

THÉORÈME 1.5. - La relation d'inclusion vérifie· :


1) (A c B) et (B c C) =? (A c C),
2) (A= B) <===?((Ac B) et (B c A)).

Ces implications semblent évidentes, mais il faut les justifier unique-


ment avec les règles déjà rencontrées.
Le 1) c'est:

[((x E A)=? (x E B)) et ((x E B) =? (x E C))]


=? ((x E A)=? (x E C)).

On note R pour (x E A), S pour (x E B) et T pour (x E C) et on veut


prouver que ((R ::::} S) et (S ::::} T)) =? (R ::::} T) : c'est la tautologie
déjà rencontrée, TLl, qui, rappelons-le, se justifie à partir des règles de
départ.
Le 2) lui n'est autre qu'une reformulation du théorème 1.4. •

THÉORÈME 1.6. - Soit R{ x} une relation où figure la variable x. Pour


tout ensemble B il existe une et une seule partie A de B caractérisée par
(y E A) <===? (y E B et R{y} vraie).

Autrement dit, A est la partie de B formée des y vérifiant la relation


R.
Cet énoncé est intuitivement évident. Il se démontre à partir des
axiomes de départ.
Il faut comprendre que, si on ne part pas d'un ensemble B, la
«collection» des éléments de la théorie mathématique vérifiant R n'est
pas forcément un ensemble, et c'est en cela qu'on ne peut pas définir un
ensemble comme une collection.
Prenons par exemple la célèbre relation R(x) qui s'écrit x </. x : elle
n'est pas collectivisante. (Une relation est dite collectivisante, si les objets
mathématiques qui la vérifient forment un ensemble). En effet, si elle
l'était, soit l'ensemble A des x vérifiant x </. x. L'objet A étant un objet
mathématique, on peut voir s'il vérifie ou non la relation R.
12 Algèbre

R(A) vraie : donc A fi. A, mais alors vu la définition de


l'ensemble A, A est un élément de A donc A E A: absurde.
R(A) fausse : c'est que l'on a non (A fi. A) soit non(nonA
E A) et comme on a mis quelque part que l ( l R) = R, c'est
A E A; mais alors A est élément de l'ensemble des objets
vérifiant R on aurait A fi. A, absurde. Donc les x vérifiant
x fi. x ne forment pas un ensemble.
De même la notion «d'ensemble de tous les ensembles » n'existe pas, car
s'il existait un ensemble B dont les éléments étaient tous les ensembles
de la théorie, d'après le théorème 1.6, la relation R(x) : x fi. x serait
collectivisante, car cette fois elle agirait sur un ensemble au départ.

COROLLAIRE 1.7. - Soit X un ensemble, A une partie de X, la relation


R( x) : x fi. A définit une partie de X
appelée le complémentaire ensembliste
, X - A ou
de A dans X, notee CAX·

On a (x E (X - A)){::::::::} ((x EX) et (x fi. A)).


On peut déjà commencer à «jouer» c'est-à-dire à justifier des énoncés.
Par exemple on a :

THÉORÈME 1.8. - Soient M et N des parties d'un ensemble X; alors M C


N et (X - N) C (X - M) sont équivalentes. On a aussi X - (X - M) = M.

En effet

x E (X - (X - M)) # (x EX) et x fi. (X - M)


# (x EX) et non (x EX et x fi. M)
# (x E X) et on n'a pas (x EX et x fi. M),
comme x EX, c'est que x E M, d'où
# (x EX) et (x E M).
Or M C X donc il reste finalement :
# (x E M).
Puis si MC N C X, on a (x E (X - N)) {::::::::} (x EX et x fi. N) mais a
fortiori, x fi. M qui est inclus dans N donc

(x E (X - N)) ===} (x EX et x fi. M) soit (x EX - M);

d'où l'implication (Mc N c X)::::} ((X - N) c (X - M));


Les ensembles 13

puis si X - N C X - M, l'implication que l'on vient de justifier entraîne


X - (X - M) C X - (X - N) soit MC N vu le résultat déjà établi; et
on a bien l'équivalence de départ. •

2. Ensemble vide, à un, à deux éléments

En fait, comme parmi les axiomes constitutifs figure celui qui dit que
la relation: <D ('v'x) ( (x E A) ::::} (x E B)) est collectivisante, si on part de
l'objet mathématique B, c'est-à-dire de l'ensemble Bon obtient un nouvel
ensemble dont les éléments sont les objets mathématiques A vérifiant <D,
encore appelées les parties de B, et cet ensemble des parties de Best noté
P(B).
On a donc A E P(B) {::::::::}A C B, ou encore {::::::::} R(A), si R désigne
la relation <D où figure la lettre A.
Parmi les A vérifiant <D figure B lui-même car (x E B) ::::} (x E B)
est vraie : B est une partie de lui-même, mais alors on peut considérer le
complémentaire ensembliste de B dans lui-même, B - B.
On a B - B = {x; x E B et x li B}.
Cette notation se lit: «=l'ensemble des x tels que x E B et x li B ».
Comme une relation et sa négation ne sont jamais vérifiées en même
temps, il n'y a pas de x vérifiant cela : on dit que B - B est la partie
vide. A priori, on obtient la partie vide de B et au début de ce siècle, une
longue correspondance s'est établie entre mathématiciens, pour savoir si
la partie vide de B était la même que celle d'un autre ensemble C ... Le
débat n'avait lieu qu'à cause d'une insuffisance du système d'axiomes. En
fait on a:

THÉORÈME 1.9. - L'ensemble 0 =X - X ne dépend pas de l'ensemble X

On note 0 l'ensemble vide.


Soit 0 x = X - X et 0y = Y - Y, si on applique le théorème 1.4,
on a

0x = 0y {::::::::} ((t E 0x) # (t E 0y)).

Or (t E 0 x) # il n'y a pas de t vérifiant cela, et on aboutit à la même


chose pour (t E 0y ).
En fait on n'a rien démontré par cette phrase(« il n'y a pas de t ... »).
Si on désigne par R la relation x E X et par S la relation x E Y,
0 x = { x; R et (nonR)} est le résultat de la relation collectivisante
(R et (nonR)).
14 Algèbre

De même, 0y est l'ensemble des X vérifiant es et (nonS)).


Une vraie démonstration consiste à prouver que les relations CR et
(nonR)) et CS et non S)) sont équivalentes.
Or, plus généralement, on a (R et (nonR))::::} T vraie, avec T relation
quelconque.
Car en notant U pour CR et (nonR)), U ::::} T c'est Tou (nonU), donc CR
et (nonR))::::} T c'est Tou non(R et non(R)), c'est donc Tou non(non(nonR
ou non(nonR))), par définition du mot et. Les non non se neutralisent,
(TL3), il reste donc T ou (nonR ou R).
Comme (nonR ou R) signifie CR ::::} R), et que c'est vrai, (tautologie
TL2), finalement la conjonction de T et de (nonR ou R) est vraie, la
deuxième relation étant vraie.
Mais alors, avec T = (Set (nonS)) on a bien (R et (nonR))::::} (Set
(nonS)) et l'implication réciproque est vraie aussi, par symétrie des rôles
joués par Set R d'où l'équivalence.
La démonstration qui vient d'être faite sera désormais remplacée par
la phrase «il n'y a pas de t vérifiant t E X - X» ...
De même que l'existence de l'ensemble des parties d'un ensemble est
axiomatique, on introduit axiomatiquement les ensembles à un ou deux
éléments.

DÉFINITION 1.10. - On appelle ensemble à un élément, tout ensemble X


vérifiant (X est non vide) et (on a x =y pour tout x de X et tout y de X).

Etant donné x objet mathématique, on admet (axiome) qu'il existe un


ensemble, (appelé singleton), noté {x}, formé du seul élément x.
De même si x et y sont 2 objets mathématiques, on admet qu'il existe
un ensemble noté {x,y} dont les seuls éléments sont x et y. Un tel
ensemble est une paire.
En fait on a besoin de ces 2 notions, (de l'unité et de la paire)
pour introduire la notion de couple, qui permettra d'introduire celle de
fonction, d'indexation, notions qui permettront alors de parler de réunion
et d'intersection de parties, de lois de composition...

3. Couples, fonctions (ou applications)

Avec les signes V, l, =, E, T, D, (les 2 derniers correspondant à


la formalisation de la substitution d'un objet mathématique dans une
variable, et le D à la notion d'inconnue) on utilise un autre signe, 'J, pour
formaliser la notion couple, qui sert à former des objets mathématiques.
Les ensembles 15

A l'aide des objets mathématiques x et y énoncés dans cet ordre on


forme un nouvel objet mathématique, noté Jxy, (dans les mathématiques
formalisées), mais également noté (x, y), qui s'appelle le couple (x, y).
L'emploi de ce signe est soumis à une seule règle :

((x,y) = (u,v)) {::::::::} ((x = u) et (y= v)).


La donnée d'un objet «couple », noté z, revient à la donnée des objets x
et y, x étant la première proJection de z, notée x = PI ( z), et y la deuxième
projection de z, notée y= P2(z), si z est le couple (x, y).
Il est à noter que rien n'empêche d'avoir x = y dans le couple
z = (x, y) : le couple ( x, x) continue à avoir 2 projections, valant la même
chose, alors que l'ensemble à 2 éléments {x,y}, six= y, n'est plus un
ensemble à deux éléments. De même, si x =f. y, les couples (x, y) et (y, x)
sont différents, (ils ne vérifient pas la règle d'égalité), alors que les paires
(ensembles à 2 éléments), {x,y} et {y,x} coïncident. Il ne faut donc pas
confondre couple et paire.
Soient alors deux ensembles X et Y. On démontre qu'avec les règles
de départ, la relation

(z E Z) {::::::::} (3x EX), (3y E Y), (z = (x, y)) est collectivisante.


Autrement dit, il existe un ensemble Z, appelé produit cartésien de X et
de Y dont les éléments sont les couples z = (x, y) avec x dans X et y
dans Y.
On note Z = X x Y ce produit cartésien.
Nous allons pouvoir aborder la notion de fonction.
Intuitivement, si X et Y sont des ensembles, on appelle fonction
définie sur X, à valeurs dans Y, toute opération qui à chaque x de X
associe un y de Y. On emploie aussi le terme application.
L'ennui, c'est qu'on utilise des mots non définis, (opération, àssocie ... ).
Il faut autre chose.
On formalise alors la définition de fonction comme suit :

DÉFINITION 1.11. - On appelle fonction toute partie G de X x Y vérifiant


la condition: (Vx EX), il existe un et un seul y de Y tel que (x, y) E G.

On dit encore que G est un graphe.


Si on pense à la façon classique de procéder, (exemple : fonction
f : x ~ x 2 de IR dans IR, cela revient à remplacer la formulation du
procédé qui à x associe son carré, par la donnée globale de l'ensemble des
couples (x, x 2 ) de IR x IR) cela revient à définir une fonction par la donnée
de sa« courbe représentative», dans ce cas particulier.
16 Algèbre

Bien sûr, on utilisera la notation : soit I la fonction de X dans Y


définie par : x ""+ x 2 par exemple, avec ici X = Y = Ill au lieu de soit
G = {(x,x 2 );x E Ill}.
Si I : X f-+ Y est une fonction, X est l'ensemble de départ, Y
l'ensemble d'arrivée.
A chaque x de X on associe le seul y de Y tel que ( x, y) E G, G graphe
qui détermine I.

1.12. On parlera aussi d'application f : X i----+ Y au lieu de fonction, les


2 termes sont synonymes, (c'est l'usage qui fait que les 2 existent, avec
parfois une différence de langage, on utilise le terme fonction pour une
application qui peut avoir comme ensemble de départ une partie de X
seulement, ce qui amène à parler du domaine de définition de la fonction).

1.13. Images directes, images réciproques

Soient X et Y deux ensembles, I une fonction de X dans Y.


Si A est une partie de X on désigne par l(A) l'ensemble des y de Y
tels qu'il existe x dans A vérifiant l(x) =y.
C'est incorrect (mais commode!), puisque I ne devrait agir que sur des
éléments de l'ensemble X, et que la partie A de X est un élément de
l'ensemble des parties de X, mais pas de X.
On a donc:
si AC X, l(A) ={y, y E Y, 3x E A, l(x) =y}
ou encore l(A) = {f(x); x E A}.
De même, si Best une partie de Y, on appelle image réciproque de B
par I l'ensemble des x de X tels que l(x) E B, et on note 1- 1 (B) cet
ensemble : on a donc :

l- 1 (B) = {x,x EX; l(x) E B}.


Ces notions d'image directe et réciproque d'une partie serviront en algèbre,
(étude des structures de groupe, d'anneau, de corps, d'espace vectoriel)
mais aussi en, topologie.

1.14. Indexation

Soit G une fonction de X dans Y, (point de vue donnée du graphe G),


notée I: x ""+y= l(x).
Les ensembles 17

Au lieu de noter f(x) l'image de x par la fonction f, on peut la noter


Yx, (se lit « y indice x ») et la donnée de G revient à se donner les éléments
y de Y, indexés par les x de X.
En fait on voudrait sortir de ce cadre, où les éléments y associés aux
x de X sont dans un ensemble Y connu à l'avance. On veut donner une
existence légale dans la théorie mathématique, au processus suivant :
à chaque i élément d'un ensemble I, on associe un objet mathématique Xi>
sans préciser, (parce qu'on ne le peut pas!) l'ensemble où sont pris les Xi·
On parlera dàns ce cas d'une famille indexée par I, et on notera
(xi)iEI cette famille. Dès que l'ensemble Y où sont pris les Xi est connu,
la« famille des Xi» devient une fonction de I dans Y.
L'emploi des indexations est soumis à des règles, mais pour continuer,
on peut considérer qu'il s'agit d'une autre façon de noter les fonctions.

4. Vocabulaire sur les applications

1.15. Application injective. Une application f X f-+ Y est dite


injective si

\:/(x',x") E X 2 , (f(x') = f(x")) =? (x' = x"),


ou encore si (x' =1- x") =? (f (x') =1- f (x") ).
On parle encore d'injection f de X dans Y.

1.16. Application surjective. Une application f X f-+ Y est dite


surjective si

\:/y E Y, 3x EX, f(x) =y,


soit si tout y de Y admet au moins un antécédent. On dit aussi que f est
une surjection.
Il est clair que
f surjective~ .f (X) =Y, (l'image directe de la partie X est l'ensemble
Y entier); et que
f injective ~ \:/ singleton {y} de Y, l'image réciproque f- 1 ({y}) est
soit vide, soit un singleton.

1.17. On dira que f est bijective si et seulement si elle est injective


et surjective. On parle encore de bijection.
18 Algèbre

On a donc

f: X f-----+ Y bijective{::::::::} Vy E Y, 3!x EX, f(x) =y,

où 3! est l'abréviation pour« il existe un et un seul», le 3! se décompose


en 3 pour traduire la surjection et en ! pour traduire l'injection.

1.18. Produit de composition. Soient X, Y, Z trois ensembles, (ce qui


suppose connue la notion de trois = 3? pas vraiment, en fait on prend deux
ensembles X et Y, puis deux ensembles Y et Z, le Y étant commun dans
chaque choix), et f et g deux applications : f : X f-----+ Y et g : Y f-----+ Z.
A chaque x de X on peut alors associer le seul z de Z qui est associé
par g à «l'élément y associé par f à x ».
Ce procédé qui à x de X associe un seul z de Z définit une application
de X dans Z, appelée la composée de f et de g, notée g o f. Attention au
sens dans lequel s'écrivent f et g.
En termes de graphes, on se donne F, un graphe de X x Y, soit
F = {(x,f(x));x EX}, et G graphe de Y x Z, G = {(y,g(y));y E Y}.
Ce sont des parties F et G de X x Y et Y x Z respectivement, vérifiant :
(Vx E X), (3!y E Y); (x, y) E F, et
(Vy E Y), (3!z E Z); (y, z) E G.
Si on note alors H = {(x, z); x EX, z étant le seul élément de Z associé
à l'unique y de Y associé à x}, on a bien un graphe de X x Z.
On peut alors établir un certain nombre de propriétés obtenues en
cherchant les liens existant entre les notions déjà introduites.

THÉORÈME 1.19. - Quelles que soient les applications f: X f-+ Y,


g :Y f-+ Z et h : Zf-+ T, on a h o (g o !) = (h o g) o f.

On parlera de «l'associativité» du produit de composition.


En effet si u =go f et v =ho g, en x EX, on a

(ho (go f))(x) = h(u(x)) = h(g(f(x))),


alors que

(v o f)(x) =(ho g)(f(x)) = h(g(f(x)))


c'est le même élément.

On notera donc h o g o f ce produit de composition, sans préciser la
place des parenthèses.
Les ensembles 19

THÉORÈME 1.20. - Soient l : X f--+ Y et g : Y f--+ Z deux applications.


Si g o l est injective, alors l est injective;
si g o l est surjective, alors g est surjective.

Résultat bien utile dans certains exercices, et qu'il faut alors rejustifier
si c'est le but de l'exercice.
On suppose g o l injective, on veut prouver que l est injective.
Soient donc x' et x" de X tels qi.2 l (x') = l (x"), on veut prouver
qu'alors x' = x", or l'outil c'est l'injectivité de go 1- On prend les images
par g, on a:

g(f (x')) = g(f (x"))


soit (go f)(x') = (go f)(x")

et comme go lest injective on conclut bien x' = x", d'où l injective.


J'ai essayé de détailler le raisonnement: on formule la conclusion que
l'on veut justifier, on voit en quoi les hypothèses peuvent intervenir, pour
finalement conclure.
Dans le 2e cas on suppose g o l surjective. On veut prouver que
g : Y f--+ Z est surjective, c'est-à-dire, partant de z E Z, trouver un
antécédent par g, or (intervention de l'hypothèse) on en a un par go l,
d'où ...
Soit z E Z, comme g o l est surjective, il existe x dans X tel que
(go f)(x) = z, soit encore tel que g(f(x)) = z. En posant y= l(x), on a
trouvé y dans Y tel que g(y) = z, donc g est surjective. •

Il en résulte que

____,_ { l injective (car g o l injective) et


g o l bijective ____,..
g surjective (car g o l surjective).

1.21. Application réciproque

Sil : X f--+ Y est une bijection, Vy E Y, 3!x E X, l(x) = y. On a


donc un « procédé » qui à chaque y de Y associe un et un seul x de X,
celui d'image y par l.
Ce procédé est donc une fonction de Y dans X, notée 1-l : Y f--+ X. On
comprend alors pourquoi la notation l- 1 (B) = {x; l(x) E B} introduite
pour l'image réciproque d'une partie était dangereuse : elle conduit à
utiliser le même symbole pour 2 choses différentes. Malgré cela, on note
1- 1 les 2 «choses différentes» en question, l'ambiguïté étant levée par la
20 Algèbre

considération de la nature des éléments sur lesquels 1- 1 agit. Dans un


cas, u-1 application réciproque de la bijection j) il s'agit d'éléments de
Y, dans l'autre cas de parties de Y.

5. Réunion, intersection

1.22. Réunion d'une famille d'ensembles

Soit une famille (Ai)iEI d'ensembles, on appelle réunion des Ai l'en-


semble A caractérisé par : (x E A) {::} (:Ji E I), (x E Ai) et on note
A= LJAi cette réunion.
iEJ

En fait, dans le cas d'une famille d'ensembles qui ne seraient pas tous
contenus dans un «sur ensemble», on est en présence d'un axiome qui
dit que cette réunion existe.

1.23. Intersection d'une famille d'ensembles

Soit une famille non vide (Ai)iEI d'ensembles on appelle intersection


des Ai l'ensemble B caractérisé par: x E B {::} (Vi E I), (x E Ai), et on
note B = nAi cette intersection.
iEJ

Le non vide signifie que I est non vide, car si on essaye de donner un
sens à cette formulation avec I = 0, n'importe quel objet x de la théorie
vérifie le (Vi E 0 ... ) car il n'y a pas dei dans 0, donc pas de condition à
vérifiée, et ceci conduirait à parler d'ensemble de tous les ensembles.
Par contre une réunion d'une famille indexée par 0 conduit à 0. Il
nous reste à établir des propriétés pour ces «opérations» de LJ, n, passage
au complémentaire, image directe et réciproques ...

THÉORÈME 1.24. (Associativité de la réunion) - Soit (I>.hEA une famille


d'ensembles, I LJ
f>. et (Ai)iEI une famille indexée par I on a
ÀEA

LJ Ai = LJ ( LJ Ai).
iEJ ÀEA iEh
Les ensembles 21

Pour démontrer cette égalité d'ensembles, on peut procéder par


«double inclusion», ou directement, si c'est possible, par équivalence. On
a:

(x E LJ Ai)~ (3i E J), (x E Ai), (définition de la réunion).


iE/

Or I = LJ l>., donc le (3i E J) ~ (3>. E A), (3i El>.) d'où


>.EA

(x E LJ Ai)~ (3>. E A), (3i El>.), (x E Ai)·


iE/

Comme l'énoncé (3i E l>.)(x E Ai) équivaut à ( x E LJ Ai), on a :


iEI),

(x E u ) ~ 3>. E A, x E( u Ai)
iE/ iE/;>.,

d'où l'égalité.

THÉORÈME 1.25. (Associativité del'intersection)-Soit (hhEA une famille
non vide (ie A "1- 0) d'ensembles non vides et I = l>.. Soit (Ai)iEl LJ
>.EA
une famille indexée par I, on a

nAi= n ( n Ai)·
iE/ >.EA iE/;>.,

En effet, x E n Ai ~\fi E J, x E Ai,


iE/
alors que x E n ( n Ai)~ V>. E A,x E n Ai·
>.EA iEl>.. iE/;>.,

Or X E n Ai ~\fi E l>., X E Ai, donc


iE/;>.,

XE n (nAi)~v>.EA,ViEJ)..,XEAi·
>.EA iE/;>.,
22 Algèbre

Comme I = LJ l>., le Vi E Ise traduit par\:/).. E A, Vi El>., d'où l'égalité.


>.EA


1.26. Distributivité de l'une par rapport à l'autre

THÉORÈME 1.27. - Soit I un ensemble d'indices, (Ai)iEl une famille


indexée par I et A un ensemble.

Ona An (LJAi) = LJ<AnAi)


iEI iEl
et, si I est non vide,

Au ( n Ai) = n (Au Ai)·


iEI iEI

En effet, x E An ( u
iEl
Ai) {::::::::} x E A et (:li E /, x E Ai), ce qui

signifie encore : (:Ji E J), (x E An Ai), soit

x E An ( LJ Ai) {::::::::} x E LJ<A n Ai)·


iEI iEI

Pour la 2e égalité, on a :

x EAU ( nAi) {::::::::}


iEI
x E A ou (Vi E J, x E Ai),

alors que x E n (AU Ai) {::::::::} Vi E l, x E (AU Ai)·


iEI
Mais alors, soit x E A, soit x ?! A et dans ce cas, comme Vi E I on a
X E Au Ai, c'est que, Vi E J, X E Ai, soit encore X E n Ai·
iEI
Finalement :

x E n(AU Ai){::::::::} (x E A) ou (x En Ai),


iEl iEI
on a bien l'égalité.

Les ensembles 23

THÉORÈME 1.28. - Soit f: X 1--+ Y une application, (Ai)iEl une famille


de parties de X. On a

!( LJ Ai)= LJ f(Ai)
iEJ iEJ

mais on a seulement l'inclusion :

t( nAi) c nf(Ai)·
iEJ iEJ

En effet, y E f ( LJ Ai) {::::::::} 3x E LJ Ai, f(x) =y, or 3x E LJ Ai


iEJ iEJ iEJ
se traduit par (3i E J), (3x E Ai), donc

yE f( UAi){::::::::} (3i E J), (3x E Ai, f(x) =y)


iEJ

d'où yE f( UAi) {::::::::} 3i E J, y E f(Ai),


iEJ
soit encore {::::::::} Y E Uf(Ai),
iEJ

d'où l'égalité.
Pour l'inclusion suivante :
si y Et( n Ai). c'est qu'il existe X dans n Ai tel que y= f(x), mais
iEJ iEJ
x est alors dans chaque Ai, donc y= f(x) est dans chaque f(Ai), donc
dans l'intersection :
on a bien l'inclusion f ( n
iEJ
Ai) c n
iEJ
f (Ai)· •

On n'a pas égalité en général car, si y E


iEJ
n f(Ai), c'est que

mais quand i varie, Xi varie aussi a priori, donc il n'y a pas d'antécédent
dans n
Ai sauf si f est injective car pour i =1- i 1' avoir Xi et Xi' tels que
i
24 Algèbre

y = f (xi) = f (xi') ::::} Xi = xi' est constant par rapport à i : cet élément
constant, noté X, est dans nAi
iE/
et on a bien alors

y= J(x) E t(nAi)
i

d'où l'égalité, si f est injective.

Si on a l'esprit un tant soit peu méthodique, on doit se dire : voyons,


voyons ... sur les parties on connaît LJ, n.
passage au complémentaire
alors que dire de l'image d'un complémentaire? Et que dire des images
réciproques? C'est ce que nous allons voir.
D'abord pour l'image du complémentaire d'une partie, il ny a ... rien.
En effet, soit f : X ~ Y une application et A une partie de X on peut
penser comparer les parties f(X -A) et Y - f(A) de Y, or si y E Y - f(A),
comme y peut ne pas être dans l'image de l'ensemble X entier, il n'y a
pas forcément un x de X tel que y = f(x), (mais s'il y en a un, il n'est
pas dans A sinon y E f (A) ce qui est exclu).
De même si y E f(X - A), c'est qu'il y a un x E X - A tel que
y= f(x), mais, si f n'est pas injective, rien n'empêche l'existence d'un x'
dans A tel que f (x') = y donc on peut fort bien avoir y dans f (A) : soit
(y~ Y - J(A)). On n'a pas J(X - A) C Y - J(A).
Quand aux images réciproques... tout baigne! Et c'est heureux car un
riche avenir leur est réservé en topologie.

THÉORÈME 1.29. - Soit f: X~ Y une application, (Bi)iEI une famille


de parties de Y, on a f- 1 (LJBi) = LJJ- (Bi); si I
1 non vide on
iE/ iE/
a f- 1 ( nBi) nf- (Bi),
iE/
=
iEJ
1 enfin, si B est une partie de Y on a

f- 1 (Y - B) =X - f- 1 (B).

En effet, x E f- l ( u
iE/
Bi) {=} f (X) E u
iE/
Bi

{=} 3i E J, f(x) E Bi
{=} 3i E J, x E f- 1 (Bi)
{=}XE uf- (Bi)·
iE/
1
Les ensembles 25

Puis xE1- 1 (nBi) {:::::::}l(x)EnBi


iE/ iE/
{::::::::} Vi El, l(x) E Bi
{::::::::} Vi El, x E l- 1 (Bi)
{::::::::}XE nl-
iE/
1 (Bi).

Enfin, x E l- 1 (Y-B) {::::::::} l(x) E Y-B


{::::::::} I (X) rf_ B
{::::::::}X ri. 1- 1 (B)
{::::::::}XE X - 1- 1 (B).

(Il faut remarquer que tout au long de la justification, on n'a pas écrit
x E X et ... , ce qui aurait été plus correct, mais fastidieux).
Il reste encore une chose utile à voir: les liens entre LJ, nd'une part
et passage au complémentaire. On a :

THÉORÈME 1.30. - Soit (Ai)iEI une famille de parties d'un ensemble X,


ona

X - ( LJ Ai)
iE/
= n
iE/
(X - Ai) et X-(nAi)
iE/
= LJ(X-Ai),
iE/

I étant ici supposé non vide(*).

Autrement dit : le complémentaire d'une réunion est l'intersection des


complémentaires, et le complémentaire d'une intersection est la réunion
des complémentaires.

En effet x EX - ( LJ Ai) {::::::::} x EX et x rf_ LJ Ai·


iE/ iE/

(*) Comme ici on part de parties de X, si I = 0, n


iE0
Ai X, donc la

condition I = 0 ne s'impose pas dans ce cas particulier.


26 Algèbre

Comme x E LJ Ai se traduit par :li E J, x E Ai, sa négation x ~ LJ Ai


iEJ iEJ
se traduit par 'efi E J, x ~ Ai.

Donc x EX - ( LJ Ai) {::::::::} x EX et 'efi E J, x ~Ai


iEJ
{::::::::} 'efi E J, (x EX et x ~Ai)
{::::::::} 'efi E J, x E (X - Ai)
{::::::::} x E n
iEJ
(x - Ai)·

De même x E X - ( n
iEJ
Ai) {::::::::} x E X et (x ~ n
iEJ
Ai).

Or X E n
i
Ai {::::::::} 'efi E J, X E Ai, sa négation est donc :li E J, X ~ Ai>

donc x EX - ( n
iEJ
Ai) {::::::::} :li E J, x E (X - Âi)

{::::::::}XE u(X -
iEJ
Ai)·

CHAPITRE 2

Relations, relations d'ordre,


d'équivalence. Lois de composition

Au chapitre 0, on a introduit la notion de relation mathématique


comme étant un assemblage écrit à partir des symboles de la théorie,
cet assemblage pouvant être vrai ou non.
Ici nous allons parler de relation sur un ensemble et le mot relation
aura une autre signification.

1. Vocabulaire

DÉFINITION 2.1. - On appelle relation R sur un ensemble Ela donnée


d'une partie R de E x E. On parle encore de relation binaire car agissant
sur des couples.

On dira que x et y, pris dans cet ordre, vérifient R, et on note xRy, si


et seulement si (x, y) E R
Les différences avec une application de E dans E, c'est-à-dire la
donnée d'un graphe de E, sont les suivantes:
- pour un x fixé, il peut y avoir plus~urs y de E tels que (x, y) E R,
(dans un graphe, il y a un seul y associé à x);
- des x de E peuvent ne pas avoir de y associé tel que (x, y) ER.
Bien sûr, ce qui intéresse dans la donnée d'une relation sur un
ensemble E, c'est la formulation du lien entre x et y, et non la donnée de
l'ensemble R.
De même une partie R quelconque du produit cartésien E x E définit
une relation qui a peu de chances d'être intéressante, aussi va-t-on définir
d'autres termes.
28 Algèbre

2.2. Une relation R sur E est dite réflexive si et seulement si, pour tout
x de E, on a xRx; elle est dite symétrique si et seulement si, quand xRy
on a aussi yRx. Enfin elle est dite transitive si et seulement si (xRy) et
(yRz) impliquent (xRz).
Une relation est dite antisymétrique si et seulement si (xRy) et (yRx)
impliquent x = y.

2. Relation d'équivalence sur un ensemble

DÉFINITION 2.3. - On appelle relation d'équivalence sur un ensemble E


toute relation R sur E qui est réflexive, symétrique et transitive.

Autrement dit, toute relation R vérifiant les conditions suivantes :


1) Vx E E, xRx
2) V(x, y) E E x Etel que xRy, on a yRx,
3) six, y, z sont dans E et si on a (xRy) et (yRz) alors on a (xRz).

EXEMPLE 2.4. - E = 1., ensemble des entiers relatifs, (qui sera construit
par la suite, mais que l'on connaît en fait). Si on se donne un entier naturel
p, non nul, la relation Rp définie par

xRpy {::::::::} x - y est divisible par p

est une équivalence (vérification laissée au lecteur) appelée congruence


modulo p.
On a xRpy {::::::::} 3q E Z, (x - y) = pq, et avec cette formulation, il est
facile de vérifier réflexiviste, symétrie, transitivité. •

Les relations d'équivalence vont conduire à un mécanisme fondamen-


tal en mathématiques : celui du «passage au quotient » qui est la for-
mulation mathématique d'une démarche humaine. Je m'explique : soit
l'ensemble des humaines, (on ne fait plus des mathématiques, ici le voca-
bulaire a son sens conventionnel) et la relation N définie par xN y {::::::::}
x et y ont la même nationalité, (on suppose qu'il n'y a pas de nationalités
multiples).
Cette relation N est réflexive, symétrique et transitive, et elle permet
de« classer» les humains par nations, (les Français ensemble, les Anglais
aussi ... ) Du point de vue des nations, ce ne sont plus les individus que l'on
considère, mais les groupements d'individus de même nationalité.
Relations, relations d'ordre, d'équivalence 29

2.5. Ensemble quotient

Soit Rune relation d'équivalence sur un ensemble E.


Soit x E E, on considère la partie X de E définie par

y E X -<===? xRy.

Cette partie qui est non vide, (car xRx =? x E X) s'appelle la classe
d'équivalence de x. Elle est formée de l'ensemble des y équivalents à x.
~chaque x de Eon peut associer sa classe d'équivalence, X.
La réunion des classes d'équivalence donne E entier :
car Va E E, a E A classe de a, donc a E LJ X en notant toujours X la
xEE
classe de x, car parmi les parties X figure A. •

Deux classes distinctes sont disjointes : supposons que A, classe de a


et B classe de b contiennent un élément commun, c.
Soit x E A, comme c E A aussi, on a xRa et cRa donc aRc, (symétrie
de R), mais alors (xRa et aRc) =? xRc.
Mais c E B classe de b : on a donc bRc, (définition de B), d'où cRb,
(symétrie), mais alors (xRc) et (cRb) =? (xRb), (transitivité de R): donc
x étant équivalent à b, est dans la classe de b. On a prouvé que, Vx E A,
x E B, soit encore A C B. Par analogie des rôles joués on a aussi B C A.
Donc A n B =f. 0 =? A = B : par contraposée, si A et B sont distinctes
elles sont disjointes, c'est-à-dire d'intersection vide.

2.6. Partition. Les différentes classes d'équivalence des éléments de E


sont des parties de E, non vides, disjointes, dont la réunion donne E. On
dit alors que ces classes d'équivalence forment une partition de E, et la
partie de P(E), (ensemble des parties de E), dont les éléments sont les
classes d'équivalence s'appelle l'ensemble quotient de E par R, noté E / R.
En fait, on a ici la clé de la construction des ensembles mathématiques
intéressants : on construira 1. à partir de 1\1 en établissant une équivalence
sur 1\1 x 1\1; Q à partir de 1., IR à partir de Q, Cà partir de IR en utilisant
à chaque fois des passages aux ensembles quotients.
Il faut noter que, si on part d'une partition de l'ensemble E c'est-à-dire
d'une famille F de parties de E qui sont non vides, disjointes, de réunion
E, et si on définit la relation R par

(xRy) -<===?(x et y sont dans la même partie A de E,


élément de F)
30 Algèbre

on a une équivalence.
Notons (Fi)iEJ la famille :F, (l'intérêt de l'indexation apparaît dans
cette façon de noter).
On a R réflexive car, comme LJ
Fi = E, à chaque x E E on associe
iE/
au moins un io E I tel que x E Fio, donc x et x sont dans la même Fio :
on a xRx;
Rest symétrique : si xRy, c'est que x et y sont dans une même partie Fi
de la famille :F, donc y et x aussi, donc yRx;
Rest transitive : si xRy et yRz, c'est que x et y sont dans une même
partie. Fi 1 , et que y et z sont dans une même partie disons Fi 2 , or
si Fi 1 =j:. Fi 2 on a Fi 1 n Fi 2 = 0, (parties disjointes)
donc comme y E Fi 1 n Fi 2 c'est que Fi 1 = Fi 2 : x et z sont dans cette
partie Fi 1 d'où xRz. On a bien une équivalence. •

Si Rest une relation d'équivalence, l'application p de E sur l'ensemble


quotient E / R qui à un élément x de E associé sa classe d'équivalence,
p(x), (souvent notée x ou X ou Fx ... ), s'appelle l'application canonique
de E sur E / R : elle est surjective, puisque chaque classe d'équivalence
F étant non vide, n'importe quel x de F est envoyé par p sur F, et x
s'appelle un représentant de la classe p(x).
Si on reprend l'exemple, (mauvais), des nations, la «classe d'équiva-
lence » nation des français est représentée par n'importe quel français
choisi dans cette classe ...

3. Relation d'ordre

DÉFINITION 2.7. - On appelle d'ordre, sur un ensemble E, toute relation


réflexive, antisymétrique et transitive.

Habituellement on notera x ~y au lieu de xRy, la relation d'ordre


qui se lit « x inférieur ou égal à y».
Dire que ~ est un ordre sur E équivaut donc à dire que

l)lfxEE,x~x; (réflexivité)
2) V(x, y) E E 2, ((x ~y) et (y~ x)) * x =y (antisymétrie)
3) V(x,y,z) E E 3 , ((x ~y) et (y~ z)) * x ~z (transitivité).
Relations, relations d'ordre, d'équivalence 31

EXEMPLE 2.8. - Il est facile de voir que la relation d'inclusion sur


l'ensemble P(E) des parties de E est une relation d'ordre sur P(E).

EXEMPLE 2.9. - Sur N, la relation (x ;:>:y)<==> (3z E N,x =y+ z), est
aussi une relation d'ordre. (Justification laissée au lecteur éventuel).

REMARQUE 2.10 - Il y a une différence entre les 2 exemples : dans le 1e


cas, étant données 2 parties A et B de E on peut ne pas avoir A C B
ou B C A, c'est-à-dire, avoir A et B non comparables : l'ordre est dit non
total dans ce cas, (alors que dans l'exemple 2, deux entiers étant donnés,
l'un est supérieur ou égal à l'autre : l'ordre est alors total).

REMARQUE 2.11. - Il arrive que l'on parle de relation d'ordre strict pour
un relation R qui est antisymétrique et transitive, on notera -< ou >- une
telle relation.

Elément maximal, minimal, maximum, minimum

Soit un ensemble ordonné E, la relation d'ordre étant noté :::;: .

2.12. Un élément a est dit maximal<==> (,llx E E, x >-a),


'-' E { } { soit y et a non comparables
ou encore <==> vy E - a , on a .
s01t y:::;: a.

2.13. Un élément m est dit maximum<==> (\:/x E E, x:::;: m).


De tels éléments n'existent pas forcément: dans N, pour l'ordre usuel,
il n'y a pas d'élément maximal ni maximum. Par contre dans P(E)
ordonné par inclusion E est visiblement maximum.

REMARQUE 2.14. - Si E ordonné admet un élément maximum, m, il est


unique. Car si m' est aussi maximum, on a m >,::: m' car m maximum
est supérieur ou égal à tout élément, et m 1 >,::: m car m' maximum d'où
m = m 1 par antisymétrie. •

Par contre, il peut y avoir plusieurs éléments maximaux.

EXEMPLE 2.15. - E = {2, 3, ... , 20}, on définit R par aRb <==>a divise b,
c'est visiblement réflexif, antisymétrique, transitif, donc on a une relation
d'ordre, et dans E, les nombre 11, 12, 13, ... , 20 sont maximaux.
32 Algèbre

REMARQUE 2.16. - Si E totalement ordonné et s'il y a un élément maximal,


il est unique. Si a et b sont chacun maximal, étant comparables (E
totalement ordonné) on a a ~ b (b maximal) et b ~ a, (a maximal), d'où
a = b, (antisymétrique de l'ordre). •

De plus cet unique élément maximal est maximum puisque, tout x de


E étant comparable à a maximal, on a forcément x ~ a.

2.17. On définit de même les termes suivants: a minimal{:::::::} il n'existe


pas de x dans Etel que x =f. a et x ~a, (on pourrait noter ~x E E, x-< a,
si -< est l'ordre strict).

2.18. On dit que a est minimum dans E {:::::::}\::lx E E, x >,::: a.

2.19. Si A est une partie de E ensemble ordonné, on dit que A est majorée
(resp. minorée) s'il existe m dans E tel que \::lx E A, x ~ m (resp. x ;;::: m)
et dans ce cas m s'appelle un majorant de A, (resp. un minorant).
Il faut remarquer que m n'est pas forcément dans A, (exemple: dans
~. A = { 1 - ~; n E 1\1*} est majorée par 1, 1 €J_ A, et il n'y a pas de
majorant plus petit que 1).
Cependant, si le majorant m de A est dans A, dans ce cas c'est le plus
petit majorant. On appelle plus petit majorant, l'élément m, s'il existe qui
majore A et tel que \::lm' majorant de A on ait m ~ m'. Si un tel élément
existe il est unique car si m1 et m2 sont plus« petit majorant de A», on
a m1 ~ m2 car m1 plus petit majorant et m2 ~ m1 car m2 plus petit
majorant, d'où m1 = m2 par antisymétrique de la relation d'ordre. •

2.20. On appelle encore borne supérieure de A (resp. inférieure) le plus


petit majorant (resp. grand minorant) de A, s'il existe, et un ensemble est
dit borné s'il admet des majorants et des minorants. On notera sup A
(resp. inf A) cet élément, s'il existe. Attention, le plus souvent ce ne sont
pas des éléments de A.

4. Morphismes, loi de composition

DÉFINITION 2.21. - Soient E et F deux ensembles munis de relations


binaires notées R et S respectivement, et f une application de E dans F.
Relations, relations d'ordre, d'équivalence 33

On dit que I est compatible avec R et S, (ou encore que I est un morphisme
pour R et SJ si et seulement si :

V(x,y) E E 2, xRy => l(x)Sl(y).

2.22. Si F = E, on parle d'endomorphisme; si I est bijective et si 1- 1


application réciproque de F sur E est aussi un morphisme, on parle
d'isomorphisme, et d'automorphisme si de plus E = F.

2.23. Transporl de structure. Soient E et F deux ensembles, I une


bijection de E sur F...: Si on suppose E muni d'une relation R, on peut
définir une relation R sur F par :

(j- 1 (y) et l- 1 (y 1 ) étant les antécédents, dans E, de y et y'), et le


côté bijectif de I permet de voir que R sera réflexive (o~ symétrique,
antisymétrique, transitive ... ) si et seulement sin l'est donc n équivalence
{::::::} n l'est; il en est de même pour une relation d'ordre : o~ transporte
la structure sur E liée à R sur l'ensemble F, et pour R et R, 1 devient
un isomorphisme. •

Cette notion de morphisme va se retrouver avec les lois de composition.

DÉFINITION 2.24. - Soit un ensemble E. On appelle loi de composition


interne sur E toute application de E x E dans E.

Il s'agit donc d'une notion déjà connue, mais que l'on va noter différem-
ment par commodité. Au 'lieu de noter :

l:ExE~E, ou (x,y)~z=l(x,y),

on utilise un symbole, ( +, x, *, /\, T, ..l, 181, EB, ... ) disons ici *par exemple,
pour noter l'image du couple (x, y) sous la formez= x *y.
La loi interne est dite :

2.25. commutative{::::::} V(x, y) E E 2 , x *y= y* x,

2.26. associative{::::::} V(x, y, z) E E 3 , x *(y* z) = (x *y)* z.


34 Algèbre

Par exemple, sur N*, la loi a * b = ab n'est pas commutative car


23 = 8 =I 32 = 9, ni associative 2( 23 ) = 28 = 256 alors que
(2 2 ) 3 = 43 = 64.

2.27. Un élément i de E est dit idempotent pour la loi * si on a :

i * i = i.
2.28. Un élément e de E est dit
neutre à gauche si \:lx E E, e * x = x, (e est à gauche),
neutre à droite si \:lx E E, x * e = x,
neutre s'il est neutre à droite et à gauche.
Pour la loi précédente 1 est neutre à droite car a* 1 = a 1 = a, mais
pas à gauche car 1 * a = 1a = 1 et pas a.

THÉORÈME 2.30. - Si dans E muni d'une loi de composition, notée *, il


existe un élément neutre à droite, e, et un élément neutre à gauche, e1, on
a forcément e = e'.
Car e neutre à droite ~ e' * e = e', et e' neutre à gauche ~ e' * e = e,
d'où e' = e. •

Donc s'il y a un élément neutre, (des 2 côtés) il est unique, mais il peut
y avoir

plusieurs neutres à droite, (et pas de neutre à gauche),


ou plusieurs neutres à gauche, (et pas de neutre à droite).

2.31. Inverses

Soit un ensemble E muni d'une loi de composition interne, *• ayant


un élément neutre e, (des 2 côtés).
On dit que x admet un inverse à droite, x', si on a x * x' = e, et de
même x admet un inverse à gauche, x", si on a x" * x = e.
On dit que x admet un inverse x' si on a à la fois X*X' = e et x' *X = e.
Bien sûr, si la loi est commutative, les notions de droite et de gauche
n'ont plus de signification. A quand la politique commutative?

THÉORÈME 2.32. - Soit E un ensemble muni d'une loi de composition


interne *, associative et ayant un élément neutre. Si un élément x admet
un inverse à droite, x 1, et un à gauche, x 11, on a x' = x".
Relations, relations d'ordre, d'équivalence 35

Car x" * (x * x') = x" * (e)- = x", et par associativité, c'est aussi
(x" * x) * x' = e * (x') = x' d'où x' = x". •
C'est pourquoi, de tels ensembles, appelés demi-groupes unitaires, sont
appelés à un riche avenir: nous le retrouverons dans l'étude des groupes.

DISTRIBUTMTÉ .2.33. - Si sur un ensemble E on a 2 lois de composition


interne, * et 1-, on dit que 1- est distributive à gauche pour la loi * si on a
V(x,y,z) E E 3 , x 1- (y* z) = (x 1- y)* (x 1- z).

En quelque sorte, la loi 1- distribue son action sur chacun des 2


éléments y et z. On parle de même de distributivité à droite et de
distributivité si c'est des 2 côtés.

Loi de composition externe. (sera utilisée dans les espaces vectoriels).


DÉFINITION 2.34. - Soit deux ensemble K et E. On appelle loi de compo-
sition externe sur E, associée à l'ensemble K, toute application de K x E
dans E. On dit que les éléments de K sont les opérateurs.

C'est ainsi que si K est un corps, (K = IR par exemple), sur un espace


vectoriel Eon définira le produit d'un vecteur V par un scalaire >. E K,
donc une application de K x E ~ E qui au couple (>.,V) de K x E
associera un vecteur noté >. · V ou >.V.
On peut alors donner un deuxième sens au terme morphisme :

DÉFINITION 2.35. - Soit deux ensembles E et E' munis de lois de composi-


tion interne notées respectivement Tet T' et f une application de E dans
E'. On dit que f est un morphisme de (E, T) dans (E~T') si et seulement
si

V(x, y) E E 2 , f(x T y)= f(x) T' f(y).

Ou plus brièvement: «l'image du composé est le composé des images».


On introduit encore les termes d'isomorphisme, d'endomorphisme et d'au-
tomorphisme, ainsi que la notion de transport de structure, comme pour
les relations binaires.
Enfin, si E et E' sont deux ensembles munis de lois de composi-
tion externe 1-, 1- 1 , ayant le même ensemble K d'opérateurs, on dit
que f : E ~ E' est un morphisme si on a :

V(>.,x) E K x E, f(>. 1- x) = >. 1-1 f(x).


36 Algèbre

Il est facile de vérifier que, si E et E' sont 2 ensembles munis de lois


internes T et T', et si f : E r--> E' est un morphisme surjectif : alors
1) T commutative ::::} T' commutative;
2) T associative ::::} T' associative;
3) e neutre pour T::::} J(e) neutre pour T';
4) x' inverse de x pour T::::} f(x') inverse de f(x) pour T 1.

Le 3) et 4) peuvent se formuler avec «à droite» ou «à gauche».


Justifions 3) par exemple, (les autres justifications sont laissées au
lecteur).
Pour tout z' E E', 3x E E, f (x) = z' car f surjective,

donc z' T' f(e) = f(x) T' f(e)


= f (x T e) car f morphisme,
= f(x) car e neutre pour T,
= z',
et de même f(e) T' z' = f(e) T' f(x) = f(e T x)
= f(x) = z'.
Finalement, 'Vz' E E' on a bien z' T' J(e) = J(e) T' z 1 =
z 1, f(e) est
neutre dans E' pour la loi T'.
Il ne faut cependant pas croire que toute propriété d'une loi de
composition interne se conserve par morphisme surjectif.
Considérons par exemple la notion de régularité.

2.86. Sur l'ensemble E muni de la loi T, un élément x est dit régulier à


droite sur E si on a :

't/(y,z) E E 2 , (yTx = zTx)::::} y= z.

S'il en est ainsi, et si f est un morphisme surjectif de E sur E' muni


de T' on n'a pas forcément f(x) régulier à droite car:

't/(y',z') E E 12 , avec (y,z) E E 2 tel que J(y) = y1 et J(z) = z',


l'égalité y' T' f(x) = z' T' f(x) s'écrit encore
f(y) T' f(x) = f(z) T' f(x),
soit f(y T x) = f(z T x) puisque f est un morphisme et... c'est tout car
si f est non injective, on ne peut rien dire de plus.
Relations, relations d'ordre, d'équivalence 37

THÉORÈME 2.37. - Soient E et E' deux ensembles munis de lois de


composition interne Tet T' et <p un morphisme bijectif de E sur E'. Alors
l'application réciproque <p-l est aussi un morphisme.

On veut prouver que :

Comme <p est bijective, ceci équivaut à ce que les images des deux
membres de l'égalité, par <p, soient égales.

Or <p(<p- 1 (x 1 T' y 1 )) = x' T' y 1 ,


alors que, <p étant un morphisme,

<p(<p-l(x') T <p-l(y')) = <p(<p-l(x')) T' <p(<p-l(y'))


= x' T' y 1 •

On a bien l'égalité voulue.



Ce résultat justifié pour un morphisme pour des lois de composition ne
s'étend pas pour un morphisme pour des relations binaires R et R' sur E
et E', car le fait que x'R' y' dans E' n'implique pas que les antécédents
x = 1- 1 (x 1 ) et y= 1- 1 (y') soient en relation avec R. Il y a des cas où
le résultat est valable, par exemple celui d'ordres totaux sur E et E'.

2.38. Factorisation des nwrphismes

Soit E muni d'une loi de composition, notée *•et Rune relation binaire
sur E. On dit que R est compatible avec la loi interne * si et seulement si
xRx' et yRy'::::} (x * y)R(x' *y').
Ceci est surtout utilisé lorsque R est une équivalence : si elle est
compatible avec la loi *• on va définir une loi interne, encore notée *•
sur l'ensemble quotient E /R car, si X et Y sont deux éléments de E /R,
c'est-à-dire deux parties de E, classes d'équivalence pour R, si on prend

x et x' dans X d'une part


y et y' dans Y d'autre part
on a xRx' et yRy' d'où (x * y)R(x' * y'). En notant X * Y la classe
d'équivalence de x * y, on obtient la même classe en partçmt de x' * y 1 :
c'est indépendant du choix des représentants x dans X et y dans Y.
38 Algèbre

C'est ce que l'on fait pour munir l'ensemble quotient E /R d'une loi
de composition interne, lorsque R est compatible avec *• on parle de loi
quotient.
Il est alors facile de vérifier que, si sur E, * est commutative, ou
associative, ou admet e pour élément neutre ... , il en est de même sur
E /R pour la loi quotient, (le neutre étant la classe de e). Par exemple,
si & est la classe d'équivalence de e, si X est un élément quelconque de
l'espace quotient E /R, représenté par l'élément x, par définition de la loi
* sur E /R on a :
& * X = classe de ( e * x) or e neutre donc e * x = x
d'où [ * X = classe de x = X, il en est de même pour X *[ d'où [
neutre. •

Il est clair que l'application x ~ p(x) =X= classe d'équivalence de


x est alors un mophisme de (E, *) sur (E /R, *), p étant surjectif.

2.39. Equivalence d'application

Soit maintenant E et F deux ensembles munis de lois de composition


interne, notées de la même façon, *· sur les 2 ensembles, et f une application
de E dans F, qui est un morphisme pour les lois.
Sur E on définit une relation binaire R par :
xRx'-<==> f(x) = f(x').
On a une équivalence car : Vx E E, f(x) = f(x) donc xRx : R est
réflexive; si xRx' , c'est que f (x) = f (x') donc f (x') = f (x) ce qui
équivaut à x'Rx : on a justifié R symétrique; enfin, si on a à la fois xRy
et yRz c'est que f(x) = f(y) et f(y) = f(z) d'où f(x) = f(z) soit xRz
et la transitivité de R. On a bien une équivalence, même si f n'est pas un
morphisme. Cette relation R s'appelle l'équivalence d'application associée
df •

Considérons l'ensemble quotient E /R. On va le munir de la loi


quotient associée à * sur E car Rest compatible avec *· En effet, si xRx' et
yRy', on a f(x) = f(x') et f(y) = f(y'), d'où f(x) * f(y) = f(x') * f(y').
Comme f est un morphisme, f(X*Y) = f(x' *Y') d'où (x*y)R(x' *Y'):
on a bien R compatible avec *· On obtient alors comme précédemment une
surjection x ~ p(x) =classe de x pour R, qui est un morphisme de E
sur E /R. En effet :

p(x *y) =classe de (x *y),


Relations, relations d'ordre, d'équivalence 39

or si x E X et y E Y, par définition de la loi quotient, X * Y = classe de


X* y, d'où

p(x *y) = p(x) * p(y)


on a bien la définition de p morphisme.

Considérons alors l'application cp: E/R ~ f(E) définie comme suit:

si X est l'élément de E /R représenté par x, (ou par x') comme xRx' ~


f(x) = f(x'), on note
cp(X) = f(x), (ou f(x'): c'est pareil).
cp est surjective car si y E f(E), il existe x dans Etel que f(x) =y,
si X est la classe d'équivalence de x, par définition de cp on aura

cp(X) = f(x) =y;


cp est injective si cp(X) = cp(Y), en choisissant x et y représentants des
classes X et Y, c'est que f(x) = cp(X) = cp(Y) = f(y), donc xRy (vu la
définition de l'équivalence R, associée à j) mais alors, x et y équivalents
sont dans la même classe d'où X= Y et cp injective.
Enfin cp est.un morphisme de E/R sur f(E) muni de la loi* (celle de
F bien sûr) car soient X et Y deux éléments de E/R représentés par x
et y, on sait que x *y représente X* Y, (définition de la loi quotient sur
E/R), d'où
cp(X *Y)= f(x *y) = f(x) * f(y) car f est un morphisme
= cp(X) * cp(Y) par définition de cp.

On a bien finalement, cp isomorphisme de E/R sur f(E), par application


du théorème 2.37.
Enfin on peut injecter f (E) dans F par l'application i : f (E) f-+ F
qui à z élément de la partie f(E) de F associe i(z) = z, élément de F.
Il est facile de voir que i est un morphisme injectif de f(E) dans F. On
a alors le diagramme suivant, où p est l'application qui à x de E associe
sa classe d'équivalence.

E f
t---+ F

surjectif p 1 î i injectif

E/R
--<p
bijectif
f(E)
40 Algèbre

avec f = i o <.pop. En effet, soit x dans E, et X = p(x) sa classe, on a


r.p(p(x)) = f(x), car on peut prendre x comme représentant de X, d'où
(i o <.p o p)(x) = i(f(x)) = f(x) vu la définition dei. •

THÉORÈME 2.40. - Soit un morphisme de E dans F, n l'équivalence


d'application associée à f. Il existe un morphisme surjectif p de E sur E /R
un isomorphisme de E /R sur f (E) et un morphisme injectif i : f (E) 1-+ F
tels que f = i o <.p o p.

On a « décomposé canoniquement» f, comme nous venons de le


justifier.

5. Un morceau de choix : Zorn {::} choix {::} Zermelo

Tout ce qui précède ressemble à un aimable bavardage : quelques


axiomes logiques qui ne posent pas problème, et des raisonnements faciles.
On va maintenant s'intéresser à un axiome d'un autre type qui sert entre
autre pour justifier l'existence des bases dans les espaces vectoriels de
dimension infinie, et l'existence des solutions dites maximales, pour les
équations différentielles : c'est l'axiome dit de Zorn, qui peut se formuler
de différentes façons.
D'abord du vocabulaire.

2.41. Un ensemble ordonné E est dit inductif si toute partie C, totalement


ordonnée, de E admet au moins un majorant. On a alors :

2.42. Axiome de Zorn. Tout ensemble non vide, ordonné, inductif admet
au moins un élément maximal.

2.43. On appelle bon ordre sur un ensemble E, toute relation d'ordre sur
E telle que toute partie non vide de E admet un plus petit élément. Il est
à remarquer qu'un bon ordre est forcément total, car pour une paire {a, b}
de E, comme il y a un plus petit élément, si c'est a, alors a:::;; b, et si c'est
b, on aura b :::;; a. Dans les 2 cas, a et b sont comparables.
On énonce:

2.44. Axiome de Zermelo. Tout ensemble E non vide, peut être bien
ordonné.
Relations, relations d'ordre, d'équivalence 41

Ainsi que:

2.45. Axiome du choix. Pour tout ensemble non vide E, il existe au moins
une application f de P(E) dans E telle que VA CE, avec A -:j:. 0, on ait
f(A) E A.

Donc f est une « fonction de choix » qui permet de choisir un élément


a dans A non vide.
L'axiome du choix, semble formaliser la phrase de bon sens suivante
«soit a dans A», avec A partie non vide de E. Il ressemble donc à l'un
des axiomes logiques du départ de la théorie (cf. Chapitre 0). Il n'en est
pas de même des 2 autres, moins intuitifs or... ils sont équivalents.

THÉORÈME 2.46. - Les axiomes de Zorn, de Zermelo et du choix sont


équivalents.

2.47. Zermelo ::::} choix. Soit E non vide, par Zermelo on le munit d'un
bon ordre, donc si A est une partie non vide de E, on sait que A admet un
plus petit élément a: on pose f(A) =a. On définit ainsi f surP(E)-{0},
avec VA E P(E) - {0}, f(A) E A. Il suffit de définir f(0) de manière
quelconque, (f(0) = f(E) par exemple) pour avoir une fonction de choix
J~R •

Pour justifier Zorn::::} Zermelo, on va d'abord considérer les parties de


E que l'on peut munir d'un bon ordre, et montrer que leur ensemble est
inductif.

2.48. Soit un ensemble non vide E, on considère l'ensemble M des couples


(A, OA) où A est une partie non vide de E et OA un bon ordre sur A.

2.49. M -:j:. 0, car si A est une partie de E de cardinal fini, n ; il existe


une bijection <.p de {1, 2, ... , n} sur A, on peut donc noter ai = <p(l),
a2 = <p(2), ... , an = <p(n) les éléments distincts de A et ordonner A par
OA défini par ap OA aq {::::::::} p < q : c'est un bon ordre, l'élément le plus
petit d'une partie étant celui associé à l'entier le plus petit. •

Bien sûr, la notion de cardinal, et celle de cardinal fini ne font


intervenir aucun des 3 axiomes précédents. D'ailleurs on peut se contenter
de n = 1 ou 2, notions premières de notre théorie mathématique.
42 Algèbre

2.50. L'ensembk M peut lui même être ordonné par la relation


suivante:
on dira que

1) Ac B,
(A, OA) ~ (B, Os) <=:? { 2) OA est la restriction de Os à A x A,
3) A est partie héréditaire de B.

Le 2) signifie que V(x,y) E A 2 C B 2 , dire que xOAY {::::::::} xOsy. Quant


au 3), il signifie que, s'il existe a E A C B, et b E B, avec b Os a, alors
b E A : en quelque sorte A « hérite » des éléments de B qui sont plus
petits que des éléments de A, dans l'ordre Os.
On a bien une relation d'ordre M, c'est-à-dire une relation réflexive,
symétrique et transitive.

Réflexivité :
1) Ac A,
(A 0 ) :::.< (A 0 ) car { 2) OA est bien OA restreint à A x A,
' '.A """ ' '.A 3) A n'a aucun mal à hériter des élé-
ments de A. ·
Antisymétrie: si (A, OA) ~ (B, Os) et (B, Os)~ (A, OA), on a déjà
A C B et B C A d'où A = B, puis l'ordre OA c'est l'ordre Os car
\f(u,v) E A 2 = B 2 , comme OA est la restriction de Os à A x A on a

Enfin la relation est transitive :


si (A,OA) ~ (B,Os) et (B,Os) ~ (C,Oc) on a Ac B et B c C d'où
Ac C; puis \f(u,v) E A 2 C B 2 C C 2 on a uOAv {::::::::} uOsv car OA
est la restriction de Os à A 2 ; mais Os étant lui-même la restriction de
Oc à B 2 , comme (u, v) E B 2 , on a aussi

u Os v {::::::::} u Oc v,

1
d'où finalement u ~ v {::::::::} u Oc v ce qui est la traduction de 0 A
restriction de Oc à A .
Enfin A est partie héréditaire de C car si c de C est tel qu'il existe
a E A avec cOc a, comme a E AC B, et que Best héréditaire de C, on
a déjà c E B, car inférieur, pour Oc, à un élément, ici a, de B.
Mais alors, comme c et a sont dans B, que Os est la restriction de
l'ordre Oc à B écrire c Oc a, c'est écrire c Os a, avec a E A, c E B et A
Relations, relations d'ordre, d'équivalence 43

héréditaire dans B. On a donc c E A, ce qu'on voulait. On a ainsi justifié


le point 2.50. •

2.51. L'ensemble M, non vide, ainsi ordonné, est inductif

Soit C = {(Ai, 0 Ai )iEJ} une partie de M totalement ordonnée, on doit


lui trouver un majorant, dans M, pour l'ordre ~ de M. C'est évident si
C = 0, (car alors, pour m quelconque de M, on a bien, Vx E 0, x ~ m
puisqu'il n'y a rien à vérifier, car il n'y a pas de x dans 0).
On suppose donc C =F 0, (c'est-à-dire I =F 0) et soit R = LJ Ai.
iEJ
On ordonne R comme suit. Soient r et r' dans R, et i et i 1 dans I tels
que r soit dans Ai et r' dans Ai'· On a soit (Ai,OAJ ~ (Ai',0Ai 1), soit
l'inégalité contraire, car C est totalement ordonné.
Dans le 1er cas : Ai C Ai', mais alors r et r 1 sont tous les deux
dans Ai' sur lequel OA., est un bon ordre, (donc un ordre total) et on
posera r OR r' si r 0 A.,i ~1 , ou bien r 1 OR r si on a r' 0 A.,i
r : en somme
d'ordre OR correspond à 0 A.,. A priori, cet ordre OR pourrait dépendre
du choix de i 1 tel que r et ;i soient dans Ai', mais il n'en est rien, car
si on trouve un i" E I tel que r et r' sont dans Ai", là encore comme
(Ai', 0 A. 1) et (Ai", 0 A. 11 ) sont comparables pour ~ ordre de M, l'un
des de~ ensembles A/ ou Ai" contient l'autre et l'ordre sur le plus petit
est la restriction de l'autre; on a en même temps r 0 A., r' et r 0 A.,, r', (ou
les inégalités opposées). • •
Donc la définition de OR à un sens. Si vous suivez encore, (et là vous
avez du mérite), il reste à justifier que OR est un bon ordre. Pour vérifier
que c'est un ordre, on doit prendre 1, 2 ou 3 éléments de R suivant qu'on
justifie la réflexivité, l'antisymétrie ou la transitivité. Or, ayant ii, i2, i3
dans I associés aux 3 parties Ai 1 , Ai 2 , Ai3 contenant chacune un élément,
l'une des 3 contient les 2 autres, (toujours C totalement ordonnée) donc
finalement nos 3 éléments sont dans un Ai tel que (Ai, OAJ E C, et
C C M ; OR coïncide alors avec la relation 0 Ai qui est bien relation
d'ordre : d'où OR relation d'ordre. De plus c'est un ordre total car dès le
départ on avait r OR r 1 ou r' OR r.
C'est un bon ordre, car soit S partie non vide de R, et s dans S. Si ce
n'est pas le plus petit élément de S, c'est que T = {t;t ES, tORs} est
non vide.
Soit alors t dans T. Tout ceci se passe, il ne faut pas l'oublier dans
R= LJ Ai. Il existe donc i et i 1 dans I tels que s E Ai et t E Ai'. De plus
iEJ
(Ai,OAJ et (Ai',OAi,) sont comparables. Si (Ai1,0Ai,) ~ (Ai,OAJ, on
44 Algèbre

a aussi t E Ai, car alors Ai' C Ai· Sinon, (Ai, OAJ ~(Ai'• OA;i) mais
alors on a t E Ai', s E Ai et t Ons, soit comme t et s sont dans ce cas tous
les deux dans Ai'• tO A., s vu la définition de l'ordre On. Comme dans ce
cas Ai est héréditaire d~ns Ai' , on a encore t E Ai.
Dans les 2 cas, on parvient à t E Ai. Ceci est vrai pour tout t de
T, finalement T C Ai> (Ai choisi tel que s E Aï), mais Ai est lui bien
ordonné par 0 A;.
Sim est le plus petit élément de T pour l'ordre OA;• (m existe car OA;
bon ordre), alors pour tout ΠE S, on a soit ΠOns, donc ΠE Tet alors
m On Œ, (car met Œ sont dans le Ai contenant s, et sur Ai les ordres On
et OA; coïncident),

soit
(car On est total, comme déjà signalé), et comme m Ont pour un t de T,
que t Ons et que s On Œ, par transitivité on a bien m On Œ : dans tous les
cas on a m On Œ, donc m est plus petit élément de S partie non vide de R,
donc (R, On) E M.
Je ne sais pas si quelqu'un suit encore ... Enfin, faisons comme si...
La partie C = {(Ai, OAJiEI} est alors majorée par (R, On) élément
de M car, Vio, Aio C R = LJ Ai; par construction, OA;o est bien
iEJ
la restriction à Aio x Aio de On ; et Aio est héréditaire dans R : si
x E Aio• y E R, avec yOnx, il existe i E I avec y E Ai, on a soit
( Aio, 0 A;0 ) ~ (Ai, 0 A;) et alors Aio héréditaire dans Ai et On coïncide
avec OA; =>y E Aio;
soit (Ai, OA;) ~ (Ai 0 , OA; 0 ) et alors y E Aio·

Dans les 2 cas, y E Aio· On a ainsi justifié 2.51.



2.52. Zorn => Zermelo
En effet, M inductif, admet un élément maximal disons (U, Ou). Si
U =/:- E, soit x E E - U, V = U U {x} muni de la relation d'ordre,
(à justifier) 0v défini par \:/y E V, y 0v x et \:/(y, y1 ) E U 2 , on pose
y Ov y' {::::::::} y Ou y'. On définit bien un bon ordre.
Réflexivité, car x E V => x 0v x, et si y E U, y Ou y donc y Ov y.
Antisymétrie : si on a y 0v y' et y' 0v y avec y et y' tous deux dans U,
c'est qu'on a les inégalités y Ou y' et y' Ou y avec Ou antisymétrique d'où
y = y'; si y ou y' est égal à x on n'est pas dans le cas y et y' dans U,
Relations, relations d'ordre, d'équivalence 45

c'est donc, vu la définition de 0v que, si y'= x par exemple, on ne peut


écrire que y 0v x, (avec impossibilité, si y-:/=- x, d'écrire x Ov y) donc si on
a aussi x 0v y c'est que y = x.
Transitivité: soit y 0v y' et y' Ov y". Si y, y' et y" sont dans U où 0v
coïncide avec l'ordre Ou, la transitivité est justifiée.
Si l'un des éléments est x, si c'est y", y 0v y" avec y" = x est évident;
si y' = x, forcément y" = x, d'où encore y Ov y";
si y = x, forcément y' = x, y" aussi d'où encore y Ov x.
C'est un bon ordre car une partie de V est soit {x}, avec x plus petit
élément; soit du type AU { x} avec A C U, elle admet a, plus petit élément
de A (pour l'ordre Ou) comme plus petit élément pour Ov car a Ovx;
soit contenue dans U, et alors elle admet un plus petit élément.
Enfin (U, Ou) ~ (V, 0v ), (facile à vérifier) avec U-:/=- V : on aurait un
élément de M strictement supérieur à (U, Ou) maximal : absurde.
Donc U = E et Ou est un bon ordre sur E : on a bien justifié Zermelo .

2.53. Il reste à voir, s'il y en a qui suivent encore, que choix ::::} Zorn
pour fermer la boucle. Pour cela on part de E non vide muni de f fonction
de choix.
Soit E ordonné non vide. Si H est une partie de E on note
> >
H = {x;'lfh E H, h < x }. Donc H est formé des majorants de H, non
dans H.

DÉFINITION 2.54. - On appelle chaîne de E ordonné, toute partie K


totalement ordonnée, par l'ordre de E. On appelle k-chaîne de E toute
chaîne K non vide telle que toute partie H héréditairefcze K et distincte
> >
de K vérifie: f(H) est le plus petit élément de H nK.

Qu'est-ce que cela veut dire! D'abord, f est la fonction de choix


supposée exister.
H C K est partie héréditaire de K {::::::::} tout k de K, inférieur à un
h de H est dans H.
Il en résulte que si x E K - H, il ne peut pas être « hérité » par H
donc Jjh E H avec x < h : comme la chaîne K est une partie totalement
ordonnée, x eth sont comparables et-:/=- car x fi. H, c'est que h < x.
> >
Ceci est vrai Vh E H donc x E H: on a (K - H) C HnK, mais
> >
si E K n H, il est dans K, pas dans H par définition de H, d'où
X
x E (K - H) et finalement on a:
46 Algèbre

1er point: Si H est une partie héréditaire de K, distincte de K, on a


> > >
H nK = K - H. En particulier H est non vide, donc f (H)
existe, avec f fonction de choix qui est supposée exister
sur E puisque, ne l'oublions pas, nous sommes en train de
justifier choix :::?- Zorn.
2e point: Il existe des k-chaînes.
En effet, soit E non vide, muni d'une fonction de choix
f, et e = f (E). Alors K = {e} est totalement ordonné,
(par l'ordre e ~ e induit par celui sur E) de plus la seule
partie H distincte de {e} c'est 0, qui est héréditaire car la
condition : soit k E K tel que 3h E 0 avec k ~ h ... n'est
jamais remplie, donc la conclusion k E 0 ne se présente
jamais.
> >
On a 0 nK = En K = K, f ( 0 ) = f (E) = e est le seul
'-V'""
=E
>
élément de 0 nK = K = { e} donc c'en est bien le plus
petit élément.
On a {e} est une « k-chaine ».
3e point: Toutes les « k-chaînes » ont e pour plus petit élément.
Car si K est une « k-chaîne »,comme 0 est partie hérédi-
taire de K (cela vient d'être vérifié, et comme il n'existe
jamais de x dans 0, supérieur à un y de K, 0 n'hérite
jamais de l'élément y ... ) on a

>
0nK=EnK=K,

> >
donc e = /(0) est plus petit élément de 0 nK =K.
4e point: L'ensemble /C des k-chaînes est totalement ordonné par
inclusion et toute k-chaîne est héréditaire dans toute k-
chaîne la contenant.
Pour justifier ce point, plus délicat, on introduit la notation suivante :
~
six E E, on note x = {y,y E E,y ~ x}.
~
Soient Ki et K2 deux k-chaînes et I = {x; x E Kin K2; Kin x=
~
K2 nx}: on va prouver que I =Ki ou K2, comme I C Ki nK2 on aura
alors Ki c Ki n K2 donc Ki c K2, ou K2 c (Ki n K2) et K2 c Ki.
Donc /C sera totalement ordonné par inclusion. Toutes les k-chaînes ayant
Relations, relations d'ordre, d'équivalence 47

,;::: ,;:::
epourpluspetitélément, e E KinK2 et forcément Kin€= {e} = K2ne
donc e E J.
I est partie héréditaire de Ki (et de K2, par symétrie des rôles joués).
..;;
Car si on a i E I et ki E Ki avec ki ~ i, ki E i , mais alors
..;; ..;;
ki E K1 n i = K2 n i donc k1 E K2 : on a déjà k1 E K1 n K2 .
..;; ..;; ..;; ..;;
Puis (K1 n i) n ki = (K2 n i) n k I·
..;; ..;;
Mais i n k i = {x; x ~ i et x ~ ki}, avec k1 ~ i il ne reste que la
..;; ..;; ..;; ..;; ..;;
condition x ~ k1. On a i n k i = k 1 d'où l'égalité Ki n k i = K2 n k I·
Ces deux résultats prouvent que k1 E I : I a bien hérité du k1 de Ki,
avec ki ~ i.
On ne peut pas avoir à la fois I i= Ki et I i= K 2 car alors, I partie
>
héréditaire de K1, k-chaîne, et I i= Ki ::::} m = f(I) est le plus petit
>
élément de I nK i, mais pour la même raison, ( I i= K 2, I héréditaire dans
>
la k-chaîne K2) on a aussi m plus petit élément de I nK2. Comme f est
fonction de choix m E j : c'est un majorant de I, m (j. I, donc::::} I C Th,
si on note Th = { x, x E E, x < m }. Par construction I C K1 n K2, donc
on aurait I C Kin Th.
>
Comme m est le plus petit élément de I nK1 ; c'est le plus petit
élément qui soit à la fois dans Ki et majorant strict de I, si bien que
si k E Ki n Th, étant dans K1 et strictement plus petit ~ue m, il n'est
pas majorant strict de I donc 3io E I avec k ~ io. Mais I est héréditaire
dans Ki donc k i:: I: on vient de prouver que Kin Th c I d'où l'égalité
I = K1 nrh, on aurait de même I = K2 n Th.
Mais alors (Kin Th) U {m} = (Ki U {m}) n (rhu{m}), or m plus
> ,;:::
petit élément de I nKi est dans KI. donc il reste Ki n m.
Comme Ki n Th = K2 n Th = I, on obtient aussi
< ..;;
(K2 nm) u {m} = K2 nm .

..;; ..;;
On obtient donc m E Kin K2 et K1 n m = K2 n m, c'est donc que
>
m E J, (les 2 conditions sont vérifiées) or m E I est majorant strict de I
donc (j. I: c'est absurde (ouf!). Donc l'hypothèse (I i= Ki) et (I i= K2) est
48 Algèbre

absurde. On a par exemple I =Ki soit Ki C Kin K2, d'où Ki C K2


et I, (= Ki), héréditaire dans K2. C'est la justification du 4e point qui
s'achève. •

Soit alors K* = LJ K, la réunion de toutes les k-chaînes.


kE/C
C'est encore une k-chaîne. D'abord K* est une chaîne, (i.e. totalement
ordonné) car 2 éléments de K* sont a priori dans deux k-chaînes Ki et
K2 mais le 4e point dit que l'axe contient l'autre, donc nos 2 éléments sont
dans une k-chaîne, qui est totalement ordonné : ils sont comparables.
Puis si H est une partie héréditaire de K*, distinctes de K*, on veut
> >
prouver que s = f(H) est le plus petit élément de H nK*(toujours avec
f, fonction de choix sur E du départ).
>
Soit donc k E H nK*, comme k E K*, il existe une k-chaîne K
contenant l'élément k, et k majore H sans lui appartenir, (définition de
>
H).
Soit alors h E H, si on suppose que h fi. K, il existe une autre k-
chaîne K' de la famille K, contenant h, or K, est totalement ordonné par
inclusion et K' C K est exclu. Donc K C K', et le 4e point donne K partie
héréditaire dans K', comme h fi. K, il ne peut pas y avoir d'élément de
K majorant h, (sinon K hérite de h) donc h supérieur à tout élément de
>
K: en particulier h > k, alors qu'on avait k EH eth EH, donc k > h:
c'est absurde.
Donc h E K c'est-à-dire H C K. Or K C K*, on a supposé H
héréditaire dans K*, a fortiori H est héréditaire dans K, (si ki de K,
donc de K* est tel que ki ~ h1 avec h1 E H, on a bien k1 E H). Mais
>
H héréditaire dans la k-chaîne K, et H =f. K, (car k E H, donc k fi. H,
>
or k E K), par définition de k-chaîne on a f(H) est le plus petit élément
> . > >
de H nK soit en particuliers= f(H) ~ k E H nK, on était parti de k
> >
quelconque de H nK* : on a finalement s = J(H) plus petit élément de
>
HnK*.
> >
Donc K* est une k-chaîne, et K * = 0, sinon K1 = K* U {f (K *)}est
formé de K* auquel on ajoute, par la fonction de choix, un élément pris
>
dans K * supposé non vide, donc un élément strictement plus grand que
ceux de K*, d'où K1 totalement ordonné, et si H est partie héréditaire de
> >
K1, distincte de K1; c'est soit H = K*, alors f(H) = f(K *)est bien le
Relations, relations d'ordre, d'équivalence 49

plus petit élément de


> > >
Hn(K1) = K* n (K* u {f(K*)}
> > >
= (K * n K*) u (K * n {! (K *)}
>
= 0 u {f(K*)} = {f(K *};
soit H C K*, et alors H est héréditaire dans K* qui est une k-chaîne donc
> # <
f(H) est le plus petit élément de H nK*, donc aussi de
> > > > > >
H nK1 = H n(K* u {! (K *)}) = (H nK*) u (H n{f(K *)} ),
> > >
or H n{f(K *)} est un élément de K * donc il majore ceux K* : cela ne
>
change pas le plus petit élément de H nK*.
Mais alors K 1 serait un élément de /C, vu la définition de K*, on
>
aurait K* C Ki c'est absurde. On a bien K * = 0.
Si on suppose alors que E est inductif, comme K* est une partie
totalement ordonnée de E inductif, K* admet au moins un majorant m
>
dans E, or K * = {majorants stricts de K*} est vide, donc m E K*, mais
alors m est maximal dans E car s'il existait un y dans E avec y > m, m
majorant de K*, on aurait y majorant de K* et y (/. K*, (sinon m non
>
majorant de K*) donc y E K * qui est vide. C'est exclq,_,donc m maximal
et, après bien du mal, on a justifié que l'axiome du choix ::::} l'axiome de
Zorn.
Je ne sais pas si j'ai été clair, mais si vous avez compris la démonstra-
tion, tous les espoirs vous sont permis !
Si vous n'avez pas compris, vous pouvez vous consoler en pensant que
vous êtes sain d'esprit!
Ce n'est pas par masochisme que j'ai tenu à rédiger une justification de
ces équivalences mais par ce que je pense être de l'honnêteté intellectuelle.
Très rapidement on travaille sur des espaces vectoriels de dimension
infinie, où les propriétés, pour être justifiées, nécessitent l'emploi de
l'axiome de Zorn. De même les relations d'ordre sur les cardinaux utilisent
la notion de bon ordre. Or il me semble que l'intérêt de la formation
mathématique est de former des individus qui ne «s'en laissent pas
conter», qui ne se contentent pas d'affirmations non justifiées. J'ai donc
préférer rédiger ces pages rébarbatives, quitte à ce que le lecteur ne les
lise pas.
CHAPITRE 3

Construction des entiers naturels

Il semblerait que le fait de compter soit apparu avant l'écriture, à


Sumer, vers 3500, av. J.C. C'est dire s'il s'agit d'une action« vieille comme
le monde». Dès le· départ, compter c'était mettre en correspondance les
objets à compter des éléments de référence : doigts, entailles sur des
bâtons, jetons en terre cuite à Sumer, ... puis de façon plus abstraite, avec
des signes gravés sur des tablettes d'argile.
C'est ce cheminement que nous allons formaliser.

1. Nombres cardinaux

DÉFINITION 3.1. - On dit que deux ensembles X et Y sont équipotents s'il


existe une bijection f de X sur Y.

On note X Eq Y ce lien entre ensembles. Il s'agit d'un lien qui est :


réflexif, l'identité I x :x ~ x de X sur X est une bijection;
symétrique, si X Eq Y, il existe f bijection de X sur Y, donc la bijection
réciproque 1- 1 existe, de Y sur X, d'où Y EqX;
transitif, si on a X Eq Y et Y Eq Z, avec f bijection de X sur Y et g
bijection de Y sur Z on vérifie facilement que g o f est une bijection de
X sur Z.
On s'attend donc à enclencher le mécanisme de ... relation d'équi-
valence, passage au quotient... mais il n'existe pas d'ensemble dont les
éléments seraient tous les ensembles. Aussi faut-il procéder différemment,
par axiome. On introduit :
52 Algèbre

8.2. Axiome des Cardinaux

A chaque ensemble X, on associe un ensemble noté card(X) vérifiant


les deux conditions suivantes :
(C1) Pour tout ensemble X, les ensembles X et card(X) sont équipotents.
(C?) Pour tout couple d'ensembles équipotents (X, Y) on a card(X)
= card(Y).

En somme on affirme, par voie d'axiome l'existence d'un élément de


référence, card(X), pour chaque ensemble, les ensembles équipotents
étant associés au même élément de référence.
Il faut comprendre que l'axiome du choix auquel on pourrait penser,
ne s'applique pas non plus car il part d'un ensemble, (voir 2.45).

Popriétés des cardinaux


PROPOSITION 3.3. - Les relations X tq Y et card(X) = card(Y) sont
équivalentes.
Car si X tq Y,la condition (C2) donne card(X) = card(Y); et d'après
(C1) on a X tq card(X) et card(Y) tq Y. Si donc card(X) = card(Y),par
transitivité de l'équipotence on a bien X tq Y. •

PROPOSITION 3.4. - Pour tout ensemble X, on a card(card(X))


card(X).
Car d'après (C1), X tq (cardX), on applique la proposition 3.3, il en
résulte que

card(X) = card(card(X)). •
Exemple de cardinaux
On a la notion intuitive d'unité, que l'on traduit par un axiome.

AxlOME D'EXISTENCE. - Quel que soit l'objet x de la théorie mathématique


il existe un ensemble A vérifiant (y E A)~ y= x. On le note {x}.
Si on a des ensembles de ce type, A = {a} caractérisé par y E A ~
y= a et B = {b }, il est clair que l'application f : a~ b est une bijection.
Ces ensembles sont équipotents, on note 1 le cardinal des ensembles de ce
genre.
En particulier P(0), ensemble des parties de l'ensemble vide, est de
ce type car la seule partie de 0 est 0 elle même, donc P(0) = {0} d'où
1 = card(P(0).
Construction des entiers naturels 53

8.5. On peut remarquer qu'on a donné une existence axiomatique à la


notion d'unité, que chaque être humain possède du fait de sa propre
existence.
Il n'existe pas de bijection de 0 sur un ensemble à 1 élément, car
comment associer une image dans 0, donc

card(0) =f. card(P(0)).

On note 0, (zéro) le cardinal de 0 et on va voir qu'il est neutre pour


l'addition que nous allons définir.

2. Opérations sur les cardinaux

Addition. Intuitivement ajouter, c'est compter les éléments d'un ensem-


ble, puis ceux d'un autre, donc on les suppose disjoints. Si on part d'en-
sembles quelconques, ils peuvent ne pas être disjoints. Aussi va-t-on les
remplacer par des ensembles équipotents, disjoints.
Les objets mathématiques 0 et 1 ont une existence dans la théorie
construite et ils sont différents, ce sont même)des ensembles, car des
cardinaux. On pose

DÉFINITION 3.6. - On appelle somme de deux cardinaux a et b le cardinal


de l'ensemble (a x {O} U (b X {1} ). On note a+ b ce cardinal.

PROPOSITION 3.7. -Si A et B sont des ensembles disjoints, on a card(A) +


card(B) = card(A U B).

Donc notre définition de l'addition coïncide avec la notion intuitive


qu'on en avait.
Soit a = card(A) et b = card(B), a et A sont équipotents donc il
existe une bijection f de A sur a, de même il existe une bijection g de B
sur b.
On définit h: AU B ~ (a x {O}) U (b x {1}) comme suit.
Six EAU B, avec A et B disjoints, c'est que:
- soit x E A, (et alors x (j. B), on pose h(x) = (f(x),O)
- soit x E B, (et alors x (j. A), on pose h(x) = (g(x), 1).
Il reste à vérifier que h est bijective. Injective car si h(x) = h(x'), la
deuxième composante des couples est la même, par exemple 0, c'est donc
que x et x' sont dans le même ensemble, ici A, et que f(x) = J(x') avec
f bijective d'où x = x'.
54 Algèbre

Puis h surjective, car un élément (u,v) E (a x {O}) U (b x {1}) est


dans l'un et l'un seulement des 2 ensembles disjoints a x {0} et b x { 1}
(disjoints car 0 j:.1). On suppose par exemple que (u,v) E a x {O}.
Avec x = f- 1 (u), on a h(x) = (f(f- 1 (u)),0) = (u,0) = (u,v).
Donc AU B et (a x {O}) U (b x {1}) étant équipotents ont même
cardinal, d'où card(A U B) = a+ b = (cardA) + (cardB) dans le cas
AnB=0. •

PROPOSITION 3.8. - L'addition des cardinaux est commutative, associative


et admet 0 = card(0) pour élément neutre.

Le dernier point est évident, car pour tout cardinal a, il faut remarquer
que 0 étant un ensemble équipotent à 0, c'est 0 lui-même, donc 0 x {1} =
0, (pas d'élément dans 0 = 0) d'où

(a X {O}) u (0 X {1}) =(a X {O}) u 0 =a X {O}


est équipotent à a donc a+ 0 = card(a x {O}) = card(a) =a.
Commutativité : soient a et b deux cardinaux, A et B deux ensembles
disjoints qui leurs sont équipotents, (a x {O} et b x {1} par exemple) la
proposition 3.7 donne a+ b = card(A U B) or AU B = BU A, donc

a+ b = card(B UA) = card(B) + card(A) = b +a.


Associativité: soient a, b, c trois, (on aurait donc la notion de trois? ... )
cardinaux, et A, B, C des ensembles disjoints qui leur sont équipotents
(par exemple a x {O}, b x {1} etc x {(O, 1)}: au passage la notion de trois
est obtenue comme suit : un couple c'est à partir de 2 objets, un autre
objet, différent des 2 autres, un troisième objet ... ). En utilisant encore la
propriété 3. 7 on a :

a+ (b + c) = cardA + (cardB U C) = card(A U (BUC))


car A et BUC sont disjoints, or AU (BUC) = (AU B) U C, (théorème
1.24), donc

a+ (b + c) = card(A U B) + cardC =(a+ b) + c. •

PROPOSITION 3.9. - Le cardinal 1 est régulier pour l'addition.

C'est-à-dire que si a+ 1 = b + 1, avec a et b cardinaux, on obtient


a= b.
Construction des entiers naturels 55

Soient a et b deux cardinaux tels que a + 1 = b + 1, et A et


B deux ensembles équipotents à a et b, disjoints, puis X = { x} et
Y = {y} deux ensembles à un élément, qui ne sont pas dans A et B
respectivement. Par exemple X= {A} et Y= {B}. Soient A'= AU X
et B' = BU Y on a card(A') = card(A) + card(X), (ensembles disjoints),
soit card(A') =a+ 1 et card(B') = b + 1.
Donc A' et B' sont équipotents. Soit f une bijection de A' sur B 1• On a
2 choix pour l'image de x, c'est-à-dire soit f(x) E Y= {y}, soit f(x) E B.
Dans le 1er cas, la restriction de f à A définit une bijection de A sur
B, (se vérifie facilement car f : A U { x} i----. B U {y} est bijective, avec
f(x) =y), donc AêqB d'où a= b.
Dans le 2e cas, si f(x) = y' E B, soit x' = f- 1 (y), (x 1 existe car f
bijective, et y</. B donc x' =f x. Soit A" =A - {x'} et B" = B - {y'},
on a A'= A" U {x, x'} et B' = B" U {y, y'} avec f(x) =y' et f(x') =y,
donc f induit une bijection notée g de A.11 sur B".
On définit h de A sur Ben posant: Vz E A", h(z) = g(z) et, comme
A = A" U {x'} et B = B" U {y'} avec h(A") = g(A") = B", on
pose h(x') = y'. Il est clair que h est une bijection de A sur B d'où
a = card(A) = card(B) = b. •

REMARQUE 3.10. - Tous les cardinaux ne sont pas réguliers : ce sera la


distinction entre les cardinaux dits finis et ceux dits infinis.
Cependant on a :

PROPOSITION 3.11. - Si deux cardinaux a et b vérifient a+ b = 0 on a


forcément a = 0 et b = O.

Car avec A et B disjoints de cardinaux a et b, a+ b = 0 est le cardinal


de AU B qui est donc 0, d'où A et B vides, donc a = 0 et b = O. •

Multiplication

DÉFINITION 3.12. - Le produit de deux cardinaux a et b est le cardinal du


produit cartésien a x b. Il est noté a · b ou ab.

Il convient de ne pas oublier que les cardinaux sont des ensembles. De


plus si A et B sont deux ensembles de cardinaux a et b, A x B et a x b
sont équipotents car, si f : A ~ a et g : B ~ b sont des bijections,

h:A x B i----. a x b définie par


(x,y) ~ h(x,y) = (f(x),g(y))
56 Algèbre

est une bijection. En effet, 'v'( u, v) E a x b, soit x = 1- 1 ( u) dans A et


y = g- 1 (v) dans B, on a (x, y) E A x B tel que h((x, y)) = (u, v) d'où
la subjectivité de h. Et si h((x, y))= h((x', y')), on aura f(x) = f(x') et
g(y) = g(y'), donc x = x' et y= y' puisque f et g sont bijectives. On a
donc:

3.18. Si card(A) = a et card(B) = b, alors card(A x B) = ab.

PROPOSITION 3.14. - La multiplication des cardinaux est une opération


commutative, associative, distributive par rapport à l'addition, ayant 1
pour élément neutre.

Il est clair que ( x, y) ~ (y, x) est une bijection de A x B sur B x A.


Ces ensembles sont équipotents, donc ont mêmes cardinaux, d'où
ab = ba, si a et b sont les cardinaux de A et B respectivement.
De même étant donnés les cardinaux a, b,. c, et des ensembles A, B, C
les ayant pour cardinaux, (ce qui est ridicule, car on peut prendre a = A,
b = B etc= C), l'application de A x (B x C) sur (A x B) x C définie
par (x, (y, z)) !:+ ((x, y), z) est une bijection d'où a · card(B x C) =
card(A x B) · c, soit encore a(bc) = (ab)c et l'associativité.
Puis, on a (AU B) x C = (A x C) U (B x C). En effet

(x, y) E (AU B) x C <=? x E (AU B) et y E C,


<=? (x E A ou x E B) et (y E C),
<=? ( x E A et y E C) ou (x E B et y E C),
{::} ((X' y) E A X C) ou ( (X' y) E B X C)'
{::} (X' y) E (A X C) u (B X C).

Soient a, b, c trois cardinaux, A, B, C des ensembles qui leurs sont équi-


potents avec A et B disjoints, on aura

(a+ b)c = card(A U B) · cardC = card((A U B) x C)


= card((A x C) U (B x C))
= card(A x C) + card(B x C) = ac+ be
puisque A x Cet B x C sont disjoints, A et B l'étant. C'est la distributivité.
Enfin, soit A de cardinal a, B de cardinal 1, donc B = {b} est un
singleton, l'application (x, b) ~ x est une bijection de A x {b} sur A, d'où
Construction des entiers naturels 57

a· 1 = card(A x {b}) = cardA =a, vu la commutativité on a bien 1


neutre pour le produit. •

PROPOSITION 3.15. - Si un produit de deux cardinaux est nul, l'un ou


l'autre est nul.

Car si A et B sont deux ensembles de cardinaux respectifs a et b, et


si ab= card(A x B) = 0 = card(0), A ou Best vide sinon, avec x E A
et y E B, le couple (x, y) serait dans A x B qui serait non vide, ce qui
contredit A x B équipotent à l'ensemble vide. On a donc a ou b nul. •

3. Comparaison des cardinaux

On va avoir besoin de préciser les propriétés des relations d'ordre.


Rappelons qu'un ensemble E est dit bien ordonné s'il est muni d'une
relation d'ordre telle que toute partie non vide admet un plus petit
élément, et on a vu (2.44), l'énoncé de l'axiome de Zermelo : tout ensemble
non vide peut être bien ordonné.

DÉFINITION 3.16. - On appelle segment d'un ensemble bien ordonné E,


toute partie S de E vérifiant: (x ES et y E E avec y~ x) =}(y ES).
Attention Ne pas penser à la définition usuelle des segments sur IR, qui
n'est pas bien ordonné, par l'ordre usuel, car quel est le plus petit élément
de l'intervalle ouvert JO, 1[ par exemple.
Dans un ensemble bien ordonné, si S est un segment non vide il aura
un plus petit élément.

PROPOSITION 3.17. - Dans un ensemble bien ordonné E, tout segment de


E, distinct de E, est formé des x E E tels que x < a, pour un a E E. On
note Sa ce segment :

Sa= {x,x E E,x <a}.

D'abord E est un segment: la définition 3.16 étant vérifiée par E. Puis


si Sun segment de E, distinct de E, E - S est non vide. Soit a son plus
petit élément, (existe car E bien ordonné), alors, si x < a, x E E - S est
exclu car a est le plus petit élément de cet ensemble : donc x E S, et si
x ES, si de plus x ;;:i: a, on aurait a ES, (définition d'un segment) ce qui
contredit a E E- S. On a bien S = {x,x E E,x <a}. •
58 Algèbre

3.18. On note Sa ce segment et a s'appelle l'extrémité du segment.


Il n'y en a qu'une, car E lui-même ayant un plus petit élément, w,
cet w serait « borne inférieure » de chaque segment, il est inutile de le
préciser. Remarquons que 0 est le segment Sw, et qu'avec notre notation,
a~ Sa.

PROPOSITION 3.19. - L'ensemble S des segments d'un ensemble bien


ordonné E, est lui-même bien ordonné par inclusion et l'application x ~
Sx est un isomorphisme de E sur S privé du segment E.

La définition de morphisme et d'isomorphisme est introduite en 2.21


et 2.22.
Soient a et b dans E bien ordonné, donc totalement ordonné (voir 2.43).
Si a~ b, Sa = {x; x <a} est bien contenu dans Sb= {y; y< b} car
x < a~ b =} x < b; d'où() : x f-+ Sx est morphisme de E dans S privé du
segment E lui-même; () est bijective car a =f. b dans E totalement ordonné
donne par exemple a < b, c'est-à-dire a ~ b et a =f. b, mais alors Sa C Sb
et a E Sb, mais a ~ Sa donc Sa =f. Sb; on a () injective.
La proposition 3.17 justifie le côté surjectif de() donc c'est.un isomor-
phisme de E sur S - {E}.
Mais alors toute partie B non vide de S - { E} admet pour plus petit
élément le segment associé au plus petit élément de 0- 1 ( B) donc S - { E}
est bien ordonné par inclusion. Comme S s'obtient en adjoignant E
supérieur pour l'inclusion, à tous les autres éléments, S est bien ordonné.

PROPOSITION 3.20. - Soient E et F deux ensembles bien ordonnés. L'une


au moins des deux propositions suivantes est vraie :
1) il existe un isomorphisme et un seul de E sur un segment de F;
2) il existe un isomorphisme et un seul de F sur un segment de E.

Soit 1i l'ensemble des applications f d'un segment S de E dans F,


d'image un segment f (S) de F, telles que f soit un isomorphisme de S
sur J(S).
C'est-à-dire que, si S est un segment de E, f est une injection de
S dans F, et 't:/(x,y) E S 2 , six < y on a f(x) < f(y) donc f est un
morphisme pour les relations d'ordre. Comme f est alors bijective de S
sur son image, on a un isomorphisme de S sur son image, qui est supposée
être un segment de F.
1i n'est pas vide : car E bien ordonné admet un plus petit élément, u, et
de même F admet un plus petit élément, v. Mais alors {u} est. un segment
de E (la définition est vérifiée) et f : u ~ v est bien un isomorphisme du
segment {u} sur son image { v}, qui est bien un segment de F.
Construction des entiers naturels 59

On ordonne 1i par la relation : (! ~ g) {:=:::::} (g prolonge f), ou encore,


avec f définie sur le segment Set g sur le segment T, on a S C Tet
\:lx ES, g(x) = f(x). C'est une relation d'ordre car elle est:
réflexive: f ~ f car S =Set \:lx ES, f(x) = f(x);
antisymétrique : si f ~ g et g ~ f, avec f définie sur S et g sur T on
a: SC Tet TC S d'où S =Tet \:lx ES, f(x) = g(x) d'où f = g;
transitive : si f ~ g et g ~ h avec f, g, h définies respectivement sur
les segments S,T,U; on a SC Tet TC U d'où SC U et \:lx ES,
g(x) = f(x); or \:lx E T, h(x) = g(x), comme x E S est aussi dans T,
on a bien la succession d'égalités f(x) = g(x) = h(x) d'où finalement« h
prolonge f », c'est-à-dire f ~ h.
Cet ensemble 1i est inductif, (voir 2.41).
En effet, si C est une partie de 1i totalement ordonnée, en notant
(Si, fi)iEI les éléments de C, sous forme de couples avec Si segment de
E, fi isomorphisme (pour les ordres) de Si sur son image, il est clair que
S = LJ Si est un segment de E, car si x E S et si y de E vérifie y ~ x,
iEJ
comme 3io E I avec x E Bio segment, on a y E Bio C S, donc y E S : on
a vérifié la définition de segment.
De plus, si X E S est tel que X E Si et X E Si' avec i et i 1 dans
I, comme C est totalement ordonnée on a par exemple Si c Si' et fi1
prolonge fi mais alors, pour X dans Si, avec Si C Si', on a fi (X) = fi1 (X)
puisque fi1 coïncide avec fi sur si. En posant f(x) = fi(x) si X des est
dans Si on a une définition indépendante de l'indice i tel que X E Si.
Le couple (S, !) E 1i car f est un morphisme injectif et f(S) est un
segment de F. En effet, soient x et x' dans S, et des indices i et i 1 de I
c
tels que X E si et x' E si'. Comme est totalement ordonné, on a soit
si c si' soit l'autre inclusion.
Par exemple on a si' c si> donc X et x' sont dans si. si alors x' ~X,
comme f coïncide sur Si avec le morphisme injectif fi, on a

f(x') = fi(x') ~ fi(x) = f(x)


d'où f morphisme, de plus

f(x) = f(x') {:} fi(x) = fi(x') {:} x = x'


car fi injectif.
Enfin J(S) segment de F. Soit y= f(x) dans f(S), si z de Fest tel
que z ~ f(x), comme :li E I avec x E Si, y= f(x) = fi(x) E fi(Si); or
on sait que fi(Si) est un segment de F par hypothèse, donc z E fi(Si) C
J(S).
60 Algèbre

Il est alors clair que, 'Vi E J, on a (S, !) qui majore (Si, fi) : on a bien
justifié l'existence dans 1t d'un majorant de la partie totalement ordonnée
C, c'est-à-dire justifié que 1t est inductif.
Mais alors, l'axiome de Zorn, (2.42) implique l'existence d'un élément
maximal (E, u), avec E segment où est défini l'isomorphisme u, et u(E)
segment de F.
Si E = E on aura un isomorphisme de E sur un segment de F, alors
que si u(E) = F, u- 1 établira un isomorphisme de F sur E. Aussi va-t-on
prouver que l'hypothèse (E =/; E) et (u(E) =/; F) conduit à une absurdité.
Si on y parvient on aura l'existence, énoncée dans la proposition 3.20,
et il restera à justifier l'unicité de l'isomophisme considéré.
Supposons donc E =/; E et u(E) =/; F : vu la forme des segments,
(proposition 3.17) il existe a dans E et b dans F tels que E = Sa =
{x;x E E,x <a} et u(E) = Eb = {y;y E F,y < b}.
On prolonge u en u1 sur S =Sa U {a} par u1(a) = b, et 'Vx E Sa
on a u1(x) = u(x). On définit ainsi un morphisme injectif de S sur
T = EbU{b}. Or, S = {x;x E E,x ~a} etT = {y;y E F,y ~ b}
sont des segments. Vérifions le pour S : six E Set si t de E est tel que
t ~ x, comme x ~a, on a bien t ~a, donc t ES.
Mais alors, (S, u1) serait dans 'Ji, et strictement supérieur à l'élément
maximal (E, u) : c'est absurde.
Il reste, pour achever la justification de la Proposition 3.20 à montrer
l'unicité. Ceci sera une conséquence du lemme suivant.

LEMME 3.21. - Soient E et F deux ensembles bien ordonnés, f et g deux


applications croissantes de E dans F telles que J(E) soit un segment et
que g soit strictement croissante. On a alors f(x) ~ g(x) pour tout x de
E.

Vérifions d'abord qu'avec le lemme on concluera.


Si on a donc 2 isomorphismes f et g de E par exemple sur des segments
f(E) et g(E) respectivement, de F on aura à la fois : f croissante,
f(E) segment, g strictement croissante d'où f(x) ~ g(x) et g croissante,
g(E) segment, f strictement croissante d'où J(x) ~ ~(x) donc finalement
f = g, et l'unicité dans la proposition 3.20. ' ~
Justifions le lemme par l'absurde. Supposons que l'ensemble A des x
de E tels que f(x) > g(x) soit non vide, E étant bien ordonné, A admet
un plus petit élément a, et pour x < a, (s'il y a de tels x), x ~ A donc
f(x) ~ g(x), or g strictement croissante, donc g(x) < g(a) et a E A donc
g(a) < f(a).
Mais par hypothèse, f(E) est un segment, qui contient f(a) donc
aussi g(a) inférieur à f(a), par définition des segments. Mais avoir g(a)
Construction des entiers naturels 61

dans l'image f(E) c'est avoir un z de E tel que g(a) = f(z). Comme
g(a) = f(z) < f(a) et que f croissante, l'hypothèse z ~ a est exclue
car alors f(z) ~ f(a), d'où z < a. Donc z ~A, (a plus petit élément de
A), d'où J(z) ::::; g(z) vu la définition de A, et on a, g étant strictement
croissante,

f(z) ::::; g(z) < g(a) = f(z), soit f(z) < f(z)
ce qui est absurde.

COROLLAIRE 3.22. - Tout sous-ensemble A d'un ensemble bien ordonné E
est isomorphe à un segment de E.

Un point d'explication : pour l'instant on est censé ignorer N mais ...


on le connaît, et c'est un ensemble bien ordonné par l'ordre usuel. Le
corollaire dit en quelque sorte que dans A on peut renuméroter en
croissant les éléments. Par exemple, A = {3, 7, 5, 9} est isomorphe à
[O, 1, 2, 3] qui est un segment, par l'isomorphisme envoyant 3, 5, 7, 9 sur
0, 1, 2, 3 respectivement.
Justifions le corollaire.
D'abord A = 0 est isomorphe au segment de 0, (c'en est un car la
définition 3.16 est vérifiée par 0), et A= E est isomorphe à E, (segment)
par l'identité.
Soit donc A une partie de E, non vide et différente de E. Si on montre
qu'il n'y a pas d'isomorphisme de E sur un segment de A, d'après la
Proposition 3.20, c'est qu'il y en aura un de A sur un segment de E.
Or si g est un isomorphisme de E sur un segment de A, si ce segment
est A, alors g- 1 est un isomorphisme de A sur E, qui est segment de
E, et dans ce cas on a le corollaire. Par contre si l'image g(E) = S est
strictement daris A, il existe a E A - S tel que S = {x; x E A, x < a},
(proposition 3.17), mais a E E donc g(a) ES, donc g(a) <a.
Mais on a alors : E bien ordonné, F = E bien ordonné aussi,
l'application f = idE est croissante de E dans E, d'image E un segment
de E, et g est strictement croissante de E dans E puisqu'un isomorphisme
respecte l'ordre tout en étant injectif. Alors le lemme 3.21 implique que,
Vx E E, f(x) = x::::; g(x), alors que nous avons trouvé a avec g(a) <a:
c'est absurde. •

Ce corollaire 3.22 va nous permettre de parler d'ordre entre


cardinaux.
Soient X et Y deux ensembles, tels que X soit équipotent à une partie
Y' de Y. Si f est la bijection de X sur Y', on peut considérer l'application
i : X ,.._. Y définie par, Vx E X, i(x) = f(x). On parle d'application
62 Algèbre

induite par f. Du point de vue des valeurs prises c'est f, mais l'ensemble
d'arrivée est Y. Cette application i est injective. Par ailleurs, si i est
une injection de X dans Y, avec Y' = i(X), image de X, l'application
f : X ~ Y' définie par '<lx E X, f(x) = i(x) devient cette fois une
bijection de X sur une partie Y', de Y, donc X est équipotent à une
partie de Y.

3.23. On définit le lien suivant entre cardinaux :


on dira que le cardinal de X est inférieur à celui de Y et on note
card(X) Inf card(Y), si X est équipotent à une partie de Y, ou encore
s'il existe une injection de X dans Y.
Cette définition a un sens car remplacer X, (ou Y) par X' équipotent à
X, (ou Y' équipotent à Y) revient à introduire des bijections qui composées
avec une injection donnent encore une injection.

PROPOSITION 3.24. - La relation lnf entre cardinaux a les propriétés d'une


relation de bon ordre.

La formula~ion est bizarre. On ne dit pas est une relation de bon ordre,
car... les cardinaux ne forment pas un ensemble. Mais on peut quand
même justifier la réflexivité, l'antisymétrie et la transitivité de ce lien lnf
entre cardinaux, puis établir que si E est un ensemble de cardinaux, alors
sur E, Inf est un bon ordre.
Réflexivité: card(X) Inf card(X) car idx : x ~ x est une injection de
X dans X.
Pour obtenir le reste, on va partir d'un ensemble E de cardinaux et
justifier que Inf induit un bon ordre sur E. On aura ainsi le résultat car,
pour la transitivité par exemple, ayant trois ensembles, ils sont indexés
par un ensemble à 3 éléments, (on ne sait pas compter mais ... 0, P(0),
(0, P(0)) sont 3 éléments différents) et dans les axiomes de départ de la
théorie, des objets mathématiques dont on sait qu'ils sont indexés par un
ensemble, forment un ensemble.
Donc nos 3 cardinaux peuvent être éléments d'un ensemble E de
cardinaux sur lequel on aura transitivité puisque Inf sera alors un bon
ordre.
On procéderait de même pour l'antisymétrie.
Soit donc E un ensemble de cardinaux, les x E E, peuvent être à la
fois des indices, (d'eux-même) et comme ce sont des ensembles, on peut
considérer l'ensemble A= LJx.
xEE
C'est une réunion d'ensembles indexés par les éléments d'un ensemble.
Par l'axiome de Zermelo, (2.44), l'ensemble A peut être muni d'un bon
Construction des entiers naturels 63

ordre noté :::;; et alors, toute partie de A est un segment pour ce bon ordre
(corollaire 3.22). Chaque cardinal x de E étant une partie de A est donc
un segment de A.
Soit x E E, on considère l'ensemble X des segments de A, qui sont
équipotents à x. Cet ensemble est non vide, (il contient x), c'est une partie
de l'ensemble S des segments de A, bien ordonné, donc (proposition 3.19),
S lui-même étant bien ordonné par inclusion, cette partie non vide X de
S admet un plus petit élément, noté f(x).
La relation induite par Inf sur E, encore notée Inf, se formule comme
suit:
(x Inf y) {=:::}(X et y sont dans E et x est équipotent
à une partie de y).

Nous allons voir que ceci équivaut à (x et y sont dans E et f(x) C f(y)).
D'abord, si f(x) C f(y), x est en bijection avec f(x), on peut injecter
f(x) dans f(y), vu l'inclusion, et f(y) et y sont en bijection: il y a bien
une injection de x dans y, donc x est équipotent à une partie de y.
Six est équipotent à une partie de y, il est équipotent à une partie de
f(y) qui est en bijection avec y. Mais f(x) et f(y) étant des éléments de
S bien ordonné par l'inclusion, sont comparables. Si on avait f(y) C f(x),
=/.
si z est la partie de f (y) qui est équipotente à x, le corollaire 3.22 nous
dit que z est isomorphe à un segment z' de l'ensemble bien ordonné f(y),
(bien ordonné car CA qui est l'est).
Or f(y) est lui-mê~e segment de A, donc z' est segment de A, (si
u E z', si v E A avec v :::;; u, comme u E f(y) segment de A, dans un
premier temps v E f(y), puis z' segment de f(y) donne v E z').
Mais alors x est équipotent à z' segment de A, donc z' E X ensemble
des segments équipotents à x, de plus petit élément, pour l'inclusion, f(x),
c'est que f(x) C z'. On aurait z' C f(y) C f(x) C z' c'est absurde vu
=/.
l'inclusion stricte. On ne peut donc pas supposer f(y) C f(x).
=/.
On a bien f(x) C f(y), donc sur E, x Inf y{=:::::} f(x) C f(y), ce qui
permet de vérifier que E est bien ordonné.
On vérifie d'abord que E est ordonné par la relation Inf.
Re:fte:xivité: f(x) C f(x) d'où x Inf x.
Transitivité: six Inf y et y Inf z c'est que f(x) C f(y) et f(y) C f(z)
d'où évidemment f(x) C f(z) soit x Inf z.
Antisymétrie:six Inf yety Inf x,c'estquef(x) C f(y)etf(y) C f(x)
d'où f(x) = f(y).
64 Algèbre

Mais alors x est équipotent à f(x), y aussi car il est équipotent à


f(y) = f(x), donc les cardinaux x et y étant équipotents sont égaux par
définition même des cardinaux.

C'est un bon ordre : soit B une partie non vide de E, les f(b) pour
b E B forment un partie non vide f(B) de l'ensemble S bien ordonné
par inclusion, des segments de A, soit m le plus petit élément de f(B),
il existe bo dans B tel que m = f(bo), (définition d'une image), et alors,
'Vb E B, comme f(bo) C f(b) on a bien bo Inf b: on a trouvé un plus petit
élément bo de B. •

La propriété 3.24 est établie. Il en résulte, comme deux cardinaux


quelconques peuvent être mis dans un ensemble E de cardinaux qui sera
«bien ordonné» par lnf, que ces deux cardinaux seront comparables d'où:

COROLLAIRE 3.25. - Etant donné deux ensembles, l'un est équipotent à une
partie de l'autre.

COROLLAIRE 3.26. - Soient deux ensembles E et F tels qu'il existe une


injection de E dans F et une de F dans E alors E et F sont équipotents.

Car alors card(E) Inf card(F) et card(F) Inf card(E) d'où


card(E) = card(F).

PROPOSITION 3.27. - Soient a et b deux cardinaux, la relation a Inf b,


désormais notée a ::::; b équivaut à : il existe un cardinal c tel que b = a+ c.
Ce cardinal c est appelé la différence de b et a et sera noté b - a.

Si a ::::; b, et si j est une injection de a dans b, b- j (a) est un ensemble,


qui a donc un cardinal, soit c = card(b- j(a)). Comme les ensembles j(a)
et b - j (a) sont disjoints, de réunion b, on a (proposition 3. 7),

card(b) = b = card(b - j(a)) + card(j(a)) = c +a


puisque a et j (a) sont équipotents, (j injective, et bien sûr surjective sur
son image).
Donc a ::::; b ::::} 3c, cardinal, avec b = a + c.
Réciproquement : soit un cardinal c tel que b = a+ c, a x {O} et
c x {1} sont deux ensembles disjoints de cardinaux respectifs a etc donc,
(toujours proposition 3.7),

b =a+ c = card(a x {O}) + card(c x {1}) = card(a x {O} U c x {1}).


Construction des entiers naturels 65

Il y a donc une bijection f de (a x {O} U c x {1}) sur b, l'application

j: a x {O} t---t b définie par (x, 0) l


f((x, 0)), six E a est donc injective,
or x ~ (x, 0) est bijective de a sur a x {O} : finalement x ~ f((x, 0)) est
une injection de a dans b. •

PROPOSITION 3.28. - Soit I un ensemble d'indices, (ai)iEl une famille de


cardinaux indexée par I, il existe un cardinal et un seul, b, qui majore
chaque ai et tel que tout cardinal majorant les ai majore aussi b.

Les ai sont des ensembles, I en est un, donc LJ ai = E est aussi un


iEJ
ensemble, (voir 1.22). Or chaque ai CE donc chaque ai est équipotent à
une partie de E, (ai elle-même) d'où

ai = card(ai) ~ a= card(E).

3.29. Mais la relation x est un cardinal et x ~ a est collectivisante en


x, autrement dit, les cardinaux x ~ a forment un ensemble, car (x est
un cardinal ~ a) est équivalent à (x est en bijection avec une partie X
de a) donc ces cardinaux sont indexables par des parties de X, donc par
les éléments d'une partie de P(X), et les éléments indexables par un
ensemble constituent un ensemble.
Soit donc F l'ensemble des cardinaux inférieurs à a, il est bien ordonné
(Proposition 3.24), et contient les ai. Mais alors lEls éléments de F qui
majorent les ai forment une partie G non vide de F car elle contient a, et
G admet un plus petit élément, b. On va voir que c'est le cardinal cherché.
D'abord b E G, (il en est le plus petit élément), donc, Vi E J, ai ~ b.
Puis soit c un majorant des ai> c et a sont comparables, (propriété 3.24),
donc on a:
soit c ;;:: a ;;:: b : c majore b,
soit c < b ~ a, alors c ~ a =? c E F.

Mais comme c majore les ai> c est dans G, et b étant le plus petit
élément de G, on ab~ c. Le deuxième cas est exclu.
Finalement tout autre majorant des ai majore b qui est bien unique
à vérifier cela car si un autre b1 convient, on aura b' ~ b et b ~ b' d'où
b = b' par antisymétrie. •
66 Algèbre

4. Cardinaux finis, ou entiers naturels

DÉFINITION 3.30. - On dit qu'un cardinal a est fini si a =f. a + 1. On dit


encore que a est un entier natuel, ou plus brièvement, entier. Un cardinal
a sera dit infini si a = a + 1.

On a 0+1 = card(Ox {O}Ul x {1} ), avec 0 = 0 donc Ox {O} est vide et


1 étant un ensemble à «un élément » au sens intuitif du terme le produit
cartésien 1 x {1} ne comporte qu'un couple, donc 0 x {0} U 1 x {1} est
un ensemble à« un élément», de cardinal 1 d'où le résultat formidable :
0 + 1 = 1, avec 0 =f. 1, car il n'y a pas de bijection entre 0 et un ensemble
à «un élément». Donc 0 est un cardinal fini, ou entier naturel.

PROPOSITION 3.31. - Pour qu'un cardinal a soit fini il faut et il suffit que
a + 1 soit fini.

Car on a vu (Proposition 3.9), que 1 est régulier pour l'addition, c'est-


à-dire que (a+ 1 = b + 1) ::::} (a = b) comme l'implication (a = b) ::::}
(a + 1 = b + 1) est évidente, cette proposition 3.9 revient à dire que
(a= b) {::}(a+ 1=b+1) donc par contraposition a =f. b {::}a+ 1=f.b+1.
On applique ceci avec les cardinaux a et a + 1 et on a

a entier naturel {::::::::} (a =f. a + 1) {::::::::} (a + 1 =f. (a + 1) + 1)


{::::::::} a + 1 entier naturel.

PROPOSITION 3.32. - Soit n un entier naturel. Tout cardinal a inférieur à
n est un entier. Si n est un entier non nul, il existe un entier et un seul m
tel que n = m + 1 et la relation (a~ m) {::}(a< n).

On a vu, (Proposition 3.27) que si a ~ n, il existe un cardinal b tel


que n = a+ b, d'où n + 1 = (a+ b) + 1 = a+ (b + 1) par associativité
de l'addition, mais c'est aussi a+ (1 + b) = (a+ 1) + b en utilisant la
commutativité de l'addition.
Si a non entier, on aurait a = a+ 1 d'où a+ b = (a+ 1) + b soit
n = n + 1 ce qui contredit n entier. Donc a est un entier.
Sin =f. 0, l'ensemble n est non vide, (n'oublions pas que formellement
un entier est un cardinal, donc un ensemble). On peut choisir un élément
de n et l'injecter dans n : comme il y a une injection d'un ensemble à un
« élément» dans n on a 1 ~ n, il existe donc (Proposition 3.27) un cardinal
m tel que 1 + m = n. Mais 1 + m entier ::::} m entier, (Proposition 3.31),
et l'unicité de m vient de la régularité de 1 pour l'addition : si on avait
n = 1 + m = 1 + m' la proposition 3.9 donnerait m = m'.
Construction des entiers naturels 67

Il reste à justifier l'équivalence des relations (a :i:; m) et (a< n).


Si a < n, a est un entier et il existe b cardinal tel que n = a + b, et
b est un entier car par définition de + il existe une injection de b dans
n = card(a x {O} U b x {1}), donc b :i:; n.
De plus b -:f. 0, sinon n = a, contredit a < n, mais alors b est un entier
non nul : il existe un entier c tel que b = c + 1 et aussi un entier m tel
que n = m + 1 d'où :

n=m + 1 =a+ b =(a+ c) + 1.


Comme 1 est régulier pour l'addition (proposition 3.9) on am = a+ c d'où
a :i:; m, (proposition 3.27).
On a justifié (a < n) ===} (a :i:; m).
Réciproquement, si a :i:; m, comme m + 1 = n on a m :i:; n d'où par
transitivité de «l'ordre entre cardinaux», a :i:; n. L'égalité a = n = m + 1
est exclue puisqu'elle impliquerait a ;::: m, d'où a = m, (antisym.étrie),
mais m = m + 1 est exclu puisque m est un entier.
Donc on a bien a< net l'équivalence (a< n) <=? (a :i:; n - 1).

8.88. Remarque. Il résulte de ce qui précéde qu'entre n et n - 1 il n'y a
pas de cardinaux.

DÉFINITION 3.34. - On appelle ensemble fini tout ensemble de cardinal un


entier naturel.

COROLLAIRE 3.35. - Toute partie d'un ensemble fini est finie.


Car si X est fini, de cardinal a, et si Y C X, il y a une injection de
Y dans X, y~ y tout simplement et b = card(Y) :i:; a= card(X) d'où b
entier naturel. •

COROLLAIRE 3.36. - Si X est une partie finie d'un ensemble fini E, avec
X -:f. E, on a card(X) < card(E).

Ce ne sera pas le cas des ensembles «infinis», 2 · 1\1 est équipotent à


1\1 avec 2 · 1\1 C 1\1, voir en 3.43 l'introduction de 1\1.
=J
Soit a E E-X, non vide car XC E, et X'= E- {a}. On a XC X'
=J
et E = X' U {a}, avec X' n {a} = 0 d'où card(E) = card(X') + 1,
(proposition 3.7), donc card(X') < card(E), d'après la proposition 3.32
68 Algèbre

appliquée avec a= m = card(X'), n = m + 1 = card(E) et m:::;; m <=?


m < n. Comme XC X', on a donc
card(X) :::;; card(X') < card(E) d'où card(X) < card(E). •

3.37. La récurrence

PROPOSITION 3.38. - Sùpposons qu'une propriété P, dépendant de n, entier


soit telle que : P(O) vraie et (P(n) vraie ::::} P(n + 1) vraie). Alors P(k)
est vraie pour tout entier k.

En effet, dans le cas contraire, il existe des entiers ni tels que P(ni)
soit faux.
Les entiers n ::::; ni forment un ensemble, comme on l'a vu en 3.29.
Donc les n :::;; ni, tels que P(n) soit fausse forment un ensemble E, de
cardinaux; E est non vide totalement ordonné, (proposition 3.24), donc il
admet un plus petit élément, no et no# 0 puisque P(O) vraie, et no E E
donc P(no) est fausse.
Mais alors, (Proposition 3.32) il existe un unique n 0 tel que no =
0 0 0)
n + 1, on a n < no et pourtant P(n fausse sinon P(n + 1) serait 0
0
vraie d'après l'hypothèse de récurrence. On aurait donc n E E et n < no0
avec no plus petit élément de E: c'est absurde. Donc il n'existe pas d'entier
ni tel que P(ni) soit fausse, autrement dit, pour tout entier n, P(n) est
vr~. •

On utilise souvent sous le nom de «principe de récurrence » divers


critères qui se déduisent du précédent.

CRITÈRE 3.39. - Soit une propriété P dépendant de l'entier n, telle que


P(O) est vraie et
si pour tout entier k:::;; n, P(k) est vraie alors P(n + 1) est vraie.
On conclut que P(k) est vraie pour tout entier k.

Il suffit d'introduire la propriété R définie par :

(R(n) vraie) <=? (\ientier k, k:::;; n, P(k) est vraie).

On a bien R(O) vraie, et si R(n) vraie, alors R(n + 1) vraie d'après


l'hypothèse. Donc (Proposition 3.38), R(k) est vraie, pour tout entier k,
donc P(k) aussi. •

CRITÈRE 3.40. - Récurrence à partir de l'entier k.


Construction des entiers naturels 69

Supposons qu'une propriété P dépendant d'un entier n soit telle que :


P(k) vraie et
Vn ~ k, P(n) vraie ::::} P(n + 1) vraie.
Alors P(n) est vraie pour tout entier n ~ k.

On définit R par

R(n) vraie{::::::::} ((n entier~ k) ===} P(n) vraie).


On a R(O) vraie car soit k = 0, et alors 0 ~ 0 et P(O) vraie; soit k > 0
et comme 0 n'est pas un entier~ k on n'a rien à vérifier, c'est vérifié.
Puis R(n) vraie ::::} R(n + 1) vraie car, soit n + 1 < k et il n'y a
rien à vérifier; soit n + 1 = k et P(k) est vraie, soit ici P(n + 1) vraie;
enfin si n + 1 > k, alors n ~ k, (Proposition 3.32), et c'est l'hypothèse de
récurrence qui donne P(n) vraie et n ~ k d'où P(n + 1) vraie.
La Proposition 3.38 s'applique à R qui est vraie pour tout n : c'est bien
dire que Vn ~ k, P(n) est vraie. •

PROPOSITION 3.41. - Un cardinal n est un entier si et seulement si il est


régulier pour l'addition.

On considère la relation R : R( n) vraie signifie n régulier pour


l'addition. On suppose ici que les n sont des entiers, mais l'addition est
prise pour les cardinaux.
On a R(O) vraie, car a+ 0 =a, (Proposition 3.8), donc a+ 0 = b + 0
équivaut à a = b.
Si R( n) est vraie et si a et b sont des cardinaux tels que a+ (n + 1) =
b + (n + 1), c'est encore (a+ n) + 1 = (b + n) + 1, (associativité de +
entre cardinaux, vue Proposition 3.8). Or 1 aussi est régulier (Proposition
3.9), donc a+n = b+n, et R(n) vraie::::} a= b d'où finalement R(n+ 1)
vraie. Par récurrence on a donc justifié que tous les entiers sont réguliers

.
pour l'addition.
Ce sont les seuls cardinaux réguliers car a non entier par définition
vérifie a = a + 1 soit a + 0 = a + 1 : si a était régulier on aurait 0 = 1 ce
~~~

Remarque. On ne sait pas pour l'instant s'il y a des cardinaux non entiers :
leur existence est du domaine de l'axiome.
70 Algèbre

3.42. Axiome de l'infini. Il existe des ensembles infinis.

C'est-à-dire il existe des ensembles X tels que card(X) soit non


entier. Il est à présumer que cet axiome est indépendant des autres déjà
introduits dans la théorie, mais ce n'est pas prouvé.

PROPOSITION 3.42.bis - La proposition : «les entiers naturels forment un


ensemble » est équivalente à « il existe un ensemble infini ».

En effet soit a un cardinal infini, dont on suppose l'existence, et n


un entier naturel. On sait que les cardinaux sont comparables, (propriété
3.24), mais a :::;; n est exclu, sinon a serait un entier, (propriété 3.32). On
a donc n < a pour tout entier n : les entiers n étant mis en bijection avec
des parties de l'ensemble a constituent un ensemble, en bijection avec un
sous-ensemble de P(a), ensemble des parties de a.
Inversement, si les entiers naturels forment un ensemble E, cet
ensemble est infini car, nous allons voir en 3.44 que pour tout entier
naturel n, le segment [0, n] = {X; X entier, 0 :::;; X :::;; n} est de cardinal
n + 1. On a donc
card(E) ;;>: card([O, n]) = n +1 > n
donc card(E) n'est pas entier car si on avait card(E) no entier,
comment concilier avec card(E) >no?

3.43. On désigne par N l'ensemble ces entiers, dont l'existence est axioma-
tique, on note No, (alepho) son cardinal.

Justifions le résultat introduit, ou, plus généralement le résultat


suivant:

PROPOSITION 3.44. - Si a et b soit deux entiers naturels tels que a ::=;; b, le


segment [a, b] = {n; n entier naturel; a ::=;; n :::;; b} est un ensemble fini de
cardinal (b - a)+ 1.

Rappelons que a :::;; b {::::::::} :le cardinal tel que b = a + c, (Proposition


3.27). Si de plus a et b sont des entiers, c est unique car b = a+ c = a+ d
avec a entier donc régulier pour l'addition donne c = d; et c est entier,
car à son tour c:::;; b : il est majoré par b entier, c'est un entier d'après la
Proposition 3.32. Enfin on a vu en 3.27 que c est noté b - a.
Construction des entiers naturels 71

Justification par récurrence à partir de a, de la proposition 3.44


On introduit donc la propriété P(n) suivante : « n est un entier
supérieur ou égal à a et [a, n] est de cardinal (n - a)+ 1. »
Pour n =a, [a, a] = {x entier, a::;; x::;; a}= {a} par antisymétrie de
l'ordre entre entiers, or a - a = 0, (le seul entier c tel que a = a+ c est 0
car les entiers sont réguliers pour l'addition et on a a+O = a+c::::} 0 = c),
donc a - a+ 1=1 : P(a) vraie.
On suppose P(n) vraie, et on considère P(n + 1). Onan ~ a, donc
comme n+ 1 > n, on a: n+ 1 ~a. Puis, pour x entier, soit x E [a,n+ l],
on a a::;; x::;; n + 1. Mais alors on a soit x = n + 1, soit x < n + 1, ce qui
équivaut à x ::;; n (Proposition 3.32). D'où

[a,n + 1] = [a,n] U {n + 1}
d'où, comme ces deux ensembles sont disjoints, (ensembles car l'un est un
singleton et l'autre une partie de l'ensemble des cardinaux::;; n, n'oublions
pas que la relation x ::;; b est collectivisante en x, si b est un cardinal), on
a:

card([a, n + 1]) = card([a, n]) + 1 = ((n - a)+ 1) + 1.


Par ailleurs, (n + 1) - a est l'unique cardinal d tel que n + 1 = a + d et
n - a est l'unique cardinal c tel que n = a + c. Il en résulte que :
n + 1 =(a+ c) + 1=a+(c+1) d'où d = c + 1.
Mais alors,

(n - a)+ 1 = c + 1 = d = (n + 1) - a
et card([a, n + 1]) = ((n + 1) - a)+ 1
la propriété P(n + 1) est vraie.

Attention, à ce stade du jeux, les propriétés de la soustraction ne sont
pas connues.

COROLLAIRE 3.45. - Toute partie non vide, majorée, de N, admet un plus


grand élément.

Soient en effet A non vide, formée d'entiers, et majorée par l'entier n.


On a AC [O, n], segment ayant un nombre fini d'élément, (n + 1). De
plus A est totalement ordonné, par l'ordre entre cardinaux qui est un bon
ordre, donc total. Les éléments de A, en nombre fini, étant comparables,
l'un est supérieur à tous les autres.
72 Algèbre

PROPOSITION 3.46. - Soit I un ensemble fini d'indices et (ai)iEI une


famille d'entiers indexée par I. Les cardinaux Lai et II
ai sont entiers.
iE/ iEJ

Les opérations somme et produit de cardinaux ont été définies, et on


a justifié l'associativité de ces opérations, ce qui permet, par «récurrence
sur n = card I » de définir L II
ai et ai.
iE/ iEJ
On justifie cette proposition par récurrence sur n = card I, à partir
de 2.
Cas de la somme. On note S (n) la propriété : « si card I = n, la somme
des entiers (ai)iE/ est un entier.»
On a S(2) vraie. Il faut prouver que si a et b sont entiers, a+ ben est
un. Pour cela, on introduit la propriété 'R( n) suivante : « pour tout entier
a, a+ n est un entier».
'R(O) est vraie car, V entier a, a+ 0 =a est bien entier.
Si 'R( n) vraie, soit a entier quelconque a + n est donc un entier, la
Proposition 3.31 implique alors que (a+ n) + 1 est aussi un entier (ou
cardinal fini) soit, (associativité de+), a+ (n+ 1) est entier: on a 'R(n+ 1)
vraie.
Par récurrence, 'R(n) est vraie pour tout entier n, d'où S(2) vraie.
On suppose S(n) vraie avec n;;:,: 2.
Soit I un ensemble d'indices de cardinal n+ 1, I est non vide, si k E J,
J = I - { k} est de cardinal n. On a alors, (associativité et commutativité
de l'addition) :

est entier comme somme de 2 entiers, car S(2) vraie et Lai entier
iEJ
d'après l'hypothèse de récurrence.
Finalement S(n) est vraie pour tout n, puisqu'on vient de justifier
S(n + 1) vraie.
Pour le produit on note P(n) : «le produit des (ai)iEJ avec card I = n,
les ai entiers, est un entier. »
On justifie P(2) vraie. Il faut montrer que a et b entier::::} ab entier.
On procède par récurrence sur b en introduisant la propriété S(n);
« pour tout entier a, an est un entier. »
Si b = 0, aO = 0 ei;;t entier donc S(O) vraie.
Construction des entiers naturels 73

Si S(n) vraie, comme pour tout cardinal a,

a· (n + 1) =an+ al, (distributivité, proposition 3.14)

avec 1 élément neutre pour le produit (proposition 3.14 également), il vient


a( n + 1) = an + a.
Donc si a est entier, la somme an + a est un entier, (an entier par
hypothèse de récurrence). D'où, Va entier, a(n + 1) entier, soit S(n + 1)
vraie.
On a donc P(2) vraie.
On suppose P(n) vraie pour n ~ 2.
Si I est un ensemble d'indices de cardinal n + 1, I est non vide, si
k E I, J = I - {k} est de cardinal n. On a, comme précédemment,

qui est entier comme produit de 2 entiers car P(2) est vraie et II aj est
. iEJ
entier par hypothèse de récurrence. D'où P(n + 1) vraie.
On a bien prouvé que les entiers naturels s'additionnent et se multi-
plient entre eux : leur ensemble N est stable par + et x. •

On verra au chapitre suivant que (N, +) est un demi-groupe dont le


symétrisé sera le groupe 7L des entiers relatifs; et qu'à partir de 71., par un
procédé analogue, on construira le corps Q des rationnels.

5. Une infinité d'infinis !

En fait, on a admis (axiome de l'infini) l'existence de N, de cardinal


infini, (~o) mais de ce fait, on en a ... beaucoup d'autres.

PROPOSITION 3.47. - Soit X un ensemble, on a toujours card(P(X))


> card(X).
Si X = 0, c'est 1 > 0, au plutôt,~ bijection de 0 sur P(0) qui a un
élément.
Sinon, si X est non vide, x ~ {x} est une injection de X dans
P(X), d'où card P(X) ~ card(X), et on va justifier qu'il n'existe pas de
surjection de X sur P(X), donc pas de bijection a fortiori, d'où card(X) =/:-
74 Algèbre

card(P(X)) et comme les cardinaux sont comparables, (propriété 3.24),


on aura l'inégalité stricte. Soit donc f une application de X dans P(X),
on va prouver que f n'est pas surjective.
Soit A = {a;a E X;a fJ f(a)}. Six E A, vu la définition de A,
x ~ f (x ), donc f (x) =/:- A puisque x E A; mais si x ~ A, la définition de
l'appartenance à A n'étant pas vérifiée, x E f(x), et là encore f(x) =/:-A
car x ~ A. Dans les 2 cas f(x) =/:- A, donc la partie A de X n'a pas
d'antécédent par f: il n'existe pas de surjection de X sur P(X). •

CONSÉQUENCE. - card(P(N)) > card(N). L'ensemble P(N) a donc un


cardinal infini strictement supérieur à celui de N. Ce cardinal, noté Ni
est le cardinal de IR, corps des réels, ce qui ne peut être justifié qu'après
la construction des réels.
L'hypothèse du contenu, c'est la proposition affirmant:« il n'existe pas
d'ensemble de cardinal strictement compris entre No et Ni». Cantor (1845-
1918) qui a beaucoup travaillé sur les cardinaux avait conjecturé que
cette affirmation est vraie. Cohen, mathématicien américain, a démontré
en 1963 son indécidabilité compte tenu des axiomes de la théorie des
ensembles.
L'hypothèse du continu généralisée, c'est celle qui affirme qu'il n'existe
pas d'ensemble de cardinal strictement compris entre card(X) et
card(P(X)) si X est un ensemble infini, et là... mystère. A vous lecteur
de vous mettre au travail...

PROPRIÉTÉ 3.48. - L'ensemble N x N est équipotent à N.


Un schéma vaut un long discours :

0 1 2 n
N

0 (0, 0) (0, 1) (0,2) (0, n)


1 (1, 0) (1, 1) (1, n - 1)
2 (2,0) (2, n - 2)

(n- 2,2)
(n - 1, 1)
n (n, 0)

il y a 1 couple (u, v) avec u + v = 0: c'est (0, 0);


Construction des entiers naturels 75

il y a 2 couples (u, v) avec u + v = 1, ((0, 1) et (1, 0));


il y an couples (u, v) avec u+v = n- l, obtenue pour u = 0, 1, ... , n-1.
Si on les numérote, en faisant un groupement par tranche avec u+v =
n, n croissant, et u croissant dans chaque tranche, on pose cp( (0, 0)) = 0;
cp( (0, 1)) = 1; cp((l, 0)) = 2; quand on passe à la tranche u + v = n, il y
a déjà en 1 + 2 + ... + n = n( n + 1) couples, le dernier ayant le numéro
2
n(n + 1)
2 - 1, donc en posant

n(n + 1)
cp((k,n-k))= 2 +k, pourk=O,l, ... ,n

on définit une injection de N x N dans N, car si (u, v) et (u', v') sont 2


côuples avec u + v = u' + v' = n, s'ils sont distincts, u # u', par exemple
u < u' etcp((u,n-u)) = n(n 2+ 1) +u < n(n 2+ 1) +u' = cp((u',n-u'));
alors que sin= (u + v) # n' = (u' + v'), (n < n' par exemple), on a

~ (n + l)(n + 2) _ 1 (n + l)(n + 2)
cp (( u, V )) .._, 2 < 2
n'(n' + 1)
-.~.;:: 2 carn+l~n'
"<:

1 ')) >- n'(n' + 1)


et cp (( U,V r 2
on a bien cp((u,v) < cp((u',v')).

On a donc card(N x N) :::; card(N); or n ~ (n, 0) est une injection


de N dans N 2 , donc card(N) :::; card(N x N) et finalement on a bien
card(N) = card(N x N). •

PROPOSITION 3.49. -Tout ensemble infini E contient un ensemble équipo-


tent à N.

Soit E infini. On peut le munir d'un bon ordre, (axiome de Zermelo,


voir 2.44). Un segment de N, distinct de N est de la forme Sa = { x, x E
N, x <a}, (Proposition 3.17), mais x <a~ x:::; a-1 et Sa= [O,a-1]
est de cardinal a, d'après 3.32 et 3.44. Il en résulte qu'un segment de N,
distinct de N est de cardinal fini.
Or E et N étant bien ordonnés, on a (d'après 3.20) soit un isomor-
phisme de E sur un segment de N, soit un de N sur un segment de E.
Dans le 1er cas, le segment de N en bijection avec E est de cardinal infini
76 Algèbre

comme E, ce n'est pas un segment distinct de N, c'est donc N qui est alors
en bijection avec E; dans le 2e cas l'isomorphisme de N sur un segment
de E est une bijection de N sur une partie de E dans les deux cas on a
une bijection de N sur une partie de E.
Donc No = card(N) :::; card(E) pour tout ensemble E de cardinal
infini : No est le « plus petit infini. » •

PROPOSITION 3.50. - Soit a un cardinal infini, on a a 2 =a, ou encore si


E est un ensemble de cardinal a, on a E x E équipotent à E.

Comme a =/:- 0, (n'oublions pas qu'un cardinal est un ensemble), soit


xo dans a, l'application x ~ (x, xo) est une injection de a dans a x a
donc a = card(a) :::; card(a x a) d'après la définition de «l'ordre» et du
produit de cardinaux, (voir 3.23 et 3.12).
Soit E un ensemble équipotent à a. D'après la proposition 3.49, il
existe D partie de E équipotente à N, puis une bijection Wo de D sur
D x D (propriété 3.48).
On considère l'ensemble M des couples (X, w) où X est une partie
de E contenant D et W une bijection de X sur X x X prolongeant Wo,
c'est-à-dire telle que, \:Id ED c X, w(d) = Wo(d).
Vidée est de démontrer que dans M existe un couple associé à un
ensemble équipotent à E. Intuitivement on le veut le plus grand possible
d'où un recours à Zorn.
D'abord M est bien un ensemble, associé à des parties de E, donc
des éléments d'un ensemble, et des bijections, elles-mêmes élément d'un
ensemble. Il est non vide car ( D, Wo) E M.
On ordonne M par :

((X, \li) :::; (X', w')) {::::::::}((X c X') et (w' prolonge \li)).
Il est facile de vérifier que l'on a une relation d'ordre (i.e. réflexive,
antisymétique et transitive). M est inductif pour cet ordre, (voir 2.41).
Nous devons justifier que, si C est une partie de M totalement
ordonnée (ou chaine), il existe dans M, un majorant de cette partie.
Notons, par commodité, C = (Xi, Wi)iEI cette chaîne de M. On pose
X = u
iEl
xi et on veut définir une bijection de X sur X X X.

Soit donc X. E X, si i et i' de I sont tels que X E xi et X E xi'·


comme les couples (Xi, Wi) et (Xi'' Wi') sont comparables, par exemple
(Xi'' wi') :::; (Xi, Wï) mais alors wi'(x) = wi(x).
On posera donc w(x) =la valeur commune de Wi(x), pour i E I tel
que XE Xi.
Construction des entiers naturels 77

w est injective : si X et x' de X sont tels que w(x) = w(x'), avec i et


i' de I tels que X E xi et x' E xi' et par le raisonnement précédent,
si par exemple (Xi, wi) ~ (Xi'' wi' ), (il faut bien changer de temps en
temps), X et x' sont tous deux dans xi'• et on aura w(x) = Wi1(x) et
w(x') = Wi1(x'). Comme wi' est injective il en résulte que X= x'.
West surjective: cette fois on part de (x,x') EX x X, de i,i' de I tels
que x E Xi et x 1 E Xi'. Toujours par un raisonnement analogue, on a
pour exemple X ·et x' dans xi, mais alors (x, x') E xi X xi= Wi(Xi) car
Wi est bijective, donc il existe y E Xi tel que wi(Y) = (x, x') = W(y) par
définition de W.
Enfin, on a bien, \fi E I: Xi C X et W prolonge wi par construction
de w.
Donc (X, w) est un élément de M qui majore la chaîne C. Mais alors,
M étant inductif, par l'axiome de Zorn il existe dans M un élément
maximal (F, !). On a va prouver que card(F) =a alors Fx F, en bijection
avec F par f, sera de cardinal a x a = a.
Posons b = card F, comme (F, f) E M, par définition de M, f est une
bijection de F sur F x F, donc les cardinaux de F et F x F sont égaux:
on a déjà b = b2 . Puis F contient D équipotent à N, (voir définition de
M) donc b est infini.
Pour tout cardinal x, on a x ~ x + x, (si x = 0, c'est 0 = 0, sinon,
x étant un ensemble, l'application t ~ (t, 0) est une injection de x dans
(xx {O} )U(xx {1} ). d'où, en passant aux cardinaux, et d'après la définition
de l'addition, x ~ x + x).
A son tour x + x ~ x + x + x d'où en fait x ~ 2x ~ 3x, car on peut
remarquer que (x x {O}) U (x x {1}) = x x {O, 1} de cardinal x · 2 ou
2 · x, d'après la définition du produit des cardinaux.
De même, il y a une injection de l'ensemble à 3 éléments {O, 1, (0, 1)}
par exemple, ou de {O, 1, 2} dans Net une de N dans b d'où une injection
de {O, 1, 2} x b dans N x b et une de N x b dans b x b ce qui justifie les
inégalités

b ~ 2b ~ 3b ~ Nob ~ b2 avec b2 = b,
on a donc:

3.51. b = 2b= 3b, avec b cardinal infini.


On suppose b < a, si on avait card(E- F) ~ b, on aurait une injection
de F dans b x {O}, notée x ~ j(x), une de E - F dans b x {1}, notée
y~ k(y), donc en posant pour x E E, l(x) = j(x) six E F, l(x) = k(x)
six E E - F, on définirait une injection de E dans b x {O} U b x {1} d'où

a= card(E) ~ b + b = 2b = b, soit a~ b
78 Algèbre

ce qui contredit l'hypothèse b <a. Donc card(E - F) > b: il existe une


partie Y telle que Y C (E - F) et card(Y) = b = card F, soit Y et F
équipotentes.
Soit Z = F U Y, on va construire une bijection g de Z sur Z x Z
qui prolongera f: alors dans M, on aura (Z,g) qui majorera strictement
l'élément maximal (F, f) : ce sera absurde. Donc l'hypothèse b < a sera
fausse.
On aura b ;;::: a, avec F c E d'où b = cardF ~ a = cardE et
finalement a = b.

Construction de g : comme F et Y sont disjointes on a


z X z = (F X F) u (F X Y) u (Y X F) u (Y X Y),
union de 4 ensembles disjoints, tous équipotents à F x F de cardinal
b2 = b. En particulier on a :
card[(F x Y) U (Y x F) U (Y x Y)]= 3b = b
donc il y a une bijection fi de Y sur (F x Y) U (Y x F) U (Y x Y), ces 2
ensembles, de cardinal b, étant équipotents.
Puis F et F x F aussi sont de cardinal b, donc il y a une bijection h
de F sur F x F. En définissant g : Z ~ Z X Z, avec Z =FU Y, par
g(x) = fi(x) six E Y et g(x) = h(x) six E F, il est facile de vérifier
que l'on a une bijection g de Z sur Z x Z. •

En conclusion, on a justifié l'égalité b =a= card(F). Comme Fest en


bijection avec F x F, (car (F, f) E M), c'est finalement l'égalité a = a2
qui est obtenue.
On peut en déduire :

PROPOSITION 3.52. - Soient a et b deux cardinaux non nuls, l'un au moins


étant infini. On a a + b = ab = sup( a, b).

Ce résultat servira, au chapitre 6, pour justifier que les bases d'un


espace vectoriel sont équipotentes.
Supposons b ~ a, (les cardinaux sont comparables), donc sup( a, b) =
a, avec a infini.
Il existe donc une injection, j, de b dans a. On en construit une, notée
g, de b x {O} U a x {1} dans a x {O} U a x {1} en posant:

V'(x,O) E b x {O}, g((x,O)) = (j(x),O))


V'(x, 1) E a x {1}, g((x, 1)) = (x, 1).
Construction des entiers naturels 79

On vérifie facilement l'injectivité de g d'où l'inégalité.

b +a~ a+ a= 2 ·a= a, ((formule 3.51).

Comme x ~ (x, 0) est une injection de a dans a x {O} U b x {1} on a


aussi a~ b +a, d'où l'égalité a+ b =a= sup(a, b).
Pour le produit, toujours avec j injection de b dans a, l'application h
de b x a dans axa définie par h(x, y) = (j(x), y)) est une injection, d'où,
en passant aux cardinaux

ba ~ a · a = a 2 = a, (Proposition 3.50).

Comme b est non vide, en fixant Yo dans b, l'application

de a dans b x a est une injection d'où a ~ ba. On obtient bien l'égalité des
cardinaux ba =a= sup(a, b). •

EXERCICES

1. Soit n E N*, N le nombre de diviseurs de n, P le produit de ces


diviseurs, donner une relation entre n, Net P.

2. Soit pi, ... ,pk, ... la suite des nombres premiers consécutifs. Mon-
trer que la suite (Pk) kEN est infinie. La suite uk = Pk -Pk- l est-elle
bornée?

3. Sin est entier impair, prouver que 24 divise n(n 2 - 1).

4. Trouver, en base 10, le nombre de zéros terminant l'écriture décimale


de 1992!

5. Soit n un entier naturel impair non multiple de 5. Montrer qu'il


existe un multiple den, qui s'écrit uniquement avec des 1 en base
10.

6. Soit p premier, p ~ 3, et a E N. Montrer que


80 Algèbre

7. Soit A un ensemble fini de cardinal m ~ 2. Soit U1, ... , Un, n


parties non vides de A, deux à deux distinctes et telles qu'il existe
a~ 0 vérifiant:

\if( i, j) E [1, n] 2 , i '# j ===} card(Ui n Uj) = a.


Montrer que n ~ m.

8. Soit f une application de N* dans IR, strictement croissante et telle


que, pour tout couple (m, n) d'entiers non nuls, premiers entre eux,
f(mn) = f(m) + f(n).
Montrer qu'il existe un réel c > 0 tel que, \fn E N*, f (n) = cln n.

9. Montrer que 1 +
1
"2 + ... + n1 n'est jamais un entier, pour n E N,
n ~ 2.

10. Un entier congru à 7 modulo 8 peut-il être somme de trois carrés?

SOLUTIONS

1. Si E est l'ensemble des diviseurs de n, 'Vp E E, il existe q E E tel que


pq = n, ce q unique, (régularité du produit par des entiers non nuls), donc
p ""+ cr(p) = q = ?!'..est une bijection de E sur lui-même.
p
On a donc II p · cr(p) = nN = P 2 d'où l'égalité nN = P 2.
pEE

2. Soit P l'ensemble des nombres premiers. S'il est fini, on les indexe en
croissant: P = {p1,p2, ... ,pn}.
Soit N = PIP2 ... Pn + 1. On a N > Pn donc N n'est pas premier, mais
alors c'est un produit de nombres premiers qui sont dans P donc il existe
Pi E P qui divise N d'où Pi divise 1 : absurde.
Soit ensuite (n + 1)! + 2, (n + 1)! + 3, .. ., (n + 1)! + n + 1. Onan entiers
consécutifs non premiers, car pour 2 ~ i ~ n + 1, (n + 1)! + i est divisible
pari et non égal à i.
Si Pk = sup{nombres premiers< (n + 1)! + 2}
et Pk+I = inf{nombres premiers> (n + 1)! + (n + 1)}

on a uk+l = Pk+I - Pk > n: la suite (ukhe...i est non bornée

3. On a n(n2 - 1) = (n - l)n(n + 1) avec n = 2p + 1. Parmi les 3 entiers


consécutifs n-1, net n + 1 l'un est divisible par 3, puis (n - l)n(n + 1) =
Construction des entiers naturels 81

2p(2p + 1)(2p + 2) = 4p(p + 1)(2p + 1) et p(p + 1) est divisible par 2,


d'où 4p(p + 1)(2p + 1) divisible par 8 et finalement n(n 2 - 1) divisible par
3 X 8 = 24.
4. Il suffit de connaître l'exposant de 2 et de 5 dans la décomposition en facteurs
premiers de (1992)!
Soit Pl le plus grand entier tel que 5p1 ~ 1992 : on a 1992 = 398 x 5 + 2 :
donc Pl = 398. On note de même P2 le plus grand entier tel que 25p2 ~
1992, ... , et Pk le plus grand entier tel que 5kPk ~ 1992.
On a 1992 = 398 X 5 + 2 = 79 X 25 + 17 = 15 X 125 + 117
= 3 X 625 + 117,

donc Pl = 398, P2 = 79, p3 = 15, p4 = 3, et Pk = 0 si k ~ 5.


Il y a donc p4 multiples de 625 inférieurs à 1992, puis p3 - p4 multiples de
125 qui ne sont pas en même temps multiples de 625 ; P2 - p3 multiples de
25 sans être multiples de 125, et Pl - P2 multiples de 5 non multiples de de
25.
L'exposant de 5 sera donc l(p1 - P2) + 2(p2 - p3) + 3(p3 - p4) + 4p4 soit
Pl + P2 + P3 + P4 = 495.
Comme 2 intervient «plus souvent » l'exposant de 10 dans l'écriture décimale
de 1992! sera 495 : Il y a 495 zéros.

5. Si a = 1 ... 1, (entier ne s'écrivant qu'avec le chiffre 1 en base 10) est


multiple de n, alors 9a = 99 ... 9 est multiple de 9n. Mais si a s'écrit
avec q chiffres 9a = lOq - 1. Par ailleurs, comme 9n est impair, (comme
n) il n'est pas divisible par 2, ni par 5, (n non multiple de 5) donc 9n
et 10 sont premiers entre eux. Par Bezout, il existe (u, v) E z2 tel que
9nu + lOv = 1, donc lOv =
1(9n). Donc 10 admet un inverse dans
l'anneau Z/9nZ, et ÎO engendre un sous-groupe multiplicatif fini du groupe
des éléments inversibles de Z/9nZ : il existe q entier tel que lOq = 1 dans
=
Z/9nZ soit 3q EN, lOq 1(9n), donc 3a E Z tel que lOq = 9na + 1, d'où
9na = lOq - 1, soit 9na = 99 ... 9, (q chiffres) et na = 1 ... 1 : on a un
multiple de na ne s'écrivant qu'avec des 1.

6. On procède par récurrence sur a.


p
si a= 1, (1+p)P=1 +P. P + L c;pk.
k=2
k
Comme les C p = p(p - 1) ... (p - k
k!
+ 1) sont divisibles par p pour k
>-:
7 2,
et pk par p 2 ' la somme des c;pk' pour k ~ 2 est divisible par p 3 d'où
(1 + p)P:::: 1 + p2(p3).
On suppose le résultat vrai jusqu'à l'ordre a : on a donc

(1 + p)P'°'· = 1 + pa+l + kpo.+ 2 avec k EN.


a+l <>
On en déduit (1 + p)P = ((1 + p)P )P
82 Algèbre

= (l + pa+l + kpa+2)p
= l + p(pa+l + kpa+2)
p
+ L:: c;(p0t.+l + kpa+2t. ,
r=2

r
Pour r ~ 2, c; est divisible par p, (pa+l +kpa+ 2 par p 2a+ 2 donc chaque
r
c; (pa+l + kpa+ 2 par p 2a+ 3 , et a fortiori par pa+ 3 . On a donc

(1 + p )Pa+l = 1 + pa+ 2 + kpa+ 3 +multiple de pa+ 3 ,

d'où

c'est le résultat à l'ordre a + 1.


7. Soit Ci = card(Ui)· On note x1, ... , Xm les éléments de A et on introduit
la matrice tri, T = (tij) 1,.;i,.;n avec tij = 1 si Xj E ui, 0 sinon.
l:s:;j:!6;m.
n
La matrice rtr a pour terme général Uij = L tiktjk· Or tiktjk = 1 si et
k=l
seulement si tik = 1 et tjk = 1, soit si et seulement si xk E Ui n Uj ce qui
a lieu exactement pour a indices, et ceci pour tout (i, j) avec i =I= j. Donc
Uij = a pour i =I= j.
Par contre, si i = j, (tik) 2 = 1 lorsque Xk E Ui, donc pour Ci valeurs de k.
La matrice carrée d'ordre n, symétrique, T est donc tr

T'T~ (: : : .. : l} -
TtT = diag(c1 - a, c2 - a, ... , Cn - a)+
( ~ . ~a ~a:)
et avec le vecteur colonne Y des Yi, i = 1, ... , n, on a
n
tY(TtT)Y = L(Ci - a)yf + a(y1 + Y2 + · · · + Yn) 2.
i=l

Comme les Ci - a sont~ 0, on a tY(TtT)Y ~ 0 pour tout Y.


Construction des entiers naturels 83

n
Si a= 0, il reste tY(TtT)Y = LCiYT, si c'est nul c'est que chaque Yi
i=l
est nul, (on a les Ci ;;:: 1). Si a =/= 0, on ne peut pas avoir Ci = a = Cj pour
i =/= j car alors cardUi = card(Ui n Uj) = cardUj d'où [/i = Uj. ce qui
est exclu. Donc
tY(TtT)Y = 0 {::::::::} Yl + Y2 + ... + Yn = 0

avec n - 1 des Yi nuls, ils sont tous nuls.


Mais alors la forme quadratique de matrice symétrique T tT est défi-
nie positive, (voir Ch. XI) : la matrice est de rang n. Ce rang est aussi
dim(T(tT(Rn))), car tT est linéaire de Rn dans Rm, donc tT(Rn) est de di-
mension inférieure à m, son image par T et a fortiori de dimension inférieure
à m, donc n ~ m.

8. Avec m = n = 1, le pgcd de met n est 1, donc


f(l · 1) = 2f(l) d'où f(l) =O.
On va prouver que, pour tout couple d'entiers non nuls, on a f(mn)
f(m) + f(n).
Pour cela soit p un nombre premier, c une constante réelle > 0, et L =
inf{f(p + x) - f(x); x E N, x ;;:: c, x non multiple de p}. Comme f
est croissante, L existe et on a L ;;:: O. Soit x ;;:: x, x E N. Si p ne divise
par x, p ne divise pas non plus x + kp, pour tout k E N*. On a alors
f(x + kp);;:: f(x) + kL, k EN* car, si k = 1, c'est f(p + x) - f(x);;:: L;
et si on suppose la propriété vraie pour k, on aura x + kp E N, x + kp ;;:: c,
d'où f(x + kp + p) - f(x + kp) ;;:: L puisque p ne divise pas x + kp, et
comme f(x + kp) - f(x) ;;:: kL, en ajoutant on obtient bien
f(x + (k + l)p) ;;:: f(x) + (k + l)L.
Soit alors k fixé dans N*, on choisit x entier, x ;;:: kp, tel que x et 2 soient
premiers entre eux ainsi que x et p c'est possible avec x = (2p)n + 1, n
assez grand ... On a alors 2x ;;:: x + kp d'où :
f(2) + f(x) = f(2x) ;;:: f(x + kp) + kL
;;:: f(x)
kL. Ceci étant possible pour tout k, c'est que L = O.
d'où f (2) ;;::
Soit alors p premier, m E N, on a f(pm) = mf(p). On justifie par
récurrence sur m. C'est vrai si m = 0 ou 1.
Soit x entier non divisible par p, comme px - 1 < px < px + 1, on a
pm-l(px - 1) < pmx < pm-l(px + 1), et px - 1 et px+ 1 étant
premiers avec pm, en prenant les images par f croissante strictement, et
en appliquant sa propriété on a

f(pm-l) + f(px - 1) < f(pm) + f(x) < f(pm-l) + f(px + 1).


donc
f(pm) - f(pm-l) < f(px + 1) - f(x) < f(px + p2 ) - f(x)
84 Algèbre

(f croissante), or px+ p 2 = p(x + p) avec pet x + p premiers entre eux


donc
f(pm) - f(pm-l) < f(p) + f(p + x) - f(x).

Ceci étant vrai pour tout x entier non divisible par p, on passe à l'inf, d'où

L'autre inégalité donne f(pm) - f(pm-l) ;:<: f(px -1) - f(x).


Si on impose x ;:<: c = p + 1, on a x > p, donc px > p 2 et px - p 2 E N*, on
peut considérer f(px - p 2 ) < f(px - 1) d'où l'inégalité

f(p(x - p)) - f(x) < f(pm) - f(pm-l)


soit, comme x est supposé non divisible par p, et x ;:<: c,

f(p) + f(x - p) - f(x) < f(pm) - f(pm-l),


ou encore f(p) < f(p + (x - p)) - f(x - p) + f(pm) - f(pm-l)

et ceci pour tout entier y = x-p, non divisible par p, et supérieur à c-p =1:
on passe à l'inf par rapport à ces y, d'où

On a donc

et si, par hypothèse de récurrence,

f(pm-l) = (m - l)f(p),

on obtient bien finalement l'égalité

.
Sion d'ecompose a1ors un ent•ier a, non nu,
1 en a= p "' 1 °'k , P1, ... ,Pk
1 .. . pk
k
étant premiers, on a facilement f (a) = L f (p~i) puisque les p~i sont
i=l
k
premiers 2 à 2, puis f(a) = L aif(pi); formule à partir de laquelle il est
i=l
facile de justifier que, pour (a, b) E N* 2 ,

f(ab) = f(a) + f(b).


Construction des entiers naturels 85

Soit alors a = {~~ , si a E N*, et si m E N* il existe un seul n dans N tel


que 2n ~am< 2n+l, d'où

nf(2) ~ mf(a) < (n + 1)/(2) soit encore

naln2 ~ mf(a) < (n + l)aln2,


ou, comme /(2) > f(l) = 0
!!'._ ~ f(a) < n+ 1
m"' aln2 m '

ceci étant conséquence de l'inégalité

nln2 ~mina< (n + 1) ln2 ou encore de


n~Ina n+l
m "' ln 2 < ---:;;:- ·

Mais ces deux encadrements impliquent 1 ~i:~ ~:~ - 1 < ! et c'est


valable pour tout m de N*, d'où finalement, (si m --> +oo)
f(a) = alna.

9. Il existe~ pour n E N* donné, un seul q dans N tel que 2q ~ n < 2q+l.


Puis, si un entier j est< 2q, on peut l'écrire de manière unique f = Aj2°'i
avec Aj impair et aj ~ q - 1; puis les j vérifiant 2q < j ~ n s'écrivent -
aussi j = Aj2°'i avec Aj impair et aj ~ q - 1, car on ne peut pas avoir
aj ~ q + 1, (sinon j ~ 2q+l > n), ni aj = q car alors, si Aj = 1 on aurait
j = 2q : c'est exclu, et si Aj ~ 3, j ~ 3 · 2q = 2q+l + 2q > n: c'est exclu.
On considère

Un=
1
1 + -2
1
+-3 + ... + -n
1
= L::-.-
n n!
3n. 1
j=l
n
= ~ '°'n!
1 L., ..
n. J
j=l

On écrit chaque j ~ n sous la forme j = Aj2°'i, Aj impair, et on écrit aussi


n! en n! = A2P avec A impair. On a
m
1 '°' A 2p-a-
un = A·2PL.,}f." J.
j=l J
86 Algèbre

Puis, pour j ~ n, comme j divise n!, c'est que Aj, impair, divise A2P, donc
que Âj divise A; et pour j = 2q, on a A2q = 1, (et a2q = q). On isole ce
terme, d'où

1
Un= A·2P

Onajustifiéque, pour j ~ n, avecj =F 2q, Œj ~ q-1,doncp-aj > p-q:


on peut «simplifier» par 2p-q l'expression de Un qui devient:

1
Un= A2q

Comme :. est entier, que q - Œj ~ 1 pour j =F 2q et que A est


J
n
impair, l'entier L :. 2q-o.j + A est impair, si on le note 2a + 1, on
j=l J
j-#2q

a un = ( 2 ~;q l) avec q ~ 1 car n ~ 2, (j'ai bien cru ne pas utiliser cette


hypothèse), et 2q ~ n < 2q+l implique bien q ~ 1, mais alors Un n'est pas
entier.

10. Soit n = 8p + 7. Sin= x 2 + y 2 + z 2 , comme n est impair on a 0 ou 2


nombres pairs parmi x, y, z.
1er cas: x = 2q, y= 2r, z = 2s + 1.
on aurait 8p + 7 = 4q2 + 4r 2 + 4s 2 + 4s + 1,
d'où 4(2p+2) = 4(q2 +r2 +s 2 + s) + 2
d'où 2 divisible par 4: c'est absurde.
2e cas : x = 2q + 1, y = 2r + 1, z = 2s + 1,

on aurait 8p + 7 = 4(q2 + q + r 2 + r + s2 + s) + 3
d'où 8p + 4 = 4[q(q + 1) + r(r + 1) + s(s + 1)].

Comme q(q + 1), r(r + 1) et s(s + 1) sont pairs, on aurait 4 divisibles par
8 : c'est absurde. Donc n ne s'écrit pas sous la forme x 2 + y 2 + z 2 .
CHAPITRE 4

Groupes, construction de 1

1. Définitions

DÉFINITION 4.1. - On appelle groupe tout couple (G, *) où G est un


ensemble muni d'une loi de composition interne, notée *, telle que
* est associative,
* admet un élément neutre,
tout élément admet un inverse pour la loi *·

Quelques conséquences de la définition. D'abord on parle le plus


souvent du groupe G, muni de la loi *• sans garder la terminologie de
couple.
Un groupe n'est jamais vide, car il existe dans G au moins l'élément
neutre pour la loi *· De plus un singleton {e} muni de la loi défini par
e * e est un groupe. •

Si e est élément neutre dans un groupe G, il est unique, car si e1 en est


un autre on a

e * e' = e' puisque e est neutre,


mais aussi e * e1 = e puisque e' est neutre.
Donc e = e1•

Dans un groupe, l'équation x * a = b, où a et b sont des éléments du
groupe, x un élément chèrché dans le groupe, a une solution unique, ainsi
que l'équation a * x = b.
Car, si a' est l'inverse de a, alors

x *a= b:::} (x *a)* a' = b *a' soit (associativité)


x *(a* a')= x * e = x = b *a',
88 Algèbre

d'où l'existence d'une solution b * a', et si y en est une autre, l'égalité


x * a = y * a implique, en composant à droite par a' inverse de a que
x *(a* a')= y* (a* a') soit x * e =y* e ou encore x =y. •

De manière analogue, a * x = b ~ x = a' * b, avec a' inverse de a.


Il faut remarquer qu'en général b * a' =/:- a' * b car la loi n'est pas
forcément commutative.
Dans un groupe tout élément m est régulier (à droite et à gauche) pour
la loi de composition, car x * m = y * m implique, en multipliant à droite
par m' inverse de m, que

(x * m) * m' = (y* m) * m' d'où, (associativité de *)


x * (m * m') =y* (m * m') soit encore
x * e =y* e avec e élément neutre de G, donc
x=y

On procède de manière analogue si m * x = m *y en composant à gauche
par m'. On dit en fait que l'on simplifie par m.

4.2. Un exemple important de groupe : le groupe produit. Soit deux


groupes G1 et G2 notés multiplicativement, on vérifie que le produit
cartésien H = G1 x G2 est muni d'une structure de groupe par la loi
* définie par :

Uélément neutre de H est (ei, e2) et l'inverse de (x1, x2) est (x~, x2) avec
x~ et x2 inverses de x1 et x2 dans G1 et G2.

DÉFINITION 4.3. - Un groupe est dit commutatif (ou abélien) si et seulement


si la loi est commutative.

DÉFINITION 4.4. - On appelle sous-groupe d'un groupe G toute partie S


de G qui est stable pour la loi *, et qui est munie par la restriction de * à
S, d'une structure de groupe.
C'est donc une partie S de G telle que:

1) V(x, y) E 8 2 , x *y E S; (stabilité)
2) e ES;
3) Vx E S, x- 1 E S.
Groupes, construction de 7L. 89

Pour la loi * restreinte à S on a bien alors : associativité, existence


d'un élément neutre e dans S et existence dans S d'un inverse de chaque
x de S.

4.5. Critère pratique. Une partie S d'un ~roupe G est un sous-groupe de


G si et seulement si S ":f 0 et, \:/(x, y) E S , x * y- 1 E S.

On note y- 1 l'inverse de y pour la loi *·


En effet, si S est un sous-groupe, comme e ES, S est non vide, puis si
x et y sont dans S, y- 1 est aussi dans S, donc le produit x * y- 1 aussi,
(stabilité pour *).
Réciproquement : si S vérifie les 2 conditions, comme S ":f 0, soit
a E S, alors (a,a) E S 2 ::::} a* a- 1 = e E S, et \:/x E S, comme
(e,x) E S 2 , e * x- 1 = x- 1 E S; enfin S est stable car \:/(x,y) E S 2 ,
(x, y- 1 ) E S 2 aussi donc x * (y- 1 )- 1 = x *y E S. •

THÉORÈME. 4.6. - Une intersection de sous-groupes d'un groupe G est un


sous-groupe de G.

Soit (Si)iEI une famille de sous-groupes de G, (I ":f 0), et S = n


iEI
Si·

On a S ":f 0 car e, élément neutre de G, est dans chaque Si donc dans S,


et \:/(x, y) E S 2 , on a, \:/i E I, (x, y) E S'f avec Si sous-groupe de G, donc
xy- 1 E Si, vrai \:/i E I::::} xy- 1 E S : le critère 4.5 est vérifié. •

Il est à noter que le symbole * de la loi de composition a disparu :


on adopte la notation usuelle d'une loi _multiplicative ce que l'on fera
désormais.
On n'a rien d'analogue pour les réunions.

THÉORÈME 4.7. - Un groupe G n'est jamais réunion de deux sous-groupes


propres, c'est-à-dire ":f G et ":f { e }.

Ce théorème suppose donc qu'on l'applique à Gnon réduit à son seul


élément neutre.
En effet, supposons que G = A U B avec A et B sous-groupes de G
différents de {e} et de G.
On a AC G ===* 3x fj. A, et comme G = AU B, on a x E B
#
puis B c G ===* 3y fj. B, donc y E A.
#
90 Algèbre

Le produit xy E G = A U B, par exemple xy E A, mais alors, comme


y E A, qui est sous-groupe, y-l E A aussi, et A stable pour le produit
=? (xy)y- 1 = x E A : absurde car x </. A par hypothèse. Si on avait
xy E B, comme x E B, x- 1 (xy) =y E B ce qui est absurde aussi.
L'hypothèse faite conduit à une absurdité, d'où le théorème. •

REMARQUE 4.8. - Il en résulte qu'une réunion de 2 sous-groupes propres


A et B de G, distincts, ne peut pas être un sous-groupe H de G, sinon le
théorème appliqué à H serait faux.
Par contre, on verra qu'un groupe peut être réunion de plus de 2 sous-
groupes propres : la situation n'est pas simple.
Le fait que la notion de sous-groupe soit
1) stable par intersection,
2) vérifiée par le groupe lui-même,
va conduire à la notion de sous-groupe engendré par une partie.

DÉFINITION 4.9. - Soit une partie X d'un groupe G. On appelle sous-


groupe engendré par X, le plus petit sous-groupe de G contenant X, plus
petit pour la relation d'ordre « inclusion ».

Cette définition n'aura de sens que si ce plus petit sous-groupe existe,


ce que nous allons justifier.
D'abord, il est clair que G étant un ensemble, P( G) ensemble des
partie de G est ordonné par la relation d'inclusion car c'est
réflexif: Y c Y, 'v'Y E P(G),
antisymétrique : si Y C Z et Z C Y on a Y = Z,
transitü: X C Y et Y C Z =? X C Z.
C'est un ordre partiel, 2 parties ne sont pas forcément comparables
pour l'inclusion.
Soit donc maintenant X une partie du groupe G.
On considère la famille :F des parties S de G telle que :
1) S est un sous-groupe de G,
2) X c S.
D'abord :F n'est pas vide car Gest un sous-groupe de G, qui contient
X. Puis on considère l'intersection de tous les éléments S de :F :
soit X = n
S cette intersection.
SE:F
Groupes, construction de 7!.. 91

En tant qu'intersection de sous-groupes, X est un sous-groupe de G


(Théorème 4.6); comme X C B, pour chaque B de :F, on a encore X C X;
enfin, si Bo est un sous-groupe contenant X, Bo est dans la famille :F,
donc XC Bo, puisque l'intersection de tous les B de Fest contenue dans
chaque partie B dont on prend l'intersection. Il en résulte que X est bien
le plus petit sous-groupe de G contenant X. On a le

THÉORÈME 4.10. - Soit une groupe G. Pour toute partie X de G, il existe


un et un seul, sous-groupe, noté X, contenant X, et plus petit sous-groupe
contenant X.

On vient d'établir une caractérisation globale de X, il serait pratique


d'en avoir une caractérisation élément par élément.

THÉORÈME 4.11. - Soit X une partie non vide d'un groupe G, noté
multiplicativement. Le sous-groupe engendré par X est l'ensemble des
'' . t x °'
e'l'emen t s qui. secrwen 1 1 x °' °'n ; avec n E "''*
2 2 ... Xn •~ , l es Xi E X , les
ai E 7!...

Des notations : si x E G on note, pour p E N*, xP le produit


.._,__...
x · x · ... · x; x- 1 l'inverse de x et x-P = x- 1 · x- 1 ..... x- 1 .
p~ p~

On peut remarquer que x-P est l'inverse de xP, (car xP · x-P =


. -1 -1
~·x ·X • ••• ·x -1 =~·e·~par
( ) -1 -1

p fois p fois p-1 fois p-1 fois


associativité, or xx- 1 = e disparaît, (élément neutre). On est ramené à
xP-l · x-(p-l), d'où, par récurrence, = x · x- 1 = e.
Par convention x 0 = e, et alors on peut vérifier que pour tout couple
(p, q) de 7!.. 2 on a xPxq = xP+q.
Revenons au Théorème 4.11. On va prouver que l'ensemble X des
produits du type xr
1 x~ 2 ••• x~n est un sous-groupe, contenant X, donc,

X contiendra X, plus petit sous-groupe contenant X; puis on justifiera


l'inclusion XC X.
Pour arriver à cela on utilisera le résultat suivant :

LEMME 4.12. - Soient a et b dans un groupe multiplicatif, G. On a


=
(ab)- 1 b- 1 a- 1.

En effet (ab)· (b- 1a- 1 ) = a(bb- 1 )a- 1 , (associativité), ~ a(e)a- 1


aa- 1 = e : il en résulte que b-la- 1 est l'inverse de ab. •
92 Algèbre

On considère alors l'ensemble X formé de tous les produits possibles


du type xf1 ... x~n ; n variant dans N*, et, pour 1 ~ i ~ n, les Xi étant
dans X et les ai dans 7L.
On a X non vide, car en particulier, chaque x de X est du type
x 1 : c'est un produit du type voulu pour n = 1, donc X C X avec
- / I
X =f. 0. Puis si y E X, y est du type x~ °'1 ... x~ °'n 1 , son inverse sera
y-1 = (x~ a~, )-i ..... (x~ °'~ )-i, (applications successives du lemme
4.12), soit = f
Xn
-a'n' f I f
· ... · Xi -ai; du type voulu car les xj E X et
les -aj E 7L; a fortiori, si x = xf1 ... x~n est aussi dans X, on aura
xy - i = Xi0<1 ... XnO<n · XnI -a'n 1 · ... ·Xi1 -a'i, done encore du type vou1u, soit
·
xy-i EX.
On a X non vide; six et y sont dans X alors xy-i est dans X, ce qui
prouve que X est un sous-groupe de G, (critère 4.5).
On a justifié en cours de démonstration que X C X, donc X est dans
la famille des sous-groupes contenant X : a fortiori X C X.
Puis X est un sous-groupe contenant X, mais alors, si Xi E X pour
tout ai E 7L, xfi EX, (stable par produit et passage à l'inverse), a fortiori
x? 1 ••• x~n E X, (stabilité pour le produit), d'où X C X et finalement
X = X, ce qui achève la justification du Théorème 4.11. •

Il convient de noter que dans un produit du type x? 1 . . . x~n le même


élément x de X peut figurer à des places différentes.
On rencontrera souvent en mathématique cette notion de «partie en-
gendrée par X, ayant une propriété voulue» avec les deux points de vue,
global et élément par élément. Par exemple : sous-anneau, sous-corps,
sous-espace vectoriel; fermeture d'une partie dans les espaces topologi-
ques, exemples que nous rencontrerons.

DÉFINITION 4.13. - Un groupe G est dit monogène s'il est engendré par un
seul élément; il est dit cyclique s'il est monogène et de cardinal fini.

On verra au paragraphe suivant que l'on sait parfaitement caractériser


les groupes monogènes.
Groupes, construction de 7L. 93

2. Morphismes de groupes

Soient G et G' deux groupes multiplicatifs. On appelle


DÉFINITION 4.14. -
morphisme de G dans G' toute application <p de G dans G' vérifiant :

V(x,y) E G2 , <p(x ·y)= cp(x) · cp(y).

Il en résulte que, si e est l'élément neutre de G, on a, Vx E G,


= cp(x)cp(e) mais c'est aussi <p(x) car x · e = x, or dans le groupe
cp(x · e)
G'Jégalité cp(x) = cp(x)cp(e) implique e' = cp(e) si e' est élément neutre
de G', ceci en multipliant à gauche par l'inverse de cp(x).
De même e · x = x donne cp(e · x) = <p(e)cp(x) = <p(x) d'où cp(e) = e'
en simplifiant à droite par cp(x), c'est-à-dire en multipliant à droite par
(cp(x))-1.

4.15. Si <p est un morphisme de groupe, on a <p( e) = e1, e et e' éléments


neutres des groupes. De même cp(x- 1) = (cp(x))- 1.
En effet, pour x dans G, on a xx- 1 = x- 1 x = e,

d'où

donc cp(x- 1) est inverse de cp(x) dans G'.

THÉORÈME 4.16. -Soit <p un morphisme du groupe G dans le groupe G'.


Afors l'image <p(H) d'un sous-groupe H de G et un sous-groupe de G' et
l'image réciproque <p- 1 (H 1 ) d'un sous-groupe H' de G' en est un de G.

On va utiliser le critère 4.5.


Soit H sous-groupe de G, il contient e, donc <p(H) contient e' = cp(e)
d'où <p(H) non vide; puis si x' et y' sont dans l'image cp(H), ils ont des
antécédents x et y dans H, sous-groupe, donc xy- 1 EH et alors

est bien dans cp(H) : on a

V(x1 ,y1) E cp(H) x cp(H), x'(y'- 1 ) E cp(H).


Le critère 4.5 est vérifié.
94 Algèbre

Soit de même H' sous-groupe de G', et cp- 1 (H') = {xEG; cp(x) EH'}.
On a cp(e) = e' EH' donc e E cp- 1 (H') qui est non vide; puis six et y
sont dans cp- 1 (H'), on aura cp(xy- 1 ) = cp(x)(cp(y))- 1 avec cp(x) et cp(y)
dans H' sous-groupe, donc cp(x) (cp(y))- 1 E H', d'où xy- 1 E cp- 1 (H')
puisque cp(x)cp(y)- 1 = cp(x)cp(y- 1 ) = cp(xy- 1 ), (voir 4.15). •

DÉFINITION 4.17. - Soit un morphisme cp de G dans G', on appelle noyau


de cp le sous-groupe cp- 1 ( { e'} ), encore noté Ker cp.

Ker, abréviation de Kernel, noyau en anglais.


Si on veut décomposer canoniquement l'application cp, (voir 2.40), on
introduit l'équivalence d'application R définie par

xRy {::::::::} cp(x) = cp(y).


Il est facile de vérifier que c'est une équivalence (voir 2.39).
On peut encore écrire cp(x) = cp(y) {::::::::} cp(x)(cp(y))- 1 = e' (neutre
de 0 1 ) soit cp(xy- 1 ) = e 1 {::::::::} xy- 1 E Ker cp; mais c'est aussi

cp(x) = cp(y) {::::::::} cp(y) = cp(x)


{::::::::} e' = (cp(y))- 1cp(x) = cp(y- 1 x)
{::::::::} y- 1 x E Kercp.

Ona:
xy- 1 E Kercp {::::::::} 3h E Kercp, xy- 1 =h
{::::::::} 3h E Ker cp, x = h · y;
et y- 1 x E Kercp {::::::::} 3h1 E Kercp, y- 1 x = h 1 {::} x = yh1 •
"<
On note y· Kercp = {yh, h E Kercp} et Kercp ·y= {hy, h E Kercp}.
Avec cette notation, on a ici x équivalent à y, soit x dans la classe
d'équivalence de y

{::::::::} x E y · Ker cp
{::::::::} x E (Ker cp) ·y,
ce qui implique que y · Ker cp et Ker cp · y sont des parties de G égales.
Si le groupe G n'est pas commutatif, cette égalité n'est pas évidente
et conduit à la définition suivante :

DÉFINITION 4.18. - Un sous-groupe H de Gest dit distingué si et seulement


si, pour tout x de G on a xH = Hx.
Groupes, construction de l 95

On note H <J G pour H sous-groupe distingué de G.

THÉORÈME 4.19. - Le noyau d'un morphisme de groupes est sous-groupe


distingué.
Vient d'être vu.

THÉORÈME 4.20. - On a H sous-groupe distingué de G équivaut à l'une


des -conditions équivalentes suivantes :
1) Vx E G, xH C Hx;
2) Vx E G, xHx- 1 c H;
3) Vx E G, xHx- 1 = H.

En notant (0), H <J G c'est-à-dire Vx E G, xH = Hx, on a évidem-


ment (0) ::::} (i).
Puis (i) ::::} (ii) car si, Vx E G, Vh E H, xh E Hx c'est qu'il existe
h1 E H tel que xh = h1x mais alors xhx- 1 = h1 E H, donc on a Vx E G,
Vh EH, xhx- 1 EH soit xHx- 1 CH.
On a (ii)::::} (iii) car soit x fixé dans G, on a déjà xHx- 1 CH, mais
aussi, (x quelconque dans (ii) : on prend x- 1 ), x- 1 Hx C H, soit alors
h EH, 3h1 EH tel que x- 1hx = h1::::} h = xh1x- 1 d'où h E xHx- 1 :
on obtient l'inclusion H C xHx- 1 puisque h était quelconque dans H.
D'où (iii).
Enfin (iii) ::::} (0) : si xHx- 1 = H, Vh E H, 3h1 E H tel que
h = xh1x- 1, soit hx = xh1, d'où hx, élément générique de Hx contenu
dans xH, on a Hx C xH; mais soit maintenant xh E xH, comme dans
(iii) on peut prendre x- 1 , on a x- 1Hx = H, donc partout de h EH,
3h1 E H avec x- 1h1x = h ::::} xh = h1x E Hx, donc xH C Hx et
l'égalité xH = Hx ce qui est la définition de H sous-groupe distingué de
G. •
On va voir en fait que les sous-groupes distingués sont les noyaux des
morphismes de groupe.
On a déjà, (Théorème 4.19): un noyau est sous-groupe distingué.
Soit alors H sous-groupe distingué de G, on définit la relation binaire
R par
x R x' {:::=:::} xx'- 1 E H {:::=:::} x E H x',
{:::=:::} x E x' H car H distingué,
{:::=:::} x'- 1 x EH.
96 Algèbre

'Rest réflexive: six E G, xx- 1 = e EH donc x'Rx.


'R est symétrique : si x 'R x', on a xx' - l E H sous-groupe donc
(xx'- 1 )- 1 = x'x- 1 EH, soit x''Rx.

'Rest transitive: si x'Rx' et x 1 'Rx 11 on a xx'-l EH et x'x"- 1 EH.


Mais H est stable pour le produit, donc on a

(xx'- 1 )(x'x11 - 1) = x(x'- 1 x')x 11 - 1 EH,

soit xx"- 1 E H, c'est-à-dire x'Rx". Nous avons donc justifié que 'Rest
une relation d'équivalence.
Il faut remarquer que l'hypothèse sous-groupe distingué n'a pas servi,
c'est pour mettre une structure de groupe sur l'ensemble quotient que l'on
va s'en servir.
Les classes d'équivalence sont les parties distinctes du type H x car
x''Rx {::::::::} x'x- 1 EH{::::::::} x' E Hx: la classe d'équivalence de x et
Hx = {hx;h EH}.

4.21. Soit G /'R l'ensemble de ces classes d'équivalence. On va pouvoir le


munir d'une structure de groupe car l'équivalence 'R est compatible avec
la loi de G, du fait que H est sous-groupe distingué.

Soient X et Y deux éléments de G/'R. Six E X, et y E Y c'est que


X = Hx et Y = Hy. Soient alors x' et y' d'autres éléments de X et Y
respectivement : xy et x' y' sont équivalents car :
3h E H tel que x' = hx
et 3k EH tel que y'= ky,
donc x 1y 1 = (hx)(ky) = h(xk)y.
Or xk E xH = Hx car H est distingué: donc

3l EH tel que xk =lx et x'y' = h(lx)y = (hl)(xy)


par associativité, avec hl E H, (sous-groupe donc stable par produit).
Mais alors xy et x' y' sont équivalents pour 'R : ils ont même classe
d'équivalence.
On pose alors X· Y= classe de (xy), avec x E X et y E Y.
L'ensemble G /'R est ainsi muni d'une structure de groupe et l'applica-
tion <.p : x ~ <.p( x) = X classe de x, est un morphisme de groupe de noyau
le sous-groupe H.
La loi est associative : soient 3 éléments de g /'R, X, Y et Z de
représentant x, y, z, la classe X · Y est celle de (xy) donc l'élément
(X· Y) · Z est la classe d'équivalence de (xy)z.
Groupes, construction de l 97

Mais (Y · Z) est représentée par yz, donc X · (Y · Z) est la classe de


x · (yz). Comme dans G la loi est associative, on a (xy)z = x(yz) d'où
finalement l'égalité (X· Y)· Z =X· (Y· Z) dans G/R.
L'élément H de G /R est élément neutre.
Si on prend e élément neutre de G, sa classe d'équivalence est formée
des x de G tels que x E He = { he; h E H} = { h; h E H} = H.
Si X est l'élément générique de G /R, de représentant x, on aura
X · H = classe de xe = classe de x = X, et aussi H · X = classe de ex =
classe de x =X, d'où X· H = H ·X= X: H est élément neutre.
Enfin, X classe de x admet la classe de x- 1 pour inverse, car en notant
x- 1 cette classe, on a X. x- 1 =classe de (xx- 1 ) =classe de e = H et
aussi x- 1 ·X= classe de x- 1 x =classe de e = H.
Soit alors <p la projection canonique de G sur le groupe G /R, définie
par x ~ <p(x), classe d'équivalence de x, on a

tf(x,y) E G 2 , <p(xy) =classe de (xy) =(classe de x) ·(classe de y)

par définition du produit dans G /R, soit encore

<p(xy) = <p(x) · <p(y) : <p est un morphisme.

Enfin Ker<p = {x; <p(x) = H} = {x; x dans la classe de e} = H.


Nous venons de justifier le :

THÉORÈME 4.22. - H est sous-groupe distingué de G si et seulement si H


est le noyau d'un morphisme de groupe de G dans un groupe G'.

Une notation : si H est sous-groupe distingué de G, on notera G / H


l'ensemble quotient G /R introduit en 4.21.
En particulier, si H est le noyau d'un morphisme <p de groupe, de
G dans G', on note G /Ker <p le groupe quotient correspondant à la
décomposition canonique de l'application <p. On a alors :

THÉORÈME 4.23. - (Premier théorème d'isomorphisme). Soit <p un mor-


phisme de groupe de G dans G' on a G /Ker <p isomorphe à l'image <p( G).

En effet, soit (} l'application qui à X classe de x dans le groupe


G/Ker<p, associe <p(x). D'abord() à un sens: six' EX aussi on a <p(x) =
<p(x'), (voir en 4.17), donc la définition de() ne dépend pas du choix de x
dans X. Puis () est un morphisme : si X et Y de G /Ker <p contiennent x et
y respectivement, X·Y contient xy donc on a O(XY) = <p(xy) = <p(x)<p(y)
car <p morphisme.
98 Algèbre

Comme cp(x) = B(X) et cp(y) = B(Y) on a bien B(XY) = B(X)B(Y).


Enfin B est bijective de G /Ker cp sur cp( G), car si y est dans l'image
cp( G), il existe x dans G tel que cp(x) = y, donc par définition de B, on aura
B (classe de x) =y, d'où B surjective, et si X et Y, de représentants x et y,
sont tels que B(X) = B(Y) c'est que cp(x) = cp(y) vu la définition de B, ou
encore avec e' neutre dans G', que cp(x)(cp(y))- 1 = e' = cp(x)cp(y- 1 ) =
cp(xy- 1), c'est donc que xy-l E Kercp, donc que x E (Kercp)y, classe
d'équivalence de y dans G/Kercp, donc que X= Y, d'où B injective. •

4.24. Une remarque très utile. Pour vérifier qu'un morphisme cp d'un
groupe G dans un groupe G' est injectif il suffit de vérifier que son noyau
est réduit à l'élément neutre de G.

Car si Kercp = {e}, et si cp(x) = cp(y), c'est que


cp(x)(cp(y))- 1 = e', (neutre de G'),

soit
cp(x)cp(y- 1 ) = cp(xy- 1) = e' {::::::::} xy- 1 E Kercp = {e}
{::::::::} xy- 1 = e
{::::::::} (xy-1 )y = Y
{::::::::} X = y.

On a donc cp(x) = cp(y)::::} x =y, soit cp l'injective.


Bien sûr, cp injective::::} Kercp = {e} car six E Kercp on a cp(x) =
e1 = cp(e) d'où x = e par injectivité, et finalement on a

THÉORÈME 4.25. - Soit deux groupes G et G' et un morphisme cp de G


dans G', on a cp injective {::::::::} Ker cp = {e }, e neutre dans G.

En 4.13 on a introduit la notion de groupe monogène, en 4.14 celle de


morphisme. En fait, on va voir qu'un groupe monogène est soit isomorphe
au groupe additif 71. des entiers relatifs, soit fini, et alors isomorphe au
groupe 71./pll. des entiers modulo p.
Mais avant d'établir ce résultat, il nous faut construire 71., c'est le but
du paragraphe suivant.
Groupes, construction de l 99

3. Demi-groupe, symétrisation d'un demi-groupe abélien

DÉFINITION 4.26. - On appelle demi-groupe D tout ensemble, encore noté


D, muni d'une loi de composition interne, associative.

Le demi-groupe est dit abélien (ou commutatif) si la loi est commuta-


tive.
On dit qu'il vérifie la règle de simplification à droite si on a :

4.27. V( a, b, x) E D 3 , ax = bx ::::} a = b.
On parlerait de simplification à gauche si on avait, V( a, b, x) E D 3 ,
xa = xb ::::} a = b. Dans le cas d'un demi-groupe abélien on parlera de
règle de simplification sans préciser le côté.

THÉORÈME 4.28. - Soit un demi-groupe D =fa 0, abélien, vérifiant la règle


de simplification. Il existe un groupe G, abélien, contenant un demi-groupe
Î5 isomorphe à D. De plus tout groupe G' vérifiant cette propriété contient
un sous-groupe G" isomorphe à G.

En quelque sorte, G est le plus petit groupe contenant un demi-groupe


isomorphe à D, on parlera du symétrisé de D. La justification va se
dérouler en plusieurs étapes.
e
Soit = D X D, on le munit de la loi (a, b) . (a', b') = (aa', bb1 ).
Il est facile de voir que & est aussi un demi-groupe abélien.

4.29. On définit sur & une équivalence R par

R est une équivalence :


c'est réflexif car (a, b) R (a, b) puisque ab = ba, la loi de D étant
commutative;
c'est symétrique : si (a, b) R (a1, b1) on a ab1 = ba1 donc aussi
a1b = ba1 = ab1 = b1a, (toujours D abélien) soit (ai, b1) R (a, b);
c'est transitif: si (a, b) R (a1, b1) et (a1, b1) R (a2, b2) on a les égalités
ab1 = ba1 et a1b2 = b1a2. Il en résulte que
100 Algèbre

soit encore

et, D vérifiant la règle de simplification, on a


Soit l'ensemble quotient G = & /'R. Il est muni d'une loi de composition
interne car l'équivalence n est compatible avec la loi · sur&.
En effet, si (a, b) 'R (a1, b1) et (a', b') 'R (ai, bi) c'est que l'on a ab1 =
ba1 et a'bi = b' ai, (définition de 'R), mais alors (a, b) · (a', b') et (a1, bi) ·
(ai,bi), qui sont les couples (aa 1 ,bb1 ) et (a1ai,b1bi) sont éqriivalents
aussi car en utilisant la commutativité et l'associativité de la loi de
composition, on a :

aa'b1bi = (ab1)(a'bi)
= (ba1)(b'ai)
= (bb1 )(a1aD

ce qui traduit (aa', bb') n (ai ai, b1 bi).


Soient donc X et X' deux classes d'équivalence de G = & /'R,
représentées respectivement par (a, b) et (a', b'), on peut définir

4.80. · X· X' = classe d'équivalence de ( aa', bb1 ) puisque c'est indépendant


du choix des représentants.

4.81. Pour cette loi, G est un groupe abélien.


La loi- est commutative car aa' = a' a et bb1 = b1b donc si (a, b) E X et
(a', b') EX on a

X' X= classe de (a' a, b1b)


= classe de (aa', bb') = X X'.

La loi est associative, si X, X' et X" de &/'R sont représentés


respectivement par les couples (a, b), (a', b1 ) et (a", b11 ) on a

(XX')X" =(classe de (aa', bb1 )) ·X"= classe de ((aa')a", (bb 1 )b11 ),


=classe de (a(a' a"), b(b'b")) par associativité dans D,
=X· classe de (a'a", b1b11 ) =X· (X' X").
Groupes, construction del 101

Comme D non vide, si mo ED, l'élément 1 =classe de (mo, mo) est


élément neutre dans G, car si X est représenté par (a, b), on a

X· 1 = classe(amo, bmo)

et on a

(amo, bmo) n (a, b)

car ab = ba dans D abélien donc abmo = bamo, soit encore (amo)b =


(bmo)a.
Donc X · 1 = classe( a, b) = X, on a 1 élément neutre. Tout élément X
de G admet un inverse x- 1 dans G: si X est représenté par (a, b), soit
x-I représenté par (b, a) on aura
xx-I = x-I X= classe( ab, ba) =classe( ab, ab)
or (ab, ab) n (mo, mo), ({::} abmo = moab ce qui est vrai)
donc XX-l = x-Ix = 1.

On a justifié le fait que G est un groupe abélien.



4.82. Il existe une injection cp de D dans G qui soit un morphisme pour
les lois de D et G.
Soit a E D, Vm E D, les couples (am, m) sont équivalents, car
(am, m) n (an, n) {::} (am )n = m( an) ce qui est vrai compte tenu de
l'associativité et de la commutativité.
On pose cp(a) =classe d'équivalence des (am,m), m E D. cp est
injective car cp(a) = cp(b) se traduit, avec met n dans D, par: les couples
(am, m) et (bn, n) sont équivalents, soit encore par:

(am)n = m(bn) {::::::::} a(mn) = b(mn)


d'où a= b par la règle de simplification (mais oui, tout arrive, il faut que
cette hypothèse là serve aussi).
cp est un morphisme car cp(ab) = classe(abmo, mo)

alors que cp(a)cp(b) =classe( am, m) · classe(bn, n)


= classe(ambn, mn)
= classe(abmn, mn) = classe(abmo, mo)

car abmnmo = mnabmo, la loi étant commutative.


102 Algèbre

Si on pose D = 1.p(D), <p réalise alors un isomorphisme de D sur le


demi-groupe D, partie du groupe abélien G. •

Pour achever la démonstration du Théorème 4.28, il faut justifier que,


si G' est un groupe abélien contenant un demi-groupe ~ isomorphe à D,
il existe un sous-groupe G" de G', isomorphe à G.
On a le schéma suivant :

D ~ DcG

Je
~cG'

On a construit le groupe G qui contient une partie D, demi-groupe,


image de D par l'isomorphisme <p.
On suppose que G' est un autre groupe, abélien comme G, contenant
un demi-groupe~ image de D par un isomorphisme O.
Soit G" = {O(a)(O(b))- 1 ; (a, b) E D 2 }. On a O(b) E ~ c G', groupe,
donc O(b)- 1 est l'inverse de O(b) dans G'. On va vérifier que G" est le
groupe isomorphe à G, cherché.
G" est sous-groupe (abélien) de G' car D =/:- 0 =} 3a E D, donc
O(a)O(a)- 1 = e' élément neutre de G' est dans G" qui est non vide;
puis si u E G", c'est qu'il existe (a,b) E D 2 tel que u = O(a)(O(b))- 1
donc u- 1 , (inverse dans G') est tel que u- 1 = O(b)(O(a))- 1 , (lemme 4.12
pour l'inverse d'un produit), donc u- 1 E G"; puis si u = O(a)(O(h))- 1 et
v = O(c)((d))- 1 sont dans G", on aura, en utilisant la commutativité et
l'associativité :

uv = O(a)(O(b))- 1 0(c)(O)(d))- 1
= O(a)O(c)(O(d)O(b))- 1
= O(ac)(O(db))- 1 (}morphisme de demi-groupe.
Comme ac E D et db E D, on a uv E G".
On a donc G" non vide, stable par passage à l'inverse et par produit :
c'est un sous-groupe de G'; de plus ~ C G" car 'Va E D, O(a) =
O(a2 )(0(a))- 1 E G".
Il existe un isomorphisme de G sur G"
En effet, soit X un élément de G, classe d'équivalence représentée par
(a, b), ou par (a', b1 ) avec (a, b) R (a', b') : on a ab'= ba'.
Groupes, construction de l 103

On a alors
()(ab') = ()(a)()(b') = ()(ba') = ()(b)()(a')
d'où
(()(b) )- 1 ()( a )()(b')( ()(b') )- 1 = (()(b) )- 1e(b )()(a') (e(b'))- 1 ,

soit comme ()(b')(e(b'))- 1 = ()(b'b'- 1 ) = ()(e) = e', neutre de G', et que


(()(b))- 1()(b) = e' neutre de G', il reste ()(a)()(b)- 1 = ()(a')()(b')- 1 , par
commutativité.
On pose:

111(X) = e(a)()(b)- 1
si (a, b) E X, ce qui est licite puisqu'indépendant du choix du représentant
(a, b) de X.
111 est un isomorphisme de G sur G".
On a d'abord 111 morphisme car soient X et X' de G, avec (a, b) EX
et (a', b') EX'. Comme XX'= classe(aa', bb'), on a

111(XX') = ()(aa')(()(bb'))- 1 = ()(a)()(a')(()(b)()(b'))- 1


car () morphisme de demi-groupe, soit

alors que

ce qui, compte tenu de la commutativité du produit dans G' donne

111(XX') = 111(X)111(X').

111 surjectif: si u E G", 3(a, b) E D 2 tel que u = ()(a)()(b)- 1 d'où en fait


u = 111 (classe de (a, b) dans &/'R), et si X est la classe de (a, b) dans G,
on a X tel que u = 111(X).
111 injectif car si 111(X) =e' neutre de G', avec (a, b) EX on a ()(a)()(b)- 1 =
e' soit ()(a) = ()(b) et comme () est une bijection de D sur .6., c'est que
a= b, donc X= classe (a, a) est l'élément neutre du groupe construit G,
c'est-à-dire X= 1 : on a bien 111 injective d'après le Théorème 4.25. •

On peut donc dire que tout groupe abélien G' contenant un demi-
groupe isomorphe à D contient aussi un sous-groupe isomorphe au groupe
104 Algèbre

symétrisé de D qui a été construit. C'est en ce sens que Gest le plus petit
groupe abélien contenant un demi-groupe isomorphe à D.
Ceci achève la justification du Théorème 4.28, théorème que nous allons
appliquer pour construire 7L. à partir de N.

4. Construction de 7L.

La première étape, c'est de remplacer la notation multiplicative em-


ployée jusqu'à présent par la notation additive car on symétrise le demi-
groupe (N, +). Les entiers étant réguliers pour l'addition (proposition
3.41), si a + n = b + n, alors a = b, donc on a la règle de simplifica-
tion.

4.33. On considère donc t: = N X N, et l'équivalence n


défini sur t: par
n
(a, b) (a', b') {:?a+ b' = b +a',(+ remplace . dans 4.29).
Cette équivalence est compatible avec la loi + définie sur t: par
(a,b) + (a',b') =(a+ a',b + b'), donc sur 7L. = (N X N)/R, ensemble
quotient on définit une loi, encore notée +, en posant :

4.34. (a, b) + (a', b') = (a + a', b + b')


(où la notation (a,b) désigne la classe de (a,b)), et on obtient un groupe
additif commutatif par application du Théorème 4.28.
Un mot d'explication sur les notations d'ensemble quotient. Pour bien
comprendre le mécanisme qui, partant d'une classe X, fait prendre un
représentant x de la classe, définir quelque chose à partir de x, et vérifier
la validité de ce que l'on fait en établissant l'indépendance par rapport au
représentant, il est préférable d'adopter ce type de notation : X représenté
par x ou x'. Mais c'est lourd. Aussi, quand on est familiarisé avec ce
mécanisme on peut adopter la présentation plus rapide : soit x la classe
de x, ce qui ne dispense pas de vérifier l'indépendance de ce que l'on fait
par rapport au représentant.
Retour à l'ensemble 7L. des entiers relatifs.
Du fait que dans N il y a un élément neutre pour +, on va pouvoir
écrire plus facilement les éléments de li.. En effet, soit (a, b) E 1\12 . On a

z = (a,b) = (a+O,O+b) = (a,O) + (O,b).


Or a ~ (a, 0) = (a+ m, m), ceci quelque soit m de N, est l'injection cp
de N des 7L. définie en 4.32.
Groupes, construction de l 105

On convrent de noter encore a l'entrer relatif (classe de (a, 0)), et c'est


en ce sens que l'on a N C l, ce qui, mathématiquement est faux.
Puis, comme dans le groupe additif l on a (b, 0) + (0, b) = (b, b) =
(0, 0) = 0 élément nul del, qui est donc confondu avec 0 de N l'élément
(0, b) del est l'opposé de la classe (b, 0), comme cette dernière est notée
b, il est logique de noter (0, b) sous la forme -b, c'est l'opposé de b dans l,
et alors z = (a, b) = a + (-b) que l'on écrit en fait a - b. Dans le groupe
l, le signe opératoire est +, le signe - n'a pas de signification, on vient
de lui en donner une:
retrancher b c'est ajouter l'opposé de b.

4.35. On peut alors étendre la relation d'ordre de N en une relation d'ordre


sur l.
En effet, soit z =(a, b) un élément quelconque del, avec a et b dans
N.
Comme N est totalement ordonné, on a soit a ~ b, et alors il existe
c EN tel que a= b + c, ou a+ 0 = b + c, dans ce cas (a, b) R (c, 0) donc
z = (c, 0) = c est identifié à un élément de N, (on utilise la proposition
3.27); soit a < b, dans ce cas il existe c E N* tel que b = a + c, ou
a+ c = b + 0 d'où (a, b) n (0, c), donc z = (0, c) = -c.
On vérifie facilement qu'un autre couple (a', b') représentant z conduit
au même c. Donc un entier relatif, (élément z del) est
- soit du type z = c E N, il est alors dit positif, on note z ~ 0;
- soit du typez= -c, c EN, il est alors dit négatif, on notez~ O.

4.36. On définit une relation notée ~ sur l par

z1 ~ z2 {::::::::} z2 - z1 est positif,


c'est-à-dire identifié à un élément de N. Cette relation est une relation
d'ordre total sur l, qui prolonge l'ordre sur N.

4.37. Avant de le vérifier, il convient de remarquer que le seul entier relatif


à la fois positif et négatif est 0, car si z est identifié à la fois à c et à -d
avec c E N, d E N, on a z = -d ::::} - z = d donc 0 = z - z = c + d avec c
et d qui sont des cardinaux: ceci implique c = d = 0, (proposition 3.11),
d'où z =O.
Il est alors facile de voir que ~ est un ordre sur l :
réflexif: z - z = 0 est identifié à 0 de N, donc est positif, d'où z ~ z;
106 Algèbre

antisymétrique : si zi ~ z2 et z2 ~ zi on a z2 - zi positif, mais aussi


zi -z2 positif, donc de type d avec d E N, d'où z2-zi = opposé(zi -z2) =
opposé( d) = -d, donc z2 - zi est à la fois positif et négatif, il est nul d'où
zi = z2, (d'après 4.37);
transitif : si zi ~ z2 et z2 ~ z3 on a z2 - zi et z3 - z2 dans N, stable
pour+, donc z3 - zi = (z3 - z2) + (z2 - zi) est positif d'où zi ~ z3.
Cet ordre prolonge celui de N : si a et b de N sont tels que a ~ b, c'est
qu'il existe un entier de N, c tel que b = a + c ou encore b - a E N : on a
bien b - a positif, soit a~ b dans l'ordre sur 7!...
On a ainsi ordonné 7!... •

4.38. C'est un ordre total : si zi et z2 sont dans 7!.., zi - z2 élément de 7L


est
- soit positif, alors zi ;;:: z2 ;
- soit négatif, mais alors z2 - zi est positif donc z2 ;;:: zi.
Il nous reste à étendre à 7L la multiplication définie sur N pour avoir
construit l'ensemble des entiers relatifs, connu depuis longtemps.
Sur N on dispose d'un produit, associatif, commutatif, ayant 1 pour
élément neutre, distributif pour l'addition, (proposition 3.14) et c'est cet
ensemble de propriétés que l'on veut retrouver.
Comme z = (a, b), élément de 7!.., avec a et b dans N, s'écrit encore
z = a - b, si z' = (a', b1 ) = a' - b', on veut retrouver la règle
z · z' = (a - b)(a' - b') = aa' + bb' - (ab'+ ba1 )
= classe de (aa' + bb1 , ab' + ba1 ).

4.39. Ceci amène en fait, à définir un produit sur E =N x N par la loi


(a, b) · (a', b1) = (aa' + bb', ab'+ ba').
Cette loi est compatible avec l'équivalence 'R.
On suppose que (a, b) n (ai, bi) et (a', b1) n (a~, bD : c'est que l'on a
CD a + bi = b + ai et
@ a' + b~ = b' + a~.
On veut prouver que

donc que
Groupes, construction de 7L. 107

Pour récupérer le 1er membre, on multiplie par CD par a', (d'où aa1 ), et
aussi par b1 pour avoir bb1, puis ® par ai et bi, on ajoute; il vient :

(aa' + bia') + (bb' + aib') +(ai a'+ aibi) + (bib' + biai)


= (a'b +a' ai)+ (ab'+ b'bi) + (aib' +ai ai)+ (bia' +bibi)

soit (régularité de l'addition dans N), après simplification

aa' + bb' + aibi + biai = a'b +ab'+ aiai +bibi,

ce que l'on voulait.



4.40. Mais alors, sur l'ensemble quotient 7L. = (& x t:)/R on définit un
produit par la loi :
(a, b) · (a1 , b') = -(a_a_'_+_bb'-,a_b_'_+_b_a'~), où rappelons le, la notation (u, v)
désigne la classe de (u, v).

Cette définition a un sens, car c'est indépendant du choix des représen-


tants, et on peut vérifier que cette loi est associative, commutative, distri-
butive pour la loi+, et que 1 = (1, 0) est élément neutre pour le produit.
Par exemple la distributivité : soient zi, z et z' trois entiers relatifs,
avec zi =(ai, bi); z =(a, b) et z' =(a', b1 ), on a

zi · (z+z') = (ai,bi) · (a+a',b+b')


= (ai(a +a')+ bi(b + b1), ai(b + b') + bi(a +a')),

soit par distributivité dans N :

= (aia + aia' + bib + bib', aib + aib' + bia + bia')


= ((aia + bib) +(ai a'+ bib'), (aib + bia) + (aib' + bia'))
= (aia + bib, aib + bia) + (aia' + bib', aib' + bia')
= zi z + ziz' : on a bien la distributivité.

Plus intéressante est la remarque pratique suivante :


si z = (a,O) est confondu avec a et z' = (a', 0) avec a', on a zz'
(aa1 + 0, Oa + Oa') = (aa1 , 0) = aa' : le produit défini sur 7L. prolonge
celui de N; puis si z = (a,O) est positif et z' = (O,b) est négatif, zz' =
(aO +Ob, ab+ 0) = (0, ab) est négatif, alors que si z = (ü,b) et z' = (0, b')
sont tous deux négatifs, on aura zz' = (0 + bb', Ob'+ Ob) = (bb', 0) est
108 Algèbre

positif. On vient d'établir la règle des signes, d'où l'on déduit la stabilité
de l'ordre par produit des entiers positifs :

Sous-groupes de l
THÉORÈME 4.42. - Les sous-groupes de l sont exactement les parties du
type pl= {px; x El} avec p dans 1\1.

D'abord, si p est fixé dans 1\1, pl est bien un sous-groupe additif del
car non-vide, (0 = p · 0 E pl), et si Yl = px1 et Y2 = px2 sont dans pl,

Yl - Y2 = PX1 - px2 =p. X1 + p( -x2)


= p(x1 - x2), (par distributivité)
est bien dans pl qui est donc un sous-groupe, le critère 4.5, (sous forme
additive), étant vérifié.
Soit alors G un sous-groupe additif del. Si G = {O}, c'est encore 0 · l,
donc du type voulu. Sinon, :lx =fa 0 dans G et on a soit x > 0, soit x < 0,
mais alors x est du type -n avec n E 1\1, et -x = n est dans G, avec
n > O. Il y a donc des éléments strictement positifs dans G : soit a+ leur
ensemble. On a a+ partie non vide de 1\1, or on a vu (propriété 3.24) que
la relation d'ordre entre cardinaux avait les propriétés d'un bon ordre :
en particulier a+ admet un plus petit élément p. Soit alors X E G, on
effectue la division euclidienne de x par p, (voir 4.43 ci-après) : il existe
un seul q dans l tel que x = qp + r avec 0 :::;; r < p. Mais x E G, p E G
donc si q ~ 0, qp = p + p + ... + p E G, (si q < 0, qp = (-p - p ... - p)
'--,,--' ~
q fois -q fois
est encore dans G), donc x - qp = r E G, mais sir > 0, on aurait r E a+
avec r < p et p plus petit élément de a+ : c'est absurde. Donc r = 0 et
x = qp E pl : on a bien G C pl, alors que p E G ::::} pl C G de manière
évidente. On a bien tout sous-groupe additif de l de la forme pl. •

4.43. Un mot de la division euclidienne dans l


Soit p > 0 dans l, donc p E 1\1* en fait, où 1\1* désigne 1\1 - {O}. Soit
d'abord x ~ 0, on considère l'ensemble A= {n;n E 1\1,np > x}. Cet
ensemble n'est pas vide car p ~ 1 ::::} x · p ~ x · 1 = x, (voir 4.41), donc
(x + l)p > x puisque p >O.
On a x+ 1 dans A qui est non vide, donc A admet un plus petit élément,
no. Si on pose q = no - 1, q fi. A, mais q + 1 E A et comme q E 1\1, (car
Groupes, construction de l 109

no= 0 est exclu car on n'a pas Op> x), c'est donc que q·p ~ x < q·p+p.
Si on pose x = qp + r la double inégalité qp ~ qp + r < qp + p équivaut
à Ü ~ r <pet, pour X~ Ü, on a trouvé un couple (q, r) de l 2 tel que

x = qp + r avec 0 ~ r < p.

Si x < 0, y = -x est > 0, on cherche q et r tels que 0 ~ r < p et


x = -y = qp + r. Or on applique ce qui précède à y > 0 : il existe q' E l,
r' avec 0 ~ r' <pet y= q'p + r' d'où -y= -q'p - r'.
Sir'= 0, on pose q = -q', r = -r' = 0, on a alors
x = qp + r avec 0 ~ r < p.

Si 0 < r' < p, alors

-y= -q'p- p + p - r' = -(q' + 1) · p + r


avec r = p - r' qui est > 0 car r' < p et qui est < p car r' > O.
Là encore on a trouvé q = -(q' + 1) et r = p - r' tels que

x = qp + r avec 0 ~ r < p.
Enfin, un tel couple est unique, pour x et p donnés, car si on avait
x = qp + r avec 0 ~ r < pet x = q'p + r', avec 0 ~ r' < p l'égalité
qp + r = q'p + r', avec q =f q', par exemple q > q', conduit à

(q - q')p = r' - r mais, q - q' ~ 1 ::::} (q - q')p ~ p,

(on a p > 0 et on applique 4.41) alors que r' - r ~ r' < p: c'est absurde
donc q = q' et alors r = r 1 •
On vient ainsi de justifier la division euclidienne dans l :

THÉORÈME 4.44. - Soit p E N* fixé. Pour tout x de l, il existe un et un


seul couple (q, r) dans lx N vérifiant x = qp + r et 0 ~ r <p.

Comme l est abélien, pl est sous-groupe distingué dans l, donc


l'ensemble quotient l/pZ est un groupe additif, (voir la définition 4.18
et le théorème 4.22 avec la notation additive): c'est le groupe des entiers
modulo p. Dans ce groupe, on a p · 1 = 1+1 + ... + 1, (p fois), qui est nul
si 1 est la classe de 1, car p · I est représenté par 1+1 + ... + 1 = p E pl :
cet élément du quotient est donc la partie pl, élément nul, 0, du groupe
quotient.
110 Algèbre

Plus généralement, si X est un élément de 7L/p7L représenté par x, on


aura p · X = X + ... + X, (p fois), représenté par p · x qui est dans p7L,
doncp· X= O.
Le groupe 7L/p7L admet exactement p éléments, les classes des entiers
0, 1, 2, ... , p - 1 qui sont les différents restes possibles de la division
euclidienne de x quelconque de 7L par p, donc X = x est classe d'un de
ces restes d'où card(7L/p7L) ::;; p, et ce cardinal est p car 2 entiers distincts
compris entre 0 et p - 1 ne sont pas équivalents.
Considérons alors un groupe monogène G, noté multiplicativement.
On a G = {an; n E 7L}, s'il est engendré par a, car ses éléments sont
les puissances de a, mais aussi de a- 1 , et a0 = e, élément neutre de G.

L'application

est un morphisme de groupes de (7L, +) dans (G, ·),son noyau est Ker cp =
{ n; an = e} et le premier théorème d'isomorphisme (4.23), nous dit que
cp(7L) '.:::'. 7L/Ker cp.
Or G étant monogène, tout g de G est du type an pour un n de 7L donc
cp est surjective, et comme Ker cp sous-groupe de 7L est du type p7L on a
G '.:::'. 7L/p7L. On a alors
- soit p = 0, ({::} Kercp = {O} {::} cp injective{::} cp bijective car on vient
de voir que cp est surjective);
- soit p > 0 et alors G '.:::'. 7L/p7L admet p éléments distincts. On a le

THÉORÈME 4.45. - Un groupe monogène G est soit de cardinal infini, et


alors G '.:::'. 7L, soit fini, et alors G '.:::'. 7L/p7L.

5. Groupe symétrique

Soit un ensemble E de cardinal n, entier naturel. Il y a une bijection


de E sur { 1, 2, ... , n} qui permet de « numéroter» les éléments de E ou
encore de les indexer en E = {x1,x2, ... ,xn}·
Moyennant cette indexation, définir une bijection de E sur E revient
à définir une bijection de { 1, ... , n} sur lui-même.

DÉFINITION 4.46. - On appelle groupe symétrique d'ordre n, noté Sn ou


6n, le groupe des permutations de {1, ... , n }, c'est-à-dire des bijections de
{1, ... , n} sur lui-même. 6 est la lettre sigma).
Groupes, construction del 111

C'est un groupe pour le produit de composition des applications car


6n =f:. 0, (l'identité e : i ~ i, est une bijection, élément neutre); si
a E 6n, c'est une bijection donc a- 1 est aussi une bijection, telle que
a · a- 1 = a- 1 ·a = e, donc a E Q;n ::::} a-l E 6n; enfin 6n est stable
par produit de composition, la composée de 2 bijections en est une; et ce
produit est associatif.

THÉORÈME 4.4 7. - Le groupe symétrique 6n est de cardinal n!. Il est non


commutatif si n ;;:::: 3.

De cardinal n! car un élément a de 6n est parfaitement connu dès


qu'on se donne:

l'image de 1, a(l) E {1, ... , n} il y an choix;


puis l'image de 2, a(2) E {1, ... ,n}- {a(l)} il y a (n-1) choix;

d'où n( n - 1) choix des images de 1 et 2; à chacun de ces choix correspond


n - 2 choix pour a(3), puis n - 3 pour a( 4), et finalement il n'y a plus
qu'un élément quand on cherche a(n) d'où n(n-l)(n-2) ... (3)(2)1 = n!
éléments distincts dans 6n." La non commutativité est du domaine d'un
exemple.

On note (
1 2 3 n ) une permutation.
a(l) a(2) a(3) . . . a(n)
Soient alors, si n = 3 les permutations

(~ ~)
2
et (}''(12 2 3)
(}'
3 1 3

on a a o a' ( ~ 2
1
~), u' u uou 1
car 1 i---+ 2 i---+ 3 donc 1 i---+3, ...

et a' o a ( ~ 2
3 ~) donc a o a' =f:. a' o a.

Pour n > 3, on peut définir

on aura encore a o a' =f:. a' o a.


Donc pour n ;;:::: 3, 6n n'est jamais commutatif.

112 Algèbre

Pour n = 2, S2 a 2! = 2 éléments e ( ~ ~) et T ( ~ ~) avec la loi

S2 lui est commutatif.


Le groupe symétrique d'ordre n s'étudie pour 2 raisons. D'abord il est à
la base de l'algèbre multilinéaire alternée, de l'étude des déterminants, et
aussi parce que tout groupe fini de n éléments sera isomorphe à un sous-
groupe du groupe symétrique d'ordre n; résultat que nous allons justifier.
Pour cela, il nous faut connaître la structure de Sn.

DÉFINITION 4.48. - On appelle transposition toute permutation qui


échange. deux éléments.

Soient i =f. j deux éléments de { 1, ... , n}, la transposition Ti, j est


définie pari~ j, j ~ i et k ~ k pour tout k dans {1, 2, ... , n}' {i,j}.
Il est clair que Ti,,j = 7j,i et que Ti,j o Ti,j = e identité.
En fait, il y a c;transpositions distinctes, associées aux c;
parties à
2 éléments dans l'ensemble { 1, 2, ... , n} ayant n éléments.

THÉORÈME 4.49. - Les transpositions constituent un système générateur


de Sn.

Ce résultat se justifie par récurrence.


Pour n = 2, on a vu que S2 = {e, T} avec T = (~ ~) transposi-
tion, donc {T} est système générateur de S2 puisque T 2 = e.
On suppose obtenu le résultat pour n - 1.
Soit a E Sn. PREMIER CAS si a(n) = n, a' induite par a sur
{1, ... , n - 1} est une permutation de {1, ... , n - l}, donc, par hy-
pothèse de récurrence, a' est un produit de transpositions T' de l'ensemble
{ 1, ... , n - 1}. Mais chacune de transpositions se prolonge en une trans-
position T de {1, ... , n} obtenue en posant: si k ~ n - 1, T(k) = T'(k)
et T(n) = n, et il est clair que le produit qui donnait a' se prolonge en
un produit de transpositions de { 1, ... , n} qui donne a.
DEUXIÈME CAS si a(n) = m < n, soit Tm,n qui échange net m, et
(3 = Tn,m o a, (3
E Sn et l'image de n par (3 est n.
Groupes, construction del 113

D'après le premier cas, /3 est un produit de transpositions, et comme


r;,m = e, a = Tn,m 0 /3 est un produit de transpositions.
THÉORÈME 4.50. - Les n - 1 transpositions 1i,2; 'J2,3; ... ; Tn-1,n
constituent un système générateur irréductible de Sn.

Irréductible signifiant qu'on ne peut rien retirer.


On va d'abord prouver que toute transposition T est un produit des
n - 1 transpositions précédentes.
Soit T = 7i,j avec i < j une transposition quelconque. Pour échanger
i et j on échange i et i + 1, i + 1eti+2, ... , j - 1 et j, mais ce produit
TJ-1,j o 7J-2,j-1 o ... o 7i,i+l a bien envoyé i sur j mais a décalé d'un
cran i + 1eni;i+2eni+1, ... , j en j -1, il faut remettre ces éléments
à leur place. On vé!ifie que

7i,j = 7i,i+l 0 7i+i,i+2 0 ••• 0 7J-2,j-1 0 TJ-1,j


o7J-2,j-1 o ... o 7i+i,i+2 o 7i,i+l

car si k < i ou k > j, k est inchangé;


i ~ i + 1 ~ i + 2 ~ ... ~ j - 1 ~ j et c'est inchangé ensuite; j est
d'abord inchangé jusqu'à son image par TJ-2,j-1' puis, par TJ-1,j et les
transpositions suivantes, j ~ j - 1 ~ j - 2 ~ ... ~ i + 1 ~ i; et un k
avec i < k < j, (s'il y en a) donne d'abord k - 1 (par exemple i + 1 donne
i puis ne change plus jusqu'au dernier 7i,i+l où i donne i + 1), puis ne
change plus jusqu'à ce que k - 1 redonne k par la même transposition en
position symétrique par rapport ou TJ-1,j central.
Ce système est irréductible : si on supprime 7i,i+l par exemple les
'lk,k+I restant laisseront stables les parties {1, ... , i} et {i + 1, ... , n}
donc une bijection envoyant un k :;:;; i sur un l ~ i + 1 ne pourra pas
s'abstenir comme produit des 'Tr,r+l pour r =/:- i. •

THÉORÈME 4.51. - Le groupe symétrique 6n admet un système générateur


'°'
1 ormé
de -r
.1.1,2 et d e 1a permutation
. circu . 'Y : ( 1 2 3
. 1aire
2 3 4 ...
nn- n) 1
1 .

En effet

~),
k ( 1 2 n-k n-k+l
'Y = k+l k+2 n 1
donc l'inverse est

-k ( 1 2 k k+l k+2
'Y = n-k+l n-k+2 n 1 2 n:k)'
114 Algèbre

d'où "fkTi,21-k = 1k+i,k+2 car, si on note a = "fkTi,2"1-k, pour i #- k + 1


et i -:f. k + 2, Î-k(i) -:f. 1 et -:f. 2, donc c'est inchangé par Ti,2 c'est-à-dire
Ti,2"1-k(i) = 'Y-k(i) => a(i) = 'Yk o 'Y-k(i) = i.

Puis Î-k(k + 1) = 1 11 2
2 i: k +2
-k Ti k
et k +2 '"Y,,,.. 2 ~2 1 ~ k + 1,
finalement, Îk o Ti,2 o Î-k est bien la transposition 1k+I,k+2· Comme
tout élément de 6n est un produit calculé à partir des 'Ii,i+l• c'en est un
calculé avec 'Y et Ti ,2.
Il est clair que, si n > 2, il n'y a pas unicité d'un système générateur
irréductible de 6n. ni même unicité du nombre d'éléments d'un tel
système.
Pour l'étude des déterminants on a encore besoin d'une autre notion.

DÉFINITION 4.52. - On appelle signature d'une permutation a, le nombre


êu défini par

a(i) - a(j)
éu = II i-j

En fait, c'est un entier égal à 1 ou -1 car, l'ordre des facteurs importe


peu, (produit commutatif), donc on a encore

a(i) - a(j)
éu = II i-j
(i,j) E {paires de 2 éléments de { 1, ... , n}}

Comme a est une permutation de {1, 2, ... , n} les paires {a(i), a(j)}
redonnent les paires de { 1, ... , n}. Mais en gardant l'indexation 1 ~ i <
j ~ n, si a(i) < a(j), la différence a(i) - a(j) figure au dénominateur,
sinon c'est -(a(i)-a(j)). Donc les facteurs a(i)-a(j) figurent, au signe
près, au dénominateur.
En fait on a êu = (-l)n" où nu est le nombre de paires {i,j}
distinctes telles que i <jet a(i) > a(j).
On dit encore que 2 entiers u et v de { 1, ... , n} présentent une
. . ul
inversion si et se ement si
a(u)-a(v)
< 0 et dans ce cas, en posant
u-v
i = inf{u,v} et j = sup{u,v} on aurai <jet a(i) > a(j) donc la
Groupes, construction de 7L 115

signature eu est encore (-l)n.,. où nu est le nombre d'inversions de la


permutation.

THÉORÈME 4.53. - L'application a ~ eu est un morphisme de groupe de


Sn dans { -1, 1} multiplicatif

D'abord, pour la loi associée à la table

X 1 -1
1 1 -1
-1 -1 1

l'ensemble {-1, 1} est un groupe.


Puis €ao(3 = II a(P(i)~ ;(p(j)) =
I..;i<j..;n
Pour i =fa j, on a P(i) =fa P(j), donc

a(P(i)) - a(P(j)) a(P(i)) - a(P(j)) P(i) - P(j)


i- j P( i) - P(j) i- j
d'où

( II a(P(i~ - a(~(j))) . ( II P(i~ - ~(j)) .


P(i) - P(J)
I..;i<j..;n i- J I..;i<j..;n

Le deuxième produit vaut €(3 (définition 4.52), mais le premier est égal
à la signature éa de a, car P étant une permutation de {1, ... , n }, les
paires {P(i),P(j)} pour toutes les paires {i,j} de {1, ... ,n} redonnent
exactement toutes ces paires dans un autre ordre.
On a donc €ao(3 = €a€(3, soit encore l'application a ~ éa est un
morphisme de Sn dans {-1, 1}.

COROLLAIRE 4.54. - La signature € 17 est encore égale ( -1 )P" où p 17 est le
nombre de transpositions intervenant dans une décomposition de a.

Soit T la transposition de u et v, avec u < v. On va chercher, pour


. . . . . T(i) - T(j)
les paires {i, J} avec 1 ~ i <J ~ n, le nombre de rapports . .
i-J
négatifs.
116 Algèbre

S1. i. et J. sont tous deux difti'erents de u et v : T(i). -T(j)


. ~ ·
= 1 en 1ru.t.
i-J
Si i = u, comme j > i on a
- soit j < v, alors (u,j) ~ T(v,j), il y aura une inversion, et ceci pour
j = u + 1, u + 2, ... , v - 1 soit v - u - 1 fois;
- soit j = v, alors (i,j) = (u, v) ~ (v, u) encore une inversion;
- soit j > v, alors (i,j) = (u,j) donne (v,j) mais ici u <jet v < j: il
n'y a pas d'inversion.
Si j = u, comme i < j, i =f. u et i =f. v donc (i,j) = (i,u) ~ (i,v) pas
d'inversion.
Si i = v, comme j > v dans ce cas (i,j) = (v,j) ~ (u,j) : pas
d'inversion.
Si j = v et i < v, le cas i = u a été déjà compté, il reste soit i < u: le
couple (i,j) = (i,u) donne (i,v) avec i - v et i - u de même signe: pas
d'inversion; soit u < i < j = v : le couple (i, v) donne (i, u) : il y a une
inversion et comme précédemment, ceci se présente v - u - 1 fois.
Finalement, il y a 2(v - u -1) + 1 inversions d'où êT = -1 pour une
transposition T.
On a vu, (Théorème 4.49), que les transpositions forment un système
générateur de 6n donc si a est un produit de Pu transpositions, on aura
éu = (-l)Pu. Il faut remarquer que Pu n'est pas le même pour d'autres
décompositions de la même permutation a, mais la parité est la même.•

COROLLAIRE 4.55. - L'ensemble An des permutations de { 1, ... , n} paires,


c'est-à-dire de signature 1, est un sous-groupe distingué de 6n. On l'appelle
groupe alterné d'ordre n.

En effet An est le noyau du morphisme cp : a ~ cp( a) = êu de 6n


dans {-1, 1} multiplicatif, et on applique le théorème 4.19. •

n!
REMARQUE 4.55.bis - An admet 2 éléments, (si n ~ 2) car d'après le
théorème 4.23, on a {-1, 1} isomorphe au groupe quotient 6n/ An, donc
6n/ An admet 2 éléments, ou encore 2 classes d'équivalence, qui sont, en
tant que parties de 6n, An d'une part et T ·An, avec T transposition.
Or l'application (} : h ~ T · h de An sur T · An est une bijection car
six ET· An, 3h E An tel que x =Th= O(h), c'est h = T- 1x; et si on
a Th1 = Th2, en simplifiant par T on a h1 = h2, d'où (} bijective. Donc
card(An) = card(T ·An), et comme An et T ·An .forment une partition
de l'ensemble 6n·, on a

n! = card6n = 2 · cardAn. •
Groupes, construction del 117

THÉORÈME 4.56. - Tout groupe fini G ayant n éléments est isomorphe à


un sous-groupe de Sn.

Donc à un isomorphisme près, les sous-groupes de tous les Sn donnent


tous les types de groupes finis.
Soit G de cardinal n, il existe une bijection de G sur {1, ... ,n} d'où
une indexation G = {91, ... , gn}·

4.57. Soit x E G, la translation à droite 8x : g ~ gx est une bijection


de G sur lui-même, car 'rig' E G, 3!g = g'x- 1 tel que g · x = g'. Donc,
si l'élément indexé gi a pour image g(qcq chose) le (qcq chose) est fonction
dei, on le note cp(x)(i) car ceci dépend de x et l'application i ~ cp(x)(i),
entier tel que gr.p(x)(i) = gi · x, est une permutation de {i ... n}.
cp est un morphisme de G dans Sn car, 'r/i E {1, ... , n} cp(xy)(i) est
l'entier k tel que gi · (xy) = gk.
Or gi · (xy) = (gi · x)y et cp(x)(i) est l'entier j tel que gi(x) = gj puis
cp(y)(j) est l'entier l tel que gj ·y= gz soit (gix) ·y= gz = giXY c'est que
l = k, soit encore cp(y)(cp(x)(i)) = cp(xy)(i), 'r/i = 1, 2, ... , n. On a donc,
'r/(x,y) E G 2 , cp(x·y) = cp(y) ocp(x). Attention, l'ordre est renversé, mais
ceci ne modifie pas les notions d'image, de noyau.
cp est injective car si cp(x) = l'application identique, c'est que gi o x =
gi> 'r/i = 1, ... , n, donc que x est neutre à droite dans G. ·
Mais comme e, élément neutre de G est neutre à gauche, on a x = e,
(théorème 2.30). On a alors, (Théorème 4.23), G /Ker cp = G '.: : '. cp( G) qui
est sous-groupe de Sn. •

DÉFINITION 4.58. - On appelle ordre d'un groupe fini, son cardinal.


On a alors un résultat important :

THÉORÈME 4.59. - Soit G un groupe fini, H un sous-groupe de G. On a


l'ordre de H divise l'ordre de G.

En effet, soit RH l'équivalence définie sur G par

C'est une équivalence car xx- 1 = e élément neutre de G, est dans H


sous-groupe, donc x RH x : il y a réflexivité.
Puis RH est symétrique car si xRH y, xy- 1 EH, avec H stable par
passage à l'inverse, or (xy- 1)- 1 = yx- 1 d'où yx- 1 E H soit y RH x.
118 Algèbre

Enfin RH est transitive car six RH y et y RH zona xy- 1 et yz- 1 qui


sont deux éléments de H, stable par produit, donc xy- 1 ·yz- 1 = xz- 1 EH
d'oùxRHZ·
La classe d'équivalence de y est l'ensemble Y des x tel que

xy-l E H <==::::> 3h E H, xy-l =h


<==::::> 3h E H, x = hy
<==::::> X E H . y.

8
Or h.J!.h ·y est une bijection de H sur Y = H ·y, comme on l'a justifié en
4.57.
En fait, Ôy est la translation à droite par y dans le groupe G.
On a donc ordre(H) = cardH = cardY, ceci quelque soit la classe
d'équivalence de l'ensemble quotient G/RH.
Comme les classes d'équivalence forment une partition de G, on a
finalement card G = (nombre de classes) x cardinal de H d'où card(H)
divise card(G). •

DÉFINITION 4.60. - On appelle indice du sous-groupe il de G, le cardinal


de l'ensemble quotient G / H, lorsqu'il est fini.

REMARQUE 4.61. - L'ensemble quotient G/RH n'est pas un groupe en


général car H n'est pas forcément distingué.

REMARQUE 4.62. - Si Gest cyclique, (monogène d'ordre fini) engendré par


a, G = {a, a 2 , ... , an} avec n = le plus petit entier tel que an = élément
neutre, n = card( G) est encore appelé l'ordre de a.

6. Groupe opérant sur un ensemble

DÉFINITION 4.63. - Soit un ensemble E et un groupe G, multiplicatif. On


dit que G opère sur E si et seulement si il existe une loi de COlrJ-position
externe sur E, à domaine d'opérateurs G, nqtée (a, x) ~ a · x telle que

V'(a,b,x) E G x G x E, a· (b·x) =(ab) ·x,


'efx E E, e · x = x, avec e neutre de G.
Groupes, construction de 7L 119

CONSÉQUENCE 4.64. - Pour a fixé dans G, l'application x ~a· x est une


bijection, notée fa de E dans E, car avec a- 1 inverse de a, on a

Ua-1 o fa)(x) = (a- 1 a) · x = e · x = x


et Ua o fa-1)(x) = (aa- 1 ) · x = e · x = x,

donc f a-1 ofa = fa ofa-1 = idE d'où fa injective et surjective, (théorème


1.20). •

De plus l'application a~ fa est un morphisme de G dans le groupe


6(E) des bijections de E, (vérification facile).
Réciproquement, soit G un groupe et cp un morphisme de G dans
6(E), le groupe G opère sur E si on pose \f(a, x) E GxE, a·x = cp(a)·(x).
(Simple vérification).

DÉFINITION 4.65. - Soit un groupe G opérant sur l'ensemble E. On appelle


orbite de x dans E l'ensemble des a · x, pour tout a de G.
On parle aussi de trajectoire.

4.66. La relation 'R définie dans Epar (x'Ry) ~ (3a E G,y =a· x)
est une équivalence. En effet, elle est :
réflexive : puisque x = e · x, d'où x 'R x;
symétrique : si on a x 'R y, avec a dans G tel que y = a · x on aura
a-1. y= a- 1 ·(a· x) = (a- 1a) · x = e · x = x d'où y'Rx;
transitive : si on a x 'R y et y 'R z, avec a et b dans G tels que y = a · x
et z = b ·y on aura z = b ·(a· x) = (ba) · x d'où x'Rz.
La classe de x modulo 'R étant l'ensemble des a· x, pour tout a de G,
c'est l'orbite de x, donc les orbites forment une partition de E.

DÉFINITION 4.67. - On dit que G opère transitivement sur E si on a:

'v'(x,y)EE2, 3aEG, y=a·x.

Ceci revient à dire qu'il n'y a qu'une orbite dans E.

DÉFINITION 4.68. - On dit que G opère simplement transitivement sur E


si on a:

'v'(x,y) E E 2 , 3!a E G,y =a· x.


120 Algèbre

Quelques exemples

4.69. G est un groupe, on prend E = G et \:/(a, x) E G x G on pose


a · x = ax (produit dans G) on obtient G qui opère sur lui-même par
translation à gauche. Dans ce cas G qui opère simplement transitivement
car y = a· x {::::::::} a = yx- 1 .
On peut faire agir G sur lui-même par translations à droite en posant
a·x = xa.

4.70. Gest un groupe et E = G, \:/(a, x) E G x G on pose a· x = axa- 1 .


On dit que G opère sur G par automorphismes intérieurs, mais ici il peut
y avoir plusieurs orbites. Par exemple six est dans le centre de G, (4.71),
Va E G, ax = xa donc axa- 1 = x : l'orbite de x est réduite à x. Si Gest
commutatif de cardinal =/= 1 il y a card G orbites qui sont des singletons.

4.71. On appelle centre de G, l'ensemble Z(G) des a de G qui commutent


avec tous les x de G.

4.72. Soit un corps K, et E = Mn(K) espace vectoriel des matrices


carrées d'ordre n sur K. Si G = GLn(K) est le groupe des matrices
carrées inversibles, en posant, pour ( P, A) E G x E, P · A = p-l AP,
G agit sur E et la trajectoire de A est formée de toutes les matrices
traduisant le même endomorphisme de En quand on change de base,
(voir chapitre VIII).
Si F et le sous-espace vectoriel des matrices symétriques, et si pour
(P, A) dans G x F on pose P · A = tPAP on obtient cette fois les
trajectoires associées aux formes quadratiques sur Kn, (voir ch. XI).

Enfin tout ce qui précède s'applique dans le cadre des espaces affines.
On s'est occupé, quand x est fixé et a varie dans G, des éléments a· x. On
peut cette fois s'intéresser aux éléments laissant fixe un point de E.
THÉORÈME 4. 73. - Soit un groupe G opérant sur un ensemble E. Pour x
fixé dans E, l'ensemble Gx des a de G laissant x fixe forment un sous-
groupe de G, appelé groupe d'isotropie de x suivant G.

En effet e E Gx, qui est non-vide, et si a · x = x, on aura a- 1 · x =


a- 1 ·(a· x) = (a- 1a) · x = e · x = x donc a E Gx:::} a-l E Gx; enfin si
a et b laissent x fixe, on aura ab· x =a· (b · x) =a· x = x d'où ab E Gx,
qui est stable par produit et passage à l'inverse.
Groupes, construction de l 121

Dans le cas d'un groupe opérant sur lui-même par automorphismes


intérieurs, (on dit encore par conjugaison, exemple 4.70), on parle de
stabilisateur de x au lieu de groupe d'isotropie.

THÉORÈME 4. 7 4. - Soit G opérant sur E. Pour tout x de E et tout y = a· x,


(a E G), de sa trajectoire, on a Gy = aGxa- 1. On dit que les groupes
d'isotropie sont conjugués.

En particulier, ils sont équipotents.


Car Gy= {b; b E G, b ·y= y}.

Or b ·y= y ~ b ·(a· x) =a· x soit ba · x =a· x


~ a- 1 · (ba · x) = a- 1 ·(a· x)
~ (a- 1 ba) · x = (a- 1 a) · x = e · x = x.
D'où (b E Gy) ~ a- 1 ba E Gx ~ b E aGxa- 1 .

Soit alors G opérant sur E et x fixé dans E. On vérifie facilement
que la relation R définie sur G par (a Rb) ~ (a· x = b · x) est une
équivalence. Si f est l'application de G dans E définie par a~ f(a) =
a·x, (x fixé), Rest l'équivalence d'application associée à f (voir 2.39) donc
l'image f(G) est équipotente à l'ensemble quotient G/R.
Or cette équivalence R est compatible à gauche, car si a Rb, c'est que
a· x = b · x d'où, pour tout c de G, c · (a· x) = c · (b · x) soit encore
(ca) · x = (cb) · x, donc caRcb, d'où (ca) R (cb).
SiHestlaclassedee,H = {a;a E G,a·x = e·x = x}
est le groupe d'isotropie de x, noté Gx en fait, et la classe de a est
l'ensemble des b de G tels que a · x = b · x soit a- 1 b · x = x, d'où
a Rb~ a- 1 b E Gx ~ b E aGx.
On retrouve une situation analogue à celle du théorème 4.59, les
classes d'équivalence étant les aGx distincts.
On a alors la trajectoire de x, soit f(G), équipotente à l'ensemble
quotient G /R donc elle sera de cardinal fini si et seulement si le sous-
groupe Gx est d'indice fini dans G.
On a défini en 4.60 l'indice d'un sous-groupe d'un groupe. On note
G: Gx cet indice.

THÉORÈME 4.75. - (Equation aux classes) Soit un groupe G opérant sur


un ensemble fini E de cardinal n, si {x1, ... , Xq} est un système de
q
représentants des q orbites distinctes, on an = cardE = L(G: GxJ,
i=l
avec Gxi groupe d'isotropie de Xi·
122 Algèbre

Puisque les orbites forment une partition, et que pour Xi choisi dans
une orbite on a card(orbite) = G: Gxi' le résultat a été justifié ci-des-
~

Exemple d'application de ce résultat.


.
THÉORÈME 4. 76. - Tout groupe G de cardinal pn avec p premier a un
centre non réduit à { e}.

On fait agir G sur lui-même par automorphismes intérieurs. On a vu


en 4.70 que les éléments du centre Z(G) sont exactement ceux d'orbite
de cardinal 1. Si 01, ... , 0 9 sont les autres orbites, représentées par
x1, ... , x 9 , l'équation aux classes donne
q
cardG = pn = card(Z(G)) +:~::)a: Gxi).
i=l

Comme Gxi est sous-groupe de G, son cardinal divise pn donc est du


type pni, d'où d'indice G: Gxi = pn-ni, avec ni < n puisque l'orbite Oi
n'est plus de cardinal 1.
q
Donc L(G: Gx;) est divisible par p, ainsi que pn, et comme Z(G)
i=l
est de cardinal non nul, (e E Z(G)) on a card(Z(G)) divisible par p: le
centre n'est pas réduit à e.

EXERCICES

1. Soit a un entier impair et n ~ 3. Montrer que a( 2 n- 2 ) = 1 (mod 2n).


Trouver les entiers n tels que le groupe des éléments inversibles de
7L./2n7L. soit cyclique.

2. Soit G un groupe fini et q> un morphisme de G dans G. Etablir


l'équivalence (Ker q> =Ker q> 2 ) {=::::} (lm q> =lm q> 2 ). ·

3. Etudier le groupe multiplicatif de 7L./207L..


Groupes, construction del 123

4. Soit un groupe G de centre Z. Montrer que si G / Z est cyclique, G


est abélien. En déduire que si card( G) = p 2 avec p premier, on a G
abélien.

5. Soit G ={ME Mn(IR), M triangulaire supérieure inversible}.


Montrer que Gest un groupe, sous-groupe de GLn(IR), et que
H = {M = (mijh.;;;i,j.;;;n; M E G, Vi, mii = 1} en est un sous-
groupe distingué.

6. Soit G un groupe cyclique d'ordre g et A l'ensemble des automor-


phismes de G. Montrer que A est un groupe abélien pour le produit
de composition.

7. Soit un groupe multiplicatif G. Si a E G, on appelle stabilisateur de


a l'ensemble Ha= {h E G, hah- 1 =a}.
1) Montrer que le stabilisateur de a est un sous-groupe de G. Si G
est fini, montrer que le nombre de conjugués de a est l'indice dans
G de Ha.
2) Si Gest d'ordre pm, p premier, m ~ 1, montrer que le centre de
G est d'ordre pk avec 0 < k ~ m.

8. Soit G un groupe fini, S un sous-groupe. On note N c (S) = {x E G,


xsx- 1 = S}. Montrer que c'est un sous-groupe de G et que le
nombre de conjugués de S est l'indice de N c (S) dans G.
En déduire que si K est sous-groupe de G d'indice n, alors K admet
au plus n conjugués.
En conclure que si H est sous-groupe de G distinct de G, l'ensemble
{xHx- 1 ; x E G}, ne recouvre pas G.

9. On suppose que G = {A1, A2, ... , Ap} est une partie de Mn(C)
ayant une structure de groupe pour le produit.
. p
Montrer que trace ( L Ai) est un entier divisible par p.
i=l

10. Montrer que dans le groupe symétrique d'ordre n, Sn, (avec n ~ 3),
toute permutation paire est produit de cycles d'ordre 3.
124 Algèbre

SOLUTIONS

1. Posons a = 2p + 1. On justifie le résultat par récurrence sur n.


Sin= 3, a 2 = (2p+1) 2 = 4p(p+l)+l est congru à 1modulo8. On suppose
=
a< 2n- 2) 1 mod (2n). Donc il existe q dans l tel que a< 2n- 2) = 2nq + 1.
Alors

a(2n-l) = ( a(2n-2)) 2 = (2nq + 1)2 = 22nq2 + 2. 2nq + 1

= 2n+ 1 [2n- 1 q2 + q] + 1 est bien congru à 1 modulo 2n+l.

Dans z;2nz, les éléments associés aux a impairs sont donc inversibles,
(d'inverse a< 2n- 2- 1 li, alors que b pair n'est pas inversible.
En effet, soit b pair avec 0 < b < 2n, on écrit b = 2r c avec c impair, alors
forcément r < n et 2n-r · 2r c = 0 dans z;2nz : b est diviseur de O.
Il y a donc exactement~· 2n = 2n-l éléments inversibles dans Z/2nz. Or
sin ;;:: 3, si a est impair, comme a< 2n- 2 ) = 1 dans Z/2nz le groupe cyclique
engendré par a n'a pas 2n-l éléments: pour n ;;:: 3 le groupe des éléments
inversibles de z;2nz n'est pas cyclique.
Pour n = 2, dans Z/4Z, on a le groupe {î, 3} à 2 éléments non cyclique,
-2 - -
(1 = 1 et 3 = 1). Il n'y a que pour n = 1 que le groupe des éléments
inversibles de Z/2Z soit cyclique.

2. On a toujours Ker 4> C Ker 4> 2 et lm 4> 2 C lm 4>, ainsi que les isomor-
phismes G /Ker 4> ~ 4> (E) et G /Ker 4> 2 ~ 4> 2 (E), (premier théorème
d'isomorphisme (Théorème 4.23).
Si Ker 4> = Ker 4> 2 , on a donc 4> (E) et 4> 2 (E) sous-groupes finis de G,
isomorphes, avec 4> 2 (E) C 4>(E) d'où l'égalité 4>(E) = 4> 2 (E).
Si 4> ( E) = 4> 2 ( E), les groupes quotients G /Ker 4> et G / ker 4> 2 ont le
même nombre d'éléments donc
cardG/card(Ker4>) = cardG/card(Ker4> 2) d'où Ker4> et Ker4> 2 de
même cardinal fini, avec Ker 4> C Ker 4> 2 et l'égalité Ker 4> = Ker 4> 2 .

3. Dans Z/20Z, x =a est inversible s'il existe y = b tel que ab= 1(20), soit s'il
existe b et q dans l tels que : ab+ 20q = 1, ce qui équivaut, (Bézout), à avoir
a et 20 premiers entre eux, d'où le groupe G = {1, 3, 7, 9, 11, 13, 17, 19},
(on note 1, 3, ... pour Î, 3, ... ).L'élément 3 engendre le sous-grou~ cyclique
H = {3, 9, 7, 1}, l'élément 19 engendre le groupe cyclique K = {19, l}.
L'application f) :H X Hf-+ G
(x,y) ~X· y
est un morphisme du groupe produit H X K dans G, injectif car xy
x'y' => x'- 1 x = y'y- 1 E H n K = {1} d'où x = x' et y = y'.
Groupes, construction de Z 125

Comme H x K et G ont tous les deux 8 éléments c'est un isomorphisme


donc G ~ H x K ~ (Z/4Z) x (Z/2Z).

4. On prend une notation multiplicative. Si G / Z est cyclique, il existe a dans


G tel que G/Z soit engendré par a, classe de a, avec G/Z d'ordre finir.
Soient x et x' dans G, il existe donc 2 entiers n et n' compris entre 1
et r tels que x E an et x' E an', donc il existe z et z 1 dans le centre
1
tels que x = zan et x I = z I a n . Mais comme z et z I commutent avec
tout élément de G, on a xx' = (zan)(z'an') = zz 1an+n' soit encore
I I
z' zan +n = (z' an )(zan) = x' x, d'où G abélien.
Si card (G) = p 2 avec p premier, le centre, sous-groupe distingué de G a son
cardinal qui divise p 2 , donc qui vaut p 2 , pou 1. Si card(Z) = p 2 , Z = G
qui est abélien.
Si card( Z) = p, le cardinal de G / Z est p, premier, donc G / Z est cyclique,
mais alors Gest abélien, (et card(Z) = p 2 en fait).
Enfin card(Z) = 1 est absurde, car si G opère sur lui-même par auto-
morphismes intérieurs, soit pour g E G, 0 9 = {xgx- 1 , x E G} l'orbite
de g. On a card(O__g) = 1 ~ 'Vx E G, xgx- 1 = g ~ 'Vx E G,
xg = gx ~ g E Z centre de G, ~ g = e.
Comme avec r 9 groupe d'isotropie de g on a

card(G) = (card(r9 )) x card(09 ), pour g =f- e,

card( 0 9 ) est un diviseur différent d1:: 1 de p 2 , c'est p ou p 2 . L'équation aux


classes donne p 2 = 1+ multiple de p : absurde. On a bien G abélien.

5. Si Rn est rapporté à une base B = {e1, ... , en} et si m est l'endomorphisme


de matrice M triangulaire supérieure dans la base B c'est équivalent à dire
que Vi = 1, ... , n, on a m(ei) E Vect(ei, e2, ... , ei)- De plus M inversible
équivaut à mii =f- 0, \fi = 1, ... , n.
Mais alors Gest sous-groupe de GLn(R) car In E G, (non vide), Gest stable
par produit car si Met M' sont dans G, avec met m' les endomorphismes
associés on aura
j
m(m (ej)) = m(L m~j(ei))
1

i=l
j

= Lm~jm(ei)-
i=l

Or si i ~ j, on a m(ei) E Vect(e1, ... , ei) C Vect(e1, ... , ej) d'où


finalement, Vj = 1, ... ,n, mm'(ej) E Vect(e1, ... ,ej) donc MM' E G.
126 Algèbre

Enfin les formules de résolutions du système

Yl = m11x1 + ...
Y2 = m22x2 + ...
{
Y=MX{:} :
Yn-1 = mn-1,n-lXn-l + mn-1,nXn
Yn = mnnXn

donnent, Xn = - 1 - Yn, puis Xn-1 combinaison linéaire de Yn-1 et Xn


mnn
donc de Yn-1 et y et, de proche en proche, (cela ne veut rien dire), Xk
combinaison linéaire de Yk> Yk+l• ... , Yn, soit X = M-ly avec M- 1
triangulaire supérieure :
On peut aussi dire que M- 1 est un polynôme en M, (Caley Hamilton) et la
stabilité de G par produit donne alors M- 1 dans G.
Soit alors le groupe multiplicatif (R *) n pour la loi (x 1, ... , Xn) · (y1 , ... , Yn)
::::;: (x1y1, ... ,XnYn). On vérifie que l'application cp: G ,____. (R*)n définie
par cp(M) =(mu, ... ,mnn) est un morphisme de groupe et H en est le
noyau, d'où H sous-groupe distingué de G.

6. Si a est un générateur de G, cyclique d'ordre g, noté multiplicativement, on


a G = {a, a 2 , ... , ag- l, a9} et a9 = e élément neutre du groupe.
Un automorphisme <p de G est alors défini par la donnée de cp( a) = ak,
avec k E {1, 2, ... , g} a priori, car on peut calculer les images de tous les
éléments, par cp(ar) = ark.
De plus, <p est un automorphisme si et seulement si l'image admet aussi g
éléments, donc si et seulement si ak engendre aussi G.
Or le groupe engendré par ak est d'ordre r, plus petit entier tel que kr soit
multiple de g. Si d est le p.g.c.d. de k et g, avec g = dg' et k = dk', on a
kg' = (dg 1 )k1 et ak engendre un sous-groupe d'ordre g' = ~-On a donc cp
automorphisme si et seulement si d = 1, donc si et seulement si k et g sont
premiers entre eux : :finalement A est de cardinal égal au nombre d'entiers
premiers à g, inférieurs à g, (indicateur d'Euler de g).
Il est facile de vérifier que si <pet 'ljJ de A sont déterminés par cp(a) = ak et
'ljJ(a) = a 1, on aura:

alors que (cp o 'l/J)(a) = cp(al) = (cp(a))l = (é)l = akl


(7/J 0 cp)(a) = 'ljJ(ak) = ('ljJ(a))k = (al)k = alk,

d'où l'égalité 'ljJ o cp = cp o 'ljJ, le groupe A est abélien.

7. 1) Lestabilisateur Ha de a est non vide, car e, élément neutre de Gest dans


Ha; stable par passage à l'inverse, car si hah- 1 =a, on a: ah- 1 = h- 1a
puis a = h- 1ah donc h- 1 E Ha; enfin Ha est stable par produit car
Groupes, construction de Z 127

hah- 1 =a et kak- 1 =a=> h(kak- 1 )h- 1 = hah- 1 =a soit encore


(hk)a(hk)- 1 =a.
La relation binaire: xSy {::::::::} xax- 1 = yay- 1 est une relation d'équi-
valence sur G, compatible à gauche car si x S y, pour tout t de G on
a txax- 1 t- 1 = tyay- 1 C 1 soit (tx) S (ty). La classe d'équivalence de
e est l'ensemble des x tels que xax- 1 = eae- 1 = a, c'est le stabi-
lisateur Ha de a, la classe d'équivalence de x est donc x. Ha, elle est
équipotente à Ha, donc la partition de G en classes d'équivalences donne
card(G)
card(G) = card(G/S) · card(Ha), donc card(G/S) = card(Ha) : c'est
bien l'indice du stabilisateur de a.
Comme le nombre de conjugués différents de a correspond au nombre de
classes d'équivalence, on a bien le résultat.
2) Par automorphisme intérieur, l'orbite de a est de cardinal 1 si et seulement
si, Vh E G, hah- 1 =a, soit ha= ah, soit encore si et seulement si a est
dans le centre Z de G.
L'équation aux classes donne donc :

card( G) = pm = card Z +L (cardinaux des orbites des a ~ Z).

Mais si a ~ Z, l'orbite de a admet l'indice de Ha comme cardinal, d'après


le 1), cet indice est un diviseur de pm, donc du type pk avec k ~ 1, (sinon
a E Z). La somme des cardinaux des orbites des a ~ Z est divisible par
p, premier, donc card Z est aussi divisible par p : d'où card Z = pq avec
0 < q ~ m, puisque c'est un sous-groupe de G, (donc divise pm) et qu'il est
multiple de p.

8. On vérifie comme au 1) du n°7 que Na(S) est non vide, stable par produit
et passage à l'inverse. ·
Soit A = { x S x- 1 ; x E G} l'ensemble des conjugués de S et cp : G -v-t A
l'application x -v-t x S x- 1 .
Ona

cp(x) = cp(y) {::::::::} xSx- 1 = ySy- 1


{::::::::} (y- 1 x) S(x- 1 y) = (y- 1 x) S (y- 1 x)- 1 = S
{::::::::} y- 1 x E Na(S):

l'équivalence d'application associée à cp est l'équivalence associée au sous-


groupe Na(S) par xRy {::::::::} y- 1 x E Na(S). Le nombre d'images
distinctes de cp, (donc le cardinal de A) est donc l'indice de Na(S) dans
. card(G)
G soit card(Na(S)).
Si K est sous-groupe d'indice n et de cardinal p, le cardinal de G est np.
Or, si x E K, x K x- 1 = K, (car x K x- 1 C K, stable par produit, et
y -v-t xyx - l étant un automorphisme sur G, x K x - l et K sont de même
128 Algèbre

cardinal fini). Donc K C Na(K), et comme le nombre de conjugués de K


np ·1 "nfi"' · é al à np np
est card Na(K) 1 est 1 .,neur ou g card K = = n. p
Soit enfin H un sous-groupe de G, distinct de G, d'indice net de cardinal p.
On a encore card G = np avec n > 1, sinon card G = p = card H, ce qui
contredit H =I= G.
Chaque conjugué x H x - l de H contient p éléments dont e élément neutre,
et donc p - 1 éléments =I= e.
Il y a n conjugués distincts, dont la réunion redonne G. On a au plus n(p-1)
éléments différents (et =I= e) dans cette réunion d'où le cardinal de la réunion
des conjugués de H majorée par 1 + n(p - 1) = np - (n - 1). Comme
n > 1, on a 1+n(p-1) < np = card(G) : la réunion des conjugués de H
ne recouvre pas G.

9. On fixe i E { 1, ... , p}, la translation à droite Ti par Ai est une bijection de


G.
p
Soit A = L Ak> pour i fixé, les AkAi, k = 1, ... ,p redonnent tous les
k=l
p
éléments de G, donc AAi = A, et A 2 = L AAi = pA. Mais alors A
i=l
annule le polynôme X(X - P), ses valeurs propres sont 0 et p, la trace de
A est donc rp, r multiplicité de p valeur propre de A, d'où trace(A) entier
multiple de p. (Voir ch. 10).

10. Soit un cycle d'ordre 3, 17 : i < j < k donnant j, k, i : c'est une permutation
paire, (i,j) donne (j',k): pas d'inversion, mais (i,k) et (j,k) présentent
une inversion, donc des cycles d'ordre 3 ne peuvent engendrer que des
éléments de signature 1.
Soit s une permutation d'ordre pair : c'est un produit d'un nombre pair de
transpositions et il suffit de prouver qu'un produit de deux transpositions
est un produit de cycles d'ordre 3. D'abord, pour toute transposition T, on a
7 2 = 173 si 17 est un cycle d'ordre 3.
Soient alors T et T' deux transpositions distinctes. On a 2 cas suivant
qu'elles ont un élément commun ou non.
1er cas : Tet T' sont respectivement les transpositions de i, j, k avec j en
commun. Supposons i < j < k, T = Ti,j et T' = 'T;,k·
On a T' o T: (i,j, k):!.....(j, i, k)~(k, i,j).

Avec 17 : (i, j, k) 1--+ (j, k, i), par 172 on aura


17 2 : (i,j,k) 1--+ (k,i,j) donc 17 2 = T' oT.

2e cas: Tet T' portent sur des éléments distincts i et j pour T, k et l pour
T'. On a, a priori trois dispositions possibles :
i<j<k<l j i<k<j<l j i<k<l<j
Groupes, construction de l 129

(vu les rôles symétriques joués par Tet T').


Si i < j < k < l.
On a (i,j, k, l)0(j, i, l, k).
Soit u : (i, j, k) - (j, k, i) et u 1 : (j, k, l) - (k, l,j), alors paru ou' on a:
I
(i,j, k, l)~(i, k, l,j)~(j, i, l, k)
donc u ou' = T' o T.

Si i < k < j < l, on a toujours (i,k,j,l)0(j,l,i,k).


Soit les cycles u: (i, k,j) - (k,j, i) et u': (k,j, l) >--> (j, l, k), paru' ou:
I

(i, k, j, l)~(k, j, i, l)~(j, l, i, k) donc T' o T = u' ou.


T 1 o'T
Enfin, si i < k < l < j, avec (i,k,l,j) - (j,l,k,i) et
u: (i, l,j) - (l,j, i) et u': (k, l,j) - (l,j, k), on a

<1' u'
(i, k, l, j)-(l, k, j, i)-(j, l, k, i)
donc T 1 o T = u' o u.
On a bien le résultat.
CHAPITRE 5

Anneaux, corps, construction de Q

1. Définitions

DÉFINITION 5.1. - On appelle anneau tout ensemble A muni de deux lois


de composition interne, une addition (+) et une multiplication ( ·) telles
que
1) A est muni par l'addition d'une structure de groupe abélien,
2) la loi produit est associative, distributive à droite et à gauche par
rapport à l'addition.

EXEMPLE 5.2. - (Z, +, ·) est un anneau.

EXEMPLE 5.3. - Si A est un anneau, X un ensemble quelconque, l'ensem-


ble AX des applications de X dans A est muni d'une structure d'anneau
par les 2 lois suivantes. Si f et g sont des applications de X dans A on
pose

f + g: x ~ (! + g)(x) = f(x) + g(x)


et fg: x ~ (Jg)(x) = f(x) · g(x),
(somme et produit calculés dans l'anneau A).
Il est facile de vérifier que l'addition des applications donne à AX
une structure de groupe abélien, l'élément neutre est la fonction 0
identiquement nulle, l'opposée de f est - f définie par : Vx E X,
(-f)(x) = -(J(x)), opposé de f(x) dans l'anneau, puisque la loi produit
est associative et distributive des 2 côtés.
Par exemple, vérifions que(!+ g)h = fh + gh. En effet

'l:/x EX,[(!+ g)h](x) = (f + g)(x) · h(x) = (f(x) + g(x)) · h(x)


= f(x) · h(x) + g(x) · h(x)
132 Algèbre

car dans l'anneau A où se trouvent les éléments f(x), g(x), h(x), il y a


distributivité.
C'est encore [(! + g)h](x) = (fh + gh)(x), ceci étant vrai 'Vx E X
c'est que (! + g)h = fh + gh. On procéderait de même pour les autres
vérifications. •

DÉFINITION 5.4. - Un anneau A est dit commutatif si la loi multiplicative


est commutative, il est dit unitaire s'il y a un élément neutre (noté 1) pour
le produit.

5.5. Calculs dans un anneau

Soient a et b dans l'anneau A, on a (a+ b)(a + b) ::::;: a 2 +ab+ ba + b2


et ce n'est que si A est commutatif que,

identité qui a fait les délices ou les cauchemars de bien des générations.
De même, dans A commutatif, on a la relation

5.6. (a+ b)n =an+ nan-lb + ... + C~an-kbk + ... + bn, n ~ 1 dite
n!
formule du binôme de Newton, avec C~ = k!(n _ k)!, et la convention
O! = 1.
Cette formule peut se justifier par récurrence, si on vérifie au préalable
l'égalité c~ = c~=~ + c~-1 pour n ~ 1 et k ~ 1.
De même x(a) = x(a-b+b) = x(a-b)+xb d'où x(a-b) = xa-xb,
formule valable dans un anneau, et qui conduit si a = b, à x · 0 = O.
De même on vérifie que (a - b)x = ax - bx, d'où, si a= b, Ox = O;
mais la propriété xy = 0, dans un anneau, n'implique pas x = 0 ou
y= O. En effet, si on prend l'anneau des applications de X dans l, et si
on suppose que X1 U X2 est une partition de X, (donc X1 # 0, X2 # 0,
X1 n X2 = 0 et X1 U X2 =X) on définit fi et f2 de X dans l par:

'Vx E X1, fi(x) = 1 et 'Vx E X2, fi(x) = O;


puis 'Vx E X1, h(x) = 0 et 'Vx E X2, f2(x) = 1.

Il est alors de facile de voir que f1h = hfi = 0, application identique-


ment nulle, bien que fi# 0, (car X1 # 0::::} 3x1 E X1 avec fi(x1) # 0)
et aussi f2 # 0.
Anneaux, corps, construction de Q 133

5. 7. Une notation et une définition : fi est la fonction caractéristique de


Xi, notée généralement XX 1 , X lettre ki.
Il faut donc faire attention au fait que xy = 0 n'est pas équivalent à
x = 0 ou y = O. Ceci amène à introduire plusieurs définitions.

DÉFINITION 5.8. - Un élément a d'un anneau A est dit diviseur de zéro à


gauche (resp. à droite) s'il existe b non nul Ùl que ab= 0, (resp. ba = 0).

C'est a qui est à gauche dans le produit, si a est diviseur de zéro à


gauche.
Un élément a est dit diviseur de zéro s'il l'est à droite et à gauche, donc
s'il existe b etc non nuls tels que ab= 0 et ca =O. Bien sûr, si l'anneau
est commutatif, les notions de droite et gauche n'ont plus d'intérêt.

DÉFINITION 5.9. - Un anneau A est dit intègre s'il n'a pas d'autres
diviseurs de 0, à droite ou à gauche, que O.

Dans un anneau intègre (ab = 0) <====? (a = 0) ou (b = 0). On parle


de domaine d'intégrité pour parler d'un anneau intègre, commutatif.

DÉFINITION 5.10. - On appelle sous-anneau d'un anneau A toute partie


B de A qui est sous-groupe additif de A, stable par produit.

Ceci revient à dire que B est une partie stable de A pour les deux lois
de l'anneau, et munie par ces lois d'une structure d'anneau.

5.11. Critère pratique. Une partie B de l'anneau A est un sous-anneau


de A si et seulement si B =f. 0; 'v'(a, b) E B 2, a - b E B et ab E B.

Car B =f. 0 et 'v'(a, b) E B 2 , a - b E B caractérise les sous-groupes


additifs de A, (voir 4.5), et la deuxième condition traduit la stabilité de B
pour le produit.

THÉORÈME 5.12. - L'intersection d'une famille (Bi)iEI de sous-anneaux


de A est un sous-anneau de A.

Car 0 E chaque Bi::::} 0 E B = n


iEJ
Bi d'où B =f. 0; puis si a et b sont

dans B, donc dans chaque Bi, a - b et ab sont dans chaque sous-anneau


Bi. donc dans B. •
134 Algèbre

Comme pour les sous-groupes, il en résulte que si X est une partie


d'un anneau A, on peut considérer la famille :F des sous-anneaux de A
contient X, il y en a, ne serait-ce que A, et leur intersection

X= n B.
BEF

C'est un sous-anneau de A, (théorème 5.12), X contient X et X est le plus


petit sous-anneau de A contenant X car si Bo est un tel sous-anneau, Bo
est dans la famille :F, donc XC Bo.
On dit encore que Bo est le sous-anneau engendré par X.

DÉFINITION 5.13. - On appelle corps, tout anneau K tel que, K* = K -{O}


soit muni par le produit, d'une structure de groupe.

Donc K est unitaire, l'élément neutre, 1, du groupe multiplicatif K*


étant neutre pour le produit dans K car 1 · 0 = 0 · 1 = 0, et tout élément
non nul admet un inverse pour le produit dans K.
Bien sûr, en tant qu'anneau, un corps est intègre, car si xy = 0,
avec x # 0, comme x- 1 existe, on a x- 1 (xy) = x- 10 = 0, soit
(x- 1 x)y = 0 = 1 ·y = y, donc xy = 0 et x # 0 =? y = O. Mais de
même xy = 0 et y# 0 =? x = (xy)y- 1 = oy- 1 = 0, d'où xy = 0 ~ x
ooy=Q •

Mais un anneau intègre n'est pas forcément un corps : c'est le cas de


7!... Un corps K est dit commutatif si le produit est commutatif, sinon c'est
un corps gauche.

2. Morphismes d'anneaux, idéal, anneau quotient

DÉFINITION 5.14. - Soit deux anneaux A et A'. On appelle morphisme


d'anneaux de A dans A' toute application f de A dans A' telle que
V(a, b) E A 2, f(a + b) = f(a) + f(b) et f(ab) = f(a)f(b).

Comme dans le cas des morphismes de groupes, on vérifie très faci-


lement le fait que les images, directes ou réciproques, des sous-anneaux,
par un morphisme d'anneaux, sont encore des sous-anneaux.
Car si f est un morphisme de A dans A', si B est sous-anneau de A, en
particulier Best sous-groupe additif de A et on sait alors (Théorème 4.16)
que J(B) est sous-groupe additif de A'. De même si B' est sous-anneau
Anneaux, corps, construction de Q 135

de A', avec le même théorème on aura l-I ( B') sous-groupe additif de A.


Il reste à vérifier la stabilité pour le produit.
Soient YI et Y2 dans l(B), il existe XI et x2 dans B tels que l(xI) = Yl
et l(x2) = Y2 d'où Y1Y2 = l(xI)l(x2) = l(x1x2), (car l morphisme)
avec x1x2 E B, (stable pour le produit) d'où Y1Y2 E l(B) : on a bien
l(B) stable pour le produit. De même, si x1 et x2 sont dans l- 1(B') on
a x1x2 E l- 1(B') car ceci{:::==} l(x1x2) E B' soit encore (f morphisme)
{:::==} l(x1)l(x2) E B' ce qui est vrai car B' est stable par produit et
l(x1) et l(x2) sont dans B'. ·
On vient de justifier le

THÉORÈME 5.15. -Soient 2 anneaux A et A', l un morphisme de A dans


A'. Si B est sous-anneau de A, l(B) est sous-anneau de A' et si B 1 est
sous-anneau de A' alors l- 1 (B') est sous-anneau de A •

En particulier, {O} étant sous-anneau de l'anneau A', (vér~fication


facile), si l est un morphisme d'anneaux de A dans A', le noyau de l
noté Ker l = {x; x E A, l(x) = O} est un sous-anneau. .Mais de même
que pour un morphisme de groupe, le noyau est plus qu'un sous-groupe,
puisque c'est un sous-groupe distingué, dans le cadre des anneaux le noyau
d'un morphisme est plus qu'un sous-anneau.
En effet, si a E Ker l, Vx E A on a encore xa E Ker l car
l(xa) = l(x)l(a) = l(x) · 0 = O; et de même ax E Ker l car
l(ax) = l(a)l(x) = 0 · l(x) =O. Ceci conduit à la

DÉFINITION 5.16. - Dans un anneau A on appelle idéal bilatère toute


partie I de A qui est sous-groupe additif et telle que Vx E A et Vi E I,
xiEletixEI.

Une partie I de A qui serait sous-groupe additif et qui vérifierait la


condition : Vx E A, \:fi E I, xi E I serait appelé idéal à gauche (si c'est
Vx E A, \:fi E I, ix E I qui est vérifiée, on parle d'idéal à droite).
Enfin, il est clair que dans un anneau commutatif les trois notions
n'en font qu'une.
Nous venons de voir que le noyau d'un morphisme d'anneaux est un
idéal bilatère, en fait on va établir la réciproque, après avoir introduit lès
anneaux quotients. La démarche est analogue à celle du chapitre IV, §2
concernant les sous-groupes distingués et les groupes quotients.
Soit donc un idéal I bilatère dans l'anneau. On définit une équivalence
'R par : ( x 'R y) {:::==} ( x - y E I). Comme I est sous-groupe additif de A,
groupe commutatif, l'ensemble quotient E = A/'R est déjà muni d'une
136 Algèbre

structure de groupe additif, (voir 4.21, où la notation de la loi de groupe


était multiplicative, attention aux confusions!)
La classe X de x est l'ensemble des y tels que y R x, soit y - x E I
soit encore y Ex+ I = {x + i, i E I}.
L'équivalence R est compatible avec le produit :
si xRx', c'est que x -x' E I. Donc, Vy E A, (x -x')y E I, (idéal bilatère
donc à droite) soit xy- x'y E I soit xy'Rx'y, ce qui est la traduction de
R compatible à droite pour le produit.
De même, xRx' ::::} Vy E A, yx'Ryx' car on a x - x' E I idéal
bilatère, donc à gauche, d'où y(x-x') E I soit yx-yx' E I soit yx'Ryx'.
Il en résulte que Rest compatible avec le produit de l'anneau A, (voir
2.39) car x R x' et y R y' implique d'abord xy R x' y, (on multiplie à droite
par y dans x'Rx') mais aussi x'yRx'y', (compatibilité à gauche dans
y'Ry1), d'où par transitivité de l'équivalence, xy'Rx'y'.
On peut donc, (toujours 2.39), définir sur E = A/R le produit: X· Y =
classe de (xy) six E X et y E Y car ceci ne dépend pas du choix des
représentants. L'ensemble E est alors muni d'une structure d'anneau car
la loi · est associative, distributive pour le produit.
Vérifions par exemple que (X+ Y)· Z = XZ + YZ: soient x, y et z
des représentants de ces classes, x + y représente X + Y donc

(X+ Y)· Z =classe de ((x + y)z) =classe (xz + yz)


=classe (xz) +classe (yz), (loi+ sur le quotient)
=X·Z+Y·Z.

On procède de même pour la distributivité à droite. On a donc le

THÉORÈME 5.17. - Soit I un idéal bilatère d'un anneau A La relation


d'équivalence R définie par x R y {::} x - y E I est compatible avec la
structure d'anneau de A et l'ensemble quotient A/R encore noté A/ I est
muni d'une structure d'anneau. •

Soit alors la projection canonique cp : x ~ X classe d'équivalence


de x, c'est un morphisme d'anneaux de A sur A/ I, de noyau I car
cp(x +y) =X+ y et cp(xy) = xy, si X E X et y E Y. vu les définitions
de + et · sur A/ I. Donc cp est un morphisme. On a cp surjectif, car si
X E A/ I, n'importe quel x E X est envoyé sur X par cp, et Ker cp = I
car dans l'anneau A/ I, l'élément nul est la classe d'équivalence de 0 donc
c'est {x;x - 0 E I} = I, et on a Kercp = {x;x dans la classe de O},
c'est donc la partie I de A.
Anneaux, corps, construction de Q 137

En résumant ce qui précède, on a finalement

THÉORÈME 5.18. - Un partie I d'un anneau A est un idéal bilatère si et


seulement si I est le noyau d'un morphisme d'anneaux. •

Par ailleurs, si cp est un morphisme d'anneaux, de A dans A', Ker cp


est idéal bilatère de A, donc l'ensemble quotient A/Ker cp est un anneau
et cp se décompose canoniquement en cp = i o ép o s
cp
A ~ A'

--- î i

A/Kercp ~ cp(A)

avec s : x -v-+ classe X de x dans A/Ker cp, surjection canonique qui est
un morphisme;

ép: X -v-+ ép(X) = cp(x) six EX,


c'est indépendant du choix de x et c'est un morphisme bijectif; i: cp(A) ~
A' définie par y -v-+ i(y) = y si y E cp(A) c'est l'injection canonique, là
encore morphisme d'anneaux.

3. Anneaux principaux, caractéristique

Il est facile de voir que, dans un anneau A, les idéaux, bilatère, à


gauche ou à droite, sont stables par intersection, et que A lui-même en est
un. On a donc la notion d'idéal, à gauche par exemple, engendré par une
partie S de A, ce sera l'intersection de tous les idéaux à gauche contenant
A, c'est le plus petit idéal à gauche contenant S.

5.19. On appelle idéal principàl, (à gauche, droite, bilatère) tout idéal qui
peut être engendré par un seul élément. On se propose de caractériser les
éléments d'un tel idéal.

THÉORÈME 5.20. - Soit a un élément d'un anneau A. L'idéal principal à


gauche, engendré par a, est l'ensemble

(a) 9 = {na+xa;n E l,x E A}.


138 Algèbre

Car cet ensemble contient a= 1 ·a+ Oa, (1 E "li.., 0 E A, attention),


c'est un idéal à gauche:
sous-groupe additif car non vide, et si
b=na+xaetb1 =n'a+x'asontdans (a) 9 ,
b - b1 = (n - n')a + (x - x')a est dans (a) 9 ;

(on obtient xa - x' a = (x - x')a par distributivité dans l'anneau),


permis à gauche: si b = na+xa E (a)g et y E A, y·b =y· (na)+ (y·x) ·a
avec, si n E N, na = a + a + ... + a, n fois, et si n < 0, c'est
na= (-a)+ (-a)+ ... + (-a), -n fois, que l'on considère. Donc

y· b = (ya + ya + ... + ya) +(y· x)a


(ou ((-y)a + (-y)a + ... + (-y)a) +(y· x)a
= ((ny) ·a)+ (y· x)a = Oa + z ·a avec z = ny +y· x E A.

REMARQUE 5.21. - Dans le calcul qui vient d'être fait, il faut se rappeler
que si n E N*, na = a+ ... + a, (n fois), que Oa = 0 et que si -n E N*,
(-n)a = ((-a)+ (-a)+ ... + (-a)), (n fois), -a opposé de a dans le
groupe additif A.
Enfin, (a) g est le plus petit idéal à gauche contenant a ; car si I est
un idéal à gauche contenant a, forcément {na; n E "li..} est contenu dans
I qui est un sous-groupe additif de A; de même I étant permis à gauche,
\:lx E A, x ·a E J, et enfin la stabilité de I pour l'addition implique que
{na + x · a; n E "li.., x E A} est bien dans I. •

On justifierait de même le

THÉORÈME 5.22. - Soit a un élément de l'anneau A. L'idéal principal à


droite engendré par a est l'ensemble (ad) ={na+ a· x; n E "li.., x E A} et
l'idéal principal bilatère engendré par a est l'ensemble

(a)= {na+ x ·a+ a· y+ L S>. ·a· t;>.; n E "li.., x E A,


>.EA
y E A, S;>. E A, t;>. E A, À E A, A de cardinal fini}.

L'ensemble A est un ensemble d'indices.


La technique est la même que pour le Théorème 5.20 on démontre
que les ensembles définis sont des idéaux, (à droite, bilatère) contenant
Anneaux, corps, construction de Q 139

a, et que tout idéal (à droite, bilatère) contenant a contient forcément


l'ensemble donné.
Pour l'idéal bilatère c'est affreux, mais c'est parce qu'un idéal bilatère
contenant a doit contenir les x · a, Vx E A et aussi les a · y, Vy E A mais
alors, si x · a E l'idéal, Vy E A, x · a · y E l'idéal bilatère, et comme on doit
avoir un sous-groupe additif, les sommes finies d'éléments de ce type sont
dans l'idéal. •

5.23. En fait, dans un anneau unitaire, commutatif tout se simplifie.


D'abord, si e est l'élément neutre de l'anneau, 'in E 1\1*, on a

na= a+ a+ ... + a= e ·a+ e ·a+ ... + e ·a= (e + e + ... + e) ·a


=(ne)· a qui est du type xa avec x E A;
de même, si -n E 1\1*, on a

na= (-a)+ (-a)+ ... + (-a)= ((-e) + ... + (-e)) ·a= (ne)· a;
et enfin Oa = 0 est du type 0 · a, ce qui simplifie les expressions en :
(a)g = {x ·a; x E A}; (a)d ={a· x; x E A} et

(a)= { L S>.at>.; S).., t>. dans A; card(A) fini}.


ÀEA
Si de plus l'anneau est commutatif unitaire, les 3 notions coïncident, ce
qui simplifie aussi l'idéal bilatère. On a le

THÉORÈME 5.24. - Dans un anneau commutatif unitaire A, l'idéal prin-


cipal engendré par a est l'ensemble (a)= {x ·a, x E A}= {ax, x E A}.

C'est la forme commune prise par (a)d ou (a)g dans ce cas. •

THÉORÈME 5.25. - Tout idéal I de l'anneau 7L est principal, de la forme


p7L = {multiple de p }, avec p E 1\1.
En fait, c'est déjà la forme des sous-groupes additifs de 71., comme on
l'a justifié au Théorème 4.42, et le théorème ci-dessus nous dit que p · 7L
est un idéal. •

Cette forme, prise par les idéaux de 7L est fondamentale pour introduire
les notions de p.g.c.d; p.p.c.m, décomposition en facteurs premiers ... uti-
lisées en arithmétique, mais aussi dans les anneaux de polynômes. C'est
pourquoi on introduit les notions suivantes.
140 Algèbre

DÉFINITION 5.26. - On appelle anneau principal tout anneau commutatif


unitaire intègre dans lequel tout idéal est principal.

DÉFINITION 5.27. - On appelle anneau euclidien tout anneau intègre


commutatif A, tel qu'il existe une application cp de A* dans N vérifiant:
si b divise a, alors cp(b) ::;; cp(a),
1)
si a E A, si b E A - {O}, il existe q et r dans A tels que a= bq + r
2)
avec r = 0 ou cp(r) < cp(b).

Rappelons que A* =A - {O}.

THÉORÈME 5.28. - Tout anneau unitaire euclidien est principal.

Car, soit I un idéal de A. Si I est réduit à 0, I = 0 ·A est bien un idéal


principal. Sinon il existe des x non nuls dans I, donc l'ensemble des cp(x);
x E I - {O} est un ensemble non vide d'entiers positifs: il admet un plus
petit élément no, (propriété des entiers, liée à ce que la relation d'ordre
entre cardinaux est un bon ordre). Soit xo dans I tel que cp(xo) =no. Si
x est dans I comme xo :f: 0 on utilise le (2e) de la définition 5.27 : il existe
q et r dans A avec x = xoq + r et (r =: 0) ou (cp(r) < cp(xo)).
Or xo E J, idéal::::} xoq E I donc x - xoq = r E /,(idéal donc aussi
sous-groupe additif). Si on avait r :f: 0, on aurait r dans I - {O} avec
cp(r) < cp(xo), ce qui est exclu par défintion de no = cp(xo). On a donc
r = 0, d'où x = xoq.
Il eri résulte que tout x de I est multiple de xo, d'où l'inclusion
I C xo · A, l'autre inclusion étant évidente on a bien I xo · A est
principal. •

L'étude des idéaux principaux a mis en évidence le sous-groupe additif


la = {na; n E l} engendré par un élément a de A. Il s'agit d'un groupe
monogène, donc soit de cardinal infini, soit de cardinal fini, p, ordre de a,
(théorème 4.45).
On note v(a) l'ordre de a lorsqu'il engendre un groupe cyclique, c'est-
à-dire monogène fini. On sait alors que v( a) est le plus petit entier positif
n tel que n ·a = 0, élément nul de l'anneau et (p ·a = 0) ~ (p multiple
de v(a)).
Dans le cas où, Va# 0 dans A, v(a) existe et où de plus l'ensemble
{v(a); a E (A- {O})} est borné, cet ensemble d'entiers est fini, et si N =
le plus petit commun multiple de {v(a); a E (A - {O} )} on a N · x = 0,
Vx E A, (c'est bien sûr vrai si x = 0, et aussi Va E A - {O} car N
est multiple de v(a)), et N est le plus petit entier vérifiant cela car si
Anneaux, corps, construction de Q 141

N' · x = 0, \lx E A, N' est multiple de l'ordre de chaque élément non nul,
donc N'est multiple du p.p.c.m. des ordres des éléments non nuls.

5.29. Dans ce cas on dit que l'anneau A est de caractéristique finie N.


Sinon, quand il n'existe pas d'entier N non nul tel que, \lx E A,
N · x = 0 on dit que A est de caractéristique nulle, puisque 0 · x = 0,
\lx et que 0 est le seul entier vérifiant cela.
A de caractéristique nulle se rencontre soit s'il existe des x non nuls
dans A d'ordre infini, ou bien si l'ensemble des ordres des éléments non
nuls de A est infini.

5.30. L'anneau 7L. lui, est de caractéristique nulle, mais p7L. étant un idéal,
(p E 1\1*), l'anneau 7L./p7L. est de caractéristique p, car en tant que groupe
additif, 7L./p7L. admet p éléments, donc a non nul de 7L./p7L. engendre un
groupe cyclique de cardinal v(a) qui divise card(7L./p7L.) (Théorème 4.59).
On a déjà p multiple de tous les ordres v( a) des éléments non nuls de
7L./p7L.. Puis l'élément 1de7L./p7L. engendre Z/p7L. en entier, car nl =classe
de n est la classe de 0 si et seulement si n - 0 est multiple de p, donc p
est bien.le plus petit entier q > 0 tel que ql =O. Donc 1 est d'ordre p: la
caractéristique de l'anneau devant être multiple de l'ordre de 1, c'est un
multiple de p d'où 7L./p7L. de caractéristique p. •

REMARQUE 5.31. - Si un anneau est unitaire et si son élément neutre e est


d'ordre fini n, tout élément de A - {O} est d'ordre fini, un diviseur den.

CarVx E A-{O}, n·x = x + x + ... + x = e · x + e · x + ... + e · x


= (e + e + ... + e) · x =(ne)· x = 0 · x = 0,

donc x engendre un groupe additif cyclique d'ordre un diviseur de n. •

Si de plus A est unitaire, intègre, si e est d'ordre infini tout élément


non nul est aussi d'ordre infini.
Car si pour x =f:. 0, on a n E 1\1* tel que n · x = (ne) · x = 0 avec x =f:. 0
dans A intègre, c'est que ne = 0, (Définition 5.9), ce qui contredit le fait
que e est d'ordre infini.
En réunissant ces 2 résultats on a donc :

THÉORÈME 5.32. - Un anneau unitaire intègre A est de caractéristique


=f:. 0, finie, N, son élément neutre e est d'ordre N, fini, et A de
*=?
caractéristique nulle *=? e d'ordre infini. •
142 Algèbre

4. Corps des fractions d'un anneau intègre unitaire,


construction de Q

Au chapitre IV §3, on a construit le symétrisé d'un demi-groupe abélien


vérifiant la règle de simplification, rencontrant ainsi le premier exemple
de la notion de plongement d'un ensemble dans un autre.

5.33. On dit qu'on plonge E dans F, E et F étant des ensembles, s'il y a


une injection cp de E dans F. En confondant E et son image cp(E) dans
F, on peut dire que l'on considère alors E comme une partie de F.
C'est en ce sens que N apparaît comme une partie de 7L bien que les
éléments de 7L soient des classes d'équivalence de couples de 1\1 2 .
Si E et F sont munis de structures analogues, (ensemble ordonné,
groupe, anneau, corps ... ), cette notion de plongement n'a d'intérêt que si
cp est un morphisme pour ces structures, condition que l'on impose.
Dans ce chapitre, on va se poser la question de plonger un anneau A
dans un corps, donc d'obtenir des inverses pour le produit. Pour cela mieux
vaut avoir un élément neutre dans A, et comme un corps est intègre, (voir
5.13) l'anneau A dont on part doit lui aussi être intègre.
Enfin, pour faciliter l'exposé, on va considérer le cas des anneaux
commutatifs.
Soit donc un anneau commutatif intègre unitaire A. On peut penser
au cas de 7L que l'on connaît, ce qui facilite la compréhension.
Définir des quotients ou des fractions revient à formaliser ce que l'on
sait depuis longtemps des fractions ~, ~, . . . et en particulier le fait que
~ ou ~ c'est «pareil» s'il s'agit de couper une tarte en deux par exemple.
Peut-être est-il plus facile de manger deux quarts qu'une moitié?
Sur cette vision gourmande des choses, établissoii.s le théorème sui-
vant.

THÉORÈME 5.34. - Soit un anneau intègre unitaire commutatif A. Il existe


un corps K commutatif, et un morphisme d'anneau injectif cp de A dans K.
De plus si K' est un autre corps commutatif tel qu'il existe cp1 morphisme
injectif de A dans K 1, il existe un morphisme injectif() de K dans K' tel
que 't/x E A, cp1 (x) = ()(cp(x)).

Le corps K que l'on va construire est le corps des fractions du domaine


d'intégrité unitaire A, la deuxième partie du théorème dit que K est
unique à isomorphisme près, si on veut que ce soit le plus petit. On procède
par petites étapes.
Anneaux, corps, construction de Q 143

On pose A* =A- {O}, soit C =A x A*. Sur Con définit une relation
binaire n par ( (a, b) n (a'' b')) {::::::::} (ab' = ba').

I
Penser aux fractions: (~ = ~) {::::::::}(ab'= ba').

5.35. n est une équivalence sur c :


réflexif car ab= ba donc (a,.b) 'R (a, b);
symétrique: si ab'= ba1 , par commutativité du produit a 1b = b1a soit

(a,b)'R(a',b') ===? (a',b')'R(a,b);

transitive si (a,b)'R(a 1 ,b1 ) et_{a1 ,b1 )'R(a11 ,b11 ) on a ab' = ba' et


a1b11 = b1a11 • On multiplie la première égalité par b11 , la deuxième par
b d'où
ab' b11 = ba' b11 ba' b11 = bb' a"

d'où (commutativité du produit dans l'anneau), l'on tire ab"b' = ba11 b1 • Or


b1 est non nul, (dans A*) et l'anneau étant intègre, l'égalité (ab" -ba11 )b1 =
0 implique ab" - ba" = 0, soit ab"= ba", d'où (a, b) (a", b"). n •

Par ailleurs, sur Con définit 2 lois. Une addition, +,et un produit, ·,
par

(a,b) + (ai,bi) = (abi + bai,bbi)


et (a, b) ·(ai, bi) = (aai, bbi),

(toujours en pensant à ce que l'on fait sur les fractions usuelles), ce qui a
un sens car bbi =f 0 si b et bi le sont, donc bbi E A*.

5.36. Ces lois sont compatibles avec l'équivalence.


Si (a, b) 'R (a', b') on a ((a, b) +(ai, bi)) 'R ((a', b') +(ai, bi)) car ceci
équivaut à

ou encore à

(abi + bai)b'bi = bbi(a'bi + b'ai)


soit à ab'bI + bb' ai bi = ba'bI + bb'bi ai.
144 Algèbre

Or ab' = ba' ===} ab'by = ba'by, (anneau commutatif), et on a aussi


bb'a1b1 = bb'b1a1 d'où en sommant, l'égalité voulue.
Si de plus (a1, bi) R (a~, bi), on a de la même façon

((a',b') + (a1,b1))R((a',b') + (a~,bD)


et finalement

par transitivité de l'équivalence. Au passage on vient de voir que pour


vérifier la compatibilité on peut simplifier la justification.
De même si (a, b) R (a', b') on a

[(a, b) · (a1, bi)] R [(a', b') · (a1, bi)],


car on doit justifier que
(ab' = ba') ===} ( (aa1, bb1) R (a' ai, b'b1))

ce qui sera vrai si on justifie l'égalité aa1b'b1 = bb1a'a1.


Mais partant de ab'= ba', en multipliant par aibi. et en utilisant la
commutativité du produit on obtient bien aa1b'b1 = bb1a'a1. •

Il en résulte que, sur l'ensemble quotient K = C/ R, on peut définir


deux lois, + et · par :
si X= classe de (a, b) et X'= classe de (a', b') on pose
X + X' = classe de (ab' + ba', bb') et
X · X' = classe de (aa', bb').
Ces définitions ne dépendent pas du choix des représentants.

5.37. L'ensemble K est muni par + d'une structure de groupe additif


commutatif.
L'élément nul est 0 = classe(O,e) = classe(O,b), 'ib E A*, avec e
élément neutre pour le produit dans l'anneau A.
On a bien (0, e) R (0, b) car ceci{:::::} O·b = e·O, vrai. Il faut vérifier que
l'addition est commutative, vrai car X'+ X est la classe de (a'b + b' a, b'b)
or a'b + b' a = ab' + ba' et b'b = bb', A étant commutatif; puisque + est
associative: avec X"= classe de( a", b") on a

(X + X') + X" = classe de( ab' + ba', bb') + classe( a", b")
=classe de((ab' + ba')b" + (bb')a", (bb 1 )b11 )
=classe de(a(b'b") + b(a'b" + b' a"), b(b'b"))
Anneaux, corps, construction de Q 145

(on utilise l'associativité, la distributivité, la commutativité dans l'anneau)

(X+ X')+ X" =classe de( a, b) +classe de(a 1b11 + b1a", b1b11 )
' =X+ (X'+ X") ouf!

Comme (a, b)+(O, e) = (ae+bO, be) = (a, b), l'élément 0= classe(O, e)


est neutre pour l'addition.

Enfin classe( a, b) + classe(-a, b) =classe( ab+ b(-a), b2 )


= classe(b(a - a), b2 )
= classe(O, b2 )
=0

donc tout élément X= classe de (a, b) a un opposé, -X= classe(-a, b) .



5.38. - L'ensemble K est muni par les 2 lois d'une structure de corps
commutatif.
On doit donc vérifier que K* = K - { 0} est un groupe commutatif
pour le produit, l'élément unité étant 1 = classe(b, b), pour tout b de A*
(si b et c sont dans A*, be = cb dans A commutatif donc (b, b) R (c, c) : la
définition de 1 a un sens); et qu'il y a distributivité.
La loi est associative, car, avec les notations précédentes,

(XX')X" = classe(aa', bb1 ) ·classe( a", b11 )


= classe( (aa')a", (bb 1 )b") = classe( a( a' a"), b(b1b11 ))
=X· (X' X");

elle est commutative car aa' = a' a et bb1 = b1b donc X X' = X' X;
il y a distributivité :

(X+ X')· X"= classe( ab'+ ba', bb1 ) ·classe( a", b")
= classe [(ab' + ba1 ) a", (bb1 ) b11 ]
= classe (ab' a" + ba' a", bb' b11 )

Or X X" = classe( aa", bb11 ). Si on remarque alors que :


146 Algèbre

5.89. 'v'(u, v) E C, 'v'w E A*, ((u, v) R (uw, vw)), (car A est commutatif et
c'est équivalent à u(vw) = v(uw)),

on a encore X X" = classe( ab' a", bb'b").

De même X' X" = classe( a' a", b'b") = classe(ba' a", bb'b")
mais alors
X X' +X' X" = classe( ab' a", bb1b11 ) + classe(ba' a", bb1b11 )
= classe((ab' a" bb1b11 + bb1b11 ba1a"), bb1b11 bb1b11 )
= classe( (ab' a" + ba' a")bb'b", bb'b" bb'b")
= classe (ab' a" + ba1a", bb1b"),
d'après la remarque 5.39, puisque bb'b" est dans A*.
On a donc justifié l'égalité (X+ X')X" =XX"+ X' X".
Tout élément admet un inverse, l'élément neutre pour le produit étant
1.
D'abord 1 neutre car
X· 1=1 ·X= classe( a, b) · classe(e, e)
= classe(ae, be)= classe( a, b) =X,

et si X =F 0, X a un inverse : si X = classe( a, b) on a a =F 0,
(sinon X = 0), alors x- 1 = classe(b, a) existe et xx- 1 = x- 1 x =
classe( ab, ba) = 1. •

On a donc pour l'instant construit un corps commutatif K = C/R. Il


reste à plonger l'anneau A dans K et à justifier la deuxième partie du
théorème 5.34.
Soit <p l'application de A dans K, qui à l'élément a de l'anneau A
associe <p(a) = classe( a, e) = classe( ab, b), ceci pour tout b de A* vu la
remarque 5.39.
<p est un morphisme d'anneau, car
<p(a) + <p(b) =classe( a, e) + classe(b, e)
= classe(ae + eb, e) =classe( a+ b, e) = <p(a + b)
et <p(a) · <p(b) =classe( a, e) · classe(b, e) =classe( ab, e) = <p(ab).
Ce morphisme est injectif car <p(a) = <p(b) revient à dire que les couples
(a, e) et (b, e) sont équivalents, donc que ae = eb soit a = b.
On a donc construit un corps commutatif K tel qu'il existe un mor-
phisme d'anneau, injectif, de A dans K.
Anneaux, corps, construction de Q 147

Soit alors K' un autre corps, tel qu'il existe un morphisme <.p1 injectif
de A dans K', avec K' commutatif.
On cherche un morphisme(), injectif, de K dans K', tel que \:/x E A,
<.p1 (x) = B(<.p(x)).
Or si X= classe( a, b) =classe( a, e) · classe(e, b), avec e neutre pour
le produit dans A, on posera, comme <.p( a) = classe( a, e) :
B(classe(a, e)) = <.p1 (a) et B(classe(b, e)) = <.p1(b).
Comme (classe(b,e)) = (classe(e,b))- 1 , (inverse dans le corps K, car
b :/: 0) on posera B(classe(e, b)) = (<.p1 (b))- 1 ce qui a un sens car b # 0
dans A, <.p 1 morphisme injectif de A dans K' donc <.p1 ( b) # 0 dans le corps
K', donc l'inverse existe.
On pose donc, si X =classe( a, b), B(X) = <.p1 (a)( <.p1 (b))- 1 à condition
que ceci ait un sens, c'est-à-dire que ce soit indépendant du choix du
représentant (a, b) de la classe X.
Or si (a', b1) E X aussi, c'est que ab' = ba', d'où, <.p1 étant un
morphisme d'anneaux <.p1(a)<.p 1(b') = <.p1 (b)<.p1(a 1 ), avec là encore <.p1 (b) # 0
et <.p 1 ( b') # 0, (<.p1 injectif et b et b1 non nuls), donc ces éléments sont
inversibles dans le corps commutatif K', on a bien <.p 1(a)(<.p 1 (b))- 1 =
<.p1(a')( <.p 1(b') )- 1 .
()est un morphisme d'anneaux car, si (a, b) EX et (a', b') EX' on a

B(X +X')= B(classe(ab' + ba1 ,bb1 ))


= <.p1(ab' + ba1 ) • ( <.p1(bb1 ) ) - 1
= (<.p 1(a)<.p 1(b1) + <.p1 (b)<.p 1(a1 )) • (<.p1 (b)<.p 1(b1 ))- 1
car <.p1 est un morphisme d'anneau.
Mais (<.p1 (b)<.p1(b'))- 1 = (<.p1 (b'))- 1 (<.p1 (b))- 1 et dans K' commutatif, on a
<.p1 (b1 )(<.p1 (b1 ))- 1 = 1 et <.p1(b)(<.p1 (b))- 1 = 1, d'où

B(X +X')= <.p1(a)(<.p 1 (b))- 1 + <.p 1(a 1)(<.p1 (b 1 ))- 1 = B(X) + B(X').
De même
B(XX') = B(classe(aa', bb1 ))
= <.p1 ( aa') (<.p1(bb') )- 1
= <.p 1(a )<.p1 (a') · (<.p 1(b )<.p1 (b'))- 1
= <.p1 (a)<.p 1 (a 1 ) • ((<.p'(b'))- 1 (<.p'(b))- 1 )
= <.p1 (a) (<.p1 (b) )- 1 · <.p1 (a') (<.p1 (b'))- 1 , (K' commutatif),
= O(X)O(X').
148 Algèbre

Enfin (}est injectif car O(classe(a, b)) = c,o'(a)(c,o'(b))- 1 = 0 dans le


corps K' ~ c,o'(a) = O. Comme c,o' est injectif c'est que a = 0, donc
X= classe(O, b) =O.
Le Théorème 5.34 est donc justifié.
On a bien construit le corps K des fractions de l'anneau commu-
tatif unitaire intègre. Si on identifie A et c,o(A), tout élément X =
classe de (a, b) de K se représente par l'une quelconque des fractions
a a' . , ,
b' b', ... , éqwvalentes au sens ab = ba.
a a' ab'+ ba'
La règle de calcul b + b' = bb' de réduction au même
dénominateur, se comprend alors très bien.
Appliqué à l'anneau l, ce procédé conduit au corps Q des rationnels.
Il nous restera à construire R, corps des réels, mais dans ce cas le
problème est de nature topologique. Quand au passage de R à C, de nature
algébrique, le procédé constructif le plus naturel utilise des propriétés
supplémentaires sur les idéaux, propriétés que nous allons aborder.

5. Idéaux premiers, idéaux maximaux

THÉORÈME 5.40. - Soit un anneau unitaire K. Les propriétés suivantes


sont équivalentes :
1) K est un corps,
2) K est non réduit à {O} et ses seuls idéaux à gauche sont {O} et K.

1) ===> 2) Un corps K contient au moins 2 éléments 0 et 1 neutre pour


l'addition et le produit, donc K est non réduit {O}.
Soit I idéal à gauche, différent de {O}, 3x =f. 0, x E J, or dans le corps
K, x non nul a un inverse, x- 1 , donc 1 = x- 1 · x E I d'où, 'ï/y E K,
y = y· 1 E I d'où I = K.

2) ===> 1) Il s'agit de prouver que a non nul dans K admet un inverse.


Soit Ka = {ka, k E K} l'idéal à gauche engendré par a, (voir 5.23), il
contient a = 1 ·a, (K anneau unitaire), non nul, donc Ka =f. {O}, le 2)
===> Ka = K, donc il existe a- 1 E K tel que a- 1a = 1. Pour l'instant
a- 1 est inverse à gauche de a, or a- 1 =f. 0, donc on peut appliquer le
même raisonnement à a- 1 au lieu de a, il existe donc b tel que ba- 1 = 1,
mais alors
Anneaux, corps, construction de Q 149

b = b · 1 = b · (a- 1 a) = (ba- 1 ) ·a par associativité du produit,


soit b = 1 ·a= a, d'où aa- 1 = 1 :

on a bien existence d'un inverse, des 2 côtés, pour a # 0 : K est un corps .



REMARQUE 5.41. - On a le même résultat pour les idéaux à droite, mais
pas pour les idéaux bilatères. Uétude de l'algèbre linéaire en fournit un
exemple, avec E espace vectoriel de dimension finie, (~ 2) sur un corps
K, A l'anneau des endomorphismes de E, A n'a que {O} et A comme
idéaux bilatères mais ce n'est pas un corps.
Le théorème 5.40 va nous permettre d'établir d'autres résultats.

DÉFINITION 5.42. - Un idéal I de l'anneau commutatif A est dit maximal


si I # A et si I C .:T avec .:T idéal =} .:T = I ou .:T = A

Donc I est maximal dans l'ensemble partiellement ordonné des idéaux


différents de l'anneau.

THÉORÈME 5.43. - Dans un anneau commutatif unitaire A, un idéal M


est maximal si et seulement si l'anneau quotient A/ M est un corps.

Dans A commutatif, tout idéal M est bilatère, donc A/ M est un


anneau (Théorème 5.17). Cherchons les idéaux I de A/M. Pour cela
soit <p le morphisme surjectif A~A/M qui a x de A associe sa classe
d'équivalence.
Si I est un idéal de A/M, <p- 1 (1) en est un de A, car I sous-groupe
additif et <p morphisme d'anneau, donc a fortiori de groupe implique déjà
que <p- 1 (J) est sous-groupe additif de A; puis si a E A et x E <p- 1 (J),
(c'est-à-dire <p(x) E J), alors <p(ax) = <p(a) · <p(x) E I donc ax E <p- 1 (1),
ce qui justifie bien le fait que <p- 1 (J) est un idéal de A. De plus, Vm E M,
<p(m) = M =élément nul de A/M donc <p(m) est un élément de l'idéal
Ide A/M, donc m E <p- 1 (J).
On a: (I est idéal de A/MJ ==} (<p- 1 (J) est idéal de A contenant
M).
Réciproquement, soit J un idéal de A contenant M, comme <p est
surjective, <p(J) est un idéal de A/ M, (là encore c'est d'abord sous-groupe
additif car image d'un sous-groupe additif par un morphisme de groupe,
puis, si A = <p(a) E <p(J), avec a E J, et si X est quelconque dans
A/M = <p(A) il existe x dans l'anneau A tel que <p(x) = X d'où
150 Algèbre

X· A = <p(x)<p(a) = <p(xa) car <p morphisme, or x E A, a E J idéal


de A:::::} xa E J, donc XA E <p(J) qui est bien un idéal.
Le fait que J contient M n'intervient pas en fait.
Enfin, si Ji et J2 sont deux idéaux de A contenant M, tels que
<p(J1) = <p(J2) alors Ji = h car si x1 E Ji, X1 = <p(x1) E <p(J1) =
<p(h) donc 3x2 E h tel que <p(x1) = <p(x2), soit <p(x1 - x2) = 0 ou
x1 - x2 E M, or M c Ji n h donc x1 - x2 E J2.
Comme x2 E h qui, en tant qu'idéal est aussi sous-groupe additif on
a : x1 E h, d'où Ji C h; on justifierait de même h C Ji d'où Ji = h,
et ici l'inclusion Mc Jin h sert.
On a finalement prouvé qu'il y a bijection entre les idéaux bilatères de
A/ M et ceux de A contenant M.
Mais en fait A est commutatif, donc A/ M aussi, si bien que la notion
d'idéal bilatère coïncide avec celle d'idéal à gauche, et il y a bijection entre
les idéaux à gauches de A/ M et ceux de A contenant M.
Mais alors M idéal maximal dans A, (commutatif unitaire)

{=::::> les seuls idéaux de A contenant M sont M et A


{=::::> les seuls idéaux de A/ M sont <p(M) = {O} et A/ M
{=::::> A/ M est un corps, d'après le théorème 5.40.

En cours de route on a aussi prouvé k :

THÉORÈME 5.44. - Soient A et A' deux anneaux, <p un morphisme de A


dans A'; si I' est idéal de A', <p- 1(J') en est un de A; si I en est un de A,
et si <p est surjective, alors <p(I) est un idéal de A'. •

Cet énoncé est valable pour idéaux à droite, ou à gauche, ou bilatères,


la justification donnée dans le cas bilatère s'adaptant sans difficulté.

THÉORÈME 5.45. - Soit un anneau unitaire A et un corps K. Si f est un


morphisme d'anneaux de K dans A, alors J(K) est un corps isomorphe à
K.

En effet Ker f est un idéal bilatère, donc à gauche, du corps K puisque


(0) est idéal de A, or f(lK) = IA ~ 0 A donc lK ~Ker f.
Le théorème 5.40 :::::} Ker f = {O} car Ker f = K est exclu, et {O} et
K sont les seuls idéaux à gauche du corps K.
Donc f est injective, et induit une bijection de K sur l'anneau image
f(K), qui contient lA = f(IK)· Il reste à vérifier que tout y non nul
de f(K) a un inverse dans J(K). C'est évident car si y = f(x), on a
Anneaux, corps, construction de Q 151

x =f:. 0, (sinon y = f (0) = OA), donc x- 1 inverse de x dans K existe et


J(x- 1 x) = lA = J(x- 1 )f(x) = f(x- 1 )y: on a de même yf(x- 1 ) = lA,
d'où l'existence d'un inverse de y. •

Il nous reste un dernier type d'idéal à définir : l'idéal premier.

DÉFINITION 5.46. - On appelle idéal premier de l'anneau commutatif


unitaire A tout idéal P tel que le complémentaire ensembliste A - P soit
multiplicativement stable.

THÉORÈME 5.47. - Dans A commutatif unitaire, l'idéal Pest premier si


et seulement si A/ P est un anneau intègre.

Si P est idéal premier, l'anneau étant commutatif, P est bilatère donc on


peut considérer l'anneau A/ P. Soient X et Y, 2 éléments non nuls de
A/ P, représentés par x et y respectivement, x et y n'étant pas dans P
(élément nul de A/ P) d'où xy E A - P, stable par produit; donc XY =
classe de xy est non nulle. Par contraposée, on a (XY = 0) ===}(X ou Y
nul). Donc A/ P est intègre.
Si A/ P est un anneau intègre, on veut prouver que A - P est
multiplicativement stable. Or si x E A - P et y E A - P, on a
X = classe(x) et Y = classe de y, non nulles, donc XY =f:. 0, élément
nul de A/ P, car A/ P intègre, d'où xy étant un représentant particulier
de la classe XY, on a bien xy fi P : c'est la stabilité multiplicative de
A-~ •
REMARQUE 5.48. - Dans un anneau commutatif unitaire, I idéal maximal
est premier, car A/ I est un corps, donc intègre, mais la réciproque est
fausse car dans Z, {O} est idéal premier, Z/ {O} '.: : :'. "1L étant intègre, mais
ce n'est pas un corps, donc {O} n'est pas maximal.
Pour clore ce chapitre sur les anneaux, signalons le résultat suivant :

THÉORÈME 5.49. - Tout anneau intègre de cardinal fini est un corps.

Pour cela on utilisera le résultat suivant :

LEMME 5.50. - Tout demi-groupe fini non vide vérifiant la règle de


simplification est un groupe.

Soit G = {gi, ... , 9n} un demi-groupe multiplicatif, fini de cardinal


n ;;:: 1. Dire que G vérifie la règle de simplification, c'est dire qu'une égalité
152 Algèbre

du type gx = gy implique x = y, et que xg = yg implique x = y, ceci


quels que soient x et y de G.
Soit alors g fixé dans G, l'ensemble des {ggi,i = l, ... ,n} est de
cardinal n, (car ggi = ggj ::::} gi = gj par simplification), donc c'est G
entier, en particulier il existe e E G tel que ge = g.
Mais alors e est.neutre à gauche car, 'efx E G, on a

(ge)x = gx = g(ex) d'où x =ex par simplification.

En procédant de même, il existe e' tel que e' g = g, car card{gig,


1 :;;; i :;;; n} ,;,,, n donc g figure dans cet ensemble, d'où e' neutre à droite,
car 'efx E G, x(e' g) = xg = (xe 1 )g donne x = xe' par simplification.
Mais e' neutre à droite implique ee' = e, alors que e neutre à gauche
implique ee' = e', d'où e = e' est élément neutre.
Puis, g étant fixé dans G, e figure dans {ggi, 1 :;;; i :;;; n} = G,
donc il existe g', inverse à droite de g, c'est-à-dire tel que gg 1 = e, et
de même il existe g 11 inverse à gauche de g, donc tel que g11 g = e, car
e E {gig; 1:;;; i ~ n} = G.
Mais alors
g" gg' = g" (gg') = g" e = g"
= (g" g)g' = eg' = g'

donc en fait, g 1 = g11 est bien inverse de g, ce qui achève la justification


du lemme.
Quant au théorème, A est anneau intègre, donc A* = A - { 0} est
demi-groupe, fini, vérifiant la règle de simplification car

· ax = ay Ç=?- a(x - y) = 0, (calcul dans un anneau),

avec a =/:- 0 et A intègre, c'est que x - y = 0 soit x = y. On justifie de


même que xa = ya ::::} x = y, donc A* est demi-groupe fini vérifiant
la règle de simplification : c'est un groupe multiplicatif, donc A est un
corps. •

COROLLAIRE 5.51. - On a (l/pl est un corps) Ç=?- (p est un nombre


premier).

Car A= l/pl est un anneau de cardinal fini, p.


Si p non premier, il existe Pl et P2 entiers avec 0 < PI < p, 0 < P2 < p
et p = P1P2, d'où, en notant x la classe de l'entier x, PiP2 = p = 0, dans
l/pl, avec p1 et P2 non nuls car Pl et P2 ne sont pas divisibles par p.
Donc p non premier::::} l/pl non intègre: a fortiori ce n'est pas un corps.
Anneaux, corps, construction de Q 153

Si p premier, si xy = 0, xy est divisible par p premier c'est donc que


x ou y est divisible par p, c'est-à-dire x ou y= O. On a 7L/p7L intègre de
cardinal fini, donc c'est un corps. •

On a en fait utilisé le théorème de Gauss. Justifions le

THÉORÈME DE GAUSS 5.52. - Si p premier divise xy, (dans 7L) c'est que p
divise x ou p divise y.

5.58. Rappelons que (p premier) {::::::::} (p admet exactement 2 diviseurs


dans 7L), 1 et p, donc 1 n'est pas premier.
Soit p premier qui divise xy. Si p ne divise pas x, la division eucli-
dienne de x par p donne q E 7L, r E 7L, vérifiant x = pq+r avec 0 < r < p,
r #- 0 car p ne divise pas x (Théorème 4.44).
On a xy = pqy + ry d'où p divise ry = xy - pqy.
On est ramené à : p premier, p divise ry et p ne divise pas r, sinon
p diviserait x = pq + r, mais en plus on a 0 < r < p, donc le produit
ry E {y, 2y,3y, ... , (p- l)y}.
Soit M = { entiers naturels > 0, m, tels que p divise my }, r E M
qui est donc non vide, et admet alors un plus petit élément, mo ~ r.
Si mo = 1, c'est que p divise 1 ·y= y et on a gagné.
Si mo > 1, on divise p par mo, Jlivision euclidienne, il existe q' et
r' tels que p = q'mo + r' avec 0 ~ r' < mo, et de plus r' #- 0, sinon
p = q' mo avec mo #- 1 et mo ~ r < p implique q1 #- 1 donc on aurait p
non premier.
Mais alors py = q'moy+r'y donc r'y = py-q'moy est divisible par p.
On aurait r' E M, avec r' < mo, plus petit élément de M, c'est absurde.
Donc mo = 1 et c'est terminé. •

EXERCICES

1. On pose Fm = 22m + 1. Montrer que si m #- n, Fm et Fn sont


premiers entre eux.

2. Trouver le dernier chiffre de l'écriture décimale de 7( 77 ).

3. Montrer qu'il existe une infinité de nombres premiers congrus à -1


modulo 4.
154 Algèbre

4. P et Q étant deux points de !Rn, soit ( *) la propriété : il n'existe


pas de point à coordonnées entières appartenant au segment [P, Q]
privé de Pet Q. Montrer que si P(a, b) et Q(m, n) sont deux points
de Z2 , on a (Pet Q vérifient(*)){:::::::::} (p.g.c.d.( (a-m), (b-n)) = 1).

5. Soit un anneau commutatif A. Démontrer l'équivalence entre:


a) toute suite croissante d'idéaux est stationnaire,
b) pour tout idéal Ide A il existe un nombre fini, n, d'éléments de
I, notés ai, a2, ... , an, tels que I = ai A+ a2A + ... + anA.

6. Soit un anneau commutatif A que toute suite croissante d'idéaux


soit stationnaire. Soit I un idéal de A tel qu'il existe (a, b) E A 2 ,
avec ab E J, a rf. I, \::/n E 1\1, bn rf. I.
a) Montrer que pour tout h de 1\1, h = {x E A, xbh E J} est un
idéal. En déduire l'existence de k dans 1\1 tel que Vh ~ k, Ih = h·
b) Soit I' = I + Abk. Montrer que J' f=. I, If=. Ji, I = I' n Ji.

7. Soit un anneau A commutatif, I un idéal de A. On appelle radical


de I l'ensemble 'R(J) = {x; x E A, 3p E 1\1,xP E J}.
a) Montrer que 'R(J) est un idéal.
b) Trouver le radical de l'idéal nl de l'anneau l.

8. Soit A l'anneau des z = x+iy; (x,y) E Z2 , sous-anneau du corps C


des complexes. (C'est l'anneau des entiers de Gauss). Soit I un idéal
de A.
a) Montrer que l'ensemble des modules des éléments de I - {O}
admet une borne inférieure p >O.
b) En déduire que l'anneau A est principal.

9. Soit deux entiers a et b premiers entre eux. On pose no = ab - a - b.


Montrer que pour n E 1\1, n >no, 3(x, y) E 1\1 2 , ax + by = n.

10. 1) Montrer que ((a, b, c) E Q3 , a+ b'l/'2 + cv'3 = 0) =? (a =b=


c = 0).
2) Montrer qu'un cercle de centre ( 'l/'2, J3) dans IR 2 , de rayon r a
au plus un point de Z2 .
3) Montrer que \::/n E 1\1, 3r E IR, tel que le disque de centre ( 'l/'2, J3)
et de rayon r contienne exactement n points de 2 . z
ll. c
Dans E = 0 ([0, 1], C), soit I au sous-espace vectoriel strict de E
tel que\::/(!, g) E I x E, f g E J. Montrer qu'il existe xo dans [O, 1]
tel que \::/f E J, f(xo) =O.
Anneaux, corps, construction de Q 155

12. Montrer que -3 est un carré modulo p, (p premier ~ 5) si et


seulement si p =
1(3). On pourra étudier les zéros de X 3 - 1.

13. a) Soit p un entier impair somme de deux carrés. Montrer que p - 1


est divisible par 4. Dans toute la suite, on se donne un entier premier
p tel que p - 1 soit divisible par 4.
p-1
b) Montrer quel/pl - {O} contient exactement - 2 - carrés.
c) Montrer l'existence d'un entier m tel que m 2 +1 soit divisible par
P·.
d) Montrer l'existence de (a, b) dans l 2 tel que 17 -al :i:;; ~·
avec 0 < b < yp.
e) Montrer que p est la somme de deux carrés.

SOLUTIONS

1. On a m =/= n, supposons m < n par exemple. Alors on a


2n-m.
Fn = (Fm - 1) + l.
Comme 2n-m est pair, en développant par la formule du binôme
(Fm - 1) 2n-m on a (Fm - 1) 2n-= = 1 + un entier contenant Fm en
facteur, on note 1 +Fm · a, a E N.
Donc Fn = 2 + aFm. Tuut diviseur commun de Fn et Fm diviserait 2, or Fn
et Fm sont impairs donc non divisibles par 2. On a bien Fn et Fm premiers
entre eux.

2. On a 'fl = 1 (mod 10), 7 1 = 7 (mod 10), 72 = 9 (mod 10), 73 = 3 (mod 10),


74 = 1 (mod 10),
d'où par récurrence:
74 n = 1(mod10), 74 n+l = 7 (mod 10), 74n+ 2 = 9 (mod 10),
74 n+ 3 = 3 (mod 10).
Or 76 = (7 3) 2 est du type (2p + 1) 2 donc congru à 1 modulo 4, on a donc
77 = 7 (mod 4) soit encore= 3 (mod 4),
d'où 7( 77 ) = 3 (mod 10).

3. S'il n'y en a qu'un nombre :fini, n, soit Pl , ... , Pn les nombres premiers
congrus à -1 modulo 4. Alors N = 4p1p2 ... Pn - 1 est congru à -1 modulo
4 et n'est divisible par aucun des Pi·
Si donc N se décompse en N =
qj sont tous distincts des Pi.
qr1 ... q<çr, (les qj nombres premiers) les
156 Algèbre

Comme N est impair, on a Qj =f. 2, donc Qj impair est congru à 1 ou -1


modulo 4. Si les Qj étaient tous congrus à 1 modulo 4 on aurait N = 1
(mod 4). C'est exclu, donc un Qj est congru à -1 modulo 4, c'est donc un Pi·
Absurde.

4. On va justifier que (P et Q ne vérifient pas (*)) équivaut à a - m et b - n


non premiers entre eux.
Si Pet Q ne vérifient pas(*) il existe t E]O, 1( tel que x = ta+ (1 - t)m
et y = tb + (1 - t)n soient dans Z, d'où les égalités t(a - m) = x - met
t(b-n) = y-n. Comme P =f. Q on a soit a-m =f. 0 soit b-n =f. 0 ce qui
implique t E Q.
En prenant t sous forme irréductible, p/q, t E]O, 1[=> q > 1 et on a
p(a - m) = q(x - m)
{
p(b-n) = q(y-n).
Comme q est premier à p, q divise a - m et b - n, (th. de Gauss) qui ne sont
pas premiers entre eux.
Réciproquement si (a - m) /\. (b - n) = r > 1. Posons a - m = pr et
b - n = qr, t = .! et soit x =ta+ (1 - t)m et y= tb + (1 - t)n.
r
Le point M(x, y) E]P, Q[ car.! E]O, 1(.
r
Orx=~ a+ ( 1- ~ =~a+ ( 1- ~) (a -
)m pr)=a+ p- pr El
et on vérifie aussi que y = b - qr + q E l d'où P et Q ne vérifient pas (*).

5. a) => b) Soit I un idéal, ai E /, li =ai A est un idéal contenu dans/.


Si h C 1, 3a2 E I '- (ai A), et on vérifie que /2 = ai A+ a2A est un idéal
i-
de A, avec li Ch; eth C 1, (ai et a2 sont dans l'idéal/). Si h C 1, avec
i-
a3 E l'-h, on considère l'idéal /3 = aiA+a2A+a3A contenant h et inclus
dans I et on continue. Si on n'a pas b), on construit une suite strictement
croissante d'idéaux, non stationnaire, d'où par contraposée, a => b.

b) =>a) Soit une suite croissante (In)nEN d'idéaux, alors I = LJ ln est


nEN
un idéal car six et y sont dans/, 3(n, m) E N 2 , x E In, y E lm d'où x et y
dans lsup(n,m)> idéal donc sous-groupe additif, donc x-y E lsup(n,m) C 1,
I est non vide car 0 E chaque In, donc I est sous-groupe additif; et six E /,
a E A avec n EN tel que x E In on a ax dans In donc dans I qui est partie
permise.
D'après le b), il existe ai, ... ,ap de /tels que I = aiA+ ... +apA, et avec
n(i) EN tel que ai E In(i) (vu la définition de/), les ai pour i = 1, ... ,p
sont tous dans Iq avec q = sup{n(i), 1 ~ i ~ p}, (suite croissante d'idéaux)
d'où les aiA C lq => I C lq C 1, et la suite I stationnaire au rang q.

6. a) Comme 0 = Obh E /, 0 E h, puis six et y sont dans Ih, c'est que xbh
et ybh sont dans /, idéal donc sous-groupe additif d'où (x - y)bh E I :
alors (x - y) E Ih qui est sous-groupe additif; si x E h et z E A,
Anneaux, corps, construction de Q 157

(zx)bh = z · (xbh) E I puisque xbh E J, d'où zx E h : c'est un idéal.


Si x E h, comme xbh E J, (xbh) · b E I a fortiori, d'où x dans h+i : la
suite d'idéaux (h)hEN est croissante donc stationnaire par hypothèse, d'où
l'existence de k E N tel que \:/h ;;:: k, h = h·
b) On a I C 11 ; et bk+i E Abk donc bk+i E 11 avec bk+i If.Ion a donc
IcI'.
=/=
Six E J, idéal, xb E I donc x Eli d'où l'inclusion I C fi. Comme ab E J,
c'est que a E fi, or a If. I d'où I C fi.
=/=
On a I c I' n li d'après ce qui précède. Soit X dans I' n li' X s'écrit
x = u + vbk avec u E J, v E A, et xb E J, (traduit x E Ji), soit
ub + vbk+i E I; or u E I => ub E I d'où vbk+i E I : c'est que
v E Ik+i = Ik (vu le a)) donc vbk E I et alors x E I d'où l'égalité voulue,
I = I' n fi.
7. a) R(I) est sous-groupe additif, non vide car 0 E R(I), soit x et y dans
R(I), avec pet q tels que xP et yq sont dans I, dans l'anneau commutatif
p+q
A, (x - y)p+q = L c:+q(-l)kykxp+q-k est une somme de termes de
k=O
I, car soit k ;;:: q et alors yk E J, soit p + q - k ;;:: p (et alors xP+q-k E I
d'où x - y E R(I).
R(I) est idéal car si x E R(I), et z E A, avec p tel que xP E J, on a
(xz)P = xPzP, (A commutatif) donc xPzP E I => xz E R(I).
b) On décompose n en n =
premiers et les ai entiers ;;:: 1.
nr
1 n~ 2 ••• n~q, les ni étant des nombres

Six E R(nZ), :3p E N, xP E nZ ce qui équivaut à n divise xP. Mais ceci


implique que chaque ni premier divise x, et six est divisible par ni, ... , nq,
-n( n Z) = nin2 ... nq Z ; ni, n2, ... , nq
· "ble par n. Done'"
x sup(a.i) sera divis1
facteurs premiers distincts divisant n.

S. Avec z = x + iy non nul, on a z 2 = x 2 + y 2 ;;:: 1 : la borne inférieure de


l'ensemble des lzl 2 , \:/z E I - {O} est un entier;;:: 1, d'où p > O. De plus
une borne inférieure d'entiers est atteinte~ donc il existe a dans I tel que
lal 2 = p2 soit lai = p.
Soit alors z = x + iy E J, on considère Z = !.. = X = iY. Il existe un seul
a
2 , , 1, 1
couple u, v de Z tel que X = u + X , Y = v + Y avec -2 < X ::;;; 2
()

et-~ <Y'::;;; ~-On a alors z = Za, d'où z = (u + iv)a +(X'+ iY')a.


Comme z E J, a E J, (u + iv) E A on a z - (u + iv)a E J, soit
(X' + iY')a E J.
Or l(X' + iY')al = (X' 2 + Y'2 )if 2 jal avec X'2 + Y'2 ::;;; !, donc
2
IX' + iY'I < lai = p : c'est que X'+ iY = O; d'où z = (u + iv)a
1
158 Algèbre

est dans Aa. On a I C Aa, et a E I => Aa C I : l'idéal I est bien


principal.

9. L'ensemble I = {ax + by; (x, y) E Z2 } est un idéal del anneau principal.


Il est engendré par le p.g.c.d de a et b donc par 1 : il existe donc (u, v) dans
z2 tel que ua + vb = n.
Si (u', v') est un autre couple de z2 tel que u' a + v' b = n, on a
(u - u')a + (v - v')b = 0 et comme a et b sont premiers entre eux b divise
u - u' (et a divise v - v 1 ) : il existe k dans l tel que u - u' = kb et
v - v' = -ka d'où u = u' + kb et v = v' - ka. Mais réciproquement, si
(u', v') est solution, pour tout k de Z, avec u = u' + kb et v = v' - ka il
vient (u' + kb)a + (v' - ka)b = u' a+ v'b = n. On va prouver l'existence
de k dans l tel que u' + kb et v' - ka soient dans N.
Dans l archimédien, il existe un et un seul ko El tel que u' + kob ~ 0 et
u' + (ko - l)b < 0, soit u' + (ko - l)b ~ -1, d'où kob ~ -1 - u' + b.
On multiplie par -a, strictement négatif, on a :
-koab ~ a+ u' a - ab, donc

v'b- koab ~ v'b+ a +u'a - ab,

avec u' a+ v'b = n, soit b(v' - koa) ~ n +a - ab> no+ a - ab= -b.
On simplifie par b, (> 0), d'où v' -koa > -1 soit v' -koa ~ 0: finalement
u' + kob et v' - koa sont dans N.

10. 1) Si bV2 + evf3 = -a, en élevant au carré on obtient 2bev'6 = a2 -


2b2 - 3e2 soit 2bev'6 E Q et si be (/. 0 ceci donne v'6 E Q : exclu car
eq
v'6 = irréductible implique 6q2 = p 2 donc 2 divise p, avec p = 2p1 on
aurait 6q 2 = 4p' 2 donc 3q2 = 2p' 2 donc 2 divise q et p/q ne serait pas
irréductible. Donc be= O.
Prenons b = 0, il reste evf3 = -a, et là encore e =fa 0 => V3 E Q, exclu par
le même raisonnement, d'où e = 0 et a= O.
2) Si un point (x, y) de Z 2 est sur le cerclerr de centre ( V2, V3) de rayon r,
ona (x-V2) 2 +(y-J3) 2 = r 2 soitx 2 +y 2 +5-r 2 -2V2x-2vf3y =O.
Un autre point (x', y') de z2 sur r r conduit à

x'2 + y' 2 + 5 - r 2 - 2V2°x' - 2.J3y' =0


et par soustraction à

(x 2 + y 2 - x' 2 - y 12 ) + V2°(2x 1 - 2x) + .J3(2y1 - 2y) =0


et commè x 2 + y 2 - x' 2 - y 12 , 2(x' - x) et 2(y1 - y) sont dans Z, d'après
le 1), on a en particulier x' = x et y 1 = y : il y a au plus un point de z2 sur
rr.
Anneaux, corps, construction de Q 159

3) On note Dr le disque de centre n = (J2, v/3) et de rayon r et on définit


c.p : [O, +oo[f--> fil par c.p(r) = card(Z 2 nDr ). On a c.p(O) = 0, c.p est croissante,
non bornée, (si on se donne n points de z2 , dès que r est supérieur à la
distance euclidienne den et de ces points on aura c.p(r) ;;.: n). La fonction
distance étant continue, la distance de n à z2 est atteinte, (on remplace z2
par K == Z2 n B J(n, d(Q, (1, 1))) par exemple, K est compact) en un seul
point vu le 2), si w1 est ce point et r1 = d(Q, w1) on a bien Dr 1 contient 1
point; puis la distance den à z2 -{w1} est atteinte, (là encore on remplace
z2 - {wi} par son intersection avec un fermé borné) en w2, unique, (vu le
2) avec r2 = d(Q, w2) > ri, toujours vu le 2), d'où Dr 2 contenant 2 points
et on itère le raisonnement.

ll. L'ensemble I est un idéal de l'anneau E.


Soit f E I. Si f ne s'annule pas, la fonction g = J est continue sur [O, 1),
1
donc f E E, f E I => 1 E I et alors, Vg E E, g = 1 · g E I, c'est exclu.
Donc chaque f de I s'annule. Soit N(f) = {x E [O, 1], f(x) = O}.
Soient Ji, ... , fp dans I, les fonctions conjuguées fk sont dans E donc les
p

produits fk f k = 1fk1 2 sont dans l'idéal I et les sommes L 1fk1 2 sont dans
k=l
p
I, donc L lfkl 2 s'annule mais ceci n'est possible qu'en un xo zéro commun
k=l
de Ji, ... , fp. Donc, pour toute partie finie de I, les fonctions de cette partie
ont un zéro commun.
Soit alors A = n
N(f). Si A = 0, on a une intersection de fermés, (j
JE!
continue), vide, dans [O, 1] compact, donc il existe une intersection finie déjà
vide, soit une famille finie d'éléments de I sans zéro commun : c'est exclu.
Donc n
JE!
N(f) # 0: il y a un zéro commun aux f de I.

12. On a X 3 - 1 = (X - l)(X 2 +X+ 1) et le polynôme X 2 +X+ 1 s'écrit


encore (X + ~) 2
+~ puisque p # 2. Le polynôme sera donc scindé dans
K[X], avec K = Z/pl si et seulement si -3 est un carré dans K.
Donc (-3 carré modulo p) {::::::::? (X 3 - 1 scindé dans K[X]). Or tout élément
,\ de K* == K - { 0} vérifie l'égalité ,\P-l = 1, (K* groupe multiplicatif de
cardinal p - 1).
Si on a p =
1(3), p - 1 = 3h, et xp-l - 1 = X 3 h - 1 est scindé, les
zéros de ce polynôme étant les p - 1 éléments distincts de K*. Comme
on a Xh - 1 = (X - l)Q(X) avec Q(X) = xh-l + xh- 2 + ... +1 dans
K[X], on a X 3 h - 1 = (X 3 - l)Q(X 3 ), d'où également X 3 - 1 scindé.
160 Algèbre

Si p:::: 2(3), p- 1 = 3k + 1 et xp-l - 1 =X· X 3 k - 1. S'il existe a dans


K tel que a3 = 1, on aura aP-l - 1 =a -1 donc a ne peut être un zéro de
x 3 - 1 que si a = 1 : le polynôme X 3 - 1 n'est pas scindé.
Comme p = 0(3) est exclu, (p premier ~ 5) on a finalement l'équivalence
=
(X 3 - 1 scindé)<::::=> (p 1(3)) d'où le résultat.

13. a) Si p = 2k + 1 = q 2 + r 2 avec q et r non nuls, l'un des deux nombres q


ou r est pair, l'autre impair, (sinon q 2 + r 2 pair). Supposons que q = 2q1 et
r = 2r1 + 1, alors on a :
p = 4( q12 + r 12 + r') + 1 donc p - 1 est divisible par 4.
b) Comme K* = Z/pl - {O}, (on note K le corps 1/pl, avec p premier) est
un groupe multiplicatif ayant p - 1 éléments, pour tout .À de K*, _xp- l = 1
donc le polynôme xp-l - 1 est scindé dans K[X]. Or, on suppose p - 1
divisible par 4. Si on pose p-1 = 4k, on a xp-l -1 = (X 2 k - l)(X 2k + 1)
k E=!
et X 2 - 1 = X----r - 1 est scindé sur K[X], à racines distinctes (comme
E=! 2
XP- 1 -1). Comme tout .X de K* vérifie (.X 2 )----r = 1, les .X sont racines de
1 P
----r = 1 : i·1 y a au pus
X .!Cl ' (non n uls ) d ans K* , I·1 y en a -p - -l
- -2 -l carres 2
car on peut écire K sous la forme K = {-2k, ... , -î, 0, Î, 2, ... , 2k} avec
p = 1+4k et (î) 2 , ... , (2k) 2 sont des carrés distincts, carr2 = s2 équivaut
à (r - s)(r + s} = 0 (p) et, avec 1 ~ r ~ 2k et 1 ~ s ~ 2k soit encore
-2k ~ r - s ~ 2k et 2 ~ r + s ~ 4k, et p premier égal à 1 + 4k, ce n'est
pas possible que si r = s.
c) On a de même X 2 k + 1 scindé à racines simples sur K[X]. Soit fi dans
K* tel que (fik) 2 +1 = 0, si m dans Z représente fik, on a m 2 +1 0 (p).
(On peut imposer m EN*).
=
d) Soit m EN* tel que m 2 +1 =0 (p), N = E(.JP) + 1, (partie entière ... ),

on a N - 1 = E(.JP) ~ .JP < N donc ~ < ~-Soit k entier avec

0 ~ k < .JP, et Xk = k · ; - E( k;). On a 0 ~ Xk < 1, comme k prend


les valeurs 0, 1, 2, ... , N - 1, il y a N valeurs de réparties entre 0 et
Xk,
1
1, avec xo = O. Mais alors, soit il existe k =1- k tels que lxk - xk' 1 ~ N,
1

1 2 N-1
soitonax1 > N'x2 > N, ... ,XN-1 > ~,etcommeXN-1 ~ l,on
1
peut dire que dans ce cas, il existe k tel que Il - xkl ~ N' et k =1- O.

Premier cas : On a k =1- k 1 et lx k - x k' 1 ~ ~ , soit encore


Anneaux, corps, construction de Q 161

• · / 1
S1k>k,onprendb=k-k,a=E (km)
p -E (k'm)
pet
si k < k 1 , on prend les opposés d'où un couple (a, b) solution.

Deuxièmecas: avec ktel que lxk - li= lk ; - E( k;) - li ~ ~·avec


b= ket a = E(k;) + 1 on a une solution.
e) Soit donc b entier, avec 0 < b < v'P et a dans Z tels que lbm - api ~ ylp.
On pose q = bm - ap, on a q2 ~ p donc q2 + b2 < p + p = 2p.
Or b2 + q2 = b2 + (bm - ap) 2 = b2 (1 + m 2 ) + a 2 p 2 - 2pabm, et comme
1 +m2 est divisible par p, b2 +q2 est divisible par p, avec 0 < b2 +q2 < 2p:
c'est que b2 + q2 = p. On a donc p somme de deux carrés.
CHAPITRE 6

Espaces vectoriels

1. Définitions, exemples, premières propriétés

DÉFINITION 6.1. - On appelle espace vectoriel sur un corps commutatif,


K, tout ensemble E muni d'une loi de composition interne, l'addition, qui
lui donne une structure de groupe abélien, et tel qu'il existe une loi de
composition externe, la multiplication par un scalaire, 1;éri.fiant
1) 't:/).. E K, V(X, Y) E E 2 , J..(X +Y) :..::. >..X+ ),Y,
2) V(>-.,µ) E K 2, 't:/X E E, (>-.+µ)X= >-.X+ µX,
3) V(>-.,µ) E K 2, 't:/X E E, J..(µX) = (J..µ)X,
4) 't:/X E E, l ·X= X, (1 élément neutre du produit dans K).

EXEMPLE 6.2. - Le corps commutatif K, est un espace vectoriel sur lui-


même, pour l'addition et le produit existant sur K.

Les éléments d'un espace vectoriel E sur K sont appelés vecteurs et


ceux du corps K scalaires. Si la loi multiplicative de K n'est pas commu-
tative, on parle de structure de module, qui se définit plus généralement
en remplaçant K par un anneau.

EXEMPLE 6.3. - Soit n E N* un entier non nul, on définit le produit


cartésien Kn comme suit.
Sin= 1, K 1 =K.
Si n = 2, K 2 = K x K est l'ensemble des couples formés d'éléments
de E, (voir chapitre 1, §3).
Si n-= 3, K = 3 = K 2 x K par définition, c'est donc l'ensemble des
couples du type (a, z) avec a dans K 2 donc du type a= (x, y) avec x et y
dans K. Au lieu de noter ((x, y), z) l'élément générique de K 3 , on le note
(x, y, z) et on parle du triplet, (x, y, z) de K 3 .
164 Algèbre

Plus généralement, Kn sera, rar définition, le produit cartésien de


Kn-l par K, soit Kn = Kn- x K, et par commodité, on notera
(x1, x2, ... , Xn) l'élément générique de Kn, (avec chaque Xi E K) appelé
n-uplet.
Formellement, on définit donc Kn à partir des couples. Sur Kn, on
définit une structure d'espace vectoriel en posant:
pour X= (xi, ... , Xn) et Y= (y1, ... , Yn) dans Kn, et>. dans K,

X+ Y= (x1 + Y1, ... ,xn + Yn),


>.X= (>.x1, >.x2, .. :, >.xn),
et il est facile de vérifier que l'on a une structure d'espace vectoriel.

EXEMPLE 6.4. - Soient E1, ... , En. n espaces vectoriels sur le corps
commutatif K, en procédant par récurrence comme pour Kn, on définit
n
le produit cartésien E = E1 x E2 x ... x En encore noté E = II Ei,
i=l
dont les éléments sont les n-uplets X = (X1, ... , Xn), avec Vi = 1 ... n,
Xi E Ei·
Il est facile de vérifier que pour l'addition+ définie par

(X1, ... ,Xn) + (Y1, ... , Yn) = (X1 + Y1, ... ,Xi+ Yi, ... ,Xn + Yn)
E est un groupe additif, et qu'avec le produit

on munit E d'une structure vectorielle.

EXEMPLE 6.5. - Soit un ensemble non vide A et un espace vectoriel E sur


le corps K. L'ensemble EA des applications de A dans E est muni d'une
structure vectorielle sur K de la manière suivante.

Si f et g sont deux fonctions de A dans E, et>. un scalaire dans K on


définit la fonction f + g par

Vx E A, (f + g)(x) = f(x) + g(x),


et la fonction >.f par

Vx E A, (>. · f)(x) = >.f(x),


et là encore c'est un jeu de vérifier qu'on a une structure vectoriP.lle pour
l'espace des applications de A dans l'espace vectoriel E.
Espaces vectoriels 165

6.6. Quelques conséquences de la structure vectori.elle

Soit E espace vectoriel sur K. On a, 'v'(.À, µ) E K 2 , 'v'X E E,


(.X- µ)X= .XX - µX car dans le groupe additif E, cette égalité équivaut
à (.X- µ)X+ µX= .XX, or le 1er membre vaut [(.X-µ)+ µ]X soit .À· X .

De même, 'v'.X E K, 'v'(X, Y) E E 2 , .X(X -Y)= .XX -.ÀY puisque c'est
équivalent à .X(X - Y)+ .XY =.XX, ce qui est vrai, le premier membre
valant .X[(X - Y)+ Y]= .XX.
Il résulte de ces 2 règles de calcul, que

6.7. 'v'X E E, OKX = OE et que, 'v'.X E K, .XOE = OE


(OK scalaire nul dans K, OE, vecteur nul dans le groupe additif E), ces
résultats étant obtenus avec .À = µ ou X = Y dans les calculs précédents.
En fait on a le

THÉORÈME 6.8. - Dans un espace vectoriel E sur un corps commutatif K


on a (.XX= OE) {::::::::} (.X= OK ou X= OE).

Le ou n'étant pas exclusif.


Il suffit de justifier l'implication (.XX = 0 E) =? (.À = 0 K ou X = 0 E)
vu ce qui précède.
Or si .XX= OE avec .À=/:- OK, .x- 1 existe dans K donc .x- 1 (.XX) =
.x- 1 0E = OE, c'est aussi (.X- 1.X)X = lX =X d'où .À =f:. OK=? X=
OE. •
Désormais, on écrira indifféremment 0 pour 0 E ou 0 K, le contexte
justifiant de quel élément nul il s'agit.
De même, on ne précisera plus que le corps est commutatif, ce qui est
supposé une fois pour toutes.

2. Sous-espaces vectoriels

DÉFINITION 6.9. - On appelle sous-espace vectoriel d'un espace vectoriel E


sur le corps K, toute partie F de E qui est sous-groupe additif de E est
telle que 'v'.À E K, 'v'X E F, .XX E F.

Il est alors évident que F est un espace vectoriel sur K, les conditions
de la définition 6.1 étant vérifiées.
166 Algèbre

EXEMPLE 6.10. - { O} et E sont sous-espaces vectoriels de E.

EXEMPLE 6.11. - Soit E un espace vectoriel, on considère d'abord l'espace


vectoriel EN des applications de 1\1 dans E.

L'usage fait qu'on appelle suite u de terme général Un l'application u,


élément de EN, en notant Un au lieu de u( n) la valeur prise par la fonction
u lorsque la variable prend la valeur n.
Bien sûr, on peut définir des suites à valeurs dans un ensemble E
quelconque.
Si E est le corps K lui-même, (K = Q, IR ou C. .. ) on parle générale-
ment de suite numérique.
Soit alors dans l'espace vectoriel E = KN des suites numériques sur
K le sous-ensemble F des « suites finies », c'est-à-dire des suites u telles
qu'il existe un entier d( u) tel que 'tin > d( u) Un = O.
Ou encore, u application de 1\1 dans K, ne prend qu'un nombre fini de
valeurs non nulles, ce nombre fini variant avec u.
Cet ensemble F est un sous-espace vectoriel de E. Pour le vérifier nous
allons employer le critère pratique suivant :

6.12. Critère pratique. Une partie F d'un espace vectoriel E sur K est
un sous-espace vectoriel de E si et seulement si
1) F =f. 0
2) \:/(X, Y) E F 2, \:/(À,µ) E K 2, ÀX +µY E F.

D'abord si Fest sous-espace de E, en tant que sous-groupe additif F


est non vide car contient 0, élément nul de E; puis si X et Y sont dans
F et À etµ dans le corps K, ÀX et µY sont dans F, (cf. définition 6.9)
qui est stable pour l'addition, donc ÀX +µY E F.
Réciproquement, si 1) et 2) sont vérifiées, avec À = 1 et µ = -1 et X
etYdansFona:

(F =f. 0) et ('t/(X, Y) E F 2 ,X - Y E F)
ce qui justifie déjà que Fest sous-groupe additif de E, (critère 4.5), puis
le 2) avec µ = 0 donne ('t/X E F)('t/À E K)(ÀX E F). On a bien F
sous-espace vectoriel de E.
Retour au cas des suites finies : F = { suites finies à valeurs dans K}
n'est pas vide, car u = 0, (telle que, 'tin E 1\1, Un = 0 est un élément de
F, puis si u et v sont dans F et À et µ dans le corps K, comme
'tin> d(u) on a Un= 0
et 'tin > d( v) on a Vn =0
Espaces vectoriels 167

il est clair que Vn > sup(d(u), d(v)), (qui est un entier), on a


(>.u + µv)n = ÀUn + µvn = 0
donc la suite >.u + µv est finie.

6.13. En fait, les suites finies à valeurs dans K sont encore appelées
polynômes à coefficients dans K, si u est un polynôme non nul
il existe un entier d(u) tel que le terme ud(u) soit non nul et que
Vn > d(u), Un = 0 : cet entier est le degré du polynôme u, et au
lieu de noter (uo,u1, ... ,uct<J(u)>O,O, ... ,0, ... ) un polynôme, on le note
uo+u1X +u2X 2+ ... +unXn, pour des raisons exposées dans le chapitre
7 sur les polynômes.
On note également :

6.14. K[X] l'espace vectoriel des polynômes sur le corps K, espace appelé
à un riche avenir. Structurellement, c'est l'espace vectoriel des suites finies
à valeurs dans K.

Sous-espaces vectoriels et intersection

THÉORÈME 6.15. - Toute intersection de sous-espaces vectoriels d'un espace


vectoriel E est un sous-espace vectoriel de E.

Soit .donc (Fi)iE/ une famille de sous-espaces vectoriels de E et


F = n
iE/
Fi. Si I = 0, F = E est un sous-espace vectoriel de E. On

suppose I non vide.


Comme le vecteur nul, 0, est dans chaque Fi> on a 0 E F qui est non
vide, puis si (X, Y) E F 2 et(>.,µ) E K 2, comme F C Fi, pour tout ide
I et que Fi est sous-espace vectoriel, on a, Vi E J, >.X+ µY E Fi, d'où
>.X+ µY E F, donc Fest bien sous-espace vectoriel de E. •

Comme pour la notion de sous-groupe engendré par une partie, on va


introduire le sous-espace vectoriel engendré par une partie, et on aura
une approche globale, ou élément par élément, de ce sous-espace.

DÉFINITION 6.16. - Soit A une partie de E espace vectoriel sur K. On


appelle sous-espace vectoriel engendré par A le plus petit sous-espace
vectoriel de E contenant A. On le note vect(A).
168 Algèbre

THÉORÈME 6.17. - Le sous-espace Vect(A) est l'intersection de tous les


sous-espaces vectoriels de E contenant A.

Car si :F = {F; F sous-espace vectoriel de E, AC F} on a E E :F


qui est donc non vide; puis Fo = n F est un sous-espace vectoriel de
FE:F
E, (théorème 6.15).
De plus AC Fo, (car contenu dans chaque F dont on prend l'intersec-
tion).
Enfin, Fo est bien le plus petit sous-espace vectoriel contenant A
car Fo est inclus dans chaque sous-espace vectoriel contenant A. Donc
Fo = Vect(A). •

Cette approche globale de vect(A) va être précisée en caractérisant les


éléments de Vect A. Pour cela, il nous faut parler de combinaison linéaire
de vecteurs.

DÉFINITION 6.18. - Soient X1, X2, ... , Xn des vecteurs de E en nombre


fini, n EN*. On appelle combinaison linéaire des (Xih~i~n· tout vecteur
n
du type X= À1X1 + À2X2 + ... + ÀnXn = 2::>ixi> les Ài E K.
i=l

n
Au passage, on a introduit le symbole L de sommation. Il faut bien
i=l
comprendre qu'il s'agit d'une somme d'un nombre fini de vecteurs.

THÉORÈME 6.19. - Soit une partie non vide A de E espace vectoriel sur le
corps K. Alors Vect(A) est l'ensemble des combinaisons linéaires formées
à partir des vecteurs de A.

Si A= 0, Vect(A) = {O} et il est difficile de parler de combinaisons


linéaires dans ce cas. La notation Vect(A) est introduite en 6.17.
Par ailleurs, il faut comprendre que, dans la définition 6.18 on n'impose
pas aux vecteurs Xi d'être distincts. En fait, on a une famille d'éléments
de E indexée par {1, 2, ... , n}, segment de N. On note alors A l'ensemble
de toutes les combinaisons linéaires formées à partir de toutes les familles
d'éléments de A indexées par toutes les parties finies non vides de N.
On va prouver que Vect A = A en justifiant que A est sous-espace
vectoriel de E, contenant A et contenu dans Vect A. Le côté« plus petit... »
de vect(A) impliquera l'égalité.
Espaces vectoriels 169

A est non vide, car A non vide, et A C A puisque, si X E A, X = lX


est une combinaison linéaire finie d'éléments de A.
Si X et Y sont dans A et >. et µ dans K, il existe deux ensembles finis
de N, I et J, tels que X = L >.iXi et Y = L µj Yj les >.i et µj étant
iEI jEJ
dans K, les Xi et les Yj dans A.
De plus, on peut imposer à I et J d'être disjoints, quitte à translater
les éléments de J de la valeur no = 1 + sup(I) par exemple.
Alors >.X + µY = L >.>.iXi + L µµj Yj est bien dans A, en tant
iEI jEJ
que combinaison linéaire d'un nombre fini d'éléments de A.
On a donc A sous-espace vectoriel de E, contenant A, d'où forcément
Vect(A) CA puisque Vect(A) est le plus petit sous-espace contenant A.
Or Vect(A) est stable par combinaisons linéaires, et A C Vect(A)
implique AC Vect(A) d'où finalement Vect(A) = A. •

THÉORÈME 6.20. - Soient Fl, F2, ... , Fn des sous-espaces vectoriels de


E en nombre fini, n ~ 2. Alors Vect(F1 U F2 U ... U Fn) est l'ensemble
{X1 + X2 + ... + Xn; Xi C Fi} encore noté Fl + F2 + ... + Fn.

La démarche va être analogue à celle du théorème 6.19. Soit A =


Fl u ... u Fn et A= {X1 + X2 + ... + Xn; xi E Fi}· On va prouver
que A est sous-espace vectoriel contenant A, d'où Vect(A) C A; puis
l'inclusion A C Vect A.
D'abord 0 E A car 0 est dans chaque Fi, d'où 0 = 0 + 0 + ... + 0 E A.
On a déjà A non vide; puis si X et Y sont dans A, >. et µ dans K,
avec X1, ... , Xn et Yi, ... , Yn tels que, 'r:/i :;;;; n, Xi E Fi et Yi E Fi
n n n
et X = LXi, Y = LYi on a >.X+ µY = L(>.Xi +µYi) avec
~1 ~1 ~1

>.Xi t µYi E Fi, (stable par combinaison linéaire) donc >.X+ µY E A


d'où A sous-espace vectoriel de E.
Puis A= Fl u ... u Fn c A car 'r:/Xi E Fi, xi= 0 + ... + 0 +xi+
0 + ... + 0 E A (on prend Xj = 0, 'r:/j f:. i, j :;;;; n) d'où Vect(A) C A car
Vect(A) est le plus petit sous-espace vectoriel qui contient A, et A est un
sous-espace vectoriel de E, contenant A.
Enfin, A C Vect A puisque A est formé de combinaisons linéaires
particulières de vecteurs de A. Finalement, on a donc Vect(A) =A. •
170 Algèbre

Cette connaissance de la forme de Vect( Fi U F2 U ... U Fn), les Fi étant


des sous-espaces vectoriels de E, va nous permettre d'aborder l'étude du
comportement de la notion de sous-espace vis-à-vis de la réunion.
D'abord on a le

THÉORÈME 6.21. - Un espace vectoriel E n'est jamais réunion de deux


sous-espaces différents de E et de {O}.

C'est. la transcription du théorème 4.7 valable pour les groupes, car un


espace vectoriel est d'abord un groupe additif.
Rappelons-en brièvement la justification, (ce qui peut éviter de tourner
les pages). Si E =Fi UF2 avec Fi et F2 sous-espaces différents de E et de
{O}, on a Fi -:/:- E : 3X2 </. Fi, comme E = Fi U F2 c'est que X2 E F2; de
même F2-:/:- E =? 3Xi </. F2, donc Xi E Fi. Puis Xi +X2 E E =Fi UF2,
par exemple Xi +X2 E Fi. Comme Xi E Fi et que Fi est un sous-groupe
additif, on a X2 = -Xi +(Xi + X2) dans Fi ce qui est absurde. •

La situation va se compliquer si on aborde la question d'une réunion


de plus de deux sous-espaces : le cardinal du corps va intervenir.

THÉORÈME 6.22. - Soit E un espace vectoriel sur un corps K de cardinal


infini, E n'est jamais réunion d'un nombre fini de sous-espaces vectoriels
propres, (c'est-à-dire différents de E et de {O}J, non inclus l'un dans l'autre.

On va prouver, par récurrence sur l'entier n ;;i: 2, que E n'est pas


réunion den sous-espace propres. C'est vrai pour n = 2, (6.21).
On suppose le résultat vrai pour n.
Soient n + 1 sous-espace de E, distincts, et différents de E et de {0},
Fi,F2, ... ,Fn,Fn+i·
On les suppose aussi non inclus l'un dans l'autre.
Soit F = Vect(Fi U ... U Fn) = Fi + F2 + ... + Fn, (Théorème 6.20),
chaque Fi est -:/:- {O} et aussi -:/:- F, (si 3i ~ n avec Fi = F, Vj -:/:- i,
j ~ n, Fj C Fi ce qui contredit l'hypothèse). On applique l'hypothèse de
récurrence, pour net les Fi sous-espaces de F, on a:
Fi U F2 U ... U Fn C Fi + F2 + ... + Fn = F. Il existe donc
-::/:
Y = Xi + X2 + ... + Xn dans F, avec Y </. Fi U ... U Fn.
Soit H = Fi U ... U Fn U Fn+i : on va prouver que H n'est pas un
sous-espace vectoriel.
n
Si Y</. Fn+l• on aura les Xi dans H, et Y= LXi </. H: H n'est
. ~i

pas stable par combinaison linéaire, donc pas sous-espace vectoriel.


Espaces vectoriels 171

Si Y E Fn+l, et si H était sous-espace vectoriel, comme Fi </.. Fn+l


par hypothèse, 3X E Fi, X <%. Fn+l, donc, 'ef). E K* = K - {O} on a
).X +Y <%. Fn+l• sinon, comme Y E Fn+l• si ).X +Y E Fn+l alors
).X serait aussi dans Fn+l et comme À -:f. 0, X = ).-l ().X) serait
dans Fn+l : exclu; de même ).X + Y <%. Fi, sinon, comme X E Fi,
).X E Fi =? Y E Fi, exclu car Y <%. (F1 U ... U Fn).
Mais X et Y sont dans H, supposé sous-espace vectoriel de E, donc
À.X +Y est dans H =Fi UF2U .. . UFnUFn+b sans être dans Fi UFn+l•
c'est que, pour chaque). de K*, il existe un indice i(À) avec 2 ~ i(À) ~ n,
tel que ).X+ Y E Fi(>.)· Si card(K*) ~ n (ce qui est vrai si K est de
cardinal infini) il existe deux). distincts donnant le même indice: d'où 3i,
avec 2 ~ i ~ n et À et À 1 distincts tels que ).X + Y E Fi et À 1 X + Y E Fi.
d'où À1 (ÀX +Y) - ).().'X+ Y) E Fi soit().' - ).)Y E Fï. avec).' - ). -:f. 0
et Fi sous-espace vectoriel, il en résulte que Y est dans Fi, pour un indice
i ~ n, ce qui contredit l'hypothèse Y <%. Fi U F2 U ... U Fi U ... U Fn.
On a bien justifié qu'une réunion d'un nombre fini de sous-espaces qui
ne se contiennent pas mutuellement, n'est pas un sous-espace vectoriel.•

En fait, si card(K) = p, le passage den à n + 1 n'est plus possible si


card(K*) = p - 1 ~ n - 1, soit n ~p.
On doit donc s'attendre à avoir des réunions de p + 1 sous-espaces.
C'est effectivement le cas.
Par exemple, K = 7L./27L. a 2 éléments, 0 et 1 avec la règle 1+1 = 0,
E = K 2 a 4 éléments {(O, 0); (1, O); (0, 1) et (1, 1)} or E est réunion de
3 sous-espaces :

Fi = {(O, 0), (1, O)}


F2 = {(0,0);(1,1)}
F3 = {(0,0),(0,1)}
Plus généralement, avec p premier, et card(K) = p, on vérifierait que
E = K 2 ap2 -1 = (p- l)(p+l) éléments non nuls, (c'est-à-dire distincts
de (0, 0), et que E est réunion de p + 1 droites vectorielles.
Après ces résultats sur réunion et intersection, une remarque : le
complémentaire ensembliste d'un sous-espace vectoriel n'est jamais sous-
espace vectoriel, tout simplement parce qu'il ne contient pas le vecteur
nul.
172 Algèbre

3. Applications linéaires

DÉFINITION 6.23. - Soient E et F deux espaces vectoriels sur un corps K.


On appelle application linéaire de E dans F toute application f de E dans
F vérifiant :
1) \:/(X, Y) E E 2 , f (X+ Y) = f (X) + f (Y)
2) \:/(À, X) E K x E, f(À ·X) =À· f(X).

REMARQUE 6.24. - On a i : E f-----+ F est linéaire si et seulement si


\:/(X, Y) E E 2, \:/(À,µ) E K 2, f(ÀX +µY) = Àf(X) + µf(Y).

Cette formulation permet de vérifier la linéarité en un seul calcul. Il


est clair que si f est linéaire on a

f(ÀX +µY) = f(ÀX) + f(µY), d'après le 1),


= Àf (X) + µf (Y), d'après le 2) qui traduit le fait que
f est un morphisme pour la loi externe.
Réciproquement, si on a la propriété de la remarque, avec À = µ = 1 on
retrouve le 1) de la définition, et µ = 0, À quelconque donne le 2).
Espaces vectoriels 173

6.25. Du vocabulaire: on parle encore d'homomorphisme d'espace vec-


toriel au lieu d'application linéaire, d'endomorphisme si E = F; d'isomor-
phisme si f est bijective, (et F quelconque) et d'automorphisme lorsque
F = E et f bijective.

THÉORÈME 6.26. - Soient E et F deux espaces vectoriels sur un corps


K. L'ensemble des applications linéaires de E dans F est un sous-espace
vectoriel de l'espace des applications de E dans F. On le note L(E, F).

On a vu, (exemple 6.5), que, F étant un espace vectoriel, l'ensemble pE


des applications de E dans Fest muni d'une structure d'espace vectoriel.
On a L( E, F) C pE, de plus L( E, F) est non vide, l'application
constante nulle, 0, définie par: (VX E E, O(X) = OF) est linéaire;
et si f et g sont linéaires, si a et f3 sont 2 scalaires, l'application af + {3g
est linéaire car
V(X, Y) E E 2 , V(>..,µ) E K 2 , on a
(af + {3g)(>..X +µY)= a· J(>..X +>..Y)+ f3 · g(>..X +µY) par définition
des lois sur pE. Or f et g sont linéaires donc on a

(af + {3g)(>..X +µY)= a(>..J(X) + µf(Y)) + {3(>..g(X) + µg(Y))


= >..[af(X) + {3g(X)] + µ[af(Y) + {3g(Y)],

(en utilisant les propriétés de calcul dans l'espace vectoriel F), soit encore
(af + f3g)(>..X +µY) = >..((af + f3g)(X)) + µ((af + f3g)(Y)), d'où la
linéarité de af + {3g, d'après 6.24.
Donc L(E, F) est non vide, stable par combinaisons linéaires, dans
l'espace vectoriel pE : c'est bien un espace vectoriel. •

THÉORÈME 6.27. - Soient E, F, G trois espaces vectoriels sur K,


f :E 1--+ F et g : F 1--+ G des applications linéaires, alors g o f :
E 1--+ G est linéaire.

La vérification est immédiate : en enchaînant la linéarité de f puis


celle de g, on a

V(X,Y) E E 2 , V(>..,µ) E K 2 ,
(go J)(>..X +µY) = g(f(>..X +µY))
= g(>..J(X) + µf(Y))
= >..g(f(X)) + µg(f(Y))
=>..(go f)(X) +µ(go f)(Y). •
174 Algèbre

THÉORÈME 6.28. - Soient E et F deux espaces vectoriels sur un corps K.


Si I est un isomorphisme de E sur F, son application réciproque 1- 1 en
est un de F sur E.

Il s'agit de vérifier la linéarité de 1- 1 , qui bien sûr est bijective, comme


1- Or V(X, Y) E F, 'V(À, µ) E K 2, l'égalité l- 1 (ÀX +µY)= Àl- 1(X) +
µl- 1 (Y) est équivalente à f[l- 1 (ÀX +µY)]= /[Àl- 1 (X) + µl- 1 (Y)]
puisque I est bijective, soit à ÀX +µY= Àl(f- 1 (X)) + µl(f- 1 (Y))
va la linéarité de I, le second membre est bien >.X + µY ce qui achève la
justification. •

THÉORÈME 6.29. - L'ensemble L(E, E) des applications linéaires de E


dans E est muni par les lois + et o d'une structure d'anneau (non
commutatif), par les lois + et produit par un scalaire d'une structure
d'espace vectoriel. On le note encore Hom(E) ou End(E).

On appelle encore algèbre un tel ensemble.


Les vérifications sont évidentes.

THÉORÈME 6.30. - Soit un espace vectoriel E sur un corps K. L'ensemble
des automorphismes de E est un groupe (non commutatif) pour le pro-
duit de composition. On le note encore Aut(E) ou, plus souvent GL(E).
(Abréviation de groupe linéaire de E).

D'abord GL(E) est non vide car idE : X ..-t X, application identité
est linéaire bijective, puis si I est bijective linéaire 1- 1 est aussi linéaire,
(Théorème 6.28), enfin si I et g sont linéaires bijectives, f o g- 1 est
aussi bijective et linéaire (Théorème 6.27). Uassociativité du produit de
composition permet de conclure à la structure de groupe. •

Applications linéaires et sous-espaces

THÉORÈME 6.31. - Soient E et F deux espaces vectoriels sur un corps K


et I
une application linéaire de E dans F.
Si E' est un sous-espace vectoriel de E, son image l(E') est un sous-
espace vectoriel de F.
Si F' est un sous-espace vectoriel de F, son image réciproque 1- 1 (F')
est un sous-espace de E.

Là encore il s'agit de vérifications faciles.


Espaces vectoriels 175

Soit d'abord E' un sous-espace de E, il contient le vecteur nul OE,


donc J(E') contient J(OE) or f étant un morphisme de groupe additif
en particulier, on a /(OE) = OF, (voir 4.15), donc f(E') est non vide,
puis si X' et Y' sont dans f (E') et .>., µ dans le corps, on a d'abord
l'existence de X et Y dans E' tels que f (X) = X' et f (Y) = Y' d'où
>.X' +µY' = >.J(X) + µf(Y) = f(>.X +µY) par linéarité de f, or
>.X+ µY E E' qui est stable par combinaison linéaire en tant que sous-
espace de E, donc >.X' + µY' E f (E') d'où la stabilité de f (E') par
combinaison linéaire : on a bien J(E') sous-espace de F.
De manière analogue, F' étant un sous-espace de F, on a /- 1 (F') =
{X E E; f(X) E F'} qui est non vide car OE E /- 1 (F') puisque
OF= f(OE) est dans F'; et /- 1 (F') est stable par combinaison linéaire
car si X et Y sont dans /- 1 (F'), on a /(X) E F' et f(Y) E F', d'où,
V(>.,µ) E K 2 , >.J(X) + µf(Y) E F', (sous-espace vectoriel de F) soit, par
linéarité de f, J(>.X +µY) E F' ou encore >.X+ µY E /- 1 (F'). •

6.32. En particulier, si f E L(E, F), l'image J(E) est sous-espace de E et


le noyau de f, Ker f = /- 1 ( {O}) ={X; XE E; J(X) = O} est un sous-
espace de E et ces sous-espaces particuliers ont un riche avenir devant
eux.

THÉORÈME 6.33. - Soient E et F deux espaces vectoriels sur un corps K et


f une application linéaire de E dans F. On a f injective{=::} Ker f = {O}.

Il est inutile de préciser OE ou OF, le contexte précisant où sont les


éléments nuls.
En effet, si f est injective, et si X E Ker f, on a /(X) = 0 = f(O) =>
X = 0 (injectivité) donc on a bien Ker f = {O}; et si Ker f = {O}, si
J(X) = J(X') alors J(X -X')= f(X)- f(X') = 0 donc X-X' E Ker f
soit X - X' = 0, ou encore X = X' d'où l'injectivité. •

Avant d'aborder les espaces vectoriels quotients, notion analogue aux


groupes quotients par un sous-groupe distingué, aux anneaux quotients
par un idéal bilatère, on peut encore établir des propriétés intéressantes
concernant les images et noyaux des f P, puissances de f endomorphisme
deE.

6.34. Images et noyaux des itérés de f E Hom(E)

Soit E un espace vectoriel sur un corps K et f une application


linéaire de E dans E. On pose J 0 = idE, identité de E, et on définit
176 Algèbre

les puissances de f pour le produit de composition, par / 2 = f o f et


f p+l = f P o f = f o f P puisque le produit de composition est associatif.

LEMME 6.35. - Pour tout p de N, on a Ker f P C Ker f P+l et


lm(JP) :::> lm(JP+l ).

On note lm(!) l'image J(E), avec f linéaire.


Car si x E Ker JP on a JCP+l)(x) = f(JP(x)) = f(O) = 0 donc
x E Ker f P+l ; et si y E lm f p+l, il existe x E E tel que y = f p+l (x) =
f P (! ( x)) donc y est aussi dans l'image de f P.
Les suites des Ker f P et lm f P sont donc monotones pour l'inclusion,
celle des noyaux est croissante, celle des images est décroissante.

LEMME 6.36. - S'il existe p tel que Ker f P = Ker f P+ 1, alors Ker f P+ 1 =
Ker f P+ 2 . S'il existe q tel que lm fq = lm Jq+ 1, alors lm Jq+ 1 = lm Jq+ 2.

On suppose que Ker f P = Ker f P+l. Comme on a déjà Ker f P+l C


Ker f P+ 2 (lemme 6.35), pour justifier la première partie du lemme, il suffit
de justifier l'inclusion Ker JP+ 2 C JP+ , donc de« diminuer d'un cran».
Soit donc x E Ker JP+ 2, c'est que JP+ 2(x) = JP+l(J(x)) = 0, donc que
f(x) E Ker JP+l =Ker JP, soit encore que JP(f(x)) =O.
On a finalement JP+l(x) = 0 soit x E Ker JP+l et l'inclusion voulue.
Pour le 2 6 point du lemme, on veut prouver l'égalité lm Jq+l =
lm Jq+ 2 or on a déjà l'inclusion lm Jq+ 2 C lm Jq+l ; soit donc y E
lmjq+1, il faut «augmenter d'un cran». On sait qu'il existe x dans E
tel que y = Jq+l(x). Or augmenter d'un cran s'obtient en traduisant
lm fq = ~ Jq+l, on écrit donc que y= J(fq(x)), avec fq(x) E lm fq =
~ Jq+l, donc il existe x' dans E tel que fq (x) = Jq+l (x') et finalement
y= J(Jq+l(x')) = Jq+ 2(x') est bien dans lmjq+ 2. •

6.37. Conséquence du lemme 6.36 : chacune des deux suites monotones


est soit strictement monotone, soit strictement monotone jusqu'à un certain
rang, puis stationnaire.
En effet, pour les noyaux, on considère A = {p; p E N, Ker f P =
Ker JP+l }. Si cet ensemble est vide, vu le lemme 6.35, c'est que, pour
tout entier p, Ker JP C Ker JP+l : la suite des noyaux est strictement
#
croissante; si A n'est pas vide, c'est un ensemble non vide d'entiers, il
admet un plus petit élément Po. mais par application itérée du lemme
6.36, on a Ker JPO = Ker fPo+l donne Ker JPo+l = Ker JP0+ 2 d'où
Espaces vectoriels 177

Ker JP0+ 2 = Ker f Po+3 ... et avant PO il n'y a pas d'égalité, d'où une
suite strictement croissante jusqu'au rang Po, puis stationnaire.
On procède de même pour les images.

6.38. On peut alors avoir les 4 situations suivantes :


1) aucune des 2 suites ne devient stationnaire;
2) seule la· suite des noyaux devient stationnaire;
3) seule la suite des images devient stationnaire;
4) les 2 suites sont stationnaires. Mais alors c'est au même rang.
Les trois premiers points sont du domaine des exemples. L'égalité du
4e point sera justifiée grâce au lemme suivant :

LEMME 6.39. - Si Ker Jk = Ker Jk+ 1 et lm Jk+ 1 = lm Jk+ 2 alors


lmfk = lmfk+I.
Si lm fk = lm Jk+ 1 et Ker Jk+ 1 = Ker Jk+ 2 alors Ker fk · =
Ker Jk+ 1.

le point : on suppose que Ker fk = Ker Jk+I et lm Jk+I = lm Jk+ 2.


On veut prouver que que <;j< fk = lm jk+I or on sait, (lemme 6.35), que
lmjk+l C lmfk. Il suffit de justifier l'autre inclusion. Soit donc y =
f k ( x) un élément de lm f k, on veut «gagner un cran» ce qui sera possible
si on est dans <;j< Jk+ 1 qui est lmfk+ 2 . Soit donc f(y) = Jk+ 1(x) E
<;j< Jk+ 1 =lm Jk+ 2 : 3x' E Etel que f(y) = Jk+ 1(x) = Jk+ 2(x') d'où,
(traduction de l'égalité des noyaux dans sa partie intéressante c'est-à-
dire Ker Jk+ 1 C Ker fk), Jk+l (x - f (x')) = 0, (linéarité de Jk+ 1), soit
x - f(x') E Ker Jk+I = Ker fk : on a fk(x - f(x')) = 0 soit encore
y = f k (x) = f k+I (x') est bien dans lm f k+l.

2e point : Cette fois il faut prouver que Ker f k = Ker f k+I, or Ker f k C
Jk+I est toujours vrai, il reste une inclusion à justifier.
Soit x dans Ker jk+I, il faut «descendre d'un cran», c'est l'égalité
Ker Jk+ 1 = Ker Jk+ 2 qui le donnera. On considère donc y = Jk(x),
(qui doit être nul), on a y E lm fk = lm Jk+ 1 donc 3x' tel que
y= Jk+ 1(x'). Or f(fk(x)) = Jk+ 1(x) = 0 car x E Ker Jk+ 1 c'est aussi
= f(Jk+l(x')) = Jk+ 2(x') donc x' E Ker Jk+ 2 qui est, par hypothèse,
Ker Jk+ 1 : c'est que y = Jk+ 1(x') = 0, on a finalement justifié l'égalité
fk(x) =O.
178 Algèbre

CONSÉQUENCE : On suppose les 2 suites des nofaux et des images station-


naire, avec ro et so entiers tels que Ker
.
ro-
c Ker F 0 =Ker ro+l =
#
... et lm f5o-l ~ lm f50 = lm f50+1 = ...
Alors ro = so, sinon, par exemple ro < so, mais alors on aurait
Ker /5°-l = Ker f5°, (car so - 1 ;??: ro : il y a égalité pour les noyaux,
et lm f50 = lm f5o+ 1, le lemme 6.39 implique lm f5o-l = lm f50 ce qui
est exclu.
L'hypothèse so < ro est également absurde, d'où l'égalité. •

Exemples des 4 situations


On considère l'espace vectoriel E = K[X] des polynômes sur un corps
K (6.14). En utilisant les propriétés des bases (Théorème 6.77) on va
caractériser f E Hom(E) par la donnée des images des vecteurs (XP)pEN
de la base canonique de E.

Exemple 1 : f = idE, (XP - XP, Vp E N) : les suites sont stationnaires


dès le rang O.

Exemple 2 : dérivation f définie par

on vérifie que f est surjective car l'image d'une base est une famille
génératrice, (Théorème 6.77), donc, Vk, lmfk = E, la suite des images
est stationnaire, mais il est facile de vérifier que :
Ker J0 = {O}, Ker f ={polynômes constants} puis
Ker f 2 = {polynômes 1er degré}, ... , Ker Jk+ 1 = {polynômes de degré
~ k} : il y a inclusions strictes pour les noyaux.

Exemple 3 : intégration. Cette fois f est définie par Xk - Xk+l, et ce,


Vk E N. Alors f est injective, (une base a pour image une famille libre)
donc Vk, Ker Jk = {O}: la suite des noyaux est stationnaire, mais pour les
images il y a inclusions strictes, car on vérifie que lm Jk+l = {polynômes
sans termes de degré 0, 1, 2, ... , k} contenu strictement dans lm Jk
{polynômes sans termes de degré 0, 1, 2, ... , k - 1}.
Espaces vectoriels 179

4e cas : On mélange en définissant f par une « dérivation » sur les indices


pairs, et une « intégration» sur les impairs. Disons
xO ---t O; '<ln ;;<: 1, x2n ---t x2n-2
et '<ln E 1\1, x2n+l ---t x2n+3.

Alors, '<ln, X 2n+l = r(X) E lm fn mais (j. lm r+i


(si on a un polynôme
P tel que X 2n+l = Jn+l(P), le terme de plus bas degré impair de
r+l(P) est forcément de degré;;<: 1+2(n + 1) = 2n + 3).
Donc il y a inclusions strictes des images, quand aux noyaux, on a
X 2n E Ker r+i mais X 2n (j. Kerr car r ( x 2n) = X 0 = 1 d'où
inclusions strictes aussi des noyaux.
Enfin signalons qu'en dimension finie, les deux suites sont forcément
stationnaires, puisque les dimensions des sous-espaces sont majorées par
la dimension de l'espace. (Voir §6 pour les dimensions).

4. Espace vectoriel quotient, théorèmes d'isomorphisme

Soit F un sous-espace vectoriel de l'espace vectoriel E sur le corps


K. C'est en particulier un sous-groupe additif du groupe additif E,
commutatif, donc F est sous-groupe distingué donc. l'ensemble quotient
E / F associé à la relation d'équivalence R définie par X R Y ~ X -
Y E F est un groupe additif pour la loi + définie par X + Y =
classe(X +Y) si XE X et Y E Y. (Théorème 4.22).
En fait l'équivalence R est aussi compatible avec la loi externe : si
XRY, et si À E K, on a ÀXRÀY car ÀX - ÀY = À(X - Y) avec
X - Y E F, sous-espace vectoriel, donc À· (X - Y) E F.
En définissant une loi externe sur E / F par ÀX = élasse d'équivalence
de ÀX, (si X représente X) ceci a un sens, (indépendance par rapport ou
choix de X dans X) et on vérifie les conditions de la définition 6.1.
Par exemple :

À(X +Y) = À(classe de (X+ Y)) si X E X et y E Y


=classe (À(X +Y)) (définition du produit)
=classe {ÀX + ÀY), (calcul dans E)
=classe ÀX+ classe ÀY, (somme dans E/F)
= À classe(X)+ Àclasse(Y)
=ÀX+ÀY.
180 Algèbre

On vient de justifier le

THÉORÈME 6.40. - Soit F un sous-espace vectoriel de l'espace vectoriel


E sur le corps K. L'ensemble quotient E / F est muni d'une structure
vectorielle par les lois :

X+ Y= classe(X +Y) et .À· X= classe de (>.X)

si X E X et Y E Y.
Il est bon de se rappeler que X, classe de X est l'ensemble des vecteurs
X+ Y, W E F, encore noté {X}+ F, (c'est aussi ce qu'on appelle le
sous-espace affine de direction F passent par X). On peut alors établir
deux théorèmes d'isomorphismes, très utiles.

THÉORÈME 6.41. - (Premier théorème d'isomorphisme) Soient E et F deux


espaces vectoriels sur un corps K et f une application linéaire de E dans
F. On a E/Ker f isomorphe à f(E).

En effet, si X et X' sont deux représentants d'une classe X élément


de E/Ker f, c'est que X -X' est dans Ker f, donc que f(X -X')= 0 soit
f(X) = f(X') par linéarité de f. On peut donc définir une application
cp de E/Ker f dans le sous-espace f(E) de Fen posant cp(X) = f(X),
avec XE X, puisque c'est indépendant du choix de X dans X.
L'application cp est linéaire: 'v'(X,Y) E (E;Ker !) 2 , 'v'(>.., µ) E K 2 ,
avec X dans X et Y dans Y, on a >..X+ µY qui représente >.X+ µY,
donc
cp(>..X +µY) = f (>.X+ µY)
= >..f(X) + µf(Y), (/est linéaire),
= >..cp(X) + µcp(Y) d'où la linéarité de cp.

cp est bijective :
- injective car si cp(X) = 0, c'est qu'avec X dans X on a /(X) = 0,
soit X E Ker f qui est l'élément nul de l'espace quotient E/Ker f, d'où
X=O;
- surjective : soit Y dans le sous-espace f (E) de F, on est dans l'image
de f donc il existe X dans Etel que /(X)= Y d'où cp(classe de X)= Y .

On peut enfin remarquer que, si s est la surjection canonique de E sur
E /Ker f, qui à un vecteur X de E associe sa classe X dans E /Ker f, et
Espaces vectoriels 181

i l'injection canonique de f(E) dans E définie par :

W E f (E), i(Y) = Y, (considéré ici dans F),

on as et i linéaires (vérifications évidentes) et f = i o <p os.

6.42. Le diagramme

E f
f----+ F

ls î i
E/Ker f ~ f(E)

est commutatif.
C'est ce qu'on appelle la décomposition canonique d'une application
linéaire. En effet si XE E, et si X= s(X) est sa classe d'équivalence on
a <p(s(X)) = f(X), considéré dans l'image de f(E), on l'injecte dans F
ce qui donne bien i o <p o s(X) = i(f(X)) = f(X) dans F cette fois. •

Voyons maintenant le deuxième théorème d'isomorphisme.

THÉORÈME 6.43. - Soient F et G deux sous-espaces vectoriels de l'espace


E sur le corps K. On a (F + G)/F '.: : '. G/(F n G).
On note'.::::'. pour isomorphe. On a aussi (F + G)/G '.: : '. F/(F n G).

Rappelons que F + G est le sous-espace de E engendré par FU G, c'est


l'ensemble des X+ Y, X étant dans F et Y dans G. On a F sous-espace
de Vect(F U G), donc l'espace quotient (F + G)/ F existe.
Soit A un élément de cet espace quotient, représenté par A = X + Y
avec X E F, Y E G ou par A' = X' + Y' avec X' E F et Y' E G. On
a alors A - A' = (X - X') + (Y - Y') E F, et comme X - X' E F
c'est équivalent à la condition Y - Y' E F, ou encore comme il s'agit de
vecteurs du sous-espace vectoriel G de E, à la condition Y - Y' E F n G.
Donc, avec les notations précédentes, si X + Y et X' + Y' représentent
le même élément A de (F + G)/ F, on a Y - Y' E F n G, soit encore Y
et Y' représentent la même classe Y de G/(F n G).
On pose alors: <p(A) =classe de Y dans G/(F n G), avec Y dans G,
tel qu'il existe X dans F avec X + Y dans A.
Il reste à vérifier que <p est un isomorphisme de ( F + G) / F sur
G/(Fn G).
D'abord <p est linéaire : car si A et B sont deux vecteurs de ( F + G) / F
représentés par X + Y et U + V avec X et U dans F, Y et V dans G,
182 Algèbre

et si >. et µ sont 2 scalaires, le vecteur >.A + µB admet pour représentant


particulier >.(X+ Y) + µ(U +V) = (>.X+ µU) +(>.Y+ µV) vu la
définition des lois sur l'espace quotient.
Donc

cp(>.A + µB) =classe de (>.Y+ µV) dans G/(F n G)


=>.(classe de Y)+ µ(classe de V), (structure quotient),
= >.cp(A) + µcp(B) par définition de cp.

cp est injective: si cp(A) = 0, élément nul de G/(F n G), c'est que, si


X + Y représente A, avec X dans F et Y dans G, on a Y dans F n G,
donc dans F, d'où X+ Y E F et alors A= classe (d'un élément de F)
est l'élément nul de (F + G)/ F.
Donc cp(A) = 0 ==>A= 0: on a bien cp injective.
cp surjective : soit Y un élément de G / (F n G) de représentant Y dans
G, si A est la classe de 0 +Y dans (F + G)/ F, on a bien cp(A) =Y d'où
la surjectivité. •

Les deux théorèmes d'isomorphismes fourniront dans les espaces vecto-


riels de dimension finie, deux formules bien utiles.

5. Sommes directes

Soient F et G deux sous-espaces vectoriels d'un espace E sur K.


On a vu, (Théorème 6.20) que Vect(F U G) = F + G = {X+ Y;
XE F,Y E G}.
Mais en général, la décomposition d'un vecteur de F + G sous la forme
X+ Y n'est pas unique. On veut savoir quand il y a unicité. Pour cela on
a le

THÉORÈME 6.44. - Soient F et G deux sous-espaces d'un espace vectoriel


E. Il y a équivalence entre les conditions
1) Fn G = {O},
2) tout vecteur de F + G s'écrit de manière unique sous la forme X+ Y
avec X dans F et Y dans G.

Z de F + G s'écrit X + Y et X' + Y', l'égalité X + Y =


1) =? 2) car si
X'+Y' ~X-X'= Y'-Y d'où X-X' E FnG = {O} donc X= X',
et alors Y= Y'.
Espaces vectoriels 183

A E F n G, -A aussi et alors 0 =A+ (-A) avec A dans


2)::::} 1) car si
F et -A dans G. Comme on a aussi 0 = 0 + 0, (c'est beau!) avec 0 dans
F et 0 dans G, (c'est reposant) on a A= 0 (et pour faire bonne mesure,
-A = 0 ce qui n'ajoute rien au résultat).

DÉFINITION 6.45. - On dit que F et G, sous-espaces de E, sont en somme


directe si et seulement si F n G = {0}.

Dans ce cas, on note FœG au lieu de F+G, le sous-espace Vect(FUG).

DÉFINITION 6.46. - Deux sous-espaces F et G sont dits supplémentaires si


et seulement si F œG = E.
Ou encore {::::::::} F n G = {O} et F + G = E,
ou {::::::::} VZ E E, 3!(X, Y) E F x G, Z =X+ Y,

(3! signifie il existe un seul, rappelons-le).

Mis en garde : le fait que F et G soient supplémentaires dans E ne


signifie pas que si un vecteur Z n'est pas dans F, il est dans G; cela
signifie que si Z ~ F, la composante de Z dans G n'est pas nulle, un
point c'est tout! Donc ne pas confondre supplémentaire et complémentaire
ensembliste.
Soit alors F et G deux sous-espaces supplémentaires de E, l'écriture
unique d'un Z de E en Z = X+ Y avec X E F et Y E G permet de définir
deux applications; l'une p, de E dans F, qui à Z associe p(Z) = X =
la composante de Z dans F, l'autre, q, de E dans G qui à Z associe
q(Z) =Y= la composante de Z dans G.
Ces applications sont linéaires car si on a aussi Z' = X' + Y' avec
X' E F, Y' E G, alors V(>.,>.') E K 2 , le vecteur >.Z + >.' Z' de E se
décompose en >.Z + >.' Z' = (>.X +>.'X') + (>.Y+ >.'Y') avec >.X +>.'X'
dans F et >.Y + >.'Y' dans G, d'où :

p(>.Z + >.' Z') =>.X+>.' X'= >.p(Z) + >.'p(Z'),


de même q(>.Z + >.' Z') =>.Y+ >.'Y' = >.q(Z) + >.' q(Z').
De plus on a pop= pet q o q = q, car, pour X de F, la décomposition
dans la somme directe F œGest X= X+ 0 donc p(X) =X mais avec
Z = X + Y comme précédemment, on a

p2 (Z) = p(p(Z)) = p(X) =X= p(Z), d'où p2 = p,


Z étant quelconque dans E, et de même q2 = q.
184 Algèbre

Enfin Imp = F, Kerp = G, et Imq = G, Kerq = F. On a


déjà p(Z) = X E F, et VX E F, p(X) = X donc Imp = F, puis
Z =X+ Y E Kerp-<:> p(Z) =X= 0-<=:> Z =Y E G d'où Kerp = G.
On procède de même pour q.

DÉFINITION 6.47. - On appelle projecteur de l'espace vectoriel E, toute


application linéaire p vérifiant p o p = p.
On a donc:

THÉORÈME 6.48. - Si E = F œG est décomposé en somme directe de deux


sous-espaces, l'application qui à Z décomposé en X + Y avec X dans F
et Y dans G associe sa composante X dans F est un projecteur d'image F
de noyau G.

En fait si p est un projecteur, on a réciproquement une somme directe


E = Kerp œ Imp, car, pour tout Z de Eon a p(p(Z)) = p(Z) soit
p(p(Z) - Z) = 0 par linéarité de pou encore Z - p(Z) E Ker p.
Mais alors Z s'écrit Z = p(Z) + Z - p(Z), avec p(Z) dans Imp et
Z - p(Z) dans Kerp, ce qui donne déjà

E = Imp +Ker p.

La somme est directe : si X E Im p n Ker p, il existe un vecteur T tel


que X = p(T), puis p(X) = 0, (X dans le noyau de p), soit p 2 (T) = O.
Comme p 2 = p, il reste X= p(T) = 0, d'où Impn Kerp = {O}. On vient
de justifier le

THÉORÈME 6.49. - Si p est un projecteur de l'espace vectoriel E, on a


E = Kerpœimp.
COROLLAIRE 6.50. - Soient F et G deux espaces supplémentaires de E, on
a E/F '.:::= G, et E / G '.:::= F.

Car avec p projecteur sur G, de noyau F, (définie, si Z =X+ Y avec


X E F et Y E G, par p(Z) =Y), le premier théorème d'isomorphisme
(Théorème 6.41) s'applique et donne E/Kerp '.:::= Imp, soit E/F '.:::= G.
On procède de même avec le projecteur d'image F et de noyau G.
Espaces vectoriels 185

Généralisation des sommes directes au cas de plus de deux sous-


espaces.

THÉORÈME 6.51. - Soient Fi, F2, ... , Fn des sous-espaces d'un espace
vectoriel E sur un corps K, avec n ~ 2. Les conditions suivantes sont
équivalentes :

1) E = Fi + ... + Fn et, Vi = 1, ... , n, Fin (t


J=l
#i
Fj) = {O};

2) tout vecteur de E s'écrit de manière unique sous la forme


X= Xi+ ... + Xn avec, Vi = 1, ... , n, Xi E Fi;
3) E =Fi+ ... + Fn et si, avec des Xi E Fi on a Xi+ ... + Xn = 0,
chaque xi = o.

1) ~ 2) car, chaque X de E est dans Fi + ... + Fn, donc il existe


des Xi dans les Fi tels que X = Xi + ... + Xn, et si on a une autre
décomposition du même X : X = X~ + ... +X~, avec les Xj E Fj aussi
alors, Vi = 1, ... ,n, on a

n
Xi-XI= L::cxj-Xj)
j=l
#1

vu les règles de calcul dans le groupe E, d'où

qui est réduit à {O} par hypothèse donc Xi= XI et ce, pour chaque i: il
y a bien unicité de la décomposition.

2) ~ 3) Comme tout X de E admet une décomposition en X = Xi + ... +


n
Xn avec les Xj E Fj on a bien E = L Fi; et si Xi +X2 + ... +Xn = 0
i=i
avec, Vi = 1, ... , n, Xi E Fi, comme 0 s'écrit aussi 0 + 0 + ... + 0 = 0,
puisque 0 est dans chaque sous-espace Ei> l'unicité de l'écriture implique
que pour chaque i, xi = 0 d'où le 3).
186 Algèbre

n
Enfin 3) => 1) car si on a un vecteur X E Fin L Fj, ce vecteur X s'écrit
j=l
i#i
n
sous la forme X = L Xj, avec des Xj E Fj, d'où
j=l
j;éi

0 = X1 + ... + Xi-1 +(-X)+ Xi+l + ... + Xn


(si i = = -X + X2 + ... + Xn, et si i = n, c'est 0
1, c'est 0
X1 + ... + Xn-1
- X, d'où, en appliquant le 3), chaque Xj, j f. i, nul,
et aussi -X= 0 puisque -XE Fi.

DÉFINITION 6.52. - Si n sous-espaces vectoriels de E vérifient l'une des


conditfons équivalentes du théorème 6.51, on dit que E est somme directe
n
des Fi et on note E = EB Fi.
i=l
Cette notion de somme directe est très utile pour l'étude des sous-
espaces propres et des sous-espaces caractéristiques des endomorphismes.
Voyons enfin quelques résultats utilisant les supplémentaires.

THÉORÈME 6.53. - Soient E et F deux espaces vectoriels sur un corps K


et f une application linéaire de E dans F. Si H est un supplémentaire de
Ker f dans E, f induit un isomorphisme de H sur f(E).

On justifiera au paragraphe suivant l'existence des supplémentaires


d'un sous-espaces. Ici on suppose donc que H est tel que E = Ker f EB H
et on définit j: H ~ f(E) par \:/X E H, f(X) = f(X), c'est ce qu'on
appelle l'application induite par f de H dans f(E).
Il est évident que f est linéaire, (comme /), elle est injective car
si f(X) = 0, c'est que X E Ker f (puisque f(X) = f(X)), donc
XE H n Ker f, <f étant définie sur H). Or H n Ker f = {O} puisque H
est un supplémentaire de Ker f.
De plus j est surjective : soit Y E f(E), il existe X dans E tel que
f(X) =Y. On décompose X dans la somme directe H EB Ker f: il existe
2 vecteurs U et V, avec U EH, VE Ker f, tels que X = U +V d'où

Y = f (X) = f (U +V) = f (U) + f (V) (linéarité) or f (V) = 0, il reste


= f(U) avec U dans H, c'est donc encore Y= f(U)

on a bien surjectivité de f d'où le théorème.



Espaces vectoriels 187

On en déduit le résultat suivant :

THÉORÈME 6.54. - Soient E, F, G trois espaces vectoriels sur un corps K,


et f E L(E, F); cp E L(E, G). Pour qu'il existe u E L(F, G) telle que
cp = u o f, il faut et il suffit que Ker f C Ker cp.

C'est une condition de factorisation de cp à travers f.


D'abord, si u existe, pour tout X de Ker f on a cp(X) = u(f(X)) =
u(O) = 0 donc Ker f C Ker cp.
Justifions la réciproque. Pour cela soit H un supplémentaire de Ker f
dans E (Théorème 6. 73), on vient de voir, (Théorème 6.53), que f induit
un isomorphisme j de H sur f (E), qui est un sous-espace de F.
Soit L un supplémentaire de f (E) dans F, on a F = f (E) EB L et on
définit l'application linéaire u sur F comme suit:
- si h' E f(E), il existe un seul h de H tel que f(h) = f(h) = h' et
on pose

u(h1 ) = cp(h) = cp(f- 1 (h 1 )) en fait.

- si Z EL on pose u(Z) = 0, et si Test un vecteur quelconque de F,


décomposé en T = h 1 + Z avec h' E f(E) et Z dans L, on pose

u(T) = u(h') + u(Z) = u(h') = cp(h).


On vérifie facilement que u est linéaire de F dans G, (si T1 et T2 de F
se décomposent en T1 = hi + Z1 et T2 = h2 + Z2, V'(À1, À2) E K 2
on a À1T1 + À2T2 décomposé en (À1hi + À2h2) + (.X1Z1 + À2Z2), avec
À1hi + À2h2 dans /(E) et À1Z1 + À2Z2 dans L, d'où

u(.X1T1 + .X2T2) = cp(f- 1 (.Xihi + .X2h2))


= À1cp 01- 1(hi) + À2cp 01- 1(h2)
= À1u(T1) + À2u(T2).
On a bien cp = u o f, car soit X dans E, décomposé en X = y+ h avec
y E Ker f, h EH, comme Ker f C Kercp, cp(y) = 0, d'où cp(X) = cp(h)
alors que u(f(X)) = u(f(h)) = u(f(h)) = cp o j- 1 (f(h)) = cp(h). •
188 Algèbre

6. Familles libres, génératrices, bases

Jusque maintenant, on a donné un point de vue global sur les espaces


vectoriels. Or ces espaces se prètent très bien aux calculs du type de ceux
de la géométrie analytique, grâce à l'existence de ce qu'on appelle les
bases. Mais avant d'en justifier l'existence, il y a un certain nombre de
notions à dégager.

DÉFINITION 6.55. - Une famille finie (Xih.:;;i.:;;n de vecteurs de l'espace


vectoriel E sur K est dite liée si et seulement si il existe une famille de
n
scalaires non tous nuls, (.Xih.:;;i.:;;n, telle que L ÀiXi =O.
i=l

Dans cette définition, n est un entier naturel non nul. On dit encore
n
que ron a une combinaison linéaire nulle non triviale, z:::: oxi étant la
i=l
combinaison linéaire nulle triviale.

DÉFINITION 6.56. - Soit n EN*, une famille (Xih.:;;i.:;;n de vecteurs de E


n .
est dite libre si elle n'est pas liée, ou encore si L ÀiXi = 0 ::::} Ài = 0 pour
i=l
tout i = 1, 2, ... , n.
On parle encore de système libre, ou de système lié.

Des remarques évidentes : si une famille finie (Xih.:;;i.:;;n de vecteurs


de E est libre alors chaque Xi est =/. 0 et l'indexation est injective, sinon si
3io ~ n avec Xio = 0, alors en choisissant les Ài tous nuls, sauf Àio = 1,
n
on aurait des Ài non tous nuls vérifiant L ÀiXi = 0, c'est exclu; et si on
i=l
avait pour 2 indices i =/. i 1 , xi =xi'• en prenant Ài = 1, Ài' = -1, les
autres Àj nuls, on aurait encore une combinaison linéaire non nulle non
triviale : c'est exclu.

6.57. Si une famille (Xih.:;;i.:;;n est libre, on dit encore que les vecteurs
X 1, ... , Xn sont indépendants, sinon ils sont dits dépendants.
Espaces vectoriels 189

Cas d'une famille (Xi)iEb I ensemble d'indice de cardinal infini

D'abord on appelle sous-famille, toute famille indexée par J C I, et on


appellera sous-famille finie, toute famille extraite associée à une partie J
de cardinal fini de I.
Pour que, ce qui suit, ne soit pas trop abstrait, on peut penser aux
polynômes sur un corps K, (K = IR par exemple, ou Q) qui s'écrivent à
l'aide de la famille des monômes (XP)pEN, en ne prenant qu'un nombre
fini des monômes pour un polynôme donné.

DÉFINITION 6.58. - Une famille (Xi)iEl de vecteurs de E, avec cardJ


infini, est fl,ite libre si et seulement si pour toute partie finie non vide J de
I, la famille (Xj)jEl est libre. La famille des (Xi)iEl est dite liée si elle
est non libre.

Donc la famille des (Xi)iEI est liée si et seulement si il existe une


partie finie de I, J telle que la famille des (Xj)jEJ est liée, soit encore
si et seulement si il existe des Àj non tous nuls tels que L ÀjXj = 0,
jEJ
(J CI, card J fini).
En particulier, si 0 Ela famille, elle est liée, (3{io} CI, de cardinal
fini, avec Xio = 0 donc si Àio = 1, on a 1 · 0 = ÀïoXio = 0). De même si
l'indexation n'est pas injective la famille est liée, (3i =f i 1 avec xi = xi''
donc si J = {i, i 1}, on a J de cardinal fini, 2, et on prend Ài = 1, Ài' = -1,
alors L ÀjXj = xi - xi' = 0 : on a une combinaison nulle non triviale).
jEJ

DÉFINITION 6.59. - Une partie g de l'espace vectoriel E est dite génératrice


si et seulement si Vect g = E.

DÉFINITION 6.60. - On appelle base B de E toute famille (Xi)iEI de


vecteurs de E qui est libre et génératrice.

L'intérêt de cette notion, c'est que tout espace vectoriel non réduit à {O}
admet des bases, et que les bases permettent de décomposer de manière
unique chaque vecteur de E, et de caractériser les applications linéaires.
C'est ce que nous allons aborder dans ce qui suit. Mais d'abord, on justifie
deux résultats utiles dans les raisonnements.

THÉORÈME 6.61. - Soit (Xïh..;;i..;;n, n E N*, une famille finie libre de


vecteurs de E. On a X combinaison linéaire des Xi <=> {X, X1, ... , Xn}
liée.
190 Algèbre

Car si X est combinaison linéaire de X 1, ... , Xn, c'est qu'il existe


n
des scalaires >.1, ... , Àn tels que X = L >.iXi, soit encore (-1) ·X+
i=l
>.1X1 + ... + ÀnXn = 0 : on a une combinaison linéaire nulle non triviale,
(-1 f:. 0) .entre X, X1, ... et Xn donc cette famille est liée.
Réciproquement, si {X,X1, ... ,Xn} est liée, il existe des scalaires
non tous nuls >., Ài, ... , Àn tels que >.X+ >.1X1 + ... + ÀnXn = O. Si
n
>. était nul, on aurait des (>.ih~i~n non tous nuls avec L ÀiXi = 0 :
i=l
c'est exclu car {X1, ... , Xn} est supposée famille libre. Donc>. f:. 0, on a
n n
>.X= - L >.iXi d'où X= Z:::::-(>.- 1>.i)Xi E Vect(X1, ... , Xn): on a
i=l i=l
bien X combinaison linéaire de X1, X2, ... , Xn.

THÉORÈME 6.62. - Soient Y1, Y2, ... , Yp, Yp+ 1 des combinaisons linéaires
de p vecteurs X1, ... , Xp, (avec p ~ 1). Alors la famille {Y1, ... , Yp+l}
est liée.

Ceci se justifie pas récurrènce sur p. Si p = 1 on a 2 scalaires >.1, >.2


tels que Y1 = >.1X1 et Y2 = >.2X1. Alors, soit >.1 = 0, d'où Y1 nul,
donc 0 est dans la famille {Y1, Y2} qui est liée; soit >.1 f:. 0, mais alors
>.2Y1 - >.1Y2 = (>.2>.1 - >.1>.2)X1 = 0, avec ->.1 f:. 0 : on a une
combinaison linéaire nulle non triviale, entre Y1 et Y2 : donc {Y1, Y2}
liée.
La propriété est établi si p = 1. On la suppose vraie pour p combinai-
sons linéaires de p - 1 vecteurs.
Soient p + 1 combinaisons linéaires, Y1, ... , Yp+ 1, de p vecteurs,
p
X1, ... , Xp que l'on note 1j = L O'.i,jXi, ceci pour j = 1, 2, ... ,p + 1.
i=l
On met 2 indices, un indice j rappelant que l'on considère le vecteur }j,
et pour j fixé, un premier indice i qui varie de 1 à p. C'est la notation
qu'on utilisera dans les matrices.
Pour se ramener à l'hypothèse de récurrence, on va d'abord supposer
que X 1 par exemple ne figure dans aucune décomposition.
Donc 1er cas : si pour tout j = 1, 2, ... ,p + 1, a.1,j = 0, en fait on a
des combinaisons linéaires de p - 1 vecteurs seulement X2, X3, ... , Xp.
D'après l'hypothèse de récurrence, Y1, Y2, ... , Yp qui sont p combinai-
sons linéaires de X2, ... , Xp forment déjà une famille liée, en rajoutant
Yp+l on a a fortiori une famille liée, car avec >.1, ... , Àp non tous nuls
Espaces vectoriels 191

p p
dans le corps K, tels que L ÀjYJ = 0, on a L ÀjYJ + 0 · Yp+l = 0:
j=l j=l
combinaison linéaire nulle non triviale.

2e cas : :ljo ::;; p + 1 tel que a1,jo =f. 0, on a donc

p
a1,joX1 = YJo - L O!i,joXi,
i=2

on peut diviser par a1,jo d'où

p
X1 = (a1,j0 ) - 1 lj0 + L ( - (a1,j 0 )-
1 ai,jo)xi
i=2

est combinaison linéaire de lj0 , et de X2, X3, ... , Xp.


Mais alors, 'Vj =f. jo, si dans la décomposition de Yj en Yj =
p
a1,jX1 +L O!i,jXi on remplace X1 par la valeur trouvée, on obtient
i=2
Yj combinaison linéaire de YJo et des xi> i = 2, ... 'p, ce que l'on peut
écrire sous la forme
p
Yj = f31,j YJo +L f3i,jXi·
i=2

On peut calculer les f3i,j, en fait on a

p
Yj = a1,j(a1,j0 ) - 1lj0 + L(ai,j - a1,j(a1,j0 ) - 1 ai,j0 )Xi,
i=2

et ce type de calcul se retrouve en calcul numérique dans la technique


dite du pivot de Gauss pour résoudre les systèmes linéaires. Ici, cela ne
sert à rien et on peut se contenter des f3i,j.
p
Mais c'est encore, 'Vj =f. jo, Zj = Yj - f31,jYJo Lf3i,jXi: les p
i=2
vecteurs Zj ainsi introduits sont donc combinaisons linéaires des p - 1
vecteurs X2, .. ,, Xp. L'hypothèse de récurrence s'applique et nous dit que
la famille {Zj,j =f. jo, 1 ::;; j ::;; p + 1} est liée: on a des Àj, j =f. jo, non
192 Algèbre

p+l
tous nuls tels que L Àj (}j - /31,j }j0 ) =0
j=l
#io

soit

p+l
En posant Àj0 =- L /31,jÀj, on a trouvé cette fois des (>..j)i..,;j..;p+l
j=l
#io
p+l
non tous nuls tels que L Àj }j = 0 : la famille est liée, ce qui achève la
j=l
démonstration.

Nous pouvons maintenant établir l'existence des bases dans les es-
paces vectoriels non réduits à {O}, en commençant par ce qu'on appelle
les espaces de dimension finie.

DÉFINITION 6.63. - Un espace vectoriel E sur un corps K est dit de


dimension finie si et seulement si il admet au moins une partie génératrice
de cardinal fini non nul.

THÉORÈME 6.64. - Soit E un espace vectoriel de dimension finie sur le


corps K. Si E =/:- {O}, E admet des bases de cardinal fini.

Soit Ç une partie génératrice de cardinal fini, (~ 1), de E, on a


Ç =/:- {O}, sinon VectÇ = E = {O}, donc 3X non nul dans Ç, et {X}
est une famille libre à 1 élément : si >.. E K est tel que >.X = 0, >.. =/:- 0 est
exclu sinon >..- 1>.X = X = O.
Soit alors S = {cardinaux des familles libres formées avec des vecteurs
de Ç} : S est non vide, (on vient de voir que 1 E 8), contenu dans N, et
majoré par card(Ç), fini, donc, (propriétés des entiers, corollaire 3.45), S
admet un plus grand élément n.
Soit B une famille libre de n vecteurs de Ç, (une telle famille existe
d'après la définition de n on en choisit une grâce à l'axiome du choix, voir
2.45). Cette famille libre est une base de E car pour tout X de Ç, soit
X E B donc X E Vect(B), soit X ~ B mais la famille BU {X} est alors
finie, ayant n + 1 vecteurs de Ç, elle est non libre vu la définition de n,
avec B, c'est que X E Vect(B), (vu le Théorème 6.61).
Espaces vectoriels 193

Dans tous les cas g C Vect(B), d'où E = VectÇ, plus petit sous-
espace vectoriel contenant g est contenu dans Vect(B). On a donc en fait
E C Vect B C E d'où E = Vect B : B est finalement partie libre et
génératrice de E, on a bien existence d'une base de E =f. {O}. •
Remarque: Il est logique d'exclure E = {O}, car la seule famille indexée
injectivement est {O}, qui est bien génératrice, mais pas libre.

THÉORÈME 6.65. - Soit E un espace vectoriel =f. {O}, de dimension finie


sur un corps K. Toutes ses bases ont le même cardinal, fini, qui s'appelle
la dimension de l'espace.

Il convient de remarquer que l'on définit la notion de dimension finie


avant celle de dimension.
En effet, le théorème 6.64 nous dit que E admet au moins une base
de cardinal fini. On en fixe une de cardinal n ~ 1, n entier, soit B cette
base.
Si .C est une famille libre de E, on a alors card(.C) :::;; n, sinon,
(Théorème 6.62), si card(.C) > n, on pourrait trouver dans .C, famille
libre, n + 1 vecteurs qui seraient combinaisons linéaires des n vecteurs de
B (base donc partie génératrice) : d'après le Théorème 6.62, cette partie
serait liée, ce qui contredit la définition de .C libre.
Donc si C est une autre base, en tant que partie libre, on a card(C) :::;; n.
Mais alors card(C) = p est fini : on peut inverser les rôles et dire que B
en tant que partie libre admet au plus p éléments, toujours en appliquant
le théorème 6.62. On a ainsi p :::;; n et n :::;; p d'où n = p : les bases B et C
ont même cardinal, fini, qui est ici la dimension n de E. •

On va étendre les deux Théorèmes 6.64 et 6.65 au cas général.


Mais au préalable on peut encore justifier quelques résultats en
dimension finie.

THÉORÈME 6.66. - Soit E un espace vectoriel de dimension finie, n, n E


1\1*, sur un corps K. Soit .C une partie libre de E. On a r = card(.C) :::;; net
si g est une partie génératrice de E, il existe une partie S de g de cardinal
n - r telle que B =.CU S soit une base de E.

Ce théorème s'appelle encore théorème de la base incomplète : on a


complèté .C, partie libre en une base B de E.
D'abord comme tout vecteur de E est combinaison linéaire des n
vecteurs X 1, ... , Xn d'une base C de E, (il y en a, elles sont toutes
de cardinal n, d'après les théorèmes 6.64 et 6.65), dès que l'on an+ 1
194 Algèbre

vecteurs ils sont liés (Théorème 6.62), donc si .C est une partie libre de E,
card(.C) ~ n.
Soit A = {cardinaux des parties libres M avec .C c M C (.CuÇ) }. On
a un ensemble d'entiers non vide, (card .C E A) majorée par n dimension
de l'espace (toujours le Théorème 6.62), donc A admet un plus grand
élément p.
Soit Mo = .C U So une partie libre de cardinal p, avec So n .C = 0 et
So C Ç. Alors, pour tout X de Ç non dans (.CU So) on a l'inclusion stricte
.CUSo c(.CUSo)U{X} C .CUQ et comme .CUSoU{X} est de cardinalp+l,
#
cette partie est liée. Comme.CU So est libre c'est que X E Vect(.C U So)
d'après le théorème 6.61. Comme (.CUSo) C Vect(.CUSo) on a finalement
Ç C Vect(.C U So), donc E = Vect(Ç) C Vect(.C U So) car Vect(Ç) est
le plus petit sous-espace vectoriel de E contenant Ç et Vect(.C U So) en
est un. Comme tout se passe dans E, on a l'égalité E = Vect(.C U So) :
la partie libre Mo = .CU So est donc génératrice : c'est une base de E,
en tant que telle elle est de cardinal n, donc card(So) = n - r d'où le
résultat.

COROLLAIRE 6.67. - Soit E espace vectoriel de dimension finie n, n E N*,


sur un corps K toute partie libre est de cardinal r ~ n, si r = n c'est une
base. De plus .C partie libre est contenue dans une base.
C'est évident en appliquant le Théorème 6.64 avec E pour partie
génératrice.

COROLLAIRE 6.68. - Dans E vectoriel de dimension finie n, n E N*, sur


un corps K, toute partie génératrice Ç contient des bases, est des cardinal
p ~net si p = n c'est une base.

On a E =f. {O}, donc Ç génératrice n'est pas réduite à 0, il existe X =f. 0


dans Ç d'où .C = {X} une famille libre de E. On applique le théorème
6.66 à .C libre, Ç génératrice, la base B = {X} U S trouvée l'est avec S
partie de cardinal n - 1 de Ç, or X E Ç, d'où card(Ç) ~ n, et si c'est n,
c'est que Ç = B. •

THÉORÈME 6.69. -Soit E un espace vectoriel de dimension finie n, n E N*,


sur un corps K. Tout sous-espace vectoriel F =f. {O} de E est aussi de
dimension finie et si p = dim(F) on a p ~ n. Le sous-espace F admet des
supplémentaires, et si p = n, F = E.
Le dernier point sera faux en dimension infinie.

Si F =f. {O}, il existe des familles libres de F, (a un élément), donc


l'ensemble A = {cardinaux des familles libres de vecteurs de F} est non
Espaces vectoriels 195

vide, majoré par n = dim(E), (toujours le théorème 6.62), donc admet un


plus grand élément p. Soit C, famille libre de F ayant p éléments. Pour
tout X de F non dans C, card(C U {X}) = p + 1 donc CU {X} est non
libre, avec C libre, c'est que X E Vect(C), (Théorème 6.61).
Or 'r;/X E C, XE Vect(C) est évident.
D'où F C Vect(C) C F puisque C C F : la famille libre C de
cardinal fini p ~ n est aussi génératrice, c'est une base de F qui est
donc de dimension finie, ayant une partie génératrice finie, on a bien
p = dim(F) ~ n. Enfin, si p = n, une base C de F étant famille libre
de n = dim E éléments est base de E, (Corollaire 6.67), d'où le début du
théorème.
Il reste l'existence des supplémentaires.
Or si C est une base de F, si g est partie génératrice de E, (E lui-
même convient) il existe S C g, telle que CU S soit base de E, (Théorème
6.66 dit de la base incomplète).
Si C = {X1, ... ,Xp} et S = {Y1, ... , Yn-p}, (n = dimE), on a donc
pour tout Z de E, des (>.ih..;i..;p et des (µj)i..;j..;n-p dans K tels que
p n-p
z = I::.xixi + I:: µjYJ·
i=l j=l

Ona
P n~

X= L>.iXi E Vect(C) = F et Y= L µj}j E Vect(S).


~1 ~1

Posons H = Vect(S), on a Z écrit sous la forme Z =X+ Y avec XE F


et Y E H; puis si T E F n H, on a des .Ài et des µi, (même notation) tels
que
p n-p
T = L:>.ixi = L µj}j
i=l j=l

d'où

Or {Xi, ... , Xp, Y1, ... , Yn-p} est une famille libre : les .Ài et µj sont
tous nuls d'où T = O.
On a FnH = {O} et F+H = E donc E = FtfJH: on a bien trouvé
un supplémentaire H de F dans E. •
196 Algèbre

Tous ces résultats vont s'étendre sans difficulté aux espaces vectoriels
de dimension infinie. Pour cela il faut quelque chose qui remplace l'outil
suivant:
1) existence d'un entier maximum dans un ensemble non vide d'en-
tiers, majoré;
2) choix d'une partie de cardinal cet entier.
Cet outil sera l'axiome de Zorn, (voir 2.42), qui affirme l'existence d'un
élément maximal dans un ensemble inductif.
Le recours à cet axiome se comprend d'autant mieux que les propriétés
d'ordre sur les entiers sont liées à l'axiome de Zermelo, que le choix d'une
partie de cardinal, entier, connu, dépend de l'axiome du choix, et que nous
avons vu au chapitre 2 l'équivalence de ces trois axiomes.

THÉORÈME 6. 70. - Soit E un espace vectoriel non réduit à { 0} sur un corps


K L'ensemble des familles libres de E est inductif, pour l'ordre: inclusion.

Rappelons qu'un ensemble A ordonné, (partiellement), est dit inductif


si et seulement si toute partie totalement ordonnée de A admet au moins
un majorant dans A.
On considère ici A = {parties libres .C de E}, (il y en a car E =/:- {O}
donc tout singleton {X} avec X vecteur non nul est une famille libre).
L'ensemble A est partiellement ordonné par l'inclusion. Soit B une
partie de A totalement ordonnée. On considère L = LJ .C, (peut se lire
CEB
L droit est la réunion des .C italiques de B).
Ce n'est pas tout .de le lire, il faut le comprendre. L'ensemble B est
constitué d'éléments qui sont des parties libres de l'espace vectoriel E,
on veut dans A un majorant de B, c'est-à-dire une partie libre de E, qui
contienne chaque .C élément de B, d'où l'introduction de la réunion de ces
.c.
La partie L est libre, en effet, supposons, pour faciliter la compréhen-
sion que l'on indexe injectivement Len L = (Xi)iEl• c'est ridicule : on
pourrait prendre comme ensemble d'indice L lui-même et écrire L =
(X)xEL· Enfin, faisons comme si ce n'était pas ridicule, et soit J une
partie finie de I. On veut prouver que la partie finie (Xj)jEJ est libre
pour retrouver la définition 6.58.
Pour cela, pour chaque j de J il existe une partie .C de B qui contient
Xj, on peut noter .C(j) une telle partie.
On a donc un nombre fini, (~ card J) de parties .C(j) telles que
Xj E .C(j). Mais ces .C(j) en nombre fini, sont dans B totalement ordonné
par inclusion : il existe une de ces parties qui est la plus grande ou
Espaces vectoriels 197

encore, il existe un indice jo tel que Vj E J, .C(j) C .C(jo) d'où Vj E J,


Xj E .C(jo).
Mais alors la famille finie indexée injectivement, (Xj)jEJ est dans
.C(jo) famille libre par hypothèse : la famille finie en question est libre.
Finalement L = LJ .C est une famille libre qui majore chaque .C de
.CEE
B l'ensemble A des parties libre de E est inductif. •

THÉORÈME 6.71. - Tout espace vectoriel E non réduit à 0, sur un corps


. K, admet des bases.

Car soit Bun élément maximal de l'ensemble inductif des familles


libres, (théorème de Zorn), on a déjà .C libre, c'est aussi génératrice car
VX de E,
- si X E B => X E Vect(B),
- et si X f- B, on a B C BU {X}, donc BU {X} non libre (sinon B
#
non maximal), mais alors, (définition 6.58), il existe une partie finie S de
BU {X} non libre, on ne peut pas avoir S C B qui est libre, donc S est
du type S1 U {X} avec S1 C B.
On a alors
- soit S1 = 0, S ={X} non libre# X= 0 E Vect(B),
- soit S1 =f. 0, mais alors S1 de cardinal fini, est une partie libre et
S1 U{X} est liée, c'est que XE Vect(S1), (c'est encore le Théorème 6.61),
et S1 C B => a fortiori X E Vect(B).
On a obtenu, dans tous les cas, X E Vect(B) d'où E C Vect(B) C E,
donc B est génératrice : on a bien une base de E. •

THÉORÈME 6. 72. - (De la base incomplète) Soit E un espace vectoriel non


réduit à {O} sur un corps K, .C une partie libre, g une partie génératrice,
il existe S C g telles que B = .C U S soit une base de E.

On considère cette fois A = {parties libres M avec .C C M C (.CUQ)},


A n'est pas vide, (.C E A car c'est une partie libre vérifiant les 2 inclusions)
et A inductif car si B est une partie de A totalement ordonnée, on a encore
L = LJ M qui est une famille libre, (voir théorème 6.70).
MEE
De plus, .C C chaque M de B => .C C L,
et chaque M C (.CU Ç) => L C (.CU Ç), donc Lest un élément de A, qui
majore la partie B par construction, (on a bien M CL, VM E B).
Mais alors, (théorème de Zorn), il existe dans A des éléments maxi-
maux. Soit Bun tel élément, .CC B C (.CU Ç) : Best forcément du type
198 Algèbre

.CU S avec S C Ç, et 'v'X E Ç si X fi. B, on a .C C B C BU {X} C .CU Ç,


-1
donc BU {X} n'est pas dans A, (sinon, B non maximal).
Comme les inclusions .C C BU {X} C (.CU Ç} sont vraies, c'est
que BU {X} est non libre, or B libre ::::} X E Vect(B), (justification
vue au théorème 6. 71). Si X de Ç est aussi dans B, il est évident que
X E Vect(B), d'où finalement Ç C Vect(B) et encore E = Vect(Ç) C
Vect(B) C E, d'où E = Vect(B) : B est une base du type voulu. •

THÉORÈME 6.73. - Soit E espace vectoriel non réduit à {O} sur un corps
K, toute partie libre .C est contenue dans une base; toute partie génératrice
contient une base, tout sous-espace F de E admet des supplémentaires.

Le 1er point s'obtient à partir du théorème 6.72 avec .C libre et E


partie génératrice d'où .C dans une base du type .C = .CU S avec S partie
deE.
Le 2e, s'obtient à partir du même théorème, en choissisant X =f:. 0
dans Ç partie génératrice, (si X n'existe pas, E = {0}) et en partant de
.C = {X} partie libre et de Ç génératrice : la base B = .CU S obtenue est
bien contenue dans Ç.
Enfin, si Fest sous-espace de E, F admet des bases, (Théorème 6.71),
et si .C est une base de F, avec E partie génératrice de E, il existe S C E
tel que B =.CU S =base de E, (Théorème 6.72) et on vérifie comme au
théorème 6.69 que E = (Vect.C) EB Vect(S). En effet, on a F = Vect.C,
on pose H = VectS.
Si Z E E = Vect B, il existe une combinaison linéaire d'un nombre
fini de vecteurs de B qui vaut Z.
En fait, notons .C = (Xi)iEI et S = (}j)jEJ• on a des Xi dans K,
presque tous nuls, (c'est-à-dire tels que card{ i, Xi =f:. O} fini), et des Yj
dans K presque tous nuls, (donc tels que card{j, Yj =f:. O} fini), tels que
Z = (.l:::Xixi) + ( LY3Yj) E F + H, donc E = F + H.
iEl jEJ
Puis, si T E F n H, en écrivant T = L XiXi, (les Xi étant presque
iEI
tous nuls), et T = L Yj Yj, (les Yj étant presque tous nuls), on a
jEJ
0 = L XiXi + L(-y3)Yj; donc tous les Xi et tous les Yj cette fois
iEl jEJ
sont nuls, puisque la famille des Xi et Yj est libre, donc T = 0 : on a bien
FnH = {O} et comme on a justifié que F+H = E, c'est que E = FEBH .

Espaces vectoriels 199

Il reste à justifier l'équivalent du Théorème 6.65 : à savoir le

THÉORÈME 6. 7 4. - Soit E un espace vectoriel non réduit à { 0} sur le corps


K. Toutes ses bases sont équipotentes.
Le cas de E espace vectoriel de dimension finie est traité par le
théorème 6.65.

On suppose donc E de dimension infinie, et soit B = ( ei)iEJ et


C = (cj)jEJ deux bases de E, de cardinal infini.
Soit c j un vecteur de C. Comme B est génératrice, c j est combinaison
linéaire d'un nombre fini des ei, par exemple ei 1 , ei 2 , •.• , eip donc on a des
p
scalaires Xi 1 , ••• , Xip tels que éj = L Xikeik' (ce sont les indices i qui
k=l
ici, sont indexés), et on suppose que dans cette écriture les Xik sont non
nuls. De plus, une telle écriture est unique, (deux écritures conduiraient,
par soustraction à une combinaison linéaire nulle d'un nombre fini des ei,
d'où une absurdité si elles étaient distinctes car B est famille libre).
Il existe donc un et un seul p de N*, p fonction de j, tel que c j soit
combinaison linéaire d'exactement p vecteurs de B.
On a une «partition» de J en J = LJ Jp avec Jp = {j,j E J,éj
pEN*
est combinaison linéaire d'exactement p vecteurs de B}, («partition» car
si les Jp sont 2 à 2 disjoints, certains peuvent être vides).
On va prouver que card Jp ~ card /. Pour cela on considère Ap =
{parties de p éléments de B}, toujours avec p dans N*.
Si { ei 1' ei 2 , ••• , eip} est une partie de p vecteurs de B, c'est une famille
libre (extraite de B) de p vecteurs: elle engendre un sous-espace vectoriel
de dimension p de E donc il existe au plus p valeurs de j tels que c j soit
combinaison de ces vecteurs particuliers.
S'il y en a, disons r, avec r ~ p, on les numérote, et on peut ainsi
mettre en forme une injection de Jp dans Ap x {1, ... ,p} celle qui
à j de Jp associe le couple formé de la partie { ei 1 , . . . , eip} telle que
cj E Vect {ei 1' . . . , eip } , et du numéro de j parmi l'ensemble fini des
indices associés à cette partie.
On en déduit que card Jp ~ (card(Ap)) x p (définition du produit des
cardinaux: voir 3.12).
Quand au cardinal de Ap, d'abord il est supérieur ou égal à card/,car
on peut fixer p - 1 éléments de B et considérer ce qui reste, B', c'est
encore de cardinal infini, sinon BIserait de cardinal fini, (une somme
de deux entiers étant un entier), or la proposition 3.52 montre que
200 Algèbre

card(B') + (p - 1) = card(B'), mais c'est card(B) d'où card(B') =


card(B) = card(I), et comme en choisissant chaque élément de B' on
obtient des parties de p éléments en l'adjoignant à ceux déjà choisis, on a
une injection de B' dans Ap d'où

card(l) = card(B') ~ card(Ap).

Puis chaque ensemble de p éléments de B fournit pl injections de


{1, 2, ... ,p} dans B, obtenus en numérotant ces éléments et en les per-
mutant. On établit ainsi une bijection entre l'ensemble des injections de
{1, 2, ... ,p} dans B et le produit cartésien Ap x {1, 2, ... ,pl}, (à une injec-
tion on associe le couple formé de l'ensemble des p images, et du numéro
de l'injection considérée, parmi les pl injections ayant même ensemble
image), d'où

plcard(Ap) = card( {injections de {1, ... ,p} dans B})


~ card( {applications de { 1, ... , p} dans B} ).

Enfin, les applications de { 1, ... , p} dans B sont en bijection avec le


produit cartésien I x I x ... x l, (p fois), car une application correspond
au p-uplet formé des indices des vecteurs pris dans B.
D'après la proposition 3.52, comme card(I) est infini, on a card(I x
I) = card(I), d'où par récurrence card(I x I x ... l) = card(I).
Par ailleurs card(Ap) infini:::? p!card(Ap) = card(Ap), d'où l'inégalité
card(l) ~ card(Ap) ~ card(l) : on a card(Ap) = card(I). Mais alors
p · (card(Ap)) = card(I), (toujours parce que card(Ap) est infini), d'où
card(Jp) ~ card(l) : il existe donc une injection Op de Jp dans I: on en
déduit une injection 0 de J dans N x I car à j de J = LJ
Jp on associe
pEN*
le couple O(j) = (p, Op(j)), où p est le seul entier tel que j E Jp.
Uapplication 0 ainsi définie est une injection car pour j =f j', on a soit
p 1 =f p : images distinctes; soit j et j' sont associés au même p, c'est le
côté injectif de Op qui fournit O(j) =f O(j 1 ). Donc card J ~ card(N x I) =
(card N) x card I. Or card(I) est infini, donc ;;;::: card(N), (proposition
3.49), et la proposition 3.52 nous donne, là encore

cardN x cardl = cardl.


Au bout de ce long cheminement dans les cardinaux on a justifié l'inégalité
card J ~ card I, on aurait de même card I ~ card J en inversant les rôles
au départ, d'où l'égalité des cardinaux. •
Espaces vectoriels 201

7. Propriétés des bases

Afin de s'assurer que la notion de base sert à quelque chose, il est bon
d'établir quelques propriétés utiles. La première c'est la décomposition
unique dans une base. On va également voir que les bases servent à
caractériser les applications linéaires.

THÉORÈME 6.75. - Soit B = (e)iEl une base d'un espace vectoriel E sur
le corps K. Pour chaque vecteur X de E il existe une et une seule famille
(xi)iEI de scalaires de K, presque tous nuls, telle que X = L Xiei·
iEl

6.75.bis Rappelons que famille (xi)iEl de scalaires presque tous nuls,


signifie que le cardinal de l'ensemble des i tel que Xi 1- 0 est fini. C'est
forcément le cas en dimension finie, sur de tels espaces le presque tous
nuls est inutile.
Il faut par ailleurs remarquer que la notation L Xiei représente une
iEl
somme finie, que l'on pourrait indexer par les indices i en nombre fini tels
que Xi 1- O. Uennui c'est qu'il faudrait changer d'ensemble d'indices en
changeant de vecteurs, d'où l'utilisation de ce presque tous nuls.
La justification du théorème est immédiate.
Soit X de E = Vect(B), donc (Théorème 6.19), il existe une partie finie
de B, { ei 1 , ei 2 , ••• , ein} par exemple, telle que X soit combinaison linéaire
n
de ei 1 , . . . , ein : d'où des scalaires Xi 1 , . . . , Xin tels que X = L Xik eik.
k=l
En posant Xi = 0, Vi 1- i1, 1- i2 ... 1- in, on définit bien une famille
(xi)iEI de scalaires de K presque tous nuls telle que X = L Xiei.
iEl
Si on avait 2 écritures possibles, X = L Xiei = L xiei> on en déduit
iEl iEl
que 0 = L(xi - xi)ei, les sommes portant a priori sur un ensemble fini
iEl
d'indices, ceux associés à des Xi 1- 0 et à des xi 1- 0 : pour préciser les
choses on peut noter li= {i,xi 1- O}, I2 = {i,xi 1- O} !3 =li U h est
fini, et on ne garde que

X = L Xiei = L xiei ::::} L (xi - xi)ei = 0


iE/3 iE/3 iE/3
202 Algèbre

d'où, J3 étant une partie finie de I et B une famille libre, on a Xi - x~ = 0,


Vi E J3. Comme pour i </. !3, Xi = 0 = x~ on a bien Xi = x~ \li E J. •

DÉFINITION 6. 76. - Les scalaires Xi ainsi introduits sont les coordonnées


de X dans la base B.

Un vecteur est donc caractérisé par la donnée de ses coordonnées dans


une base.
Passons aux applications linéaires.
On va voir que si B = (ei)iEJ est une base de E, la donnée de u
application linéaire de E dans F équivaut à la donnée des images u( ei)
des vecteurs de cette base.

THÉORÈME 6.77. - Soient E et F deux espaces vectoriels sur un corps K,


B = (ei)iEJ une base de E et (Yi)iEI une famille de vecteurs de F indexée
par le même ensemble d'indices. Alors il existe une et une seule application
linéaire u de E dans F telle que, \li E J, u( ei) = Jli. De plus on a
u injective {::::::::} (Yi )iEJ est libre,
u surjective {::::::::} (Yi)iEJ est génératrice de F,
u isomorphisme {::::::::} (Yi)iEJ est une base de F.

Existence et unicité de u : il faut pouvoir définir u(X) pour un X


quelconque de E.
Comme B est une base, à X on associe la famille unique de ses
coordonnées dans la base et si X = L Xiei avec des Xi presque tous
iEJ
nuls comme u doit être linéaire, on doit avoir forcément

u(X) = Lxiu(ei) = LxiYi


iEJ iEJ

vu les conditions imposées sur u.


Il y a donc une et une seule définition possible de u. Le problème est
de vérifier que u ainsi définie est linéaire, or si on a X' = L
x~ei, et si
iEJ
>. et >.' sont 2 scalaires, on aura

>.X+>.' X'= L(Àxi + >.' xi)ei,


iEJ
Espaces vectoriels 203

avec en fait un nombre fini seulement de ÀXi + À1xi non nuls; on posera
donc

u(ÀX + À1 X') = L(Àxi + À1xi)}i,


iEJ
expression qui s'écrit en fait

À Lxi"Yi + À1 LxiYi soit Àu(X) + À1u(X1).


iEJ iEJ
On a bien justifié l'existence et l'unicité de u linéaire.
On a alors si u injective, si {i 1, ... , in} est une partie finie de I
n
et si Ài, ... , Àn sont des scalaires tels que L Àk}ik = 0, c'est encore
k=l
n n
u ( L Àkeik) = 0, donc X = L Àkeik E Ker u = {O} (injectivité de
k=l k=l
u) donc X est nul, or les Àk apparaissent comme ses coordonnées dans
la base B, donc les Àk sont nuls : on a justifié que la seule combinaison
linéaire nulle des (Yik h~k~n est celle avec des coefficients nuls : la famille
{}i 1 , . . . , Yin} est libre, ceci est vrai pour toute partie extraite de I :
finalement (Yi)iE/ est libre.
Réciproquement on suppose la famille des (Yi)iEI libre.
Si X = L Xiei est dans Ker u, en notant {ii, ... , in} la partie finie
iEJ
de I associée, a priori, à des Xi non nuls, on aura
n
u(X) = 0 = L XikYik'
k=l

or (Yi)iEI est libre, donc les Xik sont tous nuls, et finalement X est nul :
on a u injective.
Donc u injective <===? (Yi)iEI libre.
On au surjective <===? (Yi)iEI génératrice, en effet

(Yi)iEI génératrice <===? Vect( u( ei)iEI) =F


or l'élément générique de Vect(u(ei))iEJ) est LXiu(ei), les Xi étant
iEJ
presque tous nuls, soit encore u(L Xiei) par linéarité de u. Comme
iE/
204 Algèbre

LXiei est l'élément générique de E, on a donc Vect(u(ei)iEJ) = u(E)


iE/
en fait, d'où l'équivalence.
En réunissant ces 2 caractérisations, on a celle des bijections.
Le théorème va nous permettre de mieux connaître l'espace vectoriel
.C(E, F), si on connaît des bases de E et de F.

THÉORÈME 6. 78. - Soient E et F deux espaces vectoriels sur un corps K,


B = (ej)jEJ une base de E et C = (ci)iE/ une base de F.
Les applications (ui,j)(i,j)ElxJ linéaires, définies pour chaque couple
(i, i) de I x J par les conditions :
Ui,j(ej) =Ci et, 'ij' =I= i, j' E J, Ui,j(ej') = 0
forment une famille libre de .C(E, F).
C'est une base de .C(E, F) si et seulement si E, (espace de départ) est
de dimension finie.

Il faut bien comprendre que pour un couple (i,i) fixé de I x J, Ui,j


est la seule application linéaire qui envoie tous les vecteurs de la base B
de E sur 0 sauf le ej qui est envoyé sur ci·
La façon d'indexer les applications servira lors du calcul matriciel. Le
théorème 6.77 justifie l'existence des ui,j linéaires de E dans F vérifiant
les conditions données.
Cette famille est libre, car si on prend un nombre fini des couples (i, i),
disons (i1,i1), (i2,i2), ... , (in, in), et si on a des scalaires >.1, ... , Àn tels
n
que l'application linéaire L ÀkUik,ik soit l'élément nul de L(E, F), c'est-
k=l
à-dire l'application linéaire identiquement nulle, et si i est l'un des indices
de l'ensemble {i1, ... ,in}, en particulier l'image de ej est nulle.
Attention, les n couples (ik,ik) sont distincts, mais pas forcément les
n indices ii, ... ,in· Seulement, si i E {i1, ... ,in} et si pour plusieurs
valeurs de k on a ik = i, les ik associés seront distincts. On peut donc
écrire l'image de ej sous la forme :
n

2:
(car si ik =/= i, Uik,ik envoie ej sur 0 et si ik = i, Uik,j envoie ej sur
cik, et comme les ih en nombre fini, qui restent sont distincts, et que
C = (ci)iE/ est une base de F, les Àk associés aux k tels que ik = i sont
nuls. En faisant cela pour tout i de {i1, i2, ... , in} on obtient finalement
Espaces vectoriels 205

la nullité de tous les Àk, k variant de 1 à n, et le fait que toute famille


finie extraite de (ui,j)(i,j)ElxJ est libre ce qui est la justification du fait
que cette famille est libre.
Supposons alors E de dimension finie, n, et soit B = {ei, ... , en} une
base de E, on va prouver que la famille des (ui,j) est alors une base de
L(E, F), c'est-à-dire qu'elle est génératrice. Soit donc u E L(E, F).
Pour chaque j compris entre 1 et n, u( ej) se décompose dans la base
C = (êi)iE/ de F : il existe donc des scalaires presque tous nuls, que
l'on note Xi,j, (l'indice j pour rappeler qu'on travaille pour ej ), tels que
u(eJ·) -- '"°' x·
~ i,3·g·i·
iE/
En fait, on peut introduire, pour chaque j de { 1, ... , n}, la partie
finie Ij de I telle que Xi,j =fa 0 <=? i E Ij. (éventuellement Ij est vide si
u(ej) = 0).
n
Soit L = LJ Ij, c'est une partie finie de J, et si pour un j fixé, on a
j=l
i E L et i fi. Ij on pose Xi,j = O. Il en résulte que

LXi,jé"i = L Xi,jé"i = u(ej),


iEL iEij
(cari fi. Ij =? Xi,j = 0)
mais on a aussi êi = Ui,j(ej) d'où l'égalité u(ej) = LXi,jUi,j(ej)·
iEL
Enfin, pour j' =fa j, chaque ui,j' (ej) = 0, donc on aussi

[:t
j'=l
(Lxi,j'ui,j')l (ej)
iEL
= LXi,jUi,j(ej)
iEL
= L Xi,jé"i
iElj
= u(ej)·
n
La combinaison linéaire finie L L Xi,j'ui,j', d'une part et u d'autre
j'=l iEL
part donnent la même image de chaque vecteur ej de la base B de E :
elle coïncident d'après le théorème 6.77. On vient donc de vérifier que, si
dim(E) finie la famille des (ui,j)(i,j)ElxJ est une base de L(E,F) car
libre et génératrice. •

Remarque : Si dim E infinie, cette famille libre des (Ui,j) n'est jamais une
base, donc jamais génératrice, car chaque Ui,j envoyant toute la base B
206 Algèbre

sur 0 sauf 'ej sur éi une combinaison linéaire d'un nombre fini des Ui,j
envoie tous les vecteurs de B sur 0 sauf un nombre fini. Il en résulte que
par exemple l'application u envoyant chaque ej, (en nombre infini) sur un
éio fixé, (u existe d'après le Théorème 6.77, appliqué à la base B = (ej )jEJ
de E et la famille constante (}j)jEJ de F avec 'efj E J, Yj = éi 0 ), ne peut
pas être dans Vect((ui,j)(i,j)ElxJ).
Cas particulier de E et F tous les deux de dimension finie.

COROLLAIRE 6.79. - Si E est de dimension finie, p, et F de dimension


finie, n, l'espace vectoriel L(E, F) est de dimension finie np.

Car avec B = (ejh..;fs;;;p base de E et F = (e:ih..;i..;n base de F, il y


a alors np applications du type Ui,j• qui forment une base de L(E, F) qui
est donc de dimension finie np.
Les deux théorèmes d'isomorphisme, (Théorèmes 6.41 et 6.43) vont
nous fournir des égalités intéressantes, quand on appliquera le résultat
suivant, valable en fait en dimension quelconque :

THÉORÈME 6.80. - Deux espaces vectoriels E et F sont isomorphes si et


seulement si ils ont des bases équipotentes.

On dira que les espaces sont isomorphes s'il y a un isomorphisme de


l'un sur l'autre.
En effet si E et F sont isomorphes, soit u un isomorphisme de E sur
F, B = (ej)jEJ une base de E, d'après le théorème 6.77, u est la seule
application linéaire envoyant chaque ej sur u(ej) vecteur de E et u étant
bijective, cette famille C = (u(ej))jEJ est une base de F qui admet donc
des bases équipotentes à celles de E.
Réciproque
Si E et F admettent des bases équipotentes, on peut les indexer par
le même ensemble d'indices, J, donc soit B = (ej)jEJ une base de E
et C = (éj)jEJ une base de F, toujours d'après le théorème 6.77, il
existe une et une seule application linéaire envoyant chaque ej sur éj,
cete application étant bijective puisque C est une base de F. On a bien E
et F isomorphes. •

De même, quelque soit la dimension des espaces on peut établir un


lien entre somme directe et bases.

THÉORÈME 6.81. - Soit un espace vectoriel E somme directe den sous-


espaces Fi, F2, ... , Fn et soit, pour chaque i = 1, 2, ... , n, Bi une base de
Fi> alors B = LJBi est une base de E, les Bi étant 2 à 2 disj~intes.
i=l
Espaces vectoriels 207

n
Car si X E E, X s'écrit dans la somme directe E = ffi Fi sous la
i=l
forme X= X1 + ... + Xn avec chaque Xi dans Fi= VectBi, donc Xi
est combinaison linéaire d'un nombre fini d'éléments de Bi> donc de B.
En sommant pour i variant de 1 à n, on obtient X combinaison linéaire
d'un nombre fini d'éléments de B. Il est clair que si i =F j, Bi n Bj = 0

sinon, si e E Bi n Bj on aurait e =F 0 dans Fi n (t


k#i
k=l
Fk) , (car e dans

n
Fj C L Fk) ce qui est exclu.
k#i
k=l
Best enfin partie libre de E, car si on a une combinaison d'un nombre
fini des éléments de B, nulle, soit X cette combinaison linéaire. On peut
noter

Bi= {ei 1 ,i1 Eli}, B2 = {ei2 ,i2 E I2} et ...


Bn = {ein, in E In} les bases de Fk,

les ensembles d'indices li, ... , In étant disjoints, puis introduire les
parties finies suivantes :

Ji= {i1 Eli, ei 1 intervient avec le coefficient Xi 1 dans X},


h = {i2 E I 2, ei 2 intervient avec le coefficient Xi 2 dans X},

et enfin

Jn ={in E In, ein intervient avec le coefficient Xin dans X};

alors

Si on pose xk = L Xikeik' l'écriture X1 + ... + Xn = 0 avec les


ikEJk
n
Xj E Fj et E = ffi Fj implique que chaque Xk = 0, (théorème 6.51),
j=l .
mais alors chaque Xik est nul, xk étant décomposé dans une base Bk de
Fk.
Finalement Best bien libre et génératrice: c'est une base de E. •
208 Algèbre

THÉORÈME 6.82. - Soit B = (ei)iEI une base d'un espace vectoriel E et


n
I = LJ Ik une partition de l. En posant Bk = (ei)iEh et Fk = Vect Bk,
k=l
n
ona E = EBFk.
k=l

Car tout X de E se décompose en combinaison d'un nombre fini des

En reprenant les notations de la justification précédente, avec Ji


ensemble des i1 de li tels que ei 1 intervient avec le coefficient Xi 1 dans
n
X, ... on arrive à X= L xk avec xk = L Xikeik E Fk. Donc on a
k=l ikEJk
n
déjà composé chaque X de E sous la forme L xk avec les xk E Fk.
k=l
Puis si une telle somme est nulle, en décomposant Xk dans la base
Bk de Fk> sous la forme xk = L
Xikeik' les Xik étant presque tous
ikElk
n n
nuls, on a X= L xk =0 =L (L Xikeik ). C'est une combinaison
k=l k=l ikElk
n
linéaire nulle d'un nombre fini des ei de B = LJ Bk> base donc famille
k=l
libre : tous les Xik sont nuls d'où chaque xk =o. On a bien vérifié l'une
des conditions de somme directe (Théorème 6.51).
On applique tout ce qui précède aux espaces vectoriels de dimension
finie. On a

COROLLAIRE 6.83. - Soient G et F deux sous-espaces supplémentaires d'un


espace vectoriel E de dimension finie : on a dim E = dim F + dim G.

Car une base de E est obtenue en réunissant une base de F et une de


G, ces bases étant disjointes: c'est le théorème 6.81. •

COROLLAIRE 6.84. - Soit F un sous-espace vectoriel de E espace de


dimension finie : on a dim( E / F) = dim E - dim F.

Car F admet des supplémentaires (Théorème 6.69). Soit G un supplé-


mentaire de F et p la projection sur G de noyau F. Les espaces vectoriels
Espaces vectoriels 209

E /Ker p et p( E) sont isomorphes (premier théorème d'isomorphisme,


théorème 6.41), donc de même dimension. Comme Ker p = F et p( E) = G
on a finalement dim(E/F) = dimG = dimE - dimF vu le corollaire
6.83 puisque E = F E9 G.

COROLLAIRE 6.85. - Soit E un espace vectoriel de dimension finie, F un


espace vectoriel de dimension quelconque, et f linéaire de E dans F. On
a dim(E) = dim(f(E)) + dim(Ker !).

Car les espaces vectoriels E /Ker f et J(E) sont isomorphes, (pre-


mier théorème d'isomorphisme, théorème 6.41) donc de même dimen-
sion (Théorème 6.80) et on applique le corollaire 6.84 pour calculer
dim(E/Ker !) d'où dimE-dim(Ker !) = dim(f(E)) ce qui est le résul-
~

CONSÉQUENCE si E et F sont de même dimension finie, on a, pour


.
f E L(E,F):
(! injective) .ç:::::::} (! surjective) .ç:::::::} (! bijective).

DÉFINITION 6.86. - Soient E et F deux espaces vectoriels, f E L(E, F).


Lorsque f (E) est un sous-espace de dimension finie de F, sa dimension
est appelée rang de f.

COROLLAIRE 6.87. - Soient F et G deux sous-espaces un espace vectoriel


Ede dimension finie : on a dim(F + G) = dim F + dim G - dim(F n G).

C'est la traduction, en dimension, du 2e théorème d'isomorphisme,


(Théorème 6.43), qui nous dit, (si tant est qu'il ait la parole), que

(F + G)/F '.:::'. G/(F n G)


d'où en prenant les dimensions (6.80 et 6.84):

dim(F + G) - dimF = dimG - dim(F n G)

ce qui est la formule voulue.



Ces quelques corollaires sont des outils bien commodes pour l'étude
des situations rencontrées dans les espaces vectoriels. Avant d'aborder un
paragraphe bien plus mystérieux, il reste une remarque à faire :

REMARQUE 6.88. - Soit E un espace vectoriel de dimension finie.


210 Algèbre

1) Si on a F sous-espace de E et dim F = dim E alors F = E.


2) Si G C E avec G : : : '. E alors G = E.
Mais ces 2 résultats sont faux en dimension infinie où on peut rencon-
trer F sous-espaces strict de E, F et E étant de même dimension, (donc
isomorphes).

En dimension finie, (n = dim E) si B est une base de F et si


card B = n, (c'est le cas si dim F = dim E ou si F est isomorphe à
E) le théorème de la base incomplète (Théorème 6.66) nous dit que B est
base de E donc F (ou G) = E.
En dimension infinie, reprenons E = K[X] espace des polynômes sur
K. On note eo = (1,0,0, ... ,0, ... ) la suite où tous les termes sont nuls
sauf le premier et plus généralement

ep = (0, ... ,0, 1,0, ... ), (1 au rang p+ 1).


On peut vérifier que (en)nEN est une base de E.
On a F = Vect(e2n)nEN est sous-espace strict de E, (on a les po-
lynômes pairs) et pourtant les bases ( en)nEN et (e2n)nEN sont équipo-
tentes d'où F isomorphe à E avec F CE.
=1-

8. Dualité, espace dual

DÉFINITION 6.89. - Soit E un espace vectoriel sur un corps K, on appelle


espace vectoriel dual de E, l'espace vectoriel L(E, K) des applications
linéaires de E dans le corps K.

On note encore E* cet espace vectoriel et on appelle forme linéaire


tout élément de E*, c'est-à-dire toute application linéaire de E dans le
corps K.

6.90. Si f est un élément non nul du dual, son noyau est appelé hyperplan
de E. C'est un sous-espace de E dont les supplémentaires sont de dimension
1.
En effet, soit H = Ker f le noyau de f élément non nul du dual.
Le premier théorème d'isomorphisme (Théorème 6.41) nous dit que
E /Ker f est isomorphe à f (E). Mais f (E) est sous-espace vectoriel du
corps K, non réduit à {O} car f -;/:. 0, donc f(E) = K, (si on a À # 0
dans f(E), Vµ E K, µ = (À- 1 µ)À donc si le vecteur X de E est tel que
Espaces vectoriels 211

f(X) =>.on a /(>.-l µ·X) =µ).Or K est espace vectoriel de dimension


1 sur lui-même, le scalaire lK (élément neutre de K pour le produit)
formant une base.
Soit alors L un supplémentaire de H dans E, (il y en a, théorème
6.73), en utilisant la projection sur L, de noyau H, on sait aussi que
E/H = E/Ker f '.:::: L, d'où L et f(E) isomorphes donc de bases
équipotentes : on a bien L de dimension 1. En fait on a la réciproque :
si un sous-espace H de E admet pour supplémentaires des sous-espaces de
dimension 1, c'est le noyau d'une forme linéaire.
Car soit L un supplémentaire de H, B1 une base de H, {a} une base
de L, (de cardinal 1 par hypothèse), comme E est somme directe de Let
Hon a B = B1 U {a} base de E, (Théorème 6.81).
On définit alors f linéaire de E dans K en se donnant l'image des
vecteurs de la base B, (Théorème 6.77) et pour cela on pose f(a) = 1 et
tout vecteur de B1 est envoyé sur O.
Soit X de E, décomposé en X = Y + >. · a avec Y E H et >. scalaire,
décomposition unique dans la somme directe E = H E9 L. On a alors
f(X) = f(Y) + >.f(a) = 0 +>.=>.donc X E Ker f {::} >. = 0 {::}X E H.
On a bien construit f de noyau H. Il y a non unicité de f, d'abord parce
que cp envoyant B1 sur 0 et a sur un scalaire =f:. 0 convient aussi, ensuite
parce que L n'est pas unique. •

DÉFINITION 6.91. - On appelle codimension d'un sous-espace vectoriel F


de l'espace E la dimension de E / F, ou, ce qui est équivalent, la dimension
des supplémentaires de F dans E.

Bien sûr, dans cette définition, si E / F est de dimension infinie, la


codimension devient un cardinal infini.
Avec cette définition on a établi le

THÉORÈME 6.92. - Soit E un espace vectoriel sur un corps K, un sous-


espace H est un hyperplan de E si et seulement si il est de codimension 1.

Au fait, pourquoi hyperplan? Parce que, historiquement, les espaces
vectoriels ont été abordés par l'étude de la géométrie, et de l'espace de
dimension 3, espace « usuel » dans lequel les sous-espaces de codimension
1 sont de dimension 3 - 1 = 2, donc sont les plans. La généralisation de
cette notion fait passer aux hyperplans, comme on passe des marchés aux
hypermarchés! C'est du langage hyperbolique.
212 Algèbre

Orthogonalité

DÉFINITION 6.93. - Une forme linéaire f, f E E*, et un vecteur X de E


sont dits orthogonaux si et seulement si f(X) =O.

Donc c'est, pour f =f:. 0, traduire que X est dans l'hyperplan Ker f.

DÉFINITION 6.94. - Soit A une partie de l'espace vectoriel E. On appelle


orthogonal de A, l'ensemble des f du dual tels que, VX E A, f(X) =O.

On le note A..l, on a donc A..l = {!; f E E*, VX E A, f(X) = O}.


En remarquant que, pour un hyperplan H de E, tout f du dual tel
que Ker f = H s'appelle encore une équation de l'hyperplan, on peut
interpréter A..l comme l'ensemble des équations des hyperplans contenant
la partie A, ensemble auquel on adjoint la forme nulle.

THÉORÈME 6.95. - Soit A une partie de l'espace vectoriel E, alors A..l


est un sous-espace vectoriel de E*. Si A C B, B..l C A..L. On a A..l =
(VectA)..l.

D'abord A..l non vide car la forme identiquement nulle annule tout
vecteur de A, donc est dans A ..l, puis A ..l stable par combinaison linéaire :
si f et g sont dans A..l, >. et µ dans le corps, alors VX E A on a
(>.f + µg)(X) = >.f(X) + µg(X) = 0 puisque /(X) et g(X) sont nuls.
Il est clair que si A C B, et si un hyperplan contient B, alors il
contient A donc les équations des hyperplans contenant B, sont parmi les
équations des hyperplans contenant A, soit B..l C A..l.
Enfin, pour un hyperplan (sous-espace vectoriel) contenir A équivaut
à contenir VectA d'où en passant aux équations A..l = (VectA)..l.

THÉORÈME 6.96. - Soient F et F deux sous-espaces vectoriels de E. On a


(F + G)..L = p..L n c..L et (F n G)..L = p..L + c..L.

La première égalité est facile à justifier : F C ( F + G) et G C (F + G)


impliquent (F + G)..L c p..l et (F + G)..L c c..L d'où (F + G)..L c
(F..l n c..L); puis si f E p..l n c..L, pour X de (F + G) écrit sous la forme
y+ z avec y dans F et z dans G on a f(x) = f(y) + f(z), (linéarité).
Or f est dans p..l et y dans F d'où f(y) = 0 et f dans c..L, z dans G
donne f(z) = 0, donc f(x) = 0 : on a bien f E (F + G)..l; d'où l'égalité
(F + G)..L = p..L n c..L.
Espaces vectoriels 213

Pour la deuxième égalité on a: (F n G) C F et (F n G) C G d'où p1-


et G1- sous-espaces de (F n G)1- donc a fortiori

Pour l'autre inclusion, soit cp E (F n G)1- que l'on veut décomposer en


'Pl + 'P2 avec 'Pl E p1- et 'P2 E G1-. Pour cela, on part de 81 base de
FnG, il existe C1 tel que 81 UC1 soit une base de F et il existe C2 tel que
81 U C2 soit une base de G, ceci par application adéquate du théorème de
la base incomplète : théorème 6. 72.
On a 81 U C1 U C2 famille libre car si on a des scalaires Ài, µj, Pk
presque tous nuls tels que

L ÀiXi -+- L µiYj + L PkZk = 0,


XiEB1 1'jEC1 ZkEC2

en posant X= L ÀiXi + L µj Yj et Z = L PkZk, on a X dans


X1EB1 1'jEC1 ZkEC2
F et Z dans G, de plus Z = -X donc ZEF n G = Vect(81).
Or 81 U C2 est une base de G, le vecteur Z devant se décomposer
uniquement en fonction des vecteurs de 81, c'est que ses coordonnées
suivant les vecteurs de C2 sont nulles, d'où chaque Pk = 0 mais alors
X= 0 avec X décomposé dans la base 8 U C1 de F d'où chaque Ài = 0
et chaque µj = 0: la famille 81 U C1 U C2 est bien libre: on la complète
en 81 U C1 U C2 U .C base de E et on définit

'Pl= 0 sur 81 'P2 = 0 sur 81


= 0 sur C1 = cp sur C1
'Pl par et 'P2 par
= cp sur C2 = 0 sur C2
= cp sur .C = 0 sur .C.

On a bien 'Pl nulle sur 81 U C1 base de F donc 'Pl E p1-,


<p2 nulle sur 81 U C2 base de G donc <p2 E G1-,
et 'Pl + <p2 = cp sur Ci, sur C2, sur.Cet aussi sur 81 car alors cp =O.
On a donc décomposé cp de (F n G)J_ en 'Pl + <p2 E p1- + G1- d'où
finalement l'égalité voulue. •

6.97. Interprétation géométrique : les hyperplans contenànt F + G


sont exactement ceux qui contiennent F et G. Le deuxième point ne
s'interprète pas puisque le p1- + G1- ne correspond pas directement à
des hyperplans.
214 Algèbre

6.98. De manière analogue, si A est une partie du dual cette fois, on


définit son orthogonal par A.l = {X; X E E, Vf E A, f (X) = O}.
C'est encore A -1 = n
fEA
Ker f ce qui permet de justifier facilement

1) que A .l est sous-espace vectoriel de E, (intersection de sous-espaces);


2)que A C B =} B.l C A-1, (dans B.l on a déjà l'intersection des
Ker f pour les f de A, et on coupe encore, B.l diminue donc ... ).
3) On peut vérifier que (VectA).l = A-1, car AC VectA donne déjà
(VectA).l C A-1, puis si X E A.let f E VectA, f est combinaison
linéaire d'un nombre fini d'éléments de A, soient Ji, ... , fn ces éléments,
>.1, ... , Àn les scalaires coefficients de la combinaison linéaire, on a alors
· n n
f = L >.ifi donc f(X) = L >.ifi(X) = 0, chaque fi(X) étant nul
i=l i=l
puisque X est dans A .l et les fi dans A. Le vecteur X annule bien chaque
f de Vect A: X E (Vect A)-1 d'où l'inclusion A.l C (Vect A)-1 et l'égalité .

THÉORÈME 6.99. - Soit Sune partie de l'espace vectoriel E, on a (S.l ).l =
VectS.
D'abord s-1 = (Vect S)-1 (Théorème 6.95), et si on prend un vecteur
X de Vect S, pour tout f de (Vect S)-1 on a f (X) = 0 donc X est bien
dans l'orthogonal de la partie (Vect S)-1 du dual E*, d'où l'inclusion

On va prouver l'autre inclusion en justifiant que, si X f/. Vect S, alors


X f/. ((Vect S)-1 )-1.
Soit donc C une base de Vect(S), X f/. Vect(S) donc C U {X} est
une famille libre (Théorème 6.61), car si CU {X} liée, on obtiendrait X
combinaison linéaire d'un nombre fini de vecteurs de C.
On complète en B = CU {X} U .C base de E, (Théorème 6. 72, dit de la
base incomplète) et on définit une forme linéaire µ en donnant les images
des vecteurs de B, (Théorème 6.77). Pour cela,µ envoie C sur 0, doncµ
annule Vect(C) = Vect(S), soitµ E (Vcct S)-1; et on impose µ(X) = 1,
et n'importe quoi pour µ(.C).
On aµ E (Vect S)-1 et µ(X) = 1 donc X f/. ((Vect S)-1 )-1.
On a bien justifié :
Espaces vectoriels 215

d'où l'inclusion ( (Vect S)..l )..l C Vect S et l'égalité souhaitée. •

Une autre notion utile dans le dual est celle de transposition.

DÉFINITION 6.100. - Soient E et F deux espaces vectoriels sur un corps


K, E* et F* leurs duaux et u E L(E, F). On appelle transposée de u
·l'application notée tu de F* dans E* définie par:
\::lep E F*, tu(cp) = cp ou, (tu se lit transposée de u).

Ceci a un sens car u est linéaire de E dans F et cp de F dans le corps


K donc cp o u est linéaire de E dans K : on a bien tu( cp) E E*.

THÉORÈME 6.101. - L'application tu est linéaire, la transposition est


linéaire et t (u o v) =t v ot u, (sous réserve que u o v ait un sens).

On a tu(À1<p1 + À2cp2) = (À1<p1 + À2cp2) ou: c'est l'application de E


dans K qui à un vecteur X de E associe (.À1<p1 + À2cp2)(u(X)) ce qui
vaut, compte tenu de la structure vectorielle, Ài<p1(u(X)) + À2cp2(u(X))
soit [À1 tu(cp1) + À2tu(cp2)](X). Ceci étant vrai \:/XE E, c'est que
tu(À1<p1 + À2cp2) = Àitu(cp1) + À2tz.i(cp2) d'où la linéarité de tu.
Uapplication transposition : u ---+tu est elle aussi linéaire de L(E, F)
dans L(F*, E*).
Car si u, v sont dans L(E, F) et À,µ dans le corps K, t(Àu + µv) est
définie par cp---+ ~Àu + µv)(cp) = <po(Àu + µv) ce qui, compte tenu de la
linéarité de cp, vaut Àcpou + µcpov (calculer pour un X quelconque de E
pour le vérifier).
C'est encore Àtu(cp) + µtu(cp) soit (Àtu + µ'fv)(cp), d'après cette fois la
structure vectorielle de L(F*, E*).
Uégalité t(Àu + µv)(cp) =(Àtu+ µ'fv)(cp) étant valable pour tout cp de
F*, c'est que t(Àu + µv) = Àtu + µf.v, ce qui est bien la linéarité de la
transposition.
Enfin soient E, F, G trois espaces vectoriels et u linéaire de E dans
F, v linéaire de F dans G. Alors v o u est linéaire de E dans G et, pour
tout 'ljJ de G* on a

t(v o u)('l/;) = 'ljJ o (v ou), définition de t(v ou),


= ('ljJ o v) o u par associativité du produit de composition,
= (tv('l/;)) ou =tu(tv('l/;)) =(tu otv)('l/;).
C'est vrai pour tout 'ljJ de G* donc t(v ou) =tu otv.

216 Algèbre

THÉORÈME 6.102. - Soient E et F deux espaces vectoriels et u E L(E, F).


On a Ker(tu) = (u(E)).L.

Car <p de F* est dans Ker(tu) si et seulement si tu( <p) = <p o u = 0 #


VX E E, <p(u(X)) = 0 ce qui est la transcription de <p orthogonal à tout
vecteur de l'image u(E) d'où l'équivalence. •

COROLLAIRE 6.103. - On au surjective-{:::::::} tu injective.

En effet établissons d'abord un lemme.

LEMME 6.104. - Soit X un vecteur non nul de E, il existe des formes


linéaires non nulles sur X.

Car la famille libre {X} se complète en {X} U C base B de E et


la forme coordonnée µ qui envoie X sur 1 et tout vecteur de .C sur 0
convient. •

Soit alors H un sous-espace strict de F, et X vecteur de F '- H, on a


X =f. 0, (car 0 EH), donc il existe une formeµ non nulle sur X, nulle sur
H, d'où unµ non nul dans H.l: H CF::::} H.l =f. {O}.
=F
Comme par ailleurs p.l = {µ; µ E F*, µ =
O}, c'est p.l = {O}, d'où
finalement, pour H sous-espace de F, on a H .l = {0} # H = F. Il en
résulte que u surjective# u(E) = F # (u(E)).l = {O} # Ker(tu) =
{0} soit u surjective #tu injective. •

THÉORÈME 6.105. - Soient E et F deux espaces vectoriels et u E L(E, F).


On a Im(tu) = (Keru).l.

Soit <p E Im(tu), il existe 'l/; dans F* tel que <p = tu('l/;) = 'l/; ou donc,
VX E Keru, <p(X) = 'l/;(u(X)) = 1/;(0) = 0: on a bien <p E (Keru).l.
Réciproquement soit <p E (Ker u) .l, on veut l'écrire sous la forme <p =
tu('l/;) = 'l/; ou, avec 'l/; dans F*, c'est-à-dire factoriser u à travers <p or on
sait (Théorème 6.54), que c'est possible si et seulement si Ker u C Ker <p,
ce qui est le cas ici car VX E Ker u, <p( X) = 0, donc X E Ker <p. •

COROLLAIRE 6.106. - On au injective-{:::::::} tu surjective.

Car soit E un espace vectoriel, on a {O}.l = E* car tout <p de E annule


bien 0, et si H est sous-espace =f. {O} de E, avec X =1- 0 dans H, il existe
Espaces vectoriels 217

une forme coordonnéeµ non nulle en X, (lemme 6.104), doncµ~ H1- qui
est donc différent de E*. Il en résulte qu'avec H sous-espace vectoriel de
Eon a H1- = E* <=> H = {O}, et donc ici, que

u injective~ Keru = {O} ~ (Keru)1- = E* ~ Imt(u) = E*

soit u injective ~ tu surjective.



Il en résulte que l'on a :

THÉORÈME 6.107. -Soit E un espace vectoriel sur un corps K, on a, pour


u application linéaire de E dans E, u E GL(E) ~tu E GL(E*).

C'est une conséquence immédiate des corollaires 6.103 et 6.106. •

Et les bases dans tout cela?


Soit B = (ei)iEJ une base de l'espace vectoriel E, comme K est de
dimension finie, 1, sur lui-même, il résulte du théorème 6. 78, que les
applications ( ei)iEl, linéaires de E dans K définies par les conditions :

ei(ej) =0 si j-:/:- i et ei(ei) =1


forment une famille libre de E*, (car {1} est une base de K espace
vectoriel sur lui-même).
Cette famille est une base de E* <=> dim E finie, (toujours d'après le
Théorème 6.78) et dans ce cas, sin= dimE, on a aussi dimE* = n.

6.108. Dans ce cas { ei, ... , e;;,} est la base duale de E*, mais il faut bien
noter qu'en dimension infinie, la famille des ( ei)iEI est libre mais non
génératrice.

REMARQUE 6.109. - Si X= LXjej avec les Xj presque tous nuls, on a


jEl

ei(X) = L Xjei(ej) par linéarité,


jEJ

avec, pour j -:/:- i, ei(ej) = 0 et ei(ei) = 1, il reste ei(X) = Xi :


ei est l'application qui à X associe sa coordonnée suivant ei, dans sa
décomposition dans la base B d'où le nom de forme coordonnée.
218 Algèbre

Quelques résultats en dimension finie qui peuvent conduire à des


justifications plus simples des théorèmes 6.96, 6.99, et 6.102 et 6.105,
résultats non valables en dimension infinie. .

THÉORÈME 6.110. - Soit F sous-espace vectoriel de dimension p, de E


espace de dimension n. On a dim pJ. = (n - p ).

Car si {ei, ... , ep} est une base de F, que l'on complète en B
{ei, ... , ep, ep+l, ... , en} base de E, avec B* base duale de E*, on a
n
<p = L Àiei E FJ. = (Vect(e1, ... , ep))J. si et seulement si pour tout
i=l
n
j ~ p, <p(ej) = 0 soit L Àiei(ej) =O.
i=l
n
IlnerestequeÀj = 0, Vj = 1, ... ,p,cequiéquivautà<p = L Àjej
j=p+l
donc pJ. = Vect( e;+l, ... , e~) est de dimension n - p.

Voyons, à titre d'exemple, comment la justification du Théorème 6.96,
2e partie est simplifiée, si E est de dimension finie, n.
On veut prouver que (FnG)J. = p1- +GJ.. On vérifie facilement que
p1- + GJ. c (F n G)J., (car (F n G) c F et (F n G) c G impliquent
pJ. c (F n G)J. et GJ. c (F n G)J. d'où (FJ. + GJ.) c (F n G)J. ).

Puis dim(FJ. + GJ.) = dimFJ. + dimGJ. - dim(FJ. n GJ.)


=n- dimF + n- dimG- dim(F + G)J..

La première partie du Théorème 6.96 donne (F + G)J. = p1- n GJ.. On


a donc
dim(FJ. + GJ.) = 2n - dimF - dimG - (n - dim(F + G))
=n- dim F - dim G + (dim F + dim G - dim F n G)
= n - dim(F n G) = dim(F n G)J.,

(on utilise abondamment le corollaire 6.87). Mais la remarque 6.88


prouve l'égalité des deux sous-espaces, (inclusions et dimensions égales,
finies). •

THÉORÈME 6.111. - Soient E et F deux espaces vectoriels de dimensions


finies net p respectivement, et u E L(E, F). A/,ors u et~ ont le même rang.
Espaces vectoriels 219

Car sir= rangu, si {Y1, ... , Yr} est une base de u(E), si on choisit
Xi, ... , Xr dans E tels que u(Xi) = Yi, (i = 1, ... , r), la famille
{X1, ... , Xr} est libre, (si elle était liée, les images par u le seraient).
On complète en {Y1, ... , Yr, Z1, ... , Zp-r} base de F cette famille libre
des }i.
Soit B* = {Yt, ... , Y/, Zî, ... , z;_r} la base duale- de F*, le rang
de 1" est la dimension de l'espace vectoriel engendré par les 1"(Y/)
et les 1t(Zk). Or "tu(Z,1:) = Zk ou= 0 car pour tout X de E,
u(X) E Vect(Yi, ... , Yr) donc a sa coordonnée suivant Zk nulle,
Z'k(u(X)) = coordonnée de u(X) suivant Zk> d'après 6.109. Il reste
rang("tu) = dim(Vect("tu(Yi*), ... ,tu(Y/))), mais ces formes, égales à
Yi* ou, Y2* o u, ... , Y/ ou sont libres car si on a des scalaires >..1, ... , Àr
r
tels que L >..iYi* ou =0, en prenant l'image de Xj on trouve 0, or
i=l
Yi*(u(Xj)) = Yi*(}j) = 0 sauf si i = j, et Yj*(}j) = 1. Il reste Àj = 0,
ceci pour j = 1, ... , r.
Finalement "tu(F*) est bien de dimension r, d'où rang("tu) = r. •

En fait ce théorème reste valable, quelles que soient les dimensions


de E et F, dès que u est de rang fini. On a le :

THÉORÈME 6.112. - Soient E et F deux espaces vectoriels, u E L(E, F).


Sir= rang u = dim u(E) est fini alors "tu est aussi de rang fini, r.

On suppose u de rang finir, soit {Y1, ... , Yr} une base de u(E) et
des vecteurs (Xih~i~r de E tels que u(Xi) = }i. En considérant la
justification du théorème 6.111, on s'aperçoit qu'elle reste valable si Fest
de dimension finie : la dimension de E n'intervenant pas en fait.
Donc on suppose ici F de dimension infinie. On complète la famille
libre {Y1, ... , Yr} en f3 = {Yi, ... , Yr} U (Zj)jEJ• base de F (théorème
de la base incomplète), d'où, dans F*, la famille libre notée .C formée des
formes coordonnées (Yi*h~i~r et (Zj)jEJ qui envoient chacune toute la
base sur 0 sauf un vecteur d'image 1.
Cette famille libre, n'est pas une base de F*, (6.108) car F est de
dimension infinie mais il existe C famille libre de F* telle que .C U C soit
base de F*, là encore théorème de la base incomplète.
L'image "tu(F*) est alors engendrée par les images des vecteurs de
cette base.CU C = (Yi*h~i~r U (Zj)jEJ U C par 1".
On aura "tu(Zj) = 0 car c'est ZJ ou et 't/X E E, u(X) E u(E)
= Vect(Y1, ... , Yr ), donc a des coordonnées nulles suivant les Zj.
220 Algèbre

Mais a priori, si cp E C, il n'y a aucune raison pour que °tu(cp) = O.


Aussi la démonstration consiste à remplacer C par une famille libre C'
formée de cp' tels que °tu(cp') = 0, soit cp' ou= 0, ou cp' nulle sur u(E).
Pour cela, si cp E C, on définit cp' associée par :

r
cp' = cp - L: cp(Yi)Yi*.
i=l

cp' est bien un élément de F*, et sur chaque vecteur Yk, (1 ~ k ~ r) de


r
la base considérée de u(E) on a cp' (Yk) = cp(Yk) - L cp(Yi)Yi* (Yk), avec
i=l
Yi* (Yk) = 0 sauf si i = k, et alors Yk' (Yk) cp' (Yk) = 0 :
= 1, il reste donc
on a bien cp' o u = O.
Si on note C' = {cp' ainsi associés aux cp de C} on a .C U C' base
de F* car tout élément de F* est combinaison linéaire d'un nombre fini
d'éléments de .CU C. Si on remplace les cp de C intervenant par les cp'
associés on garde une combinaison linéaire des mêmes éléments de .C, des
cp' en nombre fini, et en plus de Yi*, ... , Y/ qui sont dans .C; finalement
tout élément de F* est combinaison linéaire d'un nombre fini d'éléments
de .C U C' qui est donc partie génératrice de F*. C'est une famille libre,
(donc une base) car supposons que l'on ait une combinaison linéaire·finie,
nulle des éléments de .C U C'.
En notant C = (cpi)lEL• et en indexant C' par le même ensemble, et
quitte à rajouter à la combinaison linéaire non nulle, 0 fois chaque Yi* n'y
figurant pas, on peut écrire cette combinaison sous la forme

r p q
L YiYi* +L zia z;a +L tib cpzb = o,
i=l a=l b=l

car pour prendre un nombre fini, p, des z;'


on indexe les.indices j par un
indice, ici a, variant de 1 à p. On procède de même pour les 'Pz· ·
r
On remplace chaque cpzb par 'Plb - L 'Plb (Yi) Yi*, il reste
i=l

r q p q
L (Yi - Ltlb'Plb(J'i))Yi* + L ZjaZJa + Ltlb'Plb = 0,
i=l b=l a=l b=l
Espaces vectoriels 221

(c'est affreux, mais il faut savoir s'accrocher, comme le fou à son pinceau).
q
En tout cas, Yi - L tlb 'Plb (Yi) est un scalaire, et là, c'est une combinaison
k=l
linéaire des vecteurs de la base C U C de F* donc les tlb sont nuls, les Zja
T

aussi, il reste L Yi Yi* = 0 donc les Yi aussi sont nuls : on a finalement


i=l .
une base C U C' de F*.
En revenant à la justification du théorème, l'image de~ est engendrée
par
- les ~CYi*h~i~r'
- les ~(Zj) qui sont nuls,
- et les f.u(cp'), 't/cp1 E C',
mais on a construit les cp1 pour avoir O.
Il reste ~(F*) = Vect(~(Yi*h~i~r ), et on termine comme pour le
théorème 6.111 cette famille est libre· car si on a des scalaires À 1 ... Àr
T

tels que 2.: .xi tu(Yi*) = o, en prenant l'image de xk choisi te1 que
i=l
u(Xk) = Yk, on a

0= (~>.~u(Yi*)) (Xk) = ~>.iJli*(u(Xk)) = Àk,


donc Àk nul.
Il en résulte que les (~(Yi*)h~i~r forment une base de ~(F*) donc
~ est bien de rang r. Ouf! •
Il reste une question à aborder.
Si E est de dimension finie, n, son dual E* est aussi de dimension n.
Si E est de dimension infinie, et si Best une base de E, les formes
coordonnées forment une famille libre de E*, pas une base mais ... quelle
est la dimension du dual E* ?
Une base de E* pourrait-elle être équipotente à une de E? La réponse
à cette question passionnante est connue : si E est de dimension infinie,
son dual a une dimension strictement plus grande, ou encore une base de
E* a un cardinal strictement supérieur ou cardinal d'une base de E.
C'est ce qui va être justifié par le théorème suivant :

THÉORÈME 6.113. (d'Erdos Kaplansky) - Soit E un espace vectoriel de


dimension infinie sur un corps K. La dimension de son dual E* est
card(E*).
222 Algèbre

Oui, cela surprend! Cela ne signifie pas que E* est une base de E*, ce
qui serait ridicule, mais qu'une base de E* est équipotente à E*, ce qui ne
l'empêche pas d'avoir «moins d'éléments» au sens intuitif du «moins»
qui dit qu'il y a «moins » d'entiers que de rationnels bien qu'il y en ait
« autant » puisque ces deux ensembles sont équipotents.
On comprend que la justification ne va pas être facile, et s'il y a encore
des lecteurs, qu'ils s'accrochent bien pour se plonger dans les délices des
infinis. A moins que, raisonnablement, ils passent à autre chose.
Comme une base B de E* est contenue dans E*, on a déjà dim(E*) =
cardB ~ card(E*), il suffit donc de justifier l'autre inégalité. On peut
considérer qu'une moitié du travail est faite, la plus petite.
Soit C = (ei)iEI une base de E. Comme une forme linéaire cp est
déterminée par les valeurs prises sur les ei, on a :

LEMME 6.114. -L'espace vectoriel E* est isomorphe à K 1 espace vectoriel


des applications de I dans K.

On définit l'application (} de E* dans K 1 par :


O(cp) est l'application i ....+ cp(ei) de I dans K.
(} linéaire : si cp et 'ljJ sont dans E*, À et µ dans K, 0 (Àcp + µ'lj;) est
l'application de I dans K qui à i associe (Àcp + µ'l/;)(ei) soit

Àcp(ei) + µ'lj;(ei) = À(}(cp)(i) + µO('l/;)(i)


= [À(}(cp) + µ(}('l/J)](i)
ceci étant vrai pour tout i de I c'est que :
O(Àcp + µ'l/;) est bien ÀO(cp) + µ(}('lj;)).
(} injective : si 0( cp) = 0, la forme cp valant 0 sur la base B de E est nulle.
(} surjective : car la donnée d'une application a de I dans K détermine
une forme cp valant a( i) sur ei (Théorème 6. 77). •

Par ailleurs, (ei)iEI étant base de E, les vecteurs de E sont identifiés


aux familles (ai)iEI de scalaires presque tous nuls, on va noter K[I]
l'espace vectoriel des applications de I dans K à valeurs presque toutes
nulles, c'est-à-dire telles que card{ i, ai -:j:. O} est fini. Le fait que K[I] soit
un espace vectoriel, s~us-espace de K 1 en fait, est facile à vérifier.

LEMME 6.115. - Soit I un ensemble, a(l), aC 2), ..., a(k) des applications
distinctes en nombre fini dans K. Alors il existe une partie J de cardinal
Espaces vectoriels 223

fini, J C I, telle que les éléments (a~p))iEJ de KcardJ soient distincts,


(pour p = 1, 2, ... , k).

Digérons d'abord les notations. Une application a de I dans K est ici


notée comme une famille (ai)ieJ, ai étant la valeur prise par la fonction
a en i. C'est la notation utilisée pour les suites que l'on généralise ici.
Comme on considère plusieurs applications, on les indexe par un indice
p variant de 1 à k, et placé en haut à droite, entre parenthèses pour ne
pas confondre avec des puissances.
Enfin si c~d(J) = n est un entier, Kn est un espace vectoriel sur K,
celui des n-uplets, (exemple 6.3).
Soient alors p et q distincts dans {1, 2, ... , k }, les fonctions a(P) et
a(q) étant distinctes, il existe un élément jp,q de I où elles prennent des
valeurs différentes, donc a\P) =f:. a\q) .
Jp,q Jp,q

Si J = LJ {jp,q} est un ensemble formé d'indices


{p,q} paire de {1,2, ... ,k}

ainsi associés aux k(k; 1) sous-ensembles à 2 éléments de { 1, ... , k}

et si n = card J, on a n :::;; k(k 2- l), et les n-uplets (a~p))ieJ pour


p = 1, 2, ... , k sont bien distincts. ·•

LEMME 6.116. - Soit n un entier;;:,: 1, b( 1 ), b( 2 ), ..., b(k) des n-uplets


distincts. Il existe un polynôme P à n indéterminées X 1, ... , Xn sur K,
tel que P(b( 1)) =f:. 0 et P(b(s)) = 0 si 2:::;; s:::;; k.

Rappelons que si
P(X1, ... ,Xn) =· . . xi11 xiz
UJl···Jn 2 ···
xin
n avec les sca-
(ji,jz, ... ,jn)ENn
laires Uji ... jn de K, indexés par 1\1*, presque tous nuls, et si le n-uplet
b(s) de K vaut b(s) = (bis), b~s), ... , b~)) on a
P(b(s)) = L Ujl···in (bis))ji (b~s))iz ... (b~))jn.
ji, ... ,jn
On justifie le lemme par récurrence sur k.
Si k = 2, on a b(l) f- b( 2 ) donc il existe un indice j dans {1, ... , n}
(1) (2) (2) ,
=f:. bj , le polynome P(Xi, ... , Xn) = Xj - bj s annule sur
A

tel que bj
le n-uplet b( 2 ) et pas sur b(l), car P(b( 1)) = b)1) - b}2) =f:. O.
224 Algèbre

Si on suppose le résultat vrai à l'ordre k, soient b( 1), ... , b(k), b(k+l)


des points distincts de Kn, on sait (hypothèse de récurrence) qu'il existe
un polynôme Q en X1, ... ,Xn. tel que Q(b( 1)) -j. 0 et Q(b(s)) = 0
pour s = 2, 3, ... , k. Puis, (cas de k = 2), il existe un polynôme en
X1, ... ,Xn également, R, tel que R(b( 1)) # 0 et R(b(k+l)) =O. Alors
P(X1, ... , Xn) = Q(X1, ... , Xn)R(X1, ... , Xn) est tel que P(b( 1)) =
Q(b( 1))R(b( 1)) -j. 0, et pour s = 2, ... , k, k + 1, P(b(s)) = 0 car soit
Q(b(s)) = 0 soit R(b(s)) =O. •

Avant de continuer, un petit peu de gymnastique mentale.


Soit I un ensemble, S = {Xi, i E I} un ensemble d'indéterminées
indexées par I, donc en bijection avec I.

6.117. On introduit A= K[S] l'ensemble des polynômes ayant S comme


ensemble d'indéterminées.
On a donc P E A ~ 31' partie finie de I tel que P soit un polynôme
par rapport aux indéterminées Xi> i E 11•
Si Q E A est polynôme par rapport aux Xi avec i E J", et card I"
fini, avec I"' = I' U J", de cardinal fini, on a aussi P et Q polynômes par
rapport aux indéterminées Xi, en nombre fini, associées aux ide I"', donc
on peut définir P + Q et PQ avec les règles usuelles, ainsi que >. · P si >.
est un scalaire, si bien qu'avec un peu de réflexion on parvient à concevoir
que A est une algèbre.
Revenons à nos moutons, avec E vectoriel de dimension infinie, C =
(ei)iEI une base de E, S = (Xi)iEI une famille d'indéterminées indexées
par I et A l'algèbre des polynômes aux indéterminées (Xi)iEI·

LEMME 6.118. -Soit a dans KI, une application de I dans K, (on notera
Ôa l'application de A= K[S] dans K
ai la valeur prise par a en i. Soit
définie par Ôa(P) = P(a). La famille (ôa)aEKI est libre dans A*, dual
de A.

Un point pour comprendre, si tant est que cela soit encore possible!
Si Pest un polynôme de K[S], par rapport aux variables Xi 1 , . . . , Xir
en nombre fini, (les ik E J), P(a) désigne la valeur prise par P quand on
remplace les indéterminées xi1' ... ' xir par ai1' ... ' air.
Retour au lemme. Soient a< 1), a< 2 ), ... , a(k) des éléments distincts en
nombre fini de KI, on va prouver que les applications Ôa(P)• p = 1, ... , k,
sont des éléments indépendants de A*.
D'abord ce sont des éléments de A* dual de A car l'application qui
pour a fixé dans KI, associé P(a) au polynôme P variant dans A est
Espaces vectoriels 225

bien linéaire en P, car (>..P + µQ)(a) = >..P(a) + µQ(a) par définition


de la structure vectorielle sur A. De plus c'est à valeurs dans le corps de
base.
k
Si on a des scalaires >..i, ... , >..k tels que L ÀpÔa(P) 0, il faut
p=l
prouver qu'ils sont tous nuls.
Procédons par l'absurde : on les suppose non tous nuls, par exemple
>..1 =f=. O. Le lemme 6.115 nous dit qu'il existe une partie J de I, de cardinal
fini, n, et telle qu'en posant b(P) = (a~p))iEJ• on obtient b( 1), ... ,b(k) qui
sont k éléments distincts de Kn.
D'après le lemme 6.116, il existe alors un polynôme par rapport aux
(Xi)iEJ donc P E A vu la définition de A, tel que P(b( 1)) =f=. 0 et
P(b(s)) = 0 pour s = 2, 3, ... , k. Mais il est clair que l'on a P(b(s)) =
P(a(s)) = Ôa(s) (P), d'où Ôa(l) (P) =f=. 0 et Ôa(s) (P) = 0, pour s = 2, ... , k.
(Dans P(b(s)), Pest considéré comme un polynôme en n variables, et
on le calcule en b(s) qui est un n-uplet, alors que dans P(a) on considère
Pen tant qu'élément de A.)
On a donc

avec >..1 =f=. 0 : c'est absurde.



Il nous reste un dernier lemme à justifier, avant de passer au théorème
d'Erdos Kaplansky.

LEMME 6.119. - Soit E un espace vectoriel de dimension infinie, C


(ei)iEI une base de E et S = (Xi)iEJ une famille d'indéterminées indexée
par I. Afors E est isomorphe à l'espace vectoriel A= K[S] des polynômes
par rapport aux indéterminées (Xi)iEI·

En effet M = {monômes unitaires par rapport aux Xi} = {1} U


{Xfi1 . . . xf:; {ii, ... , ik} partie finie de I; pi, ... ,pk dans N*} est une
base de A car un polynôme est combinaison linéaire de monômes, et une
combinaison linéaire de monômes est identiquement nulle si et seulement
si chaque coefficient est nul.
Il existe une injection de I dans M : tout simplement i .,.. Xi donc
cardM ~ cardl.
226 Algèbre

En ne considérant que M', l'ensemble des monômes autres que 1, de


tels monômes sont caractérisés par la donnée de la partie {i 1, ... , i k} des
indices des variables, partie finie non vide de J, et des valeurs pi, ... ,pk
dans N*. De plus, M est de cardinal infini, comme I, donc M' aussi
puisque M' U {1} = M, et card(M') = card(M).
Soit J = {i 1, ... , i k} une partie finie de k éléments de I. Les
applications de J dans N* sont les éléments de N* x N* x . . . x N*,
(k fois), le cardinal de cet ensemble est (card N)k = card N, (proposition
3.52), il existe donc une bijection (J J de l'ensemble des applications de J
dans N* sur l'ensemble N.
On considère alors l'ensemble :F des sous-familles finies (i1, ... , ik)
de J. L'application (J qui au monôme Xfi 1 , . . . , Xfkk associe le couple

avec J = (i1, ... , ik) et fJJ(p1, ... ,Pk) le nombre entier associé par fJJ à
l'application i1 ~ p1; ... ; ik ~ Pk est une bijection de M' sur :F x N, vu
la caractérisation des monômes.
Or le cardinal de l'ensemble :F des parties finies de I, de cardinal
infini, est encore card(J). On a vu dans la justification du théorème
6.74, que si Ak est l'ensemble des parties de k éléments de J, on a
cardAk = cardJ, d'où une bijection <pk de Ak sur I d'où une, <p, de
:F sur N* x I, celle qui à la partie finie non vide J = {i1, ... , ik}
va associer le couple (k,<pk(J)). Donc :F et N* x I sont équipotents,
card(:F) = card(N*) x card(J) = card(J) d'après la proposition 3.52,
card(N*) étant le plus petit cardinal infini.
On a finalement card(M') = card(:F) x card(N) = card(J), et A et
E ont bien des bases équipotentes : ils sont isomorphes. •
Si u est un isomorphisme de E sur A, 1U en est un de A* sur
E* (théorème 6.107) qui sont donc isomorphes : E* et A* ont même
dimension, infinie.
Mais la famille ( (Ôa)aEKI) est libre dans A*, (lemme 6.118), donc
dimE* = dimA* ~ card((ôa)aEKI) = card(K1 ) et K 1 étant isomorphe
à E*, (lemme 6.114), ces 2 ensembles sont équipotents d'où l'inégalité
dim(E*) ~ card(E*) voulue, ce qui achève la justification du théorème
d'Erdos Kaplansky. On a bien, pour E de dimension infinie, E* de
dimension card(E*) aussi bizarre que cela paraisse. •

COROLLAIRE 6.120. - Pour E, vectoriel de dimension infinie, E et E* ne


sont jamais isomorphes.

En effet, E* a ses bases de cardinal, celui de E*, donc encore de


cardinal celui de K 1 . Or K admet au moins 2 éléments, 0 et 1 les éléments
Espaces vectoriels 227

neutres des 2 lois, donc {O, 1}1 , ensemble des applications de I dans {O, 1}
s'injecte canoniquement dans K 1 , ensemble des applications de I dans K,
ce qui donne card(K1 ) ~ card( {O, 1}1 ).
Or on aurait pu établir, dans le chapitre sur les cardinaux, le théorème
suivant:

THÉORÈME 6.121. - Pour tout ensemble Ion a card{O, 1} 1 = 2cardJ >


card J, que nous justifierons ensuite. Si on l'applique ici, on obtient
finalement dim(E*) = card(K 1 ) ~ 2card(J) > card(J) = dim(E) : E et
E* ne sont pas isomorphes puisque leurs bases ne sont pas équipotentes .

Retour au théorème 6.121. Par convention, 2° = 1, c'est bien> O.
Si I -:f 0, il existe une injection de I dans {O, 1}1 , celle qui à ide I
associe l'application Xi définie par Xi(i) = 1 et, \:/j -:fi, j E J, Xi(j) =O.
Donc card(J) ~ card({O, 1} 1 ).
Il n'y a pas de bijection cp de I sur {O, 1} 1 car si cp en est une, on
définit f de I dans {O, 1} comme suit.
Pour i E J, soit cp(i) l'application de I dans {O, 1} associée à i.
Si cp(i) envoie i sur 1 on pose f(i) = 0,
si cp(i) envoie i sur 0 on pose J(i) = 1.
L'application f de I dans {O, 1} ainsi définie n'est jamais image par
cp d'un élément de I car si on suppose l'existence de io dans I tel que
cp(io) = f, la valeur prise par f en io est forcément différente de celle
prise par l'application cp(io) en io.
Donc l'inégalité card (J) ~ card ({0, 1} 1 ) est stricte ce qui justifie le
théorème. •

EXERCICES

1. Soit E et F deux K espaces vectoriels de dimension finie, f E


L(E, F), E' (resp. F') un sous-espace vectoriel de E (resp. de F)
supplémentaire de Ker f (resp. lm !) . Montrer qu'il existe un unique
g dans L(F,E) tel que Kerg = F', Img = E', f o go f = f et
g 0 f 0 g = g.
228 Algèbre

2. Soit E un espace vectoriel réel, p et q deux projecteurs de E tels


que Imp C Kerq et soit r = p + q - p o q. Montrer que r est un
projecteur. Trouver son image et son noyau.

3. a) Soit E un espace vectoriel de dimension n, deux endomorphismes


f et g de E tels que f + g = id E et rg(f) + rg(g) ~ n. Montrer que
f et g sont des projecteurs.
b) Si fi, ... , f P• (p ~ 2) sont des endomorphismes de E tels que
p
fi+ ... + fp = idE et L rang(fi) ~ n, montrer que les fi sont des
i=l
p
projecteurs, que pour i =fa j on a fi o fj = 0 et que E = œ fi.
i=l
lm

4. Soit n EN*, (f,g) E (L(Cn)) 2 avec f o g = 0 et f + g E GLn(C).


Montrer que rg(f) + rg(g) = n.

5. Soit-E =!Rn, a E Sn. On note Tu l'application de E dans E définie


par Tu( (x1, ... , Xn)) = (xu(l), · · ·, Xu(n))·
Montrer que Ta E GL(E). Trouver les sous-espaces vectoriels F de
E tels que, pour tout a E Sn. Tu(F) C F.

· 6. Montrer que la famille d'applications de IR 2 dans IR définies par


h,µ(x, y) = exp(Àx +µy), (.X,µ) E IR 2 est libre.

7. Soit E un C espace vectoriel de dimension finie, u et v des endo-


morphismes de E tels que uv -vu= kv, k =fa O.
Montrer que v est nilpotent.

8. Soit x1 < x2 < . . . < Xn des réels. On pose xo = -oo et


Xn+l = +oo. On note E l'ensemble des fonctions de IR dans R de
classe C 1 dont la restriction à chaque ]Xi, Xi+l [est un polynôme de
degré 2 au plus. Montrer que E est un espace vectoriel.
En donner la dimension et une base.

9. Soit f E L(E) tel qu'il existe un seul g de L(E) vérifiant f og = idE.


Montrer que f est un automorphisme de E.

10. Soient pet q deux projecteurs du K espace vectoriel E. Condition


sur pet q pour que p+q soit projecteur. Caractériser alors son noyau
et son image.
Espaces vectoriels 229

11. Soit E et F deux espaces vectoriels, f E L(E, F) et g E L(E, F)


tels que rg g ~ rg f < +oo. Montrer que :

(3k E GL(E)) (3h E L(F)), go k =ho f.

SOLUTIONS

1. Comme Ker f ffi E' = E, f induit un isomorphisme de E' sur f(E). Soit
J' cet isomorphisme.
Si g existe, la condition Ker g = F' et l'égalité lm f ffi F' = F montre que
g induit un isomorphisme g1 de lm f sur lm g = E'.
De plus, 'Vx E lm/, l'égalité g(fg(x)) = g(x), avec g injective sur lm/,
implique f o g(x) = x sur lm/, soit comme g(x) E lmg = E' où!' est
bijective: g(x) = /- 1 (x) sur lm/.
Comme sur Kerg = F', on aura g(x) = 0, on a déterminé des conditions
devant être vérifiées par g sur 2 sous-espaces supplémentaires dans F d'où
l'unicité de g solution éventuelle.
On définit donc g par g(x) = 0 sur F', g = (f')- 1 sur lm/, d'où g connue
par linéarité sur F = lm f ffi F'.
On a bien Kerg = F', lmg = E'.
1
Puis, 'VxElmf, gofog(x)=gof I of- 1 (x)=g(x)et
'VxEF1 , gofog(x)=g(O)=g(x), doncgofog=g;
et 'Vx E Ker f, f o go f(x) = 0 = f(x),
'Vx E E', f o go f(x) = J(f'- 1 o J'(x)) = f(x)
donc f o g o f = f.

2. On a r 2 = (p + q - pq) o (p + q - pq) se développe en remarquant que


qp = 0 (puisque lmp C Kerq) d'où, comme p2 =pet q2 = q

r2 = p + pq - pq + q - pq ::;:: p + q - pq =r: on a un projecteur.


Six E Kerr, p(x) + q(x) - pq(x) = 0 soit q(x) = p(q(x) - x) est un
élément de lmp n lmq c Kerq n lmq = {O}, (q projecteur) d'où q(x) = 0
et aussi p(x) = 0 =>Kerr C Kerp n Kerq.
L'inclusion réciproque étant évidente on a Ker r = Ker p n Ker q.
Six E lm r, r(x) = x = p(x) + q(x) - pq(x), soit
x - p(x) = (idE - p)(x) = (idE - p)(q(x)).
Mais idE - p est le projecteur d'image Kerp, de noyau lmp, d'où comme
(idE - p)(x - q(x)) = 0, on a x - q(x) E lmp => x E lmp + lmq.
230 Algèbre

Six E lmp, r(x) = p(x) + q(x) - pq(x) avec q(x) = 0 d'où r(x) = x :
x E lmr;
six E lmq, r(x) = p(x) +x-p(x) = x, (puisque q(x) = x) d'où x E lm r.
On en déduit lmp + lmq C ~r et l'égalité lmp EEl lmq =lm r. La somme
est directe car lmp n lmq c Kerq n lmq = {O}.

3. a) On a, Vx E E, f(x) + g(x) = x => E = f(E) + g(E).


Six E Ker f, il reste g(x) = x d'où Ker f C g(E) et de même
Kerg C f(E). On a:
(!) n = dimE = dim(F(E) + g(E))
= dimf(E) + dimg(E) -dimf(E) n g(E) ~ rg(f) + rg(g)
d'où en fait n = rg f + rgg. Mais alors Ker f est sous-espace de dimension
n - rg(f) = rg(g) de g(E), on est en dimension finie d'où Ker f = g(E) et
Ker g = f (E) pour la même raison.
La relation <D implique f(E) n g(E) = {O} d'où E = f(E) EEl g(E). Si
x E f(E) = Ker~, l'égalité x = f(x) + g(x) donne x = f(x), d'où f
est l'identité sur flE), nulle sur g(E) = Ker f => f est la projection sur
f(E) parallèlement à g(E), (et de même g projection sur g(E) parallèlement
à f(E). Enfin f o g =go f =O.
b) On généralise sans difficulté: idE = fi + ... + fp => E = L fi(E);
i
comme n=dim(L fi(E)) ~ L rg(li) ~ n, il y a égalité n= L rg(fi)
et aussi E = œ i
i i
li(E). (La réunion de bases des li(E) étant une famille
i

den vecteurs, génératrice de E, est base de Epar exemple).


p
Pour relier au a) soit i fixé et 9i = L fk.
k=l
k#i

œ
p
On a 9i(E) Ç fk(E) => rg(gi) ~ n - rg(!i).
k=l
k#i
On a donc li + 9i = id E et rg li + rg 9i ~ n => fi est projecteur sur li (E)
parallèlement à 9i ( E).
p
De plus dimgi(E) = n - dimli(E) = dimEf) fk(E)
k=l
k#i
p
donc 9i(E) = Ef) fk(E).
k#i
k=l
Mais alors si j "# i, f3(x) E 9i(E) => li(f3(x)) = 0 d'où les relations
li 0 fj =o.
Espaces vectoriels 231

4. Comme f o g = 0, on a lm$ C Ker f donc rg(g) ~ n - rg(f). Puis, comme


(f + g)(E) C f(E) + gtE), on a, avec f + g bijective, en prenant les
dimensions: n ~ dimf(E) +dimg(E)-dim(f(E) ng(E)) d'où a fortiori
n ~ rgf + rgg et finalement n = rgf + rgg.

5. Il est clair que Ta agit linéairement sur les vecteurs de E, donc Ta est dans
le demi-groupe L(E), (pour le produit de composition).
Pouru et u' dans le groupe Sn on a Taoa' =Ta' o Ta, car on a

Tc;1(Ta(x1, ... ,xn)) = Ta1(yi, ... ,yn) = (Ya'(l)> ... Ya'(n)) avec
1

(yi, ... , Yn) = Ta(xi, ... , Xn) = (Xc;(l)i ... , Xa(n) d'où
Yi = Xa(i) ~ Ya 1(i) = Xaoa 1(i))·

Par transport de structure, l'ensemble des Ta est un groupe dans L(E) donc
dans GL(E). (En fait Taoa-1 = idE = Ta-1 o Ta d'où Ta bijectif).
Les transpositions engendrent Sn, donc F sous-espace stable par tout Ta si
et seulement si il l'est pour les Ta associés aux transpositions.
Soit T;,,j la transposition des entiers i et j et Ti,j l'automorphisme associé.
Soit B = (e1, ... , en) la base canonique de Rn.
On a Ti,j(ei) = ej, Tij(ej) = ei et \:/k =/= i, =/= j, Tij(ek) = ek. Donc
Tij (ei + ej) = ei + ei et Tij (ei - ei) = ei - ei : Tij est diagonalisable
avec
-1 valeur propre simple, et sous-espace propre associé R (ei - ei)
1 valeur propre d'ordre n - 1, et sous-espace propre associé Vect( (ei + ej),
ek, k =/= 1, k =/= j).
Si Fest un sous-espace stable par chaque Ta, donc par chaque Tij• chaque
Tij induit sur F un endomorphisme diagonalisable, de valeurs propres
possibles 1 et -1 et si -1 est valeur propre, c'est que ei - ej E F pour
au moins un couple (i, j) avec i =/= j.
1er cas Il existe un couple (i,j), i =/= j tel que ei - ej E F, alors pour tout
k =/= {i,j}, Tj,k(ei - ej) = ei - ek E F.
Les n - 1 vecteurs ei - er, r =/= i engendrent l'hyperplan H d'équation
x1 + ... + Xn = 0, on a H C F d'où en fait F = E ou F = H qui est bien
stable, car Xa(l) + ... + Xa(n) = O.

2e cas F ne contient aucun ei - ej. Avec F stable pour tout Ta, c'est que F
est sous-espace de chaque hyperplan Hij = Vect(ei + ej, ek, k =/= i, k =/= j).
En munissant Rn de sa structure euclidienne canonique, on constate que
Hij = ( ei - ej ).1, c'est l'hyperplan d'équation Xi - Xj = O.
Donc dans ce cas les x = (x1, ... , Xn) de F sont tels que Vi =/= j, Xi = Xj :
on a F C Vect(l, 1, ... , 1). Cette droite vectorielle est bien stable par Ta
d'où dans ce cas F = Vect(l, ... , 1), ou F = {O}.

6. On sait que les fonctions (c,oÀhER avec c,oÀ(t) = eÀt sont libres.
232 Algèbre

n
Par exemple, écrire une combinaison linéaire L Ol.ke>.kt = 0, avec les Àk
k=l
distincts, multiplier par e ->.kot si Àko = sup{ >.k, k = 1, ... , n} et faire
tendre t vers +oo : on en déduit Ol.ko = 0, et on itère.
n
Soit une combinaison L Ol.kÎ>.k,µk = 0, avec les couples (>.k, µk) distincts.
k=l
Il existe alors b réel tel que les réels Àk + µkb soient 2 à 2 distincts, car les
conditions du type >.k + bµk = Àj + bµj sont en nombre fini, elles s'écrivent
b(µk - µj) = Àj - Àk et si µj =/:- µk : on a une seule solution en b, alors
que si µj = µk, les couples étant distincts on a Àj =/:- Àk et aucune solution
en b. Finalement sauf pour un nombre fini de réels b, on a
Àk + µkb =/:- Àj + µjb, pout tout j =/:- k.
n n
Avecuntelchoixdeb, LOl.kÎ>.k,µk(x,bx) =Oconduità LOl.ke(>.k+bµk)x
=0, avec des Àk + bµk 2 à 2 distincts d'où les Ol.k nuls.
k=l k=l

7. Avoir v nilpotent, c'est avoir une puissance de v nulle, d'où l'idée de


considérer, par récurrence uvn - vnu.
On multiplie uv - vu = kv à gauche et à droite par v et on ajoute
~ uv 2 - vuv + vuv - v 2 u = uv 2 - v 2 u = 2kv 2 . Si on suppose que
uvn - vnu = nkvn, alors

uvn+l - vn+lu = uv · vn - vn+lu =(vu+ kv)vn - vn+lu


= v(uvn) + kvn+l - vn+lu
= v(vnu + nkvn) + kvn+l - vn+lu
= (n+ l)kvn+l.
On a donc uvn - vnu = knvn, pour tout n ~ 1.
Si pour tout n, vn =/:- 0, l'application 9 : C(E) f-> C(E) définie par:
w ~ 9(w) = uw - wu
est linéaire et admet une infinité de valeurs propres, (les kn) pour les
vecteurs propres vn. Absurde, (dimension finie) donc v est nilpotent.
On peut aussi prendre la norme de knvn, norme d'application linéaire
continue et constater que, pour tout n on a

Si donc v n'est pas nilpotent chaque lllvnlll est=/:- 0 et on aurait nlkl :i::;;
2JllulJI pour tout n EN* : absurde.
8. La fonction nulle est dans E, (non vide), et si f et g sont dans E, V(>.,µ)
de R2 ' >.f + µg est de classe C 1 et sa restriction à chaque ]xi, Xi+l [ est
Espaces vectoriels 233

polynômiale de degré 2 au plus, comme f et g, d'où E sous-espace vectoriel


deC 1 (R,R).
Détermination de f : sur] - oo,x1[ : f(x) est du type ax 2 + bx + c,
(3 coefficients), sur ]x1,x2[, f(x) est du type aix 2 + bix + c1 et la classe
C 1 exige les égalités
(a - ai)x~ + (b - bi)x1 + c - c1 = 0,
2(a - ai)x1 + b - bi =O.

C'est un système de 2 équations à 3 inconnues, (a - ai, b - bi, c - c1),

homogène de rang 2, (matrice ( :J 1 xl 5) avec 1xl 51 = -1).


Les solutions forment un espace vectoriel de dimension 1. On se donne par
exemple ai, et bi et c1 deviennent fonctions linéaires de a, b, c, ai.
On fait de même en chaque Xi, d'où un paramètre indépendant de plus et
dimE=n+3.
Soit fi définie par fi(x) = (x - Xi) 2 sur] - oo,xi[, 0 sur [xi,+oo[. Les
fonctions 1, x, x 2 , fi, /2, ... , fn sont indépendantes, (à vérifier) dans E, en
nombre n + 3: on a une base de E.

9. L'existence de g tel que f o g = idE implique g injective et f surjective. Si


dim E est finie, f surjective linéaire de E dans E est un automorphisme.
Si dim E infinie, on va montrer que si f est non injective il existe g =J: g
avec f o g = idE. On suppose donc Ker =J: {O}. Soit u non nul dans
Ker f, B = (ei)ieJ une base de E. On fixe io dans I, on définit g par
g(ei0 ) = g(ei 0 ) + u et, '<li =J: io, g(ei) = g(ei)· Comme f(u) = 0, il est
clair que f o g = f o g sur la base B donc f o g = idE. Oru =J: 0 => g =J: g.
C'est absurde. Donc f injective, on a un automorphisme.

10. L'opérateur p + q sera un projecteur si et seulement si (p + q) 2 = p + q soit,


compte tenu de p 2 = p et q2 = q, si et seulement si p o q + q op = O.
Mais ceci implique pop o q + p o q op = 0 soit p o q + p o q op = 0 et
aussi p o q op + q o p 2 = 0 soit p o q op + q op = 0, d'où par soustraction
p o q - q o p = 0, et finalement p o q = q o p = 0, (ce qui implique bien
p o q + q op = 0). On a donc aussi (p + q projecteur) {::::=> (pq = qp = 0).
Soit alors x E Ker(p+q), p(x) = -q(x), d'où l'on tirep2 (x) = -pq(x) = 0
soit encore p(x) = 0, donc aussi q(x) = 0 et Ker(p + q) C Ker p n Ker q.
Comme l'autre inclusion est évidente on a Ker(p + q) = Kerp n Kerq.
Par ailleurs, si y E Im(p + q), il existe x E Etel que y= p(x) + q(x) donc
y E lmp+lmq.
Or si z E Imp n Imq, on a p(z) = z et q(z) = z, comme pq = 0 on a
pq(z) = z = 0 donc lmp et lmq sont en somme directe.
Soit alors y = u + v E p(E) EB q(E). On a p(u) = u et q(v) = v mais
aussi p(v) = 0 et q(u) = 0 car pq = 0 implique q(E) C Kerp, (et de même
qp = 0 => p(E) C Kerq).
Donc (p+q)(y) = (p+q)(u) +(p+q)(v) = u+v =y, donc y E Im(p+q)
d'où Im(p + q) = p(E) E9 q(E).
234 Algèbre

ll. Posonsp = rang(g), q =rang(!). Pourtoutx de Ker f, onaurag(k(x)) =Ü


donc k, bijective, doit envoyer Ker f dans Ker g.
Soient A et B des supplémentaires de Ker f et Ker g, donc E = A EB Ker f
et E = B EB Kerg. On a E/Ker f ~ f(E) et aussi E/Ker f ~ A d'où
dim A = rang(!) = q et dim B = p.
Soit H = Vect(u1, u2, ... , ~q-p) un sous-espace de dimension q - p de
Ker g, et K tel que Ker g = lt EB K.
Soit { e1, ... , ep, ep+li ... , eq} une base de A et {éi, ... , ép} une base de
B. La restriction de f à A, supplémentaire de Ker f, est injective donc
{f(e1), ... , f(ep); f(ep+li ... , f(eq)} est une famille libre de F, et c'est
une base de J(E) qui est de dimension q.
On définit h: F 1-+ F par h(j(ei)) = g(éi) si i ~ p
h(j(ej)) = 0 pour p + 1 ~ j ~ q,
et h = 0 par exemple sur un supplémentaire de f (E) dans F.
Puis on définit k : E 1-+ Epar k(ei) = éi si i ~ p, k(ej) = Uj-p pour
p + 1 ~ j ~ q; puis, avec E = B EB Ker g = (B EB H) EB K = A EB Ker f,
comme B EB H et A sont de dimension q, K et Ker f sont isomorphes : il
existe un isomorphisme (} de Ker f sur K. On a déjà défini k sur { e i, ... , eq}
base de A, on définit k par k(x) = 8(x) pour tout x de Ker f, d'où k défini
sur E = A EB Ker f, bijectivement.
De plus

'Vi = 1, ... ,p, (go k)(ei) = g(éi) = h(j(ei));


'Vj = p + 1, ... , q, (go k)(ej) = g(uj-p) = 0 =(ho f)(ej);

enfin, 'Vx E Ker f, g(k(x)) = g(8(x)) = 0 car 8(x) E K et K C Kerg.


Comme alors (ho f)(x) = h(O) = 0, c'est gagné.
CHAPITRE 7

Les polynômes : construction de C

La structure de l'ensemble des polynômes sur un corps K est une


structure très riche, (combien d'œufs au kilo?), par ses lois qui en font
une algèbre, mais aussi parce que l'anneau des polynômes sera euclidien,
parce qu'on fera intervenir les notions de racines, de factorisation ... Enfin,
si K est un corps valué la topologie s'en mèlera; si K = IR, les signes
interviendront, Stone Weierstrass viendra à la rescousse ce qui permettra
à Bessel de transformer son inégalité en égalité par exemple.
Autant dire qu'il y a du pain sur la planche!

1. Polynômes sur un corps K commutatif

DÉFINITION 7.1. - Soit un corps commutatif K. On appelle polynôme sur


K toute suite finie (Un)nEN d'éléments de K, finie c'est-à-dire telle que
{n, Un #- 0} soit finie. ·

Soit A = (an)nEN un polynôme sur K. L'ensemble des n, entiers


naturels tels que an soit non nul, étant fini on a deux cas. Soit cet ensemble
est vide, A est donc la suite nulle, notée 0, soit cet ensemble est non vide
fini dans N donc il admet un plus grand élément (corollaire 3.45), no,
appelé degré de A, et noté d0 A.

DÉFINITION 7.2. - Soit A = (an)nEN un polynôme non nul sur K. On


appelle degré du polynôme A le plus grand entier n tel que an #- 0, et
valuation de A le plus petit entier n tel que an #- O.

Donc si A non nul est un polynôme de valuation p et de degré q on


a : p ~ q et 'ïln < p, an = 0 ainsi que 'ïln > q, an = O. On peut encore
représenter A sous la forme A= (0, ... , 0, ap, ap+I, ... , aq, 0, 0, ... ) avec
ap et aq #-O.
236 Algèbre

Addition de 2 polynômes, produit par un scalaire


K étant un espace vectoriel sur lui-même, l'ensemble KN des applica-
tions de N dans K, c'est-à-dire des suites d'éléments de K est lui-même
espace vectoriel pour les 2 lois :

A +B =C avec, '<ln, Cn = an + bn,


>.·A= C avec, '<ln, Cn =>.an,
A, B, C étant les suites de termes généraux respectifs an, bn, Cn, et >.
étant un scalaire dans K, (exemple 6.5).
Il est licite de se demander si l'ensemble des polynômes n'est pas sous-
espace vectoriel de KN.
Or si A et B sont des polynômes et si '<ln > n A on a an = 0, ainsi
que bn = 0, '<ln > ns, (A et B sont des suites finies), il est clair que
'<ln> nA, >.·an= 0 donc >.A est un polynôme, et que '<ln> sup(nA, ns),
an + bn = 0 donc A + B est un polynôme. On a donc :
THÉORÈME 7.3. -L'ensemble noté K[X] des polynômes sur un corps K est
un espace vectoriel pour les lois :
A+ B = C avec '<ln E N, Cn = an + bn.
À · A = C avec '<ln ~ N, Cn = Àan. •

La notation K[X] est pour l'instant mystérieuse, mais elle va s'éclair-


cir par l'introduction de la deuxième loi sur K[X].

Produit de deux polynômes

DÉFINITION 7.4. -Soit A= (an)nEN et B = (bn)nEN deux polynômes sur


le corps K. On appelle polynôme produit C = AB, le polynôme de terme
général Cn = aobn + aibn-1 + a2bn-2 + ... + anbo.
n
Ou encore Cn = L apbn-p·
p=O

Cette définition a un sens parce que la suite (Cn)nEN est finie lorsque
les 2 suites A et B le sont.
En effet, il existe nA et ns entiers tels que '<ln > nA, an = 0 et
'<ln> ns, bn =o.
n
Soit alors n > nA + ns. Dans Cn = L akbn-k• dès que k > nA,
k=O
ak = 0 ::::} akbn-k = O; et si k ~ nA, n - k > (nA + ns) - k soit
Les polynômes : construction de C 237

n - k > nB + (nA - k) ~ nB, donc bn-k = 0 ::::} akbn-k O; et


finalement '<:/n > nA + nB, Cn = 0: on a bien un polynôme.

REMARQUE 7.5. - Si A et B sont deux polynômes non nuls, ils ont des
degrés dA et dB, et le produit C = AB est non nul de degré de = dA +dB.

Car avec adA =fa 0 et bd8 =/: 0, on a cdA+d8 = adA bd 8 =fa 0 dans le
corps K, et, '<:/n > dA + dB, Cn = 0 vu le calcul précédent. •

De même on vérifierait que la valuation de AB est la somme des


valuations de A et B.

7.6. Une convention.: le polynôme nul est dit de degré -oo et de


valuation +oo.
C'est choquant, puisque dans ce cas la valuation est supérieure au
degré. Mais ceci permet de donner un sens aux formules

d0 (A+B) ~ Max(d 0 A,d0 B),


valuation(A + B) ~ Min(val(A), val(B)),

même lorsque A = - B.

7. 7. On vérifie facilement que l'ensemble K[X] pour l'addition et le produit


des polynômes est un anneau, commutatif, (K l'étant), unitaire, intègre.
Par exemple, l'associativité A(BC) = (AB)C du produit de po-
lynômes vient de ce que le terme général de A(BC) est dn avec

n n-i
dn = :L: ai ( :L: bkert-i-k)
i=O k=O
n n-i
= :L: :L: ai(bkCn-i-k)·
i=O k=O

Dans le corps K, ai(bkCn-i-k) = (aibk)Cn-i-k·


D'autre part, on peut sommer en factorisant les Cj. Pour cela on peut
remarquer que j = n -. i - k varie en fait de 0, (si k = n - i), à n - i qui
lui-même varie de 0 à n. Finalement j varie de 0 à n.
238 Algèbre

Pour n - i - k = j fixé, on ai+ k = n - j, c'est donc que i varie de 0


à n - j et que k = n - j - i. On a donc
n n-j
dn = L (L aib(n-j)-i) Cj : terme de d0 n de (AB)C.
j=O i=O

On justifierait facilement la distributivité ... Le polynôme constant, 1, est


élément neutre pour le produit. Enfin l'anneau est intègre car on a vu que
si A et B sont des polynômes non nuls, AB est aussi non nul, (7.5). On
a:

THÉORÈME 7.8. -L'ensemble K[X] des polynômes sur le corps commutatif


K est un anneau commutatif, unitaire intègre, pour la somme et le produit
de polynômes, donc une algèbre commutative unitaire si on adjoint le
produit par un scalaire. •

Et la notation K[X] dans tout cela? J'y viens!


Soit A = (an)nEN un polynôme et nA tel que 'Vn > nA, an = O.
Si on note an le polynôme dont tous les coefficients sont nuls et dont le
coefficient d'indice n vaut an, ce qui ne lui interdit pas d'être nul, on a
nA
A= L ap, (facile à vérifier).
p=O
Or ap = (0, ... , 0, ap, 0, ... ) = ap(O, ... , 1, 0, ... , 0), (seul le terme
d'indice p peut être non nul).
Notons alors X le polynôme P = (0, 1, 0, 0, ... ), donc la suite finie
où tous les coefficients sont nuls sauf celui d'indice 1, Pl = 1. Le terme
général de X 2 est Cn = L PiPj. Or seul Pl est f= 0 donc seul le produit
i+j=n
PIPI est f= 0, d'où c2 = PIPI = 1 et 'Vn f= 2, Cn = 0.
On a X 2 = (0, 0, 1, 0, ... , 0, ... ) et on vérifie par récurrence (laissée
au lecteur), que 'Vn E N*, xn = (0, 0, ... , 0, 1, 0, ... ), 1 étant au rang
n+ 1.
Si, par convention, on note X 0 = (1, 0, 0, ... ) le polynôme élément
neutre pour le produit dans K[X], on obtient :finalement
nA
A= (an)= I:apXP,
p=O

et on retrouve la notation polynômiale connue depuis longtemps. Simple-


ment, quand on introduit cette notation en parlant de l'inconnue x variant
Les polynômes : construction de C 239

dans K, la notion de polynôme est en fait celle de fonction polynôme :


nA
x ~ L apxP, de K dans K attachée à la suite finie des coefficients,
p=O
alors qu'ici X n'est pas une indéterminée, ni une inconnue, mais un po-
lynôme particulier.
On retrouvera par la suite la notion de fonction polynôme associée à
un polynôme, et on verra que la nature du corps intervient alors.

d0 A
7.9. On notera désormais A = L anxn ou A = L anxn un polynôme
nEN n=O
avec les conventions suivantes :
1) dans la somme indexée par N, les an sont presque tous nuls,
2) dans la deuxième écriture qui n'a pas de sens si A = 0 car
d0 A = -oo et n ne peut pas croître de 0 à d0 A, on convient que
l'expression est alors nulle.

THÉORÈME 7.10. - L'espace vectoriel K[X] est de dimension dénombrable


sur K, la famille des monômes (Xn)nEN en formant une base.

L'aspect générateur de cette famille a été justifié en 7.9.


Cette famille est libre: si pour des entiers distincts, donc que l'on peut
k
ordonner, ni < n2 < ... < nk on a une combinaison linéaire L >.iXni
i=i
nulle, c'est que la suite finie associée est nulle or son terme d'indice ni + 1
est .Ài d'où chaque .Ài nul. •

THÉORÈME 7.11. - Toute famille (Pn)nEN de polynômes de degrés éche-


lonnés est une base de K[X].

Degrés échelonnés signifie que, pour tout n E N, Pn est de degré n.


En particulier aucun Pn n'est nul.
D'abord une telle famille est libre : soient ni, ... ,nk des indices
distincts, supposés ordonnés en croissant, et (>.ih~i~k des scalaires tels
k
que L ÀiPni = O.
i=i
Comme ni < n2 < . . . < nk> le coefficient de xnk vient de
>.kPnk et vaut .>.k·(coefficient de xnk dans Pnk). Le produit est nul,
240 Algèbre

k
(L ÀiPni = 0), avec le coefficient en question =/:- 0, (Pnk de degré nk)
i=l
donc Àk =O. De proche en proche chaque Ài =O.
La famille est gJnératrice.
Soit P un polynôme non nul. Il a un degré n.
Notons Kn[X] = Vect(l,X,X 2 , ... ,Xn) le sous-espace vectoriel
des polynômes de degré ~ n (tiens, heureusement que d 0 0 = -oo),
P E Kn[X] espace vectoriel de dimension n + 1 puisque la partie libre
{ 1, X, ... , xn} de cardinal n + 1, est aussi génératrice, donc en est une
base.
Mais alors (Po, P1, ... , Pn) partie libre (début de la justification)
dans Kn[X] de dimension n + 1 en est aussi une base (corollaire 6.67)
et P E Vect( Po, P1, ... , Pn) : c'est une combinaison linéaire finie des
(.l'i)iEN· La famille (Pi)iEN est bien génératrice de K[X]. •

REMARQUE 7.12. - Soit dans K, n éléments distincts, ai, ... , an. Alors
il existe une famille de n polynômes, chacun de degré n - 1 s'annulant
pour n - 1 des aj, valant 1 pour le ak restant. Ce sont les polynômes
interpolateurs de Lagrange.

n
Considérons les polynômes Qk = II (X-ai)· Chaque Qk est de degré
i=l
i"'k
n - 1, (produit den - 1 polynômes de degré 1), et 'efi =/:- k, Qk(ai) =O.
n
Soit une combinaison linéaire L ÀkQk =O.
k=l
La valeur prise par cette combinaison linéaire en chaque ak est donc
nulle. On va en déduire la nullité des Àk, mais avant, une précision.
d0 P
On appelle valeur prise par le polynôme P(X) = L UnXn, en
n=O
d0 P
a E K, le scalaire P(a) = L
Unan. Il est bien clair que si les Un sont
n=O
tous nuls, P(a) = 0, la réciproque n'étant pas forcément vraie, lorsque le
corps K est quelconque. Par exemple si K = l/pl, p premier, le théorème
de Fermat nous dit que xP - x = 0 pour tout x E K, donc le polynôme
XP - X, non nul, est associé à une fonction polynôme nulle d'où l'intérêt
de dissocier les notions de polynôme et de fonction polynôme.
Les polynômes : construction de C 241

7.18. ·TI-ès brièvement justifions Fermat : K* est groupe multiplicatif de


cardinal p - 1 donc Vx E K*, xP-l = 1, d'où xP = x, relation vérifiée
aussi par x = O.
Retour aux Qk : il reste ÀkQk(ak) = 0, chaque Qi(ak) étant nul.
n
Or Qk(ak) = II (ak - ai) =/: 0, on a donc Àk =O.
i=l
i#k
La famille (Q1, ... ,Qn) den vecteurs de Kn-1[X] est libre, en
dimension n: c'est une base (corollaire 6.67).

En fait, on pose Pk(X) = II


n (X-a·)
i : les Pk sont tous de degré
i=I ak - ai
i#k
n - 1, nuls en tous les ai sauf un, où la valeur prise est 1. Ce sont les Pk
qui sont les polynômes interpolateurs de Lagrange. •

DÉFINITION 7.14. - Soit P un polynôme de degré n. On appelle coefficient


directeur de P le coefficient de xn dans P.
C'est donc le coeffiCient d'indice le plus élevé, non nul.

DÉFINITION 7.15. - Un polynôme Pest dit unitaire s'il est non nul, de
coefficient directeur égal à 1, élément neutre du corps K.

Les polynômes interpolateurs de Lagrange permettent de comprendre


le point suivant.

7.16. Dans un espace vectoriel E tous les vecteurs d'un sous-espace F de


E peuvent être des combinaisons linéaires des vecteurs d'une famille F de
E sans qu'aucun vecteur de F ne soit dans F.
Attention au caractère défini ou non des articles.
Par exemple soit E = Kso[X]. On prend 51 valeurs distinctes de K
(K = IR par exemple), ai, ... , as1- Les 51 polynômes interpolateurs de
Lagrange (Pkh~k~51 sont tous de degré 50 et forment une base de E.
Soit F = K2s[X], comme c'est un sous-espace de E, tous les vecteurs
de F sont des combinaisons des Pk bien qu'aucun Pk ne soit dans F.
Bien sûr, si toutes les combinaisons des Pk étaient dans F, en particulier
chaque Pk serait dans F et E = Vect(Pk) serait dans F d'où E = F
dans ce cas.

REMARQUE 7.17. - Toujours avec (ai, ... , an) éléments distincts de K


et E = Kn-1[X], les formes linéaires 'Pai : E 1-+ K qui à P associent
242 Algèbre

'Pai (P)= P( ai) forment une base de E*, duale de la base des polynômes
interpolateurs de Lagrange. Car on a n formes linéaires dans E* de
dimension n, comme E, et 'Pai(Pk) = Pk(ai) = 1 si i = k et 0 sinon.
On retrouve bien la définition de la base duale, (voir 6.108).

2. Division des polynômes

Soient A et B deux polynômes à une indéterminée, c'est le nom des


·éléments de K[X], «une» car il y a aussi les polynômes à plusieurs
indéterminées, dont je ne parle pas, mon propos étant de construire C.
On dit que

7.18. B divise A s'il existe C E K[X] tel que A = BC.


Il est clair que si A = 0, avec C = 0 on aura 0 = BO quel que soit
B. Si on écarte ce cas, A étant supposé non nul, B et C ne peuvent pas
être nuls non plus, (on ne divise pas par 0: des années de scolarité ont du
faire acquérir ce réflexe), et l'égalité A = BC implique d0 A = d0 B + d°C
d'où d0 B ~ d0 A si A est divisible par B.
Mais cette condition nécessaire n'est pas suffisante. On dispose toute-
fois d'une division dite euclidienne sur l'anneau K[X].

THÉORÈME 7.19. (de la division euclienne). - Soient A et B deux polynômes


sur le corps commutatif K, B étant non nul. Il existe un et un seul couple
(Q, R) de polynômes vérifiant les conditions A = BQ + R et d0 R < d0 B.

On formule parfois en disant R = 0 ou d0 R < d0 B. Mais en ayant


pris la convention d0 0 = -oo, la formulation d0 R < d0 B suffit.
Q s'appelle le quotient et R le reste de la division de A par B suivant
les puissances décroissantes, expression liée à la démarche pratique.
Justifions d'abord l'unicité. Si on a deux solutions A = BQ+ R =
BQ'= R' avec d0 R < d0 B et d0 R 1 < d0 B, il vient B(Q-Q') = R' -R.
Si Q - Q' # 0, Q - Q' a un degré, entier naturel, donc ;;::: 0 et alors
d0 ( B( Q - Q')) ;;::: d0 B alors que R' - R est de degré strictement inférieur
à d0 B : c'est absurde. Donc Q - Q' = 0 et alors R - R' = 0 aussi.
Passons à l'existence. Considérons l'ensemble N des degrés des po-
lynômes A - BQ lorsque Q varie dans K[X]. Ou bien cet ensemble
contient -oo donc il existe Qi tel que A - BQ1 = 0 soit, A = BQ1 + 0, le
couple ( Qi, 0) est solution; soit cet ensemble N est une partie de N, non
vide car des polynômes Q il y en a. Elle admet alors un plus petit élément
Les polynômes : construction de C 243

r et soit Q un polynôme tel que d0 (A- BQ)= r =plus petit élément de


N. On pose A - BQ = R et il reste à justifier que r = d0 R < d0 B.
Si d0 R ~ d0 B, on a R non nul, comme B, soient alors u le coefficient
u
directeur de R, V celui de B, et p = d0 B. Si on considère R- - xr-p B =
V
Ri : c'est un polynôme de degré r au plus, (r = d0 R = d0 ( ~ xr-p B) ), or
u
le terme en xr a pour coefficient u- - v = 0 donc en fait ri = d 0 Ri < r,
V
inégalité valable même si 'Ri = 0 auquel cas ri = -oo.
MaisalorsonavaitA-BQ-; xr-pB = A-B(Q+~ xr-p) =Ri
avec d0 Ri = ri < r et aussi ri E N de borne inférieur r : c'est exclu. On a
donc le résultat. Mais en même temps on a amorcé le procédé pour trouver
Q et R : par des éliminations successives du terme de plus haut degré,
on fait diminuer le degré de A - BQk, les Qk désignant des quotients
successifs.
Si au départ d0 A < d0 B on a directement A = 0 · B + A. Sinon, soit
axn le terme de plus haut degré de A et
bXP celui de B avec n ~ p,
a
alors Ai= A- b xn-pB est degré ni <net on a A= ba xn-pB+Ai.
On pose Q1 = ba xn-p.
Si d0 Ai < d0 B c'est fini: la solution est Q = Qi. R =Ai.·
Si d 0 Ai = ni ~ d 0 B,on fait subir à Ai ce qu'on à fait à A. Avec ai
coefficient directeur de Ai on aura Ai = abi xni -p B + A2 d'où

A=(~ xn-p+ a; xni-P)B+A2.


ai
On pose Q2 = ba xn-p + b xn1-P.
Si d A2 < d B, on a la solution Q = Q2, R = A2,
0 0

si d0 A2 = n2 ~ d0 B, on fait subir à A2 ce qu'on a fait pour A, Ai,


... et, au bout d'un nombre fini d'opérations, on obtient le quotient et le
reste puisque les degrés des Aj diminuent strictement. •

Les conséquences de cette division euclidienne vont être très impor-


tantes, car, comme on l'a vu lors de l'étude des anneaux, l'anneau K[X]
est euclidien, donc principal. (voir 5.27 et 5.28). C'est tellement important
que je le justifie encore ici :

THÉORÈME 7.20. - L'anneau K[X] des polynômes sur un corps K est


principal, c'est-à-dire que tout idéal est principal.
244 Algèbre

On a d'abord K[X] anneau commutatif, unitaire, intègre, (Théorème


7.8). Soit I un idéal de K[X]. S'il est réduit à 0, I est formé des multiples
de O. Sinon l'ensemble des degrés des éléments non nuls de I est un
ensemble noté N, non 'vide dans N. Donc il admet un plus petit élément
no et soit B dans I de degré no. Soit A E I, on divise A par B, avec Q
et R tels que A= BQ+ R et d0 R < d0 B, comme R =A-BQ est dans
l'idéal I, (I contient B donc contient BQ, il contient A et c'est aussi un
sous-groupe), c'est que R = 0, (sinon d0 R E N avec d0 R < inf(N) ). Donc
I C (B) idéal des multiples de B. Comme B E I, l'inclusion (B) CI est
évidente donc I est bien l'idéal principal engendré par B. •

Le fait que tout idéal de K[X] soit principal servira à définir par
exemple, la notion de polynôme minimal pour les opérateurs linéaires, pas
pour tous, il y a du favoritisme dans l'air! (voir la définition 10.43). Ici
nous allons l'exploiter pour dégager les notions de plus grand commun
diviseur, (p.g.c.d), et de plus petit commun multiple, (p.p.c.m).

DÉFINITION 7.21. - Un élément p d'un anneau commutatif unitaire A


est dit premier, ou irréductible, ou extrémal, s'il n'est pas inversible et si
ses seuls diviseurs sont les éléments u inversibles de A, ou les pu avec u
inversible.

Il est clair que si u est inversible, d'inverse u- 1 , pour tout x de A on


u
a: x = (xu- 1 )u donc est diviseur de x, et x = (xu)u- 1 montre aussi
que xu divise x. La définition 7.21 dit en somme que p premier{::::::::} p n'a
pas d'autres diviseurs que ses diviseurs« évidents», à savoir les pu et u
avec u inversible dans l'anneau.
Comme notre étude est ici centrée sur l'anneau A = K[X], il serait
bon de connaître les éléments inversibles de cet anneau.

THÉORÈME 7.22. - Les éléments inversibles de l'anneau K[X] sont les


éléments non nuls de K, c'est-à-dire les polynômes constants non nuls.

Car si P est inversible, il existe p-l E K[X] tel que P p-l = 1. En


particulier P et p-l, non nuls, ont un degré et d° 1 = 0 = d 0 P + d0 p-l.
Les degrés étant dans N on a d0 P = d 0 p-l = 0 donc P est un scalaire
>. E K*. Réciproquement, si >. E K*, le polynôme constant >. -l, (inverse
de>. dans le corps K) est inverse de>. dans K[X]. •

THÉORÈME 7.23. - Dans un cinneau principal A, tout élément non nul


et non inversible est produit d'un élément inversible par des éléments
irréductibles.
Les polynômes : construction de C 245

On raisonne par l'absurde en supposant qu'il existe des x =1- 0, et non


inversibles et qui ne s'écrivent pas sous la forme du produit d'un élément
inversible et d'éléments extrémaux. Soit X l'ensemble non vide de ces x.
La famille :F des idéaux principaux (x) engendrés par les x de X
est non vide : elle admet alors un élément maximal pour l'inclusion. En
effet, si c'était faux, soit li E :F, il n'est pas maximal, donc 3h E :F avec
li Ch- A son tour I2 n'est pas maximal, on continue et on peut construire
=F
une suite d'idéaux de :F avec li C I2 C ... C In C ...
=F =F =F =F
Soit I = LJ In, c'est un idéal, sous-groupe car 0 E LJ In, et si x et
nEN nEN
y sont dans I, il existe nx et ny avec x E Inx• y E Iny or la famille des
idéaux est ordonnée =? x et y sont dans Isup(nx,ny) sous-groupe additif,
d'où x - y E Isup(nx,ny) C I; puis I est permis pour le produit car si
x E A et y E I, 3ny EN, y E Iny d'où xy E Iny• idéal, a fortiori xy E I.
L'anneau étant principal, I est principal : il existe a dans A tel que
I = LJ
In = (a) idéal principal engendré par a. Mais alors 3p EN tel
' nEN
que a E Ip. Comme Ip est un idéal on a les inclusions (a) C Ip CI= (a)
d'où en fait Ip = (a), mais aussi, Vn ;;i: p, Ip = (a) C In C I = (a). La
suite strictement croissante des In devient stationnaire : c'est absurde.
Revenons donc à un idéal M maximal dans la famille :F, avec M =
(m) idéal principal engendré par m, m supposé non inversible, mais aussi
non produit d'un inversible par des éléments extrémaux. En particulier
m n'est pas extrémal, sinon m = 1 · m est produit de 1 inversible par m
extrémal, donc m peut s'écrire sous la forme m = be avec b et e qui ne
sont pas tous les deux inversibles ou du type ux avec u inversible et x
produit d'éléments extrémaux.
Tout multiple de m étant multiple de b (et de e) on a les inclusions
d'idéaux (m) C (b) et (m) C (e), inclusions strictes, (sinon (m) = (b) =?
.b E (m), il existerait v E A tel que b = mv d'où b = mv = bcv =?
b(l - cv) = 0, or m =1- 0, (les x. de X sont non nuls), donc b =1- 0, l'anneau
A étant intègre, on a 1 - cv = 0 donc e inversible : exclu). Mais vu le
caractère maximal de (m) dans :F, c'est que (b) et (e) ne sont pas dans
:F, donc b et e non dans X.
Alors b et e qui sont non nuls sont soit inversibles (exclu) soit chacun
du type b = ux et e = vy avec u et v inversibles et x et y produits
d'éléments extrémaux. Mais alors m = be = (uv )xy serait du même type
ce qui est absurde puisque m E X.
C'est que finalement X =0 et on a bien le résultat.

246 Algèbre

Il serait alors intéressant de savoir en quelle mesure une telle décom-


position est unique. Pour cela on a besoin de caractériser les éléments
premiers (ou extrémaux).

THÉORÈME 7.24. -Soit p non nul et non inversible dans l'anneau principal
A. Il y a équivalence entre :
p est premier,
1)
2) tout diviseur de p est soit inversible, soit du type pu avec u inversible,
3) (p) est idéal maximal, (pour l'inclusion),
4) pour tout produit be divisible par p, p divise au moins l'un des
facteurs.

1) <::? 2) puisque c'est la définition de p premier, (voir 7.21).


1) => 3) On suppose p premier. Soit I un idéal contenant l'idéal
(p) . Comme A est principal, il existe a E A tel que I = (a) et
(p) C (a) => p E (a) donc il existe b E A tel que p = ab, d'où a divise p.
Mais alors soit a inversible, si a- 1 est son inverse aa- 1 = 1 E (a) d'où,
Vx E A, x = 1 · x E (a) on a (a) =A; soit a= pu avec u inversible, et
alors (a) C (p) d'où (a)= (p).
Finalement si I est un idéal contenant (p) on a I = A ou (p). C'est
que (p) est maximal dans l'ensemble des idéaux, partiellement ordonné
par inclusion.
3) => 1) Car soit a un diviseur de p. Il existe b E A tel que p = ab donc
p E (a), a fortiori l'idéal principal engendré par p est contenu dans (a) :
(p) C (a). Comme on suppose (p) maximal, on a soit (a) = A et alors
1 E (a)=> 3a- 1 dans A tel que aa- 1 =a- 1a=1: a est inversible; soit
(a) = (p), alors a E (p), il existe e tel que a= pe d'où

a= pe = (ab)e = a(be) => a(l - be) = 0

avec a =F 0 et A intègre on a 1 = be donc b et e inversibles et a = pe avec


e inversible. Les seuls diviseurs de p sont inversibles ou du type pu avec
u inversible donc p est premier.
1) => 4) Soit p premier qui divise le produit be. En fait on considère
l'idéal engendré par pet b: c'est l'intersection de tous les idéaux contenant
pet b, c'est aussi, A étant commutatif, I = {up + vb : (u, v) E A 2 } car on
vérifie facilement que I est un idéal contenant pet b, et que c'est le plus
petit, pour l'inclusion, à contenir p et b.
On a (p) C (1) et (p) maximal=>
- soit I = (p), mais alors b E (p), donc b est multiple de p, ou encore,
p divise b;
Les polynômes: construction de C 247

-'-soit I = A, donc 1 E J, 3u, v dans A tels que 1 = up + vb d'où


c = upc + vbc. Mais comme p divise be par hypothèse et upc de manière
évidente, on a p divise c.
4) ::::} 1) Si p non nul et non inversible vérifie (4), en utilisant le
Théorème 7 .23 on peut écrire p = UP1P2 ... Pn avec u inversible et les
Pj irréductibles.
En fait Pi = up1 est aussi irréductible puisque (Pl) = (up1) est
maximal, ((1) {:::} 3)), donc on peut écrire, en remplaçant Pi par pi,
p.= P1P2 .. ·Pn avec les Pj irréductibles. Comme p divise p, le 4) ::::} p
divise Pl ou P2 ... Pn· Dans le 2e cas il divise P2 ou (p3 ... Pn). En itérant
on arrive à p divise l'un des Pj irréductible.
Donc p est soit inversible (exclu par hypothèse) soit du type p = UjPj
avec Uj inversible. Mais alors (p) = (Pj) est maximal donc p est bien
irréductible, (on utilise l'équivalence de 1 et 3). •

REMARQUE 7.25. - En cours de démonstration, on a vu en fait que le 4e


pouvait se formuler sous la forme :
p premier {:::} dans tout produit divisible par p, p divisible l'un des
facteurs.
On a aussi rencontré Bézout en route. Ceci demande des éclaircisse-
ments.

DÉFINITION 7 .26. - Soit un anneau principal A On appelle plus grand


commun diviseur (ou pgcd) de n éléments a1, ... , an de A tout générateur
d de l'idéal principal engendré par a1, ... , an.

Soit!= {u1a1 + .. .+unaniUj E A,j = 1 ... ,n} c'estunidéal,(sous-


groupe et permis par produit), contenant chaque aj, donc il est contenu
dans chaque idéal contenant tous les aj.
L'anneau étant principal, il existe d E A tel que I = (d). Tout
générateur d de I est un pgcd de u 1, ... , Un.
Si d' en est un autre, on aura d' E ( d) et d E ( d') donc

3uEA telque d'=ud


et 3v E A tel que d = vd'.

Mais alors d' = uvd' d'où (1 - uv)d' =O.


Si tous les ai sont nuls, en fait I = (0) ::::} d = d' = O. Sinon
I =fa (0) donc d' =fa 0, dans A intègre, d'où uv = 1 et alors d est unique à
multiplication près par un élément inversible.
Dans le cas des polynômes (A= K[X]) ceci nous donne le pgcd unique
à multiplication près par une constante non nulle.
248 Algèbre

7.27. La termiTUJlogi,e vrent de ce que m divise ai, ... , an si et seulement


si m divise «leur » pgcd Donc les diviseurs communs aux éléments
ai, ... , an sont ceux de leur pgcd. En effet, avec ui, ... , Un dans A tels
que le p.g.c.d. soit d = uiai + ... + Unan. si m divise chaque ai, 3vi E A
tel que ai= Vim,:::::? d = m(uivi + ... + UnVn) donc m divise d; puis si
m divise d, comme chaque ai E I = (d) il existe bi tel que ai= bid avec
d multiple de m. A fortiori ai multiple de m. •

DÉFINITION 7.28. - Des éléments ai, ... , an de A anneau principal sont


dits premiers entre eux si et seulement si 1 est leur pgcd.

THÉORÈME 7.29. - Soient ai, ... , an des éléments de A principal.


Il y a équivalence entre :
1) ai ... an sont premiers entre eilx,
2) les seuls diviseurs communs des ai sont les éléments inversibles de
A,

Avoir (ai, a2, ... , an) premiers entre eux équivaut (définition 7.28)
à pcgd( ai, ... , an) = 1, donc ceci équivaut à dire que les diviseurs
communs de ai, ... , an sont les diviseurs de 1 donc les u E A tels qu'il
existe u 1 E A avec uu1 = 1 : ce sont les éléments inversibles : d'où 1) :::::?
2); mais aussi 2) :::::? 1) puisque le pgcd de ai ... an divise chaque ai, ce
pgcd est inversible, donc l'idéal engendré par les ai est A = (1) : les ai
sont premiers entre eux.
Dans ce cas, 1 engendre l'idéal des ai donc 3(ui ... un) E An tel que
1 = u1ai + ... + Unan d'où 1):::::? 3).
Réciproquement, si on a 3), 1 E I idéal engendré par les ai, qui est
donc A d'où pgcd( ai, ... , an) = 1 : on a des éléments premiers entre
eux. •

7.30. La relation ( (ai , ... , an) premi,ers entre eux) {:::} (3 (u i , ... , Un) E
An tels que uiai + ... + Unan = 1) est l'identité de Bézout.
Dans le cas d'éléments non premiers entre eux, on a seulement, si
n
d =pgcd( ai, ... , an), alors 3(ui, ... , un) E An avec d = L Uiai mais
i=i
pas de réciproque, car tout élément de (d) est aussi de ce type. C'est
la valeur particulière d = 1 qui donne la réciproque dans l'identité de
Bézout.

COROLLAIRE 7.31. - Soit a, b dans l'anneau principal A. Si x, premier


avec a, divise ab, alors x divise b.
Les polynômes : construction de C 249

En effet, 3(u, v) E A 2 tel que 1 = ux +va d'où b = uxb + vab.


Comme x divise ab, x divise uxb + vab donc x divise b. L'identité de
Bézout est l'instrument choc lié à la situation premiers entre eux.
Maintenant que nous disposons de la notion d'éléments premiers
et d'éléments premiers entre eux dans A anneau principal nous allons
pouvoir préciser la factorisation des éléments de A, et l'utiliser pour
exprimer le pgcd et introduire le ppcm.

DÉFINITION 7 .32. - Deux éléments extrémaux p et p 1 sont dits associés s'il


existe u inversible dans A tel q'ue p = up1•

Comme alors p 1 = u- 1p avec u- 1 inversible, cette relation est


symétrique. Il est clair qu'elle est réflexive et transtive, donc on a une
équivalence R entre éléments extrémaux. La classe d'équivalence de p
c'est l'ensemble des p 1 = up avec u inversible, c'est donc l'ensemble des
générateurs de l'idéal maximal (p).

THÉORÈME 7.33. - Soit x un élément non nul et non inversible de A


. . l, et p '1 ... Pn'
pnncipa ' = p Il1 ... Pn"
Il de ux décompositions
.. de x en prod uit
.
d'éléments irréductibles. On a n = n" et il existe une bijection a E Sn'
1

telle que pu( ' pour i . = 1, ... , n ' soient


Il i) et pi, . associes.
.,

On peut remarquer que x se décompose ainsi, (Théorème 7.23)


puisqu'un facteur inversible éventuel peut être incorporé à un facteur
extrémal.
0 na p '1 diVIse ' = p Il1 .. ·Pn"'
. p '1 .. ·Pn' Il ' 1 done (Th'eoreme
e t p '1 extrema, '
7.24), Pi divise l'un des p'j. On choisit un indice j, noté j = a(l), tel que
Pi divise P'j.
Or p'j est extrémal aussi, c'est que p'j, non inversible, s'écrit p'j = u'jpi
avec ujIl mvers1
. ' = p Il1 ... UjPI.
"ble. 0 na p '1p '2 .. ·Pn' Il ' · ·Pn"·
Il

On simplifie par p'j car, dans l'anneau intègre A, tout élément non nul
est régulier pour le produit.
On a donc Pi et p~(l) associés et l'égalité

, , ,,
P2 · · ·Pn = Uj
II
n"
,,
Pk·
k=l
k;éu(l)

Il
On peut remplacer l'un des P% par l'élément uj P% qui lui est associé et que
l'on note encore P%, et on se retrouve avec une égalité du même type. On a
250 Algèbre

donc de même P2 associé à un P%, k =f. a(l). <;>n choisit un tel indice noté
a(2) ... et on poursuit. Comme on a choisi de simplifier successivement par
p~, P2, . : . ,p~,, on a finalement n 11 ~ n 1 et une relation du type

1= II P%
k~{ u(l), ... ,u(n')}

(a injection de {1, ... , n'} dans {1, ... , n"} ). Mais n" > n' conduirait à
l'existence d'un P% external et inversible : c'est exclu par définition des
éléments extrémaux, donc n 11 = n 1 et a bijective. •

Conséquence : Si on choisit un ensemble P de représentants des classes


d'équivalence des éléments extrémaux, (pour pRp1 {:::}pet p 1 associés),
chaque x non nul et non inversible de A s'écrira x = up1 ... Pn avec les
Pj dans P et u inversible, car une écriture x = p~ ... p~ conduit à des Ui
n
· inversibles tels que p~ = UiPi• d'où avec u = II Ui, inversible, l'écriture
i=l
donnée.
Des Pi peuvent être répétés. Si on les regroupe, on arrive à une écriture
du type x = u II
paP, avec ap E N, les ap étant presque tous nuls.
pE'P
Et sous cette forme l'écriture est unique.

7.34. L'entier ap est la valuation de p dans la décomposition de x en


produits de facteurs premiers. On note Vp(x) cet ap.

On retrouve les décompositions en produit de nombres premiers de


l'arithmétique.

7.35. Il est alors facile de voir que si on a

X =u II pvp(x) et Y = V II pvp(y)'
pE'P pE'P

alors

pgcd(x, y) = II Pinf(vp(x),vp(y)),
pE'P
Les polynômes: construction de C 251

car z non nul de A divisera x si et seulement si pour tout p E P système de


représentants des éléments extrémaux, on a vp(z) ~ vp(x), la vérification,
facile, est laissée au lecteur.
On peut alors introduire la notion de plus petit commun multiple
(ppcm).
Soient (ai, ... , an) des éléments non nuls de l'anneau principal A.
Les multiples de ai sont les éléments de l'idéal principal (ai)· Donc les

·multiples de ai, a2, ... , an sont exactement les éléments de I =


i=i
n n
(ai)·

Mais I est un idéal, principal, donc si m est un générateur, les multiples


communs aux ai sont les multiples de m : on appelle m un plus petit
commun multiple des ai.
Si m' en est un autre, m et m' engendrent le même idéal donc avec
m = um' et m' = vm on a m = uvm, avec m =f. 0 d'où uv = 1 : m et m'
sont égaux à un facteur multiplicatif inversible près.
On vérifie encore, avec les décompositions précédentes, que

7.36. ppcm(x, y) = IJ psup(vp(x),vp(y)).


pE'P

3. Racines d'un polynôme

DÉFINITION 7.37. - Soit P un polynôme de K[X]. On dit que l'élément a


de K est un zéro de P, ou une racine de P, si P(a) =O.

THÉORÈME 7.38. - Soit P E K[X]. L'élément a de K est zéro de Psi et


seulement si P est divisible par X - a.

En effet, si P est divisible par X - a, il existe Q E K[X] tel que


P(X) = (X - a)Q(X) donc P(a) =O. Q(a) =O.
Réciproquement on effectue la division euclidienne de P par X - a, il
existe deux polynômes Q et R avec d0 R < 1, (d 0 (X -a)= 1 ici), tels que
P(X) =(X - a)Q(X) + R(X) (Théorème 7.19).
Le polynôme R, de degré 0 au plus est une constante r et l'identité de
la division calculée en a donnera P(a) = r.
Donc a zéro de P implique P(X) = (X - a)Q(X) et on a fait
l'équivalence. •
252 Algèbre

Racines multiples. Soit P un polynôme de K[X] ayant a E K pour


racine. Il est divisible par X - a donc P(X) = (X - a)Q(X).
Il se peut qu'à son tour Q admette a pour racine, on aura donc un
polynômeQ1 telqueQ(X) = (X-a)Q1(X)d'oùP(X) = (X-a) 2 Q1(X)
et on peut éventuellement continuer ainsi tant que a est racine du
polynôme quotient obtenu.

DÉFINITION 7.39. - Soit P E K[X). Un élément a de K est dit zéro


d'ordre k (k E N*) de P si et seulement si il existe Q E K[X) tel que
P(X) = (X - a)kQ(X) et Q(a) f:. O.
On dit encore que a est zéro de multiplicité k.

THÉROÈME 7.40. - On a zéro d'ordre k de P {::} P divisible par (X - a)k


et non divisible par (X - a)k+l

Si a est zéro d'ordre k :


P(X) =(X - a)kQ(X) est déjà divisible par (X - a)k.
On divise Q par X - a :
Q(X) = (X - a)Q1(X) + Q(a), car on a vu que le reste de la division
d'un polynôme par X - a est la valeur en a du polynôme d'où
P =(X - a)k+1Q1 + Q(a)(X - a)k, avec d0 (Q(a)(X - a)k) < k + 1 :
on a Q(a)(X-a)k reste de la division de P par (X -a)k+l, donc Q(a) f:. 0
::::} P non divisible par (X - a)k+l.
Réciproquement: P divisible par (X -a)k, non par (X -a)k+l::::} 3Q
tel que P = (X -a)kQ = (X -a)k+1Q1 +Q(a)(X -a)k avec les notations
précédentes, et avec ici Q(a)(X - a)k f:. 0 donc Q(a) f:. O. •

COROLLAIRE 7.41. Un zéro a d'un polynôme P non nul de K[X] a donc un


ordre de multiplicité, (et un seul), k ~ d 0 P.

Car k = sup{r; (X - a)T divise P} cet ensemble étant non vide si a


est zéro de P, et majorée par n = d0 P. •

L'utilisation des polynômes dérivés permet de donner une autre ca-


- ractérisation de ce résultat.
d0 P
DÉFINITION 7.42. - Soit p = L anxn E K[X). On appelle polynôme
n=O
d0 P
dérivée le polynôme P' = L nanxn- 1.
n=l
Les polynômes : construction de C 253

0
Si d0 P = 0, cette somme L ... est nulle par convention.
n=l
On pourrait aussi dire que la dérivation d est l'application qui à
P = (ao, ai, ... , an, ... ) associe la suite d(P) = (bn) avec, Vn E N,
bn = (n + l)an+l· Il est bien clair que la suite (an) étant à support fini,
il en est de même de celle des bn.
On vérifie facilement que la dérivation d est une application linéaire,
de K[X] dans K[X], de noyau Ker d = {polynômes constants}, surjective.

THÉORÈME 7.43. - Pour tout couple (P, Q) de polynômes, on a (PQ)' =


P'Q+PQ'.

La dérivation étant linéaire, pour P fixé, il suffit par linéarité par


rapport à Q de vérifier cette formule pour les monômes xq.
Mais alors, la linéarité par rapport à P montre qu'il suffit de le vérifier
pour Q = xq et p décrivant les XP.
Or (XP Xq)' = (XP+q)' = (p + q)XP+q-I, alors que (XP)' Xq +
XP(Xq)' = pXP+q-l + qXP+q-I d'où l'égalité. •

Dérivées successives : L'endomorphisme d de dérivation peut se com-


poser avec lui même et on notera, Vk E N*,

p(k) = dk(P), et p(O) =d 0 (P) = P par convention.


THÉORÈME 7.44. (Formule de Taylor) - Soit P E K[X] et a un élément de
K. Si le corps K est de caractéristique nulle on a l'identité
p(n)(a)
P(X) = L 1 (X - a)n, dite formule de Taylor.
nEN n.

D'abord, remarquons que si P = 0, les deux membres sont nuls, et si


P non nul est de degré p, pour tout k > p, le polynôme dérivée d'ordre k
de P est nul, donc la somme du second membre est une somme finie.
Les polynômes (ex - a)n) nEN formant une famille de polynômes de
degrés échelonnés, ils constituent une base de K[X], (Théorème 7.11). On
p
décompose P dans cette base en P(X) =L ak(X - a)k avec p = d0 P
k=O
et les ak dans K. La dérivation étant linéaire, p(n) (X) sera connue si
on connaît les dérivées nième des (X - a)k.
254 Algèbre

Or si n > k, cF[(X - a)k] = 0, (KercF = {polynôme de degré


< n} ), et pour n ~ k, on peut vérifier par récurrence sur n que
cF[(X - a)k] = k(k - 1) ... (k - n + l)(X - a)k-n, (laissé au lecteur).
On a donc ici :
p(n)(X) = L k(k- 1) ... (k - n + l)ak(X - a)k-n

et, sin ~ p, on aura p(n)(a) = n(n - 1) ... lan car seul le terme pour
k = n sera non nul en a, alors que sin> p, on a pn(a) =O.
p(n)(a)
On a donc an= d'où la formule de Taylor, la division par n!
n.1
étant possible dans K de caractéristique nulle.

COROLLAIRE 7.45. - Soit un corps K de caractéristique nulle. Alors a E K


est zéro d'ordre k de P E K[X] si et seulement si P(a) = P'(a) = ... =
p(k-I)(a) = 0 et p(k)(a) #O.

Puisque la formule de Taylor permet d'écrire P =(X -a)kQ+R avec

p(n)( ) ) k-1 p(n)( )


P(X) =(X -a)k ( L n! a (X -a)n-k + L(X -a)n n! a
n~k n=O

on a l'identité de la division de P par (X - a)k. Donc a zéro d'ordre


k de P équivaut (7.40) à R = 0 et p(k)(a) :f. 0, (sinon (X - a)k+l
divise P. L'écriture de R dans la famille libre des (X - a)n donne alors
R = 0-<===? P(a) = P'(a) = ... = p(k-I)(a) = 0 d'où le résultat. •

Revenons aux zéros d'un polynôme sur un corps K pas forcément de


caractéristique nulle.

THÉORÈME 7.46. -Soit P E K[X]. Soient ai, ... , ar des éléments distincts
de K et ki, ... , kr des entiers non nuls. Alors P admet les aj pour zéro
r
d'ordre kj au moins si et seulement si Pest divisible par II (X - aj )k;.
j=l

r
Il est clair que P divisible par II (X - aj)k; l'est alors par chaque
j=l
(X - aj)k; donc admet chaque aj pour zéro d'ordre kj au moins, (7.40).
Les polynômes : construction de C 255

Réciproquement si P admet chaque aj pour zéro d'ordre kj au moins


il est divisible par chaque (X - aj )ki. Or chaque polynôme X - aj est
irréductible, et pour aj i= ai les polynômes X - aj est X - ai sont non
associés, (définition 7.32) car avoir X - ai= u(X - aj) avec u inversible
impose u = 1 d'où ai= aj. Les (X - aj)ki sont donc premiers entre eux,
tout facteur premier du pgcd devant diviser chaque X - aj, irréductible.
Le plus petit commun multiple des (X - aj )ki, qui est donc leur produit,
divise P. •

COROLLAIRE 7.47. - Si P i= 0 admet a 1 ... ar distincts comme zéros


d'ordres ki, ... , kr au moins, il est de degré ~ ki + k2 + ... + kr.

r
Car Pest multiple de Il (X - aj )ki, de degré ki + ... + k2, et P non
j=l
nul a un degré entier naturel. •

COROLLAIRE 7.48. -Si P E K[X] de degré deg(P) ~ n admet ai, ... ,ar
comme zéros distincts d'ordre ki, ... , kr au moins, avec ki + ... + kr > n
il est nul.

Sinon deg(P) E Net on aurait deg(P) ~ n < ki + ... + kr -~ deg(P)


ce qui est absurde •

COROLLAIRE 7.49. - Si P E K[X] de degré n au plus admet au moins


n + 1 racines distinctes,
il est nul.
Si deux polynômes P1 et P2 de degrés n au plus sont tels que les
fonctions x ~ P1(x) et x ~ P2(x), de K dans K prennent au moins
n + 1 fois la même valeur P1 = P2.

Puisque, dans ce cas, P2 - P1 va être de degré n au plus et s'annuler


n + 1 fois au moins. •

Nous avons vu que pour a i= b, les polynômes irrédutibles X - a et


X -b sont non associés. En fait, peut-il y avoir des polynômes irréductibles
de degré différent de 1? C'est l'étude de ce problème qui va nous conduire
à la construction de C à partir de R ·
256 Algèbre

4. Extension d'un corps : construction de C


DÉFINITION 7.50. - Un polynôme P E K[X] est dit scindé sur le corps K
s'il est constant ou bien si P admet des zéros distincts ai, ... , ar dans K
de multiplicités ki, ... , kr avec ki + k2 + ... + kr = n = degré de P.

Cela revient· à dire que P admet une décomposition en produit de


puissances de polynômes de degré 1, lorsqu'il est non constant.

Exemple

x2 - 4 est scindé sur Q'


X2 - 2 est scindé sur R mais pas sur Q.

En effet, siv'2 E Q, en écrivant v'2 = ~q irréductible, on aurait 2q2 = p 2


donc 2 divise p, avec p = 2p1 on a 2q 2 = 4p12 :::::} q2 = 2p12 donc 2 divise
q, mais alors pet q étant tous deux divisibles par 2, cela contredit p/q
irréductible.
Cet exemple, joint au fait que Q peut être considéré comme un sous-
corps de IR, nous montre qu'un polynôme sera scindé ou non suivant le
corps où sont les coefficients.

DÉFINITION 7.51. - Un corps K est dit algébriquement clos si tout po-


lynôme non constant de K[X] admet au moins un zéro dans K.

THÉORÈME 7.52. - Un corps K est algébriquement clos si et seulement si


tout polynôme P de K[X] est scindé sur K, ou encore si et seulement si
les seuls polynômes irréductible sont de degré 1.

Soit K algébriquement clos, P non constant dans K[X], il admet


un zéro ai, donc (Théorème 7.38), P est divisible par X - ai, on a
P = (X - ai)Pi avec d0 Pi = (d 0 P) - 1. Si d0 Pi ;;?: 1, à son tour
Pi est divisible par X - a2, on continue d'où une factorisation du type
P = (X - ai) ... (X - an)Pn, avec n = d0 Pet Pn constante non nulle.
On regroupe les ai égaux d'où à la fois une factorisation de P prouvant
qu'il est scindé, mais aussi le fait que d0 P > 1 :::::} P non irréductible. Bien
sûr, P de degré 1 est irréductible.
Réciproquement : Si tout polynôme P est scindé, P non constant
r
s'écrira sous la forme P = (cte) II (X - ai)ki avec ki + ... + kr = d 0 P
i=i
donc P admettra des zéros.
Les polynômes : construction de C 257

En effet, la décomposition donnée en 7 .35 dans un anneau principal


nous dit que, si les seuls polynômes irréductibles sont de degré 1, on a
une décomposition de tout polynôme non nul de P du type

p =u II (X - a)a(a),
aEK

avec u inversible dans K[X], c'est-à-dire u dans K*, puisque pour des a
différents les X - a ne sont pas associés; on a les a(a) entiers presque
tous nuls. Là encore, sin= L
a(a) est non nul, P admet au moins un
aEK
zéro d'où la réciproque.

COROLLAIRE 7.53. - Si K est algébriquement clos, P non nul divise Q si et
seulement si tout zéro de P est zéro de Q avec une multiplicité supérieure
ou égale.

Puisque P = u II (X - a)a(a) divisera Q = v II (X - a),6(a) si et


~K ~K
seulement si, 'ria E K, a(a) ~ f3(a). •

Le problème qui se pose, c'est que les corps ne sont pas tous algébri-
quement clos. Ainsi, Q ne l'est pas, (X 2 - 2 non scindé), IR non plus,
(X 2 + 1 non scindé). Comment faire?

DÉFINITION 7 .54. - On appelle extension du corps commutatif K, tout


corps L contenant K comme sous-corps.
Ainsi, en identifiant Q avec son image injective dans IR (voir chapitre
6 de Topologie) on peut dire que IR est un sur-corps de Q.

DÉFINITION 7 .55. - Soit L une extension d'un corps K et a E L. On appelle


extension simple de K par a dans L le plus petit sous-corps de L contenant
K et a.

On la note K (a) et K (a) est visiblement l'intersection de tous les


sous-corps de L contenant K et a. (Il y en a, ne serait ce que L).
On a K(a) = K ~a E K.
Soit alors(): K[X] f---+ K(a) l'application qui au polynôme
~p ~p

P(X) = L aiXi associe O(P) = L aiai. Comme les ai et a sont dans


i=O i=O
le corps K(a), O(P) E K(a).
258 Algèbre

Il est immédiat de vérifier que(} est un morphisme d'anneau de K[X]


dans l'anneau K(a). Son noyau KerO est un idéal de K[X], anneau
principal. Donc l'image O(K[X]) est un anneau isomorphe à l'anneau
quotient K[X]/KerO. Il y a alors deux cas de figure.

7.56. Si KerO = {O}, (donc pour tout polynôme P non nul de K[X] on a
P(a) =f:. 0): l'élément a est alors dit transcendant sur K), K[X]/KerO ~
{P(a); P E K[X]} est un anneau, (sous-anneau de K(a)) intègre, K[X]
étant intègre et (} bijective de K[X] sur cet anneau que l'on notera
K[a]. Mais alors K[a] admet dans le sur-corps L son corps des fractions
(Théorème 5.34) à un isomorphisme près on peut donc dire que L( a) est
le corps des fractions de l'anneau K[a].

5.57. Si Ker(} =f:. { 0}, soit P le polynôme unitaire engendrant Ker(}.


L'élément a est alors dit algébrique sur K, l'extension simple K(a) est
dite algébrique sur K et P est le polynôme minimal de a sur K.

THÉORÈME 7.58. - Soit a algébrique sur un corps K. Son polynôme


minimal est irréductible sur K. Il est de degré 2 au moins si a (/. K
et K (a) est alors un espace vectoriel de dimension n sur K, n degré du
polynôme minimal.

Pour l'instant, on suppose connu un sur-corps L et tout dépend encore


de L.
Soit donc a algébrique sur un corps K et L un sur-corps dans lequel
on considère l'extension simple K(a).
Si P engendre l'idéal KerO, et si Pest non irréductible, avec P(X) =
P1(X)P2(X), puisque O(P) = P(a) = 0, c'est que dans le corps L, on
a P1(a) ou P2(a) = 0, donc P1 (ou P2) E KerO, on aurait P1 (ou P2)
multiple de P avec un degré strictement inférieur : c'est exclu. D'où P
irréductible.
Si d 0 P = 1, si P(X) = ax + /3 avec a =f:. 0, comme aa + /3 = 0 on
aurait a = -a- 1 /3 E K, et si a E K, X - a est un polynôme de K[X]
qui annule a donc Ker(} est engendré par X - a : le polynôme minimal
est bien de degré 1 si et seulement si a E K.
Enfin P étant irréductible, l'idéal qu'il engendre est maximal (Théorè-
me 7.24) donc l'anneau quotient K[X]/Ker (}est un corps (Théorème 5.43).
Comme ce quotient est isomorphe à O(K) = K[a] c'est que K[a] est un
corps, contenant K, et a, donc contenant K(a), plus petit corps de L
contenant K et a. Comme on a vu que (} est à valeurs dans K (a), dans
ce cas on a K(a) = K[a].
Les polynômes : construction de C 259

De plus, pour tout Q E K[X], la division euclidienne de Q par P


polynôme minimal de a donne l'identité Q(X) = P(X)S(X) + R(X)
avec d0 R < d0 P. Donc Q(a) = R(a) puisque P(a) =O.
n-1
Il en résulte que O(Q) = R(a) E { L aiai; ai E K} avec n = d P.0

i=O
Si on avait R( a) = 0 avec d0 R < n, c'est que R E Ker 0 idéal engendré
par P donc R = 0 ·P. Il en résulte que, dans la structure de L, espace
vectoriel sur K, les éléments 1, a, a2 , ... , an-l sont indépendants et alors
K[a] = K(a) et en fait un espace vectoriel de dimension n sur K. •

Il reste une question à régler. On est parti de L sur-corps de K, on


a considéré a E L et l'extension simple K(a) qui est transcendante ou
algébrique.
Si on part de L' autre sur-corps de K contenant aussi a, on aura dans
L' l'extension simple notée K'(a), (bien que l'on parte du même corps K).
A-t'on encore une extension algébrique si elle l'est sur K? Et si oui,
quel est le degré du polynôme minimal?

7.59. On peut déjà remarquer que, si a est tanscendant sur K dans L le


corps K (a) est espace vectoriel de dimension infinie sur K, car pour tout n,
les éléments 1, a, a2 , ... , an sont libres sur K, une combinaison linéaire
nulle non triviale fournissant un polynôme non nul dans l'idéal Ker 0.

7.60. Mais alors, il en résulte que si a est algébrique sur K dans une
extension L de K, il l'est dans toute extension L' de K le contenant, et il
en est de même pour a transcendant. De plus le degré du polynôme minimal
sera le même.
En effet ce polynôme minimal, lui a ses coefficients dans K donc si on
notait
P le polynôme minimal pour l'extension L et
P' le polynôme minimal pour l'extension L'
on aurait P( a) = P' (a) = 0 donc P' E Ker 0 donc P divise P', et
P E Ker 01 d'où P' divise P et comme P et P' sont unitaires, on a P = P'.

7.61. Le degré n de ce polynôme minimal est alors le degré de l'élément a


sur le corps K.
Nous venons donc de justifier que, si Lest un sur-corps de K, et si
a E L" K, le plus petit sous-corps K(a) de L contenant K et a est de
deux types possibles :
260 Algèbre

- soit K (a) est espace vectoriel de dimension finie n sur K et alors a


est un zéro dans K(a) d'un polynôme P irréductible de K[X] de degré
n ~ 2,
- soit K(a) est le corps des fractions de K[a] et il sera de dimension
infinie en tant qu'espace vectoriel sur K et aucun polynôme P de K[X]
n'admet a pour zéro.
On peut considérer le problème dans l'autre sens et, partant de
P E K[X], P irréductible de degré 2 au moins, constitue un (ou des)
sur-corps de L dans lequel P admettra au moins un zéro.

7.62. La méthode de l'adjonction symbolique due à Cauchy permet de


résoudre cette question.

THÉORÈME 7.63. - Soit un corps K et un polynôme P E K[X] irréductible


de degré 2 au moins. Il existe au moins une extension algébrique simple L
de K contenant un zéro a de P. Si Li est une autre extension algébrique
simple de K contenant un zéro de P, alors L et Li sont isomorphes.

Le polynôme Pest irréductible donc l'idéal principal (P) qu'il engen-


dre est maximal (Théorème 7.24), l'anneau quotient L = K[X]/(P) est
donc un corps (Théorème 5.43).
Soit cp l'application de K dans L définie par :
'Vk E K, cp(k) =la classe du polynôme constant k dans L. On sait que
cp est un morphisme d'anneaux. Il est injectif car cp(k) = cp(k') {::? k-- k'
multiple de P, {::? k - k' du type PQ, avec k - k' de degré :::;;; 0 et si Q =f 0,
d0 (PQ) ~ d0 P ~ 2. C'est donc que Q = 0 d'où k = k1 •
Si on identifie K et son image cp(K) dans Lon peut dire que L devient
un sur-corps de K. On retrouve le type de situation qui conduit à dire que
N est contenu dans l lui-même « contenu» dans Q.
Soit alors a la classe du polynôme X dans le corps L. Si le polynôme
P s'écrit P( X) = ao +ai X+ ... + anXn, (avec les an E K) la structure
quotient implique que 0, classe de P dans L vérifie

ou encore, comme les cp(aj) sont identifiés aux éléments aj de K, que

0 = ao +ai a+ . .. +an an : dans L, le polynôme P admet a pour zéro.

Comme pour A E K[X], la division euclidienne de A par P conduit à


une relation du type
A(X) = P(X)S(X) + R(X) avec d0 R < d0 P, si on a
Les polynômes : construction de C 261

R(X) = ro + riX + ... + rkXk, (et k < n) il vient


classe(A) = ro +ria+ ... + rkak,
d'où Lest l'ensemble des éléments du type ro +ria+ ... + Tn-ian-i
avec r j E K : L = K (a) est extension algébrique simple de K et contient
un zéro a de P.
De même que pour le théorème 7.58, on justifierait que si Li = K(b)
est une autre extension algébrique simple contenant un zéro b de P
irréductible, on a L et Li isomorphes par la bijection 'ljJ qui à l'élément
générique ro+ria+ .. . +rn-ian-i de L associe ro+rib+ ... +rn-ibn-i
dans Li = K(b). •
DÉFINITION 7 .64. - Un corps L construit comme au théorème 7.63 s'appelle
un corps de rupture du polynôme P.

Soit alors P irréductible sur K, de degré~ 2. On construit un corps de


rupture Li de P; dans ce corps P admet au moins un zéro a donc X - a
divise P E Li[X]. En fait P n'est plus irréductible dans Li[X]. On va
justifier, par récurrence sur le degré de P, le fait qu'il existe un sur-corps
de K dans lequel P sera scindé.

DÉFINITION 7.65. - Soit P E K[X]. On appelle corps de décomposition,


ou corps des racines, de P tout sur-corps L de K dans lequel Pest scindé.

THÉOÈME 7.66. - Tout polynôme P de K[X] admet des corps de décom-


position.
On procède par récurrence sur d0 P.
Si d0 P = 0, P est scindé sur K qui convient. Il en est de même si
do.P = 1.
Supposons le résultat acquis pour des polynômes de degré n - 1 au
plus.
Soit P de degré n, et Q un diviseur irréductible dans K[X] de P,
(éventuellement Q =Psi Pest irréductible). On a vu que Q admet un
corps de rupture Li, dans lequel existe a racine de Q avec a fj K si
d°Q ~ 2. Donc il existe k entier~ 1 tel que dans Li[X], (X - a)k divise
Q donc P. En écrivant P =(X -a)kPi on a Pi E Li[X], d0 Pi< n donc
Pi admet un corps de décomposition L2, sur-corps de Li donc aussi de
K.
Dans L2[X], Pi est scindé, a E Li C L2 :::? dans L2[X],
P(X) =(X - a)kPi(X) est scindé. •

REMARQUE 7.67. - Le fait de savoir que tout polynôme de K[X] admet


des corps de décomposition permet de faire certains raisonnements du
type suivant.
262 Algèbre

Soit A E Mn(K), matrice carré d'ordre n sur K, de polynôme


caractéristique P, et L un corps de décomposition de P. La matrice A
considérée dans Mn(L), (possible car K se plonge dans L) ayant son
polynôme caractéristique scindé est trigonalisable, donc en travaillant sur
la forme triangulaire, on justifie que si (À1, ... , Àn) est le spectre de A
dans L, pour tout polynôme Q, la matrice Q(A) aura Q(À1), ... , Q(Àn)
pour spectre. Or la matrice Q(A) se calcule dans Mn(K) si Q est à
coefficients dans K, donc son spectre ne dépend pas du voyage fait dans le
sur-corps, et le spectre de Q(A) sera, dans K, l'ensemble des Q(Ài) E K.
(Attention : les Ài ne sont pas forcément toutes dans K).

DÉFINITION 7 .68. - Une extension L de K est dite algébrique sur K si tout


élément de L est algébrique sur K.

Par exemple IR n'est pas extension algébrique de Q. C'est ainsi que


Hermite a démontré en 1873 que e est transcendant, Lindemann a établi
la transcendance de 7r en 1882, et Liouville celle des nombres du types
OO
~ 1
L.., -10 , avec 0 < ao < ai ... < ak < ... et -hm
.-ak+I
- - = +oo
ak k-++oo ak
k=O
Justifier la transcendance d'un réel n'est pas chose facile!

DÉFINITION 7.69. - On appelle clôture algébrique L d'un corps K, toute


extension L de K qui soit un corps algébriquement clos.

Par utilisation de l'axiome de Zorn, on justifie alors le résultat impor-


tant suivant :

THÉORÈME 7.70. (De Steinitz). -Tout corps K admet une clôture algébri-
que.
Résultat que nous admettrons.

Ce résultat qui affirme l'existence de la clôture algébrique ne la


caractérise pas. Dans le cas du corps IR au départ, il se trouve que la simple
construction de C corps de rupture de X 2 + 1 nous fournit une clôture
algébrique de R Ce résultat découvert par d'Alembert s'appelle encore
parfois théorème fondamental de l'algèbre bien que ses justifications
fassent intervenir de l'analyse.
Construisons d'abord C. Le polynôme X 2 + 1 est irréductible sur IR,
car tout À réel a un carré À 2 ;;;.: 0, donc différent de -1.
Soit C un corps de rupture de X 2 + 1 sur Il, C et une extension
algébrique de degré 2 sur R et si i désigne une racine de X 2 + 1 dans C,
Les polynômes : construction de C 263

les éléments de C s'écrivent a + ib avec a et b réels. De plus C est espace


vectoriel de dimension 2 sur IR, avec l'addition définie par

a+ib+ (a' +ib1 ) = (a+a') +i(b+b').

Pour le produit, on a (a+ ib)(a1 + ib1 ) = aa1 + i(ba1 +ab')+ i 2 bb', or


i2 = -1, donc le produit s'écrit encore
(a+ ib)(a' + ib1) = (aa' - bb1) + i(ab' + ba1).

On retrouve les règles usuelles, que l'on pouvait prendre pour définir
une structure sur IR 2 , et vérifier ainsi que l'on a un corps alors qu'ici on
sait que l'on a un corps.
On suppose donc acquises toutes les propriétés usuelles sur C.

THÉORÈME 7.71. (de d'Alembert). - C est un corps algébriquement clos.

Il en existe une justification par l'analyse, faisant intervenir les pro-


priétés des séries entières de variable complexe, et la formule de Green
Riemann, je la donnerai après l'étude des séries entières.
Il en existe une justification dite «algébrique», due à Gauss, d'où le
nom de théorème de d'Alembert-Gauss qu'on lui donne parfois. J'ai mis le
algébrique entre guillemets car elle utilise de l'analyse, à savoir le

LEMME 7.72. - Soit P E IR[X] un polynôme de degré impair, il s'annule


sur IR.

En effet P étant de degré impair a des limites infinies de signes


opposés en +oo et -oo donc il s'annule sur IR, (théorème des valeurs
intermédiaires pour une fonction continue.) •

Pour justifier le théorème de d'Alembert, à ce stade il nous faut admet-


tre des résultats sur les polynômes de plusieurs variables, symétriques.
Soit Q(Xi, ... , Xn) E K[X1, ... , Xn] un polynôme de plusieurs
variables. (Je sais, je n'ai pas dit ce que c'est, tant pis, allez voir ailleurs). Il
est dit symétrique si, Vu E Sn. Q(Xu(l)• ... , Xu(n)) = Q(X1, ... , Xn)·
Et dans ce cas il existe un autre polynôme R E K[X1, ... , Xn], tel que
Q(X1, ... ,Xn) = R(u1,u2, ... ,un) avec les Uj fonctions élémentaires
264 Algèbre

symétriques des Xj, à savoir:·

01 = X1 + X2 + ... + Xn
a2 = X1X2 + X1X3 + ... + X1Xn + X2X3 + ... + XnXn-1
= somme des produits 2 à 2,
a3 = somme des produits 3 à 3, et pour finir
O'n = X1 ... Xn, produit des n variables.
Il y a donc en fait tout un travail à fournir pour avoir le théorème de
d'Al~mbert. Personnellement, j'aime mieux la justification par l'analyse ...
Soit alors Q E K[X] un polynôme scindé. Si on écrit à la fois

Q(X) = aoXn + a1xn-l + ... +an, avec ao =/:- 0


n
et Q(X) = ao II (X - Ài)
i=l

en mettant en évidence les racines de Q distinctes ou non, on aura

Q(X) = ao [xn - (À1 + ... + Àn)xn-l


+ ( L: produits 2 à 2 des Ài) xn- 2 - ( L: produits 3 à 3 des Ài) xn- 3
+ ... + (-l)nÀl ... Àn]
d'où les relations dites symétriques entre les racines de Q :

_ a1
_ a2 _ a3 _ n an
7.73. O'l - (-1) 2 - , 0'3 - (-1) 3 - , ... , O'n - (-1) - .
- - , 0'2 -
ao ao ao ao
Il faut remarquer que, si sur le corps K le polynôme Q n'est pas scindé
on peut introduire K corps de décomposition de K, factoriser Q dans
K[X] pour justifier les relations précédentes et obtenir ainsi le fait que
même si les Àj ne sont pas dans K, leurs fonctions symétriques y seront
car les (-1) kak
- sont dans K.
ao
Passons alors à la justification de d'Alembert-Gauss. Soit un polynôme

P(X) = aoXn + a1xn-l + ... +an E C[X],


on introduit
Les polynômes : construction de C 265

(avec ak = ak - i/3k si ak = ak + i/3k, ak et f3k étant réels : c'est le


conjugué de ak).
Le polynôme Q = PP est à coefficients réels, car c'est un polynôme
de degré 2n, et pour j E [O, 2n], le coefficient b2n-j de Xi dans Q est
b2n-j = L akak> son conjugué b2n-j = L akaz, c'est donc
k,IE(O,n) k,IE(O,n)
k+l=2n-j k+l=2n-j
b2n-j vu le rôle symétrique des indices.
Le degré de Q peut s'écrire 2n = 2mn1 avec en fait n 1 impair et
m entier ;::: 1. Si on prouve que Q a une racine complexe z la relation
Q(z) = P(z)P(z) = 0 donnera P(z) = 0 ou P(z) = 0, mais en conjugant,
dans le 2e cas, on a P(z) = 0 : dans les 2 cas P aura un zéro dans C. Il
nous reste donc à justifier l'existence dans C d'un zéro de Q.
On va justifier ceci par récurrence sur m.
Soit L un corps de décomposition sur C, de Q et z1, ... , Z2n les zéros,
(distincts ou non) de Q dans L. On a, dans L[X], la factorisation
2n
Q(X) = aoao IJ (X - zj)·
j=l

Supposons donnés N nombres réels distincts ci, ... , cN. Pour chaque
indice k ~ N, soit le polynôme

C'est un polynôme symétrique en zi, z2, ... , Z2n racines 'de Q, à coeffi-
cients réels, (1 est coefficient de X, -1 celui de ZiZj et -ck celui de Zi et
de Zj), donc d'après le résultat admis, Qk est un polynôme à coefficients
réels par rappo:d:...au:x fonctions symétriques élémentaires des Zj, donc fi-
~ b
nalement des ( -1) r b~ , avec les br coefficients réels de Q : on obtient Qk
polynôme en X à coefficients réels. Quel est son degré : c'est le nombre
2 2n(2n - 1) .
de parties à 2 éléments dans {1, ... , 2n}, donc C2 n = 2 soit
n(2n - 1) = 2m-l · n 1(2n - 1) avec n 1 (2n - 1) impair.
Supposons d'abord m = 1. Alors chaque Qk, de degré impair admet
un zéro réel, donc complexe.
Soit tk ce zéro : il existe ik et ik avec 1 < ik < ik ~ 2n et
tk = ZikZjk + Ck(Zik + Zjk).
Si on suppose N > n(2n - 1), il existe forcément deux indices k et k'
distincts associés au même couple (ik,ik) avec 1 ~ ik < ik ~ 2n. On a
266 Algèbre

donc

tk = ZikZjk + Ck(Zik + Zjk)


et tk' = ZikZik + Ck1(zikZjk) réels donc complexes.
On a un système linéaire permettant de calculer a = Zik + Zjk et
tk - tk'
b = ZikZjk· Les ck étant distincts, ck - ck' =f 0 et on trouve a= - - -
Ck - Ck'
Ck'tk - Cktk'
et b = , relations qui prouvent que a et b sont complexes et
Ck' - Ck
non dans L" C.
Mais alors Zik et Zjk sont solutions de

(X - Zik)(X - Zjk) = X2 - aX + b E C[X].

Or X2 - aX + b= (X - ~) 2 - (a
2
~ 4b).
En posant a 2 - 4b = u + iv avec u et v réels on vérifie alors que :

~ ( Vu+Ju2+v2+iV-u+Ju2+v2) 2 =u+ijvj,
(ne pas oublier que./Ji= Jvj).
Donc si V~ 0, 8 = ~(Vu+ vu 2 + v2 + iV-uvu2 + v2) est dans
C tel que 82 = u + iv, (et si v < 0 on remplace i par -i dans 8).
On a donc 8 E c tel que X2 - aX + b = (X - ~) 2 - 82 d'où Zik et
a±8
Zjk dans C car du type - 2- avec a et 8 dans C.
Donc si m = 1, Q admet au moins 2 racines complexes, (éventuelle-
ment confondues).
Si on suppose le résultat vrai four m - 1, on repart comme précédem-
ment, les Qk sont de degré 2m- . (nombre impair) donc ont des racines
complexes. La même mise en forme aboutit à Q admet 2 racines com-
plexes, (distinctes ou non), et finalement on a bien justifié le fait que
P E C[X] admet au moins un zéro sur C, (avec bien sûr d0 P ~ 1).
Il est bien évident que, par application itérée de ce résultat et après
factorisation des (X - racine trouvée), on a : tout polynôme P de C[X]
est scindée sur C. •
Les polynômes : construction de C 267

COROLLAIRE 7.74. - Les seuls polynômes irréductibles de IR[X] sont les


constantes non nulles, les polynômes de degré 1 et ceux de degré 2 sans
racine réelle.

Il est clair que les constantes non nulles et les polynômes de degré 1
de IR[X] sont irréductibles.
Soit P de degré ~ 2, irréductible sur IR. En particulier P est sans
racines réelle (car si À racine, Pest divisible par X -À, (Théorème 7.38).
Mais P, dans C, admet des racines. Soit À = u + iv avec v =f. 0 un
zéro de P. On a P(.X) = 0 d'où en conjuguant P(.X) = 0 soit P(X) = 0
puisque P est à coefficients réels.
Comme dans C on a À =f. X, les polynômes X - À et X - X sont non
associés (définition 7.32) donc Pest divisible, dans C[X], par

(X - .X)(X - X)= (X - u - iv)(X - u + iv)


=(X - u) 2 + v2 = X 2 - 2uX + (u 2 + v 2 ) E IR[X].
Donc il existe Q dans IR[X] tel que P(X) = (X 2 - 2uX + u 2 + v 2 )Q(X),
car, la division euclidienne, faite dans IR[X] donne une identité P =

.
(X 2 -2uX +u2 +v 2 )Q 1 +R1, valable aussi dans C[X] et la divisibilité de
P par X 2 -2uX +u2 +v 2 dans C[X] donne Ri = 0, d'où Qi = Q E IR[X].
Comme P est irréductible, c'est que d0 P = 2 et Q est un scalaire réel non
~.

Enfin, pour conclure cet aspect constructif des grands ensembles


mathématiques, passage de N à l puis à Q par symétrisation de demi-
groupe, puis de Q à IR par complétion et de IR à C par corps de rupture
qui est en même temps une clôture algébrique, signalons que la clôture
algébrique de Q n'est pas C : des nombres trancendants comme e ou 7r
ne sont pas algébriques sur Q. De plus, on démontre que le cardinal de
la clôture algébrique de Q est celui de Q c'est-à-dire que ce corps est
dénombrable.
268 Algèbre

EXERCICES

1. Soit P E IR[X]. Existence et unicité de Q E IR[X] tel que Q(O) = 0


et P(X) = Q(X) - Q(X - 1).

n-1 l
2. Calculer II 1-ei'll"n
2 .k / .
k=l

1 1 . .
3. On pose 1Tn(z) = zn + - et R(z) = z +-.Montrer qu'il existe un
zn z
unique polynôme Pn E l[X] tel que, îiz E C*, 1Tn(z) = Pn(R(z)).
Montrer que les racines de Pn sont réelles, dans [-2, 2].

4. TrouverlespolynômesPdeC(X] telsqueP(X 2 ) = P(X)P(X+l).

5. Quels sont les polynômes de K[X] ayant une fonction polynôme


associée constante, lorsque K =IR, puis K = 7L./27L..

6. Polynômes P E IR(X] tels que X 6 divise P(2X) - 2(P(X)) 2 + 1.

7. Trouver les couples (P, Q) E (R[X]) 2 tels que P 2 = l+(X 2 -l)Q2 .

8. Condition sur (p, q) E C 2 pour que X 8 + X 4 + 1 divise xsm +


pX4m + q, m fixé dans N*.

9. 1) Soit P E Q[X] irréductible sur Q. Montrer que ses racines (dans


C) sont simples.

2) et>. une racine dans C, de multiplicité m(>.) >


Soit P E Q[X],
1
2 d0 P. Montrer que >. E Q.
10. Soit P E IR[X] et zo E C avec P(zo) "!- 0 et P(z) - P(zo) qui admet
zo comme racine d'ordre ~ 2. Montrer qu'il existe T/ > 0, tel que
îip E]O,TJ[, card{z E C, iz - zol = p, IP(z)i = IP(zo)I} ~ 4.

n
ll. Soit P E R[X], scindé de degré n, P(X) = L akXk. Montrer que
k=O
pour tout k E {1, 2, ... , n - 1}, ak-1 ak+l ~ a~.
Les polynômes : construction de c 269

12. Soit une suite réelle (an)nEN*• avec ai > 0 et ap ~ 0 pour


p ~ 2. On lui associe les polynômes Pn, pour n dans N*, définis
n
par Pn(X) =L akXk.
k=l
1) Montrer que l'équation Pn(X) = 1 admet une unique racine
positive ou nulle notée Un.
2) Etude de la suite (un)·
3) Dans le cas particulier où, (Vn E N*), (an = n), déterminer
lim Un.
n->+oo

SOLUTIONS

1. C'est un problème où l'inconnue, Q intervient linéairement. On essaie de


voir si P est dans l'image d'un endomorphisme.
Soit n = d0 P, (si P =/= 0). On vérifie que Q doit être de degré n + 1.
Soit E = Vect(l, X, ... , xn) et F = Vect(X, X 2 , ... , xn+I ). Ces 2
espaces sont de dimension n + 1, et(} : F "-"+ E définie par 8(Q)(X) =
Q(X) - Q(X - 1) est injective, (8(Q) = 0 et Q =/= 0 =*• si z est un
zéro de Q, (dans C), alors '</k E Z, z + k est zéro de Q: absurde). Comme
dim(E) = dim(F), (}est bijective, donc pour P E E, il existe une et une
seule solution du problème dans F.

2. Les e2ik1r /n, k = 1, ... , n, sont les zéros de Xn - 1, sauf X = 1, donc les
xn - 1 2 n-1 Q( )
zérosde X-l =l+X+X + ... +X = X.
n-1
Les e 2ik7r/n _ 1 sont les zéros de R(X) = Q(X +1), donc II (e 2ik7r/n -1)

k=l
est le produit des racines de R(X) = xn-l + ... + n ce produit vaut donc

( -1 ) n-1 n. On a alors II 1-e•'lrn


n-1
1 1
= -.
2 .k /
n
k=l

3. Le lien entre zn + _.!.._ et z +.!.vient de ce que


zn z
270 Algèbre

d'où l'on tire

Comme 7r1(z) = 1 · R(z) = P1(R(z)) avec P1(X) =XE Z[X], et

7r2(z) = z 2+ z12 = ( z+~


1)2 -2 = P2(R(z)) avecP2(X) = X 2 -2 E Z[X]
on justifie par récurrence, l'existence de Pn(X) E Z[X], de degré n tel que
\:/z E c*, 7rn(z) = Pn(R(z)). De plus, P1 et P2 étant uniques, la relation
de récurrence donne l'unicité de Pn, et le fait que Pn soit de degré n.
z2 n + 1 i11: ik"
Comme 11"n(z) = - - - s'annule en Zk = e:m+-n, k = 0, 1, ... , 2n- 1
zn
et que pour k = 0, 1, ... ,n - 1, R(zk) = Zk + Zk = 2 cos()k avec pour
()k= 271" + k11", n valeurs distinctes de [O, 7r], on an zéros distincts de Pn
n n
de degré n dans [-2, 2] : les racines de Pn sont bien réelles et dans [-2, 2],
k7l")
ce sont les 2 cos ( 27r'n + -:;:;: , avec k = 0, 1, ... , n - 1.

4. On est sur C[X] où les polynômes sont scindés, on peut utiliser les zéros.
Les polynômes constants solutions sont P =
0 et P 1. =
Si P non constant est solution, soit a un zéro de P, on a P(a 2 ) = 0 donc
a 2 zéro de Pet plus généralement, Vn E N*, a< 2 n) est zéro de P. Donc si
a # 0 et /a/ # 1 on a déjà une infinité de la<2n) 1 distincts : absurde, d'où
a=Oou a= 1.
Mais x = a-1 est aussi tel que P(x 2 ) = 0, ... d'où a-1 = 0 ou la-li = 1.
Les 2 cercles ri = {z, lzl = 1} et r2 = {z, lz - 11 = 1} se coupent en
1 iyfg 1 iyfg . 1 iyfg
a = - + - - et - - - - Mais avec é = 1 ou -1 et a = - + é - -
2 2 2 2· ' 2 2
2 1 i::iv'3
on a (a - 1) = - 2 - - 2 - ~ (r1 n r2) U {O, 1} : ces valeurs de a sont
exclues. Il reste a E {O, 1}.
Si on prend P(X) = kXP(X - l)q, la relation P(X 2 ) = P(X)P(X + 1)
devient kX 2P(X 2 - l)q = k 2 XP (X -l)q (X+ l)P Xq, vérifiée pour k = 1
et p = q, (k # 0 car on a supposé P non nul).
Les solutions sont donc 1, 0 et les polynômes du type XP(X - l)P, p EN*.

5. Si P de R[X], non constant, a une fonction polynôme P de valeur constante


k, le polynôme P(X) - k admet plus de n = d 0 P zéros.
Soient ai, ... , an+i. n+ 1 éléments distincts de R, on aurait donc P divisible
n+l
par IJ (X - aj ), (Théorème 7.38), donc d 0 P > d 0 P : absurde.
j=l
Les polynômes : construction de C 271

Seuls les polynômes constants de R[X] ont une fonction polynôme constante.
Si K = Z/2Z, les valeurs de la fonction polynôme associée à P sont P(O),
P(l) et le couple (P(O), P(l)) peut valoir (0, 0), (0, 1), (1, 0), (1, 1). Dans
les 2 cas extrêmes, la fonction polynôme sera constante.
Or P(O) = P(l) = 0 <==> P(X) = Q(X)X(X + 1), (Théorème 7.38),
et P(l) = P(O) = 1 <==> P(X) = Q(X)X(X + 1) + 1,
d'où les solutions du type P = X(X + l)Q +>..avec>.. E K = Z/2Z.

6. En posant Q(X) = P(2X)-2(P(X)) 2 +1 on a X 6 divise Q si et seulement


si Q(O) = Q' (0) = Q" (0) = ... = Q( 5 ) (0) = O.
Q(O) = P(O) - 2(P(0)) 2 + 1 = 0 conduit à P(O) = 1 ou P(O) = -~.On
trouve ensuite ·
Q'(O) = P'(0)(2 - 4P(O)) = 0 => P'(O) = 0 dans les 2 cas.
Q"(X) = 4P 11 (2X) - 4P 12 (X) - 4P(X)P"(X) conduit à
P"(O)(l - P(O)) =O.
Si P(O) = 1 => P"(O) =a ER; P(O) = -~ => P"(O) =O.
Q( 3 ) (X) = gp( 3 ) (2X) - 12P' P" - 4P P"', donc Q( 3 ) (0) 0
4p( 3 )(0)(2 - P(o)) => p< 3 l(o) =o.
Q( 4 )(X) = 16P< 4 \2X) - 12(P") 2 - 16P1 P"' - 4pp( 4 ), donc
Q( 4 )(o) = 0 = 4p< 4 \0)(4 - P(O)) - 12(P"(0)) 2 .
Si P(O) = 1 => p( 4 )(0) = a 2 ; si P(O) = -~ => p( 4 )(0) =o.
Enfin Q 5 (X) = 32p( 5 ) (2X) - 40P 11 P"' - 20P1 p( 4 ) - 4P p( 5 ) donne
Q( 5 ) (0) = 4p(5 ) (0) (8 - P(O)) = 0 <==> p( 5 ) (0) = O.
Les polynômes P sont donc du type
1 x2 a2x4
- 2 +X6 R(X) ou 1 +a T + ----U- +X6 R(X) avec RE R[X].

7. On a P · P + (1 - X 2 )Q · Q = 1 donc, (Bézout), P et Q sont premiers


entre eux. Pour considérer les degrés on écarte le cas nul en l'examinant. Si
Q = 0, P = 1 ou P = -1 donne des solutions. Mais P = 0 ne donne pas
de solution. Pour Q =/. 0, on doit avoir P =/. 0 et d 0 Q = d 0 P - 1.
On dérive la relation: 2PP1 = 2Q[XQ+(X 2 -l)Q'], avec PetQ premiers
entre eux donc Q divise P', et comme d0 Q = d0 P', on a >.. réel tel que
Q = >..P'. Alors P 2 = 1 + >.. 2 (X 2 - l)P12 . Si P, (non nul) est de degré n
et de coefficient directeur a en identifiant les termes de plus haut degré on
obtient a2 = >.. 2n 2a2 d'où>..=±~.

Comme il est clair que si (P, Q) est une solution, (i::1P, i::2Q) avec i::1 et i::2
1 P'
égaux à 1 ou -1 en est une autre, on suppose >.. = - et Q = - .
n n
272 Algèbre

'2
On cherche P polynôme de degré n, vérifiant P 2 = 1 + (x~ - 1) P 2 , ou
n
encore (1 - x 2 )P12 - n 2 (1 - P 2 ) =O.

L'équation différentielle h I

1 - y2
= ± ~ que doit vérifier la restric-
1-x2
tion, y, de P à] -·1, 1[, conduit à
Arcsiny = ±(n Arcsinx + k) et à y= ±sin(n Arcsinx + k)
soit à y= ±[sin(n Arcsinx)cosk + cos(n Arcsinx)sink].

Un calcul classique conduit à sin n(} = cAcosn-l(}sin 9-C~cosn- 3 (}sin3 9+


... et à cosn9 = cosn(} - c;cosn- 2 (}sin 2 (} + ...
Sin est pair, les cosn- 2k-l(Arcsinx) contiendront v'f"=-X2 en facteur, ce
ne sera pas un polynôme, donc cos k doit être nul, de même n impair impose
sin k nul et on trouve :
sin= 2p, P(X) doit être du type ±cos(2p Arcsinx) sur] - 1, 1[
et sin= 2p+l, P(X) doit être du type ±sin((2p+l)Arcsinx) sur ]-1, l[.
Il reste à vérifier que ces polynômes vérifient la relation du départ, (car on
a dérivé), avec Q = ~ P', (e E {-1, 1} ).
n
Si par exemple P = e1 cos(2p Arcsinx), alors
ee1 2p sin(2pArcsinx)
Q =-
2- ~ .et p2 + (l -x 2)Q2 =cos 2( 2p A rcsmx
· )+
P vl-x-
sin2(2pArcsinx) = 1.
On vérifierait de même que la solution trouvée dans le cas n = 2p + 1
convient.

8. Une condition nécessaire et suffisante est que les racines de X 8 + X 4 + 1


soient racines de X 8 m + pX 4 m + q avec des multiplicités supérieures ou
égales.
Or (1 + X 4 + X 8 )(1 - X 4 ) = 1 - X 12 : les zéros cherchés sont simples,
.• .• 2ik1T
ce sont les racines 121eme de l'unité, non racines 4ieme, soit les e 1 2 avec
Sm 2ik" 4 m 2ik"
k = 1,2; 4,5; 7,8; 10, 11, on doit donc avoir e + pe 1 2 + q = 0
12
2i" 2ik7r 2i7r
pour ces valeurs de k. Avec j = e 3"", comme 4m · l2 = mk 3" on doit
avoir j2mk + pjmk + q = 0 pour k = 1, 2, 4, 5, ...
Il reste finalement les conditions
j2m + pjm + q = O, et j4m + pj2m + q = O,

car
j8m =j6mj2m = (j3)2mj2m =im etj4m =j3mjm =jm.
9. 1) Le polynôme P, irréductible sur Q n'a pas de diviseurs dans Q[X], il est
donc premier avec P', (qu'il ne divise pas) donc 3U et V dans Q[X] tels que
UP+ VP' = 1.
Les polynômes : construction de C 273

Comme Q[X] est plongé dans C[X], si>. était racine, (dans C), multiple de
P, on aurait P(>.) = P'(>.) = 0 d'où 1 = 0: exclu. Donc les zéros de P,
dans C, sont simples.
2) On suppose cette fois que P admet, dans C, un zéro >. de multiplicité
m(>.) > ~ d0 P.
L'idéalI = {Q;Q E Q[X],Q(>.) = O} est principal, et il contient P. Soit A
un générateur de I, >.est racine simple de A, sinon A'(>.)= 0, A' E Q[X]
et d 0 A' < d 0 A avec A' multiple de A, c'est absurde.
Avec P1 E Q[X] tel que P = APi, on a>. racine simple de A et d'ordre m(>.)
de P donc>. racine d'ordre m(>.) - 1 de P1. Sim(>.) > 1, alors P1 E I: il
existe P2 tel que P1 = AP2 et P = A 2P2. Sim(>.) > 2, on a>. zéro d'ordre
m(>.) - 2 de P2 qui est donc multiple de A, on itère et finalement il existe
un polynôme Pm(À) tel que P = Am(À) Pm(À)·
Si >. If. Q, A ne peut pas être de degré 1, donc d° A ;:.:: 2 =} Jl(Am(À)) ;:.::
2m(>.) > d0 P, c'est absurde.
Donc>. E Q.

10. Si P(z) - P(zo) admet zo pour zéro d'ordre q ;:.:: 2, P', P", ... , p(q-l)
sont nuls en zo, d'où par Taylor Young, l'existence d'un développement limité
P(zo + h) = P(zo) + aqhq + o(hq) avec aq =I= O. On a alors

Comme aqP(zo) =I= 0, posons aqP(zo) = Aei"' avec A > Q, et soit h = pei9 ,
ona

Avoir IP(zo + pei 9 )1 = IP(zo)I équivaut, (pour p =I= 0) à avoir tel que e
pqA(ei(qe+a) + e-i(qB+a) + o(l)) =O.
Soit <.p(B) = 2 cos(qB +a)+ o(l), soit c E]O, 1[ fixé, il existe T/ > 0 tel que
2k7r - a
p = lhl E]O,TJ['* lo(l)I < c < l.Maisalorscommecos ( q· q +a) =
2k7r + 7r - a
cos2k7r = 1 et cos ( q · q +a) = cos(2k + l)7r = -1, on a

<.p (
2k7r -
q
Q) > 0 et <.p (2k7r +q7r - Q) < 0, la fonction <.p s'annule sur
.
les intervalles
J-n7r- q- -a, n7r +q7r - a [ .
, ceci pour 0 ~ n < 2q : on a 2q

intervalles de ce type dans [ - ~, 27r - ~ J d'où 2q ·;:.:: 4 éléments z = zo + h


avec lhl = p tels que IP(z)I = IP(zo)I et ce pour tout p E]O, TJ[.
274 Algèbre

n p(k) (0)
11. Comme P(X) = 2:-k-!- Xk, les ak sont liés aux p(k)(O). Soit
k=O
xi, ... , Xr les zéros réels distincts de P, de multiplicités ai, ... , ar, indexés
en croissant: xi < x2 < ... < Xr. On a ai+ a2 + ... + ar = n, (P scindé)
puis xi, ... , Xr sont zéros d'ordre ai - 1, ... , ar - 1 de P' et, par Rolle,
entre Xi et Xi+ i, P' s'annule, donc on a yi, ... , Yr-i. soit r -1 autres zéros
r
de P' qui admet donc L (ai - 1) +r - 1 =n - 1 zéros. On a P' scindé,
i=i
et par récurrence chaque polynôme p(j) est scindé.

Puis pour Q = fr
i=i
(x - Zi); scindé, (les Zi distincts ou non), on a ~
Q"Q-Q'
Lp

i=i
--
1 .
donc, en dénvant,
X - Zi
Q 2
2
= - Lp

i=i
( 1
) donc, pour
X - Zi
2

x 't { zi, ... , Zp} on a Q" Q - Q 12 ~ 0, résultat vrai aussi pour les Zi par
continuité.
On applique ceci pour le polynôme Q = p(j- i), cela donne p(j + i) p(j- i) -
(P(jl) 2 ~ 0, et en 0 on obtient

d'où

n+i
12. On constate que P~+i (x) =ai+ L kakxk-i, donc P~+i (x) ~ ai >0
k=2
sur [0, +oo[: la fonction Pn+i est strictement croissante sur [O, +oo[, avec
Pn+i(O) = 0 et lim Pn+i(x) = +oo, il existe donc un et un seul un+i
x--++=
tel que Pn+i(un+i) = 1, et ce pour tout n ~ 1. Comme Pi(x) = aix est
aussi croissant de 0 à +oo, ui existe de même.
2) On a

Donc

vu la croissance de Pn+l> c'est que un+i ~ Un.


La suite (un)nEN> décroissante, minorée par 0 est donc convergente.
Les polynômes : construction de C 275

3) On a P2(X) = X+ 2X 2, donc P2(X) = 1 # 2X 2 +X - 1 = 0


1 1 .
# X = -1 et X = 2, on veut u2 > 0, donc u2 = 2, et, par décroissance,

'Vn ~ 2, Un E [0, ~].


~spolynômes Pn avec Pn(X) =X +2X 2 +3X 3 + .. . +nxn font penser
à la dérivée de la série entière de -1 1 .
-X
OO

Pour Jxj < 1 on a L xn = 1 ~ x d'où par dérivation terme à terme des


n=O
séries entières sur l'intervalle ouvert de convergence,

'""'
OO

L.,, nx
n-1 1. n'"°'
OO
X
= (1- x)2 et L.,, nx = (1 - x)2.
n=l n=l
OO

Si on pose Rn(x) = L kxk, on a donc la relation


k=n+l
X
Pn(x) + Rn(x) = (l _ x) 2 ,

et en particulier

La suite des fonctions Rn converge uniformément vers 0, sur [0, ~],les un,
pour n ~ 2 sont dans [o, -12 ], donc lim
n-++oo
(l Un
- Un
)2 = 1 et c'est aussi

(l ~ l) 2 en notant l = n.!!~oo' qui existe, avec l E [0, ~].


L'équation l 2 - 3l + 1 = 0 donne l = 3 ±2v'5' mais la seule racine dans

1] 3-v'5 . 3-v'5
[0, 2" est l = --2- , donc n.!!~oo Un = --2- .
CHAPITRE 8

Calcul matriciel

Le calcul matriciel n'est pas pour moi une fin en soi, mais un outil
permettant la tanscription commode des propriétés d'algèbre linéaire, ou
multilinéaire. C'est pourquoi ce chapitre sera assez bref et consacré à la
mise en place précise des règles d'emploi du calcul matriciel.
Je laisse les richesses de ce calcul, liées à la forme particulière de
certaines matrices aux amateurs et utilisateurs spécialisés.

1. Définition des matrices

On va mettre en place essentiellement un ensemble de conventions.


Soit E et F deux espaces vectoriels, de dimensions finies respectives q et
p, sur un corps K. On fixe une base B = (e1, ... , eq) de E ainsi qu'une
base C = (e1, ... ,ep) de F.
Soit alors u E L(E, F), u est caractérisée par la donnée des q vecteurs
u( ej) pour j = 1, ... , q, et chaque u( ej) est lui même caractérisé par la
donnée de ses coordonnées dans la base C de F. On a ·
p
8.1. u(ej) =L Ui,jêi, avec ui,j E K,
i=l

d'après les Théorèmes 6.75 et 6.77.


L'application u est donc caractérisée par la donnée des pq scalaires
Ui,j> à condition d'avoir un moyen clair de retrouver les images u(ej)·
On dispose ces scalaires sous forme d'un tableau formé de q colonnes,
chaque colonne étant constituée des p composantes de u( €j) dans la base
(e1, ... , êp) et on appelle matrice de p lignes et q colonnes ce tableau U,
noté
278 Algèbre

un u12 Uij Uiq

8.2. U= Uil Ui2 Uij Uiq

Upl Up2 Upj Upq

Dans ce tableau, le 1er indice est celui de la ligne, il est constant sur
la même ligne, le 2e est celui de la colonne.
Un tel tableau se lit donc déjà en colonnes, la jième colonne donnant
le vecteur u( ej) dans une base.

DÉFINITION 8.3. - On appelle matrice de type (p, q) sur le corps K, (ou


matrice à p lignes et q colonnes) tout tableau de pq éléments de K disposés
en p lignes de q termes chacune donc aussi en q colonnes de p termes
chacune.

THÉORÈME 8.4. -Il existe une bijection entre L(E, F) avec E et F vecto-
riels sur K de dimension respectives q et p, et l'ensemble noté Mp,q(K)
des matrices de type (p, q) sur K.

En effet, soit B = (e1, ... , eq) et C = (c1, ... , cp) des bases de E et
F respectivement, fixées.
Soit A = (aij) 1.;;io;;p une matrice de type (p, q) (c'est la notation
l~j~q
couramment employée).
A ce tableau on associe une seule famille de vecteurs (Vj)j=l...q de
F chacun étant connu par ses coordonnées (Œi,j )i=l...p dans la base C
(Théorème 6.75).
Comme il existe une seule application a linéaire de E dans F vérifiant,
'ï!j = 1, ... , q a(ej) = Vj, (Théorème 6.77), pour toute matrice A de
Mp,q ( K), il existe une et une seule application linéaire a de E dans F
ayant pour matrice A par rapport aux bases B et C fixées dans E et
dansF. •

Cette bijection va nous servir à définir des lois de composition sur


Mp,q(K), associées aux lois de composition entre applications linéaires.
Bien sûr, on peut aussi définir directement ces lois sur les matrices,
tableaux de nombres.
Une fois pour toute dans ce paragraphe, on a E et F vectoriels de
dimensions q et pet B = (e1, ... , ep) et C = (ê1, ... , cq) sont des bases
fixées de E et F respectivement.
Calcul matriciel 279

Soient alors u et v dans L(E, F) de matrices respectives U et V dans


ces bases, avec U = (Uij) i,;;i,;;p et V = (Vij) i,;;i,;;p.
l~j~q l~j~q

C'est que, Vj = 1, ... , q, on a


p p
u(ej) =L Uijé:i et v(ej) =L VijCi·
i=l i=l

Soient alors>. etµ deux scalaires et w = >.u + µv : c'est l'application


linéaire définie par les conditions :

Vj = 1, ... , q, w(ej) = >.u(ej) + µv(ej),


soit, dans la base C,
p
w(ej) = L(>.uij + µvij)ci·
i=l

8.5. Avec >. = µ = 1 on sera amené à appeler somme des 2 matrices U et


V la matrice W de terme général Wij = Uij + Vij.
Donc W = V + U est obtenue en ajoutant terme à terme, et la
bijection vue en 8.4 permet de dire que l'ensemble Mp,q(K) est muni
par cette addition d'une loi de groupe additif, commutatif, par transport
de structure. Si cp désigne cette bijection (voir 8.4) on a un isomorphisme
de groupe additif. ·
On peut aussi vérifier directement cette structure de groupe, la matrice
nulle ayant tous ses termes nuls et -U étant la matrice des -Uij si Uij
est le terme général, (ieme ligne, jeme colonne), de U.

8.5.bis De même, avec >. quelconque et µ = 0, on définit W = >.U comme


étant la matrice de terme général Wij = ÀUij• et pour1es lois somme
et multiplication par un scalaire on vérifie que Mp,q(K) est un espace
vectoriel.

THÉORÈME 8.6. - L'ensemble Mp,q(K) des matrices à p lignes et q


colonnes sur K est un espace vectoriel de dimension pq sur le corps K,
isomorphe à .C(E, F), si E et F sont vectoriels de dimensions respectives
q et p sur K.

En effet, B = (e1, ... , eq) et C = (c1, ... , cp) étant des bases de
E et F fixées, on sait que L(E, F), de dimension pq admet la base des
280 Algèbre

applications (uij) 1.-;;i.;;p définies par Uij(ej) = êi et Vk =fa j, Uij(ek) = 0,


l:s:;;j~q
(Théorème 6. 78).
Mais alors la matrice Eij associée à Uij dans les bases B et C, c'est-
à-dire la matrice dont tous les termes sont nuls sauf à la ieme ligne jeme
colonne où figure le scalaire 1, est telle que la famille des (Eij) 1.-;;i.;;p
1.-;;j.;;q
devient une base de Mp,q(K) car une matrice A quelconque de terme
p q
général O:ij s'écrit aussi A= L L O:ijEij et qu'une telle combinaison
i=l j=l
ne peut être nulle que si Vi = 1 .. . p, Vj = 1 ... q, O:ij =O. •

Transposition

On a vu que si u E L(E, F), on définit un homomorphisme tu de F*


dans E* ·par :

Vcp E F*, tu(cp) = cp ou,


(définition 6.100).
Si E et F sont de dimension finies respectives q et p, leurs espaces
duaux F* et E* seront de dimensions pet q, (6.108).
Si B = (e1, ... , eq) et C = (q, ... êp) sont des bases de E et F
respectivement, on peut alors chercher la matrice de l'homomorphisme
tu, dans les bases duales C* et 13*, en fonction de celle de u dans les bases
B etC.
On note donc A= (a:ij) 1.-;;i.;;p la matrice de u.
1::s;;j:E;;q

Pour connaître celle de tu, on va chercher à décomposer chaque tu(éj)


(pour j = 1, ... ,p) dans la base ei, ... , e~ de E*, donc la matrice de tu
aura q lignes et p colonnes.
Or tu(éj) = éj o u est l'application linéaire de E dans K qui à
q
x = LXiei associe éj(u(x)), avec:
i=l
q q
éj ( u( LXiei)) =L Xi(éj(u(ei)) par linéarité de éj ou.
i=l i=l
p
Or, u(ei) = L O:riêr, (attention, i est ici indice de colonne), et
r=l
Calcul matriciel 281

n
cj ( L Ctriér) = O'.ji• (coordonnée suivant éj du vecteur), donc
r=l
q
(cj ou)(x) = LCtjiXi, avec Xi= ei(x), on a
i=l

q q
8.7. Vx E E, tu(t:j)(x) = (Laiiei)(x) d'où tu(t:j) = Laiiei.
i=l i=l

O'.jl)
a·2
La ;"'™' oolonne de la matriœ asMciée à 'u est donc ( ~. , c'est-

Ct3q
à-dire la jÏème ligne de A en fait.

DÉFINITION 8.8. - Soit une matrice A E Mp,q(K). On appelle matrice


transposée de A la matrice à q lignes et p colonnes B de terme général f3uv
avec f3uv = Ctvu. pour 1 ~ u ~ q et 1 ~ V ~ p.

On note t A la matrice transposée de A, si A est à p lignes et q colonnes,


t A est à q lignes et p colonnes, mais surtout t A est la matrice de tu dans
les bases duales de celles où A est la nature de u.

THÉORÈME 8.9. - L'application A .....+ tA est un isomorphisme de l'espace


vectoriel Mp,q(K) sur Mq,p(K).

La vérification en est évidente.



2. Produit matriciel

Entre applications linéaires existe le produit de composition, moyen-


nant des hypothèses convenables. Qu'est-ce que cela donne pour les ma-
trices?
Soient E, F, G trois espaces vectoriels sur K de dimensions respec-
tives p, q, r.
B = (ei, ... ,ep); C = (ci, ... ,cq); V= (m, ... ,TJr) sont des bases
respectives de E, F et G.
282 Algèbre

Soient u E L(E, F) et v E L(F, G), données par leurs matrices U et


V de termes généraux respectifs Uij et Vkl· L'endomorphisme w = v ou
de E dans G va avoir une matrice W E M(r,p)(K) dans les bases B et V
de E et G. Si Wmn est le terme général de W, on voudrait le connaître.
Rien de plus simple: la nième colonne de W traduit la décomposition
de w(en) dans la base 111, ... , 11r· On a:
r q q
w(en) = L Wm,n17m = v(u(en)) = v(L UinE:i) = L UinV(é:i)·
m=l i=l i=l

Or v(ci) est connu par la ëème colo~e de V, donc


q r r q
w(en) = LUin L Vmi17m = L (LVmiUin)11m,
i=l m=l m=l i=l

en réordonnant suivant les vecteurs 171, 172, ... , 17r de la base 'D.
L'unicité de la décomposition d'un vecteur dans une base d'un espace
vectoriel donne alors
q
Wmn = L VmiUin·
i=l

DÉFINITION 8.10. - Soit A E Mq,p(K) et B E M(r,q) deux matrices.


On définit la matrice produit C = BA, de type (r,p), donc appartenant
à Mr,p(K) par la donnée de son terme général Cij pour 1 ~ i ~ r et
q
1 ~ j ~ p, avec Cij = L bikakj·
k=l
Schématiquement, on a

alj
a2j )
ëème
(
ligne
aqj
et la jième
colonne de
la 2e, A
et on somme les q produits terme à terme pour calculer Cij.
Calcul matriciel 283

8.11. Le produit C =BA n'a de sens que si le nombre de colonnes de B


est égal au nombre de lignes de A.
Par ailleurs le résultat C =BA est une matrice dont:
- le nombre de ligne est celui des lignes de B,
- le nombre de colonnes est celui des colonnes de A.
Avec ces règles, ce produit n'est pas commutatif, mais il est associatif
et il y a distributivité.
Ces résultats proviennent en fait des mêmes propriétés pour les
endomorphismes, et des bijections associant matrice et homomorphisme
quand les bases sont fixées.

Cas particulier des matrices carrées d'ordre n

THÉORÈME 8.12. - L'ensemble noté Mn(K) des matrices carrées d'ordre


n sur K est un anneau pour l'addition et le produit matriciel, unitaire,
non commutatif, non intègre.

C'est une algèbre, si on considère en outre le produit par un scalaire.


Ces résultats peuvent soit se vérifier directement, soit se déduire de la
structure d'algèbre non commutative, non intègre de Hom(E), (Théorème
6.29). •

Quel est le centre de Mn(K), c'est-à-dire l'ensemble des matrices A


carrées d'ordre n qui commutent avec toutes les autres?
Comme les matrices Ei,j, ayant tous leurs termes nuls sauf celui de
la ëème ligne, jÏème colonne qui vaut 1, forment une base de Mn(K), A
est dans le centre de Mn(K) si et seulement si A commute avec toutes
les Eij· .
Or toutes les colonnes de rang k =/:- j de Eij étant nulles, celles de
AEij le seront; de même toutes les lignes de rand l =/:- i de Eij A seront
nulles comme celles de Eij. On s'intéresse au terme de la ième ligne jième
colonne des 2 produits AEij et Eij A. On trouve

1 +- ëème position et (O ... 0 1. .. 0)


0 î
jième position

0
284 Algèbre

d'où l'égalité aii = ajj =a, constant en i.


Mais en prenant le terme de la zïème ligne jième colonne, on aura, si
l f= i, ali = 0 car la zième ligne de Eïj étant nulle, le 2e membre donne O.

Finalement A est dans le centre de Mn (K) <=> A =


(o
a aa Oa)·

DÉFINITION 8.13. - Une matrice carrée d'ordre n, A, de terme général (aij)


est dite diagonale <=> 'ïli f= j, aij = O. Elle est dite scalaire si et seulement
si elle est diagonale avec en outre aii = ajj =constante par rapport à i.

Nous venons. de voir que le centre de Mn(K) est formé des matrices
scalaires. Il

Application du produit

Soit E et F vectoriels de dimensions respectives met n, u E L(E, F)


et B = (ei, ... , em), C = (ê1, ... , ên) des bases fixées de E et F. Si
U = (Uïj) i.;;i.;;n est la matrice de u dans ces bases, il peut être utile d,e
l~j~m
calculer les coordonnées de y= u(x) dans la base C en fonction de celles
m
de x dans B. Posons x = LÇiei. On a
j=l

n m n
u(x) = Lçiu(ej) = L:ei(Luïjêï),
j=l j=l i=l

car la jième colonne de U donne les coordonnées de u( ej) dans la base C,


soit
n m
u(x) =L ( L UïjÇj )êi·
i=l j=l

n m
Si par ailleurs on note y= LYïE:i, il en résulte que Yi= L UïjÇj.
i=l j=l
On va globaliser ce résultat.
Calcul matriciel 285

En effet, on peut considérer la matrice X E Mm,l (K), donc à m


lignes et une colonne, formée des coordonnées de x dans la base B.

On a h ( !D et il eot mutile de mettre un 2" indiœ valant 1

pour la colonne, puisqu'il n'y en a qu'une.

Soit de même Y ~ ( ~) E Mn,i ( K) la matrice rolonne de•

coordonnées de y.
Si on effectue le produit U X on obtient une matrice dont
- le nombre de ligne est n, celui des lignes de U, et
- le nombre de colonne est 1, car X n'a qu'une colonne.
C'est donc une colonne U X dont le terme de la ëème ligne est

m
= LUijf.j·
j=l

8.14. C'est donc la matrice Y des composantes de y d'où: si X et Y sont


les matrices colonnes des composantes de x et y= u(x) dans des bases B
et C de E et F, on a Y = U X, produit matriciel, où U est la matrice de u
dans les bases B et C.

8.15. Calcul par blocs. Soit A E Mp,k(K) et B E Mq,p(K) deux


matrices. Le nombre de colonnes de B étant celui des lignes de A, le
produit C = BA a un sens.
On suppose les indices i de ligne de B groupés en r paquets du type
Ji= {l, ... ,q1}, h = {ql + 1, ... ,q2}; ... ;Ir= {qr-1+1, ... , qr},
(qr = q), et de même les indices de colonnes de B mais en même temps
ceux de lignes de A groupés en s paquets :

Ji = {1, ... ,pi}, ... , Js = {Ps-1+1, ... ,ps}, avec Ps = p,


enfin ceux de colonne de A en t paquets, ... K 1 = {1, ... , ki}, ...
Kt= {kt-1+1, ... , kt}, (kt= k).
286 Algèbre

On schématise ceci en notant :

~
Pl P2-P1
~
Ps-Ps-1
~ ~
k1 k2-k1
~
kt-kt-1
~

Ql I Bn Bi2 Bis An Ai2 Ait


I Pl
q2-q1 I B21 B22 B2s A21 A22 A2s I p2-P1
Qr-Qr-1 i Br1 Br2 Brs As1 As2 Ast i Ps-Ps-1
=BA,

où on note Auv la matrice extraite de A en ne gardant que les termes


d'indice de ligne dans le uième paquet et d'indice de colonne dans le vième
paquet.
Les produits matriciels BijAjl ont un sens car le nombre de colonnes
de Bij est le cardinal du jÏème paquet des indices de colonnes de B donc
également celui du jième paquet des indices de ligne de A.
Si on fractionne la matrice produit C = BA en blocs associés aux
lignes groupés en r paquets correspondant au groupement des lignes de
B, et aux colonnes groupés en t paquets associés aux paquets de colonnes
s
de A, on aura, pour le bloc générique de C, Cuv = L BulAlv• car pour
l=l
un indice i dans le uième paquets d'indices de lignes d~ B et un indice de
colonne dans le ·vième paquet d'indices de colonnes de A, on a

n Pl P2 Ps
Cij = L bikakj = L bikakj + L bikakj + ... + L bikakj,
k=I k=I k=p1 +1 k=Ps-1 +1

et on a la somme des termes génériques des BulAlv• lorsque l varie.


A quoi correspond cette décomposition en blocs?
On peut l'interpréter comme suit. Soit A la matrice d'un endomor-
phisme a de E dans F, dans des bases 13 et C de E et F respectivement.
On suppose les vecteurs de 13 groupés en t paquets, et soient

E1 = Vect(e1, ;ek1)
E2 = Vect(ek 1 +1, ... , ek2)
et enfin
Et= Vect(ekt-l + 1, ... , ekt), kt= k = dimE.
Calcul matriciel 287

De même la base C de F est fractionnée en s paquets et on note


Fl = Vect(ê1, ... ,êp1 ), ••• ,F8 = Vect(êp 5 _ 1 +1, ... ,êp5 ).
s
Si, dans F = E9 Fu on note 7ru la projection de F sur Fu et, dans
u=l
t
E = E9
Ev, si on note av la restriction de a à Ev alors, le bloc Auv
v=l
de A est associé à_ l'homomorphisme 7ru o av de Ev dans Fu, rapporté
aux bases {ekv-l+l• ... ,ekv} de Ev et {êpu- 1 +1, ... ,êpu} de Fu, avec la
convention ko = Po = O.

3. Matrices inversibles

Soit I un automorphisme de E, vectoriel de dimension n sur le corps


K, et A= (aij) i la matrice de I dans une base B fixée de E. Si B
1.;;;j,.;n

est la matrice de 1- 1 dans la même base, les égalités Io 1-(l ~ :-l ~)=

idE se traduiront, matriciellement par AB = BA = In = Q ·.. ,


1
matrice carrée d'ordre n.
Réciproquement, soit A E Mn(K) telle qu'il existe B E Mn(K)
vérifiant AB = In.
On peut introduire E = Kn, le rapporter à une base B = (ei, ... , en),
la base canonique par exemple, et introduire les endomorphismes u et v
de E ayant pour matrices respectives A et B dans la base B. Uégalité
matricielle AB = In impliquera la relation u o v = idE qui à son tour
implique l'injectivité de v et la surjectivité de u, (Théorème 1.20).
Comme u et v sont des endomorphismes de E de dimension finie on
sait alors que v injective est surjective et que u surjective est injective
d'où u et v bijectives et inverses l'une de l'autre.
Comme alors v o u = u o v, on aura BA = AB = In.

DÉFINITION 8.16. - Une matrice carré A de Mn(K) est dite inversible si


et seulement si il existe BE Mn(K) telle que BA= In ou AB= In, ces
deux égalités étant équivalentes.

On a donc justifié le
288 Algèbre

THÉORÈME 8.17. - Une matrice carré A de Mn(K) est inversible si et


seulement si c'est la matrice d'un automorphisme de E ~ Kn dans une
base fixée de E. •

On note GLn(K), (se lit groupe linéaire d'ordre n sur K), l'ensemble
des matrices carrés d'ordre n inversibles. Il est facile de vérifier que, pour
le produit de composition c'est Un groupe, non commutatif. Mais c'est non
stable par addition. ·

THÉORÈME 8.18. - Une matrice A carrée d'ordre n est inversible si et


seulement si t A E GLn(K) et (t A)- 1 = ~A- 1 ).

On a vu, (Théorème 6.107) que dans E vectoriel, (u E GL(E)) {::}


(tu E GL(E*)). De plus, la relation u o v = v o u = idE donne
t(u o v) = (tv) o (tu) =t (v ou)= (tu) o (tv) =t (idE).
Or t(idE), de E* dans E* est définie par:

'icp E E*, t(idE)(cp) = cp?idE = cp, soit t(idE) = idE*·

Donc (tu) o (tu)= (tu) o (tu)= idE*• d'où, si v = u- 1


(tu)- 1 = tu = ~ u- 1 ). Il ne reste plus qu'à traduire matriciellement ces
résultats, (Théorème 8.9), pour obtenir le théorème 8.18.

8.19. Changement de base. La nature humaine est telle qu'en général on


ne sait pas se contenter de ce qu'on a. Ainsi, au lieu d'être bien tranquille
à me reposer en vacances, je suis assis à mon bureau pour relire ces notes
et tacher de les améliorer. Ainsi, au lieu de traduire des données dans une
base d'un espace vectoriel E, s'empresse-t-on de chercher d'autres bases,
peut-être mieux adaptées aux données, (voir le chapitre X de la réduction
des endomorphismes), et se pose alors le problème de « changement de
base».
Soit donc B = (ei, ... , en) une première base de E ~ Kn, appelée
ancienne base.
On se donne une nouvelle base C = (e1, e2, ... , ên) de E. Chaque
vecteur de C est connu par ses coordonnées dans la base B. Comme
conventionnellement on disposera ces coordonnées en colonnes dans une
matrice, notons pour j = 1, ... , n,
n
êj = LPijei, et soit
i=l
Calcul matriciel 289

Plj
P2j P2n )
Pln
p= P~I
C"
Pnl Pnj Pnn
la matrice dont les colonnes sont des colonnes des coordonnées des nou-
veaux vecteurs en fonction des anciens. C'est la matrice de passage de
l'ancienne base B, à la nouvelle C.
Soit alors un vecteur x de E. Il nous faut savoir passer de ses
coordonnées dans une base, à ses coordonnées dans l'autre. Posons
n n
8.20. x = LXrer = LX~ês,
r=l s=l

~~mtX ~(]:)et X'~ (1) le•=IDœ, de•~~ de


x dans l'ancienne base, B, et la nouvelle, C, respectivement.
La seule chose logique à faire dans l'égalité 8.20, est de remplacer
chaque ês par sa décomposition dans la base B puis d'identifier les
coordonnées de x, (unicité dans une base donnée).
Ona
n n
x = L:x~(LPisei), on réordonne en ei,
s=l i=l
n n
x = L (LPisx~)ei·
i=l s=l

·Comme on a posé x =L Xiei, c'est que, 'Vi = 1, ... , n, on a :
i=l

Xi= Pi1Xi + Pi2X~ + · · · + PinX~.


Donc Xi est le terme de la ième ligne du produit matriciel PX', d'où
la relation matricielle X = PX' : la matrice de passage P de l'ancienne
base B à la nouvelle C, donne immédiatement les anciennes coordonnées
en fonction des nouvelles, et on lit en ligne dans P les coefficients de ce
changement de variable.
290 Algèbre

8.21. Intérêt de cette démarche : le plus souvent on connaît des équa-


tions f (x1, ... , Xn) = 0 dans l'ancienne base; en remplaçant chaque Xi
en fonction des xj on connaît les équations du même ensemble dans la
nouvelle base.

8.22. Inconvénient de cette démarche : si ce qui est connu est un vec-


teur dans l'ancienne base, on ne connaît pas directement ses coordonnées
dans la nouvelle base.
Mais la matrice P est régulière, (c'est-à-dire inversible ici), car si
on considère l'endomorphisme p : E t---+ E défini par Vj = 1, ... , n,
e/?~p(ej) = êj, c'est un automorphisme de E, (une base donne une base)
dont la matrice dans la base B serait précisément P. Mais alors p- l
inverse de P existe et en multipliant à gauche la relation X = PX', par
p-l, il vient X' = p-l X, relation donnant les nouvelles coordonnées en
fonction des anciennes.
Le chapitre suivant nous dira comment calculer l'inverse de P.
Pour l'instant, nous n'avons considéré que les nouvelles ou anciennes
coordonnées d'un vecteur. Qu'en est-il pour les matrices associées à des
endomorphismes de E, ou des homomorphismes de E dans F?
Soient donc E et F deux espaces vectoriels de dimension respectives
pet q.
Soient B et B' deux bases de E, B l'ancienne, B' la nouvelle, et de
même Cet C' bases de F, C l'ancienne, C' la nouvelle.
Soit a un homomorphisme de E dans F, de matrice A par rapport aux
bases B et C, et de matrice A' dans les nouvelles bases B' et C'.
Si x de E a pour image y = a(x) dans F, on sait calculer les
coordonnées de y en fonction de celles de x.
Soit X la matrice colonne des composantes de x dans la base B et Y
celle des composantes de y dans la base C de F, on a l'égalité matricielle
Y= AX, (voir 8.14).
En utilisant les bases B' et C', avec X' et Y' matrices colonnes des
composantes de x et y, on a cette fois

Y'= A'X', (8.14).


Or on vient de voir que, si P est la matrice de passage de B à B' et Q
celle de C à C', on a les égalités X = PX' et Y = QY'.
On a donc l'égalité QY' = A(PX'), soit, comme Q est inversible, en
multipliant à gauche par Q- 1 et en utilisant l'associativité du produit
matriciel, on a Y' = (Q- 1 AP)X' : c'est que la matrice A' associée à a
dans les bases B' et C'est A'= Q- 1 AP.
Calcul matriciel 291

THÉORÈME 8.23. - Soi.ent A et A' les matrices d'un même homomorphisme


a de E dans F quand on change de base dans E et F. Si P et Q
sont les matrices de passages dans E et F respectivement, on a l'égalité
A'= Q- 1 AP, (A' nouvelle matrice). •

DÉFINITION 8.24. - Deux matrices A et A' de même type (q, p) sont dites
équivalentes si et seulement si il existe U E GLp(K) et VE GLqK) telles
que A'= VAU.

On vérifie facilement qu'il s'agit d'une équivalence et, dans Mq,p(K),


les classes d'équivalence correspondent aux homomorphismes de E, ('.:::::'.
KP), dans F, ('.:::::'. Kq), car on passe de A à A' par des changements de
bases dans E et F.
En effet, si on fixe B et C bases de E et F, soient A E Mq,p(K) et
A' = V AU équivalente, et a l'homomorphisme de matrice A dans B et
C; avec B' telle que U soit matrice de passage de B à B', (les colonnes de
U donnent donc les coordonnées des ej en fonction des eû, et C' telle que
v- 1 soit matrice de passage de Cà C', la matrice de a dans les bases B'
et C'est (V- 1 )- 1 AU= V AU= A'. •

Dans le cas particulier de E = F, on peut bien sûr prendre des bases


différentes dans E espace de départ et F espace d'arrivée, mais si on n'est
pas plus « maso » qu'il ne faut, on prendra la même base dans E espace
de départ et d'arrivée, pour traduire un endomorphisme a.
Mais alors si Best l'ancienne base de E, B' une nouvelle base, avec
P matrice de passage, si A et A' sont les matrices de a dans ces 2 bases
respectivement, la relation précédente donne A' = p-l AP, puisqu'ici
Q=P.

DÉFINITION 8.25. - Deux matrices carrées d'ordre n sur K, A et A' sont


dites semblables s'il existe P inversible d'ordre n telle que A'= p-l AP.

On vérifie là encore qu'il s'agit d'une relation d'équivalence entre ma-


trices carrées, dont les classes d'équivalence correspondent aux endomor-
phismes de E '.: : :'. Kn.
On peut encore dire que le groupe GLn(K) agit par automorphismes
intérieurs dans Mn(K), et que les orbites associées correspondent aux
endomorphismes de E '.: : :'. Kn, (4.63 et 4.65).
Terminons ce chapitre en donnant la définition du rang d'une matrice.

DÉFINITION 8.26. - Soit A E Mp,q(K), on appelle rang de A, le plus


grand entier r tel qu'il existe une matrice carrée d'ordre r extraite de A,
inversible.
292 Algèbre

Une matrice est extraite de A en choisissant des indices de lignes


et de colonnes et en ne gardant que les termes de A dont les in-
dices de ligne et de colonne correspondent à ceux choisis, écrits dans
l'ordre qu'ils avaient. Un exemple valant mieux qu'un discours, soit

A -- ( ~ ! ~ ! :)
10 11 12 13 14
on peut extraire la matrice B correspon-

15 16 17 18 19
dent aux colonnes 1 et 4 et aux lignes 1, 3, 4.

On a = ( 151~ 1!).
B
18
Si A est non nulle, 3i et j tels que aij f. O.
La matrice ( 1, 1) extraite, B = (aij) est inversible, ( B- 1 = (a~ . ) ) ,
iJ
donc l'ensemble N = {k; k E N, il existe B carrée d'ordre k, inversible,
extraite de A} est non vide, (1 EN) majoré par inf(p, q) : il admet bien
une borne supérieure r que l'on peut appeler rang de A, (corollaire 3.45).
Si A = 0, toute matrice extraite carrée sera nulle donc non inversible,
on dit q1,1e A est de rang nul.
L'étude des déterminants, faite au chapitre suivant, nous permettra
de voir que les rang de A, c'est le rang de tout homomorphisme ayant A
pour matrice dans des bases adéquates. Pour l'instant justifions le

THÉORÈME 8.27. -Soit A E Mp,q(K), le rang de tA est celui de A

Car si B est extraite de A, tB est extraire de tA et on a vu que


B inversible {::} tB inversible, (Théorème 8.18), le résultat en découle
immédiatement. •
Calcul matriciel 293

EXERCICES

1. Soit X E Mn(IR), nilpotente. On suppose ex triangulaire supérieure


avec des 1 sur la diagonale. Montrer que X est triangulaire
supérieure avec des 0 sur la diagonale.
Soit E et F deux sous-espaces de !Rn tels que E C F et
(ex - I)(F) c E. Montrer que X(E) C E.

2. Soit n EN*, et A et B dans Mn(IR), telles que In +BA E GLn(IR).


a) Montrer que In + AB est dans GLn(IR) et que son inverse
conmmute avec AB.
b) Vérifier que Un+ AB)- 1 =In - A(In + BA)- 1B.

3. Calculer la puissance nième de la matrice M = (a ;a b ~ ~ ) .


0 a+b
4. Soit A, B dans Mn(IR). Résoudre les équations:
a) X= (tr X)A +B.
b) X+ tx = (tr X)A.

5. Soit A et B dans Mn(C), com(A) et com(B) leurs comatrices.


Montrer que com(AB) = com(A)com(B) puis que, si A et B sont
semblables, leurs comatrices le sont. (Voir en 9.40 la définition de
comatrice).

6. Deux matrices réelles semblables dans Mn(C) le sont-elles dans


Mn(IR)?

7. Trouver les matrices de M3(1R) qui commutent avec M = ( ~ ~ ~)


où a E IR est donné. 0 2 3

8. Soit A E Mn(C) la matrice de terme général aij avec 'Vi, aii =a;
ai,i-1 = ai,i+l = b; aln = an1 = b et aij = 0 sinon. A est-elle
inversible?

9. Soit C E Mn(C). Montrer que l'équation XY - Y X = C a des


solutions dans Mn(C) si et seulement si trace(C) =O.

10. Déterminer les matrices M de M3(K) telles que M 2 =O.


294 Algèbre

SOLUTIONS

1. Préambule sur les séries entières.


On a Ln(e"') = Ln(l + e"' - 1) = x. Si z = e"' - 1 est de valeur
absolue strictement inférieure à 1, dans le développement en série entière
OO k
de Ln(l + z) = :~::)-l)k-l zk , on peut substituer à z la série entière
k=l
OO n
L ;,
n.
de valuation 1 (application du théorème d'interversion des limites),
n=l.
OO n k

00 (2::: :i) OO

et L(-l)k-1 n=lk est la somme d'une série entière, L bq xq qui


k=l q=O
vaut ici x, donc b1 = 1 et \:/k =f. 1, bk = O.
Avec X nilpotente, ex - I
~
L.., -
xq1 est aussi
. nnpotente, et c,est une
q.
q:;;i,1
somme finie, mais alors

OO

est en fait une somme finie, donc a un sens, et c'est L bqXq =X puisque
q=O
les règles de calcul des bq ne dépendent pas de x.
OO X k
On a donc X= L(-l)k-l (e ~ I) , la somme étant finie en fait. Mais
k=l
alors, si ex est triangulaire supérieure avec des 1 sur la diagonale, ex - I
est triangulaire supérieure avec des 0 sur la diagonale, il en est de même
des puissances successives, (calcul classique) d'où X triangulaire supérieure
avec des 0 sur la diagonale.
Puis, (ex -I)(F) c E c F =>(ex -I) 2 (F) c (ex -I)(F) c E, et par
récurrence, \:/k ~ 1, (ex - I)k(F) c E, donc X(F) c E. Comme enfin
E C F, on obtient a fortiori X(E) C E.

2. Si X de Rn est tel que (In+ AB)X = 0, a fortiori B(In + AB)X = 0 soit


(In + BA)(BX) = 0, et comme In+ BA E GLn(R), on a BX = 0, mais
alors au départ, X+ A(BX) = 0 donne X= 0, d'où In+ AB injective,
donc régulière.
Calcul matriciel 295

On peut aussi dire que In+ BA bijective équivaut à -1 non valeur propre
de BA. Comme BA et AB ont même polynôme caractéristique, c'est aussi
In + AB bijective.
Le b) se vérifie par calcul en remarquant que BA et (In+BA)- 1 commutent
parce que In+ BA et (In+ BA)- 1 commutent, et on en déduit la fin de
a).

3. En posant A = ( Ô g Ô) on constate que M = bI + aA. Comme bI et


1 0 1
aA commutent la formule du binôme s'applique. On constate que A 2 = 2A
d'où par récurrence Ak = 2k-l A, (k ~ 1) et
n
Mn = bn I + L C~akbn-k2k-l A
k=l
n
= bnI + ~ (L C~(2a)kbn-k)A
k=l
= bnI + H(2a+ b)n - bn]A

'j = (2a+b)n4 +bn(I-4)·


4. Equation a): X = (tr X)A +B.
On prend la trace, d'où (1 - tr(A))tr(X) = tr B.
Si tr A = 1 et tr B # 0 pas de solution.
Si tr A = 1 et tr B = 0, X doit être du type .XA + B, or avec cette matrice
on a tr X= .À, d'où effectivement X= (tr X)A +B.
Si tr A # 1, on doit avoir X du type .XA + B mais avec cette fois la condition
trB .d , A B trB d ' ' ' trB
tr X = 1 A ce qw onne "tr +tr = 1 A ou"= 1 A'
-k -k -k
trB
une seule solution X= 1 A A+ B.
-tr
Equation b) : X+ tx = (tr X)A.
Le 1er membre est une matrice symétrique.
1er cas :A non'symétrique. Si trX # 0, (trX)A non symétrique, donc X
non solution, alors que si tr X = 0, on peut avoir X + tx = 0, c'est-à-dire
X antisymétrique, et dans ce cas X+ tx = (tr X)A car tr X= O.
Donc A non symétrique => (X solution <=? X antisymétrique)
2e cas: A symétrique. On prend les traces=> (2 - tr A)(tr X)= O.
Si tr A # 2, on doit avoir tr X = 0, l'équation devient X + tx = 0 soit X
antisymétrique. C'est effectivement solution.
Si tr A ,,;,,. 2, les matrices antisymétriques sont encore solutions. Or l'équation
'est linéaire en X, et une matrice s'écrit de manière unique sous la forme
X = Y + Z avec Y symétri.que et Z antisymétrique.
296 Algèbre

Donc X solution{::} sa partie symétrique l'est{::} 2Y = (trY)A. On a Y du


type .XA, d'où 2.XA =(.X tr A)· A et comme tr A= 2, tout .À convient.
Finalement, si A symétrique et tr A = 2 les solutions sont du type X =
.XA + Z avec Z antisymétrique quelconque. Sinon il n'y a que les Z
antisymétriques comme solutions.

5. Si A et B sont inversibles,

comA · comB = det(A) det(B). tA- 1 . tB- 1


= det(AB) · t(B- 1 A- 1 )
= det(AB) · t(AB)- 1 = com(AB).
Si A et B sont quelconque, la densité de GLn(C) dans Mn(C),jointe au fait
que les formules donnant com(A) · comB et com(AB) sont polynomiales
par rapport aux coefficients de A et B, donc continues, permet d'étendre le
résultat au cas général.
Si A et B sont semblables, il existe P régulière telle queP- 1AP = B, donc

com(B) = com(P- 1) · com(AP) = (comP- 1)(comA)(comP).

Or p-l P = In => comP- 1 · comP = coml = det /t(I- 1) = I,


on a donc com(B) = (comP)- 1comA(comP) d'où comA et com(B)
semblables.

6. Soient A et B dans Mn(R) telles qu'il existe P E GLn(C) telle que


B = p-l AP ou encore PB= AP. En conjuguant, comme A et B sont
réelles on a PB= AP, donc avec U = P +Pet V= -i(P- P), qui sont
des matrices de Mn(R), on aura aussi UB =AU et VB =AV, d'où aussi,
Vt E R, (U + tV)B = A(U + tV). Or det(U + tV) est un polynôme en
t de degré n au plus, non identiquement nul, car en tant que polynôme de
c[X] il le serait aussi or det(U + iV) = det(2P) # O.
Il existe donc des réels .À tels que Q = U +.À V E GLn(R) avec QB = AQ
soit encore B = Q- 1AQ: A et B sont semblables dans Mn(R).

7. On sait que si u et v sont deux endomorphismes qui commutent, Keru et


!;)< u sont stables par v.

:s~e~a;:ces(8ui ~~~u)e~:q:: p~urs::;a::ss::_:::u:::::


0 2 2
vect el ... on peut travailler).
Si a # -1 Ker M' = Vect(e1) et !;)< M' = Vect{e2, e3) qui doivent

ê(trg s~bl~s)p:: c::u:t b~:: :~~=: àch{e:Ï;~~~ ~o=~ : s:t:


0 'Y ê 2(/3-ê)=-3"(
quelconque, /3 = ê- ~ '"'(et 6 = ~ '"'(,d'où les solutions:
Calcul matriciel 297

X=(~ 0 "{
de dimension 3.
Si a = -1 Ker M' = Vect( ei, e2 - e3), ~ M' = Vect( -e2 + 2e3). Or
M' (-e2 + 2e3) va être proportionnel à -e2 + 2e3, (et non nul) donc M' est

diagonalisable. Avec la matrice de passage P = (1 0 0)


0 1 -1
0 -1 2
, on trouve

p-l =( 1 et p-l M' P = (00 00 0)


01 02 0) 0 = M".
0 1 1. 0 0 1
Mais alors X' conimute avec M' si et seulement si p-l X' P = X"
commute avec M". Les sous-espaces (pr:pr~ d;)Jtf" doivent donc être

stables par X" qui est du type X" = "{ ô 0 et on vérifie que pour
. 0 0 ê
= M" X".
ces X" on a bien X'' M 11
.
Les X' cherchées sont donc les matrices X' = P (a 0)
"{ (3ô 0
0 0 ê
p- l et on

a 2(3 /3 )
trouve les X' = ( "{ 26 - e
ô- e , (a, (3, "{, ô, e) E R2 . Cette
-"{ -2ô+2e -ô+2e
fois c'est un espace vectoriel de dimension 5.

8. SOit
. la matrice bloc J = (~) .
~ Pour 1 ~ k ~ n - 1 on vérifie

que Jk = ( ~)
h Q 1
et on a Jn = In.

On a A= aln + b(J + r-
1 ).
Comme J annule le polynôme scindé à racines simples, xn - 1, J diagona-
lisable sur C, (voir chapitre X). Le polynôme caractéristique de J est en fait
2' k1r
(-l)n(.>.n-1), (on le calcule), les valeurs propres de J sontles >.k = e in,
celles de A, polynôme en J sont les a+ b(>.k + .>.~- 1 ).
,n-1
0 r "'k ,n ,-1 d' , , ,-1 2k7r
= "'k · "'k ou "'k + "'k = 2 cos - - et
n
n
det A = II (a+ 2b cos 2 ~71'), (produit des valeurs propres de A) d'où (A
k=l
inversible) <=> (\:/k = 1, 2, ... , n, a + 2b cos 2k11' =fa 0).
n
298 Algèbre

9. La trace étant linéaire, et trace( X, Y) = trace(Y, X), si on a des solutions,


trace( C) = O. Réciproquement. Si trace( C) = 0, il existe C' semblable à
C avec C' n'ayant que des 0 sur la diagonale. Se justifie par récurrence sur
n. Si n = 1, traceC = 0 => C = (0) = C' en fait. On suppose vrai pour
n - 1. Soit u l'endomorphisme de matrice C dans la base canonique de en.
Si u = 0, toute matrice de u dans une base de en convient. Sinon, comme
u =/:- ÀidE, (sinon traceu = nÀ =/:- 0), il existe x dans Etel que {x,u(x)}
libre.
Il existe donc une base de E du type {x, u(x), ea, ... , en} dans laquelle la
matrice de u est

(! r~ ")) on®tientr'C,Pdut~
avec trace C2 = trace C1 = trace u = O. Par hypothèse de récurrence,
3P2 E GLn-1(e) telle que P2 1C2P2 ait des 0 sur la diagonale.

A~P~
( O 1 B ) = C' avec des O sur la diagonale.
A P2 1C2P2
Puis c' étant de trace nulle, avec des 0 $ur la diagonale, on veut écrire
c' = x'y' - Y'x'.
On prend X'= diagonale (ai, ... , an) avec des O!i distincts, et on cherche
le terme général Y~j de Y'. On doit avoir de c~j = OiY~j - OjY~j =
( O!i - O!j )y~i ·
Pour i =/:- j on a O!i - O!j =/:- 0 d'où l'existence de Y~j• et si i = j il reste
la condition 0 = Oy~i• vérifiée. Donc Y' existe. Mais alors avec Q régulière
telle que Q- 1 cQ = C', si X = QX'Q- 1 et Y = QY'Q- 1 , l'égalité
C' = X'Y' - Y'X' donne C = XY -YX.

10. La matrice nulle convient. Puis la relation M 2 = 0 implique ~(M) C


Ker M, (on identifie M à un endomorphisme de K 3 dans sa base canonique).
Donc M de rang ~ 2 implique dim(Ker M) ~ 2 d'où dim K 3 = 3 ~
rang(M) + dimKer M ~ 4: c'est exclu.
On doit donc chercher M de rang l, mais alors les 3 vecteurs colonnes
c1, c2, c3 forment un système de rang 1 : il existe un vecteur colonne

c = ( ~~) non nul et 3 scalaires li, b, la non tous nuls tels que c1 = li c,
Calcul matriciel 299

c2 = l2c et C3 = l3c, d'où M = ( ~~) (li l2 l3) = ctL si L = G~). et


M 2 =CtLctL.
3
Or t LC = li c1 + bc2 + l3c3 est un scalaire, donc M 2 = c~:= li ci) M
i=l
3
sera nulle, pour M de rang 1, si et seulement si L liCi =O.
i=l
Les solutions sont donc les matrices

avec trace(M) =ci li+ c2l2 + c3l3 = 0, et la matrice nulle est aussi de ce
type.
CHAPITRE 9

Algèbre extérieure, déterminants

Les déterminants apparaissent comme wi cas particulier dans l'étude


plus générales de l'algèbre extérieure, étude dont les résultats servent
en calcul différentiel. C'est pourquoi je préfère les aborder de cette façon
générale.

1. Formes multilinéaires antisymétriques et alternées

DÉFINITION 9.1. - Soit E espace vectoriel sur un corps K. On appelle


forme p linéaire sur E, (p E N*) toute application f de EP dans K qui
est linéaire par rapport à chacune de ses variables.

Si on note f(X1, ... , Xp) l'image par f du p-uplet (Xi, ... , Xp) c'est
donc que, pour chaque i ~ p, en considérant les Xj pour j =f. i comme
fixés, la fonction de la seule variable xi est linéaire.

DÉFINITION 9.2. - Une forme p linéaire, (p ;;:: 2) est dite alternée si elle
s'annule lorsque deux des variables prennent des L•aleurs égales.

DÉFINITION 9.3. - Une forme p linéaire, (p;;:: 2) est dite antisymétrique si


elle prend deux valeurs opposées lorsqu'on permute deux vecteurs.

THÉORÈME 9.4. - Une forme alternée est antisymétrique; si le corps K est


de caractéristique =f. 2, une forme antisymétrique est alternée.

Soit f alternée, on veut permuter Xi et Xj avec par exemple i < j. En


fait on calcule la valeur de f en prenant en ième etime position le même
302 Algèbre

vecteur Xi+ Xi. On a 0, (j alternée) que l'on développe par multilinéarité


en 4 termes:

f( ... ,xi+ xi, ... ,xi +xi, ... )= o


= J( ... , xi, ... , xi, ... )+ J( ... , xi, ... , xi, ... )
+/( ... ,Xj, ... ,Xi, ... )+ f( ... ,Xj, ... ,Xi, ... ).
Les 2 termes associés aux mêmes vecteurs sont nuls, il reste donc 2 valeurs
opposées quand on permute Xi et Xi.
Réciproquement si f est antisymétrique, et si en ième position et
jième position, (avec par exemple i < j) on met le même vecteur T, en
permutant Xi= Tet Xj =Ton obtient la même valeur, mais aussi son
opposée puisque f est antisymétrique.
Donc f( ... ,T, ... ,T, ... ) = -f( ... ,T, ... ,T, ... )
d'où 2/( ... ,T, ... ,T, ... )=0.
Si caract K = 2, on ne va pas plus loin, sinon on conclut/( ... , T, ... ,
T, ... ) = 0 donc f est alternée. •

Par la suite on supposera le corps de caractéristique différente de 2,


mais on s'efforcera d'établir les résultats les plus généraux, donc sur les
formes alternées.

THÉORÈME 9.5. - Soit f une forme p linéaire sur E. L'application g de EP


dans K définie par

g(Xi,. ~., Xp) = L êuf(Xu(l)• ... , Xu(p))


uE6p

est une forme p linéaire alternée.

Rappelons que 6p est le groupe des permutations de {1, 2, ... ,p} et


que êu est la signature de la permutation a, (voir 4.46 et 4.52).
Xi ~ /(Xu(l)• ... , Xu(p)) est linéaire car f est linéaire par rapport
à sa variable de rang j = a- 1 (i), place où intervient Xi.
Donc g est une combinaison de pl applications linéaires en Xi, on a
bien g linéaire par rapport à chacune de ses variables.
On a g alternée : supposons que Xi = Xj = Z, (avec i !- j). Soit T
la transposition dei et jet H ={id, T} le sous-groupe de 6p engendré
parT.
On prend l'équivalence associée à droite au sous-groupe H :

(ana')<=> (a'a- 1 EH)<=> (a' E Ha)<=> (a' E {a, Ta}).


Algèbre extérieure, déterminants 303

Chaque classe d'équivalence ayant 2 éléments, si A est un ensemble de


représentants de ces classes, les autres éléments sont ceux de TA, et les
classes d'équivalences formant une partition, on a 6p =AU TA d'où

g(Xi, · .. , Xp) = L (~crf(Xcr(l)> · · ·, Xcr(p))


crEA
+êTcrf(XTcr(l)• · · ·, XTcr(p))) ·

Or êTcr = êTêcr = -e,,.; puis si u(k) <J. {i,j}, Tu(k) = u(k) et


si u(k) = i, Tu(k) = j mais Xcr(k) =Xi= Xj = XTcr(k)• alors que
si u(k) = j, T u(k) = i et Xcr(k) = Xj =Xi= XTcr(k)·
Finalement les termes sont 2 à 2 opposés, donc g(X1, ... , Xp) = 0
lorsque Xi= Xj pour i =f j. •

DÉFINITION 9.6. - On appelle antisymétrisée de f, p linéaire, l'application


g définie par g(X1, ... 'Xp) = L
êcrf(Xcr(l)• ... 'xcr(p))·
crE6p

Soient en particulier Ji, ... , fp des éléments du dual E*, l'application


p
f : (Xi, ... , Xp) """' II fi(xi) est visiblement p linéaire, et son anti-
i=l
symétrisée s'appelle le produit extérieur des formes fi, ... , f p· On le note
fi /\ h /\ ... /\ f p·

DÉFINITION 9.7. - On appelle produit extérieur de p formes linéaires


Ji, ... , fp l'application p linéaire alternée fi/\ ... /\ fp défini par:

(!1 /\ · · · /\ fp)(Xi, · · ·, Xp) = L êcr fi (Xcr(l)) ... fp(Xcr(p))·


crE6p

THÉORÈME 9.8. - L'application (!1, ... , fp) ......+ fi /\ ... /\ fp est alternée.

Il ne s'agit pas d'une forme, mais on a un résultat nul si deux formes


fi et f j sont égales.
On suppose, avec i =f j, que fi = fj et toujours avec T transposition
de i et j et H = {e, T} sous-groupe engendré, on considère cette fois
l'équivalence associée à gauche (uR' u' <=:? u- 1u' EH<=:? u' E uH).
304 Algèbre

Si Best un ensemble de représentants des classes d'équivalence, les


autres éléments sont ceux de aB et 6p =BU aB, (partition) d'où

(/1 /\ ... /\ Jp)(Xi,. '.., Xp) = L êu (fi (Xu(l)) ... Jp(Xu(p))


uEB

Si k ~ {i,j}, T(k) = k, dans les 2 produits on a fk(Xu(k)); si k = i,


T(k) = j on a d'une part li(Xu(i)) et d'autre part li(Xu(j)) or li= Jj
donc on trouve les facteurs li(Xu(i)) et Jj(Xu(j))·
Pour k = j, on retrouve Jj(Xu(j)) dans le 1er produit et cette fois
Ji(Xu(i)) dans le 2e. Le corps K étant commutatif, (hypothèse faite
sur les espaces vectoriels) on a 2 produits égaux qui s'annulent, d'où
fi A ... /\ Jp = 0. •

9.9. On note f\P E* l'ensemble des formes p linéaires alternées sur E.


Cette notation se lit algèbre extérieure d'ordre p sur E. En calcul
différentiel on sera amené à définir des produits entre formes p linéaires
alternées et q linéaires alternées d'où la dénomination e:ir;térieure.
Il est facile de voir que f\P E* est un sous-espace vectoriel de celui des
applications de EP dans K, et on a :

COROLLAIRE 9.10. -L'application (/1, •.. , h) ~fi/\ ... /\Jp de EP dans


f\P E* est p linéaire alternée.

Il reste la p linéarité à justifier. Or si on remplace li par >-.Uf + >-.?JI'


chaque terme êufi(Xu(l)) ... Jp(Xu(p)) va se scinder en deux:

.À~êcr fi (Xu(l)) · · · Jf (Xu(i)) · · · Jp(Xu(p))


+>-.? êu fi (Xu(l)) ···JI' (Xu(i)) · · · Jp(Xu(p))
d'après les règles de calcul dans le corps K. On regroupera ensemble les
termes contenant)..~ que l'on factorisera, ainsi que ceux contenant>-.? d'où
finalement

fi /\ ... /\ (>-.UI +>-.?JI') /\ ... /\ Jp = >-.~fi /\ ... /\ Jf /\ ... /\ Jp


+>-.?fi /\ ... /\JI'/\ ... /\ Jp·

COROLLAIRE 9.11. - Si a E 6p on a Ju(l) /\ ... /\ Ju(p) = êu fi/\···/\ Jp.


Algèbre extérieure, déterminants 305

L'application étant alternée est antisymétrique, (Théorème 9.4), et en


décomposant C1 en un produit de transpositions, on obtient le corollaire,
vu la définition de la signature (4.54). •

THÉORÈME 9.12. - Soit E espace vectoriel de dimension finie, n, sur le


corps K. Si p > n, f\P E* = {O}, et si p ~ n, f\P E* est un espace
vectoriel de dimension C~. Si B = {e1, ... ,en} est une base de E, les
formes p linéaires alternées ei1 /\ ... /\ eiP associées aux p uplets ordonnés
1 ~ i 1 ~ i2 < ... < ip ~ n en constituent une base.

Si p > net si g est p linéaire alternée, quand on calcule g( X 1, ... , Xp),


comme la famille {Xi, ... , Xp} est liée, (p > n, dimension de l'espace)
l'un des xi est combinaison linéaire des autres.
p
Si xi = L ÀjXj. en utilisant la linéarité de g par rapport à sa
j=l
Ni
ième variable, g( X 1, ... , Xp) devient une somme de p - 1 termes du type
Àjg( ... , Xj, ... , Xj, .. .) avec Xj figurant en 2 positions, la jÎème et la
ième d'où g = O.
On suppose p ~ n. Il y a alors C~ façons de choisir p indices
distincts pris dans { 1, ... , n}, chaque partie de p indices ne s'ordonnant
en croissant que d'une façon.
La famille des ei1 /\ ... /\ eip avec 1 ~ i1 < i2 < ... < ip ~ n est libre
car si on calcule (ei'1 /\ .•• /\ eiP)(ej 1, ... , €jp), avec j1 < j2 < ... < jp,
c'est

L t:uei1 (eiu(l)) · · · eiP (eiu(p) ).


uE6p

Or eik (eiu(k)) = 0 sauf si ik = iu(k).


Le terme générique est donc nul sauf si i1 = iu(l)• i2 = iu(2)• ... ,
ip = iu(p)·
Comme les ik et ik sont indexés en croissant, ceci n'est possible que
si C1 = identité et i1 = j1, ... , ip = jp.
D'où, pour 1 ~ i1 < ... < ip ~ n et 1 ~ j1 < h < ... < jp ~ n on a
(ei1 /\ •.• /\ eiP)(eji, ... , ejp) = 1 si i1 = j1, ... , ip = jp, et 0 sinon.
Si on a alors une combinaison linéaire nulle :
L Ài 1 ... ipei1 /\ •.• /\ eiP = 0 en calculant en (ei 1 , . . . , eip) il
l~i1 <i2< ... <ip~n -
reste Ài 1 ... ip = 0 d'où la famille libre.
306 Algèbre

La famille des ei1 /\ . . . /\ eiP est génératrice de f\P E*.

En effet soit g E f\P E* et considérons

91 = L g( ei 1 , ••• , eip )ei1 /\ . . . i\ eiP.


l:io;ii < ... <ip:io;;n

La forme g - g1 s'annule sur chaque (eii, ... , ejp) avec


1 ~ ji < ... < jp car

g' (ejl' ... ejp) = L g(ei 1 , . . . , eip (ei1 /\ . . . /\ eiP)(ejl' ... , ejp)
l:io;i1 < ... <ip:io;;n

avec (ei1 /\ . . . /\eiP)(ej1 , . . . , ejp) = 0 sauf si ii = ji, i2 = j2, ... , ip = jp,


donc il reste g1 (eji, ... , ejp) = g(ej 1 , ••• , ejp).
Oron ale

LEMME 9.13. - Un élément h E f\P E* est nul si et seulement si il s'annule


sur tous les (ej 1 , •.. , ejp) avec 1 ~ ji < ... < jp ~ n.

Il résultera du lemme que g- g1 = 0 d'où g = g1 sera bien combinaison


e;
linéaire des 1 /\ •.. /\ eiP. •

Justifions le lemme. Si h = 0, il est évident que pour tout p uplet


(ej 1 , ••• , ejp) on a h(ej 1 , . . . , ejp) =O.
n
Réciproquement. On calcule h(x1, ... 'Xp) avec Xk = L erk,kerk·
rk=l
Ona
n
h(xi,x2, ... ,xp) = h( L er1,1erpX2, ... ,xp)
r1=l
n
= L: er1,1h(er1,x2, ... ,xp)
r1=l

par linéarité de h par rapport à la première variable.


Algèbre extérieure, déterminants 307

n
Puis x2 = L Çr 2,2er2 eth est linéaire par rapport à la deuxième
r2=l
variable. On obtient donc
n n
h(x1, ... ,xp) = L L Çr 1,1Çr2,2h(erper2 ,x3, ... ,xp)
r1=l r2=l

et en continuant à développer on parvient à :


n n n
h(x1, x2, ... , Xp) = L L ... L Çr 1,1 ... Çrp,ph(er1 , er 2 , ... , erp).
r1=l r2=l rp=l ·

Or chaque h(er 1 , ... , erp) est nul car soit 2 des erj au moins sont égaux,
et alors h, alternée, prend une valeur nulle; soit les indices r1, ... , Tp sont
distincts mais il existe alors a E 6p tel que

r a(l) < r a(2) < · · · < r a(p)


et h( erp ... , erp) = êah( er u(l), ... , eru(p)) =0
puisqu'ici, les indices étant ordonnés, l'hypothèse s'applique.
On a finalement h = 0, d'où le lemme, et le théorème 9.12. •

Ce théorème 9.12, dans le cas de p = n = dim(E) va nous conduire


aux déterminants.
En effet, sur E de dimension n, l'espace /\ n E* des formes n linéaires
alternées est de dimension 1.
Soit alors B = {ei, ... , en} une base de E, la forme n linéaire alternée
ei /\ e2 /\ ... /\ e~ est une base de l'espace vectoriel /\n E*, (d'après le
théorème 9.12).

DÉFINITION 9.14. - Soit E espace vectoriel de dimension finie n sur le


corps K, et B = (ei, ... , en) une base de E. On appelle déterminant dans
la base B la forme n-linéaire alternée detB = ei /\ ... /\ e~.

Vu la définition du produit extérieur, on a donc

9.15. det B(Xi, · · ·, Xn) = L êafa,a(l)Ç2,a(2) · · · 'Çn,a(n)


aE6n

n
car si Xj = LÇi,jei, on a ei(Xa(i)) = Çi,a(i)·
i=l
308 Algèbre

2. Premières propriétés des déterminants

La forme de l'expression développée de det5(X1, ... , Xn) conduit à


définir le déterminant d'une matrice, puisque le second membre en fait
ne dépend que des nn scalaires (xi,j) i:1;i:1;n, c'est-à-dire de la matrice des
l~3~n
composantes des vecteurs X 1, ... , Xn dans la base B.

DÉFINITION 9.16. -Soit A= (aj) 1,;:: i,;:: une matrice carrée d'ordre n sur
-..:::::j-..:::::n
un corps K. On appelle déterminant de la matrice A le scalaire noté

det(A) = L E:ua1,u(l)• a2,u(2)• · · · 'an,u(n)·


uE6n

Pour retrouver les notions du §1, on peut considérer E = Kn rapporté


à sa base canonique B = (e1, ... , en) et considérer les vecteurs
n
Xj = L aij ei> vecteurs colonnes de A, on a alors :
i=l

9.17. <let A= det5(X1, ... ,Xn) en fait.

REMARQUE 9.18. - Soit A E Mn(K), <let A est une somme den! termes
qui sont tous, au signe près, des produits de n scalaires chaque produit
contenant un et un seul terme de chaque ligne, (les premiers indices
varient de 1 à n), un et un seul terme de chaque colonne, (les seconds
indices étant images de { 1, ... , n} par une permutation de cet ensemble).
Cette remarque sert lors de l'étude du polynôme caractéristique d'un
endomorphisme en dimension fini, (voir 10.18).

THÉORÈME 9.19. - Dans E vectoriel de dimension finie, n, une famille de


n vecteurs {X1, ... , Xn} est libre si et seulement si dans une base B on a
det5(X1, ... , Xn) =f 0 et c'est équivalent à detc(X1, ... , Xn) =f 0 pour
toute base C.

Soit B = (e1, ... , en) une base de E.


Si (Xi, ... , Xn) est une famille libre den vecteurs dans Ede dimen-
sion n, c'est une base, donc la forme n linéaire alternée Xi/\ ... /\ x;;,
associée à la base duale de (X1, ... , Xn), est non nulle, (elle vaut 1 sur le
n-uplet X 1, ... , Xn) : la forme ei /\ ... /\ e;;, lui est proportionnelle puisque
/\ n E* est de dimension 1.
Algèbre extérieure, déterminants 309

Soit À tel que ei /\ ... /\ e~ = .ÀXî /\ ... /\X~. On a


(eî /\ ... /\ e~)(Xi, ... , Xn) =À,

et ce scalaire À est =fa 0, puisque

Si (Xi, ... , Xn) est famille liée l'un des Xj est combinaison linéaire
des autres et, comme on l'a vu dans la justification du théorème 9.12,
(ei /\ ... /\ e~)(X1, ... , Xn) =O.
Il en résulte, par contraposée, que si (ei /\ ... /\ e~)(X1, ... , Xn) =fa 0,
la famille (Xi, ... , Xn) est libre. •

COROLLAIRE 9.20. - Soit une matrice carrée A, on a <let A = 0 si et


seulement si la famille des vecteurs colonnes est liée.

C'est encore si et seulement si l'un des vecteurs colonnes et combinai-


son linéaire des autres. •

Si nous avons défini le déterminant d'une matrice, c'est pour en faire


quelque chose, et le relier au déterminant d'un endomorphisme en liaison
avec sa matrice dans une base.
Soit donc E vectoriel de dimension n, u E Hom(E) un endomorphisme
de E et g E /\nE*, (espace de dimension 1), g supposée non nulle.

9.21. On définit 9u : En t-----t K par :


9u(X1, ... , Xn) = g(u(X1), ... , u(Xn)).
La linéarité de u et la n linéarité de g impliquent la n linéarité de
9u· De même si Xi = Xj, on a u(Xi) = u(Xj), le 2e membre est nul,
donc 9u est alternée. Mais alors 9u E /\ n E*, droite vectorielle engendrée
par g, donc il existe un facteur de proportionnalité a(u,g) E K tel que
9u = a(u,g)g.
Le facteur ne dépend pas de g =fa 0 dans /\ n E*, car, partant de h =fa 0
dans /\ n E*, h serait proportionnelle à g, et' si h = .Àg on aura

hu(X1, ... , Xn) = (Àg)(u(X1), ... , u(Xn)) = Àgu(X1, ... , Xn),


d'où hu = Àa(u,g)g = a(u,g)(Àg) = a(u,g)h,
le corps K étant commutatif.
310 Algèbre

DÉFINITION 9.22. - Soit E ~ Kn et u E Hom( E). On appelle déterminant


de u, le scalaire det u tel que, 'Vg E /\n E*, la forme 9u n-linéaire alternée
définie par 9u(X1, ... , Xn) = g(u(X1), ... , u(Xn)) vérifie 9u = (det u)g.

THÉORÈME 9.23. - Le déterminant de u est le déterminant de chaque


matrice de u dans une base B fixée de E.

Car si B= (ei, ... , en) est une base de E(, ~~;i)A est la matrice de u
dans cette base, les vecteurs colonnes Xj = : . de A correspondent
O!n3
n
aux vecteurs u( ej) =. 2.:: O:ijei.
i=l
Si on prend g = ei /\ ... /\ e~ pour calculer det u, on a, (définition
9.17),

det A= deta(u(e1), ... , u(en)) = (ei /\ ... /\ e~)(u(e1), ... , u(en)).

Puis la relation 9u = (det u)g, calculée sur le n-uplet (e1, ... , en)
donne:

gu(ei, ... , en)= (ei /\ ... /\ e~)(u(e1), ... , u(en)) = (det u)g(ei, ... , en)
d'où det u = det A. •

Il résulte de ce théorème, que le déterminant de 2 matrices semblables,


caractérisant le même endomorphisme dans des bases différentes, doit
être le même. On va retrouver ce résultat en prouvant d'abord que:

THÉORÈME 9.24. -Soient u et v deux endomorphismes de E ~ Kn. On a


det(u o v) = (det u)(det v).

Car, avec g non nul de /\ n E*, on défi.nit 9uov par

9uov(X1, ... , Xn) = g(u(v(X1)), u(v(X2)), ... , u(v(Xn)))


= 9u[v(X1), ... , v(Xn)]
= (det u)g(v(X1), ... , v(Xn))
= (det u)gv(X1, ... , Xn)
=(<let u)(det v)g(X1, ... , Xn)
Algèbre extérieure, déterminants 311

et ceci étant vrlii. quels que soient X1, ... ,Xn c'est que 9uov = (det u)
(det. v)g.Maisguov = (det(uv))gd'oùl'égalitédet(uov) = (det u)(det v) .

REMARQUE 9.25. - Le corps K étant commutatif, on a :

det(u o v) = det u det v = det v det u = det(v ou),


bien qu'en général u o v =f:. v o u.
Soit alors A et A'= p-l AP deux matrices semblables, on aura

det A'= det(P- 1AP) = (det p- 1)(det A)(det P)


= det A det(P- 1) det P
= det A det(P- 1P).

Or p-lp =In est associé à idE, et pour g E AnE* on a 9idE = g


donc det(idE) = det In = 1, d'où det A= det A' résultat pressenti au
théorème 9.23.
Mais au passage on vient de voir que si P est inversible, on a
1
det(P- 1) = det p = (det P)- 1, avec donc det P =f:. O.
En fait, on a :

THÉORÈME 9.26. - Un endomorphisme u de E ~ Kn est inversible si et


seulement si det u =/:- 0, et on aura det(u- 1) = (det u)- 1.

Car u inversible a un inverse, u- 1, et l'égalité uou- 1 = idf' implique


(det u)(det u- 1) = 1 d'où det u =f:. 0 et det(u- 1) = (det u)- .
Réciproquement, si det u =f:. 0, avec A matrice de u dans une base
13 = (e1, ... , en) de E, on a (ei A ... e~)(u(e1), ... , u(en)) =/:- 0 (les u(ej)
associés aux vecteurs colonnes de A d'après 9.17), donc la famille des vec-
teurs (u( el), ... , u( en)) est libre, (Théorème 9.19), c'est que l'image u(E)
est de dimension n dans E lui-même de dimension n, on a dim(Ker u) = 0
d'où u injective et surjective. •

COROLLAIRE 9.27. - Pour une matrice carrée A, on a A inversible {:::}


det A =f:. 0 et (det A)- 1 = det(A- 1).

REMARQUE 9.28. - Dans le chapitre X de la réduction des endomor-


phismes, on traduira, en dimension finie, la propriété >. valeur propre
de u, par un déterminant nul, ce qui donnera le polynôme caractéristique
de l'endomorphisme u, (Théorème 10.18).
312 Algèbre

THÉORÈME 9.29. - Soit E vectoriel de dimension finie n sur le corps K


et u E HomE, on a <let u = det(f.u). On a de même: soit A E Mn(K),
<let A = det(tA).

Soit B = (e1, ... , en) une base de E. On considère B* = (ei, ... , e~)
base duale dans E* et, pour calculer det(f.u), si on applique ce qui précède,
on doit introduire le bidual (E*)* ainsi que la base B** duale de B* dans
le bidual. Vous pouvez passer à la page suivante!
Si on note f3 = (e1, ... , en) cette base B**, ei est définie par ej (ei) =
0 si i =/= j, 1 si i = j.
Soit alors g = e1 /\ ... /\ en un élément de /\ n ( E*) *, le scalaire
det(f.u) est tel que 9tu = det(f.u)g, avec 9tu définie, sur (E*)n, par
9tu( 'Pl,···, 'Pn) = g(f.u( cp1), ·.·,tu('Pn)) = g( 'Pl ou, ... , 'Pn ou).
En particulier, on aura

9tu(ei, ... , e~) = det(tu) · g(ei, ... , e~)


et aussi = g (e1* o u, e2* o u, ... , en* o u ) .

Or g( ei, ... , e~) = (e1 /\ ... /\en) (ei, ... , e~) = 1 puisque la base des
ei est duale de celle des ei.
Donc det(tu) = (e1 /\ ... /\ en)(eî ou, ... , e~ ou)
= I:: cue1ce:( 1)) ... en(e:(n)ou).
uE6n

Soit l'isomorphisme entre le bidual et E qui à un vecteur x associe la


x
forme linéaire de E* ~ K définie par

x(f) = f(x)
x
(on vérifie facilement que est une forme linéaire de E* dans K et que
X ........ X est elle-même linéaire injective, car x(f) = 0, Vf =} X = 0 sinon X
est alors dans une base de E et la forme coordonnée suivant x vaut 1 en x.
Comme dim E = dim E* = dim E** = n ici, x!+x
est un isomorphisme).
On a alors 9(ei) est définie, pour tout ej, par 9(ei)(ej) = ej(ei) = 1 si
i =jet 0 si i =!= j, donc 9(ei) = ei précédemment introduit.
Mais alors ej (e:(j) o u) = e:(j) (u( ej)) et

det(tu) = L éue:(l)(u(e1)) ... e:(n)(u(en)).


uE6n
Algèbre extérieure, déterminants 313

Si on veut réordonner le produit pour mettre en première position


ei(u(ek)) on doit avoir u(k) = 1 donc k = u- 1(1) d'où

det(tu) = L cuei(u(eu-1(1)) ... e~(ueu-l(n))


uE6n

et comme éu-1 =eu, et que O'-l parcourt Sn quand O' parcourt Sn en


posant u 1 = u- 1 on a encore

det(tu) = L é"uiei(u(eu'(l))) ... e~(u(eu'(n)))


u 1 E6n
= (ei /\ ... /\ e~)(u(e1), ... , u(en)) =<let u. Ouf! •

Cette démonstration est ici ridicule par excès d'abstraction. En effet


si A est la matrice de u dans la base B, on sait que tA est celle de l".zt dans
la base duale, (voir 8.8).•
On a <let u = <let A, (Théorème 9.23) et aussi det(l".zt) = det(tA).
Posons B =t A, donc f3ij = aji en prenant les termes généraux.
Alors <let u =<let A= L cua1u(l)' ... , an,u(n)•
uE6n
et a1,u(l) ... an,u(n) = Œu-l(l),l ... au-l(n),n• en permutant les termes
pour que les indices de colonnes croissent. ·Comme u- 1 décrit Sn lorsque
O' le décrit et que éu-1 = éu on a

det U = L éu-lŒu-1,1 ... Œu-l(n),n


u- 1 E6n

= L éu-1.61,u-l(l) ... f3n,u-l(n)


u- 1 E6n

= <let _B = <let tu.



CONSÉQUENCE 9.30. - Sachons faire preuve de bons sens et utiliser les
connaissances déjà acquises, parfois péniblement, pour nous faciliter le
travail!

CONSÉQUENCE 9.31. - Ce qui a été dit pour les colonnes peut se dire pour
les lignes. En particulier : une matrice A est inversible, ou de déterminant
non nul, si et seulement si la famille de ses vecteurs lignes est indépendante
dans Kn.
314 Algèbre

Car A inversible~ (det A =F 0), (corollaire 9.27), or det A= det(tA)


et det(tA) =F 0 ~ (famille des vecteurs colonnes de tA libre), (corollaire
9.20), et enfin les vecteurs colonnes de tA sont les vecteurs lignes de
A. •

3. Calcul des déterminants

La théorie c'est bien mais cela ne suffit pas toujours et si les mathéma-
tiques, jeu de l'esprit, tiennent dans la tête, elles passent aussi par les
mains. Donc, au charbon! Comment fait-on pour calculer des détermi-
nants et dans quel but.
Soit A= (aij) 1 ,;:: i,;:: une matrice de Mn(K), qui peut être la matrice
'o:::j..;;::::n
d'un endomorphisme dans une base, ou la matrice des composantes de n
vecteurs dans une base.
On a det A= L
êua1u(1)a2u(2) ... an,u(n)·
uE6n
Si on fixe les indices i et j, le terme aij figure dans les produits associés
aux a de 6n tels que a(i) = j, et il y figure au degré 1. Si on groupe
ensemble ces produits on pourra factoriser aij et écrire

L
crESn
êualu(l) ... ai-1,u(i-1)' ai,j ... an,u(n) = aijAij.
cr(i)=j

DÉFINITION 9.32. - Soit A E Mn(K). On appelle cofacteur de l'élément


aij de A, le facteur Aij de aij quand on groupe tous les termes de det A
contenant aij en facteur.

THÉORÈME 9.33. - Soit A E Mn(K). On a


n
det A = L aijAij
j=l

(développement suivant la ieme ligne), ou


n
'"'a·
det A - L....t
i=l
iJ·A-·
iJ

(développement suivant la ième colonne).


Algèbre extérieure, déterminants 315

Travaillons en colonne par exemple. Chaque produit intervenant dans


<let A contient un terme de la jÏème colonne, (j étant fixé), et un seul, car
les indices de colonnes, a(l), ... , a(n) redonnent {1, ... , n}.
On groupe donc ensemble les termes contenant alj• associés aux a
tels que a(l) = j, puis ceux contenant a2j, ... et après factorisation de
ces termes on obtient bien <let A= aljAlj + a2jA2j + ... + anjAnj· •

Si on dispose d'un moyen de calculer les Aij• c'est terminé.

DÉFINITION 9.34. - Soit A E Mn(K). On appelle mineur relatif à aij le


déterminant Dij de la matrice d'ordre n - 1 obtenue en retirant de A la
ième ligne et la jÏème colonne.

THÉORÈME 9.35. - On a Aij = (-1 )i+j Dij·


Donc le calcul de <let A sera ramené à celui den déterminants d'ordre
n - 1, d'où une récurrence descendante.
On commence par i = n, j = n : Ann est obtenu en factorisant ann
dans

L
crEISn
êual,u(l)a2,u(2) · · · an-1,u(n-l)an,n,
cr(n)=n

donc on a

An,n = L
crEISn
êua1,u(l) · · · an-1,~(n-1)·
cr(n)=n

Or si a(n) = n, a ne permute entre eux que 1, 2, ... , n - 1 et en notant


a'= al {1, ... ,n-1}
,on a êu' = êu, puisque la signature de la permutatio~
est
a(i) - a(j)
êu = II i-j
(définition 4.52),

et que, si a(n) = n, chaque fois que j = n, on aura en numérateur les


n - 1 termes a(i) - n qui décrivent l'ensemble des i - n dans un autre
ordre. Ils se simplifient et il reste ·
a(i) - a(j)
êu = II
l~i<j~n-1
i-j = êu'·
316 Algèbre

Donc Ann = L êu'al,u'(l) ... an-1,u'(n-1) est l'expression déve-


u'E6n-1
loppée du déterminant de la matrice des (aij) i.:;; i .;;;; n- l obtenue en sup-
J
primant, dans A, la nième ligne et la nième colonne.
Comme (-l)n+n = 1, l'expression An,n = (-l)n+n Dnn est vérifiée.
Pour i et j quelconques, on part de la matrice A et, par des permuta-
tions, on va amener la ième ligne en dernière position puis la ime colonne
en dernière position. On obtient une matrice A'. Pour les déterminants :
il y a eu n - i transpositions successives de la ligne ième ligne avec les
suivantes, et n - j transpositions de colonnes.
Donc det A= (-l)n-i+n-j det A'.
Le cofacteur Aij de aij sera donc le facteur de aij dans (-1) 2n-i-j
det A', mais dans A', aij est en nième ligne, nième colonne, donc Aij =
( -1 )i+j D~,n avec D~,n• mineur de a~n = aij dans A'. Or D~,n se calcule
dans la matrice obtenue, A' en lui supprimant sa nième ligne qui était
la ième de A et sa nième colonne qui était la ime colonne de A. Comme
la disposition relative des autres lignes et colonnes est inchangée, on a
D~n = Dij, déterminant de la matrice obtenue à partir de A en lui
supprimant la ième ligne et la jÏème colonne.
Finalement on a bien Aij = (-l)i+j Di,j· •

9.36. Remarque. Pour calculer det A en développant suivant une ligne,


ou une colonne, on peut remarquer que les cofacteurs des termes nuls de
cette ligne (ou de cette colonne) n'interviendront pas. On a donc intérêt à
choisir la ligne, (ou la colonne) ayant le plus de termes nuls.
On a même intérêt à «faire apparaître des zéros » et ceci par des
combinaisons de lignes, ou de colonnes car :

THÉORÈME 9.37. - Soit A E Mn(K). On note C1, ... , Cn ses n vecteurs


colonnes et Li, ... , Ln ses vecteurs lignes. Si A' est la matrice obtenue
en ajoutant à une colonne Cj une combinaison linéaire des autres on a
det A = det A'. De même det A ne change pas si on ajoute à une ligne
Li une combinaison linéaire des autres.

n
Si on remplace Cj par Cj +L >.kCk> la n-linéarité de det A par
k=l
k#j
rapport à ses vecteurs colonnes donnera
Algèbre extérieure, déterminants 317

n
det A= det A+ L Àk det(C1 ...• 1ck1.... Cn),
k=l
k#j

1 ck 1étant en ième position.


Comme j =/:- k, la colonne Ck figure aussi en kième position. On a
deux vecteurs colonnes égaux, or det est forme alternée par rapport aux
vecteurs colonnes donc tous ces termes sont nuls. Le résultat pour les
lignes s'obtient en considérant det A= det(tA), (Théorème 9.29). •

Voyons des cas particuliers intéressants.

9.38. Déterminant d'une matrice triangulaire

tu ti2 tin
0 t22 t2n
Soit T = 0 0 t33 une matrice dont tous les termes

0 0
sous la diagonale sont nuls.
On a det T = tu t22 ... tnn. produit des termes diagonaux.
Car en développant par rapport à la 1re colonne, seul tu est non
t22 t23 · · · t2n
0 t33
nul donc det T = tu 0 , (car (-1) 1+1 = 1), et

0 tnn
on continue en développant le déterminant d'ordre n - 1, triangulaire,
obtenu. •

9.39. Cas d'une matrice triangulaire par blocs

Soit A = ( A~i ~~~) une matrice de Mn(K), avec An carrée


d'ordre p, A22 carrée d'ordre q et Ai2 matrice à p lignes et q colonnes.
On a : det A = det An det A22·
En effet det A= L êua1u(l) ... ap,u(p)ap+l,u(p+l) ... ap+q,u(p+q)·
uE6n
318 Algèbre

Dans le terme général de cette somme, si pour uni> p on a a(i) ~ p


le terme ai,u(i) est nul. Donc il reste que des termes associés aux a de 6n
qui permutent ensemble {p + 1, ... , n} et donc aussi ensemble { 1, ... , p}.
Soit une permutation, elle induit un permutation a' de { 1, ... , p},
définie par a'(i) = a(i) si i ~ p, et une permutation' a" de {1, ... ,q}
définie, (c'est plus subtil), par a(p+k) = p+a"(k) car les éléménts p+ 1,
p + 2, ... , p + q = n sont permutés par a, donc si k décrit {1, ... , q},
l'application k ~ a(p + k) - p est une permutation de {1, ... , q}.
De plus eu= € 171€1711, (vérification laissée au lecteur) d'où

det A = L c171€1711a1u'(a) ... ap,u'(p)ap+I,p+u"(I) ... ap+q,p+u"(q)


u 1 ESp
u 11 E<Sq

= L éu"ap+I,u"(I)+p ... ap+q,p+u"(q)


u 11 ESq

où on a factorisé det(Au) qui est constant par rapport à a" et on trouve


bien:

det A = det Au det A22·


Ce résultat se généralise, par récurrence à

Au
0
A12
A22
... Alk) k
A= ( . et det A= Il det Aii·
i=l
0 Akk

Les cofacteurs, (définition 9.32) vont nous servir à calculer l'inverse


d'une matrice carrée A inversible.

DÉFINITION 9.40. - Soit A E Mn ( K) on appelle comatrice de A, la matrice


carrée notée com(A) dont le terme général est Aij• cofacteur de aij·

THÉORÈME 9.41. -Soit A E Mn(K). On a A· t(com(A)) = (det A)In =


t(com(A)) ·A

Posons B = ((3·i3·) 1,,;;'· ,,;;n tcom(A). On a !3ij = Aji avec Aij


)
cofacteur de aij dans A. '·
Algèbre extérieure, déterminants 319

n
Soit D =AB, son terme général est drs =L arkf3ks soit
k=l
n
drs =L arkAsk·
k=l
n
Mais alors, si s = r, drr L arkArk est l'expression de (<let A)
k=l
obtenue en développant suivant la rième ligne, donc drr = <let A.
Sis =f. r, l'expression drs est le déterminant de la matrice A' obtenue
en remplaçant la sième ligne de A par la rième de A, déterminant calculé
en développant <let A' suivant sa sième ligne.
En effet, les cofacteurs A~k sont égaux à ( -1 )s+k D~k avec D~k,
mineur obtenu dans A' en supprimant la sième ligne et la kième colonne.
Mais alors, ce qui reste dans A' vient de A, donc D~k = D sk et A~k = Ask·
n n
On a donc L arkAsk = L a~kA~k = det A' = 0 car, dans A', la
k=l k=l
ligne Lr figure en rième ligne et aussi en sième ligne.
Finalement, 'efr =f. s, drs = 0 d'où At(com(A)) = (<let A)In. La for-
mule (<let A)In = tcom(A) ·A se justifie de façon analogue en travaillant
en colonnes. •

THÉORÈME 9.42. - Soit A E Mn(K), A est inversible si et seulement si


1
det A =f. 0 et A- 1 = <let A t(com(A)).

Si <let A =f. 0, le théorème 9.41 donne


1 1
A· det A tcom(A) = <let A tcom(A) ·A = In

d'où A inversible et son inverse A- 1 connu.


Si A inversible, l'égalité A· A- 1 =In donne (<let A)(det A- 1 ) =1
donc <let A =f. 0 d'où le théorème. •

9.43. Remarque. On emploie aussi le terme de matrice régulière lorsque


det A =f. O. C'est parce qu'on peut introduire la notion de déterminant,
et de matrice, lorsque les scalaires sont dans un anneau commutatif.
Dans ce cas cependant, la non nullité du scalaire det A n'implique pas
l'existence d'un inverse. Les deux notions de matrice régulière et de
matrice inversible deviennent alors distinctes.
320 Algèbre

4. Applications des déterminants

Nous avons rencontré plusieurs fois le terme rang. D'abord le rang


de f E L(E, F) : c'est dim f (E) lorsque ce sous-espace est de dimension
finie, (définition 6.86).
Puis le rang d'une matrice A, plus grand entier r tel qu'il existe une
matrice carrée d'ordre r, inversible, extraite de A, (définition 8.26).
Il nous manque la définition du rang d'une famille de vecteurs, qui
aurait pu être donnée dans les espaces vectoriels.

DÉFINITION 9.44. - On appelle rang d'un ensemble (Xi)iel de vecteurs de


E vectoriel, le plus grand entier r tel que l'on puisse extraire de (Xi)iel
une sous-famille libre de r vecteurs.

Le plus souvent ceci s'applique avec card I fini, mais ce n'est pas obligé.
Nous allons relier toutes ces notions.

THÉORÈME 9.45. - Le rang d'un système fini de vecteurs de E espace


vectoriel de dimension finie, est le rang de la matrice de ses coordonnées
dans une base quelconque, B, de E.

Soit E de dimension n sur K, x1, ... , Xp des vecteurs de E et


B = (e1, ... , en) une base de E. Soit par ailleurs X1, ... , Xp les vecteurs
colonnes des coordonnées des Xj dans la base B.
Soit r le rang de la famille {x1, ... , Xp} et r' celui de la matrice

A = (X1IX21 · . · IXp) , matrice n lignes, p colonnes des coordonnées


des Xj.
On suppose la famille (x1, ... , Xr) libre, sinon, on permute les vecteurs
de façon à ce que les r premiers soient libres et dans la matrice A, on
permutera de la même façon les colonnes, ce qui ne changera pas le rang
de la matrice obtenue puisque le caractère inversible d'une matrice se
traduit finalement par un déterminant =f. 0, et qu'une permutation de
colonnes transforme éventuellement un déterminant en son opposé.
On a forcément r ~ n. Sir= n, la famille (x1, ... , Xn) est libre dans
E de dimension n donc det13(x1, ... , x~) =/:- 0, (Théorème 9.19), d'où la
matière carrée extraite de A avec les n premières colonnes et les n lignes
inversibles, (Théorème 9.42), donc rang A ;;;i: n. Comme il n'y a que n
lignes dans A, forcément le rang de A est ~ n donc on a r' = rang A = n.
Algèbre extérieure, déterminants 321

Si r < n, le théorème de la base incomplète nous dit qu'il existe


n-r vecteurs ei 1 , eh, ... , ein-r extraits de B tels que (x1, ... , Xr, ei 1 , ... ,
ein-r) soit de rang n.
Soit A' matrice des coordonnées de ces vecteurs dans la base B. On a
0 0

1
A'= X1 X2 .. . Xr 0 O
1

0 0
les r premières colonnes étant les r premières colonnes de A et les n - r
dernières colonnes étant formées de termes tous nuls sauf un valant 1,
situé sur les lignes distinctes, d'indices i1, ... , in-r·
Si on permute ces lignes pour les amener en position respectives r + 1,
r + 2, ... , n, o~ obtient la matrice
0

0 0
A"= Xf X~ ... X~ 1
0
1

où Xf, ... , X~ sont les vecteurs colonnes des coordonnées de x1, ... , Xr
mais les lignes d'indices i1, ... , in-r ayant été permutées dans les posi-
tions r + 1, ... ,n.
On a det A' =f 0, donc aussi det A" =f 0, (det A" = ± det A'). En
développant successivement det A" par rapport à ses dernières colonnes
il vient

xir
det A"=
x~l X~r
Comme les lignes de ce déterminant d'ordre r proviennent de lignes de
la matrices des r premières colonnes de A', donc de A, on a finalement
extrait de A un déterminant d'ordre r non nul, d'où (rang A) ;;:: r.
322 Algèbre

Puis avec r 1 = rang A, il y a un déterminant non nul d'ordre r 1


extrait de A. Soient j1, ... , ir, les indices de colonnes associées : la
famille {Xjl, ... , Xjr} est libre, sinon l'un des vecteurs serait combinaison
linéaire des autres, mais alors, dans la matrice carrée d'ordre r 1 extraite
inversible, une colonne serait combinaison linéaire des autres, on aurait
un déterminant nul, c'est absurde.
Mais alors le rang r des vecteurs est ~ r 1 , d'où r = r 1• •

COROLLAIRE 9.46. - Le rang de f E L( E, F), E et F espaces de dimension


finie, est le rang de la matrice A associée à f dans des bases de E et F
données.

Car sin= dimF, p = dimE, {ei, ... ,ep} base de E et


C = (c1, ... ,en) base de F, on a
rang f = dim f (E) = rang(! (el), ... , f (ep)), (famille de vecteurs),

soit rang f = rang de la matrice des composantes des f (ej) dans la base
C de F, mais cette matrice c'est précisément A. · •

Cette liaison entre rang d'une famille de vecteurs, d'un endomor-


phisme et d'une matrice va nous permettre de traiter la résolution des
systèmes d'équations linéaires.

9.47. On appelle système linéaire de p équations à n inconnues sur un


corps K la donnée de p équations du type.

a11x1 + · · · + a1nXn = /31


(I)
[
~~~~·1· ~::: ~.~~~~~ .~.~~
ap1x1 + ... + apnxn = /3p
où les aij et les /3i sont dans K. On appelle solution de ce système tout
n-uplet (xi, ... , Xn) vérifiant (I).

9.48. Un tel système est dit homogène si et seulement si chaque /3i = 0


(et dans ce cas il admet déjà le n-uplet (0, 0, ... , 0) comme solution).
On peut interpréter (1) de 2 façons.
1re interprétation. On introduit les n vecteurs Vi, ... , Vn de KP définis
p
par lij = Laijei si (e1, ... ,ep) est une base de KP, ainsi que B
i=l
Algèbre extérieure, déterminants 323

p
L f3iei. Alors (x1, ... , Xn) est solution de (1) {::} B E Vect(Vi, ... , Vn)
i=l
n
et B = LXi"i·
j=l
2e interprétation. On introduit E = Kn et F = KP rapportés à des
bases B et C, et f l'endomorphisme de matrice A= (aij) 1.;;i.;;p dans ces
l~j~n
bases.
Si b est le vecteur de F de coordonnées ,81, ... , ,Bp, on aura x de
coordonnées (x1, ... , Xn) dans B est solution si et seulement si le vecteur
x ayant les Xi pour coordonnées dans B vérifie f (x) = b, égalité vectorielle
ayant pour transcription matricielle AX = B, avec X matrice colonne
d'ordre n des Xj et B matrice d'ordre p des ,Bi.
Donc (1) aura des solutions si et seulement si b E ~ f, et dans ce cas,
si xo est une solution, toute autre solution vérifiant f(x) = f(xo) est telle
que f (x -xo) = 0, (linéarité de f), d'où x -xo E Ker f et x E xo +Ker f.
Comme réciproquement pour xo solution de (1) et t E Ker f on aura
f(xo + t) = f(xo) + f(t) = b, on sait déjà que si le système (1) a des
solutions ce sont les éléments d'un espace affine xo + Ker f. Mais il peut
ne pas y avoir de solutions.
Considérons donc la condition b E ~ f. Le sous-espace ~ f de KP est
de rang r, r rang de f donc rang de la matrice A, soit encore rang des
vecteurs Vi , ... , Vn de la 1re interprétation.
le cas rang r = p = nombre d'équations. Alors ~ f = KP contient
forcément b donc il y a des antécédents xo tels que f (xo) = b.

9.49. Si le rang r du système est égal au nombre, p, d'équations le système


admet des solutions qui forment un espace affine de dimension n - p
(n nombre d'inconnues).
En effet, rang f + dim Ker f = dim E = n =? dim(Ker f) = n - p. •
2e cas rang r < p. Il y a des équations en trop : les ennuis commencent.
Prenons l'interprétation vectorielle. La famille (Vi, ... , Vn) des vec-
teurs colonnes de A est de rang r d~s KP. Il existe donc une sous-
famille {lJ.1 , .•• , l'ir} extraite libre, et Vj ::;;; n, j fj {ji, ... ,jr }, on a
Vj E Vectl Vj 1 , . . . , Vjr) d'où Vect(Vi, ... , Vn) = Vect(Vj1 , ..• , Vjr) et la
condition d'existence des solutions est ramenée à : ((1) a des solutions)
{::} (B E Vect(Vj 1 , ••• , l'ir)). Comme la famille (Vj 1 , ••. , Vjr) est libre,
ceci équivaut à : (Vj1 , ..• , "ir, B) liée (Théorème 6.61), donc
{::}rang de cette famille < r, (donc= r puisque Vj 1 , . . . , Vjr est déjà
libre),
324 Algèbre

<=> rang de la matrice des composantes de- ces vecteurs est r,


<=>tous les mineurs d'ordre r + 1 sont nuls.
Comme (l-ji, ... , \'ir) est libre, il existe un déterminant d'ordre r non
nul dans la matrice des composantes de ces vecteurs. Soient ii, ... , ir les
lignes correspondantes.
Les inconnues d'indices jk, 1 ~ k ~ r sont dites principales et les
équations d'indices ik, 1 ~ k ~ r sont dites principales.
Si on a une solution à (1), tous les mineurs d'ordre r + 1 de la matrice

ai,j1 ai,i2 ai,jr f3i )

M =
(
~~:i.1 ...~~,~~ .. : : : .. ~~:~r...~~
ap,ji ap,i2 . . . ap,jr (3p

étant nuls, en particulier les p - r déterminants obtenus en prenant la


ligne de rang i fJ. {ii, ... , ir} :

doivent être nuls.

9.50. Ces p - r déterminants sont appelés les caractéristiques du système


car on va voir que, réciproquement, s'ils sont nuls on a des solutions.
En effet, si on considère les Ci on s'aperçoit que pour i 1 =/:- i on passe
de Ci à Ci, en ne changeant que la dernière ligne, ce qui ne change pas
les cofacteurs des termes de la dernière ligne.
Soient donc ai , ... , ar, (3 les cofacteurs de cette dernière ligne, on a
ci= aiai,j1 +a2ai,i2 + .. . +arai,ir +f3f3i, et considérons ai l'i1 +al-j2 +
... + ar \'ir + (3B.
La kième coordonnée est ai ak,ji + a2ak,i2 + ... + arak,ir + f3(3k, c'est
donc le déterminant

ai1 ,j1 · · · aii,jr f3i1


ai2,j1 · · · ai2,ir f3i2

air,ir f3ir
ak,jr f3k
Algèbre extérieure, déterminants 325

qui est toujours nul si on a supposé tous les caractéristiques nuls car si
k ~ {ii, ... , ir }, on a un caractéristique, donc 0, et si k E {ii, ... , i2} on
a 2 lignes égales: on a un vecteur nul.

Comme /3, le cofacteur de /3i dans Ci est =f 0, la


nullité du vecteur implique

d'où l'existence de solutions.



On vient de justifier la théorème de Rouché.

THÉORÈME 9.51. (dit de Rouché). - Soit un système de p équations à n


inconnues de rang r.
Si r = p, le système a des solutions qui forment un espace affine de
dimension n - r.
Sir <pet si l'un des p - r caractéristique est non nul, il ny a pas de
solutions.
Sir < pet si les p-r caractéristiques sont tous nuls, il y a des solutions
qui forment un espace affine de dimension n - r.

REMARQUE 9.52. - Si le système est homogène, (9.48), il y a toujours la


solution nulle, c'est donc que, le cas échéant, les caractéristiques sont nuls,
ce qui est évident leur dernière colonne étant nulle.

REMARQUE 9.53. - On détermine le rang r du système, quand on extrait


un déterminant, Dr, non nul d'ordre r, on obtient les p- r caractéristique
en le bordant.
On prend une équation non principale, (la ième) et sous Dr on met
la ligne L des coefficients des inconnues principales ainsi que du second
membre /3i en fin de ligne, et on borde à droite Dr par la colonne Cdes
coefficients « second membre » /3ik d'indices correspondants aux équations
principales, C se terminant en bas par /3i.

L
326 Algèbre

Cette technique peut servir entre autre dans l'étude des vecteurs
propres en dimension finie.

REMARQUE 9.54. - Comment trouve-t-on, les solutions ?

Supposons d'abord que n = p = r : le système (!) s'écrit donc


matriciellement (!) : AX = B avec A E G Ln (K), X et B matrices
colonnes d'ordre n.
Il a une solution unique: X= A- 1 B.
1
Comme A- 1 = <let A tcom(A), si on note Aij le cofacteur de aij on
1
a: X= <let A ~com(A))B.

La ;>me ooo«ionnée eot x; ~ d~ A (AliA2i ... A.;) (1) oar la

ième ligne de ~corn A) vient de la ième colonne de la comatrice ; soit encore

1 n
Xi = -dAL f3kAki·
et k=l

n
Or L /3kAki est le développement suivant la ième colonne du déter-
k=l
minant de la matrice Ai obtenue en remplaçant la ième colonne de A par
celle des seconds membres.

9.55. Un tel système (avec A inversible), est dit de Cramer et les formules

~·· :::"'"~•1~·-1""'.+ 1 · ·· a1,n

an,1 · · · Cl!n,i-1 f3n an,i+l ··· an,n


Xi=~~~~~~,..--~~~~...,.....~~~~

<let ((auvhs::"s::n)
""V"'
sont dits de Cramer.

Cas général de p équations à n inconnues de rang r, et lorsque les p - r


caractéristiques sont nuls. On choisit des valeurs arbitraires des n - r
Algèbre extérieure, déterminants 327

inconnues non principales, et il reste un système de Cramer de rang r à


résoudre.

l
EXERCICES

n
01 21 32 ... n-1
1. Inverse de la matrice A = ( ................... .
0 0 0 .. . 2
0 0 0 1

2. Calculer le déterminant

3. Calculer le déterminant de la matrice A d'ordre n, de terme général


aij avec aii =ai+ bi et aij = bi si i i- j.

4. Soit A, B dans Mn(IR) et M = (~-. ~-. ~-.:::. -~ ..~]


B B B ... AB
B B B B A
E Mnp(R). Soit E = {À, det(A - .XB) = O}. Trouver une condition
nécessaire et suffisante portant sur E pour que M soit inversible et
dans ce cas calculer M- 1.

a+b b+c a+c


5. Calculer le déterminant a2 + b2 b2 + c2 a2 + c2
a3 + b3 b3 + c3 a3 + c3
328 Algèbre

6. Calculer le déterminant dit de Van der Monde :


1 1 1
Xn
x2
n

7. Trouver toutes les matrices A de Mn(R) telles que, pour toute


matrice X de Mn(R) on ait det(A +X)= det A+ det X.

8. Montrer qu'une matrice carrée ayant exactement un élément non


nul par ligne et par colonne est inversible.

9. Soit A n =(a··) ·
iJ l~j~n
avec a··=
iJ
(-l)max(i,j) , calculer det A n·

10. Montrer que n fonctions, Ji, ... , fn de IR dans C sont linéairement


indépendantes si, et seulement si, il existe (xi, ... , Xn) dans IRn tel
que det((fi(xj)) =fa O.

3 2x+y 3x+y-z 3z
11. Trouver (x, y, z) E IR tel que - - - -
x +y - z z 2x-y

12. Déterminer le polynôme caractéristique de A E MnlR avec

A=(~ ~ O 0 ... 0
~ ~. J-
.. ..•••.... .....
n-1
1 2 n-1 n
13. Soient E et F deux espaces vectoriels de dimensions respectives p
et q sur C. Soit f E L(E) et g E L(F). Calculer le déterminant de
<P: L(E, F) ~ L(E, F) définie par <P(h) =go ho f.
14. Soient A et B dans Mn(IR) qui commutent, et telles que
det(A + B) ~ O.
Montrer que pour tout p de 1\1, det(AP + BP) ~ O.

15. Calculer le déterminant Dn de la matrice carrée d'ordre n, A, de


terme général aij• avec aii = 2 coscp, ai,i+l = ai,i-1 = 1 et aij = 0
sinon.
Algèbre extérieure, déterminants 329

SOLUTIONS

1. Comme det A = 1, la matrice est inversible. En détaillant le système


Y = AX on constate que

[ ~~-~-~;-~. ~-1· ~~-~-~::: -~-~~-


Yn-1 - Yn = +
Xn-1 Xn
Yn = Xn
d'où l'on tire

[ ...... ~ =. ~ =[~ =~l : .~ ..


Yn-2 - Yn-1 - (Yn-1 - Yn) - Xn-2
Yn-1 - 2yn = Xn-1
Yn =Xn
1 -2 1 0 0
0 1 -2 1 0

d'où
0 0 0 0 1 -2 1
0 0 0 0 ... 0 1 -2
0 0 0 0 ... 0 0 1
2. On note M la matrice général mi,j = (i + j - l)n pour 1 ::::;; i, j::::;; n + 1.
1 b 1
. deJ"aloux, posons ai= i . - 2'
Pour ne pas f:aire j = J. - 2' on a
n
mij =(ai+ bj)n = L C~afbj-k
k=O
n+l
_ °"'(cr-1 r-l)bn+l-r
- L__, n ai j •
r=l
n+l
et avec Oi,r = Cnr-1 air-1 et {3r,j = bn+l-r
j , mij = L__, Oir {3rj devient
""' ·
r=l
le terme général de la matrice produit AB, avec A= (ai,rh..;;i,r..;;n+l et
B = (.Br,jh..;;r,j..;;n+i d'où det(M) =;== det A det B.
Dans la rième colonne de A on factorise c;;,- 1 , donc

n+l a~ ai ar n
det A= II c~-l ag a~ a~ = II c~ II (aj-ai).
r=l ~~~·; · ·. ·. ·. · ·::: · -~~~l
330 Algèbre

et
bî ... b~+l
<let B =<let
bn-1
1 ... b~-1 II (bi - bj)·
. b~· .. ·.·::. b~~~. 1,,.;i<j,,.;n+l

(Voir l'exercice 6 pour le calcul de ces déterminants de Van der Monde.)


Comme aj - ai = j - i et bi - bj = i - j on a finalement

n
D =II c~ II -(j - i) 2 =(-1) ~nII (n - k)k+ic~.
k=O 1,,.;i<j,,.;n+l k=O

3. On utilise l'aspect n-linéaire alterné du déterminant, fonction des vecteurs


lignes. On introduit dans les n-uplets Bi = (bi, ... , bi) et
Ai= (0, ... , 0, ai, 0, ... , 0), ai en ième position.
Ona <let A= det(A1 +Bi, ... ,Ai+Bi, ... ,An+Bn) est à priori somme
de 2n termes, mais les Bi étant tous proportionnels, il ne reste que les n + 1
termes où figure un Bi au plus.
n
det A= det(Ai, ... , An)+ L det(A1, ... , Ai-1' ,Bi, Ai+l• ... An)
i=l

n
d'où <let A= ai .. . an+ 2.:a1 ... ai-lbiai+l · .. an.
i=l

4. M sera inversible si et seulement si son déterminant est non nul. En


soustrayant à chaque colonne (blocs) la dernière, puis en ajoutant toutes
les lignes à la dernière on a :

A-B 0 0 0 B
0 A-B 0 0 B
<let M=
0 0 0 A-B B
B-A B-A B-A B-A A
A-B 0 0 .. . 0 B
0 A-B 0 .. . 0 B
=
0 0 0 A-B B
0 0 0 ... 0 A+ (p - l)B

d'où <let M = (det(A-B))P-l det(A+(p-l)B), sera# 0 si et seulement


si det(A - B) # 0 et det(A - (1 - p)B) :;i: 0 d'où (M inversible){::} (1 et
1 - p ne sont pas dans E).
Algèbre extérieure, déterminants 331

On cherche M- 1 sous la forme .··(~'A' B' ... B')


: avec A' et B' dans
: . B'
B' ... B' A'
. d .t ti AA' + (p - I)BB' =In
M n (R) , ce qw con w aux re1a ons { BA' +AB' + (p _ 2 )BB' = 0

AA' - BA' - AB'+ BB' = In = (A - B)(A' - B') (différence)


{::} { AA' + (p - I)(BA' +AB') + [(p - l)(p - 2) + p - I]BB' = In
(le+ (p - 1)2e)

{ (A-B)(A' -B') =ln


{::} (A+ (p - l)B)(A' + (p - l)B') = In
A' -B' = (A-B)- 1
{
{::} A'+ (p - l)B' = (A+ (p- l)B)- 1

d'où A'= ~ ( (p - l)(A - B)- 1 +(A+ (p- l)B)- 1 )

et B' = ~( - (A - B)- 1 +(A+ (p - l)B- 1 ).

5. On retrouve dans les colonnes les vecteurs A = ( ~~), B = ( ~~) et

C = ( ~~ ) de K 3 . Le déterminant étant fonction 3 linéaire alternée des

vecteurs colonnes, on a
D = det(A+ B,B +c,c +A)
= det(A, B, C) + det(B, C, A)
1 1
= 2 det (A, B, C) = 2abc 1 a b
a2 b2
= 2abc(b - a)(c - a)(c - b), (voir exercice n° 6).
6. C'est un classique qui doit être connu. D'abord, si deux éléments Xi et Xj
sont égaux, le déterminant est nul, deux colonnes étant égales.
Si on considère le déterminant développé, c'est un polynôme de degré n-1 au
plus en chaque variable. Si on considère Xi comme une variable, ce polynôme
s'annulera si Xi= Xj pour j E {1, ... ,n}' {i}, donc ce polynôme est
divisible par chaque Xi - Xj pour i =I= j
Soit alors l'expression II (x; - Xi)· C'est un polynôme homogène
l~i<j~n
n(n -1)
de degré 2 , (nombre de facteurs), par rapport à l'ensemble des
332 Algèbre

variables, comme V(x1, ... , xn) qui est une somme den! termes tous de
n(n -1)
degrél+2+3+ ... +n-1= 2 .(ilyauntermedechaqueligne
dans un produit du déterminant). Ces deux polynômes sont proportionnels.
Or le terme qui est : de plus haut degré en Xn. et parmi ceux-là, de plus haut
.
degré enXn-1,pwsenXn-2, ... estxn n-21 ... x2 d ans 1es 2 poynomes,
n-1 xn_ 1 -
(à vérifier) d'où
V(xi, x2, ... , Xn) = Il (xj - Xi)·
l.;;;i<j.;;;n
7. Si n = 1, la relation devient a+ x = a+ x pour a et x réels elle est toujours
vérifiée.
Soit n ~ 2. Si A vérifie la propriété, det(A +A) = 2n <let A = 2 <let A
implique <let A = O. Puis, V>. E R, det(A - >.In) = <let A+ (->.r ·=
( - )... ) n : le polynôme caractéristique de A est scindé, donc A est jordanisable
sur R (chapitre X, §4). Comme le déterminant est stable par passage à une
0 1 0
matrice semblable on remplace A par A' ou

0
0 0
Si A # 0, dans A' il y a des 1 au dessus de la diagonale. Soit X'
0 0 0
0 ou avec x~,i+l = 1 - a~,i+l : on a des 0 au dessus

1
1 0
de la diagonale donc <let A' = <let X' = 0, alors que A'+ X' est inversible.
La relation det(A' +X') =<let A'+ <let X' est exclue.
Donc seule A' = 0 convient, d'où seule A = 0 est solution.
8. Soit i = u(j) l'indice de la ligne tel que, pour j fixé, aij i= 0, (il y a un seul
terme de la jième colonne non nul). Comme il n'y a aussi qu'un terme non
nul par ligne, j i= j' => u(j) i= u(j') donc u est une injection de {1, ... , n}
dans lui-même, c'est-à-dire une bijection.
On a alors <let A= éqaq(l)l a""( 2)2 ... aq(n),n i= 0 donc A est inversible.
Ou bien A est la matrice de l'isomorphisme envoyant ej sur aq(j),jeq(j)·

9. Si on compare les lignes Li et Li+l de la matrice, on a


Li = ((-l)i, ... ,(-l)i,(-l)i+1, ... ,(-l)n), le changement de signe
ayant lieu en (i + l)ème position, et de même
Li+l = ((-l)i+ 1, ... , (-l)i+ 1 , (-1/+ 1 , (-l)i+ 2 , ... , (-l)n),
Algèbre extérieure, déterminants 333

d'où l'on tire


Li+ Li+1 = (0, ... , 0, 2(-l)i+ 1, 2(-l)i+2 , ... , 2(-l)n).
Comme det(Li, L2, ... , Ln) = det(,L1, Li +L2, L2+L3, ... , Ln-1 +Ln),
(fonction n-linéaire alternée des lignes), et que la nouvelle matrice est
triangulaire supérieure, de diagonale -1, 2(-1) 2 , 2(-1) 3, ... , 2(-lr
on a det An = 2n-l (-1) ~.

10. On procède par récurrence sur n. Si n = 1, ({fi} libre) ~ (!1 # 0) ~


(3x1,fi(x1) # 0).
On suppose le résultat vrai à l'ordre n - 1. On a :
C{fi, ... , fn} libre)~ C{fi, ... , fn-d libre et fn ~ Vect{Ji, ... , fn-1})
~ (3(x1, ... ,Xn-1) E Rn-l tel que
dn-1 = det[(f(i(Xj)h~i,j~n-1] # 0) et fn ,l!Vect(Ji, ... , fn-1).
fi (x1) fi (Xn-1) fi (t)
Soit alors t ---t D(t) = · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · , déve-
fn-1 (x1) · · · f n-1 (Xn-1) f n-1 (t)
fn(x1) ··· f n(Xn-Ü f n(t)
loppé par rapport à la dernière colonne, on a
n-1
D(t) = dn-ifn(t) + L O.jfj(t).
j=l

Si, Vt ER, D(t) = O,commedn-1 =f. O,c'estquefn E Vect{!i, ... ,fn-1},


ce qui est exclu, donc 3xn tel que D(xn) #O. On a bien {/1, ... , fn} libre
=? 3(xi, ... ,xn) E Rn tel que det((fi(xj)h~i,j~n) # 0, pour tout n.
La réciproque est évidente, si on a (x1, ... , xn) dans Rn tel que le détermi-
nant des fi(xj) soit non nul,et si {Ji, ... , fn} était liée, l'une des fonctions
serait combinaison linéaires des autres d'où une ligne de la matrice combi-
naison linéaire des autres : c'est exclu.

ll. On va résoudre l'exercice en convenant que, si un dénominateur est nul, le


numérateur associé l'est aussi. Il sera.toujours possible d'exclure les solutions
donnant des dénominateurs nuls.
On cherche donc (x, y, z) tel que la matrice

M =( 2x + y 3x + y - z 3z )
x+y-z z 2x-y
soit de rang 1 au plus. Si on note C1, C2, C3 les 3 vecteurs colonnes de M,
la famille {Ci,C2,C3} est de même rang que {C1 + C2 + ~3 ,C2,C3},
(matrice de passage inversible car triangulaire avec des 1 sur la diagonale).
Donc M est de même rang que

. ( 5x + 2y 3x + y - z 3z )
M' = 5x 2y
3 +3 z 2x-y'
334 Algèbre

mais aussi de même rang que

5x + 2y 3x + y - z 3z )
M" - ( y 4z
- 0 -X - 3+3 2x - y - Z '

(si Li et L2 sont les vecteurs lignes de M', le rang de {Li, L2} est celui de
{Li,L2 - 3Li }).
Vu la forme de M", celle-ci est rang inférieur ou égal à 1 si et seulement si

5x+2y=O
et
{ 3x+y-z 3z
y 4z 2x-y-z
-x--+-
3 3
ou
5x+2y # 0
et
{ y 4z
-x- -+-
3 3
=0.
et
2x-y-z=O

t-z 3z
Le 1er cas équivaut à : 3t E R, x = 2t, y = -5t, et t 4z 9t- z
--+-
3 3
~ 3t ER, x = 2t, y= -5t, z 2 + 3tz + 3t2 = 0
-3± J2î
~ 3t E R, x = 2t, y = -5t, z = 2 t.

Le 2e cas é qwvaut
. a, : 5x ...J.O, {3x+y=4z
+ 2y -r- 2x _ y = z

~ 5x + 2y # 0, 3x + y = 4z, 5x = 5z
~x = z =y#O.
Algèbre extérieure, déterminants 335

12. On développe Pn(X) = det(A - Xln) suivant la dernière ligne en:

-X 1
2
0
n-1 -X i-1
Pn(X) = l::::C-l)n+ii 0 i
i=l
-X
0
0 n-2
0 -X n-1
..__...
ordre i -1 ordre n - i
+ (n - X)(-X)n-l
n-1 .
= L (-lt+ii(-X)i-1 (-l)n-i+li(-X)n-i-1
i=l
+ (n -
X)(-X)n-l
n-1
= 2:::C-l)n-li2 xn-2 + (-l)n-1 xn-l(n - X)
i=l
n-1
=(-l)nxn-2(x2-nX-2:::i2).
i=l

13. Soit B = {ei, ... , ep} une base de E et C = {êi, ... , êq} une base de
F. On note A et B les matrices, de termes généraux aij et bij• de f et g
respectivement dans ces bases.
Soit hij l'application linéaire de E dans F définie par: hij (ei) = êj et pour
tout k =f:. i, hij(ek) =O.

On a go hij o f(ek) =go hij ( L aukeu) = g(aikêj)


u=l
q
= aik L bviêv.
v=l

(go hij o J)(ek) =( L aikbvjhkv) (ek)·


v=l
336 Algèbre

Or, pour tout l # k, hzv(ek) = 0, donc le second membre est encore


p q

= c~:.:::L:ailbvjhlv )(ek)·
!=1 v=l

Cette égalité étant valable pour tout ek de B, on a


p q

</>(hij) = L L ailbvjhlv·
!=1 v=l
Si on indexe la base canonique de L (E, F) dans Pordre :
hu, h12, ... , h1q; h21, h22, ... , h2q; ... ; hpi, hp2, ... , hpq
la matrice de </> est la matrice bloc C avec

En prenant une base B de E telle que A soit triangulaire supérieure, la


p
matrice C devient triangulaire par blocs et <let C =II (aiiB).
i=l

<let c= (II aii


i=l
r
Comme B est carrée d'ordre q, det(aiiB)
p
= (aii)q det B
(<let B)P = (<let A)dim F (<let B)dim E.
et on obtient

Finalement <let </> = (<let f) dim F (det g) dim E.


14. Si p = 2q est pair, comme A et B commutent, A 2q + B 2q = (Aq +
iBq)(Aq - iBq). Comme A et B sont à coefficients réels, les matrices
Aq + iBq et Aq - iBq sont complexes conjuguées donc det(A 2q + B 2q) =
1 det(Aq + iBq)l 2 est réel positif.

Si p = 2q + 1 est impair, les 2q + 1 racines de x 2q+l + 1 = 0 s'écrivent


-1, a1, ... , aq, ëi7i, ... , ëi7q, et, comme A et B commutent, on a
q
A 2q+l + B 2q+l =(A+ B) II (A+ ŒjB)(A + ëi7jB),
j=l

donc
q
det(A 2q+l + B 2q+l) = det(A + B) II 1 det(A + ŒjB)l 2
j=l
Algèbre extérieure, déterminants 337

est encore positif puisque det(A + B) l'est.


15. En développant Dn par rapport à la première ligne on obtient
1 1 0 0
0 2 cos r.p 1 0
1 2 cosr.p 0
Dn = (2 cosr.p)Dn-1 - O

0 12cosr.p
le déterminant étant d'ordre n - 1, on le développe par rapport à la Ire
colonne, et pour n ~ 3 on obtient Dn = 2 cosr.pDn-1 - Dn-2. avec
D1 = 2 cos r.p et D2 = 4 cos 2 r.p-1. On a une suite récurrente linéaire d'ordre
2, d'équation caractéristique (voir le chapitre sur les suites), r 2 - 2r cos r.p +
1 = 0, de zéros r = ei'P et e-i<p_ Pour r.p =/= O('rr) les zéros sont distincts
donc il existe deux coefficients >. et µ tels que Dn = >.ein<p + µe-in<p.
On a en particulier, (n = 1 et 2) D1 = >.ei'P + µe-i'P = 2 cosr.p, et
D2 = >.e 2i'f' + µe- 2i'P = (4 cos 2 r.p - 1).
On en déduit
µ(1 - e-. 2i'P) = 2 cos r.pe~'P - 4 cos 2 r.p + 1 et
{
>.(1 - e 2i<f>) = 2 cos r.pe-i<f> - 4 cos 2r.p + 1,
soit encore
2
{ µe-i'P2i sin r.p = 1 - 2 cos r.p + 2i cos r.p sin r.p = -cos 2r.p + i sin 2r.p
>.ei'P(-2i sin r.p) = 1 - 2 cos 2 r.p - 2i sin r.p cos r.p = -cos 2r.p - i sin 2r.p
soit 2iµe-i'P sinr.p = -e- 2i'f' et -2i>.ei'P sinr.p = -e2 i'P

i(~-<p) i(<p-~)
ouµ= e
d'' . t'
e"'= e . done
2 sm r.p 2 sm r.p

Dn = -~-(ei((n+l)<p-~) +e-i((n+l)<p-~))
2smr.p

cos( (n + l)r.p - i)
sinr.p
. sin(n + l)r.p . .
soit encore Dn = . . Il en résulte, par contmwté de Dn en r.p,
smr.p
(expression polynômiale en cos r.p), que si r.p tend vers 0, Dn tend vers (n+ 1)
et si r.p tend vers 7r, (modulo 27r), avec

r.p = 7r + t, sin(~+ l)r.p = (-l)n+ls~n(n + l)t ,...., (-l)n(n + l)


smr.p -smt t--+O

et finalement, pour r.p =/= 0 (7r), Dn =


sin(n + l)r.p
.
smr.p
, pour r.p =0 (27r),
=
Dn = n + 1 et pour r.p 7r (27r) Dn(-l)n(n + 1).
CHAPITRE 10

Réduction des endomorphismes

L'utilisation des démarches itératives, rendues encore plus impor-


tantes par l'informatique, conduit, dans le cadre des endomorphismes u
sur les espaces vectoriels E, à évaluer les puissances un des opérateurs
linéaires, ainsi que des puissances du type (u +V r. Mais dans ce cas, si u
et v ne commutent pas, le calcul devient inextricable. Aussi est-il intéres-
sant de savoir si on peut trouver des sous-espaces F de E sur lesquels u
commuterait avec tout opérateur linéaire de F, c'est-à-dire sur lequel u
agirait comme une homothétie, (nous allons justifier que, dans l'anneau
C(E, E), le centre est formé des homothéties). C'est cette démarche qui est
à l'origine de l'introduction des notions de valeurs propres et de vecteurs
propres.
Avant autre chose, justifions donc le

THÉORÈME 10.1. - Soit un espace vectoriel E sur un corps K. Le centre


de l'anneau Hom(E) des endomorphismes de E est l'ensemble des ho-
mothéties.

10.2. On appelle homothétie de rapport >. E K, l'application linéaire h>..


définie par: 'r:/x E E, h>..(x) = >.x.
Soit B = (ei)iEJ une base de E, (Théorème 6.71 pour l'existence).
Soit f dans le centre de Hom(E), (c'est-à-dire l'ensemble des éléments
qui commutent pour le produit de composition, avec tous les autres
endomorphismes).
Pour j E I fixé, on décompose f(ej) en 2::>~ij,ei, les (o:ij)iEJ étant
iEJ
presque tous nuls, si cardJ est infini, (Théorème 6.75).
Soit alors g E Hom(E) définie par g(ej) = ej et 'r:/i =/. j, g(ei) = 0,
(on a vu qu'une application linéaire est déterminée par la donnée des
images des vecteurs d'une base, théorème 6. 77). Comme f o g = g o f, en
340 Algèbre

particulier

f o g(ej) = f(ej) = l:::O~ijei = g(f(ej)) = I:O·:ïj9(ei) = <Xjjej


iEJ iEJ

d'où, (unicité de la décomposition d'un vecteur dans une base), Vi =f j,


<Xïj = 0, et donc f(ej) = <Xjjej.
Si card I ~ 2, avec j =f k dans I et <Xjj, akk tels que f (ek) = akkek>
en considérant g définie par g(ej) = ek, 9lek) = ej et g(ei) est n'importe
quoi, 0 par exemple, pouri dans I -{j,k}, on aura (f og)(ej) = f(ek) =
akkek et (go f)(ej) = g(ajjej) = <Xjjek, d'où <Xjj = akk·
En notant À cette valeur commune de tous les scalaires O:jj• on a donc,
Vi E J, f(ei) = Àei, résultat vrai si cardJ = 1.
Il est alors facile de voir que, Vx E E, f(x) = .Xx, donc f est bien
une homothétie de rapport À. Comme réciproquement, une homothétie
h>-. commute avec toute application linéaire, (vérification immédiate), on
a bien le centre de Hom(E) constitué des homothéties. •

REMARQUE 10.3. - Il est parfois utile de savoir que h linéaire de E dans


E est une homothétie si et seulement si, Vx E E, 3.Xx E K, h(x) = Àx ·X.

La justification du fait que Àx est indépendant de x s'inspirant de la


démonstration précédente.

1. Valeurs spectrales, propres, vecteurs propres

DÉFINITION 10.4. - Soit E un espace vectoriel sur un corps K et u un


endomorphisme de E, appelé encore opérateur. Un scalaire À de K est une
valeur spectrale de u si et seulement si u = -À idE es.t non bijective, et
À E K est une valeur propre de u si et seulement si u - À id E est non
injective.

Toute valeur propre est donc spectrale, la réciproque étant vraie en


dimension finie, (corollaire 6.85) car alors pour un endomorphisme les
propriétés d'injectivité, de surjectivité et de bijectivité sont équivalentes.

DÉFINITION 10.5. - Soit u un opérateur linéaire vectoriel sur K, on appelle


spectre de u, l'ensemble Sp(u) des valeurs spectrales.

Nous allons, dans ce chapitre, nous consacrer à l'étude des valeurs


propres, celle des valeurs spectrales étant d'un domaine plus élevé.
Réduction des endomorphismes 341

DÉFINITION 10.6. - Soit u un opérateur linéaire sur E vectoriel sur K,


et .À une valeur propre de u. On appelle sous-espace propre de u pour la
valeur propre .À le noyau Ker(u - idE)· Les vecteurs de ce noyau sont les
vecteurs propres associés à .À.

On a donc:

REMARQUE 10.7. - (.À propre de u) {::} (3x -:f. 0, x E E, u(x) = .Xx).

Cette remarque est fondamentale. Par exemple, elle permet d'obtenir


p
le résultat suivant: si P(X) =L anXn est un polynôme de K[X], tel
n=O
p
que l'endomorphisme P(u) = L anun est nul, (avec un= uouo ... ou,
n=O
n fois), les valeurs propres .À de u dans K doivent être des racines de P,
(pas forcément toutes les ... , il y a une différence entre un article indéfini
et un article défini) car, avec x -:f. 0 tel que u(x) = .Àx on vérifie aisément
p
que un(x) = .xnx, d'où P(u)(x) = 0 = L an.Ànx soit P(.X) · x = 0 et
n=O
comme x -:f. 0, c'est que P(.X) = O.
THÉORÈME 10.8. - Soit u un endomorphisme de E vectoriel sur K. Des
sous-espaces propres, Ei, ... , En en nombre fini, associés à des valeurs
propres distinctes, sont en somme directe.

On va procéder par récurrence sur n, en commençant par vérifier la


propriété pour n = 2.
Soient Ei et E2 les noyaux de u - .À id et u - .À id. Il faut vérifier que
E1nE2 = {O},(définition6.45).0rsix E EinE2onau(x) = .À1x = .À2x,
d'où (..\1 - .X2)x = 0 avec .À1 -:f. ..\2 donc x = 0 : on a bien Ei et E2 en
somme directe.
On suppose le résultat vrai pour n - 1 sous-espaces propres associés à
des valeurs propres distinctes de u, et soient .À1, ... , .Àn. n valeurs propres
distinctes de u, et Ei, ... , En les sous-espaces propres associés. Pour
justifier qu'ils sont en somme directe, il faut, (Théorème 6.51) vérifier

que, Vi E {1, ... , n}, Ei n (t Ej)


J=l
j#i
= {O}.
342 Algèbre

Soit x dans cette intersection, x E Ei d'où u(x) = ÀïX et d'autre part


n n
x E L Ej donc il existe des Xj dans les Ej tels que x = L Xj· Par
j=l j=l
j#i j#i
n
linéarité, u(x) = L u(xj) avec u(xj) = ÀjXj·
j=l
#i
n n
On a donc ÀiX = L ÀjXj mais ÀiX = Ài L Xj d'où l'égalité
j=l j=l
j#i #i
n
L(Ài - Àj)Xj =O. Mais comme les (Ej)i=l...n sont en somme directe,
j=l #i
#i
(hypothèse de récurrence), chaque (Àï -Àj)Xj est nul (Théorème 6.51) et
comme Ài - Àj =f. 0, (valeurs propres distinctes) c'est que chaque Xj est
nul d'où finalement x = O. •

Le plus souvent, cette somme directe ne donne pas l'espace entier d'où
la définition suivante :

DÉFINITION 10.9. - Un endomorphisme u sur un espace vectoriel E est dit


diagonalisable si et seulement si E est somme directe d'un nombre fini de
sous-espace propres.

Comme les sous-espaces propres sont forcément en somme directe,


cette définition ne fait que préciser le fait que cette somme directe est
l'espace entier.
Elle n'est pas pleinement satisfaisante. En effet, on peut remarquer
n
que si u est diagonalisable, avec E = EB Ei, où Ei = Ker(u-Àiid) est le
i=l
sous-espace propre associé à la valeur propre Ài, si Bi est une base de Ei>
n
B = LJ Bi est une base de E, (Théorème 6.81) formée de vecteurs propres,
i=l
et pour beaucoup d'applications on aurait pu prendre comme définition:
(u diagonalisable){::} (existence d'une base de vecteurs propres). Mais ceci
ne conviendrait pas pour les polynômes d'endomorphismes ... s'il y a une
· infinité de valeurs propres distinctes.
Avant d'abandonner ce sujet, un dernier mot: ce cas existe : prendre E
vectoriel dénombrable, B == (en)nEN une base et définir l'endomorphisme
Réduction des endomorphismes 343

u par u( en) = nen par exemple : la base 13 est une base de vecteurs
propres et comme on a une infinité de valeurs propres distinctes, on ne
peut pas avoir E somme directe d'un nombre fini de sous-espaces propres
distincts. Pour réaliser la situation décrite, on peut prendre E = IR[X] et
défini u par: P(X) ~ Q(X) avec Q(X) = XP'(X).
Travaillons dans ce qui suit avec la définition 10.9. Le lecteur curieux
pourra vérifier quels résultats resten~ valables avec la 2eme définition.

THÉORÈME 10.10. - Soit u un endomorphisme diagonalisable de E et F


un sous-espace de E, stable par u. Alors l'endomorphisme u induit par u
sur F est aussi diagonalisable.

10.11. Rappelons que u est défini de F dans F par u(x) = u(x) alors
que la restriction, ulF serait l'application de F dans E définie par
ulF (x) = u(x).
Soient EI , ... , En les sous-espaces propres distincts de u, associés aux
n
valeurs propres distinctes ÀI, ... Àn de u, tels que E = EB Ei.
i=I
n
Soit x E F, comme x E E, 3 des Xi dans les Ei, tel que x = LXi.
i=I
En fait les Xi sont aussi dans F. En prenant les images successives de
l'égalité x = XI + x2 + ... + Xn paru, et comme u(xi) = ÀiXi on obtient
le système

X = XI + x2 + ... + Xn
u(x) = ÀIXI + À2x2 + ... + ÀnXn
(1) u 2(x) = (.XI) 2xI + ...... + (.Xn) 2xn

qui se résoud en :

1 1 X 1 1
.À1 Ài-1 u(x) Ài+l Àn

.xn'-1
1 (Ài-~)n-1 un~·1(x) (ÀH~)n-1 (>..n)n-1
(II) Xi=
déterminant de Van der Monde de (.Xi, ... , Àn)
344 Algèbre

le numérateur étant un «déterminant vecteur» que l'on développe


suivant la ième colonne. (Voir Ch. 9, exercice 6 pour Van der Monde).
(Pour justifier ceci, si B = (ek)kEK est une base de E, et si les µk
sont les formes coordonnées associées dans le dual, (voir 6.109) en prenant
l'image de (1) par µk on obtient un système linéaire classique qui donnera
la kième coordonnée µk(Xi) par la valeur obtenue dans (Il) en remplaçant
la colonne de vecteurs par leurs kième coordonnées respectives, voir 9.55).
Il en résulte que Xi E Vect(x, u(x ), u 2(x ), ... , un-l (x)) C F car F
n
est stable par u et x E F. Donc x = L Xi avec Xi E F n Ei, d'où
i=l
n
F = LXi(F n Ei)· Cette somme est directe car
i=l

D'où uest diagonalisable.


n

REMARQUE 10.12. - Quand on écrit F = ffi(F n Ej), certains F n Ej
j=l
peuvent être réduits à {0}.

REMARQUE 10.13. - Le résultat précédent, (et le suivant) restent valables


avec la définition élargie de diagonalisable.

THÉORÈME 10.14. - Soient u et v deux endomorphismes qui commutent.


Tout sous-espace propre de l'un est stable par l'autre.

En effet, si À est valeur propre de u, et si x E Ker( u - À id)


on a u(v(x)) = v(u(x)) = v(Àx) = Àv(x) car v est linéaire donc
(u -Àid)(v(x)) = 0, soit v(x) E Ker(u -Àid). •

COROLLAIRE 10.15. - Si u et v sont deux endomorphismes de E diagona-


lisables qui commutent, il existe une base commune de diagonalisation.
n
Car si E = ffi Ei avec les Ei sous-espaces propres de u, comme u
i=l
et v commutent, Ei est stable par v, et comme v est diagonalisable, Vi
Réduction des endomorphismes 345

induit par v sur Ei est diagonalisable, (10.10) donc il existe une base Bi
de Ei, formée de vecteurs propres pour Vi, donc pour v. Comme on est dans
Ei, sous-espace propre de u, tous les vecteurs de Bi sont aussi vecteurs
n
propres pour u, et finalement B = LJ Bi est une base de vecteurs propres
i=l
pour u, et pour v . .

On appelle base de diagonalisation pour u diagonalisable, toute base
formée de vecteurs propres.
Ces premiers résultats sur les vecteurs propres montrent l'importance
de la commutativité entre opérateurs linéaires, et de la notion de sta-
bilité des sous-espaces. Avant de traiter le cas des espaces vectoriels de
dimension finie, justifions-le

THÉORÈME 10.16. - Un hyperplan H de E vectoriel est stable par un


endomorphisme u si et seulement si H est le noyau d'une forme linéaire,
r.p, vecteur propre non nul de tu.

Rappelons que si u E L(E, F), tu E L(F*, E*) est défini par tu( r.p) =
r.p ou, si r.p est dans le dual F* de F, (définition 6.100).

Soit H un hyperplan de E, stable paru et r.p dans E* une forme linéaire


ayant H pour noyau. (Si {a} est une base d'un supplémentaire de H dans
E, et C une base de H, B =CU {a} est une base de E et on peut définir
r.p par r.p(a) = 1 et r.p (tout vecteur de C) = 0).
Alors, \:lx E H, u(x) E H donc r.p(x) = 0 :::} r.p(u(x)) = O. Avec
E = H E9 Ka, (K corps de base) on a r.p(a)-:/:- 0, sinon Kerr.p = E, donc

tu(r.p)(a) = r.p(u(a)) = r.p(u(a)) r.p(a).


r.p( a)

Les deux formes linéaires tu( r.p) et r.p~~~)) r.p prennent donc la même
valeur sur a, mais aussi sur H, et là, elles s'annulent, donc elles sont
égales : avec >. = r.p~~~)) on a tu( r.p) = >.r.p : r.p est vecteur propre pour la
valeur propre >. de tu.
Réciproquement soit r.p un vecteur propre, dans E*, de tu, et H =
Ker r.p, avec r.p =/=. 0 bien sûr, alors l'hyperplan H est stable pour u car si
x EH, on a:
346 Algèbre

cp(u(x)) =tu(cp)(x) = (.\cp)(x) =À· cp(x) = 0 car x E Kercp.

Ici À est la valeur propre associée à cp vecteur propre de f.u.



2. Etude en dimension finie

Soit E espace vectoriel de dimension finie, n, sur un corps K. On


sait alors que, pour un endomorphisme de E, les notions d'injectivité, de
surjectivité ou de bijectivité sont équivalentes (corollaire 6.85).
Donc le scalaire À de K sera valeur propre de u si et seulement si
c'est une valeur spectrale, (définition 10.4) et c'est pourquoi, en dimension
finie, le spectre d'un opérateur devient l'ensemble de ses valeurs propres.
Soit alors B = {ei, ... , en} une base de E et U la matrice de u dans
cette base. Celle de u - ÀidE est U - Àln. In matrice diagonale unité
d'ordre n, et (À valeur propre de u) <=? (det(U - Mn) = 0), puisque les
matrices non inversibles, donc associées à des applications non bijectives,
sont celles de déterminant nul, voir Théorème 9.42.
Cette expression det(U - Àln) est indépendante du choix de la base
B car si B' est une autre base, et si P est la matrice de passage de B à
B', la matrice U' de u dans la nouvelle base B' est U' = p- 1 uP, (8.23
et 8.25). Elle conduit à la relation :

(.\valeur propre de u) {::::::> (det(U' - Mn)= 0),

or

d'où

det(U' - Mn) = det(P- 1(U - Mn)P) =<let p-l det(U - Mn) <let P

et comme <let p-l <let P = 1 dans K, commutatif, il reste

det(U' - Mn) = det(U - Mn)·

Cette expression est un polynôme en À, de degré n.


En effet, si Uij désigne le terme général, (ième ligne, jième colonne)
de U, en notant V= U - Àln on aura Vii = uii -À et si i "# j, Vij = Uij
Réduction des endomorphismes 347

donc Vij est un polynôme de degré 1 ou 0 en À, et en utilisant l'expression


développée d'un déterminant, on constate que

det(U - Àin) = det V = L écrV1,cr(l), V2,cr(2) · · · Vn,cr(n)


crE6n

est une somme de n! termes, (indexés par les éléments du groupe symétri-
que des permutations de { 1, ... , n} ), chaque terme étant un polynôme en
À de degré n au plus : on a bien un polynôme de degré n au plus.
On peut facilement préciser les coefficients des termes de degré n et
n - 1. En effet, si a =fa id, :Ji E {1, ... , n} tel que a( i) = j avec j =fa i.
Mais alors dans le terme écrV1cr(l) ... vi,cr(i) ... Vn,cr(n) le facteur Vij =
Uij est de degré 0 en À, le produit est de degré n - 1 au plus; mais en
fait Vij est aussi la contribution de la jième colonne : comme a est une
bijection on ne peut pas avoir a(j) = j, donc le terme vj,cr(j) ne peut être
Vj,j• il est du type Vj,k avec k =fa j, donc lui aussi de degré 0 en À.
Finalement, si a =fa id, écrVlcr(l) ... Vncr(n) est de degré n - 2 au plus.
Les termes de degré n et n -1 du polynôme det(U -Àln) proviennent
donc de éïdvnv22 ... Vnn =(un -.X)(u22-.X) ... (unn -À) et valent donc
(-.X)n et (-.X)n-l (un + u22 + ... + Unn) respectivement.

n
10.17. On sait que L Uii est ce qu'on appelle la trace de la matrice U,
i=l
ou encore de l'endomorphisme u, puisque le polynôme étant indépendant
de la base utilisée, on aura le même coefficient de À n- l dans une autre
base.
Enfin, pour À = 0, det(U - Àln) = det U, et c'est le terme constant
du polynôme. On a finalement obtenu le résultat suivant :

THÉORÈME 10.18. - Soit u un endomorphisme de E '.::::'. Kn. Les valeurs


propres À de u sont les racines, dans K, du polynôme noté Xu(.X) défini
par Xu(À) = det(U - Àln), U étant la matrice de u dans une base B de
E, et ce polynôme étant indépendant de la base.

DÉFINITION 10.19. - Ce polynôme Xu(.X) = det(U - Àin) est le polynôme


caractéristique de l'endomorphisme u.
C'est une notion attachée aux espaces vectoriels de dimension finie.

On a Xu(À) = (-l)n _xn + (-l)n-ltrace(u).Xn-l + ... + det u.


348 Algèbre

Certains préfèrent prendre pour polynôme caractéristique le polynôme


unitaire det(.>.In - U), ce n'est qu'une question de convention.
Du fait de l'existence de ce polynôme caractéristique, il faut com-
prendre qu'une grande injustice se prépare. En dimension infinie, le fait
d'avoir des valeurs propres va être une faveur accordée à certains endo-
morphismes (allez donc trouver une valeur propre de u : IR[X] f-4 IR[X]
défini par P ~ Q avec Q(X) = X P(X)), alors qu'en dimension finie
pour peu que que le corps soit algébriquement clos, (C par exemple), tous
les endomorphismes auront droit à leurs valeurs propres, racines de leur
polynôme caractéristique !
Voyons maintenant comment chercher les vecteurs propres.
On suppose toujours une base B = {e1, ... , en} de E fixée, et U
désigne la matrice de u dans le base B.
Soit .À une racine du polynôme caractéristique Xu(À) = det(U - >.In).
La matrice U - >.In est non injective, et son noyau est le sous-espace
propre de u pour la valeur propre .À.
Il est donc de dimension n - rang(U - >.In) (corollaire 6.85).
Donc, connaissant .À, on déterminer= rang(U ->.In), pour connaître
la dimension du sous-espace propre Ker(u - .ÀidE), et si on veut que
n
x = L Xiei soit vecteur propre, on doit résoudre le système linéaire
i=l

pour connaître la matrice X des composantes de x dans la base B.


Voir en 9.47 et suivants, la résolution d'un tel système.

Quelques propriétés du polynôme caractéristique et des valeurs


propres
REMARQUE 10.20. - On peut calculer le coefficient de .xn- 2 . En effet,
en reprenant le calcul du début du paragraphe pour a -:f:. id, dans
êuV1u(l), ... , Vn,u( n), avec i tel que j = a( i) soit -:f:. i on a vu que Vij = Uij
est de degré 0 en .À ainsi que Vju(j) = Vjk avec k -:f:. j.
Mais si a(j) -:f:. i, (et -:f:. j aussi, sinon, a(j) = j ::::::? j = a(j) = a(i)
exclu car a bijection) en posant a(j) = k, on a le terme Ujk qui est la
contribution de la kième colonne au produit, donc ukk - .À en figurera pas
dans le produit qui sera de degré n - 3 au plus.
Réduction des endomorphismes 349

Les termes en >.n- 2 proviennent donc des transpositions et de l'iden-


tité. Pour une transposition Ti_j on a -UijUji II (
Ukk - >.) qui donne pour
k,Pi
k,Pj
terme en >.n- 2 : -(->.)n- 2 uijUji·
Pour a = id, dans (u11 - >.) ... (unn - >.) le terme en >.n- 2
s'obtient en prenant le terme constant dans 2 facteurs : c'est donc
( L UiiUjj) (->.)n- 2 , d'où >.n- 2 (-l)n- 2 ( L UiiUjj-UijUji))
l~i<j~n l~i<j~n
comme terme en >.n- 2 •
On pourrait poursuivre ainsi en introduisant les cycles de 3 termes
pour chercher le terme en >.n-3.

THÉORÈME 10.21. - Soient deux endomorphisme u et v de E ~ Kn on a


Xuv(>.) = Xvu(>.).
Il y a plusieurs procédés de justification. En voici un. On fixe une base
B de E d'où des matrices U et V associées à u et v. ·
En effectuant des produits matriciels par blocs, on constate que

(
VU - Mn 1-V )( In 1 Ü ) (
Ü ->.In ~
alors que

d'où en égalant les déterminants de ces deux produits, l'égalité


(->.)n det(VU - >.In) = (->.)n det(UV - >.In)
donc

det(VU - >.In) = det(UV - >.In) soit Xvu(>.) = Xuv(>.). •


THÉORÈME 10.22. - Dit d'Hadamard, pour la localisation des valeurs
propres. - Soit une matrice U de terme général Uij complexe. Les valeurs
propres de U sont dans la réunion des disques Di du plan complexe, centrés·
n
en Uii, de rayon Ai= L luijl·
j=l
#i
350 Algèbre

En effet soit .À valeur propre de u et Z un vecteur propre associé,


assimilé à une matrice colonne. On choisit bien sûr Z =f 0, donc 3i tel
que lzil =f O. En prenant les ième composantes des 2 termes de l'égalité
n n
UZ = ..XZ il vient L UijZj = .Àzi> soit encore (..X - Uii)Zi = L UijZj,
j=l j=l
#i
d'où en divisant par Zi =f 0 et en utilisant l'inégalité triangulaire :

Si on a pris la précaution de choisir i tel que, non seulement Zi =f 0,


1 ~/
mais en fait tel que lzil soit le sup de {lzkl; k = 1, ... , n}, chaque 1 se
majore par 1 et il vient
n.
l..X - Uiil::;; L luijl =Ai,
j=l
j;fi

donc .À est dans le disque Di de centre Uii> de rayon Ai et on a bien


n
trouvé un indice i tel que .À E Di, d'où Sp(U) C LJ Di, Sp(U) désignant
i=l
le spectre de U.

n

COROLLAIRE 10.23. - On a aussi Sp(U) C LJ !:l.j, avec !:l.j disque
j=l
n
complexe de centre Ujj et de rayon µj =L luij I·
i=l
i;fj

Comme det(tA) = det A, le spectre de la matrice tu est celui de la


matrice U. Mais en appliquant Hadamard à tu, les disques D j pour tu
sont les !:l.j. •

COROLLAIRE 10.24. - Si une matrice carrée U complexe est telle que


n
'ïli = 1, ... ,n luiil > L luijl, elle est inversible.
j=l
#i
Réduction des endomorphismes 351

Car chaque Di ne contient pas 0, donc 0 fi. LJi Di : 0 ne peut pas être
valeur propre, d'où U injective, donc inversible. •

10.25. Une telle matrice, où, pour chaque ligne, le module du terme
diagonal est strictement supérieur à la somme des modules des coefficients
non diagonaux de la ligne est dite à diagonale fortement dominante.
On procède de même pour les colonnes.

Nous allons maintenant essayer de réduire un endomorphisme à une


forme plus simple, dans le cas de la dimension finie. On a déjà :

THÉORÈME 10.26. - Soit u un endoni.orphisme de E ~ Kn, de polynôme


caractéristique Xu(X). Si .À est une racine de Xu de multiplicité o:, la
dimension du sous-espace propre associée est inférieure ou égale à o:.

Comme Xu(À) = 0, E>. = Ker(u - .ÀidE) est non réduit à O. Soit


C une base de E>. que l'on complète en B =CU V base de E. On pose
p = dimEÀ. La matrice de u dans la base Best du type:

les p vecteurs de C
U= les n - p vecteurs de V

donc, vu l'indépendance du choix de la base pour calculer· le polynôme


caractéristique,

(.X - X)Ip
Xu(X) = det(U - X In)= 1 A
0 B-Xln-p
=(.X - X)P det(B - Xln-p);
il admet À comme racine avec une multiplicité ~ p. Comme on a appelé
o: cette multiplicité, on a donc p :::;; o:, soit encore dim Ker( u - À idE) :::;;
multiplicité de la valeur propre. •

Il faut remarquer que l'inégalité peut être stricte. Par exemple la

matrice U =
(o~ : o!) est celle d'un endomorphisme u n'ayant
352 Algèbre

a - >. 1 0
0 a - >.
que a pour valeur propre, et Xu(>.) =
1
0 a->.
(a - >.)n admet a po(uroo·r~, ô~e )multiplicité n.
Or U - aln = est de rang n - 1, le sous-espace

propre est de dimension n - (n - 1) = 1, avec 1 < n.


Dans ce cas l'endomorphisme n'est pas diagonalisable. Plus précisé-
ment on a:

THÉORÈME 10.27. - Soit un endomorphisme u sur E ~ Kn. Il est


diagonalisable si et seulement si son polynôme caractéristique a toutes
ses valeurs propres dans le corps K et si pour chaque valeur propre, la
multiplicité est la dimension du sous-espace propre.

Si u est diagonalisable, avec À1, ... , Àp valeurs propres distinctes de u


et E1, ... , Ep les sous-espace propres associées de dimensions respectives
r1, ... , rp, en notant Bi une base de Ei, dans la base B = B1 U ... U Bp
(vecteurs pris dans cet ordre), la matrice de u est
À1
0
À1
>.2

u >.2

Àp
0
Àp
r1 r2 rp
p
d'où Xu(>.) = Il (>.j - >.p :
j=l
le polynôme caractéristique a toutes ses racines dans K et, pour chacune
d'entre elles, la multiplicité, Tj, est la dimension du sous-espace propre
associé.
Réduction. des endomorphismes 353

Réciproquement on suppose que Xu(>.), de degré n, a toutes ses


racines dans K et, si >.1, ... , Àp sont les racines distinctes, de multiplicité
respectives a1, ... , ap, on suppose que pour chaque j E {1, ... , p },
dim(Ker(u - Àjid)) = Clj·
On sait déjà que les Ej = Ker(u - Àjid) sont en somme directe,
p p
(Théorème 10.8), et F = EB Ej est de dimension L <lj = degré(xu) =
j=l j=l
n, donc F = E : on a bien E somme directe des sous-espaces propres de
u qui est donc diagonalisable. •

DÉFINITION 10.28. - Un polynôme P E K[X] est dit scindé sur K si et


seulement si toutes ses racines sont dans K.
p
Ce qui revient à dire qu'il est du type P(X) = k II (X - Àï)°'i avec
i=l
k E K*, les Àï E K, et a1 + a2 + ... + ap = degré(P). On prend k =f:. 0
car cette notion n'a pas d'intérêt pour le polynôme nul.

COROLLAIRE 10.29. - Soit u un endomorphisme de E ~ Kn, dont le


polynôme caractéristique n'a que des racines simples toutes dans K alors
u est diagonalisable.

En effet, en notant >.1, ... , Àn les n valeurs propres distinctes, on a


n
Xu(>.) = II (>.i - >.) est scindé sur K et, Vi, dimKer(u - Àï idE) ;;:: 1
i=l
(car Àï valeur propre) donc cette dimension est ;;:: multiplicité de la racine.
Comme elle est toujours ::;; la multiplicité, (Théorème 10.26), elle lui est
égale donc u est diagonalisable. •

Cette condition, suffisante, n'est pas nécessaire : une homothétie est


diagonalisable bien que n'ayant qu'une valeur propre, de multiplicité n.
Et si on ne peut pas diagonaliser... , c'est fini? Pas forcément, on peut
parfois trigonaliser.

DÉFINITION 10.30. - Un endomorphisme u de E ~ Kn, est dit trigonali-


sable s'il existe une base B dans laquelle la matrice U de u est triangulaire
supérieure ou inférieure, peu importe.

On parle de même d'une matrice trigonalisable U si et seulement si


il existe P régulière telle que p- 1 uP soit triangulaire. Les 2 notions
354 Algèbre

coïncident, si on prend E = Kn, rapporté à une base, par exemple la base


canonique, et si u est l'endomorphisme de matrice U dans cette base.
Vérifions que trigonale inférieure ou supérieure, peu importe. Soit B
base dans laquelle la matrice de u est T, triangulaire supérieure. En
notant trs le terme général de T, (donc trs = 0 sir> s), et {e1, ... , en}
la base B, on a, Vs, u(e 5 ) E Vèct(e1, e2, ... , e5 ).
Soit C la base B numérotée dans l'ordre en, en-1, ... , ei. Si on note
ék le vecteur générique de C, on a donc ék = en-k+l·
Mais alors u(ck) = u(en-k+I) E Vect(e1, e2, ... , en-k+l),

or ei =en
e2 = én-1, · · ·, en-k+l = ék

d'où u(ck) E Vect(ck> ék+l• ... , en) : la matrice de u dans la base C est
donc bien triangulaire inférieure. On procède de même si on part d'une
matrice triangulaire inférieure. •

THÉORÈME 10.31. - Soit u un endomorphisme sur E ~ Kn. Il est


trigonalisable si et seulement si son polynôme caractéristique est scindé.
Même énoncé pour une matrice U.

Si u est trigonalisable, il existe une base B dans laquelle la matrice U


de u est triangulaire (supérieure par exemple), donc du type

un u12 u13 . . . uin)


0 u22 u23 . . . u2n
U= (
Ü Unn
n
d'où Xu(À) =Il (uii - À) : le polynôme caractéristique est scindé.
i=l
Réciproquement, on procède par récurrence sur n. Si n = 1, toute
base de E = K est telle que la matrice ( 1, 1) de u dans cette base est
triangulaire.
On suppose le résultat vrai si dim E = n - 1, ou pour une matrice
carrée d'ordre n - 1.
Soit u endomorphisme de E ~ Kn, de matrice U dans une base B
alors la matrice du transposé de u, fiu, endomorphisme de E*, dans la
base duale est tu, (définition 8.8), donc X(tu) = Xu est scindé sur K. (On
a Xtz,,(À) = det(lr - Àin) = dett(u - Àln) = det(U - Àin)).
Réduction des endomorphismes 355

Soit a une racine de Xu = Xtu et cp # 0, une forme linéaire, vecteur


propre de f.u, on sait que H = Ker cp est un hyperplan de E stable par u,
(Théorème 10.16).
u u
Si est induit par u sur H, et si Ü est la matrice de dans une base
C de H, en prenant un vecteur ê </. H, C U { ê} est une base de E dans
laquelle la matrice de u est

u(C) u(e)
~ ~

a1

U'=
u
a2
1 vecteurs de C
ltn-1

0 0 ... 0 an ê

Doncxu(À) = det(U' - Àin), (indépendance par rapport à la base)


= det(Ü - Àin-1)(an - À)= x:;:;;(À)(an - À).

Comme Xu est scindé, il en résulte que X:;:;; est scindé aussi, donc dans
H il existe une base C' dans laquelle la matrice Ü' de u est triangulaire
supérieure.
La matrice U" de u dans la base C' U { ê} devient donc
a'1
a'2
Ü'
u" =
a~-1
OO ... 0 an

elle est bien triangulaire supérieure puisque la matrice Ü' l'est.


Il est à remarquer que an est inchangé, car le spectre de U est celui
de Ü', et celui de U' est celui de U", en appelant ici spectre les valeurs
propres comptées avec leur multiplicité.
On a bien justifié le résultat. Il est à noter que l'emploi du transposé
permet de faire une récurrence en passant directement de l'ordre n - 1 à
l'ordre n.

COROLLAIRE 10.32. - Tout endomorphisme u de E ~ en est trigonalisable.


356 Algèbre

COROLLAIRE 10.33. - Toute matrice carrée complexe, est semblable à une


matrice triangulaire.
C'est évident puisque e est algébriquement clos.
Vu la difficulté de la démonstration, on peut se demander s'il s'agit là
d'une notion intéressante. Et oui! Par exemple on peut justifier que

THÉORÈME 10.34. - Soit {>.1, ... , Àn} le spectre de u endomorphisme de


en. Si Pest un polynôme, le spectre de P(u) est {P(>.1), ... , P(>.n)}.

On appelle ici spectre de u l'ensemble de ses valeurs propres


comptées avec leur multiplicité : si Ài est valeur propre de multiplicité
O:i en tant que racine du polynôme caractéristique, elle est répétée O:i fois.
p
Soit P(X) =L akXk un polynôme de C[X]. Avec uk = u o ... ou,
k=O
p
(k fois), on note P(u) l'endomorphisme L akuk, (avec u 0 = idE).
k=O
Le spectre de u étant {>.1, ... , Àn} et u étant trigonalisable, il existe
une base de en dans laquelle la matrice u de u est triangulaire supérieure
avec les Ài sur la diagonale :

>.1 u12 u13 Uln


0 >.2 u23 U2n
U= 0 0 À3 U3n

0 0 0 Àn
Il est alors facile de justifier, (par récurrence sur k) que dans cette base,
la matrice uk sera encore triangulaire, avec sur la diagonale, >.~, >.~,
... , À~ d'où finalement P(u) aura pour matrice dans cette base une
matrice triangulaire supérieure avec, sur la diagonale, les valeurs P(>.i)·
Mais comme le spectre d'une matrice triangulaire est formé des éléments
diagonaux (calcul évident du polynôme caractéristique) le spectre de P( u)
est bien formé des P(>.i)· •

REMARQUE 10.35. - Soit u un endomorphisme de !Rn, son polynôme


caractéristique Xu(X) E IR[X] et peut avoir des racines imaginaires non
réelles, Àk. Par contre, il se peut que P(>.k) devienne réel. Dans ce cas,
si on note {>.1, ... , Àn} les zéros de Xu, comptés avec leur multiplicité, le
Réduction des endomorphismes 357

spectre de u, (dans IR) est l'ensemble des >..k réels, et si P(X) E IR[X], celui
de P(u) est l'ensemble des P(>..j) réels, même si les Àj sont complexes.
Par exemple, dans IR 2 si u est une rotation d'angle ~· de matrice

( ~ - ~), dans une base orthonormée de R2 euclidien, le spectre de

cette matrice est {i, -i} dans C, donc vide dans IR, mais le spectre de u 2 ,
rotation d'angle 7r, donc symétrie, est devenu réel, c'est {-1, -1}, celui
de u 4 (= idE) est {1, 1}.

REMARQUE 10.36. - Ce qui vient d'être Jait pour IR et C est valable


pour un corps K quelconque en utilisant K, clôture algébrique de K par
exemple, (Théorème 7.70) pour obtenir un corps dans lequel le polynôme
caractéristique xu d'une matrice de Mn(K) est scindé. On passe dans
K pour justifier l'existence d'une forme commode de la matrice, mais si
P E K[X], le calcul de P(U) s'effectue dans l'espace vectoriel Mn(K)
des matrices carrées d'ordre n sur K.

THÉORÈME 10.37. - Soient u et v deux endomorphismes trigonalisables


qui commutent. Il existe une base commune de Kn, de trigonalisation.
On va employer un résultat, utile en soi.

LEMME 10.38. - Soient f et g deux endomorphismes de E, vectoriel de


dimension finie, qui commutent, et qui ont des polynômes caractéristiques
scindés. Alors ils ont un vecteur propre non nul, commun, au moins.

Soit>.. un zéro de XJ(X) polynôme caractéristique de f, et E>. le sous-


espace propre associé. Comme f et g commutent, E>. est stable par g,
(Théorème 10.14). Soit g induit par g sur E>., C une base de E>., V une
base d'un supplémentaire et B = C U V une base de E. La matrice de g
dans B est du type

V--(MOîP
01NNp)' matrice bloc,

avec M matrice de g dans la base C de E>..


Donc, si p = dim E>., on a, (calcul par blocs) :

= det(V - X In)= det(M - XIp) det(P - XIn-p),


x 9 (X)
avec det(M - XIp) = xg-(X), polynôme caractéristique de g.
358 Algèbre

Ce polynôme caractéristique de g divise donc celui de g. Or ce dernier


est scindé, donc Xg(X) est scindé. Soitµ un zéro dans K de Xg' et a un
vecteur propre, f. 0, de g pour µ, on a g(a) = µ·a = g(a), et comme
a E E>. on a aussi f(a) = Àa : le vecteur a est vecteur propre non nul,
commun pour f et g. •
Justifions le théorème 10.37.
Si u et v commutent, il en est de même de 1lL et de f.u, (Théorème 6.101).
De plus u et v étant trigonalisables, leurs polynômes caractéristiques sont
scindés, or Xu = X(tu)• (on transpose les matrices). Donc tu et t v sont
deux endomorphismes du dual E* qui commutent ayant des polynômes
caractéristiques scindés : d'après le lemme 10.38 ils ont des vecteurs
propres communs.
Soit cp une forme linéaire non nulle, vecteur propre de 1'iL et "t.v.
L'hyperplan H = Ker cp est stable paru et par v, (Théorème 10.16). Soient
u' et v' induits par u et v sur H : ils commutent, comme u et v en fait, et
leur polynômes caractéristiques sont scindés car ils divisent Xu et Xv qui
le sont, justification analogue à celle du lemme 10.38. On comprend que
la justification s'achève par récurrence.
Sin= 1, toute base de E = K est base commune de trigonalisation.
Si le résultat est vrai pour les espaces de dimension n - 1, soit E de
dimension n, H construit comme précédemment, a tel que E = H EB K ·a.
Pour u' et v' induits par u et v sur H, l'hypothèse de récurrence
s'applique: il existe une base B1 de H dans laquelle les matrices U' et V'
de u' et v' sont triangulaires supérieures. Mais alors, dans B = B1 U {a},
les matrices U et V de u et v sont

elles sont triangulaires supérieures puisque U' et V' le sont.



COROLLAIRE 10.39. - Soient U et V deux matrices carrées d'ordre n sur
K qui commutent ayant des polynômes caractéristiques scindés, il existe
P régulière telle que p-l U P et p-l V P soient triangulaires.

Il suffit d'introduire E = Kn, une base de E, par exemple la base


canonique, et de considérer les endomorphismes u et v de matrices U et
V dans la base B. •
Réduction des endomorphismes 359

Si le corps K est algébriquement clos, C par exemple, les polynômes


caractéristiques sont scindés, et il ne reste que la condition de commuta-
tion d'où le

COROLLAIRE 10.40. - Soient U et V deux matrices carrées complexes


d'ordre n qui commutent, il existe P régulière telle que p-l U P et p-l V P
soient triangulaires.

En particulier, il existe une indexation des spectres de U et V qui


commutent dans Mn(C) telles que Sp(u) = (a:i, ... , au),

Sp(v) = ((3i, ... ,f3n) et Sp(uv) = (0:1(3i, ... ,a:nf3n)·

3. Polynômes d'endomorphismes

Nous avons défini, (voir 10.34), l'endomorphisme P(u) associé à un


endomorphisme u de E vectoriel sur K, et à un polynôme P de K[X].
Il est facile de vérifier que, pour u fixé l'application() : P ~ P(u)
de K[X] dans l'espace vectoriel Hom(E) des endomorphismes de E est
linéaire. En effet, soit P(X) = L anxn et Q(X) = LbnXn deux
nEN nEN
polynômes, les suites de coefficients étant finies, c'est-à-dire telle que
an= 0, "i/n > degré(P) et bn = 0, "i/n > degré(Q). Soient À etµ dans K
et R(X) = L (Àan + µbn)Xn = ÀP + µQ on aura
nEN

O(ÀP + µQ) = L (Àan + µbn)un =À L anun + µ L bnun


nEN nEN nEN

d'après les règles de calcul dans l'espace vectoriel Hom(E). On a donc

O(.XP + µQ) = .XO(P) + µO(Q).


Cet aspect linéaire de () ne nous intéressera pas beaucoup. En fait
sur K[X] existe une autre loi, le produit de 2 polynômes, qui munit
K[X] d'une structure d'algèbre. En particulier pour les 2 lois addition
et multiplication des polynômes, K[X] est un anneau commutatif.
Il se trouve que pour l'addition et le produit de composition, Hom(E)
est aussi un anneau, non commutatif lui. On peut donc se demander si ()
ne serait pas un morphisme d'anneaux. La réponse est... oui.
360 Algèbre

Avec p = L
anxn et Q = L
bnXn on définit R = enxn L
nEN nEN nEN
avec, Vn EN, Cn = aobn + aibn-1 + ... + anbo = L
akbl.
k+l=n
{k,!)EN2
C'est un polynôme car, sin> d0 P + d0 Q, on ne peut pas trouver de
couple d'entiers (k, l) avec k ~ d0 P, l ~ d0 Q et k + l = n, donc la suite
des Cn devient nulle si n > d 0 P + d 0 Q.
On a alors

O(PQ) = O(R) = L CnUn


nEN

car uk étant linéaire et b1 un scalaire, on a uk o (b1u 1) = b1uk o u 1 = b1un,

d'où O(R) = (L
kEN
akuk) o (L
!EN
b1u1), puisqu'il s'agit d'une somme

finie de termes que l'on regroupe, pour l'addition de manière différente,


or l'addition des endomorphismes est commutative.
On a donc O(PQ) = O(P) o O(Q).
Il convient de remarquer que si l'algèbre Hom(E) n'est pas commuta-
tive, la sous-algèbre O(K[X]) des P(u) elle, l'est.
Si on se rappelle les propriétés des anneaux, on sait alors que le noyau
de() est un idéal de K[X], (Théorème 5.18). Et comme l'anneau K[X] est
principal, (Théorème 7 .20) cet idéal est principal, donc formé des multiples
d'un polynôme P. On a donc :

THÉORÈME 10.41. - Soit un endomorphisme u de E vectoriel sur K.


L'ensemble Ides polynômes P de K[X] tels que P(u) = 0 est un idéal.•

Il se pourrait que cet idéal soit réduit à {O}. En fait on va retrouver


la différence entre la dimension finie et la dimension infinie.
Réduction des endomorphismes 361

THÉORÈME 10.42. - Si l'espace vectoriel E est de dimension finie, l'idéal


annulateur de u, I = {P E K[X], P(u) = O} n'est jamais réduit à {O}.

C'est tout bête. Si dimE = n, alors dim(Hom(E)) = n 2 , (corollaire


6.79) donc {idE,u, u 2 ,u3, ... , un 2 } étant une famille de n 2 + 1 vecteurs
dans un espace de dimension n 2 , elle est liée, il existe des scalaires
n2

(ak)o~k~n2, non tous nuls, tels que L akuk =O.


k=O
n2

Le polynôme P =L akXk est non nul, et il est dans I. •


k=O

Par contre, si dim E est infinie, il se peut que pour u E Hom(E),


l'idéal I soit réduit à {0}. Prenons E de dimension dénombrable stricte,
et (en)nEN une base de E. On définit u par ek~ek+l·
d0 P
Si P(X) = L akXk est un polynôme non nul de K[X], donc
k=O
d0 P
adop =f. 0, il est facile de vérifier que P(u) envoie eo sur L
akek (car
k=O
u(eo) = ei, u 2 (eo) = u(e1) = e2, ... ), vecteur non nul de E puisque
décomposé dans la base de départ, avec ado p =f. O.

DÉFINITION 10.43. - Soit un endomorphisme u de E vectoriel sur K. On


appelle polynôme minimal de l'endomorphisme u, le polynôme unitaire, s'il
existe, qui engendre l'idéal principal des polynômes annulant u.

Donc, en dimension finie, tout endomorphisme a droit à son polynôme


minimal, en dimension infinie, ... c'est une faveur; la vie est beaucoup trop
injuste quand on est endomorphisme!
Avant d'étudier plus précisément le polynôme minimal, quand il existe,
justifions le

THÉORÈME 10.44. de Cayley-Hamilton. - Soit un endomorphisme, u, de


E espace vectoriel de dimension finie sur K. Son polynôme caractéristique
annule u.

Soit x E E, si x 0, on a P(u)(O) 0, avec ici P polynôme


caractéristique de u.
362 Algèbre

Six :f:. 0, et sin= dimE, {x,u(x), ... ,un(x)} est une famille
liée et il existe un entier k ~ n - 1, tel que {x, u(x), ... , uk(x)} libre
et {x, u(x), ... , uk+l(x)} liée, (k est le sup des p tels que {x, u(x), ... ,
uP(x)} soit libre).
Soit F = Vect(x, u(x), ... , uk(x)}, c'est un sous-espace vectoriel de
E, de dimension k + 1 puisque {x, u(x), ... , uk(x)} en est une famille
génératrice, libre.
Soit G un supplémentaire de F, éventuellement G = {0}, et soit C
une base de G si G :f:. {O}, alors B = {x, u(x), ... , uk(x)} l,J C en est une
deE.
Dans cette base B on peut chercher la matrice U de u. Pour cela
on aura besoin de connaître u (chaque ui(x)). Si j < k, u(ui(x)) =
ui+l(x). Pour j = k, comme {x, u(x), ... , uk(x); uk+l(x)} est liée on
a uk+l(x) E Vect(x, u(x), ... , uk(x)), donc se décompose sous la forme
k
uk+l(x) = L aiui(x).
i=O
La matrice U est donc du type

u(x) u(u(x)) ...... u(uk(x))


0 0 0 ao
-
u(C)

1 0 0 0 a1 u(x)
0 1 0 a2 B
U= 6
0 0 1 ak uk(x).

0 c I vecteurs
de C

0 0 ao
1 a1
et en notant A = 0 , matrice de Mk+l (K), on

0 1 Œk
obtient

Xu(À) = det(A - .Xh+i) det(C - Àin-k-I)·


Réduction des endomorphismes 363

Or un calcul facile, (en développant par rapport à la dernière colonne)


donne
k
Q(>.) = det(A - >-h+i) = (-l)k+l ( >.k+l - :~::::a~i>.i).
i=O

k
Mais alors Q(u)(x) = (-l)k+l ( uk+l(x) - :~::::>~iui(x)) = 0 vu la
i=O
définition des ai. Comme le polynôme caractéristique P = Xu est multiple
de Q, avec P = QR = RQ on a

P(u)(x) = R(u)(Q(u)(x)) =O.

Ceci étant faisable pour tout X non nul de E on a finalement P( u) = o.•

10.45. Calcul de Q( >.)

->. 0 ao
1 ->. a1

Q(>.) =
0 ->. Ü!k-1
1 ak - >.

on développe par rapport à la dernière colonne donc :

k
Q(>.) = (ak - >.)(->.)k + ~)-l)i+k+lai-ldi avec
i=l
->.
1
0 I i-1 lignes
0 1 ->.
di= ième ligne supprimée
1 ->. 0

0 I k+l-i lignes
->.
1
364 Algèbre

k
= (-l)k+l Àk(À - ak) + L.::C-l)i+k+lai-1(-À)i-l,
i=l
soit avec j = i - 1
k-1
= (-l)k+l ( Àk+l - akÀk - L
ajÀj) :
j=O
c'est bien le résultat indiqué.

COROLLAIRE 10.46. - Si u est un automorphisme de E '.: : : Kn, son inverse
est un polynôme en u.

Ce n'est pas à proprement parler, un corollaire de Caley-Hamilton. En


fait, si P est un polynôme tel que P(O) =f= 0, (coefficient constant non
nul) et tel que P( u) = 0, on en déduit que u est inversible, d'inverse un
polynôme en u.
Soit en effet P(X) =Po+ p1x + ... + PkXk un tel polynôme, avec
Po =I= O. En écrivant que P(u) = 0 on en déduit que -poidE = P1U +
1
p2u2 + ... +pkuk soit encore idE = --(p1idE+P2u+ .. . +pkuk-l)ou,
PO
k
d'où u inversible, d'inverse u- 1 = - LPi ui-l, polynôme en u.
i=l PO
Comme dans l'idéal annulateur I. de u figure le polynôme caractéris-
tique Xu de terme constant det u, on a en particulier pour u inversible,
det u =f= 0, donc u- 1 se calcule comme polynôme en u, à partir du po-
lynôme caractéristique. Mais on pourrait faire de même à partir du po-
lynôme minimal. •

THÉORÈME 10.47. dit des noyaux. - Soit u un endomorphisme de E


vectorrel sur K et P et Q deux polynômes premiers entre eux. On a

Ker(PQ(u)) =(Ker P(u)) EB Ker(Q(u)).

Quand j'entends premiers entre eux, je pense Bézout, (c'est un réflexe


pavlovien). Il existe R et S polynômes tels que PR+ QS = 1 donc

idE = P(u) o R(u) + Q(u) o S(u) = R(u) o P(u) + S(u) o Q(u).


Réduction des endomorphismes 365

Soit x E Ker(PQ(u)).
On a x = idE(x) = P(u)(R(u)(x)) + Q(u)(S(u)(x)).
On pose XI = P(u) o R(u)(x) et x2 = Q(u) o S(u)(x). On a:

Q(u)(x1) = Q(u) o P(u)(R(u)(x))


= R(u) o (PQ(u)(x)) = 0

car x est dans Ker(PQ(u)).


Donc XIE KerQ(u), de même x2 E Ker P(u), et on a bien
Ker(PQ(u)) C Ker P(u) + KerQ(u).
Six E KerQ(u)nKer P(u), x = R(u)(P(u)(x))+S(u)(Q(u)(x)) = 0
donc Ker P(u) et KerQ(u) sont en somme directe, d'où Ker(PQ(u)) C
Ker P(u) E9 KerQ(u).
Enfin Ker P(u) C Ker PQ(u) car si P(u)(x) = 0, on a (PQ(u))(x) =
Q(u)(P(u)(x)) nul a fortiori. De mê.me KerQ(u) C Ker PQ(u) d'où
l'inclusion Ker P(u) E9 KerQ(u) C Ker PQ(u) et finalement l'égalité. •

COROLLAIRE 10.48. - Si P E K(X] est décomposé en P = PIP2 ... Pr,


produit de polynômes premiers deux à deux et si u E Hom(E), E vectoriel
r
sur K, on a Ker P(u) = E9 Ker Pi(u).
i=I .
Ceci se justifie par récurrence sur r. C'est vrai pour un produit de
2 facteurs. Si c'est vrai pour un produit r - 1 facteurs, dans le cas de r
facteurs on a P = (PI P2 P3 ... Pr-I)Pr, avec PI ... Pr-I et Pr premiers
entre eux d'où, d'après le théorème 10.47,

Ker P(u) = Ker(P1 ... Pr-I(u)) E9 Ker Pr(u), (vrai pour 2)

et on applique l'hypothèse de récurrence à Ker(P1 ... Pr-1(u)) pour


conclure. •

Ce résultat va être exploité de 2 façons. Dans le cas général, en partant


du polynôme minimal, s'il existe, pour donner une condition nécessaire et
suffisante de diagonalisation. Puis, dans le cas de la dimension finie, en
repartant d'une décomposition du polynôme caractéristique, ce qui dans
certains cas, conduira à la jordanisation d'un endomorphisme.

THÉORÈME 10.49. - Soit u un endomorphisme de E vectoriel sur K. Il est


diagonalisable si et seulement si il annule un polynôme scindé à racines
simples.
366 Algèbre

Si u est diagonalisable, en appelant >.1, ... Àn ses valeurs propres,


en nombre fini, et E1, ... , En les sous-espaces propres associés, avec
Ei = Ker(u - ÀïidE), pour tout Xi E Ei on a (u - ÀïidE)(xi) =O.

A /Ortiori ( ( ~ (u - ,\;idE)) o (u - À;idE)) (x;) ~ 0, donde po-

n
lynôme scindé à racines simples P = II (X ->.k) est tel que P(u)(xi) =
k=l
n
0, 'r/xi E Ei. Comme E = ffiEi par linéarité, P(u) annule chaque vec-
i=l
teur vecteur x de E. Donc u annule P, polynôme scindé à racines simples.
Réciproquement, s'il existe un polynôme Q, scindé sur K, à racines
n
simples, tel que Q(u) = 0, en décomposant Q en Q(X) = II (X - >.k),
k=l
les >.k étant distincts les polynômes X - Àk sont premiers deux à deux
donc le théorème des noyaux s'applique et donne
n
Ker(Q(u)) = Ker(O) = E = ffiKer(u - ÀïidE),
i=l

et soit u - ÀïidE injective, donc Ài non valeur propre, mais dans ce cas
Ker(u - ÀiidE) = {O} n'intervient pas dans la somme directe,
soit u - ÀïÏdE non injective, dans ce cas Ài est valeur propre de u et
Ker(u - ÀiidE) est bien sous-espace propre associé : on a finalement E
somme directe d'un nombre fini de sous-espaces propres. •

REMARQUE 10.50. - Si u annule un polynôme Q scindé à racines simples,


ce polynôme Q est dans l'idéal principal des polynômes annulant u. Il est
donc multiple du polynôme minimal P qui, a fortiori, est scindé à racines
simples. Le théorème 18 peut se formuler en :

THÉORÈME 10.51. - Un endomorphisme u de E vectoriel est diagonalisable


si et seulement si il admet un polynôme minimal (non nul) scindé à racines
simples. •

La différence avec l'équivalence du théorème 10.27 c'est qu'ici la


dimension de l'espace E est quelconque.
Il faut bien comprendre que si u est diagonalisable, les valeurs propres
de u sont exactement les racines du polynôme minimal, scindé, alors que
Réduction des endomorphismes 367

si Q est un polynôme scindé à racines simples annulant u, il peut contenir


des facteurs superflus ne correspondant pas aux valeurs propres de u.
Par exemple, un projecteur p étant caractérisé par la relation p 2 = p,
p annule le polynôme X 2 - X, scindé à racines simples 1 et 0 donc est
diagonalisable.
Les seuls valeurs propres possibles sont 1 et O. On a E = (Ker p) EB E1
avec E1 = {x;p(x) = x} = Imp en fait, (six= p(x), x E Imp et comme
p
p 2 = p, si y= p(x) E Imp on a bien p(y) = 2(x) = p(x) =y).
Mais parmi les projecteurs il y a l'identité, de polynôme minimal
X - 1; mais aussi l'application nulle, de polynôme minimal X, (0 est
seule valeur propre), et enfin les projecteurs ayant vraiment 1 et 0 pour
valeurs propres, de polynôme minimal X 2 - X.

Retour à la dimension finie : on va exploiter le polynôme ca-


ractéristique

THÉORÈME 10.52. - Soit u un endomorphisme de E vectoriel de dimension


finie sur K et P le polynôme caractéristique de u. Si P se décompose
en P1 P2 avec P1 et P2 premiers entre eux on a E = (Ker P1 (u)) EB
Ker(P2(u)), les sous-espaces Ker P1(u) et Ker P2(u) étant stables paru,
et les endomorphismes induits par u sur ces noyaux ayant pour polynômes
caractéristiques P1 et P2, à un facteur constant, multiplicatif, près.

Par Caley-Hamilton, P(u) = 0 donc, (Théorème des noyaux, 10.47),


ona

E =Ker P(u) = Ker(P1(u)) EB Ker(P2(u)).

Puis Ker P1 (u), et Ker P2 (u) sont stables par u car comme u et P1 (u)
commutent, six E Ker P1(u) on a P1(u)(u(x)) = u(P1(u)(x)) = u(O) =
0 donc u(x) E Ker P1(u).
Soit u1 induit paru sur Ker(P1(u)), et de même u2 induit paru sur
Ker(P2(u)). Si B1 et B2 sont des bases de ces sous-espaces et si U1 et
U2 sont les matrices de u1 et u2 dans ces bases, la matrice U de u dans

B ~ 81 u B, base de E ,.,.. la matriœ bloc U ~ ( U~ ~21 )

d'où P(X) = det(U - X In)


= det(U1 - X In 1 ) det(U2 - In 2 )

si ni et n2 sont les dimensions de ces sous-espaces, et n celle de E.


368 Algèbre

On a donc l'égalité P = PiP2 = Xu 1 Xu 2 •


On continue la justification en supposant que K = C, ou que K est
algébriquement clos.
Soit>. une racine de Xui : c'est une valeur propre de ui donc il existe
un vecteur x non nul de Ei = Ker(Pi(u)) tel que ui(x) = u(x) = >.x.
Le polynôme Pi (X) -Pi(>.), nul pour X = >.,est divisible par X - >. :
posons Pi(X)-Pi(>.) = Q(X)(X ->.)on aura (Pi(u)-Pi(>.)idE)(x) =
Q(u)(u(x) - >.x) avec u(x) - >.x = 0, donc Pi(u)(x) - Pi(>.)x =O. Or
x E Ker Pi(u), il reste Pi(>.)x = 0 avec x =f. 0, donc Pi(>.)= O.
Si >.est racine d'ordre a de Xu 1 , et si elle l'était d'ordre /3 pour Pi avec
/3 <a, comme (X->.)°' divise Xu 1 Xu2 = P = PiP2, (X ->.)°'-/3 devrait
diviser P2 ce qui est absurde car Pi et P2 sont premiers entre eux. Donc
/3 ~ a. Ceci étant valable pour toute racine de Xu 1 on obtient finalement
Xu 1 divise Pi, et de même Xu 2 divise P2. En posant Pi = kiXu 1 et
P2 = k2Xu 2 on a P = PiP2 = kik2Xu 1 Xu 2 = Xu 1 Xu 2 donc kik2 = 1: ki
et k2 sont des constantes et on a bien Xu 1 est égal à Pi à une constante
multiplicative près, et de même pour Xu 2 et P2.

Retour au cas d'un corps K quelconque

On fixe une base de E, donc u est associé à une matrice U. On injecte


K dans une clôture algébriqùe R de K et on considère E = Rn et u de
matrice U dans la base canonique de E, le polynôme caractéristique de u
est encore P. On applique ce qui précède à u:
on a E somme directe de
Ker P1 (u) et Ker P2(îi) et îii induit par u sur Ei = Ker Pi (u) aura Pi
pour polynôme caractéristique, à une constante multiplicative près.
Or E étant assimilé à Kn par le choix de la base initiale, les vecteurs
de Kn sont en particulier dans Rn ~ E. Si de plus un élément de Kn
est dans Ker Pi(u), il sera dans Ker Pi(îi), en tant qu'élément de Rn, et
une base de Ker(Pi(u)) sera en fait une base de Ei =Ker Pi(u). Dans
une telle base, si on cherche la matrice de îii induit paru sur Ei. ce sera
celle de u1 induite paru sur Ei, tous les calculs matriciels se faisant en
fait dans K.
Donc Xîi'1 = Xu 1 et de même Xîi'2 = Xu 2 • On obtient ainsi le résultat
dans le cas général. •

COROLLAIRE 10.53. - Soit u un endomorphisme sur E ~ Kn, u ayant


r
un polynôme caractéristique scindé, Xu(>.) = II
(>.i - >.)°'i. Alors E est
i=i
somme directe des sous-espaces Ci = Ker( u- >.iid )°'i, appelés sous-espaces
Réduction des endomorphismes 369

caractéris#-ques de U. Les Ci sont stables, de dimension O!i et Ui induit par


u sur ci a pour polynôme caractéristique (>.i - >.) 0 i.

D'abord, par récurrence sur le nombre de facteurs, le théorème 10.52


s'étend au cas d'une décomposition en produit de facteurs premiers deux
à deux.
r
Puis ici, les (X - >.i) 0 i sont premiers deux à deux, d'où E = Ef1 Ci.
i=l
De plus Ui induit par u sur ci ayant pour polynôme caractéristique
(X - Ài) 0 i à un facteur multiplicatif près, on a dira Ci = degré de Xui
soit dimCi =ai. •

Bien sûr ce corollaire s'applique pour tout endomorphisme u de E ~


r
en. Remarquons qu'avec Xu scindé, si Xu (>.) = II (Ài - >.) Oi' on dispose
i=l
d'une part des sous-espaces propres Ei = Ker(u - Ài), d'autre part des
sous-espaces caractéristiques Ci = Ker( u - >.i) 0 i.
Les inclusions des noyaux des puissances d'un endomorphisme, (voir
6.34) nous disent que la suite des Ker( u - Ài)P est croissante avec p et
que les inégalités sont d'abord strictes, puis qu'il n'y a que des égalités,
(6.37).
Par ailleurs, le polynôme minimal de u est un diviseur de Xu. car
il engendre l'idéal principal contenant Xu· Il est donc du type P(>.) =
r
II (>.i - >.)f3i avec !3i ~ ai. En fait f3i ~ 1, car si pour un indice i,
i=l
f3i = 0, le polynôme minimal ne contiendrait pas le facteur Ài - >., mais
Ài étant valeur propre de U, avec X vecteur propre "/= Û associé, on aurait

P(u)(x) ~ (g (.>.; - u)P;) (x) et romme u(x) ~ À;(x) il,...,.

ceci doit être nul, (P(u) = 0 car P polynôme minimal), alors que
r
II (>.j - >.i)/3i est un scalaire non nul et que x est non nul.
j#i
j=l
370 Algèbre

r
On a donc 1 :::; /3i :::; ai. Par ailleurs E = Ef) Ker( u - Àiid).Bi,
i=l
r
(corollaire 10.48 pour le polynôme minimal) et aussi E = Ef) Ci> (sous-
i=l
espaces caractéristiques), c'est donc que :
Ker(u - .Àiid).Bi = Ker(u - .Àiid).Bi+ 1 = ... =Ci.
C'est au cran /3i que commencent les égalités, car si on avait
Ker(u - Àiid).Bi-l = Ker(u - Àiid).Bi, (u - .Àiid).Bi-l annulerait déjà Ci
donc le polynôme :c.:1.i
annulerait déjà u, ce qui contredit P minimal.
Enfin, on voit bien que (U diagonalisable){:} (Ei (sous-espace propre)
= Ci (sous-espace caractéristique)), soit {:} (Ei = Ker( u - Àiid E ).Bi, pour
tout i). Ceci signifie que les égalités commencent au cran 1, c'est-à-dire
que /3i = 1 : on retrouve de fait que le polynôme minimal est scindé à
racines simples, (Théorème 10.51).

Que dire de plus si le polynôme caractéristique est scindé sans que ce


soit diagonalisable, toujours en dimension fini ? On va établir l'existence
d'une décomposition de u sous une forme facilitant les calculs de uP.

THÉORÈME 10.54., de Dunford. - Soit u un endomorphisme de E ~ KP,


de polynôme caractéristique scindé. Alors u s'écrit de manœre unique
u = d + n avec d endomorphisme diagonal, n endomorphisme nilpotent,
d et n commutant.

k
Il en résultera que Vk E N, uk =L cr.dk-r nr sera calculable, avec
r=O.
pour r >l'ordre de nilpotence den, nr =O.
q
Soitxu(X) =II (X - Ài) 0 " le polynôme caractéristique de u, scindé
i=l
sur K, avec a1 + a2 + ... + aq = p = dim(E). On a vu, (Corollaire
10.53) que E est somme directe des Ci = Ker( u - ÀiidE yi.i, sous-espaces
caractéristiques de u, les ci étant stables par u. Soit Ui l'endomorphisme
induit sur ci par u et Vi = Ui - .Xiidc.- Si Xi E ci> on a vfi (xi) =
(u - ÀiÏdE) 0 "(xi) = 0, vu la stabilité de Ci paru.
Réduction des endomorphismes 371

q q
Pour X E E = E9 ci décomposé en X = L Xi, avec Xi E ci. on
i=l i=l
définit alors
q
d(x) = L Àixi,
i=l
q q
et n(x) = L Vi(xi) = L(u(xi) - ÀiXi) en fait.
i=l i=l
q
Donc u(x) = L u(xi) = n(x) + d(x). De plus d est un endomorphisme
i=l
diagonal car sur chaque ci. d agit comme l'homothétie de rapport Ài, et
n est nilpotent car, les Vi(Xi) étant dans Ci on a
q
n 2 (x) = L v'f(xi) et plus généralement
i=l
q
nr(x) =L vi(xi),
i=l
mais alors, sir= sup(ai, i = 1, ... , q), chaque vi(xi) = 0 donc nr =O.
Enfin net d commutent puisque, les ÀiXi et les Vi(Xi) étant dans ci
q q
on a n(d(x)) = L vi(Àixi) alors que d(n(x)) = L Àivi(xi), ces deux
i=l i=l
expressions étant égales, vu la linéarité des Vi.
On vient de justifier l'existence d'une telle décomposition u = d + n.
Passons à l'unicité. Soit u = d' + n' une autre décomposition.
Onaud' = (d'+n')d' = d' 2 +n1d1 = d' 2 +d1n 1 ,card1 etn' commutent,
d'où ud' = d'u. On justifie de même que u et n' commutent.
Mais alors w = (u - ÀiidE)°'i et d' commutent : il en résulte que
Ci= Ker(u-ÀiidE)°'i, qui est le sous-espace propre de w pour la valeur
propre 0 est stable par d1 , (Théorème 10.14).
On a d' diagonalisable et Ci sous-espace stable par d', il résulte donc
du théorème 10.10 que d~ induit par d' sur ci est diagonalisable.
Soit alors X un vecteur non nul de ci> vecteur propre de d~, donc de
d' puisque d~ est induit par d' sur Ci. Soit À la valeur propre associée.
On a d'(x) = Àx d'où u(x) = d'(x) + n'(x) = Àx + n'(x).
372 Algèbre

Si n'(x) =f. 0, comme n' est nilpotent, il existe un entier r tel que
n'r(x) =f. 0 et n'r+l(x) =O. Si n'(x) = 0, r = 0 convient.
Or u et n' commutent donc u et n' r aussi et

u(n1 r(x)) = n 1r(u(x)) = n 1r(Àx + n ' (x))


= Àn r(x) + n r+1 (x) = Àn r(x),
1 1 I

soit finalement, avec n' r (x) =f. 0 on a u( n' r (x)) = À · n' r (x) ce qui prouve
que À est valeur de u. De plus, X est dans ci. qui est stable paru, et aussi
par d'. Comme n' = u - d', Ci est stable par n' aussi, donc ce vecteur
propre n'r(x) de u est dans Ci. Mais.sur Ci= Ker(u-ÀiidE)°'i la seule
valeur propre possible À de u c'est Ài, (si on a z E Ci tel que u(z) = Àz
avec z =f. 0::::} (u - ÀiidE)°'i(z) =(À- Ài)°'iz = 0::::} À= Ài).
Comme di induit par d1 sur Ci est diagonalisable avec pour seule
valeur propre Ài, c'est que di= -Xôdci =di, induit par d sur ci.
q q
Donc, Vx E E, décomposé en x = LXi on aura d'(x) = LÀiXi =
i=l i=l
d(x) d'où d1 = d et n' = u - d1 = u - d = n: on a l'unicité voulue. •

COROLLAIRE 10.55. - Soit u un endomorphisme de E ~ CP, il existe une et


une seule décomposition de u sous forme u = d + n avec d endomorphisme
diagonal, n endomorphisme nilpotent, d et n commutant.

C'est parce que, dans C[X], tout polynôme est scindé.



Le paragraphe suivant va nous permettre d'aller un peu plus loin en
trouvant des bases « adaptées » pour les endomorphismes nilpotents.

4. Jordanisation des endomorphismes

Nous allons commencer par l'étude plus précise d'un endomorphisme


nilpotent.

10.56. Soit donc E vectoriel sur K, et v un endomorphisme nilpotent


d'ordre k c'est-à-dire que vk = 0, avec vk-l =f. 0, k E N*.
Réduction des endomorphismes 373

Si on pose Ni Ker vi et, par convention, v 0 = idE, l'étude des


inclusions des noyaux des puissances d'un endomorphisme, (6.37) nous
permet de savoir que

{O} =No= Kerv° CN1 CN2 c ... cNk-1 cNk = E.


# # # # #
LEMME 10.57. - I l existe des sous-espaces Mj, j = 0, ... , k - 1, vérifiant
Mj E9 Nj = Nj+l et v(Mj) C Mj-1• ceci pour j ~ 1.
L'existence va être justifiée par récurrence descendante sur j. La seule
condition que doit vérifier Mk-1 c'est d'être un supplémentaire de Nk-l
dans Nk = E : on choisit donc pour Mk-1 un supplémentaiere de Nk-1
dans Nk.
Existence de Mk-2 : ce doit être un supplémentaire de Nk-2 dans
Nk-1 et il doit contenir v(Mk-1).
Les 2 conditions ne sont compatibles que si v(Mk-1) C Nk-1 et
v(Mk-l) n Nk-2 = {O}.
Or si y= v(x) E v(Mk-1), avec x E Mk-1• on a bien y dans Nk-1
noyau de vk-l car vk-l(y) = vk-l(v(x)) = vk(x) et vk est nul.
Puis, avec les mêmes notations, si y = v(x) E v(Mk_ 1) n Nk-2> on
aura vk- 2(y) = vk- 1(x) = 0 donc x E Nk-l· Comme on a supposé x
dans Mk-1 c'est que x E Nk-1 n Mk-1 = {O}, les 2 sous-espaces sont
en somme directe, d'où x = 0, a fortiori y = O.
Mais alors v(Mk-1) et Nk-2 sont deux sous-espaces de Nk-1 en
somme directe, puisque d'intersection réduite à {O}, donc v(Mk-1) E9
Nk-2 est un sous-espace de Nk-1· Si Hk-2 en est un supplémentaire
dans Nk-1 on aura

et en posant Mk-2 = Hk-2 E9 v(Mk-1) on aura trouvé l'espace cherché.


Supposons trouvés Mk-1• Mk-2• ..., Mj+l répondant aux conditions
du lemme. On cherche alors Mj qui doit être un supplémentaire de Nj
dans Nj+l et qui doit contenir v(Mj+I)·
Là encore, ces conditions ne sont compatibles que si Nj et v(Mj+l)
sont deux sous-espaces de Nj+l en somme directe.
On a Nj = Ker vi C Nj+l = Ker vi+l.
Soit y = v(x) E v(Mj+I), avec x dans Mj+l• on a y E Nj+l car
vi+l(y) = vi+ 2(x),orx E Mj+l C Nj+2 puisque Mj+iEBNj+l = Nj+2·
Donc vi+ 2(x) = 0, d'où v(Mj+I) c Nj+l·
Puis v(Mj+1) n Nj = {O} car si y= v(x) E Nj, on a vi(y) = 0 =
vi+l(x) donc en fait x E Mj+l n Nj+l = {O}, (sous-espaces en somme
374 Algèbre

directe), d'où y nul : v(Mj+i) et Nj sont 2 sous-espaces de Nj+i, en


somme directe. Avec Hj supplémentaire de v(Mj+I) EB Nj dans Nj+l• on
aura

Hj EB v(Mj+I) EB Nj = Ni+l•
et en posant Mj = Hj EBv(Mj+I) on aura bien trouvé un sous-espace Mj
du type voulu. •
Le procédé est récurrent. Comment s'achève-t-il?
Si on a trouvé Mi avec Mi EB Ni = N2, et v(M2) C Mi, on
vérifie encore que v(Mi) est sous-espace de Ni et comme No = {O},
il suffit de prendre pour Ho un supplémentaire de v(Mi) dans Ni on
aura Mo =Ho EB v(Mi) =Ni en fait, car Mo EB No =Mo EB {O} =Mo.
Mais alors E = Nk = Mk-i EBNk-i = Mk-i EB(Mk-2EBNk-2) = ... ,
on itère et finalement on obtient :

E = Mk-i EB Mk-2 EB ... EB Mi EB Mo, avec Mo= Ni= Kerv.


LEMME 10.58. - Soit un endomorphisme v nilpotent d'ordre k sur E espace
vectoriel de dimension finie p. Il existe une base de E dans laquelle la
matrice V de v, de terme général Vij soit telle que, Vj =/=- i + 1 Vij = 0; les
Vi,i+i valant 1 ou 0, le nombre maximum de Vi,i+i égaux à 1, consécutifs,
étant k -1.
En effet, on utilise la décomposition en somme directe précédemment
trouvée, en remarquant que, pour chaque j ~ 1, la restriction de v à Mj
est injective car, six E Mj est tel que v(x) = 0, alors x E Ni C N2 C
. . . C Ni. Donc x E Mj n Nj = {0} puisque Mj et Ni sont en somme
directe.
Soit alors une base {e1, ... , er1 } de Mk-i, la famille v(ei), ... ,v(er 1 )
est libre dans v(Mk-i). Avec les notations du lemme 10.57, comme
Mk-2 = Hk-2 EB v(Mk-i), on complète cette famille libre en une base
de Mk-2 du type
{v(ei), ... , v(er 1 ); er1 +i, ... , er2 }, base de Mk-2•
on en prend l'image par v, injective sur Mk-2• si k ~ 3, et on complète
en
{v 2( ei), ... , v 2(er 1 ); v( er 1 +i), ... , v( er2 ); er2 +1, ... , er3 } base de Mk-3•
et ainsi de suite jusqu'à l'obtention d'une base de Mo qui sera du type

{V k-i( ei ) , ... , v k-i( eri ) ; v k-2( er 1 +i ) , ... , v k-2( er2 ) ; •.. ,


v( erk-1 +i), · · · 'v( erk-1 ); erk-1 +li···' erk }.
Réduction des endomorphismes 375

En réunissant tout cela on a une base de E. Cette base, on l'indexe de façon


à prendre les vecteurs dans l'ordre suivant. On prend d'abord vk- 1 (ei);
vk- 2 (ei); ... ; v 2 (ei), v(ei), ei; puis on passe à vk-i(e2); vk- 2 (e2);
... ; v 2( e2 ) , v (e2 ) , e2 ; et 8.Ins1
. . de sw"te.Jusqu,,a v k-1( eri ) ; v k-2( er 1) , ... ,
2
v (er1), v(er 1 ), er1 •
On a ainsi épuisé la première tranche des ri vecteurs provenant de
Mk-1• ri= dimNk - dimNk-i en fait.
On passe alors aux r2·- ri vecteurs rajoutés dans Mk-2• pris dans
l'ordre

où il se peut que r2 =ri, donc que cette tranche n'existe pas, et on conti-
nue ainsi jusqu'à l'introduction, pour finir, des vecteurs erk-l + i, ... , erk
qui, étant dans Mo= Ni seront d'image nulle par v, ainsi d'ailleurs que
v k-i( ei ) , ... , v k-i( er 1 ) , m8.Is
. aussi. v k-2( er 1 +i ) , ... , v k-2( er2) ...
Mais alors la matrice de v dans cette base est :

( ~ ~ 0 ~i
: ·. 0
1
0 0
vk-l(e1)
vk-2(e2)

c
0

V=
1 ~) 0

0 0 .c 1

tous les blocs diagonaux sont des matrices carrées d'ordre k au plus
~)
où tous les coefficients sont nuls, sauf ceux qui bordent la diagonale
principale, immédiatement au dessus, et qui valent 1.
376 Algèbre

Dans la matrice A une séquence de 1 consécutifs est donc de longueur


k - 1, et deux telles séquences sont séparées par des O.
Si v est nilpotent d'ordre k, il y a des séquences de longueurs k - 1,
en nombre r1 = dim E - dim(Ker vk-I), mais il peut ne pas y avoir de
séquences de longueur k - 2, k - 3, ... , car dans le lemme 10.57, les
sous-espaces introduits notés Hj peuvent être réduits à {O}. •

Passons au cas d'un endomorphisme quelconque, et donnons quelques


indications sur l'utilité de la jordanisation.
Soit u un e~domorphisme de E ~ Kn ayant un polynôme caractéris-
tique scindé, ce qui est vrai si E ~ en, quelque soit u.
Alors E est somme directe des Ci = Ker( u -Àiid)°'i, si les Ài et les ai
r
sont tels que le polynôme caractéristique de u est Xu(À) = Il (Ài -À)°'i,
i=l
les Ci étant les sous-espaces caractéristiques, (Corollaire 10.53).
Sur Ci espaces de dimension ai, sous-espace stable paru, l'endomor-
phisme induit Vi = Ui - Àiidci est nilpotent, (vfi = 0) d'ordre f3i en
fait avec f3i plus petit entier tel que vfi = 0 et, on l'a vu, f3i exposant du
facteur À - Ài dans le polynôme minimal de u.
En appliquant le lemme 10.58, il existe une base de Ci dans laquelle
la matrice Vi de Vi sera matrice bloc diagonale, les blocs diagonaux étant

du type ( ÜO
1
· .1 .
·. ·.1
Ü), carré d'ordre f3i au maximum.

0
ui ci>

l
La matrice de Ui induit par u sur sera, une matrice bloc

diagonale, le• blocs diagonaux étant du type


( Ào, ~. ~1 A.
•. oarré•

d'ordre f3i au maximum, puisque Ui = Vi + Àiidci.

DÉFINITION 10.59. - On appelle réduite élémentaire de Jordan toute


matrice du type
Réduction des endomorphismes 377

À 1 0
0 À 1 0
J= 0 0 À
0 1
1

THÉORÈME 10.60. - Soit un endomorphisme u de E ~ Kn, de polynôme


caractéristique scindé. Il existe des bases de E dans lesquelles la matrice J
de u est une matrice bloc diagonale, les blocs diagonaux étant des réduites
élémentaires de Jordan.
C'est ce que nous venons de justifier.

10.61. Une telle matrice J s'appelle une réduite de Jordan.

COROLLAIRE 10.62. - Toute matrice carrée A complexe est semblable à une


réduite de Jordan.
Puisque son polynôme caractéristique est scindé.

REMARQUE 10.63. - Sur le fait que deux matrices de Mn(C) soient
semblables ou non.
Si 2 matrices A et B sont semblables, elles traduisent le même
endomorphisme u de E ~ en dans des bases différentes, en particulier
elles auront même polynôme caractéristique Xu(À).
r
On est sur C, Xu(À) = IJ (Ài - .X)°'i est scindé, et les sous-espaces
i=l
caractéristiques Ci sont connus. Sur Ci, u induit un endomorphisme
Ui = Àiidci + Vi avec Vi nilpotent d'ordre !3i :::; ai.
Si partant de A et B ayant le même polynôme caractéristique, on ob-
tient 2 polynômes minimaux distincts, les matrices ne seront pas sembla-
bles car, si pour la valeur propre Ài par exemple, la multiplicité du facteur
À - Ài dans le polynôme minimal de A est f3i et {3~ dans le polynôme mi-
nimal de B, avec f3i =/. {3~, les nombres maximaux de 1 consécutifs dans
les réduites de Jordan ne seront pas les mêmes pour le sous-espace ca-
ractéristique Ci : les matrices A - Àiln et B - Àiln ne seront pas de
même rang, (car des blocs diagonaux ne le seront pas) donc ne seront pas
semblables.

10.64. Donc A et B ont même polynôme caractéristique*" A et B


semblables, d'ailleurs, il est ridicule d'avoir fait tout cela pour aboutir
378 Algèbre

à cette constatation : c'est la montagne qui accouche d'une souris, car

A--LnetB--(ol ~ Ü~) ne sont pas semblables, puisque toute

matrice semblable à A est forcément du type A' = p-l In P = In. Et


pourtant XA (>.) = XB (>.) = (1 - >.) n. Mais pourquoi faire simple ce qu'on
peut faire compliqué!

16.65. Bien plus, des polynômes minimaux égaux n'imflique pas A et


B semblables car tout projecteur est caractérisé par x - x polynôme
minimal, si on excepte idE et p = 0, et 2 projecteurs quelconques ne sont
pas semblable, n'ayant pas même rang par exemple.

10.66. Enfin, polynômes caractéristiques égaux et polynômes minimaux


égaux non plus ne suffisent pas pour avoir A et B semblables.

En effet, soit U = (000 100 0)


1 , Xu(>.) = (->.)
0
3 . Il est facile de voir

que U2 = (000 000 001) et u 3 = 0 donc le polynôme minimal est X 3 ' car
c'est un diviseur de Xu(X) et X, X 2 sont exclus.
Soit A et B les matrices (6, 6), blocs diagonales définies par

A= ( ~ ~) et B = ( ~ ~) .

x
Elles sont ~Our polynôme caractéristique 6 toutes les deux, et A 2 =j:. 0,
B 2 =j:. 0, A = B 3 = 0, (calcul par blocs) donc elles sont même polynôme
minimal. Et pourtant elles ne sont pas semblables puisque A est de rang
4 et B de rang 2.

10.67. Cependant, pour que A et B soit semblables, il est nécessaire


qu'elles aient même polynôme caractéristique, et même polynôme mini-
· mal.
Avons-nous fait tout cela pour pas grand chose ? Autrement dit, la
jordanisation est-elle utile ?
Réduction des endomorphismes 379

En fait, elle sert entre autre, à calculer les puissances d'une matrice
carrée A.
À 1 0
0 À 1 0
0 0 À
En effet, soit J = une réduite élémentaire de
0 0
0 1
À

:~r ~ d'o~i-~ ~ut~ J ~ Àlp +Nam


On vérifie facilement que
! 3e colonne
0 0 1 0
0 0
, et si k < p,
N2= 1
0 0
0
! (k + l)ième colonne
0 0 1 0

Nk= 1
, alors que NP = O.
0
0 0
Le plus simple est de noter ei, ... , ep la base canonique de KP et de
remarquer que N est la nature de l'endomorphisme nilpotent v défini par
ei-+ 0 et Vk = 2, ... ,p, ek ~ ek-1• pour calculer la matrice de vk.
Comme Àlp et N commutent, par la formule du binôme on a, Vn E N

n
in= L _xn-kc~Nk,
k=O

cette somme s'arrêtant à k =p - 1 sin;;::: p.


380 Algèbre

Si donc une matrice A est jordanisé, avec P régulière telle que

matrice bloc diagonale, les Jr étant des réduites élémentaires de Jordan,


on peut facilement calculer Jn d'où An = P Jn p-1.
Bien souvent, la connaissance de la forme de An permet de justifier
des résultats théoriques, sans qu'il soit nécessaire d'achever les calculs.

EXEMPLE 10.68. - Soit A E Mp(C), matrice carrée d'ordre p, complexe;


la série des An converge si et seulement si son rayon spectral p( A)
sup{ module des valeurs propres} est tel que p( A) < 1.

En effet A est jordanisable, et le calcul précédent montre que le terme


général de Jn, (c'est-à-dire à la ième ligne, jième colonne) sera nul ou
du type >.n-kc~. Or pour j>.j < 1, la série des nombres complexes
Un= >.n-kc~ est absolument convergente,
l Un
un+11 (n+l)!k!(n-k)!
( - - = j>.j k'( _ k)' 1 = j>.j
. n +1 .n.
n+l .
_ k tend vers j>.j s1 n tend
n +1
vers l'infini, ceci pour >. =f. 0, la convergence étant évidente pour >. = 0).
Réciproquement si la série des An converge, avec >.valeur propre de
A et J réduite de Jordan de A, >.n figure sur la diagonale de Jn donc, la
série des Jn convergeant, >.n tend vers 0 d'où j>.j < 1.
Enfin, l'étude des espaces vectoriels normés, justifie que, en cas de
OO

convergence S = L An = (I - A)- 1 car, Vq E Non a


n=O
q '
(I - A) o ( L An) = I - Aq+1,
n=O

et si la série des An converge, lim Aq+l = O. Or le produit de


q-++oo
compositionestcontinucar(ona llluovlll ~ lllulll lllvlll pour les normes
d'applications linéaires continues donc o est bilinéaire 1 lipschitzienne
pour la norme d'application linéaire continue, or on est en dimension finie
donc toutes les normes sont équivalentes). A la limite on a (I -A) o S = I
et on justifierait de même S o (I - A) = I.
Réduction des endomorphismes 381

On retrouvera ce type de calcul de l'inverse d'un opérateur linéaire


continu dans le cadre de l'étude du difféomorphisme local.

Quelques remarques sur le calcul de An, avec A E Mq(C).

10.69. Si A est diagonalisable, avec P régulière telle que p-i AP


diag(.>.i, ... , Àq), il est clair que An = P diag(.>.r, .À~; ... , >.~)p-i : on
diagonalise puis on calcule.
Si A est non diagonalisable, on peut jordaniser... bon courage!

10. 70. On peut aussi se rappeler qu'un polynôme P annulant A peut servir.
Soit P un polynôme annulant A, de racines µ i, ... , µk de multiplicité
respectives ai, ... , ak. On peut par exemple prendre pour P le polynôme
caractéristique, mais ce n'est pas obligatoire. Soit p le degré de P.
On divise xn par P: 3Qn, 1Rn dans C[X] tel que

10.71. xn = QnP +Rn avec d 0 Rn~ p - 1.

On a donc Rn du type ao + aiX + ... + ap-iXP-i, d'où, comme


P(A) = 0; An = aoI + aiA + ... + ap-iAP-i. On est donc ramené au
calcul des aj et à celui des Ai. (Bien sûr les aj dépendent de n).
Pour cela, dans 10.71 on injecte la valeur X = µr, (1 ~ r ~ k). On a
P(µr) = 0, d'où

µ~ = Rn(µr) = ao + aiµr + ... + ap-iµf-i.

Si µr est racine double, P(µr) = P' (µr) = 0, en dérivant 10. 71 et en


calculant en µr, il vient nµ~-i =ai+ 2a2µr + ... + (p - l)ap-1µf- 2.
(Si µr est racine multiple, on dérive encore et encore ... ).
k
Finalement on obtient un système de L ar = p équations linéaires
r=l
à p inconnues qui permet le calcul des aj.
Le fait que ce système linéaire ait une solution unique n'est pas facile
à justifier, vu la forme de la matrice des coefficients. Mais l'étude des
équations différentielles linéaires à coefficients constants conduit à la
même matrice de coefficients, mais en plus on sait dans ce cas là qu'il
y a une solution unique grâce au théorème de Cauchy-Lipschitz. On peut
ainsi sans calcul, savoir que la matrice est inversible.
382 Algèbre

Cette méthode de calcul de An n'est intéressante que si p, degré du


polynôme annulant A, est peu élevé. ·
Signalons enfin la possibilité de décomposer A en une somme de
2 matrices B et C qui commutent et dont les puissances sont faciles à
calculer, voir en somme de 3 matrices A = B + C + D avec peut-être des
produits BC ou CD ou... nuls.
Exemple A est carrée d'ordre n sur C avec aii =a et aij = b si i =f. j.
Calcul de Aq.

OnestportéàécrireA=(a-b)In+b (1... 1)
1 ...
~
1
~ =(a-b)In+bL.

'-..,-'
=L
On vérifie facilement que L 2 = nL, d'où L 3 = nL 2 = n( nL) = n 2 L,
et plus généralement , Vr ;;::: 1 on a Lr = nr-l L. Comme bL et
l'homothétie (a - b)In commutent, on a donc, pour q;;::: 1

Aq =(a - b)qln + (t, c;(a - b)q-rbrnr-l) L,

=(a - b)qln +~ (~ c;(a - b)q-rbrnr) L

= (a - b)q In + ~ ( (a - b + bn )q - (a - b)q) L
=(a- b)q(In - ~ L) +~(a+ b(n - l))qL.

EXERCICES

1. Soit A E Mn(IR) telle que A 3 = A+ I. Montrer que <let A > O.

2. Soit f: Cn[X] f-+ Cn[X], f(P) = (X 2 - l)P'(X)-(nX -a)P(X).


Montrer que f est un endomorphisme de Cn[X]. Trouver sa matrice
dans la base canonique. Valeurs propres et vecteurs propres.
Réduction des endomorphismes 383

3.
2A
Soit A E Mn(C), et B la matrice bloc ( A
-4A)
-A . Montrer que
si A est diagonalisable, B l'est.

4. Les matrices A = ( ~
1 1
! -1)
-2
1
etB = (3
-1
1

semblables?

5. Quelles sont les matrices A de Mn(C) vérifiant tr(Ai) =n pour


tout j de {1, ... , n}?

6. Sous-espaces vectoriels de C 3 stables par A = ( ~ j


j2
j2)
1 .
j2 1 j

7. Soit A E Mn(IR) telle que An= 0 et An-l =fa O. Montrer que A est

semblable à la matrice J = (~ ~ J.::: ..~J-


..
O 0 0 ... 1
0 0 0 0

8. Trouver les matrices X telles que l'on ait X 2 = ( ~179 1~ ~162) .


-13 5 -6

9. E est l'ensemble des matrices 2 x 2 à coefficients dans l. de déter-


minant égal à 1. Structure de E. Montrer que si A de E est tel qu'il
existe p E 1\1* tel que AP = I alors A 12 = I.

10. Quelles sont les A de Mn(C) telles que B = ( 2~ ~) soit


diagonalisable?

ll. Soit A dans Mn(C). Déterminer le polynôme caractéristique de la


comatrice de A en fonction de celui de A.

12. Soit la matrice diagonale D = diag(l, 2, ... , n).


Combien y a-t-il de matrices semblables à D commutant à D.
384 Algèbre

13. E est un K-espace vectoriel de dimension n; soit f E L(E) et x E E.


On dit que x est cyclique si ( x, f (x), f 2 ( x), ... ) engendre E. Montrer
qu'alors (x, f(x), ... , fn-I(x)) est une base de E. Chercher les
vecteurs cycliques dans le cas d'un endomorphisme diagonalisable.

14. Soit A E Mn (IR) nilpotente. Quel est son polynôme caractéristique?


Montrer que An =O. Soit P E Mn(IR) telle que AP =PA. Montrer
que det P = det(A + P).

15. Valeurs propres et vecteurs de A= (aij) E Mn(IR) avec:


Vi, aii = b + ar et Vi =/. j, aij = aiaj; b, ai ... an réels donnés.

16. Eléments propres de la matrice M = ( :i. )


J
E Mn (C) où
a2, ... , Œn sont des complexes non nuls.

17. Soit E un K-espace vectoriel de dimension n, f E L(E) et T :


L(E) 1--t L(E), g -v-t f o g.
Comparer valeurs propres de f et de T. Montrer que Test diago-
nalisable si et seulement si f l'est.

18. Soit E = {!; f E C 0 ((0, +oo(, IR), lim f(x) existe}. On définit cp
x-++oo
de E dans Epar cp(f)(x) = f(x + 1). Valeurs propres de cp? Même
question pour cp1 induite par cp sur E' = {!, f E C 00 ([0, +oo[, IR),
lim f (x) existe}.
x-++oo

19. Soit A E Mn(C) ayant toutes ses valeurs propres distinctes.


Montrer que {M,M E Mn(C); AM= MA} est espace vectoriel
de dimension n ayant {I, A, A 2 , ... , An-I} pour base.

20. Soit f E L(IR 3 ) n'ayant que 2 et -1 pour valeurs propres. Calculer


r, VnEN.
21. Soit E vectoriel complexe de dimension finie. Montrer qu'un endo-
morphisme u de E est diagonalisable si et seulement si tout sous-
espace stable de E admet un supplémentaire stable.
Réduction des endomorphismes 385

SOLUTIONS

1. La matrice A vérifiant l'égalité A 3 - A - I = 0, si À est valeur propre (a


priori complexe) de A elle vérifie À3 -À-1 = O. Comme det A est le produit
des valeurs propres, (dans C, on trigonalise la matrice) on étudie les racines
réelles de P(x) = x 3 - x - 1, les racines complexes étant 2 à 2 conjuguées
et de même multiplicité, donc de produit > O.
On a P'(x) = 3x 2 - 1 nul en±~· d'où le tableau de variations:

X 0 -1/\1'3 1/\1'3 +oo


P' + ID - m +
<0 +oo
p / /
-OO
""'

donc P a une seule racine réelle supérieure à 1 / J3 donc > 0 : on a bien


det A> O.

2. La dérivation étant linéaire f agit linéairement sur P. Si Pest de degré n


de coefficient directeur a, f(P) est a priori de degré n+ 1 mais le coefficient
du terme en xn+l est na - na = 0, donc f(P) E Cn[X], on a un
endomorphisme de Cn[X]. On a f(Xk) = (k - n)Xk+l + aXk - kXk-l
si k;;;,: 1, et f(l) = a-nX d'où la matrice A de f dans la base canonique:
a -1 0
-n a -2 0
0 -(n - 1) a
A=
0 a
-1
-n
a
La recherche des valeurs propres et vecteurs propres fait intervenir les
équations différentielles. On a À valeur propre<:::? 3P E Cn[X] - {O}, avec
(X 2 - l)P' - (nX - a+ .X)P =O.
On a une équation différentielle linéaire du 1e ordre dont les solutions sont

P(x)=kexp (! nx-a
x2 _ 1
+À) .
386 Algèbre

nx-a+ À (n -a+ .X) -n-a+ À


Comme x2 _ 1 = 2(x _ l) - 2(x + l) on trouve P(x) =
~ n+~+À n-a+À
klx - li lx + li . Ce sont des polynômes si 2 et
n+a-À .
2 sont entiers. Pour À= 2p+a-n,p E {O, 1,2, ... ,n} on an+l
valeurs propres distinctes pour les vecteurs propres (X - l)P(X + l)n-p.

3. Le polynôme caractéristique XC (À) de la matrice C = ( Î =i ) est


xc(.X) = .x2 - .x + 2.
.
Il a deux racmes distinctes,
. "\ = 1 - 2iv'7 et µ = 1 +2iv'7 , done c est
diagonalisable : il existe P régulière telle que p- l CP = ( ~ ~) .
Par ailleurs, il existe Q E GLn(C) telle que Q- 1 AQ =A soit diagonale.

Si on pose P = ( ~ ~) et p- l = ( ~; ~; ) , un calcul par blocs montre


qu'avec les matrices blocs

R -- (aQ f3Q) et R'- ( a 'Q-1 (J'Q-1)


1Q 8Q - 1'Q-l 8'Q-1 '

on a RR' = ( (aa' + f31')In (af3' + (38')In) = 12 puisque pp-1 =


(1a' + 81')In (/(3 1 + 881 )ln n
( ~ ~) équivaut à aa' +f31' = 1 = 1f3' +88' et a(31+(381 = 1a' +81' = O.
Donc RE GL2n(C) et R' est son inverse.
-1 1 (J'Q- 1 ) (2A -4A) (aQ f3Q) ,
Enfin R BR= (a'Q-i'Q-l 8,Q_ 1 A -A /Q 8Q va etre
une matrice bloc, avec des blocs carrés d'ordre n tous proportionnels à
Q- 1AQ = A, les coefficients pro~enant du calcul de p-l CP = ( ~ ~)
d'où R- 1 BR= ( Àt- µ~) est bien diagonale.

4. Si deux matrices A et B de Mn(K) sont semblables, elles auront même


polynôme caractéristique et même forme réduite.
Ici on trouve XA(À) = (x-2) 2 (x-4) = XB(À) et la recherche des vecteurs
propres prouve que A et B sont diagonalisables, donc semblables à la matrice
diag( 4, 2, 2) : elles sont semblables, sauf erreur.

5. Si Ài, ... , Àp sont les valeurs propres distinctes de multiplicités respectives


a1, ... , ap, en trigonalisant A on sait que A k sera semblable à une matrice
triangulaire ayant les .Xj, aj fois, sur la diagonale.
Réduction des endomorphismes 387

p
Donc A doit être telle que pour k = 1, 2, ... , n, L aj.>.j = n.
j=l
p
On peut adjoindre à ces n équations la relation L Œj = n, d'où un système
j=l
équivalent :
p
L ŒjÀJ- 1(.>.j - 1) = 0 pour k = 1, ... , n, (avec la convention.>.~ = 1).
j=l
p
Pour k = 1, ... ,p, les relations Laj(j- l).>.J- 1 = 0, avec des Àj
j=l
distincts imposent chaque Œj(Àj - 1) = 0, (matrice des (.>.3~- 1 ) 1 ,;:.i,;:
"'k"'P
inversible) d'où Àj = 1, et alors les relations restant sont vérifiées. Donc,
(tr Ai = 1 pour j = -1 ... n) {::} (1 seule valeur propre de A).

6. Les sous-espaces {O} et C3 sont stables. Ceux de dimension 1 sont les droites
vectorielles engendrées par des vecteurs propres. Ceux de dimension 2 sont
les noyaux des formes linéaires vecteurs propres de tA.
On trouve XA(.>.) = -.>. 3 : 0 est seule valeur propre de A, le sous-espace
propre étant l'hyperplan H d'équation x + jy + j 2 z = O.
Donc toute droite D passant par 0 et contenue dans H est stable. Le plan
H est stable.
Puis les formes linéaires cp1 et cp2 de composantes (1, 1, 1) et (1,j,j 2) étant
vecteurs propres de tA, engendrent le plan des formes cp = Àcp1 + µcp2,
vecteurs propres de tA.
Tout plan P d'équation .>.(x +y+ z) + µ(x + jy + j 2z) = 0 est stable par
A.
7. On retrouve l'étude des endomorphismes nilpotents faite dans la jordanisà-
tion, (Ch. X, §4). Si a est l'endomorphisme de matrice A dans une base, (cano-
nique par exemple), de Rn, il existe un vecteur u de Rn tel que an-l (u) =fa O.
La famille B = {u, a(u), ... , an-l(u)} est alors libre, donc c'est une base
de Rn, (n vecteurs).
n-1
En effet, si on a des Àj E R tels que L
.>.jai (u) = 0, en prenant l'image
j=O
par an-l il reste .>.oan-l(u) = 0:::} .>.o = 0, puis l'image par an- 2, an- 3,
... , a 0 impliquera .>.1, .>.2, ... , Àn-1 = O. Dans la base B la matrice de a
est J, donc A et J sont semblables.

8. Si A =
-7 5
( -19 10 -12
-13 5 -6
-6) , le polynôme caractéristique est XA(.>.) =

-.>.(.>. 2 + 3.>. - 11).


388 Algèbre

Il a 3 racines distinctes 0 et - 3 ~ J53 et A et diagonalisable. S'il existe


X telle que X 2 = A, les matrices X et X 2 = A commutent donc les sous-
espaces propres de l'un sont stables par l'autre : il en résulte que dans une
base B = ( e 1, e2, e3) de vecteurs propres pour A, pour les valeurs propres
J53-3 J53+3 . 1
0, .>.1 = 2 et À2 = - 2 la matnce X semblable à X sera
diagonale, du type 0, µi, µ2 avecµ~ = .>.1 etµ~ = .>.2.
Sur R, comme .>.2 < 0, il n'y a pas de solution.
Sur C, en notant P la matrice de passage de la base canonique à une base
de vecteurs propres on trouvera 4 solutions

0 0
X= P ( 0 éiJXl
0 0

avec él E {-1, 1} et é2 E {-1, 1}.

9. SiA=(~ ~)EM2(Z)avecdetA=l,onaA- 1 =(-~ -!)est


aussi dans E qui est ainsi stable par passage à l'inverse. La stabilité de E
pour le produit est évidente donc E est sous-groupe de GL2(Q).
On en étudie les sous-groupes cycliques (ou monogènes finis).
Si A est tel que AP = 1, son polynôme minimal divisant XP - 1, scindé
à racines simples sur C, A est diagonalisable sur C, et les valeurs propres
.>. et µ seront des racines pième de l'unité, réelles ou complexes conjuguées,
é .fi t { À
vnan
+ µ = a + d E Z.
˵=l
Si .>. = 1, on a µ = 1, A est semblable sur C, à 1 : en fait A = 1 et alors
A 12 = l; si.>.= -1, alorsµ= -1 et A est l'homothétie -1 d'où encore
A12=1.
Comme 1 et -1 sont les seules racines pième de l'unité réelles, il reste À
- 2i k1r 2k7r
non réelle, µ = À et si À = e P , À + µ = 2 cos - - = a + d est dans Z,
p
donc À+µ E {-2, -1, 0, 1, 2}, puisque i.>. + µI ~ 2.
Les 2 cas -2 et 2 sont écartés, (ils conduisent à À = -1 ou 1) il reste
donc cos
2k7r
p 1 1
= - 2, 0, ou 2 d'où sm
. 2k7r
p iv'3 iv'3 .
= ±2, ±1 ou ± 2 qµi
conduisent à

1 iv'3 1 iv'3} =>À3 = 3


{.>.,µ} = { - 2 + 2 ' -2 - 2 µ = l,
{.>.,µ} = {i, -i} => .>. 4 = µ 4 = 1,
{ .>. ,µ } -- {!2 + iv'3 ! - iv'3}
2 '2 2 => .>.6 -- µ
6 -1
- .
Réduction des endomorphismes 389

On a donc, en utilisant A' = ( ~ ~) semblable (sur C) à A l'égalité


A 13= I ou A 14
= I ou (A') 6 = I, mais si A' = p-l AP on a
Ak = (PA'P- 1 )k = P(A'k)p-l etsiA1 k = IilresteAk = PIP- 1 = I.
Finalement on a toujours A 12 = I.

10. Un calcul par blocs, avec X, Y dans Mn,1(C) et U = ( ~) E M2n,1(C)


montre que BU = >.U avec ).. E C

{::>
{ Y=>.X
2AX + AY = >.Y {::>
{Y=>.X
(2 + >.)AX = >.2 X

Si ).. = -2, il vient 0 = 4X => X = 0 => Y = -2 · 0 = 0, exclu car on


suppose U #O. Donc).. valeur pr<lpre de Best forcément# -2, et alors:
(U vecteur propre de B pour la valeur propre de )..) {::> ( U = ( ).."l-) avec
),.2 )
X vecteur propre de A pour la valeur propre 2 + ),. .
De plus le rang de {Xi, ... ,Xp} est le rang de { (),.~1 ), ... , (À~p)}
donc la dimension du sous-espace propre E;i..(B) est celle du sous-espace
propre E >.2 (A).
2-FX
Soit µ1, ... , µr les valeurs propres distinctes de A, et a1, ... , Ctr les dimen-
sions des sous-espaces propres associés.

L'équation 2 :),. = µj ou encore >. 2 - µjÀ - 2µj a pour discriminant


µj(8 + µj)- Donc si µj f/. {O, -8}, elle donne 2 valeurs distinctes Àj, >.j,
valeurs propres de B, et des sous-espaces propres de dimension chacun a j.
On a donc, si {O, -8}n spectre(A) = 0, B admet 2r valeurs propres
distinctes, et des sous-espaces propres dont la somme des dimensions sera
r r
2 Lai. C'est 2n {::> Lai = n soit {::> A diagonalisable.
j=l j=l
Si 0 ou -8 est valeur propre de A, par exemple µ1 = 0, la somme des
dimensions des sous-espaces propres de B sera 2(a1 + ... + ar) - a1 au
plus, donc strictement inférieure à 2n.
D'où (B diagonalisable){::> (A diagonalisable et 0 et -8 non valeurs propres
de A).

ll. Notons XA(>.) = det(A - >.In) le polynôme caractéristique de A.


On sait que A· t( com(A)) = (det A)In, donc si A est inversible tcom(A) =
(det A)A- 1 , et comme une matrice et sa transposée ont même polynôme
390 Algèbre

caractéristique, on a :

Xcom{A)(>.) =<let [(<let A)A- 1 - >.In], ou encore, pour>.=/= 0,

= <let [ ( - >.A - l) (- d~t A In + A)]

= (->.)ndet A-lxA(-d~t A).


Posons XA(x) = (-x)n + an-1(-x)n-l + ... + ao, (avec ao =<let A)
1 ((det A)n (<let A)n-1
onaxcomA(À)= detA(->.)n ->.- +an-1 ->.- + ... +

det A), soit


(1) XcomA(>.) = (-l)n[(det A)n-l

+an-1>.(det A)n- 2 + ... + a 1>.n-l + >.n],

relation établie pour>.=/= 0, mais comme il s'agit d'un polynôme, valable V>..
Si <let A= 0, on utilise la densité de GLn(C) dans Mn(C) et la continuité
des coefficients de Xcom A par rapport à ceux de A (expression polynômiale)
pour dire que le résultat (1) reste valable et donne Xcorn A ( >.) = ( -1) n ( >. n +
al>.n-1).
Densité de GLn(C) dans Mn(C) : si la matrice carrée B est telle que
<let B = 0, c'est que 0 est racine de XB(>.) = det(B- >.In), mais les zéros
d'un polynôme étant isolés, :3a > 0 tel que Vz, 0 < \z\ < a => B - zln
inversible, et lim (B - zln) = B.
Z--+Û

12. La matrice D admet n sous-espaces propres E1 , ... , En qui sont des droites.
Si A commute avec D, les sous-espaces propres Ei sont stables par A,
comme ce, sont des droites, ce sont les sous-espaces propres de A qui est
donc diagonale. Comme A, semblable à D a le même spectre c'est que
A= diag(u(l), u(2), ... , u(n)) avec u E 6n : il y an! matrices semblables
à D qui commutent avec D.

13. On suppose x =/= 0, sinon E = {O} n'a pas de dimension. L'ensem-


ble des entiers k tels que {x,f(x), ... ,j<k)(x)} libre est non vide, (il
contient 0), majoré par n - 1, (il y a au plus n vecteurs dans une fa-
mille libre de E), donc cet ensemble admet un plus grand élément p. La
famille :F = {x, f(x), ... , jP(x)} est libre et :FU {f P+l (x)} est liée donc
p
jP+ 1(x) E Vect{x, f(x), ... , j(P)(x)}, d'où si jP+l(x) = L akfk(x),
k=O
p
on a jP+ 2(x) = L akfk+l(x) E Vect(:F) puisque jP+l(x) E Vect(:F),
k=O
Réduction des endomorphismes 391

et ainsi JP+ 2 (x) E Vect:F. On vérifie par récurrence sur q que jP+q(x) E
Vect :F, d'où :F est génératrice pour E : c'est une base, donc card(:F) =
n => p = n - 1 et {x, f(x), ... , fn-l(x)} est une base de E.
Si B = { e 1, ... , en} est une base de vecteurs propres pour les valeurs
n
propres Ài, ... , Àn, le vecteur x ~ L Xiei est cyclique si et seulement si
i=l
la famille { x, f (x), ... , fn- l ( x)} est libre vu ce qui précède. La matrice
des composantes de ces vecteurs dans la base B est

x2
.>.1x1
>.2x2
...
,~-'x,)
>.n-1 x2
2
A=

C'Xn ÀnXn
).n_:l
n Xn

dedéterminantdet A= (x1x2 ... Xn) det Van der Monde(.>.1, .>.2, ... , Àn).
Donc, s'il y a une valeur propre multiple, det A nul pour tout x, pas de
vecteur cyclique pour f, et si toutes les valeurs propres sont distinctes, (x
cyclique) ~ (x a chaque coordonnée non nulle suivant chaque vecteur propre
de la base B). (Voir Chapitre 9, exercice n°6 pour Van der Monde).

14. Comme A est nilpotente, il existe k E N* tel que Ak = O. Si .>. est une
valeur propre et x un vecteur propre non nul associée, on a A k x = .>. k x = 0
avec x =f. 0, d'où >.k = 0 et.>. = 0 est seule valeur propre. Le polynôme
caractéristique est donc XA (X) = ( -xr.
Le théorème de Cayley-Hamilton
prouve alors que An = O. Pour la suite de l'exercice, on se place dans
Mn(C).
Si AP = PA, il existe une base commune de trigonalisation pour P et
A, donc il existe Q régulière telle que Q- 1AQ soit triangulaire supérieure
avec des zéros sur la diagonale, et Q- 1 PQ soit triangulaire avec Pl .. ·Pn
sur la diagonale. Alors Q- 1(A+ P)Q et aussi triangulaire avec Pl, ... , Pn
sur la diagonale donc det(A + P) = Pl ... Pn = det P, et les calculs de
déterminant se font dans R.

15. A= bln+B, avec b matrice dont les lignes par exemple sont a1(ai, ... , an)
puis a2(a1, ... , an) et ... , an(a1 ... an).
Si tous les ai sont nuls A est l'homothétie bln.
n
Si La~ =f. 0, (on est sur R), B de rang 1 admet 0 pour valeur propre d'ordre
i=l
n - 1, de sous-espace propre l'hyperplan d'équation a1x1 + ... + anXn = 0;
n n
et La~ = trace(B), valeur propre simple, de vecteur propre L aiei avec
i=l i=l
(e1 ... en) base canonique.
392 Algèbre

D'où pour A, b valeur propre d'ordre n-1, vecteurs propres les aieio -aioei,
n
(si, aio # 0), pour i E { 1, ... , n} - { io} ; et b+ L a~ valeur propre simple,
i=l
n
de vecteur propre L ai ei.
i=l

16. Si B = (e1 ... en) est la base canonique, et B' la base des e~ = Ctiei, si u
est l'endomorphisme de matrice M dans la base B on aura

Donc M e~t semblable à M' = (1i 1 ... 1)i


1 ... ... 1
matrice de rang 1 et de

trace n que l'on peut diagonaliser tout de suite.


On a donc 0 valeur propre d'ordre n - 1 de sous-espace propre l'hyperplan

(suivant la base B' ou B employée)


n
et n valeur propre simple, de sous-espace propre Rv avec v =L Ctiei.
i=l

17. Il est clair que Test linéaire de L(E) dans L(E).


Soit .>.. une valeur propre de f, ei un vecteur propre associé, et B
(e1;e2, ... ,en) une base. On définit g par g(e1) = ei et g(ei) = 0 si
i # 1, alors f o g(e1) = .>..e1 et f o g(ei) = 0, Vi > 1 donc f o g = .>..g : .>..
est valeur propre de T.
Soit.>.. une valeur propre de T, Q vecteur propre associé, comme g # 0 il
existe un vecteur x tel que g(x) # 0 et T(g) = f o g = Àg implique
f(g(x)) = .>..(g(x)) d'où.>.. valeur propre de f.
Pour la diagonalisation, on peut remarquer que si P(X) E K[X] on a
P(f) o g = P(T)(g).
Alors f diagonalisable => 3P E K[X], scindé à racines simples tel que
P(f) = 0 d'où P(T) = 0 d'où T diagonalisable; et si T est diagonalisable,
3Q E K[X] avec Q scindé à racines simples et Q(T) = 0 d'où pour tout
g de L(E), (Q(f)) o g = 0, donc Q(f) = 0, (prendre g = idE) et f
diagonalisable.
Réduction des endomorphismes 393

18. Il est clair que E est sous-espace vectoriel de c0 ([0, +oo[, R), que E' est
sous-espace de E, et que cp est linéaire.
Si À réel est tel qu'il existe f non nulle dans E vérifiant cp(f) = .Xf, on a,
pour tout x ~ 0, f(x + 1) = .Xf(x). Faire intervenir les hypothèses, c'est
traduire f =fa 0, donc calculer en xo tel que f(xo) =fa 0, et aller se promener
vers +oo, donc calculer en xo + 2, xo + 3, ... Une récurrence immédiate
prouve que f(xo + n) = .xn f(xo) et l'existence de la limite se traduit par
lim Àn existe, (car f(xo) =fa 0), d'où À E] - 1, l].
n-++oo

Réciproquement : si À E] - 1, l], soit f continue de [O, 1] dans R vérifiant


la condition f(l) = .Xf (0), et f non nulle, (de telles fonctions existent) on
pose sur ]n, n + l], f(x) = .xn f(x - n). Alors f est continue sur chaque
]n,n + 1(; lim f(x) = f(n + 1) = Ànf(l) = .xn+l f(O), alors que
x-+(n+l)- ·
lim f(x)= lim .xn+ 1 f(t)=Àn+lf(O):ilyacontinuitéenn+l,
x-+(n+l)+ t-+O+
\:/n E N. On a bien f continue, vérifiant f(x + 1) = .Xf(x) pour tout x.
Enfin lim f(x) existe et vaut 0 si À E] - 1, 1(, alors que si À = 1, on
x-++oo
aurait f continue, 1 périodique, ayant une limite en +oo : ce n'est possible
qu'avec f constante.
En résumé
À = 1 valeur propre, fonctions propres : les fonctions constantes ;
À E] - 1, 1 [ valeur propre, fonctions propres : les fonctions construites comme
indiqué.
Sur E', même démarche mais il faut partir de f de classe C 00 sur (0, l],
chaque dérivée vérifiant j<k) (1) = .Xf(k) (0) et construire f sur R par
f(x) = .xnf(x - n) sur ]n,n + l]. De telles fonctions existent (fonction
«plateau» par exemple avec f(k)(l) = f(k)(O) = 0, \:/k EN).

19. Comme B: Mn(C) ~ Mn(C) définie par B(M) =AM-MA est linéaire,
l'ensemble cherché est KerB, c'est un sous-espace de Mn(C). Les valeurs
propres de A étant distinctes, A est diagonalisable. Avec P régulière telle
que p-l AP = A' = diag(>.1, ... , Àn) et M' = p-l MP, on a (A et
M commutent) <:::} (A 1 et M' commutent). Or le terme de la ième ligne
J·ième co1onne de A'M' - M'A' est Aimij
' ' - mij/\j
' ' = ('Ai - /\j' )mij•
' done
(A' M' = M'A') <:::} (Vi =fa j, m~j = 0), puisque Ài - Àj =fa O.
Il reste les n coefficients diagonaux indépendants donc Ker B est de di-
mension n. Comme I, -A, A 2 , ... , A n-l sont dans Ker B, il reste à justi-
fier leur indépendance pour conclure. C'est équivalent à l'indépendance de
n-1
/ '"" akA 1k = 0 se traduit par
I, A I , A 1 2 , ... , An- 1 , or une relation du type~
k=O
les n équations ao + Àial + À~a2 + ... + >.f- 1an-l = 0, i = 1, ... , n,
avec les Ài distincts. On a un système homogène, de matrice inversible, (Van
der Monde) d'où les ak nuls.
394 Algèbre

20. Les deux polynômes caractéristiques possibles de f sont (2 - x) 2 (1 + x) et


(2 - x)(l + x) 2 • La division de xn par le polynôme caractéristique X.J(x)
va fournir, pour n ~ 3, l'expression de fn à l'aide de 1, f, f 2 .
Traitons le cas de X.J(x) = (2 - x) 2 (1 + x).
Pour n ~ 3, soit xn = X.Jqn + anx 2 + bnx + Cn. En calculant la valeur
prise pour -1 et 2, ainsi que dans la dérivée pour 2, il vient :

, , 2n+ 2 - 3n2n-l - 4(-l)n 5 · 2n - 6n · 2n-l + 4(-l)n


dou bn = 9 , Cn = 9
-2n + 3n 2n-l + (-l)n .
et an = (-l)n + bn - Cn = 9 mais sans aucune
garantie.

21. Soit u vérifiant la propriété, À une valeur propre, (existe car racine du
polynôme caractéristique) et E>. = Ker(u - >.idE) le sous-espace propre
associé, il existe F sous-e~ace de Estable paru, tel que E = E>. EB F.
L'endomorphisme induit, u, par u sur F admet à son tour des valeurs
l!.ropres, (on est en dimension finie sur C), _Elais si µ est valeur propre de
u on aµ# À, (l'existence de x dans F avec u(x) = u(x) = Àx impliquerait
x E E>. d'où x E E>.nF = {O}, et le sous-espace Ker(u-µ idF) c Ker( u-
µ idE) en fait, mais six E Ker(u - µidE), avec x = y+ z décomposé
dans E>. EB Fon a u(x) = µx = µy+ µz = u(y) + u(z) = >.y+ u(z)
avec >.y E E>. et u(z) E F d'où u(z) = µz donc z E Ker(u - µidF) et
µy = >.y => y = 0 car >. # µ. Finalement x = z est dans Ker(u - µ idF).
En notant Eµ = Ker(u - µidE) on a E = E>. EB EµEB (un supplémentaire
stable) ... et on itère, (ou on raisonne par récurrence sur dim E) finalement
u est diagonisable.
Réciproquement, soit u diagonisable, B = { ei, ... , ep} base de vec-
teurs propres de E. Si Fest sous-espace stable, de base {Ji, ... ,fp},
le théorème de la base incomplète donne une famille { ei 1 , . . . , ein-p}
extraite de B qui complète {fi, ... , fp} en une base de E. Mais alors
G = Vect(ei 1 , ... , ein-p) est supplémentaire de F, stable paru.
CHAPITRE 11

Formes quadratiques

L'étude des formes bilinéaires symétriques et des formes quadratiques


débouchera, dans le cas réel en dimension finie, sur les espaces euclidiens
modélisation mathématique de l'espace dans lequel nous vivons, avec la
notion de perpendiculaire dont on peut se demander si elle n'est pas liée
à la station verticale des bipèdes que nous sommes. Mais la théorie est
plus riche que ne le montre cette simple approche, et c'est en Analyse
Fonctionnelle que je la développerai.

1. Vocabulaire, premières propriétés

DÉFINITION 11.1. - Soit E un espace vectoriel sur un corps K. On appelle


forme bili'téaire toute application <p de E X E dans K qui est linéaire par
rapport à chaque variable.
Si <p associé au couple (X, Y) de E x E le scalaire <p(X, Y), pour
Y fixé l'application X ~ <p(X, Y) est donc linéaire de E dans K c'est
donc un élément du dual E* de K. On note ôcp(Y) cette application et, la
bilinéarité de <p permet de vérifier qu'à son tour

11.2. Ôcp : Y ~ ôcp(Y) est linéaire de E dans E*, car \i(Y, Y') E E 2 ,
\i(..\, .X') E K 2 , ôcp(ÀY + .X'Y') est l'application de E dans K définie par

ôcp(..\Y + .X'Y')(X) = <p(X, ..\Y+ .X'Y') = À<p(X, Y)+ .À1<p1(X, Y')


(linéarité par rapport à la 2e variable),
= ..\ôcp(Y)(X) + .X'ôcp(Y')(X),
(définition de Ôcp),
= [..\ôcp(Y) + ..\1ôcp(Y')](X),
(structure vectorielle de E*),
396 Algèbre

et comme c'est vrai pour tout X de E c'est que les formes ôrp(>.Y +>.'Y')
et ÀÔrp(Y) + >.' ôrp(Y') sont égales, d'où la linéarité de Ôrp. •

On aurait de même, pour X fixé dans E, l'application '/'rp(X) de E


dans K définie par Y ~ 'l'rp(X)(Y) = cp(X, Y) est linéaire en Y, donc
'/'rp(X) E E*, et '/'rp est linéaire de E dans E*. Un mot sur la notation :
'/'rp quand on fixe la variable à gauche,('/' pour g)
Ôrp quand on fixe la variable à droite, (Ô pour d).

DÉFINITION 11.3. - Une [orme bilinéaire cp est dite symétrique si et


seulement si, V(X, Y) E E , cp(X, Y) = cp(Y, X).

Ceci équivaut à '/'rp = Ôrp car cp(X, Y) = ôrp(Y)(X) et en posant


cp(Y, X) = '/'rp(Y)(X), la symétrie de cp équivaut à avoir, pour Y fixé
dans E, ôrp(Y) = '/'rp(Y) et ce, W E E.

DÉFINITION 11.4. - On appelle forme quadratique <P associée à la forme


bilinéaire symétrique cp, l'application X ~ <P(X) = cp(X, X).

On va essayer de donner une définition des formes quadratiques


indépendamment des formes bilinéaires symétriques, et pour cela il nous
faut étudier les propriétés de ces formes quadratiques.
Soit <P forme quadratique associée à cp bilinéaire symétrique, on a

11.5.

car <jJ(>.X) = cp(>.X, >.X) = >.cp(X, >.X)


= >.2 cp(X, X) = >.2 <jJ(X)
par linéarité, d'abord par rapport à la première variable, puis par rapport
à la deuxième.
De même, si X et Y sont dans E on aura :

<jJ(X +Y)= cp(X + Y,X +Y)= cp(X,X +Y)+ cp(Y,X +Y)


= cp(X, X)+ cp(X, Y)+ cp(Y, X)+ cp(Y, Y).
Or cp(X, Y)= cp(Y, X) par symétrie de cp donc il reste

<P(X +Y)= <P(X) + 2cp(X, Y)+ <P(Y), soit encore:


11.6. 2cp(X, Y) = <jJ(X +Y) -· <jJ(X) - <P(Y)
Formes quadratiques 397

formule permettant, si la caractéristique du corps K est différente de


2, le calcul de r.p en fonction de </J, et formule qui montre l'unicité de r.p
correspondant à </J.
On lui préfère une autre formule. En remplaçant Y par -Y, on a

2r.p(X, -Y)= </J(X - Y) - </J(X) - </J(-Y)


or r.p(X, -Y) = -r.p(X, Y), (linéarité de r.p par rapport à la 2e variable)
et </J(-Y) = (-1) 2 </J(Y) = <jJ(Y) donc -2r.p(X, Y)= <jJ(X - Y) -</J(X) -
</J(Y) d'où, par soustraction:
11.7. 4r.p(X, Y) = </J(X +Y) - <jJ(X - Y).

On suppose désormais K de caractéristique =/:- 2.

THÉORÈME 11.8. - Soit E espace vectoriel sur K corps de caractéristique


=1- 2.
Une application </J : E f-----+ K est une forme quadratique si et seulement
si elle est vérifie les 2 conditions suivantes :
1) Vx E E, V>. E K, <jJ(>.X) = >. 2 <jJ(X),
2) l'application r.p : E x E f-----+ K, définie par

r.p(X, Y) = ~ ( </J(X +Y) - </J(X - Y)) est bilinéaire.

Dans ce cas r.p est la forme linéaire symétrique associée à </J, on parle
encore de forme polaire de </J.
Seule la réciproque est à justifier. Or si </J vérifie 1) et 2), non seulement
r.p est bilinéaire, ce qui est supposé, mais elle est symétrique car

r.p(Y, X) = ~ ( </J(Y + X) - </J(Y - X))

= ~(</J(X +Y) -</J(-(X -Y)))


= ~(<P(X +Y) - (-1) 2 </J(X -Y))
= ~(<P(X +Y) -</J(X - Y))

soit r.p(Y, X) = r.p(X, Y).


De plus, à r.p est bien associée la forme quadratique </J car

r.p(X, X) = ~ (</J(2X) - </J(O))


398 Algèbre

or <P(2X) = 22 </J(X) = 4</J(X)


et </J(O) = <P(O · ... ) = 02 </J( ... ) = 0,
donc
1
<p(X, X) = "4 · 4 · <P(X) = <P(X).

En particulier, il y a bijection entre les formes quadratiques sur E
et les formes bilinéaires symétriques qui leur sont associées. Aussi les
notions suivantes seront attachées à l'une ou à l'autre, sans précision
supplémentaire. Par exemple :

D'EFINITION 11.9. - Soit une forme bilinéaire symétrique <p de forme


quadratique <P associée. Deux vecteurs X et Y de E sont dits conjugués
pour <p (ou pour <PJ si <p(X, Y) = 0, (soit si <p(Y, X) = 0).
On a encore X et Y conjugués *:? X E Ker ôcp(Y).

DÉFINITION 11.10. - Un vecteur X de E est dit isotrope pour </J, ou pour


<p forme polaire, si <P(X) =O.

THÉORÈME 11.11. - Soit <P une forme quadratique sur E. L'ensemble des
vecteurs isotropes pour <P est un cône, appelé cône isotrope de </J.

Rappelons qu'une partie C de E est un cône si et seulement si,


VX E C, V>. E K, >.X E C, ce qui revient à dire que C est une réunion
de droites vectorielles, éventuellement réduite à {O}.
En effet, si X est isotrope, V>. E K on a <jJ(>..X) = >.. 2 <jJ(X) = >.. 2 ·O = O
donc >.X est isotrope. •

DÉFINITION 11.12. - Une forme quadratique <Pou sa forme polaire <p, est
dite définie si et seulement si son cône est réduit à {O}.

C'est la commodité de la transcription qui fait qu'en pratique on parle


de vecteur isotrope de la forme quadratique et de vecteurs conjugués pour
la forme bilinéaire symétrique.

REMARQUE 11.13. - Si E vectoriel sur K est muni d'une forme quadratique


définie, un moyen de prouver la nullité d'un vecteur, c'est de prouver qu'il
est isotrope.

Etude de la conjugaison. Rappelons que X et Y conjugués pour <p


équivaut à Ôcp(Y)(X) = 0 *:? X et Ôcp(Y) sont orthogonaux au sens de
l'orthogonalité dans le dual, voir en 6.93.
Formes quadratiques 399

DÉFINITION 11.14. - Soit E vectoriel sur K muni de <.p bilinéaire symétri-


que. On appelle conjugué d'une partie A de E pour <.p, l'ensemble noté A 0
définie par Ao = {X E E; W E A, r.p(X, Y) = O}.

C'est encore Ao = n
YEA
Ker 8'P(Y) et c'est encore l'orthogonal de la

partie 8'P(A) de E*, au sens défini en 6.98.

THÉORÈME 11.15. - le conju~ué de A, A 0 est un sous-espace vectoriel de


A On a A c B => B 0 c A ; A0 = (Vect A) 0 ; A c (A 0 ) 0 sans égalité
en général, même si A est sous-espace vectoriel de E.
Différence donc avec (S..l)..l = VectS du théorème 6.99.

D'abord, A 0 , intersection de noyaux de formes linéaires est bien un


sous-espace vectoriel de E.
Si AC B, et si XE B 0 , comme WEB, r.p(X, Y)= 0, la condition
d'appartenance de X à A 0 est bien vérifiée.
Comme A C Vect A, on a (Vect A)° C A 0 et réciproquement si
X E A 0 , et si Y E VectA, Y est une combinaison linéaire d'un
n
nombre fini d'éléments de A, du type Y = L ÀiYi; les Ài E K les
i=l
Yi E A, on aura par linéarité de <.p par rapport à sa deuxième variable,
n · n
r.p(X, Y) = <.p( X, L ÀiYi) = L Àir.p(X, Yi) = 0 car chaque r.p(X, Yi)
i=l i=l
est nul puisque X est dans A 0 et Yi dans A; d'où XE (VectA) 0 , on a
bien A o C (Vect A )0 et finalement l'égalité A 0 = (Vect A ) 0 .
Enfin, si XE A et Y E A 0 on a r.p(Y,X) = 0 par définition de A 0 ,
d'où, <.pétant symétrique, X est tel que W E A0 on a r.p(X, Y)= 0 ce qui
justifie l'appartenance de X à (A 0 ) 0 d'où Ac (A 0 )o. •

Inclusion le plus souvent stricte. Soit E = IR 3 . Si X = (x1, x2, X3) et


Y= (y1, Y2, y3) on pose r.p(X, Y) = XIYI + x2y2, (expression linéaire en
X, en Y et symétrique en X, Y). En notant {e1, e2, es} la base canonique
de E, on a {ei} 0 = {X;r.p(X,e1) = O} = {X;x1 = O} = Vect(e2,e3).
Donc ( { ei} 0 ) 0 = {e2, e3} 0 = {X; r.p(X, e2) = O} n {X; r.p(X, e3) = O}
Or r.p(X, e2) = x2 et r.p(X; e3) = 0 quelque soit X. Il reste donc
({ei} 0 ) 0 = {X;x2 = O} = Vect(e1,e3) d'où


400 Algèbre

Parmi les conjugués des parties il y a le conjugué de l'espace entier,


appelé à jouer un rôle important.

DÉFINITION 11.16. - Soit une forme quadratique </J de forme polaire <p sur
E vectoriel sur K. On appelle noyau de la forme quadratique le sous-espace
vectoriel E 0 . La forme est dite non dégénérée si et seulement E 0 = {O}, et
dégénérée si E 0 f. { O}.

THÉORÈME 11.17. - Le noyau de </J c'est encore le noyau de l'homomor-


phisme 8cp de E sur E*, (ou celui de "fcp).

Car Ker8cp = {Y; Y E E, 8cp(Y) = O}. Or 8cp(Y) = 0 {::} VX E E


cp(X, Y)= O.
Donc Y E Ker8cp {::} VX E E, cp(X, Y)= cp(Y,X) = 0 et sous cette
forme on retrouve Y conjugué de tout X de E c'est-à-dire Y E E 0 .
On procède de même pour "lep·

Il en résulte que (<p non dégénérée) {::} (8cp injective de E sur E*).

THÉORÈME 11.18. - Soit </J une forme quadratique. Son cône isotrope
contient le noyau.

Car si X E E 0 , on a cp(X, Y) = 0 pour tout Y de E donc en particulier


pour X, d'où <P(X) = cp(X, X) = 0 : X est dans le cône isotrope. •

La réciproque est fausse en général.


Prenons par exemple E = ~ 2 et <p définie, pour X = (x1,x2) et
Y= (y2, Y2) dans ~ 2 par cp(X, Y) = X1Y2 + X2Yl·
Alors X= (x1, x2) est isotrope si et seulement si </J(X) = 2x1x2 =O.
En notant ei = (1, 0) et e2 = (0, 1) on a le cône isotrope formé des 2
droites ~e1 et ~e2.
Par contre le noyau c'est E 0 = {e1, e2} 0
={X; cp(X, ei) = cp(X, e2) = O}
Or cp(X, ei) = x2 et cp(X, e2) = x1, donc X E E 0 {::} x1 = x2 = 0 {::}
X= 0 d'où E 0 = {O} c C = (~e1 U ~e2).
=/.

COROLLAIRE 11.19. - Une forme quadratique définie est non dégénérée.

Puisque, le cône isotrope étant réduit à {0}, il en est a fortiori de même


du noyau. •
Formes quadratiques 401

REMARQUE 11.20. - Sur E vectoriel muni de <p bilinéaire symétrique non


dégénérée un moyen de prouver la nullité d'un vecteur X c'est de justifier
son appartenance au noyau E 0 .

THÉORÈME 11.21. - Soit <p bilinéaire symétrique sur E vectoriel sur K. Elle
induit une forme bilinéaire symétrique non dégénérée sur l'espace quotient
E/E0 .

Soient X et Y deux éléments de l'espace quotient E / E 0 , représentés


respectivement par X et X' d'une part, Y et Y' d'autre part.
Comme X - X' E E 0 , (voir la définition des espaces vectoriels
quotients, en 6.40), on a <p(X - X', Y)= 0 soit <p(X, Y) - <p(X', Y)= 0
d'où <p(X, Y)= <p(X', Y). Mais de même Y - Y' E E 0 donc est conjugué
de X' d'où <p(X', Y - Y') = 0 ::::} <p(X', Y) = <p(X', Y') et finalement
<p(X, Y) = <p(X', Y').

11.22. On définit <p sur E/E0 par [p(X,Y) = <p(X, Y), avec XE X et
Y E Y, ceci ayant un sens vu l'indépendance par rapport aux choix des
représentants que l'on vient d'établir.

Il est facile de vérifier que <p est symétrique, bilinéaire. Elle est non
dégénérée car si X est dans le noyau de E / E 0 pour <p, on aura (p( X, Y) =
0 pour tout Y de E / E 0 . Soit donc X un représentant quelconque de
X, si Y E E et si Y est sa classe d'équivalence dans E/E0 , on aura
[p(X, Y) = <p(X, Y) = 0 et ce W E E, donc X E E 0 et X classe de X
est alors E 0 , élément nul de E / E 0 . •

On peut établir quelques propriétés de la conjugaison. On a

THÉORÈME 11.23. - Soit E un espace vectoriel sur K muni de <p bilinéaire


symétrique. Soient F et G deux sous-espaces de E. On a :
(F + G)o = (FU G)o = pO n Go mais seulement (F n G)o :) Fo + G 0 .

Comme Vect(FUG) = (F+G) on a (FUG) 0 = (F+G) 0 , (Théorème


11.15).

Puis X E Fo n Go <=? (W E F et 'v'Y E G, <p(X, Y) = 0)


<=? (W E (FUG),<p(X,Y) = 0)
<=?XE (F Ü G) 0 .
402 Algèbre

Puis (F n G) c F * Fo c (F n G)o et
(F n G) c G * Go c (F n G)o d'où pO +Go c (F n G)o. •

Il y a non égalité en général : soit sur E = IR 2 rapporté à la base


B = { e1, e2} la forme bilinéaire symétrique définie par :

cp(x, y)= X1Y1, six= x1e1 + x2e2 et y= y1e1 + y2e2.


On a {1Rei} 0 ={y; YI = O} = IRe2 ~t (1R(e1 + e2)) 0 est aussi 1Re2.
Donc avec F = 1Re1 et G = R(e1 + e2), on a F n G = {O} d'où
(F n G)o = {O} = E contient strictement pO +Go = 1Re2.

Soit alors E muni de cp bilinéaire symétrique et F un sous-espace de


E. On peut considérer cp1 induite sur F, c'est cp1 = cpl . Son noyau est
FxF
formé des X de F tel que 'v'Y E F, cp'(X, Y) = cp(X, Y) = 0: c'est donc
F n pO' pO pris dans E pour cp. Ce qui amène à la

DÉFINITION 11.24. - Un sous-espace F de E est dit non isotrope pour


cp si F n pO = {O}, isotrope si F n pO =f. {0} et totalement isotrope si
FnF0 = F.

Donc F est non isotrope si et seulement si cp' induite par cp sur F est
non dégénérée, et totalement isotrope si cp1 = O.

THÉORÈME 11.25. - Soit E vectoriel sur K muni de cp et F un sous-espace


vectoriel non isotrope de dimension finie de E, on a E = F EB pO.

Ce théorème est le point de départ de l'existence des bases conjuguées


en dimension fi.nie, étude détaillée au paragraphe suivant.
En effet, on a déjà FnF0 = {O}, par définition de F non isotrope. Par
ailleurs cp' = cpl est non dégénérée donc Ôcp' : F f-+ F* est injective,
FxF
(Théorème 11.17) et comme F est de dimension fi.nie, dim F* = dim F
d'où en fait Ôcp' bijective, (Théorèmes 6.108 et 6.85).
Soit alors X E E, ôcp(X) E E*, sa restriction à F, notée ôcp(X)IF
est une forme linéaire de F, donc un élément de F* = Ôcp1(F) : il existe
un et un seul Y E F tel que ôcp(X)IF = Ôcp1(Y), ce qui se traduit par:
Formes quadratiques 403

VT E F, 1\,(X)(T) = 8cp1(Y)(T), soit cp(T,X) = cp1(T, Y)= cp(T, Y) vu


la définition de cp1•
Mais alors, on a cp(T, X - Y) = 0, (bilinéarité de cp) donc à X E Eon
associe Y E F tel que X - Y E F 0 , puisque VT E F, cp(T,X - Y)= O.
Mais alors X= Y+ (X - Y) est décomposé dans la somme F + pO
d'où le résultat. •

Pour achever ce paragraphe d'introduction sur les formes quadratiques


parlons du groupe orthogonal.

DÉFINITION 11.26. - On appelle opérateur orthogonal pour <P forme qua-


dratique sur E tout automorphisme u de E vérifiant : VX E E, <P( u( x)) =
<P(x ).

Ceci équivaut, u étant linéaire, à

11.27. V(X, Y) E E 2 , cp( u(X), u(Y)) = cp(X, Y),


cp forme polaire de <P car si cp est conservée par u, avec X = Y, on a
<P conservée paru, et si <P conservée paru, V(X, Y) E E 2 on a

4cp(u(X), u(Y)) = <fJ(u(X) + u(Y)) - <fJ(u(X) - u(Y)), (voir 11.7)


= <fJ(u(X +Y)) - <fJ(u(X - Y)), (linéarité de u)
= <P(X +Y) - <P(X - Y), (conservation de </J)
= 4cp(X, Y), (voir 11.7)

d'où cp conservée.

Enfin, le fait qu'on ait imposé u bijective permet de voir que si u et v
bijectives conservent </J, il en est de même pour u- 1 et u o v. Comme idE
est un opérateur orthogonal, on a

THÉORÈME 11.28. - L'ensemble noté Ocp(E) des opérateurs orthogonaux


de E pour cp est un groupe pour le produit de composition, sous-groupe de
GL(E). •

Ocp(E) est encore appelé groupe orthogonal de E pour cp.


404 Algèbre

2. Cas des espaces vectoriels de dimension finie

Pour l'instant on a considéré des formes bilinéaires symétriques sans


vraiment donner d'exemple, mais dans le cadre des espaces vectoriels de
dimension finie, on va pouvoir les déterminer à l'aide des bases.
Soit en effet E vectoriel de dimension n sur K et B = {ei, ... , en}
une base de E. Six et y sont deux vecteurs de E, on les décompose dans
n n
cette base en x =L Xiei et y =L Yjej.
i=l j=l
Si cp est bilinéaire, on aura
n
cp(x, y)= cp( L Xiei, y)
i=l
n
= LXicp(eï,Y)
i=l

n
avec y= L Yiej, (attention à ne pas prendre le même indice), donc
j=l

n n n n
cp(x,y) = LXicp(ei,LYiei) = L:xi(LYicp(ei,ej)),
i=l j=l i=l j=l

ou
n n
11.29. cp(x,y) = LLXiYjcp(ei,ej)
i=l j=l

et réciproquement, si on se donne une famille de n 2 scalaires (wij) 1.;;;io;;;n


l~j~n
n n
et si on définit cp par cp(x, y) = L L WijXiYj, x et y étant décomposés
i=lj=l
dans la base B, on vérifie facilement que cp est linéaire en x et aussi en y.
Donc l'espace "vectoriel des formes bilinéaires sur E est isomorphe à
celui des matrices carrées (wijho;;;;i,jo;;;;n d'.ordre n. .
Si de plus cp est symétrique, on aura Vi, Vj, cp(ei, ej) = cp(ej, ei) et il
suffira de se donner les scalaires Wfü i = 1 ... n et les scalaires Wij pour
Formes quadratiques 405

1 ~ i < j ~ n par exemple, pour déterminer cp, bilinéaire symétrique,


telle que

cp(eu, ev) = Wuv, en posant Wuv = Wvu si u > v.


Autrement dit cp sera déterminée, une base B de E étant fixée, par
la donnée d'une matrice symétrique, (égale à se transposée) n =
n 2 -n
(wijh,.:,i,j,.:,n. donc par la donnée des n scalaires Wii et des - -2- sca-
2
laires Wij pour 1 ~ i < j ~ n, soit finalement par la donnée de n : n
scalaires, indépendants les uns des autres. Nous venons de voir que:

THÉORÈME 11.30. - Les formes bilinéaires symétriques (ou les formes


quadratiques) sur E ~ Kn forment un espace vectoriel de dimension
n(n + 1) /2 isomorphe à celui des matrices carrées d'ordre n, symétri-
~

Ecriture matricielle de cp
.
La base B étant fixée, si on pose Wij = cp( ei, ej) l'expresion 11.29 s'écrit

Si on considère alors X et Y, les matrices colonnes des coordonnées de x


et y dans la base B, et si on note n la matrice carrée des Wij· le produit
matriciel OY est une matrice colonne, l'élément de la ième ligne venant
du produit

u
donc valant L WijYj et finalement cp(X, Y) devient le produit de la
j=l
matrice ligne tx = (x1 ... Xn) par la colonne nY d'où l'expression
matricielle

11.a1. cp(x, y)= txnY


406 Algèbre

d'une forme bilinéaire symétrique, avec X et Y matrices colonnes des


coordonnées de X et y dans la base B et n matrice symétrique des
Wij = cp(ei, ej)·
La forme quadratique associée vaut alors <f>(x) = txnx et est la n
matrice de cp ou de </> dans la base B.

THÉORÈME 11.32. - Soit cp bilinéaire symétrique sur E :::::: Kn et n


sa matrice dans une base B de E. Alors n est aussi la matrice de
l'homomorphisme Ôep de E dans E* par ·rapport aux bases de E et B*,
base duale de B, dans E*.

Rappelons que Ôep : E 1-+ E* est définie par : ôep(Y) est l'application
linéaire de E dans K qui à x associe ôep(Y)(x) = cp(x, y).
Si {e1, ... ,en} = B, en notant {eî, ... ,e~} la base duale (donc ej
n
est la forme coordonnée qui à x =L Xiei associe Xj), la matrice de Ôep
i=l
relativement aux bases B et B* est obtenue en cherchant à décomposer
chaque Ôep (ej) dans B*, et cela donnera les éléments de la jième colonne
de la matrice cherchée.

Or ôep(ej)(x) = cp(x,ej) = cp (~xiei,ej) = ~Xicp(ei,ej)·


On a posé Wij = cp(ei, ej) et comme Xi= ei(x) on peut encore écrire

ôep(ej)(x) = (twijei) (x): ceci étant vrai pour tout x de E c'est que
i=l

n Wlj)
ôep(ej) = LWijei : la jÏème colonne est donc ( w2·
; '. dondl est bien
i=l
Wn3
la matrice de Ôep dans les bases B et B*.

Comme le rang des matrices associées au même homomorphisme ne
dépend pas des bases choisies en dimension finie, si on part d'une base
B' de E on aura une autre matrice n' qui sera de même rang. On peut
donc introduire la notion de rang de cp bilinéaire symétrique, ou de 4?
quadratique.

DÉFINITION 11.33. - Soit </>quadratique sur E :::::: Kn, de forme polaire cp.
On appelle rang de </>, ou de cp, le rang de l'homomorphisme Ôep de E sur
Formes quadratiques 407

E*. C'est donc aussi le rang commun de toutes les matrices associées à </>
dans des bases de E.

Comme Kerôrp = E 0 , (Théorème 11.17), on a.encore


dim E = rang</> + dim Eo,
car c'est la formule dim E = rang( Ôrp) + dim(Ker Ôrp) valable pour Ôrp
homomorphisme de E dans E*, (Théorème 6.85).

11.34. On peut remarquer que, pour E de dimension finie n, on a


non dégénérée) {::} (rang </> = n)
( </>
{::} (0 matrice de </> dans une base B est régulière).

Avant de s'inquiéter des effets d'un changement de base, on peut


encore exploiter les propriétés de dimension finie.

THÉORÈME 11.35. - Soit E vectoriel de dimension finie sur un corps K, et


<p bilinéaire symétrique sur E. Si F est un sous-espace vectoriel de E on a
+
dimF dimFo = dimE dim(F n E 0 ). +
On suppose F sous-espace de dimension p de E de dimension n.
Si q = dim(F n E 0 ), soit {e1, ... , eq} une base de F n E 0 complétée
en {ei, ... , eq; eq+l • ... , ep} base de F. Si F n E 0 = {O} on part d'une
base de F directement.
On a F 0 = {e1, ... ,ep}o puisque Vect(e1, ... ,ep) = F, (11.15), donc
x E F 0 {::} 'r:/j = 1, ... ,p, cp(x, ej) = 8rp(ej)(x) =O.
Or pour j ~ q, ej E F n Eo c Eo = Kerôrp donc 8rp(ej) =O.
Il reste x E F 0 {::} 'r:/j = q + 1, ... ,p, 8rp(ej)(x) =O.
On a un système de p - q équations linéaires, système homogène.
Par ailleurs ces équations sont indépendantes, car s'il existe des scalaires
p p
O:q+l• ... , O:p tels que L O:jOrp(ej) = 0, soit Ôrp ( L O:jej) = 0 c'est
j=q+l j=q+l
p
que L O:jej E Kerôrp = E 0 , et comme les ej sont dans F, c'est qu'en
j=q+l
p
. fait L O:jej E (FnE0 ) = Vect(e1, ... , eq) ce qui est absurde puisque
j=q+l
(e1, ... , eq; eq+I. ... , ep) est une famille libre.
408 Algèbre

Le système est homogène, de rang p - q, à n inconnues : ses solutions


formant un espace vectoriel de dimension n - (p - q), (Théorème 9.51),
donc
dimF0 =n-p+q=dimE-dimF+dim(FnE0 ) :on a bien
dimF + dimF0 = dimE + dim(F n E 0 ). •

COROLLAIRE 11.36. - Si </> est non dégériérée sur E de dimension finie, on


a, pour tout so~s-espace F, dim F + dim pO = dim E et (Fo)o = F.
Car alors E 0 = {O}, la formule du théorème 11.35 devient bien
dimF + dimF0 = dimE.
Comme on sait que F C (F0 ) 0 , (Théorème 11.15) et que

dim(F0 ) 0 = dimE- dimF0 = dimE - (dimE-dimF) = dimF,

l'inclusion et l'égalité des dimensions, finies, donne bien F = (F 0 ) 0 . •

COROLLAIRE 11.37. - Soit cp non dégénérée sur Ede dimension finie et F


et G deux sous-espaces, on a (F n G)o = pO +Go.

Car on a vu que pO + G0 c (F n G) 0 , (Théorème 11.23), et ici encore


les 2 espaces sont de même dimension, finie car, avec n = dim E on a :

dim(Fo + G°) = dim pO + dim Go - dim(Fo n G 0 ), (corollaire 6.87).


Or pO n Go = (F + G)o, (Théorème 11.23), donc
dim(F0 + G0 ) = n - dimF + n - dimG - dim((F + G) 0 )
= 2n -dimF- dimG - (n - dim(F + G))
= n - dimF - dimG + dimF + dimG - dimF n G
= n - dim(F n G) = dim(F n G) 0 . •

Venons-en aux effets des changements de base.

THÉORÈME 11.38. - Soit </> quadratrique sur E vectoriel de dimension finie


n sur K, B et B' deux bases de E, n et n' les matrices de </> dans ces bases.
Onan'= tpnp, Pétant la matrice de passage de B à B'.

En effet, soient x et y dans E, X et Y les matrices colonnes de leurs


coordonnées dans la base B, X' et Y' celles des coordonnées dans B'. On
sait, (parfois avec bien du mal!), ou on dit savoir que l'on a les relations
X= PX' et Y= PY', P matrice de passage, (voir 8.20).
Formes quadratiques 409

Par ailleurs on a vu, (11.31) que <p(x, y) = txnY sin est la matrice
de <p dans la base B. On aura de même <p(x, y)= t X'O'Y'.
Or t XOY = t(PX1 )0(PY1) = tx1(tPOP)Y' et, vu l'unicité de la
matrice associée à <p dans la base B', c'est que

n' = tpnp. •
REMARQUE 11.39. - Attention à ne pas confondre avec A' = p-I AP,
formule donnant A', semblable à A, pour les endomorphismes. D'ailleurs
ona

DÉFINITION 11.40. - Deux matrices n et n', carrées, sont dites congruentes


s'il existe P régulière telle que 0 1 = tpnP.

Les matrices symétriques congruentes sont donc celles d'une même


forme quadratique dans des bases différentes.

REMARQUE 11.41. - n et n' = tpnp avec p régulière, sont en particulier


équivalentes donc ont même rang. On retrouve le fait que l'on peut définir
le rang de <P par le rang commun de toutes les matrices qui lui sont
associées dans des bases différentes de E.
Pour les déterminants, ils ne sont pas conservés. On a det(n') =
(<let n) (<let P) 2 donc c'est la non nullité qui est conservée, et, dans le cas
de R, (ou d'un corps ordonné) le signe du déterminant qui est conservé.
D'ailleurs on va retrouver un terme déjà connu :

DÉFINITION 11.42. - On appelle discriminant d'une matrice symétrique n


carrée d'ordre n le scalaire det(O).

REMARQUE 11.43. - Les discriminants font penser aux polynômes du


second degré.
En fait, une base B de E étant fixée, si X et Y sont les matrices
colonnes des composantes de X et y dans B, si n est la matrice de <p
bilinéaire symétrique dans la base B, on a
410 Algèbre

n n
11.44. cp(x,y) = LLWijXiYj. (avec Wij = cp(ei,ej)) et la forme
i=l j=l
n n
quadratique vaut <P(x) =L LWijXiXj, soit comme Wij = Wji•
i=l j=l

n
11.45. <P(x) = LWiiXf + L 2WijXiXj
i=l 1..;;i<n..;;n

11.46. Cette expression porte encore le nom de polynôme quadratique en


x1, ... , Xn. C'est un polynôme homogène de degré 2 en x1 ... Xn et c'est
souvent sous cette forme que l'on se donne une forme quadratique sur E
identifié alors à Kn.
n
Si on part d'un polynôme L aixf + L aijXiXj = Q(xi, ... , Xn),
i=l 1..;;i<j..;;n
on retrouve la matrice n en posant
a··
iJ . ...1.. •
Wii =ai et Wij = Wji = 2 pour i / J.

La forme bilinéaire symétrique cp (xi, ... , Xn; Yl, ... , Yn) associée se
1
retrouve en remplaçant Xf par XiYi et XiXj par 2(XiYj + XjYi)·
On peut enfin vérifier, qu'avec Q polynôme quadratique, et cp polynôme
bilinéaire symétrique associe, on a l'identité d'Euler :

11.47.

n n n n
carcp(x1, ... ,xn;yi, ... ,yn) = Lxi(LwijYj) = ( L (Lwijxi)Yi
j=l j=l i=l
âQ n
or âx. (x1, ... , Xn) = 2ajXj + L aijXi. Comme on a Wii = ai et
J i=l
i#j
aij = 2Wij on obtient bien
Formes quadratiques 411

n
d'où l'identité L Yi aaQ_ (x1 ... Xn) = 2cp(xi, ... 'Xni yi, ... 'Yn)·
j=l X3
Nous arrivons enfin au résultat le plus important concernant les formes
quadratiques, ou les formes bilinéaires symétriques, en dimension finie,
l'existence de base (e1 ... en) conjuguées, c'est-à-dire telles que Vi =fa j,
<,o(éi, ej) = 0.

THÉORÈME 11.48. - Soit </J une forme quadratique sur E vectoriel de


dimension finie, de forme polaire <p. Il existe des bases de E conjuguées
pour <p, c'est-à-dire formées de vecteurs 2 à 2 conjugués.

Se justifie par récurrence sur dim( E) = n en remarquant que si n =1


toute base convient.
On suppose le résultat vrai pour un espace de dimension n - 1.
Soit donc E de dimension n.
Si </J = 0, comme cp(x, y)= ~(</J(x +y) - </J(x -y)), <p est nulle aussi,
donc toute base convient.
Si </J =fa 0, soit a un vecteur de E non isotrope, on a </J( a) =fa 0
donc la droite vectorielle D = K · a est un sous-espace non isotrope,
(11.24), car six = >.a E D n D 0 ,c,o(x,a) = cp(>.a,a) = >.</J(a) = 0
d'où>. = 0, donc D n D 0 = {O}. Comme on est en dimension finie on
a E = D EEl DO, (Théorème 11.25). Mais alors D 0 est sous-espace de
dimension finie n-1, D étant de dimension 1. L'hypothèse de récurrence
s'applique et si {e2, ... ,en} est une base conjuguée de v 0 , tous les
e j étant conjuguée de a, B = {a; c2, ... , en} est finalement une base
conjuguée de E d'où le théorème. •

Si dans E de dimension n, B = {e1, ... , en} est une base conjuguée,


Vi =fa j, on aura cp(ei, ej) = 0 donc, en prenant Àï = </J(ei) = cp(ei, ei), la
matrice A de la forme <p dans la base conjuguée B sera diagon,ale :

11.49.

En particulier on a :

COROLLAIRE 11.50. - Thute matrice symétrique 0, carrée d'ordre n, est


congruente à une matrice diagonale.
412 Algèbre

Car en introduisant E = Kn, 11 est la matrice d'une forme cp bilinéaire


symétrique dans une base B de E, par exemple la base canonique. Il existe
alors des bases de E conjuguées pour cp. Si C en est une, et si P est la
matrice de passage de B à C, on a tpnp =A diagonale. •

ATI'ENTION 11.51. - Congruente, mais pas semblable : on n'a pas diago-


nalisé n.
D'ailleurs si on avait diagonalisé 11 les Ài seraient uniques à permu-
tation près, alors qu'ici dans une base conjuguée si on multiplie chaque
vecteur de la base conjuguée par >., les coefficients diagonaux seront tous
multipliés par >. 2 .
Précisons encore. Soit cp bilinéaire symétrique sur E, de matrice 11
dans une base B = {ei, ... , en} et C = {é'l, ... , é'n} une base conjuguée
pour cp. Sir est le rang de cp, la matrice A de cp dans la base C étant la
matrice diag(<P(e1), ... , <P(en)), son rang est le nombre d'indices i tels que
<P(ei) =/:O. On peut supposer l'indexation telle que ce soient les r premiers
termes <P(e1), ... , <P(er) qui sont non nuls.
Soit x E E, (xi, ... , Xn) ses coordonnées dans la base B et xJ., ... , x~
ses coordonnées dans la base C. On a x~ = ei(x) est une forme linéaire
en xi, ... , Xn et, avec Ài = <P(ei), on a

0 (1)
0 0

= ~ Àix? = (~ Ài(ei) 2) (x)

donc q,, forme quadratique de rang r, apparaît comme une combinaison


linéaire à coefficients non nuls de r carrés de formes linéaires indépen-
dantes.
Réciproquement, soit fi, ... , fr des éléments indépendants de E*, et
T

<P définie par x...,... L >.if'f (x) avec les Ài, 1 ~ i ~ r, non nuls.
i=l
C'est une forme quadratique, de forme polaire
T

cp(x, y) =L Àifi(x)fi(Y),
i=l
Formes quadratiques 413

cp étant visiblement linéaire en x, en y, symétrique, et cp(x, x) = </>.


Elle est de rang r car en complétant la famille libre (JI, ... , fr) en
(JI, ... , fr; fr+I, ... , fn) base de E*, et en introduisant (êi, ... , ên) = C
base de E ayant (fi, ... , fn) pour base duale, les fi(x) et les fi(y)
deviennent les coordonnées de x et de y, dans C, d'où une matrice A
associée à cp dans (C) valant

0
A=
0

0 0
donc de rang r.
On a donc:

COROLLAIRE 11.52. - Une application </> de E dans K est une forme


quadratique de rang r si et seulement si c'est une combinaison linéaire
à coefficients non nuls de r carrés de formes linéaires indépendantes.

Voyons maintenant une méthode pratique de recherche d'une base


conjuguée lorsque la forme quadratique </> est donnée sous forme de
polynôme quadratique.

11.53. C'est la méthode dite de Gauss, de décomposition en carrés.


Soit donc </>(XI, ... , Xn) un polynôme quadratique, c'est-à-dire ho-
mogène de degré 2 en XI, ... , Xn. On procède par récurrence sur n.
1er cas : Il y a des termes carrés. Par exemple le coefficient de xy est non
nul. On ordonne </> en XI :

</> = axy + XIB(x2, ... ,xn) + C(x2, ... ,xn) avec a=/: O,a E K
B polynôme homogène de degré 1 en x2 ... Xn et
C polynôme homogène de degré 2 en x2 ... Xn.

On a encore </> = a ( xy +XI


B)
-a
+ C = a (. XI + 2B)2
a + C - B2
4a ·
Si on pose
XI,X2, ... ,Xn.
fi (xi, ... , x2) = XI + !: c'est une forme bilinéaire en
414 Algèbre

B2
Comme C - 4a est un polynôme homogène de degré 2 en x2, ... , Xn.
il se décomposera en carrés de formes indépendantes et indépendantes de
fi qui elle fait intervenir la variable x1.
2e cas: Il ny a pas de carré, mais,</> étant non nul, un terme en XiXj avec
i =f. j a un coefficient non nul. Par exemple le terme en x1x2.
On ordonne alors </> en xi, x2

a
avec =f. 0, B n'ayant pas de terme en xi, (sinon</> contiendrait du xi),
ni en x2, (le terme en x1x2 ayant été isolé). De même C n'a pas de terme
en x1 ni en x2.
De plus B et C sont polynômes homogènes de degré 1 et D est
homogène de degré 2 en X3, ... , Xn.
C'est encore

</> = (ax1 + ... )(x2 + ... ) + ...


B) BC
= (ax1 + C) ( x2 +a + D - ~·
BC .
avec D - - polynôme quadratique en x3, X4, ... , Xn.
a
B
Soit fi(xi,x2, ... ,xn) = ax1 +Cet h(xi,x2, ... ,xn) = x2 + -.
a
Ces formes sont indépendantes, le mineur relatif aux variables x1 et

x2 étant 1 ~ ~ 1 = a =/. O.
Comme fih = ~ (4fih) = ~ ((!1 + h) 2 - (!1 - h) 2), (n'oublions
pas que la caractéristique du corps est =f. 2), on a
1 1 BC
</> = -4 (!1 + h) 2 - -
4
(fi - h) 2 + D - -.
a
Les formes fi + h et fi - h sont indépendantes, (matrice par rapport
à {fi, J2} inversible), et D - BC est un polynôme quadratique en
a
X3, X4, •.. , Xn : sa décomposition en carrés de formes indépendantes fera
intervenir des formes ne dépendant pas de x1 et x2, donc indépendantes
de fi + h et fi - f2.
Ce procédé fournit une décomposition en carrés. Attention cependant,
on obtient directement les formes linéaires fi, ... , fr, r = rang de </>,
Formes quadratiques 415

qui représentent les coordonnées d'un vecteur x dans la nouvelle base B


conjuguée pour </J.
Donc si Best une base initiale, si on complète fi, ... , fr en (!1, ... , fr;
fr+ li ... , fn) base de E*, et si on note C la base conjuguée de E dans
laquelle les coordonnées de x seraient fi (x), ... , f n ( x), si P est la matrice
de passage, on aura

c'est-à-dire que les coefficients de Ji, ... , fr; fr+l• ... , fn fournissent les
lignes de p-l puisqu'on obtient les nouvelles coordonnées en fonction des
anciennes.
Voyons enfin un résultat pouvant servir concernant la réduction simul-
tanée de 2 formes.

THÉORÈME 11.54. - Soient <P1 et <P2 deux formes quadratiques, de formes


polaires associées <p1 et <p2, sur E vectoriel de dimension finie n sur K. On
suppose <P2 non dégénérée. Alors il existe des bases B conjuguées à la fois
pour <p1 et <p2 si et seulement si 8;p; o Ôrp 1 est diagonalisable.

Soit B = {ei, ... , en} conjuguée pour <p1 et pour <p2.


Considérons j fixé. La forme Ôrp 1 ( ej) est nulle sur les ei pour i =F j
car Ôrp 1 (ej )( ei) = <p1 ( ei, ej) = 0, ainsi que Ôrp2 (ej )( ei) = <p2(ei, ej) = O.
Puis, Ôrp2 ( ej) (ej) = <P2 (ej) =F 0, sinon, Ôrp2 ( ej) serait nulle sur la base
B, donc cette forme linéaire serait nulle, ej serait dans le noyau de Ôrp2 ,
réduit à 0 car <P2 est non dégénérée : c'est absurde.
Mais alors
<P2( ej) <P1 ( ej)
Ôrp 1 ( ej )( ej) = <P2(ej) Ôrp 1 ( ej )( ej) = <P2(ej) Ôrp 2 ( ej )(ej ),

<P1 ( ej)
et les 2 formes Ôrp 1 (ej) d'une part et <P2(ej) Ôrp2 (ej) d'autre part sont
égales car elles prennent les mêmes valeurs sur les vecteurs de B.
<P1 ( ej) .
Donc 3Àj = <P2(ej) dans le corps K tel que Ôrp 1 (ej) = ÀjÔrp2 (ej) ce
qui équivaut, 8rp2 étant inversible, à 8;p21 o 8rp 1 (ej) = Àjei : la base Best
une base de vecteurs propres pour 8;pi o Ôrp 1 qui est bien diagonalisable.
416 Algèbre

Réciproquement. On suppose 8~} o8r.p 1 diagonalisable. Soient À1, ... , Àk


ses valeurs propres distinctes et l!l1, ... , Ek les sous-espaces propres dis-
tincts. Comme on est en dimension finie on prend, dans chaque Ei, une
k
base Bi déjà conjuguée pour cp2. On va vérifier que B = LJ Bi est alors
i=l
conjuguée pour <p2 et <p1.
Soient eu et ev dans la même base Bi de Ei, (u =fa v, si dim Ei ~ 2).
Ona

ô;pi" o Ôr.p 1 (eu) = Àieu {::} Ôr.p 1 (eu) = ÀiÔr.p2 (eu)

:::::} Ôr.p1 (eu)(ev).= <p1(ev,eu) = ÀiÔr.p2 (eu)(ev)


= Àicp2(ev, eu) = 0
d'où <p1 (eu, ev) = 0 : on a Bi conjuguée pour <p1 aussi.
Puis, soit eu E Bi et ev E Bj avec i =fa j.
Alors ô;pi o Ôr.p 1 (eu) = Àieu alors que 8;p21 o Ôr.p 1 (ev)
Ài =F Àj.
D'où Ôr.p 1 (eu)= ÀiÔr.p 2 (eu), on calcule en ev, il vient

<p1(ev,eu) = Àicp2(ev,eu)·

De même Ôr.p 1 (ev) = ÀjÔ<p2 (ev), on calcule en eu donc

<p1(eu,ev) = Àj<p2(eu,ev)·

La symétrie de <p1 et cp2, par soustraction, donne (Ài -Àj)cp2(eu, ev) = 0


avec Ài =fa Àj, d'où cp2(eu,ev) = 0 et aussi <p1(eu, ev)·
k
On a bien vérifié que B = LJ Bi est conjuguée pour <p1 et pour <p2.•
i=l

3. Propriétés propres au cas réel

La propriété fondamentale de ~ étant d'être un corps ordonné complet


on doit s'attendre à avoir des propriétés supplémentaires liées au signe
des valeurs prises par </>, que nous allons étudier ici, et d'autres liées au
fait que l'espace vectoriel de départ est complet ou non pour une topologie
adéquate, ce que nous déveloperons en topologie.
Formes quadratiques 417

En ce qui concerne les propriétés liées au signe, certaines sont valables


en dimension quelconque, d'autres supposeront de plus dim E finie ce qui
sera précisé.

DÉFINITION 11.55. - Une forme quadratique </> sur E vectoriel réel est dite
positive (resp. négative) si, \::/x E E, </>(x) ~ 0, (resp. \::/x E E, </>(x) ~ 0).

Bien sûr, on passe de </> positive à une forme négative en prenant -</>,
et réciproquement.

THÉORÈME 11.56. - Une forme quadratique réelle </> définie est de signe
constant.
Sinon, supposons </> définie, et prenant des valeurs de signes contraires.
Soit x E E avec </>(x) > _0 et y tel que </>(y) <O.
Pour tout t réel, </>(tx + y) = t 2</>( x) + 2tcp( x, y) + </>(y), (avec cp forme
polaire de</>), est un trinôme en t, de discriminant réduit
~ = (cp(x,y)) 2 -</>(x)</>(y) > 0 puisque </>(x)</>(y) <O.
Ce trinôme a deux racines ti et t2 distinctes, et non nulles car
</>(Ox +y) = </>(y) < O. Les vecteurs tix +y et t2X +y sont non nuls,
sinon y= -t1x par exemple donne </>(y)= (-t1) 2</>(x), soit </>(y) et </>(x)
de même signe.
On aurait donc deux vecteurs =/. 0 dans le cône isotrope : c'est exclu.
Donc </> est de signe constant. •

La réciprqueestfausse. Posons, surlR 2, </>(X)= xi, avec X= (x1, x2),


</> est positive et non définie car le cône isotrope est Ia: droite vectorielle
IR· (0, 1).
Cette utilisation d'un trinôme de second degré, on va la retrouver pour
justifier l'inégalité de Cauchy-Schwartz, point de départ de l'étude des
espaces topologiques préhilbertiens réels.

THÉORÈME 11.57. (Inégalité de Cauchy-Schwartz). - Soit </>forme qua-


dratique de signe constant sur E vectoriel réel, de forme polaire cp. On a
\::/(x,y) E E 2,

(cp(x,y)) 2 ~ </>(x)</>(y).

Soient x et y fixés dans E, on considère, pour tout t réel, le scalaire

</>(tx +y)= t 2</>(x) + 2tcp(x, y)+ </>(y)= O(t).


418 Algèbre

Si </>(x) # 0, (} est un trinôme en t de signe constant, donc de


discriminant ~ 0, (ah, ce signe du trinôme!) d'où

(cp(x,y)) 2 -</>(x)<f>(y) ~ 0
ce qui est le résultat.
Si </>(x) = 0 il reste O(t) = 2tcp(x, y)+ </>(y). C'est une fonction affine
en t, de signe constant, donc la variable t n'y figure pas, d'où cp(x, y) = 0,
et l'inégalité devient 0 ~ 0, c'est vrai! •

COROLLAIRE 11.58. - Soit </> quadratique de signe constant le cône isotrope


est égal au noyau.

On a toujours le noyau contenu dans le cône isotrope C, (Théorème


11.18). Soit ici a dans le cône isotrope, "i/y E Eon a :
(cp(a, y)) 2 ~ </>(a)</>(y) = 0 d'où cp(a, y)= 0: a E E 0 noyau de</>.

COROLLAIRE 11.59. - Pour </> quadratique réelle, on a (</> définie positive)


{::}(</>non dégénérée positive). (On a le même résultat avec</> négative).

Puisque </> est alors de signe constant et (définie) {::} (cône isotrope)
= {O} alors que (non dégénérée) {::} (noyau = {O} ). •

COROLLAIRE 11.60. - Pour </> positive non dégénérée, il y a égalité dans


Cauchy-Schwartz {::} x et y liés.

Car si {x, y} est une famille liée de E muni de </>quadratique de signe


constant, avec y = >.x par exemple,

cp(x,y) = >.<f>(x) ~ (cp(x,y)) 2 = >.2 </>(x)<f>(x) = <f>(y)<f>(x)


d'où l'égalité dans l'inégalité de Cauchy.
Et six et y sont tels que (cp(x, y)) 2 = </>(x)</>(y), six# 0 on a <f>(x) # 0
car </> est définie car positive non dégénérée, donc il existe ti racines double
du trinôme </>(tx +y) = O. Mais tix +y est isotrope, donc nul, d'où
y= -t1x, la famille {x,y} est bien liée. •

COROLLAIRE 11.61. (Inégalité de Minkowski). - Soit </>forme quadratique


positive sur E vectoriel réel, on a, "i/(x, y) E E 2

J<f>(x +y)~ v'<i(X) + Vî(ij).


Formes quadratiques 419

Comme il s'agit de nombres positifs, cette inégalité équivaut à vérifier


que <f>(x +y)~ </>(x) + 2J</>(x)<f>(y) +</>(y), (on élève au carré), soit, en
développant le 1er membre, à vérifier que

</>(x) + 2<p(x,y) +</>(y)~ </>(x) + 2J<f>(x)<f>(y) +</>(y)


où encore que

<p(x,y) ~ v</>(x)<f>(y).

Or <p(x, y) ~ l<p(x,y)I ~ J</>(x)<f>(y), par Cauchy-Schwarz, d'où le


résultat.

C'est cette inégalité qui permettra de justifier que, pour </> définie
positive, v'<f> est une norme sur E, associée à un produit scalaire.

REMARQUE 11.62. - Soit </> définie positive sur E il y a égalité dans


l'inégalité de Minkowski si et seulement si x et y sont positivement liés.

Car si y = tx avec t ;:::: 0 on a

v</>(x + ty) = v<1>(1 + t)x = J(l + t) 2 </>(x) = 11 + tlv'4>W


= (1 + t)J4)W = v'4>W + tv'4>W
= J4)W + Jt 2 </>(x) = J4)W + ~.
Et s'il y a égalité dans Minkowski, vu sa justification, c'est qu'il y a égalité
dans Cauchy-Schwarz, avec de plus <p(x,y) = l<p(x,y)I, soit <p(x,y);:::: O.
Mais alors x et y sont liés, donc par exemple il existe t réel tel que y = tx,
et de plus <p(x, y) = t<f>(x) ;:::: O.
Donc soit </>(x) = 0 et alors x = 0 car </> définie, d'où y = 0 : ces
vecteurs sont positivement liés, et si </>(x) =f 0, on a </>(x) > 0::::} t >O.•

Dans tout ce qui précède, on a supposé la forme </> de signe constant.


Mais une forme quadratique réelle peut prendre des valeurs des deux
signes. En dimension finie on peut alors préciser le comportement des
bases conjuguées.

THÉORÈME 11.63. (dit de Sylvester). - Soit</> une forme quadratique de


rang r sur E vectoriel réel de dimension finie n. Alors pour toute base
conjuguée B = (ei, ... , en), le couple (p, q) avec p = card{ i; </>(ei) > O}
et q = card{i, </>(ei) < O} est le même.
420 Algèbre

11.64. Ce couple (p, q) est la signature de la forme quadratique </>.


Soient B = (e1, ... , en) et B' = (ei, ... , e~) deux bases conjuguées
indexées de façon que

</>( e1), ... , </>( ep) soient > 0,


</>(ep+I), ... , </J(ep+q) soient< 0, avec p + q = r,
et </>(ei) = 0, Vi > r;
et de même les </>( eD > 0 pour i ~ p1 , les </>( eD < 0 pour p1+1 ~ i ~ p1+q'
avec p 1 + q1 = r et </>(eD = 0 Vi > r.
p
Soit F = Vect(e1, ... ,ep;er+1, ... ,en)· Pour x = LXiei +
i=l
n p
L Xiei on a </J(x) = L<P(ei)xt carla matrice n de </J dans la base B
i=r+l i=l
0

conjuguée est . Donc </>(x) ~O.


0

0 0
p'+q'
De même, soit G = Vect(e~'+l, ... ,e~'+q'), six= L x~l
i i
E G
i=p'+l
p'+q'
on a </>(x) = L (x~) 2 </>(eD ~ 0 et </>(x) = 0 {:}chaque x~ =O.
i=p'+l
Donc F n G = {0} ::::} F EB G existe et c'est un sous-espace de E : on
a dim(F EB G) ~ n soit n - q + q1 ~ n, soit q1 ~ q.
En inversant les rôles des bases B et B' on aurait q ~ q1 d'où en fait
q = q1 et p = r - q = p1 = r - q1• •

Si </> est q~adratique de signature (p, q), dans une base conjuguée
B = (ei, ... , en) telle que les </>( ei) sont > 0 pour i ~ p, < 0 pour
p + 1 ~ i ~ p + q = r, nuls pour i > r, la matrice n de</> dans B sera, en
posant Ài = cp(ei) pour i ~pet Ài = -</>(ei) pour p + 1 ~ i ~ p + q,

n = diag(Ài, ... 'Àp; -Àp+l, ... ' -Àp+q, 0, ... '0)


Formes quadratiques 421

d'où
p p+q
</J(x) = LÀixr - L Àix;,
i=l i=p+l

les Àï étant tous > O.


On a alors
</Jnondégénérée {:::::::? p + q = n;
</J positive {:::::::? q = O;
</J négative {:::::::? P = O;
</J définie positive {:::::::? p = n, (q = O);
et </J définie négative {:::::::? p = 0, q = n.

EXERCICES

1. Sur E = ~n soit une forme bilinéaire symétrique B de signature


(n - 1, 1) et F un sous-espace de E contenant un vecteur v tel que
B(v,v) <O.
Signature de la restriction de B à F x F.

2. Soit pour X vecteur colonne de ~n, l'application </J définie par


</J(X) = txx + a(VX) 2 , où a E R et U E Rn sont données.
Montrer que </J est une forme quadratique sur ~n. En donner la
signature.

3. Soit a ER. Pour A E Mn(R) on pose q(A) = tr(tAA) + a(tr A) 2 •


Montrer que q est une forme quadratique. En donner la signature.

4. Soit E = ~n[X], a E R, et k E N, (1 ~ k ~ n). On pose, pour


PEE,

Montrer que </J est une forme quadratique et déterminer sa signa-


ture.
422 Algèbre

5. Pour P E R[X) on définit </>(P) = LP(k)P(-k)e-k. Montrer


k~O
que c'est une forme quadratique. Déterminer, quand on se limite à
Rn[X], sa signature.

6. Soit A E Mn(R), B E Mn,p(R), C E Mp,n(R) et D E Mp(R)

!&les q~en posant M ~ ( ~


(matrices blocs), on ait tM J M
1 ; ) et J ~ (1; 1
= J. Montrer que A est inversible.
_:J.
7. Base conjuguée de la forme quadratique Q définie sur R3 par

Q(x, y, z) = x 2 + y 2 + z 2 - 2(yz + zx + xy).

8. Soit E vectoriel sur K de caractéristique différente de 2 et <p


une forme bilinéaire symétrique non dégénérée ayant des vecteurs
isotropes non nuls. Montrer que Ve E K, 3x E E, <p(x, x) = c.

9. Soit </> une forme quadratique sur E :::: Kn, non définie et non
dégénérée. Montrer qu'il existe une base de vecteurs isotropes, (K
de caractéristique =F 2).

10. Soit E = Kn, </> forme quadratique de forme polaire <p. Existe-t-il
une base de E, conjuguée pour <p, contenant un vecteur a non nul
donné?

SOLUTIONS

1. On va prouver que F est non isotrope.


Procédons par l'absurde: on suppose F isotrope, donc F n pO-:/= {O}.
Soit x E F n F 0 , x-:/= 0, on a B(x,x) =O.
Comme Best non dégénérée, {x} 0 est de dimension n - 1, donc on peut
trouver y fj. {x} 0 .
La famille { x, y} est libre, (s'il existe a réel tel que y = ax on aura
B(x,y) =a B(x,x) = 0, d'où y E {x} 0 : absurde.
On peut alors trouver >.1 et >.2 réels tels que, avec ei = >.1x + y et
e2 = >.2x +y on ait B(ei, ei) = 1, B(e2, e2) = -1, B(ei, e2) = 0 et
Vect(e1,e2) = Vect(x,y).
Formes quadratiques 423

En effet
2>.1B(x, y) = 1 - B(y, y)
>. 1 = 1- B(y,y)
2B(x,y)
2>.2B(x, y)= -1 - B(y, y)
>. 2 = _-_1_-_B_(y_,y~)
2B(x,y)
Mais alors
B(ei, e2) = (>.1 + >.2)B(x, y)+ B(y, y)
-2B(y,y)
= 2 B(x, y) B(x, y) + B(y, y) = 0,
et comme >.1 'I >.2, Vect(ei, e2) = Vect(x, y). Soit P ce plan vectoriel, P
est non isotrope, car si z = 01 el + 02e2 E P n P 0 , on a
B(z, el) = 0 = 01 et B(z, e2) = 0 = -02 d'où z =O.
Mais alors E = P ffi P 0 , et v vecteur de F tel que B (v, v) < 0 se décompose
dans cette somme directe env= ox + (3y + z. On av dans F et x dans
F 0 , donc 0 = B(v,x) = (3B(y,x) car B(x,x) = 0 et B(x,z) = 0 aussi
car x E Pet z E P 0 • Comme B(y,x) 'I 0, on a (3 = 0, d'où v = ox + z.
De plus, Vt E R, avec w = tx + z, comme x est isotrope et B(x, z) = 0,
on aura B (w, w) = B ( v, v) < O. Mais alors, x et z étant indépendants, on
peut trouver z et w indépendants tels que B ( z, z) < 0 et B (v, v) < 0 : la
signature de B comporterait au moins 2 signes-, c'est absurde.
Donc F est non isotrope, on a E = F ffi pO. Le vecteur v est non
isotrope dans F, avec G conjugué de Rv dans F, on a la somme directe
E = Rv ffi G ffi F 0 , les 3 espaces étant 2 à 2 conjugués. En réunissant { v}
et des bases conjuguées de G et F 0 , on en obtient une de E. La signature de
B étant (n-1, 1), et B(v, v) < 0, c'est que la restriction de B à G X G, (et
aussi à pO x F 0 ) est définie positive. Finalement la signature de BI
FxF
est (dim(F) - 1, 1).

2.

~(X) ~ t, xl + a (t, u;x; r.


Si tx =(xi, ... ,xn) et tu= (ui, . .. ,un) on a

mogène de degré 2 par rapport aux xû.


C'"' = polynôme quadratiquo, (ho-

On a aussi <P(X) = txx +o(tuX)(tuX). Mais tu X est une matrice (1, 1),
donc égale à sa transposée txu, d'où

q, est la forme quadratique de matrice symétrique B = In + outu dans la


base canonique de Rn. On remarque que utu a ses n vecteurs colonnes du
type u; U, donc proportionnels.
424 Algèbre

Si U = 0, B =In,</> a pour signature (n, 0).


Si U =/= 0, utu est de rang 1, symétrique réelle donc diagonalisable. La
n
valeur propre 0 est d'ordre n- 1 au moins, et trace(UtU) = Lu~ est
i=l
valeur propre simple. Les valeurs propres de B sont alors 1 d'ordre n -1 et
n
1+ aLu~ d'ordre 1. Donc :
i=l

atuu > -1 => signature(n,O),


atuu = -1 => signature(n - 1, 0),
a VU< -1 => signature(n - 1, 1).

3. Si A= (aijho:;;i,jo:;;n. le terme de la ième ligne, ième colonne de tAA est


n n n
L(aki) 2 donc q(A) = L L(aki) 2 +a( au +a22 + ... +ann) 2 est un
k=l . i=lk=l
polynôme quadratique par rapport aux aij.
2
. En considérant A comme un vecteur colonne de Rn , et en notant U le
2
vecteur de Rn dont toutes les composantes sont nulles sauf celles d'indices
associés à au, a22, ... , ann, qui valent 1, on est ramené à l'exercice 2, d'où,
comme ici VU = n,
si a> _ _!: signature (n2 ,0)
n
si a= _ _!: signature (n2 -1,0)
n
si a< _ _! : signature (n2 - 1, 1).
n

4. Si on pose cp(P,Q) = 1 1 k-1


p(k)(t)Q(k)(t)dt +a ~p(i)(O)Q(i)(O), les

propriétés de linéarité de la dérivation et de l'intégrale montrent que cp est


bilinéaire symétrique, de forme quadratique associée </>.
Soit F = Vect(l,x, ... ,xk-l) et G = Vect(xk,xk+ 1 , ... ,xn). On a
E = Fffi G.
Si P E E se décompose en P = Q + R avec Q E F et R E G on aura donc

</>(P) = </>(Q) + 2cp(Q, R) + </>(R).

Or cp(Q, R) = 1
1

o
Q(k)(t)R(k)(t) dt+ a L
k-1

~o
Q(i)(O)R(i) (0), c'est nul car

Q, dedegré k-1 au plus a sa dérivée kième nulle, et'v'i ~ k-1, R(i)(o) =O.
Formes quadratiques 425

k-1
De même, </>(Q) =a L(Q(i)(0)) 2 et <{>(R) =
i=O
1 0
1
(R(k)(t)) 2 dt, donc si

n
P(t) = Laië, il reste
i=O

La forme </>1 = </>la est positive, définie car si R E G est tel que

10
1 .
(R(k)(t)) 2 dt = 0, la dérivée kième de R, polynôme de valuation k,
étant nulle c'est que R = O.
La signature de </>1 est donc n - k + 1, et </>1 se décompose en une somme de
n-k+l carrés de formes linéaires en ak, ak+l> ... , an, donc indépendantes
de ao, ... , ak-1· On a une décomposition de</> en carrés d'où:
si a > 0, </>est définie positive, de signature (n + 1, 0)
si a= 0, </>est positive, non définie, de signature (n - k + 1, 0)
si a< 0, </>est non dégénérée, de signature (n - k + 1, k).
5. Si P est de degré n, de coefficient directeur a, le terme général Uk
P(k)P(-k)e-k de la série est tel que lukl ~ a 2 k2 ne-k, terme général
d'une série convergente donc </>( P) existe.
De même 1.p(P, Q) = L ~(P(k)Q(-k) + Q(k)P(-k))e-k est la somme
k;;ioo
d'une série absolument convergente, et rp est bilinéaire symétrique avec
<.p(P, P) = </>(P) d'où</> forme quadratique.
La parité, (P(k), P(-k)) peut jouer un rôle. Si P est pair et Q impair,
P(k)Q(-k) = -P(-k)Q(k) donc rp(P,Q) =O.
Soit donc E = Rn[X] et
F = Vect(l,x 2 ,x4, ... ,x2P, ... ), 2p :i::; n
et G = Vect(x,x 3 , ... ,x2P+l, ... ), 2p+ 1 :i::; n.
On a E = F E0 G, avec F C G 0 et G C F 0 , conjugués pour rp.
Sur F, </>(P) = L(P(k)) 2 e-k est~ 0, nul si et seulement si P(k) = 0
k;;ioO
pour tout k de N donc si P = 0; et sur G, </>(P) = - L(P(k)) 2 e-k est de
k;;ioO
même définie négative. En décomposant en carrés les restrictions de </> à F
et G on en déduit donc que la signature de </> est (dim F, dim G) ou encore;
sin= 2p; signature (p + 1,p)
sin= 2p + 1, signature (p + 1,p + 1).
426 Algèbre

6. Le calcul par blocs de tM J M donne

tMJM= (tAA-tcC tAB-tcD)·


tBA - tnc tBB - tDD
Si ce produit vaut J, en particulier O:Q. a:
tAA-tcc =In, soit encore tAA = ln+tcc. Soit alors X, matrice colonne
d'ordre n des Xi, on pose Y = la matrice colonne CX, matrice colonne
, n P
d'ordre p des Yi· On a tx(tAA)X = Lx~+ LYJ ;:.: 0, et c'est nul si
i=l j=l
et seulement si X = 0, donc tAA est la matrice symétrique d'une forme
quadratique définie positive. En particulier det(tAA) = (det A) 2 #- 0 d'où
A inversible.
7. Une décomposition en carrés par la méthode de Gauss donne

Q(x,y,z) = x 2 + 2x(-y- z) + y 2 + z 2 - 2yz


= (x - y - z) 2 - (y+ z) 2 + y 2 + z2 - 2yz
= (x - y - z) 2 - 4yz = (x - y - z) 2 - (y+ z) 2 +(y - z) 2 •
La forme Q est de rang 3, de signature (2, 1).
En posant X = x - y - z; Y = y - z et Z = y + z, on obtient les formes
coordonnées dans une nouvelle base ( I, J, K), la matrice de passage P étant
telle que

d'où P = (1 ~0~1)
O ,
0 -- -
2 2
les colonnes de P donnent les composantes de I, J, K, vecteurs d'une base
conjuguée, dans la base initiale. Dans cette base conjuguée, la forme qua-
dratique s'écrit X 2 + y 2 - z 2 .

8. Soit <Pla forme quadratique associée à cp, a vecteur isotrope non nul; la forme
est non dégénérée donc a fJ. E 0 = {O} : il existe b E Etel que cp(a, b) #-O.
Mais alors, Vt E K, on a

</>(ta+ b) = t 2 <P(a) + 2tcp(a, b) + <P(b) = 2tcp(a, b) + <P(b).

Avoir x =ta+ b tel que <f>(x) = c revient à prendre t = ~;(!,(:j dans K


de caractéristique différente de 2, c'est possible, puisque cp(a, b) #-O.

9. On prouve, par récurrence sur k, que s'il existe k vecteurs isotropes indépen-
dants avec k < n, on peut en trouver un (k + l)ième indépendant. Ayant
Formes quadratiques 427

e1 isotrope non nul au départ on aura alors une base isotrope. (Sin = 1,
l'existence de e1 isotrope non nul donne la solution).
Soit F = Vect(ei, ... , ek), les ej étant isotropes indépendants.
La forme est non dégénérée donc dim pO = n - k. On a 1 ~ k < n donc
0 < n - k < n : les sous-espaces F et pO sont différents de {0} et E
d'où F U pO CE. Soit X '/. F U pO, il existe i ~ k, cp(X, ei) =/:- 0 et
#
{ e1, ... , ek, X} est famille libre, sinon X E F.
On cherche t E K tel que X+ tei soit isotrope. Ceci équivaut à t 2 <P(ei) +
2tcp(X,ei) + <P(X) = 0 d'où, <<P(ei) = 0 et K de caractéristique=/:- 2) un t
vérifiant cela. La matrice de passage de { e1, ... , ek, X} à {e1, ... , ek, X+
tei} étant régulière, (triangulaire avec des 1 sur la diagonale) on a bien
un vecteur isotrope de plus, indépendant des précédents : la propriété est
récurrente.

10. La question ne se pose que pour a =/:- O.


Si a non isotrope, on complète en {a, e2, ... , en} base de E, et on remplace
chaque ej par ê j = ej + Àja avec Àj tel que cp( a, ê j) = 0 soit cp( a, ej) +
Àj<j)(a) = 0 d'où Àj = -cp(a,ej)(<P(a))- 1 . On a une base de E, et avec
F = Vect(ê2, ... ,ên) = {a} 0 , en remplaçant les êj par les vecteurs d'une
base conjuguée de F on répond à la question.
Si a est isotrope, soit ôcp(a) la forme x ~ cp(x, a).
Si {a} O = Ker Ôcp (a) = E, avec F supplémentaire de Ka dans E et C base
conjuguée de F, {a} U C sera base conjuguée de E.
Si {a} 0 = Ker Ôcp (a) = H est un hyperplan de E, il contient a, isotrope, et
si B = {a, e2, ... , en} était une base conjuguée de E, on aurait forcément
{a}0 = E puisque a est isotrope : c'est exclu. Donc le problème a une solution
sauf si a est isotrope avec {a} 0 hyperplan.
CHAPITRE 12

Formes sesquilinéaires,
formes hermitiennes

Dans ce chapitre on va se trouver en terrain connu, celui des formes


quadratiques et des espaces préhilbertiens réels. En fait, on va apporter
une modification aux formes quadratiques, de façon que sur des espaces
vectoriels complexes on obtienne un objet homogène à un carré et à valeurs
positives. On remplacera donc les carrés des scalaires par des zz.
La plupart des raisonnements sont la copie conforme de ceux que l'on
rencontre au chapitre 14 d'analyse, sur les espaces préhilbertiens réels.

1. Vocabulaire

DÉFINITION 12.1. - Soient E et F deux espaces vectoriels complexes. Une


application f de E dans F est dite semi-linéaire si et seulement si
'v'(x, y) E E 2 , f.(x +y) = f(x) + f(y),
et 'v'(À, x) E C x E, f(Àx) = "XJ(x).

Il est facile de vérifier que l'image f (E) est encore un sous-espace


vectoriel de F, et que si H est sous-espace de F, f- 1 ( H) est un sous-
espace de E. En particulier on peut. parler de noyau de f semi-linéaire,
de rang de f si on est en dimension finie. Ce qui changerait par contre ce
serait les règles de calcul matriciel.

DÉFINITION 12.2. - Soit E un espace vectoriel complexe. On appelle forme


sesquilinéaire toute application cp de E x E dans· C qui est semi-linéaire
par rapport à sa première variable, et linéaire par rapport à la deuxième.
430 Algèbre·

Si on considère l'application: (x, y) ~ cp(x, y), on a:

'v'(>., >.') E C2 , 'v'(x, x') E E 2 , 'v'y E E,


cp(>.x + >.'x',y) = Acp(x,y) + >.'cp(x',y),
et

v(µ, µ1) E C2 , 'v'x E E, 'v'(y, y1) E E 2 ,


cp(x,µy + µ1y1 ) = µcp(x,y) + µ1cp(x,y 1 ).
Soit alors x fixé dans E, l'application y~ cp(x, y) est linéaire en y.

12.3. C'est donc un élément de E* dual de E. On note 'Yip(x) cette forme


linéaire, et on peut vérifier que 'Yip est semi-linéaire de E dans E*.

Si on note Ôip (y) l'application x ~ cp( x, y) de E dans C on obtient cette


fois une application semi-linéaire de E dans C, mais Ôip serait linéaire de
E dans l'espace vectoriel des formes semi-linéaires.

DÉFINITION 12.4. - On appelle forme sesquilinéaire à syrnétri.e hermiti.enne


sur E espace vectori.el complexe, toute forme sesquilinéaire cp vérifiant :
2 ~~-

'v'(x, y) E E , cp(y, x) = cp(x, y).

DÉFINITION 12.5. - On appelle forme hermiti.enne sur E vectori.el complexe


toute application </>de E dans IR : x ~ <f>(x) = cp(x,x), avec cp forme
sesquilinéaire à syrnétri.e hermiti.enne.

On a bien cp(x) réel car en conjuguant cp(x,x), c'est-à-dire en chan-


geant x et x de place, le scalaire ne change pas.

Relation entre cp et </>

Soit </> forme hermitienne associée à cp sesquilinéaire à symétrie


hermitienne, on a :

<f>(x +y) = cp(x +y, x +y) = <f>(x) + cp(x, y)+ cp(y, x) + <f>(y).
Or cp(x +y)+ cp(y, x) = cp(x, y)+ cp(x, y) = 2 Re(cp(y, x). Donc
12.6. </>(x +y)= <f>(x) +</>(y)+ 2 ne(cp(x, y)).
Formes sesquilinéaires, formes hermitiennes 431

Comme <P(>.y) = cp(>.y, >.y) ='X.X cp(y, y) = l.Xl 2 </J(y), et que


cp(x, -y) = -cp(x, y), il vient
<P(x - y)= <P(x) + <P(y) - 2 'Re(cp(x, y)).
Par soustraction on obtient: 4 'Re cp(x, y) = <P(x +y) - <P(x - y).
Puis, cp(x,iy) = icp(x,y) donc 'Recp(x,iy) = -Imcp(x,y) d'où l'égalité
4 Imcp(x, y) = -<P(x + iy) + <f>(x - iy) qui donne

12.7. cp(x, y) = ~ [<P(x +y) - <P(x - y)+ i<P(x - iy) - i<P(x + iy)],
relation reliant une forme hermitienne <P et sa forme sesquilinéaire à
symétrie hermitienne associée cp. <<Sa», adjectif possessif défini car il n'y
en a qu'une vu ce calcul. J'en profite pour remercier mon épouse qui vient
de vérifier dans le dictionnaire qu'il s'agit bien d'un adjectif possessif.

12.8. On parlera de forme polaire associée à </J.

Des exemples
12.9. E-:::=. en. Si B = {e1, ... ,en} est une base de E, et si pour
n n
x= L xkek et y= LYlel on pose
k=l l=l
n
cp(x, y)= L XkYk
k=l

on a bien une forme linéaire en y et semi-linéaire en x, à symétrie


hermitienne.
Il en est de même dans les cas suivants :

12.10. E = C[X], et si p = L anxn, Q = L bnXn, avec les an et


nEN nEN
bn presque tous nuls, on pose

cp(P, Q) = L akbk, (somme finie en fait).


kEN

+oo
12.11. E = l 2 (C) ={suites u = (un)nEN; L lul 2 existe}.
n=O
432 Algèbre

Si u et v sont dans E, comme pour tout n E N on a


2Junvnl ~ JunJ 2 + JvnJ 2 , car c'est (JunJ - Jvni) 2 ~ 0, on vérifie que
u + v E E, d'où E espace vectoriel, et l'expression cp(u, v) = UnVn a L
nEN
un sens et définit une forme sesquilinéaire à symétrie hermitienne.

12.12. Si E = c0 ([a, b], C), si p E c0 ([a, b], IR+), on définit cp par


cp(f,g) = ib J(t)g(t)p(t) dt : on a encore une forme sesquilinéaire à
symétrie hermitienne.

Quelques précisions en dimension finie

Soit E un espace vectoriel de dimension finie, n, sur C et B =


(ei, ... , en) une base de E. On se donne par ailleurs cp, forme sesqui-
linéaire à symétrie hermitienne.
Si on note, pour u et v dans {1, ... ,n}, auv = cp(eu,ev), la symétrie
hermitienne implique que avu = auv. donc la matrice A= (auvh.;;;u,v.;;;n
est telle que A = tA.

DÉFINITION 12.13. - On appelle matrice hermitienne toute matrice carrée


complexe A vérifiant l'égalité t.A = A.

Donc, si cp est sesquilinéaire à symétrie hermitienne, la matrice des


cp(eu, ev) est une matrice hermitienne. C'est intéressant parce qu'à partir
de A matrice hermitienne, on peut calculer cp(x, y).
n
En effet, avec les notations précédentes, soient x = L xueu et
u=l
n
y= LYvev deux vecteurs de E. On veut calculer cp(x, y), cp devant être
v=l
une forme sesquilinéaire à symétrie hermitienne avec cp(eu, ev) = auv.
terme général de A, matrice hermitienne donnée.
On doit avoir

cp(x, y)= cp (~ Xueu, ~ Yvev))


n n
=L L XuYveluv,
u=lv=l
Formes sesquilinéaires, formes hermitiennes 433

ce qui montre d'abord que l'on calcule c,o(x, y) de manière unique, et ce


qui permet de vérifier qu'effectivement <p est linéaire en y, (expression
homogène du 1er degré par rapport aux Yv), semi-linéaire en x, (homogène
du 1er degré par rapport aux xu) et à symétrie hermitienne puisque
auv = avu·
On a encore c,o(x, y) = t (t
u=l
Xu
v=l
auvYv) ·
En notant X et Y les matrices colonnes des composantes Xu et Yv de
n
x et y respectivement, on constate que L auvYv est le terme général de
v=l
la matrice colonne AY.
On a donc

12.14. c,o(x,y) = fX°AY,


expression matricielle de la forme sesquilinéaire c,o, une base de E ~ en
étant fixée.

Effet d'un changement de base

Soit B' = { eL ... ,


e~} une nouvelle base de E, P la matrice de
passage de B à B', soit A' = (c,o(e~,e~)ho;;;;u,vo;;;;n la matrice de <p dans
la base B' et X', Y' les matrices colonnes des composantes de x et y dans
B'.
On a les relations c,o( x, y) = t X AY = T A'Y' avec en outre
X= PX' et Y= PY' d'où
XAY = t(P X')APY'
= tx'(PAP)Y'.

12.15. Vu l'unicité de la matrice des c,o( e~, e~) associée à <p dans la base
B', c'est que A' = fP AP. On dit que A et A' sont congruentes.

REMARQUE 12.16. - En particulier A et A' sont équivalentes, (car Pest


régulière) donc de même rang: ce sera le rang de la forme hermitienne.

REMARQUE 12.17. - Contrairement aux applications bilinéaires symétri-


ques qui formaient un espace vectoriel, les formes sesquilinéaires à
symétrie hermitienne ne constituent pas un espace vectoriel car si <p a
434 Algèbre

la symétrie hermitienne, À<p ne l'a pas puisque Àcp(x, y) = À cp(x, y) =


Àcp(y,x) =f= Àcp(y,x).

2. Conjugaison

DÉFINITION 12.18. - Soit E espace vectoriel complexe, muni d'une forme


sesquilinéaire à symétrie hermitienne. On dit que x et y sont conjugués
pour cp si et seulement si cp(x, y) =O.

Ce qui équivaut à cp(y, x) = 0 car 0 =O.


De même, si A est une partie de E, on appelle conjugué de A l'ensemble
Ao = {y; y E E, 'Vx E A, cp(x, y) = O}.
On a A0 = n
xEA
Ker('Y'f'(x)), avec 'Y'f'(x) élément du dual de E (voir

12.3). C'est donc un sous-espace vectoriel.


Comme pour les formes bilinéaires symétriques, on justifie facile-
ment le

THÉORÈME 12.19. - Soient A et B des parties de E espace vectoriel


complexe muni d'une forme sesquilinéaire à symétrie hermitienne cp. On
a : (Vect A) 0 = A 0 ; A c B ~ s 0 c A 0 ; A c A 00 .
S'inspirer du théorème 11.15 pour la justification. •

On a aussi

THÉORÈME 12.20. - Soient F et G deux sous-espaces vectoriels de E


:f
espace vectoriel complexe muni de forme sesquilinéaire hermitienne, on
a (F + G)o = pO n G 0 et pO + G c (F n G) 0 .

Car F + G = Vect(F u G),


donc (F + G) 0 = (FU G)o = n
xE(FuG)
Ker('Y'f'(x)) soit encore

(F + G)o =( n
xEF
Ker('Y'f'(x))) n, ( n
xEG
Ker('Y'f'(x))) = pO n G°.

Puis F n G c F et F n G c G ~ pO c (F n G) 0 et G0 c (F n G) 0
d'où (F 0 U G 0 ) c (F n G) 0 , et en passant à l'espacé vectoriel engendré
par pO U Go, (Fo + G 0 ) c (F n G) 0 . L'inclusion peut être stricte. •
Formes sesquilinéaires, formes hermitiennes 435

THÉORÈME 12.21. - Soit E un espace vectoriel complexe de dimension finie,


si Fest un sous-espace de E, on a dim F +dim F 0 = dim E+dim(FnE0 ).

Car si {ei, ... , ek} est une base de F n E 0 , complétée en { ei, ... , ek;
ek+l• ... , ep} base de F, on a x E F 0 {:::} T/i = 1, ... ,p, 'Ycp(ei)(x) =O.
Or pour i = 1, ... , k, 'Ycp(ei) =O. Preste donc
x E F 0 {:::} T/i = k + 1, ... ,p, 'Ycp(eï)(x) =O.
Les p - k formes linéaires 'Ycp (ei) sont indépendantes, car une relation

du type t
i=k+l
Ài'Ycp(ei) = 'Ycp ( t
i=k+l
Àiei) = 0, (aspect semi-linéaire

p
de 'Ycp), conduit à L Àiei E (E 0 n F) = Vect( ei, ... , ek), ce qui est
i=k+l
absurde puisque {ei, ... , ek; ek+ 1, ... , ep} est libre.
Les x E F 0 sont donc les solutions d'un système de p - k équations
à n inconnues (n = dim E) de rang p - k : on a un espace vectoriel de
solutions de dimension n - (p- k), (Théorème 9.51).
D'oùdimF+dimF° = p+(n-p+k) = n+k = dimE+dim(FnE0 ) .

On vient de faire jouer un certain rôle au sous-espace E 0 . On a
Eo = {y; y E E, Tix E E, cp(x, y) = O}. Mais cp(y, x) = cp(x, y) = 0
aussi, en écrivant

Eo ={y; y E E, Tix E E, cp(y,x) = O}

c'est encore

Eo = {y; y E E, 'Ycp(Y) = O} = Ker('Ycp),

noyau de l'application linéaire 'Ycp·

DÉFINITION 12.22. - Soit cp une forme sesquilinéaire à système hermitienne


sur E espace vectoriel complexe. On appelle noyau de cp le sous-espace E 0
et on dit que</>, (ou cp) est non dégénérée si et seulement si E 0 = {O}.
(</>est évidemment la forme hermitienne de forme polaire cp)

COROLLAIRE 12.23. - Si cp est non dégénérée sur E de dimension finie, n,


si F et G sont sous-espaces de E, on a Fo +Go = (F n G) 0 .
436 Algèbre

Car

dim(Fo + cfJ) = dimFo + dimcfJ - dim(Fo n G0 )


= n - dimF + n - dimG - dim(F + G) 0 , (12.20),
= 2n-dimF- dimG- (n -dim(F + G))
= n - dimF - dimG + dimF + dimG - dimF n G
= n - dim(F n G) = dim(F n G) 0 ,

tout ceci parce que E 0 = {O}. Comme F 0 + a0 c (F n G) 0 , on en déduit


l'égalité des sous-espaces. (Voir 12.20 pour l'inclusion). •

Comme pour les formes quadratiques, on peut parler de vecteur


isotrope.

DÉFINITION 12.24. - Un vecteur x de E espace vectoriel complexe est dit


isotrope pour une forme hermitienne </J, si et seulement si </J(x) = O. La
forme </J est dite définie si 0 est le seul vecteur isotrope.

Les vecteurs isotropes forment encore un cône dans E, car


</J(>.x) = i>.1 2 </J(x).
Six E E 0 , on a cp(x,y) = 0 pour tout y de E, donc a fortiori pour
y= x, d'où x isotrope. Mais alors:

12.25. Si </J est une forme hermitienne définie, elle est non dégénérée.
On peut encore parler de sous-espace non isotrope F, lorsque l'on a
F n pO = {O}, et on a :

THÉORÈME 12.26. - Soit E un espace vectoriel complexe et cp une forme


hermitienne à symétrie hermitienne. Pour F sous-espace de dimension finie
de E il y a équivalence entre
a) cp 1 est non dégénérée,
FxF
b) FnF0 = {O},
c) E = FœF 0 •

Le noyau de cpl étant l'ensemble des y de F tel que, 'r:/x E Fon


FxF
ait cp(x, y) = 0, c'est encore F n pO d'où l'équivalence de a) et b), (et ceci
indépendamment de la dimension finie de F).
Formes sesquilinéaires, formes hermitiennes 437

12.27. On dit alors que F est un sous-espace non isotrope de F.


On a c) :::} b) de manière évidente. Justifions b) :::} c), c'est-à-dire que
E = F + F 0 puisqu'on a déjà F n F 0 = {O}.
Soit x E E, 1'cp(x) E E*, donc 1'cp(x)I E F*. Avec cp' = cpl
F FxF
Î'cp' est semi-isomorphisme de F sur F*, (car Î'cp' injective, cp1 étant non
dégénérée, et dim F = dim F*), donc il existe un (et un seul) y dans F
tel que 1'cp(x)IF = Î'cp'(y), ce qui équivaut à

Vz E F, cp(x, z) = cp(y, z) soit à cp(x - y, z) =O.

On a donc associé à x de E, un y de F tel que x - y E F 0 , comme


x = (x - y) + y on obtient bien E = F 0 + F. •

Conséquence : on en déduit le

THÉORÈME 12.28. - Soit E un espace vectoriel complexe muni d'une forme


sesquilinéaire à symétrie hermitienne. Si E est de dimension finie, il existe
des bases de E conjuguées pour cp.

C'est-à-dire des bases B = {ei, ... , en}, (n = dim E) telles que


Vu=/= v, cp(eu,ev) =O.
On procède par récurrence sur n. Si n = 1, la condition est vérifiée.
(~ de couple (u, v) d'indices u =/= v ... Cela semble une escroquerie mais il
n'en est rien. Pour ceux qui ont besoin d'être materné, le passage de n - 1
à n permettrait de justifier le résultat pour n = 2).
On suppose le résultat vrai pour un espace E de dimension n - 1. Soit
alors E de dimension n.
Si</>= 0, la relation entre</> et sa forme polaire cp, (voir 12.7) montre
que cp = 0, donc toute base est conjuguée.
Sinon, soit a E E tel que </>(a) =/= 0, alors Ca est sous-espace non
isotrope, (si >.a E (Ca) 0 = {a} 0 , on a cp(>.a,a) = °X<t>(a) = 0:::} "X= 0),
donc E = Ca EB (Ca) 0 et r.p1 = cpl (Ca)Ox(Ca)O admet, d'après l'hypothèse
de récurrence, une base C conjuguée pour cp', donc pour cp. La base {a} UC
convient alors pour E.

COROLLAIRE 12.29. - Soit Hune matrice hermitienne, il existe P matrice


régulière telle que fJ? HP = A = diag( >.1, ... , Àn ), les Ài étant réels.

C'est la traduction d'un changement de base faisant passer à une base


conjuguée. Les Ài = </>( ei) sont réels. Le nombre de Ài =/= 0 est le rang
438 Algèbre

de la forme </>, et parmi les Ài non nuls, il y en a des > 0, et des < 0 :
les nombres de scalaires de chaque signe ne dépendant pas de la base
conjuguée. •

THÉORÈME 12.30. - Soit <p forme sesquilinéaire à symétrie hermitienne sur


E vectoriel complexe de dimension finie n. Si la matrice de <p dans une base
conjuguée est diag(À1, ... , Àn) le couple (p, q) avec p = card{Ài, Ài > O}
et q = card{Ai, Ài < O} est indépendant de la base conjuguée. C'est la
signature de la forme hermitienne</>, (de forme polaire <p).

Comme dans le cas réel si B et B' sont des bases conjuguées, de termes
généraux ei et e~, on les suppose indexées de façon que </>(ei) > 0 pour
i = 1, ... , p puis </>( ei) < 0 pour i = p + 1, ... , p + q avec p + q = r, rang
de </>, et </>( ei) = 0 si i > r; puis </>( eD > 0 si i = 1, ... , p1 ; </>( eD < 0 pour
i = p' + 1, ... ,p' + q1 = r, enfin </>(e~) = 0 si i > r.
Soit F= Vect(e1, ... , ep, er+l• ... , en) et G = Vect(ep'+l• ... , ep'+q' ).
On constate que 'Vx E F, </>(x) ~ 0, et 'Vx E G, </>(x) ~ 0 avec
</>(x) = 0 <:::? x = O. On a donc F n G = {0}, (six E F n G, </>(x) = 0,
donc x = 0 car x E G).
Mais alors, F et G sont en somme directe dans E de dimension n,
donc

dim F + dim G ~ n soit n - q + q1 ~ n,

d'où q' ~ q. En inversant les rôles des bases on obtient q ~ q1 d'où q = q1


et p = n - q = n - q1 = p1• •

REMARQUE 12.31. - avec les notations précédentes, dans une base


conjuguée si <p est de signature (p, q), avec une indexation convenable
on aura
p p+q
i.p(x, y)= L ÀjXjYj - L ÀjXjYj,
j=l j=p+l


avec des Àj >O. En changeant les ej en éj = }>:;on obtient

p p+q
i.p(x,y) = LXjYj - L XjYj
j=l j=p+l
Formes sesquilinéaires, formes hermitiennes 439

et
p p+q
<P(x) = L lxjl 2 - L lxjl 2 .
j=l j=p+l

3. Espaces préhilbertiens

Si les formes sesquilinéaires à symétrie hermitienne sont à valeurs


complexe, les formes hermitiennes, elles, sont à valeurs réelles et on
se doute qu'on va avoir des structures analogues à celles des espaces
préhilbertiens réels.
Une forme hermitienne peut être à valeurs toujours positives, (et elle
sera dite positive dans ce cas) ou bien à valeurs toujours négatives, ou
enfin prendre des valeurs des deux signes. En dimension finie, on sait
dans quel cas on se trouve par le simple examen de la signature.
Pour parvenir aux structures préhilbertiennes, il nous faut établir les
inégalités de Cauchy-Schwarz et Minkowski :

THÉORÈME 12.32. (Inégalité de Cauchy-Schwarz). - Soit <P une forme


hermitienne positive, de forme ~alaire cp, sur E vectoriel complexe. Pour
tout (x,y) de E 2 on a lcp(x,y)I ~ <P(x)<P(y).

Pour tout À E C, on a <P(x + Ày) ~ 0, soit en développant,

l.Xl 2 </J(y) + Àcp(x, y)+ J:.cp(y, x) + <P(x) ~O.


Si cp(x, y) = 0 l'inégalité à justifier est évidente. Sinon cp(x, y) admet un
module et un argument : si cp(x, y) = pei°' prenons À = te-fo avec t
variable dans R On aura Àcp(x,y) = tp = J:.cp(y,x) et l.Xl 2 = t 2 , d'où,
pour tout t réel cette fois, l'inégalité

t 2 <jJ(y) + 2tp + <P(x) ~O.


Mais alors si <P(y) = 0, on a une fonction affine qui reste positive, ce n'est
possible que si p = 0, cas écarté par l'hypothèse cp(x,y) =f. O.
Donc <P(y) > 0, le trinôme en tétant de signe constant, son discrimi-
nant réduit p2 - <P(x)<jJ(y) est négatif, d'où

lcp(x,y)l 2 ~ <P(x)</J(y).

440 Algèbre

COROLLAIRE 12.33. - Pour une forme hermitienne positive, (</> définie) {::}
(</> non dégénérée).

Car si</> est définie, elle est non dégénérée, c'est toujours vrai, (12.25)
et si </> est positive non dégénérée elle est définie, car si a est isotrope,
par Cauchy Scharwz, Vx E Eon a l<p(x, a)l 2 ~ 0 donc <p(x, a) = 0 soit
a E E 0 = {O} : 0 est le seul vecteur isotrope. •

THÉORÈME 12.34. - Si </> hermitienne est définie, elle est de signe constant.

Car si on dispose de x et y dans E tels que <f>(x)<f>(y) < 0, les vecteurs


x et y sont libres, (x =>..y impliquerait </>(x) = i>..1 2 </>(y) donc </>(:r) et </>(y)
de même signe). Dans le plan vectoriel engendré par x et y considérons
l'expression t 'V"T </>(x + ty) avec t réel.
C'est t 2</>(y) + 2t Re<p(x,y) + </>(x) : trinôme en t, de discriminant
réduit (Re<p(x,y)) 2 - <f>(x)</>(y) > 0 puisque </>(x)</>(y) <O.
On a donc 2 racines ti et t2, avec x + tiy et x + t2Y non nuls ({x, y}
libre) d'où 2 vecteurs isotropes non nuls : ceci contredit</> définie. •

THÉORÈME 12.35. (Inégalité de Minkowski). - Soit </> une forme hermi-


tienne positive. On a, pour tout (x, y) de E 2,
J<t>(x +y)~ yq;(X) + v<f(Yi.

En élevant au carré, ceci équivaut à

<f>(x +y) ~ </>(x) +</>(y)+ 2J</>(x)</>(y),


soit en développant le 1er membre et en simplifiant par <f>(x) et </>(y), à

2 Re<p(x,y) ~ 2J<f>(x)</>(y).

Or, Re<p(x,y) ~ IRe<p(x,y)I ~ l<p(x,y)I ~ J<t>(x)<f>(y), (Cauchy-


Schwarz).
On a bien le résultat.

CONSÉQUENCE 12.36. - Si E, vectoriel complexe, est muni d'une forme
hermitienne définie positive </>, donc non dégénérée positive, l'application
x 'V"T yq;(X} est une norme de E, et l'espace vectoriel E ainsi normé est
appelé espace préhilbertien.
Il est dit de Hilbert si pour cette norme il est complet, et hermitien s'il
est de dimension finie, auquel cas il est complet.
Formes sesquilinéaires, formes hermitiennes 441

Les exemples donnés au paragraphe 1 sont des espaces préhilbertiens,


le premier, en est hermitien, le deuxième C[X] est préhilbertien non
complet, quant à l 2 (C) il est de Hilbert, enfin c0 ([a, b], C) pour cp(f, g) =

lb fgp dt n'est pas un espace complet.


Comme dans le cas réel on obtient

THÉORÈME 12.37. - Soit E un espace hermitien de dimension n, et


B = (
e 1, ... , en)une base. Il existe des bases orthonormée {q , ... , t: n}
telles que 'ïlk = l, ... ,n; Vect{t:1, ... ,t:k} = Vect{e1, ... ,ek}. C'est le
procédé d'orthonormalisation de Schmidt.

e1
Rappelons brièvement la justification. On prend t:1 = u1 M avec
u1 scalaire complexe de module 1.
Si on suppose trouvés q, ... , êk-1• on cherche ek de la forme
k-1
ek = ek + L Àiêi, pour avoir Vect(e1, ... , ek) = Vect(t:1, ... , t:k-1• ek),
i=l
les Ài étant tels que (ek,t:j) = 0 pour j = 1 ... k - 1, et où (,) est le
produit scalaire hermitien, notation remplaçant cp.
Cette équation équivaut à (ek, êj) + Àj = 0 d'où Àj. Puis on remplace
ek' lI' (avec uk complexe de module 1).
ek' par uk llek
Ce procédé est récurrent et donne le résultat. On comprend aussi qu'il
s'applique aux espaces préhilbertiens de dimension dénombrable stricte
qui ont donc des bases orthonormées. (Voir tome 3, Théorème 14.8) •

Signalons une différence avec le cas réel : on n'a plus le théorème


de Pythagore car l'identité llx + Yll 2 = llxll 2 + llYll 2 est équivalente à
Re(x, y) = 0, et non à (x, y) = O.
On notera désormais p1- au lieu de pO, si F est un sous-espace
vectoriel, (ou une partie) de E, et on parlera d'orthogonal.
On peut encore étudier les projections orthogonales en s'inspirant de
l'étude faite dans le cas réel, voir le chapitre 14 des espaces fonctionnels.
Signalons simplement que, si F est un sous-espace de dimension finie
de E préhilbertien, comme F n p1- = {0}, (si a E F n p1- on aura
l\al\ 2 = (a, a) = 0 d'où a isotrope est nul), on sait que E = F E9 p1-,
(Théorème 12.26), donc on a une projection orthogonale sur F.
442 Algèbre

12.38. De plus, si {c1, ... , én} est une base orthonormée de F le projeté
n n
orthogonal de x sur Fest p(x) =L (cki x)ck, ou p(x) =L (x, ék)ék·
k=l k=l
Attention à la non symétrie du produit scalaire hermitien!
Ce résultat sera exploité au chapitre 15 d'analyse dans l'étude des
séries de Fourier. Justifions-le.
En décomposant x en x = y + z avec y E F et z E FJ_, avec
n
y= L Àkék, on a x - y= z E FJ_ = {ci, ... , én}J_ ce qui équivaut à,
k=l
n
(x- LÀkék,éj) = 0, pour j = 1,2, ... ,n, soit à (X,éj) - Àj = 0, la
k=l
famille des ék étant orthonormée. D'où Àj = (X,éj) = (éj,X). •

4. Espaces hermitiens

L'essentiel de l'étude va porter sur la notion d'adjointe d'une applica-


tion linéaire, puis sur le groupe unitaire et les opérateurs normaux, ainsi
que les traductions matricielles, comme chaque fois qu'on est en dimension
finie.

a) Adjoint d'un opérateur linéaire


THÉORÈME 12.39. - Soit E un espace hermitien et u E L(E). Il existe un
et un seul élément u* de L(E) vérifiant;
\f(x,y) E E 2, (u(x),y) = (x,u*(y)).

12.40. Cet opérateur u* est l'adjoint de u.

Si on conjugue la relation qui doit être vérifiée, on doit avoir


(y,u(x)) = (u*(y),x) soit encore en notant 'Y l'application semi-linéaire
de E dans E* associée au produit scalaire, (voir 12.3) :

'Y(y)(u(x)) = "f(u*(y))(x).
Pour y fixé, on doit donc avoir, pour tout x de E,

"f(u*(y))(x) = ('Y(y) o u)(x) =(tu o 'Y(Y))(x)


d'où l'égalité des formes linéaires 'Y(u*(y)) et f.u o 'Y(y).
Formes sesquilinéaires, formes hermitiennes 443

Comme 'Y est injective de E dans E*, (le produit scalaire est une forme
non dégénérée donc le noyau de 'Y est El. = {O}) et que E est de dimension
finie, 'Y est surjective. Ce résultat, établi pour les applications linéaires
s'étend aux applications semi-linéaires, la conjugaison des scalaires ne
modifiant pas les dimensions des espaces vectoriels.
On a donc u*(y) = 'Y-l o l.u, o "!(Y) d'où u* = 'Y-l o l.u, o "f, application
linéaire car composée d'une linéaire, l.u,, et de deux semi-linéaires, 'Y et
'Y-1. •

THÉORÈME 12.41.(Propriétés de l'adjoint). - Soit E un espace hermitien,


u et v dans L(E) et
À E C. On a les propriétés suivantes:
(u+v)* = u* +v*; (>.u)* = ~u*; (u*)* = u; (uov)* = v* ou*;
(u E GL(E)) ~ (u* E GL(E)) et (u- 1)* = (u*)- 1.

Les justifications n'offrent aucune difficulté. Elles découlent du: •

THÉORÈME 12.42. - Si l'endomorphisme u admet A pour matrice dans une


base orthonormée B de E espace hermitien, son adjoint u* a pour matrice
t.A dans cette base.

Car en notant X et Y les matrices colonnes des composantes de x et


y dans la base B, et A' la matrice de u*, la relation

(u(x),y) = (x,u*(y))

se traduit par

t(AX)Y = XA'Y

soit encore

Cette égalité matricielle est en fait une égalité entre 2 polynômes par
rapport aux variables Yl, ... , Yn et xi, ... , Xn. L'égalité des coefficients
conduit à t.A = A'. •

THÉORÈME 12.43. - Soit E préhilbertien et u E L(E) tel qu'il existe


v E L(E) vérifiant : 't/(x, y) E E 2, (u(x), y) = (x, v(y)). Alors v est
unique à posséder cette propriété.
444 Algèbre

Car si on avait w tel que V(x, y), (u(x), y) = (x, w(y)), alors pour un
y fixé, on aurait, \tx E E; 0 = (x, v(y) - w(y)) d'où v(y) - w(y) E E1-,
or E1- = {O} donc v = w. •

Cette unicité est liée au côté injectif de "f, mais en dimension infinie
'Y n'est pas surjectif donc l'égalité 'Y( u* (y)) = l.,;, o 'Y(Y) ne permet plus le
calcul de u*(y).
On a encore

THÉORÈME 12.44. - Soit E un espace préhilbertien, u un opérateur ayant


un adjoint et F un sous-espace de E, stable par u. Alors p1- est stable par
u*.

Car si x E p1- et y E F, on aura

(y, u*(x)) = (u(y), x) avec u(y) E F, (stable paru),


et x E p1- donc ce produit scalaire est nul, et ce pour tout y de F d'où
u*(x) E F1-. •
Ce résultat va être utilisé pour réduire les endomorphismes auto-
adjoints, mais avant cela il nous faut parler des opérateurs qui conservent
le produit scalaire.

b) Groupe unitaire

DÉFINITION 12.45. - Soit E un espace préhilbertien. On appelle isométrie,


(ou opérateur unitaire) tout automorphisme de E qui concerne la norme
hermitienne.

Voici une liste de propriétés faciles à justifier, justification laissée au


lecteur.

12.46. Si une application linéaire conserve la norme elle conserve le


produit scalaire (et elle est injective).

12.47. Si une application conserve le produit scalaire elle est linéaire


injective (et elle conserve la norme). (Voir tome 3, Théorème 14.44).

12.48. Les opérateurs unitaires de E préhilbertien forment un sous-groupe


de Aut(E), appelé groupe unitaire de E, noté U(E).
Formes sesquilinéaires, formes hermitiennes 445

THÉORÈME 12.49. - Soit E un espace préhilbertien. Un endomorphisme


de E est unitaire si et seulement si U est inversible et admet u - l pour
adjoint.

Car si u est unitaire, il est bijectif et conserve le produit scalaire donc


V(x,y) E E 2 , (u(x),u(y)) = (x,y).Enposantu(y) = z, ({::}y= u- 1 (z)),
on a donc, z parcourant E si y varie dans E :
V(x, z) E E 2 , (u(x), z) = (x, u- 1 (z)) d'où u* existe et c'est u- 1 .
Réciproquement, si u* = u- 1 on vérifie que u, bijective, conserve le
produit scalaire car
\f(x,y) E E 2 , (u(x),y) = (x,u- 1 (y)), d'où, avec z = u- 1 (y),
\l(x,z) E E 2 , (u(x),u(z)) = (x,z). •
La traduction matricielle, dans une base orthonormée, des isométries,
va nous faire aborder les matrices unitaires, (analogues des matrices or-
thogonales des espaces euclidiens), ceci dans le cadre des espaces hermi-
tiens.
Soit E un espace hermitien de dimension n, B une base orthonormée
de E et u une isométrie de matrice U dans la base B. La matrice de u*
dans la base Best V, (Théorème 12.42), et comme u* = u- 1 , (Théorème
12.49) on a V= u- 1 ce qui équivaut à l'égalité VU = In ou à UV= In.

DÉFINITION 12.50. - On appelle matrice unitaire d'ordre n toute matrice


carrée d'ordre n complexe vérifiant l'une des trois conditions équivalentes
suivantes:
1; u- 1 = v,
2; utu =In.
3) VU= In.

n
Le terme général de VU étant L UkrUks• rième ligne, sième colonne,
k=l
avec Uij terme général de U, on a encore

12.51. U matrice untaire {::} V(r, s) E {1, ... , n }2, on a

n
L UkrUks = 1 sir= set 0 sir f:. s.
k=l
446 Algèbre

Ces (re~::io)ns sont aussi équivalentes à dire que les vecteurs colonnes

Ur = : sont orthonormés dans en hermitien canonique ce qui


Unr
permet encore d'interpréter les matrices unitaires comme matrices chan-
gement de bases orthonormées dans un espace hermitien.

REMARQUE 12.52. - On peut encore dire qu'une matrice U est unitaire si


et seulement si ses « vecteurs lignes » forment une famille orthonormée
dans en hermitien canonique en prenant le terme général de UV= In.

REMARQUE 12.53. -L'ensemble, noté Un(e) des matrices unitaires d'ordre


n sure est un sous-groupe de Mn(e), appelé groupe unitaire d'ordre n.

C'est un compact de Mn(e), les relations Or,s définies par


n
U ~ L U krUks étant continues, on a
k=l

Un(C) ~ Cô, e;:; ({1})) n (,,Q,. e;:;}( {O}))


1 fermé, de plus,••,, un

n
2
borné de en puisque L.:: 1ukr1 2 = 1 implique 1ukrl ~ 1 pour tout k et
k=l
tout r.
Par contre, le groupe orthogonal d'ordre n sur C lui ne serait pas
n
compact, l'égalité L(ukr) 2 = 1, sure, n'impliquant pas que les Ukr
k=l
sont bornés.
Si U est une matrice unitaire, l'égalité tuu = In entraîne <let U
<let u = 1<let u1 2 = 1, donc <let u est dans le groupe multiplicatif des
nombres complexes de modulo 1, et l'application déterminant étant un
morphisme de groupe, l'ensemble noté

12.54. SUn(e) des matrices unitaires de déterminant 1 est un sous-groupe


distingué de Un(e), le sous-groupe unitaire spécial.
Formes sesquilinéaires, formes hermitiennes 447

c) Opérateurs hermitiens

DÉFINITION 12.55. - On appelle opérateur hermitien, sur E espace hermi-


tien, tout opérateur linéaire u égal à son adjoint.

On dit encore que u est auto-adjoint, et on peut étendre la définition


aux espaces préhilbertiens.

REMARQUE 12.56. - Sur E hermitien, u opérateur linéaire est hermitien


si et seulement si sa matrice dans une base orthonormée est hermitienne.

Puisque, A étant la matrice de u dans une base B orthonormée, celle


de u* est tfI (Théorème 12.42) et doit être A.

THÉORÈME 12.57. - Soit E préhilbertien et u un endomorphisme de E.


On au hermitien si et seulement si, Vx E E, (x, u(x)) réel.

Si u est hermitien, c'est que u admet u pour adjoint, donc V(x, y) E E 2 ,

(u(x),y) = (x,u(y)).

A fortiori, Vx E E,

(u(x),x) = (x,u(x))

donc c'est encore (x,u(x)) = (x,u(x)) vu la symétrie hermitienne du


produit scalaire, soit (x, u(x)) réel.
Réciproquement, on suppose (x, u(x)) réel pour tout x et on veut abou-
tir à« u admet u pour adjoint» donc établir une égalité où interviennent
2 vecteurs x et y de E. La seule chose raisonnable est de considérer le
vecteur x +y.
Soit donc (x,y) E E 2 , on a (x + y,u(x +y)) réel donc égal à son
conjugué. On développe (x + y,u(x) + u(y)) = (u(x) + u(y),x +y)
en remarquant que (x, u(x)) réel est égal à (u(x), x) et de même que
(y,u(y)) = (u(y),y). Il reste

(x,u(y)) + (y,u(x)) = (u(x),y) + (u(y),x)


~ (x, u(y)) - (u(y), x) = (u(x), y) - (y, u(x))
~ (x, u(y)) - (x, u(y)) = (u(x), y) - (u(x), y)
soit 2 lm( (x, u(y))) = 2 ~( (u(x), y)).
En remplaçant y par iy on a de même, par linéarité :
448 Algèbre

2 Im(i(x,u(y))) = 2 Im(i(u(x),y))
soit Re( (x, u(y))) =Re( (u(x), y))
et finalement l'égalité (x, u(y)) = (u(x), y) qui prouve bien que u est son
propre adjoint. •

THÉORÈME 12.58. - Soit u un opérateur hermitien sur E hermitien. Ses


valeurs propres sont réelles, les sous-espaces propres associés à des valeurs
propres distinctes sont deux à deux orthogonaux et u est diagonalisable.

Nous sommes en dimension finie donc les valeurs propres, racines du


polynôme caractéristique existent dans C
Soient >. et µ deux valeurs propres et x et y deux vecteurs propres non
nul associés. On a :

"X(x,y) = (>.x,y) = (u(x),y) = (x,u*(y))


= (x, u(y)) car u est auto-adjoint
= (x, µy) = µ(x, y),
d'où ("X - µ)(x, y) =O.

Avecµ=>. et y= x il vient ("X - >.)llxll 2 = 0, d'où, (x # 0) >. = >.:


les valeurs propres de u sont réelles.
Puis, si >. et µ sont 2 valeurs propres distinctes, réelles, il vient :

't:/x E Ker(u - >.idE), 't:/y E Ker(u - µidE), (>. - µ)(x,y) = 0


avec >. - µ # 0 donc (x, y) = 0 : les sous-espaces propres distincts sont
deux à deux orthogonaux.
Enfin, si P est la somme directe des sous-espaces propres de u, P est
stable par u, donc pl. est stable par u* = u, (Théorème 12.44).
Si v est l'endomorphisme induit par u sur pl., on a v auto-adjoint
pour la structure hermitienne induite sur pl. par celle de E, donc si
dim pl. ~ 1, v admet des valeurs propres d'où des vecteurs propres non
nuls, de v donc de u, et qui sont alors dans Pet pl., avec PnPl. = {O}:
c'est absurde.
D'où pl. = {O} et E = P: on a bien u diagonalisable. •

Comme dans chaque sous-espace propre de u on peut prendre une base


orthonormée, (espace de dimension finie), et que les sous-espaces propres
sont orthogonaux entre eux, on peut prendre une base orthonormée de
vecteurs propres. D'où le
Formes sesquilinéaires, formes hermitiennes 449

COROLLAIRE 12.59. - Soit u un opérateur hermitien sur E hermitien. Il


existe des bases orthonormées de vecteurs propres pour u.

COROLLAIRE 12.60. - Soit H une matrice carrée complexe d'ordre n


hermitienne. Il existe U unitaire telle que u- 1 HU soit diagonale réelle.

On considère en hermitien canonique, Bo une base orthonormée de


E et h l'endomorphisme de matrice H hermitienne dans la base Bo, h
est hermitien donc il existe une base B orthonormée de vecteurs propres
pour h, et si U est la matrice de passage de Bo à B, bases orthonormées,
on a bien U unitaire telle que u- 1 HU soit diagonale, réelle puisque les
valeurs propres de h le sont.

COROLLAIRE 12.61. - Soit E un espace vectoriel complexe de dimension


finie n ·et <po et cp deux formes sesquilinéaires à symétrie hermitienne <po
étant définie positive. Il existe des bases B de E orthonormées pour <po et
conjuguées pour <p.

On réduit simultanément deux formes hermitiennes, l'une étant non


dégénérée positive.
On note (x, y) le produit scalaire <po(x, y), "f et "fip les applications
semi-linéaires de E dans E* associées à <po et cp, (voir 12.3). On sait que
cp est un isomorphisme, (voir en 12.40) la justification de l'existence de
l'adjoint).
On définit u : E f-+ E par la relation :

V(x,y) E E 2 , (u(x),y) = cp(x,y).


L'application u existe et elle est linéaire, car l'égalité précédente équivaut
à "f(u(x))(y) = "lip(x)(y), d'où, (pour x fixé l'égalité valable pour tout y)
"f(u(x)) = "lip(x) ce qui donne u = 'Y-l o "lip·
Cet opérateur u est hermitien car :

(u(x),y) = cp(x,y) = cp(y,x) = (u(y),x) = (x,u(y))


ce qui prouve que u est son propre adjoint.
Mais alors, si B est une base orthonormée, (pour <po) de vecteurs
propres pour u, avec B = {e1, ... , en} et u( ej) = Àjej, Àj réel, on a
n n
six= 2:::.~·jej et y= L T/jej,
j=l j=l
n
cp(x, y)= (u(x), y) = (L ÀjÇjej, L T/kek)
j=l k
450 Algèbre

n
= L >-/;j',,j,
j=l
(base orthonormée et les Àj réels)
n
alors que <po(x, y)= L Çp7j·
j=l

REMARQUE 12.62. - Comme dans le cas réel, cette réduction simultanée


n'est pas une diagonalisation simultanée car si en diagonalisant on obtient
la matrice identité, au départ on avait la matrice identité et le résultat
serait sans intérêt.

REMARQUE 12.63. - Les matrices symétriques réelles sont en particulier


hermitiennes, donc leurs valeurs propres sont réelles.

REMARQUE 12.64. - Si sur E préhilbertien, un opérateur u est son propre


adjoint on a encore :
- les valeurs propres de u sont réelles,
- les sous-espaces propres distincts sont 2 à 2 orthogonaux, mais ...
rien ne prouve qu'il y ait des sous-espaces propres, ni que leur somme
directe, s'ils sont en nombre fini, donne E.

Opérateurs normaux

DÉFINITION 12.65. - Sur E hermitien on appelle opérateur normal tout


opérateur linéaire u qui commute à son adjoint u*.

C'est le cas des opérateurs hermitiens puisqu'alors u* u, ou uni-


taires car u* = u- 1 dans ce cas.

THÉORÈME 12.66. - Si u est un opérateur normal sur E hermitien, il existe


des bases orthonormées de vecteurs propres pour u.

Ce résultat va se justifier par récurrence sur n = dim(E).


C'est vrai sin= 1, et on suppose le résultat vrai si dim(E) :::;; n - 1.
Soit u normal sur E hermitien de dimension n. Soit >. une valeur
propre de u, (existe car on est en dimension finie sur C), et F
Ker( u - >.id E) le sous-espace propre associé.
Si F = E, on prend une base orthonormée de E et c'est gagné!
Formes sesquilinéaires, formes hermitiennes 451

Sinon, on considère FJ_, et on va prouver qu'il est stable par u en


justifiant que F l'est paru*.
Soit x E F, comme u et u* commutent on a

u(u*(x)) = u*(u(x)) = u*(Àx) = Àu*(x)


donc

u*(x) E Ker(u -ÀidE) = F.


Mais alors F stable par u* ::::} FJ_ stable par u** = u.
On peut introduire v induit par u sur FJ_. Comme F est stable par u,
FJ_ l'est par u* et u* induit un endomorphisme sur FJ_, qui n'est autre
que v*, adjoint de v pour la structure hermitienne de FJ_ induite par celle
de E.
Mais alors v et v* commutent, comme u et u*, donc v est normal sur
FJ_ de dimension< n: l'hypothèse de récurrence s'applique et donne une
base orthonormée de FJ_, formée de vecteurs propres pour v, donc pour
u. En lui adjoignant une base orthonormée de Fon conclut. •

EXERCICES

1. Soit A E Mn(IR) antisymétrique. Montrer que ses valeurs propres


sont nulles ou imaginaires pures. Si n = 4, montrer qu'il existe une

matrice P inversible telle que p-l AP = ( -~ 0 0


~ 0~ /3~ ) '
0 0 -/3 0
avec a et /3 réels.

2. Soit M E Mn(C). Montrer que les valeurs propres de M* M


sont réelles positives. On pose llMll = Max{JX;À E Sp(M*M)}.
Montrer que l'on définit ainsi une norme et que
!IM1M21i ~ l!M11i l!M2ll·

3. Soit M E GLn(C). Montrer que pour tout entier k ~ 1, il existe


une unique matrice A E GLn(C) telle que A(A* A)k =M.
452 Algèbre

4. Soit E un espace hermitien. Soit u E GL(E). Montrer que u est


hermitien, avec lllulll ~ 1 {::} (3h unitaire tel que u =~ (h + h*)).
Soit u E L(E), montrer l'existence de (>.1, >.2, À3, À4) E C 4 et de
4
hi, h2, h3, h4 unitaires tels que u = L Àjhj·
j=l

5. Soit A E Mn(C), A* = tfî, montrer que det(In + A* A) est


strictement positif.

6. Soit en hermitien canonique, et a l'endomorphisme de matrice


A = (aij) avec Vi, aii = 1, ai,i+l = -1, an,l = -1 et aij = 0
sinon, (dans la base orthonormée canonique de en).
Exprimer A sous la forme P(U) où P E C[X] et U est une matrice
de permutation. Valeurs propres de U et de A* A, calculer lllAlll·

7. Soit A une matrice hermitienne définie positive, B une matrice


hermitienne. Montrer que AB est diagonalisable.

8; Soit E hermitien et f E L(E) tel que J 2 =O. Montrer que


((! + J*) inversible) {::} (Ker f = lm !) .

9. Soit E hermitien, D = {u E L(E); id - u*u définie positive} et


u-u*
H = {u E L(E); ~définie positive}.
Montrer que u E D ::::} id - u inversible.
Montrer que <.p: u - <.p(u) = i(id + u)(id - u)- 1 est une bijection
de D sur H.

10. Soit A E Mn(e). Montrer que A est hermitienne si, et seulement


si, pour tout x réel, eixA est unitaire.

11. Soit E =en, hermitien canonique, A E Mn(C), on pose lllAlll =


sup{llAxll; llxll = 1}. Soit A E GLn(C). Montrer que les valeurs
propres de A* A sont strictement positives.
Si >.1 ~ >.2 ~ ... ~ Àn sont les valeurs propres comptées avec leurs
. 1
multiplicités, montrer que lllAlll = JXl et lllA*- 1 111 = !\'puis
vÀn
que inf{lllA- Mlll;det M = O} = V:Ç.
Formes sesquilinéaires, formes hermitiennes 453

12. Soit E hermitien, f E L(E) tel que 111/111~1, (norme d'application


linéaire continue associée à la norme hermitienne sur E). Soit
x E E, on pose Xn ..!_(x + f(x) + ... + r- 1 (x)). Etude de
n
la suite des Xn.

13. Soit u un opérateur normal de E en hermitien canonique,


(n;;::: 1).
a) Montrer que E = Ker u E9 lm u.
b) Si u et v, normaux vérifient u o v = 0, montrer que v ou= O.
c) Si u est un opérateur normal, montrer l'existence de P E C[X]
tel que P(u) = u*. Réciproque?

14. Montrer qu'un opérateur u de E hermitien est normal si et seule-


n
ment si trace(u*u) = L l>.il 2 , les Ài étant les valeurs propres de
i=l
u, distinctes ou non.

SOLUTIONS

1. Comme tÀ = -A, la matrice H = iA est hermitienne, donc ses valeurs


propres sont réelles. Mais alors si le spectre de H est {et1, ... , etn}, celui
de A = -iH est { -iet1, ... , -ietn} : on a des valeurs propres nulles ou
imaginaires pures.
De plus, A étant réelle, si iet est valeur propre de A, avec et E fil*, -iet est
valeur propre avec la même multiplicité. Enfin H étant diagonalisable dans
le groupe unitaire, A= -iH est aussi diagonalisable dans Mn(C).
On suppose n = 4. Si 0 est seule valeur propre de A, on a alors A = 0 on a
le résultat avec et = /3 = O.
Si iet est valeur propre, avec et =I 0, -iet est valeur propre de même
multiplicité, d'où rang A = 2 ou 4.
Si rang A = 4, avec {iet, -iet, i/3, -i/3} spectre de A, (avec et = /3 ou non),
il existe Z1, Z\, Z2, Z2, matrices colonnes indépendantes (sur C), telles que
AZ1 = ietZ1 d'où AZ1 = -ietZ1, et AZ2 = i/3Z2 donc AZ2 = -i/3Z2.
Si Z1 = X1 + iY1 on a donc AX1 + iAY1 = -etY1 + ietX1, d'où, avec X1
et Y1 matrices colonnes réelles cette fois, AX1 = -etY1 et AY1 = etX1.

:,::,:,::·. ~::, ;:, z:, ;,; .::~::: ·m(T-f


0 0
fÎ)e ::
i -i
454 Algèbre

déterminant (-2i) 2 = -4, elle est régulière, donc les 4 vecteurs colonnes
X 1 , Y1 , X 2, Y2 de R4 , donc de e 4 , sont indépendants sur e, donc aussi sur
IR : on a bien une base de IR 4 dans laquelle la matrice associée à A est du
type voulu. Si rang A = 2, (par exemple (J = 0) on garde les vecteurs Z1 et
2\ et on remplace {Z2, Z2} par {X2, Y2} vecteurs propres réels pour O.
2. Soit H = M* M =t MM on a fJl = H, donc H est hermitienne. De
plus, \fZ E Mn,1(e), 'ZHZ = tz!JJMZ. Si on pose Y = MZ on a
n
tzHZ = YY = L IY31 2 ~ 0: H est hermitienne positive, ses valeurs

j=l
propres sont donc réelles positives.
Sur en hermitien canonique, u de matrice H dans une base orthonormée est
auto-adjoint, donc il existe une base orthonormée de vecteurs propres pour
n
u. Si {e1, ... , en} est cette base, et si u(e3) = À3e3, on a \fz = L z3e3,
j=l
avec v de matrice M dans la base de départ,

llv(z)ll 2 = (v(z),v(z)) = (z,v*v(z)) = (z,u(z))


n
= L z3À3z3 ~ sup{>..k}llzll 2

j=l

d'où lllvlll = sup{llv(z)ll; llzll ~ 1} ~ sup{y"Xk}, de plus si sup{y"Xk,


k = 1, ... ,n} =A on a llv(ek 0 )11 2 = Àko d'où en fait, pour la norme
d'application linéaire continue, lllvlll = sup{ y':Ç}. La fin.de l'exercice est
une propriété des normes d'application linéaire continue.
3. Cet exercice utilise le résultat suivant. Si ME Mn(e), il existe U matrice
unitaire et H hermitienne positive telles que M = U H, cette décomposition
étant unique si M est inversible.
En effet Ker M = Ker M* M, car Ker M C Ker M* M est évident, et si
x E KerM*M on a 0 = (x,M*Mx) = (Mx,Mx) d'où Mx= 0, soit
x E Ker M.
Puis M* M étant hermitienne positive, de rang r = rang M, il existe P
unitaire telle que p- 1 (M* M)P = diag(>..1, ... , Àr; 0, ... , 0) avec des
Àj >o.
Si B = {e1, ... ,er;er+1, ... ,en} est la base orthonormée de en de
diagonalisation pour M* M associée à P, on a Ker M = Ker M* M =
Vect(er+l, ... , en).
On définit h, endomorphisme de matrice diag( JX!, ... , .J>:;., 0, 0) dans la
base orthonormée B : on a h hermitien positif, Ker h = Ker m, (avec m
endomorphisme de matrice M dans la base départ). Mais alors h se factorise
dans m, (Théorème 6.54) : il existe u linéaire telle que m = uh.
Or (Ker h).l = Vect( e1, ... , er) = lm h, et h induit par h sur lm h est
u
inversible, les Àj étant > O. On considère = m oh,- l = u o h oh,- l. On
Formes sesquilinéaires, formes hermitiennes 455

a pour 1 ~ i, j ~ r :

Donc, si i =f. j, (u(ei), u(ej)) = 0, et si i = j cela vaut 1: il en est résulte


que u agit sur lm h comme un opérateur unitaire.
On modifie u sur Ker h = (lm h).L, (ce qui ne modifiera pas l'égalité m =
uh) en envoyant une base orthonormée de Ker h sur une base orthonormée
d'un orthogonal de lm h, (par exemple (er+ 1 , ... , en)). On peut donc trouver
u unitaire et h hermitien positif tels que m = uh. Dans la base orthonormée
de départ cela donne une factorisation M = U H.
Si M est inversible, l'écriture M = U H conduit à M* M = H* U* U H =
H 2 . Or M* M étant cette fois hermitienne définie positive, il existe une seule
matrice hermitienne définie positive H telle que Hk = M* M, k E N*.
En effet, posons B = M* M, si H existe, H et B = Hk commutent.
Soient alors E1, ... , Er les sous-espaces propres de B associés aux valeurs
propres distinctes Àl, ... , Àr : chaque Ej est stable par H, et hj induit par
l'endomorphisme h de matrice H dans une base de départ, est diagonalisable
(h l'est, et Ej stable par h). Si À est valeur propre de hj, l'égalité hk = B
implique Àk = Àj, avec À > 0 ceci implique À = 0J, donc hj est
forcément l'homothétie de rapport 0J
sur Ej, d'où l'unicité, (et en même
temps l'existence) de h.
Mais l'unicité de H dans la décomposition M = U H implique celle de U.
Retour à l'exercice. M étant inversible, il faut que A le soit. On cherche A
sous la forme V L, (V unitaire, L hermitienne) et on prend M décomposée
en UH. On doit avoir VL(L*V*VL)k = VL 2 k+l = UH, or L 2 k+l
est hermitienne positive d'où, (unicité) V = U et L est la seule matrice
hermitienne positive telle que L 2 k+l = H.

4. Si u = ~ ( h + h *), avec h unitaire donc conservant la norme, on aura


lllhlll = sup{llh(x)ll; llxll = 1} = 1, ainsi que lllh*lll d'où lllulll ~ 1,
(inégalité triangulaire). De plus u* = u donc u est hermitien de norme ~ 1.
Puis, si u est hermitien avec lllulll ~ 1, soit B = (e1, ... ,en) une base
orthonormée de vecteurs propres pour les valeurs propres Àl, ... Àn, réelles,
on a llu(ej)ll ~ llejll soit IÀjl ~ 1. Mais alors il existe bj E IR tel que
ÀJ + bJ = 1.
On définit h par les conditions h(ej) = (Àj + ibj)ej. Dans la base
orthonormée B, la matrice de h est diag(À1 + ib1, ... , Àn + ibn), avec
IÀj + ibjl 2 = 1 d'où (Àj + ibj)- 1 = Àj - ibj, donc la matrice h- 1 est
transposée de la conjuguée de celle de h : on a h unitaire et h + h * a
456 Algèbre

pour matrice dans B, diag(2)q, ... , 2Àn) d'où u = ~(h + h*). On a bien
l'équivalence voulue.
Soit alors u E L(E), d'adjoint u*, v = u + u* est hermitien ainsi que
. u+u*-i(i(u-u*)) v . w
w = i(u - u*) et u = 2 soit u = 2 - i 2
avec v et w hermitiens.
Puis on peut trouver t réel tel que llltvlll ~ 1 et llltwlll ~ 1, (t =/= 0)
d'où h et k unitaires tels que tv = ~(h + h*) et tw = ~(k + k*) d'où
4
u = ~ ( 2~ (h+ h*)) - ~ (;t (k + k*)) du type L Àjhj avec lesÀj dans
j=l
C et les hj unitaires.

5. La matrice H = A* A est hermitienne positive car pour tout vecteur colonne


Z deMn, 1 (c),ona tzHZ = tztA(AZ) et, avec Y= AZmatricecolonne
n
des Yj. c'est tzHZ = tyy = L IY11 2.
j=l
Les valeurs propres de H sont donc réelles positives, (voir d'ailleurs exercice
n°2), celles de In + H sont supérieures ou égales à 1 donc leur produit,
det(In +A* A) est;;::: 1.

6. ~ ~ a A (_: -: -: ~ ~
) In - U

avec U
( g~ og1 ~ .g. o6) matrice d'une permutation, donc

A= P(U) avec P polynôme défini par P(X) = 1 - X.


Les matrices In, U, U 2 , ... , un-l sont indépendantes, (si u est l'en-
domorphisme de matrice U, et si {e 1, ... , en} est la base canonique, on
a u(e1) = en et u(ei) = ei-1 pour i ;;::: 2, d'où u 2 (e1) = en-1•
u 3 (e1) = en-2 • ... , un- 1 (e1) = e2, donc si 01, ... ,an sont des sca-
laires tels que a1idE + a2u + a3u2 + ... + anun-l = 0, l'image de el
est 0 = a1e1 + a2en + a3an-l + ... + One2 = 0 d'où tous les ai nuls.
Mais alors, pour tout polynôme Q de degré~ n - 1 on a Q(U) =/= 0, comme
un = I, le polynôme minimal est xn -1, le polynôme caractéristique, mul-
tiple du polynôme minimal, et de degré n est donc (-l)n(xn - 1), il est
scindé à racines simples : les valeurs propres de U sont les racines nième
Formes sesquilinéaires, formes hermitiennes 457

de l'unité, toutes simples et U est diagonalisable. On vérifie que

~~
0

un-1 = ( .. .
0
0 1) =
t-
u,
0 0 ... 1 0

donc A* A = Un - un- 1 )(/n - U) = In - un-l - u +In = 2In -


U - un- l. Comme une base de diagonalisation de U en est une de tout
polynôme en U, on a une base de diagonalisation de A* A avec pour valeurs
n-l 2ik"
propres les 2 - Àk - >..k avec Àk = e n , k = 1, ... , n.
Mais >..k>.k = l>..k>..~- 1 , donc les valeurs propres de A* A sont les 2 - >..k -
- 2k7r . 2 br
Àk = 2 - 2 cos-- = 4 sm - , pour k = 1, 2, ... , n.
n n
Enfin lllAlll 2 = sup{llA(x)ll 2 , llxll = l}, et llA(x)ll 2 = (Ax, Ax) donc
llA(x)ll 2 = (x, A* Ax). En diagonalisant A* A, hermitien positif, dans une
base orthonormée, on constate que lllAlll 2 = sup{lµkl; k = 1, ... , n}, µk
valeurs propres de A* A, (sup encore appelé rayon spectral de A* A).
Donc sin = 2p, ce rayon spectral est 4 et 11IAI11 = 2, alors que sin = 2p+ 1,
le rayon spectral est 4 sin2 2 p7r et lllAlll = 2 sin 2 p7r .
p+l p+l

7. La matrice A- 1 est aussi hermitienne, définie positive puisque ses valeurs


propres sont les inverses de celles de A, donc sont > O.
On fixe une base B de E = en, soit cpo le produit scalaire hermitien de
matrice A- 1 dans la base B, et cp la forme hermitienne de matrice B dans
la même base, (B est aussi hermitienne).
La relation cpo(x, u(y)) = cp(x, y) définit u linéaire de E dans E, (c'est
u = 1;;;~ o lep avec les notations du cours), de plus u est auto-adjoint pour
'PO car

cpo(u(x), y) = cpo(y, u(x)) = cp(y, x) = cp(x, y) = cpo(x, u(y)).


Il existe donc B1 = {el, ... , en} base orthonormée, (pour <po) de vecteurs
propres pour u, on a donc des Àj réels tels que u(ej) = Àjej, soit
1;;;~(1ep(ej)) = Àjej.
Comme lep a pour matrice B par rapport à la base B et sa duale, et que
lepo a pour matrice A- 1 dans les mêmes bases, donc 1;;;01 la matrice A, et
comme 1;;;~ est semi-linéaire, l'application linéaire 1;;;~ o lep a pour matrice
A · B dans la base B du départ et on a une base de vecteurs propres de AB.
458 Algèbre

8. Comme f o f = 0 on a lm f C Ker f.
Par ~.meurs on a Ker f = (lmf*).L car, six E Ker f, Vy de f*(E), avec
y= f*(z) on a:
(x,y) = (x,f*(z)) = (f(x),z) = (O,z) = 0,
d'où Ker f C (lmf*).L; or si p = rang(!) = rang(!*), on a Ker f
et (lm f*) .L tous deux de dimension n - p avec n = dim( E), donc
Ker f = (lm f*).L.
Mais alors E = Ker f EB (Ker f).L = Ker f EB lm J*.
Supposons Ker f = lm f' on a f + rinjective car, si X est tel que
f(x) + f*(x) = 0, on a f 2 (x) + f(f*(x)) = 0, or f 2 = 0, donc
f*(x) E Ker f n lmf* = {O}, d'où f*(x) = 0, mais alors f(x) = 0
aussi et x E Ker f; or Ker f = lmf : il existe t tel que x = f(t) et
f* (x) = 0 => f*(f(t)) = 0 donc f(t) E Ker f* n lmf.
Mais Ker f* = (lm f**).L = (lm f).L donc f(t) E (lm f).L n lm f = {O},
d'où x = 0, et f + f* est injective. On est en dimension finie donc f + f*
est inversible.
Si f + f* est inversible, soit x E Ker f et y = (f + f*)- 1(x), on a
(f + f*)(y) = x = f(y) + f*(y). On compose avec f, en utilisant f 2 = 0
et x E Ker f, il reste f(f*(y) = 0 donc f*(y) E Ker f = (lmf*).L d'où
f*(y) =o.
Mais alors x = f(y) E lmf : on a Ker f C lmf d'où l'égalité puisque
lm f C Ker f était vraie, (! 2 = !).
9. Si u E D, et si id - u est non inversible, soit x tel que (id - u)(x) = 0,
(x =f 0), on a, puisque u(x) = x,
(x, (id - u*u)(x)) = (x,x) - (x,u*u(x))
= (x,x) - (x,u*(x)).
= (x, x) - (u(x), x) = 0

ce qui contredit id - u*u définie positive.


Donc u E D => id - u inversible.
Soit u E D, on veut voir si cp(u) est dans H, donc si cp(u) ;t(u)* est

définie positive donc si, Vx E E, x =f 0, A= (cp(u) ;t(u)* (x),x) >O.


Ona:
A= -;i (cp(u)(x), x) + ;i ((cp(u))*, x)
1
= - 2i(cp(u)(x),x) + 21i(x,cp(u)(x))
1 1~~~~
= - 2i(cp(u)(x),x) + 2i(cp(u)(x),x)
= -lm((cp(u)(x),x)), qui devrait être> O.
Formes sesquilinéaires, formes hermitiennes 459

Or (<p(u)(x),x) = -i((id + u)(id - u)- 1 (x),x).


On pose y= (id - u)-:-- 1 (x), donc x =(id - u)(y) et on a:

(<p(u)(x),x) = -i((id + u)(y), (id- u)(y))


= -i(llYll 2 - llu(y)ll 2 + 2i Im(u(y),y))
donc A= -Im((<p(u)(x),x)) = llYll 2 - llu(y)ll 2 .
Comme id - u*u est définie positive, pour y =f. 0, (x =f. 0 et id - u bijective),
on a (y, y - u*u(y)) > 0 soit encore

llYll 2 - (y,u*u(y)) = llYll 2 - (u(y),u(y))


= llYll 2 - llu(y)ll 2 > 0,

d'où finalement, u ED=} <p(u) EH.


Soit alors v E H, essayons de «résoudre» l'équation v = <p(u).
Si u est tel que v = i(id + u)(id - u)- 1 , on aurait v(id - u) = i(id + u)
d'où v - i id = (v + i id)u et si v + i id est inversible, on aurait
u = (v - i id)(v + i id)- 1 . Or, si v + i id est non inversible c'est qu'il
existe x non nul tel que v(x) = -ix mais alors on a

(;i (v - v*)(x), x)) = -;i ( (v(x), x) - (v*(x), x))

soit = -;i((-ix,x)- (x,v*(x)))

= -;i(illxll 2 - (v(x),x))

= -;i (illxll 2 - (illxll 2 ) = -llxll 2 ,

ce qui contredit l'hypothèse ;i (v - v *) définie positive puisque v E H.


Finalement, pour tout v de H, il existe un et un seul u de L(E),
u = (v - i id)(v + i id)- 1 , tel que <p(u) = v.
Si on prouve que ce u est dans D, on aura bien <p bijection de D sur H.
Soit donc u = (v - i id)(v + i id)- 1 , a t-on id - u*u définie positive, c'est-
à-dire, pour tout x non nul de E, (x, x - u*u(x)) = llxll 2 - llu(x)ll 2 > 0?
On pose y= (v + i id)- 1 (x), donc x = (v + i id)(y) et il suffit de prouver
que, Vy =f. 0,

ll(v + i id)(y)ll 2 - ll(v - i id)(y)ll 2 > 0,


soit (v(y) + iy,v(y) + iy) - (v(y) - iy,v(y) - iy) > 0, soit, après,
développement: -2i(y, v(y)) + 2i(v(y), y) >O.
460 Algèbre

Cette expression, c'est encore :


B = 2i((y,v*(y))- (y,v(y))) = 2i((y,(v* -v)(y))
= (y, 2i(v* - v)(y)) = (y, ;(v - v*)(y))
i

= 4(y, ;i (v - v*)(y))

v-v*
ce qui est bien > 0 puisque ~ est définie positive.

n
10. S01"t eixA = l"1m L 1 (.ix )kAk , sene
k' , . abso1ument convergente dans
n-++oo .
k=O
2
Mn(C) complet car::::::: R2 n .
n
Son adjointe est t(éxA) = lim
n-++oo~
'°"' k\ (-ix)k(tA)k
.
= e-ixtA_
k=O
On a donc, si A est hermitienne, tA = A donc t(éxA) = e-ixA, d'où
(eixA )t(éxA) = In : la matrice eixA est unitaire. Mais, réciproquement, si
eixA est unitaire, on a eixA · t (éxA) = In soit

n
~ ((-l_)n-q
oo ( )
In= In+ ix(A - tA) + L(ix)n L )' Aq(tA)n-q
n=2 q=O q. n q ·
d'où, la série entière en x obtenue en projetant sur chaque vecteur d'une
base de Mn(C) étant unique, A - tA = 0 (coefficient de x nul) d'où A
hermitienne.
11. On identifie les vecteurs de en et les matrices colonnes de leurs composantes
dans la base orthonormée canonique B.
Si x, =/= 0, est vecteur propre de A* A pour la valeur propre .>.. on a
(x,A*Ax) = (Ax,Ax) soit (x,.>..x) = .>..iixll 2 = llAxll 2.
Comme A est inversible et x non nul , Ax =/= 0 d'où .>.. > O. On diagonalise
A* A, hermitien, dans une base C = { e 1 , ... , en}, orthonormée, de vecteurs
propres pour les valeurs propres .>..1, ... , Àn avec .>..1 ~ .>..2 ~ ... ~ Àn. Si
n
x =L Otjej on aura
j=l

llAxll 2 = (Ax, Ax) = (x, A* Ax)


n n
= (L Otjej, L OtkÀkek)
j=l k=l
n n
= L:10lk1 2.>..k ~ .>..1 L:10lk1 2,
k=l k=l
Formes sesquilinéaires, formes hermitiennes 461

et si JJxJJ = 1, il reste llAxJJ ~ JXl d'où IJJAJJI ~ JXl en passant au sup


pour x dans la sphère unité. Comme ce sup JX!, est atteint pour x = el
on a IJJAJJJ = JX!.
La même base étant orthonormée, de vecteurs propres pour A - l A *- 1 mais
avec A- 1A*- 1 (ej) = ,1, ej, on a JllA*- 1 111 = ;_.
A3 v.Àn
Soit alors M de rang < n, il existe xo sur la sphère unité tel que M (xo) = 0,
donc JJ(A - M)(xo)JI = JJAxoll ~ ~Jlxoll =~,(le calcul précédent,
donnait l'encadrement ÀnJJxJJ 2 ~ JJAxJJ 2 ~ .À1JJxJJ 2 ).
Mais alors, avec JJJA - MJIJ = sup{JJ(A - M)(x)JJ; JJxJJ = l}, on a
llJA- Mill~ JJ(A- M)(xo)JI, d'où IJIA- Mill~~ et
d = inf{JJJA - MJJJ; det M = O} est supérieur à..;>::;;,.
Sur la base orthonormée C = { e 1, ... , e}, de diagonalisation de A* A, on
définit Mo par Moei = Aei pour i < n et Moen = O.
On a det Mo= 0, et Vi < n, (A - Mo)ei = 0, alors que (A - Mo)( en) =
n
Aen, donc avec x = L Gjej, on a
j=l

JJ(A- Mo)(x)JJ 2 = Il t
j=l
2
aj(A - Mo)ej 11 = JJanAenlJ 2

= JanJ 2 (Aen,Aen) = JanJ 2 (en,A* Aen)


= ÀnJanJ 2 ~ .ÀnllxJJ 2 ,

d'où, si JJxJJ ~ 1, JJ(A - Mo)(x)IJ ~ ..;>::;;,,et comme JJ(A- Mo)(en)IJ =


..;>::;;,,on a IJJA - Molli=..;>::;;,.
Finalement inf{JJJA- MJJJ,det M = O} =~,et cet inf est atteint.

12. En fait, comme JllJlll ~ 1, on a Im(f-idE) = (Ker(f-idE))..L. En effet,


soit x E Ker(! -idE), (donc f(x) = x), et z = f(y)-y dans Im(f-idE)·
Pour tout À de C, on a alors JJJ(x + .Ày)JJ 2 = JJx + .Àf(y)JJ 2 ~ JJx + .ÀyJJ 2
puisque lllJIJJ ~ 1, soit encore, après développement:

JÀJ 2 (1Jf(y)JJ 2 - JJyJJ 2 ) + 2 Re(À(x,f(y)) - À(x,y)) ~ 0,


donc en particulier pour tout t réel, on a

t 2 (JJJ(y)Jl 2 - JJyJJ 2 ) + 2t Re(x, f(y) -y))~ 0,

avec Jlf(y)IJ 2 - JJyJl 2 ~O. Si JJJ(y)IJ 2 - JJyJJ 2 = 0, on a une fonction affine


en t, à valeurs négatives, ce n'est possible que si Re( (x, f (y) - y)) = 0,
et si JJJ(y)JJ 2 - JJyJJ 2 < 0, le trinôme en t ne peut être à valeurs toujours
négatives que si le discriminant réduit (Re(x, f(y) -y) ) 2 est négatif. Dans
tous les cas Re( (x, f (y) - y)) = O.
462 Algèbre

En prenant ensuite >. = it, t réel, on obtient cette fois t 2 (ilf(g)li 2 -


llYll 2 ) - 2t lm(x,f(y) - y) ~ 0, pour tout t réel, ce qui conduit à
lm(x, f(y)-y) = 0 et finalement à (x, f(y) -y) = 0, Vx E Ker(f-idE),
\:/y E E, d'où lm(f - idE) C (Ker(! - idE)).L, et comme on a deux
espaces de même dimension finie, on a lm(f-idE) = Ker(f-idE).L donc
E =Ker(! - idE) œlm(f - idE), somme directe orthogonale. Soit alors
XE Ker(! - idE), .!_(x + f(x) + ... + r - 1 (x)) =X, converge vers X.
n
Soit x E lm(f - idE), et y E Etel que x = f(y) - y, on a
fk(x) = f(k+l)(y) - f(k)(y) donc:

Comme lllrlll ~ 1, on a llxnll


n
~
2 llYll, donc lim Xn =O.
n-++oo
En décomposant x quelconque de E en x = u + v avec u E Ker(! - idE)
et v E lm(f - idE), on en déduit que Xn converge vers u, donc
lim
n-++oo
(.!.(id+ f + ... +
n
r- )(x)) = p(x), p projection orthogonale sur
1

Ker(! - idE)·
(A rappocher de l'exercice 26, ch. 6 de topologie).

13. a) on a Keru* = (lmu).L, (six E Keru*, \:/y = u(z) de lmu, on a


(y,x) = (u(z),x) = (z,u*(x)) = (z,0) = 0, donc Keru* c (lmu).L, ~t
ces espaces sont de même dimension). De même lm u * = (Ker u) .L.
Soit x E Keru n lmu, comme u(x) = 0, on a u*(u(x)) = 0 d'où, (u
normal), u(u*(x)) = 0 donc u*(x) E Keru, soit u*(x) E Keru n lm u* =
Keru n (Keru).L = {O}, d'où X E Keru =>X E Keru*. Mais alors, si
XE Keru n lmu, on a XE Keru* n lmu = (SSu).L n lmu donc X= o.
Les sous-espaces Ker u et lm u sont en somme directe, vu leurs dimensions
on a E = Ker u œlm u.
b) On a justifié au a) l'inclusion Ker u C Ker u*, pour u normal, mais u et
u* étant de même rang, la dimension de Keru* est égale à dim(Keru), d'où
Keru = Keru*, mais alors on a: lm u = (Keru*).L = (Keru).L =lm u*.
On a donc aussi lm v = lm v* et Ker v = Ker v*.
Si de plus u o v = 0, c'est que

lmv c Keru
<:::}lm v* C Ker u*
<:::} (Keru*).L C (lmv*).L
<:::} lmu C Kerv
<:::}VOU= 0.
Formes sesquilinéaires, formes hermitiennes 463

c) Comme u est normal, il est diagonalisable dans le groupe unitaire. Soit


B = {e 1, ... , en} une base orthonormée de vecteurs pour les valeurs propres
À1, ... , Àn. La matrice de u dans la base Best diag(.>.1, ... , Àn) donc celle
de u* est diag(X1, X2, ... Xn). En particulier si Ài est valeur propre d'ordre
p de u, xi l'est aussi d'ordre p de u*.
On note alors µ1, ... , µ2 les valeurs proprei; distinctes de multiplicités
respectives a 1, ... , Œr, pour u; celles de u * sont µ 1, ... , µr avec les mêmes
multiplicités.
Si P E C(X] est le polynôme interpolateur de Lagrange tel que, pour
i = 1, 2, ... , r, P(.>.i) = Xi, il est clair que l'on aura P( u) = u*,
cette relation étant vérifiée dans la base B orthonormée de diagonalisation
introduite.
On a donc P E C(X], tel que P(u) = u*. Mais réciproquement, si u* est
du type P(u), il commute avec u, donc u est normal.

14. Soit u normal, B une base orthonormée de vecteurs propres pour les va-
leurs propres À1, ... , Àn. On a pour matrice U de u dans la base B, U =
diag(À1, ... , Àn), donc la matrice U* de u* est U* = diag(X1, ... , Xn),
d'où celle de u*u : U*U = diag(l>-11 2 , ... , l.>.nl 2 ) et trace(u*u) =
n

n
Réciproquement, on suppose que trace(u*u) = L
l.>.11 2.
1=1
Soit C une base de trigonalisation de u, on orthonormalise C en B par le
procédé d'orthonormalisation de Schmitdt. En notant C = (e1, ... , en) et
B = (t:1, ... ,ên), comme pour tout k = 1, ... ,n Fk = Vect(ei, ... ,ek) =
Vect(ê1, ... , êk) et que u(ek) E Fk, avec êk = a1e1 + ... + akek on aura
u(t:k) = a1u(e1)+ ... +aku(ek) E F1+F2+ ... +Fk = Fk>donclamatrice
T de u dans la base orthonormée Best triangulaire supérieure, celle de u*
est tr,triangulaire inférieure, et le terme diagonal, </ème ligne, jième
1 1-1
colonne) de u*u est L tk1tk1 = ltjj 12 +L1tk11 2, avec tn; t22, ... , tnn
k=l k=l
qui sont les valeurs propres de u.

Si donc trace = t, t,l>-11 2 = (1>-11 2 + ~ ltk11 2) c'est que, pour

tout k =f. j, tk1 = 0, mais alors Test diagonale, T* aussi, donc Tet T*
commutent : u est un opérateur normal.
Lexique

abélien, 4.3 Cayley Hamilton, (théorème de),


adjoint, 12.40 10.44
Adjonction symbolique, 7.62 caractéristique (d'un anneau),
Alembert Gauss, (théorème d'), 5.29
7.71 caractéristique (polynôme), 10.19
algèbre, 6.29 caractéristiques (sous-espaces),
algèbre extérieure, 9.9 10.53
algébrique (élément) 7.57 cardinaux (axiome des), 3.2
algébrique (extension), 7.68 Cauchy Schwartz (théorème de),
algébriquement clos, 7.51 11.57, 12.32
alternée (forme), 9.2 centre, 4. 71
alterné (groupe), 4.55 chaîne, 2.54
antisymétrique (loi), 2.2 choix (axiome du), 2.45
antisymétrique (forme), 9.3 classe d'équivalence, 2.5
antisymétrisée, 9.6 clos (algébriquement), 7.51
appartenance, 1.3 clôture algébrique, 7.69
application, 1.12 codimension, 6.91
associativité, 1.24, 2.26 coefficient directeur, 7.14
automorphisme, 2.22, 6.25 cofacteur, 9.32
comatrice, 9.40
combinaison linéaire, 6.18
commutative, 2.25
base, 6.60 compatible, 2.21, 2.38
base incomplète (théorème de complémentaire (ensembliste), 1. 7
la), 6.66 et 6. 72 composition (interne) 2.24
Bézout (théorème de), 7.30 cône isotrope, 11.11
bijective, 1.17 congruentes, 12.15
bilinéaire, 11.1 conjugués, 11.9, 12.18
binaire (relation), 2.1 conjugué (d'une partie), 11.14,
bon (ordre) 2.43 12,18
borne (supérieure, inférieure), coordonnées, 6. 76
2.20 corps, 5.13
borné, 2.20 Cramer (système de), 9.55
466 Lexique

cyclique, 4.13 forme linéaire, (6.89)

décomposition (corps de), 7.65 Gauss (entiers de) exercice 8,


définie (forme) 11.12, 12.24 chapitre 5
dégénérée (forme) 11.16, 12.22 Gauss (méthode de), 11.53
degré, 7.2 Gauss (théorème de), 5.52
demi-groupe, 4.26 génératrice, 6.59
dépendants, 6.57 graphe, 1.11
déterminant, 9.14 groupe, 4.1
diagonale (matrice), 8.13 groupe linéaire, 6.30
diagonalisable, 10.9
discriminant, 11.42 Hadamard (localisation des va-
distingué (sous-groupe), 4.18 leurs propres), 10.22
distributive, 1.26, 2.33 héréditaire (partie), 2.50
diviseur de zéro, 5.8 hermitien (espace), 12.36
domaine d'intégrité, 5.9 hermitien (opérateur), 12.55
dual, 6.89 hermitienne (forme), 12.5
Dunford (théorème de), 10.54 hermitienne (matrice), 12.13
Hilbert (espace de), 12.36
égalité, 1.1 homothétie, 10.2
endomorphisme, 2.22, 6.25 homomorphisme, 6.25
entier, entier naturel, 3.30
équipotent, 3.1 idéal, 5.16
équivalence, 2.3 idempotent, 2.27
équivalence d'application, 2.39 image (directe, réciproque), 1.13
équivalentes (matrices) 8.24 inclusion, 1.5
Erdëis Kaplansky (théorème d'), indexation, 1.14
6.113 indice (d'un sous-groupe), 4.60
espace vectoriel, 6.1 inductif, 2.41
euclidien (anneau), 5.27 infini (axiome de l'), 3.42
euclidienne (division), 7.19 infini (cardinal), 3.30
Euler (identité d'), 11.47 injective, 1.15
extension, 7.54 intègre, 5.9
externe, 2.34 interne (loi de composition), 2.24
extrémal, 7.21 intersection, 1.23
irréductible, 7.21
factorisation des morphismes, isomorphisme, 2.22, 6.25
2.40 isomorphisme (premier théorème),
Fermat (théorème de), 7.13 4.23, 6.41
fini (cardinal), 3.30 isomorphisme (deuxième théorème),
fini (ensemble), 3.34 6.43
fonction, (1.11) isotrope, 11.10, 12.24
Lexique 467

isotropie (groupe d'), 4. 73 orthogonal (opérateur), 11.26


orthogonal (d'une partie), 6.94
Jordan (réduite élémentaire), orthogonalité (dual), 6.93
10,59 orthonormalisation de Schmidt,
Jordan (réduite de), 10.61 12.37

majorant, 2.19 partition, 2.6


majoré, 2.19 p-linéaire, 9.1
matrice, 8.3 p.g.c.d., 7.26
maximal (élément), 2.12 plongement, 5.33
maximal (idéal), 5.42 polaire (forme), 11.8, 12.7
maximum, 2.13 polynôme, 6.13, 7.1
mineur, 9.34 polynôme quadratique, 11.46
minimal (élément), 2.17 positive (f. quadratique) 11.55
minimal (polynôme), 10.43 p.p.c.m., 7.36
minimum, 2.18 préhilbertien, 12.36
Minkowski (inégalité de), 11.61, premier, 7.21
12.35 premier (idéal), 5.46
minorant, 2.19 premier (nombre), 5.53
minoré, 2.19 premiers entre eux, 7.28
monogène, 4.13 presque tous nuls, 6.75bis
morphisme, 2.21, 2.35 principal (anneau), 5.26
multiplicité (d'un zéro), 7.39 principal (idéal), 5.19
produit de composition, 1.18
négative (forme quadratique), produit extérieur, 9. 7
11.55 projecteur, 6.4 7
neutre, 2.28 propre (valeur), 10.4
nilpotent, 10.56 propre (vecteur), 10.6
normal, 12.65 propre (sous-espace), 10.6
noyau (forme quadratique), 11.16
noyau (forme hermitienne), 12.22 quadratique (forme), 11.4
noyau, 4.17 quotient (ensemble), 2.5
noyau (théorème des), 10.47
racine, 7.37
opérant (groupe), 4.63 rang (application linéaire), 6.86
opérateur, 10.4 rang (famille de vecteurs), 9.44
orbite, 4.65 rang (matrice), 8.26
ordre (d'un groupe), 4.58 rang (forme quadratique), 11.33
ordre (d'un zéro), 7.39 réciproque (application), 1.21
ordre (bon), 2.43 réflexive, 2.2
ordre (relation), 2. 7 relation, 2.1
orthogonal (groupe), 11.28 régulier, 2.36, 9.43
468 Lexique

réunion, 1.22 symétrisé, 4.28


Rouché (théorème de), 9.51
rupture, (corps de), 7.64 Taylor, 7.44
trace, 10.17
scindé, 10.28 trajectoire, 4.65
segment (dans E ordonné), 3.16 transcendant, 7.56
semblables, 8.25 transitive, 2.2
semi-linéaire, 12.1 transport de structure, 2.23
sesquilinéaire, 12.2 transposée (matrice), 8.8
sesquilinéaire à symétrie hermi- transposition, 4.48, 6.100
tienne, 12.4 trigonalisable, 10.30
signature (forme quadratique),
11.64
unitaire (anneau), 5.4
signature (permutation), 4.52
unitaire (groupe), 12.48
singleton, 1.10
unitaire (matrice), 12.50
somme directe, 6.45
unitaire (opérateur), 12.45
sous-espace vectoriel, 6.9 .
unitaire (polynôme), 7.15
sous-groupe, 4.4
unitaire spécial, 12.54
spectrale (valeur), 10.4
spectre, 10.5
stabilisateur, 4. 73 valuation (facteur premier), 7.34
Steinitz (théorème de 7.70) valuation (polynôme), 7.2
strict (ordre), 2.11 Van der Mond (exercice 6 chapi-
suite, 6.11 tre 9)
supplémentaires, 6.46 vide, 1.9
surjective, 1.16
Sylvester (théorème de), 11.63 zéro, 7.37
symétrique (relation), 2.2 Zermelo (axiome de), 2.44
symétrique (forme), 11.3 Zorn, (axiome de), 2.42
symétrique (groupe), 4.46

Imprimé en France
Imprimerie des Presses Universitaires de France
73, avenue Ronsard, 41100 Vendôme
Août 1993 - N° 39 719
A l'ori gin e co urs de math ématiqu es spéc iales, cet ouvrage donn e auss i
un e v ue plu s générale des math émat iqu es du pre mi er cyc le en in sis-
tant parti c ul ièrement sur les stru ctures et th éo rèmes fo nd amentaux.

On y trouvera ain si les co nstru cti o ns des ense mbl es mathématiqu es


usuels (N, Z, Q, R, C), l' utili sati on de l'ax iome de Zorn, les Théorèmes
d'E rd os-Ka pl ansky, de Bai re, de Sto ne-W eierstrass ai nsi qu e d'a utres
rés ultats - parfo is aux co nfin s du prog ramm e - qu e l'étu d iant
c uri eux peut être co nduit à rec herc her.

La présence d'exercices corri gés facili tera l'acquisition du savo ir-fai re


tec hniqu e nécessa ire à l'étude d u cours.

Ce traité co mpo rte j ro is vo lum es : Algèbre, Topo logie et anal yse réelle,
Espaces fonctionnèls. Dans le premi er to me, la co nstructi on de N, Z
e t Q met en év idence l' impo rtance des relati o ns d'éq ui va lence et d u
passage au quotient.

L'étud e des propri étés des es paces vecto ri els, sui va nt qu' il s so ient de
dim ension fini e ou no n, s'a ppui e sur les rés ulta ts acqu is sur les ca rdi-
naux infini s.

Les polyn ômes, étud iés sur un co rps K, do nn ero nt une co nstru cti on
de C, co rp s de déco mpositi o n de X2 + 1, mais serv iront aussi dans
l'étud e des po lynô mes d'e ndo mo rph is mes ain si q ue pour la rédu cti o n
des endo morphi smes (d iagonali sation, tri gonali sati on et j ord ani sati o n).

Enfin , l'étude des fo rm es quadrati q ues et hermi tienn es co mpl ète ce·
tome d' Al gèbre.

198 FF 22409456 / 8 / 93

Vous aimerez peut-être aussi