Académique Documents
Professionnel Documents
Culture Documents
Cours de Mathématiques Spéciales Tome 1 - Algèbre
Cours de Mathématiques Spéciales Tome 1 - Algèbre
Bernard 3
Gostiaux m
Cours de ..c
c
mathématiques (1)
spéciales
1. Algèbre
Cours de mathématiques spéciales
Tome 1
Algèbre
COLLECTION DIRIGÉE PAR PAUL DEHEUVELS
COURS
DE MATHÉMATIQUES
SPÉCIALES
TOME 1
Algèbre
BERNARD GOSTIAUX
Préface...................................................... IX
Avant-propos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . XI
Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . XII
la difficulté de bien rendre par l'écriture un langage parlé. Trop souvent les
livres sont composés dans un style académique froid et convenu, rebutant
tout lecteur n'en connaissant pas déjà et à l'avance le contenu. De ce
fait, combien de parents ne se sont pas battus avec leurs enfants et sans
résultat pour tenter de leur imposer d'apprendre un sujet dans les livres
de classe avant que la chose leur ait été enseignée? Le manque de succès
de tels efforts est à comparer avec le plaisir de manger un repas chaud
et le dégoût qu'inspirent des restes rassis. Rien ne peut remplacer un
cours bien fait, car il est porteur de toute l'énergie et l'enthousiasme que
le professeur met à transmettre un sujet qu1 le passionne.
Je tiens à remercier Bernard Gostiaux d'avoir accepté de publier son
cours en l'état. En le lisant et le relisant, je me suis mis à regretter tout
de bon de ne pas pouvoir retourner sur les bancs de l'école avec 30 ans de
moins!
Paul Deheuvels
Avant-propos
Les enfants nous poussent souvent à entreprendre. C'est pour mon fils
ainé, et en pensant au cadet, que j'ai commencé à rédiger ces notes, et,
de page en page, je me suis mis à l'ouvrage pour obtenir un exposé d'une
construction possible des Mathématiques.
Partant de la théorie des ensembles, l'introduction des cardinaux per-
met de construire N ensemble des entiers naturels. Uétude des structures
de groupe conduit à symétriser N pour obtenir l'ensemble 1 des entiers
relatifs. La structure d'anneau et de corps donnera alors le corps des ra-
tionnels.
C'est dans le deuxième tome de cet ouvrage que j'aborderai la construc-
tion du corps des réels, de nature topologique. Mais dans celui-ci, après
l'étude des espaces vectoriels et des polynômes, on construira le corps des
complexes, C, clôture algébrique de IR.
Tout au long de cette construction se dégage l'importance de la struc-
ture quotient attachée aux relations d'équivalence. Uétude du calcul ma-
triciel et de l'algèbre extérieures me permet ensuite de traiter la réduc-
tion des endomorphismes. Enfin, les formes quadratiques et les formes
hermitiennes, abordées ici d'un point de vue algébrique, se retrouveront
en analyse dans l'étude des espaces préhilbertiens réels et dans celle des
séries de Fourier.
Je me suis efforcé de rédiger ces notes pour les étudiants, en pensant à
leurs réactions, qui figurent les miennes, face à une question ardue. Aussi
pourra-t-on me reprocher un certain manque d'application, de ci de là,
dans la formulation abstraite, l'utilisation des quantificateurs, mais j'ai
voulu écrire un manuel vivant.
Je remercie mon épouse et mes enfants qui m'ont supporté pendant ces
longues heures, mais aussi mes élèves du Lycée Saint-Louis qui, par leurs
questions, m'ont conduit à préciser mes propres connaissances, au fil des
années. Je remercie également Monsieur Cau, du service de reprographie
du lycée, sans la gentillesse et la compétence duquel ces notes n'auraient
peut être pas été mis en formes.
Enfin, je suis très reconnaissant envers Monsieur Deheuvels qui m'a
encouragé à passer de notes rédigées pour des élèves à un traité plus
élaboré.
Dun-les-Places, le 23 février 1993
Notations
Du langage mathématique
ou des tautologies
On comprend donc que l'on vient de codifier le sens usuel de« ou» et
de« non».
A partir de ces signes, on peut commencer à élaborer le langage
mathématique.
Ainsi le mot usuel «et» : si, ayant les 2 relations R, S, on veut avoir
les deux vraies en même temps, il faut exclure (donc l) les cas où l'une
ou l'autre, (ou les 2 ... ) est fausse, donc exclure ( l R) ou ( l 8) et on arrive
à cette monstruosité :
R et S désigne l'assemblage l (( l R) V ( l S)),
et le mot« et» ainsi défini s'appelle la conjonction logique de R et de S.
On comprend également que, très rapidement, on va remplacer ces
assemblages compliqués par des mots plus simples représentant leurs
contenus. (Cette démarche n'est pas sans rappeler celle qui, dans l'écriture
égyptienne, fait passer des pictogrammes aux idéogrammes).
On utilise ainsi le symbole ::::}
Comme c'est une «règle du jeu», pourquoi pas? Mais si on veut compren-
dre ce que signifie ce symbole, appelé «implication logique », disons que
si on considère les quatre cas de figures suivants :
1) R vraie et S vraie;
2) R vraie et S fausse;
3) R fausse et S vraie;
4) R fausse et S fausse;
le sens usuel de R implique S c'est d'exclure le 2e cas, c'est donc d'avoir
les cas 3) et 4), (donc ( l R), ou le 1e cas (donc S vraie) d'où cet assemblage
SV ( l R). Mais cette explication n'est donnée que par gentillesse, pour
montrer qu'on garde les pieds sur terre ... En fait on a bien le droit de
considérer l'assemblage SV ( l R) et de le représenter par le symbole
R::::} S, c'est le pouvoir créateur du verbe.
Pour clore cette présentation, introduisons l'équivalence logique qui se
note R {::::::> S, qui se lit« Rest équivalente à S »,qui signifie [(R::::} S)
et ( S ::::} R)] et qui sera l'assemblage suivant ( S V ( l R)) et (R V ( l S))
où il ne reste qu'à enlever le et: on a donc :
Les axiomes sont des relations énoncées explicitement, une fois pour
toutes, ou des règles où interviennent ces relations.
Par exemple, 4 axiomes logiques, (AL), du 2e type servent à justifier
les raisonnements logiques. Ceci dans la conception de Bourbaki des
mathématiques, mais ce n'est pas la seule.
2. Substitutions, quantificateurs
pour tous les axiomes, (que nous n'avons pas écrits ... , c'est le travail du
logicien).
On a enfin besoin d'un quatrième procédé logique pour former des
relations : celui qui exprime le fait qu'étant donné une relation R, une
lettre x, il existe au moins un objet mathématique A qui, substitué à x,
donnera une relation vraie.
On utilisera le signe 3 pour représenter ce « il existe » avec son sens
intuitif, et ce symbole appelé quantificateur existentiel va avoir son emploi
réglementé par des axiomes logiques.
On va noter (A 1 x)R pour «on substitue A à x dans R». On a alors
(AL5) Soit R une relation, x une lettre, A un objet mathématique. Alors
la relation (A 1 x)R::::} (3x)R est vraie.
(Bien sûr (3x)R signifie qu'il existe un objet mathématique vérifiant
R, et l'axiome logique 5, dit qu'en pratique, on justifie ce résultat en
exhibant l'objet A.)
Signalons qu'on obtient alors un symbole abréviation, V, appelé quan-
tificateur universel, (souvent appelé « pour tout ») et qui se « définit »
comme suit.
Les ensembles
1.1. L'égalité
1.3. L'appartenance
Propriétés de l'inclusion
En effet
En fait, comme parmi les axiomes constitutifs figure celui qui dit que
la relation: <D ('v'x) ( (x E A) ::::} (x E B)) est collectivisante, si on part de
l'objet mathématique B, c'est-à-dire de l'ensemble Bon obtient un nouvel
ensemble dont les éléments sont les objets mathématiques A vérifiant <D,
encore appelées les parties de B, et cet ensemble des parties de Best noté
P(B).
On a donc A E P(B) {::::::::}A C B, ou encore {::::::::} R(A), si R désigne
la relation <D où figure la lettre A.
Parmi les A vérifiant <D figure B lui-même car (x E B) ::::} (x E B)
est vraie : B est une partie de lui-même, mais alors on peut considérer le
complémentaire ensembliste de B dans lui-même, B - B.
On a B - B = {x; x E B et x li B}.
Cette notation se lit: «=l'ensemble des x tels que x E B et x li B ».
Comme une relation et sa négation ne sont jamais vérifiées en même
temps, il n'y a pas de x vérifiant cela : on dit que B - B est la partie
vide. A priori, on obtient la partie vide de B et au début de ce siècle, une
longue correspondance s'est établie entre mathématiciens, pour savoir si
la partie vide de B était la même que celle d'un autre ensemble C ... Le
débat n'avait lieu qu'à cause d'une insuffisance du système d'axiomes. En
fait on a:
1.14. Indexation
On a donc
Résultat bien utile dans certains exercices, et qu'il faut alors rejustifier
si c'est le but de l'exercice.
On suppose g o l injective, on veut prouver que l est injective.
Soient donc x' et x" de X tels qi.2 l (x') = l (x"), on veut prouver
qu'alors x' = x", or l'outil c'est l'injectivité de go 1- On prend les images
par g, on a:
Il en résulte que
5. Réunion, intersection
En fait, dans le cas d'une famille d'ensembles qui ne seraient pas tous
contenus dans un «sur ensemble», on est en présence d'un axiome qui
dit que cette réunion existe.
Le non vide signifie que I est non vide, car si on essaye de donner un
sens à cette formulation avec I = 0, n'importe quel objet x de la théorie
vérifie le (Vi E 0 ... ) car il n'y a pas dei dans 0, donc pas de condition à
vérifiée, et ceci conduirait à parler d'ensemble de tous les ensembles.
Par contre une réunion d'une famille indexée par 0 conduit à 0. Il
nous reste à établir des propriétés pour ces «opérations» de LJ, n, passage
au complémentaire, image directe et réciproques ...
LJ Ai = LJ ( LJ Ai).
iEJ ÀEA iEh
Les ensembles 21
(x E u ) ~ 3>. E A, x E( u Ai)
iE/ iE/;>.,
d'où l'égalité.
•
THÉORÈME 1.25. (Associativité del'intersection)-Soit (hhEA une famille
non vide (ie A "1- 0) d'ensembles non vides et I = l>.. Soit (Ai)iEl LJ
>.EA
une famille indexée par I, on a
nAi= n ( n Ai)·
iE/ >.EA iE/;>.,
XE n (nAi)~v>.EA,ViEJ)..,XEAi·
>.EA iE/;>.,
22 Algèbre
•
1.26. Distributivité de l'une par rapport à l'autre
En effet, x E An ( u
iEl
Ai) {::::::::} x E A et (:li E /, x E Ai), ce qui
Pour la 2e égalité, on a :
!( LJ Ai)= LJ f(Ai)
iEJ iEJ
t( nAi) c nf(Ai)·
iEJ iEJ
d'où l'égalité.
Pour l'inclusion suivante :
si y Et( n Ai). c'est qu'il existe X dans n Ai tel que y= f(x), mais
iEJ iEJ
x est alors dans chaque Ai, donc y= f(x) est dans chaque f(Ai), donc
dans l'intersection :
on a bien l'inclusion f ( n
iEJ
Ai) c n
iEJ
f (Ai)· •
mais quand i varie, Xi varie aussi a priori, donc il n'y a pas d'antécédent
dans n
Ai sauf si f est injective car pour i =1- i 1' avoir Xi et Xi' tels que
i
24 Algèbre
y = f (xi) = f (xi') ::::} Xi = xi' est constant par rapport à i : cet élément
constant, noté X, est dans nAi
iE/
et on a bien alors
y= J(x) E t(nAi)
i
f- 1 (Y - B) =X - f- 1 (B).
En effet, x E f- l ( u
iE/
Bi) {=} f (X) E u
iE/
Bi
{=} 3i E J, f(x) E Bi
{=} 3i E J, x E f- 1 (Bi)
{=}XE uf- (Bi)·
iE/
1
Les ensembles 25
X - ( LJ Ai)
iE/
= n
iE/
(X - Ai) et X-(nAi)
iE/
= LJ(X-Ai),
iE/
De même x E X - ( n
iEJ
Ai) {::::::::} x E X et (x ~ n
iEJ
Ai).
Or X E n
i
Ai {::::::::} 'efi E J, X E Ai, sa négation est donc :li E J, X ~ Ai>
donc x EX - ( n
iEJ
Ai) {::::::::} :li E J, x E (X - Âi)
{::::::::}XE u(X -
iEJ
Ai)·
•
CHAPITRE 2
1. Vocabulaire
2.2. Une relation R sur E est dite réflexive si et seulement si, pour tout
x de E, on a xRx; elle est dite symétrique si et seulement si, quand xRy
on a aussi yRx. Enfin elle est dite transitive si et seulement si (xRy) et
(yRz) impliquent (xRz).
Une relation est dite antisymétrique si et seulement si (xRy) et (yRx)
impliquent x = y.
EXEMPLE 2.4. - E = 1., ensemble des entiers relatifs, (qui sera construit
par la suite, mais que l'on connaît en fait). Si on se donne un entier naturel
p, non nul, la relation Rp définie par
y E X -<===? xRy.
Cette partie qui est non vide, (car xRx =? x E X) s'appelle la classe
d'équivalence de x. Elle est formée de l'ensemble des y équivalents à x.
~chaque x de Eon peut associer sa classe d'équivalence, X.
La réunion des classes d'équivalence donne E entier :
car Va E E, a E A classe de a, donc a E LJ X en notant toujours X la
xEE
classe de x, car parmi les parties X figure A. •
on a une équivalence.
Notons (Fi)iEJ la famille :F, (l'intérêt de l'indexation apparaît dans
cette façon de noter).
On a R réflexive car, comme LJ
Fi = E, à chaque x E E on associe
iE/
au moins un io E I tel que x E Fio, donc x et x sont dans la même Fio :
on a xRx;
Rest symétrique : si xRy, c'est que x et y sont dans une même partie Fi
de la famille :F, donc y et x aussi, donc yRx;
Rest transitive : si xRy et yRz, c'est que x et y sont dans une même
partie. Fi 1 , et que y et z sont dans une même partie disons Fi 2 , or
si Fi 1 =j:. Fi 2 on a Fi 1 n Fi 2 = 0, (parties disjointes)
donc comme y E Fi 1 n Fi 2 c'est que Fi 1 = Fi 2 : x et z sont dans cette
partie Fi 1 d'où xRz. On a bien une équivalence. •
3. Relation d'ordre
l)lfxEE,x~x; (réflexivité)
2) V(x, y) E E 2, ((x ~y) et (y~ x)) * x =y (antisymétrie)
3) V(x,y,z) E E 3 , ((x ~y) et (y~ z)) * x ~z (transitivité).
Relations, relations d'ordre, d'équivalence 31
EXEMPLE 2.9. - Sur N, la relation (x ;:>:y)<==> (3z E N,x =y+ z), est
aussi une relation d'ordre. (Justification laissée au lecteur éventuel).
REMARQUE 2.11. - Il arrive que l'on parle de relation d'ordre strict pour
un relation R qui est antisymétrique et transitive, on notera -< ou >- une
telle relation.
EXEMPLE 2.15. - E = {2, 3, ... , 20}, on définit R par aRb <==>a divise b,
c'est visiblement réflexif, antisymétrique, transitif, donc on a une relation
d'ordre, et dans E, les nombre 11, 12, 13, ... , 20 sont maximaux.
32 Algèbre
2.19. Si A est une partie de E ensemble ordonné, on dit que A est majorée
(resp. minorée) s'il existe m dans E tel que \::lx E A, x ~ m (resp. x ;;::: m)
et dans ce cas m s'appelle un majorant de A, (resp. un minorant).
Il faut remarquer que m n'est pas forcément dans A, (exemple: dans
~. A = { 1 - ~; n E 1\1*} est majorée par 1, 1 €J_ A, et il n'y a pas de
majorant plus petit que 1).
Cependant, si le majorant m de A est dans A, dans ce cas c'est le plus
petit majorant. On appelle plus petit majorant, l'élément m, s'il existe qui
majore A et tel que \::lm' majorant de A on ait m ~ m'. Si un tel élément
existe il est unique car si m1 et m2 sont plus« petit majorant de A», on
a m1 ~ m2 car m1 plus petit majorant et m2 ~ m1 car m2 plus petit
majorant, d'où m1 = m2 par antisymétrique de la relation d'ordre. •
On dit que I est compatible avec R et S, (ou encore que I est un morphisme
pour R et SJ si et seulement si :
Il s'agit donc d'une notion déjà connue, mais que l'on va noter différem-
ment par commodité. Au 'lieu de noter :
l:ExE~E, ou (x,y)~z=l(x,y),
on utilise un symbole, ( +, x, *, /\, T, ..l, 181, EB, ... ) disons ici *par exemple,
pour noter l'image du couple (x, y) sous la formez= x *y.
La loi interne est dite :
i * i = i.
2.28. Un élément e de E est dit
neutre à gauche si \:lx E E, e * x = x, (e est à gauche),
neutre à droite si \:lx E E, x * e = x,
neutre s'il est neutre à droite et à gauche.
Pour la loi précédente 1 est neutre à droite car a* 1 = a 1 = a, mais
pas à gauche car 1 * a = 1a = 1 et pas a.
Donc s'il y a un élément neutre, (des 2 côtés) il est unique, mais il peut
y avoir
2.31. Inverses
Car x" * (x * x') = x" * (e)- = x", et par associativité, c'est aussi
(x" * x) * x' = e * (x') = x' d'où x' = x". •
C'est pourquoi, de tels ensembles, appelés demi-groupes unitaires, sont
appelés à un riche avenir: nous le retrouverons dans l'étude des groupes.
Comme <p est bijective, ceci équivaut à ce que les images des deux
membres de l'égalité, par <p, soient égales.
Soit E muni d'une loi de composition, notée *•et Rune relation binaire
sur E. On dit que R est compatible avec la loi interne * si et seulement si
xRx' et yRy'::::} (x * y)R(x' *y').
Ceci est surtout utilisé lorsque R est une équivalence : si elle est
compatible avec la loi *• on va définir une loi interne, encore notée *•
sur l'ensemble quotient E /R car, si X et Y sont deux éléments de E /R,
c'est-à-dire deux parties de E, classes d'équivalence pour R, si on prend
C'est ce que l'on fait pour munir l'ensemble quotient E /R d'une loi
de composition interne, lorsque R est compatible avec *• on parle de loi
quotient.
Il est alors facile de vérifier que, si sur E, * est commutative, ou
associative, ou admet e pour élément neutre ... , il en est de même sur
E /R pour la loi quotient, (le neutre étant la classe de e). Par exemple,
si & est la classe d'équivalence de e, si X est un élément quelconque de
l'espace quotient E /R, représenté par l'élément x, par définition de la loi
* sur E /R on a :
& * X = classe de ( e * x) or e neutre donc e * x = x
d'où [ * X = classe de x = X, il en est de même pour X *[ d'où [
neutre. •
E f
t---+ F
surjectif p 1 î i injectif
E/R
--<p
bijectif
f(E)
40 Algèbre
2.42. Axiome de Zorn. Tout ensemble non vide, ordonné, inductif admet
au moins un élément maximal.
2.43. On appelle bon ordre sur un ensemble E, toute relation d'ordre sur
E telle que toute partie non vide de E admet un plus petit élément. Il est
à remarquer qu'un bon ordre est forcément total, car pour une paire {a, b}
de E, comme il y a un plus petit élément, si c'est a, alors a:::;; b, et si c'est
b, on aura b :::;; a. Dans les 2 cas, a et b sont comparables.
On énonce:
2.44. Axiome de Zermelo. Tout ensemble E non vide, peut être bien
ordonné.
Relations, relations d'ordre, d'équivalence 41
Ainsi que:
2.45. Axiome du choix. Pour tout ensemble non vide E, il existe au moins
une application f de P(E) dans E telle que VA CE, avec A -:j:. 0, on ait
f(A) E A.
2.47. Zermelo ::::} choix. Soit E non vide, par Zermelo on le munit d'un
bon ordre, donc si A est une partie non vide de E, on sait que A admet un
plus petit élément a: on pose f(A) =a. On définit ainsi f surP(E)-{0},
avec VA E P(E) - {0}, f(A) E A. Il suffit de définir f(0) de manière
quelconque, (f(0) = f(E) par exemple) pour avoir une fonction de choix
J~R •
1) Ac B,
(A, OA) ~ (B, Os) <=:? { 2) OA est la restriction de Os à A x A,
3) A est partie héréditaire de B.
Réflexivité :
1) Ac A,
(A 0 ) :::.< (A 0 ) car { 2) OA est bien OA restreint à A x A,
' '.A """ ' '.A 3) A n'a aucun mal à hériter des élé-
ments de A. ·
Antisymétrie: si (A, OA) ~ (B, Os) et (B, Os)~ (A, OA), on a déjà
A C B et B C A d'où A = B, puis l'ordre OA c'est l'ordre Os car
\f(u,v) E A 2 = B 2 , comme OA est la restriction de Os à A x A on a
u Os v {::::::::} u Oc v,
1
d'où finalement u ~ v {::::::::} u Oc v ce qui est la traduction de 0 A
restriction de Oc à A .
Enfin A est partie héréditaire de C car si c de C est tel qu'il existe
a E A avec cOc a, comme a E AC B, et que Best héréditaire de C, on
a déjà c E B, car inférieur, pour Oc, à un élément, ici a, de B.
Mais alors, comme c et a sont dans B, que Os est la restriction de
l'ordre Oc à B écrire c Oc a, c'est écrire c Os a, avec a E A, c E B et A
Relations, relations d'ordre, d'équivalence 43
a aussi t E Ai, car alors Ai' C Ai· Sinon, (Ai, OAJ ~(Ai'• OA;i) mais
alors on a t E Ai', s E Ai et t Ons, soit comme t et s sont dans ce cas tous
les deux dans Ai'• tO A., s vu la définition de l'ordre On. Comme dans ce
cas Ai est héréditaire d~ns Ai' , on a encore t E Ai.
Dans les 2 cas, on parvient à t E Ai. Ceci est vrai pour tout t de
T, finalement T C Ai> (Ai choisi tel que s E Aï), mais Ai est lui bien
ordonné par 0 A;.
Sim est le plus petit élément de T pour l'ordre OA;• (m existe car OA;
bon ordre), alors pour tout Œ E S, on a soit Œ Ons, donc Œ E Tet alors
m On Œ, (car met Œ sont dans le Ai contenant s, et sur Ai les ordres On
et OA; coïncident),
soit
(car On est total, comme déjà signalé), et comme m Ont pour un t de T,
que t Ons et que s On Œ, par transitivité on a bien m On Œ : dans tous les
cas on a m On Œ, donc m est plus petit élément de S partie non vide de R,
donc (R, On) E M.
Je ne sais pas si quelqu'un suit encore ... Enfin, faisons comme si...
La partie C = {(Ai, OAJiEI} est alors majorée par (R, On) élément
de M car, Vio, Aio C R = LJ Ai; par construction, OA;o est bien
iEJ
la restriction à Aio x Aio de On ; et Aio est héréditaire dans R : si
x E Aio• y E R, avec yOnx, il existe i E I avec y E Ai, on a soit
( Aio, 0 A;0 ) ~ (Ai, 0 A;) et alors Aio héréditaire dans Ai et On coïncide
avec OA; =>y E Aio;
soit (Ai, OA;) ~ (Ai 0 , OA; 0 ) et alors y E Aio·
>
0nK=EnK=K,
> >
donc e = /(0) est plus petit élément de 0 nK =K.
4e point: L'ensemble /C des k-chaînes est totalement ordonné par
inclusion et toute k-chaîne est héréditaire dans toute k-
chaîne la contenant.
Pour justifier ce point, plus délicat, on introduit la notation suivante :
~
six E E, on note x = {y,y E E,y ~ x}.
~
Soient Ki et K2 deux k-chaînes et I = {x; x E Kin K2; Kin x=
~
K2 nx}: on va prouver que I =Ki ou K2, comme I C Ki nK2 on aura
alors Ki c Ki n K2 donc Ki c K2, ou K2 c (Ki n K2) et K2 c Ki.
Donc /C sera totalement ordonné par inclusion. Toutes les k-chaînes ayant
Relations, relations d'ordre, d'équivalence 47
,;::: ,;:::
epourpluspetitélément, e E KinK2 et forcément Kin€= {e} = K2ne
donc e E J.
I est partie héréditaire de Ki (et de K2, par symétrie des rôles joués).
..;;
Car si on a i E I et ki E Ki avec ki ~ i, ki E i , mais alors
..;; ..;;
ki E K1 n i = K2 n i donc k1 E K2 : on a déjà k1 E K1 n K2 .
..;; ..;; ..;; ..;;
Puis (K1 n i) n ki = (K2 n i) n k I·
..;; ..;;
Mais i n k i = {x; x ~ i et x ~ ki}, avec k1 ~ i il ne reste que la
..;; ..;; ..;; ..;; ..;;
condition x ~ k1. On a i n k i = k 1 d'où l'égalité Ki n k i = K2 n k I·
Ces deux résultats prouvent que k1 E I : I a bien hérité du k1 de Ki,
avec ki ~ i.
On ne peut pas avoir à la fois I i= Ki et I i= K 2 car alors, I partie
>
héréditaire de K1, k-chaîne, et I i= Ki ::::} m = f(I) est le plus petit
>
élément de I nK i, mais pour la même raison, ( I i= K 2, I héréditaire dans
>
la k-chaîne K2) on a aussi m plus petit élément de I nK2. Comme f est
fonction de choix m E j : c'est un majorant de I, m (j. I, donc::::} I C Th,
si on note Th = { x, x E E, x < m }. Par construction I C K1 n K2, donc
on aurait I C Kin Th.
>
Comme m est le plus petit élément de I nK1 ; c'est le plus petit
élément qui soit à la fois dans Ki et majorant strict de I, si bien que
si k E Ki n Th, étant dans K1 et strictement plus petit ~ue m, il n'est
pas majorant strict de I donc 3io E I avec k ~ io. Mais I est héréditaire
dans Ki donc k i:: I: on vient de prouver que Kin Th c I d'où l'égalité
I = K1 nrh, on aurait de même I = K2 n Th.
Mais alors (Kin Th) U {m} = (Ki U {m}) n (rhu{m}), or m plus
> ,;:::
petit élément de I nKi est dans KI. donc il reste Ki n m.
Comme Ki n Th = K2 n Th = I, on obtient aussi
< ..;;
(K2 nm) u {m} = K2 nm .
..;; ..;;
On obtient donc m E Kin K2 et K1 n m = K2 n m, c'est donc que
>
m E J, (les 2 conditions sont vérifiées) or m E I est majorant strict de I
donc (j. I: c'est absurde (ouf!). Donc l'hypothèse (I i= Ki) et (I i= K2) est
48 Algèbre
1. Nombres cardinaux
card(X) = card(card(X)). •
Exemple de cardinaux
On a la notion intuitive d'unité, que l'on traduit par un axiome.
Le dernier point est évident, car pour tout cardinal a, il faut remarquer
que 0 étant un ensemble équipotent à 0, c'est 0 lui-même, donc 0 x {1} =
0, (pas d'élément dans 0 = 0) d'où
Multiplication
Il est alors clair que, 'Vi E J, on a (S, !) qui majore (Si, fi) : on a bien
justifié l'existence dans 1t d'un majorant de la partie totalement ordonnée
C, c'est-à-dire justifié que 1t est inductif.
Mais alors, l'axiome de Zorn, (2.42) implique l'existence d'un élément
maximal (E, u), avec E segment où est défini l'isomorphisme u, et u(E)
segment de F.
Si E = E on aura un isomorphisme de E sur un segment de F, alors
que si u(E) = F, u- 1 établira un isomorphisme de F sur E. Aussi va-t-on
prouver que l'hypothèse (E =/; E) et (u(E) =/; F) conduit à une absurdité.
Si on y parvient on aura l'existence, énoncée dans la proposition 3.20,
et il restera à justifier l'unicité de l'isomophisme considéré.
Supposons donc E =/; E et u(E) =/; F : vu la forme des segments,
(proposition 3.17) il existe a dans E et b dans F tels que E = Sa =
{x;x E E,x <a} et u(E) = Eb = {y;y E F,y < b}.
On prolonge u en u1 sur S =Sa U {a} par u1(a) = b, et 'Vx E Sa
on a u1(x) = u(x). On définit ainsi un morphisme injectif de S sur
T = EbU{b}. Or, S = {x;x E E,x ~a} etT = {y;y E F,y ~ b}
sont des segments. Vérifions le pour S : six E Set si t de E est tel que
t ~ x, comme x ~a, on a bien t ~a, donc t ES.
Mais alors, (S, u1) serait dans 'Ji, et strictement supérieur à l'élément
maximal (E, u) : c'est absurde.
Il reste, pour achever la justification de la Proposition 3.20 à montrer
l'unicité. Ceci sera une conséquence du lemme suivant.
dans l'image f(E) c'est avoir un z de E tel que g(a) = f(z). Comme
g(a) = f(z) < f(a) et que f croissante, l'hypothèse z ~ a est exclue
car alors f(z) ~ f(a), d'où z < a. Donc z ~A, (a plus petit élément de
A), d'où J(z) ::::; g(z) vu la définition de A, et on a, g étant strictement
croissante,
f(z) ::::; g(z) < g(a) = f(z), soit f(z) < f(z)
ce qui est absurde.
•
COROLLAIRE 3.22. - Tout sous-ensemble A d'un ensemble bien ordonné E
est isomorphe à un segment de E.
induite par f. Du point de vue des valeurs prises c'est f, mais l'ensemble
d'arrivée est Y. Cette application i est injective. Par ailleurs, si i est
une injection de X dans Y, avec Y' = i(X), image de X, l'application
f : X ~ Y' définie par '<lx E X, f(x) = i(x) devient cette fois une
bijection de X sur une partie Y', de Y, donc X est équipotent à une
partie de Y.
La formula~ion est bizarre. On ne dit pas est une relation de bon ordre,
car... les cardinaux ne forment pas un ensemble. Mais on peut quand
même justifier la réflexivité, l'antisymétrie et la transitivité de ce lien lnf
entre cardinaux, puis établir que si E est un ensemble de cardinaux, alors
sur E, Inf est un bon ordre.
Réflexivité: card(X) Inf card(X) car idx : x ~ x est une injection de
X dans X.
Pour obtenir le reste, on va partir d'un ensemble E de cardinaux et
justifier que Inf induit un bon ordre sur E. On aura ainsi le résultat car,
pour la transitivité par exemple, ayant trois ensembles, ils sont indexés
par un ensemble à 3 éléments, (on ne sait pas compter mais ... 0, P(0),
(0, P(0)) sont 3 éléments différents) et dans les axiomes de départ de la
théorie, des objets mathématiques dont on sait qu'ils sont indexés par un
ensemble, forment un ensemble.
Donc nos 3 cardinaux peuvent être éléments d'un ensemble E de
cardinaux sur lequel on aura transitivité puisque Inf sera alors un bon
ordre.
On procéderait de même pour l'antisymétrie.
Soit donc E un ensemble de cardinaux, les x E E, peuvent être à la
fois des indices, (d'eux-même) et comme ce sont des ensembles, on peut
considérer l'ensemble A= LJx.
xEE
C'est une réunion d'ensembles indexés par les éléments d'un ensemble.
Par l'axiome de Zermelo, (2.44), l'ensemble A peut être muni d'un bon
Construction des entiers naturels 63
ordre noté :::;; et alors, toute partie de A est un segment pour ce bon ordre
(corollaire 3.22). Chaque cardinal x de E étant une partie de A est donc
un segment de A.
Soit x E E, on considère l'ensemble X des segments de A, qui sont
équipotents à x. Cet ensemble est non vide, (il contient x), c'est une partie
de l'ensemble S des segments de A, bien ordonné, donc (proposition 3.19),
S lui-même étant bien ordonné par inclusion, cette partie non vide X de
S admet un plus petit élément, noté f(x).
La relation induite par Inf sur E, encore notée Inf, se formule comme
suit:
(x Inf y) {=:::}(X et y sont dans E et x est équipotent
à une partie de y).
Nous allons voir que ceci équivaut à (x et y sont dans E et f(x) C f(y)).
D'abord, si f(x) C f(y), x est en bijection avec f(x), on peut injecter
f(x) dans f(y), vu l'inclusion, et f(y) et y sont en bijection: il y a bien
une injection de x dans y, donc x est équipotent à une partie de y.
Six est équipotent à une partie de y, il est équipotent à une partie de
f(y) qui est en bijection avec y. Mais f(x) et f(y) étant des éléments de
S bien ordonné par l'inclusion, sont comparables. Si on avait f(y) C f(x),
=/.
si z est la partie de f (y) qui est équipotente à x, le corollaire 3.22 nous
dit que z est isomorphe à un segment z' de l'ensemble bien ordonné f(y),
(bien ordonné car CA qui est l'est).
Or f(y) est lui-mê~e segment de A, donc z' est segment de A, (si
u E z', si v E A avec v :::;; u, comme u E f(y) segment de A, dans un
premier temps v E f(y), puis z' segment de f(y) donne v E z').
Mais alors x est équipotent à z' segment de A, donc z' E X ensemble
des segments équipotents à x, de plus petit élément, pour l'inclusion, f(x),
c'est que f(x) C z'. On aurait z' C f(y) C f(x) C z' c'est absurde vu
=/.
l'inclusion stricte. On ne peut donc pas supposer f(y) C f(x).
=/.
On a bien f(x) C f(y), donc sur E, x Inf y{=:::::} f(x) C f(y), ce qui
permet de vérifier que E est bien ordonné.
On vérifie d'abord que E est ordonné par la relation Inf.
Re:fte:xivité: f(x) C f(x) d'où x Inf x.
Transitivité: six Inf y et y Inf z c'est que f(x) C f(y) et f(y) C f(z)
d'où évidemment f(x) C f(z) soit x Inf z.
Antisymétrie:six Inf yety Inf x,c'estquef(x) C f(y)etf(y) C f(x)
d'où f(x) = f(y).
64 Algèbre
C'est un bon ordre : soit B une partie non vide de E, les f(b) pour
b E B forment un partie non vide f(B) de l'ensemble S bien ordonné
par inclusion, des segments de A, soit m le plus petit élément de f(B),
il existe bo dans B tel que m = f(bo), (définition d'une image), et alors,
'Vb E B, comme f(bo) C f(b) on a bien bo Inf b: on a trouvé un plus petit
élément bo de B. •
COROLLAIRE 3.25. - Etant donné deux ensembles, l'un est équipotent à une
partie de l'autre.
ai = card(ai) ~ a= card(E).
Mais comme c majore les ai> c est dans G, et b étant le plus petit
élément de G, on ab~ c. Le deuxième cas est exclu.
Finalement tout autre majorant des ai majore b qui est bien unique
à vérifier cela car si un autre b1 convient, on aura b' ~ b et b ~ b' d'où
b = b' par antisymétrie. •
66 Algèbre
PROPOSITION 3.31. - Pour qu'un cardinal a soit fini il faut et il suffit que
a + 1 soit fini.
COROLLAIRE 3.36. - Si X est une partie finie d'un ensemble fini E, avec
X -:f. E, on a card(X) < card(E).
3.37. La récurrence
En effet, dans le cas contraire, il existe des entiers ni tels que P(ni)
soit faux.
Les entiers n ::::; ni forment un ensemble, comme on l'a vu en 3.29.
Donc les n :::;; ni, tels que P(n) soit fausse forment un ensemble E, de
cardinaux; E est non vide totalement ordonné, (proposition 3.24), donc il
admet un plus petit élément, no et no# 0 puisque P(O) vraie, et no E E
donc P(no) est fausse.
Mais alors, (Proposition 3.32) il existe un unique n 0 tel que no =
0 0 0)
n + 1, on a n < no et pourtant P(n fausse sinon P(n + 1) serait 0
0
vraie d'après l'hypothèse de récurrence. On aurait donc n E E et n < no0
avec no plus petit élément de E: c'est absurde. Donc il n'existe pas d'entier
ni tel que P(ni) soit fausse, autrement dit, pour tout entier n, P(n) est
vr~. •
On définit R par
.
pour l'addition.
Ce sont les seuls cardinaux réguliers car a non entier par définition
vérifie a = a + 1 soit a + 0 = a + 1 : si a était régulier on aurait 0 = 1 ce
~~~
Remarque. On ne sait pas pour l'instant s'il y a des cardinaux non entiers :
leur existence est du domaine de l'axiome.
70 Algèbre
3.43. On désigne par N l'ensemble ces entiers, dont l'existence est axioma-
tique, on note No, (alepho) son cardinal.
[a,n + 1] = [a,n] U {n + 1}
d'où, comme ces deux ensembles sont disjoints, (ensembles car l'un est un
singleton et l'autre une partie de l'ensemble des cardinaux::;; n, n'oublions
pas que la relation x ::;; b est collectivisante en x, si b est un cardinal), on
a:
(n - a)+ 1 = c + 1 = d = (n + 1) - a
et card([a, n + 1]) = ((n + 1) - a)+ 1
la propriété P(n + 1) est vraie.
•
Attention, à ce stade du jeux, les propriétés de la soustraction ne sont
pas connues.
est entier comme somme de 2 entiers, car S(2) vraie et Lai entier
iEJ
d'après l'hypothèse de récurrence.
Finalement S(n) est vraie pour tout n, puisqu'on vient de justifier
S(n + 1) vraie.
Pour le produit on note P(n) : «le produit des (ai)iEJ avec card I = n,
les ai entiers, est un entier. »
On justifie P(2) vraie. Il faut montrer que a et b entier::::} ab entier.
On procède par récurrence sur b en introduisant la propriété S(n);
« pour tout entier a, an est un entier. »
Si b = 0, aO = 0 ei;;t entier donc S(O) vraie.
Construction des entiers naturels 73
qui est entier comme produit de 2 entiers car P(2) est vraie et II aj est
. iEJ
entier par hypothèse de récurrence. D'où P(n + 1) vraie.
On a bien prouvé que les entiers naturels s'additionnent et se multi-
plient entre eux : leur ensemble N est stable par + et x. •
0 1 2 n
N
(n- 2,2)
(n - 1, 1)
n (n, 0)
n(n + 1)
cp((k,n-k))= 2 +k, pourk=O,l, ... ,n
~ (n + l)(n + 2) _ 1 (n + l)(n + 2)
cp (( u, V )) .._, 2 < 2
n'(n' + 1)
-.~.;:: 2 carn+l~n'
"<:
comme E, ce n'est pas un segment distinct de N, c'est donc N qui est alors
en bijection avec E; dans le 2e cas l'isomorphisme de N sur un segment
de E est une bijection de N sur une partie de E dans les deux cas on a
une bijection de N sur une partie de E.
Donc No = card(N) :::; card(E) pour tout ensemble E de cardinal
infini : No est le « plus petit infini. » •
((X, \li) :::; (X', w')) {::::::::}((X c X') et (w' prolonge \li)).
Il est facile de vérifier que l'on a une relation d'ordre (i.e. réflexive,
antisymétique et transitive). M est inductif pour cet ordre, (voir 2.41).
Nous devons justifier que, si C est une partie de M totalement
ordonnée (ou chaine), il existe dans M, un majorant de cette partie.
Notons, par commodité, C = (Xi, Wi)iEI cette chaîne de M. On pose
X = u
iEl
xi et on veut définir une bijection de X sur X X X.
b ~ 2b ~ 3b ~ Nob ~ b2 avec b2 = b,
on a donc:
a= card(E) ~ b + b = 2b = b, soit a~ b
78 Algèbre
ba ~ a · a = a 2 = a, (Proposition 3.50).
de a dans b x a est une injection d'où a ~ ba. On obtient bien l'égalité des
cardinaux ba =a= sup(a, b). •
EXERCICES
2. Soit pi, ... ,pk, ... la suite des nombres premiers consécutifs. Mon-
trer que la suite (Pk) kEN est infinie. La suite uk = Pk -Pk- l est-elle
bornée?
9. Montrer que 1 +
1
"2 + ... + n1 n'est jamais un entier, pour n E N,
n ~ 2.
SOLUTIONS
2. Soit P l'ensemble des nombres premiers. S'il est fini, on les indexe en
croissant: P = {p1,p2, ... ,pn}.
Soit N = PIP2 ... Pn + 1. On a N > Pn donc N n'est pas premier, mais
alors c'est un produit de nombres premiers qui sont dans P donc il existe
Pi E P qui divise N d'où Pi divise 1 : absurde.
Soit ensuite (n + 1)! + 2, (n + 1)! + 3, .. ., (n + 1)! + n + 1. Onan entiers
consécutifs non premiers, car pour 2 ~ i ~ n + 1, (n + 1)! + i est divisible
pari et non égal à i.
Si Pk = sup{nombres premiers< (n + 1)! + 2}
et Pk+I = inf{nombres premiers> (n + 1)! + (n + 1)}
= (l + pa+l + kpa+2)p
= l + p(pa+l + kpa+2)
p
+ L:: c;(p0t.+l + kpa+2t. ,
r=2
r
Pour r ~ 2, c; est divisible par p, (pa+l +kpa+ 2 par p 2a+ 2 donc chaque
r
c; (pa+l + kpa+ 2 par p 2a+ 3 , et a fortiori par pa+ 3 . On a donc
d'où
T'T~ (: : : .. : l} -
TtT = diag(c1 - a, c2 - a, ... , Cn - a)+
( ~ . ~a ~a:)
et avec le vecteur colonne Y des Yi, i = 1, ... , n, on a
n
tY(TtT)Y = L(Ci - a)yf + a(y1 + Y2 + · · · + Yn) 2.
i=l
n
Si a= 0, il reste tY(TtT)Y = LCiYT, si c'est nul c'est que chaque Yi
i=l
est nul, (on a les Ci ;;:: 1). Si a =/= 0, on ne peut pas avoir Ci = a = Cj pour
i =/= j car alors cardUi = card(Ui n Uj) = cardUj d'où [/i = Uj. ce qui
est exclu. Donc
tY(TtT)Y = 0 {::::::::} Yl + Y2 + ... + Yn = 0
Ceci étant vrai pour tout x entier non divisible par p, on passe à l'inf, d'où
et ceci pour tout entier y = x-p, non divisible par p, et supérieur à c-p =1:
on passe à l'inf par rapport à ces y, d'où
On a donc
f(pm-l) = (m - l)f(p),
.
Sion d'ecompose a1ors un ent•ier a, non nu,
1 en a= p "' 1 °'k , P1, ... ,Pk
1 .. . pk
k
étant premiers, on a facilement f (a) = L f (p~i) puisque les p~i sont
i=l
k
premiers 2 à 2, puis f(a) = L aif(pi); formule à partir de laquelle il est
i=l
facile de justifier que, pour (a, b) E N* 2 ,
Un=
1
1 + -2
1
+-3 + ... + -n
1
= L::-.-
n n!
3n. 1
j=l
n
= ~ '°'n!
1 L., ..
n. J
j=l
Puis, pour j ~ n, comme j divise n!, c'est que Aj, impair, divise A2P, donc
que Âj divise A; et pour j = 2q, on a A2q = 1, (et a2q = q). On isole ce
terme, d'où
1
Un= A·2P
1
Un= A2q
on aurait 8p + 7 = 4(q2 + q + r 2 + r + s2 + s) + 3
d'où 8p + 4 = 4[q(q + 1) + r(r + 1) + s(s + 1)].
Comme q(q + 1), r(r + 1) et s(s + 1) sont pairs, on aurait 4 divisibles par
8 : c'est absurde. Donc n ne s'écrit pas sous la forme x 2 + y 2 + z 2 .
CHAPITRE 4
Groupes, construction de 1
1. Définitions
Uélément neutre de H est (ei, e2) et l'inverse de (x1, x2) est (x~, x2) avec
x~ et x2 inverses de x1 et x2 dans G1 et G2.
1) V(x, y) E 8 2 , x *y E S; (stabilité)
2) e ES;
3) Vx E S, x- 1 E S.
Groupes, construction de 7L. 89
THÉORÈME 4.11. - Soit X une partie non vide d'un groupe G, noté
multiplicativement. Le sous-groupe engendré par X est l'ensemble des
'' . t x °'
e'l'emen t s qui. secrwen 1 1 x °' °'n ; avec n E "''*
2 2 ... Xn •~ , l es Xi E X , les
ai E 7!...
DÉFINITION 4.13. - Un groupe G est dit monogène s'il est engendré par un
seul élément; il est dit cyclique s'il est monogène et de cardinal fini.
2. Morphismes de groupes
d'où
Soit de même H' sous-groupe de G', et cp- 1 (H') = {xEG; cp(x) EH'}.
On a cp(e) = e' EH' donc e E cp- 1 (H') qui est non vide; puis six et y
sont dans cp- 1 (H'), on aura cp(xy- 1 ) = cp(x)(cp(y))- 1 avec cp(x) et cp(y)
dans H' sous-groupe, donc cp(x) (cp(y))- 1 E H', d'où xy- 1 E cp- 1 (H')
puisque cp(x)cp(y)- 1 = cp(x)cp(y- 1 ) = cp(xy- 1 ), (voir 4.15). •
Ona:
xy- 1 E Kercp {::::::::} 3h E Kercp, xy- 1 =h
{::::::::} 3h E Ker cp, x = h · y;
et y- 1 x E Kercp {::::::::} 3h1 E Kercp, y- 1 x = h 1 {::} x = yh1 •
"<
On note y· Kercp = {yh, h E Kercp} et Kercp ·y= {hy, h E Kercp}.
Avec cette notation, on a ici x équivalent à y, soit x dans la classe
d'équivalence de y
{::::::::} x E y · Ker cp
{::::::::} x E (Ker cp) ·y,
ce qui implique que y · Ker cp et Ker cp · y sont des parties de G égales.
Si le groupe G n'est pas commutatif, cette égalité n'est pas évidente
et conduit à la définition suivante :
soit xx"- 1 E H, c'est-à-dire x'Rx". Nous avons donc justifié que 'Rest
une relation d'équivalence.
Il faut remarquer que l'hypothèse sous-groupe distingué n'a pas servi,
c'est pour mettre une structure de groupe sur l'ensemble quotient que l'on
va s'en servir.
Les classes d'équivalence sont les parties distinctes du type H x car
x''Rx {::::::::} x'x- 1 EH{::::::::} x' E Hx: la classe d'équivalence de x et
Hx = {hx;h EH}.
4.24. Une remarque très utile. Pour vérifier qu'un morphisme cp d'un
groupe G dans un groupe G' est injectif il suffit de vérifier que son noyau
est réduit à l'élément neutre de G.
soit
cp(x)cp(y- 1 ) = cp(xy- 1) = e' {::::::::} xy- 1 E Kercp = {e}
{::::::::} xy- 1 = e
{::::::::} (xy-1 )y = Y
{::::::::} X = y.
4.27. V( a, b, x) E D 3 , ax = bx ::::} a = b.
On parlerait de simplification à gauche si on avait, V( a, b, x) E D 3 ,
xa = xb ::::} a = b. Dans le cas d'un demi-groupe abélien on parlera de
règle de simplification sans préciser le côté.
soit encore
•
Soit l'ensemble quotient G = & /'R. Il est muni d'une loi de composition
interne car l'équivalence n est compatible avec la loi · sur&.
En effet, si (a, b) 'R (a1, b1) et (a', b') 'R (ai, bi) c'est que l'on a ab1 =
ba1 et a'bi = b' ai, (définition de 'R), mais alors (a, b) · (a', b') et (a1, bi) ·
(ai,bi), qui sont les couples (aa 1 ,bb1 ) et (a1ai,b1bi) sont éqriivalents
aussi car en utilisant la commutativité et l'associativité de la loi de
composition, on a :
aa'b1bi = (ab1)(a'bi)
= (ba1)(b'ai)
= (bb1 )(a1aD
X· 1 = classe(amo, bmo)
et on a
D ~ DcG
Je
~cG'
uv = O(a)(O(b))- 1 0(c)(O)(d))- 1
= O(a)O(c)(O(d)O(b))- 1
= O(ac)(O(db))- 1 (}morphisme de demi-groupe.
Comme ac E D et db E D, on a uv E G".
On a donc G" non vide, stable par passage à l'inverse et par produit :
c'est un sous-groupe de G'; de plus ~ C G" car 'Va E D, O(a) =
O(a2 )(0(a))- 1 E G".
Il existe un isomorphisme de G sur G"
En effet, soit X un élément de G, classe d'équivalence représentée par
(a, b), ou par (a', b1 ) avec (a, b) R (a', b') : on a ab'= ba'.
Groupes, construction de l 103
On a alors
()(ab') = ()(a)()(b') = ()(ba') = ()(b)()(a')
d'où
(()(b) )- 1 ()( a )()(b')( ()(b') )- 1 = (()(b) )- 1e(b )()(a') (e(b'))- 1 ,
111(X) = e(a)()(b)- 1
si (a, b) E X, ce qui est licite puisqu'indépendant du choix du représentant
(a, b) de X.
111 est un isomorphisme de G sur G".
On a d'abord 111 morphisme car soient X et X' de G, avec (a, b) EX
et (a', b') EX'. Comme XX'= classe(aa', bb'), on a
alors que
111(XX') = 111(X)111(X').
On peut donc dire que tout groupe abélien G' contenant un demi-
groupe isomorphe à D contient aussi un sous-groupe isomorphe au groupe
104 Algèbre
symétrisé de D qui a été construit. C'est en ce sens que Gest le plus petit
groupe abélien contenant un demi-groupe isomorphe à D.
Ceci achève la justification du Théorème 4.28, théorème que nous allons
appliquer pour construire 7L. à partir de N.
4. Construction de 7L.
donc que
Groupes, construction de 7L. 107
Pour récupérer le 1er membre, on multiplie par CD par a', (d'où aa1 ), et
aussi par b1 pour avoir bb1, puis ® par ai et bi, on ajoute; il vient :
positif. On vient d'établir la règle des signes, d'où l'on déduit la stabilité
de l'ordre par produit des entiers positifs :
Sous-groupes de l
THÉORÈME 4.42. - Les sous-groupes de l sont exactement les parties du
type pl= {px; x El} avec p dans 1\1.
D'abord, si p est fixé dans 1\1, pl est bien un sous-groupe additif del
car non-vide, (0 = p · 0 E pl), et si Yl = px1 et Y2 = px2 sont dans pl,
no= 0 est exclu car on n'a pas Op> x), c'est donc que q·p ~ x < q·p+p.
Si on pose x = qp + r la double inégalité qp ~ qp + r < qp + p équivaut
à Ü ~ r <pet, pour X~ Ü, on a trouvé un couple (q, r) de l 2 tel que
x = qp + r avec 0 ~ r < p.
x = qp + r avec 0 ~ r < p.
Enfin, un tel couple est unique, pour x et p donnés, car si on avait
x = qp + r avec 0 ~ r < pet x = q'p + r', avec 0 ~ r' < p l'égalité
qp + r = q'p + r', avec q =f q', par exemple q > q', conduit à
(on a p > 0 et on applique 4.41) alors que r' - r ~ r' < p: c'est absurde
donc q = q' et alors r = r 1 •
On vient ainsi de justifier la division euclidienne dans l :
L'application
est un morphisme de groupes de (7L, +) dans (G, ·),son noyau est Ker cp =
{ n; an = e} et le premier théorème d'isomorphisme (4.23), nous dit que
cp(7L) '.:::'. 7L/Ker cp.
Or G étant monogène, tout g de G est du type an pour un n de 7L donc
cp est surjective, et comme Ker cp sous-groupe de 7L est du type p7L on a
G '.:::'. 7L/p7L. On a alors
- soit p = 0, ({::} Kercp = {O} {::} cp injective{::} cp bijective car on vient
de voir que cp est surjective);
- soit p > 0 et alors G '.:::'. 7L/p7L admet p éléments distincts. On a le
5. Groupe symétrique
On note (
1 2 3 n ) une permutation.
a(l) a(2) a(3) . . . a(n)
Soient alors, si n = 3 les permutations
(~ ~)
2
et (}''(12 2 3)
(}'
3 1 3
on a a o a' ( ~ 2
1
~), u' u uou 1
car 1 i---+ 2 i---+ 3 donc 1 i---+3, ...
et a' o a ( ~ 2
3 ~) donc a o a' =f:. a' o a.
En effet
~),
k ( 1 2 n-k n-k+l
'Y = k+l k+2 n 1
donc l'inverse est
-k ( 1 2 k k+l k+2
'Y = n-k+l n-k+2 n 1 2 n:k)'
114 Algèbre
Puis Î-k(k + 1) = 1 11 2
2 i: k +2
-k Ti k
et k +2 '"Y,,,.. 2 ~2 1 ~ k + 1,
finalement, Îk o Ti,2 o Î-k est bien la transposition 1k+I,k+2· Comme
tout élément de 6n est un produit calculé à partir des 'Ii,i+l• c'en est un
calculé avec 'Y et Ti ,2.
Il est clair que, si n > 2, il n'y a pas unicité d'un système générateur
irréductible de 6n. ni même unicité du nombre d'éléments d'un tel
système.
Pour l'étude des déterminants on a encore besoin d'une autre notion.
a(i) - a(j)
éu = II i-j
a(i) - a(j)
éu = II i-j
(i,j) E {paires de 2 éléments de { 1, ... , n}}
Comme a est une permutation de {1, 2, ... , n} les paires {a(i), a(j)}
redonnent les paires de { 1, ... , n}. Mais en gardant l'indexation 1 ~ i <
j ~ n, si a(i) < a(j), la différence a(i) - a(j) figure au dénominateur,
sinon c'est -(a(i)-a(j)). Donc les facteurs a(i)-a(j) figurent, au signe
près, au dénominateur.
En fait on a êu = (-l)n" où nu est le nombre de paires {i,j}
distinctes telles que i <jet a(i) > a(j).
On dit encore que 2 entiers u et v de { 1, ... , n} présentent une
. . ul
inversion si et se ement si
a(u)-a(v)
< 0 et dans ce cas, en posant
u-v
i = inf{u,v} et j = sup{u,v} on aurai <jet a(i) > a(j) donc la
Groupes, construction de 7L 115
X 1 -1
1 1 -1
-1 -1 1
Le deuxième produit vaut €(3 (définition 4.52), mais le premier est égal
à la signature éa de a, car P étant une permutation de {1, ... , n }, les
paires {P(i),P(j)} pour toutes les paires {i,j} de {1, ... ,n} redonnent
exactement toutes ces paires dans un autre ordre.
On a donc €ao(3 = €a€(3, soit encore l'application a ~ éa est un
morphisme de Sn dans {-1, 1}.
•
COROLLAIRE 4.54. - La signature € 17 est encore égale ( -1 )P" où p 17 est le
nombre de transpositions intervenant dans une décomposition de a.
n!
REMARQUE 4.55.bis - An admet 2 éléments, (si n ~ 2) car d'après le
théorème 4.23, on a {-1, 1} isomorphe au groupe quotient 6n/ An, donc
6n/ An admet 2 éléments, ou encore 2 classes d'équivalence, qui sont, en
tant que parties de 6n, An d'une part et T ·An, avec T transposition.
Or l'application (} : h ~ T · h de An sur T · An est une bijection car
six ET· An, 3h E An tel que x =Th= O(h), c'est h = T- 1x; et si on
a Th1 = Th2, en simplifiant par T on a h1 = h2, d'où (} bijective. Donc
card(An) = card(T ·An), et comme An et T ·An .forment une partition
de l'ensemble 6n·, on a
n! = card6n = 2 · cardAn. •
Groupes, construction del 117
8
Or h.J!.h ·y est une bijection de H sur Y = H ·y, comme on l'a justifié en
4.57.
En fait, Ôy est la translation à droite par y dans le groupe G.
On a donc ordre(H) = cardH = cardY, ceci quelque soit la classe
d'équivalence de l'ensemble quotient G/RH.
Comme les classes d'équivalence forment une partition de G, on a
finalement card G = (nombre de classes) x cardinal de H d'où card(H)
divise card(G). •
4.66. La relation 'R définie dans Epar (x'Ry) ~ (3a E G,y =a· x)
est une équivalence. En effet, elle est :
réflexive : puisque x = e · x, d'où x 'R x;
symétrique : si on a x 'R y, avec a dans G tel que y = a · x on aura
a-1. y= a- 1 ·(a· x) = (a- 1a) · x = e · x = x d'où y'Rx;
transitive : si on a x 'R y et y 'R z, avec a et b dans G tels que y = a · x
et z = b ·y on aura z = b ·(a· x) = (ba) · x d'où x'Rz.
La classe de x modulo 'R étant l'ensemble des a· x, pour tout a de G,
c'est l'orbite de x, donc les orbites forment une partition de E.
Quelques exemples
Enfin tout ce qui précède s'applique dans le cadre des espaces affines.
On s'est occupé, quand x est fixé et a varie dans G, des éléments a· x. On
peut cette fois s'intéresser aux éléments laissant fixe un point de E.
THÉORÈME 4. 73. - Soit un groupe G opérant sur un ensemble E. Pour x
fixé dans E, l'ensemble Gx des a de G laissant x fixe forment un sous-
groupe de G, appelé groupe d'isotropie de x suivant G.
Puisque les orbites forment une partition, et que pour Xi choisi dans
une orbite on a card(orbite) = G: Gxi' le résultat a été justifié ci-des-
~
EXERCICES
9. On suppose que G = {A1, A2, ... , Ap} est une partie de Mn(C)
ayant une structure de groupe pour le produit.
. p
Montrer que trace ( L Ai) est un entier divisible par p.
i=l
10. Montrer que dans le groupe symétrique d'ordre n, Sn, (avec n ~ 3),
toute permutation paire est produit de cycles d'ordre 3.
124 Algèbre
SOLUTIONS
Dans z;2nz, les éléments associés aux a impairs sont donc inversibles,
(d'inverse a< 2n- 2- 1 li, alors que b pair n'est pas inversible.
En effet, soit b pair avec 0 < b < 2n, on écrit b = 2r c avec c impair, alors
forcément r < n et 2n-r · 2r c = 0 dans z;2nz : b est diviseur de O.
Il y a donc exactement~· 2n = 2n-l éléments inversibles dans Z/2nz. Or
sin ;;:: 3, si a est impair, comme a< 2n- 2 ) = 1 dans Z/2nz le groupe cyclique
engendré par a n'a pas 2n-l éléments: pour n ;;:: 3 le groupe des éléments
inversibles de z;2nz n'est pas cyclique.
Pour n = 2, dans Z/4Z, on a le groupe {î, 3} à 2 éléments non cyclique,
-2 - -
(1 = 1 et 3 = 1). Il n'y a que pour n = 1 que le groupe des éléments
inversibles de Z/2Z soit cyclique.
2. On a toujours Ker 4> C Ker 4> 2 et lm 4> 2 C lm 4>, ainsi que les isomor-
phismes G /Ker 4> ~ 4> (E) et G /Ker 4> 2 ~ 4> 2 (E), (premier théorème
d'isomorphisme (Théorème 4.23).
Si Ker 4> = Ker 4> 2 , on a donc 4> (E) et 4> 2 (E) sous-groupes finis de G,
isomorphes, avec 4> 2 (E) C 4>(E) d'où l'égalité 4>(E) = 4> 2 (E).
Si 4> ( E) = 4> 2 ( E), les groupes quotients G /Ker 4> et G / ker 4> 2 ont le
même nombre d'éléments donc
cardG/card(Ker4>) = cardG/card(Ker4> 2) d'où Ker4> et Ker4> 2 de
même cardinal fini, avec Ker 4> C Ker 4> 2 et l'égalité Ker 4> = Ker 4> 2 .
3. Dans Z/20Z, x =a est inversible s'il existe y = b tel que ab= 1(20), soit s'il
existe b et q dans l tels que : ab+ 20q = 1, ce qui équivaut, (Bézout), à avoir
a et 20 premiers entre eux, d'où le groupe G = {1, 3, 7, 9, 11, 13, 17, 19},
(on note 1, 3, ... pour Î, 3, ... ).L'élément 3 engendre le sous-grou~ cyclique
H = {3, 9, 7, 1}, l'élément 19 engendre le groupe cyclique K = {19, l}.
L'application f) :H X Hf-+ G
(x,y) ~X· y
est un morphisme du groupe produit H X K dans G, injectif car xy
x'y' => x'- 1 x = y'y- 1 E H n K = {1} d'où x = x' et y = y'.
Groupes, construction de Z 125
i=l
j
= Lm~jm(ei)-
i=l
Yl = m11x1 + ...
Y2 = m22x2 + ...
{
Y=MX{:} :
Yn-1 = mn-1,n-lXn-l + mn-1,nXn
Yn = mnnXn
8. On vérifie comme au 1) du n°7 que Na(S) est non vide, stable par produit
et passage à l'inverse. ·
Soit A = { x S x- 1 ; x E G} l'ensemble des conjugués de S et cp : G -v-t A
l'application x -v-t x S x- 1 .
Ona
10. Soit un cycle d'ordre 3, 17 : i < j < k donnant j, k, i : c'est une permutation
paire, (i,j) donne (j',k): pas d'inversion, mais (i,k) et (j,k) présentent
une inversion, donc des cycles d'ordre 3 ne peuvent engendrer que des
éléments de signature 1.
Soit s une permutation d'ordre pair : c'est un produit d'un nombre pair de
transpositions et il suffit de prouver qu'un produit de deux transpositions
est un produit de cycles d'ordre 3. D'abord, pour toute transposition T, on a
7 2 = 173 si 17 est un cycle d'ordre 3.
Soient alors T et T' deux transpositions distinctes. On a 2 cas suivant
qu'elles ont un élément commun ou non.
1er cas : Tet T' sont respectivement les transpositions de i, j, k avec j en
commun. Supposons i < j < k, T = Ti,j et T' = 'T;,k·
On a T' o T: (i,j, k):!.....(j, i, k)~(k, i,j).
2e cas: Tet T' portent sur des éléments distincts i et j pour T, k et l pour
T'. On a, a priori trois dispositions possibles :
i<j<k<l j i<k<j<l j i<k<l<j
Groupes, construction de l 129
<1' u'
(i, k, l, j)-(l, k, j, i)-(j, l, k, i)
donc T 1 o T = u' o u.
On a bien le résultat.
CHAPITRE 5
1. Définitions
identité qui a fait les délices ou les cauchemars de bien des générations.
De même, dans A commutatif, on a la relation
5.6. (a+ b)n =an+ nan-lb + ... + C~an-kbk + ... + bn, n ~ 1 dite
n!
formule du binôme de Newton, avec C~ = k!(n _ k)!, et la convention
O! = 1.
Cette formule peut se justifier par récurrence, si on vérifie au préalable
l'égalité c~ = c~=~ + c~-1 pour n ~ 1 et k ~ 1.
De même x(a) = x(a-b+b) = x(a-b)+xb d'où x(a-b) = xa-xb,
formule valable dans un anneau, et qui conduit si a = b, à x · 0 = O.
De même on vérifie que (a - b)x = ax - bx, d'où, si a= b, Ox = O;
mais la propriété xy = 0, dans un anneau, n'implique pas x = 0 ou
y= O. En effet, si on prend l'anneau des applications de X dans l, et si
on suppose que X1 U X2 est une partition de X, (donc X1 # 0, X2 # 0,
X1 n X2 = 0 et X1 U X2 =X) on définit fi et f2 de X dans l par:
DÉFINITION 5.9. - Un anneau A est dit intègre s'il n'a pas d'autres
diviseurs de 0, à droite ou à gauche, que O.
Ceci revient à dire que B est une partie stable de A pour les deux lois
de l'anneau, et munie par ces lois d'une structure d'anneau.
X= n B.
BEF
--- î i
A/Kercp ~ cp(A)
avec s : x -v-+ classe X de x dans A/Ker cp, surjection canonique qui est
un morphisme;
5.19. On appelle idéal principàl, (à gauche, droite, bilatère) tout idéal qui
peut être engendré par un seul élément. On se propose de caractériser les
éléments d'un tel idéal.
REMARQUE 5.21. - Dans le calcul qui vient d'être fait, il faut se rappeler
que si n E N*, na = a+ ... + a, (n fois), que Oa = 0 et que si -n E N*,
(-n)a = ((-a)+ (-a)+ ... + (-a)), (n fois), -a opposé de a dans le
groupe additif A.
Enfin, (a) g est le plus petit idéal à gauche contenant a ; car si I est
un idéal à gauche contenant a, forcément {na; n E "li..} est contenu dans
I qui est un sous-groupe additif de A; de même I étant permis à gauche,
\:lx E A, x ·a E J, et enfin la stabilité de I pour l'addition implique que
{na + x · a; n E "li.., x E A} est bien dans I. •
On justifierait de même le
na= (-a)+ (-a)+ ... + (-a)= ((-e) + ... + (-e)) ·a= (ne)· a;
et enfin Oa = 0 est du type 0 · a, ce qui simplifie les expressions en :
(a)g = {x ·a; x E A}; (a)d ={a· x; x E A} et
Cette forme, prise par les idéaux de 7L est fondamentale pour introduire
les notions de p.g.c.d; p.p.c.m, décomposition en facteurs premiers ... uti-
lisées en arithmétique, mais aussi dans les anneaux de polynômes. C'est
pourquoi on introduit les notions suivantes.
140 Algèbre
N' · x = 0, \lx E A, N' est multiple de l'ordre de chaque élément non nul,
donc N'est multiple du p.p.c.m. des ordres des éléments non nuls.
5.30. L'anneau 7L. lui, est de caractéristique nulle, mais p7L. étant un idéal,
(p E 1\1*), l'anneau 7L./p7L. est de caractéristique p, car en tant que groupe
additif, 7L./p7L. admet p éléments, donc a non nul de 7L./p7L. engendre un
groupe cyclique de cardinal v(a) qui divise card(7L./p7L.) (Théorème 4.59).
On a déjà p multiple de tous les ordres v( a) des éléments non nuls de
7L./p7L.. Puis l'élément 1de7L./p7L. engendre Z/p7L. en entier, car nl =classe
de n est la classe de 0 si et seulement si n - 0 est multiple de p, donc p
est bien.le plus petit entier q > 0 tel que ql =O. Donc 1 est d'ordre p: la
caractéristique de l'anneau devant être multiple de l'ordre de 1, c'est un
multiple de p d'où 7L./p7L. de caractéristique p. •
On pose A* =A- {O}, soit C =A x A*. Sur Con définit une relation
binaire n par ( (a, b) n (a'' b')) {::::::::} (ab' = ba').
I
Penser aux fractions: (~ = ~) {::::::::}(ab'= ba').
Par ailleurs, sur Con définit 2 lois. Une addition, +,et un produit, ·,
par
(toujours en pensant à ce que l'on fait sur les fractions usuelles), ce qui a
un sens car bbi =f 0 si b et bi le sont, donc bbi E A*.
ou encore à
(X + X') + X" = classe de( ab' + ba', bb') + classe( a", b")
=classe de((ab' + ba')b" + (bb')a", (bb 1 )b11 )
=classe de(a(b'b") + b(a'b" + b' a"), b(b'b"))
Anneaux, corps, construction de Q 145
(X+ X')+ X" =classe de( a, b) +classe de(a 1b11 + b1a", b1b11 )
' =X+ (X'+ X") ouf!
elle est commutative car aa' = a' a et bb1 = b1b donc X X' = X' X;
il y a distributivité :
(X+ X')· X"= classe( ab'+ ba', bb1 ) ·classe( a", b")
= classe [(ab' + ba1 ) a", (bb1 ) b11 ]
= classe (ab' a" + ba' a", bb' b11 )
5.89. 'v'(u, v) E C, 'v'w E A*, ((u, v) R (uw, vw)), (car A est commutatif et
c'est équivalent à u(vw) = v(uw)),
De même X' X" = classe( a' a", b'b") = classe(ba' a", bb'b")
mais alors
X X' +X' X" = classe( ab' a", bb1b11 ) + classe(ba' a", bb1b11 )
= classe((ab' a" bb1b11 + bb1b11 ba1a"), bb1b11 bb1b11 )
= classe( (ab' a" + ba' a")bb'b", bb'b" bb'b")
= classe (ab' a" + ba1a", bb1b"),
d'après la remarque 5.39, puisque bb'b" est dans A*.
On a donc justifié l'égalité (X+ X')X" =XX"+ X' X".
Tout élément admet un inverse, l'élément neutre pour le produit étant
1.
D'abord 1 neutre car
X· 1=1 ·X= classe( a, b) · classe(e, e)
= classe(ae, be)= classe( a, b) =X,
et si X =F 0, X a un inverse : si X = classe( a, b) on a a =F 0,
(sinon X = 0), alors x- 1 = classe(b, a) existe et xx- 1 = x- 1 x =
classe( ab, ba) = 1. •
Soit alors K' un autre corps, tel qu'il existe un morphisme <.p1 injectif
de A dans K', avec K' commutatif.
On cherche un morphisme(), injectif, de K dans K', tel que \:/x E A,
<.p1 (x) = B(<.p(x)).
Or si X= classe( a, b) =classe( a, e) · classe(e, b), avec e neutre pour
le produit dans A, on posera, comme <.p( a) = classe( a, e) :
B(classe(a, e)) = <.p1 (a) et B(classe(b, e)) = <.p1(b).
Comme (classe(b,e)) = (classe(e,b))- 1 , (inverse dans le corps K, car
b :/: 0) on posera B(classe(e, b)) = (<.p1 (b))- 1 ce qui a un sens car b # 0
dans A, <.p 1 morphisme injectif de A dans K' donc <.p1 ( b) # 0 dans le corps
K', donc l'inverse existe.
On pose donc, si X =classe( a, b), B(X) = <.p1 (a)( <.p1 (b))- 1 à condition
que ceci ait un sens, c'est-à-dire que ce soit indépendant du choix du
représentant (a, b) de la classe X.
Or si (a', b1) E X aussi, c'est que ab' = ba', d'où, <.p1 étant un
morphisme d'anneaux <.p1(a)<.p 1(b') = <.p1 (b)<.p1(a 1 ), avec là encore <.p1 (b) # 0
et <.p 1 ( b') # 0, (<.p1 injectif et b et b1 non nuls), donc ces éléments sont
inversibles dans le corps commutatif K', on a bien <.p 1(a)(<.p 1 (b))- 1 =
<.p1(a')( <.p 1(b') )- 1 .
()est un morphisme d'anneaux car, si (a, b) EX et (a', b') EX' on a
B(X +X')= <.p1(a)(<.p 1 (b))- 1 + <.p 1(a 1)(<.p1 (b 1 ))- 1 = B(X) + B(X').
De même
B(XX') = B(classe(aa', bb1 ))
= <.p1 ( aa') (<.p1(bb') )- 1
= <.p 1(a )<.p1 (a') · (<.p 1(b )<.p1 (b'))- 1
= <.p1 (a)<.p 1 (a 1 ) • ((<.p'(b'))- 1 (<.p'(b))- 1 )
= <.p1 (a) (<.p1 (b) )- 1 · <.p1 (a') (<.p1 (b'))- 1 , (K' commutatif),
= O(X)O(X').
148 Algèbre
THÉORÈME DE GAUSS 5.52. - Si p premier divise xy, (dans 7L) c'est que p
divise x ou p divise y.
EXERCICES
SOLUTIONS
3. S'il n'y en a qu'un nombre :fini, n, soit Pl , ... , Pn les nombres premiers
congrus à -1 modulo 4. Alors N = 4p1p2 ... Pn - 1 est congru à -1 modulo
4 et n'est divisible par aucun des Pi·
Si donc N se décompse en N =
qj sont tous distincts des Pi.
qr1 ... q<çr, (les qj nombres premiers) les
156 Algèbre
6. a) Comme 0 = Obh E /, 0 E h, puis six et y sont dans Ih, c'est que xbh
et ybh sont dans /, idéal donc sous-groupe additif d'où (x - y)bh E I :
alors (x - y) E Ih qui est sous-groupe additif; si x E h et z E A,
Anneaux, corps, construction de Q 157
avec u' a+ v'b = n, soit b(v' - koa) ~ n +a - ab> no+ a - ab= -b.
On simplifie par b, (> 0), d'où v' -koa > -1 soit v' -koa ~ 0: finalement
u' + kob et v' - koa sont dans N.
produits fk f k = 1fk1 2 sont dans l'idéal I et les sommes L 1fk1 2 sont dans
k=l
p
I, donc L lfkl 2 s'annule mais ceci n'est possible qu'en un xo zéro commun
k=l
de Ji, ... , fp. Donc, pour toute partie finie de I, les fonctions de cette partie
ont un zéro commun.
Soit alors A = n
N(f). Si A = 0, on a une intersection de fermés, (j
JE!
continue), vide, dans [O, 1] compact, donc il existe une intersection finie déjà
vide, soit une famille finie d'éléments de I sans zéro commun : c'est exclu.
Donc n
JE!
N(f) # 0: il y a un zéro commun aux f de I.
1 2 N-1
soitonax1 > N'x2 > N, ... ,XN-1 > ~,etcommeXN-1 ~ l,on
1
peut dire que dans ce cas, il existe k tel que Il - xkl ~ N' et k =1- O.
• · / 1
S1k>k,onprendb=k-k,a=E (km)
p -E (k'm)
pet
si k < k 1 , on prend les opposés d'où un couple (a, b) solution.
Espaces vectoriels
EXEMPLE 6.4. - Soient E1, ... , En. n espaces vectoriels sur le corps
commutatif K, en procédant par récurrence comme pour Kn, on définit
n
le produit cartésien E = E1 x E2 x ... x En encore noté E = II Ei,
i=l
dont les éléments sont les n-uplets X = (X1, ... , Xn), avec Vi = 1 ... n,
Xi E Ei·
Il est facile de vérifier que pour l'addition+ définie par
(X1, ... ,Xn) + (Y1, ... , Yn) = (X1 + Y1, ... ,Xi+ Yi, ... ,Xn + Yn)
E est un groupe additif, et qu'avec le produit
2. Sous-espaces vectoriels
Il est alors évident que F est un espace vectoriel sur K, les conditions
de la définition 6.1 étant vérifiées.
166 Algèbre
6.12. Critère pratique. Une partie F d'un espace vectoriel E sur K est
un sous-espace vectoriel de E si et seulement si
1) F =f. 0
2) \:/(X, Y) E F 2, \:/(À,µ) E K 2, ÀX +µY E F.
(F =f. 0) et ('t/(X, Y) E F 2 ,X - Y E F)
ce qui justifie déjà que Fest sous-groupe additif de E, (critère 4.5), puis
le 2) avec µ = 0 donne ('t/X E F)('t/À E K)(ÀX E F). On a bien F
sous-espace vectoriel de E.
Retour au cas des suites finies : F = { suites finies à valeurs dans K}
n'est pas vide, car u = 0, (telle que, 'tin E 1\1, Un = 0 est un élément de
F, puis si u et v sont dans F et À et µ dans le corps K, comme
'tin> d(u) on a Un= 0
et 'tin > d( v) on a Vn =0
Espaces vectoriels 167
6.13. En fait, les suites finies à valeurs dans K sont encore appelées
polynômes à coefficients dans K, si u est un polynôme non nul
il existe un entier d(u) tel que le terme ud(u) soit non nul et que
Vn > d(u), Un = 0 : cet entier est le degré du polynôme u, et au
lieu de noter (uo,u1, ... ,uct<J(u)>O,O, ... ,0, ... ) un polynôme, on le note
uo+u1X +u2X 2+ ... +unXn, pour des raisons exposées dans le chapitre
7 sur les polynômes.
On note également :
6.14. K[X] l'espace vectoriel des polynômes sur le corps K, espace appelé
à un riche avenir. Structurellement, c'est l'espace vectoriel des suites finies
à valeurs dans K.
n
Au passage, on a introduit le symbole L de sommation. Il faut bien
i=l
comprendre qu'il s'agit d'une somme d'un nombre fini de vecteurs.
THÉORÈME 6.19. - Soit une partie non vide A de E espace vectoriel sur le
corps K. Alors Vect(A) est l'ensemble des combinaisons linéaires formées
à partir des vecteurs de A.
3. Applications linéaires
(en utilisant les propriétés de calcul dans l'espace vectoriel F), soit encore
(af + f3g)(>..X +µY) = >..((af + f3g)(X)) + µ((af + f3g)(Y)), d'où la
linéarité de af + {3g, d'après 6.24.
Donc L(E, F) est non vide, stable par combinaisons linéaires, dans
l'espace vectoriel pE : c'est bien un espace vectoriel. •
V(X,Y) E E 2 , V(>..,µ) E K 2 ,
(go J)(>..X +µY) = g(f(>..X +µY))
= g(>..J(X) + µf(Y))
= >..g(f(X)) + µg(f(Y))
=>..(go f)(X) +µ(go f)(Y). •
174 Algèbre
D'abord GL(E) est non vide car idE : X ..-t X, application identité
est linéaire bijective, puis si I est bijective linéaire 1- 1 est aussi linéaire,
(Théorème 6.28), enfin si I et g sont linéaires bijectives, f o g- 1 est
aussi bijective et linéaire (Théorème 6.27). Uassociativité du produit de
composition permet de conclure à la structure de groupe. •
LEMME 6.36. - S'il existe p tel que Ker f P = Ker f P+ 1, alors Ker f P+ 1 =
Ker f P+ 2 . S'il existe q tel que lm fq = lm Jq+ 1, alors lm Jq+ 1 = lm Jq+ 2.
Ker JP0+ 2 = Ker f Po+3 ... et avant PO il n'y a pas d'égalité, d'où une
suite strictement croissante jusqu'au rang Po, puis stationnaire.
On procède de même pour les images.
2e point : Cette fois il faut prouver que Ker f k = Ker f k+I, or Ker f k C
Jk+I est toujours vrai, il reste une inclusion à justifier.
Soit x dans Ker jk+I, il faut «descendre d'un cran», c'est l'égalité
Ker Jk+ 1 = Ker Jk+ 2 qui le donnera. On considère donc y = Jk(x),
(qui doit être nul), on a y E lm fk = lm Jk+ 1 donc 3x' tel que
y= Jk+ 1(x'). Or f(fk(x)) = Jk+ 1(x) = 0 car x E Ker Jk+ 1 c'est aussi
= f(Jk+l(x')) = Jk+ 2(x') donc x' E Ker Jk+ 2 qui est, par hypothèse,
Ker Jk+ 1 : c'est que y = Jk+ 1(x') = 0, on a finalement justifié l'égalité
fk(x) =O.
178 Algèbre
on vérifie que f est surjective car l'image d'une base est une famille
génératrice, (Théorème 6.77), donc, Vk, lmfk = E, la suite des images
est stationnaire, mais il est facile de vérifier que :
Ker J0 = {O}, Ker f ={polynômes constants} puis
Ker f 2 = {polynômes 1er degré}, ... , Ker Jk+ 1 = {polynômes de degré
~ k} : il y a inclusions strictes pour les noyaux.
On vient de justifier le
si X E X et Y E Y.
Il est bon de se rappeler que X, classe de X est l'ensemble des vecteurs
X+ Y, W E F, encore noté {X}+ F, (c'est aussi ce qu'on appelle le
sous-espace affine de direction F passent par X). On peut alors établir
deux théorèmes d'isomorphismes, très utiles.
cp est bijective :
- injective car si cp(X) = 0, c'est qu'avec X dans X on a /(X) = 0,
soit X E Ker f qui est l'élément nul de l'espace quotient E/Ker f, d'où
X=O;
- surjective : soit Y dans le sous-espace f (E) de F, on est dans l'image
de f donc il existe X dans Etel que /(X)= Y d'où cp(classe de X)= Y .
•
On peut enfin remarquer que, si s est la surjection canonique de E sur
E /Ker f, qui à un vecteur X de E associe sa classe X dans E /Ker f, et
Espaces vectoriels 181
6.42. Le diagramme
E f
f----+ F
ls î i
E/Ker f ~ f(E)
est commutatif.
C'est ce qu'on appelle la décomposition canonique d'une application
linéaire. En effet si XE E, et si X= s(X) est sa classe d'équivalence on
a <p(s(X)) = f(X), considéré dans l'image de f(E), on l'injecte dans F
ce qui donne bien i o <p o s(X) = i(f(X)) = f(X) dans F cette fois. •
5. Sommes directes
E = Imp +Ker p.
THÉORÈME 6.51. - Soient Fi, F2, ... , Fn des sous-espaces d'un espace
vectoriel E sur un corps K, avec n ~ 2. Les conditions suivantes sont
équivalentes :
n
Xi-XI= L::cxj-Xj)
j=l
#1
qui est réduit à {O} par hypothèse donc Xi= XI et ce, pour chaque i: il
y a bien unicité de la décomposition.
n
Enfin 3) => 1) car si on a un vecteur X E Fin L Fj, ce vecteur X s'écrit
j=l
i#i
n
sous la forme X = L Xj, avec des Xj E Fj, d'où
j=l
j;éi
Dans cette définition, n est un entier naturel non nul. On dit encore
n
que ron a une combinaison linéaire nulle non triviale, z:::: oxi étant la
i=l
combinaison linéaire nulle triviale.
6.57. Si une famille (Xih.:;;i.:;;n est libre, on dit encore que les vecteurs
X 1, ... , Xn sont indépendants, sinon ils sont dits dépendants.
Espaces vectoriels 189
L'intérêt de cette notion, c'est que tout espace vectoriel non réduit à {O}
admet des bases, et que les bases permettent de décomposer de manière
unique chaque vecteur de E, et de caractériser les applications linéaires.
C'est ce que nous allons aborder dans ce qui suit. Mais d'abord, on justifie
deux résultats utiles dans les raisonnements.
p p
dans le corps K, tels que L ÀjYJ = 0, on a L ÀjYJ + 0 · Yp+l = 0:
j=l j=l
combinaison linéaire nulle non triviale.
p
a1,joX1 = YJo - L O!i,joXi,
i=2
p
X1 = (a1,j0 ) - 1 lj0 + L ( - (a1,j 0 )-
1 ai,jo)xi
i=2
p
Yj = a1,j(a1,j0 ) - 1lj0 + L(ai,j - a1,j(a1,j0 ) - 1 ai,j0 )Xi,
i=2
p+l
tous nuls tels que L Àj (}j - /31,j }j0 ) =0
j=l
#io
soit
p+l
En posant Àj0 =- L /31,jÀj, on a trouvé cette fois des (>..j)i..,;j..;p+l
j=l
#io
p+l
non tous nuls tels que L Àj }j = 0 : la famille est liée, ce qui achève la
j=l
démonstration.
•
Nous pouvons maintenant établir l'existence des bases dans les es-
paces vectoriels non réduits à {O}, en commençant par ce qu'on appelle
les espaces de dimension finie.
Dans tous les cas g C Vect(B), d'où E = VectÇ, plus petit sous-
espace vectoriel contenant g est contenu dans Vect(B). On a donc en fait
E C Vect B C E d'où E = Vect B : B est finalement partie libre et
génératrice de E, on a bien existence d'une base de E =f. {O}. •
Remarque: Il est logique d'exclure E = {O}, car la seule famille indexée
injectivement est {O}, qui est bien génératrice, mais pas libre.
vecteurs ils sont liés (Théorème 6.62), donc si .C est une partie libre de E,
card(.C) ~ n.
Soit A = {cardinaux des parties libres M avec .C c M C (.CuÇ) }. On
a un ensemble d'entiers non vide, (card .C E A) majorée par n dimension
de l'espace (toujours le Théorème 6.62), donc A admet un plus grand
élément p.
Soit Mo = .C U So une partie libre de cardinal p, avec So n .C = 0 et
So C Ç. Alors, pour tout X de Ç non dans (.CU So) on a l'inclusion stricte
.CUSo c(.CUSo)U{X} C .CUQ et comme .CUSoU{X} est de cardinalp+l,
#
cette partie est liée. Comme.CU So est libre c'est que X E Vect(.C U So)
d'après le théorème 6.61. Comme (.CUSo) C Vect(.CUSo) on a finalement
Ç C Vect(.C U So), donc E = Vect(Ç) C Vect(.C U So) car Vect(Ç) est
le plus petit sous-espace vectoriel de E contenant Ç et Vect(.C U So) en
est un. Comme tout se passe dans E, on a l'égalité E = Vect(.C U So) :
la partie libre Mo = .CU So est donc génératrice : c'est une base de E,
en tant que telle elle est de cardinal n, donc card(So) = n - r d'où le
résultat.
Ona
P n~
d'où
Or {Xi, ... , Xp, Y1, ... , Yn-p} est une famille libre : les .Ài et µj sont
tous nuls d'où T = O.
On a FnH = {O} et F+H = E donc E = FtfJH: on a bien trouvé
un supplémentaire H de F dans E. •
196 Algèbre
Tous ces résultats vont s'étendre sans difficulté aux espaces vectoriels
de dimension infinie. Pour cela il faut quelque chose qui remplace l'outil
suivant:
1) existence d'un entier maximum dans un ensemble non vide d'en-
tiers, majoré;
2) choix d'une partie de cardinal cet entier.
Cet outil sera l'axiome de Zorn, (voir 2.42), qui affirme l'existence d'un
élément maximal dans un ensemble inductif.
Le recours à cet axiome se comprend d'autant mieux que les propriétés
d'ordre sur les entiers sont liées à l'axiome de Zermelo, que le choix d'une
partie de cardinal, entier, connu, dépend de l'axiome du choix, et que nous
avons vu au chapitre 2 l'équivalence de ces trois axiomes.
THÉORÈME 6.73. - Soit E espace vectoriel non réduit à {O} sur un corps
K, toute partie libre .C est contenue dans une base; toute partie génératrice
contient une base, tout sous-espace F de E admet des supplémentaires.
Afin de s'assurer que la notion de base sert à quelque chose, il est bon
d'établir quelques propriétés utiles. La première c'est la décomposition
unique dans une base. On va également voir que les bases servent à
caractériser les applications linéaires.
THÉORÈME 6.75. - Soit B = (e)iEl une base d'un espace vectoriel E sur
le corps K. Pour chaque vecteur X de E il existe une et une seule famille
(xi)iEI de scalaires de K, presque tous nuls, telle que X = L Xiei·
iEl
avec en fait un nombre fini seulement de ÀXi + À1xi non nuls; on posera
donc
or (Yi)iEI est libre, donc les Xik sont tous nuls, et finalement X est nul :
on a u injective.
Donc u injective <===? (Yi)iEI libre.
On au surjective <===? (Yi)iEI génératrice, en effet
2:
(car si ik =/= i, Uik,ik envoie ej sur 0 et si ik = i, Uik,j envoie ej sur
cik, et comme les ih en nombre fini, qui restent sont distincts, et que
C = (ci)iE/ est une base de F, les Àk associés aux k tels que ik = i sont
nuls. En faisant cela pour tout i de {i1, i2, ... , in} on obtient finalement
Espaces vectoriels 205
[:t
j'=l
(Lxi,j'ui,j')l (ej)
iEL
= LXi,jUi,j(ej)
iEL
= L Xi,jé"i
iElj
= u(ej)·
n
La combinaison linéaire finie L L Xi,j'ui,j', d'une part et u d'autre
j'=l iEL
part donnent la même image de chaque vecteur ej de la base B de E :
elle coïncident d'après le théorème 6.77. On vient donc de vérifier que, si
dim(E) finie la famille des (ui,j)(i,j)ElxJ est une base de L(E,F) car
libre et génératrice. •
Remarque : Si dim E infinie, cette famille libre des (Ui,j) n'est jamais une
base, donc jamais génératrice, car chaque Ui,j envoyant toute la base B
206 Algèbre
sur 0 sauf 'ej sur éi une combinaison linéaire d'un nombre fini des Ui,j
envoie tous les vecteurs de B sur 0 sauf un nombre fini. Il en résulte que
par exemple l'application u envoyant chaque ej, (en nombre infini) sur un
éio fixé, (u existe d'après le Théorème 6.77, appliqué à la base B = (ej )jEJ
de E et la famille constante (}j)jEJ de F avec 'efj E J, Yj = éi 0 ), ne peut
pas être dans Vect((ui,j)(i,j)ElxJ).
Cas particulier de E et F tous les deux de dimension finie.
n
Car si X E E, X s'écrit dans la somme directe E = ffi Fi sous la
i=l
forme X= X1 + ... + Xn avec chaque Xi dans Fi= VectBi, donc Xi
est combinaison linéaire d'un nombre fini d'éléments de Bi> donc de B.
En sommant pour i variant de 1 à n, on obtient X combinaison linéaire
d'un nombre fini d'éléments de B. Il est clair que si i =F j, Bi n Bj = 0
n
Fj C L Fk) ce qui est exclu.
k#i
k=l
Best enfin partie libre de E, car si on a une combinaison d'un nombre
fini des éléments de B, nulle, soit X cette combinaison linéaire. On peut
noter
les ensembles d'indices li, ... , In étant disjoints, puis introduire les
parties finies suivantes :
et enfin
alors
6.90. Si f est un élément non nul du dual, son noyau est appelé hyperplan
de E. C'est un sous-espace de E dont les supplémentaires sont de dimension
1.
En effet, soit H = Ker f le noyau de f élément non nul du dual.
Le premier théorème d'isomorphisme (Théorème 6.41) nous dit que
E /Ker f est isomorphe à f (E). Mais f (E) est sous-espace vectoriel du
corps K, non réduit à {O} car f -;/:. 0, donc f(E) = K, (si on a À # 0
dans f(E), Vµ E K, µ = (À- 1 µ)À donc si le vecteur X de E est tel que
Espaces vectoriels 211
Orthogonalité
Donc c'est, pour f =f:. 0, traduire que X est dans l'hyperplan Ker f.
D'abord A..l non vide car la forme identiquement nulle annule tout
vecteur de A, donc est dans A ..l, puis A ..l stable par combinaison linéaire :
si f et g sont dans A..l, >. et µ dans le corps, alors VX E A on a
(>.f + µg)(X) = >.f(X) + µg(X) = 0 puisque /(X) et g(X) sont nuls.
Il est clair que si A C B, et si un hyperplan contient B, alors il
contient A donc les équations des hyperplans contenant B, sont parmi les
équations des hyperplans contenant A, soit B..l C A..l.
Enfin, pour un hyperplan (sous-espace vectoriel) contenir A équivaut
à contenir VectA d'où en passant aux équations A..l = (VectA)..l.
Soit <p E Im(tu), il existe 'l/; dans F* tel que <p = tu('l/;) = 'l/; ou donc,
VX E Keru, <p(X) = 'l/;(u(X)) = 1/;(0) = 0: on a bien <p E (Keru).l.
Réciproquement soit <p E (Ker u) .l, on veut l'écrire sous la forme <p =
tu('l/;) = 'l/; ou, avec 'l/; dans F*, c'est-à-dire factoriser u à travers <p or on
sait (Théorème 6.54), que c'est possible si et seulement si Ker u C Ker <p,
ce qui est le cas ici car VX E Ker u, <p( X) = 0, donc X E Ker <p. •
une forme coordonnéeµ non nulle en X, (lemme 6.104), doncµ~ H1- qui
est donc différent de E*. Il en résulte qu'avec H sous-espace vectoriel de
Eon a H1- = E* <=> H = {O}, et donc ici, que
6.108. Dans ce cas { ei, ... , e;;,} est la base duale de E*, mais il faut bien
noter qu'en dimension infinie, la famille des ( ei)iEI est libre mais non
génératrice.
Car si {ei, ... , ep} est une base de F, que l'on complète en B
{ei, ... , ep, ep+l, ... , en} base de E, avec B* base duale de E*, on a
n
<p = L Àiei E FJ. = (Vect(e1, ... , ep))J. si et seulement si pour tout
i=l
n
j ~ p, <p(ej) = 0 soit L Àiei(ej) =O.
i=l
n
IlnerestequeÀj = 0, Vj = 1, ... ,p,cequiéquivautà<p = L Àjej
j=p+l
donc pJ. = Vect( e;+l, ... , e~) est de dimension n - p.
•
Voyons, à titre d'exemple, comment la justification du Théorème 6.96,
2e partie est simplifiée, si E est de dimension finie, n.
On veut prouver que (FnG)J. = p1- +GJ.. On vérifie facilement que
p1- + GJ. c (F n G)J., (car (F n G) c F et (F n G) c G impliquent
pJ. c (F n G)J. et GJ. c (F n G)J. d'où (FJ. + GJ.) c (F n G)J. ).
Car sir= rangu, si {Y1, ... , Yr} est une base de u(E), si on choisit
Xi, ... , Xr dans E tels que u(Xi) = Yi, (i = 1, ... , r), la famille
{X1, ... , Xr} est libre, (si elle était liée, les images par u le seraient).
On complète en {Y1, ... , Yr, Z1, ... , Zp-r} base de F cette famille libre
des }i.
Soit B* = {Yt, ... , Y/, Zî, ... , z;_r} la base duale- de F*, le rang
de 1" est la dimension de l'espace vectoriel engendré par les 1"(Y/)
et les 1t(Zk). Or "tu(Z,1:) = Zk ou= 0 car pour tout X de E,
u(X) E Vect(Yi, ... , Yr) donc a sa coordonnée suivant Zk nulle,
Z'k(u(X)) = coordonnée de u(X) suivant Zk> d'après 6.109. Il reste
rang("tu) = dim(Vect("tu(Yi*), ... ,tu(Y/))), mais ces formes, égales à
Yi* ou, Y2* o u, ... , Y/ ou sont libres car si on a des scalaires >..1, ... , Àr
r
tels que L >..iYi* ou =0, en prenant l'image de Xj on trouve 0, or
i=l
Yi*(u(Xj)) = Yi*(}j) = 0 sauf si i = j, et Yj*(}j) = 1. Il reste Àj = 0,
ceci pour j = 1, ... , r.
Finalement "tu(F*) est bien de dimension r, d'où rang("tu) = r. •
On suppose u de rang finir, soit {Y1, ... , Yr} une base de u(E) et
des vecteurs (Xih~i~r de E tels que u(Xi) = }i. En considérant la
justification du théorème 6.111, on s'aperçoit qu'elle reste valable si Fest
de dimension finie : la dimension de E n'intervenant pas en fait.
Donc on suppose ici F de dimension infinie. On complète la famille
libre {Y1, ... , Yr} en f3 = {Yi, ... , Yr} U (Zj)jEJ• base de F (théorème
de la base incomplète), d'où, dans F*, la famille libre notée .C formée des
formes coordonnées (Yi*h~i~r et (Zj)jEJ qui envoient chacune toute la
base sur 0 sauf un vecteur d'image 1.
Cette famille libre, n'est pas une base de F*, (6.108) car F est de
dimension infinie mais il existe C famille libre de F* telle que .C U C soit
base de F*, là encore théorème de la base incomplète.
L'image "tu(F*) est alors engendrée par les images des vecteurs de
cette base.CU C = (Yi*h~i~r U (Zj)jEJ U C par 1".
On aura "tu(Zj) = 0 car c'est ZJ ou et 't/X E E, u(X) E u(E)
= Vect(Y1, ... , Yr ), donc a des coordonnées nulles suivant les Zj.
220 Algèbre
r
cp' = cp - L: cp(Yi)Yi*.
i=l
r p q
L YiYi* +L zia z;a +L tib cpzb = o,
i=l a=l b=l
r q p q
L (Yi - Ltlb'Plb(J'i))Yi* + L ZjaZJa + Ltlb'Plb = 0,
i=l b=l a=l b=l
Espaces vectoriels 221
(c'est affreux, mais il faut savoir s'accrocher, comme le fou à son pinceau).
q
En tout cas, Yi - L tlb 'Plb (Yi) est un scalaire, et là, c'est une combinaison
k=l
linéaire des vecteurs de la base C U C de F* donc les tlb sont nuls, les Zja
T
tels que 2.: .xi tu(Yi*) = o, en prenant l'image de xk choisi te1 que
i=l
u(Xk) = Yk, on a
Oui, cela surprend! Cela ne signifie pas que E* est une base de E*, ce
qui serait ridicule, mais qu'une base de E* est équipotente à E*, ce qui ne
l'empêche pas d'avoir «moins d'éléments» au sens intuitif du «moins»
qui dit qu'il y a «moins » d'entiers que de rationnels bien qu'il y en ait
« autant » puisque ces deux ensembles sont équipotents.
On comprend que la justification ne va pas être facile, et s'il y a encore
des lecteurs, qu'ils s'accrochent bien pour se plonger dans les délices des
infinis. A moins que, raisonnablement, ils passent à autre chose.
Comme une base B de E* est contenue dans E*, on a déjà dim(E*) =
cardB ~ card(E*), il suffit donc de justifier l'autre inégalité. On peut
considérer qu'une moitié du travail est faite, la plus petite.
Soit C = (ei)iEI une base de E. Comme une forme linéaire cp est
déterminée par les valeurs prises sur les ei, on a :
LEMME 6.115. - Soit I un ensemble, a(l), aC 2), ..., a(k) des applications
distinctes en nombre fini dans K. Alors il existe une partie J de cardinal
Espaces vectoriels 223
Rappelons que si
P(X1, ... ,Xn) =· . . xi11 xiz
UJl···Jn 2 ···
xin
n avec les sca-
(ji,jz, ... ,jn)ENn
laires Uji ... jn de K, indexés par 1\1*, presque tous nuls, et si le n-uplet
b(s) de K vaut b(s) = (bis), b~s), ... , b~)) on a
P(b(s)) = L Ujl···in (bis))ji (b~s))iz ... (b~))jn.
ji, ... ,jn
On justifie le lemme par récurrence sur k.
Si k = 2, on a b(l) f- b( 2 ) donc il existe un indice j dans {1, ... , n}
(1) (2) (2) ,
=f:. bj , le polynome P(Xi, ... , Xn) = Xj - bj s annule sur
A
tel que bj
le n-uplet b( 2 ) et pas sur b(l), car P(b( 1)) = b)1) - b}2) =f:. O.
224 Algèbre
LEMME 6.118. -Soit a dans KI, une application de I dans K, (on notera
Ôa l'application de A= K[S] dans K
ai la valeur prise par a en i. Soit
définie par Ôa(P) = P(a). La famille (ôa)aEKI est libre dans A*, dual
de A.
Un point pour comprendre, si tant est que cela soit encore possible!
Si Pest un polynôme de K[S], par rapport aux variables Xi 1 , . . . , Xir
en nombre fini, (les ik E J), P(a) désigne la valeur prise par P quand on
remplace les indéterminées xi1' ... ' xir par ai1' ... ' air.
Retour au lemme. Soient a< 1), a< 2 ), ... , a(k) des éléments distincts en
nombre fini de KI, on va prouver que les applications Ôa(P)• p = 1, ... , k,
sont des éléments indépendants de A*.
D'abord ce sont des éléments de A* dual de A car l'application qui
pour a fixé dans KI, associé P(a) au polynôme P variant dans A est
Espaces vectoriels 225
avec J = (i1, ... , ik) et fJJ(p1, ... ,Pk) le nombre entier associé par fJJ à
l'application i1 ~ p1; ... ; ik ~ Pk est une bijection de M' sur :F x N, vu
la caractérisation des monômes.
Or le cardinal de l'ensemble :F des parties finies de I, de cardinal
infini, est encore card(J). On a vu dans la justification du théorème
6.74, que si Ak est l'ensemble des parties de k éléments de J, on a
cardAk = cardJ, d'où une bijection <pk de Ak sur I d'où une, <p, de
:F sur N* x I, celle qui à la partie finie non vide J = {i1, ... , ik}
va associer le couple (k,<pk(J)). Donc :F et N* x I sont équipotents,
card(:F) = card(N*) x card(J) = card(J) d'après la proposition 3.52,
card(N*) étant le plus petit cardinal infini.
On a finalement card(M') = card(:F) x card(N) = card(J), et A et
E ont bien des bases équipotentes : ils sont isomorphes. •
Si u est un isomorphisme de E sur A, 1U en est un de A* sur
E* (théorème 6.107) qui sont donc isomorphes : E* et A* ont même
dimension, infinie.
Mais la famille ( (Ôa)aEKI) est libre dans A*, (lemme 6.118), donc
dimE* = dimA* ~ card((ôa)aEKI) = card(K1 ) et K 1 étant isomorphe
à E*, (lemme 6.114), ces 2 ensembles sont équipotents d'où l'inégalité
dim(E*) ~ card(E*) voulue, ce qui achève la justification du théorème
d'Erdos Kaplansky. On a bien, pour E de dimension infinie, E* de
dimension card(E*) aussi bizarre que cela paraisse. •
neutres des 2 lois, donc {O, 1}1 , ensemble des applications de I dans {O, 1}
s'injecte canoniquement dans K 1 , ensemble des applications de I dans K,
ce qui donne card(K1 ) ~ card( {O, 1}1 ).
Or on aurait pu établir, dans le chapitre sur les cardinaux, le théorème
suivant:
EXERCICES
SOLUTIONS
1. Comme Ker f ffi E' = E, f induit un isomorphisme de E' sur f(E). Soit
J' cet isomorphisme.
Si g existe, la condition Ker g = F' et l'égalité lm f ffi F' = F montre que
g induit un isomorphisme g1 de lm f sur lm g = E'.
De plus, 'Vx E lm/, l'égalité g(fg(x)) = g(x), avec g injective sur lm/,
implique f o g(x) = x sur lm/, soit comme g(x) E lmg = E' où!' est
bijective: g(x) = /- 1 (x) sur lm/.
Comme sur Kerg = F', on aura g(x) = 0, on a déterminé des conditions
devant être vérifiées par g sur 2 sous-espaces supplémentaires dans F d'où
l'unicité de g solution éventuelle.
On définit donc g par g(x) = 0 sur F', g = (f')- 1 sur lm/, d'où g connue
par linéarité sur F = lm f ffi F'.
On a bien Kerg = F', lmg = E'.
1
Puis, 'VxElmf, gofog(x)=gof I of- 1 (x)=g(x)et
'VxEF1 , gofog(x)=g(O)=g(x), doncgofog=g;
et 'Vx E Ker f, f o go f(x) = 0 = f(x),
'Vx E E', f o go f(x) = J(f'- 1 o J'(x)) = f(x)
donc f o g o f = f.
Six E lmp, r(x) = p(x) + q(x) - pq(x) avec q(x) = 0 d'où r(x) = x :
x E lmr;
six E lmq, r(x) = p(x) +x-p(x) = x, (puisque q(x) = x) d'où x E lm r.
On en déduit lmp + lmq C ~r et l'égalité lmp EEl lmq =lm r. La somme
est directe car lmp n lmq c Kerq n lmq = {O}.
œ
p
On a 9i(E) Ç fk(E) => rg(gi) ~ n - rg(!i).
k=l
k#i
On a donc li + 9i = id E et rg li + rg 9i ~ n => fi est projecteur sur li (E)
parallèlement à 9i ( E).
p
De plus dimgi(E) = n - dimli(E) = dimEf) fk(E)
k=l
k#i
p
donc 9i(E) = Ef) fk(E).
k#i
k=l
Mais alors si j "# i, f3(x) E 9i(E) => li(f3(x)) = 0 d'où les relations
li 0 fj =o.
Espaces vectoriels 231
5. Il est clair que Ta agit linéairement sur les vecteurs de E, donc Ta est dans
le demi-groupe L(E), (pour le produit de composition).
Pouru et u' dans le groupe Sn on a Taoa' =Ta' o Ta, car on a
Tc;1(Ta(x1, ... ,xn)) = Ta1(yi, ... ,yn) = (Ya'(l)> ... Ya'(n)) avec
1
(yi, ... , Yn) = Ta(xi, ... , Xn) = (Xc;(l)i ... , Xa(n) d'où
Yi = Xa(i) ~ Ya 1(i) = Xaoa 1(i))·
Par transport de structure, l'ensemble des Ta est un groupe dans L(E) donc
dans GL(E). (En fait Taoa-1 = idE = Ta-1 o Ta d'où Ta bijectif).
Les transpositions engendrent Sn, donc F sous-espace stable par tout Ta si
et seulement si il l'est pour les Ta associés aux transpositions.
Soit T;,,j la transposition des entiers i et j et Ti,j l'automorphisme associé.
Soit B = (e1, ... , en) la base canonique de Rn.
On a Ti,j(ei) = ej, Tij(ej) = ei et \:/k =/= i, =/= j, Tij(ek) = ek. Donc
Tij (ei + ej) = ei + ei et Tij (ei - ei) = ei - ei : Tij est diagonalisable
avec
-1 valeur propre simple, et sous-espace propre associé R (ei - ei)
1 valeur propre d'ordre n - 1, et sous-espace propre associé Vect( (ei + ej),
ek, k =/= 1, k =/= j).
Si Fest un sous-espace stable par chaque Ta, donc par chaque Tij• chaque
Tij induit sur F un endomorphisme diagonalisable, de valeurs propres
possibles 1 et -1 et si -1 est valeur propre, c'est que ei - ej E F pour
au moins un couple (i, j) avec i =/= j.
1er cas Il existe un couple (i,j), i =/= j tel que ei - ej E F, alors pour tout
k =/= {i,j}, Tj,k(ei - ej) = ei - ek E F.
Les n - 1 vecteurs ei - er, r =/= i engendrent l'hyperplan H d'équation
x1 + ... + Xn = 0, on a H C F d'où en fait F = E ou F = H qui est bien
stable, car Xa(l) + ... + Xa(n) = O.
2e cas F ne contient aucun ei - ej. Avec F stable pour tout Ta, c'est que F
est sous-espace de chaque hyperplan Hij = Vect(ei + ej, ek, k =/= i, k =/= j).
En munissant Rn de sa structure euclidienne canonique, on constate que
Hij = ( ei - ej ).1, c'est l'hyperplan d'équation Xi - Xj = O.
Donc dans ce cas les x = (x1, ... , Xn) de F sont tels que Vi =/= j, Xi = Xj :
on a F C Vect(l, 1, ... , 1). Cette droite vectorielle est bien stable par Ta
d'où dans ce cas F = Vect(l, ... , 1), ou F = {O}.
6. On sait que les fonctions (c,oÀhER avec c,oÀ(t) = eÀt sont libres.
232 Algèbre
n
Par exemple, écrire une combinaison linéaire L Ol.ke>.kt = 0, avec les Àk
k=l
distincts, multiplier par e ->.kot si Àko = sup{ >.k, k = 1, ... , n} et faire
tendre t vers +oo : on en déduit Ol.ko = 0, et on itère.
n
Soit une combinaison L Ol.kÎ>.k,µk = 0, avec les couples (>.k, µk) distincts.
k=l
Il existe alors b réel tel que les réels Àk + µkb soient 2 à 2 distincts, car les
conditions du type >.k + bµk = Àj + bµj sont en nombre fini, elles s'écrivent
b(µk - µj) = Àj - Àk et si µj =/:- µk : on a une seule solution en b, alors
que si µj = µk, les couples étant distincts on a Àj =/:- Àk et aucune solution
en b. Finalement sauf pour un nombre fini de réels b, on a
Àk + µkb =/:- Àj + µjb, pout tout j =/:- k.
n n
Avecuntelchoixdeb, LOl.kÎ>.k,µk(x,bx) =Oconduità LOl.ke(>.k+bµk)x
=0, avec des Àk + bµk 2 à 2 distincts d'où les Ol.k nuls.
k=l k=l
Si donc v n'est pas nilpotent chaque lllvnlll est=/:- 0 et on aurait nlkl :i::;;
2JllulJI pour tout n EN* : absurde.
8. La fonction nulle est dans E, (non vide), et si f et g sont dans E, V(>.,µ)
de R2 ' >.f + µg est de classe C 1 et sa restriction à chaque ]xi, Xi+l [ est
Espaces vectoriels 233
Cette définition a un sens parce que la suite (Cn)nEN est finie lorsque
les 2 suites A et B le sont.
En effet, il existe nA et ns entiers tels que '<ln > nA, an = 0 et
'<ln> ns, bn =o.
n
Soit alors n > nA + ns. Dans Cn = L akbn-k• dès que k > nA,
k=O
ak = 0 ::::} akbn-k = O; et si k ~ nA, n - k > (nA + ns) - k soit
Les polynômes : construction de C 237
REMARQUE 7.5. - Si A et B sont deux polynômes non nuls, ils ont des
degrés dA et dB, et le produit C = AB est non nul de degré de = dA +dB.
Car avec adA =fa 0 et bd8 =/: 0, on a cdA+d8 = adA bd 8 =fa 0 dans le
corps K, et, '<:/n > dA + dB, Cn = 0 vu le calcul précédent. •
même lorsque A = - B.
n n-i
dn = :L: ai ( :L: bkert-i-k)
i=O k=O
n n-i
= :L: :L: ai(bkCn-i-k)·
i=O k=O
d0 A
7.9. On notera désormais A = L anxn ou A = L anxn un polynôme
nEN n=O
avec les conventions suivantes :
1) dans la somme indexée par N, les an sont presque tous nuls,
2) dans la deuxième écriture qui n'a pas de sens si A = 0 car
d0 A = -oo et n ne peut pas croître de 0 à d0 A, on convient que
l'expression est alors nulle.
k
(L ÀiPni = 0), avec le coefficient en question =/:- 0, (Pnk de degré nk)
i=l
donc Àk =O. De proche en proche chaque Ài =O.
La famille est gJnératrice.
Soit P un polynôme non nul. Il a un degré n.
Notons Kn[X] = Vect(l,X,X 2 , ... ,Xn) le sous-espace vectoriel
des polynômes de degré ~ n (tiens, heureusement que d 0 0 = -oo),
P E Kn[X] espace vectoriel de dimension n + 1 puisque la partie libre
{ 1, X, ... , xn} de cardinal n + 1, est aussi génératrice, donc en est une
base.
Mais alors (Po, P1, ... , Pn) partie libre (début de la justification)
dans Kn[X] de dimension n + 1 en est aussi une base (corollaire 6.67)
et P E Vect( Po, P1, ... , Pn) : c'est une combinaison linéaire finie des
(.l'i)iEN· La famille (Pi)iEN est bien génératrice de K[X]. •
REMARQUE 7.12. - Soit dans K, n éléments distincts, ai, ... , an. Alors
il existe une famille de n polynômes, chacun de degré n - 1 s'annulant
pour n - 1 des aj, valant 1 pour le ak restant. Ce sont les polynômes
interpolateurs de Lagrange.
n
Considérons les polynômes Qk = II (X-ai)· Chaque Qk est de degré
i=l
i"'k
n - 1, (produit den - 1 polynômes de degré 1), et 'efi =/:- k, Qk(ai) =O.
n
Soit une combinaison linéaire L ÀkQk =O.
k=l
La valeur prise par cette combinaison linéaire en chaque ak est donc
nulle. On va en déduire la nullité des Àk, mais avant, une précision.
d0 P
On appelle valeur prise par le polynôme P(X) = L UnXn, en
n=O
d0 P
a E K, le scalaire P(a) = L
Unan. Il est bien clair que si les Un sont
n=O
tous nuls, P(a) = 0, la réciproque n'étant pas forcément vraie, lorsque le
corps K est quelconque. Par exemple si K = l/pl, p premier, le théorème
de Fermat nous dit que xP - x = 0 pour tout x E K, donc le polynôme
XP - X, non nul, est associé à une fonction polynôme nulle d'où l'intérêt
de dissocier les notions de polynôme et de fonction polynôme.
Les polynômes : construction de C 241
DÉFINITION 7.15. - Un polynôme Pest dit unitaire s'il est non nul, de
coefficient directeur égal à 1, élément neutre du corps K.
'Pai (P)= P( ai) forment une base de E*, duale de la base des polynômes
interpolateurs de Lagrange. Car on a n formes linéaires dans E* de
dimension n, comme E, et 'Pai(Pk) = Pk(ai) = 1 si i = k et 0 sinon.
On retrouve bien la définition de la base duale, (voir 6.108).
Le fait que tout idéal de K[X] soit principal servira à définir par
exemple, la notion de polynôme minimal pour les opérateurs linéaires, pas
pour tous, il y a du favoritisme dans l'air! (voir la définition 10.43). Ici
nous allons l'exploiter pour dégager les notions de plus grand commun
diviseur, (p.g.c.d), et de plus petit commun multiple, (p.p.c.m).
THÉORÈME 7.24. -Soit p non nul et non inversible dans l'anneau principal
A. Il y a équivalence entre :
p est premier,
1)
2) tout diviseur de p est soit inversible, soit du type pu avec u inversible,
3) (p) est idéal maximal, (pour l'inclusion),
4) pour tout produit be divisible par p, p divise au moins l'un des
facteurs.
Avoir (ai, a2, ... , an) premiers entre eux équivaut (définition 7.28)
à pcgd( ai, ... , an) = 1, donc ceci équivaut à dire que les diviseurs
communs de ai, ... , an sont les diviseurs de 1 donc les u E A tels qu'il
existe u 1 E A avec uu1 = 1 : ce sont les éléments inversibles : d'où 1) :::::?
2); mais aussi 2) :::::? 1) puisque le pgcd de ai ... an divise chaque ai, ce
pgcd est inversible, donc l'idéal engendré par les ai est A = (1) : les ai
sont premiers entre eux.
Dans ce cas, 1 engendre l'idéal des ai donc 3(ui ... un) E An tel que
1 = u1ai + ... + Unan d'où 1):::::? 3).
Réciproquement, si on a 3), 1 E I idéal engendré par les ai, qui est
donc A d'où pgcd( ai, ... , an) = 1 : on a des éléments premiers entre
eux. •
7.30. La relation ( (ai , ... , an) premi,ers entre eux) {:::} (3 (u i , ... , Un) E
An tels que uiai + ... + Unan = 1) est l'identité de Bézout.
Dans le cas d'éléments non premiers entre eux, on a seulement, si
n
d =pgcd( ai, ... , an), alors 3(ui, ... , un) E An avec d = L Uiai mais
i=i
pas de réciproque, car tout élément de (d) est aussi de ce type. C'est
la valeur particulière d = 1 qui donne la réciproque dans l'identité de
Bézout.
On simplifie par p'j car, dans l'anneau intègre A, tout élément non nul
est régulier pour le produit.
On a donc Pi et p~(l) associés et l'égalité
, , ,,
P2 · · ·Pn = Uj
II
n"
,,
Pk·
k=l
k;éu(l)
Il
On peut remplacer l'un des P% par l'élément uj P% qui lui est associé et que
l'on note encore P%, et on se retrouve avec une égalité du même type. On a
250 Algèbre
donc de même P2 associé à un P%, k =f. a(l). <;>n choisit un tel indice noté
a(2) ... et on poursuit. Comme on a choisi de simplifier successivement par
p~, P2, . : . ,p~,, on a finalement n 11 ~ n 1 et une relation du type
1= II P%
k~{ u(l), ... ,u(n')}
(a injection de {1, ... , n'} dans {1, ... , n"} ). Mais n" > n' conduirait à
l'existence d'un P% external et inversible : c'est exclu par définition des
éléments extrémaux, donc n 11 = n 1 et a bijective. •
X =u II pvp(x) et Y = V II pvp(y)'
pE'P pE'P
alors
pgcd(x, y) = II Pinf(vp(x),vp(y)),
pE'P
Les polynômes: construction de C 251
0
Si d0 P = 0, cette somme L ... est nulle par convention.
n=l
On pourrait aussi dire que la dérivation d est l'application qui à
P = (ao, ai, ... , an, ... ) associe la suite d(P) = (bn) avec, Vn E N,
bn = (n + l)an+l· Il est bien clair que la suite (an) étant à support fini,
il en est de même de celle des bn.
On vérifie facilement que la dérivation d est une application linéaire,
de K[X] dans K[X], de noyau Ker d = {polynômes constants}, surjective.
et, sin ~ p, on aura p(n)(a) = n(n - 1) ... lan car seul le terme pour
k = n sera non nul en a, alors que sin> p, on a pn(a) =O.
p(n)(a)
On a donc an= d'où la formule de Taylor, la division par n!
n.1
étant possible dans K de caractéristique nulle.
THÉORÈME 7.46. -Soit P E K[X]. Soient ai, ... , ar des éléments distincts
de K et ki, ... , kr des entiers non nuls. Alors P admet les aj pour zéro
r
d'ordre kj au moins si et seulement si Pest divisible par II (X - aj )k;.
j=l
r
Il est clair que P divisible par II (X - aj)k; l'est alors par chaque
j=l
(X - aj)k; donc admet chaque aj pour zéro d'ordre kj au moins, (7.40).
Les polynômes : construction de C 255
r
Car Pest multiple de Il (X - aj )ki, de degré ki + ... + k2, et P non
j=l
nul a un degré entier naturel. •
COROLLAIRE 7.48. -Si P E K[X] de degré deg(P) ~ n admet ai, ... ,ar
comme zéros distincts d'ordre ki, ... , kr au moins, avec ki + ... + kr > n
il est nul.
Exemple
p =u II (X - a)a(a),
aEK
avec u inversible dans K[X], c'est-à-dire u dans K*, puisque pour des a
différents les X - a ne sont pas associés; on a les a(a) entiers presque
tous nuls. Là encore, sin= L
a(a) est non nul, P admet au moins un
aEK
zéro d'où la réciproque.
•
COROLLAIRE 7.53. - Si K est algébriquement clos, P non nul divise Q si et
seulement si tout zéro de P est zéro de Q avec une multiplicité supérieure
ou égale.
Le problème qui se pose, c'est que les corps ne sont pas tous algébri-
quement clos. Ainsi, Q ne l'est pas, (X 2 - 2 non scindé), IR non plus,
(X 2 + 1 non scindé). Comment faire?
7.56. Si KerO = {O}, (donc pour tout polynôme P non nul de K[X] on a
P(a) =f:. 0): l'élément a est alors dit transcendant sur K), K[X]/KerO ~
{P(a); P E K[X]} est un anneau, (sous-anneau de K(a)) intègre, K[X]
étant intègre et (} bijective de K[X] sur cet anneau que l'on notera
K[a]. Mais alors K[a] admet dans le sur-corps L son corps des fractions
(Théorème 5.34) à un isomorphisme près on peut donc dire que L( a) est
le corps des fractions de l'anneau K[a].
i=O
Si on avait R( a) = 0 avec d0 R < n, c'est que R E Ker 0 idéal engendré
par P donc R = 0 ·P. Il en résulte que, dans la structure de L, espace
vectoriel sur K, les éléments 1, a, a2 , ... , an-l sont indépendants et alors
K[a] = K(a) et en fait un espace vectoriel de dimension n sur K. •
7.60. Mais alors, il en résulte que si a est algébrique sur K dans une
extension L de K, il l'est dans toute extension L' de K le contenant, et il
en est de même pour a transcendant. De plus le degré du polynôme minimal
sera le même.
En effet ce polynôme minimal, lui a ses coefficients dans K donc si on
notait
P le polynôme minimal pour l'extension L et
P' le polynôme minimal pour l'extension L'
on aurait P( a) = P' (a) = 0 donc P' E Ker 0 donc P divise P', et
P E Ker 01 d'où P' divise P et comme P et P' sont unitaires, on a P = P'.
THÉORÈME 7.70. (De Steinitz). -Tout corps K admet une clôture algébri-
que.
Résultat que nous admettrons.
On retrouve les règles usuelles, que l'on pouvait prendre pour définir
une structure sur IR 2 , et vérifier ainsi que l'on a un corps alors qu'ici on
sait que l'on a un corps.
On suppose donc acquises toutes les propriétés usuelles sur C.
01 = X1 + X2 + ... + Xn
a2 = X1X2 + X1X3 + ... + X1Xn + X2X3 + ... + XnXn-1
= somme des produits 2 à 2,
a3 = somme des produits 3 à 3, et pour finir
O'n = X1 ... Xn, produit des n variables.
Il y a donc en fait tout un travail à fournir pour avoir le théorème de
d'Al~mbert. Personnellement, j'aime mieux la justification par l'analyse ...
Soit alors Q E K[X] un polynôme scindé. Si on écrit à la fois
_ a1
_ a2 _ a3 _ n an
7.73. O'l - (-1) 2 - , 0'3 - (-1) 3 - , ... , O'n - (-1) - .
- - , 0'2 -
ao ao ao ao
Il faut remarquer que, si sur le corps K le polynôme Q n'est pas scindé
on peut introduire K corps de décomposition de K, factoriser Q dans
K[X] pour justifier les relations précédentes et obtenir ainsi le fait que
même si les Àj ne sont pas dans K, leurs fonctions symétriques y seront
car les (-1) kak
- sont dans K.
ao
Passons alors à la justification de d'Alembert-Gauss. Soit un polynôme
Supposons donnés N nombres réels distincts ci, ... , cN. Pour chaque
indice k ~ N, soit le polynôme
C'est un polynôme symétrique en zi, z2, ... , Z2n racines 'de Q, à coeffi-
cients réels, (1 est coefficient de X, -1 celui de ZiZj et -ck celui de Zi et
de Zj), donc d'après le résultat admis, Qk est un polynôme à coefficients
réels par rappo:d:...au:x fonctions symétriques élémentaires des Zj, donc fi-
~ b
nalement des ( -1) r b~ , avec les br coefficients réels de Q : on obtient Qk
polynôme en X à coefficients réels. Quel est son degré : c'est le nombre
2 2n(2n - 1) .
de parties à 2 éléments dans {1, ... , 2n}, donc C2 n = 2 soit
n(2n - 1) = 2m-l · n 1(2n - 1) avec n 1 (2n - 1) impair.
Supposons d'abord m = 1. Alors chaque Qk, de degré impair admet
un zéro réel, donc complexe.
Soit tk ce zéro : il existe ik et ik avec 1 < ik < ik ~ 2n et
tk = ZikZjk + Ck(Zik + Zjk).
Si on suppose N > n(2n - 1), il existe forcément deux indices k et k'
distincts associés au même couple (ik,ik) avec 1 ~ ik < ik ~ 2n. On a
266 Algèbre
donc
Or X2 - aX + b= (X - ~) 2 - (a
2
~ 4b).
En posant a 2 - 4b = u + iv avec u et v réels on vérifie alors que :
~ ( Vu+Ju2+v2+iV-u+Ju2+v2) 2 =u+ijvj,
(ne pas oublier que./Ji= Jvj).
Donc si V~ 0, 8 = ~(Vu+ vu 2 + v2 + iV-uvu2 + v2) est dans
C tel que 82 = u + iv, (et si v < 0 on remplace i par -i dans 8).
On a donc 8 E c tel que X2 - aX + b = (X - ~) 2 - 82 d'où Zik et
a±8
Zjk dans C car du type - 2- avec a et 8 dans C.
Donc si m = 1, Q admet au moins 2 racines complexes, (éventuelle-
ment confondues).
Si on suppose le résultat vrai four m - 1, on repart comme précédem-
ment, les Qk sont de degré 2m- . (nombre impair) donc ont des racines
complexes. La même mise en forme aboutit à Q admet 2 racines com-
plexes, (distinctes ou non), et finalement on a bien justifié le fait que
P E C[X] admet au moins un zéro sur C, (avec bien sûr d0 P ~ 1).
Il est bien évident que, par application itérée de ce résultat et après
factorisation des (X - racine trouvée), on a : tout polynôme P de C[X]
est scindée sur C. •
Les polynômes : construction de C 267
Il est clair que les constantes non nulles et les polynômes de degré 1
de IR[X] sont irréductibles.
Soit P de degré ~ 2, irréductible sur IR. En particulier P est sans
racines réelle (car si À racine, Pest divisible par X -À, (Théorème 7.38).
Mais P, dans C, admet des racines. Soit À = u + iv avec v =f. 0 un
zéro de P. On a P(.X) = 0 d'où en conjuguant P(.X) = 0 soit P(X) = 0
puisque P est à coefficients réels.
Comme dans C on a À =f. X, les polynômes X - À et X - X sont non
associés (définition 7.32) donc Pest divisible, dans C[X], par
.
(X 2 -2uX +u2 +v 2 )Q 1 +R1, valable aussi dans C[X] et la divisibilité de
P par X 2 -2uX +u2 +v 2 dans C[X] donne Ri = 0, d'où Qi = Q E IR[X].
Comme P est irréductible, c'est que d0 P = 2 et Q est un scalaire réel non
~.
EXERCICES
n-1 l
2. Calculer II 1-ei'll"n
2 .k / .
k=l
1 1 . .
3. On pose 1Tn(z) = zn + - et R(z) = z +-.Montrer qu'il existe un
zn z
unique polynôme Pn E l[X] tel que, îiz E C*, 1Tn(z) = Pn(R(z)).
Montrer que les racines de Pn sont réelles, dans [-2, 2].
n
ll. Soit P E R[X], scindé de degré n, P(X) = L akXk. Montrer que
k=O
pour tout k E {1, 2, ... , n - 1}, ak-1 ak+l ~ a~.
Les polynômes : construction de c 269
SOLUTIONS
2. Les e2ik1r /n, k = 1, ... , n, sont les zéros de Xn - 1, sauf X = 1, donc les
xn - 1 2 n-1 Q( )
zérosde X-l =l+X+X + ... +X = X.
n-1
Les e 2ik7r/n _ 1 sont les zéros de R(X) = Q(X +1), donc II (e 2ik7r/n -1)
k=l
est le produit des racines de R(X) = xn-l + ... + n ce produit vaut donc
4. On est sur C[X] où les polynômes sont scindés, on peut utiliser les zéros.
Les polynômes constants solutions sont P =
0 et P 1. =
Si P non constant est solution, soit a un zéro de P, on a P(a 2 ) = 0 donc
a 2 zéro de Pet plus généralement, Vn E N*, a< 2 n) est zéro de P. Donc si
a # 0 et /a/ # 1 on a déjà une infinité de la<2n) 1 distincts : absurde, d'où
a=Oou a= 1.
Mais x = a-1 est aussi tel que P(x 2 ) = 0, ... d'où a-1 = 0 ou la-li = 1.
Les 2 cercles ri = {z, lzl = 1} et r2 = {z, lz - 11 = 1} se coupent en
1 iyfg 1 iyfg . 1 iyfg
a = - + - - et - - - - Mais avec é = 1 ou -1 et a = - + é - -
2 2 2 2· ' 2 2
2 1 i::iv'3
on a (a - 1) = - 2 - - 2 - ~ (r1 n r2) U {O, 1} : ces valeurs de a sont
exclues. Il reste a E {O, 1}.
Si on prend P(X) = kXP(X - l)q, la relation P(X 2 ) = P(X)P(X + 1)
devient kX 2P(X 2 - l)q = k 2 XP (X -l)q (X+ l)P Xq, vérifiée pour k = 1
et p = q, (k # 0 car on a supposé P non nul).
Les solutions sont donc 1, 0 et les polynômes du type XP(X - l)P, p EN*.
Seuls les polynômes constants de R[X] ont une fonction polynôme constante.
Si K = Z/2Z, les valeurs de la fonction polynôme associée à P sont P(O),
P(l) et le couple (P(O), P(l)) peut valoir (0, 0), (0, 1), (1, 0), (1, 1). Dans
les 2 cas extrêmes, la fonction polynôme sera constante.
Or P(O) = P(l) = 0 <==> P(X) = Q(X)X(X + 1), (Théorème 7.38),
et P(l) = P(O) = 1 <==> P(X) = Q(X)X(X + 1) + 1,
d'où les solutions du type P = X(X + l)Q +>..avec>.. E K = Z/2Z.
'2
On cherche P polynôme de degré n, vérifiant P 2 = 1 + (x~ - 1) P 2 , ou
n
encore (1 - x 2 )P12 - n 2 (1 - P 2 ) =O.
L'équation différentielle h I
1 - y2
= ± ~ que doit vérifier la restric-
1-x2
tion, y, de P à] -·1, 1[, conduit à
Arcsiny = ±(n Arcsinx + k) et à y= ±sin(n Arcsinx + k)
soit à y= ±[sin(n Arcsinx)cosk + cos(n Arcsinx)sink].
car
j8m =j6mj2m = (j3)2mj2m =im etj4m =j3mjm =jm.
9. 1) Le polynôme P, irréductible sur Q n'a pas de diviseurs dans Q[X], il est
donc premier avec P', (qu'il ne divise pas) donc 3U et V dans Q[X] tels que
UP+ VP' = 1.
Les polynômes : construction de C 273
Comme Q[X] est plongé dans C[X], si>. était racine, (dans C), multiple de
P, on aurait P(>.) = P'(>.) = 0 d'où 1 = 0: exclu. Donc les zéros de P,
dans C, sont simples.
2) On suppose cette fois que P admet, dans C, un zéro >. de multiplicité
m(>.) > ~ d0 P.
L'idéalI = {Q;Q E Q[X],Q(>.) = O} est principal, et il contient P. Soit A
un générateur de I, >.est racine simple de A, sinon A'(>.)= 0, A' E Q[X]
et d 0 A' < d 0 A avec A' multiple de A, c'est absurde.
Avec P1 E Q[X] tel que P = APi, on a>. racine simple de A et d'ordre m(>.)
de P donc>. racine d'ordre m(>.) - 1 de P1. Sim(>.) > 1, alors P1 E I: il
existe P2 tel que P1 = AP2 et P = A 2P2. Sim(>.) > 2, on a>. zéro d'ordre
m(>.) - 2 de P2 qui est donc multiple de A, on itère et finalement il existe
un polynôme Pm(À) tel que P = Am(À) Pm(À)·
Si >. If. Q, A ne peut pas être de degré 1, donc d° A ;:.:: 2 =} Jl(Am(À)) ;:.::
2m(>.) > d0 P, c'est absurde.
Donc>. E Q.
10. Si P(z) - P(zo) admet zo pour zéro d'ordre q ;:.:: 2, P', P", ... , p(q-l)
sont nuls en zo, d'où par Taylor Young, l'existence d'un développement limité
P(zo + h) = P(zo) + aqhq + o(hq) avec aq =I= O. On a alors
Comme aqP(zo) =I= 0, posons aqP(zo) = Aei"' avec A > Q, et soit h = pei9 ,
ona
Avoir IP(zo + pei 9 )1 = IP(zo)I équivaut, (pour p =I= 0) à avoir tel que e
pqA(ei(qe+a) + e-i(qB+a) + o(l)) =O.
Soit <.p(B) = 2 cos(qB +a)+ o(l), soit c E]O, 1[ fixé, il existe T/ > 0 tel que
2k7r - a
p = lhl E]O,TJ['* lo(l)I < c < l.Maisalorscommecos ( q· q +a) =
2k7r + 7r - a
cos2k7r = 1 et cos ( q · q +a) = cos(2k + l)7r = -1, on a
<.p (
2k7r -
q
Q) > 0 et <.p (2k7r +q7r - Q) < 0, la fonction <.p s'annule sur
.
les intervalles
J-n7r- q- -a, n7r +q7r - a [ .
, ceci pour 0 ~ n < 2q : on a 2q
n p(k) (0)
11. Comme P(X) = 2:-k-!- Xk, les ak sont liés aux p(k)(O). Soit
k=O
xi, ... , Xr les zéros réels distincts de P, de multiplicités ai, ... , ar, indexés
en croissant: xi < x2 < ... < Xr. On a ai+ a2 + ... + ar = n, (P scindé)
puis xi, ... , Xr sont zéros d'ordre ai - 1, ... , ar - 1 de P' et, par Rolle,
entre Xi et Xi+ i, P' s'annule, donc on a yi, ... , Yr-i. soit r -1 autres zéros
r
de P' qui admet donc L (ai - 1) +r - 1 =n - 1 zéros. On a P' scindé,
i=i
et par récurrence chaque polynôme p(j) est scindé.
Puis pour Q = fr
i=i
(x - Zi); scindé, (les Zi distincts ou non), on a ~
Q"Q-Q'
Lp
i=i
--
1 .
donc, en dénvant,
X - Zi
Q 2
2
= - Lp
i=i
( 1
) donc, pour
X - Zi
2
x 't { zi, ... , Zp} on a Q" Q - Q 12 ~ 0, résultat vrai aussi pour les Zi par
continuité.
On applique ceci pour le polynôme Q = p(j- i), cela donne p(j + i) p(j- i) -
(P(jl) 2 ~ 0, et en 0 on obtient
d'où
n+i
12. On constate que P~+i (x) =ai+ L kakxk-i, donc P~+i (x) ~ ai >0
k=2
sur [0, +oo[: la fonction Pn+i est strictement croissante sur [O, +oo[, avec
Pn+i(O) = 0 et lim Pn+i(x) = +oo, il existe donc un et un seul un+i
x--++=
tel que Pn+i(un+i) = 1, et ce pour tout n ~ 1. Comme Pi(x) = aix est
aussi croissant de 0 à +oo, ui existe de même.
2) On a
Donc
'""'
OO
L.,, nx
n-1 1. n'"°'
OO
X
= (1- x)2 et L.,, nx = (1 - x)2.
n=l n=l
OO
et en particulier
La suite des fonctions Rn converge uniformément vers 0, sur [0, ~],les un,
pour n ~ 2 sont dans [o, -12 ], donc lim
n-++oo
(l Un
- Un
)2 = 1 et c'est aussi
1] 3-v'5 . 3-v'5
[0, 2" est l = --2- , donc n.!!~oo Un = --2- .
CHAPITRE 8
Calcul matriciel
Le calcul matriciel n'est pas pour moi une fin en soi, mais un outil
permettant la tanscription commode des propriétés d'algèbre linéaire, ou
multilinéaire. C'est pourquoi ce chapitre sera assez bref et consacré à la
mise en place précise des règles d'emploi du calcul matriciel.
Je laisse les richesses de ce calcul, liées à la forme particulière de
certaines matrices aux amateurs et utilisateurs spécialisés.
Dans ce tableau, le 1er indice est celui de la ligne, il est constant sur
la même ligne, le 2e est celui de la colonne.
Un tel tableau se lit donc déjà en colonnes, la jième colonne donnant
le vecteur u( ej) dans une base.
THÉORÈME 8.4. -Il existe une bijection entre L(E, F) avec E et F vecto-
riels sur K de dimension respectives q et p, et l'ensemble noté Mp,q(K)
des matrices de type (p, q) sur K.
En effet, soit B = (e1, ... , eq) et C = (c1, ... , cp) des bases de E et
F respectivement, fixées.
Soit A = (aij) 1.;;io;;p une matrice de type (p, q) (c'est la notation
l~j~q
couramment employée).
A ce tableau on associe une seule famille de vecteurs (Vj)j=l...q de
F chacun étant connu par ses coordonnées (Œi,j )i=l...p dans la base C
(Théorème 6.75).
Comme il existe une seule application a linéaire de E dans F vérifiant,
'ï!j = 1, ... , q a(ej) = Vj, (Théorème 6.77), pour toute matrice A de
Mp,q ( K), il existe une et une seule application linéaire a de E dans F
ayant pour matrice A par rapport aux bases B et C fixées dans E et
dansF. •
En effet, B = (e1, ... , eq) et C = (c1, ... , cp) étant des bases de
E et F fixées, on sait que L(E, F), de dimension pq admet la base des
280 Algèbre
Transposition
n
cj ( L Ctriér) = O'.ji• (coordonnée suivant éj du vecteur), donc
r=l
q
(cj ou)(x) = LCtjiXi, avec Xi= ei(x), on a
i=l
q q
8.7. Vx E E, tu(t:j)(x) = (Laiiei)(x) d'où tu(t:j) = Laiiei.
i=l i=l
O'.jl)
a·2
La ;"'™' oolonne de la matriœ asMciée à 'u est donc ( ~. , c'est-
Ct3q
à-dire la jÏème ligne de A en fait.
en réordonnant suivant les vecteurs 171, 172, ... , 17r de la base 'D.
L'unicité de la décomposition d'un vecteur dans une base d'un espace
vectoriel donne alors
q
Wmn = L VmiUin·
i=l
alj
a2j )
ëème
(
ligne
aqj
et la jième
colonne de
la 2e, A
et on somme les q produits terme à terme pour calculer Cij.
Calcul matriciel 283
0
284 Algèbre
Nous venons. de voir que le centre de Mn(K) est formé des matrices
scalaires. Il
Application du produit
n m n
u(x) = Lçiu(ej) = L:ei(Luïjêï),
j=l j=l i=l
n m
Si par ailleurs on note y= LYïE:i, il en résulte que Yi= L UïjÇj.
i=l j=l
On va globaliser ce résultat.
Calcul matriciel 285
coordonnées de y.
Si on effectue le produit U X on obtient une matrice dont
- le nombre de ligne est n, celui des lignes de U, et
- le nombre de colonne est 1, car X n'a qu'une colonne.
C'est donc une colonne U X dont le terme de la ëème ligne est
m
= LUijf.j·
j=l
~
Pl P2-P1
~
Ps-Ps-1
~ ~
k1 k2-k1
~
kt-kt-1
~
n Pl P2 Ps
Cij = L bikakj = L bikakj + L bikakj + ... + L bikakj,
k=I k=I k=p1 +1 k=Ps-1 +1
E1 = Vect(e1, ;ek1)
E2 = Vect(ek 1 +1, ... , ek2)
et enfin
Et= Vect(ekt-l + 1, ... , ekt), kt= k = dimE.
Calcul matriciel 287
3. Matrices inversibles
est la matrice de 1- 1 dans la même base, les égalités Io 1-(l ~ :-l ~)=
On a donc justifié le
288 Algèbre
On note GLn(K), (se lit groupe linéaire d'ordre n sur K), l'ensemble
des matrices carrés d'ordre n inversibles. Il est facile de vérifier que, pour
le produit de composition c'est Un groupe, non commutatif. Mais c'est non
stable par addition. ·
Plj
P2j P2n )
Pln
p= P~I
C"
Pnl Pnj Pnn
la matrice dont les colonnes sont des colonnes des coordonnées des nou-
veaux vecteurs en fonction des anciens. C'est la matrice de passage de
l'ancienne base B, à la nouvelle C.
Soit alors un vecteur x de E. Il nous faut savoir passer de ses
coordonnées dans une base, à ses coordonnées dans l'autre. Posons
n n
8.20. x = LXrer = LX~ês,
r=l s=l
DÉFINITION 8.24. - Deux matrices A et A' de même type (q, p) sont dites
équivalentes si et seulement si il existe U E GLp(K) et VE GLqK) telles
que A'= VAU.
A -- ( ~ ! ~ ! :)
10 11 12 13 14
on peut extraire la matrice B correspon-
15 16 17 18 19
dent aux colonnes 1 et 4 et aux lignes 1, 3, 4.
On a = ( 151~ 1!).
B
18
Si A est non nulle, 3i et j tels que aij f. O.
La matrice ( 1, 1) extraite, B = (aij) est inversible, ( B- 1 = (a~ . ) ) ,
iJ
donc l'ensemble N = {k; k E N, il existe B carrée d'ordre k, inversible,
extraite de A} est non vide, (1 EN) majoré par inf(p, q) : il admet bien
une borne supérieure r que l'on peut appeler rang de A, (corollaire 3.45).
Si A = 0, toute matrice extraite carrée sera nulle donc non inversible,
on dit q1,1e A est de rang nul.
L'étude des déterminants, faite au chapitre suivant, nous permettra
de voir que les rang de A, c'est le rang de tout homomorphisme ayant A
pour matrice dans des bases adéquates. Pour l'instant justifions le
EXERCICES
8. Soit A E Mn(C) la matrice de terme général aij avec 'Vi, aii =a;
ai,i-1 = ai,i+l = b; aln = an1 = b et aij = 0 sinon. A est-elle
inversible?
SOLUTIONS
00 (2::: :i) OO
OO
est en fait une somme finie, donc a un sens, et c'est L bqXq =X puisque
q=O
les règles de calcul des bq ne dépendent pas de x.
OO X k
On a donc X= L(-l)k-l (e ~ I) , la somme étant finie en fait. Mais
k=l
alors, si ex est triangulaire supérieure avec des 1 sur la diagonale, ex - I
est triangulaire supérieure avec des 0 sur la diagonale, il en est de même
des puissances successives, (calcul classique) d'où X triangulaire supérieure
avec des 0 sur la diagonale.
Puis, (ex -I)(F) c E c F =>(ex -I) 2 (F) c (ex -I)(F) c E, et par
récurrence, \:/k ~ 1, (ex - I)k(F) c E, donc X(F) c E. Comme enfin
E C F, on obtient a fortiori X(E) C E.
On peut aussi dire que In+ BA bijective équivaut à -1 non valeur propre
de BA. Comme BA et AB ont même polynôme caractéristique, c'est aussi
In + AB bijective.
Le b) se vérifie par calcul en remarquant que BA et (In+BA)- 1 commutent
parce que In+ BA et (In+ BA)- 1 commutent, et on en déduit la fin de
a).
5. Si A et B sont inversibles,
X=(~ 0 "{
de dimension 3.
Si a = -1 Ker M' = Vect( ei, e2 - e3), ~ M' = Vect( -e2 + 2e3). Or
M' (-e2 + 2e3) va être proportionnel à -e2 + 2e3, (et non nul) donc M' est
stables par X" qui est du type X" = "{ ô 0 et on vérifie que pour
. 0 0 ê
= M" X".
ces X" on a bien X'' M 11
.
Les X' cherchées sont donc les matrices X' = P (a 0)
"{ (3ô 0
0 0 ê
p- l et on
a 2(3 /3 )
trouve les X' = ( "{ 26 - e
ô- e , (a, (3, "{, ô, e) E R2 . Cette
-"{ -2ô+2e -ô+2e
fois c'est un espace vectoriel de dimension 5.
8. SOit
. la matrice bloc J = (~) .
~ Pour 1 ~ k ~ n - 1 on vérifie
que Jk = ( ~)
h Q 1
et on a Jn = In.
On a A= aln + b(J + r-
1 ).
Comme J annule le polynôme scindé à racines simples, xn - 1, J diagona-
lisable sur C, (voir chapitre X). Le polynôme caractéristique de J est en fait
2' k1r
(-l)n(.>.n-1), (on le calcule), les valeurs propres de J sontles >.k = e in,
celles de A, polynôme en J sont les a+ b(>.k + .>.~- 1 ).
,n-1
0 r "'k ,n ,-1 d' , , ,-1 2k7r
= "'k · "'k ou "'k + "'k = 2 cos - - et
n
n
det A = II (a+ 2b cos 2 ~71'), (produit des valeurs propres de A) d'où (A
k=l
inversible) <=> (\:/k = 1, 2, ... , n, a + 2b cos 2k11' =fa 0).
n
298 Algèbre
(! r~ ")) on®tientr'C,Pdut~
avec trace C2 = trace C1 = trace u = O. Par hypothèse de récurrence,
3P2 E GLn-1(e) telle que P2 1C2P2 ait des 0 sur la diagonale.
A~P~
( O 1 B ) = C' avec des O sur la diagonale.
A P2 1C2P2
Puis c' étant de trace nulle, avec des 0 $ur la diagonale, on veut écrire
c' = x'y' - Y'x'.
On prend X'= diagonale (ai, ... , an) avec des O!i distincts, et on cherche
le terme général Y~j de Y'. On doit avoir de c~j = OiY~j - OjY~j =
( O!i - O!j )y~i ·
Pour i =/:- j on a O!i - O!j =/:- 0 d'où l'existence de Y~j• et si i = j il reste
la condition 0 = Oy~i• vérifiée. Donc Y' existe. Mais alors avec Q régulière
telle que Q- 1 cQ = C', si X = QX'Q- 1 et Y = QY'Q- 1 , l'égalité
C' = X'Y' - Y'X' donne C = XY -YX.
c = ( ~~) non nul et 3 scalaires li, b, la non tous nuls tels que c1 = li c,
Calcul matriciel 299
avec trace(M) =ci li+ c2l2 + c3l3 = 0, et la matrice nulle est aussi de ce
type.
CHAPITRE 9
Si on note f(X1, ... , Xp) l'image par f du p-uplet (Xi, ... , Xp) c'est
donc que, pour chaque i ~ p, en considérant les Xj pour j =f. i comme
fixés, la fonction de la seule variable xi est linéaire.
DÉFINITION 9.2. - Une forme p linéaire, (p ;;:: 2) est dite alternée si elle
s'annule lorsque deux des variables prennent des L•aleurs égales.
THÉORÈME 9.8. - L'application (!1, ... , fp) ......+ fi /\ ... /\ fp est alternée.
g' (ejl' ... ejp) = L g(ei 1 , . . . , eip (ei1 /\ . . . /\ eiP)(ejl' ... , ejp)
l:io;i1 < ... <ip:io;;n
n
Puis x2 = L Çr 2,2er2 eth est linéaire par rapport à la deuxième
r2=l
variable. On obtient donc
n n
h(x1, ... ,xp) = L L Çr 1,1Çr2,2h(erper2 ,x3, ... ,xp)
r1=l r2=l
Or chaque h(er 1 , ... , erp) est nul car soit 2 des erj au moins sont égaux,
et alors h, alternée, prend une valeur nulle; soit les indices r1, ... , Tp sont
distincts mais il existe alors a E 6p tel que
n
car si Xj = LÇi,jei, on a ei(Xa(i)) = Çi,a(i)·
i=l
308 Algèbre
DÉFINITION 9.16. -Soit A= (aj) 1,;:: i,;:: une matrice carrée d'ordre n sur
-..:::::j-..:::::n
un corps K. On appelle déterminant de la matrice A le scalaire noté
REMARQUE 9.18. - Soit A E Mn(K), <let A est une somme den! termes
qui sont tous, au signe près, des produits de n scalaires chaque produit
contenant un et un seul terme de chaque ligne, (les premiers indices
varient de 1 à n), un et un seul terme de chaque colonne, (les seconds
indices étant images de { 1, ... , n} par une permutation de cet ensemble).
Cette remarque sert lors de l'étude du polynôme caractéristique d'un
endomorphisme en dimension fini, (voir 10.18).
Si (Xi, ... , Xn) est famille liée l'un des Xj est combinaison linéaire
des autres et, comme on l'a vu dans la justification du théorème 9.12,
(ei /\ ... /\ e~)(X1, ... , Xn) =O.
Il en résulte, par contraposée, que si (ei /\ ... /\ e~)(X1, ... , Xn) =fa 0,
la famille (Xi, ... , Xn) est libre. •
Car si B= (ei, ... , en) est une base de E(, ~~;i)A est la matrice de u
dans cette base, les vecteurs colonnes Xj = : . de A correspondent
O!n3
n
aux vecteurs u( ej) =. 2.:: O:ijei.
i=l
Si on prend g = ei /\ ... /\ e~ pour calculer det u, on a, (définition
9.17),
Puis la relation 9u = (det u)g, calculée sur le n-uplet (e1, ... , en)
donne:
gu(ei, ... , en)= (ei /\ ... /\ e~)(u(e1), ... , u(en)) = (det u)g(ei, ... , en)
d'où det u = det A. •
et ceci étant vrlii. quels que soient X1, ... ,Xn c'est que 9uov = (det u)
(det. v)g.Maisguov = (det(uv))gd'oùl'égalitédet(uov) = (det u)(det v) .
•
REMARQUE 9.25. - Le corps K étant commutatif, on a :
Soit B = (e1, ... , en) une base de E. On considère B* = (ei, ... , e~)
base duale dans E* et, pour calculer det(f.u), si on applique ce qui précède,
on doit introduire le bidual (E*)* ainsi que la base B** duale de B* dans
le bidual. Vous pouvez passer à la page suivante!
Si on note f3 = (e1, ... , en) cette base B**, ei est définie par ej (ei) =
0 si i =/= j, 1 si i = j.
Soit alors g = e1 /\ ... /\ en un élément de /\ n ( E*) *, le scalaire
det(f.u) est tel que 9tu = det(f.u)g, avec 9tu définie, sur (E*)n, par
9tu( 'Pl,···, 'Pn) = g(f.u( cp1), ·.·,tu('Pn)) = g( 'Pl ou, ... , 'Pn ou).
En particulier, on aura
Or g( ei, ... , e~) = (e1 /\ ... /\en) (ei, ... , e~) = 1 puisque la base des
ei est duale de celle des ei.
Donc det(tu) = (e1 /\ ... /\ en)(eî ou, ... , e~ ou)
= I:: cue1ce:( 1)) ... en(e:(n)ou).
uE6n
x(f) = f(x)
x
(on vérifie facilement que est une forme linéaire de E* dans K et que
X ........ X est elle-même linéaire injective, car x(f) = 0, Vf =} X = 0 sinon X
est alors dans une base de E et la forme coordonnée suivant x vaut 1 en x.
Comme dim E = dim E* = dim E** = n ici, x!+x
est un isomorphisme).
On a alors 9(ei) est définie, pour tout ej, par 9(ei)(ej) = ej(ei) = 1 si
i =jet 0 si i =!= j, donc 9(ei) = ei précédemment introduit.
Mais alors ej (e:(j) o u) = e:(j) (u( ej)) et
CONSÉQUENCE 9.31. - Ce qui a été dit pour les colonnes peut se dire pour
les lignes. En particulier : une matrice A est inversible, ou de déterminant
non nul, si et seulement si la famille de ses vecteurs lignes est indépendante
dans Kn.
314 Algèbre
La théorie c'est bien mais cela ne suffit pas toujours et si les mathéma-
tiques, jeu de l'esprit, tiennent dans la tête, elles passent aussi par les
mains. Donc, au charbon! Comment fait-on pour calculer des détermi-
nants et dans quel but.
Soit A= (aij) 1 ,;:: i,;:: une matrice de Mn(K), qui peut être la matrice
'o:::j..;;::::n
d'un endomorphisme dans une base, ou la matrice des composantes de n
vecteurs dans une base.
On a det A= L
êua1u(1)a2u(2) ... an,u(n)·
uE6n
Si on fixe les indices i et j, le terme aij figure dans les produits associés
aux a de 6n tels que a(i) = j, et il y figure au degré 1. Si on groupe
ensemble ces produits on pourra factoriser aij et écrire
L
crESn
êualu(l) ... ai-1,u(i-1)' ai,j ... an,u(n) = aijAij.
cr(i)=j
L
crEISn
êual,u(l)a2,u(2) · · · an-1,u(n-l)an,n,
cr(n)=n
donc on a
An,n = L
crEISn
êua1,u(l) · · · an-1,~(n-1)·
cr(n)=n
n
Si on remplace Cj par Cj +L >.kCk> la n-linéarité de det A par
k=l
k#j
rapport à ses vecteurs colonnes donnera
Algèbre extérieure, déterminants 317
n
det A= det A+ L Àk det(C1 ...• 1ck1.... Cn),
k=l
k#j
tu ti2 tin
0 t22 t2n
Soit T = 0 0 t33 une matrice dont tous les termes
0 0
sous la diagonale sont nuls.
On a det T = tu t22 ... tnn. produit des termes diagonaux.
Car en développant par rapport à la 1re colonne, seul tu est non
t22 t23 · · · t2n
0 t33
nul donc det T = tu 0 , (car (-1) 1+1 = 1), et
0 tnn
on continue en développant le déterminant d'ordre n - 1, triangulaire,
obtenu. •
Au
0
A12
A22
... Alk) k
A= ( . et det A= Il det Aii·
i=l
0 Akk
n
Soit D =AB, son terme général est drs =L arkf3ks soit
k=l
n
drs =L arkAsk·
k=l
n
Mais alors, si s = r, drr L arkArk est l'expression de (<let A)
k=l
obtenue en développant suivant la rième ligne, donc drr = <let A.
Sis =f. r, l'expression drs est le déterminant de la matrice A' obtenue
en remplaçant la sième ligne de A par la rième de A, déterminant calculé
en développant <let A' suivant sa sième ligne.
En effet, les cofacteurs A~k sont égaux à ( -1 )s+k D~k avec D~k,
mineur obtenu dans A' en supprimant la sième ligne et la kième colonne.
Mais alors, ce qui reste dans A' vient de A, donc D~k = D sk et A~k = Ask·
n n
On a donc L arkAsk = L a~kA~k = det A' = 0 car, dans A', la
k=l k=l
ligne Lr figure en rième ligne et aussi en sième ligne.
Finalement, 'efr =f. s, drs = 0 d'où At(com(A)) = (<let A)In. La for-
mule (<let A)In = tcom(A) ·A se justifie de façon analogue en travaillant
en colonnes. •
Le plus souvent ceci s'applique avec card I fini, mais ce n'est pas obligé.
Nous allons relier toutes ces notions.
1
A'= X1 X2 .. . Xr 0 O
1
0 0
les r premières colonnes étant les r premières colonnes de A et les n - r
dernières colonnes étant formées de termes tous nuls sauf un valant 1,
situé sur les lignes distinctes, d'indices i1, ... , in-r·
Si on permute ces lignes pour les amener en position respectives r + 1,
r + 2, ... , n, o~ obtient la matrice
0
0 0
A"= Xf X~ ... X~ 1
0
1
où Xf, ... , X~ sont les vecteurs colonnes des coordonnées de x1, ... , Xr
mais les lignes d'indices i1, ... , in-r ayant été permutées dans les posi-
tions r + 1, ... ,n.
On a det A' =f 0, donc aussi det A" =f 0, (det A" = ± det A'). En
développant successivement det A" par rapport à ses dernières colonnes
il vient
xir
det A"=
x~l X~r
Comme les lignes de ce déterminant d'ordre r proviennent de lignes de
la matrices des r premières colonnes de A', donc de A, on a finalement
extrait de A un déterminant d'ordre r non nul, d'où (rang A) ;;:: r.
322 Algèbre
soit rang f = rang de la matrice des composantes des f (ej) dans la base
C de F, mais cette matrice c'est précisément A. · •
p
L f3iei. Alors (x1, ... , Xn) est solution de (1) {::} B E Vect(Vi, ... , Vn)
i=l
n
et B = LXi"i·
j=l
2e interprétation. On introduit E = Kn et F = KP rapportés à des
bases B et C, et f l'endomorphisme de matrice A= (aij) 1.;;i.;;p dans ces
l~j~n
bases.
Si b est le vecteur de F de coordonnées ,81, ... , ,Bp, on aura x de
coordonnées (x1, ... , Xn) dans B est solution si et seulement si le vecteur
x ayant les Xi pour coordonnées dans B vérifie f (x) = b, égalité vectorielle
ayant pour transcription matricielle AX = B, avec X matrice colonne
d'ordre n des Xj et B matrice d'ordre p des ,Bi.
Donc (1) aura des solutions si et seulement si b E ~ f, et dans ce cas,
si xo est une solution, toute autre solution vérifiant f(x) = f(xo) est telle
que f (x -xo) = 0, (linéarité de f), d'où x -xo E Ker f et x E xo +Ker f.
Comme réciproquement pour xo solution de (1) et t E Ker f on aura
f(xo + t) = f(xo) + f(t) = b, on sait déjà que si le système (1) a des
solutions ce sont les éléments d'un espace affine xo + Ker f. Mais il peut
ne pas y avoir de solutions.
Considérons donc la condition b E ~ f. Le sous-espace ~ f de KP est
de rang r, r rang de f donc rang de la matrice A, soit encore rang des
vecteurs Vi , ... , Vn de la 1re interprétation.
le cas rang r = p = nombre d'équations. Alors ~ f = KP contient
forcément b donc il y a des antécédents xo tels que f (xo) = b.
M =
(
~~:i.1 ...~~,~~ .. : : : .. ~~:~r...~~
ap,ji ap,i2 . . . ap,jr (3p
air,ir f3ir
ak,jr f3k
Algèbre extérieure, déterminants 325
qui est toujours nul si on a supposé tous les caractéristiques nuls car si
k ~ {ii, ... , ir }, on a un caractéristique, donc 0, et si k E {ii, ... , i2} on
a 2 lignes égales: on a un vecteur nul.
L
326 Algèbre
Cette technique peut servir entre autre dans l'étude des vecteurs
propres en dimension finie.
1 n
Xi = -dAL f3kAki·
et k=l
n
Or L /3kAki est le développement suivant la ième colonne du déter-
k=l
minant de la matrice Ai obtenue en remplaçant la ième colonne de A par
celle des seconds membres.
9.55. Un tel système (avec A inversible), est dit de Cramer et les formules
<let ((auvhs::"s::n)
""V"'
sont dits de Cramer.
l
EXERCICES
n
01 21 32 ... n-1
1. Inverse de la matrice A = ( ................... .
0 0 0 .. . 2
0 0 0 1
2. Calculer le déterminant
9. Soit A n =(a··) ·
iJ l~j~n
avec a··=
iJ
(-l)max(i,j) , calculer det A n·
3 2x+y 3x+y-z 3z
11. Trouver (x, y, z) E IR tel que - - - -
x +y - z z 2x-y
A=(~ ~ O 0 ... 0
~ ~. J-
.. ..•••.... .....
n-1
1 2 n-1 n
13. Soient E et F deux espaces vectoriels de dimensions respectives p
et q sur C. Soit f E L(E) et g E L(F). Calculer le déterminant de
<P: L(E, F) ~ L(E, F) définie par <P(h) =go ho f.
14. Soient A et B dans Mn(IR) qui commutent, et telles que
det(A + B) ~ O.
Montrer que pour tout p de 1\1, det(AP + BP) ~ O.
SOLUTIONS
d'où
0 0 0 0 1 -2 1
0 0 0 0 ... 0 1 -2
0 0 0 0 ... 0 0 1
2. On note M la matrice général mi,j = (i + j - l)n pour 1 ::::;; i, j::::;; n + 1.
1 b 1
. deJ"aloux, posons ai= i . - 2'
Pour ne pas f:aire j = J. - 2' on a
n
mij =(ai+ bj)n = L C~afbj-k
k=O
n+l
_ °"'(cr-1 r-l)bn+l-r
- L__, n ai j •
r=l
n+l
et avec Oi,r = Cnr-1 air-1 et {3r,j = bn+l-r
j , mij = L__, Oir {3rj devient
""' ·
r=l
le terme général de la matrice produit AB, avec A= (ai,rh..;;i,r..;;n+l et
B = (.Br,jh..;;r,j..;;n+i d'où det(M) =;== det A det B.
Dans la rième colonne de A on factorise c;;,- 1 , donc
n+l a~ ai ar n
det A= II c~-l ag a~ a~ = II c~ II (aj-ai).
r=l ~~~·; · ·. ·. ·. · ·::: · -~~~l
330 Algèbre
et
bî ... b~+l
<let B =<let
bn-1
1 ... b~-1 II (bi - bj)·
. b~· .. ·.·::. b~~~. 1,,.;i<j,,.;n+l
n
D =II c~ II -(j - i) 2 =(-1) ~nII (n - k)k+ic~.
k=O 1,,.;i<j,,.;n+l k=O
n
d'où <let A= ai .. . an+ 2.:a1 ... ai-lbiai+l · .. an.
i=l
A-B 0 0 0 B
0 A-B 0 0 B
<let M=
0 0 0 A-B B
B-A B-A B-A B-A A
A-B 0 0 .. . 0 B
0 A-B 0 .. . 0 B
=
0 0 0 A-B B
0 0 0 ... 0 A+ (p - l)B
vecteurs colonnes, on a
D = det(A+ B,B +c,c +A)
= det(A, B, C) + det(B, C, A)
1 1
= 2 det (A, B, C) = 2abc 1 a b
a2 b2
= 2abc(b - a)(c - a)(c - b), (voir exercice n° 6).
6. C'est un classique qui doit être connu. D'abord, si deux éléments Xi et Xj
sont égaux, le déterminant est nul, deux colonnes étant égales.
Si on considère le déterminant développé, c'est un polynôme de degré n-1 au
plus en chaque variable. Si on considère Xi comme une variable, ce polynôme
s'annulera si Xi= Xj pour j E {1, ... ,n}' {i}, donc ce polynôme est
divisible par chaque Xi - Xj pour i =I= j
Soit alors l'expression II (x; - Xi)· C'est un polynôme homogène
l~i<j~n
n(n -1)
de degré 2 , (nombre de facteurs), par rapport à l'ensemble des
332 Algèbre
variables, comme V(x1, ... , xn) qui est une somme den! termes tous de
n(n -1)
degrél+2+3+ ... +n-1= 2 .(ilyauntermedechaqueligne
dans un produit du déterminant). Ces deux polynômes sont proportionnels.
Or le terme qui est : de plus haut degré en Xn. et parmi ceux-là, de plus haut
.
degré enXn-1,pwsenXn-2, ... estxn n-21 ... x2 d ans 1es 2 poynomes,
n-1 xn_ 1 -
(à vérifier) d'où
V(xi, x2, ... , Xn) = Il (xj - Xi)·
l.;;;i<j.;;;n
7. Si n = 1, la relation devient a+ x = a+ x pour a et x réels elle est toujours
vérifiée.
Soit n ~ 2. Si A vérifie la propriété, det(A +A) = 2n <let A = 2 <let A
implique <let A = O. Puis, V>. E R, det(A - >.In) = <let A+ (->.r ·=
( - )... ) n : le polynôme caractéristique de A est scindé, donc A est jordanisable
sur R (chapitre X, §4). Comme le déterminant est stable par passage à une
0 1 0
matrice semblable on remplace A par A' ou
0
0 0
Si A # 0, dans A' il y a des 1 au dessus de la diagonale. Soit X'
0 0 0
0 ou avec x~,i+l = 1 - a~,i+l : on a des 0 au dessus
1
1 0
de la diagonale donc <let A' = <let X' = 0, alors que A'+ X' est inversible.
La relation det(A' +X') =<let A'+ <let X' est exclue.
Donc seule A' = 0 convient, d'où seule A = 0 est solution.
8. Soit i = u(j) l'indice de la ligne tel que, pour j fixé, aij i= 0, (il y a un seul
terme de la jième colonne non nul). Comme il n'y a aussi qu'un terme non
nul par ligne, j i= j' => u(j) i= u(j') donc u est une injection de {1, ... , n}
dans lui-même, c'est-à-dire une bijection.
On a alors <let A= éqaq(l)l a""( 2)2 ... aq(n),n i= 0 donc A est inversible.
Ou bien A est la matrice de l'isomorphisme envoyant ej sur aq(j),jeq(j)·
M =( 2x + y 3x + y - z 3z )
x+y-z z 2x-y
soit de rang 1 au plus. Si on note C1, C2, C3 les 3 vecteurs colonnes de M,
la famille {Ci,C2,C3} est de même rang que {C1 + C2 + ~3 ,C2,C3},
(matrice de passage inversible car triangulaire avec des 1 sur la diagonale).
Donc M est de même rang que
. ( 5x + 2y 3x + y - z 3z )
M' = 5x 2y
3 +3 z 2x-y'
334 Algèbre
5x + 2y 3x + y - z 3z )
M" - ( y 4z
- 0 -X - 3+3 2x - y - Z '
(si Li et L2 sont les vecteurs lignes de M', le rang de {Li, L2} est celui de
{Li,L2 - 3Li }).
Vu la forme de M", celle-ci est rang inférieur ou égal à 1 si et seulement si
5x+2y=O
et
{ 3x+y-z 3z
y 4z 2x-y-z
-x--+-
3 3
ou
5x+2y # 0
et
{ y 4z
-x- -+-
3 3
=0.
et
2x-y-z=O
t-z 3z
Le 1er cas équivaut à : 3t E R, x = 2t, y = -5t, et t 4z 9t- z
--+-
3 3
~ 3t ER, x = 2t, y= -5t, z 2 + 3tz + 3t2 = 0
-3± J2î
~ 3t E R, x = 2t, y = -5t, z = 2 t.
Le 2e cas é qwvaut
. a, : 5x ...J.O, {3x+y=4z
+ 2y -r- 2x _ y = z
~ 5x + 2y # 0, 3x + y = 4z, 5x = 5z
~x = z =y#O.
Algèbre extérieure, déterminants 335
-X 1
2
0
n-1 -X i-1
Pn(X) = l::::C-l)n+ii 0 i
i=l
-X
0
0 n-2
0 -X n-1
..__...
ordre i -1 ordre n - i
+ (n - X)(-X)n-l
n-1 .
= L (-lt+ii(-X)i-1 (-l)n-i+li(-X)n-i-1
i=l
+ (n -
X)(-X)n-l
n-1
= 2:::C-l)n-li2 xn-2 + (-l)n-1 xn-l(n - X)
i=l
n-1
=(-l)nxn-2(x2-nX-2:::i2).
i=l
13. Soit B = {ei, ... , ep} une base de E et C = {êi, ... , êq} une base de
F. On note A et B les matrices, de termes généraux aij et bij• de f et g
respectivement dans ces bases.
Soit hij l'application linéaire de E dans F définie par: hij (ei) = êj et pour
tout k =f:. i, hij(ek) =O.
= c~:.:::L:ailbvjhlv )(ek)·
!=1 v=l
</>(hij) = L L ailbvjhlv·
!=1 v=l
Si on indexe la base canonique de L (E, F) dans Pordre :
hu, h12, ... , h1q; h21, h22, ... , h2q; ... ; hpi, hp2, ... , hpq
la matrice de </> est la matrice bloc C avec
donc
q
det(A 2q+l + B 2q+l) = det(A + B) II 1 det(A + ŒjB)l 2
j=l
Algèbre extérieure, déterminants 337
0 12cosr.p
le déterminant étant d'ordre n - 1, on le développe par rapport à la Ire
colonne, et pour n ~ 3 on obtient Dn = 2 cosr.pDn-1 - Dn-2. avec
D1 = 2 cos r.p et D2 = 4 cos 2 r.p-1. On a une suite récurrente linéaire d'ordre
2, d'équation caractéristique (voir le chapitre sur les suites), r 2 - 2r cos r.p +
1 = 0, de zéros r = ei'P et e-i<p_ Pour r.p =/= O('rr) les zéros sont distincts
donc il existe deux coefficients >. et µ tels que Dn = >.ein<p + µe-in<p.
On a en particulier, (n = 1 et 2) D1 = >.ei'P + µe-i'P = 2 cosr.p, et
D2 = >.e 2i'f' + µe- 2i'P = (4 cos 2 r.p - 1).
On en déduit
µ(1 - e-. 2i'P) = 2 cos r.pe~'P - 4 cos 2 r.p + 1 et
{
>.(1 - e 2i<f>) = 2 cos r.pe-i<f> - 4 cos 2r.p + 1,
soit encore
2
{ µe-i'P2i sin r.p = 1 - 2 cos r.p + 2i cos r.p sin r.p = -cos 2r.p + i sin 2r.p
>.ei'P(-2i sin r.p) = 1 - 2 cos 2 r.p - 2i sin r.p cos r.p = -cos 2r.p - i sin 2r.p
soit 2iµe-i'P sinr.p = -e- 2i'f' et -2i>.ei'P sinr.p = -e2 i'P
i(~-<p) i(<p-~)
ouµ= e
d'' . t'
e"'= e . done
2 sm r.p 2 sm r.p
Dn = -~-(ei((n+l)<p-~) +e-i((n+l)<p-~))
2smr.p
cos( (n + l)r.p - i)
sinr.p
. sin(n + l)r.p . .
soit encore Dn = . . Il en résulte, par contmwté de Dn en r.p,
smr.p
(expression polynômiale en cos r.p), que si r.p tend vers 0, Dn tend vers (n+ 1)
et si r.p tend vers 7r, (modulo 27r), avec
particulier
On a donc:
Le plus souvent, cette somme directe ne donne pas l'espace entier d'où
la définition suivante :
u par u( en) = nen par exemple : la base 13 est une base de vecteurs
propres et comme on a une infinité de valeurs propres distinctes, on ne
peut pas avoir E somme directe d'un nombre fini de sous-espaces propres
distincts. Pour réaliser la situation décrite, on peut prendre E = IR[X] et
défini u par: P(X) ~ Q(X) avec Q(X) = XP'(X).
Travaillons dans ce qui suit avec la définition 10.9. Le lecteur curieux
pourra vérifier quels résultats resten~ valables avec la 2eme définition.
10.11. Rappelons que u est défini de F dans F par u(x) = u(x) alors
que la restriction, ulF serait l'application de F dans E définie par
ulF (x) = u(x).
Soient EI , ... , En les sous-espaces propres distincts de u, associés aux
n
valeurs propres distinctes ÀI, ... Àn de u, tels que E = EB Ei.
i=I
n
Soit x E F, comme x E E, 3 des Xi dans les Ei, tel que x = LXi.
i=I
En fait les Xi sont aussi dans F. En prenant les images successives de
l'égalité x = XI + x2 + ... + Xn paru, et comme u(xi) = ÀiXi on obtient
le système
X = XI + x2 + ... + Xn
u(x) = ÀIXI + À2x2 + ... + ÀnXn
(1) u 2(x) = (.XI) 2xI + ...... + (.Xn) 2xn
qui se résoud en :
1 1 X 1 1
.À1 Ài-1 u(x) Ài+l Àn
.xn'-1
1 (Ài-~)n-1 un~·1(x) (ÀH~)n-1 (>..n)n-1
(II) Xi=
déterminant de Van der Monde de (.Xi, ... , Àn)
344 Algèbre
induit par v sur Ei est diagonalisable, (10.10) donc il existe une base Bi
de Ei, formée de vecteurs propres pour Vi, donc pour v. Comme on est dans
Ei, sous-espace propre de u, tous les vecteurs de Bi sont aussi vecteurs
n
propres pour u, et finalement B = LJ Bi est une base de vecteurs propres
i=l
pour u, et pour v . .
•
On appelle base de diagonalisation pour u diagonalisable, toute base
formée de vecteurs propres.
Ces premiers résultats sur les vecteurs propres montrent l'importance
de la commutativité entre opérateurs linéaires, et de la notion de sta-
bilité des sous-espaces. Avant de traiter le cas des espaces vectoriels de
dimension finie, justifions-le
Rappelons que si u E L(E, F), tu E L(F*, E*) est défini par tu( r.p) =
r.p ou, si r.p est dans le dual F* de F, (définition 6.100).
Les deux formes linéaires tu( r.p) et r.p~~~)) r.p prennent donc la même
valeur sur a, mais aussi sur H, et là, elles s'annulent, donc elles sont
égales : avec >. = r.p~~~)) on a tu( r.p) = >.r.p : r.p est vecteur propre pour la
valeur propre >. de tu.
Réciproquement soit r.p un vecteur propre, dans E*, de tu, et H =
Ker r.p, avec r.p =/=. 0 bien sûr, alors l'hyperplan H est stable pour u car si
x EH, on a:
346 Algèbre
or
d'où
det(U' - Mn) = det(P- 1(U - Mn)P) =<let p-l det(U - Mn) <let P
est une somme de n! termes, (indexés par les éléments du groupe symétri-
que des permutations de { 1, ... , n} ), chaque terme étant un polynôme en
À de degré n au plus : on a bien un polynôme de degré n au plus.
On peut facilement préciser les coefficients des termes de degré n et
n - 1. En effet, si a =fa id, :Ji E {1, ... , n} tel que a( i) = j avec j =fa i.
Mais alors dans le terme écrV1cr(l) ... vi,cr(i) ... Vn,cr(n) le facteur Vij =
Uij est de degré 0 en À, le produit est de degré n - 1 au plus; mais en
fait Vij est aussi la contribution de la jième colonne : comme a est une
bijection on ne peut pas avoir a(j) = j, donc le terme vj,cr(j) ne peut être
Vj,j• il est du type Vj,k avec k =fa j, donc lui aussi de degré 0 en À.
Finalement, si a =fa id, écrVlcr(l) ... Vncr(n) est de degré n - 2 au plus.
Les termes de degré n et n -1 du polynôme det(U -Àln) proviennent
donc de éïdvnv22 ... Vnn =(un -.X)(u22-.X) ... (unn -À) et valent donc
(-.X)n et (-.X)n-l (un + u22 + ... + Unn) respectivement.
n
10.17. On sait que L Uii est ce qu'on appelle la trace de la matrice U,
i=l
ou encore de l'endomorphisme u, puisque le polynôme étant indépendant
de la base utilisée, on aura le même coefficient de À n- l dans une autre
base.
Enfin, pour À = 0, det(U - Àln) = det U, et c'est le terme constant
du polynôme. On a finalement obtenu le résultat suivant :
(
VU - Mn 1-V )( In 1 Ü ) (
Ü ->.In ~
alors que
n
•
COROLLAIRE 10.23. - On a aussi Sp(U) C LJ !:l.j, avec !:l.j disque
j=l
n
complexe de centre Ujj et de rayon µj =L luij I·
i=l
i;fj
Car chaque Di ne contient pas 0, donc 0 fi. LJi Di : 0 ne peut pas être
valeur propre, d'où U injective, donc inversible. •
10.25. Une telle matrice, où, pour chaque ligne, le module du terme
diagonal est strictement supérieur à la somme des modules des coefficients
non diagonaux de la ligne est dite à diagonale fortement dominante.
On procède de même pour les colonnes.
les p vecteurs de C
U= les n - p vecteurs de V
(.X - X)Ip
Xu(X) = det(U - X In)= 1 A
0 B-Xln-p
=(.X - X)P det(B - Xln-p);
il admet À comme racine avec une multiplicité ~ p. Comme on a appelé
o: cette multiplicité, on a donc p :::;; o:, soit encore dim Ker( u - À idE) :::;;
multiplicité de la valeur propre. •
matrice U =
(o~ : o!) est celle d'un endomorphisme u n'ayant
352 Algèbre
a - >. 1 0
0 a - >.
que a pour valeur propre, et Xu(>.) =
1
0 a->.
(a - >.)n admet a po(uroo·r~, ô~e )multiplicité n.
Or U - aln = est de rang n - 1, le sous-espace
u >.2
Àp
0
Àp
r1 r2 rp
p
d'où Xu(>.) = Il (>.j - >.p :
j=l
le polynôme caractéristique a toutes ses racines dans K et, pour chacune
d'entre elles, la multiplicité, Tj, est la dimension du sous-espace propre
associé.
Réduction. des endomorphismes 353
or ei =en
e2 = én-1, · · ·, en-k+l = ék
d'où u(ck) E Vect(ck> ék+l• ... , en) : la matrice de u dans la base C est
donc bien triangulaire inférieure. On procède de même si on part d'une
matrice triangulaire inférieure. •
u(C) u(e)
~ ~
a1
U'=
u
a2
1 vecteurs de C
ltn-1
0 0 ... 0 an ê
Comme Xu est scindé, il en résulte que X:;:;; est scindé aussi, donc dans
H il existe une base C' dans laquelle la matrice Ü' de u est triangulaire
supérieure.
La matrice U" de u dans la base C' U { ê} devient donc
a'1
a'2
Ü'
u" =
a~-1
OO ... 0 an
0 0 0 Àn
Il est alors facile de justifier, (par récurrence sur k) que dans cette base,
la matrice uk sera encore triangulaire, avec sur la diagonale, >.~, >.~,
... , À~ d'où finalement P(u) aura pour matrice dans cette base une
matrice triangulaire supérieure avec, sur la diagonale, les valeurs P(>.i)·
Mais comme le spectre d'une matrice triangulaire est formé des éléments
diagonaux (calcul évident du polynôme caractéristique) le spectre de P( u)
est bien formé des P(>.i)· •
spectre de u, (dans IR) est l'ensemble des >..k réels, et si P(X) E IR[X], celui
de P(u) est l'ensemble des P(>..j) réels, même si les Àj sont complexes.
Par exemple, dans IR 2 si u est une rotation d'angle ~· de matrice
cette matrice est {i, -i} dans C, donc vide dans IR, mais le spectre de u 2 ,
rotation d'angle 7r, donc symétrie, est devenu réel, c'est {-1, -1}, celui
de u 4 (= idE) est {1, 1}.
V--(MOîP
01NNp)' matrice bloc,
3. Polynômes d'endomorphismes
Avec p = L
anxn et Q = L
bnXn on définit R = enxn L
nEN nEN nEN
avec, Vn EN, Cn = aobn + aibn-1 + ... + anbo = L
akbl.
k+l=n
{k,!)EN2
C'est un polynôme car, sin> d0 P + d0 Q, on ne peut pas trouver de
couple d'entiers (k, l) avec k ~ d0 P, l ~ d0 Q et k + l = n, donc la suite
des Cn devient nulle si n > d 0 P + d 0 Q.
On a alors
d'où O(R) = (L
kEN
akuk) o (L
!EN
b1u1), puisqu'il s'agit d'une somme
Six :f:. 0, et sin= dimE, {x,u(x), ... ,un(x)} est une famille
liée et il existe un entier k ~ n - 1, tel que {x, u(x), ... , uk(x)} libre
et {x, u(x), ... , uk+l(x)} liée, (k est le sup des p tels que {x, u(x), ... ,
uP(x)} soit libre).
Soit F = Vect(x, u(x), ... , uk(x)}, c'est un sous-espace vectoriel de
E, de dimension k + 1 puisque {x, u(x), ... , uk(x)} en est une famille
génératrice, libre.
Soit G un supplémentaire de F, éventuellement G = {0}, et soit C
une base de G si G :f:. {O}, alors B = {x, u(x), ... , uk(x)} l,J C en est une
deE.
Dans cette base B on peut chercher la matrice U de u. Pour cela
on aura besoin de connaître u (chaque ui(x)). Si j < k, u(ui(x)) =
ui+l(x). Pour j = k, comme {x, u(x), ... , uk(x); uk+l(x)} est liée on
a uk+l(x) E Vect(x, u(x), ... , uk(x)), donc se décompose sous la forme
k
uk+l(x) = L aiui(x).
i=O
La matrice U est donc du type
1 0 0 0 a1 u(x)
0 1 0 a2 B
U= 6
0 0 1 ak uk(x).
0 c I vecteurs
de C
0 0 ao
1 a1
et en notant A = 0 , matrice de Mk+l (K), on
0 1 Œk
obtient
k
Mais alors Q(u)(x) = (-l)k+l ( uk+l(x) - :~::::>~iui(x)) = 0 vu la
i=O
définition des ai. Comme le polynôme caractéristique P = Xu est multiple
de Q, avec P = QR = RQ on a
->. 0 ao
1 ->. a1
Q(>.) =
0 ->. Ü!k-1
1 ak - >.
k
Q(>.) = (ak - >.)(->.)k + ~)-l)i+k+lai-ldi avec
i=l
->.
1
0 I i-1 lignes
0 1 ->.
di= ième ligne supprimée
1 ->. 0
0 I k+l-i lignes
->.
1
364 Algèbre
k
= (-l)k+l Àk(À - ak) + L.::C-l)i+k+lai-1(-À)i-l,
i=l
soit avec j = i - 1
k-1
= (-l)k+l ( Àk+l - akÀk - L
ajÀj) :
j=O
c'est bien le résultat indiqué.
•
COROLLAIRE 10.46. - Si u est un automorphisme de E '.: : : Kn, son inverse
est un polynôme en u.
Soit x E Ker(PQ(u)).
On a x = idE(x) = P(u)(R(u)(x)) + Q(u)(S(u)(x)).
On pose XI = P(u) o R(u)(x) et x2 = Q(u) o S(u)(x). On a:
n
lynôme scindé à racines simples P = II (X ->.k) est tel que P(u)(xi) =
k=l
n
0, 'r/xi E Ei. Comme E = ffiEi par linéarité, P(u) annule chaque vec-
i=l
teur vecteur x de E. Donc u annule P, polynôme scindé à racines simples.
Réciproquement, s'il existe un polynôme Q, scindé sur K, à racines
n
simples, tel que Q(u) = 0, en décomposant Q en Q(X) = II (X - >.k),
k=l
les >.k étant distincts les polynômes X - Àk sont premiers deux à deux
donc le théorème des noyaux s'applique et donne
n
Ker(Q(u)) = Ker(O) = E = ffiKer(u - ÀïidE),
i=l
et soit u - ÀïidE injective, donc Ài non valeur propre, mais dans ce cas
Ker(u - ÀiidE) = {O} n'intervient pas dans la somme directe,
soit u - ÀïÏdE non injective, dans ce cas Ài est valeur propre de u et
Ker(u - ÀiidE) est bien sous-espace propre associé : on a finalement E
somme directe d'un nombre fini de sous-espaces propres. •
Puis Ker P1 (u), et Ker P2 (u) sont stables par u car comme u et P1 (u)
commutent, six E Ker P1(u) on a P1(u)(u(x)) = u(P1(u)(x)) = u(O) =
0 donc u(x) E Ker P1(u).
Soit u1 induit paru sur Ker(P1(u)), et de même u2 induit paru sur
Ker(P2(u)). Si B1 et B2 sont des bases de ces sous-espaces et si U1 et
U2 sont les matrices de u1 et u2 dans ces bases, la matrice U de u dans
ceci doit être nul, (P(u) = 0 car P polynôme minimal), alors que
r
II (>.j - >.i)/3i est un scalaire non nul et que x est non nul.
j#i
j=l
370 Algèbre
r
On a donc 1 :::; /3i :::; ai. Par ailleurs E = Ef) Ker( u - Àiid).Bi,
i=l
r
(corollaire 10.48 pour le polynôme minimal) et aussi E = Ef) Ci> (sous-
i=l
espaces caractéristiques), c'est donc que :
Ker(u - .Àiid).Bi = Ker(u - .Àiid).Bi+ 1 = ... =Ci.
C'est au cran /3i que commencent les égalités, car si on avait
Ker(u - Àiid).Bi-l = Ker(u - Àiid).Bi, (u - .Àiid).Bi-l annulerait déjà Ci
donc le polynôme :c.:1.i
annulerait déjà u, ce qui contredit P minimal.
Enfin, on voit bien que (U diagonalisable){:} (Ei (sous-espace propre)
= Ci (sous-espace caractéristique)), soit {:} (Ei = Ker( u - Àiid E ).Bi, pour
tout i). Ceci signifie que les égalités commencent au cran 1, c'est-à-dire
que /3i = 1 : on retrouve de fait que le polynôme minimal est scindé à
racines simples, (Théorème 10.51).
k
Il en résultera que Vk E N, uk =L cr.dk-r nr sera calculable, avec
r=O.
pour r >l'ordre de nilpotence den, nr =O.
q
Soitxu(X) =II (X - Ài) 0 " le polynôme caractéristique de u, scindé
i=l
sur K, avec a1 + a2 + ... + aq = p = dim(E). On a vu, (Corollaire
10.53) que E est somme directe des Ci = Ker( u - ÀiidE yi.i, sous-espaces
caractéristiques de u, les ci étant stables par u. Soit Ui l'endomorphisme
induit sur ci par u et Vi = Ui - .Xiidc.- Si Xi E ci> on a vfi (xi) =
(u - ÀiÏdE) 0 "(xi) = 0, vu la stabilité de Ci paru.
Réduction des endomorphismes 371
q q
Pour X E E = E9 ci décomposé en X = L Xi, avec Xi E ci. on
i=l i=l
définit alors
q
d(x) = L Àixi,
i=l
q q
et n(x) = L Vi(xi) = L(u(xi) - ÀiXi) en fait.
i=l i=l
q
Donc u(x) = L u(xi) = n(x) + d(x). De plus d est un endomorphisme
i=l
diagonal car sur chaque ci. d agit comme l'homothétie de rapport Ài, et
n est nilpotent car, les Vi(Xi) étant dans Ci on a
q
n 2 (x) = L v'f(xi) et plus généralement
i=l
q
nr(x) =L vi(xi),
i=l
mais alors, sir= sup(ai, i = 1, ... , q), chaque vi(xi) = 0 donc nr =O.
Enfin net d commutent puisque, les ÀiXi et les Vi(Xi) étant dans ci
q q
on a n(d(x)) = L vi(Àixi) alors que d(n(x)) = L Àivi(xi), ces deux
i=l i=l
expressions étant égales, vu la linéarité des Vi.
On vient de justifier l'existence d'une telle décomposition u = d + n.
Passons à l'unicité. Soit u = d' + n' une autre décomposition.
Onaud' = (d'+n')d' = d' 2 +n1d1 = d' 2 +d1n 1 ,card1 etn' commutent,
d'où ud' = d'u. On justifie de même que u et n' commutent.
Mais alors w = (u - ÀiidE)°'i et d' commutent : il en résulte que
Ci= Ker(u-ÀiidE)°'i, qui est le sous-espace propre de w pour la valeur
propre 0 est stable par d1 , (Théorème 10.14).
On a d' diagonalisable et Ci sous-espace stable par d', il résulte donc
du théorème 10.10 que d~ induit par d' sur ci est diagonalisable.
Soit alors X un vecteur non nul de ci> vecteur propre de d~, donc de
d' puisque d~ est induit par d' sur Ci. Soit À la valeur propre associée.
On a d'(x) = Àx d'où u(x) = d'(x) + n'(x) = Àx + n'(x).
372 Algèbre
Si n'(x) =f. 0, comme n' est nilpotent, il existe un entier r tel que
n'r(x) =f. 0 et n'r+l(x) =O. Si n'(x) = 0, r = 0 convient.
Or u et n' commutent donc u et n' r aussi et
soit finalement, avec n' r (x) =f. 0 on a u( n' r (x)) = À · n' r (x) ce qui prouve
que À est valeur de u. De plus, X est dans ci. qui est stable paru, et aussi
par d'. Comme n' = u - d', Ci est stable par n' aussi, donc ce vecteur
propre n'r(x) de u est dans Ci. Mais.sur Ci= Ker(u-ÀiidE)°'i la seule
valeur propre possible À de u c'est Ài, (si on a z E Ci tel que u(z) = Àz
avec z =f. 0::::} (u - ÀiidE)°'i(z) =(À- Ài)°'iz = 0::::} À= Ài).
Comme di induit par d1 sur Ci est diagonalisable avec pour seule
valeur propre Ài, c'est que di= -Xôdci =di, induit par d sur ci.
q q
Donc, Vx E E, décomposé en x = LXi on aura d'(x) = LÀiXi =
i=l i=l
d(x) d'où d1 = d et n' = u - d1 = u - d = n: on a l'unicité voulue. •
Hj EB v(Mj+I) EB Nj = Ni+l•
et en posant Mj = Hj EBv(Mj+I) on aura bien trouvé un sous-espace Mj
du type voulu. •
Le procédé est récurrent. Comment s'achève-t-il?
Si on a trouvé Mi avec Mi EB Ni = N2, et v(M2) C Mi, on
vérifie encore que v(Mi) est sous-espace de Ni et comme No = {O},
il suffit de prendre pour Ho un supplémentaire de v(Mi) dans Ni on
aura Mo =Ho EB v(Mi) =Ni en fait, car Mo EB No =Mo EB {O} =Mo.
Mais alors E = Nk = Mk-i EBNk-i = Mk-i EB(Mk-2EBNk-2) = ... ,
on itère et finalement on obtient :
où il se peut que r2 =ri, donc que cette tranche n'existe pas, et on conti-
nue ainsi jusqu'à l'introduction, pour finir, des vecteurs erk-l + i, ... , erk
qui, étant dans Mo= Ni seront d'image nulle par v, ainsi d'ailleurs que
v k-i( ei ) , ... , v k-i( er 1 ) , m8.Is
. aussi. v k-2( er 1 +i ) , ... , v k-2( er2) ...
Mais alors la matrice de v dans cette base est :
( ~ ~ 0 ~i
: ·. 0
1
0 0
vk-l(e1)
vk-2(e2)
c
0
V=
1 ~) 0
0 0 .c 1
tous les blocs diagonaux sont des matrices carrées d'ordre k au plus
~)
où tous les coefficients sont nuls, sauf ceux qui bordent la diagonale
principale, immédiatement au dessus, et qui valent 1.
376 Algèbre
du type ( ÜO
1
· .1 .
·. ·.1
Ü), carré d'ordre f3i au maximum.
0
ui ci>
l
La matrice de Ui induit par u sur sera, une matrice bloc
À 1 0
0 À 1 0
J= 0 0 À
0 1
1
que U2 = (000 000 001) et u 3 = 0 donc le polynôme minimal est X 3 ' car
c'est un diviseur de Xu(X) et X, X 2 sont exclus.
Soit A et B les matrices (6, 6), blocs diagonales définies par
A= ( ~ ~) et B = ( ~ ~) .
x
Elles sont ~Our polynôme caractéristique 6 toutes les deux, et A 2 =j:. 0,
B 2 =j:. 0, A = B 3 = 0, (calcul par blocs) donc elles sont même polynôme
minimal. Et pourtant elles ne sont pas semblables puisque A est de rang
4 et B de rang 2.
En fait, elle sert entre autre, à calculer les puissances d'une matrice
carrée A.
À 1 0
0 À 1 0
0 0 À
En effet, soit J = une réduite élémentaire de
0 0
0 1
À
Nk= 1
, alors que NP = O.
0
0 0
Le plus simple est de noter ei, ... , ep la base canonique de KP et de
remarquer que N est la nature de l'endomorphisme nilpotent v défini par
ei-+ 0 et Vk = 2, ... ,p, ek ~ ek-1• pour calculer la matrice de vk.
Comme Àlp et N commutent, par la formule du binôme on a, Vn E N
n
in= L _xn-kc~Nk,
k=O
10. 70. On peut aussi se rappeler qu'un polynôme P annulant A peut servir.
Soit P un polynôme annulant A, de racines µ i, ... , µk de multiplicité
respectives ai, ... , ak. On peut par exemple prendre pour P le polynôme
caractéristique, mais ce n'est pas obligatoire. Soit p le degré de P.
On divise xn par P: 3Qn, 1Rn dans C[X] tel que
OnestportéàécrireA=(a-b)In+b (1... 1)
1 ...
~
1
~ =(a-b)In+bL.
'-..,-'
=L
On vérifie facilement que L 2 = nL, d'où L 3 = nL 2 = n( nL) = n 2 L,
et plus généralement , Vr ;;::: 1 on a Lr = nr-l L. Comme bL et
l'homothétie (a - b)In commutent, on a donc, pour q;;::: 1
= (a - b)q In + ~ ( (a - b + bn )q - (a - b)q) L
=(a- b)q(In - ~ L) +~(a+ b(n - l))qL.
EXERCICES
3.
2A
Soit A E Mn(C), et B la matrice bloc ( A
-4A)
-A . Montrer que
si A est diagonalisable, B l'est.
4. Les matrices A = ( ~
1 1
! -1)
-2
1
etB = (3
-1
1
semblables?
7. Soit A E Mn(IR) telle que An= 0 et An-l =fa O. Montrer que A est
18. Soit E = {!; f E C 0 ((0, +oo(, IR), lim f(x) existe}. On définit cp
x-++oo
de E dans Epar cp(f)(x) = f(x + 1). Valeurs propres de cp? Même
question pour cp1 induite par cp sur E' = {!, f E C 00 ([0, +oo[, IR),
lim f (x) existe}.
x-++oo
SOLUTIONS
P(x)=kexp (! nx-a
x2 _ 1
+À) .
386 Algèbre
p
Donc A doit être telle que pour k = 1, 2, ... , n, L aj.>.j = n.
j=l
p
On peut adjoindre à ces n équations la relation L Œj = n, d'où un système
j=l
équivalent :
p
L ŒjÀJ- 1(.>.j - 1) = 0 pour k = 1, ... , n, (avec la convention.>.~ = 1).
j=l
p
Pour k = 1, ... ,p, les relations Laj(j- l).>.J- 1 = 0, avec des Àj
j=l
distincts imposent chaque Œj(Àj - 1) = 0, (matrice des (.>.3~- 1 ) 1 ,;:.i,;:
"'k"'P
inversible) d'où Àj = 1, et alors les relations restant sont vérifiées. Donc,
(tr Ai = 1 pour j = -1 ... n) {::} (1 seule valeur propre de A).
6. Les sous-espaces {O} et C3 sont stables. Ceux de dimension 1 sont les droites
vectorielles engendrées par des vecteurs propres. Ceux de dimension 2 sont
les noyaux des formes linéaires vecteurs propres de tA.
On trouve XA(.>.) = -.>. 3 : 0 est seule valeur propre de A, le sous-espace
propre étant l'hyperplan H d'équation x + jy + j 2 z = O.
Donc toute droite D passant par 0 et contenue dans H est stable. Le plan
H est stable.
Puis les formes linéaires cp1 et cp2 de composantes (1, 1, 1) et (1,j,j 2) étant
vecteurs propres de tA, engendrent le plan des formes cp = Àcp1 + µcp2,
vecteurs propres de tA.
Tout plan P d'équation .>.(x +y+ z) + µ(x + jy + j 2z) = 0 est stable par
A.
7. On retrouve l'étude des endomorphismes nilpotents faite dans la jordanisà-
tion, (Ch. X, §4). Si a est l'endomorphisme de matrice A dans une base, (cano-
nique par exemple), de Rn, il existe un vecteur u de Rn tel que an-l (u) =fa O.
La famille B = {u, a(u), ... , an-l(u)} est alors libre, donc c'est une base
de Rn, (n vecteurs).
n-1
En effet, si on a des Àj E R tels que L
.>.jai (u) = 0, en prenant l'image
j=O
par an-l il reste .>.oan-l(u) = 0:::} .>.o = 0, puis l'image par an- 2, an- 3,
... , a 0 impliquera .>.1, .>.2, ... , Àn-1 = O. Dans la base B la matrice de a
est J, donc A et J sont semblables.
8. Si A =
-7 5
( -19 10 -12
-13 5 -6
-6) , le polynôme caractéristique est XA(.>.) =
0 0
X= P ( 0 éiJXl
0 0
{::>
{ Y=>.X
2AX + AY = >.Y {::>
{Y=>.X
(2 + >.)AX = >.2 X
caractéristique, on a :
relation établie pour>.=/= 0, mais comme il s'agit d'un polynôme, valable V>..
Si <let A= 0, on utilise la densité de GLn(C) dans Mn(C) et la continuité
des coefficients de Xcom A par rapport à ceux de A (expression polynômiale)
pour dire que le résultat (1) reste valable et donne Xcorn A ( >.) = ( -1) n ( >. n +
al>.n-1).
Densité de GLn(C) dans Mn(C) : si la matrice carrée B est telle que
<let B = 0, c'est que 0 est racine de XB(>.) = det(B- >.In), mais les zéros
d'un polynôme étant isolés, :3a > 0 tel que Vz, 0 < \z\ < a => B - zln
inversible, et lim (B - zln) = B.
Z--+Û
12. La matrice D admet n sous-espaces propres E1 , ... , En qui sont des droites.
Si A commute avec D, les sous-espaces propres Ei sont stables par A,
comme ce, sont des droites, ce sont les sous-espaces propres de A qui est
donc diagonale. Comme A, semblable à D a le même spectre c'est que
A= diag(u(l), u(2), ... , u(n)) avec u E 6n : il y an! matrices semblables
à D qui commutent avec D.
et ainsi JP+ 2 (x) E Vect:F. On vérifie par récurrence sur q que jP+q(x) E
Vect :F, d'où :F est génératrice pour E : c'est une base, donc card(:F) =
n => p = n - 1 et {x, f(x), ... , fn-l(x)} est une base de E.
Si B = { e 1, ... , en} est une base de vecteurs propres pour les valeurs
n
propres Ài, ... , Àn, le vecteur x ~ L Xiei est cyclique si et seulement si
i=l
la famille { x, f (x), ... , fn- l ( x)} est libre vu ce qui précède. La matrice
des composantes de ces vecteurs dans la base B est
x2
.>.1x1
>.2x2
...
,~-'x,)
>.n-1 x2
2
A=
C'Xn ÀnXn
).n_:l
n Xn
dedéterminantdet A= (x1x2 ... Xn) det Van der Monde(.>.1, .>.2, ... , Àn).
Donc, s'il y a une valeur propre multiple, det A nul pour tout x, pas de
vecteur cyclique pour f, et si toutes les valeurs propres sont distinctes, (x
cyclique) ~ (x a chaque coordonnée non nulle suivant chaque vecteur propre
de la base B). (Voir Chapitre 9, exercice n°6 pour Van der Monde).
14. Comme A est nilpotente, il existe k E N* tel que Ak = O. Si .>. est une
valeur propre et x un vecteur propre non nul associée, on a A k x = .>. k x = 0
avec x =f. 0, d'où >.k = 0 et.>. = 0 est seule valeur propre. Le polynôme
caractéristique est donc XA (X) = ( -xr.
Le théorème de Cayley-Hamilton
prouve alors que An = O. Pour la suite de l'exercice, on se place dans
Mn(C).
Si AP = PA, il existe une base commune de trigonalisation pour P et
A, donc il existe Q régulière telle que Q- 1AQ soit triangulaire supérieure
avec des zéros sur la diagonale, et Q- 1 PQ soit triangulaire avec Pl .. ·Pn
sur la diagonale. Alors Q- 1(A+ P)Q et aussi triangulaire avec Pl, ... , Pn
sur la diagonale donc det(A + P) = Pl ... Pn = det P, et les calculs de
déterminant se font dans R.
15. A= bln+B, avec b matrice dont les lignes par exemple sont a1(ai, ... , an)
puis a2(a1, ... , an) et ... , an(a1 ... an).
Si tous les ai sont nuls A est l'homothétie bln.
n
Si La~ =f. 0, (on est sur R), B de rang 1 admet 0 pour valeur propre d'ordre
i=l
n - 1, de sous-espace propre l'hyperplan d'équation a1x1 + ... + anXn = 0;
n n
et La~ = trace(B), valeur propre simple, de vecteur propre L aiei avec
i=l i=l
(e1 ... en) base canonique.
392 Algèbre
D'où pour A, b valeur propre d'ordre n-1, vecteurs propres les aieio -aioei,
n
(si, aio # 0), pour i E { 1, ... , n} - { io} ; et b+ L a~ valeur propre simple,
i=l
n
de vecteur propre L ai ei.
i=l
16. Si B = (e1 ... en) est la base canonique, et B' la base des e~ = Ctiei, si u
est l'endomorphisme de matrice M dans la base B on aura
18. Il est clair que E est sous-espace vectoriel de c0 ([0, +oo[, R), que E' est
sous-espace de E, et que cp est linéaire.
Si À réel est tel qu'il existe f non nulle dans E vérifiant cp(f) = .Xf, on a,
pour tout x ~ 0, f(x + 1) = .Xf(x). Faire intervenir les hypothèses, c'est
traduire f =fa 0, donc calculer en xo tel que f(xo) =fa 0, et aller se promener
vers +oo, donc calculer en xo + 2, xo + 3, ... Une récurrence immédiate
prouve que f(xo + n) = .xn f(xo) et l'existence de la limite se traduit par
lim Àn existe, (car f(xo) =fa 0), d'où À E] - 1, l].
n-++oo
19. Comme B: Mn(C) ~ Mn(C) définie par B(M) =AM-MA est linéaire,
l'ensemble cherché est KerB, c'est un sous-espace de Mn(C). Les valeurs
propres de A étant distinctes, A est diagonalisable. Avec P régulière telle
que p-l AP = A' = diag(>.1, ... , Àn) et M' = p-l MP, on a (A et
M commutent) <:::} (A 1 et M' commutent). Or le terme de la ième ligne
J·ième co1onne de A'M' - M'A' est Aimij
' ' - mij/\j
' ' = ('Ai - /\j' )mij•
' done
(A' M' = M'A') <:::} (Vi =fa j, m~j = 0), puisque Ài - Àj =fa O.
Il reste les n coefficients diagonaux indépendants donc Ker B est de di-
mension n. Comme I, -A, A 2 , ... , A n-l sont dans Ker B, il reste à justi-
fier leur indépendance pour conclure. C'est équivalent à l'indépendance de
n-1
/ '"" akA 1k = 0 se traduit par
I, A I , A 1 2 , ... , An- 1 , or une relation du type~
k=O
les n équations ao + Àial + À~a2 + ... + >.f- 1an-l = 0, i = 1, ... , n,
avec les Ài distincts. On a un système homogène, de matrice inversible, (Van
der Monde) d'où les ak nuls.
394 Algèbre
21. Soit u vérifiant la propriété, À une valeur propre, (existe car racine du
polynôme caractéristique) et E>. = Ker(u - >.idE) le sous-espace propre
associé, il existe F sous-e~ace de Estable paru, tel que E = E>. EB F.
L'endomorphisme induit, u, par u sur F admet à son tour des valeurs
l!.ropres, (on est en dimension finie sur C), _Elais si µ est valeur propre de
u on aµ# À, (l'existence de x dans F avec u(x) = u(x) = Àx impliquerait
x E E>. d'où x E E>.nF = {O}, et le sous-espace Ker(u-µ idF) c Ker( u-
µ idE) en fait, mais six E Ker(u - µidE), avec x = y+ z décomposé
dans E>. EB Fon a u(x) = µx = µy+ µz = u(y) + u(z) = >.y+ u(z)
avec >.y E E>. et u(z) E F d'où u(z) = µz donc z E Ker(u - µidF) et
µy = >.y => y = 0 car >. # µ. Finalement x = z est dans Ker(u - µ idF).
En notant Eµ = Ker(u - µidE) on a E = E>. EB EµEB (un supplémentaire
stable) ... et on itère, (ou on raisonne par récurrence sur dim E) finalement
u est diagonisable.
Réciproquement, soit u diagonisable, B = { ei, ... , ep} base de vec-
teurs propres de E. Si Fest sous-espace stable, de base {Ji, ... ,fp},
le théorème de la base incomplète donne une famille { ei 1 , . . . , ein-p}
extraite de B qui complète {fi, ... , fp} en une base de E. Mais alors
G = Vect(ei 1 , ... , ein-p) est supplémentaire de F, stable paru.
CHAPITRE 11
Formes quadratiques
11.2. Ôcp : Y ~ ôcp(Y) est linéaire de E dans E*, car \i(Y, Y') E E 2 ,
\i(..\, .X') E K 2 , ôcp(ÀY + .X'Y') est l'application de E dans K définie par
et comme c'est vrai pour tout X de E c'est que les formes ôrp(>.Y +>.'Y')
et ÀÔrp(Y) + >.' ôrp(Y') sont égales, d'où la linéarité de Ôrp. •
11.5.
Dans ce cas r.p est la forme linéaire symétrique associée à </J, on parle
encore de forme polaire de </J.
Seule la réciproque est à justifier. Or si </J vérifie 1) et 2), non seulement
r.p est bilinéaire, ce qui est supposé, mais elle est symétrique car
THÉORÈME 11.11. - Soit <P une forme quadratique sur E. L'ensemble des
vecteurs isotropes pour <P est un cône, appelé cône isotrope de </J.
DÉFINITION 11.12. - Une forme quadratique <Pou sa forme polaire <p, est
dite définie si et seulement si son cône est réduit à {O}.
C'est encore Ao = n
YEA
Ker 8'P(Y) et c'est encore l'orthogonal de la
•
400 Algèbre
DÉFINITION 11.16. - Soit une forme quadratique </J de forme polaire <p sur
E vectoriel sur K. On appelle noyau de la forme quadratique le sous-espace
vectoriel E 0 . La forme est dite non dégénérée si et seulement E 0 = {O}, et
dégénérée si E 0 f. { O}.
THÉORÈME 11.18. - Soit </J une forme quadratique. Son cône isotrope
contient le noyau.
THÉORÈME 11.21. - Soit <p bilinéaire symétrique sur E vectoriel sur K. Elle
induit une forme bilinéaire symétrique non dégénérée sur l'espace quotient
E/E0 .
11.22. On définit <p sur E/E0 par [p(X,Y) = <p(X, Y), avec XE X et
Y E Y, ceci ayant un sens vu l'indépendance par rapport aux choix des
représentants que l'on vient d'établir.
Il est facile de vérifier que <p est symétrique, bilinéaire. Elle est non
dégénérée car si X est dans le noyau de E / E 0 pour <p, on aura (p( X, Y) =
0 pour tout Y de E / E 0 . Soit donc X un représentant quelconque de
X, si Y E E et si Y est sa classe d'équivalence dans E/E0 , on aura
[p(X, Y) = <p(X, Y) = 0 et ce W E E, donc X E E 0 et X classe de X
est alors E 0 , élément nul de E / E 0 . •
Puis (F n G) c F * Fo c (F n G)o et
(F n G) c G * Go c (F n G)o d'où pO +Go c (F n G)o. •
Donc F est non isotrope si et seulement si cp' induite par cp sur F est
non dégénérée, et totalement isotrope si cp1 = O.
d'où cp conservée.
•
Enfin, le fait qu'on ait imposé u bijective permet de voir que si u et v
bijectives conservent </J, il en est de même pour u- 1 et u o v. Comme idE
est un opérateur orthogonal, on a
n
avec y= L Yiej, (attention à ne pas prendre le même indice), donc
j=l
n n n n
cp(x,y) = LXicp(ei,LYiei) = L:xi(LYicp(ei,ej)),
i=l j=l i=l j=l
ou
n n
11.29. cp(x,y) = LLXiYjcp(ei,ej)
i=l j=l
Ecriture matricielle de cp
.
La base B étant fixée, si on pose Wij = cp( ei, ej) l'expresion 11.29 s'écrit
u
donc valant L WijYj et finalement cp(X, Y) devient le produit de la
j=l
matrice ligne tx = (x1 ... Xn) par la colonne nY d'où l'expression
matricielle
Rappelons que Ôep : E 1-+ E* est définie par : ôep(Y) est l'application
linéaire de E dans K qui à x associe ôep(Y)(x) = cp(x, y).
Si {e1, ... ,en} = B, en notant {eî, ... ,e~} la base duale (donc ej
n
est la forme coordonnée qui à x =L Xiei associe Xj), la matrice de Ôep
i=l
relativement aux bases B et B* est obtenue en cherchant à décomposer
chaque Ôep (ej) dans B*, et cela donnera les éléments de la jième colonne
de la matrice cherchée.
ôep(ej)(x) = (twijei) (x): ceci étant vrai pour tout x de E c'est que
i=l
n Wlj)
ôep(ej) = LWijei : la jÏème colonne est donc ( w2·
; '. dondl est bien
i=l
Wn3
la matrice de Ôep dans les bases B et B*.
•
Comme le rang des matrices associées au même homomorphisme ne
dépend pas des bases choisies en dimension finie, si on part d'une base
B' de E on aura une autre matrice n' qui sera de même rang. On peut
donc introduire la notion de rang de cp bilinéaire symétrique, ou de 4?
quadratique.
DÉFINITION 11.33. - Soit </>quadratique sur E :::::: Kn, de forme polaire cp.
On appelle rang de </>, ou de cp, le rang de l'homomorphisme Ôep de E sur
Formes quadratiques 407
E*. C'est donc aussi le rang commun de toutes les matrices associées à </>
dans des bases de E.
Par ailleurs on a vu, (11.31) que <p(x, y) = txnY sin est la matrice
de <p dans la base B. On aura de même <p(x, y)= t X'O'Y'.
Or t XOY = t(PX1 )0(PY1) = tx1(tPOP)Y' et, vu l'unicité de la
matrice associée à <p dans la base B', c'est que
n' = tpnp. •
REMARQUE 11.39. - Attention à ne pas confondre avec A' = p-I AP,
formule donnant A', semblable à A, pour les endomorphismes. D'ailleurs
ona
n n
11.44. cp(x,y) = LLWijXiYj. (avec Wij = cp(ei,ej)) et la forme
i=l j=l
n n
quadratique vaut <P(x) =L LWijXiXj, soit comme Wij = Wji•
i=l j=l
n
11.45. <P(x) = LWiiXf + L 2WijXiXj
i=l 1..;;i<n..;;n
La forme bilinéaire symétrique cp (xi, ... , Xn; Yl, ... , Yn) associée se
1
retrouve en remplaçant Xf par XiYi et XiXj par 2(XiYj + XjYi)·
On peut enfin vérifier, qu'avec Q polynôme quadratique, et cp polynôme
bilinéaire symétrique associe, on a l'identité d'Euler :
11.47.
n n n n
carcp(x1, ... ,xn;yi, ... ,yn) = Lxi(LwijYj) = ( L (Lwijxi)Yi
j=l j=l i=l
âQ n
or âx. (x1, ... , Xn) = 2ajXj + L aijXi. Comme on a Wii = ai et
J i=l
i#j
aij = 2Wij on obtient bien
Formes quadratiques 411
n
d'où l'identité L Yi aaQ_ (x1 ... Xn) = 2cp(xi, ... 'Xni yi, ... 'Yn)·
j=l X3
Nous arrivons enfin au résultat le plus important concernant les formes
quadratiques, ou les formes bilinéaires symétriques, en dimension finie,
l'existence de base (e1 ... en) conjuguées, c'est-à-dire telles que Vi =fa j,
<,o(éi, ej) = 0.
11.49.
En particulier on a :
0 (1)
0 0
<P définie par x...,... L >.if'f (x) avec les Ài, 1 ~ i ~ r, non nuls.
i=l
C'est une forme quadratique, de forme polaire
T
cp(x, y) =L Àifi(x)fi(Y),
i=l
Formes quadratiques 413
0
A=
0
0 0
donc de rang r.
On a donc:
</> = axy + XIB(x2, ... ,xn) + C(x2, ... ,xn) avec a=/: O,a E K
B polynôme homogène de degré 1 en x2 ... Xn et
C polynôme homogène de degré 2 en x2 ... Xn.
B2
Comme C - 4a est un polynôme homogène de degré 2 en x2, ... , Xn.
il se décomposera en carrés de formes indépendantes et indépendantes de
fi qui elle fait intervenir la variable x1.
2e cas: Il ny a pas de carré, mais,</> étant non nul, un terme en XiXj avec
i =f. j a un coefficient non nul. Par exemple le terme en x1x2.
On ordonne alors </> en xi, x2
a
avec =f. 0, B n'ayant pas de terme en xi, (sinon</> contiendrait du xi),
ni en x2, (le terme en x1x2 ayant été isolé). De même C n'a pas de terme
en x1 ni en x2.
De plus B et C sont polynômes homogènes de degré 1 et D est
homogène de degré 2 en X3, ... , Xn.
C'est encore
x2 étant 1 ~ ~ 1 = a =/. O.
Comme fih = ~ (4fih) = ~ ((!1 + h) 2 - (!1 - h) 2), (n'oublions
pas que la caractéristique du corps est =f. 2), on a
1 1 BC
</> = -4 (!1 + h) 2 - -
4
(fi - h) 2 + D - -.
a
Les formes fi + h et fi - h sont indépendantes, (matrice par rapport
à {fi, J2} inversible), et D - BC est un polynôme quadratique en
a
X3, X4, •.. , Xn : sa décomposition en carrés de formes indépendantes fera
intervenir des formes ne dépendant pas de x1 et x2, donc indépendantes
de fi + h et fi - f2.
Ce procédé fournit une décomposition en carrés. Attention cependant,
on obtient directement les formes linéaires fi, ... , fr, r = rang de </>,
Formes quadratiques 415
c'est-à-dire que les coefficients de Ji, ... , fr; fr+l• ... , fn fournissent les
lignes de p-l puisqu'on obtient les nouvelles coordonnées en fonction des
anciennes.
Voyons enfin un résultat pouvant servir concernant la réduction simul-
tanée de 2 formes.
<P1 ( ej)
et les 2 formes Ôrp 1 (ej) d'une part et <P2(ej) Ôrp2 (ej) d'autre part sont
égales car elles prennent les mêmes valeurs sur les vecteurs de B.
<P1 ( ej) .
Donc 3Àj = <P2(ej) dans le corps K tel que Ôrp 1 (ej) = ÀjÔrp2 (ej) ce
qui équivaut, 8rp2 étant inversible, à 8;p21 o 8rp 1 (ej) = Àjei : la base Best
une base de vecteurs propres pour 8;pi o Ôrp 1 qui est bien diagonalisable.
416 Algèbre
<p1(ev,eu) = Àicp2(ev,eu)·
<p1(eu,ev) = Àj<p2(eu,ev)·
DÉFINITION 11.55. - Une forme quadratique </> sur E vectoriel réel est dite
positive (resp. négative) si, \::/x E E, </>(x) ~ 0, (resp. \::/x E E, </>(x) ~ 0).
Bien sûr, on passe de </> positive à une forme négative en prenant -</>,
et réciproquement.
THÉORÈME 11.56. - Une forme quadratique réelle </> définie est de signe
constant.
Sinon, supposons </> définie, et prenant des valeurs de signes contraires.
Soit x E E avec </>(x) > _0 et y tel que </>(y) <O.
Pour tout t réel, </>(tx + y) = t 2</>( x) + 2tcp( x, y) + </>(y), (avec cp forme
polaire de</>), est un trinôme en t, de discriminant réduit
~ = (cp(x,y)) 2 -</>(x)</>(y) > 0 puisque </>(x)</>(y) <O.
Ce trinôme a deux racines ti et t2 distinctes, et non nulles car
</>(Ox +y) = </>(y) < O. Les vecteurs tix +y et t2X +y sont non nuls,
sinon y= -t1x par exemple donne </>(y)= (-t1) 2</>(x), soit </>(y) et </>(x)
de même signe.
On aurait donc deux vecteurs =/. 0 dans le cône isotrope : c'est exclu.
Donc </> est de signe constant. •
(cp(x,y)) 2 ~ </>(x)</>(y).
(cp(x,y)) 2 -</>(x)<f>(y) ~ 0
ce qui est le résultat.
Si </>(x) = 0 il reste O(t) = 2tcp(x, y)+ </>(y). C'est une fonction affine
en t, de signe constant, donc la variable t n'y figure pas, d'où cp(x, y) = 0,
et l'inégalité devient 0 ~ 0, c'est vrai! •
Puisque </> est alors de signe constant et (définie) {::} (cône isotrope)
= {O} alors que (non dégénérée) {::} (noyau = {O} ). •
<p(x,y) ~ v</>(x)<f>(y).
0 0
p'+q'
De même, soit G = Vect(e~'+l, ... ,e~'+q'), six= L x~l
i i
E G
i=p'+l
p'+q'
on a </>(x) = L (x~) 2 </>(eD ~ 0 et </>(x) = 0 {:}chaque x~ =O.
i=p'+l
Donc F n G = {0} ::::} F EB G existe et c'est un sous-espace de E : on
a dim(F EB G) ~ n soit n - q + q1 ~ n, soit q1 ~ q.
En inversant les rôles des bases B et B' on aurait q ~ q1 d'où en fait
q = q1 et p = r - q = p1 = r - q1• •
Si </> est q~adratique de signature (p, q), dans une base conjuguée
B = (ei, ... , en) telle que les </>( ei) sont > 0 pour i ~ p, < 0 pour
p + 1 ~ i ~ p + q = r, nuls pour i > r, la matrice n de</> dans B sera, en
posant Ài = cp(ei) pour i ~pet Ài = -</>(ei) pour p + 1 ~ i ~ p + q,
d'où
p p+q
</J(x) = LÀixr - L Àix;,
i=l i=p+l
EXERCICES
9. Soit </> une forme quadratique sur E :::: Kn, non définie et non
dégénérée. Montrer qu'il existe une base de vecteurs isotropes, (K
de caractéristique =F 2).
10. Soit E = Kn, </> forme quadratique de forme polaire <p. Existe-t-il
une base de E, conjuguée pour <p, contenant un vecteur a non nul
donné?
SOLUTIONS
En effet
2>.1B(x, y) = 1 - B(y, y)
>. 1 = 1- B(y,y)
2B(x,y)
2>.2B(x, y)= -1 - B(y, y)
>. 2 = _-_1_-_B_(y_,y~)
2B(x,y)
Mais alors
B(ei, e2) = (>.1 + >.2)B(x, y)+ B(y, y)
-2B(y,y)
= 2 B(x, y) B(x, y) + B(y, y) = 0,
et comme >.1 'I >.2, Vect(ei, e2) = Vect(x, y). Soit P ce plan vectoriel, P
est non isotrope, car si z = 01 el + 02e2 E P n P 0 , on a
B(z, el) = 0 = 01 et B(z, e2) = 0 = -02 d'où z =O.
Mais alors E = P ffi P 0 , et v vecteur de F tel que B (v, v) < 0 se décompose
dans cette somme directe env= ox + (3y + z. On av dans F et x dans
F 0 , donc 0 = B(v,x) = (3B(y,x) car B(x,x) = 0 et B(x,z) = 0 aussi
car x E Pet z E P 0 • Comme B(y,x) 'I 0, on a (3 = 0, d'où v = ox + z.
De plus, Vt E R, avec w = tx + z, comme x est isotrope et B(x, z) = 0,
on aura B (w, w) = B ( v, v) < O. Mais alors, x et z étant indépendants, on
peut trouver z et w indépendants tels que B ( z, z) < 0 et B (v, v) < 0 : la
signature de B comporterait au moins 2 signes-, c'est absurde.
Donc F est non isotrope, on a E = F ffi pO. Le vecteur v est non
isotrope dans F, avec G conjugué de Rv dans F, on a la somme directe
E = Rv ffi G ffi F 0 , les 3 espaces étant 2 à 2 conjugués. En réunissant { v}
et des bases conjuguées de G et F 0 , on en obtient une de E. La signature de
B étant (n-1, 1), et B(v, v) < 0, c'est que la restriction de B à G X G, (et
aussi à pO x F 0 ) est définie positive. Finalement la signature de BI
FxF
est (dim(F) - 1, 1).
2.
On a aussi <P(X) = txx +o(tuX)(tuX). Mais tu X est une matrice (1, 1),
donc égale à sa transposée txu, d'où
Or cp(Q, R) = 1
1
o
Q(k)(t)R(k)(t) dt+ a L
k-1
~o
Q(i)(O)R(i) (0), c'est nul car
Q, dedegré k-1 au plus a sa dérivée kième nulle, et'v'i ~ k-1, R(i)(o) =O.
Formes quadratiques 425
k-1
De même, </>(Q) =a L(Q(i)(0)) 2 et <{>(R) =
i=O
1 0
1
(R(k)(t)) 2 dt, donc si
n
P(t) = Laië, il reste
i=O
La forme </>1 = </>la est positive, définie car si R E G est tel que
10
1 .
(R(k)(t)) 2 dt = 0, la dérivée kième de R, polynôme de valuation k,
étant nulle c'est que R = O.
La signature de </>1 est donc n - k + 1, et </>1 se décompose en une somme de
n-k+l carrés de formes linéaires en ak, ak+l> ... , an, donc indépendantes
de ao, ... , ak-1· On a une décomposition de</> en carrés d'où:
si a > 0, </>est définie positive, de signature (n + 1, 0)
si a= 0, </>est positive, non définie, de signature (n - k + 1, 0)
si a< 0, </>est non dégénérée, de signature (n - k + 1, k).
5. Si P est de degré n, de coefficient directeur a, le terme général Uk
P(k)P(-k)e-k de la série est tel que lukl ~ a 2 k2 ne-k, terme général
d'une série convergente donc </>( P) existe.
De même 1.p(P, Q) = L ~(P(k)Q(-k) + Q(k)P(-k))e-k est la somme
k;;ioo
d'une série absolument convergente, et rp est bilinéaire symétrique avec
<.p(P, P) = </>(P) d'où</> forme quadratique.
La parité, (P(k), P(-k)) peut jouer un rôle. Si P est pair et Q impair,
P(k)Q(-k) = -P(-k)Q(k) donc rp(P,Q) =O.
Soit donc E = Rn[X] et
F = Vect(l,x 2 ,x4, ... ,x2P, ... ), 2p :i::; n
et G = Vect(x,x 3 , ... ,x2P+l, ... ), 2p+ 1 :i::; n.
On a E = F E0 G, avec F C G 0 et G C F 0 , conjugués pour rp.
Sur F, </>(P) = L(P(k)) 2 e-k est~ 0, nul si et seulement si P(k) = 0
k;;ioO
pour tout k de N donc si P = 0; et sur G, </>(P) = - L(P(k)) 2 e-k est de
k;;ioO
même définie négative. En décomposant en carrés les restrictions de </> à F
et G on en déduit donc que la signature de </> est (dim F, dim G) ou encore;
sin= 2p; signature (p + 1,p)
sin= 2p + 1, signature (p + 1,p + 1).
426 Algèbre
d'où P = (1 ~0~1)
O ,
0 -- -
2 2
les colonnes de P donnent les composantes de I, J, K, vecteurs d'une base
conjuguée, dans la base initiale. Dans cette base conjuguée, la forme qua-
dratique s'écrit X 2 + y 2 - z 2 .
8. Soit <Pla forme quadratique associée à cp, a vecteur isotrope non nul; la forme
est non dégénérée donc a fJ. E 0 = {O} : il existe b E Etel que cp(a, b) #-O.
Mais alors, Vt E K, on a
9. On prouve, par récurrence sur k, que s'il existe k vecteurs isotropes indépen-
dants avec k < n, on peut en trouver un (k + l)ième indépendant. Ayant
Formes quadratiques 427
e1 isotrope non nul au départ on aura alors une base isotrope. (Sin = 1,
l'existence de e1 isotrope non nul donne la solution).
Soit F = Vect(ei, ... , ek), les ej étant isotropes indépendants.
La forme est non dégénérée donc dim pO = n - k. On a 1 ~ k < n donc
0 < n - k < n : les sous-espaces F et pO sont différents de {0} et E
d'où F U pO CE. Soit X '/. F U pO, il existe i ~ k, cp(X, ei) =/:- 0 et
#
{ e1, ... , ek, X} est famille libre, sinon X E F.
On cherche t E K tel que X+ tei soit isotrope. Ceci équivaut à t 2 <P(ei) +
2tcp(X,ei) + <P(X) = 0 d'où, <<P(ei) = 0 et K de caractéristique=/:- 2) un t
vérifiant cela. La matrice de passage de { e1, ... , ek, X} à {e1, ... , ek, X+
tei} étant régulière, (triangulaire avec des 1 sur la diagonale) on a bien
un vecteur isotrope de plus, indépendant des précédents : la propriété est
récurrente.
Formes sesquilinéaires,
formes hermitiennes
1. Vocabulaire
<f>(x +y) = cp(x +y, x +y) = <f>(x) + cp(x, y)+ cp(y, x) + <f>(y).
Or cp(x +y)+ cp(y, x) = cp(x, y)+ cp(x, y) = 2 Re(cp(y, x). Donc
12.6. </>(x +y)= <f>(x) +</>(y)+ 2 ne(cp(x, y)).
Formes sesquilinéaires, formes hermitiennes 431
12.7. cp(x, y) = ~ [<P(x +y) - <P(x - y)+ i<P(x - iy) - i<P(x + iy)],
relation reliant une forme hermitienne <P et sa forme sesquilinéaire à
symétrie hermitienne associée cp. <<Sa», adjectif possessif défini car il n'y
en a qu'une vu ce calcul. J'en profite pour remercier mon épouse qui vient
de vérifier dans le dictionnaire qu'il s'agit bien d'un adjectif possessif.
Des exemples
12.9. E-:::=. en. Si B = {e1, ... ,en} est une base de E, et si pour
n n
x= L xkek et y= LYlel on pose
k=l l=l
n
cp(x, y)= L XkYk
k=l
+oo
12.11. E = l 2 (C) ={suites u = (un)nEN; L lul 2 existe}.
n=O
432 Algèbre
12.15. Vu l'unicité de la matrice des c,o( e~, e~) associée à <p dans la base
B', c'est que A' = fP AP. On dit que A et A' sont congruentes.
2. Conjugaison
On a aussi
(F + G)o =( n
xEF
Ker('Y'f'(x))) n, ( n
xEG
Ker('Y'f'(x))) = pO n G°.
Puis F n G c F et F n G c G ~ pO c (F n G) 0 et G0 c (F n G) 0
d'où (F 0 U G 0 ) c (F n G) 0 , et en passant à l'espacé vectoriel engendré
par pO U Go, (Fo + G 0 ) c (F n G) 0 . L'inclusion peut être stricte. •
Formes sesquilinéaires, formes hermitiennes 435
Car si {ei, ... , ek} est une base de F n E 0 , complétée en { ei, ... , ek;
ek+l• ... , ep} base de F, on a x E F 0 {:::} T/i = 1, ... ,p, 'Ycp(ei)(x) =O.
Or pour i = 1, ... , k, 'Ycp(ei) =O. Preste donc
x E F 0 {:::} T/i = k + 1, ... ,p, 'Ycp(eï)(x) =O.
Les p - k formes linéaires 'Ycp (ei) sont indépendantes, car une relation
du type t
i=k+l
Ài'Ycp(ei) = 'Ycp ( t
i=k+l
Àiei) = 0, (aspect semi-linéaire
p
de 'Ycp), conduit à L Àiei E (E 0 n F) = Vect( ei, ... , ek), ce qui est
i=k+l
absurde puisque {ei, ... , ek; ek+ 1, ... , ep} est libre.
Les x E F 0 sont donc les solutions d'un système de p - k équations
à n inconnues (n = dim E) de rang p - k : on a un espace vectoriel de
solutions de dimension n - (p- k), (Théorème 9.51).
D'oùdimF+dimF° = p+(n-p+k) = n+k = dimE+dim(FnE0 ) .
•
On vient de faire jouer un certain rôle au sous-espace E 0 . On a
Eo = {y; y E E, Tix E E, cp(x, y) = O}. Mais cp(y, x) = cp(x, y) = 0
aussi, en écrivant
c'est encore
Car
12.25. Si </J est une forme hermitienne définie, elle est non dégénérée.
On peut encore parler de sous-espace non isotrope F, lorsque l'on a
F n pO = {O}, et on a :
Conséquence : on en déduit le
de la forme </>, et parmi les Ài non nuls, il y en a des > 0, et des < 0 :
les nombres de scalaires de chaque signe ne dépendant pas de la base
conjuguée. •
Comme dans le cas réel si B et B' sont des bases conjuguées, de termes
généraux ei et e~, on les suppose indexées de façon que </>(ei) > 0 pour
i = 1, ... , p puis </>( ei) < 0 pour i = p + 1, ... , p + q avec p + q = r, rang
de </>, et </>( ei) = 0 si i > r; puis </>( eD > 0 si i = 1, ... , p1 ; </>( eD < 0 pour
i = p' + 1, ... ,p' + q1 = r, enfin </>(e~) = 0 si i > r.
Soit F= Vect(e1, ... , ep, er+l• ... , en) et G = Vect(ep'+l• ... , ep'+q' ).
On constate que 'Vx E F, </>(x) ~ 0, et 'Vx E G, </>(x) ~ 0 avec
</>(x) = 0 <:::? x = O. On a donc F n G = {0}, (six E F n G, </>(x) = 0,
donc x = 0 car x E G).
Mais alors, F et G sont en somme directe dans E de dimension n,
donc
e·
avec des Àj >O. En changeant les ej en éj = }>:;on obtient
p p+q
i.p(x,y) = LXjYj - L XjYj
j=l j=p+l
Formes sesquilinéaires, formes hermitiennes 439
et
p p+q
<P(x) = L lxjl 2 - L lxjl 2 .
j=l j=p+l
3. Espaces préhilbertiens
lcp(x,y)l 2 ~ <P(x)</J(y).
•
440 Algèbre
COROLLAIRE 12.33. - Pour une forme hermitienne positive, (</> définie) {::}
(</> non dégénérée).
Car si</> est définie, elle est non dégénérée, c'est toujours vrai, (12.25)
et si </> est positive non dégénérée elle est définie, car si a est isotrope,
par Cauchy Scharwz, Vx E Eon a l<p(x, a)l 2 ~ 0 donc <p(x, a) = 0 soit
a E E 0 = {O} : 0 est le seul vecteur isotrope. •
THÉORÈME 12.34. - Si </> hermitienne est définie, elle est de signe constant.
2 Re<p(x,y) ~ 2J<f>(x)</>(y).
e1
Rappelons brièvement la justification. On prend t:1 = u1 M avec
u1 scalaire complexe de module 1.
Si on suppose trouvés q, ... , êk-1• on cherche ek de la forme
k-1
ek = ek + L Àiêi, pour avoir Vect(e1, ... , ek) = Vect(t:1, ... , t:k-1• ek),
i=l
les Ài étant tels que (ek,t:j) = 0 pour j = 1 ... k - 1, et où (,) est le
produit scalaire hermitien, notation remplaçant cp.
Cette équation équivaut à (ek, êj) + Àj = 0 d'où Àj. Puis on remplace
ek' lI' (avec uk complexe de module 1).
ek' par uk llek
Ce procédé est récurrent et donne le résultat. On comprend aussi qu'il
s'applique aux espaces préhilbertiens de dimension dénombrable stricte
qui ont donc des bases orthonormées. (Voir tome 3, Théorème 14.8) •
12.38. De plus, si {c1, ... , én} est une base orthonormée de F le projeté
n n
orthogonal de x sur Fest p(x) =L (cki x)ck, ou p(x) =L (x, ék)ék·
k=l k=l
Attention à la non symétrie du produit scalaire hermitien!
Ce résultat sera exploité au chapitre 15 d'analyse dans l'étude des
séries de Fourier. Justifions-le.
En décomposant x en x = y + z avec y E F et z E FJ_, avec
n
y= L Àkék, on a x - y= z E FJ_ = {ci, ... , én}J_ ce qui équivaut à,
k=l
n
(x- LÀkék,éj) = 0, pour j = 1,2, ... ,n, soit à (X,éj) - Àj = 0, la
k=l
famille des ék étant orthonormée. D'où Àj = (X,éj) = (éj,X). •
4. Espaces hermitiens
'Y(y)(u(x)) = "f(u*(y))(x).
Pour y fixé, on doit donc avoir, pour tout x de E,
Comme 'Y est injective de E dans E*, (le produit scalaire est une forme
non dégénérée donc le noyau de 'Y est El. = {O}) et que E est de dimension
finie, 'Y est surjective. Ce résultat, établi pour les applications linéaires
s'étend aux applications semi-linéaires, la conjugaison des scalaires ne
modifiant pas les dimensions des espaces vectoriels.
On a donc u*(y) = 'Y-l o l.u, o "!(Y) d'où u* = 'Y-l o l.u, o "f, application
linéaire car composée d'une linéaire, l.u,, et de deux semi-linéaires, 'Y et
'Y-1. •
(u(x),y) = (x,u*(y))
se traduit par
t(AX)Y = XA'Y
soit encore
Cette égalité matricielle est en fait une égalité entre 2 polynômes par
rapport aux variables Yl, ... , Yn et xi, ... , Xn. L'égalité des coefficients
conduit à t.A = A'. •
Car si on avait w tel que V(x, y), (u(x), y) = (x, w(y)), alors pour un
y fixé, on aurait, \tx E E; 0 = (x, v(y) - w(y)) d'où v(y) - w(y) E E1-,
or E1- = {O} donc v = w. •
Cette unicité est liée au côté injectif de "f, mais en dimension infinie
'Y n'est pas surjectif donc l'égalité 'Y( u* (y)) = l.,;, o 'Y(Y) ne permet plus le
calcul de u*(y).
On a encore
b) Groupe unitaire
n
Le terme général de VU étant L UkrUks• rième ligne, sième colonne,
k=l
avec Uij terme général de U, on a encore
n
L UkrUks = 1 sir= set 0 sir f:. s.
k=l
446 Algèbre
Ces (re~::io)ns sont aussi équivalentes à dire que les vecteurs colonnes
n
2
borné de en puisque L.:: 1ukr1 2 = 1 implique 1ukrl ~ 1 pour tout k et
k=l
tout r.
Par contre, le groupe orthogonal d'ordre n sur C lui ne serait pas
n
compact, l'égalité L(ukr) 2 = 1, sure, n'impliquant pas que les Ukr
k=l
sont bornés.
Si U est une matrice unitaire, l'égalité tuu = In entraîne <let U
<let u = 1<let u1 2 = 1, donc <let u est dans le groupe multiplicatif des
nombres complexes de modulo 1, et l'application déterminant étant un
morphisme de groupe, l'ensemble noté
c) Opérateurs hermitiens
(u(x),y) = (x,u(y)).
A fortiori, Vx E E,
(u(x),x) = (x,u(x))
2 Im(i(x,u(y))) = 2 Im(i(u(x),y))
soit Re( (x, u(y))) =Re( (u(x), y))
et finalement l'égalité (x, u(y)) = (u(x), y) qui prouve bien que u est son
propre adjoint. •
n
= L >-/;j',,j,
j=l
(base orthonormée et les Àj réels)
n
alors que <po(x, y)= L Çp7j·
j=l
Opérateurs normaux
EXERCICES
SOLUTIONS
déterminant (-2i) 2 = -4, elle est régulière, donc les 4 vecteurs colonnes
X 1 , Y1 , X 2, Y2 de R4 , donc de e 4 , sont indépendants sur e, donc aussi sur
IR : on a bien une base de IR 4 dans laquelle la matrice associée à A est du
type voulu. Si rang A = 2, (par exemple (J = 0) on garde les vecteurs Z1 et
2\ et on remplace {Z2, Z2} par {X2, Y2} vecteurs propres réels pour O.
2. Soit H = M* M =t MM on a fJl = H, donc H est hermitienne. De
plus, \fZ E Mn,1(e), 'ZHZ = tz!JJMZ. Si on pose Y = MZ on a
n
tzHZ = YY = L IY31 2 ~ 0: H est hermitienne positive, ses valeurs
j=l
propres sont donc réelles positives.
Sur en hermitien canonique, u de matrice H dans une base orthonormée est
auto-adjoint, donc il existe une base orthonormée de vecteurs propres pour
n
u. Si {e1, ... , en} est cette base, et si u(e3) = À3e3, on a \fz = L z3e3,
j=l
avec v de matrice M dans la base de départ,
j=l
a pour 1 ~ i, j ~ r :
pour matrice dans B, diag(2)q, ... , 2Àn) d'où u = ~(h + h*). On a bien
l'équivalence voulue.
Soit alors u E L(E), d'adjoint u*, v = u + u* est hermitien ainsi que
. u+u*-i(i(u-u*)) v . w
w = i(u - u*) et u = 2 soit u = 2 - i 2
avec v et w hermitiens.
Puis on peut trouver t réel tel que llltvlll ~ 1 et llltwlll ~ 1, (t =/= 0)
d'où h et k unitaires tels que tv = ~(h + h*) et tw = ~(k + k*) d'où
4
u = ~ ( 2~ (h+ h*)) - ~ (;t (k + k*)) du type L Àjhj avec lesÀj dans
j=l
C et les hj unitaires.
6. ~ ~ a A (_: -: -: ~ ~
) In - U
avec U
( g~ og1 ~ .g. o6) matrice d'une permutation, donc
~~
0
un-1 = ( .. .
0
0 1) =
t-
u,
0 0 ... 1 0
8. Comme f o f = 0 on a lm f C Ker f.
Par ~.meurs on a Ker f = (lmf*).L car, six E Ker f, Vy de f*(E), avec
y= f*(z) on a:
(x,y) = (x,f*(z)) = (f(x),z) = (O,z) = 0,
d'où Ker f C (lmf*).L; or si p = rang(!) = rang(!*), on a Ker f
et (lm f*) .L tous deux de dimension n - p avec n = dim( E), donc
Ker f = (lm f*).L.
Mais alors E = Ker f EB (Ker f).L = Ker f EB lm J*.
Supposons Ker f = lm f' on a f + rinjective car, si X est tel que
f(x) + f*(x) = 0, on a f 2 (x) + f(f*(x)) = 0, or f 2 = 0, donc
f*(x) E Ker f n lmf* = {O}, d'où f*(x) = 0, mais alors f(x) = 0
aussi et x E Ker f; or Ker f = lmf : il existe t tel que x = f(t) et
f* (x) = 0 => f*(f(t)) = 0 donc f(t) E Ker f* n lmf.
Mais Ker f* = (lm f**).L = (lm f).L donc f(t) E (lm f).L n lm f = {O},
d'où x = 0, et f + f* est injective. On est en dimension finie donc f + f*
est inversible.
Si f + f* est inversible, soit x E Ker f et y = (f + f*)- 1(x), on a
(f + f*)(y) = x = f(y) + f*(y). On compose avec f, en utilisant f 2 = 0
et x E Ker f, il reste f(f*(y) = 0 donc f*(y) E Ker f = (lmf*).L d'où
f*(y) =o.
Mais alors x = f(y) E lmf : on a Ker f C lmf d'où l'égalité puisque
lm f C Ker f était vraie, (! 2 = !).
9. Si u E D, et si id - u est non inversible, soit x tel que (id - u)(x) = 0,
(x =f 0), on a, puisque u(x) = x,
(x, (id - u*u)(x)) = (x,x) - (x,u*u(x))
= (x,x) - (x,u*(x)).
= (x, x) - (u(x), x) = 0
= -;i(illxll 2 - (v(x),x))
= 4(y, ;i (v - v*)(y))
v-v*
ce qui est bien > 0 puisque ~ est définie positive.
n
10. S01"t eixA = l"1m L 1 (.ix )kAk , sene
k' , . abso1ument convergente dans
n-++oo .
k=O
2
Mn(C) complet car::::::: R2 n .
n
Son adjointe est t(éxA) = lim
n-++oo~
'°"' k\ (-ix)k(tA)k
.
= e-ixtA_
k=O
On a donc, si A est hermitienne, tA = A donc t(éxA) = e-ixA, d'où
(eixA )t(éxA) = In : la matrice eixA est unitaire. Mais, réciproquement, si
eixA est unitaire, on a eixA · t (éxA) = In soit
n
~ ((-l_)n-q
oo ( )
In= In+ ix(A - tA) + L(ix)n L )' Aq(tA)n-q
n=2 q=O q. n q ·
d'où, la série entière en x obtenue en projetant sur chaque vecteur d'une
base de Mn(C) étant unique, A - tA = 0 (coefficient de x nul) d'où A
hermitienne.
11. On identifie les vecteurs de en et les matrices colonnes de leurs composantes
dans la base orthonormée canonique B.
Si x, =/= 0, est vecteur propre de A* A pour la valeur propre .>.. on a
(x,A*Ax) = (Ax,Ax) soit (x,.>..x) = .>..iixll 2 = llAxll 2.
Comme A est inversible et x non nul , Ax =/= 0 d'où .>.. > O. On diagonalise
A* A, hermitien, dans une base C = { e 1 , ... , en}, orthonormée, de vecteurs
propres pour les valeurs propres .>..1, ... , Àn avec .>..1 ~ .>..2 ~ ... ~ Àn. Si
n
x =L Otjej on aura
j=l
JJ(A- Mo)(x)JJ 2 = Il t
j=l
2
aj(A - Mo)ej 11 = JJanAenlJ 2
Ker(! - idE)·
(A rappocher de l'exercice 26, ch. 6 de topologie).
lmv c Keru
<:::}lm v* C Ker u*
<:::} (Keru*).L C (lmv*).L
<:::} lmu C Kerv
<:::}VOU= 0.
Formes sesquilinéaires, formes hermitiennes 463
14. Soit u normal, B une base orthonormée de vecteurs propres pour les va-
leurs propres À1, ... , Àn. On a pour matrice U de u dans la base B, U =
diag(À1, ... , Àn), donc la matrice U* de u* est U* = diag(X1, ... , Xn),
d'où celle de u*u : U*U = diag(l>-11 2 , ... , l.>.nl 2 ) et trace(u*u) =
n
n
Réciproquement, on suppose que trace(u*u) = L
l.>.11 2.
1=1
Soit C une base de trigonalisation de u, on orthonormalise C en B par le
procédé d'orthonormalisation de Schmitdt. En notant C = (e1, ... , en) et
B = (t:1, ... ,ên), comme pour tout k = 1, ... ,n Fk = Vect(ei, ... ,ek) =
Vect(ê1, ... , êk) et que u(ek) E Fk, avec êk = a1e1 + ... + akek on aura
u(t:k) = a1u(e1)+ ... +aku(ek) E F1+F2+ ... +Fk = Fk>donclamatrice
T de u dans la base orthonormée Best triangulaire supérieure, celle de u*
est tr,triangulaire inférieure, et le terme diagonal, </ème ligne, jième
1 1-1
colonne) de u*u est L tk1tk1 = ltjj 12 +L1tk11 2, avec tn; t22, ... , tnn
k=l k=l
qui sont les valeurs propres de u.
tout k =f. j, tk1 = 0, mais alors Test diagonale, T* aussi, donc Tet T*
commutent : u est un opérateur normal.
Lexique
Imprimé en France
Imprimerie des Presses Universitaires de France
73, avenue Ronsard, 41100 Vendôme
Août 1993 - N° 39 719
A l'ori gin e co urs de math ématiqu es spéc iales, cet ouvrage donn e auss i
un e v ue plu s générale des math émat iqu es du pre mi er cyc le en in sis-
tant parti c ul ièrement sur les stru ctures et th éo rèmes fo nd amentaux.
Ce traité co mpo rte j ro is vo lum es : Algèbre, Topo logie et anal yse réelle,
Espaces fonctionnèls. Dans le premi er to me, la co nstructi on de N, Z
e t Q met en év idence l' impo rtance des relati o ns d'éq ui va lence et d u
passage au quotient.
L'étud e des propri étés des es paces vecto ri els, sui va nt qu' il s so ient de
dim ension fini e ou no n, s'a ppui e sur les rés ulta ts acqu is sur les ca rdi-
naux infini s.
Les polyn ômes, étud iés sur un co rps K, do nn ero nt une co nstru cti on
de C, co rp s de déco mpositi o n de X2 + 1, mais serv iront aussi dans
l'étud e des po lynô mes d'e ndo mo rph is mes ain si q ue pour la rédu cti o n
des endo morphi smes (d iagonali sation, tri gonali sati on et j ord ani sati o n).
Enfin , l'étude des fo rm es quadrati q ues et hermi tienn es co mpl ète ce·
tome d' Al gèbre.
198 FF 22409456 / 8 / 93