Académique Documents
Professionnel Documents
Culture Documents
Element neutre : On dit que e E est element neutre de T si
a E, a T e = e T a = a.
Remarque : Lelement neutre, lorsquil existe, est unique. En eet, si e et e
sont neutres
pour T alors on a e = e T e
= e
.
Inverse : Supposons que T ait un element neutre e. On dit que lelement a de E a pour
inverse (ou symetrique ) lelement b de E si
a T b = b T a = e.
Proposition 0.0.2 Si la loi T est associative et a un element neutre e alors linverse, sil
existe, est unique.
5 6 TABLE DES MATI
`
ERES
Preuve : Soit a E admettant pour inverses b et b
. On a donc
e = a T b = a T b
.
Donc
b T (a T b) = b T (a T b
).
Par associativite, on a donc
(b T a) T b = (b T a) T b
.
Mais b T a = e donc la relation ci-dessus donne bien b = b
.
Exemples :
1. Laddition dans N est une loi interne associative et commutative, et a pour element neutre
0. Dans N, seul 0 a un inverse pour la loi +. En revanche dans Z, tout element n a un
inverse : cest n.
2. La multiplication dans N ou Z est associative, commutative et a pour element neutre 1.
Lorsque E poss`ede deux lois internes T et , on peut denir la notion de distributivite .
Denition 0.0.3 On dit que est distributive par rapport ` a T si
(a, b, c) E E E, a (b T c) = (a b) T (a c).
Exemple : Dans N, Z, Q ou R, la multiplication est distributive par rapport ` a laddition.
Groupes et sous-groupes
Denition 0.0.4 Soit G un ensemble non vide muni dune loi interne T.
On dit que (G, T) est un groupe si T est associative, poss`ede un element neutre et si
tout element de G est inversible. Si de plus la loi T est commutative alors (G, T) est appele
groupe commutatif ou encore groupe abelien.
Denition 0.0.5 Soit (G, T) un groupe et H un sous-ensemble non vide de G. Si (H, T) est
lui-meme un groupe, on dit que (H, T) est un sous-groupe de (G, T).
Remarque : Montrer que (H, T) est un sous-groupe de (G, T) revient ` a verier que e H, que
H est stable par T (i.e pour tout (a, b) H
2
alors a T b H) et que tout element de H a son
inverse dans H.
Exemple : (Z, +) est un groupe et lensemble des entiers relatifs pairs 2Z muni de la loi + est
un sous-groupe de (Z, +). En revanche, (N, +) nest pas un groupe (pourquoi ?)
Anneaux
Denition 0.0.6 Soit A un ensemble non vide muni de deux lois internes T et . On dit que
(A, T, ) est un anneau si les conditions suivantes sont veriees :
i) (A,T) est un groupe commutatif,
ii) La loi est associative et admet un element neutre,
iii) La loi est distributive par rapport ` a T .
Si de plus la loi est commutative, on dit que (A, T, ) est un anneau commutatif.
Exemple : (Z, +, ) est un anneau commutatif. TABLE DES MATI
`
ERES 7
Corps
Denition 0.0.7 Soit (K, T, ) un anneau. On dit que (K, T, ) est un corps si tout element
de K distinct de lelement neutre pour la loi T a un inverse pour la loi .
Si de plus la loi est commutative, on dit que (A, T, ) est un corps commutatif.
Exemple : (Z, +, ) nest pas un corps (car seuls 1 et 1 ont un inverse dans Z pour la
multiplication). En revanche (Q, +, ) et (R, +, ) sont des corps. 8 TABLE DES MATI
`
ERES
Chapitre 1
Les nombres complexes
1.1 Construction des nombres complexes
1.1.1 Motivations
Au cours de votre scolarite, vous avez appris ` a manipuler dierents types de nombres.
Dabord les entiers naturels N, puis les entiers relatifs Z, puis les nombres rationnels Q et enn
les reels R. A chaque fois, lintroduction dun nouvel ensemble de nombres etait motivee par
linsusance du precedent pour la resolution de certains probl`emes mathematiques.
Pour illustrer nos propos, cherchons ` a resoudre des equations du premier ou second degre
dans ces dierents ensembles. On constate que les equations du type x + a = 0 avec a N
ne
peuvent pas etre resolues dans N. En revanche, elles peuvent etre resolues dans Z, la solution
etant evidemment a. Mais Z est lui-meme insusant dans la mesure o` u certaines equations
du premier degre ` a coecients entiers nont pas de solution dans Z. Cest le cas de lequation
2x+1 = 0 par exemple. En revanche, cette equation a une solution dans Q : la fraction
1
2
. Plus
generalement, on peut etablir que toutes les equations du premier degre ` a coecients rationnels
ont une unique solution dans Q.
Linsusance de Q est cependant manifeste lorsque lon cherche ` a resoudre des equations du
second degre (i.e ax
2
+ bx + c = 0 avec a = 0) ou ` a determiner des racines carrees de nombres
positifs. Il est bien connu que
, y
) de R
2
, on denit un element (x, y) (x
, y
) de R
2
par
(x, y) (x
, y
)
def
= (x +x
, y +y
).
En particulier,
(x, 0) (x
, 0) = (x +x
, 0).
Dans R, lelement x + x
, y
) de R
2
, on denit un element (x, y) (x
, y
) de R
2
par
(x, y) (x
, y
)
def
= (xx
yy
, xy
+x
y).
En particulier,
(x, 0) (x
, 0) = (xx
, 0).
Dans R, lelement xx
+iy
) = (x +x
) +i(y +y
),
(x +iy)(x
+iy
) = (xx
yy
) +i(x
y +xy
).
Denition 1.1.2 Soit z = x +iy un nombre complexe.
Partie reelle : Le reel x est appele partie reelle de z et note Re z. Si Re z = 0, on dit
que z est un nombre imaginaire pur.
Partie imaginaire : Le reel y est appele partie imaginaire de z et note Imz.
Conjugue : Le nombre z
def
= x iy est appele conjugue de z.
Axe : A tout point M de R
2
de coordonnees (x, y), on associe le nombre complexe x+iy,
appele axe de M.
Interpretation geometrique :
Lensemble des elements de C peut
etre identie ` a un plan appele plan
complexe. Laxe des abscisses du
plan complexe est souvent appele
axe reel, et note R. Laxe des or-
donnees est appele axe imaginaire
et note iR. Pour tout nombre com-
plexe z, le point M daxe z a pour
abscisse Re z, et pour partie imagi-
naire Im z. Le point daxe z est
le symetrique de M par rapport ` a
laxe des abscisses.
0
Im z
Im z
Re z
z=x+iy
z=xiy
i
1 R
iR 1.2. PROPRI
ET
ES DE C 11
Proposition 1.1.3 On a les proprietes elementaires suivantes :
z C, z
C, Re (z +z
) = Re z +Re z
et Im(z +z
) = Imz +Imz
,
z C, R, Re (z) = Re z et Im(z) = Imz,
z C, z = z,
z C, Re z =
z +z
2
et z R z = z,
z C, Imz =
z z
2i
et z iR z = z,
z C, z
C, z +z
= z +z
,
z C, z
C, zz
= zz
,
z C, R, z = z.
Preuve : Elle est laissee au lecteur ` a titre dexercice.
Attention : En general, Im(zz
) = Imz Imz
et Re (zz
) = Re z Re z
.
Exercice : Trouver des couples (z, z
= x
+iy
et z
= x
+iy
)z
= z(z
). Calculons :
(zz
)z
(x +iy)(x
+iy
(x
+iy
),
=
(xx
yy
) +i(xy
+x
y)
(x
+iy
),
= (xx
)x
(yy
)x
(xy
)y
(x
y)y
+i[(xy
)x
+(x
y)x
+(xx
)y
(yy
)y
],
= x(x
) y(y
) x(y
) x
(yy
) +i[x(y
)+x
(yx
)+x(x
)y(y
)],
= x(x
) x(y
) y(x
) y(x
) +i[x(x
)+x(x
)+y(x
)y(y
)],
= (x +iy)
(x
) +i(x
+x
,
= (x +iy)
(x
+iy
)(x
+iy
,
= z(z
).
Comme dans tout anneau commutatif (et a fortiori dans tout corps commutatif), on dispose
dans C didentites remarquables . Les plus simples sont :
(z +z
)
2
= z
2
+ 2zz
+z
2
,
(z +z
)
3
= z
3
+ 3z
z
2
+ 3z
2
z +z
3
. 12 CHAPITRE 1. LES NOMBRES COMPLEXES
Plus generalement, la formule du bin ome de Newton est valable :
(z +z
)
n
=
n
k=0
C
k
n
z
k
z
nk
avec
2
C
k
n
=
n!
k!(n k)!
.
La formule du bin ome se montre par recurrence sur n en utilisant la formule du triangle de
Pascal :
C
k+1
n+1
= C
k
n
+C
k+1
n
.
Une autre identite remarquable bien connue
z
2
z
2
= (z
z)(z
+z)
peut se generaliser en
z
n
z
n
= (z
z)
n1
k=0
z
k
z
n1k
En particulier, en choisissant z
k=0
z
k
=
1 z
n+1
1 z
.
1.2.2 Representation polaire
a) Le module
Le module dun nombre complexe est un prolongement naturel de la notion de valeur absolue
dun nombre reel. On le denit ainsi :
Denition 1.2.2 Soit z = x + iy un nombre complexe. On appelle module de z le reel positif
ainsi deni :
|z|
def
=
x
2
+y
2
.
Proposition 1.2.3 Considerons deux nombres complexes z et z
ET
ES DE C 13
v) On a |zz
| = |z||z
|. Se plus, si z = 0 alors |z
1
| = 1/|z|.
vi) |Re z| |z| et |Imz| |z|.
vii) |z +z
|
2
= |z|
2
+|z
|
2
+ 2Re (zz
).
viii) Inegalites triangulaires :
|z| |z
|z +z
| |z| +|z
|.
Preuve :
Pour i), on utilise le fait que la somme de deux reels positifs est un reel positif, et quelle
est nulle si et seulement si les deux reels sont nuls.
Pour ii) et iii), il sut de revenir ` a la denition du module.
Soit z = 0. Alors z/|z|
2
est bien linverse de z. En eet, dapr`es la propriete iii), on a
z
z
|z|
2
=
zz
|z|
2
=
|z|
2
|z|
2
= 1.
On en deduit ensuite que
z
1
=
z
|z|
2
=
z
|z|
2
=
z
|z|
2
= (z)
1
.
Pour prouver v), on ecrit que
|zz
|
2
= zz
zz
= zz z
= |z|
2
|z
|
2
.
Si z = 0, le choix de z
= z
1
donne bien |z
1
| = 1/|z|.
La propriete vi) est triviale.
Pour prouver vii), on calcule en tenant compte de iii) :
|z +z
|
2
= (z +z
)(z +z
) = |z|
2
+|z
|
2
+zz
+z
z = |z|
2
+|z
|
2
+ (zz
+zz
).
Or, dapr`es la proposition 1.1.3, le dernier terme est justement egal ` a 2Re (zz
).
Pour prouver viii), on utilise successivement vi), v) et ii). On trouve :
Re (zz
) |zz
| = |z||z
| = |z||z
|.
Ainsi, dapr`es vii),
|z +z
|
2
|z|
2
+|z
|
2
+ 2|z||z
|.
En prenant la racine carree positive des deux membres, on obtient linegalite de droite.
Linegalite triangulaire de gauche se montre en appliquant celle de droite ` a z et z + z
puis ` a z
et z +z
.
b) Largument
Commen cons par rappeler la denition de congruence.
Denition 1.2.4 Considerons trois reels a, b et c. On dit que a est congru ` a b modulo c sil
existe k Z tel que a = b +kc. On note a b [c].
Proposition 1.2.5 Soit z un nombre complexe non nul. Il existe un unique reel de [0, 2[
tel que
(1.1)
z
|z|
= cos +i sin . 14 CHAPITRE 1. LES NOMBRES COMPLEXES
Ce reel est appele argument principal de z, et note
3
arg z.
De plus, lensemble des reels veriant (1.1) est lensemble des reels congrus ` a arg z modulo
2, cest-` a-dire lensemble des reels du type arg z + 2k avec k Z. Tous ces reels sont appeles
arguments de z.
Preuve : Il sut de remarquer que
z
|z|
est de module 1 et peut donc secrire x + iy avec
x
2
+ y
2
= 1. Il existe donc un unique reel de [0, 2[ tel que x = cos et y = sin . Les
autres reels satisfaisant cette relation lui sont congrus modulo 2.
c) Interpretation geometrique
Soit z C et M daxe z.
Le module de z est egal ` a la
norme du vecteur
OM cest-
` a-dire ` a la distance de O ` a M.
Si z = 0, largument de z
est une mesure (en radians)
de langle oriente forme par
le vecteur unite dirigeant laxe
des reels dans le sens positif
et le vecteur
OM. En dautres
termes, le point P daxe
z/|z| est le point dintersec-
tion entre le cercle unite et la
demi-droite [0M).
0
z/|z|
P
M
z
arg z
R
iR
Remarque : On peut maintenant donner une interpretation geometrique des inegalites trian-
gulaires (qui est ` a lorigine de leur appellation). Linegalite de droite stipule que la longueur
dun c ote dun triangle est inferieure ` a la somme des longueurs des deux autres c otes, et celle de
gauche, que la longueur dun c ote est toujours superieure ` a la dierence des longueurs des deux
autres c otes.
d) Forme trigonometrique
Denition 1.2.6 Pour tout reel , on pose
e
i
def
= cos +i sin
Ainsi tout nombre complexe z non nul de module r et dargument peut secrire
4
z = re
i
.
On dit que re
i
est la forme trigonometrique de z. Pour z = 0, cette ecriture est unique
` a congruence modulo 2 pr`es pour . Cest-` a-dire que
re
i
= r
e
i
r = r
et
[2]
.
En particulier, on peut toujours choisir pour largument principal de z.
Remarque : La notation e
i
est pour linstant purement formelle. Elle sera justiee mathema-
tiquement plus tard dans le chapitre sur les series enti`eres du cours danalyse.
3
Les denitions de largument principal di`erent suivant les ouvrages. Une autre denition tr`es repandue
consiste ` a choisir pour argument principal lunique reel de ] , ] veriant (1.1).
4
Le nombre 0 peut aussi secrire re
i
: on prend r = 0 et arbitraire. 1.2. PROPRI
ET
ES DE C 15
Quelques formes trigonometriques ` a connatre :
e
i0
= 1 et plus generalement, ae
i0
= a pour tout a R
+
.
e
i
= 1 et plus generalement, |a|e
i
= a pour tout a R
.
e
i
2
= i et e
3i
2
= i.
e
i
4
=
2
2
+i
2
2
et e
3i
4
=
2
2
+i
2
2
.
e
i
6
=
3
2
+
i
2
et e
i
3
=
1
2
+i
3
2
.
Pour tout k Z et R, e
i(+2k)
= e
i
.
Pour tout R, e
i(+)
= e
i
et e
i(+
2
)
= ie
i
.
1.2.3 Formules de trigonometrie
Nous nous bornerons ` a rappeler deux formules trigonometriques dimportance capitale pour
la suite du cours :
(,
) R
2
, cos( +
) = cos cos
sin sin
, (1.2)
sin( +
) = sin cos
+ cos sin
. (1.3)
Noter que la deuxi`eme se deduit de la premi`ere en changeant
en
+/2.
Donnons une premi`ere application de ces formules, (qui est fort utilisee en physique) :
Proposition 1.2.7 Soit (A, B) un couple de reel. Alors il existe un reel tel que
(1.4) x R, Acos x +Bsinx =
A
2
+B
2
cos(x ).
Si de plus (A, B) = (0, 0), on peut choisir pour largument principal du nombre complexe
A+iB, cest-` a-dire lunique element de [0, 2[ tel que
cos =
A
A
2
+B
2
, sin =
B
A
2
+B
2
.
Preuve : Limitons nous au cas (A, B) = (0, 0). Dapr`es la formule (1.2), on a
cos(x ) = cos xcos + sin xsin .
On en deduit que la formule (1.4) est veriee si et seulement si
A =
A
2
+B
2
cos et B =
A
2
+B
2
sin .
En remarquant que
A +iB =
A
2
+B
2
A
2
+B
2
+i
B
A
2
+B
2
,
on conclut que lon peut prendre pour largument principal de A +iB.
Les formules trigonometriques (1.2) et (1.3) vont egalement nous permettre de montrer des
proprietes algebriques de largument :
Proposition 1.2.8 1. Si z et z
) arg z + arg z
[2].
2. Si z est un nombre complexe non nul alors
arg z
1
arg z [2]. 16 CHAPITRE 1. LES NOMBRES COMPLEXES
Preuve : Clairement, la premi`ere egalite appliquee avec z
= z
1
donne la deuxi`eme egalite.
Prouvons donc la premi`ere egalite. Soit (z, z
def
= arg z
. On a
z = |z|(cos +i sin ) et z
= |z
|(cos
+i sin
).
Donc, en appliquant (1.2) et (1.3),
zz
= |z||z
cos cos
sin sin
+i
cos sin
+ sin cos
,
= |zz
cos( +
) +i sin( +
.
Proposition 1.2.9 Soit (,
re
i
e
i
= rr
e
i(+
)
.
De plus, si r = 0, on a pour tout n Z,
(1.6) (re
i
)
n
= r
n
e
in
.
Preuve : Notons z = re
i
et z
= r
e
i
est |z||z
|. La
proposition 1.2.8 montre que arg zz arg z +arg z
= |z
|,
arg z [2] et
arg z
[2], on a bien zz
= rr
e
i(+
)
.
5
.
Legalite (1.6) dans le cas n = 0 ou n = 1 est immediate. Dans le cas n = 2, elle decoule
de (1.5) avec z
)
= e
i
e
i
une rotation dangle . On sattend donc ` a trouver limage de (1, 0) par la composee des
rotations dangle et
.
Remarque 1.2.11 En prenant r = 1 dans la formule (1.6), on trouve
n Z, R, (cos +i sin )
n
= cos n + i sin n.
Cette identite ` a connatre est appelee formule de Moivre.
Proposition 1.2.12 (Formules dEuler) Pour tout reel , on a
cos =
e
i
+e
i
2
et sin =
e
i
e
i
2i
.
5
Le cas o` u lun des deux nombres z et z
= 0 1.2. PROPRI
ET
ES DE C 17
Preuve : Il sut de faire la demi-somme et la demi-dierence des expressions suivantes :
e
i
= cos +i sin ,
e
i
= cos i sin .
Remarques :
1. Les formules dEuler permettent de lineariser des expressions du type cos
k
xsin
x, cest-
` a-dire de les transformer en sommes de cos et de sin.
2. Si z est un nombre complexe non nul de forme trigonometrique re
i
, on a les formules
Re z = r cos , Imz = r sin et z = re
i
.
1.2.4 Racines n-i`eme de lunite
Denition 1.2.13 Soit n N
2k
n
+i sin
2k
n
3
2
.
n = 4 : les racines 4-i`eme de lunite sont 1, i, 1 et i.
Interpretation geometrique : Les points ayant pour axes les racines n-i`eme de lunite sont
les points du cercle unite formant langle 2k/n avec laxe des abscisses. 18 CHAPITRE 1. LES NOMBRES COMPLEXES
Exemple : representation des racines 5`eme de lunite dans le plan complexe
O
z
0
z
1
z
2
z
3
z
4
R
iR
2/5
1.3 Resolution dequations du second degre
Par construction de C, lequation z
2
= 1 a au moins une solution complexe : i, et i est
egalement solution. Dans cette section, on montre que toutes les equations du second degre :
(E) az
2
+bz +c = 0
` a coecients a = 0, b et c reels ou complexes ont une ou deux solutions. On donne de plus des
formules permettant de les calculer.
1.3.1 Racine carree dun nombre complexe
Proposition 1.3.1 Tout nombre complexe non nul a deux racines carrees distinctes et op-
posees. Plus precisement, si = re
i
alors les racines carrees de sont
re
i
2
.
Lunique racine carree de 0 est 0.
Preuve : Le cas = 0 est immediat (utiliser le module).
Soit donc = 0 et z une racine carree de .
Ecrivons = re
i
et z = e
i
avec = arg
et = arg z. Comme z
2
=
2
e
2i
, lequation z
2
= est equivalente ` a
2
= r et 2 [2].
cest-` a-dire
=
r et /2 [].
En se restreignant aux valeurs de comprises entre 0 et 2, on trouve =
2
ou =
2
+.
Un calcul direct montre que
re
i
2
et
re
i
2
sont racines carrees de z. 1.3. R
ESOLUTION D
E 19
Si la forme trigonometrique de est connue, le calcul des racines carrees de est immediat.
On peut se demander si la connaissance de la forme trigonometrique est necessaire au calcul des
racines carrees. Il nen est rien : dans la proposition suivante, on etablit une formule donnant la
racine carree dun nombre complexe = a +ib arbitraire en fonction de a et b.
Proposition 1.3.2 Soit = a +ib un nombre complexe arbitraire.
1. Si b = 0 et a 0 (i.e R
+
) : les racines carrees de sont
a et
a.
2. Si b = 0 et a 0 (i.e R
|a| et i
|a|.
3. Si b > 0 : les racines carrees de sont z et z avec
z
def
=
2
2
a +
a
2
+b
2
+i
a +
a
2
+b
2
.
4. Si b < 0 : les racines carrees de sont z et z avec
z
def
=
2
2
a +
a
2
+b
2
i
a +
a
2
+b
2
.
Preuve : On cherche z = x +iy tel que
(1.7) z
2
= a +ib.
En calculant z
2
puis en identiant parties reelles et parties imaginaires, on trouve que (1.7)
est veriee si et seulement si
x
2
y
2
= a,
2xy = b.
On peut resoudre ce syst`eme directement, mais il est plus rapide dexploiter le fait que
|z|
2
= ||, ce qui donne la relation supplementaire x
2
+y
2
=
a
2
+b
2
. Le couple (x
2
, y
2
)
doit donc verier le syst`eme de deux equations ` a deux inconnues suivant :
x
2
y
2
= a
x
2
+y
2
=
a
2
+b
2
.
On en deduit que
(1.8) x
2
=
1
2
a +
a
2
+b
2
et y
2
=
1
2
a +
a
2
+b
2
.
Remarquons que les membres de droite sont toujours positifs, donc il existe bien des couples
(x, y) veriant les egalites ci-dessus.
Dans le cas b = 0 et a 0, est en fait un reel positif, et on trouve x =
a et y = 0.
Les racines carrees sont donc les racines carrees reelles habituelles.
Dans le cas b = 0 et a < 0 (i.e reel negatif), la formule (1.8) montre que x = 0 et
y =
|a|.
Si b = 0, les membres de droite de (1.8) sont strictement positifs. Il y a donc en general
quatre couples (x, y) solutions. La condition supplementaire 2xy = b va permettre de
selectionner les deux couples qui vont donner une racine carree de .
En eet, si b > 0, alors 2xy = b implique que xy > 0 donc x et y doivent etre de meme
signe. Cela donne bien le cas 3.
Si au contraire b < 0, alors x et y doivent etre de signe oppose, ce qui donne le cas 4.
Il reste ` a verier que les nombres trouves sont bien des racines carrees de z. Cela peut se
faire par calcul direct, ou en remarquant que lon sait dej` a que z non nul admet exactement
deux racines carrees.
Remarque : Il est inutile de connatre ces formules par cur. Mais il est important de
se souvenir de la demarche qui a permis de les obtenir. 20 CHAPITRE 1. LES NOMBRES COMPLEXES
1.3.2 Resolution dequations du second degre dans le cas general
On cherche ` a resoudre (E) dans le cas o` u a, b et c sont des nombres complexes et a = 0.
Proposition 1.3.3 Notons
def
= b
2
4ac le discriminant complexe de (E).
Si = 0 alors (E) a une unique solution : z = b/2a.
Si = 0 alors (E) a deux solutions distinctes z
1
et z
2
qui sont donnees par les formules
z
1
=
b
2a
+
z
0
2a
et z
2
=
b
2a
z
0
2a
avec z
0
racine carree de .
Preuve : Il sut de factoriser le membre de gauche de (E) :
az
2
+bz +c = a
z
2
+
b
a
z +
c
a
,
= a
z +
b
2a
(2a)
2
.
Dans le cas = 0, cette factorisation montre que z est solution si et seulement si
z +
b
2a
= 0.
Dans le cas = 0, on poursuit la factorisation compte tenu de z
2
0
= . Il vient nalement
az
2
+bz +c = a
z +
b
2a
z
0
2a
z +
b
2a
+
z
0
2a
.
Il est maintenant clair que z est solution si et seulement si
z =
b
2a
+
z
0
2a
ou z =
b
2a
z
0
2a
.
Remarque : La formule donnant les solutions dune equation du second degre dans le cas
complexe est donc exactement la meme que dans le cas reel. De plus, il ny a pas ` a se preoccuper
du signe du discriminant (dailleurs il na pas de signe puisquil est complexe !) On voit donc
que toutes les equations du second degre ont une ou deux solutions dans C, et que leur calcul
est immediat une fois connue une racine carree du discriminant.
Chapitre 2
Syst`emes lineaires
Au lycee, vous avez appris ` a resoudre des syst`emes de 2, 3 voire 4 equations ` a 2, 3 ou 4
inconnues. Ce chapitre est consacre ` a la theorie des syst`emes lineaires comportant un nombre
arbitraire dequations et dinconnues. Il sagit notamment de presenter une methode generale de
resolution de tels syst`emes.
2.1 Quelques exemples elementaires
Donnons dabord quelques exemples de resolution de syst`emes de deux equations ` a deux
inconnues.
1. Resolution de
(S
1
)
2x + 3y = 8 (L
1
)
x y = 1 (L
2
)
Il sagit de determiner lensemble des couples de reels (x, y) qui satisfont les deux lignes
du syst`eme (S
1
).
Pour ce faire, on peut proceder ainsi : on retranche 2(L
2
) ` a (L
1
), et on obtient le syst`eme
(S
1
)
5y = 10 (L
1
)
x y = 1 (L
2
)
dont lensemble des solutions est le meme que celui de (S
1
).
Il est clair que la ligne (L
1
) est equivalente ` a y = 2, et en reportant dans (L
2
), on obtient
x = 1.
En conclusion, (S
1
) a pour unique solution le couple (1, 2).
2. Resolution de
(S
2
)
2x 2y = 8 (L
1
)
x y = 1 (L
2
)
Cette fois-ci, si lon retranche 2(L
2
) ` a (L
1
), on obtient le syst`eme
(S
2
)
0 = 10 (L
1
)
x y = 1 (L
2
)
La premi`ere ligne ne peut jamais etre realisee, et lon conclut que (S
2
) na pas de solution.
21 22 CHAPITRE 2. SYST
`
EMES LIN
EAIRES
3. Resolution de
(S
3
)
2x 2y = 2 (L
1
)
x y = 1 (L
2
)
On remarque que la premi`ere ligne est egale ` a deux fois la seconde. Par consequent, le
syst`eme (S
3
) est equivalent ` a
x y = 1.
Lensemble des couples (x, y) veriant cette relation est
{(y 1, y) | y R} .
Le syst`eme (S
3
) a donc une innite de solutions.
Conclusion : Dapr`es ces exemples, pour les syst`emes 22, au moins trois cas de gure peuvent
se presenter : ou bien le syst`eme a une seule solution, ou bien il nen a pas, ou bien il en a une
innite. Nous allons voir dans ce chapitre que meme pour les syst`emes lineaires generaux, il ny
a pas dautre scenario possible.
Notation : Dans tout ce chapitre, les syst`emes consideres sont ` a coecients dans R ou C.
Dans un souci de simplication des notations, nous adopterons la convention que le symbole K
designe R ou C. On rappelle que K
n
designe lensemble des n-uplets delements de K, cest-` a-dire
lensemble des (u
1
, , u
n
) avec chaque u
i
appartenant ` a K.
2.2 Denitions
Denition 2.2.1 Soit p N
et n N
a
11
x
1
+ +a
1n
x
n
= b
1
. . . . . . . . . . . . . . . . . . . . . . . .
a
p1
x
1
+ +a
pn
x
n
= b
p
avec a
ij
K pour 1 i p et 1 j n, et b
i
K.
Un tel syst`eme est dit carre si p = n.
Denition 2.2.2 Si b
1
= = b
p
= 0, le syst`eme est dit homog`ene. Pour un syst`eme lineaire
general (S) de p equations ` a n inconnues, le syst`eme
(S
a
11
x
1
+ +a
1n
x
n
= 0
. . . . . . . . . . . . . . . . . . . . . . .
a
p1
x
1
+ +a
pn
x
n
= 0
est appele syst`eme homog`ene associe ` a (S).
Denition 2.2.3 Soit (S) un syst`eme lineaire p n. On appelle solution de (S) tout n-uplet
(u
1
, , u
n
) de K
n
tel que
a
11
u
1
+ +a
1n
u
n
= b
1
. . . . . . . . . . . . . . . . . . . . . . . . .
a
p1
u
1
+ +a
pn
u
n
= b
p
.
Denition 2.2.4 Deux syst`emes (S
1
) et (S
2
) sont dits equivalents sils ont le meme ensemble
de solutions, cest-` a-dire si toute solution de (S
1
) est solution de (S
2
) et vice versa. 2.3. MATRICE ASSOCI
EE
`
A UN SYST
`
EME LIN
EAIRE 23
Exemple : Les syst`emes
x
1
= 1
x
1
x
2
= 2
et
x
1
+x
2
= 0
x
1
x
2
= 2
sont equivalents.
Denition 2.2.5 On dit quun syst`eme carre est triangulaire si lon a
a
ij
= 0 pour tout couple (i, j) tel que i < j (syst`eme triangulaire inferieur)
ou bien
a
ij
= 0 pour tout couple (i, j) tel que i > j (syst`eme triangulaire superieur).
Un syst`eme triangulaire est dit ` a diagonale non nulle sil est triangulaire et si tous les termes
diagonaux sont non nuls.
Exemple : Le syst`eme suivant est triangulaire superieur ` a diagonale non nulle :
x
1
+ 5x
2
+ x
4
= 1
x
2
+ x
3
= 5
x
3
5x
4
= 0
x
4
= 1.
Denition 2.2.6 On dit quun syst`eme pn est echelonne sil existe un entier k {1, , n}
et un k-uplet dentiers j
1
< < j
k
de {1, , n} tel que
1. Pour i {1, , k}, on a
a
ij
= 0 si j < j
i
,
a
ij
i
= 0.
2. Pour i > k, a
ij
= 0.
Les k premi`eres equations sont appelees equations principales, et les inconnues x
j
1
, , x
j
k
sont appelees inconnues principales .
Remarque 2.2.7 Tout syst`eme triangulaire superieur ` a diagonale non nulle est echelonne : on
a k = n et j
i
= i pour tout i {1, , n}.
Exemple : Le syst`eme 4 5 suivant est echelonne :
2x
1
+ 3x
2
+ x
5
= 1
x
2
+ x
3
+ x
4
x
5
= 4
x
5
= 0
0 = 3
On a k = 3, j
1
= 1, j
2
= 2 et j
3
= 5. Les trois premi`eres equations sont les equations
principales, et x
1
, x
2
et x
5
sont les inconnues principales.
2.3 Matrice associee `a un syst`eme lineaire
Denition 2.3.1 Soit (S) un syst`eme p n. Notons a
ij
(avec i decrivant {1, , p} et j
decrivant {1, , n}) ses coecients. On appelle matrice associee au syst`eme (S) le tableau de
nombres
A
def
=
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
a
p1
a
p2
a
pn
. 24 CHAPITRE 2. SYST
`
EMES LIN
EAIRES
On dit que A est une matrice ` a p lignes, n colonnes et ` a coecients dans K. On note M
p,n
(K)
lensemble des matrices ` a p lignes et n colonnes ` a coecients dans K.
Si p = n, on dit que la matrice est carree et on utilise plut ot la notation M
n
(K) au lieu de
M
n,n
(K).
Notation : Soit A M
p,n
(K). On note a
ij
le coecient general de A. Le premier indice (ici i)
est celui des lignes, et le deuxi`eme (ici j) est celui des colonnes. On utilise souvent la notation
A = (a
ij
)
1ip
1jn
.
Denition 2.3.2 On dit que deux matrices de A = (a
ij
)
1ip
1jn
et B = (b
ij
)
1ip
1jn
de M
p,n
(K)
sont egales si leurs coecients sont egaux : a
ij
= b
ij
pour tout i {1, , p} et j {1, , n}.
Denition 2.3.3 Soit A M
p,n
(K).
Les p lignes (a
i1
, , a
in
) pour i {1, , p} sont appelees vecteurs lignes de A.
Les n colonnes
a
1j
.
.
.
a
pj
x
1
+ 5x
3
= 2
x
1
x
2
+x
3
= 0
5
3
x
1
2x
2
= 1
a pour matrice associee la matrice carree ` a 3 lignes et 3 colonnes
A =
1 0 5
1 1 1
5
3
2 0
.
Les vecteurs lignes de A sont
(1, 0, 5) (1, 1, 1) et (
5
3
, 2, 0).
Les vecteurs colonnes de A sont
1
1
5
3
0
1
2
et
5
1
0
.
Remarque : Si A M
1,n
(K) (i.e p = 1), A est appelee matrice ligne.
Si A M
p,1
(K) (i.e n = 1), A est appelee matrice colonne.
Denition 2.3.4 Soit A M
n
(K) une matrice carree. Les coecients a
ii
pour i decrivant
1, , n sont appeles coecients diagonaux de A. On dit que A est une matrice diagonale
si ses coecients non diagonaux a
ij
avec i = j sont tous nuls.
La matrice diagonale dont tous les coecients diagonaux sont egaux ` a 1 est appelee matrice
identite et notee I
n
.
Denition 2.3.5 On dit quune matrice carree est triangulaire si lon a
a
ij
= 0 pour tout couple (i, j) tel que i < j (matrice triangulaire inferieure)
ou bien
a
ij
= 0 pour tout couple (i, j) tel que i > j (matrice triangulaire superieure). 2.4. R
ES 25
Proposition 2.3.6 Un syst`eme est triangulaire superieur (resp. inferieur) si et seulement si sa
matrice associee est triangulaire superieure (resp. inferieure).
Remarque : De meme, on dira que la matrice dun syst`eme (S) est echelonnee si le syst`eme
est lui-meme echelonne.
Denition 2.3.7 Soit A M
p,n
(K). On appelle matrice transposee de A la matrice B de
M
n,p
(K)
1
telle que b
ij
= a
ji
pour i {1, , n} et j {1, , p}. On note
t
A la matrice
transposee de A.
Exemple : La matrice transposee de A =
2 3
1 0
4 2
est
t
A =
2 1 4
3 0 2
.
La notation matricielle permet de recrire les syst`emes lineaires sous forme tr`es condensee.
En eet, considerons un syst`eme lineaire de p equations ` a n inconnues :
(S)
a
11
x
1
+ +a
1n
x
n
= b
1
. . . . . . . . . . . . . . . . . . . . . . . . . . .
a
p1
x
1
+ +a
pn
x
n
= b
p
.
Notons A la matrice associee ` a ce syst`eme, x =
x
1
.
.
.
xn
et b =
b
1
.
.
.
bp
2x
1
x
3
= 5
x
1
+ x
2
+ x
3
= 1
se recrit
2 0 1
1 1 1
x
1
x
2
5
1
.
En pratique, pour la resolution des syst`emes lineaires, on pourra adopter la notation condensee
suivante :
(S)
2 0 1
1 1 1
5
1
2.4 Resolution des syst`emes echelonnes
Nous allons voir que la resolution de tels syst`emes est particuli`erement aisee. Commen cons
par traiter le cas particulier des syst`emes triangulaires.
2.4.1 Syst`emes triangulaires `a diagonale non nulle
Proposition 2.4.1 Soit (S) un syst`eme triangulaire superieur ` a diagonale non nulle. Alors (S)
a une unique solution obtenue par la methode de la remontee :
x
n
=
b
n
a
nn
, x
n1
=
b
n1
a
n1n
x
n
a
n1n1
, . . . . . . . . . , x
1
=
b
1
a
12
x
2
a
1n
x
n
a
11
.
1
Il sagit donc dune matrice ` a n lignes et p colonnes 26 CHAPITRE 2. SYST
`
EMES LIN
EAIRES
Preuve : Le syst`eme (S) est du type
a
11
x
1
+ + a
1n1
x
n1
+ a
1n
x
n
= b
1
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
a
n1n1
x
n1
+ a
n1n
x
n
= b
n1
a
nn
x
n
= b
n
.
Comme a
nn
= 0, la derni`ere equation permet de calculer x
n
. Comme a
n1n1
= 0, lavant
derni`ere equation donne x
n1
=
b
n1
a
n1n
xn
a
n1n1
. Puis, de proche en proche, comme a
kk
= 0,
x
k
=
b
k
a
kk+1
x
k+1
a
kn
x
n
a
kk
.
Comme x
k+1
, , x
n
ont dej` a ete calcules, la formule ci-dessus permet de determiner x
k
.
Exercice : Montrer que les syst`emes triangulaires inferieurs peuvent etre resolus de fa con
analogue par la methode de la descente.
2.4.2 Syst`emes echelonnes
Considerons un syst`eme echelonne general p n :
(S)
a
1j
1
x
j
1
+ . . . . . . . . . . . . . . . . . . + a
1n
x
n
= b
1
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
a
kj
k
x
j
k
+ + a
kn
x
n
= b
k
0 = b
k+1
0 = b
p
.
1er cas : Lun des b
j
avec j {k + 1, , p} est non nul. Alors (S) na pas de solution.
2`eme cas : b
k+1
= = b
p
= 0. Alors (S) est equivalent au syst`eme () suivant :
()
a
1j
1
x
j
1
+ . . . . . . . . . . . . . . . . . . + a
1n
x
n
= b
1
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
a
kj
k
x
j
k
+ + a
kn
x
n
= b
k
.
Ce nouveau syst`eme se resout facilement par la methode de la remontee en considerant
les inconnues non principales (x
j
avec j = j
i
pour tout i) comme des param`etres libres. Si
k = n, le syst`eme () est tout simplement un syst`eme triangulaire superieur ` a diagonale
non nulle, et la proposition 2.4.1 sapplique.
Sinon, on doit avoir k < n, et on obtient une innite de solutions (x
1
, , x
n
) donnees par
les formules suivantes :
x
j
k
=
b
k
a
kj
k
+1
x
j
k
+1
a
kn
xn
a
kj
k
,
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ,
x
j
1
=
b
1
a
1j
1
+1
x
j
1
+1
a
1n
xn
a
1j
1
,
avec x
j
pour j = j
i
choisi arbitrairement dans K.
Exemple : Soit un param`etre reel. On veut resoudre
2 3 0 0 1
0 1 0 1 1
0 0 0 0 1
0 0 0 0 0
1
3
6
2.5. M
1
3
6
Les inconnues principales sont x
1
, x
2
et x
5
. Les deux autres inconnues x
3
et x
4
sont des
param`etres libres. Par la methode de la remontee, on trouve :
x
5
= 6,
x
2
= 3 x
4
+x
5
= 9 x
4
,
x
1
=
1x
5
3x
2
2
= 16 +
3
2
x
4
.
Lensemble des solutions de (S) est
E =
16 +
3
2
x
4
, 9 x
4
, x
3
, x
4
, 6
x
3
R, x
4
R
.
2.5 Methode du pivot de Gauss
La methode du pivot de Gauss consiste ` a transformer un syst`eme (S) en un syst`eme echelonne
equivalent ` a laide de transformations elementaires .
Les transformations elementaires sont de trois types :
(T1)
Echange de deux lignes du syst`eme,
(T2) Multiplication dune ligne par un scalaire non nul,
(T3) Ajout ` a une ligne dun multiple dune autre ligne.
Limportance que lon accorde aux transformations elementaires est justiee par le resultat
suivant :
Proposition 2.5.1 Deux syst`emes (S
1
) et (S
2
) se deduisant lun de lautre par une succession
de transformations elementaires sont equivalents.
Remarque : Autrement dit, faire des transformations elementaires ne change pas lensemble
des solutions dun syst`eme lineaire.
Preuve : Il sut de verier que chaque type de transformation elementaire ne modie pas
lensemble des solutions. Pour (T1) (i.e permutations de deux lignes), cest evident.
Pour (T2) cest egalement clair : si (x
1
, , x
n
) est solution, alors on a pour tout = 0,
a
i1
x
1
+ +a
in
x
n
= b
i
a
i1
x
1
+ +a
in
x
n
= b
i
.
Reste ` a verier pour (T3). Supposons que lon ajoute (L
i
1
) ` a la ligne (L
i
0
) (avec i
0
= i
1
).
Notons (a
ij
)
1ip
1jn
la matrice de (S), et (a
ij
)
1ip
1jn
la matrice du syst`eme (S
) obtenu apr`es
avoir ajoute (L
i
1
) ` a la ligne (L
i
0
). Notons E (resp. E
)).
Il est clair que
(2.1)
ij
= a
ij
si i = i
0
,
a
i
0
j
= a
i
0
j
+a
i
1
j
. 28 CHAPITRE 2. SYST
`
EMES LIN
EAIRES
Soit (u
1
, , u
n
) une solution de (S). On a par denition
(2.2) i {1, , p}, a
i1
u
1
+ +a
in
u
n
= b
i
.
Comme a
ij
= a
ij
pour i = i
0
, le n-uplet (u
1
, , u
n
) satisfait les lignes de (S
) distinctes
de i
0
.
En ajoutant fois legalite (2.2) avec i = i
1
` a legalite (2.2) avec i = i
0
, on trouve
(a
i
0
1
+a
i
1
1
)u
1
+ + (a
i
0
n
+a
i
1
n
)u
n
= b
i
0
+b
i
1
qui est exactement la ligne i
0
de (S
). Donc (u
1
, , u
n
) est solution de (S
). Do` u E E
.
Pour montrer linclusion reciproque, il sut de remarquer que lon passe de (S
) ` a (S) en
retranchant (L
i
1
) ` a (L
i
0
). On reprend alors le raisonnement precedent en echangeant les
r oles de (S) et de (S
0
1
2
(echange de (L
1
) et (L
3
)) ,
2 0 1 0
2 3 1 0
0 1 0 1
0
1
1
2
multiplication de (L
3
) par
1
4
2 0 1 0
0 3 2 0
0 1 0 1
0
1
1
2
(on retranche (L
1
) ` a (L
2
)) ,
2 0 1 0
0 3 2 0
0 0
2
3
1
0
1
1
6
on retranche (
1
3
L
1
) ` a (L
3
)
,
Le syst`eme obtenu apr`es cette succession de transformations elementaires est echelonne (les
inconnues principales sont x
1
, x
2
et x
3
. On peut donc le resoudre par la methode de la remontee.
La proposition 2.5.1 assure que ce nouveau syst`eme est equivalent au syst`eme initial. 2.6. STRUCTURE DE LENSEMBLE DES SOLUTIONS DUN SYST
`
EME LIN
EAIRE 29
Algorithme du pivot de Gauss : Considerons un syst`eme (S) de taille p n et de
matrice A. On veut resoudre Ax = b.
Le pivot de Gauss est une methode iterative permettant de transformer nimporte quel
syst`eme lineaire en un syst`eme echelonne equivalent apr`es un nombre ni de transforma-
tions elementaires.
Premi`ere iteration :
Premier cas : La matrice A est nulle. Lalgorithme est alors termine.
Deuxi`eme cas : A = 0. Soit j
1
lindice de la premi`ere colonne non nulle.
1`ere etape : Par permutation de lignes on se ram`ene au cas o` u a
1j
1
= 0. Le
syst`eme (S) est donc equivalent ` a un syst`eme de matrice
p lignes
8
>
>
<
>
>
:
n colonnes
. .. .
0 0 a
1j
1
.
.
.
.
.
.
0 0
.
2`eme etape : Le but de cette etape est de faire apparatre des 0 dans la
colonne j
1
sous le coecient a
1j
1
. Pour cela, on retranche
a
ij
1
a
1j
1
(L
1
) ` a chaque
ligne (L
i
) avec i 2. Apr`es avoir applique ces p1 operations elementaires,
le syst`eme equivalent obtenu a pour matrice
1
p
0 0 a
1j
1
.
.
.
.
.
. 0
.
.
.
.
.
.
.
.
.
0 0 0
.
Iteration suivante : On ne touche plus ` a la premi`ere ligne et lon applique la methode
de la premi`ere iteration au syst`eme (p 1) n constitue par les lignes 2 ` a p du syst`eme
obtenu ` a la n de la premi`ere etape.
Fin de lalgorithme : Lalgorithme sarrete au bout dau plus p1 iterations ou lorsque
le sous-syst`eme obtenu a toutes ses lignes nulles.
Remarque : Pour un syst`eme pn, literation type necessite environ pn additions, soustractions,
multiplications ou divisions. Lalgorithme du pivot permet donc de rendre un syst`eme echelonne
en eectuant environ p
2
n operations (n
3
operations si le syst`eme est carre). Son c ote automatique
le rend facilement executable par un ordinateur. Dans les cas pratiques, la methode du pivot de
Gauss nest pas forcement la plus rapide. Il nest pas interdit de reechir avant dappliquer
aveuglement lalgorithme !
2.6 Structure de lensemble des solutions dun syst`eme lineaire
2.6.1 Un exemple
Cherchons ` a resoudre le syst`eme (S) suivant :
1 1 0 1
2 3 1 0
1 0 1 1
0
2
4
Notons (S
EAIRES
Pour resoudre (S), on applique lalgorithme du pivot de Gauss :
(S)
1 1 0 1
0 1 1 2
0 1 1 2
0
2
4
(on retranche 2(L
1
) ` a (L
2
), et (L
1
) ` a (L
3
)) ,
1 1 0 1
0 1 1 2
0 0 2 4
0
2
6
(ajout de (L
2
) ` a (L
3
)) .
Ce dernier syst`eme est echelonne et a pour inconnues principales x
1
, x
2
et x
3
. On en deduit
(S)
x
3
= 3 2x
4
,
x
2
= 2 2x
4
x
3
= 1,
x
1
= x
4
x
2
= 4 x
4
+ 1.
Donc la solution generale secrit
x
1
x
2
x
3
x
4
1
1
3
0
. .. .
solution particuli`ere de (S)
+
1
0
2
1
. .. .
solution generale de (S
)
.
Nous allons voir que lensemble des solutions dun syst`eme lineaire, sil nest pas vide, peut
toujours secrire comme la somme dune solution particuli`ere et de lensemble des solutions du
syst`eme homog`ene associe.
2.6.2 Cas des syst`emes homog`enes
Proposition 2.6.1 Soit (S
) un syst`eme homog`ene p n et E
(et donc E
et (y
1
, , y
n
) E
alors (x
1
+y
1
, , x
n
+y
n
) E
.
iii) Si (x
1
, , x
n
) E
et K alors (x
1
, , x
n
) E
.
On dit que E
.
Supposons maintenant que (x
1
, , x
n
) et (y
1
, , y
n
) soient solutions de (S
). Alors pour
tout i {1, , p}, on a
a
i1
x
1
+ a
in
x
n
= 0 et a
i1
y
1
+ a
in
y
n
= 0.
Donc, en sommant les deux egalites,
a
i1
(x
1
+y
1
) + a
in
(x
n
+y
n
) = 0.
Il est egalement clair que pour tout K, on a a
i1
x
1
+ a
in
x
n
= 0. Les points ii) et
iii) sont donc prouves. 2.6. STRUCTURE DE LENSEMBLE DES SOLUTIONS DUN SYST
`
EME LIN
EAIRE 31
2.6.3 Cas general
Proposition 2.6.2 Soit (S) un syst`eme lineaire et (S
leurs ensembles de solutions respectifs. Supposons de plus que E ne soit pas vide
et donnons-nous (x
0
1
, , x
0
n
) une solution particuli`ere de (S). Alors
(x
1
, , x
n
) E (x
1
, , x
n
) E
tel que (x
1
, , x
n
) = (x
0
1
+x
1
, , x
0
n
+x
n
).
Autrement dit, si E nest pas vide alors E est la somme des solutions de E
et dune solution
particuli`ere de E. On dit que E
1
, , x
n
)
def
= (x
1
x
0
1
, , x
n
x
0
n
) est solution du syst`eme homog`ene
associe ` a (S).
= Supposons que (x
1
, , x
n
) E
. Alors on a a
i1
x
1
+ + a
in
x
n
= 0 pour tout
i {1, , p}. En ajoutant legalite (2.3), on trouve
a
i1
(x
0
1
+x
1
) + (x
0
n
+x
n
) = 0
pour tout i {1, , p}, et donc (x
0
1
+x
1
, , x
0
n
+x
n
) est solution de (S). 32 CHAPITRE 2. SYST
`
EMES LIN
EAIRES
Chapitre 3
Familles de vecteurs
Dans tout ce chapitre, K designe R ou C, et n est un entier superieur ou egal ` a 1.
3.1 Vecteurs de K
n
Denition 3.1.1 On appelle vecteur ` a n composantes tout n-uplet (x
1
, , x
n
) delements
de K. Lensemble des vecteurs ` a n composantes (appeles plus simplement vecteurs) est note K
n
,
et lon pose x = (x
1
, , x
n
).
On munit K
n
dune loi interne + denie pour tous vecteurs x et y de K
n
par
x + y
def
=
x +y = (x
1
+y
1
, , x
n
+y
n
),
et dune loi externe denie pour tout scalaire K et vecteur x K
n
par
x
def
=
x = (x
1
, , x
n
).
Proposition 3.1.2 (K
n
, +) est un groupe commutatif.
Preuve : La commutativite et lassociativite de la loi + resultent de celles de laddition dans
R ou C. Il est de plus clair que lelement neutre est le vecteur nul
0
def
= (0, , 0) et que le
symetrique de x est x
def
= (1) x = (x
1
, , x
n
).
Remarque 3.1.3 De plus, (K
n
, +) est stable par la loi externe decrite plus haut : pour
tous scalaires et , et pour tous vecteurs x et y, on a
(x +y) = x + y,
( +) x = x + x,
( x) = () x,
1 x = x.
On dit que (K
n
, +, ) est un espace vectoriel sur K.
Remarques :
1. Par convention K
0
est lespace vectoriel trivial contenant un seul element note
0. Cest
le plus petitde tous les K-espaces vectoriels.
2. Sauf en cas dambigute, on omettra le point de la multiplication par un scalaire : x
designera x.
33 34 CHAPITRE 3. FAMILLES DE VECTEURS
Letude detaillee des espaces vectoriels fera lobjet du cours du second semestre. Nous nous
limitons dans un premier temps aux sous-espaces vectoriels :
Denition 3.1.4 Soit X K
n
. On dit que X est un sous-espace vectoriel
1
de K
n
si
1. (X, +) est un sous-groupe de (K
n
, +),
2. x X, K, x X.
Pour prouver quun sous-ensemble X de K
n
est un s.e.v de K
n
, on fait generalement appel ` a la
proposition suivante :
Proposition 3.1.5 X K
n
est un sous-espace vectoriel de K
n
si et seulement si
1. X contient
0,
2. K, K, x X, y X, x +y X.
Preuve : Il est clair que tout sous-espace vectoriel verie 1 et 2.
Reciproquement, considerons un sous-ensemble X de K
n
veriant les proprietes 1 et 2. On
sait dej` a que X contient
0 qui est lelement neutre pour la loi +. De plus, toujours dapr`es
2, pour tout couple (x, y) X X, on a
x + y = 1x + 1y X.
Donc (X, +) est un sous-groupe de (K
n
, +).
Enn, si K et x X, on a x = x + 1.
0 X.
3.2 Familles de vecteurs
3.2.1 Combinaisons lineaires
Denition 3.2.1 Soit I un ensemble non vide. On appelle famille de vecteurs de K
n
indexee
par I tout ensemble {x
i
| i I} de vecteurs de K
n
o` u lindice i decrit tous les elements de I. Une
famille de vecteurs indexee par I sera notee (x
i
)
iI
. Si I = {i
1
, , i
k
}, on utilisera egalement
la notation (x
i
1
, , x
i
k
).
Si J I, on dit que (x
j
)
jJ
est une sous-famille de (x
i
)
iI
.
Si I K, on dit que (x
k
)
kK
est une sur-famille de (x
i
)
iI
.
Remarque 3.2.2 Il est parfois commode detendre la denition ci-dessus au cas o` u I = . Par
convention, la famille indexee par lensemble vide est . On lappelle famille vide de K
n
. Bien
evidemment, la famille vide est sous-famille de toute famille de vecteurs.
Dans la suite du cours, on se limite ` a des familles nies de vecteurs. Le plus souvent, ces familles
seront indexees par I = {1, , k} et notees (x
1
, , x
k
).
Denition 3.2.3 Soit (x
1
, , x
p
) une famille de vecteurs de K
n
. On dit que y K
n
est com-
binaison lineaire de la famille (x
1
, , x
p
) sil existe un p-uplet (
1
, ,
p
) delements de K
tel que
y =
1
x
1
+ +
n
x
p
.
Convention : Toute combinaison lineaire de zero vecteur (i.e de la famille vide) est egale au
vecteur nul.
Proposition 3.2.4 Tout sous-espace vectoriel de K
n
est stable par combinaison lineaire dun
nombre arbitraire de ses vecteurs.
Preuve : La proposition 3.1.5 montre la stabilite par combinaison lineaire de deux vecteurs.
Une recurrence elementaire donne le cas general.
1
ou s.e.v en abrege 3.2. FAMILLES DE VECTEURS 35
3.2.2 Familles generatrices
Denition 3.2.5 Soit X un sous-espace vectoriel de K
n
. On dit quune famille de vecteurs
(x
1
, , x
k
) de X est generatrice si tout element de X est combinaison lineaire de (x
1
, , x
k
).
Proposition 3.2.6 Soit (u
1
, , u
k
) une famille de vecteurs de K
n
. Lensemble des com-
binaisons lineaires des u
i
est un sous-espace vectoriel de K
n
. On lappelle sous-espace
vectoriel engendre par la famille (u
1
, , u
k
) et on le note Vect (u
1
, , u
k
). Cest le
plus petit sous-espace vectoriel contenant tous les vecteurs de la famille (u
1
, , u
k
).
Preuve : Pour verier que Vect (u
1
, , u
k
) est un sous-espace vectoriel, on va appliquer la
proposition 3.1.5.
Vect (u
1
, , u
k
) nest pas vide car contient u
1
.
Si x et y sont deux elements de Vect (u
1
, , u
k
) alors on peut trouver deux k-uplets
(
1
, ,
k
) et (
1
, ,
k
) tels que
x =
k
i=1
i
u
i
et y =
k
i=1
i
u
i
.
Pour tout couple (, ) de K
2
, on a donc
x +y =
k
i=1
(
i
+
i
)u
i
.
Donc x +y est bien combinaison lineaire de (u
1
, , u
k
)
Enn, si X est un sous-espace vectoriel contenant chacun des vecteurs u
i
, il contient toute
combinaison lineaire de la famille (u
1
, , u
k
) (cf Prop. 3.2.4) donc Vect (u
1
, , u
k
).
Remarque : Le sous-espace vectoriel engendre par la famille vide de K
n
est {
0}.
Nous laissons au lecteur le soin detablir le resultat suivant :
Proposition 3.2.7 Soit (x
1
, , x
p
) une famille de vecteurs de K
n
, et (x
i
1
, , x
i
k
) une sous-
famille de (x
1
, , x
p
). Alors on a
Vect (x
i
1
, , x
i
k
) Vect (x
1
, , x
p
).
Pour determiner le sous-espace vectoriel engendre par une famille de vecteurs, on fait souvent
appel ` a la proposition suivante :
Proposition 3.2.8 Le sous-espace vectoriel engendre par une famille de vecteurs donnee est
invariant par les operations suivantes :
(T1) Permutation de deux vecteurs,
(T2) Multiplication dun vecteur par un scalaire non nul,
(T3) Ajout ` a lun des vecteurs dune combinaison lineaire des autres vecteurs.
Preuve : Soit (x
1
, , x
p
) une famille de vecteurs. Linvariance de Vect (x
1
, , x
p
) par les
transformations (T1) et (T2) est evidente.
Pour (T3), il sut de considerer le cas o` u lon ajoute un seul vecteur, le cas general suit
par recurrence. Quitte ` a changer lordre des vecteurs (ce qui ne change pas les sous-espaces
vectoriels engendres), il sut de prouver par exemple que pour tout K, on a
Vect (x
1
+x
2
, x
2
, , x
p
) = Vect (x
1
, x
2
, , x
p
). 36 CHAPITRE 3. FAMILLES DE VECTEURS
Soit y Vect (x
1
+x
2
, x
2
, , x
p
). Alors il existe (
1
, ,
p
) K
p
tel que
y =
1
(x
1
+x
2
) +
2
x
2
+ +
p
x
p
.
On a donc
y =
1
x
1
+ (
2
+
1
)x
2
+ +
p
x
p
.
et, par consequent, y Vect (x
1
, x
2
, , x
p
). On a donc montre que
Vect (x
1
+x
2
, x
2
, , x
p
) Vect (x
1
, x
2
, , x
p
).
Pour montrer linclusion reciproque, on consid`ere y Vect (x
1
, x
2
, , x
p
). Il existe donc
(
1
, ,
p
) K
p
tel que y =
1
x
1
+
2
x
2
+ +
p
x
p
, ce qui peut se recrire
y =
1
(x
1
+x
2
) + (
2
1
)x
2
+
2
x
3
+ +
p
x
p
.
On a donc bien y Vect (x
1
+x
2
, x
2
, , x
p
).
3.2.3 Familles libres et familles liees
Denition 3.2.9 Soit (u
1
, , u
k
) une famille de K
n
.
On dit que (u
1
, , u
k
) est libre (ou lineairement independante) si
(
1
, ,
k
) K
k
,
i=1
i
u
i
=
1
= =
k
= 0
.
On dit que (u
1
, , u
k
) est liee (ou lineairement dependante) si elle nest pas libre,
cest-` a-dire sil existe un k-uplet (
1
, ,
k
) = (0, , 0) tel que
k
i=1
i
u
i
=
0.
Convention : La famille vide est libre.
Proposition 3.2.10 Si (u
1
, , u
k
) est libre et x Vect (u
1
, , u
k
) alors il existe un unique
k-uplet (
1
, ,
k
) delements de K tel que x =
k
i=1
i
u
i
.
Autrement dit,
x =
k
i=1
i
u
i
=
k
i=1
i
u
i
1
=
1
, ,
k
=
k
.
Preuve : Legalite
k
i=1
i
u
i
=
k
i=1
i
u
i
entrane
k
i=1
(
i
i
)u
i
=
0, et donc, puisque
(u
1
, , u
k
) est libre,
i
i
= 0 pour tout i {1, , k}.
Proposition 3.2.11 Soit (x
1
, , x
k
) une famille de vecteurs de K
n
, et y K
n
.
1. Si y Vect (x
1
, , x
k
) alors la famille (x
1
, , x
k
, y) est liee.
2. Reciproquement, si la famille (x
1
, , x
k
, y) est liee et si de plus (x
1
, , x
k
) est libre
alors y Vect (x
1
, , x
k
).
Preuve :
1. Si y Vect (x
1
, , x
k
) alors il existe un k-uplet (
1
, ,
k
) delements de K tel
que y =
k
i=1
k
x
k
. On a donc
k
i=1
k
x
k
y =
0. Le (k +1)-uplet (
1
, ,
k
, 1)
nest pas identiquement nul donc la famille (x
1
, , x
k
, y) est liee. 3.2. FAMILLES DE VECTEURS 37
2. Reciproquement, supposons que (x
1
, , x
k
, y) soit liee et que (x
1
, , x
k
) soit libre.
Alors il existe un (k +1)-uplet non identiquement nul (
1
, ,
k
, ) de K
k+1
tel que
(3.1)
k
i=1
i
x
i
+y =
0.
On peut de plus armer que = 0. En eet, si etait nul alors (3.1) entranerait
que
k
i=1
i
x
i
=
0. Mais (x
1
, , x
k
) est libre, donc (
1
, ,
k
) = (0, , 0), puis
(
1
, ,
k
, ) = (0, , 0), ce qui est contraire ` a lhypoth`ese faite.
Donc nest pas nul, et on peut ecrire dapr`es (3.1),
y =
k
i=1
x
i
.
Autrement dit, y Vect (x
1
, , x
k
).
Proposition 3.2.12 Une famille (x
1
, , x
k
) est liee si et seulement si elle contient un vecteur
qui est combinaison lineaire des autres vecteurs.
Preuve : = Supposons que (x
1
, , x
k
) soit liee. Alors il existe un k-uplet (
1
, ,
k
) non
nul tel que
k
i=1
i
x
i
=
0. Comme le k-uplet nest pas nul, lun des
i
(disons
k
pour
xer les idees) nest pas nul et lon a donc
x
k
=
k1
i=1
k
x
i
,
et donc x
k
est combinaison lineaire des autres vecteurs de la famille.
= Supposons par exemple que x
k
soit combinaison lineaire de (x
1
, , x
k1
). Alors
x
k
Vect (x
1
, , x
k1
) et la proposition 3.2.11 montre que la famille (x
1
, , x
k
) est
liee.
Cas particuliers :
Toute famille contenant le vecteur nul est liee.
Une famille de deux vecteurs (x
1
, x
2
) est liee si et seulement si x
1
et x
2
sont colineaires,
i.e il existe K tel que
x
1
= x
2
ou x
2
= x
1
.
Pour determiner si une famille de vecteurs est libre ou liee, on a souvent recours ` a la proposition
suivante :
Proposition 3.2.13 1. Toute sous-famille dune famille libre est libre.
2. Toute sur-famille dune famille liee est liee.
3. Toute sur-famille dune famille generatrice est generatrice.
4. Une sous-famille dune famille non generatrice nest pas generatrice non plus.
Exercice : Prouver la proposition 3.2.13. 38 CHAPITRE 3. FAMILLES DE VECTEURS
3.2.4 Bases
Denition 3.2.14 Soit X un s.e.v de K
n
. On dit que la famille de vecteurs (u
1
, , u
k
) est
une base de X si elle est ` a la fois libre et generatrice de X.
Tout vecteur x de X se decompose alors de mani`ere unique en x =
k
i=1
x
i
u
i
. Le k-uplet
(x
1
, , x
k
) sappelle coordonnees de x par rapport ` a la base (u
1
, , u
k
).
Exemples :
1. Dans R
3
(ou C
3
), la famille constituee des vecteurs e
1
= (1, 0, 0), e
2
= (0, 1, 0) et e
3
=
(0, 0, 1) est une base. En eet, il clair que (e
1
, e
2
, e
3
) est libre. De plus, tout vecteur x =
(x
1
, x
2
, x
3
) peut secrire
x = x
1
e
1
+x
2
e
2
+x
3
e
3
.
La base (e
1
, e
2
, e
3
) est appelee base canonique de R
3
(ou C
3
).
2. En revanche, la famille (e
1
, e
2
) nest pas une base de R
3
. En eet, une combinaison
lineaire de e
1
et de e
2
a sa troisi`eme composante nulle. Le vecteur e
3
nest donc pas
dans Vect (e
1
, e
2
).
3. Denissons u = (1, 1, 1). La famille (e
1
, e
2
, e
3
, u) est generatrice de R
3
puisque contient la
famille (e
1
, e
2
, e
3
) qui est dej` a generatrice. Mais e
1
+e
2
+e
3
u =
0. Donc (e
1
, e
2
, e
3
, u)
est liee et (e
1
, e
2
, e
3
, u) nest pas une base.
4. Plus generalement, la famille (e
1
, , e
n
) de vecteurs de K
n
denie par
e
i
def
= (0, , 0, 1
....
position i
, 0, , 0)
est une base de K
n
. On lappelle base canonique de K
n
.
Theor`eme 3.2.15 Soit X un sous-espace vectoriel de K
n
, et (x
1
, , x
k
) une famille de vec-
teurs de X. Les trois proprietes suivantes sont equivalentes :
i) (x
1
, , x
k
) est une famille libre maximale (i.e si on ajoute un ou plusieurs vecteurs ` a la
famille, on obtient une famille liee),
ii) (x
1
, , x
k
) est une famille generatrice minimale (i.e si on retire un ou plusieurs vecteurs
` a la famille, la famille obtenue nest plus generatrice de X),
iii) (x
1
, , x
k
) est une base.
Preuve : En vertu de la proposition 3.2.13, il sut de traiter les cas o` u lon ajoute ou retire
un seul vecteur.
i) iii) : Soit (x
1
, , x
k
) une famille libre maximale. Montrons que cette famille est
aussi generatrice.
Soit y X. Alors par hypoth`ese, la famille (x
1
, , x
k
, y) est liee. La proposition 3.2.11
assure donc que y Vect (x
1
, , x
k
).
iii) i) : Soit (x
1
, , x
k
) une base de X. Par denition, cette famille est donc libre. De
plus, si y X alors y Vect (x
1
, , x
k
) puisque (x
1
, , x
k
) est aussi generatrice. Dapr`es
la proposition 3.2.11, on conclut donc que Vect (x
1
, , x
k
, y) est liee. Donc (x
1
, , x
k
)
est libre maximale.
ii) iii) : Soit (x
1
, , x
k
) generatrice minimale. Supposons par labsurde que cette
famille ne soit pas une base. Alors elle est liee, cest-` a-dire que lun de ses vecteurs disons
x
k
pour xer les idees est combinaison lineaire des autres :
(3.2) (
1
, ,
k1
) K
k1
, x
k
=
k1
i=1
i
x
i
. 3.3. RANG ET DIMENSION 39
Soit maintenant y X arbitraire. Comme (x
1
, , x
k
) est generatrice, il existe un k-uplet
(
1
, ,
k
) delements de K
k
tel que
y =
k
i=1
i
x
i
.
En tenant compte de (3.2), on trouve
y =
k1
i=1
(
i
+
i
k
)x
i
.
En consequence (x
1
, , x
k1
) est generatrice, ce qui contredit lhypoth`ese (x
1
, , x
k
)
generatrice minimale.
iii) ii) : Soit (x
1
, , x
k
) une base de X. Alors (x
1
, , x
k
) est generatrice. Retirons un
vecteur ` a cette famille, par exemple x
k
. La proposition 3.2.11 montre que x
k
ne peut etre
engendre par la famille (x
1
, , x
k1
) car alors (x
1
, , x
k
) serait liee. En consequence,
(x
1
, , x
k
) est bien generatrice minimale.
Theor`eme 3.2.16 (de la base incompl`ete) Soit X un s.e.v de K
n
non reduit ` a {
0}, m N
) | 0mp, p<j
1
< <j
m et (x
1
, , x
j
) libre} .
Soit C lensemble des cardinaux des familles de E.
Lensemble E contient au moins un element : (x
1
, , x
p
). Donc C est un sous-ensemble
non vide de N. Par construction, m est un majorant de C. Donc C admet un element
maximal que lon peut toujours noter p +k. (On a donc bien 0 k mp).
Soit (x
1
, , x
p
, x
j
1
, , x
j
n+2
i=1
i
x
i
= 0, revient ` a montrer que le syst`eme lineaire (S) suivant admet
une solution (
1
, ,
n+2
) non nulle :
(S)
x
1
1
1
+ +x
1
n+2
n+2
= 0,
. . . . . . . . . . . . . . . . . . . . . . . . . . .
x
n+1
1
1
+ +x
n+1
n+2
n+2
= 0.
1er cas : x
n+1
1
= = x
n+1
n+2
= 0.
Dans ce cas, la derni`ere ligne du syst`eme est veriee par nimporte quel (n+2)-uplet
(
1
, ,
n+2
). Si lon pose x
i
def
= (x
1
i
, , x
n
i
), la famille (x
1
, , x
n+1
) est une famille
de n + 1 vecteurs de K
n
. En vertu de lhypoth`ese de recurrence, elle est liee. Donc
(x
1
, , x
n+2
) aussi (cf prop. 3.2.13). On peut donc trouver (
1
, ,
n+2
) K
n+2
non nul tel que les n premi`eres lignes de (S) soient aussi satisfaites.
2`eme cas : Les coecients de la derni`ere ligne de (S) ne sont pas tous nuls.
Quitte ` a changer lordre des vecteurs de la famille et ` a multiplier la derni`ere ligne de
(S) par un scalaire non nul, on peut supposer que x
n+1
n+2
= 1. On a donc
(S)
x
1
1
1
+ +x
1
n+1
n+1
+x
1
n+2
n+2
= 0,
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
x
n
1
1
+ +x
n
n+1
n+1
+x
n
n+2
n+2
= 0,
n+2
=
n+1
i=1
x
n+1
i
i
.
Pour i {1, , n+1}, denissons
x
i
def
= (x
1
i
x
1
n+2
x
n+1
i
, , x
n
i
x
n
n+2
x
n+1
i
).
Le syst`eme (S) donne
n+1
i=1
i
x
i
=
0. Dapr`es (P
n
), la famille (x
1
, , x
n+1
) de K
n
est
liee. Donc il existe (
1
, ,
n+1
) non nul tel que
n+1
i=1
i
x
i
=
0. En denissant
n+2
conformement ` a la derni`ere ligne du syst`eme ci-dessus, on obtient
n+2
i=1
i
x
i
=
0.
Proposition 3.3.2 Soit X un sous-espace vectoriel de K
n
non reduit ` a {
0}. Alors X
admet une base composee dau plus n vecteurs. De plus, toutes les bases de X comportent
le meme nombre k delements. Ce nombre est appele dimension de X. On le note dimX.
Preuve : La preuve de lexistence dune base se fait par recurrence limitee. Par hypoth`ese,
X contient un vecteur x
1
= 0. On choisit alors un autre vecteur x
2
de X tel que (x
1
, x
2
)
soit une base. Si un tel vecteur nexiste pas, (x
1
) est une famille libre maximale et donc
une base (cf th. 3.2.15). 3.3. RANG ET DIMENSION 41
Plus generalement, supposons connue une famille libre (x
1
, , x
j1
) de X. Deux cas
peuvent se presenter. Ou bien (x
1
, , x
j1
) est libre maximale auquel cas le th. 3.2.15
assure que (x
1
, , x
j1
) est une base de X, ou bien cette famille libre nest pas maximale,
auquel cas on peut trouver x
j
X tel que (x
1
, , x
j
) soit libre.
Enn, en vertu du lemme 3.3.1, le procede de construction sarrete au plus tard apr`es
lobtention dune famille libre ` a n elements.
Reste ` a verier que toutes les bases ont le meme nombre delements. Donnons-nous deux
bases (x
1
, , x
k
) et (y
1
, , y
) de X. On a
X = Vect (x
1
, , x
k
) = Vect (y
1
, , y
).
La premi`ere egalite montre que X est engendre par k vecteurs. Dapr`es le lemme 3.3.1,
toute famille de k +1 vecteurs de X est donc liee. Comme (y
1
, , y
0} a pour dimension 0.
2. La base canonique de K
n
comporte exactement n elements. Donc dimK
n
= n.
3. Les sous-espaces vectoriels de dimension 1 sont appeles droites vectorielles ou plus sim-
plement droites.
4. Les sous-espaces de dimension n 1 de K
n
sont appeles hyperplans. Lorsque n = 3, on
parle plut ot de plan. Enn, si n = 2, les hyperplans sont des droites vectorielles.
Remarque : Sachant que X est un sous-espace vectoriel de dimension k, pour montrer
quune famille (x
1
, , x
k
) de vecteurs de X est une base, il sut detablir que (x
1
, , x
k
)
est generatrice ou que (x
1
, , x
k
) est libre.
Exemples :
1.
Equation dune droite de R
2
:
Soit (, ) R
2
\(0, 0). La droite (vectorielle) engendree par le vecteur u = (, ) de
R
2
est lensemble des vecteurs v = (x, y) tels que x y = 0.
Reciproquement, si (a, b) = (0, 0), lensemble des vecteurs v = (x, y) de R
2
tels que
ax +by = 0 est la droite (vectorielle) de R
2
orthogonale au vecteur u = (a, b).
2.
Equation dun plan de R
3
:
Soit (a, b, c) un triplet non nul (i.e distinct de (0, 0, 0)) de R
3
. Lensemble des vecteurs
v = (x, y, z) de R
3
tels que
ax +by +cz = 0
est un plan (vectoriel) de R
3
. Cest le plan orthogonal au vecteur u = (a, b, c).
3.
Equation dun hyperplan de R
n
:
Plus generalement, si (a
1
, , a
n
) est un n-uplet non nul de R
n
, alors lensemble des
vecteurs v = (x
1
, , x
n
) tels que
a
1
x
1
+ +a
n
x
n
= 0
est un hyperplan de R
n
.
Proposition 3.3.4 Soit X et Y deux sous-espaces vectoriels de K
n
tels que X Y .
Alors dimX dimY et dimX = dimY si et seulement si X = Y . 42 CHAPITRE 3. FAMILLES DE VECTEURS
Preuve : Notons k = dimX et = dimY . Il est clair que toute base de X est une famille
libre de Y . Le theor`eme de la base incompl`ete assure donc que k .
Si X = Y , il est trivial que dimX = dimY . Reciproquement, supposons que dimX =
dimY et X Y . Soit (
f
1
, ,
f
k
) une base de X. Alors cest aussi une famille libre de Y .
Elle est maximale car dimY = k. Donc cest une base de Y . On a donc
Y = X = Vect (
f
1
, ,
f
k
).
3.3.2 Rang dune famille de vecteurs
Denition 3.3.5 Soit (x
1
, , x
p
) une famille de vecteurs de K
n
. On appelle rang
de la famille (x
1
, , x
p
), note rg (x
1
, , x
p
) la dimension du sous-espace vectoriel
Vect (x
1
, , x
p
).
Proposition 3.3.6 Soit (x
1
, , x
p
) une famille de vecteurs de K
n
.
i) On a toujours rg (x
1
, , x
p
) p.
ii) On a rg (x
1
, , x
p
) n avec egalite si et seulement si (x
1
, , x
p
) engendre K
n
.
iii) On a rg (x
1
, , x
p
) = p si et seulement si la famille (x
1
, , x
p
) est libre.
Preuve : Notons X = Vect (x
1
, , x
p
). Dapr`es le theor`eme de la base incompl`ete ap-
plique ` a la famille vide et ` a la famille generatrice (x
1
, , x
p
), il existe une sous-famille de
(x
1
, , x
p
) qui est une base de X. Cette famille a au plus p elements, ce qui montre le i).
Comme Vect (x
1
, , x
p
) K
n
, le ii) de la proposition resulte de la proposition 3.3.4.
Par denition meme de X, la famille (x
1
, , x
p
) est generatrice. Si de plus (x
1
, , x
p
)
est libre alors (x
1
, , x
p
) est une base de X, et donc dimX = p.
Si au contraire (x
1
, , x
p
) est liee, alors lun des vecteurs, par exemple x
p
, est combinaison
lineaire des autres. Donc X = Vect (x
1
, , x
p1
), et donc dapr`es i), dimX p 1.
Pour determiner le rang dune famille de vecteurs, on a souvent recours au resultat suivant :
Proposition 3.3.7 Le rang dune famille de vecteurs est invariant par les transformations
elementaires (T1), (T2) et (T3) denies dans la proposition 3.2.8.
Preuve : Cest une consequence immediate de la proposition 3.2.8.
3.3.3 Rang dune matrice
Denition 3.3.8 Soit A M
p,n
(K). On appelle rang de la matrice A (note rg A) le rang de la
famille de vecteurs constituee des p vecteurs lignes de A. Autrement dit, si lon note a
i
la i-`eme
ligne de A, on a
rg A = rg (a
1
, , a
p
).
Proposition 3.3.9 [Rang dune matrice echelonnee] Soit A une matrice echelonnee du type
suivant :
A =
0 a
1j
1
0 0 a
2j
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. a
kj
k
0 0 0
.
Alors rg A = k. 3.3. RANG ET DIMENSION 43
Preuve : Comme les p k derni`eres lignes de A sont nulles, le rang de A est egal ` a celui de
ses k premi`eres lignes. Par denition des indices j
i
, on a a
ij
i
= 0 pour i {1, , k}, donc
la famille constituee par les k premi`eres lignes est libre (pour le voir, revenir ` a la denition
dune famille libre). On a donc bien rg A = k.
3.3.4 Calcul pratique du rang dune famille de vecteurs
Considerons une matrice A M
n,p
(K). Nous avons vu dans le chapitre 2 quune succession
de transformations elementaires permettait dobtenir une matrice B echelonnee (methode du
pivot de Gauss). La proposition 3.3.7 assure que rg A = rg B. De plus, le rang de B peut etre
facilement calcule gr ace ` a la proposition 3.3.9.
Ces considerations nous sugg`erent une methode systematique permettant de calculer le rang
dune famille de vecteurs :
Comment calculer le rang dune famille de vecteurs
Pour calculer le rang dune famille de vecteurs (x
1
, , x
p
) de K
n
, on proc`ede comme suit :
1. On dispose les p vecteurs en ligne. On obtient ainsi une matrice ` a p lignes et n
colonnes :
A =
x
1
.
.
.
x
p
x
11
x
1n
.
.
.
.
.
.
x
p1
x
pn
.
2. On applique aux lignes de la matrice A des transformations elementaires (T1), (T2)
ou (T3) an dobtenir une matrice B echelonnee et de meme rang que A. Pour ce
faire, la methode du pivot de Gauss est tout indiquee.
Le rang de A est alors egal au nombre de lignes non nulles de B.
Exemple : Calculer le rang de la famille (
V
1
,
V
2
,
V
3
,
V
4
) composee des vecteurs de R
5
suivants :
V
1
= (1, 0, 0, 2, 1),
V
2
= (0, 1, 2, 1, 0),
V
3
= (0, 1, 2, 1, 1),
V
4
= (0, 0, 0, 2, 1).
On ecrit la matrice A de lignes
V
1
,
V
2
,
V
3
et
V
4
:
1 0 0 2 1
0 1 2 1 0
0 1 2 1 1
0 0 0 2 1
1 0 0 2 1
0 1 2 1 0
0 0 0 2 1
0 0 0 2 1
= rg
1 0 0 2 -1
0 1 -2 1 0
0 0 0 2 -1
0 0 0 0 0
Cette derni`ere matrice est echelonnee avec trois lignes non nulles. Donc
rg (
V
1
,
V
2
,
V
3
,
V
4
) = rg A = 3. 44 CHAPITRE 3. FAMILLES DE VECTEURS
Chapitre 4
Determinants
A ce stade, la methode du pivot de Gauss est le seul outil dont nous disposons pour determiner
si une famille de vecteurs est libre ou liee (en fait, cette methode donne un renseignement un
peu plus precis, ` a savoir le rang de la famille en question). Dans ce chapitre, nous presentons
un crit`ere alternatif permettant de determiner si une famille est libre ou liee : le calcul du
determinant.
Cette notion de determinant ne vous est probablement pas etrang`ere dans le cas des vecteurs
de R
2
. Vous savez sans doute que deux vecteurs a = (x
1
, y
1
) et
b = (x
2
, y
2
) de R
2
sont colineaires
1
si et seulement si
x
1
y
1
x
2
y
2
def
= x
1
y
2
x
2
y
1
= 0.
Nous allons generaliser la denition du determinant au cas de n vecteurs de K
n
et disposerons
ainsi dun crit`ere permettant de savoir si ces n vecteurs sont lies ou libres.
4.1 Denition du determinant
Proposition 4.1.1 Le determinant est lunique application qui ` a une matrice carree A de
M
n
(K) associe un scalaire de K note det A, et verie les proprietes suivantes :
1. Linearite par rapport ` a chaque ligne :
det
a
1
.
.
.
a
i
+a
i
.
.
.
a
n
= det
a
1
.
.
.
a
i
.
.
.
a
n
+ det
a
1
.
.
.
a
i
.
.
.
a
n
ligne i
det
a
1
.
.
.
a
i
.
.
.
a
n
= det
a
1
.
.
.
a
i
.
.
.
a
n
ligne i
2. Caract`ere alterne : Si la matrice A a deux lignes identiques alors det A = 0.
3. Normalisation : det I
n
= 1.
1
ou lies puisquil sagit de deux vecteurs
45 46 CHAPITRE 4. D
ETERMINANTS
Proposition 4.1.2 Lapplication det est de plus antisymetrique, cest-` a-dire que
det
a
1
.
.
.
a
j
.
.
.
a
i
.
.
.
a
n
ligne i
ligne j
= det
a
1
.
.
.
a
i
.
.
.
a
j
.
.
.
a
n
ligne i
ligne j
Reciproquement, toute application de M
n
(K) dans K lineaire par rapport ` a chaque ligne et
antisymetrique, est alternee.
Preuve : Comme lapplication det est lineaire et alternee par rapport ` a chaque ligne, on a
0 = det
a
1
.
.
.
a
i
+a
j
.
.
.
a
i
+a
j
.
.
.
a
n
i
j
= det
a
1
.
.
.
a
i
.
.
.
a
i
+a
j
.
.
.
a
n
i
j
+ det
a
1
.
.
.
a
j
.
.
.
a
i
+a
j
.
.
.
a
n
i
j
= det
a
1
.
.
.
a
i
.
.
.
a
i
.
.
.
a
n
i
j
+ det
a
1
.
.
.
a
i
.
.
.
a
j
.
.
.
a
n
i
j
+ det
a
1
.
.
.
a
j
.
.
.
a
i
.
.
.
a
n
i
j
+ det
a
1
.
.
.
a
j
.
.
.
a
j
.
.
.
a
n
i
j
= 0 + det
a
1
.
.
.
a
i
.
.
.
a
j
.
.
.
a
n
i
j
+ det
a
1
.
.
.
a
j
.
.
.
a
i
.
.
.
a
n
i
j
+ 0,
do` u lantisymetrie.
Reciproquement, si F F(M
n
(K); K) est une application antisymetrique, on a par
denition
F
a
1
.
.
.
a
j
.
.
.
a
i
.
.
.
a
n
i
j
= F
a
1
.
.
.
a
i
.
.
.
a
j
.
.
.
a
n
i
j 4.2. PROPRI
ET
ES
EL
EMENTAIRES DU D
ETERMINANT 47
Ces deux termes sont donc nuls quand a
i
=a
j
.
Idee de la preuve de lexistence de lapplication determinant :
Notons (e
1
, , e
n
) la base canonique de K
n
. Tout vecteur a
i
de K
n
peut se decomposer en
a
i
=
n
j=1
a
ij
e
j
.
En utilisant la linearite par rapport ` a chaque ligne, on en deduit que
det
a
1
.
.
.
a
n
=
n
j
1
=1
n
jn=1
a
1j
1
a
njn
det
e
j
1
.
.
.
e
jn
.
On en deduit que lapplication det est uniquement determinee par sa valeur sur les vecteurs de la
base canonique. Gr ace au caract`ere alterne, on sait de plus que limage dune famille contenant
deux fois le meme vecteur de la base canonique par lapplication det est nul. Par antisymetrie,
on constate de plus que lorsque les e
j
i
sont choisis deux ` a deux distincts, det
e
j
1
.
.
.
e
jn
peut etre
calcule ` a partir de det
e
1
.
.
.
e
n
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
.
4.2 Proprietes elementaires du determinant
Proposition 4.2.1 Pour tout K et A M
n
(K), on a det(A) =
n
det A.
Preuve : En notant a
1
, , a
n
les lignes de A, on a
det(A) = det
a
1
a
2
a
3
.
.
.
a
n
= det
a
1
a
2
a
3
.
.
.
a
n
=
2
det
a
1
a
2
a
3
.
.
.
a
n
= =
n
det
a
1
a
2
a
3
.
.
.
a
n
.
Proposition 4.2.2 Si lon ajoute ` a une ligne une combinaison lineaire des autres lignes,
alors le determinant ne change pas. 48 CHAPITRE 4. D
ETERMINANTS
Preuve : Supposons que lon ajoute
j=i
j
a
j
` a la ligne i. En utilisant la propriete de linearite
par rapport aux lignes, on a alors :
det
a
1
.
.
.
a
i
+
j=i
a
j
.
.
.
a
n
= det
a
1
.
.
.
a
i
.
.
.
a
n
j=i
j
det
a
1
.
.
.
a
j
.
.
.
a
n
ligne i
Les n 1 derniers termes de linegalite de droite sont des determinants de matrices ayant
deux lignes identiques. En vertu du caract`ere alterne de lapplication det, ils sont nuls,
do` u le resultat.
Proposition 4.2.3 Si lune des lignes de A est nulle alors det A = 0.
Preuve : Il sut decrire :
det
a
1
.
.
.
0
.
.
.
a
n
= det
a
1
.
.
.
0
0
.
.
.
a
n
= 0 det
a
1
.
.
.
0
.
.
.
a
n
= 0.
Proposition 4.2.4 Si A est une matrice diagonale alors det A est le produit des termes dia-
gonaux. De meme, si A est une matrice triangulaire superieure alors det A est le produit des
termes diagonaux.
Preuve :
1. Cas o` u A est diagonale. On a alors par linearite
det A =
a
11
0 0
0 a
22
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 a
nn
= a
11
1 0 0
0 a
22
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 a
nn
= a
11
a
22
1 0 0
0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 a
nn
= = (
n
i=1
a
ii
)
1 0 0
0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 1
n
i=1
a
ii
. 4.2. PROPRI
ET
ES
EL
EMENTAIRES DU D
ETERMINANT 49
2. Cas o` u A est triangulaire superieure ` a diagonale non nulle. En reprenant le calcul
precedent, on obtient
2
det A =
i=1
a
ii
1
0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
.
Il sut donc de montrer que le determinant de toute matrice triangulaire superieure
avec des 1 sur la diagonale est egal ` a 1.
Considerons donc une matrice A de ce type et notons (L
1
), , (L
n
) ses lignes. En
retranchant successivement a
1n
(L
n
) ` a (L
1
), a
2n
(L
n
) ` a (L
2
), jusqu` a a
1n1
(L
n1
) ` a
(L
n1
) (operations qui ne changent pas le determinant), on fait apparatre des 0
sur la derni`ere colonne et lon trouve :
1
0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
1 0
0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 1
.
Letape suivante consiste ` a retrancher a
j n1
(L
n1
) ` a la j-i`eme ligne an de faire ap-
paratre des 0 dans lavant derni`ere colonne. En iterant le procede, on conclut nale-
ment que le determinant cherche est egal ` a celui de lidentite, donc ` a 1.
3. Cas o` u A est triangulaire superieure avec au moins un terme diagonal nul. Notons
i lindice du plus grand coecient diagonal nul de A. En utilisant la linearite de
lapplication det par rapport aux n i derni`eres lignes, on montre aisement que
det A = a
i+1i+1
a
nn
det
a
11
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. a
i1i1
.
.
.
.
.
.
.
.
. 0
.
.
.
.
.
. 1
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
.
Ensuite, on proc`ede comme dans letape 2 pour faire apparatre des 0 dans les n i
derni`eres colonnes. On obtient ainsi
det A = a
i+1i+1
a
nn
det
a
11
0 0
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. a
i1i1
.
.
.
.
.
.
.
.
. 0 0
.
.
.
.
.
. 1
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 1
,
2
Les designent des coecients dont la valeur exacte nintervient pas dans les calculs 50 CHAPITRE 4. D
ETERMINANTS
et lon conclut immediatement que le determinant vaut 0 puisque la i-i`eme ligne de
la matrice ci-dessus est nulle.
Proposition 4.2.5 Soit (a
1
, , a
n
) une famille de vecteurs de K
n
.
La famille (a
1
, , a
n
) est liee si et seulement si det
a
1
.
.
.
a
n
= 0.
Preuve :
= Supposons (a
1
, , a
n
) liee. Alors lun des vecteurs de la famille est combinaison
lineaire des autres, par exemple, a
n
=
n1
j=1
j
a
j
. En appliquant la proposition 4.2.2,
on a donc
det
a
1
.
.
.
a
n1
a
n
= det
a
1
.
.
.
a
n1
0 +
n1
j=1
j
a
j
= det
a
1
.
.
.
a
n1
= 0.
= On montre limplication inverse par contraposition.
Supposons donc que (a
1
, , a
n
) soit libre et notons A la matrice formee par cette
famille de vecteurs. Lalgorithme du pivot de Gauss permet dobtenir une matrice
echelonnee B ` a partir de A en eectuant des permutations de lignes ou en ajoutant des
combinaisons lineaires dautres lignes. En vertu du caract`ere alterne du determinant,
et de la proposition 4.2.2, on a donc | det A| = | det B|. Mais en notant
b
i
la i-`eme
ligne de B, on a aussi Vect (a
1
, a
n
) = Vect (
b
1
,
b
n
) (cf proposition 3.3.7). Donc
le rang de B est egal ` a celui de A : il vaut n. Cela montre que la matrice echelonnee
B est en realite triangulaire superieure ` a diagonale non nulle. Dapr`es la proposition
4.2.4, on a donc det B = 0, do` u det A = 0.
Theor`eme 4.2.6 Pour toute matrice A de M
n
(K), on a det A = det
t
A.
Preuve : Voir le cours du second semestre.
Corollaire 4.2.7 Toutes les proprietes enoncees sur les lignes des matrices pour le determinant,
sont egalement vraies pour les colonnes : invariance du determinant par ajout dune combinaison
lineaire dautres colonnes, caract`ere alterne par rapport aux colonnes, linearite,. . . De plus, le
determinant dune matrice triangulaire inferieure est egal au produit des termes diagonaux.
Exercice : Prouver le corollaire ci-dessus.
4.3 Calcul du determinant par pivot de Gauss
Principe : A laide de transformations elementaires sur les lignes, se ramener au calcul du
determinant dune matrice triangulaire. 4.4. D
EVELOPPEMENT DE LAPLACE 51
Considerons une matrice carree A M
n
(K). Lalgorithme du pivot de Gauss decrit au
chapitre 2 permet dobtenir une matrice T echelonnee apr`es une succession de transforma-
tions elementaires. Comme la matrice de depart est carree, la matrice T est triangulaire
superieure. Les transformations elementaires eectuees durant le pivot sont de type (T1)
(permutation de deux lignes) ce qui revient ` a changer le determinant en son oppose, ou de
type (T3) (ajout dune combinaison lineaire de lignes), ce qui ne change pas le determinant.
On a donc nalement
det A = (1)
det T = (1)
i=1
t
ii
o` u est le nombre de permutations de lignes eectuees au cours du pivot.
Exemple :
1 0 4
2 3 1
1 0 1
1 0 4
2 3 1
0 0 5
(ajout de (L
1
) ` a (L
3
)),
=
1 0 4
0 3 7
0 0 5
1 0 0
0
.
.
. B
0
.
Alors det A = det B.
Preuve : La methode du pivot de Gauss permet de transformer B en une matrice T
M
n1
(K) triangulaire superieure gr ace ` a une succession de transformations elementaires
sur les lignes de B. Si lon note le nombre de permutations eectuees au cours du pivot,
lon sait de plus que det B = (1)
1 0 0
0
.
.
. T
0
, 52 CHAPITRE 4. D
ETERMINANTS
si bien que det A = (1)
det C.
Enn, il est clair que la matrice C est triangulaire superieure. Par consequent, dapr`es la
proposition 4.2.4,
det C =
n1
i=1
t
ii
.
On a donc
det A = (1)
n1
i=1
t
ii
= (1)
det T = det B.
Lemme 4.4.2 Soit B M
n1
(K) et A M
n
(K) la matrice obtenue ` a partir de B par ad-
jonction de la colonne i
0
.
.
.
0
1
0
.
.
.
0
0
B
1
.
.
. B
2
0
0 0 1 0 0
0
B
3
.
.
. B
4
0
.
Alors det A = (1)
i+j
det B.
Preuve : On permute les lignes (L
i
) et (L
i1
) puis (L
i1
) et (L
i2
), etc. Apr`es i 1 permu-
tations de ce type, on obtient la matrice
A
def
=
0 0 1 0 0
0
B
1
.
.
. B
2
B
3
.
.
. B
4
0
.
Ensuite, on permute les colonnes j et j 1 de A
def
=
1 0
0 B
. Chaque permutation de
lignes ou de colonnes change le determinant en son oppose. On a donc nalement
det A = (1)
i1
det A
= (1)
i+j2
det A
.
Enn, dapr`es le lemme 4.4.1, on a det A
EVELOPPEMENT DE LAPLACE 53
Denition 4.4.3 Soit A M
n
(K) et 1 i, j n. On appelle mineur de A dindice (i, j) la
matrice A
ij
M
n1
(K) obtenue en rayant la i-i`eme ligne et la j-i`eme colonne de A :
A
ij
def
=
a
11
a
1j
a
1n
.
.
.
.
.
.
.
.
.
a
i1
a
ij
a
in
.
.
.
.
.
.
.
.
.
a
n1
a
nj
a
nn
ij
.
Exemple : Soit A =
2 3 1
2 1 0
1 2 0
. Alors A
12
=
2 0
1 0
et A
22
=
2 1
1 0
.
De plus, A
12
= det A
12
= 0 et A
22
= det A
22
= 1.
Exercice : Calculer les autres mineurs principaux et cofacteurs de A.
Theor`eme 4.4.4 Soit A M
n
(K) et 1 i, j n. Alors on dispose des deux formules
suivantes pour calculer le determinant de A :
Developpement de Laplace par rapport ` a la ligne i :
(4.1) det A =
n
j=1
(1)
i+j
a
ij
det A
ij
=
n
j=1
a
ij
A
ij
.
Developpement de Laplace par rapport ` a la colonne j :
(4.2) det A =
n
i=1
(1)
i+j
a
ij
det A
ij
=
n
i=1
a
ij
A
ij
.
Preuve : Remarquons que le developpement de Laplace de
t
A par rapport ` a la ligne j nest
autre, compte tenu de det A = det
t
A, que le developpement de Laplace de A par rapport
` a la colonne j. Il sut donc de demontrer (4.1).
Notons e
1
= (1, 0, , 0), , e
n
= (0, , 0, 1) la base canonique de K
n
, et a
i
la i-i`eme
ligne de A. On a a
i
=
n
j=1
a
ij
e
j
.
En utilisant la linearite du determinant par rapport ` a la ligne i, on trouve donc
(4.3) det A =
n
j=1
a
ij
det
A
ij
avec
A
ij
def
=
a
11
a
1j1
a
1j
a
1j+1
a
1n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
i11
a
i1j1
a
i1j
a
i1,j+1
a
i1n
0 0 1 0 0
a
i+11
a
i+1j1
a
i+1j
a
i+1,j1
a
i+1n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
nj1
a
nj
a
nj+1
a
nn
. 54 CHAPITRE 4. D
ETERMINANTS
Remarquons que la colonne j peut se decomposer en
a
1j
.
.
.
a
i1j
1
a
i+1j
.
.
.
a
nj
= a
1j
1
0
.
.
.
.
.
.
0
+ +a
i1j
0
.
.
.
1
0
.
.
.
0
0
.
.
.
0
1
0
.
.
.
0
+a
i+1j
0
.
.
.
0
1
.
.
.
0
+ +a
nj
0
.
.
.
.
.
.
0
1
.
En utilisant maintenant la linearite du determinant par rapport ` a la colonne j, on trouve
det
A
ij
= a
1j
a
11
a
1j1
1 a
1j+1
a
1n
0
a
i11
.
.
. a
i1n
0 0 0 0 0
a
i+11
0 a
i+1n
.
.
.
0
+ +a
ij
a
11
a
1j1
0 a
1j+1
a
1n
.
.
.
a
i11
0 a
i1n
0 0 1 0 0
a
i+11
0 a
i+1n
.
.
.
0
+ +a
nj
a
11
a
1j1
0 a
1j+1
a
1n
0
a
i11
.
.
. a
i1n
0 0 0 0 0
a
i+11
.
.
. a
i+1n
0
1
.
Tous les termes de cette somme sauf le i-`eme sont nuls car leur i-i`eme ligne est nulle. Le
i-i`eme terme est le determinant de la matrice obtenue en rempla cant la i-`eme ligne et la
j-`eme colonne de A par des 0, sauf ` a la place (i, j) o` u lon met un 1. Le lemme 4.4.2 assure
que ce terme vaut (1)
i+j
det A
ij
. En revenant ` a legalite (4.3), on obtient la formule (4.1).
Exemples :
1. Calcul du determinant en dimension n = 1.
Toute matrice de M
1
(K) est diagonale ! Si A est une matrice carree de taille 1, on a donc
tout simplement det A = a
11
.
2. Calcul du determinant en dimension n = 2.
Soit A M
2
(K). Un developpement de Laplace par rapport ` a la premi`ere ligne donne
det A =
a
11
a
12
a
21
a
22
= a
11
det(a
22
) a
12
det(a
21
) = a
11
a
22
a
12
a
21
. 4.5. LE D
ETERMINANT ET LE RANG 55
3. Calcul du determinant en dimension n = 3. Soit A M
3
(K). Un developpement de La-
place par rapport ` a la premi`ere ligne donne
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
= a
11
a
22
a
23
a
32
a
33
a
12
a
21
a
23
a
31
a
33
+a
13
a
21
a
22
a
31
a
32
.
En utilisant la formule du determinant pour les matrices 2 2, on conclut que
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
= a
11
a
22
a
33
+a
12
a
23
a
31
+a
13
a
32
a
21
a
11
a
23
a
32
a
12
a
21
a
33
a
13
a
22
a
31
.
4.5 Le determinant et le rang
Denition 4.5.1 Soit A M
p,n
(K) et k min(p, n). On dit que A
M
k
(K) est une matrice
extraite dordre k de A sil existe k entiers i
1
, , i
k
tels que 1 i
1
< < i
k
p et k entiers
j
1
, , j
k
tels que 1 j
1
< < j
k
p veriant a
= a
ij
pour 1 , k.
Remarque 4.5.2 Une matrice A
M
k
(K) est une matrice extraite dordre k de A si et
seulement si A peut etre transformee en la matrice suivante par permutations de lignes et de
colonnes :
.
Denition 4.5.3 Si A
M
k
(K) est une matrice extraite de A, on dit que det A
est un
determinant extrait (dordre k) de A.
Theor`eme 4.5.4 Soit A M
p,n
(K). Notons a
1
, , a
p
les vecteurs lignes (de K
n
) de A, et
a
1
, , a
n
les vecteurs colonnes (de K
p
) de A. Les trois propositions suivantes sont equivalentes :
1. rg (a
1
, , a
n
) k,
2. rg (a
1
, , a
p
) k,
3. Il existe un determinant extrait dordre k de A qui est non nul.
Preuve : Prouvons dabord ii) iii). Supposons donc que la famille (a
1
, , a
p
) constituee
par les p vecteurs lignes (appartenant ` a K
n
) de A soit de rang au moins au egal ` a k. Dapr`es
le theor`eme de la base incompl`ete, on peut en extraire une sous-famille (a
i
1
, , a
i
k
) de
rang k. Le rang est invariant par permutation des vecteurs de la famille. Donc la matrice
A est de meme rang que la matrice B suivante :
B
def
=
a
i
1
.
.
.
a
i
k
C
o` u CM
pk,n
est la matrice constituee par les lignes de A nappartenant pas ` a (a
i
1
, , a
ip
)
(peu importe lordre des lignes).
Notons B
M
k,n
la matrice formee par les k premi`eres lignes de B. Par pivot de Gauss,
on peut transformer B
ETERMINANTS
cette matrice est du type :
C
0 c
1j
1
.
.
. 0 c
2j
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 c
kj
k
.
Par denition les termes c
1j
i
ne sont pas nuls. Donc les colonnes j
1
, , j
k
de C
sont
lineairement independantes. En eectuant des permutations de colonnes sur C
(ce qui ne
modie toujours pas le rang), on a donc rg C
= rg D
= k avec
D
1j
1
c
1j
k
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 c
kj
k
.
Si maintenant on fait subir ` a la matrice B les permutations de colonnes qui ont permis de
passer de C
` a D
avec a
= a
ij
et 1 k, 1 n.
Si lon applique ` a A
` a C
, mais
en rempla cant ` a chaque fois la colonne j
est egal (au signe pr`es) au determinant de la matrice carree de taille k constituee
des k premi`eres colonnes de D
= 0.
Prouvons maintenant limplication iii) ii). Soit donc
A
a
i
1
j
1
a
i
1
j
k
.
.
.
.
.
.
a
i
k
j
1
a
i
k
j
k
i
la i-i`eme ligne de A
, alors on a rg (a
1
, , a
k
) = k dapr`es la proposition
4.2.5. Rajoutons ` a ces k vecteurs de K
k
les n k composantes manquantes pour en faire
des vecteurs de K
n
, i.e on pose
a
def
= (a
i
j
1
, , a
i
j
k
, , a
i
n
).
En revenant ` a la denition de lindependance lineaire, il est facile de verier que la famille
(a
1
, , a
k
) est egalement libre. Si lon permute les indices des colonnes an de remettre
les composantes dans lordre, on ne change pas le caract`ere libre (exercice : le verier).
Et on conclut donc que rg (a
i
1
, , a
i
k
) = k, puis que rg (a
1
, a
p
) k.
En appliquant le resultat ii) iii) ` a la matrice
t
A, on trouve que i) iii).
Corollaire 4.5.5 Pour A M
p,n
(K), les matrices A et
t
A ont meme rang. Autrement dit,
rg (a
1
, , a
n
) = rg (a
1
, , a
p
).
Ce rang est egal ` a lentier k maximal tel quil existe un determinant extrait dordre k de A non
nul. 4.6. R
EAIRE PAR LA M
ETHODE DE CRAMER 57
4.6 Resolution dun syst`eme lineaire par la methode de Cramer
Dans cette section, nous presentons une methode alternative ` a celle du pivot de Gauss pour
resoudre les syst`emes lineaires de n equations ` a n inconnues.
Denition 4.6.1 On dit quun syst`eme lineaire (S) de n equations ` a n inconnues est de Cra-
mer sil admet une unique solution.
Proposition 4.6.2 Un syst`eme est de Cramer si et seulement si le determinant de la matrice
associee est non nul.
Preuve : Notons (S) le syst`eme initial, et A sa matrice. La methode du pivot de Gauss permet
de se ramener ` a un syst`eme echelonne equivalent (T) de matrice B. Comme on na eectue
que des transformations elementaires pour passer de (S) ` a (T), on a | det A| = | det B|.
Donc det A = 0 det B = 0.
Supposons dabord que det B = 0. Comme B est echelonnee, ceci revient ` a dire que B a
une ligne nulle. (i.e k < n). Dans ce cas, lensemble des solutions de (T) (et donc de (S))
est ou bien vide ou bien inni suivant la valeur du second membre, et le syst`eme nest pas
de Cramer. On a donc montre que
(det B = 0) = ((S) nest pas de Cramer) .
Si au contraire det B = 0 alors B na pas de ligne nulle, i.e B est triangulaire superieure ` a
diagonale non nulle (car det B =
n
i=1
b
ii
). Dans ce cas (T) a une unique solution obtenue
par la methode de la remontee, et (S) est donc de Cramer. On a donc montre que
(det B = 0) = ((S) est de Cramer) .
Theor`eme 4.6.3 Soit (S) un syst`eme de Cramer de matrice A M
n
(K) et de second membre
b = (b
1
, , b
n
). Notons (a
1
, , a
n
) les vecteurs colonnes de A.
Alors lunique solution (x
1
, , x
n
) de (S) est donnee par les formules de Cramer :
x
i
=
det(a
1
, , a
i1
,
b, a
i+1
, , a
n
)
det A
.
Preuve : Considerons un syst`eme de Cramer
x
1
a
11
+ +x
n
a
1n
= b
1
.
.
.
x
1
a
n1
+ +x
n
a
nn
= b
n
.
Ce syst`eme peut se recrire sous la forme plus compacte :
x
1
a
1
+ +x
n
a
n
=
b
o` u laddition est prise au sens des vecteurs colonnes. On a donc, gr ace ` a la linearite du
determinant par rapport ` a la colonne i,
det(a
1
, , a
i1
,
b, a
i+1
, , a
n
) = det(a
1
, , a
i1
, x
1
a
1
+ +x
n
a
n
, a
i+1
, , a
n
),
=
n
j=1
x
j
det(a
1
, , a
i1
, a
j
, a
i+1
, , a
n
).
Si i = j, la famille (a
1
, , a
i1
, a
j
, a
i+1
, , a
n
) contient deux fois le vecteur a
j
. Le
determinant correspondant est donc nul. Reste nalement
det(a
1
, , a
i1
,
b, a
i+1
, , a
n
) = x
i
det(a
1
, , a
n
). 58 CHAPITRE 4. D
ETERMINANTS
Comparaison des methodes du pivot de Gauss et de Cramer
On dispose donc maintenant de deux methodes pour la resolution des syst`emes lineaires
de n equations ` a n inconnues. La methode de Cramer a lavantage de donner des
formules explicites pour la solution du syst`eme. On peut donc se demander ` a quoi sert la
methode du pivot de Gauss. Son interet vient de sa rapidite. En eet, la methode du pivot
de Gauss necessite environ n
3
operations elementaires (additions, soustractions, multipli-
cations ou divisions) pour resoudre un syst`eme lineaire n n.
En revanche, le calcul de la solution ` a laide des formules de Cramer necessite le cal-
cul de n + 1 determinants de taille n. Chaque determinant peut se calculer ou bien
par developpement direct en iterant la formule de Laplace (ce qui demande environ n!
operations elementaires) ou bien par pivot de Gauss (environ n
3
operations). Il faudra
donc eectuer au moins n
4
operations pour calculer la solution ` a laide des formules de
Cramer.
En pratique donc, on nutilise presque jamais les formules de Cramer pour resoudre un
syst`eme lineaire, sauf eventuellement pour resoudre des syst`emes tr`es petits (2 2 ou ` a la
rigueur 3 3).
Chapitre 5
Polyn omes
5.1 Lensemble des polyn omes `a une indeterminee
5.1.1 Denitions
Denition 5.1.1 On appelle polyn ome ` a une indeterminee et coecients dans K ou
plus simplement polyn ome, toute expression algebrique de la forme
a
p
X
p
+a
p1
X
p1
+ +a
1
X +a
0
,
avec a
i
K pour tout i {0, , p}.
Les scalaires a
i
sont appeles coecients du polyn ome.
Sil existe, le plus grand indice i tel que a
i
= 0 sappelle degre de P et est note deg P.
Si tous les coecients a
i
sont nuls, P est appele polyn ome nul et est note 0. Par conven-
tion, deg 0 = .
Un polyn ome de la forme P = a
0
avec a
0
K est appele polyn ome constant. Si a
0
= 0,
son degre est 0.
Lensemble des polyn ome ` a une indeterminee et coecients dans K est note K[X].
Exemples :
X
3
X + 3/2 est un polyn ome de degre 3.
Si n N
, X
n
1 est un polyn ome de degre n
1 est un polyn ome de degre 0.
Remarque 5.1.2 Nous serons amenes par la suite ` a additionner des degres de polyn omes.
Comme lapplication deg est ` a valeurs dans N{}, il faut etendre la denition de laddition.
On adopte la convention suivante pour n N {} :
+n = .
Denition 5.1.3 Les polyn omes ne comportant quun seul terme non nul (i.e du type P =
a
p
X
p
) sont appeles mon omes.
Remarque : Tout polyn ome est donc une somme nie de mon omes.
Denition 5.1.4 Soit P = a
p
X
p
+ + a
0
avec a
p
= 0 un polyn ome. On appelle terme
dominant de P le mon ome a
p
X
p
. Si le coecient a
p
du terme dominant est 1, on dit que P
est un polyn ome unitaire.
Remarque 5.1.5 On adopte la convention que lon ne change pas un polyn ome P en lui ajou-
tant un ou plusieurs mon omes ` a coecients nuls. Par exemple, on ne fera pas la distinction
entre
X
4
X + 1 et 0X
5
+X
4
+ 0X
2
X + 1.
59 60 CHAPITRE 5. POLYN
OMES
5.1.2 Operations sur K[X]
Nous allons munir K[X] de deux lois internes + et , et dune loi externe .
a) Addition de deux polyn omes :
Denition 5.1.6 Soit P = a
n
X
n
+ +a
0
et Q = b
n
X
n
+ +b
0
avec n N. On denit alors
le polyn ome P +Q par
P +Q
def
= (a
n
+b
n
)X
n
+ + (a
1
+b
1
)X + (a
0
+b
0
).
Remarque : Dans la denition ci-dessus, il nest pas restrictif de faire commencer les expressions
des polyn omes P et Q par un mon ome de meme degre n (voir la remarque 5.1.5 ci-dessus)
Proposition 5.1.7 Soit P et Q deux polyn omes de K[X]. Alors on a
deg(P +Q) max(deg P, deg Q).
De plus, si deg P = deg Q alors deg(P +Q) = max(deg P, deg Q).
Preuve : Notons p = deg P et q = deg Q.
Si p > q, le coecient du terme dominant de P +Q est a
p
donc deg(P +Q) = deg P.
Si p < q, le coecient du terme dominant de P +Q est b
q
donc deg(P +Q) = deg Q.
Si p = q, le mon ome de plus haut degre dans lexpression de P + Q est (a
p
+ b
p
)X
p
.
Donc deg(P +Q) p. Si b
p
= a
p
, ce mon ome est nul et lon a donc deg(P +Q) < p.
b) Multiplication de deux polyn omes :
Considerons deux mon omes P = a
p
X
p
et Q = b
q
X
q
. Si lon interpr`ete ces deux mon omes
comme des fonctions de la variable reelle ou complexe X, il est naturel de denir le produit de
P par Q comme etant le mon ome P Q
def
= a
p
b
q
X
p+q
.
Plus generalement, on denit le produit de deux polyn omes de la fa con suivante :
Denition 5.1.8
Etant donnes deux polyn omes P = a
p
X
p
+ + a
0
et Q = b
q
X
q
+ + b
0
,
on denit le polyn ome P Q par P Q = c
r
X
r
+ +c
0
avec r = p +q et, pour k {0, , r},
c
k
=
i+j=k
a
i
b
j
=
k
i=0
a
i
b
ki
=
k
j=0
a
kj
b
j
.
Remarque : Si P ou Q est nul, on a donc P Q = 0.
La proposition suivante est une consequence immediate de la denition de :
Proposition 5.1.9 Soit P et Q deux polyn omes de K[X]. Alors on a
deg(P Q) = deg P + deg Q.
c) Multiplication dun polyn ome par un scalaire :
Denition 5.1.10 Soit P = a
p
X
p
+ +a
0
un polyn ome de K[X], et K. On denit alors
le polyn ome P par
P
def
=
p
i=0
a
i
X
i
.
Le lecteur prouvera sans diculte le resultat suivant :
Proposition 5.1.11 Soit P un polyn ome et un scalaire non nul. Alors deg( P) = deg P. 5.1. LENSEMBLE DES POLYN
OMES
`
A UNE IND
ETERMIN
EE 61
5.1.3 Proprietes algebriques de K[X]
Proposition 5.1.12 (K[X], +, ) est un anneau commutatif.
Preuve : Montrons dej` a que (K[X], +) est un groupe commutatif.
Le polyn ome nul est clairement lelement neutre pour laddition.
Si P = a
p
X
p
+ +a
0
, le polyn ome P
def
= a
p
X
p
+ a
1
X a
0
verie P+(P) = 0.
Lassociativite et la commutativite resultent de celles de laddition sur K.
Reste ` a etudier les proprietes de la multiplication .
De la denition de la multiplication sur K[X], on deduit facilement que le polyn ome
P = 1 est lelement neutre pour .
Commutativite : considerons P = a
p
X
p
+ + a
0
et Q = b
q
X
q
+ + b
0
. Notons
r = p +q, P Q = c
r
X
r
+ +c
0
et Q P = d
r
X
r
+ +d
0
. Alors on a
k {0, , r}, c
k
=
i+j=k
a
i
b
j
=
j+i=k
b
j
a
i
= d
k
Donc P Q = Q P.
Associativite : Soit P = a
p
X
p
+ + a
0
, Q = b
q
X
q
+ + b
0
et R = c
r
X
r
+ + c
0
.
Soit U
def
= (P Q) R et V
def
= P (Q R). Notons d
les coecients de U, et e
m
ceux de
V . Enn, notons f
s
les coecients de P Q, et g
t
ceux de Q R. Alors on a
d
s+k=
f
s
c
k
e
i+t=
a
i
g
t
=
s+k=
i+j=s
a
i
b
j
c
k
=
i+t=
a
i
j+k=t
b
j
c
k
i+j+k=
a
i
b
j
c
k
. =
i+j+k=
a
i
b
j
c
k
.
Donc d
= e
, do` u U = V .
Distributivite de la multiplication sur laddition : Denissons P, Q, R comme ci-dessus
et posons U
def
= (P +Q) R et V
def
= P R +Q R. Notons encore d
les coecients de
U, et e
m
ceux de V . Alors on a
d
i+j=
(a
i
+b
i
)c
j
=
i+j=
(a
i
c
j
+b
i
c
j
) =
i+j=
a
i
c
j
+
i+j=
b
i
c
j
= e
.
Donc U = V .
`
A titre dexercice, le lecteur pourra etablir la
Proposition 5.1.13 Lanneau (K[X], +, ) verie les proprietes supplementaires suivantes pour
tout (, ) K
2
et (P, Q) K[X]
2
:
1. ( +) P = P + P,
2. (P +Q) = P + Q,
3. ( P) = () P,
4. 1 P = P,
5. (P Q) = ( P) Q = P ( Q).
On dit que (K[X], +, , ) est une alg`ebre.
Ainsi, multiplier un polyn ome P par un scalaire est equivalent ` a le multiplier par le polyn ome
constant 1. On peut donc sans danger noter la multiplication interne et la multiplication
externe par le meme symbole.
Enn, (K[X], +, , ) jouit de la propriete suivante qui est primordiale : 62 CHAPITRE 5. POLYN
OMES
Proposition 5.1.14 Soit (P, Q) un couple de polyn omes tel que P Q = 0. Alors P = 0 ou
Q = 0. On dit que (K[X], +, , ) est une alg`ebre int`egre.
Preuve : Soit donc (P, Q) tel que P Q = 0. Alors on a deg P + deg Q = deg(P Q) = .
Donc deg P ou deg Q vaut , ce qui est exactement la propriete demandee.
Notations : Dorenavant, on omettra les symboles et . Ainsi PQ designera P Q, et P
designera P.
5.2 Division des polyn omes
Denition 5.2.1 On dit que le polyn ome A est divisible par le polyn ome B sil existe un
polyn ome Q tel que A = BQ. Dans ce cas, on note B | A
1
et lon dit que A est multiple de B
(ou que B est diviseur de A). Le polyn ome Q est parfois note
A
B
ou A/B.
Remarques :
1. Le polyn ome nul est divisible par tous les polyn omes. En revanche seul le polyn ome nul
est divisible par le polyn ome nul.
2. Dans le cas o` u A et B sont tous les deux non nuls, B|A entrane deg B deg A.
Proposition 5.2.2 Soit A et B, deux polyn omes non nuls. Si A | B et B | A alors A et B
sont proportionnels, cest-` a-dire quil existe K
+R
< deg B.
Alors on a R R
= B(Q
) = deg B + deg(Q
Q).
Si Q = Q
) deg B.
Donc dapr`es la proposition 5.1.7, max(deg R, deg R
. Donc Q = Q
, puis R = R
.
1
Lire B divise A et non pas le contraire ! 5.2. DIVISION DES POLYN
OMES 63
Existence : Fixons un polyn ome B = b
m
X
m
+ + b
0
de degre m 1 (le cas B
constant non nul etant evident). Lexistence du couple (Q, R) veriant les proprietes vou-
lues se montre par recurrence sur le degre de A. Pour n N, on note (P
n
) lhypoth`ese de
recurrence suivante :
(P
n
) (AK[X], deg A n) (QK[X], RK[X] | A = BQ+R et deg R<deg B) .
Il est clair que (P
m1
) est vraie. En eet, il sut de choisir Q = 0 et R = A.
Soit maintenant n m. Supposons (P
n1
) vraie et demontrons (P
n
). Le polyn ome A est
de la forme A = a
n
X
n
+ +a
0
avec a
n
= 0. Comme n m et b
m
= 0, lexpression
A
def
= A
a
n
b
m
X
nm
B
est bien un polyn ome, et son degre est au plus n 1. Dapr`es (P
n1
), il existe donc deux
polyn omes Q
et R
tels que A
= Q
B +R
et deg R
a
n
b
m
X
nm
+Q
. .. .
def
=Q
B + R
....
def
=R
,
ce qui demontre (P
n
).
La demonstration ci-dessus sugg`ere un procede de construction iteratif permettant de calculer
Q et R. En eet, au cours de la recurrence, on a vu comment ramener la division dun polyn ome
de degre n ` a celle dun polyn ome de degre moins eleve (au plus n 1). En pratique, on peut
donc calculer le couple (Q, R) en posant la division comme dans N, les puissances de X jouant
le r ole des puissances de 10.
Illustrons nos propos par un exemple.
Exemple : Division de 4X
5
7X
3
+ 8X
2
1 par X
3
4X
2
+ 2X + 3.
4X
5
+ 0X
4
7X
3
+ 8X
2
+ 0X 1 X
3
4X
2
+ 2X + 3
16X
4
15X
3
4X
2
+ 0X 1
49X
3
36X
2
48X 1 4X
2
+ 16X + 49 = Q
R = 160X
2
146X 148
Donc 4X
5
7X
3
+8X
2
1 = (X
3
4X
2
+2X+3)(4X
2
+16X+49) + 160X
2
146X148.
Denition 5.2.6 On dit quun sous-ensemble I de K[X] est un ideal de (K[X], +, ) si
1. I est un sous-groupe de (K[X], +),
2. I est stable par multiplication par nimporte quel polyn ome de K[X].
Exemple : Pour B K[X], on note BK[X] lensemble des multiples de B. Il est facile de verier
que BK[X] est un ideal de K[X]. En particulier, le singleton {0} est un ideal.
Nous laissons au lecteur le soin de montrer la proposition suivante :
Proposition 5.2.7 Soit A et B deux polyn omes. Alors A | B si et seulement si BK[X]
AK[X].
Theor`eme 5.2.8 Soit I un ideal de (K[X], +, ) non reduit ` a {0}. Alors il existe un unique
polyn ome P unitaire tel que I = PK[X]. Le polyn ome P est appele generateur unitaire de I.
On dit que (K[X], +, ) est un ideal principal . 64 CHAPITRE 5. POLYN
OMES
Preuve : Soit I un ideal de (K[X], +, ) non reduit ` a {0}. On note
E = {deg A | A I\{0}} .
Lensemble E est une partie non vide de N, donc admet un plus petit element. On en deduit
que I admet un polyn ome P non nul et de degre minimal. Comme pour tout K, le
polyn ome P appartient aussi ` a I, on peut toujours choisir P unitaire. La stabilite de I
par multiplication par les elements de K[X] assure que PK[X] I.
Reste ` a montrer que I PK[X]. Soit donc A I.
Ecrivons la division euclidienne de A
par P :
A = PQ+R avec deg R < deg P.
Comme A et PQ appartiennent ` a I, on a aussi R I. Mais par ailleurs deg R < deg P.
Vu la denition de P, on conclut que R = 0.
5.3 PGCD et PPCM
La division euclidienne va nous permettre de denir les notions de PGCD et de PPCM dans
lensemble des polyn omes.
5.3.1 PGCD
Proposition 5.3.1 Soit A et B deux polyn omes non tous les deux nuls. Lensemble
AK[X] +BK[X]
def
=
, Q et
Q
= AP
+BQ
. Donc
C +C
= A(P +P
) +B(Q+Q
) J.
Enn, si C = AP +BQ, il est clair que C = A(P) +B(Q), donc C J.
2. Stabilite de J par produit :
Soit C = AP + BQ un element de J, et R un polyn ome quelconque. Alors RC =
A(PR) +B(QR) donc RC J.
On conclut que J est un ideal non reduit ` a {0}. Le theor`eme 5.2.8 assure lexistence dun
unique polyn ome unitaire D tel que AK[X] +BK[X] = DK[X].
Remarque : On convient que PGCD(0, 0) = 0. Pour tout couple de polyn omes (A, B), on a
donc AK[X] +BK[X] = PGCD(A, B) K[X].
La proposition suivante justie lappellation PGCD donnee au generateur unitaire de
AK[X] +BK[X].
2
Dans certains ouvrages, le caract`ere unitaire nest pas impose au PGCD. 5.3. PGCD ET PPCM 65
Proposition 5.3.2 Soit (A, B) un couple de polyn omes distinct de (0, 0). Alors PGCD(A, B)
est lunique polyn ome unitaire veriant
(5.1) PGCD(A, B) | A, PGCD(A, B) | B et (P | A et P | B) P | PGCD(A, B).
Preuve : Notons D = PGCD(A, B) et montrons que D verie (5.1).
Par denition, DK[X] = AK[X] + BK[X]. Comme A et B appartiennent tous les deux
` a lensemble de droite, A et B sont bien des multiples de D. Enn, si P divise A et B
alors, dapr`es la proposition 5.2.7, AK[X] PK[X] et BK[X] PK[X]. Donc DK[X] =
AK[X] +BK[X] PK[X]. Donc P divise D.
Pour montrer lunicite, considerons un polyn ome D
. Mais bien s ur D
| D donc D et D
sont unitaires, on a D = D
.
Proposition 5.3.3 Si A et B ne sont pas simultanement nuls et si C est unitaire alors on a
PGCD(AC, BC) = C PGCD(A, B).
Preuve : Notons D = PGCD(A, B) et = PGCD(AC, BC). Il sut alors de remarquer
que
K[X] = ACK[X] +BCK[X] = C (AK[X] +BK[X]) = CDK[X].
Denition 5.3.4 On dit que deux polyn omes A et B sont premiers entre eux si leur PGCD
vaut 1.
Theor`eme 5.3.5 (de Bezout) Deux polyn omes A et B sont premiers entre eux si et seulement
si il existe deux polyn omes U et V tels que AU +BV = 1.
Preuve : = Si PGCD(A, B) = 1 alors par denition du PGCD, on a AK[X] + BK[X] =
K[X]. Donc 1 AK[X] +BK[X], ce qui signie quil existe U et V tels que AU +BV = 1.
= Si AU +BV = 1 alors 1 AK[X] +BK[X]. Le generateur unitaire de AK[X] +BK[X]
est donc un diviseur de 1, donc 1 lui-meme. On a donc bien 1 = PGCD(A, B).
Proposition 5.3.6 Pour que le polyn ome unitaire D soit le PGCD de A et de B, il faut et il
sut que
(5.2) D | A, D | B et PGCD(
A
D
,
B
D
) = 1.
Preuve : Si D = PGCD(A, B), on a bien s ur D | A et D | B. Notons P =
A
D
et Q =
B
D
.
Dapr`es la proposition 5.3.3, on a
D = PGCD(A, B) = PGCD(DP, DQ) = DPGCD(P, Q).
Comme D nest pas nul, on conclut que PGCD(P, Q) = 1.
Reciproquement, supposons que (5.2) soit satisfaite. Alors, la proposition 5.3.3 entrane
PGCD(A, B) = PGCD(D
A
D
, D
B
D
) = DPGCD(
A
D
,
B
D
) = D. 66 CHAPITRE 5. POLYN
OMES
Theor`eme 5.3.7 (de Bezout generalise) Supposons que D unitaire divise A et B avec A et
B non tous les deux nuls. Alors on a
D = PGCD(A, B) U K[X], V K[X], AU +BV = D.
Preuve : En appliquant la proposition 5.3.6, on a
D = PGCD(A, B) 1 = PGCD(
A
D
,
B
D
).
Or dapr`es le theor`eme de Bezout, on a
PGCD(
A
D
,
B
D
) = 1 U K[X], V K[X],
A
D
U +
B
D
V = 1,
ce qui ach`eve la preuve du theor`eme.
Theor`eme 5.3.8 (de Gauss) Si P divise AB et est premier avec A alors P divise B.
Preuve : Soit B
PGCD(P, A) = B
.
Par hypoth`ese, P divise AB, et il est clair que P divise aussi PB. Donc P divise B
et,
partant, B.
Proposition 5.3.9 Un polyn ome P est premier avec un produit AB si et seulement si P est
premier avec A et avec B.
Preuve : Supposons P premier avec AB. Soit P
divisant P et A. Alors P
divise aussi
AB. Donc P
OMES
En sinspirant de la preuve de la proposition 5.1, on obtient le resultat suivant qui explique
lappellation Plus Petit Commun Multiple donnee au generateur unitaire de AK[X] BK[X].
Proposition 5.3.13 Soit A et B deux polyn omes non nuls. Le PPCM de A et de B est lunique
polyn ome unitaire veriant la propriete suivante :
A | PPCM(A, B), B | PPCM(A, B) et (A | M et B | M) PPCM(A, B) | M.
`
A certains egards, le PPCM et le PGCD ont des proprietes tr`es similaires. On a par exemple :
Proposition 5.3.14 Soit C un polyn ome unitaire et A, B deux polyn omes. Alors on a
PPCM(AC, BC) = C PPCM(A, B).
Preuve : Il sut de remarquer que
ACK[X] BCK[X] = C (AK[X] BK[X]) .
Proposition 5.3.15 Soit A et B deux polyn omes non nuls. Pour que M unitaire soit le PPCM
de A et de B, il faut et il sut que
A | M, B | M et PGCD
M
A
,
M
B
= 1.
Preuve : Notons M le PPCM de A et de B. Alors MK[X] est inclus dans AK[X]
et dans BK[X]. Donc M divise bien A et B. Soit D unitaire divisant M/A et M/B.
Alors AD|M et BD|M. Donc PPCM(AD, BD)|M. Mais dapr`es la proposition 5.3.14,
PPCM(AD, BD) = DPPCM(A, B) = DM. Donc D = 1.
Soit M un multiple commun unitaire de A et de B veriant de plus PGCD(
M
A
,
M
B
) = 1.
Dapr`es le theor`eme de Bezout, il existe deux polyn omes U et V tels que
M
A
U +
M
B
V = 1.
Multiplions les deux membres de cette egalite par PPCM(A, B). On trouve
M
U
PPCM(A, B)
A
+V
PPCM(A, B)
B
= PPCM(A, B).
Donc M divise PPCM(A, B). Comme M est unitaire et est multiple de A et de B, on
conclut que M = PPCM(A, B).
Proposition 5.3.16 Soit A et B deux polyn omes. Il existe une constante non nulle telle que
AB = PGCD(A, B) PPCM(A, B).
Si de plus A et B sont unitaires, alors = 1.
Si A et B sont premiers entre eux alors AB et PPCM(A, B) sont associes.
Preuve :
Ecartons le cas evident o` u lun des deux polyn omes A et B est nul. On peut alors
appliquer la proposition 5.3.15. On en deduit que
(5.3) PGCD
PPCM(A, B)
A
,
PPCM(A, B)
B
= 1.
Notons linverse du coecient du terme dominant de AB. Alors AB est unitaire, et la
proposition 5.3.14 combinee avec (5.3) montre que
PGCD
AB
PPCM(A, B)
A
, AB
PPCM(A, B)
B
= AB.
En appliquant la proposition 5.3.3, on constate que le membre de gauche de cette egalite
vaut PPCM(A, B) PGCD(A, B). 5.3. PGCD ET PPCM 69
5.3.4 Polyn omes irreductibles
Au cours des sections qui prec`edent, le lecteur a pu constater que lensemble K[X] avait
beaucoup de similarites avec lensemble Z des entiers relatifs : les deux ensembles sont des
anneaux principaux int`egres sur lesquels on peut denir la division euclidienne, le PGCD et le
PPCM. Dans cette section, nous allons introduire une classe de polyn omes qui jouent dans K[X]
le meme r ole que les nombres premiers dans Z : les polyn omes irreductibles.
Denition 5.3.17 On dit quun polyn ome P est irreductible si ses seuls diviseurs sont les
constantes et les polyn omes qui lui sont associes.
Remarques :
1.
`
A la dierence des nombres premiers, les polyn omes irreductibles ont une innite de divi-
seurs. Mais on notera que ces diviseurs sont triviaux !
2. Tout polyn ome de degre 1 est irreductible. En eet, soit P de degre 1, et Q un diviseur
de P. Alors deg Q {0, 1}. Si deg Q = 0 alors Q est une constante, si deg Q = 1 alors
deg Q = deg P donc P et Q sont associes.
La proposition suivante constitue une loi du tout ou rien pour la division par les polyn omes
irreductibles.
Proposition 5.3.18 Soit A un polyn ome et P un polyn ome irreductible ne divisant pas A.
Alors P est premier avec A.
Preuve : Soit B un diviseur commun de A et de P. Comme P est irreductible, B doit etre
constant, ou associe ` a P. Le deuxi`eme cas est exclus car on a suppose que P ne divisait
pas A. Donc B est constant. On a donc bien PGCD(A, P) = 1.
De meme que tout entier poss`ede une decomposition en facteurs premiers, tout polyn ome a une
decomposition en facteurs irreductibles.
Theor`eme 5.3.19 (Decomposition en facteurs irreductibles) Soit P un polyn ome non
constant. Alors il existe un entier k 1, k entiers
1
, ,
k
non nuls, k polyn omes irreductibles
unitaires P
1
, , P
k
deux ` a deux distincts, et K\{0} tels que
P =
k
i=1
P
i
i
.
Cette decomposition, appelee decomposition en facteurs irreductibles, est unique ` a ordre des
facteurs pr`es.
Preuve : On prouve dabord lexistence puis lunicite ` a ordre des facteurs pr`es.
Existence : Elle se fait par recurrence sur le degre de P.
Si deg P = 1 alors P est irreductible. On pose k = 1,
1
= 1 et lon prend pour P
1
le polyn ome unitaire associe ` a P. Il est de degre 1 donc irreductible.
Supposons maintenant que le theor`eme de decomposition soit valable pour tout
polyn ome de degre compris entre 1 et n. Soit P de degre n+1 et P
def
= P/ avec
coecient du terme dominant de P. Le polyn ome P
. On a donc P
OMES
n. Dapr`es lhypoth`ese de recurrence, A et B admettent chacun une decomposition
en facteurs premiers :
A =
k
i=1
A
i
i
et B =
i=1
B
i
i
.
Donc
P =
i=1
A
i
i
i=1
B
i
i
.
Il ne reste plus qu` a renumeroter les facteurs de la decomposition pour obtenir le
resultat voulu.
Unicite : Supposons que P admette deux decompositions en facteurs irreductibles :
P =
k
i=1
P
i
i
=
i=1
Q
i
i
.
Comme tous les facteurs irreductibles sont unitaires, et sont egaux au coecient
du terme dominant de P. Donc = . De ce fait, on a
(5.4)
k
i=1
P
i
i
=
i=1
Q
i
i
.
Par ailleurs, P
1
divise la somme de droite. De la remarque 5.3.10, on deduit que P
1
nest pas premier avec au moins un des Q
j
: il existe j
1
tel que Q
j
1
et P
1
ne soient pas
premiers entre eux. Comme par ailleurs Q
j
1
et P
1
sont irreductibles et unitaires, cela
signie que P
1
= Q
j
1
. En vertu du caract`ere int`egre de K[X], on peut donc simplier
lexpression (5.4) par P
1
. On it`ere ce procede et en
1
+ +
k
etapes, on parvient
` a une expression du type 1 =
j=1
Q
j
j
avec
j
=
j
j
. Cela permet de conclure
que tous les
j
sont nuls. Donc les deux decompositions sont identiques ` a ordre pr`es
des facteurs.
5.4 Fonctions polyn omes
5.4.1 Denition des fonctions polyn omes
Jusqu` a present, nous avons traite les polyn omes comme des objets algebriques abstraits.
Ce point de vue permet de manipuler de fa con uniee des objets mathematiques tr`es dierents
d`es lors quils peuvent etre interpretes comme des polyn omes. Dans cette section, nous allons
nous borner ` a remplacer la variable muette X par des nombres reels ou complexes. Mais vous
verrez en deuxi`eme annee que lon peut fort bien remplacer X par une matrice. . .
Denition 5.4.1 Soit P = a
n
X
n
+ +a
1
X +a
0
un polyn ome de K[X], et t K. On denit
alors lelement P(t) de K par
P(t) = a
n
t
n
+ +a
1
t +a
0
.
On dit que P(t) est obtenu par substitution de t ` a X.
Proposition 5.4.2 Soit t K un scalaire xe. Alors on a pour tous polyn omes P et Q, et pour
tout scalaire : 5.4. FONCTIONS POLYN
OMES 71
1. P(t) +Q(t) = (P +Q)(t),
2. P(t)Q(t) = (PQ)(t),
3. P(t) = (P)(t),
4. 1(t) = 1.
Preuve : Verions la deuxi`eme relation. Les autres sont immediates.
Rappelons que si P = a
p
X
p
+ +a
1
X +a
0
et Q = b
q
X
q
+ +b
1
X +b
0
alors
(5.5) PQ =
p+q
j=0
k+=j
a
k
b
X
j
.
Donc
(PQ)(t) =
p+q
j=0
k+=j
a
k
b
t
j
,
=
p+q
j=0
k+=j
(a
k
t
k
)(b
,
=
p
k=0
a
k
t
k
q
=0
b
= P(t)Q(t).
Denition 5.4.3 Soit P K[X]. Lapplication
P :
K K
t P(t)
est appelee fonction polyn ome denie par P sur K.
Remarque : Dans la suite du cours, on ne fera plus la distinction entre le polyn ome P qui est
un objet algebrique et la fonction polyn ome
P qui lui est associee
4
.
5.4.2 Racines
Denition 5.4.4 Soit a K et P K[X]. On dit que a est racine ou zero de P si P(a) = 0.
Proposition 5.4.5 Soit a K et P K[X]. Pour que a soit une racine de P, il faut et il sut
que X a divise P.
Preuve : Supposons que P(a) = 0. La division euclidienne de P par X a donne
P = Q(X a) +R avec deg R 0.
En substituant a ` a X dans la relation ci-dessus, on trouve R(a) = 0. Comme la fonction
polyn ome R est constante, on conclut que R = 0.
Si X a | P alors il existe Q tel que P = Q(X a), ce qui donne en particulier
P(a) = Q(a)(a a) = 0.
Denition 5.4.6 Soit P K[X], a K et k N
OMES
Proposition 5.4.7 Soit P un polyn ome non nul admettant les racines a
1
, , a
k
avec multi-
plicite
1
, ,
k
. Alors
k
i=1
(X a
i
)
i
divise P.
Preuve :
On sait dej` a que (X a
1
)
1
divise P.
Supposons que
j1
i=1
(X a
i
)
i
divise P (avec j k). Comme les a
i
sont deux ` a deux
distincts, les polyn omes (X a
i
)
i
sont premiers entre eux deux ` a deux. La remarque
5.3.10 permet donc darmer que (Xa
j
)
j
est premier avec
j1
i=1
(Xa
i
)
i
. Comme P
est multiple de (Xa
j
)
j
par hypoth`ese, et de
j1
i=1
(Xa
i
)
i
, P est egalement multiple
du PPCM de ces deux polyn omes qui, dapr`es la proposition 5.3.16, vaut
j
i=1
(Xa
i
)
i
.
Nous venons donc de montrer par recurrence sur j que
k
i=1
(X a
i
)
i
divise P.
Remarque 5.4.8 En particulier, si P = 0, toutes les racines de P sont de multiplicite inferieure
ou egale ` a deg P.
Exercice : Justier la remarque 5.4.8.
Proposition 5.4.9 Un polyn ome de degre n N admet au plus n racines comptees avec leur
ordre de multiplicite : {a
1
, , a
k
} est lensemble des racines de P, et
i
est la multiplicite de
a
i
, alors on a
1
+ +
k
n.
Preuve : Dapr`es la proposition 5.4.8, on a
k
i=1
(X a
i
)
i
| P. Donc
k
i=1
deg(X a
i
)
i
deg P.
Le membre de gauche vaut
k
i=1
i
, do` u le resultat.
Remarque 5.4.10 Le seul polyn ome ayant une innite de racines est le polyn ome nul.
5.4.3 Polyn omes derives
Denition 5.4.11 Soit P = a
k
X
k
+ +a
1
X+a
0
un polyn ome de K[X]. On appelle polyn ome
derive note P
= ka
k
X
k1
+ +a
1
=
k
j=1
ja
j
X
j1
.
Proposition 5.4.12 Soit P et Q deux polyn omes, et K.
1. Si deg P > 0 alors deg P
= deg P 1,
2. Si P est constant alors P
= 0,
3. (P +Q)
= P
+Q
,
4. (P)
= P
,
5. (PQ)
= P
Q+PQ
.
Preuve : Les quatre premiers points sont evidents. Prouvons le cinqui`eme.
Soit P = a
p
X
p
+ +a
1
X+a
0
et Q = b
q
X
q
+ +b
1
X+b
0
. En appliquant la denition
du polyn ome derive ` a la relation (5.5), on trouve
(PQ)
=
p+q
j=1
j
k+=j
a
k
b
X
j1
. 5.5. POLYN
OMES SCIND
ES 73
Des calculs elementaires montrent donc que
(PQ)
p+q
j=1
k+=j
ka
k
X
k1
b
+a
k
X
k
b
X
1
,
=
p+q
j=1
k+=j
ka
k
X
k1
b
p+q
j=1
k+=j
a
k
X
k
b
X
1
,
=
p
k=1
ka
k
X
k1
q
=0
b
p
k=0
a
k
X
k
q
=1
b
X
1
,
= P
Q+PQ
.
Proposition 5.4.13 Soit P un polyn ome non nul, et a une racine de P. Alors a est une racine
simple si et seulement si P
(a) = 0.
Preuve : Nous allons prouver la negation de lequivalence : i.e a est une racine double de P
si et seulement si P(a) = P
(a) = 0.
Supposons donc que a est une racine double de P. Alors (X a)
2
| P. Donc P secrit
P = Q(X a)
2
pour un certain polyn ome Q. Il est donc immediat que P(a) = 0. En
derivant, on trouve P
= Q
(X a)
2
+ 2(X a)Q, donc P
(a) = 0.
Reciproquement, supposons que P(a) = P
(a) = 0. Comme R
i=1
i
et a
n1
=
n
i=1
i
.
Preuve : On developpe lexpression (X
1
) (X
n
) et on identie les termes du
developpement avec ceux de lexpression X
n
+a
n1
X
n1
+ +a
0
.
Remarque : Dans le cas o` u P = X
2
+a
1
X+a
0
a pour racines
1
et
2
, on retrouve les relations
a
0
=
1
2
et a
1
= (
1
+
2
).
Le tr`es important resultat suivant est connu sous le nom de theor`eme fondamental de
lalg`ebre ou theor`eme de dAlembert-Gauss. Il en existe de nombreuses preuves, mais
toutes depassent le cadre du programme.
Theor`eme 5.5.3 Tout polyn ome de C[X] est scinde
5
.
5
On dit que C est un corps algebriquement clos. 74 CHAPITRE 5. POLYN
OMES
Remarque : On a vu que toutes les equations de degre 2 avaient deux solutions (eventuellement
confondues) dans C. Le theor`eme fondamental exprime que toute equation de degre n admet
n solutions (eventuellement confondues) dans C. Dans le cas n = 3 ou 4, il existe des formules
(assez compliquees) donnant les solutions en fonction des coecients. Pour une equation de
degre superieur ou egal ` a 5, il a ete prouve par un jeune mathematicien du XIX `eme si`ecle, E.
Galois, que de telles formules nexistent pas !
5.5.2 Polyn omes irreductibles de C[X]
Theor`eme 5.5.4 Un polyn ome P est irreductible dans C si et seulement si deg P = 1.
Preuve : On a dej` a vu que tout polyn ome de degre 1 etait irreductible (que ce soit dans C
ou dans R).
Pour montrer la reciproque, donnons-nous un polyn ome P de degre au moins 2. Le
theor`eme fondamental de lalg`ebre nous dit que P admet au moins une racine
1
. Donc P
est divisible par X
1
. Clairement X
1
nest pas constant et nest pas associe ` a P car
de degre strictement inferieur ` a 2. Donc P nest pas irreductible.
En appliquant le theor`eme general de decomposition irreductible, on en deduit :
Corollaire 5.5.5 Tout polyn ome P non nul de C[X] admet une decomposition en facteurs
irreductibles du type suivant :
P =
k
i=1
(X
i
)
i
,
o` u {
1
, ,
k
} est lensemble des racines de P,
i
est la multiplicite de
i
, et est le coecient
du terme dominant de P.
5.5.3 Polyn omes irreductibles de R[X]
Dans R[X], la situation est un peu plus compliquee. On sait dores et dej` a que tous les
polyn omes irreductibles ne sont pas de degre 1. Par exemple, X
2
+1 ne saurait etre irreductible
dans R[X] car na pas de racine reelle (la fonction polyn ome associee est minoree par 1, donc
ne sannule jamais).
On peut cependant dresser une liste de tous les polyn omes irreductibles de R[X] :
Theor`eme 5.5.6 Les polyn omes irreductibles de R[X] sont :
Les polyn omes de degre 1,
Les polyn omes de degre 2 ` a discriminant strictement negatif : P = aX
2
+ bX + c avec
a = 0 et
def
= b
2
4ac < 0.
La preuve de ce theor`eme repose sur le lemme suivant :
Lemme 5.5.7 Soit P =
n
k=0
a
k
X
k
un polyn ome de C[X]. Notons P =
n
k=0
a
k
X
k
le po-
lyn ome conjugue. Alors est racine de P de multiplicite si et seulement si est racine de P
de multiplicite .
Preuve : Soit une racine de P de multiplicite . Alors il existe un polyn ome Q tel que
P = Q(X )
.
Donc est racine de P de multiplicite .
En echangeant les r oles de P et P, et , et , on obtient , do` u le resultat. 5.5. POLYN
OMES SCIND
ES 75
Preuve du theor`eme 5.5.6 :
On sait dej` a que les polyn omes de degre 1 sont irreductibles. Soit maintenant P = aX
2
+
bX + c ` a discriminant strictement negatif. La fonction t P(t) associee ne sannule pas
sur R (elle est du signe de a), et donc aucun polyn ome de degre 1 ne saurait diviser P.
Par ailleurs, on a vu dans le chapitre 1 que toute equation de degre 2 ` a coecients reels
et discriminant positif ou nul admettait au moins une solution reelle. Donc les polyn omes
de degre 2 ` a discriminant positif ne sont pas irreductibles dans R[X].
Soit maintenant P R[X] un polyn ome de degre au moins 3. Supposons que P nait pas de
racine reelle (sinon P nest pas irreductible dans R[X]). Dapr`es le lemme 5.5.7, les racines
complexes non reelles de P sont deux ` a deux conjuguees (avec ordres de multiplicite egaux
deux ` a deux). Le corollaire 5.5.5 assure donc lexistence de nombres complexes (non reels)
1
, ,
p
, dentiers
1
, ,
p
, et dun reel , tels que
P =
p
i=1
(X
i
)
i
(X
i
)
.
Mais un calcul facile montre que
(X
i
)
i
(X
i
)
i
= (X
2
2Re
i
X +|
i
|
2
)
i
Donc P est divisible par le polyn ome reel X
2
2Re
i
X +|
i
|
2
(de degre 2) et nest donc
pas irreductible.
En reprenant la preuve ci-dessus, on deduit facilement le resultat suivant.
Corollaire 5.5.8 Tout polyn ome ` a coecients reels admet dans R[X] une decomposition en
facteurs irreductibles du type suivant :
P =
i=1
(X
i
)
j=1
(X
2
2Re
j
X +|
j
|
2
)
,
o` u est le coecient du terme dominant de P, {
1
, ,
k
} est lensemble des racines reelles
de P,
i
, multiplicite de
i
, et {
1
, ,
OMES
Bibliographie
[1] J.-M. Arnaudi`es et H. Fraysse : Cours de mathematiques 1, Alg`ebre, Dunod.
[2] J.-M. Arnaudi`es et J. Lelong-Ferrand : Cours de mathematiques, tome 1 (alg`ebre), Dunod.
[3] T. Cuesta : Alg`ebre 1, MIAS1, Polycopie de lUniversite Paris XII.
[4] C. Deschamps et A. Warusfel : Mathematiques. Cours et exercices corriges, Dunod.
[5] J. Dixmier : Cours de mathematiques du premier cycle, Gauthier-Villars.
[6] S. Lipschutz : Alg`ebre lineaire, cours et probl`emes, Serie Schaum.
[7] F. Liret et D. Martinais : Mathematiques pour le DEUG, Alg`ebre, 1`ere annee, Dunod.
[8] J.-M. Monier : Alg`ebre et geometrie, 1`ere annee, Dunod.
[9] E. Ramis, C. Deschamps et J. Odoux : Cours de mathematiques speciales, alg`ebre, Vol. 1,
Masson.
77
Index
Axe, 10
Alg`ebre, 61
int`egre, 62
Algorithme
dEuclide, 66
Algorithme du pivot de Gauss, 29
Alterne, 45
Anneau, 6
Antisymetrique, 46
Argument, 14
principal, 14
Associativite, 5
Axe
imaginaire, 10
reel, 10
Base, 38
canonique, 38
Coecients
dun polyn ome, 59
diagonaux, 24
Cofacteur, 53
Colineaire, 37
Combinaison
lineaire, 34
Commutativite, 5
Congru, 13
Coordonnees, 38
Corps, 7
algebriquement clos, 73
Degre, 59
Determinant, 45
extrait, 55
Developpement de Laplace, 53
Diagonale non nulle, 23
Dimension, 40
Discriminant, 20
Distributivite, 6
Dividende, 62
Diviseur, 62
Division, 62
euclidienne, 62
Droite, 41
Droite vectorielle, 41
Element neutre, 5
Equations principales, 23
Espace vectoriel, 33
Famille
de vecteurs, 34
generatrice, 35
liee, 36
libre, 36
lineairement dependante, 36
lineairement independante, 36
vide, 34
Fonction polyn ome, 71
Forme trigonometrique, 14
Formule
dEuler, 16
de Moivre, 16
du bin ome de Newton, 12
du triangle de Pascal, 12
Generateur unitaire, 63
Groupe, 6
abelien, 6
commutatif, 6
Hyperplan, 41
Ideal, 63
Ideal
principal, 63
Identite remarquable, 11
Inconnues principales, 23
Inegalite triangulaire, 13
Inverse, 5
Lineariser, 17
Linearite, 45
Loi interne, 5
78 INDEX 79
Matrice, 23
carree, 24
colonne, 24
diagonale, 24
echelonnee, 25
extraite, 55
identite, 24
ligne, 24
transposee, 25
triangulaire, 24
triangulaire inferieure, 24
triangulaire superieure, 24
Methode
de la remontee, 25
du pivot de Gauss, 27
Mineur, 53
Module, 12
Mon ome, 59
Multiple, 62
Multiplicite, 71
Nombre
complexe, 10
imaginaire, 10
imaginaire pur, 10
Partie
imaginaire, 10
reelle, 10
PGCD, 64
Plan, 41
complexe, 10
Polyn ome, 59
conjugue, 74
constant, 59
derive, 72
nul, 59
unitaire, 59
Polyn ome irreductible, 69
Polyn omes
associes, 62
premiers entre eux, 65
PPCM, 67
Quotient, 62
Racine
carree, 18
dun polyn ome, 71
de lunite, 17
Rang, 42
Reste, 62
Sous-espace
ane, 31
vectoriel, 30, 34
vectoriel engendre, 35
Sous-famille, 34
Sous-groupe, 6
Substitution, 70
Sur-famille, 34
Symetrique, 5
Syst`eme
carre, 22
de Cramer, 57
echelonne, 23
homog`ene, 22
homog`ene associe, 22
lineaire, 22
triangulaire, 23
triangulaire inferieur, 23
triangulaire superieur, 23
Terme dominant, 59
Theor`eme
de Bezout, 65
de dAlembert-Gauss, 73
de Gauss, 66
fondamental de lalg`ebre, 73
Transformation elementaire, 27
Vecteur, 33
colonne, 24
ligne, 24
nul, 33
Zero dun polyn ome, 71