Vous êtes sur la page 1sur 79

Cours dalg`ebre lineaire

MIAS1, premier semestre


Raphael Danchin
Annee 2003-2004 2
Table des mati`eres
Structures usuelles 5
1 Les nombres complexes 9
1.1 Construction des nombres complexes . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.2 Denition dune loi dans R
2
. . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.3 Denition dune loi dans R
2
. . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.4 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2 Proprietes de C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.1 Proprietes algebriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.2 Representation polaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.3 Formules de trigonometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.4 Racines n-i`eme de lunite . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3 Resolution dequations du second degre . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.1 Racine carree dun nombre complexe . . . . . . . . . . . . . . . . . . . . . 18
1.3.2 Resolution dequations du second degre dans le cas general . . . . . . . . 20
2 Syst`emes lineaires 21
2.1 Quelques exemples elementaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Denitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3 Matrice associee ` a un syst`eme lineaire . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4 Resolution des syst`emes echelonnes . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4.1 Syst`emes triangulaires ` a diagonale non nulle . . . . . . . . . . . . . . . . . 25
2.4.2 Syst`emes echelonnes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.5 Methode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.6 Structure de lensemble des solutions dun syst`eme lineaire . . . . . . . . . . . . . 29
2.6.1 Un exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.6.2 Cas des syst`emes homog`enes . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.6.3 Cas general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3 Familles de vecteurs 33
3.1 Vecteurs de K
n
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Familles de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.1 Combinaisons lineaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.2 Familles generatrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2.3 Familles libres et familles liees . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3 Rang et dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.3.1 Dimension dun sous-espace vectoriel . . . . . . . . . . . . . . . . . . . . . 39
3.3.2 Rang dune famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . 42
3 4 TABLE DES MATI
`
ERES
3.3.3 Rang dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.4 Calcul pratique du rang dune famille de vecteurs . . . . . . . . . . . . . . 43
4 Determinants 45
4.1 Denition du determinant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2 Proprietes elementaires du determinant . . . . . . . . . . . . . . . . . . . . . . . 47
4.3 Calcul du determinant par pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . 50
4.4 Developpement de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.5 Le determinant et le rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.6 Resolution dun syst`eme lineaire par la methode de Cramer . . . . . . . . . . . . 57
5 Polyn omes 59
5.1 Lensemble des polyn omes ` a une indeterminee . . . . . . . . . . . . . . . . . . . . 59
5.1.1 Denitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.1.2 Operations sur K[X] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.1.3 Proprietes algebriques de K[X] . . . . . . . . . . . . . . . . . . . . . . . . 61
5.2 Division des polyn omes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.3 PGCD et PPCM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.3.1 PGCD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.3.2 Lalgorithme dEuclide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.3.3 PPCM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.3.4 Polyn omes irreductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.4 Fonctions polyn omes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.4.1 Denition des fonctions polyn omes . . . . . . . . . . . . . . . . . . . . . . 70
5.4.2 Racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.4.3 Polyn omes derives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.5 Polyn omes scindes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.5.1 Le theor`eme fondamental de lalg`ebre . . . . . . . . . . . . . . . . . . . . 73
5.5.2 Polyn omes irreductibles de C[X] . . . . . . . . . . . . . . . . . . . . . . . 74
5.5.3 Polyn omes irreductibles de R[X] . . . . . . . . . . . . . . . . . . . . . . . 74
Bibliographie 77
Structures usuelles
Au cours de vos deux annees de MIAS, vous allez decouvrir divers domaines des mathema-
tiques qui, du moins en apparence, nont pas toujours de liens evidents entre eux. Certaines des
lois qui regissent les objets consideres, pourtant, ont un caract`ere universel. Ainsi, des notions
comme celles de lois internes, groupes, anneaux, corps, espaces vectoriels vont apparatre ` a
maintes reprises. Leur caract`ere unicateur explique limportance quon leur accorde. Le jeu
consistant ` a les identier est ` a la fois rassurant et pratique puisque lon peut d`es lors manipuler
des objets mathematiques sans trop se soucier de leur nature profonde...
Dans cette section preliminaire, nous presentons bri`evement quelques-unes des notions qui
reviendront frequemment dans ce cours dalg`ebre du premier semestre.
Lois internes
Denition 0.0.1 Soit E un ensemble non vide. Une loi interne T sur E est une application de
E E vers E qui ` a tout couple (a, b) de E E associe un element c de E note a T b.
Remarque : Pour eviter de faire un rapprochement trop h atif et reducteur avec des lois internes
bien connues (on en verra des exemples par la suite), on note T une loi interne abstraite. Le
symbole T est traditionnellement appele truc.
Pour avoir un interet pratique, une loi interne doit avoir des proprietes supplementaires. Les
plus courantes sont les suivantes :
Associativite : On dit que la loi interne T est associative si
(a, b, c) E E E, (a T b) T c = a T (b T c).
Commutativite : On dit que la loi interne T est commutative si
(a, b) E E, a T b = b T a.


Element neutre : On dit que e E est element neutre de T si
a E, a T e = e T a = a.
Remarque : Lelement neutre, lorsquil existe, est unique. En eet, si e et e

sont neutres
pour T alors on a e = e T e

= e

.
Inverse : Supposons que T ait un element neutre e. On dit que lelement a de E a pour
inverse (ou symetrique ) lelement b de E si
a T b = b T a = e.
Proposition 0.0.2 Si la loi T est associative et a un element neutre e alors linverse, sil
existe, est unique.
5 6 TABLE DES MATI
`
ERES
Preuve : Soit a E admettant pour inverses b et b

. On a donc
e = a T b = a T b

.
Donc
b T (a T b) = b T (a T b

).
Par associativite, on a donc
(b T a) T b = (b T a) T b

.
Mais b T a = e donc la relation ci-dessus donne bien b = b

.
Exemples :
1. Laddition dans N est une loi interne associative et commutative, et a pour element neutre
0. Dans N, seul 0 a un inverse pour la loi +. En revanche dans Z, tout element n a un
inverse : cest n.
2. La multiplication dans N ou Z est associative, commutative et a pour element neutre 1.
Lorsque E poss`ede deux lois internes T et , on peut denir la notion de distributivite .
Denition 0.0.3 On dit que est distributive par rapport ` a T si
(a, b, c) E E E, a (b T c) = (a b) T (a c).
Exemple : Dans N, Z, Q ou R, la multiplication est distributive par rapport ` a laddition.
Groupes et sous-groupes
Denition 0.0.4 Soit G un ensemble non vide muni dune loi interne T.
On dit que (G, T) est un groupe si T est associative, poss`ede un element neutre et si
tout element de G est inversible. Si de plus la loi T est commutative alors (G, T) est appele
groupe commutatif ou encore groupe abelien.
Denition 0.0.5 Soit (G, T) un groupe et H un sous-ensemble non vide de G. Si (H, T) est
lui-meme un groupe, on dit que (H, T) est un sous-groupe de (G, T).
Remarque : Montrer que (H, T) est un sous-groupe de (G, T) revient ` a verier que e H, que
H est stable par T (i.e pour tout (a, b) H
2
alors a T b H) et que tout element de H a son
inverse dans H.
Exemple : (Z, +) est un groupe et lensemble des entiers relatifs pairs 2Z muni de la loi + est
un sous-groupe de (Z, +). En revanche, (N, +) nest pas un groupe (pourquoi ?)
Anneaux
Denition 0.0.6 Soit A un ensemble non vide muni de deux lois internes T et . On dit que
(A, T, ) est un anneau si les conditions suivantes sont veriees :
i) (A,T) est un groupe commutatif,
ii) La loi est associative et admet un element neutre,
iii) La loi est distributive par rapport ` a T .
Si de plus la loi est commutative, on dit que (A, T, ) est un anneau commutatif.
Exemple : (Z, +, ) est un anneau commutatif. TABLE DES MATI
`
ERES 7
Corps
Denition 0.0.7 Soit (K, T, ) un anneau. On dit que (K, T, ) est un corps si tout element
de K distinct de lelement neutre pour la loi T a un inverse pour la loi .
Si de plus la loi est commutative, on dit que (A, T, ) est un corps commutatif.
Exemple : (Z, +, ) nest pas un corps (car seuls 1 et 1 ont un inverse dans Z pour la
multiplication). En revanche (Q, +, ) et (R, +, ) sont des corps. 8 TABLE DES MATI
`
ERES
Chapitre 1
Les nombres complexes
1.1 Construction des nombres complexes
1.1.1 Motivations
Au cours de votre scolarite, vous avez appris ` a manipuler dierents types de nombres.
Dabord les entiers naturels N, puis les entiers relatifs Z, puis les nombres rationnels Q et enn
les reels R. A chaque fois, lintroduction dun nouvel ensemble de nombres etait motivee par
linsusance du precedent pour la resolution de certains probl`emes mathematiques.
Pour illustrer nos propos, cherchons ` a resoudre des equations du premier ou second degre
dans ces dierents ensembles. On constate que les equations du type x + a = 0 avec a N

ne
peuvent pas etre resolues dans N. En revanche, elles peuvent etre resolues dans Z, la solution
etant evidemment a. Mais Z est lui-meme insusant dans la mesure o` u certaines equations
du premier degre ` a coecients entiers nont pas de solution dans Z. Cest le cas de lequation
2x+1 = 0 par exemple. En revanche, cette equation a une solution dans Q : la fraction
1
2
. Plus
generalement, on peut etablir que toutes les equations du premier degre ` a coecients rationnels
ont une unique solution dans Q.
Linsusance de Q est cependant manifeste lorsque lon cherche ` a resoudre des equations du
second degre (i.e ax
2
+ bx + c = 0 avec a = 0) ou ` a determiner des racines carrees de nombres
positifs. Il est bien connu que

2 nest pas dans Q (ce qui revient ` a dire que lequation x


2
2
na pas de solution rationnelle). Lintroduction de lensemble des reels R permet de calculer les
racines carrees de nombres positifs et plus generalement de resoudre toutes les equations du
second degre ` a discriminant positif. Mais celles qui ont un discriminant negatif nont pas de
solution reelle. Cest le cas de lequation x
2
= 1. On aimerait trouver un corps dans lequel
cette equation ait une solution. On verra dans ce chapitre que le corps C repond ` a la question.
1
La construction de C peut se faire ` a partir de R en munissant R
2
de deux lois et qui en
feront un corps, lensemble reel pouvant sidentier ` a lensemble des couples (x, 0) avec x R.
1.1.2 Denition dune loi dans R
2
Pour tous couples (x, y) et (x

, y

) de R
2
, on denit un element (x, y) (x

, y

) de R
2
par
(x, y) (x

, y

)
def
= (x +x

, y +y

).
En particulier,
(x, 0) (x

, 0) = (x +x

, 0).
Dans R, lelement x + x

est bien la somme de x et de x

. Si lon identie R ` a lensemble des


couples du type (x, 0), la loi est donc bien compatible avec laddition sur R.
1
En fait, toute equation de degre quelconque a une solution dans C. On dit que C est algebriquement clos.
9 10 CHAPITRE 1. LES NOMBRES COMPLEXES
1.1.3 Denition dune loi dans R
2
Pour tous couples (x, y) et (x

, y

) de R
2
, on denit un element (x, y) (x

, y

) de R
2
par
(x, y) (x

, y

)
def
= (xx

yy

, xy

+x

y).
En particulier,
(x, 0) (x

, 0) = (xx

, 0).
Dans R, lelement xx

est bien le produit de x et de x

. La multiplication ainsi denie est donc


compatible avec celle de R. De plus, (0, 1) (0, 1) = (1, 0). Si lon identie (1, 0) au reel 1,
on constate que 1 a une racine carree au sens de cette loi de R
2
. Cetait bien le but recherche.
1.1.4 Notations
Dans la suite de ce chapitre, le couple (1, 0) est simplement note 1 et lon note i le couple
(0, 1). Le calcul precedent montre que i
2
= 1. De cette propriete deconcertante est issue le
nom de nombre imaginaire donne ` a i. Plus generalement, le couple (x, y) est note x +iy.
Denition 1.1.1 On appelle ensemble des nombres complexes (note C) lensemble des couples
(x, y) muni des lois et denies precedemment, et notes x+iy. La loi est alors simplement
notee +, et la multiplication est notee voire omise.
Remarque : Nous laissons au lecteur le soin de verier que gr ace ` a lidentication precedente,
le calcul dans C est identique ` a celui dans R avec la convention i
2
= 1. Plus precisement, on a
(x +iy) + (x

+iy

) = (x +x

) +i(y +y

),
(x +iy)(x

+iy

) = (xx

yy

) +i(x

y +xy

).
Denition 1.1.2 Soit z = x +iy un nombre complexe.
Partie reelle : Le reel x est appele partie reelle de z et note Re z. Si Re z = 0, on dit
que z est un nombre imaginaire pur.
Partie imaginaire : Le reel y est appele partie imaginaire de z et note Imz.
Conjugue : Le nombre z
def
= x iy est appele conjugue de z.
Axe : A tout point M de R
2
de coordonnees (x, y), on associe le nombre complexe x+iy,
appele axe de M.
Interpretation geometrique :
Lensemble des elements de C peut
etre identie ` a un plan appele plan
complexe. Laxe des abscisses du
plan complexe est souvent appele
axe reel, et note R. Laxe des or-
donnees est appele axe imaginaire
et note iR. Pour tout nombre com-
plexe z, le point M daxe z a pour
abscisse Re z, et pour partie imagi-
naire Im z. Le point daxe z est
le symetrique de M par rapport ` a
laxe des abscisses.
0
Im z
Im z
Re z
z=x+iy

z=xiy
i
1 R
iR 1.2. PROPRI

ET

ES DE C 11
Proposition 1.1.3 On a les proprietes elementaires suivantes :
z C, z

C, Re (z +z

) = Re z +Re z

et Im(z +z

) = Imz +Imz

,
z C, R, Re (z) = Re z et Im(z) = Imz,
z C, z = z,
z C, Re z =
z +z
2
et z R z = z,
z C, Imz =
z z
2i
et z iR z = z,
z C, z

C, z +z

= z +z

,
z C, z

C, zz

= zz

,
z C, R, z = z.
Preuve : Elle est laissee au lecteur ` a titre dexercice.
Attention : En general, Im(zz

) = Imz Imz

et Re (zz

) = Re z Re z

.
Exercice : Trouver des couples (z, z

) pour lesquels les egalites ci-dessus ne sont pas veriees.


1.2 Proprietes de C
1.2.1 Proprietes algebriques
Theor`eme 1.2.1 (C, +, ) est un corps commutatif. De plus 0 est lelement neutre pour lad-
dition, 1 est lelement neutre pour la multiplication, et linverse dun nombre complexe non nul
x +iy pour la multiplication est
(x +iy)
1
=
x iy
x
2
+y
2
.
Preuve : On verie successivement que (C, +) est un groupe commutatif delement neutre
0, que (C, +, ) est un anneau commutatif delement neutre 1, puis enn que tout element
non nul de C est inversible pour la multiplication. Les details sont laisses au lecteur.
Donnons juste la preuve de lassociativite de la multiplication (qui est la partie la plus
calculatoire). Soit donc z = x +iy, z

= x

+iy

et z

= x

+iy

trois nombres complexes.


Il sagit de montrer que (zz

)z

= z(z

). Calculons :
(zz

)z

=
_
(x +iy)(x

+iy

)
_
(x

+iy

),
=
_
(xx

yy

) +i(xy

+x

y)
_
(x

+iy

),
= (xx

)x

(yy

)x

(xy

)y

(x

y)y

+i[(xy

)x

+(x

y)x

+(xx

)y

(yy

)y

],
= x(x

) y(y

) x(y

) x

(yy

) +i[x(y

)+x

(yx

)+x(x

)y(y

)],
= x(x

) x(y

) y(x

) y(x

) +i[x(x

)+x(x

)+y(x

)y(y

)],
= (x +iy)
_
(x

) +i(x

+x

)
_
,
= (x +iy)
_
(x

+iy

)(x

+iy

)
_
,
= z(z

).
Comme dans tout anneau commutatif (et a fortiori dans tout corps commutatif), on dispose
dans C didentites remarquables . Les plus simples sont :
(z +z

)
2
= z
2
+ 2zz

+z
2
,
(z +z

)
3
= z
3
+ 3z

z
2
+ 3z
2
z +z
3
. 12 CHAPITRE 1. LES NOMBRES COMPLEXES
Plus generalement, la formule du bin ome de Newton est valable :
(z +z

)
n
=
n

k=0
C
k
n
z
k
z

nk
avec
2
C
k
n
=
n!
k!(n k)!
.
La formule du bin ome se montre par recurrence sur n en utilisant la formule du triangle de
Pascal :
C
k+1
n+1
= C
k
n
+C
k+1
n
.
Une autre identite remarquable bien connue
z

2
z
2
= (z

z)(z

+z)
peut se generaliser en
z

n
z
n
= (z

z)
n1

k=0
z

k
z
n1k
En particulier, en choisissant z

= 1, en appliquant la formule ci-dessus au rang n + 1 puis en


divisant par 1 z, on retrouve la formule donnant la somme des n premiers termes dune serie
geometrique :
z = 1,
n

k=0
z
k
=
1 z
n+1
1 z
.
1.2.2 Representation polaire
a) Le module
Le module dun nombre complexe est un prolongement naturel de la notion de valeur absolue
dun nombre reel. On le denit ainsi :
Denition 1.2.2 Soit z = x + iy un nombre complexe. On appelle module de z le reel positif
ainsi deni :
|z|
def
=
_
x
2
+y
2
.
Proposition 1.2.3 Considerons deux nombres complexes z et z

. On a les proprietes suivantes :


i) |z| 0 et |z| = 0 si et seulement si z = 0.
ii) |z| = |z|.
iii) |z|
2
= zz = zz. Autrement dit, pour tout couple de reels (x, y), on a la factorisation
x
2
+y
2
= (x +iy)(x iy).
iv) Si z = 0, on a
z
1
=
z
|z|
2
.
En consequence, (z)
1
= z
1
, et z = z
1
si et seulement si |z| = 1.
2
Les coecients binomiaux C
k
n
sont notes
`
n
k

par certains auteurs et dans les pays anglo-saxons. 1.2. PROPRI

ET

ES DE C 13
v) On a |zz

| = |z||z

|. Se plus, si z = 0 alors |z
1
| = 1/|z|.
vi) |Re z| |z| et |Imz| |z|.
vii) |z +z

|
2
= |z|
2
+|z

|
2
+ 2Re (zz

).
viii) Inegalites triangulaires :

|z| |z

|z +z

| |z| +|z

|.
Preuve :
Pour i), on utilise le fait que la somme de deux reels positifs est un reel positif, et quelle
est nulle si et seulement si les deux reels sont nuls.
Pour ii) et iii), il sut de revenir ` a la denition du module.
Soit z = 0. Alors z/|z|
2
est bien linverse de z. En eet, dapr`es la propriete iii), on a
z
z
|z|
2
=
zz
|z|
2
=
|z|
2
|z|
2
= 1.
On en deduit ensuite que
z
1
=
_
z
|z|
2
_
=
z
|z|
2
=
z
|z|
2
= (z)
1
.
Pour prouver v), on ecrit que
|zz

|
2
= zz

zz

= zz z

= |z|
2
|z

|
2
.
Si z = 0, le choix de z

= z
1
donne bien |z
1
| = 1/|z|.
La propriete vi) est triviale.
Pour prouver vii), on calcule en tenant compte de iii) :
|z +z

|
2
= (z +z

)(z +z

) = |z|
2
+|z

|
2
+zz

+z

z = |z|
2
+|z

|
2
+ (zz

+zz

).
Or, dapr`es la proposition 1.1.3, le dernier terme est justement egal ` a 2Re (zz

).
Pour prouver viii), on utilise successivement vi), v) et ii). On trouve :
Re (zz

) |zz

| = |z||z

| = |z||z

|.
Ainsi, dapr`es vii),
|z +z

|
2
|z|
2
+|z

|
2
+ 2|z||z

|.
En prenant la racine carree positive des deux membres, on obtient linegalite de droite.
Linegalite triangulaire de gauche se montre en appliquant celle de droite ` a z et z + z

puis ` a z

et z +z

.
b) Largument
Commen cons par rappeler la denition de congruence.
Denition 1.2.4 Considerons trois reels a, b et c. On dit que a est congru ` a b modulo c sil
existe k Z tel que a = b +kc. On note a b [c].
Proposition 1.2.5 Soit z un nombre complexe non nul. Il existe un unique reel de [0, 2[
tel que
(1.1)
z
|z|
= cos +i sin . 14 CHAPITRE 1. LES NOMBRES COMPLEXES
Ce reel est appele argument principal de z, et note
3
arg z.
De plus, lensemble des reels veriant (1.1) est lensemble des reels congrus ` a arg z modulo
2, cest-` a-dire lensemble des reels du type arg z + 2k avec k Z. Tous ces reels sont appeles
arguments de z.
Preuve : Il sut de remarquer que
z
|z|
est de module 1 et peut donc secrire x + iy avec
x
2
+ y
2
= 1. Il existe donc un unique reel de [0, 2[ tel que x = cos et y = sin . Les
autres reels satisfaisant cette relation lui sont congrus modulo 2.
c) Interpretation geometrique
Soit z C et M daxe z.
Le module de z est egal ` a la
norme du vecteur

OM cest-
` a-dire ` a la distance de O ` a M.
Si z = 0, largument de z
est une mesure (en radians)
de langle oriente forme par
le vecteur unite dirigeant laxe
des reels dans le sens positif
et le vecteur

OM. En dautres
termes, le point P daxe
z/|z| est le point dintersec-
tion entre le cercle unite et la
demi-droite [0M).
0
z/|z|
P
M
z
arg z
R
iR
Remarque : On peut maintenant donner une interpretation geometrique des inegalites trian-
gulaires (qui est ` a lorigine de leur appellation). Linegalite de droite stipule que la longueur
dun c ote dun triangle est inferieure ` a la somme des longueurs des deux autres c otes, et celle de
gauche, que la longueur dun c ote est toujours superieure ` a la dierence des longueurs des deux
autres c otes.
d) Forme trigonometrique
Denition 1.2.6 Pour tout reel , on pose
e
i
def
= cos +i sin
Ainsi tout nombre complexe z non nul de module r et dargument peut secrire
4
z = re
i
.
On dit que re
i
est la forme trigonometrique de z. Pour z = 0, cette ecriture est unique
` a congruence modulo 2 pr`es pour . Cest-` a-dire que
_
re
i
= r

e
i

_

_
r = r

et

[2]
_
.
En particulier, on peut toujours choisir pour largument principal de z.
Remarque : La notation e
i
est pour linstant purement formelle. Elle sera justiee mathema-
tiquement plus tard dans le chapitre sur les series enti`eres du cours danalyse.
3
Les denitions de largument principal di`erent suivant les ouvrages. Une autre denition tr`es repandue
consiste ` a choisir pour argument principal lunique reel de ] , ] veriant (1.1).
4
Le nombre 0 peut aussi secrire re
i
: on prend r = 0 et arbitraire. 1.2. PROPRI

ET

ES DE C 15
Quelques formes trigonometriques ` a connatre :
e
i0
= 1 et plus generalement, ae
i0
= a pour tout a R
+
.
e
i
= 1 et plus generalement, |a|e
i
= a pour tout a R

.
e
i

2
= i et e
3i

2
= i.
e
i

4
=

2
2
+i

2
2
et e
3i

4
=

2
2
+i

2
2
.
e
i

6
=

3
2
+
i
2
et e
i

3
=
1
2
+i

3
2
.
Pour tout k Z et R, e
i(+2k)
= e
i
.
Pour tout R, e
i(+)
= e
i
et e
i(+

2
)
= ie
i
.
1.2.3 Formules de trigonometrie
Nous nous bornerons ` a rappeler deux formules trigonometriques dimportance capitale pour
la suite du cours :
(,

) R
2
, cos( +

) = cos cos

sin sin

, (1.2)
sin( +

) = sin cos

+ cos sin

. (1.3)
Noter que la deuxi`eme se deduit de la premi`ere en changeant

en

+/2.
Donnons une premi`ere application de ces formules, (qui est fort utilisee en physique) :
Proposition 1.2.7 Soit (A, B) un couple de reel. Alors il existe un reel tel que
(1.4) x R, Acos x +Bsinx =
_
A
2
+B
2
cos(x ).
Si de plus (A, B) = (0, 0), on peut choisir pour largument principal du nombre complexe
A+iB, cest-` a-dire lunique element de [0, 2[ tel que
cos =
A

A
2
+B
2
, sin =
B

A
2
+B
2
.
Preuve : Limitons nous au cas (A, B) = (0, 0). Dapr`es la formule (1.2), on a
cos(x ) = cos xcos + sin xsin .
On en deduit que la formule (1.4) est veriee si et seulement si
A =
_
A
2
+B
2
cos et B =
_
A
2
+B
2
sin .
En remarquant que
A +iB =
_
A
2
+B
2
_
A

A
2
+B
2
+i
B

A
2
+B
2
_
,
on conclut que lon peut prendre pour largument principal de A +iB.
Les formules trigonometriques (1.2) et (1.3) vont egalement nous permettre de montrer des
proprietes algebriques de largument :
Proposition 1.2.8 1. Si z et z

sont deux nombres complexes non nuls alors


arg(zz

) arg z + arg z

[2].
2. Si z est un nombre complexe non nul alors
arg z
1
arg z [2]. 16 CHAPITRE 1. LES NOMBRES COMPLEXES
Preuve : Clairement, la premi`ere egalite appliquee avec z

= z
1
donne la deuxi`eme egalite.
Prouvons donc la premi`ere egalite. Soit (z, z

) un couple de nombres complexes non nuls.


Notons
def
= arg z et

def
= arg z

. On a
z = |z|(cos +i sin ) et z

= |z

|(cos

+i sin

).
Donc, en appliquant (1.2) et (1.3),
zz

= |z||z

|
__
cos cos

sin sin

_
+i
_
cos sin

+ sin cos

__
,
= |zz

|
_
cos( +

) +i sin( +

_
.
Proposition 1.2.9 Soit (,

) un couple de reels, et (r, r

) un couple de reels positifs. On a


(1.5)
_
re
i
__
r

e
i

_
= rr

e
i(+

)
.
De plus, si r = 0, on a pour tout n Z,
(1.6) (re
i
)
n
= r
n
e
in
.
Preuve : Notons z = re
i
et z

= r

e
i

. On sait dej` a que le module de zz

est |z||z

|. La
proposition 1.2.8 montre que arg zz arg z +arg z

[2]. Comme bien s ur r = |z|, r

= |z

|,
arg z [2] et

arg z

[2], on a bien zz

= rr

e
i(+

)
.
5
.
Legalite (1.6) dans le cas n = 0 ou n = 1 est immediate. Dans le cas n = 2, elle decoule
de (1.5) avec z

= z. Le cas n N quelconque suit par recurrence (exercice : faire la


recurrence).
Le cas n < 0 decoule du point 2 de la proposition 1.2.8, applique ` a z
n
et au fait que le
module de linverse est linverse du module.
Remarque 1.2.10 En particulier, e
i(+

)
= e
i
e
i

ce qui montre que lexponentielle dun


nombre imaginaire pur a les memes proprietes multiplicatives que lexponentielle reelle.
Interpretation geometrique : Le nombre e
i
(resp. e
i

) a pour axe le point obtenu par


rotation dangle (resp.

) du point (1, 0). Calculer e


i
e
i

revient ` a faire subir ` a laxe de


e
i

une rotation dangle . On sattend donc ` a trouver limage de (1, 0) par la composee des
rotations dangle et

. La remarque ci-dessus assure que la composee de ces deux rotations


est bien la rotation dangle +

.
Remarque 1.2.11 En prenant r = 1 dans la formule (1.6), on trouve
n Z, R, (cos +i sin )
n
= cos n + i sin n.
Cette identite ` a connatre est appelee formule de Moivre.
Proposition 1.2.12 (Formules dEuler) Pour tout reel , on a
cos =
e
i
+e
i
2
et sin =
e
i
e
i
2i
.
5
Le cas o` u lun des deux nombres z et z

est nul ne fait pas exception puisqualors zz

= 0 1.2. PROPRI

ET

ES DE C 17
Preuve : Il sut de faire la demi-somme et la demi-dierence des expressions suivantes :
e
i
= cos +i sin ,
e
i
= cos i sin .
Remarques :
1. Les formules dEuler permettent de lineariser des expressions du type cos
k
xsin

x, cest-
` a-dire de les transformer en sommes de cos et de sin.
2. Si z est un nombre complexe non nul de forme trigonometrique re
i
, on a les formules
Re z = r cos , Imz = r sin et z = re
i
.
1.2.4 Racines n-i`eme de lunite
Denition 1.2.13 Soit n N

et z C. On dit que z est racine n-i`eme de lunite si z


n
= 1.
Dans le cas n = 2, on parle de racine carree de lunite.
Proposition 1.2.14 Pour n N

xe, il y a exactement n racines de lunite deux ` a deux


distinctes. Il sagit des nombres complexes
z
k
def
= e
2ik
n
= cos
_
2k
n
_
+i sin
_
2k
n
_
avec k {0, , n 1}.
Preuve : Dapr`es la formule de Moivre, z
n
k
= cos(2ik) +i sin(2ik) = 1. Donc les n nombres
complexes z
k
sont bien racines n-i`eme de lunite. Verions quil ny en a pas dautre. Soit
z une racine n-i`eme de lunite que lon ecrit sous sa forme trigonometrique z = re
i
. Par
hypoth`ese, on a r
n
e
in
= 1e
i0
. Donc
r
n
= 1 et n 0 [2].
Comme r est un reel positif, on doit avoir r = 1. La deuxi`eme relation montre que est
de la forme = 2/n avec Z.

Ecrivons la division euclidienne de par n :
= qn +k avec q Z et k {0, , n 1}.
Alors =
2k
n
+ 2q. Donc largument principal de z est
2k
n
.
Exemples :
n = 2 : les racines carrees de lunite sont 1 et 1.
n = 3 : les racines cubiques de lunite sont 1, et o` u
def
=
1
2
+i

3
2
.
n = 4 : les racines 4-i`eme de lunite sont 1, i, 1 et i.
Interpretation geometrique : Les points ayant pour axes les racines n-i`eme de lunite sont
les points du cercle unite formant langle 2k/n avec laxe des abscisses. 18 CHAPITRE 1. LES NOMBRES COMPLEXES
Exemple : representation des racines 5`eme de lunite dans le plan complexe
O
z
0
z
1
z
2
z
3
z
4
R
iR
2/5
1.3 Resolution dequations du second degre
Par construction de C, lequation z
2
= 1 a au moins une solution complexe : i, et i est
egalement solution. Dans cette section, on montre que toutes les equations du second degre :
(E) az
2
+bz +c = 0
` a coecients a = 0, b et c reels ou complexes ont une ou deux solutions. On donne de plus des
formules permettant de les calculer.
1.3.1 Racine carree dun nombre complexe
Proposition 1.3.1 Tout nombre complexe non nul a deux racines carrees distinctes et op-
posees. Plus precisement, si = re
i
alors les racines carrees de sont

re
i

2
.
Lunique racine carree de 0 est 0.
Preuve : Le cas = 0 est immediat (utiliser le module).
Soit donc = 0 et z une racine carree de .

Ecrivons = re
i
et z = e
i
avec = arg
et = arg z. Comme z
2
=
2
e
2i
, lequation z
2
= est equivalente ` a

2
= r et 2 [2].
cest-` a-dire
=

r et /2 [].
En se restreignant aux valeurs de comprises entre 0 et 2, on trouve =

2
ou =

2
+.
Un calcul direct montre que

re
i

2
et

re
i

2
sont racines carrees de z. 1.3. R

ESOLUTION D

EQUATIONS DU SECOND DEGR

E 19
Si la forme trigonometrique de est connue, le calcul des racines carrees de est immediat.
On peut se demander si la connaissance de la forme trigonometrique est necessaire au calcul des
racines carrees. Il nen est rien : dans la proposition suivante, on etablit une formule donnant la
racine carree dun nombre complexe = a +ib arbitraire en fonction de a et b.
Proposition 1.3.2 Soit = a +ib un nombre complexe arbitraire.
1. Si b = 0 et a 0 (i.e R
+
) : les racines carrees de sont

a et

a.
2. Si b = 0 et a 0 (i.e R

) : les racines carrees de sont i


_
|a| et i
_
|a|.
3. Si b > 0 : les racines carrees de sont z et z avec
z
def
=

2
2
__
a +
_
a
2
+b
2
+i
_
a +
_
a
2
+b
2
_
.
4. Si b < 0 : les racines carrees de sont z et z avec
z
def
=

2
2
__
a +
_
a
2
+b
2
i
_
a +
_
a
2
+b
2
_
.
Preuve : On cherche z = x +iy tel que
(1.7) z
2
= a +ib.
En calculant z
2
puis en identiant parties reelles et parties imaginaires, on trouve que (1.7)
est veriee si et seulement si
_
x
2
y
2
= a,
2xy = b.
On peut resoudre ce syst`eme directement, mais il est plus rapide dexploiter le fait que
|z|
2
= ||, ce qui donne la relation supplementaire x
2
+y
2
=

a
2
+b
2
. Le couple (x
2
, y
2
)
doit donc verier le syst`eme de deux equations ` a deux inconnues suivant :
_
x
2
y
2
= a
x
2
+y
2
=

a
2
+b
2
.
On en deduit que
(1.8) x
2
=
1
2
_
a +
_
a
2
+b
2
_
et y
2
=
1
2
_
a +
_
a
2
+b
2
_
.
Remarquons que les membres de droite sont toujours positifs, donc il existe bien des couples
(x, y) veriant les egalites ci-dessus.
Dans le cas b = 0 et a 0, est en fait un reel positif, et on trouve x =

a et y = 0.
Les racines carrees sont donc les racines carrees reelles habituelles.
Dans le cas b = 0 et a < 0 (i.e reel negatif), la formule (1.8) montre que x = 0 et
y =
_
|a|.
Si b = 0, les membres de droite de (1.8) sont strictement positifs. Il y a donc en general
quatre couples (x, y) solutions. La condition supplementaire 2xy = b va permettre de
selectionner les deux couples qui vont donner une racine carree de .
En eet, si b > 0, alors 2xy = b implique que xy > 0 donc x et y doivent etre de meme
signe. Cela donne bien le cas 3.
Si au contraire b < 0, alors x et y doivent etre de signe oppose, ce qui donne le cas 4.
Il reste ` a verier que les nombres trouves sont bien des racines carrees de z. Cela peut se
faire par calcul direct, ou en remarquant que lon sait dej` a que z non nul admet exactement
deux racines carrees.
Remarque : Il est inutile de connatre ces formules par cur. Mais il est important de
se souvenir de la demarche qui a permis de les obtenir. 20 CHAPITRE 1. LES NOMBRES COMPLEXES
1.3.2 Resolution dequations du second degre dans le cas general
On cherche ` a resoudre (E) dans le cas o` u a, b et c sont des nombres complexes et a = 0.
Proposition 1.3.3 Notons
def
= b
2
4ac le discriminant complexe de (E).
Si = 0 alors (E) a une unique solution : z = b/2a.
Si = 0 alors (E) a deux solutions distinctes z
1
et z
2
qui sont donnees par les formules
z
1
=
b
2a
+
z
0
2a
et z
2
=
b
2a

z
0
2a
avec z
0
racine carree de .
Preuve : Il sut de factoriser le membre de gauche de (E) :
az
2
+bz +c = a
_
z
2
+
b
a
z +
c
a
_
,
= a
_
_
z +
b
2a
_
2


(2a)
2
_
.
Dans le cas = 0, cette factorisation montre que z est solution si et seulement si
z +
b
2a
= 0.
Dans le cas = 0, on poursuit la factorisation compte tenu de z
2
0
= . Il vient nalement
az
2
+bz +c = a
_
z +
b
2a

z
0
2a
__
z +
b
2a
+
z
0
2a
_
.
Il est maintenant clair que z est solution si et seulement si
z =
b
2a
+
z
0
2a
ou z =
b
2a

z
0
2a
.
Remarque : La formule donnant les solutions dune equation du second degre dans le cas
complexe est donc exactement la meme que dans le cas reel. De plus, il ny a pas ` a se preoccuper
du signe du discriminant (dailleurs il na pas de signe puisquil est complexe !) On voit donc
que toutes les equations du second degre ont une ou deux solutions dans C, et que leur calcul
est immediat une fois connue une racine carree du discriminant.
Chapitre 2
Syst`emes lineaires
Au lycee, vous avez appris ` a resoudre des syst`emes de 2, 3 voire 4 equations ` a 2, 3 ou 4
inconnues. Ce chapitre est consacre ` a la theorie des syst`emes lineaires comportant un nombre
arbitraire dequations et dinconnues. Il sagit notamment de presenter une methode generale de
resolution de tels syst`emes.
2.1 Quelques exemples elementaires
Donnons dabord quelques exemples de resolution de syst`emes de deux equations ` a deux
inconnues.
1. Resolution de
(S
1
)
_
2x + 3y = 8 (L
1
)
x y = 1 (L
2
)
Il sagit de determiner lensemble des couples de reels (x, y) qui satisfont les deux lignes
du syst`eme (S
1
).
Pour ce faire, on peut proceder ainsi : on retranche 2(L
2
) ` a (L
1
), et on obtient le syst`eme
(S

1
)
_
5y = 10 (L

1
)
x y = 1 (L

2
)
dont lensemble des solutions est le meme que celui de (S
1
).
Il est clair que la ligne (L

1
) est equivalente ` a y = 2, et en reportant dans (L

2
), on obtient
x = 1.
En conclusion, (S
1
) a pour unique solution le couple (1, 2).
2. Resolution de
(S
2
)
_
2x 2y = 8 (L
1
)
x y = 1 (L
2
)
Cette fois-ci, si lon retranche 2(L
2
) ` a (L
1
), on obtient le syst`eme
(S

2
)
_
0 = 10 (L

1
)
x y = 1 (L

2
)
La premi`ere ligne ne peut jamais etre realisee, et lon conclut que (S
2
) na pas de solution.
21 22 CHAPITRE 2. SYST
`
EMES LIN

EAIRES
3. Resolution de
(S
3
)
_
2x 2y = 2 (L
1
)
x y = 1 (L
2
)
On remarque que la premi`ere ligne est egale ` a deux fois la seconde. Par consequent, le
syst`eme (S
3
) est equivalent ` a
x y = 1.
Lensemble des couples (x, y) veriant cette relation est
{(y 1, y) | y R} .
Le syst`eme (S
3
) a donc une innite de solutions.
Conclusion : Dapr`es ces exemples, pour les syst`emes 22, au moins trois cas de gure peuvent
se presenter : ou bien le syst`eme a une seule solution, ou bien il nen a pas, ou bien il en a une
innite. Nous allons voir dans ce chapitre que meme pour les syst`emes lineaires generaux, il ny
a pas dautre scenario possible.
Notation : Dans tout ce chapitre, les syst`emes consideres sont ` a coecients dans R ou C.
Dans un souci de simplication des notations, nous adopterons la convention que le symbole K
designe R ou C. On rappelle que K
n
designe lensemble des n-uplets delements de K, cest-` a-dire
lensemble des (u
1
, , u
n
) avec chaque u
i
appartenant ` a K.
2.2 Denitions
Denition 2.2.1 Soit p N

et n N

. On appelle syst`eme lineaire de p equations ` a n


inconnues ` a coecients dans K (ou encore syst`eme p n) tout syst`eme dequations du type
(S)
_
_
_
a
11
x
1
+ +a
1n
x
n
= b
1
. . . . . . . . . . . . . . . . . . . . . . . .
a
p1
x
1
+ +a
pn
x
n
= b
p
avec a
ij
K pour 1 i p et 1 j n, et b
i
K.
Un tel syst`eme est dit carre si p = n.
Denition 2.2.2 Si b
1
= = b
p
= 0, le syst`eme est dit homog`ene. Pour un syst`eme lineaire
general (S) de p equations ` a n inconnues, le syst`eme
(S

)
_
_
_
a
11
x
1
+ +a
1n
x
n
= 0
. . . . . . . . . . . . . . . . . . . . . . .
a
p1
x
1
+ +a
pn
x
n
= 0
est appele syst`eme homog`ene associe ` a (S).
Denition 2.2.3 Soit (S) un syst`eme lineaire p n. On appelle solution de (S) tout n-uplet
(u
1
, , u
n
) de K
n
tel que
_
_
_
a
11
u
1
+ +a
1n
u
n
= b
1
. . . . . . . . . . . . . . . . . . . . . . . . .
a
p1
u
1
+ +a
pn
u
n
= b
p
.
Denition 2.2.4 Deux syst`emes (S
1
) et (S
2
) sont dits equivalents sils ont le meme ensemble
de solutions, cest-` a-dire si toute solution de (S
1
) est solution de (S
2
) et vice versa. 2.3. MATRICE ASSOCI

EE
`
A UN SYST
`
EME LIN

EAIRE 23
Exemple : Les syst`emes
_
x
1
= 1
x
1
x
2
= 2
et
_
x
1
+x
2
= 0
x
1
x
2
= 2
sont equivalents.
Denition 2.2.5 On dit quun syst`eme carre est triangulaire si lon a
a
ij
= 0 pour tout couple (i, j) tel que i < j (syst`eme triangulaire inferieur)
ou bien
a
ij
= 0 pour tout couple (i, j) tel que i > j (syst`eme triangulaire superieur).
Un syst`eme triangulaire est dit ` a diagonale non nulle sil est triangulaire et si tous les termes
diagonaux sont non nuls.
Exemple : Le syst`eme suivant est triangulaire superieur ` a diagonale non nulle :
_

_
x
1
+ 5x
2
+ x
4
= 1
x
2
+ x
3
= 5
x
3
5x
4
= 0
x
4
= 1.
Denition 2.2.6 On dit quun syst`eme pn est echelonne sil existe un entier k {1, , n}
et un k-uplet dentiers j
1
< < j
k
de {1, , n} tel que
1. Pour i {1, , k}, on a
_
a
ij
= 0 si j < j
i
,
a
ij
i
= 0.
2. Pour i > k, a
ij
= 0.
Les k premi`eres equations sont appelees equations principales, et les inconnues x
j
1
, , x
j
k
sont appelees inconnues principales .
Remarque 2.2.7 Tout syst`eme triangulaire superieur ` a diagonale non nulle est echelonne : on
a k = n et j
i
= i pour tout i {1, , n}.
Exemple : Le syst`eme 4 5 suivant est echelonne :
_

_
2x
1
+ 3x
2
+ x
5
= 1
x
2
+ x
3
+ x
4
x
5
= 4
x
5
= 0
0 = 3
On a k = 3, j
1
= 1, j
2
= 2 et j
3
= 5. Les trois premi`eres equations sont les equations
principales, et x
1
, x
2
et x
5
sont les inconnues principales.
2.3 Matrice associee `a un syst`eme lineaire
Denition 2.3.1 Soit (S) un syst`eme p n. Notons a
ij
(avec i decrivant {1, , p} et j
decrivant {1, , n}) ses coecients. On appelle matrice associee au syst`eme (S) le tableau de
nombres
A
def
=
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
a
p1
a
p2
a
pn
_
_
_
_
_
. 24 CHAPITRE 2. SYST
`
EMES LIN

EAIRES
On dit que A est une matrice ` a p lignes, n colonnes et ` a coecients dans K. On note M
p,n
(K)
lensemble des matrices ` a p lignes et n colonnes ` a coecients dans K.
Si p = n, on dit que la matrice est carree et on utilise plut ot la notation M
n
(K) au lieu de
M
n,n
(K).
Notation : Soit A M
p,n
(K). On note a
ij
le coecient general de A. Le premier indice (ici i)
est celui des lignes, et le deuxi`eme (ici j) est celui des colonnes. On utilise souvent la notation
A = (a
ij
)
1ip
1jn
.
Denition 2.3.2 On dit que deux matrices de A = (a
ij
)
1ip
1jn
et B = (b
ij
)
1ip
1jn
de M
p,n
(K)
sont egales si leurs coecients sont egaux : a
ij
= b
ij
pour tout i {1, , p} et j {1, , n}.
Denition 2.3.3 Soit A M
p,n
(K).
Les p lignes (a
i1
, , a
in
) pour i {1, , p} sont appelees vecteurs lignes de A.
Les n colonnes
_
a
1j
.
.
.
a
pj
_
pour j {1, , n} sont appelees vecteurs colonnes de A.
Exemple : Le syst`eme
(S)
_
_
_
x
1
+ 5x
3
= 2
x
1
x
2
+x
3
= 0
5
3
x
1
2x
2
= 1
a pour matrice associee la matrice carree ` a 3 lignes et 3 colonnes
A =
_
_
1 0 5
1 1 1
5
3
2 0
_
_
.
Les vecteurs lignes de A sont
(1, 0, 5) (1, 1, 1) et (
5
3
, 2, 0).
Les vecteurs colonnes de A sont
_
_
1
1
5
3
_
_
,
_
_
0
1
2
_
_
et
_
_
5
1
0
_
_
.
Remarque : Si A M
1,n
(K) (i.e p = 1), A est appelee matrice ligne.
Si A M
p,1
(K) (i.e n = 1), A est appelee matrice colonne.
Denition 2.3.4 Soit A M
n
(K) une matrice carree. Les coecients a
ii
pour i decrivant
1, , n sont appeles coecients diagonaux de A. On dit que A est une matrice diagonale
si ses coecients non diagonaux a
ij
avec i = j sont tous nuls.
La matrice diagonale dont tous les coecients diagonaux sont egaux ` a 1 est appelee matrice
identite et notee I
n
.
Denition 2.3.5 On dit quune matrice carree est triangulaire si lon a
a
ij
= 0 pour tout couple (i, j) tel que i < j (matrice triangulaire inferieure)
ou bien
a
ij
= 0 pour tout couple (i, j) tel que i > j (matrice triangulaire superieure). 2.4. R

ESOLUTION DES SYST


`
EMES

ECHELONN

ES 25
Proposition 2.3.6 Un syst`eme est triangulaire superieur (resp. inferieur) si et seulement si sa
matrice associee est triangulaire superieure (resp. inferieure).
Remarque : De meme, on dira que la matrice dun syst`eme (S) est echelonnee si le syst`eme
est lui-meme echelonne.
Denition 2.3.7 Soit A M
p,n
(K). On appelle matrice transposee de A la matrice B de
M
n,p
(K)
1
telle que b
ij
= a
ji
pour i {1, , n} et j {1, , p}. On note
t
A la matrice
transposee de A.
Exemple : La matrice transposee de A =
_
_
2 3
1 0
4 2
_
_
est
t
A =
_
2 1 4
3 0 2
_
.
La notation matricielle permet de recrire les syst`emes lineaires sous forme tr`es condensee.
En eet, considerons un syst`eme lineaire de p equations ` a n inconnues :
(S)
_
_
_
a
11
x
1
+ +a
1n
x
n
= b
1
. . . . . . . . . . . . . . . . . . . . . . . . . . .
a
p1
x
1
+ +a
pn
x
n
= b
p
.
Notons A la matrice associee ` a ce syst`eme, x =
_
x
1
.
.
.
xn
_
et b =
_
b
1
.
.
.
bp
_
. Le syst`eme (S) se recrit
Ax = b.
Exemple : Le syst`eme
(S)
_
2x
1
x
3
= 5
x
1
+ x
2
+ x
3
= 1
se recrit
_
2 0 1
1 1 1
__
x
1
x
2
_
=
_
5
1
_
.
En pratique, pour la resolution des syst`emes lineaires, on pourra adopter la notation condensee
suivante :
(S)
2 0 1
1 1 1

5
1
2.4 Resolution des syst`emes echelonnes
Nous allons voir que la resolution de tels syst`emes est particuli`erement aisee. Commen cons
par traiter le cas particulier des syst`emes triangulaires.
2.4.1 Syst`emes triangulaires `a diagonale non nulle
Proposition 2.4.1 Soit (S) un syst`eme triangulaire superieur ` a diagonale non nulle. Alors (S)
a une unique solution obtenue par la methode de la remontee :
x
n
=
b
n
a
nn
, x
n1
=
b
n1
a
n1n
x
n
a
n1n1
, . . . . . . . . . , x
1
=
b
1
a
12
x
2
a
1n
x
n
a
11
.
1
Il sagit donc dune matrice ` a n lignes et p colonnes 26 CHAPITRE 2. SYST
`
EMES LIN

EAIRES
Preuve : Le syst`eme (S) est du type
_

_
a
11
x
1
+ + a
1n1
x
n1
+ a
1n
x
n
= b
1
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
a
n1n1
x
n1
+ a
n1n
x
n
= b
n1
a
nn
x
n
= b
n
.
Comme a
nn
= 0, la derni`ere equation permet de calculer x
n
. Comme a
n1n1
= 0, lavant
derni`ere equation donne x
n1
=
b
n1
a
n1n
xn
a
n1n1
. Puis, de proche en proche, comme a
kk
= 0,
x
k
=
b
k
a
kk+1
x
k+1
a
kn
x
n
a
kk
.
Comme x
k+1
, , x
n
ont dej` a ete calcules, la formule ci-dessus permet de determiner x
k
.
Exercice : Montrer que les syst`emes triangulaires inferieurs peuvent etre resolus de fa con
analogue par la methode de la descente.
2.4.2 Syst`emes echelonnes
Considerons un syst`eme echelonne general p n :
(S)
_

_
a
1j
1
x
j
1
+ . . . . . . . . . . . . . . . . . . + a
1n
x
n
= b
1
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
a
kj
k
x
j
k
+ + a
kn
x
n
= b
k
0 = b
k+1
0 = b
p
.
1er cas : Lun des b
j
avec j {k + 1, , p} est non nul. Alors (S) na pas de solution.
2`eme cas : b
k+1
= = b
p
= 0. Alors (S) est equivalent au syst`eme () suivant :
()
_
_
_
a
1j
1
x
j
1
+ . . . . . . . . . . . . . . . . . . + a
1n
x
n
= b
1
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
a
kj
k
x
j
k
+ + a
kn
x
n
= b
k
.
Ce nouveau syst`eme se resout facilement par la methode de la remontee en considerant
les inconnues non principales (x
j
avec j = j
i
pour tout i) comme des param`etres libres. Si
k = n, le syst`eme () est tout simplement un syst`eme triangulaire superieur ` a diagonale
non nulle, et la proposition 2.4.1 sapplique.
Sinon, on doit avoir k < n, et on obtient une innite de solutions (x
1
, , x
n
) donnees par
les formules suivantes :
x
j
k
=
b
k
a
kj
k
+1
x
j
k
+1
a
kn
xn
a
kj
k
,
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ,
x
j
1
=
b
1
a
1j
1
+1
x
j
1
+1
a
1n
xn
a
1j
1
,
avec x
j
pour j = j
i
choisi arbitrairement dans K.
Exemple : Soit un param`etre reel. On veut resoudre
2 3 0 0 1
0 1 0 1 1
0 0 0 0 1
0 0 0 0 0

1
3
6
2.5. M

ETHODE DU PIVOT DE GAUSS 27


1er cas : = 0. Le syst`eme na pas de solution.
2`eme cas : = 0. Le syst`eme est equivalent ` a
2 3 0 0 1
0 1 0 1 1
0 0 0 0 1

1
3
6
Les inconnues principales sont x
1
, x
2
et x
5
. Les deux autres inconnues x
3
et x
4
sont des
param`etres libres. Par la methode de la remontee, on trouve :
_
_
_
x
5
= 6,
x
2
= 3 x
4
+x
5
= 9 x
4
,
x
1
=
1x
5
3x
2
2
= 16 +
3
2
x
4
.
Lensemble des solutions de (S) est
E =
__
16 +
3
2
x
4
, 9 x
4
, x
3
, x
4
, 6
_

x
3
R, x
4
R
_
.
2.5 Methode du pivot de Gauss
La methode du pivot de Gauss consiste ` a transformer un syst`eme (S) en un syst`eme echelonne
equivalent ` a laide de transformations elementaires .
Les transformations elementaires sont de trois types :
(T1)

Echange de deux lignes du syst`eme,
(T2) Multiplication dune ligne par un scalaire non nul,
(T3) Ajout ` a une ligne dun multiple dune autre ligne.
Limportance que lon accorde aux transformations elementaires est justiee par le resultat
suivant :
Proposition 2.5.1 Deux syst`emes (S
1
) et (S
2
) se deduisant lun de lautre par une succession
de transformations elementaires sont equivalents.
Remarque : Autrement dit, faire des transformations elementaires ne change pas lensemble
des solutions dun syst`eme lineaire.
Preuve : Il sut de verier que chaque type de transformation elementaire ne modie pas
lensemble des solutions. Pour (T1) (i.e permutations de deux lignes), cest evident.
Pour (T2) cest egalement clair : si (x
1
, , x
n
) est solution, alors on a pour tout = 0,
a
i1
x
1
+ +a
in
x
n
= b
i
a
i1
x
1
+ +a
in
x
n
= b
i
.
Reste ` a verier pour (T3). Supposons que lon ajoute (L
i
1
) ` a la ligne (L
i
0
) (avec i
0
= i
1
).
Notons (a
ij
)
1ip
1jn
la matrice de (S), et (a

ij
)
1ip
1jn
la matrice du syst`eme (S

) obtenu apr`es
avoir ajoute (L
i
1
) ` a la ligne (L
i
0
). Notons E (resp. E

) lensemble des solutions de (S)


(resp. (S

)).
Il est clair que
(2.1)
_
a

ij
= a
ij
si i = i
0
,
a

i
0
j
= a
i
0
j
+a
i
1
j
. 28 CHAPITRE 2. SYST
`
EMES LIN

EAIRES
Soit (u
1
, , u
n
) une solution de (S). On a par denition
(2.2) i {1, , p}, a
i1
u
1
+ +a
in
u
n
= b
i
.
Comme a

ij
= a
ij
pour i = i
0
, le n-uplet (u
1
, , u
n
) satisfait les lignes de (S

) distinctes
de i
0
.
En ajoutant fois legalite (2.2) avec i = i
1
` a legalite (2.2) avec i = i
0
, on trouve
(a
i
0
1
+a
i
1
1
)u
1
+ + (a
i
0
n
+a
i
1
n
)u
n
= b
i
0
+b
i
1
qui est exactement la ligne i
0
de (S

). Donc (u
1
, , u
n
) est solution de (S

). Do` u E E

.
Pour montrer linclusion reciproque, il sut de remarquer que lon passe de (S

) ` a (S) en
retranchant (L
i
1
) ` a (L
i
0
). On reprend alors le raisonnement precedent en echangeant les
r oles de (S) et de (S

), et en rempla cant par .


Exemple : Mettre le syst`eme (S) :
0 4 0 4 2
2 3 1 0 1
2 0 1 0 0
sous forme echelonnee :
(S)
2 0 1 0
2 3 1 0
0 4 0 4

0
1
2
(echange de (L
1
) et (L
3
)) ,

2 0 1 0
2 3 1 0
0 1 0 1

0
1
1
2
_
multiplication de (L
3
) par
1
4
_
,

2 0 1 0
0 3 2 0
0 1 0 1

0
1
1
2
(on retranche (L
1
) ` a (L
2
)) ,

2 0 1 0
0 3 2 0
0 0
2
3
1

0
1
1
6
_
on retranche (
1
3
L
1
) ` a (L
3
)
_
,
Le syst`eme obtenu apr`es cette succession de transformations elementaires est echelonne (les
inconnues principales sont x
1
, x
2
et x
3
. On peut donc le resoudre par la methode de la remontee.
La proposition 2.5.1 assure que ce nouveau syst`eme est equivalent au syst`eme initial. 2.6. STRUCTURE DE LENSEMBLE DES SOLUTIONS DUN SYST
`
EME LIN

EAIRE 29
Algorithme du pivot de Gauss : Considerons un syst`eme (S) de taille p n et de
matrice A. On veut resoudre Ax = b.
Le pivot de Gauss est une methode iterative permettant de transformer nimporte quel
syst`eme lineaire en un syst`eme echelonne equivalent apr`es un nombre ni de transforma-
tions elementaires.
Premi`ere iteration :
Premier cas : La matrice A est nulle. Lalgorithme est alors termine.
Deuxi`eme cas : A = 0. Soit j
1
lindice de la premi`ere colonne non nulle.
1`ere etape : Par permutation de lignes on se ram`ene au cas o` u a
1j
1
= 0. Le
syst`eme (S) est donc equivalent ` a un syst`eme de matrice
p lignes
8
>
>
<
>
>
:
n colonnes
..
_
_
_
0 0 a
1j
1

.
.
.
.
.
.
0 0
_
_
_ .
2`eme etape : Le but de cette etape est de faire apparatre des 0 dans la
colonne j
1
sous le coecient a
1j
1
. Pour cela, on retranche
a
ij
1
a
1j
1
(L
1
) ` a chaque
ligne (L
i
) avec i 2. Apr`es avoir applique ces p1 operations elementaires,
le syst`eme equivalent obtenu a pour matrice
1
p
_
_
_
_
_
_
0 0 a
1j
1

.
.
.
.
.
. 0
.
.
.
.
.
.
.
.
.
0 0 0
_
_
_
_
_
_
.
Iteration suivante : On ne touche plus ` a la premi`ere ligne et lon applique la methode
de la premi`ere iteration au syst`eme (p 1) n constitue par les lignes 2 ` a p du syst`eme
obtenu ` a la n de la premi`ere etape.
Fin de lalgorithme : Lalgorithme sarrete au bout dau plus p1 iterations ou lorsque
le sous-syst`eme obtenu a toutes ses lignes nulles.
Remarque : Pour un syst`eme pn, literation type necessite environ pn additions, soustractions,
multiplications ou divisions. Lalgorithme du pivot permet donc de rendre un syst`eme echelonne
en eectuant environ p
2
n operations (n
3
operations si le syst`eme est carre). Son c ote automatique
le rend facilement executable par un ordinateur. Dans les cas pratiques, la methode du pivot de
Gauss nest pas forcement la plus rapide. Il nest pas interdit de reechir avant dappliquer
aveuglement lalgorithme !
2.6 Structure de lensemble des solutions dun syst`eme lineaire
2.6.1 Un exemple
Cherchons ` a resoudre le syst`eme (S) suivant :
1 1 0 1
2 3 1 0
1 0 1 1

0
2
4
Notons (S

) le syst`eme homog`ene associe ` a (S). 30 CHAPITRE 2. SYST


`
EMES LIN

EAIRES
Pour resoudre (S), on applique lalgorithme du pivot de Gauss :
(S)
1 1 0 1
0 1 1 2
0 1 1 2

0
2
4
(on retranche 2(L
1
) ` a (L
2
), et (L
1
) ` a (L
3
)) ,

1 1 0 1
0 1 1 2
0 0 2 4

0
2
6
(ajout de (L
2
) ` a (L
3
)) .
Ce dernier syst`eme est echelonne et a pour inconnues principales x
1
, x
2
et x
3
. On en deduit
(S)
_
_
_
x
3
= 3 2x
4
,
x
2
= 2 2x
4
x
3
= 1,
x
1
= x
4
x
2
= 4 x
4
+ 1.
Donc la solution generale secrit
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
_
_
1
1
3
0
_
_
_
_
. .
solution particuli`ere de (S)
+
_
_
_
_
1
0
2
1
_
_
_
_
. .
solution generale de (S

)
.
Nous allons voir que lensemble des solutions dun syst`eme lineaire, sil nest pas vide, peut
toujours secrire comme la somme dune solution particuli`ere et de lensemble des solutions du
syst`eme homog`ene associe.
2.6.2 Cas des syst`emes homog`enes
Proposition 2.6.1 Soit (S

) un syst`eme homog`ene p n et E

lensemble de ses solutions.


Alors on a
i) (0, , 0) E

(et donc E

nest pas vide),


ii) Si (x
1
, , x
n
) E

et (y
1
, , y
n
) E

alors (x
1
+y
1
, , x
n
+y
n
) E

.
iii) Si (x
1
, , x
n
) E

et K alors (x
1
, , x
n
) E

.
On dit que E

est un sous-espace vectoriel de K


n
.
Preuve : Le second membre dun syst`eme homog`ene est une colonne de 0. Il est donc immediat
que (0, , 0) E

.
Supposons maintenant que (x
1
, , x
n
) et (y
1
, , y
n
) soient solutions de (S

). Alors pour
tout i {1, , p}, on a
a
i1
x
1
+ a
in
x
n
= 0 et a
i1
y
1
+ a
in
y
n
= 0.
Donc, en sommant les deux egalites,
a
i1
(x
1
+y
1
) + a
in
(x
n
+y
n
) = 0.
Il est egalement clair que pour tout K, on a a
i1
x
1
+ a
in
x
n
= 0. Les points ii) et
iii) sont donc prouves. 2.6. STRUCTURE DE LENSEMBLE DES SOLUTIONS DUN SYST
`
EME LIN

EAIRE 31
2.6.3 Cas general
Proposition 2.6.2 Soit (S) un syst`eme lineaire et (S

) le syst`eme lineaire homog`ene associe.


Notons E et E

leurs ensembles de solutions respectifs. Supposons de plus que E ne soit pas vide
et donnons-nous (x
0
1
, , x
0
n
) une solution particuli`ere de (S). Alors
(x
1
, , x
n
) E (x

1
, , x

n
) E

tel que (x
1
, , x
n
) = (x
0
1
+x

1
, , x
0
n
+x

n
).
Autrement dit, si E nest pas vide alors E est la somme des solutions de E

et dune solution
particuli`ere de E. On dit que E

est un sous-espace ane de K


n
.
Preuve : = Soit (x
0
1
, , x
0
n
) une solution particuli`ere de (S). Alors on a pour tout i
{1, , p},
(2.3) a
i1
x
0
1
+ +a
in
x
0
n
= b
i
.
Par ailleurs, (x
1
, , x
n
) E si et seulement si pour tout i {1, , p},
a
i1
x
1
+ +a
in
x
n
= b
i
.
En soustrayant ` a (2.3) cette deuxi`eme relation, on trouve
a
i1
(x
1
x
0
1
) + a
in
(x
n
x
0
n
) = 0,
ce qui signie que (x

1
, , x

n
)
def
= (x
1
x
0
1
, , x
n
x
0
n
) est solution du syst`eme homog`ene
associe ` a (S).
= Supposons que (x

1
, , x

n
) E

. Alors on a a
i1
x

1
+ + a
in
x

n
= 0 pour tout
i {1, , p}. En ajoutant legalite (2.3), on trouve
a
i1
(x
0
1
+x

1
) + (x
0
n
+x

n
) = 0
pour tout i {1, , p}, et donc (x
0
1
+x

1
, , x
0
n
+x

n
) est solution de (S). 32 CHAPITRE 2. SYST
`
EMES LIN

EAIRES
Chapitre 3
Familles de vecteurs
Dans tout ce chapitre, K designe R ou C, et n est un entier superieur ou egal ` a 1.
3.1 Vecteurs de K
n
Denition 3.1.1 On appelle vecteur ` a n composantes tout n-uplet (x
1
, , x
n
) delements
de K. Lensemble des vecteurs ` a n composantes (appeles plus simplement vecteurs) est note K
n
,
et lon pose x = (x
1
, , x
n
).
On munit K
n
dune loi interne + denie pour tous vecteurs x et y de K
n
par
x + y
def
=

x +y = (x
1
+y
1
, , x
n
+y
n
),
et dune loi externe denie pour tout scalaire K et vecteur x K
n
par
x
def
=

x = (x
1
, , x
n
).
Proposition 3.1.2 (K
n
, +) est un groupe commutatif.
Preuve : La commutativite et lassociativite de la loi + resultent de celles de laddition dans
R ou C. Il est de plus clair que lelement neutre est le vecteur nul

0
def
= (0, , 0) et que le
symetrique de x est x
def
= (1) x = (x
1
, , x
n
).
Remarque 3.1.3 De plus, (K
n
, +) est stable par la loi externe decrite plus haut : pour
tous scalaires et , et pour tous vecteurs x et y, on a
_

_
(x +y) = x + y,
( +) x = x + x,
( x) = () x,
1 x = x.
On dit que (K
n
, +, ) est un espace vectoriel sur K.
Remarques :
1. Par convention K
0
est lespace vectoriel trivial contenant un seul element note

0. Cest
le plus petitde tous les K-espaces vectoriels.
2. Sauf en cas dambigute, on omettra le point de la multiplication par un scalaire : x
designera x.
33 34 CHAPITRE 3. FAMILLES DE VECTEURS
Letude detaillee des espaces vectoriels fera lobjet du cours du second semestre. Nous nous
limitons dans un premier temps aux sous-espaces vectoriels :
Denition 3.1.4 Soit X K
n
. On dit que X est un sous-espace vectoriel
1
de K
n
si
1. (X, +) est un sous-groupe de (K
n
, +),
2. x X, K, x X.
Pour prouver quun sous-ensemble X de K
n
est un s.e.v de K
n
, on fait generalement appel ` a la
proposition suivante :
Proposition 3.1.5 X K
n
est un sous-espace vectoriel de K
n
si et seulement si
1. X contient

0,
2. K, K, x X, y X, x +y X.
Preuve : Il est clair que tout sous-espace vectoriel verie 1 et 2.
Reciproquement, considerons un sous-ensemble X de K
n
veriant les proprietes 1 et 2. On
sait dej` a que X contient

0 qui est lelement neutre pour la loi +. De plus, toujours dapr`es
2, pour tout couple (x, y) X X, on a
x + y = 1x + 1y X.
Donc (X, +) est un sous-groupe de (K
n
, +).
Enn, si K et x X, on a x = x + 1.

0 X.
3.2 Familles de vecteurs
3.2.1 Combinaisons lineaires
Denition 3.2.1 Soit I un ensemble non vide. On appelle famille de vecteurs de K
n
indexee
par I tout ensemble {x
i
| i I} de vecteurs de K
n
o` u lindice i decrit tous les elements de I. Une
famille de vecteurs indexee par I sera notee (x
i
)
iI
. Si I = {i
1
, , i
k
}, on utilisera egalement
la notation (x
i
1
, , x
i
k
).
Si J I, on dit que (x
j
)
jJ
est une sous-famille de (x
i
)
iI
.
Si I K, on dit que (x
k
)
kK
est une sur-famille de (x
i
)
iI
.
Remarque 3.2.2 Il est parfois commode detendre la denition ci-dessus au cas o` u I = . Par
convention, la famille indexee par lensemble vide est . On lappelle famille vide de K
n
. Bien
evidemment, la famille vide est sous-famille de toute famille de vecteurs.
Dans la suite du cours, on se limite ` a des familles nies de vecteurs. Le plus souvent, ces familles
seront indexees par I = {1, , k} et notees (x
1
, , x
k
).
Denition 3.2.3 Soit (x
1
, , x
p
) une famille de vecteurs de K
n
. On dit que y K
n
est com-
binaison lineaire de la famille (x
1
, , x
p
) sil existe un p-uplet (
1
, ,
p
) delements de K
tel que
y =
1
x
1
+ +
n
x
p
.
Convention : Toute combinaison lineaire de zero vecteur (i.e de la famille vide) est egale au
vecteur nul.
Proposition 3.2.4 Tout sous-espace vectoriel de K
n
est stable par combinaison lineaire dun
nombre arbitraire de ses vecteurs.
Preuve : La proposition 3.1.5 montre la stabilite par combinaison lineaire de deux vecteurs.
Une recurrence elementaire donne le cas general.
1
ou s.e.v en abrege 3.2. FAMILLES DE VECTEURS 35
3.2.2 Familles generatrices
Denition 3.2.5 Soit X un sous-espace vectoriel de K
n
. On dit quune famille de vecteurs
(x
1
, , x
k
) de X est generatrice si tout element de X est combinaison lineaire de (x
1
, , x
k
).
Proposition 3.2.6 Soit (u
1
, , u
k
) une famille de vecteurs de K
n
. Lensemble des com-
binaisons lineaires des u
i
est un sous-espace vectoriel de K
n
. On lappelle sous-espace
vectoriel engendre par la famille (u
1
, , u
k
) et on le note Vect (u
1
, , u
k
). Cest le
plus petit sous-espace vectoriel contenant tous les vecteurs de la famille (u
1
, , u
k
).
Preuve : Pour verier que Vect (u
1
, , u
k
) est un sous-espace vectoriel, on va appliquer la
proposition 3.1.5.
Vect (u
1
, , u
k
) nest pas vide car contient u
1
.
Si x et y sont deux elements de Vect (u
1
, , u
k
) alors on peut trouver deux k-uplets
(
1
, ,
k
) et (
1
, ,
k
) tels que
x =
k

i=1

i
u
i
et y =
k

i=1

i
u
i
.
Pour tout couple (, ) de K
2
, on a donc
x +y =
k

i=1
(
i
+
i
)u
i
.
Donc x +y est bien combinaison lineaire de (u
1
, , u
k
)
Enn, si X est un sous-espace vectoriel contenant chacun des vecteurs u
i
, il contient toute
combinaison lineaire de la famille (u
1
, , u
k
) (cf Prop. 3.2.4) donc Vect (u
1
, , u
k
).
Remarque : Le sous-espace vectoriel engendre par la famille vide de K
n
est {

0}.
Nous laissons au lecteur le soin detablir le resultat suivant :
Proposition 3.2.7 Soit (x
1
, , x
p
) une famille de vecteurs de K
n
, et (x
i
1
, , x
i
k
) une sous-
famille de (x
1
, , x
p
). Alors on a
Vect (x
i
1
, , x
i
k
) Vect (x
1
, , x
p
).
Pour determiner le sous-espace vectoriel engendre par une famille de vecteurs, on fait souvent
appel ` a la proposition suivante :
Proposition 3.2.8 Le sous-espace vectoriel engendre par une famille de vecteurs donnee est
invariant par les operations suivantes :
(T1) Permutation de deux vecteurs,
(T2) Multiplication dun vecteur par un scalaire non nul,
(T3) Ajout ` a lun des vecteurs dune combinaison lineaire des autres vecteurs.
Preuve : Soit (x
1
, , x
p
) une famille de vecteurs. Linvariance de Vect (x
1
, , x
p
) par les
transformations (T1) et (T2) est evidente.
Pour (T3), il sut de considerer le cas o` u lon ajoute un seul vecteur, le cas general suit
par recurrence. Quitte ` a changer lordre des vecteurs (ce qui ne change pas les sous-espaces
vectoriels engendres), il sut de prouver par exemple que pour tout K, on a
Vect (x
1
+x
2
, x
2
, , x
p
) = Vect (x
1
, x
2
, , x
p
). 36 CHAPITRE 3. FAMILLES DE VECTEURS
Soit y Vect (x
1
+x
2
, x
2
, , x
p
). Alors il existe (
1
, ,
p
) K
p
tel que
y =
1
(x
1
+x
2
) +
2
x
2
+ +
p
x
p
.
On a donc
y =
1
x
1
+ (
2
+
1
)x
2
+ +
p
x
p
.
et, par consequent, y Vect (x
1
, x
2
, , x
p
). On a donc montre que
Vect (x
1
+x
2
, x
2
, , x
p
) Vect (x
1
, x
2
, , x
p
).
Pour montrer linclusion reciproque, on consid`ere y Vect (x
1
, x
2
, , x
p
). Il existe donc
(
1
, ,
p
) K
p
tel que y =
1
x
1
+
2
x
2
+ +
p
x
p
, ce qui peut se recrire
y =
1
(x
1
+x
2
) + (
2

1
)x
2
+
2
x
3
+ +
p
x
p
.
On a donc bien y Vect (x
1
+x
2
, x
2
, , x
p
).
3.2.3 Familles libres et familles liees
Denition 3.2.9 Soit (u
1
, , u
k
) une famille de K
n
.
On dit que (u
1
, , u
k
) est libre (ou lineairement independante) si
(
1
, ,
k
) K
k
,
_
k

i=1

i
u
i
=

0
_
=
_

1
= =
k
= 0
_
.
On dit que (u
1
, , u
k
) est liee (ou lineairement dependante) si elle nest pas libre,
cest-` a-dire sil existe un k-uplet (
1
, ,
k
) = (0, , 0) tel que
k

i=1

i
u
i
=

0.
Convention : La famille vide est libre.
Proposition 3.2.10 Si (u
1
, , u
k
) est libre et x Vect (u
1
, , u
k
) alors il existe un unique
k-uplet (
1
, ,
k
) delements de K tel que x =

k
i=1

i
u
i
.
Autrement dit,
_
x =
k

i=1

i
u
i
=
k

i=1

i
u
i
_
=
_

1
=
1
, ,
k
=
k
_
.
Preuve : Legalite

k
i=1

i
u
i
=

k
i=1

i
u
i
entrane

k
i=1
(
i

i
)u
i
=

0, et donc, puisque
(u
1
, , u
k
) est libre,
i

i
= 0 pour tout i {1, , k}.
Proposition 3.2.11 Soit (x
1
, , x
k
) une famille de vecteurs de K
n
, et y K
n
.
1. Si y Vect (x
1
, , x
k
) alors la famille (x
1
, , x
k
, y) est liee.
2. Reciproquement, si la famille (x
1
, , x
k
, y) est liee et si de plus (x
1
, , x
k
) est libre
alors y Vect (x
1
, , x
k
).
Preuve :
1. Si y Vect (x
1
, , x
k
) alors il existe un k-uplet (
1
, ,
k
) delements de K tel
que y =

k
i=1

k
x
k
. On a donc

k
i=1

k
x
k
y =

0. Le (k +1)-uplet (
1
, ,
k
, 1)
nest pas identiquement nul donc la famille (x
1
, , x
k
, y) est liee. 3.2. FAMILLES DE VECTEURS 37
2. Reciproquement, supposons que (x
1
, , x
k
, y) soit liee et que (x
1
, , x
k
) soit libre.
Alors il existe un (k +1)-uplet non identiquement nul (
1
, ,
k
, ) de K
k+1
tel que
(3.1)
k

i=1

i
x
i
+y =

0.
On peut de plus armer que = 0. En eet, si etait nul alors (3.1) entranerait
que

k
i=1

i
x
i
=

0. Mais (x
1
, , x
k
) est libre, donc (
1
, ,
k
) = (0, , 0), puis
(
1
, ,
k
, ) = (0, , 0), ce qui est contraire ` a lhypoth`ese faite.
Donc nest pas nul, et on peut ecrire dapr`es (3.1),
y =
k

i=1

x
i
.
Autrement dit, y Vect (x
1
, , x
k
).
Proposition 3.2.12 Une famille (x
1
, , x
k
) est liee si et seulement si elle contient un vecteur
qui est combinaison lineaire des autres vecteurs.
Preuve : = Supposons que (x
1
, , x
k
) soit liee. Alors il existe un k-uplet (
1
, ,
k
) non
nul tel que

k
i=1

i
x
i
=

0. Comme le k-uplet nest pas nul, lun des
i
(disons
k
pour
xer les idees) nest pas nul et lon a donc
x
k
=
k1

i=1

k
x
i
,
et donc x
k
est combinaison lineaire des autres vecteurs de la famille.
= Supposons par exemple que x
k
soit combinaison lineaire de (x
1
, , x
k1
). Alors
x
k
Vect (x
1
, , x
k1
) et la proposition 3.2.11 montre que la famille (x
1
, , x
k
) est
liee.
Cas particuliers :
Toute famille contenant le vecteur nul est liee.
Une famille de deux vecteurs (x
1
, x
2
) est liee si et seulement si x
1
et x
2
sont colineaires,
i.e il existe K tel que
x
1
= x
2
ou x
2
= x
1
.
Pour determiner si une famille de vecteurs est libre ou liee, on a souvent recours ` a la proposition
suivante :
Proposition 3.2.13 1. Toute sous-famille dune famille libre est libre.
2. Toute sur-famille dune famille liee est liee.
3. Toute sur-famille dune famille generatrice est generatrice.
4. Une sous-famille dune famille non generatrice nest pas generatrice non plus.
Exercice : Prouver la proposition 3.2.13. 38 CHAPITRE 3. FAMILLES DE VECTEURS
3.2.4 Bases
Denition 3.2.14 Soit X un s.e.v de K
n
. On dit que la famille de vecteurs (u
1
, , u
k
) est
une base de X si elle est ` a la fois libre et generatrice de X.
Tout vecteur x de X se decompose alors de mani`ere unique en x =

k
i=1
x
i
u
i
. Le k-uplet
(x
1
, , x
k
) sappelle coordonnees de x par rapport ` a la base (u
1
, , u
k
).
Exemples :
1. Dans R
3
(ou C
3
), la famille constituee des vecteurs e
1
= (1, 0, 0), e
2
= (0, 1, 0) et e
3
=
(0, 0, 1) est une base. En eet, il clair que (e
1
, e
2
, e
3
) est libre. De plus, tout vecteur x =
(x
1
, x
2
, x
3
) peut secrire
x = x
1
e
1
+x
2
e
2
+x
3
e
3
.
La base (e
1
, e
2
, e
3
) est appelee base canonique de R
3
(ou C
3
).
2. En revanche, la famille (e
1
, e
2
) nest pas une base de R
3
. En eet, une combinaison
lineaire de e
1
et de e
2
a sa troisi`eme composante nulle. Le vecteur e
3
nest donc pas
dans Vect (e
1
, e
2
).
3. Denissons u = (1, 1, 1). La famille (e
1
, e
2
, e
3
, u) est generatrice de R
3
puisque contient la
famille (e
1
, e
2
, e
3
) qui est dej` a generatrice. Mais e
1
+e
2
+e
3
u =

0. Donc (e
1
, e
2
, e
3
, u)
est liee et (e
1
, e
2
, e
3
, u) nest pas une base.
4. Plus generalement, la famille (e
1
, , e
n
) de vecteurs de K
n
denie par
e
i
def
= (0, , 0, 1
..
position i
, 0, , 0)
est une base de K
n
. On lappelle base canonique de K
n
.
Theor`eme 3.2.15 Soit X un sous-espace vectoriel de K
n
, et (x
1
, , x
k
) une famille de vec-
teurs de X. Les trois proprietes suivantes sont equivalentes :
i) (x
1
, , x
k
) est une famille libre maximale (i.e si on ajoute un ou plusieurs vecteurs ` a la
famille, on obtient une famille liee),
ii) (x
1
, , x
k
) est une famille generatrice minimale (i.e si on retire un ou plusieurs vecteurs
` a la famille, la famille obtenue nest plus generatrice de X),
iii) (x
1
, , x
k
) est une base.
Preuve : En vertu de la proposition 3.2.13, il sut de traiter les cas o` u lon ajoute ou retire
un seul vecteur.
i) iii) : Soit (x
1
, , x
k
) une famille libre maximale. Montrons que cette famille est
aussi generatrice.
Soit y X. Alors par hypoth`ese, la famille (x
1
, , x
k
, y) est liee. La proposition 3.2.11
assure donc que y Vect (x
1
, , x
k
).
iii) i) : Soit (x
1
, , x
k
) une base de X. Par denition, cette famille est donc libre. De
plus, si y X alors y Vect (x
1
, , x
k
) puisque (x
1
, , x
k
) est aussi generatrice. Dapr`es
la proposition 3.2.11, on conclut donc que Vect (x
1
, , x
k
, y) est liee. Donc (x
1
, , x
k
)
est libre maximale.
ii) iii) : Soit (x
1
, , x
k
) generatrice minimale. Supposons par labsurde que cette
famille ne soit pas une base. Alors elle est liee, cest-` a-dire que lun de ses vecteurs disons
x
k
pour xer les idees est combinaison lineaire des autres :
(3.2) (
1
, ,
k1
) K
k1
, x
k
=
k1

i=1

i
x
i
. 3.3. RANG ET DIMENSION 39
Soit maintenant y X arbitraire. Comme (x
1
, , x
k
) est generatrice, il existe un k-uplet
(
1
, ,
k
) delements de K
k
tel que
y =
k

i=1

i
x
i
.
En tenant compte de (3.2), on trouve
y =
k1

i=1
(
i
+
i

k
)x
i
.
En consequence (x
1
, , x
k1
) est generatrice, ce qui contredit lhypoth`ese (x
1
, , x
k
)
generatrice minimale.
iii) ii) : Soit (x
1
, , x
k
) une base de X. Alors (x
1
, , x
k
) est generatrice. Retirons un
vecteur ` a cette famille, par exemple x
k
. La proposition 3.2.11 montre que x
k
ne peut etre
engendre par la famille (x
1
, , x
k1
) car alors (x
1
, , x
k
) serait liee. En consequence,
(x
1
, , x
k
) est bien generatrice minimale.
Theor`eme 3.2.16 (de la base incompl`ete) Soit X un s.e.v de K
n
non reduit ` a {

0}, m N

et p {0, , m}. Soit (x


1
, , x
m
) une famille generatrice de X telle que (x
1
, , x
p
) soit
libre
2
. Alors il existe un entier k {0, , mp} et k indices (i
1
, , i
k
) veriant p < i
1
<
< i
k
m et tels que (x
1
, , x
m
, x
i
1
, , x
i
k
) soit une base de X.
Preuve : (hors-programme)
Soit (x
1
, , x
m
) une famille generatrice de X dont les p premiers vecteurs constituent
une famille libre. Considerons lensemble
E = {(x
1
, , x
p
, x
j
1
, , x
j

) | 0mp, p<j
1
< <j

m et (x
1
, , x
j

) libre} .
Soit C lensemble des cardinaux des familles de E.
Lensemble E contient au moins un element : (x
1
, , x
p
). Donc C est un sous-ensemble
non vide de N. Par construction, m est un majorant de C. Donc C admet un element
maximal que lon peut toujours noter p +k. (On a donc bien 0 k mp).
Soit (x
1
, , x
p
, x
j
1
, , x
j

) un element de E de cardinal maximal. Cette famille est libre


et maximale par construction. Dapr`es la proposition 3.2.15, cest une base.
Remarque : Autrement dit, on peut completer toute famille libre (x
1
, , x
p
) de X en une
base de X en lui adjoignant des vecteurs bien choisis de (x
p+1
, , x
m
).
3.3 Rang et dimension
3.3.1 Dimension dun sous-espace vectoriel
Lemme 3.3.1 Dans K
n
une famille comportant n + 1 vecteurs est toujours liee.
Plus generalement, si X est un sous-espace vectoriel de K
n
engendre par une famille de p
vecteurs alors toute famille de vecteurs de X comportant au moins p + 1 elements est liee.
2
Avec la convention que (x1, , xp) est la famille vide si p = 0. 40 CHAPITRE 3. FAMILLES DE VECTEURS
Preuve : Ce resultat sera prouve au second semestre dans un cadre plus general. La preuve est
hors-programme mais nous en donnons les etapes essentielles an de satisfaire la curiosite
du lecteur. On fait une recurrence sur la dimension n, lhypoth`ese de recurrence etant :
(P
n
) Dans K
n
, toute famille de n + 1 vecteurs est liee.
Montrons que (P
1
) est vraie : Si et sont deux elements de K
1
, cest-` a-dire de K.
Il est clair quil existe (, ) K
2
non nul tel que + = 0 : si = 0, on peut choisir
par exemple = / et = 1 ; si = 0, le couple (1, 0) fait laaire.
Supposons (P
n
) vraie et demontrons (P
n+1
) : Soit donc (x
1
, , x
n+2
) une famille
de n + 2 vecteurs de K
n+1
. Notons (x
1
i
, , x
n+1
i
) les coordonnees de x
i
par rapport ` a la
base canonique de K
n+1
.

Etablir lexistence dun (n+2)-uplet (
1
, ,
n+2
) non nul de
K
n+2
tel que

n+2
i=1

i
x
i
= 0, revient ` a montrer que le syst`eme lineaire (S) suivant admet
une solution (
1
, ,
n+2
) non nulle :
(S)
_
_
_
x
1
1

1
+ +x
1
n+2

n+2
= 0,
. . . . . . . . . . . . . . . . . . . . . . . . . . .
x
n+1
1

1
+ +x
n+1
n+2

n+2
= 0.
1er cas : x
n+1
1
= = x
n+1
n+2
= 0.
Dans ce cas, la derni`ere ligne du syst`eme est veriee par nimporte quel (n+2)-uplet
(
1
, ,
n+2
). Si lon pose x

i
def
= (x
1
i
, , x
n
i
), la famille (x

1
, , x

n+1
) est une famille
de n + 1 vecteurs de K
n
. En vertu de lhypoth`ese de recurrence, elle est liee. Donc
(x

1
, , x

n+2
) aussi (cf prop. 3.2.13). On peut donc trouver (
1
, ,
n+2
) K
n+2
non nul tel que les n premi`eres lignes de (S) soient aussi satisfaites.
2`eme cas : Les coecients de la derni`ere ligne de (S) ne sont pas tous nuls.
Quitte ` a changer lordre des vecteurs de la famille et ` a multiplier la derni`ere ligne de
(S) par un scalaire non nul, on peut supposer que x
n+1
n+2
= 1. On a donc
(S)
_

_
x
1
1

1
+ +x
1
n+1

n+1
+x
1
n+2

n+2
= 0,
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
x
n
1

1
+ +x
n
n+1

n+1
+x
n
n+2

n+2
= 0,

n+2
=

n+1
i=1
x
n+1
i

i
.
Pour i {1, , n+1}, denissons
x

i
def
= (x
1
i
x
1
n+2
x
n+1
i
, , x
n
i
x
n
n+2
x
n+1
i
).
Le syst`eme (S) donne

n+1
i=1

i
x

i
=

0. Dapr`es (P
n
), la famille (x

1
, , x

n+1
) de K
n
est
liee. Donc il existe (
1
, ,
n+1
) non nul tel que

n+1
i=1

i
x

i
=

0. En denissant
n+2
conformement ` a la derni`ere ligne du syst`eme ci-dessus, on obtient

n+2
i=1

i
x
i
=

0.
Proposition 3.3.2 Soit X un sous-espace vectoriel de K
n
non reduit ` a {

0}. Alors X
admet une base composee dau plus n vecteurs. De plus, toutes les bases de X comportent
le meme nombre k delements. Ce nombre est appele dimension de X. On le note dimX.
Preuve : La preuve de lexistence dune base se fait par recurrence limitee. Par hypoth`ese,
X contient un vecteur x
1
= 0. On choisit alors un autre vecteur x
2
de X tel que (x
1
, x
2
)
soit une base. Si un tel vecteur nexiste pas, (x
1
) est une famille libre maximale et donc
une base (cf th. 3.2.15). 3.3. RANG ET DIMENSION 41
Plus generalement, supposons connue une famille libre (x
1
, , x
j1
) de X. Deux cas
peuvent se presenter. Ou bien (x
1
, , x
j1
) est libre maximale auquel cas le th. 3.2.15
assure que (x
1
, , x
j1
) est une base de X, ou bien cette famille libre nest pas maximale,
auquel cas on peut trouver x
j
X tel que (x
1
, , x
j
) soit libre.
Enn, en vertu du lemme 3.3.1, le procede de construction sarrete au plus tard apr`es
lobtention dune famille libre ` a n elements.
Reste ` a verier que toutes les bases ont le meme nombre delements. Donnons-nous deux
bases (x
1
, , x
k
) et (y
1
, , y

) de X. On a
X = Vect (x
1
, , x
k
) = Vect (y
1
, , y

).
La premi`ere egalite montre que X est engendre par k vecteurs. Dapr`es le lemme 3.3.1,
toute famille de k +1 vecteurs de X est donc liee. Comme (y
1
, , y

) est libre, on a donc


k. En echangeant les r oles des deux familles, on obtient k .
Remarque 3.3.3 1. Par convention, le sous-espace vectoriel {

0} a pour dimension 0.
2. La base canonique de K
n
comporte exactement n elements. Donc dimK
n
= n.
3. Les sous-espaces vectoriels de dimension 1 sont appeles droites vectorielles ou plus sim-
plement droites.
4. Les sous-espaces de dimension n 1 de K
n
sont appeles hyperplans. Lorsque n = 3, on
parle plut ot de plan. Enn, si n = 2, les hyperplans sont des droites vectorielles.
Remarque : Sachant que X est un sous-espace vectoriel de dimension k, pour montrer
quune famille (x
1
, , x
k
) de vecteurs de X est une base, il sut detablir que (x
1
, , x
k
)
est generatrice ou que (x
1
, , x
k
) est libre.
Exemples :
1.

Equation dune droite de R
2
:
Soit (, ) R
2
\(0, 0). La droite (vectorielle) engendree par le vecteur u = (, ) de
R
2
est lensemble des vecteurs v = (x, y) tels que x y = 0.
Reciproquement, si (a, b) = (0, 0), lensemble des vecteurs v = (x, y) de R
2
tels que
ax +by = 0 est la droite (vectorielle) de R
2
orthogonale au vecteur u = (a, b).
2.

Equation dun plan de R
3
:
Soit (a, b, c) un triplet non nul (i.e distinct de (0, 0, 0)) de R
3
. Lensemble des vecteurs
v = (x, y, z) de R
3
tels que
ax +by +cz = 0
est un plan (vectoriel) de R
3
. Cest le plan orthogonal au vecteur u = (a, b, c).
3.

Equation dun hyperplan de R
n
:
Plus generalement, si (a
1
, , a
n
) est un n-uplet non nul de R
n
, alors lensemble des
vecteurs v = (x
1
, , x
n
) tels que
a
1
x
1
+ +a
n
x
n
= 0
est un hyperplan de R
n
.
Proposition 3.3.4 Soit X et Y deux sous-espaces vectoriels de K
n
tels que X Y .
Alors dimX dimY et dimX = dimY si et seulement si X = Y . 42 CHAPITRE 3. FAMILLES DE VECTEURS
Preuve : Notons k = dimX et = dimY . Il est clair que toute base de X est une famille
libre de Y . Le theor`eme de la base incompl`ete assure donc que k .
Si X = Y , il est trivial que dimX = dimY . Reciproquement, supposons que dimX =
dimY et X Y . Soit (

f
1
, ,

f
k
) une base de X. Alors cest aussi une famille libre de Y .
Elle est maximale car dimY = k. Donc cest une base de Y . On a donc
Y = X = Vect (

f
1
, ,

f
k
).
3.3.2 Rang dune famille de vecteurs
Denition 3.3.5 Soit (x
1
, , x
p
) une famille de vecteurs de K
n
. On appelle rang
de la famille (x
1
, , x
p
), note rg (x
1
, , x
p
) la dimension du sous-espace vectoriel
Vect (x
1
, , x
p
).
Proposition 3.3.6 Soit (x
1
, , x
p
) une famille de vecteurs de K
n
.
i) On a toujours rg (x
1
, , x
p
) p.
ii) On a rg (x
1
, , x
p
) n avec egalite si et seulement si (x
1
, , x
p
) engendre K
n
.
iii) On a rg (x
1
, , x
p
) = p si et seulement si la famille (x
1
, , x
p
) est libre.
Preuve : Notons X = Vect (x
1
, , x
p
). Dapr`es le theor`eme de la base incompl`ete ap-
plique ` a la famille vide et ` a la famille generatrice (x
1
, , x
p
), il existe une sous-famille de
(x
1
, , x
p
) qui est une base de X. Cette famille a au plus p elements, ce qui montre le i).
Comme Vect (x
1
, , x
p
) K
n
, le ii) de la proposition resulte de la proposition 3.3.4.
Par denition meme de X, la famille (x
1
, , x
p
) est generatrice. Si de plus (x
1
, , x
p
)
est libre alors (x
1
, , x
p
) est une base de X, et donc dimX = p.
Si au contraire (x
1
, , x
p
) est liee, alors lun des vecteurs, par exemple x
p
, est combinaison
lineaire des autres. Donc X = Vect (x
1
, , x
p1
), et donc dapr`es i), dimX p 1.
Pour determiner le rang dune famille de vecteurs, on a souvent recours au resultat suivant :
Proposition 3.3.7 Le rang dune famille de vecteurs est invariant par les transformations
elementaires (T1), (T2) et (T3) denies dans la proposition 3.2.8.
Preuve : Cest une consequence immediate de la proposition 3.2.8.
3.3.3 Rang dune matrice
Denition 3.3.8 Soit A M
p,n
(K). On appelle rang de la matrice A (note rg A) le rang de la
famille de vecteurs constituee des p vecteurs lignes de A. Autrement dit, si lon note a
i
la i-`eme
ligne de A, on a
rg A = rg (a
1
, , a
p
).
Proposition 3.3.9 [Rang dune matrice echelonnee] Soit A une matrice echelonnee du type
suivant :
A =
_
_
_
_
_
_
_
_
0 a
1j
1

0 0 a
2j
2

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. a
kj
k

0 0 0
_
_
_
_
_
_
_
_
.
Alors rg A = k. 3.3. RANG ET DIMENSION 43
Preuve : Comme les p k derni`eres lignes de A sont nulles, le rang de A est egal ` a celui de
ses k premi`eres lignes. Par denition des indices j
i
, on a a
ij
i
= 0 pour i {1, , k}, donc
la famille constituee par les k premi`eres lignes est libre (pour le voir, revenir ` a la denition
dune famille libre). On a donc bien rg A = k.
3.3.4 Calcul pratique du rang dune famille de vecteurs
Considerons une matrice A M
n,p
(K). Nous avons vu dans le chapitre 2 quune succession
de transformations elementaires permettait dobtenir une matrice B echelonnee (methode du
pivot de Gauss). La proposition 3.3.7 assure que rg A = rg B. De plus, le rang de B peut etre
facilement calcule gr ace ` a la proposition 3.3.9.
Ces considerations nous sugg`erent une methode systematique permettant de calculer le rang
dune famille de vecteurs :
Comment calculer le rang dune famille de vecteurs
Pour calculer le rang dune famille de vecteurs (x
1
, , x
p
) de K
n
, on proc`ede comme suit :
1. On dispose les p vecteurs en ligne. On obtient ainsi une matrice ` a p lignes et n
colonnes :
A =
_
_
_
x
1
.
.
.
x
p
_
_
_ =
_
_
_
x
11
x
1n
.
.
.
.
.
.
x
p1
x
pn
_
_
_.
2. On applique aux lignes de la matrice A des transformations elementaires (T1), (T2)
ou (T3) an dobtenir une matrice B echelonnee et de meme rang que A. Pour ce
faire, la methode du pivot de Gauss est tout indiquee.
Le rang de A est alors egal au nombre de lignes non nulles de B.
Exemple : Calculer le rang de la famille (

V
1
,

V
2
,

V
3
,

V
4
) composee des vecteurs de R
5
suivants :

V
1
= (1, 0, 0, 2, 1),

V
2
= (0, 1, 2, 1, 0),

V
3
= (0, 1, 2, 1, 1),

V
4
= (0, 0, 0, 2, 1).
On ecrit la matrice A de lignes

V
1
,

V
2
,

V
3
et

V
4
:
_
_
_
_
1 0 0 2 1
0 1 2 1 0
0 1 2 1 1
0 0 0 2 1
_
_
_
_
puis on applique lalgorithme du pivot de Gauss an de transformer A en une matrice echelonnee.
En ajoutant (L
2
) ` a (L
3
), puis en retranchant (L
3
) ` a (L
4
), on trouve
rg A = rg
_
_
_
_
1 0 0 2 1
0 1 2 1 0
0 0 0 2 1
0 0 0 2 1
_
_
_
_
= rg
_
_
_
_
1 0 0 2 -1
0 1 -2 1 0
0 0 0 2 -1
0 0 0 0 0
_
_
_
_
Cette derni`ere matrice est echelonnee avec trois lignes non nulles. Donc
rg (

V
1
,

V
2
,

V
3
,

V
4
) = rg A = 3. 44 CHAPITRE 3. FAMILLES DE VECTEURS
Chapitre 4
Determinants
A ce stade, la methode du pivot de Gauss est le seul outil dont nous disposons pour determiner
si une famille de vecteurs est libre ou liee (en fait, cette methode donne un renseignement un
peu plus precis, ` a savoir le rang de la famille en question). Dans ce chapitre, nous presentons
un crit`ere alternatif permettant de determiner si une famille est libre ou liee : le calcul du
determinant.
Cette notion de determinant ne vous est probablement pas etrang`ere dans le cas des vecteurs
de R
2
. Vous savez sans doute que deux vecteurs a = (x
1
, y
1
) et

b = (x
2
, y
2
) de R
2
sont colineaires
1
si et seulement si

x
1
y
1
x
2
y
2

def
= x
1
y
2
x
2
y
1
= 0.
Nous allons generaliser la denition du determinant au cas de n vecteurs de K
n
et disposerons
ainsi dun crit`ere permettant de savoir si ces n vecteurs sont lies ou libres.
4.1 Denition du determinant
Proposition 4.1.1 Le determinant est lunique application qui ` a une matrice carree A de
M
n
(K) associe un scalaire de K note det A, et verie les proprietes suivantes :
1. Linearite par rapport ` a chaque ligne :
det
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
+a

i
.
.
.
a
n
_
_
_
_
_
_
_
_
= det
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
.
.
.
a
n
_
_
_
_
_
_
_
_
+ det
_
_
_
_
_
_
_
_
a
1
.
.
.
a

i
.
.
.
a
n
_
_
_
_
_
_
_
_
ligne i
det
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
.
.
.
a
n
_
_
_
_
_
_
_
_
= det
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
.
.
.
a
n
_
_
_
_
_
_
_
_
ligne i
2. Caract`ere alterne : Si la matrice A a deux lignes identiques alors det A = 0.
3. Normalisation : det I
n
= 1.
1
ou lies puisquil sagit de deux vecteurs
45 46 CHAPITRE 4. D

ETERMINANTS
Proposition 4.1.2 Lapplication det est de plus antisymetrique, cest-` a-dire que
det
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
j
.
.
.
a
i
.
.
.
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
ligne i
ligne j
= det
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
.
.
.
a
j
.
.
.
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
ligne i
ligne j
Reciproquement, toute application de M
n
(K) dans K lineaire par rapport ` a chaque ligne et
antisymetrique, est alternee.
Preuve : Comme lapplication det est lineaire et alternee par rapport ` a chaque ligne, on a
0 = det
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
+a
j
.
.
.
a
i
+a
j
.
.
.
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
i
j
= det
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
.
.
.
a
i
+a
j
.
.
.
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
i
j
+ det
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
j
.
.
.
a
i
+a
j
.
.
.
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
i
j
= det
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
.
.
.
a
i
.
.
.
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
i
j
+ det
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
.
.
.
a
j
.
.
.
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
i
j
+ det
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
j
.
.
.
a
i
.
.
.
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
i
j
+ det
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
j
.
.
.
a
j
.
.
.
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
i
j
= 0 + det
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
.
.
.
a
j
.
.
.
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
i
j
+ det
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
j
.
.
.
a
i
.
.
.
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
i
j
+ 0,
do` u lantisymetrie.
Reciproquement, si F F(M
n
(K); K) est une application antisymetrique, on a par
denition
F
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
j
.
.
.
a
i
.
.
.
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
i
j
= F
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
.
.
.
a
j
.
.
.
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
i
j 4.2. PROPRI

ET

ES

EL

EMENTAIRES DU D

ETERMINANT 47
Ces deux termes sont donc nuls quand a
i
=a
j
.
Idee de la preuve de lexistence de lapplication determinant :
Notons (e
1
, , e
n
) la base canonique de K
n
. Tout vecteur a
i
de K
n
peut se decomposer en
a
i
=
n

j=1
a
ij
e
j
.
En utilisant la linearite par rapport ` a chaque ligne, on en deduit que
det
_
_
_
a
1
.
.
.
a
n
_
_
_ =
n

j
1
=1

n

jn=1
a
1j
1
a
njn
det
_
_
_
e
j
1
.
.
.
e
jn
_
_
_.
On en deduit que lapplication det est uniquement determinee par sa valeur sur les vecteurs de la
base canonique. Gr ace au caract`ere alterne, on sait de plus que limage dune famille contenant
deux fois le meme vecteur de la base canonique par lapplication det est nul. Par antisymetrie,
on constate de plus que lorsque les e
j
i
sont choisis deux ` a deux distincts, det
_
_
_
e
j
1
.
.
.
e
jn
_
_
_ peut etre
calcule ` a partir de det
_
_
_
e
1
.
.
.
e
n
_
_
_ en eectuant un nombre ni de permutations de lignes. Donc la
valeur de det I
n
(qui est prise egale ` a 1) determine lapplication det de fa con unique.
Notation : Soit A = (a
ij
)
1i,jn
une matrice. Le determinant de A est souvent note
det A =

a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn

.
4.2 Proprietes elementaires du determinant
Proposition 4.2.1 Pour tout K et A M
n
(K), on a det(A) =
n
det A.
Preuve : En notant a
1
, , a
n
les lignes de A, on a
det(A) = det
_
_
_
_
_
_
_
a
1
a
2
a
3
.
.
.
a
n
_
_
_
_
_
_
_
= det
_
_
_
_
_
_
_
a
1
a
2
a
3
.
.
.
a
n
_
_
_
_
_
_
_
=
2
det
_
_
_
_
_
_
_
a
1
a
2
a
3
.
.
.
a
n
_
_
_
_
_
_
_
= =
n
det
_
_
_
_
_
_
_
a
1
a
2
a
3
.
.
.
a
n
_
_
_
_
_
_
_
.
Proposition 4.2.2 Si lon ajoute ` a une ligne une combinaison lineaire des autres lignes,
alors le determinant ne change pas. 48 CHAPITRE 4. D

ETERMINANTS
Preuve : Supposons que lon ajoute

j=i

j
a
j
` a la ligne i. En utilisant la propriete de linearite
par rapport aux lignes, on a alors :
det
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
+

j=i
a
j
.
.
.
a
n
_
_
_
_
_
_
_
_
= det
_
_
_
_
_
_
_
_
a
1
.
.
.
a
i
.
.
.
a
n
_
_
_
_
_
_
_
_
+

j=i

j
det
_
_
_
_
_
_
_
_
a
1
.
.
.
a
j
.
.
.
a
n
_
_
_
_
_
_
_
_
ligne i
Les n 1 derniers termes de linegalite de droite sont des determinants de matrices ayant
deux lignes identiques. En vertu du caract`ere alterne de lapplication det, ils sont nuls,
do` u le resultat.
Proposition 4.2.3 Si lune des lignes de A est nulle alors det A = 0.
Preuve : Il sut decrire :
det
_
_
_
_
_
_
_
_
a
1
.
.
.

0
.
.
.
a
n
_
_
_
_
_
_
_
_
= det
_
_
_
_
_
_
_
_
a
1
.
.
.
0

0
.
.
.
a
n
_
_
_
_
_
_
_
_
= 0 det
_
_
_
_
_
_
_
_
a
1
.
.
.

0
.
.
.
a
n
_
_
_
_
_
_
_
_
= 0.
Proposition 4.2.4 Si A est une matrice diagonale alors det A est le produit des termes dia-
gonaux. De meme, si A est une matrice triangulaire superieure alors det A est le produit des
termes diagonaux.
Preuve :
1. Cas o` u A est diagonale. On a alors par linearite
det A =

a
11
0 0
0 a
22
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 a
nn

= a
11

1 0 0
0 a
22
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 a
nn

= a
11
a
22

1 0 0
0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 a
nn

= = (

n
i=1
a
ii
)

1 0 0
0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 1

n
i=1
a
ii
. 4.2. PROPRI

ET

ES

EL

EMENTAIRES DU D

ETERMINANT 49
2. Cas o` u A est triangulaire superieure ` a diagonale non nulle. En reprenant le calcul
precedent, on obtient
2
det A =
_
n

i=1
a
ii
_

1
0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1

.
Il sut donc de montrer que le determinant de toute matrice triangulaire superieure
avec des 1 sur la diagonale est egal ` a 1.
Considerons donc une matrice A de ce type et notons (L
1
), , (L
n
) ses lignes. En
retranchant successivement a
1n
(L
n
) ` a (L
1
), a
2n
(L
n
) ` a (L
2
), jusqu` a a
1n1
(L
n1
) ` a
(L
n1
) (operations qui ne changent pas le determinant), on fait apparatre des 0
sur la derni`ere colonne et lon trouve :

1
0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1

1 0
0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 1

.
Letape suivante consiste ` a retrancher a
j n1
(L
n1
) ` a la j-i`eme ligne an de faire ap-
paratre des 0 dans lavant derni`ere colonne. En iterant le procede, on conclut nale-
ment que le determinant cherche est egal ` a celui de lidentite, donc ` a 1.
3. Cas o` u A est triangulaire superieure avec au moins un terme diagonal nul. Notons
i lindice du plus grand coecient diagonal nul de A. En utilisant la linearite de
lapplication det par rapport aux n i derni`eres lignes, on montre aisement que
det A = a
i+1i+1
a
nn
det
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
11

0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. a
i1i1
.
.
.
.
.
.
.
.
. 0
.
.
.
.
.
. 1
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Ensuite, on proc`ede comme dans letape 2 pour faire apparatre des 0 dans les n i
derni`eres colonnes. On obtient ainsi
det A = a
i+1i+1
a
nn
det
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
11
0 0
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. a
i1i1
.
.
.
.
.
.
.
.
. 0 0
.
.
.
.
.
. 1
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
,
2
Les designent des coecients dont la valeur exacte nintervient pas dans les calculs 50 CHAPITRE 4. D

ETERMINANTS
et lon conclut immediatement que le determinant vaut 0 puisque la i-i`eme ligne de
la matrice ci-dessus est nulle.
Proposition 4.2.5 Soit (a
1
, , a
n
) une famille de vecteurs de K
n
.
La famille (a
1
, , a
n
) est liee si et seulement si det
_
_
_
a
1
.
.
.
a
n
_
_
_ = 0.
Preuve :
= Supposons (a
1
, , a
n
) liee. Alors lun des vecteurs de la famille est combinaison
lineaire des autres, par exemple, a
n
=

n1
j=1

j
a
j
. En appliquant la proposition 4.2.2,
on a donc
det
_
_
_
_
_
a
1
.
.
.
a
n1
a
n
_
_
_
_
_
= det
_
_
_
_
_
a
1
.
.
.
a
n1

0 +

n1
j=1

j
a
j
_
_
_
_
_
= det
_
_
_
_
_
a
1
.
.
.
a
n1

0
_
_
_
_
_
= 0.
= On montre limplication inverse par contraposition.
Supposons donc que (a
1
, , a
n
) soit libre et notons A la matrice formee par cette
famille de vecteurs. Lalgorithme du pivot de Gauss permet dobtenir une matrice
echelonnee B ` a partir de A en eectuant des permutations de lignes ou en ajoutant des
combinaisons lineaires dautres lignes. En vertu du caract`ere alterne du determinant,
et de la proposition 4.2.2, on a donc | det A| = | det B|. Mais en notant

b
i
la i-`eme
ligne de B, on a aussi Vect (a
1
, a
n
) = Vect (

b
1
,

b
n
) (cf proposition 3.3.7). Donc
le rang de B est egal ` a celui de A : il vaut n. Cela montre que la matrice echelonnee
B est en realite triangulaire superieure ` a diagonale non nulle. Dapr`es la proposition
4.2.4, on a donc det B = 0, do` u det A = 0.
Theor`eme 4.2.6 Pour toute matrice A de M
n
(K), on a det A = det
t
A.
Preuve : Voir le cours du second semestre.
Corollaire 4.2.7 Toutes les proprietes enoncees sur les lignes des matrices pour le determinant,
sont egalement vraies pour les colonnes : invariance du determinant par ajout dune combinaison
lineaire dautres colonnes, caract`ere alterne par rapport aux colonnes, linearite,. . . De plus, le
determinant dune matrice triangulaire inferieure est egal au produit des termes diagonaux.
Exercice : Prouver le corollaire ci-dessus.
4.3 Calcul du determinant par pivot de Gauss
Principe : A laide de transformations elementaires sur les lignes, se ramener au calcul du
determinant dune matrice triangulaire. 4.4. D

EVELOPPEMENT DE LAPLACE 51
Considerons une matrice carree A M
n
(K). Lalgorithme du pivot de Gauss decrit au
chapitre 2 permet dobtenir une matrice T echelonnee apr`es une succession de transforma-
tions elementaires. Comme la matrice de depart est carree, la matrice T est triangulaire
superieure. Les transformations elementaires eectuees durant le pivot sont de type (T1)
(permutation de deux lignes) ce qui revient ` a changer le determinant en son oppose, ou de
type (T3) (ajout dune combinaison lineaire de lignes), ce qui ne change pas le determinant.
On a donc nalement
det A = (1)

det T = (1)

i=1
t
ii
o` u est le nombre de permutations de lignes eectuees au cours du pivot.
Exemple :

1 0 4
2 3 1
1 0 1

1 0 4
2 3 1
0 0 5

(ajout de (L
1
) ` a (L
3
)),
=

1 0 4
0 3 7
0 0 5

(on retranche 2(L


1
) ` a (L
2
)).
La matrice ainsi obtenue est triangulaire superieure et le produit de ses termes diagonaux est
15. On a donc det A = 15.
Remarque 4.3.1 Comme det A = det
t
A, on peut egalement eectuer un pivot de Gauss sur
les colonnes, ou meme alterner operations sur les lignes et operations sur les colonnes.
Attention : 1. Pouvoir faire indieremment des operations sur les lignes et sur les colonnes
est specique au calcul du determinant. Faire un pivot de Gauss sur les colonnes pour
resoudre un syst`eme lineaire donne un resultat faux ! ! !
2. On prendra garde au fait que multiplier une ligne (ou une colonne) par un scalaire
change le determinant.
4.4 Developpement de Laplace
Lemme 4.4.1 Soit B M
n1
(K) et A M
n
(K) denie par
A =
_
_
_
_
_
1 0 0
0
.
.
. B
0
_
_
_
_
_
.
Alors det A = det B.
Preuve : La methode du pivot de Gauss permet de transformer B en une matrice T
M
n1
(K) triangulaire superieure gr ace ` a une succession de transformations elementaires
sur les lignes de B. Si lon note le nombre de permutations eectuees au cours du pivot,
lon sait de plus que det B = (1)

det T. Remarquons queectuer les memes operations


elementaires sur les (n 1) derni`eres lignes de A naecte nullement la premi`ere ligne et
conduit donc ` a la matrice
C
def
=
_
_
_
_
_
1 0 0
0
.
.
. T
0
_
_
_
_
_
, 52 CHAPITRE 4. D

ETERMINANTS
si bien que det A = (1)

det C.
Enn, il est clair que la matrice C est triangulaire superieure. Par consequent, dapr`es la
proposition 4.2.4,
det C =
n1

i=1
t
ii
.
On a donc
det A = (1)

n1

i=1
t
ii
= (1)

det T = det B.
Lemme 4.4.2 Soit B M
n1
(K) et A M
n
(K) la matrice obtenue ` a partir de B par ad-
jonction de la colonne i
_
_
_
_
_
_
0
.
.
.
0
1
0
.
.
.
0
_
_
_
_
_
_
en j-i`eme position et de la ligne (0 0 1
..
j
0 0) en i-i`eme
position :
A =
_
_
_
_
_
_
_
_
_
_
_
_
0
B
1
.
.
. B
2
0
0 0 1 0 0
0
B
3
.
.
. B
4
0
_
_
_
_
_
_
_
_
_
_
_
_
.
Alors det A = (1)
i+j
det B.
Preuve : On permute les lignes (L
i
) et (L
i1
) puis (L
i1
) et (L
i2
), etc. Apr`es i 1 permu-
tations de ce type, on obtient la matrice
A

def
=
_
_
_
_
_
_
_
_
_
_
0 0 1 0 0
0
B
1
.
.
. B
2
B
3
.
.
. B
4
0
_
_
_
_
_
_
_
_
_
_
.
Ensuite, on permute les colonnes j et j 1 de A

, puis j 1 et j 2, etc, jusqu` a obtenir


apr`es j 1 permutations de ce type, le matrice A

def
=
_
1 0
0 B
_
. Chaque permutation de
lignes ou de colonnes change le determinant en son oppose. On a donc nalement
det A = (1)
i1
det A

= (1)
i+j2
det A

.
Enn, dapr`es le lemme 4.4.1, on a det A

= det B, do` u le resultat voulu. 4.4. D

EVELOPPEMENT DE LAPLACE 53
Denition 4.4.3 Soit A M
n
(K) et 1 i, j n. On appelle mineur de A dindice (i, j) la
matrice A

ij
M
n1
(K) obtenue en rayant la i-i`eme ligne et la j-i`eme colonne de A :
A

ij
def
=
_
_
_
_
_
_
_
_
a
11
a
1j
a
1n
.
.
.
.
.
.
.
.
.
a
i1
a
ij
a
in
.
.
.
.
.
.
.
.
.
a
n1
a
nj
a
nn
_
_
_
_
_
_
_
_
On appelle cofacteur dindice (i, j) le scalaire A
ij
def
= (1)
i+j
det A

ij
.
Exemple : Soit A =
_
_
2 3 1
2 1 0
1 2 0
_
_
. Alors A

12
=
_
2 0
1 0
_
et A

22
=
_
2 1
1 0
_
.
De plus, A
12
= det A

12
= 0 et A
22
= det A

22
= 1.
Exercice : Calculer les autres mineurs principaux et cofacteurs de A.
Theor`eme 4.4.4 Soit A M
n
(K) et 1 i, j n. Alors on dispose des deux formules
suivantes pour calculer le determinant de A :
Developpement de Laplace par rapport ` a la ligne i :
(4.1) det A =
n

j=1
(1)
i+j
a
ij
det A

ij
=
n

j=1
a
ij
A
ij
.
Developpement de Laplace par rapport ` a la colonne j :
(4.2) det A =
n

i=1
(1)
i+j
a
ij
det A

ij
=
n

i=1
a
ij
A
ij
.
Preuve : Remarquons que le developpement de Laplace de
t
A par rapport ` a la ligne j nest
autre, compte tenu de det A = det
t
A, que le developpement de Laplace de A par rapport
` a la colonne j. Il sut donc de demontrer (4.1).
Notons e
1
= (1, 0, , 0), , e
n
= (0, , 0, 1) la base canonique de K
n
, et a
i
la i-i`eme
ligne de A. On a a
i
=

n
j=1
a
ij
e
j
.
En utilisant la linearite du determinant par rapport ` a la ligne i, on trouve donc
(4.3) det A =
n

j=1
a
ij
det

A
ij
avec

A
ij
def
=
_
_
_
_
_
_
_
_
_
_
_
_
a
11
a
1j1
a
1j
a
1j+1
a
1n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
i11
a
i1j1
a
i1j
a
i1,j+1
a
i1n
0 0 1 0 0
a
i+11
a
i+1j1
a
i+1j
a
i+1,j1
a
i+1n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
nj1
a
nj
a
nj+1
a
nn
_
_
_
_
_
_
_
_
_
_
_
_
. 54 CHAPITRE 4. D

ETERMINANTS
Remarquons que la colonne j peut se decomposer en
_
_
_
_
_
_
_
_
_
_
_
_
a
1j
.
.
.
a
i1j
1
a
i+1j
.
.
.
a
nj
_
_
_
_
_
_
_
_
_
_
_
_
= a
1j
_
_
_
_
_
_
_
_
_
_
_
_
1
0
.
.
.
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
+ +a
i1j
_
_
_
_
_
_
_
_
_
_
_
_
0
.
.
.
1
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
+
_
_
_
_
_
_
_
_
_
_
_
_
0
.
.
.
0
1
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
+a
i+1j
_
_
_
_
_
_
_
_
_
_
_
_
0
.
.
.
0
1
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
+ +a
nj
_
_
_
_
_
_
_
_
_
_
_
_
0
.
.
.
.
.
.
0
1
_
_
_
_
_
_
_
_
_
_
_
_
.
En utilisant maintenant la linearite du determinant par rapport ` a la colonne j, on trouve
det

A
ij
= a
1j

a
11
a
1j1
1 a
1j+1
a
1n
0
a
i11
.
.
. a
i1n
0 0 0 0 0
a
i+11
0 a
i+1n

.
.
.
0

+ +a
ij

a
11
a
1j1
0 a
1j+1
a
1n

.
.
.
a
i11
0 a
i1n
0 0 1 0 0
a
i+11
0 a
i+1n

.
.
.
0

+ +a
nj

a
11
a
1j1
0 a
1j+1
a
1n
0
a
i11
.
.
. a
i1n
0 0 0 0 0
a
i+11
.
.
. a
i+1n
0
1

.
Tous les termes de cette somme sauf le i-`eme sont nuls car leur i-i`eme ligne est nulle. Le
i-i`eme terme est le determinant de la matrice obtenue en rempla cant la i-`eme ligne et la
j-`eme colonne de A par des 0, sauf ` a la place (i, j) o` u lon met un 1. Le lemme 4.4.2 assure
que ce terme vaut (1)
i+j
det A

ij
. En revenant ` a legalite (4.3), on obtient la formule (4.1).
Exemples :
1. Calcul du determinant en dimension n = 1.
Toute matrice de M
1
(K) est diagonale ! Si A est une matrice carree de taille 1, on a donc
tout simplement det A = a
11
.
2. Calcul du determinant en dimension n = 2.
Soit A M
2
(K). Un developpement de Laplace par rapport ` a la premi`ere ligne donne
det A =

a
11
a
12
a
21
a
22

= a
11
det(a
22
) a
12
det(a
21
) = a
11
a
22
a
12
a
21
. 4.5. LE D

ETERMINANT ET LE RANG 55
3. Calcul du determinant en dimension n = 3. Soit A M
3
(K). Un developpement de La-
place par rapport ` a la premi`ere ligne donne

a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33

= a
11

a
22
a
23
a
32
a
33

a
12

a
21
a
23
a
31
a
33

+a
13

a
21
a
22
a
31
a
32

.
En utilisant la formule du determinant pour les matrices 2 2, on conclut que

a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33

= a
11
a
22
a
33
+a
12
a
23
a
31
+a
13
a
32
a
21
a
11
a
23
a
32
a
12
a
21
a
33
a
13
a
22
a
31
.
4.5 Le determinant et le rang
Denition 4.5.1 Soit A M
p,n
(K) et k min(p, n). On dit que A

M
k
(K) est une matrice
extraite dordre k de A sil existe k entiers i
1
, , i
k
tels que 1 i
1
< < i
k
p et k entiers
j
1
, , j
k
tels que 1 j
1
< < j
k
p veriant a

= a
ij

pour 1 , k.
Remarque 4.5.2 Une matrice A

M
k
(K) est une matrice extraite dordre k de A si et
seulement si A peut etre transformee en la matrice suivante par permutations de lignes et de
colonnes :
_
A



_
.
Denition 4.5.3 Si A

M
k
(K) est une matrice extraite de A, on dit que det A

est un
determinant extrait (dordre k) de A.
Theor`eme 4.5.4 Soit A M
p,n
(K). Notons a
1
, , a
p
les vecteurs lignes (de K
n
) de A, et
a
1
, , a
n
les vecteurs colonnes (de K
p
) de A. Les trois propositions suivantes sont equivalentes :
1. rg (a
1
, , a
n
) k,
2. rg (a
1
, , a
p
) k,
3. Il existe un determinant extrait dordre k de A qui est non nul.
Preuve : Prouvons dabord ii) iii). Supposons donc que la famille (a
1
, , a
p
) constituee
par les p vecteurs lignes (appartenant ` a K
n
) de A soit de rang au moins au egal ` a k. Dapr`es
le theor`eme de la base incompl`ete, on peut en extraire une sous-famille (a
i
1
, , a
i
k
) de
rang k. Le rang est invariant par permutation des vecteurs de la famille. Donc la matrice
A est de meme rang que la matrice B suivante :
B
def
=
_
_
_
_
_
a
i
1
.
.
.
a
i
k
C
_
_
_
_
_
o` u CM
pk,n
est la matrice constituee par les lignes de A nappartenant pas ` a (a
i
1
, , a
ip
)
(peu importe lordre des lignes).
Notons B

M
k,n
la matrice formee par les k premi`eres lignes de B. Par pivot de Gauss,
on peut transformer B

en une matrice echelonnee C

de meme rang k. Comme k p, 56 CHAPITRE 4. D

ETERMINANTS
cette matrice est du type :
C

=
_
_
_
_
_
_
0 c

1j
1

.
.
. 0 c

2j
2

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 c

kj
k

_
_
_
_
_
_
.
Par denition les termes c

1j
i
ne sont pas nuls. Donc les colonnes j
1
, , j
k
de C

sont
lineairement independantes. En eectuant des permutations de colonnes sur C

(ce qui ne
modie toujours pas le rang), on a donc rg C

= rg D

= k avec
D

=
_
_
_
_
_
_
c

1j
1
c

1j
k
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 c

kj
k

_
_
_
_
_
_
.
Si maintenant on fait subir ` a la matrice B les permutations de colonnes qui ont permis de
passer de C

` a D

, on trouve une certaine matrice (par blocs) D M


p,n
(K) :
D =
_
A



_
avec a

= a
ij

et 1 k, 1 n.
Si lon applique ` a A

les operations elementaires qui ont permis de passer de B

` a C

, mais
en rempla cant ` a chaque fois la colonne j

par la colonne , on obtient precisement les k


premi`eres colonnes de la matrice D

ci-dessus qui sont visiblement independantes. Comme


det A

est egal (au signe pr`es) au determinant de la matrice carree de taille k constituee
des k premi`eres colonnes de D

, on conclut que det A

= 0.
Prouvons maintenant limplication iii) ii). Soit donc
A

=
_
_
_
a
i
1
j
1
a
i
1
j
k
.
.
.
.
.
.
a
i
k
j
1
a
i
k
j
k
_
_
_
une matrice extraite de A de determinant non nul.
Si lon note a

i
la i-i`eme ligne de A

, alors on a rg (a

1
, , a

k
) = k dapr`es la proposition
4.2.5. Rajoutons ` a ces k vecteurs de K
k
les n k composantes manquantes pour en faire
des vecteurs de K
n
, i.e on pose
a

def
= (a
i

j
1
, , a
i

j
k
, , a
i

n
).
En revenant ` a la denition de lindependance lineaire, il est facile de verier que la famille
(a

1
, , a

k
) est egalement libre. Si lon permute les indices des colonnes an de remettre
les composantes dans lordre, on ne change pas le caract`ere libre (exercice : le verier).
Et on conclut donc que rg (a
i
1
, , a
i
k
) = k, puis que rg (a
1
, a
p
) k.
En appliquant le resultat ii) iii) ` a la matrice
t
A, on trouve que i) iii).
Corollaire 4.5.5 Pour A M
p,n
(K), les matrices A et
t
A ont meme rang. Autrement dit,
rg (a
1
, , a
n
) = rg (a
1
, , a
p
).
Ce rang est egal ` a lentier k maximal tel quil existe un determinant extrait dordre k de A non
nul. 4.6. R

ESOLUTION DUN SYST


`
EME LIN

EAIRE PAR LA M

ETHODE DE CRAMER 57
4.6 Resolution dun syst`eme lineaire par la methode de Cramer
Dans cette section, nous presentons une methode alternative ` a celle du pivot de Gauss pour
resoudre les syst`emes lineaires de n equations ` a n inconnues.
Denition 4.6.1 On dit quun syst`eme lineaire (S) de n equations ` a n inconnues est de Cra-
mer sil admet une unique solution.
Proposition 4.6.2 Un syst`eme est de Cramer si et seulement si le determinant de la matrice
associee est non nul.
Preuve : Notons (S) le syst`eme initial, et A sa matrice. La methode du pivot de Gauss permet
de se ramener ` a un syst`eme echelonne equivalent (T) de matrice B. Comme on na eectue
que des transformations elementaires pour passer de (S) ` a (T), on a | det A| = | det B|.
Donc det A = 0 det B = 0.
Supposons dabord que det B = 0. Comme B est echelonnee, ceci revient ` a dire que B a
une ligne nulle. (i.e k < n). Dans ce cas, lensemble des solutions de (T) (et donc de (S))
est ou bien vide ou bien inni suivant la valeur du second membre, et le syst`eme nest pas
de Cramer. On a donc montre que
(det B = 0) = ((S) nest pas de Cramer) .
Si au contraire det B = 0 alors B na pas de ligne nulle, i.e B est triangulaire superieure ` a
diagonale non nulle (car det B =

n
i=1
b
ii
). Dans ce cas (T) a une unique solution obtenue
par la methode de la remontee, et (S) est donc de Cramer. On a donc montre que
(det B = 0) = ((S) est de Cramer) .
Theor`eme 4.6.3 Soit (S) un syst`eme de Cramer de matrice A M
n
(K) et de second membre

b = (b
1
, , b
n
). Notons (a
1
, , a
n
) les vecteurs colonnes de A.
Alors lunique solution (x
1
, , x
n
) de (S) est donnee par les formules de Cramer :
x
i
=
det(a
1
, , a
i1
,

b, a
i+1
, , a
n
)
det A
.
Preuve : Considerons un syst`eme de Cramer
_

_
x
1
a
11
+ +x
n
a
1n
= b
1
.
.
.
x
1
a
n1
+ +x
n
a
nn
= b
n
.
Ce syst`eme peut se recrire sous la forme plus compacte :
x
1
a
1
+ +x
n
a
n
=

b
o` u laddition est prise au sens des vecteurs colonnes. On a donc, gr ace ` a la linearite du
determinant par rapport ` a la colonne i,
det(a
1
, , a
i1
,

b, a
i+1
, , a
n
) = det(a
1
, , a
i1
, x
1
a
1
+ +x
n
a
n
, a
i+1
, , a
n
),
=

n
j=1
x
j
det(a
1
, , a
i1
, a
j
, a
i+1
, , a
n
).
Si i = j, la famille (a
1
, , a
i1
, a
j
, a
i+1
, , a
n
) contient deux fois le vecteur a
j
. Le
determinant correspondant est donc nul. Reste nalement
det(a
1
, , a
i1
,

b, a
i+1
, , a
n
) = x
i
det(a
1
, , a
n
). 58 CHAPITRE 4. D

ETERMINANTS
Comparaison des methodes du pivot de Gauss et de Cramer
On dispose donc maintenant de deux methodes pour la resolution des syst`emes lineaires
de n equations ` a n inconnues. La methode de Cramer a lavantage de donner des
formules explicites pour la solution du syst`eme. On peut donc se demander ` a quoi sert la
methode du pivot de Gauss. Son interet vient de sa rapidite. En eet, la methode du pivot
de Gauss necessite environ n
3
operations elementaires (additions, soustractions, multipli-
cations ou divisions) pour resoudre un syst`eme lineaire n n.
En revanche, le calcul de la solution ` a laide des formules de Cramer necessite le cal-
cul de n + 1 determinants de taille n. Chaque determinant peut se calculer ou bien
par developpement direct en iterant la formule de Laplace (ce qui demande environ n!
operations elementaires) ou bien par pivot de Gauss (environ n
3
operations). Il faudra
donc eectuer au moins n
4
operations pour calculer la solution ` a laide des formules de
Cramer.
En pratique donc, on nutilise presque jamais les formules de Cramer pour resoudre un
syst`eme lineaire, sauf eventuellement pour resoudre des syst`emes tr`es petits (2 2 ou ` a la
rigueur 3 3).
Chapitre 5
Polyn omes
5.1 Lensemble des polyn omes `a une indeterminee
5.1.1 Denitions
Denition 5.1.1 On appelle polyn ome ` a une indeterminee et coecients dans K ou
plus simplement polyn ome, toute expression algebrique de la forme
a
p
X
p
+a
p1
X
p1
+ +a
1
X +a
0
,
avec a
i
K pour tout i {0, , p}.
Les scalaires a
i
sont appeles coecients du polyn ome.
Sil existe, le plus grand indice i tel que a
i
= 0 sappelle degre de P et est note deg P.
Si tous les coecients a
i
sont nuls, P est appele polyn ome nul et est note 0. Par conven-
tion, deg 0 = .
Un polyn ome de la forme P = a
0
avec a
0
K est appele polyn ome constant. Si a
0
= 0,
son degre est 0.
Lensemble des polyn ome ` a une indeterminee et coecients dans K est note K[X].
Exemples :
X
3
X + 3/2 est un polyn ome de degre 3.
Si n N

, X
n
1 est un polyn ome de degre n
1 est un polyn ome de degre 0.
Remarque 5.1.2 Nous serons amenes par la suite ` a additionner des degres de polyn omes.
Comme lapplication deg est ` a valeurs dans N{}, il faut etendre la denition de laddition.
On adopte la convention suivante pour n N {} :
+n = .
Denition 5.1.3 Les polyn omes ne comportant quun seul terme non nul (i.e du type P =
a
p
X
p
) sont appeles mon omes.
Remarque : Tout polyn ome est donc une somme nie de mon omes.
Denition 5.1.4 Soit P = a
p
X
p
+ + a
0
avec a
p
= 0 un polyn ome. On appelle terme
dominant de P le mon ome a
p
X
p
. Si le coecient a
p
du terme dominant est 1, on dit que P
est un polyn ome unitaire.
Remarque 5.1.5 On adopte la convention que lon ne change pas un polyn ome P en lui ajou-
tant un ou plusieurs mon omes ` a coecients nuls. Par exemple, on ne fera pas la distinction
entre
X
4
X + 1 et 0X
5
+X
4
+ 0X
2
X + 1.
59 60 CHAPITRE 5. POLYN

OMES
5.1.2 Operations sur K[X]
Nous allons munir K[X] de deux lois internes + et , et dune loi externe .
a) Addition de deux polyn omes :
Denition 5.1.6 Soit P = a
n
X
n
+ +a
0
et Q = b
n
X
n
+ +b
0
avec n N. On denit alors
le polyn ome P +Q par
P +Q
def
= (a
n
+b
n
)X
n
+ + (a
1
+b
1
)X + (a
0
+b
0
).
Remarque : Dans la denition ci-dessus, il nest pas restrictif de faire commencer les expressions
des polyn omes P et Q par un mon ome de meme degre n (voir la remarque 5.1.5 ci-dessus)
Proposition 5.1.7 Soit P et Q deux polyn omes de K[X]. Alors on a
deg(P +Q) max(deg P, deg Q).
De plus, si deg P = deg Q alors deg(P +Q) = max(deg P, deg Q).
Preuve : Notons p = deg P et q = deg Q.
Si p > q, le coecient du terme dominant de P +Q est a
p
donc deg(P +Q) = deg P.
Si p < q, le coecient du terme dominant de P +Q est b
q
donc deg(P +Q) = deg Q.
Si p = q, le mon ome de plus haut degre dans lexpression de P + Q est (a
p
+ b
p
)X
p
.
Donc deg(P +Q) p. Si b
p
= a
p
, ce mon ome est nul et lon a donc deg(P +Q) < p.
b) Multiplication de deux polyn omes :
Considerons deux mon omes P = a
p
X
p
et Q = b
q
X
q
. Si lon interpr`ete ces deux mon omes
comme des fonctions de la variable reelle ou complexe X, il est naturel de denir le produit de
P par Q comme etant le mon ome P Q
def
= a
p
b
q
X
p+q
.
Plus generalement, on denit le produit de deux polyn omes de la fa con suivante :
Denition 5.1.8

Etant donnes deux polyn omes P = a
p
X
p
+ + a
0
et Q = b
q
X
q
+ + b
0
,
on denit le polyn ome P Q par P Q = c
r
X
r
+ +c
0
avec r = p +q et, pour k {0, , r},
c
k
=

i+j=k
a
i
b
j
=
k

i=0
a
i
b
ki
=
k

j=0
a
kj
b
j
.
Remarque : Si P ou Q est nul, on a donc P Q = 0.
La proposition suivante est une consequence immediate de la denition de :
Proposition 5.1.9 Soit P et Q deux polyn omes de K[X]. Alors on a
deg(P Q) = deg P + deg Q.
c) Multiplication dun polyn ome par un scalaire :
Denition 5.1.10 Soit P = a
p
X
p
+ +a
0
un polyn ome de K[X], et K. On denit alors
le polyn ome P par
P
def
=
p

i=0
a
i
X
i
.
Le lecteur prouvera sans diculte le resultat suivant :
Proposition 5.1.11 Soit P un polyn ome et un scalaire non nul. Alors deg( P) = deg P. 5.1. LENSEMBLE DES POLYN

OMES
`
A UNE IND

ETERMIN

EE 61
5.1.3 Proprietes algebriques de K[X]
Proposition 5.1.12 (K[X], +, ) est un anneau commutatif.
Preuve : Montrons dej` a que (K[X], +) est un groupe commutatif.
Le polyn ome nul est clairement lelement neutre pour laddition.
Si P = a
p
X
p
+ +a
0
, le polyn ome P
def
= a
p
X
p
+ a
1
X a
0
verie P+(P) = 0.
Lassociativite et la commutativite resultent de celles de laddition sur K.
Reste ` a etudier les proprietes de la multiplication .
De la denition de la multiplication sur K[X], on deduit facilement que le polyn ome
P = 1 est lelement neutre pour .
Commutativite : considerons P = a
p
X
p
+ + a
0
et Q = b
q
X
q
+ + b
0
. Notons
r = p +q, P Q = c
r
X
r
+ +c
0
et Q P = d
r
X
r
+ +d
0
. Alors on a
k {0, , r}, c
k
=

i+j=k
a
i
b
j
=

j+i=k
b
j
a
i
= d
k
Donc P Q = Q P.
Associativite : Soit P = a
p
X
p
+ + a
0
, Q = b
q
X
q
+ + b
0
et R = c
r
X
r
+ + c
0
.
Soit U
def
= (P Q) R et V
def
= P (Q R). Notons d

les coecients de U, et e
m
ceux de
V . Enn, notons f
s
les coecients de P Q, et g
t
ceux de Q R. Alors on a
d

s+k=
f
s
c
k
e

i+t=
a
i
g
t
=

s+k=
_

i+j=s
a
i
b
j
_
c
k
=

i+t=
a
i
_

j+k=t
b
j
c
k
_
=

i+j+k=
a
i
b
j
c
k
. =

i+j+k=
a
i
b
j
c
k
.
Donc d

= e

, do` u U = V .
Distributivite de la multiplication sur laddition : Denissons P, Q, R comme ci-dessus
et posons U
def
= (P +Q) R et V
def
= P R +Q R. Notons encore d

les coecients de
U, et e
m
ceux de V . Alors on a
d

i+j=
(a
i
+b
i
)c
j
=

i+j=
(a
i
c
j
+b
i
c
j
) =

i+j=
a
i
c
j
+

i+j=
b
i
c
j
= e

.
Donc U = V .
`
A titre dexercice, le lecteur pourra etablir la
Proposition 5.1.13 Lanneau (K[X], +, ) verie les proprietes supplementaires suivantes pour
tout (, ) K
2
et (P, Q) K[X]
2
:
1. ( +) P = P + P,
2. (P +Q) = P + Q,
3. ( P) = () P,
4. 1 P = P,
5. (P Q) = ( P) Q = P ( Q).
On dit que (K[X], +, , ) est une alg`ebre.
Ainsi, multiplier un polyn ome P par un scalaire est equivalent ` a le multiplier par le polyn ome
constant 1. On peut donc sans danger noter la multiplication interne et la multiplication
externe par le meme symbole.
Enn, (K[X], +, , ) jouit de la propriete suivante qui est primordiale : 62 CHAPITRE 5. POLYN

OMES
Proposition 5.1.14 Soit (P, Q) un couple de polyn omes tel que P Q = 0. Alors P = 0 ou
Q = 0. On dit que (K[X], +, , ) est une alg`ebre int`egre.
Preuve : Soit donc (P, Q) tel que P Q = 0. Alors on a deg P + deg Q = deg(P Q) = .
Donc deg P ou deg Q vaut , ce qui est exactement la propriete demandee.
Notations : Dorenavant, on omettra les symboles et . Ainsi PQ designera P Q, et P
designera P.
5.2 Division des polyn omes
Denition 5.2.1 On dit que le polyn ome A est divisible par le polyn ome B sil existe un
polyn ome Q tel que A = BQ. Dans ce cas, on note B | A
1
et lon dit que A est multiple de B
(ou que B est diviseur de A). Le polyn ome Q est parfois note
A
B
ou A/B.
Remarques :
1. Le polyn ome nul est divisible par tous les polyn omes. En revanche seul le polyn ome nul
est divisible par le polyn ome nul.
2. Dans le cas o` u A et B sont tous les deux non nuls, B|A entrane deg B deg A.
Proposition 5.2.2 Soit A et B, deux polyn omes non nuls. Si A | B et B | A alors A et B
sont proportionnels, cest-` a-dire quil existe K

tel que A = B. On dit que A et B sont


associes.
Preuve : Dapr`es la remarque ci-dessus, on a ` a la fois deg A deg B et deg B deg A. Donc
A et B sont de meme degre. Comme B | A, on en deduit que A = BQ avec deg Q = 0.
Autrement dit Q est un polyn ome constant (et non nul car A nest pas nul).
Remarque 5.2.3 Deux polyn omes unitaires associes sont forcement egaux.
Exercice : Prouver la remarque ci-dessus.
Proposition 5.2.4 Soit B un polyn ome non nul, et A un multiple de B de meme degre que B.
Alors A et B sont associes.
Preuve : Elle reprend la derni`ere partie de celle de la proposition 5.2.2.
Theor`eme 5.2.5 (Division euclidienne) Soit A et B deux polyn omes avec B non nul. Alors
il existe un unique couple (Q, R) de polyn omes tel que
A = BQ+R et deg R < deg B.
Le polyn ome Q est appele quotient de la division de A par B, R est le reste, B, le diviseur,
et A, le dividende.
Preuve : On va dabord prouver lunicite du couple (Q, R), puis son existence.
Unicite : Supposons que A = BQ+R = BQ

+R

avec deg R < deg B et deg R

< deg B.
Alors on a R R

= B(Q

Q). Donc deg(R R

) = deg B + deg(Q

Q).
Si Q = Q

, alors on en deduit que deg(R R

) deg B.
Donc dapr`es la proposition 5.1.7, max(deg R, deg R

) deg B, ce qui contredit la denition


de R ou de R

. Donc Q = Q

, puis R = R

.
1
Lire B divise A et non pas le contraire ! 5.2. DIVISION DES POLYN

OMES 63
Existence : Fixons un polyn ome B = b
m
X
m
+ + b
0
de degre m 1 (le cas B
constant non nul etant evident). Lexistence du couple (Q, R) veriant les proprietes vou-
lues se montre par recurrence sur le degre de A. Pour n N, on note (P
n
) lhypoth`ese de
recurrence suivante :
(P
n
) (AK[X], deg A n) (QK[X], RK[X] | A = BQ+R et deg R<deg B) .
Il est clair que (P
m1
) est vraie. En eet, il sut de choisir Q = 0 et R = A.
Soit maintenant n m. Supposons (P
n1
) vraie et demontrons (P
n
). Le polyn ome A est
de la forme A = a
n
X
n
+ +a
0
avec a
n
= 0. Comme n m et b
m
= 0, lexpression
A

def
= A
a
n
b
m
X
nm
B
est bien un polyn ome, et son degre est au plus n 1. Dapr`es (P
n1
), il existe donc deux
polyn omes Q

et R

tels que A

= Q

B +R

et deg R

< deg B. On en deduit que


A =
_
a
n
b
m
X
nm
+Q

_
. .
def
=Q
B + R

..
def
=R
,
ce qui demontre (P
n
).
La demonstration ci-dessus sugg`ere un procede de construction iteratif permettant de calculer
Q et R. En eet, au cours de la recurrence, on a vu comment ramener la division dun polyn ome
de degre n ` a celle dun polyn ome de degre moins eleve (au plus n 1). En pratique, on peut
donc calculer le couple (Q, R) en posant la division comme dans N, les puissances de X jouant
le r ole des puissances de 10.
Illustrons nos propos par un exemple.
Exemple : Division de 4X
5
7X
3
+ 8X
2
1 par X
3
4X
2
+ 2X + 3.
4X
5
+ 0X
4
7X
3
+ 8X
2
+ 0X 1 X
3
4X
2
+ 2X + 3
16X
4
15X
3
4X
2
+ 0X 1
49X
3
36X
2
48X 1 4X
2
+ 16X + 49 = Q
R = 160X
2
146X 148
Donc 4X
5
7X
3
+8X
2
1 = (X
3
4X
2
+2X+3)(4X
2
+16X+49) + 160X
2
146X148.
Denition 5.2.6 On dit quun sous-ensemble I de K[X] est un ideal de (K[X], +, ) si
1. I est un sous-groupe de (K[X], +),
2. I est stable par multiplication par nimporte quel polyn ome de K[X].
Exemple : Pour B K[X], on note BK[X] lensemble des multiples de B. Il est facile de verier
que BK[X] est un ideal de K[X]. En particulier, le singleton {0} est un ideal.
Nous laissons au lecteur le soin de montrer la proposition suivante :
Proposition 5.2.7 Soit A et B deux polyn omes. Alors A | B si et seulement si BK[X]
AK[X].
Theor`eme 5.2.8 Soit I un ideal de (K[X], +, ) non reduit ` a {0}. Alors il existe un unique
polyn ome P unitaire tel que I = PK[X]. Le polyn ome P est appele generateur unitaire de I.
On dit que (K[X], +, ) est un ideal principal . 64 CHAPITRE 5. POLYN

OMES
Preuve : Soit I un ideal de (K[X], +, ) non reduit ` a {0}. On note
E = {deg A | A I\{0}} .
Lensemble E est une partie non vide de N, donc admet un plus petit element. On en deduit
que I admet un polyn ome P non nul et de degre minimal. Comme pour tout K, le
polyn ome P appartient aussi ` a I, on peut toujours choisir P unitaire. La stabilite de I
par multiplication par les elements de K[X] assure que PK[X] I.
Reste ` a montrer que I PK[X]. Soit donc A I.

Ecrivons la division euclidienne de A
par P :
A = PQ+R avec deg R < deg P.
Comme A et PQ appartiennent ` a I, on a aussi R I. Mais par ailleurs deg R < deg P.
Vu la denition de P, on conclut que R = 0.
5.3 PGCD et PPCM
La division euclidienne va nous permettre de denir les notions de PGCD et de PPCM dans
lensemble des polyn omes.
5.3.1 PGCD
Proposition 5.3.1 Soit A et B deux polyn omes non tous les deux nuls. Lensemble
AK[X] +BK[X]
def
=
_
AP +BQ | P K[X], Q K[X]
_
est un ideal de K[X] non reduit ` a {0}. Son generateur unitaire
2
D est appele Plus Grand
Commun Diviseur (ou plus simplement PGCD) de A et de B, et est note PGCD(A, B).
Preuve : Notons J
def
= AK[X] +BK[X]. Remarquons que J nest pas reduit ` a {0} car contient
A et B, et que lun de ces deux polyn omes nest pas nul par hypoth`ese. Reste ` a montrer
que J est un ideal.
1. Montrons que J est un sous-groupe de (K[X], +) :
Il est evident que 0 J.
Soit C et C

deux polyn omes de J. Alors il existe quatre polyn omes P, P

, Q et
Q

tels que C = AP +BQ et C

= AP

+BQ

. Donc
C +C

= A(P +P

) +B(Q+Q

) J.
Enn, si C = AP +BQ, il est clair que C = A(P) +B(Q), donc C J.
2. Stabilite de J par produit :
Soit C = AP + BQ un element de J, et R un polyn ome quelconque. Alors RC =
A(PR) +B(QR) donc RC J.
On conclut que J est un ideal non reduit ` a {0}. Le theor`eme 5.2.8 assure lexistence dun
unique polyn ome unitaire D tel que AK[X] +BK[X] = DK[X].
Remarque : On convient que PGCD(0, 0) = 0. Pour tout couple de polyn omes (A, B), on a
donc AK[X] +BK[X] = PGCD(A, B) K[X].
La proposition suivante justie lappellation PGCD donnee au generateur unitaire de
AK[X] +BK[X].
2
Dans certains ouvrages, le caract`ere unitaire nest pas impose au PGCD. 5.3. PGCD ET PPCM 65
Proposition 5.3.2 Soit (A, B) un couple de polyn omes distinct de (0, 0). Alors PGCD(A, B)
est lunique polyn ome unitaire veriant
(5.1) PGCD(A, B) | A, PGCD(A, B) | B et (P | A et P | B) P | PGCD(A, B).
Preuve : Notons D = PGCD(A, B) et montrons que D verie (5.1).
Par denition, DK[X] = AK[X] + BK[X]. Comme A et B appartiennent tous les deux
` a lensemble de droite, A et B sont bien des multiples de D. Enn, si P divise A et B
alors, dapr`es la proposition 5.2.7, AK[X] PK[X] et BK[X] PK[X]. Donc DK[X] =
AK[X] +BK[X] PK[X]. Donc P divise D.
Pour montrer lunicite, considerons un polyn ome D

unitaire veriant (5.1). On a donc


en particulier D | D

. Mais bien s ur D

| D donc D et D

sont associes (cf prop. 5.2.2).


Comme D et D

sont unitaires, on a D = D

.
Proposition 5.3.3 Si A et B ne sont pas simultanement nuls et si C est unitaire alors on a
PGCD(AC, BC) = C PGCD(A, B).
Preuve : Notons D = PGCD(A, B) et = PGCD(AC, BC). Il sut alors de remarquer
que
K[X] = ACK[X] +BCK[X] = C (AK[X] +BK[X]) = CDK[X].
Denition 5.3.4 On dit que deux polyn omes A et B sont premiers entre eux si leur PGCD
vaut 1.
Theor`eme 5.3.5 (de Bezout) Deux polyn omes A et B sont premiers entre eux si et seulement
si il existe deux polyn omes U et V tels que AU +BV = 1.
Preuve : = Si PGCD(A, B) = 1 alors par denition du PGCD, on a AK[X] + BK[X] =
K[X]. Donc 1 AK[X] +BK[X], ce qui signie quil existe U et V tels que AU +BV = 1.
= Si AU +BV = 1 alors 1 AK[X] +BK[X]. Le generateur unitaire de AK[X] +BK[X]
est donc un diviseur de 1, donc 1 lui-meme. On a donc bien 1 = PGCD(A, B).
Proposition 5.3.6 Pour que le polyn ome unitaire D soit le PGCD de A et de B, il faut et il
sut que
(5.2) D | A, D | B et PGCD(
A
D
,
B
D
) = 1.
Preuve : Si D = PGCD(A, B), on a bien s ur D | A et D | B. Notons P =
A
D
et Q =
B
D
.
Dapr`es la proposition 5.3.3, on a
D = PGCD(A, B) = PGCD(DP, DQ) = DPGCD(P, Q).
Comme D nest pas nul, on conclut que PGCD(P, Q) = 1.
Reciproquement, supposons que (5.2) soit satisfaite. Alors, la proposition 5.3.3 entrane
PGCD(A, B) = PGCD(D
A
D
, D
B
D
) = DPGCD(
A
D
,
B
D
) = D. 66 CHAPITRE 5. POLYN

OMES
Theor`eme 5.3.7 (de Bezout generalise) Supposons que D unitaire divise A et B avec A et
B non tous les deux nuls. Alors on a
D = PGCD(A, B) U K[X], V K[X], AU +BV = D.
Preuve : En appliquant la proposition 5.3.6, on a
D = PGCD(A, B) 1 = PGCD(
A
D
,
B
D
).
Or dapr`es le theor`eme de Bezout, on a
PGCD(
A
D
,
B
D
) = 1 U K[X], V K[X],
A
D
U +
B
D
V = 1,
ce qui ach`eve la preuve du theor`eme.
Theor`eme 5.3.8 (de Gauss) Si P divise AB et est premier avec A alors P divise B.
Preuve : Soit B

le polyn ome unitaire associe ` a B. On a


PGCD(PB, AB) = B

PGCD(P, A) = B

.
Par hypoth`ese, P divise AB, et il est clair que P divise aussi PB. Donc P divise B

et,
partant, B.
Proposition 5.3.9 Un polyn ome P est premier avec un produit AB si et seulement si P est
premier avec A et avec B.
Preuve : Supposons P premier avec AB. Soit P

divisant P et A. Alors P

divise aussi
AB. Donc P

| PGCD(AB, P), i.e P

|1. On en deduit que P

est un polyn ome constant.


Donc P est premier avec A. On etablit de meme que P est premier avec B.
On prouve la reciproque par contraposition. Supposons que P ne soit pas premier avec
AB. Alors il existe P

divisant P et AB, et tel que deg P

1. Si P est premier avec A


alors P

egalement. Dapr`es le theor`eme de Gauss, P

divise donc B. On a donc montre


que P

divise ` a la fois P et B. Comme deg P

1, cela signie que P et B ne sont pas


premiers entre eux.
Remarque 5.3.10 Une recurrence elementaire permet de montrer plus generalement quun
polyn ome P est premier avec un produit de polyn ome A
1
A
k
si et seulement si il est premier
avec chacun des facteurs A
i
. Les details sont laisses en exercice.
5.3.2 Lalgorithme dEuclide
Lalgorithme dEuclide est un moyen systematique permettant de calculer le PGCD de deux
polyn omes. Loutil de base est la division euclidienne. Lalgorithme repose sur le lemme suivant :
Lemme 5.3.11 Soit B un polyn ome non nul, et A un polyn ome quelconque. Notons Q et R le
quotient et le reste de la division euclidienne de A par B. Alors on a
PGCD(A, B) = PGCD(B, R). 5.3. PGCD ET PPCM 67
Preuve : Soit D divisant A et B. Comme R = ABQ, le polyn ome D divise aussi R. Donc
D divise PGCD(B, R). En choisissant D = PGCD(A, B), on conclut que PGCD(A, B) |
PGCD(B, R).
Soit maintenant D un polyn ome divisant B et R. Comme A = BQ+R, on a aussi D | A.
Donc D | PGCD(A, B). On a donc nalement PGCD(B, R) | PGCD(A, B).
Les deux polyn omes PGCD(B, R) et PGCD(A, B) sont unitaires et associes. Ils sont donc
egaux.
Ce lemme indique clairement la strategie ` a suivre pour calculer PGCD(A, B). Quitte ` a permuter
A et B, on peut toujours supposer que deg A deg B. On proc`ede alors comme suit :
Si B = 0, il ny a rien ` a faire : PGCD(A, B) est egal au polyn ome unitaire associe ` a A.
Si B nest pas nul, on eectue la division euclidienne de A par B, ce qui donne deux
polyn omes Q
0
et R
1
tels que A = BQ
0
+R
1
et deg R
1
< deg B.
Le lemme 5.3.11 montre que PGCD(A, B) = PGCD(B, R
1
). On reprend le calcul ci-dessus en
rempla cant A par B, et B par R
1
. En iterant le procede, on construit deux suites R
1
, R
2
,
et Q
0
, Q
1
, telles que :
A = BQ
0
+R
1
avec deg R
1
< deg B,
B = R
1
Q
1
+R
2
avec deg R
2
< deg R
1
,
R
1
= R
2
Q
2
+R
3
avec deg R
3
< deg R
2
,
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
R
k1
= R
k
Q
k
+R
k+1
avec deg R
k+1
< deg R
k
,
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
R
n1
= R
n
Q
n
+ 0.
Le procede sarrete necessairement au bout dau plus deg P etapes car chaque iteration diminue
dau moins 1 le degre du reste de la division euclidienne. On a donc nalement
PGCD(A, B) = PGCD(B, R
1
) = = PGCD(R
k
, R
k+1
) = = PGCD(R
n
, 0) = R
n
.
Exemple : Calculer PGCD(X
4
1, X
3
1).
Posons la division euclidienne de X
4
1 par X
3
1.
X
4
+ 0X
3
+ 0X
2
+ 0X 1 X
3
+ 0X
2
+ 0X 1
X 1 X
Donc PGCD(X
4
1, X
3
1) = PGCD(X
3
1, X 1).
On remarque ensuite que X
3
1 est divisible par X 1 donc nalement
PGCD(X
4
1, X
3
1) = PGCD(X
3
1, X 1) = PGCD(X 1, 0) = X 1.
5.3.3 PPCM
Nous laissons au lecteur le soin de prouver le resultat suivant :
Proposition 5.3.12 Considerons deux polyn omes non nuls A et B. Alors lensemble AK[X]
BK[X] est un ideal non reduit ` a {0}. Son generateur unitaire
3
est appele Plus Petit Commun
Multiple (ou plus simplement PPCM) de A et B. On le note PPCM(A, B).
Remarque : Si A ou B est nul, on a AK[X] BK[X] = {0}. On adopte alors la convention
que PPCM(A, B) = 0. Ainsi, on aura toujours AK[X] BK[X] = PPCM(A, B) K[X].
3
Dans certains ouvrages, on nimpose pas au PPCM detre unitaire 68 CHAPITRE 5. POLYN

OMES
En sinspirant de la preuve de la proposition 5.1, on obtient le resultat suivant qui explique
lappellation Plus Petit Commun Multiple donnee au generateur unitaire de AK[X] BK[X].
Proposition 5.3.13 Soit A et B deux polyn omes non nuls. Le PPCM de A et de B est lunique
polyn ome unitaire veriant la propriete suivante :
A | PPCM(A, B), B | PPCM(A, B) et (A | M et B | M) PPCM(A, B) | M.
`
A certains egards, le PPCM et le PGCD ont des proprietes tr`es similaires. On a par exemple :
Proposition 5.3.14 Soit C un polyn ome unitaire et A, B deux polyn omes. Alors on a
PPCM(AC, BC) = C PPCM(A, B).
Preuve : Il sut de remarquer que
ACK[X] BCK[X] = C (AK[X] BK[X]) .
Proposition 5.3.15 Soit A et B deux polyn omes non nuls. Pour que M unitaire soit le PPCM
de A et de B, il faut et il sut que
A | M, B | M et PGCD
_
M
A
,
M
B
_
= 1.
Preuve : Notons M le PPCM de A et de B. Alors MK[X] est inclus dans AK[X]
et dans BK[X]. Donc M divise bien A et B. Soit D unitaire divisant M/A et M/B.
Alors AD|M et BD|M. Donc PPCM(AD, BD)|M. Mais dapr`es la proposition 5.3.14,
PPCM(AD, BD) = DPPCM(A, B) = DM. Donc D = 1.
Soit M un multiple commun unitaire de A et de B veriant de plus PGCD(
M
A
,
M
B
) = 1.
Dapr`es le theor`eme de Bezout, il existe deux polyn omes U et V tels que
M
A
U +
M
B
V = 1.
Multiplions les deux membres de cette egalite par PPCM(A, B). On trouve
M
_
U
PPCM(A, B)
A
+V
PPCM(A, B)
B
_
= PPCM(A, B).
Donc M divise PPCM(A, B). Comme M est unitaire et est multiple de A et de B, on
conclut que M = PPCM(A, B).
Proposition 5.3.16 Soit A et B deux polyn omes. Il existe une constante non nulle telle que
AB = PGCD(A, B) PPCM(A, B).
Si de plus A et B sont unitaires, alors = 1.
Si A et B sont premiers entre eux alors AB et PPCM(A, B) sont associes.
Preuve :

Ecartons le cas evident o` u lun des deux polyn omes A et B est nul. On peut alors
appliquer la proposition 5.3.15. On en deduit que
(5.3) PGCD
_
PPCM(A, B)
A
,
PPCM(A, B)
B
_
= 1.
Notons linverse du coecient du terme dominant de AB. Alors AB est unitaire, et la
proposition 5.3.14 combinee avec (5.3) montre que
PGCD
_
AB
_
PPCM(A, B)
A
_
, AB
_
PPCM(A, B)
B
__
= AB.
En appliquant la proposition 5.3.3, on constate que le membre de gauche de cette egalite
vaut PPCM(A, B) PGCD(A, B). 5.3. PGCD ET PPCM 69
5.3.4 Polyn omes irreductibles
Au cours des sections qui prec`edent, le lecteur a pu constater que lensemble K[X] avait
beaucoup de similarites avec lensemble Z des entiers relatifs : les deux ensembles sont des
anneaux principaux int`egres sur lesquels on peut denir la division euclidienne, le PGCD et le
PPCM. Dans cette section, nous allons introduire une classe de polyn omes qui jouent dans K[X]
le meme r ole que les nombres premiers dans Z : les polyn omes irreductibles.
Denition 5.3.17 On dit quun polyn ome P est irreductible si ses seuls diviseurs sont les
constantes et les polyn omes qui lui sont associes.
Remarques :
1.
`
A la dierence des nombres premiers, les polyn omes irreductibles ont une innite de divi-
seurs. Mais on notera que ces diviseurs sont triviaux !
2. Tout polyn ome de degre 1 est irreductible. En eet, soit P de degre 1, et Q un diviseur
de P. Alors deg Q {0, 1}. Si deg Q = 0 alors Q est une constante, si deg Q = 1 alors
deg Q = deg P donc P et Q sont associes.
La proposition suivante constitue une loi du tout ou rien pour la division par les polyn omes
irreductibles.
Proposition 5.3.18 Soit A un polyn ome et P un polyn ome irreductible ne divisant pas A.
Alors P est premier avec A.
Preuve : Soit B un diviseur commun de A et de P. Comme P est irreductible, B doit etre
constant, ou associe ` a P. Le deuxi`eme cas est exclus car on a suppose que P ne divisait
pas A. Donc B est constant. On a donc bien PGCD(A, P) = 1.
De meme que tout entier poss`ede une decomposition en facteurs premiers, tout polyn ome a une
decomposition en facteurs irreductibles.
Theor`eme 5.3.19 (Decomposition en facteurs irreductibles) Soit P un polyn ome non
constant. Alors il existe un entier k 1, k entiers
1
, ,
k
non nuls, k polyn omes irreductibles
unitaires P
1
, , P
k
deux ` a deux distincts, et K\{0} tels que
P =
k

i=1
P

i
i
.
Cette decomposition, appelee decomposition en facteurs irreductibles, est unique ` a ordre des
facteurs pr`es.
Preuve : On prouve dabord lexistence puis lunicite ` a ordre des facteurs pr`es.
Existence : Elle se fait par recurrence sur le degre de P.
Si deg P = 1 alors P est irreductible. On pose k = 1,
1
= 1 et lon prend pour P
1
le polyn ome unitaire associe ` a P. Il est de degre 1 donc irreductible.
Supposons maintenant que le theor`eme de decomposition soit valable pour tout
polyn ome de degre compris entre 1 et n. Soit P de degre n+1 et P

def
= P/ avec
coecient du terme dominant de P. Le polyn ome P

est unitaire et de degre


n + 1. Sil est irreductible, P = P

constitue une decomposition de P en facteurs


premiers. Sinon, il existe un polyn ome A unitaire de degre compris entre 1 et n et
divisant P

. On a donc P

= AB avec A et B unitaires et de degre compris entre 1 et 70 CHAPITRE 5. POLYN

OMES
n. Dapr`es lhypoth`ese de recurrence, A et B admettent chacun une decomposition
en facteurs premiers :
A =
k

i=1
A

i
i
et B =

i=1
B

i
i
.
Donc
P =
_
k

i=1
A

i
i
__

i=1
B

i
i
_
.
Il ne reste plus qu` a renumeroter les facteurs de la decomposition pour obtenir le
resultat voulu.
Unicite : Supposons que P admette deux decompositions en facteurs irreductibles :
P =
k

i=1
P

i
i
=

i=1
Q

i
i
.
Comme tous les facteurs irreductibles sont unitaires, et sont egaux au coecient
du terme dominant de P. Donc = . De ce fait, on a
(5.4)
k

i=1
P

i
i
=

i=1
Q

i
i
.
Par ailleurs, P
1
divise la somme de droite. De la remarque 5.3.10, on deduit que P
1
nest pas premier avec au moins un des Q
j
: il existe j
1
tel que Q
j
1
et P
1
ne soient pas
premiers entre eux. Comme par ailleurs Q
j
1
et P
1
sont irreductibles et unitaires, cela
signie que P
1
= Q
j
1
. En vertu du caract`ere int`egre de K[X], on peut donc simplier
lexpression (5.4) par P
1
. On it`ere ce procede et en
1
+ +
k
etapes, on parvient
` a une expression du type 1 =

j=1
Q

j
j
avec

j
=
j

j
. Cela permet de conclure
que tous les

j
sont nuls. Donc les deux decompositions sont identiques ` a ordre pr`es
des facteurs.
5.4 Fonctions polyn omes
5.4.1 Denition des fonctions polyn omes
Jusqu` a present, nous avons traite les polyn omes comme des objets algebriques abstraits.
Ce point de vue permet de manipuler de fa con uniee des objets mathematiques tr`es dierents
d`es lors quils peuvent etre interpretes comme des polyn omes. Dans cette section, nous allons
nous borner ` a remplacer la variable muette X par des nombres reels ou complexes. Mais vous
verrez en deuxi`eme annee que lon peut fort bien remplacer X par une matrice. . .
Denition 5.4.1 Soit P = a
n
X
n
+ +a
1
X +a
0
un polyn ome de K[X], et t K. On denit
alors lelement P(t) de K par
P(t) = a
n
t
n
+ +a
1
t +a
0
.
On dit que P(t) est obtenu par substitution de t ` a X.
Proposition 5.4.2 Soit t K un scalaire xe. Alors on a pour tous polyn omes P et Q, et pour
tout scalaire : 5.4. FONCTIONS POLYN

OMES 71
1. P(t) +Q(t) = (P +Q)(t),
2. P(t)Q(t) = (PQ)(t),
3. P(t) = (P)(t),
4. 1(t) = 1.
Preuve : Verions la deuxi`eme relation. Les autres sont immediates.
Rappelons que si P = a
p
X
p
+ +a
1
X +a
0
et Q = b
q
X
q
+ +b
1
X +b
0
alors
(5.5) PQ =
p+q

j=0
_

k+=j
a
k
b

_
X
j
.
Donc
(PQ)(t) =

p+q
j=0
_

k+=j
a
k
b

_
t
j
,
=

p+q
j=0
_

k+=j
(a
k
t
k
)(b

)
_
,
=
_

p
k=0
a
k
t
k
__

q
=0
b

_
= P(t)Q(t).
Denition 5.4.3 Soit P K[X]. Lapplication

P :
_
K K
t P(t)
est appelee fonction polyn ome denie par P sur K.
Remarque : Dans la suite du cours, on ne fera plus la distinction entre le polyn ome P qui est
un objet algebrique et la fonction polyn ome

P qui lui est associee
4
.
5.4.2 Racines
Denition 5.4.4 Soit a K et P K[X]. On dit que a est racine ou zero de P si P(a) = 0.
Proposition 5.4.5 Soit a K et P K[X]. Pour que a soit une racine de P, il faut et il sut
que X a divise P.
Preuve : Supposons que P(a) = 0. La division euclidienne de P par X a donne
P = Q(X a) +R avec deg R 0.
En substituant a ` a X dans la relation ci-dessus, on trouve R(a) = 0. Comme la fonction
polyn ome R est constante, on conclut que R = 0.
Si X a | P alors il existe Q tel que P = Q(X a), ce qui donne en particulier
P(a) = Q(a)(a a) = 0.
Denition 5.4.6 Soit P K[X], a K et k N

. On dit que a est racine de P de multiplicite


k si (X a)
k
| P.
Si k = 1, on parle de racine simple,
Si k = 2, on dit que a est racine double,
Si k = 3, on dit que a est racine triple, etc.
4
La proposition 5.4.2 nous autorise ` a faire cet abus de notation. 72 CHAPITRE 5. POLYN

OMES
Proposition 5.4.7 Soit P un polyn ome non nul admettant les racines a
1
, , a
k
avec multi-
plicite
1
, ,
k
. Alors

k
i=1
(X a
i
)

i
divise P.
Preuve :
On sait dej` a que (X a
1
)

1
divise P.
Supposons que

j1
i=1
(X a
i
)

i
divise P (avec j k). Comme les a
i
sont deux ` a deux
distincts, les polyn omes (X a
i
)

i
sont premiers entre eux deux ` a deux. La remarque
5.3.10 permet donc darmer que (Xa
j
)

j
est premier avec

j1
i=1
(Xa
i
)

i
. Comme P
est multiple de (Xa
j
)

j
par hypoth`ese, et de

j1
i=1
(Xa
i
)

i
, P est egalement multiple
du PPCM de ces deux polyn omes qui, dapr`es la proposition 5.3.16, vaut

j
i=1
(Xa
i
)

i
.
Nous venons donc de montrer par recurrence sur j que

k
i=1
(X a
i
)

i
divise P.
Remarque 5.4.8 En particulier, si P = 0, toutes les racines de P sont de multiplicite inferieure
ou egale ` a deg P.
Exercice : Justier la remarque 5.4.8.
Proposition 5.4.9 Un polyn ome de degre n N admet au plus n racines comptees avec leur
ordre de multiplicite : {a
1
, , a
k
} est lensemble des racines de P, et
i
est la multiplicite de
a
i
, alors on a
1
+ +
k
n.
Preuve : Dapr`es la proposition 5.4.8, on a

k
i=1
(X a
i
)

i
| P. Donc
k

i=1
deg(X a
i
)

i
deg P.
Le membre de gauche vaut

k
i=1

i
, do` u le resultat.
Remarque 5.4.10 Le seul polyn ome ayant une innite de racines est le polyn ome nul.
5.4.3 Polyn omes derives
Denition 5.4.11 Soit P = a
k
X
k
+ +a
1
X+a
0
un polyn ome de K[X]. On appelle polyn ome
derive note P

le polyn ome suivant :


P

= ka
k
X
k1
+ +a
1
=
k

j=1
ja
j
X
j1
.
Proposition 5.4.12 Soit P et Q deux polyn omes, et K.
1. Si deg P > 0 alors deg P

= deg P 1,
2. Si P est constant alors P

= 0,
3. (P +Q)

= P

+Q

,
4. (P)

= P

,
5. (PQ)

= P

Q+PQ

.
Preuve : Les quatre premiers points sont evidents. Prouvons le cinqui`eme.
Soit P = a
p
X
p
+ +a
1
X+a
0
et Q = b
q
X
q
+ +b
1
X+b
0
. En appliquant la denition
du polyn ome derive ` a la relation (5.5), on trouve
(PQ)

=
p+q

j=1
j
_

k+=j
a
k
b

_
X
j1
. 5.5. POLYN

OMES SCIND

ES 73
Des calculs elementaires montrent donc que
(PQ)

p+q
j=1

k+=j
_
ka
k
X
k1
b

+a
k
X
k
b

X
1
_
,
=

p+q
j=1
_

k+=j
ka
k
X
k1
b

_
+

p+q
j=1
_

k+=j
a
k
X
k
b

X
1
_
,
=
_

p
k=1
ka
k
X
k1
__

q
=0
b

_
+
_

p
k=0
a
k
X
k
__

q
=1
b

X
1
_
,
= P

Q+PQ

.
Proposition 5.4.13 Soit P un polyn ome non nul, et a une racine de P. Alors a est une racine
simple si et seulement si P

(a) = 0.
Preuve : Nous allons prouver la negation de lequivalence : i.e a est une racine double de P
si et seulement si P(a) = P

(a) = 0.
Supposons donc que a est une racine double de P. Alors (X a)
2
| P. Donc P secrit
P = Q(X a)
2
pour un certain polyn ome Q. Il est donc immediat que P(a) = 0. En
derivant, on trouve P

= Q

(X a)
2
+ 2(X a)Q, donc P

(a) = 0.
Reciproquement, supposons que P(a) = P

(a) = 0. La division euclidienne de P par


(X a)
2
secrit P = Q(X a)
2
+R avec deg R 1. Comme P(a) = 0, on a R(a) = 0. En
derivant la relation P = Q(Xa)
2
+R, on obtient R

(a) = 0. Comme R

est un polyn ome


constant, on a R

= 0, puis, comme R(a) = 0, R est nul aussi.


5.5 Polyn omes scindes
5.5.1 Le theor`eme fondamental de lalg`ebre
Denition 5.5.1 On dit quun polyn ome non constant est scinde si la somme des ordres de
multiplicite de ses racines est egal ` a son degre.
Remarque : Autrement dit, P de degre n est scinde si et seulement si il existe un n-uplet
(
1
, ,
n
) de K
n
tel que P soit associe ` a (X
1
) (X
n
).
Proposition 5.5.2 Soit P un polyn ome scinde unitaire dexpression X
n
+a
n1
X
n1
+ +a
0
.
Notons
i
ses racines comptees avec leur ordre de multiplicite. Alors on a les relations suivantes
entre les racines et les coecients :
a
0
= (1)
n
n

i=1

i
et a
n1
=
n

i=1

i
.
Preuve : On developpe lexpression (X
1
) (X
n
) et on identie les termes du
developpement avec ceux de lexpression X
n
+a
n1
X
n1
+ +a
0
.
Remarque : Dans le cas o` u P = X
2
+a
1
X+a
0
a pour racines
1
et
2
, on retrouve les relations
a
0
=
1

2
et a
1
= (
1
+
2
).
Le tr`es important resultat suivant est connu sous le nom de theor`eme fondamental de
lalg`ebre ou theor`eme de dAlembert-Gauss. Il en existe de nombreuses preuves, mais
toutes depassent le cadre du programme.
Theor`eme 5.5.3 Tout polyn ome de C[X] est scinde
5
.
5
On dit que C est un corps algebriquement clos. 74 CHAPITRE 5. POLYN

OMES
Remarque : On a vu que toutes les equations de degre 2 avaient deux solutions (eventuellement
confondues) dans C. Le theor`eme fondamental exprime que toute equation de degre n admet
n solutions (eventuellement confondues) dans C. Dans le cas n = 3 ou 4, il existe des formules
(assez compliquees) donnant les solutions en fonction des coecients. Pour une equation de
degre superieur ou egal ` a 5, il a ete prouve par un jeune mathematicien du XIX `eme si`ecle, E.
Galois, que de telles formules nexistent pas !
5.5.2 Polyn omes irreductibles de C[X]
Theor`eme 5.5.4 Un polyn ome P est irreductible dans C si et seulement si deg P = 1.
Preuve : On a dej` a vu que tout polyn ome de degre 1 etait irreductible (que ce soit dans C
ou dans R).
Pour montrer la reciproque, donnons-nous un polyn ome P de degre au moins 2. Le
theor`eme fondamental de lalg`ebre nous dit que P admet au moins une racine
1
. Donc P
est divisible par X
1
. Clairement X
1
nest pas constant et nest pas associe ` a P car
de degre strictement inferieur ` a 2. Donc P nest pas irreductible.
En appliquant le theor`eme general de decomposition irreductible, on en deduit :
Corollaire 5.5.5 Tout polyn ome P non nul de C[X] admet une decomposition en facteurs
irreductibles du type suivant :
P =
k

i=1
(X
i
)

i
,
o` u {
1
, ,
k
} est lensemble des racines de P,
i
est la multiplicite de
i
, et est le coecient
du terme dominant de P.
5.5.3 Polyn omes irreductibles de R[X]
Dans R[X], la situation est un peu plus compliquee. On sait dores et dej` a que tous les
polyn omes irreductibles ne sont pas de degre 1. Par exemple, X
2
+1 ne saurait etre irreductible
dans R[X] car na pas de racine reelle (la fonction polyn ome associee est minoree par 1, donc
ne sannule jamais).
On peut cependant dresser une liste de tous les polyn omes irreductibles de R[X] :
Theor`eme 5.5.6 Les polyn omes irreductibles de R[X] sont :
Les polyn omes de degre 1,
Les polyn omes de degre 2 ` a discriminant strictement negatif : P = aX
2
+ bX + c avec
a = 0 et
def
= b
2
4ac < 0.
La preuve de ce theor`eme repose sur le lemme suivant :
Lemme 5.5.7 Soit P =

n
k=0
a
k
X
k
un polyn ome de C[X]. Notons P =

n
k=0
a
k
X
k
le po-
lyn ome conjugue. Alors est racine de P de multiplicite si et seulement si est racine de P
de multiplicite .
Preuve : Soit une racine de P de multiplicite . Alors il existe un polyn ome Q tel que
P = Q(X )

. En prenant le conjugue de cette expression, on obtient P = Q(X )

.
Donc est racine de P de multiplicite .
En echangeant les r oles de P et P, et , et , on obtient , do` u le resultat. 5.5. POLYN

OMES SCIND

ES 75
Preuve du theor`eme 5.5.6 :
On sait dej` a que les polyn omes de degre 1 sont irreductibles. Soit maintenant P = aX
2
+
bX + c ` a discriminant strictement negatif. La fonction t P(t) associee ne sannule pas
sur R (elle est du signe de a), et donc aucun polyn ome de degre 1 ne saurait diviser P.
Par ailleurs, on a vu dans le chapitre 1 que toute equation de degre 2 ` a coecients reels
et discriminant positif ou nul admettait au moins une solution reelle. Donc les polyn omes
de degre 2 ` a discriminant positif ne sont pas irreductibles dans R[X].
Soit maintenant P R[X] un polyn ome de degre au moins 3. Supposons que P nait pas de
racine reelle (sinon P nest pas irreductible dans R[X]). Dapr`es le lemme 5.5.7, les racines
complexes non reelles de P sont deux ` a deux conjuguees (avec ordres de multiplicite egaux
deux ` a deux). Le corollaire 5.5.5 assure donc lexistence de nombres complexes (non reels)

1
, ,
p
, dentiers
1
, ,
p
, et dun reel , tels que
P =
p

i=1
_
(X
i
)

i
(X
i
)

i
_
.
Mais un calcul facile montre que
(X
i
)

i
(X
i
)

i
= (X
2
2Re
i
X +|
i
|
2
)

i
Donc P est divisible par le polyn ome reel X
2
2Re
i
X +|
i
|
2
(de degre 2) et nest donc
pas irreductible.
En reprenant la preuve ci-dessus, on deduit facilement le resultat suivant.
Corollaire 5.5.8 Tout polyn ome ` a coecients reels admet dans R[X] une decomposition en
facteurs irreductibles du type suivant :
P =
_
k

i=1
(X
i
)

i
__

j=1
(X
2
2Re
j
X +|
j
|
2
)

j
_
,
o` u est le coecient du terme dominant de P, {
1
, ,
k
} est lensemble des racines reelles
de P,
i
, multiplicite de
i
, et {
1
, ,

} est lensemble des racines complexes et non reelles


de P et
j
, la multiplicite de
j
. 76 CHAPITRE 5. POLYN

OMES
Bibliographie
[1] J.-M. Arnaudi`es et H. Fraysse : Cours de mathematiques 1, Alg`ebre, Dunod.
[2] J.-M. Arnaudi`es et J. Lelong-Ferrand : Cours de mathematiques, tome 1 (alg`ebre), Dunod.
[3] T. Cuesta : Alg`ebre 1, MIAS1, Polycopie de lUniversite Paris XII.
[4] C. Deschamps et A. Warusfel : Mathematiques. Cours et exercices corriges, Dunod.
[5] J. Dixmier : Cours de mathematiques du premier cycle, Gauthier-Villars.
[6] S. Lipschutz : Alg`ebre lineaire, cours et probl`emes, Serie Schaum.
[7] F. Liret et D. Martinais : Mathematiques pour le DEUG, Alg`ebre, 1`ere annee, Dunod.
[8] J.-M. Monier : Alg`ebre et geometrie, 1`ere annee, Dunod.
[9] E. Ramis, C. Deschamps et J. Odoux : Cours de mathematiques speciales, alg`ebre, Vol. 1,
Masson.
77
Index
Axe, 10
Alg`ebre, 61
int`egre, 62
Algorithme
dEuclide, 66
Algorithme du pivot de Gauss, 29
Alterne, 45
Anneau, 6
Antisymetrique, 46
Argument, 14
principal, 14
Associativite, 5
Axe
imaginaire, 10
reel, 10
Base, 38
canonique, 38
Coecients
dun polyn ome, 59
diagonaux, 24
Cofacteur, 53
Colineaire, 37
Combinaison
lineaire, 34
Commutativite, 5
Congru, 13
Coordonnees, 38
Corps, 7
algebriquement clos, 73
Degre, 59
Determinant, 45
extrait, 55
Developpement de Laplace, 53
Diagonale non nulle, 23
Dimension, 40
Discriminant, 20
Distributivite, 6
Dividende, 62
Diviseur, 62
Division, 62
euclidienne, 62
Droite, 41
Droite vectorielle, 41

Element neutre, 5

Equation du second degre, 18

Equations principales, 23
Espace vectoriel, 33
Famille
de vecteurs, 34
generatrice, 35
liee, 36
libre, 36
lineairement dependante, 36
lineairement independante, 36
vide, 34
Fonction polyn ome, 71
Forme trigonometrique, 14
Formule
dEuler, 16
de Moivre, 16
du bin ome de Newton, 12
du triangle de Pascal, 12
Generateur unitaire, 63
Groupe, 6
abelien, 6
commutatif, 6
Hyperplan, 41
Ideal, 63
Ideal
principal, 63
Identite remarquable, 11
Inconnues principales, 23
Inegalite triangulaire, 13
Inverse, 5
Lineariser, 17
Linearite, 45
Loi interne, 5
78 INDEX 79
Matrice, 23
carree, 24
colonne, 24
diagonale, 24
echelonnee, 25
extraite, 55
identite, 24
ligne, 24
transposee, 25
triangulaire, 24
triangulaire inferieure, 24
triangulaire superieure, 24
Methode
de la remontee, 25
du pivot de Gauss, 27
Mineur, 53
Module, 12
Mon ome, 59
Multiple, 62
Multiplicite, 71
Nombre
complexe, 10
imaginaire, 10
imaginaire pur, 10
Partie
imaginaire, 10
reelle, 10
PGCD, 64
Plan, 41
complexe, 10
Polyn ome, 59
conjugue, 74
constant, 59
derive, 72
nul, 59
unitaire, 59
Polyn ome irreductible, 69
Polyn omes
associes, 62
premiers entre eux, 65
PPCM, 67
Quotient, 62
Racine
carree, 18
dun polyn ome, 71
de lunite, 17
Rang, 42
Reste, 62
Sous-espace
ane, 31
vectoriel, 30, 34
vectoriel engendre, 35
Sous-famille, 34
Sous-groupe, 6
Substitution, 70
Sur-famille, 34
Symetrique, 5
Syst`eme
carre, 22
de Cramer, 57
echelonne, 23
homog`ene, 22
homog`ene associe, 22
lineaire, 22
triangulaire, 23
triangulaire inferieur, 23
triangulaire superieur, 23
Terme dominant, 59
Theor`eme
de Bezout, 65
de dAlembert-Gauss, 73
de Gauss, 66
fondamental de lalg`ebre, 73
Transformation elementaire, 27
Vecteur, 33
colonne, 24
ligne, 24
nul, 33
Zero dun polyn ome, 71