Vous êtes sur la page 1sur 124

Cours dalg`ebre pour les candidats a` lechange

HUB-Ensae
Sebastien Raspiller
12 juin 2002

Table des mati`eres


1

Generalites
1.1 Ensembles . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Applications . . . . . . . . . . . . . . . . . . . . . . .
1.3 Lois de composition . . . . . . . . . . . . . . . . . . .
1.4 Arithmetique . . . . . . . . . . . . . . . . . . . . . .
1.4.1 Rappels de definitions et proprieteselementaires
1.4.2 Denombrabilite . . . . . . . . . . . . . . . . .
Structures
2.1 Groupes . . . . . . . . . .
2.1.1 Generalites . . . .
2.1.2 Sous-groupes . . .
2.1.3 Morphismes . . .
2.2 Corps . . . . . . . . . . .
2.3 Autres structures . . . . .
2.3.1 Espaces vectoriels
2.3.2 Alg`ebres . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

Les corps des reels et des complexes


3.1 Nombres reels . . . . . . . . . . .
3.2 Nombres complexes . . . . . . . .
3.2.1 Construction . . . . . . .
3.2.2 Interpretation geometrique
3.2.3 Resolution des e quations .
Polynomes et fractions rationnelles
4.1 Polynomes . . . . . . . . . . .
4.1.1 Structure . . . . . . .
4.1.2 Notation definitive . .
4.1.3 Divisibilite . . . . . .
4.1.4 Fonction polynome . .
3

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

7
.
7
.
9
. 13
. 16
. 16
. 18

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

21
21
21
22
24
25
26
26
27

.
.
.
.
.

29
29
30
30
32
34

.
.
.
.
.

37
37
37
39
40
42

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

44
45
46
46
47

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

57
57
61
63
67
73

Generation et liberte
6.1 Preliminaires . . . . . . . . . . . . . . . . . . . . .
6.1.1 Sous-espace vectoriel engendre . . . . . . .
6.1.2 Independance lineaire . . . . . . . . . . . .
6.1.3 Lien entre famille libre et famille generatrice
6.2 Introduction . . . . . . . . . . . . . . . . . . . . . .
6.3 Generation . . . . . . . . . . . . . . . . . . . . . . .
6.4 Liberte . . . . . . . . . . . . . . . . . . . . . . . . .
6.5 Base . . . . . . . . . . . . . . . . . . . . . . . . . .
6.6 Familles et applications lineaires . . . . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

77
77
77
79
80
81
82
85
88
90

.
.
.
.
.
.
.
.
.

93
93
94
95
98
99
100
103
103
106

.
.
.
.
.

107
107
107
108
111
115

4.2

4.1.5 Derivation dans K[X] . . . . . . . . . . .


Fractions rationnelles . . . . . . . . . . . . . . .
4.2.1 Structure . . . . . . . . . . . . . . . . .
4.2.2 Fonctions rationnelles . . . . . . . . . .
4.2.3 Decomposition des fractions rationnelles

5 Espaces vectoriels
5.1 Structure . . . . . . . . . . . . . .
5.2 Sous-espaces vectoriels . . . . . .
5.3 Applications lineaires . . . . . . .
5.4 Somme de sous-espaces vectoriels
5.5 Projections et projecteurs . . . . .
6

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

Dimension finie
7.1 Espace vectoriel de dimension finie . . . . . . . .
7.1.1 Existence des bases . . . . . . . . . . . . .
7.1.2 Dimension . . . . . . . . . . . . . . . . .
7.1.3 Caracterisation des bases en dimension finie
7.2 Dimension dun sous-espace vectoriel . . . . . . .
7.2.1 Somme et dimension . . . . . . . . . . . .
7.3 Notion de rang . . . . . . . . . . . . . . . . . . .
7.3.1 Rang dune application lineaire . . . . . .
7.3.2 Dimension de L(E,F) . . . . . . . . . . . .

8 Matrices
8.1 Calcul matriciel . . . . . . . . . . . . . . . . . . .
8.1.1 Generalites . . . . . . . . . . . . . . . . .
8.1.2 Matrice associee a` une application lineaire
8.1.3 Operations sur les matrices . . . . . . . . .
8.1.4 Matrices colonnes . . . . . . . . . . . . .
4

.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.

8.2

8.3

8.1.5 Transposition . . . . . . .
Matrices carrees . . . . . . . . . .
8.2.1 Structure . . . . . . . . .
8.2.2 Matrices inversibles . . .
Changement de bases . . . . . . .
8.3.1 Les personnages . . . . .
8.3.2 Action sur les coordonnees
8.3.3 Action sur les matrices . .
8.3.4 Matrices e quivalentes . . .
8.3.5 Matrices semblables . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

116
117
117
120
120
120
122
122
123
124

Chapitre 1
Generalites
On rappelle dans ce chapitre les notions e lementaires densembles et dapplications ainsi que les principales proprietes quune loi de composition est susceptible de posseder. Il sagit dun chapitre regroupant bon nombre de notions dej`a
connues depuis longtemps par le lecteur. Pour cette raison, les demonstrations
les plus faciles seront omises et les plus difficiles admises. Enfin, on a ajoute un
appendice darithmetique qui se concentre sur la notion de denombrabilite. A ce
propos, le lecteur est invite a` revoir de lui-meme les principales definitions et proprietes de lanalyse combinatoire.

1.1

Ensembles

Les notions densemble, dappartenance et degalite ne se definissent pas,


on admettra donc que a E (qui se lit a appartient a` E, ou a est e lement de E) est
une notation comprise de tous, ainsi que sa negation a
/ E. De meme, A = B
signifie que les objets A et B sont identiques et donc, sil sagit densembles, quils
sont formes des memes e lements.
DEFINITION 1.1 Soit E un ensemble, on dit quun ensemble X est une partie de
E (ou un sous-ensemble de E) si tout e lement de X est e lement de E. On dit aussi
que X est inclus dans E et on note :
(X E) (E X) (x, x X x E).
Si X E et X 6= E on peut preciser X

E.

On admettra que toutes les parties de E forment un nouvel ensemble note


P(E), i.e. :
X E X P(E).
7

On admettra de meme lexistence dun ensemble ne contenant aucun e lement,


note (ensemble vide). On a donc pour tout ensemble E :
x, x x E,
i.e. E. On dit que X est une partie propre de E si X E, X 6= , X 6= E.
Une partie X dun ensemble E peut se determiner en general de deux facons :
1. en extension : X = {2, 3, 5, 7}
2. en comprehension : X = {n N / n 10 et n premier }.
DEFINITION 1.2 Si X et Y sont deux parties de E, on definit :
X Y = {x E/x X ou x Y } et X Y = {x E/x X et x Y }.
X Y (respectivement - resp. - X Y ) sappelle reunion (resp. intersection) des
parties X et Y.
Si X Y = , on dit que X et Y sont disjointes.
Ces notions se generalisent au cas dun ensemble quelconque de parties. Si P
est une partie de P(E), i.e. un ensemble de parties de E, on note :
XP X = {x E/X P, x X} et XP X = {x E/X P, x X}.
DEFINITION 1.3 Si X E, on definit CE (X) = {x E / x
/ X} ; on le
E ou X.
CE (X) sappelle le complementaire dans E de la partie X,
note aussi X
la derni`ere notation sera utilisee lorsque le referentiel E sera e vident.
DEFINITION 1.4 Si X E et Y E, on definit :
X\Y = {x E/x X et x
/ Y }.
X\Y sappelle difference de X et de Y .
DEFINITION 1.5 Soient E un ensemble et P une partie de P(E), on dit que :
1. P est un recouvrement de E si :
x E, X P, x X
2. P est une partition de E si :
(a) P est un recouvrement de E
(b)
/P
(c) X P , Y P , X 6= Y X Y = .
8

Une partition est donc un recouvrement ne contenant pas la partie vide, et dont
les e lements sont deux a` deux disjoints.
DEFINITION 1.6 Soient E et F deux ensembles, on appelle produit cartesien de
E et F et on note EF :
E F = {(x, y)/x E et y F }.
La notion de couple (x,y) ne se definit pas, mais verifie :
(x, y) = (x0 , y 0 ) x = x0 et y = y 0 .
Plus generalement, on definit le produit cartesien de k ensembles E1 , ..., Ek
par :
E1 ... Ek = {(x1 , ..., xk )/i [1, k], xi Ei }.
Legalite de deux k-uplets se definit de meme par legalite de toutes les composantes de meme rang. Si E1 = E2 = ... = Ek = E, E E ... E se note aussi
Ek .
Meme si E1 = E2 , il ne faut pas confondre (x, y) et (y, x) (sauf si y = x) ainsi
que (x, y) et{x, y} (surtout si y = x).
PROPOSITION 1.1 Soient E un ensemble, A, B, C des parties quelconques de
E, on a :
=A
1. CE (A)
2. A A = A et A A = A
3. A B = B A et A B = B A
4. A (B C) = (A B) C et A (B C) = (A B) C
5. A (B C) = (A B) (A C) et A (B C) = (A B) (A C)
6. CE (A B) = CE (A) CE (B) et CE (A B) = CE (A) CE (B)
7. A B = A B A et A B = A A B.
Demonstration : admise (par analogie avec les symboles logiques, non presentes
ici)

1.2 Applications
DEFINITION 1.7 Soient E et F deux ensembles, on dit que f est une fonction de
E vers F si tout e lement x de E est en relation par f avec au plus un e lement y de
F. Cet e lement, lorsquil existe, est note f(x).
Lensemble des x de E pour lesquels f(x) existe sappelle ensemble de definition
de la fonction f et se note Def(f).
9

Si f est une fonction de E vers F et si Def (f ) = E, f sappelle une application


de E vers F et on note :
EF
f:
.
x 7 f (x)
Une fonction de E vers F definit une application sur le domaine de definition
de cette fonction, a` valeurs dans F. Nous ne considererons donc par la suite que
des applications.
Soit A une partie dun ensemble E, iA : x A 7 x E est une application
de A dans E. On lappelle injection canonique de A dans E. Si A = E, iE se note
generalement IdE et sappelle application identique ou identite de E.
Soit A E, A : E {0, 1} definie par :
x A, A (x) = 1
x E\A, A (x) = 0
est une application appelee caracteristique de A.
Legalite de deux applications est legalite de leurs ensembles de depart, de
leurs ensembles darrivee et de leur relations. Il est par consequent fondamental
de ne pas confondre les quatre applications suivantes :
g1 :

R+ R+
R R+
R+ R
RR
.
, g3 :
, g3 :
2
2
2 , g2 :
x 7 x2
x 7 x
x 7 x
x 7 x

On appelle suite delements de E toute application dune partie de N dans E.


Si cette partie de N est finie, on dit que la suite est finie.
DEFINITION 1.8 Soient f une application de E vers F et A une partie de E,
lapplication notee f|A definie par :
f|A :

AF
x 7 f (x)

sappelle la restriction de f a` A.
Reciproquement, soient g une application de A vers F et f une application de
E vers F, si f|A = g on dit que f est un prolongement de g a` E.
f est donc, bien entendu, un prolongement de sa restriction a` A. Mais, si on se
donne une application de A vers F, il existe plusieurs prolongements possibles en
une application de E vers F (d`es que F a plus dun e lement et A different de E). On
verra ulterieurement des exemples permettant dobtenir, sous certaines conditions,
lunicite du prolongement.
10

DEFINITION 1.9 Soient E, F et G des ensembles, on consid`ere une application


f de E vers F et une application g de F vers G. On appelle composee de g et f et
on note gf lapplication de E vers G definie par :
x E, (g f )(x) = g(f (x)).
Bien noter que lecriture gf signifie que lon effectue dabord loperation
x 7 f (x) puis loperation f (x) 7 g(f (x)).
Si f : E F , alors f IdE = f et IdF f = f , mais si E 6= F il ne sagit
pas dans les deux cas de la meme application identite.
PROPOSITION 1.2 Soient f : E F , g : F G et h : G H, alors :
h (g f ) = (h g) f,
et lon note simplement hgf cette application de E vers H.
Demonstration : triviale
DEFINITION 1.10 Soit f : E F , on dit que f est :
1. injective (ou est une injection) si lune des proprietes e quivalentes suivantes
est verifiee :
(a) x, x0 E, f (x) = f (x0 ) x = x0
(b) x, x0 E, x 6= x0 f (x) 6= f (x0 )
(c) pour tout y de F, lequation en x, y = f (x), a au plus une solution
dans E.
2. surjective (ou est une surjection) si elle verifie la propriete suivante :
y F, x E, y = f (x).
3. bijective (ou est une bijection) si elle est a` la fois injective et surjective, i.e.
si elle verifie :
y F, !x E, y = f (x).
Exercices :
1. Soit f : R \ {1} R definie par x 7
bijective ?

3x1
.
x1

Est-elle injective ?

2. Soit f : R R definie par x 7 x3 . Montrer que f est bijective.


3. Soient f : E F et g : F G. Montrer que si f et g sont injectives
(resp. surjectives, bijectives) il en est de meme de gf. Montrer que
si gf est injective (resp. surjective) alors f est injective (resp. g est
surjective).
11

DEFINITION 1.11 Soit f : E F , on dit que f est inversible sil existe une
application g : F E telle que f g = IdF et g f = IdE .
On peut definir linversibilite a` droite (resp. a` gauche) a` laide de la premi`ere
(resp. la seconde) e galite.
THEOREM 1.1 Soit f : E F , f est inversible si et seulement si f est bijective,
lapplication g de la definition precedente est alors unique, on lappelle application reciproque de f. On la note f 1 , cest une bijection de F sur E. Elle est definie
par :
(x, y) E F, x = f 1 (y) y = f (x).
Demonstration : si f est inversible, IdF et IdE e tant bijectives, lexercice 1.1.1
montre que f et g sont bijectives. De plus, g est unique car si g f = IdE et
f g 0 = IdF alors :
g = g IdF = g (f g 0 ) = (g f ) g 0 = IdE g 0 = g 0 .
Reciproquement, si f est bijective on a :
y F, !x E, y = f (x).
Cette condition permet de definir une application g de F dans E en associant
a` tout y de F lunique x de E tel que y = f (x). Ainsi, si y = f (x), on a
x = g(y). Par consequent :
y F, (f g)(y) = f (x) = y et x E, (g f )(x) = g(y) = x
PROPOSITION 1.3 Soient f : E F et g : F G, si f et g sont inversibles,
alors gf est inversible et lon a :
(g f )1 = f 1 g 1 .
Demonstration : il suffit en effet de calculer f 1 g 1 g f et g f f 1 g 1 .
DEFINITION 1.12 Soit E un ensemble, I un ensemble appele ensemble dindices. On appelle famille delements de E indexee par I toute application de I
dans E. Si x : i 7 x(i) est une telle famille, on note xi limage de i par x et (xi )iI
cette famille.
Attention, une famille nest pas necessairement injective. A deux indices differents
peuvent correspondre le meme e lement de E.
Si (Ai )iI est une famille de parties dun ensemble E, on convient de noter :
iI Ai = {x E/i I, x Ai }
iI Ai = {x E/i I, x Ai }.
12

DEFINITION 1.13 Soient f : E F , A E, B F ;


1. on appelle image directe de A par f et lon note f(A) la partie de F definie
par :
f (A) = {y F/x A, y = f (x)}.
2. on appelle image reciproque de B par f et lon note f1 (B) la partie de E
definie par :
f 1 (B) = {x E/f (x) B}.
Ces notations sont quelque peu abusives, en particulier f1 (B) ne prejuge pas
de lexistence de lapplication reciproque de f. Evidemment, si f est inversible
on a f 1 ({y}) = {f 1 (y)}, ce qui en quelque sorte justifie la notation. Mais en
general f 1 ({y}) peut e tre vide ou contenir plus dun e lement.
PROPOSITION 1.4 Soient f : E F , A et A des parties de E, B et B des
parties de F ; on a :
1. A A0 f (A) f (A0 )
2. f (A A0 ) = f (A) f (A0 )
3. f (A A0 ) f (A) f (A0 )
4. B B 0 f 1 (B) f 1 (B 0 )
5. f 1 (B B 0 ) = f 1 (B) f 1 (B 0 )
6. f 1 (B B 0 ) = f 1 (B) f 1 (B 0 )
7. A f 1 (B) f (A) B
8. A f 1 (f (A))
9. f (f 1 (B)) B.
Exercices :
Demontrer les neuf proprietes de la proposition precedente.

1.3

Lois de composition

DEFINITION 1.14 Soient E, F, G trois ensembles, on appelle loi de composition definie sur EF a` valeurs dans G toute application de EF vers G. Si
z = f ((x, y)), on convient decrire z = xy (ou x y, x + y, xy, ...). x et y
sappellent les termes et z le resultat de loperation .
Si F = G, la loi est dite externe sur F de domaine doperateurs E.
Si E = F = G, la loi est dite interne sur E et on note en abrege (E,).
Exemples :
13

1. Dans R (ou N , Z, Q) les lois usuelles + et . sont des lois internes.


2. Dans P(E) les lois et sont des lois internes.
3. Dans lensemble des applications de E vers E, la composition est une
loi interne.
DEFINITION 1.15 Soit (E,) un ensemble muni dune loi de composition interne ; on dit que :
1. est associative (dans E) si :
x, y, z E, (xy)z = x(yz)
2. x et y sont permutables (pour ) si :
xy = yx
x est central si :
y E, xy = yx
3. est commutative (dans E) si :
x, y E, xy = yx
4. e est e lement neutre si :
x E, ex = xe = x
5. a est regulier si :
x, y E, ax = ay x = y et xa = ya x = y
6. i est idempotent si :
ii = i
7. si (E,) admet un e lement neutre e, on dit que x est symetrique de x si :
xx0 = x0 x = e
8. A E est stable pour si :
x, y A, xy A
(on peut donc definir une loi induite sur A que lon note generalement par
le meme symbole).
14

THEOREM 1.2 (r`egles de parenthesage)


Si est une loi de composition interne associative sur E, alors dans toute
succession doperations on peut regrouper tels termes consecutifs que lon veut,
et les remplacer par leur resultat, sans changer le resultat final. Si de plus est
commutative, on peut effectuer les regroupements des termes que lon veut.
Demonstration : a` la fois facile et fastidieuse
Exercices :
Demontrer les resultats suivants (qui doivent e tre connus) :
1. lelement neutre, sil existe, est unique
2. si la loi est associative et poss`ede un e lement neutre, le symetrique
dun e lement, lorsquil existe, est unique ; ce resultat est en general
faux si la loi nest pas associative
3. si la loi est associative, tout e lement symetrisable (i.e. qui admet un
symetrique) est regulier
4. si la loi est associative et si x et y sont symetrisables, alors xy est
symetrisable : quel est son symetrique ?
5. toute intersection de parties stables est stable ; ce resultat est en general
faux pour la reunion.
DEFINITION 1.16 Soit E muni de deux lois de composition internes et *, on
dit que * est distributive sur si :
x, y, z E, x(yz) = (xy)(xz) (`a droite) et (yz)x = (yx)(zx) (`a gauche).
Par exemple, dans (R,+,.), la multiplication est distributive sur laddition et
dans (P(E),,), est distributive sur et lest e galement sur .
DEFINITION 1.17 Soient (E,), (F,*), f une application de E vers F ; on dit que
f est un morphisme de (E,) dans (F,*) si :
x, y E, f (xy) = f (x) f (y).
Si f est bijective, on dit que f est un isomorphisme.
Si (E, ) = (F, ), on dit que f est un endomorphisme. Attention, si E = F
mais 6= , on ne parlera pas dendomorphisme.
Un endomorphisme bijectif sappelle un automorphisme.
THEOREM 1.3 Si f est un isomorphisme de (E,) sur (F,*), alors f1 est un
isomorphisme de (F,*) sur (E,). On lappelle lisomorphisme reciproque de f.
Demonstration : e vident, en revenant a` la definition de f1
15

Soient (E,) et f une bijection de E sur un ensemble F, on peut definir une loi
* sur F en posant :
z, t F, z t = f (f 1 (z)f 1 (t)).
f devient ainsi un isomorphisme de (E,) sur (F,*). On dit alors quon a realise un
transport de structure.

Exemple : lapplication log : R+


R est un isomorphisme de (R+
,.) sur (R,+),
lisomorphisme reciproque se notant exp.

Par tradition, on nemploie le symbole + que dans le cas dune loi commutative
et associative. Lelement neutre et le symetrique e ventuels se notent alors 0 et -x.
La meme tradition impose de nemployer le symbole . (ou rien) que dans le
cas dune loi associative. Lelement neutre et le symetrique e ventuels se notent
alors 1 et x1 .
P
Au lieu decrire x1 +...+xn ou x1 . ... .xn P
on e crira souvent ni=1 xi et ni=1 xi .
Soit I un ensemble fini dindices, lecriture iI xi ne pose pas de probl`emes ;
par contre lecriture iI xi impose, si la multiplication nest pas commutative,
que lon se soit donne un ordre total sur I. Par convention, la multiplication se fera
alors en e crivant de gauche a` droite dans lordre des indices croissants.

1.4
1.4.1

Arithmetique
Rappels de definitions et proprieteselementaires

DEFINITION 1.18 Soient a, b deux entiers quelconques, on dit que a divise b et


on e crit a / b sil existe un entier k tel que b = ka.
PROPOSITION 1.5 (a, b) N N , !(q, r) N 2 , a = bq + r et 0 r < b.
Demonstration : admise
La pratique de cette division, appelee division euclidienne, est supposee connue
de tous.
DEFINITION 1.19 On dit que lentier p est un nombre premier (et on note P
lensemble des nombres premiers) sil verifie lune des conditions e quivalentes
suivantes :
1. p N , p > 1 et a N , a / p a = 1 ou a = p
2. p N , p > 1 et a, b N , p / ab p / a ou p / b.
PROPOSITION 1.6
1. Tout entier superieur a` 1 a un plus petit diviseur superieur
a` 1 et ce diviseur est premier.
16

2. Si lentier n nest divisible par aucun nombre premier p tel que p2 n,


alors n est premier.
3. P est infini.
Demonstration : e vident pour les deux premi`eres proprietes, admis pour la troisi`eme
THEOREM 1.4 Tout entier n superieur a` 1 admet une factorisation unique en
facteurs premiers, a` lordre des facteurs pr`es, i.e. :
!m N , !(p1 , ..., pm ) P m , p1 p2 ... pm , n = p1 p2 ...pm .
Demonstration : admis
On appelle exposant de p P dans n le nombre dindices i tels que p = pi . On
le note vp (n) : vp (n) est donc nul sauf pour un nombre fini de nombres premiers,
ce qui permet decrire, avec la convention habituelle p0 = 1, n = pP pvp (n) , de
sorte que ce produit est en fait un produit fini.
DEFINITION 1.20 Soit (a1 , ..., an ) un n-uplet delements de N ,
1. il existe un unique entier non nul d tel que :
i [1, n], d/ai et N, (i [1, n], /ai ) /d;
d sappelle le plus grand diviseur commun a` a1 , ..., an et se note d =
P GCD(a1 , ..., an )
2. il existe un unique entier non nul m tel que :
i [1, n], ai /m et M N, (i [1, n], ai /M ) m/M ;
m sappelle le plus petit multiple commun a` a1 , ..., an et se note m =
P P CM (a1 , ..., an ).
Il est dailleurs facile de voir que si on pose, pour tout nombre premier p,
m(p) = min{vp (ai ), i [1, n]} et M (p) = max{vp (ai ), i [1, n]}, alors on a :
d = pP pm(p) et m = pP pM (p) .
Pour rechercher le PGCD de deux nombres a et b (a > b par exemple), il suffit
donc deffectuer la factorisation en nombres premiers de a et b et dappliquer
le resultat precedent. Dans la pratique, il est plus facile dappliquer la methode
suivante, dite algorithme dEuclide.
Soit a = bq + r le resultat de la division euclidienne de a par b, alors ( / a et
/ b) ( / b et / a bq). Par consequent, P GCD(a, b) = P GCD(b, r). Or
b < a et r < b : si r = 0 alors a est un multiple de b et P GCD(a, b) = b, si r 6= 0
on it`ere le procede en remplacant le couple (a,b) par le couple (b,r). Le PGCD de
a et b est donc le dernier reste precedant le reste nul. Il suffit detre patient puisque
les restes sont strictement decroissants.
17

1.4.2

Denombrabilite

DEFINITION 1.21 Soit E un ensemble, on dit que E est strictement denombrable


sil existe une bijection de E sur N. On dit que E est denombrable sil est fini ou
strictement denombrable.
En dautres termes, un ensemble est denombrable si et seulement si on peut
numeroter ses e lements.
Exemples :
1. N est strictement denombrable. En effet, s : N N definie par
s(n) = n + 1 est bijective, par definition meme de N .
2. Toute partie de N est finie ou strictement denombrable. En effet, si
une partie A de N nest pas finie, lapplication qui a` n N associe le
n-`eme e lement de A, pour lordre usuel, est une bijection de N sur A.
En particulier, lensemble des nombres entiers naturels pairs est strictement denombrable, lensemble des nombres premiers est strictement
denombrable...
3. Z est strictement denombrable. En effet, lapplication f : N Z
si n est impair
definie par f (n) = n2 si n est pair et par f (n) = n+1
2
est une bijection de N sur Z (le verifier).
4. N N est strictement denombrable. En effet, lapplication f : N
N N definie par f (p, n) = 2p 3n est injective (le verifier et conclure
dapr`es lexemple 2).
5. Q+ est strictement denombrable. En effet, en choisissant le representant
irreductible de toute fraction, on voit que Q+ est en bijection avec une
partie de N N . Par consequent, Q+ est en bijection avec une partie
de N (exemple 4).
6. Q est strictement denombrable. En effet, Q+ est en bijection avec N
et donc avec N (exemples 1 et 5). En symetrisant pour laddition, Q
est en bijection avec Z et en prolongeant en 0, Q est en bijection avec
Z. Or Z est strictement denombrable (exemple 3). Par consequent, Q
est strictement denombrable.
Ce dernier exemple est tout a` fait fondamental en analyse, bien que tout a`
fait contraire a` lintuition e lementaire, ce qui prouve que lintuition est de peu de
secours dans letude des cardinaux infinis.
THEOREM 1.5 (Cantor)
R nest pas denombrable, et meme, plus precisement :
a, b R, a < b, ]a, b[ nest pas denombrable.
18

Demonstration : admis
COROLLARY 1.1 Lensemble R\Q des nombres irrationnels nest pas denombrable.
Demonstration : en effet, si R\Q e tait denombrable, on pourrait le mettre en
bijection avec Z . Mais Q peut e tre mis en bijection avec N (exemples 1
et 6), et alors R serait en bijection avec Z, ce qui contredit le theor`eme de
Cantor

19

20

Chapitre 2
Structures
Par structure algebrique sur un ensemble E, on entend la donnee dun nombre
fini de lois internes ou externes assujetties a` verifier un certain nombre de proprietes.
La notion fondamentale dans ce chapitre est celle disomorphisme, i.e. de bijection compatible avec les lois. En effet, si deux ensembles munis de structures
sont isomorphes, toute propriete demontree dans lun et qui ne depend que de la
structure se transpose dans lautre a` laide de lisomorphisme.

2.1
2.1.1

Groupes
Generalites

DEFINITION 2.1 On dit quun ensemble G muni dune loi de composition interne * est un groupe si :
1. * est associative :
(a, b, c) G, (a b) c = a (b c)
2. * admet un e lement neutre (G est donc non vide) :
e G, a G, a e = e a = e
3. tout e lement poss`ede un symetrique pour * :
a G, a0 G, a a0 = a0 a = e
Si de plus la loi * est commutative, on dit que (G,*) est un groupe commutatif
ou, plus souvent, un groupe abelien.
21

Dapr`es les proprietes generales des lois de composition internes, si (G,*) est
un groupe, lelement neutre est unique, ainsi que le symetrique dun e lement quelconque. Le symetrique dun compose est le compose dans lordre inverse des
symetriques. Tout e lement est regulier a` gauche et a` droite. On en deduit donc :
PROPOSITION 2.1 Soient a : G G definie par a (x) = ax et a : G G
definie par a (x) = x a, alors, quel que soit a appartenant a` G, a et a sont des
bijections de G sur G.
Exemples :

1. (Z,+), (R,+), (R ,.), (R+


,.), (Q ,.), (Q+ ,.), ({-1,+1},.) sont des groupes
abeliens.

2. Si (G,.) est un groupe et E un ensemble quelconque, lensemble des


applications de E vers G est muni naturellement dune structure de
groupe, en definissant la loi notee encore . par :
f.g : x 7 f (x).g(x).
Cest dailleurs un des rares cas o`u il ne faut pas noter le symetrique de
f par f1 a` cause de la confusion avec leventuelle application reciproque.
3. Si (G,.) et (H,.) sont deux groupes, GH est muni dune structure de
groupe en definissant :
(x, y), (u, v) G H, (x, y).(u, v) = (x.u, y.v).
On dit alors que (GH,.) est le produit des groupes G et H. Ceci
setend bien sur au produit de n groupes.
Exercices :
1. Soit E = {e, a}, montrer quil existe une seule loi de groupe sur E
dont e est lelement neutre.
2. Dans R R on pose (x, y) (x0 , y 0 ) = (xx0 , xy0 + xy 0 ), montrer que
cette loi conf`ere a` R R une structure de groupe.

2.1.2

Sous-groupes

DEFINITION 2.2 Soient (G,.) un groupe et H une partie de G, on dit que H est
un sous-groupe de G si :
1. H est stable :
x, y H, x.y H
22

2. H muni de la loi induite, encore notee ., a une structure de groupe.


PROPOSITION 2.2 Soient (G,.) un groupe et H une partie de G, les trois proprietes suivantes sont e quivalentes :
1. H est un sous-groupe de G
2.
H 6=
x, y H, x.y H
x H, x1 H
3.
H 6=
.
x, y H, xy 1 H
Demonstration : circulaire
(1) (2) et (2) (3) sont e vidents. On demontre donc (3) (1) ce qui
prouvera lequivalence des trois proprietes.
Comme H est non vide, il existe un e lement x de H et donc x.x1 H (prendre
y = x dans (3)) do`u 1 H. Par ailleurs, si y H, on a y 1 H (prendre
x = 1 dans (3)) et donc x.(y 1 )1 = x.y H. Ainsi, H est stable.
Les axiomes de groupe se verifient alors immediatement, la loi est associative
(par restriction), elle admet un e lement neutre 1, et y1 est linverse de y
dans H comme dans G
Une partie stable dun groupe nest pas necessairement un sous-groupe. Par
exemple, N est une partie stable de Z pour laddition, mais ce nest pas un sousgroupe de Z.
Pour demontrer quun ensemble muni dune loi est un groupe, on essaiera souvent decrire que cest un sous-groupe dun groupe connu, ce qui permet dalleger
les demonstrations.
Tout sous-groupe dun groupe abelien est, bien entendu, abelien. Mais un
groupe non commutatif peut avoir des sous-groupes commutatifs propres.
Exemples :
1. Quel que soit le groupe (G,.), (G,.) et ({1},.) sont des sous-groupes de
(G,.) ; un sous-groupe distinct des deux precedents (sil en existe) est
appele sous-groupe propre.
2. (Q,+) est un sous-groupe de (R,+), (Z,+) est un sous-groupe de (Q,+)
et donc a fortiori de (R,+).
23

2.1.3

Morphismes

DEFINITION 2.3 Soient (G,.), (H,*) deux groupes, f une application de G dans
H, on dit que f est un morphisme de groupes si on a :
x, y G, f (x.y) = f (x) f (y).
Si f est bijectif, on dit que f est un isomorphisme de groupes, si G = H on dit que f
est un endomorphisme, un endomorphisme bijectif sappelle un automorphisme.
DEFINITION 2.4 On appelle noyau du morphisme f, et on note Ker(f) lensemble defini par :
Ker(f ) = {x G/f (x) = 1H }.
DEFINITION 2.5 On appelle image du morphisme f, et on note Im(f) ou f(G)
lensemble defini par :
Im(f ) = {y H, x G, y = f (x)}.
Ces definitions sont conformes aux definitions ? ? ; le theor`eme ? ? sapplique
donc, i.e. si f est un isomorphisme de G sur H, alors f1 est un isomorphisme de
H sur G.
PROPOSITION 2.3 Soit f un morphisme du groupe (G,.) dans le groupe (H,*),
alors :
1. f (1G ) = 1H et x G, f (x1 ) = [f (x)]1
2. limage par f dun sous-groupe de G est un sous-groupe de H ; en particulier
Im(f) est un sous-groupe de H
3. limage reciproque par f dun sous-groupe de H est un sous-groupe de G ;
en particulier Ker(f) est un sous-groupe de G
4. f est un morphisme injectif si et seulement si Ker(f ) = {1G }.
Demonstration : en effet,
1. x G, x.1G = x, donc f (x.1G ) = f (x) f (1G ) = f (x) do`u
par regularite f (1G ) = 1H ; de meme x.x1 = x1 .x = 1G donc
f (x.x1 ) = f (x) f (x1 ) = f (1G ) = 1H , idem a` gauche, do`u
f (x1 ) = [f (x)]1
2. Soit K un sous-groupe de G, on a :
y1 , y2 f (K), x1 , x2 K, y1 = f (x1 ) et y2 = f (x2 )
donc y1 y21 = f (x1 ) [f (x2 )]1 = f (x1 .x1
2 ) ; mais K est un sous1
1
groupe de G, donc x1 .x2 K et y1 y2 f (K), do`u f(K) est bien
un sous-groupe de H
24

3. preuve semblable (lecrire)


4.
f injectif

(x 6= y f (x) 6= f (y))
(x.y 1 6= 1G f (x) [f (y)]1 6= 1H )
(x.y 1 6= 1G f (x.y 1 ) 6= 1H )
Ker(f ) = {1G }

Quand un morphisme rencontre un autre morphisme, la descendance est assuree, car :


THEOREM 2.1 Soient (G,.), (H,.), (K,.) trois groupes ; si f est un morphisme de
G dans H et g un morphisme de H dans K, alors gf est un morphisme de G dans
K.
Demonstration : la seule chose a` demontrer est que gf est un morphisme :
x, y G, gf (x.y) = g(f (x.y)) = g(f (x).f (y)) = g(f (x)).g(f (y)) = gf (x).gf (y)
THEOREM 2.2 Soit (G,.) un groupe ; si Aut(G) designe lensemble des automorphismes de G, alors (Aut(G),) est un groupe.
Demonstration : on sait dej`a que la composition est interne et associative, lelement
neutre est lidentite de G, le symetrique dun e lement est la bijection reciproque
qui est bien un automorphisme
Si (G,.) est un groupe et f une bijection de G sur un ensemble H, alors on peut
transposer la structure de G sur H a` laide de f, en posant :
x, y H, x.y = f (f 1 (x).f 1 (y)).
f devient alors un isomorphisme de groupes.

2.2

Corps

DEFINITION 2.6 Soit un ensemble K muni de deux lois de composition internes


+ et *, on dit que (K,+,*) est un corps si :
1. (K,+) est un groupe abelien, delement neutre note 0 ou 0K
2. * est associative et distributive par rapport a` laddition, i.e.
a, b, c K,

a (b c) = (a b) c
a (b + c) = a b + a c et (a + b) c = a c + b c
25

3. * poss`ede un e lement neutre non nul, note 1 ou 1K et appele e lement unite


4. x K = K\{0}, x0 K, x x0 = x0 x = 1K .
Si de plus la multiplication est commutative, on dit que K est un corps commutatif.
Si (K,+,*) est un corps, (K ,*) est donc un groupe multiplicatif, qui est abelien
si et seulement si K est commutatif.
Exemples :
1. Q, R, C sont des corps commutatifs pour les lois usuelles

2. Q[ 2] = {a+b 2, a, b Q} est un corps commutatif (le demontrer).


DEFINITION 2.7 Soit (K,+,*) un corps et k une partie de K, on dit que k est un
sous-corps de K, ou que K est un sur-corps de k, si :
1. k est stable pour les deux lois + et *
2. 1K k
3. k muni des deux lois induites verifie les deux premi`eres proprietes de la
definition precedente
4. a k , a1 k .

Par exemple, Q est un sous-corps de Q[ 2] qui est lui-meme un sous-corps de

R.

2.3

Autres structures

2.3.1

Espaces vectoriels

DEFINITION 2.8 Soit K un corps commutatif, on dit quun ensemble E a une


structure de K-espace vectoriel si
1. E est muni dune loi de composition interne + telle que (E,+) soit un groupe
abelien
2. E est muni dune loi externe de domaine doperateurs K, notee . verifiant :
x

,
,

E, 1K .x = x
K, x, y E, .(x + y) = .x + .y
K, x E, ( + ).x = .x + .x
K, x E, .(.x) = ().x.
26

On ne donne ici aucune definition ou propriete supplementaire, la seconde


partie de ce cours e tant consacree a` cette notion. On peut toutefois remarquer
d`es maintenant que si K est un sur-corps commutatif du corps k, alors K est un
k-espace vectoriel, en considerant comme loi externe sur K la restriction de la
multiplication de K a` kK.

2.3.2 Alg`ebres
DEFINITION 2.9 Soit K un corps commutatif, on dit quun ensemble E a une
structure de K-alg`ebre si :
1. E est muni dune structure de K-espace vectoriel
2. E est muni dune seconde loi interne notee , telle que (E,+,) verifie les
deux premi`eres proprietes de la definition ? ?
3. K, x, y E, .(x y) = (.x) y = x (.y).
Exemples :
1. Si K est un sur-corps commutatif du corps k, alors K est une k-alg`ebre.
Il est a` noter que la multiplication sert a` la fois comme loi interne et
comme loi externe.
2. Mn (k) est une k-alg`ebre pour les lois usuelles definies sur lensemble
des matrices carrees dordre n.

27

28

Chapitre 3
Les corps des reels et des complexes
3.1

Nombres reels

La definition de R ne rel`eve pas de lalg`ebre mais de lanalyse. En effet, un


nombre reel apparat comme la limite dune suite adequate de nombres rationnels.
On se contente donc ici de rappeler les proprietes algebriques fondamentales de
R.
THEOREM 3.1 R est archimedien, i.e. :
a R, x R , n N, a nx.
Demonstration : e vident et fondamental

R est aussi archimedien pour la multiplication :


a R, x R, x > 1, n N, a nx.
Comme R est totalement ordonne, on peut definir x R, |x| = max(x, x)
qui se lit valeur absolue. On a alors :
x R, |x| 0 et |x| = 0 x = 0
x, y R, |xy| = |x| . |y|
x, y R, |x + y| |x| + |y| .
THEOREM 3.2 (de la borne superieure)
1. Toute partie de R non vide et majoree admet une borne superieure.
2. Toute partie de R non vide et minoree admet une borne inferieure.
Demonstration : admis
29

Cest en cela que R est convenable, car A = {x Q+ / x2 < 2} est une partie
non vide et majoree de Q mais sans borne superieure dans Q, alors que A est a
fortiori
majoree dans R et admet dans R une borne superieure, a` savoir justement

2.
THEOREM 3.3 (des segments embotes)
Soit (Tn )nN , o`u Tn = [an , bn ], une suite dintervalles fermes bornes, non
vides de R ; si (Tn )nN est decroissante (i.e. si n N, Tn+1 Tn ), alors
nN Tn est non vide. Si, de plus, limn+ (bn an ) = 0 alors cette intersection
se reduit a` un point.
Demonstration : consequence du precedent
Ce theor`eme est faux pour le corps Q, en prenant
par exemple pour an et bn
les valeurs approchees par defaut et par exc`es de 2 a` 10n pr`es.

3.2
3.2.1

Nombres complexes
Construction


a b
b a

M2 (R) ; alors, muni des lois usuelles





a 0
sur M2 (R), C est un corps commutatif contenant
, a R qui est
0
a


0 1
un sous-corps de C isomorphe a` R. De plus, i =
verifie i2 + 1 = 0.
1 0
Le lecteur scrupuleux peut se sentir frustre de construire C a` partir de M2 (R)
non encore defini. Cet exemple a toutefois le merite de fixer les idees. On presente
ci-dessous une construction plus formelle a` partir de notions dej`a presentees.
On consid`ere une R-alg`ebre de dimension 2, de base (1, i) telle que 1 soit
e lement neutre pour la multiplication et i2 = 1. Par exemple, on consid`ere R2
muni des lois suivantes :
Soit C =

, a, b R

(x, y), (x0 , y 0 ) R2 ,

(x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 )
.
(x, y).(x0 , y 0 ) = (xx0 yy 0 , xy 0 + x0 y)

Le lecteur verifiera a` la main que R2 muni de ces deux lois est bien un corps
commutatif, que R {0} en est un sous-corps isomorphe a` R que lon confondra
avec R. De plus i = (0, 1) verifie i2 + 1 = 0. Tout couple (x, y) de reels peut alors
secrire (x, y) = x + iy avec i2 = 1. En conclusion :
THEOREM 3.4 Il existe un corps commutatif C, contenant un sous-corps isomorphe a` R, tel que C soit un R-espace vectoriel de dimension 2, dans lequel il
30

existe une base (1, i) avec i2 = 1. Ainsi tout e lement z de C secrit de mani`ere
unique sous la forme z = a + ib, avec a, b R. C sappelle corps des nombres
complexes.
DEFINITION 3.1 Soit z = a + ib C, a, b R,
1. a sappelle la partie reelle de z et se note Re(z), b sappelle la partie imaginaire de z et se note Im(z), a + ib sappelle alors la forme algebrique de
z.
2. Re et Im sont des applications lineaires de C sur R, i.e. :
<(z + z 0 ) = <(z) + <(z 0 ) et =(z + z 0 ) =
Im(z)+
Im(z 0 )
z, z 0 C, R,
<(z) = <(z) et
Im(z) =
Im(z)
3. on appelle nombre complexe conjugue de z, et on note z, le nombre complexe defini par z = a ib. Lapplication z 7 z est un automorphisme
involutif du corps C, i.e. :
z, z 0 C, z + z 0 = z + z0 , zz 0 = zz0 et z = z.
4.
<(z) =

1
(z + z),
2

1
(z z)
2i
z R z = z
Im(z) = 0
z iR z =
z <(z) = 0.

Im(z) =

Si z iR on dit que z est imaginaire pur.


+
DEFINITION 3.2 Si z C, alors
z z R ; on appelle module de z et on note
|z| le nombre reel positif |z| = z z.

Attention, z z a un sens mais pas z en general : le symbole na de sens


que pour les nombres reels positifs et designe la racine carree arithmetique.

PROPOSITION 3.1
1. Si z R, |z| nest autre que la valeur absolue de z ;
il ny a donc pas incompatibilite de notation
31

2. z R, <(z) |z| et
Im(z) |z|
3. |z| = 0 z = 0
0
0
|zz
| =1|z| |z |
1
= si z 6= 0
|z|
4. z, z 0 C, z
|z + z 0 | |z| + |z 0 |
|
z | = |z|
5. Si z C , z 1 =

z
.
|z|2

Demonstration : fort simple


1. si z R, z = z et donc |z| =
absolue de z

z 2 qui represente bien la valeur

2. soit z = a +
ib C, a, b R, on a alors |z| =
a |a| a2 + b2 , idem pour b

z z =

a2 + b2 , do`u

3. |z| = 0 |z|2 = 0 z z = 0 (z = 0) ou (
z = 0) z = 0
|zz 0 |2 = zz 0 zz 0 = zzz 0 z0 = |z|2 |z 0 |2
prendre z 0 = z1
4.
|z + z 0 |2 = (z + z 0 )(
z + z0 ) = z z + z z0 + zz 0 + z 0 z0 = |z|2 + 2<(z z0 ) + |z 0 |2
or <(z z0 ) |z z0 | = |z| |z 0 | do`u |z + z 0 |2 (|z| + |z 0 |)2
5. zz = |z|2 donc si z 6= 0 on en deduit z |z|z2 = 1, i.e. z 1 =

z
|z|2

DEFINITION 3.3 Soit U = {z C, |z| = 1}, alors dapr`es les deux derni`eres
proprietes U est muni dune structure de groupe multiplicatif ; on lappelle groupe
unite de C.

3.2.2

Interpretation geometrique

Soit P un plan euclidien reel rapporte a` une base orthonormee, P sera considere
comme e tant muni a` la fois de sa structure vectorielle et de sa structure affine.
DEFINITION 3.4 Soit z = x + iy un nombre complexe quelconque e crit sous

forme algebrique, on lui associe le point M ou le vecteur OM du plan P de coor


donnees (x, y) dans le rep`ere considere dorigine O ; M ou OM sappellent image

de z et inversement z sappelle affixe de M ou OM .

Le module de z nest autre que la longueur du vecteur OM . De plus, cette


interpretation geometrique est particuli`erement adaptee a` la visualisation de lad
dition des nombres complexes. En effet, si z est laffixe de OM et z laffixe de


OM 0, alors z + z 0 est laffixe du vecteur OM + OM 0 . Faire un dessin pour sen
convaincre !
32

z
DEFINITION 3.5 Soit z C , alors |z|
U ; on appelle Argument de z langle
z

de la rotation transformant le vecteur u en le vecteur image de |z|


, et on appelle
argument de z, note arg(z), toute mesure de cet angle.

Le nombre complexe nul ne poss`ede pas dargument. Il est tout a` fait fondamental de remarquer que tout nombre complexe non nul poss`ede un argument,
mais une infinite darguments definis a` 2k pr`es.
y
x
Soit un argument de z = x + iy 6= 0, on a z = |z| ( |z|
+ i |z|
). Ainsi, z peut
secrire :
z = x + iy = |z| (cos + i sin ).
Cette derni`ere e criture sappelle forme trigonometrique du nombre complexe
z non nul. Il est donc facile de passer de la forme algebrique a` la forme trigonometrique, mais en general la determination exacte dun tel angle ne conduit
pas a` des calculs algebriques.
PROPOSITION 3.2 Soient z, z 0 C e crits sous forme trigonometrique :
z = |z| (cos + i sin ), z 0 = |z 0 | (cos 0 + i sin 0 ),
alors :

zz 0 = |z| |z 0 | (cos( + 0 ) + i sin( + 0 ))


;
1
z 1 = |z|
(cos() + i sin())

en dautres termes :
arg(zz 0 ) arg(z) + arg(z 0 )[2]
.
arg(z 1 ) arg(z)[2]
Demonstration : e vident, car resulte des formules classiques de trigonometrie
cos( + 0 ) = cos cos 0 sin sin 0
.
sin( + 0 ) = sin cos 0 + cos sin 0
THEOREM 3.5 (formule de Moivre)
Soit z = |z| (cos + i sin ) un nombre complexe non nul, alors pour tout
entier relatif n on a :
z n = |z|n (cos n + i sin n).
Demonstration : a` laide dun raisonnement par recurrence, aussi bien pour n 0
que pour n < 0, a` laide des proprietes precedentes.
On convient de noter tout nombre complexe de module 1 sous la forme z = ei
(exponentielle complexe), o`u est un Argument de z. Les formules precedentes
prennent alors la forme simple suivante :
0

ei ei = ei(+ ) , (ei )1 = ei , (ei )n = ein , n Z.


33

De plus, des relations ei = cos + i sin et ei = cos i sin on deduit les


formules suivantes, appelees formules dEuler :
cos =

ei ei
ei + ei
et sin =
2
2i

Les formules de Moivre et dEuler permettent de demontrer aisement un grand


nombre didentites trigonometriques. On en donne deux exemples a` titre dexercices.
Exercices :
1. Soit n N , calculer cos n en fonction de cos .
2. Calculer, en fonction de x, C = 1 + cos x + cos 2x + ... + cos(n 1)x
(indication : poser S = 1 + sin x + sin 2x + ... + sin(n 1)x et calculer C + iS).

3.2.3

Resolution des e quations

THEOREM 3.6 Soit z C un nombre complexe non nul quelconque, alors z a


exactement deux racines carrees opposees, i.e. deux nombres complexes z et z
solutions de lequation en Z : Z 2 = z.
Demonstration : de deux mani`eres
1. on suppose z e crit sous forme algebrique z = a + ib et on cherche
Z e galement sous forme algebrique Z = x + iy, lequation Z 2 = z
secrit alors x2 y 2 + 2ixy = a + ib, i.e.
x2 y 2 = a
x2 y 2 = a
2
x2 (y 2 ) = b4 ;
2xy = b
xy = 2b
x2 et y 2 sont donc les racines (reelles) de lequation X 2 aX
b2
= 0 (en effet, le discriminant de cette e quation vaut a2 + b2 qui est
4
strictement positif puisque z est non nul) : on obtient donc deux valeurs
possibles pour x et deux valeurs possibles pour y, mais attention, cela
ne conduit pas a` obtenir quatre racines carrees pour z, car la relation
xy = 2b induit une connexion entre les signes de x et de y, et donc
lexistence de deux racines carrees opposees
2. on suppose z e crit sous forme trigonometrique z = ei et on cherche
Z e galement sous forme trigonometrique Z = rei , lequation Z 2 = z
secrit alors r2 e2i = ei , i.e.
r2 = et 2 [2]
34


do`u r = et 2 [] (ne pas perdre de vue que r > 0) et donc



z 0 = ei 2 et z 00 = ei( 2 +) = ei 2
THEOREM 3.7 Soit az 2 + bz + c = 0, a 6= 0, une e quation du second degre a`
coefficients dans C, alors si = b2 4ac 6= 0 cette e quation admet deux racines
distinctes, et si = 0 elle admet une racine double.
Demonstration :
a(z 2 + ab z + ac ) = 0
b 2
b2
) + ac 4a
az 2 + bz + c = 0 (z + 2a
2 = 0
b 2
b2 4ac

(z + 2a ) = 2a = (2a)
2
donc dapr`es le theor`eme precedent, si 6= 0 il admet deux racines carrees
opposees et et lon en deduit les deux racines z 0 = b+
et z 00 = b
,
2a
2a
b
et si = 0 il existe alors une racine double qui vaut 2a
La resolution est donc formellement la meme que dans le cas reel, a` la recherche des racines carrees de pr`es. En particulier, si a, b, c sont reels et si
est positif ou nul, la resolution est exactement la meme. Par contre, si est strictement negatif, a deux racines carrees complexes opposees qui sont imaginaires
pures. Lequation az 2 + bz + c = 0 a ainsi deux racines complexes conjuguees.
Exemple : resoudre lequation z 2 + z + 1 = 0

On a = 1
4
=
3,
do`
u

=
i
3 et les racines sont z 0 =

3
.
z 00 = 1i
2

1+i 3
2

et

On pose generalement j = z 0 et j = z 00 = (z 0 )2 . On a aussi j 3 = 1.


En fait, on a encore mieux que cela :
THEOREM 3.8 Soit z C un nombre complexe non nul quelconque, alors z a
exactement n racines n-`emes distinctes, i.e. lequation en Z, Z n = z, a exactement
n solutions.
Demonstration : on est oblige dans ce cas dutiliser la forme trigonometrique des
nombres complexes :
z = ei et Z = rei ,
lequation Z n = z secrit alors :
rn ein = ei
1

i.e. rn = et n [2] do`u r = n et n [ 2


] ; les racines de
n
n
lequation Z = z sont donc les nombres complexes de la forme :
1

zk = n exp(i(

2k
+
)), k Z,
n
n

35

mais on remarque que lon a :


zk = zk0

2k 0
2k

[2] k k 0 [n],
n
n

et par consequent z0 , z1 , ..., zn1 sont les n racines n-`emes distinctes de z


Par application de ce theor`eme au cas particulier z = 1, on obtient les fameuses racines n-`emes de lunite
1, exp(

2(n 1)i
2i
), ..., exp(
).
n
n

Ainsi, j est une racine troisi`eme de lunite.


Soit z0 une racine n-`eme du nombre complexe z, i.e. z0n = z, lequation Z n =
z peut alors secrire Z n = z0n , i.e. ( zZ0 )n = 1. On a donc le crit`ere pratique suivant :
on obtient toutes les racines n-`emes dun nombre complexe en multipliant lune
delles par toutes les racines n-`emes de lunite.
Enfin, on demontre (mais cela est difficile et demande un minimum doutils
empruntes a` lAnalyse) que C est encore beaucoup mieux que cela :
THEOREM 3.9 (de dAlembert)
Toute e quation algebrique de degre n a` coefficients dans C poss`ede au moins
une racine complexe, et donc par recurrence sur n, toute e quation algebrique de
degre n a` coefficients complexes a exactement n racines comptees avec leur ordre
de multiplicite.
Demonstration : admis
La periode de construction par voie algebrique sarrete donc ici. On dit aussi
que C est un corps algebriquement clos : il est impossible de sortir de C en
resolvant des e quations algebriques a` coefficients complexes.

36

Chapitre 4
Polynomes et fractions rationnelles
4.1

Polynomes

4.1.1 Structure
DEFINITION 4.1 Soit K un corps commutatif, on appelle polynome a` coefficients dans K toute suite P = (an )nN delements de K telle que :
n0 N, n > n0 , an = 0.
Donc, si P = (an )nN est un polynome a` coefficients dans K, lensemble
{i N, ai 6= 0} est un ensemble fini que lon appelle support du polynome P,
ai sappelle le coefficient dindice i du polynome P. Si tous les coefficients du polynome P, sauf un, sont nuls, on dit que P est un monome. Si tous les coefficients
sont nuls, on dit que P est le polynome nul que lon notera encore 0.
On rappelle enfin que legalite de deux polynomes est definie par legalite des
suites, i.e. par legalite de tous les coefficients dindices correspondants.
Lensemble des polynomes a` coefficients dans K se note K[X]. Cette notation
recevra sa justification ulterieurement.
DEFINITION 4.2 Soit P K[X] un polynome non nul, on appelle degre du
polynome P, et on note d P , lindice du coefficient non nul dindice le plus e leve.
Cette definition a bien un sens, car si P est un polynome non nul, son support est une partie finie non vide de N, il admet donc un plus grand e lement. On
convient de noter d 0 = .
THEOREM 4.1 Muni des lois induites par celles definies sur lensemble des
suites a` valeurs dans K, K[X] a une structure de K-espace vectoriel.
Demonstration : le verifier en exercice
37

Si P = (an )nN et Q = (bn )nN sont deux polynomes quelconques de K[X]


et un scalaire quelconque, les lois sont donc definies par :
P + Q = (an ) + (bn ) = (an + bn ) = (a0 + b0 , a1 + b1 , ..., an + bn , ...)
P = (an ) = (an ) = (a0 , a1 , ..., an , ...).
DEFINITION 4.3 Soient P = (an )nN et Q = (bn )nN deux polynomes a` coefficients dans K, on appelle produit de P et Q et on note PQ le polynome defini
par :
X
P Q = (cn )nN , n N, cn = a0 bn + a1 bn1 + ... + an b0 i.e. cn =
ai b j .
i+j=n

Cette multiplication nest donc pas la multiplication terme a` terme des suites.
THEOREM 4.2 Soit K un corps commutatif, K[X] muni des lois precedentes a
une strucutre de K-alg`ebre commutative.
Demonstration : dapr`es le theor`eme precedent K[X] est dej`a un K-espace vectoriel. Le produit de polynomes est bien une loi interne car le support de PQ
est inclus dans la somme des supports de P et Q, au sens de la somme de
deux parties de N. En effet, pour que cn soit non nul, il est necessaire quil
existe deux entiers i et j tels que i+j = n et ai 6= 0, bj 6= 0. Il reste a` verifier
tous les axiomes un a` un : on indique simplement comment demontrer lassociativite du produit. Soient
P P = (an ), Q = (bn ), R = (cn ), alors P Q =
(d
)
avec
h

N
,
d
=
h
j , (P Q)R = (en ) avec
Ph
Pi+j=h ai bP
P n N , en =
h+m=n dh cm donc en =
h+m=n (
i+j=h ai bj )cm =
i+j+m=n ai bj cm .
Le seul point delicat est bien sur le dernier signe degalite, il convient
de bien le comprendre. Cette derni`ere e criture est symetrique par rapport
aux coefficients des polynomes P, Q, R. La commutativite du produit e tant
e vidente, lassociativite en resulte. On remarque enfin que lon a :
P, Q K[X], K, (P Q) = (P )Q = P (Q)
THEOREM 4.3 Soient P et Q deux e lements quelconques de K[X], on a :
d (P + Q) max(d P, d Q), et si d P 6= d Q alors d (P + Q) = max(d P, d Q)
d (P Q) = d P + d Q.
Demonstration : la formule pour la somme est e vidente, on ne demontre que celle
pour le produit. Le resultat est clair si lun au moins des polynomes est le
polynome nul. On suppose donc P et Q non nuls et on appelle p et q leur
degre respectif : P = (an ), Q = (bn ), ap 6= 0, bq 6= 0, i > p ai = 0,
38

P
j > q bj = 0. Par definition P Q = (cn ) avec n N , cn = i+j=n ai bj .
Si n > p + q, i p et i + j = n entranent j > q et donc la somme qui
definit cn ne contient que des termes nuls. Si n = p + q, i < p et i + j = n
entranent j > q et par consequent cp+q = ap bq 6= 0. PQ est donc de degre
p + q, indice du coefficient non nul de plus grand indice
On remarque alors que les e lements inversibles de K[X] sont les polynomes
de degre 0. En effet, P Q = 1 entrane d P + d Q = 0, donc d P = d Q = 0
et (a0 , 0, ...)(b0 , 0, ...) = (1, 0, ...) a0 b0 = 1. Par consequent (a0 , 0, ...) est
inversible si et seulement si a0 est non nul.
Enfin, lapplication : K K[X] definie par (a) = (a0 , 0, ...) est un
morphisme injectif dalg`ebres. Dans la suite de ce chapitre on confondra K avec
lensemble des polynomes de degre au plus zero, appeles polynomes constants.
Il ny a aucun risque dambigute car lecriture P a le meme sens, que soit
considere comme scalaire ou comme polynome constant.

4.1.2

Notation definitive

Soit ei = (0, ..., 0, 1, 0, ...), o`u 1 est a` la (i + 1)-`eme place, le monome de


degre i de coefficient 1. On a i, j N , ei ej = ei+J et donc, par recurrence sur i,
ei = (e1 )i pour tout entier naturel i, avec la convention habituelle (e1 )0 = 1 = e0 .
La definition dun polynome et des operations montre alors que tout polynome
P = (an ) peut secrire de facon unique :
P = a0 e0 + a1 e1 + ... + an en + ... =

ai ei

iN

(remarquer que le support de P e tant fini, cette sommation ne comprend en fait


quun nombre fini de termes).
On pose alors e1 = X, on obtient, puisque e0 = 1 :
X
P = a0 + a1 X + ... + an X n + ... =
ai X i (sommation finie).
iN

X sappelle indeterminee. Attention, il ne sagit pas dune variable mais dun polynome particulier. Lavantage de cette notation est sa commodite demploi pour
les operations mais ne doit pas faire confondre une e criture telle que a0 +a1 X = 0
avec une e quation en X.
On e crira dorenavant un polynome P sous lune des formes e quivalentes suivantes :
P = a0 + a1 X + ... + an X n = an X n + ... + a1 X + a0 .
39

La premi`ere e criture sappelle ordonnee suivant les puissances croissantes et la seconde suivant les puissances decroissantes. Par convention, dans une telle e criture,
on supposera, si cela est possible, que an 6= 0, donc n representera le degre du polynome P.
Lorsque an = 1, on dit que le polynome P est unitaire ou mieux normalise. Le
produit de deux polynomes normalises est encore normalise (mais pas la somme,
en general).
Les e critures precedentes rendent plus visible le fait que K[X] est un K-espace
vectoriel et que (X i )iN en est une base. De meme, si on designe par Kn [X]
lensemble des polynomes a` coefficients dans K de degre inferieur ou e gal a` n,
Kn [X] est un K-espace vectoriel et (1, X, ..., X n ) en est une base (de cardinal :
n + 1).

4.1.3

Divisibilite

DEFINITION 4.4 Soient A, B K[X], B 6= 0, sil existe un polynome Q de


K[X] tel que A = BQ, on dit que B divise A ou que A est un multiple de B, et on
note B / A ; Q sappelle le quotient dans la division de A par B.
Si B est un diviseur de A et A non nul, on a necessairement d B d A. Si de
plus d B = d A, le quotient est une constante : on dit que B est proportionnel a`
A. Reciproquement, toute constante non nulle est un diviseur de A.
THEOREM 4.4 Soient A, B K[X], B 6= 0, il existe un couple unique (Q, R)
de polynomes de K[X] tel que :
A = BQ + R avec d R < d B.
Q sappelle le quotient et R le reste de la division euclidienne de A par B.
On remarque immediatement que d R < d B autorise le cas R = 0, i.e. le cas
o`u A est un multiple de B.
Demonstration : dabord lexistence, puis lunicite
1. on pose A = a0 + a1 X + ... + am X m , B = b0 + b1 X + ... + bn X n avec
bn 6= 0. Si d A < d B, on peut prendre Q = 0 et R = A. Si d A
X mn et r1 = A Bq1 , on a alors d r1 < d A
d B, on pose q1 = abm
n
puisque lon a fait disparatre le terme de plus haut degre de A. Si
d r1 < d B on peut prendre Q = q1 et R = r1 . Sinon on rep`ete sur le
couple (r1 , B) ce qui vient detre fait sur le couple (A, B). On definit
donc q2 et r2 = r1 Bq2 de facon a` faire disparatre le terme de plus
haut degre de r1 , etc... Le processus devra necessairement sarreter au
bout dun nombre fini doperations car les degres des restes successifs
40

sont strictement decroissants. Il suffira alors de prendre Q = q1 +


q2 + ... + qp et R = rp , le premier reste dont le degre est strictement
inferieur a` n.
2. on suppose que lon a A = BQ1 + R1 = BQ2 + R2 avec d R1 < d B
et d R2 < d B, alors par difference on obtient :
R2 R1 = B(Q1 Q2 ),
do`u d (R2 R1 ) = d B + d (Q1 Q2 ), or dapr`es les hypoth`eses :
d (R2 R1 ) < max(d R1 , d R2 ) < d B.
Legalite precedente est donc impossible si d (Q1 Q2 ) 0, on a donc
d (Q1 Q2 ) = , i.e. Q1 = Q2 et lon en deduit aussi R1 = R2
La methode pratique de division (euclidienne) sinspire directement de la demonstration
dexistence tandis que la disposition des calculs sinspire de celle de la division
classique dans N. A cause de cette disposition, cette division est souvent appelee
division suivant les puissances decroissantes.
Un theor`eme similaire existe pour la division suivant les puissances croissantes. La mise en pratique de cette division sapparente donc a` celle decrite cidessus, a` la difference pr`es que les polynomes y sont maintenant e crits suivant les
puissances croissantes. Cela sera utilise lors de letude des fractions rationnelles.
DEFINITION 4.5 Soit P K[X], on dit que P est un polynome premier, ou
mieux irreductible, si P nest pas un polynome constant et si les seuls diviseurs de
P sont les constantes et les polynomes proportionnels a` P, i.e. :
P = P1 P2 d P1 = 0 ou d P2 = 0.
En particulier, tout polynome du premier degre est necessairement irreductible.
La reciproque est vraie pour K = C mais fausse en general, on reviendra sur ce
fait au paragraphe suivant. On note simplement la consequence immediate, mais
importante, de cette definition.
PROPOSITION 4.1 Soient P, Q K[X], si P est irreductible et si Q nest pas
un multiple de P, alors P et Q sont premiers entre eux.
Demonstration : un diviseur commun a` P et Q est un diviseur de P donc est ou
bien une constante ou bien proportionnel a` P, le second cas e tant exclus par
hypoth`ese, la conclusion en resulte
THEOREM 4.5 Soit P un polynome non constant, alors il existe un scalaire
non nul et une famille P1 , ..., Pn de polynomes irreductibles normalises tels que
P = P1 P2 ...Pn . De plus, cette factorisation est unique a` lordre des facteurs
pr`es.
41

Demonstration : seulement lexistence (par recurrence sur le degre de P)


Si d P = 1, lexistence est e vidente. On suppose donc lexistence assuree pour
tout polynome de degre inferieur ou e gal a` p. Soit alors P tel que d P = p +
1. Deux cas se presentent : si P est irreductible, lexistence de la factorisation
est alors e vidente, sinon P nest pas irreductible et on peut e crire P = Q1 Q2
avec d Q1 6= 0 et d Q2 6= 0, i.e. d Q1 p et d Q2 p. On peut alors
appliquer lhypoth`ese de recurrence a` Q1 et Q2 , ce qui assure lexistence de
la factorisation de P
Par analogie avec larithmetique developpee au premier chapitre, on peut alors
introduire la notion de polynome plus grand diviseur commun :
DEFINITION 4.6 Soient A1 , A2 K[X] non tous deux nuls, alors il existe au
moins un polynome D tel que :
1. D / A1 et D / A2
2. B K[X], (B / A1 et B / A2 ) B / D.
D est appele un plus grand diviseur commun (en abrege PGCD) de A1 et A2 .
Si D est un polynome de degre 0, A1 et A2 sont donc premiers entre eux.

4.1.4

Fonction polynome

DEFINITION 4.7 Soit P = a0 +a1 X +...+an X n K[X], on appelle fonction


polynome associee a` P et on note P lapplication de K dans K definie par :
x K, P (x) = a0 + a1 x + ... + an xn .
On dit parfois, de facon imagee, que lon a substitue la variable x a` lindeterminee
X. La fonction polynome associee au polynome P se note souvent a` laide du
meme symbole P, lorsquil ny a pas de confusion possible.
DEFINITION 4.8 Soient a K et P K[X], on dit que a est un zero du
polynome P si P (a) = 0.
THEOREM 4.6 Soit P K[X], alors a K est un zero du polynome P si et
seulement si P est divisible par (X a).
Demonstration : on effectue la division euclidienne du polynome P par le polynome X a :
P = (X a)Q + R, d R < d (X a).
R est un polynome de degre strictement inferieur a` 1, i.e. un polynome
constant. En prenant les valeurs des fonctions polynomes associees au point

x = a, on trouve alors P (a) = R(a)


= R, ce qui ach`eve la demonstration
42

Plus generalement, on dit que a est un zero dordre de P si P est divisible


par (X a) sans letre par (X a)+1 .
On remarque que la consideration du corps ambiant K est primordiale pour
la recherche des zeros dun polynome P. Par exemple, soit P = X 4 X 2
2 ; considere comme polynome de Q[X] Pna pas
de zero, considere comme
polynome de R[X] il admet deux zeros { 2, + 2}
considere comme
et enfin
polynome de C[X] il admet quatre zeros {i, +i, 2, + 2}.
THEOREM 4.7 Soient P K[X] un polynome non nul et n le degre de P, alors
P admet au plus n zeros dans K, comptes avec leur ordre de multiplicite (i.e. un
zero dordre sera compte fois dans le denombrement des zeros dans K de P).
Demonstration : on raisonne par recurrence sur le degre du polynome P. Si d P =
0 ou d P = 1, le resultat est trivial. On suppose donc le resultat demontre
pour tout polynome de degre p et soit P un polynome de degre p + 1. Deux
cas se presentent : soit P nadmet pas de zeros et le resultat est demontre,
soit P admet au moins un zero a. Dapr`es le theor`eme precedent on peut
alors e crire P = (X a)Q, Q K[X] et d Q = p. On peut appliquer a` Q
lhypoth`ese de recurrence. Q admet au plus p zeros dans K et par consequent
P en admet au plus p + 1
On revient maintenant sur la factorisation dans K[X]. On suppose dabord
K = C. On rappelle le resultat fondamental de lalg`ebre (theor`eme de dAlembert) : tout polynome de degre n de C[X] admet n zeros comptes avec leur ordre
de multiplicite. On peut alors preciser le theor`eme ? ? de la facon suivante : les
seuls polynomes irreductibles de C[X] sont les polynomes du premier degre. Par
consequent, si P est un polynome de C[X] de degre n, il existe n nombres complexes, non necessairement distincts, x1 , x2 , ..., xn et un scalaire non nul tels
que :
P = (X x1 )(X x2 )...(X xn ),
soit en effectuant les regroupements e ventuels
P = (X x1 )1 (X x2 )2 ...(X xp )p
avec 1 + 2 + ... + p = n.
On suppose maintenant que les coefficients de P sont reels. Pour les besoins de
la cause, on continue a` considerer le polynome P comme e lement de C[X]. Alors,
dapr`es les proprietes de la conjugaison, on a :
a).
a C, P (a) = P (
Par consequent, si a est un zero complexe non reel du polynome P, a est e galement
un zero complexe non reel de P. P est alors divisible par (X a) et (X a
) qui
43

sont premiers entre eux, P est donc divisible par le produit (X a)(X
a) = X 2
2
2<(a)X +|a| R[X]. On peut alors e galement preciser le theor`eme ? ? : les seuls
polynomes irreductibles de R[X] sont les polynomes de degre 1 et les polynomes
de degre 2 sans zero reel, i.e. dont le discriminant est strictement negatif. D`es lors,
si P est un polynome de R[X] de dgre n, il existe n + 1 reels non necessairement
distincts tels que :
P = (X x1 )...(X xp )(X 2 2a1 X + b1 )...(X 2 2aq X + bq )
avec i [1, q], a2i bi < 0 et p + 2q = n. On peut de meme regrouper les termes
identiques.

4.1.5

Derivation dans K[X]

THEOREM 4.8 Il existe une unique application lineaire D de K[X] dans K[X]
verifiant :
1. D(X) = 1
2. P, Q K[X], D(P Q) = D(P ).Q + P.D(Q).
Demonstration : par hypoth`ese, D est lineaire donc D est parfaitement determinee
par la connaissance des transformes dune base. Il suffit donc de connatre
la valeur de D(X p ) pour tout entier p. Pour p = 0, on a X = 1.X do`u
D(X) = D(1).X + 1.D(X), or D(X) = 1 et par suite D(1) = 0. Pour
p = 1, on a par hypoth`ese D(X) = 1 = 1.X 0 . On suppose ainsi que lon a
D(X p1 ) = (p 1)X p2 , alors par hypoth`ese :
D(X p ) =
=
=
=

D(X.X p1 )
D(X).X p1 + XD(X p1 )
X p1 + (p 1)X p1
pX p1 .

Par consequent, pour tout entier p on a prouve par recurrence que D(X p ) =
pX p1 , ce qui demontre lexistence et lunicite de D
Pn
i
On appelle
cette
application
d
e
rivation
dans
K
et
si
P
=
i=0 ai X alors
Pn
D(P ) = i=1 iai X i1 .
Si K = R, la derivation est formellement identique a` la derivation des fonc^) = P 0 . On e crira donc P au lieu de D(P). De meme,
tions polynomes, i.e. D(P
on e crira P au lieu de D(D(P)) et par recurrence P (n) pour la derivee de la derivee
(n 1)-`eme du polynome P. Par convention, P (0) designera le polynome P.
PROPOSITION 4.2 Soient Pn = (X a)n , a K et n un entier naturel, on a :
44

(k)
1. k < n, Pn (a) = 0
(n)
2. Pn (a) = n!
(k)

3. k > n, Pn (a) = 0.
Demonstration : par recurrence sur le degre n et en calculant.
THEOREM 4.9 (Formule de Taylor)
Soient P K[X] tel que d P n et a K, la famille (1, X a, (X
a)2 , ..., (X a)n ) est une base de Kn [X]. P est donc combinaison lineaire des
e lements de cette famille et on a :
P 0 (a)
P 00 (a)
P (n) (a)
P = P (a) +
(X a) +
(X a)2 + ... +
(X a)n .
1!
2!
n!
Demonstration : on sait dej`a que (1, X, ..., X n ) est une base de Kn [X]. La famille donnee dans lenonce comporte n + 1 polynomes, il suffit de verifier
quil sagit dune famille libre pour demontrer que cest une base. Soit
0 + 1 (X a) + ... + n (X a)n = 0 une combinaison lineaire nulle
de cette famille, le seul terme en X n est n X n do`u n = 0. Le seul terme
en X n1 est alors n1 X n1 do`u n1 = 0, etc... de proche en proche on
demontre ainsi que tous les coefficients 0 , ..., n sont nuls. Il existe donc
une famille unique delements de K telle que :
P = 0 + 1 (X a) + ... + n (X a)n .
Il suffit alors dappliquer la proposition precedente pour obtenir :
i [0, n], P (i) (a) = i i!,
do`u le resultat en divisant par i !
PROPOSITION 4.3 a K est un zero dordre de P si et seulement si on a :
P (a) = P 0 (a) = ... = P (1) (a) = 0, P () (a) 6= 0.
Demonstration : e vident dapr`es la forme meme de la formule de Taylor.

4.2 Fractions rationnelles


Les seuls polynomes inversibles sont les polynomes de degre 0. K[X] n est
donc pas un corps. On construit alors le corps des fractions de K[X] (par analogie
avec la construction de Q). Ce corps se note K(X) et sappelle corps des fractions
rationnelles a` coefficients dans K.
45

4.2.1

Structure

Une fraction rationnelle F est une classe de couples de polynomes (P, Q) avec
Q 6= 0. Si (P, Q) est un representant quelconque de F, on convient decrire :
P
F = .
Q
On a alors la relation dequivalence suivante :
P1
P
=
P Q1 = QP1 .
Q
Q1
P1
P
Soit D le PGCD de P et Q, on peut e crire P = DP1 et Q = DQ1 et alors Q
=Q
1
avec P1 et P2 premiers entre eux. On en deduit :
DEFINITION 4.9 Soit F une fraction rationnelle de K(X), tout representant de F,
P1
e crit Q
, tel que P1 et Q1 soient premiers entre eux sappelle forme irreductible de
1
F. Si de plus Q1 est normalise, cette representation est unique et sappelle la forme
reduite de F. P1 et Q1 sappellent respectivement numerateur et denominateur de
F.
P
THEOREM 4.10 Soient F une fraction rationnelle non nulle de K(X) et Q
un
representant quelconque de F, alors d P d Q est independant du representant
choisi de F. On lappelle degre de la fraction rationnelle F. Cest un e lement de
Z.
P1
P
Demonstration : en effet, si F = Q
= Q
, on a P Q1 = P1 Q et par consequent
1

d P +d Q1 = d P1 +d Q, do`u d P d Q = d P1 d Q1 ; on conviendra,
comme pour les polynomes, de poser d 0 =
DEFINITION 4.10 Soit F une fraction rationnelle de K(X) e crite sous forme
irreductible, on appelle pole de F tout zero de son denominateur. On dira de
meme que a K est un pole dordre de F si a est un zero dordre de son
denominateur.
Attention, il est indispensable dans la definition precedente de choisir un representant
irreductible, sinon on risque, en introduisant des facteurs inopportuns, dintroduire
en meme temps des faux poles parasites.

4.2.2

Fonctions rationnelles

DEFINITION 4.11 Soit F une fraction rationnelle de K(X) e crite sous forme
P
irreductible Q
, on appelle domaine de definition de F et on note Def(F) lensemble des e lements de K qui ne sont pas poles de F. On appelle fonction rationnelle associee a` F lapplication F de Def(F) dans K definie par :
P (x)
x Def (F ), F (x) =
.

Q(x)
46

1
Attention, la fraction rationnelle F = X1
de R(X) admet 1 pour pole. La
fonction rationnelle associee nest donc pas definie en 1. Mais il serait absurde
de dire que F nest pas definie en 1. En effet, X est une indeterminee et non une
variable, lecriture de F est formelle.
Si K est un corps contenant une infinite delements (par exemple R ou C),
le domaine de definition de F contient necessairement une infinite delements,
puisque le nombre de poles est fini.

THEOREM 4.11 Soit K un corps infini, lapplication qui a` toute fraction rationnelle associe la fonction rationnelle correspondante est injective.
Demonstration : soient F et G deux fractions rationnelles de K(X) telles que
alors Def (F ) = Def (G) et la fraction rationnelle F G est
F = G,
definie au moins sur Def(F) (en effet, en reduisant au meme denominateur
F G, il peut se faire que des facteurs se simplifient et fassent disparatre
est donc la fonction nulle sur Def(F), or Def(F) est un
des poles) ; F G
ensemble infini, le numerateur de F G admet donc une infinite de zeros,
il sagit par consequent du polynome nul, ce qui demontre que F G = 0,
i.e. F = G

4.2.3

Decomposition des fractions rationnelles

On aborde maintenant le paragraphe fondamental de cette section. Le but de


la manipulation est de transformer une fraction rationnelle quelconque en une
somme de fractions simples (on precisera ce quon entend par simple). Cette
somme sera donc necessairement complique ! Ayant en vue lapplication de ce
probl`eme a` lAnalyse, on pourrait se limiter a` letude de R(X). Mais le passage au
domaine complexe est souvent indispensable (tout au moins en theorie). On fera
ainsi dabord letude generale relativement a` un corps quelconque.
Cadre general
THEOREM 4.12 Soit F une fraction rationnelle quelconque de K(X), e crite sous
sa forme irreductible et normalisee ; on suppose e galement son denominateur
e crit sous forme de produits de polynomes irreductibles, i.e. :
F =

P
P
= 1
.
Q
Q1 ...Qp p

Il existe une famille unique de polynomes (E, N11 , ..., N11 , N21 , ..., N22 , ..., Np1 , ..., Npp )
telle que :




Npp
N11
N11
Np1
+ ... + 1 + ... +
+ ... + p
F =E+
Q1
Q1
Qp
Qp
47

avec i [1, p], j [1, i ], d Nij < d Qi .


Ce theor`eme nest pas dune grande simplicite decriture. On va le demontrer
en decoupant les difficultes en petits morceaux.
P
LEMMA 4.1 Soit F = Q
, il existe un unique polynome E tel que F =
R

E + Q , avec d R < d Q.

P
Q

Demonstration : on effectue la division euclidienne de P par Q, on obtient P =


R
P
QE + R, soit Q
=E+Q
, ce qui demontre lexistence de E ainsi que son
unicite
LEMMA 4.2 Soit F = Q1PQ2 avec d P < d Q1 + d Q2 , Q1 et Q2 premiers entre
U1
U2
eux ; il existe un couple unique de polynomes U1 et U2 tel que F = Q1PQ2 = Q
+Q
1
2
avec d U1 < d Q1 et d U2 < d Q2 .
Demonstration : Q1 et Q2 e tant deux polynomes premiers entre eux, dapr`es
le theor`eme de Bezout (admis) il existe deux polynomes U et V tels que
V Q1 + U Q2 = 1, i.e. P = (P V )Q1 + (P U )Q2 . On effectue la division
euclidienne de PV par Q2 : P V = Q2 q + U2 avec d U2 < d Q2 . On a alors
P = U2 Q1 + (qQ1 + P U )Q2 = U2 Q1 + U1 Q2 . Comme d U2 < d Q2 ,
on en deduit d U1 < d Q1 , sinon on aurait d P d Q1 + d Q2 , ce qui
U1
U2
contredirait lenonce. De P = U2 Q1 + U1 Q2 on tire Q1PQ2 = Q
+Q
.
1
2
Lunicite dune telle decomposition se verifie facilement, car si P = U2 Q1 +
U1 Q2 = V2 Q1 + V1 Q2 , on en deduit (U2 V2 )Q1 = (V1 U1 )Q2 . Comme
Q2 est premier avec Q1 , Q2 diviserait U2 V2 dapr`es le theor`eme de Gauss
(admis), ce qui est absurde par comparaison des degres si U2 V2 6= 0, idem
pour V1 U1
LEMMA 4.3 Soit F = Q1 QP2 ...Qp avec d P < d (Q1 Q2 ...Qp ), Q1 , ..., Qp premiers entre eux deux a` deux ; il existe un unique p-uplet de polynomes (U1 , ..., Up )
tel que :
U1
Up
F =
+ ... +
Q1
Qp
et i [1, p], d Ui < d Qi .
Demonstration : on raisonne par recurrence sur p. Le precedent lemme assure
la veracite du resultat pour p = 2. On suppose alors le resultat acquis pour
(p 1) facteurs. Q1 e tant premier avec Q2 , ..., Qp est aussi premier avec
le produit Q2 ...Qp . Par application du lemme precedent, il existe un couple
unique de polynomes U1 , V1 verifiant d U1 < d Q et d V1 < d (Q2 ...Qp )
tel que :
U1
V1
F =
+
.
Q1 Q2 ...Qp
48

On peut alors appliquer lhypoth`ese de recurrence a` la seconde fraction rationnelle, ce qui ach`eve la preuve
LEMMA 4.4 Soit F = QP , N , avec d P < .d Q ; il existe une unique
famille de polynomes (P1 , ..., P ) telle que :
F =

P1
P2
P
+ 2 + ... +
Q
Q
Q

et i [1, ], d Pi < d Q.
Demonstration : on raisonne par recurrence sur le nombre entier . Le resultat est
assez clair pour = 1. On suppose donc le resultat acquis jusqu`a lordre
P1
P
( 1). Lecriture QP = PQ1 + ... + Q
es mutiplication
1 + Q montre, apr`
des deux membres par Q , que P ne peut e tre que le reste de la division
euclidienne de P par Q. On effectue alors cette division :
P = Qq1 + P
avec d P < d Q. De plus, de d P < .d Q on deduit d q1 < ( 1).d Q.
On peut donc e crire :
P
q1
P
= 1 +

Q
Q
Q

avec d q1 < (1).d Q, ce qui permet dappliquer lhypoth`ese de recurrence


et dachever la preuve
On peut maintenant donner la preuve du theor`eme de decomposition.
P
,

Q1 1 ...Qp p

Demonstration : soit F =

comme Q1 , ..., Qp sont premiers entre eux

deux a` deux, il en est de meme de Q1 1 , ..., Qp p . Par application des lemmes


1 a` 3 il existe donc une unique famille de polynomes E, U1 , ..., Up avec i
[1, p], d Ui < d Qi i , telle que F = E + QU11 + ... + QUpp . Il suffit maintenant
1

dappliquer le lemme 4 a` chaque terme


annoncee

Ui

Qi i

pour obtenir la decomposition

La demonstration de ce theor`eme dexistence et dunicite ne fournit pas de


methode tr`es pratique pour la recherche effective de cette decomposition. On va
donc voir maintenant quelques recettes usuelles.
Decomposition dans C(X)
THEOREM 4.13 Soit F une fraction rationnelle de C(X) e crite sous forme irreductible
et normalisee, on suppose son denominateur e crit sous forme de produits de polynomes irreductibles, i.e. :
F =

P
P
=
.

Q
(X a1 ) 1 ...(X ap )p
49

Il existe un unique polynome E et une unique famille de scalaires (11 , ..., 11 , ..., p1 , ..., pp )
tels que :




pp
11
11
p1
F = E+
+ ... +
+...+
+ ... +
.
X a1
(X a1 )1
X ap
(X ap )p
Demonstration : il sagit simplement dune ree criture du theor`eme general, sachant que les seuls polynomes irreductibles de C[X] sont les polynomes
du premier degre et donc que les conditions d Nij < d Qi signifient par
consequent que Nij est un polynome constant.

kk
k1
E sappelle la partie enti`ere de F, Xa
+ ... + (Xa
sappelle la partie

k
k) k
polaire relative au pole ak .
Ce theor`eme affirme lexistence et lunicite de la decomposition dune fraction rationnelle sur C en somme delements simples. La partie enti`ere sobtient,
dapr`es le lemme 1, par division euclidienne du numerateur par le denominateur.
On supposera dans la suite de cette e tude que cette operation a e te effectuee et on
ne considerera plus que des fractions rationnelles de degre strictement negatif.
Puisque lexistence de la decomposition est acquise, on factorisera le denominateur
de la fraction rationnelle et on e crira la decomposition a` laide de coefficients
indetermines quil sagira de calculer le plus simplement et le plus rapidement
possible.

Methode universelle On reduit au meme denominateur la decomposition inconnue. En identifiant alors les numerateurs, on obtient un syst`eme lineaire comportant autant dequations que dinconnues, quil suffit de resoudre. Cette methode
nest conseillee que dans des cas tr`es simples ou de grande detresse.
Exemple : decomposer dans C(X) la fraction rationnelle F (X) =

1
.
1X 2

On e crit :
1
1
A
B
A + B + (A B)X
=
=
+
=
,
1 X2
(1 X)(1 + X)
1X 1+X
1 X2
do`u le syst`eme :
A+B = 1
AB = 0
i.e. A = B = 12 . On a donc :
1
1
=
2
1X
2

1
1
+
1X 1+X

50

Partie polaire relative a` un pole simple On suppose que a C est un pole


simple de la fraction rationnelle F, qui est donc de la forme suivante :
F (X) =

P (X)
(X a)Q1 (X)

1 (a) 6= 0. Dapr`es le theor`eme precedent, la partie polaire relative au pole


avec Q
A
, A C, i.e. :
a est de la forme Xa
F (X) =

P (X)
A
P1 (X)
=
+
.
(X a)Q1 (X)
X a Q1 (X)

On multiplie legalite precedente par (X a) et on obtient :


(X a)F (X) =

P (X)
P1 (X)
= A + (X a)
,
Q1 (X)
Q1 (X)

donc a nest plus un pole de lexpression precedente. On peut par consequent


substituer a a` X et on en tire :
A=

P (a)
.
1 (a)
Q

On remarque par ailleurs que si on pose Q(X) = (X a)Q1 (X), on a :


Q0 (X) = Q1 (X) + (X a)Q01 (X),
0 (a) = Q
1 (a).
i.e. Q
Exemple : decomposer dans C(X) la fraction rationnelle F (X) =

1
.
X(X1)(X2)

On e crit :
1
A
B
C
=
+
+
X(X 1)(X 2)
X X 1 X 2
et on applique trois fois la methode precedente.
On multiplie par X et on substitue a` X la valeur 0 : on obtient A = 21 .
On multiplie par (X 1) et on substitue a` X la valeur 1 : on obtient B = 1.
On multiplie par (X 2) et on substitue a` X la valeur 2 : on obtient C = 12 .
On remarque que le calcul effectif des multiplications ne se fait jamais.
51

Partie polaire relative a` un pole multiple On suppose que a C est un pole


multiple de F, qui est donc de la forme suivante :
F (X) =

P (X)
(X a) Q1 (X)

avec > 1 et Q(a)


6= 0. Dapr`es le theor`eme precedent, la decomposition de F
secrit :
F (X) =

A1
A2
A
P1 (X)
+
+ ... +
+
.
2

X a (X a)
(X a)
Q1 (X)

La methode precedente est encore valable, mais uniquement pour le calcul de A .


En effet :
(Xa) F (X) =

P (X)
(X a) P1 (X)
= A1 (Xa)1 +...+A1 (Xa)+A +
,
Q1 (X)
Q1 (X)

a est donc substituable a` X et la substitution donne :


A =

P (a)
.
1 (a)
Q

Par contre, apr`es avoir multiplie lexpression de F par (X a) avec < ,


a reste un pole des deux membres et nest donc pas substituable. A ce moment,
deux cas se presentent impliquant deux strategies differentes.
Si est petit, par exemple = 2 ou a` la rigueur = 3, il ne reste alors a`
calculer quun coefficient (`a la rigueur 2). On substitue dans ce cas une valeur
simple (ou des valeurs simples) a` X qui permettent dachever le calcul.
Exemple : decomposer sur C la fraction rationnelle F (X) =
On a :

1
.
(X1)2 (X2)

1
A
B
C
=
+
+
.
2
2
(X 1) (X 2)
X 1 (X 1)
X 2

On multiplie par (X 2) et on substitue a` X la valeur 2 : on obtient C = 1.


On multiplie par (X 1)2 et on substitue a` X la valeur 1 : on obtient B = 1.
Pour calculer A, il suffit maintenant de substituer a` X une valeur simple (et substituable !), par exemple 0 :
C
1
F (0) = = A + B ,
2
2
do`u A = 1.
52

Si est grand, en pratique 3 ou 4, la methode precedente serait


alors trop lourde car elle conduirait a` substituer un grand nombre de valeurs a`
X et a` resoudre le syst`eme obtenu. Heureusement, il existe une methode directe
plus e legante permettant dobtenir en une seule fois lensemble de la partie polaire
relative a` un pole multiple. En effet, de lecriture :
F (X) =

P (X)
A1
A2
A
P1 (X)
=
+
+ ... +
+

(X a) Q1 (X)
X a (X a)
(X a)
Q1 (X)

on deduit :
P (X) = [A + A1 (X a) + ... + A1 (X a)1 ]Q1 (X) + (X a) P1 (X).
On effectue alors le changement dindeterminee Y = Xa, lecriture precedente
devient :
P (Y + a) = (A + A1 Y + ... + A1 Y 1 )Q1 (Y + a) + Y P1 (Y + a).
La partie polaire relative au pole a apparat alors e tre le quotient de la division
suivant les puissances croissantes de P (Y + a) par Q1 (Y + a) a` lordre 1, le
reste de cette division permettant dailleurs de determiner P1 .
Exemple : decomposer dans C(X) la fraction rationnelle F (X) =

1
.
(X1)3 (X+1)2

Lapplication des techniques anterieures ne permet dobtenir que deux des cinq
coefficients de la decomposition. On effectue alors une division suivant les
puissances croissantes. On pose Y = X 1, F (Y +1) = Y 3 (Y1+2)2 , do`u 1 =


3
3
(Y + 2)2 41 Y4 + 16
Y 2 + Y 3 12 16
Y , soit en revenant a` F (Y + 1) :
1
1
3
3
12 16
Y
1
4
4
16
=

+
+
3
2
3
2
Y (Y + 2)
Y
Y
Y
(Y + 2)2

et en revenant enfin a` X :
3
(X + 1) 18
16
1
1
3

+
+
4(X 1)3 4(X 1)2 16(X 1)
(X + 1)2
1
1
3
3
1
=

.
3
2
4(X 1)
4(X 1)
16(X 1) 16(X + 1) 8(X + 1)2

F (X) =

On remarque que le fait davoir conserve le reste dans la seule division


effectuee permet dobtenir du meme coup la partie polaire correspondant a`
lautre pole multiple.
53

Quelques astuces On reprend les notations generales du theor`eme precedent


et on effectue une courte incursion dans le domaine de lAnalyse. La fraction

rationnelle F(X) e tant supposee de degre strictement negatif, lexpression xF(x)


a
une limite finie lorsque le module de x tend vers linfini. Or :
XF (X) =

App X
A11 X
A11 X
A11 X
+ ... +
+
...
+
+
...
+
,
X a1
(X a1 )1
X a1
(X ap )p

do`u par substitution de x a` X dans le second membre, on trouve :


lim xF (x) = A11 + A21 + ... + Ap1 .

|x|+

Les coefficients A11 , A21 , ..., Ap1 sappellent les residus de F. La relation precedente
est par consequent tr`es interessante, car tr`es facile a` obtenir, en particulier si on
connat tous les residus sauf un.
Si la fraction rationnelle est paire (ou impaire), lunicite de la decomposition
en e lements simples fait que cette symetrie doit apparatre dans cette decomposition,
ce qui reduit pratiquement de moitie le nombre de coefficients a` calculer.
Exemple : decomposer dans C(X) la fraction rationnelle F (X) =

X 2 +1
.
X(X1)2 (X+1)2

On e crit :
F (X) =

A
B
C
D
E
+
+
+
+
,
2
X X 1 (X 1)
X + 1 (X + 1)2

mais F(X) est une fraction rationnelle impaire. De la relation F (X) =


F (X) on obtient B = D et C = E, il suffit par consequent de calculer
A, B, C a` laide des methodes precedentes :
F (X) =

1
1
1
1
1

.
2
X
2(X 1) 2(X 1)
2(X + 1) 2(X + 1)2

Decomposition dans R(X)


Dans le cas o`u K = R, le probl`eme se complique (a priori) un petit peu, car
deux types de polynomes reels irreductibles existent, a` savoir les polynomes du
premier degre et les polynomes du deuxi`eme degre a` discriminant negatif, qui
correspondent a` des couples de zeros complexes non reels conjugues.
THEOREM 4.14 Soient F =

P
Q

une fraction rationnelle irreductible de R(X) et

Q(X) = (X a1 )1 ...(X am )m (X 2 + p1 X + q1 )1 ...(X 2 + pn X + qn )n


54

lecriture de Q en produit de polynomes irreductibles ; il existe un unique polynome E de R[X] et des familles uniques de reels (Aij ), i [1, m] et j [1, i ],
(Bkl ) et (Ckl ), k [1, n] et l [1, k ], tels que :
i
m
X
X
P (X)
Aij
= E(X) +
Q(X)
(X ai )j
i=1
j=1

k
n
X
X
k=1

l=1

Bkl X + Ckl
2
(X + pk X + qk )l

Demonstration : il sagit simplement dune ree criture du theor`eme general.


Les e lements de la premi`ere sommation sappellent e lements simples de premi`ere
esp`ece et ceux de la seconde e lements simples de deuxi`eme esp`ece.
Ce qui a e te dit pour les complexes reste encore valable, en particulier la
partie enti`ere sobtient encore par division euclidienne. On e crira de meme la
decomposition a` laide de coefficients indetermines quil faudra calculer.
Methode universelle
Exemple : decomposer dans R(X) la fraction rationnelle F (X) =

1
.
(X+1)(X 2 +1)

On e crit :
F (X) =

A
BX + C
(A + B)X 2 + (B + C)X + A + C
+
=
,
X +1
X2 + 1
(X + 1)(X 2 + 1)

on obtient par identification :


A+B = 0
B+C = 0
A+C = 1
do`u A = 21 , B = 12 , C =

1
2

ce qui donne :

1
1
X + 1
=
+
.
2
(X + 1)(X + 1)
2(X + 1) 2(X 2 + 1)
Cette methode devient tr`es vite inextricable.
Elements simples de premi`ere esp`ece Tout ce qui a e te dit dans le cadre complexe sapplique aussi bien dans le cas de poles simples que dans le cas de poles
multiples.
55

Elements simples de deuxi`eme esp`ece L`a reside la nouveaute. Il existe alors


deux facons de proceder.
On consid`ere R(X) comme plonge dans C(X) et on effectue la decomposition
de la fraction rationnelle dans C(X). Comme le denominateur est a` coeficients
reels, les zeros complexes non reels sont deux a` deux conjugues. Il suffit alors de
regrouper les termes deux a` deux pour retrouver la decomposition dans R(X).

Exemple : decomposer dans R(X) la fraction rationnelle F (X) = (X 2 +1)(X1 2 +X+1) .


On e crit :
1
1
A
B
C
=
=
+
+
+
2
2
2
(X + 1)(X + X + 1)
(X i)(X + i)(X j)(X j )
X i X +i X j X
On multiplie par (X i) et on substitue a` X la valeur i : on obtient A = 12 .
1
On multiplie par (X j) et on substitue a` X la valeur j : on obtient C = 2+j
=
1j
.
3
On trouve sans faire de calculs supplementaires, mais en utilisant les proprietes
de la conjugaison, B = 21 et D = 2+j
, do`u :
3
!

1j
2+j
1
1 

1
2
2
3
3
=
+
+
+
2
2
(X + 1)(X + X + 1)
X i X +i
X j X j2
et finalement :

X
X +1
+ 2
.
2
X +1 X +X +1
On peut aussi e crire directement la decomposition de F dans R(X) a` laide de
coefficients indetermines et on substitue a` X des valeurs complexes de la variable
associee.
F (X) =

Exemple : decomposer dans R(X) la fraction rationnelle F (X) =


On e crit :
X +2
A
BX + C
=
+
.
(X + 1)(X 2 + 1)
X +1
X2 + 1

X+2
.
(X+1)(X 2 +1)

On multiplie par (X + 1) et on substitue a` X la valeur -1 : on obtient A = 12 .


On multiplie par (X 2 + 1) et on substitue a` X la valeur i qui est un zero du
polynome X 2 + 1. La methode sapplique encore et on obtient :
Bi + C =

i+2
3i
=
,
i+1
2

or B et C sont reels donc B = 12 et C = 32 , do`u finalement :


F (X) =

1
X + 3
+
.
2(X + 1) 2(X 2 + 1)

56

Chapitre 5
Espaces vectoriels
Dans ce chapitre et dans les suivants, K designera un corps commutatif quelconque. En pratique, on prendra le plus souvent K = R ou K = C.

5.1

Structure

DEFINITION 5.1 On appelle espace vectoriel sur K, ou encore K-espace vectoriel, tout ensemble E muni de deux lois :
1. une loi interne appelee addition, notee + telle que (E, +) soit un groupe
abelien
2. une loi externe, de domaine K, qui a` tout couple (, x) appartenant a` KE
fait correspondre un e lement de E note .x, cette loi verifiant les quatre
proprietes suivantes :
(a) x E, 1.x = x
(b) K, x, y E, .(x + y) = .x + .y
(c) , K, x E, ( + ).x = .x + .x
(d) , K, x E, ().x = .(.x).
Un espace vectoriel nest pas un ensemble : cest un ensemble muni de deux
lois verifiant certaines proprietes. Autrement dit, un espace vectoriel sur K est
un triplet (E, +, .), ce qui explique que, sur un meme ensemble, il peut y avoir
des structures despace vectoriel tout a` fait differentes...Pour autant, on emploiera
labus de langage courant : soit E un espace vectoriel.
Les e lements de E sont appeles vecteurs tandis que les e lements de K sont appeles scalaires. Il est une convention assez universellement repandue qui consiste
57

a` noter les vecteurs a` laide de lettres minuscules de lalphabet latin, et les scalaires a` laide de lettres minuscules de lalphabet grec. On manquera quelquefois
a` cette r`egle.
Lorsque K = R, on dira aussi espace vectoriel reel, et lorsque K = C, on
dira aussi espace vectoriel complexe.
Exemples :
1. Les ensembles des vecteurs de la droite, du plan et de lespace de la

geometrie e lementaire munis des operations classiques : (


v1 ,
v2 ) 7

v1 + v2 et (, v ) 7 . v sont des espaces vectoriels reels. Cest


dailleurs l`a lorigine de la locution espace vectoriel.
2. Soient n N et K n le produit cartesien K ... K, on munit K n de
deux lois : une addition, dite composante a` composante, definie par :
(x1 , ..., xn ) + (y1 , ..., yn ) = (x1 + y1 , ..., xn + yn )
qui fait de K n un groupe abelien delement neutre (0, ..., 0), et une
operation externe de domaine K, definie par :
.(x1 , ..., xn ) = (.x1 , ..., .xn ).
On verifie aisement que K n devient ainsi un K-espace vectoriel. En
particulier, pour n = 1, K est muni dune structure despace vectoriel
sur lui-meme. On parle donc de lespace vectoriel Rn et de lespace
vectoriel C n .
3. Si E et F sont deux K-espaces vectoriels (ils ont donc le meme corps
de base), on peut munir EF dune structure naturelle de K-espace
vectoriel, en definissant ainsi les operations :
(x, y), (x0 , y 0 ) E F, (x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 )
(x, y) E, K, .(x, y) = (.x, .y).
Lensemble EF muni de ces deux lois sappelle lespace vectoriel
produit de E par F. Le lecteur pourra generaliser lui-meme au cas de
n espaces vectoriels E1 , ..., En sur le meme corps K, et ainsi obtenir
lespace vectoriel E1 ... En , voir les rapports entre cet exemple et
lexemple precedent.
4. Lensemble K[X] des polynomes a` coefficients dans K muni des lois
classiques (P, Q) 7 P +Q et (, P ) 7 .P est un K-espace vectoriel.
58

5. Soient D un ensemble quelconque et A(D, K) lensemble des applications de D dans K, on munit A(D, K) des lois suivantes :
f, g A(D, K), f + g : x 7 f (x) + g(x)
f A(D, K), K, .f : x 7 .f (x).
Le lecteur pourra verifier que ces deux lois sont bien internes sur A(D,
K) et que muni de ces deux lois A(D, K) est un K-espace vectoriel,
appele espace des applications de D dans K. Lelement neutre pour
laddition est lapplication f0 : D K definie par x D, f0 (x) =
0. On dit que f0 est lapplication nulle et f0 sera desormais notee 0, ce
qui ne prete pas a` confusion. Lopposee dune application f est alors
lapplication de D dans K notee -f definie par x D, (f )(x) =
f (x). On peut noter les cas particuliers suivants :
(a) D = N , K = R, A(N, R) est lespace vectoriel reel des suites
reelles
(b) D = N , K = C, A(N, C) est lespace vectoriel complexe des
suites complexes
(c) D R, K = R, A(D, R) est lespace vectoriel reel des fonctions
numeriques, de variable reelle, definies sur le domaine D.
6. On peut generaliser lexemple precedent de la mani`ere importante suivante. Si D est un ensemble quelconque et si E est un K-espace vectoriel, A(D, E) peut e tre muni naturellement dune structure de K-espace
vectoriel.
7. Il se trouve que si E est un espace vectoriel sur un corps commutatif K
et si k est un sous-corps de K, la restriction de loperation externe de
KE a` kE munit E dune structure despace vectoriel sur le corps
k. Le lecteur pourra en effet verifier que toutes les proprietes sont
conservees. Autrement dit, tout espace vectoriel sur un corps K est
aussi un espace vectoriel sur tout sous-corps k de K. Ainsi C, qui est
un C-espace vectoriel, est aussi un R-espace vectoriel et un Q-espace
vectoriel. Mais ces trois structures doivent e tre tr`es soigneusement distinguees, le lecteur pourra se rendre compte par la suite que le corps de
base a une importance fondamentale dans la structure despace vectoriel.
La proposition suivante montre quil ny a absolument aucune surprise et que
lon calcule en fait comme dans toute structure algebrique classique.
PROPOSITION 5.1

1. (x, y) E, K, (x y) = x y
59

2. K, 0 = 0
3. y E, K, (y) = y
4. x E, (, ) K, ( )x = x x
5. x E, K, ()x = x
6. x E, 0x = 0
7. x E, K, (x = 0) ( = 0 ou x = 0).
Demonstration : le lecteur est invite a` examiner les axiomes utilises pour demontrer
cette proposition
1. en effet, (x y) + y = ((x y) + y) = x
2. on fait x = y dans 1.
3. on fait x = 0 dans 1.
4. en effet, ( )x + x = (( ) + )x = x
5. on fait = 0 dans 4.
6. on fait = dans 4.
7. on suppose x = 0 : si = 0 cest bon, sinon est inversible dans le
corps K et on a par multiplication 1 (x) = 1 0 = 0 do`u 1x = 0
et donc x = 0 ; la reciproque est triviale, il sagit de 2. et 6.
DEFINITION 5.2 Soit (x1 , ..., xn ) un n-uplet de vecteurs dun K-espace vectoriel E, un vecteur x E est dit combinaison lineaire des vecteurs x1 , ..., xn si
lon peut trouver un n-uplet (1 , ..., n ) de scalaires tel que :
x = 1 x1 + 2 x2 + ... + n xn .
Le lecteur notera d`es maintenant quil na pas e te dit que les vecteurs x1 , ...,
xn sont deux a` deux distincts, i.e. on admet volontiers les repetitions. On admet
de plus que certains des scalaires 1 , ..., n (ou meme tous) puissent prendre la
valeur 0. En particulier, i [1, n], xi est combinaison lineaire de (x1 , ..., xn ) car
xi = 0x1 + ... + 0xi1 + 1xi + 0xi+1 + ... + 0xn .
Exercice : dans R3 on consid`ere les deux vecteurs A = (1, 1, 1) et B =
(1, 3, 1)
1. rechercher si lun des vecteurs suivants, C = (1, 2, 3), D = (1, 0, 2),
E = (0, 1, 1) est combinaison lineaire des vecteurs A et B
2. soit X = (x, y, z) un e lement quelconque de R3 , quelle relation doit-il
exister entre x, y, z pour que X soit une combinaison lineaire de A et
B ? (reponse : 2x + y z = 0).
60

5.2

Sous-espaces vectoriels

DEFINITION 5.3 Soient E un K-espace vectoriel et F une partie de E, on dit


que F est un sous-espace vectoriel de E si la restriction de laddition a` FF et
la restriction de loperation externe a` KF induisent sur F une structure de Kespace vectoriel.
La definition meme dun sous-espace vectoriel F dun K-espace vectoriel E
contient le fait que F soit une partie stable de E pour les deux lois. Le lecteur
nignore pas que lon ne peut parler de loi induite que sur une partie stable pour
cette loi.
Lutilisation de cette definition demande dix demonstrations pour verifier quune
partie F de E est un sous-espace vectoriel de E. Heureusement, le theor`eme suivant, quil faudra utiliser systematiquement, simplifie considerablement les choses.
THEOREM 5.1 Soit F une partie dun K-espace vectoriel E, les propositions
suivantes sont e quivalentes :
1. F est un sous-espace vectoriel de E
2. (F, +) est un sous-groupe du groupe additif (E,+)
F est stable pour loperation externe, i.e. :
K, x F, x F
3. F 6=
F est stable pour laddition, i.e. :
x, y F, x + y F
F est stable pour loperation externe
4. F 6=
F est stable par combinaison lineaire de tout couple de vecteurs de F, i.e. :
, K, x, y F, x + y F.
Demonstration : il est clair que 1. 2. 3. 4., pour montrer lequivalence
des quatre propositions il suffit donc de montrer que 4. 1.. On doit en
premier lieu verifier la stabilite pour les deux lois : soient donc x et y deux
e lements de F, en prenant = 1 et = 1 dans 4. on trouve (xy) F . (F,
+) est donc un sous-groupe abelien de (E, +). Par ailleurs, soit un scalaire
et x un e lement de F, en prenant = 0 dans 4. on trouve x F . F est
donc stable pour loperation externe. Comme les quatre proprietes de la loi
externe e noncees dans la definition ? ? sont vraies dans E, elles le restent a
fortiori dans F, car F est inclus dans E
61

Le crit`ere 4. des sous-espaces montre quun sous-espace vectoriel F est stable


par combinaison lineaire dun couple de vecteurs de F. Plus generalement, on peut
verifier par recurrence sur n N que F est stable par combinaison lineaire de
n-uplets de vecteurs de F.
Il arrivera souvent davoir a` montrer quun ensemble F muni de deux operations,
une interne et lautre externe de domaine un corps commutatif K, est un K-espace
vectoriel. Une excellente ruse consistera dune part a` plonger F dans un ensemble
plus grand E, repute e tre un K-espace vectoriel, et dautre part a` montrer que F est
un sous-espace vectoriel de E. Il faudra donc connatre des K-espaces vectoriels
classiques (cf exemples de la section precedente).
Exemples :
1. soit E un K-espace vectoriel, les parties {0} et E sont des sous-espaces
vectoriels de E appeles sous-espaces triviaux
2. soit n N , Kn [X], ensemble des polynomes a` coefficients dans K de
degre inferieur ou e gal a` n, est un sous-espace vectoriel de K[X]
3. lanalyse fournit de nombreux exemples de sous-espaces vectoriels de
A(I, R), o`u I est un intervalle de R ; entre autres :
(a) lensemble C(I, R) des applications continues sur I
(b) lensemble D(I, R) des applications derivables sur I
(c) pour tout entier n 1, lensemble Dn (I, R) des applications n
fois derivables sur I
(d) pour tout entier n N , lensemble Cn (I, R) des applications de
classe Cn sur I
(e) si de plus I est un segment [a, b], le lecteur connat surement lensemble E[a,b] des fonctions en escalier sur [a, b] et lensemble I[a,b]
des fonctions integrables au sens de Riemann sur [a, b].
Contre-exemples : il y a e videmment des parties de K-espaces vectoriels qui ne
sont pas des sous-espaces vectoriels, on note en particulier :
1. lensemble des polynomes de degre exactement n nest pas un sousespace vectoriel de K[X]
2. lensemble des fonctions positives ou nulles (resp. negatives ou nulles)
definies sur une partie D de R nest pas un sous-espace vectoriel de
A(D, R)
3. lensemble des fonctions croissantes (resp. decroissantes) (resp. monotones) definies sur une partie D de R nest pas un sous-espace vectoriel de A(D, R).
62

Il est fortement conseille au lecteur de passer quelques minutes a` verifier les


assertions e noncees dans ces exemples ou contre-exemples.
Exercices :
1.
Montrer que lensemble des triplets (x, y, z) de nombres reels verifiant
2x y2 +(log )z = 0 est un R-espace vectoriel. Est-ce un Q-espace
vectoriel ?
2. Soit P (resp. I) lensemble des fonctions numeriques paires (resp. impaires) definies sur R, montrer que P et I sont des sous-espaces vectoriels de A(R, R).

5.3

Applications lineaires

Le lecteur aura surement remarque que toute structure a ses morphismes. Les
morphismes sont ici des applications qui respectent la structure de K-espace vectoriel. Il est donc tout a` fait normal de poser la definition suivante, qui ne contient
en fait quune precision de vocabulaire.
DEFINITION 5.4 Soient E et F deux K-espaces vectoriels, on appelle morphisme,
ou encore application K-lineaire de E dans F, toute application f : E F
verifiant les deux conditions suivantes :
x, y E, f (x + y) = f (x) + f (y)
x E, K, f (.x) = .f (x).
Si F = K, une application lineaire de E dans K prend le nom de forme lineaire.
Les terminologies en vigueur fonctionnent encore dans le cadre des K-espaces
vectoriels :
1. si E = F , on dit que f est un endomorphisme de E
2. si E et F sont quelconques et f bijective, on dit que f est un isomorphisme
de K-espaces vectoriels
3. si E = F et f bijective, on dit que f est un automorphisme de E
4. en outre, sil existe un isomorphisme entre deux K-espaces vectoriels E et
F, on dit que E et F sont isomorphes.
On introduit alors les notations suivantes :
1. lensemble des applications K-lineaires de E dans F est note LK (E, F), ou
encore L(E, F) si aucune confusion nest a` craindre
2. lensemble des isomorphismes de E sur F est note Iso(E, F)
63

3. lensemble des endomorphismes de E est note LK (E), ou encore L(E)


4. lensemble des automorphismes de E est note GLK (E), ou encore GL(E),
et sappelle le groupe lineaire general du K-espace vectoriel E (on verra
plus tard lexplication de cette denomination, cest bien un groupe pour la
composition des applications).
La proposition suivante peut e tre un crit`ere rapide pour montrer quune application est une application lineaire.
PROPOSITION 5.2 Soient E et F deux K-espaces vectoriels et f une application
de E dans F, les propositions suivantes sont e quivalentes :
1. f est une application K-lineaire
2. , K, x, y E, f (x + y) = f (x) + f (y).
Demonstration : on laisse le soin au lecteur de poser = = 1 ou = 0.
Soient E et F deux K-espaces vectoriels, lapplication 0 : E F definie par
x E, 0(x) = 0 est K-lineaire. On lappelle lapplication nulle de E dans F.
Si f : E F est une application K-lineaire, la premi`ere condition de la
definition ? ? montre que f est dej`a un morphisme de groupes additifs. D`es lors, f
poss`ede toutes les proprietes dun morphisme de groupes, en particulier : f (0) = 0
et x E, f (x) = f (x). Cette derni`ere propriete est aussi une consequence
de la deuxi`eme condition de la definition ? ? en prenant = 1.
Exercices :
1. Soit E un K-espace vectoriel, on rappelle que lhomothetie de rapport
K de E est lapplication :
h :

EE
.
x 7 .x

Montrer que h L(E). Pour quelles valeurs de a-t-on h


GL(E) ?
2. Montrer que lapplication D : K[X] K[X] definie par P
K[X], D(P ) = P 0 (polynome derive) est une application K-lineaire.
Est-elle injective ?surjective ?
3. Montrer que lapplication I : I[a,b] R definie par f I[a,b] ,
Rb
I(f ) = a f (t)dt est une forme lineaire sur I[a,b] .
PROPOSITION 5.3 Soit E un K-espace vectoriel, lapplication identique IdE de
E est K-lineaire. Autrement dit, IdE est un endomorphisme de E. Cest meme un
automorphisme de E.
64

Demonstration : il suffit de remarquer que IdE est lhomothetie de rapport 1 (cf


exercice)
PROPOSITION 5.4 Soient E, F, G trois K-espaces vectoriels, f une application
lineaire de E dans F, i.e. f L(E, F ), et g une application lineaire de F dans G,
i.e. g L(F, G) :
f

E F G;
alors lapplication composee gf de E dans G est encore une application lineaire,
i.e. :
(f L(E, F ) et g L(F, G)) g f L(E, G).
Demonstration : on emploie le crit`ere de la proposition ? ? :
= g(f (x + y))
= g(f (x) + f (y))
, K, x, y E, g f (x + y)
= g(f (x)) + g(f (y))
= g f (x) + g f (y)
PROPOSITION 5.5 Soient E et F deux K-espaces vectoriels et f un isomorphisme de E sur F, lapplication f1 de F sur E est encore une application lineaire.
Autrement dit, f1 est un isomorphisme de F sur E.
Demonstration : on pose , K, u, v F , x = f 1 (u) et y = f 1 (v), ce
qui a bien un sens puisque f est bijective, ce qui secrit encore u = f (x) et
v = f (y) ; on a alors :
= f 1 (f (x) + f (y))
= f 1 (f (x + y))
f 1 (u + v)
= x + y
= f 1 (u) + f 1 (v)
On remarque que si E et F sont deux K-espaces vectoriels, lensemble L(E,
F) des applications K-lineaires de E dans F est une partie de lensemble A(E, F)
de toutes les applications de E dans F. Or F est un K-espace vectoriel, A(E, F)
est donc muni, de facon naturelle, dune structure de K-espace vectoriel. Tous les
espoirs sont donc permis.
THEOREM 5.2 Soient E et F deux K-espaces vectoriels, alors lensemble L(E,
F) est un sous-espace vectoriel de A(E, F). Autrement dit, L(E, F) et donc aussi
L(E) sont des K-espaces vectoriels.
Demonstration : on emploie le troisi`eme crit`ere des sous-espaces vectoriels du
theor`eme ? ?.
65

1. L(E, F ) 6= car lapplication nulle est lineaire


2. L(E, F) est stable pour laddition. On prend deux e lements f et g dans
L(E, F), on doit verifier que f + g est lineaire :
= f (x + y) + g(x + y)
= f (x) + f (y) + g(x) + g(y)
, K, x, y E, (f + g)(x + y)
= f (x) + g(x) + f (y) + g(y)
= (f + g)(x) + (f + g)(y)
3. L(E, F) est stable pour loperation externe. On prend un scalaire et
un e lement f dans L(E, F), on doit verifier que .f est lineaire :
= .f (x + y)
= .(f (x) + f (y))
, K, x, y E, (.f )(x + y)
.
= f (x) + f (y)
= (.f )(x) + (.f )(y)
On remarquera limportance de la commutativite du corps K dans la
derni`ere e galite
On peut en outre munir L(E) dune structure plus compl`ete.
THEOREM 5.3 Soit E un K-espace vectoriel, (L(E), +, , .) est une K-alg`ebre.
Demonstration : admis.
On vient de decrire les liens algebriques des applications lineaires entre elles.
On passe maintenant a` une description de lapplication lineaire en sinteressant a`
deux organes principaux : le noyau et limage dune telle application.
THEOREM 5.4 Soient E et F deux K-espaces vectoriels et f une application Klineaire de E dans F, alors :
1. limage directe de tout sous-espace vectoriel de E est un sous-espace vectoriel de F ; en particulier
Im(f ) = f (E) est un sous-espace vectoriel de F appele image de f
2. limage reciproque de tout sous-espace vectoriel de F est un sous-espace
vectoriel de E ; en particulier Ker(f ) = f 1 ({0}) est un sous-espace vectoriel de E appele noyau de f
3. de plus, f est injective si et seulement si Ker(f ) = {0}.
Demonstration :
66

1. soit E un sous-espace vectoriel de E, on consid`ere lensemble f(E).


Comme E contient 0, f(E) contient f (0) = 0, donc f(E) nest pas
vide. Dautre part, u F (E 0 ), x E 0 , f (x) = u et v f (E 0 ),
y E 0 , f (y) = v, donc u, v f (E 0 ), , K, u + v =
f (x) + f (y) = f (x + y) car f est lineaire, mais E e tant un
sous-espace vectoriel de E est stable par combinaison lineaire, donc
u + v f (E 0 )
2. soit F un sous-espace vectoriel de F, on consid`ere lensemble f1 (F).
Comme f (0) = 0 F 0 , f 1 (F 0 ) contient 0, donc f1 (F) nest pas
vide. Dautre part, x f 1 (F 0 ), f (x) F 0 et y f 1 (F 0 ), f (y)
F 0 , donc x, y f 1 (F 0 ), , K, f (x+y) = f (x)+f (y)
F 0 , puisque F est stable par combinaison lineaire, donc f (x + y)
F 0 , i.e. par definition x + y f 1 (F 0 ). {0} e tant trivialement un
sous-espace vectoriel de F, la seconde partie en resulte
3. enfin, si f est injective, comme on a toujours f (0) = 0, on en deduit :
(f (x) = 0) (f (x) = f (0)) (x = 0)
donc Ker(f ) = {0}. Reciproquement, si Ker(f ) = {0}, on a puisque
f est lineaire :
x, y E, (f (x) = f (y)) (f (xy) = 0) (xy = 0) (x = y)
donc f est injective
Exercice : Soit E un K-espace vectoriel et f un endomorphisme de E
1. Montrer lequivalence suivante :
Im(f ) Ker(f ) f 2 = 0,
o`u f 2 = f f .
2. Montrer que si lune de ces conditions e quivalentes est realisee, alors
IdE + f est un automorphisme de E. On pourra calculer (IdE + f )
(IdE f ).
3. Montrer plus generalement que sil existe un entier n N tel que
f n = 0 (on dit que f est nilpotent), alors IdE +f est un automorphisme
de E.

5.4

Somme de sous-espaces vectoriels

Le lecteur est invite a` constater de lui-meme que la reunion de deux sousespaces vectoriels dun K-espace vectoriel nest pas en general un sous-espace
67

vectoriel. Pour remedier a` cet inconvenient, on va remplacer lunion des sousespaces vectoriels par une operation plus convenable qui est la somme des sousespaces vectoriels.
DEFINITION 5.5 On appelle somme
sous-espaces vectoriels E1 , ..., En la
Pdes
n
partie, notee E1 + ... + En ou mieux i=1 Ei , formee des e lements de E qui sont
de la forme x1 + ... + xn o`u x1 E1 , ..., xn En . Autrement dit :
x

n
X

Ei (x1 E1 )...(xn En ), x = x1 + ... + xn .

i=1

On dira que x se decompose sur les sous-espaces E1 , ..., En . Le lecteur peut


constater quil nest pas dit que les vecteurs x1 , ..., xn sont uniques (`a suivre).
Exercices :
1. Soient E un K-espace vectoriel et F un sous-espace vectoriel de E,
montrer que F +F = F , et plus generalement que F +F +...+F = F .
2. Soient E un K-espace vectoriel et E1 , ..., En n sous-espaces vectoriels
quelconques de E (n N ), on consid`ere lapplication :
:

E1 E2 ... En E
.
(x1 , x2 , ..., xn ) 7 x1 + x2 + ... + xn

On suppose E1 E2 ... En muni de sa structure despace vectoriel


produit.
(a) Montrer que est lineaire.
(b) Decrire Ker et Im.
THEOREM 5.5 La somme E1 + ... + En de n sous-espaces vectoriels dun Kespace vectoriel E est un sous-espace vectoriel de E. Cest en outre le plus petit
sous-espace vectoriel de E (au sens de linclusion) contenant les sous-espaces
vectoriels E1 , ..., En .
Demonstration : en effet, on suppose que le lecteur a resolu lexercice precedent.
Alors E1 + ... + En = (E1 E2 ... En ) =
Im est un sous-espace vectoriel de lespace darrivee, et E1 + ... + En
contient bien entendu chaque sous-espace vectoriel Ei car xi = 0 + ... +
xi + ... + 0, donc Ei E1 + ... + En . Mais de plus, si F est un sous-espace
vectoriel de E contenant les Ei , alors :
i [1, n], xi Ei xi F
donc x1 + ... + xn F puisque F est un sous-espace vectoriel de E, do`u
F E1 + ... + En . E1 + ... + En est bien le plus petit sous-espace vectoriel
de E contenant les Ei
68

On conserve lesP
notations precedentes. On a dej`a remarque que la decomposition
dun e lement x ni=1 Ei nest pas necessairement unique. Le lecteur se doute
donc que pour avoir toujours lunicite, il doit exister un concours de circonstances favorables, qui va conduire a` la notion de somme directe, et a` diverses
caracterisations, puis a` celle de sous-espaces supplementaires.
DEFINITION 5.6 Soient E un K-espace vectoriel et E1 , ..., En (n 1) n sousespaces vectoriels de E, on dit que la somme
Pn E1 + ... + En est directe, et on note
E1 ... En , si tout x appartenant a` i=1 Ei admet une decomposition unique
sur les sous-espaces vectoriels E1 , ..., En .
PROPOSITION 5.6 Avec les notations de la definition precedente, on a lequivalence
suivante :
E1 ...En (x1 , ..., xn ) E1 ...En , x1 +...+xn = 0 x1 = ... = xn = 0.
Demonstration : () on sait que 0 admet une decomposition unique sur les Ei ,
or on a les deux e galites :
x1 + ... + xn = 0 et 0 + ... + 0 = 0
do`u i [1, n], xi = 0.
P
() soit x ni=1 Ei , on suppose que lon a deux decompositions de x :
x = x1 + ... + xn = y1 + ... + yn
avec i [1, n], xi Ei , yi Ei . Alors, par soustraction, on obtient :
0 = (x1 y1 ) + ... + (xn yn ).
Les Ei e tant des sous-espaces vectoriels de E, on a xi yi Ei pour tout i
[1, n], donc par hypoth`ese xi yi = 0, i [1, n], ce qui demontre que les
deux decompositions sont identiques, do`u lunicite de la decomposition
THEOREM 5.6 (cas de deux sous-espaces vectoriels)
Soient E un K-espace vectoriel et E1 , E2 deux sous-espaces vectoriels de E,
on a lequivalence :
E1 E2 E1 E2 = {0}.
Demonstration : () soit x E1 E2 , on doit montrer que x est nul, or x admet
deux decompositions sur les sous-espaces vectoriels E1 et E2 , a` savoir :
x=x+0=0+x
avec (x, 0) E1 E2 et (0, x) E1 E2 . Lunicite de la decomposition
entrane donc bien x = 0.
69

() soit x E1 + E2 , si x admettait deux decompositions distinctes sur E1 et


E2 , on aurait x = x1 + x2 = y1 + y2 , avec des notations e videntes. D`es lors,
par soustraction, x1 y1 = y2 x2 , or x1 y1 E1 et x2 y2 E2 , donc
E1 E2 6= {0}, ce qui demontre la proposition par contraposee
Attention, on a bien e crit E1 E2 = {0} et non pas E1 E2 = : le lecteur
est invite a` bien saisir cette difference fondamentale, sous peine de navoir rien
compris a` tout ce qui vient detre e tudie.
THEOREM 5.7 (cas general)
Soient E un K-espace vectoriel et E1 , ..., En n sous-espaces vectoriels de E
(n 1), les propositions suivantes sont e quivalentes :
1. la somme E1 + ... + En est directe
P
2. i [1, n], Ei ( j6=i Ej ) = {0}
P
3. i [1, n 1], ( ij=1 Ej ) Ei+1 = {0}.
P
Demonstration : (1.2.) soit u Ei ( j6=i Ej ), on a pour le vecteur u deux
decompositions sur les sous-espaces Ei :
u = 0 + ... + 0 + u + 0 + ... + 0, car u Ei
X
Ej
u = u1 + ... + ui1 + 0 + ui+1 + ... + un , car u
j6=i

donc u = 0 par unicite de la decomposition


P
P
(2.3.) on a i [1, n 1], ( ij=1 Ej ) Ei+1 Ei+1 ( j6=i+1 Ej ) et le
membre de droite est reduit a` {0} par hypoth`ese
(3.1.) soit u E1 + ... + En , on suppose quil admet deux decompositions
distinctes :
u = x1 + ... + xn , i [1, n], xi Ei ,
u = y1 + ... + yn , i [1, n], yi Ei .
Avec notre hypoth`ese, il existe i, 1 i n, tel que xi 6= yi , donc J = {i
[1, n], xi 6= yi } est non vide et majore par n, il admet par consequent un plus
grand e lement, note io + 1. D`es lors, io [1, n 1] et par soustraction des
deux decompositions, on obtient :
(x1 y1 ) + ... + (xi0 yi0 ) = (xi0 +1 yi0 +1 ).
Pi0
` Ei0 +1 .
Le premier membre appartient a`
i=1 Ei et le second membre a
Dapr`es lhypoth`ese 3. ces deux membres sont donc nuls. En particulier,
xi0 +1 = yi0 +1 , ce qui contredit le choix de i0 + 1. On vient de montrer par
labsurde que J est vide. Lunicite de la decomposition en resulte, la somme
est donc directe
70

Attention, les conditions 2. et 3. du theor`eme sont beaucoup plus fortes que la


condition E1 ... En = {0}, ou meme i 6= j, Ei Ej = {0} (cf exercices).
Exercices :
1. Soient F et F les sous-ensembles de R3 definis par :
F = {(x, y, z) R3 , x 2y + z = 0},
F 0 = {(x, y, z) R3 , 2x y + 2z = 0}.
(a) Montrer que F et F sont deux sous-espaces vectoriels de R3 .
(b) Montrer que F + F 0 = R3 mais que la somme F + F 0 nest pas
directe.
2. Soient D1 , D2 , D3 les sous-espaces vectoriels de R2 definis par :
D1 = {(x, y) R2 , x = 2y},
D2 = {(x, y) R2 , x = 3y},
D3 = {(x, y) R2 , x = y}.
(a) Montrer que i, j {1, 2, 3}, i 6= j Di Dj = {0}.
(b) Montrer que la somme D1 + D2 + D3 nest pas directe.
3. On consid`ere a` nouveau lapplication :
:

E1 E2 ... En E
.
(x1 , x2 , ..., xn ) 7 x1 + x2 + ... + xn

Montrer que la somme E1 + ... + En est directe si et seulement si


lapplication est un isomorphisme de K-espaces vectoriels.
DEFINITION 5.7 Soient E un K-espace vectoriel et E1 , E2 deux sous-espaces
vectoriels de E, on dit que E1 et E2 sont supplementaires si les deux conditions
suivantes sont realisees :
1. E1 et E2 ont une somme directe
2. E1 E2 = E (leur somme est donc E tout entier).
Le lecteur remarquera deux choses dans cette definition. Ladjectif supplementaire
sadresse a` deux sous-espaces, et il qualifie une propriete commune a` E1 et E2 . Il
verifiera que ladjectif supplementaire na rien a` voir avec complementaire, et
on esp`ere quil naura jamais, ni loccasion, ni le mauvais gout de les confondre.
On lengage en effet a` mediter sur la stricte impossibilite de lexistence de sousespaces vectoriels complementaires. Par ailleurs, le theor`eme ? ? permet decrire
la proposition suivante, tr`es importante.
71

PROPOSITION 5.7 Soient E un K-espace vectoriel et E1 , E2 deux sous-espaces


vectoriels de E, on a lequivalence suivante :
E = E1 E2

E = E1 + E2
.
E1 E2 = {0}

DEFINITION 5.8 Soient E un K-espace vectoriel et F un sous-espace vectoriel


de E, on appelle supplementaire de F (sous-entendu : dans E) tout sous-espace
vectoriel G de verifiant E = F G.
La premi`ere question que lon peut se poser est la suivante : e tant donne un
sous-espace vectoriel F dun K-espace vectoriel E, existe-t-il toujours un supplementaire
G de F (dans E) ? La deuxi`eme question est tout aussi naturelle : si un supplementaire
existe, est-il unique ?
La reponse a` la premi`ere question est oui. Cest un theor`eme tr`es profond, dont
la demonstration ne sera pas donnee ici, faute de moyens. Toutefois on en donnera,
dans deux chapitres, une preuve dans un cas particulier. La reponse a` la deuxi`eme
question est non en general. Ainsi on sera, in perpetuum, contraint demployer
larticle indefini. Il existe cependant quelques exceptions : par exemple, E nadmet
que {0} pour supplementaire, et inversement.
Exercices :
1. Soient dans R3 les deux parties suivantes :
F = {(x, y, z) R3 , x + y + z = 0},
G = {(, , ), R}.
(a) Montrer que F et G sont deux sous-espaces vectoriels de R3 .
(b) Montrer que F et G sont supplementaires.
(c) Trouver dautres supplementaires pour F (resp. pour G).
(d) En deduire que F (resp. G) admet une infinite de supplementaires.
2. Dans lespace produit E1 E2 de deux K-espaces vectoriels E1 et E2 ,
montrer que les parties {0} E2 et E1 {0} sont deux sous-espaces
vectoriels supplementaires.
3. Montrer que tous les supplementaires dun sous-espace vectoriel F
dun K-espace vectoriel E sont isomorphes. Indication : e crire E =
F G1 et E = F G2 , construire alors lapplication de G1 dans
G2 de la facon suivante : si g1 G1 , g1 = f + g2 avec f F et
g2 G2 puisque G1 E ; cette decomposition est unique, montrer
alors que si on prend (g1 ) = g2 , est un isomorphisme de G1 sur
G2 .
72

PROPOSITION 5.8 Soient E et F deux K-espaces vectoriels et f une application


lineaire de E dans F, alors tout supplementaire de Ker(f) est isomorphe a` Im(f).
Demonstration : il suffit de le demontrer pour un supplementaire dapr`es lexercice precedent. Soit alors U un supplementaire de Ker(f) dans E, on laisse
au lecteur le soin de prouver que la restriction de f a` U est un isomorphisme
de U sur Im(f). La surjectivite e tant triviale, il suffit dailleurs de verifier
linjectivite.
Attention, le fait que tous les supplementaires de Ker(f) soient isomorphes a`
Im(f) ne doit pas laisser penser (cest une faute trop courante) que Ker(f) et Im(f)
sont toujours supplementaires. En fait, il ne faut pas confondre isomorphes et
e gaux. Dailleurs, dans le cas o`u E est different de F, Ker(f) est inclus dans E et
Im(f) dans F, ils auraient donc beaucoup de mal a` e tre supplementaires.
Mais meme si E = F , il est rare que Im(f) et Ker(f) soient supplementaires.
Neanmoins, par pur esprit de contradiction, on va immediatement e tudier une
classe dendomorphismes ayant cette propriete.

5.5

Projections et projecteurs

Soit E un K-espace vectoriel, on suppose donne pour la suite une decomposition


de E en somme directe de deux sous-espaces vectoriels E1 et E2 :
E = E1 E2 .
On rappelle que x E admet une decomposition unique de la forme x = x1 + x2
avec x1 E1 et x2 E2 . On definit alors deux applications p et q de la mani`ere
suivante :
EE
EE
p:
et q :
.
x 7 p(x) = x1
x 7 q(x) = x2
DEFINITION 5.9 Lapplication p sappelle la projection sur E1 parall`element
a` E2 , de meme lapplication q sappelle la projection sur E2 parall`element a` E1 .
PROPOSITION 5.9 Les applications p et q sont deux endomorphismes du Kespace vectoriel E. De plus :
Ker(p) = E2
Im(p) = E1
Ker(q) = E1
Im(q) = E2

73

Demonstration : soient x = x1 + x2 et y = y1 + y2 deux e lements de E et leurs


decompositions sur la somme directe, et , deux scalaires, on a :
x + y = (x1 + y1 ) + (x2 + y2 ).
On voit donc aisement que cette e criture est la decomposition de x + y
(unicite) sur la somme directe. Autrement dit, p(x + y) = x1 + y1 et
q(x + y) = x2 + y2 . La fin de la demonstration est triviale
On a donc E = Ker(p)
Im(p) et E = Ker(q)
Im(q), puisque E = E1 E2 . On rep`ete que ce nest en general pas le cas pour
un endomorphisme quelconque.
PROPOSITION 5.10 On definit comme precedemment p et q, on a alors :
1. p + q = IdE
2. p q = q p = 0
3. p2 = p et q 2 = q.
Demonstration :
1. x E, x = x1 + x2 = p(x) + q(x) donc IdE = p + q
2. x E, x = x1 +x2 , on a q(x) = x2 , mais on e crit q(x) = 0+x2 pour
faire apparatre sa decomposition sur E1 E2 ; on a donc p(q(x)) = 0,
i.e. p q = 0, et de meme q p = 0
3. x E, x = x1 + x2 , on a p(x) = x1 , ce quon e crit p(x) = x1 + 0,
on a donc p(p(x)) = x1 , i.e. p p = p, idem pour q
La derni`ere propriete exprime que p et q sont des idempotents de L(E). On
e tudie maintenant ces idempotents.
DEFINITION 5.10 Soit E un K-espace vectoriel, on appelle projecteur de E tout
endomorphisme p de E verifiant p2 = p.
On justifie cette appellation en e tablissant le lien entre projecteur et projection,
a` laide du theor`eme suivant.
THEOREM 5.8 Soient E un K-espace vectoriel et p un projecteur de E, alors p
est la projection sur Im(p) parall`element a` Ker(p).
Demonstration : en deux e tapes
1. on montre ici que Ker(p) et Im(p) sont supplementaires :
74

(a) soit x un e lement de E, une e norme ruse consiste a` e crire x =


x p(x) + p(x) ; on pose alors x2 = x p(x) et x1 = p(x). Il est
clair que x1
Im(p) ; par ailleurs p(x2 ) = p(x p(x)) = p(x) p2 (x) = 0
car p = p2 et p L(E) donc x2 Ker(p). On a donc e crit
x = x1 + x2 avec x1
Im(p) et x2 Ker(p)
(b) soit x Ker(p)
Im(p), comme x
Im(p) il existe t E tel que x = p(t). Par ailleurs, p(x) = 0 car
x Ker(p), donc p(p(t)) = 0, i.e. p2 (t) = 0, do`u p(t) = 0 car
p = p2 , et donc x = 0
2. on montre ici que p concide avec la projection sur Im(p) parall`element
a` Ker(p) : dans la premi`ere e tape, on a decouvert la decomposition de
tout e lement de E sur les sous-espaces Im(p) et Ker(p). Celle-ci est :
x E, x = p(x) + (x p(x)) = x1 + x2 , donc dapr`es la definition
des projections, x E, (x) = x1 = p(x), i.e. = p
Le lecteur pourra montrer que si p est un projecteur, alors q = IdE p est aussi
un projecteur : q est justement lautre projection associee a` la decomposition E =
Im(p) Ker(p).

75

76

Chapitre 6
Generation et liberte
Les deux notions presentees ici, lindependance lineaire et la generation, sont
les deux poles de la theorie des espaces vectoriels. Ces deux notions ne sont
pas simples et les liens qui les unissent sont loin detre e vidents. Si de surcrot
on cherche a` tout exprimer en termes de familles, les e nonces salourdissent, les
demonstrations sallongent et le niveau dabstraction sel`eve. En consequence, il
est indispensable, pour tirer quelque profit de letude theorique generale, de commencer par les situations les plus simples decrites par un petit nombre de vecteurs,
sans lesiner sur les calculs explicites.

6.1

Preliminaires

Dans cette section, lessentiel sera decrit pour un triplet de vecteurs. Il est
vivement conseille au neophyte de bien comprendre ces preliminaires. Le lecteur
plus aguerri peut ignorer cette section.

6.1.1

Sous-espace vectoriel engendre

THEOREM 6.1 Soit (x1 , x2 , x3 ) un triplet de vecteurs de lespace vectoriel E,


lensemble F des combinaisons lineaires des vecteurs x1 , x2 , x3 est un sous-espace
vectoriel de E. Cest le plus petit sous-espace vectoriel (pour linclusion) de E
contenant les vecteurs x1 , x2 , x3 .
DEFINITION 6.1 On appelle F le sous-espace vectoriel engendre par x1 , x2 ,
x3 et on le note :
F = hx1 , x2 , x3 i = {x E, 1 , 2 , 3 K, x = 1 x1 + 2 x2 + 3 x3 }.
On dit que (x1 , x2 , x3 ) engendre F ou que cest une famille generatrice de F.
77

Si les vecteurs x1 , x2 , x3 sont deux a` deux distincts, on dit encore que la partie
{x1 , x2 , x3 } est une partie generatrice de F.
On laisse au lecteur le soin damenager un texte analogue dans le cas dun
vecteur, dun couple, dun quadruplet, etc...
Demonstration :
1. F 6= car pour 1 = 2 = 3 = 0 on trouve 0 F . De plus, soient
x, y F , alors x = 1 x1 + 2 x2 + 3 x3 et y = 1 x1 + 2 x2 + 3 x3 ,
donc pour tous , K on a x + y = (1 + 1 )x1 + (2 +
2 )x2 + (3 + 3 )x3 F
2. F contient x1 , en prenant 1 = 1 et 2 = 3 = 0 ; idem pour x2 et x3
3. soit F un sous-espace vectoriel de E contenant x1 , x2 , x3 , alors F est
stable pour les deux lois et donc, pour tous scalaires 1 , 2 , 3 on a
1 x1 + 2 x2 + 3 x3 F 0 . F est donc bien le plus petit possible pour
linclusion
Exemples :
1. Soient E = R3 , e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1), alors
(e1 , e2 , e3 ) engendre R3 mais (e1 , e2 ) engendre un sous-espace vectoriel strict de R3 .
2. Soit x E, x 6= 0, alors hxi = {x, K} sappelle une droite
vectorielle de E.
Exercices :
1. Soient E = R3 et F = {(x, y, z) R3 , 2x y + 2z = 0}
(a) Montrer que F est un sous-espace vectoriel de E, trouver un couple
generateur de F. Ya-t-il unicite dun tel couple ?
(b) Soit X = (2, 2, 1), montrer que X F mais que hXi

F.

(c) On choisit un couple (X1 , X2 ) generateur de F, ya-t-il unicite de


la decomposition X = 1 X1 + 2 X2 ?
2. Soit E = K[X], montrer que
(a) (1 + 2X 2 ) h1 2X, X 2 + X, X 3 i
(b) X 3 h1, X, X 2 i
(c) X 3 h1, X a, (X a)2 , (X a)3 i, a K donne.
Dune part, il est e vident que si x4 est un nouvel individu de E, on a hx1 , x2 , x3 , x4 i
hx1 , x2 , x3 , x4 i. Dautre part, on a vu dans les exercices precedents que cette inclusion pouvait e tre stricte ou large.
78

PROPOSITION 6.1 On a lequivalence suivante :


x4 hx1 , x2 , x3 i hx1 , x2 , x3 i = hx1 , x2 , x3 , x4 i .
Demonstration : () e vident, puisque x4 hx1 , x2 , x3 , x4 i = hx1 , x2 , x3 i.
() on suppose que lon a x4 = 1 x1 + 2 x2 + 3 x3 , alors pour tout vecteur x
appartenant a` hx1 , x2 , x3 , x4 i on peut e crire :
x = 1 x 1 + 2 x 2 + 3 x 3 + 4 x 4
= (1 + 4 1 )x1 + (2 + 4 2 )x2 + (3 + 4 3 )x3
Plus generalement, soient x1 , ..., xn des vecteurs de E ; chaque fois que dans
le lot il en existe un qui est combinaison lineaire des autres, on peut loter sans
dommage pour le sous-espace vectoriel F engendre par (x1 , ..., xn ). Lorsque cela
ne sera plus possible, on disposera dune famille generatrice minimale. A une
telle famille on donnera bientot un nom.

6.1.2

Independance lineaire

DEFINITION 6.2 On appelle relation de dependance lineaire entre les vecteurs


x1 , x2 , x3 de E tout triplet (1 , 2 , 3 ) de scalaires tel que 1 x1 + 2 x2 + 3 x3 =
0. Le triplet (0, 0, 0) est toujours une relation de dependance lineaire, appelee
relation triviale.
Sil existe une relation de dependance lineaire non triviale, on dit que le triplet
(x1 , x2 , x3 ) est lie, ou que les vecteurs x1 , x2 , x3 sont lineairement dependants.
Dans le cas contraire, on dit que le triplet est libre ou que les vecteurs sont
lineairement independants.
En resume, e tudier lindependance lineaire des vecteurs x1 , x2 , x3 revient a`
resoudre lequation suivante en 1 , 2 , 3 :
1 x1 + 2 x2 + 3 x3 = 0.
Si la seule solution est la solution triviale (0, 0, 0) le triplet est libre, sinon il est
lie.
PROPOSITION 6.2 (x1 , x2 , x3 ) est lie si et seulement si lun au moins des vecteurs x1 , x2 , x3 est combinaison lineaire des deux autres.
Demonstration : on suppose (x1 , x2 , x3 ) lie, soit 1 x1 + 2 x2 + 3 x3 = 0 une
combinaison lineaire nulle, non triviale, alors un au moins des coefficients
est non nul, par exemple 3 6= 0 (sans perte de generalite). D`es lors, 3 est
inversible dans K et on a :
1
x3 = (1
3 1 )x1 + (3 2 )x2 hx1 , x2 i .

79

Reciproquement, si x3 est combinaison lineaire de x1 et x2 , on peut e crire


x3 = x1 + x2 et alors (, , 1) est une relation de dependance non
triviale entre x1 , x2 , x3
Exercices :
1. Montrer que si (x1 , x2 , x3 ) est un triplet libre de E, il en est de meme
du triplet (x1 + x2 , x2 + x3 , x3 + x1 ).
2. Etudier lindependance des triplets suivants de R2 ou de R3 et donner,
sil y a lieu, les relations de dependance non triviales :
((1, 3), (4, 1), (5, 1))
((1, 8, 1), (9, 3, 1), (2, 2, 3))
((2, 3, 1), (8, 8, 1), (4, 2, 3)).

6.1.3

Lien entre famille libre et famille generatrice

PROPOSITION 6.3 Soit (x1 , x2 , x3 ) un triplet de E, ce triplet est libre si et


seulement si aucun des vecteurs du triplet nest combinaison lineaire des deux
autres.
Demonstration : cest la contraposee de la proposition precedente.
PROPOSITION 6.4 Soient (x1 , x2 , x3 ) un triplet libre de E et x un vecteur de E,
alors le quadruplet (x1 , x2 , x3 , x) est lie si et seulement si x hx1 , x2 , x3 i.
Demonstration : soit (1 , 2 , 3 , ) une relation de dependance non triviale entre
les vecteurs x1 , x2 , x3 , x, alors 6= 0 car sinon le triplet (x1 , x2 , x3 ) serait
lie, donc est inversible et lon a :
x = (1 1 )x1 + (1 2 )x2 + (1 3 )x3 .
La reciproque est e vidente
PROPOSITION 6.5 Soit (x1 , x2 , x3 ) un triplet de vecteurs de E, les e nonces suivants sont e quivalents :
1. (x1 , x2 , x3 ) est libre
2. tout vecteur x appartenant a` hx1 , x2 , x3 i admet une unique decomposition
de la forme :
x = 1 x 1 + 2 x 2 + 3 x 3 .
Demonstration : (1.2.) soient x = 1 x1 + 2 x2 + 3 x3 = 1 x1 + 2 x2 + 3 x3
deux decompositions de x, par soustraction on obtient :
(1 1 )x1 + (2 2 )x2 + (3 3 )x3 = 0.
80

Mais (x1 , x2 , x3 ) est libre, on en deduit donc 1 = 1 , 2 = 2 , 3 = 3 .


Les deux decompositions sont donc necessairement identiques.
(2.1.) en effet, 1. ne fait quexprimer 2. pour x = 0
DEFINITION 6.3 Soient (x1 , x2 , x3 ) un triplet libre de vecteurs de E et F =
hx1 , x2 , x3 i, (x1 , x2 , x3 ) sappelle une base de F. Cest donc un triplet libre engendrant F.
Dapr`es ce quon a vu precedemment, si (x1 , x2 , x3 ) est une base de F, hx1 , x2 i
nengendre pas F. Sinon, x3 hx1 , x2 i et le triplet initial ne pourrait pas e tre libre.
Il en va de meme pour hx1 , x3 i et hx2 , x3 i. Une base apparat donc comme une
famille generatrice minimale.
Une base de F apparat aussi comme une famille libre maximale car une surfamille stricte dune famille generatrice est necessairement liee.

6.2

Introduction

On desire generaliser les notions precedentes. On pourrait penser se limiter a`


des familles finies, mais ceci sav`ererait tr`es rapidement insuffisant. Se pose alors
immediatement un probl`eme : on a defini la somme de deux vecteurs, et donc par
iteration la somme dun nombre fini de vecteurs. Mais en aucun cas on ne peut
parler ici de la somme dune infinite de vecteurs, les definitions doivent donc e tre
amenagees de facon a` ne rencontrer toujours que des sommes finies.
Par ailleurs, on aura soin de ne pas confondre famille et partie. La difference
est exactement la meme quentre arrangement avec repetition et combinaison sans
repetition. Toutefois, on remarque que si (xi )iI est une famille, on peut considerer
son ensemble image quon note {xi , i I}. Reciproquement, si A est une partie,
on peut lui associer la famille identite sur A, en considerant A lui-meme comme
ensemble dindices. On utilisera souvent, par la suite, ce procede permettant de
passer de la notion de partie a` celle de famille, et inversement.
DEFINITION 6.4 On dit quune famille (i )iI de scalaires est a` support fini si
lensemble des indices i pour lesquels i est non nul est fini. On dit aussi que les
i sont presque tous nuls.
Bien e videmment, si I est un ensemble fini, cette definition perd tout interet.
De plus, la famille (i )iI , o`u pour tout i i = 0, est a` support fini. On lappelle la
famille triviale (indexee par I).
PROPOSITION 6.6 Soit I un ensemble dindices quelconque, lensemble des
familles de scalaires indexees par I a` support fini est un sous-espace vectoriel du
K-espace vectoriel A(I, K). On le note K (I) .
81

Demonstration : on sait que A(I, K) est un K-espace vectoriel pour les lois
usuelles, il suffit donc de verifier la stabilite de K (I) par combinaison lineaire
de deux e lements. Or si (i )iI et (i )iI sont deux familles a` support fini,
pour tous , e lements de K (i +i )iI est clairement a` support fini, son
support e tant inclus dans la reunion des deux supports (i.e. lensemble des
indices pour lesquels le scalaire associe est non nul) de (i )iI et (i )iI
DEFINITION 6.5 Soit (xi )iI une famille de vecteurs dun K-espace vectoriel
E, on dit quun vecteur x de E est combinaison lineaire de la famille (xi )iI sil
existe une famille (i )iI de scalaires, a` support fini, telle que :
X
x=
i x i .
iI

La famille (i )iI e tant a` support fini, il ny P


a quun nombre fini de termes
i xi non nuls. On convient alors que le symbole iI designe la somme de ces
termes non nuls. Il sagit donc bien, en fait, dune somme finie.
DEFINITION 6.6 Soit (xi )iI une famille de vecteurs dun K-espace vectoriel
E, on appelle relation lineaire entre les vecteurs de cette famille toute famille de
scalaires (i )iI a` support fini verifiant :
X
i xi = 0.
iI

Une relation lineaire entre les xi est donc un e lement de K (I) . La famille triviale de scalaires est toujours une relation lineaire entre les xi . On lappelle la
relation triviale.
Exercice : Montrer que lensemble des relations lineaires entre les vecteurs de la
famille (xi )iI est un sous-espace vectoriel de K (I) .
On rappelle enfin que lon nomme sous-famille (resp. sur-famille) dune famille donnee toute restriction (resp. prolongement) de la famille en question. Enfin, dans le cas o`u I est fini, on appelle cardinal de la famille (xi )iI le cardinal de
I.

6.3

Generation

La technique decrite est standard. Elle fonctionne chaque fois que lon a une
stabilite par intersection et elle definit ce que lon appelle parfois une fermeture
de Moore.
THEOREM 6.2 Soit (Ei )iI une famille de sous-espaces vectoriels du K-espace
vectoriel E, lintersection de la famille (Ei )iI est un sous-espace vectoriel de E.
82

Demonstration : iI est non vide puisque 0 appartient a` tous les Ei . De plus :


x, y iI Ei , , K, x + y iI Ei .
En effet, i I, x, y Ei , or Ei est un sous-espace vectoriel de E, donc
i I, x + y Ei
THEOREM 6.3 Soit A une partie de E, lensemble des sous-espaces vectoriels
de E contenant A admet un plus petit e lement (pour linclusion). On lappelle le
sous-espace vectoriel engendre par A, il se note hAi ou encore Vect(A).
Demonstration : dapr`es le theor`eme precedent, hAi nest autre que lintersection
de tous les sous-espaces vectoriels de E contenant A, cette famille netant
pas vide puisquelle contient au moins E
Exemples :
1. Si F est un sous-espace vectoriel de E, on a hF i = F
2. h i = {0}, ce qui est un resultat important
3. Si E1 et E2 sont deux sous-espaces vectoriels de E, on a E1 + E2 =
hE1 E2 i.
Exercice :
1. Dans R considere comme R-espace vectoriel, quel est le sous-espace
vectoriel engendre par {1} ? Plus generalement, soit A une partie de
R, determiner hAi : on distinguera trois cas
2. Soient A une partie du K-espace vectoriel E et B une partie de E telle
que A B hAi, montrer que hBi = hAi
3. Soient A et B deux parties du K-espace vectoriel E, montrer que :
A B hAi hBi .
Reciproque ?
DEFINITION 6.7 Soit A une partie du K-espace vectoriel E, si hAi = E on dit
que A est une partie generatrice de E.
En particulier, E est une partie generatrice de E. Toutefois, le lecteur sera vite
convaincu que les parties generatrices interessantes sont celles qui sont les plus
petites possibles. On precisera bientot ce que lon entend par l`a, mais pour linstant, on va e tendre la notion de generation aux familles. Ceci nest pas actuellement indispensable, mais le deviendra ulterieurement.
DEFINITION 6.8
1. Soit (xi )iI une famille dun K-espace vectoriel E, on
appelle sous-espace vectoriel engendre par la famille (xi )iI le sous-espace
vectoriel engendre par limage {xi , i I} de cette famille
83

2. On dit que la famille (xi )iI est une famille generatrice de E si le sousespace vectoriel engendre par elle est E.
On remarque que le sous-espace vectoriel engendre par une partie A concide
avec le sous-espace vectoriel engendre par la famille canoniquement associee a` A,
ce qui fait le lien entre les deux notions.
Le lecteur a surement remarque que lors des preliminaires on a defini le sousespace vectoriel engendre par une famille en termes de combinaisons lineaires.
On doit donc faire le lien entre ces deux definitions.
THEOREM 6.4 Soit (xi )iI une famille dun K-espace vectoriel E, le sous-espace
vectoriel engendre par cette famille est lensemble des combinaisons lineaires de
la famille (xi )iI .
Demonstration : on doit donc montrer que lensemble des combinaisons lineaires
de la famille donnee est un sous-espace vectoriel de E et que ce sous-espace
vectoriel est le plus petit contenant tous les vecteurs xi . ToutP
dabord, pour
e viter un cas particulier, on convient que si I = , alors i xi = 0.
Lensemble des combinaisons lineaires de la famille (xi )iI contient donc
toujours le vecteur nul : si I 6= , on prend la famille triviale de scalaires.
Soient alors x, y deux combinaisons lineaires P
de la famille (xi )P
iI et ,
deux scalaires quelconques, on a donc x = PiI i xi , y =
iI i xi ,
(i )iI et (i )iI a` support fini, do`u x + y = iI (i + i )xi et la famille (i + i )iI est encore a` support fini. Lensemble des combinaisons
lineaires de la famille donnee est donc un sous-espace vectoriel de E qui
contient bien e videmment tous les xi : on prend i = 1 et si j 6= i, j = 0.
Enfin, si un sous-espace vectoriel de E contient tous les vecteurs de (xi )iI ,
par stabilite, il contient toutes les combinaisons lineaires de cette famille,
ce qui ach`eve la preuve
Le sous-espace vectoriel engendre par une partie A dun K-espace vectoriel E
est donc lensemble des combinaisons lineaires des e lements de A. Ainsi, h i =
{0} et si A 6= :
hAi = {x E, n N , 1 , ..., n K, x1 , ..., xn A, x =

n
X

i xi }.

i=1

Exercice : Soit (xi )iI une famille de vecteurs du K-espace vectoriel E, on consid`ere
lapplication :
K (I) E P
:
.
(i )iI 7 iI i xi
1. Montrer que est bien definie et que est lineaire
84

2. Montrer que est surjective si et seulement si (xi )iI est une famille
generatrice de E.
Le theor`eme precedent est dune tr`es grande importance. En effet, il affirme
que la connaissance dune famille (ou dune partie) generatrice de E permet de reconstituer lintegralite de lespace. Ceci explique la remarque : une partie generatrice
est dautant plus interessante quelle comporte le moins possible delements. On
cite donc la proposition, a priori sans interet, suivante.
PROPOSITION 6.7 Soit E un K-espace vectoriel, toute partie contenant une
partie generatrice de E est encore une partie generatrice de E. De meme, toute
sur-famille dune famille generatrice de E est encore une famille generatrice de
E.
Demonstration : e vident
Le theor`eme suivant est en revanche du plus haut interet, car il permet doter
des e lements dune famille generatrice.
THEOREM 6.5 Soient (xi )iI une famille generatrice du K-espace vectoriel E,
i0 I et J = I\{i0 }, la famille (xi )iJ est une famille generatrice de E si et
seulement si xi0 est combinaison lineaire de la famille (xi )iJ .
Demonstration : si (xi )iJ est generatrice, tout vecteur de E est combinaison
lineaire de cette famille et donc en particulier xi0 . Reciproquement, on suppose quil
P existe une famille de scalaires (i )iJ , a` support fini, telle que
xi0 =
iJ i xi . Soit alors x un vecteur quelconque, il existe
P donc une
`
famille dePscalaires (i )P
,
a
support
fini,
telle
que
x
=
iI
iI i xi =
i0 xi0 + iJ i xi =
iJ (i + i0 i )xi et la famille (i + i0 i )iJ
est encore a` support fini. (xi )iJ est donc bien une famille generatrice de
E
On cite enfin, pour memoire, une propriete dej`a vue des combinaisons lineaires,
generalement appelee transitivite.
PROPOSITION 6.8 Soient A, B, C trois parties dun K-espace vectoriel E, on
a:
A hBi et B hCi A hCi .
Demonstration : e vident

6.4

Liberte

Dapr`es les considerations precedentes, une famille generatrice ideale de E serait une famille telle que toutes ses sous-familles strictes ne soient plus generatrices.
85

Une telle famille generatrice est dite minimale. Mais on ne sait pas encore si de
tels e tres existent toujours, car le theor`eme ? ? ne permet deliminer des e lements
quun par un (`a mediter).
PROPOSITION 6.9 Soit (xi )iI une famille generatrice minimale, non vide, dun
K-espace vectoriel E, la seule relation lineaire entre les vecteurs de cette famille
est la relation triviale.
Demonstration : si (i )iI e tait une relation lineaire non triviale, il existerait un
indice i0 tel que i0 6= 0 et donc :
X
X i
i xi = 0 xi0 =
xi
i0
iI
i6=i
0

ce qui contredirait la minimalite de la famille (xi )iI dapr`es le theor`eme ? ?


On est ainsi amene a` donner un nom aux familles possedant cette propriete.
DEFINITION 6.9 Soit (xi )iI une famille de vecteurs dun K-espace vectoriel
E, on dit que cette famille est libre si la seule relation lineaire entre les xi est la
relation triviale, i.e. :
X
(i )iI K (I) ,
i xi = 0 (i I, i = 0).
iI

On dit aussi que la famille est formee de vecteurs lineairement independants.


Dans le cas contraire, la famille est dite liee ou formee de vecteurs lineairement
dependants.
DEFINITION 6.10 Une partie A de E est dite libre si la famille canoniquement
associee a` A est libre, dans le cas contraire elle est dite liee.
Exemples :
1. Dans R2 , {(1, 0), (0, 1)} est libre.
2. Si x E et si x 6= 0, alors {x} est libre.
3. Si une partie A de E contient le vecteur nul, alors A est liee.
On cite la proposition suivante, du meme ordre dinteret que la proposition ? ?.
La demonstration est laissee en exercice au lecteur.
PROPOSITION 6.10 Si A est une partie libre dun K-espace vectoriel E et si
B A, alors B est libre. De meme, toute sous-famille dune famille libre est
libre.
Les familles libres ont e te introduites comme des familles e conomiques, du
point de vue de la generation. Il se trouve quelles ont du meme coup une propriete
(presque) inattendue.
86

PROPOSITION 6.11 Soit (xi )iI une famille de vecteurs dun K-espace vectoriel E, les deux e nonces suivants sont e quivalents :
1. (xi )iI est une famille libre
2. x h(xi )iI i, !(i )iI K (I) , x =

iI

i xi .

Limportant ici est le point dexclamation (unicite) !


P
P
Demonstration : (1.2.) on suppose que x = iI i xi = iI i xi o`u (i )iI
et (i )iIPsont deux familles de scalaires a` support fini. Par soustraction, on
obtient iI (i i )xi = 0, donc (i i )iI est une relation lineaire
entre les xi . La famille e tant libre, cette relation est la relation triviale et la
decomposition de x est bien unique.
(2.1.) par hypoth`ese, le vecteur nul nadmet quune decomposition suivant
les vecteurs xi . La relation triviale fournit une decomposition e vidente. La
relation triviale est donc la seule relation lineaire entre les xi et la famille
donnee est bien libre
On a considere jusqu`a present le cas le plus general. On va maintenant retranscrire les resultats dans le cas particulier des familles finies et plus particuli`erement
en prenant I = [1, n], afin de retomber sur les preliminaires. On fera labus classique qui consiste a` identifier les familles indexees par [1, n] et les n-uplets. On
remarque tout de suite que la notion de support fini disparat.
Transcriptions :
1. Soit (x1 , ..., xn ) un n-uplet de vecteurs du K-espace vectoriel E, on
appelle relation lineaire entrePles vecteurs x1 , ..., xn tout n-uplet de
scalaires (1 , ..., n ) tel que ni=1 i xi = 0. Le n-uplet (0, ..., 0) est
une relation lineaire dite relation triviale.
2. Le n-uplet (x1 , ..., xn ) est dit libre si la seule relation lineaire entre les
xi est la relation triviale, i.e. :
1 , ..., n K, 1 x1 + ... + n xn = 0 1 = ... = n = 0.
Dans le cas contraire, le n-uplet est dit lie.
Ces transcriptions ne sont pas denuees dinteret, meme dans le cas general. En
fait, le cas o`u I est fini suffit, comme le prouve le theor`eme suivant, tr`es important
dans la pratique.
THEOREM 6.6 Soit (xi )iI une famille de vecteurs dun K-espace vectoriel E,
les deux propositions suivantes sont e quivalentes :
1. (xi )iI est une famille libre
87

2. toute sous-famille finie de (xi )iI est libre.


Demonstration : (1.2.) prouve a` la proposition ? ?
(2.1.) soit (i )iI une relation lineaire entre les xi . Cette famille est donc a`
support fini. Soit J le support de cette famille, on a alors :
0=

i xi =

iI

i xi

iJ

par definition meme de ce symbole. Mais J est fini, donc par hypoth`ese
(xi )iJ est libre. On en deduit que i J, i = 0 et par definition du
support on a i I, i = 0. La famille initiale est bien libre
Exercices :
1. Montrer que la famille (X n )nN est libre dans K[X].
2. Soit fa lapplication reelle definie sur R par fa (x) = |x a|, montrer
que la famille (fa )aR est libre dans A(R, R).
3. Soit ga lapplication reelle definie sur R par g(x) = eax , montrer
que la famille (ga )aR est libre dans A(R, R). On proc`edera comme
precedemment et on pensera aux e quivalents au voisinage de linfini.
4. Pour tout entier strictement positif p, soient fp et gp les applications
reelles definies sur R par fp (x) = sin(px) et gp (x) = cos(px), montrer
que pour tout entier strictement positif n la famille (f1 , g1 , ..., fn , gn )
est une famille libre de A(R, R). On e tablira dabord le resultat pour
n = 1, puis on effectuera un raisonnement par recurrence en derivant
deux fois une combinaison lineaire nulle.

6.5

Base

Les deux sections precedentes font apparatre une race particuli`erement interessante
de familles, celles qui sont a` la fois libres et generatrices. On ne sait pas encore
si de telles familles existent toujours (on sait trouver des petites familles libres,
des grosses familles generatrices, mais entre les deux...). Cela ninterdit pas de
poser la definition.
DEFINITION 6.11 Soit E un K-espace vectoriel, on appelle base de E toute
famille de vecteurs de E qui est a` la fois libre et generatrice.
DEFINITION 6.12 On appelle partie basique de E toute partie de E qui est a` la
fois libre et generatrice.
88

La famille canoniquement associee a` une partie basique est une base et limage
dune base (au sens de limage dune famille) est une partie basique.
On insiste bien sur le fait quune base est une famille et non une partie. Le
lecteur sen convaincra lors du calcul matriciel.
La nature est bien faite. Tout espace vectoriel poss`ede au moins une base. La
demonstration de ce fort beau resultat repose sur laxiome du choix. On en donnera une demonstration elementaire dans un cas particulier au chapitre suivant.
THEOREM 6.7 (fondamental)
Soit (xi )iI une famille de vecteurs dun K-espace vectoriel E, les propositions
suivantes sont e quivalentes :
1. (xi )iI est une base de E
2. (xi )iI est une famille libre maximale (i.e. toute sur-famille stricte est liee)
3. (xi )iI est une famille generatrice minimale (i.e. toute sous-famille stricte
nest plus generatrice).
Demonstration : (1.2.) on sait dej`a que (xi )iI est libre, il reste a` montrer
quelle est maximale. Soient I J et (xi )iJ une sur-famille stricte de la famille initiale, pour j J\I xj est combinaison lineaire de la famille (xi )iI ,
puisque cette famille est generatrice. Il existe donc une relation lineaire non
triviale entre les xi , i J. La sur-famille nest donc pas libre.
(2.3.) on montre dabord que (xi )iI est generatrice. Soient x E et j un
indice nappartenant pas a` I, on consid`ere la famille indexee par I {j} et
definie par i I, i 7 xi et j 7 x. Cest une sur-famille de la famille
initiale, elle est donc liee. Il existe donc des scalaires presque tous nuls,
mais non tous nuls, tels que :
X
x +
i xi = 0.
iI

ne peut e tre nul car sinon la famille initiale serait liee par la relation
lineaire (i )iI . x est donc combinaison lineaire de la famille initiale. Le
reste est dej`a vu, car si la famille netait pas generatrice minimale, un des
vecteurs au moins serait combinaison lineaire des autres ( ? ?) et la famille
ne serait pas libre.
(3.1.) dej`a fait ( ? ?)
Linteret des bases est illustre par la proposition suivante qui a dej`a e te demontree
( ? ?).
PROPOSITION 6.12 Soit (xi )iI une base du K-espace vectoriel E, pour tout
vecteur x de E il existe une famille unique de scalaires presque tous nuls (i )iI
89

telle que :
x=

i x i .

iI

DEFINITION 6.13 La famille (i )iI sappelle famille des coordonnees du vecteur x relativement a` la base donnee et la famille (i xi )iI sappelle famille des
composantes du vecteur x relativement a` la base donnee.
Exemples :
1. Soient e1 = (1, 0) et e2 = (0, 1), (e1 , e2 ) est une base de R2 appelee
base canonique de R2 .
2. Plus generalement, dans Rn , on pose i [1, n], ei = (0, ..., 0, 1, 0, ..., 0),
le 1 au i-`eme rang. La famille (e1 , ..., en ) est une base de Rn appelee
base canonique de Rn .
3. (X n )nN est une base de K[X] encore appelee base canonique de
K[X].
4. Dans C considere comme R-espace vectoriel, (1, i) est une base. Estce une base du C-espace vectoriel ? Moralite ?
Exercice (important) : Soient E un K-espace vectoriel et E1 et E2 deux sousespaces vectoriels supplementaires, montrer que si A est une partie basique
de E1 et B une partie basique de E2 , alors A B est une partie basique de
E.
Le lecteur qui setonnerait que lon parle ici de parties basiques peut imaginer
ce que serait une reunion de familles (on dit dailleurs concatenation) et se
rendre compte que cest peu e vident a` e crire, surtout si on commet limprudence de mettre des indices en commun.
Enfin, pour clore ce chapitre, il est naturel de se demander ce que deviennent
les notions precedentes lorsquon les transforme par une application lineaire.

6.6

Familles et applications lineaires

PROPOSITION 6.13 Soient E, F deux K-espaces vectoriels et f L(E, F ) :


1. si (xi )iI est une famille liee de vecteurs de E, la famille (f (xi ))iI est une
famille liee de vecteurs de F
2. si (xi )iI est une famille generatrice de E, la famille (f (xi ))iI est une
famille generatrice de Im(f).
Demonstration : trivial
90

Le lecteur remarquera bien que limage dune partie generatrice de E nest pas,
en general, generatrice de F, mais seulement de Im(f) : bien sur, si f est surjective...
PROPOSITION 6.14 Soient E, F deux K-espaces vectoriels et f L(E, F ), les
propositions suivantes sont e quivalentes :
1. f est injective
2. limage par f de toute famille libre de E est une famille libre de F.
Demonstration : (1.2.) soient (xi )iI une famille libre de E et (i )iI
Pune relation lineaire entre
Ples vecteurs de la famille (f (xi ))iI , on a donc iI i f (xi ) =
0, ou encore f ( iI i xi ) = 0, car f est lineaire etP
la famille de scalaires
a` support fini. Or f est injective, on en deduit que iI i xi = 0. La famille (xi )iI e tant libre, la famille de scalaires est donc la famille triviale.
(f (xi ))iI est bien une famille libre.
(2.1.) soit x Ker(f ), limage de la famille (x) est la famille (0) qui est
une famille liee, la famille (x) est donc liee, i.e. x = 0 (raisonnement par
contraposee)
THEOREM 6.8 Soient E, F deux K-espaces vectoriels et f L(E, F ), les propositions suivantes sont e quivalentes :
1. f est un isomorphisme de E sur F
2. limage par f de toute base de E est une base de F
3. il existe une base de E dont limage par f est une base de F.
Avant de demontrer ce theor`eme, on remarque la grande difference entre 2. et
3. : en fait, le theor`eme affirme quil suffit que f envoie une base de E sur une base
de F pour que ce resultat soit valable pour toute base de F.
Demonstration : (1.2.) cela decoule directement de ? ? et ? ?, car un isomorphisme est a` la fois injectif et surjectif.
(2.3.) on a admis lexistence dau moins une base, on laisse le lecteur conclure.
(3.1.) soit (xi )iI une base de E dont limage par f est une base de F, on montre
que f est injective puis surjective.
P Soit x Ker(f ), on decompose x sur la
base (xi )iI de E. OnP
a x = iI i xi pour une famille de scalaires presque
tous nuls, et f (x) = iI i f (xi ) = 0. La famille (f (xi ))iI e tant libre, la
famille (i )iI est la famille triviale, i.e. x = 0 et f est bien
Pinjective. Soit
y F , y se decompose sur la base (fP
(xi ))iI de F : y = iI i f (xi ). Il
est alors clair que y = f (x) avec x = iI i xi , donc f est bien surjective
On finit par un theor`eme tr`es important dans la pratique et qui assure de la
connaissance compl`ete dune application lineaire d`es que lon connait les images
des vecteurs dune base de lespace de depart.
91

THEOREM 6.9 Soient E, F deux K-espaces vectoriels, (xi )iI une base de E et
(yi )iI une famille quelconque de vecteurs de F indexee par le meme ensemble
dindices, il existe une unique application lineaire f de E dans F verifiant :
i I, f (xi ) = yi .
Demonstration : soit x un vecteur quelconque de E, il existe
P une unique famille
de scalaires (i )iI , presque tous nuls, telle que x = iI i xi . Si lon veut
que
P f soit lineaire, on na pas le choix et on est obliges de poser f (x) =
erifier que f ainsi definie est bien lineaire
iI i yi . On laisse le lecteur v
En dautres termes, les coordonnees dune combinaison lineaire sont les combinaisons lineaires des coordonnees respectives.

92

Chapitre 7
Dimension finie
On va maintenant redescendre de quelques marches et se limiter a` la categorie
des espaces vectoriels admettant une famille generatrice finie. On adaptera donc
les resultats donnes dans les deux chapitres precedents. Les probl`emes sont un peu
plus simples et, en particulier, on pourra sabstenir dutiliser laxiome du choix. En
contrepartie, les demonstrations deviennent accessibles et seront par consequent
effectuees.

7.1

Espace vectoriel de dimension finie

DEFINITION 7.1 On appelle espace vectoriel de dimension finie tout espace


vectoriel possedant une partie generatrice finie. Dans le cas contraire, on dit que
lespace vectoriel est de dimension infinie.
On note que, pour linstant, le mot dimension na en lui-meme aucune signification. Seule la locution dimension finie en a une. Pour cette raison (et pour
dautres), certains auteurs appellent parfois de tels espaces des espaces vectoriels
de type fini. Ceci nest pas indispensable, car le mot dimension va prendre tr`es
rapidement le sens que tout le monde lui connat.
Il ne faut pas croire que tous les espaces vectoriels sur un corps K soient de
dimension finie. Lexemple le plus simple est le suivant : K[X] est un K-espace
vectoriel de dimension infinie. En effet, soit A une partie finie de K[X]. Si A
est reduite a` {0} ou vide, A nengendre que le polynome nul et nest donc pas
generatrice. Sinon, lensemble des degres des polynomes appartenant a` A admet
un plus grand e lement, appele n. Dapr`es les proprietes du degre dans K[X], le
degre de toute combinaison lineaire des e lements de A est inferieur ou e gal a` n.
Par consequent, X n+1 nest pas combinaison lineaire des e lements de A et A nest
pas une partie generatrice de K[X]. K[X] nadmet donc aucune partie generatrice
finie, il est par consequent de dimension infinie.
93

Exercices :
1. Montrer que pour un K-espace vectoriel E les proprietes suivantes sont
e quivalentes :
(a) E est de dimension finie
(b) E admet une famille generatrice finie (i.e. indexee par un ensemble fini).
2. En reprenant les exemples despaces vectoriels classiques, indiquer
ceux qui sont de dimension finie.
3. Soit E un K-espace vectoriel, comparer les deux e nonces :
(a) E admet une partie generatrice finie
(b) toutes les parties generatrices de E sont finies.

7.1.1 Existence des bases


On demontre dans ce paragraphe lexistence des bases en dimension finie. On
profite de loccasion pour rappeler que lon a cite un resultat infiniment plus fort
(malheureusement sans demonstration) : tout K-espace vectoriel admet au moins
une base.
THEOREM 7.1 Soient E un K-espace vectoriel de dimension finie, G une partie
generatrice finie de E et L une partie libre contenue dans G, il existe alors une
partie basique B de E telle que L B G.
Avant de demontrer cet important resultat, on remarque que, comme la partie vide est une partie libre de nimporte quel espace vectoriel, il est loisible de
considerer une partie libre L contenue dans G.
Demonstration : on a dans le chapitre precedent caracterise les bases comme familles libres maximales. On peut de meme caracteriser les parties basiques
comme parties libres maximales. Soit L lensemble des parties libres X de
E verifiant L X G, L est non vide (car L L) et L est finie (car
G est finie). De plus, tout e lement de L a un nombre fini delements. On
choisit alors dans L une partie B ayant un nombre maximum delements,
on va montrer que cette partie B convient.
Par construction meme de B, il est clair que B est une partie libre de E verifiant
L B G. Il reste a` montrer que B est une partie generatrice de E. Soit
donc g G, si g B alors on a e videmment g hBi. Si g
/ B, la partie
B {g} est comprise entre L et G et comporte strictement plus delements
que B. La partie B {g} ne peut e tre libre par definition de B, elle est donc
liee, i.e. g hBi. Ainsi, on a prouve que G hBi. Mais alors on sait,
dapr`es ? ?, que E = hGi hBi, i.e. hBi = E
94

En particularisant G ou L dans le theor`eme precedent, on obtient le theor`eme


dexistence annonce ainsi quun important corollaire.
THEOREM 7.2 Tout espace vectoriel E de dimension finie sur un corps K admet
au moins une base. Plus precisement, toute famille generatrice finie admet au
moins une sous-famille qui est une base.
Demonstration : il suffit de demontrer la seconde assertion. Soit (xi )iI une famille generatrice finie de E, on sait que G = {xi , i I} est une partie
generatrice finie de E. On prend L = (qui est une partie libre) et on applique le theor`eme precedent a` G et L. On obtient donc une partie basique
B telle que B G. On laisse au lecteur le soin de construire une partie J
de lensemble dindices I et une application de J dans B de telle sorte que la
famille ainsi definie soit, dune part une sous-famille de (xi )iI et, dautre
part une base de E. Ce nest pas difficile a` imaginer, mais cela demande tout
de meme un peu de soin
THEOREM 7.3 (de la base incompl`ete)
Dans un espace vectoriel E de dimension finie sur un corps K, toute famille
libre peut e tre completee en une base (i.e. admet une sur-famille qui est une base).
Demonstration : on admettra momentanement que dans un espace vectoriel de
dimension finie toutes les parties libres sont finies (ce fait exceptionnel sera
demontre a` la section suivante). Soit donc (xi )iI une famille libre (I est fini
dapr`es ce quon vient de dire), la partie L = {xi , i I} est une partie libre
de E. Soit alors G une partie generatrice finie de E, G L est encore une
partie generatrice finie de E. On est donc dans la situation du theor`eme ? ?
avec L G L. Il existe une partie basique B telle que L B G L.
Il reste au lecteur a` fabriquer une application dun ensemble J contenant I
dans B de mani`ere a` avoir une sur-famille de (xi )iI qui soit une base
Exercices :
1. Soient dans R3 les vecteurs x = (2, 3, 1), y = (1, 1, 2), u =
(3, 7, 0), v = (5, 0, 7), montrer que {x, y} est une partie libre et la
completer pour obtenir une partie basique de R3 . Montrer que le sousespace vectoriel engendre par x et y est le meme que le sous-espace
vectoriel engendre par u et v. Conclusion ?
2. On consid`ere F = {(a, b, c, d) R4 / a = b 3c et c = 2d}, trouver
une base de F et la completer pour obtenir une base de R4 .

7.1.2 Dimension
On vient de demontrer lexistence des bases pour un espace vectoriel E de
dimension finie. Il se trouve, et cest encore un miracle, que toutes les parties
95

basiques ont le meme nombre delements. On peut dire aussi que toutes les bases
ont le meme nombre delements, silon convient dappeler cardinal dune base
le cardinal de lensemble dindices. Ce cardinal commun est donc un invariant
de lespace vectoriel E et prendra le nom de dimension de E, ce qui permettra
de separer les termes de la locution dimension finie. La demonstration de cette
propriete est difficile et repose sur un lemme du a` Steinitz.
(dechange de Steinitz)
PROPOSITION 7.1 Soient E un K-espace vectoriel, X une partie de E et x et y
deux e lements de E tels que :
1. y hX {x}i
2. il existe une e criture de y comme combinaison lineaire des e lements de X
{x} dans laquelle le coefficient de x est non nul,
alors x hX {y}i.
On traduira la condition 2. par la locution y peut utiliser x.
P
Demonstration : en effet, comme y peut utiliser x, on peut e crire y = iI i xi +
x o`u les xi sont dans X,Ples i presque tous nuls et un scalaire non nul. Il
vient alors x = 1 y iI 1 i xi ce qui prouve que x hX {y}i
THEOREM 7.4 Soient E un K-espace vectoriel, G une partie generatrice finie
de E et L une partie libre de E, alors L est finie et on a Card(L) Card(G).
Demonstration : on supposera Card(L) > Card(G), le lemme de lechange
permettra de former de nouvelles parties generatrices de E en expulsant des
vecteurs de G pour les remplacer par des vecteurs de L afin daboutir a`
une contradiction. On peut e liminer doffice le cas G = . On sexplique
maintenant et on pose G = {g1 , ..., gm }.
Soit a1 L un e lement quelconque de L, on sait que a1 est non nul car il appartient a` une partie libre. Comme G est generatrice, on peut e crire a1 =
P
m
i=1 i gi pour un certain m-uplet de scalaires. Comme a1 6= 0, un au moins
des i nest pas nul. On suppose quil sagit de 1 . Ainsi a1 peut utiliser g1 ,
on peut appliquer alors le lemme dechange a` la situation X = G\{g1 },
x = g1 , donc g h(G\{g1 }) {a1 }i. On fait remarquer au lecteur que
cette notation un peu lourde represente simplement lensemble obtenu a`
partir de G en remplacant g1 par a1 . On pose :
G1 = (G\{g1 }) {a1 } = {a1 , g2 , ..., gm }.
G1 engendre alors encore E : il suffit de remarquer que g1 hG1 i.
96

Soit a2 un e lement de L different de a1 (a2 existe par hypoth`ese car Card(L) >
Card(G)), comme G1 engendre E on peut e crire a2 = 1 a1 + 2 g2 +
... + m gm . Les scalaires 2 , ..., m ne peuvent e tre tous nuls, car sinon
on aurait a2 = 1 a1 ce qui nest pas le cas car a1 et a2 sont independants.
Ainsi a2 peut utiliser un gi o`u i [2, m]. On supposera quil sagit de
g2 . En appliquant une deuxi`eme fois le lemme dechange a` la situation
X = G1 \{g2 } et x = g2 , on obtient g2 h(G1 \{g2 }) {a2 }i. On pose
G2 = (G1 \{g2 }) {a2 } = {a1 , a2 , g3 , ..., gm }. Le lecteur verifiera que G2
engendre encore E : il sagit donc de verifier que g1 hG2 i et g2 hG2 i.
Il est alors clair quau bout de la i-`eme e tape, on aura forme une partie generatrice
Gm = {a1 , ..., am } ne contenant que des e lements de L. Comme par hypoth`ese Card(L) > Card(G) = m, on peut choisir dans L un e lement
am+1 qui nest P
plus dans Gm . Mais comme Gm est generatrice, on peut
e crire am+1 = m
ee et donc L
i=1 i ai , la partie {a1 , ..., am , am+1 } serait li
aussi, do`u la contradiction, ce qui ach`eve la demonstration
THEOREM 7.5 Soit E un K-espace vectoriel de dimension finie, toutes les parties basiques de E ont le meme nombre delements. On peut donc dire aussi, avec
les conventions habituelles, toutes les bases de E ont le meme nombre delements.
Demonstration : il sagit dune consequence simple du theor`eme precedent. En
efet, soient B et B deux parties basiques de E, on a Card(B) Card(B 0 )
car B est libre et B est generatrice, et Card(B 0 ) Card(B) car B est
libre et B generatrice, do`u Card(B) = Card(B 0 )
PROPOSITION 7.2 Soient E un K-espace vectoriel et p un entier donne, alors
si p + 1 vecteurs sont combinaisons lineaires de p vecteurs donnes de E, ces p + 1
vecteurs sont lies.
Demonstration : en effet, si y1 , ..., yp+1 sont combinaisons lineaires de x1 , ..., xp ,
toute partie libre de hx1 , ..., xp i a au plus p e lements dapr`es le theor`eme ? ?,
donc {y1 , ..., yp+1 } est necessairement liee
DEFINITION 7.2 Soit E un K-espace vectoriel de dimension finie, on appelle
dimension de E le nombre de vecteurs de lune quelconque de ses bases (ou de ses
parties basiques). Ce nombre est note dimK (E), ou dim(E) si aucune confusion
sur le corps de base nest a` craindre. Si E nest pas de dimension finie, on dit que
sa dimension est infinie.
Exemples :
1. dimK ({0}) = 0 et reciproquement dimK (E) = 0 E = {0}
2. En examinant les bases canoniques des espaces K n on constate que
dimK (K n ) = n. Cet exemple est excessivement important.
97

3. dimC (C) = 1 et dimR (C) = 2, de meme dimC (C n ) = n et dimR (C n ) =


2n. Cela montre que le corps de base est dune importance fondamentale dans le calcul de la dimension dun espace vectoriel.
4. dimK (Kn [X]) = n + 1.

7.1.3

Caracterisation des bases en dimension finie

PROPOSITION 7.3 Soit E un K-espace vectoriel de dimension n sur K, alors


toute partie libre de E a au plus n e lements. Autrement dit, toute partie de E ayant
au moins n + 1 e lements est liee.
Demonstration : il sagit simplement dune formulation differente de la proposition ? ?
On peut aussi formuler cette proposition en termes de familles.
THEOREM 7.6 Soient E un K-espace vectoriel de dimension n sur K et B une
partie de E, les assertions suivantes sont e quivalentes :
1. B est une partie basique de E
2. B est une partie libre de E et Card(B) = n
3. B est une partie generatrice de E et Card(B) = n.
Demonstration : (1.2.) e vident, par definition de la dimension.
(2.3.) si B netait pas generatrice, on pourrait la completer en une partie basique (theor`eme ? ?) qui aurait au moins n + 1 e lements, ce qui contredirait
la proposition precedente.
(3.1.) si B netait pas libre, on pourrait en extraire une partie basique (theor`eme ? ?)
ayant strictement moins de n e lements, ce qui contredirait la definition de la
dimension
Ce theor`eme est tr`es important dans la pratique, car il permet de montrer
quune partie B est basique si elle poss`ede lune des deux proprietes exigees (libre
ou generatrice) et si elle a le nombre ad hoc delements. Il est le plus souvent employe dans le sens B est libre et Card(B) = n donc B est une partie basique.
Il est en effet generalement plus facile de montrer quune partie est libre que de
montrer que cette meme partie est generatrice.
On termine cette section en montrant que la dimension caracterise a` isomorphisme pr`es les K-espaces vectoriels de dimension finie.
THEOREM 7.7
1. Tout K-espace vectoriel de dimension n est isomorphe a`
lespace vectoriel K n .
2. Soient E et F deux K-espaces vectoriels de dimension finie, alors E et F sont
isomorphes si et seulement si dimK (E) = dimK (F ).
98

Demonstration :
1. soient E un K-espace vectoriel de dimension n et B = (x1 , ..., xn ) une
base de E, alors lapplication
:

Kn E
(1 , ..., n ) 7 1 x1 + ... + n xn

est un isomorphisme de K-espaces vectoriels (le lecteur est invite a` le


montrer).
2. on suppose que E et F sont isomorphes. Soit alors un isomorphisme
de E sur F, si B est une partie basique de E on sait que (B) est une partie basique de F et donc, comme Card(B) = Card((B)) vu que
est injective, on en deduit que dimK (E) = dimK (F ) (cf theor`eme ? ?).
Reciproquement, si dimK (E) = dimK (F ) = n, dapr`es 1. E et F sont
tous deux isomorphes a` K n , donc isomorphes entre eux, par transitivite de lisomorphie
Exercices :
1. On consid`ere dans R3 les vecteurs x1 = (1, 1, 1), x2 = (1, 1, 1),
x3 = (1, 1, 1), montrer que (x1 , x2 , x3 ) est une base de R3 .
2. On consid`ere dans R4 les vecteurs x1 = (1, 2, 1, 2), x2 = (2, 3, 0, 1),
x3 = (1, 2, 1, 4), x3 = (1, 3, 1, 0), montrer que (x1 , x2 , x3 , x4 ) est
une base de R4 .
3. Soit a K, montrer que la famille (1, X a, ..., (X a)n ) est une
base de Kn [X].

7.2

Dimension dun sous-espace vectoriel

THEOREM 7.8 Soient E un K-espace vectoriel de dimension finie et F un sousespace vectoriel de E, on suppose que E est de dimension finie, alors :
1. F est un K-espace vectoriel de dimension finie
2. dimK (F ) dimK (E)
3. si dimK (F ) = dimK (E), alors F = E.
Demonstration : soit L une partie libre de F, cest donc a fortiori une partie libre
de E. Dapr`es, par exemple, le theor`eme de la base incompl`ete, le cardinal
de L est inferieur ou e gal a` dimK (E). Il suffit donc de prendre dans F une
partie libre ayant le nombre maximum delements pour avoir une partie
basique de F. Ainsi F admet une base finie ayant un cardinal inferieur ou
99

e gal a` dimK (E). Si dimK (F ) = dimK (E), alors une base quelconque de
F est une partie libre de E ayant le bon nombre delements (theor`eme ? ?),
cest donc aussi une base de E, i.e. F = E
La partie 3. du theor`eme precedent est fondamentale dans les exercices. Elle
permet en effet de demontrer que deux K-espaces vectoriels de dimension finie
sont e gaux si et seulement si lun des deux est inclus dans lautre et sils ont la
meme dimension (alors quautrement il faudrait montrer deux inclusions).
Exemples :
1. Soit D une droite vectorielle, les seuls sous-espaces vectoriels de D
sont {0} et D.
2. Soit P un plan vectoriel, les seuls sous-espaces vectoriels de P sont
{0}, les droites vectorielles contenues dans P et P lui-meme.

7.2.1

Somme et dimension

Le but de ce paragraphe est detablir une formule attribuee a` Grassmann donnant la dimension de la somme de deux sous-espaces vectoriels dun K-espace
vectoriel E de dimension finie, et den deduire ses principales consequences.
PROPOSITION 7.4 Soient E1 et E2 deux K-espaces vectoriels de dimension
finie, alors E1 E2 est de dimension finie et on a dimK (E1 E2 ) = dimK (E1 ) +
dimK (E2 ).
Demonstration : en effet, on pose m = dimK (E1 ), n = dimK (E2 ) et on choisit
(a1 , ..., am ) une base de E1 , (b1 , ..., bn ) une base de E2 . On laisse au lecteur
consciencieux le soin de verifier que le (m+n)-uplet ((a1 , 0), ..., (am , 0), (0, b1 ), ..., (0, bn ))
est une base de E1 E2 . On peut aussi verifier que K m K n est isomorphe
a` K m+n
THEOREM 7.9 (dimension dune somme directe)
Soient E un K-espace vectoriel de dimension finie, E1 et E2 deux sous-espaces
vectoriels de E dont la somme est directe, on a alors la relation :
dimK (E1 E2 ) = dimK (E1 ) + dimK (E2 ).
De plus, si B1 est une partie basique de E1 et B2 une partie basique de E2 , B1 B2
est une partie basique de E1 E2 .
Demonstration : il suffit bien entendu de montrer la seconde asertion. On peut remarquer que E1 E2 et E1 E2 sont isomorphes et appliquer la proposition
precedente
Exercices :
100

1. Rediger les demonstrations de la proposition ? ? et du theor`eme ? ?.


Montrer aussi que dans ce dernier lhypoth`ese E est de dimension
finie peut e tre remplacee par E1 et E2 sont deux sous-espaces vectoriels de dimension finie.
2. Generaliser la proposition ? ? et le theor`eme ? ? au cas dun nombre
fini quelconque despaces vectoriels. On obtiendra ainsi les formules :
dimK (E1 ... En ) = dimK (E1 ) + ... + dimK (En )
dimK (E1 ... En ) = dimK (E1 ) + ... + dimK (En ).
THEOREM 7.10 (existence dun supplementaire)
Soient E un K-espace vectoriel de dimension finie et F un sous-espace vectoriel de E, alors F admet au moins un supplementaire dans E. De plus, tous les
supplementaires de F dans E ont la meme dimension (appelee parfois codimension de F dans ).
Demonstration : soit B une partie basique de F (qui est de dimension finie),
dapr`es le theor`eme de la base incompl`ete, on peut trouver une partie C
de E disjointe de B telle que B C soit une partie basique de E. Il est
alors quasi e vident que le sous-espace vectoriel G engendre par C est un
supplementaire de F. En effet, on pose B = {b1 , ..., bm } et C = {c1 , ..., cp }.
Soit x quelconque de E, il se decompose de facon unique sur la partie basique B C, i.e. x = 1 b1 + ... + m bm + 1 c1 + ... + p cp . Or u =
1 b1 + ... + m bm hBi = F et v = 1 c1 + ... + p cp hCi = G, donc
x = u + v avec u F et v G, ce qui demontre que E = F + G. Par
ailleurs, lunicite de la decomposition de x sur B C entrane lunicite de
lecriture x = u + v, avec u F , v G, la somme est donc directe. Enfin,
soit G un supplementaire quelconque de F dans E, on a E = F G, et
dapr`es le theor`eme ? ?, dimK (G) = dimK (E) dimK (F ), la dimension
de G est donc independante du supplementaire choisi
On remarque que lon a donne, sans demonstration, un resultat plus general :
tout sous-espace vectoriel admet au moins un supplementaire (sans condition de
dimension). La demonstration du theor`eme e claire un peu le phenom`ene. Le lecteur pourra prouver que dans un espace vectoriel de dimension 3, un plan vectoriel
P admet pour supplementaire toute droite vectorielle non contenue dans P.
THEOREM 7.11 (formule de Grassmann)
Soient E un K-espace vectoriel de dimension finie, E1 et E2 deux sous-espaces
vectoriels de E, on a la relation :
dimK (E1 + E2 ) = dimK (E1 ) + dimK (E2 ) dimK (E1 E2 ).
101

Demonstration : il existe de nombreuses preuves de ce resultat. On esquisse ici


une demonstration directe (ce nest pas la plus jolie) et on renvoie le lecteur a` la section suivante pour une preuve e legante). Lastuce consiste a` se
ramener a` une somme directe. Linclusion E1 E2 E1 permet de choisir
un supplementaire F de E1 E2 dans E1 . Ainsi E1 = (E1 E2 ) F . On
en deduit que E1 + E2 = F E2 . En effet, F E2 = (F E1 ) E2 =
F (E1 E2 ) = {0} et il est clair que E1 +E2 = F +E2 (F +E2 E1 +E2
est e vidente, lautre inclusion se verifie facilement). Ainsi, en appliquant le
theor`eme ? ?, on trouve :
dimK (E1 ) = dimK (E1 E2 ) + dimK (F ) et
dimK (E1 + E2 ) = dimK (F ) + dimK (E2 ),
do`u le resultat en e liminant dimK (F )
THEOREM 7.12 Soient E1 et E2 deux sous-espaces vectoriels dun K-espace
vectoriel E de dimension finie E, on consid`ere les trois proprietes suivantes :
1. E1 + E2 = E
2. E1 E2 = {0}
3. dimK (E1 ) + dimK (E2 ) = dimK (E).
Alors deux quelconques de ces proprietes entranent la troisi`eme, et E = E1
E2 . Reciproquement, si E = E1 E2 les trois proprietes sont verifiees.
Demonstration : si 1. et 2. sont realisees, alors on sait que E = E1 E2 et la
propriete 3. nest autre que le theor`eme ? ?
Si 1. et 3. sont realisees, la formule de Grassmann entrane que dimK (E1 E2 ) =
0, donc E1 E2 = {0}.
Si 2. et 3. sont realisees, la formule de Grassmann devient dimK (E1 + E2 ) =
dimK (E). Or E1 + E2 E, le theor`eme ? ? montre alors que E = E1 + E2 .
Enfin, la reciproque est triviale
Exercices :
1. Montrer que, dans la formule de Grassmann, lhypoth`ese E est de
dimension finie peut e tre remplacee par lhypoth`ese plus faible E1
et E2 sont deux sous-espaces vectoriels de dimension finie.
2. Dans R4 on consid`ere le sous-espace vectoriel E1 engendre par {x, y, z}
avec x = (1, 2, 3, 4), y = (2, 2, 2, 6), z = (0, 2, 4, 4), et le sousespace vectoriel E2 engendre par {u, v} avec u = (1, 0, 1, 2) et
v = (2, 3, 0, 1). Verifier sur cet exemple la formule de Grassmann.
102

7.3

Notion de rang

Soit E un K-espace vectoriel, on appellera syst`eme de vecteurs de E toute


famille finie de vecteurs de E. Au risque dinsister lourdement, on precise bien
quun syst`eme est une famille et quon admet volontiers les repetitions, la notion de syst`eme correspond donc a` la notion combinatoire darrangement avec
repetitions.
DEFINITION 7.3 Soit S un syst`eme de vecteurs dun K-espace vectoriel E, on
appelle rang de S, et on note rg(S) la dimension sur K du sous-espace vectoriel
engendre par S. Autrement dit :
rg(S) = dimK (hSi).
Cette definition a bien un sens puisque par construction meme, hSi admet une
famille finie de generateurs, il est donc de dimension finie.
PROPOSITION 7.5 Soit S un syst`eme de vecteurs, le rang de S est e gal au cardinal dune sous-famille libre maximale de S, i.e. le nombre maximum de vecteurs
lineairement independants que lon peut extraire de S.
Demonstration : en effet, le rang de S nest autre que le cardinal de lune des
bases de lespace vectoriel hSi

7.3.1

Rang dune application lineaire

Loutil central de cette section est le theor`eme du rang. On commence par deux
exemples, sous forme dexercices, o`u lon decouvre cet important theor`eme.
Exercices :
1. Soit f : R3 R3 definie par f (x, y, z) = (x0 , y 0 , z 0 ) o`u x0 = y 0 =
z 0 = 2x + y + z,
(a) montrer que f est lineaire
(b) donner une base de Ker(f) et en deduire dim(Ker(f ))
(c) donner une base de Im(f) et en deduire dim(
Im(f ))
(d) verifier la relation dim(R3 ) = dim(Ker(f )) + dim(
Im(f )).
x0 = x + y + z + 2t
2. Soit f : R R definie par f (x, y, z, t) = (x , y , z ) o`u y 0 = y z + t
,
0
z = x y + 3z
4

103

(a) montrer que f est lineaire


(b) on note (e1 , e2 , e3 , e4 ) la base canonique de R4 , calculer le rang
de la famille (f (ei ))i[1,4] et donner une base de Im(f)
(c) montrer que les vecteurs (1, 1, 0, 1) et (3, 0, 1, 1) forment une
partie basique de Ker(f)
(d) verifier la relation dim(R4 ) = dim(Ker(f )) + dim(
Im(f )).
DEFINITION 7.4 Soient E un K-espace vectoriel de dimension finie, F un Kespace vectoriel quelconque et f une application lineaire de E dans F, on appelle
rang de f, et on note rg(f) la dimension sur K de Im(f), i.e.
rg(f ) = dimK (Im(f )).
Cette definition a bien un sens, car E est par hypoth`ese un espace vectoriel de
dimension finie. E admet une partie generatrice finie G. On sait alors que f(G) est
une partie (finie, car G est finie) generatrice de Im(f) (cf theor`eme ? ?), donc Im(f)
est de dimension finie, et ceci sans aucune condition sur lespace vectoriel F.
En particulier, on prend (e1 , ..., en ) une base de E, alors dapr`es ce que lon
vient de dire, le rang de f nest autre que le rang du syst`eme (f (e1 ), ..., f (en )) qui
ne depend donc pas de la base choisie dans E.
THEOREM 7.13 (du rang)
Soient E un K-espace vectoriel de dimension finie, F un K-espace vectoriel
quelconque et f une application lineaire de E dans F, on a la relation :
dimK (E) = dimK (Ker(f )) + dimK (Im(f )) = dimK (Ker(f )) + rg(f ).
Demonstration : en effet, on sait que si f est une application lineaire de E dans
F, tout supplementaire de Ker(f) est isomorphe a` Im(f) (theor`eme ? ?). Soit
donc G un supplementaire de Ker(f), on a E = Ker(f )G do`u dimK (E) =
dimK (Ker(f )) + dimK (G). Or G et Im(f) sont isomorphes, ils ont donc la
meme dimension (finie) (theor`eme ? ?) do`u dimK (E) = dimK (Ker(f )) +
dimK (
Im(f ))
PROPOSITION 7.6 Soient E et F deux K-espaces vectoriels de dimension finie
et f une application lineaire de E dans F, on a :
1. rg(f ) inf(dimK (E), dimK (F ))
2. f est injective si et seulemnt si rg(f ) = dimK (E)
3. f est surjective si et seulement si rg(f ) = dimK (F ).
104

Demonstration :
1. comme rg(f ) = dimK (E) dimK (Ker(f )) dapr`es le theor`eme du
rang, on a bien rg(f ) dimK (E). De plus, linclusion
Im(f ) F entrane rg(f ) dimK (F ) dapr`es le theor`eme du sousespace.
2. f est injective si et seulement si le noyau de f se reduit a` {0} donc si et
seulement si dimK (Ker(f )) = 0, il suffit alors dapliquer le theor`eme
du rang.
3. f est surjective si et seulement si
Im(f ) = F , il suffit alors dappliquer le theor`eme du sous-espace
Exercice : On propose ici une demonstration de la formule de Grassmann a` laide
du theor`eme du rang. Soient E un K-espace vectoriel de dimension finie, E1
et E2 deux sous-espaces vectoriels de E et
f:

E1 E2 E
,
(x1 , x2 ) 7 x1 + x2

1. montrer que f est lineaire


2. montrer que Ker(f ) = {(x, x) / x E1 E2 } et en deduire que
Ker(f) est isomorphe a` E1 E2
3. montrer que
Im(f ) = E1 + E2
4. appliquer a` f le theor`eme du rang et retrouver ainsi la formule de
Grassmann.
On sait que deux K-espaces vectoriels de dimension finie sont isomorphes si
et seulement si ils ont la meme dimension. Mais il ne faudrait pas croire que toute
application lineaire de lun dans lautre soit un isomorphisme. On peut penser par
exemple a` lapplication nulle. On va donner maintenant des crit`eres varies pour
quune application lineaire soit un isomorphisme.
PROPOSITION 7.7 Soient E et F deux K-espaces vectoriels de meme dimension
finie n et f une application lineaire de E dans F, les propositions suivantes sont
e quivalentes :
1. f est un isomorphisme de E sur F
2. f est injective
3. f est surjective
4. rg(f ) = n.
105

Demonstration : (1.2.) trivial


(2.3.) si f est injective, on a Ker(f ) = {0} et dapr`es le theor`eme du rang
rg(f ) = dimK (E) = dimK (F ), donc f est surjective
(3.4.) trivial
(4.1.) si rg(f ) = n alors f est surjective et dapr`es le theor`eme du rang
dimK (Ker(f )) = 0, donc f est injective
La proposition precedente est tr`es importante car elle permet daffirmer quune
application lineaire entre espaces de meme dimension finie est bijective d`es quelle
est injective ou surjective. Mais atention, ceci nest plus valable en dimension infinie comment en temoignent les exemples suivants :
1. D :

K[X] K[X]
est surjective mais non injective
P 7 P 0

2. :

K[X] K[X]
est injective mais non surjective.
P 7 XP

Exercices :
1. Soient E un K-espace vectoriel de dimension finie et f un endomorphisme de E, montrer que les propositions suivantes sont e quivalentes :
(a) E = Ker(f )
Im(f )
(b) Ker(f ) = Ker(f 2 )
(c)
Im(f ) =
Im(f 2 ).
Que subsiste-t-il si E est de dimension infinie ?
2. Soit f un endomorphisme dun K-espace vectoriel E de dimension finie, montrer que limage et le noyau de f concident si et seulement si
on a f 2 = 0, dimK (E) est un entier pair et rg(f ) = dimK2 (E) .

7.3.2

Dimension de L(E,F)

THEOREM 7.14 Soient E et F deux K-espaces vectoriels de dimension finie,


alors lespace vectoriel L(E, F) est aussi de dimension finie et on a :
dimK (L(E, F )) = dimK (E). dimK (F ).
Demonstration : admis
On va visualiser ce resultat de facon naturelle au chapitre suivant.
106

Chapitre 8
Matrices
Apr`es avoir peine parmi les espaces vectoriels, on est revenu en pays de connaissance, le relief sadoucit. Les retardataires pourront donc rejoindre le peloton. Ce
chapitre est en grande partie une reformulation de notions abordees dans les chapitres precedents, mais sous forme plus concr`ete et visuelle. Tout le debut est donc
en pente douce et permet lutilisation dun grand braquet. Neanmoins certains passages annoncent dej`a les massifs quil faudra gravir... a` lEnsae.

8.1
8.1.1

Calcul matriciel
Generalites

DEFINITION 8.1 Soient K un ensemble, n et m deux entiers naturels non nuls,


on appelle matrice de type (n, m) a` e lements dans K toute application A : [1, n]
[1, m] K.
En posant A(i, j) = aij , on convient decrire la matrice A sous forme dun
tableau rectangulaire a` n lignes et m colonnes :

a11 ... a1m


a21 ... a2m

A=
... ... ... .
an1 ... anm
a11 , ..., anm sappellent les e lements de la matrice A, aij se trouvant a` lintersection de la i-`eme ligne et de la j-`eme colonne. On e crira de facon condensee
A = (aij )1in,1jm ou meme A = (aij ) si aucune confusion nest possible sur
le type de la matrice A.
Enfin, on note Mn,m (K) lensemble des matrices de type (n, m) a` e lements
dans K. Si K = R on dit que la matrice A est reelle et si K = C on dit quelle
est complexe.
107

DEFINITION 8.2 Si m = n, la matrice A = (aij ) est dite carree dordre n, ou


plus simplement carree. Les e lements a11 , a22 , ..., ann constituent alors ce quon
appelle la diagonale principale de la matrice A.
Dans toute la suite de ce chapitre on supposera que K est un corps commutatif.
DEFINITION 8.3 Une matrice carree (aij ) est dite diagonale si tous les e lements
situes hors de la diagonale principale sont nuls, i.e. :
i, j [1, n], i 6= j aij = 0.
Une matrice carree (aij ) est dite trigonale inferieure si tous les e lements
situes au-dessus de la diagonale principale sont nuls, i.e. :
i, j [1, n], i < j aij = 0.
Si de plus les e lements de la diagonale principale sont nuls, on dit que la matrice (aij ) est strictement trigonale inferieure. On definit de facon analogue une
matrice carree (strictement) trigonale superieure.
DEFINITION 8.4 Une matrice carree (aij ) est dite symetrique si :
i, j [1, n], aij = aji .
Une matrice carree (aij ) est dite antisymetrique si :
i, j [1, n], aij + aji = 0.
On ne va pas faire languir le lecteur plus longtemps, on aborde maintenant
lexemple fondamental qui est a` la source de la notion de matrice.

8.1.2

Matrice associee a` une application lineaire

On consid`ere E et F deux K-espaces vectoriels de dimension finie, B = (e1 , ..., em )


une base de E, C = (f1 , ..., fn ) une base de F et enfin u un e lement de L(E, F).
DEFINITION 8.5 On appelle matrice de u relativement aux bases B et C la
matrice (aij ) de type (n, m) definie par :
j [1, m], u(ej ) = a1j f1 + a2j f2 + ... + anj fn .
Autrement dit, pour tout indice j de [1, n], la j-`eme colonne de (aij ) est constituee
par les coordonnees de u(ej ) relativement a` la base C.
108

On designera cette matrice par MCB (u) ou, plus simplement, M (u) si aucune
confusion nest possible. On verra lors de la multiplication des matrices pourquoi
on renverse lordre des bases.
Si E = F et si B = C, on parlera de la matrice de lendomorphisme u par
rapport a` la base B et on la notera MB (u).
On se rend compte maintenant que la notion de base est beaucoup plus importante que celle de partie basique, car on ne saurait pas dans quel ordre e crire les
lignes et les colonnes de la matrice associee a` une application lineaire.
Exercices :
1. Soient B = (e1 , e2 ) une base dun K-espace vectoriel E et h lhomothetie derapport 
, on a donc h (e1 ) = e1 et h (e2 ) = e2 , do`u
0
MB (h ) =
. Cette matrice est independante de la base choi0
sie. Generaliser au cas o`u dim(E) = n quelconque.
2. On suppose dim(E) = 3 et dim(F ) = 2 et on se donne B et C des
bases respectives de E et F. Soit u lapplication qui a` tout vecteur x
de E de coordonnees (x1 , x2 , x3 ) dans la base B associe le vecteur y
de F dont les coordonnees dans la base C sont (y1 , y2 ) donnees par les
formules y1 = x1 2x2 + 3x3 et y2 = x1 + x3 , montrer que u est
lineaire et determiner sa matrice par rapport aux bases B et C.
3. Soient E et F deux K-espaces vectoriels de dimension finie et u un
isomorphisme de E sur F, montrer que pour toute base B de E il existe
une base C de F telle que :

1 0 0 ... 0
0 1 0 ... 0

.
0
0
1
...
0
MCB (u) =

... ... ... ... ...


0 0 0 ... 1
Si B = (e1 , ..., en ), on pourra prendre C = (u(e1 ), ..., u(en )) et justifier. Reciproque ?
THEOREM 8.1 Lapplication MCB :

L(E, F ) Mn,m (K)


est bijective.
u 7 MCB (u)

Demonstration : en effet, si u et u e lements de L(E, F) sont tels que MCB (u) =


MCB (u0 ) alors, en considerant les colonnes de ces matrices, pour tout indice
j, u(ej ) = u0 (ej ) et donc par linearite, x E, u(x) = u0 (x), i.e. u = u0 et
lapplication MCB est injective.
109

Par ailleurs, si lon se donne une matrice A = (aij ) Mn,m (K) quelconque,
on pose pour tout indice j, e0j = a1j f1 + ... + anj fn . On sait dapr`es le
theor`eme ? ? quil existe une unique application lineaire u L(E, F ) verifiant
u(ej ) = e0j pour tout indice j. On aura donc MCB (u) = A et lapplication
MCB est surjective
Soit A = (aij ) une matrice de type (n, m) a` e lements dans K, alors dapr`es
le theor`eme precedent, A est la matrice dune unique application lineaire uA de
K m dans K n relativement aux bases canoniques de ces espaces. On dit que uA est
lapplication lineaire canoniquement associee a` A.
On definira alors le noyau, limage et le rang de la matrice A comme e tant
respectivement le noyau, limage et le rang de uA . En particulier limage de A,
notee Im(A) sera le sous-espace vectoriel de K n constitue des vecteurs uA (x) o`u
x decrit K m . Im(A) est donc engendre par les colonnes de A (chaque colonne
de A e tant considere comme un vecteur de K n rapporte a` sa base canonique). De
meme, le rang de A est le rang de uA , i.e. le nombre de colonnes de A (considerees
comme vecteur de K n ), lineairement independantes.
THEOREM 8.2 Soient E et F deux espaces vectoriels de dimension finie rapportes a` deux bases respectives B et C et u L(E, F ), alors rg(MCB (u)) = rg(u)
et donc toutes les matrices associees a` u, pour tous les choix possibles de bases,
ont le meme rang.
Demonstration : on pose m = dim(E), n = dim(F ) et A = (aij ) = MCB (u),
avec B = (e1 , ..., em ) et C = (f1 , ..., fn ). On veut comparer rg(A) et rg(u),
on doit donc introduire uA et relier uA et u :
u

E
F

.
m uA
Kn
K
Soient B 0 = (e01 , ..., e0m ) et C 0 = (f10 , ..., fn0 ) les bases canoniques respectives
de K m et K n , lunique application lineaire de E dans K m definie par :
j [1, m], (ej ) = e0j
et lunique application lineaire de F dans K n definie par :
i [1, n], (fi ) = fi0 ,
alors est un isomorphisme de E sur K m et de F sur K n puisque, par
construction, limage dune base est une base.
P
De plus,
uA , car j [1, m], u(ej ) = ( ni=1 aij fi ) =
Pn on a u =P
n
0
0
i=1 aij (fi ) =
i=1 aij fi = uA (ej ) = (uA )(ej ).
110

u et uA concident alors sur une base de E, par linearite on a donc u =


uA . Le materiel e tant en place, la demonstration sach`eve alors sans
difficultes.
On a uA (E) = uA ((E)) = uA (K m ) =
Im(uA ) et u(E) = (
Im(u)) donc
Im(uA ) = (
Im(u)). induit donc un isomorphisme de Im(u) sur
Im(uA ), en particulier leurs dimensions sont e gales, i.e. rg(u) = rg(uA ) =
rg(A). A titre dexercice, le lecteur peut dailleurs montrer que induit
e galement un isomorphisme de Ker(u) sur Ker(uA )

8.1.3 Operations sur les matrices


Le theor`eme ? ? exhibe une bijection entre les ensembles L(E, F) et Mn,m (K).
On sait alors, depuis le premier chapitre, que lon peut transporter les operations
de L(E, F) sur Mn,m (K).
Addition
Soient E et F deux K-espaces vectoriels de dimension finie, B = (e1 , ..., em )
et C = (f1 , ..., fn ) des bases respectives de E et de F, u et v deux e lements de
L(E, F), on pose M (u) = (aij ), M (v) = (bij ), M (u + v) = (cij ). On a alors
j [1, m],
(u + v)(ej ) = u(ej ) + v(ej )
n
n
X
X
=
aij fi +
bij fi
=

i=1
n
X

i=1

(aij + bij )fi

i=1

i.e. (i, j) [1, n] [1, m], cij = aij + bij .


DEFINITION 8.6 Si A = (aij ) et B = (bij ) sont deux matrices de type (n,
m), on appelle somme de A et de B, et on note A + B la matrice de type (n, m)
C = (cij ) definie par :
(i, j) [1, n] [1, m], cij = aij + bij .
On a donc M (u + v) = M (u) + M (v).
111

Multiplication par un scalaire


Soit M (u) = (a0ij ) la matrice associee a` u, K, on a alors j [1, m],
(u)(ej ) = (u(ej ))
n
X
= (
aij fi )
=

i=1
n
X

(aij )fi

i=1

i.e. (i, j) [1, n] [1, m], a0ij = aij .


DEFINITION 8.7 Si A = (aij ) est une matrice de type (n, m), on note A la
matrice (aij ) obtenue en multipliant tous les e lements de A par le scalaire . On
definit ainsi une loi externe sur Mn,m (K) de domaine doperateur K.
On a donc M (u) = .M (u).
THEOREM 8.3 Soient E et F deux K-espaces vectoriels de dimension respectives m et n, rapportes a` des bases B et C, alors, muni des lois precedentes,
Mn,m (K) est un K-espace vectoriel de dimension mn isomorphe a` LK (E, F )
par lapplication MCB du theor`eme ? ?.
Demonstration : il ny a rien a` demontrer, les operations sur Mn,m (K) ont justement e te definies par transport de structure, MCB devient ainsi un isomorphisme despaces vectoriels.
On remarque simplement que si Eij designe la matrice de type (n, m) qui
contient un 1 a` lintersection de la i-`eme ligne et de la j-`eme colonne et des 0
partout ailleurs, alors (Eij )(i,j)[1,n][1,m] constitue une base de Mn,m (K) appelee
base canonique de Mn,m (K), qui nest autre
P que limage de la base canonique de
LK (E, F ). On peut e crire A = (aij ) = i,j aij Eij . Lelement neutre de lespace
vectoriel Mn,m (K) est la matrice de lapplication nulle, i.e. la matrice dont tous
les e lements sont nuls, on la notera 0. La matrice opposee de la matrice A = (aij )
se notera A, et on a A = (aij ).
Produit
Soient E, F, G trois K-espaces vectoriels, u L(E, F ), v L(F, G), B =
(e1 , ..., em ), C = (f1 , ..., fn ), D = (g1 , ..., gp ) des bases respectives de E, F, G, on
pose :
MCB (u) = (akj )
matrice de type (n, m)
MDC (v) = (bik )
matrice de type (p, n) .
MDB (v u) = (cij )
matrice de type (p, m)
112

On a alors j [1, m] :
v u(ej ) = v(u(ej ))
n
X
= v(
akj fk )
=
=

k=1
n
X

akj v(fk )

k=1
n
X
k=1

p
X
akj (
bik gi )

p
n X
X

i=1

akj bik gi

k=1 i=1

p
n
X
X
=
(
bik akj )gi
i=1 k=1

donc, par definition de cij , on en deduit :


(i, j) [1, p] [1, m], cij =

n
X

bik akj .

k=1

DEFINITION 8.8 Soient A une matrice de type (n ; m) et B une matrice de type


(p, n), a` coefficients dans K, on appelle produit de B par A, et on note BA, la
matrice (cij ) de type (p, m) definie par :
(i, j) [1, p] [1, m], cij =

n
X

bik akj .

k=1

On a donc MDB (v u) = MDC (v).MCB (u).


La formule de la definition a bien un sens car le nombre de colonnes de la
premi`ere matrice du produit est le meme que le nombre de lignes de la seconde
matrice. Lexpression de cij se traduit en disant que lon fait le produit ligne par
colonne. On insiste sur le fait que si B est de type (p, n) et A de type (n, m) avec
n 6= n0 , alors le produit BA na ici aucun sens.
On insiste aussi sur le fait que si BA a un sens, en general AB nen a pas ; que
meme si AB et BA ont tous deux un sens, en general AB et BA ne sont pas de
meme type ; que meme... (cf theor`eme de structure pour les matrices carrees).
113

Une bonne astuce pour calculer un produit de matrices, en limitant les risques
derreur, consiste a` disposer le calcul comme suit :

A
1 2
3 4
B

  5 6  .
1 2 3
22 28
3 4 5
40 52
Cette disposition est de plus parfaitement adaptee a` literation du produit. On peut
voir sur cet exemple que AB a un sens, mais que AB est une matrice carree dordre
3 alors que BA est carree dordre 2.
PROPOSITION 8.1 Sous reserve dexistence des expressions, on a pour toutes
matrices A, B, C et tout scalaire :
A(BC)
A(B)
A(B + C)
(A + B)C

=
=
=
=

(AB)C
(A)B = (AB)
AB + AC
AC + BC.

Sous reserve dexistence signifie que les types des matrices intervenant dans
une expression ont un sens. Les proprietes e noncees sont alors les traductions de
proprietes demontrees pour les applications lineaires.
Exercices :
1. On pose A =

1 +3 +1
+4 +0 +5

+2 +1 +3
, B = 4 +0 +1 , C =
+3 1 2

+2 +1 +3
4 +0 +1 . Verifier sur cet exemple lassociativite du pro+3 1 2
duit matriciel.
2. Verifier directement sur les formules lassociativite du produit matriciel. Il est recommande au lecteur de sastreindre a` effectuer compl`etement
cet
P exercice qui est un tr`es bon exemple de manipulation du symbole
.
3. Etudier la (ou les) relation(s) de d
entre
les
ependance lin
eaire existant

+1 1
+0 +1
matrices reelles suivantes : A = +2 +1 , B = 1 +3 ,
1 +0
+0 2

+2 +3
+5 2
C = +0 +0 , D = +8 3 .
+1 1
2 +3
114

a b b c 2c

a + b b , a, b, c R , montrer que E est


4. Soit E = 2a

b
c
a
un sous-espace vectoriel de M3 (R), en donner la dimension et une
base. On pourra constater que si A E, on peut e crire A = aA1 +
bA2 + cA3 , o`u A1 , A2 , A3 sont trois matrices fixes. Cet exercice est
standard et doit e tre un exercice reflexe.

8.1.4

Matrices colonnes

Soient E et F deux K-espaces vectoriels rapportes a` des bases respectives


B = (e1 , ..., em ) et C = (f1 , ..., fn ), u L(E, F ) defini par sa matrice A relativement aux bases B et C, et x un e lement de E, le probl`eme pose ici est celui
de lutilisation de la matrice A pour la determination de u(x). La solution peut e tre
obtenue directement de la facon suivante.
Le vecteur x se decompose sur la base B, x = x1 e1 + ... + xm em , donc u(x) =
x1 u(e1 ) + ... + xm u(em ). Or u(e1 ), ..., u(em ) apparaissent justement, decomposee
sur la base C, dans les colonnes de la matrice associee a` u. On peut donc calculer
les composantes sur la base C de u(x) en fonction de x1 , ..., xm et des coefficients
de cette matrice. Ce calcul direct est laisse au lecteur.
On propose ici une resolution plus sophistiquee de ce probl`eme qui a lavantage detre plus structurelle. Lelement x de E definit une application lineaire x de
K dans E definie par :
x : 7 x.
La matrice de x par rapport aux bases (1) et B de K et E est
de type
une matrice

x1
(m, 1) dite matrice colonne. Cette matrice nest autre que ... o`u x1 , ..., xm
Pm xm
sont les coordonnees de x dans B. En effet, x(1) = x = i=1 xi ei . Cette matrice
MB(1) (
x) se note traditionnellement X.
De meme, lelement u(x) de F definit une application lineaire u(x) de K dans
F, definie par u(x) : 7 u(x). Sa matrice par rapport aux bases (1) et C de
K et F est donc aussi une matrice colonne MC(1) (u(x)), qui est la matrice des
coordonnees de u(x) dans la base C, on la note Y.
On consid`ere alors la composition u x de K dans F definie par :
u x : 7 u(
x()) = u(x) = u(x) = u(x)(),
i.e. u x = u(x) et par passage aux matrices associees Y = AX.
115

PROPOSITION 8.2 La matrice colonne Y des coordonnees du vecteur u(x) dans


la base C sobtient en multipliant la matrice A de u relativement aux bases B et C
par la matrice colonne X des coordonnees du vecteur x dans la base B : Y = AX.
Exercice : On consid`ere une application lineaire u de E dans F donnee par sa
matrice relativement aux bases respectives B et C des K-espaces vectoriels
E et F :

+3 +4
MCB (u) = 1 +1 .
+2 2
1. Determiner dim(E) et dim(F).
2. Soit x le vecteur de coordonnees (4, 1) dans B, calculer les coordonnees dans C de u(x).
3. Determiner Ker(u), Im(u), rg(u).
4. Soient e01 = 3e1 + e2 et e02 = 2e1 + 5e2 , montrer que B 0 = (e01 , e02 )
est une base de E, puis calculer MCB (u).
5. Soient f10 = f1 + f3 , f20 = 2f1 f2 + 2f3 , f30 = f1 f2 + f3 , montrer
que C 0 = (f10 , f20 , f30 ) est une base de F. Determiner les coordonnees de
f1 , f2 , f3 sur cette base, puis calculer MC 0 B (u) et MC 0 B0 (u).

8.1.5

Transposition

DEFINITION 8.9 Soit A = (aij ) une matrice de type (n, m), on appelle transposee de A et on note At la matrice (a0ij ) de type (m, n) definie par :
(i, j) [1, m] [1, n], a0ij = aji .
t


+3 +4
+3
1
+2
Par exemple, 1 +1 =
.
+4 +1 2
+2 2

PROPOSITION 8.3 On donne ici quelques proprietes de la transposition.


1. Quelle que soit la matrice A, on a (At )t = A.
2. Si A et B sont deux matrices de type (n, m), on a (A + B)t = At + B t .
3. Si A est une matrice et un scalaire, on a (A)t = At .
4. Si A est une matrice de type (n, m) et B une matrice de type (m, p), on a
(AB)t = B t At .
5. Quelle que soit la matrice A, on a rg(A) = rg(At ).
116

Demonstration : 1., 2., 3. sont totalement e videntes sur la definition de la transposition.


4. est une verification de routine sur les expressions des differentes matrices, il
suffit de jouer avec les indices. Avant de se lancer dans le calcul, le lecteur
remarquera que B t At a un sens car B t est de type (p, m) et At de type
(m, n), ce produit est donc de type (p, n) tandis que AB est de type (n, p).
5. peut se demontrer directement a` partir de la definition du rang dune matrice,
mais cette demonstration est reservee aux amateurs avertis. Mieux vaut en
savoir un peu plus long et utiliser la notion de matrices e quivalentes.
Exercices :
1. Verifier que pour toute matrice A de type (n, m) les produits AAt
et At A sont possibles, montrer que ces deux matrices sont carrees et
symetriques, donner le type de chacune delles.
2. Montrer quune matrice carree A dordre n est symetrique si et seulement si A = At .
3. On note Sn (K) lensemble des matrices carrees symetriques dordre
n a` e lements dans K, et An (K) lensemble des matrices carrees antisymetriques dordre n a` e lements dans K.
(a) Montrer que Sn (K) et An (K) sont deux sous-espaces vectoriels
de Mn (K) et donner leurs dimensions.
(b) Montrer que Mn (K) = Sn (K) An (K).
(c) Donner la decomposition

+1 +5

3 +2
de la matrice
+1 1

8.2

sur cette
somme directe dans M3 (R)
3
+3 .
3

Matrices carrees

On rappelle que Mn,n (K) se note, par simplification, Mn (K). Tout ce qui
a e te fait dans la premi`ere section sapplique en particulier a` Mn (K). Mais on
convient de prendre maintenant E = F et B = C.

8.2.1 Structure
THEOREM 8.4 Soient E un K-espace vectoriel et B = (e1 , ..., en ) une base de
E, alors :
1. Mn (K) est une K-alg`ebre
117

2. MB :

L(E) Mn (K)
est un isomorphisme dalg`ebres.
u 7 MB (u) = MBB (u)

Demonstration : cest une reformulation des theor`emes ? ? et ? ?.


PROPOSITION 8.4 Lelement unite de Mn (K) est la matrice associee a` lidentite de E. Cette matrice est :

1 0 0 ... 0
0 1 0 ... 0

0 0 1 ... 0 ,

... ... ... ... ...


0 0 0 ... 1
on la note In ou I.
Demonstration : e vident, car f id = idf = f et il suffit de passer aux matrices
associees a` laide de lisomorphisme precedent
PROPOSITION 8.5 D`es que n 2, le produit de matrices dans Mn (K) est
non-commutatif et la matrice 0 admet dans Mn (K) des diviseurs.




1 1
1 0
Demonstration : pour n = 2, on prend A1 =
, B1 =
,
0 0
1 0



1 1
2 0
alors B1 A1 =
et A1 B1 =
. Pour n > 2, on prend
1
1
0 0




A1 0
B1 0
A =
,B =
(decomposition en quatre blocs des
0 0
0 0



B1 A1 0
A1 B1 0
matrices A et B), alors BA =
et AB =
.
0
0
0
0
Pour les diviseurs de 0, il suffit l`a encore de donner un exemple, or on verifie
aisement que le produit E11 Enn est nul, ou meme que le carre (E1n )2 est
nul
On remarque que dans le cas n = 1, les lois de M1 (K) sont celles de K,
M1 (K) est donc un corps isomorphe a` K, que lon confondra souvent avec K.
On va maintenant exhiber deux sous-alg`ebres particuli`erement importantes de
Mn (K). Elles constituent le coeur de la theorie de la reduction des endomorphismes.
On rappelle quune matrice carree A = (ij ) est dite diagonale si tous les
termes en dehors de la diagonale principale sont nuls. La matrice MB (u) est donc
diagonale si et seulement si lendomorphisme u transforme chaque vecteur de la
base B en un vecteur proportionnel, i.e. :
i [1, n], i K, u(ei ) = i ei .
118

1 0 ... 0
0 2 ... 0

D`es lors, MB (u) =


... ... ... ... .
0 0 ... n
Il est immediat que la somme et le produit de deux matrices diagonales sont
encore des matrices diagonales, de meme le produit par un scalaire dune matrice
diagonale est encore une matrice diagonale.
PROPOSITION 8.6 Lensemble note Dn (K) des matrices diagonales carrees
dordre n a` coefficients dans K est une sous-alg`ebre commutative de Mn (K).

0 ... 0
0 ... 0

Les matrices de la forme


... ... ... ... = I sont des cas particuliers
0 0 ...
de matrices diagonales, on les appelle matrices scalaires. On a une injection naturelle 7 I de K dans Mn (K) qui est un morphisme dalg`ebres. A laide de
cette injection on identifie parfois les e lements de K et les matrices scalaires, en
e crivant au lieu de I.
On rappelle e galement quune matrice carree T = (tij ) est dite trigonale
inferieure si on a (i, j) [1, n], i < j tij = 0.
Exercice : Soit B = (e1 , ..., en ) une base dun K-espace vectoriel E, on pose,
i [1, n], Ei le sous-espace vectoriel de E engendre par {ei , ei+1 , ..., en }.
On consid`ere enfin un e lement u de L(E).
1. Montrer lequivalence des propositions suivantes :
(a) MB (u) est trigonale inferieure
(b) i [1, n], u(Ei ) Ei .
2. En deduire que la somme et le produit de deux matrices trigonales
inferieures sont des matrices trigonales inferieures, ainsi que le produit
par un scalaire dune matrice trigonale inferieure.
Les resultats de cet exercice peuvent e galement se demontrer a` laide du seul
calcul matriciel.
PROPOSITION 8.7 Lensemble note Tn (K) des matrices carrees dordre n, a`
coefficients dans K, trigonales inferieures est une sous-alg`ebre de Mn (K).
On remarque que Tn (K) nest pas commutative d`es que n 2 et que Dn (K)
est e galement une sous-alg`ebre de Tn (K).
119

8.2.2

Matrices inversibles

Soit A Mn (K), on dit que A est inversible sil existe une matrice A0
Mn (K) telle que AA0 = A0 A = I. Si A existe, elle est unique, on lappelle
linverse de A et on la note A1 .
THEOREM 8.5 Lensemble note GLn (K) des matrices inversibles de Mn (K)
est un groupe multiplicatif delement neutre I. De plus, si A et B sont deux matrices
inversibles de Mn (K), alors (AB)1 = B 1 A1 .
THEOREM 8.6 Soit A Mn (K), les conditions suivantes sont e quivalentes :
1. A est inversible
2. At est inversible
3. les lignes de A (considerees comme vecteurs de K n ) sont lineairement independantes
4. les colonnes de A (idem) sont lineairement independantes
5. A est de rang n.
Demonstration : (1.2.) en effet, AA1 = A1 A = I impliquent par transposition (A1 )t At = At (A1 )t = I, donc At est inversible et (At )1 = (A1 )t .
(2.1.) idem, en e changeant les roles de A et At , puisque (At )t = A.
(1.4.5.) en revenant aux applications lineaires, ces applications signifient
quun endomorphisme est inversible si et seulement si il est surjectif, ce qui
est vrai en dimension finie.
(2.3.) en effet, les lignes de A ne sont autres que les colonnes de At .
(1.4.) synonyme par transposition de (2.3.)
Exercice : Determiner lesquelles des matrices suivantes sont inversibles :



+1 +0 +2
+1 +2 +3
+2 4
, +3 1 +1 , 1 +3 +2 .
1 +2
2 +4 +3
5 +9 +4

8.3
8.3.1

1 3
2 4

Changement de bases
Les personnages

Dans un espace vectoriel E, on dispose dune base B = (e1 , ..., en ) que lon
qualifie dancienne base. Dans ce meme espace vectoriel on en choisit une autre
B 0 = (e01 , ..., e0n ) quon appellera nouvelle base. En bonne logique, les nouveaux
vecteurs de base e01 , ..., e0n sont donc definis par leurs coordonnees sur lancienne
base.
120

DEFINITION 8.10 On appelle matrice de passage de la base B a` la base B la


matrice P, carree dordre n, dont la j-`eme colonne est formee des coordonnees du
vecteur e0j de B relativement
a` la base B, pour tout indice j, i.e. si P = (pij ) on a
Pn
0
j [1, n], ej = i=1 pij ei .


+3 2
0
0
Exemple : Pour e1 = 3e1 + e2 et e2 = 2e1 + 5e2 , alors P =
est
+1 +5
la matrice de passage de (e1 , e2 ) a` (e01 , e02 ).
Le lecteur est invite a` bien faire attention au fait que dans le syst`eme de
definition, les vecteurs de la nouvelle base sont e crits en ligne, alors que dans la
matrice de passage ils sont e crits en colonne.
On reprend les notations precedentes. P est la matrice par rapport a` la base
B de lapplication lineaire qui transforme e1 en e01 , e2 en e02 , ..., en en e0n . Cette
interpretation, si elle permet de verifier quon se souvient bien de ce quest la
matrice dun endomorphisme, et meme dun automorphisme, ne sera que de peu
dinteret par la suite. Beaucoup plus fructueuse sera la deuxi`eme interpretation.
Pour tout indice j, la j-`eme colonne de P est lexpression du vecteur e0j sur
lancienne base B. P est donc la matrice de lapplication identite de E, lorsque E
est repere au depart par la base B et a` larrivee par la base B : P = MBB0 (id).
Il faut faire tr`es attention a` lordre dans lequel doivent e tre prises les bases :
les transformations des vecteurs de depart se placent en colonne, ce sont donc
les nouveaux vecteurs de base et ils se rep`erent sur la base darrivee, i.e. sur les
anciens vecteurs de base. Tout rentre dans lordre avec la notation MBB0 , puisque
lon a convenu dindiquer la seconde base avant la premi`ere.
THEOREM 8.7 Soient B et B deux bases de E, P la matrice de passage de B
a` B et P la matrice de passage de B a` B, alors P P 0 = I et P 0 P = I, i.e.
P 0 = P 1 .
Demonstration : en effet, si lon consid`ere le diagramme

id

id

E 0 E

P
P
,
B0
B
B0
en passant aux matrices associees relativement aux bases indiquees, on a
alors :

MB0 B (id).MBB0 (id) = MB0 B0 (id),


i.e. P 0 P = I ; de meme pour P P 0
Reciproquement, soient P une matrice inversible dordre n et B une base de E,
alors P est la matrice de passage de la base B en une unique base B, dapr`es la
premi`ere interpretation dune matrice de passage.
121

8.3.2

Action sur les coordonnees

Soit x un e lement de E, on note X la matrice colonne de ses coordonnees dans


lancienne base B et X la matrice colonne de ses coordonnees dans la nouvelle
base B. Comme x = id(x), on a MB (x) = MBB0 (id).MB0 (x), donc si P est la
matrice de passage de la base B a` la base B, on obtient :
X = P X 0.
Une fois de plus, il faut faire attention a` lordre. On dispose de la matrice de
passage de lancienne a` la nouvelle, on connat donc les nouveaux vecteurs de base
en fonction des anciens. Mais ce sont les anciennes coordonnees que lon exprime
en fonction des nouvelles a` laide de cette matrice de passage. Cest dailleurs
dans ce sens quelles seront le plus souvent utiles. Evidemment on peut, si cela
est necessaire, exprimer X en fonction de X : X 0 = P 1 X.
Exemple : Soient E un plan vectoriel euclidien et B = (~i, ~j) une base orthonormee de E, on pose B 0 = (~i0 , ~j 0 ) la base obtenue en effectuant 
sur labase
x
B une rotation dangle . Soit ~u un vecteur de E de coordonnees
sur
y
 0 
x
B et
sur B 0 , on a :
y0
~i0 = r (~i) = cos()~i + sin()~j,
~j 0 = r (~j) = r+ (~i) = sin()~i + cos()~j.
2
La matrice de passage de B a` B est donc :


+ cos() sin()
P =
.
+ sin() + cos()
   0
 
 0 

x
x
x
x cos() y 0 sin()
On a
=P
, i.e.
=
.
y
y0
y
x0 sin() + y 0 cos()

8.3.3

Action sur les matrices

Soient E et F deux K-espaces vectoriels de dimension finie et u un e lement


de L(E, F), si E et F sont munis chacun dune base, B = (e1 , ..., em ) pour E et
C = (f1 , ..., fn ) pour F, alors lapplication lineaire u sexprime a` laide dune
matrice que lon a notee MCB (u). Il est clair que si lon change la base B pour une
base B et la base C pour une base C, la matrice de u relativement a` ces nouvelles
bases va e tre en general tout a` fait differente de la precedente. Le probl`eme pose
est donc de connatre le lien entre ces matrices.
122

On note P la matrice de passage de B a` B et Q celle de C a` C. On note aussi


A = MCB (u) et A0 = MC 0 B0 (u), et on consid`ere le diagramme suivant :
E
F
u
0
0
(B )
(C 0 )
A
idE P
Q idF .
E
F
u

(B)
(C)
A
On a idF u = u idE , donc en passant aux matrices associees relativement aux
bases indiquees dans le diagramme, MCB0 (idF u) = MCC 0 (idF ).MC 0 B0 (u) = QA0
et MCB0 (u idE ) = MCB (u).MBB0 (idE ) = AP donc QA0 = AP , ce qui peut
encore secrire :
A0 = Q1 AP.
Encore une fois, il faut faire attention a` la place des differentes matrices.

8.3.4 Matrices e quivalentes


DEFINITION 8.11 Deux matrices A et A de type (n, m) sont dites e quivalentes
sil existe une matrice inversible R carree dordre n et une matrice inversible S
carree dordre m, telles que :
A0 = RAS.
Cette definition est bien entendu directement inspiree par la formule precedente.
PROPOSITION 8.8 Si A est la matrice dune application lineaire u de E dans
F relativement a` deux bases B et C, alors A est e quivalente a` A si et seulement si
A est la matrice de u par rapport a` des bases B et C de E et de F.
Demonstration : on suppose A e quivalente a` A, donc A0 = RAS. S e tant inversible dordre m, cest la matrice de passage de la base B a` une base
B de E. De meme, R1 est la matrice de passage de la base C a` une
base C de F. Alors la matrice de u par rapport aux bases B et C est
(R1 )1 AS = RAS = A0 .
Reciproquement, si A = MBC (u) et A0 = MC 0 B0 (u), on a alors A0 = Q1 AP , il
suffit donc de prendre Q1 = R, P = S
Exercice : Utiliser la proposition precedente pour en deduire que deux matrices
e quivalentes ont le meme rang.
123

8.3.5

Matrices semblables

Dans le cas des matrices carrees, la notion de matrices e quivalentes perd une
grande partie de son interet, car on a lhabitude dasocier, a` une matrice carree,
un endomorphisme relativement a` une base B, la meme au depart et a` larrivee. Il
faut donc adapter la definition precedente a` ce cadre plus restrictif.
DEFINITION 8.12 Deux matrices A et A carrees dordre n sont dites semblables sil existe une matrice inversible P carree dordre n telle que :
A0 = P 1 AP.
PROPOSITION 8.9 Si A est la matrice dun endomorphisme u de E par rapport
a` une base B, alors A est semblable a` A si et seulement si A est la matrice de u
relativement a` une base B de E.
Demonstration : laissee au lecteur, qui doit seulement adapter celle de la proposition ? ?.

124