Académique Documents
Professionnel Documents
Culture Documents
1 - 2 - 3 - 5 - 6 - 8 - Algebre Complete PDF
1 - 2 - 3 - 5 - 6 - 8 - Algebre Complete PDF
HUB-Ensae
Sebastien Raspiller
12 juin 2002
Generalites
1.1 Ensembles . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Applications . . . . . . . . . . . . . . . . . . . . . . .
1.3 Lois de composition . . . . . . . . . . . . . . . . . . .
1.4 Arithmetique . . . . . . . . . . . . . . . . . . . . . .
1.4.1 Rappels de definitions et proprieteselementaires
1.4.2 Denombrabilite . . . . . . . . . . . . . . . . .
Structures
2.1 Groupes . . . . . . . . . .
2.1.1 Generalites . . . .
2.1.2 Sous-groupes . . .
2.1.3 Morphismes . . .
2.2 Corps . . . . . . . . . . .
2.3 Autres structures . . . . .
2.3.1 Espaces vectoriels
2.3.2 Alg`ebres . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
.
7
.
9
. 13
. 16
. 16
. 18
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
21
21
21
22
24
25
26
26
27
.
.
.
.
.
29
29
30
30
32
34
.
.
.
.
.
37
37
37
39
40
42
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
44
45
46
46
47
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
57
57
61
63
67
73
Generation et liberte
6.1 Preliminaires . . . . . . . . . . . . . . . . . . . . .
6.1.1 Sous-espace vectoriel engendre . . . . . . .
6.1.2 Independance lineaire . . . . . . . . . . . .
6.1.3 Lien entre famille libre et famille generatrice
6.2 Introduction . . . . . . . . . . . . . . . . . . . . . .
6.3 Generation . . . . . . . . . . . . . . . . . . . . . . .
6.4 Liberte . . . . . . . . . . . . . . . . . . . . . . . . .
6.5 Base . . . . . . . . . . . . . . . . . . . . . . . . . .
6.6 Familles et applications lineaires . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
77
77
77
79
80
81
82
85
88
90
.
.
.
.
.
.
.
.
.
93
93
94
95
98
99
100
103
103
106
.
.
.
.
.
107
107
107
108
111
115
4.2
5 Espaces vectoriels
5.1 Structure . . . . . . . . . . . . . .
5.2 Sous-espaces vectoriels . . . . . .
5.3 Applications lineaires . . . . . . .
5.4 Somme de sous-espaces vectoriels
5.5 Projections et projecteurs . . . . .
6
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Dimension finie
7.1 Espace vectoriel de dimension finie . . . . . . . .
7.1.1 Existence des bases . . . . . . . . . . . . .
7.1.2 Dimension . . . . . . . . . . . . . . . . .
7.1.3 Caracterisation des bases en dimension finie
7.2 Dimension dun sous-espace vectoriel . . . . . . .
7.2.1 Somme et dimension . . . . . . . . . . . .
7.3 Notion de rang . . . . . . . . . . . . . . . . . . .
7.3.1 Rang dune application lineaire . . . . . .
7.3.2 Dimension de L(E,F) . . . . . . . . . . . .
8 Matrices
8.1 Calcul matriciel . . . . . . . . . . . . . . . . . . .
8.1.1 Generalites . . . . . . . . . . . . . . . . .
8.1.2 Matrice associee a` une application lineaire
8.1.3 Operations sur les matrices . . . . . . . . .
8.1.4 Matrices colonnes . . . . . . . . . . . . .
4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
8.2
8.3
8.1.5 Transposition . . . . . . .
Matrices carrees . . . . . . . . . .
8.2.1 Structure . . . . . . . . .
8.2.2 Matrices inversibles . . .
Changement de bases . . . . . . .
8.3.1 Les personnages . . . . .
8.3.2 Action sur les coordonnees
8.3.3 Action sur les matrices . .
8.3.4 Matrices e quivalentes . . .
8.3.5 Matrices semblables . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
116
117
117
120
120
120
122
122
123
124
Chapitre 1
Generalites
On rappelle dans ce chapitre les notions e lementaires densembles et dapplications ainsi que les principales proprietes quune loi de composition est susceptible de posseder. Il sagit dun chapitre regroupant bon nombre de notions dej`a
connues depuis longtemps par le lecteur. Pour cette raison, les demonstrations
les plus faciles seront omises et les plus difficiles admises. Enfin, on a ajoute un
appendice darithmetique qui se concentre sur la notion de denombrabilite. A ce
propos, le lecteur est invite a` revoir de lui-meme les principales definitions et proprietes de lanalyse combinatoire.
1.1
Ensembles
E.
Une partition est donc un recouvrement ne contenant pas la partie vide, et dont
les e lements sont deux a` deux disjoints.
DEFINITION 1.6 Soient E et F deux ensembles, on appelle produit cartesien de
E et F et on note EF :
E F = {(x, y)/x E et y F }.
La notion de couple (x,y) ne se definit pas, mais verifie :
(x, y) = (x0 , y 0 ) x = x0 et y = y 0 .
Plus generalement, on definit le produit cartesien de k ensembles E1 , ..., Ek
par :
E1 ... Ek = {(x1 , ..., xk )/i [1, k], xi Ei }.
Legalite de deux k-uplets se definit de meme par legalite de toutes les composantes de meme rang. Si E1 = E2 = ... = Ek = E, E E ... E se note aussi
Ek .
Meme si E1 = E2 , il ne faut pas confondre (x, y) et (y, x) (sauf si y = x) ainsi
que (x, y) et{x, y} (surtout si y = x).
PROPOSITION 1.1 Soient E un ensemble, A, B, C des parties quelconques de
E, on a :
=A
1. CE (A)
2. A A = A et A A = A
3. A B = B A et A B = B A
4. A (B C) = (A B) C et A (B C) = (A B) C
5. A (B C) = (A B) (A C) et A (B C) = (A B) (A C)
6. CE (A B) = CE (A) CE (B) et CE (A B) = CE (A) CE (B)
7. A B = A B A et A B = A A B.
Demonstration : admise (par analogie avec les symboles logiques, non presentes
ici)
1.2 Applications
DEFINITION 1.7 Soient E et F deux ensembles, on dit que f est une fonction de
E vers F si tout e lement x de E est en relation par f avec au plus un e lement y de
F. Cet e lement, lorsquil existe, est note f(x).
Lensemble des x de E pour lesquels f(x) existe sappelle ensemble de definition
de la fonction f et se note Def(f).
9
R+ R+
R R+
R+ R
RR
.
, g3 :
, g3 :
2
2
2 , g2 :
x 7 x2
x 7 x
x 7 x
x 7 x
AF
x 7 f (x)
sappelle la restriction de f a` A.
Reciproquement, soient g une application de A vers F et f une application de
E vers F, si f|A = g on dit que f est un prolongement de g a` E.
f est donc, bien entendu, un prolongement de sa restriction a` A. Mais, si on se
donne une application de A vers F, il existe plusieurs prolongements possibles en
une application de E vers F (d`es que F a plus dun e lement et A different de E). On
verra ulterieurement des exemples permettant dobtenir, sous certaines conditions,
lunicite du prolongement.
10
3x1
.
x1
Est-elle injective ?
DEFINITION 1.11 Soit f : E F , on dit que f est inversible sil existe une
application g : F E telle que f g = IdF et g f = IdE .
On peut definir linversibilite a` droite (resp. a` gauche) a` laide de la premi`ere
(resp. la seconde) e galite.
THEOREM 1.1 Soit f : E F , f est inversible si et seulement si f est bijective,
lapplication g de la definition precedente est alors unique, on lappelle application reciproque de f. On la note f 1 , cest une bijection de F sur E. Elle est definie
par :
(x, y) E F, x = f 1 (y) y = f (x).
Demonstration : si f est inversible, IdF et IdE e tant bijectives, lexercice 1.1.1
montre que f et g sont bijectives. De plus, g est unique car si g f = IdE et
f g 0 = IdF alors :
g = g IdF = g (f g 0 ) = (g f ) g 0 = IdE g 0 = g 0 .
Reciproquement, si f est bijective on a :
y F, !x E, y = f (x).
Cette condition permet de definir une application g de F dans E en associant
a` tout y de F lunique x de E tel que y = f (x). Ainsi, si y = f (x), on a
x = g(y). Par consequent :
y F, (f g)(y) = f (x) = y et x E, (g f )(x) = g(y) = x
PROPOSITION 1.3 Soient f : E F et g : F G, si f et g sont inversibles,
alors gf est inversible et lon a :
(g f )1 = f 1 g 1 .
Demonstration : il suffit en effet de calculer f 1 g 1 g f et g f f 1 g 1 .
DEFINITION 1.12 Soit E un ensemble, I un ensemble appele ensemble dindices. On appelle famille delements de E indexee par I toute application de I
dans E. Si x : i 7 x(i) est une telle famille, on note xi limage de i par x et (xi )iI
cette famille.
Attention, une famille nest pas necessairement injective. A deux indices differents
peuvent correspondre le meme e lement de E.
Si (Ai )iI est une famille de parties dun ensemble E, on convient de noter :
iI Ai = {x E/i I, x Ai }
iI Ai = {x E/i I, x Ai }.
12
1.3
Lois de composition
DEFINITION 1.14 Soient E, F, G trois ensembles, on appelle loi de composition definie sur EF a` valeurs dans G toute application de EF vers G. Si
z = f ((x, y)), on convient decrire z = xy (ou x y, x + y, xy, ...). x et y
sappellent les termes et z le resultat de loperation .
Si F = G, la loi est dite externe sur F de domaine doperateurs E.
Si E = F = G, la loi est dite interne sur E et on note en abrege (E,).
Exemples :
13
Soient (E,) et f une bijection de E sur un ensemble F, on peut definir une loi
* sur F en posant :
z, t F, z t = f (f 1 (z)f 1 (t)).
f devient ainsi un isomorphisme de (E,) sur (F,*). On dit alors quon a realise un
transport de structure.
Par tradition, on nemploie le symbole + que dans le cas dune loi commutative
et associative. Lelement neutre et le symetrique e ventuels se notent alors 0 et -x.
La meme tradition impose de nemployer le symbole . (ou rien) que dans le
cas dune loi associative. Lelement neutre et le symetrique e ventuels se notent
alors 1 et x1 .
P
Au lieu decrire x1 +...+xn ou x1 . ... .xn P
on e crira souvent ni=1 xi et ni=1 xi .
Soit I un ensemble fini dindices, lecriture iI xi ne pose pas de probl`emes ;
par contre lecriture iI xi impose, si la multiplication nest pas commutative,
que lon se soit donne un ordre total sur I. Par convention, la multiplication se fera
alors en e crivant de gauche a` droite dans lordre des indices croissants.
1.4
1.4.1
Arithmetique
Rappels de definitions et proprieteselementaires
1.4.2
Denombrabilite
Demonstration : admis
COROLLARY 1.1 Lensemble R\Q des nombres irrationnels nest pas denombrable.
Demonstration : en effet, si R\Q e tait denombrable, on pourrait le mettre en
bijection avec Z . Mais Q peut e tre mis en bijection avec N (exemples 1
et 6), et alors R serait en bijection avec Z, ce qui contredit le theor`eme de
Cantor
19
20
Chapitre 2
Structures
Par structure algebrique sur un ensemble E, on entend la donnee dun nombre
fini de lois internes ou externes assujetties a` verifier un certain nombre de proprietes.
La notion fondamentale dans ce chapitre est celle disomorphisme, i.e. de bijection compatible avec les lois. En effet, si deux ensembles munis de structures
sont isomorphes, toute propriete demontree dans lun et qui ne depend que de la
structure se transpose dans lautre a` laide de lisomorphisme.
2.1
2.1.1
Groupes
Generalites
DEFINITION 2.1 On dit quun ensemble G muni dune loi de composition interne * est un groupe si :
1. * est associative :
(a, b, c) G, (a b) c = a (b c)
2. * admet un e lement neutre (G est donc non vide) :
e G, a G, a e = e a = e
3. tout e lement poss`ede un symetrique pour * :
a G, a0 G, a a0 = a0 a = e
Si de plus la loi * est commutative, on dit que (G,*) est un groupe commutatif
ou, plus souvent, un groupe abelien.
21
Dapr`es les proprietes generales des lois de composition internes, si (G,*) est
un groupe, lelement neutre est unique, ainsi que le symetrique dun e lement quelconque. Le symetrique dun compose est le compose dans lordre inverse des
symetriques. Tout e lement est regulier a` gauche et a` droite. On en deduit donc :
PROPOSITION 2.1 Soient a : G G definie par a (x) = ax et a : G G
definie par a (x) = x a, alors, quel que soit a appartenant a` G, a et a sont des
bijections de G sur G.
Exemples :
2.1.2
Sous-groupes
DEFINITION 2.2 Soient (G,.) un groupe et H une partie de G, on dit que H est
un sous-groupe de G si :
1. H est stable :
x, y H, x.y H
22
2.1.3
Morphismes
DEFINITION 2.3 Soient (G,.), (H,*) deux groupes, f une application de G dans
H, on dit que f est un morphisme de groupes si on a :
x, y G, f (x.y) = f (x) f (y).
Si f est bijectif, on dit que f est un isomorphisme de groupes, si G = H on dit que f
est un endomorphisme, un endomorphisme bijectif sappelle un automorphisme.
DEFINITION 2.4 On appelle noyau du morphisme f, et on note Ker(f) lensemble defini par :
Ker(f ) = {x G/f (x) = 1H }.
DEFINITION 2.5 On appelle image du morphisme f, et on note Im(f) ou f(G)
lensemble defini par :
Im(f ) = {y H, x G, y = f (x)}.
Ces definitions sont conformes aux definitions ? ? ; le theor`eme ? ? sapplique
donc, i.e. si f est un isomorphisme de G sur H, alors f1 est un isomorphisme de
H sur G.
PROPOSITION 2.3 Soit f un morphisme du groupe (G,.) dans le groupe (H,*),
alors :
1. f (1G ) = 1H et x G, f (x1 ) = [f (x)]1
2. limage par f dun sous-groupe de G est un sous-groupe de H ; en particulier
Im(f) est un sous-groupe de H
3. limage reciproque par f dun sous-groupe de H est un sous-groupe de G ;
en particulier Ker(f) est un sous-groupe de G
4. f est un morphisme injectif si et seulement si Ker(f ) = {1G }.
Demonstration : en effet,
1. x G, x.1G = x, donc f (x.1G ) = f (x) f (1G ) = f (x) do`u
par regularite f (1G ) = 1H ; de meme x.x1 = x1 .x = 1G donc
f (x.x1 ) = f (x) f (x1 ) = f (1G ) = 1H , idem a` gauche, do`u
f (x1 ) = [f (x)]1
2. Soit K un sous-groupe de G, on a :
y1 , y2 f (K), x1 , x2 K, y1 = f (x1 ) et y2 = f (x2 )
donc y1 y21 = f (x1 ) [f (x2 )]1 = f (x1 .x1
2 ) ; mais K est un sous1
1
groupe de G, donc x1 .x2 K et y1 y2 f (K), do`u f(K) est bien
un sous-groupe de H
24
(x 6= y f (x) 6= f (y))
(x.y 1 6= 1G f (x) [f (y)]1 6= 1H )
(x.y 1 6= 1G f (x.y 1 ) 6= 1H )
Ker(f ) = {1G }
2.2
Corps
a (b c) = (a b) c
a (b + c) = a b + a c et (a + b) c = a c + b c
25
R.
2.3
Autres structures
2.3.1
Espaces vectoriels
,
,
E, 1K .x = x
K, x, y E, .(x + y) = .x + .y
K, x E, ( + ).x = .x + .x
K, x E, .(.x) = ().x.
26
2.3.2 Alg`ebres
DEFINITION 2.9 Soit K un corps commutatif, on dit quun ensemble E a une
structure de K-alg`ebre si :
1. E est muni dune structure de K-espace vectoriel
2. E est muni dune seconde loi interne notee , telle que (E,+,) verifie les
deux premi`eres proprietes de la definition ? ?
3. K, x, y E, .(x y) = (.x) y = x (.y).
Exemples :
1. Si K est un sur-corps commutatif du corps k, alors K est une k-alg`ebre.
Il est a` noter que la multiplication sert a` la fois comme loi interne et
comme loi externe.
2. Mn (k) est une k-alg`ebre pour les lois usuelles definies sur lensemble
des matrices carrees dordre n.
27
28
Chapitre 3
Les corps des reels et des complexes
3.1
Nombres reels
Cest en cela que R est convenable, car A = {x Q+ / x2 < 2} est une partie
non vide et majoree de Q mais sans borne superieure dans Q, alors que A est a
fortiori
majoree dans R et admet dans R une borne superieure, a` savoir justement
2.
THEOREM 3.3 (des segments embotes)
Soit (Tn )nN , o`u Tn = [an , bn ], une suite dintervalles fermes bornes, non
vides de R ; si (Tn )nN est decroissante (i.e. si n N, Tn+1 Tn ), alors
nN Tn est non vide. Si, de plus, limn+ (bn an ) = 0 alors cette intersection
se reduit a` un point.
Demonstration : consequence du precedent
Ce theor`eme est faux pour le corps Q, en prenant
par exemple pour an et bn
les valeurs approchees par defaut et par exc`es de 2 a` 10n pr`es.
3.2
3.2.1
Nombres complexes
Construction
a b
b a
, a, b R
(x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 )
.
(x, y).(x0 , y 0 ) = (xx0 yy 0 , xy 0 + x0 y)
Le lecteur verifiera a` la main que R2 muni de ces deux lois est bien un corps
commutatif, que R {0} en est un sous-corps isomorphe a` R que lon confondra
avec R. De plus i = (0, 1) verifie i2 + 1 = 0. Tout couple (x, y) de reels peut alors
secrire (x, y) = x + iy avec i2 = 1. En conclusion :
THEOREM 3.4 Il existe un corps commutatif C, contenant un sous-corps isomorphe a` R, tel que C soit un R-espace vectoriel de dimension 2, dans lequel il
30
existe une base (1, i) avec i2 = 1. Ainsi tout e lement z de C secrit de mani`ere
unique sous la forme z = a + ib, avec a, b R. C sappelle corps des nombres
complexes.
DEFINITION 3.1 Soit z = a + ib C, a, b R,
1. a sappelle la partie reelle de z et se note Re(z), b sappelle la partie imaginaire de z et se note Im(z), a + ib sappelle alors la forme algebrique de
z.
2. Re et Im sont des applications lineaires de C sur R, i.e. :
<(z + z 0 ) = <(z) + <(z 0 ) et =(z + z 0 ) =
Im(z)+
Im(z 0 )
z, z 0 C, R,
<(z) = <(z) et
Im(z) =
Im(z)
3. on appelle nombre complexe conjugue de z, et on note z, le nombre complexe defini par z = a ib. Lapplication z 7 z est un automorphisme
involutif du corps C, i.e. :
z, z 0 C, z + z 0 = z + z0 , zz 0 = zz0 et z = z.
4.
<(z) =
1
(z + z),
2
1
(z z)
2i
z R z = z
Im(z) = 0
z iR z =
z <(z) = 0.
Im(z) =
PROPOSITION 3.1
1. Si z R, |z| nest autre que la valeur absolue de z ;
il ny a donc pas incompatibilite de notation
31
2. z R, <(z) |z| et
Im(z) |z|
3. |z| = 0 z = 0
0
0
|zz
| =1|z| |z |
1
= si z 6= 0
|z|
4. z, z 0 C, z
|z + z 0 | |z| + |z 0 |
|
z | = |z|
5. Si z C , z 1 =
z
.
|z|2
2. soit z = a +
ib C, a, b R, on a alors |z| =
a |a| a2 + b2 , idem pour b
z z =
a2 + b2 , do`u
3. |z| = 0 |z|2 = 0 z z = 0 (z = 0) ou (
z = 0) z = 0
|zz 0 |2 = zz 0 zz 0 = zzz 0 z0 = |z|2 |z 0 |2
prendre z 0 = z1
4.
|z + z 0 |2 = (z + z 0 )(
z + z0 ) = z z + z z0 + zz 0 + z 0 z0 = |z|2 + 2<(z z0 ) + |z 0 |2
or <(z z0 ) |z z0 | = |z| |z 0 | do`u |z + z 0 |2 (|z| + |z 0 |)2
5. zz = |z|2 donc si z 6= 0 on en deduit z |z|z2 = 1, i.e. z 1 =
z
|z|2
DEFINITION 3.3 Soit U = {z C, |z| = 1}, alors dapr`es les deux derni`eres
proprietes U est muni dune structure de groupe multiplicatif ; on lappelle groupe
unite de C.
3.2.2
Interpretation geometrique
Soit P un plan euclidien reel rapporte a` une base orthonormee, P sera considere
comme e tant muni a` la fois de sa structure vectorielle et de sa structure affine.
DEFINITION 3.4 Soit z = x + iy un nombre complexe quelconque e crit sous
OM 0, alors z + z 0 est laffixe du vecteur OM + OM 0 . Faire un dessin pour sen
convaincre !
32
z
DEFINITION 3.5 Soit z C , alors |z|
U ; on appelle Argument de z langle
z
Le nombre complexe nul ne poss`ede pas dargument. Il est tout a` fait fondamental de remarquer que tout nombre complexe non nul poss`ede un argument,
mais une infinite darguments definis a` 2k pr`es.
y
x
Soit un argument de z = x + iy 6= 0, on a z = |z| ( |z|
+ i |z|
). Ainsi, z peut
secrire :
z = x + iy = |z| (cos + i sin ).
Cette derni`ere e criture sappelle forme trigonometrique du nombre complexe
z non nul. Il est donc facile de passer de la forme algebrique a` la forme trigonometrique, mais en general la determination exacte dun tel angle ne conduit
pas a` des calculs algebriques.
PROPOSITION 3.2 Soient z, z 0 C e crits sous forme trigonometrique :
z = |z| (cos + i sin ), z 0 = |z 0 | (cos 0 + i sin 0 ),
alors :
en dautres termes :
arg(zz 0 ) arg(z) + arg(z 0 )[2]
.
arg(z 1 ) arg(z)[2]
Demonstration : e vident, car resulte des formules classiques de trigonometrie
cos( + 0 ) = cos cos 0 sin sin 0
.
sin( + 0 ) = sin cos 0 + cos sin 0
THEOREM 3.5 (formule de Moivre)
Soit z = |z| (cos + i sin ) un nombre complexe non nul, alors pour tout
entier relatif n on a :
z n = |z|n (cos n + i sin n).
Demonstration : a` laide dun raisonnement par recurrence, aussi bien pour n 0
que pour n < 0, a` laide des proprietes precedentes.
On convient de noter tout nombre complexe de module 1 sous la forme z = ei
(exponentielle complexe), o`u est un Argument de z. Les formules precedentes
prennent alors la forme simple suivante :
0
ei ei
ei + ei
et sin =
2
2i
3.2.3
do`u r = et 2 [] (ne pas perdre de vue que r > 0) et donc
z 0 = ei 2 et z 00 = ei( 2 +) = ei 2
THEOREM 3.7 Soit az 2 + bz + c = 0, a 6= 0, une e quation du second degre a`
coefficients dans C, alors si = b2 4ac 6= 0 cette e quation admet deux racines
distinctes, et si = 0 elle admet une racine double.
Demonstration :
a(z 2 + ab z + ac ) = 0
b 2
b2
) + ac 4a
az 2 + bz + c = 0 (z + 2a
2 = 0
b 2
b2 4ac
(z + 2a ) = 2a = (2a)
2
donc dapr`es le theor`eme precedent, si 6= 0 il admet deux racines carrees
opposees et et lon en deduit les deux racines z 0 = b+
et z 00 = b
,
2a
2a
b
et si = 0 il existe alors une racine double qui vaut 2a
La resolution est donc formellement la meme que dans le cas reel, a` la recherche des racines carrees de pr`es. En particulier, si a, b, c sont reels et si
est positif ou nul, la resolution est exactement la meme. Par contre, si est strictement negatif, a deux racines carrees complexes opposees qui sont imaginaires
pures. Lequation az 2 + bz + c = 0 a ainsi deux racines complexes conjuguees.
Exemple : resoudre lequation z 2 + z + 1 = 0
On a = 1
4
=
3,
do`
u
=
i
3 et les racines sont z 0 =
3
.
z 00 = 1i
2
1+i 3
2
et
zk = n exp(i(
2k
+
)), k Z,
n
n
35
2k 0
2k
[2] k k 0 [n],
n
n
2(n 1)i
2i
), ..., exp(
).
n
n
36
Chapitre 4
Polynomes et fractions rationnelles
4.1
Polynomes
4.1.1 Structure
DEFINITION 4.1 Soit K un corps commutatif, on appelle polynome a` coefficients dans K toute suite P = (an )nN delements de K telle que :
n0 N, n > n0 , an = 0.
Donc, si P = (an )nN est un polynome a` coefficients dans K, lensemble
{i N, ai 6= 0} est un ensemble fini que lon appelle support du polynome P,
ai sappelle le coefficient dindice i du polynome P. Si tous les coefficients du polynome P, sauf un, sont nuls, on dit que P est un monome. Si tous les coefficients
sont nuls, on dit que P est le polynome nul que lon notera encore 0.
On rappelle enfin que legalite de deux polynomes est definie par legalite des
suites, i.e. par legalite de tous les coefficients dindices correspondants.
Lensemble des polynomes a` coefficients dans K se note K[X]. Cette notation
recevra sa justification ulterieurement.
DEFINITION 4.2 Soit P K[X] un polynome non nul, on appelle degre du
polynome P, et on note d P , lindice du coefficient non nul dindice le plus e leve.
Cette definition a bien un sens, car si P est un polynome non nul, son support est une partie finie non vide de N, il admet donc un plus grand e lement. On
convient de noter d 0 = .
THEOREM 4.1 Muni des lois induites par celles definies sur lensemble des
suites a` valeurs dans K, K[X] a une structure de K-espace vectoriel.
Demonstration : le verifier en exercice
37
Cette multiplication nest donc pas la multiplication terme a` terme des suites.
THEOREM 4.2 Soit K un corps commutatif, K[X] muni des lois precedentes a
une strucutre de K-alg`ebre commutative.
Demonstration : dapr`es le theor`eme precedent K[X] est dej`a un K-espace vectoriel. Le produit de polynomes est bien une loi interne car le support de PQ
est inclus dans la somme des supports de P et Q, au sens de la somme de
deux parties de N. En effet, pour que cn soit non nul, il est necessaire quil
existe deux entiers i et j tels que i+j = n et ai 6= 0, bj 6= 0. Il reste a` verifier
tous les axiomes un a` un : on indique simplement comment demontrer lassociativite du produit. Soient
P P = (an ), Q = (bn ), R = (cn ), alors P Q =
(d
)
avec
h
N
,
d
=
h
j , (P Q)R = (en ) avec
Ph
Pi+j=h ai bP
P n N , en =
h+m=n dh cm donc en =
h+m=n (
i+j=h ai bj )cm =
i+j+m=n ai bj cm .
Le seul point delicat est bien sur le dernier signe degalite, il convient
de bien le comprendre. Cette derni`ere e criture est symetrique par rapport
aux coefficients des polynomes P, Q, R. La commutativite du produit e tant
e vidente, lassociativite en resulte. On remarque enfin que lon a :
P, Q K[X], K, (P Q) = (P )Q = P (Q)
THEOREM 4.3 Soient P et Q deux e lements quelconques de K[X], on a :
d (P + Q) max(d P, d Q), et si d P 6= d Q alors d (P + Q) = max(d P, d Q)
d (P Q) = d P + d Q.
Demonstration : la formule pour la somme est e vidente, on ne demontre que celle
pour le produit. Le resultat est clair si lun au moins des polynomes est le
polynome nul. On suppose donc P et Q non nuls et on appelle p et q leur
degre respectif : P = (an ), Q = (bn ), ap 6= 0, bq 6= 0, i > p ai = 0,
38
P
j > q bj = 0. Par definition P Q = (cn ) avec n N , cn = i+j=n ai bj .
Si n > p + q, i p et i + j = n entranent j > q et donc la somme qui
definit cn ne contient que des termes nuls. Si n = p + q, i < p et i + j = n
entranent j > q et par consequent cp+q = ap bq 6= 0. PQ est donc de degre
p + q, indice du coefficient non nul de plus grand indice
On remarque alors que les e lements inversibles de K[X] sont les polynomes
de degre 0. En effet, P Q = 1 entrane d P + d Q = 0, donc d P = d Q = 0
et (a0 , 0, ...)(b0 , 0, ...) = (1, 0, ...) a0 b0 = 1. Par consequent (a0 , 0, ...) est
inversible si et seulement si a0 est non nul.
Enfin, lapplication : K K[X] definie par (a) = (a0 , 0, ...) est un
morphisme injectif dalg`ebres. Dans la suite de ce chapitre on confondra K avec
lensemble des polynomes de degre au plus zero, appeles polynomes constants.
Il ny a aucun risque dambigute car lecriture P a le meme sens, que soit
considere comme scalaire ou comme polynome constant.
4.1.2
Notation definitive
ai ei
iN
X sappelle indeterminee. Attention, il ne sagit pas dune variable mais dun polynome particulier. Lavantage de cette notation est sa commodite demploi pour
les operations mais ne doit pas faire confondre une e criture telle que a0 +a1 X = 0
avec une e quation en X.
On e crira dorenavant un polynome P sous lune des formes e quivalentes suivantes :
P = a0 + a1 X + ... + an X n = an X n + ... + a1 X + a0 .
39
La premi`ere e criture sappelle ordonnee suivant les puissances croissantes et la seconde suivant les puissances decroissantes. Par convention, dans une telle e criture,
on supposera, si cela est possible, que an 6= 0, donc n representera le degre du polynome P.
Lorsque an = 1, on dit que le polynome P est unitaire ou mieux normalise. Le
produit de deux polynomes normalises est encore normalise (mais pas la somme,
en general).
Les e critures precedentes rendent plus visible le fait que K[X] est un K-espace
vectoriel et que (X i )iN en est une base. De meme, si on designe par Kn [X]
lensemble des polynomes a` coefficients dans K de degre inferieur ou e gal a` n,
Kn [X] est un K-espace vectoriel et (1, X, ..., X n ) en est une base (de cardinal :
n + 1).
4.1.3
Divisibilite
4.1.4
Fonction polynome
sont premiers entre eux, P est donc divisible par le produit (X a)(X
a) = X 2
2
2<(a)X +|a| R[X]. On peut alors e galement preciser le theor`eme ? ? : les seuls
polynomes irreductibles de R[X] sont les polynomes de degre 1 et les polynomes
de degre 2 sans zero reel, i.e. dont le discriminant est strictement negatif. D`es lors,
si P est un polynome de R[X] de dgre n, il existe n + 1 reels non necessairement
distincts tels que :
P = (X x1 )...(X xp )(X 2 2a1 X + b1 )...(X 2 2aq X + bq )
avec i [1, q], a2i bi < 0 et p + 2q = n. On peut de meme regrouper les termes
identiques.
4.1.5
THEOREM 4.8 Il existe une unique application lineaire D de K[X] dans K[X]
verifiant :
1. D(X) = 1
2. P, Q K[X], D(P Q) = D(P ).Q + P.D(Q).
Demonstration : par hypoth`ese, D est lineaire donc D est parfaitement determinee
par la connaissance des transformes dune base. Il suffit donc de connatre
la valeur de D(X p ) pour tout entier p. Pour p = 0, on a X = 1.X do`u
D(X) = D(1).X + 1.D(X), or D(X) = 1 et par suite D(1) = 0. Pour
p = 1, on a par hypoth`ese D(X) = 1 = 1.X 0 . On suppose ainsi que lon a
D(X p1 ) = (p 1)X p2 , alors par hypoth`ese :
D(X p ) =
=
=
=
D(X.X p1 )
D(X).X p1 + XD(X p1 )
X p1 + (p 1)X p1
pX p1 .
Par consequent, pour tout entier p on a prouve par recurrence que D(X p ) =
pX p1 , ce qui demontre lexistence et lunicite de D
Pn
i
On appelle
cette
application
d
e
rivation
dans
K
et
si
P
=
i=0 ai X alors
Pn
D(P ) = i=1 iai X i1 .
Si K = R, la derivation est formellement identique a` la derivation des fonc^) = P 0 . On e crira donc P au lieu de D(P). De meme,
tions polynomes, i.e. D(P
on e crira P au lieu de D(D(P)) et par recurrence P (n) pour la derivee de la derivee
(n 1)-`eme du polynome P. Par convention, P (0) designera le polynome P.
PROPOSITION 4.2 Soient Pn = (X a)n , a K et n un entier naturel, on a :
44
(k)
1. k < n, Pn (a) = 0
(n)
2. Pn (a) = n!
(k)
3. k > n, Pn (a) = 0.
Demonstration : par recurrence sur le degre n et en calculant.
THEOREM 4.9 (Formule de Taylor)
Soient P K[X] tel que d P n et a K, la famille (1, X a, (X
a)2 , ..., (X a)n ) est une base de Kn [X]. P est donc combinaison lineaire des
e lements de cette famille et on a :
P 0 (a)
P 00 (a)
P (n) (a)
P = P (a) +
(X a) +
(X a)2 + ... +
(X a)n .
1!
2!
n!
Demonstration : on sait dej`a que (1, X, ..., X n ) est une base de Kn [X]. La famille donnee dans lenonce comporte n + 1 polynomes, il suffit de verifier
quil sagit dune famille libre pour demontrer que cest une base. Soit
0 + 1 (X a) + ... + n (X a)n = 0 une combinaison lineaire nulle
de cette famille, le seul terme en X n est n X n do`u n = 0. Le seul terme
en X n1 est alors n1 X n1 do`u n1 = 0, etc... de proche en proche on
demontre ainsi que tous les coefficients 0 , ..., n sont nuls. Il existe donc
une famille unique delements de K telle que :
P = 0 + 1 (X a) + ... + n (X a)n .
Il suffit alors dappliquer la proposition precedente pour obtenir :
i [0, n], P (i) (a) = i i!,
do`u le resultat en divisant par i !
PROPOSITION 4.3 a K est un zero dordre de P si et seulement si on a :
P (a) = P 0 (a) = ... = P (1) (a) = 0, P () (a) 6= 0.
Demonstration : e vident dapr`es la forme meme de la formule de Taylor.
4.2.1
Structure
Une fraction rationnelle F est une classe de couples de polynomes (P, Q) avec
Q 6= 0. Si (P, Q) est un representant quelconque de F, on convient decrire :
P
F = .
Q
On a alors la relation dequivalence suivante :
P1
P
=
P Q1 = QP1 .
Q
Q1
P1
P
Soit D le PGCD de P et Q, on peut e crire P = DP1 et Q = DQ1 et alors Q
=Q
1
avec P1 et P2 premiers entre eux. On en deduit :
DEFINITION 4.9 Soit F une fraction rationnelle de K(X), tout representant de F,
P1
e crit Q
, tel que P1 et Q1 soient premiers entre eux sappelle forme irreductible de
1
F. Si de plus Q1 est normalise, cette representation est unique et sappelle la forme
reduite de F. P1 et Q1 sappellent respectivement numerateur et denominateur de
F.
P
THEOREM 4.10 Soient F une fraction rationnelle non nulle de K(X) et Q
un
representant quelconque de F, alors d P d Q est independant du representant
choisi de F. On lappelle degre de la fraction rationnelle F. Cest un e lement de
Z.
P1
P
Demonstration : en effet, si F = Q
= Q
, on a P Q1 = P1 Q et par consequent
1
d P +d Q1 = d P1 +d Q, do`u d P d Q = d P1 d Q1 ; on conviendra,
comme pour les polynomes, de poser d 0 =
DEFINITION 4.10 Soit F une fraction rationnelle de K(X) e crite sous forme
irreductible, on appelle pole de F tout zero de son denominateur. On dira de
meme que a K est un pole dordre de F si a est un zero dordre de son
denominateur.
Attention, il est indispensable dans la definition precedente de choisir un representant
irreductible, sinon on risque, en introduisant des facteurs inopportuns, dintroduire
en meme temps des faux poles parasites.
4.2.2
Fonctions rationnelles
DEFINITION 4.11 Soit F une fraction rationnelle de K(X) e crite sous forme
P
irreductible Q
, on appelle domaine de definition de F et on note Def(F) lensemble des e lements de K qui ne sont pas poles de F. On appelle fonction rationnelle associee a` F lapplication F de Def(F) dans K definie par :
P (x)
x Def (F ), F (x) =
.
Q(x)
46
1
Attention, la fraction rationnelle F = X1
de R(X) admet 1 pour pole. La
fonction rationnelle associee nest donc pas definie en 1. Mais il serait absurde
de dire que F nest pas definie en 1. En effet, X est une indeterminee et non une
variable, lecriture de F est formelle.
Si K est un corps contenant une infinite delements (par exemple R ou C),
le domaine de definition de F contient necessairement une infinite delements,
puisque le nombre de poles est fini.
THEOREM 4.11 Soit K un corps infini, lapplication qui a` toute fraction rationnelle associe la fonction rationnelle correspondante est injective.
Demonstration : soient F et G deux fractions rationnelles de K(X) telles que
alors Def (F ) = Def (G) et la fraction rationnelle F G est
F = G,
definie au moins sur Def(F) (en effet, en reduisant au meme denominateur
F G, il peut se faire que des facteurs se simplifient et fassent disparatre
est donc la fonction nulle sur Def(F), or Def(F) est un
des poles) ; F G
ensemble infini, le numerateur de F G admet donc une infinite de zeros,
il sagit par consequent du polynome nul, ce qui demontre que F G = 0,
i.e. F = G
4.2.3
P
P
= 1
.
Q
Q1 ...Qp p
Il existe une famille unique de polynomes (E, N11 , ..., N11 , N21 , ..., N22 , ..., Np1 , ..., Npp )
telle que :
Npp
N11
N11
Np1
+ ... + 1 + ... +
+ ... + p
F =E+
Q1
Q1
Qp
Qp
47
E + Q , avec d R < d Q.
P
Q
On peut alors appliquer lhypoth`ese de recurrence a` la seconde fraction rationnelle, ce qui ach`eve la preuve
LEMMA 4.4 Soit F = QP , N , avec d P < .d Q ; il existe une unique
famille de polynomes (P1 , ..., P ) telle que :
F =
P1
P2
P
+ 2 + ... +
Q
Q
Q
et i [1, ], d Pi < d Q.
Demonstration : on raisonne par recurrence sur le nombre entier . Le resultat est
assez clair pour = 1. On suppose donc le resultat acquis jusqu`a lordre
P1
P
( 1). Lecriture QP = PQ1 + ... + Q
es mutiplication
1 + Q montre, apr`
des deux membres par Q , que P ne peut e tre que le reste de la division
euclidienne de P par Q. On effectue alors cette division :
P = Qq1 + P
avec d P < d Q. De plus, de d P < .d Q on deduit d q1 < ( 1).d Q.
On peut donc e crire :
P
q1
P
= 1 +
Q
Q
Q
Q1 1 ...Qp p
Demonstration : soit F =
Ui
Qi i
P
P
=
.
Q
(X a1 ) 1 ...(X ap )p
49
Il existe un unique polynome E et une unique famille de scalaires (11 , ..., 11 , ..., p1 , ..., pp )
tels que :
pp
11
11
p1
F = E+
+ ... +
+...+
+ ... +
.
X a1
(X a1 )1
X ap
(X ap )p
Demonstration : il sagit simplement dune ree criture du theor`eme general, sachant que les seuls polynomes irreductibles de C[X] sont les polynomes
du premier degre et donc que les conditions d Nij < d Qi signifient par
consequent que Nij est un polynome constant.
kk
k1
E sappelle la partie enti`ere de F, Xa
+ ... + (Xa
sappelle la partie
k
k) k
polaire relative au pole ak .
Ce theor`eme affirme lexistence et lunicite de la decomposition dune fraction rationnelle sur C en somme delements simples. La partie enti`ere sobtient,
dapr`es le lemme 1, par division euclidienne du numerateur par le denominateur.
On supposera dans la suite de cette e tude que cette operation a e te effectuee et on
ne considerera plus que des fractions rationnelles de degre strictement negatif.
Puisque lexistence de la decomposition est acquise, on factorisera le denominateur
de la fraction rationnelle et on e crira la decomposition a` laide de coefficients
indetermines quil sagira de calculer le plus simplement et le plus rapidement
possible.
Methode universelle On reduit au meme denominateur la decomposition inconnue. En identifiant alors les numerateurs, on obtient un syst`eme lineaire comportant autant dequations que dinconnues, quil suffit de resoudre. Cette methode
nest conseillee que dans des cas tr`es simples ou de grande detresse.
Exemple : decomposer dans C(X) la fraction rationnelle F (X) =
1
.
1X 2
On e crit :
1
1
A
B
A + B + (A B)X
=
=
+
=
,
1 X2
(1 X)(1 + X)
1X 1+X
1 X2
do`u le syst`eme :
A+B = 1
AB = 0
i.e. A = B = 12 . On a donc :
1
1
=
2
1X
2
1
1
+
1X 1+X
50
P (X)
(X a)Q1 (X)
P (X)
A
P1 (X)
=
+
.
(X a)Q1 (X)
X a Q1 (X)
P (X)
P1 (X)
= A + (X a)
,
Q1 (X)
Q1 (X)
P (a)
.
1 (a)
Q
1
.
X(X1)(X2)
On e crit :
1
A
B
C
=
+
+
X(X 1)(X 2)
X X 1 X 2
et on applique trois fois la methode precedente.
On multiplie par X et on substitue a` X la valeur 0 : on obtient A = 21 .
On multiplie par (X 1) et on substitue a` X la valeur 1 : on obtient B = 1.
On multiplie par (X 2) et on substitue a` X la valeur 2 : on obtient C = 12 .
On remarque que le calcul effectif des multiplications ne se fait jamais.
51
P (X)
(X a) Q1 (X)
A1
A2
A
P1 (X)
+
+ ... +
+
.
2
X a (X a)
(X a)
Q1 (X)
P (X)
(X a) P1 (X)
= A1 (Xa)1 +...+A1 (Xa)+A +
,
Q1 (X)
Q1 (X)
P (a)
.
1 (a)
Q
1
.
(X1)2 (X2)
1
A
B
C
=
+
+
.
2
2
(X 1) (X 2)
X 1 (X 1)
X 2
P (X)
A1
A2
A
P1 (X)
=
+
+ ... +
+
(X a) Q1 (X)
X a (X a)
(X a)
Q1 (X)
on deduit :
P (X) = [A + A1 (X a) + ... + A1 (X a)1 ]Q1 (X) + (X a) P1 (X).
On effectue alors le changement dindeterminee Y = Xa, lecriture precedente
devient :
P (Y + a) = (A + A1 Y + ... + A1 Y 1 )Q1 (Y + a) + Y P1 (Y + a).
La partie polaire relative au pole a apparat alors e tre le quotient de la division
suivant les puissances croissantes de P (Y + a) par Q1 (Y + a) a` lordre 1, le
reste de cette division permettant dailleurs de determiner P1 .
Exemple : decomposer dans C(X) la fraction rationnelle F (X) =
1
.
(X1)3 (X+1)2
Lapplication des techniques anterieures ne permet dobtenir que deux des cinq
coefficients de la decomposition. On effectue alors une division suivant les
puissances croissantes. On pose Y = X 1, F (Y +1) = Y 3 (Y1+2)2 , do`u 1 =
3
3
(Y + 2)2 41 Y4 + 16
Y 2 + Y 3 12 16
Y , soit en revenant a` F (Y + 1) :
1
1
3
3
12 16
Y
1
4
4
16
=
+
+
3
2
3
2
Y (Y + 2)
Y
Y
Y
(Y + 2)2
et en revenant enfin a` X :
3
(X + 1) 18
16
1
1
3
+
+
4(X 1)3 4(X 1)2 16(X 1)
(X + 1)2
1
1
3
3
1
=
.
3
2
4(X 1)
4(X 1)
16(X 1) 16(X + 1) 8(X + 1)2
F (X) =
App X
A11 X
A11 X
A11 X
+ ... +
+
...
+
+
...
+
,
X a1
(X a1 )1
X a1
(X ap )p
|x|+
Les coefficients A11 , A21 , ..., Ap1 sappellent les residus de F. La relation precedente
est par consequent tr`es interessante, car tr`es facile a` obtenir, en particulier si on
connat tous les residus sauf un.
Si la fraction rationnelle est paire (ou impaire), lunicite de la decomposition
en e lements simples fait que cette symetrie doit apparatre dans cette decomposition,
ce qui reduit pratiquement de moitie le nombre de coefficients a` calculer.
Exemple : decomposer dans C(X) la fraction rationnelle F (X) =
X 2 +1
.
X(X1)2 (X+1)2
On e crit :
F (X) =
A
B
C
D
E
+
+
+
+
,
2
X X 1 (X 1)
X + 1 (X + 1)2
1
1
1
1
1
.
2
X
2(X 1) 2(X 1)
2(X + 1) 2(X + 1)2
P
Q
lecriture de Q en produit de polynomes irreductibles ; il existe un unique polynome E de R[X] et des familles uniques de reels (Aij ), i [1, m] et j [1, i ],
(Bkl ) et (Ckl ), k [1, n] et l [1, k ], tels que :
i
m
X
X
P (X)
Aij
= E(X) +
Q(X)
(X ai )j
i=1
j=1
k
n
X
X
k=1
l=1
Bkl X + Ckl
2
(X + pk X + qk )l
1
.
(X+1)(X 2 +1)
On e crit :
F (X) =
A
BX + C
(A + B)X 2 + (B + C)X + A + C
+
=
,
X +1
X2 + 1
(X + 1)(X 2 + 1)
1
2
ce qui donne :
1
1
X + 1
=
+
.
2
(X + 1)(X + 1)
2(X + 1) 2(X 2 + 1)
Cette methode devient tr`es vite inextricable.
Elements simples de premi`ere esp`ece Tout ce qui a e te dit dans le cadre complexe sapplique aussi bien dans le cas de poles simples que dans le cas de poles
multiples.
55
1
2
2
3
3
=
+
+
+
2
2
(X + 1)(X + X + 1)
X i X +i
X j X j2
et finalement :
X
X +1
+ 2
.
2
X +1 X +X +1
On peut aussi e crire directement la decomposition de F dans R(X) a` laide de
coefficients indetermines et on substitue a` X des valeurs complexes de la variable
associee.
F (X) =
X+2
.
(X+1)(X 2 +1)
i+2
3i
=
,
i+1
2
1
X + 3
+
.
2(X + 1) 2(X 2 + 1)
56
Chapitre 5
Espaces vectoriels
Dans ce chapitre et dans les suivants, K designera un corps commutatif quelconque. En pratique, on prendra le plus souvent K = R ou K = C.
5.1
Structure
DEFINITION 5.1 On appelle espace vectoriel sur K, ou encore K-espace vectoriel, tout ensemble E muni de deux lois :
1. une loi interne appelee addition, notee + telle que (E, +) soit un groupe
abelien
2. une loi externe, de domaine K, qui a` tout couple (, x) appartenant a` KE
fait correspondre un e lement de E note .x, cette loi verifiant les quatre
proprietes suivantes :
(a) x E, 1.x = x
(b) K, x, y E, .(x + y) = .x + .y
(c) , K, x E, ( + ).x = .x + .x
(d) , K, x E, ().x = .(.x).
Un espace vectoriel nest pas un ensemble : cest un ensemble muni de deux
lois verifiant certaines proprietes. Autrement dit, un espace vectoriel sur K est
un triplet (E, +, .), ce qui explique que, sur un meme ensemble, il peut y avoir
des structures despace vectoriel tout a` fait differentes...Pour autant, on emploiera
labus de langage courant : soit E un espace vectoriel.
Les e lements de E sont appeles vecteurs tandis que les e lements de K sont appeles scalaires. Il est une convention assez universellement repandue qui consiste
57
a` noter les vecteurs a` laide de lettres minuscules de lalphabet latin, et les scalaires a` laide de lettres minuscules de lalphabet grec. On manquera quelquefois
a` cette r`egle.
Lorsque K = R, on dira aussi espace vectoriel reel, et lorsque K = C, on
dira aussi espace vectoriel complexe.
Exemples :
1. Les ensembles des vecteurs de la droite, du plan et de lespace de la
5. Soient D un ensemble quelconque et A(D, K) lensemble des applications de D dans K, on munit A(D, K) des lois suivantes :
f, g A(D, K), f + g : x 7 f (x) + g(x)
f A(D, K), K, .f : x 7 .f (x).
Le lecteur pourra verifier que ces deux lois sont bien internes sur A(D,
K) et que muni de ces deux lois A(D, K) est un K-espace vectoriel,
appele espace des applications de D dans K. Lelement neutre pour
laddition est lapplication f0 : D K definie par x D, f0 (x) =
0. On dit que f0 est lapplication nulle et f0 sera desormais notee 0, ce
qui ne prete pas a` confusion. Lopposee dune application f est alors
lapplication de D dans K notee -f definie par x D, (f )(x) =
f (x). On peut noter les cas particuliers suivants :
(a) D = N , K = R, A(N, R) est lespace vectoriel reel des suites
reelles
(b) D = N , K = C, A(N, C) est lespace vectoriel complexe des
suites complexes
(c) D R, K = R, A(D, R) est lespace vectoriel reel des fonctions
numeriques, de variable reelle, definies sur le domaine D.
6. On peut generaliser lexemple precedent de la mani`ere importante suivante. Si D est un ensemble quelconque et si E est un K-espace vectoriel, A(D, E) peut e tre muni naturellement dune structure de K-espace
vectoriel.
7. Il se trouve que si E est un espace vectoriel sur un corps commutatif K
et si k est un sous-corps de K, la restriction de loperation externe de
KE a` kE munit E dune structure despace vectoriel sur le corps
k. Le lecteur pourra en effet verifier que toutes les proprietes sont
conservees. Autrement dit, tout espace vectoriel sur un corps K est
aussi un espace vectoriel sur tout sous-corps k de K. Ainsi C, qui est
un C-espace vectoriel, est aussi un R-espace vectoriel et un Q-espace
vectoriel. Mais ces trois structures doivent e tre tr`es soigneusement distinguees, le lecteur pourra se rendre compte par la suite que le corps de
base a une importance fondamentale dans la structure despace vectoriel.
La proposition suivante montre quil ny a absolument aucune surprise et que
lon calcule en fait comme dans toute structure algebrique classique.
PROPOSITION 5.1
1. (x, y) E, K, (x y) = x y
59
2. K, 0 = 0
3. y E, K, (y) = y
4. x E, (, ) K, ( )x = x x
5. x E, K, ()x = x
6. x E, 0x = 0
7. x E, K, (x = 0) ( = 0 ou x = 0).
Demonstration : le lecteur est invite a` examiner les axiomes utilises pour demontrer
cette proposition
1. en effet, (x y) + y = ((x y) + y) = x
2. on fait x = y dans 1.
3. on fait x = 0 dans 1.
4. en effet, ( )x + x = (( ) + )x = x
5. on fait = 0 dans 4.
6. on fait = dans 4.
7. on suppose x = 0 : si = 0 cest bon, sinon est inversible dans le
corps K et on a par multiplication 1 (x) = 1 0 = 0 do`u 1x = 0
et donc x = 0 ; la reciproque est triviale, il sagit de 2. et 6.
DEFINITION 5.2 Soit (x1 , ..., xn ) un n-uplet de vecteurs dun K-espace vectoriel E, un vecteur x E est dit combinaison lineaire des vecteurs x1 , ..., xn si
lon peut trouver un n-uplet (1 , ..., n ) de scalaires tel que :
x = 1 x1 + 2 x2 + ... + n xn .
Le lecteur notera d`es maintenant quil na pas e te dit que les vecteurs x1 , ...,
xn sont deux a` deux distincts, i.e. on admet volontiers les repetitions. On admet
de plus que certains des scalaires 1 , ..., n (ou meme tous) puissent prendre la
valeur 0. En particulier, i [1, n], xi est combinaison lineaire de (x1 , ..., xn ) car
xi = 0x1 + ... + 0xi1 + 1xi + 0xi+1 + ... + 0xn .
Exercice : dans R3 on consid`ere les deux vecteurs A = (1, 1, 1) et B =
(1, 3, 1)
1. rechercher si lun des vecteurs suivants, C = (1, 2, 3), D = (1, 0, 2),
E = (0, 1, 1) est combinaison lineaire des vecteurs A et B
2. soit X = (x, y, z) un e lement quelconque de R3 , quelle relation doit-il
exister entre x, y, z pour que X soit une combinaison lineaire de A et
B ? (reponse : 2x + y z = 0).
60
5.2
Sous-espaces vectoriels
5.3
Applications lineaires
Le lecteur aura surement remarque que toute structure a ses morphismes. Les
morphismes sont ici des applications qui respectent la structure de K-espace vectoriel. Il est donc tout a` fait normal de poser la definition suivante, qui ne contient
en fait quune precision de vocabulaire.
DEFINITION 5.4 Soient E et F deux K-espaces vectoriels, on appelle morphisme,
ou encore application K-lineaire de E dans F, toute application f : E F
verifiant les deux conditions suivantes :
x, y E, f (x + y) = f (x) + f (y)
x E, K, f (.x) = .f (x).
Si F = K, une application lineaire de E dans K prend le nom de forme lineaire.
Les terminologies en vigueur fonctionnent encore dans le cadre des K-espaces
vectoriels :
1. si E = F , on dit que f est un endomorphisme de E
2. si E et F sont quelconques et f bijective, on dit que f est un isomorphisme
de K-espaces vectoriels
3. si E = F et f bijective, on dit que f est un automorphisme de E
4. en outre, sil existe un isomorphisme entre deux K-espaces vectoriels E et
F, on dit que E et F sont isomorphes.
On introduit alors les notations suivantes :
1. lensemble des applications K-lineaires de E dans F est note LK (E, F), ou
encore L(E, F) si aucune confusion nest a` craindre
2. lensemble des isomorphismes de E sur F est note Iso(E, F)
63
EE
.
x 7 .x
E F G;
alors lapplication composee gf de E dans G est encore une application lineaire,
i.e. :
(f L(E, F ) et g L(F, G)) g f L(E, G).
Demonstration : on emploie le crit`ere de la proposition ? ? :
= g(f (x + y))
= g(f (x) + f (y))
, K, x, y E, g f (x + y)
= g(f (x)) + g(f (y))
= g f (x) + g f (y)
PROPOSITION 5.5 Soient E et F deux K-espaces vectoriels et f un isomorphisme de E sur F, lapplication f1 de F sur E est encore une application lineaire.
Autrement dit, f1 est un isomorphisme de F sur E.
Demonstration : on pose , K, u, v F , x = f 1 (u) et y = f 1 (v), ce
qui a bien un sens puisque f est bijective, ce qui secrit encore u = f (x) et
v = f (y) ; on a alors :
= f 1 (f (x) + f (y))
= f 1 (f (x + y))
f 1 (u + v)
= x + y
= f 1 (u) + f 1 (v)
On remarque que si E et F sont deux K-espaces vectoriels, lensemble L(E,
F) des applications K-lineaires de E dans F est une partie de lensemble A(E, F)
de toutes les applications de E dans F. Or F est un K-espace vectoriel, A(E, F)
est donc muni, de facon naturelle, dune structure de K-espace vectoriel. Tous les
espoirs sont donc permis.
THEOREM 5.2 Soient E et F deux K-espaces vectoriels, alors lensemble L(E,
F) est un sous-espace vectoriel de A(E, F). Autrement dit, L(E, F) et donc aussi
L(E) sont des K-espaces vectoriels.
Demonstration : on emploie le troisi`eme crit`ere des sous-espaces vectoriels du
theor`eme ? ?.
65
5.4
Le lecteur est invite a` constater de lui-meme que la reunion de deux sousespaces vectoriels dun K-espace vectoriel nest pas en general un sous-espace
67
vectoriel. Pour remedier a` cet inconvenient, on va remplacer lunion des sousespaces vectoriels par une operation plus convenable qui est la somme des sousespaces vectoriels.
DEFINITION 5.5 On appelle somme
sous-espaces vectoriels E1 , ..., En la
Pdes
n
partie, notee E1 + ... + En ou mieux i=1 Ei , formee des e lements de E qui sont
de la forme x1 + ... + xn o`u x1 E1 , ..., xn En . Autrement dit :
x
n
X
i=1
E1 E2 ... En E
.
(x1 , x2 , ..., xn ) 7 x1 + x2 + ... + xn
On conserve lesP
notations precedentes. On a dej`a remarque que la decomposition
dun e lement x ni=1 Ei nest pas necessairement unique. Le lecteur se doute
donc que pour avoir toujours lunicite, il doit exister un concours de circonstances favorables, qui va conduire a` la notion de somme directe, et a` diverses
caracterisations, puis a` celle de sous-espaces supplementaires.
DEFINITION 5.6 Soient E un K-espace vectoriel et E1 , ..., En (n 1) n sousespaces vectoriels de E, on dit que la somme
Pn E1 + ... + En est directe, et on note
E1 ... En , si tout x appartenant a` i=1 Ei admet une decomposition unique
sur les sous-espaces vectoriels E1 , ..., En .
PROPOSITION 5.6 Avec les notations de la definition precedente, on a lequivalence
suivante :
E1 ...En (x1 , ..., xn ) E1 ...En , x1 +...+xn = 0 x1 = ... = xn = 0.
Demonstration : () on sait que 0 admet une decomposition unique sur les Ei ,
or on a les deux e galites :
x1 + ... + xn = 0 et 0 + ... + 0 = 0
do`u i [1, n], xi = 0.
P
() soit x ni=1 Ei , on suppose que lon a deux decompositions de x :
x = x1 + ... + xn = y1 + ... + yn
avec i [1, n], xi Ei , yi Ei . Alors, par soustraction, on obtient :
0 = (x1 y1 ) + ... + (xn yn ).
Les Ei e tant des sous-espaces vectoriels de E, on a xi yi Ei pour tout i
[1, n], donc par hypoth`ese xi yi = 0, i [1, n], ce qui demontre que les
deux decompositions sont identiques, do`u lunicite de la decomposition
THEOREM 5.6 (cas de deux sous-espaces vectoriels)
Soient E un K-espace vectoriel et E1 , E2 deux sous-espaces vectoriels de E,
on a lequivalence :
E1 E2 E1 E2 = {0}.
Demonstration : () soit x E1 E2 , on doit montrer que x est nul, or x admet
deux decompositions sur les sous-espaces vectoriels E1 et E2 , a` savoir :
x=x+0=0+x
avec (x, 0) E1 E2 et (0, x) E1 E2 . Lunicite de la decomposition
entrane donc bien x = 0.
69
E1 E2 ... En E
.
(x1 , x2 , ..., xn ) 7 x1 + x2 + ... + xn
E = E1 + E2
.
E1 E2 = {0}
5.5
Projections et projecteurs
73
75
76
Chapitre 6
Generation et liberte
Les deux notions presentees ici, lindependance lineaire et la generation, sont
les deux poles de la theorie des espaces vectoriels. Ces deux notions ne sont
pas simples et les liens qui les unissent sont loin detre e vidents. Si de surcrot
on cherche a` tout exprimer en termes de familles, les e nonces salourdissent, les
demonstrations sallongent et le niveau dabstraction sel`eve. En consequence, il
est indispensable, pour tirer quelque profit de letude theorique generale, de commencer par les situations les plus simples decrites par un petit nombre de vecteurs,
sans lesiner sur les calculs explicites.
6.1
Preliminaires
Dans cette section, lessentiel sera decrit pour un triplet de vecteurs. Il est
vivement conseille au neophyte de bien comprendre ces preliminaires. Le lecteur
plus aguerri peut ignorer cette section.
6.1.1
Si les vecteurs x1 , x2 , x3 sont deux a` deux distincts, on dit encore que la partie
{x1 , x2 , x3 } est une partie generatrice de F.
On laisse au lecteur le soin damenager un texte analogue dans le cas dun
vecteur, dun couple, dun quadruplet, etc...
Demonstration :
1. F 6= car pour 1 = 2 = 3 = 0 on trouve 0 F . De plus, soient
x, y F , alors x = 1 x1 + 2 x2 + 3 x3 et y = 1 x1 + 2 x2 + 3 x3 ,
donc pour tous , K on a x + y = (1 + 1 )x1 + (2 +
2 )x2 + (3 + 3 )x3 F
2. F contient x1 , en prenant 1 = 1 et 2 = 3 = 0 ; idem pour x2 et x3
3. soit F un sous-espace vectoriel de E contenant x1 , x2 , x3 , alors F est
stable pour les deux lois et donc, pour tous scalaires 1 , 2 , 3 on a
1 x1 + 2 x2 + 3 x3 F 0 . F est donc bien le plus petit possible pour
linclusion
Exemples :
1. Soient E = R3 , e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1), alors
(e1 , e2 , e3 ) engendre R3 mais (e1 , e2 ) engendre un sous-espace vectoriel strict de R3 .
2. Soit x E, x 6= 0, alors hxi = {x, K} sappelle une droite
vectorielle de E.
Exercices :
1. Soient E = R3 et F = {(x, y, z) R3 , 2x y + 2z = 0}
(a) Montrer que F est un sous-espace vectoriel de E, trouver un couple
generateur de F. Ya-t-il unicite dun tel couple ?
(b) Soit X = (2, 2, 1), montrer que X F mais que hXi
F.
6.1.2
Independance lineaire
79
6.1.3
6.2
Introduction
Demonstration : on sait que A(I, K) est un K-espace vectoriel pour les lois
usuelles, il suffit donc de verifier la stabilite de K (I) par combinaison lineaire
de deux e lements. Or si (i )iI et (i )iI sont deux familles a` support fini,
pour tous , e lements de K (i +i )iI est clairement a` support fini, son
support e tant inclus dans la reunion des deux supports (i.e. lensemble des
indices pour lesquels le scalaire associe est non nul) de (i )iI et (i )iI
DEFINITION 6.5 Soit (xi )iI une famille de vecteurs dun K-espace vectoriel
E, on dit quun vecteur x de E est combinaison lineaire de la famille (xi )iI sil
existe une famille (i )iI de scalaires, a` support fini, telle que :
X
x=
i x i .
iI
Une relation lineaire entre les xi est donc un e lement de K (I) . La famille triviale de scalaires est toujours une relation lineaire entre les xi . On lappelle la
relation triviale.
Exercice : Montrer que lensemble des relations lineaires entre les vecteurs de la
famille (xi )iI est un sous-espace vectoriel de K (I) .
On rappelle enfin que lon nomme sous-famille (resp. sur-famille) dune famille donnee toute restriction (resp. prolongement) de la famille en question. Enfin, dans le cas o`u I est fini, on appelle cardinal de la famille (xi )iI le cardinal de
I.
6.3
Generation
La technique decrite est standard. Elle fonctionne chaque fois que lon a une
stabilite par intersection et elle definit ce que lon appelle parfois une fermeture
de Moore.
THEOREM 6.2 Soit (Ei )iI une famille de sous-espaces vectoriels du K-espace
vectoriel E, lintersection de la famille (Ei )iI est un sous-espace vectoriel de E.
82
2. On dit que la famille (xi )iI est une famille generatrice de E si le sousespace vectoriel engendre par elle est E.
On remarque que le sous-espace vectoriel engendre par une partie A concide
avec le sous-espace vectoriel engendre par la famille canoniquement associee a` A,
ce qui fait le lien entre les deux notions.
Le lecteur a surement remarque que lors des preliminaires on a defini le sousespace vectoriel engendre par une famille en termes de combinaisons lineaires.
On doit donc faire le lien entre ces deux definitions.
THEOREM 6.4 Soit (xi )iI une famille dun K-espace vectoriel E, le sous-espace
vectoriel engendre par cette famille est lensemble des combinaisons lineaires de
la famille (xi )iI .
Demonstration : on doit donc montrer que lensemble des combinaisons lineaires
de la famille donnee est un sous-espace vectoriel de E et que ce sous-espace
vectoriel est le plus petit contenant tous les vecteurs xi . ToutP
dabord, pour
e viter un cas particulier, on convient que si I = , alors i xi = 0.
Lensemble des combinaisons lineaires de la famille (xi )iI contient donc
toujours le vecteur nul : si I 6= , on prend la famille triviale de scalaires.
Soient alors x, y deux combinaisons lineaires P
de la famille (xi )P
iI et ,
deux scalaires quelconques, on a donc x = PiI i xi , y =
iI i xi ,
(i )iI et (i )iI a` support fini, do`u x + y = iI (i + i )xi et la famille (i + i )iI est encore a` support fini. Lensemble des combinaisons
lineaires de la famille donnee est donc un sous-espace vectoriel de E qui
contient bien e videmment tous les xi : on prend i = 1 et si j 6= i, j = 0.
Enfin, si un sous-espace vectoriel de E contient tous les vecteurs de (xi )iI ,
par stabilite, il contient toutes les combinaisons lineaires de cette famille,
ce qui ach`eve la preuve
Le sous-espace vectoriel engendre par une partie A dun K-espace vectoriel E
est donc lensemble des combinaisons lineaires des e lements de A. Ainsi, hi =
{0} et si A 6= :
hAi = {x E, n N , 1 , ..., n K, x1 , ..., xn A, x =
n
X
i xi }.
i=1
Exercice : Soit (xi )iI une famille de vecteurs du K-espace vectoriel E, on consid`ere
lapplication :
K (I) E P
:
.
(i )iI 7 iI i xi
1. Montrer que est bien definie et que est lineaire
84
2. Montrer que est surjective si et seulement si (xi )iI est une famille
generatrice de E.
Le theor`eme precedent est dune tr`es grande importance. En effet, il affirme
que la connaissance dune famille (ou dune partie) generatrice de E permet de reconstituer lintegralite de lespace. Ceci explique la remarque : une partie generatrice
est dautant plus interessante quelle comporte le moins possible delements. On
cite donc la proposition, a priori sans interet, suivante.
PROPOSITION 6.7 Soit E un K-espace vectoriel, toute partie contenant une
partie generatrice de E est encore une partie generatrice de E. De meme, toute
sur-famille dune famille generatrice de E est encore une famille generatrice de
E.
Demonstration : e vident
Le theor`eme suivant est en revanche du plus haut interet, car il permet doter
des e lements dune famille generatrice.
THEOREM 6.5 Soient (xi )iI une famille generatrice du K-espace vectoriel E,
i0 I et J = I\{i0 }, la famille (xi )iJ est une famille generatrice de E si et
seulement si xi0 est combinaison lineaire de la famille (xi )iJ .
Demonstration : si (xi )iJ est generatrice, tout vecteur de E est combinaison
lineaire de cette famille et donc en particulier xi0 . Reciproquement, on suppose quil
P existe une famille de scalaires (i )iJ , a` support fini, telle que
xi0 =
iJ i xi . Soit alors x un vecteur quelconque, il existe
P donc une
`
famille dePscalaires (i )P
,
a
support
fini,
telle
que
x
=
iI
iI i xi =
i0 xi0 + iJ i xi =
iJ (i + i0 i )xi et la famille (i + i0 i )iJ
est encore a` support fini. (xi )iJ est donc bien une famille generatrice de
E
On cite enfin, pour memoire, une propriete dej`a vue des combinaisons lineaires,
generalement appelee transitivite.
PROPOSITION 6.8 Soient A, B, C trois parties dun K-espace vectoriel E, on
a:
A hBi et B hCi A hCi .
Demonstration : e vident
6.4
Liberte
Dapr`es les considerations precedentes, une famille generatrice ideale de E serait une famille telle que toutes ses sous-familles strictes ne soient plus generatrices.
85
Une telle famille generatrice est dite minimale. Mais on ne sait pas encore si de
tels e tres existent toujours, car le theor`eme ? ? ne permet deliminer des e lements
quun par un (`a mediter).
PROPOSITION 6.9 Soit (xi )iI une famille generatrice minimale, non vide, dun
K-espace vectoriel E, la seule relation lineaire entre les vecteurs de cette famille
est la relation triviale.
Demonstration : si (i )iI e tait une relation lineaire non triviale, il existerait un
indice i0 tel que i0 6= 0 et donc :
X
X i
i xi = 0 xi0 =
xi
i0
iI
i6=i
0
PROPOSITION 6.11 Soit (xi )iI une famille de vecteurs dun K-espace vectoriel E, les deux e nonces suivants sont e quivalents :
1. (xi )iI est une famille libre
2. x h(xi )iI i, !(i )iI K (I) , x =
iI
i xi .
i xi =
iI
i xi
iJ
par definition meme de ce symbole. Mais J est fini, donc par hypoth`ese
(xi )iJ est libre. On en deduit que i J, i = 0 et par definition du
support on a i I, i = 0. La famille initiale est bien libre
Exercices :
1. Montrer que la famille (X n )nN est libre dans K[X].
2. Soit fa lapplication reelle definie sur R par fa (x) = |x a|, montrer
que la famille (fa )aR est libre dans A(R, R).
3. Soit ga lapplication reelle definie sur R par g(x) = eax , montrer
que la famille (ga )aR est libre dans A(R, R). On proc`edera comme
precedemment et on pensera aux e quivalents au voisinage de linfini.
4. Pour tout entier strictement positif p, soient fp et gp les applications
reelles definies sur R par fp (x) = sin(px) et gp (x) = cos(px), montrer
que pour tout entier strictement positif n la famille (f1 , g1 , ..., fn , gn )
est une famille libre de A(R, R). On e tablira dabord le resultat pour
n = 1, puis on effectuera un raisonnement par recurrence en derivant
deux fois une combinaison lineaire nulle.
6.5
Base
Les deux sections precedentes font apparatre une race particuli`erement interessante
de familles, celles qui sont a` la fois libres et generatrices. On ne sait pas encore
si de telles familles existent toujours (on sait trouver des petites familles libres,
des grosses familles generatrices, mais entre les deux...). Cela ninterdit pas de
poser la definition.
DEFINITION 6.11 Soit E un K-espace vectoriel, on appelle base de E toute
famille de vecteurs de E qui est a` la fois libre et generatrice.
DEFINITION 6.12 On appelle partie basique de E toute partie de E qui est a` la
fois libre et generatrice.
88
La famille canoniquement associee a` une partie basique est une base et limage
dune base (au sens de limage dune famille) est une partie basique.
On insiste bien sur le fait quune base est une famille et non une partie. Le
lecteur sen convaincra lors du calcul matriciel.
La nature est bien faite. Tout espace vectoriel poss`ede au moins une base. La
demonstration de ce fort beau resultat repose sur laxiome du choix. On en donnera une demonstration elementaire dans un cas particulier au chapitre suivant.
THEOREM 6.7 (fondamental)
Soit (xi )iI une famille de vecteurs dun K-espace vectoriel E, les propositions
suivantes sont e quivalentes :
1. (xi )iI est une base de E
2. (xi )iI est une famille libre maximale (i.e. toute sur-famille stricte est liee)
3. (xi )iI est une famille generatrice minimale (i.e. toute sous-famille stricte
nest plus generatrice).
Demonstration : (1.2.) on sait dej`a que (xi )iI est libre, il reste a` montrer
quelle est maximale. Soient I J et (xi )iJ une sur-famille stricte de la famille initiale, pour j J\I xj est combinaison lineaire de la famille (xi )iI ,
puisque cette famille est generatrice. Il existe donc une relation lineaire non
triviale entre les xi , i J. La sur-famille nest donc pas libre.
(2.3.) on montre dabord que (xi )iI est generatrice. Soient x E et j un
indice nappartenant pas a` I, on consid`ere la famille indexee par I {j} et
definie par i I, i 7 xi et j 7 x. Cest une sur-famille de la famille
initiale, elle est donc liee. Il existe donc des scalaires presque tous nuls,
mais non tous nuls, tels que :
X
x +
i xi = 0.
iI
ne peut e tre nul car sinon la famille initiale serait liee par la relation
lineaire (i )iI . x est donc combinaison lineaire de la famille initiale. Le
reste est dej`a vu, car si la famille netait pas generatrice minimale, un des
vecteurs au moins serait combinaison lineaire des autres ( ? ?) et la famille
ne serait pas libre.
(3.1.) dej`a fait ( ? ?)
Linteret des bases est illustre par la proposition suivante qui a dej`a e te demontree
( ? ?).
PROPOSITION 6.12 Soit (xi )iI une base du K-espace vectoriel E, pour tout
vecteur x de E il existe une famille unique de scalaires presque tous nuls (i )iI
89
telle que :
x=
i x i .
iI
DEFINITION 6.13 La famille (i )iI sappelle famille des coordonnees du vecteur x relativement a` la base donnee et la famille (i xi )iI sappelle famille des
composantes du vecteur x relativement a` la base donnee.
Exemples :
1. Soient e1 = (1, 0) et e2 = (0, 1), (e1 , e2 ) est une base de R2 appelee
base canonique de R2 .
2. Plus generalement, dans Rn , on pose i [1, n], ei = (0, ..., 0, 1, 0, ..., 0),
le 1 au i-`eme rang. La famille (e1 , ..., en ) est une base de Rn appelee
base canonique de Rn .
3. (X n )nN est une base de K[X] encore appelee base canonique de
K[X].
4. Dans C considere comme R-espace vectoriel, (1, i) est une base. Estce une base du C-espace vectoriel ? Moralite ?
Exercice (important) : Soient E un K-espace vectoriel et E1 et E2 deux sousespaces vectoriels supplementaires, montrer que si A est une partie basique
de E1 et B une partie basique de E2 , alors A B est une partie basique de
E.
Le lecteur qui setonnerait que lon parle ici de parties basiques peut imaginer
ce que serait une reunion de familles (on dit dailleurs concatenation) et se
rendre compte que cest peu e vident a` e crire, surtout si on commet limprudence de mettre des indices en commun.
Enfin, pour clore ce chapitre, il est naturel de se demander ce que deviennent
les notions precedentes lorsquon les transforme par une application lineaire.
6.6
Le lecteur remarquera bien que limage dune partie generatrice de E nest pas,
en general, generatrice de F, mais seulement de Im(f) : bien sur, si f est surjective...
PROPOSITION 6.14 Soient E, F deux K-espaces vectoriels et f L(E, F ), les
propositions suivantes sont e quivalentes :
1. f est injective
2. limage par f de toute famille libre de E est une famille libre de F.
Demonstration : (1.2.) soient (xi )iI une famille libre de E et (i )iI
Pune relation lineaire entre
Ples vecteurs de la famille (f (xi ))iI , on a donc iI i f (xi ) =
0, ou encore f ( iI i xi ) = 0, car f est lineaire etP
la famille de scalaires
a` support fini. Or f est injective, on en deduit que iI i xi = 0. La famille (xi )iI e tant libre, la famille de scalaires est donc la famille triviale.
(f (xi ))iI est bien une famille libre.
(2.1.) soit x Ker(f ), limage de la famille (x) est la famille (0) qui est
une famille liee, la famille (x) est donc liee, i.e. x = 0 (raisonnement par
contraposee)
THEOREM 6.8 Soient E, F deux K-espaces vectoriels et f L(E, F ), les propositions suivantes sont e quivalentes :
1. f est un isomorphisme de E sur F
2. limage par f de toute base de E est une base de F
3. il existe une base de E dont limage par f est une base de F.
Avant de demontrer ce theor`eme, on remarque la grande difference entre 2. et
3. : en fait, le theor`eme affirme quil suffit que f envoie une base de E sur une base
de F pour que ce resultat soit valable pour toute base de F.
Demonstration : (1.2.) cela decoule directement de ? ? et ? ?, car un isomorphisme est a` la fois injectif et surjectif.
(2.3.) on a admis lexistence dau moins une base, on laisse le lecteur conclure.
(3.1.) soit (xi )iI une base de E dont limage par f est une base de F, on montre
que f est injective puis surjective.
P Soit x Ker(f ), on decompose x sur la
base (xi )iI de E. OnP
a x = iI i xi pour une famille de scalaires presque
tous nuls, et f (x) = iI i f (xi ) = 0. La famille (f (xi ))iI e tant libre, la
famille (i )iI est la famille triviale, i.e. x = 0 et f est bien
Pinjective. Soit
y F , y se decompose sur la base (fP
(xi ))iI de F : y = iI i f (xi ). Il
est alors clair que y = f (x) avec x = iI i xi , donc f est bien surjective
On finit par un theor`eme tr`es important dans la pratique et qui assure de la
connaissance compl`ete dune application lineaire d`es que lon connait les images
des vecteurs dune base de lespace de depart.
91
THEOREM 6.9 Soient E, F deux K-espaces vectoriels, (xi )iI une base de E et
(yi )iI une famille quelconque de vecteurs de F indexee par le meme ensemble
dindices, il existe une unique application lineaire f de E dans F verifiant :
i I, f (xi ) = yi .
Demonstration : soit x un vecteur quelconque de E, il existe
P une unique famille
de scalaires (i )iI , presque tous nuls, telle que x = iI i xi . Si lon veut
que
P f soit lineaire, on na pas le choix et on est obliges de poser f (x) =
erifier que f ainsi definie est bien lineaire
iI i yi . On laisse le lecteur v
En dautres termes, les coordonnees dune combinaison lineaire sont les combinaisons lineaires des coordonnees respectives.
92
Chapitre 7
Dimension finie
On va maintenant redescendre de quelques marches et se limiter a` la categorie
des espaces vectoriels admettant une famille generatrice finie. On adaptera donc
les resultats donnes dans les deux chapitres precedents. Les probl`emes sont un peu
plus simples et, en particulier, on pourra sabstenir dutiliser laxiome du choix. En
contrepartie, les demonstrations deviennent accessibles et seront par consequent
effectuees.
7.1
Exercices :
1. Montrer que pour un K-espace vectoriel E les proprietes suivantes sont
e quivalentes :
(a) E est de dimension finie
(b) E admet une famille generatrice finie (i.e. indexee par un ensemble fini).
2. En reprenant les exemples despaces vectoriels classiques, indiquer
ceux qui sont de dimension finie.
3. Soit E un K-espace vectoriel, comparer les deux e nonces :
(a) E admet une partie generatrice finie
(b) toutes les parties generatrices de E sont finies.
7.1.2 Dimension
On vient de demontrer lexistence des bases pour un espace vectoriel E de
dimension finie. Il se trouve, et cest encore un miracle, que toutes les parties
95
basiques ont le meme nombre delements. On peut dire aussi que toutes les bases
ont le meme nombre delements, silon convient dappeler cardinal dune base
le cardinal de lensemble dindices. Ce cardinal commun est donc un invariant
de lespace vectoriel E et prendra le nom de dimension de E, ce qui permettra
de separer les termes de la locution dimension finie. La demonstration de cette
propriete est difficile et repose sur un lemme du a` Steinitz.
(dechange de Steinitz)
PROPOSITION 7.1 Soient E un K-espace vectoriel, X une partie de E et x et y
deux e lements de E tels que :
1. y hX {x}i
2. il existe une e criture de y comme combinaison lineaire des e lements de X
{x} dans laquelle le coefficient de x est non nul,
alors x hX {y}i.
On traduira la condition 2. par la locution y peut utiliser x.
P
Demonstration : en effet, comme y peut utiliser x, on peut e crire y = iI i xi +
x o`u les xi sont dans X,Ples i presque tous nuls et un scalaire non nul. Il
vient alors x = 1 y iI 1 i xi ce qui prouve que x hX {y}i
THEOREM 7.4 Soient E un K-espace vectoriel, G une partie generatrice finie
de E et L une partie libre de E, alors L est finie et on a Card(L) Card(G).
Demonstration : on supposera Card(L) > Card(G), le lemme de lechange
permettra de former de nouvelles parties generatrices de E en expulsant des
vecteurs de G pour les remplacer par des vecteurs de L afin daboutir a`
une contradiction. On peut e liminer doffice le cas G = . On sexplique
maintenant et on pose G = {g1 , ..., gm }.
Soit a1 L un e lement quelconque de L, on sait que a1 est non nul car il appartient a` une partie libre. Comme G est generatrice, on peut e crire a1 =
P
m
i=1 i gi pour un certain m-uplet de scalaires. Comme a1 6= 0, un au moins
des i nest pas nul. On suppose quil sagit de 1 . Ainsi a1 peut utiliser g1 ,
on peut appliquer alors le lemme dechange a` la situation X = G\{g1 },
x = g1 , donc g h(G\{g1 }) {a1 }i. On fait remarquer au lecteur que
cette notation un peu lourde represente simplement lensemble obtenu a`
partir de G en remplacant g1 par a1 . On pose :
G1 = (G\{g1 }) {a1 } = {a1 , g2 , ..., gm }.
G1 engendre alors encore E : il suffit de remarquer que g1 hG1 i.
96
Soit a2 un e lement de L different de a1 (a2 existe par hypoth`ese car Card(L) >
Card(G)), comme G1 engendre E on peut e crire a2 = 1 a1 + 2 g2 +
... + m gm . Les scalaires 2 , ..., m ne peuvent e tre tous nuls, car sinon
on aurait a2 = 1 a1 ce qui nest pas le cas car a1 et a2 sont independants.
Ainsi a2 peut utiliser un gi o`u i [2, m]. On supposera quil sagit de
g2 . En appliquant une deuxi`eme fois le lemme dechange a` la situation
X = G1 \{g2 } et x = g2 , on obtient g2 h(G1 \{g2 }) {a2 }i. On pose
G2 = (G1 \{g2 }) {a2 } = {a1 , a2 , g3 , ..., gm }. Le lecteur verifiera que G2
engendre encore E : il sagit donc de verifier que g1 hG2 i et g2 hG2 i.
Il est alors clair quau bout de la i-`eme e tape, on aura forme une partie generatrice
Gm = {a1 , ..., am } ne contenant que des e lements de L. Comme par hypoth`ese Card(L) > Card(G) = m, on peut choisir dans L un e lement
am+1 qui nest P
plus dans Gm . Mais comme Gm est generatrice, on peut
e crire am+1 = m
ee et donc L
i=1 i ai , la partie {a1 , ..., am , am+1 } serait li
aussi, do`u la contradiction, ce qui ach`eve la demonstration
THEOREM 7.5 Soit E un K-espace vectoriel de dimension finie, toutes les parties basiques de E ont le meme nombre delements. On peut donc dire aussi, avec
les conventions habituelles, toutes les bases de E ont le meme nombre delements.
Demonstration : il sagit dune consequence simple du theor`eme precedent. En
efet, soient B et B deux parties basiques de E, on a Card(B) Card(B 0 )
car B est libre et B est generatrice, et Card(B 0 ) Card(B) car B est
libre et B generatrice, do`u Card(B) = Card(B 0 )
PROPOSITION 7.2 Soient E un K-espace vectoriel et p un entier donne, alors
si p + 1 vecteurs sont combinaisons lineaires de p vecteurs donnes de E, ces p + 1
vecteurs sont lies.
Demonstration : en effet, si y1 , ..., yp+1 sont combinaisons lineaires de x1 , ..., xp ,
toute partie libre de hx1 , ..., xp i a au plus p e lements dapr`es le theor`eme ? ?,
donc {y1 , ..., yp+1 } est necessairement liee
DEFINITION 7.2 Soit E un K-espace vectoriel de dimension finie, on appelle
dimension de E le nombre de vecteurs de lune quelconque de ses bases (ou de ses
parties basiques). Ce nombre est note dimK (E), ou dim(E) si aucune confusion
sur le corps de base nest a` craindre. Si E nest pas de dimension finie, on dit que
sa dimension est infinie.
Exemples :
1. dimK ({0}) = 0 et reciproquement dimK (E) = 0 E = {0}
2. En examinant les bases canoniques des espaces K n on constate que
dimK (K n ) = n. Cet exemple est excessivement important.
97
7.1.3
Demonstration :
1. soient E un K-espace vectoriel de dimension n et B = (x1 , ..., xn ) une
base de E, alors lapplication
:
Kn E
(1 , ..., n ) 7 1 x1 + ... + n xn
7.2
THEOREM 7.8 Soient E un K-espace vectoriel de dimension finie et F un sousespace vectoriel de E, on suppose que E est de dimension finie, alors :
1. F est un K-espace vectoriel de dimension finie
2. dimK (F ) dimK (E)
3. si dimK (F ) = dimK (E), alors F = E.
Demonstration : soit L une partie libre de F, cest donc a fortiori une partie libre
de E. Dapr`es, par exemple, le theor`eme de la base incompl`ete, le cardinal
de L est inferieur ou e gal a` dimK (E). Il suffit donc de prendre dans F une
partie libre ayant le nombre maximum delements pour avoir une partie
basique de F. Ainsi F admet une base finie ayant un cardinal inferieur ou
99
e gal a` dimK (E). Si dimK (F ) = dimK (E), alors une base quelconque de
F est une partie libre de E ayant le bon nombre delements (theor`eme ? ?),
cest donc aussi une base de E, i.e. F = E
La partie 3. du theor`eme precedent est fondamentale dans les exercices. Elle
permet en effet de demontrer que deux K-espaces vectoriels de dimension finie
sont e gaux si et seulement si lun des deux est inclus dans lautre et sils ont la
meme dimension (alors quautrement il faudrait montrer deux inclusions).
Exemples :
1. Soit D une droite vectorielle, les seuls sous-espaces vectoriels de D
sont {0} et D.
2. Soit P un plan vectoriel, les seuls sous-espaces vectoriels de P sont
{0}, les droites vectorielles contenues dans P et P lui-meme.
7.2.1
Somme et dimension
Le but de ce paragraphe est detablir une formule attribuee a` Grassmann donnant la dimension de la somme de deux sous-espaces vectoriels dun K-espace
vectoriel E de dimension finie, et den deduire ses principales consequences.
PROPOSITION 7.4 Soient E1 et E2 deux K-espaces vectoriels de dimension
finie, alors E1 E2 est de dimension finie et on a dimK (E1 E2 ) = dimK (E1 ) +
dimK (E2 ).
Demonstration : en effet, on pose m = dimK (E1 ), n = dimK (E2 ) et on choisit
(a1 , ..., am ) une base de E1 , (b1 , ..., bn ) une base de E2 . On laisse au lecteur
consciencieux le soin de verifier que le (m+n)-uplet ((a1 , 0), ..., (am , 0), (0, b1 ), ..., (0, bn ))
est une base de E1 E2 . On peut aussi verifier que K m K n est isomorphe
a` K m+n
THEOREM 7.9 (dimension dune somme directe)
Soient E un K-espace vectoriel de dimension finie, E1 et E2 deux sous-espaces
vectoriels de E dont la somme est directe, on a alors la relation :
dimK (E1 E2 ) = dimK (E1 ) + dimK (E2 ).
De plus, si B1 est une partie basique de E1 et B2 une partie basique de E2 , B1 B2
est une partie basique de E1 E2 .
Demonstration : il suffit bien entendu de montrer la seconde asertion. On peut remarquer que E1 E2 et E1 E2 sont isomorphes et appliquer la proposition
precedente
Exercices :
100
7.3
Notion de rang
7.3.1
Loutil central de cette section est le theor`eme du rang. On commence par deux
exemples, sous forme dexercices, o`u lon decouvre cet important theor`eme.
Exercices :
1. Soit f : R3 R3 definie par f (x, y, z) = (x0 , y 0 , z 0 ) o`u x0 = y 0 =
z 0 = 2x + y + z,
(a) montrer que f est lineaire
(b) donner une base de Ker(f) et en deduire dim(Ker(f ))
(c) donner une base de Im(f) et en deduire dim(
Im(f ))
(d) verifier la relation dim(R3 ) = dim(Ker(f )) + dim(
Im(f )).
x0 = x + y + z + 2t
2. Soit f : R R definie par f (x, y, z, t) = (x , y , z ) o`u y 0 = y z + t
,
0
z = x y + 3z
4
103
Demonstration :
1. comme rg(f ) = dimK (E) dimK (Ker(f )) dapr`es le theor`eme du
rang, on a bien rg(f ) dimK (E). De plus, linclusion
Im(f ) F entrane rg(f ) dimK (F ) dapr`es le theor`eme du sousespace.
2. f est injective si et seulement si le noyau de f se reduit a` {0} donc si et
seulement si dimK (Ker(f )) = 0, il suffit alors dapliquer le theor`eme
du rang.
3. f est surjective si et seulement si
Im(f ) = F , il suffit alors dappliquer le theor`eme du sous-espace
Exercice : On propose ici une demonstration de la formule de Grassmann a` laide
du theor`eme du rang. Soient E un K-espace vectoriel de dimension finie, E1
et E2 deux sous-espaces vectoriels de E et
f:
E1 E2 E
,
(x1 , x2 ) 7 x1 + x2
K[X] K[X]
est surjective mais non injective
P 7 P 0
2. :
K[X] K[X]
est injective mais non surjective.
P 7 XP
Exercices :
1. Soient E un K-espace vectoriel de dimension finie et f un endomorphisme de E, montrer que les propositions suivantes sont e quivalentes :
(a) E = Ker(f )
Im(f )
(b) Ker(f ) = Ker(f 2 )
(c)
Im(f ) =
Im(f 2 ).
Que subsiste-t-il si E est de dimension infinie ?
2. Soit f un endomorphisme dun K-espace vectoriel E de dimension finie, montrer que limage et le noyau de f concident si et seulement si
on a f 2 = 0, dimK (E) est un entier pair et rg(f ) = dimK2 (E) .
7.3.2
Dimension de L(E,F)
Chapitre 8
Matrices
Apr`es avoir peine parmi les espaces vectoriels, on est revenu en pays de connaissance, le relief sadoucit. Les retardataires pourront donc rejoindre le peloton. Ce
chapitre est en grande partie une reformulation de notions abordees dans les chapitres precedents, mais sous forme plus concr`ete et visuelle. Tout le debut est donc
en pente douce et permet lutilisation dun grand braquet. Neanmoins certains passages annoncent dej`a les massifs quil faudra gravir... a` lEnsae.
8.1
8.1.1
Calcul matriciel
Generalites
A=
... ... ... .
an1 ... anm
a11 , ..., anm sappellent les e lements de la matrice A, aij se trouvant a` lintersection de la i-`eme ligne et de la j-`eme colonne. On e crira de facon condensee
A = (aij )1in,1jm ou meme A = (aij ) si aucune confusion nest possible sur
le type de la matrice A.
Enfin, on note Mn,m (K) lensemble des matrices de type (n, m) a` e lements
dans K. Si K = R on dit que la matrice A est reelle et si K = C on dit quelle
est complexe.
107
8.1.2
On designera cette matrice par MCB (u) ou, plus simplement, M (u) si aucune
confusion nest possible. On verra lors de la multiplication des matrices pourquoi
on renverse lordre des bases.
Si E = F et si B = C, on parlera de la matrice de lendomorphisme u par
rapport a` la base B et on la notera MB (u).
On se rend compte maintenant que la notion de base est beaucoup plus importante que celle de partie basique, car on ne saurait pas dans quel ordre e crire les
lignes et les colonnes de la matrice associee a` une application lineaire.
Exercices :
1. Soient B = (e1 , e2 ) une base dun K-espace vectoriel E et h lhomothetie derapport
, on a donc h (e1 ) = e1 et h (e2 ) = e2 , do`u
0
MB (h ) =
. Cette matrice est independante de la base choi0
sie. Generaliser au cas o`u dim(E) = n quelconque.
2. On suppose dim(E) = 3 et dim(F ) = 2 et on se donne B et C des
bases respectives de E et F. Soit u lapplication qui a` tout vecteur x
de E de coordonnees (x1 , x2 , x3 ) dans la base B associe le vecteur y
de F dont les coordonnees dans la base C sont (y1 , y2 ) donnees par les
formules y1 = x1 2x2 + 3x3 et y2 = x1 + x3 , montrer que u est
lineaire et determiner sa matrice par rapport aux bases B et C.
3. Soient E et F deux K-espaces vectoriels de dimension finie et u un
isomorphisme de E sur F, montrer que pour toute base B de E il existe
une base C de F telle que :
1 0 0 ... 0
0 1 0 ... 0
.
0
0
1
...
0
MCB (u) =
Par ailleurs, si lon se donne une matrice A = (aij ) Mn,m (K) quelconque,
on pose pour tout indice j, e0j = a1j f1 + ... + anj fn . On sait dapr`es le
theor`eme ? ? quil existe une unique application lineaire u L(E, F ) verifiant
u(ej ) = e0j pour tout indice j. On aura donc MCB (u) = A et lapplication
MCB est surjective
Soit A = (aij ) une matrice de type (n, m) a` e lements dans K, alors dapr`es
le theor`eme precedent, A est la matrice dune unique application lineaire uA de
K m dans K n relativement aux bases canoniques de ces espaces. On dit que uA est
lapplication lineaire canoniquement associee a` A.
On definira alors le noyau, limage et le rang de la matrice A comme e tant
respectivement le noyau, limage et le rang de uA . En particulier limage de A,
notee Im(A) sera le sous-espace vectoriel de K n constitue des vecteurs uA (x) o`u
x decrit K m . Im(A) est donc engendre par les colonnes de A (chaque colonne
de A e tant considere comme un vecteur de K n rapporte a` sa base canonique). De
meme, le rang de A est le rang de uA , i.e. le nombre de colonnes de A (considerees
comme vecteur de K n ), lineairement independantes.
THEOREM 8.2 Soient E et F deux espaces vectoriels de dimension finie rapportes a` deux bases respectives B et C et u L(E, F ), alors rg(MCB (u)) = rg(u)
et donc toutes les matrices associees a` u, pour tous les choix possibles de bases,
ont le meme rang.
Demonstration : on pose m = dim(E), n = dim(F ) et A = (aij ) = MCB (u),
avec B = (e1 , ..., em ) et C = (f1 , ..., fn ). On veut comparer rg(A) et rg(u),
on doit donc introduire uA et relier uA et u :
u
E
F
.
m uA
Kn
K
Soient B 0 = (e01 , ..., e0m ) et C 0 = (f10 , ..., fn0 ) les bases canoniques respectives
de K m et K n , lunique application lineaire de E dans K m definie par :
j [1, m], (ej ) = e0j
et lunique application lineaire de F dans K n definie par :
i [1, n], (fi ) = fi0 ,
alors est un isomorphisme de E sur K m et de F sur K n puisque, par
construction, limage dune base est une base.
P
De plus,
uA , car j [1, m], u(ej ) = ( ni=1 aij fi ) =
Pn on a u =P
n
0
0
i=1 aij (fi ) =
i=1 aij fi = uA (ej ) = (uA )(ej ).
110
i=1
n
X
i=1
i=1
i=1
n
X
(aij )fi
i=1
On a alors j [1, m] :
v u(ej ) = v(u(ej ))
n
X
= v(
akj fk )
=
=
k=1
n
X
akj v(fk )
k=1
n
X
k=1
p
X
akj (
bik gi )
p
n X
X
i=1
akj bik gi
k=1 i=1
p
n
X
X
=
(
bik akj )gi
i=1 k=1
n
X
bik akj .
k=1
n
X
bik akj .
k=1
Une bonne astuce pour calculer un produit de matrices, en limitant les risques
derreur, consiste a` disposer le calcul comme suit :
A
1 2
3 4
B
5 6 .
1 2 3
22 28
3 4 5
40 52
Cette disposition est de plus parfaitement adaptee a` literation du produit. On peut
voir sur cet exemple que AB a un sens, mais que AB est une matrice carree dordre
3 alors que BA est carree dordre 2.
PROPOSITION 8.1 Sous reserve dexistence des expressions, on a pour toutes
matrices A, B, C et tout scalaire :
A(BC)
A(B)
A(B + C)
(A + B)C
=
=
=
=
(AB)C
(A)B = (AB)
AB + AC
AC + BC.
Sous reserve dexistence signifie que les types des matrices intervenant dans
une expression ont un sens. Les proprietes e noncees sont alors les traductions de
proprietes demontrees pour les applications lineaires.
Exercices :
1. On pose A =
1 +3 +1
+4 +0 +5
+2 +1 +3
, B = 4 +0 +1 , C =
+3 1 2
+2 +1 +3
4 +0 +1 . Verifier sur cet exemple lassociativite du pro+3 1 2
duit matriciel.
2. Verifier directement sur les formules lassociativite du produit matriciel. Il est recommande au lecteur de sastreindre a` effectuer compl`etement
cet
P exercice qui est un tr`es bon exemple de manipulation du symbole
.
3. Etudier la (ou les) relation(s) de d
entre
les
ependance lin
eaire existant
+1 1
+0 +1
matrices reelles suivantes : A = +2 +1 , B = 1 +3 ,
1 +0
+0 2
+2 +3
+5 2
C = +0 +0 , D = +8 3 .
+1 1
2 +3
114
a b b c 2c
b
c
a
un sous-espace vectoriel de M3 (R), en donner la dimension et une
base. On pourra constater que si A E, on peut e crire A = aA1 +
bA2 + cA3 , o`u A1 , A2 , A3 sont trois matrices fixes. Cet exercice est
standard et doit e tre un exercice reflexe.
8.1.4
Matrices colonnes
x1
(m, 1) dite matrice colonne. Cette matrice nest autre que ... o`u x1 , ..., xm
Pm xm
sont les coordonnees de x dans B. En effet, x(1) = x = i=1 xi ei . Cette matrice
MB(1) (
x) se note traditionnellement X.
De meme, lelement u(x) de F definit une application lineaire u(x) de K dans
F, definie par u(x) : 7 u(x). Sa matrice par rapport aux bases (1) et C de
K et F est donc aussi une matrice colonne MC(1) (u(x)), qui est la matrice des
coordonnees de u(x) dans la base C, on la note Y.
On consid`ere alors la composition u x de K dans F definie par :
u x : 7 u(
x()) = u(x) = u(x) = u(x)(),
i.e. u x = u(x) et par passage aux matrices associees Y = AX.
115
+3 +4
MCB (u) = 1 +1 .
+2 2
1. Determiner dim(E) et dim(F).
2. Soit x le vecteur de coordonnees (4, 1) dans B, calculer les coordonnees dans C de u(x).
3. Determiner Ker(u), Im(u), rg(u).
4. Soient e01 = 3e1 + e2 et e02 = 2e1 + 5e2 , montrer que B 0 = (e01 , e02 )
est une base de E, puis calculer MCB (u).
5. Soient f10 = f1 + f3 , f20 = 2f1 f2 + 2f3 , f30 = f1 f2 + f3 , montrer
que C 0 = (f10 , f20 , f30 ) est une base de F. Determiner les coordonnees de
f1 , f2 , f3 sur cette base, puis calculer MC 0 B (u) et MC 0 B0 (u).
8.1.5
Transposition
DEFINITION 8.9 Soit A = (aij ) une matrice de type (n, m), on appelle transposee de A et on note At la matrice (a0ij ) de type (m, n) definie par :
(i, j) [1, m] [1, n], a0ij = aji .
t
+3 +4
+3
1
+2
Par exemple, 1 +1 =
.
+4 +1 2
+2 2
+1 +5
3 +2
de la matrice
+1 1
8.2
sur cette
somme directe dans M3 (R)
3
+3 .
3
Matrices carrees
On rappelle que Mn,n (K) se note, par simplification, Mn (K). Tout ce qui
a e te fait dans la premi`ere section sapplique en particulier a` Mn (K). Mais on
convient de prendre maintenant E = F et B = C.
8.2.1 Structure
THEOREM 8.4 Soient E un K-espace vectoriel et B = (e1 , ..., en ) une base de
E, alors :
1. Mn (K) est une K-alg`ebre
117
2. MB :
L(E) Mn (K)
est un isomorphisme dalg`ebres.
u 7 MB (u) = MBB (u)
1 0 0 ... 0
0 1 0 ... 0
0 0 1 ... 0 ,
1 0 ... 0
0 2 ... 0
0 ... 0
0 ... 0
8.2.2
Matrices inversibles
Soit A Mn (K), on dit que A est inversible sil existe une matrice A0
Mn (K) telle que AA0 = A0 A = I. Si A existe, elle est unique, on lappelle
linverse de A et on la note A1 .
THEOREM 8.5 Lensemble note GLn (K) des matrices inversibles de Mn (K)
est un groupe multiplicatif delement neutre I. De plus, si A et B sont deux matrices
inversibles de Mn (K), alors (AB)1 = B 1 A1 .
THEOREM 8.6 Soit A Mn (K), les conditions suivantes sont e quivalentes :
1. A est inversible
2. At est inversible
3. les lignes de A (considerees comme vecteurs de K n ) sont lineairement independantes
4. les colonnes de A (idem) sont lineairement independantes
5. A est de rang n.
Demonstration : (1.2.) en effet, AA1 = A1 A = I impliquent par transposition (A1 )t At = At (A1 )t = I, donc At est inversible et (At )1 = (A1 )t .
(2.1.) idem, en e changeant les roles de A et At , puisque (At )t = A.
(1.4.5.) en revenant aux applications lineaires, ces applications signifient
quun endomorphisme est inversible si et seulement si il est surjectif, ce qui
est vrai en dimension finie.
(2.3.) en effet, les lignes de A ne sont autres que les colonnes de At .
(1.4.) synonyme par transposition de (2.3.)
Exercice : Determiner lesquelles des matrices suivantes sont inversibles :
+1 +0 +2
+1 +2 +3
+2 4
, +3 1 +1 , 1 +3 +2 .
1 +2
2 +4 +3
5 +9 +4
8.3
8.3.1
1 3
2 4
Changement de bases
Les personnages
Dans un espace vectoriel E, on dispose dune base B = (e1 , ..., en ) que lon
qualifie dancienne base. Dans ce meme espace vectoriel on en choisit une autre
B 0 = (e01 , ..., e0n ) quon appellera nouvelle base. En bonne logique, les nouveaux
vecteurs de base e01 , ..., e0n sont donc definis par leurs coordonnees sur lancienne
base.
120
id
id
E 0 E
P
P
,
B0
B
B0
en passant aux matrices associees relativement aux bases indiquees, on a
alors :
8.3.2
8.3.3
(B)
(C)
A
On a idF u = u idE , donc en passant aux matrices associees relativement aux
bases indiquees dans le diagramme, MCB0 (idF u) = MCC 0 (idF ).MC 0 B0 (u) = QA0
et MCB0 (u idE ) = MCB (u).MBB0 (idE ) = AP donc QA0 = AP , ce qui peut
encore secrire :
A0 = Q1 AP.
Encore une fois, il faut faire attention a` la place des differentes matrices.
8.3.5
Matrices semblables
Dans le cas des matrices carrees, la notion de matrices e quivalentes perd une
grande partie de son interet, car on a lhabitude dasocier, a` une matrice carree,
un endomorphisme relativement a` une base B, la meme au depart et a` larrivee. Il
faut donc adapter la definition precedente a` ce cadre plus restrictif.
DEFINITION 8.12 Deux matrices A et A carrees dordre n sont dites semblables sil existe une matrice inversible P carree dordre n telle que :
A0 = P 1 AP.
PROPOSITION 8.9 Si A est la matrice dun endomorphisme u de E par rapport
a` une base B, alors A est semblable a` A si et seulement si A est la matrice de u
relativement a` une base B de E.
Demonstration : laissee au lecteur, qui doit seulement adapter celle de la proposition ? ?.
124