Vous êtes sur la page 1sur 56

Alg`ebre Lineaire

Semestre II
Professeur J. Thevenaz
redige par Alexis Barri`ere
avec la collaboration de
D. Nakic et J. Rouvinet
Version 1.0
Juin 2005
2
c Alexis Barri`ere, 2005
Table des mati`eres
1 Determinants 5
2 Transformations lineaires 19
3 Le polynome minimal dune transformation lineaire 37
4 Espace Dual 51
5 Formes bilineaires 55
3
4 TABLE DES MATI
`
ERES
c Alexis Barri`ere, 2005
Chapitre 1
Determinants
Denition 1.1 Soit A M
n
(K) une matrice carree.
Le determinant de A est un scalaire, det(A), deni par :
det(A) =

S
n
()A
1(1)
A
2(2)
. . . A
n(n)
o` u parcourt lensemble S
n
de toutes les permutations de {1, 2, . . . , n} et o` u
() = 1 est la signature de
La somme contient n! termes (1, 2, 6, 24, 120, 720, . . .).
n = 2 : S
2
= {id, (1 2)
..

A =
_
A
11
A
12
A
21
A
22
_
det(A) = (id)
. .
1
A
1 id(1)
A
2 id(2)
+ ()
..
1
A
1 (1)
A
2 (2)
det(A) = A
11
A
22
A
12
A
21
n = 3 : S
3
= {id, (1 2 3)
. .

, (1 3 2)
. .

2
. .
signature=1
, (1 2)
..

3
, (1 3)
..

2
, (2 3)
..

1
. .
signature=1
}
det(A) = A
11
A
22
A
33
+A
1(1)
A
2(2)
A
3(3)
+A
1
2
(1)
A
2
2
(2)
A
3
2
(3)
A
1
1
(1)
A
2
1
(2)
A
3
1
(3)
A
1
2
(1)
A
2
2
(2)
A
3
2
(3)
A
1
3
(1)
A
2
3
(2)
A
3
3
(3)
det(A) = A
11
A
22
A
33
+A
12
A
23
A
31
+A
13
A
21
A
32
A
12
A
21
A
33
A
13
A
22
A
31
A
11
A
23
A
32
R`egle de Sarrus : valable uniquement pour n = 3
_
_
A
11
A
12
A
13
A
21
A
22
A
23
A
31
A
32
A
33

A
11
A
12
A
21
A
31
A
32
_
_
5
6 CHAPITRE 1. D

ETERMINANTS
En disposant la matrice de cette facon, il devient facile de calculer le
determinant, en multipliant les elements des diagonales compl`etes en met-
tant le signe + devant les diagonales descendantes et le signe - devant
les diagonales montantes
n 4 : pas de r`egle de Sarrus
Notations en lignes
A
i
=i-`eme ligne de A
A
i
=(A
i1
A
i2
. . . A
in
)
Donc
_
_
_
_
A
1
A
2
. . .
A
n
_
_
_
_
Theor`eme 1.1 Multilinearite du determinant
Le determinant est lineaire par rapport `a toute ligne xee. Explicitement :
det
_
_
_
_
_
_
_
_
_
_
_
_
A
1
.
.
.
A
r1
A
r
+ A

r
A
r+1
.
.
.
A
n
_
_
_
_
_
_
_
_
_
_
_
_
= .det
_
_
_
_
_
_
_
_
_
_
_
_
A
1
.
.
.
A
r1
A
r
A
r+1
.
.
.
A
n
_
_
_
_
_
_
_
_
_
_
_
_
+.det
_
_
_
_
_
_
_
_
_
_
_
_
A
1
.
.
.
A
r1
A

r
A
r+1
.
.
.
A
n
_
_
_
_
_
_
_
_
_
_
_
_
Preuve
det
_
_
_
_
_
_
_
_
_
_
_
_
A
1
.
.
.
A
r1
A
r
+ A

r
A
r+1
.
.
.
A
n
_
_
_
_
_
_
_
_
_
_
_
_
=

S
n
()A
1(1)
. . . A
r1,(r1)
(A
r(r)
+A

r(r)
)A
r+1,(r+1)
. . . A
n(n)
=

S
n
()A
1(1)
. . . A
r1,(r1)
A
r(r)
A
r+1,(r+1)
. . . A
n(n)
+

S
n
()A
1(1)
. . . A
r1,(r1)
A

r(r)
A
r+1,(r+1)
. . . A
n(n)
= .det
_
_
_
_
_
_
_
_
_
_
_
_
A
1
.
.
.
A
r1
A
r
A
r+1
.
.
.
A
n
_
_
_
_
_
_
_
_
_
_
_
_
+ .det
_
_
_
_
_
_
_
_
_
_
_
_
A
1
.
.
.
A
r1
A

r
A
r+1
.
.
.
A
n
_
_
_
_
_
_
_
_
_
_
_
_
c Alexis Barri`ere, 2005
7
Lemme fondamental
Si deux lignes de A sont egales alors det(A) = 0
Preuve
On suppose que les lignes A
r
et A
s
sont egales : A
r
=A
s
(mais r = s)
Soit (r s), la transposition de r et s
(r) = s, (s) = r, (i) = i si i = r, s
Si S
n
est une permutation,

= en est une autre et

=
..
id
=
Donc on voit quon peur regrouper les permutations par paires en mettant une
meme paire et

=
Dans chaque paire, on choisit lune des permutations, ce qui denit un sous-
ensemble E de S
n
de cardinal
1
2
card(s
n
) =
n!
2
. On pose F=S
n
E, sous-ensemble
de cardinal
n!
2
Donc S
n
= E F
Si E, alors

= F
Si

F, alros =

E
det(A =

S
n
. . .
=

E
. . . +

F
(

)A
1

(1)
. . . A
n

(n)

=
=

E
()A
1(1)
. . . A
n(n)
+

E
()A
1(1)
. . . A
n(n)
=

E
()A
1(1)
. . . A
r(r)
. . . A
s(s)
. . . A
n(n)
+

E
()()A
1 (1)
..
1
. . . A
r (r)
..
s
. . . A
s (s)
..
r
. . . A
n (n)
..
n
=

E
()A
1(1)
. . . A
r(r)
. . . A
s(s)
. . . A
n(n)
+

E
()(1)A
1(1)
. . . A
r(s)
. . . A
s(r)
. . . A
n(n)
parhyp.
=

E
()A
1(1)
. . . A
r(r)
. . . A
s(s)
. . . A
n(n)
+(1)

E
()A
1(1)
. . . A
s(s)
. . . A
r(r)
. . . A
n(n)
= 0
Theor`eme 1.2 Operations elementaires sur le determinant
Les operations elementaires ont leet suivant sur le determinant :
Type I : Si on echange deux lignes, le determinant change de signe
Type II : Si on multiplie une ligne par un scalaire = 0, le determinant est
multiplie par
c Alexis Barri`ere, 2005
8 CHAPITRE 1. D

ETERMINANTS
Type III : Si on ajoute `a une ligne un multiple scalaire dune autre, le determinant
ne change pas
Preuve
Type II : dej`a vu (multilinearite du determinant)
Type I : echange des lignes r et s
0
lemme fond.
= det
_
_
_
_
_
_
_
_
_
_
_
_
_
A
1
.
.
.
A
r
+A
s
.
.
.
A
s
+A
r
.
.
.
A
n
_
_
_
_
_
_
_
_
_
_
_
_
_
r-`eme ligne
s-`eme ligne
multilinearite
par rapport
aux lignes r et s
= det
_
_
_
_
_
_
_
_
_
_
_
_
_
A
1
.
.
.
A
r
.
.
.
A
r
.
.
.
A
n
_
_
_
_
_
_
_
_
_
_
_
_
_
. .
0: lemme fond.
+det
_
_
_
_
_
_
_
_
_
_
_
_
_
A
1
.
.
.
A
r
.
.
.
A
s
.
.
.
A
n
_
_
_
_
_
_
_
_
_
_
_
_
_
+det
_
_
_
_
_
_
_
_
_
_
_
_
_
A
1
.
.
.
A
s
.
.
.
A
r
.
.
.
A
n
_
_
_
_
_
_
_
_
_
_
_
_
_
+det
_
_
_
_
_
_
_
_
_
_
_
_
_
A
1
.
.
.
A
s
.
.
.
A
s
.
.
.
A
n
_
_
_
_
_
_
_
_
_
_
_
_
_
. .
0: lemme fond.
= det
_
_
_
_
_
_
_
_
_
_
_
_
_
A
1
.
.
.
A
s
.
.
.
A
r
.
.
.
A
n
_
_
_
_
_
_
_
_
_
_
_
_
_
= det
_
_
_
_
_
_
_
_
_
_
_
_
_
A
1
.
.
.
A
r
.
.
.
A
s
.
.
.
A
n
_
_
_
_
_
_
_
_
_
_
_
_
_
Type III : ajouter a la r-`eme ligne fois la s-`eme
det
_
_
_
_
_
_
_
_
_
_
_
_
_
A
1
.
.
.
A
r
+ A
s
.
.
.
A
s
.
.
.
A
n
_
_
_
_
_
_
_
_
_
_
_
_
_
linearite
par rapport
`a la ligne s
= det
_
_
_
_
_
_
_
_
_
_
_
_
_
A
1
.
.
.
A
r
.
.
.
A
s
.
.
.
A
n
_
_
_
_
_
_
_
_
_
_
_
_
_
+. det
_
_
_
_
_
_
_
_
_
_
_
_
_
A
1
.
.
.
A
s
.
.
.
A
s
.
.
.
A
n
_
_
_
_
_
_
_
_
_
_
_
_
_
. .
0: lemme fond.
= det
_
_
_
_
_
_
_
_
_
_
_
_
_
A
1
.
.
.
A
r
.
.
.
A
s
.
.
.
A
n
_
_
_
_
_
_
_
_
_
_
_
_
_
c Alexis Barri`ere, 2005
9
Corollaire (Permutation de lignes)
Soit S
n
une permution
det
_
_
_
A
(1)
.
.
.
A
(n)
_
_
_ = () . det
_
_
_
A
1
.
.
.
A
n
_
_
_
Preuve
On ecrit =
1

2
. . .
k
comme produit de k transpositions
i
det
_
_
_
A

2
...
k
(1)
.
.
.
A

2
...
k
(n)
_
_
_
Type I
= det
_
_
_
A

2
...
k
(1)
.
.
.
A

2
...
k
(n)
_
_
_ = . . . = (1)
k
.det
_
_
_
A
1
.
.
.
A
n
_
_
_
Or (1)
k
= ()
Denition 1.2 Une matrice carree A M
n
(K) est dite triangulaire (triangu-
laire superieure) si A
ij
= 0 pour i > j
A =
_
_
_

.
.
.
0
_
_
_
Theor`eme 1.3 Determinant dune matrice triangulaire
Soit A M
n
(K) une matrice triangulaire
det(A) = A
11
A
22
. . . A
nn
produit des termes diagonaux
Preuve
det(A) =

S
n
()A
1(1)
. . . A
n(n)
On va montrer que tous les termes de cette somme sont nulles sauf lorsque
= id
Pour cela, on suppose que A
1(1)
. . . A
n(n)
= 0 (donc A
i
(i) = i i) et on
montre que = id. On proc`ede par recurrence descendante pour montrer que
(i) = i i
Cas i = n : A
n(n)
= 0
Comme on sait que A
ij
= 0 i j car A est triangulaire, on doit avoir
n (n), donc n = (n)
Par recurrence (descendante), on suppose que (n) = n, (n1) = n1,
. . ., (i + 1) = i + 1 , et on va montrer que (i) = i
On a A
i(i)
= 0, donc i (i)
Or (i) = k > i est impossible sinon (i) = k
..
hyp. de rec.
= (k), ce qui
contredit linjectivite de (i = k et (i) = (k) impossible)
Il reste (i) = i comme seul possibilite
Donc on a bien = id
Il sensuit que det(A) = (id)A
1 id(1)
. . . A
nid(n)
+ 0 = A
11
A
22
. . . A
nn
c Alexis Barri`ere, 2005
10 CHAPITRE 1. D

ETERMINANTS
Methode de calcul des determinants
1. On eectue des operations elementaires de type I et III pour mettre A
sous forme echelonnee (non-necessairement reduite)
Type I : changement de signe
Type III : sans changement
2. On aboutit `a une matrice echelonnee carree, donc en particulier triangu-
laire. On sait alors calculer le determinant
Remarque
Il vaut mieux eviter le type II car le determinant change (multiplication par un
scalaire) et cest source derreurs
Notations

A
11
. . . A
1n
.
.
.
.
.
.
.
.
.
A
n1
. . . A
nn

= det
_
_
_
A
11
. . . A
1n
.
.
.
.
.
.
.
.
.
A
n1
. . . A
nn
_
_
_
Exemple

0 4 6
3 1 2
2 5 7

1
e
2
e
=

3 1 2
0 4 6
2 5 7

3
e

2
3
1
e
=

3 1 2
0 4 6
0
17
3
17
3

3
e

17
12
2
e
=

3 1 2
0 4 6
0 0
17
6

= 3.4.
17
6
= 34
Theor`eme 1.4 det(AB)=det(A).det(B) , A,B M
n
(K)
Preuve
On note A
i
la i-`eme ligne de A
On note a
ij
le coe de A `a la place (i, j)
Donc A
i
= (a
i1
a
i2
. . . a
in
)
A =
_
_
A
1
. . .
A
n
_
_
, B =
_
_
B
1
. . .
B
n
_
_
, AB =
_
_
(AB)
1
. . .
(AB)
n
_
_
Or on a ceci : (AB)
ik
=

n
j=1
a
ij
b
jk
, donc (AB)
i
=

n
j=1
a
ij
B
j
, combinaison
lineaire des lignes de B
On ecrit cela pour chacune des lignes de AB, en utilisant chaque fois un indice
de sommation dierent :
j
1
pour la 1
`ere
ligne,
j
2
pour la 2
`eme
ligne,. . .
(AB)
1
=

n
j
1
=1
a
1j
1
B
j
1
,
(AB)
2
=

n
j
2
=1
a
2j
2
B
j
2
,. . .
c Alexis Barri`ere, 2005
11
det(AB) = det
_
_
_

n
j
1
=1
a
1j
1
B
j
1
.
.
.

n
j
n
=1
a
nj
n
B
j
n
_
_
_
multilinearite
du det.
=
n

j
1
=1
n

j
2
. . .
n

j
n
a
1j
1
a
2j
2
. . . a
nj
n
.det
_
_
_
B
j
1
.
.
.
B
j
n
_
_
_
Si deux lignes de
_
_
_
B
j
1
.
.
.
B
j
n
_
_
_ sont egales alors : det
_
_
_
B
j
1
.
.
.
B
j
n
_
_
_ = 0
(et donc il y a beaucoup de termes nuls dans la somme)
Il ne reste que des indices j
1
, j
2
, . . . , j
n
tous distincts
Cela signie que lapplication :
: {1, 2, . . . , n} {1, 2, . . . , n}
1 j
1
.
.
.
.
.
.
n j
n
est injective, donc bijective. Cest donc une permutation.
Au lieu de sommer sur les indices j
1
, . . . , j
n
distincts, il revient au meme de som-
mer sur toutes les permutations de {1, 2, . . . , n} en ecrivant (1) = j
1
, (2) =
j
2
, . . . , (n) = j
n
Cela donne :
det(AB) =

S
n
a
1(1)
a
2(2)
. . . a
n(n)
.det
_
_
_
B
(1)
.
.
.
B
(n)
_
_
_
Corollaire
=

S
n
a
1(1)
a
2(2)
. . . a
n(n)
.()
. .
det(A) par def.
. det
_
_
_
B
1
.
.
.
B
n
_
_
_
. .
det(B)
= det(A).det(B)
Theor`eme 1.5 2
`eme
theor`eme dinversibilite
Soit A M
n
(K)
A est inversible det(A) = 0
De plus dans ce cas, on a aussi une formule pour le determinant de la matrice
inverse : det(A
1
)=det(A)
1
c Alexis Barri`ere, 2005
12 CHAPITRE 1. D

ETERMINANTS
Preuve
: On suppose A inversible. Donc A
1
existe.
AA
1
=I
n
.
Donc 1 = det(I
n
) = det(AA
1
)
th.prec.
= det(A).det(A
1
)
(La premi`ere egalite decoule du fait que cest un produit de termes diago-
naux car I
n
est triangulaire)
Donc det(A) = 0 est impossible (sinon 1 = 0)
De plus, on voit aussi que det(A
1
) est linverse de det(A), ce qui montre
la formule supplemenaire.
: On suppose det(A = 0
On doit montrer que A est inversible.
On eectue des operations elementaires pour aboutir `a une forme echelonnee
E
Donc E=T
n
. . .T
2
T
1
A, o` u chaque T
i
est la matrice dune operation elementaire
det(T
1
A) = det(T
1
)
. .
=0 car inversible
. det(A)
. .
=0 par hyp
= 0
On continue :
det(T
1
T
2
A) = det(T
2
)
. .
=0
det(T
1
)
. .
=0
det(A)
. .
=0
= 0
etc.
Finalement det(E)=det(T
n
. . .T
1
A)= 0
Il sensuit que E ne peut pas avoir une ligne nulle (sinon det(E)=0 par
multilinearite)
Comme rang(A)=rang(E)=nombre de lignes non-nulles de E, on doit
avoir ici rang(A)=n (rang maximum).
Par le premier theor`eme dinversibilite, on sait que si rang(A)=n (maxi-
mum), alors A est inversible
Theor`eme 1.6 Soit A M
n
(K), alors det(
t
A)=det(A)
Preuve
Rappel : (
t
A)
ij
= A
ji
det(
t
A =

S
n
()(
t
A)
1(1)
(
t
A)
2(2)
. . . (
t
A)
n(n)
=

S
n
() (A)
(1)1
(A)
(2)2
. . . (A)
(n)n
. .
on remet dans lordre
Si (k) = 1, alors k =
1
(1), dans ce cas A
(k)k
=A
1
1
(1)
Si (k) = 2, alors k =
1
(2), dans ce cas A
(k)k
=A
2
1
(2)
c Alexis Barri`ere, 2005
13
Donc det(
t
A) =

S
n
()A
1
1
(1)
A
2
1
(2)
. . . A
n
1
(n)
=
1
=

S
n
()
..
(
1
)=()
A
1(1)
A
2(2)
. . . A
n(n)
def.
= det(A)
Corollaire
Les resultats sur les lignes sont aussi valables sur les colonnes :
1. Le determinant est lineaire par rapport `a chaque colonne
2. Si on eectue une permutation des colonnes, le determinant est multiplie
par () (en particulier le determinant change de signes si on echange deux
colonnes)
3. Si on multiplie une colonne par , le determinant est multiplie par
4. Si on ajoute `a une colonne un multiple scalaire dune autre colonne, le
determinant ne change pas
Preuve
On transpose (ce qui ne change pas le determinant) et on applique le resultat
correspondant sur les lignes
Developpement par rapport `a une ligne (ou une colonne)
Denition 1.3 Soit A M
n
(K). On xe un indice r de ligne et un indice s
de colonne
a) A(r|s)= la matrice (n1) (n1) obtenue en supprimant la r-`eme ligne
et la s-`eme colonne
b) le (r, s)-`eme cofacteur de A est : (1)
r+s
det(A(r|s))
Theor`eme 1.7 Soit A M
n
(K)
a) developpement par rapport `a la r-`eme ligne
det(A)=

n
j=1
A
rj
(1)
r+j
det(A(r|j)) (r xe)
b) developpement par rapport `a la s-`eme colonne
det(A)=

n
i=1
A
is
(1)
i+s
det(A(i|s)) (s xe)
Exemple
A =
_
_
1 2 3
4 5 6
7 8 9
_
_
On fait le developpement limite par rapport `a la 2
`eme
ligne
det(A) = 4.

2 3
8 9

+ 5.

1 3
7 9

6.

1 2
7 8

= 4.(18 24) + 5.(9 21) 6.(8 14)


= 4. 6 + 5. 12 6. 6
= 24 60 + 36
= 0
c Alexis Barri`ere, 2005
14 CHAPITRE 1. D

ETERMINANTS
Remarques
Cest une mauvaise methode de calcul en general, car on a un determinant de
taille n 1 `a calculer...
Preuve
a) Dans la denition du determinant, on regroupe tous les termes o` u apparat
A
r1
, puis tous les termes o` u apparat A
r2
, etc, puis tous les termes o` u
apparat A
rn
.
Cela donne :
det(A) =

S
n
()A
1(1)
. . . A
r(r)
. . . A
n(n)
= A
r1
_

S
n
t. q. (r) = 1
()A
1(1)
. . . A
r1,(r1)
. . . A
r+1,(r+1)
. . . A
n(n)
_
+A
r2
_

S
n
t. q. (r) = 2
. . .
_
+ . . . +A
rn
_

S
n
t. q. (r) = n
. . .
_
=
n

j=1
A
rj
_

S
n
t. q. (r) = j
()A
1(1)
. . . A
r1,(r1)
. . . A
r+1,(r+1)
. . . A
n(n)
_
. .
A

rj
par denition
Il sut donc de montrer que A

rj
= (1)
r+j
det(A(r|j)) pour demontrer
le resultat
Remarque : dans lesxpression qui denit A

rj
apparraissent uniquement
des coecients A
ik
avec i = r
On prouve la formule dans le cas r = 1, j = 1.
A

11
=

S
n
t. q. (1) = 1
()A
2(2)
. . . A
n(n)
=

permutations
de {2, 3, . . . , n}
()A
2(2)
. . . A
n(n)
= det(A(1|1))
= (1)
1+1
det(A(1|1))
A =
_
_

A(1|1)
_
_
Pour montrer la formule dans le cas general (rj), on introduit dautres
matrices B et C. On xe r et j.
Best obtenue `a partir de Aen remplacant la r-`eme ligne par (0 . . . 0 1 0 . . . 0).
ik =
_
_
_
A
ik
si i = r
0 si i = r, k = j
1 si i = r, k = j
c Alexis Barri`ere, 2005
15
B =
_
_
0 . . . 0 1 0 . . . 0
_
_
r-`eme
: j-`eme
1) B

rj
= A

rj
2) B(r|j) = A(r|j)
3) det(B) =

n
k=1
B
rk
B

rk
= 0 +. . . + 0 + 1.B

rj
+ 0 + . . . + 0
det(B) = B

rj
On obtien C par permutation de lignes et de colonnes `a partir de B pour
mettre la r-`eme ligne en 1
`ere
ligne et la j-`eme colonne en 1
`ere
colonne.
On applique le r-cycle (1 2 . . . r) sur les lignes et le j-cycle (1 2 . . . j) sur
les colonnes.
C =
_
_
_
_
_
1

0 . . . . . . 0

_
_
_
_
_
4) C(1|1) = B(r|j)
5) det(C) =
_
(1 2 . . . r)
_
. .
(1)
r+1
.
_
(1 2 . . . j)
_
. .
(1)
j+1
det(B) = (1)
r+j+2
det(B)
det(C) = (1)
r+j
det(B)
6) C(1|1) = C

11
prouve dans le cas (1,1)
7) det(C) =

n
j=1
C
1k
C

1k
= 0 +. . . + 0 + 1.C

11
+ 0 + . . . + 0
det(C) = C

11
Donc
A

rj
1)
= B

ri
3)
= det(B)
5)
= (1)
r+j
det(C)
7)
= (1)
r+j
C

11
6)
= (1)
r+j
det(C(1|1))
4)
= (1)
r+j
det(B(r|j))
2)
= (1)
r+j
det(A(r|j))
b) On transpose, on applique la formule du developpement par rapport `a la
s-`eme ligne, et on transpose le resultat
Denition 1.4 Soit A M
n
(K).La matrice des cofacteurs de A est la matrice
cof(A) denie par : cof(A)
ij
= (1)
i+j
det(A(i|j))
c Alexis Barri`ere, 2005
16 CHAPITRE 1. D

ETERMINANTS
Remarque
cof(
t
A) =
t
(cof(A))
En eet :
cof(
t
A)
ij
= (1)
i+j
det(
t
A(i|j))
= (1)
i+j
det(
t
A(j|i))
= (1)
j+i
det(A(j|i)))
= cof(A
ji
)
=
t
(cof(A))
ij
Theor`eme 1.8 Theor`eme de la matrice des cofacteurs
A.cof(
t
A) = det(A).I
n
= cof(
t
A.A
En particulier, si A est inversible (cest-`a-dire si det(A) = 0
alors
A
1
=
1
det(A)
. cof(
t
A)
(pas pratique pour les calculs)
Preuve
1. (A.cof(
t
A))
ii
?
= det(A)
(A.cof(
t
A))
ii
=
n

j=1
A
ij
.cof(
t
A)
ji
rem.
=
n

j=1
A
ij
(1)
i+j
det(A(i|j))
dev. par
rapport
i-`eme ligne
= det(A)
2. (A.cof(
t
A))
ik
?
= 0 (i, k xes)
On introduit la matrice B dont les lignes sont celles de A sauf la k-`eme
qui est egale `a la i-`eme
A =
_
_
_
_
_
_
_
_
_
_
_
_
_
A
1
.
.
.
A
i
.
.
.
A
k
.
.
.
A
n
_
_
_
_
_
_
_
_
_
_
_
_
_
, B =
_
_
_
_
_
_
_
_
_
_
_
_
_
A
1
.
.
.
A
i
.
.
.
A
i
.
.
.
A
n
_
_
_
_
_
_
_
_
_
_
_
_
_
k-`eme ligne
Deux lignes egales
0 = det(B)
dev. par
rapport
k-`eme ligne
=
n

j=1
B
kj
..
A
ij
(1)
k+j
det(B(k|j)
. .
A(k|j)
)
=
n

j=1
A
ij
(1)
k+j
det(A(k|j)
. .
cof(
t
A)
jk
= (A.cof(
t
A))
ik
c Alexis Barri`ere, 2005
17
Denition 1.5 Soit A M
pn
(K). Un mineur dordre k de la matrice A est
un determinant dune sous matrice de A de la taille kk, obtenue en supprimant
p k lignes et n k colonnes
Par exemple les mineur dordre n 1 dans une matrice carree sont (au signe
pr`es) les cofacteurs.
Theor`eme 1.9 Soit A M
pn
(K) et soit k lr plus grand entier pour lequel il
existe un mineur dordre k non-nul.
Alors k = rang(A)
Preuve
Soit k lentier deni dans lenonce.
Il y a une sous-matrice B de taille k k avec det(B) = 0
Donc rang(B) = k et donc les k lignes de B sont lineairement independantes.
Les lignes de B se prolongent en lignes correspondantes de A. On obtient k
lignes de A, qui sont lineairement independantes vu que les lignes de B le
sont (si

i

i
(lignes de A) = 0 , donc
i
= 0 i car les lignes de B sont
lineairement independantes)
On a dans A au moins k lignes lineairement independantes,
donc k rang(A)
Soit r le rang de A. Donc il exisste r lignes de A lineairement independantes,
formant une sous-matrice C de taille r n. Clairement rang(C) = r (car lignes
lineairement independantes). Mais r est aussi le rang-colonne de C et donc
il existe r colonnes de C qui sont lineairement independantes. Cela denit une
sous-matrice D de C de taille r r, avec r colonnes lineairement independantes.
Donc rang(D) = r (rang maximal) et donc Dest inversible, cest-`a-dire det(D) =
0
On obtient donc un mineur dordre dordre r qui est non-nul.
Par consequent r k
Finalement r = k
c Alexis Barri`ere, 2005
18 CHAPITRE 1. D

ETERMINANTS
c Alexis Barri`ere, 2005
Chapitre 2
Transformations lineaires
Denition 2.1 Une transformation lineaire dun K-espace vectoriel V est une
application lineaires de Vdans lui-meme. Autre terminologie : operateur lineaire
de V, endomorphisme de V
Rappelons que L(V, V) = { : V V lineaire} est un K-espace vectoriel
pour laddition des transformations lineaires :
( + )(v) = (v) +(v)
et la multiplication scalaire :
()(v) = (v)
avec , L(V, V), v V, K
On note L(V) = L(V, V) pour simplier.
Proposition
L(V) est une K-alg`ebre : la multiplication etant la composition des applications
Preuve
La composition est associative.
Lidentite id : V V est un element neutre.
La composition est distributive par rapport `a laddition par les applications
lineaires car :
[ (
1
+
2
)](v) = ((
1
+
2
)(v))
= (
1
(v) +
2
(v))
est lineaire = (
1
(v)) +(
2
(v))
= (
1
)(v) + (
2
)(v)
= (
1
+
2
)(v)
Et de meme pour (
1
+
2
) =
1
+
2

Finalement, on a la compatibilite entre la composition et la multiplication pour
un scalaire K :
( ) = () = ()
19
20 CHAPITRE 2. TRANSFORMATIONS LIN

EAIRES
En eet :
[( )](v) = (( )(v))
= ((v))
= ()((v))
= (() )(v)
est lineaire = ((v))
= ( ())(v)
Si V est de dimension nie et si E = (e
1
, e
2
, . . . , e
n
) est une base de V,
alors chaque transformation lineaire L(V) est representee par une ma-
trice ()
E
E
M
n
(K)
Propositions
On choisit une base E = (e
1
, e
2
, . . . , e
n
) de V.
Lapplication :
L(V) M
n
(K)
()
E
E
est un isomorphisme de K-alg`ebre, cest-`a dire quelle est
_
_
_
- K-lineaire
- un homomorphisme danneau
- bijective
Preuve

( +)
E
E
= ()
E
E
+ ()
E
E
()
E
E
= ()
E
E
_
_
_
linearite
( )
E
E
= ()
E
E
.()
E
E
si ()
E
E
= 0, alors les images (e
i
) sont nulles (i-`eme colonne de ()
E
E
)
Par linearite, (

n
i=1

i
e
i
) =

n
i=1

i
(e
i
) = 0
Donc est nulle
Ceci monter linjectivite de lapplication ()
E
E
Si A = (a
ij
) M
n
(K), on denit :
(e
i
) =
n

j=1
a
ji
e
j
Et on prolonge par linearite :
(
n

i=1

i
e
i
) =
n

i=1

1
(e
i
)
Cela denit une application lineaire L(V) telle que ()
E
E
= A
Ceci montre la surjectivite de lapplication ()
E
E
Rappel sur les changements de base
Si F est une autre base, la matrice B = ()
F
F
est reliee `a la matrice A = ()
E
E
par la formule :
B = S
1
AS
c Alexis Barri`ere, 2005
21
o` u S = (id)
E
F
est la matrice de changement de base.
Probl`eme
Etatn donne L(V), trouver une bonne base F par rapport `a laquelle
la matrice de est particuli`erement simple, si possible diagonale ou au moins
triangulaire.
La notion cruciale pour resoudre ce probl`eme, cest la notion de valeurs propres
et vecteurs propres.
Denition 2.2 Soit : V V une transformation lineaire dun K-espace
vectoriel V. Un veccteur v V est appele un vecteur propre (eigenvector) de
si :
1. v = 0
2. il existe un scalaire K tel que (v) = .v
Le scalaire correspondant sappellle alors valeur propre (eigenvalue) de (cor-
respondant au vecteur propre v)
Denition 2.3 direct
Un scalaire est une valeur propre de sil existe un vecteur non nul v V
tel que (v) = .v
Lensemble des valeurs propres sappelle le spectre de
Exemples
1. V=R
2
: R
2
R
2
: (x, y) (x, 0)
v = (1, 0) est un vecteur propre pour la valeur propre 1, car (v) = v
w = (0, 1) est un vecteur propre pour la valeur propre 0, car (w) = 0.w
u = (1, 2) nest pas un vecteur propre car (u) = (1, 0) = multiple de u
2. V=R
2
: R
2
R
2
rotation dangle , avec = multiple de
()
E
E
=
_
cos() sin()
sin() cos()
_
E= base canonique
Il ny a pas de vecteurs propres car si v(= 0) R
2
, alors (v) = multiple
de v
3. : R
2
R
2
rotation dangle (demi-tour)
Alors tout vecteur v = 0 est un vecteur propre pour la valeur propre 1
4. V = C

(R, R)
f(x) = cos(x) et g(x) = sin(x) sont des fonctions propres (cest-`a-dire
des vecteurs propres) de la transformation lineaire :
D
2
: C

(R, R) C

(R, R)
h h

c Alexis Barri`ere, 2005


22 CHAPITRE 2. TRANSFORMATIONS LIN

EAIRES
On remarque que D
2
(f) = f et D
2
(g) = g, donc la valeur propre est
1.
En eet : sin

= sin
Remarque
Si v est un vecteur propre alors v lest aussi K, = 0 (si (v) = v,
alors (v) = (v) = v = v )
Valeur propre 0
Un vecteur v est un vecteur propre de pour la valeur propre 0 v Ker()
((v) = 0 = 0.v dans ce cas)
Matrices et vecteur propres
Soit F=(f
1
, . . . , f
n
) une base de V et soit : V V une transformation
lineaire.
Soit A = ()
F
F
M
n
(K)
Alors xons r {1, 2, . . . , n}
f
r
est un vecteur propre de la r-`eme colonne de A est de la forme :
_
_
_
_
_
_
_
_
_
_
_
_
0
.
.
.
0

0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
r-`eme ligne
Preuve
evident
(f
r
) a pour composantes les coecients de la r-`eme colonne.
(f
r
)
F
=
_
_
_
_
_
_
_
_
_
_
_
_
0
.
.
.
0
1
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
((f
r
))
F
= r-`eme colonnne
(f
r
)
F
=
_
_
_
_
_
_
_
_
_
_
_
_
0
.
.
.
0

0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
r-`eme
c Alexis Barri`ere, 2005
23
(f
r
) = f
r
r-`eme colonne est
_
_
_
_
_
_
_
_
_
_
_
_
0
.
.
.
0

0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
Consequences
Tous les vecteurs de la base f
1
, . . . , f
r
sont des vecteurs propres A est diago-
nale
Exemples
1. : R
2
R
2
, projection sur laxe des x
A = ()
E
E
A =
_
1 0
0 0
_
matrice diagonale
e
1
et e
2
sont des vecteurs propres
2. : R
2
R
2
, symetrie par rapport `a laxe des x
(e
1
) = e
1
(e
2
) = e
2
A =
_
1 0
0 1
_
1 et 1 sont les valeurs propres.
Denition 2.4 1. Une transformation lineaire : V Vest dite diagonalisable
sil existe une base F de V telle que ()
F
F
est diagonale.
2. Une transformation lineaire : V V est dite triangularisable sil existe
une base F de V telle que ()
F
F
est triangulaire.
Matriciellement
Denition 2.5 1. Une matrice A est dite diagonalisable si elle est semblable
`a une matrice diagonale B (cest-`a-dire B = S
1
AS, pour une certaine
matrice inversible S)
2. Une matrice A est dite triangularisable si elle est semblable `a une matrice
triangulaire
Si : V V est represente par une matrice A = ()
F
F
par rapport `a une
certaine base F, alors :
diagonalisable A diagonalisable
triangularisable A triangularisable
Preuve
Nouvelle base G, nouvelle matrice B = ()
G
G
, S = matrice de changement de
base : B = S
1
AS
diagonalisable base G telle que ()
G
G
diagonale changement de base
tel que B = S
1
AS est diagonale A est semblable `a une matrice diagonale
A est diagonalisable
c Alexis Barri`ere, 2005
24 CHAPITRE 2. TRANSFORMATIONS LIN

EAIRES
Theor`eme 2.1 Soit : V V une transformation lineaire (avec V de di-
mension nie). Alors est diagonalisable si et seulement si il existe une base
G formee de vecteurs propres
Preuve
cf. Consequences ci-dessus
Morale
Il nous faut une methode pour trouver les vecteurs propres
Caracterisation des valeurs propres
Theor`eme 2.2 Soit : V V une transformation lineaire dun espace V de
dimension nie. Soit K.
Les conditions suivantes sont equivalentes :
1. est une valeur propre de
2. Ker( .id) = {0}
3. .id nest pas inversible
Preuve
1. v V, v = 0, (v) = .v
v, v = 0, ( .id)(v) = 0
Ker( .id) = {0} (cest-`a-dire 2.)
.id nest pas injective
crit`ere de
bijectivite
dim. finie
.id nest pas bijective
.id nest pas inversible (cest-`a-dire 3.)
Matriciellement
Crit`ere : : V V representee par A = ()
F
F
est valeur propre de .id nest pas inversible A.I
n
nest
pas inversible det(A.I
n
) = 0
Denition 2.6 Soit A M
n
(K). Le polynome caracteristique de A, note c
A
(t)
est deni par c
A
(t) = det(At.I
n
)
c
A
(t) =

A
11
t A
12
. . . A
1n
A
21
A
22
t
.
.
.
.
.
.
.
.
.
.
.
.
A
n1
. . . . . . A
nn
t

= polynome en t
Crit`ere (nouvelle version) : : V V representee par A = ()
F
F
est une valeur propre de c
A
() = 0 est une racine de c
A
(t)
Methode pour les valeurs propres
1. calculer c
A
(t) : operations elementaires
c Alexis Barri`ere, 2005
25
2. trouver les racines de c
A
(t) : en general impossible approximation (ana-
lyse numerique)
Remarque
Pour 1. : ne jamais diviser par un polynome en t !
Donc faire des operations
Exemples
1. n = 2
_
a b
c d
_
c
A
(t) =

a t b
c d t

= (a t)(b t) bc = t
2
(a +d)t + (ad bc)
c
A
(t) = t
2
Tr(A)t + det(A)
2. A triangulaire
A =
_
_
_
_
_
a
11

a
22
.
.
.
0 a
nn
_
_
_
_
_
c
A
(t) =

a
11
t
a
22
t
.
.
.
0 a
nn
t

= (a
11
t)(a
22
t) . . . (a
nn
t) = (1)
n
(t a
11
)(t a
22
) . . . (t a
nn
)
On voit que les valeurs propres sont a
11
, a
22
, . . ., a
nn
Les valeurs propres dune matrice triangulaire sont ses coecients diago-
naux
Proposition
c
A
(t) = (1)
n
t
n
+ (1)
n1
Tr(A)t
n1
+ . . . . . .
. .
coecients non-species
+det(A)
ou bien
c
A
(t) = (1)
n
(t
n
Tr(A)t
n1
+. . . + (1)
n
det(A))
Preuve
Dans la formule qui denit le determinant (

S
n
() . . .), on constate, pour
det(A t.I
n
), le seul terme o` u apparat t
n
ou t
n1
est le produit des termes
diagonaux (correspondant `a = id), cest-`a-dire (a
11
t)(a
22
t) . . . (a
nn
t).
Donc c
A
(t) = (a
11
t) . . . (a
nn
t) + (termes de degre n 2)
= (1)
n
t
n
+ (1)
n1
(a
11
+ a
22
+ . . . +a
nn
)
. .
Tr(A)
t
n1
+ (termes de degre n 2)
Pour le terme constant, on prend t = 0 et on trouve det(A0.I
n
) = det(A)
c Alexis Barri`ere, 2005
26 CHAPITRE 2. TRANSFORMATIONS LIN

EAIRES
Theor`eme 2.3 Deux matrices semblables ont le meme polynome caracteristique
Preuve
B semblable `a A, donc B = S
1
AS
c
B
(t) = det(B t.I
n
)
= det(S
1
AS t S
1
S
. .
I
n
)
= det(S
1
AS S
1
(t.I
n
)S)
= det(S
1
(At.I
n
)S)
= det(S
1
det(A
t
.I
n
)det(S)
= det(S)
1
det(At.I
n
)det(S)
= det(At.I
n
)det(S)
1
det(S)
= det(At.I
n
)
= c
A
(t)
Corollaire 1
Deux matrices semblables ont les memes valeurs propres (avec les memes mul-
tiplicites dans le polynome caracteristique)
Preuve
Les valeurs propres sont les racines du polynome caracteristique
Corollaire 2
Deux matrices semblables ont la meme trace et le meme determinant
Preuve
Ce sont au signe pr`es les coecients de t
n1
et t
0
dans le polynome caracteristique
Denition 2.7 Un invariant de similitude est une donnee qui ne change pas
lorsquon passe dune matrice `a une matrice semblable
Exemples
Le polynome caracteristique, la trace, le det, les valeurs propres sont des inva-
riants de similitude
Denition 2.8 Soit : V V une transformation lineaire dun espace vec-
toriel V de dimension nie.
Le polynome caracteristique de est le polynome c
A
(t) o` u A est la matrice de
par rapport `a une certaine base.
Cest bien deni, cest-`a-dire que cela ne depend pas des choix, en loccurence
du choix dune base : A = ()
F
F
, B = ()
G
G
. Alors B = S
1
AS (o` u S = (id)
F
G
)
et c
B
(t) = c
A
(t) par le theor`eme
Notation
Le polynome caracteristique de se note c

(t)
Donc c

(t) = c
A
(t) = c
B
(t), avec A = ()
F
F
, B = ()
G
G
Denition 2.9 Soit une valeur propre dune transformation lineaire : V
V. Lespace propre associe `a , note E

, est :
c Alexis Barri`ere, 2005
27
E

= {v V/ (v) = .v}, en dautres termes :


E

= {vecteurs propres pour } {0}


Cest bien un sous-espace vectoriel de V, car E

= Ker( .id)
Matriciellement A = ()
F
F
(A.I
n
)
_
_
_
x
1
.
.
.
x
n
_
_
_ =
_
_
_
0
.
.
.
0
_
_
_ syst`eme homog`ene
En particulier dim(E

) = n [rang du syst`eme (A .I
n
) = 0] = nombre
dinconnues libres
Lemme 2.1 Soit
1
, . . . ,
r
des valeurs propres 2 `a 2 distinctes de : V V.
Alors la somme E

1
+E

2
+ . . . +E

r
est une somme directe.
Preuve
On proc`ede par recurrence sur le nombre r de sous-espaces propres.
Si r = 1, rien `a montrer
Si r = 2, cf Exercice 4 serie 19
Supporsons r 2 et supposons le resultat demontre pour r 1 sous-espaces
propres.
On doit montrer que lintersection dun E

, avec la somme de tous les autres


est reduite `a {0}. Pour simplier la notation, on consid`ere E

r
et

r1
i=1
E

i
et
on doit montrer que :
(
r1

i=1
E

i
) E

r
= {0}
Soit v (

r1
i=1
E

i
) E

r
, `a voir v
?
= 0
v

r1
i=1
E

i
v = v
1
+ . . . +v
r1
avec v
i
E

i
, ecriture unique
v
i
E

i
(v
i
) =
i
v
i
(1 i r 1)
(v) = (v
1
) + . . . +(v
r1
) =
1
v
1
+ . . . +
r1
v
r1
Par ailleurs, v E

r
et donc (v) =
r
v =
r
(v
1
+ . . . +v
r1
)
On soustrait 0 = (
r

1
)v
1
. .
E

1
+. . . + (
r

r1
)v
r1
. .
E

r1
Comme la somme est directe, on doit avoir :
(
r

1
)v
1
= . . . = (
r

r1
)v
r1
= 0
valeurs propres distinctes
r

1
= 0, . . . ,
r

r1
= 0 v
1
= . . . =
v
r1
= 0
v = v
1
+ . . . +v
r1
= 0
Remarques
Si
1
, . . . ,
r
sont les valeurs propres distinctes de : V V la somme directe
des espaces propres ne donne, en general, pas V tout entier.
Proposition
Soit
1
, . . . ,
r
les valeurs propres 2 `a 2 distinctes de : V V, alors

r
i=1
E

i
= V est diagonalisable.
c Alexis Barri`ere, 2005
28 CHAPITRE 2. TRANSFORMATIONS LIN

EAIRES
Preuve
: On suppose que

r
i=1
E

i
= V
On choisit une base G
i
de E

1
.
Alors C
r
= G
1
. . . G
r
est une base de V, cette base est formee de
vecteurs propres. Donc est diagonalisable.
: On suppose diagonalisable.
Donc une base G formee de vecteurs propres.
On regroupe tous les vecteurs propres ayant la meme valeur propre

r
i=1
G
i
o` u G
i
= {vecteurs dans G correspondant `a la valeur propre
i
}
V
1
= V ect(G
1
), . . . , V
r
= V ect(G
r
)
V =

r
i=1
V
i
, clairement V
i
E

i
Exercice
V
i
= E

i
V = V
1
. . . V
r

E

1
. . . E

r
Denition 2.10 Soit en valeur propre de L(V)
a) La multiplicite algebrique de note m
alg
() est la multiplicite de comme
racine de c

(t)
b) La multiplicite geometrique de , notee m
geom
() est la dimension de les-
pace propre E

Proposition
Soit une valeur propre de L(V)
Alors 1 m
geom
() m
alg
()
Preuve

Si valeur propre Ker( .id) = {0}


E

= {0}
dim(E

) 1
E

= {0}
m
geom
() 1
Soit m = m
geom
() et soit (e
1
, . . . , e
m
) une base de E

, completons-la en
une base E = (e
1
, . . . , e
m
, e
m+1
, . . . , e
n
) de V
A = ()
E
E
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0

.
.
.

_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

_
m
_

_
n m
c Alexis Barri`ere, 2005
29
car (e
i
) = .e
i
i = 1, . . . , m
Il sensuit que :
c

(t) = c
A
(t) = det
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
t 0

.
.
.


0 t

B t.I
nm

_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
dev. par col.
= ( t)
m
.det(B t.I
nm
)
On voit donc que c

(t) est divisible par (t)


m
si bien que la multiplicite
algebrique est au moins m
Theor`eme 2.4 Theor`eme de diagonalisation
(caracterisation des transformations lineaires diagonalisables)
Soit V un K-espace vectoriel tel que dim(V) = n N et soit L(V).
Alors est diagonalisable si et seulement si :
a) c

(t) est scinde


c

(t) = (1)
n

n
i=1
(t
i
)
m
i
b)
i
de , m
geom
(
i
) = m
alg
(
i
)
Preuve
: Supposons que est diagonalisable
Donc V =

r
i=1
E

i
,
i
valeurs propres (
i
=
j
si i = j) de
On choisit G
i
une base de E

i
i
Soit G =

r
i=1
G
i
qui est une base de V
Alors
A = ()
G
G
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

1
0
.
.
.
0
1
0

2
0
.
.
.
0
2
.
.
.
0

r
0
.
.
.
0
r
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
|G
1
|
_
_
_
|G
2
|
_
_
_
|G
r
|
Ainsi :
c

(t) = c
A
(t) = (1)
n
r

i=1
(t
i
)
m
i
m
i
= |G
i
|
c Alexis Barri`ere, 2005
30 CHAPITRE 2. TRANSFORMATIONS LIN

EAIRES
ce qui montre a).
De plus :
m
alg
(
i
) = m
i
= |G
i
| = dim(E

i
) = m
geom
(
i
)
ce qui montre b).
: Supposons a) et b)
Comme c

(t) est scinde, on a :


c

(t) = (1)
n
r

i=1
t
i
)
m
i

i
=
j
si i = j
o` u m
i
= m
alg
(
i
) = m
geom
(
i
) = dim(E

i
)
Par le lemme 2.1 : E

1
+ . . . + E

r
=

r
i=1
E

i
est un sous-espace de V
Or dim(

r
i=1
E

i
) =

r
i=1
dim(E

i
) =

r
i=1
m
i
= n


r
i=1
E

i
= V
Par le lemme, est diagonalisable.
Corollaire
Soit : V V une transformation lineaire dun espace vectoriel de dimension
nie n. On suppose que c

(t) poss`ede n racines distinctes. Alors est diagona-


lisable.
Preuve
n racines distinctes
1
,
2
, . . . ,
n
c

(t) = (1)
n
(t
1
)(t
2
) . . . (t
n
)
Dans ce cas m
alg
(
i
) = 1
Or 1 m
geom
(
i
) m
alg
(
i
) = 1
Donc i m
alg
(
i
) = m
geom
(
i
) (egal `a 1)
Par le theor`eme est diagonalisable
Exemple
A =
_
_
12 9 4
0 1 0
42 33 14
_
_
On calcule c

(t)
c

(t) = t(t + 1)(t 2)


3 valeurs propres :0, 1, 2
Donc A diagonalisable, cest-`a-dire A est semblable `a :
B =
_
_
0 0 0
0 1 0
0 0 2
_
_
Methode de diagonalisation
Soit : V V
1. On choisit une base Fet on a la matrice A = ()
F
F
2. On calcule c

(t) = c
A
(t) operations elementaires
c Alexis Barri`ere, 2005
31
3. On cherche les racines de c

(t) et leurs multiplicites algebriques (impos-


sible en general ! ou bien approximation)
4. Si on na pas trouve n racines (en comptant les multiplicites, alors c

(t)
nest pas scinde
STOP : pas diagonalisable
Sinon on continue : c
alpha
(t) = (1)
n

n
i=1
(t
i
)
m
i
m
i
= m
alg
(
i
)
(m
1
+m
2
+ . . . +m
r
= n)
5. On cherche E

i
= Ker( .id)
Matriciellement (A
i
.I
n
)
dim(E

i
) = m
geom
(
i
)
On trouve aussi une base de E
lambda
i
(`a laide des inconnues libres)
Si m
geom
(
i
) < m
alg
(
i
) pour une des valeurs propres
i
STOP :pas diagonalisable
6. Sinon m
geom
(
i
) = m
alg
(
i
) pour tout
i
On prend la base G
i
de E

i
(cf point 5))
On obtient une base G = G
1
. . . G
r
pour V; base de vecteurs propres
7. On sait que A est semblable `a B
B =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

1
.
.
.

2
.
.
.

2
.
.
.

r
.
.
.

r
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
m
1
_
_
_
m
2
_
_
_
m
r
Si on veut le changement de base explicite, on introduit la matrice de
changement de base S = (id)
F
G
(vecteurs propres en colonnes, exprimees
dans la base F de depart)
Alors B = S
1
AS
Application : Puissance dune matrice
A M
n
(K) donnee. On veut trouver A
k
, k N
On suppose A diagonalisable (parce que la methode fonctionne).
On diagonalise A et on trouve B = S
1
AS diagonale.
On calcule B
k
, facile :
B =
_
_
_
b
11
0
.
.
.
0 b
nn
_
_
_, alors B
k
=
_
_
_
b
k
11
0
.
.
.
0 b
k
nn
_
_
_
Finalement on revient `a A et A
k
grace aux formules :
B = S
1
AS A = SBS
1
B
k
= S
1
A
k
S A
k
= SB
k
S
1
c Alexis Barri`ere, 2005
32 CHAPITRE 2. TRANSFORMATIONS LIN

EAIRES
(Preuve : A
k
= A.A. . . . .A
. .
k
= SBS
1
S
. .
I
n
BS
1
. . .
. .
I
n
. . . . . . S
..
I
n
BS
1
= SB
k
S
1
)
Exemple
A =
_
1 1
2 4
_
c
A
(t) = t
2
5t + 6 = (t 2)(t 3)
E
2
: Ker
_
1 1
2 2
_

x +y = 0
base de E
2
:
_
1
1
_
= g
1
E
3
: Ker
_
2 1
2 1
_

2x + y = 0
base de E
3
:
_
1
2
_
= g
2
S =
_
1 1
1 2
_
S =
_
2 1
1 1
_
B = S
1
AS =
_
2 0
0 3
_
B
k
=
_
2
k
0
0 3
k
_
A
k
= SB
k
S
1
=
_
1 1
1 2
__
2
k
0
0 3
k
__
2 1
1 1
_
=
_
2
k+1
3k 2
k
+ 3
k
2
k+1
2.3
k
2
k
+ 2.3
k
_
Theor`eme 2.5 Theor`eme de triangularisation
Soit : V V une transformation lineaire dun espace vectoriel V de dimen-
sion nie
est triangularisable si et seulement si c

(t) est scinde


Preuve
Supposons triangularisable. Donc il existe une base G telle que A = ()
G
G
est
triangulaire
A =
_
_
_
a
11

.
.
.
0 a
nn
_
_
_
c

(t) = c
A
(t) = det(At.I
n
) =

n
i=1
(a
ii
t) = (1)
n

n
i=1
(t a
ii
)
Reciproquement supposons c

(t) scinde. Donc c

(t) = (1)
n

r
i=1
(t
i
)
m
i
On proc`ede par recurrence sur n, le cas n = 1 etant banal.
Il y a au moins une valeur propre
1
donc au moins un vecteur propre f
1
cor-
respondant `a
1
.
On compl`ete en une base F= (f
1
, f
2
, . . . , f
n
) de V.
Alors la matrice A = ()
F
F
est de la forme :
A =
_
_
_
_
_

1
. . .
0 . . .
.
.
. . . .
0 . . .
_
_
_
_
_
c Alexis Barri`ere, 2005
33
On ecrit :
A =
_
_
_
_
_
_
_
_
_
_
_
_
_
_

. . .
0

.
.
.

B
0

_
_
_
_
_
_
_
_
_
_
_
_
_
_
B M
n1
(K)
(1)
n
r

i=1
(t
i
)
m
i
= c

(t) = c
A
(t) =

1
t

. . .
0

.
.
.

B t.I
n
0

= (
1
t).(B t.I
n
) =
1
.c
B
(t)
Donc c
B
(t) = (1)
n1
(t
1
)
m
i
1

r
i=2
(t
i
)
m
i
est scinde.
Par hypothese de recurrence B est triangularisable (taille n-1). Il existe donc
une matrice de changement de base T GL
n1
(K) telle que C = T
1
BT est
triangulaire.
On introduit un changement de base S pour V tout entier
S =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1

0 . . . 0
0

.
.
.

T
0

_
_
_
_
_
_
_
_
_
_
_
_
_
_
Alors S
1
AS =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1

0 . . . 0
0

.
.
.

T
1
0

_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

. . .
0

.
.
.

B
0

_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1

0 . . . 0
0

.
.
.

T
0

_
_
_
_
_
_
_
_
_
_
_
_
_
_
c Alexis Barri`ere, 2005
34 CHAPITRE 2. TRANSFORMATIONS LIN

EAIRES
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_

. . .
0

.
.
.

T
1
BT
0

_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_

. . .
0

.
.
.

C
0

_
_
_
_
_
_
_
_
_
_
_
_
_
_
Comme C est triangulaire, S
1
AS est triangulaire.
Cela montre que A est triangularisable, donc aussi.
Remarques
La preuve fourmit une methode pour triangulariser. On peut lamliorer en com-
mencant par choisir une base F ayant un maximum possible de vecteurs propres.
Donc A =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

.
.
.

_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
On recommence avec B puis on fait un changement de base de la forme
S =
_
_
I

0
0

T
_
_
etc
Corollaire
K = C
Toute transformation lineaire dun C-espace vectoriel de dimension nie est tri-
angularisable
Preuve
c

(t) est scinde car C est algebriquement clos.


Formule pour la trace et le determinant
On suppose : V V triangularisable.
Donc c

(t) = (1)
n
(t
1
)(t
2
) . . . (t
n
)
Tr() =
1
+
2
+ . . . +
n
det() =
1
.
2
. . . . .
n
c Alexis Barri`ere, 2005
35
Autre ecriture :
c

(t) = 8 1)
n

n
i=1
(t
i
)
m
i
Tr() = m
1

1
+ m
2

2
+ . . . +m
r

r
det() =
m
1
1
.
m
2
2
. . . . .
m
r
r
Preuve
Comme est triangularisable, il existe une base F telle que :
()
F
F
= A =
_
_
_

1

.
.
.
0
n
_
_
_
(avec automatiquement les racines sur la diagonale)
Tr() = Tr(A) =
1
+ . . . +
n
det() = det(A) =
1
. . . . .
n
c Alexis Barri`ere, 2005
36 CHAPITRE 2. TRANSFORMATIONS LIN

EAIRES
c Alexis Barri`ere, 2005
Chapitre 3
Le polynome minimal dune
transformation lineaire
Dans tout ce chapitre, : V V est une transformation dun K-espace
vectoriel V de dimension nie.
Polynome en
Si f(t) K[t] est un polynome, alors on peut evaluer f en :
f(t) = a
k
t
k
+ . . . +a
1
t + a
0
(a
i
K)
f() = a
k

k
+ . . . + a
1
+ a
0
. . .
. .
k fois
f() L(V) f() : V V
Exemples
f(t) = t
2
+ 1
f() =
2
+id
Matriciellement
A = ()
F
F
f(A) = a
k
A
k
+. . . + a
1
A + a
0
I
n
..
matrice scalaire
cest levaluation de f(t) en A
f(A) = (f())
F
F
L(V) M
n
(K)
()
F
F
Remarques
1. changement de base
A = ()
F
F
B = ()
G
G
37
38
CHAPITRE 3. LE POLYN

OME MINIMAL DUNE TRANSFORMATION


LIN

EAIRE
B = S
1
AS
f(B) = a
k
B
k
+ . . . +a
1
B + a
0
I
n
= a
k
S
1
A
k
S + . . . +a
1
S
1
AS + a
0
I
n
= S
1
(a
k
A
k
+ . . . +a
1
A +a
0
I
n
)S
= S
1
f(A)S
Donc f() est represente matriciellement par :
- f(A) = (f())
F
F
- f(B) = (F())
G
G
avec changement de base : S = (id)
F
G
2. Non-commutativite
Les
_
transformations lineaires
matrices
ne commutent pas en general.
En revanche, deux polynomes en (ou en A) commutent toujours
Preuve
f(t) = a
k
t
k
+ . . . + a
0
g(t) = b
r
t
r
+ . . . +a
0
Pour montrer que f() g() = g() f() on developpe tout et on arrive
`a montrer que :
(a
i

i
) (b
j

j
) = (b
j

j
) (a
i

i
)
Ce qui revient `a montrer que :

i

j
. .

i+j
=
j

i
. .

j+i
Polynome annulateur
Denition 3.1 On dit quun polynome f(t) est un polynome annulateur de
si f() = 0 (transformation lineaire 0)
Matriciellement f(A) = 0
Exemple
A =
_
3 3
1 1
_
f(t) = t
3
+ 2t
2
f(A) = A
3
+ 2A
2
= . . . = 0
Theor`eme 3.1 Pour L(V) donne, il existe toujours des polynomes annu-
lateurs non-nuls. De meme pour A M
n
(K)
Preuve
Alg`ebre lineaire dans le K-espace vectoriel M
n
(K). Cest un K-espace vectoriel
de dimension n
2
(base {e
s
})
Les matrices I
n
, A, A
2
, . . . , A
n
2
sont en nombre n
2
+1, donc lineairement dependantes.
Donc il existe des scalaires non tous nuls c
0
, c
1
, . . . , c
n
2 tels que :
c
0
I
n
+ c
1
A + . . . +c
n
2A
n
2
= 0
On voit que le polynome c
n
2t
n
2
+. . . +c
1
t +c
0
est un polynome annulateur de
A (non nul).
c Alexis Barri`ere, 2005
39
Denition 3.2 Un polynome f(t) est appele polynome minimal de si :
1. f(t) est annulateur de , et non-nul
2. f(t) est de degre minimal parmi tous les polynomes annulateurs non-nuls
de
3. f(t) est un polynome unitaire
La condition 2. sigine que si g(t) est non-nul et de degre strictement inferieur
`a f(t), alors g() = 0
Proposition
Soit f(t) un polynome minimal de (annulateur f() = 0, de degre minimal,
unitaire)
a) Si g(t) est un polynome annulateur de alors g(t) est un multiple de f(t)
(g(t) = q(t).f(t))
b) Le polynome minimal f(t) est unique (correspondant `a une transformation
lineaire donne)
Preuve
a) division euclidienne :
g(t) = q(t).f(t) + r(t) avec deg(r(t)) < deg(f(t))
On evalue en :
g()
..
0
= q() f()
..
0
+r()
Donc r() = 0
Mais deg(r(t)) < deg( f(t)
..
minimal
)
Il sensuit que r(t) est le polynome nul.
Donc g(t) = q(t).f(t), multiple de f(t)
b) Soit

f(t) un autre polynome minimal de . On utilise la partie a) :

f(t) annulateur
f(t) minimal
_


f(t) = q(t).f(t)
De meme
f(t) annulateur

f(t) minimal
_
f(t) = p(t).

f(t)
deg(

f(t)) deg(f(t)) (ajouter deg(q(t)))
deg(f(t)) deg(

f(t)) (ajouter deg(p(t)))
Donc deg(

f(t)) = deg(f(t))
et deg(q(t)) = 0, cest-`a-dire q(t) = (o` u K)

f(t) = .f(t), meme degre


coecient dominant : 1
..

f(t) unitaire
= . 1
..
f(t) unitaire
Donc = 1
et nalement

f(t) = f(t)
Donc f(t) est unique.
Notation
Le polynome minimal de se note m

(t)
Matriciellement, si A M
n
(K), le polynome inimal de A se note m
A
(t).
Si A = ()
F
F
(par rapport `a une certaine base F), alors m
A
(t) = m

(t), en
c Alexis Barri`ere, 2005
40
CHAPITRE 3. LE POLYN

OME MINIMAL DUNE TRANSFORMATION


LIN

EAIRE
raison de lisomorphisme de K-alg`ebre :
L(V) M
n
(K)
()
F
F
Proposition
Si A et B sont deux matrices carrees semblables, alors m
A
(t) = m
B
(t) (inva-
riant de similitude)
Premi`ere preuve
A et B sont les matrices dune meme transformation lineaire par rapport `a
des bases dierentes
(A = ()
F
F
, B = ()
G
G
, S = (id)
F
G
, B = S
1
AS)
Il sensuit que m
A
(t) = m

(t) = m
B
(t)
Deuxi`eme preuve (calculatoire)
B = S
1
AS f(B) = S
1
f(A)S f(t) K[t]
(et aussi Sf(B)S
1
= f(A))
Donc f(B) = 0 f(A) = 0
Donc A et B ont exactement les memes polynomes annulateurs.
En particulier A et B ont le memes polynomes minimaux.
Exemple
_
3 3
1 1
_
f(t) = t
2
2t
f(A) = A
2
2A = 0. Donc f(t) est un multiple de m
A
(t)
f(t) = t(t 2) Les possibilites pour m
A
(t) sont
_
_
_
t(t-2)
t-2
t
t est impossible car A = 0 (t nest pas annulateur)
t 2 est impossible car A2I
2
= 0 (t 2 nest pas annulateur)
Donc m
A
(t) = t(t 2)
Lien entre m

(t) et c

(t)
Theor`eme 3.2 Theor`eme de Hamilton-Caytey
Soit : V V une transformation lineaire dun K-espace vectoriel V de di-
mension nie.
Alors c

() = 0 . En dautres termes, le polynome caracteristique est annu-


lateur, ou encore : le polynome caracteristique est un multiple du polynome
minimal
Exemple
n=2
A =
_
a b
c d
_
c
A
(t) = t
2
Tr(A) +det(A)
c
A
(A) = A
2
(a + d)A + (ad bc)I
2
= 0
c Alexis Barri`ere, 2005
41
Preuve direct dans ce cas : exercice facile
Preuve
c

()
?
= 0
1
er
cas : Supposer c

(t) scinde
c

(t) = (1)
n

n
i=1
(t
i
) (
1
. . . ,
n
= racines non necessairement
distinctes)
Dans ce cas est triangularisable.
Il existe une base F=(f
1
, . . . , f
n
) de V avec :
A =
_
_
_

1

.
.
.
0
n
_
_
_
On denit des sous-espaces :
V
k
= V ect(f
1
, . . . , f
k
) k = 0, 1, . . . , n
V
0
..
0
V
1
V
2
. . . V
n
= V
(
k
.id)(f
i
) est une combinaison lineaire de f
1
, f
2
, . . . , f
n
pour tout
i = 1, 2, . . . , k
En eet cela se voit sur les premi`eres colonnes de la matrice.
(
k
.id)
F
F
= A
k
.I
n
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

.
.
.

k1

0 . . . 0

k+1

k
.
.
.
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Donc (
k
.id)(V
k
) V
k1
Il sensuit que c

()(v) = 0
Donc c

() = 0
2
`eme
cas : cas general
c

(t) non necessairement scinde.


Il existe un corps L contenant K comme sous-corps tel que le polynome
c

(t) devient scinde dans L[t] (par exemple si K = Q, ou si K = R, on


peut prendre L = C car C est algebriquement clos).
On choisit une base F de V et on consid`ere la matrice A = ()
F
F
. Cest une
matrice dans M
n
(K). On peut la voir comme une matrice dans M
n
(L).
Dans L[t], c
A
(t) = c

(t) est scinde. Donc on peut appliquer le 1


er
cas. Le
1
er
cas nous dit que c
A
(A) = 0 dans M
n
(L) mais c
A
(t) est `a coecients
dans K et A aussi. Comme M
n
(K) M
n
(L) le calcul se fait en fait dans
M
n
(K).
Ceci signie que c

() = 0
c Alexis Barri`ere, 2005
42
CHAPITRE 3. LE POLYN

OME MINIMAL DUNE TRANSFORMATION


LIN

EAIRE
Theor`eme 3.3 Soit : V V une transformation lineaire dun K-espace
vectoriel V de dimension nie. Alors m

(t) et c

(t) ont exactement les memes


racines.
racine de m

(t) racinie de c

(t)
Preuve
: racine de m

(t)
m

() = 0
Par Hamilton-Caytey, m

(t) divise c

(t)
c

(t) = q(t).m

(t)
Donc c

() = q(). m

()
. .
0
Donc racine de c

(t)
: racine de c

(t)
Donc est une valeur propre de
Donc il existe 0 = v V tel que (v) = .v. Il sensuit que
2
(v) =
2
.v
et par recurrence
k
(v) =
k
.v
Soit f(t) = a
k
t
k
+ . . . +a
1
t + a
0
K[t] un polynome.
f().(v) = a
k

k
(v)
. .

k
.v
+. . . + a
1
(v)
..
.v
+a
0
id(v)
. .
v
= (a
k

k
+ . . . + a
1
+ a
0
).v
= f().v
Si f est annulateur, alors f() = 0 et donc f()(v) = 0
Comme v = 0, f() = 0 donc est une racine de f(t).
Ceci vaut en particulier pour le polynome m
alpha
(t)
Corollaire
Si c

(t) est scinde, alors :


c

(t) = (1)
n

r
i=1
(t
i
)
m
i
m
i
= m
alg
(
i
), r =nombre de valeurs propres distinctes,

r
i=1
m
i
= n
et
m

(t) =

r
i=1
(t
i
)
k
i
Avec 1 k
i
m
i
(i = 1, . . . , r)
Preuve
m

(t) divise c

(t) k
i
m
i
m

(t) a exactement les memes racines 1 k


i
Methode pour trouver m

(t)
1. Calculer c

(t)
2. Decouper c

(t) comme produit de polynomes irreductibles (cest-`a-dire


(t
i
) dans le cas scinde)
c Alexis Barri`ere, 2005
43
3. Ecrire m

(t) avec les memes facteurs irreductibles, mais des multiplicites


eventuellement plus petites (mais en tout cas 1)
4. Tester tous les cas possibles pour obtenir les multiplicites les plus petites
possibles, tout en conservant le caract`ere annulateur du polynome
Exemple
A =
_
_
1 1 a
1 1 b
0 0 2
_
_
c
A
(t) = t(t 2)
2
Donc m
A
(t) =
_
t(t 2)
t(t 2)
2
Test : on remplace t par A
A(A2I
3
)
?
= 0
A(A2I
3
)
HC
= 0
On calcule A(A2I
3
) =
_
_
0 0 a + b
0 0 a + b
0 0 0
_
_
Si a = b, alors m
A
(t) = t(t 2)
Si a = b, alors m
A
(t) = t(t 2)
2
Denition 3.3 Soit : V V, une transformation lineaire et soit W un
sous-espace vectoriel de V. On dit que West -invariant, ou simplement invariant,
si (W) W
Exemple
Un sous-espace propre est toujours un sous-espace invariant. En particulier
Ker() est invariant.
Matriciellement
Si V est de dimension nie, on choisit une base f
1
, . . . , f
r
de W et on la compl`ete
en une base F = (f
1
, . . . , f
r
, f
r+1
, . . . , f
n
) de V.
Avec ce choix de base la matrice carre A = ()
F
F
secrit :
A =
_
B


_
}r
}n r
o` u B est la matrice |
W
: WW par rapport `a la base (f
1
, . . . , f
r
) de W
Preuve
(f
i
) W car f
i
W (si i = 1, . . . , r) et W est invariant.
Donc (f
i
) est combinaison lineaire de f
1
, . . . , f
r
(avec coe. 0 pour les autres
vecteurs de base)
Decomposition invariante
Si V = W
1
W
2
avec W
1
et W
2
invariant par , (decomposition invariante),
alors matriciellement on trouve ceci :
On choisit une base (f
1
, . . . , f
r
) de W
1
et une base (f
r+1
, . . . , f
n
) de W
2
si bien
c Alexis Barri`ere, 2005
44
CHAPITRE 3. LE POLYN

OME MINIMAL DUNE TRANSFORMATION


LIN

EAIRE
que F = (f
1
, . . . , f
r
, f
r+1
, . . . , f
n
) est une base de V, et alors :
A = ()
F
F
=
_
B
1

0
0

B
2
_
o` u B
1
est la matrice de |
W
1
: W
1
W
1
par rapport `a (f
1
, . . . , f
r
) et B
2
est
la matrice de |
W
2
: W
2
W
1
par rapport `a (f
r+1
, . . . , f
n
)
Preuve
Comme dans le cas precedent
Lemme 3.1 Lemme de decomposition
Soit : V V une transformation lineaire (dans V) et soit f(t) un polynome
annulateur de . On suppose que f(t) = g(t).h(t) o` u g(t) et h(t) sont premiers
entre eux.
Soit U = Ker(g()) et W= Ker(h())
Alors V se decompose en somme direct de sous-espaces invariants V = UW
Preuve
U est bien un sous-espace invariant car si u U = Ker(g()) alors
g()((u)) = (g() )(u)
polynomes en
commutent
= ( g())(u)
= (g()(u)
. .
0
)
= 0
Donc (u) Ker(g()) = U, cest-`a-dire (U) U
De meme W est invariant.
Comme g(t) et h(t) sont premiers entre eux, on peut appliquer le ther`eme de
Bezout :
p(t), q(t) K[t] tels que p(t)g(t) + q(t)h(t) = 1
On evalue en : p() g() +q() h() = id
Soit v V. On evalue en v :
v = (p() g())(v)
. .
w
+(q() h())(v)
. .
u
(3.1)
Tout v V se decompose en v = w + u avec w = p()(g()(v)) et u =
q()(h()(v))
On monter que u U (et de meme w W)
g()(u)
?
= 0
g()(u) = g()
_
(q() h())(v)

= (g() q() h())(v)


polynomes en
commutent
=
_
q() g() h()
. .
f()=0

(v)
= 0
c Alexis Barri`ere, 2005
45
Par une preuve analogue w Ker(h()) = W
On a ainsi demontre que V=W+U (tout v secrit v = w + u)
Il reste `a montrer que U W = {0}
Soit donc z U W. On lui applique la decomposition 3.1 :
z = p()( g()(z)
. .
0 car z Ker(g())=U
) +q()( h()(z)
. .
0 car z Ker(h())=W
) = 0
Donc U W = {0} et la somme V=U+W est directe.
Decomposition primaire (cas triangularise)
Soit : V V une transfomation lineaire o` u V est un K-espace vectoriel de
dimension nie.
On suppose (pour simplier) que est triangularisable, en dautres termes c

(t)
est scinde :
c

(t) = (1)
n
r

i=1
(t
i
)
m
i
m

(t) =
r

i=1
(t
i
)
k
i
1 k
i
m
i
o` u
1
, . . . ,
r
sont les valeurs propres distinctes et m
i
= m
alg
(
i
)
Theor`eme 3.4 Theor`eme de la decomposition primaire
Avec les notions ci-dessus, lespace V se decompose en somme directe
V = W
1
W
2
. . . W
r
de sous-espaces invariants
o` u W
i
= Ker(
i
.id)
k
i
De plus on a aussi W
i
= Ker(
i
.id)
m
i
Donc W
i
= Ker(
i
.id)
k
i
= Ker(
i
.id)
m
i
De plus, la restriction |
W
i
: W
i
W
i
a comme polynome caracteristique
c
|
W
i
(t) = (1)
m
i
(t
i
)
m
i
et comme polynome minimal
m
|
W
i
(t) = (t
i
)
k
i
Denition 3.4 Les sous-espaces W
i
sappellent les sous-espaces primaire de
, ou parfois aussi les sous-espaces propres generalises
Preuve
Par recurrence sur r (=nombre de valeurs propres distinctes)
r = 1 : Rien `a montrer
r 2 : m

(t) =
_
r1

i=1
(t
i
)
k
i
_
. .
g(t)
(t
r
)
k
r
. .
k(t)
Alors g(t) et h(t) sont premiers
entre eux.
On applique le lemme de decomposition et on trouve :
V = UW
r
o` u U = Ker(g()) et W
r
= Ker(h()) = Ker(
r
.id)
k
r
Le polynome minimal m
|
U
(t) =

r1
i=1
(t
i
)
k
i
et aussi
c Alexis Barri`ere, 2005
46
CHAPITRE 3. LE POLYN

OME MINIMAL DUNE TRANSFORMATION


LIN

EAIRE
m
|
W
r
(t) = (t
r
)
k
r
, car sinon on aurait les diviseurs de

r1
i=1
(t
i
)
k
i
et de (t
r
)
k
r
qui seraient les polynomes annulateurs de |
U
: U U
et de |
W
r
: W
r
W
r
et on aurait alors leur produit qui seraient un
polynome annulateur de : UW
r
UW
r
ce qui nest pas possible
vu que cest
_

r1
i=1
(t
i
)
k
i
_
(t
r
)
k
r
qui est le polynome minimal de
.
Il reste alors `a appliquer lhypoth`ese de recurrence `a la transformation
|
U
: U U, avec polynome minimal

r1
i=1
(t
i
)
k
i
ayant r 1 racines.
Il sensuit que U = W
1
. . . W
r1
avec W
i
= Ker(
i
.id)
k
i
o` u k
i
est la multiplicite de
i
dans m

(t)
Nous avons ainsi demontre quil y a une decomposition invariante :
V = W
1
W
2
. . . W
r
Il reste `a montrer que W
i
= Ker(
i
.id)
m
i
o` u m
i
est la multiplicite
de
i
dans c

(t) = m
alg
(
i
)
Pour cela, on refait la preuve precedente en remplacant m

(t) par c

(t)
et on obtient une decomposition invariante : V = W

1
W

2
. . . W

r
o` u W

i
= Ker( .id)
m
i
En cours de route, on utilise le fait que si V = U

r
est une decomposition
invariante, alors c

(t) = c
|
U

(t).c
|
W

r
(t), ce qui se voit matriciellement
ainsi :
A = ()
F
F
=
_
|
U

0
0

|
W

r
_
o` u F est une base adaptee `a la decomposition.
On voit alors que c

(t) = c
A
(t)
det. par blocs
= c
|
U

(t).c
|
W

r
(t)
On a donc deux decmposition :
V = W
1
W
2
. . . W
r
= W

1
W

2
. . . W

r
et par ailleurs
W
i
= Ker(
i
.id)
k
i
Ker(
i
.id)
m
i
= W

i
car k
i
m
i
, si bien que la dimension dim(W
i
) dim(W

i
)
Il sensuit que :
n = dim(V) = dim(W
1
)+. . .+dim(W
r
) dim(W

1
)+. . .+dim(W

r
) = dim(V) = n
On a donc egalite : dim(W
i
) = dim(W

i
) i = 1, . . . , r et donc
W
i
= W

i
i = 1, . . . , r
Ainsi Ker(
i
.id)
k
i
= Ker(
i
.id)
m
i
Consequence
On a decompose V en somme directe de sous-espaces invariants W
i
, en sorte
que pour chacun des sous-espaces W
i
, il ny a quune seule valeur propre (en
loccurence
i
).
Matriciellement, il existe une base F (reunion des bases pour chacun des W
i
)
telle que :
()
F
F
=
_
_
_
_
_
B
1
0
B
2
.
.
.
0 B
r
_
_
_
_
_
c Alexis Barri`ere, 2005
47
o` u B
i
= (|
W
i
)
F
i
F
i
(o` u F
i
= base de W
i
)
et de plus :
c
B
i
(t) = (1)(t
i
)
m
i
m
B
i
(t) = (t
i
)
k
i
Theor`eme 3.5 Deuxi`eme theor`eme de diagonalisation
Soit : V V une transformation dun espace vectoriel V de dimension nie.
Alors est diagonalisable si et seulement si le polynome minimal m

(t) est
scinde avec des racines simples (cest-`a-dire k
i
= 1 i avec les notions precedentes)
Preuve
Supposons m

(t) scinde avec racines simples : m

(t) =

r
i=1
(t
i
)
1
Par le theor`eme precedent :
V = W
1
. . . W
r
= Ker(
1
.id) . . . Ker(
r
.id) = E

1
. . . E

r
somme directe despaces propres, donc est diagonalisable.
Reciproquement, supposons diagonalisable, donc il existe une base F de vec-
teurs propres et
A = ()
F
F
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

1
0
.
.
.
0
1
0

2
0
.
.
.
0
2
.
.
.
0

r
0
.
.
.
0
r
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
m
1
_
_
_
m
2
_
_
_
m
r
On evalue le polynome

r
i=1
(t
i
) en A et on trouve :
r

i=1
(A
I
n
)
1
=
_
_
_
_
_
0 0
(
2

1
)I
m
2
.
.
.
0 (
r

1
)I
m
r
_
_
_
_
_
_
_
_
_
_
(
1

2
)I
m
1
0
0
.
.
.
0 (
r

1
)I
m
r
_
_
_
_
_
. . .
_
_
_
_
_
(
1

r
)I
m
1
0
(
2

r
)I
m
1
.
.
.
0 0
_
_
_
_
_
c Alexis Barri`ere, 2005
48
CHAPITRE 3. LE POLYN

OME MINIMAL DUNE TRANSFORMATION


LIN

EAIRE
=
_
_
_
_
_
0 0
0
.
.
.
0 0
_
_
_
_
_
= 0
Ceci demontre que

r
i=1
(t
i
) est annulateur donc minimal : m

(t) =

r
i=1
(t
i
)
scinde avec racines simples.
Theor`eme 3.6 Soit A M
n
(K). Alors A secrit A = D + N o` u :
1. D est diagonalisable
2. N est nilpotente
3. D et N commutent (DN = ND)
Preuve
A = ()
F
F
matrice de : V V, triangularisable car K = C
On choisit une base G adaptee `a la decomposition primaire. Donc B = ()
G
G
B =
_
_
_
_
_
B
1
0
B
2
.
.
.
0 B
r
_
_
_
_
_
et chaque B
i
na plus quune seule valeur propre
i
c
B
(t) = (1)
m
i
(t
i
)
m
i
On triangularise B
i
, cest-`a-dire on choisit ue nouvelle base H = H
1
. . . H
r
(o` u H
i
est une nouvelle base du sous-espace primaire W
i
) telle que :
C
i
= (|
W
i
)
H
i
H
i
=
_
_
_

i
0
.
.
.

i
_
_
_
et C =
_
_
_
_
_
C
1
0
C
2
.
.
.
0 C
r
_
_
_
_
_
triangulaire
c Alexis Barri`ere, 2005
49
B semblable `a A
C semblable `a B
_
C est semblable `a A
Cest-`a-dire C = S
1
AS (o` u S = (id)
F
H
)
C =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

1

.
.
.
0
1
0

2

.
.
.
0
2
.
.
.
0

r

.
.
.
0
r
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_

1
0
.
.
.
0
1
0
.
.
.
0

r
0
.
.
.
0
r
_
_
_
_
_
_
_
_
_
_
_
_
_
. .
E
+
_
_
_
_
_
_
_
_
_
_
_
_
_
0
.
.
.
0 0
0
.
.
.
0
0
.
.
.
0 0
_
_
_
_
_
_
_
_
_
_
_
_
_
. .
M
C = E + M avec E diagonale et M triangulaire avec 0 sur la diagonale.
Donc M est nilpotente.
De plus E et M commutent.
Pour le montrer, il sut de faire le calcul dans chacun des r blocs. Dans le
premier bloc on obtient :
_
_
_

1
0
.
.
.
0
1
_
_
_
. .

1
.I
m
1
_
_
_
0
.
.
.
0 0
_
_
_ =
_
_
_
0
.
.
.
0 0
_
_
_
_
_
_

1
0
.
.
.
0
1
_
_
_
. .

1
.I
m
1
Idem pour les autres blocs.
Donc EM = ME
On revient `a A par le changement de base inverse S
1
A = SCS
1
= S(E + M)S
1
= SES
1
. .
D
+SMS
1
. .
N
E diagonale D diagonalisable (semblable `a diagonale)
M nilpotente N nilpotente
EM = ME DN = ND
(car DN = SES
1
SMS
1
= SEMS
1
= SMES
1
= SMS
1
SES
1
=
ND)
c Alexis Barri`ere, 2005
50
CHAPITRE 3. LE POLYN

OME MINIMAL DUNE TRANSFORMATION


LIN

EAIRE
Reduite de Jordan
On peut triangulariser encore mieux (dans le cas triangularisable).
On va ecrire un resultat pour chacun des sous-espaces primaires, ce qui reduit
lanalyse
B
1
= (|
W
1
)
F
1
F
1
matrice de |
W
1
: W
1
W
1
(W
1
= Ker(
1
.id)
k
1
)
Theor`eme 3.7 Il existe une base G
1
de W
1
par rapport `a laquelle |
W
1
a pour
matrice
(|
W
1
)
G
1
G
1
=
_
_
_
_
_
J
1
0
J
2
.
.
.
0 J
t
_
_
_
_
_
Reduite de Jordan
o` u chaque J
s
, appele bloc de Jordan, est de la forme suivante :
J
s
=
_
_
_
_
_
_

1
1 0
.
.
.
.
.
.
.
.
.
1
0
1
_
_
_
_
_
_
de tailles variables
De plus :
1. Le nombre t de blocs de Jordan (pour la valeur propre
1
est egal `a
m
geom
(
1
)
2. La taille du plus grand bloc de Jordan est egale `a la multiplicite k
1
de
1
dans le polynome minimal.
Sans Preuve
Remarque
A propos de 1., chaque bloc de Jordan a un espace propre de dimension 1.
Quand on les mets ensemble, on obtient t.
c Alexis Barri`ere, 2005
Chapitre 4
Espace Dual
Denition 4.1 Soit V un K-espace vectoriel (o` u K est un corps)
1. Une forme lineaire sur V est une application lineaire : V K
2. Lespace dual de V est lensemble, vote V* constitue de toutes les formes
lineaires sur V. Cest bien un K-espace vectoriel pour laddition et la mul-
tiplication scalaire des applications lineaires
Exemples
1. V = R
3
: R
3
R
(x, y, z) 3x 8y + 9z
est une forme lineaire sur R
3
2. V = C
0
([a, b], R)
I : C
0
([a, b], R) R
f I(f) =
_
b
a
f(x)dx
est une forme lineaire sur C
0
([a, b], R)
3. V = M
n
(K)
Tr : M
n
(K) K
A Tr(A) =
n

i=1
A
ii
est une forme lineaire sur M
n
(K)
Denition 4.2 Soit F = (f
1
, . . . , f
n
) une base dun K-espace vectoriel V de
dimension nie. La i-`eme fonction coordonnee par rapport `a F est lapplication
suivante :

i
: V K
n

j=1

j
f
j

i
51
52 CHAPITRE 4. ESPACE DUAL
Cest une forme lineaire sur V.
On obtient ainsi n elements
1
,
2
, . . . ,
n
dans V*.
Chaque fonction
i
est caracterisee par les conditions

i
(f
j
) =
ij
j = 1, . . . , n
En eet toute application lineaire est completement determine par son eet sur
une base.
Theor`eme 4.1 Theor`eme de la base duale
Avec les notions ci-dessus, les n formes lineaires
1
,
2
, . . . ,
n
forment une
base de V* appele la base duale de la base F de V.
En particulier dim(V*) = dim(V).
Preuve
Independance lineaire : Supposons que

n
i=1

i
= 0 (avec
i
Ki). On
evalue en f
j
:
0 =
_
n

i=1

i
_
(f
j
) =
n

i=1

1
(f
j
)
. .

ij
i=j
=
j
.1 =
j
Donc
1
,
2
, . . . ,
n
= 0
Partie generatrice : Soit V* arbitraire.
On pose : (f
i
) =
i
K. On consid`ere

n
i=1

i
et on va montrer que

n
i=1

i
= (do` u partie generatrice). Pour cela, il sut de le montrer
en evaluant sur une base de V, en loccurence F.
On evalue en f
j
:
_
n

i=1

i
_
(f
j
) =
n

i=1

1
(f
j
)
. .

ij
=
j
def de
j
= (f
j
)
Bidual
Denition 4.3 Lespace dual de V* sappelle lespace bidual et il se note V**.
Un element de V** est une application lineaire :
: V* K
() = scalaire
Exemple
On xeun vecteur v V et on consid`ere levaluation en v :

v
: V* K

v
() := (v)
Cest une forme lineaire sur V** donc un element de V**
Theor`eme 4.2 Theor`eme du bidual
Si V est de dimension nie, lapplication :
: V V**
v
v
est un isomorphisme despaces vectoriels. Cet isomorphisme permet didentier
V** avec V (o` u
v
=evaluation en v, cest-`a-dire
v
() = (v) V*)
c Alexis Barri`ere, 2005
53
Preuve
1. est une application lineaire

v+w
?
=
v
+
w
, K, v, w V
(application lineaire V*K)
V*, on calcule :

v+w
def. de
= (v + w)
lin.
= (v) + (w)
def. de
=
v
() +
w
()
def. de +et mult. scal.
= (
v
+
w
)()
Donc
v+w
=
v
+
w
2. injective
Soit v Ker(). A montrer v = 0
v Ker()
v
= 0 V*,
v
() = 0 V*, (v) = 0
On choisit une base F= (f
1
, f
2
, . . . , f
n
) de V et on consid`ere la base duale
F*= (
1
,
2
, . . . ,
n
). On ecrit v =
1
f
1
+
2
f
2
+. . . +
n
f
n
et on calcule

i
(v) = 0 :
o =
i
(v) =
i
Ceci vaut pour tout i.
Donc
1
=
2
= . . . =
n
= 0, donc v = 0
3. bijective
: V V** lineaire injective
et dim(V) = dim(V*) = dim(V**)
Alors est bijective (theor`eme de bijectivite)
Remarque
Cela permet didentier V `a V**. On voit v V comme un element de V**
via :
Vtextrm K
(v) varie, v xe
Transposee dune application lineaire
Soit : V W une application K-lineaire
Denition 4.4 La transposee de , note
t
est lapplication lineaire suivante :
t
: W* V*
(
t
)() :=
Proprietes 4.1
t
est lineaire. En eet :
(
t
)( +) = ( + ) = +
(
t
)() = . . . = (
t
)()
Theor`eme 4.3 Theor`eme (transposee matriciellement)
Soit F= (f
1
, . . . , f
n
) une base de V
Soit G= (g
1
, . . . , g
n
) une base de W
Soit F*= (
1
, . . . ,
n
) base duale de F (donc base de V*)
Soit G*= (
1
, . . . ,
n
) base duale de G (donc base de W*)
c Alexis Barri`ere, 2005
54 CHAPITRE 4. ESPACE DUAL
Soit : V W une application lineaire avec matrice A = ()
G
F
Soit
t
: W*V* lapplication lineaire avec matrice B = (
t
)
F*
G*
Alors B =
t
A ou en dautres termes : (t)
F*
G*
= t(()
G
F
)
Preuve
(f
j
) =

p
i=1
A
ij
g
i
(
t
)(
r
) =

n
s=1
B
sr

s
On evalue en f
j
:
(
t
)(
r
)(f
j
)
def. de
t

= (
r
)(f
j
) (4.1)
Avec le membre gauche de legalite (4.1) on tire :
(
t
)(
r
)(f
j
) =
_

n
s=1
B
sr

s
_
(f
j
) =

n
s=1
B
rs

s
(f
j
)
. .

sj
= B
jr
Avec le membre droite de legalite (4.1) on tire :
(
r
)(f
j
) =
r
_

p
i=1
A
ij
g
i
_
=

p
i=1
A
ij

r
(g
i
)
. .

ri
= A
rj
Donc A
rj
= B
jr
B =
t
A
c Alexis Barri`ere, 2005
Chapitre 5
Formes bilineaires
Denition 5.1 Soit V un K-espace vectoriel. Une forme bilineaire sur V est
une application :
: VV K
(u, v) (u, v)
telle que :
1. Linearite par rapport `a la premi`ere variable :
(
1
u
1
+
2
u
2
, v) =
1
(u
1
, v) +
2
(u
2
, v)
2. Linearite par rapport `a la deuxi`eme variable :
(u,
1
v
1
+
2
v
2
) =
1
(u, v
1
) +
2
(u, v
2
)
Exemples
1. Le produit scalaire standard sur R
n
est la forme bilineaire suivante :
R
n
R
n
R
_
(x
1
, . . . , x
n
), (y
1
, . . . , y
n
)
_

n

i=1
x
i
y
i
2.
R
2
R
2
R
_
(x
1
, x
2
), (y
1
, y
2
)
_
3x
1
y
1
+ 7x
1
y
2
+ 8x
2
y
1
+ 128x
2
y
2
3. Forme bilineaire de la relativite
R
4
R
4
R
_
(x
1
, . . . , x
4
), (y
1
, . . . , y
4
)
_
x
1
y
1
+ x
2
y
2
+ x
3
y
3
x
4
y
4
4. V = C
0
([a, b], R)
VV R
(f, g)
_
b
a
f(x)g(x)dx
55
56 CHAPITRE 5. FORMES BILIN

EAIRES
Remarques
1. Plus generalement, on peut denir, de mani`ere analogue la notion dappli-
cation bilineaire UV W (o` u U,V,W sont des K-espaces vectoriels)
2. Une application multilineaire
VV. . . V
. .
p
V* V* . . . V*
. .
q
K
sappelle un tenseur p fois covariant et q fois covariant.
La matrice dune forme bilineaire (par rapport `a une base)
Soit
c Alexis Barri`ere, 2005